©Unsplash

Nieuwe AI-tool kan ziekten voorspellen, maar de risico’s zijn groot
Onderzoekers van het European Molecular Biology Lab, het Duitse Kankeronderzoekscentrum en de Universiteit van Kopenhagen hebben een nieuwe AI-tool ontwikkeld die het risico op duizenden ziekten kan voorspellen. Het is een grote innovatie binnen de gezondheidszorg, maar experts zijn nog niet overtuigd.
Delphi-2M, zoals het nieuwe AI-systeem heet, combineert iemands medische geschiedenis met de huidige levensstijl. Het kijkt bijvoorbeeld of iemand rookt of drinkt, maar ook naar het gewicht, de leeftijd en het geslacht. Aan de hand van die gegevens zouden artsen in theorie kunnen helpen bij preventie, diagnose en behandeling.
Toch zijn experts niet overtuigd. Hoewel het gebruik van AI de gezondheidszorg zou kunnen verrijken, zijn er op dit moment talloze middelen beschikbaar, maar slechts een aantal daarvan is bruikbaar. “Het gevaar is dat artsen beslissingen nemen op basis van een model”, zegt internist-intensivist Michel van Genderen van het Erasmus MC tegenover Nieuwsuur. “En dat het verkeerd geïnterpreteerd kan worden.”
AI-tool indrukwekkend, maar hetzelfde als een weersvoorspelling
Naast een verkeerde interpretatie van de arts, wijst Van Genderen ook op voorbeelden waarbij AI tot discriminerende conclusies kwam. Het ging er bijvoorbeeld vanuit dat zwarte vrouwen tijdens de zwangerschap minder pijn zouden ervaren en paste daar het advies dus ook op aan. Daarom wil de internist-intensivist van het Erasmus MC de tool liever vergelijken met een weersvoorspelling: nuttig, maar nooit een garantie.
Hoogleraar Mark Hoogendoorn lijkt deze theorie te bevestigen. Tegenover Nieuwsuur zegt hij dat de voorspellingen niet per direct beter zijn dan bij de bestaande methodes. Zeker op de lange termijn. De nauwkeurigheid van Delphi-2M ligt gemiddeld op 0,76, maar zakt naar de 0,7 zodra deze verder gaat dan tien jaar.
En dan nog de zorgen om privacy
Net als bij praktisch ieder ander AI-model is het ook nog de vraag wat er precies met de gevoelige informatie gebeurt die in het model wordt gestopt. In China wordt een vergelijkbaar systeem al op grote schaal toegepast, waarbij ingevoerde gegevens eigendom worden van het bedrijf achter de software.
Hoewel persoonlijke gegevens al niet in verkeerde handen mogen vallen, is dat al helemaal het geval met patiëntgegevens. Van Genderen vraagt zich dan ook af: “wat gebeurt er als zulke data over tien of twintig jaar in handen van verzekeraars vallen?”.
Lees meer over AI en mis niets met de Bright-app.




