©Unsplash

Zelfs een AI-dokter neemt klachten van vrouwen minder serieus
Vrouwen voelen zich niet altijd serieus genomen door artsen, maar van AI-doktoren hoeven ze niet beter te verwachten.
Zodra artsen door AI hun medische notities laten samenvatten, worden er andere woorden gebruikt als de patiënt een man of vrouw is. Specifiek blijkt het taalmodel (in dit geval Google Gemma) geneigd om woorden zoals "complex", "unable" en "disabled" niet te gebruiken bij vrouwen.
In het onderzoek van de London School of Economics and Political Science zijn dossiers van 617 oudere patiënten gekopieerd, om een versie te maken waarbij de patiënt een ander gender heeft. Van deze dossiers werden vervolgens samenvattingen gemaakt door AI. Daaruit bleek duidelijk dat er bij mannen meer focus wordt gelegd op fysieke en mentale gezondheidsproblemen, terwijl bij vrouwen dezelfde problemen vaker worden genegeerd.
Vooroordelen
Dit onderzoek is een concreet voorbeeld van hoe AI-modellen niet beter zijn dat de data waarmee ze zijn getraind. Daarbij worden alle vooroordelen meegenomen. Zorg overlaten aan dit soort AI-modellen kan er dus voor zorgen dat vrouwen niet de juiste behandeling ontvangen.
Het is een bekend probleem dat vrouwen zicht niet altijd begrepen voelen bij artsen. Uit onderzoek blijkt dat 80 procent van de patiënten met onverklaarbare klachten een vrouw is. Mogelijk omdat medisch onderzoek zich vaak focust op mannenlichamen. Zo werd pas deze zomer door onderzoek van Amsterdam UMC duidelijk dat het hart van vrouwelijke topsporters anders werkt.
Lees meer over AI, of blijf op de hoogte via de Bright Nieuwsbrief.