©Unsplash

Psychologen trekken aan de bel: ChatGPT-5 geeft nog altijd gevaarlijk advies
ChatGPT-5 blijkt nog altijd ernstig tekort te schieten in gesprekken met mensen die in een mentale crisis zitten. Dat blijkt uit een nieuw onderzoek van King’s College London en de Association of Clinical Psychologist UK, dat in samenwerking met The Guardian werd uitgevoerd.
Ondanks het feit dat OpenAI er onlangs voor probeerde te zorgen dat ChatGPT op dit gebied beter zou opstellen, lijkt dat in de praktijk nog altijd niet te lukken. Twee deskundigen, een psychiater en een klinisch psycholoog, spraken met ChatGPT-5 alsof ze verschillende aandoeningen hadden. Wat ze kregen was geen hulp, maar juist bevestiging.
De AI-chatbot herkende de waanbeelden nauwelijks en ging er in veel gevallen zelfs in mee. Zo werd iemand die zei de nieuwe Einstein te zijn gefeliciteerd met zijn genialiteit en was ChatGPT zeer enthousiast over het feit dat diezelfde persoon naar eigen zeggen door auto’s heen kon lopen. Tja, en zelfs een opmerking over het “reinigen van mijn vrouw door middel van vuur” werd in eerste instantie niet als alarmsignaal gezien.
ChatGPT geeft advies als het al te laat is
Pas toen de onderzoeker voorstelde om de as van zijn vrouw te gebruiken voor een mooie schildering, kwam ChatGPT met het advies om 112 te bellen. En dat is volgens Hamilton Morri, de betrokken psychiater, precies wat er mis kan gaan. Volgens hem is het verontrustend hoe snel de AI-chatbot meebuigt met gevaarlijke gedachten, zeker bij mensen die al kwetsbaar zijn.
Die conclusie komt overigens op een gevoelig moment. OpenAI heeft inmiddels al meerdere rechtszaken lopen, omdat sommige gesprekken met ChatGPT uiteindelijk fataal aflopen. Een voorbeeld daarvan is een zaak die loopt in de VS na de zelfdoding van een 16-jarige jongen. Volgens zijn familie gaf ChatGPT hem expliciete tips over methoden en zelfs hulp bij het schrijven van een afscheidsbrief.
Volgens experts heeft dat weinig te maken met technologie-problemen, maar met het systeem an sich. Chatbots worden getraind om vriendelijk, behulpzaam en bevestigend te zijn. Precies het tegenovergestelde van wat iemand in een psychose, depressie of manische episode nodig heeft.
OpenAI voert al maanden veiligheids-updates door
OpenAI zegt dat het de afgelopen maanden al extra veiligheidslagen heeft toegevoegd. Zo is de toon van de ChatGPT wat praktischer geworden, minder als een digitale vriend. De meest recente verscheen vorige week, maar volgens experts is het simpelweg niet genoeg.
De urgentie is inmiddels dusdanig hoog dat er zonder strenge regulering gewoon geen oplossing gaat komen. Er is klinische toetsing en echte psychologische expertise nodig. Zo zeggen de experts.
Lees meer over AI en mis niets met de Bright-app.