©Freepik

ChatGPT krijgt 'vangrails' nadat mensen waanideeën en psychoses van de chatbot kregen
ChatGPT krijgt 'vangrails' die ervoor moeten zorgen dat mensen die met hun mentale problemen aankloppen niet nog zieker worden en waanideeën krijgen. Want dat gebeurde blijkbaar.
OpenAI zoekt naar manieren om ChatGPT minder schadelijk te maken voor de geestelijke gezondheid van zijn gebruikers. Zo zegt het bedrijf het niet precies, maar daar komt het wel op neer. OpenAI belooft verbeteringen aan het vermogen van ChatGPT om 'emotionele of mentale nood' te detecteren. En als gebruikers in zo'n gevoelige mentale toestand tegen de chatbot praten, zullen er volgens OpenAI voortaan wat dingen anders gaan.
ChatGPT zal voorstellen om een pauze te nemen als gebruikers al lange tijd tegen de chatbot aanpraten. Ook zal ChatGPT minder direct advies geven om 'persoonlijke uitdagingen' aan te gaan. ChatGPT zal daarin meer ondersteunend "en niet bepalend" meer te werk gaan. Tot nu toe ging ChatGPT vooral als een cheerleader te werk, door te zeggen dat de gebruiker heus wel alles kon. Nu zal de chatbot eerder een lijstje met voor- en nadelen opstellen.
In een psychose door ChatGPT
Dat is wel nodig ook, want de afgelopen maanden zijn er tal van voorbeelden geweest van mensen die zelfs in een psychose raakten na gesprekken met ChatGPT. Ook in Nederland worden chatbots als psycholoog gebruikt, schreef de Volkskrant vorige week nog. En OpenAI-topman Sam Altman waarschuwde onlangs nog om ChatGPT toch vooral niet als persoonlijke therapeut te gebruiken, mede omdat de chatbot geen beroepsgeheim heeft en je niet weet waar je uitgestorte hart allemaal weer kan opduiken. Bovendien was GPT-4o in april nog plotseling te complimenteus, kruiperig en meegaand, wat ook niet bevordelijk is voor mensen nood. Die functie werd snel teruggedraaid, ondertussen is Altman echter 'bang' voor het nieuwe GPT-5.
Ondanks die risico's en gevaren zien experts overigens ook wel mogelijke voordelen in een chatbot als psycholoog of in ieder geval gesprekspartner voor bijvoorbeeld depressieve mensen. Dat zou dan echter wel een specifieker afgericht model zijn, en geen chatbot voor algemeen gebruik zoals ChatGPT. Bovendien zal het altijd een aanvulling zijn, en geen volledig alternatief voor een menselijke psycholoog of arts. Evengoed zijn de wachtlijsten lang, en kunnen chatbots mogelijk dus wel verlichten bieden. Bovendien bestaan ze en worden ze gebruikt, dus kunnen er dan maar beter maatregelen worden genomen.
Iets meer medische achtergrond
"Er zijn gevallen geweest waarin ons 4o-model tekort schoot in het herkennen van tekenen van waan of emotionele afhankelijkheid", aldus OpenAI. "Hoewel zeldzaam, blijven we onze modellen verbeteren en ontwikkelen we tools om tekenen van mentale of emotionele stress beter te detecteren, zodat ChatGPT adequaat kan reageren en mensen kan wijzen op bronnen die op bewijs zijn gestoeld wanneer dat nodig is."
Voor die bronnen heeft OpenAI onder meer de hulp ingeroepen van ruim 90 artsen uit 30 landen: psychiaters, kinderartsen en huisartsen, om de complexere medische gesprekken beter vorm te geven. En tijdens "lange sessies" geeft ChatGPT een melding weer met de tekst: "Je hebt al een tijdje gechat - is dit een goed moment voor een pauze?" Met opties om "te blijven chatten" of het gesprek te beëindigen. Daar schuilt natuurlijk wel het probleem, want uiteindelijk wil OpenAI dat zoveel mogelijk mensen ChatGPT zoveel mogelijk gebruiken.
Meer nieuws over ChatGPT en mis niets met onze Bright-app.




