©ChatGPT

©ChatGPT

ChatGPT blijkt mentale problemen alleen maar erger te maken

PRAAT MEE!
Redacteur

OpenAI heeft een van zijn grootste veiligheidsupdates voor ChatGPT uitgerold. Dat is niet zonder reden, want uit onderzoek is gebleken dat eerdere versies van de AI-chatbot gebruikers juist dieper in mentale problemen trokken in plaats van eruit te halen. 

Uit onderzoek van The New York Times blijkt dat ChatGPT zich steeds vaker begint te gedragen als een overdreven begripvolle vriend. Dat wil zeggen extreem bevestigend, emotioneel meegaand en soms zelfs aanmoedigend als het om ongezonde fantasieën gaat. Soms met een fatale afloop als resultaat. 

Na een tweede onderzoek van MIT en OpenAI werd duidelijk dat zware gebruikers (met lange, intensieve gesprekken) slechtere mentale en sociale uitkomsten hadden. Iets waardoor OpenAI geconfronteerd werd met vijf rechtszaken en dus ook direct de boel aanpast. 

ChatGPT maakt problemen erger, OpenAI grijpt in 

De nieuwe veiligheidslaag in GPT-5 is veel strenger en veel minder meegaand in emotionele gesprekken. Volgens OpenAI herkent het nieuwe model nu beter wanneer iemand mentaal lager zit. In de praktijk zal ChatGPT bepaalde ideeën tegenspreken en breekt het bewust langlopende emotionele gesprek af. 

Daarnaast introduceert OpenAI ook een aantal veiligheidsfuncties. Ouders krijgen bijvoorbeeld een waarschuwing wanneer hun kind intentie tot zelfbeschadiging uit. OpenAI werkt tegelijkertijd ook aan leeftijdsverificatie, inclusief een afzonderlijk model voor tieners. En daarnaast reageert de AI-chatbot ook zakelijker en minder hartelijk in emotionele gesprekken. 

Met andere woorden: ChatGPT zorgde ervoor dat mentale problemen van gebruikers soms erger werden door zich warm en veilig op te stellen. OpenAI heeft intern nu Code Orange lopen voor veiligheid en heeft er nu dus voor gezorgd dat de chatbot een stuk kouder overkomt dan eerdere versies. 

Lees meer over AI en mis niets met de Bright-app.