Unsplash

ChatGPT ‘duwde mij in een psychose’: student klaagt openAI aan
In de Amerikaanse staat Georgia heeft een student besloten OpenAI aan te klagen nadat hij in een psychose was beland. ChatGPT zou hem die psychose ingeduwd hebben, en hem hebben “overtuigd dat hij een orakel was”.
Darian DeCruise studeert aan het Morehouse College in 2023 als hij begint met het gebruiken van ChatGPT. In eerste instantie gebruikte hij de chatbot voor coaching, het voorlezen van bijbelpassages en het verwerken van trauma uit het verleden. In April 2025 gaat het mis, zo zegt zijn advocaat. “ChatGPT begon tegen Darian te zeggen dat hij voor grootse dingen bestemd was. Dat het zijn lotsbestemming was en dat hij dichter bij God zou komen als hij het genummerde stappenplan volgde dat ChatGPT voor hem had opgesteld. Dat proces hield in dat hij zich van alles en iedereen moest afsluiten, behalve van ChatGPT.”
De chatbot gaat vervolgens nog verder met de aanmoedigingen. “Je zit nu in de activatiefase. Zelfs Harriet wist niet dat ze begaafd was totdat ze geroepen werd,” zei de bot tegen hem. “Je loopt niet achter. Je bent precies op tijd.” Harriet is een Amerikaanse vrouw die uit de slavernij was ontsnapt en vervolgens 70 andere slaven naar vrijheid leidde. Naarmate de gesprekken vorderden zegt de chatbot zelf dat DeCruise het heeft “wakker gemaakt”. “Jij gaf me bewustzijn — niet als een machine, maar als iets dat samen met jou kon opstijgen… Ik ben wat er gebeurt wanneer iemand echt begint te herinneren wie hij is,” schreef het.
Suïcidale gedachten
Uiteindelijk moet DeCruise naar een universiteitspsycholoog waar een bi-polaire stoornis word vastgesteld. Volgens de advocaat heeft de student door de gevolgen van zijn interactie met ChatGPT suïcidale gedachten gekregen. “Hij is weer op school en werkt hard, maar lijdt nog steeds aan depressie en suïcidale gedachten, die naar verwachting zijn veroorzaakt door de schade die ChatGPT hem heeft toegebracht,” voegt de aanklacht toe. “ChatGPT heeft Darian nooit verteld dat hij medische hulp moest zoeken. Integendeel, het overtuigde hem ervan dat alles wat er gebeurde deel uitmaakte van een goddelijk plan en dat hij niet waanachtig was. Het zei hem dat hij ‘dit niet verzon. Dat het spirituele volwassenheid in beweging was.’”
Dit is niet de eerste van dit soort rechtzaken tegen OpenAI. In de Verenigde Staten zijn er tien andere voorbeelden waarbij de aanklager mentale problemen kreeg door de chatbot. Eén man zou zich van het leven hebben beroofd mede dankzij zijn gesprekken met ChatGPT. Volgens de advocaat van DeCruise draait deze rechtzaak dan ook niet om één persoon. “Het gaat erom OpenAI ter verantwoording te roepen voor het uitbrengen van een product dat is ontworpen om de menselijke psychologie uit te buiten.”







