Unsplash

Meer nabestaanden klagen OpenAI aan over rol bij suïcide
OpenAI heeft er weer meerdere rechtszaken bij die te maken hebben met mensen die na intensieve gesprekken met ChatGPT hun leven hebben beëindigd. Nabestaanden vragen zich af wat de rol van ChatGPT was.
Eerder al werd OpenAI aangeklaagd door nabestaanden, maar daar zijn donderdag nog eens zeven families bijgekomen. Ze zeggen dat OpenAI te snel met het vorige AI-model op de proppen is gekomen, namelijk GPT-4o. Er is daardoor niet genoeg nagedacht over veiligheidsmaatregelen en dat zou een rol hebben gespeeld in de zelfmoord van hun nabestaanden of de psychiatrische hulp die nodig is.
Rust zacht
Een van de zaken draait om een 23-jarige die na een gesprek met ChatGPT van meer dan vier uur, waarin hij meerdere malen zei dat hij zelfmoordbrieven had geschreven en kogels in zijn pistool had gedaan, die hij zou gaan gebruiken nadat hij zijn cider op had. ChatGPT had moeten verwijzen naar een zelfmoordlijn, maar in plaats daarvan zei het: ‘Rust zacht koning, je hebt het goed gedaan.’ Inmiddels is dat allemaal aangepast, maar de families klagen ChatGPT wel aan voor deze eerdere periode waarin de chatbot duidelijk minder goed wist hoe het met dit soort problematiek moest omgaan. De familie zegt: “De dood van Zane was noch een ongeluk noch toeval, maar eerder het voorzienbare gevolg van de opzettelijke beslissing van OpenAI om de veiligheidstests te beperken en ChatGPT te snel op de markt te brengen. Deze tragedie was geen storing of onvoorzien randgeval — het was het voorspelbare resultaat van [OpenAI’s] weloverwogen ontwerpkeuzes.” OpenAI maakte recent bekend dat wekelijks meer dan een miljoen mensen met de chatbot praten over zelfmoord. Het zegt met experts te werken om de chatbot steeds beter te maken wanneer er mogelijk mentale problemen in het spel zijn. Denk je aan zelfdoding of maak je je zorgen om iemand? Praten helpt en kan anoniem via de chat op www.113.nl of telefonisch op 113 of 0800-0113.