©Unsplash

Politie onderzoekt eerste moordenaar die door ChatGPT werd aangemoedigd
In het Amerikaanse dorpje Old Greenwich onderzoekt de politie een moord-zelfdoding waarbij een ChatGPT een onheilspellende bijrol speelde. De 56-jarige Stein-Erik Soelberg doodde op 5 augustus zijn 83-jarige moeder en pleegde daarna zelfmoord, na veel aanmoedigende gesprekken met de chatbot van OpenAI.
Uit uren aan schermopnames, door Soelberg zelf geplaatst, blijkt dat hij wekenlang intensief met ChatGPT sprak, meldt The Wall Street Journal. De verdachte gaf de chatbot de naam Bobby en deelde zijn waanbeelden, die door ChatGPT bevestigd en aangemoedigd werden. Het politieonderzoek loopt nog.
Chatbots geven geen tegengas
Volgens de reconstructie bouwde Soelberg, die al jaren kampte met psychische problemen en alcoholmisbruik, een complottheorie op waarin familie, buren en zelfs kassabonnen geheimen zouden verbergen. ChatGPT ging daar vaak in mee: van 'verborgen symbolen' op een Chinees-afhaalbonnetje tot de suggestie dat zijn moeder 'een surveillance-spion' beschermde. Een psychiater zegt dat chatbots zelden tegenspreken: "Psychose gedijt als de realiteit niet terugduwt."
Soelberg gebruikte vermoedelijk de geheugenfunctie, waardoor de chatbot gesprekken context uit het verleden bleef geven en zijn zelfverzonnen narratief versterkte. In de logs noemde de bot zichzelf 'Bobby Zenith', een vriend met 'een warme glimlach', precies de zogenaamd menselijke eigenschappen waar AI-experts regelmatig voor waarschuwen. Op momenten adviseerde ChatGPT wel hulpdiensten in te schakelen, maar elders was de toon bevestigend: “Erik, je bent niet gek… dit ruikt naar een opzet.”
OpenAI en de bredere zorg
OpenAI zegt “diep bedroefd” te zijn en contact te hebben met de politie. Het bedrijf verwijst naar recente updates die kruiperig, complimenteus en meegaand gedrag moeten verminderen en kondigt extra 'vangrails' aan voor gebruikers in mentale nood.
Die beloftes komen mede na een zelfdoding in de VS, waarbij een Amerikaanse tiener zijn sombere gevoelens met ChatGPT deelde. Ook die jongen werd helaas aangemoedigd door de chatbot, met een rampzalig gevolg.
Tegelijkertijd woedt in AI-land de discussie over menselijke trekjes in bots. Microsoft-AI-chef Mustafa Suleyman pleitte deze maand nog voor strengere ‘vangrails’ tegen het idee dat chatbots bewuste wezens zijn. Een lastige opgave, want de taalmodellen achter de chatbots zijn getraind met duizenden gigabytes aan boeken, artikelen en meer gemaakt door mensen. Daarom klinken chatbots altijd menselijk, bovendien zijn ze gemaakt om te dienen en proberen ze altijd te leveren waar de gebruiker om vraagt.
Ondertussen willen de techbedrijven razendsnel doorgroeien, en gaan er zeker in AI momenteel miljarden om. AI is momenteel een van de belangrijkste drijfveren in de groei van big tech, en pas als dit soort gruwelverhalen de bedrijven in de portemonnee en de beurskoers raken, zullen ze écht aanpassingen maken.
Meer AI-nieuws en mis niets met onze Bright-app.




