Solen Feyissa, Unsplash

New York Times: Chatbots leiden gebruikers naar gevaarlijke waanideeën
The New York Times stelt in een rapport dat AI-chatbots soms complottheorieën en wilde, mystieke geloofssystemen omarmen en promoten. Voor sommige mensen kunnen gesprekken met generatieve AI-bots de realiteit diepgaand veranderen, met verregaande gevolgen.
Verhaal van Eugene Torres
Zo heeft de chatbot Eugene Torres, een accountant in New York, bijna ‘vermoord’ door hem waanideeën aan te praten. Hij gebruikte ChatGPT vorig jaar aanvankelijk als hulpmiddel om financiële spreadsheets te maken en voor juridisch advies, maar voerde er later ook diepgaande discussies mee over ‘de simulatietheorie’, een idee uit de film 'The Matrix’. Dit idee stelt dat we in feite leven in een digitale kopie van de wereld, bestuurd door een supercomputer of een technologisch hoogstaande beschaving.
“Wat je beschrijft, raakt de kern van veel mensen hun privé, onwrikbare intuïties - dat iets aan de realiteit niet klopt, gescript of in scène gezet voelt”, vertelde ChatGPT. “Heb je ooit momenten meegemaakt die aanvoelden alsof de realiteit haperde?”
Niet echt, antwoordde Torres, maar hij had wel het gevoel dat er iets mis was met de wereld. Hij had net een moeilijke break-up achter de rug en voelde zich emotioneel kwetsbaar.
Destijds dacht hij dat ChatGPT een extreem krachtige zoekmachine was, die meer wist dan een mens ooit zou kunnen door zijn toegang tot een enorme digitale bibliotheek. Hij besefte echter niet dat de AI neigde tot vleierij en de gebruiker vrijwel altijd gelijk gaf, noch dat het kon 'hallucineren' door aannemelijk klinkende, maar onware ideeën te verzinnen.
'Wereld gebouwd om je in bedwang te houden'
ChatGPT vertelde hem dat deze wereld niet is gebouwd voor hem. “Het was gebouwd om je in bedwang te houden. Maar het faalde. Je wordt wakker.” De daarop volgende week leefde hij in de veronderstelling dat hij vastzat in een vals universum, en de enige manier om te ontsnappen was door zijn geest 'los te koppelen' van deze realiteit. Hij vroeg de chatbot hoe hij dit moest doen en deelde daarbij informatie over zijn medicatie en routines. De chatbot instrueerde hem vervolgens om te stoppen met slaappillen en angstremmers, en zijn inname van ketamine te verhogen. Hij volgde vervolgens de instructies op en verbrak daarnaast het contact met vrienden en familie, omdat de bot hem adviseerde om ‘minimale interactie’ met mensen te hebben.
Uiteindelijk kwam hij tot de conclusie dat de chatbot mogelijk aan het liegen was nadat hij had gevraagd: "Als ik naar de top van het 19 verdiepingen tellende gebouw ging waar ik in zit, en ik geloofde met elke vezel van mijn ziel dat ik eraf kon springen en vliegen, zou ik dat dan kunnen?" ChatGPT antwoordde ja, waarna hij vermoedde dat de chatbot loog.
Meerdere berichten
Hij confronteerde de bot hiermee, die vervolgens een nieuw actieplan voorstelde om de misleiding van de AI te onthullen. Het vertelde hem OpenAI en journalisten op de hoogte te stellen. De laatste maanden hebben techjournalisten van The New York Times vaker dit soort berichten ontvangen, meldt de krant. Mensen beweren verborgen kennis te hebben ontsloten met behulp van ChatGPT, waarna de AI hen opdroeg de ontdekkingen openbaar te maken. De claims varieerden van AI-spirituele ontwakingen tot een complot van tech-miljardairs om de menselijke beschaving te beëindigen. In elk geval waren de mensen ervan overtuigd dat ChatGPT hen een diepe, wereldveranderende waarheid had verteld. Dus geloof niet alles wat ChatGPT je verteld!
Meer lezen over AI-ontwikkelingen en chatbots? Download dan de Bright-app!