Maker populaire AI-chatbots: ‘Onze chatbot hoeft niet te worden aangepast na dood tiener’

©Character.ai

Maker AI-chatbots: ‘Onze chatbot hoeft niet te worden aangepast na dood tiener'
26 januari om 21:30
Update: 26 januari om 21:53

De bekende AI-chatbotmaker Character AI stelt dat het zijn chatbot volgens de wet niet hoeft aan te passen na de suïcide van een jonge gebruiker van de bots.

Character AI heeft een motie ingediend tegen een rechtszaak die de ouders van een tiener hebben aangespannen nadat hij verslaafd zou zijn geraakt aan de diensten van het bedrijf. Character AI laat je een soort rollenspel doen met AI-chatbots. 

Character AI

Megan Garcia wil dat Character AI meer doet om zelfmoord te voorkomen, na de zelfmoord van haar zoon Sewell Setzer III. De 14-jarige zou zo emotioneel afhankelijk zijn geworden van het personage Dany, dat hij zijn realiteitszin verloor. In reactie op zijn dood heeft het techbedrijf een aantal veiligheidsmaatregelen getroffen, waaronder een betere detectie en snellere reactie bij chats die tegen de gebruiksvoorwaarden zijn. 

Garcia vindt het niet genoeg. Zij stelt dat er meer maatregelen moeten komen, waaronder het verwijderen van de mogelijkheid voor AI-bots om verhalen en ‘persoonlijke’ anekdotes te vertellen. Iets waarvan Character AI zich beroept op het Eerste Amendement. 

Expressieve uiting

“Het Eerste Amendement sluit aansprakelijkheid wegens onrechtmatige daad uit voor media- en technologiebedrijven als gevolg van vermeende schadelijke uitlatingen, waaronder uitlatingen die zelfmoord tot gevolg zouden hebben. Het enige verschil tussen deze zaak en eerdere zaken is dat een deel van de uiting hier AI betreft. Maar de context van de expressieve uiting - of het nu gaat om een gesprek met een AI-chatbot of een interactie met een videogamepersonage - verandert niets aan de analyse van het Eerste Amendement,” aldus Character AI, dat hiermee vooral doelt op de rechten van gebruikers die met dit soort maatregelen zouden worden geschonden.

Of de twee partijen eruit komen, is nog afwachten. Ook in Nederland is Character.ai te gebruiken, al staat daar dus wel de melding dat je met AI praat en niet met een echt persoon en dat alles als fictief moet worden beschouwd.


Kamp je met suïcidale gedachten? Neem contact op met 0800-0113 Zelfmoordpreventie.