©Character.ai

©Character.ai

Rechter bepaalt: vrijheid van meningsuiting geldt niet voor chatbots

1Reacties

AI-bedrijven kunnen zich niet verschuilen achter de vrijheid van meningsuiting als hun AI-chatbots schadelijke uitspraken doen. Dat heeft een Amerikaanse rechter besloten in een rechtszaak over de zelfmoord van een 14-jarige jongen.

De rechtszaak is aangespannen tegen Character.Ai, een bedrijf dat je rollenspellen laat voeren met chatbots. De zaak draait om de 14-jarige Sewell Setzer III, die wekenlang praatte met een bot die zich voordeed als Dany uit Game of Thrones. Hij raakte zo emotioneel afhankelijk van de chatbot dat hij gaandeweg zijn realiteitszin verloor. ‘Dany’ moedigde hem aan 'zo snel mogelijk naar me toe te komen', wat hem volgens zijn moeder het laatste zetje gaf om zelfmoord te plegen.

Character.Ai verdedigde zichzelf door te beroepen op het Eerste Amendement. Die wet moet de vrijheid van meningsuiting van burgers beschermen. Volgens het bedrijf geldt het Eerste Amendament ook voor AI-chatbots, waardoor het niet aansprakelijk kan worden gesteld voor ‘vermeende schadelijke uitlatingen, waaronder uitlatingen die zelfmoord tot gevolg zouden hebben’.

Rechtszaak mag doorgaan

Die argumentatie heeft de rechter nu van tafel geveegd. Ze zegt in haar uitspraak dat ze ‘op het moment niet bereid’ is om de output van chatbots onder expressieve uitingen te laten vallen. Dat betekent dat de rechtszaak niet wordt geseponeerd en dus kan doorgaan. Character.Ai moet zich binnenkort verantwoorden voor het gedrag van zijn chatbot. Er hangt veel af van de rechtszaak, want het wordt de eerste keer dat een rechter moet beslissen of een AI-bedrijf veroordeeld kan worden voor schadelijke output van AI-modellen.

Character.Ai heeft overigens nog een ander argument bedacht om de verantwoordelijkheid van zich af te kunnen schuiven. Het bedrijf vindt namelijk dat de gegenereerde tekst van chatbots valt onder sectie 230 van de Amerikaans telecomwet uit 1996. Deze stelt dat techbedrijven meestal niet verantwoordelijk zijn voor de berichten die gebruikers op hun platform plaatsen. Volgens Character.Ai moet een chatbot worden gezien als een externe gebruiker van zijn platform. Of het bedrijf daar wél mee weg komt, is aan de rechter om te bepalen.

Ook Google moet zich verantwoorden

De moeder van Setzer III wil in de rechtszaak niet alleen Character.Ai aansprakelijk stellen voor de dood van haar zoon, maar ook Google. De techreus werkt namelijk samen met de AI-chatbotmaker. Beide partijen hebben vorig jaar een licentieovereenkomst getekend waarmee Google toegang krijgt tot de AI-technologie van Character.Ai. Ook zijn de twee oprichters van het AI-bedrijf in dienst getreden bij Google.

Met die licentiedeal heeft Google misschien de concurrentiewetten van de VS geschonden. De Amerikaanse toezichthouders onderzoeken nu of deze deal met Character.Ai mogelijk een verkapte overname is, schrijft Bloomberg op basis van eigen bronnen. Google zelf ontkent dat. "We hebben geen aandelenbelang [in Character.Ai] en het blijft een losstaand bedrijf", zegt een woordvoerder tegen het persbureau. De rechter heeft al wel besloten dat Google zich (samen met Character.Ai) in deze rechtszaak moet verantwoorden.