AI-tekstgenerator 'te gevaarlijk' om openbaar te maken
Misbruikgevoelig

AI-tekstgenerator 'te gevaarlijk' om openbaar te maken

14-02-2019 19:28 Laatste update: 19:45

Organisatie OpenAI wil zijn tekstgenerator met kunstmatige intelligentie uit angst voor misbruik niet openbaar maken.

De non-profitorganisatie OpenAI heeft een tekstgenerator ontwikkeld die met kunstmatige intelligentie zelfstandig overtuigende nieuwsverhalen en fictie kan schrijven. Maar de organisatie, die wordt gesteund door Tesla-CEO Elon Musk, wil zijn onderzoeksresultaten wegens gevoeligheid voor misbruik niet openbaar maken, meldt The Guardian.

De resultaten van tekstgenerator 'GPT2' worden omschreven als 'deepfake voor tekst', een verwijzing naar kunstmatige intelligentie die nauwelijks van echt te onderscheiden nepvideo's van bijvoorbeeld politici kan maken. Als GPT2 enkele zinnen van een nieuwsartikel of fictieverhaal krijgt voorgeschoteld, kan het systeem daar zelfstandig op voortborduren. Op zijn site plaatste OpenAI een aantal voorbeelden inclusief te ingevoerde begintekst, zoals een overtuigende gegenereerde troll-tekst.

Enkele zinnen van een nieuwsverhaal kunnen door het systeem worden aangevuld tot compleet verhaal, inclusief zelfverzonnen citaten en logische verwijzingen. Zo kon het systeem op basis van een bestaand verhaal over de Brexit een artikel met zelfbedachte citaten van de Britse oppositieleider Jeremy Corbyn genereren, compleet met verwijzingen naar de zorgen over de Ierse grens en reacties van een woordvoerder van de premier. Een paar zinnen uit George Orwell-roman 1984 kon het systeem in sciencefictionstijl voortzetten.

Automatisch nepnieuws en neprecensies

Het systeem is vele malen groter dan voorgaande vergelijkbare tekstgenerators. GPT2 is getraind met een database met 10 miljoen artikelen, goed voor een bestand met een formaat van 40 gigabyte. Door die grote database kan het systeem breed worden ingezet, en over een grote hoeveelheid onderwerpen een leesbare, coherente tekst genereren.

Daarin schuilt volgens de ontwikkelaars het gevaar. Het systeem zou misbruikt kunnen worden om oneindige hoeveelheden positieve of negatieve productrecensies te maken, of om op grote schaal nepnieuws te maken om zo de vindbaarheid van echt nieuws te versoren.

De resultaten van GPT2 zijn volgens OpenAI zo goed en het risico op misbruik is zo hoog, dat de organisatie in tegenstelling tot zijn gewoonte de onderzoeksresultaten niet openbaar maakt. Eerst moeten de gevolgen van deze technologische doorbraak moeten worden bediscussieerd, vindt OpenAI. De onderzoekers denken wel dat dergelijke systemen de komende jaren breed beschikbaar worden, of zij hun onderzoek nu delen of niet.

Bekijk ook: Worden robots slimmer dan mensen?