AI-ontwikkeling 'roekeloos en geheimzinnig', waarschuwen medewerkers OpenAI en Google

©Unsplash

AI-ontwikkeling 'roekeloos en geheimzinnig', stellen medewerkers OpenAI en Google
4 juni om 22:05

Voormalige en huidige medewerkers van OpenAI en Google DeepMind waarschuwen voor de 'roekeloosheid' waarmee kunstmatige intelligentie momenteel op hoge snelheid wordt ontwikkeld, en de onveiligheid die dat oplevert voor zowel gebruikers als het personeel.

In een open brief waarschuwen de AI-medewerkers ervoor dat bedrijven zoals OpenAI toezicht en kritiek de kop willen indrukken, omdat ze dat niet kunnen gebruiken. "Wij zijn huidige en voormalige medewerkers bij de koplopers van AI-bedrijven, en geloven in het potentieel van AI om ongekende voordelen voor de mensheid te brengen", luidt de opening van de brief – om dat misverstand meteen maar uit te weg te hebben.

Maar voor die voordelen voor de mensheid hoeft niet alles te wijken, vinden de ondertekenaars. Er staan 13 handtekeningen onder de brief, van dus zowel huidige als voormalige medewerkers van OpenAI, en ook van Google DeepMind en Anthropic. De brief wordt ook gesteund door professor Geoffrey Hinton, ook wel de 'godfather van deep learning' genoemd.

'Risico's bekend, toch gebeurt er niks'

De briefschrijvers waarschuwen dat de risico's van de roekeloze AI-ontwikkeling bekend zijn. En ook al zijn er in de VS en EU snel wetten doorgevoerd om de ontwikkeling te handhaven, worden zulke maatregelen door de grote AI-bedrijven tegengewerkt, aldus de open brief. "Zolang er geen effectief overheidstoezicht is op deze bedrijven, behoren huidige en voormalige werknemers tot de weinige mensen die hen verantwoordelijk kunnen houden aan het publiek", aldus de ondertekenaars.

Dat maakt medewerkers dus tot klokkenluiders, en dat is een gevaarlijke en vaak ondankbare rol. Wie zorgen openbaar maakt, riskeert ontslag en kan soms nergens meer aan de slag. Het gaat dan om allerlei zorgen, van de veiligheid van AI-functies tot de hoge werkdruk binnen de bedrijven.

"AI-bedrijven beschikken over substantiële niet-openbare informatie over de mogelijkheden en beperkingen van hun systemen, de toereikendheid van hun beschermende maatregelen en de risiconiveaus van verschillende soorten schade. Ze hebben momenteel echter slechts zwakke verplichtingen om een deel van deze informatie met regeringen te delen, en geen met het maatschappelijk middenveld."

Vier principes

De briefschrijvers pleiten voor vier principes. Ten eerste willen de ondertekenaars dat er geen straf komt te staan op het openlijk uiten van kritiek of zorgen over AI-bedrijven. Ten tweede: een anonieme manier om zorgen aan het bestuur van het bedrijf kenbaar te maken. Ten derde: een cultuur waarin open kritiek welkom is. Ten vierde: geen wraak op (voormalig) medewerkers die hun zorgen over risico's hebben geuit.

Kritiek lijkt terecht

Er is al eerder kritiek geleverd op de snelheid waarmee bedrijven AI-functies ontwikkelen en vrijgeven. Onlangs kwam Google nog gênant in het nieuws met allemaal onjuiste AI-antwoorden. En bij OpenAI vertrok onlangs de medeoprichter en hoofdwetenschapper van het bedrijf, Ilya Sutskever. Reden onbekend, maar Sutskever stond bekend als voorvechter van veilheid binnen het bedrijf.

Ook vertrok vorige maand de belangrijke OpenAI-onderzoeker Jan Leike. "De afgelopen jaren zijn de veiligheidscultuur en -processen overschaduwd door glanzende producten", aldus Leike bij zijn vertrek. Met andere woorden: de AI-bedrijven staan niet zo stil bij de gevolgen, als er maar nieuwe functies uitgepompt worden.

Meer kunstmatige intelligentie en mis niets met onze Bright-app.