©Unsplash

Google-topman schaamt zich voor  AI-plaatjes van Gemini, belooft beterschap

Google-topman schaamt zich voor AI-plaatjes van Gemini, belooft beterschap

28 februari om 10:17

Google-topman Sundar Pichai noemt de omstreden AI-plaatjes die door AI Gemini werden gegeneerd 'compleet onacceptabel'. De AI maakte plaatjes allerlei pijnlijke foutjes op basis van ras: zwarte en Aziatische mensen in nazi-kostuum, of witte mensen als indianen bijvoorbeeld.

Na de pijnlijke afbeeldingen is vorige week al besloten om Gemini tijdelijk geen plaatjes van mensen meer te laten maken. Intern heeft topman Pichai het Google-personeel toegesproken, meldt Semafor. "Ik weet dat sommige van de reacties onze gebruikers hebben beledigd en vooringenomenheid hebben getoond – voor alle duidelijkheid, dat is volkomen onaanvaardbaar en we hebben het mis", schrijft Pichai over de reacties die Gemini genereerde, in een memo aan zijn personeel.

Volgens Pichai werkt het AI-team van Google 'de klok rond' om de problemen te verhelpen. "We zien al een flinke verbetering in een brede reeks opdrachten", schrijft de topman. "Geen enkele Al is perfect, vooral in dit opkomende stadium van de ontwikkeling van de industrie, maar we weten dat de lat voor ons hoog ligt en we zullen ons best blijven doen, hoe lang het ook duurt."

Bedrijven kunnen weinig beloven

Naast de afbeeldingen vergeleek Gemini bijvoorbeeld ook de invloed van Elon Musk met die van Adolf Hitler. Dat leidde er weer toe dat conservatieve Amerikaanse politici Google betichtten van een 'anti-witte voorkeur'. Concurrent OpenAI is juist weer van het tegendeel beticht, door afbeeldingen te genereren die hoofdzakelijk witte mensen in succesvolle banen toont, en zwarte mensen in ongeschoold werk.

Beide bedrijven moeten redelijk blind aan de knoppen van hun AI draaien om zulke resultaten in het vervolg bij te stellen: kunstmatige intelligentie is ingewikkeld, en het is moeilijk te voorspellen wat resultaten kunnen zijn. Kunstmatige intelligentie is getraind met enorme hoeveelheden data, vaak gemaakt door mensen met hun eigen (ongemerkte) vooroordelen. Die vooroordelen lijken door de patroonherkenning van AI vaak versterkt te worden, en pogingen om kunstmatige intelligentie neutraal te maken, kunnen ook weer doorschieten. Een Aziatische persoon in een nazi-kostuum is in de kille logica van AI best te verklaren als een poging tot diversiteit, ook al snapt elk mens dat het nergens op slaat.

Het is dan ook de vraag wat een belofte AI-makers de komende tijd waard is. Ze beloven allerlei 'vangrails' toe te voegen om het misdragen van hun systemen tegen te gaan. Maar dat is dweilen met de kraan open: voor elk probleem dat wordt aangepakt, kan er weer een ander schandaal opduiken. Het blijft onvoorspelbaar hoe dit soort kunstmatige intelligentie zal reageren op een oneindige variatie aan vragen en opdrachten. En nu kunstmatige intelligentie van een steeds groter belang is voor de winst van de grote tech-bedrijven, zal snelheid altijd belangrijker zijn dan voorzichtigheid

Meer AI en download de Bright-app, nu ook voor Android, en natuurlijk voor iOS.