AI-beoordelaars Google Bard 'ontslagen na kritiek over hoge werkdruk'

AI-beoordelaars Google Bard 'ontslagen na kritiek over hoge werkdruk'

15-06-2023 19:53

Zes uitzendkrachten die de antwoorden van de chatbot van Google moesten beoordelen zeggen dat ze zijn ontslagen omdat ze kritiek hadden geuit op de lage lonen en de onredelijk krappe deadlines.

De inhuurkrachten, die via het externe bedrijf Appen werden ingeschakeld voor het werk aan de AI-systemen van Google, klagen dat ze onder enorme tijdsdruk de antwoorden van Google Bard moesten voorzien van feedback. Ze vinden ze dat voor hun beoordelingstaken veel te weinig tijd kregen, waardoor ze hun werk niet goed konden doen. Ze waarschuwen dat dit gevolgen kan hebben voor de kwaliteit van de antwoorden van de chatbot. De zes medewerkers zijn na hun kritiek ontslagen en hebben nu een klacht ingediend bij de Amerikaanse National Labour Relations Board, meldt de Washington Post.

Appen is een bedrijf dat tienduizenden uitzendkrachten levert aan grote techbedrijven. De ontslagen medewerkers drongen bijna een jaar lang aan op betere lonen en arbeidsomstandigheden. Ze werden ontslagen vlak nadat een van hen een brief naar het Amerikaanse Congres had gestuurd om te waarschuwen dat de manier waarop de AI-beoordelaars moesten werken de kans vergroot dat Google Bard onwenselijke of schadelijke antwoorden geeft. "Het feit dat beoordelaars zo worden uitgebuit, kan leiden tot tekortkomingen en uiteindelijk een gevaarlijker product", staat er in de brief.

Appen stelde dat de medewerkers zijn ontslagen om 'zakelijke redenen' en weigert verder commentaar. Een Google-woordvoerder zegt tegen de krant dat het 'een zaak is tussen de medewerkers en Appen'.

Haastige spoed

Sinds de opmars van AI-chatbot ChatGPT van OpenAI klinkt er regelmatig kritiek op de haastige uitrol van AI-tools door grote techbedrijven, die verwikkeld zijn in een felle concurrentiestrijd rond kunstmatige intelligentie. AI-systemen worden getraind met enorme hoeveelheden data die vaak van internet afkomstig zijn, en daardoor kunnen ze bijvoorbeeld racistische en seksistische vooroordelen herhalen. Ook zijn er grote zorgen over verspreiding van desinformatie. Om de resultaten van AI-tools te verbeteren gebruiken techbedrijven meestal laagbetaalde externe inhuurkrachten die handmatig stukjes informatie moeten beoordelen.

Voor elke beoordelingstaak kregen de Appen-medewerkers een strakke tijdslimiet. Een van de ontslagen medewerkers zegt in de Washington Post dat ze bijvoorbeeld maximaal vijf minuten kreeg om een lang, ​gedetailleerd antwoord over de oorzaken van de Amerikaanse burgeroorlog te evalueren. "Dat is voor een mens onmogelijk om te doen." Appen betaalt de AI-beoordelaars 14,50 dollar bruto per uur.

Nadat Microsoft in februari een AI-chatbot toevoegde aan zijn zoekmachine Bing presenteerde Google kort daarna Bard. In maart begon Google met de uitrol in de VS, later gevolgd in meer landen. De techreus had Bard deze week eigenlijk ook in de EU willen lanceren, maar heeft dat uitgesteld na privacyzorgen. De Ierse privacytoezichthouder wil eerst meer informatie ontvangen van Google. 

Laagbetaalde Afrikanen 

Het is niet de eerste keer dat de slechte arbeidsomstandigheden en lonen van AI-beoordelaars onder de loep liggen. Eerder dit jaar bleek dat OpenAI veel beoordelingswerk voor het model achter ChatGPT had uitbesteed aan Afrikaanse medewerkers die minder dan 2 dollar per uur verdienden.

Daarbij ging het om werk aan een veiligheidssysteem om de 'giftige' content van de chatbot te beperken. OpenAI had daarvoor gelabelde voorbeelden van onder andere geweld, haatdragende taal en seksueel misbruik nodig. Uitzendkrachten in Kenia, Oeganda en India kregen via het outsourcingbedrijf Sama tienduizenden van dat soort tekstfragmenten voorgeschoteld. 

De laagbetaalde medewerkers speelden volgens de organisatie Partnership on AI een cruciale rol bij de ontwikkeling van ChatGPT, maar deze data-experts kampen met 'onzekere werkomstandigheden'. "De ontwikkeling van AI-systemen is erg afhankelijk van deze beroepsgroep, en dat probeert men te verbergen." OpenAI erkende tegenover het tijdschrift TIME dat de Afrikaanse medewerkers hebben meegeholpen om 'vooroordelen en schadelijke inhoud te beperken'.

Kijk ook over AI: