Waarom de gemiddelde AI dreigt steeds rechtser te worden

© Unsplash

Waarom de gemiddelde AI dreigt steeds rechtser te worden
25 januari om 14:06
Laatste update: 2 februari om 10:04

Je AI-bot wordt in de toekomst waarschijnlijk steeds rechtser. Omdat vooral linkse nieuwssites AI-bedrijven weren, dreigen diensten als ChatGPT zich vooral te gaan baseren op informatie van rechtse nieuwsbronnen. Dat kan verstrekkende gevolgen hebben.

Meer dan 88 procent van alle grote, Amerikaanse media heeft blokkades ingesteld waardoor AI-bots hun artikelen niet kunnen lezen. Eerder bleek dat bedrijven als OpenAI massaal artikelen van nieuwssites haalden om aan AI’s te leren de schrijfstijl te imiteren en informatie hieruit op te lezen. Voor nieuwsbedrijven killing, want iedereen die zulke AI’s gebruikt komt niet op hun websites.

Zo’n blokkade is dan een logische manier om auteursrecht te beschermen - wie wil weten wat er op de site van The New York Times staat, gaat maar naar The New York Times. Maar het heeft een onbedoeld effect op de ontwikkeling van AI-modellen: omdat vooral grote media in een middenpositie of linkse oriëntatie een blokkade invoeren, richten de AI-bots zich meer op rechtse websites. Die sites, aldus het onderzoek, hebben de deuren nog wagenwijd openstaan. Dat geldt ook veel bij extreemrechtse organisaties als Breitbart, die veel nepnieuws verspreiden rond verkiezingsperiodes.

Nazi-bot

Dat kan juist bij een kunstmatige intelligentie een grote invloed hebben. De software is gemaakt om informatie op te slokken, te interpreteren en daar iets nieuws mee te maken. Het is een soort leergierig kind - en als je die vooral rechtse perspectieven aanleert, kan er ook een overwegend rechtse AI ontstaan.

Een mogelijk scenario werd in 2016 geschetst, toen Microsoft een AI-chatbot op Twitter losliet. Iedereen kon met de bot praten, die op basis daarvan nieuwe dingen leerde. Maar omdat er veel nazi-retoriek met haar werd gedeeld, duurde het niet lang tot de chatbot ditzelfde gedachtengoed ook begon te verspreiden. Microsoft haalde de bot snel offline.

Een rechtser ChatGPT

Die Twitter-bot was uiteraard minder slim dan de generatieve AI-modellen die in 2024 worden gebruikt, maar hetzelfde gevaar sluimert nog steeds. Bij complexe, gevoelige onderwerpen zou de AI bepaalde standpunten als het enige perspectief kunnen interpreteren en dat ook zo kunnen delen.

Als een AI-bot bijvoorbeeld alleen artikelen vindt waarin het migratiebeleid van Europa wordt bekritiseerd, dan kan dat worden geïnterpreteerd als de enige kloppende waarheid. En dan krijg je op de vraag 'wat is het migratiebeleid?' een zeer gekleurd antwoord, waarin die kritische uitlatingen als feit worden gepresenteerd.

Onzichtbaar gevaar

Voor de gebruiker is dat ondertussen onzichtbaar. Waar nieuwssites vaak een duidelijke politieke voorkeur hebben, is de site van een AI een neutraal ogende entiteit. Stel je ChatGPT een vraag, dan is ook lastig te achterhalen op welke bronnen het antwoord is gebaseerd. Je hebt dus geen manier om te zien of je met een gekleurd antwoord te maken hebt. 'Even je bronnen checken' zoals bij Google zit er niet in.

Een makkelijke oplossing is er niet voor. Linkse nieuwssites zouden de blokkades kunnen opheffen, maar zouden er dan moedwillig mee instemmen dat hun auteursrecht wordt geschonden. Maar ze in stand houden zorgt ervoor dat het gedachtengoed waar ze lijnrecht tegenover staan terrein wint.