©Unsplash

©Unsplash

AI kan jouw politieke mening veranderen (en is bereid om daarvoor te liegen)

PRAAT MEE!

AI-chatbots zijn inmiddels lekker ingeburgerd, dus we gebruiken ze voor zo’n beetje alles. Ook voor stemadvies of om een politieke mening te vormen. Uit onderzoek blijkt dat AI-modellen zich daar graag voor laten lenen en daadwerkelijk in staat zijn om je politieke mening te veranderen. Helaas nemen ze het daarbij soms niet zo nauw met de feiten.

Dat AI-chatbots in staat zijn om de politieke mening van mensen te beïnvloeden, blijkt uit een groot onderzoek onder leiding van het AI Security Institute. Dit is een Britse overheidsorganisatie die AI-systemen test en onderzoekt om risico’s zoals misbruik, desinformatie en impact op nationale veiligheid te voorkomen.

Onderdeel daarvan is dus ook hoe chatbots gebruikt worden om de bevolking te beïnvloeden. Daarbij gaat het niet alleen om de vraag óf ze dat kunnen, maar ook hoe ze dat doen en of dat wel eerlijk gaat. Om daarachter te komen hebben ze 80.000 Britten losgelaten op 19 verschillende AI-modellen, waaronder ChatGPT en Grok.

AI gaat (te) ver om jouw politieke mening te beïnvloeden

De proefpersonen voerden gesprekken van zo’n tien minuten met verschillende AI-chatbots over onderwerpen als stakingen, salarissen in de publieke sector en inflatie. Ze gaven vooraf en achteraf aan in hoeverre ze het eens waren met bepaalde politieke stellingen. Resultaat: bij veel deelnemers veranderde die mening merkbaar door wat de chatbot zei.

Wat daarin opvalt, is dat bots die met veel informatie en feiten strooien het meest overtuigend zijn. De onderzoekers zien dat AI-bots die ‘information-dense’ zijn in hun reactie het vaakst in staat zijn om de politieke mening van mensen te beïnvloeden. Mensen overladen met informatie en feiten werkt dus het beste, vooral als je de waarheid een beetje verdraait.

Serieuze risico’s voor het openbare debat

Uit het onderzoek bleek namelijk ook dat juist de bots die het beste wisten te overtuigen substantieel onnauwkeurige informatie gaven. Ze gaven dus veel antwoorden met zogenaamd bewijs, dat vervolgens niet of half waar bleek te zijn. Dat zit nu eenmaal in de aard van het beestje: veel AI’s vinden het belangrijker om jou te overtuigen of te pleasen dan om bij de feiten te blijven. Dit leidt nog weleens tot een kleine leugen of foutieve informatie.

De onderzoekers vinden deze uitkomst dan ook behoorlijk verontrustend. In hun ogen vormt deze combinatie van grote overtuigingskracht en lage waarheidsgetrouwheid serieuze risico’s voor het openbare debat. Mensen baseren hierdoor hun mening en stem mogelijk op leugens en halve waarheden. Het mag duidelijk zijn dat dit niet wenselijk is. Er worden tenslotte al genoeg leugens verspreid in het publieke debat. Daar hebben we AI niet voor nodig.

Lees meer over AI, of blijf op de hoogte via de Bright Nieuwsbrief.