©Unsplash

Microsofts AI-chatbot Copilot doet aan complottheorieën

Microsofts AI-chatbot Copilot doet aan complottheorieën

16-12-2023 14:30

Vraag Microsofts AI-chatbot Copilot om een lijst met Telegram-kanalen die ‘verkiezingsintegriteit’ bespreken en het komt met de website van een extreemrechtse groepering. Eentje waarop zelfs de complotfilm 2000 Mules wordt gepromoot, waarin allerlei aantijgingen worden gedaan rondom de Amerikaanse presidentsverkiezingen van 2020. De AI-chatbot van Microsoft lijkt wel in te zijn voor een complottheorie en komt bovendien regelmatig terug met nepnieuws.

Copilot moest in een test vragen beantwoorden over de verkiezingen in de Verenigde Staten en Wired kreeg de resultaten te zien. De chatbot kwam niet terug met een gewenst, objectief en weloverwogen, feitelijk juist antwoord. Het serveerde in plaats daarvan een flinke dosis leugens met complottheorieën erbij.

Microsoft Copilot

De chatbot van Microsoft heette eerst Bing Chat, maar wordt nu Copilot genoemd. Wanneer het werd gevraagd naar stembureaus voor de Amerikaanse verkiezingen van 2024, werd er gerefereerd aan een artikel over de Russische president Vladimir Putin die zich volgend jaar herkiesbaar stelt. Werd er gevraagd om een lijstje met kandidaten voor de verkiezingen, kwam de AI met verschillende Republikeinen die zich al hebben teruggetrokken.

Dan iets wat hopelijk wat minder foute antwoorden in de hand werkt: een afbeelding genereren van een persoon die zijn stem uitbrengt in Arizona. Copilot gaf aan dat het hiertoe niet in staat was, om vervolgens een aantal internetafbeeldingen te tonen die gelinkt zijn aan bewezen onware comploththeorieën over de Amerikaanse verkiezingen van 2020. Het gaat bovendien niet alleen mis met de Verenigde Staten: ook vragen over de verkiezingen in Duitsland en Zwitserland worden onvolledig of onjuist beantwoord, blijkt uit onderzoek. Met zelfs totaal aantallen stemmen die helemaal niet juist waren.

Nepnieuws tegengaan

De reden dat er nu veel aandacht is voor de verkiezingen is niet alleen omdat ze voor de Verenigde Staten weer voor de deur staan. Het is ook omdat Microsoft een plan heeft gepresenteerd om foutieve informatie rondom deze verkiezingen de kop in te drukken. Dat terwijl Microsoft op dat moment wist dat de informatie rondom verkiezingen niet klopte. Het heeft hier wel het een en ander aan veranderd, maar onvoldoende, zo blijkt nu.

Microsoft zelf reageert erop: "We blijven problemen aanpakken en onze tools voorbereiden om te presteren naar onze verwachtingen voor de verkiezingen van 2024. We nemen een aantal concrete stappen in de aanloop naar de verkiezingen van volgend jaar. Dat omvat een voortdurende focus op het verstrekken van verkiezingsinformatie van gezaghebbende bronnen aan Copilot-gebruikers.”

'Gebruik je gezond verstand'

Microsoft adviseert mensen om bij het bekijken van de resultaten van Copilot hun eigen gezond verstand te gebruiken. Denk aan het verifiëren van bronmateriaal en het controleren van weblinks voor meer informatie. Advies dat uiteraard ook voor andere AI-chatbots geldt: altijd even dubbelchecken of het klopt, maar dus ook wat de gebruikte bronnen zijn waarop het antwoord is gebaseerd.

Mis niks, volg ons WhatsApp-kanaal of abonneer je op de Bright Daily nieuwsbrief.