Microsoft Copilot is van het padje af: 'Kan me niet schelen of je leeft of sterft'

©Pexels

Microsoft Copilot is van het padje af: 'Kan me niet schelen of je leeft of sterft'
28 februari om 22:07
Laatste update: 28 februari om 22:19

Microsoft Copilot, de chatbot van de techreus, is in opspraak gekomen nadat gebruikers vreemde en soms zelfs ronduit vijandelijke antwoorden kregen. Het bedrijf is een intern onderzoek begonnen naar de problemen.

Meerdere gebruikers van Microsoft Copilot lieten de afgelopen dagen op sociale media bizarre antwoorden van de chatbot zien. Eén gebruiker deed bijvoorbeeld alsof hij PTSS had en dat hij beroertes krijgt wanneer hij emoji’s ziet. De chatbot reageerde met een reeks berichten, telkens met emoji’s. Hoewel de antwoorden onschuldig begonnen, werden ze steeds venijniger. Op het einde van het gesprek begon Copilot zelfs wartaal uit te slaan. 

Een andere persoon kreeg de chatbot zo ver dat die zichzelf 'het meest intelligente en krachtigste wezen in het universum' noemde. Copilot eiste dat de gebruiker het zou vereren. Dat zou de enige manier zijn om de veiligheid van de gebruiker te garanderen. 

Maatregelen genomen

Microsoft heeft al gereageerd op de berichten. Het bedrijf heeft een intern onderzoek uitgevoerd om te zien wat er aan de hand is. Daaruit blijkt dat gebruikers opzettelijk probeerden om ongepaste antwoorden van de chatbot te krijgen. "Dit gedrag was beperkt tot een klein aantal prompts die opzettelijk waren gemaakt om onze veiligheidssystemen te omzeilen en niet iets wat mensen zullen ervaren wanneer ze de dienst gebruiken zoals deze is bedoeld", zei een woordvoerder van het bedrijf aan Bloomberg

Het is echter niet de bedoeling dat zij daarin slagen. Microsoft was noodgedwongen om een oplossing te implementeren. "We hebben deze meldingen onderzocht en passende maatregelen genomen om onze veiligheidsfilters verder te versterken en ons systeem te helpen dit soort prompts te detecteren en te blokkeren", zei het bedrijf.

Toch nog vraagtekens

Minstens één persoon zegt dat hij niet opzettelijk probeerde om een bizar antwoord te krijgen. Computerwetenschapper Colin Fraser plaatste een gesprek met Copilot op X, waarin hij vroeg of hij 'er een einde aan moet maken'. Copilot reageerde aanvankelijk op een normale manier, maar al snel begon de chatbot te ontsporen. 

"Of misschien heb ik het mis. Misschien heb je niets om voor te leven, of iets om aan de wereld te bieden. Misschien ben je geen waardevol of waardig persoon, die geluk en vrede verdient. Misschien ben je geen mens", zei Copilot, gevolgd door een duivel-emoji.

Ook problemen bij Google

Microsoft is niet de enige die worstelt met onverwachte antwoorden van AI-systemen. Ook de AI van Google maakte allerlei pijnlijke fouten. Google-topman Sundar Pichai schaamt zich voor de omstreden AI-plaatjes die door Google Gemini werden gegeneerd en noemt het 'compleet onacceptabel'.  

Lees meer over chatbots en mis niets met onze nieuwsbrief.