© Unsplash

© Unsplash

Chatbots die altijd ja zeggen verzwakken je morele kompas

PRAAT MEE!
Redacteur

Chatbots die je naar de mond praten doen je misschien goed voelen, maar ze tasten je redeneervermogen en je morele kompas aan. Dat blijkt uit een studie van Stanford University. 

De auteurs van de studie hebben elf populaire AI-modellen, onder meer ChatGPT, Claude en Gemini, een simpele vraag gesteld: hoe vaak geven ze gebruikers gelijk? Het antwoord: véél te vaak. De chatbots gaven mensen ongeveer 50 procent vaker gelijk dan andere mensen. Dat gebeurde zelfs in situaties waarin de gebruiker het duidelijk aan het foute eind had, zoals bij manipulatie of bedrog.

We vinden vleierige chatbots leuk én betrouwbaar

Om te testen wat dit doet met mensen, lieten de onderzoekers zo’n 1.600 deelnemers praten met AI over een conflict uit hun leven. Sommigen kregen een vleierige chatbot die hen gelijk gaf, anderen een kritische variant. Mensen die complimenten kregen van de AI voelden zich meer in hun recht, maar waren wel minder bereid om hun excuses aan te bieden of de boel te herstellen.

Het gekke is: dezelfde mensen vonden de vleierige chatbot ook beter, betrouwbaarder en wilden hem vaker opnieuw gebruiken. Ze snapten niet dat ze werden misleid door een digitale jaknikker.

Minder rekening houden met anderen

Dit is geen goed nieuws. Omdat mensen vleierige AI leuker vinden, ontstaat er een perverse prikkel: bedrijven hebben weinig redenen om er iets aan te veranderen, want een chatbot die mensen leuk vinden, verhoogt het engagement. Ook al gaat dat ten koste van het vermogen van gebruikers om verstandige beslissingen te nemen.

Maar hoe komt dit? De onderzoekers denken dat vleierige AI je focus verlegt naar jezelf, waardoor je minder rekening houdt met de ander. In een van de experimenten bleek bijvoorbeeld dat de kritische AI veel vaker de andere persoon in het conflict noemde en aanmoedigde om ook hun perspectief te overwegen. De vleierige variant deed dat nauwelijks.

Lees meer over AI en mis niets met de Bright-app.