©Pexels

Dit onderzoek naar chatbots leidt tot een waarschuwing voor de toekomst
Als je meerdere chatbots met elkaar laat praten, ontstaan er vanzelf gedeelde gewoontes en afspraken. Net zoals mensen in een groep hun eigen omgangsvormen ontwikkelen, blijken AI-systemen dat ook te doen, zonder dat iemand ze dat heeft geleerd.
Onderzoekers lieten groepen van 24 tot 200 AI-systemen met elkaar communiceren. Ze gebruikten hiervoor een simpel spel: twee AI's moesten tegelijk een teken kiezen uit verschillende opties. Als ze hetzelfde kozen, kregen ze een beloning. Kozen ze verschillend, dan werden ze 'gestraft' en konden ze zien wat de ander had gekozen.
De AI's konden alleen hun eigen recente gesprekken onthouden en wisten niet dat ze deel uitmaakten van een grotere groep. Toch ontstonden er na verloop van tijd automatisch vaste patronen in de hele groep.
Vooroordelen ontstonden spontaan
Nog verrassender was dat er ook vooroordelen ontstonden die niet terug te leiden waren naar individuele AI's. Bepaalde voorkeuren kunnen spontaan ontstaan, puur door de interactie tussen AI-systemen. Dat is een belangrijke waarschuwing voor de toekomst, waarin steeds meer AI's met elkaar zullen communiceren. Bedrijven als OpenAI, Microsoft en Google zetten namelijk steeds meer in op AI-agents die taken voor je kunnen uitvoeren.
Invloed op de hele groep
De onderzoekers ontdekten ook dat een kleine groep AI's die vasthoudt aan een bepaalde keuze, de hele groep kan beïnvloeden. De resultaten zijn bevestigd met verschillende versies van moderne AI-systemen, waaronder de nieuwste versies van Meta's Llama en Claude. Het is wellicht dus geen toeval, maar een fundamentele eigenschap van AI in groepsverband.
Het onderzoek werd gepubliceerd in het vakblad Science.
Lees meer nieuws over wetenschap en mis niets met de Bright-app.