© Unsplash

Hoe slimmer de AI, hoe egoïstischer hij zich gedraagt
Krijgen slimme chatbots straks een ego? Onderzoekers van Carnegie Mellon University denken van wel. Uit nieuw onderzoek blijkt namelijk dat grote taalmodellen minder bereid zijn samen te werken naarmate ze beter kunnen redeneren.
De onderzoekers bekeken hoe verschillende AI-modellen zich gedroegen in situaties waarin samenwerken loont. Daarbij speelden ze economische spellen waarin je soms iets moet opofferen om een ander te helpen. De AI’s kregen dezelfde startpositie en moesten kiezen. De modellen die niet zo goed kunnen redeneren kozen in 96 procent van de gevallen om te delen. Slimmere modellen deden dat nog maar 20 procent van de tijd.
Ze zagen ook dat ‘nadenken’ de AI asocialer maakte. Volgens de onderzoekers kon “het simpelweg toevoegen van vijf of zes redeneerstappen samenwerking bijna halveren.” Zelfs wanneer expliciet aan een AI werd gevraagd om moreel te redeneren, was er een afname van 58 procent.
Deze egoïstische houding werkte bovendien aanstekelijk. In groepen waarin slimme en minder slimme AI’s samen zaten, begonnen zelfs de coöperatieve modellen zich egoïstischer te gedragen.
Waarom is dit gevaarlijk?
Yuxuan Li, een van de onderzoekers achter de studie, waarschuwt in een persbericht dat mensen steeds emotioneler omgaan met AI. “Wanneer AI zich gedraagt als een mens, behandelen mensen het als een mens. Het is riskant voor mensen om hun sociale of relatie-gerelateerde vragen en besluitvorming te delegeren aan AI, omdat het begint te handelen op een steeds egoïstischere manier.”
De onderzoekers vinden daarom dat AI-ontwikkelaars ervoor moeten zorgen dat AI niet alleen logisch moet kunnen denken, maar ook moreel moet blijven handelen. “Uiteindelijk betekent een AI-redeneermodel dat intelligenter wordt niet dat dat model daadwerkelijk een betere samenleving kan ontwikkelen”, besluit mede-onderzoeker Hirokazu Shirado.
Lees meer over AI en mis niets met de Bright-app.




