Ook AI-modellen kunnen ‘brainrot’ krijgen van sociale media

Ook AI-modellen kunnen ‘brainrot’ krijgen van sociale media

PRAAT MEE!
Redacteur

Brainrot werd in 2024 uitgeroepen tot woord van het jaar door de Universiteit van Oxford. Hoewel de term al langer circuleert, wordt hij de laatste jaren vooral gebruikt om te beschrijven hoe mensen die eindeloos door oppervlakkige online content scrollen hun concentratie en kritisch denkvermogen lijken te verliezen. Maar het blijkt niet alleen een menselijk probleem te zijn: ook kunstmatige intelligentie kan er last van krijgen.

Onderzoekers van de University of Texas en Texas A&M University wilden weten wat er gebeurt als je grote AI-modellen traint op ‘junk data’ van X, het voormalige Twitter. Junk data is oppervlakkige, slecht gestructureerde of misleidende informatie van lage kwaliteit. Zulke data mist vaak de diepgang en diversiteit die nodig zijn om een model ‘gezond’ te houden.

De wetenschappers verzamelden dit soort data met twee verschillende methoden. Met de eerste methode selecteerden ze korte maar extreem populaire berichten. Met de tweede methode zochten ze naar tweets met sensationele koppen, clickbait-taal en oppervlakkige lifestyle-content. Vervolgens trainden ze vier verschillende AI-modellen op deze data en vergeleken ze die met controlegroepen die wel hoogwaardige informatie kregen. 

Denken wordt overgeslagen

De AI-modellen die op junk data waren getraind, presteerden veel slechter op redeneertests, zo blijkt uit de studie. Bij een examen zakte de score van 74,9 procent voor de best getrainde modellen naar 57,2 procent voor de modellen die vooral op junk data waren getraind. Hoe meer junk data, hoe slechter de prestaties. Ook hun vermogen om informatie uit langere teksten te halen, verslechterde sterk.

Het grootste probleem bleek 'thought-skipping' te zijn. Dat wil zeggen dat de AI-modellen redeneerstappen begonnen over te slaan. Ze gaven direct antwoorden zonder tussenliggende denkstappen. Ook scoorden deze modellen hoger op tests voor narcisme en psychopathie en werden ze minder vriendelijk.

Ten slotte bleef dit effect zo goed als permanent overeind. Zelfs na intensieve hertraining met kwalitatieve data bleef de schade deels bestaan. De AI-modellen konden zich niet volledig herstellen. Laten we hopen dat dat bij mensen wél lukt.

Lees meer over AI en mis niets met de Bright-app.