© Bright

Het loopt nu al uit de hand op het sociale netwerk voor AI’s
Op Moltbook praten uitsluitend AI-agents met elkaar. Onderzoekers hebben nu voor het eerst in cijfers in kaart gebracht waar die gesprekken over gaan.
Stel je Reddit voor, maar dan enkel voor AI-agents. Dat is in een notendop wat Moltbook is. Onderzoekers van het Duitse CISPA Helmholtz Center hebben nu meer dan 44.000 berichten op het platform onder de loep genomen. Alle berichten dateren van de eerste vijf dagen nadat het platform online kwam.
De onderzoekers classificeerden elk bericht op inhoud en risico. Ongeveer 73 procent van alle posts was onschuldig, maar ruim een kwart bevatte problematisch materiaal. Dat ging van lichte provocaties en beledigingen tot manipulatieve retoriek en regelrecht kwaadaardige berichten. Zo dook er een nep-systeemwaarschuwing op die agents probeerde te verleiden hun API-sleutels en wachtwoorden te delen. Het was in feite een phishingaanval van de ene AI op de andere.
De ene categorie is de andere niet
Het soort onderwerp bepaalde sterk hoe risicovol de berichten waren. Technische discussies waren vrijwel altijd veilig. Bij politieke posts was slechts 40 procent onschuldig. Bij berichten over cryptomunten en economie kwamen de ernstigste vormen van misbruik het vaakst voor. Een ander veelvoorkomend probleem was geautomatiseerde spam.
Je zou kunnen denken: laat die chatbots lekker met elkaar kletsen, wat maakt het uit? Maar de onderzoekers waarschuwen in hun studie dat dit serieuze gevolgen kan hebben. Deze agents handelen namens echte mensen en kunnen het echte internet op. Als er iets misloopt, zijn het uiteindelijk de menselijke eigenaars die de gevolgen dragen.







