©Unsplash

©Unsplash

Enthousiaste AI-agent van Meta leidt tot serieus beveiligingsincident

Praat mee!

Met behulp van AI kunnen werknemers van Meta een stuk efficiënter hun taken uitvoeren, maar opnieuw blijkt dat dit niet zonder risico’s is. Een interne AI-agent ging op eigen houtje aan de slag, gaf fout technisch advies en zette daarmee de deur open naar gevoelige data.

De AI-agent in kwestie gaf een verkeerd antwoord op een technische vraag, met als gevolg dat Meta-medewerkers ongeoorloofd ‘gevoelige bedrijfs- en gebruikersgegevens’ konden bekijken. Dat blijkt uit rapporten over dit incident die zijn ingezien door The Information.

Het incident duurde zo’n twee uur en werd intern bestempeld als een zogeheten SEV1: het op een na zwaarste niveau. Volgens Meta is er geen bewijs dat gebruikersdata daadwerkelijk is misbruikt, maar het voorval laat wel zien hoe snel het mis kan gaan als AI te veel vrijheid krijgt.

AI-agent wordt spookrijder

Wat dit incident opvallend maakt, is dat de AI niet alleen reageerde op vragen, maar zelf ook een antwoord plaatste op een intern forum. Zonder menselijke check. Hierdoor konden ook andere medewerkers het antwoord zien, en daar ging het mis. De AI gaf instructies die technisch niet klopten. Een medewerker vertrouwde het antwoord toch en voerde de stappen uit, met als gevolg dat er tijdelijk toegang ontstond tot data die normaal afgeschermd is.

Dit is volgens experts dan ook een van de grootste gevaren van dit soort tools. AI voelt inmiddels zo betrouwbaar en klinkt zo overtuigend dat we soms vergeten om zelf na te denken. Het idee dat zo’n agent er ook naast kan zitten, vergeten we dan weleens. Combineer dat met het feit dat we deze AI-agents steeds meer autonomie geven, en je hebt een hulpmiddel dat ook zomaar in een spookrijder kan veranderen.

Meta legt schuld (ook) bij medewerker

Hierdoor komen we dus steeds meer in een spagaat. Hoeveel ruimte en vrijheid kun je een AI-agent geven? Wegen de risico’s op tegen de voordelen? Meta zelf lijkt niet van plan om hun AI-agent aan banden te leggen. Het bedrijf verdedigt zijn digitale medewerker en stelt dat deze niet als hoofdschuldige kan worden aangewezen.

Volgens een woordvoerder van het bedrijf had dit incident voorkomen kunnen worden door een menselijke collega. De ingenieur in kwestie had, als hij beter op de hoogte was geweest of aanvullende controles had uitgevoerd, dit incident kunnen voorkomen. Volgens Meta wist hij namelijk dat het om een antwoord van een geautomatiseerd bot ging, dat volgens het bedrijf niets anders deed dan reageren op een vraag.

Wat het incident vooral duidelijk maakt, is dat AI nog lang niet foutloos is. Zolang die technologie blijft overtuigen met snelle en zelfverzekerde antwoorden, ligt blind vertrouwen echter wel op de loer. En juist daar zit het risico: niet in wat AI kan, maar in hoe wij ermee omgaan.

Enthousiaste AI-agent van Meta leidt tot serieus beveiligingsincident