©Unsplash

©Unsplash

Meta moet beter waarschuwen voor deepfakes en AI-nepnieuws

Praat mee!

Meta moet beter zijn best doen om gebruikers te wijzen op beelden die met AI zijn gemaakt. Vooral deepfake-video’s en beelden van nieuwsgebeurtenissen die mogelijk door AI zijn gegenereerd, moeten duidelijker gemarkeerd worden door de techgigant. De huidige situatie in het Midden-Oosten is aanleiding voor een waarschuwing voor het bedrijf van Mark Zuckerberg.

Die komt nota bene van de interne, maar toch semionafhankelijk opererende Meta Oversight Board. Meta’s methoden om deepfakes te herkennen en markeren zijn niet robuust genoeg, oordeelt het toezichtsorgaan, waardoor het onmogelijk is om te controleren hoe snel desinformatie over gewapende conflicten wordt verspreid. In het licht van de huidige situatie in Iran, komt de interne toezichthouders met het advies aan Meta.

De oproep vloeit volgens The Verge voort uit een onderzoek dat de Oversight Board vorig jaar deed. Men nam een video onder de loep, die vermeende schade aan gebouwen in Israël zou laten zien. De video bleek nep; de beelden werden met AI gegenereerd. Reden voor de toezichthouder om wederom alarm te slaan, gezien de militaire escalaties in en rondom Iran. Naast de waarschuwing liggen er ook een aantal aanbevelingen om de systemen van Meta te verbeteren.

‘Betere tools voor AI-detectie nodig’

“De bevindingen van de raad benadrukken dat Meta's huidige systeem voor het correct labelen van AI-content te sterk afhankelijk is van zelfrapportage van AI gebruik en een strengere beoordelingsprocedure”, staat in het advies. “Dat sluit niet aan bij de realiteit van de huidige online omgeving. Verder spreekt het advies van “uitdagingen met het markeren van dit soort content op verschillende platformen”, verwijzend naar de hierboven genoemde AI-video die voor het eerst opdook op TikTok. Pas daarna verspreidde die zich naar Facebook, Instagram en X.

Wil Meta zichzelf corrigeren, dan zal het zijn eigen regels om misinformatie tegen te gaan moete aanscherpen. De bestaande tools om AI te detecteren moeten beter, net als de sancties voor accounts die dergelijke content delen. Daarnaast maakt de toezichthouder zich zorgen over de manier waarop Meta zich houdt aan de afspraken die zijn gemaakt in de Coalition for Content Provenance and Authenticity (C2PA). Volgens die afspraken moet Meta AI-content duidelijk zichtbaar labelen op zijn platforms, maar dat gebeurt onvoldoende.

Instagram-baas sloeg al eerder alarm

Van alle AI-beelden die zijn gemaakt met Meta’s eigen AI-model, wordt “slechts een portie” voldoende gelabeld, zegt de Oversight Board. Het is nu de vraag of Meta wel genoeg moeite wil doen om alle genoemde punten te verbeteren, want het advies van de interne toezichthouder is niet bindend. Meta kan dat dus gewoon naast zich neerleggen, maar ook binnen de eigen platforms zijn er zorgen over hoe men onderscheid kan maken tussen AI-content en echte foto’s en video’s. Instagram-baas Adam Mosseri riep vorig jaar nog op tot beter gereedschap om dat onderscheid te maken.

Meta moet beter waarschuwen voor deepfakes en AI-nepnieuws