©Unsplash

Er liggen meer dan 1 miljoen naaktfoto’s op straat door fout van start-up
Een startup die AI-afbeeldingen maakt heeft zijn database niet goed beveiligd, waardoor die op het internet terecht is gekomen. Dat betekent dat er meer dan 1 miljoen foto’s en video’s op straat liggen. Het gaat onder andere om foto’s van echte mensen die dan naakt gemaakt zijn met kunstmatige intelligentie.
Volgens Wired bevat het grootste deel van de afbeeldingen naakt en het lijkt erop dat er ook afbeeldingen van kinderen bij zijn betrokken. De startup heet DreamX en deze database wordt onder andere gebruikt door MagicEdit en DreamPal. Security-onderzoeker Jeremiah Fowler kwam het beveiligingsprobleem op het spoor in oktober: toen kwamen er ongeveer 10.000 foto’s bij per dag.
1.099.985 afbeeldingen op straat
Het leeuwendeel was door mensen die een foto van een echt persoon instuurden en daar -zonder consent- een naaktfoto van maakten met AI. En dat zijn dus niet alleen foto’s van volwassenen. De 1.099.985 afbeeldingen en video’s die Fowler vond zijn bijna allemaal pornografisch.
Dit probleem staat ook niet op zichzelf: het is al de derde keer dit jaar dat Fowler zo’n AI-generator tegenkomt, die helemaal niet goed beveiligd is. Hierdoor komen allerlei onschuldige mensen die van niks weten, laat staan ergens mee akkoord zijn gegaan, op het internet te staan, waarbij het ook nog lijkt alsof ze naakt zijn. “We nemen deze zorgen uiterst serieus”, zegt een woordvoerder van de start-up. “MagicEdit promoot of stimuleert geen expliciete seksuele inhoud en we hanteren moderatie-, filter- en beveiligingsmechanismen om misbruik te voorkomen.“
De database zou vastzitten aan iets dat SocialBook heet: het is een marketingplatform voor influencers. Volgens DreamX staat dat los van de database die Fowler online kon vinden, maar Fowler zegt afbeeldingen te hebben met zelfs een SocialBook-watermerk erop.
'Een simpele melding is niet genoeg'
De toegang tot de database is gesloten door Fowlers melding bij DreamX en er wordt nog nader onderzoek gedaan. Fowler heeft de database doorgegeven aan de US National Center for Missing and Exploited Children, een organisatie die strijdt voor de bescherming van kinderen. Fowler zoekt in ieder geval door naar dit soort databases: “Ze hebben een geweldige manier gevonden om op subtiele wijze seksueel getinte inhoud te promoten. AI-tools die naaktheid weergeven kunnen gemakkelijk worden “ingezet” voor chantage, intimidatie en andere kwaadaardige doeleinden. Deze bedrijven moeten echt meer doen dan alleen een algemene pop-up: ‘Door hierop te klikken, ga je akkoord met het uploaden van deze foto.’ Je kunt mensen niet zelf controleren, want dat doen ze niet. Ze moeten een vorm van moderatie hebben die zelfs verder gaat dan AI.”