Facebook deelt software voor bestrijding schadelijke beelden
Beeldherkenning

Facebook deelt software voor bestrijding schadelijke beelden

02-08-2019 10:37 Laatste update: 10:37

Facebook maakt twee technieken openbaar voor het herkennen van onder meer terroristische propaganda en kindermisbruik in foto's en video's.

Het gaat om algoritmes die met beeldherkenning identieke en bijna identieke foto's en video's kan herkennen, meldt Facebook. Het bedrijf gebruikt die algoritmes om automatisch melding te krijgen als gebruikers beelden proberen te uploaden die eerder al van Facebook verwijderd zijn. De upload wordt dan gestaakt nog voor de beelden opnieuw openbaar gedeeld kunnen worden.

De software geeft zulke verwijderde beelden een digitale vingerafdruk. Dat kenmerk kan gedeeld worden tussen gebruikers van de algoritmes, via een gezamenlijke databank. Zo kan het ene platform beelden weren die op een ander platform al eerder gesignaleerd zijn.

'Industrie-brede inzet'

De digitale vingerafdrukken zorgen ervoor dat bedrijven de schadelijke beelden zelf niet hoeven op te slaan of te delen. Ook zijn de vingerafdrukken beter te delen dan grote bestanden. De technieken worden gedeeld via open-sourceplatform GitHub.

Facebook volgt met zijn stap Microsoft en Google, die hun technieken PhotoDNA en Content Safety API eerder al openbaar maakten. Facebook spreekt van een "industrie-brede inzet voor een veiliger internet".

Aanslagen Nieuw-Zeeland

In navolging van de terroristische aanslag op moskeeën in het Nieuw-Zeelandse Christchurch, startte Facebook al samenwerkingen met The University of Maryland, Cornell University en The University of California om gemanipuleerde beelden beter te detecteren.

Beelden van de aanslagpleger werden in aangepaste vorm opnieuw op Facebook gedeeld, waardoor de bestaande algoritmes niet altijd alarm sloegen. In de 24 na die aanslag verwijderde Facebook 1,5 miljoen video's van zijn platform.