AI niet zo slim

Schietpartij Christchurch niet herkend door AI Facebook

24 april 2019 22:05

Omdat de schutter die de aanslagen pleegde op twee moskeeën in Nieuw-Zeeland zijn acties filmde met een camera op zijn hoofd, had de kunstmatige intelligentie van Facebook niet door dat er sprake was van een ontoelaatbare video.

Dat verklaarde Neil Potts van Facebook woensdag tijdens een bijeenkomst in het Britse Lagerhuis, meldt Bloomberg. Potts was daar samen met collega's van Google en Twitter uitgenodigd om tekst en uitleg te geven over de maatregelen die de internetbedrijven nemen tegen gewelddadige en schadelijke content.

Hoewel Facebook kunstmatige intelligentie gebruikt om bijvoorbeeld video's van gewelddadige acties en zelfmoorden tegen te houden, slaagde de aanslagpleger in Nieuw-Zeeland er toch in om zijn acties live uit te zenden via het sociale netwerk. Volgens Potts kwam dat omdat het een video betrof "die we niet eerder hadden gezien".

First-person shooter

"Dit was een first-person shooter-video, waarbij iemand beelden maakt met behulp van een camera op een GoPro-helm", aldus Potts. Omdat de kunstmatige intelligentie van Facebook nooit met dat type video's was getraind, ging er ook geen alarmbel af.

De eerste melding van een Facebook-gebruiker kwam twaalf minuten nadat de livestream was beëindigd, nog net geen half uur na de start van het live videoverslag. In totaal werd de originele video ongeveer 4.000 keer bekeken voordat het sociale netwerk hem verwijderde.

Later verwijderde het sociale netwerk meer dan een miljoen kopieën van de video, in de meeste gevallen al tijdens het uploaden.

Mooie praatjes

Twitter, Facebook en Google kregen tijdens de bijeenkomst in het Lagerhuis van onder uit de zak van diverse parlementariërs. "Jullie systemen werken niet", aldus Labour-parlementariër Stephen Doughty. "Het voelt alsof dat jullie niets kan schelen. Jullie hebben mooie praatjes maar ondernemen geen actie."

Miniatuurvoorbeeld
Lees ook:

Minder dan 200 kijkers voor livestream Christchurch-schutter