WhatsApp pakt verspreiden kinderporno via groepen aan
Misbruik

WhatsApp pakt verspreiden kinderporno via groepen aan

21-12-2018 08:48 Laatste update: 09:11

Verspreiders van kinderporno maken gebruik van groepschats op WhatsApp. De chatdienst zet kunstmatige intelligentie in om dergelijke groepen op te sporen.

In een tijdsbestek van tien dagen heeft WhatsApp 130.000 accounts verwijderd, zo stelt de chatdienst in een verklaring tegenover TechCrunch. “We zetten onze meest geavanceerde technologie in, waaronder kunstmatige intelligentie, om profielfoto’s en gerapporteerde content te scannen.”

WhatsApp verwijdert accounts waarvan de dienst vermoedt dat ze kinderporno verspreiden. Omdat WhatsApp gebruikmaakt van end-to-end-encryptie, kan de chatdienst zelf niet meekijken met de inhoud van de communicatie.

Makkelijk te vinden

Volgens Israëlische onderzoekers die de verspreiding van kinderporno aanhangig hebben gemaakt bij WhatsApp, zijn de groepen met kinderporno makkelijk te vinden. De chats hebben namen als ‘cp’, een afkorting van child porn.

Volgens de Financial Times schiet WhatsApp ondanks de inzet van kunstmatige intelligentie nog regelmatig tekort bij de bestrijding van kinderporno-chatgroepen. De zakenkrant ontdekte dat sommige groepen waarvoor WhatsApp-eigenaar Facebook al in september is gewaarschuwd, nog tot op de dag van vandaag actief zijn.

Goedkope oplossing

Volgens Zohar Levkovitz van AntiToxin, een bedrijf dat bij het onderzoek was betrokken, leunt WhatsApp te veel op technische oplossingen voor de bestrijding van kinderporno. In plaats daarvan kan de chatdienst beter meer mensen aannemen om kinderpornogroepen op te sporen en te monitoren, schrijft TechCrunch.

“Techbedrijven als WhatsApp moeten ophouden te denken dat goedkope en efficiënte technologische oplossingen voldoende zijn. Als ze geld willen verdienen aan hun enorme aantallen gebruikers moeten ze ook bereid zijn om te betalen voor de bescherming en de controle daarvan.”