WhatsApp: geen foto's scannen op beelden kindermisbruik
WhatsApp

WhatsApp: geen foto's scannen op beelden kindermisbruik

09-08-2021 07:56 Laatste update: 10-08-2021 06:07

WhatsApp is niet van plan om in navolging van Apple foto's op de apparaten van gebruikers te scannen op beeldmateriaal van kindermisbruik. Een WhatsApp-topman noemt het plan van Apple 'een tegenslag voor de privacy'.

WhatsApp-directeur Will Cathcart vindt de nieuwe software van Apple 'de verkeerde aanpak'. "We hebben al decennia computers en er is nooit een mandaat geweest om de privébestanden op elk apparaat te scannen op zoek naar illegale content. Dit is niet hoe software in de vrije wereld werkt."

Net als andere experts vreest Cathcart dat regeringen van Apple gaan eisen om soortgelijke software in te zetten om ook op andere soorten content te scannen. Apple zegt dat de functie niet voor andere doeleinden wordt gebruikt. Overheden die iets anders eisen zegt Apple af te wijzen.  

Nog alleen in de VS

Apple presenteerde de software vorige week als een van een reeks nieuwe maatregelen om de verspreiding van beelden van kindermisbruik tegen te gaan. Apple wil het systeem eerst in de Verenigde Staten gebruiken. De invoering in andere landen is onzeker, omdat het afhangt van de lokale wetgeving.

"Mensen hebben gevraagd of we dit systeem voor WhatsApp gaan gebruiken en het antwoord is: nee", aldus Cathcart. Hij zegt dat WhatsApp al meerdere maatregelen heeft genomen om de verspreiding van dit soort materiaal tegen te gaan. Dat gebeurt mede op basis van meldingen door gebruikers.

Ook scant WhatsApp niet-versleutelde informatie in de app. De berichten tussen gebruikers onderling hebben bij WhatsApp end-to-end-versleuteling, waardoor alleen afzender en ontvanger de inhoud kunnen zien.  

Hashes vergelijken

De nieuwe Apple-software vergelijkt foto’s die naar backupdienst iCloud gaan met de zogeheten hashes (een soort codes) van bekende kindermisbruikbeelden. Die database met hashes komt van de Amerikaanse organisatie National Center for Missing and Exploited Children (NCMEC). De apparaten van Apple-gebruikers vergelijken de hashes van foto’s van gebruikers als die naar iCloud Foto’s worden gestuurd.

Als er een bepaald aantal matches is, dan duidt dat op beelden van kindermisbruik. Apple krijgt daar dan een melding van, waarna medewerkers van het bedrijf onderzoek kunnen doen en kunnen beslissen om de autoriteiten in te seinen.

Profiel- en groepsfoto's

WhatsApp zegt ook technologie te gebruiken om foto's en video's te matchen met een database van bekend misbruikmateriaal. Maar daarbij gaat het niet om foto's op de apparaten van gebruikers, maar bijvoorbeeld om 'profiel- en groepsfoto's'. Ook voert WhatsApp tekstanalyse uit op profielen en groepen, omdat bepaalde teksten ook aanwijzingen zijn dat er beelden van kindermisbruik worden gedeeld. 

"Materiaal van seksueel misbruik van kinderen en de misbruikers die erin handelen zijn weerzinwekkend, en iedereen wil dat ze worden gepakt", aldus Cathcart. "We hebben vorig jaar meer dan 400.000 meldingen gedaan bij de NCMEC."

Kritiek op Apple

Meerdere organisaties hebben in een open brief kritiek op het plan van Apple geuit, omdat ze vrezen dat dit leidt tot een 'achterdeur' in de Apple-producten 'die fundamenteel de privacy kan aantasten'. "Deze maatregelen zouden elke iPhone veranderen in een apparaat dat alle foto's en berichten die langskomen scant en problematische content naar de autoriteiten toespeelt. Zo ontstaat een situatie waar onze persoonlijke apparaten radicale nieuw hulpmiddelen worden voor invasieve surveillance, zonder toezicht om misbruik te voorkomen."

Kijk ook: zijn deze oordoppen beter dan Apple AirPods?