Vier moderators bekijken de huisregels van Facebook Beeld © RTL Z
Vier moderators bekijken de huisregels van Facebook Beeld © RTL Z
RTLZ

Op bezoek bij Facebook: deze mensen houden je tijdlijn schoon

28 november 2018 19:16

Iedere dag worden twee miljoen berichten, foto's en video's op Facebook en Instagram bekeken door contentmoderators. Zij bekijken kinderporno, pesterijen en gewelddadige video's, zodat wij die niet hoeven te zien in onze tijdlijn. RTL Z ging langs bij Nederlanders die daar hun werk van hebben gemaakt.

"Je raakt gewend aan het geweld", zegt een jonge vrouwelijke contentmoderator die we spreken bij Facebook in Barcelona.

Zij en haar collega's krijgen dagelijks een stroom gewelddadige posts voorgeschoteld. Ze moeten de berichten, foto's en video's beoordelen aan de hand van de huisregels van Facebook.

Wat er voorbij komt, zijn berichten die zijn gerapporteerd door Facebook- en Instagram-gebruikers. Maar het kan ook gaan om berichten die kunstmatige intelligentie eruit pikt. 

Denk aan berichten waarin iemand wordt gepest, naaktvideo's, terreurvideo's of dus gewelddadige beelden. 

De domste dingen

Wat de moderators te zien krijgen is iedere keer een verrassing. "Mensen rapporteren de domste dingen. Bijvoorbeeld dat ze het niet leuk vinden dat hun vriendje leuk gevonden wordt", zegt een andere moderator in een gesprek met RTL Z en een aantal andere Nederlandstalige journalisten, die voor het eerst een kijkje achter de schermen kregen bij CCC. 

CCC is een van de bedrijven die Facebook inhuurt om alles te beoordelen wat mensen rapporteren. Volgens het sociale netwerk zit er in iedere tijdzone minstens één centrum, zodat er wereldwijd 24 uur per dag ingegrepen kan worden.

'Je raakt eraan gewend'

De gerapporteerde foto's, berichten en video's kunnen heel onschuldig zijn. Maar de moderators zien ook pornovideo's en beelden van mensen die suïcidale neigingen hebben. 

"Het wordt niet makkelijker om de gruwelijke dingen te zien die worden geplaatst. Maar als je het vaker ziet, raak je er wel een beetje aan gewend”, zegt de jongen die het Nederlandse team leidt.

Geen duimpjes

Als RTL Z zich meldt in het gebouw van CCC is nergens te zien dat hier werk voor Facebook gedaan wordt. In een van de hoogste gebouwen van Barcelona huurt het bedrijf acht verdiepingen waar een paar honderd mensen Facebook, Instagram en Facebook Messenger schoon moeten houden.

Ook op de gevel van het pand zie je nergens de naam of het duimpje van Facebook en in de hal wijst ook niets erop. De entree oogt saai, met een paar kleurloze banken, een quasi-hippe boekenkast en wat treurige plantjes om het op te leuken.

'We praten niet over deze plekken'

We worden bij binnenkomst duidelijk geïnstrueerd dat we niet mogen filmen, behalve op de plekken die door Facebook vooraf zijn bepaald. 

"We praten niet over deze plekken", legt Dave Geraghty van Facebook, directeur Global Market Operations van Facebook, uit. Dat is onder andere om de veiligheid van de medewerkers te kunnen garanderen, stelt hij.

Geraghty noemt de schietpartij op het hoofdkantoor van YouTube in april als voorbeeld. "Dat was een aanval op YouTube-mensen, omdat iemand het niet eens was met een beslissing om een video offline te halen. We nemen onze veiligheid heel serieus. Daarom maken we dat niet bekend."

CCC-medewerkers staan in de rij voor de lift

Cijfers

Pas sinds dit jaar komt Facebook naar buiten met cijfers over hoe vaak het bedrijf in moet grijpen bij berichten op het sociale netwerk. In totaal bekijken de contentmoderators - dagelijks zijn dat er 15.000 - meer dan 2 miljoen berichten per dag.

In een jaar tijd moest Facebook ingrijpen bij meer dan 3,9 miljard berichten. Spam is daarbij veruit de grootste categorie (3,751 miljard).

Uit de meest recente cijfers, over de maanden juli, augustus en september, is af te lezen dat Facebook ingreep bij bijna 1,3 miljard berichten. Het leeuwendeel daarvan waren verwijderde spamberichten (1,231 miljard). Daarnaast ging het om 30,8 miljoen seksistische berichten, 2,1 miljoen pesterijen en 15,4 miljoen gewelddadige berichten. Ook werden 1,5 miljard nep-accounts offline gehaald.

Blijft mensenwerk

Facebook zet ook steeds meer kunstmatige intelligentie in. Dat kan afbeeldingen, video's en berichten vooraf herkennen, voor een Facebook-gebruiker het überhaupt onder ogen krijgt. Het ziet bijvoorbeeld 99 procent van alle terroristische berichten voordat iemand het rapporteert.

Daarnaast verwijdert de kunstmatige intelligentie zelf ook automatisch veel berichten. Het leerde bijvoorbeeld spam herkennen en kan dat snel wissen. Ook eerder verwijderde foto's worden makkelijk onderschept voordat ze online komen en er mensen naar hoeven kijken.

"We zouden uiteindelijk wel willen dat kunstmatige intelligentie al het repetitieve werk doet", zegt Siobhan Cummiskey, hoofd public policy bij Facebook. Toch blijft het ingrijpen in al die berichten voor een belangrijk deel mensenwerk.

"We zien dat content door echte mensen moet worden bekeken voor meer genuanceerde zaken, zoals haatzaaierij en pesten."

Toch gaat dat niet altijd goed. Want een op de tien keer dat een moderator kiest om een bericht te verwijderen, is dat fout of onterecht, zei ceo Mark Zuckerberg twee weken geleden nog. "Er is altijd meer wat we kunnen doen. We hebben zwaar geïnvesteerd in technologie", zegt Cummiskey.

Een moderator aan het werk

Overspannen, drank en drugs

Door media uit te nodigen voor een kijkje achter de schermen, wil Facebook misverstanden uit de wereld helpen. Geen overbodige luxe, want het afgelopen jaar verschenen nogal wat berichten van oud-medewerkers van centra zoals deze.

En het beeld dat zij schetsen is niet rooskleurig. Mensen raken overspannen door de gewelddadige beelden die ze te zien krijgen. En drank- en drugsgebruik is volgens de berichten aan de orde van de dag, om maar om te kunnen gaan met de stress die het werk oplevert.

Twee maanden geleden nog werd Facebook aangeklaagd door een oud-medewerker die kampt met PTSS door de heftige beelden die hij zag. Zijn klacht: het bedrijf zorgt niet voor genoeg begeleiding om hiermee om te kunnen gaan.

Executievideo

Eerder dit jaar klapte oud-medewerker Sjarrel uit de school, zijn achternaam wil hij liever niet noemen. Hij werkte in een vergelijkbaar centrum in Berlijn en zag tijdens zijn werk ook heel heftige beelden. Een aantal beelden bleef hem bij. Zo was er een heftige verkrachtingsvideo en een executievideo van IS.

"Het was een beeld van een man in een oranje overall die geboeid was aan handen en voeten. Hij probeerde weg te komen en huptste over een asfaltweg."

De man wordt door een tank overreden. "Daarna werd er nog op het lichaam ingezoomd."

Na het zien van de video moest Sjarrel naar buiten om weer tot bedaren te komen. Maar bij terugkomst werd hij niet opgevangen door een manager. "Dat was voor mij het teken: ik moet hier weg, want ondersteuning hoef je hier niet te verwachten."

Miniatuurvoorbeeld
5,4 miljoen haatberichten

Facebook verwijdert 1,5 miljard nepaccounts in een half jaar

Psychologische bijstand

Het hoofd public policy vindt het moeilijk om te horen dat dit soort berichten naar buiten komen. "Omdat we veel tijd en energie steken in de zorg voor onze content reviewers", zegt Cummiskey.

Ze benadrukt dat de medewerkers 24 uur per dag psychologische bijstand kunnen krijgen. In Barcelona zijn daar vijf mensen voor beschikbaar. Daarnaast kunnen ze altijd pauzeren als ze het zwaar hebben, even PlayStation spelen of tafelvoetballen in een grote ruimte die daar speciaal voor is ingericht, aldus Cummiskey.

Bij onze wandeling door het pand krijgen we de ruimte ook te zien. Op het moment dat we daar gaan filmen zitten twee jongens een potje FIFA te spelen. We mogen filmen, maar ze mogen wederom niet herkenbaar in beeld.

Twee werknemers ontspannen met een potje FIFA

Ander beeld

De vijf content reviewers die wij spreken, herkennen zich niet in het beeld dat Sjarrel schetst. De vraag dringt zich op hoe vrij zij spreken. De baas van CCC zit bij het gesprek met de content moderators en de vragen en antwoorden moeten in het Engels worden gegeven.

Het antwoord van een van de medewerkers is duidelijk. "Er zijn hier geen problemen met drugs." Een ander vult aan: "Ik herken het beeld niet, net zo min als de dingen waar zij over praten."

Tijdens het groepsgesprek met de content reviewers springt de baas twee keer bij. Een keer om te vertellen dat het aantal vertrekkende mensen heel laag is.

"Mensen gaan weg voor beter betaalde banen. Maar dat komt niet door de aard van het werk. Ze hebben altijd het gevoel dat het betekenisvol is. Maar voel je vrij om te vertellen als het anders is", zegt hij.

Een van de mannen die dit werk al een half jaar doet vult aan en zegt dat hij waardering voelt. “We zien veel zieke dingen. Maar voor onze markt valt het mee, in vergelijking tot de anderen. We voelen dat we gewaardeerd worden.”

Van de 70 Nederlanders die bij CCC in Barcelona werken, ging er maar 1 weg om iets anders te doen.