'Facebook gaf berichten waar mensen boos om werden voorrang'
Boze emoji

'Facebook gaf berichten waar mensen boos om werden voorrang'

27-10-2021 14:29 Laatste update: 14:58

Facebook heeft jarenlang in zijn algoritmes voorrang gegeven aan berichten die veel boze reactie-emoji kregen. Dat blijkt uit interne documenten van Facebook.

In het algoritme van Facebook, dat bepaalt wat mensen zien in hun nieuwsoverzicht, was de boze reactie-emoji jarenlang een van de belangrijkste signalen om berichten vaker te tonen aan gebruikers. Berichten waar mensen relatief vaak boos om werden, zijn vanaf 2017 vaker getoond in het nieuwsoverzicht, meldt de Washington Post. Het algoritme gaf emoji-reacties, waaronder de boze, vijf keer meer waarde dan normale likes.

Berichten die veel reactie-emoji opriepen, zorgden ervoor dat gebruikers langer actief bleven op Facebook, waardoor het meer geld kon verdienen. De boze emoji was daarbij opvallend effectief. Onderzoekers van Facebook waarschuwden echter al kort na de wijziging van het algoritme dat dit 'de deur zou openen voor meer spam, misbruik en clickbait'. In 2019 bevestigden datawetenschappers van het bedrijf dat berichten die boze emoji kregen "onevenredig desinformatie en nieuws van lage kwaliteit" bevatten.   

"We blijven werken om te begrijpen welke berichten negatieve ervaringen creëren, zodat we de verspreiding ervan kunnen verminderen. Daaronder valt bijvoorbeeld content waar onevenredig veel boze reacties op komen", reageert een Facebook-woordvoerder tegen de krant.

Het duurde jaren

In 2019 deden Facebook-medewerkers voorstellen voor aanpassingen om de negatieve gevolgen van het algoritme tegen te gaan. Zo zouden de 'boze' reactie-emoji, en die voor 'haha' en 'wow', niet langer extra waarde krijgen in de systemen. Ook werd een voorstel gedaan om de knop voor de boze emoji helemaal te verwijderen. Op het laatste moment werden de voorstellen om die maatregelen wereldwijd uit te rollen door de leiding van tafel geveegd, schrijft de Washington Post.

Vorig jaar ging Facebook uiteindelijk overstag en bracht het bedrijf het 'gewicht' van de boze emoji-reactie terug tot nul, waardoor het geen voorrang meer krijgt. De emoji-reacties voor 'liefde' en 'verdrietig' zijn momenteel nog wel twee keer zoveel waard als een gewone like. 

Livestreams

Omdat Facebook gebruikers wilde aanmoedigen om een livestream te starten, waardoor gebruikers langer op het platform bleven, gaf het bedrijf in de algoritmes ook de voorkeur aan live-video's boven andere berichten. Zo'n livestream kreeg tot 600 keer meer waarde in het systeem, met als doel om "ultrasnelle viraliteit te veroorzaken", zo staat in de interne stukken.

Livestreams op Facebook speelden een grote rol bij politieke gebeurtenissen, zoals de protesten na de moord op George Floyd en de bestorming van het Capitool.

Haatberichten en mentale gevolgen

De interne documenten zijn deels afkomstig van klokkenluider Frances Haugen. Medewerkers van Facebook hebben vaker gewaarschuwd voor bepaalde negatieve gevolgen van de algoritmes, die door leidinggevenden soms terzijde werden geschoven.

Haugen, die als Facebook-medewerker werkte aan het bestrijden van desinformatie, sprak onlangs met Amerikaanse Congresleden over vermeende misstanden bij het bedrijf. Ze zei dat Facebook buiten de VS onvoldoende optreedt tegen haatberichten, wat onder andere zou hebben bijgedragen aan etnisch gemotiveerd geweld in Myanmar en Ethiopië.

Ook zou het bedrijf uit eigen onderzoek weten dat zijn apps de geestelijke gezondheid van sommige jonge gebruikers schaden.

Nieuwe functies uitgesteld

Facebook zou intussen allerlei nieuwe functies hebben uitgesteld omdat het eerst wil beoordelen of deze tot nog meer negatieve aandacht zouden kunnen leiden. 

Het bedrijf stopt na veel kritiek voorlopig ook met de ontwikkeling van een versie van Instagram voor kinderen.