1 augustus 2020
Zoeken
Volg me
Vind ik niet leuk: de achterkant van Facebook
Facebook zet content moderators in om schokkende beelden te verwijderen, maar de teams gaan er zelf aan onderdoor.
Facebook zet content moderators in om schokkende beelden te verwijderen, maar de teams gaan er zelf aan onderdoor.

Vind ik niet leuk: de achterkant van Facebook

Verkrachtingen, onthoofdingen, diepe snijwonden van depressieve jongeren: de wil van Facebook om te groeien is zo groot dat medewerkers er aan onderdoor gaan.

‘Voor elke vind-ik-leuk zal ik vijf uur niet eten #verdriet #verdrietigmeisje #angst #anorexia #depressie #eetstoornis #dood #laatmemaargaan’

Een wanhopige jongere deelt bovenstaand bericht. Het is er een van de duizenden die dagelijks voorbijkomen in het gerenoveerde fabriekscomplex van Siemens in Spandau. Content moderators werken er in ploegendiensten een onophoudelijke stroom gerapporteerde berichten weg om Facebook leuk te houden voor zijn gebruikers. De inhoud: kinderporno, filmpjes van zelfdoding, mislukte challenges, onthoofdingen. Het salaris: 8,90 euro per uur – bruto. De gemiddelde duur van een dienstverband: enkele maanden. Heftige beelden en slechte begeleiding staan garant voor veel post-traumatische stressstoornissen.

Dit artikel wordt gefinancierd op basis van sponsoring
Het schrijven van dit artikel vereiste onderzoek en kostte tijd. Voor financiering ervan ben ik afhankelijk van sponsors. Vond je het artikel de moeite waard? Deel het artikel dan op sociale media of toon je waardering met een kleine bijdrage. Zo kan ik kwalitatieve journalistiek blijven bieden.
Totaal: € -

Wie zijn de mensen die voor een schamel loon hun geestelijke gezondheid opofferen?
Het zijn vaders en moeders, wanhopige werkzoekenden en uitgerangeerde arbeidskrachten schrijft Sjarrel de Charon in ‘De achterkant van Facebook’, dat vorig jaar verscheen. Gedreven door de belofte van financiële zekerheid of nieuwsgierigheid melden de content moderators zich bij Arvato Bertelsmann, Accenture of Cognizant –drie uitzendbureaus die Facebook inschakelt om voor een habbekrats schoon schip op het sociale medium te maken. Opgeven is vaak geen optie: geen baan betekent geen brood. Om elke maand de eindjes aan elkaar te knopen, combineren de medewerkers hun werk bij de schoonmaakploeg van Facebook dan ook met diverse andere (schoonmaak)banen. Baangarantie hebben ze niet: Facebook verplaatste al eens een deel van het werk naar Manilla, waar goedkope krachten voor een nog schameler loon de kastanjes uit het vuur halen.
In de voormalige Siemens-fabriek zien ze beelden die ze hun leven lang niet meer zullen vergeten. De Charon zelf zocht zijn toevlucht in een combinatie van drank en medicijnen, belandde binnen 2 maanden bij een psycholoog en psychiater en had ook na zijn vertrek nog paniekaanvallen in de metro.

Dubbelzinnig beleid

‘Maak er maar een eind aan. Je bent zo waardeloos. Niemand wil je nog hebben.’

Facebook zuiveren lijkt onbegonnen werk. Scheldpartijen, doodsbedreigingen en schokkende beelden zijn aan de orde van de dag. Aan de content moderators de ondankbare taak om na een stoomcursus Facebookbeleid een oordeel te vellen: betreft het bericht een persoon uit een beschermde of onbeschermde categorie, is er sprake van discriminatie op basis van ras, afkomst of andere kenmerken of is dit een typisch gevalletje hate speech? Elke categorie heeft weer zijn subcategorieën en de logica van Facebook is ondoorgrondelijk. Het Nederlandstalige gedeelte van Facebook kent daarnaast de nodige uitzonderingen op het officiële beleid. ‘Kanker’ is zo’n ingeburgerd scheldwoord dat het ondoenlijk is om berichten met die term aan te pakken. De term is daarom in nagenoeg alle landen verboden, behalve in Nederland.
Volgens De Charon is het Nederlandse Facebook sowieso erger dan in welk land dan ook. Waar zijn Zuid-Europese collega’s regelmatig gezellig konden praten of even konden gamen, stroomde zijn rij met tickets dagelijks over van onverdraagzaamheid, haat en gruwelijkheden. Door de enorme achterstand was tijdig ingrijpen vaak niet mogelijk. Het dubbelzinnige beleid van Facebook was bovendien meedogenloos voor slachtoffers van porno en pesterijen.

Fragment uit het continu veranderende beleid voor content moderators bij Facebook.
Fragment uit het continu veranderende beleid voor content moderators bij Facebook.

 

Die uitzonderingsregel mag dan een beetje druk van de ketel halen, er blijft voldoende werk over. Alleen al in Nederland groeit de rij met gerapporteerde berichten dagelijks met zo’n 8.000 stuks. Facebook blijkt een riool waar het vuilste water doorheen stroomt. Een gemiddelde gebruiker ziet daar maar weinig van. Kunstmatige intelligentie filtert automatisch de ergste uitwassen uit en anders markeren gebruikers wel schokkende berichten.
De content moderators krijgen echter de volle laag. Achter de schermen moeten zij zorgen dat het medium leuk blijft. Want hoe leuker het sociale medium is, hoe langer gebruikers blijven hangen. Dat is immers goed voor de kijk- en klikcijfers –en dus voor de advertentie-inkomsten. Onder de streep tellen voor Facebook alleen de jaarcijfers.

Schijnwereld

‘Zelfs pijn voelen is beter dan gek worden.’

 Voor de beoordeling van berichten hanteert Facebook een ondoorzichtig systeem. Berichten waarin ras, etniciteit, land van herkomst, godsdienstige overtuiging, seksuele geaardheid, geslacht, gender(identiteit) en ernstige ziekten over de hekel worden gehaald, worden verwijderd. Een bericht over deze beschermde categorieën in combinatie met inhoud uit een onbeschermde categorie is juist wel weer toegestaan. ‘Het christendom is een achterlijke religie’ mag wel, maar ‘Alle christenen zijn achterlijk’ mag weer niet.
Juist die ondoorzichtigheid zorgt voor een dubbele maat. De tweewekelijkse beleidsupdates doen bovendien geen goed aan de begrijpelijkheid van het beleid. Het ene bloot mag wel, het andere pertinent niet. De regels zijn bovendien nogal strikt. Een foto met een Hitlergroet moet worden verwijderd, maar als de arm waarmee de Hitlergroep wordt gebracht niet in de door Facebook vastgestelde hoek staat, mag het bericht blijven staan.
Het laat maar zien dat het onbegonnen werk is om verdeeldheid en tweespalt in een algoritme te vangen. Complexe vraagstukken laten zich moeilijk beantwoorden met binaire regels. Wanneer is een emoji van een schaterlach bijvoorbeeld een signaal dat wijst op haat of leedvermaak?
Pogingen van Facebook om bepaalde hashtags te blokkeren hebben geen zin: gebruikers zijn vindingrijk en kiezen voor andere hashtags om hun bericht toch zichtbaar te maken.
Het beleid maakt van Facebook een schijnwereld waarin bovendien een groepje beleidsmedewerkers bepaalt wat wel en niet door de beugel kan. De schrijnende werkelijkheid –vol haat, wreedheid en onpeilbaar verdriet– wordt aan het oog onttrokken en komt terecht op bordjes in Berlijn, Manilla, Lissabon en Dublin.

Drank en diazepam

De combinatie van schokkende beelden, een continue aanwas van nieuwe berichten en wisselend beleid waarin de waan van de dag lijkt te overheersen, eisen hun tol. Ook al worden moderators minder dan 10 seconden met een bericht geconfronteerd, sommige berichten blijven voorgoed op hun netvlies staan. Erover praten met vrienden of bekenden is geen optie: strikte geheimhoudingsverklaringen verbieden de moderators om uit de school te klappen. Mobiele apparaten en papier en pen zijn bovendien verboden uit angst dat bedrijfsgeheimen worden gelekt. Dyson-handdrogers op de toiletten in Spandau moeten voorkomen dat een medewerker –hoe provisorisch ook– toch iets op papier zet.
Het drijft sommige medewerkers in de armen van de bedrijfspsycholoog. Maar: in Spandau is er maar 1 beschikbaar voor 600 medewerkers. Dus nemen de content moderators nogal eens hun toevlucht tot drank of diazepam –of een combinatie ervan. Soms wordt het werk de betrokkenen zelfs fataal. In 2018 liet een moderator in Noord-Amerika het leven na een hartstilstand door alle spanning. Een collega in Manilla ondernam een poging tot zelfmoord.

Het kat-en-muisspel tussen Facebook en zijn gebruikers, het onvermogen van de technologiereus om gruwelijke content buiten de deur te houden en de gebrekkige begeleiding in combinatie met een mager loon leiden tot continue onvrede onder de medewerkers die Facebook schoon moeten houden. Ze voelen zich een speelbal van politieke en zakelijke beslissingen en spuien –ondanks de lijvige geheimhoudingscontracten–daarom steeds vaker hun gal. Ze worden daarbij meer en meer gesteund door managers. Toch is dat niet genoeg om het probleem goed op de kaart te zetten. Facebook zelf richt ondertussen zijn pijlen op kunstmatige intelligentie als opvolger van de moderators, maar medewerkers van Facebook hebben er nog weinig vertrouwen in, zegt een ontwikkelaar: „Er komen dagelijks 2 miljard berichten binnen. Zelfs als je 99 procent van die berichten goed beoordeelt blijven er veel fouten over.”

Achter de schermen bij Facebook

Als het aan Facebook ligt, moet alles leuk zijn. De blauwe reus, die klein begon op een campus, introduceerde als eerste de ‘Like’-knop –het bekende blauw met witte pictogram met de duim omhoog en omlaag. Gebruikers geven er mee aan of ze iets wel of niet leuk vinden. Het pictogram zorgt voor interactie en triggert Facebook om inhoud op de tijdlijn te plaatsen die gebruikers mogelijk ook leuk vinden. Zo blijft hun startpagina relevant en blijven ze langer hangen: dat is goed voor de advertentie-inkomsten. Die zijn voor Facebook namelijk het allerleukst.
Want eerlijk is eerlijk, zo veel leuks viel er de afgelopen jaren niet te melden over het grootste sociale medium ter wereld. Verhalen over werken voor een habbekrats, een verziekte bedrijfscultuur, flagrante schendingen van gebruikersrechten, verkoop van gebruikersgegevens en nog veel meer zetten het bedrijf voortdurend in een kwaad daglicht. Oprichter en CEO Mark Zuckerberg moest zich verantwoorden voor de hoogste politieke organen, maar kwam steeds weer weg met een ‘sorry’ en de belofte zijn leven te verbeteren. Daarvan kwam tot op heden vrij weinig terecht.
Wat Zuckerberg en co drijft en hoe Facebook steeds opnieuw in de problemen raakt (en daar weer uit probeert te geraken), wordt uitgebreid beschreven in ‘Facebook – Achter de schermen’. In het boek, dat begin deze maand verscheen, beschrijft Stephen Levy de technologiereus van binnenuit. Levy schetst een ontluisterend beeld van Zuckerberg, die het contact met de werkelijkheid steeds verder lijkt te verliezen. Zijn maniakale gerichtheid op meer gebruikers (want inkomsten) en drang om de publieke opinie te beheersen (want merkimago) leiden tot een steeds groter isolement. Zijn stuntelige en onnavolgbare persoonlijkheid helpen ook al niet.
Uit ‘Facebook – Achter de schermen’ blijkt de obsessie om maar te groeien –of het nu gaat om de breedte (meer gebruikers), de diepte (meer relevantie) of nieuwe markten (van mobiele berichtendiensten tot VR). Of die groei zich blijft voortzetten, is nauwelijks een vraag. Ondanks de schandalen blijft Facebook zijn pijlen richten op nieuwe initiatieven, waarvan de Libra –de virtuele munt– de laatste is. Soms slagen de plannen, soms niet. Maar consumenten blijven massaal het platform gebruiken –in welke schandalen Facebook ook verzeild raakt.
Dat er toch iets moet veranderen, blijkt na het lezen van Stephen Levy’s vuistdikke roman zonneklaar. Het is alleen de vraag hoe en of dat ooit zal gebeuren. Tot die tijd lijkt de mastodont gedoemd om steeds min of meer in dezelfde fouten te vallen.

‘Facebook – Achter de schermen’. Stephen Levy. 07-07-2020. Lev Boeken, 9789400508767. € 24,99.

Afbeelding van Pete Linforth via Pixabay

Geschreven door
Pieter Beens
Discussieer mee

Instagram

Instagram has returned empty data. Please authorize your Instagram account in the plugin settings .

Please note

This is a widgetized sidebar area and you can place any widget here, as you would with the classic WordPress sidebar.