NIEUWSBESTRIJDING NEPNIEUWS FACEBOOK

Facebooks strijd tegen nepnieuws: ‘Je merkt dat ze worstelen met hun rol’

Beeld Thomas Nondh Jansen

Facebook heeft na een aanvankelijke aarzeling flink geïnvesteerd in de bestrijding van nepnieuws. De ingehuurde factcheckers vragen zich af of hun inspanningen voldoende effect sorteren.

Een bebloede man loopt verdwaasd over een plein vol lijken. Allemaal oudere landgenoten die tegen hun wil zijn geëuthanaseerd om de druk op de ic’s te verminderen. Vreselijk gewoon, het lijkt wel een horrorfilm. Of wacht, het is een horrorfilm. De Filipijnse vitamineverkoopster Shirley Romano postte afgelopen week een screenshot uit de serie The Walking Dead (2018) op haar Facebook-tijdlijn met dat angstaanjagende verhaal erbij. Haar bericht werd ruim tweeduizend keer gedeeld, totdat een factchecker van het Franse persbureau AFP het bestempelde als nepnieuws. Haar post is inmiddels geblurd met de waarschuwing: False Information, checked by independent factcheckers. Met een linkje naar twee artikelen geschreven door factcheckers.

Zo’n opruimactie was een paar jaar geleden ondenkbaar. Facebook, met meer dan twee miljard gebruikers in de wereld, weigerde lange tijd verantwoordelijkheid te nemen voor de inhoud van berichten op zijn platforms (Facebook, Instagram). ‘We moeten extreem voorzichtig zijn een scheidsrechter te worden voor de waarheid’, schreef oprichter Mark Zuckerberg eind 2016 na verwijten dat zijn platform de Amerikaanse presidentsverkiezingen had gesaboteerd door het verspreiden van nepnieuws. Desondanks stampte Zuckerberg een omvangrijk programma uit de grond om desinformatie te bestrijden. Het bedrijf telt, naar eigen opgave, inmiddels 15 duizend contentreviewers (op 45 duizend vaste werknemers).

Beeld Colourbox

‘Dat verkiezingsjaar was een leermoment voor ons’, zegt Facebook-manager Jessica Zucker, die in Londen leiding geeft aan een desinformatie-beleidsteam. Zij bepaalt mede wat wel en niet is toegestaan op het platform. ‘Bestrijding van desinformatie is nu een van onze belangrijkste activiteiten. Het lijkt wel of iedereen bij Facebook daarmee bezig is.’ Haar belangrijkste uitgangspunt: Facebook bepaalt niet wat waar en onwaar is. Daarom besteedt het bedrijf dat werk uit aan zestig onafhankelijke partners wereldwijd, zoals het Duitse persbureau DPA of het Franse bureau AFP. De eerste begon afgelopen maand, de tweede begint deze maand. 

Bleekmiddel

Een uitzondering maakt Facebook voor berichten die acuut gevaar opleveren voor gebruikers. Zoals het advies bleekmiddel te drinken tegen het coronavirus. Zucker: ‘We sporen die op met een combinatie van mensen, algoritmen en kunstmatige intelligentie.’ Ze schetst een werkproces dat doet denken aan de film Bee Movie. Een classifier stuit op een schadelijk bericht, bijvoorbeeld op de Mythbuster Page van de WHO waar zulke berichten worden verzameld. Een programmeur bouwt een algoritme dat gaat zoeken naar vergelijkbare berichten op het platform. De vangst belandt bij een content reviewer, die beslist of het bericht wel of niet mag blijven bestaan. Zo niet, dan verdwijnt het in de remove bucket. Tot slot zoekt een tweede algoritme naar duplicaten die ook voor een reviewer moeten verschijnen. ‘Zo hebben wij honderdduizenden schadelijke berichten over corona verwijderd.’

De meeste desinformatie levert niet meteen fysieke schade op. Zoals het verhaal dat filantroop Bill Gates stiekem microchips injecteert in mensen, of het bericht dat alle scholieren dit jaar over moeten doen. Facebook speurt daarnaar met een algoritme en met hulp van gebruikers. Die kunnen een vlag plaatsen, via de drie jaar geleden toegevoegde nepnieuwsknop (onder het symbool … rechtsboven in het bericht), waarna het bericht op een speciale server belandt waarin externe journalisten kunnen grasduinen. Facebook betaalt hun werkgever daarvoor.

Deze ingehuurde factcheckers – naar schatting enkele honderden in de wereld – openen dagelijks het Facebook-dashboard waarmee zij berichten kunnen filteren. Bijvoorbeeld op verspreidingssnelheid. Dan volgt normaal journalistiek handwerk: het ministerie van Onderwijs bellen of een wetenschappelijk rapport doorpluizen. Als het bericht niet klopt, schrijft de factchecker een stuk voor zijn eigen website en stuurt dat door naar Facebook. Die blurt het gewraakte bericht met een verwijzing naar ten minste twee factcheckers. Die beschrijven hun baan soms als het spelletje Whac-a-Mole uit de speelhal: je slaat met een rubber hamer op de kop van een mol, maar meteen floepen links en rechts weer nieuwe mollen uit hun holletje.

Beeld Thomas Nondh Jansen

‘Het is een complexe uitdaging’, zegt Facebookmanager Guido Bülow, die verantwoordelijk is voor het factcheckingprogramma in Europa, Midden-Oosten en Afrika. ‘Journalistiek is niet onze expertise en we willen de rol van scheidsrechter voor alles vermijden.’ Bülow zoekt per land ten minste twee journalistieke organisaties die bereid zijn berichten op Facebook en Instagram te checken. Hoe meer nepnieuws zij vinden, hoe meer Facebook betaalt. Hij vindt het niet raar dat Nederlandse berichten worden gecheckt door het Franse AFP en Duitse DPA. ‘Zij nemen Nederlandse journalisten in dienst en hebben al veel ervaring met factchecking.’ Alle partners zijn volgens hem lid van het International Factchecking Network, een onafhankelijke organisatie in de VS die eisen stelt aan de journalistieke kwaliteit en die onafhankelijk is van haar leden.

Speerpunt

‘We hebben net een fulltimejournalist aangenomen voor het Nederlandse taalgebied’, zegt adjunct-hoofdredacteur Grégoire Lemarchand van het Franse persbureau AFP. Daar werken tachtig factcheckers. ‘Misinformatie bestrijden is een speerpunt. Facebook is gewoon een klant van ons. Net als bijvoorbeeld de BBC.’ De Nederlandse factchecker zal dagelijks kijken op het dashboard van Facebook, maar ook zelf het internet afstruinen op zoek naar nepnieuws. Het Duitse persbureau DPA zoekt vier extra factcheckers voor de Benelux. Een woordvoerder: ‘Wij willen helpen in de bestrijding van nepnieuws. We werken al een jaar samen met Facebook – naar tevredenheid – dus aan hun uitbreidingsverzoek voldoen wij graag.’

Dat roept de vraag op: kon Facebook geen Nederlandse partner vinden? ‘We hebben het onderzocht’, zegt hoofdredacteur Freek Staps van persbureau ANP. ‘Maar hun eisen botsen met onze opvatting van journalistieke onafhankelijkheid.’ Facebook verbiedt uitspraken van politici te checken. ‘Als Rutte of Baudet onjuistheden verkondigt, willen wij dat ook kunnen melden. De afwijzing was voor ons een no-brainer.’ Facebook werkte in Nederland eerder samen met de Universiteit Leiden en met nieuwswebsite NU.nl. De eerste haakte af na gedoe over juridische aansprakelijkheid, de ander vorig jaar na een telefoontje van Facebook-manager Bülow over de stukgecheckte uitspraak van een Europarlementslid van het CDA.

‘Hij zei dat we daarmee een belangrijke voorwaarde hadden geschonden’, zegt hoofdredacteur Gert-Jaap Hoekman. ‘Dat was nieuw voor mij, ik had dat echt nergens gelezen. Maar nu ik het wist, was het voor ons een probleem.’ Facebook bevestigt dat uitspraken van politici geen onderwerp mogen zijn voor factcheckers. Bülow: ‘Facebook wil geen partij worden in politieke discussies. We liggen al onder een vergrootglas.’ Mocht een politicus iets zeggen wat fysiek gevaar oplevert, stelt Bülow, dan zal Facebook dat bericht verwijderen. Mocht hij of zij nepnieuws van een ander verspreiden, dan kunnen factcheckers daar toch mee aan de slag. ‘Maar een eigen bewering, hoe onjuist ook, laten we staan.’ Hij vindt dat journalistiek acceptabel, omdat politici sowieso scherp gevolgd worden door de media.

Verbod

Over dat verbod is veel discussie binnen de factchecking-gemeenschap, erkent AFP-baas Lemarchand. ‘Ik respecteer de beslissing van het Nederlandse ANP. Maar wij vinden: als je desinformatie wilt helpen bestrijden, dan moet je aanwezig zijn op het grootste socialemediaplatform ter wereld.’ Facebook is volgens hem altijd helder geweest over hun verbod op het corrigeren van politici. ‘Als president Macron iets onjuist zegt, kunnen we daar gewoon over schrijven en dat doen we ook. Dat Facebook dit niet geschikt acht voor hun platform, vinden wij acceptabel.’

In drie jaar tijd stak Facebook – na aanvankelijke tegenzin – een hoop geld en mankracht in het bestrijden van desinformatie op zijn platforms. Hoe effectief zijn die inspanningen? Dat antwoord is lastig te geven omdat Facebook geen cijfers deelt. Hoofdredacteur Hoekman van NU.nl zag dagelijks zo’n honderd berichten verschijnen op het Nederlandse dashboard. ‘Er zaten veel doublures tussen, veel medische broodjes aap zoals het eten van pissebedden tegen hooikoorts, dat soort dingen. Pas tijdens de Zwarte Piet-discussie kreeg ik het gevoel dat ons werk relevant werd.’

Uit steekproeven van activisten en wetenschappers blijkt dat veel desinformatie blijft rondzingen. Zo meldde de Amerikaanse non-profitorganisatie Avaaz, na het volgen van 103 onjuiste berichten over het coronavirus in februari, dat 41 procent blijft staan. Ook al was 65 procent daarvan aangemerkt als valse informatie door de ingehuurde factcheckers. De Amerikaanse waakhond Newsguard, die informatiebronnen rangschikt op betrouwbaarheid, inventariseerde vorige week 31 Facebookpagina’s die grossieren in desinformatie over het coronavirus. 63 procent daarvan had nog geen waarschuwingslabel van Facebook. De Amerikaanse universiteit MIT signaleerde onlangs, na een proef onder zesduizend Facebookgebruikers, een zorgwekkend effect: als een waarschuwingslabel ontbreekt, concluderen veel gebruikers ten onrechte dat het bericht dus klopt.

Rondgaan

‘Je krijgt nooit alle desinformatie weg’, verzucht coördinator Alexander Pleijter van Nieuwscheckers, het factcheckproject van de Universiteit Leiden. ‘Dat is godsonmogelijk.’ Ook op het Nederlandstalig deel van Facebook, zo concludeerde zijn groep factcheckers in maart, blijft stukgecheckt nieuws over corona rondgaan. Pleijter werkte een jaar samen met Facebook. ‘Je merkt dat zij worstelen met hun rol. Ze proberen zeker desinformatie te bestrijden, maar ze zijn ook bang gebruikers te verliezen.’ Al met al denkt Pleijter dat het programma effect heeft. ‘De kans op clickbait in onze tijdlijn is bijvoorbeeld veel kleiner geworden.’ Het gaat dan om misleidende advertenties die sensationele teksten en foto’s gebruiken om het bereik op te krikken. De bestrijding van desinformatie kan volgens Pleijter effectiever door sneller in actie te komen. ‘Voordat een factchecker zijn werk heeft gedaan en Facebook een label heeft aangebracht, is de piek van dat bericht al voorbij.’ Ook andere factcheckers klagen dat zij achter de feiten aanlopen.

‘We zijn blij met dit soort meldingen’, zegt Facebook-reviewer Jessica Zucker. ‘We leren voortdurend bij, het is geen makkelijke opgave. Aan de ene kant willen we zo veel mogelijk ruimte geven aan onze gebruikers, aan de andere kant willen we maatschappelijke schade voorkomen.’ Vorige maand, stelt Zucker, blurde Facebook 40 miljoen berichten op basis van vierduizend factchecks. Of dat veel of weinig is kan zij niet zeggen. ‘Ik vind het bemoedigend dat 95 procent van de gebruikers niet meer op zo’n bericht klikt.’ De kritiek dat een waarschuwing eigenlijk te laat komt, is haar bekend. Daarom experimenteert Facebook komende weken met een actievere melding: wie afgelopen maanden een foutief bericht over corona heeft geliket of van commentaar heeft voorzien, ontvangt een waarschuwing en een doorverwijzing naar de WHO of het RIVM boven in zijn tijdlijn. ‘Dat gaat alleen om berichten die fysiek gevaar kunnen opleveren.’

De kracht van Facebook: je kunt de Filipijnse vitamineverkoopster uit het begin van dit verhaal gewoon een berichtje sturen. Vanuit haar woonplaats Lucena City wil Romano best uitleggen waarom zij zo’n eng plaatje heeft gepost. ‘Ik heb die tekst gekopieerd – ik weet niet meer waar – en zocht er een foto bij van wat er zou kunnen gebeuren als we niet binnenblijven.’ Het was volgens haar goedbedoeld: ze hoopte haar landgenoten te overtuigen binnen te blijven.

Facebook bestrijdt desinformatie door drie emmers in stelling te brengen. 

Verwijder-emmer Berichten die fysiek gevaar kunnen opleveren, bijvoorbeeld over het drinken van bleekmiddel tegen corona, worden verwijderd. Facebook zegt 15 duizend content reviewers aan het werk te hebben (in- en extern). Hoeveel berichten maandelijks worden verwijderd, zegt het bedrijf niet. Wel meldt Facebook dat het ‘enkele honderdduizenden’ gevaarlijke coronaberichten heeft verwijderd.  

Beperk-emmer Als gebruikers een bericht markeren als mogelijk onjuist, dan belandt dit op een speciale server voor externe factcheckers. Facebook betaalt zestig journalistieke organisaties, aangesloten bij het onafhankelijke International Factchecking Network, om het waarheidsgehalte te beoordelen. Facebook blurt foutieve berichten en zet daar een waarschuwing bij en een link naar de factcheckers. Het bericht belandt ook lager in een tijdlijn.

Informatie-emmer Facebook zet eigen berichten in de nieuwsfeed of op de tijdlijn van gebruikers die bijvoorbeeld naar #corona zoeken. Het bedrijf zegt zo 2 miljard gebruikers te hebben doorverwezen naar de WHO of het RIVM. 350 miljoen gebruikers hebben op zo’n link geklikt. Komende weken verstuurt Facebook een vergelijkbaar bericht naar gebruikers die eerder een gevaarlijke post over corona hebben geliket of van commentaar hebben voorzien.

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2020 DPG Media B.V. - alle rechten voorbehouden