Videobeeld uit 2016 van Umaporn Sarasat, die gedwongen werd te knielen voor een portret van wijlen de Thaise koning Bhumibol. Ze zou hem hebben beledigd. Buiten eisten honderden mensen excuses.
Videobeeld uit 2016 van Umaporn Sarasat, die gedwongen werd te knielen voor een portret van wijlen de Thaise koning Bhumibol. Ze zou hem hebben beledigd. Buiten eisten honderden mensen excuses. © AP

Zo onderscheidt Facebook porno van kunst

Het hoofd 'Global Policy Management' van Facebook legt het zelf uit

Bij de beoordeling van onlinemateriaal moet Facebook mensen zowel veiligheid als vrijheid bieden.

Afgelopen maand deelden mensen diverse verschrikkelijke video's op Facebook van Syrische kinderen na een aanval met chemische wapens. De video's, die ook elders op internet verschenen, toonden trillende en naar adem happende kinderen die uiteindelijk stierven.

Het beoordelen van onlinemateriaal op een wereldwijde schaal is een uitdaging

Deze beelden waren zeer schokkend - zo erg dat we er een waarschuwingsbeeld voor hebben geplaatst. Maar de beelden wakkerden ook internationale verontwaardiging en hernieuwde aandacht over het lot van de Syriërs aan. Het beoordelen van onlinemateriaal op een wereldwijde schaal is een uitdaging en het is essentieel. Als degene die bij Facebook verantwoordelijk is voor dit werk, wil ik graag uitleggen hoe en waar we de grenzen leggen.

Op een gemiddelde dag maken meer dan een miljard mensen gebruik van Facebook. Zij delen berichten in tientallen talen, van foto's tot livevideo's. Een zeer klein percentage van deze berichten wordt onder onze aandacht gebracht om te onderzoeken. En de redenen waarom mensen aan ons rapporteren verschillen enorm - van pesten tot haatdragend taalgebruik en terrorisme - en zijn complex.

Het ontwerpen van een beleid dat zowel mensen veiligheid biedt als hen in staat stelt om zich vrij te uiten, behoeft kennis van opkomende sociale kwesties en de manier waarop deze zich online ontwikkelen. Daarnaast vraagt het om snel handelen bij het binnenkomen van miljoenen gerapporteerde berichten die mensen ons van over de hele wereld sturen.

Het is moeilijk om de intentie achter het ene bericht in te schatten, of een mogelijk risico dat schuilt in een ander

Er is nog een extra horde voor onze beoordelaars: het begrijpen van context. Het is moeilijk om de intentie achter het ene bericht in te schatten, of een mogelijk risico dat schuilt in een ander. Bijvoorbeeld: iemand plaatst een vrij expliciete video van een terroristische aanval. Zal dit mensen ertoe aanzetten zelf geweld te gebruiken of zich er juist tegen uit te spreken? En als iemand een grap maakt over zelfmoord, zegt dit dan iets over zijn gevoel voor humor of is het een schreeuw om aandacht?

In Nederland is kritiek op de monarchie misschien acceptabel, maar in andere delen van de wereld kan dit reden zijn voor een celstraf. Wetten kunnen een leidraad zijn, maar vaak gaat wat we acceptabel vinden om normen en verwachtingen. Nieuwe manieren om verhalen te vertellen en beelden te delen kunnen deze spanningen sneller dan ooit aan de oppervlakte brengen.

We willen onze website veilig houden. We delen niet altijd de details van ons beleid, omdat we mensen niet willen aanmoedigen om de randen van het voor ons toelaatbare op te zoeken. We publiceren wel de richtlijnen waarin we uitleggen wat we toestaan op Facebook, wat niet en waarom. Richtlijnen veranderen met de tijd. We zijn constant in gesprek met deskundigen en lokale organisaties over onderwerpen als veiligheid voor kinderen, terrorisme of mensenrechten. Soms betekent dit dat ons beleid tegenstrijdig lijkt.

We hebben geconstateerd dat digitaal gemaakte beelden van naaktheid vaker pornografisch zijn dan handgemaakte

Zo hebben deskundigen op het gebied van zelfverminking ons aangeraden dat het beter is livevideo's te laten zien, zodat mensen gealarmeerd zijn en te hulp kunnen schieten, maar ze naderhand te verwijderen om kopieergedrag te voorkomen. En toen een meisje in Georgia in de VS twee weken geleden probeerde zelfmoord te plegen, konden haar vrienden de politie waarschuwen, die haar vervolgens op tijd kon bereiken.

We proberen objectief te blijven. De berichten die wij beoordelen zijn niet de gemakkelijke gevallen: deze bevinden zich vaak in een grijs gebied, waarmee mensen het niet eens kunnen zijn. Kunst en pornografie zijn niet altijd eenvoudig te onderscheiden, maar we hebben geconstateerd dat digitaal gemaakte beelden van naaktheid vaker pornografisch zijn dan handgemaakte, dus hebben we dat opgenomen in ons beleid.

Er is een groot verschil tussen uitingen van woede in algemene zin en specifieke oproepen om mensen te schaden. Daarom staan we de eerste categorie wel toe en de tweede niet.

We delen niet altijd de details van ons beleid, omdat we mensen niet willen aanmoedigen om de randen van het voor ons toelaatbare op te zoeken

Deze spanningen - tussen bijvoorbeeld het vragen van aandacht voor geweld en het promoten ervan - zijn gecompliceerd en er zijn zelden universele wettelijke regels die hierin duidelijkheid geven. Proberen zo objectief mogelijk te zijn is de enige manier waarop we wereldwijd consistent kunnen zijn. Maar dan nog maken we soms de verkeerde keuze.

De hypothetische situaties die we gebruiken om onze mensen te trainen zijn opzettelijk extreem. Ze zijn zo ontworpen dat ze mensen die dit werk doen kunnen helpen bij moeilijke gevallen.

Toen we onze richtlijnen bijna tien jaar geleden voor het eerst vormgaven, werd veel overgelaten aan de beoordeling van onze medewerkers. Maar omdat twee verschillende personen niet dezelfde kijk hebben op de definitie van bijvoorbeeld pesten of haatdragende taal, hebben we nu duidelijker definities.

We krijgen kritiek van mensen die meer censuur willen toepassen en mensen die dit minder willen. We zien dat als een signaal dat we niet te veel overhellen naar een van beide kanten. Ik hoop dat mensen kunnen begrijpen dat we onze rol zeer serieus nemen.

De samenleving is er niet over uit wat acceptabel of wat schadelijk is

Voor veel mensen bij Facebook is veiligheid de passie die in ons zit. Zo heb ik meer dan tien jaar als openbaar aanklager gewerkt, waarbij ik onderzoek deed naar alles, van seksuele uitbuiting van kinderen tot terrorisme. En om de diversiteit te duiden: ons team bestaat onder meer uit een expert in contra-extremisme, een voormalig onderzoeksdirecteur van een antiterreurcentrum, een medewerker van het verkrachtingscrisiscentrum en een leraar.

We weten allemaal dat er meer is dat we kunnen doen. Afgelopen maand kondigden we aan dat we drieduizend extra beoordelaars aannemen. Het is veeleisend werk en we blijven meer doen om hen te ondersteunen, zowel door het makkelijker te maken om lastige beslissingen te nemen als door waar nodig psychische hulp te bieden.

Technologie heeft meer mensen de macht gegeven om harder dan ooit tevoren hun stem te laten horen. Wij geloven dat de voordelen opwegen tegen de nadelen. Maar we zien ook in dat de samenleving er niet over uit is wat acceptabel of wat schadelijk is en dat we bij Facebook een belangrijke rol in dit gesprek kunnen spelen.

Monika Bickert is hoofd Global Policy Management bij Facebook.