Analyse Radicaal YouTube

Leidt het algoritme van YouTube je naar extreme content?

YouTube werkt radicalisering in de hand, zo blijkt uit onderzoek van De Correspondent en de Volkskrant dat vrijdag werd gepubliceerd. Het algoritme dat aanbevelingen doet voor nieuwe video’s op YouTube speelt daar een grote rol in. Hoe zit dat precies, hoe werkt de technologie van YouTube radicalisering in de hand?

Beeld de Volkskrant

Steeds een stapje verder: hoe YouTube rechtse radicalisering in de hand werkt

Op YouTube krijgen gebruikers vaak filmpjes gesuggereerd die net iets extremer zijn dan ze zelf bekeken. De Volkskrant en De Correspondent onderzochten kanalen, video’s en reacties en ontdekten hoe dat ertoe kan leiden dat gebruikers steeds rechtser en radicaler worden. Op deze pagina vind je al onze verhalen hierover gebundeld in één handig overzicht

Stel je bent voor een werkstuk op zoek naar informatie over de rellen in het Oost-Duitse Chemnitz in de zomer van vorig jaar, die vooral in het nieuws kwamen door neonazi’s onder de demonstranten. Je gaat, zoals zoveel jongeren die op zoek zijn naar informatie, naar YouTube en vult ‘riots chemnitz’ in de zoekbalk in. Zijn de video’s die je terugkrijgt enigszins objectief van toon? Geven ze een waarheidsgetrouw beeld van wat er deze zomer in de Duitse stad is gebeurd?

Dit is wat YouTube onlangs voor ons relevant achtte op een nieuw, schoon account waarmee YouTube nog niet eerder is gebruikt.

Bovenaan staat Red Pill Shark, een kanaal met 55.204 abonnees. Dit kanaal behoort tot alt-right, een van oorsprong Amerikaanse beweging die draait om wit superioriteitsdenken, waarbinnen ook het antisemitisme welig tiert. Met ‘red pill’, ontleend aan de film The Matrix, wordt het het moment aangegeven waarop je ontwaakt en eindelijk de ‘linkse leugens’ over feminisme, multiculturaliteit, migratie of het jodendom doorziet. De video’s van Red Pill Shark ageren tegen de EU, immigratie, George Soros, transgenders, links en spreken vol lof over Donald Trump, Jair Bolsonaro, Victor Orbán en Rusland. Red Pill Shark’s video over de rellen in Chemnitz is een grote aanklacht tegen het immigratiebeleid van Angela Merkel en is 125.000 keer bekeken.

Daaronder staan video’s van:

- Ruptly, een kanaal van de tv-zender Russia Today.

- Sinatra_Says, een kanaal dat zich vooral tegen zogenoemde social justice warriors richt, progressieve activisten.

- The House of Peasants, eveneens een alt-right-kanaal.

- Op nummer 9 in de lijst komen we Red Ice TV tegen, een kanaal dat onlangs een tweede officiële waarschuwing heeft gekregen van YouTube (bij de derde wordt het offline gehaald). De video’s gaan vooral over de vele vermeende bedreigingen voor het ‘witte ras’, waarvoor de schuld geregeld bij een links-Joodse kongsi wordt gelegd. In het verleden verzorgde Red Ice de live-registratie van de Erkenbrand-conferenties. Erkenbrand, dat zichzelf een ‘studiegenootschap’ noemt, is in Nederland de belangrijkste representant van alt-right.

Wellicht dat dit aanbod een voorzichtige interesse wekt. Het zijn immers beelden die je misschien niet hebt meegekregen in reguliere media. De sensationele omschrijving van de gebeurtenissen in Chemnitz intrigeert ook. Dus is het niet vreemd dat je op het filmpje klikt van Red Ice TV.

Terwijl het filmpje loopt, verschijnen aan de rechterkant van het scherm aanbevelingen voor andere clips. Daartussen staat nog een video van Red Ice TV, met de titel They Want You Dead White Man. Daaronder wordt ook een video van ‘PragerU’ aanbevolen: The Suicide of Europe.

Je kunt afhaken en het voor gezien houden. Maar YouTube zelf weet hoe belangrijk deze aanbevelingen zijn. Uit eigen onderzoek is namelijk gebleken dat meer dan zeventig procent van de tijd die mensen aan YouTube besteden voortkomt uit een aanbeveling door een algoritme, een geavanceerd computerprogramma. Verreweg de meeste mensen kijken dus naar video’s die YouTube zelf heeft voorgesteld.

Ook als je er niet naar op zoek bent, kun je via YouTube heel makkelijk bij haatdragende, rechts-radicale video’s belanden. We maakten zelf een video waarin we uitleggen hoe dat werkt.

YouTube, de grote radicaliseringsmachine

Dat je dankzij de aanbevelingen van YouTube alsmaar verder kunt verdwalen in een woud van filmpjes over ‘witte genocide’, ‘maatschappijvernietigende’ feministen, moslims, Joden en cultureel-marxisten, is volgens een groeiende groep onderzoekers, publicisten en journalisten een probleem dat meer aandacht verdient.

Waar fora als Facebook en Twitter inmiddels felle kritiek krijgen vanwege de verspreiding van nepnieuws en haatberichten, blijft YouTube grotendeels buiten schot. Terwijl YouTube in Nederland en veel landen daarbuiten na Instagram het belangrijkste sociale medium is onder jongeren.

Die tunnel van aanbevelingen waar YouTube’s algoritme je in leidt, wordt inmiddels beschreven als een vorm van ‘radicalisering’ die kijkers vooral naar de extreemrechtse kant van het politieke spectrum trekt. De invloedrijke technologie-socioloog Zeynep Tufekci noemt YouTube daarom ‘de grote radicaliseringsmachine’. Zij staat zeker niet alleen in haar kritiek.

In de loop van 2017 treedt Guillaume Chaslot, een oud-medewerker van YouTube, naar buiten met harde kritiek op zijn voormalige werkgever. Eerder dat jaar heeft hij een artikel gepubliceerd over de aanbevelingen die automatisch op je scherm verschijnen. Voorafgaand aan de Amerikaanse presidentsverkiezingen had hij gezocht naar Hillary Clinton en Donald Trump. Ongeacht wie hij intikte beval YouTube in vier van de vijf gevallen pro-Trump filmpjes aan. Zoekopdrachten naar Hillary Clinton leverden meestal aanbevelingen voor anti-Clinton filmpjes op. ‘Het aanbevelingsalgoritme is niet toegespitst op wat waarheidsgetrouw is, of wat gezond is voor democratie’, zei Chaslot hierover vorig jaar in een gesprek met The Guardian.

In september van dat jaar publiceren twee Duitse communicatiewetenschappers een studie naar de aanbevelingen die kijkers krijgen als ze video’s van de rechtspopulistische Alternative fur Deutschland (AfD) bekijken. Die aanbevelingen leiden kijkers, aldus de onderzoekers, al snel naar video’s van meer extreme politieke groeperingen, zoals de extreemrechtse partij NPD en de Identitaire beweging. Zo dient zich bijvoorbeeld een gelikt en opzwepend promotiefilmpje aan om je bij de extreemrechtse identitaire beweging aan te sluiten, de ‘snelst groeiende patriottische jeugdbeweging van Europa’.

Recenter heeft The New York Times over de resultaten van een klein onderzoek van Ray Serrato, een Berlijnse sociale media-analist, geschreven. Serrato zocht naar alle YouTube-filmpjes over Chemnitz die in 2018 online waren gegaan en keek vervolgens welke video’s werden aanbevolen.

Zijn conclusie: als kijker kom je snel terecht bij extreme videos. En als je eenmaal dat soort video’s aangeboden krijgt, blijven ze terugkomen in je aanbevelingen. Kijkers vallen in een algoritmische rabbit hole van radicale en extremistische content waar ze niet zo snel meer uitkomen.

Maar hoe werkt dat dan precies met die aanbevelingen? Hoe zorgt de technologie van het platform ervoor dat je als kijker uiteindelijk terecht komt bij video’s over ras en IQ, en joodse complottheorieën? Om hier antwoord op te geven, moeten we met een simpele vraag beginnen:

Wat is YouTube eigenlijk? 

Het simpele antwoord is: het grootste videoplatform ter wereld dat 1,9 miljard gebruikers heeft. Iedere dag wordt er voor 1 miljard uur aan video’s bekeken en iedere minuut 400 uur aan video geupload.

YouTube is ook de op een na grootste zoekmachine ter wereld: het moet alleen Google Search voor zich dulden. Een tiener die een werkstuk over de rellen in Chemnitz maakt, gebruikt hoogstwaarschijnlijk YouTube als zoekmachine.

En: YouTube is dus ook een van de belangrijkste sociale media voor jongeren.

Er is ook een ingewikkelder, maar een voor dit artikel relevanter antwoord op de vraag wat YouTube is. Die luidt: YouTube is een alternatief mediaplatform dat video’s aanbiedt die zorgvuldig geselecteerd zijn om gebruikers zo lang mogelijk aan het scherm gekluisterd te houden. Achter die zorgvuldige selectie gaat een complexe softwaretechniek schuil, waar we later in deze explainer dieper op in zullen gaan. Voor nu is het belangrijk om te weten dat YouTube zo is ingesteld dat het onze ‘niche’ - iets dat onze speciale aandacht heeft - probeert te achterhalen. Heeft YouTube dat eenmaal door, dan biedt het ons oneindig veel video’s aan uit die niche.

YouTube is het grootste videoplatform, dus hoezo niche?

Wie van vogelen houdt, vindt op YouTube duizenden video’s over de zangkwaliteiten van allerlei vogels wereldwijd. Wil je je make-up vaardigheden aanscherpen? Op YouTube staat een heel leger aan beauty-vloggers paraat om je dat te leren. Je kunt het zo gek niet bedenken of voor iedere niche zijn er talloze video’s op YouTube te vinden die je niet snel in de reguliere media aantreft. YouTube is dus een alternatief mediaplatform, voor makers en kijkers die hun specifieke obsessie niet zo snel zullen aantreffen bij reguliere media.

Daarom is YouTube ook zo’n vergaarbak van zoveel maffe en zorgwekkende dingen.

Video’s dat de aarde plat is en niet rond? Daar zijn er een hoop van. Video’s die zouden bewijzen dat de Clintons deel uitmaken van een pedofiel genootschap dat kinderen in de kelder van een pizzarestaurant misbruikt en vermoord? Die zijn nog steeds te vinden. Video’s die betogen dat zwarte mensen een lager IQ hebben dan witte? Daar zijn hele kanalen aan gewijd. Video’s die mannen oproepen tot een celibatair bestaan omdat vrouwen erop zouden zijn mannen van hun vrijheid en kapitaal te beroven? Ook hier kun je je dagen mee vullen.

Goed, je hebt rare niches, nou en?

Die niches zijn wat YouTube zo leuk, fascinerend en verrassend maakt, waarom je er altijd iets nieuws kunt ontdekken. Die niches kunnen er echter ook toe leiden dat je bij eenzijdige en extreme video’s terechtkomt. Dat geldt vreemd genoeg vooral voor onderwerpen waar juiste grote consensus over (lijkt) te bestaan.

Neem de relatie tussen ras en IQ. De wetenschappelijke consensus is dat biologisch gezien ras niet bestaat. Er is voor de meeste mensen dan ook geen enkele reden om daar video’s over te maken, waarom zou je. Het is daarom niet verwonderlijk dat van de vele video’s die je wel over dit onderwerp kunt vinden, verreweg de meeste betogen dat zwarte mensen over het algemeen een lager IQ hebben dan witte. Kortom: als je op YouTube een ogenschijnlijk neutrale zoektocht zou doen naar ‘ras en IQ’, bijvoorbeeld omdat deze begin 2018 in het nieuws kwam door een toenmalig FvD-raadslid, beland je automatisch in het extremistische discours. Een ander discours is er namelijk niet.

Wat je ook niet op YouTube zult aantreffen: video’s die betogen dat de aarde wel rond is, dat de Clintons geen pedofielen zijn en dat vrouwen er niet continue op uit zijn je te ontdoen van je geld, mannelijke trots en waardigheid.

Met andere woorden: het aanbod van video’s is al scheef. Dat de aanbevelingen je daar dan naartoe leiden, is dan ook niet verwonderlijk.

Oke, dat zijn de niches. Hoe kom je zo makkelijk bij extreme video’s uit?

Met die vraag kloppen we aan bij Bernhard Rieder, universitair hoofddocent New Media and Digital Culture aan de Universiteit van Amsterdam. Met een aantal collega’s doet hij onderzoek naar hoe de technische infrastructuur van YouTube bepaalt wat wij aangeboden en te zien krijgen.

YouTube neemt meestal niet op basis van inhoud een besluit of het je een video aanbeveelt, zoals reguliere media dat doen. Als je naar WNL kijkt, hoef je geen programma te verwachten dat de zegeningen van veganisme bezingt en bij de VPRO zul je niet snel Temptation Island zien. Voor YouTube is alle content gelijk. Het vindt de videoclip ‘DNA’ van de populaire rapper Kendrick Lamar net zo relevant als de videoclip White DNA is An ‘Abomination van Red Ice TV, waarin de ‘demonisering’ van het witte ras wordt gehekeld. Beide video’s kunnen naast elkaar opduiken in de zoekresultaten en aanbevelingen.

Maar juist die neutrale houding van YouTube is problematisch. Bernhard Rieder geeft het voorbeeld van twee zoektermen: ‘hamster’ en ‘Jood’. Deze zoektermen worden door YouTube hetzelfde behandeld, maar hebben cultureel een hele andere lading. Een video over ‘Jood’ kan gaan over cultuur, maar ook over de Holocaust, of juist over Holocaustontkenning. ‘Een term als ‘Jood’ heeft een gevoelige geschiedenis. ‘Hamster’ totaal niet en dan maakt het niets uit wat voor aanbevelingen we terugkrijgen.’ Met ieder onderwerp word je gewoon verder een niche ingeduwd omdat het vermoeden bestaat dat je daar in geïnteresseerd bent.

Vaak doet het algoritme precies wat we willen: nieuwe content ontdekken. Maar er zijn situaties waarin je dat liever niet wil, waarin je wel een oordeel wil laten meewegen in wat mensen te zien krijgen. Bij maatschappelijke en politieke thema’s bijvoorbeeld, waarin gekker, maffer, extremer wel moreel problematisch kan zijn.

Kortom: de morele afweging, die veel media dag in dag uit maken, ontbreekt. Het algoritme is waardevrij, ook op momenten dat het onderwerp zo gevoelig is dat het om een waardeoordeel vraagt.

Maar leiden die algoritmes je een bepaalde richting uit?

Dat er een ontwikkeling zit in de aanbevelingen die je krijgt, wordt wel duidelijk als je een tijdje intensief naar iets specifieks zoekt en je de aanbevelingen in de gaten houdt.

Tijdens ons onderzoek naar radicalisering op YouTube ervoeren we hoe snel deze aanbevelingen kunnen veranderen en je een tunnel kunnen induwen. We begonnen met een nieuw gebruikersaccount. Onze startpagina op YouTube zag er toen zo uit.

Beeld YouTube

Er is nog niets gepersonaliseerd. De aanbevelingen bestaan uit trending video’s, auto’s, muziek, nieuws, satire, kortom, nogal generieke inhoud.

Na drie dagen onderzoek naar enkele extreemrechtse vloggers heeft onze startpagina op YouTube een ware gedaanteverwisseling ondergaan. Dit zijn de video’s waarvan het algoritme van YouTube nu denkt dat we ze graag willen zien.

Beeld YouTube

We zien hier:

- Video’s van pickup artists (mannen die claimen te weten hoe je vrouwen versierd) en anti-feministen.

- Clips van het extreemrechtse ThuleanPerspective en het Zweeds-Amerikaanse Red Ice TV. Van beide hebben we video’s bekeken, dus blijkbaar denkt YouTube dat we hier meer van willen zien.

- Een inhoudelijk negatieve video over Sylvana Simons. Over haar hebben we niet eerder een video bekeken, dus het is gek dat ze in onze aanbevelingen opduikt. En het is overigens ook de eerste echte Nederlandse content die wordt aanbevolen.

- Het kanaal van Rocking MrE. Zijn video’s gaan over de zegeningen van nationalisme en religie, en zijn anti-Joods en anti-feminisme.

- En vreemd genoeg het entertainmentkanaal Dutchtuber, waar we nog nooit iets van gezien hebben. Blijkbaar denkt YouTube dat we dit kunnen waarderen.

Let wel, ons kijkgedrag via dit account is niet normaal, in die zin dat we bewust extreme dingen hebben gezocht, die filmpjes vaak helemaal uitkijken en weinig andere video’s bekijken (zoals entertainment). Bij gewoon gebruik zal je wellicht wat minder snel in zo’n extreme tunnel worden geduwd, maar het blijft verrassend hoe weinig ander, in dit geval niet-extreem, aanbod er overblijft.

Achter deze verschuiving van aanbod gaan meerdere algoritmen schuil. Het ene handelt bijvoorbeeld de zoekvragen af. Het andere voert berekeningen uit op de achtergrond om uit miljoenen video’s een voorselectie van aanbevelingen te maken. En weer een ander kiest daaruit weer een aantal video’s om er een rangschikking van te maken, speciaal voor jou.

Er zijn zeker vier soorten aanbevelingen, die YouTube ook nog eens telkens aanpast. In een reactie op ons onderzoek laat een woordvoerder weten dat de afgelopen jaren het nodige is veranderd. Een paar jaar geleden bleken gebruikers gefrustreerd te raken dat ze steeds clickbait met misleidende titels en beschrijvingen kregen aanbevolen. Het aanbevelingsalgoritme is toen aangepast om niet alleen naar views te kijken, maar ook naar likes, dislikes en andere data.

Recentelijk, zo zegt een woordvoerder, kreeg YouTube klachten dat de aanbevelingen teveel op elkaar leken. Het algoritme zou nu zo zijn ingesteld om meer verschillende onderwerpen te selecteren.

Vorige zomer liet YouTube weten dat ze ‘betrouwbare nieuwsbronnen’ hoger in de aanbevelingen zou zetten, dan onbetrouwbare. Dit na hevige kritiek op de vloed van misleidende complotfilmpjes naar aanleiding van de schoolshooting in Parkland, Florida.

En recentelijk maakte YouTube bekend dat ‘borderline content die gebruikers schadelijk kunnen misleiden’ in de toekomst niet meer in de aanbevelingen zal opduiken. Dit is echter nog een proef, die klein begint en alleen in de Verenigde Staten.

Daarnaast traint YouTube software die automatisch video’s moet herkennen die de voorwaarden van het platform overtreden. Tussen juli en september 2018 haalde YouTube bijvoorbeeld 7,8 miljoen video’s offline en 81 procent van die video’s zijn door software als potentieel problematisch aangemerkt. Driekwart van die door software aangemerkte video’s had nog geen enkele view gegenereerd. YouTube probeert dus content in een zo vroeg mogelijk stadium te verwijderen.

Deze voorbeelden geven aan dat YouTube de algoritmes niet helemaal vrijlaat, dat er wel degelijk menselijke interventies en, belangrijk, menselijke keuzes worden gemaakt in wat wel en niet wordt gepromoot en wordt toegestaan.

De vraag is echter of dit genoeg is, want er blijven zoveel hatelijke video’s en reacties ongemoeid. Daarnaast zegt YouTube dat het niet met de botte bijl op de vrijheid van meningsuiting wil inhakken.

Illustratief hiervoor is de reactie van YouTube op een deel van de verzamelde data die De Correspondent en de Volkskrant voor het onderzoek hebben gebruikt. Tussen deze data, die wij deelden met het Amerikaanse hoofdkantoor van YouTube, zitten comments waarin gesproken wordt over ‘ongedierte uit de derde wereld’, en antisemitische video’s als ‘The Jewish Question Explained in 4 Minutes’ waarin wordt uitgelegd hoe Joden de westerse beschaving hebben ‘ondermijnd’.

YouTube laat in een reactie per mail weten dat de video’s en reacties bij video’s (comments) ‘bij een eerste bestudering’ niet indruisen tegen de richtlijnen van het videoplatform. Daarin staat dat YouTube geen video’s accepteert die aanzetten tot geweld of haat op basis van ras, etniciteit, nationaliteit, religie of geslacht. Echter: wat aanzet tot haat en wat binnen de grenzen van vrijheid van meningsuiting valt, is niet altijd even makkelijk te bepalen, stelt YouTube. ‘De vrijheid van meningsuiting staat aan de basis van YouTube. Om die reden laten we ook content toe van mensen die controversiële of aanstootgevende overtuigingen delen.’

Voor de fijnproevers, hoe werken die algoritmen dan precies?

De filmpjes die je uiteindelijk aanbevolen krijgt, hebben een snoeiharde afvalrace overleefd. Ze zijn door twee filters gekomen. De eerste filter is de zogenoemde Candidate Generation Filter. Een geavanceerde vorm van kunstmatige intelligentie gebruikt onder meer jouw demografische gegevens en je kijkgeschiedenis om te bepalen wat mensen zoals jij bekeken hebben, wat jouw type gebruiker interessant vindt. Daar komt een lijst van enkele honderden video’s uit.

Vervolgens wordt die lijst door een ander Ranking Filter gepompt. Die bepaalt de volgorde, en dat is wederom afhankelijk van een aantal persoonlijke eigenschappen, maar ook van de ‘versheid’ van de items. Video’s die kort voor je bezoek zijn geüpload worden bijvoorbeeld hoger gescoord.

We weten dit omdat in 2016 enkele onderzoekers van Google een paper publiceerden waarin ze het nieuwe aanbevelingssysteem, dat toen werd uitgerold, analyseerden. Dat systeem was zeer complex en maakt gebruik van zogenoemde deep neural networks: een ver ontwikkelde vorm van kunstmatige intelligentie.

De Amerikaanse marketeer Matt Gielen heeft voor een wat minder technisch publiek de belangrijkste punten op een rij gezet. Er zijn volgens hem bij dit algoritme drie factoren van groot belang die bepalen of je een video krijgt aangeboden. De eerste is de zogenoemde ‘watch time’. Dit is niet de tijd die je aan een video besteedt, maar de tijd die je op het platform doorbrengt. Stel je bekijkt voor driekwart een video over ‘ras en IQ’ van Jared Taylor. Daarna klik je op een video van een uur waarin neonazi Richard Spencer in discussie gaat met de rechtse YouTuber Sargon of Akkad en je kijkt die helemaal uit. Vervolgens kijk je nog een korte TED Talk over de edele kunst van het uitstellen. De watch time van Taylor’s video is dan behoorlijk indrukwekkend: je bent zomaar twee uur op het platform gebleven. Hiermee stijgt de kans dat deze video vaker wordt aanbevolen, zowel bij jou als bij anderen.

Een tweede factor is zoekgeschiedenis. Als je veel naar video’s over ras en IQ kijkt, zul je daar ook meer video’s over aanbevolen krijgen.

Een derde factor is de meest vage en geheimzinnige: demografische informatie zoals leeftijd, geslacht, woonplaats en honderden andere variabelen waar YouTube over zwijgt.

Dus, hoe val je in de rabbithole?

Dat heeft voor een groot deel te maken met wat voor platform YouTube eigenlijk is: een mediaplatform waarvoor met name niches heel belangrijk zijn. Daar komt bij dat de aanbevelingsalgoritmen je op veel verschillende manieren die niches laat verkennen en daar in vasthouden.

Gebruik je YouTube alleen om kinderfilmpjes of modeltreinvideo’s te bekijken, dan is de kans niet groot dat je zomaar politiek extreme content te zien zal krijgen. Zoek je daarentegen naar informatie over maatschappelijk gevoelige thema’s, dan zul je er makkelijk op stuiten.

Het is dus niet zo dat je automatisch door YouTube naar extreme content wordt geleid, maar als je de eerste schreden hebt gezet, al is het uit nieuwsgierigheid, kun je er zo verder ingezogen worden.

Datajournalist Dimitri Tokmetzis schrijft over extremisme bij de Correspondent. Hassan Bahara en Annieke Kranenberg onderzoeken radicalisering bij de Volkskrant.

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@volkskrant.nl.