Sociale media Filterbubbel

Die filterbubbel waar u in zou zitten, bevat nog volop gaten

Beeld Aisha Zeijpveld / Bubblusion

De algoritmen van sociale media zouden gebruikers gevangen houden in de bubbel van hun eigen gelijk, met polarisatie tot gevolg. Dat lijkt volgens recent onderzoek nogal overdreven.

Internetgebruikers opgepast, u kunt zomaar in een filterbubbel belanden. Algoritmen die menen te weten wat u interesseert, creëren een comfortabele luchtbel waar alleen behaaglijke inhoud binnensijpelt. Zonder dat u er erg in heeft, komt u vooral meningen en nieuws tegen die uw wereldbeeld bevestigen, terwijl andere perspectieven zijn weggefilterd.

Gevaar voor democratie

De term filterbubbel werd gemunt door internetactivist Eli Pariser, in zijn wereldberoemde boek uit 2011. Het door hem geschetste beeld duikt nog altijd op in verhalen over de groeiende macht van sociale media. Zeker nu personalisatie alledaagser is geworden: nieuwsdienst Blendle raadt gebruikers onder meer artikelen aan op basis van hun interesses, Het Financieele Dagblad werkt aan gepersonaliseerde nieuwsbrieven.

Zulke ontwikkelingen zouden een gevaar vormen voor onze persoonlijke ontwikkeling en zouden leiden tot meer polarisatie in de samenleving. De High Level Group on Media Freedom and Pluralism van de Europese Commissie noemde ‘geautomatiseerde filtermechanismen’ enige jaren geleden zelfs een potentieel gevaar voor de democratie. Het is het beeld van de internetgebruiker als weerloze speelbal van algoritmen, overgeleverd aan wat die sociale media hem voorschotelen. 

Maar is het ook waar? Drijven de algoritmen van Google, Facebook, Twitter en consorten ons als makke schapen steeds nauwere bubbels in, waardoor we alleen nog maar ons eigen gelijk bevestigd zien? De afgelopen jaren besloten onderzoekers wereldwijd dat uit te zoeken.

‘Echokamer’

Ze zagen allereerst dat mensen inderdaad de neiging hebben om zichzelf online te omringen met gelijkgestemden. Zoals we ook in het offline leven de neiging hebben om mensen met een soortgelijke achtergrond of levensvisie om ons heen te verzamelen, zeggen communicatiewetenschapper Judith Möller (Universiteit van Amsterdam) en politicoloog Rebekah Tromble (Universiteit Leiden), die beiden onderzoek doen naar filterbubbels. Zij noemen zulke sociale kringen waarin gelijkgestemden oververtegenwoordigd zijn ‘echokamers’. 

Zo beschrijven onderzoekers uit Finland en Qatar na een analyse van tientallen miljoenen tweets hoe twitteraars met een sterke politieke voorkeur vooral berichten uit het eigen politieke kamp tegenkomen. De uiteinden van de politieke spectra tweeten goeddeels langs elkaar heen. 

Maar echokamer is geen synoniem voor filterbubbel, benadrukken de twee onderzoekers. Online-echokamers ontstaan doordat we vrienden toevoegen uit onze offline-omgeving, het liefst klikken op berichten die ons wereldbeeld bevestigen en negeren wat daar niet bij past. Menselijk gedrag, dus. 

De filterbubbel, daarentegen, is het resultaat van algoritmen, die het effect van de bestaande echokamers nog eens extra versterken door afwijkende meningen niet eens meer op onze beeldschermen toe te laten. Zoals Möller samenvat: ‘De echokamer is niet meer dan een hippe manier om over verzuiling te praten. De filterbubbel zorgt ervoor dat, zonder dat je er controle over hebt, de muren van de echokamers op je afkomen.’

Flinterdun bewijs

Na het invloedrijke boek van Pariser kwam veel onderzoek op gang naar filterbubbels, vervolgt ze. Zelf schreef ze mee aan een overzichtsstudie, die dit onderzoek bundelt om te zien of algoritmen daadwerkelijk zoveel impact hebben op ons wereldbeeld en polarisatie in de hand werken. De conclusie: bewijs daarvoor is flinterdun.

Beeld Aisha Zeijpveld / Bubblusion

Een van de redenen is dat mensen niet alleen maar op Facebook of Twitter zitten, aldus Sanne Kruikemeier, die aan de Universiteit van Amsterdam politieke communicatie en journalistiek onderzoekt. ‘We gebruiken over het algemeen veel nieuwsbronnen naast en door elkaar. Twitter naast het Journaal, Facebook naast een krant.’

Dat geldt zeker in Nederland, waar media en politiek minder gepolariseerd zijn dan in bijvoorbeeld de Verenigde Staten, benadrukt Kruikemeier. ‘Zelfs bij de mensen die bijna al hun nieuws uit sociale media halen, zit er nog een gaatje in de bubbel’, vult Möller aan. We zitten wat haar betreft op zijn best in verschillende sub-bubbels, maar niet in één grote luchtbel van het eigen gelijk.

Positief effect

Onderzoekers uit Oxford, Engeland en Ottawa, Canada trekken dezelfde conclusie in hun studie ‘De echokamer is overschat’ uit 2018. Als gebruikers op een sociaal medium eenzijdige informatie over politiek krijgen aangeboden, zegt dat niets over de informatie die ze op andere plekken tot zich nemen, zoals elders op internet of op televisie, schrijven zij. Slechts een klein deel van de mensen zal volgens hen in een filterbubbel leven.

Sterker nog, sociale media kunnen zelfs een positief effect hebben op de diversiteit van onze informatievoorziening, volgens voornoemde experts. Je kunt er juist in aanraking komen met mensen en meningen die in het dagelijks leven buiten beeld blijven, blijkt onder meer uit vragenlijsten van de Universiteit van Oxford onder gebruikers en niet-gebruikers van sociale media. Waar het in het offlineleven lastig kan zijn om radicaal andersdenkenden tegen te komen onder collega’s of vrienden, langs het sportveld of bij de buurtborrel, daar zijn ze vooral op Twitter maar een paar muisklikken van je verwijderd.

Vergelijk dat met de tijden van de verzuiling in Nederland. Toen was de samenleving pas echt opgedeeld in afgesloten gemeenschappen met verschillende geloofsovertuigingen en sociale posities, met eigen kranten, omroepen en sportclubs, zegt historicus Harm Kaal van de Radboud Universiteit. ‘De Volkskrant, voor de katholieke arbeider, had in de jaren veertig en vijftig een politiek hoofdredacteur, Carl Romme. Die kreeg alles onder ogen wat te maken had met politiek en staatskunde. Ging een stuk in tegen het belang van de Katholieke Volkspartij, dan werd het niet geplaatst.’ Niet alleen hebben journalisten zich sinds die tijd een andere rol aangemeten, dankzij het internet is diverse informatie toegankelijker dan ooit, zegt hij.

Besloten pagina's

Is de filterbubbel hiermee naar het rijk der fabelen verwezen? Niet helemaal. Allereerst is nauwelijks bekend hoe het in de begindagen van sociale media met filterbubbels gesteld was, in de tijd dat Pariser met zijn boek kwam. ‘Het zou kunnen dat het effect toen wel sterk was, maar dat de platformen hun algoritmen hebben aangepast, of gebruikers er beter mee omgaan’, zegt Rebekah Tromble. ‘We hebben simpelweg haast geen data uit die tijd.’

Hiernaast mag het bubbeleffect op de schaal van hele bevolkingen weinig voorstellen, in individuele gevallen kunnen algoritmen allicht een filterbubbel creëren. ‘De een zal in aanraking komen met andere meningen en hierdoor een diverser wereldbeeld krijgen, de ander zal juist feller worden in zijn oude standpunten’, aldus Tromble.

Ook is er nog genoeg dat niet bekend is over de werking van algoritmen op sociale media. Zo is een van de manco’s van onderzoek naar platformen als Facebook en Instagram dat wetenschappers geen beschikking hebben over de originele data, omdat deze platformen grotendeels werken met besloten pagina’s. Slechts een beperkt aantal pagina’s is openbaar, de meesten zijn alleen zichtbaar voor vrienden, zodat grootschalig wetenschappelijk onderzoek naar het gedrag van gebruikers moeilijk is. Bij Twitter is dat anders, omdat veel Twitterprofielen openbaar zijn, maar daarop zit maar een beperkt deel van de bevolking. 

Niet weerloos

Dan is er nog het bijzondere geval van YouTube. Het videoplatform heeft volgens Rebekah Tromble wél een duidelijk sturende werking op specifieke groepen gebruikers. ‘Het gaat dan niet om klassieke filterbubbels, waarbij gebruikers alleen hun eigen mening bevestigd zien, maar juist om algoritmen die de neiging hebben mensen steeds extremere inhoud voor te schotelen.’

Niet dat die algoritmen een politieke agenda hebben. Ze zijn simpelweg ingesteld om gebruikers vast te houden en te laten terugkeren. Op sommige onderwerpen blijken extremere filmpjes nou eenmaal goed te scoren. 

Als ze hun gang kunnen gaan, krijgen geïnteresseerden in een onderwerp als migratie al snel YouTube-filmpjes aangeraden met scherpe politieke meningen. Wie deze bekijkt, ziet kanalen met nog verdergaande standpunten verschijnen. Uiteindelijk kunnen gebruikers zo in de hoek van complotdenkers belanden. 

Dat het nu wel meevalt met de filterbubbel, garandeert bovendien niet dat dit zo blijft, benadrukt Sanne Kruikemeier. Platformen kunnen hun algoritmen wijzigen, het mediagebruik verandert. ‘We zien nu bijvoorbeeld dat jongeren zwaarder leunen op internet en sociale media als bron voor nieuws’, zegt ze.

Het kritisch volgen van ontwikkelingen op het gebied van personalisatie-algoritmen en investeren in mediawijsheid blijft volgens haar van belang. Maar, concludeert ze, ‘we moeten oppassen met het idee dat algoritmen burgers tot passieve, weerloze slachtoffers maken. Dat is niet zo. De burger is niet weerloos tegen filterbubbels.’

Google

Opgericht in 1998

Aantal gebruikers per maand: meer dan 1 miljard

Filterbubbelindex: laag

Het beeld dat ook Google de consument gevangen houdt in filterbubbels, komt onder meer terug in het boek The Filter Bubble van internetactivist Ali Pariser. Daarin laat hij een voorbeeld zien van twee totaal verschillende zoekresultaten na dezelfde zoekopdracht. Volgens Google was dit toen, in 2011, al een incident. Zeker is in elk geval dat de zoekmachine nu beperkt personaliseert. Google past resultaten slechts aan op locatie (wie op ‘Albert Heijn’ zoekt, krijgt AH’s in de buurt te zien) en een beetje op context (wie eerst op ‘Formule 1’ zocht en daarna op ‘Verstappen’, zoekt vermoedelijk de coureur). Verschillende personen die op bijvoorbeeld ‘vaccineren’ of ‘immigratie’ zoeken, zien nauwelijks verschillende resultaten.

YouTube

Opgericht in 2005, nu eigendom van Google

Aantal gebruikers per maand: 1,9 miljard

Filterbubbelindex: hoog

Anders dan de Google Search is YouTube in extreme mate gepersonaliseerd. Gebruikers kunnen weliswaar actief zoeken op onderwerp, maar bijna alles dat verder wordt aangeraden gebeurt op basis van eerder zoek- en kijkgedrag. Een gevolg is dat YouTube sommigen in de richting van extremen duwt op onderwerpen als migratie, klimaatverandering en vaccineren. Het videoplatform voerde de laatste tijd naar eigen zeggen veranderingen door om dit effect te dempen. Het duwt mensen overigens niet bewust richting extremen: extremere video’s blijken kliks te genereren, dat beloont het algoritme. YouTube zegt nu meer nadruk op andere zaken te leggen, bijvoorbeeld de waardering van kijkers.

Twitter

Opgericht in 2006

Aantal maandelijkse gebruikers: 320 miljoen

Filterbubbelindex: gemiddeld

Begonnen als chronologische tijdlijn waarin alleen berichten verschenen van mensen die je volgt, is Twitter in navolging van onder andere Facebook overgestapt op door algoritmen gestuurde aanbevelingen. Niet langer staan de nieuwste tweets bovenaan, maar de berichten die Twitter als relevantst bestempeld. Dit gebeurt onder meer op basis van personen die je volgt, wie zij op hun beurt volgen en hoeveel andere gebruikers een tweet delen of leuk vinden. In die zin kunnen Twitters algoritmen bestaande voorkeuren versterken. Tegelijkertijd zorgt de openheid van het platform – je kunt mensen volgen zonder wederzijdse toestemming en komt daardoor snel onbekenden tegen – ervoor dat mensen meer diverse informatie en meningen tegenkomen. Sinds kort biedt Twitter overigens weer de mogelijkheid om de lijst ouderwets chronologisch te zien.

Facebook

Opgericht in 2004

Aantal maandelijkse gebruikers: 2,3 miljard

Filterbubbelindex: gemiddeld

De eerste filtering op Facebook wordt door gebruikers toegepast: de Facebookvrienden die ze toevoegen, de mensen of merken die ze volgen. Vervolgens laat Facebook zijn algoritmen los om te bepalen welke inhoud ze te zien krijgen. Daarbij krijgen berichten voorrang die veel vind-ik-leuks hebben en die aansluiten bij de interesses van de gebruikers, gebaseerd op eerder klik- en kijkgedrag. ‘Engagement’ is het toverwoord; mensen zo lang mogelijk vasthouden en zo veel mogelijk laten doen. Ook Facebook past zijn algoritmen voortdurend aan.

Instagram

Opgericht in 2010, eigendom van Facebook

Aantal maandelijkse gebruikers: meer dan 1 miljard

Filterbubbelindex: gemiddeld

Gebruikers krijgen alleen de foto’s en video’s te zien van de mensen, media of merken die ze volgen. Net als bij moederbedrijf Facebook zet Instagram vervolgens zijn algoritmen aan het werk om die berichten te laten zien die het best passen bij de interesses van de gebruiker en die het al goed doen bij anderen.

Snapchat

Opgericht in 2011

Aantal maandelijkse gebruikers: 300 miljoen

Filterbubbelindex: gemiddeld

Snapchat heeft verschillende plekken om berichten te laten zien. Allereerst van de directe vrienden. Verder zijn er de ‘abonnementen’ van gebruikers, bijvoorbeeld van nieuwsmerken. Hier zet Snapchat nieuwe bijdragen bovenaan. Tot slot is er nog een sectie ‘Voor jou’, die helemaal algoritme-gestuurd is. Wat gebruikers al interessant vinden, wordt hier extra onder de aandacht gebracht, los van het eigen vriendennetwerk.

TikTok

Opgericht in 2016

Aantal maandelijkse gebruikers: 500 miljoen

Filterbubbelindex: hoog

New kid on the block TikTok draait om het delen van korte, zelfgemaakte muziekfilmpjes van 3 seconden tot maximaal een minuut. Waar veel sociale media een sociaal netwerk als uitgangspunt nemen – vrienden, volgers – ligt bij de app de focus sterker dan ooit op klikgedrag. Je kunt nog wel mensen volgen, maar op het hoofdscherm spelen zij geen rol. Wat je daar ziet, is bepaald door algoritmen, op basis van eerder kijkgedrag. Een behoorlijk strakke filterbubbel dus. Nu zullen playback- en dansfilmpjes polarisatie niet snel in de hand werken. Als sociale media waar nieuws en meningen wel een rol spelen het TikTok-model zouden overnemen, is het ontstaan van sterkere filterbubbels goed denkbaar.

Lees verder

Op YouTube krijgen gebruikers steevast filmpjes gesuggereerd die net iets extremer zijn dan ze zelf bekeken. Het leidt ertoe dat ze steeds rechtser en steeds radicaler worden, ontdekten de Volkskrant en de Correspondent.

Lees hier wat Rebekah Tromble eerder zei over nepnieuws: ‘Ik ben bezorgder over de impact van de discussie óver desinformatie op het publieke discours dan over desinformatie zelf.’

En hier is ons interview met de vraagbaas van Google te lezen. ‘Ik ben voorlopig niet bang voor het einde van het zoektijdperk.’

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@volkskrant.nl.