Kunstmatige intelligentie Nepnieuws

Een onzindetector voor het web - dat is nog niet zo makkelijk

Met al dat nepnieuws op internet is handmatig controleren geen doen meer. Dus werken wetenschappers en bedrijven aan systemen die valse berichten automatisch opsporen.

Een Amerikaanse orgaanhandelaar die meer dan tweehonderd penissen op sterk water in huis heeft. Paus Franciscus die schuldig is bevonden aan kinderhandel, verkrachting en moord. Het zijn voorbeelden van nepnieuws, de afgelopen tijd te lezen in serieus ogende nieuwsartikelen die gretig werden verspreid op sociale media.

Factcheckers proberen zulke berichten te ontmaskeren op websites als Snopes.com, terwijl een Facebookteam ongewenste inhoud van de tijdlijnen probeert te weren. Maar de schier oneindige lijst aan nieuwe internetpagina’s en berichten handmatig controleren is geen doen. Wat nou als een intelligent computerprogramma het nepnieuws volautomatisch van het internet plukt?

Dat is nog niet eenvoudig. Tekenend is Facebook, dat kunstmatige intelligentie (AI) al inzet om zijn menselijke controleurs op het spoor van ongewenste berichten te brengen. Uitgerekend bij nepnieuws zijn de algoritmes nog ineffectief, zei Yann LeCun, toponderzoeker bij het bedrijf, dit jaar tijdens een conferentie van Bloomberg in Parijs.

Dat Facebook hier moeite mee heeft, is niet verwonderlijk, vindt Victoria Rubin, informatiewetenschapper aan de University of Western Ontario. Een van de kenmerken van nepnieuws is juist dat het is vermomd als echt nieuws. Dat betekent niet dat het onmogelijk is. Computerprogramma’s kunnen op zoek naar subtiele verschillen, meestal in taalgebruik, legt ze uit. Houd zo’n intelligent programma een bak nieuwsartikelen voor, zowel juiste als onjuiste, en het ontdekt patronen in zaken als interpunctie, woordgebruik en zinslengte. Zo bevatten nepnieuwsstukken gemiddeld minder vaak de voornaamwoorden ‘ik’ en ‘mij’, en meer uitdrukkingen van negatieve emoties.

Onderzoekers van de Universiteit van Amsterdam en de University of Michigan bouwden op deze manier AI-systemen met twee verschillende datasets. De eerste verkregen ze door vrijwilligers correcte artikelen handmatig te laten aanpassen zodat ze onjuistheden bevatten. De tweede bevatte bestaande internetartikelen over beroemdheden. In driekwart van de gevallen waren de systemen correct in hun oordeel over de juistheid van nieuws. Een duidelijk signaal dat taalgebruik bruikbaar is om echt nieuws en nepnieuws te onderscheiden, aldus Bennett Kleinberg, een van de betrokken onderzoekers.

Maar de prestaties kelderden toen de systemen artikelen voorgelegd kregen met een andere context dan de stukken waarmee ze waren getraind, zoals sport- in plaats van zakennieuws. Ook bleek de nauwkeurigheid nogal af te hangen van het onderwerp van de stukken. Het suggereert dat de taalpatronen die vals en echt onderscheiden kunnen verschillen per artikelvorm en onderwerp.

Dit raakt aan een fundamenteler probleem van het inzetten van kunstmatige intelligentie: die is zo goed als de data die je het systeem voert. Voor een fatsoenlijk getraind programma zijn duizenden artikelen nodig, liever zelfs meer, aldus Kleinberg. Die moet iemand verzamelen, een kwalitatief hoogwaardige database met zoveel artikelen bestaat nog niet. Mensenwerk dus, en daarbij ligt het gevaar van fouten, maar vooral al dan niet bewuste vooringenomenheid (bias) op de loer.

Wat is nepnieuws precies?

Het ene nepnieuws is het andere niet. Van satirisch nieuws, zoals De Speld, tot journalistieke fouten en berichtgeving die niet strookt met de eigen opvattingen: je komt het allemaal tegen onder de noemer nepnieuws. Dit artikel doelt met nepnieuws op de woordenboekdefinitie: teksten die doelbewust onjuiste informatie verspreiden, vaak in de vorm van serieus nieuws. Soms zijn ze bedoeld om clicks op te leveren, en daarmee advertentie-inkomsten. Andere keren is het doel beïnvloeding van de publieke opinie. Rebekah Tromble van de Universiteit Leiden mijdt de term het liefst helemaal. Zij spreekt liever van desinformatie. ‘Er is onderzoek waaruit blijkt dat wanneer prominente partijen als ambtenaren, academici en journalisten de term nepnieuws gebruiken, mensen cynischer worden over zowel de media als de politiek en sneller geneigd zijn overal nepnieuws te zien.’

Stel dat het programma vooral nepnieuws uit de ‘alt-right’-hoek krijgt voorgeschoteld, dan vergroot dit de kans dat bijvoorbeeld kritische stukken over migratie sneller het stempel ‘nep’ krijgen dan stukken over andere onderwerpen. En dan krijgen ze dat stempel dus ook eerder onterecht. Met zulke ongelijkheden moet je oppassen, vindt Alexander Pleijter, universitair docent online journalistiek aan de Universiteit Leiden. Als Facebook of Twitter artikelen van een website weert, heeft die minder bereik en minder inkomsten. ‘De impact voor zo’n site is groot. Dit moet dus zorgvuldig gebeuren.’

Daar komt bij dat zo’n programma geen flauw idee heeft wat het leest. Kleinberg: ‘Als ik vertel: eerst ga ik lunchen, daarna rijd ik met mijn auto naar de maan, klinkt dat voor ons niet erg aannemelijk. Huidige computers denken: goede zinsbouw, klopt helemaal, fantastisch verhaal.’

Er worden wel stapjes gezet in het bouwen van systemen met begrip van de inhoud, vervolgt hij. Deze analyseren de onderlinge relatie tussen woorden en kunnen zo begrijpen welke beweringen er worden gedaan. Eenvoudig voorbeeld: ‘Londen ligt in Nederland.’ Die bewering kan AI toetsen, bijvoorbeeld op Wikipedia.

Zulke programma’s zijn bij het opsporen van nepnieuws nog veel onnauwkeuriger dan de programma’s die taalgebruik scannen, benadrukt Kleinberg. Je kunt dezelfde informatie op heel veel manieren uitdrukken, dat maakt het extreem ingewikkeld. En je moet er in dit geval van uitgaan dat alles wat op Wikipedia staat klopt, wat niet het geval is. Bovendien is veel nieuws sowieso niet te controleren met informatie die al op internet staat. ‘Als je een gek verhaal over mij schrijft, is dat niet met Wikipedia te verifiëren.’

Verwacht van kunstmatige intelligentie dus geen autonoom opererende leugendetector. Rebekah Tromble, die aan de Universiteit Leiden werkt aan automatische nepnieuwsopsporing, hoopt eerder op een assistent die mensen waarschuwt wanneer een website waarschijnlijk verkeerde informatie bevat. Die zou zelfs hun kritische blik kunnen aanscherpen. Ze zouden misschien niet te zien krijgen dat iets absoluut desinformatie is, maar leren beter begrijpen bij welke signalen ze sceptischer over het nieuws moeten zijn, denkt ze. Wat dat betreft zijn de woorden van schrijver Ernest Hemingway uit 1965 nog zo actueel als maar kan: ‘Iedereen zou een ingebouwde, automatische onzindetector moeten hebben.’

Dit is de ­waarheid over ­nepnieuws

Is wat u leest in de krant en op internet wel echt? De Leidse onderzoekers Alexander Pleijter en Peter Burger delen hun expertise – onder meer Facebook, de Amerikaanse ambassade en de Nationaal Coördinator Terrorismebestrijding weten ze te vinden.

Is een robot als rechter daadwerkelijk objectiever?

De robotrechter staat voor de deur. Een ideaal hulpmiddel voor overbezette rechters, zegt de een. Nee, zegt de ander. De menselijke maat verdwijnt op deze manier uit de rechtszaal.

De vraagbaas van Google: ‘Ik ben voorlopig niet bang voor het einde van het zoektijdperk’

Zullen we altijd blijven zoeken via Google? ‘Het is ons doel om betrouwbare informatie toegankelijk te maken. Bronnen die niet betrouwbaar zijn, moeten geen prominente plek krijgen.’

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@volkskrant.nl.