Kunstmatige intelligentie maakt én bestrijdt nepbeelden

Met dank aan moderne technieken wordt het steeds eenvoudiger bedrieglijke echte nepbeelden te fabriceren. Opvallend: dezelfde technieken worden nu ook ingezet om dergelijk materiaal te detecteren. Het menselijk oog kan dat vaak niet meer.
Kon je echt van nep onderscheiden? Kijk nu eens naar de volgende beelden. Op de bank bij de Amerikaanse talkshowhost David Letterman zit komiek Bill Hader. Hij vertelt over een ontmoeting met Tom Cruise en geeft een rake imitatie ten beste:
Maar, wacht, wat gebeurt hier? Terwijl Hader zijn Cruise-stemmetje doet, verandert zijn gezicht langzaam in dat van de acteur. En weer terug. Het is een extreem vervreemdend filmpje, juist omdat de overgangen zo subtiel gaan.
De veelbekeken beelden zijn gepubliceerd op het YouTube-kanaal Ctrl Shift Face, waarop meer zogenoemde deepfake videos staan, niet of nauwelijks van echt te onderscheiden filmpjes. Zoals die waarin Jack Nicholson in de horrorfilm The Shining wordt vervangen door Jim Carrey. Of Rick Astley die langzaam verandert in David Bowie terwijl hij zijn onvermijdelijke hit Never Gonna Give You Up blijft zingen:
In Nederland gebruikte onlangs Arjen Lubach de techniek, in de trailer voor het nieuwe seizoen van zijn tv-programma Zondag met Lubach. Al pratend verandert hij in Thierry Baudet, koning Willem-Alexander, Martien Meiland en Yvon Jaspers:
Dat dit soort filmpjes gemaakt kunnen worden, is te danken aan recente spectaculaire ontwikkelingen in de kunstmatige intelligentie (AI), waarmee zowel de academische wereld als techbedrijven als Google aan de slag zijn gegaan. Wat die doen, is eigenlijk een systeem trainen, met zo veel mogelijk afbeeldingen van een persoon. Het computerprogramma maakt hierna een geabstraheerd model van het gezicht op basis van tientallen gezichtspunten. Vervolgens kan een ander gezicht er digitaal overheen worden geplakt.
Het woord ‘deepfake’ is een samentrekking van ‘fake’ (nep) en het ‘deep’ van deep learning. Dat laatste is een techniek die binnen de AI wordt gebruikt om machines ‘zelfstandig’ te laten ‘leren’ op basis van grote hoeveelheden data.
‘Namaakporno’
Echt bekend werden de deepfakes twee jaar geleden met, hoe kan het anders, porno. ‘Namaakporno mogelijk gemaakt door kunstmatige intelligentie: het bestaat en we zijn er allemaal ingetrapt', kopte website Vice, die beschreef hoe nijvere knutselaars aan de gang waren gegaan met het plakken van hoofden van beroemdheden over hoofden van porno-acteurs. Dat principe was makkelijk toepasbaar geworden door de beschikbaarheid van relatief eenvoudige programmaatjes als FakeApps. Volgens schattingen van het beginnende Amsterdamse techbedrijf Deeptrace Labs is 96 procent van alle deepfakes pornografisch van aard. Het totale aantal deepfake-filmpjes is in een jaar tijd bijna verdubbeld tot vijftienduizend.
Wat nog slechts verhindert dat iedereen toegang heeft tot deze technologie, is het geweten van de makers. Zo maakte de populaire app DeepNude het mogelijk niet gezichten, maar lichamen te veranderen, meer in het bijzonder vrouwen op foto’s ontkleden. Na commotie besloten de makers de app offline te zetten.
Een stuk vriendelijker is de recentere Chinese app Zao. Vanwege zijn gebruiksvriendelijkheid bestormde dit programmaatje begin september ineens de downloadlijsten. Was de Slovaak van de Tom Cruise-imitaties nog aangewezen op zware computers, handigheid en engelengeduld, Zao is voor grote groepen toegankelijk (niet in Nederland overigens) die ermee hun eigen gezicht kunnen plakken over dat van een beroemdheid uit een bekende film die de makers hebben voorgeselecteerd. Zo gebruiksvriendelijk is deepfaken nog niet geweest. Overigens ging de komst van Zao met veel privacy-ophef gepaard, die eerder al de Russische fotobewerkingsapp FaceApp ten deel was gevallen.
‘Politiek wapen’
Afgezien van dat privacy-aspect is Zao onschuldig vermaak. Maar wat gebeurt er als deze toegankelijke technieken voor andere doeleinden worden ingezet? Voor het verspreiden van nepfilmpjes met politici bijvoorbeeld? Die angst bestaat bij beleidsmakers. Zo noemde het Rathenau Instituut in zijn rapport over nepnieuws deepfakes expliciet een gevaar. De vitale functies van de nieuwsvoorziening in de Nederlandse democratie zouden erdoor onder druk kunnen komen te staan.
In de Verenigde Staten is, met de verkiezingen van 2020 in aantocht, de huiver minstens zo groot. Eerder dit jaar was er een hoorzitting over de nieuwe technieken. ‘Ik denk niet dat we er ook maar op enige manier op voorbereid zijn’, zo werd het heersende sentiment verwoord door Adam Schiff, de Democratische voorzitter van de commissie die voor het Huis van Afgevaardigden onderzoek doet naar deepfakes. ‘En ik denk niet dat het publiek doorheeft wat er allemaal aan zit te komen.’ De krant The Washington Post noemde deepfakes een ‘heel bijzonder politiek wapen’ voor de campagnes van 2020. Bij het Congres en verschillende staten liggen wetsvoorstellen klaar die het met AI fabriceren van nepfilmpjes moeten verbieden, alsmede het verspreiden ervan.
Tegelijkertijd zijn er weinig voorbeelden bekend van deepfakes die daadwerkelijk op grote schaal hebben geleid tot verwarring. Hoe kan dat dan?
Detectiesoftware
Theo Gevers, hoogleraar computer vision aan de Universiteit van Amsterdam, weet behalve over het maken van deepfakes ook veel over het detecteren ervan. De apps waarmee je op basis van beeldpunten een gezicht op een ander gezicht kunt plakken - het zogenoemde faceswappen - zijn volgens hem inmiddels zo goed dat het resultaat nauwelijks meer met het blote oog is te herkennen als vals. Hetzelfde geldt voor de AI-programma’s die, met vergelijkbare technieken, zelf gezichten creëren. Gezichten van mensen die niet bestaan. Was tot voor kort nog duidelijk dat het om door computers gegenereerde beelden ging, nu is dat nauwelijks nog het geval. Gevers heeft een onlinequiz gemaakt waarbij bezoekers bij een aantal beelden telkens moeten zeggen of het een echt of een nepbeeld is. De uitkomsten laten, aldus Gevers, zien dat onderscheid maken met het blote oog niet mogelijk meer is.
Het goede nieuws is dat de AI die is gebruikt om dit soort beelden te maken, ook kan worden gebruikt om ze te ontmaskeren. Gevers ontwikkelt met zijn aan de universiteit gelieerde bedrijf 3DUniversum detectiesoftware. Van een tiental veelgebruikte technieken om deepfakes te maken snapt de software van 3DUniversum hoe ze werken. Op basis daarvan kan het programma stellen dat het om nep gaat. Het detectiegereedschap kijkt bijvoorbeeld naar scherpe overgangen bij de neus, onrealistisch haar, inconsistenties bij de kleuren van de ogen of rare achtergronden. Zaken die de computer eruit vist, maar die voor het ongeoefende oog nauwelijks waarneembaar zijn, zoals je hieronder kunt zien:
Kat-en-muisspel
Probleem opgelost? Nee, zegt Gevers. ‘Het is een constant kat-en-muisspel. Het detecteren werkt prima zolang de beelden zijn gemaakt met technieken die we nu kennen, maar zodra er een nieuwe technologie beschikbaar komt, is het een ander verhaal. Het detecteren ligt altijd iets achter.’
Sowieso wordt het probleem van nepfilmpjes de komende jaren groot, denkt Gevers. ‘Wat we nu zien is pas het begin. Dit soort filmpjes zullen de hele wereld over gaan en zonder AI is geen mens in staat te zien of het echt is.’
Het faceswappen is nu al nagenoeg perfect; een stap verder gaan de pogingen om beroemdheden als het ware aan te sturen met je eigen gezicht. Gevers laat het op zijn werkkamer op het Amsterdamse Science Park zien. Een camera staat op mij gericht. Op het linkergedeelte van een computerscherm zie ik mezelf. Rechts staat Trump. Iedere mondhoek die ik beweeg, iedere wenkbrauw die ik optrek, zie ik - live -precies terug bij Trump. Ik bestuur als het ware zijn gezicht. In combinatie met de juiste stem - voortgebracht door een stemacteur of software die stemmen kan nabootsen - is dit een potentieel gevaarlijke cocktail. Zo kunnen immers video’s worden gemaakt van beroemdheden die iets zeggen wat ze nooit hebben gezegd.
En dat gebeurt al. Neem het filmpje waarin Kim Kardashian zegt dat ze niets geeft om de mensen die haar haten, omdat ze toch rijk wordt van hun data en ze het heerlijk vindt mensen te manipuleren. Nu nog zijn dit soort video’s relatief eenvoudig herkenbaar. Maar dat zal niet lang meer duren, zegt Gevers. ‘Ik schat dat over pakweg een jaar ook dit soort video’s zo goed zijn dat je ook daar AI voor nodig hebt om te zien of het nep is of niet.’
YouTube en Facebook
Gevers vergelijkt zijn detectiegereedschap met antivirussoftware: net zo onmisbaar. Gevers: ‘Een platform als YouTube kan onmogelijk mensen inzetten om al het materiaal te beoordelen. Omdat ze dat niet kunnen, maar ook omdat het te veel is.’
Hetzelfde geldt voor Facebook, dat de laatste jaren is bekritiseerd vanwege zijn omgang met nepnieuws. Nepvideo zal het volgende hoofdstuk zijn. Het platform kwam recent in het nieuws omdat het weigerde een gemanipuleerde video van Nancy Pelosi te verwijderen, de Democratische voorzitter van het Huis van Afgevaardigden. In het bewuste filmpje was de stem van haar iets vertraagd. Gevolg: kijkers dachten dat ze dronken was. Facebook liet het staan. Als reactie werd een nepvideo van Facebook-baas Zuckerberg gefabriceerd.
Deepfake Detection Challenge
Inmiddels is Facebook overstag en pakt het bedrijf het deepfake-probleem aan. Samen met Microsoft en een aantal universiteiten begint Facebook een Deepfake Detection Challenge. Doel is technologie te ontwikkelen om deepfakes te detecteren, om zo te voorkomen dat burgers ten prooi vallen aan desinformatie.
Mark Deuze, hoogleraar mediastudies aan de Universiteit van Amsterdam, vindt het een goede ontwikkeling dat techbedrijven en politici het probleem serieus nemen en dat er bij het publiek meer bewustzijn komt. Maar: ‘We moeten waken voor paniek.’ Deuze ziet deepfakes vooral als symptoom van de angst voor een niet meer gedeelde werkelijkheid. ‘Vandaar dat het zo tot de verbeelding spreekt. Maar media hebben lang niet zo veel effect als sommige mensen denken. Tot in de jaren vijftig bestond het idee dat de consument volstrekt weerloos is tegen de verbeeldingskracht van de media. Dat is niet zo, werd later bewezen. Het gekke is dat nu, onder invloed van dingen als desinformatie en deepfakes, die oude theorie weer opgeld doet.’ Deuze heeft geruststellende woorden: ‘We lopen niet als zombies achter media aan.’
Meer over deepfakes
In akelig overtuigende nepvideo’s zeggen en doen beroemdheden en politici dingen waar je nogal van opkijkt. En er zijn al apps waarmee iedereen makkelijk zo’n video zou kunnen maken. Hoe werkt dat? We namen zelf de proef op de som.