NieuwsDeepfake-imitatie

Europese parlementsleden slachtoffer van nepvergaderingen met Russische oppositie

Politici uit Groot-Brittannië en de Baltische Staten hebben via Zoom zonder dat ze het wisten gesprekken gevoerd met een deepfake-imitatie van de stafchef van oppositieleider Aleksej Navalny.

De echte Volkov (links) en de deepfakeversie (rechts). Beeld Facebook
De echte Volkov (links) en de deepfakeversie (rechts).Beeld Facebook

Als Rihards Kols, voorzitter van de buitenlandcommissie van het Letse parlement, in maart een e-mail krijgt van Leonid Volkov (stafchef van oppositieleider Navalny) gaan er geen alarmbellen bij hem rinkelen. Daar is ook geen enkele reden toe. Volkov wil met hem overleggen. ‘Dit soort verzoeken is normaal’, stelt Kols. Niet veel later houden ze inderdaad een kort videogesprek. Het gaat onder meer over de annexatie van de Krim en over Russische politieke gevangenen. Volkov bedankt Letland onder andere voor zijn steun en zijn sterke positie ten aanzien van de Europese sancties.

Als Kols zijn laptop dichtklapt, heeft hij nog altijd niet het idee dat er iets vreemds is gebeurd. ‘Het gesprek was nogal vaag en kort’, herinnert hij zich later, ‘maar dat was waarschijnlijk het enige wat er ongebruikelijk aan was.’ Pas weken later beseft de politicus dat hij het slachtoffer is geworden van bedrog. Dat besef komt als hij van Oekraïense collega’s hoort van een video-ontmoeting met een nep-Volkov. Anders dan bij Kols was zijn gedrag in dit gesprek zeer vreemd en ‘openlijk provocerend’.

Kols lijkt te hebben gevideochat met een zogenoemde deepfake, een door kunstmatige intelligentie gecreëerd bewegend beeld dat als het ware op het hoofd van iemand anders wordt geplakt. In dit geval dus het hoofd van Volkov op dat van de man met wie Kols in werkelijkheid in gesprek was. Ook politici uit Estland, Litouwen en het Verenigd Koninkrijk zijn op deze manier benaderd.

Critici waarschuwen al jarenlang voor de opkomst van dergelijke technieken die het vertrouwen in de politiek ernstig kunnen ondermijnen. Van post-truth naar post-reality: we twijfelden al langer aan het waarheidsgehalte van uitspraken, nu weten we zelfs niet meer of een uitspraak op video wel echt is gedaan. Want met deepfake-technieken is het mogelijk iedere beroemdheid alles te laten zeggen in een video. Voorbeelden zijn er genoeg, en die zijn steeds overtuigender. Tegelijk komen er allerlei laagdrempelige appjes op de markt (Wombo bijvoorbeeld) waarmee iedereen zelf aan de slag kan.

Nieuwe stap

Wat er nu met de nep-Vokov is gebeurd, is een zorgwekkende nieuwe stap, zegt tech-trendwatcher Jarno Duursma, die zelf veel experimenteert met deepfakes. Duursma heeft de video niet gezien, maar zegt op basis van het screenshot en de claim van Volkov dat er sprake van een deepfake is: ‘We wisten allemaal dat dit ooit zou gebeuren, en nu lijken we er al middenin te zitten. Dit is zeer overtuigend gedaan.’ Verschil met de Wombo-achtige appjes voor thuisgebruik is dat die puur voor de lol zijn: ‘Iedereen ziet gelijk dat er iets niet klopt. Dat maakt ze ook leuk.’

En anders dan met de voorbeelden uit het verleden met bijvoorbeeld Obama of Trump is de nep-Volkov niet vooraf gemaakt. Hij trad op tijdens een live-videogesprek, realtime. Juist dat maakt het in potentie zo gevaarlijk, waarschuwt Duursma: ‘We zitten in een wereld van videovergaderen. Ook de politiek. Je kan er niet meer van uitgaan dat degene die in een vergadering zit ook degene is voor wie hij zich uitgeeft.’ Het is werk van experts, stelt Duursma na het zien van de foto: ‘Hier moet lang aan gewerkt zijn. Misschien wel door statelijke actoren.’

Daar hint ook de Britse politicus Tom Tugendhat op: ‘Poetins Kremlin is zo bang voor Navalny dat ze nu nep-meetings organiseren om het Navalny-team in diskrediet te brengen.’ Kols op zijn beurt noemt het ‘een pijnlijke les. Onaangenaam, ongemakkelijk.’ Maar, schrijft hij ook: ‘Misschien moeten we deze nep-Volkov bedanken voor deze les.’ Volkov (de echte) tot slot laat op Facebook weten dat zijn imitator er echt uitziet als zijn echte gezicht: ‘welkom in het deepfaketijdperk’.

UPDATE 30 APRIL: geëxpliciteerd dat Duursma zijn uitspraken niet deed op basis van een video, maar op basis van de screenshots die daarvan gedeeld zijn en de uitspraken van Volkov

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2021 DPG Media B.V. - alle rechten voorbehouden