Het is tot nu toe nog niet mogelijk gebleken om een goedwerkend algoritme te maken dat deepfakevideo’s die op internet verschijnen feilloos herkent en ervan af kan gooien. Dat is zorgelijk, volgens consultants van Accenture tijdens de gratis informatiedag High Tech Next in Eindhoven afgelopen maand. Het probleem is dat de AI waarmee de nepvideo’s gemaakt wordt makkelijk is toe te passen, en dus ook voor criminelen binnen handbereik is. Er zijn allerlei apps via internet te downloaden waarmee een leek zelf deepfakes kan maken.
Een manier om deepfake video’s zelf te herkennen is goed naar de emotionele gezichtsuitdrukking kijken. „Vaak klopt die niet bij de inhoud van de woorden die de gefakete personages uitspreken”, zei Sven Koolen, data analyst bij Accenture.
Steeds meer deepfake video’s
Sinds de afgelopen twee jaar neemt het aantal deepfake video’s enorm toe. Mensen lijden daardoor schade, zei Buket Demirel, de andere consultant van Accenture die de workshop Deepfake begeleidde. Ze noemde het voorbeeld van de Indiase journaliste Rana Ayyub wier gezicht vorig jaar gebruikt is voor een pornovideo waarna zij haar baan verloor. Terwijl de videobeelden dus allemaal nep waren.
Ander voorbeeld stond in september in de Amerikaanse zakenkrant Wall Street Journal. Die berichtte dat een Britse directeur van een niet met naam genoemd energiebedrijf zich twee ton afhandig had laten maken na een telefoontje dat gepleegd was met gebruik van een deepfake stem die precies klonk als die van de Duitse directeur van het moederconcern.
Crimineel troggelde 220.000 euro af
Hij dacht dus dat hij die aan de lijn had en dat die hem opgedragen had 220.000 euro naar een bankrekening in Hongarije over te maken. Wat hij terstond gedaan had. Maar het was dus een crimineel, dus het geld was het bedrijf daarna kwijt.
Deepfakevideo’s worden gemaakt met behulp van AI die de structuur van beelden van – meestal – een persoon analyseert en daarvan een code maakt. Ook maakt de AI een programma om de code te decoderen waardoor de met deze code gemaakte beelden gemengd kunnen worden met de beelden van een ander personage die allerlei dingen doet of zegt die de werkelijke persoon nooit zou doen.
Google en Facebook hebben nog geen remedie
Het is soms moeilijk om te zien of de video echt of nep is omdat de AI zijn werk zo doeltreffend gedaan heeft. Zo verscheen er enkele weken geleden een video van voormalig Amerikaans president Richard Nixon op You Tube waarin hij zegt dat de eerste landing op de maan in 1969 mislukt is. Mensen die deze historische gebeurtenis niet meemaakten – dat zijn er nu natuurlijk heel veel – en Nixon niet kennen, zouden kunnen denken dat het een echte video is. „Het lijkt daardoor alsof je de geschiedenis kunt herschrijven”, aldus Demirel.
Volgens Koolen proberen de grote techbedrijven zoals Facebook en Google naarstig om algoritmes te ontwikkelen die wel in staat zijn om deepfakes te herkennen en ze er af te gooien zodra ze ontmaskerd zijn. Maar tot nu toe is dat niet gelukt.
AI steeds geavanceerder
Probleem is niet alleen dat de deepfaketechnologie steeds geavanceerder wordt. Sommige deepfakes zijn bedoeld als parodie en voor de kijker ook makkelijk als zodanig te herkennen. Die hoeven er dus niet af. Zo verscheen er voor de Britse verkiezingen die plaatsvinden op 12 december een video van Boris Johnson waarin hij zijn rivaal Jeremy Corbyn aanprijst. Elke kijker snapt dat Johnson dat in het echt nooit zou doen. Maar of je kunstmatige intelligentie dat kunt bijbrengen? Dat is de vraag.
Geen vat op internet
Ander probleem is dat je deepfakevideo’s vanuit zoveel landen op het internet kunt zetten dat het onmogelijk is om een waterdicht systeem van regels te maken dat deepfakes kan voorkomen of strafbaar kan maken, zei Koolen. „Internet is overal ter wereld.” Daar heb je dus geen vat op.