(c) Pixabay

Oude familiefoto’s tot leven wekken, Joe Biden of Kim Jong-un een liedje laten zingen en zelf meespelen in beroemde Hollywoodscènes. Het kan allemaal met deepfake-technologie. Hierbij wordt slimme software gebruikt voor de creatie of manipulatie van beeld, geluid en tekst. Klinkt allemaal vrij onschuldig. Toch brengt deze techniek een hoop risico’s met zich mee. Wat te denken politici die ineens dingen roepen die ze nooit in het echt hebben gezegd? Of een telefoontje van je dochter om geld over te maken blijkt achteraf software te zijn.

Inmiddels is de technologie zo ver gevorderd dat de meeste mensen bij het snel bekijken van zo’n video niet doorhebben dat er met de beelden is geknoeid, zo blijkt uit onderzoek van de Universiteit van Amsterdam. Uit datzelfde onderzoek komt ook naar voren dat deze zogenoemde deepfakes meningen negatief kunnen beïnvloeden. Experts waarschuwen voor een infocalypse. Als het zo doorgaat kunnen we niet meer vertrouwen op onze ogen en oren om te bepalen wat echt is.

Nederlandse AI coalitie

Zoals de hersenen nog steeds het meest ongrijpbare deel van ons lichaam zijn, zo is artificiële intelligentie nog altijd het onontdekte land. Dat onze hersenen ons lichaam aansturen hebben we als mens wel geaccepteerd. Dat geldt niet voor de manier waarop AI stap voor stap de regie over onze samenleving overneemt. Daar voeren we graag nog een paar stevige debatten over. In een serie reportages en interviews laat Innovation Origins in nauwe samenwerking met de Nederlandse AI Coalitie zien wat de gemiddelde Nederlander merkt van deze alles bepalende maatschappelijke revolutie. Hoe houden we als mens de vingers aan de knoppen? De angsten, de kansen, de dilemma’s.

Volgens future tech-strateeg Mark van Rijmenam hebben we als samenleving een serieus probleem wanneer we niet meer kunnen zien of video’s echt of nep zijn. “Naast dat je niet meer kunt vertrouwen op de beelden die je ziet, kan een politicus deepfakes ook gebruiken om bepaalde uitspraken te ontkennen”, legt hij uit.

Realiteit of deepfake?

Zo ver is het volgens hem nog niet, bij veel beeldmateriaal zien we met het blote oog nog wel dat het om manipulatie gaat. “Mits je goed oplet natuurlijk, want beelden worden steeds realistischer. Net als andere technologie, gaat ook de ontwikkeling van deepfaketechnologie ontzettend snel. Binnen één tot drie jaar zijn mensen niet meer in staat om het verschil te zien”, zo voorspelt Van Rijmenam.

Ook Jarno Duursma techexpert en auteur van het rapport ‘Deepfake technologie; the infocalyps’ is niet blind voor de risico’s van deepfakes. Duursma ziet nu al dingen niet meer van echt zijn te onderscheiden. Toch denkt hij dat de gevaren worden overschat. “Vooral de oudere generatie komt nog uit de tijd dat ze erop vertrouwden dat wat in de krant stond waar was. Met de komst van social media kon ineens iedereen informatie de wereld in slingeren, ook informatie die niet klopt. Dus we hebben al langer te maken met onbetrouwbare informatie op het internet.”

Onlangs publiceerden wetenschappers van de Universiteit van Buffalo een AI-tool die met 94 procent zekerheid vaststelt of iets een deepfake is. Het model ‘kijkt’ hiervoor onder andere naar de reflectie in de ogen. Beiden experts zijn het erover eens dat het altijd een ‘kat- en muisspel’ blijft om deep fakes te ontmaskeren. Maar ook als achteraf wordt vastgesteld dat het om een deepfake gaat, kan de schade flink zijn. Van Rijmenam: “Denk aan reputatieschade bij bedrijven. Slachtoffers van nep wraakporno die door hun familie niet meer worden aangekeken of mensen die toegeven aan chantage met gemanipuleerde beelden. Ook al is vrij snel duidelijk dat het om deepfakes gaat, de schade is al aangericht.”

Betere voorstelling van verschillende producten

Innovation Origins vroeg een aantal Nederlanders hoe ze denken over deepfakes en of ze naast de gevaren ook kansen voor de technologie zien. Net als de experts noemen zij nepnieuws en identiteitsfraude als de grootste risico’s. Bij het bekijken van informatie op internet zijn ze zich hiervan bewust. Enkele respondenten maken zich zorgen wat de gevolgen van deepfakes kunnen zijn. Kansen zitten volgens hen in ‘beter voorstellen hoe iets er uit gaat zien’, ‘reclame’ en ‘meer en makkelijker leuke filmpjes maken voor het internet’.

Niet alleen maar nadelen

Naast alle risico’s, vinden beide techexperts dat er ook voldoende positieve kanten aan deepfake-technologie zitten. Van Rijmenam: “Met deepfake technologie kun je mensen van hun zwemangst of andere angsten af helpen. Door hun gezicht op een video te plakken, wordt een soort herinnering in hun hoofd geplaatst. Je hersenen weten niet of het waargebeurd is of niet. Het werkt hetzelfde als inbeelden dat je voor duizend man spreekt. Als je vervolgens echt het podium opstapt denken je hersenen: ‘dit heb ik al gedaan, dat kan ik!’”

Duursma houdt een slag om de arm: “Hier moet nog wel onderzoek naar worden gedaan, we weten nog niet of dit echt zo werkt in ons brein.” Andere voordelen zijn volgens hem duidelijker: “Met deepfake technologie kun je de stemmen van de stemacteurs van The Simpsons clonen en afleveringen blijven maken tot lang na hun dood. Je kunt overleden grootheden weer tot leven wekken. Een film met Elvis Presley? Waarom niet! Zelf heb ik een digitale avatar van mezelf laten maken die ik kan gebruiken voor korte videopresentaties. Het werkt nog niet perfect, maar het scheelt ontzettend veel tijd. Ik hoef geen video’s meer zelf op te nemen en in te spreken. Ik type de tekst en vervolgens maakt het AI-systeem hier een video bij.”

Synthetische media; scripts ‘geschreven’ door de computer

Duursma gebruikt voor deepfakes liever de overkoepelende term synthetische media. “Dat zijn uitingen gemaakt of gemanipuleerd door AI-software. Van schilderijen tot filmscripts en zelfs digitale personen die in verschillende talen kunnen spreken. Eigenlijk alles wat wij kunnen bedenken, maar dan bedacht of aangepast door AI. Deze software zorgt ervoor dat creativiteit voor iedereen beschikbaar is. Hiermee kun je duizenden ideeën of invalshoeken genereren en hieruit kiezen. Het is een goudmijn aan ideeën.”

Zo bestaat er al een AI-model dat op basis van een geschreven tekst nieuwe afbeeldingen creëert. Of ideeën voor nieuwe start-ups bedenkt. Deze technologieën maken gebruik van het taalmodel GPT-3, dat vorig jaar een artikel ‘schreef’ in The Guardian. Volgens Duursma gaan we in de toekomst steeds meer samenwerken met dit soort systemen. “Mensen zijn bang om overbodig te worden. Dat is een soort oergevoel. Terwijl we voor veel dingen al leunen op technologie. Ik onthoud geen telefoonnummers meer bijvoorbeeld. Machines met verbeeldingskracht die nieuwe ideeën voor ons genereren vind ik helemaal geen eng idee. Het geeft iedereen toegang tot creativiteit.”

Steun ons!

Innovation Origins is een onafhankelijk nieuwsplatform, dat een onconventioneel verdienmodel heeft. Wij worden gesponsord door bedrijven die onze missie steunen: het verhaal van innovatie verspreiden. Lees hier meer.

Op Innovation Origins kan je altijd gratis artikelen lezen. Dat willen we ook zo houden. Heb je nou zo erg genoten van de artikelen dat je ons een bedankje wil geven? Gebruik dan de donatie-knop hieronder:

Doneer

Persoonlijke informatie

Over de auteur

Author profile picture Milan Lenters is schrijver en redacteur. Heeft door IO zijn geboortestad Eindhoven op een andere manier leren kennen en kijkt soms met verbazing naar de vele verhalen die hier voor het oprapen liggen.