Al sinds het ontstaan van het wereldwijde web leeft de vrees dat mensen niet meer kunnen onderscheiden wat ‘echt’ is en wat ‘virtueel’. Lange tijd kon die angst weggezet worden onder de noemer ‘morele paniek’, maar de opkomst van deepfakes leidt een nieuw tijdperk in. De voorbije jaren verschenen regelmatig deepfakefilmpjes online, zoals de kersttoespraak van Queen Elizabeth afgelopen december. Met lipsync-technieken leek het alsof de Queen zelf praatte.
De term ‘deep’ verwijst naar deep learning-technieken, een onderdeel van machine learning (een techniek om kunstmatige intelligentie (KI) te ontwikkelen of implementeren). Deep learning verwijst naar de artificiële neurale netwerken, vergelijkbaar met neurale structuren in ons brein, die patronen en complexe verbanden zoeken op diepliggende en hiërarchische niveaus in datasets. In het geval van deepfakes worden de technieken aangewend om verschillende bestaande beeldbronnen in elkaar te doen overgaan of om er nieuwe beelden (lichamen, gezichten) uit te creëren. Deepfakes hoeven niet noodzakelijk negatief te zijn. Internetavatar Sweetie werd bijvoorbeeld gecreëerd om online pedofielen op te sporen.
Cheap fake
Maar vaak zitten er wel kwade bedoelingen achter. In de zomer van 2019 dook er een fakepornvideo op van de Nederlandse nieuwslezeres Dionne Stax. Het hoofd van Stax werd gemonteerd op dat van een naakt vrouwenlichaam en de video werd vervolgens verspreid via Pornhub. Er is steeds minder technologische kennis vereist om zelf deepfakes te maken; de laagdrempelige variant ervan wordt ook wel ‘cheap fake’ genoemd.
Net omdat het creëren van deepfakes steeds minder gesofisticeerde KI en ook geen specifieke opleiding vereist, zal de problematiek niet zomaar verdwijnen. KI zal in stijgende lijn ingezet worden door criminelen. Onderzoekers aan University College London publiceerden afgelopen zomer een lijst van 20 KI-toepassingen en -technologieën voor criminele doeleinden.
High concern crime
Misbruik via video en audio krijgt de hoogste notering als ‘high concern crime’. De manipulatie gaat namelijk verder dan beeld: het kan ook om geluid (synthetic voice) gaan, zoals nieuwe vormen van phishing waarbij iemand een telefoontje krijgt van een gemanipuleerde stem (bijvoorbeeld van een bekende), met de vraag om geld over te maken. Hoewel filosofen René Descartes en David Hume lang voor de intrede van deepfakes leefden, heeft hun boodschap niet aan relevantie ingeboet: Twijfel. Wees sceptisch. Je zintuigen kunnen je bedriegen.
Over deze column
In een wekelijkse column, afwisselend geschreven door Wendy van Ierschot, Bert Overlack, Eveline van Zeeland, Eugene Franken, Jan Wouters, Helen Kardan, Katleen Gabriels, Mary Fiers en Hans Helsloot probeert Innovation Origins te achterhalen hoe de toekomst eruit zal zien. Deze columnisten, soms aangevuld met gastbloggers, werken allemaal op hun eigen manier aan oplossingen voor de problemen van deze tijd. Morgen zal het dus goed zijn. Hier zijn alle voorgaande afleveringen.