@Channel4

Al sinds het ontstaan van het wereldwijde web leeft de vrees dat mensen niet meer kunnen onderscheiden wat ‘echt’ is en wat ‘virtueel’. Lange tijd kon die angst weggezet worden onder de noemer ‘morele paniek’, maar de opkomst van deepfakes leidt een nieuw tijdperk in. De voorbije jaren verschenen regelmatig deepfakefilmpjes online, zoals de kersttoespraak van Queen Elizabeth afgelopen december. Met lipsync-technieken leek het alsof de Queen zelf praatte.

De term ‘deep’ verwijst naar deep learning-technieken, een onderdeel van machine learning (een techniek om kunstmatige intelligentie (KI) te ontwikkelen of implementeren). Deep learning verwijst naar de artificiële neurale netwerken, vergelijkbaar met neurale structuren in ons brein, die patronen en complexe verbanden zoeken op diepliggende en hiërarchische niveaus in datasets. In het geval van deepfakes worden de technieken aangewend om verschillende bestaande beeldbronnen in elkaar te doen overgaan of om er nieuwe beelden (lichamen, gezichten) uit te creëren. Deepfakes hoeven niet noodzakelijk negatief te zijn. Internetavatar Sweetie werd bijvoorbeeld gecreëerd om online pedofielen op te sporen.

Cheap fake

Maar vaak zitten er wel kwade bedoelingen achter. In de zomer van 2019 dook er een fakepornvideo op van de Nederlandse nieuwslezeres Dionne Stax. Het hoofd van Stax werd gemonteerd op dat van een naakt vrouwenlichaam en de video werd vervolgens verspreid via Pornhub. Er is steeds minder technologische kennis vereist om zelf deepfakes te maken; de laagdrempelige variant ervan wordt ook wel ‘cheap fake’ genoemd.

Meld je aan voor onze Nieuwsbrief!

Je wekelijkse innovatie overzicht: Elke zondag onze beste artikelen in je inbox!

    Net omdat het creëren van deepfakes steeds minder gesofisticeerde KI en ook geen specifieke opleiding vereist, zal de problematiek niet zomaar verdwijnen. KI zal in stijgende lijn ingezet worden door criminelen. Onderzoekers aan University College London publiceerden afgelopen zomer een lijst van 20 KI-toepassingen en -technologieën voor criminele doeleinden.

    High concern crime

    Misbruik via video en audio krijgt de hoogste notering als ‘high concern crime’. De manipulatie gaat namelijk verder dan beeld: het kan ook om geluid (synthetic voice) gaan, zoals nieuwe vormen van phishing waarbij iemand een telefoontje krijgt van een gemanipuleerde stem (bijvoorbeeld van een bekende), met de vraag om geld over te maken. Hoewel filosofen René Descartes en David Hume lang voor de intrede van deepfakes leefden, heeft hun boodschap niet aan relevantie ingeboet: Twijfel. Wees sceptisch. Je zintuigen kunnen je bedriegen.

    Over deze column

    In een wekelijkse column, afwisselend geschreven door Wendy van Ierschot, Bert Overlack, Eveline van Zeeland, Eugene Franken, Jan Wouters, Helen Kardan, Katleen Gabriels, Mary Fiers en Hans Helsloot  probeert Innovation Origins te achterhalen hoe de toekomst eruit zal zien. Deze columnisten, soms aangevuld met gastbloggers, werken allemaal op hun eigen manier aan oplossingen voor de problemen van deze tijd. Morgen zal het dus goed zijn. Hier zijn alle voorgaande afleveringen.

    Steun ons!

    Innovation Origins is een onafhankelijk nieuwsplatform, dat een onconventioneel verdienmodel heeft. Wij worden gesponsord door bedrijven die onze missie steunen: het verhaal van innovatie verspreiden. Lees hier meer.

    Op Innovation Origins kan je altijd gratis artikelen lezen. Dat willen we ook zo houden. Heb je nou zo erg genoten van de artikelen dat je ons een bedankje wil geven? Gebruik dan de donatie-knop hieronder:

    Doneer

    Persoonlijke informatie

    Over de auteur

    Author profile picture Katleen Gabriels is moraalfilosoof, gespecialiseerd in computerethiek, verbonden aan de Universiteit Maastricht. Ze doet onderzoek naar de relaties tussen moraliteit en computertechnologieën.