Bisher war es nicht möglich, einen gut funktionierenden Algorithmus zu entwickeln, der Deepfake-Videos, die im Internet erscheinen, einwandfrei erkennen und aussortieren kann. Dies ist ein Grund zur Sorge, so die Berater von Accenture während des kostenlosen Informationstages High Tech Next in Eindhoven im vergangenen Monat. Das Problem ist, dass die KI, mit der die gefälschten Videos erstellt werden, einfach anzuwenden und somit auch für Kriminelle leicht verfügbar. Es gibt alle Arten von Apps, die aus dem Internet heruntergeladen werden können, mit denen ein Laie seine eigenen Deepfakes herstellen kann.
Eine Möglichkeit, Deepfake-Videos zu erkennen, ist der Blick auf den emotionalen Ausdruck des Gesichts. “Er stimmt oft nicht mit dem Inhalt der Wörter überein, die von den gefälschten Personen gesprochen werden”, sagt Sven Koolen, Datenanalyst bei Accenture.
Immer mehr Deepfake-Videos
In den letzten zwei Jahren ist die Anzahl der Deepfake-Videos enorm gestiegen. Sehr zum Leidwesen der betroffenen Personen, so Buket Demirel, eine weitere Beraterin von Accenture, die den Deepfake-Workshop leitete. Sie erwähnt das Beispiel der indischen Journalistin Rana Ayyub, deren Gesicht letztes Jahr für ein Pornovideo verwendet wurde, woraufhin sie ihren Job verlor.
Ein anderes Beispiel wurde im September in der amerikanischen Wirtschaftszeitung Wall Street Journal publiziert. Dort wurde folgendes berichtet: der britische Direktor eines namenlosen Energieunternehmens beraubte die eigene Firma nach einem Telefonat mit einer Deepfake-Stimme um 220.000 Euro. Die Stimme hatte wie die des deutschen Direktors der Muttergesellschaft geklungen.
Krimineller hat 220.000 Euro abgezapft
Er dachte natürlich, dass er ihn am Telefon hätte und folgte der Anweisung, 220.000 Euro auf ein Bankkonto in Ungarn zu überweisen. Der Anrufer war ein Krimineller, das Geld ging der Firma verloren.
Deepfake-Videos werden mit Hilfe von KI erstellt, die die Struktur von Bildern einer Person analysiert und daraus einen Code macht. Zusätzlich erstellt die KI ein Programm, um den Code zu dekodieren. Die mit diesem Code erstellten Bilder werden mit den Bildern einer anderen Person gemischt, die alle möglichen Dinge tut oder sagt, die die reale Person nie tun würde.
Google und Facebook haben noch keine Heilmittel gefunden
Es ist teilweise schwierig zu erkennen, ob das Video echt oder gefälscht ist, weil die KI ihre Arbeit so effektiv erledigt. Vor einigen Wochen erschien auf You Tube ein Video des ehemaligen amerikanischen Präsidenten Richard Nixon, in dem er sagt, dass die Landung auf dem Mond 1969 fehlgeschlagen sei. Leute, die dieses historische Ereignis nicht erlebt haben – und davon gibt es natürlich viele – und Nixon nicht kennen, können annehmen, dass es ein echtes Video ist. “Es sieht fast so aus, als könne man auf diese Weise die Geschichte neu schreiben”, sagt Demirel.
Laut Koolen versuchen die großen Technologieunternehmen wie Facebook und Google eifrig, Algorithmen zu entwickeln, die in der Lage sind, Deepfakes zu erkennen und auszusortieren, sobald sie erkannt werden. Aber bisher ist das noch nicht möglich.
KI immer ausgefeilter
Das Problem ist nicht nur, dass die Deepfake-Technologie immer ausgefeilter wird. Einige Deepfakes sind als Parodie gedacht und für den Betrachter leicht als solche zu erkennen. So erschien beispielsweise ein Video von Boris Johnson vor den britischen Wahlen am 12. Dezember, in dem er seinen Rivalen Jeremy Corbyn lobt. Jeder Zuschauer versteht, dass der echte Johnson das nie tun würde. Aber es gibt viele Graubereiche. Kann man bei jedem die Fähigkeit einer richtigen Einschätzung des Materials voraussetzen?
Das Internet ist nicht kontrollierbar
Ein weiteres Problem ist, dass man Deepfake-Videos von jedem Ort der Welt ins Internet stellen kann. Das macht es unmöglich, ein wasserdichtes System von Regeln zu schaffen, die sie verhindern oder strafbar machen, so Koolen. “Das Internet ist überall auf der Welt. Es liegt außerhalb jeglicher Kontrolle.”