Yan - stock.adobe.com

Wie man Deepfakes manuell und mithilfe von KI erkennt

Bei Deepfakes erzeugt KI realistische, aber gefälschte Inhalte, die ein erhebliches Security-Risiko darstellen können. Aufmerksamkeit und Tools können beim Erkennen helfen.

Künstliche Intelligenz ist Segen und Fluch zugleich. Sie ist ein Segen, weil KI-generierte Inhalte den Menschen helfen können, effizienter zu lernen und zu arbeiten. Aber KI ist ein Fluch, wenn es um Täuschungen wie Deepfakes geht. Bei der Deepfake-Technologie handelt es sich um eine Art von KI, die Inhalte erstellt oder verändert, um überzeugende, aber völlig gefälschte Bilder, Videos oder Audioaufnahmen zu erzeugen. Während einige KI-Inhalte nützlich und völlig harmlos sein können, werden Deepfakes oft zur Irreführung und Fehlinformation erstellt und können zu großen Sicherheitsproblemen führen, zum Beispiel zu Identitätsdiebstahl und Phishing-Betrug.

Der Markt ist noch dabei, die Rechtmäßigkeit von KI-generierten Inhalten zu klären, aber heikle Fragen zu Datenschutz, Verleumdung, Verletzung geistigen Eigentums und allgemeiner Falschdarstellung sind bereits aufgetreten. Deshalb ist es so wichtig, sich der Deepfakes bewusst zu sein und zu lernen, wie man sie erkennen kann.

Grund genug, einmal näher zu betrachten, wie einige Deepfakes erkannt werden können. Zudem werden einige manuelle und automatische Methoden erläutert, die dazu beitragen sollen, die Verbreitung gefälschter Inhalte zu unterbinden.

Hinweise zum Erkennen eines Deepfakes

Auch wenn keine einzelne Technik zur Erkennung von Deepfakes narrensicher ist, kann die Anwendung mehrerer der folgenden manuellen Methoden zur Erkennung von Deepfakes oft dabei helfen, die Wahrscheinlichkeit zu ermitteln, dass eine Multimediadatei tatsächlich ein Deepfake ist.

Gesichts- und Körperbewegungen

Bei Bildern und Videodateien können Deepfakes oft noch durch genaue Untersuchung der Mimik und der Körperbewegungen der Teilnehmer identifiziert werden. In vielen Fällen gibt es Unstimmigkeiten innerhalb der menschlichen Ähnlichkeit einer Person, die KI nicht überwinden kann. Beim Betrachten dieser Bilder löst das menschliche Gehirn eine negative emotionale Reaktion aus - das so genannte „Uncanny Valley“ (Unheimliches Tal).

Je besser die Deepfakes werden, desto schwieriger werden sie für Menschen zu erkennen sein.
Abbildung 1: Je besser die Deepfakes werden, desto schwieriger werden sie für Menschen zu erkennen sein.

Lippensynchronisation erkennen

Wenn Video mit geändertem Ton in Form von gesprochener Stimme kombiniert wird, ist es wahrscheinlich, dass die Synchronisation der Wiedergabe der Worte nicht stimmt. Achten Sie genau auf Lippenbewegungen, die diese Diskrepanzen verdeutlichen könnten.

Inkonsistentes - oder ausbleibendes - Augenblinzeln

Bislang ist es für die KI schwierig, das Blinzeln der Augen zu simulieren. Daher neigen Deepfake-Algorithmen dazu, inkonsistente Blinzelmuster zu liefern oder das Blinzeln ganz zu eliminieren. Wenn man genau hinschaut, kann man an den Augen schnell ein manipuliertes Video erkennen.

Unregelmäßige Reflexionen oder Schattenbildung

Deepfake-Algorithmen können aktuell Schatten und Reflexionen oft nur schlecht nachbilden. Achten Sie genau auf Reflexionen oder Schatten auf umliegenden Oberflächen, im Hintergrund oder sogar in den Augen der Teilnehmer.

Pupillenerweiterung

Eine Erweiterung ist viel schwieriger zu erkennen, es sei denn, das Video liegt in hoher Auflösung vor. In den meisten Fällen verändert KI den Durchmesser der Pupillen nicht, was dazu führt, dass die Augen unscharf erscheinen. Dies gilt insbesondere dann, wenn die Augen der Person auf nahe oder weit entfernte Objekte fokussieren oder sich an mehrere Lichtquellen anpassen müssen. Wenn Sie Personen beobachten, deren Pupillen sich nicht auf natürliche Weise weiten, ist das ein Zeichen dafür, dass das Video ein Deepfake ist.

Künstliches Rauschen

Deepfake-Algorithmen fügen den Audiodateien oft künstliches Rauschen oder Artefakte hinzu, um Veränderungen im Ton zu verschleiern.

Wie man mit KI gefälschte Inhalte erkennt

Da die Technologien zur Erstellung von Deepfakes immer besser werden, wird es immer schwieriger, festzustellen, ob Inhalte verändert wurden. Aber künstliche Intelligenz kann auch eingesetzt werden, um künstlich erzeugte Deepfakes zu erkennen. Und die gute Nachricht ist, dass sich die Technologien zur Erkennung von Deepfakes mit der Weiterentwicklung der Deepfake-Erstellung auch weiterentwickeln werden.

Heute gibt es mehrere Erkennungstools, die große Mengen an gefälschten Bildern, Videos und Audiodaten verarbeiten. Durch maschinelles Lernen und Deep Learning werden die Daten analysiert, um unnatürliche Muster zu erkennen, die darauf hindeuten, dass die Inhalte künstlich erstellt wurden.

Im Folgenden werden zwei weitere Möglichkeiten vorgestellt, wie KI zur automatischen Erkennung von Fälschungen eingesetzt werden kann:

Analyse der Quelle. Die Identifizierung der Quelle einer Multimediadatei kann ein Indiz dafür sein, dass sie verändert wurde. Die Herausforderung besteht darin, dass die Analyse der Dateiquelle eine gewaltige Aufgabe ist, wenn manuelle Methoden verwendet werden. Deepfake-Erkennungsalgorithmen können viel gründlicher und schneller reagieren, da sie die Metadaten der Datei analysieren, um sicherzustellen, dass ein Video völlig unverändert und authentisch ist.

Überprüfung der Videokonsistenz im Hintergrund. Früher war es einfach, einen Deepfake anhand seines Hintergrunds zu erkennen. Aber heute sind die KI-Tools so weit fortgeschritten, dass sie zunehmend in der Lage sind, Hintergründe so zu verändern, dass sie komplex und authentisch aussehen. Deepfake-Detektoren können veränderte Hintergründe aufspüren, indem sie hochgranulare Überprüfungen an mehreren Punkten durchführen, um Änderungen zu erkennen, die das menschliche Auge nicht wahrnimmt.

Erfahren Sie mehr über Bedrohungen