meyerandmeyer - stock.adobe.com
Welche Gefahr geht von Deepfakes aus?
Gefälschte Audiodateien oder Videos bieten Cyberkriminellen das Potenzial für umfangreichen Betrug. Risiken bestehen da insbesondere bei Phishing und CEO-Fraud.
Künstliche Intelligenz (KI) und maschinelles Lernen haben Technologien hervorgebracht, die unsere technische Entwicklung revolutioniert und unseren Alltag in vielen Aspekten bereichert haben. Doch wo Licht ist, da ist auch Schatten: Denn wie alle Technologien können auch sie missbraucht und für schädliche Aktivitäten eingesetzt werden.
Ein gutes Beispiel sind so genannte Deepfakes, das heißt manipulierte Videos oder Audioaufnahmen, die Grenzen zwischen Fiktion und Realität verschwimmen lassen.
Was versteht man unter Deepfakes?
Unter Deepfakes versteht man realistisch wirkende Bilder sowie Audio-Dateien oder Videos, die jedoch nicht echt sind. Erzeugt werden diese gefälschten Medieninhalte mit Hilfe von Machine-Learning-Technologien, auch Deep Learning genannt.
Der breiteren Öffentlichkeit bekannt wurden Deepfakes im Jahr 2017, als Reddit-User gefälschte Pornofilme mit prominenten Schauspielerinnen in Netz stellten und damit großes Aufsehen erregten. Doch dies war erst der Anfang: Es dauerte nicht lange und die Deepfake-Technologie stand als sofort einsetzbarer Code zur Verfügung, der kein umfassendes Verständnis von KI-Techniken erfordert. Der Siegeszug der gefälschten Medien hatte begonnen.
Wie schwierig ist die Erstellung von Deepfakes?
Obwohl kein Kinderspiel, so ist die Erzeugung von Deepfakes für einen Menschen mit durchschnittlichen Computerkenntnissen auch keine allzu große Herausforderung. Mittlerweile stehen auch beim Onlinedienst GitHub einige Tools zur Verfügung, mit denen Laien experimentieren und eigene Deepfakes erstellen können.
IT-Experte Gaurav Oberoi hat bereits 2018 in einem seiner Blogs erklärt, wie man Videofälschungen mit Hilfe von Youtube-URLs erstellen kann. Dabei nutzte er ein automatisches Tool, das die Gesichter der gezeigten Personen herausfiltert und durch alternative Gesichter ersetzt.
Die Software untersucht hierbei verschiedene Attribute des Originals wie Hautton, Gesichtsausdruck, Winkel oder Neigung des Kopfes sowie die Umgebungsbeleuchtung und versucht dann, das neue Gesicht in diesem Kontext realistisch zu rekonstruieren. Insgesamt dauerte die Erstellung von Oberois Swap nur etwa 72 Stunden, wobei er mit einer handelsüblichen Grafiklösung (Nvidia GTX 1018 TI) arbeitete.
Profis agieren selbstverständlich anders und nutzen in der Regel eine Methode namens Generative Adversarial Networks, kurz GANs. Dabei werden zwei konkurrierende maschinelle Lernalgorithmen verwendet, bei denen der eine das gefälschte Bild erzeugt und der andere versucht, es zu erkennen.
Wurde die Fälschung erkannt, verbessert die erste KI das Ergebnis ein weiteres Mal, um eine erneute Erkennung zu verhindern. Gleichzeitig optimiert die zweite KI ihre Entscheidungsfindung, um auch eine bessere Fälschung zu identifizieren. Dieser Prozess wird so oft wiederholt, bis die Deepfake-produzierende KI die Detektions-KI übertrifft, das heißt ein täuschend echter Medieninhalt erzeugt wurde. Alles was es hierfür braucht, ist ein Supercomputer sowie die finanziellen Mittel, um das GANs-Tool nutzen zu können.
Welche Bedrohung geht von Deepfakes aus?
Deepfakes haben das Potenzial für umfangreichen Betrug. So sind sie etwa ein ideales Tool, um Phishing-Kampagnen und insbesondere den CEO-Fraud zu optimieren. Man denke etwa an einen Anruf der Chefin, die eine Überweisung in Auftrag gibt, oder die Voice-Mail-Nachricht eines Kollegen, der uns bittet, den Link in seiner E-Mail anzuklicken. Wir hören ihre realen Stimmen, wer würde da misstrauisch werden?
„Unser wichtigstes Mittel im Kampf gegen gefälschte Inhalte ist letztlich ein gesunder Menschenverstand und die Fähigkeit, Sachverhalte im Kontext zu betrachten.“
Phil Stokes, SentinelOne
Gleichzeitig wissen wir, dass Hacker und Cyberkriminelle nichts so sehr fürchten, wie zeitlichen oder finanziellen Aufwand. Solange Menschen auf herkömmliche, nicht besonders aufwendig gestaltete Phishing-Nachrichten hereinfallen – und das tun sie nach wie vor –, warum sollte man sich dann die Mühe machen, viel Zeit und Geld in die Erzeugung von Deepfakes zu stecken?
Man darf die Gefahr, die von gefälschten Medieninhalten ausgeht, nicht unterschätzen, dennoch können sie derzeit nicht als besonders schwerwiegende Bedrohung eingestuft werden. Größere Sorgen sollte uns hingegen der Einsatz von Deepfake-Inhalten bei Verleumdungsangriffen oder Versuchen, den Ruf von Einzelpersonen zu diskreditieren, machen.
(Wie) kann man Deepfakes entlarven?
Ob man gefälschte Medien als solche erkennen kann, hängt vor allem von der Raffinesse der eingesetzten GANs und damit der Qualität des Endergebnisses ab. Ebenso wie bei „gephotoshoppten“ Bilder können unscharfe Kontraste oder eine falsche Beleuchtung Hinweis auf eine Fälschung sein. Für die Entlarvung professioneller Deepfakes, die von hochentwickelten GANs erzeugt wurden, bedarf es letztlich aber wiederum ein solches generatives Netzwerk, wenn es überhaupt möglich ist.
Unser wichtigstes Mittel im Kampf gegen gefälschte Inhalte ist letztlich ein gesunder Menschenverstand und die Fähigkeit, Sachverhalte im Kontext zu betrachten. Trivial gesagt: Es braucht mehr als ein Video von einem fliegenden Pferd, um uns davon zu überzeugen, dass es solche Tiere wirklich gibt.
Überraschende oder ungewöhnliche Behauptungen oder Forderungen – etwa der Anruf vom Chef, der plötzlich eine ungewöhnliche Überweisung in Auftrag gibt – sollten uns hellhörig werden lassen und eine Verifizierung veranlassen. Dies ist letztlich nichts anderes als eine Multi-Faktor-Authentifizierung. Und auch Sicherheitstechnologien wie zum Beispiel Endpunktschutz arbeiten kontextbezogen, etwa bei der Identifizierung von Malware.
Fazit
Deepfakes sind eine technologische Revolution und ein gutes Beispiel dafür, was künstliche Intelligenz und maschinelles Lernen leisten können. So stehen heute zwar Tools zur Erstellung gefälschter Videos und Co. zur Verfügung, die Erzeugung täuschend echter Deepfakes ist jedoch nach wie vor aufwendig beziehungsweise teuer, weshalb Hacker vom großflächigen Einsatz dieser Betrugsmethode bis jetzt absehen.
Über den Autor:
Phil Stokes ist Technical Writer und Researcher bei SentinelOne.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.