sata_production - stock.adobe.co

Manipulation und Sicherheitsrisiken durch Deepfakes

Täuschungsversuche per Deepfakes können für Unternehmen eine Bedrohung darstellen. Abseits Technologie ist ein ausgeprägtes Sicherheitsbewusstsein bedeutsam für die Abwehr.

Mithilfe künstlicher Intelligenz lassen sich täuschend echte Fälschungen erzeugen. Dies schürt Befürchtungen, dass sogenannte Deepfakes eine erhebliche Bedrohung für die digitale Gesellschaft darstellen könnten. Diese Entwicklung markiert einen deutlichen Wendepunkt in der Cybersicherheit und erfordert ein Überdenken traditioneller Sicherheitsansätze. Experten prognostizieren, dass bis 2026 jedes dritte Unternehmen zur Einsicht gelangen wird, dass seine etablierten Methoden zur Identitätsüberprüfung angesichts der Raffinesse von Deepfake-Technologien nicht mehr ausreichen.

Deepfakes stellen eine zunehmend besorgniserregende Herausforderung für die Cybersicherheit dar. Bei diesen Täuschungsversuchen handelt es sich um hochrealistische digitale Fälschungen auf Grundlage von künstlicher Intelligenz (KI) und maschinellem Lernen (ML). Sie ermöglichen die Synthese von menschlichen Bildern und Stimmen zu täuschend echten Videos oder Audioaufnahmen. Die Technologie hinter Deepfakes eröffnet Angreifern neue Möglichkeiten des Identitätsdiebstahls und der Manipulation.

Was sind Deepfakes?

Die Geburtsstunde des Begriffs „Deepfake“ im Mainstream lässt sich auf Dezember 2017 datieren: Ein anonymer Reddit-Nutzer integrierte Gesichter von Prominenten in pornografische Videos. Seither hat sich die Technologie erheblich weiterentwickelt – von harmlosen humoristischen Inhalten bis hin zu ernstzunehmenden Bedrohungen durch Betrug oder Mobbing. Obwohl die Manipulation von Bildmaterial fast so alt ist wie die Fotografie selbst, haben moderne KI-Werkzeuge die Erstellung täuschend echter Fälschungen drastisch vereinfacht und beschleunigt.

Die Komplexität von Deepfakes zeigt sich in ihren verschiedenen Ausprägungen, wobei Face Swapping und Face Manipulation die Hauptkategorien bilden. Während beim Face Swapping das Gesicht einer Person durch das einer anderen ersetzt wird, wird mit Face Manipulation ein komplett neues Gesichtsbild erzeugt. Die technologische Grundlage bilden üblicherweise zwei KI/ML-Techniken: GAN (Generative Adversarial Networks) und DNN (Deep Neural Networks). GANs operieren mit einem dualen System aus Generator und Diskriminator, die in einem kontinuierlichen Prozess gefälschte Ausgaben erstellen und verfeinern. DNN hingegen analysieren umfangreiche Datenmengen, um menschliche Charakteristika präzise nachzuahmen.

Böswillige Akteure missbrauchen diese Technologie mittlerweile häufig als Instrument für Täuschung und Betrug. In der IT-Sicherheit sind etwa Injection-Angriffe ein immer häufigeres Phänomen. Dabei werden Code oder Daten in ein System eingeschleust, um unautorisierten Zugriff zu erlangen oder schädliche Befehle auszuführen. Deepfakes erweitern dieses Konzept um eine neue Dimension: den digitalen oder Kamera-Injection-Angriff. Hierbei können Betrüger gefälschte Bilder, biometrische Daten und andere Informationen in Systeme einschleusen, um Identifikationssoftware zu täuschen.

Rechtliche und ethische Probleme

Die Verbreitung von Deepfakes wirft eine Vielzahl rechtlicher und ethischer Fragen auf, die weit über technische Aspekte hinausreichen. Besonders problematisch ist, dass gefälschtes Bildmaterial ohne Einwilligung verwendet werden kann. Die finanziellen Konsequenzen solcher Angriffe können verheerend sein, wie ein Vorfall in einem multinationalen Unternehmen in Hongkong demonstriert: Hier wurde ein Mitarbeiter durch den Einsatz von Deepfake-Technologie während eines vermeintlichen Videotelefonats mit Kollegen zur Überweisung von umgerechnet über 25 Millionen US-Dollar verleitet.

Deepfakes können aber auch erhebliche Risiken für demokratische Prozesse bergen. Die gezielte Verbreitung falscher Informationen und die Verzerrung von Tatsachen können weitreichende politische Auswirkungen haben. Ein Beispiel hierfür lieferten die slowakischen Präsidentschaftswahlen 2023: Kurz vor der Abstimmung wurde eine gefälschte Audioaufnahme online verbreitet, in der scheinbar Michal Šimečka, der Vorsitzende der Progressiven Slowakei und einer der führenden Kandidaten, über Wahlmanipulation und Kinderpornografie scherzte.

Wie bei vielen weit verbreiteten Desinformationen kann es jedoch schwierig sein, ihre genauen Auswirkungen zu quantifizieren. Die Progressive Slowakei belegte bei den Wahlen den zweiten Platz hinter Smer, aber es ist schwer zu sagen, wie viele Wähler die Desinformation möglicherweise beeinflusst hat. Mein Kollege Nathan Hamiel hat bereits argumentiert, dass es für einen Deepfake schwierig ist, die Meinung einer Person zu wichtigen Themen, die ihr wichtig und emotional bedeutsam sind, zu ändern. Dazu gehört auch die Unterstützung politischer Parteien. Im Gegensatz dazu hat das gefälschte Bild des Papstes in einer Kapuzenjacke gerade deshalb so viele Menschen getäuscht, weil „wenig auf dem Spiel stand“.

Maßnahmen zur Erkennung und Abwehr von Deepfakes

Trotz der zunehmenden Raffinesse von Deepfakes existieren charakteristische Merkmale, die es ermöglichen, solche Fälschungen zu identifizieren. Aufmerksame Betrachter können auf subtile Anzeichen achten, wie unnatürliche Augenbewegungen oder fehlende Lichtreflexionen in den Augen. Auch Unstimmigkeiten in der Darstellung von Gliedmaßen oder Anomalien wie doppelte Kinnpartien, Augenbrauen oder Gesichtsränder weisen manchmal auf einen Deepfake hin. Darüber hinaus können Inkonsistenzen in der Hintergrundgestaltung oder der Beleuchtung wichtige Hinweise auf eine mögliche Manipulation liefern.

Milana Vladimirova, Kudelski Security

„Angesichts der wachsenden Bedrohung durch Deepfakes sind Unternehmen gefordert, ihre Cybersicherheitsmaßnahmen konsequent weiterzuentwickeln.“

Milana Vladimirova, Kudelski Security

Die zunehmende Verbreitung KI-generierter Deepfakes stellt aber auch die Arbeitswelt vor neue Herausforderungen. Besorgniserregend ist der Einsatz der Technologie zur Unterstützung von Phishing- und Social-Engineering-Angriffen. So können Angreifer hochrealistische und personalisierte Nachrichten erstellen, die von legitimer Kommunikation kaum zu unterscheiden sind. Dies erhöht das Risiko unbefugten Zugriffs auf sensible Informationen, erleichtert Finanzbetrug und kann den Ruf einer Organisation nachhaltig schädigen. Zusätzlich birgt KI-verstärkte Malware das ständig größer werdende Risiko, dass sie herkömmliche Erkennungsmethoden zu umgehen vermag.

Stärkung der Unternehmenssicherheit

Angesichts der wachsenden Bedrohung durch Deepfakes sind Unternehmen gefordert, ihre Cybersicherheitsmaßnahmen konsequent weiterzuentwickeln. Ein aussichtsreicher Lösungsansatz besteht darin, Feuer mit Feuer zu bekämpfen – mithilfe KI-gestützter Bedrohungserkennungssysteme. Unterstützend dazu bieten MFA- (Multifaktor-Authentifizierung) und Zero-Trust-Architekturen zusätzliche Sicherheitsebenen, indem sie eine kontinuierliche Validierung aller Benutzer an sämtlichen Zugangspunkten gewährleisten.

Ein weiterer Faktor in der Abwehrstrategie ist, regelmäßige Schulungen für Mitarbeiter durchzuführen, um sie über die neuesten Phishing-Techniken und Social-Engineering-Taktiken aufzuklären. Auch simulierte Angriffe können dabei helfen, das theoretische Wissen zu festigen. Ergänzend dazu sind robuste Datenschutzmaßnahmen wie Verschlüsselung und DLP-Technologien (Data Loss Prevention) unerlässlich, um sensible Informationen vor unbefugtem Zugriff zu schützen. Nicht zuletzt sollten Organisationen umfassende Incident-Response- und Recovery-Pläne entwickeln und regelmäßig auf ihre Wirksamkeit überprüfen.

Zukunft der Deepfake-Erkennung

Mit der rasanten Weiterentwicklung der Technologie wird die Identifikation manipulierter Bilder und Videos zunehmend komplexer. Angesichts dieser Herausforderung wird es immer wichtiger, Systeme zur Erkennung gefälschter Inhalte zu entwickeln. Vielversprechende Ansätze bilden Systeme mit kryptografischen Signaturen zur Identitätsüberprüfung. Parallel dazu werden Tools zur detaillierten Analyse von Videomaterial auf subtile Unregelmäßigkeiten hin entworfen. Bis zur breiten Verfügbarkeit solcher hochentwickelten Erkennungsmechanismen bleibt allerdings eine gesunde Skepsis gegenüber Online-Informationen die beste Verteidigungsstrategie. Für Unternehmen ist es essenziell, eine Kultur des umfassenden Sicherheitsbewusstseins zu etablieren.

Über die Autorin:
Milana Vladimirova ist Cybersecurity Consultant bei Kudelski Security.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close