sata_production - stock.adobe.co

Die Folgen von Deepfakes für biometrische Sicherheit

Biometrische Kontrollen werden durch Deepfakes gefährdet - überzeugende Bilder, Videos und Audiodateien, die durch generative KI erstellt werden. Die Risiken lassen sich mindern.

Die Nutzung von Technologie ist durchaus häufig auch mit Schattenseiten verbunden. Die Deepfake-KI ist beispielsweise so weit fortgeschritten, dass viele Menschen und sogar Systeme nicht mehr in der Lage sind, zwischen Illusion und Realität zu unterscheiden.

Zunehmend überzeugende Fälschungen haben enorme Auswirkungen auf die biometrische Sicherheit, da die Technologie, die die Nutzer authentifiziert, nun Nachahmungen hervorbringt, die diese Kontrollen untergraben können. Die Situation ist zwar besorgniserregend, aber die Branche kann Maßnahmen ergreifen, um diesem neueren Angriff auf die Sicherheit zu begegnen.

Was sind Deepfakes?

Deepfakes sind manipulierte Video-, Bild- oder Audiodateien, die mit generativen KI-Algorithmen (GenAI, GenKI) erstellt werden. Ziel ist es, eine künstliche Darstellung zu schaffen, die von der Ähnlichkeit einer realen Person, eines Objekts oder einer Szene nicht zu unterscheiden ist.

Einige Deepfakes sind relativ harmlos. Viele Menschen sehen zum Beispiel gerne unterhaltsame Videos von sich selbst, in denen sie mit Fred Astaire oder Ginger Rogers tanzen. Dieselbe Technologie kann jedoch ein Mittel für eine Vielzahl von böswilligen Zwecken sein, wie zum Beispiel die Darstellung irreführender oder offenkundig falscher Informationen aus politischen Gründen oder einfach um Betrug zu begehen. Deepfakes könnten es beispielsweise Bedrohungsakteuren ermöglichen, sich als autorisierte Benutzer auszugeben und auf deren Finanzkonten oder sichere Arbeitseinrichtungen zuzugreifen.

Wie Deepfakes biometrische Sicherheitskontrollen bedrohen

Biometrische Sicherheitskontrollen verwenden Fingerabdrücke, Stimm- und Gesichtsmuster, um sicherzustellen, dass Personen, die sind, die sie vorgeben zu sein.

Während Passwörter leicht zu vergessen, leicht weiterzugeben und relativ leicht zu entwenden sind, sollten biometrische Daten einfach zu verwenden und zu verwalten sein - da wir sie bei uns tragen - und schwer zu reproduzieren.

GenKI (generative KI) hingegen verändert den Teil der Gleichung, der die Replikation erschwert, und erschüttert damit die Grundlage der biometrischen Authentifizierung. Bevor generative KI weithin zugänglich wurde, hatten viele Unternehmen - oft solche, für die Datensicherheit am wichtigsten ist - die biometrische Authentifizierung bereits vollständig eingeführt. Das Aufkommen überzeugender Deepfakes stellt für solche Unternehmen eine unmittelbare Bedrohung dar. Unternehmen aus den Bereichen Finanzen, Gesundheitswesen und Behörden verfügen beispielsweise über sensible Informationen, deren Preisgabe enorme finanzielle und rufschädigende Folgen hätte.

Abbildung 1: Je besser die Deepfakes werden, desto schwieriger werden sie für Menschen zu erkennen sein.
Abbildung 1: Je besser die Deepfakes werden, desto schwieriger werden sie für Menschen zu erkennen sein.

So schlimm das auch ist, das schwindende Vertrauen in biometrische Authentifizierungssysteme könnte zu einem massiven gesellschaftlichen Misstrauen führen und das Problem noch verschärfen. Wenn kein Vertrauen in eines dieser Systeme besteht, könnten die Menschen dazu veranlasst werden, sich auf ältere Authentifizierungstechnologien zu verlassen oder sogar ganz auf die Nutzung einiger digitaler Dienste zu verzichten. Ein derartiges Schutzverhalten würde zumindest die technologische Innovation verlangsamen und könnte schwerwiegende negative wirtschaftliche Auswirkungen haben.

Die Risiken von Deepfakes für biometrische Verfahren reduzieren

Trotz der ernsthaften Bedrohung, die Deepfakes darstellen, können Unternehmen und Einzelpersonen die folgenden Schritte unternehmen, um ihre Auswirkungen auf die biometrischen Sicherheitskontrollen zu verringern.

1. Das Engagement für Technologie verstärken

Man sollte alle impulsiven Änderungen hinsichtlich einer Abschaffung der biometrischen Authentifizierung vermeiden.

Stattdessen sollten die Entwickler dieser Systeme Feuer mit Feuer bekämpfen und ihre Algorithmen weiter verbessern, damit sie Deepfakes effektiv erkennen und abwehren können. KI und maschinelle Lerntechnologien können Anomalien in KI-generierten Bildern am besten identifizieren, indem sie die Muster erkennen, die sie überhaupt erst erzeugt haben.

Deepfakes könnten es Bedrohungsakteuren ermöglichen, sich als autorisierte Benutzer auszugeben und auf deren Finanzkonten oder sichere Arbeitseinrichtungen zuzugreifen.

2. Multifaktor-Authentifizierung

MFA (Multifaktor-Authentifizierung) kann die biometrische Sicherheit durch die Verwendung zusätzlicher, nicht biometrischer Verifizierungen verbessern, zum Beispiel durch einen einmaligen Passcode sowie geräte- und kontextspezifische Metriken wie MAC-Adressen, geografische Standorte und zeitlich begrenzte Nutzungsfenster.

Durch die Kombination biometrischer Daten mit anderen Arten von Authentifizierungsmechanismen können Unternehmen ihre Anfälligkeit für Deepfake-Angriffe drastisch verringern. Wird ein Zero-Trust-Ansatz verfolgt reduziert das gleichfalls die Risiken.

3. Lebendigkeitserkennung

Die Funktionen zur Erkennung von Lebendigkeit tragen dazu bei, dass die biometrischen Daten beim Benutzer in Echtzeit erfasst werden, wobei statische oder sich wiederholende Bilder auf gefälschte Aktivitäten hinweisen.

So können biometrische Authentifizierungssysteme die Benutzer auffordern, zufällige Bewegungen wie das Schürzen der Lippen oder Blinzeln auszuführen, um zuvor aufgezeichnete statische Bilder zu enthüllen.

4. Aufklärung und Sensibilisierung der Nutzer

Je mehr Menschen sich bewusst sind, wie verbreitet und realistisch Deepfakes sind, desto wachsamer werden sie sich vor potenziellen Bedrohungen und verdächtigen Anfragen schützen. Unternehmen sollten Maßnahmen ergreifen, um ihre Nutzer entsprechend zu schulen.

Die Öffentlichkeit muss im Allgemeinen auch die Grenzen der bestehenden biometrischen Sicherheitskontrollen verstehen. Dies wird ihnen einen Grund geben, die Anbieter zu drängen, ihre biometrischen Systeme zu verbessern.

5. Compliance

Regierungen und Aufsichtsbehörden könnten eine wichtige Rolle bei der Bekämpfung der Deepfake-Bedrohung spielen. So könnten beispielsweise neue Vorschriften und Normen für die Erhebung, Speicherung und Verwendung biometrischer Daten Unternehmen dazu veranlassen, ihre Authentifizierungsverfahren besser zu dokumentieren und die Sicherheit und den Datenschutz durchzusetzen.

Darüber hinaus würde die Verpflichtung der Unternehmen, digitale Wasserzeichen in ihre KI-generierten Inhalte einzubetten, die auf deren Künstlichkeit hinweisen, die Transparenz erhöhen und es schwieriger machen, unerkennbare Fälschungen zu erstellen.

Die Deepfake-Technologie ist jetzt schon problematisch, aber sie wird nur noch gefährlicher werden. Generative KI hat in der Rolle des Komplizen des Kriminellen das Potenzial, einen regelrechten Tsunami an wirtschaftlicher, politischer und gesellschaftlicher Zerstörung auszulösen. Mit der Verbesserung der Deepfake-Technologie wird das Risiko von unbefugtem Zugriff, Betrug und Identitätsdiebstahl mit Sicherheit unvermindert weiter steigen.

Durch Innovation und mehrschichtige Sicherheit, die durch kontinuierliche Weiterbildung und verbesserte Vorschriften und Compliance ergänzt werden, können Unternehmen die Risiken reduzieren und die Effektivität biometrischer Authentifizierungssysteme in einer Zeit allgegenwärtiger digitaler Täuschung verbessern.

Erfahren Sie mehr über Identity and Access Management (IAM)

ComputerWeekly.de
Close