Laurent - stock.adobe.com
Hacking the Human: KI-basierte Angriffe und die Sicherheit
Der erfolgreiche Einsatz von KI erfordert fundierte Kenntnisse der aktuellen Herausforderungen und Regularien. Es gilt, Anforderungen und Probleme beim Umgang mit KI zu kennen.
Der erfolgreiche Einsatz von KI-Technologien erfordert fundierte Kenntnisse der aktuellen Herausforderungen und Regularien. Experten beschäftigen sich derzeit intensiv mit den Anforderungen und Problemen beim Umgang mit KI. Der kürzlich eingeführte EU AI Act, beziehungsweise die KI-Verordnung (KI-VO), soll jetzt globale Standards setzen. Deshalb ist es für Führungskräfte entscheidend, die Auswirkungen zu verstehen und ihre Cybersicherheitsstrategien entsprechend anzupassen. Wichtige Themen sind die Vertrauenswürdigkeit von KI-Systemen trotz mangelnder Transparenz bei der Entscheidungsfindung, die Beschleunigung von Cyberangriffen durch den Einsatz von KI, die Veränderungen im Bereich der Cybersicherheit aufgrund von Schwachstellen in KI-Systemen und die Herausforderungen durch den unsachgemäßen Einsatz von generativen KI-Systemen sowie mögliche Lösungen.
In diesem Zusammenhang stellt sich auch die Frage, ob der EU AI Act sicherstellen kann, dass KI-Technologien vertrauenswürdig eingesetzt werden und weder dem Menschen noch der Gesellschaft insgesamt Schaden zufügen.
KI: Fluch oder Segen für die Cybersicherheit?
Künstliche Intelligenz (KI) hat sich im Bereich der Cybersicherheit als zweischneidiges Schwert erwiesen. Während KI-Systeme eingesetzt werden, um Sicherheitsbedrohungen effektiver zu erkennen und abzuwehren, nutzen Angreifer dieselben Technologien, um ausgeklügelte und schwer zu entdeckende Attacken auszuführen. Die verschiedenen Facetten KI-gestützter Angriffe, der Fokus auf APIs, die dunklen Seiten der KI und die Rolle des EU AI Act bei der Regulierung dieser Technologien spielen eine wichtige Rolle.
KI-basierte Angriffe: Beispiele und Vorgehensweisen
Das Konzept „Hacking the Human“ bezieht sich auf den Einsatz von KI durch Cyberkriminelle, um menschliches Verhalten zu manipulieren und Sicherheitsbarrieren zu umgehen. KI-gestützte Angriffe wie ausgeklügeltes Phishing und Deepfakes zielen darauf ab, Vertrauen zu erschleichen und sensible Informationen zu stehlen. Diese Angriffe nutzen menschliche Schwächen aus, indem sie realistisch aussehende Nachrichten und Inhalte erzeugen, die nur schwer von echten zu unterscheiden sind. Die zunehmende Komplexität und Häufigkeit solcher Angriffe erfordert neue Ansätze für die Cybersicherheit, bei denen KI selbst als Abwehrmechanismus gegen diese Bedrohungen eingesetzt wird.
Durch die Analyse großer Datenmengen können KI-Systeme täuschend echte Phishing-E-Mails generieren, die nur schwer von legitimen Nachrichten zu unterscheiden sind. Darüber hinaus ermöglichen Deepfake-Technologien die Erstellung gefälschter Video- und Audiodateien, die Führungskräfte oder andere vertrauenswürdige Personen imitieren, um finanzielle Transaktionen anzustoßen oder vertrauliche Informationen zu erlangen.
Ein weiteres Beispiel ist der Missbrauch von KI zur Automatisierung von Angriffen auf veröffentlichte Schwachstellen. Dabei durchsuchen KI-Systeme kontinuierlich das Internet nach bekannten Sicherheitslücken und starten automatisierte Angriffe, um die Schwachstellen auszunutzen, bevor Sicherheitsupdates installiert worden sind.
Eine weitere Gefahr besteht darin, dass KI für automatisierte Angriffe auf IoT-Geräte eingesetzt wird. KI-Algorithmen durchsuchen Netzwerke nach ungesicherten Geräten, die dann von Botnetzen für DDoS-Angriffe (Distributed Denial of Service) verwendet werden. Immer häufiger wird KI auch für Credential-Stuffing-Angriffe eingesetzt, bei denen gestohlene Zugangsdaten automatisiert bei verschiedenen Online-Diensten ausprobiert werden. KI arbeitet dabei sehr effizient, weil sie Anpassungen in Echtzeit vornimmt und Sicherheitsmaßnahmen umgeht. Nicht zuletzt trägt KI auch dazu bei, Malware zu entwickeln, die sich dynamisch an Sicherheitsumgebungen anpasst und dadurch schwerer zu erkennen ist.
APIs im Fokus
APIs spielen in modernen IT-Architekturen eine zentrale Rolle und sind daher ein attraktives Ziel für Cyberattacken. Angreifer nutzen KI, um systematisch nach Schwachstellen in APIs zu suchen und diese dann auszunutzen. Ein Beispiel ist der Einsatz von KI, um API-Injection-Angriffe aufzusetzen. Dabei wird Schadcode in API-Aufrufe eingeschleust, um unberechtigt auf Systeme und Daten zuzugreifen. KI-gestützte Tools testen hier automatisch verschiedene Eingabewerte und Aufrufmuster, um Sicherheitslücken zu identifizieren.
Ein weiteres Beispiel ist das Ausnutzen von API-Ratenbeschränkungen. Angreifer verwenden KI, um API-Abfragen so zu verteilen, dass sie die festgelegten Abfragelimits umgehen, ohne entdeckt zu werden. Dies kann dazu führen, dass sensible Daten in großem Umfang abgegriffen werden. Darüber hinaus zielen KI-basierte Angriffe auf die Authentifizierungsmechanismen von APIs, um Tokens zu stehlen oder Sitzungen zu kapern. Mittels KI-basierter Techniken lassen sich zudem Schwachstellen in APIs identifizieren und ausnutzen. Zum Beispiel kann ein Angreifer durch automatisierte Tests herausfinden, ob eine API unzureichende Authentifizierungs- oder Autorisierungsmechanismen aufweist, und diese Schwachstellen dann gezielt ausnutzen.
Die Schattenseiten der KI: Intransparenz und Datenschutzprobleme
Neben den direkten Angriffen gibt es einige strukturelle Probleme im Umgang mit KI. Eines davon ist die mangelnde Transparenz vieler KI-Modelle. Oft ist nicht klar, wie ein KI-System zu einer bestimmten Entscheidung kommt. Das erschwert es, Fehlentscheidungen oder Missbrauch zu erkennen und zu korrigieren. Dies bezeichnet man als Black-Box-Problem.
Ein weiteres viel diskutiertes Problem beim Einsatz von KI ist der Datenschutz als solcher. KI-Systeme benötigen große Datenmengen, um effizient zu arbeiten. Dies wirft Bedenken hinsichtlich des Schutzes der Privatsphäre auf, da personenbezogene Daten erhoben, gespeichert und verarbeitet werden müssen. Insbesondere in sensiblen Bereichen wie dem Gesundheitswesen oder dem Finanzsektor kommt dem Schutz dieser Daten höchste Bedeutung zu.
„Trotz der Risiken bietet KI im Bereich der Cybersicherheit nicht unerhebliche Vorteile. KI-Systeme können große Mengen an Sicherheitsdaten analysieren und Muster erkennen, die auf Bedrohungen hinweisen.“
Usman Choudhary, VIPRE Security Group
Der EU AI Act – die KI-Verordnung
Um den Herausforderungen und Risiken von KI zu begegnen, hat die Europäische Union den EU AI Act verabschiedet. Ziel dieses Gesetzes ist es, die Entwicklung und den Einsatz von KI-Systemen zu regulieren, insbesondere im Hinblick auf Hochrisikoanwendungen. Die KI-Verordnung legt großen Wert auf Transparenz, die Rechenschaftspflicht und den Schutz der Privatsphäre. Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen sicherstellen, dass diese den strengen Anforderungen des Gesetzes entsprechen.
Die KI-VO kategorisiert KI-Anwendungen nach ihrem Risiko und legt für jede Kategorie spezifische Anforderungen fest. Hochrisikoanwendungen wie KI-Systeme in der Medizin, im Verkehr oder in der Strafverfolgung unterliegen besonders hohen Anforderungen. Diese umfassen unter anderem die Pflicht zur Durchführung umfangreicher Risikobewertungen, die Implementierung robuster Sicherheitsmechanismen und die Sicherstellung der Nachvollziehbarkeit von KI-Entscheidungen.
Ein zentrales Element des Gesetzes ist die Verpflichtung zur Dokumentation und Offenlegung der verwendeten Datensätze und Algorithmen, um eine Überprüfung und Validierung durch die Aufsichtsbehörden zu ermöglichen. Dies soll dazu beitragen, die Transparenz zu erhöhen und das Vertrauen in KI-Systeme zu stärken. Darüber hinaus müssen Unternehmen regelmäßige Audits und Inspektionen durchführen, um die kontinuierliche Einhaltung der Vorschriften zu gewährleisten.
KI in der Cybersicherheit und sichere KI-Praktiken
Trotz der Risiken bietet KI im Bereich der Cybersicherheit nicht unerhebliche Vorteile. KI-Systeme können große Mengen an Sicherheitsdaten analysieren und Muster erkennen, die auf Bedrohungen hinweisen. Dadurch lassen sich Angriffe frühzeitig erkennen und abwehren. Zudem tragen KI-basierte Lösungen dazu bei, Schwachstellen in Systemen und Netzwerken zu identifizieren und zu beheben.
Das Konzept des „Privacy by Design“ spielt dabei eine zentrale Rolle, übrigens auch im EU AI Act. Es bedeutet, dass Datenschutz und Datensicherheit von Anfang an in die Entwicklung von KI-Systemen integriert werden. Dazu gehören unter anderem der Grundsatz der Datensparsamkeit, nach dem nur die unbedingt notwendigen Daten erhoben und verarbeitet werden. Dazu kommt die Anonymisierung und Pseudonymisierung von Daten, um die Privatsphäre der Nutzerinnen und Nutzer zu schützen. Darüber hinaus sollten robuste Sicherheitsmechanismen wie Verschlüsselung und Zugriffsmanagement implementiert werden. Diese Maßnahmen stellen sicher, dass KI-Systeme nicht nur effizient, sondern auch sicher und datenschutzkonform arbeiten.
Über den Autor:
Usman Choudhary ist General Manager und Chief Product and Technology Officer (CPTO) bei der VIPRE Security Group.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.