peshkova - stock.adobe.com

Künstliche Intelligenz: Fluch und Segen in der Cyberabwehr

KI kann bei der Abwehr und Erkennung von Bedrohungen hilfreiche Unterstützung bieten. Kriminelle wissen die Technologie allerdings auch ganz trefflich für ihre Zwecke einzusetzen.

Künstliche Intelligenz ist aus der heutigen Geschäftswelt nicht mehr wegzudenken: Durch ihren Einsatz können Datenmengen in Echtzeit analysiert und fundierte Handlungsempfehlungen abgeleitet werden. Maschinelles Lernen und fortschrittliche Algorithmen ermöglichen es der KI, wiederkehrende Prozesse zu automatisieren, komplexe Muster zu erkennen und Entscheidungsprozesse zu beschleunigen – entscheidende Hebel zur nachhaltigen Steigerung der Effizienz und Skalierbarkeit von Unternehmensabläufen.

Trotz der zahlreichen Optimierungsmöglichkeiten, die KI bietet, bringt ihr Einsatz auch Risiken mit sich – besonders im Bereich der Cybersicherheit. Während KI das Potenzial hat, Angriffe schneller zu erkennen und abzuwehren, eröffnet sie zugleich neue Angriffsflächen. So können dieselben Algorithmen, die Unternehmen schützen sollen, von Cyberkriminellen zweckentfremdet werden, um Schwachstellen zu finden und Sicherheitsmaßnahmen zu umgehen. Stark gefährdet ist vor allem die Identitäts- und Zugriffsverwaltung diverser IT-Strukturen, da unzureichende Sicherheitsmaßnahmen Angreifern den Zugang zu sensiblen Daten ermöglichen.

Die vielschichtige Rolle der KI: Chancen und Risiken

Künstliche Intelligenz bietet immense Möglichkeiten zur Abwehr von Cyberangriffen, indem sie Bedrohungen frühzeitig identifiziert und automatisiert darauf reagiert. Gleichzeitig wird sie jedoch von Cyberkriminellen genutzt, um Schwachstellen in Systemen aufzudecken und Angriffe gezielter und effektiver durchzuführen. Technologien wie Machine Learning (ML) und Deep Learning ermöglichen es Angreifern, präzise und schwer erkennbare Attacken zu starten, indem sie KI-Modelle trainieren, um bestehende Sicherheitsbarrieren zu überwinden.

Laut einer aktuellen Studie des Digitalverbands Bitkom wurden 8 von 10 deutschen Unternehmen in den vergangenen zwölf Monaten Opfer von Cyberangriffen, wobei die Schäden auf rund 267 Milliarden Euro geschätzt werden. Diese Zahlen verdeutlichen die Dringlichkeit der Bedrohung. Trotz einer fortschrittlichen Cybersicherheitsinfrastruktur in Deutschland nehmen die Angriffe kontinuierlich zu – nicht zuletzt aufgrund der Fähigkeit der Angreifer, KI zur Entwicklung neuer Angriffsmethoden zu nutzen.

Die Schattenseiten der KI: Methoden der Cyberkriminalität

Cyberkriminelle nutzen KI auf vielfältige Weise, um ihre Ziele zu erreichen. Zu den gängigsten Methoden gehören:

Deepfakes und automatisiertes Phishing: KI-basierte Technologien wie generative KI (GenAI) werden verwendet, um täuschend echte Deepfakes zu erstellen. Diese synthetischen Inhalte können in Form von Audiospuren, Bildern oder Videos auftreten und werden genutzt, um Identitäten zu fälschen oder Menschen gezielt zu manipulieren. Spear Phishing stellt eine gezielte Form des Phishings dar, bei der Angreifer personalisierte Nachrichten an spezifische Personen oder Organisationen senden. Im Gegensatz zu allgemeinen Phishing-Angriffen, die an viele Empfänger gerichtet sind, nutzen diese Angreifer Informationen über das Ziel, um die Nachrichten glaubwürdiger zu machen. Spear Phishing, unterstützt durch KI, erhöht die Erfolgsquote solcher Angriffe, indem personalisierte E-Mails generiert werden, die präzise auf den Empfängerkontext zugeschnitten sind.

Codegenerierung und -anpassung: Large Language Models (LLMs) können bösartigen Code erstellen oder bestehende Schadsoftware modifizieren, um Erkennungssysteme zu umgehen. Selbst Angreifer mit geringen technischen Kenntnissen haben so die Möglichkeit, komplexe Cyberangriffe durchzuführen. Dies eröffnet eine völlig neue Dimension der Bedrohung, da Angriffe schneller und zielgerichteter erfolgen können. Gleichzeitig zeigt sich ein weiteres Risiko im Einsatz von LLM-unterstützten Incident-Response-Tools: Fehler in der Abfrage können dazu führen, dass diese Modelle Sicherheitsvorfälle unvollständig analysieren, weil relevante Informationen übersehen werden. Dadurch entstehen potenzielle Sicherheitslücken, wenn beispielsweise wichtige Daten für eine vollständige Bedrohungsbewertung fehlen, was die Effektivität des Incident-Management-Prozesses gefährdet.

Data Poisoning: Cyberkriminelle nutzen „vergiftete Daten”, um schädliche Daten in die Trainingssätze von KI-Modellen einzuschleusen. Dies beeinträchtigt die Genauigkeit und Zuverlässigkeit der Modelle, was in sicherheitsrelevanten Bereichen ernsthafte Folgen haben kann. Verzerrte Vorhersagen können dazu führen, dass wichtige Bedrohungen übersehen oder unwichtige Risiken überbewertet werden. Besonders im Customer Identity and Access Management (CIAM) kann dies zu falschen Bewertungen im Role-Mining führen, wodurch Cyberrisiken nicht richtig erkannt und gesichert werden. Solche manipulierten Daten erhöhen die Fehlerquote und gefährden die Effektivität von Incident-Management und Bedrohungserkennung.

Synthetische Identitäten: Mithilfe von GenAI lassen sich sogenannte synthetische Identitäten erstellen. Diese bestehen aus einer Kombination gestohlener, echter und erfundener Daten. Sie können für verschiedene Betrugsmaschen verwendet werden, wie etwa zur Täuschung von Identitätsprüfungen oder zur Durchführung unberechtigter Transaktionen. Unternehmen stehen vor der wachsenden Herausforderung, diese komplexen Angriffe zu erkennen, da synthetische Identitäten häufig nur subtile Unterschiede zu legitimen Profilen aufweisen. Die Notwendigkeit, robuste und dynamische Sicherheitsstrategien zu entwickeln, um diese Bedrohungen frühzeitig zu identifizieren und zu neutralisieren, ist dringlicher denn je.

Chat-basierte Interfaces und unabhängige KI-Agenten: Der Wandel von klassischen Benutzeroberflächen zu chatbasierten Interfaces und autonomen KI-Agenten wird immer relevanter. Diese digitalen Helfer können alltägliche Aufgaben wie Reservierungen oder Finanzberatung im Namen der Nutzer erledigen. Allerdings bringt diese Entwicklung neue Herausforderungen für die IT-Sicherheit mit sich. Es besteht das Risiko, dass diese Agenten missbraucht werden oder Entscheidungen treffen, die Sicherheitslücken und Datenschutzprobleme zur Folge haben. Daher ist es entscheidend, bestehende Sicherheitsstrategien zu überprüfen und Schwachstellen zu schließen, um möglichen Missbrauch durch Cyberkriminelle zu verhindern.

Stephan Schweizer, Nevis

„Künstliche Intelligenz ist ein zweischneidiges Schwert in der Cybersicherheit. Sie bietet erhebliche Vorteile für Verteidigungsstrategien, aber ebenso für die Entwicklung neuer Angriffsmethoden.“

Stephan Schweizer, Nevis

Angesichts dieser Bedrohungen wird deutlich, wie entscheidend eine effektive Identitäts- und Zugriffsverwaltung ist.

CIAM als Schlüssel zur Resilienz

Angesichts der komplexen Bedrohungen ist es für Unternehmen wichtiger denn je, ihre Sicherheitsstrategien zu überdenken und sich proaktiv gegen KI-gestützte Angriffe zu wappnen. CIAM-Lösungen bieten hier eine effektive Möglichkeit, um Kundendaten und Zugangspunkte zu sichern und so potenzielle Angriffspunkte zu minimieren.

Moderne CIAM-Systeme integrieren KI-gestützte Mechanismen zur Erkennung und Abwehr von Bedrohungen. Diese Lösungen analysieren kontinuierlich Identitätssignale, um verdächtige Aktivitäten frühzeitig zu identifizieren und zu blockieren.

Durch die Kombination von KI und CIAM können Unternehmen flexibel auf neue Bedrohungen reagieren und die Sicherheit ihrer digitalen Infrastruktur nachhaltig verbessern.

Multifaktor-Authentifizierung (MFA) und passwortlose Logins gewährleisten ein hohes Maß an Sicherheit, ohne dabei die Benutzerfreundlichkeit zu beeinträchtigen. Diese Prozesse sind entscheidend, um Phishing-Angriffe abzuwehren, die zunehmend durch KI automatisiert werden.

Proaktive Strategien für die Cybersicherheit der Zukunft

Künstliche Intelligenz ist ein zweischneidiges Schwert in der Cybersicherheit. Sie bietet erhebliche Vorteile für Verteidigungsstrategien, aber ebenso für die Entwicklung neuer Angriffsmethoden. Um dieser Dynamik entgegenzuwirken, müssen Unternehmen auf intelligente Sicherheitslösungen setzen, die KI zur Prävention und Abwehr nutzen. Die Zukunft der Cybersicherheit wird davon abhängen, wie effektiv Unternehmen Technologien wie CIAM einsetzen, um sich gegen die wachsenden Bedrohungen zu schützen. Indem sie KI und CIAM kombinieren, können sie sicherstellen, dass ihre Systeme nicht nur reaktiv, sondern proaktiv vor Bedrohungen geschützt sind.

Über den Autor:
Stephan Schweizer ist Chief Executive Officer bei Nevis.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)