phonlamaiphoto - stock.adobe.com
KI in der IT-Sicherheit: Chancen nutzen, Risiken meistern
Um den Herausforderungen zu begegnen, die der Einsatz von KI in Sachen Sicherheit mit sich bringt, sollten Unternehmen einige entscheidende Aspekte beachten.
Künstliche Intelligenz (KI) ist aus der heutigen Cybersicherheit nicht mehr wegzudenken, stellt Unternehmen aber vor Herausforderungen. Sie ist zu einem zweischneidigen Schwert geworden: Einerseits verlangen Unternehmen zunehmend nach leistungsfähigen, (teil-)automatisierten Lösungen, die ihre Effizienz steigern und ihre IT-Teams entlasten. Andererseits entstehen zugleich neue Cyberbedrohungen durch KI-Manipulationen und Datenverletzungen.
Wie können also Unternehmen KI-Technologien optimal und sicher zu ihrem Nutzen einsetzen?
Die dunkle Seite der KI: Komplize der Cyberkriminellen
Die Auswirkungen der zunehmenden Nutzung von KI durch Cyberkriminelle sind schon heute alarmierend. Erstens hat GenAI die Einstiegshürde für Cyberkriminelle drastisch gesenkt. Sogar Anfänger ohne Programmierkenntnisse können nun mit Hilfe von Large Language Models (LLMs) Malware entwickeln, während erfahrene Angreifer durch die Nutzung von KI Zugang zu neuen, fortgeschrittenen Fähigkeiten erhalten und ihre Angriffe noch effektiver gestalten können.
Zweitens beschleunigt KI die Ausnutzung von Software-Schwachstellen. Sobald eine Sicherheitslücke bekannt wird, können Cyberkriminelle diese dank KI schneller identifizieren und ausnutzen, als viele Unternehmen Patches und Updates implementieren können. KI ermöglicht auch die Entwicklung ausgefeilter Phishing-Angriffe. Statt E-Mails mit offensichtlichen Fehlern wie krude Rechtschreibung oder holprige Grammatik zu versenden, auf die Unternehmen ihre Mitarbeiter oft bereits schulen, können Angreifer nun personalisierte E-Mails erstellen, die den Schreibstil und die spezifischen Themen des kompromittierten Absenders perfekt imitieren und selbst erfahrene Benutzer täuschen.
Darüber hinaus erweitert KI das Arsenal der Cyberkriminellen um neue Werkzeuge und Fähigkeiten, die traditionelle Cybersecurity-Maßnahmen untergraben können. Beispielsweise schulen Unternehmen ihre Mitarbeiter darin, auf betrügerische E-Mail-Anfragen zu reagieren, indem sie den vermeintlichen Absender telefonisch oder per Video kontaktieren, um dessen Identität und die Rechtmäßigkeit der Anfrage zu überprüfen. Cyberkriminelle können nun jedoch KI-generierte Sprach- und Video-Imitationen nutzen, um diese Sicherheitskontrollen zu umgehen.
Zudem ermöglicht KI eine Diversifizierung der Angreifer und ihrer Ziele. KI-gestützte Datenanalysetechniken eröffnen Cyberkriminellen neue Möglichkeiten, Datenbestände zu analysieren und Schwachstellen aufzudecken. Während früher nur Staaten über die notwendige Rechenleistung und Infrastruktur verfügten, um große Datenmengen auszuwerten, haben die KI-Revolution im Data Mining und die zunehmende Verfügbarkeit von Cloud-Computing-Ressourcen dazu geführt, dass auch Kriminelle ohne staatliche Unterstützung auf diese Möglichkeiten zugreifen können. Dadurch werden unterschiedlichste Datenbestände zu attraktiven Angriffszielen für eine breitere Gruppe von Akteuren.
KI im Dienste der Cyberabwehr
Aber auch auf Seiten der Verteidiger eröffnet KI neue Möglichkeiten zur intelligenten und automatisierten Abwehr von Angriffen, auch wenn diese selbst KI-gestützt sind. Cyberangriffe sind selten auf Anhieb erfolgreich. Angreifer verlassen sich darauf, dass ihre fehlgeschlagenen Versuche in der Flut von Warnmeldungen untergehen, die in einem Security Operations Center (SOC) eingehen. KI kann dabei helfen, anomale Aktivitäten zu erkennen, Angriffe zu identifizieren, in Echtzeit darauf zu reagieren und die restliche IT-Infrastruktur vor weiteren Angriffen zu schützen.
Trotz der Vorteile von KI für die Cyberabwehr stehen Unternehmen bei der Nutzung von KI im Geschäftsleben vor weiteren Herausforderungen. Ein zentrales Problem ist die Tatsache, dass die in GenAI-Abfragen enthaltenen Daten Teil des Datensatzes werden, mit dem die Modelle trainiert werden. Weitere Probleme umfassen Urheberrechtsverletzungen, die Offenlegung personenbezogener Daten, die unbewusste Verwendung voreingenommener oder anstößiger Daten sowie KI-Halluzinationen - also plausibel klingende, aber inhaltlich falsche Ausgaben.
„GenAI ist zur neuesten Form der „Schatten-IT“ geworden, mit der sich CISOs und CIOs auseinandersetzen müssen.“
Peter Schill, Fortinet
Viele Unternehmen sind daher vorsichtig im Umgang mit generativer KI. Häufig verstehen die Mitarbeiter die Gründe für diese Zurückhaltung nicht und machen sich keine Gedanken über die implementierten Sicherheitsvorkehrungen. Sie sind es gewohnt, GenAI im privaten Umfeld zu nutzen und experimentieren damit auch am Arbeitsplatz. GenAI ist somit zur neuesten Form der „Schatten-IT“ geworden, mit der sich CISOs und CIOs auseinandersetzen müssen.
Best Practices für den verantwortungsvollen Einsatz
Um KI erfolgreich und sicher im Unternehmen einzusetzen und gleichzeitig die Cybersicherheit zu gewährleisten, sollten IT-Verantwortliche die folgenden Best Practices berücksichtigen:
- Private Umgebung: Unternehmen können ein grundlegendes KI-Modell in einer privaten Umgebung betreiben, um Trainingsdaten und Ausgaben isoliert zu halten. Dies bietet zwar weniger Flexibilität als dynamische „Live“-LMM-Daten, gewährleistet jedoch, dass sensible Unternehmensdaten nicht nach außen gelangen.
- Retrieval-Augmented Generation: Diese Methode verwendet validierte externe Daten, um die Genauigkeit von KI-Modellen zu verbessern, ohne dass zusätzliche Trainingsdaten eingegeben werden müssen. Dadurch werden Sicherheits- und Genauigkeitsrisiken reduziert.
- Data Loss Prevention: Unternehmen können Data-Loss-Prevention-Maßnahmen als Filter für Eingaben in öffentliche LLMs einsetzen, um Datenlecks zu verhindern.
- Strenge Zugriffskontrollen: Der Zugriff auf bestimmte Datensätze sollte auf autorisierte Benutzer beschränkt werden.
- Datenschutztechnologien: Unternehmen sollten Technologien wie Datenmaskierung (Hinzufügen von „Rauschen“ oder Entfernen von identifizierenden Details - Anonymisierung), verschlüsselte Datenverarbeitung (homomorphe Verschlüsselung, Multiparty Computation), föderierte/verteilte Analyse zentral gespeicherter Daten (Verarbeitungseinheiten können den Inhalt nicht sehen) und Data Accountability Tools (benutzerdefinierte Kontrolle) einsetzen.
- Datenvolumen: Je mehr Daten bereitgestellt werden, desto höher ist das Risiko von Datenlecks. Daher sollte die Menge der bereitgestellten Daten kritisch hinterfragt werden.
- Schulungen: Mitarbeiter sollten im Umgang mit KI-Modellen geschult werden, um Best Practices, Compliance-Anforderungen und Bedrohungen zu verstehen.
Grundsätzlich ist es entscheidend, den Markt sorgfältig zu analysieren und mit Anbietern zusammenzuarbeiten, deren Sicherheitsstandards den eigenen Anforderungen entsprechen. Unternehmen sollten den Dialog mit ihrem GenAI-Anbieter suchen und die Anwendungsfälle unter Berücksichtigung der Datensicherheit anpassen. Dabei ist es wichtig, Datenschutz- und Sicherheitseinstellungen zu überprüfen und zu klären, ob Daten manuell oder zeitgesteuert gelöscht werden können und ob Abfragen mit anonymisierten Daten möglich sind. Das Gleiche gilt für die Nutzung von Drittanbieter-Apps oder SaaS-Lösungen mit integrierter GenAI.
KI zum strategischen Vorteil machen
KI-getriebene Innovationen durchdringen die gesamte Technologielandschaft. Unternehmen, die KI-Technologien nicht strategisch in ihre Cybersecurity-Maßnahmen integrieren, riskieren, gegenüber Angreifern, die KI einsetzen, an Boden zu verlieren. Richtig eingesetzt, unterstützt KI Security-Teams dabei, ihre Cybersicherheit proaktiv und sicher zu gestalten.
Ein wichtiger Aspekt ist dabei die Nutzung von vernetzten Security-Mesh-Architekturen. Diese bieten die Möglichkeit, die Größe und Komplexität der digitalen Umgebung, die bisher eine Herausforderung für Security-Teams darstellte, in einen Vorteil umzuwandeln. Durch die Vernetzung von Sensoren in einer gemeinsamen Architektur können Netzwerkbetreiber und Cybersecurity-Verantwortliche Daten in Echtzeit generieren, analysieren und mithilfe von KI und ML in Echtzeit auf Bedrohungen reagieren.
Über den Autor:
Peter Schill ist Manager Systems Engineering bei Fortinet.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.