Sergey Nivens - stock.adobe.com

Generative KI: Sicherheitsrisiken und Schutzmaßnahmen

Bei generativen KI-Systemen müssen Unternehmen geeignete Security-Maßnahmen zu ergreifen, um die Funktionalität der Lösungen selbst sowie die Qualität ihrer Ergebnisse zu schützen.

Eine funktionierende und effektive generative KI benötigt mehrere Ressourcen. Dazu gehören die zur Bereitstellung von Diensten erforderliche Infrastruktur, Trainingsdaten, KI-Modelle und die von den Modellen erzeugten Ergebnisse.

Die Infrastruktur umfasst Hardware wie Server und Grafikprozessoren für Berechnungen sowie Software-Frameworks für die Entwicklung, das Training und den Einsatz von Modellen. Hinzu kommen die digitalen Schnittstellen, über die von der KI erzeugte Ergebnisse an die Nutzer übermittelt werden. Nur eine zuverlässige, hochleistungsfähige und sichere Infrastruktur ermöglicht anspruchsvolle generative KI-Modelle mit Mehrwert.

Trainingsdaten bestehen in der Regel aus einem vielfältigen und repräsentativen Satz von Beispielen. Diese kann das Modell nutzen, um die zugrunde liegenden Muster, Stile oder Merkmale zu verstehen, die es erfassen soll. Die Qualität, Quantität und Vielfalt der Trainingsdaten bestimmen maßgeblich die Fähigkeiten generativer KI-Modelle.

KI-Modelle sind ein grundlegender Bestandteil jeder generativen KI. Sie sind darauf ausgelegt, Muster und Beziehungen innerhalb der Trainingsdaten zu erlernen und auf Basis dieses Verständnisses neue Ergebnisse zu erzeugen. Die Architektur, Parameter und Struktur dieser Modelle sind zentrale Komponenten zur Generierung neuer Inhalte.

Die Ergebnisse von generativer KI können für Unternehmen sehr wertvoll sein. Bearbeitet durch menschliche Experten verbessern sie die Kreativität, Erstellung von Inhalten, Datenanreicherung und strategischen Entscheidungen.

Resistente Infrastruktur

Für die Infrastruktur gibt es zahlreiche Bedrohungen, aber auch entsprechende Schutzmaßnahmen. Hier sind zwei wichtige Beispiele dargestellt.

Unterbrechung von Diensten: Eine der größten Bedrohungen für KI-Infrastrukturen ist Denial of Service (DoS). Dadurch bedingte Hardware-Fehlfunktionen, Softwarepannen oder Netzwerk-Unterbrechungen können den Betrieb von generativen KI-Modellen erheblich beeinträchtigen. Dies führt bis zum Ausfall von Diensten und zum Verlust wichtiger Daten, so dass das Modell nur noch eingeschränkt lernen, Ergebnisse erzeugen oder Schnittstellen zu anderen Systemen nutzen kann. Zum Schutz vor solchen DoS-Angriffen müssen Unternehmen Redundanz in das System einbauen, etwa in Form von Backup-Servern und ausfallsicheren Protokollen, um eine dauerhafte Verfügbarkeit zu gewährleisten. Eine regelmäßige Aktualisierung von Software und Hardware vermeidet Schwachstellen. Darüber hinaus ermöglicht die ständige Überwachung der Systemleistung und -kapazität eine frühzeitige Erkennung und rasche Behebung von Problemen.

Unbefugter Zugriff: Das böswillige Eindringen in die Systeminfrastruktur kann zu Datendiebstahl, Unterbrechung von Diensten oder Einfügen von schädlichem Code führen. Für die Abwehr ist ein vielseitiger Sicherheitsansatz entscheidend. Dieser umfasst robuste Authentifizierungsprotokolle, proaktives Schwachstellenmanagement einschließlich regelmäßiger Software-Updates, kontinuierliche Überwachung zur frühzeitigen Angriffserkennung, Intrusion Prevention und eine gut formulierte Strategie zur Incident Response.

Zuverlässige Trainingsdaten

Unternehmen müssen für geeignete und widerstandsfähige Trainingsdaten sorgen.

Datenqualität und mögliche Verzerrungen: Die Qualität und die Auswahl der Trainingsdaten wirken sich direkt auf generative KI-Modelle aus. Dazu gehören Risiken im Zusammenhang mit Training Data Poisoning sowie einer übermäßigen Abhängigkeit von LLM-generierten Inhalten. Eine hohe Datenqualität und die Vermeidung von KI-Bias erfordern eine gründliche Vorbereitung wie die Bereinigung, Normalisierung und Erweiterung der Daten. Es gibt geeignete Techniken zur Erkennung und Abschwächung von Verzerrungen. Darüber hinaus reduzieren robuste Mechanismen die Gefahr von Fehlern und Data Poisoning. Es ist auch wichtig, menschliche Experten als zusätzliche Ebene der Überwachung und Anpassung einzubinden.

Verletzung von geistigem Eigentum: Die unbefugte Nutzung oder unsachgemäße Beschaffung von Trainingsdaten kann Urheberrechte oder Rechte an geistigem Eigentum verletzen. Mögliche Folgen für Unternehmen sind juristische Klagen, Rufschädigung oder der Verlust vertraulicher Daten.

Klare Datennutzungsrichtlinien, die Einholung ordnungsgemäßer Rechte und Genehmigungen für die Trainingsdaten sowie die Durchführung einer gründlichen Due-Diligence-Prüfung gewährleisten die Einhaltung der Gesetze zum Urheberrecht und zum geistigen Eigentum. Zudem schützen Unternehmen die rechtlichen Interessen aller Beteiligten.

Datenschutz und -sicherheit: Wie bei anderen geschäftskritischen Daten gibt es auch bei der Speicherung und Bearbeitung von Trainingsdaten für KI-Modelle Risiken bezüglich der Datensicherheit, einschließlich Datenlecks. In diesem Fall können unbefugte Zugriffe oder böswillige Angriffe den Schutz sensibler Informationen gefährden.

Daher sind robuste Sicherheitsmaßnahmen erforderlich. Verschlüsselung und strenge Zugangskontrollen tragen zum Schutz der Daten bei. Regelmäßige Sicherheitsprüfungen decken potenzielle Schwachstellen auf, um sie schnell zu beheben. Fortgeschrittene Methoden wie differentieller Datenschutz und Federated Learning fügen weitere Schutzebenen hinzu, ohne das KI-Training zu behindern.

Sichere KI-Modelle

Angriffe wie Prompt Injection, Server Side Request Forgery (SSRF) oder unautorisierte Codeausführung stellen eine erhebliche Bedrohung für generative KI-Modelle dar. Unternehmen müssen sich aber auch vor dem Diebstahl von Modellen schützen.

Prompt Injection: Angreifer können die Eingaben des Modells manipulieren, indem sie sorgfältig ausgearbeitete Prompts einspeisen. Diese bringen das Modell dazu, bisherige Anweisungen zu ignorieren oder verbotene Aktionen auszuführen. Techniken wie Prompt Sanitization, Eingabevalidierung und Prompt-Filterung stellen sicher, dass das Modell nicht durch böswillig erstellte Prompts manipuliert wird. So bleibt die Integrität der erzeugten Ergebnisse gewahrt.

Server-Side Request Forgery: Mit dieser Methode lassen sich unerwünschte Anfragen ausführen oder geschützte Ressourcen unbefugt nutzen. Dies ermöglicht etwa den Zugriff auf interne Systemschnittstellen. Zur Reduzierung von SSRF-Schwachstellen sollten eingehende Anfragen sorgfältig validiert und bereinigt werden. Zusätzlich sind strenge Sicherheitsmaßnahmen für das Netzwerk zu ergreifen, einschließlich Netzwerkisolierung und ordnungsgemäße Firewall-Konfigurationen, die Anfragen beschränken.

Unautorisierte Code-Ausführung: Hier wird das KI-Modell ausgenutzt, um schädlichen Code oder bösartige Aktionen auf dem zugrunde liegenden System auszuführen. Das Risiko für unautorisierte Code-Ausführung reduzieren sichere Codierungspraktiken, gründliche Codeüberprüfungen und Laufzeitschutz wie Code-Sandboxing. Diese Maßnahmen sorgen dafür, dass das KI-Modell auf einer sicheren Code-Basis läuft und unbefugte Aktionen eingeschränkt werden.

Diebstahl oder Replikation von KI-Modellen: Durch einen unbefugten Zugang zu den Parametern, der Architektur oder den Trainingsdaten des Modells lässt es sich stehlen oder kopieren. Dies verletzt das geistige Eigentum und verhindert einen Wettbewerbsvorteil durch das Modell. Eine Kombination aus robusten Zugangskontrollen, Verschlüsselung und sicherer Speicherung verhindert den Diebstahl oder die Vervielfältigung von Modellen. Zusätzlich können Techniken wie Wasserzeichen oder Digital Rights Management das geistige Eigentum des Modells schützen. Regelmäßige Überwachung und Audits spielen eine entscheidende Rolle bei der schnellen Erkennung und Reaktion auf unbefugte Zugriffsversuche.

Jordan Zebor, F5

„Generative KI kann ganze Branchen revolutionieren. Doch sie bringt auch Herausforderungen für die Sicherheit mit sich. In Zukunft müssen Unternehmen wachsam bleiben, möglichen Bedrohungen proaktiv voraus sein und weiterhin widerstandsfähige Systeme aufbauen.“

Jordan Zebor, F5

Geschützte Ergebnisse

Die von generativen KI-Modellen erzeugten Ergebnisse sind ebenfalls anfällig für zahlreiche Bedrohungen.

Agentenmanipulation: Die Manipulation von RAG-Modellen (Retrieval Augmented Generation) oder Anwendungen, die auf Frameworks wie Langchain basieren, bergen komplexe Risiken für deren Integrität und Zuverlässigkeit. Dazu gehören die Veränderung einer oder mehrerer am Informationsgewinnungsprozess beteiligter Faktoren, die Einspeisung verzerrter oder irreführender Informationen sowie in einigen Fällen die absichtliche Ausführung des von LLMs erzeugten Codes. Um der Manipulation von Agenten entgegenzuwirken, ist ein mehrschichtiger Sicherheitsansatz erforderlich. Er umfasst die Implementierung robuster Zugangskontrollen, Prüfmechanismen und Systemen zur Isolierung und Ressourcenverwaltung. Diese Maßnahmen verhindern unbefugte Manipulationen, gewährleisten die Zuverlässigkeit des Systems und schränken die potenzielle Verbreitung von bösartigem Code ein.

Kompromittierte Modell-Lieferkette: Der Einsatz vortrainierter Modelle in KI-Systemen kann zu vielen Risiken in Bezug auf die Lieferkette führen. Zum Beispiel besteht die Möglichkeit, dass kompromittierte oder bösartige Modelle in KI-Systeme integriert werden. Unternehmen sollten mit Hilfe strenger Prüfverfahren dafür sorgen, dass sie nur Modelle aus vertrauenswürdigen Quellen auswählen, sowie eine gründliche Due-Diligence-Prüfung zur Bewertung der Security-Prozesse durchführen. Geeignete Maßnahmen sorgen für die sichere Übertragung und Speicherung der Modelle, strenge Zugangskontrollen und regelmäßige Sicherheitsaudits. Die Transparenz sollte durch Modelldokumentation, Codeüberprüfung und unabhängige Audits gefördert werden. Hilfreich wäre auch, wenn die KI-Community ihr Wissen teilt und Standards entwickelt, um die Integrität und ethische Verwendung von vortrainierten Modellen zu gewährleisten.

Fehlinformationen und gefälschte Inhalte: Die Ergebnisse generativer KI-Modelle können zwar überzeugend aussehen, aber gefälscht sein, etwa aufgrund von Prompt Injections. Damit täuschen und manipulieren böswillige Akteure die öffentliche Meinung. Dies führt zu erheblichen Risiken für das Vertrauen, den Ruf und die Integrität von Informationsquellen. Und je mehr Internetinhalte von KI-Systemen erzeugt werden, desto eher entsteht eine Rückkopplungsschleife, in der KI-generierte Inhalte die KI-Modelle von morgen trainieren. Robuste Mechanismen zur Überprüfung von Inhalten, Faktenchecks und Sicherheitsmaßnahmen wie die Abwehr von Prompt Injections verhindern die Veröffentlichung von Fehlinformationen und gefälschten Inhalten, die von KI-Modellen stammen. Auch dieses Problem erfordert eine übergreifende Zusammenarbeit der KI-Community und weitere Forschung.

Ein Blick in die Zukunft

Generative KI kann ganze Branchen revolutionieren. Doch sie bringt auch Herausforderungen für die Sicherheit mit sich. In Zukunft müssen Unternehmen wachsam bleiben, möglichen Bedrohungen proaktiv voraus sein und weiterhin widerstandsfähige Systeme aufbauen. Nur wer die Ressourcen vollständig versteht und schützt, kann den Weg für einen sicheren, vertrauenswürdigen und ethischen Einsatz der generativen KI ebnen.

Über den Autor:
Jordan Zebor ist F5 Distinguished Engineer bei F5.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Anwendungs- und Plattformsicherheit