phonlamaiphoto - stock.adobe.com

Leitfaden für die Entwicklung sicherer KI-Systeme

Beim Einsatz von KI-Systemen ist es wichtig, dass diese sicher geplant, umgesetzt und eingeführt werden. Ein Leitfaden internationaler Sicherheitsbehörden soll dabei helfen.

Mit dem Leitfaden „Guidelines for Secure AI System Developmen“ richten sich die internationalen Cybersicherheitsbehörden in erster Linie an Betreiber von KI-Systemen. Insgesamt wird der Leitfaden von 23 Cybersicherheitsbehörden aus 18 Ländern unterstützt. Daran mitgewirkt hat auch das BSI (Bundesamt für Sicherheit in der Informationstechnik). Mit dabei sind beispielsweise Behörden aus den USA, Frankreich oder dem Vereinigten Königreich.

Zielgruppe des Leitfadens sind in erster Linie Organisationen, die KI-Produkte betreiben. Dabei sei es unabhängig, ob die Betreiber die verwendeten Modelle selbst hosten oder über APIs nutzen. Die Verfasser empfehlen die Lektüre des Leitfadens jedoch allen Beteiligten am Einsatz von KI-Systemen, sprich beispielsweise auch Entwicklern, Data Scientists und Entscheidungsträgern.

So will das Dokument beispielsweise die spezifischen Schadensanfälligkeiten aufzeigen, die mit dem Einsatz von KI einhergehen. So beschäftigt sich der Leitfaden auch mit den neuen Arten von Schwachstellen, denen KI-Systeme ausgesetzt sind. Und wie diese Anfälligkeiten in der Entwicklung entsprechender Systeme berücksichtigt werden können. So hätten Endanwender meist keine Einblicke, um die Risiken, die mit KI verbunden sind, nachzuvollziehen. Daher fordern die Behörden auch, dass die Betreiber von KI-Systemen die Anwender zu möglichen Risiken informieren müssen. Zudem müsse gezeigt werden, wie sie die Systeme sicher nutzen können.

„Das BSI gestaltet die Cybersicherheit bei der Entwicklung von KI-Systemen von Anfang an mit. So können wir sicherstellen, dass wir die Potenziale dieser Schlüsseltechnologie für die Digitalisierung Deutschlands sicher nutzen und Risiken transparent kommunizieren. Bei den Nutzerinnen und Nutzern sorgt das für mehr Vertrauen und insgesamt für eine höhere Cyberresilienz der Gesellschaft. Ich freue mich, dass wir international dafür an einem Strang ziehen.", so BSI-Präsidentin Claudia Plattner.

Das 20-seitige PDF-Dokument „Guidelines for Secure AI System Development“ in englischer Sprache kann hier kostenlos heruntergeladen werden. Abseits der Security-Behörden haben auch eine Reihe von Organisationen und Unternehmen dazu beigetragen, wie etwa das Stanford Center for AI Safety, das Georgetown University Center for Security and Emerging Technology, OpenAI, Amazon, Microsoft und Google.

Erfahren Sie mehr über Anwendungs- und Plattformsicherheit