Kiattisak - stock.adobe.com
EU AI Act entschlüsselt: Vorschriften einhalten, ohne Innovationen einzuschränken
Der europäische AI Act ist eine Richtlinie, wie Firmen KI einsetzen dürfen. Manche Unternehmen fürchten Innovationsverlust. Das lässt sich durch sinnvolle Planung verhindern.
Die Auswirkungen von künstlicher Intelligenz (KI) auf die Zukunft – gesellschaftlich wie wirtschaftlich – werden momentan häufig diskutiert. Besonders die Unwägbarkeiten des Themas verunsichern viele Menschen. Aber nicht nur die Technologie entwickelt sich sehr schnell weiter, sondern auch die rechtlichen Rahmenbedingungen. Gesetzgeber müssen sich mit einer Vielzahl komplexer Fragen befassen, von denen viele nur im Zusammenhang mit KI auftreten. Dies vergrößert die allgemeinen Herausforderungen weiter.
Das EU-KI-Gesetz gestaltet die Technologie-Szene um und legt den Schwerpunkt auf die ethische Nutzung von künstlicher Intelligenz (KI). Es zielt darauf ab, KI sicherer und transparenter zu machen – und es gleichzeitig mehr auf die Bedürfnisse der Menschen auszurichten. Entsprechend müssen Unternehmen ihre Strategien anpassen, um Vorschriften einzuhalten, gleichzeitig aber auch innovativ zu bleiben.
Die Einzelheiten des EU-KI-Gesetzes
Das EU-KI-Gesetz verfolgt einen abgestuften risikobasierten Ansatz. Es klassifiziert KI-Systeme und legt verschiedene Aufsichtsebenen fest. Insgesamt unterscheidet es vier Kategorien.
- Verbotene Anwendungsszenarien: KI, die die Menschenrechte bedroht. Hierzu gehören beispielsweise Social Scoring, biometrische Überwachung in Echtzeit und verdeckte Manipulation menschlichen Verhaltens.
- Extrem risikoreiche Anwendungsszenarien: KI, die erheblichen Schaden anrichten könnte. Darunter sind zum Beispiel prädiktive Polizeiarbeit, Werkzeuge zur Entscheidungsfindung im Beschäftigungsbereich und biometrische Fernidentifizierung zusammengefasst.
- Begrenztes Risiko: KI-Anwendungen, die bestimmte Standards einhalten müssen, aber weniger stark reguliert sind. Dazu gehört unter anderem das Erstellen von Inhalten im Unterhaltungsbereich.
- Geringes/kein Risiko: KI mit geringem bis kein Risiko, wie Chatbots im Bildungsbereich oder Wettervorhersagen. Dieser Bereich ist weitgehend unreguliert.
Das Gesetz führt Vorschriften für allgemeine KI (GPAI) oder Basismodelle wie GPT-4, Gemini, Llama oder Bloom sowie große KI-Modelle ein, die Transfer-Lernen verwenden. Eine wichtige Unterkategorie von GPAI, die erhebliche Auswirkungen haben wird, sind solche mit einem sogenannten systemischem Risiko. Das Gesetz formuliert Kriterien, um GPAI mit Systemrisiken zu identifizieren, sowie für den zusätzlichen Compliance-Aufwand. Während viele der Kriterien eindeutig sind, könnten einige allerdings zu Diskussionen führen. Indem das Gesetz Systemrisiko-GPAIs gesondert behandelt, reduziert es den Compliance-Aufwand für andere Modelle – und schafft so ein Gleichgewicht zwischen Risikomanagement und Innovation. Unternehmen, die Modelle mit einem systemischen Risiko nutzen, müssen bestimmte Anforderungen erfüllen und die Genehmigung der EU-KI-Behörden einholen. Insbesondere bei Open-Source-Basismodellen ist die Einhaltung der Vorschriften weniger streng.
Compliance großgeschrieben
Der Umgang mit dem EU-KI-Gesetz stellt für Unternehmen eine große Herausforderung dar – auch aufgrund der komplexen Compliance-Anforderungen, die sie entschlüsseln müssen. Dazu gehört beispielsweise die Kontrolle, nachdem das KI-Modell live gegangen ist. Dies erhöht die betrieblichen Belastungen. Sie geben Anwender und Behörden aber ein positives Gefühl bei der Nutzung der Systeme. Sobald die EU-Kommission eine Vorlage für diese Kontrollpläne erstellt hat, wird der Weg für KI-Anbieter deutlich transparenter sein. Darüber hinaus sind gut formulierte Schutzmaßnahmen, um KI-Systeme unter realen Bedingungen außerhalb der regulatorischen Sandbox zu erproben, eine weitere Vorgabe, die ein Gleichgewicht zwischen Risiken und Innovation schafft.
Die finale Fassung des Gesetzes führt auch einen neuen Marktteilnehmer ein, der als nachgeschalteter Anbieterbezeichnet wird – eine willkommene Ergänzung, die potenzielle Konflikte zwischen Partnerorganisationen in der KI-Wertschöpfungskette verhindern soll. Je nachdem, wie eng die Zusammenarbeit zwischen den Partnerorganisationen ist, gibt es jedoch Raum für Diskussionen darüber, wer in bestimmten Kontexten sicherstellen muss, dass die Vorschriften eingehalten werden.
Auf Seiten der Unternehmen liegt die Verantwortung dafür herauszufinden, wie sie KI-Systeme anpassen. Darüber hinaus benötigen sie qualifiziertes Personal für die KI-Governance. Dies ist ebenso notwendig, wie ein Gleichgewicht zwischen Compliance und Innovation herzustellen und über Investitionsprioritäten zwischen Technologie-, Talent- oder Rechtsstrategien zu entscheiden, um diese Anforderungen effektiv zu erfüllen.
Ein innovationsfreundliches Ökosystem fördern
Führungskräfte in Unternehmen sollten das EU-KI-Gesetz als Chance sehen, ethische Innovationen zu fördern und nicht nur die Compliance zu erfüllen. Dazu gehört, dass sie eine umfassende Compliance-Strategie entwickeln, die sich an der KI-Governance orientiert. Darüber hinaus sollten Unternehmen ein ethisches KI-Rahmenwerk aufbauen, das die Unternehmenswerte und Kundenerwartungen widerspiegelt. Schulungen eines funktionsübergreifenden Teams zu rechtlichen und ethischen Standards sind enorm wichtig. So lässt sich gewährleisten, dass Vorschriften eingehalten werden – und gleichzeitig der Wettbewerbsvorteil durch verantwortungsvolle Innovationen eine Stärkung erfährt.
„Das EU-KI-Gesetz ist von zentraler Bedeutung, da es die globale KI in Richtung ethischer Governance und internationaler Zusammenarbeit vorantreibt. Zu Beginn der Ära der KI-Regulierung muss Compliance als rechtliche und ethische Pflicht angesehen werden. Nur so lassen sich digitale Umgebungen schützen, menschliche Werte respektieren und eine Zukunft fördern, in der Innovation und Ethik nebeneinander bestehen.“
Balakrishna D. R. (Bali), Infosys
Partner in der KI-Wertschöpfungskette sollten sich der Verantwortung bewusst sein, die das Gesetz den Anbietern, Importeuren und Vertreibern auferlegt, wenn sie wesentliche Änderungen an einem KI-System mit hohem Risiko vornehmen. Dies gilt auch, wenn sie den Verwendungszweck verändern und es dann ein KI-System mit hohem Risiko wird. Dies erfordert, dass alle Partner der Wertschöpfungskette und nicht nur die KI-Anbieter starke KI-Governance-Systeme einführen.
Während die Industrie dieses Neuland betritt, ist ein Fokus auf die Grundsätze verantwortungsvoller KI (Responsible AI, RAI) sehr wichtig. So lässt sich gewährleisten, dass die Innovationen ethisch und gesetzeskonform sind. Unternehmen sollten die wichtigsten Praktiken anwenden, um RAI reibungslos in ihre Abläufe zu integrieren:
- Automatisierte Überprüfungen als Teil des Workflows: Automatisierte Prüfungen sollten in Arbeitsabläufe integriert sein, um Überprüfungen und Governance zu rationalisieren. So lässt sich die Agilität aufrechterhalten, während bei Hochrisikoszenarien angemessene Prüfstufen angewendet werden.
- Umfassende Sichtbarkeit: Transparenz über den Status von KI-Modellen, potenziellen Bedrohungen und Abhilfemaßnahmen angesichts der sich weiterentwickelnden KI-Technologie gewährleisten.
- Proaktives Markt- und Risiko-Scanning: Unternehmen sollten eine Funktion einrichten, die neue Vorschriften ebenso beobachten wie Bedrohungen und Innovationen. Gleichzeitig dient das Scanning als Frühwarnsystem, aus dem sich KI-Strategien ableiten lassen.
- RAI by Design über den gesamten KI-Lebenszyklus hinweg: RAI-Prinzipien von Beginn an verankern, indem KI-Prozesse unter Berücksichtigung von Risikoaspekten neu gestaltet und rechtzeitige menschliche Eingriffe sichergestellt werden.
- Geschäftsleitung muss unterstützen: Führungskräfte sollten sich für RAI einsetzen, Unterstützung und Ressourcen bereitstellen und sich über Trends und Herausforderungen für die strategische Planung auf dem Laufenden halten.
- RAI-Ökosystem aufbauen: Aufbau eines umfangreichen Partner-Ökosystems. Dazu gehören Berater, Lösungsanbieter und Startups. So lassen sich RAI-Strategien an die jeweiligen Bedürfnisse anpassen.
- Spezialisierte RAI-Fähigkeiten entwickeln: Entwicklung von Spezialkenntnissen durch Schulungsprogramme, Partnerschaften und innovationsorientierte Veranstaltungen fördern.
- Gleichgewicht zwischen Leistung und Schutz: Gleichgewicht zwischen betrieblicher Effizienz und Risikominderung schaffen. Damit sind die Integrität und Zuverlässigkeit von KI-Anwendungen gewährleistet.
- Sichtweise auf RAI verändern: RAI als strategische Notwendigkeit behandeln. Sie muss in die Kernpraktiken und Werte integriert sein, um ethische KI-Fortschritte zu gewährleisten.
Unternehmen, die KI-Technologien einsetzen, sollten verantwortungsbewusst vorgehen. Der erste Schritt ist, KI-Risiken und Compliance zu bewerten und darauf basierend verantwortungsvolle KI-Modelle zu entwickeln. Dabei können sie Beratungsdienste in Anspruch nehmen. Diese Praktiken helfen der Industrie, ethisch zu innovieren und die Vorschriften einzuhalten.
Globaler Regulierungsstandard, der Ethik und Innovation in Einklang bringt
Das EU-KI-Gesetz ist von zentraler Bedeutung, da es die globale KI in Richtung ethischer Governance und internationaler Zusammenarbeit vorantreibt. Unternehmen, Innovatoren und politische Entscheidungsträger müssen die KI-Vorschriften angleichen, um ethische Praktiken zu einer globalen Norm zu machen. In naher Zukunft wird die nächste Stufe der Richtungen entstehen, wenn Standardisierungsorganisationen harmonisierte Standards entwickeln, die die gesetzlichen Verpflichtungen in konkrete technische Anforderungen umsetzen.
Zu Beginn der Ära der KI-Regulierung muss Compliance als rechtliche und ethische Pflicht angesehen werden. Nur so lassen sich digitale Umgebungen schützen, menschliche Werte respektieren und eine Zukunft fördern, in der Innovation und Ethik nebeneinander bestehen.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.