NicoElNino - Fotolia

Warum Standards und Zertifizierungen für die KI wichtig sind

Verschiedene Gremien und Institute wie das Fraunhofer Institut arbeiten an der Entwicklung von KI-Standards. Wir erklären, welche Faktoren hier wichtig sind und wie KI geprüft wird.

Dass künstliche Intelligenz nicht nur Vorteile bringt, sondern auch Schattenseiten hat, ist bekannt. Falsche KI-Resultate, verstärkte Vorurteile oder krimineller Missbrauch sind nur einige dieser gefährlichen Bereiche. Aus diesem Grund sind Standards wichtig, um eine Prüfgrundlage für KI-Systeme zu haben, mit denen die Qualität und die Leistungsfähigkeit dieser Systeme und ihrer Daten festgestellt und bewertet werden kann. Da sich KI- und ML-Technologien stetig entwickeln, werden auch diese Standards stets geprüft und angepasst. Dabei müssen die agierenden Gremien den Spagat zwischen Regulierung und Innovationspotenzial zu schaffen. Im Gespräch mit Dr. Maximillian Poretschkin, Leiter der AG Prüfung und Zertifizierung von KI am Fraunhofer Institut konnte die Computerweekly.de-Redaktion einige interessante Faktoren über Standardisierungsaktivitäten erfahren. Das Wichtigste ist in diesem Beitrag zusammengefasst.

Standards sind notwendig, dürfen aber nicht einschränken

Laut Poretschkin beginnt eine Standardisierung immer mit der Begriffserklärung, was im Bereich der künstlichen Intelligenz und des maschinellen Lernens nicht immer einfach ist. Es geht darum, allgemeingültige Anforderungen in Normen und Standards zu definieren. Die Standards sollen Qualitätsanforderungen an Tools, Prozesse und Einsatzbereiche der KI festlegen. Die wiederum sind Basis für praktikable KI-Prüfungen.

Ebenso wird der Status Quo eines Standards ermittelt, falls bereits einer vorhanden ist. Es erfolgt die Vorlage einer technischen Spezifikation und die Veröffentlichung der Textentwürfe zum Standard. Je nach Gremium können mehrere hunderte Experten an einem Standardisierungsprozess beteiligt sein, darunter Forschungsinstitute, Unternehmen, Hersteller, Stiftungen oder Wissenschaftler.

Bei einer Standardisierung wird in der Regel nicht der KI-Algorithmus geprüft, sondern der jeweilige Anwendungsfall. Die Standards regulieren dabei weniger das KI-System, als die Datensätze, mit denen es arbeitet, so dass jedes beliebige Gerät diesen Datensatz nutzen kann. Das Resultat ist dann, die Feststellung, welche Qualitätsanforderungen das System letztlich erfüllen muss. So kann beispielsweise ein Chatbot als harmlos eingestuft werden, während eine KI im medizinischen Umfeld als riskante oder hochriskante Lösung kategorisiert werden könnte. Die Normung je nach Einsatzgebiet ist wichtig, da sonst die Standards zu eng zugeschnitten werden könnten und den Mehrwert einer KI-Lösung einschränken oder zunichte machen. 

Ziel der KI-Standards und der KI-Forschung ist es, Systeme mit künstlicher Intelligenz abzusichern und für die Gesellschaft und Wirtschaft nutzbar zu machen. In dem Zusammenhang muss auch der geplante AI Act der Europäischen Union in Betracht gezogen werden, der mit Sicherheit Auswirkungen auf kommende KI-Standards haben wird. 

Der Arbeitskreis KI-Qualität und Prüfverfahren hat bereits einige Spezifikationen zu künstlicher Intelligenz herausgegeben, darunter:

  • Technische Spezifikation zu KI-Risiken / Künstliche Intelligenz – Qualitätsanforderungen und -prozesse – Risikoschema für KI-Systeme im gesamten Lebenszyklus (DIN/TS 92004)
  • Spezifikation zur Erklärbarkeit von KI-Systemen / Künstliche Intelligenz - Life Cycle Prozesse und Qualitätsanforderungen - Teil 3: Erklärbarkeit (DIN SPEC 92001-3)
  • Spezifikation zur Unsicherheitsbewertung von ML-Modulen / Künstliche Intelligenz - Quantifizierung von Unsicherheiten im Maschinellen Lernen (DIN SPEC 92005)

KI-Standards sind auch dafür konzipiert, Vertrauen bei Anwendern und von Auswirkungen Betroffenen zu schaffen. Dem Fraunhofer Institut ist es wichtig, dass diese Standards zur Etablierung der Marke KI made in Germany voranzutreiben. Dafür wurde das Projekt Zertifizierte KI vom Forschungsinstitut ins Leben gerufen. In diesem Projekt wurden sieben Dimensionen der Vertrauenswürdigkeit herausgearbeitet:

  • Ethik und Recht
  • Autonomie und Kontrolle
  • Fairness
  • Transparenz
  • Verlässlichkeit
  • Sicherheit
  • Datenschutz

Innerhalb dieses Projektes werden über mehrere Handlungsfelder hinweg eine Zertifizierung herausgearbeitet. Dazu gehören:

  • Festlegung von Qualitätsfaktoren für vergleichbare Prüfungen
  • Untersuchung des wirtschaftlichen Potenzials von KI-Zertifizierung und die Entwicklung von Geschäftsmodellen
  • Verschiedene Anwenderkreise einbeziehen (Verbände, Wirtschaft, Industrie, Forschung)
  • Aufbau eines Prüfökosystems (Tools und Konzeption von Prüflaboren) 
  • Berücksichtigen von rechtlichen, ethischen und gesellschaftlichen Faktoren

Da der Bereich der künstlichen Intelligenz sehr umfassend und komplex ist, entstehen Standards nicht über Nacht. Zudem stehen wir derzeit erst am Anfang der technologischen Möglichkeiten für KI und ML, sodass in Zukunft weitere Normen und Zertifizierungen unausweichlich sind.

KI-Prüfkatalog des Fraunhofer Instituts

Das Forschungsinstitut hat bereits einen Prüfkatalog für künstliche Intelligenz herausgegeben. Dieser soll Entwickler bei der Gestaltung und KI-Prüfer bei der Evaluation und Qualitätssicherung von KI-Anwendungen unterstützen. Der Katalog soll laut Fraunhofer Institut einen Leitfaden zur Gestaltung vertrauenswürdiger KI darstellen, der anwendungsspezifische Prüfkriterien bereitstellt. Der Katalog bezieht sich auf die oben genannten sieben Bereiche und betrachtet die Risiken jedes einzelnen. Zudem listet der Leitfaden eine Reihe relevanter KPIs auf, um Zielvorgaben quantifizieren zu können. Ebenso finden Anwender hier Tipps, wie sich eine strukturierte Dokumentation technischer und organisatorischer Aktivitäten anlegen lässt und dies über den gesamten Lebenszyklus der KI-Lösung. Damit soll gewährleistet werden, dass die KI-Lösungen dem aktuellen Stand entsprechen und dass KI-Risiken abgeschwächt werden können. Der 163-seitige Prüfkatalog ist kostenfrei auf der Webseite des Instituts einzusehen und herunterladbar.

KI erschafft ein neues Job-Profil: den KI-Prüfer

Durch die Notwendigkeit von KI-Standrads und Prüfungsvorgaben entstehen zwangsläufig auch neue Arbeitsbereiche, zum Beispiel der des KI-Prüfers. Im Prinzip entsteht hier eine gesamte Prüfindustrie, die neue Stellenprofile schafft. Die Prüfer müssen vor allem wissen, welche Qualität die jeweilige Lösung aufweisen muss, um eine gesunde KI bereitzustellen. Langfristig müssen laut Poretschkin Möglichkeiten geschaffen werden, die eine Automatisierung von Prüfprozessen zulässt.

Das Fraunhofer Institut definiert den Prüfprozess in vier Schritten:

  • Risikoanalyse
  • Festlegung von Zielvorgaben
  • Auflistung von Maßnahmen
  • Argumentation, ob die Ziele erreicht wurden

Die Erstellung von KI-Standards ist ein langfristiges Unterfangen und Organisationen wie das Fraunhofer Institut werden hier in den kommenden Jahren noch viel Arbeit erledigen müssen. Zudem werden neue Ausbildungsmöglichkeiten geschaffen, um vertrauenswürdige KI-Prüfer zu trainieren und dem Markt zur Verfügung zu stellen.

Erfahren Sie mehr über Data Governance