Prostock-studio - stock.adobe.co
Ethische künstliche Intelligenz sollte Realität werden
Künstliche Intelligenz birgt neben den zahlreichen Vorteilen auch Risiken für Wirtschaft und Gesellschaft. Um diese zu vermeiden, ist ein ethisches Rahmenwerk für KI unerlässlich.
Künstliche Intelligenz (KI) wird in einem breiten Spektrum von Branchen rasch demokratisiert und langsam in die Struktur unserer Existenz eingebettet. Dank zahlreicher Fortschritte in der Edge-KI, besserer Deep-Learning-Modelle und der Verfügbarkeit von Hochleistungsrechnern ist es möglich, bisher unvorstellbare Anwendungsfälle zu realisieren. KI trifft auch sensible Entscheidungen und Vorhersagen in Bereichen wie Recht, Personalwesen, öffentliche Verwaltung und anderen Bereichen, die immense Auswirkungen auf unzählige Menschenleben haben.
Daher ist es für Unternehmen wichtig, eine Vision und die richtige Technologie mit angemessenen Kontrollmechanismen zu entwickeln sowie geeignete Rahmenbedingungen und Richtlinien festzulegen, um Einzelpersonen, Unternehmen und die Gesellschaft vor möglichen negativen Auswirkungen der KI zu schützen.
Grundsätze und Voraussetzungen für ethische KI
Rahmenwerke und Instrumente für die Datenverwaltung: Eine Data-Governance-Struktur, welche Datenqualitätsprüfungen, Abstammungs- und Rückverfolgbarkeitsanalysen sowie Zugangskontrollen umfasst, sind unabdingbar. Investitionen in interne Beschleuniger und Lösungen für das Datenschutzmanagement wie Data Stewardship, Sicherheitsmanagement für Daten im Ruhezustand und bei der Übertragung sowie Versionsmanagement für die Nachverfolgung könnten ebenfalls die dringend benötigte Absicherung zur Vermeidung von Verstößen sein.
Erkennen von Vorurteilen: Ein unverfälschter Datensatz ist eine wichtige Voraussetzung dafür, dass ein KI-Modell zuverlässige und diskriminierungsfreie Vorhersagen machen kann. Bei einer Autoversicherung wurde festgestellt, dass Männer unter 25 Jahren standardmäßig als rücksichtslose Fahrer eingestuft wurden, was auf eine inhärente historische Verzerrung in den Datensätzen für Hautfarbe, Alter und Geschlecht zurückzuführen sein könnte.
Geeignete Instrumente für die Überprüfung der Datenqualität und die Bewertung von Modellschwächen sowie die Definition von Metriken zur Messung der Bescheidenheit von Modellen könnten einen großen Beitrag zur Aufdeckung potenzieller Schwächen leisten. Champion-/Challenger-Methoden und kontradiktorische Tests sind weitere Instrumente, die zum Arsenal der Datenwissenschaftler gehören. Bias-Tests und Abhilfemaßnahmen sollten in den Modellentwicklungsprozess selbst integriert werden, und Fachleute darin geschult werden, wie sie die Interpretierbarkeit von Modellen verbessern können, um die Überprüfbarkeit zu erhöhen.
Erklärbare und reproduzierbare KI: KI-Praktiker befassen sich auch mit erklärbarer KI (XAI), um zu verstehen, wie ein KI-Modell denkt; im Wesentlichen geht es darum, dass Menschen die von der KI getroffenen Entscheidungen oder Vorhersagen verstehen können, um Bedenken hinsichtlich Unfairness zu entkräften. XAI-Algorithmen ermöglichen Transparenz, Interpretierbarkeit und natürlich auch Erklärbarkeit. Ein weiteres Ziel ist die Reproduzierbarkeit, damit die Vorhersagen von Machine Learning(ML)-Modellen auch bei neuen Datensätzen jedes Mal konsistent sind. Werkzeuge und Prozesse zur Durchführung gründlicher Prüfungen und Was-wäre-wenn-Analysen können erklären, warum und wie sie zu bestimmten Schlussfolgerungen gelangt sind. Dadurch werden nicht nur die Bedenken der Mitarbeiter zerstreut, sondern die Unternehmen werden auch gezwungen, sorgfältig darüber nachzudenken, wie sie ihre Annahmen treffen und wie die KI zusammengesetzt wird. In ähnlicher Weise sollte ethische KI auch die Vorteile sowie die Art und Weise der Datenerhebung klar darlegen.
In kritischen Situationen muss der Mensch eingreifen: Obwohl KI-Modelle so konstruiert sind, dass sie ohne menschliches Eingreifen arbeiten können, ist in einigen Fällen, wie zum Beispiel bei der Strafverfolgung, die Beteiligung des Menschen unerlässlich. Bei mehreren Anwendungen in der Justiz wurde berichtet, dass bei Gefängnisverurteilungen durch ein KI-System die falsch-positiv-Rate für bestimmte ethische Gruppen doppelt so hoch war. Daher müssen KI-Modelle durch die Einbindung von Menschen in alle wichtigen Entscheidungsprozesse und durch einen wirksamen Backup-Mechanismus für den Fall, dass ein KI-System umgangen werden muss, risikoarm gemacht werden.
Bausteine für ein starkes ethisches KI-Fundament
Ein starker ethischer KI-Rahmen, der den lokalen Datenschutzgesetzen entspricht, könnte Ängste vor Verstößen zerstreuen und das Vertrauen in die Systeme stärken. Mehrere große Technologieunternehmen haben KI-Ethikkodizes aufgestellt, um sicherzustellen, dass ihre KI-Bemühungen fair, sozialverträglich und verantwortungsvoll sind und die Privatsphäre respektieren. Um im gesamten Ökosystem der Beteiligten Vertrauen und Verantwortlichkeit zu schaffen, sollte ein Rahmenwerk KI-Systeme nach den Kriterien Unvoreingenommenheit, Erklärbarkeit, Reproduzierbarkeit, Sicherheit und Zweckmäßigkeit beurteilen.
Der Rahmen für verantwortungsbewusste KI sollte auf sechs Grundprinzipien beruhen, um potenziell negative Auswirkungen der KI auf die Gesellschaft abzumildern und gleichzeitig die langfristige Wertschöpfung zu maximieren. Dazu gehören Inklusivität (sowohl in Bezug auf die Befähigung zur Nutzung der KI-Technologie als auch in Bezug auf die Vertretung bei der Gestaltung), gesellschaftlicher Nutzen und Nachhaltigkeit, positive Beschäftigungseffekte bei gleichzeitiger Förderung der Umschulung, Fairness durch Ablehnung sozialer Vorurteile und kultureller Verunglimpfung, Datenschutz und Privatsphäre sowie Verantwortlichkeit und Erklärbarkeit. Ein Unternehmen sollte aktiv integrative Diskussionen und Überlegungen zwischen Branchen, Gemeinschaften, Regulierungsbehörden und der Wissenschaft zu den Herausforderungen, Vorteilen, Kosten und Folgen von KI fördern und Einfluss auf eine starke Governance und Vorschriften für eine verantwortungsvolle und nachhaltige Nutzung von KI nehmen.
„ Geeignete Instrumente für die Überprüfung der Datenqualität und die Bewertung von Modellschwächen sowie die Definition von Metriken zur Messung der Bescheidenheit von Modellen könnten einen großen Beitrag zur Aufdeckung potenzieller Schwächen leisten.“
Balakrishna D. R (Bali), Infosys
Auch die Selbstregulierung ist wichtig. Interne Teams in einer Organisation müssen ausreichend befähigt sein, um den Schutz der Privatsphäre zu gewährleisten, Voreingenommenheit bei algorithmischen Entscheidungen zu verhindern und potenzielle Versehen zu vermeiden. Die Durchführung regelmäßiger Risikobewertungen ist eine gute Praxis.
In der heutigen Zeit hat KI einen enormen Einfluss auf die Umgestaltung von Wirtschaft, Gesellschaft und politischen Systemen. Daher müssen sich alle Beteiligten mit den berechtigten Bedenken hinsichtlich der Entwicklung und Umsetzung von KI-Systemen auseinandersetzen, um ein ethisches, verantwortungsvolles und nachhaltiges KI-Ökosystem zu entwickeln.
Über den Autor: Balakrishna D. R (Bali) ist Executive Vice President, Global Head AI and Automation and ECS bei Infosys.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.