gunayaliyeva - stock.adobe.com
Ethische KI braucht eine hohe Qualität der Daten
Das Potenzial künstlicher Intelligenz kann nur durch die Kombination von qualitativ hochwertigen Daten und strengen Governance-Mechanismen ausgeschöpft werden.
Wir befinden uns mitten in einer der größten Perioden der Datengenerierung, und diese Datenflut schafft neue Möglichkeiten für die Bereitstellung von Entscheidungsintelligenz in großem Maßstab. Jedes moderne Unternehmen, unabhängig von seiner Größe, produziert große Mengen an Daten. In diesem Zeitalter der Intelligenz geht es jedoch nicht mehr darum, wie viele Daten ein Unternehmen generieren kann, sondern darum, wie es diese Daten nutzt, um den größtmöglichen Wert aus ihnen zu ziehen.
Heutzutage sind Unternehmen mit makroökonomischem Gegenwind konfrontiert. Führungskräfte suchen daher ständig nach Innovationen, um ihre Teams zu unterstützen. Für sie geht es nicht mehr nur darum, auf Veränderungen zu reagieren, sondern ihnen proaktiv zu begegnen, indem sie die knapper werdenden Ressourcen ausschöpfen. Daten der jüngsten CEO-Umfrage von PwC zeigen, dass mehr als die Hälfte (57 Prozent) in die Verbesserung der Fähigkeiten ihrer Teams investieren wollen. Zugleich sind sogar 86 Prozent der CEOs in Deutschland bereit, Prozesse und Systeme zu automatisieren, während 71 Prozent auf KI-, Cloud- und weitere technologische Lösungen setzen.
Die Anwendung von künstlicher Intelligenz zur Lösung von Geschäftsproblemen wird in allen Branchen immer beliebter. Ein Grund dafür ist, dass sie die zeitlichen und fachlichen Hürden für aussagekräftige Datenanalysen senkt und mehr Menschen in die Lage versetzt, wichtige Fragen schnell zu beantworten. Inmitten dieser Entwicklung hin zur Automatisierung sich wiederholender Aufgaben stellt sich jedoch die Frage: Warum tun sich manche Unternehmen schwer mit der KI-gestützten Entscheidungsfindung und wie können wir uns auf die Richtigkeit dieser KI-Ergebnisse verlassen?
Der Kern der Herausforderung
Künstliche Intelligenz war einst eine Domäne der Datenwissenschaftler und hat sich mittlerweile demokratisiert. Es wird prognostiziert, dass das Bruttoinlandsprodukt von Deutschland bis 2030 um über 11 Prozent steigen kann, was rund 430 Milliarden Euro entspricht.
Dennoch herrscht nach wie vor ein generelles Misstrauen gegenüber KI und viele Unternehmen sind nach wie vor skeptisch, was den Nutzen von KI angeht. Diese Skepsis hat viele Ursachen – eine davon ist die analytische Unreife. Nach Angaben des International Institute for Analytics (IIA) befindet sich die Mehrheit der Unternehmen immer noch im Zeitalter der Tabellenkalkulation. Auf einer Skala von 5 weisen sie nur einen durchschnittlichen Analyse-Reifegrad von 2,2 auf, welcher sich durch unzureichenden Datenzugriff und -qualität sowie minimale Governance kennzeichnet. Dieser Umstand wird unweigerlich zu einem Nährboden für verzerrte KI-Erkenntnisse.
Der Aufbau von KI mit Integrität
Mögliche Verzerrungen von KI-Erkenntnissen zeigen sich beispielsweise anhand des folgenden Szenarios: Ein Team benötigt ein KI-Modell, das auf eine bestimmte Aufgabe zugeschnitten ist. Die Informationen, die dem Team vorliegen, sind vielleicht eine unbearbeitete Liste von Lebensläufen aus den vergangenen zehn Jahren und keine sorgfältig kuratierten Datensätze. Solche Daten können unbeabsichtigte Verzerrungen enthalten. In der Technologiebranche kann es zum Beispiel zu einer geschlechtsspezifischen Verzerrung aufgrund früherer Einstellungspraktiken kommen. Dies hebt drei entscheidende Kriterien für ethische KI hervor:
- Die Daten zur Einspeisung in die KI sollten zunächst zugänglich sein.
- Sie sollten über eine ausreichend repräsentative Qualität verfügen, um valide Erkenntnisse zu liefern.
- Datenteams sollten diese Daten schließlich effizient aufbereiten und bereitstellen – und zur Analyse weitergeben.
„Wir stehen an der Schwelle zu einer transformativen KI-Ära. Dabei ist klar, dass das Aufeinanderstapeln von Technologien allein nicht ausreichen wird, um vertrauenswürdige oder ethisch vertretbare Erkenntnisse in großem Maßstab zu gewinnen.“
Peter Fuhrmann, Alteryx
Jede Abteilung, die zu dieser Datenpipeline beiträgt, muss über ein solides Verständnis des ethischen Umgangs mit Daten verfügen, um Verzerrungen zu vermeiden. Aus geschäftlicher Sicht gibt es mehr als 20 mathematische Definitionen von Fairness – die Entscheidung, welche davon das Unternehmen für eine geschäftliche Sachverhalt heranzieht, sollte nicht allein dem Entwicklerteam überlassen werden.
Auf dem Weg zu einer vorurteilsfreien KI-Ära
Unternehmen müssen sich des inhärenten Risikos bewusst sein, das mit der Verwendung unvollständiger oder nicht konformer und möglicherweise mit alten Vorurteilen behafteten Daten verbunden ist. Es gilt sicherzustellen, dass KI unsere veränderliche ethische Landschaft genau widerspiegelt.
Dafür ist es unerlässlich, bereits in der Phase der Datenerhebung, bestimmte Mechanismen einzuführen, die Voreingenommenheit erkennen und verschiedene Perspektiven einbeziehen. Auf diese Weise wird das Bewusstsein für potenzielle Probleme geschärft. Außerdem ermöglicht dies wichtige Anhaltspunkte für diejenigen, die den Daten am nächsten sind, um Unstimmigkeiten frühzeitig zu erkennen und zu beheben. Dadurch schaffen Unternehmen eine robuste Strategie zur Aussortierung verzerrter Daten, bevor sie die KI-Modelle beeinflussen.
Wir stehen an der Schwelle zu einer transformativen KI-Ära. Dabei ist klar, dass das Aufeinanderstapeln von Technologien allein nicht ausreichen wird, um vertrauenswürdige oder ethisch vertretbare Erkenntnisse in großem Maßstab zu gewinnen. Das wahre Potenzial der KI kann nur durch die Kombination von qualitativ hochwertigen Daten, vielfältiger menschlicher Intelligenz und strengen Governance-Mechanismen ausgeschöpft werden.
Über den Autor:
Peter Fuhrmann ist RVP Sales Central Eastern & Europe bei Alteryx.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.