andreusK - stock.adobe.com
Die Gratwanderung zwischen künstlicher Intelligenz und Ethik
Softwareentwickler werden immer häufiger mit der Frage konfrontiert: Wie lassen sich ethische Vorgaben in Algorithmen für künstliche Intelligenz umsetzen?
Dass Computer und elektronische Systeme selbständig Entscheidungen treffen, ist mittlerweile eine ihrer größten Funktionen. Das fängt bei einer Lichtschranke an, die eine Aktion auslöst, sobald der Lichtstrahl unterbrochen wird. Setzt sich über die Berechnung der Steuerschulden oder von Lieferzeiten fort. Und gipfelt mittlerweile in komplexen Entscheidungen, wie sie zum Beispiel von Autopiloten getroffen werden.
Mit dem Vordringen von künstlicher Intelligenz und selbstlernenden Algorithmen in Bereiche, die bisher Menschen vorbehalten waren, ist allerdings eine Diskussion über Qualität, Maßstäbe und Legitimation der Computerentscheidungen entbrannt.
Vier Probleme mit neuen Algorithmen
Im Wesentlichen lässt sich diese Diskussion in vier Bereiche aufteilen: die Sicherheit der Systeme und ihrer Algorithmen, die Nachprüfbarkeit der Entscheidungen, Rechts- und Haftungsfragen sowie ethische und moralische Regeln, nach denen die Algorithmen komplexe, auf künstlicher Intelligenz basierende Entscheidungen treffen.
Was das Thema Sicherheit angeht, wird das Problem wie bei bisher entwickelten Systemen angegangen. Ob Fertigung, Verwaltung oder Endprodukte – alles ist angreifbar. Es gibt weder in der realen noch in der virtuellen Welt eine absolute Sicherheit.
Schwieriger ist die Nachprüfbarkeit. Solange selbstlernende Systeme bei ihrem Lernprozess nur die in Datenbanken gespeicherten Kriterien oder Parameter anpassen, ist die Nachprüfbarkeit gegeben. Schwieriger ist es, wenn die Algorithmen selbständig ihren Code verändern. Hierzu bedarf es neuer Protokolle und Logdatei-Sicherungen, aus denen nicht nur die Änderungen, sondern auch die Ursachen und Abläufe für die Modifikationen erkennbar sind.
Wer haftet für den Algorithmus?
Die beiden ersten Bereiche gehören in die Kategorie technische Herausforderungen. Komplizierter wird es mit den beiden anderen Bereichen: Haftung und Ethik. „Entwickler und Product Owner dürfen nicht aus der Verantwortung entlassen werden. Sie müssen dafür in die Pflicht genommen werden, dass auch lernende Systeme kein Unheil anrichten“, ist Professor Klaus Lenk von der Universität Oldenburg überzeugt.
Professor Jörn von Lucke von der Universität Friedrichshafen geht noch einen Schritt weiter: „Der Abschluss von Haftpflichtversicherungen gegen Fehlentscheidungen autonomer Systeme kann helfen, die Risiken, die Haftung und die Rechtskosten zu begrenzen.“
Völlig ungeklärt ist auch, wie sich Vorurteile, die unethische oder unmoralische Entscheidungen der neuen KI-Systeme zur Folge haben, verhindern lassen.
Im Grunde sind datenbasierte Vorurteile weder neu noch ein Phänomen der modernen IT-Welt. Menschen empfinden Sympathie oder Antipathie auf den ersten (oder zweiten) Blick. Diese direkten emotionalen Reaktionen können in Bruchteilen von Sekunden erfolgen. Bisher ist aber nicht wissenschaftlich geklärt, wie diese emotionalen Prozesse ablaufen.
Computerprogramme sind menschengemacht, also können sie ebenfalls nicht unfehlbar sein. „Wenn schon die menschliche Intelligenz dem Trugschluss von Vorurteilen unterliegt, wie soll die wesentlich dümmere künstliche Intelligenz dagegen gefeit sein“, sagt der Physiker und Philosoph Eduard Kaeser.
Wie Vorurteile in Algorithmen entstehen
Wie „dumm“ manche Algorithmen sein können, musste Google vor einiger Zeit erfahren. Der IT-Konzern sah sich mit Rassismusvorwürfen konfrontiert, nachdem die Gesichtserkennungstechnologie des Online-Services Google Fotos mehrere farbige Menschen als Gorillas gekennzeichnet hatte. Zwar konnte das Problem mit weiteren Trainingsrunden gelöst werden, doch der Fall zeigt, dass Programme Vorurteile haben können. Eine Reihe von Studien haben inzwischen untersucht, dass es zahlreiche programmierte Vorurteile im Handel, bei der Personalauswahl, bei Sicherheitskontrollen und sogar in der Polizeiarbeit gibt.
In der Business-Welt kann Diskriminierung aber nicht nur geschäftliche Nachteile bringen, sondern auch rechtliche Konsequenzen haben. Um die Probleme der Algorithmen zu verstehen, muss man sich die Entstehung dieser Programme anschauen.
„Software ist erst einmal unvoreingenommen, doch die Daten, mit denen sie gefüttert wird, können verzerrend wirken“, sagt Stephen Brobst, CTO beim KI-Anbieter Teradata. Diese Verzerrung kann zwei Ursachen haben: Entweder ist das gewählte Sample nicht repräsentativ oder es spiegelt bereits vorhandene Vorurteile wider.
Der erste Fall zeigt sich in der Gesichtserkennung von Google. Dem Deep-Learning-Algorithmus wurden mehr Fotos von hellhäutigen als von dunkelhäutigen Gesichtern gezeigt. Das System funktionierte somit bei der Erkennung von dunkelhäutigen Gesichtern schlechter als bei Personen mit heller Hautfarbe.
Der zweite Fall lässt sich am Beispiel von Amazon ablesen: das Unternehmen bemerkte, dass ihre Software zur Auswahl von Bewerbern weibliche Kandidaten unberücksichtigt ließ. Der Grund: der Algorithmus verarbeitete historische Daten, bei denen mehr Männer als Frauen angestellt wurden.
Programme entscheiden über Leben und Tod
Aber auch vorsätzliche Programmieranweisungen können zu Verzerrungen oder ethisch bedenklichen Entscheidungen führen. Das zeigt das hypothetische Beispiel eines autonom fahrenden Automobils, das an einem Zebrastreifen zwei Fußgänger auf jeder Straßenseite erkennt. Beide betreten gleichzeitig die Fahrbahn. Für ein Bremsmanöver ist es zu spät, nur ausweichen hilft. Welche Entscheidung trifft der Algorithmus?
Über dieses und ähnliche Beispiele gab es bereits zahlreiche Diskussionen. Doch die Antwort ist relativ einfach: Erstens, wer hat jemals in seiner Fahrpraxis einen solchen Fall erlebt? Nur sehr wenige. Zweitens, alle Verkehrsexperten sind sich einig, dass auch ein Mensch in diesem Moment keine rationale, wohlüberlegte Entscheidung treffen kann. Das Ergebnis ist also rein zufällig.
Algorithmen: Spiegelbild oder Wunschbild
Mit anderen Worten: Wir erwarten von intelligenten Computern eine höhere Moral, als wir sie von Menschen fordern. Daran zeigt sich das Grunddilemma von KI und Ethik: Sollen die neuen Algorithmen die Welt so abbilden, wie sie ist, also mit all ihren Schwächen, Ungerechtigkeiten und Problemen? Oder wollen wir uns mit den neuen Algorithmen eine andere, bessere Welt bauen? Eine Welt, die so ist, wie wir sie uns wünschen?
Im ersten Fall müssen Programmierer mit dem Vorwurf kämpfen, dass sie den Status quo mit ihren Algorithmen zementieren. Der zweite Fall führt aber unmittelbar zu der Frage: Welche Welt wünschen wir uns?