phonlamaiphoto - stock.adobe.com
Welche sozialen Auswirkungen Machine Learning haben kann
Entscheidungen auf Basis von Machine-Learning-Systemen bergen das Risiko von verzerrten Ergebnissen. Wie sich das Risiko mit verschiedenen Tools verkleinern lässt.
Die Einbindung von Machine Learning (ML) in die Entscheidungsfindung birgt das Risiko von voreingenommenen oder verzerrten Ergebnissen. Wer mit Machine Learning Tools arbeitet – und das sind nicht nur Data Scientists – hat großen Einfluss auf unsere zukünftige Welt. Dieser Einfluss lässt sich aber ausnutzen und man kann Modelle trainieren, mit deren Hilfe der positive soziale Wandel beschleunigt wird.
Um Vorurteile und verzerrte Daten in allen Bereichen zu reduzieren, können zahlreiche Schritte unternommen werden. Angefangen bei der Datenerfassung und -verarbeitung über die Entwicklung von Machine-Learning-Modellen bis hin zur Nutzung von Algorithmen.
Bei der Datenerfassung müssen wir uns bewusst machen, dass alle Daten in irgendeiner Weise verzerrt sind. Wir müssen also darauf achten, wie sorgfältig wir die Daten sammeln.
Gegenüber vorhandenen Daten ist eine gesunde Skepsis angebracht, denn oft ist unklar, wie und nach welchen Gesichtspunkten sie erfasst wurden. Nur wenn wir uns einer möglichen Verzerrung von Daten bei ihrer Erfassung bewusst sind und diese im Blick haben, sind wir in der Lage, das Risiko zu mindern. Zu diesem Zweck stehen verschiedene Tools zur Verfügung, zum Beispiel die Data Ethics Canvas des Open Data Institute oder das Toolkit Ethical OS.
Daten filtern und ergänzen
Auch über die rechtlichen Auswirkungen sollte man sich im Klaren sein. Manchmal kann das Filtern der Daten die Genauigkeit oder Zweckmäßigkeit eines Machine-Learning-Modells erhöhen. Bestimmte Daten oder Informationen zu ignorieren, fällt Menschen schwer – Maschinen hingegen können Daten ohne weiteres vergessen.
Manchmal eignen sich Machine-Learning-Modelle erst dann für einen gewissen Zweck, wenn wir die fehlenden Daten hinzufügen. Vielfalt in Teams kann dabei helfen, ein Machine-Learning-Modell zu entwickeln, das seinen Zweck und die Akzeptanzkriterien erfüllt. Wenn die Teammitglieder die Nutzergruppen eines Produkts besser reflektieren, kann dies die Qualität des Produkts verbessern.
Zusätzlich kann auf das Tool Tarot Cards Of Tech zurückgegriffen werden. Hiermit kann man den Einfluss einer Technologie für die Zukunft abschätzen. Dies kann außerdem mit Visualisierungs-Tools für Machine-Learning-Datensätze wie Google Facets und Facets Dive kombiniert werden, um grafisch darzustellen, was oder wer tatsächlich in einer Datenmenge vertreten ist.
Beobachtung und Rechtfertigung
Wie eine Entscheidung von einem Machine-Learning-Modell getroffen wird, ist oft eine undurchsichtige Blackbox. Damit man sich auf ein Modell verlassen kann, ist es wichtig, seine Funktionsweise zu verstehen. Tools wie L.I.M.E. ermöglichen es, die Blackbox zu öffnen – unabhängig von den verwendeten Algorithmen oder deren Implementierung. Das What-If-Tool der Google-Initiative PAIR oder AI Fairness 360 von IBM sind Tools, die uns helfen zu sehen, wo Ungenauigkeiten von unterrepräsentierten Gruppen auftreten.
Wenn die Daten ein Modell ergeben, das seinerseits in einer Entscheidung resultiert, ist das eine Sache. Wenn diese Entscheidung aber ein Ergebnis zur Folge hat, das weitere Input-Daten erzeugt, haben wir einen Kreislauf. Wenn wir eine Verzerrung in den Daten nicht von vornherein beseitigen, verstärkt sich das Problem automatisch. So können die Verzerrungen selbstständig existieren, was die Sache gefährlicher macht. Daher muss man genau darauf achten, welche Merkmale oder Eigenschaften verstärkt werden, um negative Feedback-Schleifen zu verhindern oder sogar positive Auswirkungen auf die Gesellschaft zu fördern.
Wir können aus den Erfahrungen anderer Branchen lernen, zum Beispiel der Pharmaindustrie. Nutzer müssen bei Risiken und Nebenwirkungen informiert und gewarnt werden. Manchmal sind sogar Beschränkungen nötig, damit Machine-Learning-Produkte keinen Schaden verursachen. Als Gesellschaft sind wir in der Lage, bessere Produkte und bessere Regulierung für diese zu verlangen. Maschinen können deutlich schneller aktualisiert werden, als Veränderungen in einer Gesellschaft ablaufen. Diesen Vorteil kann man ausnutzen.
Zusammenfassung
Daten sind nie uneingeschränkt objektiv. Es muss immer erkennbar sein, wer die Daten mit welcher Absicht erhoben hat. Das gilt es im Hinterkopf zu behalten. Die vorhandenen Daten müssen sorgfältig behandelt werden. Wir können die Daten, die wir unseren Modellen zuführen, bewusst filtern oder ergänzen, wenn sie nicht repräsentativ sind. Wir können uns in die Lage der Personen versetzen, die nicht im Raum sind und Überlegungen anstellen, wie sich unsere Produkte auf sie auswirken können.
„Maschinen können deutlich schneller aktualisiert werden, als Veränderungen in einer Gesellschaft ablaufen. Diesen Vorteil kann man ausnutzen.“
Fiona Coath, ThoughtWorks
Mithilfe von Tools wie L.I.M.E. kann man die Blackbox öffnen und herausfinden, wie und warum die entwickelten Tools eigentlich funktionieren. Außerdem kann man sich vergegenwärtigen, dass das, was für Menschen lediglich Code ist, letztlich zu einem Produkt wird und sich auf die zukünftige Gesellschaft auswirkt. Wir können uns vor Augen halten, dass weiterhin bestehende Verzerrungen schlicht automatisiert werden. Dabei kann man aus den Erfahrungen und Lösungsansätzen anderer Branchen lernen.
Der Vortrag Social implications of Bias in Machine Learning von Fiona Coath, der als Grundlage für diesen Artikel dient, kann im folgenden Video angesehen werden:
Über den Autor:
Fiona Coath entwickelt Software und ist derzeit Senior Consultant Developer bei ThoughtWorks. Sie löst gern Probleme mit verschiedensten Technologien, einschließlich natürlicher Sprachverarbeitung und Datenanalyse. Ihr leidenschaftlicher Einsatz für soziale Gerechtigkeit und Gleichberechtigung hat sie dazu bewegt, sich mit den Beziehungen zwischen Technologie und Gesellschaft auseinanderzusetzen. Wenn Fiona Coath nicht gerade anspruchsvolle Probleme löst, interessiert sie sich für Kunsthandwerk und entdeckt gern die Welt.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder und entsprechen nicht unbedingt denen von ComputerWeekly.de.