Laurent - stock.adobe.com
Die Herausforderung der Voreingenommenheit in der KI
Unternehmen gehen davon aus, dass sie auf die Ergebnisse ihrer KI-gestützten Sicherheitslösungen vertrauen können. Aber was ist, wenn es bei den Resultaten zu Verzerrungen kommt?
Künstliche Intelligenz (KI) wird zunehmend zu einem integralen Bestandteil der Informationssicherheit. Von der Vielzahl der Arten, in denen KI in der Wirtschaft eingesetzt wird, über die Schaffung intelligenter Städte bis hin zur Absicherung des Verkehrs wirkt sich KI auf fast jeden Aspekt unseres Lebens aus.
Tatsächlich fand das Marktforschungsunternehmen Capgemini in seinem Bericht Reinventing Cybersecurity with Artificial Intelligence heraus, dass 61 Prozent der Befragten angaben, dass sie ohne die Hilfe der KI keine Versuche von Datenschutzverstößen mehr erkennen können.
Diese Perspektive war ausschlaggebend für die Entscheidung von 48 Prozent der befragten Organisationen, ihre Ausgaben für digitale Sicherheit für KI im Jahr 2020, um durchschnittlich 29 Prozent zu erhöhen. In Vorbereitung dieser größeren Investition testen fast drei Viertel (73 Prozent) der Organisationen bereits Anwendungsfälle für KI (künstliche Intelligenz) in ihrer Netzwerksicherheit und anderen digitalen Sicherheitsinitiativen.
Alle oben vorgestellten Ergebnisse gehen davon aus, dass Organisationen implizit auf die Ergebnisse ihrer KI-gestützten Sicherheitslösungen vertrauen können. Aber was, wenn sie es nicht tun sollten? Es ist möglich, dass diese Lösungen unter Verzerrungen leiden, die wiederum ihre Ergebnisse verzerren und daher den Organisationen kein wirklich genaues Bild ihrer digitalen Sicherheit vermitteln.
Ein solches Potenzial für Verzerrungen unterstreicht die Notwendigkeit, ethische Richtlinien für KI zu schaffen. In Anerkennung dieser Notwendigkeit wird in diesem Beitrag die Herausforderung erläutert, Schritte zu unternehmen, um die Verzerrung der KI mit Hilfe der Ethik zu beseitigen. Anschließend wird er einige Empfehlungen dazu geben, wie die Sicherheitsgemeinschaft in Zukunft schädliche Verzerrungen konkret vermeiden kann.
Künstliche Intelligenz und die Sache mit der Voreingenommenheit
Die Frage der Voreingenommenheit in der KI ergibt sich, weil Softwareprodukte menschliche Schöpfungen sind. Das heißt, dass menschliche Entwickler zusammen mit den verwendeten Daten dafür verantwortlich sind, zu bestimmen, was ein gutes Ergebnis einer KI-basierten Lösung ausmacht. Und diese Entscheidungen sind möglicherweise nicht für alle gut. Es ist wahrscheinlicher, dass sie nur in bestimmten Kontexten gut sind und in anderen nicht.
Das Magazin Towards Data Science geht näher darauf ein, wie dieser Verlust an Neutralität bei der Schaffung einer Technologie speziell auf die KI zutrifft: Bei der KI und insbesondere beim maschinellen Lernen, haben fehlende Daten, verpasste Eingaben, verpasste Entscheidungswege und verpasste Diskussionen alle einen Einfluss auf die „Qualität“ der Vorhersage.
Die Entscheidung, die Vorhersage unabhängig von ihrer Qualität zu verwenden, hat einen Einfluss auf die Qualität der Endergebnisse. Und die Qualität der Endergebnisse hat einen Einfluss auf die Qualität ihrer Auswirkungen auf den Menschen.
Es versteht sich von selbst, dass die KI bei all ihren vielen Anwendungen unter Verzerrungen leidet. Das gilt auch für die Informationssicherheit. In der Tat berichtete das Magazin Help Net Security über eine kürzlich von dem Forschungsunternehmen O'Reilly durchgeführte Umfrage, die ergab, dass 59 Prozent der Befragten bei der Entwicklung ihrer ML-Modelle (Machine Learning) nicht auf Fairness, Voreingenommenheit oder ethische Fragen geachtet haben.
Nicht nur das, sondern fast jede fünfte Organisation (19 Prozent) gab an, dass sie aufgrund fehlender Daten, Datenqualität und Entwicklungsfähigkeiten Schwierigkeiten bei der Einführung von KI hatten.
Diese Unzulänglichkeiten kommen letztendlich zusammen und verzerren das Ergebnis einer von der KI angetriebenen Sicherheitslösung. Wie in der Zeitschrift Fast Company erwähnt, könnte eine begrenzte Datenprobe verhindern, dass ein Tool ein bestimmtes Verhalten als verdächtig kennzeichnet.
Dieser False Positive könnte dann seine böswillige Aktivität fortsetzen, tiefer in das Netzwerk der Organisation eindringen und sich zu einem Sicherheitsvorfall entwickeln, ohne dass es zu einem Alarm kommt. Andererseits könnte ein unsachgemäß abgestimmter Algorithmus ansonsten gutartigen Netzwerkverkehr als bösartig erkennen, wodurch geschäftskritische Informationen nicht mehr durchkommen und Sicherheitsteams mit unnötigen Untersuchungen von False Positives belastet werden könnten.
Entfernen einer Voreingenommenheit aus einer KI-gestützten Lösung
Die Informatik- und KI-Communities sind sich der Voreingenommenheit bewusst. Tatsächlich haben einige Unternehmen wie Google und Microsoft Pläne, ihre eigenen ethischen Richtlinien für die KI zu entwickeln. Das Problem dieser Initiativen besteht darin, dass sie oft nicht die kulturellen und sozialen Nuancen widerspiegeln, die unterschiedliche Interpretationen von ethischem Verhalten prägen. Der andere Punkt ist, dass die Unternehmen die Umsetzung dieser Prinzipien zu Ende führen müssen. Leider steht das nicht von vornherein fest.
„Die Frage der Voreingenommenheit in der KI ergibt sich, weil Softwareprodukte menschliche Schöpfungen sind.“
Ashvin Kamaraju, Thales
Fazit
Ohne Initiativen wie staatlichen Regulierungen können Entwickler und Organisationen damit beginnen, die Diskussionen auf ethische KI zu verlagern. Ein Beispiel ist die Neukonzipierung des Modellierungsprozesses. Wie Fast Company in einem kürzlich erschienenen Artikel geschrieben hat, beginnt eine solche Neukonzipierung damit, die Sozialwissenschaft in die KI-Konversation miteinzubringen. Dieser Prozess sollte den Einsatz von unterschiedlichen Informatikern, Datenquellen und Sicherheitsteams zum Schutz ihrer Organisationen beinhalten.
Dies wird dazu beitragen, kontextuelle und wahrnehmungsbezogene Unterschiede zu berücksichtigen und dadurch die Effizienz der Algorithmen und den Umfang der Eingabedaten insgesamt zu verbessern. Gleichzeitig sollten diese neuen KI-Modelle auch eine gewisse Dynamik zulassen, damit sie sich im Zuge des kulturellen und sozialen Wandels weiterentwickeln können.
Über den Autor:
Ashvin Kamaraju ist CTO bei Thales.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.