sdecoret - stock.adobe.com

Blinde Flecken der KI: So können sie sie erkennen und auflösen

Zahlreiche Firmen wollen künstliche Intelligenz einsetzen, um effizienter und wirtschaftlicher zu arbeiten. Es gibt aber Fallstricke zu beachten, zum Beispiel blinde Flecke.

Künstliche Intelligenz (KI) hält zunehmend Einzug in Unternehmen, die sich davon Effizienzsteigerungen und Kostensenkungen versprechen. Doch wie bereits einige schlagzeilenträchtige Fälle in der Vergangenheit gezeigt haben, gibt es beim Einsatz von KI-Tools einige Tücken, die schwerwiegende Folgen nach sich ziehen können. Welche dies sind und wie Unternehmen sicherstellen, dass sie nicht von etwaigen blinden Flecken ihrer KI-Anwendungen überrascht werden, erklärt in diesem Beitrag Spotfire-Experte Alessandro Chimera.

Gut ein Jahr ist es her, dass das kalifornische Start-up OpenAI seinen Chatbot ChatGPT für die Öffentlichkeit frei zugänglich gemacht hat und damit einen wahren Hype auslöste. Und dieser hält noch immer an. Insbesondere in der Arbeitswelt scheint das Potenzial für (generative) KI-Anwendungen und -Funktionen auf Basis von Large Language Models (LLMs) riesig und immer mehr Unternehmen wie Microsoft oder Google integrieren sie in ihre Arbeitsprogramme. Die Idee dahinter: Mitarbeiter können monotone oder lästige Aufgaben von der KI erledigen lassen, effizienter arbeiten, leichter Einblicke wie Trends und Muster erhalten und sich mit wenigen Prompts Inspiration holen.

Die Fallstricke von KI

Zugleich hat die KI-Welle aber auch viel Skepsis und Kritik hervorgerufen, auch durch einige prominente Beispiele, die die Grenzen von KI-Tools und die Folgen unbedachten Handelns aufzeigen: So hat beispielsweise ein New Yorker Anwalt bei Gericht einen Schriftsatz eingereicht, dessen Fallzitate, Präzedenzfälle und Verweise er mithilfe von ChatGPTzusammengestellt hatte. Das Problem dabei: Es handelte sich um Halluzinationen. Statt echte Fakten zu recherchieren, hat der Chatbot falsche Informationen generiert, die nicht auf realen Ereignissen oder Daten beruhen. Und auch Google musste eingestehen, dass es bei der Präsentation seines Chatbots Bard eine falsche, halluzinierte Antwort auf eine Frage zum James Webb Weltraumteleskop gab.

Doch nicht nur generative KI – bei der Inhalte wie Texte neu generiert werden – ist anfällig für solche Fehler. Amazon entwickelte zum Beispiel vor einigen Jahren ein internes KI-Tool, um die besten Kandidaten aus seinem Bewerberpool herauszufiltern. Dieses bewertete allerdings weibliche Bewerberinnen grundsätzliche schlechter als männliche Bewerber. Der Grund hierfür war die Art und Weise, wie der Algorithmus trainiert wurde: Verwendet wurden Datensätze mit erfolgreichen Bewerbungen aus der Vergangenheit. Doch diese stammten hauptsächlich von Männern, weshalb der Algorithmus bei seiner Bewertung dann ebenfalls Männer bevorzugte.

Das Vertrauen in KI-Anwendungen schwankt

KI-Anwendungen sind immer nur so gut sind, wie die Daten, auf denen sie aufgebaut wurden. Denn der Algorithmus oder das LLM hat kein Verständnis für die zugrundeliegende Realität, sondern basiert seinen Output einzig und allein auf den Trainingsdaten und Mustern, die darin erkannt wurden. Führungskräfte müssen sich deshalb bewusst sein, dass (generative) KI-Tools Fehler produzieren können und diese Erkenntnis berücksichtigen, wenn sie über deren Einführung im Unternehmen nachdenken. 

Tun sie das nicht und implementieren Anwendungen, die vermeintlich unfehlbar sind, droht ein enormer Vertrauensverlust, wenn sich das Gegenteil herausstellt. Wichtig ist darüber hinaus zu wissen, dass das Vertrauen in KI vom Kontext sowie von der jeweiligen Anwendung oder dem Anwendungsfall abhängt. Laut einem Report von KPMG und der australischen University of Queensland wird der Einsatz von KI im Personalwesen – zum Beispiel zur Unterstützung von Einstellungs- und Beförderungsentscheidungen – kritischer gesehen als etwa im Gesundheitswesen, wo KI etwa bei der Diagnostik helfen kann. Ein direkter persönlicher Nutzen fördert demnach das Vertrauen. 

Dies ist interessant, weil es das Risiko widerspiegelt, dass ein KI-Fehler oder -Eingriff die individuelle Leistung beeinträchtigen oder sogar persönliche Chancen vereiteln könnte – wie etwa im Falle des Amazon-Recruiting-Tools (auch wenn das Unternehmen laut eigener Aussage Entscheidungen nie nur auf dieser Grundlage getroffen hat).

Negative Effekte minimieren

Die Frage sollte für Unternehmen daher lauten: Wie können sie Verzerrungen vermeiden und Halluzinationen entgegenwirken? Dafür können und sollten sie verschiedene Maßnahmen ergreifen:

  • Daten diversifizieren: Die Datensätze, mit denen Algorithmen und LLMs trainiert werden, sollten aus mehreren, unterschiedlichen Quellen stammen. Ein guter Ansatz ist hierbei, bestehende Datensilos aufzubrechen und dadurch weitere Datenquellen leichter zu erschließen.
  • Daten überprüfen: Bevor es an das Training geht, sollte ein kritischer Blick auf die Datensätze geworden werden, die dafür genutzt werden sollen, um mögliche Bias frühzeitig zu erkennen und in diesem Falle weitere Datensätze zu ergänzen.
  • Tests in realen Umgebungen: Um sicherzustellen, dass die Ergebnisse eines KI-Modells den erwarteten entsprechen, sollten Tests in ähnlichen Umgebungen und Einsatzszenarien vorgenommen werden. Dies mindert die Wahrscheinlichkeit von Verzerrungen.
  • Regelmäßige Überprüfung: Die Genauigkeit von KI-Modellen kann im Laufe der Zeit nachlassen. Dementsprechend sollten Unternehmen regelmäßig testen, wie akkurat ihre KI-Tools noch sind und gegebenenfalls Anpassungen vornehmen.

Darüber hinaus müssen Unternehmen bei den Menschen, die mit einer KI-Anwendung interagieren, das Bewusstsein für deren Limitationen schaffen. Das heißt zum Beispiel, dass KI-generierte Inhalte auf Richtigkeit überprüft werden sollten, bevor man mit ihnen weiterarbeitet. Das mag Zeit kosten, etwaige Fehler können aber deutlich kostspieliger sein. Generell ist es dabei ratsam, zu überlegen, in welchen Anwendungsfällen eine KI eine automatisierte Entscheidung treffen darf und in welchen Fällen ein Mensch involviert werden muss.

Alessandro Chimera, Spotfire

„KI-Anwendungen sind immer nur so gut sind, wie die Daten, auf denen sie aufgebaut wurden. Denn der Algorithmus oder das LLM hat kein Verständnis für die zugrundeliegende Realität, sondern basiert seinen Output einzig und allein auf den Trainingsdaten und Mustern, die darin erkannt wurden. Führungskräfte müssen sich deshalb bewusst sein, dass (generative) KI-Tools Fehler produzieren können und diese Erkenntnis berücksichtigen, wenn sie über deren Einführung im Unternehmen nachdenken.“

Alessandro Chimera, Spotfire

Fazit

Immer mehr Unternehmen suchen nach Möglichkeiten, KI in ihre Systeme und Arbeitsabläufe zu integrieren, um von der höheren Geschwindigkeit durch Automatisierungen und dem Potenzial für Kostensenkungen zu profitieren. Doch sie sollten zum einen bedenken, dass KI kein Allheilmittel für all die Herausforderungen ist, mit denen sich moderne Unternehmen konfrontiert sehen – es braucht dafür immer noch beispielsweise ein überzeugendes Produkt, eine klare Strategie und motivierte Mitarbeiter. Zum anderen sind Faktoren wie Datengenauigkeit, -zuverlässigkeit, -qualität und -integrität entscheidend beim Einsatz von KI. Diese müssen gegeben sein, um Bias, Verzerrungen und Halluzinationen weitmöglichst zu minimieren und das Potenzial von KI effektiv zu nutzen.

Über den Autor:
Alessandro Chimera ist Director of Digitalization Strategy und Industry Consultant bei Spotfire, wo er Digitalisierungsstrategien und -ansichten der nächsten Generation entwickelt und kommuniziert. Er berät Kunden bei der digitalen Transformation ihrer Unternehmen, um Innovationen und Wachstum zu ermöglichen. Alessandro arbeitet mit Partnern, Analysten und verschiedenen internen Teams zusammen und veröffentlicht als Teil des globalen Thought-Leadership-Teams von Spotfire White Paper, Artikel und Blogs.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)