Sergey Nivens - stock.adobe.com

Katerstimmung in Sachen KI oder: Das Ende des Anfangs

Abseits von konkreten Anwendungsszenarien, ist der Einsatz der neueren KI-Tools mit Problemen bei der Cybersicherheit verbunden. Security-Experten sollten sich damit befassen.

Nach einem guten Jahr in Hochstimmung scheint sich nun Ernüchterung breit zu machen. Vorerst vollzieht sich die Entwicklung eher sanft. Der Markt korrigiert die Aktienkurse der großen Player (wie Nvidia, Microsoft und Google), während andere Akteure den Markt neu bewerten und ihre Prioritäten anpassen. Gartner nennt die Phase „Trough of disillusionment“, also sinngemäß den Tiefpunkt der Desillusionierung. Eine Phase, in der das Interesse nachlässt und die Implementierung nicht den versprochenen Durchbruch bringt.

Für die Anbieter der Technologie eine heikle Phase. Firmen geraten ins Trudeln oder scheitern komplett. Oft kommt es zu einem Investitionsaufschub. Das heißt, die noch verbleibenden Hersteller können erst wieder mit einer entsprechenden Nachfrage rechnen, wenn sie ihre Produkte zur Zufriedenheit der Erstanwender verbessert haben.

Die Entwicklung kommt allerdings nicht überraschend. Die von KI-Befürwortern versprochene post-menschliche Revolution war nie ein realistisches Ziel. Ebenso wie die unglaubliche Begeisterung für LLMs (Large Language Models) nicht auf einem realen Markterfolg basierte.

KI: gekommen, um zu bleiben

Was erwartet uns in Sachen KI nun als Nächstes? Laut dem Gartner Hype Cycle folgt auf einen tiefen Absturz der „Slope of enlightenment“ – eine Art technologischer Erleuchtung. Das heißt, die inzwischen ausgereiftere Technologie fasst wieder Fuß, die Vorteile treten deutlicher hervor, und die Anbieter bringen Produkte der zweiten und dritten Generation heraus. Und wenn alles gut läuft, folgt das „heilige Plateau der Produktivität“. Damit ist der Zeitpunkt gemeint, an dem die Technologie aufgrund ihrer großen Marktattraktivität von der breiten Masse angenommen wird. Die Analysten von Gartner weisen aber ausdrücklich darauf hin, dass es auf diesem Weg einige „Wenn’s“ gibt. Nicht jede Technologie erholt sich nach dem Absturz, und es ist wichtig, dass das Produkt schnell genug marktfähig wird.

Derzeit sieht es ganz danach aus, als ob es KI weiterhin geben wird. Apple und Google bringen bereits Consumer-Produkte heraus, bei denen die Technologie in kleinere und einfach zu verwendende Einheiten gepackt ist. Beispiele sind die Foto- oder Textbearbeitung und die erweiterte Suche. Auch wenn die Qualität insgesamt noch uneinheitlich ist, sieht es so aus, als hätten zumindest einige Anbieter einen Weg gefunden, generative KI auf sinnvolle Weise zu vermarkten – sinnvoll sowohl für die Verbraucher als auch im Hinblick auf das eigene Geschäftsergebnis.

Was haben LLMs jemals für uns getan?

Was heißt das nun für Unternehmenskunden – und insbesondere für Anwendungen in der Cybersicherheit? Tatsache ist, dass generative KI immer noch erhebliche Nachteile hat, die einer wirklich umfassenden Einführung im Weg stehen. Einer davon ist die grundsätzlich nicht-deterministische Natur der generativen KI. Da die Technologie selbst auf probabilistischen Modellen beruht, wird es bei den Ergebnissen stets Abweichungen geben. Das mag manchen Branchenveteranen erschüttern, der ein Softwareverhalten der „alten Schule“ erwartet. Das bedeutet aber auch, dass generative KI kein Ersatz für vorhandene Werkzeuge sein wird, sondern diese eher erweitert und ergänzt. Dennoch kann sie Teil eines mehrschichtigen Verteidigungsansatzes werden, der für Angreifer schwer prognostizierbar ist.

Der andere Nachteil, der die Einführung erschwert, sind die Kosten. Das Trainieren der Modelle ist sehr kostspielig, und die hohen Kosten werden bislang an die Nutzer der Modelle weitergegeben. Der Schwerpunkt sollte darauf liegen, die Kosten pro Abfrage zu senken.

Fortschritte bei der Hardware sowie verschiedene Durchbrüche bei der Verfeinerung der Modelle versprechen, auch den immensen Energieverbrauch zu drücken. Dadurch ist zu erwarten, dass sich (zumindest die textbasierte Ausgabe) zu einem rentablen Geschäftsmodell entwickeln wird.

Günstigere und genauere Modelle sind großartig, dennoch bleibt die Integration dieser Modelle in die Prozesse von Unternehmen eine Herausforderung. Als Gesellschaft fehlt es uns noch an Erfahrung und Wissen, um KI-Technologien effizient in die täglichen Arbeitsabläufe zu integrieren. Zudem stellt sich die Frage, wie gut Belegschaften die neuen Technologien akzeptieren und mit ihnen arbeiten werden. Wir haben beispielsweise Fälle erlebt, in denen menschliche Mitarbeiter und Kunden lieber mit einem Modell interagieren, das der Erklärbarkeit gegenüber der Genauigkeit Vorrang gibt. Eine Studie vom März 2024, durchgeführt von der Harvard Medical School, hat ergeben, dass die Wirksamkeit einer KI-basierten Unterstützung eher uneinheitlich ist. Bei einer Stichprobe unter Radiologen gab es Varianten, bei denen sich die Leistung einiger der Beteiligten durch die KI verbesserte, sich bei anderen hingegen verschlechterte. Bei der Einführung von KI-Tools in die klinische Praxis sollte man also einen nuancierten, personalisierten und sorgfältig kalibrierten Ansatz wählen, um optimale Ergebnisse für die Patienten zu gewährleisten.

Wie sieht es mit der schon erwähnten Marktgängkeit aus? Generative KI wird zwar, wahrscheinlich, niemals einen Programmierer ersetzen (unabhängig davon, was einige Unternehmen behaupten). Aber die KI-gestützte Codegenerierung hat sich zu einem nützlichen Prototyping-Tool für die unterschiedlichsten Szenarien entwickelt. Cybersicherheitsspezialisten nutzen dies bereits: KI generierter Code wird dabei zu einem schnell erreichbaren Ausgangspunkt, von dem aus die Entwicklung weiter verfeinert werden kann.

Die vorhandene Technologie gibt erfahrenen Fachleuten die Möglichkeit, ihre Arbeit zu beschleunigen, indem sie den generierten Text (sei es Code oder eine Konfiguration) schneller zu debuggen und/oder zu korrigieren. Für Benutzer, die keine Experten sind, kann das allerdings katastrophale Folgen haben. Denn es besteht immer die Möglichkeit, dass potenziell fehlerhafter oder unsicherer Code erzeugt wird. Dieser Code kann so den Weg in die Produktion finden und den Sicherheitslevel des Unternehmens beeinträchtigen. Wie jedes andere Werkzeug kann KI also sehr nützlich sein, wenn man damit umgehen kann. Oder aber großen Schaden verursachen mit all den möglichen negativen Konsequenzen.

An dieser Stelle soll vor einer besonderen Eigenschaft der aktuellen Generation generativer KI-Tools gewarnt werden: Sie präsentieren ihre Ergebnisse durchweg äußerst selbstbewusst – und das kann trügerisch sein. Selbst wenn ein Text offenkundig falsch ist, bieten ihn aktuelle Tools so selbstbewusst an, dass unerfahrene Benutzer leicht in die Irre geführt werden. Behalten Sie im Hinterkopf, dass ein Computer lügt, wenn es darum geht, wie zutreffend seine Ausgaben sind und manchmal liegt er sogar im Ergebnis deutlich falsch.

Robert Byrne, One Identity

„Wie auch immer eine ausgereifte, von Unternehmen nutzbare KI aussehen wird: Sicherheitsexperten sollten sich bereits jetzt mit den verschiedenen Aspekten befassen.“

Robert Byrne, One Identity

Ein weiterer praktischer Anwendungsfall ist der Kundensupport, genauer gesagt der 1-Level-Support. Hier hilft man Kunden weiter, die eher ungern ein Handbuch wälzen oder die FAQs lesen. Ein moderner Chatbot kann einfache Fragen durchweg vernünftig beantworten und anspruchsvollere Anfragen an höhere Support-Ebenen weiterleiten. Obwohl dies aus Sicht der User Experience nicht optimal ist, sind die Kosteneinsparungen, Insbesondere für sehr große Unternehmen mit vielen ungeschulten Benutzern, zum Teil erheblich.

Die Ungewissheit darüber, wie KI sich in Unternehmen integrieren wird, hat für andere durchaus positive Seiten: Derzeit erweist sie sich für Unternehmensberatungen als wahrer Segen. Die Boston Consulting Group erwirtschaftet inzwischen 20 Prozent ihres Umsatzes aufgrund von KI-Projekten. McKinsey erwartet, dass in diesem Jahr sogar 40 Prozent des Umsatzes auf KI-Projekte zurückzuführen sein wird. Bei anderen Beratungsunternehmen wie IBM und Accenture sieht es ähnlich aus. Die Anwendungspalette solcher Unternehmensprojekte Ist dabei recht vielfältig: Sie erleichtern beispielsweise die Übersetzung von Anzeigen in andere Sprachen, sie verbessern die Suche nach geeigneten Lieferanten im Beschaffungswesen, oder sie entwickeln stabilere Chatbots für den Kundenservice. Chatbots, die KI-Halluzinationen vermeiden und für mehr Vertrauenswürdigkeit beispielsweise durch Quellenangaben sorgen. Obwohl bei ING bisher nur 200 von 5000 Kundenanfragen über den Chatbot laufen, wird diese Zahl mit einer besseren Qualität der Antworten voraussichtlich schnell steigen. Analog zur Entwicklung der Internet-Suche ist es durchaus vorstellbar, dass es auch hier einen Wendepunkt gibt, an dem man reflexartig „den Bot fragt“, anstatt sich selbst durch den Datensumpf zu wühlen.

KI – aber nicht ohne Cybersicherheit

Unabhängig von konkreten Anwendungsfällen haben die neuen KI-Tools einige Probleme in Sachen Cybersicherheit im Gepäck. Wie früher die RPAs (Robotic Process Automation) benötigen heute Chatbots mit Kundenkontakt maschinelle Identitäten, die angemessenen, manchmal privilegierten Zugang zu Unternehmenssystemen haben. So muss ein Chatbot beispielsweise Kunden identifizieren und einige Datensätze aus dem CRM-System ziehen können. Das sollte bei IAM-Experten eigentlich sofort die Alarmglocken schrillen lassen. Die Festlegung genauer Zugangskontrollen für diese noch experimentelle Technologie wird also ein wichtiger Aspekt für den Implementierungsprozess sein.

Das Gleiche gilt für Tools zur Codegenerierung, die in Entwicklungs- oder DevOps-Prozessen eingesetzt werden. Nur durch die Festlegung des korrekten Zugriffs auf das Code-Repository wird der Gefährdungsradius für den Fall, dass etwas schief geht eingeschränkt. Zudem verringert man die Auswirkungen eines möglichen Verstoßes, falls das KI-Tool selbst die Cybersicherheit gefährden sollte. Und natürlich besteht immer ein Risiko durch Dritte. Wenn Firmen sehr leistungsstarke, aber wenig verstandene Tools nutzen, machen sie sich tendenziell angreifbar. Cyberkriminelle loten inzwischen aktiv die Grenzen der LLM-Technologie aus. Die noch mangelhafte Expertise kann dann schnell problematisch werden. Noch gibt es keine Best Practices wie man LLMs am besten absichert. An sensiblen Punkten muss folglich gewährleistet sein, dass keine Schreibrechte vorliegen.

Das Potenzial von KI beim Identity und Access Management

Mittlerweile nehmen die Anwendungsfälle und Möglichkeiten für KI bei der Zutrittskontrolle und beim IAM immer mehr Gestalt an - auch in Form von Produkten. Traditionelle Bereiche des klassischen ML, wie zum Beispiel die Rollensuche und Berechtigungsempfehlungen, werden im Rahmen moderner Methoden und Benutzeroberflächen überarbeitet. Die Rollenerstellung und -entwicklung wird dabei enger in sofort einsatzbereite Governance-Workflows und Benutzeroberflächen eingebettet. KI-inspirierte Innovationen wie Peer-Group-Analysen, Entscheidungsempfehlungen und verhaltensorientierte Governance werden in der Welt der Identity Governance immer selbstverständlicher. Kunden erwarten heute, dass Enforcement-Point-Technologien wie SSO Access Management-Systeme und PAM-Systeme (Privileged Account Management) auch eine KI-gestützte Erkennung von Anomalien und Bedrohungen bieten, die auf der Auswertung von Benutzerverhalten und der Analyse von Anwendersitzungen basieren.

Schnittstellen in natürlicher Sprache verbessern mittlerweile die Benutzerfreundlichkeit bei jeder Art von IAM-Lösungen erheblich. Dazu dient insbesondere der interaktive Austausch mit dem System in natürlicher Sprache. Statische Berichte und Dashboards braucht man nach wie vor. Die Möglichkeit für Mitarbeiter mit unterschiedlichen Zuständigkeiten und Bedürfnissen sich in natürlicher Sprache auszudrücken und die Suchergebnisse interaktiv zu verfeinern, senkt den Qualifikations- und Schulungsbedarf. Und das ist notwendig, wenn Unternehmen wirklich von diesen Systemen profitieren wollen.

Das Ende des Anfangs

Wie auch immer man den Stand der KI-Technologie Mitte 2024 bewertet, er markiert sicher nicht das Ende der Entwicklung. Generative KI und LLMs sind nur ein Teilbereich der Künstlichen Intelligenz. Zudem geht es in zahlreichen anderen KI-bezogenen Bereichen dank der Fortschritte im Bereich Hardware und der großzügigen staatlichen und privaten Forschungsförderung zügig voran.

Wie auch immer eine ausgereifte, von Unternehmen nutzbare KI aussehen wird: Sicherheitsexperten sollten sich bereits jetzt mit den verschiedenen Aspekten befassen. Dazu gehören die potenziellen Vorteile der generativen KI für die grundlegenden Sicherheitsmaßnahmen eines Unternehmens, aber auch die Fähigkeit von KI-Tools, Löcher in die bestehende Verteidigung zu schlagen. Und natürlich will man auch den Radius der Auswirkungen begrenzen, wenn das KI-Experiment fehlschlägt.

Über den Autor:
Robert Byrne ist Field Strategist bei One Identity.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close