robsonphoto - stock.adobe.com

Unternehmen müssen sich um das Risiko Schatten-KI kümmern

Der Einsatz generativer KI ist allgegenwärtig und damit auch das Risiko Schatten-KI. Wenn die Belegschaft KI-Tools ohne Genehmigung nutzt, birgt das große Risiken für Unternehmen.

Generative KI auf Basis großer Sprachmodelle (LLM) ist für den Einsatz in vielfältigen Unternehmensbereichen in der Diskussion. Aber selbst, wenn die IT-Branche den Höhepunkt des aktuellen KI-Hypes erreicht hat - und es ist nicht klar, ob das der Fall ist -, ist man vielerorts noch weit davon entfernt, zu verstehen, wie diese neue leistungsstarke KI-Kategorie verantwortungsvoll, sicher, effektiv und effizient genutzt werden kann. Und die nicht genehmigte Nutzung von KI, auch bekannt als Schatten-KI (Shadow AI), stellt Unternehmen vor noch größere Herausforderungen.

Was ist Schattten-KI?

Prinzipiell ist Schatten-KI nur eine weitere Form von Schatten-IT. Also eine nicht offiziell genehmigte Technologie, die von der Belegschaft ad hoc eingesetzt wird. Und diese Lösungen werden auf eine Art und Weise eingesetzt, die weder dem zentralen IT-Management noch dem Risikomanagement des Unternehmens bekannt sind.

Der Einsatz von Schatten-IT kann von den Mitarbeitenden aus einer Reihe von Gründen erfolgen:

  • Sie haben Anwendungsfälle, die von den bestehenden, sanktionierten Anwendungen nicht abgedeckt werden.
  • Sie sind der Meinung, dass die zentrale IT-Abteilung nicht reagiert oder nicht in der Lage ist, mit einer neuen Technologie umzugehen.
  • Ihre Organisation unterliegt Budgetbeschränkungen, die es ihr unmöglich machen, sanktionierte, unternehmenstaugliche Versionen von neuen Technologien zu übernehmen.
  • Sie halten die technologischen und instrumentellen Beschränkungen für ein genehmigtes Projekt für zu restriktiv.

Die Risiken von Schatten-KI

Viele Unternehmensnutzer experimentieren zweifellos mit generativen KI-Apps wie ChatGPT und Google Gemini, um zu sehen, wie diese Tools ihnen helfen können, ihre Arbeit effizienter und effektiver zu erledigen. Der Impuls ist verständlich, aber Schatten-KI - wie jedes genehmigte KI-Projekt mit großen Sprachmodellen (Large Language Model, LLM) - birgt spezifische Risiken für die Cybersicherheit, den Geschäftsbetrieb und das Unternehmen, darunter die folgenden.

Funktionale Risiken

Funktionale Risiken beziehen sich auf die Fähigkeit eines KI-Tools, ordnungsgemäß zu arbeiten. Ein funktionelles Risiko ist zum Beispiel der Modelldrift (Model Drift). Sie tritt auf, wenn das KI-Modell nicht mehr mit dem Problembereich übereinstimmt, für den es trainiert wurde, wodurch es unbrauchbar und möglicherweise irreführend wird. Eine Modelldrift kann aufgrund von Änderungen im technischen Umfeld oder veralteten Trainingsdaten auftreten.

Risiken für den Geschäftsbetrieb

Operative Risiken gefährden die Fähigkeit des Unternehmens, seine Geschäfte zu führen. Operative Risiken können unterschiedliche Formen aufweisen. Beispielsweise könnte ein Schatten-KI-Tool dem Unternehmen schlechte Ratschläge geben, weil es unter Modelldrift leidet, unzureichend trainiert wurde oder Halluzinationen hat, das heißt falsche Informationen erzeugt. Die Befolgung schlechter Ratschläge durch generative KI kann zu vergeudeten Investitionen führen - zum Beispiel, wenn das Unternehmen unklug expandiert - und zu höheren Kosten, zum Beispiel, wenn es nicht dort investiert, wo es sollte.

Die Verwendung eines LLM - insbesondere eines nicht genehmigten, dass außerhalb des Rahmens der Datenverwaltungsrichtlinien des Unternehmens entwickelt und geschult wurde - könnte auch sensible Unternehmens- und Kundendaten offenlegen. Die Verwendung generativer KI kann sehr schnell zu Verstößen gegen Datenschutzvorschriften führen. So könnte ein Chatbot beispielsweise Informationen aus der Eingabeaufforderung eines Nutzers aufnehmen, sie als Trainingsdaten verwenden, sie den Plattformbetreibern zur Verfügung stellen und sie anderen Nutzern bei der Beantwortung ihrer Eingabeaufforderungen zugänglich machen. Sollte die KI-Plattform Opfer eines Cyberangriffs werden, könnten die Daten auch in die Hände von Cyberkriminellen fallen.

Auch abseits besonders kritischer Daten wie im Gesundheitswesen oder bei Rechts- und Personalabteilungen existieren viele problematische Szenarien für die Nutzung generativer KI, die zu großen Risiken führen können. Exemplarisch seien folgende Beispiele genannt:

  • Eine Führungskraft nutzt KI, um Gesprächspunkte für eine interne Präsentation zu erstellen, wobei vertrauliche Geschäftsstrategien offengelegt werden.
  • Ein Analyst lädt eine große, komplexe Tabellenkalkulation in eine generative KI, um einen neuen Bericht zu erstellen. Dabei werden sensible Daten des Unternehmens und von Kunden offengelegt.

Die Weitergabe dieser Art von sensiblen Informationen an eine generative KI könnte das geistige Eigentum und die Geschäftsstrategien des Unternehmens gefährden. Im Falle von personenbezogenen Daten könnte dies zu schwerwiegenden Verstößen gegen den Datenschutz und die Einhaltung von Vorschriften führen, das Vertrauen der Kunden erschüttern und den Ruf des Unternehmens schädigen.

Rechtliche Risiken

Auf funktionale und betriebliche Risiken folgen rechtliche Risiken, wenn Schatten-KI das Unternehmen Klagen oder Geldstrafen aussetzt. Die oben erwähnten Datenschutzverletzungen könnte zu sehr erheblichen Bußgeldern führen. Und es könnte eventuell zu Klagen kommen, wenn eine Schatten-KI für schlechte Ratschläge an Kunden sorgt. Diese können durch Modelldrift oder vergiftete Trainingsdaten entstehen, oder wenn das Modell urheberrechtlich geschützte Daten zum Selbsttraining verwendet.

In dem Maße, in dem sich die rechtlichen Anforderungen an die KI-Entwicklung weiterentwickeln – Stichwort AI Act -, können Geldbußen und rechtliche Sanktionen zu einem immer größeren Problem werden.

Risiken im Zusammenhang mit Ressourcen

Nicht zuletzt öffnet die Nutzung von Schatten-KI die Tür für unnötige oder doppelte Ausgaben bei Schattenprojekten oder zwischen Schatten- und sanktionierten Projekten. In einigen Fällen können Schatten-KI-Nutzer auch dadurch unnötige Kosten verursachen, dass sie die ausgehandelten Tarife für ähnliche, sanktionierte Technologien nicht nutzen.

Bedenken Sie auch die potenziellen Kosten, die durch Schattenprojekte entstehen, die letztendlich scheitern, weil sie nicht den Unternehmensrichtlinien oder bewährten Verfahren entsprechen - diese Zeit und das Geld hätten in andere Projekte investiert werden können.

Und für Schattenprojekte, die in das reguläre Projektprogramm aufgenommen werden und nicht mehr als Schattenprojekte gelten, sind Übergangskosten zu erwarten. Die Mitarbeiter und Angestellten, die das Schattentool verwendet haben, müssen wahrscheinlich neu geschult werden, um das Tool-Set in seinem neuen Kontext mit neuen Parametern zu verstehen. Außerdem wird die Organisation mit Migrationskosten konfrontiert, die mit der Umstellung anderer Benutzer auf das sanktionierte Tool verbunden sind.

Den Risiken der Schatten-IT richtig begegnen

IT- und Sicherheitsteams stehen nur wenige Methoden zur Verfügung, um Schatten-KI präventiv aufzuspüren und einzudämmen, selbst wenn sie dazu befugt wären. Die richtige Informationspolitik und Kommunikation an die gesamte Belegschaft in Sachen generativer KI und Risiken muss im gesamten Unternehmen einen hohen Stellenwert haben. Wie in vielen anderen Bereichen der Sicherheit auch, muss jedem Einzelnen klar sein, dass er einen entsprechenden Beitrag zur Risikominderung beitragen kann.

Ein Ansatz liegt auf der Führungsebene, wobei der CIO und der CISO mit dem CEO, dem CFO und dem Leiter des Risikomanagements zusammenarbeiten. Der CEO beziehungsweise die Geschäftsführung muss den Prozess in höchstem Maße unterstützen; der kaufmännische Leiter muss die Ausgaben für KI-Anwendungen, Plattformen und Tools aufspüren, die für die IT-Abteilung nicht sichtbar sind.

Das Ziel besteht nicht darin, IT- und Sicherheitsteams in die Bekämpfung des unerlaubten Einsatzes von KI einzubeziehen oder sogar zwangsläufig Schatten-KI-Nutzer auf bevorzugte technische Plattformen zu zwingen. Stattdessen muss der Schwerpunkt auf Sichtbarkeit, Risikomanagement und strategischen Entscheidungen liegen.

Zum einen muss die Unternehmensführung wissen, wie viel für künstliche Intelligenz ausgegeben wird - ob mit oder ohne Genehmigung. Zum anderen müssen Gruppen, die bisher außerhalb des Bereichs der institutionellen Risikokontrollen arbeiteten, in den Geltungsbereich einbezogen werden. Ihre Projekte müssen den Anforderungen des Unternehmens an das Risikomanagement entsprechen, wenn auch nicht seinen technischen Entscheidungen.

Die folgenden Schritte können Unternehmen bei der Bewältigung von KI-Schattenrisiken unterstützen:

Daten klassifizieren. Die Datenklassifizierung ist ein Eckpfeiler der Datensicherheit und einer guten Informationsverwaltung im Allgemeinen, und ihre Bedeutung erstreckt sich auch auf die sichere Nutzung von generativer KI. So könnte ein Unternehmen beispielsweise die Verwendung von Chatbots für Verbraucher zulassen, jedoch nur für Projekte, die öffentlich zugängliche Informationen betreffen. Sensible Daten hingegen könnten auf KI-Implementierungen vor Ort oder sichere, unternehmenstaugliche Apps beschränkt werden, die auf die Einhaltung interner Datensicherheitsrichtlinien abgestimmt sind.

Erstellen Sie eine Richtlinie zur akzeptablen Nutzung von KI. Eine Richtlinie zur akzeptablen Nutzung von KI kann klar kommunizieren, dass die unsachgemäße Nutzung von KI dem Unternehmen schaden kann und wie die KI-Nutzung mit Datensicherheitsrichtlinien und anderen Strategien zur Risikominderung in Einklang gebracht werden kann. Wenn dann Schatten-KI auftaucht, können die Entscheidungsträger die Nutzung der Tools mit der Richtlinie vergleichen, um das Risiko und die notwendigen nächsten Schritte schnell zu bestimmen.

Informieren und schulen Sie Ihre Mitarbeiter. KI-Richtlinien sind nutzlos, wenn die Mitarbeiter sie nicht kennen oder nicht verstehen. Vor diesem Hintergrund sollten Sie Ihre Mitarbeiter vorrangig über die sichere Nutzung von KI aufklären, entweder als Teil der laufenden Schulungen zum Thema Cybersicherheit oder als eigenständige Initiative. In den Schulungen sollten auch die Risiken der KI-Nutzung vermittelt werden, wobei der Schwerpunkt auf dem Datenschutz und den Compliance-Anforderungen liegen sollte.

Die Zukunft der Schatten-KI

Sicherheits- und Risikoverantwortliche sollten nicht davon ausgehen, dass die Schatten-KI in absehbarer Zeit verschwinden wird - vor allem angesichts der immer noch wachsenden Zahl von Optionen für SaaS-Tools und für die Entwicklung lokaler Lösungen. Da die LLMs der neuen Generation immer zahlreicher und vielfältiger werden - sowohl in Bezug auf die Kosten als auch auf die Ressourcenanforderungen - gibt es allen Grund zu der Annahme, dass sich auch die Schatten-KI-Projekte vervielfachen werden.

 

Erfahren Sie mehr über Anwendungs- und Plattformsicherheit

ComputerWeekly.de
Close