phonlamaiphoto - stock.adobe.com

Wie Microsoft Copilot funktioniert und die Datensicherheit

Um die Risiken der Datensicherheit einzuschätzen, die Microsoft Copilot einhergehen, müssen sich Firmen mit der Funktionsweise beschäftigen und die Absicherung darauf abstimmen.

Künstliche Intelligenz dringt immer mehr in den Arbeitsalltag vor. Wesentlichen Anteil hat dabei Microsoft Copilot, der KI-Assistent, der mit allen Microsoft-365-Applikationen verknüpft ist und die Produktivität der Mitarbeitenden wesentlich verbessern soll. So kann Copilot an Teamsitzungen teilnehmen, die Diskussion in Echtzeit zusammenfassen und Aktionspunkte festhalten, den Posteingang sortieren, E-Mails nach Prioritäten ordnen, Themen zusammenzufassen und Antworten erstellen. Darüber hinaus ist Copilot in Excel in der Lage, Rohdaten zu analysieren und den Anwendern Erkenntnisse, Trends und Vorschläge zu bieten.

Um die Dimension der Möglichkeiten, aber auch der Risiken insbesondere in Bezug auf die Datensicherheit zu bewerten, muss man wissen, wie Copilot überhaupt arbeitet und worin die Unterschiede zu anderen KI-Tools wie etwa ChatGPT liegen.

Copilot besteht im Zentrum aus einer sehr mächtigen Verarbeitungs- und Orchestrierungs-Engine, aber es braucht noch drei weitere wichtige Komponenten, damit das Konzept von Copilot auch funktionieren kann. Das sind zunächst die Apps, also die klassischen Anwender-Applikationen, die wir aus unserem Alltag kennen wie Word, Excel oder Outlook. Hinzu kommt Microsoft Graph. Microsoft Graph enthält nicht nur Informationen darüber, wo die Daten liegen, sondern auch wie die entsprechenden Berechtigungen gesetzt sind. Und schließlich, um wertvolle Informationen zurückzubekommen, noch das Large-Language-Modell (LLM). Microsoft hat hier Milliarden in OpenAI investiert, auf dessen Konzept das LLM von Microsoft basiert. Allerdings handelt es sich dabei um einen eigenständigen Tenant. Entsprechend ist anders als bei ChatGPT nicht zu befürchten, dass Unternehmensdaten zu Trainingszwecken im gesamten OpenAI genutzt werden.

Microsoft Copilot - der Ablauf einer Anfrage

Wie auch bei anderen generativen KI-Tools, beginnt der Prozess mit einer Eingabeaufforderung. Daraufhin startet Copilot einen Pre-Processing-Schritt. Bei diesem „Grounding“ werden die Informationen aus der Anfrage an Graph geleitet. Dort werden alle Informationen rund um das gestellte Thema beziehungsweise die Aufgabe eingesammelt – basierend auf den Berechtigungen des Users.

Diese gesammelten Informationen sendet Copilot nun an das LLM, das hieraus einen wertvollen Inhalt erstellt. Diese Antwort wird nun nicht sofort an den User ausgegeben, sondern ein Post-Processing-Schritt eingeleitet, um zu prüfen, ob die Antwort tauglich und sinnvoll ist. Diese Nachbearbeitung umfasst weitere Grounding-Aufrufe an Microsoft Graph, verantwortungsvolle KI-Prüfungen, Sicherheits-, Compliance- und Datenschutzprüfungen. Dieser Schritt unterscheidet Copilot beispielsweise von ChatGPT, wo man immer sofort eine mehr oder weniger passende Antwort erhält. Copilot hingegen versucht, nur sinnvollen, validen und ethisch korrekten Inhalt zu liefern. Auf diese Weise soll auch dem verbreiteten KI-Problem der Halluzinationen, also plausibel klingender, aber falscher Inhalte, entgegengewirkt werden. Nach Durchlaufen dieses Prozesses sendet Copilot schließlich die Antwort an die entsprechende Microsoft-App, sei es in Form einer Antwort oder als Datei – je nach Anfrage.

Dieser Prozess läuft dabei nicht linear, sondern iterativ, also fortlaufend, ab. Das heißt, ständig werden wie beschrieben Anfragen gesendet und ständig werden Anfragen wieder gegengecheckt. Entscheidend dabei ist, dass diese Prozesse in der Microsoft 365 Trust Boundary stattfinden. Dies ist ein abgesteckter Bereich innerhalb des eigenen Tenants und Informationen werden auch nur dort gesammelt und verarbeitet.

Isolierung von Tenants reicht nicht aus

Wie gesehen, verwendet Copilot nur Daten vom M365-Mandanten des aktuellen Benutzers. Das KI-Tool zeigt keine Daten von anderen Mandanten an, in denen der Benutzer zu Gast ist, und auch nicht von Mandanten, für die eine mandantenübergreifende Synchronisierung eingerichtet wurde.

In einer perfekten Welt würde die Isolierung der Tenants zusammen mit einer perfekt umgesetzten Least-Privilege-Strategie für eine hohe Datensicherheit sorgen. Allerdings sehen wir in der Praxis, dass grundsätzlich zu viele Mitarbeitende auf zu viele sensitive Daten zugreifen können. Gleichzeitig sorgen KI-Assistenten dafür, dass noch mehr sensitive Daten erzeugt werden, die ebenfalls geschützt werden müssen. Wir finden in Unternehmensumgebungen sensitive Daten in persönlichen OneDrive-Freigaben, sowie kritische Informationen, die für jeden im Unternehmen oder für Gäste und externe Benutzer zugänglich sind. Hierdurch entsteht ein enormer Explosionsradius, also ein großer potenzieller Schaden, der durch ein kompromittiertes Konto entstehen kann. Und leider macht es künstliche Intelligenz Angreifern und böswilligen Insidern auch sehr einfach, an vertrauliche Informationen zu gelangen. Während sie vorher ihre Berechtigungen und Ordner auf der Suche nach wertvollen Informationen durchsuchen mussten, kann diese Aufgabe nun bequem an Copilot delegiert werden. 

Sven Carlsen, Varonis Systems

„Die Sicherheit von Microsoft Copilot steht und fällt mit den Berechtigungen des jeweiligen Users.“

Sven Carlsen, Varonis Systems

Die Datensicherheit steht also vor immer größeren Herausforderungen und wird immer mehr zur Kerndisziplin der Cybersecurity. So hat kürzlich Gartner das Konzept des Data Security Posture Managements (DSPM) vorgestellt, das Aufschluss darüber geben soll, wo sich sensitive Daten befinden, wer Zugriff auf sie hat, wie sie verwendet werden und wie die Sicherheitskontrollen und Berechtigungen in den Datenspeichern oder Anwendungen konfiguriert sind.

Unternehmen müssen entsprechend zuallererst ihr Datenrisiko kennenlernen. Durch eine Datenrisikobewertung lassen sich sensitive und leicht zugängliche Daten identifizieren, bevor sie von „freundlicher“ (also legitimer Assistenten), aber auch „unfreundlicher“ (von Cyberkriminellen genutzte) KI freigelegt werden. Die Reduzierung des Datenzugriffs ist dabei essenziell. Microsoft selbst sieht den Least-Privilege-Ansatz (Prinzip der minimalen Rechtevergabe, POLP) als Grundlage für die erfolgreiche und sichere Nutzung von Copilot an. Dieser muss fortlaufend durchgesetzt werden. Aufgrund der schieren Menge an Daten ist dies nur durch eine intelligente Automatisierung möglich, die in der Lage ist, genau zu bestimmen, wer tatsächlich Zugriff auf welche Daten benötigt und wer nicht. Und schließlich muss der Datenzugriff kontinuierlich überwacht werden. Sicherheitsverantwortliche müssen – ebenfalls automatisiert – auffälliges beziehungsweise kriminelles Verhalten schnell erkennen und stoppen können.

Die Sicherheit von Microsoft Copilot steht und fällt mit den Berechtigungen des jeweiligen Users. Nur wenn diese vor Einführung des KI-Assistenten auf das nötige Minimum reduziert werden und auch nach der Implementierung kontinuierlich auf diesem Niveau gehalten werden, können Unternehmen von den riesigen Chancen der künstlichen Intelligenz profitieren, ohne sich dabei neuen, potenziell verheerenden Sicherheitsrisiken auszusetzen.

Über den Autor:
Sven Carlsen ist Sales Engineer bei Varonis Systems.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Anwendungs- und Plattformsicherheit