Rokas - stock.adobe.com
ChatGPT: Das Security-Risiko Plug-ins in den Griff bekommen
Unsicheres Plug-in-Design bei LLMs öffnet Unternehmen für Angriffe. Erfahren Sie mehr über die Sicherheitsrisiken von ChatGPT-Plug-ins und wie Sie diese entschärfen können.
ChatGPT hat sich als aktueller Standard für generative KI-Technologie etabliert und eine Vielzahl von Unternehmen veranlasst, ihre APIs für die direkte Integration mit dem großen Sprachmodell zu öffnen.
Mehr als tausend Plug-ins von Drittanbietern - die dem LLM (Large Language Model) den Zugriff auf Anwendungen von Drittanbietern im Namen der Benutzer ermöglichen - sind über den abonnementbasierten Plug-in-Store von ChatGPT verfügbar. Doch während ChatGPT-Plug-ins von Drittanbietern die Produktivität und Effizienz erheblich steigern können, stellen sie Unternehmen auch vor besondere Sicherheitsherausforderungen.
So entdeckten Forscher des API-Sicherheitsanbieters Salt Security im März 2024 mehrere kritische Sicherheitslücken im Zusammenhang mit ChatGPT-Plug-ins. Sie wurden inzwischen behoben. Die Forscher sahen zwar keine Anzeichen für eine Ausnutzung, doch die Schwachstellen könnten Bedrohungsakteuren Folgendes ermöglicht haben:
- Installation bösartiger Plug-ins.
- Diebstahl von Zugangsdaten und Übernahme von Benutzerkonten bei verbundenen Drittanbieteranwendungen wie GitHub, wodurch Angreifer möglicherweise Zugriff auf geschützte Code-Repositories erhalten.
- Zugriff auf personenbezogene Informationen und andere sensible Daten.
ChatGPT-Plug-in-Sicherheitsrisiken
Unternehmen, die die Verwendung des ChatGPT-Plug-ins ermöglichen, sollten die folgenden Sicherheits- und Datenschutzaspekte berücksichtigen.
1. Datenschutz und Vertraulichkeit
Mit der zunehmenden Integration von ChatGPT am Arbeitsplatz und der Einbeziehung in die tägliche Arbeit besteht das Hauptrisiko in der möglichen Preisgabe vertraulicher oder geschützter Unternehmensdaten.
Wenn Mitarbeiter ChatGPT-Plug-ins verwenden, um interne Unternehmens- oder Kundendaten zu verarbeiten oder zu analysieren, besteht immer das Risiko, dass unbefugte Dritte - wie beispielsweise Plug-in-Entwickler, Anwendungsanbieter oder Cloud-Infrastruktur-Anbieter - auf diese Daten zugreifen und sie böswillig oder anderweitig verwenden könnten.
2. Compliance-Risiken
Unternehmen arbeiten oft unter strengen gesetzlichen Rahmenbedingungen, die vorschreiben, wie sie sensible Daten behandeln und schützen müssen. Die Verwendung von ChatGPT-Plug-ins - insbesondere solche, die Daten an Dritte übertragen - verstößt möglicherweise gegen Vorschriften wie die DSGVO (Datenschutz-Grundverordnung), den HIPAA und andere. Dies wiederum könnte zu erheblichen rechtlichen und finanziellen Folgen für das Unternehmen führen.
3. Abhängigkeiten und Zuverlässigkeit
Die Verwendung externer Plug-ins für kritische Geschäftsvorgänge birgt Risiken in Bezug auf die Abhängigkeit von Drittanbietern. Im Gegensatz zu nativen Plug-ins, die möglicherweise einer gründlichen internen Prüfung unterzogen werden, könnten diese ChatGPT-Plug-ins weniger genau geprüft werden.
Der wachsende Markt für diese Plug-ins ermutigt auch die Entwickler zu ständigen Experimenten. Daher ist es wahrscheinlicher, dass die Nutzer Unterbrechungen des Dienstes aufgrund von Ausfällen oder Änderungen der Nutzungsbedingungen erleben. Die langfristige Funktionsfähigkeit des Plug-ins könnte ebenfalls fraglich sein, je nachdem, wie sehr sich der Entwickler für die Wartung einsetzt.
4. Auftreten neuer Sicherheitslücken
ChatGPT-Plug-ins können potenziell neue Schwachstellen im IT-Ökosystem eines Unternehmens schaffen und die Anfälligkeit für Cyberangriffe erhöhen, entweder durch Fehler im Plug-in selbst oder durch mangelhafte Integrationen in bestehende Systeme.
Wie bereits erwähnt, fanden die Forscher von Salt Security mehrere Sicherheitslücken im Zusammenhang mit ChatGPT-Plug-ins, darunter auch eine Schwachstelle, die sie während des Installationsprozesses des Plug-ins entdeckten.
Während der Installation eines neuen Plug-ins leitet ChatGPT den Benutzer auf die Website des Plug-ins weiter, um einen Genehmigungscode zu erhalten. Der Benutzer sendet den Genehmigungscode an ChatGPT und ChatGPT installiert das Plug-in automatisch auf dem Benutzerkonto.
Die fragliche Sicherheitslücke ermöglichte es Angreifern jedoch, den Genehmigungscode abzufangen und durch ihren eigenen zu ersetzen, so dass der Benutzer ein bösartiges Plug-in genehmigen musste. Die Angreifer konnten dann ihre Anmeldedaten auf dem Konto des ahnungslosen Opfers installieren und Zugang zu privaten Informationen erhalten.
Diese Schwachstelle wurde zwar inzwischen behoben, aber sie zeigt, dass mit einem neuen ChatGPT-Plug-in neue Sicherheitsschwachstellen eingeführt werden können.
Wie man die Sicherheitsrisiken von ChatGPT-Plug-ins minimiert
Um diese Plug-in-Risiken zu minimieren, sollten Unternehmen die folgenden Strategien und Taktiken in Betracht ziehen.
Risikobewertungen
Führen Sie gründliche Risikobewertungen durch, bevor Sie ChatGPT-Plug-ins einführen. Dies könnte bedeuten, dass Sie die Bewertungen unabhängiger Dritter überwachen und risikoreiche Plug-ins intern auf eine Sperrliste setzen.
Führen Sie außerdem regelmäßig eine Bestandsaufnahme und Bewertung aller intern verwendeten Plug-ins durch und überprüfen Sie diese auf bekannte Sicherheitslücken und etwaige Aktualisierungen. Informieren Sie die Mitarbeiter entsprechend.
Maßnahmen zum Datenschutz und zur Datensicherheit
Stellen Sie sicher, dass jedes ChatGPT-Plug-in, das intern verwendet wird, den Datenschutz- und Sicherheitsrichtlinien des Unternehmens entspricht. Dies könnte bedeuten, sich an den Entwickler oder Anbieter des Plug-ins zu wenden, wenn die entsprechenden Informationen nicht ohne Weiteres verfügbar sind. Machen Sie bei Verstößen von dem Recht auf Löschung und Rücknahme von Daten Gebrauch, wie es zum Beispiel in der DSGVO vorgeschrieben ist.
Schulung und Sensibilisierung der Anwender
Da es sich hier um einen neuen und sich schnell entwickelnden Bereich handelt, könnte die Akzeptanz von Plug-ins sehr schnell sein. Daher sollten Sicherheitsverantwortliche in Erwägung ziehen, die Sicherheitsinhalte von ChatGPT-Plug-ins in die laufenden Lehrpläne für Sicherheitsschulungen aufzunehmen, selbst wenn die Mitarbeiter noch kein Interesse an der Verwendung solcher Plug-ins gezeigt haben.
Halten Sie die Schulungen einprägsam, wirkungsvoll und relativ kurz, damit sie den Nutzern im Gedächtnis bleiben.
Beobachtung von Verhaltensmustern
Implementieren Sie eine Verhaltensüberwachung, um zu verfolgen, wie Daten durch diese Plug-ins verwendet und abgerufen werden. Auch wenn ein vollständiges Verbot der Verwendung von ChatGPT innerhalb des Unternehmens eine Herausforderung darstellen könnte, müssen die Sicherheitsverantwortlichen die Benutzer dennoch ständig auf die Gefahren der gemeinsamen Nutzung sensibler Unternehmens- und Kundendaten mit LLMs und Plug-ins hinweisen.
Darüber hinaus sollten Organisationen die folgenden Schritte in Erwägung ziehen:
- Implementierung von Richtlinien auf ihren sicheren Web-Gateways oder Security-Service-Edge-Plattformen, um die Verwendung von Tools wie ChatGPT zu erkennen.
- Wenden Sie DLP-Richtlinien zum Schutz vor Datenverlust an, um zu ermitteln, welche Daten an diese Tools und ihre erweiterten Plug-ins übermittelt werden.
Zusammenfassend lässt sich sagen, dass ChatGPT-Plug-ins zwar leistungsstarke Optimierungsmöglichkeiten für Unternehmensabläufe bieten, aber auch eine Reihe von Sicherheitsherausforderungen mit sich bringen, die ein sorgfältiges Management erfordern. Unternehmen müssen einen vorsichtigen und strategischen Ansatz wählen, um diese Tools sicher in ihre Arbeitsabläufe zu integrieren.