phonlamaiphoto - stock.adobe.com
ChatGPT: Potenzielle Anwendungsfälle in der IT-Sicherheit
Mit der Weiterentwicklung der OpenAI-Technologie könnte ChatGPT dazu beitragen, Security-Teams zu entlasten. Dabei bieten sich einige Anwendungsfälle für die Praxis an.
Nach Angaben von UBS-Forschern zählte ChatGPT innerhalb von nur zwei Monaten nach dem offiziellen Start 100 Millionen aktive Nutzer und ist damit eine der am schnellsten wachsenden Anwendungen der Geschichte. Die Auswirkungen der Technologie auf die Cybersicherheit sind vielfältig: Während Cyberkriminelle die Möglichkeiten von ChatGPT sicherlich für wenig redliche Absichten nutzen werden, können Sicherheitsteams sie auch für gute Zwecke einsetzen. Unter anderem für ein effizienteres und effektiveres Management von Cyberrisiken.
Mit zunehmender Reife und Verbesserung der Technologie könnten die folgenden sinnvollen Anwendungsfälle von ChatGPT für die Cybersicherheit in Unternehmen entstehen.
1. Automatisierung der Cyberabwehr
ChatGPT könnte die überlasteten Analysten des Security Operations Center (SOC) unterstützen, indem es Security-Vorfälle automatisch analysiert und strategische Empfehlungen abgibt, um sowohl sofortige als auch langfristige Verteidigungsmaßnahmen zu ergreifen.
Anstatt das Risiko eines bestimmten PowerShell-Skripts von Grund auf zu analysieren, könnte sich ein SOC-Analyst beispielsweise auf die Bewertung und Empfehlungen von ChatGPT stützen. SecOps-Teams könnten der Lösung auch allgemeinere Fragen stellen, zum Beispiel, wie sie verhindern können, dass gefährliche PowerShell-Skripte ausgeführt oder Dateien aus nicht vertrauenswürdigen Quellen geladen werden. Damit ließe sich die allgemeine Sicherheitslage der Organisation zu verbessern.
Solche ChatGPT-Security-Anwendungsfälle könnten zu einer erheblichen Entlastung chronisch überlasteter und unterbesetzter SOC-Teams führen und im Gegenzug das gesamte Cyberrisikoniveau eines Unternehmens senken. Die Technologie könnte sich auch als nützlich für die Ausbildung und Schulung von Sicherheitsanalysten auf Einstiegsebene erweisen und sie schneller als bisher auf den neuesten Stand bringen.
2. Angriffssimulation
Die Parameter von ChatGPT sorgen dafür, dass es auf Anfragen, die es als verdächtig erkennt, nicht reagiert. Aber die Anwender entdecken immer wieder Schlupflöcher. Bittet man ChatGPT beispielsweise darum, Ransomware-Code zu schreiben, lehnt es dies ab. Viele Security-Forschende haben jedoch berichtet, dass sie den Chatbot durch die Beschreibung relevanter Taktiken, Techniken und Verfahren - ohne Verwendung von Begriffen wie Malware oder Ransomware - dazu bringen können, bösartigen Code zu produzieren.
Während die Entwickler von ChatGPT wahrscheinlich versuchen werden, solche Schlupflöcher zu schließen, sobald sie auftauchen, scheint es plausibel, dass Angreifer weiterhin Umgehungsmöglichkeiten finden werden. Die gute Nachricht ist, dass Penetrationstester diese Schlupflöcher auch nutzen können, um realistisches gegnerisches Verhalten über verschiedene Angriffsvektoren zu simulieren, mit dem Ziel, defensive Kontrollen zu verbessern.
3. Security-Berichte erstellen
Detaillierte Berichte über Security-Vorfälle spielen eine entscheidende Rolle, wenn es darum geht, den wichtigsten Interessengruppen zu helfen, die Sicherheitslage eines Unternehmens zu verstehen und zu verbessern. Zu den Adressaten gehören etwa SecOps-Teams, Sicherheitsverantwortliche, Führungskräfte, Wirtschaftsprüfer, Vorstandsmitglieder und Geschäftsbereiche.
Berichte zu Vorfällen zu verfassen, ist jedoch eine zeitaufwendige und mühsame Arbeit. Security-Praktiker können ChatGPT zur Erstellung von Berichten verwenden, indem sie die Anwendung mit Details wie den folgenden versorgen:
- Das Ziel der Kompromittierung oder des Angriffs.
- Die von den Angreifern verwendeten Skripte oder Shells.
- Relevante Daten aus der IT-Umgebung.
Wenn ChatGPT einige Aufgaben der Security-Berichterstattung übernehmen würde, hätten die Mitarbeiter mehr Zeit für andere wichtige Tätigkeiten. Auf diese Weise könnte generative KI die anhaltenden Probleme der Cybersicherheit mit Überlastung und Unterbesetzung weiter verringern.
4. Threat Intelligence
Sicherheitsforschende haben heute Zugang zu einer noch nie dagewesenen Breite und Tiefe von Security-Informationen aus Quellen wie der unternehmenseigenen Infrastruktur, externen Bedrohungsdaten-Feeds, öffentlich zugänglichen Berichten über Datenschutzverletzungen, dem Dark Web und sozialen Medien. Wissen ist zwar Macht, aber Menschen können eine solche Fülle von Informationen nicht immer sinnvoll analysieren und zusammenfassen.
Die generative KI hingegen könnte absehbar mit zeitnahen Ergebnissen Folgendes leisten:
- Große Mengen an Bedrohungsdaten aus verschiedenen Quellen verarbeiten.
- Erkennen von Mustern in Daten.
- Verfassen eines Leitfadens mit neuen gegnerischen Taktiken, Techniken und Verfahren.
- Empfehlung einschlägiger Strategien für die Cyberabwehr.
Tools wie ChatGPT könnten Security-Teams künftig dabei unterstützen, ein vollständiges, genaues und minutenaktuelles Verständnis der Bedrohungslandschaft zu erhalten. Dies kann sie wiederum in die Lage versetzen, ihre Sicherheitskontrollen entsprechend anzupassen.