DIgilife - stock.adobe.com

Wie generative KI das Sicherheitsrisiko Phishing beeinflusst

Kriminelle nutzen KI-Chatbots wie ChatGPT, um ausgeklügelte Phishing-Angriffe auf Unternehmen zu optimieren. IT-Teams müssen entsprechende Verteidigungsmaßnahmen entwickeln.

In dem Maße, wie die Popularität von KI zunimmt und ihre Einsatzmöglichkeiten dank des generativen KI-Modells zur kontinuierlichen Verbesserung steigen, wird sie auch immer stärker in das Arsenal der Bedrohungsakteure integriert.

Um die immer raffinierteren KI-Phishing-Angriffe zu entschärfen, müssen IT-Teams sowohl verstehen wie Cyberkriminelle die Technologie nutzen, als auch KI und maschinelles Lernen zu Verteidigungszwecken einsetzen.

Was sind KI-gestützte Phishing-Angriffe?

Phishing-Angriffe gehören seit Langem zu den besonders erfolgreichen Angriffsmethoden. Sie setzen auf verschiedene inhaltliche Methoden und nutzen Social Engineering, um ahnungslose Benutzer dazu zu bringen, auf bösartige Links zu klicken, mit Malware infizierte Dateien herunterzuladen und Passwörter sowie geschäftliche, finanzielle und persönliche Daten weiterzugeben.

Während Phishing-Angriffe für Benutzer und Sicherheitsteams schon immer schwer zu erkennen und zu verhindern waren, hat KI ihre Wirksamkeit und Wirkung erhöht, indem sie schwerer zu erkennen sind und legitimer erscheinen. Auf der Angriffsseite erhöht die generative KI die Effektivität und die Wirkung einer Vielzahl von Cyberbedrohungen und Phishing-Angriffen. Im Folgenden finden Sie Beispiele für Angriffe, die durch KI und generative KI (GenAI) verstärkt wurden.

Allgemeine Phishing-Angriffe

Generative KI kann herkömmliche Phishing-Angriffe - über E-Mails, Direktnachrichten und gefälschte Websites - realistischer gestalten, indem sie Rechtschreib- und Grammatikfehler eliminiert und einen überzeugend professionellen Schreibstil anwendet.

Große Sprachmodelle (Large Language Models, LLMs) können auch Echtzeitinformationen von Nachrichtenagenturen, Unternehmenswebsites und anderen Quellen aufnehmen. Die Einbeziehung aktueller Details in Phishing-E-Mails könnte sowohl die Glaubwürdigkeit der Nachrichten erhöhen als auch ein Gefühl der Dringlichkeit erzeugen, dass die Zielpersonen zum Handeln zwingt.

Und schließlich können KI-Chatbots kompromittierte Geschäfts-E-Mails und andere Phishing-Kampagnen viel schneller erstellen und verbreiten, als es Menschen je könnten, was die Angriffsfläche vergrößert.

Spear Phishing

Spear-Phishing-Angriffe nutzen Social Engineering, um bestimmte Personen mit Informationen anzusprechen, die auf Websites sozialer Medien, bei Datendiebstählen und aus anderen Quellen gesammelt wurden. KI-generierte Spear-Phishing-E-Mails sind oft sehr überzeugend und können die Empfänger täuschen.

Auf der Black Hat USA 2021 präsentierte beispielsweise die Government Technology Agency von Singapur die Ergebnisse eines Experiments, bei dem das Sicherheitsteam simulierte Spear-Phishing-E-Mails an interne Nutzer verschickte. Einige waren von Menschenhand verfasst, andere wurden von der GPT-3-Technologie von OpenAI generiert. Es klickten deutlich mehr Menschen auf die Links in den von der KI generierten Phishing-E-Mails als in den von Menschen geschriebenen E-Mails.

In der heutigen Zeit ist die LLM-Technologie weit verbreitet und immer ausgefeilter. Generative KI kann - in Sekundenschnelle - sensible Informationen über eine Organisation oder eine Person sammeln und kuratieren und diese nutzen, um sehr gezielte und überzeugende Nachrichten zu erstellen und sogar Telefonanrufe und Videos zu fälschen.

Vishing und Deepfakes

Vishing oder Voice Phishing nutzt Telefonanrufe, Sprachnachrichten und Voicemails, um Menschen dazu zu bringen, vertrauliche Informationen preiszugeben. Wie andere Arten von Phishing versuchen auch Vishing-Angriffe in der Regel, ein Gefühl der Dringlichkeit zu erzeugen, indem sie beispielsweise auf einen wichtigen Termin oder ein kritisches Kundenproblem hinweisen.

Bei einem herkömmlichen Vishing-Betrug sammelt der Cyberkriminelle Informationen über ein potenzielles Opfer und ruft an oder hinterlässt eine Nachricht, die vorgibt, ein vertrauenswürdiger Kontakt zu sein. So begann beispielsweise ein massiver Ransomware-Angriff auf MGM Resorts Berichten zufolge damit, dass ein Angreifer den IT-Service-Desk anrief und sich als MGM-Mitarbeiter ausgab. Dem böswilligen Hacker gelang es, das IT-Team dazu zu bringen, das Passwort des Mitarbeiters zurückzusetzen, wodurch die Angreifer Zugang zum Netzwerk erhielten.

Die generative KI verändert Vishing-Angriffe in zweierlei Hinsicht:

Wie bereits erwähnt, kann die KI-Technologie die Recherchephase für Angreifer effizienter und effektiver gestalten. Ein LLM wie GPT-3 oder GPT-4 kann nahezu sofort Informationen aus dem gesamten Internet für Social-Engineering-Zwecke sammeln.

Angreifer können außerdem generative KI nutzen, um die Stimme eines vertrauenswürdigen Kontakts zu klonen und gefälschte Audiodaten zu erstellen. Stellen Sie sich beispielsweise vor, ein Mitarbeiter erhält eine Sprachnachricht von jemandem, der genau wie der kaufmännische Leiter klingt, und bittet um eine dringende Überweisung.

Wie man KI-Phishing-Angriffe erkennt und verhindert

KI im Allgemeinen und GenAI im Besonderen erschweren bereits jetzt das Leben von Cybersicherheitsexperten und Endnutzern gleichermaßen und werden dies auch weiterhin tun.

Um KI-Phishing-Angriffe zu erkennen und zu verhindern, ist es wichtig, diese bewährten Vorgehensweisen zu befolgen:

  • Führen Sie Schulungen zum Thema Sicherheitsbewusstsein durch. Behandeln Sie bei Schulungen zum Thema Sicherheitsbewusstsein sowohl traditionelle als auch neue Phishing-Angriffstechniken, um sicherzustellen, dass die Mitarbeiter in der Lage sind, Phishing-Betrug zu erkennen.
  • Achten Sie auf Warnsignale. Achten Sie auf typische Fehler bei Phishing-Betrug, wie Tippfehler, falsche E-Mail-Adressen und andere Fehler, sowie auf verdächtige E-Mails, die ein Gefühl der Dringlichkeit erzeugen oder von einem Betrüger stammen könnten.
  • Verzichten Sie auf das Klicken auf Links und das Herunterladen von Anhängen. Prüfen Sie Links und Downloads von allen Absendern, auch von vertrauenswürdigen Quellen. Kopieren Sie keine Links und fügen Sie sie nicht in Browser ein.
  • Geben Sie keine Daten weiter. Hinterfragen Sie jede Nachricht, in der Sie nach persönlichen, geschäftlichen oder finanziellen Daten gefragt werden.
  • Setzen Sie Multifaktor-Authentifizierung und andere bewährte Verfahren für die Kontosicherheit ein. Geben Sie niemals Passwörter weiter und befolgen Sie die Richtlinien zur Passworthygiene.
  • Verwenden Sie E-Mail-Sicherheits- und Antiphishing-Tools. Gateways für E-Mail-Sicherheit, E-Mail-Filter, Antivirus- und Antimalware-Programme, Firewalls sowie Tools und Erweiterungen für Webbrowser können viele – aber nicht alle – Phishing-Versuche abfangen. Setzen Sie eine mehrstufige Sicherheitsstrategie ein.
  • E-Mail-Sicherheitsprotokolle anwenden. E-Mail-Sicherheitsprotokolle wie SSL/TLS für HTTPS, SMTP S/MIME sowie E-Mail-Authentifizierungsprotokolle wie SPF, DKIM, DMARC erhöhen die E-Mail-Sicherheit und helfen, die E-Mail-Authentizität sicherzustellen.

Und künstliche Intelligenz lässt sich einsetzen, um KI-unterstützte Bedrohungen zu erkennen. Werkzeuge mit KI-Unterstützung können einen Beitrag dazu leisten, KI-Phishing-Angriffe zu unterbinden.

KI kann die Phishing-Prävention und -Erkennung auf folgende Weise verbessern:

  • Schulung von Endbenutzern. GenAI-Modelle können Schulungen zum Sicherheitsbewusstsein individueller, effizienter und effektiver gestalten. So könnte ein KI-Chatbot beispielsweise einen Schulungsplan und Phishing-Simulationen automatisch für jeden einzelnen Benutzer anpassen, um die Schwachstellen jedes Einzelnen auf der Grundlage historischer oder Echtzeit-Leistungsdaten zu ermitteln.
    Die Technologie könnte auch die Lernmodalität ermitteln, die für jeden Mitarbeiter am besten geeignet ist - persönlich, Audio, interaktiv, Video etc. - und die Inhalte entsprechend präsentieren. Durch die Maximierung der Effektivität von Schulungen zum Sicherheitsbewusstsein auf granularer Ebene könnte GenAI das allgemeine Cyberrisiko erheblich reduzieren.
  • Kontextbasierte Verteidigung. KI und Tools für maschinelles Lernen können schnell eine Vielzahl von Bedrohungsdaten sammeln und verarbeiten, um zukünftige Angriffe vorherzusagen und zu verhindern sowie aktive Bedrohungen zu erkennen. KI kann zum Beispiel historische und aktuelle Vorfälle in einer Vielzahl von Organisationen, Arten von Cyberangriffen, geografischen Regionen, Unternehmensbereichen, Abteilungen und Mitarbeitertypen analysieren.

Anhand dieser Informationen könnte GenAI erkennen, welche Arten von Angriffen für ein bestimmtes Unternehmen am wahrscheinlichsten sind, und dann automatisch Sicherheitstools entsprechend trainieren. So könnte die KI beispielsweise bestimmte Malware-Signaturen für eine Antiviren-Engine markieren, die Blockliste einer Firewall aktualisieren oder obligatorische sekundäre oder tertiäre Authentifizierungsmethoden für risikoreiche Zugriffsversuche auslösen.

Erfahren Sie mehr über Bedrohungen