
2023 machte der vermutlich in der Volksrepublik China ansässige Threatactor SweetSpecter erstmals von sich reden. Damals zielten seine Cyberangriffe auf politische Einrichtungen im Nahen Osten, in Afrika und Asien. Nun hat er sich ein neues Angriffsziel gesucht: das bekannte US-amerikanische KI-Unternehmen OpenAI.
Das hat vor kurzem bekannt gegeben, dass einige seiner Mitarbeiter Ziel einer Spear-Phishing-Angriffskampagne geworden seien. Zu Schäden sei es nicht gekommen. Die Sicherheitsteams des Unternehmens hätten den Angriff rechtzeitig erkannt, die implementierte Sicherheitsarchitektur habe gehalten.
Für seinen Spear Phishing-Angriff habe SweetSpecter E-Mails mit bösartigen Anhängen an Mitarbeiter von OpenAI versandt – sowohl an die privaten als auch an die Mitarbeiter-E-Mail-Konten. SweetSpecter habe sich dabei als ChatGPT-Nutzer ausgegeben, der Support bei der Aufspürung und Behebung einiger ChatGPT-Fehler benötige. Klickten die Mitarbeiter auf den Anhang der E-Mail, der den Namen ‚some problems.zip‘ trug, öffneten sie eine DOCX-Datei, die verschiedene Fehler- und Servicemeldungen von ChatGPT enthielt. Was sie nicht mitbekamen: gleichzeitig begann sich im Hintergrund die Malware SugarGh0st RAT zu entschlüsseln, zu installieren und zu starten. Sie sollte SweetSpecter in die Lage versetzen, die Kontrolle über den kompromittierten Computer zu erhalten, um zum Beispiel Screenshots zu erstellen und Daten zu kompromittieren oder zu entwenden.
OpenAI konnte rasch und erfolgreich auf die Kampagne reagieren. Im Mai hatten seine Sicherheitsteams einen Tipp einer ungenannten vertrauenswürdigen Quelle erhalten. Umgehend setzten sie sich mit Mitarbeitern, von denen angenommen wurde, dass sie Ziel der Angriffs-Kampagne geworden seien, in Kontakt. Rasch konnte geklärt werden, dass die E-Mail-Sicherheitskontrollen des Unternehmens gehalten hatten. Keine der bösartigen E-Mails war bis zu einem Mitarbeiter-Konto im Unternehmensnetzwerk vorgedrungen.
Dennoch begannen die Sicherheitsteams den Angriff und seine Infrastruktur eingehend zu analysieren. Dabei kam auch ChatGPT zum Einsatz – um Interaktionen von feindlichen Konten zu analysieren, zu kategorisieren, zu übersetzen und zusammenzufassen. Interessanterweise stießen sie hierbei auch auf eine Reihe verdächtiger ChatGPT-Konten, die wahrscheinlich von SweetSpecter genutzt worden waren – um Antworten auf technische Fragen zu erhalten, um Scripting- und Schwachstellenforschungsaufgaben zu erledigen. Sie alle wurden vorsichtshalber von den OpenAI-Sicherheitsteams geschlossen.
Das Beispiel OpenAI zeigt, wie wichtig es nach wie vor ist, ein möglichst engmaschiges Netz aus menschlichen Informanden zu unterhalten, die verdächtige Aktivitäten melden. Nur durch das kontinuierliche Teilen bedrohungsrelevanter Erkenntnisse, nur durch kollektive Zusammenarbeit kann und wird es gelingen, die Risikolage zu verbessern und KI-Plattformen wie ChatGPT auch in Zukunft sicher zu halten.
OpenAI hatte Glück. Eine ungenannte Quelle informierte das Unternehmen über den Angriff auf seine Mitarbeiter. Seine Sicherheitsteams konnten dann erfolgreich die erforderlichen Gegenmaßnahmen einleiten. Besser wäre es aber gewesen, wenn die eigenen Mitarbeiter die Sicherheitsteams informiert hätten – auch über verdächtige Aktivitäten auf ihren privaten E-Mail-Accounts. Vielerorts mangelt es hier immer noch am erforderlichen Sicherheitsbewusstsein, an einer stabilen und effektiven Sicherheitskultur. Viele Unternehmen schrecken immer noch vor Investitionen in regelmäßige Sicherheitsschulungen, -trainings und -tests für ihre Belegschaft zurück – und verbauen sich damit die Chance, dass ihre Mitarbeiter Phishing-, Spear Phishing und Social Engineering-Angriffe rechtzeitig erkennen und ihre Sicherheitsteams dabei unterstützen, diese erfolgreich abzuwehren.
Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Wenn Angreifer selbst zum Ziel werden: Wie Forscher eine Infostealer-Infrastruktur kompromittierten

Mehr Gesetze, mehr Druck: Was bei NIS2, CRA, DORA & Co. am Ende zählt

WinDbg-UI blockiert beim Kopieren: Ursachenforschung führt zu Zwischenablage-Deadlock in virtuellen Umgebungen

RISE with SAP: Wie Sicherheitsmaßnahmen den Return on Investment sichern

Jailbreaking: Die unterschätzte Sicherheitslücke moderner KI-Systeme
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI

Allianz Risk Barometer 2026: Cyberrisiken führen das Ranking an, KI rückt auf Platz zwei vor

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung
Hamsterrad-Rebell

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus






