
2023 machte der vermutlich in der Volksrepublik China ansässige Threatactor SweetSpecter erstmals von sich reden. Damals zielten seine Cyberangriffe auf politische Einrichtungen im Nahen Osten, in Afrika und Asien. Nun hat er sich ein neues Angriffsziel gesucht: das bekannte US-amerikanische KI-Unternehmen OpenAI.
Das hat vor kurzem bekannt gegeben, dass einige seiner Mitarbeiter Ziel einer Spear-Phishing-Angriffskampagne geworden seien. Zu Schäden sei es nicht gekommen. Die Sicherheitsteams des Unternehmens hätten den Angriff rechtzeitig erkannt, die implementierte Sicherheitsarchitektur habe gehalten.
Für seinen Spear Phishing-Angriff habe SweetSpecter E-Mails mit bösartigen Anhängen an Mitarbeiter von OpenAI versandt – sowohl an die privaten als auch an die Mitarbeiter-E-Mail-Konten. SweetSpecter habe sich dabei als ChatGPT-Nutzer ausgegeben, der Support bei der Aufspürung und Behebung einiger ChatGPT-Fehler benötige. Klickten die Mitarbeiter auf den Anhang der E-Mail, der den Namen ‚some problems.zip‘ trug, öffneten sie eine DOCX-Datei, die verschiedene Fehler- und Servicemeldungen von ChatGPT enthielt. Was sie nicht mitbekamen: gleichzeitig begann sich im Hintergrund die Malware SugarGh0st RAT zu entschlüsseln, zu installieren und zu starten. Sie sollte SweetSpecter in die Lage versetzen, die Kontrolle über den kompromittierten Computer zu erhalten, um zum Beispiel Screenshots zu erstellen und Daten zu kompromittieren oder zu entwenden.
OpenAI konnte rasch und erfolgreich auf die Kampagne reagieren. Im Mai hatten seine Sicherheitsteams einen Tipp einer ungenannten vertrauenswürdigen Quelle erhalten. Umgehend setzten sie sich mit Mitarbeitern, von denen angenommen wurde, dass sie Ziel der Angriffs-Kampagne geworden seien, in Kontakt. Rasch konnte geklärt werden, dass die E-Mail-Sicherheitskontrollen des Unternehmens gehalten hatten. Keine der bösartigen E-Mails war bis zu einem Mitarbeiter-Konto im Unternehmensnetzwerk vorgedrungen.
Dennoch begannen die Sicherheitsteams den Angriff und seine Infrastruktur eingehend zu analysieren. Dabei kam auch ChatGPT zum Einsatz – um Interaktionen von feindlichen Konten zu analysieren, zu kategorisieren, zu übersetzen und zusammenzufassen. Interessanterweise stießen sie hierbei auch auf eine Reihe verdächtiger ChatGPT-Konten, die wahrscheinlich von SweetSpecter genutzt worden waren – um Antworten auf technische Fragen zu erhalten, um Scripting- und Schwachstellenforschungsaufgaben zu erledigen. Sie alle wurden vorsichtshalber von den OpenAI-Sicherheitsteams geschlossen.
Das Beispiel OpenAI zeigt, wie wichtig es nach wie vor ist, ein möglichst engmaschiges Netz aus menschlichen Informanden zu unterhalten, die verdächtige Aktivitäten melden. Nur durch das kontinuierliche Teilen bedrohungsrelevanter Erkenntnisse, nur durch kollektive Zusammenarbeit kann und wird es gelingen, die Risikolage zu verbessern und KI-Plattformen wie ChatGPT auch in Zukunft sicher zu halten.
OpenAI hatte Glück. Eine ungenannte Quelle informierte das Unternehmen über den Angriff auf seine Mitarbeiter. Seine Sicherheitsteams konnten dann erfolgreich die erforderlichen Gegenmaßnahmen einleiten. Besser wäre es aber gewesen, wenn die eigenen Mitarbeiter die Sicherheitsteams informiert hätten – auch über verdächtige Aktivitäten auf ihren privaten E-Mail-Accounts. Vielerorts mangelt es hier immer noch am erforderlichen Sicherheitsbewusstsein, an einer stabilen und effektiven Sicherheitskultur. Viele Unternehmen schrecken immer noch vor Investitionen in regelmäßige Sicherheitsschulungen, -trainings und -tests für ihre Belegschaft zurück – und verbauen sich damit die Chance, dass ihre Mitarbeiter Phishing-, Spear Phishing und Social Engineering-Angriffe rechtzeitig erkennen und ihre Sicherheitsteams dabei unterstützen, diese erfolgreich abzuwehren.
Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Der Wettbewerbsvorteil dezentraler Identität im europäischen Finanzwesen

Wo sind Deine Daten hin?

Autonome APTs: Die Claude-basierte Operation wird nicht die letzte sein

Stand der Technik umsetzen: Wie Unternehmen jetzt handeln sollten

Industrielles Phishing gegen Italiens Infrastruktur: Group‑IB entdeckt automatisiertes Aruba‑Imitierendes Phishing‑Kit
Studien

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand

BSI-Lagebericht 2025: Fortschritte in der Cybersicherheit – Deutschland bleibt verwundbar

Forrester veröffentlicht Technologie- und Sicherheitsprognosen für 2026
Whitepaper

Industrial AI: KI als Treiber der Wettbewerbsfähigkeit

Vorbereitung auf künftige Cyberbedrohungen: Google veröffentlicht „Cybersecurity Forecast 2026“

Aktuelle Studie zeigt: Jeder Vierte in Deutschland bereits Opfer von digitalem Betrug

Cybersecurity in Deutschland: 200 Milliarden Euro Schaden trotz steigender IT-Ausgaben

Die EU bleibt weiterhin Ziel zahlreicher, sich überschneidender Bedrohungsgruppen
Hamsterrad-Rebell

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme

Infoblox zeigt praxisnahe IT-Security-Strategien auf it-sa 2025 und exklusivem Führungskräfte-Event in Frankfurt

IT-Security Konferenz in Nürnberg: qSkills Security Summit 2025 setzt auf Handeln statt Zögern

Von Palo Alto nach Paderborn: Wie eine Initiative US-Cyberfachkräfte für Deutschland gewinnen will






