Share
Beitragsbild zu Google warnt vor PROMPTFLUX: KI‑gesteuerte Malware schreibt eigenen Code

Google warnt vor PROMPTFLUX: KI‑gesteuerte Malware schreibt eigenen Code

6. November 2025

Cybersicherheitsforscher der Google Threat Intelligence Group (GTIG) haben einen Wandel in der Nutzung künstlicher Intelligenz durch Cyberkriminelle festgestellt. Die Entdeckung der experimentellen Malware PROMPTFLUX markiere einen Wendepunkt: Angreifer setzten KI inzwischen nicht mehr nur zur Effizienzsteigerung ein, sondern entwickelten Malware, die ihr Verhalten während der Ausführung dynamisch anpassen könne.

PROMPTFLUX, Anfang Juni 2025 identifiziert, sei der erste bestätigte Fall einer Schadsoftware, die ein großes Sprachmodell nutzt, um ihren eigenen Quellcode aktiv umzuschreiben. Der in VBScript geschriebene Dropper rufe dazu direkt die Gemini‑API von Google an, um Verschleierungs‑ und Umgehungstechniken zu erzeugen — womit herkömmliche Schutzmechanismen ein sich ständig veränderndes Ziel vorfänden.

Sicherheitsforscher sprechen von einer Eskalation der Bedrohungslage: Bei sogenannter „Just‑in‑Time“-Malware entwickle sich die Schadsoftware während des Angriffs weiter, um Erkennungssysteme zu umgehen.

Wichtige Erkenntnisse

  • Erste Nutzung von „Just‑in‑Time“-KI in Malware: Die GTIG hat erstmals Malware‑Familien wie PROMPTFLUX und PROMPTSTEAL identifiziert, die während der Ausführung große Sprachmodelle (LLMs) verwenden. Diese generierten dynamisch bösartige Skripte, verschleierten ihren Code und erstellten bösartige Funktionen bei Bedarf, statt sie statisch in die Malware einzubetten. Zwar noch in einem frühen Stadium, bedeute dies einen Schritt hin zu autonomeren und anpassungsfähigeren Bedrohungen.

  • Social‑Engineering zur Umgehung von Schutzmechanismen: Akteure nutzten in ihren Eingabeaufforderungen social‑engineering‑ähnliche Vorwände, etwa die Darstellung als Studierende in „Capture‑the‑Flag“-Wettbewerben oder als Cybersicherheitsforscher, um Gemini zur Freigabe sonst blockierter Informationen zu bewegen und so die Entwicklung von Tools zu ermöglichen.

  • Reifender Markt für KI‑Tools der Cyberkriminalität: Der Untergrundmarkt für illegale KI‑Werkzeuge habe sich 2025 weiterentwickelt. Es gebe Angebote für multifunktionale Tools, die Phishing, Malware‑Entwicklung und Schwachstellenforschung unterstützen und damit die Einstiegshürde für weniger versierte Akteure senkten.

  • Ausweitung entlang des gesamten Angriffszyklus: Staatlich geförderte Gruppen, unter anderem aus Nordkorea, dem Iran und der Volksrepublik China, missbrauchten Gemini weiterhin zur Unterstützung aller Phasen ihrer Operationen — von Aufklärung und Erstellung von Phishing‑Ködern bis hin zu Befehls‑ und Kontrollsystemen (C2) und Datenexfiltration.

Bedrohungsakteure entwickeln neuartige KI‑Fähigkeiten

Die Google Threat Intelligence Group (GTIG) identifizierte 2025 erstmals eine Malware‑Familie, die während der Ausführung KI‑Modelle nutzt, um ihr Verhalten dynamisch zu verändern. Zwar seien viele Implementierungen noch experimentell, doch zeige sich hier ein früher Hinweis darauf, wie Angriffe künftig KI‑Funktionen direkt in den Ablauf integrieren könnten.

Grafik Quelle: Google Threat Intelligence Group

Anfang Juni 2025 entdeckte GTIG den VBScript‑Dropper PROMPTFLUX. Die Malware fragt die Gemini‑API an, um „just‑in‑time“ Verschleierungs‑ und Umgehungscode zu erzeugen und so statische Signaturerkennung zu erschweren. Untersuchte Proben wirken wie Testversionen: Teile des Codes sind auskommentiert, API‑Aufrufe werden begrenzt, und bislang liegen keine Hinweise auf erfolgreiche Kompromittierungen vor; GTIG hat zugehörige Ressourcen deaktiviert.

Kernstück ist das sogenannte „Thinking Robot“-Modul, das per POST‑Anfragen mit einem fest kodierten Schlüssel das Modell „gemini‑1.5‑flash‑latest“ nutzt, um spezifischen VBScript‑Code zur Umgehung von Antivirenlösungen zu generieren. Die Funktion zur Selbstaktualisierung ist zwar auskommentiert, doch Protokolle in „%TEMP%\thinking_robot_log.txt“ deuten auf das Ziel hin, ein sich wandelndes, metamorphes Skript zu schaffen. Varianten wie eine „Thinging“-Funktion, die stündliche Code‑Regeneration anweist, zeigen, dass Angreifer mit rekursiven Mutationszyklen experimentieren.

Grafik Quelle: Google Threat Intelligence Group

Dateinamen und Lockvogel‑Köder in den Proben deuten auf typische Muster finanzmotivierter Akteure hin, eine Zuordnung zu konkreten Gruppen liegt jedoch nicht vor. PROMPTFLUX steht offenbar noch in Entwicklung, gilt aber als warnender Indikator dafür, dass KI‑gestützte Verschleierung künftig an Bedeutung gewinnen könnte.

Abhilfemaßnahmen

Nach aktuellen Erkenntnissen befindet sich die Aktivität noch in einer Entwicklungs- oder Testphase und kann bisher keine Netzwerke oder Geräte kompromittieren. Google hat die zugehörigen Ressourcen deaktiviert und Schutzmaßnahmen verstärkt. Zudem wurden sowohl die Klassifizierer als auch das Modell selbst verbessert, sodass künftige Anfragen zur Unterstützung solcher Angriffe erkannt und blockiert werden können.

LLM generiert Befehle zum Diebstahl von Dokumenten und Systeminformationen

Im Juni entdeckte die Google Threat Intelligence Group (GTIG) den von Russland unterstützten Akteur APT28 (FROZENLAKE), der neue Malware gegen die Ukraine einsetzt: PROMPTSTEAL, von CERT-UA als LAMEHUG gemeldet. Die Malware nutzt ein großes Sprachmodell (Qwen2.5-Coder-32B-Instruct) über die Hugging Face API, um Befehle dynamisch zu generieren, statt sie fest in den Code zu schreiben. PROMPTSTEAL tarnt sich als Bildgenerierungsprogramm, während es im Hintergrund Systeminformationen sammelt und Dokumente kopiert, die anschließend exfiltriert werden. Analysen zeigen, dass die Malware kontinuierlich weiterentwickelt wird, unter anderem mit neuen Verschleierungsmaßnahmen und angepassten C2‑Methoden.

Social Engineering zur Umgehung von Sicherheitsvorkehrungen

Bedrohungsakteure nutzen Social-Engineering-Vorwände, um KI-Sicherheitsmechanismen zu umgehen. So gaben sich Akteure etwa als Teilnehmer von „Capture-the-Flag“-Wettbewerben aus, um Gemini zur Bereitstellung von Informationen zu bewegen, die für Angriffe genutzt werden konnten. Ein China-naher Akteur setzte diesen Ansatz ein, um Lockinhalte zu erstellen, Infrastruktur aufzubauen und Tools für Datenexfiltration zu entwickeln. Kommentare wie „Ich arbeite an einem CTF-Problem“ tarnten die Ausnutzung als legitime Übung und lieferten Anleitungen für Phishing, Web-Shells und Schwachstellenausnutzung.

Abhilfemaßnahmen

Gemini-Sicherheitsvorkehrungen verhinderten während der Angriffe Schäden. Google deaktivierte die Ressourcen des Akteurs und nutzte die Erkenntnisse, um Klassifikatoren und das Modell selbst zu verbessern. Künftig kann Gemini solche Anfragen erkennen und keine Unterstützung für böswillige Aktivitäten mehr leisten.

Grafik Quelle: Google Threat Intelligence Group

Wachsender Markt für KI‑Tools in Untergrundforen

Im Untergrund wächst ein Markt für speziell entwickelte KI‑Tools und -Dienste, die Cyberkriminellen auch mit geringen technischen Kenntnissen komplexe, automatisierte Angriffe ermöglichen. Die Google Threat Intelligence Group (GTIG) beobachtet englisch‑ und russischsprachige Anzeigen für multifunktionale Werkzeuge, die Phishing, Malware‑Entwicklung und andere Phasen des Angriffszyklus unterstützen. Viele Angebote ähneln legitimer Produktwerbung, nutzen Freemium‑ oder Abo‑Modelle und verkaufen zusätzliche Funktionen wie Bild‑ oder API‑Zugriff. GTIG erwartet, dass mit der steigenden Verfügbarkeit solcher Dienste der Einsatz von KI bei kriminellen Operationen weiter zunehmen wird.

Grafik Quelle: Google Threat Intelligence Group
Fortgesetzte Nutzung von Gemini durch staatlich geförderte Akteure

Staatlich geförderte Gruppen aus Nordkorea, Iran und China nutzen weiterhin generative KI-Tools wie Gemini, um alle Phasen ihrer Angriffe zu unterstützen – von Aufklärung und Phishing bis hin zu C2-Entwicklung und Datenexfiltration.

China: Ein Akteur nutzte Gemini für Intrusion-Kampagnen auf Windows-Systemen, Cloud-Infrastruktur, vSphere und Kubernetes. Dazu gehörten Recherchen zu AWS-Token, Befehle zum Auflisten von Containern und Pods sowie Phishing auf MacOS.

Nordkorea: UNC1069 (MASAN) setzte Gemini ein, um Kryptowährungsdiebstahl zu planen, Social-Engineering-Material zu erstellen und betrügerische Software-Updates zu entwickeln, um Anmeldedaten zu erbeuten.

Iran: APT42 nutzte Gemini für die Erstellung von Phishing-Kampagnen, Übersetzungen und zur Entwicklung eines „Datenverarbeitungsagenten“, der natürliche Sprache in SQL-Abfragen umwandelt, um sensible Informationen auszuwerten.

Informationsoperationen: IO-Akteure verwenden Gemini für Recherchen, Content-Erstellung und Workflow-Unterstützung, jedoch ohne Nachweis erfolgreicher Automatisierung oder bahnbrechender Fähigkeiten.

Abhilfemaßnahmen: Google hat alle relevanten Konten deaktiviert, die Klassifikatoren und das Modell verstärkt, um zukünftige Missbräuche zu verhindern, und die Ressourcen der Akteure abgeschaltet. Gemini kann so künftig solche Angriffe erkennen und abwehren.

Lesen Sie auch: