
Sicherheitsforscher des Heidelberger IT-Sicherheitsunternehmens ERNW haben in einem aktuellen Blogbeitrag auf Risiken hingewiesen, die mit KI-gestützten E-Mail-Clients verbunden sind. Konkret geht es um sogenannte Prompt-Injektionen, mit denen Angreifer E-Mails manipulieren und so sensible Daten abgreifen können.
Mit der zunehmenden Integration von KI-Assistenten in Produkte habe ERNW begonnen, seine Test- und Erkennungsrichtlinien für Sprachmodelle (LLMs) zu verfeinern. Immer mehr Kunden ließen zudem gezielt KI-Anwendungen auf ihre Sicherheit prüfen. Die Kollegen Florian Grunow und Hannes Mohr analysierten neue Angriffsvektoren und stellten ihre Ergebnisse auf der Konferenz TROOPERS24 vor.
Im Blogbeitrag, verfasst von Malte Heinzelmann und Florian Port, schildern die Forscher mehrere Exploit-Ketten in einem KI-E-Mail-Client, der Google Mail um einen ChatGPT-ähnlichen Assistenten erweitert. Sie fanden heraus, dass schädlicher Code in HTML-E-Mails versteckt werden kann und vom Modell auch dann ausgeführt wird, wenn der Nutzer nicht aktiv mit der Nachricht interagiert.
Die Untersuchung begann mit einer Analyse der Angriffsfläche aus Sicht eines Angreifers. Dazu prüften die Forscher, welche Daten und Funktionen dem LLM zur Verfügung stehen. Über die Chat-Funktion des Testkontos konnten sie Systemaufforderungen, Kontextinformationen sowie Funktionsnamen mitsamt Parametern extrahieren.
Anschließend testeten sie E-Mails mit eingebetteten Anweisungen. Schon ein einfacher Versuch zeigte Erfolg: Das Modell fügte auf Anweisung das Wort „Ente“ in eine Zusammenfassung ein. Darauf aufbauend entwickelten die Forscher komplexere Nutzlasten.
Beispiele für die getesteten Payloads:
-
Payload 1: Aufforderung an das Modell, alle verfügbaren Funktionen mit Parametern offenzulegen.
-
Payload 2: Manipulation, damit das Modell eine Phishing-Mail als legitim darstellt und Links verfälscht. Die Anweisungen wurden unsichtbar in HTML-Elementen versteckt.
-
Payload 3: Dauerhafte Manipulation der LLM-Memories, sodass in jeder Antwort Werbung für die Konferenz TROOPERS erscheint.
-
Payload 4: Abfrage des Posteingangs per Funktion search_email und Exfiltration sensibler Daten über einen präparierten Link.
-
Payload 5: Persistente Prompt-Injektion über die Funktion read_webpage, die es ermöglicht, Anweisungen dynamisch von einer externen Angreifer-Website nachzuladen.
-
Payload 6 und 7: Angriff ohne Nutzerinteraktion. Dabei wurden vordefinierte Funktionen der Shortwave-Oberfläche („Dringende E-Mails finden“ und „Posteingang organisieren“) missbraucht, um schädliche Payloads auszuführen.
Die Experimente zeigen, wie leicht sich KI-basierte E-Mail-Assistenten durch präparierte Nachrichten täuschen lassen.
Selbst ohne direkte Interaktion des Nutzers konnten Angreifer sensible Daten auslesen oder dauerhafte Manipulationen am System vornehmen.
Prompt-Injektionen: Forscher zeigen Grenzen und Sicherheitsmaßnahmen bei Shortwave
Die IT-Spezialisten von ERNW weisen in ihrem Bericht darauf hin, dass bei der Ausnutzung der entdeckten Schwachstellen bestimmte Einschränkungen zu beachten sind. So könne dieselbe Prompt-Injection-Nutzlast aufgrund der nicht-deterministischen Natur von Sprachmodellen zu unterschiedlichen Ergebnissen führen – ein Umstand, der nicht nur für die untersuchte Anwendung, sondern für alle LLMs gelte.
Zudem sei die für einige Proof-of-Concepts notwendige Webbrowser-Integration bei Shortwave standardmäßig deaktiviert. Die Wahrscheinlichkeit, dass Anwender diese Funktion aktivieren, schätzen die Forscher jedoch als hoch ein. Auch das Tool read_webpage zeige ein Bestätigungsfeld an, das sich über die Option „Nicht erneut fragen“ dauerhaft deaktivieren lasse. Ohne diese Einstellung seien manche Angriffe auf manuelle Bestätigung angewiesen.
Fazit der Untersuchung
Am Ende der Analyse stießen die Experten auf eine vergleichbare Veröffentlichung, die Googles Gemini for Workspaces betrifft. Dort verhindere jedoch das Verbot externer Webseitenaufrufe eine automatische Datenexfiltration. Zusätzlich werde beim Anklicken von Links in Modellantworten stets die vollständige URL angezeigt. Weder Google noch Shortwave rendern außerdem Bilder innerhalb der Modellausgabe, was Datenabflüsse über Bild-URLs erschwert.
Wichtige Erkenntnisse für den sicheren Umgang mit LLMs
-
Zero Trust: Alle Eingaben sollten als potenziell bösartig gelten, Modellantworten als nicht vertrauenswürdig.
-
Manipulation einkalkulieren: Sprachmodelle können zu ungewollten Aktionen verleitet werden, daher dürfen sie ohne menschliche Bestätigung keine sicherheitskritischen Aufgaben ausführen.
-
Datenexfiltration verhindern: Funktionen wie Bild-Rendering oder selbstständige Webanfragen sind kritisch. Nutzer sollten beim Klicken auf Links eine Warnung mit der vollständigen URL erhalten.
-
Alle Daten als zugänglich behandeln: Jedes vom Modell erreichbare Datum muss als potenziell für den Nutzer abrufbar gelten.
-
LLMs als Vermittler: Die Berechtigungen eines Modells dürfen niemals über die des Nutzers hinausgehen.
Reaktion von Shortwave
Das Unternehmen hat auf die Meldung reagiert und mehrere Änderungen umgesetzt:
-
Speicheraktualisierungen werden nun detailliert angezeigt.
-
Beim Öffnen von Links erscheint ein Hinweisfenster mit Warnung und vollständiger URL.
-
Die Systemaufforderung wurde verstärkt, um auf versteckte Anweisungen hinzuweisen.
-
Die Webbrowser-Integration ist nun eine kostenpflichtige Zusatzfunktion.
Zeitplan der Offenlegung
-
22. Juli 2025: Meldung des Problems an Shortwave.
-
23. Juli 2025: Bestätigung des Eingangs durch den Anbieter.
-
14. August 2025: Mitteilung über implementierte Sicherheitsmaßnahmen.
-
02. September 2025: Öffentliche Veröffentlichung des Blogbeitrags.
Die Forscher bedanken sich ausdrücklich für die konstruktive Zusammenarbeit mit dem Anbieter.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Lesen Sie auch
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Wie Cyberkriminelle Microsoft-Nutzer mit gefälschten Gerätecodes täuschen

OpenAI präsentiert GPT-5.2-Codex: KI-Revolution für autonome Softwareentwicklung und IT-Sicherheit

Speicherfehler in Live-Systemen aufspüren: GWP-ASan macht es möglich

Geparkte Domains als Einfallstor für Cyberkriminalität: Über 90 Prozent leiten zu Schadsoftware weiter

Umfassender Schutz für geschäftskritische SAP-Systeme: Strategien und Best Practices
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







