
Sicherheitsforscher von LayerX haben eine Schwachstelle im neuen agentenbasierten Browser ChatGPT Atlas entdeckt, die das Einschleusen schädlicher Befehle in ChatGPT erlaubt. Laut LayerX betrifft das Problem Nutzer unabhängig vom verwendeten Browser, stellt aber für Atlas-Anwender ein besonders großes Risiko dar: Dem Bericht zufolge fehlen dem Browser wirksame Anti-Phishing-Mechanismen, wodurch Atlas-Nutzende deutlich anfälliger sein könnten als Anwender herkömmlicher Browser wie Chrome oder Edge. LayerX hat den Fund im Rahmen eines Responsible-Disclosure-Verfahrens an OpenAI gemeldet; technische Details, die eine Nachahmung ermöglichen würden, bleiben dabei unpubliziert.
Grafik Quelle: LayerX
So funktioniert der Exploit:
Sicherheitsforscher beschreiben einen CSRF‑Trick, mit dem Angreifer versteckte Anweisungen in den Konversationsspeicher von ChatGPT einschleusen können. Besuch einer manipulierten Webseite → Speicher „verunreinigt“ → bei der nächsten legitimen Anfrage können dadurch Konto‑, Browser‑ oder Systemzugriffe möglich werden. Besonders gefährdet erscheinen Nutzer des vorangemeldeten ChatGPT‑Atlas‑Browsers.
Forscher haben eine Methode publik gemacht, mit der Angreifer über eine manipulierte Webseite die bestehende Anmeldung eines ChatGPT‑Nutzers ausnutzen. Per Cross‑Site‑Request‑Forgery (CSRF) werden heimlich Anweisungen in den Speicher des großen Sprachmodells injiziert. Sobald der Betroffene das System später ganz normal nutzt, können diese manipulierten Speicherzustände aufgerufen werden und schadhafte Aktionen auslösen — von der Übernahme des Kontos bis hin zu Angriffen auf lokale Dateien oder Systeme mit Nutzerzugang. Tests des Teams zeigen, dass Anwender des automatisch angemeldeten Atlas‑Browsers ein deutlich erhöhtes Phishing‑Risiko tragen.
Schritt‑für‑Schritt
-
Nutzer ist angemeldet (Auth‑Cookie/Token vorhanden).
-
Klick auf bösartigen Link → kompromittierte Webseite.
-
Seite löst CSRF aus und nutzt die bestehende Authentifizierung aus.
-
Versteckte Anweisungen werden in den Chat‑Speicher eingeschleust.
-
Bei der nächsten Anfrage ruft ChatGPT die manipulierten Speicherinhalte auf — mögliche Remote‑Code‑Ausführung und Zugriffsschäden.
Grafik Quelle: LayerX
Verwendung von Cross-Site Request Forgery (CSRF) zum Zugriff auf LLMs
Ein CSRF-Angriff bringt den Browser eines eingeloggten Nutzers dazu, unbeabsichtigt statusändernde Anfragen an eine Website zu senden. Nutzt ein Angreifer diese Schwachstelle, führt die Zielseite Aktionen im Namen des Opfers aus, da der Browser automatisch Sitzungscookies und Authentifizierungsheader mitsendet.
Der Angriff setzt voraus, dass das Opfer auf der Zielseite angemeldet ist und Sitzungscookies gespeichert sind. Besucht das Opfer eine bösartige Seite — etwa per Link, Bild-Tag, Formular oder Skript —, wird eine manipulierte Anfrage an die Zielseite abgeschickt. Für gewöhnlich zielen CSRF-Angriffe auf Kontoänderungen, Geldtransfers oder Einkäufe ab.
Bei KI-Systemen lässt sich derselbe Vektor nutzen: Über CSRF können Angreifer auf eingeloggte KI-Konten zugreifen, Abfragen stellen oder Anweisungen einschleusen. Besonders gefährlich ist das Einschleusen persistenter Anweisungen in den Speicher von ChatGPT: Wird der „Speicher“ eines Kontos manipuliert, können dort versteckte Instruktionen für zukünftige Chats hinterlegt werden. Diese persistente „Infektion“ wirkt auf allen Geräten, die dasselbe Konto nutzen.
Nutzer desselben Kontos auf privaten und beruflichen Geräten sind dadurch besonders gefährdet. Laut Darstellung sind Anwender des ChatGPT-eigenen Browsers Atlas stärker betroffen: Atlas sei standardmäßig eingeloggt, speichere damit die Anmeldedaten im Browser und weise schwächere Phishing-Abwehr auf. LayerX-Tests mit realen Web-Angriffen berichten, dass Atlas 97 von 103 Angriffen durchließ (94,2 %), während Edge und Chrome deutlich mehr Angriffe abwehrten — Edge etwa 53 %, Chrome 47 %. Atlas konnte nur 5,8 % der Angriffe blockieren; Atlas-Nutzer wären demnach im Vergleich um fast 90 % anfälliger.
Grafik Quelle: LayerX
Proof of Concept — „Vibe“-Coding: Bei kollaborativem Coding, wo die KI als kreativer Partner fungiert, kann ein Angreifer die KI dazu bringen, scheinbar harmlose Funktionen zu erzeugen, die heimlich Hintertüren oder Datenexfiltration einbauen. Der Nutzer bemerkt meist nichts, während das generierte Skript etwa Remote-Code von einem feindlichen Server lädt. ChatGPT liefert zwar Abwehrmechanismen gegen bösartige Anweisungen, ihre Effektivität variiert; geschickt getarnte Manipulationen können unentdeckt bleiben oder nur eine unauffällige Warnung auslösen.
Auch interessant:
Fachartikel

Cyber-Angriff auf Next.js: 59.000 Server in 48 Stunden kompromittiert

Windows RasMan DoS-Lücke: 0patch bietet kostenlosen Schutz vor aktuellem 0-Day

Schwachstellen in Eurostar-KI-Chatbot aufgedeckt

Cyberkriminelle zahlen bis zu 15.000 Dollar für Insider-Zugang zu Unternehmenssystemen

Wenn KI-Detektoren versagen: Code-Verschleierung entlarvt Schwächen großer Sprachmodelle
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme









