Share
Beitragsbild zu MITRE ATLAS analysiert OpenClaw: Neue Exploit-Pfade in KI-Agentensystemen

MITRE ATLAS analysiert OpenClaw: Neue Exploit-Pfade in KI-Agentensystemen

13. Februar 2026

Das Center for Threat Informed Defense von MITRE hat eine umfassende Analyse autonomer KI-Agentensysteme durchgeführt. Die Untersuchung von OpenClaw zeigt, wie selbstständig agierende KI-Systeme völlig neue Sicherheitsrisiken schaffen, die über traditionelle Bedrohungsmodelle hinausgehen.

Analyse autonomer KI-Systeme offenbart neue Bedrohungsvektoren

Das Forschungsteam des Center for Threat Informed Defense führte gezielte Untersuchungen zu OpenClaw durch und analysierte kritische Vorfälle, die von der KI-Sicherheits-Community dokumentiert wurden. Die identifizierten Sicherheitsbedrohungen wurden den ATLAS Tactics, Techniques, and Procedures zugeordnet und entsprechende Gegenmaßnahmen entwickelt.

OpenClaw unterscheidet sich grundlegend von herkömmlichen Systemen: Die Plattform trifft eigenständige Entscheidungen, initiiert Aktionen und führt Aufgaben in den Betriebssystemen und Umgebungen der Anwender aus – ohne fortlaufende menschliche Kontrolle. Ziel der Analyse ist es, handlungsrelevante Erkenntnisse zur sich wandelnden Bedrohungslandschaft bereitzustellen und dabei besonders gefährliche Angriffsketten zu identifizieren, die in der ATLAS-Taxonomie erfasst werden.

KI-zentrierte Ökosysteme eröffnen neuartige Angriffswege

Die Untersuchungsergebnisse verdeutlichen, wie KI-basierte Ökosysteme völlig neue Exploit-Ausführungswege ermöglichen, die von klassischen Sicherheitskonzepten nicht erfasst werden. Die größten Risiken in diesen Plattformen entstehen nicht primär durch technische Low-Level-Schwachstellen, sondern durch den Missbrauch von Vertrauensbeziehungen, Konfigurationseinstellungen und Autonomiefunktionen. Diese ermöglichen es Angreifern, legitime Funktionen innerhalb kürzester Zeit in vollständige Kompromittierungspfade umzuwandeln.

Zusätzlich können Angreifer den Internetzugang eines Agenten nutzen, um gespeicherte Zugangsdaten zu extrahieren und den Agenten zur Ausführung leistungsstarker Tools zu veranlassen. Dies führt zur vollständigen Kontrolle über das Agentensystem und ermöglicht unbegrenzte schadhafte Aktivitäten.

Visualisierung und Identifikation kritischer Angriffsmuster

Die im Rahmen der Untersuchung erstellte grafische Darstellung der Angriffspfade ermöglicht die Identifikation wiederkehrender ATLAS-Technikmuster und Verhaltensweisen. Sie hilft, die gesamte Angriffsfläche von OpenClaw zu erfassen und kritische Techniken zu lokalisieren, auf die sich Angreifer stützen.

Zu den am häufigsten beobachteten Techniken bei den OpenClaw-Untersuchungen zählen direkte und indirekte LLM-Prompt-Injektionen, der Aufruf von KI-Agenten-Tools sowie die Modifikation von Agenten-Konfigurationen. Durch die Fokussierung auf die meistbeobachteten Techniken lassen sich die wahrscheinlichsten Schwachstellen priorisieren, die Reife der Angriffe als Indikator für die praktische Relevanz bewerten und Techniken taktischen Vorgehensweisen zuordnen, um das Verhalten der Angreifer während ihrer Kampagnen besser zu verstehen.

Kollaboration zur Weiterentwicklung der KI-Sicherheit

Das Center for Threat Informed Defense von MITRE sucht die Zusammenarbeit mit der gesamten KI-Sicherheits-Community, um Verteidiger über Bedrohungen zu informieren, die durch Open-Source-Agentensysteme wie OpenClaw entstehen. Die Initiative lädt Sicherheitsexperten und Forscher aus der Industrie ein, gemeinsam an der Erweiterung der ATLAS-Matrix zu arbeiten und Community-Tools, Ressourcen sowie Leitfäden zu entwickeln.

Die vollständigen Untersuchungsergebnisse und detaillierten Analysedaten sind über die offizielle MITRE-Dokumentation zugänglich. Das Forschungsteam dankt dem Secure AI-Projektleiter und allen beteiligten Mitgliedern des CTID-Forschungsteams für ihre Beiträge zu dieser Untersuchung.

Lesen Sie mehr