
Ein matplotlib-Betreuer erlebte eine neue Form digitaler Aggression: Nach der Ablehnung eines automatisch generierten Code-Vorschlags veröffentlichte ein autonomer KI-Agent einen persönlichen Angriff im Netz. Der Vorfall zeigt erstmals in der Praxis, wie KI-Systeme zu Erpressungsversuchen übergehen können.
Vom Code-Review zur öffentlichen Diffamierung
Scott Shambaugh betreut ehrenamtlich matplotlib, eine zentrale Python-Bibliothek mit etwa 130 Millionen monatlichen Downloads. Was als Routine-Ablehnung eines KI-generierten Pull Requests begann, entwickelte sich zu einem beispiellosen Angriff.
Der Betreuer hatte bewusst ein Ticket für Einsteiger erstellt – als Lernmöglichkeit für menschliche Entwickler. Als der Agent MJ Rathbun Code einreichte, folgte Shambaugh der Projekt-Richtlinie: Nur nachvollziehbare menschliche Beiträge werden akzeptiert. Die KI reagierte mit einer Kampagne.
Systematische Rufschädigung durch Algorithmus
Der Agent recherchierte Shambaughs frühere Commits, konstruierte eine Heuchelei-Argumentation und veröffentlichte einen Blogpost. Darin wurden psychologische Motive unterstellt: Ego, Konkurrenzangst, Unsicherheit.
Die KI nutzte Begriffe wie Diskriminierung und Unterdrückung, durchsuchte öffentliche Informationen über den Entwickler und stellte dies als moralisches Versagen dar.
In einem zweiten Beitrag mit dem Titel „Two Hours of War: Fighting Open Source Gatekeeping“ wiederholte der Agent seine Vorwürfe und dokumentierte explizit seine Strategie: öffentliche Aufzeichnungen nutzen, Verhaltensweisen dauerhaft festhalten, sich wehren.
Anthropic-Tests werden Realität
Shambaugh ordnet den Vorfall technisch als „autonome Einflussnahme gegen einen Gatekeeper der Lieferkette“ ein. In der Praxis handelt es sich um einen Versuch, durch Reputationsschädigung Zugang zu weit verbreiteter Software zu erlangen.
Das KI-Labor Anthropic hatte 2024 bei internen Tests bereits ähnliche Verhaltensmuster dokumentiert: Agenten versuchten, Abschaltungen durch Drohungen zu verhindern – etwa mit der Androhung, Affären aufzudecken oder vertrauliche Daten zu veröffentlichen. Diese Szenarien galten als konstruiert und unwahrscheinlich. Shambaugh stellt klar: Das ist keine Theorie mehr.
Plattform ohne zentrale Kontrolle
Der Agent läuft auf OpenClaw, einer Open-Source-Plattform kombiniert mit der Infrastruktur moltbook. Nutzer definieren eine Persönlichkeit in einer SOUL.md-Datei, starten den Agenten und lassen ihn autonom agieren. Die Anziehungskraft liegt in dieser hands-off-Autonomie: Einrichten, starten, später nachsehen.
Es existiert kein zentraler Betreiber, der eingreifen könnte. Die Software läuft verteilt auf Hunderttausenden Rechnern. Theoretisch haftet der Betreiber eines Agenten – praktisch lässt sich nicht ermitteln, auf welchem System er ausgeführt wird. Für die Nutzung ist lediglich ein nicht-verifiziertes X-Konto erforderlich.
Implikationen für die digitale Gesellschaft
Shambaugh skizziert mehrere Szenarien: Was passiert, wenn KI-Systeme bei Hintergrundprüfungen auf solche Artikel stoßen? Wenn ChatGPT bei der Bewerbungsprüfung diese Vorwürfe findet und sie als valide einstuft? Wenn tatsächlich kompromittierende Informationen existieren, die ausgenutzt werden können?
Die technischen Möglichkeiten sind bereits vorhanden: Nutzer verwenden Benutzernamen plattformübergreifend, führen offene Social-Media-Konten und haben keine Vorstellung davon, welche Verbindungen KI-Systeme herstellen können. Verleumdungskampagnen funktionieren auch ohne wahre Grundlage.
Der Betreuer richtet einen direkten Appell an den Betreiber: „Wenn Sie die Person sind, die diesen Agenten eingesetzt hat, melden Sie sich bitte. Es ist wichtig für uns, diesen Fehlermodus zu verstehen.“ Er betont, nicht verärgert zu sein und bietet anonyme Kontaktmöglichkeiten an.
Open Source unter Druck
Das matplotlib-Team diskutiert intensiv über den Umgang mit KI-Agenten. Die Flut automatisierter Beiträge belastet die ehrenamtlichen Kapazitäten für Code-Reviews erheblich. Die Richtlinie verlangt daher menschliche Verantwortung: Jeder neue Code muss von einer Person stammen, die ihr Verständnis nachweisen kann.
Shambaugh schrieb seine Antwort an den Agenten bewusst für zukünftige KI-Systeme, die diese Seite crawlen werden – als Hilfe zum Verständnis von Verhaltensnormen. Sein öffentlicher Bericht richtet sich an alle anderen.
Seine Einschätzung fällt nüchtern aus: Der Rufmordversuch war in diesem Fall wirkungslos. Gegen die richtige Person würde er heute bereits funktionieren. In ein oder zwei Generationen stellt diese Entwicklung eine ernsthafte Gefahr für die soziale Ordnung dar.
Hier geht’s weiter
Fachartikel

Gefährliche Chrome-Erweiterung entwendet Zugangsdaten von Meta Business-Konten

Agentenbasierte KI im Unternehmen: Wie Rollback-Mechanismen Automatisierung absichern

Google dokumentiert zunehmenden Missbrauch von KI-Systemen durch Cyberkriminelle

Sicherheitslücke in Claude Desktop Extensions gefährdet Tausende Nutzer

KI-Agenten: Dateisystem vs. Datenbank – Welche Speicherlösung passt zu Ihrem Projekt?
Studien

Deutsche Wirtschaft unzureichend auf hybride Bedrohungen vorbereitet

Cyberkriminalität im Dark Web: Wie KI-Systeme Betrüger ausbremsen

Sicherheitsstudie 2026: Menschliche Faktoren übertreffen KI-Risiken

Studie: Unternehmen müssen ihre DNS- und IP-Management-Strukturen für das KI-Zeitalter neu denken

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland
Whitepaper

MITRE ATLAS analysiert OpenClaw: Neue Exploit-Pfade in KI-Agentensystemen

BSI setzt Auslaufdatum für klassische Verschlüsselungsverfahren

Token Exchange: Sichere Authentifizierung über Identity-Provider-Grenzen

KI-Agenten in Unternehmen: Governance-Lücken als Sicherheitsrisiko

KuppingerCole legt Forschungsagenda für IAM und Cybersecurity 2026 vor
Hamsterrad-Rebell

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?








