Share
Beitragsbild zu Anthropic im Kreuzfeuer: Musk kontert KI-Datenschutz-Vorwürfe mit Gegenattacke

Anthropic im Kreuzfeuer: Musk kontert KI-Datenschutz-Vorwürfe mit Gegenattacke

24. Februar 2026

Der öffentliche Schlagabtausch zwischen Elon Musk und Anthropic wirft ein Schlaglicht auf eine der zentralen Schwachstellen der KI-Branche: den rechtlich ungeklärten Umgang mit Trainingsdaten. Während das US-amerikanische KI-Labor chinesischen Entwicklern systematische Datenextraktion vorwirft, kontert der xAI-Chef mit Verweis auf Anthropics eigene juristische Vergangenheit.

Auslöser des Disputs ist ein Bericht, den Anthropic Anfang der Woche veröffentlichte. Darin beschuldigt das in San Francisco ansässige Unternehmen mehrere chinesische KI-Entwickler – darunter DeepSeek, Moonshot AI und MiniMax – sogenannte Destillationsangriffe in industriellem Ausmaß durchgeführt zu haben. Konkret sollen über 24.000 betrügerische Konten angelegt und mehr als 16 Millionen Interaktionen mit dem hauseigenen Modell Claude generiert worden sein, um dessen Fähigkeiten systematisch zu kopieren.

Bei der Destillation handelt es sich um eine Methode, bei der kleinere Modelle gezielt auf den Ausgaben leistungsstärkerer Systeme trainiert werden, ohne dass dabei direkter Zugang zu den ursprünglichen Trainingsdaten erforderlich ist. Anthropic stuft dieses Vorgehen als Bedrohung für die nationale Sicherheit ein, da es ausländischen Akteuren ermögliche, fortschrittliche KI-Systeme vergleichsweise schnell nachzubauen.

Elon Musk, CEO von xAI und Betreiber der Plattform X, ließ diese Positionierung nicht unkommentiert. Auf X verwies er auf Anthropics eigene Rechtsgeschichte: Das Unternehmen habe Trainingsdaten in großem Umfang unrechtmäßig verwendet und dafür mehrere Milliarden Dollar an Entschädigungen gezahlt – „das ist eine Tatsache“, so Musk.

Tatsächlich einigte sich Anthropic im September 2025 auf einen Vergleich in Höhe von 1,5 Milliarden Dollar in einer Sammelklage von Autoren, die dem Unternehmen vorwarfen, urheberrechtlich geschützte Werke ohne Genehmigung zum Training von Claude verwendet zu haben. Zusätzlich sieht sich das Unternehmen einer weiteren Klage von Musikverlagen ausgesetzt, die Schadensersatz von rund drei Milliarden Dollar fordern – ebenfalls wegen mutmaßlicher Urheberrechtsverletzungen beim Modelltraining.

Der Konflikt verdeutlicht, dass die Frage nach dem legitimen Umgang mit Daten beim Training von KI-Modellen branchenweit ungelöst bleibt – und zunehmend zum Gegenstand juristischer wie öffentlicher Auseinandersetzungen wird.

Entdecke mehr