Share
Beitragsbild zu Anthropic lehnt Massenüberwachung und autonome Waffen ab – Pentagon stuft KI-Unternehmen als Lieferkettenrisiko ein

Anthropic lehnt Massenüberwachung und autonome Waffen ab – Pentagon stuft KI-Unternehmen als Lieferkettenrisiko ein

28. Februar 2026

Nach monatelangen Verhandlungen mit dem US-Verteidigungsministerium eskaliert der Konflikt zwischen dem KI-Unternehmen Anthropic und Verteidigungsminister Pete Hegseth. In einem Statement vom 27. Februar 2026 macht das Unternehmen seinen Standpunkt öffentlich: Kern des Streits sind zwei Ausnahmen, die Anthropic bei der militärischen Nutzung seines Sprachmodells Claude durchsetzen wollte.

Verteidigungsminister Pete Hegseth hat über den Kurznachrichtendienst X angekündigt, das Unternehmen Anthropic als Risiko für die militärische Lieferkette einzustufen. Vorausgegangen waren Verhandlungen, die an zwei Bedingungen scheiterten, welche Anthropic als Grundvoraussetzung für eine Zusammenarbeit formuliert hatte: das Verbot des Einsatzes seines Modells Claude zur flächendeckenden Überwachung der US-Bevölkerung sowie der Ausschluss vollständig autonomer Waffensysteme.

Zum Zeitpunkt der Veröffentlichung lag Anthropic nach eigenen Angaben keine offizielle Mitteilung des Ministeriums oder des Weißen Hauses über den Verhandlungsstand vor.

Zwei inhaltliche Kernpositionen

Anthropic begründet seine Haltung mit zwei sachlichen Einwänden: Aktuelle KI-Modelle seien technisch nicht zuverlässig genug für den Einsatz in vollständig automatisierten Waffensystemen – ein unkontrollierter Einsatz berge Risiken für Soldaten und Zivilbevölkerung. Darüber hinaus sieht das Unternehmen in einer anlasslosen Massenüberwachung von US-Bürgern einen Eingriff in verfassungsmäßig geschützte Grundrechte.

Beide Einschränkungen hätten nach Kenntnis des Unternehmens bislang keine einzige Regierungsmission beeinträchtigt.

Rechtliche Einordnung und Kundenkommunikation

Die angekündigte Einstufung als Lieferkettenrisiko wäre laut Anthropic ein bislang beispielloser Schritt, der historisch Gegnern der USA vorbehalten geblieben ist. Das Unternehmen kündigte an, eine entsprechende Klassifizierung rechtlich anzufechten.

Rechtlich stützt sich Anthropic dabei auf 10 USC 3252: Demnach könnte eine solche Einstufung allenfalls die Nutzung von Claude im Rahmen von Verträgen mit dem Verteidigungsministerium einschränken – nicht jedoch den Einsatz durch Auftragnehmer für andere Auftraggeber oder durch private Kunden. Für kommerzielle Nutzer und API-Kunden bleibe der Zugang zu Claude unverändert bestehen.

Hintergrund: Anthropic und das US-Militär

Anthropic bezeichnet sich selbst als erstes KI-Unternehmen, das Modelle in klassifizierten Netzwerken der US-Regierung betreibt – seit Juni 2024 werden damit nach Unternehmensangaben amerikanische Streitkräfte unterstützt. Die Bereitschaft zur weiteren Zusammenarbeit mit dem Ministerium bekräftigte Anthropic ausdrücklich, sofern die genannten Einschränkungen gewahrt bleiben.


Bild/Quelle: https://depositphotos.com/de/home.html

Folgen Sie uns auf X

Folgen Sie uns auf Bluesky

Folgen Sie uns auf Mastodon

Hamsterrad Rebell – Cyber Talk