
Anthropic hat seine Nutzungsrichtlinien für das KI-System Claude überarbeitet. Die Änderungen, die am 15. September 2025 in Kraft treten, sollen den gewachsenen Funktionen des Modells sowie neuen regulatorischen Anforderungen Rechnung tragen.
Die Richtlinien bilden den Rahmen für zulässige und unzulässige Anwendungen von Claude. Mit der Aktualisierung will das Unternehmen nach eigenen Angaben mehr Klarheit und Detailtiefe schaffen – unter anderem basierend auf Nutzerfeedback, Produktentwicklungen und Erfahrungen bei der Durchsetzung bestehender Regeln.
Schwerpunkt Cybersicherheit und agentenbasierte Nutzung
Ein zentraler Punkt betrifft den Umgang mit den in den vergangenen Monaten eingeführten agentenbasierten Funktionen wie Claude Code oder Computer Use. Diese Werkzeuge ermöglichen weitreichende Automatisierungen, bergen jedoch auch Missbrauchsrisiken – etwa bei der Entwicklung von Schadsoftware oder Cyberangriffen.
In den neuen Richtlinien führt Anthropic deshalb ausdrücklich Aktivitäten auf, die auf die Kompromittierung von Computern, Netzwerken oder kritischer Infrastruktur abzielen und künftig untersagt sind. Gleichzeitig betont das Unternehmen, weiterhin sicherheitsfördernde Anwendungsfälle zu unterstützen – etwa das Aufspüren von Schwachstellen mit Zustimmung der Systembetreiber.
Zusätzlich hat Anthropic einen Leitfaden im Hilfe-Center veröffentlicht, der die Regelungen für agentenbasierte Anwendungen erläutert und Beispiele für verbotene Aktivitäten nennt. Dieser ersetzt nicht die Richtlinien selbst, sondern ergänzt sie um praxisnahe Hinweise.
Anthropic präzisiert Richtlinien zu politischer Nutzung, Strafverfolgung und risikoreichen Anwendungen
Anthropic hat seine Nutzungsrichtlinien in mehreren Punkten überarbeitet.
Politische Inhalte
Bisher waren sämtliche Lobbying- und Kampagneninhalte pauschal untersagt. Diese strikte Regelung sollte möglichen Risiken KI-generierter Texte für demokratische Prozesse vorbeugen. Nach Rückmeldungen von Nutzern, wonach dadurch auch legitime Anwendungen wie politische Forschung, Bildung oder Schreiben eingeschränkt wurden, differenziert Anthropic nun stärker: Verboten bleiben Inhalte, die demokratische Prozesse täuschen oder stören oder auf gezielte Wählerbeeinflussung zielen. Zulässig sind hingegen politische Diskussionen und Recherchen.
Nutzung durch Strafverfolgungsbehörden
Unklarheiten in früheren Regelungen, etwa zu Backoffice-Tools und Analyseanwendungen, wurden sprachlich präzisiert. An den inhaltlichen Vorgaben ändert sich nichts: Erlaubt bleiben bestimmte unterstützende Anwendungen, während Überwachung, Tracking, Profiling und biometrische Überwachung weiterhin untersagt sind.
Risikoreiche Anwendungsfälle
Für sensible Einsatzfelder mit gesellschaftlicher Tragweite – etwa im rechtlichen, finanziellen oder beschäftigungsbezogenen Bereich – gelten weiterhin erhöhte Anforderungen. Dazu zählen menschliche Kontrolle und Transparenz über den Einsatz von KI. Neu klargestellt wird, dass diese Auflagen ausschließlich für Anwendungen mit direktem Verbraucherkontakt gelten, nicht für interne Unternehmensnutzung.
Ausblick
Anthropic versteht die Nutzungsrichtlinien als fortlaufend zu entwickelndes Regelwerk. Das Unternehmen will sie in Zusammenarbeit mit Politik, Fachwelt und Zivilgesellschaft regelmäßig überprüfen.
Noch mehr zum Stöbern
Fachartikel

CrackArmor: AppArmor-Schwachstellen ermöglichen Root-Zugriff auf über 12 Millionen Linux-Systemen

KI-Agenten als interne Sicherheitsrisiken: Was Experimente zeigen

MCP-Sicherheitsstudie: 555 Server mit riskanten Tool-Kombinationen identifiziert

SOX-Compliance in SAP: Anforderungen, IT-Kontrollen und der Weg zur Automatisierung

Irans Cyberoperationen vor „Epic Fury“: Gezielter Infrastrukturaufbau und Hacktivisten-Welle nach den Angriffen
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Quantifizierung und Sicherheit mit modernster Quantentechnologie

KI-Betrug: Interpol warnt vor industrialisierter Finanzkriminalität – 4,5-fach profitabler

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien
Hamsterrad-Rebell

Sichere Enterprise Browser und Application Delivery für moderne IT-Organisationen

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen








