
Anthropic hat seine Nutzungsrichtlinien für das KI-System Claude überarbeitet. Die Änderungen, die am 15. September 2025 in Kraft treten, sollen den gewachsenen Funktionen des Modells sowie neuen regulatorischen Anforderungen Rechnung tragen.
Die Richtlinien bilden den Rahmen für zulässige und unzulässige Anwendungen von Claude. Mit der Aktualisierung will das Unternehmen nach eigenen Angaben mehr Klarheit und Detailtiefe schaffen – unter anderem basierend auf Nutzerfeedback, Produktentwicklungen und Erfahrungen bei der Durchsetzung bestehender Regeln.
Schwerpunkt Cybersicherheit und agentenbasierte Nutzung
Ein zentraler Punkt betrifft den Umgang mit den in den vergangenen Monaten eingeführten agentenbasierten Funktionen wie Claude Code oder Computer Use. Diese Werkzeuge ermöglichen weitreichende Automatisierungen, bergen jedoch auch Missbrauchsrisiken – etwa bei der Entwicklung von Schadsoftware oder Cyberangriffen.
In den neuen Richtlinien führt Anthropic deshalb ausdrücklich Aktivitäten auf, die auf die Kompromittierung von Computern, Netzwerken oder kritischer Infrastruktur abzielen und künftig untersagt sind. Gleichzeitig betont das Unternehmen, weiterhin sicherheitsfördernde Anwendungsfälle zu unterstützen – etwa das Aufspüren von Schwachstellen mit Zustimmung der Systembetreiber.
Zusätzlich hat Anthropic einen Leitfaden im Hilfe-Center veröffentlicht, der die Regelungen für agentenbasierte Anwendungen erläutert und Beispiele für verbotene Aktivitäten nennt. Dieser ersetzt nicht die Richtlinien selbst, sondern ergänzt sie um praxisnahe Hinweise.
Anthropic präzisiert Richtlinien zu politischer Nutzung, Strafverfolgung und risikoreichen Anwendungen
Anthropic hat seine Nutzungsrichtlinien in mehreren Punkten überarbeitet.
Politische Inhalte
Bisher waren sämtliche Lobbying- und Kampagneninhalte pauschal untersagt. Diese strikte Regelung sollte möglichen Risiken KI-generierter Texte für demokratische Prozesse vorbeugen. Nach Rückmeldungen von Nutzern, wonach dadurch auch legitime Anwendungen wie politische Forschung, Bildung oder Schreiben eingeschränkt wurden, differenziert Anthropic nun stärker: Verboten bleiben Inhalte, die demokratische Prozesse täuschen oder stören oder auf gezielte Wählerbeeinflussung zielen. Zulässig sind hingegen politische Diskussionen und Recherchen.
Nutzung durch Strafverfolgungsbehörden
Unklarheiten in früheren Regelungen, etwa zu Backoffice-Tools und Analyseanwendungen, wurden sprachlich präzisiert. An den inhaltlichen Vorgaben ändert sich nichts: Erlaubt bleiben bestimmte unterstützende Anwendungen, während Überwachung, Tracking, Profiling und biometrische Überwachung weiterhin untersagt sind.
Risikoreiche Anwendungsfälle
Für sensible Einsatzfelder mit gesellschaftlicher Tragweite – etwa im rechtlichen, finanziellen oder beschäftigungsbezogenen Bereich – gelten weiterhin erhöhte Anforderungen. Dazu zählen menschliche Kontrolle und Transparenz über den Einsatz von KI. Neu klargestellt wird, dass diese Auflagen ausschließlich für Anwendungen mit direktem Verbraucherkontakt gelten, nicht für interne Unternehmensnutzung.
Ausblick
Anthropic versteht die Nutzungsrichtlinien als fortlaufend zu entwickelndes Regelwerk. Das Unternehmen will sie in Zusammenarbeit mit Politik, Fachwelt und Zivilgesellschaft regelmäßig überprüfen.
Noch mehr zum Stöbern
Fachartikel

OpenAI präsentiert GPT-5.2-Codex: KI-Revolution für autonome Softwareentwicklung und IT-Sicherheit

Speicherfehler in Live-Systemen aufspüren: GWP-ASan macht es möglich

Geparkte Domains als Einfallstor für Cyberkriminalität: Über 90 Prozent leiten zu Schadsoftware weiter

Umfassender Schutz für geschäftskritische SAP-Systeme: Strategien und Best Practices

Perfide Masche: Wie Cyberkriminelle über WhatsApp-Pairing ganze Konten übernehmen
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







