
Anthropic hat seine Nutzungsrichtlinien für das KI-System Claude überarbeitet. Die Änderungen, die am 15. September 2025 in Kraft treten, sollen den gewachsenen Funktionen des Modells sowie neuen regulatorischen Anforderungen Rechnung tragen.
Die Richtlinien bilden den Rahmen für zulässige und unzulässige Anwendungen von Claude. Mit der Aktualisierung will das Unternehmen nach eigenen Angaben mehr Klarheit und Detailtiefe schaffen – unter anderem basierend auf Nutzerfeedback, Produktentwicklungen und Erfahrungen bei der Durchsetzung bestehender Regeln.
Schwerpunkt Cybersicherheit und agentenbasierte Nutzung
Ein zentraler Punkt betrifft den Umgang mit den in den vergangenen Monaten eingeführten agentenbasierten Funktionen wie Claude Code oder Computer Use. Diese Werkzeuge ermöglichen weitreichende Automatisierungen, bergen jedoch auch Missbrauchsrisiken – etwa bei der Entwicklung von Schadsoftware oder Cyberangriffen.
In den neuen Richtlinien führt Anthropic deshalb ausdrücklich Aktivitäten auf, die auf die Kompromittierung von Computern, Netzwerken oder kritischer Infrastruktur abzielen und künftig untersagt sind. Gleichzeitig betont das Unternehmen, weiterhin sicherheitsfördernde Anwendungsfälle zu unterstützen – etwa das Aufspüren von Schwachstellen mit Zustimmung der Systembetreiber.
Zusätzlich hat Anthropic einen Leitfaden im Hilfe-Center veröffentlicht, der die Regelungen für agentenbasierte Anwendungen erläutert und Beispiele für verbotene Aktivitäten nennt. Dieser ersetzt nicht die Richtlinien selbst, sondern ergänzt sie um praxisnahe Hinweise.
Anthropic präzisiert Richtlinien zu politischer Nutzung, Strafverfolgung und risikoreichen Anwendungen
Anthropic hat seine Nutzungsrichtlinien in mehreren Punkten überarbeitet.
Politische Inhalte
Bisher waren sämtliche Lobbying- und Kampagneninhalte pauschal untersagt. Diese strikte Regelung sollte möglichen Risiken KI-generierter Texte für demokratische Prozesse vorbeugen. Nach Rückmeldungen von Nutzern, wonach dadurch auch legitime Anwendungen wie politische Forschung, Bildung oder Schreiben eingeschränkt wurden, differenziert Anthropic nun stärker: Verboten bleiben Inhalte, die demokratische Prozesse täuschen oder stören oder auf gezielte Wählerbeeinflussung zielen. Zulässig sind hingegen politische Diskussionen und Recherchen.
Nutzung durch Strafverfolgungsbehörden
Unklarheiten in früheren Regelungen, etwa zu Backoffice-Tools und Analyseanwendungen, wurden sprachlich präzisiert. An den inhaltlichen Vorgaben ändert sich nichts: Erlaubt bleiben bestimmte unterstützende Anwendungen, während Überwachung, Tracking, Profiling und biometrische Überwachung weiterhin untersagt sind.
Risikoreiche Anwendungsfälle
Für sensible Einsatzfelder mit gesellschaftlicher Tragweite – etwa im rechtlichen, finanziellen oder beschäftigungsbezogenen Bereich – gelten weiterhin erhöhte Anforderungen. Dazu zählen menschliche Kontrolle und Transparenz über den Einsatz von KI. Neu klargestellt wird, dass diese Auflagen ausschließlich für Anwendungen mit direktem Verbraucherkontakt gelten, nicht für interne Unternehmensnutzung.
Ausblick
Anthropic versteht die Nutzungsrichtlinien als fortlaufend zu entwickelndes Regelwerk. Das Unternehmen will sie in Zusammenarbeit mit Politik, Fachwelt und Zivilgesellschaft regelmäßig überprüfen.
Noch mehr zum Stöbern
Fachartikel

Omega: Neue Plattform sichert KI-Agenten in der Cloud gegen Datenlecks und Manipulation

Präventive Sicherheit: Warum Unternehmen jetzt vom Reagieren zum Vorbeugen wechseln müssen

AWS Security Hub: Echtzeit-Risikoanalyse und automatisierte Bedrohungskorrelation jetzt verfügbar

Sicherheitslücke: OpenAI Codex CLI führt versteckte Befehle aus Repository-Dateien aus

Rekord-Botnet Aisuru: DDoS-Angriffe erreichen 29,7 Terabit pro Sekunde
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

Ransomware-Welle: Über 2 Milliarden Dollar Lösegeldzahlungen in drei Jahren

BSI sieht Optimierungsbedarf bei der Sicherheit populärer Passwortmanager

Omega: Neue Plattform sichert KI-Agenten in der Cloud gegen Datenlecks und Manipulation

Von der Idee zur Praxis: Fraunhofer skizziert nachhaltigen KI-Einsatz in Unternehmen

BSI definiert neue Sicherheitsstandards für Webmail-Dienste
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







