
Anthropic hat seine Nutzungsrichtlinien für das KI-System Claude überarbeitet. Die Änderungen, die am 15. September 2025 in Kraft treten, sollen den gewachsenen Funktionen des Modells sowie neuen regulatorischen Anforderungen Rechnung tragen.
Die Richtlinien bilden den Rahmen für zulässige und unzulässige Anwendungen von Claude. Mit der Aktualisierung will das Unternehmen nach eigenen Angaben mehr Klarheit und Detailtiefe schaffen – unter anderem basierend auf Nutzerfeedback, Produktentwicklungen und Erfahrungen bei der Durchsetzung bestehender Regeln.
Schwerpunkt Cybersicherheit und agentenbasierte Nutzung
Ein zentraler Punkt betrifft den Umgang mit den in den vergangenen Monaten eingeführten agentenbasierten Funktionen wie Claude Code oder Computer Use. Diese Werkzeuge ermöglichen weitreichende Automatisierungen, bergen jedoch auch Missbrauchsrisiken – etwa bei der Entwicklung von Schadsoftware oder Cyberangriffen.
In den neuen Richtlinien führt Anthropic deshalb ausdrücklich Aktivitäten auf, die auf die Kompromittierung von Computern, Netzwerken oder kritischer Infrastruktur abzielen und künftig untersagt sind. Gleichzeitig betont das Unternehmen, weiterhin sicherheitsfördernde Anwendungsfälle zu unterstützen – etwa das Aufspüren von Schwachstellen mit Zustimmung der Systembetreiber.
Zusätzlich hat Anthropic einen Leitfaden im Hilfe-Center veröffentlicht, der die Regelungen für agentenbasierte Anwendungen erläutert und Beispiele für verbotene Aktivitäten nennt. Dieser ersetzt nicht die Richtlinien selbst, sondern ergänzt sie um praxisnahe Hinweise.
Anthropic präzisiert Richtlinien zu politischer Nutzung, Strafverfolgung und risikoreichen Anwendungen
Anthropic hat seine Nutzungsrichtlinien in mehreren Punkten überarbeitet.
Politische Inhalte
Bisher waren sämtliche Lobbying- und Kampagneninhalte pauschal untersagt. Diese strikte Regelung sollte möglichen Risiken KI-generierter Texte für demokratische Prozesse vorbeugen. Nach Rückmeldungen von Nutzern, wonach dadurch auch legitime Anwendungen wie politische Forschung, Bildung oder Schreiben eingeschränkt wurden, differenziert Anthropic nun stärker: Verboten bleiben Inhalte, die demokratische Prozesse täuschen oder stören oder auf gezielte Wählerbeeinflussung zielen. Zulässig sind hingegen politische Diskussionen und Recherchen.
Nutzung durch Strafverfolgungsbehörden
Unklarheiten in früheren Regelungen, etwa zu Backoffice-Tools und Analyseanwendungen, wurden sprachlich präzisiert. An den inhaltlichen Vorgaben ändert sich nichts: Erlaubt bleiben bestimmte unterstützende Anwendungen, während Überwachung, Tracking, Profiling und biometrische Überwachung weiterhin untersagt sind.
Risikoreiche Anwendungsfälle
Für sensible Einsatzfelder mit gesellschaftlicher Tragweite – etwa im rechtlichen, finanziellen oder beschäftigungsbezogenen Bereich – gelten weiterhin erhöhte Anforderungen. Dazu zählen menschliche Kontrolle und Transparenz über den Einsatz von KI. Neu klargestellt wird, dass diese Auflagen ausschließlich für Anwendungen mit direktem Verbraucherkontakt gelten, nicht für interne Unternehmensnutzung.
Ausblick
Anthropic versteht die Nutzungsrichtlinien als fortlaufend zu entwickelndes Regelwerk. Das Unternehmen will sie in Zusammenarbeit mit Politik, Fachwelt und Zivilgesellschaft regelmäßig überprüfen.
Noch mehr zum Stöbern
Fachartikel

OpenClaw-Skills als neuer Malware-Verteilweg: Erkenntnisse von VirusTotal

ShinyHunters: Voice-Phishing-Kampagne zielt auf Cloud-Plattformen ab

ShinyHunters-Angriffe: Mandiant zeigt wirksame Schutzmaßnahmen gegen SaaS-Datendiebstahl

Phishing-Angriff: Cyberkriminelle missbrauchen Microsoft-Infrastruktur für Betrugsmaschen

Wie Angreifer proprietäre KI-Modelle über normale API-Zugriffe stehlen können
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

DigiCert veröffentlicht RADAR-Bericht für Q4 2025

Koordinierte Cyberangriffe auf polnische Energieinfrastruktur im Dezember 2025

Künstliche Intelligenz bedroht demokratische Grundpfeiler

Insider-Risiken in Europa: 84 Prozent der Hochrisiko-Organisationen unzureichend vorbereitet

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI
Hamsterrad-Rebell

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern







