Share
Beitragsbild zu Anthropic verschärft Nutzungsrichtlinien für Claude – Fokus auf Cybersicherheit und Agentenfunktionen

Anthropic verschärft Nutzungsrichtlinien für Claude – Fokus auf Cybersicherheit und Agentenfunktionen

18. August 2025

Anthropic hat seine Nutzungsrichtlinien für das KI-System Claude überarbeitet. Die Änderungen, die am 15. September 2025 in Kraft treten, sollen den gewachsenen Funktionen des Modells sowie neuen regulatorischen Anforderungen Rechnung tragen.

Die Richtlinien bilden den Rahmen für zulässige und unzulässige Anwendungen von Claude. Mit der Aktualisierung will das Unternehmen nach eigenen Angaben mehr Klarheit und Detailtiefe schaffen – unter anderem basierend auf Nutzerfeedback, Produktentwicklungen und Erfahrungen bei der Durchsetzung bestehender Regeln.

Schwerpunkt Cybersicherheit und agentenbasierte Nutzung

Ein zentraler Punkt betrifft den Umgang mit den in den vergangenen Monaten eingeführten agentenbasierten Funktionen wie Claude Code oder Computer Use. Diese Werkzeuge ermöglichen weitreichende Automatisierungen, bergen jedoch auch Missbrauchsrisiken – etwa bei der Entwicklung von Schadsoftware oder Cyberangriffen.

In den neuen Richtlinien führt Anthropic deshalb ausdrücklich Aktivitäten auf, die auf die Kompromittierung von Computern, Netzwerken oder kritischer Infrastruktur abzielen und künftig untersagt sind. Gleichzeitig betont das Unternehmen, weiterhin sicherheitsfördernde Anwendungsfälle zu unterstützen – etwa das Aufspüren von Schwachstellen mit Zustimmung der Systembetreiber.

Zusätzlich hat Anthropic einen Leitfaden im Hilfe-Center veröffentlicht, der die Regelungen für agentenbasierte Anwendungen erläutert und Beispiele für verbotene Aktivitäten nennt. Dieser ersetzt nicht die Richtlinien selbst, sondern ergänzt sie um praxisnahe Hinweise.

Anthropic präzisiert Richtlinien zu politischer Nutzung, Strafverfolgung und risikoreichen Anwendungen

Anthropic hat seine Nutzungsrichtlinien in mehreren Punkten überarbeitet.

Politische Inhalte

Bisher waren sämtliche Lobbying- und Kampagneninhalte pauschal untersagt. Diese strikte Regelung sollte möglichen Risiken KI-generierter Texte für demokratische Prozesse vorbeugen. Nach Rückmeldungen von Nutzern, wonach dadurch auch legitime Anwendungen wie politische Forschung, Bildung oder Schreiben eingeschränkt wurden, differenziert Anthropic nun stärker: Verboten bleiben Inhalte, die demokratische Prozesse täuschen oder stören oder auf gezielte Wählerbeeinflussung zielen. Zulässig sind hingegen politische Diskussionen und Recherchen.

Nutzung durch Strafverfolgungsbehörden

Unklarheiten in früheren Regelungen, etwa zu Backoffice-Tools und Analyseanwendungen, wurden sprachlich präzisiert. An den inhaltlichen Vorgaben ändert sich nichts: Erlaubt bleiben bestimmte unterstützende Anwendungen, während Überwachung, Tracking, Profiling und biometrische Überwachung weiterhin untersagt sind.

Risikoreiche Anwendungsfälle

Für sensible Einsatzfelder mit gesellschaftlicher Tragweite – etwa im rechtlichen, finanziellen oder beschäftigungsbezogenen Bereich – gelten weiterhin erhöhte Anforderungen. Dazu zählen menschliche Kontrolle und Transparenz über den Einsatz von KI. Neu klargestellt wird, dass diese Auflagen ausschließlich für Anwendungen mit direktem Verbraucherkontakt gelten, nicht für interne Unternehmensnutzung.

Ausblick

Anthropic versteht die Nutzungsrichtlinien als fortlaufend zu entwickelndes Regelwerk. Das Unternehmen will sie in Zusammenarbeit mit Politik, Fachwelt und Zivilgesellschaft regelmäßig überprüfen.

Noch mehr zum Stöbern