Share
Beitragsbild zu KI-Verstöße könnten Tech-Rechtsstreitigkeiten bis 2028 um 30 % steigern

KI-Verstöße könnten Tech-Rechtsstreitigkeiten bis 2028 um 30 % steigern

6. Oktober 2025

Gartner prognostiziert, dass Verstöße gegen KI-Vorschriften bis 2028 zu einem Anstieg rechtlicher Auseinandersetzungen in der Tech-Branche um 30 % führen werden.

Gleichzeitig äußern nur 23 % der IT-Verantwortlichen großes Vertrauen darin, dass ihr Unternehmen Sicherheits- und Governance-Herausforderungen im Umgang mit generativer KI effektiv meistern kann.

Bis 2028 wird die Zahl rechtlicher Auseinandersetzungen in der Technologiebranche infolge von Verstößen gegen KI-Vorschriften um 30 % steigen, prognostiziert Gartner.

Eine Gartner-Umfrage unter 360 IT-Führungskräften, die zwischen Mai und Juni 2025 durchgeführt wurde und sich auf den Einsatz generativer KI (GenAI)-Tools konzentrierte, ergab, dass über 70 % der Befragten die Einhaltung gesetzlicher Vorschriften als eine der drei größten Herausforderungen beim breiten Einsatz produktivitätssteigernder GenAI-Assistenten in ihren Unternehmen ansehen.

Lediglich 23 % der Befragten gaben an, sehr zuversichtlich in die Fähigkeit ihrer Organisation zu sein, Sicherheits- und Governance-Aspekte beim Einsatz von GenAI-Tools in Unternehmensanwendungen angemessen zu steuern.

„Weltweit unterscheiden sich die KI-Vorschriften erheblich, da jedes Land seine eigene Balance zwischen Führungsanspruch, Innovationskraft und Agilität einerseits und Risikominimierung andererseits findet“, erklärt Lydia Clougherty Jones, Senior Director Analyst bei Gartner. „Dies führt zu uneinheitlichen und oftmals widersprüchlichen Compliance-Anforderungen, die es erschweren, KI-Investitionen mit einem nachweisbaren und wiederholbaren Unternehmenswert in Einklang zu bringen – und Unternehmen möglicherweise zusätzlichen Haftungsrisiken aussetzen.“

Gleichzeitig nimmt der Einfluss des geopolitischen Klimas stetig zu, aber die Fähigkeit, darauf zu reagieren, hinkt hinterher. 57 % der nicht aus den USA stammenden IT-Führungskräfte aus derselben Umfrage gaben an, dass das geopolitische Klima zumindest moderate Auswirkungen auf die GenAI-Strategie und -Implementierung habe, wobei 19 % der Befragten angaben, dass es erhebliche Auswirkungen habe.

Dennoch gaben fast 60 % dieser Befragten an, dass sie nicht in der Lage oder nicht bereit seien, alternative GenAI-Tools aus Nicht-US-Ländern einzusetzen.

AI-Souveränität spielt eine Schlüsselrolle in der AI-Strategie

In einer Umfrage im Rahmen eines Webinars von Gartner am 3. September 2025 gaben 40 % der 489 Befragten an, dass die Einstellung ihres Unternehmens zur AI-Souveränität – definiert als die Fähigkeit von Nationalstaaten, die Entwicklung, den Einsatz und die Governance von AI-Technologien innerhalb ihrer Gerichtsbarkeit zu kontrollieren – „positiv” ist (d. h. mit Hoffnung und Chancen verbunden), und 36 % gaben an, dass die Einstellung ihres Unternehmens „neutral” sei (d. h. eine abwartende Haltung einnehmen).

In derselben Umfrage gaben 66 % der Befragten an, dass sie proaktiv und/oder engagiert auf die souveräne KI-Strategie reagieren, und 52 % gaben an, dass ihr Unternehmen als direkte Folge der souveränen KI strategische oder operative Modelländerungen vornehme.

Da GenAI-Tools, wie z. B. GenAI-Produktivitätsassistenten, in unsicheren und schwankenden geopolitischen und rechtlichen Umgebungen immer allgegenwärtiger werden, insbesondere im Hinblick auf die KI-Souveränität, müssen IT-Führungskräfte die Moderation der Ergebnisse unverzüglich verstärken, indem sie die folgenden Schritte unternehmen:

  • Entwickeln Sie Selbstkorrektur durch das Trainieren von Modellen, sich selbst zu korrigieren und bestimmte Fragen nicht in Echtzeit zu beantworten, sondern stattdessen eine Formulierung wie „außerhalb des Geltungsbereichs” zu kommunizieren.
  • Schaffen Sie strenge Verfahren zur Überprüfung von Anwendungsfällen, die das Risiko von „Chatbot-Ausgaben, die zu unerwünschten menschlichen Handlungen führen“ aus rechtlicher, ethischer, sicherheitstechnischer und benutzerseitiger Perspektive bewerten; führen Sie Kontrolltests für KI-generierte Sprache durch und messen Sie die Leistung anhand der festgelegten Risikotoleranz der Organisation.
  • Intensivierung der Modelltests/Sandboxing, indem ein interdisziplinäres Fusionsteam aus Entscheidungsingenieuren, Datenwissenschaftlern und Rechtsberatern gebildet wird, um Vorabtestprotokolle zu entwerfen und die Modellausgabe auf unerwünschte Gesprächsausgaben zu testen und zu validieren. Dokumentation der Bemühungen dieses Teams, unerwünschte Begriffe in den Modelltrainingsdaten und unerwünschte Themen in der Modellausgabe zu minimieren.
  • Führen Sie Techniken zur Inhaltsmoderation wie „Missbrauch melden“-Schaltflächen und „KI-Warnhinweise“ ein.

Gartner-Kunden können mehr darüber in Wie sich globale KI-Richtlinien und -Vorschriften auf Ihr Unternehmen auswirken lesen.

Entdecken Sie mehr


Bild/Quelle: https://depositphotos.com/de/home.html

Folgen Sie uns auf X

Folgen Sie uns auf Bluesky