
Eine aktuelle Analyse von The Conference Board und ESGAUGE zeigt: 72 Prozent der Unternehmen im S&P 500 stufen Künstliche Intelligenz inzwischen als wesentliches Risiko in ihren öffentlichen Offenlegungen ein. 2023 waren es noch 12 Prozent. Der deutliche Anstieg verdeutlicht, wie rasant sich KI von Pilotprojekten zu geschäftskritischen Systemen entwickelt hat und wie stark Vorstände und Führungskräfte auf Reputations-, Regulierungs- und Betriebsrisiken reagieren.
Reputationsrisiken dominieren
Mit 38 Prozent ist das Reputationsrisiko das am häufigsten genannte Problem. Unternehmen warnen, dass gescheiterte KI-Projekte, fehlerhafte verbraucherorientierte Anwendungen oder Serviceausfälle das Markenvertrauen gefährden könnten. Cybersicherheitsrisiken folgen mit 20 Prozent. Hier verweisen Unternehmen auf neue Angriffsflächen und darauf, dass KI auch Gegnern zu leistungsfähigeren Angriffswerkzeugen verhilft.
„Unternehmen sind zunehmend besorgt über die Auswirkungen von KI auf Reputation, Sicherheit und Compliance“, sagte Andrew Jones, Principal Researcher bei The Conference Board. „Die Herausforderung besteht darin, KI mit derselben Strenge in die Unternehmensführung einzubetten wie Finanzen und Betrieb – und zugleich transparent zu kommunizieren, um das Vertrauen der Stakeholder zu sichern.“
Die Studie basiert auf den bis zum 15. August 2025 vorliegenden 10-K-Berichten der S&P-500-Unternehmen.
1. Offenlegungstrends
Der Anteil der Unternehmen, die KI-bezogene Risiken melden, stieg zwischen 2023 und 2025 von 12 auf 72 Prozent. Besonders stark war der Anstieg im Finanz-, Gesundheits- und Industriesektor:
-
Finanzwerte: von 14 auf 63 Unternehmen
-
Gesundheitswesen: von 5 auf 47 Unternehmen
-
Industrie: von 8 auf 48 Unternehmen
Finanz- und Gesundheitsunternehmen stehen unter erhöhtem regulatorischem und reputationsbezogenem Druck, während die Industrie zunehmend auf Automatisierung und Robotik setzt.
2. Reputationsrisiken
Reputationsrisiken gelten als unmittelbare Folge fehlerhafter KI-Anwendungen.
-
Implementierung und Einführung (45 Unternehmen): Probleme entstehen, wenn Projekte die Erwartungen nicht erfüllen oder schlecht integriert sind.
-
Verbraucherorientierte KI (42 Unternehmen): Fehlerhafte oder unzuverlässige Anwendungen können das Markenvertrauen nachhaltig schädigen.
-
Datenschutz (24 Unternehmen): Der Umgang mit sensiblen Daten birgt erhebliche Reputationsgefahren und kann regulatorische Maßnahmen auslösen.
„Ein einzelner Fehler – ob unsichere Produktion, voreingenommene Entscheidung oder gescheiterter Rollout – kann massive öffentliche und regulatorische Reaktionen auslösen“, betonte Brian Campbell, Leiter des Governance & Sustainability Center des Conference Board.
3. Cybersicherheitsrisiken
20 Prozent der Unternehmen nannten KI-bezogene Cyberrisiken sowohl 2024 als auch 2025.
-
KI-verstärktes Cyberrisiko (40 Unternehmen): KI erhöht Reichweite und Komplexität von Angriffen.
-
Drittanbieter-Exposition (18 Unternehmen): Abhängigkeiten von Cloud- und SaaS-Dienstleistern schaffen neue Schwachstellen.
-
Datenschutzverletzungen (17 Unternehmen): Unternehmen fürchten KI-gestützte Angriffe auf sensible Daten.
4. Rechtliche und regulatorische Risiken
Juristische Risiken gelten als besonders langfristige Herausforderung.
-
Entwicklungsregulierung (41 Unternehmen): Unsicherheit über fragmentierte Vorschriften, etwa das EU-KI-Gesetz, erschwert die Planung.
-
Compliance und Durchsetzung (12 Unternehmen): Neue Regelwerke erhöhen den Aufwand und das Risiko von Sanktionen.
-
Querschnittsrisiken (6 Unternehmen): Unklar ist oft, wer bei Schäden durch autonome Systeme haftet oder wie Gerichte Urheberrechtsfragen im Zusammenhang mit Trainingsdaten bewerten.
5. Auftauchende Risiken
Neben etablierten Gefahren rücken neue Themen in den Fokus:
-
Geistiges Eigentum (24 Unternehmen): Streitigkeiten über Datenquellen und Urheberrechte nehmen zu.
-
Datenschutz (13 Unternehmen): Risiken ergeben sich durch strengere Vorgaben etwa der DSGVO, HIPAA oder CCPA/CPRA.
-
Technologieakzeptanz (8 Unternehmen): Hohe Implementierungskosten, unklare Skalierbarkeit und unsichere Rendite gefährden die Wirtschaftlichkeit.
Die Studie zeigt deutlich: Künstliche Intelligenz ist nicht länger nur ein Innovationsfeld, sondern ein zentrales Risiko- und Governance-Thema in der Unternehmensberichterstattung der USA.
Fachartikel

CrackArmor: AppArmor-Schwachstellen ermöglichen Root-Zugriff auf über 12 Millionen Linux-Systemen

KI-Agenten als interne Sicherheitsrisiken: Was Experimente zeigen

MCP-Sicherheitsstudie: 555 Server mit riskanten Tool-Kombinationen identifiziert

SOX-Compliance in SAP: Anforderungen, IT-Kontrollen und der Weg zur Automatisierung

Irans Cyberoperationen vor „Epic Fury“: Gezielter Infrastrukturaufbau und Hacktivisten-Welle nach den Angriffen
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Quantifizierung und Sicherheit mit modernster Quantentechnologie

KI-Betrug: Interpol warnt vor industrialisierter Finanzkriminalität – 4,5-fach profitabler

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien
Hamsterrad-Rebell

Sichere Enterprise Browser und Application Delivery für moderne IT-Organisationen

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen








