
Eine aktuelle Analyse von The Conference Board und ESGAUGE zeigt: 72 Prozent der Unternehmen im S&P 500 stufen Künstliche Intelligenz inzwischen als wesentliches Risiko in ihren öffentlichen Offenlegungen ein. 2023 waren es noch 12 Prozent. Der deutliche Anstieg verdeutlicht, wie rasant sich KI von Pilotprojekten zu geschäftskritischen Systemen entwickelt hat und wie stark Vorstände und Führungskräfte auf Reputations-, Regulierungs- und Betriebsrisiken reagieren.
Reputationsrisiken dominieren
Mit 38 Prozent ist das Reputationsrisiko das am häufigsten genannte Problem. Unternehmen warnen, dass gescheiterte KI-Projekte, fehlerhafte verbraucherorientierte Anwendungen oder Serviceausfälle das Markenvertrauen gefährden könnten. Cybersicherheitsrisiken folgen mit 20 Prozent. Hier verweisen Unternehmen auf neue Angriffsflächen und darauf, dass KI auch Gegnern zu leistungsfähigeren Angriffswerkzeugen verhilft.
„Unternehmen sind zunehmend besorgt über die Auswirkungen von KI auf Reputation, Sicherheit und Compliance“, sagte Andrew Jones, Principal Researcher bei The Conference Board. „Die Herausforderung besteht darin, KI mit derselben Strenge in die Unternehmensführung einzubetten wie Finanzen und Betrieb – und zugleich transparent zu kommunizieren, um das Vertrauen der Stakeholder zu sichern.“
Die Studie basiert auf den bis zum 15. August 2025 vorliegenden 10-K-Berichten der S&P-500-Unternehmen.
1. Offenlegungstrends
Der Anteil der Unternehmen, die KI-bezogene Risiken melden, stieg zwischen 2023 und 2025 von 12 auf 72 Prozent. Besonders stark war der Anstieg im Finanz-, Gesundheits- und Industriesektor:
-
Finanzwerte: von 14 auf 63 Unternehmen
-
Gesundheitswesen: von 5 auf 47 Unternehmen
-
Industrie: von 8 auf 48 Unternehmen
Finanz- und Gesundheitsunternehmen stehen unter erhöhtem regulatorischem und reputationsbezogenem Druck, während die Industrie zunehmend auf Automatisierung und Robotik setzt.
2. Reputationsrisiken
Reputationsrisiken gelten als unmittelbare Folge fehlerhafter KI-Anwendungen.
-
Implementierung und Einführung (45 Unternehmen): Probleme entstehen, wenn Projekte die Erwartungen nicht erfüllen oder schlecht integriert sind.
-
Verbraucherorientierte KI (42 Unternehmen): Fehlerhafte oder unzuverlässige Anwendungen können das Markenvertrauen nachhaltig schädigen.
-
Datenschutz (24 Unternehmen): Der Umgang mit sensiblen Daten birgt erhebliche Reputationsgefahren und kann regulatorische Maßnahmen auslösen.
„Ein einzelner Fehler – ob unsichere Produktion, voreingenommene Entscheidung oder gescheiterter Rollout – kann massive öffentliche und regulatorische Reaktionen auslösen“, betonte Brian Campbell, Leiter des Governance & Sustainability Center des Conference Board.
3. Cybersicherheitsrisiken
20 Prozent der Unternehmen nannten KI-bezogene Cyberrisiken sowohl 2024 als auch 2025.
-
KI-verstärktes Cyberrisiko (40 Unternehmen): KI erhöht Reichweite und Komplexität von Angriffen.
-
Drittanbieter-Exposition (18 Unternehmen): Abhängigkeiten von Cloud- und SaaS-Dienstleistern schaffen neue Schwachstellen.
-
Datenschutzverletzungen (17 Unternehmen): Unternehmen fürchten KI-gestützte Angriffe auf sensible Daten.
4. Rechtliche und regulatorische Risiken
Juristische Risiken gelten als besonders langfristige Herausforderung.
-
Entwicklungsregulierung (41 Unternehmen): Unsicherheit über fragmentierte Vorschriften, etwa das EU-KI-Gesetz, erschwert die Planung.
-
Compliance und Durchsetzung (12 Unternehmen): Neue Regelwerke erhöhen den Aufwand und das Risiko von Sanktionen.
-
Querschnittsrisiken (6 Unternehmen): Unklar ist oft, wer bei Schäden durch autonome Systeme haftet oder wie Gerichte Urheberrechtsfragen im Zusammenhang mit Trainingsdaten bewerten.
5. Auftauchende Risiken
Neben etablierten Gefahren rücken neue Themen in den Fokus:
-
Geistiges Eigentum (24 Unternehmen): Streitigkeiten über Datenquellen und Urheberrechte nehmen zu.
-
Datenschutz (13 Unternehmen): Risiken ergeben sich durch strengere Vorgaben etwa der DSGVO, HIPAA oder CCPA/CPRA.
-
Technologieakzeptanz (8 Unternehmen): Hohe Implementierungskosten, unklare Skalierbarkeit und unsichere Rendite gefährden die Wirtschaftlichkeit.
Die Studie zeigt deutlich: Künstliche Intelligenz ist nicht länger nur ein Innovationsfeld, sondern ein zentrales Risiko- und Governance-Thema in der Unternehmensberichterstattung der USA.
Fachartikel

OpenClaw-Skills als neuer Malware-Verteilweg: Erkenntnisse von VirusTotal

ShinyHunters: Voice-Phishing-Kampagne zielt auf Cloud-Plattformen ab

ShinyHunters-Angriffe: Mandiant zeigt wirksame Schutzmaßnahmen gegen SaaS-Datendiebstahl

Phishing-Angriff: Cyberkriminelle missbrauchen Microsoft-Infrastruktur für Betrugsmaschen

Wie Angreifer proprietäre KI-Modelle über normale API-Zugriffe stehlen können
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

DigiCert veröffentlicht RADAR-Bericht für Q4 2025

Koordinierte Cyberangriffe auf polnische Energieinfrastruktur im Dezember 2025

Künstliche Intelligenz bedroht demokratische Grundpfeiler

Insider-Risiken in Europa: 84 Prozent der Hochrisiko-Organisationen unzureichend vorbereitet

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI
Hamsterrad-Rebell

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern







