Share
Beitragsbild zu KI vor Sicherheit: Alle Fortune-500-Konzerne setzen auf künstliche Intelligenz – Schutzmaßnahmen hinken hinterher

KI vor Sicherheit: Alle Fortune-500-Konzerne setzen auf künstliche Intelligenz – Schutzmaßnahmen hinken hinterher

Die KI-Revolution ist in vollem Gange – und die führenden Unternehmen der Welt machen keine Ausnahme: Laut einer aktuellen Analyse des Cybernews-Forschungsteams setzen alle Fortune-500-Unternehmen auf Künstliche Intelligenz. Doch während der technologische Fortschritt rasant voranschreitet, bleibt die Sicherheit auf der Strecke.

Die Analyse offenbart, dass 100 Prozent der untersuchten Konzerne KI-Technologien aktiv einsetzen. Rund ein Drittel (33,5 %) nutzt allgemeine KI-Anwendungen sowie Big-Data-Analysen zur Mustererkennung, Prozessoptimierung und Entscheidungsunterstützung. 22 Prozent der Unternehmen setzen KI gezielt für spezielle Geschäftsprozesse ein, etwa zur Bestandsoptimierung, vorausschauenden Wartung oder im Kundenservice.

Bemerkenswert ist der Trend zur Eigenentwicklung: 14 Prozent entwickeln eigene große Sprachmodelle (LLMs) – prominente Beispiele sind Wallaby von Walmart oder Metabrain von Saudi Aramco. Lediglich rund 5 Prozent der Unternehmen greifen offen auf KI-Dienste externer Anbieter wie OpenAI, Google, DeepSeek AI oder Anthropic zurück.

Doch bei aller Innovationsfreude zeigen sich auch Schwächen: Ein umfassendes Sicherheits- und Risikomanagement rund um KI steckt bei den meisten Unternehmen noch in den Kinderschuhen. Dadurch entstehen neue Angriffsflächen und potenzielle Gefahren – ein Wettlauf, bei dem der Schutz bislang klar hinter der Technik zurückbleibt.

Fazit: KI ist in der Wirtschaft längst Realität – doch ohne entsprechende Sicherheitsstandards droht der Fortschritt zum Risiko zu werden.

Die Frage, wie viele Fortune-500-Unternehmen erklärt haben, keine KI zu nutzen, lässt sich eindeutig beantworten: keines. Ganz im Gegenteil: Alle Unternehmen setzen KI-Lösungen aktiv ein oder prüfen deren Einsatz, oder geben dies zumindest in irgendeiner Form gegenüber ihren Stakeholdern an.

Die Forscher von Cybernews haben alle öffentlich zugänglichen Websites der Unternehmen durchsucht und Gemini Deep Research damit beauftragt, sie auf Beispiele für den Einsatz von KI zu untersuchen. Diese Analyse ist zwar nicht umfassend statistisch, zeigt jedoch, dass KI für viele große Unternehmen zu einem grundlegenden Bestandteil ihrer Geschäftsstrategie geworden ist.

KI ist bereits in Kernbereiche integriert, vom Kundenservice bis zur strategischen Entscheidungsfindung. Dies birgt jedoch auch erhebliche Risiken.

„Während große Unternehmen schnell auf den KI-Zug aufspringen, hinkt das Risikomanagement hinterher. Unternehmen sind den neuen Risiken, die mit KI verbunden sind, schutzlos ausgeliefert“, warnt Aras Nazarovas, Senior Security Researcher bei Cybernews.

Was findet KI über KI auf den Websites der Fortune-500-Unternehmen?

Haftungsausschluss: Diese Daten basieren auf den Ergebnissen von Gemini 2.5 Pro Deep Research nach der Analyse der Websites von 500 Unternehmen. Sie stellen keine umfassende statistische Analyse dar (Cybernews)

Der Versuch, einen einzigen Fall zu finden, in dem KI nicht eingesetzt wird, führt zu keinem Ergebnis.

Ein Drittel der Unternehmen (33,5 %) konzentriert sich eher auf allgemeine KI- und Big-Data-Fähigkeiten als auf spezifische LLMs. Sie hoben KI für allgemeine Zwecke wie Datenanalyse, Mustererkennung, Systemoptimierung und andere hervor.

Mehr als ein Fünftel der Unternehmen (22 %) betonten den Einsatz von KI für funktionale Anwendungen in verschiedenen spezifischen Bereichen. Diese Einträge beschreiben, wie KI zur Lösung von Geschäftsproblemen wie Bestandsoptimierung, vorausschauende Wartung oder Kundenservice eingesetzt wird.

So erwähnen beispielsweise Dutzende von Unternehmen bereits ausdrücklich den Einsatz von KI für den Kundenservice, Chatbots, virtuelle Assistenten oder die damit verbundene Automatisierung der Kundeninteraktion. In ähnlicher Weise geben Unternehmen an, KI zur Automatisierung von „Einstiegspositionen” in Bereichen wie Bestandsmanagement, Dateneingabe und grundlegender Prozessautomatisierung einzusetzen.

Einige Unternehmen nehmen die Dinge gerne selbst in die Hand und entwickeln eigene Modelle. Rund 14 % der Unternehmen gaben an, dass sie sich auf eigene interne oder proprietäre LLMs konzentrieren, wie beispielsweise Wallaby von Walmart oder Metabrain von Saudi Aramco.

„Dieser Ansatz ist besonders in Branchen wie Energie und Finanzen verbreitet, in denen spezialisierte Anwendungen, Datenkontrolle und geistiges Eigentum von zentraler Bedeutung sind”, so Nazarovas.

Eine ähnliche Anzahl von Unternehmen misst KI strategische Bedeutung bei, was auf die Integration von KI in die Gesamtstrategie eines Unternehmens hindeutet.

Nur wenige Unternehmen, etwa 5 %, geben stolz an, dass sie auf externe LLM-Dienste von Drittanbietern wie OpenAI, DeepSeek AI, Anthropic, Google und anderen zurückgreifen.

Allerdings gibt es auch ein Zehntel der Unternehmen, die den Einsatz von KI nur vage erwähnen, ohne das tatsächliche Produkt oder dessen Verwendung zu spezifizieren.

„Während nur wenige Unternehmen (~4 %) einen hybriden oder multiplen Ansatz für KI erwähnen, bei dem proprietäre, Open-Source-, Drittanbieter- und andere Lösungen kombiniert werden, ist dieser Ansatz wahrscheinlich weiter verbreitet, da sich die Experimentierphase noch in der Anfangsphase befindet“, so Nazarovas.

Die Daten deuten darauf hin, dass Unternehmen oft nicht explizit nennen möchten, welche KI-Tools sie einsetzen. Nur 21 Unternehmen erwähnen die Nutzung von OpenAI, DeepSeek (19), Nvidia (14), Google (8), Anthropic (7), META Llama (6) und noch weniger Cohere und andere.

Zum Vergleich: Microsoft gibt an, dass über 85 % der Fortune-500-Unternehmen seine KI-Lösungen nutzen. Anderen Berichten zufolge nutzen 92 % der 500 Unternehmen OpenAI-Produkte.

KI ist da, und mit ihr die Risiken

Der Algorithmus von YouTube hat kürzlich das Video des Tech-Rezensenten und Entwicklers Jeff Geerling wegen Verstoßes gegen die Community-Richtlinien markiert. Der automatisierte Dienst stellte fest, dass der Inhalt „beschreibt, wie man unbefugten oder kostenlosen Zugang zu Audio- oder audiovisuellen Inhalten, Software, Abonnementdiensten oder Spielen erhält“.

Das Problem ist, dass der YouTuber „nichts davon beschrieben hat“. Er legte Widerspruch ein, der jedoch abgelehnt wurde. Nach einigen Unruhen in den sozialen Medien wurde das Video jedoch später wieder freigegeben, was Geerling als „menschlichen Überprüfungsprozess“ bezeichnet.

Viele kleinere Creator würden eine solche Behandlung wahrscheinlich nie erfahren.

Diese Geschichte ist nur die Spitze des Eisbergs der Risiken, die mit der Einführung von KI verbunden sind. Die Forscher von Cybernews haben noch viele weitere aufgeführt:

  • Datensicherheit/Datenlecks: Dies ist das am häufigsten genannte Sicherheitsproblem, das in einer Vielzahl von Einträgen aus allen Branchen auftaucht. Probleme im Zusammenhang mit dem Schutz sensibler Daten, darunter personenbezogene Daten (PII), Gesundheitsdaten und Betriebsdaten, werden immer wieder hervorgehoben.
  • Prompt-Injection: Schwachstellen im Zusammenhang mit der Manipulation von Eingabeaufforderungen und unsicheren Eingaben werden ebenfalls häufig genannt, insbesondere im Zusammenhang mit Chatbots, Suchmaschinen und anderen interaktiven KI-Systemen.
  • Modellintegrität/Vergiftung: Es bestehen Bedenken hinsichtlich der Integrität von LLMs und der Möglichkeit der Vergiftung von Trainingsdaten, insbesondere bei proprietären Modellen. Dazu gehören Risiken im Zusammenhang mit voreingenommenen Ergebnissen und manipuliertem Modellverhalten.
  • Schwachstellen in kritischen Infrastrukturen: Für Unternehmen, die in kritischen Infrastruktursektoren (z. B. Energie, Versorgungsunternehmen) tätig sind, stellt die Sicherheit von KI, die in Steuerungssysteme und Betriebstechnologien integriert ist, ein großes Risiko dar.
  • Diebstahl geistigen Eigentums: Der Schutz proprietärer LLMs, Algorithmen und KI-bezogenen geistigen Eigentums ist ein wichtiges Anliegen, insbesondere für Unternehmen, die stark in die interne KI-Entwicklung investieren.
  • Lieferketten-/externe Risiken: Risiken im Zusammenhang mit externen LLM-Anbietern, Partner-LLMs und der gesamten KI-Lieferkette werden ebenfalls genannt, was die Notwendigkeit eines sicheren Lieferantenmanagements und einer Risikobewertung unterstreicht.
  • Voreingenommenheit/algorithmische Voreingenommenheit: Es bestehen Bedenken hinsichtlich der Voreingenommenheit von LLM-Ergebnissen und algorithmischen Entscheidungen, was die Notwendigkeit von Fairness und ethischen Überlegungen bei der Entwicklung und dem Einsatz von KI unterstreicht.
  • Unsichere Ergebnisse: Es werden Risiken im Zusammenhang mit LLMs genannt, die schädliche, irreführende oder unsichere Ergebnisse liefern, insbesondere in Anwendungen, bei denen die Reaktion der KI direkte Auswirkungen auf Benutzer oder Systeme hat.
  • Mangelnde Transparenz/Governance: Probleme im Zusammenhang mit der mangelnden Transparenz der Entscheidungsprozesse von LLMs und die Notwendigkeit robuster KI-Governance-Rahmenwerke werden ebenfalls hervorgehoben.

„Kritische Infrastrukturen und das Gesundheitswesen sind beispielsweise oft mit besonderen und erhöhten Sicherheitsrisiken konfrontiert“, so Nazarovas.

„Da Unternehmen beginnen, sich mit neuen Herausforderungen und Risiken auseinanderzusetzen, dürfte dies in den kommenden Jahren erhebliche Auswirkungen auf Verbraucher, Branchen und die Wirtschaft insgesamt haben.“

Rücksichtsloser Einsatz von KI

„KI wurde in Unternehmen schnell eingeführt, lange bevor man sich ernsthaft mit ihrer Sicherheit befasste.

Es ist wie mit einem Wunderkind, das ohne Aufsicht aufgewachsen ist – brillant, aber rücksichtslos.

In Umgebungen ohne angemessene Governance kann es sensible Daten offenlegen, Schatten-Tools einführen oder auf vergiftete Eingaben reagieren. Fortune-500-Unternehmen haben KI eingeführt, aber die Regeln dafür werden noch geschrieben“, sagt Emanuelis Norbutas, Chief Technology Officer bei nexos.ai.

Emanuelis fügt hinzu: „Mit zunehmender Verbreitung reicht es nicht mehr aus, nur den Zugriff auf Modelle zu sichern. Unternehmen müssen kontrollieren, wie KI in der Praxis eingesetzt wird – von der Festlegung von Eingabe- und Ausgabegrenzen über die Durchsetzung rollenbasierter Berechtigungen bis hin zur Verfolgung des Datenflusses durch diese Systeme. Ohne diese strukturierte Überwachungsebene wird die Kluft zwischen Innovation und Risiko nur noch größer werden.“

Gemeinsame Strategien zur Risikominderung

Die Regulierung der künstlichen Intelligenz (KI) in den USA ist derzeit eine Mischung aus Maßnahmen auf Bundes- und Landesebene, wobei noch kein umfassendes Bundesgesetz verabschiedet wurde.

Es entstehen mehrere Rahmenwerke und Standards, um die Sicherheit von KI und LLM zu gewährleisten.

Das National Institute of Standards and Technology (NIST) hat das AI Risk Management Framework (AI RMF) veröffentlicht, das Leitlinien für den Umgang mit Risiken im Zusammenhang mit KI für Einzelpersonen, Organisationen und die Gesellschaft enthält.

Die EU hat den AI Act verabschiedet, eine Verordnung, die einen Rechtsrahmen für KI in der Europäischen Union schaffen soll. Der Act erhöht die Anforderungen an risikoreiche KI-Systeme, einschließlich Sicherheits- und Transparenzverpflichtungen.

ISO/IEC 42001 ist eine weitere internationale Norm, die Anforderungen für die Einrichtung, Umsetzung, Aufrechterhaltung und kontinuierliche Verbesserung eines Managementsystems für künstliche Intelligenz (AIMS) festlegt. Der Schwerpunkt liegt auf dem Management von Risiken und der Gewährleistung einer verantwortungsvollen Entwicklung und Nutzung von KI.

„Das Problem mit Rahmenwerken ist, dass die rasante Entwicklung der KI die aktuellen Rahmenwerke überholt und zusätzliche Hürden, vage Leitlinien, Compliance-Herausforderungen und andere Einschränkungen mit sich bringt“, so Nazarovas. „Rahmenwerke bieten nicht immer wirksame Lösungen für spezifische Probleme, aber sie können Unternehmen bei ihrer Umsetzung sicherlich belasten.“

Die Forscher von Cybernews empfehlen Unternehmen, die Risiken ihrer spezifischen KI-Implementierungsansätze klar zu identifizieren und entsprechend zu mindern.

Datensicherheit/Datenlecks:

  • Datenklassifizierung: Identifizieren und klassifizieren Sie sensible Daten (personenbezogene Daten, Gesundheitsdaten usw.), um geeignete Sicherheitskontrollen anzuwenden.
  • Verschlüsselung: Verschlüsseln Sie Daten sowohl im Ruhezustand als auch während der Übertragung, um sie vor unbefugtem Zugriff zu schützen.
  • Zugriffskontrollen: Implementieren Sie strenge Zugriffskontrollen und Authentifizierungsmechanismen (wie Multi-Faktor-Authentifizierung), um den Datenzugriff zu beschränken.
  • Datenminimierung: Sammeln und speichern Sie nur die erforderlichen Daten.
  • Anonymisierung/Pseudonymisierung: Sensible Daten nach Möglichkeit anonymisieren.
  • Tools zur Verhinderung von Datenverlusten (DLP): Verwenden Sie Tools, um zu überwachen und zu verhindern, dass sensible Daten die Kontrolle des Unternehmens verlassen.

Prompt-Injection:

  • Eingabevalidierung und -bereinigung: Validieren und bereinigen Sie alle Benutzereingaben, um zu verhindern, dass böswillige Eingabeaufforderungen das LLM manipulieren.
  • Ausgabevalidierung: Validieren und filtern Sie die LLM-Ausgaben, um sicherzustellen, dass sie sicher sind und mit den beabsichtigten Antworten übereinstimmen.
  • Sandboxing/Isolierung: Führen Sie LLMs in isolierten Umgebungen aus, um die Auswirkungen potenzieller Prompt-Injection-Angriffe zu begrenzen.
  • Klare Eingabe-/Ausgabegrenzen: Definieren Sie klare Grenzen zwischen Benutzereingaben und LLM-Ausgaben, um Verwirrung zu vermeiden.

Modellintegrität/Vergiftung:

  • Sichere Trainingsdaten-Pipelines: Stellen Sie die Integrität und Sicherheit der Trainingsdaten sicher, um Vergiftungsangriffe zu verhindern.
  • Modellvalidierung und -tests: Validieren und testen Sie Modelle regelmäßig, um Anomalien oder Manipulationen zu erkennen.
  • Modellüberwachung: Überwachen Sie das Modellverhalten in der Produktion auf unerwartete oder böswillige Aktivitäten.
  • Versionskontrolle: Führen Sie eine Versionskontrolle der Modelle durch, um Änderungen zu verfolgen und bei Bedarf auf frühere Versionen zurückzugreifen.
  • Adversarial Training: Trainieren Sie Modelle, damit sie widerstandsfähig gegen gegnerische Angriffe sind.

Schwachstellen in kritischen Infrastrukturen:

  • Sicherheit durch Design: Integrieren Sie Sicherheitsaspekte von Anfang an in das Design von KI-Systemen.
  • Netzwerksegmentierung: Segmentieren Sie Netzwerke, um kritische Systeme zu isolieren und die Auswirkungen potenzieller Angriffe zu begrenzen.
  • Intrusion Detection and Prevention Systems (IDPS): Setzen Sie IDPS ein, um böswillige Aktivitäten zu erkennen und zu verhindern, die auf KI-Systeme abzielen.
  • Regelmäßige Schwachstellenbewertungen und Penetrationstests: Führen Sie regelmäßige Bewertungen durch, um Schwachstellen zu identifizieren und zu beheben.
  • Planung der Reaktion auf Vorfälle: Entwickeln und pflegen Sie Pläne für die Reaktion auf KI-bezogene Sicherheitsvorfälle.

Diebstahl geistigen Eigentums:

  • Zugriffskontrollen: Implementieren Sie strenge Zugriffskontrollen, um proprietäre Modelle und Algorithmen zu schützen.
  • Wasserzeichen: Versehen Sie Modelle und Daten mit Wasserzeichen, um unbefugtes Kopieren oder Verwenden zu erkennen.
  • Vertrauliche Datenverarbeitung: Verwenden Sie vertrauliche Datenverarbeitungsumgebungen, um Modelle und Daten während der Verarbeitung zu schützen.
  • Rechtliche Vereinbarungen und Verträge: Schließen Sie klare rechtliche Vereinbarungen und Verträge zum Schutz des geistigen Eigentums ab.

Lieferkette/externe Risiken:

  • Risikomanagement für Lieferanten: Führen Sie gründliche Due-Diligence-Prüfungen von externen LLM-Anbietern durch und schließen Sie sichere Verträge ab.
  • Sichere Integration: Stellen Sie die sichere Integration von LLMs und APIs von Drittanbietern sicher.
  • Überwachung und Auditierung: Überwachen und auditieren Sie die Aktivitäten von Drittanbietern und Integrationen.

Voreingenommenheit/algorithmische Voreingenommenheit:

  • Vielfältige Trainingsdaten: Verwenden Sie vielfältige und repräsentative Trainingsdaten, um Voreingenommenheit zu minimieren.
  • Techniken zur Erkennung und Minimierung von Voreingenommenheit: Implementieren Sie Techniken zur Erkennung und Minimierung von Voreingenommenheit in Modellausgaben.
  • Erklärbarkeit und Transparenz: Streben Sie nach Erklärbarkeit und Transparenz in den Entscheidungsprozessen des Modells.
  • Ethische Richtlinien und Überprüfungen: Legen Sie ethische Richtlinien für die Entwicklung und den Einsatz von KI fest und führen Sie regelmäßige ethische Überprüfungen durch.

Unsichere Ergebnisse:

  • Filterung und Moderation der Ergebnisse: Filtern und moderieren Sie die Ergebnisse von LLM, um sicherzustellen, dass sie sicher und angemessen sind.
  • Menschliche Überprüfung: Implementieren Sie menschliche Überprüfungsprozesse für sensible oder kritische LLM-Ergebnisse.
  • Sicherheitsschulungen: Trainieren Sie Modelle, um schädliche oder unsichere Ergebnisse zu vermeiden.

Mangelnde Transparenz/Governance:

  • KI-Governance-Rahmenwerke: Richten Sie klare KI-Governance-Rahmenwerke mit definierten Rollen, Verantwortlichkeiten und Richtlinien ein.
  • Dokumentation und Audits: Führen Sie eine detaillierte Dokumentation der KI-Systeme und regelmäßige Audits durch.
  • Transparenzmechanismen: Implementieren Sie Mechanismen zur Erhöhung der Transparenz der Entscheidungsprozesse von LLM

Quelle: AI first, security later: all Fortune 500 companies use AI, but security rules are still under construction / Cybernews researchers 


Teile diesen Beitrag: