Share
Beitragsbild zu Zunahme KI-gestützter Cyberbedrohungen im Fertigungssektor

Zunahme KI-gestützter Cyberbedrohungen im Fertigungssektor

9. November 2025

Der Netskope Threat Labs Manufacturing Report 2025 zeigt eine deutliche Zunahme generativer KI in der Industrie sowie neue Risiken durch Datenschutzverstöße und Malware-Verbreitung über Cloud-Anwendungen. Der Bericht analysiert Trends bei GenAI-Einführung, KI-Plattformen, API-Nutzung, Cloud-App-Aktivitäten und Compliance-Kontrollen und beleuchtet den Spagat zwischen Innovation und Datensicherheit.

  • GenAI-Nutzung: Die Akzeptanz generativer KI bleibt hoch. Während private Nutzung abnimmt, steigt der Einsatz unternehmensgenehmigter GenAI-Lösungen mit besseren Sicherheitsmechanismen.

  • Agentische KI: Firmen wechseln zunehmend von SaaS-Tools zu flexiblen, datenschutzorientierten GenAI-Plattformen, um eigene KI-Anwendungen zu entwickeln und mehr Kontrolle zu behalten.

  • GenAI-APIs: Die Nutzung von GenAI-APIs – etwa über api.openai.com – nimmt stark zu, insbesondere für interne Tools und KI-Agenten.

  • Malware-Verbreitung: Angreifer missbrauchen zunehmend Cloud-Dienste wie Microsoft OneDrive, GitHub und Google Drive zur Verteilung von Malware.

  • Cloud-App-Nutzung: Persönliche Cloud-Apps bleiben weit verbreitet und verwischen die Grenzen zwischen privaten und geschäftlichen Daten. Beliebt sind Google Drive, LinkedIn und OneDrive.

  • Datenschutzkontrollen: Unternehmen überwachen verstärkt Google Drive, Personal ChatGPT und Google Gemini, um Datenlecks über persönliche oder KI-basierte Apps zu verhindern.

  • Datenschutzverstöße: Die meisten Vorfälle betreffen regulierte Daten, geistiges Eigentum sowie Passwörter und API-Schlüssel, was den Schutz sensibler Informationen in unkontrollierten Umgebungen erschwert.

GenAI-Nutzung im Fertigungssektor: Trends und Akzeptanz

Die Nutzung von GenAI im Fertigungssektor bleibt hoch: 94 % der Organisationen setzen GenAI-Anwendungen direkt ein, 97 % nutzen Apps, die Daten für Modelltraining verwenden, und 96 % greifen indirekt auf GenAI-Tools zu. Persönliche Konten gingen von 83 % Ende 2024 auf 51 % im September 2025 zurück, während organisationsweit zugelassene Lösungen von 15 % auf 42 % stiegen – ein Zeichen für die zunehmende Präferenz sicherer, unternehmensgerechter Plattformen.

Die beliebtesten Anwendungen spiegeln globale Trends wider: ChatGPT führt mit 87 %, gefolgt von Google Gemini (74 %) und Microsoft 365 Copilot (58 %). Plattformen wie Grok gewinnen schnell an Bedeutung (0 % → 32 %). Der Fokus liegt zunehmend auf firmeneigenen Tools, die Datenschutz, Kontrolle und Workflow-Integration gewährleisten.

Datensicherheit und Datenschutzverstöße

Die Nutzung von GenAI für Dokumentenzusammenfassungen, Berichte oder Code-Optimierung birgt Datenschutzrisiken. Häufig betroffen sind regulierte Daten (29 %), Quellcode (28 %) sowie Passwörter/API-Schlüssel (26 %). Dies deckt sich mit globalen Trends und betont die Notwendigkeit stärkerer DLP-Kontrollen.

Die am häufigsten blockierten Apps sind DeepSeek (48 %) und ZeroGPT (43 %), da sie Transparenz- und Sicherheitsrisiken bergen. Unternehmen setzen zunehmend auf unternehmenseigene GenAI-Plattformen wie OpenAI über Azure (37 %), Amazon Bedrock (31 %) und Google Vertex AI (7,8 %), um Modelle privat zu hosten und maßgeschneiderte Lösungen zu entwickeln.

API-Nutzung und Cloud-Anwendungen

GenAI-Agenten greifen meist über APIs auf Cloud-Modelle zu. OpenAI dominiert hier (67 %), gefolgt von AssemblyAI (59 %) und Anthropic (24 %).

Cloud-Dienste bergen jedoch Malware-Risiken: 22 von 10.000 Nutzern stoßen monatlich auf schädliche Inhalte. Häufig betroffen sind OneDrive (18 %), GitHub (14 %) und Google Drive (11 %).

Auch persönliche Cloud-Apps sind weit verbreitet: Google Drive (98 %), LinkedIn (95 %) und OneDrive (94 %). Sie erhöhen das Risiko unbeabsichtigter Datenoffenlegung. Um dem entgegenzuwirken, implementieren Unternehmen DLP-Maßnahmen: Google Drive (35 %), persönliche ChatGPT-Konten (29 %) und Google Gemini (23 %) werden aktiv überwacht.

Datenschutzverstöße betreffen vor allem regulierte Daten (41 %), geistiges Eigentum (32 %), Passwörter/API-Schlüssel (19 %) und Quellcode (8 %). Im Gegensatz zu globalen Trends ist hier Quellcode weniger betroffen, was die spezifischen Risiken des Fertigungssektors verdeutlicht.

Empfehlungen für GenAI- und Cloud-Sicherheit

  • Downloads überwachen: Alle HTTP/HTTPS-Downloads prüfen, um Malware zu blockieren.

  • Apps kontrollieren: Nur vertrauenswürdige Anwendungen zulassen, riskante blockieren.

  • Daten schützen: DLP einsetzen, um sensible Informationen vor unautorisierten Apps oder Speicherorten zu sichern.

  • Sichere Webnutzung: Remote Browser Isolation für risikobehaftete Websites nutzen.

Quelle aller Grafiken: Netskope

Das sollten Sie sich ansehen:


Bild/Quelle: https://depositphotos.com/de/home.html

Folgen Sie uns auf X

Folgen Sie uns auf Bluesky

Folgen Sie uns auf Mastodon