
Die zunehmende Integration von Generativer Künstlicher Intelligenz (GenAI) in Fahrzeugsysteme eröffnet zwar neue Funktionen, bringt jedoch erhebliche Sicherheitsrisiken mit sich. Anders als klassische Software handelt es sich bei diesen Modellen um IT-Systeme, die eigenständig lernen, sich weiterentwickeln und autonom agieren. Diese dynamischen Lösungen begleiten Fahrzeuge über deren gesamten Lebenszyklus – und schaffen dadurch neue Angriffspunkte für Cyberkriminelle.
Besonders problematisch: Viele Automobilhersteller (OEMs) sind beim Training und der Bereitstellung solcher Modelle auf Drittanbieter angewiesen. Häufig wird dabei übersehen, dass GenAI nicht wie statische Software lediglich festgelegte Aufgaben abarbeitet, sondern ein dauerhaftes, „lebendiges“ Cybersicherheitsrisiko in die Lieferkette integriert. Experten raten deshalb, die Modelle vor ihrem Einsatz gründlich auf Sicherheit und Nachvollziehbarkeit zu prüfen.
Virulente Cyberrisiken überfordern aktuelle Sicherheitsmodelle
Im Gegensatz zu herkömmlichen Softwarekomponenten, hängt das Verhalten von GenAI-Modellen von den Daten ab, mit denen sie trainiert werden, sowie von der kontinuierlichen Weiterentwicklung ihres Lernprozesses. Dies macht es den OEMs unmöglich, sie mit den bereits bekannten Methoden vollständig zu testen oder zu sperren.
Zudem werden die meisten GenAI-Modelle von externen Partnern mit Daten, Prozessen und Tools trainiert, optimiert und aktualisiert, die die OEMs nie gesehen haben oder nicht kontrollieren können. Infolgedessen verteilt sich das Cybersicherheitsrisiko auf alle Phasen des Lebenszyklus eines KI-Modells. Die Hauptfolgen für OEMs sind:
- Die Identität des Erstellers des KI-Modells wird nicht offengelegt.
- Die Quelle der Trainingsdaten kann nicht überprüft werden.
- Es ist nicht ersichtlich, ob während der Feinabstimmung sensible Informationen offengelegt wurden.
Das KI-Modell lernt kontinuierlich, entwickelt sich weiter und verändert mit der Zeit sein Verhalten (dies tritt nur bei KI-Systemen mit Speichermechanismen auf).
Abbildung 1: KI = Neue Risiken in der Lieferkette
Vier Sicherheitsrisiken von GenAI-Modellen
Auf der Grundlage seiner Analyse der KI-Einführung in der Automobilindustrie, hat der Automotive Cybersecurity Anbieter VicOne vier Cyberrisiken mit hoher Auswirkung identifiziert, die bei der Integration von GenAI-Modellen in Fahrzeugsysteme häufig übersehen werden:
-
Schwachstellen der KI-Modelle
Beliebtheit ist nicht gleich Sicherheit. Die am häufigsten verwendeten Open-Source-Modelle sind auch die attraktivsten für Cyberkriminelle. Laut dem Enkrypt AI Safety Leaderboard überschreiten die zehn am häufigsten heruntergeladenen Open-Source-Modelle alle die vom National Institute of Standards and Technology (NIST) festgelegte Sicherheitsschwelle und es wurden bereits mehrere reale Angriffe dokumentiert. So hat etwa Google kürzlich Schwachstellen in seiner Machine Learning-Plattform Vertex AI behoben, die es Cyberkriminellen ermöglicht hätten, von Unternehmen trainierte Modelle zu extrahieren oder zu manipulieren.
Abbildung 2: Laut dem Enkrypt AI Safety Leaderboard bergen alle zehn am häufigsten heruntergeladenen Open-Source-Modelle ein gewisses Cybersicherheitsrisiko.
-
Risiko durch verfälschte Trainingsdaten
Bei der Feinabstimmung der KI-Modelle werden häufig sensible Kundendienstdaten, Wartungsprotokolle und Fahrtenbücher verwendet. Einige Unternehmen nutzen auch öffentlich zugängliche Datensätze von KI-Plattformen.
Diese Vorgehensweise birgt jedoch erhebliche Risiken. Im Jahr 2024 entdeckten Sicherheitsforscher 100 bösartige Modelle zur Codeausführung auf der Plattform Hugging Face. Bei Verwendung dieser Modelle könnten Cyberangreifer Systemcodes ausführen, vertrauliche Daten offenlegen oder tiefgreifendere Sicherheitsverletzungen ermöglichen. Dieser Vorfall zeigt, wie öffentliche KI-Modelle zu ernsthaften Bedrohungen für die Lieferkette werden können.
Wenn die für die Feinabstimmung verwendeten Daten nicht ordnungsgemäß bereinigt werden oder bereits kompromittiert sind, werden sie Teil des Langzeitgedächtnisses des KI-Modells und können vertrauliche Informationen offenlegen oder dauerhafte Sicherheitslücken schaffen. Schon wenige hundert bösartige Dateneingriffe unter Zehntausenden von Trainingsbeispielen können das Verhalten der KI-Modelle negativ beeinflussen.
Abbildung 3: Verfälschte KI-Modelle können von Cyberkriminellen manipuliert werden, um unbeabsichtigtes oder schädliches Verhalten auszulösen.
-
Lückenhafte Modellübernahme & Proxy-Governance
Während traditionelle Softwarekomponenten in der Regel etablierten Prozessen zur Versionskontrolle und Release-Governance folgen, mangelt es bei KI-Modellen und den damit verbundenen Kontextprotokoll-Proxys manchmal an Governance-Praktiken. Dies kann die Transparenz der eingesetzten Modellversionen beeinträchtigen und deren Rückverfolgbarkeit sowie das Risikomanagement erschweren.
Bei KI-Implementierungen sind MCP (Model Context Protocol)-Proxys zwischen Anwendung und KI-Modell geschaltet. Sie übernehmen die Authentifizierung, die Formatierung von Anfragen und die Netzwerkkommunikation. Ohne eine KI-spezifische Software-Stückliste (AI-SBOM) oder eine gleichwertige Nachverfolgung laufen DevOps-Teams Gefahr, unwissentlich veraltete oder nicht vertrauenswürdige Proxy-Versionen einzusetzen. Diese Lücke eröffnet neue Angriffsvektoren.
Solche Versäumnisse bei der Modellkontrolle unterstreichen die dringende Notwendigkeit einer strengen Governance sowie von SBOM-Praktiken und signierten Modellartefakten bei KI-Implementierungen, um Cyberbedrohungen auf Modellebene zu verhindern.
-
Risiken durch Verhaltensmanipulation
Wenn ein KI-Modell oder dessen versteckte System Prompts offengelegt werden, können Cyberangreifer die genaue Reihenfolge der Guardrail-Token („Passphrasen“ des Modells) zurückverfolgen und schädliche Token (Suffixe) erstellen, um dessen Sicherheitsprüfungen zu umgehen. So zeigte etwa der Imprompter-Angriff, wie scheinbar zufälliges Kauderwelsch bösartige Prompts (Anweisungen) verbergen kann, die persönliche Daten exfiltrieren. Dabei verwandelten Sicherheitsforscher eine Erfassungsaufforderung für persönlich identifizierbare Informationen (PII) in ein verschleiertes Suffix aus zufälligen Zeichen, gaben dies dann in Open-Source-Chatbots (LeChat, ChatGLM) ein und erzielten eine Erfolgsquote von fast 80 % beim Diebstahl von Namen, ID-Nummern, Zahlungsdetails, etc.
Würden solche Techniken gegen Sprachassistenten oder Infotainment-Systeme in Fahrzeugen (IVI) angewendet, könnten Cyberangreifer falsche Navigationsbefehle ausgeben, private Sprachinteraktionen heimlich aufzeichnen oder andere unbefugte Aktionen auslösen und so Sicherheit und Privatsphäre gefährden.
Abbildung 4: Dieses Diagramm veranschaulicht, wie Cyberangreifer die Sicherheitsprüfungen umgehen, um unbefugte Aktionen auszuführen.
Strenge Evaluierung für ECUs und KI-Modelle.
Es geht nicht darum, KI zu vermeiden. Es geht darum, KI zu integrieren und sie wie jeden anderen Datenlieferanten zu behandeln – mit angemessener Governance und Risikokontrollen. Wenn ein GenAI-Modell Entscheidungen innerhalb eines Fahrzeugs trifft, verdient es die gleiche Prüfung wie jeder Hardware- oder ECU -Lieferant. OEMs sollten mit der Umsetzung der folgenden Governance-Praktiken beginnen:
- Erstellung einer Software Bill of Material (SBOM) für KI: Dokumentation der Herkunft des KI-Modells, des Trainingsverlauf, der Risikoklassifizierung und der Ergebnisse der Schwachstellenanalyse.
- Durchführung robuster Sicherheitstests: Obligatorische Penetrationstests durch ein Red Team (Cyberangreifer) und eine Risikoprüfung vor der Bereitstellung, um abnormales Verhalten zu erkennen, einschließlich Prompt-Injection-Tests und Bewertungen der Robustheit gegenüber Cyberangriffen.
- Integration der KI-Modelle in die Cybersicherheits-Governance: Behandlung der KI-Modelle als Teil eines umfassenden Cybersicherheits-Risikomanagements – mit Transparenz über eine einzige Benutzeroberfläche.
GenAI ist nicht mehr nur ein Werkzeug. Es ist ein unsichtbares, lebendiges und sich weiterentwickelndes System, das tief in den Kern von KI-fähigen, softwaredefinierten Fahrzeugen eingebettet ist. Obwohl es sich um eine intelligente und innovative Komponente handelt, müssen konsequente Kontrollen und Überwachungen durchgeführt werden, um die Sicherheit vor drohenden Cyberrisiken zu gewährleisten.
Erfahren Sie mehr zum Thema „KI in der Automobilindustrie: Neudefinition des Cybersicherheitsrahmens“ im YouTube Vortrag von VicOne CEO Max Cheng.
Autorin: Ling Cheng, Marketing Director bei VicOne
Lesen Sie auch
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Wenn Angreifer selbst zum Ziel werden: Wie Forscher eine Infostealer-Infrastruktur kompromittierten

Mehr Gesetze, mehr Druck: Was bei NIS2, CRA, DORA & Co. am Ende zählt

WinDbg-UI blockiert beim Kopieren: Ursachenforschung führt zu Zwischenablage-Deadlock in virtuellen Umgebungen

RISE with SAP: Wie Sicherheitsmaßnahmen den Return on Investment sichern

Jailbreaking: Die unterschätzte Sicherheitslücke moderner KI-Systeme
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI

Allianz Risk Barometer 2026: Cyberrisiken führen das Ranking an, KI rückt auf Platz zwei vor

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung
Hamsterrad-Rebell

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus







