
Deep Fakes sind Medieninhalte, die durch den Einsatz von Künstlicher Intelligenz gezielt völlig automatisiert manipuliert und über soziale Netzwerke verbreitet werden. Was als Spielerei in der digitalen Welt begann, entwickelt sich immer mehr zur realen Bedrohung für Unternehmen und Politik. Die Abteilung Cognitive Security Technologies am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC forscht an der Schnittstelle zwischen Künstlicher Intelligenz und IT-Sicherheit und hat vier Bereiche identifiziert, in denen Deep Fakes bereits heute zur Herausforderung geworden sind.
Die Manipulation von Bildmaterial gehört mittlerweile zu unserem Alltag: Nicht nur in Zeitschriften oder auf Dating-Portalen wird mit Bildbearbeitungsprogrammen nachgeholfen, auch in sozialen Medien sind manipulierte Bilder allgegenwärtig. Das stellt auch Polizei, Gerichtswesen und Versicherungen zunehmend vor die Herausforderung, Originale von Fälschungen zu unterscheiden. Geschulte Fachkräfte unterstützen dabei, Bildmanipulationen z.B. bei Verdacht auf Betrug aufzudecken.
Mit Video- oder Audiomaterial verhielt es sich bislang noch anders: Aufgrund des dynamischen Inhalts ist die Anfertigung hochwertiger Fälschungen herausfordernder. Für eine Minute gefälschtes Videomaterial mit 30 Frames pro Sekunde müssten 1.800 Bilder manipuliert werden; und zwar so, dass sie alle nahtlos ineinander übergehen. Ähnliches gilt für Audiomaterial. Durch herkömmliche Methoden waren solche Fälschungen nahezu unmöglich, und Video- und Audiomaterial zählten damit lange als die letzte Bastion in Sachen Vertrauen und Authentizität in digitalen Medien.
Manipulation durch Machine Learning
Durch den Einsatz von Machine Learning und Methoden der Künstlichen Intelligenz ändert sich die Bedrohungslage: Hochwertige Video-Fälschungen können mittlerweile mit frei verfügbarer Open-Source-Software automatisiert erstellt werden. Und auch die gezielte Manipulation von Audio-Dateien ist technisch so weit ausgereift, dass einer Person in der digitalen Welt ein beliebiger Satz sozusagen »in den Mund gelegt« werden kann – vorausgesetzt, es steht genug Ausgangsmaterial zur Verfügung, um die KI zu trainieren. Insbesondere bei Personen des öffentlichen Lebens stellt das angesichts der Menge an Daten, die auf den gängigen Social-Media-Plattformen zur Verfügung stehen, keine wirkliche Hürde mehr dar.
»Der Name Deep Fake ist eine Komposition aus ‚Fake’ für Fälschung und ‚Deep’, was auf die zugrunde liegenden tiefen neuronalen Netze hinweist«, erklärt Nicolas Müller, wissenschaftlicher Mitarbeiter und Experte für Machine Learning am Fraunhofer AISEC. »Diese Netze ähneln entfernt der Struktur des menschlichen Gehirns und bestehen aus mehreren Millionen künstlichen Neuronen, die in der Lage sind, komplizierte Aufgaben zu lernen.«
Konkret bedeutet das, dass ein derartiges Netz mit Video- bzw. Audiomaterial einer Zielperson trainiert werden kann und so lernt, den Gesichtsausdruck oder die Sprachmelodie der Zielperson zu imitieren, um beliebiges Video- oder Audiomaterial zu generieren – mehrere Minuten an Sprachaufnahmen sind hier bereits ausreichend.
Eine Demonstrator-Software, die am Fraunhofer AISEC entwickelt wurde, zeigt beispielsweise, wie Angela Merkel beliebige Sätze in den Mund gelegt werden, ihre Stimme also geklont werden kann.
Bedrohung für Wirtschaft und Gesellschaft
Aufgrund der gesellschaftlichen Brisanz haben die Forschenden am Fraunhofer AISEC das Thema schon frühzeitig in den Fokus ihrer Untersuchungen gestellt. Dabei konnten die Sicherheitsexperten vier Bereiche identifizieren, in denen Deep Fakes bereits jetzt zur realen Herausforderung geworden sind:
- VoiceID-Systeme: Um sich am Telefon bei einer Bank, einer Versicherung oder einem Mobilfunkanbieter zu legitimieren, werden zunehmend Voice-ID-Systeme eingesetzt. Der Nutzer wird bei einem Anruf anhand der Stimme identifiziert: Der Stimme kommt also die Bedeutung eines Passworts zu. Eine Fälschung der Stimme kann einen Angreifer beispielsweise legitimieren, Überweisungen zu tätigen oder ganze Konten zu leeren.
- ID-Provider: Anbieter von digitalen Identitäten erlauben es Kunden, rein digital über das Internet ihre Identität zu bestätigen. Diese Identitäten können anschließend genutzt werden, um Bankkonten zu eröffnen oder Verträge abzuschließen. Deep Fakes ermöglichen hier nicht nur Angriffe auf Privatpersonen (Person A handelt im Namen von Person B); sondern ermöglichen auch Straftaten wie Geldwäsche, da beliebige Bankkonten erzeugt werden können.
- Kriminalistik: Deep Fakes können dazu eingesetzt werden, Beweismittel zu fälschen oder Straftaten zu verschleiern. Aufnahmen von Stimmen und Geräuschen werden häufig als Beweismittel zugelassen, um Betrüger zu überführen. Die Manipulation dieser Aufnahmen stellt eine große Herausforderung für die Justiz und das Rechtssystem dar.
- Social Engineering: Nicht zuletzt öffnen Deep Fakes auch Trickbetrügern Tür und Tor. Im Bereich Social Engineering, also der gezielten Irreführung von Zielpersonen mit dem Zweck, an sensible Informationen zu gelangen und Zugriffsrechte auf IT-Systeme zu erhalten, eröffnen sich durch Deep Fakes neue Risiken.
Deep Fakes erkennen und Risiken minimieren
Durch den gezielten Einsatz von Methoden des Maschinellen Lernens wird die Bedrohung der digitalen Identität durch Deep Fakes weiterhin zunehmen.
Eine Antwort auf diese Bedrohung ist die KI-gestützte Erkennung von Deep Fakes. Denn so, wie Neuronale Netze die Erstellung lernen können, so können sie auch für die Erkennung von gefälschtem Material trainiert werden. Dies funktioniert, indem man ihnen eine Reihe echter und manipulierter Aufnahmen vorführt. Dadurch kann das Netz lernen, kleinste Unstimmigkeiten zu erkennen, die ein Mensch mit bloßem Auge übersehen würde. Derartige KI-Algorithmen sind dann in der Lage, automatisiert zu entscheiden, ob eine gegebene Audio- oder Videodatei echt oder nicht ist.
Die Forschenden am Fraunhofer AISEC entwickeln Lösungen, die auch Unternehmen oder Ministerien bei der Erkennung von Video- und Audio Deep Fakes unterstützen und vermitteln das nötige Know-how im Umgang mit Deep Fakes in entsprechenden Schulungen.
Weitere Informationen
- Zum Video „Audio Deep Fakes“
- Zur Forschungsabteiltung Cognitive Security Technologies
- Zum Lernlabor Cybersicherheit (cybersicherheit.fraunhofer.de)
Fachartikel

Phishing über LiveChat: Wie Angreifer SaaS-Plattformen für Datendiebstahl nutzen

XWorm 7.1 und Remcos RAT: Angreifer setzen auf dateilose Techniken und Windows-Bordmittel

KI im Cyberkonflikt: Warum Verteidiger die Nase vorn haben

KadNap: Wie ein neues Botnetz tausende Asus-Router als Proxy-Knoten missbraucht

ClickFix-Variante nutzt WebDAV und trojanisierte Electron-App zur Malware-Verteilung
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien

Third Party Risk Management – auch das Procurement benötigt technische Unterstützung

EU-Toolbox für IKT-Lieferkettensicherheit: Gemeinsamer Rahmen zur Risikominderung
Hamsterrad-Rebell

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg







