Share
Beitragsbild zu Deep Fakes – Reale Bedrohung

Deep Fakes – Reale Bedrohung

Deep Fakes sind Medieninhalte, die durch den Einsatz von Künstlicher Intelligenz gezielt völlig automatisiert manipuliert und über soziale Netzwerke verbreitet werden. Was als Spielerei in der digitalen Welt begann, entwickelt sich immer mehr zur realen Bedrohung für Unternehmen und Politik. Die Abteilung Cognitive Security Technologies am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC forscht an der Schnittstelle zwischen Künstlicher Intelligenz und IT-Sicherheit und hat vier Bereiche identifiziert, in denen Deep Fakes bereits heute zur Herausforderung geworden sind.

Die Manipulation von Bildmaterial gehört mittlerweile zu unserem Alltag: Nicht nur in Zeitschriften oder auf Dating-Portalen wird mit Bildbearbeitungsprogrammen nachgeholfen, auch in sozialen Medien sind manipulierte Bilder allgegenwärtig. Das stellt auch Polizei, Gerichtswesen und Versicherungen zunehmend vor die Herausforderung, Originale von Fälschungen zu unterscheiden. Geschulte Fachkräfte unterstützen dabei, Bildmanipulationen z.B. bei Verdacht auf Betrug aufzudecken.

Mit Video- oder Audiomaterial verhielt es sich bislang noch anders: Aufgrund des dynamischen Inhalts ist die Anfertigung hochwertiger Fälschungen herausfordernder. Für eine Minute gefälschtes Videomaterial mit 30 Frames pro Sekunde müssten 1.800 Bilder manipuliert werden; und zwar so, dass sie alle nahtlos ineinander übergehen. Ähnliches gilt für Audiomaterial. Durch herkömmliche Methoden waren solche Fälschungen nahezu unmöglich, und Video- und Audiomaterial zählten damit lange als die letzte Bastion in Sachen Vertrauen und Authentizität in digitalen Medien.

Manipulation durch Machine Learning

Durch den Einsatz von Machine Learning und Methoden der Künstlichen Intelligenz ändert sich die Bedrohungslage: Hochwertige Video-Fälschungen können mittlerweile mit frei verfügbarer Open-Source-Software automatisiert erstellt werden. Und auch die gezielte Manipulation von Audio-Dateien ist technisch so weit ausgereift, dass einer Person in der digitalen Welt ein beliebiger Satz sozusagen »in den Mund gelegt« werden kann – vorausgesetzt, es steht genug Ausgangsmaterial zur Verfügung, um die KI zu trainieren. Insbesondere bei Personen des öffentlichen Lebens stellt das angesichts der Menge an Daten, die auf den gängigen Social-Media-Plattformen zur Verfügung stehen, keine wirkliche Hürde mehr dar.

»Der Name Deep Fake ist eine Komposition aus ‚Fake’ für Fälschung und ‚Deep’, was auf die zugrunde liegenden tiefen neuronalen Netze hinweist«, erklärt Nicolas Müller, wissenschaftlicher Mitarbeiter und Experte für Machine Learning am Fraunhofer AISEC. »Diese Netze ähneln entfernt der Struktur des menschlichen Gehirns und bestehen aus mehreren Millionen künstlichen Neuronen, die in der Lage sind, komplizierte Aufgaben zu lernen.«

Konkret bedeutet das, dass ein derartiges Netz mit Video- bzw. Audiomaterial einer Zielperson trainiert werden kann und so lernt, den Gesichtsausdruck oder die Sprachmelodie der Zielperson zu imitieren, um beliebiges Video- oder Audiomaterial zu generieren – mehrere Minuten an Sprachaufnahmen sind hier bereits ausreichend.

Eine Demonstrator-Software, die am Fraunhofer AISEC entwickelt wurde, zeigt beispielsweise, wie Angela Merkel beliebige Sätze in den Mund gelegt werden, ihre Stimme also geklont werden kann.

Bedrohung für Wirtschaft und Gesellschaft

Aufgrund der gesellschaftlichen Brisanz haben die Forschenden am Fraunhofer AISEC das Thema schon frühzeitig in den Fokus ihrer Untersuchungen gestellt. Dabei konnten die Sicherheitsexperten vier Bereiche identifizieren, in denen Deep Fakes bereits jetzt zur realen Herausforderung geworden sind:

  • VoiceID-Systeme: Um sich am Telefon bei einer Bank, einer Versicherung oder einem Mobilfunkanbieter zu legitimieren, werden zunehmend Voice-ID-Systeme eingesetzt. Der Nutzer wird bei einem Anruf anhand der Stimme identifiziert: Der Stimme kommt also die Bedeutung eines Passworts zu. Eine Fälschung der Stimme kann einen Angreifer beispielsweise legitimieren, Überweisungen zu tätigen oder ganze Konten zu leeren.
  • ID-Provider: Anbieter von digitalen Identitäten erlauben es Kunden, rein digital über das Internet ihre Identität zu bestätigen. Diese Identitäten können anschließend genutzt werden, um Bankkonten zu eröffnen oder Verträge abzuschließen. Deep Fakes ermöglichen hier nicht nur Angriffe auf Privatpersonen (Person A handelt im Namen von Person B); sondern ermöglichen auch Straftaten wie Geldwäsche, da beliebige Bankkonten erzeugt werden können.
  • Kriminalistik: Deep Fakes können dazu eingesetzt werden, Beweismittel zu fälschen oder Straftaten zu verschleiern. Aufnahmen von Stimmen und Geräuschen werden häufig als Beweismittel zugelassen, um Betrüger zu überführen. Die Manipulation dieser Aufnahmen stellt eine große Herausforderung für die Justiz und das Rechtssystem dar.
  •  Social Engineering: Nicht zuletzt öffnen Deep Fakes auch Trickbetrügern Tür und Tor. Im Bereich Social Engineering, also der gezielten Irreführung von Zielpersonen mit dem Zweck, an sensible Informationen zu gelangen und Zugriffsrechte auf IT-Systeme zu erhalten, eröffnen sich durch Deep Fakes neue Risiken.

Deep Fakes erkennen und Risiken minimieren

Durch den gezielten Einsatz von Methoden des Maschinellen Lernens wird die Bedrohung der digitalen Identität durch Deep Fakes weiterhin zunehmen.

Eine Antwort auf diese Bedrohung ist die KI-gestützte Erkennung von Deep Fakes. Denn so, wie Neuronale Netze die Erstellung lernen können, so können sie auch für die Erkennung von gefälschtem Material trainiert werden. Dies funktioniert, indem man ihnen eine Reihe echter und manipulierter Aufnahmen vorführt. Dadurch kann das Netz lernen, kleinste Unstimmigkeiten zu erkennen, die ein Mensch mit bloßem Auge übersehen würde. Derartige KI-Algorithmen sind dann in der Lage, automatisiert zu entscheiden, ob eine gegebene Audio- oder Videodatei echt oder nicht ist.

Die Forschenden am Fraunhofer AISEC entwickeln Lösungen, die auch Unternehmen oder Ministerien bei der Erkennung von Video- und Audio Deep Fakes unterstützen und vermitteln das nötige Know-how im Umgang mit Deep Fakes in entsprechenden Schulungen.

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden