
FAU-Forschende entwickeln Prototyp zur Identifikation von KI-generierten Bildfälschungen
Deepfakes verbreiten sich rasant – und sie sind immer schwerer als solche zu erkennen. Eine IT-Forensik-Gruppe an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) arbeitet zusammen mit der secunet Security Networks AG an einem Tool, das KI-generierte Bilder automatisch und zuverlässig erkennt. Das Vorhaben wird mit 350.000 Euro von der Bundesagentur für Sprunginnovationen SPRIN-D gefördert.
Angela Merkel plaudert mit Wladimir Putin im Biergarten. Papst Franziskus steht als DJ am Mischpult. Tom Cruise zeigt sich in enger Umarmung mit Paris Hilton. Diese Fotos kursieren im Netz und werden millionenfach angeklickt – doch es sind realistisch aussehende Fälschungen, sogenannte Deepfakes. „Deepfake-Generatoren werden immer leistungsfähiger und sind zugleich frei zugänglich“, sagt PD Dr. Christian Riess, Leiter der Forschungsgruppe Multimedia Security am Lehrstuhl für IT-Sicherheitsinfrastrukturen. „Dadurch verbreiten sich Fotos und Videos mit manipulierten Inhalten rasant, und sie wirken immer echter.“ Im besten Fall sind sie einfach unterhaltsam. Sie können jedoch auch politischen und sozialen Sprengstoff bergen, wenn die Fälschungen nicht als solche erkannt werden.
Genau mit diesem Problem beschäftigt sich ein Projekt an der FAU. Gemeinsam mit der secunet Security Networks AG entwickeln die Erlanger IT-Spezialisten einen universalen Prototyp, der Deepfakes verschiedener KI-Generatoren zuverlässig erkennen soll. „Unser Ansatz unterscheidet sich von anderen Methoden grundlegend“, erklärt Sandra Bergmann, Doktorandin in der Arbeitsgruppe Riess. „Üblicherweise werden Bilderkennungsprogramme trainiert, indem ihnen eine große Zahl verschiedener Beispiele präsentiert werden. Die Software lernt dann, die Bilder zu klassifizieren und echte von KI-generierten zu unterscheiden.“
Der von der FAU und secunet entwickelte Prototyp nutzt die Bildklassifikation ebenfalls. Darüber hinaus greift er auf große vortrainierte neuronale Netze von KI-Generatoren zurück, um Bildmerkmale zu extrahieren.
„Der Vorteil ist, dass wir mit unserem Tool auch Bilder prüfen können, die von bislang unbekannten Deepfake-Generatoren erstellt worden sind“, sagt Bergmann.
„Damit kann das Tool ad hoc reagieren, ohne den Detektor zuvor mit tausenden von Daten trainiert zu haben.“ Ziel der FAU-Forschenden ist es, möglichst viele Detektoren und Datenspuren zusammenzuführen und den Prototyp damit robust gegenüber Fehlern zu machen.
Zugleich kümmert sich secunet darum, dass das Tool einfach in bestehende digitale Infrastrukturen integriert werden kann und beispielsweise in der Lage ist, Deepfakes auf Social-Media-Plattformen zuverlässig zu kennzeichnen. „Die hohe Zuverlässigkeit bei der Erkennung von Deepfakes ist nur eine Anforderung an die Lösung. Sie muss darüber hinaus schnell zu einer Entscheidung kommen – auch bei mehreren parallelen Anfragen, die eine Anwendung an ein Erkennungssystem stellt“, erklärt Dr. Benjamin Tams, Projektleiter des Vorhabens bei secunet.
SPRIN-D ist eine Initiative des Bundesministeriums für Bildung und Forschung und versteht sich als Inkubator für Sprunginnovationen in Deutschland und Europa. Sie identifiziert, validiert, finanziert und betreut Projekte bzw. Vorhaben, die das Potential für Sprunginnovation aufweisen. Im Gegensatz zu reinen Forschungsfinanzierungen will SPRIN-D neue marktfähige Produkte, Technologien, Geschäftsmodelle und Dienstleistungen unterstützen, die das Leben möglichst vieler Menschen nachhaltig verbessern. Für die Entwicklung des Prototyps nutzen die FAU-Forschenden ihre langjährige Erfahrung bei der Deepfake-Detektion und ihre besondere Expertise auf dem Gebiet der KI-gestützten Bildkomprimierung.
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Wenn Angreifer selbst zum Ziel werden: Wie Forscher eine Infostealer-Infrastruktur kompromittierten

Mehr Gesetze, mehr Druck: Was bei NIS2, CRA, DORA & Co. am Ende zählt

WinDbg-UI blockiert beim Kopieren: Ursachenforschung führt zu Zwischenablage-Deadlock in virtuellen Umgebungen

RISE with SAP: Wie Sicherheitsmaßnahmen den Return on Investment sichern

Jailbreaking: Die unterschätzte Sicherheitslücke moderner KI-Systeme
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI

Allianz Risk Barometer 2026: Cyberrisiken führen das Ranking an, KI rückt auf Platz zwei vor

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung
Hamsterrad-Rebell

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus






