
FAU-Forschende entwickeln Prototyp zur Identifikation von KI-generierten Bildfälschungen
Deepfakes verbreiten sich rasant – und sie sind immer schwerer als solche zu erkennen. Eine IT-Forensik-Gruppe an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) arbeitet zusammen mit der secunet Security Networks AG an einem Tool, das KI-generierte Bilder automatisch und zuverlässig erkennt. Das Vorhaben wird mit 350.000 Euro von der Bundesagentur für Sprunginnovationen SPRIN-D gefördert.
Angela Merkel plaudert mit Wladimir Putin im Biergarten. Papst Franziskus steht als DJ am Mischpult. Tom Cruise zeigt sich in enger Umarmung mit Paris Hilton. Diese Fotos kursieren im Netz und werden millionenfach angeklickt – doch es sind realistisch aussehende Fälschungen, sogenannte Deepfakes. „Deepfake-Generatoren werden immer leistungsfähiger und sind zugleich frei zugänglich“, sagt PD Dr. Christian Riess, Leiter der Forschungsgruppe Multimedia Security am Lehrstuhl für IT-Sicherheitsinfrastrukturen. „Dadurch verbreiten sich Fotos und Videos mit manipulierten Inhalten rasant, und sie wirken immer echter.“ Im besten Fall sind sie einfach unterhaltsam. Sie können jedoch auch politischen und sozialen Sprengstoff bergen, wenn die Fälschungen nicht als solche erkannt werden.
Genau mit diesem Problem beschäftigt sich ein Projekt an der FAU. Gemeinsam mit der secunet Security Networks AG entwickeln die Erlanger IT-Spezialisten einen universalen Prototyp, der Deepfakes verschiedener KI-Generatoren zuverlässig erkennen soll. „Unser Ansatz unterscheidet sich von anderen Methoden grundlegend“, erklärt Sandra Bergmann, Doktorandin in der Arbeitsgruppe Riess. „Üblicherweise werden Bilderkennungsprogramme trainiert, indem ihnen eine große Zahl verschiedener Beispiele präsentiert werden. Die Software lernt dann, die Bilder zu klassifizieren und echte von KI-generierten zu unterscheiden.“
Der von der FAU und secunet entwickelte Prototyp nutzt die Bildklassifikation ebenfalls. Darüber hinaus greift er auf große vortrainierte neuronale Netze von KI-Generatoren zurück, um Bildmerkmale zu extrahieren.
„Der Vorteil ist, dass wir mit unserem Tool auch Bilder prüfen können, die von bislang unbekannten Deepfake-Generatoren erstellt worden sind“, sagt Bergmann.
„Damit kann das Tool ad hoc reagieren, ohne den Detektor zuvor mit tausenden von Daten trainiert zu haben.“ Ziel der FAU-Forschenden ist es, möglichst viele Detektoren und Datenspuren zusammenzuführen und den Prototyp damit robust gegenüber Fehlern zu machen.
Zugleich kümmert sich secunet darum, dass das Tool einfach in bestehende digitale Infrastrukturen integriert werden kann und beispielsweise in der Lage ist, Deepfakes auf Social-Media-Plattformen zuverlässig zu kennzeichnen. „Die hohe Zuverlässigkeit bei der Erkennung von Deepfakes ist nur eine Anforderung an die Lösung. Sie muss darüber hinaus schnell zu einer Entscheidung kommen – auch bei mehreren parallelen Anfragen, die eine Anwendung an ein Erkennungssystem stellt“, erklärt Dr. Benjamin Tams, Projektleiter des Vorhabens bei secunet.
SPRIN-D ist eine Initiative des Bundesministeriums für Bildung und Forschung und versteht sich als Inkubator für Sprunginnovationen in Deutschland und Europa. Sie identifiziert, validiert, finanziert und betreut Projekte bzw. Vorhaben, die das Potential für Sprunginnovation aufweisen. Im Gegensatz zu reinen Forschungsfinanzierungen will SPRIN-D neue marktfähige Produkte, Technologien, Geschäftsmodelle und Dienstleistungen unterstützen, die das Leben möglichst vieler Menschen nachhaltig verbessern. Für die Entwicklung des Prototyps nutzen die FAU-Forschenden ihre langjährige Erfahrung bei der Deepfake-Detektion und ihre besondere Expertise auf dem Gebiet der KI-gestützten Bildkomprimierung.
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

ClickFix-Attacke missbraucht ChatGPT-Domain für macOS-Malware

Wie eine Klinik KIM-Dienste gegen Malware absichert

Sicherheitslücken und verstecktes Mikrofon: Analyse des Sipeed NanoKVM-Fernwartungsgeräts

KI-Agenten werden zum entscheidenden Faktor für Cyberversicherungen

Millionenschaden durch Sicherheitslücken: KI-Coding-Plattform Cursor ermöglicht Budget-Manipulation
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken

Ransomware-Welle: Über 2 Milliarden Dollar Lösegeldzahlungen in drei Jahren
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme






