
Deepfakes und KI-generierte Medien stellen Nutzer, Plattformen und Regulierer vor wachsende Herausforderungen. Eine aktuelle Microsoft-Studie analysiert den Stand der Authentifizierungstechnologien und skizziert, wie ein verlässlicheres Informationsökosystem aussehen könnte.
Ob manipulierte Videoaufnahmen, synthetisch erzeugte Stimmen oder retuschierte Bilder – generative KI macht es zunehmend schwerer, authentische von veränderten Medieninhalten zu unterscheiden. Vor diesem Hintergrund hat Microsoft den Bericht „Media Integrity and Authentication: Status, Directions, and Futures“ veröffentlicht, der bestehende Verifikationsmethoden systematisch bewertet und Entwicklungsperspektiven aufzeigt.
Keine Einzellösung, aber ein Zusammenspiel von Methoden
Die Studie kommt zu dem Schluss, dass kein einzelnes Verfahren in der Lage ist, digitale Täuschungen vollständig zu verhindern. Stattdessen empfehlen die Autoren einen kombinierten Ansatz aus Provenienz-Daten, Wasserzeichen und digitalen Fingerabdrücken. Diese Methoden können Informationen über Ursprung, verwendete Tools und nachträgliche Veränderungen eines Mediums liefern – allerdings nur im Zusammenspiel und mit klar definierten Grenzen.
Jessica Young, Direktorin für Wissenschafts- und Technologiepolitik im Büro des Chief Scientific Officer bei Microsoft und Co-Vorsitzende der Studie, betont: Ziel sei es, einen praxistauglichen Fahrplan für verlässlichere Herkunftsinformationen zu entwickeln, auf die sich die Öffentlichkeit stützen kann.
Angriffspunkte und Schwachstellen
Ein zentrales Thema des Berichts sind sogenannte soziotechnische Angriffe: Dabei werden entweder die Medieninhalte selbst oder begleitende Metadaten so manipuliert, dass Authentifizierungssysteme falsche Einschätzungen liefern. Bereits geringfügige Bildveränderungen können dazu führen, dass ein Validierungssystem eigentlich authentische Inhalte als KI-generiert einstuft – was bestehende Desinformationsnarrative stärken kann.
Hinzu kommt, dass Inhalte, die von herkömmlichen Offline-Geräten wie Digitalkameras stammen, aufgrund fehlender Sicherheitsfunktionen weniger zuverlässig authentifizierbar sind. Auch die Möglichkeit, dass Plattformen Herkunftssignale entfernen, bleibt ein strukturelles Problem.
Hochvertrauenswürdige Authentifizierung als Zielmodell
Als vielversprechenden Ansatz beschreibt die Studie die Kombination aus C2PA-Provenienz – einem Standard, an dem Microsoft seit 2021 im Rahmen der Coalition for Content Provenance and Authenticity mitwirkt – und nicht wahrnehmbaren Wasserzeichen. Diese Verbindung könne ein vergleichsweise hohes Maß an Verlässlichkeit schaffen, ohne dabei auf eine einzelne, fehleranfällige Methode zu setzen.
Relevanz für Medien, Behörden und Regulierung
Mit der zunehmenden Verbreitung KI-bearbeiteter Inhalte wächst der Bedarf an nachweisbarer Herkunftszertifizierung – sowohl für Nachrichtenagenturen als auch für staatliche Stellen und Unternehmen. Verifizierte Herkunftsnachweise könnten dabei helfen, legitim bearbeitete Inhalte von irreführenden Inhalten zu unterscheiden und Rezipienten eine fundierte Einschätzung zu ermöglichen.
Young unterstreicht abschließend, dass kontinuierliche Nutzerforschung notwendig sei, um Herkunftsinformationen so darzustellen, dass sie im Alltag tatsächlich verständlich und nützlich sind – und nicht durch Missverständnisse das Gegenteil des Beabsichtigten bewirken.
Für Sie ausgewählt
Fachartikel

KI-Agenten in der Praxis: Anthropic misst Autonomie und Nutzerverhalten im großen Maßstab

Google Play 2025: KI-Systeme blockieren Millionen schädlicher Apps

Details zur Sicherheitslücke im Windows-Editor bekannt geworden

SAP Threat Intelligence 2026: So bauen Unternehmen ein zukunftsfähiges Sicherheitsprogramm auf

PromptSpy: Erste Android-Malware nutzt Googles Gemini-KI zur Persistenz
Studien

IT-Budgets 2026: Deutsche Unternehmen investieren mehr – und fordern messbaren Gegenwert

KI-Investitionen in Deutschland: Solide Datenbasis, aber fehlende Erfolgsmessung bremst den ROI

Cybersicherheit 2026: Agentic AI auf dem Vormarsch – aber Unternehmen kämpfen mit wachsenden Schutzlücken

IT-Fachkräfte: Warum der deutsche Stellenabbau die Sicherheitslage verschlechtert

Deutsche Wirtschaft unzureichend auf hybride Bedrohungen vorbereitet
Whitepaper

WatchGuard Internet Security Report zeigt über 1.500 Prozent mehr neuartige Malware auf

Armis Labs Report 2026: Früherkennung als Schlüsselfaktor im Finanzsektor angesichts KI-gestützter Bedrohungen

Active Directory schützen: TÜV Rheinland liefert Leitfaden mit konkreten Handlungsempfehlungen

Sicherheitslücken in Passwortmanagern: ETH-Forschende hebeln Zero-Knowledge-Versprechen aus

MITRE ATLAS analysiert OpenClaw: Neue Exploit-Pfade in KI-Agentensystemen
Hamsterrad-Rebell

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen








