Share
Beitragsbild zu KI und Medienvertrauen: Wie Authentifizierungstechnologien digitale Inhalte verifizierbar machen sollen

KI und Medienvertrauen: Wie Authentifizierungstechnologien digitale Inhalte verifizierbar machen sollen

20. Februar 2026

Deepfakes und KI-generierte Medien stellen Nutzer, Plattformen und Regulierer vor wachsende Herausforderungen. Eine aktuelle Microsoft-Studie analysiert den Stand der Authentifizierungstechnologien und skizziert, wie ein verlässlicheres Informationsökosystem aussehen könnte.

Ob manipulierte Videoaufnahmen, synthetisch erzeugte Stimmen oder retuschierte Bilder – generative KI macht es zunehmend schwerer, authentische von veränderten Medieninhalten zu unterscheiden. Vor diesem Hintergrund hat Microsoft den Bericht „Media Integrity and Authentication: Status, Directions, and Futures“ veröffentlicht, der bestehende Verifikationsmethoden systematisch bewertet und Entwicklungsperspektiven aufzeigt.

Keine Einzellösung, aber ein Zusammenspiel von Methoden

Die Studie kommt zu dem Schluss, dass kein einzelnes Verfahren in der Lage ist, digitale Täuschungen vollständig zu verhindern. Stattdessen empfehlen die Autoren einen kombinierten Ansatz aus Provenienz-Daten, Wasserzeichen und digitalen Fingerabdrücken. Diese Methoden können Informationen über Ursprung, verwendete Tools und nachträgliche Veränderungen eines Mediums liefern – allerdings nur im Zusammenspiel und mit klar definierten Grenzen.

Jessica Young, Direktorin für Wissenschafts- und Technologiepolitik im Büro des Chief Scientific Officer bei Microsoft und Co-Vorsitzende der Studie, betont: Ziel sei es, einen praxistauglichen Fahrplan für verlässlichere Herkunftsinformationen zu entwickeln, auf die sich die Öffentlichkeit stützen kann.

Angriffspunkte und Schwachstellen

Ein zentrales Thema des Berichts sind sogenannte soziotechnische Angriffe: Dabei werden entweder die Medieninhalte selbst oder begleitende Metadaten so manipuliert, dass Authentifizierungssysteme falsche Einschätzungen liefern. Bereits geringfügige Bildveränderungen können dazu führen, dass ein Validierungssystem eigentlich authentische Inhalte als KI-generiert einstuft – was bestehende Desinformationsnarrative stärken kann.

Hinzu kommt, dass Inhalte, die von herkömmlichen Offline-Geräten wie Digitalkameras stammen, aufgrund fehlender Sicherheitsfunktionen weniger zuverlässig authentifizierbar sind. Auch die Möglichkeit, dass Plattformen Herkunftssignale entfernen, bleibt ein strukturelles Problem.

Hochvertrauenswürdige Authentifizierung als Zielmodell

Als vielversprechenden Ansatz beschreibt die Studie die Kombination aus C2PA-Provenienz – einem Standard, an dem Microsoft seit 2021 im Rahmen der Coalition for Content Provenance and Authenticity mitwirkt – und nicht wahrnehmbaren Wasserzeichen. Diese Verbindung könne ein vergleichsweise hohes Maß an Verlässlichkeit schaffen, ohne dabei auf eine einzelne, fehleranfällige Methode zu setzen.

Relevanz für Medien, Behörden und Regulierung

Mit der zunehmenden Verbreitung KI-bearbeiteter Inhalte wächst der Bedarf an nachweisbarer Herkunftszertifizierung – sowohl für Nachrichtenagenturen als auch für staatliche Stellen und Unternehmen. Verifizierte Herkunftsnachweise könnten dabei helfen, legitim bearbeitete Inhalte von irreführenden Inhalten zu unterscheiden und Rezipienten eine fundierte Einschätzung zu ermöglichen.

Young unterstreicht abschließend, dass kontinuierliche Nutzerforschung notwendig sei, um Herkunftsinformationen so darzustellen, dass sie im Alltag tatsächlich verständlich und nützlich sind – und nicht durch Missverständnisse das Gegenteil des Beabsichtigten bewirken.

Für Sie ausgewählt