Share
Beitragsbild zu Meta klagt – und offenbart damit ein strukturelles Problem der KI-Sicherheit

Meta klagt – und offenbart damit ein strukturelles Problem der KI-Sicherheit

Die jüngste Klage des Technologiekonzerns Meta gegen mutmaßliche Urheber schädlicher KI-Inhalte wirkt auf den ersten Blick wie ein Schritt in Richtung mehr Verantwortung. Doch für Ben Colman, Mitgründer und CEO des auf Deepfake-Erkennung spezialisierten Unternehmens Reality Defender, zeigt der Fall vor allem eines: das grundlegende Versagen reaktiver Sicherheitsstrategien im Umgang mit KI-bedingten Schäden.

„Metas Vorgehen folgt einem bekannten Muster“, schreibt Colman auf der Website seines Unternehmens. „Man wartet ab, bis Betroffene sich melden – und entfernt Inhalte erst, wenn der Schaden längst eingetreten ist.“ In einer digitalen Welt, in der sich Inhalte rasend schnell verbreiten, greife dieses Modell zu kurz.

Einmal online gestellte Deepfakes oder manipulierte Inhalte seien längst gesichert, geteilt oder archiviert, bevor Plattformen wie Meta reagieren, so Colman. Für die Betroffenen sei der Schaden dann oft nicht mehr rückgängig zu machen. Die Botschaft, die dabei an Opfer gesendet werde, sei verheerend: „Wir kümmern uns – aber erst, wenn es zu spät ist.“

Colman kritisiert, dass dieses Verhalten nicht als Schutz, sondern als unterlassene Hilfeleistung zu bewerten sei – Nachlässigkeit, die als aktives Handeln verkauft werde.

Meta hat bekannt gegeben, dass es Klage gegen Joy Timeline HK Limited eingereicht hat, das Unternehmen hinter den CrushAI-Apps, die nicht einvernehmliche intime Bilder erstellen (allgemein bekannt als „Nudify“-Apps). Diese rechtlichen Schritte mögen zwar wie ein Fortschritt erscheinen, decken jedoch ein viel tieferes Problem auf, nämlich wie Tech-Plattformen im Jahr 2025 mit durch KI verursachten Schäden umgehen.

Die Frage, die niemand stellt: Warum jetzt?

Die Klage von Meta gegen CrushAI wirft eine unangenehme Frage auf:

Wenn diese Apps so schädlich sind, warum hat Meta so lange gewartet, um Maßnahmen zu ergreifen? Die Antwort ist einfach und beunruhigend: Weil sie es konnten.

Meta wusste seit ihrem ersten Auftauchen im Internet von der Existenz von Nudify-Apps. Sie wussten von den rechtswidrigen Bildern, die diese Apps erstellen, weil diese KI-generierten Bilder auf den eigenen Plattformen von Meta landen. Und sobald sie im Internet sind, ist der Schaden irreversibel.

Der Ansatz von Meta im Umgang mit durch KI verursachten Schäden folgt einem vorhersehbaren Muster: Warten, bis Opfer Inhalte melden, und diese dann entfernen, nachdem der Schaden bereits entstanden ist. Dieses reaktive Modell verkennt grundlegend, wie digitale Schäden in unserer KI-gesteuerten Welt funktionieren.

Wenn das Abbild einer Person ohne deren Einwilligung für intime Bilder verwendet wird, liegt die Verletzung nicht nur in der Erstellung, sondern auch in der Verbreitung, der Dauerhaftigkeit und den psychologischen Auswirkungen auf das Opfer. Bis Meta die Inhalte entfernt, sind Screenshots gemacht, Links geteilt und das Leben des Opfers bereits verändert worden.

Die Botschaft von Meta an die Opfer lautet im Wesentlichen:

„Wir beseitigen das Chaos, nachdem Ihr Leben zerstört ist.“ Das ist kein Schutz. Das ist Fahrlässigkeit, die als Maßnahme getarnt ist.

Über Notlösungen hinaus

Was die Ankündigung von Meta besonders besorgniserregend macht, ist die Darstellung der „neuen Technologie“ zur Erkennung dieser Apps. In Wirklichkeit gibt es bereits seit Jahren robuste KI-Erkennungsfunktionen. Unternehmen wie Reality Defender entwickeln und implementieren Echtzeit-Deepfake-Erkennungstechnologien, die manipulierte Inhalte bereits beim Hochladen identifizieren können, bevor sie Schaden anrichten.

Die Tatsache, dass Meta KI-Erkennung im Jahr 2025 als „neue Technologie“ behandelt, zeigt, wie weit das Unternehmen bei der Bekämpfung von Bedrohungen, die es seit Jahren kennt, hinterherhinkt. Unterdessen finden Kriminelle bereits Wege, diese reaktiven Maßnahmen zu umgehen, wie Meta in seiner eigenen Ankündigung einräumt.

Nudify-Apps sind nur eine Facette eines viel größeren Problems. Das Oversight Board von Meta hat die wachsende Gefahr von Identitätsdiebstahl auf seinen Plattformen anerkannt. Bei Reality Defender sehen wir einen erheblichen Teil der erkannten Deepfakes, die von Social-Media-Plattformen wie Facebook und Instagram stammen.

Es geht hier nicht nur um eine Art von schädlicher App. Es geht um ein systemisches Versagen, Nutzer vor KI-gestützten Täuschungsmanövern in der Geschwindigkeit und dem Ausmaß, in denen sie auftreten, zu schützen. Wenn Regierungen weltweit für dieses Jahr einen massiven Anstieg von Deepfake-Angriffen prognostizieren, reichen reaktive Notlösungen einfach nicht aus.

Die echte Lösung: Proaktiver Schutz

Die Technologie, um KI-generierte Inhalte in Echtzeit zu erkennen, bevor sie Schaden anrichten können, ist heute bereits verfügbar. Proaktive Deepfake-Erkennungssysteme können Deepfakes, Stimmklone und andere Formen synthetischer Medien bereits beim Hochladen identifizieren und so deren Verbreitung verhindern, anstatt erst darauf zu reagieren.

Der Ansatz von Meta bürdet den Opfern die Verantwortung auf: Sie müssen den Inhalt melden, und vielleicht wird er dann entfernt. Aber „vielleicht” ist nicht gut genug für Nutzer, deren Leben und Ruf auf dem Spiel stehen. Es ist nicht gut genug für Unternehmen, die ihre Mitarbeiter vor Identitätsdiebstahl schützen wollen. Und es ist sicherlich nicht gut genug für Regierungen, die daran arbeiten, das Vertrauen in kritische Kommunikation aufrechtzuerhalten.

Die Klage von Meta gegen CrushAI ist in diesem speziellen Fall zwar potenziell vorteilhaft, zeigt jedoch deutlich, was an unserem derzeitigen Ansatz zur KI-Sicherheit falsch ist. Wir behandeln die Symptome, anstatt die Krankheit zu verhindern.

Die Technologiebranche hat die Verantwortung, proaktive Schutzmaßnahmen gegen KI-Betrug zu implementieren – nicht erst, nachdem Opfer Schaden gemeldet haben, sondern bevor dieser Schaden entstehen kann. Dies bedeutet, dass Echtzeit-Erkennungsfunktionen eingesetzt, nahtlos in bestehende Plattformen und Kommunikationskanäle integriert und kontinuierlich aktualisiert werden müssen, um den sich ständig weiterentwickelnden Bedrohungen immer einen Schritt voraus zu sein.

Da KI-generierte Inhalte immer ausgefeilter und leichter zugänglich werden, schwindet die Zeit für die Implementierung wirksamer Schutzmaßnahmen rapide. Die Frage ist nicht, ob wir einen besseren Schutz aufbauen können, sondern ob wir dies tun werden, bevor reaktive Maßnahmen angesichts des Ausmaßes der Schäden, mit denen wir konfrontiert sind, völlig unzureichend werden.

Quelle: Reality Defender


Teile diesen Beitrag: