
Die jüngste Klage des Technologiekonzerns Meta gegen mutmaßliche Urheber schädlicher KI-Inhalte wirkt auf den ersten Blick wie ein Schritt in Richtung mehr Verantwortung. Doch für Ben Colman, Mitgründer und CEO des auf Deepfake-Erkennung spezialisierten Unternehmens Reality Defender, zeigt der Fall vor allem eines: das grundlegende Versagen reaktiver Sicherheitsstrategien im Umgang mit KI-bedingten Schäden.
„Metas Vorgehen folgt einem bekannten Muster“, schreibt Colman auf der Website seines Unternehmens. „Man wartet ab, bis Betroffene sich melden – und entfernt Inhalte erst, wenn der Schaden längst eingetreten ist.“ In einer digitalen Welt, in der sich Inhalte rasend schnell verbreiten, greife dieses Modell zu kurz.
Einmal online gestellte Deepfakes oder manipulierte Inhalte seien längst gesichert, geteilt oder archiviert, bevor Plattformen wie Meta reagieren, so Colman. Für die Betroffenen sei der Schaden dann oft nicht mehr rückgängig zu machen. Die Botschaft, die dabei an Opfer gesendet werde, sei verheerend: „Wir kümmern uns – aber erst, wenn es zu spät ist.“
Colman kritisiert, dass dieses Verhalten nicht als Schutz, sondern als unterlassene Hilfeleistung zu bewerten sei – Nachlässigkeit, die als aktives Handeln verkauft werde.
Meta hat bekannt gegeben, dass es Klage gegen Joy Timeline HK Limited eingereicht hat, das Unternehmen hinter den CrushAI-Apps, die nicht einvernehmliche intime Bilder erstellen (allgemein bekannt als „Nudify“-Apps). Diese rechtlichen Schritte mögen zwar wie ein Fortschritt erscheinen, decken jedoch ein viel tieferes Problem auf, nämlich wie Tech-Plattformen im Jahr 2025 mit durch KI verursachten Schäden umgehen.
Die Frage, die niemand stellt: Warum jetzt?
Die Klage von Meta gegen CrushAI wirft eine unangenehme Frage auf:
Wenn diese Apps so schädlich sind, warum hat Meta so lange gewartet, um Maßnahmen zu ergreifen? Die Antwort ist einfach und beunruhigend: Weil sie es konnten.
Meta wusste seit ihrem ersten Auftauchen im Internet von der Existenz von Nudify-Apps. Sie wussten von den rechtswidrigen Bildern, die diese Apps erstellen, weil diese KI-generierten Bilder auf den eigenen Plattformen von Meta landen. Und sobald sie im Internet sind, ist der Schaden irreversibel.
Der Ansatz von Meta im Umgang mit durch KI verursachten Schäden folgt einem vorhersehbaren Muster: Warten, bis Opfer Inhalte melden, und diese dann entfernen, nachdem der Schaden bereits entstanden ist. Dieses reaktive Modell verkennt grundlegend, wie digitale Schäden in unserer KI-gesteuerten Welt funktionieren.
Wenn das Abbild einer Person ohne deren Einwilligung für intime Bilder verwendet wird, liegt die Verletzung nicht nur in der Erstellung, sondern auch in der Verbreitung, der Dauerhaftigkeit und den psychologischen Auswirkungen auf das Opfer. Bis Meta die Inhalte entfernt, sind Screenshots gemacht, Links geteilt und das Leben des Opfers bereits verändert worden.
Die Botschaft von Meta an die Opfer lautet im Wesentlichen:
„Wir beseitigen das Chaos, nachdem Ihr Leben zerstört ist.“ Das ist kein Schutz. Das ist Fahrlässigkeit, die als Maßnahme getarnt ist.
Über Notlösungen hinaus
Was die Ankündigung von Meta besonders besorgniserregend macht, ist die Darstellung der „neuen Technologie“ zur Erkennung dieser Apps. In Wirklichkeit gibt es bereits seit Jahren robuste KI-Erkennungsfunktionen. Unternehmen wie Reality Defender entwickeln und implementieren Echtzeit-Deepfake-Erkennungstechnologien, die manipulierte Inhalte bereits beim Hochladen identifizieren können, bevor sie Schaden anrichten.
Die Tatsache, dass Meta KI-Erkennung im Jahr 2025 als „neue Technologie“ behandelt, zeigt, wie weit das Unternehmen bei der Bekämpfung von Bedrohungen, die es seit Jahren kennt, hinterherhinkt. Unterdessen finden Kriminelle bereits Wege, diese reaktiven Maßnahmen zu umgehen, wie Meta in seiner eigenen Ankündigung einräumt.
Nudify-Apps sind nur eine Facette eines viel größeren Problems. Das Oversight Board von Meta hat die wachsende Gefahr von Identitätsdiebstahl auf seinen Plattformen anerkannt. Bei Reality Defender sehen wir einen erheblichen Teil der erkannten Deepfakes, die von Social-Media-Plattformen wie Facebook und Instagram stammen.
Es geht hier nicht nur um eine Art von schädlicher App. Es geht um ein systemisches Versagen, Nutzer vor KI-gestützten Täuschungsmanövern in der Geschwindigkeit und dem Ausmaß, in denen sie auftreten, zu schützen. Wenn Regierungen weltweit für dieses Jahr einen massiven Anstieg von Deepfake-Angriffen prognostizieren, reichen reaktive Notlösungen einfach nicht aus.
Die echte Lösung: Proaktiver Schutz
Die Technologie, um KI-generierte Inhalte in Echtzeit zu erkennen, bevor sie Schaden anrichten können, ist heute bereits verfügbar. Proaktive Deepfake-Erkennungssysteme können Deepfakes, Stimmklone und andere Formen synthetischer Medien bereits beim Hochladen identifizieren und so deren Verbreitung verhindern, anstatt erst darauf zu reagieren.
Der Ansatz von Meta bürdet den Opfern die Verantwortung auf: Sie müssen den Inhalt melden, und vielleicht wird er dann entfernt. Aber „vielleicht” ist nicht gut genug für Nutzer, deren Leben und Ruf auf dem Spiel stehen. Es ist nicht gut genug für Unternehmen, die ihre Mitarbeiter vor Identitätsdiebstahl schützen wollen. Und es ist sicherlich nicht gut genug für Regierungen, die daran arbeiten, das Vertrauen in kritische Kommunikation aufrechtzuerhalten.
Die Klage von Meta gegen CrushAI ist in diesem speziellen Fall zwar potenziell vorteilhaft, zeigt jedoch deutlich, was an unserem derzeitigen Ansatz zur KI-Sicherheit falsch ist. Wir behandeln die Symptome, anstatt die Krankheit zu verhindern.
Die Technologiebranche hat die Verantwortung, proaktive Schutzmaßnahmen gegen KI-Betrug zu implementieren – nicht erst, nachdem Opfer Schaden gemeldet haben, sondern bevor dieser Schaden entstehen kann. Dies bedeutet, dass Echtzeit-Erkennungsfunktionen eingesetzt, nahtlos in bestehende Plattformen und Kommunikationskanäle integriert und kontinuierlich aktualisiert werden müssen, um den sich ständig weiterentwickelnden Bedrohungen immer einen Schritt voraus zu sein.
Da KI-generierte Inhalte immer ausgefeilter und leichter zugänglich werden, schwindet die Zeit für die Implementierung wirksamer Schutzmaßnahmen rapide. Die Frage ist nicht, ob wir einen besseren Schutz aufbauen können, sondern ob wir dies tun werden, bevor reaktive Maßnahmen angesichts des Ausmaßes der Schäden, mit denen wir konfrontiert sind, völlig unzureichend werden.
Quelle: Reality Defender
Fachartikel

Unsicherer Systemstart: Sicherheitslücke in initramfs erlaubt Umgehung von Linux-Bootschutz

SAP Patch Day: Juli 2025

Zweifelhafte Datensätze im Dark Web: Warum Combolists und ULP-Dateien oft keine verlässlichen Hinweise auf Sicherheitsvorfälle liefern

Ransomware-Gruppe BERT attackiert Unternehmen in Asien und Europa auf breiter Front

Streamen Sie Red Sift-Telemetriedaten an Sentinel, Splunk und mehr mit Event Hub
Studien

WatchGuard Internet Security Report: Einzigartige Malware steigt um 171 Prozent – KI-Boom treibt Bedrohungen voran

Zwei Drittel der EU-Institutionen erfüllen grundlegende Cybersicherheitsstandards nicht

Splunk-Studie: Datenflut bedroht Sicherheit und bremst KI – Deutsche Unternehmen im Spannungsfeld von Informationsexplosion und Compliance

Neue CSC-Umfrage: Überwältigende Mehrheit der CISOs rechnet in den nächsten drei Jahren mit einem Anstieg der Cyberangriffe

Accenture-Studie: Unternehmen weltweit kaum gegen KI-basierte Cyberangriffe gewappnet
Whitepaper

ISACA veröffentlicht Leitfaden zu NIS2 und DORA: Orientierungshilfe für Europas Unternehmen

CISA und US-Partner warnen kritische Infrastrukturen vor möglichen Cyberangriffen aus dem Iran

Dating-Apps: Intime Einblicke mit Folgen

Europol-Bericht warnt vor KI-Vorurteilen in der Strafverfolgung – Leitfaden für verantwortungsvollen Technologieeinsatz veröffentlicht
