
Die jüngste Klage des Technologiekonzerns Meta gegen mutmaßliche Urheber schädlicher KI-Inhalte wirkt auf den ersten Blick wie ein Schritt in Richtung mehr Verantwortung. Doch für Ben Colman, Mitgründer und CEO des auf Deepfake-Erkennung spezialisierten Unternehmens Reality Defender, zeigt der Fall vor allem eines: das grundlegende Versagen reaktiver Sicherheitsstrategien im Umgang mit KI-bedingten Schäden.
„Metas Vorgehen folgt einem bekannten Muster“, schreibt Colman auf der Website seines Unternehmens. „Man wartet ab, bis Betroffene sich melden – und entfernt Inhalte erst, wenn der Schaden längst eingetreten ist.“ In einer digitalen Welt, in der sich Inhalte rasend schnell verbreiten, greife dieses Modell zu kurz.
Einmal online gestellte Deepfakes oder manipulierte Inhalte seien längst gesichert, geteilt oder archiviert, bevor Plattformen wie Meta reagieren, so Colman. Für die Betroffenen sei der Schaden dann oft nicht mehr rückgängig zu machen. Die Botschaft, die dabei an Opfer gesendet werde, sei verheerend: „Wir kümmern uns – aber erst, wenn es zu spät ist.“
Colman kritisiert, dass dieses Verhalten nicht als Schutz, sondern als unterlassene Hilfeleistung zu bewerten sei – Nachlässigkeit, die als aktives Handeln verkauft werde.
Meta hat bekannt gegeben, dass es Klage gegen Joy Timeline HK Limited eingereicht hat, das Unternehmen hinter den CrushAI-Apps, die nicht einvernehmliche intime Bilder erstellen (allgemein bekannt als „Nudify“-Apps). Diese rechtlichen Schritte mögen zwar wie ein Fortschritt erscheinen, decken jedoch ein viel tieferes Problem auf, nämlich wie Tech-Plattformen im Jahr 2025 mit durch KI verursachten Schäden umgehen.
Die Frage, die niemand stellt: Warum jetzt?
Die Klage von Meta gegen CrushAI wirft eine unangenehme Frage auf:
Wenn diese Apps so schädlich sind, warum hat Meta so lange gewartet, um Maßnahmen zu ergreifen? Die Antwort ist einfach und beunruhigend: Weil sie es konnten.
Meta wusste seit ihrem ersten Auftauchen im Internet von der Existenz von Nudify-Apps. Sie wussten von den rechtswidrigen Bildern, die diese Apps erstellen, weil diese KI-generierten Bilder auf den eigenen Plattformen von Meta landen. Und sobald sie im Internet sind, ist der Schaden irreversibel.
Der Ansatz von Meta im Umgang mit durch KI verursachten Schäden folgt einem vorhersehbaren Muster: Warten, bis Opfer Inhalte melden, und diese dann entfernen, nachdem der Schaden bereits entstanden ist. Dieses reaktive Modell verkennt grundlegend, wie digitale Schäden in unserer KI-gesteuerten Welt funktionieren.
Wenn das Abbild einer Person ohne deren Einwilligung für intime Bilder verwendet wird, liegt die Verletzung nicht nur in der Erstellung, sondern auch in der Verbreitung, der Dauerhaftigkeit und den psychologischen Auswirkungen auf das Opfer. Bis Meta die Inhalte entfernt, sind Screenshots gemacht, Links geteilt und das Leben des Opfers bereits verändert worden.
Die Botschaft von Meta an die Opfer lautet im Wesentlichen:
„Wir beseitigen das Chaos, nachdem Ihr Leben zerstört ist.“ Das ist kein Schutz. Das ist Fahrlässigkeit, die als Maßnahme getarnt ist.
Über Notlösungen hinaus
Was die Ankündigung von Meta besonders besorgniserregend macht, ist die Darstellung der „neuen Technologie“ zur Erkennung dieser Apps. In Wirklichkeit gibt es bereits seit Jahren robuste KI-Erkennungsfunktionen. Unternehmen wie Reality Defender entwickeln und implementieren Echtzeit-Deepfake-Erkennungstechnologien, die manipulierte Inhalte bereits beim Hochladen identifizieren können, bevor sie Schaden anrichten.
Die Tatsache, dass Meta KI-Erkennung im Jahr 2025 als „neue Technologie“ behandelt, zeigt, wie weit das Unternehmen bei der Bekämpfung von Bedrohungen, die es seit Jahren kennt, hinterherhinkt. Unterdessen finden Kriminelle bereits Wege, diese reaktiven Maßnahmen zu umgehen, wie Meta in seiner eigenen Ankündigung einräumt.
Nudify-Apps sind nur eine Facette eines viel größeren Problems. Das Oversight Board von Meta hat die wachsende Gefahr von Identitätsdiebstahl auf seinen Plattformen anerkannt. Bei Reality Defender sehen wir einen erheblichen Teil der erkannten Deepfakes, die von Social-Media-Plattformen wie Facebook und Instagram stammen.
Es geht hier nicht nur um eine Art von schädlicher App. Es geht um ein systemisches Versagen, Nutzer vor KI-gestützten Täuschungsmanövern in der Geschwindigkeit und dem Ausmaß, in denen sie auftreten, zu schützen. Wenn Regierungen weltweit für dieses Jahr einen massiven Anstieg von Deepfake-Angriffen prognostizieren, reichen reaktive Notlösungen einfach nicht aus.
Die echte Lösung: Proaktiver Schutz
Die Technologie, um KI-generierte Inhalte in Echtzeit zu erkennen, bevor sie Schaden anrichten können, ist heute bereits verfügbar. Proaktive Deepfake-Erkennungssysteme können Deepfakes, Stimmklone und andere Formen synthetischer Medien bereits beim Hochladen identifizieren und so deren Verbreitung verhindern, anstatt erst darauf zu reagieren.
Der Ansatz von Meta bürdet den Opfern die Verantwortung auf: Sie müssen den Inhalt melden, und vielleicht wird er dann entfernt. Aber „vielleicht” ist nicht gut genug für Nutzer, deren Leben und Ruf auf dem Spiel stehen. Es ist nicht gut genug für Unternehmen, die ihre Mitarbeiter vor Identitätsdiebstahl schützen wollen. Und es ist sicherlich nicht gut genug für Regierungen, die daran arbeiten, das Vertrauen in kritische Kommunikation aufrechtzuerhalten.
Die Klage von Meta gegen CrushAI ist in diesem speziellen Fall zwar potenziell vorteilhaft, zeigt jedoch deutlich, was an unserem derzeitigen Ansatz zur KI-Sicherheit falsch ist. Wir behandeln die Symptome, anstatt die Krankheit zu verhindern.
Die Technologiebranche hat die Verantwortung, proaktive Schutzmaßnahmen gegen KI-Betrug zu implementieren – nicht erst, nachdem Opfer Schaden gemeldet haben, sondern bevor dieser Schaden entstehen kann. Dies bedeutet, dass Echtzeit-Erkennungsfunktionen eingesetzt, nahtlos in bestehende Plattformen und Kommunikationskanäle integriert und kontinuierlich aktualisiert werden müssen, um den sich ständig weiterentwickelnden Bedrohungen immer einen Schritt voraus zu sein.
Da KI-generierte Inhalte immer ausgefeilter und leichter zugänglich werden, schwindet die Zeit für die Implementierung wirksamer Schutzmaßnahmen rapide. Die Frage ist nicht, ob wir einen besseren Schutz aufbauen können, sondern ob wir dies tun werden, bevor reaktive Maßnahmen angesichts des Ausmaßes der Schäden, mit denen wir konfrontiert sind, völlig unzureichend werden.
Quelle: Reality Defender
Fachartikel

Autonome APTs: Die Claude-basierte Operation wird nicht die letzte sein

Stand der Technik umsetzen: Wie Unternehmen jetzt handeln sollten

Industrielles Phishing gegen Italiens Infrastruktur: Group‑IB entdeckt automatisiertes Aruba‑Imitierendes Phishing‑Kit

Stärkung von Red Teams: Ein modulares Gerüst für Kontrollbewertungen

SAP Patch Day November 2025: Kritische Lücken in SQL Anywhere Monitor und SAP Solution Manager geschlossen
Studien

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand

BSI-Lagebericht 2025: Fortschritte in der Cybersicherheit – Deutschland bleibt verwundbar

Forrester veröffentlicht Technologie- und Sicherheitsprognosen für 2026

Zunahme KI-gestützter Cyberbedrohungen im Fertigungssektor

KnowBe4-Studie: Personalisierte Phishing-E-Mails setzen auf die Verwendung von Firmennamen
Whitepaper

Industrial AI: KI als Treiber der Wettbewerbsfähigkeit

Vorbereitung auf künftige Cyberbedrohungen: Google veröffentlicht „Cybersecurity Forecast 2026“

Aktuelle Studie zeigt: Jeder Vierte in Deutschland bereits Opfer von digitalem Betrug

Cybersecurity in Deutschland: 200 Milliarden Euro Schaden trotz steigender IT-Ausgaben

Die EU bleibt weiterhin Ziel zahlreicher, sich überschneidender Bedrohungsgruppen
Hamsterrad-Rebell

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme

Infoblox zeigt praxisnahe IT-Security-Strategien auf it-sa 2025 und exklusivem Führungskräfte-Event in Frankfurt

IT-Security Konferenz in Nürnberg: qSkills Security Summit 2025 setzt auf Handeln statt Zögern

Von Palo Alto nach Paderborn: Wie eine Initiative US-Cyberfachkräfte für Deutschland gewinnen will







