Share
Beitragsbild zu Neue Studie zeigt: Deepfake-Angriffe legen 2025 quanti- wie qualitativ deutlich zu

Neue Studie zeigt: Deepfake-Angriffe legen 2025 quanti- wie qualitativ deutlich zu

4. Dezember 2025

Vor kurzem hat Entrust seinen neuen jährlichen Identity Fraud Report vorgestellt. In ihm warnt das Unternehmen vor einem signifikanten Anstieg von Deepfake-Angriffen. Sowohl quanti- als auch qualitativ hätten KI-gestützte Betrugsfälle 2025 merklich zugelegt. Bei jedem fünften von ihnen werde mittlerweile auf Deepfakes gesetzt. Allein die Zahl gefälschter Selfies sei 2025 um 58 Prozent gestiegen.

Eine zentrale Ursache: immer mehr KI-Plattformen drängen auf den freien Markt, die missbraucht werden können. Und immer mehr bösartige ‚Kits‘ sind im Darknet erhältlich, mit denen sich auch komplexe Deepfake-Angriffe realisieren lassen. Realistisch wirkende Fake-Medieninhalte, egal ob nun Video, Audio oder Text, lassen sich mittlerweile auch von Laien weitgehend problemlos erstellen. Immer schneller, unkomplizierter – und mit einer stetig steigenden Erfolgsquote – können sie Deepfake-Angriffe realisieren. Längst fluten ihre Deepfakes das Netz. Der erwähnte 58-prozentige Anstieg von Fake-Selfies, er kommt nicht von ungefähr.

Vor allem Injection-Angriffe haben 2025 noch einmal kräftig zugelegt – im Vergleich zum Vorjahr um sage und schreibe 40 Prozent. Bei einem Injection-Angriff nutzt ein Angreifer eine Sicherheitslücke, um bösartigen Code in eine Anwendung einzuschleusen. Typischerweise über unzureichend validierte Benutzereingabefelder, um die beabsichtigte Logik der Anwendung zu manipulieren und sich unautorisierten Zugriff auf Daten oder ein System zu verschaffen.

In zwei Injection-Angriffsszenarien kommen Deepfakes mittlerweile verstärkt zum Einsatz. Als Video/Media-Injection (als Injection-Angriff auf das Authentifizierungssystem): Angreifer schleusen hier einen Deepfake-Inhalt (Video, Audio oder Bild) in den Datenstrom eines Systems ein, das diesen Inhalt dann als echt interpretiert. Das Hauptziel des Angriffs ist die Umgehung biometrischer Verifizierungssysteme und anderer digitaler Kontrollen.

Das zweite Angriffsszenario: Adversarial Injection (als Injection-Angriff auf das Detektionssystem). Angreifer fügen hier einem Deepfake-Inhalt ‚unsichtbare‘ Störungen (Perturbationen) bei, um einen Deepfake-Detektor (ein KI-Modell, das Fälschungen erkennen soll) gezielt zu täuschen. Ziel ist es, den Detektor dazu zu bringen, dass er den gefälschten Inhalt als echt einstuft.

Der Bericht zeigt: Unternehmen sollten sich, wenn es um Betrugsprävention geht, nicht zu sehr auf ihre technischen Sicherheitslösungen verlassen. Längst haben Angreifer begonnen, eben diese ins Visier zu nehmen. Will man die eigenen Systeme erfolgreich vor Betrug – auch und gerade vor Deepfakes – absichern, will man eigene Risiken nachhaltig reduzieren, muss man dem Faktor Mensch auch weiterhin eine zentrale Rolle innerhalb der eigenen IT-Sicherheit zuweisen – und die eigenen Mitarbeiter entsprechend schulen.  Trainieren Sie Ihre Mitarbeiter darin, verdächtige Aktivitäten, die auf einen Deepfake-Angriff schließen lassen, zu erkennen. Vermitteln Sie ihnen das erforderliche Bewusstsein, so dass sie sich ein Bild von der steigenden Qualität und den spezifischen Risiken von Deepfakes (Video, Audio, Bild) machen können. Vermitteln Sie klare Verhaltensregeln zum Umgang mit verdächtigen Inhalten und zur Prüfung kritischer Anfragen (zum Beispiel von Zahlungsanweisungen).

Am effektivsten – da umfassendsten – helfen kann Ihnen hier der Einsatz eines modernen Human Risk Management-Systems. Seine Phishing-Trainings, -Schulungen und -Tests lassen sich, KI sei Dank, mittlerweile personalisieren und automatisiert – kontinuierlich – zum Einsatz bringen, um Mitarbeiter wie KI-Agenten zu stärken. Seine modernen Anti-Phishing-E-Mail-Technologienkombinieren KI mit Crowdsourcing, um neueste Zero Day-Bedrohungen frühzeitig aufzuspüren und rechtzeitig abzuwehren. Mit solchen und ähnlichen Systemen ist es Unternehmen möglich, Risiken signifikant zurückzufahren und Mitarbeiter wie KI-Agenten zur besten Verteidigung im Kampf gegen Cyberbedrohungen zu machen.

Dr. Martin J. Krämer, CISO Advisor bei KnowBe4

Weiterlesen


Bild/Quelle: https://depositphotos.com/de/home.html

Folgen Sie uns auf X

Folgen Sie uns auf Bluesky

Folgen Sie uns auf Mastodon

Hamsterrad Rebell – Cyber Talk