Share
Beitragsbild zu Generative KI im Visier von Cyberkriminellen: Wie DeepSeek für Betrugsmaschen missbraucht wird

Generative KI im Visier von Cyberkriminellen: Wie DeepSeek für Betrugsmaschen missbraucht wird

Mit dem Fortschritt künstlicher Intelligenz entwickeln sich auch die Methoden von Cyberkriminellen weiter. Der jüngste Anstieg KI-gestützter Betrugsmaschen rund um DeepSeek zeigt, wie generative KI gezielt für Social Engineering eingesetzt wird. Angreifer nutzen diese Technologie, um täuschend echte Phishing-Angriffe zu starten, Desinformationen zu verbreiten und Nutzer geschickt zur Preisgabe sensibler Informationen zu manipulieren. Während Unternehmen verstärkt auf KI-gestützte Lösungen setzen, müssen sie sich auch der Risiken bewusst sein und ihre Sicherheitsstrategien entsprechend anpassen.

DeepSeek, ein Open-Source-KI-Modell zur Verarbeitung natürlicher Sprache und Generierung von Inhalten, erweist sich als zweischneidiges Schwert. Während es für legale Zwecke innovative Anwendungsmöglichkeiten bietet, nutzen Bedrohungsakteure seine Funktionen, um ihre Täuschungstechniken zu perfektionieren. Besonders gefährlich ist der Einsatz generativer KI für die Erstellung täuschend echter Texte, Chats und sogar Deepfake-Audioinhalte – ein erheblicher Fortschritt im Bereich Social Engineering.

  • Hyperrealistische Phishing-E-Mails: Moderne Phishing-Angriffe zeichnen sich zunehmend durch fehlerfreie, kontextbezogene und personalisierte Nachrichten aus, die offizielle Mitteilungen von Unternehmen, Banken oder Behörden nahezu perfekt imitieren. Im Gegensatz zu früheren, oft leicht erkennbaren Betrugsversuchen lassen sich diese durch den Einsatz von KI nur noch schwer von echten E-Mails unterscheiden. Zudem können sie mit Echtzeitdaten, etwa zu aktuellen Ereignissen oder internen Unternehmensupdates, angereichert werden, um noch glaubwürdiger zu wirken.
  • Chatbot-gestützte Betrugsversuche und Deepfake-Social-Engineering: KI-gesteuerte Chatbots werden immer häufiger von Kriminellen genutzt, um sich als Support-Mitarbeiter oder Kollegen auszugeben und so Anmeldeinformationen oder Zugriffsrechte zu erschleichen. Besonders perfide sind Deepfake-Stimmen, die in Business-Email-Compromise-(BEC)-Angriffen eingesetzt werden, um Führungskräfte zu imitieren und unternehmensinterne Prozesse gezielt zu manipulieren.
  • Automatisierte Fehlinformationen und soziale Manipulation: Generative KI ermöglicht nicht nur gezielte Täuschungsversuche gegenüber Einzelpersonen, sondern auch die Verbreitung großflächiger Desinformationskampagnen. Angreifer setzen KI ein, um manipulative Inhalte in sozialen Netzwerken, Foren und Unternehmensumfeldern zu platzieren – sei es zur Rufschädigung, zur Beeinflussung von Aktienkursen oder zur Verunsicherung ganzer Märkte.
  • Erzeugung von Schadcode und KI-gestützte Malware: KI-Modelle wie DeepSeek erleichtern zudem die Erstellung von Schadsoftware und Hacking-Tools. Cyberkriminelle können mit wenigen Befehlen Code generieren, der sich gezielt an Schwachstellen anpasst und bestehende Sicherheitsmechanismen umgeht. Diese Automatisierung senkt die Einstiegshürden für Angreifer und ermöglicht hochskalierte Attacken mit minimalem Aufwand.
Warum Wachsamkeit und Schulungen entscheidend sind

Angesichts der wachsenden Gefahr durch KI-gestützte Angriffe sollten Unternehmen die Stärkung des Sicherheitsbewusstseins und gezielte Schulungen fest in ihre Strategie integrieren. Je besser Nutzer über moderne Täuschungstechniken informiert sind, desto schwieriger wird es für Angreifer, sie zu manipulieren. Ein fundiertes Sicherheitsbewusstsein trägt maßgeblich dazu bei, das Risiko erfolgreicher Social-Engineering-Angriffe zu minimieren und die Widerstandsfähigkeit gegenüber digitalen Bedrohungen zu stärken. Regelmäßige Schulungen helfen, Phishing-Muster, Deepfake-Identitätsdiebstahl und Chatbot basierte Betrugsversuche zu erkennen. Ergänzend dazu tragen Multi-Faktor-Authentifizierung (MFA) und standardisierte Verifizierungsprozesse dazu bei, unbefugten Zugriff zu verhindern. Unternehmen, die auf eine Kombination aus technischer Absicherung und sensibilisierten Mitarbeitenden setzen, können KI-gestützten Angriffen mit Widerstandsfähigkeit begegnen und Sicherheitsrisiken wirksam minimieren.

Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4


Bild/Quelle: https://depositphotos.com/de/home.html

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden