
Im Bereich der künstlichen Intelligenz (KI) hat sich in den letzten Monaten viel getan. Vor allem der seit vergangenem November verfügbare Chatbot ChatGPT von OpenAI sorgt für Aufregung. Das textbasierte Dialogsystem basiert auf maschinellem Lernen und beantwortet Fragen in natürlicher Sprache. Das Programm verspricht in vielen Bereichen Vorteile – etwa ein automatisierter Kunden-Support, der Fragen von Endnutzern schnell und effizient beantwortet, schnelle Informationen sowie die vereinfachte Weiterentwicklung von Prototypen zu Konversationsanwendungen.
Im Januar hat Microsoft zudem seine neue KI „Vall-E“ vorgestellt. Das Sprachsynthesemodell kann menschliche Stimmen imitieren. Dafür reicht eine Aufnahme der Originalstimme von nur drei Sekunden. Die KI simuliert die menschliche Stimme sehr genau und kann sogar emotionale Betonungen des Sprechers nachahmen.
Die Entwickler beider Systeme sind sich allerdings bewusst, dass ihre KI-Modelle nicht nur Vorteile bieten. Mit der zunehmenden Beliebtheit solcher Programme steigt auch das Betrugspotenzial. So können insbesondere Chatbots dazu missbraucht werden, Malware-Angriffe zu starten, Phishing-Versuche weiter zu perfektionieren oder Identitäten zu stehlen. Die Möglichkeiten sind vielfältig.
Welche Betrugsszenarien durch den Einsatz von KI-Modellen zukünftig möglich sind, hat BioCatch analysiert.
Phishing und Social Engineering mithilfe von KI
ChatGPT nutzt die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Das könnten Cyber-Kriminelle für Phishing- und Social-Engineering-Kampagnen ausnutzen. Es lassen sich beispielsweise E-Mail-Konversationen authentisch nachstellen, ohne dass Grammatik- oder Rechtschreibfehler erkennbar sind. Dabei sorgt ein natürlicher Sprachfluss für Vertrauen bei den potenziellen Opfern: Der vermeintliche Bankmitarbeiter, der den Kunden per E-Mail auffordert, seine Kontodaten zur Verifizierung anzugeben, wirkt durch die natürliche Sprache authentisch. Auf diese Weise können Betrüger problemlos Daten abgreifen oder komplette Konten übernehmen.
Für Banken sind solche Betrugsformen schwer zu erkennen, weil es sich bei den geschilderten Fällen um „echte“ Kunden handelt, die die Überweisung auslösen. Aber nicht nur die vielfältigen Betrugsszenarien werden durch den Einsatz von KI für Banken und Finanzinstitute zunehmend zum Problem.
Um sich vor solchen Risiken zu schützen, müssen Unternehmen über solide Sicherheitsmaßnahmen verfügen. Dazu gehören vor allem regelmäßige Security-Updates sowie eine Multi-Faktor-Authentifizierung. Darüber hinaus sollten sie zusätzliche Maßnahmen ergreifen, um ihre Chatbots vor böswilligen Akteuren zu schützen.
Eine weitere Herausforderung: Geldwäschebekämpfung
Auch die Bekämpfung der Geldwäsche stellt eine Herausforderung dar und ist oft mit hohen Kosten verbunden. Hier bleibt die erste Überweisung meist unentdeckt. Entweder wird sie vom Überwachungssystem übersehen, oder der „Kunde“ beziehungsweise der AML-Analyst (Anti-Money Laundering) bestätigt die Transaktion als unverdächtig. Denn mithilfe von KI-gestützten Chatbots wie ChatGPT können Geldwäscher Gespräche generieren, die scheinbar legitime Geschäftsaktivitäten zum Gegenstand haben. In Wirklichkeit dienen sie jedoch dazu, Geldtransfers zu verschleiern. Dadurch wird es für Finanzinstitute immer schwieriger, die gängigen Muster von Geldwäscheaktivitäten zu erkennen.
Ein weiteres Problem ist die Rekrutierung ahnungsloser Personen zur Geldwäsche. Viele der Konten werden von arglosen Personen eröffnet, die glauben, einen ertragreichen Nebenjob gefunden zu haben. Dabei wissen die Betroffenen oft nicht, dass sie als Geldwäscher agieren und ihr Konto für kriminelle Aktivitäten nutzen, oder es dafür zur Verfügung stellen. Denn die Betrüger geben sich als legitime Unternehmen aus und versprechen schnelles Geld. Und mit ChatGPT lässt sich die vermeintliche Stellenanzeige und der nachfolgende Rekrutierungsprozess noch überzeugender gestalten.
Verhaltensbiometrie schafft Abhilfe
Verhaltensbiometrie kann eine wichtige Rolle beim Aufdecken von Betrugsversuchen und Geldwäsche spielen. Durch die Analyse des Benutzerverhaltens, etwa der Tippgeschwindigkeit, den Tastenanschlägen und Mausbewegungen kann das normale Verhalten eines Benutzers festgelegt werden. Anhand davon kann die Software erkennen, ob es sich tatsächlich um den angemeldeten Benutzer handelt, oder um einen Betrüger. Auch viele andere Betrugsversuche lassen sich so erkennen. Auf diese Weise können auch Konten ausfindig gemacht werden, die zu einem späteren Zeitpunkt für Geldwäsche genutzt werden sollen.
Fachartikel

Cybersecurity im Gesundheitswesen: Warum Exposure Management der Schlüssel zur Prävention ist

Mehrdeutige Techniken: Warum der Kontext über Böswilligkeit entscheidet

Die 5 größten SAP-Sicherheitsrisiken und wie Sie diese mindern können

Vom Blocker zum Enabler: Wie Cybersicherheit geschäftlichen Mehrwert schafft

Forrester Unified Vulnerability Management (UVM) – Was es bedeutet und warum es wichtig ist
Studien

Princeton-Forscher warnen vor fatalen KI-Angriffen im Web3-Umfeld

Führungskräfte ohne KI-Wissen? Gartner-Umfrage offenbart Sorgen der CEOs

Schweigen über KI-Erfolge: Was eine neue Ivanti-Studie offenbart

IBM treibt den Einsatz generativer KI in Unternehmen mit hybrider Technologie voran

Weltweite Umfrage: Mehrheit der Technologieverantwortlichen spricht sich für Robotik im Arbeitsumfeld aus
Whitepaper

Group-IB präsentiert die zehn gefährlichsten Cybergruppen 2025

Cyberkriminelle nehmen 2025 verstärkt das Gesundheitswesen ins Visier

Cybersicherheit in KMUs: Alarmiert, aber schlecht gerüstet

Forescout warnt vor zunehmendem staatlich gefördertem Hacktivismus

Internationale KnowBe4-Umfrage: Über 90 Prozent halten Phishing-Tests für sinnvoll
Hamsterrad-Rebell

Sicherer SAP-Entwicklungsprozess: Onapsis Control schützt vor Risiken

Das CTEM-Framework navigieren: Warum klassisches Schwachstellenmanagement nicht mehr ausreicht

Cybersicherheit im Mittelstand: Kostenfreie Hilfe für Unternehmen

Anmeldeinformationen und credential-basierte Angriffe
