Seitdem das US-amerikanische Unternehmen OpenAI Ende 2022 die KI-Software ChatGPT auf den Markt gebracht hat, sind die damit einhergehenden Potenziale, aber auch Gefahren immer wieder Diskussionsthema im Hinblick auf unterschiedlichste Einsatzszenarien. Natürlich bildet der Bereich IT-Security hier keine Ausnahme. Schon bei der Ankündigung von OpenAI sagten viele Sicherheitsexperten voraus, dass es nur eine Frage der Zeit sein würde, bis Angreifer diesen KI-Chatbot nutzen, um Malware zu entwickeln oder Phishing-Angriffe zu befeuern.
Und es hat nicht lange gedauert, bis sich diese Vorhersage bestätigt hat. Schnell wurde klar, dass Cyberkriminelle bei der Erstellung von Malware und der Ausführung verschiedenster Angriffe bereits auf ChatGPT zurückgreifen. Dafür benötigen sie lediglich ein OpenAI-Konto, das sie jederzeit ganz einfach und kostenlos erstellen können.
Wie setzen Cyberkriminelle ChatGPT ein?
ChatGPT verspricht Angreifern im Rahmen unterschiedlichster Angriffsszenarien nicht zu unterschätzenden Mehrwert, darunter:
Phishing: Das Large Language Model (LLM) des ChatGPT-Systems befeuert die Loslösung von universellen Formaten. Es unterstützt Hacker bei der automatisierten Erstellung einzigartiger Phishing- oder Spoofing-E-Mails, die mit perfekter Grammatik sowie natürlichen Sprachmustern aufwarten und sich zudem auf jedes Ziel zuschneidern lassen. Dies bedeutet, dass E-Mail-Angriffe, die mit Hilfe dieser Technologie erstellt wurden, nun viel überzeugender aussehen. Das erschwert es den Empfängern, bösartige Links – die möglicherweise Malware enthalten und besser nicht angeklickt werden sollten – zu erkennen.
Identitätsdiebstahl: Zusätzlich zum Phishing können böswillige Akteure ChatGPT nutzen, um sich als vertrauenswürdige Institution auszugeben, da die KI in der Lage ist, den Ton und die Sprache einer Bank oder eines Unternehmens nachzubilden. Entsprechende Nachrichten können dann über soziale Medien, SMS oder E-Mails Wirkung entfalten und Empfänger dazu motivieren, private Informationen, Kennwörter oder Finanzdaten preiszugeben. Denkbar ist beispielsweise auch, dass sich böswillige Akteure in Social-Media-Beiträgen als prominente Personen ausgeben.
Weitere Social-Engineering-Angriffe: Grundsätzlich ist das KI-Modell im Zuge von Social-Engineering-Angriffen geradezu prädestiniert. Denn darüber lassen sich einfach Fake-Profile in sozialen Medien erstellen, die so realistisch aussehen, dass sie Menschen dazu verleiten, auf bösartige Links zu klicken oder persönliche Informationen zu offenbaren.
Erstellung von bösartigen Bots: Über die API von ChatGPT lassen sich Bots jeglicher Art „füttern“. Die benutzerfreundliche Oberfläche kann also einfach missbraucht werden, um Menschen zu täuschen, überzeugende Betrügereien durchzuführen, Spam zu verbreiten oder Phishing-Angriffe zu starten.
Schadsoftware: ChatGPT kann dabei helfen, eine Aufgabe zu erfüllen, die normalerweise hohe Programmierkenntnisse erfordert: die Generierung von Code in verschiedenen Programmiersprachen. Das Modell ermöglicht es damit selbst Bedrohungsakteuren mit begrenzten technischen oder gar keinen Programmierkenntnissen, Malware zu entwickeln. ChatGPT muss nur wissen, welche Funktionen die Schadsoftware haben sollte, und legt mit der Programmierung los.
ChatGPT bietet raffinierten Cyberkriminelle unzählige Möglichkeiten, mit denen diese ihre Angriffe effektiver gestalten und eventuell bestehende Lücken schließen können. In einem Fall, den ein Krimineller in einem Forum schildert, wurde ChatGPT beispielsweise eingesetzt, um auf Basis eines Python-basierten Codes Malware zu erstellen, mit deren Hilfe sich zwölf gängige Dateitypen – darunter Office-Dokumente, PDF und Bilder – auf einem infizierten System aufspüren, kopieren und herauslösen lassen. Mit anderen Worten: Findet die Malware eine interessante Datei, kopiert sie diese in ein temporäres Verzeichnis, komprimiert sie und sendet sie über das Internet. Derselbe Malware-Autor beschreibt auch, wie er mithilfe von ChatGPT Java-Code erzeugt hat, um den SSH- und Telnet-Client PuTTY herunterzuladen und ihn über PowerShell heimlich auf einem System auszuführen.
Fortschrittliche Bedrohungen erfordern fortschrittliche Lösungen
In Anbetracht solcher Bedrohungsszenarien wird einmal mehr deutlich, dass es moderne Lösungen braucht, die aktuellen Anforderungen gewachsen sind. WatchGuard EPDR kombiniert Endpunktschutz (EPP) sowie Erkennungs- und Reaktionsfunktionen (EDR) in einem einzigen Produkt. Hierbei wird ebenso auf die modernen Möglichkeiten von KI, Machine Learning und Deep Learning gesetzt, um auf diese Weise vor hochentwickelten Bedrohungen, Advanced Persistent Threats (APT), Zero-Day-Malware, Ransomware, Phishing, Rootkits, Speicherschwachstellen und malwarefreien Angriffen zu schützen. Zudem sorgt WatchGuard EPDR für vollständige Transparenz im Hinblick auf Endpunkte und Server sowie bei der Überwachung und Erkennung bösartiger Aktivitäten, bei denen die meisten herkömmlichen Antivirenscanner für gewöhnlich das Nachsehen haben.
Die Lösung überwacht kontinuierlich alle Anwendungen und erkennt verdächtiges Verhalten – selbst wenn dieses von legitimen Anwendungen ausgeht. Von klarem Vorteil ist dabei, dass die Reaktion auf potenzielle Bedrohungen automatisiert erfolgen kann und alle notwendigen forensischen Informationen zur Verfügung stehen, um jeden Angriffsversuch durch erweiterte Angriffsindikatoren (IoA) gründlich zu untersuchen.
Fazit: Von einem innovativen Werkzeug wie ChatGPT gehen entscheidende Vorteile aus. Es kann aktuelle Paradigmen zum Positiven verändern, aber auch ernsthaften Schaden anrichten, wenn es in die falschen Hände gerät. Mit der richtigen IT-Security-Strategie und passenden, leistungsstarken Lösungsbausteinen lässt sich jedoch verhindern, dass die negativen Auswirkungen bei Missbrauch durch Cyberkriminelle Unternehmen erreichen.
Mehr über ChatGPT und die potenziellen Cybersicherheitsrisiken erfahren Sie auch in diesen beiden Podcasts unseres WatchGuard Threat Lab-Teams:
Und last but not least noch ein Hinweis aus aktuellem Anlass. Wie die jüngste Berichterstattung zu einem Datenleck bei ChatGPT zeigt, liegen die Sicherheitsrisiken noch an ganz anderer Stelle verborgen. Der Fall untermauert, warum Risikomanagement im Hinblick auf Drittanbietersoftware und SBOM (Software Bill of Materials) so wichtig sind. Software-Schwachstellen können überall auftreten (und tun es auch), aber Bibliotheken von Drittanbietern stellen ein besonderes Risiko dar. Akteure im Rahmen der digitalen Lieferkette können dieses Risiko beherrschen, indem sie die von ihnen verwendete Open-Source-Software proaktiv evaluieren und eine aktuelle SBOM vorhalten. In dem Zusammenhang soll nicht zuletzt der von der Europäischen Kommission vorgeschlagene Cyber Resilience Act künftig neue Verbindlichkeiten schaffen.
Autor: Paul Moll, WatchGuard
Quelle: WatchGuard-Blog