
IT-Sicherheitsexperten der PSW GROUP informieren, wie Hacker Künstliche Intelligenz für Cyberattacken und IT-Angriffe nutzen
Künstliche Intelligenz – kurz: KI – hat es aus der Fiktion in den Alltag geschafft: Die Wissenschaft profitiert ebenso von Künstlicher Intelligenz wie das Gesundheitswesen, die Automobilbranche, das Marketing oder der Sektor Robotics. Auch die Cybersecurity hat den Nutzen erkannt: Mit Mitteln der Künstlichen Intelligenz entwickeln sich neue Chancen zur Abwehr von Cyberrisiken. Im Kampf gegen Cyberbedrohungen bilden Mensch und Künstliche Intelligenz inzwischen ein Team.
„Und das ist gut so, denn die Bedrohungslage ändert sich nahezu täglich. Künstliche Intelligenz ist längst auch auf der Seite der Cyberkriminellen angekommen. Denn so wie KI einerseits eine große Rolle bei der Erkennung von Bedrohungen sowie bei der Abwehr von Angriffen spielt, setzen andererseits auch Cyberkriminelle immer häufiger KI als Angriffswaffe ein“, warnt Patrycja Schrenk, Geschäftsführerin der PSW GROUP ( www.psw-group.de ). Die IT-Sicherheitsexpertin erklärt: „So wie die lernenden Algorithmen in der Lage sind, Verhaltensmuster bei Angriffen zu erkennen und gezielt gegen diese vorzugehen, setzen Kriminelle eben diese Künstliche Intelligenz auch für Penetrationstechniken sowie zur Analyse und Nachahmung von Verhalten ein, um ihre Angriffe gezielter, schneller, koordinierter und vor allem effizienter auszuführen.“
Zwar hat nicht jeder Cyberkriminelle die Kenntnis, eigene KI-basierte Systeme zu programmieren, jedoch bieten inzwischen auch Dritte im Darknet derartige Systeme als „KI-as-a-Service“ an. Das Team um Patrycja Schrenk hat typische Einsatzmöglichkeiten der Kriminellen für Künstliche Intelligenz zusammengestellt.
Möchten Hacker Schwachstellen finden, über die sie in Systeme eindringen oder durch die sie Malware in Systeme bringen können, macht ihnen Künstliche Intelligenz die Suche sehr leicht. Denn automatisiert kann KI sehr viele Schnittstellen der Opfer-Systeme auf Schwachstellen untersuchen. Stoßen Cyberkriminelle so auf Schwachstellen, ist die Künstliche Intelligenz zu der Unterscheidung in der Lage, ob sie als Einfallstor für bösartigen Code oder zum Lahmlegen des Systems genutzt werden kann. Inzwischen können Cyberkriminelle dank Künstlicher Intelligenz sogar dynamisch anpassen. Patrycja Schrenk erklärt: „Reagieren Hersteller beispielsweise mit Sicherheitspatches, passt sich der intelligente Schadcode automatisiert so an, dass er dennoch wüten kann. Maschinelles Lernen sorgt also dafür, dass der Schadcode immer weiter lernt und sich so auf Veränderungen einstellen kann.“
Häufig wird Künstliche Intelligenz auch in Verbindung mit Malware genutzt, die per E-Mail verteilt wird: „Dank KI kann die Malware das Nutzerverhalten noch besser imitieren. Die Texte in den E-Mails werden mit so immenser semantischer Qualität verfasst, dass ein Unterscheiden zu echten E-Mails durch Empfangende überaus schwer sein kann. Dabei lernt die Künstliche Intelligenz mit jedem Mal aus Fehlern und optimiert bei jedem weiteren Angriff ihre Taktik weiter“, erklärt Patrycja Schrenk.
Erpressung – etwa mithilfe von Ransomware, die typischerweise per E-Mail verteilt wird – gilt derzeit als eine der verbreitetsten Angriffsmethoden. „Um beispielsweise Geschäftsführende oder Führungskräfte erpressen zu können, bedarf es ausreichender Informationen über die Opfer. Zur Informationsbeschaffung setzen Cyberkriminelle inzwischen auf Künstliche Intelligenz. Mittels KI durchsuchen sie beispielsweise soziale Netzwerke, Foren oder andere Websites gezielt nach Informationen zur Zielpersonen – und zwar viel effizienter, als es ohne KI möglich wäre“, informiert Patrycja Schrenk. Daneben hat sich auch das Erraten von Passwörtern vereinfacht: „Bereits heute existieren derartige KI-Systeme, die durch maschinelles Lernen Passwörter erfolgreich erraten“, ergänzt die IT-Sicherheitsexpertin.
Künstliche Intelligenz umgeht aber auch Captcha, die eigentlich als Spam-Schutz fungieren: Durch Bildmosaike oder einfache Gleichungen erkennen Systeme, dass Nutzende Menschen und keine Maschinen sind. „Dummerweise durchbricht Künstliche Intelligenz diese Barriere kinderleicht. Denn durch maschinelles Lernen werden Künstliche Intelligenzen mit so vielen verschiedenen Bildern gefüttert, bis sie diese automatisiert erkennen und Captchas lösen können. Das hebelt diesen Sicherheitsmechanismus faktisch aus und eine Unterscheidung zwischen Mensch und Maschine wird unmöglich“, so Schrenk.
Fachartikel

LIVE WEBINAR: Verschlüsselter und einfacher Datentransfer per E-Mail oder Datenraum

Cybersecurity: Endlich Schluss mit dem Tool-Wahnsinn

SD-WAN: Warum DDI der Schlüssel zu effizientem Management ist

(Keine) Cyberrisiken (mehr) im erweiterten Zulieferer-Netzwerk

Wie Managed Service Provider (MSP) Daten vor Ransomware-Angriffen schützen sollten
Studien

Cybersicherheit: Unternehmen unterschätzen Risiken durch Partner und Lieferanten

IBM „Cost of a Data Breach“- Studie 2022: Verbraucher zahlen den Preis, da die Kosten für Datenschutzverletzungen ein Allzeithoch erreichen

Gestohlene Zugangsdaten sind im Dark Web günstiger als ein Döner

Jedes zweite Fertigungsunternehmen rechnet mit Zunahme von Cyberangriffen – bei weiterhin lückenhafter Cybersicherheit

Hybride Arbeitsmodelle: Firmware-Angriffe nehmen signifikant zu
Whitepaper

Trellix Threat Labs Report: ein Blick auf die russische Cyber-Kriminalität

Q1 2022 Lage der IT-Sicherheit: 57 % aller Sicherheitsvorfälle gehen auf bekannte Netzwerkschwachstellen zurück

Ransomware-Vorfälle nehmen weiter zu

DDOS-Angriffe in Deutschland sinken, aber neue fokussiere Angriffstechniken werden weiterentwickelt
