Share
Beitragsbild zu Künstliche Intelligenz: Wie Cyberkriminelle das maschinelle Lernen für ihre Zwecke entdeckt haben

Künstliche Intelligenz: Wie Cyberkriminelle das maschinelle Lernen für ihre Zwecke entdeckt haben

IT-Sicherheitsexperten der PSW GROUP informieren, wie Hacker Künstliche Intelligenz für Cyberattacken und IT-Angriffe nutzen

Künstliche Intelligenz – kurz: KI – hat es aus der Fiktion in den Alltag geschafft: Die Wissenschaft profitiert ebenso von Künstlicher Intelligenz wie das Gesundheitswesen, die Automobilbranche, das Marketing oder der Sektor Robotics. Auch die Cybersecurity hat den Nutzen erkannt: Mit Mitteln der Künstlichen Intelligenz entwickeln sich neue Chancen zur Abwehr von Cyberrisiken. Im Kampf gegen Cyberbedrohungen bilden Mensch und Künstliche Intelligenz inzwischen ein Team.

„Und das ist gut so, denn die Bedrohungslage ändert sich nahezu täglich. Künstliche Intelligenz ist längst auch auf der Seite der Cyberkriminellen angekommen. Denn so wie KI einerseits eine große Rolle bei der Erkennung von Bedrohungen sowie bei der Abwehr von Angriffen spielt, setzen andererseits auch Cyberkriminelle immer häufiger KI als Angriffswaffe ein“, warnt Patrycja Schrenk, Geschäftsführerin der PSW GROUP ( www.psw-group.de ). Die IT-Sicherheitsexpertin erklärt: „So wie die lernenden Algorithmen in der Lage sind, Verhaltensmuster bei Angriffen zu erkennen und gezielt gegen diese vorzugehen, setzen Kriminelle eben diese Künstliche Intelligenz auch für Penetrationstechniken sowie zur Analyse und Nachahmung von Verhalten ein, um ihre Angriffe gezielter, schneller, koordinierter und vor allem effizienter auszuführen.“

Zwar hat nicht jeder Cyberkriminelle die Kenntnis, eigene KI-basierte Systeme zu programmieren, jedoch bieten inzwischen auch Dritte im Darknet derartige Systeme als „KI-as-a-Service“ an. Das Team um Patrycja Schrenk hat typische Einsatzmöglichkeiten der Kriminellen für Künstliche Intelligenz zusammengestellt.

Möchten Hacker Schwachstellen finden, über die sie in Systeme eindringen oder durch die sie Malware in Systeme bringen können, macht ihnen Künstliche Intelligenz die Suche sehr leicht. Denn automatisiert kann KI sehr viele Schnittstellen der Opfer-Systeme auf Schwachstellen untersuchen. Stoßen Cyberkriminelle so auf Schwachstellen, ist die Künstliche Intelligenz zu der Unterscheidung in der Lage, ob sie als Einfallstor für bösartigen Code oder zum Lahmlegen des Systems genutzt werden kann. Inzwischen können Cyberkriminelle dank Künstlicher Intelligenz sogar dynamisch anpassen. Patrycja Schrenk erklärt: „Reagieren Hersteller beispielsweise mit Sicherheitspatches, passt sich der intelligente Schadcode automatisiert so an, dass er dennoch wüten kann. Maschinelles Lernen sorgt also dafür, dass der Schadcode immer weiter lernt und sich so auf Veränderungen einstellen kann.“

Häufig wird Künstliche Intelligenz auch in Verbindung mit Malware genutzt, die per E-Mail verteilt wird: „Dank KI kann die Malware das Nutzerverhalten noch besser imitieren. Die Texte in den E-Mails werden mit so immenser semantischer Qualität verfasst, dass ein Unterscheiden zu echten E-Mails durch Empfangende überaus schwer sein kann. Dabei lernt die Künstliche Intelligenz mit jedem Mal aus Fehlern und optimiert bei jedem weiteren Angriff ihre Taktik weiter“, erklärt Patrycja Schrenk.

Erpressung – etwa mithilfe von Ransomware, die typischerweise per E-Mail verteilt wird – gilt derzeit als eine der verbreitetsten Angriffsmethoden. „Um beispielsweise Geschäftsführende oder Führungskräfte erpressen zu können, bedarf es ausreichender Informationen über die Opfer. Zur Informationsbeschaffung setzen Cyberkriminelle inzwischen auf Künstliche Intelligenz. Mittels KI durchsuchen sie beispielsweise soziale Netzwerke, Foren oder andere Websites gezielt nach Informationen zur Zielpersonen – und zwar viel effizienter, als es ohne KI möglich wäre“, informiert Patrycja Schrenk. Daneben hat sich auch das Erraten von Passwörtern vereinfacht: „Bereits heute existieren derartige KI-Systeme, die durch maschinelles Lernen Passwörter erfolgreich erraten“, ergänzt die IT-Sicherheitsexpertin.

Künstliche Intelligenz umgeht aber auch Captcha, die eigentlich als Spam-Schutz fungieren: Durch Bildmosaike oder einfache Gleichungen erkennen Systeme, dass Nutzende Menschen und keine Maschinen sind. „Dummerweise durchbricht Künstliche Intelligenz diese Barriere kinderleicht. Denn durch maschinelles Lernen werden Künstliche Intelligenzen mit so vielen verschiedenen Bildern gefüttert, bis sie diese automatisiert erkennen und Captchas lösen können. Das hebelt diesen Sicherheitsmechanismus faktisch aus und eine Unterscheidung zwischen Mensch und Maschine wird unmöglich“, so Schrenk.

 

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden

Bleiben Sie informiert!

  • Newsletter jeden 2. Dienstag im Monat
  • Inhalt: Webinare, Studien, Whitepaper
Dieses Feld dient zur Validierung und sollte nicht verändert werden.

Klicken Sie auf den unteren Button, um den Inhalt von Google reCAPTCHA zu laden.

Inhalt laden