
IT-Sicherheitsexperten der PSW GROUP informieren, wie Hacker Künstliche Intelligenz für Cyberattacken und IT-Angriffe nutzen
Künstliche Intelligenz – kurz: KI – hat es aus der Fiktion in den Alltag geschafft: Die Wissenschaft profitiert ebenso von Künstlicher Intelligenz wie das Gesundheitswesen, die Automobilbranche, das Marketing oder der Sektor Robotics. Auch die Cybersecurity hat den Nutzen erkannt: Mit Mitteln der Künstlichen Intelligenz entwickeln sich neue Chancen zur Abwehr von Cyberrisiken. Im Kampf gegen Cyberbedrohungen bilden Mensch und Künstliche Intelligenz inzwischen ein Team.
„Und das ist gut so, denn die Bedrohungslage ändert sich nahezu täglich. Künstliche Intelligenz ist längst auch auf der Seite der Cyberkriminellen angekommen. Denn so wie KI einerseits eine große Rolle bei der Erkennung von Bedrohungen sowie bei der Abwehr von Angriffen spielt, setzen andererseits auch Cyberkriminelle immer häufiger KI als Angriffswaffe ein“, warnt Patrycja Schrenk, Geschäftsführerin der PSW GROUP ( www.psw-group.de ). Die IT-Sicherheitsexpertin erklärt: „So wie die lernenden Algorithmen in der Lage sind, Verhaltensmuster bei Angriffen zu erkennen und gezielt gegen diese vorzugehen, setzen Kriminelle eben diese Künstliche Intelligenz auch für Penetrationstechniken sowie zur Analyse und Nachahmung von Verhalten ein, um ihre Angriffe gezielter, schneller, koordinierter und vor allem effizienter auszuführen.“
Zwar hat nicht jeder Cyberkriminelle die Kenntnis, eigene KI-basierte Systeme zu programmieren, jedoch bieten inzwischen auch Dritte im Darknet derartige Systeme als „KI-as-a-Service“ an. Das Team um Patrycja Schrenk hat typische Einsatzmöglichkeiten der Kriminellen für Künstliche Intelligenz zusammengestellt.
Möchten Hacker Schwachstellen finden, über die sie in Systeme eindringen oder durch die sie Malware in Systeme bringen können, macht ihnen Künstliche Intelligenz die Suche sehr leicht. Denn automatisiert kann KI sehr viele Schnittstellen der Opfer-Systeme auf Schwachstellen untersuchen. Stoßen Cyberkriminelle so auf Schwachstellen, ist die Künstliche Intelligenz zu der Unterscheidung in der Lage, ob sie als Einfallstor für bösartigen Code oder zum Lahmlegen des Systems genutzt werden kann. Inzwischen können Cyberkriminelle dank Künstlicher Intelligenz sogar dynamisch anpassen. Patrycja Schrenk erklärt: „Reagieren Hersteller beispielsweise mit Sicherheitspatches, passt sich der intelligente Schadcode automatisiert so an, dass er dennoch wüten kann. Maschinelles Lernen sorgt also dafür, dass der Schadcode immer weiter lernt und sich so auf Veränderungen einstellen kann.“
Häufig wird Künstliche Intelligenz auch in Verbindung mit Malware genutzt, die per E-Mail verteilt wird: „Dank KI kann die Malware das Nutzerverhalten noch besser imitieren. Die Texte in den E-Mails werden mit so immenser semantischer Qualität verfasst, dass ein Unterscheiden zu echten E-Mails durch Empfangende überaus schwer sein kann. Dabei lernt die Künstliche Intelligenz mit jedem Mal aus Fehlern und optimiert bei jedem weiteren Angriff ihre Taktik weiter“, erklärt Patrycja Schrenk.
Erpressung – etwa mithilfe von Ransomware, die typischerweise per E-Mail verteilt wird – gilt derzeit als eine der verbreitetsten Angriffsmethoden. „Um beispielsweise Geschäftsführende oder Führungskräfte erpressen zu können, bedarf es ausreichender Informationen über die Opfer. Zur Informationsbeschaffung setzen Cyberkriminelle inzwischen auf Künstliche Intelligenz. Mittels KI durchsuchen sie beispielsweise soziale Netzwerke, Foren oder andere Websites gezielt nach Informationen zur Zielpersonen – und zwar viel effizienter, als es ohne KI möglich wäre“, informiert Patrycja Schrenk. Daneben hat sich auch das Erraten von Passwörtern vereinfacht: „Bereits heute existieren derartige KI-Systeme, die durch maschinelles Lernen Passwörter erfolgreich erraten“, ergänzt die IT-Sicherheitsexpertin.
Künstliche Intelligenz umgeht aber auch Captcha, die eigentlich als Spam-Schutz fungieren: Durch Bildmosaike oder einfache Gleichungen erkennen Systeme, dass Nutzende Menschen und keine Maschinen sind. „Dummerweise durchbricht Künstliche Intelligenz diese Barriere kinderleicht. Denn durch maschinelles Lernen werden Künstliche Intelligenzen mit so vielen verschiedenen Bildern gefüttert, bis sie diese automatisiert erkennen und Captchas lösen können. Das hebelt diesen Sicherheitsmechanismus faktisch aus und eine Unterscheidung zwischen Mensch und Maschine wird unmöglich“, so Schrenk.
Fachartikel

ChatGPT bei der Arbeit nutzen? Nicht immer eine gute Idee

Das Aktualisieren von Software-Agenten als wichtige Praktik der Cyberhygiene auf MSP-Seite

Kosteneinsparungen und Optimierung der Cloud-Ressourcen in AWS

CVE-2023-23397: Der Benachrichtigungston, den Sie nicht hören wollen

Wie sich kleine und mittlere Unternehmen proaktiv gegen Ransomware-Angriffe wappnen
Studien

Studie zeigt 193 Millionen Malware-Angriffe auf Mobilgeräte von Verbrauchern im EMEA-Raum

2023 State of the Cloud Report

Trotz angespannter Wirtschaftslage: die Security-Budgets steigen, doch der IT-Fachkräftemangel bleibt größte Hürde bei Erreichung von Security-Zielen

BSI-Studie: Viele Software-Produkte für Onlineshops sind unsicher

Wie Cloud-Technologie die Versicherungsbranche revolutioniert
Whitepaper

Arctic Wolf Labs Threat Report: Deutlicher Anstieg der erfolgreichen Fälle von Business-E-Mail-Compromise

Aufkommende Trends in der externen Cyberabwehr

Cyber-Sicherheit für das Management – Handbuch erhöht Sicherheitsniveau von Unternehmen

Aktueller Datenschutzbericht: Risiko XXL am Horizont

Vertrauen in die Lieferkette durch Cyber-Resilienz aufbauen
Unter4Ohren

Optimierung der Cloud-Ressourcen und Kosteneinsparungen in AWS

DDoS – der stille Killer

Continuous Adaptive Trust – mehr Sicherheit und gleichzeitig weniger mühsame Interaktionen

Datenschutz und -kontrolle in jeder beliebigen Cloud bei gleichzeitiger Kostensenkung, Reduzierung der Komplexität, Verbesserung der Datenverfügbarkeit und Ausfallsicherheit
