Es ist keine Überraschung, dass Firewalls und Verschlüsselungsverfahren bei der Abwehr von Cyberangriffen eine wichtige Rolle spielen, aber diese Tools können nicht vor einer der größten Bedrohungen der Cybersicherheit schützen: dem Menschen.
Social Engineering – die Manipulation von Personen, um an vertrauliche Informationen zu gelangen – ist auf dem Vormarsch, obwohl Unternehmen zunehmend Schulungen und Trainings zur Cybersicherheit durchführen. Während Social Engineering bereits eine große Herausforderung für Unternehmen darstellt, könnte es durch KI zu einer noch größeren Bedrohung werden.
Der Faktor Mensch spielt seit langem eine entscheidende Rolle bei der Anfälligkeit eines Unternehmens. Denn viele Angestellte verletzen ihre Netzwerkprivilegien. Sie geben versehentlich Informationen an böswillige Akteure weiter. Sie machen Fehler und werden manipuliert. Der 16. Data Breach Investigations Report (DBIR) zeigt, dass der menschliche Faktor bei fast drei Vierteln (74 %) der Datenschutzverletzungen ausschlaggebend ist, wobei Social Engineering eine wichtige Rolle spielt.
Social Engineering nimmt zu, insbesondere durch Pretexting, d. h. der Verwendung einer erfundenen Geschichte oder eines Vorwandes, um einen Nutzer zur Preisgabe vertraulicher Informationen zu bewegen. Das Pretexting hat sich in diesem Jahr fast verdoppelt und ist für fast die Hälfte aller Social-Engineering-Angriffs verantwortlich. Das ohnehin schon zunehmende Pretexting kann aus drei Gründen von der fortschreitenden Entwicklung der generativen KI profitieren.
- KI kann die Glaubwürdigkeit von Täuschungen erhöhen. Da die Wirksamkeit von Vorwänden vom authentischen Gesamteindruck abhängt, könnte die zunehmende Verfeinerung der natürlichen Sprachverarbeitung durch generative KI diese Form des Hackerangriffs noch realistischer machen. So könnte generative KI beispielsweise eingesetzt werden, um den Schreibstil vertrauenswürdiger Organisationen oder Personen zu imitieren, damit Phishing-Versuche glaubwürdiger erscheinen.
- KI könnte das Pretexting verbessern, indem sie den Umfang eines Angriffs erheblich vergrößert. Generative KI könnte dazu beitragen, die Automatisierung von Hackerangriffen zu fördern, wodurch Angreifer ihre Netzwerke vergrößern könnten. Hacker wären in der Lage, Angriffe in verschiedenen Sprachen durchzuführen, selbst wenn sie eine bestimmte Sprache nicht beherrschen, da generative KI in der Lage ist, für sie Sprachkenntnisse zu erwerben.
- Die meisten Hackerangriffe werden manuell durchgeführt, was groß angelegte Angriffe zeit- und arbeitsaufwändig macht. Ein mit KI ausgestatteter Angreifer kann diese Technologie so einsetzen, dass sie eine Organisation systematisch auf Schwachstellen untersucht. Mit KI kann ein einzelner Hacker die gleiche Bedrohung darstellen wie ein Team von Hackern.
Diese Arten von Hackerangriffen werden für Unternehmen immer kostspieliger. In den letzten Jahren stieg der durchschnittliche Betrag, der bei Business Email Compromise (BEC) gestohlen wurde, einer Taktik, bei der sich Unternehmensmitarbeiter zur Erzielung finanzieller Gewinne ausgeben (eine Form des Pretexting), auf 50.000 US-Dollar an, basierend auf Daten des Internet Crime Complaint Center (IC3).
Dies ist besonders besorgniserregend, wenn man bedenkt, dass Führungskräfte, die im Besitz sensibler Informationen eines Unternehmens sind, ein großes Cybersicherheitsrisiko darstellen. Sie gehören auch zu den am wenigsten geschützten Personen, da Unternehmen oft dazu neigen, für sie Ausnahmen zu schaffen.
Für einen CEO beispielsweise gelten bei der Erstellung und Aktualisierung von Anmeldedaten möglicherweise nicht dieselben strengen Standards. In ähnlicher Weise könnte es einem CFO gestattet sein, sein eigenes bevorzugtes Gerät zu verwenden, selbst wenn dies bedeutet, dass er oder sie zwischen privaten und beruflichen Geräten hin und her wechseln muss. Unternehmen haben viel in die Schulung und den Schutz ihrer Mitarbeiter investiert, aber diese Bemühungen werden untergraben, wenn wichtige Mitglieder eines Unternehmens ungeschützt bleiben.
Auch hochrangige Führungskräfte ziehen die Aufmerksamkeit von Cyberkriminellen stärker auf sich, da sie Zugang zu äußerst lukrativen Daten haben. Social-Engineering-Hacks werden immer effektiver und kostspieliger werden. Aus diesem Grund sollten Unternehmen der Sicherheit ihrer Führungskräfte Priorität einräumen.
Die Lösung beginnt mit der Beseitigung solcher risikoreichen Ausnahmen, wobei für wichtige Führungskräfte die gleichen strengen Standards gelten wie für das gesamte Netzwerk eines Unternehmens. Künstliche Intelligenz mag die Bedrohung erhöhen, aber sie könnte die Verteidigung eines Unternehmens unterstützen, indem sie die Erkennung und Reaktion auf Bedrohungen intelligenter und automatisiert umsetzt.
Menschliches Versagen wird zumindest in absehbarer Zukunft eine Rolle bei der Anfälligkeit von Unternehmen für Cybersecurity spielen, aber menschliches Versagen kann auch minimiert werden. Unternehmen haben gut daran getan, ihre Mitarbeiter in Bezug auf Cybersicherheitsprotokolle zu schulen und auszubilden, aber sie müssen bei der Anwendung dieser Standards unerbittlich konsequent sein. KI kann Hackerangriffe vereinfachen, aber sie kann auch die Cybersicherheitsabwehr eines Unternehmens optimieren. KI ist nur so gut oder bösartig wie die Menschen, die sie einsetzen. Das Problem mag beim Menschen beginnen, aber das trifft auch für dessen Lösung zu.
Von Arno Edelmann, Senior Sales Manager Security bei Verizon