Share
Beitragsbild zu Gartner: KI-Agenten werden Konto-Schwachstellen bis 2027 doppelt so schnell ausnutzen

Gartner: KI-Agenten werden Konto-Schwachstellen bis 2027 doppelt so schnell ausnutzen

Automatisierter Diebstahl von Zugangsdaten und Manipulation von Authentifizierungsprozessen nimmt zu

Laut einer Prognose des Marktforschungsunternehmens Gartner werden KI-Agenten bis 2027 die Zeit, die zur Ausnutzung von kompromittierten Konten benötigt wird, um 50 Prozent verkürzen.

„Die Übernahme von Online-Konten (Account Takeover, ATO) bleibt eine ernsthafte Bedrohung, da schwache Authentifizierungsdaten wie Passwörter auf vielfältige Weise in die Hände von Angreifern gelangen – etwa durch Datenlecks, Phishing, Social Engineering oder Malware“, sagt Jeremy D’Hoinne, VP Analyst bei Gartner. „Hacker setzen Bots ein, um massenhaft Login-Versuche bei unterschiedlichen Diensten zu automatisieren – in der Hoffnung, dass dieselben Zugangsdaten mehrfach verwendet wurden.“

Mit KI-Agenten lassen sich künftig noch mehr Schritte dieses Angriffs automatisieren – von Social-Engineering-Manipulationen mit Deepfake-Stimmen bis hin zur vollständigen Übernahme von Nutzerkonten.

Als Reaktion darauf werden Anbieter neue Lösungen für Web-, App-, API- und Sprachkanäle entwickeln, um KI-gesteuerte Angriffe besser zu erkennen, zu überwachen und zu blockieren.

„Angesichts dieser sich entwickelnden Bedrohung sollten Führungskräfte im Bereich Sicherheit den Übergang zu passwortloser, phishingresistenter MFA beschleunigen“, sagte Akif Khan, VP Analyst bei Gartner. “Bei Kundenanwendungsfällen, bei denen Benutzer möglicherweise eine Auswahl an Authentifizierungsoptionen haben, sollten die Benutzer entsprechend geschult und dazu motiviert werden, von Passwörtern auf geräteübergreifende Passkeys umzusteigen.“

Verteidigung gegen die Zunahme und Ausbreitung von Social-Engineering-Angriffen

Neben ATO wird auch technologiegestütztes Social Engineering eine erhebliche Bedrohung für die Cybersicherheit von Unternehmen darstellen. Gartner prognostiziert, dass bis 2028 40 % der Social-Engineering-Angriffe auf Führungskräfte sowie die breitere Belegschaft abzielen werden. Angreifer kombinieren jetzt Social-Engineering-Taktiken mit Techniken der gefälschten Realität, wie z. B. Deepfake-Audio und -Video, um Mitarbeiter während Anrufen zu täuschen.

Obwohl nur wenige öffentlichkeitswirksame Fälle gemeldet wurden, haben diese Vorfälle die Glaubwürdigkeit der Bedrohung unterstrichen und zu erheblichen finanziellen Verlusten für die betroffenen Organisationen geführt. Die Herausforderung, Deepfakes zu erkennen, steht noch am Anfang, insbesondere wenn sie auf die vielfältigen Angriffsflächen der Echtzeit-Sprach- und Videokommunikation von Person zu Person über verschiedene Plattformen hinweg angewendet werden.

„Unternehmen müssen mit dem Markt Schritt halten und Verfahren und Arbeitsabläufe anpassen, um Angriffen, die gefälschte Realitätstechniken nutzen, besser widerstehen zu können“, so Manuel Acosta, Senior Director Analyst bei Gartner. “Ein wichtiger Schritt ist es, Mitarbeiter durch Schulungen speziell für Social Engineering mit Deepfakes über die sich entwickelnde Bedrohungslandschaft aufzuklären.“

Gartner-Kunden können mehr darüber in „Predicts 2025: Navigating Imminent AI Turbulence for Cybersecurity“ erfahren.

Erfahren Sie in „How to Evaluate Cybersecurity AI Assistants“, wie Sie KI-Assistenten für Cybersicherheit bewerten können.


Bild/Quelle: https://depositphotos.com/de/home.html

Teile diesen Beitrag: