
Viele Firmen setzen KI-Systeme ein, als wären sie erfahrene Entscheidungsträger – und überlassen ihnen Verantwortung, die weit über Routineaufgaben hinausgeht. Dabei gleichen die aktuellen Modelle eher Praktikanten: eifrig, lernfähig, aber längst nicht reif genug für strategische Weichenstellungen.
Möchtest du, dass ich den Text im Ton eher kritisch-analytisch (Fokus auf Risiken), zukunftsorientiert (Chancen betonen) oder neutral-sachlich (ausgewogen) weiterschreibe?
Stellen Sie sich vor, Sie kommen während der Hauptverkehrszeit an einem überfüllten Zug irgendwo in Bangladesch oder Indien vorbei. Sie wissen vielleicht nicht, wohin er fährt, aber da so viele Menschen an Bord sind, gehen Sie davon aus, dass er irgendwohin fährt, wo es sich lohnt – also steigen Sie auch ein.
Ist das sinnvoll? Nicht wirklich. Dennoch ist es nicht weniger unlogisch als lokale Unternehmen, die sich beeilen, einen KI-Agenten zu implementieren, nur weil andere Unternehmen dies tun. Aber wissen sie eigentlich, was ein KI-Agent tut oder wie sie entscheiden können, ob der Nutzen die Risiken überwiegt?
Die Definition eines KI-Agenten selbst könnte Ihnen Schauer über den Rücken jagen. Laut IBM ist ein KI-Agent ein System, das Aufgaben autonom ausführen kann. KI-Agenten liefern personalisierte und umfassende Antworten und lernen mit der Zeit, sich an ihre Nutzer anzupassen. Dazu müssen sie jedoch die Besonderheiten Ihres Unternehmens kennen – und genau hier beginnt das Problem.
Die KI-Technologie steckt noch in den Kinderschuhen, und wir sind noch nicht sehr vertraut mit ihrer Funktionsweise. Als Nutzer stehen wir ihr misstrauisch gegenüber, und die Ablehnung gegenüber KI wächst, da sie gegen Urheberrechtsgesetze verstößt, Menschen ihre Arbeitsplätze kostet und bestehende gesellschaftliche Vorurteile verstärkt.
Für Unternehmen öffnet sie die Tür für neue Risiken.
Hier ist ein interessantes Beispiel. Eine neue Studie von Forschern der Princeton University und Sentient, einem KI-Unternehmen, hat herausgefunden, dass KI-Agenten anfällig für Memory-Injection-Angriffe sind, durch die ihr Verhalten manipuliert werden kann. Kurz gesagt bedeutet dies, dass ein Angreifer einem KI-Agenten eine gefälschte Erinnerung einpflanzen kann, die dieser dann für zukünftige Entscheidungen verwendet.
Die Studie fordert dringend Maßnahmen gegen diese Bedrohung, da solche Angriffe zu anhaltenden, plattformübergreifenden Sicherheitsverletzungen führen können. Mit diesen Verstößen gehen der Verlust des Vertrauens der Nutzer, der Systemintegrität und der Betriebssicherheit einher.
Böswillige Hacker nutzen jede Gelegenheit, um unsere zunehmende Abhängigkeit von KI auszunutzen. In einem gut dokumentierten Fall zeigte sich beispielsweise, dass Googles Gemini anfällig für langfristige Speicherbeschädigungen ist.
Hacker arbeiten intensiv daran, KI-Agenten zu manipulieren. Da Sie einem KI-Agenten höchstwahrscheinlich Ihre internen Daten und Prozesse anvertraut haben, kann dies zur Achillesferse Ihres Unternehmens werden. Dieses Problem wird ständig angegangen, wobei Sicherheitsforscher unermüdlich daran arbeiten, verschiedene Schwachstellen zu beheben.
Aber es gibt etwas, das viel schwieriger zu beheben ist – nämlich unsere Vorurteile. Laut diesem Forbes-Artikel aus dem Jahr 2021 führte die Voreingenommenheit der KI dazu, dass 80 % der schwarzen Hypothekenantragsteller abgelehnt wurden. Die Jahre vergehen, aber das Problem in der Branche besteht weiterhin: Letztes Jahr stellten Forscher der Lehigh University fest, dass die Trainingsdaten von LLM wahrscheinlich anhaltende gesellschaftliche Vorurteile widerspiegeln.
Viele von uns glauben fälschlicherweise, dass KI objektiv und unvoreingenommen ist, weil es sich nur um Mathematik, Software oder eine Maschine handelt. Wir könnten nicht falscher liegen. Zunächst einmal werden alle LLMs anhand fehlerhafter Datenbanken trainiert, die von Menschen über Jahrhunderte hinweg gesammelt und organisiert wurden. Infolgedessen wissen Algorithmen mehr über weiße Männer als über Menschen mit anderer Hautfarbe, Frauen oder andere historisch unterrepräsentierte Gruppen in verschiedenen Bereichen und Archiven.
Würden Sie es gutheißen, wenn ein KI-Agent über die Vergabe oder Ablehnung von Krediten entscheidet? Wie sieht es mit Beförderungen aus? Würden Sie einem KI-Agenten die Auswahl von Bewerbern oder die Entscheidung über Vorstellungsgespräche anvertrauen? Würden Sie KI-Agenten einsetzen, um Empfehlungen für Kautionen oder Urteile abzugeben? Und wenn ja, würden Sie zu 100 % transparent darüber sein, wie Sie KI einsetzen?
Wenn Ihr Roboter-Praktikant versagt, können Sie dann den Fehler und die Gründe dafür erklären? Mir gefällt, wie es die Harvard Business Review formuliert hat: Mit den Fortschritten der KI vermehren sich auch die ethischen Alpträume.
Verstehen Sie mich nicht falsch. Ich bin absolut dafür, Aufgaben zu delegieren und die alltäglichsten und zeitaufwändigsten Arbeiten einem Stück Code zu überlassen. Aber angesichts der Tatsache, dass so viele Unternehmen KI in rasantem Tempo implementieren, mache ich mir einfach Sorgen, dass es nicht genug Diskussionen über die drängendsten Probleme gibt.
(Um ein wenig abzuschweifen: Mitarbeiter beschweren sich tatsächlich darüber, dass ihre Arbeitgeber zu langsam sind, wenn es um die Genehmigung einiger KI-Tools geht. Infolgedessen verwenden sie einige Algorithmen heimlich, was noch schlimmer ist.
Zusätzlich zu den zunehmenden ethischen Problemen und Sicherheitsfragen treibt der Einsatz von agentenbasierter KI die Kosten in die Höhe, während sie den Unternehmen nur einen fragwürdigen Mehrwert bietet.
Gartner, ein amerikanisches Forschungs- und Beratungsunternehmen, prognostiziert, dass bis Ende 2027 mehr als 40 % der agentenbasierten KI-Projekte eingestellt werden. Warum? Wegen der enormen Kosten, des unklaren Mehrwerts und der unzureichenden Risikokontrollen. Experten glauben, dass die meisten agentenbasierten KI-Projekte von einem Hype getrieben und oft falsch angewendet werden. Sie raten dazu, agentische KI nur dann einzusetzen, wenn sie einen klaren Mehrwert oder eine solide Kapitalrendite bietet.
Seien Sie klüger als diejenigen, die aus Angst, etwas zu verpassen, auf den Zug aufspringen. Wir Introvertierten scherzen gerne über die Angst, ausgeschlossen zu werden. Ihr Unternehmen mag zwar das Mantra „Fail fast“ predigen, aber da KI mit privaten Daten umgeht, wird ein solcher Misserfolg nicht schmerzfrei sein.
Sie scheitern vielleicht schnell, aber wahrscheinlich auch gründlich. Nehmen Sie sich also Zeit, denken Sie kritisch nach und geben Sie Sicherheit Vorrang vor Geschwindigkeit. Bevor Sie sich darauf einlassen, sollten Sie diese praktischen Schritte in Betracht ziehen:
- Führen Sie gründliche Risikobewertungen durch, um potenzielle Schwachstellen und Auswirkungen zu identifizieren.
- Beginnen Sie mit kleinen Pilotprojekten, um KI-Agenten in kontrollierten Umgebungen zu testen, bevor Sie sie ausweiten.
- Implementieren Sie strenge Datenverwaltungsrichtlinien, um sensible Informationen zu schützen und die Einhaltung von Vorschriften sicherzustellen.
- Sorgen Sie für Transparenz bei der KI-Entscheidungsfindung, indem Sie dokumentieren, wie Entscheidungen getroffen werden, und die Prozesse überprüfbar machen.
- Investieren Sie in kontinuierliche Überwachung und Audits, um Probleme frühzeitig zu erkennen und Ihre Systeme kontinuierlich zu verbessern.
- Viele Unternehmen müssen am Ende menschliche Experten hinzuziehen, um die Fehler der KI zu beheben, was in der Regel mehr kostet, als wenn man von Anfang an einen Experten engagiert hätte. Sparen Sie sich Kopfzerbrechen (und zusätzliche Kosten), indem Sie die Arbeit Ihrer KI von einer realen Person überprüfen lassen.
Denken Sie daran, dass viel Aufhebens um KI-Agenten nichts anderes als eine Nebelwand ist, um die Tatsache zu verschleiern, dass wir es mit einem Ungetüm zu tun haben, über das wir nicht viel wissen. Vielleicht sollten wir es also noch nicht selbst entscheiden lassen.
ÜBER DIE AUTORIN
Jurgita Lapienytė ist Chefredakteurin bei Cybernews, wo sie ein Team von Journalisten und Sicherheitsexperten leitet, das durch Recherchen, Tests und datengestützte Berichterstattung Cyber-Bedrohungen aufdeckt. In ihrer über 15-jährigen Karriere hat sie über wichtige globale Ereignisse berichtet, darunter die Finanzkrise 2008 und die Terroranschläge von Paris 2015, und durch investigativen Journalismus für mehr Transparenz gesorgt. Als leidenschaftliche Verfechterin des Bewusstseins für Cybersicherheit und von Frauen in der Tech-Branche hat Jurgita führende Persönlichkeiten aus dem Bereich Cybersicherheit interviewt und gibt den unterrepräsentierten Stimmen in der Branche eine Plattform.
Vielleicht auch spannend für Sie
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

SAP Patch Day November 2025: Kritische Lücken in SQL Anywhere Monitor und SAP Solution Manager geschlossen

Nordkoreanische APT-Gruppe missbraucht Google Find Hub für Fernlösch-Angriffe auf Android-Geräte

DNS-Ausfallsicherheit entscheidet über die Unternehmenskontinuität

Leitfaden für CISOs: Schutz vor Identitätsdiebstahl in sozialen Medien

Das Chaos der SIEM-Konsolidierung beweist: Es gibt keine Einheitslösung
Studien

Forrester veröffentlicht Technologie- und Sicherheitsprognosen für 2026

Zunahme KI-gestützter Cyberbedrohungen im Fertigungssektor

KnowBe4-Studie: Personalisierte Phishing-E-Mails setzen auf die Verwendung von Firmennamen

Neue Studie: Mehrheit der US-Großunternehmen meldet KI-Risiken

Studie 2025 Device Security Threat Report: Vernetzte Geräte stellen massive Sicherheitsrisiken dar
Whitepaper

Vorbereitung auf künftige Cyberbedrohungen: Google veröffentlicht „Cybersecurity Forecast 2026“

Aktuelle Studie zeigt: Jeder Vierte in Deutschland bereits Opfer von digitalem Betrug

Cybersecurity in Deutschland: 200 Milliarden Euro Schaden trotz steigender IT-Ausgaben

Die EU bleibt weiterhin Ziel zahlreicher, sich überschneidender Bedrohungsgruppen

Verizon Business DBIR 2025: So können Gesundheitseinrichtungen Cyberangriffen begegnen
Hamsterrad-Rebell

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme

Infoblox zeigt praxisnahe IT-Security-Strategien auf it-sa 2025 und exklusivem Führungskräfte-Event in Frankfurt

IT-Security Konferenz in Nürnberg: qSkills Security Summit 2025 setzt auf Handeln statt Zögern

Von Palo Alto nach Paderborn: Wie eine Initiative US-Cyberfachkräfte für Deutschland gewinnen will





