
Eine Studie der Europäischen Rundfunkunion (EBU) zeigt: Fast jede zweite Antwort großer KI-Assistenten über aktuelle Ereignisse war sachlich falsch oder enthielt erfundene Zitate.
Der IBM-Forscher Pin-Yu Chen sieht darin ein strukturelles Problem: „Diese Systeme sind darauf trainiert zu sprechen – nicht zu schweigen.“
Chen forscht an den sogenannten Foundation Models, den Basismodellen generativer KI-Systeme wie ChatGPT. Sein neues Lehrbuch Introduction to Foundation Models (Springer, 2025) beleuchtet die technische und ethische Evolution der Technologie – und was passieren muss, damit Maschinen Vertrauen verdienen.
Zuverlässigkeit schlägt Brillanz
In den IBM-Laboren wird KI regelmäßig bis zum Zusammenbruch getestet. Diese „Adversarial Tests“ decken Schwachstellen auf, die im Alltag fatale Folgen haben können.
„Wenn man Intelligenz erhöht, erhöht man auch Unsicherheit“, erklärt Chen. Moderne Modelle agieren nicht wissend, sondern schätzend – sie berechnen das wahrscheinlichste nächste Wort.
Was flüssig klingt, wirkt glaubwürdig – selbst wenn es falsch ist. Das macht generative KI zu einem Risiko, wenn sie in sensiblen Bereichen eingesetzt wird.
Das Genauigkeitsparadoxon der KI
Forscher der Universität Cambridge stellten fest, dass fast ein Drittel aller KI-generierten wissenschaftlichen Abstracts sachliche Fehler enthielt. Für Chen kein Zufall:
„Je besser die Systeme schreiben, desto schwerer wird es, ihre Irrtümer zu erkennen.“
Gerade in regulierten Branchen – etwa Finanzwesen, Gesundheitswesen oder Recht – wird daher nicht Innovation, sondern Reproduzierbarkeit zur entscheidenden Größe. „Man kann generative KI für Kreativität nutzen“, sagt Chen, „aber nicht für deterministische Entscheidungen.“
IBM entwickelt Standards für vertrauenswürdige KI
Bei IBM ist Zuverlässigkeit zur technischen Kernforderung geworden. Ein interner KI-Risikoatlas dokumentiert Risiken von Voreingenommenheit über Datenschutz bis hin zu Manipulationen.
Zudem hat IBM den Attention Tracker entwickelt – ein Visualisierungstool auf Hugging Face, das zeigt, welche Modellbereiche bei der Textgenerierung aktiv sind.
„Wenn man sieht, was das Modell denkt, versteht man besser, warum es antwortet, wie es antwortet“, sagt Chen.
Solche Tools schaffen die Grundlage für erklärbare KI (Explainable AI) – ein zentrales Stichwort der kommenden EU-Regulierung.
Von künstlicher zu verantwortungsvoller Intelligenz
Für Chen ist das Ziel nicht mehr Artificial General Intelligence (AGI), sondern Artificial Good Intelligence – Systeme, die ihre Grenzen kennen.
„Technologie muss nicht perfekt sein, aber ehrlich in dem, was sie kann und was nicht“, so Chen.
Das bedeutet auch: Maschinen müssen lernen, Unsicherheit zuzugeben. „Ein Modell, das sagen kann: ‚Ich weiß es nicht‘, ist eines, dem man vertrauen kann.“
Fazit: Vertrauen ist die neue Benchmark
Der Erfolg der KI wird künftig nicht mehr an ihrer Größe, sondern an ihrer Zuverlässigkeit, Transparenz und Reproduzierbarkeit gemessen.
„Es ist leicht, größere Modelle zu bauen“, sagt Chen. „Aber es ist schwer, sie vertrauenswürdig zu machen.“
Wenn Maschinen lernen, ihre eigenen Grenzen zu erkennen, könnte aus statistischer Schätzung echtes Vertrauen werden – und aus künstlicher Intelligenz: verantwortungsvolle Intelligenz.
Hinweis:
Mehr Lesestoff:
Fachartikel

CrackArmor: AppArmor-Schwachstellen ermöglichen Root-Zugriff auf über 12 Millionen Linux-Systemen

KI-Agenten als interne Sicherheitsrisiken: Was Experimente zeigen

MCP-Sicherheitsstudie: 555 Server mit riskanten Tool-Kombinationen identifiziert

SOX-Compliance in SAP: Anforderungen, IT-Kontrollen und der Weg zur Automatisierung

Irans Cyberoperationen vor „Epic Fury“: Gezielter Infrastrukturaufbau und Hacktivisten-Welle nach den Angriffen
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Quantifizierung und Sicherheit mit modernster Quantentechnologie

KI-Betrug: Interpol warnt vor industrialisierter Finanzkriminalität – 4,5-fach profitabler

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien
Hamsterrad-Rebell

Sichere Enterprise Browser und Application Delivery für moderne IT-Organisationen

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen








