
Eine Studie der Europäischen Rundfunkunion (EBU) zeigt: Fast jede zweite Antwort großer KI-Assistenten über aktuelle Ereignisse war sachlich falsch oder enthielt erfundene Zitate.
Der IBM-Forscher Pin-Yu Chen sieht darin ein strukturelles Problem: „Diese Systeme sind darauf trainiert zu sprechen – nicht zu schweigen.“
Chen forscht an den sogenannten Foundation Models, den Basismodellen generativer KI-Systeme wie ChatGPT. Sein neues Lehrbuch Introduction to Foundation Models (Springer, 2025) beleuchtet die technische und ethische Evolution der Technologie – und was passieren muss, damit Maschinen Vertrauen verdienen.
Zuverlässigkeit schlägt Brillanz
In den IBM-Laboren wird KI regelmäßig bis zum Zusammenbruch getestet. Diese „Adversarial Tests“ decken Schwachstellen auf, die im Alltag fatale Folgen haben können.
„Wenn man Intelligenz erhöht, erhöht man auch Unsicherheit“, erklärt Chen. Moderne Modelle agieren nicht wissend, sondern schätzend – sie berechnen das wahrscheinlichste nächste Wort.
Was flüssig klingt, wirkt glaubwürdig – selbst wenn es falsch ist. Das macht generative KI zu einem Risiko, wenn sie in sensiblen Bereichen eingesetzt wird.
Das Genauigkeitsparadoxon der KI
Forscher der Universität Cambridge stellten fest, dass fast ein Drittel aller KI-generierten wissenschaftlichen Abstracts sachliche Fehler enthielt. Für Chen kein Zufall:
„Je besser die Systeme schreiben, desto schwerer wird es, ihre Irrtümer zu erkennen.“
Gerade in regulierten Branchen – etwa Finanzwesen, Gesundheitswesen oder Recht – wird daher nicht Innovation, sondern Reproduzierbarkeit zur entscheidenden Größe. „Man kann generative KI für Kreativität nutzen“, sagt Chen, „aber nicht für deterministische Entscheidungen.“
IBM entwickelt Standards für vertrauenswürdige KI
Bei IBM ist Zuverlässigkeit zur technischen Kernforderung geworden. Ein interner KI-Risikoatlas dokumentiert Risiken von Voreingenommenheit über Datenschutz bis hin zu Manipulationen.
Zudem hat IBM den Attention Tracker entwickelt – ein Visualisierungstool auf Hugging Face, das zeigt, welche Modellbereiche bei der Textgenerierung aktiv sind.
„Wenn man sieht, was das Modell denkt, versteht man besser, warum es antwortet, wie es antwortet“, sagt Chen.
Solche Tools schaffen die Grundlage für erklärbare KI (Explainable AI) – ein zentrales Stichwort der kommenden EU-Regulierung.
Von künstlicher zu verantwortungsvoller Intelligenz
Für Chen ist das Ziel nicht mehr Artificial General Intelligence (AGI), sondern Artificial Good Intelligence – Systeme, die ihre Grenzen kennen.
„Technologie muss nicht perfekt sein, aber ehrlich in dem, was sie kann und was nicht“, so Chen.
Das bedeutet auch: Maschinen müssen lernen, Unsicherheit zuzugeben. „Ein Modell, das sagen kann: ‚Ich weiß es nicht‘, ist eines, dem man vertrauen kann.“
Fazit: Vertrauen ist die neue Benchmark
Der Erfolg der KI wird künftig nicht mehr an ihrer Größe, sondern an ihrer Zuverlässigkeit, Transparenz und Reproduzierbarkeit gemessen.
„Es ist leicht, größere Modelle zu bauen“, sagt Chen. „Aber es ist schwer, sie vertrauenswürdig zu machen.“
Wenn Maschinen lernen, ihre eigenen Grenzen zu erkennen, könnte aus statistischer Schätzung echtes Vertrauen werden – und aus künstlicher Intelligenz: verantwortungsvolle Intelligenz.
Hinweis:
Mehr Lesestoff:
Fachartikel

OpenAI präsentiert GPT-5.2-Codex: KI-Revolution für autonome Softwareentwicklung und IT-Sicherheit

Speicherfehler in Live-Systemen aufspüren: GWP-ASan macht es möglich

Geparkte Domains als Einfallstor für Cyberkriminalität: Über 90 Prozent leiten zu Schadsoftware weiter

Umfassender Schutz für geschäftskritische SAP-Systeme: Strategien und Best Practices

Perfide Masche: Wie Cyberkriminelle über WhatsApp-Pairing ganze Konten übernehmen
Studien
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt

NIS2 kommt – Proliance-Studie zeigt die Lage im Mittelstand
Whitepaper

State of Cloud Security Report 2025: Cloud-Angriffsfläche wächst schnell durch KI

BITMi zum Gutachten zum Datenzugriff von US-Behörden: EU-Unternehmen als Schlüssel zur Datensouveränität

Agentic AI als Katalysator: Wie die Software Defined Industry die Produktion revolutioniert

OWASP veröffentlicht Security-Framework für autonome KI-Systeme

Malware in Bewegung: Wie animierte Köder Nutzer in die Infektionsfalle locken
Hamsterrad-Rebell

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)

Identity und Access Management (IAM) im Zeitalter der KI-Agenten: Sichere Integration von KI in Unternehmenssysteme







