
Eine Studie der Europäischen Rundfunkunion (EBU) zeigt: Fast jede zweite Antwort großer KI-Assistenten über aktuelle Ereignisse war sachlich falsch oder enthielt erfundene Zitate.
Der IBM-Forscher Pin-Yu Chen sieht darin ein strukturelles Problem: „Diese Systeme sind darauf trainiert zu sprechen – nicht zu schweigen.“
Chen forscht an den sogenannten Foundation Models, den Basismodellen generativer KI-Systeme wie ChatGPT. Sein neues Lehrbuch Introduction to Foundation Models (Springer, 2025) beleuchtet die technische und ethische Evolution der Technologie – und was passieren muss, damit Maschinen Vertrauen verdienen.
Zuverlässigkeit schlägt Brillanz
In den IBM-Laboren wird KI regelmäßig bis zum Zusammenbruch getestet. Diese „Adversarial Tests“ decken Schwachstellen auf, die im Alltag fatale Folgen haben können.
„Wenn man Intelligenz erhöht, erhöht man auch Unsicherheit“, erklärt Chen. Moderne Modelle agieren nicht wissend, sondern schätzend – sie berechnen das wahrscheinlichste nächste Wort.
Was flüssig klingt, wirkt glaubwürdig – selbst wenn es falsch ist. Das macht generative KI zu einem Risiko, wenn sie in sensiblen Bereichen eingesetzt wird.
Das Genauigkeitsparadoxon der KI
Forscher der Universität Cambridge stellten fest, dass fast ein Drittel aller KI-generierten wissenschaftlichen Abstracts sachliche Fehler enthielt. Für Chen kein Zufall:
„Je besser die Systeme schreiben, desto schwerer wird es, ihre Irrtümer zu erkennen.“
Gerade in regulierten Branchen – etwa Finanzwesen, Gesundheitswesen oder Recht – wird daher nicht Innovation, sondern Reproduzierbarkeit zur entscheidenden Größe. „Man kann generative KI für Kreativität nutzen“, sagt Chen, „aber nicht für deterministische Entscheidungen.“
IBM entwickelt Standards für vertrauenswürdige KI
Bei IBM ist Zuverlässigkeit zur technischen Kernforderung geworden. Ein interner KI-Risikoatlas dokumentiert Risiken von Voreingenommenheit über Datenschutz bis hin zu Manipulationen.
Zudem hat IBM den Attention Tracker entwickelt – ein Visualisierungstool auf Hugging Face, das zeigt, welche Modellbereiche bei der Textgenerierung aktiv sind.
„Wenn man sieht, was das Modell denkt, versteht man besser, warum es antwortet, wie es antwortet“, sagt Chen.
Solche Tools schaffen die Grundlage für erklärbare KI (Explainable AI) – ein zentrales Stichwort der kommenden EU-Regulierung.
Von künstlicher zu verantwortungsvoller Intelligenz
Für Chen ist das Ziel nicht mehr Artificial General Intelligence (AGI), sondern Artificial Good Intelligence – Systeme, die ihre Grenzen kennen.
„Technologie muss nicht perfekt sein, aber ehrlich in dem, was sie kann und was nicht“, so Chen.
Das bedeutet auch: Maschinen müssen lernen, Unsicherheit zuzugeben. „Ein Modell, das sagen kann: ‚Ich weiß es nicht‘, ist eines, dem man vertrauen kann.“
Fazit: Vertrauen ist die neue Benchmark
Der Erfolg der KI wird künftig nicht mehr an ihrer Größe, sondern an ihrer Zuverlässigkeit, Transparenz und Reproduzierbarkeit gemessen.
„Es ist leicht, größere Modelle zu bauen“, sagt Chen. „Aber es ist schwer, sie vertrauenswürdig zu machen.“
Wenn Maschinen lernen, ihre eigenen Grenzen zu erkennen, könnte aus statistischer Schätzung echtes Vertrauen werden – und aus künstlicher Intelligenz: verantwortungsvolle Intelligenz.
Hinweis:
Mehr Lesestoff:
Fachartikel

OpenClaw-Skills als neuer Malware-Verteilweg: Erkenntnisse von VirusTotal

ShinyHunters: Voice-Phishing-Kampagne zielt auf Cloud-Plattformen ab

ShinyHunters-Angriffe: Mandiant zeigt wirksame Schutzmaßnahmen gegen SaaS-Datendiebstahl

Phishing-Angriff: Cyberkriminelle missbrauchen Microsoft-Infrastruktur für Betrugsmaschen

Wie Angreifer proprietäre KI-Modelle über normale API-Zugriffe stehlen können
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

DigiCert veröffentlicht RADAR-Bericht für Q4 2025

Koordinierte Cyberangriffe auf polnische Energieinfrastruktur im Dezember 2025

Künstliche Intelligenz bedroht demokratische Grundpfeiler

Insider-Risiken in Europa: 84 Prozent der Hochrisiko-Organisationen unzureichend vorbereitet

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI
Hamsterrad-Rebell

NIS2: „Zum Glück gezwungen“ – mit OKR-basiertem Vorgehen zum nachhaltigen Erfolg

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern







