Share
Beitragsbild zu Wenn Maschinen lügen, ohne es zu wissen

Wenn Maschinen lügen, ohne es zu wissen

12. November 2025

Eine Studie der Europäischen Rundfunkunion (EBU) zeigt: Fast jede zweite Antwort großer KI-Assistenten über aktuelle Ereignisse war sachlich falsch oder enthielt erfundene Zitate.
Der IBM-Forscher Pin-Yu Chen sieht darin ein strukturelles Problem: „Diese Systeme sind darauf trainiert zu sprechen – nicht zu schweigen.“

Chen forscht an den sogenannten Foundation Models, den Basismodellen generativer KI-Systeme wie ChatGPT. Sein neues Lehrbuch Introduction to Foundation Models (Springer, 2025) beleuchtet die technische und ethische Evolution der Technologie – und was passieren muss, damit Maschinen Vertrauen verdienen.

Zuverlässigkeit schlägt Brillanz

In den IBM-Laboren wird KI regelmäßig bis zum Zusammenbruch getestet. Diese „Adversarial Tests“ decken Schwachstellen auf, die im Alltag fatale Folgen haben können.
„Wenn man Intelligenz erhöht, erhöht man auch Unsicherheit“, erklärt Chen. Moderne Modelle agieren nicht wissend, sondern schätzend – sie berechnen das wahrscheinlichste nächste Wort.

Was flüssig klingt, wirkt glaubwürdig – selbst wenn es falsch ist. Das macht generative KI zu einem Risiko, wenn sie in sensiblen Bereichen eingesetzt wird.

Das Genauigkeitsparadoxon der KI

Forscher der Universität Cambridge stellten fest, dass fast ein Drittel aller KI-generierten wissenschaftlichen Abstracts sachliche Fehler enthielt. Für Chen kein Zufall:
„Je besser die Systeme schreiben, desto schwerer wird es, ihre Irrtümer zu erkennen.“

Gerade in regulierten Branchen – etwa Finanzwesen, Gesundheitswesen oder Recht – wird daher nicht Innovation, sondern Reproduzierbarkeit zur entscheidenden Größe. „Man kann generative KI für Kreativität nutzen“, sagt Chen, „aber nicht für deterministische Entscheidungen.“

IBM entwickelt Standards für vertrauenswürdige KI

Bei IBM ist Zuverlässigkeit zur technischen Kernforderung geworden. Ein interner KI-Risikoatlas dokumentiert Risiken von Voreingenommenheit über Datenschutz bis hin zu Manipulationen.

Zudem hat IBM den Attention Tracker entwickelt – ein Visualisierungstool auf Hugging Face, das zeigt, welche Modellbereiche bei der Textgenerierung aktiv sind.
„Wenn man sieht, was das Modell denkt, versteht man besser, warum es antwortet, wie es antwortet“, sagt Chen.

Solche Tools schaffen die Grundlage für erklärbare KI (Explainable AI) – ein zentrales Stichwort der kommenden EU-Regulierung.

Von künstlicher zu verantwortungsvoller Intelligenz

Für Chen ist das Ziel nicht mehr Artificial General Intelligence (AGI), sondern Artificial Good Intelligence – Systeme, die ihre Grenzen kennen.
„Technologie muss nicht perfekt sein, aber ehrlich in dem, was sie kann und was nicht“, so Chen.

Das bedeutet auch: Maschinen müssen lernen, Unsicherheit zuzugeben. „Ein Modell, das sagen kann: ‚Ich weiß es nicht‘, ist eines, dem man vertrauen kann.“

Fazit: Vertrauen ist die neue Benchmark

Der Erfolg der KI wird künftig nicht mehr an ihrer Größe, sondern an ihrer Zuverlässigkeit, Transparenz und Reproduzierbarkeit gemessen.
„Es ist leicht, größere Modelle zu bauen“, sagt Chen. „Aber es ist schwer, sie vertrauenswürdig zu machen.“

Wenn Maschinen lernen, ihre eigenen Grenzen zu erkennen, könnte aus statistischer Schätzung echtes Vertrauen werden – und aus künstlicher Intelligenz: verantwortungsvolle Intelligenz.

Hinweis:

Dieser Beitrag basiert auf einem Gespräch mit IBM-Forscher Pin-Yu Chen und erschien zuerst im Think-Newsletter.

Mehr Lesestoff:


Folgen Sie uns auf X

Folgen Sie uns auf Bluesky

Folgen Sie uns auf Mastodon