
Professor der City University of London untersucht einige Nachteile der künstlichen Intelligenz.
Wir sehen große Aufregung und Besorgnis in Bezug um ChatGPT – Teil der neuesten Entwicklung bei künstlichen neuronalen Netzen, die große Sprachmodelle (LLM) lernen.
Während einige Forscher behaupten, dass sie keine Bedenken hinsichtlich ChatGPT haben, werden die meisten zustimmen, dass die neuesten LLMs und der sogenannte AIGC (Artificial Intelligence Generated Content) von großem Nutzen sind.
Von Produktivitätssteigerungen über Sprachübersetzung in Echtzeit bis hin zu besseren Möglichkeiten der Internetsuche und der Interaktion mit Computersystemen sind die Möglichkeiten enorm.
Diejenigen, die sich besorgt über die Technologie äußern, weisen auf zwei Hauptprobleme hin, von denen eines eher philosophischer Natur ist und das andere unmittelbare praktische Auswirkungen auf das tägliche Leben hat.
Wie Noam Chomsky während der KI-Debatte 3 im Dezember 2022 betonte, kann ChatGPT unmöglich etwas darüber aussagen, wie Sprache im menschlichen Geist funktioniert. Das liegt unter anderem daran, dass ChatGPT eine Blackbox ist.
Auf dem Forschungsgebiet, das als neurosymbolische KI bekannt ist, wird an der „Öffnung der Blackbox“ geforscht, um großen neuronalen Netzen einen Sinn zu geben, insbesondere was Konzeptlernen, Kompositionalität und Argumentation betrifft. Ich bin seit mehreren Jahren Mitorganisator des jährlichen internationalen Workshops über neuronal-symbolisches Lernen und Reasoning (bekannt als NeSY-Workshop) – der am längsten bestehenden Veranstaltung zur Präsentation und Diskussion von Spitzenforschungsergebnissen in der Neural-Symbolic Learning and Reasoning Association.
Von unmittelbarer Bedeutung: ChatGPT macht Fehler.
Es macht sowohl dumme als auch schwerwiegende Fehler auf eine Art und Weise, die solche Fehler verschleiert, weil es von allgemeinen Gesprächsmustern ausgeht.
Während die Menschen gelernt haben, Informationen auf Websites, in sozialen Medien und E-Mails aufgrund verschiedener Hinweise wie Quelle, visuellem Erscheinungsbild und grammatikalischen Fehlern zu vertrauen, schafft ChatGPT eine völlig neue Schwierigkeitsstufe, wenn es um diese Beurteilung geht.
Die unmittelbarste Besorgnis praktischer Hinsicht ist daher das Risiko einer groß angelegten Desinformationsverbreitung und deren Auswirkungen, insbesondere auf junge Demokratien.
Neurosymbolische KI kann dazu beitragen, die Desinformationsrisiken zu mindern, indem sie die Blackbox öffnet und Überlegungen über das Gelernte zulässt.
In der Zwischenzeit müssen Fachexperten zu KI-Experten werden.
Professor Artur d’Avila Garcez, Direktor des Forschungszentrums für maschinelles Lernen der City University of London
Fachartikel

Wenn Angreifer selbst zum Ziel werden: Wie Forscher eine Infostealer-Infrastruktur kompromittierten

Mehr Gesetze, mehr Druck: Was bei NIS2, CRA, DORA & Co. am Ende zählt

WinDbg-UI blockiert beim Kopieren: Ursachenforschung führt zu Zwischenablage-Deadlock in virtuellen Umgebungen

RISE with SAP: Wie Sicherheitsmaßnahmen den Return on Investment sichern

Jailbreaking: Die unterschätzte Sicherheitslücke moderner KI-Systeme
Studien

Deutsche Unicorn-Gründer bevorzugen zunehmend den Standort Deutschland

IT-Modernisierung entscheidet über KI-Erfolg und Cybersicherheit

Neue ISACA-Studie: Datenschutzbudgets werden trotz steigender Risiken voraussichtlich schrumpfen

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum
Whitepaper

ETSI veröffentlicht weltweit führenden Standard für die Sicherung von KI

Allianz Risk Barometer 2026: Cyberrisiken führen das Ranking an, KI rückt auf Platz zwei vor

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung
Hamsterrad-Rebell

Cyberversicherung ohne Datenbasis? Warum CIOs und CISOs jetzt auf quantifizierbare Risikomodelle setzen müssen

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus






