
Professor der City University of London untersucht einige Nachteile der künstlichen Intelligenz.
Wir sehen große Aufregung und Besorgnis in Bezug um ChatGPT – Teil der neuesten Entwicklung bei künstlichen neuronalen Netzen, die große Sprachmodelle (LLM) lernen.
Während einige Forscher behaupten, dass sie keine Bedenken hinsichtlich ChatGPT haben, werden die meisten zustimmen, dass die neuesten LLMs und der sogenannte AIGC (Artificial Intelligence Generated Content) von großem Nutzen sind.
Von Produktivitätssteigerungen über Sprachübersetzung in Echtzeit bis hin zu besseren Möglichkeiten der Internetsuche und der Interaktion mit Computersystemen sind die Möglichkeiten enorm.
Diejenigen, die sich besorgt über die Technologie äußern, weisen auf zwei Hauptprobleme hin, von denen eines eher philosophischer Natur ist und das andere unmittelbare praktische Auswirkungen auf das tägliche Leben hat.
Wie Noam Chomsky während der KI-Debatte 3 im Dezember 2022 betonte, kann ChatGPT unmöglich etwas darüber aussagen, wie Sprache im menschlichen Geist funktioniert. Das liegt unter anderem daran, dass ChatGPT eine Blackbox ist.
Auf dem Forschungsgebiet, das als neurosymbolische KI bekannt ist, wird an der „Öffnung der Blackbox“ geforscht, um großen neuronalen Netzen einen Sinn zu geben, insbesondere was Konzeptlernen, Kompositionalität und Argumentation betrifft. Ich bin seit mehreren Jahren Mitorganisator des jährlichen internationalen Workshops über neuronal-symbolisches Lernen und Reasoning (bekannt als NeSY-Workshop) – der am längsten bestehenden Veranstaltung zur Präsentation und Diskussion von Spitzenforschungsergebnissen in der Neural-Symbolic Learning and Reasoning Association.
Von unmittelbarer Bedeutung: ChatGPT macht Fehler.
Es macht sowohl dumme als auch schwerwiegende Fehler auf eine Art und Weise, die solche Fehler verschleiert, weil es von allgemeinen Gesprächsmustern ausgeht.
Während die Menschen gelernt haben, Informationen auf Websites, in sozialen Medien und E-Mails aufgrund verschiedener Hinweise wie Quelle, visuellem Erscheinungsbild und grammatikalischen Fehlern zu vertrauen, schafft ChatGPT eine völlig neue Schwierigkeitsstufe, wenn es um diese Beurteilung geht.
Die unmittelbarste Besorgnis praktischer Hinsicht ist daher das Risiko einer groß angelegten Desinformationsverbreitung und deren Auswirkungen, insbesondere auf junge Demokratien.
Neurosymbolische KI kann dazu beitragen, die Desinformationsrisiken zu mindern, indem sie die Blackbox öffnet und Überlegungen über das Gelernte zulässt.
In der Zwischenzeit müssen Fachexperten zu KI-Experten werden.
Professor Artur d’Avila Garcez, Direktor des Forschungszentrums für maschinelles Lernen der City University of London
Fachartikel

Skalierbarkeit: Heute den Grundstein für die Zukunft legen

SAP Patch Day: Februar 2025

Cyberattacken auf Knopfdruck? DDos-for-Hire Services machen es möglich

Leitfaden zum Exposure Management: Warum Sie es brauchen und wie Sie es umsetzen

Zusammenfassung des Webinars „Let’s Encrypt“: Eine neue Ära der Zertifikatsüberwachung
Studien

Gartner-Umfrage: Nur 14% der Sicherheitsverantwortlichen können Datensicherheit und Geschäftsziele erfolgreich vereinen

Zunehmende Angriffskomplexität

Aufruf zum Handeln: Dringender Plan für den Übergang zur Post-Quanten-Kryptographie erforderlich

IBM-Studie: Gen-KI wird die finanzielle Leistung von Banken im Jahr 2025 steigern

Smartphones – neue Studie zeigt: Phishing auch hier Sicherheitsrisiko Nr. 1
Whitepaper

Wie NIS2 und DORA die SaaS-Compliance beeinflussen

Umsetzung des Konzeptes „Cyber-Nation“: Bundesverband IT-Sicherheit (TeleTrusT) veröffentlicht Forderungskatalog

Häufige Herausforderungen bei der Cyberkriminalität

Datasheets: Kontinuierliche Compliance mit Onapsis
