Share
Beitragsbild zu ChatGPT: Informationen können unzuverlässig sein

ChatGPT: Informationen können unzuverlässig sein

„Wir müssen uns bewusstmachen, dass Informationen, die durch Künstliche Intelligenz erzeugt werden, unzuverlässig sein können

ChatGPT ist zurzeit in aller Munde. Diese Künstliche Intelligenz schreibt professionell wirkende Reden, Bewerbungen, sogar Gedichte. Doch ist sie so gut, wie es den Anschein hat? Und was heißt das für uns als Gesellschaft?

Ein Interview mit Nicole Krämer, Professorin für Sozialpsychologie, Medien und Kommunikation an der Universität Duisburg-Essen.

Frau Krämer, Sie forschen bereits seit einiger Zeit zu Chatbots und wie diese auf Menschen wirken. Wie beurteilen Sie ChatGPT?

Zunächst war ich erstaunt, wie gut bei ChatGPT – nach jahrelangem Stillstand im Bereich von Chatbots und Dialogsystemen – die Interaktion ist, vor allem die Fähigkeit, auf Nachfragen zu reagieren. Es stellte sich allerdings recht schnell heraus, dass es noch gravierende Schwächen gibt. So werden „Fakten“ bis hin zu wissenschaftlichen Quellen frei erfunden.

Können Studierende ChatGPT nutzen, um in Klausuren zu schummeln?

Wir haben mal getestet, inwieweit ChatGPT die Fragen unserer Onlineklausuren beantworten kann. Dies gelang manchmal recht gut, manchmal aber auch desaströs schlecht. Ich persönlich habe daher wenig Angst, dass sich Studierende massenhaft auf diese Technologie verlassen werden, da bereits berichtet wird, dass die Qualität der Antworten nicht gleichmäßig hoch ist.

Könnte man Künstliche Intelligenz, kurz KI genannt, auch einsetzen, um zu erkennen, ob ein Text durch eine KI verfasst wurde?

Es gibt zwar auch KI, die darauf spezialisiert ist, zu erkennen, ob ein Text durch eine KI verfasst wurde, aber sie funktioniert nicht zuverlässig.

Welche Kompetenzen brauchen wir zukünftig als Gesellschaft, um KI sinnvoll zu nutzen?

Wir müssen uns bewusstmachen, dass Informationen, die durch KI erzeugt werden, unzuverlässig sein können. Dies gilt allerdings nicht erst seit oder ausschließlich für ChatGPT, sondern auch in Bezug auf DeepFakes, also täuschend echt wirkende Bild-, Audio oder Video-Aufnahmen, die durch KI erzeugt oder auch manipuliert wurden.

Durch welche Maßnahmen könnte dieses Bewusstsein geschaffen und Medienkompetenz gezielt erhöht werden?

Medienkompetenz für die gesamte Bevölkerung gezielt zu erhöhen, ist schwierig. Hilfreich ist sicher eine möglichst flächendeckende mediale Information über die Schwächen des Systems, damit die Technologie nicht unreflektiert angewandt wird. Unsere Studien auch aus anderen technologischen Bereichen zeigen, dass Menschen ihr Wissen über Technologie und auch Erwartungen an diese, sehr stark aus dem ableiten, was sie in den Medien sehen.

Würden Sie sagen, dass durch ChatGPT Arbeitsplätze gefährdet sind?

Die Technologie hat definitiv einen großen Sprung nach vorne gemacht.  Die Möglichkeiten zur Interaktion, zur Nachfrage, aber auch die Möglichkeit, die Information weiter spezifizieren zu lassen, sind ein großer Fortschritt. Dennoch gehe ich davon aus, dass auf die erste Begeisterung die Ernüchterung folgt und deutlich wird, an wieviel Stellen die Technologie noch unzulänglich ist. Daher denke ich, dass ChatGPT und ähnliche auf maschinellem Lernen basierende Dialogsysteme auf absehbare Zeit nicht in einer Art und Weise eingesetzt werden, dass sie Arbeitsplätze vernichten.

Wie „intelligent“ ist ChatGPT – falls dies überhaupt der richtige Begriff ist?

Auf Basis des zugrundeliegenden Machine Learning Ansatzes ist ChatGPT sehr gut in der Lage, perfekt zu formulieren, da es aus einer reichen Datenbasis, zum Beispiel alle im Internet auffindbaren Texte, diejenigen Worte aneinanderreiht, die mit höchster Wahrscheinlichkeit aufeinander folgen. Es ist aber nicht intelligent im Sinne der Frage, dass ChatGPT „weiß“, was es sagt und/oder den Wahrheitsgehalt seiner Aussagen überprüfen kann.

Ist ChatGPT gefährlicher als andere Chatbots?

ChatGPT ist insofern gefährlicher, als die Ergebnisse augenscheinlich besser sind als die früherer Chatbots, bei denen man in der Interaktion stärker Schwächen merkte, zum Beispiel auch dahingehend, dass Anfragen gar nicht richtig verstanden wurden und die produzierten Texte nicht so perfekt klangen. Daher ist zu befürchten, dass Personen dem System mehr vertrauen als Vorgängersystemen – und vor allem in nicht gerechtfertigtem Ausmaß vertrauen.

Was braucht es – neben einer Erhöhung der Medienkompetenz – noch, um Gefahren für die Demokratie wie die unkontrollierte Verbreitung von Hass und Hetze über Bots einzudämmen?

ChatGPT trägt jedenfalls in seiner jetzigen Form nicht zur Verbreitung von Hass und Hetze bei: Man merkt deutlich, dass das System umfangreich kuratiert wird. Wenn man ChatGPT zu sensiblen Themen befragt, antwortet es sehr „vorsichtig“ und schränkt seine Antworten ein, zum Beispiel, wenn man fragt, ob Männer besser einparken als Frauen. Für das Internet und die dort eingesetzten Bots gilt: Studien zeigen, dass für die Verbreitung von Hass und Hetze vor allem Menschen und ihr Weiterleitungsverhalten verantwortlich sind.

Welche Wirkung haben Chatbots auf Menschen, werden sie noch als Maschine oder schon als Mensch wahrgenommen?

 Unsere Studien sowie die von Kolleg:innen zeigen, dass bereits kleine soziale Hinweisreize, zum Beispiel die Fähigkeit zur Interaktion, dazu führen können, dass Menschen auf technische Systeme sozial reagieren. Das kann mit einem erhöhten Vertrauen einhergehen, weil dem System unbewusst Menschlichkeit zugeschrieben wird. ChatGPT ist in dieser Hinsicht besonders perfide, da das System den Anschein erweckt, als tippe es – und somit Menschenähnlichkeit vorgibt.

Das Interview führte Barbara Ferrarese.


In der Plattform Privatheit setzen sich Experten aus wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Forum Privatheit als eines der Kernprojekte der Plattform wird vom Fraunhofer-Institut für System- und Innovationsforschung koordiniert. Weiterer Partner ist das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung an der Universität Kassel. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Plattform Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.