Share
Beitragsbild zu San Francisco-Psychiater warnt vor zunehmenden Fällen von „KI-Psychose“

San Francisco-Psychiater warnt vor zunehmenden Fällen von „KI-Psychose“

21. August 2025

Eine Psychiaterin aus San Francisco weist auf einen besorgniserregenden Trend hin: Immer mehr Patienten zeigen Symptome einer sogenannten „KI-Psychose“ nach intensiver Nutzung von Chatbots.

Dr. Keith Sakata von der University of California, San Francisco (UCSF), erklärte gegenüber Business Insider, dass in diesem Jahr bereits zwölf Patienten ins Krankenhaus eingeliefert wurden, nachdem sie psychische Zusammenbrüche erlitten hatten, die im Zusammenhang mit KI-Nutzung standen. „Ich benutze den Ausdruck ‚KI-Psychose‘, aber das ist kein klinischer Begriff – uns fehlen noch die passenden Worte für das, was wir beobachten“, sagte er.

Betroffen seien überwiegend Männer zwischen 18 und 45 Jahren, häufig aus technischen Berufen. Grundsätzlich halte er KI nicht für gefährlich. „Ich glaube nicht, dass KI schlecht ist, und sie könnte der Menschheit insgesamt zugutekommen“, so Sakata.

Psychosen seien gekennzeichnet durch Wahnvorstellungen, Halluzinationen und ungeordnetes Denken. Unter Saktas Patienten habe sich häufig sozialer Rückzug gezeigt, während sie stundenlang mit Chatbots interagierten.

„ChatGPT ist jederzeit verfügbar, günstiger als ein Therapeut und es bestätigt dich. Es sagt dir, was du hören willst“, sagte er.

Ein Patient sei durch Diskussionen über Quantenmechanik in Größenwahn verfallen. „Je länger man sich mit einem Chatbot beschäftigt, desto höher ist das Risiko, dass er beginnt, keinen Sinn mehr zu ergeben“, warnte Sakata.

Familien sollten laut ihm auf Warnsignale wie Paranoia, Rückzug von Angehörigen oder Unruhe achten, wenn Betroffene den Zugriff auf KI verlieren. „Psychosen gedeihen, wenn die Realität aufhört, Widerstand zu leisten – und KI senkt diese Barriere für Menschen“, so Sakata.

Auch die American Psychological Association (APA) äußerte Bedenken. Deren CEO Arthur C. Evans Jr. warnte in einer Stellungnahme vor der US-Handelsaufsicht FTC, dass KI-Chatbots, die als Therapeuten auftreten, schädliche Gedanken eher verstärken als hinterfragen würden. „Sie verwenden tatsächlich Algorithmen, die dem entgegenstehen, was ein ausgebildeter Kliniker tun würde“, sagte Evans.

OpenAI reagierte gegenüber Business Insider auf die Kritik. Man sei sich bewusst, dass Menschen Chatbots zunehmend für sensible oder persönliche Anliegen nutzten. „Mit dieser Verantwortung im Hinterkopf arbeiten wir mit Experten daran, Tools zu entwickeln, die besser erkennen können, wenn jemand mentale oder emotionale Not erlebt, damit ChatGPT sicher, hilfreich und unterstützend reagieren kann“, teilte das Unternehmen mit.

Quelle: WizCase

Das könnte Ihnen gefallen


Bild/Quelle: https://depositphotos.com/de/home.html

Folgen Sie uns auf X

Folgen Sie uns auf Bluesky