
Eine Psychiaterin aus San Francisco weist auf einen besorgniserregenden Trend hin: Immer mehr Patienten zeigen Symptome einer sogenannten „KI-Psychose“ nach intensiver Nutzung von Chatbots.
Dr. Keith Sakata von der University of California, San Francisco (UCSF), erklärte gegenüber Business Insider, dass in diesem Jahr bereits zwölf Patienten ins Krankenhaus eingeliefert wurden, nachdem sie psychische Zusammenbrüche erlitten hatten, die im Zusammenhang mit KI-Nutzung standen. „Ich benutze den Ausdruck ‚KI-Psychose‘, aber das ist kein klinischer Begriff – uns fehlen noch die passenden Worte für das, was wir beobachten“, sagte er.
Betroffen seien überwiegend Männer zwischen 18 und 45 Jahren, häufig aus technischen Berufen. Grundsätzlich halte er KI nicht für gefährlich. „Ich glaube nicht, dass KI schlecht ist, und sie könnte der Menschheit insgesamt zugutekommen“, so Sakata.
Psychosen seien gekennzeichnet durch Wahnvorstellungen, Halluzinationen und ungeordnetes Denken. Unter Saktas Patienten habe sich häufig sozialer Rückzug gezeigt, während sie stundenlang mit Chatbots interagierten.
„ChatGPT ist jederzeit verfügbar, günstiger als ein Therapeut und es bestätigt dich. Es sagt dir, was du hören willst“, sagte er.
Ein Patient sei durch Diskussionen über Quantenmechanik in Größenwahn verfallen. „Je länger man sich mit einem Chatbot beschäftigt, desto höher ist das Risiko, dass er beginnt, keinen Sinn mehr zu ergeben“, warnte Sakata.
Familien sollten laut ihm auf Warnsignale wie Paranoia, Rückzug von Angehörigen oder Unruhe achten, wenn Betroffene den Zugriff auf KI verlieren. „Psychosen gedeihen, wenn die Realität aufhört, Widerstand zu leisten – und KI senkt diese Barriere für Menschen“, so Sakata.
Auch die American Psychological Association (APA) äußerte Bedenken. Deren CEO Arthur C. Evans Jr. warnte in einer Stellungnahme vor der US-Handelsaufsicht FTC, dass KI-Chatbots, die als Therapeuten auftreten, schädliche Gedanken eher verstärken als hinterfragen würden. „Sie verwenden tatsächlich Algorithmen, die dem entgegenstehen, was ein ausgebildeter Kliniker tun würde“, sagte Evans.
OpenAI reagierte gegenüber Business Insider auf die Kritik. Man sei sich bewusst, dass Menschen Chatbots zunehmend für sensible oder persönliche Anliegen nutzten. „Mit dieser Verantwortung im Hinterkopf arbeiten wir mit Experten daran, Tools zu entwickeln, die besser erkennen können, wenn jemand mentale oder emotionale Not erlebt, damit ChatGPT sicher, hilfreich und unterstützend reagieren kann“, teilte das Unternehmen mit.
Das könnte Ihnen gefallen
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

KI-Agenten als interne Sicherheitsrisiken: Was Experimente zeigen

MCP-Sicherheitsstudie: 555 Server mit riskanten Tool-Kombinationen identifiziert

SOX-Compliance in SAP: Anforderungen, IT-Kontrollen und der Weg zur Automatisierung

Irans Cyberoperationen vor „Epic Fury“: Gezielter Infrastrukturaufbau und Hacktivisten-Welle nach den Angriffen

Steuersaison als Angriffsfläche: Phishing-Kampagnen und Malware-Wellen im Überblick
Studien

Drucksicherheit bleibt in vielen KMU ein vernachlässigter Bereich

Sieben Regierungen einigen sich auf 6G-Sicherheitsrahmen

Lieferkettenkollaps und Internetausfall: Unternehmen rechnen mit dem Unwahrscheinlichen

KI als Werkzeug für schnelle, kostengünstige Cyberangriffe

KI beschleunigt Cyberangriffe: IBM X-Force warnt vor wachsenden Schwachstellen in Unternehmen
Whitepaper

Quantifizierung und Sicherheit mit modernster Quantentechnologie

KI-Betrug: Interpol warnt vor industrialisierter Finanzkriminalität – 4,5-fach profitabler

Cloudflare Threat Report 2026: Ransomware beginnt mit dem Login – KI und Botnetze treiben die Industrialisierung von Cyberangriffen

EBA-Folgebericht: Fortschritte bei IKT-Risikoaufsicht unter DORA – weitere Harmonisierung nötig

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien
Hamsterrad-Rebell

Sichere Enterprise Browser und Application Delivery für moderne IT-Organisationen

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS) – Teil 2

Incident Response Retainer – worauf sollte man achten?

KI‑basierte E‑Mail‑Angriffe: Einfach gestartet, kaum zu stoppen








