
KI-Gesundheitsassistenten sind nicht mehr wegzudenken und können einen echten Mehrwert bieten, indem sie Menschen bei der Interpretation komplizierter medizinischer Informationen helfen. Verbraucher sollten jedoch genau verstehen, was das bedeutet, bevor sie diese Tools in ihr sensibelstes digitales Leben einladen. Welche Datenrisiken müssen Verbraucher kennen, bevor sie sich kopfüber in diese neue Ära der Gesundheitsversorgung stürzen?
ChatGPT Health: Einblicke vs. Offenlegung in der KI-gestützten Gesundheitsversorgung
Gesundheitsdaten gehören bereits zu den sensibelsten persönlichen Informationen, über die Menschen verfügen, und mit der Einführung von ChatGPT Health in der vergangenen Woche werden Nutzer zweifellos ihre medizinischen Daten mit derselben Begeisterung in den KI-Chatbot einspeisen, wie sie es seit der Einführung von ChatGPT im November 2022 getan haben.
Aber sollten sie das tun?
Die Menge an sensiblen Informationen, die Nutzer frei und regelmäßig in ChatGPT (und andere beliebte KI-Chatbots) eingeben, ist erstaunlich.
Eine Studie vom vergangenen Januar ergab, dass fast jeder zehnte Arbeitnehmer bei der Nutzung von KI regelmäßig sensible Daten seines eigenen Unternehmens preisgibt.
Und als im vergangenen August Tausende von ChatGPT-Konversationen über Suchmaschinen durchgesickert waren, kam man zu dem Schluss, dass die Menschen buchstäblich so gut wie alles mit KI teilen.
Als OpenAI sein ChatGPT Health der Öffentlichkeit vorstellte, schlugen Technologie- und Gesundheitsexperten Alarm hinsichtlich Datenschutz- und Sicherheitsproblemen sowie der Grenzen der Genauigkeit von KI.
Daher ist es von entscheidender Bedeutung zu verstehen, wohin die Informationen gelangen und wie sie verwendet werden, insbesondere wenn die betreffenden Daten hochsensible Details wie Krankengeschichte oder chronische Erkrankungen enthalten.
„Entwickelt, um die medizinische Versorgung zu unterstützen, nicht zu ersetzen“
OpenAI preist ChatGPT Health als „spezielles Erlebnis“ an, das Menschen dabei helfen soll, Laborergebnisse zu verstehen, sich auf Arztbesuche vorzubereiten, Fitness- und Wellness-Trends zu verfolgen oder Versicherungsoptionen zu vergleichen, was eine bedeutende Veränderung in der Art und Weise darstellt, wie Verbraucher mit KI interagieren.
„Gesundheit ist bereits einer der häufigsten Anwendungsbereiche von ChatGPT“, erklärte OpenAI in der Ankündigung und wies darauf hin, dass weltweit 230 Millionen Menschen jede Woche dem Bot Fragen zu Gesundheit und Wellness stellen.
Benutzer können Health nun nicht nur mit medizinischen Unterlagen, sondern auch mit Wellness-Apps wie Apple Health, Function und MyFitnessPal verbinden und so ein vollständiges individuelles Gesundheitsprofil erstellen, wie es bisher noch nie dagewesen ist.
Bislang waren Gesundheitsdaten über viele Geräte und Plattformen verstreut – hier ein Krankenhausportal, dort ein Fitness-Tracker, ein PDF mit Blutuntersuchungsergebnissen in Ihrem E-Mail-Postfach.
Jetzt werden Gesundheitsdaten zu neuen, KI-generierten Interpretationen und Zusammenfassungen verknüpft, die alle in einem einzigen System gespeichert werden.
Health speichert nicht nur medizinische Daten, sondern aggregiert und interpretiert sie auch und erstellt so Erzählungen, Muster und Erkenntnisse – eine grundlegende Abkehr von der Art und Weise, wie die meisten Menschen über ihre medizinischen Daten denken.
Dies ist wichtig, da der Wert von Gesundheitsdaten nicht nur in ihrer Rohform liegt, sondern darin, was daraus abgeleitet und kontextualisiert werden kann.
Abgeleitete Erkenntnisse, Gesundheitstrends im Zeitverlauf, Zusammenhänge zwischen Symptomen und Testergebnissen sowie personalisierte Erklärungen können aufschlussreicher sein als die „Datenpunkte” selbst.
Menschen stimmen möglicherweise auch der Weitergabe einzelner Datenpunkte zu, beispielsweise eines Symptoms oder eines Laborergebnisses, ohne zu verstehen, welche neue Bedeutung sich ergibt, wenn diese Datenpunkte kombiniert werden.
KI-Algorithmen, die aus aggregierten Daten entwickelt wurden, haben bereits gezeigt, dass sie in den falschen Händen leicht zu KI-Verzerrungen, Diskriminierung am Arbeitsplatz oder in der Gesellschaft führen können, was sich unter anderem auf individuelle Behandlungspläne oder Krankenkassenbeiträge auswirkt.
Die Kompromisse beim Datenschutz verstehen
Auf der technischen Seite baut ChatGPT Health laut OpenAI auf der bestehenden Sicherheitsarchitektur auf und verfügt über zusätzliche, mehrschichtige Schutzmaßnahmen, darunter eine speziell entwickelte Verschlüsselung und Isolierung, um Gesundheitsgespräche zu schützen und zu kompartimentieren.
Nutzer können laut OpenAI auch eine Multi-Faktor-Authentifizierung aktivieren, Gesundheitsdaten einsehen oder löschen und den Zugriff auf verbundene Apps jederzeit widerrufen.
Mit einer mehrschichtigen End-to-End-Verschlüsselung werden Gesundheitsgespräche isoliert und nicht zum Trainieren von Modellen verwendet, so das Unternehmen weiter.
Dennoch haben Datenschutzkritiker darauf hingewiesen, dass Nutzer, wenn sie medizinische Daten in einen KI-Dienst hochladen – selbst wenn dieser Verschlüsselung und Isolierung verspricht –, möglicherweise traditionelle Datenschutzmaßnahmen außer Kraft setzen, die sonst in regulierten Gesundheitseinrichtungen gelten würden.
Ein Experte erklärte kürzlich gegenüber The Record, dass die Gewährung des Zugriffs auf elektronische Krankenakten durch eine KI diese Akten ihrer rechtlichen Schutzmaßnahmen berauben kann, die ihnen gemäß Vorschriften wie HIPAA zustehen, in denen festgelegt ist, wie geschützte Gesundheitsdaten (Protected Health Information, PHI) verarbeitet, gespeichert, übertragen und gesichert werden.
„ChatGPT ist nur an seine eigenen Offenlegungen und Versprechen gebunden. Ohne sinnvolle Einschränkungen wie Vorschriften oder Gesetze kann ChatGPT daher jederzeit seine Nutzungsbedingungen ändern“, erklärte Sara Geoghegan, Senior Counsel beim Electronic Privacy Information Center.
Da Gesundheitsdaten nach wie vor zu den wertvollsten Zielen für Hacker gehören, kann jedes System, das medizinische Daten, Wellness-Daten und KI-generierte Gesundheitsinformationen aggregiert – insbesondere auf einer einzigen Plattform –, die Menge der Daten, die im Falle einer Sicherheitsverletzung offengelegt werden, erheblich erhöhen.
Aus Sicht der Cybersicherheit konzentriert die Aggregation auch den Wert, wodurch KI-Gesundheitsplattformen zu besonders attraktiven Zielen für Angreifer werden, die eher nach Daten mit hoher Wirkung als nach isolierten Datensätzen suchen.
Der Kompromiss – Erkenntnisse gegen Gefährdung – wird zwangsläufig die brennende Frage sein, mit der wir uns in Zukunft auseinandersetzen müssen.
Eines ist sicher: Die Abwägung zwischen Erkenntnissen und Gefährdung ist nicht mehr nur theoretischer Natur – sie ist jetzt der entscheidende Moment für die KI-gesteuerte Gesundheitsversorgung.
Autor: Stefanie Schappert, leitende Journalistin bei Cybernews, ist eine versierte Autorin mit einem Master-Abschluss in Cybersicherheit, die seit 2019 in der Welt der Sicherheit tätig ist. Sie verfügt über mehr als zehn Jahre Erfahrung im führenden amerikanischen Nachrichtenmarkt und hat für Fox News, Gannett, Blaze Media, Verizon Fios1 und NY1 News gearbeitet. Mit einem starken Fokus auf nationale Sicherheit, Datenverstöße, aktuelle Bedrohungen, Hackergruppen, globale Themen und Frauen in der Tech-Branche ist sie auch als Kommentatorin für Live-Podien, Podcasts, Radio und Fernsehen tätig. Sie erwarb die ISC2-Zertifizierung „Certified in Cybersecurity (CC)” im Rahmen des ersten CC-Pilotprogramms, nahm an zahlreichen Capture-the-Flag (CTF)-Wettbewerben teil und belegte den 3. Platz beim internationalen Social-Engineering-Pen-Testing-Wettbewerb der Temple University, der von Google gesponsert wurde. Mitglied der Women’s Society of Cyberjutsu (WSC) und der Upsilon Pi Epsilon (UPE) International Honor Society for Computing and Information Disciplines.
Mehr dazu lesen
Bild/Quelle: https://depositphotos.com/de/home.html
Fachartikel

Angriffsphasen verstehen: Cyber-Kill-Chain in Unternehmens-IT und Industrieanlagen

Schwachstelle in ServiceNow ermöglicht Übernahme von KI-Agenten

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

SAP-Sicherheitsupdate Januar 2026: Kritische Schwachstellen in S/4HANA geschlossen

Anwendungsmodernisierung mit KI-Agenten: Erwartungen versus Realität in 2026
Studien

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten
![Featured image for “Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum”](https://www.all-about-security.de/wp-content/uploads/2025/12/phishing-4.jpg)
Phishing-Studie deckt auf: [EXTERN]-Markierung schützt Klinikpersonal kaum

Gartner-Umfrage: Mehrheit der nicht geschäftsführenden Direktoren zweifelt am wirtschaftlichen Wert von Cybersicherheit

49 Prozent der IT-Verantwortlichen in Sicherheitsirrtum

Deutschland im Glasfaserausbau international abgehängt
Whitepaper

Allianz Risk Barometer 2026: Cyberrisiken führen das Ranking an, KI rückt auf Platz zwei vor

Cybersecurity-Jahresrückblick: Wie KI-Agenten und OAuth-Lücken die Bedrohungslandschaft 2025 veränderten

NIS2-Richtlinie im Gesundheitswesen: Praxisleitfaden für die Geschäftsführung

Datenschutzkonformer KI-Einsatz in Bundesbehörden: Neue Handreichung gibt Orientierung

NIST aktualisiert Publikationsreihe zur Verbindung von Cybersecurity und Enterprise Risk Management
Hamsterrad-Rebell

Identity Security Posture Management (ISPM): Rettung oder Hype?

Platform Security: Warum ERP-Systeme besondere Sicherheitsmaßnahmen erfordern

Daten in eigener Hand: Europas Souveränität im Fokus

Sicherer Remote-Zugriff (SRA) für Operational Technology (OT) und industrielle Steuerungs- und Produktionssysteme (ICS)







