OpenAI hat ein spezialisiertes „ChatGPT Health“ vorgestellt- Foto: Emma Simpson, unsplash

OpenAI startet „ChatGPT Health“

OpenAI hat Anfang Januar ein eigenes Angebot namens ChatGPT Health angekündigt — eine auf Gesundheitsfragen zugeschnittene Erfahrung innerhalb von ChatGPT, die Nutzern erlaubt, medizinische Informationen zu erfragen und (nach Freigabe) auf persönliche Gesundheitsdaten zuzugreifen. Ziel sei es, Fachkräfte zu entlasten und Patienten verständlichere Antworten zu liefern. Das ist einerseits begrüßenswert: Automatisierte Hilfen können Routine-Aufgaben vereinfachen, Nachsorge-Informationen bereitstellen und Versorgungsengpässe abmildern — sofern die Systeme robust, geprüft und in Klinikumgebungen verantwortungsvoll eingesetzt werden.

Andererseits bestehen zentrale Risiken, die wir ernst nehmen müssen:

  • Datenschutz & Einwilligung. Das Teilen sensibler Gesundheitsdaten erfordert strikte Kontrolle, transparente Verarbeitungshinweise und echte Informiertheit der Betroffenen. Technische Versprechungen zur Verschlüsselung entbinden nicht von der Pflicht, rechtliche und ethische Rahmen einzuhalten.

Fehlinformation (Halluzinationen). Sprachmodelle produzieren gelegentlich falsche oder irreführende Aussagen. In Gesundheitsfragen können solche Fehler unmittelbar Gesundheit und Vertrauen gefährden — medizinische Prüfung und eine klare Haftungs-/Verantwortungsregel bleiben unverzichtbar.

Kommerzialisierungs- und Interessenkonflikte. Wenn Gesundheits-KI eng mit Plattformökonomien verknüpft wird, drohen subtile Anreize, die nicht automatisch im Patienteninteresse liegen. Transparenz über Geschäftsmodelle ist unverzichtbar.

Empfehlungen:

  1. Patientenschutz zuerst: Klare Opt-in/Opt-out-Verfahren, geringe Datenspeicherung, volle Widerspruchsmöglichkeiten.

Ärztliche Prüfungspflicht: Jede klinisch relevante Empfehlung muss durch qualifiziertes Fachpersonal validierbar sein; KI bleibt Assistenz, nicht Entscheider.

  1. Regelwerk & Audit: Unabhängige Prüfungen, Transparenz-Berichte und nachvollziehbare Verifikationspfade für die Modelle.
  2. Aufklärung: Patienten brauchen klare Hinweise zu Chancen und Grenzen — in einfacher Sprache.

Kurzfazit: ChatGPT Health kann nützlich sein — aber nur, wenn Datenschutz, Haftungsfragen und die inhärenten Grenzen der Modelle offen, rechtlich abgesichert und medizinisch verantwortet adressiert werden. Das ist kein reiner Technik-Push, sondern eine gesellschaftliche Aufgabe.

https://techcrunch.com/2026/01/07/openai-unveils-chatgpt-health-says-230-million-users-ask-about-health-each-week/


Wichtige Hinweise für Nutzer

Kurzfassung: ChatGPT Health kann schnelle Orientierung geben. Es ersetzt jedoch nicht die ärztliche Diagnose, Therapie oder eine Notfallversorgung.

Wesentliches auf einen Blick

  • Kein ärztlicher Befund: KI-Ausgaben sind Hinweise, keine medizinischen Diagnosen.
  • Bei Notfällen: Sofort den Notruf wählen (112). Die KI ist nicht für akute Notfälle gedacht.
  • Datenschutz: Keine sensiblen Identifikationsdaten (Name, Adresse, Geburtsdatum, Versicherungsnummer) in Chatfenster eingeben.
  • Quellen prüfen: Bitte um Quellenangaben und prüfe Empfehlungen mit Ärzten oder offiziellen Leitlinien.
  • Belege sichern: Screenshots oder Kopien anlegen, um die Antworten später mit Fachpersonen zu besprechen.

Empfehlung: Nutze ChatGPT Health als ergänzendes Informationswerkzeug — niemals als Ersatz für medizinische Prüfung und Behandlung.

Weitere Informationen: RKI | WHO | DEGAM.


© Redaktion-Analyseteam / Naturrechte & KI (F. Faruz)