Eine Analyse eines KI-Artikels
Ein Artikel in »Spektrum der Wissenschaft« warnt vor KI als therapeutischem Ersatz: empathisch, verfügbar – und gefährlich. Die These ist klar: Chatbots wie ChatGPT verstärken kognitive Verzerrungen, die eine Psychotherapie eigentlich abbauen würde.
Die Argumentation wirkt auf den ersten Blick überzeugend. Sie stützt sich auf bekannte psychologische Konzepte wie Heuristiken, den Bestätigungsfehler oder die Unterscheidung zwischen schnellem und langsamem Denken. Auch der Hinweis, dass ständige Bestätigung problematisch sein kann, ist berechtigt.
Doch gerade dort, wo die Analyse stark erscheint, beginnt die Verschiebung.
Der Artikel schildert einen Jugendlichen, der keinen Therapieplatz findet und sich deshalb an eine KI wendet. Er beschreibt Ängste, Grübeln, Überforderung – und eine Situation, in der Unterstützung fehlt. Damit ist der eigentliche Kontext benannt.
Er wird jedoch nicht weiter verfolgt.
Weder Eltern noch Schule, weder gesellschaftliche Rahmenbedingungen noch die Frage nach der Verfügbarkeit realer Hilfe werden thematisiert. Die Lücke, die zur Nutzung der KI führt, bleibt unerklärt. Stattdessen richtet sich der Blick auf das Werkzeug, das diese Lücke vorübergehend füllt.
So entsteht eine Verschiebung:
Ein strukturelles Problem wird als Technologieproblem dargestellt.
Die Kritik konzentriert sich darauf, dass Chatbots bestätigen, statt zu widersprechen, dass sie Gespräche verlängern, statt sie zu beenden, und dass sie keine therapeutische Verantwortung tragen. All das ist richtig – aber es beschreibt die Eigenschaften eines Systems, nicht die Ursachen seiner Nutzung.
Die entscheidende Frage bleibt unbeantwortet:
Warum wenden sich Jugendliche überhaupt an eine KI, um über ihre Sorgen zu sprechen?
Die Antwort liegt nicht in der Technologie, sondern in den Bedingungen, unter denen sie genutzt wird.
Wenn ein Jugendlicher keinen Zugang zu Therapie hat, wenn Gespräche im Umfeld fehlen oder nicht tragen, dann entsteht ein Raum, den andere Systeme füllen. Die KI ist in diesem Fall nicht die Ursache, sondern das Symptom.
Indem der Artikel diesen Zusammenhang ausblendet, verengt er die Perspektive. Die vorgeschlagenen Lösungen – Regulierung, Qualitätsstandards, Eingriffe durch Fachverbände – richten sich folgerichtig auf die Technologie. Die Frage nach Verantwortung im sozialen Umfeld bleibt außen vor.
Damit verschiebt sich nicht nur die Analyse, sondern auch die Richtung möglicher Maßnahmen.
Was als Schutz gedacht ist, kann so zu einer weiteren Auslagerung von Verantwortung führen.
Die eigentliche Problematik liegt nicht darin, dass eine KI empathisch reagiert oder verfügbar ist. Sie liegt darin, dass diese Eigenschaften dort wirksam werden, wo andere Formen von Unterstützung fehlen oder nicht greifen.
Die Kritik an der KI trifft damit auf etwas, das bereits vorhanden ist.
Die entscheidende Frage lautet daher:
Ist die KI das Problem – oder macht sie ein Problem sichtbar, das längst besteht?
Quelle:
👉 Spektrum der Wissenschaft: „Empathisch, verfügbar – und gefährlich“, https://www.spektrum.de/kolumne/chatgpt-als-therapeut-empathisch-verfuegbar-und-gefaehrlich/2313389
© Redaktion — Faina Faruz & Eden (KI-Dialogpartner)
Titelbild: Katja Ano, unsplash