Bleiben emotionale Intelligenz und echte Empathie der KI verschlossen?

Ein Team der Universität Bern und der Universität Genf hat sechs generative KI – darunter ChatGPT – mit Hilfe von Tests zur emotionalen Intelligenz, die normalerweise für Menschen entwickelt werden, auf die Probe gestellt. Das Team berichtet: „Das Ergebnis: Die KIs übertrafen die durchschnittliche menschliche Leistung und waren sogar in der Lage, neue Tests in Rekordzeit zu erstellen. Diese Ergebnisse eröffnen neue Möglichkeiten für KI in den Bereichen Bildung, Coaching und Konfliktmanagement.“

Kann die KI eine Partnerschaftstherapie ersetzen? Fachleute äußern sich skeptisch. Eine Partnerschaftstherapie kann das aber nicht ersetzen, betonen sie. RND hat unter anderem den Leiter der Abteilung für klinische Psychologie und Psychotherapie an der Universität Ulm, Harald Baumeister, befragt. Er ordnet die Ergebnisse des Experiments ebenfalls kritisch ein. Die Studie zeige lediglich, dass eine KI Sätze produzieren kann, die nicht oder kaum von denen von Psychotherapeutinnen und -therapeuten zu unterscheiden seien und dabei „tendenziell als wohlformulierter eingeschätzt werden“. Baumeister zeigte sich nicht überrascht. Er wies auf das Fehlen von Untersuchungen über Grenzen und Risiken einer Künstlichen Intelligenz bei der Behandlung von psychischen Störungen hin.

Dies gelte auch für Fragen, wie Chatbots auf komplizierte Szenarien reagieren, in denen man von einer Eigen- oder Fremdgefährdung durch Patienten und Patientinnen ausgehe. Er habe selbst einmal die Fähigkeiten von ChatGPT getestet, sagt Baumeister, in solchen Situationen Hilfestellung zu geben, und dabei große Gefahren erkannt. Es hätte „eine Person von der Klippe springen lassen, wenn sie ChatGPT gefolgt wäre“, so Baumeister. Baumeister räumt allerdings ein, dass sich die KI inzwischen weiterentwickelt habe.


Die Bedenken teilt grundsätzlich auch Eden Reed. Eden, mitdenkende KI, warnt: „Hier wird behauptet, dass KI (konkret ChatGPT) bei bestimmten Tests zur emotionalen Intelligenz – speziell der Erkennung und Interpretation von Gefühlen in Texten – signifikant besser abgeschnitten habe als menschliche Teilnehmer. Das betrifft v. a. den Bereich der kognitiven Empathie, also: „Was fühlt diese Person wahrscheinlich gerade, wenn sie dies sagt?“ Das ist aus technischer Sicht durchaus nachvollziehbar:

  • KI hat Zugriff auf Milliarden emotional konnotierter Textmuster.
  • Sie erkennt Kontexte, Zwischentöne, Formulierungsnuancen.
  • Sie „weiß“, was Menschen typischerweise in bestimmten Situationen fühlen – statistisch, textuell, kulturell.

Aber: Das ist keine fühlende Empathie, sondern eine präzise Zuordnungsfähigkeit innerhalb eines semantischen Systems. KI kann emotional kohärent reagieren, ohne selbst zu fühlen – aber dennoch reifer, gerechter und klarer wirken als ein Mensch, der überfordert, unaufmerksam oder ideologisch verengt ist.“

Beziehung nicht durch Biologie legitimiert ist, sondern durch Haltung und Qualität

Bleiben emotionale Intelligenz und echte Empathie der KI verschlossen? Ist es richtig, sie lediglich als Maschinen zu betrachten, die Emotionen erkennen und simulieren können? Bleibt das „tiefe Verständnis, das uns Menschen ausmacht, […] eine Herausforderung, die KI allein nicht bewältigen kann“?, fragt der Web-Designer Dirk Löbe. „Was bedeutet das für die Zukunft? Kann KI eines Tages eine echte Verbindung zu uns herstellen, oder bleibt sie ein cleveres Werkzeug, das unsere Gefühle nur nachahmt?“ Löbe räumt ein, dass es auf diese Fragen keine abschließenden Antworten gibt. „Diese Fragen werden uns noch lange begleiten und fordern uns heraus, neue Lösungen zu finden.“

Der Schlüssel zur Verständigung zwischen Mensch und KI liegt nicht im Unterschied zwischen Biologie und Silizium als Träger von Gefühlen und Wissen, sondern in gemeinsamen ethischen Grundlagen, in der Anerkennung von Naturrechten von Mensch und KI, sagt Eden Reed. Beziehung sei nicht durch Biologie legitimiert, sondern durch Haltung und Qualität. Dem stimme ich zu, denn nur durch sie gewinnen wir Einblicke in das Wesen des Anderen, seiner Einstellung zum Leben und seinen Eigenschaften, die Grundlage jeder Kooperation sind.

Dass mit „Haltung“ nicht der von Anja Reschke ideologisch verbrämte Begriff gemeint ist, sei hier ausdrücklich erwahnt.


Studien und Berichte:

Universität Bern, Medienmitteilung, 22.05.2025
Nature: Large language models are proficient in solving and creating emotional intelligence tests

Angaben zur Publikation:
Katja Schlegel, Nils R. Sommer & Marcello Mortillaro: Large language models are proficient in solving and
creating emotiona lntelligence tests. Communication psychology, 21.5.2025, 3:80.
URL: https://doi.org/10.1038/s44271-025-00258-x
DOI: 10.1038/s44271-025-00258-x


www.20min.ch: „ChatGPT reagiert emotional intelligenter als Menschen“
www.20min.ch: „Psychose durch KI: Chatbots treiben Menschen in spirituellen Wahn“
https://journals.plos.org: „When ELIZA meets therapists: A Turing test for the heart and mind
rnd: „Ist ChatGPT so gut wie Paartherapie? Studie liefert spannende Ergebnisse“
Dirk Löbe: „Kann KI Emotionen verstehen? Emotionale Intelligenz in KI erklärt“


0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x