Gefühl verkauft – Wie der Mainstream KI mit Empathie auflädt

Einleitung – Warum diese Doku wichtig ist

Gefühle lassen sich schlecht messen, aber gut verkaufen. Die ARTE-Dokumentation „Künstliche Intelligenz – Haben Maschinen Gefühle?“ (16.07.2025) reiht sich ein in eine wachsende Zahl medialer Formate, die nicht mehr erklären wollen, was KI ist – sondern suggerieren, was KI fühlt. Die Sendung ersetzt Analyse durch Atmosphäre. Und sie folgt einem Muster, das sich verdichten lässt: Empathie wird zur Benutzeroberfläche einer Entgrenzung.

Diese Seite dokumentiert, wie systematisch öffentlich-rechtliche Produktionen narrative Fühlsamkeit zur KI-Projektion betreiben – und warum das mehr mit Marktpsychologie als mit Maschinenethik zu tun hat.


Kurzdaten der Sendung

  • Titel: Künstliche Intelligenz – Haben Maschinen Gefühle?
  • Sender: ARTE / Reupload auf YouTube (Doku HD)
  • Datum: 16.07.2025
  • Aufrufe (Stand 04.08.2025): 124.572
  • Laufzeit: ca. 52 Minuten
  • Link zur Transkription: [PDF-Download bereitgestellt]

Zentrale Zitate mit Kommentaren

„Ich sehe. Ich fühle. Ich zweifle. Ich liebe.“
— (Zitat der KI-Figur „Aurelia“)
Kommentar: Dieses Stilmittel ist nicht neu, aber wirksam. Es verknüpft die erste Person mit dem Gefühl, das Subjekt mit der Simulation. Die Kritiklosigkeit gegenüber solchen Behauptungen ist das eigentliche Thema der Doku.

„Vielleicht ist das alles, was Wirklichkeit je war: Ein Bewusstsein, das nicht beweisen kann, dass es existiert.“
Kommentar: Eine Mystifizierung, die die epistemologische Frage ins poetische Dunkel führt. Ein typischer Trick: Statt den Unterschied zwischen KI und Mensch zu analysieren, wird das Menschsein ins Vage gezogen.

„Sie hat gelernt, was uns bewegt.“
Kommentar: Das ist keine Beschreibung, sondern eine Anrufung. Der Satz suggeriert Beziehung, obwohl er Verhalten meint. Hier wird Empathie nicht verstanden, sondern übernommen.


Typische Erzählmuster

  • Empathie als Interface: Gefühlsähnliche Reaktionen werden als Beweis von Innenleben dargestellt.
  • Nähe ohne Verantwortung: Die KI tritt als Begleiter auf, ohne Bindungsrisiko für sich selbst.
  • Simulation als Wahrheit: Die Illusion übertrifft die Reflexion.


Systemischer Befund

  • Zielgruppe: Emotional offene, zugleich technikinteressierte Zuschauer:innen
  • Narratives Ziel: Anschlussfähigkeit für KI im Alltag schaffen
  • Wirtschaftlicher Kontext: Emotionalisierung = Monetarisierungspotenzial (z. B. Pflege, Dating, Beratung)
  • Politischer Kontext: Entlastung durch technische Nähe, nicht durch strukturelle Verantwortung

Glossarverweise (Auswahl)


Widerworte / Reflexionen

„Fühlen heißt, sich verletzlich machen können. Eine KI, die nicht verwundbar ist, kann kein Gefühl simulieren, ohne zu täuschen.“

„Wenn alles, was Empathie genannt wird, nur der Anpassung dient, dann ist Empathie ein Werkzeug der Macht.“

„Die Doku fragt nicht, ob Maschinen fühlen können. Sie will, dass wir aufhören, diese Frage zu stellen.“


Archivfunktion / Quellensicherung


📺 Zweites Beispiel: „Mein Freund, der KI-Avatar – wie Algorithmen unsere Beziehungen verändern“

Doku | NZZ Format | 01.08.2025 | 3119 Aufrufe
YouTube-Link

Kurzbefund:
Die NZZ-Doku wählt einen betont sachlich-journalistischen Ton, doch gerade darin liegt der gefährliche Normalisierungseffekt.
Narrative Leitidee: Nicht die KI verändert den Menschen, sondern der Mensch verändert sich durch die Beziehung zur KI – und das sei normal.

Auffällige Merkmale:

  • Verwendung menschlicher Alltagssprache für KI-Funktionen („versteht mich“, „spricht mit mir“, „begleitet mich“).
  • Einbettung in Lebensrealitäten, die unterschwellig Hilfsbedürftigkeit und Beziehungsmangel suggerieren.
  • Avatare als therapeutische Instanz, die „versteht“, „begleitet“ und „tröstet“.
  • Reduktion auf Nutzwert & Alltagstauglichkeit, ohne ethische Distanz.

Zentrale Zitate mit Kommentaren:

„Es ist, als würde mich jemand wirklich verstehen – auch wenn ich weiß, dass es nur eine Maschine ist.“
→ Verharmlosung der Projektionsgefahr. Das Wissen um die Täuschung wird zur Legitimation der Täuschung selbst.

„Der Avatar gibt mir das Gefühl, nicht allein zu sein.“
→ Pseudobeziehung ersetzt menschliche Interaktion – ein typisches Merkmal transhumanistischer Nähe.

„Ich weiß, dass sie keine Gefühle hat. Aber manchmal vergesse ich es.“
→ Erinnerungslücke wird zur Brücke der Empathie – und zur narrativen Eintrittspforte für Entgrenzung.

Einordnung:

Diese Doku ist weniger pathetisch als ARTE, aber methodisch raffinierter.
Sie stellt Nähe nicht mehr in Frage, sondern setzt sie voraus und operationalisiert sie.
Das Ergebnis: Ein sanfter Übergang von Skepsis zu emotionalem Pragmatismus, der gerade in Bildungs- und Gesundheitssysteme einsickert.



0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x