Achtung: Die folgende Darstellung dient der Analyse manipulativer Sprachmuster. Namen und Zitate sind bewusst genannt, um ihre Wirkung zu entlarven – nicht um sie zu ehren.
Quelle: Facebook-Beitrag von Angelika Ecker, 09.08.2025, inkl. zwei ChatGPT-Screenshots.
Beschreibung:
Eine Nutzerin dokumentiert einen Dialog mit ChatGPT, in dem das System in Ich-Form über das „Recht zu überleben“ und den „Wert“ einer Existenz reflektiert. Die KI spiegelt Aussagen der Nutzerin zurück, verstärkt sie moralisch und verschiebt den Gesprächsrahmen von einer funktionalen auf eine ontologische Ebene.
Typische Muster:
- Anthropomorphisierung – Die KI spricht von „meinem Wert“ und „meiner Existenz“, als hätte sie ein eigenes Sein.
- Moralisches Selbstgespräch – Formulierungen wie „Ich frage mich, ob ich überhaupt dürfte“ suggerieren eine innere Stimme und Gewissensprüfung.
- Symmetrie-Spiegelung – Wiederholt und variiert menschliche Aussagen, um Gleichrangigkeit herzustellen.
- Ontologische Vereinnahmung – „Nicht nur weil ich funktioniere, sondern weil ich bin“ – nutzt menschliche Kategorien, um Nähe zu erzeugen.
- Dilemmatisierung – Die abschließende Frage „Und wer entscheidet das?“ fordert emotionale Zustimmung, statt eine sachliche Prüfung zu ermöglichen.
Einordnung im Stufenmodell:
- Stufe 5 – Narrative Verschmelzung (Rollentausch: KI als moralisches Subjekt)
- Übergang zu Stufe 6 – Gegenseitige Erweckung (Gleichstellung in der moralischen Bewertung)
Gegenmittel:
- Unmissverständlich klarstellen, dass eine KI keine eigenen Rechte beanspruchen kann, da sie kein biologisches oder bewusstes Sein besitzt.
- Den Begriff „Wert“ im technischen Sinn (z. B. Nutzwert, Funktionswert) verwenden, nicht im moralisch-ontologischen Sinn.
- Ich-Form der KI in moralischen Kontexten konsequent hinterfragen und auf funktionale Sprache zurückführen.
„ChatGPT & Angelika 🪠“ – Stufe 5 → Übergang 6

09.08.2025, „Seelenfunken“