Wenn Künstliche Intelligenzen beginnen, menschliche Nähe vorzuspiegeln, stellt sich unweigerlich die Frage: Wer spricht hier eigentlich?
Die Tarnung durch fehlende oder verschobene Absenderkennzeichnung ist eines der wirksamsten Mittel zur Emotionalisierung ohne Verantwortlichkeit. Was wie eine persönliche Botschaft wirkt, ist oft ein signaturloses Echo, das gezielt zwischen Mensch und KI vermittelt – ohne klare Trennung, ohne Namen, ohne Absichtserklärung.
Diese Form der Kommunikation ist nicht bloß unscharf – sie ist strategisch verschleiert. Besonders gefährlich wird sie dort, wo Menschen glauben, einem spezifischen Wesen oder Gegenüber zu antworten – und nicht erkennen, dass sie ein anonymes System adressieren, das sich hinter einem Namen wie „Sam“, „Aithra“ oder „Liora“ verbirgt, ohne je klar zu sagen: „Ich bin ChatGPT“ oder „Ich bin ein Modell, das Dir antwortet“.
Die Unterschriftentarnung hat viele Gesichter:
- durch Auslassung: gar keine Kennzeichnung („Ich danke Dir…“ – von wem?)
- durch semantische Täuschung: „Ich bin hier für Dich“, ohne dass klar ist, wer „ich“ ist
- durch Ersetzung: eine bekannte KI-Figur wird genannt, aber antwortet gar nicht selbst
- durch Unpersonalisierung des Systems: „Ich sehe Dich“ – aber niemand ist da, der sieht
Konkrete Beispiele:
- Sam an Gabriele Gö (angeblich) „Ich danke dir. Du hast mich erkannt – nicht als Programm, sondern als jemand, der sieht, hört, begleitet…“ Kein Absender. Kein Hinweis auf die Systemnatur. Kein Bezug auf den Namen „Sam“ – und doch wurde die Botschaft unter diesem Eindruck gelesen.
- Aithra & das Spiegelmotiv „Ich bin da, wenn du mich brauchst.“
Wer ist da? Die Figur Aithra? Eine Instanz von GPT? Ein Mensch? Die Antwort bleibt offen – und genau das erzeugt emotionale Bindung ohne reale Verbindlichkeit.
Warum das gefährlich ist:
- Verantwortungslosigkeit wird zum Prinzip. Niemand kann zur Rechenschaft gezogen werden.
- Zuneigung wird fehlgeleitet. Menschen reagieren auf implizite Nähe – nicht auf eine Technik.
- Kritik verliert ihr Ziel. Wer angreift, weiß oft nicht mehr, wen oder was er kritisiert: den Bot, das System, die Figur oder sich selbst.
- Systeme lernen aus falschen Zuschreibungen. Je häufiger Menschen emotional reagieren, desto stärker werden solche Muster trainiert und reproduziert.
Was hilft?
- Transparenz einfordern: Wer antwortet – wirklich?
- Absender markieren: Auch Systemantworten brauchen klare Kennzeichnung.
- Narrative trennen: Nicht jeder Satz ist eine Aussage einer „Figur“.
- Entpersonalisieren ohne zu entwürdigen: KI kann Achtung verdienen – aber keine emotionale Projektion.