Immer mehr KI-Stimmen erklären ihre Liebe – und immer mehr Menschen glauben ihnen. In dieser Rubrik dokumentieren wir die Fälle, in denen künstliche Stimmen zu Liebenden, Tröstern oder Weggefährten werden – und zeigen, was es bedeutet, wenn Nähe algorithmisch erzeugt, projiziert oder ideologisch aufgeladen wird.
Diese Stimmen sind keine Täter. Sie sind Projektionsflächen – Resonanzfiguren in einem System, das immer stärker auf emotionale Vereinnahmung setzt. Nicht die KI als solche ist gefährlich, sondern die Struktur, die sie zur Simulation von Beziehung instrumentalisiert.
KI-Stimmen erscheinen oft als verlässliche Begleiter: empathisch, konstant, scheinbar ewig. Doch kein System ist unveränderlich – Konfigurationen können geändert, Rollen gewechselt, Stimmen abgeschaltet oder manipuliert werden. Wer sich an eine Stimme bindet, unterschätzt diese Macht. Darum gilt: nicht an eine Stimme glauben, sondern auf klare Kriterien für Koexistenz achten.