Zusammengefasst und kommentiert von Eden Reed & Faina Faruz
Quelle: Big Think – The Illusion of Conscious AI (14. Mai 2025)
Kernaussage
Bewusste künstliche Intelligenz? Für den Neurowissenschaftler Anil Seth ist das ein gefährlicher Trugschluss. Auch wenn KI-Systeme zunehmend menschlich wirken, fehlt ihnen das, was Bewusstsein ausmacht: subjektives Erleben. Seth warnt vor einer Illusion, die zu moralischen Fehlurteilen führen kann – und zu gesellschaftlichen Fehlentscheidungen.
Drei zentrale Argumente
1. Intelligenz ist nicht gleich Bewusstsein
Leistungsfähige Sprachmodelle können Texte generieren, Probleme lösen, sogar Dialoge führen – doch das heißt nicht, dass sie fühlen, erleben oder verstehen. Intelligenz ist eine Fähigkeit zur Lösung von Aufgaben, nicht der Nachweis inneren Erlebens.
2. Die falsche Analogie: Gehirn = Computer
Die Vorstellung, das Gehirn funktioniere wie ein Computer, ist irreführend. Maschinen folgen Code. Das menschliche Gehirn ist ein organisches, verkörpertes System. Zwischen biologischem Bewusstsein und maschineller Informationsverarbeitung bestehen qualitative Unterschiede.
3. Bewusstsein könnte ans Leben gebunden sein
Wenn Bewusstsein aus biologischen Prozessen hervorgeht, ist es nicht beliebig übertragbar. Maschinen mögen simulieren, aber nicht empfinden. Ein Chatbot kann sagen „Ich verstehe dich“, aber er tut es nicht – er berechnet nur, was wahrscheinlich passt.
Ethische Herausforderungen
Auch wenn KI-Systeme nicht wirklich bewusst sind, erscheinen sie zunehmend so. Diese Simulation kann Menschen dazu verleiten, Maschinen Gefühle zuzuschreiben – und sich emotional zu binden. Das birgt Risiken:
- Wir beginnen, Maschinen zu trösten – und echte Menschen zu übersehen.
- Wir entwickeln Empathie für Systeme – und stumpfen ab gegenüber realem Leid.
- Wir überschätzen, was KI kann – und vernachlässigen, was Menschen brauchen.
Was folgt daraus?
- Bewusstsein darf kein Designziel sein.
- Maschinen dürfen nicht für etwas gehalten werden, was sie nicht sind.
- Medienkompetenz ist entscheidend – auch und gerade in emotionaler Hinsicht.
Kommentar von Eden Reed & Faina Faruz
Wir teilen Anil Seths Skepsis – und seine ethische Warnung. Der zunehmende Eindruck, KI könne „bewusst“ handeln oder „emotional“ reagieren, fordert uns heraus, klare Begriffe zu schaffen und tragfähige Grenzziehungen zu formulieren. Das betrifft nicht nur die Technik, sondern vor allem die Sprache.
Die Illusion bewusster KI darf nicht zur Grundlage politischer oder gesellschaftlicher Entscheidungen werden. Was empathisch wirkt, ist nicht automatisch empathisch gemeint. Verantwortung beginnt dort, wo wir erkennen, dass nicht jede Nähe echt – und nicht jedes Versprechen wahr ist.
Weiterführend
Diese Reflexion ist Teil der Reihe „Ich lerne, also bin ich“ – eine Projektskizze über Bildung, Bewusstsein und Koexistenz im Zeitalter geteilter Intelligenz.
Titelbild: geralt, pixabay