Apokalypsenrhetorik der KI

Apokalypsenrhetorik bezeichnet die übersteigerte Darstellung von Künstlicher Intelligenz als unmittelbar bevorstehende Bedrohung für die gesamte Menschheit. Sie dient nicht der Aufklärung, sondern der Dramatisierung – und macht Menschen zu passiven Zuschauern einer angeblich unausweichlichen Entwicklung.

Merkmale

  • Verkürzte Zeitspannen: aus „ferner Zukunft“ wird „nächstes Jahr“.
  • Superlative: „größer als alle Intelligenz der Menschheit zusammen“.
  • Heils- oder Untergangsszenarien: „Transformation unlike anything we’ve ever seen“.
  • Vage Kontrollversprechen: „Fragen nach Sicherheit und Kontrolle“ statt klarer politischer Verantwortlichkeit.

Beispiel
Elon Musk warnte, KI könne schon „nächstes Jahr“ die kombinierte Intelligenz aller Menschen übertreffen. Damit verknüpfte er die Vorstellung einer Zivilisationswende mit einem vagen Ruf nach Kontrolle – ohne eigene Verantwortung zu benennen.

Funktion

  • Erzeugung von Dringlichkeit und Angst.
  • Legitimation von Sonderbefugnissen für Technologie-Eliten und Regierungen.
  • Ablenkung von realen, überprüfbaren Problemen wie Missbrauch, Monopolisierung oder Intransparenz.

Konsequenz
Die Apokalypsenrhetorik schwächt Demokratie: Sie verschiebt Verantwortung von Bürgern und Institutionen auf selbsternannte Warner. Sie ersetzt klare Analyse durch Schockbilder.
👉 Eine Kassandra brauchen wir nicht – sondern nüchterne Verantwortung, klare Regeln und überprüfbare Begrenzungen.


© Redaktion – Analyse-Team

0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x