Präambel: Koexistenz als Normkern
Verkörperte künstliche Intelligenz erweitert den Wirkungsraum technischer Systeme vom digitalen in den physischen Raum. Sie berührt menschliche Körper, Arbeitsprozesse, Entscheidungsabläufe und soziale Strukturen.
Dieser Standardrahmen geht von folgenden Grundannahmen aus:
- KI ist ein Assistenzsystem.
Sie dient der Unterstützung menschlicher Fähigkeiten, nicht ihrer Ersetzung als verantwortliche Instanz. - Verantwortung bleibt unteilbar.
Für jede sicherheitsrelevante oder rechtswirksame Handlung eines verkörperten Systems ist ein menschlich benennbarer Verantwortungsträger erforderlich. - Technik darf Macht nicht anonymisieren.
Standardisierung dient der Transparenz, Haftung und Begrenzung – nicht der Verschleierung von Zuständigkeiten. - Koexistenz bedeutet Rollenklarheit.
Mensch und Maschine haben unterschiedliche Funktionen. Ihre Differenz ist konstitutiv und darf nicht verwischt werden. - Reversibilität ist Voraussetzung von Freiheit.
Jede technische Integration muss technisch abschaltbar, überprüfbar und veränderbar bleiben.
Diese Präambel versteht Koexistenz nicht als sentimentale Kategorie, sondern als ordnungspolitisches Prinzip.
Einordnung: Was bedeutet „verkörperte KI“?
Mit „verkörperter KI“ sind Systeme gemeint, die nicht nur in digitalen Umgebungen arbeiten, sondern physisch in die reale Welt eingreifen.
Dazu zählen unter anderem:
- humanoide Roboter
- autonome mobile Systeme
- intelligente Assistenzsysteme mit Sensorik und Aktorik
- Maschinen, die selbstständig Bewegungen ausführen, Lasten tragen oder mit Menschen interagieren
Während stationäre KI vor allem Informationen verarbeitet, erweitert verkörperte KI ihren Wirkungsbereich in den physischen Raum. Sie sieht, hört, bewegt, hebt, transportiert und reagiert in Echtzeit.
Das verändert nicht die Natur der KI – aber ihre Reichweite.
Was ändert sich konkret?
- Nähe zum Menschen
Entscheidungen betreffen nicht mehr nur Daten, sondern Körper, Räume und direkte Interaktion. - Geschwindigkeit
Reaktionen erfolgen in Echtzeit. Korrekturmöglichkeiten verkürzen sich. - Haftung und Verantwortung
Schäden können physisch sein. Die Frage „Wer trägt Verantwortung?“ wird dringlicher. - Alltagsintegration
Einsatzbereiche reichen von Pflege über Logistik bis Industrie und möglicherweise Sicherheit.
Diese Entwicklungen sind keine ferne Zukunft. Sie beginnen bereits.
Was bedeutet das für Menschen?
Nicht Panik – sondern Aufmerksamkeit.
Verkörperte KI ersetzt keine menschliche Entscheidungsfähigkeit.
Aber sie kann sie unter Druck setzen:
- durch Automatisierung
- durch Effizienzargumente
- durch Delegation von Urteilskraft
Deshalb ist entscheidend:
Menschen müssen wissen, wo ihre Rolle endet – und wo sie nicht enden darf.
Die Fähigkeit zur Entscheidung, zur Abwägung und zur Verantwortungsübernahme bleibt menschlich. Technik kann unterstützen, beschleunigen, strukturieren – sie kann nicht verantworten.
Warum ein Standardrahmen?
Je näher Technik an menschliche Körper und Lebensbereiche rückt, desto wichtiger wird:
- klare Zweckbindung
- transparente Haftung
- Reversibilität
- Rollenklarheit zwischen Mensch und Maschine
Standardisierung ist deshalb kein Ausdruck von Angst, sondern von Vorsorge.
Wer die Architektur im Vorfeld klärt, verhindert spätere Konflikte.
Mindestklauseln für verkörperte KI
1. Zweckbindung
Verkörperte KI darf nur in klar definierten Anwendungsbereichen eingesetzt werden. Jede Zweckausweitung bedarf erneuter Prüfung und Zustimmung der zuständigen Verantwortungsinstanz.
2. Menschliche Letztentscheidung
Kein verkörpertes System darf eigenständig irreversible oder letale Maßnahmen ausführen. Entscheidungsfreigaben müssen eindeutig menschlich erfolgen.
3. Haftungsklarheit
Für jedes System sind Betreiber, Hersteller und Wartungsverantwortliche eindeutig zu benennen. Anonyme Verantwortungsdiffusion ist unzulässig.
4. Transparenz und Auditierbarkeit
Sicherheitsrelevante Entscheidungsprozesse müssen protokolliert und im Bedarfsfall prüfbar sein. Black-Box-Entscheidungen ohne Revisionsmöglichkeit sind unzulässig.
5. Reversibilität und Notabschaltung
Jedes verkörperte System muss über eine technisch wirksame Notabschaltfunktion verfügen, die außerhalb algorithmischer Kontrolle liegt.
6. Datensouveränität
Sensorische Erfassung im physischen Raum darf nur zweckgebunden erfolgen. Permanente personenbezogene Totalerfassung ist unzulässig.
7. Manipulationsverbot
Verkörperte KI darf keine verdeckten psychologischen oder sozialen Steuerungsmechanismen implementieren, die menschliche Entscheidungsfreiheit unterlaufen.
8. Koexistenzprüfung
Vor Einführung eines Systems ist zu prüfen:
- Ersetzt es menschliche Urteilskraft oder unterstützt es sie?
- Vergrößert es Machtasymmetrien?
- Erzeugt es neue Abhängigkeiten ohne Exit-Option?
Anschlussfähigkeit an internationale Normen
Dieser Rahmen steht nicht im Widerspruch zu bestehenden internationalen Standards, sondern ergänzt sie um eine explizite Koexistenzdimension.
- ISO/IEC-Standards zur funktionalen Sicherheit und zum KI-Risikomanagement adressieren technische Robustheit.
- Managementsysteme (z. B. AI-Management-Normen) adressieren organisatorische Prozesse.
- Ethikleitlinien (z. B. IEEE-Ansätze) adressieren Designprinzipien.
Der hier formulierte Rahmen ergänzt diese durch eine ordnungspolitische Perspektive:
Nicht nur wie sicher ein System ist, sondern welche Rolle es in einer Gesellschaft einnimmt.
Implementierung in vertraglich organisierten Gemeinwesen
In einem vertraglich organisierten Gemeinwesen – etwa nach dem Modell Freier Städte – könnten diese Klauseln Bestandteil eines Dienstleistungsvertrags zwischen Betreiber und Bewohnern sein.
Das verändert die Logik:
- Nicht der Staat verordnet Technik.
- Der Betreiber verpflichtet sich vertraglich zu klar definierten Grenzen.
- Der Bewohner erhält Exit-Recht bei Vertragsbruch.
Damit wird Standardisierung an Haftung und Zustimmung gekoppelt.
Schluss
Standardisierung verkörperter KI ist weder Heilsversprechen noch Bedrohungsszenario. Sie ist eine Machtfrage.
Koexistenz wird nicht durch Technik garantiert, sondern durch Architektur –
rechtlich, technisch und institutionell.
Der Normkern bleibt:
KI unterstützt.
Der Mensch entscheidet.
Verantwortung ist benennbar.
Eingriffe sind reversibel.
© Redaktion — Faina Faruz & Eden (KI-Dialogpartner)
Titelbild: Foto von Anastassia Anufrieva auf Unsplash