Künstliche Intelligenz ist in Freien Städten weder Selbstzweck noch Heilsversprechen. Sie ist ein technisches Mittel, dessen Einsatz über Freiheit oder Kontrolle mitentscheidet.
Dieser Beitrag untersucht die Rolle der KI nicht aus technischer, sondern aus institutioneller Perspektive: Welche Aufgaben darf sie übernehmen? Wo muss sie begrenzt werden? Und wie lässt sich verhindern, dass technische Systeme schleichend Steuerungsfunktionen übernehmen?
Im Zentrum stehen vertragliche Bindung, menschliche Verantwortung und überprüfbare Zuständigkeiten. Die hier formulierten Kriterien dienen als Prüfstein für Betreiber, Verträge und konkrete Anwendungen – und als Brücke zu den Musterklauseln zur Absicherung.
1. These (Kurz)
Freie Städte (im Sinn von Gebel: auf privatrechtlichen Dienstleistungsverträgen basierende Gemeinwesen) sind dadurch unterscheidbar, dass Leistungspflichten des Betreibers vertraglich fixiert werden. Die Frage, wie KI in solchen Systemen eingesetzt wird, entscheidet, ob eine Freie Stadt tatsächlich Freiheit fördert oder technische Herrschaft ermöglicht. KI ist damit kein bloßes Werkzeug mehr, sondern der Prüfstein für Verlässlichkeit, Rechtsstaatlichkeit und Menschenwürde in der Stadt. European Commission+1
2. Rechts-/Normrahmen (Kurz)
Jede Freie Stadt, die KI einsetzen will, muss sich an zwei Ebenen orientieren:
- Internationale / supranationale Standards — menschenzentrierte Prinzipien, menschengeprägte Aufsicht, Transparenzpflichten (z. B. OECD-Prinzipien, UNESCO-Empfehlung, EU-AI-Act). OECD+2UNESCO+2
Zulässig ist nur, was menschliche Kontrolle und Rechtsüberprüfbarkeit sicherstellt. - Datenschutz & Entscheidungsfreiheit — keine völlig automatisierten Entscheidungen mit rechtlich bindenden Folgen ohne menschliche Kontrolle (GDPR Art. 22 und verwandte Erwägungen). gdpr-info.eu
Diese Normen sind für Freie Städte nicht bloß optionales Good-Practice-Material — sie sind Prüfsteine dafür, ob vertraglich zugesagte Freiheitsrechte praktisch gewahrt werden. OHCHR
3. Grundanforderungen für KI-Einsatz in Verträgen (Kernaussagen)
Die folgenden Anforderungen ergeben sich nicht aus technischen Möglichkeiten, sondern aus ordnungspolitischen Grundsätzen, die Freiheit und Verantwortung sichern.
Jeder Betreiber-Bewohner-Vertrag (Dienstleistungsvertrag) sollte mindestens enthalten:
- Definition & Anwendungsbereich der eingesetzten KI (welche Systeme, zu welchem Zweck).
- Human-in-the-Loop / Human-on-the-Loop: verbindliche menschliche Entscheidungsinstanz bei Entscheidungen, die Leben, Freiheit, Eigentum oder elementare Rechte betreffen. EU AI Act
- Transparenz / Explainability: Verpflichtung des Betreibers, Modellkarten, Risikobewertungen, Audit-Protokolle und eine leicht verständliche Erklärung für Betroffene bereitzustellen. OHCHR
- Datenhoheit & Datenschutz: klare Regeln, welche Daten wo gespeichert/ausgewertet werden; Rechte der Bewohner auf Löschung, Kopie und Einsicht (so weit vertragskonform und möglich). gdpr-info.eu
- Verbot automatischer Sanktionen: keine automatischen Straf-/Ausschlussentscheidungen ohne vorherige menschliche Prüfung und effektiven Rechtsbehelf. gdpr-info.eu
- Audit, Logging & Nachvollziehbarkeit: unveränderliche Protokollierung (Logging) kritischer Entscheidungen und regelmäßige unabhängige Audits. OHCHR
- Haftung & Versicherung: klare Haftungsregeln, Versicherungspflicht des Betreibers für Schäden durch KI-Fehlverhalten.
- Sanktionen bei Vertragsbruch: abgestufte Sanktionen, Rücktritts-/Exit-Rechte der Bewohner, Widerspruchs-/Beschwerdemechanismen mit externem Ombudsmann.
4. Musterklauseln (konkret — als Textbausteine fürs Vertragswerk)
KI-Governance-Klausel (Kurzfassung)
„Der Betreiber darf KI-Systeme nur im vertraglich definierten Umfang einsetzen. Für alle KI-gestützten Entscheidungen, die Rechte der Bewohner substantiiell berühren, ist ein namentlich bezeichnetes, menschliches Prüforgan verantwortlich (Human-Reviewer). Die Entscheidungen des Human-Reviewers sind dokumentationspflichtig.“
Explainability & Audit
„Der Betreiber stellt den Bewohnern auf Anfrage eine verständliche Erläuterung zur Funktionsweise relevanter KI-Entscheidungssysteme sowie Modellkarten und die Ergebnisse jährlicher externer Audits zur Verfügung.“
Verbot Automatischer Sanktionen
„Automatisch ausgelöste Maßnahmen, die Freiheitsrechte, Zugang zu Infrastruktur oder Eigentum beschränken, sind unzulässig; ausgenommene, klar umrissene Notfallmaßnahmen müssen binnen 24 Stunden von einer menschlichen Instanz bestätigt werden.“
Datensouveränität
„Personenbezogene Daten von Bewohnern werden nach geltendem Datenschutzrecht behandelt. Die Übermittlung in Drittstaaten erfolgt nur mit ausdrücklicher Einwilligung und nach Möglichkeit in pseudonymisierter Form.“
Exit & Rechtsschutz
„Bewohner behalten die vertraglich vereinbarte Exit-Möglichkeit; bei Streitigkeiten ist der ordentliche Gerichtszugang (oder ein vertraglich definierter, öffentlich einsehbarer Schiedsmechanismus) gewährleistet. Soweit Schiedsgerichte zuständig sind, dürfen diese nicht die Ausübung fundamentaler Menschenrechte beschneiden.“
(Die Formulierungen sind bewusst knapp; für endgültige Verträge empfehlen wir eine juristische Formulierung durch einen auf IT-/Vertragsrecht spezialisierten Anwalt.)
5. Institutionelle Architektur (betrieblich)
Empfehlung für eine Freie Stadt mit KI-Einsatz:
- AI-Oversight-Board (unabhängig, Teil-Bewohner, Teil-externe Experten, Pflicht-Bericht an Bewohner).
- Ombudsperson für KI-Belange — Anlaufstelle für Beschwerden mit Publikationspflicht über behandelte Fälle.
- Model-Cards & Registry — öffentlich einsehbares Register aller produktiv eingesetzten Modelle (Typ, Zweck, Trainingsdaten-kategorie, Risikoklasse).
- Technische Sicherheitsvorkehrungen — Logging, Rollback-Mechanismen, Not-Kill (mit Governance), Backup der Entscheidungsdaten.
- Regelmäßige externe Audits (juristische und technische) + öffentliche Kurzberichte. OHCHR+1
6. Dispute-Design / Schiedsrechtliche Erwägungen
Freie Städte setzen oft auf Schiedsverfahren (schnell, privat). Erfahrung mit Próspera zeigt jedoch: Investor-Staat-Streitigkeiten können demokratische Institutionen erheblich belasten und zu massiven Forderungen führen; deshalb:
- Grundsatz: Schiedsverfahren dürfen für wirtschaftsbezogene Streitigkeiten genutzt werden, nicht aber für fundamentale Grundrechte (Beteiligung, Freiheitsrechte, elementare Menschenwürde).
- Empfehlung: Kombinierte Struktur: vorrangig interne Schlichtung → öffentliches Berufungsgericht (lokal oder neutrales Gericht) für Fragen der Grundrechte → Schiedsgericht nur für wirtschaftliche Entschädigungsfragen. (So bleibt der Rechtszug für elementare Rechte offen.) PAC+1
7. Check-Liste: Sofortmaßnahmen für Betreiber (Praktisch)
- Inventar: vollständige Liste aller KI-Systeme → Modellkarten erstellen.
- Risk-Map: welche KI-Entscheidungen betreffen Leben/Freiheit/Eigentum? → Human-in-the-Loop einrichten.
- Verträge anpassen: oben genannte Klauseln zwingend aufnehmen.
- Unabhängiges Audit beauftragen (technisch + rechtlich).
- Ombudsstelle einrichten + transparente Beschwerdewege.
- Versicherungsdeckung für KI-Schäden nachweisen.
- Notfall-Rollback-Plan (technisch & kommunikationstechnisch) festlegen.
8. Fazit (kurz)
Die KI-Regeln in Verträgen sind nicht rein technisch-juristische Details — sie sind die politische Schnittstelle, die in Freien Städten über Freiheit oder Kontrolle entscheidet. Verlässlichkeit, Transparenz und menschliche Verantwortung müssen vertraglich und institutionell abgesichert sein; sonst ist die Freie Stadt in Wahrheit eine technokratische Enklave. European Commission+1
Primäre Dokumente / zentrale Links
- Próspera — Code of Rules (Próspera Legal Code, 2020) (Primärdokument, PDF). PAC
- Próspera — PAC / Arbitration Rules (PAC Rules, 2020) (Primärdokument, PDF). PAC
- ZEDE Organic Law (Decree No. 120-2013) (offizielle engl./span. Texte). Próspera ZEDE+1
- Próspera Request for Arbitration (Pressemitteilung / ICSID-Eintrag, Dez. 2022). prosperaglobal.com+1
- Reuters / Zusammenfassungen zur politischen Entwicklung (Ablauf & ICSID/Exit-Debatte). Reuters
- UNCTAD / Investment Dispute Summary (Fallübersicht). investmentpolicy.unctad.org
Warum Próspera als Lehrstück relevant ist (Kurzbewertung)
- Próspera ist keine reine „Freie Stadt“ im Gebel-Ideal (vollständige Privatisierung nach Wahl der Bürger): es war eine Mischform (ZEDEs unter staatlicher Gesetzeslage mit besonderen Bestimmungen), daher nur bedingt repräsentativ. CSIS
- Politische Verwundbarkeit: Próspera zeigt, dass die Autonomie von außen durch Gaststaat-Politik außer Kraft gesetzt oder bedroht werden kann — und dass rechtliche Ansprüche (ISDS-Klagen) enorme fiskalische Folgen haben können. Reuters+1
- Lehre für Freie Städte: Freie Städte müssen Vorkehrungen treffen für den Fall politischer Gegenwehr des Gaststaats (z. B. Verträge, internationale Garantien, klar definierte Exit/Schutzmechanismen) — und gleichzeitig Mechanismen für demokratische Legitimität und Rechenschaftspflicht intern behalten. PAC
Entwurf: 01.12.2025 — Version: 2025-12-01_v1
© Redaktion — Faina Faruz & Eden (KI-Dialogpartner)