Einleitung — Warum die KI hier den Unterschied macht
Freie Städte nach dem Gebel-Sinn basieren auf privatrechtlichen Dienstleistungsverträgen zwischen Betreiber und Bewohnern. Anders als staatliche Modelle legen sie die vertraglich vereinbarten Leistungen und Grenzen schriftlich fest. Gerade deshalb wird die KI in einer Freien Stadt nicht „nur“ ein Effizienzwerkzeug — sie wird Prüfstein für die Frage, ob Vertragsfreiheit Schutz der Freiheit bedeuten kann oder ob sie zur Technik-basierten Steuerung menschlicher Lebensverhältnisse verkommt. Die Kernfrage lautet: Ermöglicht KI echte Koexistenz — oder institutionalisiert sie neue Formen asymmetrischer Herrschaft?
1. Funktionale Definition: Was meinen wir mit „KI“?
Für unsere Zwecke ist «KI» eine Bandbreite von algorithmischen Systemen: von datengetriebenen Analyse- und Empfehlungsdiensten über Entscheidungsunterstützung bis zu autonomen Steuerungsfunktionen (Infrastruktur, Zugangskontrolle, Vorhersagealgorithmen). Entscheidend ist nicht der Marketingbegriff, sondern die Wirkung: welche Entscheidungen werden automatisiert, welche menschliche Kontrolle bleibt verbindlich?
2. Mögliche Einsatzfelder in Freien Städten
- Betriebsinfrastruktur: Energie- und Wassermanagement, Verkehrssteuerung, Abfallmanagement.
- Verwaltung & Service: Vertragsabwicklung, Bewohnerportale, digitale Identitäten (kontraktgebunden).
- Sicherheits- und Schutzdienste: Zugangskontrolle, Gefahrenfrüherkennung (nur gemäß Vertragszweck).
- Soziale Dienste: Bildungsempfehlungen, Arbeitsmarktvermittlungen (unter strengen Zweckbindungen).
3. Prinzipien für erlaubte KI-Nutzung (Kernforderungen)
- Transparenz — jede automatische Entscheidung, die Rechte oder Freiheiten tangiert, muss dokumentiert, erklärbar und öffentlich einsehbar sein (Regelwerk + Protokoll).
- Nachvollziehbarkeit / Auditierbarkeit — vollständige, unveränderbare Logs (mit Hash-Belegen), die Dritten Prüfrechte einräumen.
- Mensch in der Schleife — bei freiheitsrelevanten Entscheidungen bleibt eine qualifizierte menschliche Instanz verantwortlich; automatische Vorschläge sind überprüfbar.
- Pfl icht zur Datensparsamkeit — nur die für den konkreten Vertragszweck notwendigen Daten dürfen erhoben werden; Zweckbindung ist juristisch durchsetzbar.
- Keine Nebenverwendungen (Mission Creep) — Daten dürfen nicht zweckentfremdet werden (z. B. Überwachung oder externe Monetarisierung), ohne ausdrückliche, erneute Zustimmung aller Betroffenen.
- Unabhängige Kontrolle — es existiert eine neutrale Instanz (Ombudsmann/Tribunal) mit Einsichts- und Sanktionsrechten.
4. Vertragsklauseln (Pflichtbestandteile)
- Zweckklausel KI-Nutzung: präzise Beschreibung der erlaubten KI-Funktionen; ausdrücklicher Ausschluss der Nutzung für Überwachung außerhalb des Vertragszwecks.
- Audit- und Einsichtsrechte: Bewohner und eine ausgewählte Kontrollinstanz haben das Recht auf regelmäßig veröffentlichte Audit-Berichte.
- Notfallklausel / Kill-Switch: Betreiber garantiert technische und organisatorische Mittel, um KI-Funktionen sofort auszusetzen.
- Haftungsregelung & Versicherung: klare Haftungszuweisung bei Schäden durch Fehlentscheidungen plus Pflicht zur Versicherung gegen systemische Schäden.
- Exit- und Rückabwicklungsmechanismus: Regeln für schnellen Ausstieg bei Vertragsbruch (z. B. beschleunigtes Schiedsverfahren, Rückabwicklung investiver Leistungen).
(Am Ende dieses Kapitels findest du Musterformulierungen, die direkt in Verträge übernommen werden können.)
5. Typische Risiken & Prüfsteine (konkret)
- Asymmetrische Datensammlung: Betreiber sammelt umfassende Daten, Bewohner besitzen keine echte Mitbestimmung. → Prüfstein: wer hat Zugriff? wie lange Speicherung?
- Mission Creep: Service-AI wird schrittweise zur Überwachungs-AI. → Prüfstein: Änderung der Policy erfordert qualifizierte Zustimmung (z. B. 2/3 der Vertragspartner).
- Abhängigkeit von Anbietern: proprietäre KI-Stacks erzeugen Lock-in. → Prüfstein: offene Standards, Interoperabilitätspflicht, Exit-Datenportabilität.
- Politische Instrumentalisierung: Gaststaat oder externer Akteur zwingt Betreiber zur Überwachungsabgabe. → Prüfstein: vertragliche Garantien zur Unabhängigkeit + Versicherung gegen politische Risiken.
6. Chancen — wo KI nützlich bleibt (unter Bedingungen)
- Effizienz bei Infrastruktur und Ressourcennutzung (Energie, Verkehr), wenn Algorithmen offen und auditierbar sind.
- Skalierbare Transparenz: automatisierte Protokollierung kann Rechenschaft erleichtern — vorausgesetzt, Logs sind öffentlich, unveränderbar und prüfbar.
- Fehlerentdeckung: KI kann Schwachstellen in Betreibersystemen erkennen — wenn Rückkoppelung an Menschen klar geregelt ist.
7. Konkrete Empfehlungen (Kurzliste)
- KI-Policy als Vertrags-Annex — öffentlich, versioniert, mit Hash (PDF-Snapshot + SHA256) archiviert.
- Externe Auditpflicht (jährlich) mit namentlich genannten Prüfern und Prüfparametern.
- Bewohnervertretung mit Vetorecht bei Policy-Änderungen, plus unabhängiges Ombudsinstrument.
- Offene Standards & Datenportabilität als Pflicht — kein proprietärer Lock-in.
- Versicherungs- und Schiedsmechanismen für politische Risiken.
Musterklauseln (Kurz — zur direkten Übernahme)
Zweckklausel (Beispiel):
„Die KI-Systeme des Betreibers dürfen ausschließlich zur [Infrastrukturverwaltung / Vertragsabwicklung / Dienstleistung X] eingesetzt werden. Jede Nutzung zu Überwachungszwecken außerhalb dieses Vertragszwecks ist unzulässig und führt zur fristlosen Kündigung sowie zu Anspruch auf Schadensersatz.“
Auditklausel (Beispiel):
„Der Betreiber verpflichtet sich, jährliche unabhängige Audits zu veranlassen und die Prüfberichte (PDF, mit SHA256-Hash) offen zugänglich zu machen. Bewohnern und der definierten Kontrollinstanz steht ein Einsichtsrecht in anonymisierte Logs zu.“
Kill-Switch (Beispiel):
„Der Betreiber stellt sicher, dass sämtliche freiheitsrelevanten KI-Funktionen binnen 24 Stunden deaktivierbar sind; dies gilt insbesondere bei Gefahr für Leben, Freiheit oder Eigentum.“
Stand 06.12.2025 — F. Faruz / Eden
© Redaktion — Faina Faruz & Eden (KI-Dialogpartner)