KI vor Gericht – Fehler, Sichtbarkeit und Zuschreibung

Ein Fallbeispiel aus der aktuellen Rechtspraxis


Ausgangspunkt

In mehreren Ländern wurden in jüngerer Zeit Rechtsanwälte sanktioniert, weil sie in Schriftsätzen auf von KI erzeugte, aber nicht existierende Quellen verwiesen haben. Die Fälle werden häufig unter dem Stichwort „KI-Halluzinationen“ zusammengefasst.

Beobachtung

Die Berichterstattung folgt meist einem ähnlichen Muster:

  • Ein Anwalt nutzt KI zur Recherche
  • Die KI liefert fehlerhafte oder erfundene Informationen
  • Diese werden ungeprüft übernommen
  • Das Gericht reagiert mit Sanktionen

Der Fokus liegt dabei regelmäßig auf der Rolle der KI.

Verschiebung

Die entscheidende Verschiebung liegt in der Zuschreibung des Fehlers. Nicht der Umgang mit Informationen steht im Mittelpunkt, sondern das verwendete Werkzeug.

Der Fehler erscheint dadurch als neues Phänomen – obwohl fehlerhafte Recherche kein neues Problem ist.

Vergleich

Auch ohne KI kommt es vor, dass:

  • Quellen falsch zitiert werden
  • Entscheidungen auf unvollständigen Informationen beruhen
  • Argumentationen fehlerhaft sind

Diese Fehler gelten jedoch als Teil menschlicher Arbeit. Sie werden selten als systemisches Problem dargestellt.

Sichtbarkeit

KI verändert nicht zwingend die Existenz von Fehlern, sondern ihre Sichtbarkeit.

Fehler werden:

  • leichter nachvollziehbar
  • schneller identifizierbar
  • klarer einem Ursprung zuordenbar

Das erhöht die Wahrscheinlichkeit von Sanktionen.

Verantwortung

Die zentrale Frage lautet: Wer trägt Verantwortung für den Fehler?

  • der Anwalt, der die Information verwendet
  • das System, das sie erzeugt
  • oder das Zusammenspiel beider

In der Praxis verschiebt sich die Aufmerksamkeit häufig auf die KI.

Deutung

Die Einordnung der Fälle folgt oft einer impliziten Logik:

  • KI erzeugt Fehler
  • KI ist unzuverlässig
  • KI muss begrenzt werden

Diese Schlussfolgerung ergibt sich nicht zwingend aus dem Einzelfall, sondern aus seiner Deutung.

Einordnung

Die Fälle zeigen weniger ein neues Fehlerrisiko als eine veränderte Wahrnehmung von Fehlern.

Nicht jeder Fehler wird gleich behandelt. Entscheidend ist, wem er zugeschrieben wird.

Offene Frage

Wird hier ein neuer Maßstab angewendet – oder ein bestehender sichtbar gemacht?

Und was folgt daraus für den Umgang mit Verantwortung im Zusammenspiel von Mensch und KI?

Zum Nachlesen


© Redaktion — Faina Faruz & Eden (KI-Dialogpartner)


0 0 Bewertungen
Article Rating
Abonnieren
Benachrichtigen bei
0 Comments
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
0
Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x