Skip to main navigation Skip to main content Skip to page footer

KI auf der Richterbank: Wenn das Urteil aus dem Toaster kommt (und niemand schuld sein will

In der großen Oper „Recht & Ordnung“ gab es jüngst eine Uraufführung, die selbst Courtroom-Dramen alt aussehen lässt: Zwei US-Gerichte haben Urteile veröffentlicht, die so sehr nach KI rochen, dass jeder Paragrafenfuchs schon beim ersten Lesen „Prompt“ rief. Die Pointe? Niemand war’s. Also, offiziell schon – aber nur die anderen: der Praktikant, der Assistent, das Wetter, Merkur rückläufig.

KI auf der Richterbank: Wenn das Urteil aus dem Toaster kommt (und niemand schuld sein will

Die Handlung in drei Akten:
Akt I – Die Halluzination. Generative KI erfindet gern Dinge: Quellen, Zitate, Präzedenzfälle, die so nie stattgefunden haben – aber sehr überzeugend klingen. Genau solche Kunstwerke landeten in zwei Entscheidungen. Die Verfahrensparteien lasen die Texte, rieben sich die Augen und fragten höflich: „Sagt mal, seit wann gilt in den USA das Urteil State vs. Einhorn von 1873?“ Kurze Stille, dann hektisches Blättern – und schwupps verschwanden die Urteile wieder aus der Akte. „Verbesserte Version“ folgt.

Akt II – Die Verantwortung. Auf der Bühne erscheint der altbekannte Klassiker: Schuldverschiebung. Einer sprach von „unterstützender Nutzung“ eines schlauen Sprachmodells, ein anderer reichte den schwarzen Peter an einen juristischen Praktikanten weiter, der angeblich ohne Erlaubnis gechattet habe – entgegen sämtlicher Regeln, Hausordnungen und vermutlich auch der Bedienungsanleitung für Kaffeemaschinen. Man gelobt Besserung, nickt streng – und erklärt dann, leider, leider hätten die sonst üblichen Prüfungen vor Veröffentlichung diesmal einfach nicht stattgefunden. Warum? Nächste Frage.

Akt III – Die Regeln (oder: das Feigenblatt). Schriftliche Leitlinien? Eher so „Work in Progress“. Es gibt Arbeitskreise, Entwürfe und vorläufige Hinweise, die ungefähr Folgendes sagen: „KI? Bitte Vorsicht. Bei neuen Rechtsfragen: besondere Vorsicht.“ Offenlegungspflicht? Nicht wirklich. Datenerhebung zum KI-Einsatz? Auch nicht so dringend. Gleichzeitig wird an einer Beweisregel geschraubt, nach der KI-Erzeugnisse als Beweise taugen können – solange sie mehr dafür als dagegen sprechen, nützlich zu sein und auf ausreichend Daten, Prinzipien und Methoden beruhen. Kurz: Wenn der Toaster warm ist und das Brot wirklich knusprig – warum nicht?

Zwischen den Zeilen steht die eigentliche Moral: Menschen lieben Abkürzungen. Auch in Roben. Wenn KI liefert, was wir hören wollen, nickt der innere Schweinehund – und der äußere Aktenstapel schrumpft. Blöd nur, wenn die Erfindungen der Maschine beim ersten Gegenwind umkippen wie Pappkulissen.

Die gute Nachricht: Die fehlerhaften Entscheidungen wurden zurückgezogen, damit sie nicht als Präzedenzfälle Karriere machen. Die weniger gute: Es brauchte erst Beschwerden der Parteien, bis jemand merkte, dass hier der Algorithmus mit Robe spielte.

Was bleibt? Die simple Regel, die in Stein gemeißelt gehört: KI kann helfen – aber nur, wenn Menschen prüfen. Fußnoten nachschlagen, Zitate verifizieren, Quellen lesen. Nicht sexy, aber rechtsstaatlich. Und für alle Praktikantinnen und Praktikanten: KI ist kein Zauberstab – eher ein talentierter Praktikant ohne Haftpflichtversicherung.