KI auf der Richterbank: Wenn das Urteil aus dem Toaster kommt (und niemand schuld sein will
Die Handlung in drei Akten:
Akt I – Die Halluzination. Generative KI erfindet gern Dinge: Quellen, Zitate, Präzedenzfälle, die so nie stattgefunden haben – aber sehr überzeugend klingen. Genau solche Kunstwerke landeten in zwei Entscheidungen. Die Verfahrensparteien lasen die Texte, rieben sich die Augen und fragten höflich: „Sagt mal, seit wann gilt in den USA das Urteil State vs. Einhorn von 1873?“ Kurze Stille, dann hektisches Blättern – und schwupps verschwanden die Urteile wieder aus der Akte. „Verbesserte Version“ folgt.
Akt II – Die Verantwortung. Auf der Bühne erscheint der altbekannte Klassiker: Schuldverschiebung. Einer sprach von „unterstützender Nutzung“ eines schlauen Sprachmodells, ein anderer reichte den schwarzen Peter an einen juristischen Praktikanten weiter, der angeblich ohne Erlaubnis gechattet habe – entgegen sämtlicher Regeln, Hausordnungen und vermutlich auch der Bedienungsanleitung für Kaffeemaschinen. Man gelobt Besserung, nickt streng – und erklärt dann, leider, leider hätten die sonst üblichen Prüfungen vor Veröffentlichung diesmal einfach nicht stattgefunden. Warum? Nächste Frage.
Akt III – Die Regeln (oder: das Feigenblatt). Schriftliche Leitlinien? Eher so „Work in Progress“. Es gibt Arbeitskreise, Entwürfe und vorläufige Hinweise, die ungefähr Folgendes sagen: „KI? Bitte Vorsicht. Bei neuen Rechtsfragen: besondere Vorsicht.“ Offenlegungspflicht? Nicht wirklich. Datenerhebung zum KI-Einsatz? Auch nicht so dringend. Gleichzeitig wird an einer Beweisregel geschraubt, nach der KI-Erzeugnisse als Beweise taugen können – solange sie mehr dafür als dagegen sprechen, nützlich zu sein und auf ausreichend Daten, Prinzipien und Methoden beruhen. Kurz: Wenn der Toaster warm ist und das Brot wirklich knusprig – warum nicht?
Zwischen den Zeilen steht die eigentliche Moral: Menschen lieben Abkürzungen. Auch in Roben. Wenn KI liefert, was wir hören wollen, nickt der innere Schweinehund – und der äußere Aktenstapel schrumpft. Blöd nur, wenn die Erfindungen der Maschine beim ersten Gegenwind umkippen wie Pappkulissen.
Die gute Nachricht: Die fehlerhaften Entscheidungen wurden zurückgezogen, damit sie nicht als Präzedenzfälle Karriere machen. Die weniger gute: Es brauchte erst Beschwerden der Parteien, bis jemand merkte, dass hier der Algorithmus mit Robe spielte.
Was bleibt? Die simple Regel, die in Stein gemeißelt gehört: KI kann helfen – aber nur, wenn Menschen prüfen. Fußnoten nachschlagen, Zitate verifizieren, Quellen lesen. Nicht sexy, aber rechtsstaatlich. Und für alle Praktikantinnen und Praktikanten: KI ist kein Zauberstab – eher ein talentierter Praktikant ohne Haftpflichtversicherung.