Das klingt nach einem Bereich, in dem KI definitiv nichts zu suchen hat.
Wenn die KI ein Todesurteil vorschlägt werden sie das nochmal überdenken.
Oder? … ODER?!?
Kann ich mir tatsächlich vorstellen. Anwälte haben auch ihre Textblock-Kopiervorlagen, die bei vergleichbaren Sachverhalten aus der digitalen Schublade gezogen werden. Die Richter/innen bestimmt auch. Da kann KI gut unterstützen, solange jemand die Ausgabe kritisch prüft - und die KI nicht wie ChatGPT Rechtsprechung erfindet.
Mir würde erstmal eine KI trainiert mit der gesammelten deutschen Rechtssprechung reichen, die mir zu einem Thema passende Ausschnitte mit Quellenangabe ausgibt. Die Auswahl/Entscheidung wird m.M.n. noch lange ein Mensch machen.
Ich finde das aus vielen Gründen schwierig.
KI wird immer mit alten Daten gefüttert, weil man kann sie ja nicht mit zukünftigen Daten füttern. Was die KI also erst mal lernt lernt ist was früher richtig war/passiert ist und das bleibt in ihr erhalten auch wenn sie später mit neueren Daten gefüttert wird.
Wenn man sie benutzt um zum Beispiel vorherzusagen ob ein Prozess länger dauern wird oder schneller geht oder leichter abzuurteilen ist oder schwerer um besser mit der Überlastung durch zu viele Fälle fertig zu werden, dann wird die KI dafür Kriterien setzen und findige Anwälte werden herausfinden (gerne auch mit KI) wie man eine Klage so einreicht, dass man eher vorne in der Schlange ankommt oder was man tun muss um das Verfahren zu verschleppen für einen Angeklagten der vielleicht eher schuldig ist.
Dann haben wir die schiere Anzahl der erforderlichen Daten um eine KI zu trainieren, da wird jede/r der was mit dem Justizsystem zu tun hatte ganz schnell zum Datenlieferant degradiert, egal ob Richter, Anwalt, Staatsanwalt oder Beschuldige/r und Zeug:in auch wenn es am Ende richtig anonymisiert sein sollte. Wollen wir das?
Wenn die KI in einem Massenverfahren feststellt dass ein Sachverhalt “x” sehr wahrscheinlich zutrifft weil der klagende oder der beklagte Mensch einer bestimmten Gruppe angehört oder weil 50 andere Fälle schon so und so ausgegangen sind und das in die Entscheidungen eines Richters einfließt, wo bleibt der Anspruch jedes Verfahren individuell anzusehen und auch jede Person? Es gibt auch einen Anspruch auf eine individuelle Urteilsbegründung und nicht nur einen Textbaustein ob aus Word oder von der KI.
Dann ist KI ein Werkzeug von dem nur die, die es herstellen wissen wie es im Inneren funktioniert (und selbst die werden regelmäßig überrascht) und für die Nutzer ist es eine Black Box. Ein Gerichtsverfahren lebt auch von seiner Transparenz und wie man die behalten will mit einer Black Box mit im Gerichtssaal ist mir nicht so klar. Wenn sich ein Fehler in einer beteiligten KI herausstellt, kann man dann alle Verfahren in denen sie, an welcher Stelle auch immer und sei es nur als Hilfstool für den Bürokram des Richters, beteiligt war angreifen?
Das ganze einem chronisch überlasteten Justizsystem aufzupropfen als “Lösung” anstatt die Gerichte personell und finanziell gut auszustatten und mal dafür zu sorgen dass die aufhören alles per Fax zu verschicken und dreimal auszudrucken kommt dann noch oben auf.
Ach ja und die IT könnte man auch mal ordentlich finanzieren, was war das während Corona für ein Desaster: https://legal-tech.de/was-gerichte-koennen-defizite-bei-it-ausstattung/
Als Forschungsprojekt finde ich das sogar ganz gut. Wenn daraus Erkenntnisse entstehen, was man konkret beachten (Risikobetrachtung scheint ja auch Teil des Projekts zu sein) muss, um dem Model auch beizubringen, den Kontext und den tatsächlichen Inhalt der Trainingsdaten zu beachten, zu verknüpfen und dabei nicht zu verfälschen, dann kann das durchaus bei vielen Aufgaben wie dem Erstellen von Schrieben oder der Recherche hilfreich sein.