KI-Richter: Wenn Maschinen über Leben und Tod entscheiden
Chris Pratt muss seine Unschuld beweisen: „Mercy“.
Von Franziska Trautmann
90 Minuten – mehr bleibt dem Angeklagten nicht, um seine Unschuld zu beweisen. Ohne Anwalt, ohne Geschworene. Einzig und allein eine KI-Richterin entscheidet. Der LAPD-Detective Chris Raven (gespielt von Chris Pratt) ist ein großer Befürworter des Systems, bis er selbst auf dem Stuhl landet. In kürzester Zeit muss er KI-Richterin Maddox mit belegbaren Fakten von seiner Unschuld überzeugen. Ein Urteil gegen ihn bedeutet seinen Tod.
Was nach einer fernen Dystopie klingt, ist im Hollywood-Film „Mercy“ (derzeit in den österreichischen Kinos) Realität: Im gar nicht so fernen Jahr 2029 hat die Kriminalität in Los Angeles drastisch zugenommen; der Staat reagiert darauf, indem er eine KI-Richterin für schwere Straftaten wie Mord einsetzt, die nur auf Basis der Fakten emotionslos entscheidet.
Tatsächlich ist die Idee von Künstlicher Intelligenz im Gerichtssaal nicht mehr reine Science Fiction. In Großbritannien hat Sir Geoffrey Vos, britischer Richter und Leiter der Ziviljustiz in England und Wales, Anfang Februar öffentlich darüber diskutiert. Er stellt in den Raum, ob KI bei kleineren Rechtsstreitigkeiten künftig eine größere Rolle spielen könnte. Gerade bei standardisierten Verfahren – wie geringfügigen zivilrechtlichen Auseinandersetzungen – könnte ein Algorithmus meist schneller und kostengünstiger entscheiden als ein überlastetes Gericht.
Die Lage in Österreich
Könnte KI auch im österreichischen Rechtssystem funktionieren? Technisch sei das durchaus machbar, sagt der österreichische Tech-Experte Nikolaus Jilch. Gesetzestexte sind digitalisiert, höchstgerichtliche Entscheidungen dokumentiert, juristische Argumentationsmuster strukturiert erfassbar. „Man muss der Maschine nur sagen: Entscheide über das Urteil“, sagt Jilch. Rein technisch könne man ein System bauen, das anhand bestehender Normen und Präzedenzfälle ein Ergebnis berechnet.
Doch genau hier beginnt die Kontroverse. Denn Recht ist selten eindeutig. Zwischen Gesetzestext und Urteil liegt ein Interpretationsspielraum. Und die Interpretation ist Aufgabe des – menschlichen – Richters. „Eine KI wird nicht die Erfahrung eines Richters mit 30 Jahren Amtszeit ersetzen können“, sagt Jilch. Wer entscheidet, wie der Sachverhalt der KI präsentiert wird? Und wer kontrolliert (politisch), welche Daten einfließen? Und wer trägt letztlich die Verantwortung? Für Jilch steht fest: „Es ist schwer vorstellbar, dass eine letztgültige Entscheidung ohne einen Menschen getroffen werden kann.“
Ob eine Maschine nur basierend auf ihr zugetragenen Fakten über Leben und Tod entscheiden kann, ist die eine Frage. Ob es die Gesellschaft akzeptieren würde, ist die andere: Würden Menschen zulassen, dass eine KI über sie richtet? Das Rechtssystem, auf dem eine Gemeinschaft aufbaut, ist schließlich immer Menschenwerk. (Selbst dort, wo es von Religionen als göttlich maskiert wird.)
In den USA sorgte vor einem Jahr ein Fall für Schlagzeilen, bei dem ein Angeklagter einen KI-generierten Avatar als Anwalt vor einem New Yorker Gericht verwendete. Der Auftritt wurde von dem Gericht abgewiesen und in der Öffentlichkeit stark kritisiert, markiert aber einen möglichen Wendepunkt: Künstliche Intelligenz „betritt“ zum ersten Mal einen Gerichtssaal.
Eigene Arbeitsgruppe
Laut dem Wiener Strafverteidiger Andreas Schweitzer wird KI zwar auch in Wiener Kanzleien, zum Beispiel für Schriftsätze, verwendet, aber nur in beratender Funktion. „Derzeit gibt es eine eigene Arbeitsgruppe in der österreichischen Rechtsanwaltskammer für KI“, sagt Schweitzer. Fragen wie „Wie binde ich die KI in unseren Rechtsalltag ein?“ oder „Wie kann ich sie verwenden und wie fortgeschritten ist sie?“ werden diskutiert.
Aber auch Schweitzer bezweifelt, dass eine KI menschliches Urteilsvermögen komplett ersetzen kann. Eine Möglichkeit für KI sehe er nur im Verwaltungsrecht – etwa bei „Routinefällen“ wie Falschparken. Beim Anfechten des Urteiles müsste aber ein menschlicher Richter zum Einsatz kommen. Im Strafrecht oder anderen Rechtsgebieten sieht er keine Zukunft dafür.
Zwar ließen sich frühere Entscheidungen in ähnlichen Fällen analysieren und vergleichen, ein Strafprozess besteht aber nicht nur aus Akten. Körpersprache, Widersprüche in Aussagen, emotionale Reaktionen würden auch in die Urteilsfindung miteinfließen. „Die KI wird keinen persönlichen Eindruck vom Angeklagten gewinnen können“, betont Schweitzer. Gerade im Strafrecht gehe es nicht nur um Tatbestände – sondern auch um Persönlichkeit und Motivation.
Außerdem gilt in Österreich bei Strafdelikten die – gerade in der politischen Debatte in den vergangenen Jahren oft strapazierte – Unschuldsvermutung. Bis zum Beweis der Schuld des Angeklagten durch ein rechtskräftiges Urteil gilt er unschuldig. Der Ankläger ist zur Beweislast verpflichtet. Auch das müsste sich ändern, damit der KI-Richter wie in „Mercy“ zum Einsatz kommen könnte. In der Realität ist diese Beweislastumkehr fast undenkbar.
Rechtssystem neu denken
Nikolaus Forgó, Rechtswissenschaftler an der Universität Wien, verweist zudem auf die Datenschutz-Grundverordnung (DSGVO). Diese verbietet grundsätzlich automatisierte Entscheidungen mit erheblicher Wirkung, wenn kein menschliches Eingreifen vorgesehen ist. „Kein Mensch darf bloßes Objekt eines Algorithmus werden“, sagt er. Außerdem seien auch die Vorgaben des EU-KI-Gesetzes, das seit August 2024 gilt, nicht außer acht zu lassen. Darin ist unter anderem festgeschrieben, dass eine KI,
die juristische Entscheidungen trifft oder maßgeblich beeinflusst, als Hochrisiko-System gelten würde – mit strengen Anforderungen an Transparenz, Kontrolle und Nachvollziehbarkeit.
Diese Punkte sind in Österreich auch verfassungsrechtlich abgesichert. Um KI eine Entscheidungsfunktion im Rechtssystem zu geben, müsste also das national geltende Recht geändert werden. „Ein vollständig autonomer ,Justiz-GPT’, der allein über Schuld und Unschuld entscheidet, wäre mit der derzeitigen Rechtsordnung kaum vereinbar“, sagt Forgó.
Obwohl das theoretisch alles möglich wäre, muss man auch die Funktionsweise von KI-Systemen mit einbeziehen. „KI hat keine objektive Perspektive, sondern referiert einfach auf Basis von zugespieltem Material“, sagt Forgó. Es handle sich bei ihr also nicht um ein Informations-generierendes System, sondern um ein Informations-wiedergebendes System.
Und in der Unwissenheit darüber liegt laut Forgó auch die Gefahr. Denn bereits bestehende Texte oder Entscheidungen haben einen „Bias“ – also gewisse Ausrichtungen oder Verzerrungen. Für Forgó gilt: „KI ist deshalb sicher nicht objektiver als ein Mensch.“ Laut ihm sei ein KI-Modell für Richter zur Unterstützung in der Urteilsfindung sicher sinnvoll, aber nicht, um eine eigene Entscheidung treffen zu können.
Im Film „Mercy“ sieht die Obrigkeit das anders. Und zumindest auf den ersten Blick scheint das Konzept zu funktionieren: sinkende Kriminalitätsrate, konsequente Verurteilungen und effizientere Gerichtsverfahren. Wie hoch der Preis dafür ist und wer ihn am Ende zahlen muss, das erlebt LAPD-Detective Chris Raven am eigenen Leib. Fazit: Ein Glück, dass die Realität eine andere ist.
Kommentare