https://www.faz.net/-gzg-9nvlp

Algorithmen sprechen Recht : Vom Computer zur Gefahr für die Gesellschaft erklärt

  • Aktualisiert am

Algorithmen werden in Amerika zur Feststellung des Strafmaßes genutzt. Sie können das Rückfallrisiko eines Straftäters berechnen. Bild: dpa

Sollten Algorithmen vor Gericht eine Rolle spielen? Ein Frankfurter Juraprofessor fordert ein Umdenken bei Künstlichen Intelligenz in der Strafrechtsprechung. Denn die Software sei nicht fehlerfrei.

          Sechs Jahre Haft für unerlaubtes Benutzen eines fremden Autos und mangelnde Kooperation mit der Polizei: Diese Strafe hatte Eric Loomis einem Algorithmus zu verdanken. Nachdem der Amerikaner 2013 in einen Überfall mit Waffengewalt verwickelt gewesen war, erstellte ein Computerprogramm der Firma Northpointe für ihn eine Sozialprognose – basierend auf dem Lebenslauf des Angeklagten und 137 Fragen, die er beantworten musste. Heraus kam, dass der mehrfach vorbestrafte Loomis auch künftig eine Gefahr für die Gesellschaft sein werde. Obwohl dem Mann im konkreten Fall wenig nachzuweisen war, schickte ihn der Richter ins Gefängnis.

          Christoph Burchard erzählt das, um dem Vortragspublikum im Forschungskolleg Humanwissenschaften der Uni Frankfurt eines klarzumachen: Rechtsprechung mit Hilfe von Künstlicher Intelligenz ist keine Science-Fiction, sie wird längst praktiziert. Noch ist es nicht so weit, dass Elektronengehirne autonom Prozesse führen. Doch Burchard, Strafrechtsprofessor an der Goethe-Universität, empfiehlt dringend, schon jetzt über Leitlinien für den Einsatz lernfähiger Software in Gerichtsverfahren nachzudenken.

          In den Vereinigten Staaten sei es mittlerweile vielerorts üblich, das Rückfallrisiko von Angeklagten durch Programme wie jenes von Northpointe zu ermitteln. Dahinter stehe die Erwartung, Gefahren für die Allgemeinheit besser einschätzen zu können, aber auch die Hoffnung auf schnellere und kostengünstigere Verfahren. Die Chinesen versuchen ebenfalls, Künstliche Intelligenz in die Rechtsfindung einzubeziehen. In dem autoritären Staat geschieht das laut Burchard vor allem aus dem Wunsch heraus, unerwünschte Abweichungen im Strafmaß zu unterbinden.

          „Humanistische, rationale Rechtsanwendung“

          Aber auch liberale Forscher können der Idee etwas abgewinnen, Gerichte durch Algorithmen zu unterstützen. Ihnen geht es nach Burchards Worten um „humanistische, rationale Rechtsanwendung“: Sie erhofften sich von der angeblich weniger durch Vorurteile beeinflussten Maschinenlogik mehr Objektivität. Der Professor kann diesen Wunsch verstehen: Nach welchen Kriterien Richter Strafen verhängten, bleibe auch hierzulande oft im Dunkeln, und die Unterschiede beim Sanktionieren gleicher Delikte etwa in Hamburg und Bayern seien „schwer hinnehmbar“.

          Trotzdem warnt Burchard vor dem Glauben, eine Künstliche Intelligenz könne nicht befangen sein. „Wenn Sie Vorurteile in Algorithmen hineinfüttern, kommen wieder Vorurteile heraus.“ Schon die Zusammenstellung der Informationen, auf deren Grundlage eine Software Empfehlungen abgebe, könne unausgewogen sein. Dies führe eventuell zu einer ungünstigeren Sozialprognose, wenn der Computer zum Beispiel einen Schwarzen begutachte. Ein Problem sei auch, dass die Hersteller solcher Programme ihre Algorithmen zum Teil aus Gründen des Urheberschutzes nicht offenlegten.

          Technischer Fortschritt kaum aufzuhalten

          Burchard hält es für möglich, Basisdaten und Software so abzustimmen, dass Vorurteile nicht reproduziert werden. Dann müsse allerdings auf demokratischem Weg darüber entschieden werden, wie „scharf“ ein solches Programm eingestellt werden solle: „Wollen wir ,Richter Gnadenlos‘ oder den Sozialromantiker?“ Wäre die Künstliche Intelligenz als virtueller Gutachter erst einmal etabliert, würde es den Rechtswahrern schwerfallen, ihre Empfehlungen zu ignorieren, glaubt der Wissenschaftler – allen Lobreden auf die richterliche Unabhängigkeit zum Trotz.

          Da aber der technische Fortschritt nicht aufzuhalten sei, rät Burchard, sich jetzt mit den Möglichkeiten einer computerunterstützten Urteilsfindung auseinanderzusetzen und rechtzeitig Grenzen zu ziehen. „Wir müssen im Blick behalten, wann aus dem Beratungssystem ein Entscheidungssystem wird“ und eine Maschine über Menschenschicksale befinde. „Das ist die Kampflinie. Überschreiten wir sie, wird sich das Recht signifikant verändern.“

          Weitere Themen

          Im Schatten Munchs

          Landschaftsmaler Sohlberg : Im Schatten Munchs

          In seiner Heimat ein Star: In Wiesbaden ist das Werk des Landschaftsmalers Harald Sohlberg zu sehen. Ein Ausblick auf Norwegen, im Herbst Gastland der Frankfurter Buchmesse.

          Waldsterben in Deutschland Video-Seite öffnen

          Trockenheit und Hitze in den Wäldern : Waldsterben in Deutschland

          Im Stadtwald Frankfurt geht es den befallenen Bäumen an den Kragen, während Forstwirte und Wissenschaftler der Goethe-Universität versuchen, südländische Baumarten anzusiedeln. Eine neue Hoffnung? Ein Ortsbesuch.

          Topmeldungen

          Missbrauchsfall Lügde : Angeklagter zu Bewährungsstrafe verurteilt

          Der Mann soll nicht direkt an dem Missbrauch beteiligt gewesen sein, sondern per Webcam zugeschaltet. Ein Gutachter hatte ihn für voll schuldfähig erklärt. Die Vorsitzende Richterin nannte die Taten „schäbig und menschenverachtend“.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.