https://www.faz.net/-gzg-9nvlp

Algorithmen sprechen Recht : Vom Computer zur Gefahr für die Gesellschaft erklärt

  • Aktualisiert am

Algorithmen werden in Amerika zur Feststellung des Strafmaßes genutzt. Sie können das Rückfallrisiko eines Straftäters berechnen. Bild: dpa

Sollten Algorithmen vor Gericht eine Rolle spielen? Ein Frankfurter Juraprofessor fordert ein Umdenken bei Künstlichen Intelligenz in der Strafrechtsprechung. Denn die Software sei nicht fehlerfrei.

          Sechs Jahre Haft für unerlaubtes Benutzen eines fremden Autos und mangelnde Kooperation mit der Polizei: Diese Strafe hatte Eric Loomis einem Algorithmus zu verdanken. Nachdem der Amerikaner 2013 in einen Überfall mit Waffengewalt verwickelt gewesen war, erstellte ein Computerprogramm der Firma Northpointe für ihn eine Sozialprognose – basierend auf dem Lebenslauf des Angeklagten und 137 Fragen, die er beantworten musste. Heraus kam, dass der mehrfach vorbestrafte Loomis auch künftig eine Gefahr für die Gesellschaft sein werde. Obwohl dem Mann im konkreten Fall wenig nachzuweisen war, schickte ihn der Richter ins Gefängnis.

          Christoph Burchard erzählt das, um dem Vortragspublikum im Forschungskolleg Humanwissenschaften der Uni Frankfurt eines klarzumachen: Rechtsprechung mit Hilfe von Künstlicher Intelligenz ist keine Science-Fiction, sie wird längst praktiziert. Noch ist es nicht so weit, dass Elektronengehirne autonom Prozesse führen. Doch Burchard, Strafrechtsprofessor an der Goethe-Universität, empfiehlt dringend, schon jetzt über Leitlinien für den Einsatz lernfähiger Software in Gerichtsverfahren nachzudenken.

          In den Vereinigten Staaten sei es mittlerweile vielerorts üblich, das Rückfallrisiko von Angeklagten durch Programme wie jenes von Northpointe zu ermitteln. Dahinter stehe die Erwartung, Gefahren für die Allgemeinheit besser einschätzen zu können, aber auch die Hoffnung auf schnellere und kostengünstigere Verfahren. Die Chinesen versuchen ebenfalls, Künstliche Intelligenz in die Rechtsfindung einzubeziehen. In dem autoritären Staat geschieht das laut Burchard vor allem aus dem Wunsch heraus, unerwünschte Abweichungen im Strafmaß zu unterbinden.

          „Humanistische, rationale Rechtsanwendung“

          Aber auch liberale Forscher können der Idee etwas abgewinnen, Gerichte durch Algorithmen zu unterstützen. Ihnen geht es nach Burchards Worten um „humanistische, rationale Rechtsanwendung“: Sie erhofften sich von der angeblich weniger durch Vorurteile beeinflussten Maschinenlogik mehr Objektivität. Der Professor kann diesen Wunsch verstehen: Nach welchen Kriterien Richter Strafen verhängten, bleibe auch hierzulande oft im Dunkeln, und die Unterschiede beim Sanktionieren gleicher Delikte etwa in Hamburg und Bayern seien „schwer hinnehmbar“.

          Trotzdem warnt Burchard vor dem Glauben, eine Künstliche Intelligenz könne nicht befangen sein. „Wenn Sie Vorurteile in Algorithmen hineinfüttern, kommen wieder Vorurteile heraus.“ Schon die Zusammenstellung der Informationen, auf deren Grundlage eine Software Empfehlungen abgebe, könne unausgewogen sein. Dies führe eventuell zu einer ungünstigeren Sozialprognose, wenn der Computer zum Beispiel einen Schwarzen begutachte. Ein Problem sei auch, dass die Hersteller solcher Programme ihre Algorithmen zum Teil aus Gründen des Urheberschutzes nicht offenlegten.

          Technischer Fortschritt kaum aufzuhalten

          Burchard hält es für möglich, Basisdaten und Software so abzustimmen, dass Vorurteile nicht reproduziert werden. Dann müsse allerdings auf demokratischem Weg darüber entschieden werden, wie „scharf“ ein solches Programm eingestellt werden solle: „Wollen wir ,Richter Gnadenlos‘ oder den Sozialromantiker?“ Wäre die Künstliche Intelligenz als virtueller Gutachter erst einmal etabliert, würde es den Rechtswahrern schwerfallen, ihre Empfehlungen zu ignorieren, glaubt der Wissenschaftler – allen Lobreden auf die richterliche Unabhängigkeit zum Trotz.

          Da aber der technische Fortschritt nicht aufzuhalten sei, rät Burchard, sich jetzt mit den Möglichkeiten einer computerunterstützten Urteilsfindung auseinanderzusetzen und rechtzeitig Grenzen zu ziehen. „Wir müssen im Blick behalten, wann aus dem Beratungssystem ein Entscheidungssystem wird“ und eine Maschine über Menschenschicksale befinde. „Das ist die Kampflinie. Überschreiten wir sie, wird sich das Recht signifikant verändern.“

          Weitere Themen

          Der gute Geist steckt im Detail

          Frankfurt und Offenbach : Der gute Geist steckt im Detail

          „Willkommenshaltung für die Zukunft“: Ein neues Buch erklärt in groben, anschaulichen Zügen, unter welchen Bedingungen Frankfurt und Offenbach zu Industriestädten wurden und ist mehr als eine historische Abhandlung.

          Topmeldungen

          Series 5 im Test : Wie gut ist die neue Apple Watch?

          Am Freitag kommt die neue Smartwatch von Apple in den Handel. Die dunkle Anzeige im Ruhemodus ist damit Vergangenheit. Das Display der Series 5 ist immer eingeschaltet. Aber es gibt ein Problem.
          Dr. Ruth Gomez arbeitet  im universitären Kinderwunschzentrum in Mainz als Pränataldiagnostikerin.

          Spezielles Verfahren : Einzige Chance auf ein gesundes Kind

          In der Mainzer Universitätsklinik sind zum ersten Mal Babys nach einer Präimplantationsdiagnostik auf die Welt gekommen. In das ethisch umstrittene Verfahren setzen verzweifelte Paare ihre ganze Hoffnung.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.