https://www.faz.net/-gqz-86co4

Autonomes Fahren : Homunkulus am Steuerknüppel

  • -Aktualisiert am

Der juristische Wendekreis bleibt eng: Googles autonomes Auto Bild: Reuters

Autonome Autos fahren bald sicherer als der Mensch. Rechtlich verantwortungsvoll handeln können sie aber nicht. Wo liegen die juristischen Defizite Künstlicher Intelligenz?

          4 Min.

          Vernetzte Autos sind die Vorhut der künstlichen Intelligenz und die Nachfahren des Homunkulus. Unter bestimmten Bedingungen können sie während der Fahrt manipuliert und ausgeschaltet werden. Sie geben ein Beispiel der Gefahren, die mit künstlicher Intelligenz verbunden sind. Der Astrophysiker Stephen Hawking warnt, frei nach Darwin, vor dem Ende der Menschheit. Menschliche Intelligenz, eingebettet in den langsamen Rhythmus der biologischen Evolution, entwickele sich erheblich langsamer als die maschinelle. Perspektivisch ist der Mensch ein Auslaufmodell.

          Wäre die Herrschaft superintelligenter Maschinen ein schlechtes Szenario? Aus der Sicht der Autoindustrie nicht unbedingt. „Die Maschine fährt sicherer als der Mensch“, ließ sich jüngst ein Daimler-Vorstand vernehmen. In der Tat fällt es schwer, das Sicherheitsargument vom Tisch zu wischen. Ist das Ideal nicht eine Welt, in der Maschinen eine vom Menschen vorgegebene Ordnung perfekt zu dessen Wohl ausfüllen? Nichts spricht gegen die Delegation von Entscheidungen an künstliche Intelligenz, solange der Mensch die letzte Entscheidungsgewalt behält. Ist die Maschine nachweislich besser als der Mensch, scheint es geradezu absurd, wenn der unvollkommene Mensch die perfekte Maschine kontrolliert.

          Das juristische Defizit Künstlicher Intelligenz

          Verstärkt wird dieser Eindruck, wenn man sich die Unzulänglichkeit rationaler Entscheidungsprozesse vor Augen führt, auf die der Entscheidungsforscher und Nobelpreisträger Daniel Kahnemann aufmerksam gemacht hat. Sollte man künstlicher Intelligenz also im Rahmen einer „Gesamtgüterabwägung“, nach der sich das „Richtige“ gegen das „Nichtrichtige“ durchsetzen soll, die letzte Verantwortung übertragen? Sollte man dem Menschen nicht einmal die Rolle des Letztrichters maschineller Entscheidungen lassen, weil es vernünftiger ist, wenn er sich der intellektuell überlegenen Instanz freiwillig fügt?

          Das wäre fatal. Nicht umsonst knüpft unser Recht Schuldfähigkeit an die Möglichkeit, Verantwortung für Entscheidungen zuzuweisen, die per Definition rein menschlich sind. Nur Menschen können Verantwortung übernehmen, und nur ihnen darf ein Schuldvorwurf gemacht werden. Hier liegt das juristische Defizit künstlicher Intelligenz. Unser Recht verlangt nach einem Verantwortlichen, der sein Verhalten reflektieren und sich im Zweifel auch gegen eine Regel entscheiden kann. Ausgangspunkt kann ein Satz sein, der kürzlich in der F.A.Z. zu lesen war: „Das autonome Fahrzeug lässt dem Fahrer nicht die Freiheit, das Richtige zu tun, auch wenn es der Regel nach das Falsche ist.“

          Entscheidung heißt Verantwortung

          Nach unserem Verständnis hat der Mensch zwar kein Recht auf Fehlverhalten. Wohl aber dazu, seine Freiheit in der Verantwortung für andere und sich selbst frei auszugestalten. Der bewusste, frei entschiedene und verantwortete Verzicht auf einen verlockenden Grenzübertritt ist tugendhaft. Er ist zugleich nur die profane Alternative zum Übergriff. Ob im Grenzübertritt eine Fehlentscheidung liegt, ist oft eine sehr persönliche Frage; bisweilen auch eine des Rechts. Wie eine Entscheidung auch ausfallen mag: Sie löst immer persönliche Verantwortung aus. Die unveräußerliche Pflicht, sich für sein Verhalten verantworten zu müssen, befugt den Menschen auch dazu, sich zwischen Gut und Schlecht entscheiden zu dürfen. Das autonome Fahrzeug lässt dem Fahrer diese Freiheit nicht: das Falsche zu tun, auch wenn es der Regel nach das Richtige ist.

          Weitere Themen

          Der Weg der gestaffelten Algorithmen

          Datenethik : Der Weg der gestaffelten Algorithmen

          Die datengetriebene Gesellschaft befürchtet nicht zu Unrecht den Missbrauch von Algorithmen. Deshalb will uns die Datenethikkommission vor den Folgen übergriffiger Künstlicher Intelligenz schützen. Geht das? Eine Analyse.

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.