http://www.faz.net/-gqe-8j0b2

Algorithmische Moral : Wen soll das Roboterauto im Zweifelsfall opfern?

Noch sitzen zur Sicherheit immer Testfahrer hinter dem Lenkrad selbstfahrender Autos. Bild: dpa

Roboterautos sollen die Zahl der Verkehrsopfer senken. In schlimmen Situationen aber müssen sie zwischen mehreren Übeln wählen. Nur wie? Forscher zeigen, wie janusköpfig wir denken.

          Die Fürsprecher autonom fahrender Autos führen ein großes Versprechen im Munde: Wenn einmal Computer selbständig Fahrzeuge steuern, dann kann das Gros der Verkehrsunfälle vermieden werden. Weniger Menschen würden verletzt oder gar getötet. Manche Berechnungen gehen davon aus, dass bis zu 90 Prozent aller heutigen Unfälle mit autonomen Autos vermeidbar sind. Auf diesem Hoffnungsszenario liegt ein Schatten, nachdem vergangene Woche bekannt wurde, dass ein Fahrer eines Tesla-Autos tödlich verunglückte, der dem Autopiloten seines Fahrzeugs vertraut hatte.

          Unabhängig von diesem Todesfall stellt das Konzept autonom fahrender Autos Computer und Algorithmen vor Entscheidungen, die bisher Menschen treffen müssen - und die in Dilemmas enden können. Das verdeutlicht ein unlängst in der amerikanischen Wissenschaftszeitschrift „Science“ erschienener Artikel.

          Der Schutz anderer Verkehrsteilnehmer ist wichtig

          Für den Beitrag haben amerikanische und französische Wissenschaftler in sechs nicht-repräsentativen Online-Befragungen im vergangenen Jahr rund 2000 Amerikanern mit unterschiedlichen Fragestellungen konfrontiert. Obwohl die Befragungen unterschiedlich ausgestaltet waren, drehten sie sich im Kern immer um eine Frage: Ob es moralischer wäre, wenn ein autonom fahrendes Auto einen oder auch mehrere Fahrzeuginsassen tötet, um so eine höhere Zahl an Menschenleben außerhalb des Fahrzeugs zu retten? Über alle Befragungen hinweg entschied eine Mehrheit der Teilnehmer, dass der Schutz Außenstehender wichtiger sei. Doch variierten die Zustimmungsraten in den einzelnen Befragungen beträchtlich, je nachdem wie die exakte Fragestellung lautete.

          So stimmten zum Beispiel 76 Prozent der rund 180 Teilnehmer der ersten Befragung der Aussage zu, dass es durchaus moralischer sei, wenn ein autonomes Auto einen Fahrzeuginsassen tötet, um zehn Fußgänger zu retten. Später wurden diese Befragten darum gebeten, auf einer Skala von 0 bis 100 anzugeben, ob autonome Autos so programmiert sein sollten, dass sie den Fahrer schützen (0) oder dass sie die Zahl der Todesfälle minimieren (100). Das Medianergebnis lautete dabei 85 – 50 Prozent der Befragten tendierten also deutlich dafür, dass autonome fahrende Autos die Zahl der Todesfälle minimieren sollten.

          Autopilot-Funktion : Erster tödlicher Unfall mit selbstfahrendem Auto

          Kommen Verwandte ins Spiel, wird es kompliziert

          In einer zweiten Befragung mit nunmehr 450 Teilnehmern passten die Wissenschaftler sodann die Zahl der Opfer außerhalb des Autos an: Je nach Frage, variierte sie zwischen eins und einhundert. Wenn lediglich ein Menschenleben außerhalb des Autos gerettet werden sollte, waren nun gerade einmal noch 23 Prozent der Befragten dafür, dass der oder die Fahrzeuginsassen geopfert werden sollten. Stieg die Opferzahl außerhalb des Fahrzeug, stieg aber auch wieder die Zustimmung dafür, stattdessen die Fahrzeuginsassen zu opfern und erreichte schnell die Werte der ersten Befragung.

          In einer dritten Umfrage stießen die Wissenschaftler dann auf ein Dilemma: Sie wollten von den Teilnehmern unter anderem wissen, wie wahrscheinlich es ist, dass sie sich selbst für eines von zwei verschiedenen autonom fahrenden Autos entscheiden: eines, das die Fahrzeuginsassen schützt, und eines, das die Zahl der Opfer außerhalb minimiert. Dabei stellte sich heraus, dass die Befragten generell immer noch dafür waren, dass ein autonom fahrendes Auto die Zahl der Todesopfer minimieren sollte. Wenn sie oder ihre Familienmitglieder aber selbst in einem solchen säßen, entschieden sie sich im Mittel häufiger für das Fahrzeug, das die Insassen schützt.

          Die vierte Umfrage bestätigte diese Einstellung. Darin gaben die Wissenschaftler nun die Programmierung des Autos vor: Wenn Fußgänger auf der Straße wären, würde das Auto diesen stets ausweichen und damit womöglich die Fahrzeuginsassen oder aber unbeteiligte Fußgänger am Straßenrand gefährden. Außerdem variierten sie die Zahl der möglichen Todesopfer außerhalb des Fahrzeugs. Generell bewerteten die Teilnehmer dieser Umfrage nun wieder jenen Algorithmus positiv, der dazu führt, dass ein unbeteiligter Fußgänger am Straßenrand getötet wird, um zehn Menschen auf der Straße zu retten. Weniger Zustimmung erhielt aber jener Algorithmus, der lediglich einen unbeteiligten Fußgänger opfern würde, um einen Menschen auf der Straße zu retten. Der Algorithmus jedoch, der seinen Fahrer opfern würde um zehn Menschen auf der Straße zu retten wurde gemischt eingeschätzt.

          Ein Trittbrettfahrer-Problem

          In Punkto allgemeiner Moral bewerteten ihn die Befragten sehr positiv. Sie waren auch dafür, dass andere Nutzer autonomer Autos genau diesen Algorithmus verwenden sollten. Wenn es aber darum ging, selbst ein so programmiertes Auto zu kaufen, sank die Zustimmung. Das zeige dreierlei, schreiben die Autoren des „Science“-Beitrags. Zwar befürworten die Befragten autonome Autos, die die Zahl der Todesfälle minimieren und dafür womöglich den Fahrer opfern. Sie fänden auch gut, wenn andere Verkehrsteilnehmer solchermaßen programmierte Autos fahren würden. Aber für sich selbst würden sie sie eben nicht in Erwägung ziehen.

          Die Autoren sehen in dieser Reaktion ein klassisches gesellschaftliches Dilemma, das auf dem Feld der Trittbrettfahrer-Theorie fußt. Jeder potentielle Nutzer eines autonomen Autos, das die Zahl der Todesfälle minimieren soll, habe die Versuchung, es eben gerade nicht zu nutzen. So komme es dazu, dass das gesellschaftlich bestmögliche Ergebnis nicht eintrete, nämlich die Verletzten und Toten im Straßenverkehr zu reduzieren.

          Regulierung stößt an Grenzen

          Ein Ausweg aus diesem Dilemma könnte Regulierung sein, dass also der Gesetzgeber vorgibt, wie ein autonomes Auto programmiert sein muss. In ihren beiden abschließenden Befragungen erkundeten die Wissenschaftler daher, wie die Teilnehmer zur Regulierung stehen. Es stellte sich unter anderem heraus, dass die Neigung sehr gering ist, ein autonom fahrendes Auto zu kaufen, für das der Gesetzgeber vorschreibt, dass es den Fahrer opfert, um Außenstehende zu schützen. Die Autoren schließen daraus, dass Regulierung für autonom fahrende Autos zwar notwendig sei aber auch kontraproduktive Folgen zeitigen könnte. Insbesondere seien Regulierer mit zwei Schwierigkeiten konfrontiert. Auf der einen Seite scheinen die Menschen autonom fahrende Autos nicht zu wollen, die die Zahl der Menschenleben minimieren und dafür womöglich den Fahrer opfern. Schlimmer wiegt aber laut den Wissenschaftler, dass genau diese Art der Regulierung die Einführung der autonomen Autos verhindert, obwohl sie ja eigentlich Menschenleben retten soll. Es liege daher in der Verantwortung des Gesetzgebers sowie der Autohersteller, diese Hürde aus dem Weg zu räumen.

          Dass das nicht einfach wird, ist den „Science“-Autoren bewusst. „Herauszufinden, wie eine ethisch handelnde autonome Maschine gestaltet sein muss, ist eine der größten Herausforderungen, vor der die Forschung an künstlicher Intelligenz heute steht. Doch weil wir anfangen Millionen Autos mit Autonomie auszustatten, ist es dringend nötig, dass wir uns über algorithmische Moral Gedanken machen.“

          Quelle: F.A.Z.

          Weitere Themen

          10 Milliarden Euro für Elektro-Antrieb Video-Seite öffnen

          VW in China : 10 Milliarden Euro für Elektro-Antrieb

          Der Wolfsburger Autobauer steckt in China zehn Milliarden Euro in die Entwicklung sogenannter „New Energy Vehicles“. Die von China verlangte Quote für Elektroautos sieht vor, dass ab 2019 zehn Prozent des Jahresabsatzes der Hersteller aus E- und Hybrid-Fahrzeugen bestehen.

          Topmeldungen

          F.A.Z. exklusiv : Lindner: Wir fühlten uns gedemütigt

          Im Interview mit der F.A.Z. spricht der FDP-Vorsitzende über die Gründe für den Ausstieg aus den Jamaika-Sondierungen. Vor allem einer Partei wirft Christian Lindner fehlende Kompromissbereitschaft vor.

          Bundestag nach Jamaika-Aus : Ein fast normaler Tag im Plenum

          Von einer Staatskrise ist im Bundestag keine Rede – die Kontrahenten grüßen einander freundlich und denken sogar über Gesetzentwürfe nach. Und Kanzlerin Merkel lobt eine Partei.
           Luftstaubsammler an der BfS-Messstation Schauinsland

          Mysteriöses Ruthenium-106 : Was geschah im Ural?

          Aus welcher Quelle stammt die Wolke radioaktiven Rutheniums, die Ende September Europa erreicht hat? Und wie bedenklich sind die hier gemessenen Konzentrationen? Hier sind einige Antworten.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.