http://www.faz.net/-gwz-8io8b

Maschinen-Ethik : Wenn mein Auto mich opfert

Sie oder ich? Das Auto mag sich verpflichtet fühlen, zur Rettung der Fußgänger gegen die Wand fahren - sein Insasse ist möglicherweise dagegen. Bild: Illustration Science/Iyad Rahwan

Selbstfahrende Fahrzeuge werden – technisch gesehen – bald Praxisreife erlangen. Doch aus anderen Gründen könnten sie Utopie bleiben.

          Autofahren kann töten. Im Jahr 2014 gingen hierzulande über 98 Prozent aller Verkehrsunfälle mit Personenschaden auf menschliches Versagen zurück, vor allem auf übermüdete, abgelenkte, rücksichtslose oder betrunkene Autofahrer. Das muss bald nicht mehr sein. Nach ABS, Tempomat und Spurhalteassistent ist es nur eine Frage der Zeit, bis Technik im Stande ist, Kraftfahrern auch noch den Rest abzunehmen. Auf Teststrecken klappt das schon heute, und Firmen wie Uber investieren Millionen in die Entwicklung von Systemen, die auch im realen Stadtverkehr zuverlässig funktionieren. Der Trend zum Auto-Auto scheint nicht mehr aufzuhalten zu sein.

          Ulf von Rauchhaupt

          verantwortlich für das Ressort „Wissenschaft“ der Frankfurter Allgemeinen Sonntagszeitung.

          Doch konfrontiert uns diese Entwicklung mit Fragen, die bislang nur Teilnehmer philosophischer Grundsatzdiskussionen beschäftigten. Etwa die um das sogenannte Trolley-Problem: Angenommen, ein Zugwaggon rollt eine abschüssige Strecke hinab auf eine Gruppe von fünf Gleisarbeitern zu, die von der Kollision unweigerlich getötet würden. Ein Bahnwärter sieht das und könnte den Waggon durch Stellen einer Weiche auf ein Nebengleis lenken, auf dem sich jedoch ein einzelner Arbeiter aufhält, der sich ebenso wenig retten könnte. Darf der Wärter diesen einen opfern, um die fünf zu retten? Ist er gar ethisch dazu verpflichtet?

          Trolley-Problem für Auto-Autos

          Das klingt unrealistisch konstruiert. In der aktuellen Ausgabe von Science aber berichtet der Psychologe Jean-François Bonnefon von der Universität Toulouse zusammen mit zwei Mitarbeitern, wie sie den Teilnehmern einer Umfrage eine Variante des Problems stellten: Ein selbstfahrendes Auto samt Passagier detektiert vor sich eine Gruppe von Personen, und die einzige Möglichkeit, sie zu retten, wäre, das Auto gegen eine Betonwand zu lenken, was den Nutzer des Wagens töten würde. Welche dieser beiden Reaktionen sollten die Hersteller von Auto-Autos ihren Produkten einprogrammieren?

          „Auch wenn solche Szenarien unwahrscheinlich erscheinen“, schreiben Bonefron und Kollegen, „wenn einmal Millionen automatischer Vehikel unterwegs sind, werden auch seltene Ereignisse irgendwann eintreten.“ Und dann muss die Bordsoftware eine Entscheidung über Leben und Tod treffen.

          Konsequentialismus und Deontologie

          Man wird sich wünschen, sie möge mit menschlichen Moralvorstellungen konform gehen. Doch mit welchen? Das Trolley-Problem illustriert zwei grundsätzlich verschiedene. Die eine, der sogenannte Konsequentialismus, sieht Moral oder Unmoral einer Handlung in ihren Folgen begründet. Und insofern die sich nach Nützlichkeit (lateinisch utilitas) für die Gesamtheit aller Beteiligten bewerten lassen, wie der sogenannte Utilitarismus voraussetzt, ist diejenige Handlung die moralisch richtige, die den Gesamtnutzen maximiert – etwa einen Toten in Kauf nimmt, um fünf Leben zu retten. Dem Konsequentialismus steht die deontologische Ethik (von griechisch tò déon, das Verpflichtende) gegenüber. Sie kennt Handlungen, die in sich verwerflich sind, unabhängig davon, ob einige ihre Folgen gegebenenfalls positiv sind.

          Die Menschheit, zumindest die im industrialisierten Westen, ist über diese Alternative tief gespalten. Einerseits huldigt man zutiefst deontologischen Prinzipien wie der Menschenwürde und verteidigt die These, dass man etwa Entführer auch dann nicht foltern dürfe, wenn die so erzwungene Aussage ein Kind retten könnte. Andererseits würden Umfragen zufolge 90 Prozent der Menschen das Trolley-Problem konsequentialistisch lösen und den einen Arbeiter zur Rettung seiner fünf Kollegen aktiv opfern. Auch die Science-Studie ergab beispielsweise, dass 76 Prozent der Befragten dafür wären, selbstfahrende Autos utilitaristisch zu programmieren, wenn das Opfer eines Autoinsassen zehn Fußgänger retten würde.

          Ihr seid mir schöne Utilitaristen!

          Konsequent ist dieser real existierende Konsequentialismus indes nicht. Schon in einem Szenario, bei dem die fünf Arbeiter nicht per Hebel gerettet werden, sondern dadurch, dass man die zu opfernde Person auf die Gleise schubst, wird die utilitaristische Option in Umfragen weitaus seltener angekreuzt. Und wie die neue Studie zeigt, sinkt die Bereitschaft zur Opferung Einzelner zu einem höheren Nutzen auch, wenn man selbst das Opfer sein könnte. Die Befragten, die einer utilitaristischen Programmierung selbstfahrender Autos zustimmen, waren nicht im gleichen Maße bereit, solche Autos auch zu erwerben.

          Die Diskussion dürfte sich verkomplizieren, wenn man die vielen Probleme eines praktischen Utilitarismus einbezieht: Wie sähe etwa die Nutzenbilanz aus, wenn es sich bei den zehn Leuten auf der Straße um Senioren handelte, bei der Autoinsassin aber um eine Schwangere?

          Moral im Angesicht des Ungewissen

          Die Frage, welches Leben das schützenswertere sei, beschäftigt die Medizinethik schon lange und ist auch dort oft nicht ohne etwas Willkür lösbar, wenigstens ist in der Regel aber Zeit, alle im Einzelfall gegebenen Alternativen abzuwägen. Ein System jedoch, das nur Millisekunden hat, um auf eine Situation zu reagieren, und dazu nur Daten vorgegebener, im Einzelfall möglicherweise inadäquater Sensoren auswerten kann, könnte in vielen Fällen wohl genauso gut eine Münze werfen. Wenn moralische Entscheidungen ohne vollständige Informationen gefällt werden müssen, dann ist man in einer Position vergleichbar mit der eines Weichenwärters, der sich gar nicht sicher sein kann, ob der wildgewordene Waggon die fünf Arbeiter wirklich töten wird – und es daher unterlässt, jenen einen in den Tod zu schicken. Wo unser Wissen nicht reicht, ist die wirklich konsequentialistische Ethik die deontologische.

          Selbst wenn Computer mit vollständigen Informationen arbeiten dürfen, gibt es ein Problem, auf das der heute am Korea Advanced Institute of Science and Technology lehrende Mathematiker Martin Ziegler 2014 zusammen mit Kollegen Matthias Englert und Sandra Sieber von der TU Darmstadt hingewiesen hat. Danach könnte es sein, dass die Software, etwa von Terroristen, so verändert wurde, dass sie im entscheidenden Moment genau das Gegenteil von dem tut, was utilitaristisch angezeigt wäre. Daher müsste das System vor jeder Entscheidung prüfen, was sein Programm tun wird. Doch wie der Brite Alan Turing bereits 1936 erkannte, kann es kein Programm geben, das alle denkbaren Programmvarianten in dieser Weise analysiert und dabei zu einem Ergebnis kommt. Damit ergibt sich eine grundsätzliche Beschränkung jeglicher Computer-Ethik: Jedem Computersystem, für die Turings Theorem gilt – und das sind praktisch alle heute vorstellbaren – kann es passieren, dass es die im utilitaristischen Sinne klar moralischere Alternative nicht identifizieren kann.

          Von wegen „ethische Software“

          In ihrer bislang nur vorab veröffentlichten Arbeit ging es Ziegler und Kollegen um militärische Systeme wie autonome Kampfdrohnen. Anders als menschliche Soldaten mit ihren Angst- und Rachegefühlen soll deren Software stets rational entscheiden können, welche Alternative die im Sinne des Utilitarismus ethischere ist. Doch selbst wenn klar wäre, dass etwa der kollaterale Tod eines Zivilisten dem Überleben eines Taliban-Trupps, das gerade eine Sprengfalle aufstellt, vorzuziehen ist und der Drohne alle Informationen vorliegen, etwa, dass keine weiteren Zivilisten vor Ort sind: eine solche Software ist mathematisch unmöglich.

          Zivile Auto-Autos wären ebenso wenig ethisch perfekt, aber ebenso wenig könnte man sie vor Gericht stellen oder ihnen Punkte in Flensburg aufbrummen, auf dass sie beim nächsten Mal besser aufpassen. „Für die Praxis“, sagt Martin Ziegler, „bedeutet dies, dass moralische Verantwortlichkeiten für die Handlungen autonomer Systeme zwischen Hersteller und Benutzer aufzuteilen sind.“

          Gerade daran könnte die Utopie vom utilitaristisch korrekten Auto-Auto scheitern. So ziehen die Autoren der Science-Studie aus ihren Resultaten den Schluss, dass gerade ein an utilitaristischen Prinzipien orientierter Gesetzgeber besser daran täte, selbstfahrenden Autos keine utilitaristische Programmierung vorzuschreiben. Denn dies würde die Einführung der Auto-Autos und die davon erwartete drastische Senkung der Toten im Straßenverkehr verzögern und damit Menschenleben kosten.

          Weitergedacht, wird ein solcher Gesetzgeber am Ende aber nicht umhinkönnen, Autokäufern mit gemeinschaftsschädigendem Selbsterhaltungstrieb die Alternative zu nehmen und konventionelle, nichtautonome Fahrzeuge schließlich ganz zu verbieten. Das aber könnte der Technologie politisch das Genick brechen. „Autofahren kann töten“, das ist eine Botschaft. „Autofahrer sind potentielle Mörder“ eine ganz andere.

          Weitere Themen

          Topmeldungen

          Söders Spiel mit den Bildern : Im Angesicht des Kreuzes

          Markus Söder weiß, wie man sich in Szene setzt: Dass er für das Aufhängen eines Kreuzes in der bayerischen Staatskanzlei vor allem Kritik, Hohn und Spott erntet, nimmt der Ministerpräsident in Kauf.
          Volle Konzentration auf Ball und Gegner: Bayerns Thomas Müller.

          Champions League im Liveticker : Volle Offensivkraft gegen Real

          Die Bayern beginnen gegen Madrid im Halbfinale der Champions League sehr mutig mit Lewandowski, Müller, Robben, Ribéry und James in der Startformation. Abwehrspieler Alaba fällt hingegen aus. Verfolgen Sie das Spiel im Liveticker.

          Berlin trägt Kippa : Angriff auf Israel-Kundgebung

          Eigentlich sollte es ein Solidaritätstag gegen Antisemitismus werden. Doch in Berlin gab es auch einen Zwischenfall auf eine kleine proisraelische Kundgebung. Sie musste schnell abgebrochen werden.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.