http://www.faz.net/-gwz-8io8b

Maschinen-Ethik : Wenn mein Auto mich opfert

Sie oder ich? Das Auto mag sich verpflichtet fühlen, zur Rettung der Fußgänger gegen die Wand fahren - sein Insasse ist möglicherweise dagegen. Bild: Illustration Science/Iyad Rahwan

Selbstfahrende Fahrzeuge werden – technisch gesehen – bald Praxisreife erlangen. Doch aus anderen Gründen könnten sie Utopie bleiben.

          Autofahren kann töten. Im Jahr 2014 gingen hierzulande über 98 Prozent aller Verkehrsunfälle mit Personenschaden auf menschliches Versagen zurück, vor allem auf übermüdete, abgelenkte, rücksichtslose oder betrunkene Autofahrer. Das muss bald nicht mehr sein. Nach ABS, Tempomat und Spurhalteassistent ist es nur eine Frage der Zeit, bis Technik im Stande ist, Kraftfahrern auch noch den Rest abzunehmen. Auf Teststrecken klappt das schon heute, und Firmen wie Uber investieren Millionen in die Entwicklung von Systemen, die auch im realen Stadtverkehr zuverlässig funktionieren. Der Trend zum Auto-Auto scheint nicht mehr aufzuhalten zu sein.

          Ulf von Rauchhaupt

          verantwortlich für das Ressort „Wissenschaft“ der Frankfurter Allgemeinen Sonntagszeitung.

          Doch konfrontiert uns diese Entwicklung mit Fragen, die bislang nur Teilnehmer philosophischer Grundsatzdiskussionen beschäftigten. Etwa die um das sogenannte Trolley-Problem: Angenommen, ein Zugwaggon rollt eine abschüssige Strecke hinab auf eine Gruppe von fünf Gleisarbeitern zu, die von der Kollision unweigerlich getötet würden. Ein Bahnwärter sieht das und könnte den Waggon durch Stellen einer Weiche auf ein Nebengleis lenken, auf dem sich jedoch ein einzelner Arbeiter aufhält, der sich ebenso wenig retten könnte. Darf der Wärter diesen einen opfern, um die fünf zu retten? Ist er gar ethisch dazu verpflichtet?

          Trolley-Problem für Auto-Autos

          Das klingt unrealistisch konstruiert. In der aktuellen Ausgabe von Science aber berichtet der Psychologe Jean-François Bonnefon von der Universität Toulouse zusammen mit zwei Mitarbeitern, wie sie den Teilnehmern einer Umfrage eine Variante des Problems stellten: Ein selbstfahrendes Auto samt Passagier detektiert vor sich eine Gruppe von Personen, und die einzige Möglichkeit, sie zu retten, wäre, das Auto gegen eine Betonwand zu lenken, was den Nutzer des Wagens töten würde. Welche dieser beiden Reaktionen sollten die Hersteller von Auto-Autos ihren Produkten einprogrammieren?

          „Auch wenn solche Szenarien unwahrscheinlich erscheinen“, schreiben Bonefron und Kollegen, „wenn einmal Millionen automatischer Vehikel unterwegs sind, werden auch seltene Ereignisse irgendwann eintreten.“ Und dann muss die Bordsoftware eine Entscheidung über Leben und Tod treffen.

          Konsequentialismus und Deontologie

          Man wird sich wünschen, sie möge mit menschlichen Moralvorstellungen konform gehen. Doch mit welchen? Das Trolley-Problem illustriert zwei grundsätzlich verschiedene. Die eine, der sogenannte Konsequentialismus, sieht Moral oder Unmoral einer Handlung in ihren Folgen begründet. Und insofern die sich nach Nützlichkeit (lateinisch utilitas) für die Gesamtheit aller Beteiligten bewerten lassen, wie der sogenannte Utilitarismus voraussetzt, ist diejenige Handlung die moralisch richtige, die den Gesamtnutzen maximiert – etwa einen Toten in Kauf nimmt, um fünf Leben zu retten. Dem Konsequentialismus steht die deontologische Ethik (von griechisch tò déon, das Verpflichtende) gegenüber. Sie kennt Handlungen, die in sich verwerflich sind, unabhängig davon, ob einige ihre Folgen gegebenenfalls positiv sind.

          Die Menschheit, zumindest die im industrialisierten Westen, ist über diese Alternative tief gespalten. Einerseits huldigt man zutiefst deontologischen Prinzipien wie der Menschenwürde und verteidigt die These, dass man etwa Entführer auch dann nicht foltern dürfe, wenn die so erzwungene Aussage ein Kind retten könnte. Andererseits würden Umfragen zufolge 90 Prozent der Menschen das Trolley-Problem konsequentialistisch lösen und den einen Arbeiter zur Rettung seiner fünf Kollegen aktiv opfern. Auch die Science-Studie ergab beispielsweise, dass 76 Prozent der Befragten dafür wären, selbstfahrende Autos utilitaristisch zu programmieren, wenn das Opfer eines Autoinsassen zehn Fußgänger retten würde.

          Ihr seid mir schöne Utilitaristen!

          Konsequent ist dieser real existierende Konsequentialismus indes nicht. Schon in einem Szenario, bei dem die fünf Arbeiter nicht per Hebel gerettet werden, sondern dadurch, dass man die zu opfernde Person auf die Gleise schubst, wird die utilitaristische Option in Umfragen weitaus seltener angekreuzt. Und wie die neue Studie zeigt, sinkt die Bereitschaft zur Opferung Einzelner zu einem höheren Nutzen auch, wenn man selbst das Opfer sein könnte. Die Befragten, die einer utilitaristischen Programmierung selbstfahrender Autos zustimmen, waren nicht im gleichen Maße bereit, solche Autos auch zu erwerben.

          Weitere Themen

          Nur ein bisschen Rechtsruck Video-Seite öffnen

          Wahlen in Schweden : Nur ein bisschen Rechtsruck

          Zwar konnten die rechtspopulistischen „Schwedendemokraten“ deutliche Stimmengewinne verzeichnen und liegen dem vorläufigen Ergebnis zufolge mit 17,6 Prozent auf dem dritten Platz, doch Umfragen hatten sie noch weiter vorn gesehen.

          Topmeldungen

          Pipelines und LNG : Das Erdgas droht Europa zu entzweien

          Amerika wettert weiter gegen die Ostseepipeline Nord Stream 2 – unter Beifall aus Polen. Stattdessen versuchen die Amerikaner, ihr Flüssiggas zu verkaufen. Ist das wirklich eine Alternative oder nur eine große Luftnummer?

          Dialog mit Bürgern in Chemnitz : Der Frust und die Fragen

          Die Chemnitzer Bürgermeisterin sucht nach der Tötung eines Deutschen und den Krawallen in der Stadt den Dialog mit den Bürgern. Doch sie und Sachsens Innenminister Wöller bekommen vor allem eines zu spüren: Unmut.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.