http://www.faz.net/-gqe-8plcq
HERAUSGEGEBEN VON WERNER D'INKA, JÜRGEN KAUBE, BERTHOLD KOHLER, HOLGER STELTZNER
F+ Icon
F.A.Z. PLUS
abonnieren
F.A.Z.-Index -- --
DAX ® -- --
Dow Jones -- --
EUR/USD -- --

Veröffentlicht: 14.01.2017, 12:37 Uhr

DLD-Konferenz Dürfen Maschinen über Leben und Tod entscheiden?

Roboter, die Kranke pflegen und Autos, die selbst fahren. Der zunehmend digitale Lebenswandel erfüllt viele Menschen mit Ohnmacht und wirft zum Auftakt der DLD-Konferenz am Sonntag die Frage auf, ob Maschinen eine Moral haben können und dürfen.

von
© dpa Roboter könnten demnächst die Pflege von Menschen mit Behinderung übernehmen.

Roboter, autonome Maschinen oder lernende Algorithmen lösen die dringendsten Probleme unserer Welt – das versprechen uns zumindest ihre Erschaffer. Wir messen sie daran, Herz und Hirn gefüllt mit der Angst, dass uns Maschinen zu neuen, unlösbaren Problemen führen. Das hat zwei Gründe: unser Unverständnis, wie Dinge genau funktionieren. Und die Ohnmacht, die wir fühlen, wenn sich die Welt in einer Art verändert, die wir nicht mitbestimmen können. Eine gewisse Skepsis ist also angebracht. Doch vielleicht ist es gar nicht so schlimm, wie man meint.

 
Digitalisierung: Was passiert, wenn wir Entscheidungen auf Maschinen übertragen? #DLD17
 
Sollten wir Algorithmen stärker wie Personen behandeln? #DLD17
 
Menschen sind nicht perfekt. Warum wird von Maschinen erwartet, dass sie es sind? #DLD17

Jonas Jansen Folgen:

Die Fragen jedenfalls stellen sich in vielen Lebensbereichen. Autonome Autos: Machen es jedermann leicht, mobil zu werden; sie sollen den Straßenverkehr sicherer gestalten. Doch vertrauen ihnen noch nur wenige Menschen, viele fürchten sich vor Unfällen. Pflegeroboter: Könnten den Notstand in der Belegschaft in Kranken- und Altenhäusern ausgleichen. Doch was passiert, wenn ein Patient fällt – kann, darf und will der Roboter ihm helfen? Autonom fliegende Drohnen: Können schwer erreichbare Ziele ohne die Gefährdung von Soldaten ausschalten. Nur: Kann ein Kampfroboter differenzieren, ob ein Angriff auch Zivilisten tötet? Sollte er überhaupt selbst über Leben und Tod entscheiden?

Maschinen besitzen keine Empathie oder einen freien Willen

Je rasanter sich Technologie entwickelt, desto lauter wird die Forderung, schnelle Antworten auf die Frage zu finden, was passiert, wenn wir Entscheidungen auf Maschinen übertragen. Juristen und Politiker diskutieren diese Fragen seit einigen Jahren, jeweils bezogen auf ganz konkrete Fälle wie fahrende Autos oder pflegende Roboter. Die Industrie treibt sie an, große Unternehmen wie Google, Tesla und Amazon experimentieren mit selbstlernenden Algorithmen. Selbst die Deutsche Post testet längst autonome Paketdrohnen. Selbstfahrende Autos sind schon auf den Straßen unterwegs. Thomas Klindt, Fachanwalt für Verwaltungsrecht bei der Kanzlei Noerr, sagt: „Für uns Juristen ist es eine spannende Zeit, weil technisch ganz viel erfunden und auf die Straße gebracht wird, obwohl rechtlich noch nicht klar ist, was davon geht.“ Um das zu entscheiden, muss sich aber die Gesellschaft erst mal darüber klar werden, was gehen soll: Es geht um Ethik und Moral.

44209967 © dpa Vergrößern DHL testet bereits die Auslieferung von Paketen per Drohne.

Es lohnt sich, einen Schritt zurückzutreten. Natürlich besitzen Maschinen keine Empathie oder einen freien Willen, aber Moralvorstellungen können Maschinen problemlos beigebracht werden. Die Frage, ob Maschinen eine Moral besitzen sollten, fängt aber schon mit einem so simplen Gerät wie einem Staubsaugerroboter an. Ein staubsaugender Roboter hat nur wenige Sensoren, er bewegt sich auf einer Ebene und in einem begrenzten Raum. Wir können ihn so programmieren, dass er in einem Wohnzimmer eine bestimmte Route abfährt. Gleichzeitig ist es möglich zu definieren, welche Hindernisse ein solcher Roboter erkennt und wahrnimmt. Ein Stuhlbein: Natürlich dreht er um. Eine Teppichkante: Die könnte er vielleicht überwinden. Eine Spinne, die über den Teppich krabbelt? Da fängt das Problem an.

Für die meisten Menschen wären Fliegen oder Spinnen, die von Robotern aufgesaugt werden, eine zu vernachlässigende Variable. Doch solange das nicht für alle gilt, stellt sich dort theoretisch schon eine ethische Frage. Der Entscheidungsspielraum des Roboters – saugen, umdrehen, ausschalten – kann beliebig erweitert werden. So könnte der Staubsauger kleine Hindernisse erkennen und bewerten, je nachdem, ob es eine Büroklammer oder ein wertvoller Ring ist.

1 | 2 | 3 Nächste Seite   |  Artikel auf einer Seite

Der harte Brexit wird zum Drahtseilakt

Von Manfred Schäfers

Die Regierung ihrer Majestät hat die Unterlagen für den Austritt aus der EU eingereicht. Wirtschaftsvertreter fordern „maximale Schadensbegrenzung“. Die Bundesregierung will vor allem zwei Punkte im Blick behalten. Mehr 2