https://www.faz.net/-gqe-8dvjz

Julian Nida-Rümelin : „Man kann den Menschen keine Technik aufzwingen“

Julian Nida-Rümelin ist Professor für Philosophie und politische Theorie an der Universität München. Bild: dpa

Für den Professor ist Künstliche Intelligenz weder gut noch schlecht. Sie hat zwei Seiten. Im Gespräch mit der F.A.Z. erklärt Nida-Rümelin, warum das so ist und auf welcher Seite er steht.

          4 Min.

          Herr Professor Nida-Rümelin, in den kommenden Jahren wird der Alltag in zunehmendem Maße von Robotern bestimmt werden. Welche Herausforderung bedeutet das für die Gesellschaft?

          Philipp Krohn

          Redakteur in der Wirtschaft, zuständig für „Menschen und Wirtschaft“.

          Der Diskurs zu diesem Thema zerfällt in zwei Lager: Die Pioniere der Künstlichen Intelligenz sind der Auffassung, es gebe keinen essentiellen Unterschied zwischen der künstlichen und der menschlichen Intelligenz. Dieses Argumentationsmuster ist von der Wissenschaft bis hin zu Spielfilmen zu beobachten, in denen Roboter die Rolle von Menschen übernehmen. Ihr Wunsch ist ein Netzwerk, durch das die Defizite der menschlichen Kreativität aufgezeigt werden. Für sie besteht kein Unterschied zwischen Software und Intelligenz. Das andere Lager sieht riesige Potentiale von Robotern, die wir für menschliche Zwecke nutzen sollten. Es stellt sich die Frage, welcher Einsatz problematisch sein könnte, aber auch welche menschlichen Funktionen ersetzbar sind.

          Welchem Lager gehören Sie an?

          Dem zweiten. In der Robo-Ethics stellt sich die Frage, ob der Verantwortungs-Begriff diffundiert. Hierzu gibt es bedeutsame Beiträge aus der Jurisprudenz. Zwischen die Produzenten von Technik und ihren Konsumenten tritt als dritte Instanz der Roboter, für den eine eigene Versicherung abgeschlossen werden müsste. Ich habe mich gegen solche Ansätze gestellt, weil die genuine Verantwortung an die Intentionalität geknüpft ist. Nicht der Laptop ist böse zu mir. Der fundamentale Verantwortungs-Begriff ist viele Jahrhunderte alt und findet sich schon bei Aristoteles und Platon. Ihn sollten wir im Angesicht der Maschinen nicht leichtfertig aufgeben.

          Wie wird dieser Begriff etwas handhabbarer für die Frage, was Roboter für den Alltag bedeuten?

          Schon in der Rechtsprechung haben wir daraus tief verankerte Kriterien abgeleitet. Es gibt eine Sorgfaltspflicht, die jemand einhalten muss, der handelt. So praktizieren wir das im Alltag. Wir fragen vor Gericht, ob ein Täter die Folgen seines Tuns hätte wissen können. Im Falle eines Autounfalls sagen wir, ein Opfer hätte sich anschnallen müssen. Das hat sich in unserem Recht ausgeprägt. Für jede Technologie, die eingeführt wird, müssen wir solche Kriterien einbeziehen. Die Kernenergie wird selbst nach dem Atomausstieg über Jahrtausende Wirkung haben. Dafür müssen wir Diskurse und Institutionen entwickeln und können die Verantwortung nicht Individuen übertragen. Auch die Verantwortung für neue Entwicklungen wie das autonome Fahren kann man nicht dem Spiel von Angebot und Nachfrage allein überlassen.

          Welche ethischen Abwägungen müssen vor dem Einsatz von Robotern getroffen werden?

          Wenn wir nach Japan schauen, werden dort schon Roboter in der Pflege eingesetzt – etwa wenn Pflegebedürftige gehoben werden. Hier wird eine Ambivalenz deutlich: Der Einsatz der Technik muss nicht unbedingt als Beitrag zur Dehumanisierung im Umgang mit bedürftigen Menschen verstanden werden, denn es gehört auch zur Menschenwürde, den Intimbereich der Betroffenen zu schützen. Es gibt Pflegebedürftige, die ihren Privatbereich schützen und keine Hilfe auf der Toilette annehmen wollen. Für sie wäre es ein Beitrag zur Menschenwürde, wenn ihnen ein Roboter und nicht ein Mensch nahe tritt. Die ethische Abwägung hängt also nicht von der Technologie, sondern von der Art ihres Einsatzes ab.

          Welche Institutionen sollten über solche Fragen verhandeln?

          Sowohl das juridische als auch das politische System hat Defizite, wenn es um den Einsatz neuer Technologien geht. Kollektive Entscheidungen wie die für den Bau des Stuttgarter Tiefbahnhofs lassen juristisch nur den Widerspruch von Akteuren zu, die auf der Basis ihrer persönlichen Interessenlage einen konkreten Einspruch formulieren können.

          Das politische System reagiert sensibler auf wissenschaftlichen Sachverstand und öffentliche Stimmungen, tut sich aber schwer mit Formen der bürgerschaftlichen Beteiligung. Wie schon Ulrich Beck in der „Risikogesellschaft“ habe ich beim Aushandeln des Einsatzes von Energietechnologien für einen neuen Gesellschaftsvertrag plädiert. Hier müssen wir den bestehenden durch Verfahren des öffentlichen Diskurses komplettieren. Auch die Folgen des autonomen Fahrens können wir nicht der Autowirtschaft und den Verwaltungsgerichten überlassen. Bei solchen komplexen Fragestellungen brauchen wir einen breiteren Diskurs: Je partizipativer er ausgestaltet ist, desto schwieriger wird es, ihn zu gestalten.

          Aber viele Entwicklungen sind sehr viel intransparenter – alle Entwicklungen in der Robotik etwa, die auf eine stärkere Vernetzung von Künstlicher Intelligenz und Mensch setzen.

          Wir haben bei der Einführung der Kernenergie schlechte Erfahrungen gemacht. Zunächst stellte sich die Energiewirtschaft gegen die Politik, dann entwickelte sich aus den Beteiligten des Fachdiskurses eine Expertokratie, die sich gegen die Öffentlichkeit wandte. In der Gentechnik waren die Fachleute noch zurückhaltender: Die Experten forderten ein Moratorium und warnten vor den Risiken des eigenen Tuns. Daraus ist ein nicht sehr gelungener, hoch ideologisierter Prozess mit einer unrühmlichen Rolle der Kirchen entstanden. So gelang es nicht, die Debatte zu versachlichen. Der Rückblick zeigt: Eine Vorabfestlegung der Entscheidungsträger ist nicht hilfreich. Es geht um einen begleiteten öffentlichen Diskurs – in der Frage, ob wir die Fahrerverantwortung aufgeben wollen genauso wie beim Einsatz von Robotik in der Pflege.

          Was bedeutet das für die Entwickler, die Ingenieure, die diese Technologien vorantreiben?

          Die Wissenschaft ist genauso wie die Ingenieure nur ein Teil des Ganzen. Es kann nicht sein, dass wie im Mandarinstaat alter chinesischer Prägung nur einige Hochgebildete über den Einsatz von Technik entscheiden. Wissenschaft und Technik müssen sich ins Getümmel stürzen. Sie haben keine Legitimierung, die Gesellschaft mit Hilfe der Technik in ihrem Sinne zu formen. Das verlangt schon das Paternalismus-Verbot in freien Gesellschaften. Wir dürfen für andere Individuen selbst dann nicht entscheiden, wenn wir meinen, dass wir sein Wohlergehen besser berücksichtigen als es selbst. Selbst wenn der Arzt recht hat, darf er dem Raucher nicht das Rauchen verbieten. Wir sind für uns selbst verantwortlich. Man kann den Menschen keine Technik aufzwingen, wenn sie sie nicht wollen. Das klammern die Fürsprecher der Künstlichen Intelligenz meist aus.

          Weitere Themen

          Topmeldungen

          Ein Kontoauszug mit der überwiesenen Summe von 9.000 Euro Corona-Soforthilfe.

          Betrugsverdacht : NRW stoppt Auszahlung von Soforthilfen

          Die Soforthilfe des Landes für Selbstständige und Unternehmen wird zum Wirtschaftskrimi: Betrüger haben offensichtlich Internetseiten gefälscht, um an Daten von Interessierten zu kommen und damit selbst Geld zu beantragen. Jetzt stoppt das Land die Auszahlungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.