https://www.faz.net/-gqe-90zo0

Künstliche Intelligenz : Wer wagt es, Killer-Roboter zu verbieten?

Soweit wie im Film „Terminator: Die Erlösung“ sind wir dann doch noch nicht. Bild: Picture-Alliance

Mehr als hundert Unternehmer, die in Künstliche Intelligenz und Robotik investieren, warnen die Weltgemeinschaft vor der Gefahr intelligenter Waffensysteme. Nun hat sich eine Regierung zu Wort gemeldet. Das Problem ist kompliziert.

          Großbritannien wird kein Verbot von tödlichen autonomen Waffen – umgangssprachlich „Killer-Robotern“ – unterstützen. Das teilte das britische Verteidigungsministerium mit. Das Vereinigte Königreich beabsichtige nicht, voll autonome Waffensysteme zu entwickeln oder zu kaufen, sagte ein Ministeriums-Sprecher dem Finanzdienst Bloomberg. Das Land sei allerdings auch gegen einen präventives Verbot solcher Waffen. „Es ist richtig, dass unsere Waffen von realen Personen gesteuert werden, die in der Lage sind, komplexe Entscheidungen zu treffen, und obwohl sie zunehmend High-Tech werden, werden sie immer unter menschlicher Kontrolle sein.“

          Alexander Armbruster

          Verantwortlicher Redakteur für Wirtschaft Online.

          Das Ministerium reagiert damit auf einen im Internet veröffentlichten Brief, den mehr als einhundert Technologie-Unternehmer an die Vereinten Nationen geschrieben haben, die Geld in Künstliche Intelligenz und Robotik stecken. Auch wenn sie sich darin nicht dezidiert für ein generelles Verbot aussprechen, warnen sie doch sehr eindringlich davor, diese Technologie zu missbrauchen. Killer-Roboter könnten ihrer Ansicht nach eine „dritte Revolution der Kriegsführung“ herbeiführen. „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“, schreiben die Fachleute.

          „Die Versuchung wird sehr groß sein“

          Zu den Unterzeichnern zählen Mustafa Suleyman, der das mittlerweile zum amerikanischen Technologieunternehmen Alphabet (Google) gehörende KI-Unternehmen Deepmind mitgründete und leitet, und Tesla-Gründer Elon Musk. Darunter sind auch führende KI-Forscher wie Yoshua Bengio, ein Pionier der gerade angesagten KI-Methoden (neuronale Netze, Deep Learning), der Informatik-Professor Stuart Russell und der deutsche KI-Experte Jürgen Schmidhuber. „Wenn die Menschen nicht neue Massenvernichtungswaffen sehen wollen – in der Form großer Schwärme tödlicher Mikrodrohnen – (...) ist es unabdingbar (...) einen Vertrag gegen tödliche autonomen Waffen auf den Weg zu bringen“, sagte Russell. Er und seine beiden Kollegen Schmidhuber und Bengio gehören gewöhnlich nicht zu denjenigen, die apokalyptische Warnungen aussprechen, sie weisen stets nüchtern vielmehr auf die großen Chancen der Künstlichen Intelligenz hin.

          In ihrem Brief an die Vereinten Nationen nennen die Tech-Unternehmer auch Beispiele für den möglichen Einsatz solcher Waffen. „Das können Waffen des Terrors sein, Waffen, die Despoten und Terroristen gegen unschuldige Bevölkerung einsetzen, und Waffen, die gehackt werden könnten, um sich in einer unerwünschten Art und Weise zu verhalten.“ Die Weltgemeinschaft hat ihrer Ansicht nach nicht viel Zeit, um nun zu handeln. „Wenn diese Büchse der Pandora geöffnet ist, wird es sehr schwer werden, sie wieder zu schließen.“

          Unmöglich ist ein Waffenverbot nicht. Mehr als 190 Staaten haben sich beispielsweise darauf geeinigt, keine chemischen Waffen in der Kriegsführung einzusetzen. Auch gegen die Verbreitung von Atomwaffen gehen sie vor. Allerdings haben beide Arrangements bislang nicht hundertprozentig funktioniert.

          Die digitale F.A.Z. PLUS
          F.A.Z. Edition

          Die digitale Ausgabe der F.A.Z., für alle Endgeräte optimiert und um multimediale Inhalte angereichert

          Mehr erfahren

          Die Möglichkeiten, mittels Künstlicher Intelligenz die eigene militärische Schlagkraft deutlich zu steigern, scheinen gleichwohl groß – und verlockend. Zu diesem Ergebnis kommt etwa eine unlängst veröffentlichte Untersuchung im Auftrag der amerikanischen Geheimdienste. „Man wird kaum ein komplettes Verbot autonomer Waffensysteme erreichen. Die Versuchung, sie zu benutzen, wird sehr stark sein“, sagte Greg Allen, einer der beiden Autoren und Mitarbeiter der in Washington ansässigen unparteiischen Denkfabrik „Center for New American Security“, gegenüber dem Internetdienst „Wired“. Als Beispiele für schon existierende und wenigstens teilweise autonome Waffensysteme werden etwa das Raketenabwehrsystem Aegis genannt, dass die amerikanische Marine verwendet und eine von der israelischen Luftwaffe eingesetzte Drone namens Harpy.

          Der britische KI-Fachmann und Informatiker Noel Sharkey kommentierte die Stellungnahme des Verteidigungsministeriums seines Landes mit der Frage: „Wenn Sie sie (autonome Waffen, a. d. Red.) nicht einsetzen, warum würden Sie dann andere Leute dies tun lassen?“

          Weitere Themen

          Die Jagd nach dem Milliarden-Schatz Video-Seite öffnen

          FAZ Plus Artikel: Bergbau im Erzgebirge : Die Jagd nach dem Milliarden-Schatz

          Im Erzgebirge wird an der ersten deutschen Erzmine seit dem Krieg gebaut. Ein Investor verspricht sichere Rohstoffe und Hunderte Arbeitsplätze. Doch Politiker interessiert es nicht, Behörden mauern und Anwohner rebellieren.

          Topmeldungen

          Spahns Notfallplan : Fast schon verdächtig viel Zustimmung

          Der Gesundheitsminister will Kassenärzte und Krankenhäuser zur Zusammenarbeit zwingen – und erhält dafür Lob von allen Seiten. Doch bei der Umsetzung sperren sich die Verantwortlichen noch.
          Hat sich zum Zwei-Prozent-Ziel der Nato-Staaten bekannt: Annegret Kramp-Karrenbauer

          Akks Wehretat : Der Streit schwelt weiter

          Die neue Verteidigungsministerin Annegret Kramp-Karrenbauer bekräftigt das Ziel der Nato, dass die Verteidigungsausgaben steigen sollen. Das provoziert Widerstand – in der Opposition und selbst beim Koalitionspartner.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.