https://www.faz.net/-gqz-72zz8

Krieg mit Drohnen : Das Gesicht unserer Gegner von morgen

  • -Aktualisiert am

Eine allesvernichtende Killermaschine

Über die Prioritäten und Maßgaben für zukünftige Entwicklungen wird derzeit in Militärkreisen heftig diskutiert. Dabei orientiert sich die militärakademische Diskussion nicht etwa an einer utilitaristischen Ethik, bei der abgewogen wird, welche Handlungen den größten Nutzen für die meisten Menschen ergeben. Diese Art der Abwägung wäre schlicht inkompatibel mit dem Ziel, eine größtmögliche Flexibilität bei der Definition von Missionszielen für die tödlichen Maschinen zu erhalten.

Die Militärforscher setzen vielmehr auf eine spezielle Ethik, bei der formal spezifizierte Verbote und Genehmigungen für einzelne Handlungen logisch kombiniert werden. Die Kriegsroboter sollen sich analog zu den heutigen „Rules of Engagement“ verhalten, wie sie in Kriegen an westliche Soldaten ausgegeben werden, um zu regeln, wann und unter welchen Umständen Waffengewalt eingesetzt werden darf. Zwangsläufig werden dabei, wie schon heute in Afghanistan und im Irak, die Abgrenzungsprobleme, wer ein feindlicher Kämpfer und wer ein Zivilist ist, zu tödlichen Fehlentscheidungen führen. Bei entsprechend aggressiver Konfiguration von Erlaubnissen und Verboten lässt sich ein derart gesteuerter Roboter auch als allesvernichtende Killermaschine benutzen.

Die Debatte muss geführt werden

Hinzu kommt, dass die derzeit eher theoretischen Überlegungen zur Implementierung einer Kriegsroboter-Ethik von fehlerfreier Funktionsweise der Systeme ausgehen. Die notwendige Software für autonome Systeme ist jedoch derart umfangreich und komplex, dass diese Annahme realitätsfern bleibt. Das hält die Militärstrategen jedoch nicht davon ab, für eine schnelle Entwicklung immer autonomerer Systeme zu werben. Dabei wächst insbesondere im Westen die Furcht davor, dass ein Gegner - implizit ist meistens China gemeint - schneller und mit weniger Rücksicht auf etabliertes Kriegsrecht voranpreschen könnte. In einer aktuellen Studie des amerikanischen Militärs wird etwa argumentiert: „Autonome Bodensysteme müssen gegen die größte Bedrohung auf dem Schlachtfeld konzipiert werden: ein hochmobiles, extrem letales feindliches autonomes System, das nicht über die höheren kognitiven Funktionen verfügt, die notwendig wären, um Kampfhandlungen auf den Rahmen der internationalen Verträge und des Landkriegsrechts einzugrenzen“.

Die Diskussion um die aktuelle Forderung der Bundeswehr nach bewaffneten Drohnen muss mit klarem Blick auf die Tendenz zukünftiger Autonomie-Entwicklungen geführt werden. Sind die Drohnen einmal bewaffnet, greift die Wettrüsten-Logik der Militärs, die wohlklingende Gründe für immer mehr Autonomie anführen werden. Heute sind es Funkverbindungen, die störanfällig und schmalbandig sind. Bald wird es die Reaktionsgeschwindigkeit des Menschen sein, die nicht mehr gegen einen mit Computergeschwindigkeit agierenden autonomen Kampfroboterschwarm ausreicht. Die Debatte um die Bewaffnung von Robotern, um Nutzen und Grenzen von maschineller Autonomie und ihre ethischen Implikationen muss geführt werden, bevor diese vermeintlichen Sachzwänge mit absehbarem Ausgang die Grundfesten moralischen und humanistischen Handelns erodieren. Sonst ist der Weg zu einer Welt, wie sie Daniel Suarez in „Kill Decision“ beschreibt, nicht mehr weit.

Weitere Themen

Topmeldungen

Miet- und Kaufpreise in Europa : Schlimmer geht immer

Deutschland ächzt unter hohen Mieten und teuren Immobilien. Doch anderswo in Europa ist die Lage weitaus dramatischer – kein gutes Zeichen.

Ich und das Klima : Du sollst verzichten

Die Deutschen müssen ihr Leben ändern, sagen die einen. Was die Deutschen machen, ist der Welt egal, behaupten die anderen. Was kann der Einzelne wirklich bewirken?

Umstrittener Backstop : Was will Boris Johnson?

In einem Brief an EU-Ratspräsident Donald Tusk kritisiert der britische Premierminister die „Backstop“-Regelung zur irischen Grenze und schlägt „alternative Vereinbarungen“ vor. Er stößt jedoch auf wenig Gegenliebe.

Newsletter

Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.