https://www.faz.net/-gqz-72zz8

Krieg mit Drohnen : Das Gesicht unserer Gegner von morgen

  • -Aktualisiert am

Im Film „Matrix“ heißen die Drohnen „Sentinels“. Ihre Aufgabe ist das Suchen und Zerstören, tausendfach. Bild: Warner Brothers

Wir stehen vor einem Wettrüsten für einen Krieg autonomer Roboter. Noch entscheiden Menschen und nicht Drohnen über Leben und Tod. Doch die Debatte darüber, was Maschinen können sollen, muss geführt werden, bevor der Fortschritt den letzten Rest Humanität kassiert.

          7 Min.

          Schon seit der Frühzeit widmet der Mensch einen beachtlichen Teil seiner Energie, Resourcen und Intelligenz der kriegerischen Auseinandersetzung. Trotz aller komplexen Waffen, Reittiere, Panzer, Flugzeuge und Interkontinentalraketen ist der bewaffnete Kampf ein Konflikt zwischen Menschen - bisher. Nun rollt auch beim Krieg, wie überall sonst, die Automatisierungswelle. Die militärische Auseinandersetzung und auch ihre kleine Schwester, die flächendeckende Überwachung im Namen der Sicherheit, werden immer stärker von Maschinen und Algorithmen dominiert.

          Autonome Systeme, die in ihren Entscheidungen immer weniger auf den Menschen angewiesen sind, werden zum Rückgrat zukünftiger militärischer Auseinandersetzungen. Die Restkriege in Afghanistan und Irak, die neuen Konflikte in Afrika und eine Reihe von wenig bekannten Kampfeinsätzen auf anderen Kontinenten werden zum großen Teil aus der Luft mit ferngesteuerten Drohnen geführt, die nicht nur Kameras, Sensoren und Funküberwachungsinstrumente tragen, sondern auch mit Raketen bewaffnet sind.

          In den Planungen der Militärs, auch der Bundeswehr, nehmen Roboter-Kampfmaschinen einen immer größeren Raum ein. Die Produktions- und Betriebskosten sind vergleichsweise niedrig, es muss schließlich keine Rücksicht auf die Bedürfnisse von Piloten oder Fahrern genommen werden. Und die Vorgesetzten müssen sich nicht per Funk mit einem Piloten auseinandersetzen, der eine eigene Wahrnehmung der Gefechtslage hat, der einen Befehl missinterpretiert, ignoriert oder nicht befolgt.

          Fatale Irrtümer sind an der Tagesordnung

          Der neue Pilot sitzt im Zweifel, nur schräg über den Flur, an der Drohnen-Kontrollkonsole. Die Ausbildung der Drohnen-Fernsteuerer ist wesentlich preiswerter und kürzer als die eines Jetpiloten. Sie können abends nach Hause gehen und den Krieg im ganz normalen Schichtdienst absolvieren. Die Auswirkungen dieser digital vermittelten Distanz zum Krieg auf die Psyche der Soldaten werden erst allmählich sichtbar.

          Schon seit einiger Zeit können Computer Flugzeuge fliegen, auch bei hohen Geschwindigkeiten und unter komplizierten Bedingungen. Jedes Passagierflugzeug verfügt über einen Autopiloten, der das Flugzeug von Start bis Landung fliegen könnte. Nur noch die Flugroute wird programmiert. Drohnen werden heute in der Regel genauso gesteuert: Es werden Wegpunkte vorgegeben und angeflogen und Verweilschleifen über Ziele festgelegt, die beobachtet und schließlich beschossen werden sollen. Je nach Situation kann auch noch direkt gesteuert werden, jedoch mit einer durch die Satellitenverbindung bedingten Zeitverzögerung im Sekundenbereich.

          „Predator“-Drohne des amerikanischen Militärs

          Die Frage, gegen welche Ziele die roboterisierten Waffen gerichtet werden und nach welchen Kriterien entschieden wird, ist das Zentrum der derzeitigen Drohnen-Diskussion. Es ist schließlich niemand vor Ort, die Realität wird über Tausende Kilometer hinweg durch Sensoren und Kameras wahrgenommen. Fatale Irrtümer sind an der Tagesordnung, auch die besten Prozeduren und Vorschriften können sie nicht verhindern.

          Die Analyse typischer Bewegungsmuster

          Die Datenströme aus den Sensoren des massenhaften Drohneneinsatzes überfordern schon jetzt die Kapazitäten der Übertragungssatelliten und entziehen sich der vollständigen Auswertbarkeit durch Menschen schon allein durch ihre schiere Masse. Die logische Konsequenz: Auch hier wird zunehmend mit maschineller Intelligenz gearbeitet, die nach Mustern sucht und daraus Handlungsempfehlungen ableitet. Formal ist der Soldat zwar noch der Raketenschütze, jedoch sind ihm viele wesentliche Entscheidungen, die lange vor dem eigentlichen Schuss liegen, längst aus der Hand genommen worden.

          Menschen am Boden werden schon heute aus der Luft mit Raketen angegriffen, nur weil ihre typischen Bewegungsmuster, die ebenfalls von Drohnen erfasst und gegen in Datenbanken gespeicherte Aufzeichnungen abgeglichen werden, den vermuteten Bewegungen von Aufständischen entsprechen. Ob es sich dabei um Ziegenhirten, Schmuggler oder feindliche Soldaten handelt, ist für fliegende Kampfroboter nicht zu erkennen. Heute geschehen solche automatischen Analysen in den Steuerzentralen und Lagezentren, unter der Aufsicht von Menschen. Zukünftig soll dies an Bord der Drohne geschehen, um Zeit, Personal und Übertragungskapazität zu sparen.

          Kommandogewalt nur noch auf einer abstrakten Ebene

          Die Entwicklungsrichtung ist klar: Nur noch der finale Knopfdruck, das eigentliche Abfeuern der Rakete wird aus rechtlichen und moralischen Gründen dem Menschen überlassen. Er kann sich aufgrund seiner Erfahrung mit den typischen Fehlern der Maschinen derzeit noch entscheiden, nicht zu schießen. Und auch dabei wird er demnächst von Algorithmen beobachtet, die aus seinem Verhalten lernen, um beim nächsten Mal besser zu sein. Irgendwann, in absehbarer Zeit wird der finale Knopfdruck nur noch ein Ritual, eine Handlung, die eigentlich überflüssig ist, weil sie keine bewusste Entscheidung mehr darstellt, sondern nur noch die althergebrachte Tradition, im Angesicht der technischen Möglichkeiten eine immer ineffizienter und antiquierter erscheinende Moralverpflichtung. Da der Mensch die Kapazität zur Aufnahme, zum Verständnis und zur Einordnung der immensen, von Maschinen für Maschinen generierten Datenströme schlicht nicht hat, bleibt ihm die Kommandogewalt nur noch auf einer abstrakten Ebene erhalten.

          Es fällt schwer, greifbare Kategorien für unsere Beziehungen zu algorithmischen „Intelligenzen“ zu finden. Stellen wir uns einen gut trainierten Hund vor. Wir können nicht immer vorhersagen, warum und was er im nächsten Moment tun wird, aber wir können ihm Befehle erteilen, seine Fähigkeiten nutzen und Erfahrungswissen über sein Verhalten und seine Reaktionen sammeln. Unser algorithmisch „intelligenter“ Hund unterscheidet sich jedoch darin, dass er eine nahezu unbeschränkte Aufnahmefähigkeit und ein perfektes Gedächtnis hat.

          „Search and Destroy“

          Das tatsächliche Verständnis der Drohnen-Piloten für die Konstruktion, die Fehler und Probleme der Maschinen, die sie bedienen, bewegt sich ungefähr auf dem Niveau eines Hundeführers, der seine Tiere einigermaßen gut kennt. Er weiß nichts über die Neuronenverknüpfung im Hirn des Hundes, , aber viel über das typische Verhalten. Genauso wenig kennt der Drohnen-Pilot die Steuer-Software im Detail, er ist nur an das typische Output-Muster gewöhnt. Der gravierende Unterschied ist, dass die Menschheit schon ein paar tausend Jahre Erfahrung mit den Eigenarten und Eigenschaften von Haustieren hat, die sich nur relativ langsam verändern.

          Wir stehen am Beginn eines Wettrüstens im Bereich der Algorithmen für letale Autonomie. Wer schneller ist und weniger Hemmungen hat, solche Systeme trotz aller Mängel auch einzusetzen, kann, so die Logik des neuen Wettrüstens, erhebliche strategische und finanzielle Vorteile haben und möglicherweise etwas Abschreckung verbreiten.Das neue Wettrüsten markiert einen Wendepunkt auch für Forscher, die sich im akademischen Bereich mit Robotern und künstlicher Intelligenz beschäftigen. Nun ist fast jedes Forschungsthema in diesem Feld relevant für den Bau neuer, intelligenterer Waffen.

          Die beliebten Wettbewerbe für universitäre Roboterforscher haben neben dem Fußballspiel oft als Szenario das „Search and Rescue“, das Auffinden von Personen in unübersichtlichen Situationen und Geländen zum Zwecke ihrer Rettung aus Notlagen. Beim Militär gibt es eine von den Anforderungen her ausgesprochen ähnliche Mission: „Search and Destroy“. Dabei geht es ebenfalls um das Auffinden von Personen in unübersichtlichem Gelände. Nur das diese dann nicht gerettet, sondern getötet werden. Aus technischer Sicht ist der Unterschied nur, dass der Drohnenschwarm dann der gefundenen Person keine Markierungs-Bake mit Verbandspäckchen vor die Füße wirft, sondern eine Granate.

          Mit hundertprozentiger Tödlichkeit

          Das Ziel der aktuellen Entwicklungen sind noch nicht die aus Science-Fiction-Werken bekannten vollautonomen Roboter à la Terminator. Die Realität tödlicher Maschinen wird viel banaler, aber nicht weniger furchterregend. Auf den Schlachtfeldern der nächsten Jahre werden sogenannte intelligente „Area denial“-Waffen auftauchen. Aus Computerspielen als „Sentinel“ (Wächter) bekannt, handelt es sich um Roboterwaffen mit der überschaubaren Intelligenz einer modernen Alarmanlage. Ihre Aufgabe: auf alles, was sich in dem ihnen zugeteilten Geländeabschnitt, der sogenannten „kill box“, bewegt, zu feuern, bis sich nichts mehr bewegt.

          An die Sensor- und Reaktionssysteme lassen sich je nach Bedarf und Produktkonzept von „weniger tödlichen“ Optionen wie Gummigeschossen über Maschinengewehre bis zu kleinen Granatwerfern die verschiedensten Schießgeräte adaptieren. Der Effekt ist der eines Minenfeldes mit hundertprozentiger Tödlichkeit.

          Entwickelt wurden solche Systeme schon in Israel und Südkorea, um Grenzverletzer automatisch zu erschießen. Das gleiche Prinzip gibt es auch in Form fliegender Einweg-Drohnen, die über einem Schlachtfeld kreisen und auf das Auftauchen eines Ziels warten, um sich dann autonom auf dieses zu stürzen und zu explodieren, die „loitering ammunition“.

          Eine allesvernichtende Killermaschine

          Über die Prioritäten und Maßgaben für zukünftige Entwicklungen wird derzeit in Militärkreisen heftig diskutiert. Dabei orientiert sich die militärakademische Diskussion nicht etwa an einer utilitaristischen Ethik, bei der abgewogen wird, welche Handlungen den größten Nutzen für die meisten Menschen ergeben. Diese Art der Abwägung wäre schlicht inkompatibel mit dem Ziel, eine größtmögliche Flexibilität bei der Definition von Missionszielen für die tödlichen Maschinen zu erhalten.

          Die Militärforscher setzen vielmehr auf eine spezielle Ethik, bei der formal spezifizierte Verbote und Genehmigungen für einzelne Handlungen logisch kombiniert werden. Die Kriegsroboter sollen sich analog zu den heutigen „Rules of Engagement“ verhalten, wie sie in Kriegen an westliche Soldaten ausgegeben werden, um zu regeln, wann und unter welchen Umständen Waffengewalt eingesetzt werden darf. Zwangsläufig werden dabei, wie schon heute in Afghanistan und im Irak, die Abgrenzungsprobleme, wer ein feindlicher Kämpfer und wer ein Zivilist ist, zu tödlichen Fehlentscheidungen führen. Bei entsprechend aggressiver Konfiguration von Erlaubnissen und Verboten lässt sich ein derart gesteuerter Roboter auch als allesvernichtende Killermaschine benutzen.

          Die Debatte muss geführt werden

          Hinzu kommt, dass die derzeit eher theoretischen Überlegungen zur Implementierung einer Kriegsroboter-Ethik von fehlerfreier Funktionsweise der Systeme ausgehen. Die notwendige Software für autonome Systeme ist jedoch derart umfangreich und komplex, dass diese Annahme realitätsfern bleibt. Das hält die Militärstrategen jedoch nicht davon ab, für eine schnelle Entwicklung immer autonomerer Systeme zu werben. Dabei wächst insbesondere im Westen die Furcht davor, dass ein Gegner - implizit ist meistens China gemeint - schneller und mit weniger Rücksicht auf etabliertes Kriegsrecht voranpreschen könnte. In einer aktuellen Studie des amerikanischen Militärs wird etwa argumentiert: „Autonome Bodensysteme müssen gegen die größte Bedrohung auf dem Schlachtfeld konzipiert werden: ein hochmobiles, extrem letales feindliches autonomes System, das nicht über die höheren kognitiven Funktionen verfügt, die notwendig wären, um Kampfhandlungen auf den Rahmen der internationalen Verträge und des Landkriegsrechts einzugrenzen“.

          Die Diskussion um die aktuelle Forderung der Bundeswehr nach bewaffneten Drohnen muss mit klarem Blick auf die Tendenz zukünftiger Autonomie-Entwicklungen geführt werden. Sind die Drohnen einmal bewaffnet, greift die Wettrüsten-Logik der Militärs, die wohlklingende Gründe für immer mehr Autonomie anführen werden. Heute sind es Funkverbindungen, die störanfällig und schmalbandig sind. Bald wird es die Reaktionsgeschwindigkeit des Menschen sein, die nicht mehr gegen einen mit Computergeschwindigkeit agierenden autonomen Kampfroboterschwarm ausreicht. Die Debatte um die Bewaffnung von Robotern, um Nutzen und Grenzen von maschineller Autonomie und ihre ethischen Implikationen muss geführt werden, bevor diese vermeintlichen Sachzwänge mit absehbarem Ausgang die Grundfesten moralischen und humanistischen Handelns erodieren. Sonst ist der Weg zu einer Welt, wie sie Daniel Suarez in „Kill Decision“ beschreibt, nicht mehr weit.

          Weitere Themen

          Topmeldungen

          Trump und die Republikaner : Ein Ende der blinden Gefolgsamkeit?

          Nach wie vor steht die breite Mehrheit der Republikaner hinter Donald Trump. Doch einzelne Republikaner erwägen bereits, ein Amtsenthebungsverfahren gegen Amerikas Präsidenten zu unterstützen. Sie bewegen sich dabei auf einem schmalen Grat.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.