https://www.faz.net/-gqz-7loxo

Serie: High-Tech-Kriege I : Wenn die Technik zur Waffe wird

  • -Aktualisiert am

Bild: AFP

Bald werden uns Computer töten. Die Debatte darüber ist überfällig. Bisher aber wurden Drohneneinsätze speziell über Europa weitgehend totgeschwiegen. Dabei entwickeln sich die Methoden des mechanischen Tötens Tag für Tag fort.

          Technologie war schon immer eine entscheidende Triebkraft militärischer Auseinandersetzungen. Wer die moderneren, tötungsmächtigeren Waffen besaß, hatte einen Vorteil. Waffen multiplizieren die Kraft und Macht des Menschen. Auch Computer und Netze waren schon früh Bestandteile militärischer Systeme: Das Atomwaffenzeitalter war zugleich auch immer das Zeitalter der Computer.

          Nun stehen wir nicht an, sondern bereits hinter der Schwelle zweier neuer Folgen der militärischen Technologieentwicklung. Die „Elektronengehirne“ sind schnell und gut genug geworden, dass sie autonome Killerroboter steuern können, die zur Tötung von Menschen kaum noch menschlicher Hilfe bedürfen. Und die Computer und Netze sind selbst zum Schlachtfeld geworden - zu einem Zeitpunkt, wo unsere Abhängigkeit von ihnen nahezu total geworden ist.

          Die Entwicklung der Technik ist dabei - wieder einmal - schneller als die gesellschaftliche Diskussion. Militärs und Geheimdienstler schaffen Fakten, weitgehend unbeeinträchtigt von politischer und demokratischer Kontrolle. Die Debatten um Technologie als Waffe werden entscheidend sein für die Frage, in was für einer Gesellschaft wir leben wollen und welche Rolle der Mensch darin noch spielt.

          Falschinterpretationen der Situation

          Drohnen als weitblickende fliegende Augen sind eine Technologie, deren Vorteile unmittelbar einleuchten, auch denen, die nicht militärisch denken. Nicht umsonst wird ihnen in militärischen Kreisen nachgesagt, der „perfekten Waffe“ nahezukommen. Zugleich aber lösen sie Ängste aus, da der Vorteil schnell als eigener Nachteil erkannt wird, wenn man sich auf der falschen Seite des Kampfes befindet.

          Und auch die Gefahr der „Kollateralschäden“ ist in den letzten Monaten vielfach öffentlich diskutiert worden, meist anhand von tatsächlichen Falschinterpretationen der von der Sensorik erfassten Situation, die zu unbeabsichtigten Verletzten oder Toten führte.

          Natürlich sind die Maschinen immun gegen menschliche Fehler und Gefühle wie Rache und Mordlust, die in den Kriegen der vergangenen Jahrhunderte immer wieder brutale Gewalttaten hervorbrachten. Doch selbst wenn der Stress der unmittelbaren Kampfsituation und die Bedrohung des eigenen Lebens bei Drohnenpiloten nicht vorhanden ist, wird auch bei ihnen von erheblichen psychischen Problemen berichtet. Es bleibt nicht ohne Folgen, wenn man tagsüber auf Schicht pakistanische Zivilisten per Fernsteuerung massakriert und nachmittags zum Schul-Barbecue mit den Kindern fährt.

          Die Systeme „Predator“ und „Reaper“

          Die Vorstellung davon, wozu Drohnen technologisch in der Lage sind und in welchen Formen sie bereits existieren und zukünftig gebaut werden, ist jenseits der informierten Zirkel noch wenig ausgeprägt. Für eine politische Diskussion über die Entscheidungen zum Kauf und Einsatz sowie bei Fragen der Ächtung ist es jedoch unumgänglich, ein paar Details der Technik und ihrer Anwendung zu kennen. Bekannt sind vor allem die bewaffneten Systeme „Predator“ und „Reaper“, die durch die zahlreichen amerikanischen Einsätze in Pakistan, Somalia und Jemen ins Licht der Öffentlichkeit rückten.

          In diesen drei Ländern wurden in den vergangenen elf Jahren mindestens 430 Drohnenangriffe geflogen. Die „Teilnahme“ der Amerikaner an den nie erklärten Kriegen dort bestand also primär darin, teilautonome Waffen in den Luftraum zu beordern, die das Leben eigener Soldaten nicht unmittelbar gefährdeten. Zusätzlich wurden im Kriegsgebiet in Afghanistan seit 2009 nach freigegebenen Dokumenten der amerikanischen Air Force über 1300 Waffen von „Remotely Piloted Aircrafts“, also ferngesteuerten Flugrobotern, abgeschossen.

          In Deutschland wurde primär über den „Euro Hawk“ berichtet, der von Januar 2013 an im Testbetrieb über Deutschland flog und vor allem durch seine modernen SIGINT-Komponenten, also Systeme zur flächendeckenden Funküberwachung, gekennzeichnet ist. Der „Euro Hawk“ ist gemeinsam mit der bereits seit 2008 von den Amerikanern in Italien stationierten „Global Hawk“ die größte militärische Drohne, die derzeit zum Einsatz kommt.

          Über die Jahre hinweg wurden Fakten geschaffen

          Da allein Anschaffung und Unterhalt einer „Euro Hawk“-Demonstrationsdrohne der Bundeswehr 570 Millionen Euro verschlungen hatte und das Projekt an Zulassungs- und Projektmanagementproblemen gescheitert war, gab es erstmals eine öffentliche Diskussion über das Drohnenprogramm der Bundeswehr.

          Zuvor dürfte vielen Menschen kaum bewusst gewesen sein, dass und welche Flugroboter bereits angeschafft oder zum Kauf geplant worden waren. Generell wurden Drohneneinsätze über Europa weitgehend totgeschwiegen, um negative öffentliche Diskussionen zu vermeiden. So wurde etwa die italienische Erlaubnis an die Amerikaner, die „Global Hawk“ in Sizilien permanent zu stationieren, mit explizitem Hinweis auf die bevorstehende Präsidentschaftswahl im April 2008 geheim gehalten. Entsprechend sind über die Jahre Fakten geschaffen und erhebliche Summen zur Beschaffung bezahlt worden, ohne dass eine breite kritische Auseinandersetzung stattfand.

          Die Spanne der fliegenden Waffen und Späher reicht von solchen riesigen Fluggeräten wie der „Euro Hawk“, die tagelang ihre Kreise am Himmel ziehen kann, über helikopterartige Fluggeräte bis zu winzigen, äußerst wendigen Miniflugkörpern, die kaum so viel Gewicht haben, dass sie einem Windstoß standhalten können, und auch innerhalb von Gebäuden fliegen können.

          Von vielen Millionen Dollar bis zu wenigen Euro

          Sie kosten von vielen Millionen Dollar für große und oft bewaffnete Modelle, die vom fernen Computer aus gesteuert werden, bis zu wenigen Euro im Minisegment der schwarmfähigen Flugroboter, deren Hardware selbst die Waffe darstellt. In Zukunft sind noch deutlich kleinere Ausgaben zu erwarten.

          In allen Luftstreitkräften der Welt wird in diesen Tagen wohl die letzte Generation Kampfpiloten für bemannte Flugzeuge ausgebildet. Ihre Nachfolger kommandieren nur noch Drohnen aus der Ferne. Blitzschnelle, autonom agierende Killerroboter sind die logische Folge eines Wettrüstens, bei dem der Mensch nicht mehr im Wege steht.

          In der öffentlichen Wahrnehmung dominieren Fakten, die von den Herstellern in die Welt gesetzt wurden und einer Analyse kaum standhalten. Insbesondere wird die Genauigkeit der Angriffe von bewaffneten Drohnen betont sowie die angebliche Minimierung von „Kollateralschäden“. Studien belegen diese behauptete Zielgenauigkeit jedoch nicht. So konnte selbst in militärnahen Studien kein Rückgang bei der Tötung Unbeteiligter gegenüber konventionellen Angriffen verzeichnet werden. Im Gegenteil: Die Drohnen wiesen eine höhere Quote an „Kollateralschäden“ aus.

          Forderung nach einer weltweit kollektiven Pause

          Ob Drohnen, aber auch Maschinen, die gemeinhin Killerroboter genannt werden, eine irgendwie geartete Ethik beizubringen ist, bleibt letztendlich ein irrelevantes Spielfeld für Philosophen. Denn bisher existieren nicht einmal spezifische völkerrechtliche oder menschenrechtliche Vorgaben für den Einsatz beweglicher autonomer Waffen.

          Zwar kam in den letzten Monaten Bewegung in die politische Diskussion, seit im Juni diesen Jahres die Vereinten Nationen die Verwendung von autonomen Tötungsrobotern auf die Tagesordnung nahmen und ein Moratorium berieten. Der zuständige UN-Berichterstatter, Christof Heyns, forderte eine „weltweite kollektive Pause“, um über autonome Maschinen, die nur dafür gebaut werden, Menschen umzubringen, reflektieren zu können.

          Er verglich das Aufkommen autonomer Tötungsmaschinen in ihren Auswirkungen mit den fundamentalen Veränderungen in der Kriegsführung, die durch Schwarzpulver oder atomare Waffen ausgelöst wurden, nur dass nicht mehr ein Mensch die Entscheidung zum Waffeneinsatz beschließe, sondern der Roboter selbst. Denn Ziel solcher autonomer Waffensysteme ist nicht nur das Auffinden und Identifizieren der Zielpersonen, sondern gerade auch der Angriff auf diese Menschen, ohne dass ein anderer Mensch - auch kein weit entfernter - eingreift.

          Prototypen sind längst gebaut

          Die entscheidende Frage ist natürlich dabei, wie die Maschinen eine zu tötende Zielperson von einem unbeteiligten Dritten unterscheiden - oder generell einen Soldaten von einem Zivilisten oder von einem inaktiven, weil vielleicht verletzten oder bewusstlosen Soldaten. Kann das der Killerroboter mindestens so gut wie ein Mensch? Oder gar besser?

          Daran anknüpfend stellt sich die Frage der Verantwortlichkeit bei fälschlichen Tötungen, auf die es noch nicht im mindesten eine Antwort gibt. Auch die Fragen der Verhältnismäßigkeit beim Einsatz von Killerrobotern oder auch die Art der Waffen, die von den Maschinen zur Tötung verwendet werden dürfen, sind weitgehend ungeklärt, obwohl technologisch dem Bau solcher Roboter schon heute nichts mehr im Wege steht - Prototypen sind längst gebaut.

          Zu unterscheiden sind autonome Killerroboter von bereits seit vielen Jahren verwendeten automatisierten Abwehrkanonen, die typischerweise gegen heranrasende Überschallflugkörper eingesetzt werden. Denn der Mensch und seine Reaktionsfähigkeit reichen oft nicht aus, wenn eine Waffe mit mehreren hundert Kilometern pro Stunde auf ein Ziel zufliegt. Doch solche Abwehrsysteme operieren innerhalb von engen räumlichen und zeitlichen Grenzen, von denen sich Killerroboter schon konzeptuell lösen sollen.

          Die übliche Hybris der Ingenieure

          Die entscheidenden Regeln für den Einsatz von militärischer Gewalt sind die sogenannten „Rules of Engagement“, die durchaus unterschiedlich von Land zu Land ausfallen können. In ihnen wird festgelegt, unter welchen Umständen Waffen gegen welche Ziele eingesetzt werden dürfen. Um diese Regeln dreht sich dann auch die Diskussion der Praktiker unter den Killerroboter-Bauern und -Forschern. Statt sich mit den komplexen und hoffnungslos abstrakten Modellen der Ethiker und Philosophen zu befassen, nehmen sie mit der üblichen Hybris des Ingenieurs an, dass ein Roboter entwickelt werden kann, der den „Rules of Engagement“ präzise folgt.

          Killerroboter werden primär daraufhin optimiert, die Missionsziele zu erfüllen. Wenn dann die Einsatzregeln besagen, dass keine Zivilisten oder Verwundeten angegriffen werden sollen, ist dem Gewissen genüge getan. Dass unter den Bedingungen eines Schlachtfeldes eine solche Unterscheidung extrem schwierig wird, ficht sie dabei nicht an. Die an Zynismus kaum zu überbietende Begründung lautet, dass sich schließlich auch menschliche Soldaten oft nicht daran halten. Die Komplexität der Regeln richtet sich in der Praxis letztendlich nach dem, was an Komplexität effektiv modelliert und in Software überhaupt abgebildet werden kann.

          Derzeit gilt noch der Grundsatz des man in the loop, mit dem verhindert werden soll, dass Algorithmen „autonom“ Entscheidungen über Leben und Tod fällen. Auch wenn das Gegenargument ist, dass sie das irgendwann besser und mit weniger „Kollateralschäden“ tun können als ein Mensch, ist es zwingend notwendig, dabei zu bleiben.

          Die grundlegenden Verschiebungen in den Machtsymmetrien, die schon allein durch die derzeitigen teilautonomen Systeme entstehen, sind bereits groß. Die Verwerfungen, die durch vollständig autonome Killerroboter entstehen würden, die übrigens auf lange Sicht auch für kleine Gruppen von Menschen ein bisher ungekanntes militärisches oder polizeistaatliches Machtinstrument darstellen, sind zu immens, um sie zu riskieren.

          Weitere Themen

          „Harri Pinter Drecksau“ Video-Seite öffnen

          Trailer : „Harri Pinter Drecksau“

          Jürgen Maurer spielt Harri Pinter, einen Mitvierziger, der von sich und seinem Auftritt mehr als überzeugt ist. Als seine Freundin ihn jedoch betrügt, gerät sein Selbstbild ins Wanken. Der österreichische Film läuft am 19.07.2019 um 20.15 Uhr auf arte.

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.