http://www.faz.net/-gwz-8949s
HERAUSGEGEBEN VON WERNER D'INKA, JÜRGEN KAUBE, BERTHOLD KOHLER, HOLGER STELTZNER
F+ Icon
F.A.Z. PLUS
abonnieren

Veröffentlicht: 23.10.2015, 12:37 Uhr

Kampfroboter Schrecklich perfekte Krieger

Sie kennen weder Angst noch Rache: Roboter wären effiziente Soldaten. Für viele Forscher ist das eine Horrorvorstellung. Aber nicht für alle.

von Piotr Heller
© F.A.Z., QinetiQ Kampfroboter: Schrecklich perfekte Krieger

Am 21. Juli 2008 fiel in einem Kontrollzentrum der amerikanischen Luftwaffe der Strom aus, alle Monitore erloschen. Daraufhin brach das Chaos aus, berichtete Jahre später die Washington Post. Die Piloten steuerten gerade drei Predator-Drohnen über Afghanistan: bewaffnete, ferngesteuerte Fluggeräte mit 15 Metern Spannweite. Als das Kontrollzentrum nach einigen Minuten wieder einsatzbereit war, konnten sie die Kontrolle über zwei der Drohnen zurückgewinnen. Die dritte verschwand. Keine Seltenheit, wie die Zeitung ermittelte. Seit 2001 haben die amerikanischen Streitkräfte an die hundert Drohnen verloren, weil die Verbindung zusammenbrach.

Der Drohnenkrieg hat so seine Tücken, auch weil die ferngesteuerten Luftschläge nicht immer ihr eigentliches Ziel treffen. Erst vergangene Woche etwa wurden amerikanische Geheimdokumente bekannt, nach denen im November 2012 ein niederranginger Taliban-Führer per Drohne exekutiert worden sei, der nach Nato-Quellen aber drei Tage später noch am Leben war. Statt seiner starb also irgendein Unbeteiligter.

Sie kennen weder Wut noch Hass

Was die abgerissenen Verbindungen angeht, so arbeitet das Pentagon an einer Lösung, die zugleich noch ganz andere Probleme in den Blick nimmt: Laut einer Umfrage haben sieben Prozent der amerikanischen Soldaten im Irak-Krieg Zivilisten misshandelt. Und wie das U.S. Department of Veterans Affairs meldet, begehen jeden Tag 22 ehemalige Soldaten Selbstmord. Eine Technologie, die all dies in den Griff zu bekommen verspricht, ist die der „autonomen Waffen“, also Maschinen, die eigenständig kämpfen und töten. Sie kämen ohne eine Verbindung zu Bodenstationen aus. Sie würden keine Zivilisten misshandeln, denn sie würden weder Wut noch Hass oder ein Verlangen nach Rache spüren. Und sie würden nicht verstört zurückkehren, denn sie sind frei von Psyche.

Für zahlreiche Forscher ist diese Waffenform eine Horrorvorstellung, und so haben in kürzester Zeit fast 3000 Experten für Robotik und künstliche Intelligenz einen offenen Brief unterschrieben, der sich dagegen ausspricht. Sie fordern beispielsweise, autonome Waffen zu verbieten, und zeichnen eine düstere Vision der Zukunft, sollten autonome Kampfroboter doch ihren Weg auf die Schlachtfelder finden. Glaubt man den Forschern, könnte das schon bald passieren.

Die Technik wäre vorhanden

„Es würde vielleicht etwas Ingenieurskunst erfordern, aber keinen technischen Durchbruch“, antwortet Stuart Russell auf die Frage, was nötig sei, um autonome Waffen zu bauen. Der Informatiker von der University of California ist einer der Autoren des offenen Briefs. Tatsächlich können Drohnen sich bereits selbständig in fremdem Gelände zurechtfinden und helfen auf diese Weise etwa Feuerwehrleuten beim Einsatz. Autos bremsen automatisch für Fußgänger, und moderne Computersysteme erkennen Objekte - zum Beispiel Menschen - auf Bildern mit einer Fehlerquote, die unter fünf Prozent liegt. „Die Grundzutaten sind da, man muss sie nur kombinieren“, sagt Russell.

Wie könnten diese Maschinen aussehen? Wohl kaum wie Arnold Schwarzenegger in der Rolle des Terminators aus der gleichnamigen Filmreihe. Aber Russell schätzt, dass zumindest zwei Projekte der „Darpa“, der Forschungsbehörde des amerikanischen Verteidigungsministeriums, einen Vorgeschmack auf autonome Waffen geben. Eines widmet sich der „Fast Lightweight Autonomy“. Es soll kleinen Fluggeräten ermöglichen, selbständig unbekannte Gegenden zu durchstreifen und zum Beispiel durch Fenster zu fliegen.

Neue Form der Massenvernichtungswaffen

Das zweite Programm heißt Collaborative Operations in Denied Environment, kurz „Code“, was übersetzt in etwa bedeutet: gemeinsame Einsätze in unzugänglicher Umgebung. Damit will die Darpa das Problem der Kommunikation zwischen Drohne und Bodenstation beseitigen. Dafür sind Fluggeräte vorgesehen, die untereinander kommunizieren. „So wie Wölfe im Rudel mit minimaler Kommunikation jagen, so würden die Code-Fluggeräte zusammenarbeiten und Ziele finden, verfolgen und angreifen“, erklärt es der Leiter des Projekts in einem Text. Trotzdem solle ein Mensch solche Missionen kontrollieren. Das wiederum bezweifelt Russell: „Alles andere in der Projektbeschreibung suggeriert: ,Wir werden ein autonomes System bauen, um Menschen zu töten.‘“

Two bomb disposal robots in deserted street © Getty Vergrößern Roboter im Häuserkampf bleiben einstweilen Science-Fiction. Selbstfahrende Minipanzer gibt es zwar bereits, aber noch werden sie von Menschen ferngesteuert.

Der Informatikprofessor kommentiert das Vorhaben bewusst drastisch, denn er sieht in autonomen Kampfrobotern keine bloße Weiterentwicklung konventioneller Waffensysteme. Für ihn stellen sie eine neue Klasse von Massenvernichtungswaffen dar: „Wenn man Panzer hat oder Maschinengewehre, dann braucht man viele Soldaten, um sie zu bedienen.“ Mit einer Massenvernichtungswaffe jedoch könnte eine kleine Gruppe gegen Tausende oder Millionen Menschen zu Felde ziehen. Das gelte für autonome Waffensysteme ebenso. Weil sie selbständig arbeiteten, würden nur wenige Menschen gebraucht, um sie zu bedienen. Und womöglich seien sie sogar gefährlicher als die bisher existierenden Massenvernichtungswaffen.

Was gehackt werden kann, wird auch gehackt

Im Vergleich zu Atombomben etwa sind die autonomen Waffen leicht herzustellen. Sie könnten auf dem Schwarzmarkt landen, wo Despoten und Terroristen sie in die Finger bekämen. Russell befürchtet, dass die autonomen Waffen so etwas wie die Kalaschnikow der Zukunft werden könnten: billig, verfügbar und effizient. Selbst wenn sie nicht in die falschen Hände fielen, sinke die Hemmschwelle, in den Krieg zu ziehen. Und sie könnten das öffentliche Bild von künstlicher Intelligenz und Robotik beschädigen, warnt Russell. Verständlich, dass ein Wissenschaftler aus dem Forschungsgebiet das nicht will.

Dass autonome Waffen in den Krieg ziehen, will auch Toby Walsh verhindern, der sich an der australischen University of New South Wales mit künstlicher Intelligenz auseinandersetzt: „Wenn wir eines über neue Technologien wissen, dann, dass irgendjemand sie recht schnell hacken wird.“ Dem Einwand, dass dies eben das Risiko jeder neuen Technik sei, stehen im Fall der autonomen Waffen einige Argumente von besonderer Brisanz gegenüber: Sie sind keine bloßen Werkzeuge, sondern haben Fähigkeiten und ein gewisses Maß an Freiheit. Damit ähneln sie Soldaten, bei denen man jedoch davon ausgehen kann, dass sie ihre Fähigkeiten verantwortungsvoll nutzen und ethischen Werten folgen - bei Maschinen ist das nicht der Fall. „Ihre Macher könnten sie so programmieren, dass sie sich moralisch verhalten. Andere Leute könnten sie allerdings hacken und so umprogrammieren, dass sie ein völlig unmoralisches Verhalten an den Tag legen“, fürchtet Walsh.

Forscher wie Russell und Walsh stecken in einem Dilemma, das am Beispiel der selbstfahrenden Autos deutlich wird. „Wir wollen diese Technologie“, sagt Walsh. „Aber die Fähigkeit der Autos, herauszufinden, wo sie hinfahren sollen und wo sie gerade herkommen, die brauchen auch autonome Waffen.“ Auf diese Weise fördern die Wissenschaftler mit ihrer Forschung ausgerechnet das, was sie eigentlich vereiteln wollen.

Das künstliche Schuldgefühl

Nicht alle Wissenschaftler befürworten ein Verbot, Ronald Arkin etwa hält es für keine gute Idee. Der Robotik-Fachmann forscht am Georgia Institute of Technology und arbeitet mit dem Militär zusammen, um in Zukunft Szenen zu verhindern, wie er sie in einem Video sah. Die Sequenz hielt fest, wie der Schütze eines Apache-Kampfhubschraubers im Irak auf einen am Boden liegenden und wahrscheinlich verletzten Mann feuert. „Das hat mich daran zweifeln lassen, wie moralisch sich Menschen auf dem Schlachtfeld verhalten“, sagt Arkin.

Es gibt Richtlinien dafür, wie sich Soldaten im Kampf verhalten sollen. Sie sind etwa in der Genfer Konvention verankert. Verletzte, Zivilisten und Kulturgüter sollen geschont werden. Und wenn das nicht möglich ist, dann muss der Schaden in einem vernünftigen Verhältnis zum militärischen Ziel stehen. Arkin versucht, Computern diese Regeln beizubringen, und stellt sie in Simulationen auf die Probe. Zu sehen ist dann beispielsweise eine Stadt aus der Vogelperspektive: feindliche Fahrzeuge, Zivilisten, ein Krankenhaus und ein Tempel. Von Westen fliegt eine Drohne ins Bild - die autonome Waffe - und greift einen feindlichen Konvoi an, tötet aber auch zwei Zivilisten. Später entdeckt die Drohne einen feindlichen Panzer, beobachtet diesen, greift jedoch nicht an.

Obwohl sie es könnte, hält sich die Drohne nun zurück: Weil Arkin die Maschine mit einem künstlichen Schuldgefühl ausgestattet hat. Nach dem Tod der Zivilisten wurden ihre Waffensysteme deaktiviert. Die durch solche Fälle aufgeladene Schuld ist nur ein Faktor, der in die Entscheidungen der Drohne einfließt, Arkin hat einen „ethischen Regler“ programmiert. Dieser hemmt die Feuerkraft der Drohne und ist dabei so gestaltet, dass die Richtlinien für Soldaten, so gut es geht, umgesetzt werden.

Hält sich eine Maschine besser an die Regeln als Soldaten?

In einer anderen Prüfung muss die Drohne ein Ziel angreifen, in dessen Nähe sich Wohnhäuser und Zivilisten befinden. Der ethische Regler geht zunächst sein Waffenarsenal durch und wägt einen Angriff ab, damit die umliegenden Gebäude so wenig Schaden wie möglich nehmen. Zukünftige Kampfroboter müssten nicht unbedingt fliegende Drohnen sein: Arkin ist überzeugt, dass Maschinen überall dort dienen könnten, wo es für Menschen zu gefährlich wird, etwa wenn es Scharfschützen zu bekämpfen oder Häuser zu erobern gilt.

„Mit meiner Forschung will ich prüfen, ob eine Maschine sich besser an Regeln für Soldaten halten kann, als ein Mensch es könnte“, erklärt Arkin. Solange das nicht der Fall ist, befürwortet er ein Moratorium bezüglich autonomer Waffen. Wenn die Maschinen die Regeln aber irgendwann besser einhalten sollten als Menschen, wenn sie sozusagen humaner werden, dann gebe es sogar eine moralische Pflicht, sie zu nutzen, meint der Robotiker. Denn sollten sie etwa Zivilisten wirklich besser schützen, als menschliche Soldaten es tun, würde man mit ihrem Einsatz in einem Krieg Leid von der Zivilbevölkerung abwenden.

Natürlich stößt Arkin mit seinem technikoptimistischen Ansatz auf Kritik. Egal wie gut die Technik ist, deren Gegner können immer darauf hinweisen, dass sie von schlechten Menschen missbraucht werden könne. Und Arkin kann immer einwenden, dass man die neuen Möglichkeiten wenigstens überprüfen sollte, bevor man sie verbietet.

Eins oder Null: Leben oder Tod

Unabhängig davon, ob eine Zukunft mit Killerrobotern düster wäre und wie gut die Maschinen moralisch gesehen kämpfen: Ist es richtig, eine Maschine über Leben und Tod entscheiden zu lassen? Dieser Frage hat sich der Technikphilosoph Patrick Lin unlängst in einem Artikel für das Magazin The Atlantic gewidmet. Darin kommt Lin zwar zu keiner abschließenden Antwort, aber er zieht eine interessante Parallele zur deutschen Rechtsprechung.

Mehr zum Thema

2006 kippte das Bundesverfassungsgericht das Luftsicherheitsgesetz. Das Gesetzt hatte den Zweck, Anschläge wie die vom 11. September zu verhindern, und hätte erlaubt, entführte Passagierflugzeuge abzuschießen, wenn sie eine Gefahr darstellten. Die Verfassungsrichter urteilten, dies verletze die Würde der Passagiere. Schieße man das Flugzeug ab, um andere zu schützen, so mache man die Insassen des Flugzeuges zu bloßen Objekten.

Nichts anderes täten autonome Waffen, meint Lin. Diese Systeme würden Menschen als Objekte betrachten. „Manche dieser Objekte sind als Ziele definiert, andere nicht“, schreibt der Philosoph. Und er geht noch weiter: „Computer können Objekte nicht so erkennen, wie wir Menschen es tun. Alles, was sie ,verstehen‘, sind Zahlen - Informationsstücke in Form von Einsen und Nullen.“ Eins und Null - bei autonomen Waffen wäre das der Unterschied zwischen Leben und Tod.

Zur Homepage