https://www.faz.net/-gqe-90yn0

Künstliche Intelligenz : Elon Musk und Co. warnen vor Killer-Robotern

Soweit sind wir (zum Glück) noch nicht: Szene aus dem Film „Terminator: Die Erlösung“ Bild: Picture-Alliance

Wie gefährlich ist der Fortschritt der Künstlichen Intelligenz? In einer Frage sind sich offenbar die Unternehmer einig. Und haben nun eine eindringliche Warnung an die Vereinten Nationen geschrieben.

          3 Min.

          Wie gefährlich ist der Fortschritt in der Künstlichen Intelligenz (KI)? Ist er das überhaupt? Längst ist eine Debatte darüber entbrannt, die nun eine neue Wendung genommen hat: Mehr als einhundert Technologie-Unternehmer, die Geld in KI und Robotik stecken, haben nun vor einem möglichen Missbrauch dieser Technologie gewarnt.

          Alexander Armbruster

          Verantwortlicher Redakteur für Wirtschaft Online.

          In einem im Internet veröffentlichten Brief an die Vereinten Nationen warnen sie die Weltgemeinschaft eindringlich, „tödliche autonome Waffen“ – umgangssprachlich sind damit Killer-Roboter gemeint – zu entwickeln. Diese könnten eine „dritte Revolution der Kriegsführung“ herbeiführen. „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“, schreiben die Fachleute.

          „Waffen des Terrors“

          Unter den Unterzeichnern sind Unternehmer wie Mustafa Suleyman, der das mittlerweile zum amerikanischen Technologieunternehmen Alphabet (Google) gehörende KI-Unternehmen Deepmind mitgründete und leitet, und Elon Musk, der durch seinen Elektroautohersteller Tesla und sein Weltraum-Unternehmen SpaceX bekannt ist. Darunter sind auch führende KI-Forscher wie Yoshua Bengio, der an der Universität Montreal lehrt und zu den Pionieren der gerade angesagten KI-Methoden (neuronale Netze, Deep Learning) gehört, der in Kalifornien unterrichtende Informatik-Professor Stuart Russell und der deutsche KI-Experte Jürgen Schmidhuber.

          Alle drei sind bislang nicht dadurch aufgefallen, besonders alarmistisch zu sein, deswegen erscheinen die Warnungen umso eindringlicher. „Wenn die Menschen nicht neue Massenvernichtungswaffen sehen wollen - in der Form großer Schwärme tödlicher Mikrodronen - (...) ist es unabdingbar (...) einen Vertrag gegen tödliche autonomen Waffen auf den Weg zu bringen“, sagte Russell. Und die Unternehmensgründer kommen darüber hinaus aus der ganzen Welt, auch aus China und Indien. Aus Deutschland hat außerdem Marcus Frei unterschrieben, der das Unternehmen Next Robotics gegründet hat.

          In ihrem Brief an die Vereinten Nationen nennen die Unternehmer auch Beispiele für den möglichen Einsatz solcher Waffen. „Das können Waffen des Terrors sein, Waffen, die Despoten und Terroristen gegen unschuldige Bevölkerung einsetzen, und Waffen, die gehackt werden könnten, um sich in einer unerwünschten Art und Weise zu verhalten.“ Die Weltgemeinschaft hat ihrer Ansicht nach nicht viel Zeit, um nun zu handeln. „Wenn diese Büchse der Pandora geöffnet ist, wird es sehr schwer werden, sie wieder zu schließen.“

          Die Vereinten Nationen wiederum beschäftigen sich schon seit einigen Jahren mit autonomen Waffen und Waffensystemen. Für diesen Montag hatten sie ursprünglich das Treffen einer UN-Gruppe von Fachleuten angesetzt, diesen Termin dann aber auf November verschoben. Die Tech-Unternehmer bedauern dies in ihrem Mahnschreiben ausdrücklich.

          „Reguliert Waffen, nicht KI“

          Die Diskussion darüber, welche auch negative Auswirkungen auf den weiteren Fortschritt in der Künstlichen Intelligenz haben könnte, läuft auch in der Branche und unter Fachleuten schon lange. Jüngst hat sie besonders der schillernde Unternehmer Elon Musk gleich mehrfach befeuert. Etwa dadurch, dass er die Risiken dieser Technologie als größer einschätzte als das Risiko, das derzeit von Nordkorea ausgeht. Reza Zadeh, Gründer des KI-Unternehmens Matroid und Professor in Stanford, entgegnete Musk daraufhin über den Kurznachrichtendienst Twitter: „Furcht vor KI ist vernünftig. Aber Regulierung zum jetzigen Zeitpunkt könnte das KI-Potential dämpfen, Krankheiten und Armut auszumerzen, was noch zu unserer Lebzeit in Reichweite ist.“

          KI zu regulieren sei, als würde man Mathematik oder Chemie regulieren, fügte er hinzu, und warb dafür, die Grundlagen von ihren Anwendungen zu unterscheiden. Dafür brachte er ein Beispiel: „KI, für sich genommen, wird keine Gefahr für Menschen darstellen in der absehbaren Zukunft. KI, kombiniert mit Waffen, vielleicht. Deswegen reguliert Waffen und nicht KI.“

          Künstliche Intelligenz : Ein Algorithmus komponiert Musik

          Es war eine der tausenden Antworten, die Musk auf seine Aussage bekam – und eine der wenigen, auf die er direkt reagierte. „Das größte Hindernis, die Gefahren von KI zu erkennen, sind diejenigen, die von ihrer eigenen Intelligenz so überzeugt sind, dass sie sich nicht vorstellen können, dass irgendjemand Dinge tun kann, die sie nicht können.“

          Zuvor hatte Musk die neue Gefahrendiskussion losgetreten mit einem Auftritt vor amerikanischen Gouverneuren, bei dem er KI als die "größte Bedrohung, der wir als Zivilisation gegenüberstehen", darstellte. Daraufhin meldete sich sogar Facebook-Gründer Mark Zuckerberg zu Wort, der klar gegen Musk Stellung bezog. „Wer gegen künstliche Intelligenz argumentiert, argumentiert gegen sicherere Autos und gegen bessere Diagnosen für Kranke“, sagte Zuckerberg und fügte hinzu: „Ich sehe einfach nicht, wie jemand guten Gewissens das tun kann.“ Musk, der auch ein eigenes KI-Unternehmen namens Open AI besitzt, attestierte Zuckerberg daraufhin, über ein „begrenztes Verständnis“ dieser Thematik zu verfügen.

          Während er die neuen Geschäftszahlen des Elektroauto-Herstellers Tesla vor zehn Tagen vorstellte, räumte Musk schließlich jedoch selbst ein, dass er nicht die Erfindungen und Entwicklungen in diesem Bereich bremsen wolle. „Ich denke, es gibt einen großen Nutzen durch KI. Wir müssen einfach sicherstellen, dass es sich wirklich um höheren Nutzen handelt und wir nicht etwas wirklich Dummes machen.“ Autonome Waffen zählen aus seiner Sicht und der Meinung vieler anderer Unternehmer offenkundig genau dazu.

          Es ist übrigens auch nicht der erste Brief dieser Art: Vor zwei Jahren haben 1000 Forscher, darunter der Physiker Stephen Hawking und Apple-Mitgründer Steve Wozniak, ebenfalls dieses Anliegen vorgetragen.

          Weitere Themen

          Topmeldungen

          Bedankt sich für die Unterstützung in den vergangenen Tagen: der bayerische Ministerpräsident und CSU-Chef Markus Söder am Dienstag in München

          Nach Rückzug in der K-Frage : Als Verlierer wird Söder in der CSU nicht gesehen

          Markus Söder zieht seine Bewerbung um die Kanzlerkandidatur der Union zurück – und zählt dabei auf, wie viele in der CDU sich für ihn ausgesprochen haben. Für CSU-Generalsekretär Blume ist er gar „erkennbar der Kandidat der Herzen“.
          Hubertus Heil

          Corona-Krise : Heil will neue Testpflicht für Betriebe schon verschärfen

          Gerade erst ist die neue Corona-Arbeitsschutzverordnung in Kraft getreten, da kündigt die SPD eine Verschärfung der umstrittenen Testangebotspflicht an. Sie wettert dabei gegen „Profitimaximierung“ in der Wirtschaft.
          Die Kuppel des Reichstagsgebäudes am 26. Juli 2008.

          F.A.Z. Einspruch : Das Parlament als Polizeibehörde

          Angeblich verfrachtet die „Notbremse“ nur in Bundesrecht, was auf Landesebene so oder ähnlich oft ohnehin schon galt. Doch dieser Formwechsel ist für den Einzelnen und auch für die Demokratie bedrohlicher, als es zunächst scheinen mag. Ein Gastbeitrag.
          Das Heilige Kreuz im Tal der Gefallenen in der Nähe von Madrid. Es wurde 1940 auf Geheiß des Diktators Francisco Franco von 20.000 Zwangsarbeitern errichtet.

          Spaniens Bürgerkriegsopfer : Ein würdiges Begräbnis nach 85 Jahren

          Vor 85 Jahren ermordeten Francos Schergen seinen Vater und seinen Onkel – und bestatteten sie im „Tal der Gefallenen“. Kurz vor seinem eigenen Tod will Manuel Lapeña die beiden endlich würdig zur letzten Ruhe betten.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.