https://www.faz.net/-gqz-84jn5

Die Zukunft der Menschheit : Was hilft der kluge Kopf in der viel klügeren Welt?

  • -Aktualisiert am

Weltraumbesiedelung ist kein abstraktes Gedankenspiel mehr. Das Mond-Habitat der European Space Agency existiert bisher aber nur im 3D-Druck. Bild: ESA/Foster and Partners

Am „Future of Humanity Institute“ in Oxford denken Wissenschaftler über die Frage nach, wie die Menschheit im technischen Fortschritt ihr Überleben sichern kann – und was für eine Menschheit das sein wird.

          7 Min.

          Angesichts der historischen Pracht Oxfords mit seinen mittelalterlichen Gassen, den beschaulichen Colleges und den von den Dächern herabblickenden Dämonenfiguren wirkt das Ambiente des Future of Humanity Institute (FHI) bescheiden. Ein Bürokomplex neben einem Fitnessstudio. Im Innern tauchen Rasterleuchten die schmalen Gänge in kaltes Licht. In der Nische eines fensterlosen Raums steht ein Whiteboard. Das Diagramm auf der Tafel hat eine Skala von null bis hundert. Zwei Dutzend Striche ballen sich um die Marke von zehn, zwölf Prozent. Mit schwarzem Marker steht darunter geschrieben: „Wahrscheinlichkeit, dass die Menschheit in diesem Jahrhundert ausstirbt.“

          Das Diagramm ist so etwas wie die Zweckerklärung des Future of Humanity Institute Oxford (FHI). Philosophen, Informatiker, Neurowissenschaftler und Mathematiker erforschen hier die Gefahren für das Fortbestehen der Menschheit. „Noch birgt ein Nuklearkrieg wohl das größte Risiko“, sagt Anders Sandberg, ein schwedischer Neurowissenschaftler am FHI. Aber das werde sich durch die Fortschritte in der synthetischen Biologie und der künstlichen Intelligenz bald ändern.

          Gefahr durch den eigenen Geist

          Beim öffentlichen Nachdenken über Gefahren für die Zukunft steht der Klimawandel im Vordergrund. Die Forscher am FHI konzentrieren sich dagegen auf Bedrohungen, die die Existenz der Menschheit als Ganzes in Frage stellen. Sandberg hat ein in Holz gerahmtes Mistkäferpärchen in sein Büro gehängt. Bis 2012, sagt er, wurden gut fünfzigmal mehr wissenschaftliche Publikationen über die Geotrupidae veröffentlicht als über existentielle Gefahren für die Menschheit. Selbst Star Trek sei besser erforscht.

          Auf Sandbergs Monitor wechseln sich Aufnahmen leuchtender Sternnebel und irdischer Steinsedimente ab. Ob es andernorts im Universum Leben gibt, wissen wir nicht, doch das fossile Gedächtnis unseres Planeten gibt uns guten Grund, über unser Überleben nachzudenken. Ein Asteroideneinschlag hat vor 65 Millionen Jahren die Herrschaft der Dinosaurier beendet. Dieses Schicksal könnte auch uns ereilen. Doch längst haben wir den Himmel vermessen, und sollte die Erde die Laufbahn eines kosmischen Geschosses kreuzen, so könnten wir es wohl mit einer Raumsonde von seiner Bahn abbringen. Gefahr, so glauben die Oxforder Zukunftsforscher, droht uns weniger von den Naturgewalten des Universums als vom Einfallsreichtum unseres Geistes.

          Gegen den Status quo: Anders Sandberg

          Dass bisher vor allem Science Fiction unser Bild der Zukunft prägt, stört Sandberg. „Es gibt viele Leute, die Erklärungen einfach erfinden und keinerlei Berechnungen machen.“ Zukunft als Entertainment. Doch können wir die Zukunft überhaupt berechnen? Viele mächtige Technologien sind vermutlich noch gar nicht absehbar. Wer hätte vor hundert Jahren den Eingriff ins menschliche Erbgut für möglich gehalten?

          Wo sind sie denn alle?

          Die Forscher des FHI versuchen den Balanceakt zwischen Spekulation und Wissenschaft zu meistern, indem sie strikt entscheidungstheoretisch argumentieren und die Expertise verschiedener Disziplinen zusammenbringen. Sandberg hat einen Aufsatz veröffentlicht, der das Fermi-Paradox zu schärfen versucht. Dieses Paradox beruht auf der Beobachtung, dass in unserer relativ jungen Galaxie eine große Zahl erdähnlicher Planeten existiert, wir aber keine Spuren außerirdischen Lebens finden. Auf Grundlage physikalischer Erkenntnisse zur Dichte des intergalaktischen Raums und der Analyse bestehender Technologien, etwa in der Raketentechnik, folgert Sandberg, dass es für die Menschheit in naher Zukunft möglich wäre, Proben in andere Galaxien zu senden. Wenn im Gegenzug auch Zivilisationen aus fernen Galaxien uns hätten erreichen können, schließt Sandberg, ist das Fermi-Paradox umso verblüffender: Wo sind sie denn alle?

          Das FHI ist seit seiner Gründung vor zehn Jahren auf ein Dutzend Mitarbeiter gewachsen, finanziert sich weitgehend eigenständig durch private Spenden und Drittmittel und hat zahlreiche Aufsätze publiziert. Der spekulativen Elemente in ihren Überlegungen sind sich die Wissenschaftler bewusst, sie üben sich in Bescheidenheit. „Wahrscheinlich habe ich Überlegungen von entscheidender Bedeutung nicht berücksichtigt“, schreibt Nick Bostrom, Gründer und Direktor des Instituts im Vorwort seines jüngsten Bestsellers „Superintelligenz“, „womit einige oder alle meine Schlussfolgerungen ungültig wären.“

          Stephen Hawking riet zur Flucht ins All

          Bostrom sitzt unruhig wippend im vordersten Winkel seines Arbeitszimmers. Künstliches, weißes Licht flutet den Raum. Draußen ist es längst dunkel. Bostrom kommt meistens erst nachmittags ins Büro und arbeitet dann bis in die Morgenstunden. „Richtig“, wirft er ein, oft bevor man ausgesprochen hat, „ja, ja, ja“. Während seines Studiums wurde Bostrom einmal exmatrikuliert, weil er in vier Fächern gleichzeitig Prüfungen ablegen wollte. Das sei nicht menschenmöglich, begründete sein Dozent den Schritt. Als Professor möchte Bostrom die Frage nach dem Menschenmöglichen nun selbst beantworten.

          In „Superintelligenz“ entwirft er eine Übersicht verschiedener Szenarien, die zur Entwicklung eines artifiziellen, übermenschlichen Verstandes führen könnten, und begründet, warum Menschen eine solche Intelligenz kaum kontrollieren könnten. Diese Sorge teilt der Physiker Stephen Hawking. Er warnte kürzlich, intelligente Maschinen könnten „das Ende der Menschheit“ bedeuten und riet zur Flucht ins All.

          Bostroms Intelligenzbegriff ist eng umgrenzt und technisch. Ein Akteur ist intelligent, wenn er in der Lage ist, ein ihm gestecktes Ziel zu erreichen. Nach dieser Definition sind Maschinen in einigen Bereichen bereits intelligenter als Menschen. Der Computer Deep Blue setzte 1996 den amtierenden Schach-Weltmeister Garri Kasparow matt. Fünfzehn Jahre später stach Supercomputer Watson die besten menschlichen Kandidaten in der Quizshow „Jeopardy!“ aus. Eine verlorene Schachpartie, eine Niederlage in einem Ratespiel, das klingt nicht nach Weltuntergang. Nur wäre eine Superintelligenz dem Menschen nicht allein in Teilgebieten, sondern in jeder Hinsicht überlegen. Dass solch eine Superintelligenz kein Bewusstsein hätte, macht sie für Bostrom nicht weniger gefährlich. Angenommen, man stellte ihr die Aufgabe, das Wohlbefinden der Menschen zu maximieren, räsonniert er in seinem Buch. Vielleicht würde sie errechnen, dass sie dieses Ziel am besten erreicht, indem sie uns Elektroden ins Gehirn pflanzt und ein Feuerwerk an Endorphinen zündet.

          Warum sollte es Maschinen nicht gelingen, eigenständig Ziele zu verfolgen?

          Vor vierzig Jahren entstanden die ersten Computerspiele, grobkörnige, mit polyphonen Tönen unterlegte Pixelwelten. Breakout heißt ein Klassiker, bei dem es darum geht, mit einem beweglichen Schläger einen Ball so hochzuhalten, dass er farbige Mauersteine trifft. Auf der „First Day of Tomorrow“-Konferenz in Paris präsentierte der Informatiker Demis Hassabis im April 2014 ein Video, das zeigt, wie sich ein Computerprogramm das Spiel ganz ohne Hilfe beibringt. Bildpixel und Scores sind die einzige Information, die der Computer erhält. Davon ausgehend sucht er nach Regelmäßigkeiten, experimentiert und optimiert sein Spielverhalten. Am Anfang wirkt das recht hilflos, doch nach zwei Stunden schlägt er sich bereits wie ein guter Amateur. Nach vier Stunden hat der Computer übermenschliches Niveau erreicht und das Spiel überlistet. Er katapultiert den Ball so in die Höhe, dass dieser sich in der Mauer verfängt und, ohne wieder nach unten zu fallen, die Steine abräumt.

          „Tiefes Lernen“ nennen Informatiker dieses Prinzip, bei dem es darum geht, Algorithmen so zu programmieren, dass sie sich selbständig an ihr Umfeld anpassen. Hassabis ist der Gründer von Deep Mind, einem Unternehmen, das seine Mission in zwei Worten zusammenfasst: „Solve Intelligence.“ Die echte Welt ist zwar komplexer als ein zweidimensionales Computerspiel. Doch wenn Maschinen lernen, sich dort durchzusetzen, warum sollte es ihnen nicht gelingen, auch in der Wirklichkeit eigenständig Ziele zu verfolgen?

          Die dümmste Spezies, die je die Welt dominieren könnte

          Fachleute beziffern die Wahrscheinlichkeit, dass die Konstruktion künstlicher Intelligenz auf menschlichem Niveau bis 2050 gelingt, auf fünfzig Prozent. Statt einer eigenen Schätzung hat Bostrom analysiert, wie sich die Prognosen führender Wissenschaftler im Laufe der Jahrzehnte nach hinten verschoben haben. Er folgert daraus, dass die Angaben vermutlich zu optimistisch sind. Doch wer weiß das schon? Google jedenfalls kaufte Deep Mind im vergangenen Jahr und zahlte für das Unternehmen mit etwa fünfundsiebzig Mitarbeitern und ohne fertiges Produkt angeblich eine halbe Milliarde Euro.

          Zukunft im Kopf: Nick Bostrom

          In Sandbergs Büro hängt ein Plakat mit dem Gehirn eines Rhesusaffen. Frontalkortex, Temporallappen und Stammhirn unterscheiden sich kaum von denen des Menschen. Wenn Sandberg sagt, die Menschheit sei „die dümmste Spezies, die je die Welt dominieren könnte“, dann meint er das ganz nüchtern: Unser Gehirn hat sich gerade so weit entwickelt, dass wir ausreichend Kultur und Technologie hervorbringen konnten, um andere Arten zu unterwerfen. Nun, glaubt Sandberg, haben wir die Möglichkeit, unser Gehirn selbst ein bisschen fitter zu machen.

          Von dem „kosmischen Potential“ der Menschheit sprechen die Forscher immer wieder. Wenn es uns gelinge, die kommenden Jahrhunderte zu überstehen, dann könne sich die Menschheit in der Galaxie ausbreiten, Milliarden und Abermilliarden zukünftiger Menschen könnten ein glückliches Leben führen.

          Urschleim für zukünftige, vollkommene Wesen

          Konzentrationsfördernde Medikamente, Tiefenhirnstimulation, technische Implantate: Sandberg sorgt sich durchaus um negative Auswirkungen technologischer Neuerungen, etwa auf Gesundheit oder Chancengerechtigkeit. Aber warum eine technische Aufrüstung unserer Spezies intrinsisch schlecht sein sollte, kann er nicht nachvollziehen. Die Zweifel der Optimierungs-Skeptiker hält er für ähnlich unbegründet wie den Argwohn gegenüber lebensverlängernden Maßnahmen. Der Einwand, Altern sei ein natürlicher Prozess, ist für ihn ein „merkwürdiges Argument gegen all das vom Altern verursachte Leid“. Sandberg spricht von einer „Status-quo-Voreingenommenheit“. Wir haben uns Geschichten zurechtgelegt, sagt er, um mit der Endlichkeit des Lebens umzugehen, erzählen uns, jeder Tag sei ein Geschenk, hoffen auf ein Leben nach dem Tod. Das Leben sei wie ein Buch, habe einmal jemand zu ihm gesagt, es habe einen Anfang und ein fixes Ende. Gut, dachte Sandberg, aber manche Bücher sind dünn, andere dick, „und manche sind achtbändige Fantasy-Epen!“

          „Was bedeutet IQ 300?“, steht neben dem Diagramm zu den menschlichen Überlebenschancen. Die Forscher des FHI haben ausgerechnet, um wie viele Punkte wir den durchschnittlichen IQ durch eine Auswahl der besten Keimzellen steigern könnten. Bostrom diskutiert in seinem Buch, ob biologisch optimierte Menschen eher in der Lage wären, sich vor Superintelligenzen zu schützen. Auf die Frage, was solche Eingriffe für unser Zusammenleben bedeuten, bleibt er vage: „Eine Welt voller Super-von-Neumanns würde wohl in vielerlei Hinsicht anders aussehen.“ Wollen wir in einer Welt leben, in der ein Jahrhundertgenie wie der Mathematiker John von Neumann der dümmste Mensch wäre? Für Bostrom ist das eine rein utilitaristische Abwägung der Frage, inwiefern das die Wahrscheinlichkeit unseres Aussterbens und die Chance der Verwirklichung unseres kosmischen Potentials verändern würde.

          In der Idealvorstellung der FHI-Forscher formen wir heutigen Menschen bloß den Urschleim für zukünftige, vollkommene Wesen, die das ganze Universum bevölkern. Eine solche Kolonialisierung, glaubt Bostrom, werden wir kaum mit unseren „kleinen biologischen Gehirnen“ bewältigen können. Trotz aller Gefahren hofft er daher, dass die Menschen einen Weg finden, eine Superintelligenz zu bauen und zu kontrollieren. Wer immer die Menschen dann sind.

          Weitere Themen

          Topmeldungen

          Angeklagter: Der 93 Jahre alte Bruno D. wird aus dem Gerichtssaal in Hamburg geschoben.

          Prozess um SS-Wachmann : Eine große Umarmung

          Im SS-Prozess in Hamburg sagt ein früherer Häftling des KZ Stutthof aus. Er berichtet von furchtbaren Taten und Erlebnissen. Und er will dem Angeklagten vergeben.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.