https://www.faz.net/-gwz-9smu5

Googles Quantenchip „Sycamore“ : Der Weg zum Hypercomputer

  • -Aktualisiert am

Das neue Quantenwunder verbirgt sich tief in diesem Kabelsalat, der vor dem Rechnen bis fast auf den absoluten Temperatur-Nullpunkt heruntergekühlt werden muss. Bild: Foto Google

Googles Quantenchip „Sycamore“ kann eine Aufgabe schneller lösen als eine Halle voller Hochleistungsrechner. Mit ihm kündigt sich ein neues, wenn auch vielleicht noch fernes Zeitalter der Datenverarbeitung an.

          6 Min.

          Supremacy“ ist kein ganz unschuldiger Begriff. Insbesondere in den Vereinigten Staaten gibt es Zeitgenossen mit etwas veralteten Biologiekenntnissen, die eine „White Supremacy“ postulieren und damit eine Überlegenheit in was auch immer von Menschen irgendwie ausreichend heller Hautfarbe meinen. John Preskill, ein prominenter theoretischer Physiker, hat jetzt im „Quanta Magazine“ eingestanden, diesen Wortgebrauch nicht bedacht zu haben, als er 2012 vorschlug, von „Quantum Supremacy“ zu sprechen, wenn ein Quantencomputer ein Problem signifikant schneller lösen kann als ein klassischer Computer – und zwar unabhängig davon, ob das Problem nützlich ist oder nicht.

          Ein Team von Google hat diese Herausforderung nun offenbar bewältigt. Während ihre Arbeit schon fünf Wochen versehentlich über einen Server der Nasa an die Öffentlichkeit gekommen war, erschien sie nun am vergangenen Mittwoch gänzlich ohne Vorankündigung bei „Nature“. Für so eine gewichtige Meldung ist das in der Tat ungewöhnlich. Die niederländische Physikerin Kristel Michielsen, die an dem Projekt beteiligt gewesen war, erklärt: „Nature hatte nach dem Leak ein strenges Embargo verhängt, und niemand durfte darüber berichten“. Die amerikanische Raumfahrtbehörde ist involviert, weil sie auf dem Gelände ihres Ames Research Center nahe San Francisco das maßgeblich von Google betriebene Quantum Artificial Intelligence Lab beherbergt. Dort entwickelten die Wissenschaftler nun eine Hardware, die sich die skurrilen Gesetze der Quantenphysik zu eigen macht und insbesondere mit der sogenannten „Verschränkung von Quantenzuständen“ (siehe „Wie funktioniert ein Quantencomputer?“) unsere Datenverarbeitung noch einmal völlig neu erfinden soll.

          Der „Sycamore“, Googles 54-Qbit Quantenprozessor auf der Basis supraleitender Schaltkreise (ein Qbit war fehlerhaft, daher konnte der Chip nur 53 Qbits verschränken).

          Googles Quantenprozessor „Sycamore“ kann 53 sogenannte Qbits miteinander verschränken – und das ist in der Tat der aktuelle Rekord. Der durch Preskills Wortschöpfung nicht eben abgeschwächte Hype um Sycamore rührt daher, dass der Chip, der dazu auf Bruchteile eines Grades über dem absoluten Nullpunkt heruntergekühlt werden muss, nach Angaben der Forscher eine Aufgabe in wenigen Minuten gelöst habe, für welche noch der schnellste Supercomputer zehntausend Jahre benötige.

          Nun ist allerdings die Aufgabe, die das Google Team ihrem Computer stellte, für alles andere als den Ausweis seiner Quantum Supremacy ziemlich unnütz: Hintereinander werden zwanzig zufällig ausgewählte Operationen Schritt für Schritt auf allen Qbits gleichzeitig durchgeführt. Bei solch einer Operation, einem sogenannten Gatter, wird zum Beispiel der Zustand eines Qbits in Abhängigkeit seines Nachbarn verändert. Am Ende werden die Qbits ausgelesen. Jedes der 53 Qbits liefert dann ein klassisches Bit, also entweder 0 oder 1. Zusammen erhält man eine 53-stellige Zahlenfolge der Form 01100011... Aber nicht einmal der Wert eines solchen Ergebnisses ist an sich von Bedeutung. Da nämlich ein Qbit, das sich vor der Messung in einer Überlagerung von 0 und 1 befindet, zufällig einmal als 0, ein anderes Mal als 1 ausgelesen wird, ist auch diese Zahlenfolge zufällig und gehorcht nur einer gewissen Wahrscheinlichkeitsverteilung, die aber für die zwanzig ausgewählten Operationen charakteristisch ist.

          So sinnvoll wie „Hello World“

          „Wir sind normalerweise nicht am Ergebnis eines zufällig gewählten Programms interessiert“, erklärt Renato Renner, Quanten-Informationstheoretiker und Professor an der Eidgenössischen Technischen Hochschule in Zürich. „Die einzig mögliche Alltagsanwendung, die direkt daraus hervorgehen könnte, wäre die Erzeugung guter Zufallszahlen. Solche können aber natürlich auch mit einfacheren Geräten generiert werden“. Dennoch ist das Ergebnis bemerkenswert und vielleicht vergleichbar mit dem für sich nicht eben sinnvollen Satz „Hello World“. Damit zeigen Informatiker zuweilen das Funktionieren ihrer Software.

          Die Demonstration eines 53 Qbit-Quantencomputers mit niedriger Fehlerrate war jedenfalls zuvor noch keiner Forschungsgruppe gelungen. Der Experimentalphysiker Andreas Wallraff, der an der ETH Zürich ebenfalls Quantencomputer vom selben Typ baut, hält die Leistung seiner Kollegen für glaubwürdig und sehr bemerkenswert. Das Ergebnis beruhe nicht auf einer signifikanten Verbesserung eines Einzelteils. Einzigartig sei vielmehr, dass man es geschafft habe, alle Komponenten in so großem Stile sinnvoll zu kombinieren. In Wallraffs eigenem Labor sind bisher nur acht Qbits am Laufen. Für ein Universitätslabor sei das aber ein gutes Ergebnis, sagt er. Konzerne wie Google oder IBM hätten riesige finanzielle und personelle Ressourcen, die man an einer Universität nicht so ohne weiteres aufbringen könne.

          Ein wichtiges Qualitätsmerkmal von Quantencomputern ist die Fehlerrate, die bei der Ausführung eines Qbit-Gatters auftritt. Für Googles Quantencomputer liegt diese bei etwa 0,3 Prozent, was drei Fehlern bei tausend Ausführungen eines Qbit-Gatters entspricht. Wie sehr Google mit der verwendeten Gatterabfolge seinen Quantencomputer an seine Grenzen gebracht hat, erläutert Wallraff an einem einfachen Zahlenbeispiel. Zwischen 50 Qbits können gleichzeitig 25 Gatter ausgeführt werden, die jeweils auf zwei benachbarte Qbits wirken. Wendet man nun 20 solcher zwei Qbit-Gatter hintereinander an, so ergibt das 500 Ausführungen, von denen bei der angegebenen Fehlerrate aber schon 1,5 fehlerhaft sind. Mehr Fehler hätte man sich also nicht leisten dürfen.

          Google-Boss Sundar Pichai (links) lässt sich von einem seiner Wissenschaftler die Peripherie des neuen Quantenchips zeigen.

          Doch wie bestimmt man die Fehlerrate eines Quantencomputers, der Dinge leistet, die nicht mit einem klassischen Computer überprüft werden können? Dazu hatte das Google-Team mit Kristel Michielsen am Forschungszentrum Jülich zusammengearbeitet. Die auf rechnergestützte Physik spezialisierte Niederländerin und Professorin an der RWTH Aachen programmierte einen Algorithmus, mit dem ein klassischer Computer das Verhalten von bis zu 46 Qbits simulieren kann. Bis zu dieser Zahl an Qbits konnte man also Sycamores Fehlerrate ermitteln. Alles, was darüber hinausging, wurde auf theoretischer Basis hochgerechnet.

          „Not so supreme“, zweifelt die Konkurrenz

          Dissens herrscht allerdings darüber, inwiefern Google nun tatsächlich „Quantum Supremacy“ erreicht hat. Konkret bezweifeln Wissenschaftler des Konkurrenten IBM in der am Montag auf dem Preprint-Server arxiv.org publizierten Arbeit, dass ein klassischer Supercomputer für die Aufgabe, die Google seinem Quantenchip gestellt hatte, wirklich zehntausend Jahre benötige. Die IBM-Forscher kommen zu dem Ergebnis, es seien nicht länger als zweieinhalb Tage. In ihrem Blog Post artikulieren sie dann auch gleich ihr Missvergnügen an dem Ausdruck „Quantum Supremacy“. Besser fänden sie ihren eigenen Begriff „Quantum Volumes“, weil das weniger den Wettstreit mit dem klassischen Computer betone als die Charakterisierung der technischen Eigenschaften des Quantencomputers, etwa Fehlerrate oder Effizienz.

          „Der Preprint von IBM ist in der Tat äußerst interessant“, sagt Renato Renner. Er zeige ein Problem auf, das die Bedeutung aller experimentellen Ermittlungen von „Quantum Supremacy“ prinzipiell in Frage stelle. „Wir können nie sicher sein, ob nicht ein klassischer Computer ein vermeintlich schwieriges Problem doch schneller lösen kann, als ursprünglich gedacht – wenn man ihn nur geschickt genug programmiert“, sagt Renner. „Allgemein gibt es nämlich keine Beweise, die das ausschließen.“ Wenn Google behauptet, ein klassischer Computer würde zehntausend Jahre brauchen, bedeutet das also nicht, dass man nicht noch einen schnelleren Algorithmus finden könnte. „In diesem Fall ist das bereits nun offenbar äußerst schnell passiert“, so Renner.

          Bis auf Weiteres Grundlagenforschung

          Für den Züricher Theoretiker ist eine andere wesentliche Motivation, an Quantencomputern zu forschen, die Chance, neue Einsichten in die Quantentheorie selbst zu gewinnen. Denn obwohl es diese Theorie schon seit gut hundert Jahren gibt, steckt sie für die meisten Physiker noch immer voller großer Rätsel – vor allem dann, wenn es philosophisch wird und es darum geht, wie man gewisse Prozesse in der Quantentheorie zu interpretieren habe, man also begreifen möchte, was sie über die Welt aussagt. Renner vergleicht die Konstruktion eines universellen Quantencomputers daher mit anderen großen Unternehmen der Grundlagenforschung, etwa dem großen Teilchenbeschleuniger LHC am Forschungszentrum Cern. Für alltägliche Anwendungen von Quantencomputern ist allerdings vor allem wichtig, dass man Algorithmen findet, die ein Quantencomputer schnell – ein klassischer Computer aber nur nach langer Zeit oder gar nicht – lösen kann. In der Tat haben Ran Raz aus Princeton und Avishay Tal von der Stanford University vor einem Jahr es geschafft, unter gewissen Annahmen eine spezielle Wahrscheinlichkeitsverteilung zu konstruieren, die ein Quantencomputer von der Gleichverteilung unterscheiden kann, während ein klassischer Computer dazu niemals in der Lage wäre.

          Für praktische Anwendungen aber reicht eine signifikante Verbesserung der Rechenzeit völlig aus. Das bekannteste Beispiel ist der sogenannte Shor-Algorithmus, mit dem man eine große Zahl sehr viel schneller in ihre Primfaktoren zerlegen kann, als es ein klassischer Algorithmus erlauben würde. Die Entdeckung dieses Verfahrens im Jahr 1994 hat das öffentliche Interesse an der Möglichkeit von Quantenrechnern erheblich befördert, da die heute gängigen Verschlüsselungsverfahren wesentlich darauf beruhen, dass klassische Computer so schlecht im Primfaktorzerlegen sind. Um eine Zahl aus 2048 Bits, wie sie heute in der Verschlüsslung üblich ist, innerhalb von zehn Jahren in ihre Primfaktoren zu zerlegen, benötigte man einen Cluster aus klassischen Computern, der eine Viertel der Fläche Nordamerikas einnehmen würde. Die elektrische Leistung, die diese Rechner dabei fressen würden, wäre aber so enorm, dass alle fossilen Brennstoffvorräte der Erde bereits am ersten Tag der Rechnung verfeuert wären. Ein Quantencomputer aus 10 Millionen Qbits hingegen würde dieselbe Aufgabe in nur sechzehn Stunden erledigen, dabei nur eine Fläche von einem Quadratzentimeter und eine Leistung von zehn Megawatt benötigen.

          Jetzt müssen die IBM-Leute zeigen, was sie können

          Von Quantencomputern mit Millionen Qbits – statt 53 wie Googles „Sycamore“ – ist man allerdings noch weit entfernt. Die große technische Schwierigkeit, Quantencomputer zu realisieren, liegt darin, eine große Anzahl von Qbits zu verschränken – worin aber auch genau der Vorteil der Quantencomputer liegt. Um diesen Vorteil, also eine „Quantum Supremacy“, zu demonstrieren, bedarf es damit spezieller Algorithmen, welche die Verschränkung ausnutzen.

          Einen Haken hat die Kritik der IBM-Gruppe nämlich noch. Ihre Berechnung stützt sich vorerst nur auf theoretische Überlegungen. Tatsächlich implementiert und ausgerechnet haben sie das Problem noch nicht. Ironischerweise gehört der Summit Supercomputer, auf dem die Google-Forscher die Rechenzeit abgeschätzt haben, IBM selbst. Ob die Informatiker von IBM ihren eigenen Supercomputer besser im Griff haben, wird sich zeigen. Der Leiter des GoogleTeams, John Martinis, hatte jedenfalls in einer Pressekonferenz am Mittwoch angekündigt, auf die tatsächliche Ausführung der Berechnung durch IBM zu warten, bevor er ihr Glauben schenkt.

          Weitere Themen

          Was darf in den Adventskranz?

          Ab in die Botanik : Was darf in den Adventskranz?

          Alteuropäische Weihnachtsbrauch-Traditionalisten müssen stark sein: Von Jahr zu Jahr bestehen Adventskränze immer weniger aus Kiefergewächs und stattdessen umso mehr aus Deko-Trends. Schlussendlich sind es jedoch die Kerzen, die entscheidend sind.

          Topmeldungen

          Parteitag in Berlin : Die Wende der SPD

          Der Parteitag in Berlin ist ein historischer Bruch für die SPD. Sie verabschiedet sich endgültig von der „neoliberalen“ Schröder-Ära durch ein Programm für einen „neuen Sozialstaat“.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.