https://www.faz.net/-gwz-8enwm

Künstliche Intelligenz : Endspiel für das Mooresche Gesetz

  • -Aktualisiert am

Ist die Leistung von Prozessoren bald erreicht? Bild: dpa

Droht das Ende der Computerrevolution? Die stetige Verdopplung der Transistorzahl auf Mikrochips kommt jedenfalls an ihr Ende. Nach Alternativen wird dringend gesucht.

          5 Min.

          Jetzt können sie auch Go. Das ostasiatische Brettspiel war eine sichere Bastion genuin menschlichen Intellekts, als im Schach schon lange kein Großmeister mehr Chancen gegen einen entsprechend konstruierten Computer hatte. Doch wie immer auch die letzte der fünf Partien zwischen dem Go-Champion Lee Sedol und der Software AlphaGo am kommenden Dienstag in Seoul ausgeht - augenfällig wurden die Fortschritte im Bereich der sogenannten Künstlichen Intelligenz spätestens 2011. Da gewann der IBM-Rechner „Watson“ die äußert knifflige amerikanische Quizshow „Jeopardy!“, nachdem er 2006 noch auf unterhaltsame Weise an den Subtilitäten menschlicher Sprache gescheitert war. Denn anders als beim Schach verhindert die Spielsituation einer Quizshow, dass ein Computer einfach seine klassischen Vorteile von Datenbanken und Rechengeschwindigkeit gegenüber dem Menschen ausspielen kann. Im Wettlauf mit seinen menschlichen Mitspielern musste Watson die richtige Antwort aus Mehrdeutigkeiten herausfiltern und dazu die Bedeutung des Gesprochenen richtig interpretieren.

          Systeme wie Watson oder AlphaGo stellen den vorläufigen Höhepunkt einer Entwicklung dar, die in den frühen 1960er Jahren Fahrt aufnahm und unsere Lebenswelt seither rasch und auf vielfältige Weise verändert hat und weiter verändert. So weit, dass manche bereits vor den Risiken einer Weiterentwicklung der Künstlichen Intelligenz warnen, darunter nicht eben technikfeindliche Unternehmer wie Bill Gates und Elon Musk.

          Allerdings stehen sowohl Träumer als auch Warner vor der Frage, ob die Informationstechnik sich wirklich so stürmisch weiterentwickeln wird wie bisher. Tatsächlich droht die technische Grundlage der Informationsrevolution, die bisherige Halbleiterelektronik, zum Flaschenhals zu werden.

          Watson illustriert das Problem, wenn man seinen intellektuellen Body-Mass-Index mit dem seiner menschlichen Mitspieler vergleicht. „Watson wiegt etwa hundert Tonnen“, sagt Rainer Waser vom Forschungszentrum Jülich. „Das viel kompaktere menschliche Gehirn dagegen nur knapp 1,5 Kilogramm.“ Das Kernproblem zeigt sich, wenn Watson „nachdenkt“. Dafür genehmigt er sich 2,3 Megawatt elektrische Leistung, das entspricht dem Ausstoß einer mittelgroßen Windenergieanlage. Unser Gehirn kommt dagegen mit 25 Watt aus, also etwa einem Hunderttausendstel dieser Leistung, zudem ist es bei universellen Aufgaben weit überlegen. Schickte man Watson ins echte Leben, würde er sicher nicht nur an zu kleinen Türen und herausfliegenden Sicherungen scheitern.

          Wachsender Energiehunger

          Der Energiehunger der Mikrochips ist das eine Problem - zwei Prozent des Energiebedarfs der Menschheit wird heute von den diversen Internetservern konsumiert. Das andere ist die damit einhergehende Abwärme. „Mit der Energie, die einen Abend lang beim Googeln frei wird, könnten Sie im Winter gut ihr Zimmer heizen“, sagt Waser, „allerdings wird diese Wärme in den Google-Centern frei.“

          Aber noch ist der Fortschritt der Informationstechnik ungebrochen, und der hat einen Namen: das Mooresche Gesetz. In seiner heute populären Form besagt es, dass die Anzahl der Transistoren auf einem Mikroprozessor sich knapp alle zwei Jahre verdoppelt. Es ist ein empirisches Gesetz aus der Gründerzeit der Halbleiterei. Ihre Geschichte begann 1947 mit der Erfindung des Transistors. Dieser ersetzte die klobige, stromfressende und empfindliche Elektronenröhre. Einzeln zusammengelötete Transistoren hätten jedoch niemals die technische Revolution auslösen können, auf die wir heute zurückblicken.

          Diese Revolution begann 1958 in der Firma Texas Instruments. Der Ingenieur Jack Kilby baute dort den ersten integrierten Schaltkreis (Integrated Circuit, IC) auf einem Stückchen Germanium zusammen. Dieser Ur-Chip war noch Laborbastelei. Entscheidend war eine Idee des Physikers Robert Noyce, der 1957 mit einigen Mitstreitern das Unternehmen Fairchild Semiconductors gegründet hatte. Dazu gehörte der Schweizer Jean Hoerni, der 1958 ein neues Rezept für die Transistorherstellung erfand: Dabei werden einzelne Transistoren aus Schichten auf einem Stückchen Silicium hergestellt. Noyce fand heraus, dass sich das Rezept auf mehrere Bauelemente auf einem Siliciumstück erweitern ließe - und begründete damit die Mikrochip-Industrie.

          Mooresche Gesetz

          Zu den Gründern von Fairchild gehörte auch der Chemiker Gordon Moore. Als Entwicklungschef wurde er 1965 von dem amerikanischen Fachjournal Electronics gebeten, eine Prognose für die Zukunft des Mikrochipsektors abzugeben. Moore schrieb einen heute berühmten Artikel, dessen Titel man mit „mehr Komponenten auf integrierte Schaltungen stopfen“ übersetzen kann. Er analysierte die erst sehr kurze Geschichte der ICs und fand eine empirische Gesetzmäßigkeit: Jedes Jahr verdoppelte sich die Anzahl der Komponenten auf einem Chip. Nach 1970, vermutete Moore, werde sich das Wachstum auf eine Verdopplung alle zwei Jahre verlangsamen. Damit lag er fast richtig. Überdies versprach er: „Integrierte Schaltungen werden zu solchen Wundern wie Heimcomputern führen.“

          Das Mooresche Gesetz gilt nach wie vor. Da es mathematisch eine Verdopplung pro konstantem Zeitschritt beschreibt, ergibt es in logarithmischer Darstellung eine Gerade. Inzwischen lassen sich bereits über fünf Milliarden Transistoren auf einen Mikroprozessor stopfen. Entsprechend winzig sind die Halbleiterstrukturen. Strukturgrößen um die 22 Nanometer (Milliardstel Meter) sind Standard, der nächste Sprung zur 14-Nanometer-Technologie findet derzeit statt, gesprochen wird längst von 10- und gar 7-Nanometer-Strukturen. Zum Vergleich: Ein Aids-Virus ist etwa zehnmal größer.

          Wann aber wird Moores Gesetz am Ende sein? Gordon Moore selbst äußerte sich immer wieder skeptisch, aber bis heute konnte die Industrie ihren Schrumpfkurs halten. Doch die Physik setzt bestimmte, unverrückbare Grenzen, und diese rücken näher.

          Abschied von Moores Gesetz müssen vor allem Datenspeicher nehmen. Die Entwicklung sogenannter SRAM-Speicherstrukturen knicken schon heute von der exponentiellen (in dieser logarithmischen Darstellung durch eine Gerade markierten) Gesetzmäßigkeit ab. Bei den DRAM- und Flash-Speichern zeichnet sich Ähnliches ab. SRAM steht für Static Random-Access Memory (RAM), DRAM für Dynamic RAM, Flash-Speicher kennt man von USB-Sticks und den SSD-“Festplatten“, die keine Platten mehr sind, sondern Mikrochips.

          Endgültig Schluss ist auf der Ebene der Atome. In einem Siliciumkristall beanspruchen sie ein Volumen von rund einem halben Nanometer Durchmesser. Doch schon bei Strukturen von wenigen Nanometern dominieren störende Quanteneffekte. Zum Beispiel würden die Elektronen aus solchen Leiterbahnen und Transistorkanälen mit merklicher Wahrscheinlichkeit entweichen, hinaustunneln, wie die Physiker sagen, und damit der geordneten Datenverarbeitung entkommen. Manche Chiparchitekturen stoßen schon jetzt an Grenzen der Miniaturisierung.

          Die eigentliche Bremse für den Fortschritt ist aber das Wärmeproblem. Die Taktrate der Mikroprozessoren in PCs und Notebooks, also die Geschwindigkeit ihrer Datenverarbeitung, verharrt seit Jahren bei etwa vier Gigahertz. Dabei können die Grundbausteine, sogenannte Feldeffekt-Transistoren, einzeln problemlos mit mehreren hundert Gigahertz betrieben werden. Prozessoren könnten damit locker zehnmal schneller sein. Aber sobald sich viele winzige Transistoren auf einer kleinen Fläche zusammendrängen, heizen sie sich gegenseitig auf. „Bei einer Taktung von hundert Gigahertz würde der Mikrochip verdampfen“, sagt Rainer Waser.

          Alternativen dringend gesucht

          Dieses Problem wird verschärft durch die heutige Computerarchitektur, die auf den ungarisch-amerikanischen Mathematiker John von Neumann und den deutschen Pionier Konrad Zuse zurückgeht. Sie trennt das eigentliche Rechnen und das Speichern der Zwischenergebnisse räumlich. Diese Trennung gilt bis heute, weil Transistoren keine Information speichern können. Sie steuern nur als kleine Schalter den Stromfluss. Daher müssen die Prozessoren die Daten für jeden Rechenschritt über Leitungen zwischen dem Rechenwerk, der Logik, und einem Zwischenspeicher hin und her schieben. Diese Leitungen, aber auch alle anderen Bauelemente auf dem Chip, leiden unter sogenannten parasitären Kapazitäten. Das bedeutet, ihre Strukturen wirken wie kleine Kondensatoren, die beim An- und Abschalten der elektrischen Signale, also jedem Takt im Strom der Bits, unnütz elektrische Energie aufnehmen und wieder abgeben. Dadurch fließen viel größere Ströme, als eigentlich nötig wäre - und heizen über den elektrischen Widerstand die Chips.

          Es sieht also danach aus, als seien dringend Alternativen zur etablierten Siliciumtechnologie nötig. Daran wird weltweit geforscht. Die Vielfalt der Ideen reicht von der Photonik, dem Rechnen mit Licht, über die Spintronik, die einzelne Elektronen zu Trägern von zwei Bits zugleich macht und damit eine Form maximaler Miniaturisierung darstellt, bis zum biologisch inspirierten DNA-Rechner und zum Quantencomputer, wobei die letzten beiden allerdings nur für spezielle Aufgaben von Vorteil wären. Es ist schwer vorherzusagen, was am Ende das Rennen aus dem Labor in die fertigungstechnische und wirtschaftliche Realität machen wird. Die besten Chancen haben sicher solche Technologien, deren Materialien und Prozesse sich gut an die etablierte Halbleitertechnologie anbinden lassen. Denn wo es um Milliardeninvestitionen geht, wird auch die fortschrittsfroheste Branche schnell konservativ.

          Weitere Themen

          Der lange Weg ins Weiße Haus Video-Seite öffnen

          Videografik : Der lange Weg ins Weiße Haus

          Etappensieg für Bernie Sanders auf dem langen Weg ins Weiße Haus: Der linksgerichtete Senator hat die wichtige Präsidentschaftsvorwahl der Demokraten im Bundesstaat New Hampshire für sich entschieden. In Vorwahlen bestimmt jeder Bundesstaat die Kandidaten von Demokraten und Republikanern, die später auf Wahlparteitagen auf den Schild gehoben werden.

          Topmeldungen

          Luft-Schloss: So könnte die am Flughafen geplante Multifunktionsarena zwischen der Autobahn 3 (oben) und der Bundesstraße 43 aussehen.

          Neue Frankfurter Arena : Hoffnung für „The Dome“

          Am Frankfurter Flughafen soll eine Multifunktionsarena entstehen. Auf Druck der SPD-Fraktion ist es nun zu einem Treffen mit dem Investor gekommen. Doch es gibt zwei Konkorrenzprojekte.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.