http://www.faz.net/-gwz-8enwm
HERAUSGEGEBEN VON WERNER D'INKA, JÜRGEN KAUBE, BERTHOLD KOHLER, HOLGER STELTZNER
F+ Icon
F.A.Z. PLUS
abonnieren

Veröffentlicht: 23.03.2016, 14:32 Uhr

Künstliche Intelligenz Endspiel für das Mooresche Gesetz

Droht das Ende der Computerrevolution? Die stetige Verdopplung der Transistorzahl auf Mikrochips kommt jedenfalls an ihr Ende. Nach Alternativen wird dringend gesucht.

von Roland Wengenmayr
© dpa Ist die Leistung von Prozessoren bald erreicht?

Jetzt können sie auch Go. Das ostasiatische Brettspiel war eine sichere Bastion genuin menschlichen Intellekts, als im Schach schon lange kein Großmeister mehr Chancen gegen einen entsprechend konstruierten Computer hatte. Doch wie immer auch die letzte der fünf Partien zwischen dem Go-Champion Lee Sedol und der Software AlphaGo am kommenden Dienstag in Seoul ausgeht - augenfällig wurden die Fortschritte im Bereich der sogenannten Künstlichen Intelligenz spätestens 2011. Da gewann der IBM-Rechner „Watson“ die äußert knifflige amerikanische Quizshow „Jeopardy!“, nachdem er 2006 noch auf unterhaltsame Weise an den Subtilitäten menschlicher Sprache gescheitert war. Denn anders als beim Schach verhindert die Spielsituation einer Quizshow, dass ein Computer einfach seine klassischen Vorteile von Datenbanken und Rechengeschwindigkeit gegenüber dem Menschen ausspielen kann. Im Wettlauf mit seinen menschlichen Mitspielern musste Watson die richtige Antwort aus Mehrdeutigkeiten herausfiltern und dazu die Bedeutung des Gesprochenen richtig interpretieren.

Systeme wie Watson oder AlphaGo stellen den vorläufigen Höhepunkt einer Entwicklung dar, die in den frühen 1960er Jahren Fahrt aufnahm und unsere Lebenswelt seither rasch und auf vielfältige Weise verändert hat und weiter verändert. So weit, dass manche bereits vor den Risiken einer Weiterentwicklung der Künstlichen Intelligenz warnen, darunter nicht eben technikfeindliche Unternehmer wie Bill Gates und Elon Musk.

Mehr zum Thema

Allerdings stehen sowohl Träumer als auch Warner vor der Frage, ob die Informationstechnik sich wirklich so stürmisch weiterentwickeln wird wie bisher. Tatsächlich droht die technische Grundlage der Informationsrevolution, die bisherige Halbleiterelektronik, zum Flaschenhals zu werden.

Watson illustriert das Problem, wenn man seinen intellektuellen Body-Mass-Index mit dem seiner menschlichen Mitspieler vergleicht. „Watson wiegt etwa hundert Tonnen“, sagt Rainer Waser vom Forschungszentrum Jülich. „Das viel kompaktere menschliche Gehirn dagegen nur knapp 1,5 Kilogramm.“ Das Kernproblem zeigt sich, wenn Watson „nachdenkt“. Dafür genehmigt er sich 2,3 Megawatt elektrische Leistung, das entspricht dem Ausstoß einer mittelgroßen Windenergieanlage. Unser Gehirn kommt dagegen mit 25 Watt aus, also etwa einem Hunderttausendstel dieser Leistung, zudem ist es bei universellen Aufgaben weit überlegen. Schickte man Watson ins echte Leben, würde er sicher nicht nur an zu kleinen Türen und herausfliegenden Sicherungen scheitern.

Wachsender Energiehunger

Der Energiehunger der Mikrochips ist das eine Problem - zwei Prozent des Energiebedarfs der Menschheit wird heute von den diversen Internetservern konsumiert. Das andere ist die damit einhergehende Abwärme. „Mit der Energie, die einen Abend lang beim Googeln frei wird, könnten Sie im Winter gut ihr Zimmer heizen“, sagt Waser, „allerdings wird diese Wärme in den Google-Centern frei.“

Aber noch ist der Fortschritt der Informationstechnik ungebrochen, und der hat einen Namen: das Mooresche Gesetz. In seiner heute populären Form besagt es, dass die Anzahl der Transistoren auf einem Mikroprozessor sich knapp alle zwei Jahre verdoppelt. Es ist ein empirisches Gesetz aus der Gründerzeit der Halbleiterei. Ihre Geschichte begann 1947 mit der Erfindung des Transistors. Dieser ersetzte die klobige, stromfressende und empfindliche Elektronenröhre. Einzeln zusammengelötete Transistoren hätten jedoch niemals die technische Revolution auslösen können, auf die wir heute zurückblicken.

Diese Revolution begann 1958 in der Firma Texas Instruments. Der Ingenieur Jack Kilby baute dort den ersten integrierten Schaltkreis (Integrated Circuit, IC) auf einem Stückchen Germanium zusammen. Dieser Ur-Chip war noch Laborbastelei. Entscheidend war eine Idee des Physikers Robert Noyce, der 1957 mit einigen Mitstreitern das Unternehmen Fairchild Semiconductors gegründet hatte. Dazu gehörte der Schweizer Jean Hoerni, der 1958 ein neues Rezept für die Transistorherstellung erfand: Dabei werden einzelne Transistoren aus Schichten auf einem Stückchen Silicium hergestellt. Noyce fand heraus, dass sich das Rezept auf mehrere Bauelemente auf einem Siliciumstück erweitern ließe - und begründete damit die Mikrochip-Industrie.

1 | 2 Nächste Seite   |  Artikel auf einer Seite

Forschung im Abwärtsstrudel

Von Joachim Müller-Jung

Noch ist die Forschungsmacht Nummer eins nicht am Boden. Aber Trumps Budgetpläne zeigen: Der Präsident pfeift auf die Zukunft, wie er auf Wahrheit pfeift. Amerika entmachtet sich. Ein Kommentar. Mehr 11 50