http://www.faz.net/-gqe-946fr

Max Tegmark im Interview : „Die Menschheit kann erblühen wie nie zuvor“

Ganz klassisch mit Kreide und Tafel: Max Tegmark ist Physikprofessor am Massachusetts Institute of Technology in Boston. Bild: dpa

Der renommierte Physiker Max Tegmark denkt schon lange darüber nach, wie Technologie uns verändert. Im Gespräch mit FAZ.NET spricht er über Intelligenz, die Angst vor schlauen Computern – und erklärt, was „Leben 3.0“ ist: Es geht um unglaublich viel.

          Herr Professor Tegmark, ist Künstliche Intelligenz gefährlich?

          Alexander Armbruster

          Verantwortlicher Redakteur für Wirtschaft Online.

          Sogar Feuer ist gefährlich, aber das bedeutet nicht, dass wir es nicht verwenden sollten, um unsere Häuser zu wärmen. Ich bin optimistisch, dass wir eine inspirierende Zukunft kreieren können mittels Künstlicher Intelligenz, wenn wir den Wettlauf gewinnen zwischen der wachsenden Macht der KI und der wachsenden Weisheit, mit der wir sie managen.

          Der britische Physiker Stephen Hawking bekräftigte gerade seine große Warnung. „Ich fürchte, dass KI die Menschen insgesamt ersetzen kann“, sagte er. Ist das nicht eine gigantische Übertreibung angesichts dessen, dass ja nicht einmal Experten einen klaren Weg kennen zu so etwas wie einer Allgemeinen Künstlichen Intelligenz?

          Wir haben keine Allgemeine Künstliche Intelligenz im Moment und wissen nicht, wie wir sie konstruieren können. Aber Umfragen zeigen, dass die meisten KI-Forscher die Ansicht vertreten, dass wir in einigen Jahrzehnten so weit sind. Deswegen ist es absolut vernünftig, über das Risiko dessen zu sprechen. Zum Beispiel erwähnen die Asilomar-KI-Grundsätze ...

          ... hinter Asilomar verbirgt sich eine wichtige Technologie-Konferenz ...

          ... Superintelligenz und ein existentielles Risiko und sind unterschrieben von mehr als 1000 KI-Forschern inklusive führender Leute aus der Industrie wie etwa von Google oder Apple.

          Hinter gerade angesagten Begriffen wie Maschinellem Lernen, Deep Learning oder künstlichen neuronalen Netzen stecken wesentlich Klassifizierungsprobleme und sehr ausgeklügelte Statistik – nichts, worüber man sich zu sorgen braucht.

          Sogar die heute existierende sogenannte schwache KI bedeutet interessante Herausforderungen wie Arbeitsplatz-Automatisierung, Internetsicherheit, Wählermanipulation, tödliche autonome Waffen und mehr. Aber die größten Herausforderungen – und Chancen – entstehen tatsächlich, wenn der Bereich der Künstlichen Intelligenz erfolgreich ist in seinem ursprünglichen Ziel, alle Aspekte menschlicher Intelligenz zu übertreffen.

          Ein Problem in der Diskussion über Künstliche Intelligenz besteht darin, dass es verschiedene Ansichten darüber gibt, was Intelligenz wirklich ist. Der KI-Vordenker Marvin Minsky nannte das einmal ein Kofferwort – jeder packt hinein, was er gerne möchte. Haben Sie eine gute Definition?

          Ich definiere Intelligenz einfach als Fähigkeit, komplexe Ziele zu erreichen. Ich verwende diese breite Definition, weil ich „Kohlenstoff-Chauvinismus“ verachte, jene arrogante Haltung, nach der Dinge nicht intelligent sein können, wenn sie nicht irgendwie auf Kohlenstoff basieren.

          Ist aber Intelligenz nicht ein Konzept, das nach unserem gewöhnlichen Verständnis stark verknüpft ist mit einem biologischen Organismus?

          Wir haben uns Intelligenz traditionell als etwas Mysteriöses vorgestellt, das nur in biologischen Organismen existiert, besonders in Menschen. Aus meiner Perspektive als Physiker ist Intelligenz jedoch einfach eine bestimmte Art der Informationsverarbeitung, die bewerkstelligt wird von sich bewegenden Elementarteilchen. Es gibt kein Gesetz der Physik, das besagt, dass man nicht auch Maschinen konstruieren kann, die in jeder Hinsicht intelligenter sind als wir. Das deutet darauf hin, dass wir bislang erst die Spitze des Intelligenz-Eisbergs gesehen haben und dass es ein verblüffendes Potential gibt, die volle Intelligenz zu erschließen, die in der Natur verborgen ist.

          Nehmen wir einmal an, dass es eines Tages so etwas wie eine Superintelligenz gibt. Wieso sollte das eigentlich ein essentielles Problem für uns sein? Zum Vergleich: Die industrielle Revolution neutralisierte Körperkraft, aber heute stört sich niemand daran, dass Autos schneller fahren können, als der schnellste Mensch rennen kann.

          Weitere Themen

          Topmeldungen

          Amerika gegen China : Ein Clash der Systeme

          Beim Apec-Gipfel auf Papua-Neuguinea machen sich Amerika und China heftige Vorwürfe – und präsentieren ihre konkurrierenden Entwürfe für eine Weltordnung. Beide Länder stehen jedoch vor dem gleichen Problem.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.