https://www.faz.net/-gwz-9nvka

Neurocomputing : Das Denken ist hartes Brot, verehrte Maschine!

  • -Aktualisiert am

Bild: Picture-Alliance

Wie viel fehlt noch, bis Computer auch denken wie wir? Ein Blick ins Innere der Wissenschaften, die das Denken neu erfinden. Mit dem „Rechnen“ fangen sie an.

          Das menschliche Gehirn ist eines der komplexesten Produkte der biologischen Evolution. Aufgebaut aus Milliarden von Neuronen, die in eine Vielzahl von Netzwerken eingebettet sind, verarbeitet das Nervensystem in jedem Moment riesige Mengen an sensorischen Informationen, gleicht diese mit Vorwissen ab und erzeugt daraus zielgerichtetes Verhalten und neue Gedächtnisinhalte. Diese Leistungen beruhen auf dynamischen Vorgängen, die durch Rückkopplungsschleifen auf vielen räumlichen und zeitlichen Skalen charakterisiert sind. So können Synapsen – die Kontaktstellen zwischen Neuronen – ihre Stärke innerhalb kürzester Zeit verändern. Gleichzeitig sorgen sie dafür, dass wir uns Jahrzehnte später an kleinste Details erinnern, die wir als Kind erlebt haben.

          Brückenschlag über Fächergrenzen

          Will man die Funktionen des Gehirns aus seiner Struktur und Dynamik heraus verstehen, so ist eine enge Zusammenarbeit von Neurowissenschaftlern mit Physikern, Informatikern und Mathematikern notwendig. Heuristische Erklärungsversuche können dieser enormen Komplexität nicht gerecht werden. Der Brückenschlag über Fächergrenzen und methodische Paradigmen hinweg ist das zentrale Anliegen der „Computational Neuroscience“.

          Von besonderem Interesse ist die Frage, wie Nervensysteme „rechnen“ – wie also beispielsweise eine Fliege aus visuellen Sinneseindrücken auf ihre Eigenbewegung im Raum schließt, oder wie wir einer Unterhaltung trotz starker Störgeräusche folgen können. Wie werden die Sinnesreize in den Entladungsmustern der beteiligten Neuronen kodiert? Wie werden die Berechnungen physiologisch realisiert? Und wo liegen die physikalischen Grenzen für Präzision und Verlässlichkeit? Diese und ähnliche Themen werden unter dem Begriff „Neural Computation“ zusammengefasst und eröffnen einen Weg, die biologischen Grundlagen unseres eigenen Denkens zu verstehen.

          Computational Neuroscience sollte daher auch nicht mit „rechnergestützte Neurowissenschaften“ übersetzt werden: Selbst wenn Computer bei der Analyse experimenteller Daten und bei numerischen Simulationen biophysikalischer Modelle unersetzlich sind, beinhaltet die Computational Neuroscience auch rein mathematisch-theoretische Ansätze.

          Kopie oder Karikatur?

          Wie aber kann man die Komplexität des Gehirns in theoretischen Ansätzen abbilden? In einem durch die EU finanzierten Großprojekt, dem „Human Brain Project“, versuchen Forscher seit langem aus Dutzenden wissenschaftlichen Einrichtungen das gesamte Gehirn in feinsten Details zu modellieren und auf Höchstleistungsrechnern zu simulieren. In letzter Konsequenz erfordert dies, alle dynamischen Prozesse der weit über hundert Milliarden Nerven- und Gliazellen in einer Art digitaler Kopie zu erfassen. Wobei die meisten Nervenzellen eine stark verzweigte räumliche Struktur aufweisen, mehrstufige elektrochemische Signale erzeugen und mit Tausenden anderen Zellen kommunizieren. Selbst die aufwendigsten Neuronen-Simulationen auf den größten Supercomputern verblassen angesichts der Vorgänge im realen Gehirn. Sollten technische Durchbrüche eines Tages realistische Simulationen ermöglichen, so wären die aller Voraussicht nach so komplex, dass wir sie nicht verstehen könnten.

          Unsere Kunst liegt deshalb im geschickten Vereinfachen. So bemerkte der russische Physiker Jakow I. Frenkel (1894 bis 1952) bereits vor hundert Jahren: „Ein gutes theoretisches Modell eines komplexen Systems sollte wie eine gute Karikatur sein: Es sollte die wichtigsten Eigenschaften des Systems hervorheben und die unwichtigen Details ausblenden. Der einzige Haken an diesem Rat ist, dass man nicht weiß, welches die unwichtigen Details sind, bis man das Gesamtsystem verstanden hat. Deshalb sollte man eine Vielfalt an Modellen untersuchen und sein Leben (oder theoretische Erkenntnis) nicht auf ein einziges Modell setzen.“

          Maßstab Gehirn: Im Präpariersaal der Medizinischen Fakultät an der Martin-Luther-Universität.

          Die Konzentration auf einen als wesentlich identifizierten Aspekt prägt auch die bahnbrechenden Arbeiten der Computational Neuroscience. So erkannte John J. Hopfield im Jahr 1982, dass die kollektive Dynamik von rückgekoppelten Netzwerken eingesetzt werden kann, um Gedächtnisinhalte zu speichern und selbst dann noch assoziativ wiederzuerkennen, wenn ein als Test präsentiertes Muster unvollständig oder verrauscht ist. Im Gegensatz zu traditionellen Computeralgorithmen wird der Abgleich mit den gespeicherten Mustern nicht explizit programmiert. Er ergibt sich vielmehr aus der Dynamik des Systems, die von selbst zu den als Attraktoren eingeprägten Mustern hinläuft. Um diese Einsicht zu erzielen, musste Hopfield die Beschreibung der Neuronen auf ein Minimalmodell reduzieren und zahlreiche biologische Details vernachlässigen.

          Auch in unseren eigenen Arbeiten treten die Vorteile stark vereinfachter Beschreibungen deutlich hervor.

          Der Raum im Kopf

          Seit einiger Zeit beschäftigen wir uns mit der räumlichen Orientierung und Navigation von Säugetieren. Bereits vor gut fünfzig Jahren hatte John O’Keefe entdeckt, dass es im Hippocampus, einer für Lernen und Gedächtnis zentralen Hirnstruktur, Nervenzellen gibt, die jeweils nur aktiv sind, wenn wir uns an einem bestimmten Ort aufhalten. Bewegten sich Keefes Versuchstiere, wurden diese „Ortszellen“ nacheinander aktiviert, und das Aktivitätsmuster der gesamten Neuronen-Population repräsentiert den Ort des Tieres mit hoher Genauigkeit.

          Vor 15 Jahren fanden dann May-Britt und Edvard Moser in einer benachbarten Hirnregion Nervenzellen, deren Aktivität ebenfalls räumlich variiert. Im Gegensatz zu Ortszellen sind sie an mehreren Orten aktiv, so dass die momentane Position des Tieres nicht eindeutig ausgelesen werden kann. Für jede Zelle spannen diese Orte erhöhter Aktivität ein virtuelles hexagonales Gitter auf, das die Umgebung des Tieres überdeckt. Die faszinierende Regelmäßigkeit der „Gitterneurone“ lässt vermuten, dass damit Abstände wie in einem Koordinatensystem gemessen werden – die neuronale Metrik des Raums. Als den drei Forschern 2014 der Nobelpreis für ihre Entdeckungen verliehen wurde, war von einem biologischen GPS-System die Rede.

          Aktivitätsmuster im Gehirn

          Wie aber können Abstände im Raum überhaupt mit periodischen Aktivitätsmustern im Gehirn gemessen werden? Eine kurze Überlegung zeigt, dass einzelne Zellen dies nicht vermögen, da sich das Tier ja in beliebiger Richtung zum Gitter und im Allgemeinen auch auf gewundenen Pfaden bewegt. Aus der Aktivität eines einzigen Gitterneurons kann damit weder auf die Position des Tieres noch auf die zurückgelegte Wegstrecke geschlossen werden. Man muss also die Aktivität mehrerer Gitterneurone betrachten. Sollten deren Gitter dieselbe Größenskala haben und nur gegeneinander verschoben sein, so wäre die gesamte Zell-Population räumlich periodisch aktiv, so dass weiterhin keine eindeutige Ortsbestimmung möglich wäre. Die einzelnen Gitter müssten also gegeneinander verdreht sein. Experimentell wurde dies jedoch nicht beobachtet. Damit bleibt als letzte Möglichkeit ein Multi-Skalen-Code, bei dem die Aktivitäten von Gitterneuronen mit unterschiedlich großen Gitterabständen gemeinsam ausgelesen werden. Informationstheoretische Berechnungen zeigen, dass dies funktioniert und dass ein solcher Code besonders effizient ist, wenn die Gitterabstände nur diskrete Werte annehmen, so dass sich „Module“ gleichartiger Gitterneurone ergeben. Um die Präzision der Ortsbestimmung zu optimieren, sollten die Skalen zudem in einem festen Verhältnis zueinander stehen, so wie dies später auch beobachtet wurde.

          Das bei diesen Experimenten entdeckte Verhältnis von 3:2 entspricht ebenfalls unserer Theorie: Bei diesem Wert sind großräumige Navigationsfehler besonders selten. Bei unseren mathematischen Analysen zur Decodierung von Gitterneuronen haben wir die präzise zeitliche Struktur ihrer Aktivitätsmuster vollkommen außer Acht gelassen. Nur so war es möglich, eine geschlossene mathematische Theorie zu formulieren, die quantitative Vorhersagen erlaubt, welche allein mit Computersimulationen nie hätten getroffen werden können.

          Einige Prinzipien, mehr noch nicht

          Auch wenn also hier und da neuronale Funktionsprinzipien sichtbar werden, besteht kein Zweifel daran, dass wir von einem umfassenden Verständnis des Gehirns noch weit entfernt sind. Gleichzeitig führen Entwicklungen im Bereich von Elektrophysiologie, Optogenetik und der hochaufgelösten Rekonstruktion ganzer Nervennetze zu einer immer rascher ansteigenden Flut an neuen Beobachtungen und Hypothesen.

          Auf lange Sicht gesehen erscheint es deshalb wichtig, verstärkt Experimente vorzunehmen, die direkt darauf abzielen, bestehende Theorien zu verwerfen. Diese Strategie hat sich in der Physik bewährt und wird es erlauben, Schritt für Schritt eine integrale Hirntheorie aufzubauen, von der auch technische Anwendungen profitieren werden, vor allem im Bereich künstlicher intelligenter Systeme.

          Jakow Frenkel bemerkte völlig zu Recht, dass man nicht weiß, welche Details vernachlässigt werden dürfen, solange das Gesamtsystem nicht verstanden ist. Biologische Systeme sind Produkte der Evolution. Bei ihrer Modellierung kommt deshalb erschwerend hinzu, dass wir nie feststellen können, ob ein bestimmtes Detail unwichtig ist: Wir können zwar experimentell testen, ob dieses Detail für eine spezifische Funktion bedeutungslos ist, können jedoch nicht ausschließen, dass es für eine andere Aufgabe wesentlich ist. Erst wenn wir alle erdenklichen Funktionen überprüft haben, können wir davon ausgehen, dass dieses eine Detail in der Tat vernachlässigbar ist.

          Aus prinzipiellen Erwägungen heraus kann es also wohl nie zu einer vollständigen Entschlüsselung des Gehirns kommen. Dies sollte uns jedoch nicht bekümmern. Auch in Zukunft werden wir faszinierende neue Theorien sehen, die schlaglichtartig gewisse Aspekte des Denkens beleuchten und spannende Experimente stimulieren werden. Vielleicht ist dies auch das Beste, was wir erhoffen können: Ein farbenprächtiges Mosaikfenster aus teilweise überlappenden, teilweise komplementären Theorien, durch das die neurobiologische Wahrheit hindurchschimmert, die für uns in ihrer Vollständigkeit jedoch verborgen bleiben muss.

          Pragmatisch gesehen sollten wir daher ein breitgefächertes Forschungsprogramm anstreben. Diese Einsicht spiegelt sich auch in der Struktur des vom Bundesministerium für Bildung und Forschung initiierten „Bernstein Netzwerkes“ wider, eines Verbunds von mehr als 200 Arbeitsgruppen im Bereich der Computational Neuroscience. Das Netzwerk ist nach dem Physiologen und Biophysiker Julius Bernstein (1839 bis 1917) benannt.

          Seine Membrantheorie lieferte eine erste biophysikalische Erklärung dafür, wie sich elektrische Erregungen in Nervenzellen ausbreiten. Die einzelnen Gruppen im Netzwerk forschen ohne zentrale Lenkung und unabhängig voneinander; die jährliche Bernstein-Konferenz dient dem wechselseitigen Austausch und der internationalen Vernetzung. Daraus ist eine bunte Vielfalt an Forschungsprojekten entstanden – ganz im Sinn von Frenkel. Unterstützt durch die Volkswagen-Stiftung erleben Bernstein-Studenten im gemeinsamen Smart-Start-Programm hautnah diese Vielfalt an Inhalten und Methoden. Mit breiten Erfahrungen in computergestützter Datenanalyse, biophysikalischer Simulation und mathematischer Modellierung sowie einem guten Gespür für die Chancen und Grenzen interdisziplinärer Forschung sind sie ideal für spätere Herausforderungen in Wissenschaft und Technik vorbereitet.

          Der Autor ist Professor für Computational Neuroscience an der LMU München. Nach einem Physikstudium in München und Atlanta promovierte er 1990 in Heidelberg. Als Postdoktorand forschte er am Caltech, in Urbana-Champaign und in Oxford. 1996 nahm er eine Professur für Theoretische Biophysik in Bremen an, 1997 wechselte er als Professor für die Theorie Neuronaler Systeme an das neu gegründete Innovationskolleg Theoretische Biologie der Humboldt-Universität zu Berlin.

          Die Serie: Zukunft des Gehirns

          Der Beitrag ist das Ergebnis eines Vortrags in der Reihe „Zukunft des Gehirns“, die von der Gemeinnützigen Hertie-Stiftung in Frankfurt am Main und dieser Zeitung initiiert wurde.

          Weitere Themen

          Ein Flüstern am Meer

          Zukunftslabor Lindau 2019 : Ein Flüstern am Meer

          Gravitationswellen sind ein Beispiel für das wundersame Zusammenspiel von Theorie und Beobachtung. Eine Beschreibung dessen findet sich außer in der Wissenschaftsphilosophie auch in der Erzählkunst.

          Topmeldungen

          Großbritannien und Iran : Zwei Tanker und eine Retourkutsche

          Kritiker werfen der Regierung in London vor, sie sei vom Machtkampf um die Nachfolge Mays abgelenkt. Tut sie zu wenig für die Sicherheit der britischen Schiffe im Persischen Golf?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.