Bioforschung an Grenzen : Wird „Big Data“ zur Chiffre für den digitalen GAU?
- -Aktualisiert am
Recon-2: „Google-Atlas“ des menschlichen Stoffwechsels Bild: University of Iceland
Es ist der Fluch der Moderne: Ein Daten-Tsunami überrollt die Wissenschaften. Beispiel Biomedizin. Sie ist in digitalen Nöten. Hilfe? Einen Plan gibt es schon.
Jede Zeit hat ihre eigene Datenflut. Und zu jeder Zeit gehörte es schon immer zur Kunst großer Forscher, die „Undaten“ - unbrauchbare oder überflüssige Informationen - von wertvollen Datensätzen zu trennen. Gregor Mendel zum Beispiel hatte für seine Vererbungsexperimente in fünf Jahren die Morphologie von gut 10 000 Erbsenpflanzen ausgewertet und verglichen. Carl von Linné, der schwedische Botaniker, dem wir die Nomenklatur in der Organismenwelt verdanken, hatte in der Systematisierung eine noch viel gewaltigere Datenflut zu bewältigen und schon im achtzehnten Jahrhundert ein Datenmanagement entwickelt, das der Arbeitsweise von Wikipedia frappierend ähnelt. Mit seinem Zettelsystem Marke Eigenbau hat er die Lawine an Informationen über neue Pflanzenarten zu beherrschen gelernt. Und heute? Heute begräbt die digitale Datenlawine ihre Schöpfer unter sich.
Der Begriff „Big Data“, den man nun immer öfter hört, verharmlost im Grunde schon, was allein in der Forschung auf Wissenschaftler und Institutionen zurollt. Vom Daten-Tsunami sprechen deshalb Bioinformatiker wie der deutsche Neurobiologe Hans Hofmann. Er hat die Umwälzungen in den vergangenen Jahren hautnah an der University of Texas miterlebt. Vor fünf Jahren wurde am Texas Advanced Computing Center mit dem Supercomputer „Ranger“ - Rechenleistung 580 Teraflops pro Sekunde - der bis dahin mächtigste Datenverarbeiter der Welt fertiggestellt - und über Nacht schon wieder von der Konkurrenz entthront. In diesen Tagen wird Ranger zerlegt, und seine Einzelteile werden verhökert.
Sein Nachfolger „Stampede“ ist zwar mit einer hocheffizienten Nachtwasserkühlung ausgestattet und mit zehn Petaflops Rechenleistung gut zwanzigmal so leistungsfähig wie Ranger, aber trotzdem in der Rechner-Weltrangliste nicht unter den ersten fünf - sehr zum Ärger der Texaner. Hofmann: „Die wichtige Frage für uns Wissenschaftler ist aber, kommen die neuen Computerfarmen überhaupt noch mit in der Datenverarbeitung und -speicherung.“ Am Wochenende war Hofmann Gast einer Tagung der Schering-Stiftung und der Zürcher Hochschule der Künste, die an der Berlin-Brandenburgischen Akademie ausgerichtet wurde. Titel: „Fragile Daten“. Am Anfang stand die Frage, ob es sich bei der datengetriebenen Forschung der Gegenwart tatsächlich um ein neues Paradigma handelt, weg also von der hypothesen- hin zur daten-getriebenen Forschung. Oder ob es sich vielleicht doch eher um einen „Daten-Hype“ handelt, wie der Wissenschaftshistoriker und -theoretiker Hans-Jörg Rheinberger vom Max-Planck-Institut für Wissenschaftsgeschichte formulierte: „Die Daten werden nicht mehr im Lichte von Phänomenen generiert, denen man auf die Spur kommen möchte, sie werden vielmehr en masse als Datenströme generiert und als Datenteiche gepoolt.“ Diese ernüchternde Beschreibung des Datensammelns wurde allerdings schnell verdrängt von der Frage: Wann überlastet die „Datenarbeit“ die Gehirne der Forscher, und wann kollabiert das System am Ende sogar?
“Lange war die Biologie datenlimitiert, heute ist sie analyselimitiert“, sagte Hofmann. Mit anderen Worten: Die Auswertung der Daten stößt an Kapazitätsgrenzen - aber nicht nur. Hofmann selbst hat sich von einem in Würzburg, Tübingen und Seewiesen ausgebildeten Insektenneurobiologen zu einem Bioinformatiker gewandelt, um den durch Bildverarbeitung und Genomsequenzierung anfallenden Datenmengen noch sinnvolle Informationen zu entlocken.