Home
http://www.faz.net/-gx7-73fad
HERAUSGEGEBEN VON WERNER D'INKA, BERTHOLD KOHLER, GÜNTHER NONNENMACHER, HOLGER STELTZNER

Digitale Speicherung Dicke Daten

Die Festplatten der Welt speichern immer mehr ab. Das ist ein Problem und eine Verheißung zugleich. Und eine ganz neue Quelle für wissenschaftliche Erkenntnis.

© Prisma Bildagentur Vergrößern

W as kommt nach dem Terabyte? Kunden von Elektronikmärkten mag das noch nicht kümmern. In Rechenzentren von Forschungsinstituten aber denken Mitarbeiter bei der Anschaffung neuer Festplatten längst in Petabyte (tausend Terabyte). Schon Ende 2003, dem Jahr bevor Facebook online ging, ließ sich der Weltbestand digital gespeicherter Daten nur noch in Exabyte (Millionen Terabyte) messen. Heute sind es einige Zettabyte (Milliarden Terabyte), von denen 90 Prozent erst in den letzten beiden Jahren erzeugt wurden.

Die Wissenschaft ist längst nicht mehr die wichtigste Quelle. So liefern die gewaltigen Detektoren des Large Hadron Colliders (LHC), des großen Teilchenbeschleunigers am Forschungszentrum Cern, im Schnitt 42 Terabyte täglich, während sich Facebook am Tag rund 500 Terabyte neuer Daten einverleibt. Schuld an dieser Flut sind nicht nur die Computer und das Internet, über das der digitale Segen verteilt, vervielfältigt und zu Neuem, seinerseits Speicherplatzbedürftigem verknüpft werden kann. Es tragen auch immer mehr Sensoren dazu bei, deren Output sich elektronisch aufzeichnen und weiterverarbeiten lässt: medizinische Diagnosegeräte, Wetterstationen, Überwachungskameras - und Handys.

„Big Data“

“Jeder, der ein Smartphone mit sich führt, ist ein menschlicher Sensor“, sagte der amerikanische Medienproduzent Rick Smolan vergangene Woche in London. Dort wurde das Projekt „The Human Face of Big Data“ vorgestellt, bei dem Smolan mit dem Speichertechnikkonzern EMC als Hauptsponsor, auf potentiell segensreichen Auswirkung des Datenzeitalters aufmerksam machen will: in Medizin, Umweltschutz, Entwicklungshilfe. Das Schlagwort „Big Data“ zeugt vom Selbstbewusstsein des Wirtschaftszweiges, der mittlerweile entweder von der Datenflut selbst lebt, oder Technologien zur seiner Bewältigung anbietet.

Datenschutzfragen mag es ja geben. Aber mittlerweile hat Facebook eine Milliarde Nutzer, von denen 600 Millionen mobile Geräte verwenden. Und während „Big Government“ oder „Big Business“ Schmähbegriffe sind, die man sich gerade wieder im amerikanischen Wahlkampf um die Ohren haut, wird mit „Big Data“ fast schon ehrfürchtig etwas beschrieben, was einem Naturphänomen gleicht: Es kommt so oder so, ja es ist schon da. Nun gilt es, zumindest damit klarzukommen, es nach Möglichkeit sogar produktiv zu nutzen. Dabei lassen sich wirtschaftliche und kulturelle Motive auch auf neue Art und Weise kombinieren, wie etwa beim Crowdsourcing.

Fehlende Einheit in Files

Allerdings, die dafür nötigen Datenmassen wollen erst verarbeitet sein. Mit der Anschaffung von immer mehr Speicherplatz ist es nicht getan. Es ist nicht allein die Menge, welche Daten „big“ macht, sondern auch die Geschwindigkeit ihrer Entstehung sowie ihre Struktur, oder besser: deren Fehlen.

Schon in geringen Mengen können unstrukturierte Daten in Wirtschaft und Verwaltung zu einem großen Problem werden. Im Papierzeitalter ließen sich Vereinbarungen über Preise oder Liefertermine bis hin zu Verträgen und Konstruktionsunterlagen einfach zusammen abheften. Heute liegt dergleichen oft in einem Sammelsurium aus E-Mails, PDFs, Text-, Präsentations- oder Grafik-Files vor. Herkömmliche Datenbanken haben mit dieser Vielfalt enorme Probleme. Sind es aber nicht die eigenen Daten, dann bietet gerade mangelnde Einförmigkeit die Chance, daraus Nützliches über ihre Quelle herauszufinden. Über das Konsumverhalten von Verbrauchern etwa. Die statistischen Verfahren dafür - vom einfachen Korrelieren bis zum probabilistischen Schlussfolgern - stammen indes aus der Wissenschaft.

1 | 2 Nächste Seite   |  Artikel auf einer Seite
 
 ()
   Permalink
 
 
 

Hier können Sie die Rechte an diesem Artikel erwerben