https://www.faz.net/-i9j-8ebkk
Verlagsspezial

: Marktvorhersagen und ihre Grenzen

Predictive Analytics: Um zukünftige Abverkäufe und Trends für Marken und Produkte zu bemessen, kommt es auf eine intelligente Verknüpfung von einer Vielzahl von Daten an. Bild: Fuse/istock/thinkstock

Predictive Analytics gelten derzeit als einer der wichtigsten Big-Data-Trends. Was können die Modelle leisten?

          Marktforscher schwören darauf:  Computergestützte Vorhersagemodelle auf Big-Data-Basis führen zu treffenden Prognosen. Dazu setzen sich solche Prognosemodelle aus mehreren Algorithmen – also Handlungsvorschriften – zusammen, die wiederum in Einzelschritte strukturiert sind. Mit diesen Einzelschritten werden ausgewählte Parameter in Beziehung gesetzt und verarbeitet. Je umfangreicher der Datenfundus und je größer die Anzahl der relevanten Parameter, die auf die zu prognostizierende Größe angewandt werden, desto genauer fallen die Vorhersagen aus, sind die Verfechter von Predictive Analytics überzeugt.

          Hohe Komplexität der Daten

          Ein wichtiger Anwendungsfall für das junge Münchner Marktforschungsunternehmen DataLion ist die Prognose der Werbewirkung in Abhängigkeit von unterschiedlichen Einflussgrößen – beispielsweise den Werbeinvestitionen in bestimmte Mediengattungen. Auch in die Visualisierungssoftware wurden Algorithmen mit unterschiedlichen Parametern integriert. „Auf diese Weise können wir unter anderem vorhersagen, welche Informationen, versteckt innerhalb einer großen Datenmenge, als Nächstes von Nutzern gefragt sein könnten“, beschreibt Benedikt Köhler, Gründer und CEO von DataLion. Für ihn steht außer Frage: Mit wachsenden Datenmengen werde sich die Trefferrate der Algorithmen weiter verbessern. „Bald wird der schlechteste Algorithmus mit einer großen Datenmenge bessere Vorhersagen treffen als der beste Algorithmus mit einer kleineren Datenmenge.“ Die digitale Revolution und zunehmende Verdrahtung fast aller Lebensbereiche lässt die Datenvolumen förmlich explodieren. Deshalb, so Köhler, könne das Verhalten von Menschen immer exakter gemessen und vorhergesagt werden. Selbstläufer sind Predictive Analytics dennoch nicht. „Die Herausforderung besteht darin, die Parameter immer wieder an die allmählichen Veränderungen und Abweichungen innerhalb der enormen Datenbasis anzupassen. Außerdem wird es mit zunehmender Komplexität der Daten immer schwieriger, die Einflussgrößen und Ergebnisse eines Algorithmus so zu beschreiben oder zu visualisieren, dass auch Menschen sie verstehen und nachvollziehen können“, räumt Köhler ein.

          Intelligente Verknüpfung

          Ein anderer Marktforscher, GfK, trifft Vorhersagen auf Big-Data-Basis, um beispielsweise zukünftige Abverkäufe und Trends für Marken und Produkte zu bemessen. In die Basis fließen Millionen von Einkaufsdaten aus Feldstudien, Web- und Social-Media-Daten sowie die Daten des auftraggebenden Unternehmens ein. „Durch den Einbezug von Social-Media-Daten haben sich unsere Vorhersagen nachweislich verbessert“, berichtet Nina Meinel, Managerin für das Thema Digitale Methoden innerhalb der GfK-Abteilung Marketing und Data Sciences. Die steigende Trefferquote allein auf große Datenmengen zurückzuführen greift nach Meinel aber zu kurz. „Validere Ergebnisse und bessere Interpretationsgrundlagen werden dadurch erzielt, dass klassische Marktforschungsdaten wie Feldstudien und Befragungen intelligent mit Internetdaten und offiziellen Statistiken verknüpft werden.“ Doch auch mit dieser Kombination können Vorhersagen schnell an ihre Grenzen treten, räumt sie ein: „Da wir aus der Vergangenheit lernend auf die Gegenwart und Zukunft projizieren, können plötzlich auftretende Veränderungen nach wie vor schwer vorhergesagt werden.“

          Ständige Aktualisierungen nötig

          „Ändert sich das Verhalten der Konsumenten oder wechselt die Wirtschaft von einer Wachstumsphase in eine Rezession, dann müssen die Modelle zwingend mit frischen Daten rekalibriert werden“, hebt Alexander Linden, Research Director beim Analystenhaus Gartner, heraus. Dafür stünden, vor allem in der Übergangsphase, nicht genügend frische Daten zur Verfügung. Linden zufolge seien Predictive Analytics in Unternehmen in der Lage, immer genauere Vorhersagen zu treffen – dank besserer mathematischer Modelle, einer besseren Integration von menschlichem Wissen in diese Modelle, höherer Rechenleistungen und nicht zuletzt umfangreicheren Datenbeständen aufgrund immer größerer Speicher.

          Prescriptive Analytics als neuer Ansatz

          Matthias Zacher, Senior Consultant beim Wettbewerber-Analystenhaus IDC, sieht hinter den immer besseren Trefferquoten vor allem statistische Verfahren wie Data Mining und maschinelles Lernen. „Während es für Unternehmen beim Data Mining um das Finden neuer Muster in sehr großen Datenbeständen geht, steht beim maschinellen Lernen das Wiedererkennen von Mustern im Mittelpunkt, um aus Handlungen der Vergangenheit den Verlauf von ähnlich gelagerten künftigen Aktivitäten zu prognostizieren und zu optimieren.“  Im Fokus der Mustererkennung stehen unter anderem Performance-Verbesserungen, die Identifikation von Beziehungen zwischen mehreren abhängigen oder unabhängigen Variablen sowie das Modellieren von Entscheidungsbäumen und Assoziationsanalysen. Sie fördern Regeln zutage, die Korrelationen zwischen gemeinsam auftretenden Dingen beschreiben. Mit Prescriptive Analytics steht zudem laut Zacher ein neuer Ansatz parat. „Er setzt die Musteranalysen in den Kontext zu den erwarteten Ereignissen und den Gründen dafür.“ Das eröffne präzisere Annahmen.

          Darin besteht die Crux von Marktvorhersagen: Sie funktionieren nur dann annähernd gut, wenn sie durch möglichst viele relevante Parameter auf die zu prognostizierende Größe gestützt werden. Selbstlernende Algorithmen können dabei helfen, vermeintlich relevante von nicht relevanten Informationen zu trennen.

          Topmeldungen

          Breitbandausbau: In einer digitalen Wirtschaft ist die schnelle und sichere Übertragung von Daten für Unternehmen wettbewerbsentscheidend.

          : Deutschlands digitale Infrastruktur

          Flächendeckend 50 Megabit pro Sekunde bis 2018 – so lautet das Bestreben der Bundesregierung in puncto Breitbandnetz. Das wirkliche Ziel aber bleibt die Gigabit-Gesellschaft. Und hierfür gibt es noch viel zu tun.
          Lebenslanges Lernen: Komplexe oder kreative Tätigkeiten lassen sich auch in Zukunft nur schwer durch Maschinen oder Programme ersetzen.

          : Neue Berufe entstehen

          Die Digitalisierung hält eine Vielzahl an Herausforderungen für den Arbeitnehmer bereit. Wer sich jedoch kontinuierlich fachlich weiterbildet, wird auch künftig gefragt sein.
          Gefährdungspotential: Professionelle Hacker nehmen immer häufiger kritische Infrastrukturen ins Visier – etwa die Energieversorgung eines Landes.

          : Hacking zeigt Schwachstellen auf

          Experten sind sich sicher: Das Ausmaß und die Frequenz von Cyberattacken werden sich weiter erhöhen. Kein Wunder also, dass sich professionelles Hacking zunehmend als Dienstleistung etabliert. Ein Einblick in die Welt der Gehackten – und von Hackern.