Politikberater : Die Kompetenzillusion
- -Aktualisiert am
Hilft der Blick in die Kristallkugel? Wissenschaftliche Berater wirken mit ihren Modellen oft genug nicht weniger hilflos Bild: dpa
Orakelgekrakel: Wenn Politiker sich auf wissenschaftliche Berater verlassen, kann das übel enden. Milliarden werden dabei in den Sand gesetzt. Rekapitulation eines falschen Vertrauensverhältnisses.
Wissenschaftliche Prognostiker sind die Propheten unserer Zeit. Doch oft halten die mathematisch verbrämten Zukunftsprognosen einer kritischen Überprüfung nicht stand. Das hat extreme Konsequenzen: Mangels eigenen Sachverstands verlassen sich Politiker auf diese Expertisen und verantworten leichtsinnig Investitionsentscheidungen, die in die Billionen gehen. Deshalb ist es Zeit für einen mathematical turn, damit wir die Rolle der Mathematik in den Wissenschaften besser verstehen.
Die Kirchen waren bis auf den letzten Platz gefüllt, als das Inferno begann. Die Erde bebte und riss auf. Wohnhäuser, Paläste und Kirchen taumelten wie sterbende Riesen, bevor sie mit lautem Getöse zusammenbrachen und die schreienden Menschen unter sich begruben. Binnen Minuten stand die Stadt in Flammen.
Das Erdbeben von Lissabon am 1. November 1755 hat das europäische Denken nachhaltig verändert. Es waren nicht die Sünder von Sodom, die ausgerechnet an Allerheiligen von den einstürzenden Gesteinsmassen zerquetscht wurden. Es waren Gottgefällige, die betend und singend in den Kirchen starben, während gleichzeitig Verbrecher raubten und mordeten, da es ihnen gelang, aus den Gefängnissen zu flüchten.
Die Welt schien mit einem Mal berechenbar
Konnte Gott so grausam und ungerecht sein? Es schlug die Stunde der Aufklärer. Voltaire verhöhnte Leibniz und machte sich über dessen Theodizee lustig. Eine solch himmelschreiende Ungerechtigkeit sollte die von Gott geschaffene bestmögliche aller Welten sein? Lächerlich. Immanuel Kant, weniger polemisch, dafür pragmatisch, war von dem Erdbeben fasziniert und sammelte alle Informationen, die ihm in die Hände fielen. Schließlich wagte er es, natürliche Ursachen für die Katastrophe zu postulieren. Er machte gigantische unterirdische Gasblasen für die Entstehung des Bebens verantwortlich. Damit stieß Kant die Tür auf.
Als im Jahr 1759 Wissenschaftler das Wiedererscheinen des Halleyschen Kometen exakt vorhersagten, war Europa elektrisiert. Die Welt schien mit einem Mal berechenbar. In diesem Zusammenhang sticht ein Mann besonders hervor: Pierre-Simon Laplace. Dieser verfasste maßgebliche Werke der Astronomie, die auch Napoleon nicht unbeeindruckt ließen. Als dieser den Wissenschaftler in den Rosengarten des Malmaison einlud und darauf hinwies, dass Gott in dessen Büchern nicht mehr vorkomme, beschied der Forscher dem Kaiser, dass er diese Hypothese nicht mehr benötige.
Er glaubte an den Menschen in seiner Beschränktheit
Trotzdem taugt Laplace nicht zum Säulenheiligen heutiger Berechenbarkeitsfanatiker. Zwar war der Franzose eine Lichtgestalt der Aufklärung, aber er erkannte die Grenzen wissenschaftlicher Berechnungen mit prophetischer Klarheit. Das macht ihn in unserem Zusammenhang interessant. Die in weiten Teilen realistische Einschätzung der Vorhersagbarkeit natürlicher Phänomene unterscheidet ihn von vielen heutigen Prognostikern.
Dass Laplace gern das Gegenteil unterstellt wird, liegt daran, dass ein einziges Zitat von ihm seit Generationen unvollständig abgeschrieben wird und man gleichzeitig sein Hauptwerk nicht beachtet. In dem Zitat geht es um den Laplaceschen Dämon. Diese Kopfgeburt ist ein gespensterhaftes Wesen, das nicht nur Orte und Impulse aller Teilchen im Universum kennt, sondern auch deren Bewegungsgesetze. Aus diesem Grund kann er jeden vergangenen, aber auch zukünftigen Zustand berechnen. Laplace glaubt aber nicht - und das wird gern unterschlagen -, dass der Mensch diese dämonischen Fähigkeiten entwickeln werde. Er stellt unmissverständlich klar, dass der Mensch in seiner Beschränktheit dem Dämon immer unendlich fernbleiben wird!
Einst rollte bei Versagen auch schon mal ein Kopf
Diese Einschätzung erklärt, weshalb das Zitat in der Einleitung eines Buches über Wahrscheinlichkeitsrechnung steht. Die Kenntnisse des Menschen sind fast immer lückenhaft. Deshalb bleibt ihm meistens nichts anderes übrig, als probabilistische Aussagen zu machen. Vor diesem Hintergrund wundert man sich nicht, dass der Franzose die Möglichkeit, Wetter und Klima längerfristig zu berechnen, pessimistisch einschätzte. Ihm war schon damals klar, dass kleine Ursachen große Wirkungen haben können. Bekanntlich beschränkt diese Einsicht die Voraussagbarkeit in wesentlichen Punkten.
Der nüchtern-realistische Blick eines Pierre Simon Laplace wäre einem Teil heutiger Forscher zu wünschen, denen die Einsicht in die beschränkte Tragweite ihrer Modelle fehlt. Zu allem Überfluss schrecken diese nicht davor zurück, sich der Politik als Ratgeber anzudienen. Das ist eine unheilvolle Liaison.
Dass Wissenschaftler und die Mächtigen dieser Erde eine symbiotische Beziehung pflegen, ist nicht ungewöhnlich. Bereits im Papyrus Rhind steht geschrieben, dass Pharaonen Gelehrten die Würde der Unsterblichkeit verliehen. Schon früher gaben sich die Machthaber gern den Anschein, Herrscher über eine ungewisse Zukunft zu sein. Diese Kompetenzillusion musste durch die eine oder andere zutreffende Prophezeiung gekonnt in Szene gesetzt werden: durch das exakte Datum einer Nilüberschwemmung etwa oder durch die genaue Prognose einer Sonnenfinsternis. Dazu brauchte man ein Hirn im Hintergrund. Bei Erfolg war die Entlohnung fürstlich, bei Versagen rollte auch schon mal ein Kopf. Zumindest das Prinzip der großzügigen Bezahlung hat sich bis in die Gegenwart gehalten. Aber sind die Prognosen, die heute mit dem hehren Anspruch auftreten, komplexe Phänomene wie Klima und Wirtschaftsentwicklung vorauszusagen, ihr Geld wert? Hier sind Zweifel angebracht.
Goethes Zauberlehrling lässt grüßen
Es sieht so aus, als ob das System aus Politik und beratender Wissenschaft nicht nur bei der Analyse komplexer Sachverhalte versagte. Zum Glück bewegt sich bei einem missratenen Gutachten der finanzielle Verlust für die Allgemeinheit noch in Grenzen. Das bekommt eine andere Dimension, wenn auf der Grundlage vermeintlicher Expertise von Politikern, Wissenschaftlern und Juristen Komplexitätsmonster erschaffen werden, die in der Folge eine Kinetik entwickeln, die ihre Erschaffer weder vorhergesehen haben noch zu beherrschen in der Lage sind. Goethes Zauberlehrling lässt schön grüßen.
Symptomatisch ist in diesem Zusammenhang das Erneuerbare-Energien-Gesetz. Hier werden grobe Webfehler besonders augenfällig: Die Motivation des Gesetzes besteht darin, Kohlendioxid in großem Maßstab zu vermeiden. Dieses Ziel wird verfehlt, da die Konstrukteure des fragwürdigen Elaborats nicht vorhergesehen hatten, dass das Gesetz mit dem Emissionszertifikatehandel kollidiert. Die Folgen für den Großteil deutscher Steuerzahler sind desaströs. Eine kleine Zahl von Profiteuren wird mit riesigen Beträgen vom Rest der Bevölkerung subventioniert. Dabei verdanken sich diese Beträge, die bei mindestens 200 Milliarden Euro liegen, einer paradoxen Logik: Je mehr grüner Strom in den Spitzen in die Netze eingespeist wird, desto tiefer sinkt an den Strombörsen der Preis, der erlöst wird. Dadurch wird der Strom für die normalen Bürger aber nicht billiger. Im Gegenteil, der Preis steigt, da die Allgemeinheit gezwungen wird, die Differenz von staatlich garantierter Einspeisevergütung und Börsenpreis zu erstatten.
Investitionsentscheidungen in Billionenhöhe
Wie kann es zu so einer fehlerhaften Konstruktion kommen? Die Gründe sind vielschichtig. Zuerst fällt auf, dass in einer hochtechnisierten Welt die meisten Politiker auf der Grundlage ihrer Ausbildung nicht gerade prädestiniert sind, komplexe wissenschaftliche Sachverhalte zu beurteilen. Das erklärt die immer größeren Ausgaben der Regierung für externe Beratung. Die ökologische Energiewende, von den Grünen forciert, ist ein kompliziertes Thema. Bis vor kurzem wurde die Partei von Claudia Roth und Jürgen Trittin geführt. Trittin ist Sozialwissenschaftler. Roth brach das Studium der Theaterwissenschaften nach zwei Semestern ab und nennt sich seitdem Dramaturgin. Hilft dieses Wissen, die fatale Wechselbeziehung zu beurteilen, die das Erneuerbare-Energien-Gesetz mit dem Emissionszertifikatehandel zu einem teuren Nullsummenspiel macht? Was für die Grünen gilt, gilt in vergleichbarer Weise für die anderen Parteien. Wissenschaftlich ausgebildete Politiker kann man mit der Lupe suchen.
Dieser Umstand verstärkt die Gefahr, für Einflüsterungen wissenschaftlicher Berater, die den Anschein der Kompetenz erwecken, empfänglich zu werden. Das ist leichtfertig, da besonders die vergangenen zehn Jahre lehren, dass vermeintlichem Expertentum mit Vorsicht begegnet werden muss. Als Beispiel können Volkswirtschaftslehre und Klimatologie dienen, da diese Wissenschaften und ihre „Prognosen“ zur Grundlage für Investitionsentscheidungen in Billionenhöhe werden.
Besser, man lässt Affen mit Dartpfeilen auf Aktien werfen
Wie kläglich die mathematischen Modelle der Wirtschaftswissenschaftler versagt haben, ist in der Bankenkrise augenfällig geworden. Die tatsächliche Ausfallquote mit Immobilien besicherter Derivate höchster Bonität war um circa 20 000 Prozent höher als die, welche die großen Ratingagenturen prognostiziert hatten. Doch auch schon lange vor dem Schreckensjahr 2008 war klar, dass wirtschaftswissenschaftliche Prognosen mit Skepsis zu betrachten sind. Die jährlich veröffentlichten Konjunkturvorhersagen verschiedener Institute stimmen nur in wenigen Fällen und haben sehr große Fehlerbereiche. Rezessionen werden von den Spezialisten nur selten vorhergesehen. Auch Schätzungen der Arbeitslosenzahlen sind nicht besonders solide. Grundlegende Fragen wie die, ob eine hohe Staatsverschuldung zur Inflation oder Deflation führt, werden von den Wirtschaftsweisen kontrovers diskutiert.
Im privatwirtschaftlichen Bereich sieht es nicht besser aus. Affen, die mit Dartpfeilen auf Aktien werfen, erzielen mit ihrem Portfolio meistens eine bessere Performance als hochbezahlte Analysten bei den Banken, denen es fast nie gelingt, langfristig den Index zu schlagen. Wie tief die Krise in den Wirtschaftswissenschaften ist, wurde bei der Verleihung des diesjährigen Nobelpreises offensichtlich: Zwei der Laureaten, Eugene Fama und Robert J. Shiller, vertreten völlig gegensätzliche Positionen. Das scheint aber niemanden zu beunruhigen. Fama meint, dass sich aufgrund der Effizienzmarkthypothese keine Preisblasen bilden können; Shiller behauptet das Gegenteil. Das ist ungefähr so, als würde man Galileo Galilei und Papst Urban VIII., der ihn wegen seiner ketzerischen Schriften verurteilte, gemeinsam für den Physiknobelpreis nominieren.
Die Bedeutung der Komplexitätsreduktion
Doch nicht nur bei den Wirtschaftswissenschaftlern, auch bei den Klimatologen macht sich Unbehagen breit, da das prognostische Potential der gerühmten Simulationen nicht einmal den eigenen Erwartungen genügt. Die Erderwärmung hat seit Jahren eine kleine Pause eingelegt. Das war von den Modellen so nicht vorgesehen. Und schaut man genauer hin, dann bemerkt man, dass es viele Inseln des Nichtwissens gibt: Die Wolkenbildung ist nicht richtig verstanden, und man grübelt, wie man diese modellieren soll. Dasselbe gilt für die CO2-Bilanzen der Ozeane und der Urwälder. Beide lassen sich nicht exakt quantifizieren. Aber ist das schlimm? Oder sind das Kinderkrankheiten, die in Zukunft ausgemerzt werden, so dass sich komplexere Modelle der tatsächlichen Entwicklung immer weiter anschmiegen werden? Das darf bezweifelt werden.
Um den Kern der Problematik zu verstehen, lohnt es sich, kurz über die Funktion eines mathematischen Modells nachzudenken. Es ist wesentlich, dass die Wirklichkeit im Modell reduziert wird. Dabei richtet sich die Auswahl bestimmter Aspekte nach den Zielsetzungen, denen das fragliche Modell genügen soll. Das kann man sich an einer Straßenkarte klarmachen. Diese ist ein zweidimensionales, statisches Modell der Wirklichkeit, auf der klugerweise fast nur Straßen eingezeichnet sind, da es den Autofahrer im Allgemeinen nicht interessiert, ob der Wald, den er durchfährt, aus Fichten oder Birken besteht. Es ist der Zweck einer Straßenkarte, einen Weg von A nach B zu finden. Wir bestimmen einen Startpunkt, visieren das Ziel an, ermitteln die passende Strecke. Auf diese Weise können wir prognostizieren, wie wir unser Ziel erreichen.
Ein kompliziertes, oft aussichtsloses Unterfangen
Jetzt stellen Sie sich eine Karte vor, die genauso groß ist, wie das Land selbst, das Sie durchfahren möchten und auf der alles Erdenkliche eingezeichnet ist: Hat eine solche Karte einen Sinn? Sie können sie wegwerfen, da sie die Wirklichkeit nicht in den entscheidenden Punkten reduziert. Wenn der Kybernetiker Norbert Wiener sagt: „Das beste Modell einer Katze ist eine Katze“, dann wird klar, dass auch Genies vor Irrtümern nicht gefeit sind.
Ein Modell, in dem die Auswahl der Variablen und die genaue Quantifizierung der Parameter mit teils erheblichen Unsicherheiten behaftet ist, an einer komplexen Wirklichkeit zu prüfen ist ein weiteres kompliziertes, oft aussichtsloses Unterfangen. Klima oder Volkswirtschaften lassen sich ja nicht wie ein Pendel unter klar definierten Versuchsbedingungen in einem physikalischen Labor präparieren und immer wieder vermessen. Aber das ist leider noch nicht alles.
Was wir zu berechnen versuchen, ist nicht berechenbar
Wie ein Damoklesschwert schwebt eine weitere Frage im Raum: Sind die Probleme, die modelliert werden sollen, überhaupt reduzibel? Damit sind wir wieder beim Beispiel der Straßenkarte. Ist es überhaupt möglich, Volkswirtschaften oder das Klima so in einem Modell zu reduzieren, dass Voraussagen gemacht werden können? Tatsächlich ist diese Bedingung für jedes prognostische Modell essentiell, da ein Computer in der dynamischen Simulation der Wirklichkeit als Zeitmaschine aufgefasst werden muss: Nur dadurch, dass sich die Welt im Modell reduzieren lässt, gelingt es dem geschickt programmierten Computer, dem Gang der Dinge vorauszueilen, da in diesem Fall die Simulationszeit kürzer sein kann als die Realzeit. Hätten Modell und Wirklichkeit dieselbe Komplexität, wäre das unmöglich. Auf einer Straßenkarte, so groß wie das ganze Land, braucht man dieselbe Zeit, um von A nach B zu kommen. Leider wird die Frage nach der Reduzibilität eines Problems im Allgemeinen weder gestellt noch beantwortet. Reduzibilität hat eher den Charakter eines Axioms. Was wäre aber, wenn das „Reduzibilitätsaxiom“ keine evidente Wahrheit ist, sondern nur ein Glaubenssatz? Dann bestünde die Gefahr, dass das, was wir heute mit gigantischem Aufwand zu berechnen versuchen, überhaupt nicht berechenbar ist!
Das ist definitiv nicht ausgeschlossen. Die Chaostheorie lehrt, dass selbst einfache physikalische Systeme nicht separabel sind: In bestimmten Szenarien gibt es keine noch so kleinen Einflussgrößen, die man vernachlässigen kann. Betrachtet man einen Billardtisch, auf dem Kugeln reibungsfrei laufen, dann wird dieses System, obwohl es der Inbegriff deterministischen Denkens ist, nach kurzer Zeit völlig unvorhersehbar. Selbst ein Elektron am Rande des Universums hat einen Einfluss, den man berücksichtigen muss. Und das gilt auch für den messenden Beobachter, der durch die Störungsempfindlichkeit des Systems in eine verhängnisvolle Schleife der Selbstbezüglichkeit getrieben würde. Um seine Wirkung auf den Untersuchungsgegenstand zu quantifizieren, müsste er den Einfluss von sich selbst und seinen Messungen auf das System laufend neu vermessen. Das ist ein essentielles Beobachterproblem im Rahmen der klassischen Physik! In diesem Licht ist übrigens der Laplacesche Dämon eine sinnlose Fiktion. Man kann ihn sich so mächtig denken wie man will, es wäre ihm unmöglich, das Wissen zu erhalten, das er brauchte, um die Zukunft zu berechnen.
Komplexe Wechselwirkungsgeflechte
Sind Klima und Volkswirtschaften nichtseparable und damit irreduzible Systeme? Diese Frage ist entscheidend, aber unbeantwortet. Auf alle Fälle lässt sich aber festhalten, dass die Wirklichkeit wesentlich komplexer ist, als die Modellierer annehmen. Damit berühren wir wieder die wichtige Frage, welche Aspekte der Wirklichkeit im Modell berücksichtigt werden müssen, damit dieses eine angemessene und nützliche Beschreibung ist. Ein Beispiel aus der jüngsten Vergangenheit verdeutlicht das Problem: Erdbeben, wie das von Lissabon im Jahre 1755, gelten bis zum heutigen Tag als nicht vorhersehbar: Beben, die man prognostiziert hat, sind nicht eingetreten; und die, die man nicht vorhergesehen hat, haben katastrophale Schäden angerichtet. Das Erdbeben von Fukushima macht in diesem Zusammenhang keine Ausnahme. Diese Katastrophe nahm Bundeskanzlerin Merkel zum Anlass, Absprachen zu brechen, aus der Atomkraft auszusteigen und öffentlichkeitswirksam die ökologische Wende zu proklamieren, die zwar bis heute dem Klima nicht nutzt, aber volkswirtschaftlich eine große Belastung ist.
In diesem Zusammenhang sieht man deutlich, dass die Unberechenbarkeit einer Naturkatastrophe, die Unergründbarkeit der menschlichen Psyche, die klimatische Entwicklung und die wirtschaftliche Prosperität keine separablen Systeme sind. Wird solchen komplexen Wechselwirkungsgeflechten Rechnung getragen, wenn Forscher vorgeben zu wissen, wie das Wetter im Jahr 2100 in Hamburg ist? Oder schlecht beratene Politiker dem Wähler Sand in die Augen streuen und verkünden, man könnte am CO2-Gehalt der Atmosphäre wie an einem Stellschräubchen herumdrehen (Zwei-Grad-Regel) und damit die Temperatur unseres Planeten wie mit einem Thermostaten einstellen? Das kann man guten Gewissens als unseriös bezeichnen. Was sollen wir tun?
Formeln sind noch kein Ausdruck von Wissenschaftlichkeit
Das aufklärerische Denken führte bis in die jüngste Zeit zu einem Erkenntnissturm. Heute besteht die Gefahr, dass sich diese Art zu denken ad absurdum führt. In einer auch von Marketinggesetzen beeinflussten Welt der Forschung geht das Wissen, was eine belastbare Theorie vom wissenschaftlichen Blendertum unterscheidet, zunehmend verloren. Die Aufklärung weicht der Verklärung. Die Stimmen der Forscher, die es besser wissen, gehen im Geschrei derer unter, die sich in den Vordergrund drängen und deren plakative Thesen von vielen Medien dankbar aufgegriffen werden. Ist es wirklich sinnvoll, die Katastrophe auf den Philippinen schon am Tag des Unglücks zu instrumentalisieren? Wenn ein etablierter Forscher wie der Klimatologe Hans von Storch zur Besonnenheit rät und dafür eintritt, sorgfältig zwischen dem zu unterscheiden, was man weiß, und dem, was sich unserem Wissen entzieht, dann sollte man das ernst nehmen. Es müssen aber auch die erkenntnistheoretischen Werkzeuge vorhanden sein, die helfen, die Spreu vom Weizen zu trennen.
Im vergangenen Jahrhundert gab es in der Philosophie den sogenannten linguistic turn: Philosophen und Sprachwissenschaftler verstanden, dass wir die Funktion der Sprache beim Denken nicht vernachlässigen dürfen. In diesem Sinne benötigt unser Jahrhundert einen mathematical turn! Formeln auf dem Papier sind noch kein Ausdruck von Wissenschaftlichkeit. Deshalb stellt sich die Frage, in welchen Bereichen eine Mathematisierung sinnvoll ist. Vor diesem Hintergrund lässt sich dann besser beurteilen, was mathematische Modelle und deren Simulationen auf dem Computer leisten können und ob Prognosen überhaupt einen Wert haben. Leider verschwinden die Lehrstühle, die solches Wissen vermitteln können. Wissenschaftstheorie und Geschichte der Naturwissenschaften führen zunehmend ein Schattendasein.
Von der einstigen Hybris ist wenig übrig geblieben
Wissenschaften, in denen Formeln unkritisch verwendet werden, können sich übrigens ein Beispiel an der reinen Mathematik nehmen. Diese tritt heute zurückhaltend auf, da sie ihr „Erkenntnisbeben“ schon hinter sich hat. Von den Allmachtsphantasien eines Raimundus Lullus oder Gottfried Wilhelm Leibniz, die glaubten, jede Fragestellung dieser Welt lasse sich auf der Grundlage eines universellen Kalküls mathematisch entscheiden, spricht heute niemand mehr.
Das gilt auch für die eingeschränktere Forderung eines David Hilbert, der überzeugt war, dass jede mathematische Aussage entscheidbar wahr oder falsch sei. Logiker wie Kurt Gödel und Alan Turing haben diese Träume zerstört. Gegenwärtig ist man schon glücklich, wenn man weiß, was ein gültiger Beweis ist: Seit der Verwendung des Computers und der Arbeit großer Autorenkollektive gibt es Dispute darüber, was eine bewiesene Wahrheit ist. So haben die vergangenen zweihundert Jahre Mathematikgeschichte dazu geführt, dass von der Hybris früherer Jahrhunderte in der Mathematik wenig übrig geblieben ist.
Von einer solchen Bescheidenheit würden auch Wirtschaftswissenschaftler und Klimatologen profitieren, indem sie deutlich auf Grenzen und Vorläufigkeit ihrer Modelle hinweisen. Das würde das Risiko verkleinern, einen großen Reputationsschaden zu erleiden, wenn ihre Methoden in der Krise obsolet werden. In der Folge müssten Politiker dann so handeln, dass es immer möglich bleibt, Entscheidungen neuen Sachzwängen anzupassen, da sie nicht mehr vorbehaltlos der Expertise von Wissenschaftlern trauen dürften. Schlussendlich würde auch der Bürger und Steuerzahler profitieren: Die Wahrscheinlichkeit gigantischer Fehlinvestitionen wäre deutlich kleiner, wenn sich die Tatsache im allgemeinen Bewusstsein verankern würde, dass Prognosen komplexer Systeme keine in Stein geschlagenen Wahrheiten sind, sondern häufig genug auf tönernen Füßen stehen.