Wirklichkeit richtig simuliert? : Die Kunst modellhafter Welterkenntnis
- -Aktualisiert am
Ein prominentes Beispiel der numerischen Simulierung eines hochgradig nichtlinearen Systems findet sich in der Klimamodellierung, aktuell philosophisch diskutiert von Wendy Parker von der Universität Ohio. Besonders brisant ist hier, dass zum einen die Zuverlässigkeit der numerischen Vorhersagen von großer Relevanz ist und auf der anderen Seite das zu modellierende System eine derartige Komplexität aufweist, dass die Frage nach der Aussagekraft der Simulationsergebnisse mitnichten trivial ist. Verschiedene Klimamodelle besitzen verschiedene raumzeitliche Auflösungen und berücksichtigen verschiedene klimatische Prozesse in verschiedener Beschreibung. Während die großräumige Dynamik der Atmosphäre weitestgehend verstanden ist, gilt dies lange nicht für alle Prozesse, die das Erdklima beeinflussen. Insbesondere ist es problematisch, Prozesse zu berücksichtigen, die sich auf Skalen abspielen, die von heutigen Modellen nicht aufgelöst werden können, die aber trotzdem für die Klimaentwicklung relevant sein können. Es ist vor diesem Hintergrund oft unklar, welche Modelle in gegebenen Umständen die besten Vorhersagen liefern können.
Klima rekonstruieren
Eine Möglichkeit, mit derartigen Unsicherheiten in komplexen Simulationen umzugehen, ist heute, Ensemble-Studien vorzunehmen, indem verschieden konstruierte Modelle mit gleichen Anfangs- und Randbedingungen gerechnet und die Ergebnisse verglichen werden. Sofern alle Modelle in einer bestimmten Aussage übereinstimmen, scheint der Schluss nahe zuliegen, dass die entsprechende Aussage mit hoher Wahrscheinlichkeit wahr ist. Begründet wird dies durch eine statistische Streuung der Unsicherheiten in verschiedenen Modellierungsweisen, so dass es sehr unwahrscheinlich ist, dass alle Modelle gleichzeitig falsch liegen. Allerdings ist für die Gültigkeit des Arguments notwendig, dass die betrachteten Modelle tatsächlich die bestehenden Unsicherheiten in ausreichender Variation abdecken, was praktisch oft nicht der Fall ist. Sofern sich die betrachteten Modelle in Bezug auf eingehende Annahmen und Approximationen ähneln, ist es für die Beurteilung ihrer Zuverlässigkeit unerlässlich, die Reichweite angewendeter Vereinfachungen und Auslassungen ausreichend zu verstehen, genau wie sichergestellt werden muss, dass keine relevanten Mechanismen vollständig übersehen wurden.
In Hinsicht auf die nichtlineare Komplexität ihrer Modelle haben Astrophysiker mit den gleichen Problemen wie Klimamodellierer zu kämpfen. Vor einigen Jahren gab es beispielsweise ein Treffen von Astrophysikern, die an der numerischen Modellierung Photonendominierter Regionen (PDRs) arbeiten. Dies sind Bereiche im interstellaren Medium, deren Chemie und Energiebilanz durch ein starkes Strahlungsfeld im fernen Ultraviolett bestimmt ist. Solche Regionen beobachtet man, wenn sich Molekülwolken in der Nähe heißer Sterne befinden, wie zum Beispiel beim bekannten Pferdekopfnebel im Sternbild Orion. Da dies in Galaxien überaus häufig der Fall ist, ist das Verständnis von PDRs unerlässlich für das Verständnis des interstellaren Mediums. Seit etwa dreißig Jahren wird daher an einer angemessenen Modellierung gearbeitet, mehr als zehn unterschiedliche numerische Modelle mit verschiedenen Zielen und eingehenden Annahmen sind aus diesen Bemühungen entstanden. Der Workshop 2006 sollte dazu dienen, die Unterschiede der Codes und deren Effekte auf die prognostizierte physikalische und chemische Struktur der Wolken zu verstehen, um auf dieser Grundlage die Resultate der verschiedenen Modelle einander anzugleichen. Ein Ergebnis war die Warnung an die Nutzer, die absoluten Modellierungsergebnisse nicht zu wörtlich zu nehmen, wenngleich die allgemeinen Trends zwischen den Modellen konsistent erschienen.