https://www.faz.net/aktuell/wissen/erde-klima/kuenstliche-intelligenz-zeigt-weltweite-auswirkungen-des-klimawandels-17613824.html

Künstliche Intelligenz : Die digitale Spur des Klimawandels

  • -Aktualisiert am

Die Spuren eines Waldbrands Anfang August im Südwesten der Türkei. Bild: dpa

Digitaler Fingerabdruck auf der Weltkarte: Wie künstliche Intelligenz verschiedene Disziplinen zusammenführt, um die weltweiten Auswirkungen des Klimawandels aufzuzeigen.

          5 Min.

          Für die Klimawissenschaften gehören Künstliche Intelligenz (KI) und Big Data inzwischen zum Repertoire der Forschungswerkzeuge. In eine neue Sphäre vorgestoßen ist dabei ein Forschungsverbund unter Federführung des Berliner Mercator Research Institute on Global Commons and Climate Change sowie der Firma Climate Analytics. Max Callaghan und seine Kollegen haben dank eines modernen Deep-Learning-Ansatzes mehr als 100.000 publizierte Studien bewertet, klassifiziert und kartiert, die sich mit den Auswirkungen des Klimawandels befassen. Egal ob Geophysik, Biologie, Agrarforschung oder Migrations- und Konfliktforschung — die über alle Disziplinen hinweg dokumentierte wissenschaftliche Evidenz für einen menschengemachten, beschleunigten Klimawandel ist inzwischen sehr beeindruckend. Wichtigstes Resultat der in der Fachzeitschrift Nature Climate Change veröffentlichten Attributionsstudie mit KI: Mindestens 80 Prozent der globalen Landfläche, auf der gut 85 Prozent der Weltbevölkerung leben, sind inzwischen nachweisbar vom menschengemachten Klimawandel betroffen.

          Das Fachwissen über die Auswirkungen des Klimawandels wird von den einzelnen Disziplinen zusammengetragen — oftmals aber ist es bisher lose und unzusammenhängend. Der Algorithmus, den Callaghan und seine Kollegen nun programmierten, um die Veränderungen dem Klimawandel zuzuordnen, nutzt diese unabhängig existierenden digitalen Werte und fügt sie zu einem großen Gesamtbild zusammen. „Es wäre unmöglich gewesen, diese hunderttausend Publikationen von Hand zu begutachten“, sagt Carl-Friedrich Schleussner, einer der Autoren der Studie. Seit dem ersten Sachstandsbericht des Weltklimarates IPCC aus dem Jahr 1990 hat sich die Zahl der jährlich veröffentlichten Fachartikel, die direkt oder indirekt Bezug auf den Klimawandel nehmen, verhundertfacht. Erst vor wenigen Wochen begann mit dem Bericht der „Working Group I“ der sechste Berichtszyklus des unabhängigen Expertengremiums. Um den aktuellen Stand der Forschung über die physikalischen Grundlagen des Klimawandels auszubreiten, benötigten die Wissenschaftler des IPCC knapp 4000 Seiten — rund 14.000 Publikationen werteten sie aus.

          Staats- und Regierungschefs während eines Treffens zur Initiative „Build Back Better World“ beim UN-Klimagipfel COP26 in Glasgow.
          Staats- und Regierungschefs während eines Treffens zur Initiative „Build Back Better World“ beim UN-Klimagipfel COP26 in Glasgow. : Bild: dpa

          Die Wolke des globalen Klimawissens wächst unaufhörlich, immer schwieriger wird es, den Überblick zu behalten. Das Ziel der Forscher war es, die stetig wachsende Evidenz weiterhin zugänglich und gesellschaftlich nutzbar zu machen, etwa für globale politische Prozesse wie den aktuellen Klimagipfel von Glasgow sowie für regionale Risikobewertungen und die Koordination lokaler Anpassungsmaßnahmen.

          Digitale Weltkarte der Klimafolgen

          „Wir haben uns also überlegt: Wie schaffen wir es, Big Literature und Big Data zusammenzubringen?“, sagt Max Callaghan. Fündig wurden er und seine Kollegen beim Spracherkennungs-Algorithmus BERT (Bidirectional Encoder Representations from Transformers) von Google. BERT ist eine KI, die zwei Dinge kann: lesen und verstehen. Der Algorithmus verfolgt nicht nur die Bedeutung eines einzelnen Wortes, sondern setzt dieses in Beziehung zu allen anderen Wörtern in einem Satz.

          „Wir haben BERT zunächst mit den 351 Studien aus dem fünften IPCC-Report gefüttert, bei denen es ganz konkret um die Zuordnung und Auswirkung des Klimawandels geht“, erklärt Callaghan. „Wir haben Label vergeben und BERT gesagt, wonach er suchen soll, welche Kriterien er sich anschauen, was er unterscheiden und was er klassifizieren soll. Durch die Definition von Trainingsparametern haben wir bestimmt, wie der Algorithmus lernt“ — überwachtes Lernen also. Schrittweise erweiterte das Forscherteam die Textbasis, codierte über 2000 Dokumente von Hand und nutzte diese, um den Algorithmus weiter zu trainieren. Am Ende war BERT in der Lage, die zuvor von den Wissenschaftlern getroffenen Klassifizierungen weitestgehend zu reproduzieren. „Gewisse Unsicherheitsbereiche gibt es, aber die gibt es im Grunde auch zwischen zwei menschlichen Kodierern“, sagt Callaghan.

          Die Stärke von BERT liegt in seiner bidirektionalen Funktion: Er entwickelt ein tiefgreifendes Verständnis von Textfluss und Sprachkontext und lernt, Zusammenhänge zwischen Wörtern zu erkennen. Das Forscherteam brachte BERT bei, Studien zu finden, die beobachtete Auswirkungen des Klimawandels dokumentieren. „Durch das Lesen aller Texte entwickelt BERT dabei so etwas wie implizites Wissen, das er wiederum auf unbekannte Texte anwenden kann“, erklärt Callaghan. Um die Klimafolgen auch räumlich verorten zu können, nutzten die Wissenschaftler zudem einen Geoparser, mit dem die geografischen Informationen der Texte decodiert und in eine Karte übertragen wurden.

          Mit dem trainierten Modell durchforstete die Gruppe zwei große bibliografische Datenbanken: das Web of Science und Scopus. Insgesamt 102.160 Publikationen filterte BERT dabei heraus. „Am Ende erkennt BERT, ob es in einer Studie um Klimaauswirkungen geht, er erkennt die genannten Orte, den Treiber der Klimaauswirkungen — also ob sie durch Temperatur- oder Niederschlagsänderungen hervorgerufen wurden — und auch die Art der beschriebenen Auswirkung“, sagt Callaghan.

          Das Ergebnis der Textanalyse wurde anschließend mit validierten geophysikalischen Daten der Klimaforschung zusammengeführt. „Wir sehen praktisch eine Weltkarte der Klimafolgen mit gewichteten Informationen pro Rasterzelle“, sagt Schleussner. Die Gitterzellen geben je nach Färbung und Intensität beispielsweise an, wie viele Studien es für die jeweilige Region gibt, wo die Evidenz dichter ist (mehr Studien, die sich auf die einzelne Gitterzelle beziehen) oder wo die Belege für verschiedene Auswirkungen (Temperatur oder Niederschlag) unterschiedlich verteilt sind.

          Klimaaktivisten der „Red Rebel Brigade“ demonstrieren in Glasgow.
          Klimaaktivisten der „Red Rebel Brigade“ demonstrieren in Glasgow. : Bild: AFP

          „Natürlich gibt es gewisse methodische Unsicherheiten“, räumt Callaghan ein. So gebe es etwa Arbeiten, die Auswirkungen des Temperaturanstiegs auf Ernteerträge, die menschliche Gesundheit oder Biodiversität untersuchen — ohne aber dabei die Verbindung zum menschlichen Einfluss auf das Klima herzustellen. „Unser Algorithmus kann also nicht analysieren, ob jede Studie die beobachteten Veränderungen formell auf den anthropogenen Effekt zurückführt.“ Um das final zu beurteilen, müsse ein Experte die Arbeit in Augenschein nehmen — was bei der stetig wachsenden Zahl an Studien immer schwieriger würde.

          Dünne Datenlage in schwer zugänglichen Regionen

          Der KI-Ansatz hat also Grenzen. „Natürlich ist die automatisierte Bewertung kein Ersatz für eine sorgfältige Bewertung durch Experten“, sagt Callaghan. Das sei aber auch nicht das Ziel gewesen. Vielmehr sollte die KI genutzt werden, um strukturelle Zusammenhänge und Muster zu erkennen, die über den einfachen Datensatz hinausreichen.

          Inhaltlich gibt es dabei klare Trends: Allein mehr als 30 Prozent – genauer: 34.974 – der Studien dokumentieren die Auswirkungen auf terrestrische und Süßwasser-Ökosysteme; auch werden Auswirkungen auf Flüsse und Bodenfeuchte (21,3 Prozent), menschlich genutzte Flächen (21,4 Prozent), Küsten und marine Ökosysteme (13,2 Prozent) und Berge, Schnee- und Eisflächen (11,4 Prozent) festgestellt.

          Räumlich beschäftigt sich ein Großteil der relevanten Studien mit Ereignissen in Nordamerika, Asien und Europa — die Zahl der Arbeiten über Südamerika, Afrika und Ozeanien ist hingegen auffällig gering. „Auf den Karten Europas sieht man, dass es fast für jede Gitterzelle mehrere Studien gibt, die die Auswirkungen des Klimawandels dokumentieren. Beispielsweise in Afrika sind die Belege dagegen wesentlich spärlicher“, sagt Shruti Nath, Ko-Autorin der Studie und kenianische Klimaforscherin bei Climate Analytics. „Wir sehen, dass es vor allem dünn besiedelte und schwer zugängliche Gebiete wie Sibirien oder die Sahara-Wüste sind, in denen die Datenlage dünn ist.“ Während beispielsweise rund 30.000 Studien die Auswirkungen des Klimawandels in Nordamerika untersuchten, filterte der Algorithmus weniger als 10.000 Studien heraus, die das Gleiche für Afrika taten.

          Die Arbeitsgruppe nutzte statistische Daten zur Einkommensverteilung, um die Länder zu gruppieren, und fand heraus, dass es insbesondere für Entwicklungsländer einen Mangel an Felddaten gibt. „Es gibt Länder des Südens, für die es ganz klare Trends in den Temperatur- und Niederschlagsveränderung gibt. Aber nur für 23 Prozent der Menschen dort gilt, dass es für das Gebiet, in dem sie leben, viele Studien gibt, die die Auswirkungen des Klimawandels dort dokumentieren. Alle anderen Menschen leben in Regionen, für die das noch nicht möglich ist.“ Das sei in mehrfacher Hinsicht problematisch: Einerseits leiden die Länder des globalen Südens stärker unter den durch den Klimawandel bedingten Veränderungsprozessen, andererseits führt ebendiese identifizierte Datenlücke mutmaßlich dazu, dass es weder konkrete Konsequenzen für Maßnahmen der Klima-Anpassung noch Zugang zu Finanzmitteln gibt.

          Tatsächlich scheint es dem Forscherteam gelungen zu sein — trotz einiger Ungenauigkeiten —, eine Lücke zu schließen. Mit dem Einsatz von BERT haben sie fächerübergreifende Wissensbestände zusammengeführt. Die generierte Datenbank könne laut Schleussner als einzigartige Ressource und Orientierungshilfe für klimapolitische Maßnahmen genutzt werden.

          Weitere Themen

          Topmeldungen

          Die  Kryptobörse FTX ist insolvent.

          Pleite des einstigen Stars FTX : Der Kryptokrimi auf den Bahamas

          FTX war zu Jahresbeginn mehr wert als die Deutsche Bank. Prominente warben für die Börse, wichtige Anleger wie Blackrock investierten. Nun ist sie insolvent, und alles riecht nach dreistem Betrug.
          Demonstranten in Peking

          Twitter : Spam überlagert Nachrichten von Protesten in China

          Wer bei Twitter am Sonntag nach chinesischsprachigen Informationen über die Proteste suchte, sah stattdessen Werbung für Escort-Dienste. Ein ehemaliger Mitarbeiter spricht von einer gezielten Kampagne der Regierung.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.