NextGEMS: Aufbruch in ein neues Zeitalter der Klimaforschung
Die Herausforderung
Es ist sicher, dass die Erde sich erwärmt und dass die Ursache menschengemachte Emissionen von Treibhausgasen wie Kohlendioxid sind. Die Arbeit von Pionier*innen wie den Physiknobelpreisträgern Syukuro Manabe und Klaus Hasselmann, Gründungsdirektor des Max-Planck-Instituts für Meteorologie (MPI-M), lassen hieran keinen Zweifel. Unklar ist aber, wie genau sich das Wetter durch die Erwärmung verändert und wie sich Regionen darauf vorbereiten können.
„Wir verstehen das globale Bild ziemlich gut“, sagt Bjorn Stevens, Direktor am MPI-M. „Allerdings verstehen wir die Details nicht so gut: Was passiert voraussichtlich wo, wann und wie oft? Und das sind die großen Fragen für die Zukunft, denn ihre Antwort bestimmt, wie groß die Risiken durch die Erwärmung sind, und wie wir am besten reagieren können, um diese Risiken zu mindern.“
Mit diesen neuen Fragen konfrontiert, fehlten der Klimaforschung bislang vielfach die passenden Werkzeuge, um sie zu beantworten. Grob aufgelöste statistisch-empirische Modelle, deren Ergebnisse beispielsweise in die Berichte des Weltklimarates IPCC einfließen, sind für Fragen ausgelegt, die die Erde als Ganzes betreffen. Die neuen Fragen gehen jedoch ins Detail: Wo werden unterschiedliche Wetterextreme zunehmen? Wo wird es mehr regnen und wo weniger? Wie verändern sich die Bahnen von Stürmen? Fragen wie diese sind für Gesellschaften und Ökosysteme entscheidend. Um sie zu beantworten, braucht es allerdings neue Werkzeuge.
Die Klimaforschung begegnet dieser Herausforderung durch die Entwicklung von Klimamodellen mit einer horizontalen Auflösung von wenigen Kilometern – eine Aufgabe, der sich das MPI-M mit dem ICON-Modell seit Jahren widmet. Es ist eine herausfordernde Aufgabe, denn kilometerskalige Modelle bereitzustellen bedeutet nicht, einfach bei den alten Modellen die Auflösung zu erhöhen. Vielmehr müssen die neuen Modelle auch Stürme, Ozeanwirbel oder Risse im Eis repräsentieren. Zuvor hatten Modelle diese Prozesse nur in der Form von statistischen Korrekturen enthalten. Die sturmauflösenden Modelle stellen eine neue Generation von Modellen des Erdsystems dar, die darauf ausgelegt sind, solche Prozesse explizit und physikalisch zu repräsentieren.
Das Ziel
Zwei solche Modelle zu entwickeln, war ein wesentliches Ziel des im Rahmen des „Horizon 2020“-Programms der Europäischen Union geförderten Projekts „next Generation Earth Model Systems“ (nextGEMS), das 2021 startete und in diesem Jahr zu Ende ging. Geleitet wurde es von Bjorn Stevens am MPI-M und Irina Sandu vom Europäischen Zentrum für mittelfristige Wettervorhersage (ECMWF). 27 Forschungseinrichtungen aus 14 europäischen Ländern und dem Senegal waren an nextGEMS beteiligt. Sandu hob zu Projektbeginn die gesellschaftliche Bedeutung des Vorhabens heraus: „Die nextGEMS-Modelle werden Informationen auf Skalen zur Verfügung stellen, auf denen die Auswirkungen von Extremwetter spürbar sind, und die für Anwendungen und Sektoren wie erneuerbare Energien oder Fischerei wichtig sind.“
Ambitioniert war das Vorhaben, groß die Herausforderungen zu Beginn, denn Modelle auf der Kilometerskala beanspruchen vielfach höhere Rechenkapazitäten und müssen deshalb die Rechnerstruktur modernster Supercomputer optimal ausnutzen. „Sie müssen auf den größten Supercomputern laufen, die gleichzeitig auch die am schwierigsten zu benutzenden sind, um Datenmengen zu produzieren, die zu speichern, geschweige denn zu analysieren, wir uns nie hätten vorstellen können“, sagte der Leiter der wissenschaftlichen Programmierung am MPI-M Daniel Klocke zu Projektbeginn.
nextGEMS verfolgte daher drei konkrete Ziele: Erstens zwei kilometerskalige Erdsystemmodelle zu entwickeln, zweitens erstmals Simulationen mit diesen Modellen über einen Zeitraum von 30 Jahren zu produzieren, und drittens neue Arbeitsabläufe bereitzustellen, um mit den so erzeugten enormen Datenmengen umzugehen.
Der Weg
Der Weg zu diesen Zielen führte über mehrere Entwicklungszyklen von jeweils acht Monaten, an deren Ende die Teilnehmenden die vorausgegangenen Entwicklungen im Rahmen von Hackathons testeten und optimierten. Diese interaktiven Arbeitstreffen ersetzten die sonst üblichen, vortragsbasierten Projekttreffen, um den unterschiedlichen Menschen aus den beteiligten Ländern eine effiziente Zusammenarbeit zu ermöglichen. Beteiligt waren Wissenschaftler*innen, technische Expert*innen sowie potentielle Anwender*innen aus dem Bereich der erneuerbaren Energien. Die Hackathons, organisiert unter anderem von nextGEMS-Koordinatorin Heike Konow am MPI-M, avancierten zum Markenzeichen des Projekts. Während der erste Hackathon im Oktober 2021 in Berlin noch 80 Teilnehmende zählte, begrüßten die Veranstaltenden zwei Jahre später in Madrid fast die doppelte Zahl an Personen. „Hackathons waren mehr als Events in nextGEMS. Sie waren das Herz des wissenschaftlichen Fortschritts“, sagt Eulàlia Baulenas vom Barcelona Supercomputing Center in einer Rückschau auf den Arbeitsmodus der nextGEMS-Gemeinschaft. Zudem setzte das Projekt auf eine umfassende und niederschwellige Kommunikation, zu der unter anderem ein innovativer Videoblog gehört, aus dem dieser Text vielfach zitiert. Das Ziel dieser Strategie war es, möglichst viele Menschen nicht nur zu begeistern, sondern zu beteiligen.
Die Modellentwicklung startete nicht bei null, sondern setzte bei zwei bestehenden Modellen an: ICON, welches seit 20 Jahren vom MPI-M, dem Deutschen Wetterdienst und weiteren Partnern entwickelt wird, sowie das Integrated Forecasting System (IFS) des ECMWF gekoppelt mit dem Ozeanmodell FESOM des Alfred-Wegener-Instituts Helmholtz-Zentrum für Polar- und Meeresforschung. Die Wahl fiel nicht zufällig auf diese beiden Modelle – vielmehr stehen hinter den beiden sehr unterschiedliche Philosophien und ihr Vergleich wird darum aus wissenschaftlicher Perspektive noch interessanter.
In den drei Entwicklungszyklen fertigten die Wissenschaftler*innen auf dem Supercomputer Levante am Deutschen Klimarechenzentrum (DKRZ) jeweils kürzere Simulationen an, um anschließend die Performance der Modelle zu testen und verbessern. „Dabei wurde klar, dass solche kurzen Läufe oft ausreichen, um die Effekte der Modellanpassungen zu sehen, zu verstehen und zu bewerten“, sagt MPI-M-Gruppenleiter Hans Segura.
Die Arbeit mit den kurzen Testsimulationen zeigte auch schnell die Grenzen der klassischen Wege, Daten zu speichern und zu analysieren, auf. „Wir sind an einen Punkt gekommen, wo es schneller ist, das Modell laufen zu lassen, als seinen Output zu verarbeiten“, sagt Xabier Pedruzo Bagazgoitia vom ECMWF in einem Übersichtsvideo zur Modellentwicklung. Das Problem: Ursprünglich musste man die Millionen Datenpunkte der globalen Rechnung laden, selbst wenn nur eine begrenzte Region von Interesse war, und selbst wenn man nachher aus diesen Datenpunkten wieder einen Mittelwert bilden wollte. „Ich erinnere mich an das erste Mal, als ich einen Plot von einem kilometerskaligen Modell erstellt habe. Ich musste ewig warten, dann stimmte etwas nicht, und ich musste nochmal ewig warten“, erzählt Bjorn Stevens in einem abschließenden Übersichtsvideo.
Nach dem dritten Entwicklungszyklus ging das Projekt in die Produktionsphase über. Während mehreren Wochen liefen die Modelle auf Levante und berechneten Simulationen für die Jahre 2020 bis 2050 unter einem zukünftigen Emissionsszenario. Diese Läufe wurden rechtzeitig zum vierten Hackathon im März 2024 abgeschlossen.
Das Ergebnis
Die erreichte Gitterweite dieser mehrere Jahrzehnte umfassenden Simulationen liegt bei fünf Kilometern im Ozean und zehn beziehungsweise neun Kilometern in der Atmosphäre bei ICON beziehungsweise IFS-FESOM. Beide Modelle simulieren ein energetisch konsistentes Klima. Außerdem erreichen sie einen Durchsatz von mehr als 400 (ICON) beziehungsweise von 600 simulierten Tagen pro Tag (IFS-FESOM), sodass sich mit den Modellen Jahrzehnte in wenigen Wochen berechnen lassen. Das Ergebnis sind die ersten Simulationen im Kilometermaßstab über 30 Jahre, also einen klimarelevanten Zeitraum.
Beim Aspekt der Datenverarbeitung lag die Lösung in neuen Arbeitsabläufen: Die Möglichkeit, Daten in verschiedenen Auflösungen herunterzuladen (hierarchischer Output), die Daten nur für bestimmte Bereiche zu laden (horizontale Datenblöcke) oder verschiedene Zoomlevel zu wählen (HEALPix). Um alle Ressourcen zu bündeln, richtete das DKRZ die Plattform easygems ein, welche sich an ähnlichen Plattformen orientiert, die zur Organisation von Daten aus Feldkampagnen verwendet werden. Bjorn Stevens sieht in den neuen Arbeitsabläufen eine bedeutsame Errungenschaft von nextGEMS weit über das Projekt hinaus: „Auch Menschen mit wenig Erfahrung können jetzt mit den Daten arbeiten.“
Die Erfolge von nextGEMS tragen bereits wissenschaftliche Früchte. So zeigten die MPI-M-Forschenden Junhong Lee und Cathy Hohenegger beispielsweise, dass die Niederschlagsmenge über Land nicht so stark von der Bodenfeuchte gesteuert wird wie bislang angenommen. Divya Sri Praturi und Bjorn Stevens untersuchten mithilfe der in nextGEMS erstellten ICON-Simulation, wie die Asymmetrie der Intertropischen Konvergenzzone im Sommer der Nordhemisphäre zustande kommt. Und Jakub Nowak und Kolleg*innen stellten fest, dass die neuen Modelle trotz ihrer unterschiedlichen Philosophien die subtropischen Stratocumuluswolken gut darstellen können.
Die Zukunft
Projekte, an denen das MPI-M beteiligt ist, wie WarmWorld und European Eddy-Rich Earth System Models (EERIE), arbeiten bereits daran, Modelle auf der Kilometerskala weiterzuentwickeln und zu verbessern und sie für die schnellsten Supercomputer Europas vorzubereiten. Die europäische Initiative Destination Earth, welche digitale Zwillinge des Erdsystems entwickelt, baut entscheidend auf den Entwicklungen in nextGEMS auf. Und auf dem europäischen Supercomputer JUPITER läuft aktuell das sturmauflösende ICON-Modell inklusive des Kohlenstoffkreislaufs bereits mit einer Auflösung von nur einem Kilometer für ein ganzes Jahr – ein Meilenstein, der erst kürzlich mit dem Gordon-Bell-Preis für Klimamodellierung und dem HPCwire Readers' Choice Award ausgezeichnet wurde.
Doch nicht nur Forscher*innen profitieren von den Entwicklungen und Ergebnissen von nextGEMS. Durch das Einbeziehen möglicher Anwender*innen in den gesamten Prozess schwang von Beginn an der Wunsch mit, die Daten in die Hände der Menschen zu geben und ihnen gleichzeitig das Werkzeug mitzuliefern, sie zu nutzen. Eine wichtige Rolle könnte dabei in Zukunft Künstliche Intelligenz spielen. Auf diesem Gedanken beruht die vom MPI-M angestoßene Initiative Earth Virtualization Engines (EVE): einfach zu erschließende Klimainformationen bereitzustellen für jede*n, der*die sie braucht. „Wir haben uns etwas vorgenommen, was technisch und exklusiv schien – diese enorme Rechenkapazität, diese enorme Datenverarbeitungskapazität – und machten daraus etwas Intuitives, Inklusives, Demokratisches“, so Stevens.
Die Gemeinschaft aus Wissenschaft, Technologie und Anwendung steht nach vier Jahren nextGEMS also nicht am Ende eines Weges, sondern an einem Anfang, resümiert Stevens: „Wir haben eine neue Art von Modellen entwickelt, neue Arten der Analyse, wir haben eine Gemeinschaft gebildet – wir haben also viele Dinge zusammengebracht, die den Anfang eines neuen Zeitalters der Klimaforschung markieren.“
Weitere Informationen
Kontakt
Prof. Dr. Bjorn Stevens
Max-Planck-Institut für Meteorologie
bjorn.stevens@mpimet.mpg.de
Dr. Heike Konow
Max-Planck-Institut für Meteorologie
nextGEMS Projektkoordinatorin
heike.konow@mpimet.mpg.de