© https://commons.wikimedia.org/wiki/File:Windstorm_Emma.png

Wettervorhersagen ändern sich oft täglich und sogar stündlich. Und je nachdem, welchen Sender man im TV sieht oder welche App man auf dem Handy nutzt, gibt es schon mal für ein und denselben Tag immense Unterschiede. Schuld an den Abweichungen oder auch falschen Vorhersagen ist aber nicht das Unvermögen der Meteorologen sondern das „chaotische System“ Atmosphäre. „Physikalische Eigenschaften wie Temperatur, Luftfeuchtigkeit oder Bewölkung ändern sich ständig“, erklären Wissenschaftler des Karlsruher Instituts für Technologie (KIT). Da kann es schon mal vorkommen, dass Gewitter, Sonne, Kälte und Hitze an einem Tag aufeinanderfolgen – wie das Wetter in diesem Mai.

Die Meteorologen stehen bei ihren Wetterprognosen daher vor der Herausforderung, dieses Chaos vorherzusehen und zuverlässige Aussagen zu machen. Dabei gehen sie von aktuellen Messungen in der Atmosphäre aus und simulieren alternative Szenarien. Sie berechnen zum Beispiel, wie sich Veränderungen der Temperatur oder Luftfeuchtigkeit auf das Wetter auswirken könnten und vergleichen für jede Messgröße bis zu 50 Szenarien. „Ähneln sich die Ergebnisse, deutet das darauf hin, dass eine Prognose mit diesen Werten relativ sicher und der Zustand der Atmosphäre in diesem Bereich stabil und gut vorhersagbar ist“, sagt Dr. Peter Knippertz vom Institut für Meteorologie und Klimaforschung des KIT.

Trotzdem garantiert diese Methode keine wirklich sicheren Vorhersagen. „Die Computerszenarien können manche physikalischen Zusammenhänge nicht in der notwendigen Detailtiefe oder räumlichen Auflösung abbilden“, erklärt Dr. Sebastian Lerch vom Institut für Stochastik des KIT, der eng mit Knippertz zusammenarbeitet. So fielen beispielsweise Vorhersagen über die Temperatur an bestimmten Orten stets zu mild, an anderen zu hoch aus, weil „lokale, teils zeitlich variable Gegebenheiten den Modellen nicht mitgegeben werden können.“ Daher sei es nötig, die Ergebnisse der Simulationen mit aufwendigen statistischen Verfahren und Expertenwissen nachzubearbeiten, um bessere Prognosen und Eintrittswahrscheinlichkeiten für Wetterereignisse zu erhalten.

Wettervorhersage
© Sebastian Lerch, KIT

Informationen nach dem Vorbild des menschlichen Gehirns

„Die meisten Wettervorhersagen basieren heute auf physikalischen Modellen der Atmosphäre, die auf Supercomputern berechnet werden. Um Unsicherheiten (z.B. in Anfangsbedingungen oder Details der physikalischen Modelle) Rechnung zu tragen, nutzt man ‚Ensemble-Simulationen‘, also mehrere Simulationsläufe, beispielsweise mit variierenden Anfangsbedingungen“, beschreibt Lerch. „Die Vorhersagen dieser Ensemble-Simulationen zeigen jedoch meist systematische Fehler, die mit statistischen Verfahren korrigiert werden müssen. Basierend auf Vorhersagen und Beobachtungen aus der Vergangenheit schätzt man statistische Modelle zur Korrektur der Fehler. In der Vergangenheit wurden meist nur Ensemble-Vorhersagen der Zielgröße dazu verwendet: Möchte man also die Temperaturvorhersagen korrigieren, so wurden nur Temperaturvorhersagen als Eingangsgröße verwendet.“

Lerch und seine Kollegen aus Meteorologie und Mathematik des KIT haben nun eine neue Methode entwickelt, die auf Basis von Künstlicher Intelligenz Fehler in der Wettervorhersage vermeiden soll. „Wir haben einen Ansatz entwickelt, der bessere Vorhersagen als etablierte Standardverfahren liefert“, so Lerch. Dieser Ansatz beinhaltet neuronale Netze, die Informationen nach dem Vorbild des Gehirns verarbeiten. Die Computerprogramme werden trainiert, bestimmte Daten optimal zu verarbeiten. Wie das menschliche Gehirn sammeln die neuronalen Netze während des Trainings „Erfahrung“ und können sich so kontinuierlich verbessern – allerdings viel schneller als ein menschliche Gehirn. „Die komplexesten Netzwerk-basierten Modelle benötigen etwa 25 Minuten für das Training (auf einer einzelnen Nvidia Tesla K20 GPU)“, betont Lerch. Im Idealfall können die Netze dann beispielsweise die Eintrittswahrscheinlichkeit von lokalen Wetterereignissen wie Gewittern präzise bestimmen.

Wettermodelle würden Vorhersagen für eine Vielzahl weiterer Größen produzieren, die einen Einfluss auf die Temperatur haben, z.B. Druck, Wolkenbedeckung, Sonneneinstrahlung, Wind etc., sagt Lerch weiter. „Die konkreten funktionalen Abhängigkeiten der Temperatur-Vorhersagefehler von diesen Eingangsgrößen ist sehr komplex und nicht-linear, und daher selbst für Experten aus der Meteorologie quasi nicht in einfacher funktionaler Form beschreibbar. Während Standardverfahren allerdings gerade eine solche funktionale Beschreibung der Abhängigkeiten zur Formulierung der Modelle benötigen, ‚lernen‘ die von uns vorgeschlagenen, auf neuronalen Netzen basierenden Modelle, diese Abhängigkeiten selbstständig, ohne die Vorgabe konkrete funktionaler Zusammenhänge.“

Wettervorhersage
© Pixabay

Wetterdaten aus zehn Jahren zum Training

Zum Training des Netzes nutzten die Wissenschaftler Wetterdaten aus Deutschland, die 537 Wetterstationen von 2007 bis 2016 aufgezeichnet hatten. Eingangsgrößen für das neuronale Netz waren unter anderem die Bewölkung, Bodenfeuchte und Temperatur. Anschließend verglichen die Forscher die Prognosen, die das Netz getroffen hatte, mit Prognosen aus etablierten Techniken. „Unser Ansatz hat für fast alle Wetterstationen deutlich genauere Vorhersagen getroffen und ist wesentlich weniger rechenaufwendig“, fasst Lerch zusammen. Und kann man sagen um wie viel genauer die Vorhersagen sind als bisher? Ja, sagt der Wissenschaftler.

Die Qualität der Vorhersagen würde mit Hilfe des „continuous ranked probability scores“ (CRPS) gemessen. „Dabei handelt es sich um eine mathematisch fundierte Bewertungsregel für Vorhersagen in der Form von Wahrscheinlichkeitsverteilungen, die die in der Vorhersage quantifizierte Unsicherheit mit berücksichtigt. Gemittelt über alle Tage und Stationen erreicht man im Vergleich zu den besten Standardverfahren eine CRPS-Verbesserung von etwa 3%“, erklärt er. „Die Netzwerk-basierten Modelle liefern an etwa 80% der 537 Beobachtungsstationen die besten Vorhersagen. In paarweisen Vergleichen sind die beobachteten CRPS-Differenzen an zwischen Netzwerk-basierten Modellen und den besten Standardverfahren an zwischen 30% und 67% der Beobachtungsstationen statistisch signifikant.“

Neben der Lernfähigkeit und der Tatsache, dass sie nicht-lineare Zusammenhänge eigenständig erkennen können, haben die neuronalen Netze einen weiteren Vorteil: Sie können große Datenmengen schneller verarbeiten als bisherige Methoden und menschliche Experten. „Die zwei bisherigen Standardverfahren, die die gleiche Anzahl an Prädiktoren wie die komplexesten Netzwerk-Modelle verarbeiten können, benötigten 48 Minuten bzw. 430 Minuten zum Training (also etwa zwei bzw. 17 Mal so lang)“, so Lerch. Der direkte Vergleich gestalte sich aufgrund der unterschiedlichen Programmierumgebungen (Python für die Netzwerk-Modelle, R für die Standardverfahren) und Hardware-Umgebungen (GPU für die Netzwerkmodelle, CPU für die Standardverfahren) zwar schwierig, aber: „Wir konnten so erstmals zeigen, dass sich neuronale Netze bestens dafür eignen, Wettervorhersagen zu verbessern und Informationen über meteorologische Prozesse zu erhalten.“

Mehr zum Thema Künstliche Intelligenz finden Sie HIER

Werden Sie Mitglied!

Auf Innovation Origins können Sie täglich die neuesten Nachrichten über die Welt der Innovation lesen. Wir wollen, dass es so bleibt, aber wir können es nicht allein tun! Gefallen Ihnen unsere Artikel und möchten Sie den unabhängigen Journalismus unterstützen? Dann werden Sie Mitglied und lesen Sie unsere Geschichten garantiert werbefrei.

Über den Autor

Author profile picture Petra Wiesmayer ist seit mehr als 25 Jahren als Journalistin und Autorin tätig. Sie hat bis heute hunderte Interviews mit Prominenten aus Entertainment, Sport und Politik geführt und zahllose Artikel über Entertainment und Motorsport für internationale Medien recherchiert und verfasst. Als großer Science-Fiction-Fan ist sie fasziniert von Technologien, die die Zukunft der Menschheit mitbestimmen könnten und liest und schreibt gerne darüber.