Künstliche Intelligenz soll Vorhersage für Stickoxide, Ozon und Feinstaub liefern

16.04.2018 - Deutschland

Was Neuronale Netze leisten können, zeigt sich in der Bildbearbeitung. Deep-Learning-Algorithmen lassen störende Gegenstände, Menschen und Häuserzeilen unbemerkt verschwinden. Oder sie erzeugen selbst Bilder, ohne dass professionelle Fotografen einen Unterschied feststellen. Der Jülicher Forscher Dr. Martin Schultz will nun mit ganz ähnlichen Methoden lückenhafte Daten zur Verteilung von Luftschadstoffen vervollständigen. Die Ergebnisse könnten als Grundlage dienen zum Schutz der Luftqualität in Städten. Für das Projekt erhielt er einen Advanced Grant des Europäischen Forschungsrats, der eine Fördersumme von 2,5 Millionen Euro über 5 Jahre verspricht.

Copyright: Forschungszentrum Jülich / Wilhelm-Peter Schneider

Für die Entwicklung von neuronalen Netzen zur Vorhersage der Luftqualität werden Superrechner benötigt, wie sie am Jülich Supercomputing Centre (JSC) betrieben werden.

Die Luftqualität in den Städten ist seit längerer Zeit in der Diskussion. Wegen der erhöhten Stickoxidwerte drohen Dieselfahrverbote, die Belastung durch Feinstaub gehört mit zu den großen Gesundheitsrisiken unserer Zeit. Doch wie hoch die Schadstoff-Konzentration an einem Ort genau ist, lässt sich in der Regel gar nicht sagen.

"Das Messnetz ist selbst in vergleichsweise gut entwickelten Regionen wie in Deutschland längst nicht flächendeckend", erklärt Dr. Martin Schultz vom Forschungszentrum Jülich. "So gibt es zum Beispiel in Köln, immerhin einer Millionenstadt, gerade einmal 14 Messstellen für Stickoxide, von denen aber nur 4 stündliche Werte liefern und mehr als nur Stickoxide messen."

In anderen Teilen der Welt ist die Lage noch deutlich schlechter: so gibt es kaum Stationen in Afrika und über den Ozeanen klaffen auch riesige Lücken. Dabei kann sich die Menge an Schadstoffen in der Luft schon in benachbarten Lagen stark unterscheiden. Lokal auftretende Inversionswetterlagen, aber auch die Nähe zu Straßen und Gebäuden, haben einen massiven Einfluss auf die Werte.

Dem Mangel an Messdaten will Schultz mit einem Ansatz begegnen, der in der Umweltforschung bislang kaum erprobt wurde, bei anderen Aufgaben jedoch schon sehr gut funktioniert. Der Forscher, einer der weltweit meistzitierten Geowissenschaftler, verzichtet bewusst auf bewährte numerische Modelle. Stattdessen setzt er auf Methoden der "künstlichen Intelligenz" – in Verbindung mit der Rechenkraft von Supercomputern, wie sie das Jülich Supercomputing Centre (JSC) betreibt.

"Wenn das so funktioniert wie gedacht, dann wird IntelliAQ zunächst einmal für alle existierenden Messstationen eine detaillierte Vorhersage liefern, die dann zum Beispiel von den Städten für Luftreinhalte-Maßnahmen verwendet werden kann", erklärt Martin Schultz.

Er geht davon aus, dass sich so auch für Orte zwischen den Messstationen genauere Vorhersagen treffen lassen, als es bisher mit aktuellen numerischen Modellen möglich ist. "Die klassischen Modelle haben auch nach Jahrzehnten der Entwicklung immer noch gravierende Fehler bei der Vorhersage von Luftschadstoffkonzentrationen. Hier setzt IntelliAQ an. Der Ansatz besteht darin, mit Hilfe des maschinellen Lernens an den Orten, wo es Daten gibt, Muster zu identifizieren, die verschiedene meteorologische Größen und hochaufgelöste geografische Informationen mit den Luftschadstoffkonzentrationen verknüpfen, und diese Verknüpfungen dann zu nutzen, um die räumlichen und zeitlichen Lücken in den Datensätzen zu schließen", sagt Martin Schultz.

Auf dem Gebiet der Bildbearbeitung haben sich lernfähige neuronale Netzen bereits eindrucksvoll bewährt. Damit sie zur Vorhersage von Luftschadstoffen taugen, planen die Forscher, sie mit verschiedenen Daten füttern: Mit der TOAR-Datenbank betreibt das JSC jetzt schon das weltweit umfangreichste Archiv bodennaher Ozonmessungen. Ergänzt wird es um Zeitreihen zu anderen Luftschadstoffen, etwa zu Feinstaub und Stickoxiden. Mit dem OpenAQ-Netzwerk kommen zudem tagesaktuelle Messwerte hinzu. Und die Forscher um Martin Schultz haben noch weitere Datenquellen höchst unterschiedlicher Natur im Blick: Informationen zu den Standorten von Kraftwerken und vielbefahrenen Straßen sowie hochaufgelöste Wetterdaten und Satellitendaten, aus denen sich die Bevölkerungsdichte und der Grad der Bebauung ablesen lässt.

Die durch einen selbstlernenden Algorithmus erzeugten Werte wären nicht nur für Vorhersagen, sondern auch für die retrospektive Untersuchung relevant. "Will man zum Beispiel abschätzen, wie viele Menschen durch Luftschadstoffe erkranken oder frühzeitig sterben, dann erfordert dies eine Kartierung der Schadstoffkonzentrationen auf Skalen, die mit heutigen Modellen nicht abbildbar sind", erklärt Martin Schultz. Die Ergebnisse könnten zudem dazu dienen, Daten von preiswerten Kleinsensoren zu eichen – die dadurch für belastbare, flächendeckende Analysen in Städten nutzbar werden.

Weitere News aus dem Ressort Wissenschaft

Meistgelesene News

Weitere News von unseren anderen Portalen

So nah, da werden
selbst Moleküle rot...