Strategien bis 2030

Wortwolke Scenario Planningzum Vergrößern anklicken
Wortwolke Scenario Planning
Quelle: Ben Chams / Fotolia.com

Die Luftreinhaltepolitik stellt die Weichen für die Luftqualität der Zukunft. Die Zusammenhänge zwischen Maßnahmen der Luftreinhaltepolitik und ihren Folgen für Mensch und Umwelt sind dabei äußerst komplex und schwer zu durchschauen.

Szenarien

Eine Luftreinhaltepolitik nach dem Prinzip von Versuch und Irrtum, die sich vom Ergebnis überraschen lässt („schau’n wir mal”), ist jedoch weder zu verantworten noch politisch durchzusetzen:

  • Auf der einen Seite kostet die Umsetzung neuer Luftreinhaltemaßnahmen viel Zeit und Geld. Die von der Europäischen Kommission vorgelegte „Strategie für saubere Luft” wird auf Kosten von rund 7,1 Mrd. € pro Jahr veranschlagt, über einen Zeitraum von 15 Jahren.

  • Auf der anderen Seite führt Luftverschmutzung zu großen Schäden an der Umwelt und an der menschlichen Gesundheit. Vorzeitige Todesfälle, Krankheitsfälle, Krankenhausaufnahmen und verminderte Arbeitsproduktivität wiederum führen zu hohen volkswirtschaftlichen Kosten. So geht die Europäische Kommission bei der Begründung ihrer Strategie davon aus, dass diese Gesundheitsschäden in Europa derzeit Kosten zwischen 427 und 790 Mrd. € pro Jahr verursachen.

Es wird also ein Instrument benötigt, mit dem das Prinzip von Versuch und Irrtum schnell, zu geringen Kosten und ohne schädliche Folgen im Experiment durchgespielt werden kann, ein Instrument, das die Frage beantwortet: „Was wäre, wenn…” – wenn beispielsweise im Jahr 2020 alle Maßnahmen umgesetzt wären, die die Europäische Kommission in ihrer Strategie vorsieht. Ein solches virtuelles Experiment wird als Szenario bezeichnet. Ein Emissionsszenario enthält alle Angaben, die nötig sind, um die Emissionen der Luftschadstoffe zu berechnen: Annahmen über die Entwicklung von Bevölkerung, Wirtschaft, Technik, Energieverbrauch und Verkehr sowie beispielsweise die von der Europäischen Kommission vorgesehenen Luftreinhaltemaßnahmen. Auf dieser Grundlage lassen sich mit einem ACTM die Luftschadstoffkonzentrationen berechnen, die unter dem Szenario zu erwarten sind.

Bereits in den 1990er Jahren wurden in Deutschland Szenarienrechnungen im Aktionsprogramm und Maßnahmenplan Ozon eingesetzt, um wirksame Maßnahmen gegen den Sommersmog zu identifizieren. Weitere Einsatzfelder für Szenarienrechnungen sind die Luftreinhaltepläne, die nach den Vorgaben der Luftqualitäts-Rahmenrichtlinie von den zuständigen Behörden erstellt werden müssen, wenn die Schadstoffkonzentrationen die Summe aus Grenzwert und Toleranzmarge überschreiten. Mit Hilfe von Modellen kann dabei untersucht werden, wie stark einzelne Emissionsquellen zur Luftverschmutzung beitragen und welche Verbesserung der Luftqualität mit den im Luftreinhalteplan vorgesehenen Maßnahmen zu erwarten sind.

PAREST - Strategien zur Verminderung der Feinstaubbelastung

Weitere Maßnahmen zur Verminderung der Feinstaubbelastung notwendig

Das abgeschlossene Forschungsvorhaben des Umweltbundesamtes „Strategien zur Verminderung der Feinstaubbelastung – PAREST“ untersuchte eine Vielzahl von Emissionsminderungsmaßnahmen, mit denen sich die Belastungen durch Lauftschadstoffe weiter mindern lassen. Um flächendeckend die Einhaltung der Luftqualitätsgrenzwerte zu gewährleisten, sind aber weitere Anstrengungen nötig.

Trotz der bisher schon eingeleiteten Maßnahmen zur Emissionsminderung werden in Deutschland an vielen Orten – besonders in stark belasteten Innenstädten die Luftqualitätsgrenzwerte für Feinstaub und Stickstoffdioxid überschritten. Das hat negative Auswirkungen auf die menschliche Gesundheit und die Umwelt. Um Mensch und Umwelt zu schützen, sind weitere Maßnahmen zur Minderung von Luftschadstoffen umzusetzen.
Das Forschungsvorhaben „Strategien zur Verminderung der Feinstaubbelastung – PAREST“ untersuchte deshalb verschiedene Emissionsminderungsmaßnahmen und Szenarien und bewertet mit Hilfe von Ausbreitungsmodellen, welche dieser Maßnahmen und Szenarien die Feinstaubbelastung wirksam mindern können.

Zunächst wurde ein Basisszenario entwickelt, das ausgehend vom Basisjahr 2005 die Emissionszukunft bis zum Jahr 2020 beschreibt. In diesem Szenario sind alle bereits beschlossenen Regelungen und Maßnahmen zur Emissionsminderung berücksichtigt. Über dieses Basisszenario hinaus sind aber zusätzliche Emissionsminderungen durch weitergehende Maßnahmen möglich. Hauptziel des Forschungsprojekts war die Entwicklung und Bewertung verschiedener Maßnahmenszenarien.

Neben realen Maßnahmenszenarien wurden auch verschiedene Sensitivitätsszenarien untersucht, z.B. ein ambitioniertes Klimaschutzszenario, das zeigt dass Klimaschutzmaßnahmen einen überwiegend positiven Effekt auf die Luftqualität haben und dazu beitragen können, Luftschadstoffemissionen zu mindern.

Mithilfe des REM-CALGRID-Modells der FU Berlin wurden schließlich die immissionsseitigen Wirkungen aller Szenarien berechnet. Die Analyse zeigt, dass die Luftschadstoffbelastung im Basisszenario bis zum Jahr 2020 zurückgeht und darüber hinaus deutliche Minderungspotenziale durch weitere Maßnahmen bestehen. Ein sehr wirksames Instrument zur Verminderung der Feinstaubbelastung ist die gerade abgeschlossene Novellierung der Verordnung über kleine und mittlere Feuerungsanlagen (1. BImSchV), die Staubgrenzwerte für Heizungen und Öfen verschärft. Weitere wirkungsvolle Minderungsmaßnahmen sind die Umsetzung von schärferen Emissionsgrenzwerten für Großfeuerungs- und Industrieanlagen und – besonders in ländlichen Gebieten – technische und verhaltensändernde Maßnahmen in der Landwirtschaft, z.B. die schnellere Einarbeitung von Gülle und anderen Wirtschaftsdüngern auf dem Feld und ein verringerter Einsatz von Harnstoffdüngern. Die wichtigste Maßnahme im Verkehr ist die Einführung der Abgasnormen Euro 6 und VI für Pkws, leichte und schwere Nutzfahrzeuge, die ihre Wirkung allerdings erst ab dem Jahr 2015 entfalten.

Allerdings reichen die Minderungen im Basisszenario und teilweise auch in den Szenarien mit weiteren Maßnahmen nicht aus, um bis zum Jahr 2020 überall in Deutschland die Einhaltung der Immissionsgrenzwerte für Feinstaub und Stickstoffdioxid zu gewährleisten. Erst wenn weitergehende Luftreinhaltemaßnahmen ergriffen werden und mit Klimaschutzmaßnahmen kombiniert werden, lassen sich die Grenzwerte auch an den stark belasteten Standorten in Deutschland einhalten.

Die Forschungsergebnisse sind in einem Abschlussbericht sowie in 32 Teilberichten ausführlich dokumentiert.

Abschlussbericht:

Emissionsberichte:

Modellierungsberichte:

Aerosol-Chemie-Transport-Modelle

Aus der Wettervorhersage im Fernsehen sind Computeranimationen der Wolkenbewegungen bekannt, die wie Satellitenfilme aussehen. Diese Darstellungen beruhen auf den Ergebnissen von Wettervorhersagemodellen, also speziellen Computerprogrammen, die mit numerischen Methoden physikalische Gleichungen lösen und so die die zeitliche Entwicklung meteorologischer Felder (Wind, Luftdruck, Temperatur, Feuchte, Wolkenwasser, Niederschlag) simulieren.

Mit ähnlichen Computermodellen können die physikalischen und chemischen Prozesse simuliert werden, die Luftschadstoffe in der Atmosphäre transportieren und chemisch umwandeln. Ein Beispiel für eine chemische Umwandlung in der Atmosphäre ist die Bildung von Ozon aus Stickstoffoxiden (NO X ) und flüchtigen organischen Verbindungen (VOC), ein anderes ist die Bildung von Aerosolen (Feinstäuben) aus gasförmigen Verbindungen wie z. B. Ammoniak (NH 3 ) und Schwefeldioxid (SO 2 ). Derartige Computermodelle werden als Aerosol-Chemie-Transport-Modelle (ACTM) bezeichnet. Sie ermöglichen – analog zur Wettervorhersage – die Vorhersage der Konzentrationen von gasförmigen Luftschadstoffen und von Feinstäuben.

Die Luftqualitäts-Rahmenrichtlinie 96/62/EG sieht eine flächendeckende Beurteilung und Kontrolle der Luftqualität vor. Dies ist mit Hilfe von Messungen nur unvollständig möglich, da ein Messwert nur für eine begrenzte Umgebung der Messstation repräsentativ ist und aus Kostengründen nur eine begrenzte Anzahl von Messstationen betrieben werden kann. Folgerichtig sieht die Richtlinie als Mittel zur Beurteilung der Luftqualität neben Messungen erstmalig auch Modellrechnungen vor.

Analogiebildung

Aerosol-Chemie-Transport-Modelle (ACTMs) werden – wie Computersimulationsmodelle im Allgemeinen – zu dem Zweck entwickelt und angewendet, detaillierte, quasi-realistische Informationen über den Zustand und die zeitliche Entwicklung eines interessierenden Systems zu liefern, in diesem Fall über die Konzentrationen gas- und partikelförmiger Schadstoffe in der Atmosphäre. Aus praktischen Gründen ist es nicht möglich, Schadstoffkonzentrationen an allen Orten zu messen und aus prinzipiellen Gründen können Messungen keine Informationen über zukünftige Schadstoffkonzentrationen liefern. In solchen Fällen werden ACTMs als Ersatz für die Wirklichkeit herangezogen, um die fraglichen Konzentrationen zu ermitteln. Dabei stellt sich die Frage: Warum und in welchem Maße sind Modelle bzw. Modellergebnisse vertrauenswürdig?

Bei der Diskussion über die Aussagekraft von Modellergebnissen haben sich Begriffe bewährt, die von der englischen Wissenschaftsphilosophin Mary Brenda Hesse geprägt wurden, nämlich positive Analogie, negative Analogie und neutrale Analogie.
Details

Klassische Modelle und komplexe Computersimulationsmodelle

Klassische Modelle der Physik, wie das Wellenmodell des Lichts oder das Billardkugelmodell kinetischer Gase, beruhen auf einer einzelnen Modellverstellung, die in mathematische Gleichungen umgesetzt wird, welche wiederum analytisch gelöst werden. Im Unterschied dazu enthalten die ACTMs als quasi-realistische Computersimulationsmodelle mehrere ineinander verschachtelte Teilmodelle, die z. B. den turbulenten Transport in der atmosphärischen Grenzschicht, die Emission biogener Spurenstoffe aus der Vegetation, die Deposition von Gasen und Partikeln an der Vegetation und anderen Oberflächen, die nasse Deposition von Gasen und Partikeln durch Niederschlag, die chemisch Umwandlung in der Gas- und Flüssigphase und die Interaktion und das Wachstum atmosphärischer Partikel simulieren.

Zweck der Integration von Teilmodellen ist es, zusätzliche neutrale Analogien zu erschließen. Würde in einem ACTM das Teilmodell der nassen Deposition fehlen, könnte es nur Aussagen über Episoden ohne Regen und Schneefall machen; würde das Teilmodell der chemischen Umwandlung fehlen, könnte es nur die Ausbreitung chemisch inerter Schadstoffe beschreiben. Durch Integration von Teilmodellen können ACTMs auf Situationen angewendet werden, die sich in vielen Aspekten von bekannten unterscheiden.

Die Teilmodelle haben allerdings auch jeweils negative Analogien, die das Ergebnis stören können. Soweit möglich wird versucht, diese Störungen durch die geschickte Wahl von Randbedingungen und Parametrisierungen zu kompensieren.

Die Differentialgleichungssysteme von ACTMs können nicht analytisch gelöst werden und müssen daher mit numerischen Verfahren integriert werden. Diese Verfahren führen zu Rundungsfehlern und sind teilweise nur bedingt stabil. Außerdem können ACTMs erst angewendet werden, wenn sie als Computerprogramme implementiert sind. Diese Programme sind sehr groß, so dass mit Programmierfehlern gerechnet werden muss.

Analogiebegriffe

Positive Analogie

Modell eines Systems kann nur sein, was bestimmte Beobachtungen reproduziert, die an dem System gemacht wurden. Derartige Übereinstimmungen oder positive Analogien zwischen Modell und Wirklichkeit begründen das Interesse am Modell und stärken das Vertrauen in das Modell. Ein klassisches Beispiel einer positiven Analogie ist die Struktur der Intensitätsverteilung bei der Beugung am Spalt, die vom Wellenmodell des Lichts reproduziert wird. Bei einem ACTM gilt es als positive Analogie, wenn für eine bestimmte Episode berechnete Konzentrationsfelder in ihren wesentlichen Merkmalen mit den entsprechenden Messungen konsistent sind.

Negative Analogie

Ein Modell ist nicht identisch mit der Wirklichkeit, die es abbildet, also sind Unterschiede zwischen Modell und Wirklichkeit bekannt, die als negative Analogien bezeichnet werden. Eine negative Analogie eines regionalen ACTMs sind die Modellränder seitlich und oberhalb des Modellgebiets, außerhalb derer die Schadstoffkonzentrationen undefiniert sind. Eine weitere negative Analogie numerischer Modelle ist die Diskretisierung, die z. B. bedeuten kann, dass Konzentrationen nur an diskreten Gitterpunkten im Raum und zu diskreten Zeitpunkten definiert sind. Durch die negativen Analogien ist ein Modell im trivialen Sinne falsch – nicht aber wertlos: Die Kunst des Modellierens besteht vor allem darin, negative Analogien zu kennen und das Modell so zu wählen und zu konfigurieren, dass sie die Ergebnisse im Hinblick auf die jeweilige Fragestellung möglichst wenig stören. Wo eine Störung der Modellergebnisse durch negative Analogien nicht vermieden werden kann, muss diese Störung bei einer fachgerechten Interpretation der Modellergebnisse benannt und berücksichtigt werden.

Neutrale Analogie

Dieser Begriff bezeichnet eine Eigenschaft bzw. Aussage des Modells, die weder als negative Analogie bekannt ist, noch bereits durch Beobachtungen bestätigt wurde. Das Potenzial eines Modells zur Untersuchung von neuen Szenarien beruht auf seinen neutralen Analogien. Je mehr neutrale Analogien ein Modell in sich birgt, umso mehr bisher unbekannte Aspekte der Wirklichkeit können möglicherweise mit dem Modell berechnet werden. Die Arbeitshypothese bei der Modellierung besagt, dass die vom Modell berechneten neuen Ergebnisse bisher unbekannte Aspekte der Wirklichkeit zutreffend beschreiben. Dies ist jedoch nur eine Hypothese. Durch Evaluierung bzw. Validierung eines Modells wird versucht abzuschätzen, wie vertrauenswürdig diese Hypothese ist.

Evaluierung und Validierung von Modellen

Hesses Diskussion von Modellen führt zu dem Schluss, dass gerade die interessanten Aussagen von Modellen – nämlich über ansonsten unbekannte Aspekte der Wirklichkeit – prinzipiell nicht sicher sind. Warum werden Modelle dann überhaupt zur Untersuchung solcher Probleme verwendet? Weil der Mensch keine andere Möglichkeit hat, Aussagen über neue Phänomene zu machen, als vom Bekannten auf das Unbekannte zu schließen. Es gibt verschiedene Gründe für solche Hypothesen über das Unbekannte. Einer ist das Streben nach wissenschaftlicher Erkenntnis. Bei ACTMs steht der gesellschaftliche Auftrag im Vordergrund, die gegenwärtige Umweltsituation umfassend zu beurteilen und die voraussichtliche zukünftige Entwicklung der Umweltsituation im Sinne der Vorsorge zu berücksichtigen. Dabei ist es wichtig, konsistente, transparente, konsensfähige Methoden konsequent anzuwenden. In diesem Sinne haben sich ACTMs bewährt.

Spezielle Verfahren wurden entwickelt, um die Vertrauenswürdigkeit dieser Modelle zu prüfen. Häufig werden solche Prüfungen als Validierung und erfolgreich geprüfte Modelle als validiert bezeichnet. Bislang gibt es jedoch kein allgemein verbindliches Validierungsverfahren für ACTMs, so dass im Einzelfall zu klären bleibt, welche Prüfungen ein als validiert bezeichnetes Modell bestanden hat und welche Kriterien dabei angelegt wurden. In Reaktion auf Kritik durch die amerikanische Wissenschaftshistorikerin Naomi Oreskes vermeiden manche Modellierer den Begriff Validierung wegen seiner Konnotation von Sicherheit, verwenden aber dennoch entsprechende Evaluierungsverfahren. Zur Evaluierung bzw. Validierung werden Vergleiche mit Messwerten, Vergleiche mit anderen Modellen und die Überprüfung der inneren Struktur der Modelle herangezogen.

Überprüfung der inneren Struktur

Negative Analogien von Teilmodellen können sich in bestimmten Situationen gegenseitig kompensieren mit dem Ergebnis, dass das Gesamtmodell eine Beobachtung zufrieden stellend reproduziert. Das Modell liefert dann right answers for the wrong reasons. Dies ist auch dann nicht auszuschließen, wenn ein Gesamtmodell viele Beobachtungen gut reproduziert. (Häufig liegen aber nur wenige Beobachtungen so vollständig vor, dass sie eine Evaluierung des Modells erlauben.)

Deshalb sollte ein komplexes Modell grundsätzlich nicht nur als black box anhand seiner Ergebnisse überprüft werden, sondern auch seine innerer Struktur sollte untersucht werden, um negative Analogien und Grenzen der Anwendbarkeit aufzuspüren: Wurden die verwendeten Teilmodelle einzeln evaluiert, und wie? Sind bei der Anwendung des Gesamtmodells alle Bedingungen erfüllt, die bei der Entwicklung der Teilmodelle vorausgesetzt wurden? Widerspricht das Modell anerkannten Konzepten wie z. B. der Massenerhaltung? Eignen sich numerische Verfahren, Diskretisierung, Anfangs- und Randbedingungen zur Untersuchung der Fragestellung? Bei ACTMs ist in diesem Zusammenhang die Qualität der Emissionsdaten äußerst wichtig. Wurde die Implementierung als Computerprogramm mit seinen Unterprogrammen, Funktionen und Funktionsbibliotheken auf Programmierfehler überprüft, und wie? Derartige Prüfungen sind geeignet, Fehler und negative Analogien festzustellen.

Das Vertrauen auf die Aussagekraft von ACTMs beruht unter anderem darauf, dass sie solchen detaillierten Prüfungen zugänglich sind, dass also der Zusammenhang zwischen Eingangs- und Ausgabegrößen – anders als bei rein statistischen Modellen oder neuronalen Netzen – in seinen wesentlichen Schritten mit etablierten kausalen Zusammenhängen nachvollzogen werden kann. Falls bei solchen Prüfungen keine Fehler gefunden werden, garantiert dies nicht, dass etwaige positive Analogien des Modells right answers for the right reasons sind. Erst recht ist es kein Beweis für die Hypothese, dass neutrale Analogien des Modells Aspekte der Wirklichkeit zutreffend beschreiben. Es ist jedoch ein Indiz für die Vertrauenswürdigkeit dieser Hypothese.

Vergleiche mit Messwerten

Durch solche Vergleiche wird versucht, positive Analogien nachzuweisen. Dabei wird das Modell als ganzes, als black box geprüft. Das Vertrauen wächst, wenn in möglichst vielen und möglichst verschiedenartigen Fällen und über lange Beobachtungszeiträume hinweg positive Analogien gefunden werden. Wenn es sich beispielsweise in der Vergangenheit meist als nützlich erwiesen hat, die Ergebnisse der numerischen Wettervorhersage zu berücksichtigen, wächst die Bereitschaft, dies auch in Zukunft zu tun. Das Maß der Übereinstimmung zwischen Modell und Beobachtung wird mit statistischen Verfahren bewertet. Fehlende Übereinstimmung, also negative Analogien geben Hinweise auf Grenzen und Fehler des Modells. Bei diesen Vergleichen ist zu beachten, dass Messwerte nicht mit der Wirklichkeit gleichgesetzt werden dürfen, da sie z. B. Messfehler enthalten und ihrerseits unter Verwendung von Modellen eines Messprinzips z. B. aus elektrischen Signalen des Messgeräts berechnet werden.

Da komplexe Modelle viele Randbedingungen und numerische Parameter enthalten, besteht die Gefahr der Überanpassung, dass also die Modelle zwar bestimmte Situationen gut reproduzieren, nachdem diese „Stellschrauben” geeignet eingestellt wurden, dass sie aber in anderen Situationen falsche Voraussagen machen. Um eine mögliche Überanpassung zu erkennen, werden die verfügbaren Beobachtungswerte aufgeteilt in separate Datensätze für die Kalibrierung und die Validierung. Die Gefahr einer Überanpassung ist jedoch geringer, als durch die schiere Anzahl an Modellparametern vermutet werden könnte. Dies liegt an der Modularisierung der Modelle bzw. an der Arbeitsteilung zwischen den Modellierern: Teilmodelle wie z. B. zur Deposition werden von Spezialisten entwickelt, kalibriert und validiert und anschließend oft unverändert in ACTMs übernommen. Zur Kalibrierung eines aus Teilmodellen zusammengesetzten ACTMs werden daher bei weitem nicht alle in den Teilmodellen vorhandenen Parameter verwendet. Nach Abschluss der Modellentwicklung werden bei der Anwendung einer bestimmten Modellversion meist nur ausgewählte Anfangs- und Randbedingungen eingestellt.

Modellsystem für die Ermittlung der Schadstoffbelastung und zur Maßnahmenplanung

Umsetzung der Anforderungen der EU-Luftqualitätsrichtlinien

  • Forschungsvorhaben 298 41 252 - Modellierung und Prüfung von Strategien zur Verminderung der Belastung durch Ozon
  • Forschungsvorhaben 299 43 246 - Entwicklung eines Modellsystems für das Zusammenspiel von Messung und Rechnung für die bundeseinheitliche Umsetzung der EU-Rahmenrichtlinie Luftqualität
  • Forschungsvorhaben 201 43250 - Anwendung modellgestützter Beurteilungssysteme für die bundeseinheitliche Umsetzung der EU-Rahmenrichtlinie Luftqualität und ihrer Tochterrichtlinien

Nach dem Abschluss der an der FUB durchgeführten Modellrechnungen zur Wirksamkeit von überregionalen/großräumigen und von regionalen/lokalen Emissionsminderungsmaßnahmen sowohl dauerhafter als auch temporärer Art zur Reduzierung von Ozonspitzenkonzentrationen bei hochsommerlichen Wetterlagen (Aktionsprogramm und Maßnahmenplan Ozon, AMPO) rückte die Überprüfung von Maßnahmenoptionen im Hinblick auf saisonale und auch auf Jahresbelastungen in den Mittelpunkt des Interesses. Diese Schwerpunktsverschiebung deckte sich mit den Anforderungen der EU-Luftqualitäts-Rahmenrichtlinie (RRL), 96/62/EG PDF / 774 KB sowie deren Tochterrichtlinien (TRLn), 1999/30/EG PDF / 258 KB, 2000/69/EG PDF / 277 KB und 2002/3/EG PDF / 145 KB an ein Modellinstrumentarium, das zur Berechnung der langfristigen Schadstoffbelastungen in der europaweiten, der nationalen, der regionalen/urbanen sowie der lokalen Skala geeignet ist.

Das Konzept der drei Vorhaben umfasste

  • die Entwicklung eines Modellsystems zum Einsatz für ein oder mehrere Jahre unter besonderer Berücksichtigung der Module zur Aerosolbehandlung,
  • Anpassung der großräumigen Modell-Emissionsdatenbasis auf den jeweils neuesten Stand
  • das Erstellen von Emissionsminderungsszenarien nach den auf internationaler (NEC, CAFE) und nationaler Ebene (nationales Programm im Rahmen der Umsetzung der NEC-Richtlinie) erarbeiteten Vorgaben.
  • die Anwendung für Beurteilung der Auswirkung von Emissionsminderungsmaßnahmen auf die Luftqualität,
  • Weiterentwicklung des jeweilig erreichten Standes soweit für Praxis verwendbare Erkenntnisse aus der Grundlagenforschung zur Verfügung stehen,
  • Qualitätssicherung durch Modellevaluierung mit Messdaten, international durch Modellvergleiche und Bezugnahme auf hochkomplexe Modellansätze, die in der Grundlagenforschung zum Einsatz kommen (EURAD).
  • Einbringen in politikrelevante Bereiche, EMEP-TFMM (EMEP-Modell Review/ EuroDelta) und CAFE (CityDelta) und in die Maßnahmenplanung der Länder (z. B. Berlin, Hessen)

Im F+E-Vorhaben 298 41 252 wurde ein skalenübergreifendes Modellinstrumentarium entwickelt, das den in den EU-Luftqualitätsrichtlinien festgelegten Anforderungen genügt. Betrachtet werden die Schadstoffe SO2, NOX, Benzol, Ozon, PM10 und CO. Gerechnet wird in stündlicher Auflösung für das ganze Jahr.

Das Modellsystem enthält folgende Ausbreitungsmodelle:

  • Das dreidimensionale Aerosol-Chemie-Transportmodell REM-CALGRID (RCG) PDF / 307 KB zur Bestimmung der Luftqualität in der europaweiten, der nationalen sowie der urbanen Raumskala (Ballungsgebiet). Die Entwicklung dieses Modells und die Bereitstellung der zur Betreibung notwendigen Datenbasen war Schwerpunkt des Vorhabens 298 41 252. Die aus der jeweils größeren Skala berechnete Hintergrundbelastung wird als Randbedingung für die kleinere Skala verwendet („one-way-nesting”).
  • Das Canyon-Plume-Box-Modell (CPB) zur Bestimmung der Luftqualität in Straßenschluchten („hot-spot”-Betrachtung in der lokalen Skala). Das CPB-Modell ist ein 2-dimensionales analytisch-empirisches Modell. Die Hintergrundbelastung wird dazu von den urbanen Ausbreitungsrechnungen bereit gestellt („one-way-nesting”).
  • AUSTAL2000 zur Bestimmung der Luftqualität im näheren Einflussbereich von Anlagen („hot-spot”-Betrachtung in der lokalen Skala). AUSTAL2000 ist ein Lagrange'sches Partikelsimulationsmodell zur Beschreibung von Immissionsbelastungen ausgehend von industriellen Quellen. Die Hintergrundbelastung dazu wird ebenfalls von den urbanen Ausbreitungsrechnungen bereit gestellt („one-way-nesting”).

Schwerpunkt des Vorhabens 299 43 246 war die genestete Anwendung des im Rahmen des Forschungsvorhabens 298 41 252 erstellten Modellinstrumentariums auf die Region Berlin-Brandenburg. Für die genestete Simulation der Immissionssituation in Berlin wurde das RCG-Modell in zwei verschiedenen Auflösungen angewandt: Europaweit in einer Auflösung von circa 25 km2, für die Länder Brandenburg und Berlin in einer Auflösung von 2 km2. Das CPB-Modell diente zur Immissionsberechnung in einer Berliner Straßenschlucht. Ein weiterer Arbeitspunkt dieses Vorhabens umfasste eine Datenassimilation (Kombination von Mess- und Rechenergebnissen) mit unterschiedlicher Komplexität.

Das Forschungsvorhaben 201 43 250 baut auf den Ergebnissen auf, die im Rahmen des Forschungsprojektes 298 41 252 „Modellierung und Prüfung von Strategien zur Verminderung der Belastung durch Ozon” und des FE-Vorhabens 299 43 246 „Entwicklung eines Modellsystems für das Zusammenspiel von Messung und Rechnung für die bundeseinheitliche Umsetzung der EU-Rahmenrichtlinie Luftqualität” erzielt wurden. Das Forschungsprojekt 201 43 250 war in vier Teile gegliedert:

  • Weiterentwicklung der Methodik der Optimalen Interpolation zur Verknüpfung von Messungen mit Modellergebnissen hin zur operationellen Anwendung in Verbindung mit dem Modell REM-CALGRID.
  • Ableitung des Immissionsklimas 1995 - 2003 aus Beobachtung und Modellrechnung. In diesem Teilvorhaben wurden die jährlichen Unterschiede der Immission von Ozon, NO2, PM10 und SO2 in Deutschland im Zeitraum 1995-2003 hinsichtlich des Einflusses von Wettervariabilität und Emissionstrends untersucht.
  • Anwendung und Bewertung des RCG-Modells im Rahmen der internationalen Modellvergleiche EURODELTA und TFMM. An diesem Vergleich nahmen neben dem RCG fünf andere europäische Chemie-Transportmodelle teil.
  • Entwicklung eines Ansatzes zur Konkretisierung der in den EU-Tochterrichtlinien genannten Qualitätskriterien, die zum Nachweis der darin verlangten Genauigkeit von Modellrechnungen benutzt werden können.

Vernetzung von Messungen und Modellen

In den letzten Jahren ist eine zunehmende Vernetzung von Messungen und Modellen zu beobachten, die sowohl von Seiten der Experimentatoren als auch von Seiten der Modellierer vorangetrieben wird.

Messwerte enthielten immer schon Modellrechnungen, da jedes Messprinzip auf einem Modell des Messvorgangs beruht und den empfangenen Signalen mit Hilfe dieses Modells Messwerte zuordnet. Die unvermeidlichen Messfehler sind Ausdruck der Fehler und Unsicherheiten dieses Modells. Darüber hinaus versuchen Experimentatoren jedoch, ihre durch Messungen gewonnenen Beobachtungen zu verallgemeinern, indem sie Datensätze mit immer komplexeren statistischen Methoden räumlich interpolieren und zeitlich extrapolieren oder neuronale Netze damit trainieren. Auf der Suche nach einer breiteren Anwendbarkeit ihrer Datensätze und nach allgemeineren Aussagen verschieben sie ihre Ergebnisse weiter weg von positiven und negativen Analogien in Richtung neutraler Analogien und handeln sich damit eine höhere Unsicherheit ein.

ACTMs enthielten durch Parametrisierung, Kalibrierung, Anfangs- und Randbedingungen immer schon abstrahierte Messwerte. Darüber hinaus versuchen Modellierer, konkrete Situationen genauer zu reproduzieren, indem zeitlich und räumlich veränderliche Messwerte bereits während der Modellrechnung durch Methoden der Assimilation berücksichtigt oder nachträglich durch optimale Interpolation mit Ergebnissen der Modellrechnung kombiniert werden. Auf diese Weise werden positive Analogien gestärkt, neutrale Analogien jedoch geschwächt, denn je mehr ein Modell auf situationsspezifische Messungen angewiesen ist, desto weniger kann es Aussagen für Situationen machen, für die solche Messungen fehlen.

Die schon lange übliche Triangulation von Punktemessungen zur Erzeugung flächenhafter Darstellungen ist ein sehr einfaches Modell mit bekannten negativen Analogien: Das Modell berücksichtigt z. B. nicht explizit, dass eine Messung nur für eine begrenzte Umgebung repräsentativ ist.

weiter im Artikel
Alle anzeigen

Pdfs

  • Schwerpunkt Umweltzonen UMID 04/2011
Teilen:
Artikel:
Drucken Senden
Schlagworte:
 Luftreinhalte- und Aktionspläne  Modelle  Szenarien
×

Sie suchen Daten und Fakten zur Umwelt?
Helfen Sie mit, unseren Internetauftritt zu verbessern.

Ja, ich mache mit