Das ENSO-Phänomen

 » Beobachtung und Vorhersage

Beobachtung und Vorhersage

Einleitung

Dieses Kapitel befasst sich mit Beobachtungsverfahren, Messsystemen, Klimamodellen zur Vorhersage sowie ENSO-Vorhersagen und deren Nutzen. Aktuelle Daten bzw. die externen Links zu ihrer Beschaffung finden Sie hingegen im Kapitel Aktueller Zustand des Pazifiks.

Wie schon im Überblickskapitel dargestellt, bezieht sich ENSO auf den Wechsel zwischen der El Niño-Phase im tropischen Pazifik und seiner gegenteiligen Phase, der La Niña sowie der Neutralphase. Der Southern Oscillation Index erfasst die Ost-West-Unterschiede des Luftdrucks in Bodennähe, welche diese Veränderungen begleiten. ENSO wird ferner begleitet durch Änderungen der Meerestemperaturen und von Verschiebungen der atmosphärischen Zirkulation, wobei einige Aspekte vorhersagbar erscheinen. Das bedeutet, dass man mit Hilfe von Beobachtungen des Klimas und der Meerestemperaturen, insbesondere im Bereich des tropischen Pazifiks, und von Modellen, die unser Verständnis von Klimavariabilität beschreiben, mit einer gewissen Kompetenz die ENSO-Bedingungen vorhersagen und Prognosen für Lufttemperaturen und Niederschläge in anderen Gebieten machen können.

Seit Wissenschaftler vor über 40 Jahren erkannt haben, dass ozeanische und atmosphärische Teile von ENSO eng miteinander verbunden sind, haben sie begonnen,die kombinierten Phänomene aus einer Vielzahl von Perspektiven aus zu betrachten und schufen so ein tieferes Verständnis für dieses komplexe und einflussreiche Naturphänomen.

Als 1982–83 ein starkes El Niño-Ereignis ohne Vorwarnung einsetzte, erkannten die Wissenschaftler es erst nachdem es sich entwickelt hatte. Dies lag an den beschränkten Beobachtungsmöglichkeiten, den noch primitiven Computermodellen, den gleichzeitig auftretenden Auswirkungen eines Ausbruchs des mexikanischen Vulkans El Chichón im Jahr 1982 und schließlich auch an der fehlenden Erkenntnis über die Entwicklungsvariabilität verschiedener El Niños. Erst der folgende Aufbau eines ENSO-Beobachtungssystems im tropischen Pazifik brachten wesentliche Erkenntnisse für die Frühwarnung.

Ständige Schwankungen in den 1960er und 1970er Jahren formten das frühe Verständnis von ENSO. Die 1980er und 1990er wurden von El Niño-Phasen dominiert, einschließlich der starken Ereignisse von 1982/83 und 1997/98. Auch das Ereignis von 2015/16 war von Eigenheiten im Vergleich zu anderen Starkereignissen geprägt.

Wissenschaftler der NOAA und anderer Wetterbehörden sowie von wissenschaftlichen Instituten setzen heute eine Vielzahl von Instrumenten und Methoden ein zur Beobachtung und Vorhersage von Veränderungen im Pazifik und von deren Auswirkungen auf globale Wettermuster. Im tropischen Pazifik sind dies  u.a. verschiedene Typen von Bojen, schiffgestützte Messungen und Satellitenbeobachtungen.

Aus historischer Perspektive ist anzumerken, dass moderne, auf ENSO bezogene Beobachtungsdaten teilweise bis in das späte 19. Jahrhundert zurückreichen. Da solide Beobachtungen im tropischen Pazifik in der frühen Beobachtungsperiode allerdings nur in spärlichem Umfang vorliegen, werden Datensätze üblicherweise aus den wenigen Beobachtungen, zusätzlich mit Modellen und mit statistischen Methoden erstellt.

wang_enso_indices

ENSO Indizes

Dargestellt sind

(a) SST Anomalien in der Nino 3 Region (5°S-5°N, 150°W-90°W),

(b) SST Anomalien in der Nino 4 Region (5°N-5°S, 160°E-150°W) und

(c) zonale Windanomalien in der Nino 4 Region.

Alle Zeitreihen sind 3-Monatsmittel. Die Werte für die Meeresoberflächentemperaturen stammen von der NOAA extended reconstructed SST version 3 (Smith et al. 2008) und die Werte für die Windreihe sind von der neu entwickelten NOAA Earth System Research Laboratory (ESRL) 20th Century Reanalysis (20CR) (Compo et al. 2011).

 

Quelle: Wang et al. (2012)

Die Abbildung oben zeigt ENSO-Indizes von Beginn des 20. Jahrhunderts an: Die Anomalien der Meeresoberflächentemperaturen (SST) in der Niño 3-Region (150°W-90°W, 5°S-5°N) und der Niño 4-Region (160°E-150°W, 5°S-5°N), sowie die zonalen Windanomalien in der Niño 4-Region. Aus dieser Abbildung kann man mehrere Punkte ableiten:

  1. Die SST und die zonalen Windanomalien sind stark korreliert, was auf den Charakter von ENSO als gekoppeltes Ozean-Atmosphäre-Phänomen hinweist.
  2. Diese ENSO-Indizes zeigen ein oszillatorisches Verhalten mit einem bevorzugten Rhythmus von 3-5 Jahren, auch wenn die Oszillation eine beträchtliche Unregelmäßigkeit besitzt.
  3. ENSO-Ereignisse zeigen eine Asymmetrie zwischen den warmen El Niño- und den kalten La Niña-Ereignissen, wobei die Anomalien von El Niño stärker sind als jene von La Niña.
  4. Die Abb. (b) zeigt, dass die Warmereignisse im zentralen Pazifik (dargestellt im Niño 4-Index) in den letzten paar Dekaden häufiger aufgetreten sind.

Ein weiteres Merkmal, das allerdings nicht klar aus der oben stehenden Abbildung abgelesen werden kann, ist der phasenstarre Charakter von ENSO in Bezug auf das jahreszeitliche Auftreten. Gemeint ist, dass ENSO-Ereignisse dazu tendieren, ihre stärkste Ausprägung während des Nordwinters zu erreichen (z. B. Rasmusson und Carpenter 1982).

Global Tropical Moored Buoy Array
global_tropical_moored_buoy_array_wang

Quelle: NOAA (dort auch aktuelle Version der Grafik)

Das Global Tropical Moored Buoy Array Program ist ein multinationales Projekt zur Bereitstellung von Daten in Echtzeit für die Klimaforschung und -vorhersage.
Das ENSO-Beobachtungssystem im tropischen Pazifik hat die Bezeichnung TAO/TRITON Array. Die Instrumente liefern in nahezu Echtzeit Daten zu Temperatur und Salinität an der Oberfläche und darunter, ferner zu Windgeschwindigkeit und -richtung, Strömungsgeschwindigkeit und zu Luft-Wasser-Austauschvorgängen (air-sea fluxes).
Die wichtigsten phänomenologischen Schwerpunkte dieser Messanordnung sind:

  • El Niño/Südliche Oszillation (ENSO) im Pazifik
  • Der interhemisphärische Dipolmodus, äquatoriale Wärmeereignisse und Hurrikanaktivität im Atlantik
  • Der Monsun, der Dipol des Indischen Ozeans und die intraseasonale Variabilität im Indischen Ozean

Die Lage der Thermokline und ihre Änderungen sind während ENSO-Ereignissen sehr bedeutsam, aber Messungen der Meerestemperatur unterhalb der Oberfläche waren in der Vergangenheit nur sehr spärlich. Der Mangel an Daten und fehlende Kenntnisse über die Ozean-Atmosphäre-Interaktion führten in den 80er und 90er Jahren zu einem zehnjährigen, auf die Tropenmeere bezogenen Forschungsprogramm im Rahmen des World Climate Research Programmes: Das Tropical Ocean Global Atmosphere program (TOGA). Dem Programm lag das Bewusstsein zugrunde, dass sich die dynamische Anpassung des Ozeans in den Tropen rascher vollzieht als in den höheren Breiten. Beispielsweise können sich Störungen, die aus dem Westpazifik im Rahmen eines El Niño-Ereignisses heraus auftreten, innerhalb von Wochen quer über das Ozeanbecken ausbreiten, wohingegen sie in höheren Breiten Jahre für die gleiche Strecke benötigen würden.

Eine der Errungenschaften des TOGA-Programms (1985-1994) war der Aufbau eines ENSO-Beobachtungssystems im tropischen Pazifik. Das Rückgrat des operationell arbeitenden ENSO-Beobachtungssystems läuft heute unter der Bezeichnung TAO/TRITON Array und besitzt ca. 70 verankerte Bojen (Hayes et al. 1991; McPhaden 1995), die von den USA und von Japan eingerichtet und unterhalten werden.

 

Beobachtung des ENSO-Phänomens

Operationelle Datenerhebung

Generell werden heute Daten zur Beobachtung und Vorhersage von El Niño-/La Niña-Ereignissen geliefert von

  1. Pegelstationen auf Land
  2. Satelliten (Doppelrolle, einerseits Träger von Sensoren, andererseits Datenübermittler, z.B. von Bojen zu Forschungsstationen auf Land)
  3. fest verankerten Messbojen
  4. frei schwimmenden (driftenden) Messbojen
  5. Schiffen, auf jeweils freiwilliger Basis: das ozeanographische Programm Ship Of Opportunity Program (SOOP) oder das meteorologische Programm Volunteer Observing Ship (VOS)
  6. Wind-Profilern

Mit Hilfe dieser Daten versuchen die Klimaforscher, die Vorgänge im pazifischen Ozean und der darüberliegenden Atmosphäre mit Computermodellen auf Grossrechnern zu simulieren. Dies ist eine komplexe Aufgabe, weil es zum einen noch nicht seit langer Zeit solche Klimadaten über den Pazifik gibt und zum anderen, weil die Vorgänge in der Natur nicht linear sind, sondern auch schon kleine Veränderungen große Auswirkungen haben können. Ferner gibt es noch immer deutlich zu wenige Beobachtungspunkte, insbesondere was die Tiefen des Ozeans betrifft.

Moderne dynamische und statistische Vorhersagemodelle können die Wahrscheinlichkeit eines El Niño- oder La Niña-Ereignisses heute mit erstaunlicher Güte bis zu einem halben Jahr im Voraus vorhersagen, allerdings wird die maximale Intensität noch nicht sehr gut getroffen. Jedoch sind die Fernwirkungen auf andere Regionen nur ungenau vorhersagbar, da dabei auch andere Faktoren ins Spiel kommen. Viele Aspekte der Frage, wie ein El-Niño-Ereignis im einzelnen ausgelöst wird, sind noch Gegenstand der Forschung.

Jedes Forschungszentrum stützt sich bei seinen ENSO-Updates auf eine Reihe von Kerndatensätzen, so dass die genauen Werte für eine bestimmte Größe (z.B. Niño-3.4 SST) variieren, je nachdem, welcher Datensatz untersucht wird. Diese Unterschiede zwischen den Datensätzen ergeben sich in erster Linie aus strukturellen Gründen, wie z. B. der Wahl des dynamischen Modells oder der statistischen Methode, mit der die verfügbaren Beobachtungen ergänzt werden. Besonders deutlich sind die Unterschiede im tropischen Pazifik, der große Regionen umfasst, die nicht durch Punktmessungen abgedeckt sind (z. B. Bojen, Schiffe). Viele Zentren verlassen sich zudem auf Datensätze, die nicht nur Bojen- oder Schiffsdaten, sondern auch Satelliteninformationen aufnehmen. Die moderne Satellitenaufzeichnung begann jedoch erst Ende der 1970er Jahre, was die Verwendung dieser Datensätze für historische Auswertungen, die weiter zurückreichen, verhindert. Darüber hinaus haben Satellitenschätzungen Verzerrungen (aufgrund von Problemen wie unterschiedlichen äquatorialen Überflugzeiten), die durch in situ Oberflächenbeobachtungen korrigiert werden müssen, und diese Korrekturen können im Laufe von Zeit und Raum variieren, wenn neue Satelliten aufgenommen werden. Einige Datensätze wie der NOAA Extended Reconstructed SST (ERSST) verzichten auf Satelliteninformationen, um die Konsistenz oder Homogenität des Datensatzes zu erhalten. Für Zwecke außerhalb historischer Vergleiche und zur Bereitstellung von ENSO-Updates in Echtzeit werden diese satellitengestützten Datensätze jedoch stark in Anspruch genommen, sowohl um ein Gesamtbild der ENSO-Entwicklung zu erhalten, wie auch um Ausgangsbedingungen für viele Vorhersagemodelle bereitzustellen. (L'Heureux et al. 2017)

"Except for the regular progression of the seasons, ENSO is the most predictable climate fluctuation on the planet. Its predictability is based on wind-driven seasonal variations in the amount of heat stored in the upper few hundred meters of the tropical Pacific Ocean. These variations affect sea surface temperatures, which in turn influence the global atmospheric circulation."

McPhaden, M. J., Zebiak, S. E., Glantz, M. H. (2006): ENSO as an Integrating Concept in Earth Science

Die Notwendigkeit, mit verschiedenen, möglichst Realzeit-Daten liefernden Systemen die Beobachtung zu betreiben, zeigte sich spätestens beim großen El Niño von 1982, der bereits in vollem Gange war, als die Wissenschaftler ihn bemerkten. Diese hatten vereinzelte Hinweise über deutliche Änderungen der Ozeantemperatur von entfernten Inseln im Pazifik ignoriert und vielmehr ihren Wettersatelliten vertraut, die nichts Ungewöhnliches aufzeichneten. Dies lag daran, dass die Temperaturmessungen durch die Stäube eines Vulkanausbruchs Mexiko (El Chichon) überlagert waren. Zwar waren schon Messbojen in Äquatornähe installiert, ihre Daten waren jedoch erst Monate später verfügbar, nachdem die Instrumente geborgen waren.

Die Aussagekraft der verschiedenen Systeme ist äußerst unterschiedlich, was an den folgenden Beispielen deutlich wird:
Pegelmessungen liefern zwar regelmäßig Daten, haben aber den Nachteil, dass sie an die zufällige Verteilung von Inseln und Küsten gebunden sind, was erhebliche Beobachtungslücken zur Folge hat. Gleiches gilt für Handelsschiffe, die im Auftrag der Forschung Messsonden auf ihren routengebundenen Fahrten aussetzen. Räumlich und zeitlich systematischer werden Daten hingegen von einem Netz fest verankerter Bojen geliefert.

Satelliten auf einer Umlaufbahn vermögen zwar kontinuierlich Daten zu liefern. Es können bei jedem Überflug aber nur Daten aus Streifen von einigen 100 km Breite erfasst werden. Ein vollständiges Bild des tropisch-pazifischen Raumes entsteht folglich erst im Abstand einiger Tage.

Kontinuierliche Daten können demgegenüber von geostationären Satelliten geliefert werden, die jedoch jeweils nur den von ihnen aus sichtbaren Teil der Erdoberfläche darstellen können (z.B. die NOAA-Satelliten der Serie GOES: Geostationary Operational Environmental Satellite).

Der ENSO-Mechanismus beinhaltet zwar eine enge Verzahnung von ozeanischen und atmosphärischen Komponenten, die beiden Bereiche reagieren jedoch aufeinander in sehr unterschiedlichen Zeitskalen. Die Atmosphäre ist weniger dicht als der Ozean und reagiert deshalb fast sofort auf einen Impuls von der Ozeanoberfläche. Der Ozean ist vergleichsweise massiv und verhält sich folglich gegenüber einem atmosphärischen Forcing träge. Beispielsweise kann es sein, dass die Tiefe der Thermokline Monate benötigt, um sich veränderten Winden in den Tropen anzupassen, wohingegen sich atmosphärische Konvektion über warmem Wasser innerhalb von Stunden einstellen kann. Diese langsame Entwicklung des Temperaturfeldes im oberen Ozean liefert das "Gedächtnis" für das Klimasystem im tropischen Pazifik. Und es ist genau diese thermische Trägheit, die die Grundlage für die Vorhersagbarkeit für Veränderungen der ENSO-Zeitskala darstellt.

Vgl. die CLIVAR-Poster

El Niño Rapid Response Field Campaign (2016)

Während des El Nino 2015/16 haben Wissenschaftler der NOAA und von Partnerorganisationen im tropischen Pazifik zu Land, auf dem Meer und in der Luft eine Kampagne zur Untersuchung des Naturphänomens gestartet. Die dabei gewonnenen Daten sollen auch helfen, die Wettervorhersagen in weit entfernten Gebieten zu verbessern, insbesondere durch die Optimierung von Vorhersagemodellen. Gleichfalls dienen sie den jahresübergreifenden ENSO-Vorhersagen, sowie der höheren Genauigkeit von Modellen zur Langzeitvorhersage von Effekten des Klimawandels.

Die als El Niño Rapid Response Field Campaign bezeichnete Kampagne wird das NOAA-Forschungsflugzeug Gulfstream IV sowie das NOAA-Schiff Ronald H. Brown einsetzen, die NASA stellt ihre unbemannte Drohne Global Hawk zur Verfügung, die mit speziellen Sensoren ausgerüstet ist. Dazu kommen Forscher, die u.a. auf Kiritimati (vorm. Weihnachtsinsel) ca. 1340 Meilen südlich von Honolulu stationiert sind. Vom Boden aus lässt man Wetterballone aufsteigen, beobachtet die Atmosphäre mit Radaranlagen, und von Flugzeugen aus werden Instrumente abgeworfen, die zur Erdoberfläche schweben und dabei Wetterparameter messen.

mission-map_800

Karte mit dem Einsatzgebiet der El Niño Rapid Response Field Campaign

 

 

Quelle: NOAA ESRL

 

Die Forschung im Kerngebiet dieses sehr starken El Niño wird den Meteorologen dabei helfen, das erste Glied in der Kette zu verstehen, die unter anderem Extremniederschläge an der US-amerikanischen Westküste verursacht.

Während der zwei vorangegangenen Extrem-El Niños wurde Kalifornien von intensiven Regenfällen durchnässt, was zu Überschwemmungen, Hangrutschungen und anderen Sachschäden führten. Kalifornien ist für die Forscher ein hochinteressantes Untersuchungsgebiet, insbesondere als der Staat seit langem versucht mit einer historischen Dürre fertig zu werden.

Derartige Untersuchungen während eines starken El Niño waren bislang noch nicht durchgeführt worden. Die Kampagne musste innerhalb relativ kurzer Zeit konzipiert werden, um die Chance zur Beobachtung des ablaufenden El Niño zu nutzen.

noaa-giv-aircraft

NOAA G-IV Aircraft

Das NOAA-Flugzeug G-IV wird von Honolulu, Hawaii, aus fliegen und eine Reihe von meteorologischen Sensoren mit sich führen und während geschätzter 20 Forschungsflüge von Mitte Januar bis Anfang März 2016 Dropsonden einsetzen.

Quelle: NOAA ESRL

020416-deboer-globalHawk_600

NASA Global Hawk Unmanned Aircraft

Das Projekt Sensing Hazards with Operational Unmanned Technology (SHOUT) unter der Leitung des NOAA Unmanned Aircraft System (UAS)-Programms wird das NASA Global Hawk UAS mit einer Reihe von meteorologischen Sensoren und an Fallschirmen abgeworfenen Wetterinstrumenten während vier Forschungsflügen im Februar im östlichen Pazifik, nahe der US-Westküste, einsetzen. Das Flugzeug ist im NASA Armstrong Flight Research Center auf der Edwards Air Force Base stationiert.

noaa-ron-brown

NOAA Research Ship Ronald H. Brown

Das NOAA-Forschungsschiff Ronald H. Brown wird auf der Vermessungsfahrt Tropical Atmosphere Ocean (TAO) vom 16. Februar bis 18. März 2016 (Honolulu bis San Diego) bis zu 8-mal täglich Radiosonden (Wetterballons) starten.

020216-junyent-SF-xband_600

Scanning X-Band Radar

Ein scannendes X-Band-Radar wurde vorübergehend in der südlichen Bucht von San Francisco installiert, um Abdeckungslücken im bestehenden Radarsystem zu schließen und genauere Niederschlagsschätzungen für die Region zu liefern, um mögliche Starkniederschläge und damit verbundene negative Auswirkungen von El Niño-Unwettern besser bewältigen zu können.

Kirimati Island Observations

Kiritimati Island Beobachtungen

Auf Kiritimati (Christmas) Island, etwa 1.340 Meilen südlich von Honolulu, wird ein Sondierungssystem mit Radiosonden eingerichtet, das von Ende Januar bis März 2016 kontinuierlich zweimal täglich vertikale Sondierungen vornimmt.

Das Bild wurde von der Internationalen Raumstation aus aufgenommen.

Weitere Informationen:

 

Das TAO/TRITON-Messnetz

Das Pacific Marine Environmental Laboratory (PMEL) der NOAA unterhält das weltgrößte System von im Ozean stationierten Wetterstationen, nämlich einen 8.000 Meilen langen Gürtel von ca. 70 instrumentenbestückten Bojen. Diese sind entlang des Äquators von Neu-Guinea bis Panama angeordnet, d.h. von ca. 8°N bis 8°S und von 137°O bis 95°W. Die gesammelten in situ-Informationen werden über das satellitengestützte Argos-System an das Institut übermittelt. Ursprünglich nur als Tropical Atmosphere-Ocean Array (TAO-Messnetz) bezeichnet, wurde es im Januar 2000 zu TAO/TRITON-Messnetz umbenannt, um der japanischen Beteiligung (JAMSTEC) mit ihren TRITON-Verankerungen Rechnung zu tragen.

1201_0170w

Service an einer Boje des TAO-Messnetzes

 

Quelle: NOAA - Pacific Marine Environmental Laboratory

Link: The TAO Story - Developing an El Nino
Observing System (NOAA / YouTube)

Dieses TAO-Messnetz ("Tropical Atmosphere-Ocean Array") misst ozeanographische und oberflächennahe meteorologische Variablen, die für das Erkennen, das Verstehen und die Vorhersage von saisonalen bis mehrjährigen Klimaschwankungen, die in den Tropen ihren Ausgang nehmen, von Bedeutung sind. Besonderes Augenmerk gilt ENSO-Ereignissen.

Per Satellitenübermittlung liefern die Bojen Klimaforschern und Wetterämtern rund um die Welt Echtzeit-Daten aus dem tropischen Pazifik. Das TAO-Messnetz wurde im Rahmen des 1994 abgeschlossenen internationalen TOGA-Programmes ("Tropical Ocean Global Atmosphere") eingerichtet. Die Notwendigkeit für die Etablierung eines solchen Ozean-Beobachtungssystems wurde in der Planungsphase für TOGA überdeutlich durch das Auftreten des extremen El Niño von 1982/83, der weder vorhergesagt, noch bis kurz vor seinem Höhepunkt als solcher erkannt wurde. Es fehlten Echtzeit-Daten.

SST-Messungen Pazifik

Bereich und Dichte von Temperaturmessungen der Meeresoberfläche

Standorte von Messungen der Meeresoberflächentemperatur aus dem International Comprehensive Ocean Atmosphere Data Set (ICOADS) für 20-Jahres-Perioden, beginnend mit der Periode 1860-1879 und endend mit 1980-1999. Die Farben repräsentieren den Prozentsatz der Monate mit mindestens einer Messung der Meeresoberflächentemperatur in jedem 2 Grad mal 2 Grad Rasterfeld. Je dunkler die Farbe, desto höher ist der Prozentsatz der Monate in jeder 20-Jahres-Periode, die eine Beobachtung aufweisen. NOAA Climate.gov Bild mit Daten von ICOADS.

Während es in den frühen 1980er Jahren einige Ozeanbeobachtungen von Schiffen, Bojen und Satelliten gab, existierte nichts mit den Fähigkeiten des TAO, bis... nun, TAO. Dies beinhaltet die Fähigkeit von TAO, nicht nur die Oberfläche, sondern auch den Untergrund im äquatorialen Pazifik zu messen. Der Untergrund kann der Ort sein, an dem sich die ganze "Action" in einem sich entwickelnden El Niño und La Niña abspielt, denn dort befinden sich die ozeanischen Kelvin-Wellen.

Zu größerer Darstellung auf Grafik klicken (Web)

Quelle: NOAA - Climate.gov

Schlüssel zur erfolgreichen Einrichtung von TAO war die Entwicklung von preisgünstigen ATLAS-Bojen ("Autonomous Temperature Line Acquisition System"), die wesentliche, für die Erforschung von ENSO wichtige Daten sammeln und übermitteln.

Jede Boje misst die Parameter Lufttemperatur, relative Luftfeuchte, wasseroberflächennahe Winde, Meeresoberflächentemperatur und Temperaturen des Wasserkörpers bis zu einer Tiefe von 500 Metern.

Zur Messung der Wasserströmung sind exakt entlang des Äquators (147°O, 165°O, 170°W, 140°W, 110°W) unter der Meeresoberfläche festverankerte Sensoren platziert. Es handelt sich um Acoustic Doppler Current Profiler (ADCP). Mit diesen Subsurface Current Meter Moorings werden auch die Parameter Druck und Temperatur gemessen. Alle Daten sind allerdings erst nach der Bergung der Messgeräte verfügbar.

In benachbarten ATLAS-Systemen werden in den oberen 300 m des Wasserkörpers an 4-5 Tiefenstufen ebenfalls die Strömungsverhältnisse gemessen. Diese Systeme liegen bei 165°O, 140°W und 110°W. Eine Echtzeit-Datenübertragung wird entwickelt.

Weitere Informationen über Temperatur und Salzgehalt aus der Tiefe liefern "Einweg"-Bathythermographen (XBT). Diese Geräte werden von Handelsschiffen ausgesetzt und übermitteln ihre Daten beim Absinken.

boje

Aufbau der Bojen am Beispiel einer
äquatorialen ATLAS-Boje

 

Quelle:
NOAA - Pacific Marine Environmental Laboratory

 

Sämtliche Daten des TAO-Messnetzes werden mit Hilfe von NOAA-Satelliten zum Pacific Marine Environmental Laboratory (PMEL) der NOAA weitergeleitet, wo sie aufbereitet und der internationalen Wissenschaft verfügbar gemacht werden. Das Messnetz wird im westlichen Pazifik auch in Kooperation mit Japan, Korea, Frankreich und Taiwan unterhalten.

Im westlichen Pazifik (W von 156°O) werden seit 1998 18 PMEL-Bojen durch leistungsfähigere TRITON-Bojen (Triangle Trans-Ocean Buoy Network) des Japan Marine Science and Technology Center (JAMSTEC) ersetzt. Hierbei erfolgt eine enge messtechnische Abstimmung zwischen PMEL und JAMSTEC, um vergleichbare Daten zu erhalten. Beide Datenserien werden in einen gemeinsamen Datenpool eingespeist und sind frei verfügbar.

Karte der verankerten Bojen im TAO/Triton Messnetz Karte der verankerten Bojen im TAO/Triton Messnetz

Quelle: NOAA - Pacific Marine Environmental Laboratory

Wasserstandsmessungen erfolgen zwar an Küsten von Kontinenten und Inseln, sowie durch Schiffe. Allerdings reicht das nicht aus, da beträchtliche Gebiete dadurch nicht abgedeckt werden. Messungen durch Handelsschiffe können nur in unregelmäßigen Abständen stattfinden, was die Verarbeitung der Daten verkompliziert. Deshalb stellt das TAO/TRITON-Messnetz eine wichtige Ergänzung dar (s. Karte unten).

Karte der Pegelmessstationen zusammen mit den verankerten Bojen und der
Satellitenflugbahn von TOPEX/Poseidon
(M.b.)

img008a

Quelle: NOAA - Pacific Marine Environmental Laboratory

An einigen der TAO-Bojen wurden 1996 vom Monterey Bay Aquarium Research Institute biologische und chemische Sensoren angebracht. Sie messen die CO2-Konzentration und die biologische Produktivität in diesen Gebieten. Daten über die biologische Aktivität des Meeres liefert auch der Meeresbeobachtungssatellit der NASA SeaWiFS (Sea-viewing Wide Field-of-View Sensor).

Das internationale CLIVAR-Projekt (Climate Variability and Predictability) ist der Nachfolger zu TOGA und wird die bestehenden Systeme zur Beobachtung von Atmosphäre und Ozean übernehmen und erweitern. Dazu wird auch ein dem TAO-System vergleichbares Messnetz entlang des äquatorialen Atlantik eingerichtet. Gleiches ist auch für den äquatorialen Indischen Ozean vorgesehen.

Detaillierte Informationen zum TAO-Projekt finden sich auf der Website von PMEL.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Webseiten, auf denen man aktuelle Messwerte dieser Bojen findet.

 

Höhenmessung (Altimetrie) mit Hilfe des Satelliten TOPEX/POSEIDON und Nachfolgemissionen (Jason 1 - 3)

Genaue Daten über Änderungen der Meeresspiegelhöhe liefern den Wissenschaftlern, die sich mit der gekoppelten Modellierung des Ozean-Atmosphäre-Systems befassen, wichtige Informationen zur Abschätzung von Änderungen im Wärmehaushalt der oberen Wasserschichten. Diese wiederum sind für die Vorhersage von El Niño- bzw. La Niña-Ereignissen von wesentlicher Bedeutung.

Grundlage für präzise Altimetermessungen ist die genaue Kenntnis des Geoids als Ausdruck des irdischen Schwerefeldes. Diesbezüglich hochgenaue Informationen liefern seit wenigen Jahren die CHAMP- und GRACE-Missionen.

Altimeter-Daten lieferte von 1992 bis 2006 vor allem der Satellit TOPEX/POSEIDON, ein Gemeinschaftsprodukt der amerikanischen Raumfahrtbehörde NASA und der französischen Weltraumbehörde CNES (Centre National d’Etudes Spatiales). Der Zweck des Satelliten war es, eine genaue Bestimmung der Höhe des Meeresspiegels relativ zum Erdmittelpunkt durchzuführen. Die ist von Ort zu Ort unterschiedlich.

Der mit einer Ariane 42P in seine Umlaufbahn gebrachte Satellit überflog die Erde in 1.336 km Höhe auf einer zu den Längengraden geneigten Bahn. Nach knapp zehn Tagen hatte er die Erde einmal vollständig umkreist und begann mit einem neuen Umlaufzyklus.

TOPEX/POSEIDON setzte Radar-Altimetrie ein, bei der Mikrowellen zur Wasseroberfläche gesandt und von dort reflektiert werden. Aus der Zeitspanne vom Senden eines Funkimpulses bis zu dessen Rückkehr nach Spiegelung an der Meeresoberfläche kann in Verbindung mit den genauen Lagedaten des Satelliten und anderen Bezugsgrößen die Meereshöhe bestimmt werden. Insbesondere benötigt man für die Satellitendaten die Informationen von Pegelstationen an Küsten und auf Inseln zur Kalibrierung.

Die Genauigkeit der Meeresspiegelmessungen liegen bei 1 bis 2 cm. Dabei werden Signale, die sich nur auf Gezeitenströme, Windschub und Atmosphärendruck beziehen, herausgerechnet. Die Datenauswertung erfolgt durch 38 Arbeitsgruppen in verschiedenen Ländern.

Das Programm TOPEX/POSEIDON war ursprünglich nur auf drei bis fünf Jahre anberaumt. Der 2001 gestartete Satellit JASON-1 sollte es ablösen. Während der zeitlichen Überlappung ihrer Aktivität wurden aber beide Satelliten in einer Tandemmission parallel genutzt. Jason-2, auch OSTM (Ocean Surface Topography Mission) genannt, folgte am 20. Juni 2008. Er wurde von Vandenberg aus auf eine 1340 km hohe zirkulare Kreisbahn mit 66° Bahnneigung gebracht. Der Satellit ist mit dem Zwei-Frequenz-Altimeter „Poseidon 3“ zur Bestimmung der Höhe von Meereswellen ausgerüstet.

Jason-3 wurde im Januar 2016 mit einer Falcon 9-Trägerrakete von der Vandenberg Air Force Base gestartet.

Missions - Basics

Jason_serie_lres

 

Quelle: NASA JPL

Jason-3
Launched: January 17, 2016

OSTM/Jason-2
Launched: June 20, 2008

OSTM/Jason-2 - Die Ocean Surface Topography Mission auf dem Jason-2-Satelliten ist ein Nachfolgeprojekt von Jason-1. Sie bringt ozeanographische Studien der Meeresoberflächenhöhe in einen operationellen Modus für die weitere Forschung zur Klimavorhersage sowie für wissenschaftliche und industrielle Anwendungen.

Jason-1
Launched: December 7, 2001, Decommissioned: July 2013.

Jason-1 führte die wichtigen ozeanographischen Daten-Zeitreihen von TOPEX/Poseidon fort; dazu trug er aktualisierte Versionen der gleichen Instrumente. Er flog 5 Jahre lang im Tandem mit TOPEX/Poseidon. (Siehe die Flash-Animation der Tandem-Mission für weitere Details).

Das neu gestartete Radarinstrument der NASA zur Beobachtung des Ozeans, SeaWinds, hat die Wut des Taifuns Olga eingefangen, der letzte Woche im Chinesischen Meer an Intensität zunahm, hohe Windgeschwindigkeiten von mehr als 50 Knoten (57 Meilen pro Stunde) aufwies und sintflutartige Regenfälle über Südkorea, Nordkorea und andere Küstengemeinden in Südasien brachte.

TOPEX/Poseidon
Launched: August 10, 1992, Decommissioned: January 2006.

Die TOPEX/Poseidon-Daten haben die Erforschung des globalen Ozeans revolutioniert. Zum ersten Mal wurden der jahreszeitliche Zyklus und andere zeitliche Variabilitäten des Ozeans global mit hoher Genauigkeit bestimmt, was grundlegend wichtige Informationen für das Testen von Ozeanzirkulationsmodellen lieferte. Wichtige Beobachtungen wurden mit TOPEX/Poseidon-Daten gemacht zu folgenden Themen

  • Ozeanische Zirkulation einschließlich Details zur Bewegung von Rossby- und Kelvin-Wellen
  • Ozeanische und küstennahe Gezeiten
  • El Niño, La Niña und die Pacific Decadal Oscillation
  • El Niño-ähnliche Zirkulation im Atlantik
  • Ozeanische Jahreszeiten im Mittelmeer
  • Topographie des Meeresbodens aus Oberflächendaten zur Optimierung des Geoidmodells

GRACE
Launched: March 17, 2002

GRACE - Gravity Recovery and Climate Experiment, fliegt zwei identische Raumsonden im Abstand von etwa 220 Kilometern auf einer polaren Umlaufbahn in 500 km Höhe und erstellt monatliche Karten des Geoids. Das Geoid ist eine hypothetische Oberfläche der Erde, die mit dem mittleren Meeresspiegel zusammenfällt. Sie steht an jedem Punkt senkrecht zur Erdanziehungskraft. Es ist die Basisfläche, auf der alle Altimetriedaten basieren.

SWOT
Anticipated Launch: 2022

Das Jet Propulsion Laboratory der NASA bietet aktuelle Grafiken und Hintergrundinformationen (Ocean Surface Topography from Space).

Die über 10-jährigen Erfahrungen mit den Altimeterdaten haben deren wissenschaftlichen Einsatzbereich deutlich erweitert. Hier ist eine Liste der Ziele aufrufbar.

Die folgenden dreidimensionalen Reliefkarten zeigen den Pazifik in seinem neutralen Zustand und während eines El Niño-Ereignisses. Die Wasseroberflächentopographie wurde mit Hilfe von TOPEX/POSEIDON ermittelt.

sst_prof_01jan

Neutraler Zustand des Pazifiks

Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, Januar 1997

Farb-Legende:

rot = 30 Grad Celsius - blau = 8 Grad Celsius

sst_prof_11nov

Zustand während der El Niño-Phase

Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, November 1997

sst_prof_03mar98

Zustand bei der ausklingenden El Niño-Phase

Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, März 1998

Quelle: NASA Earth Observatory

Beim neutralen Zustand (Abb. oben) ist ein scharf begrenzter Warmwasserkörper im westlichen Drittel des Pazifik zu erkennen. Gleichzeitig ist dort der Meeresspiegel als Folge der geringeren Dichte des warmen Wasserkörpers erhöht. Die Thermokline - im Bild der Übergang zwischen dem dunklen Blau unten und dem darüber liegenden Türkis - steigt vom zentralen Teil des Pazifiks nach Osten hin steil an. Ihre hohe Lage vor der südamerikanischen Küste ist Beleg für das dort stattfindende Upwelling.

Die El Niño-Situation zeigt eine Ostwärtsverlagerung des Warmwasserkörpers im Rahmen einer Kelvin-Welle. Der Meeresspiegel ist im östlichen Pazifik um bis zu 34 cm erhöht, die Thermokline zeigt sich deutlich abgeflacht.

Die beiden folgenden Bilder ermöglichen den Vergleich der Anomalien der Meereshöhen (SSH) während der El Niño-Ereignisse von 1997-1998 (Peak im November 1997) und 2015-2016 (Peak im Januar 2016). Das Bild von 1998 (links) stammt vom Satelliten TOPEX/Poseidon, das Bild von 2016 (rechts) vom Satelliten Jason-2.

Der jüngere El Niño dauerte länger als die Episode von 1997/98 und umfasste ein größeres Gebiet. Ansonsten waren die beiden ähnlich, aber keineswegs identisch, wie gewöhnlich gab es Unterschiede beim zeitlichen Ablauf und bei den Auswirkungen. Man muss sich auch bewusstmachen, dass es 2014/15 einen schwachen zentralpazifischen Niño gab, sodass der starke El Niño von 2015/16 eine Starthilfe hatte. Wenn man die beiden Bilder vergleicht, sieht man, dass der tropische Ostpazifik nördlich des Äquators im Juli 2016 noch immer ein großes Gebiet mit anomal positiven (wärmeren) Werten besitzt. Der Fußabdruck von El Niño ist noch stark.

TOPEX/Poseidon
July 5, 1998 Anomaly

TOPEX/Poseidon July 5, 1998 Anomaly

Jason-2
July 6, 2016 Anomaly

Jason-2 July 6, 2016 Anomaly

Die Daten zu diesen Bildern wurden von den Missionen TOPEX/Poseidon und Jason-2 aufgenommen.

Quelle: NASA / JPL

Weitere Informationen:

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Webseiten mit Karten der aktuellen Meeresoberflächenhöhen.

 

Messung von Windvektoren mit Scatterometern

Neben den beiden Parametern Meeresoberflächentemperatur und Meeresspiegel gehören Veränderungen der Meereswinde zu den wichtigsten Faktoren, die den Einfluss von ENSO auf das Erdsystem belegen. So gelten auf Meereshöhe anomal nach Osten wehende Winde im tropischen West- und Zentralpazifik als Vorläufer und als Hauptmotor von El Niño-Ereignissen.

Ein auf einem japanischen Satelliten basiertes Radarinstrument der NASA stellte von 1996-97 Daten über weltweite Windsysteme bereit. Danach erlitt der Trägersatellit ADEOS (Advanced Earth Observing Satellite) einen Stromausfall. Dieses Scatterometer (NSCAT) genannte Radar arbeitete im Mikrowellenbereich. Es konnte Wolken durchdringen, um durch Informationen über die Meeresoberfläche Aussagen über Windgeschwindigkeit und -richtung zu machen.

QuikSCATStart SeawindsQuikSCAT

QuikSCAT

Links: Start einer Titan II Trägerrakete mit dem QuikSCAT-Satelliten in Vandenberg/Cal. am 19.6.1999

Rechts: QuikSCAT-Satellit auf seiner elliptischen Umlaufbahn mit ihrer max. Höhe von 800 km Quelle: NASA

Seit 1999 war das NSCAT-System ersetzt durch das auf dem QuikSCAT-Satelliten (seit 2009 inaktiv) installierte SeaWinds-System. Es arbeitete ebenfalls mit einem Scatterometer. Die SeaWinds-Antenne sendete Mikrowellenimpulse mit einer Frequenz von 13,4 Gigahertz aus. Neben den Winddaten lieferte das Gerät auch Informationen über Wellen, Strömungen, Polareiseigenschaften und andere Phänomene. Das Gerät sammelte Daten von einem 1.800 km breiten Streifen, wobei es täglich 400,000 Messungen vornahm und 90 % der Erdoberfläche bestrich. Die SeaWinds-Daten werden sowohl für die Seewettervorhersage genutzt, wie auch für Vorhersage-Modelle. Wissenschaftler versprechen sich von ihnen wesentliche Verbesserungen bei kurzfristigen Warnmeldungen und bei kurz- bis langfristigen Vorhersagen.

quikscat_pazifik_1_8_99

Windgeschwindigkeiten und -richtungen über dem Pazifik am 1.8.1999, aufgenommen mit dem SeaWinds-Radar

Die starken Oberflächenwinde des Taifuns Olga (gelbe Spirale) können im Chinesischen Meer vor Südkorea ausgemacht werden. Der östlichen Nordpazifik wird von einem beständigen Hochdrucksystem beherrscht, dessen antizyklonale Fließrichtung starke Winde hervorbringt, die parallel zu den Küsten Kanadas und der USA strömen. Drei intensive Wintersturmzentren sind nördlich der Antarktis zu erkennen.

Das Radarinstrument der NASA zur Beobachtung des Ozeans, SeaWinds, hat die Wut des Taifuns Olga eingefangen, der im August 1999 im Chinesischen Meer hohe Windgeschwindigkeiten von mehr als 50 Knoten (57 Meilen pro Stunde) aufwies und sintflutartige Regenfälle über Südkorea, Nordkorea und andere Küstengemeinden in Südasien brachte. Quelle: NASA JPL

Ein Nachfolgeprojekt mit einem SeaWinds-System wurde an Bord des japanischen ADEOS-II im Jahr 2002 ins All gebracht, das allerdings nach kurzer Zeit als Folge eines Sonnensturms ausfiel.

Scatterometer, wie auch das verwandte Synthetic Aperture Radar (SAR) senden Mikrowellenimpulse aus und messen die Intensität des Signals, das zum Satelliten zurückkehrt, nachdem es an der Meeresoberfläche reflektiert wurde. Die Stärke des zurückgekehrten Impulses gibt einen Hinweis auf die Rauhigkeit der Meeresoberfläche. Eine rauhe Meeresoberfläche schickt einen schwachen Impuls zurück, da die Wellen an der Meeresoberfläche die Energie des Mikrowellenimpulses in verschiedene Richtungen streuen. Die Streuung vermindert die Energiemenge, die von dem Satelliten dann empfangen wird. Andererseits schickt eine glatte Meeresoberfläche einen starken Impuls zurück, weil der Streueffekt der Wellen gering ist. Die Oberflächenrauhigkeit ist abhängig von der Windgeschwindigkeit.

Scatterometer und SAR messen die Richtung in der sich die Wellen in Bezug zum Satelliten bewegen. Die Richtung der Wellen in Bezug auf den Radarimpuls wirkt sich auf die Polarisation des zurückgesandten Signals aus. Mit Hilfe dieser Grundlagen und mit mathematischen Formeln kann die Bewegungsrichtung der Wellen bestimmt werden.

nino97

Scatterometrie - Grundprinzip

Die Scatterometrie nutzt die Oberflächenrauhigkeit und den Pulswinkel, um Windrichtung und -geschwindigkeit zu ermitteln. Die Rückstreuung von Scatterometerimpulsen ist empfindlich für die Rauheit der Meeresoberfläche, die in Windgeschwindigkeit umgerechnet werden kann.

Die Rückstreuung ist auch empfindlich für die Impulsrichtung im Verhältnis zur Windrichtung.
Bei jeder Windgeschwindigkeit ist die zum Sensor zurückkehrende Rückstreuung
- maximal, wenn der Impuls gegen den Wind gerichtet ist
- minimal, wenn der Puls auf Seitenwind gerichtet ist

Quelle: CoastWatch

Aktuell messen ASCAT-Instrumente an Bord der europäischen MetOp-Satelliten Windgeschwindigkeit und -richtung über den Ozeanen.

Nach dem Ausfall des QuikScat-Satelliten installierte die NASA im September 2014 als rasche und kostengünstige Zwischenlösung das RapidSCAT-Instrument auf der Raumstation ISS.

El Niño-Ereignisse haben beträchtliche Auswirkungen auf das gesamte Erdsystem, und gleichzeitig werden sie in hohem Maße durch die beobachtbare Veränderung von drei Parametern des Systems erfasst: die Meeresoberflächentemperatur (SST), die Höhe der Meeresoberfläche (SSH) und die oberflächennahen Meereswinde. In der Tat sind die charakteristischen ostwärts wehenden Winde im tropischen West- und Ostpazifik sowohl Vorläufer als auch Hauptantriebskraft von El Niño-Ereignissen.

Die folgenden Abbildungen zeigen die von NASAs RapidSCAT beobachteten oberflächennahen Winde über den Weltmeeren. Die linke Karte zeigt die durchschnittlichen Windverhältnisse in der Zeit vom 3. Januar 2015 bis zum 3. Februar 2015. Die rechte Karte zeigt die Windanomalien im Januar 2016, bezogen auf 2015. In beiden Fällen stellen die Farben die Windgeschwindigkeit dar, die Pfeile geben die Richtung der mittleren bzw. anomalen Winde an. Das El Niño-Signal ist in der rechten Abbildung durch die ostwärts wehenden anomalen Winde im tropischen West- und Zentralpazifik deutlich erkennbar. Das El Niño-Signal ist auch deutlich in der anomal stärkeren Konvergenz im tropischen Ostpazifik, erkennbar an den dort stärkeren äquatorwärtigen Winden.

RapidScat
January 2015

Rapid Scat - January 2015

RapidScat
January 2016 Anomaly

Rapid Scat - January 2016 Anomaly

Die Daten zu diesen Bildern wurden vom auf der Raumstation basierten Instrument RapidScat (2014-2016) aufgenommen.

Quelle: NASA / JPL

Zusätzlich zu den Scatterometer-Messungen, die aktive Mikrowellen-Systeme einsetzen, werden die Geschwindigkeiten bodennaher Winde auch von einem passiven Mikrowellensensor an Bord eines militärischen Wettersatelliten gemessen. Das Gerät trägt die Bezeichnung "Special Sensor Microwave/Imager" (SSM/I).

 

Windmessungen mit Hilfe von "Windprofilern"

Im Pazifik wurde ein Netz von Windprofilern auf 6 abgelegenen Inseln installiert (Trans-Pacific Profiler Network, TPPN). Die Ortswahl soll die Datenlücken im tropischen Pazifik schließen helfen. Die Messergebnisse können für die tägliche Wettervorhersage verwendet werden, wie auch für das Verständnis und die Vorhersage von Phänomenen wie El Niño, die die jahresübergreifende Klimavariabilität in weiten Teilen der Erde beeinflussen. TPPN wird seit 2004 kostenbedingt als Programm nicht mehr weitergeführt, wohl aber gibt im pazifischen Raum auch künftig an mehreren, auch neu hinzugekommenen Standorten diese Technologie.

Transpazifisches Windprofiler-Netz

Transpazifisches Windprofiler-Netz

Das inzwischen aufgelöste TPPN war ein Netzwerk von Windmessinstrumenten an tropischen Inselstandorten, das sich über das Pazifikbecken erstreckte.

Quelle:
Earth and Space Research Group,
UC Santa Barbara

Gelände der Wind-Profiler-Station in Biak, Indonesien

Gelände der Wind-Profiler-Station in Biak, Indonesien


 

Quelle:
NOAA Aeronomy Laboratory

Windprofiler sind 50 MHz und 915 MHz Doppler-Radargeräte, die Vertikalprofile von horizontalen und vertikalen Luftbewegungen erstellen können. In Abhängigkeit von der Gerätefrequenz und den atmosphärischen Bedingungen können sie die Troposphäre bis in eine Höhe von 15 km beobachten. Zusätzlich können Informationen über Niederschlag und atmosphärische Turbulenzen gewonnen werden.

Die Windprofiler liefern direkte Messungen, die verwendet werden können um Schwerewellen, Konvektion und andere Prozesse zu untersuchen. Und sie liefern ohne Zusatzkosten kontinuierlich Daten. So dienen sie dem besseren wissenschaftlichen Verständnis

 

Ermittlung von Meeresoberflächentemperaturen mit Radiometern

Das in vier NOAA Satelliten installierte, vier- bzw. fünfkanalige Advanced Very High Resolution Radiometer (AVHRR) liefert Daten über die Temperatur der Meeresoberfläche. Es handelt sich um einen Breitband-Scanner. Der erste AVHRR-Sensor wurde im Oktober 1978 mit dem TIROS-N-Satelliten (Satellitenserie der NOAA) ins All befördert und hatte 4 Kanäle. AVHRR/2 folgte im Juni 1981 auf der NOAA-7-Plattform und hatte bereits 5 Kanäle. "Vierkanalig" bedeutet, dass das Instrument in vier verschiedenen Bereichen der sichtbaren, nahinfraroten und thermisch-infraroten Teile des Spektrums "sieht". Der fünfte Kanal neuerer Modelle verbessert die Messung der SST, indem er Korrekturen für die verzerrende Wirkung des atmosphärischen Wasserdampfes liefert.

Die dritte Version AVHRR/3 (mit nunmehr 6 Kanälen) startete im Mai 1998 mit NOAA-15 und findet sich auch auf dem aktuellen NOAA-19. Ein weiteres AVHRR/3-Instrument wurde im Oktober 2006 mit dem Satelliten Metop-A (EUMETSAT) in den Orbit gebracht. Auch auf den Folgesatelliten dieser Serie ist das Instrument installiert, so dass eine längerfristige Verfügbarkeit gesichert ist. Die Erfahrungen im operationellen Betrieb mit dem MODIS-Sensor an Bord der NASA-Satelliten Terra und Aqua führte zur Entwicklung von VIIRS, dem Nachfolger von AVHRR. VIIRS ist gegenwärtig an Bord des Satelliten Suomi National Polar-orbiting Partnership (frühere Bezeichnung NPOESS ) im Einsatz und wird auch an Bord des Joint Polar Satellite System im Spätjahr 2017 eingesetzt.

nino97

Mögliche El Niño-Telekonnektionen:

Anomalien der Windrichtung
und der Meeresoberflächentemperatur
in der Woche vom 22. bis 31.5.1997

 

Quelle: NASA (R.o.)

Die Graphik zeigt das frühe Stadium des El Niños 1997/98 und mögliche Telekonnektionen. Die weißen Pfeile stellen Anomalien der mit NSCAT ermittelten Oberflächenwinde dar, die Farben repräsentieren Anomalien der Meeresoberflächentemperaturen, die mit AVHRR gemessen wurden. Beide Parameter stellen die Situation für die letzte Woche im Mai 1997 dar. Auffällig sind die anomalen Westwinde im äquatorialen Westpazifik, die anomalen Südwinde entlang der mexikanischen und kalifornischen Küste sowie die Unterdrückung der äquatorialen und küstennahen Auftriebswässer und die nachfolgende anomale Erwärmung. Erkennbar ist eine "Pineapple Express" genannte Windströmung, die Feuchtigkeit aus der Gegend um Hawaii an die kalifornische Küste transportiert. Die Verstärkung der außertropischen zyklonalen Fließrichtung führt zu einem Zustrom von ungewöhnlich warmen Wassermassen.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Homepages mit Karten der aktuellen Meeresoberflächentemperaturen.

(s.a. Definition von Radiometer im Lexikon)

 

Messung der Relativen Luftfeuchte

Die Relative Luftfeuchte im 500 hPa-Niveau, welches sich vertikal etwa in der Mitte der für das Wettergeschehen wichtigen Troposphäre befindet, wird als Maß verwendet um in den folgenden Abbildungen Wechsel im atmosphärischen Feuchtigkeitsgehalt hervorzuheben. Die Tropen und die Sturmbahnen der Mittelbreiten sind typischerweise feucht, während die dazwischen liegenden Subtropen trockenere Luft aufweisen (Abb. links). Der El Niño 2015/16 hat im tropischen und subtropischen Ostpazifik zu einer deutlich höheren Relativen Luftfeuchte geführt und gleichzeitig zu viel trockeneren Bedingungen über Indonesien und Südostasien, was mit dem gleichzeitigen Rückgang der Niederschläge, den Dürrebedingungen und den häufigen Bränden übereinstimmt (Abb. rechts).

Relative Humidity at 500 hPa
November Average

airs_rh500_avg_11_lres

Relative Humidity at 500 hPa
November 2015 Anomaly

airs_rh500_anom_2015_11_lres

Die Daten zu diesen Bildern wurden vom Instrument Atmospheric Infrared Sounder (AIRS) auf dem NASA-Satelliten Aqua aufgenommen.

Quelle: NASA / JPL

Weitere Informationen:

 

Beobachtung der Cirrus-Wolken

Cirrus-Wolken sind Eiswolken, die in der oberen Troposphäre zwischen 5 und 13 km auftreten. Ihr Auftreten ist z.B. verbunden mit tropischer Konvektion und Winterstürmen in Kalifornien. Die Veränderungen in der Häufigkeit von Cirrus-Wolken ähnelt dem Muster mit dem sich die Relative Feuchte und die ausgehende Langwellenstrahlung ändern. Bezogen auf die Abbildungen unten (November 2015) ist anzumerken, dass es in den Monaten davor zu einer sehr starken Zunahme von Cirrus-Wolken über dem östlichen Pazifik und über dem südlichen Drittel der USA und über Mexiko gekommen ist und gleichzeitig zu einem aktiveren Subtropenjetstream, was sehr typisch für einen starken El Niño ist.

Cirrus Cloud Frequency
November Average

airs_icefreq_avg_11_lres

Cirrus Cloud Frequency
November 2015 Anomaly

airs_icefreq_anom_2015_11_lres

Die Daten zu diesen Bildern wurden vom Instrument Atmospheric Infrared Sounder (AIRS) auf dem NASA-Satellit Aqua aufgenommen

Quelle: NASA / JPL

Weitere Informationen: El Niño's effect on Cirrus clouds (NASA JPL)

 

Messung der Outgoing Longwave Radiation mit Radiometern

Beobachtungsdaten der ausgehenden Langwellenstrahlung (Outgoing Longwave Radiation, OLR) an der Obergrenze der Atmosphäre (Top of the Atmosphere, TOA) werden vom Advanced Very High Resolution Radiometer (AVHRR) an Bord der polumlaufenden NOAA-Wettersatelliten ermittelt. Die Datenaufnahme konzentriert sich auf äquatoriale Gebiete von 160° O bis 160° W. Die Rohdaten werden in einen standardisierten Anomalie-Index konvertiert. Negative (Positive) OLR zeigen verstärkte (unterdrückte) Konvektion an und damit stärkere (geringere) Wolkenbedeckung, was typisch für El Niño- (La Niña-) Episoden ist. Verstärkte (geringere) konvektive Aktivität im zentralen und östlichen äquatorialen Pazifik weist auf höhere (niedrigere) und kältere (wärmere) Wolkenoberseiten hin, welche entsprechend viel weniger (mehr) Infrarotstrahlung in den Weltraum ausstrahlen.

Outgoing longwave radiation Outgoing Longwave Radiation (OLR)

Die Daten der OLR an der Oberseite der Atmosphäre werden mit dem Instrument AVHRR an Bord der NOAA-Satelliten erfasst.

Negative (Positive) OLR weisen auf eine verstärkte (unterdrückte) Konvektion und damit auf eine für El Niño (La Niña)-Episoden typisch dichtere (geringerer) Wolkenbedeckung hin. Mehr (Weniger) konvektive Aktivität im zentral- und ostäquatorialen Pazifik bedeutet höhere (niedrigere), kältere (wärmere) Wolkenoberseiten, die viel weniger (mehr) Infrarotstrahlung in den Weltraum abgeben.

Quelle: NOAA

Weitere Informationen: Climate Prediction Center OLR page

 

Messung der Outgoing Longwave Radiation mit dem AIRS-Infrarotsounder

Outgoing Longwave Radiation (OLR) oder zu dt. ausgehende Langwellenstrahlung, ist die Thermalstrahlung oder Wärmeenergie, die von der Erdoberfläche und der Atmosphäre in Richtung Weltraum abstrahlt. Die OLR ist abhängig von Temperatur, Luftfeuchte und Wolken, und sie ist gewöhnlich über den subtropischen Wüstenregionen und den subtropischen Ozeanen am größten. Die OLR ist geringer in den höheren Breiten und ind den wolkigen und feuchten Teilen der Tropen. Der El Niño 2015/16 hat eine Verlagerung des üblichen geographischen Musters der OLR bewirkt: Der tropische Zentral- und Ostpazifik verzeichnet reduzierte OLR, verbunden mit verstärkter Konvektion und Feuchtigkeit, wohingegen im tropischen Westpazifik die OLR stark zugenommen hat.

Die OLR-Anomalien sind in den Folgemonaten verschwunden, da sich ab Mai 2016 eine Neutralphase ausgebildet hat. Eine Animation zeigt die mit AIRS auf dem NASA-Satelliten Aqua gemessenen OLR-Anomalien von Januar 2015 bis Juni 2016.

All Sky Outgoing Longwave Radiation
February Average

All Sky Outgoing Longwave Radiation - February Average

All Sky Outgoing Longwave Radiation
February 2016 Anomaly

All Sky Outgoing Longwave Radiation - February 2016 Anomaly

Die Daten zu diesen Bildern wurden vom Instrument Atmospheric Infrared Sounder (AIRS) auf dem NASA-Satelliten Aqua aufgenommen

Quelle: NASA / JPL

Weitere Informationen:

 

Beobachtung von Wasserdampf-Anomalien in der oberen Troposphäre

Diese Bilder zeigen die Wasserdampfanomalien in der oberen Troposphäre bei ca. 10 km Höhe jeweils am 7. November 2014 und 2015, bezogen auf 11-jährige Durchschnittswerte. Unter normalen Bedingungen sind die Meeresoberflächentemperaturen des tropischen Pazifik am wärmsten in seinem Westteil, etwa in der Gegend von Indonesien und am kühlsten in seinem Ostteil vor Südamerika. Stürme über den Ozeanen sind eine Folge von warmen SSTs, und Feuchtigkeit von solchen Systemen wird bis in die obere Troposphäre transportiert, wie man dies in den Kartendarstellungen erkennen kann. Die roten Werte zeigen überdurchschnittlich feuchte Bedingungen an und blaue überdurchschnittlich trockene. Die roten Flächen, die sich 2015 über dem Ostpazifik zeigen, aber nicht 2014 belegen, dass die SST sich vor der Küste Süd- und Mittelamerikas erwärmt haben, und dass die obere Troposphäre dank verstärkter tropischer Konvektion feuchter als im Mittel ist. Die Bilder wurden nach Daten des Instruments Microwave Limb Sounder (MLS) an Bord des NASA-Satelliten Aura generiert.

Nov, 2014 - 215 hPa H2O Anomaly

h2o_20141107_lres

Nov, 2015 - 215 hPa H2O Anomaly

h2o_20151107_lres

Feuchtigkeitsanomalien in 10 km Höhe nach Messungen des Instruments Microwave Limb Sounder (MLS) auf dem NASA-Satelliten Aura. Die Farben stehen entsprechend der Skala für trockenere, durchschnittliche und feuchtere Bedingungen verglichen mit Durchschnittswerten. Die Darstellung vom 7. November zeigt durchschnittliche Bedingungen.

Feuchtigkeitsanomalien in 10 km Höhe. Die Farben stehen entsprechend der Skala für trockenere, durchschnittliche und feuchtere Bedingungen verglichen mit Durchschnittswerten. Die Darstellung vom 7. November zeigt Bedingungen unter einem starken El Niño, da die Feuchtigkeit über dem Westpazifik deutlich größer als im Durchschnitt und der Ostpazifik viel trockener als im Durchschnitt ist.

Die Bilder wurden nach Daten des Instruments Microwave Limb Sounder (MLS) an Bord des NASA-Satelliten Aura generiert.

Quelle: NASA / JPL

 

Messung der Meeresoberflächentemperaturen mit Treibbojen

Treibbojen ("drifter", "drifting buoy") sind ozeanographische Instrumente, die aus einem Schwimmer an der Oberfläche bestehen, der an einem Treibanker befestigt ist. Sie liefern wichtige Informationen über den oberen Ozean wie Temperatur, Salzgehalt, Strömungsrichtung und -geschwindigkeit. Dies sind wichtige Grunddaten für die Erstellung von Klimavorhersagemodellen. Viele Drifter besitzen ein Driftsegel/Treibanker (engl. drogue), um die verfälschenden Wind- und Welleneinflüsse zu mindern. Er sorgt also dafür, dass die Drifter dem Wasser mit hoher Genauigkeit folgen. Oberflächenwellen, die häufig mehrere Meter übersteigen, und der Wind, der an der Meeresoberfläche weht, haben keinen Einfluss auf ihn.

Die Messdaten werden an Satelliten übermittelt, welche die Position der Drifter ermitteln und die Daten an Bodenstationen weiter leiten. Häufig findet sich die Bezeichnung "Lagrange'sche" Drifter. Die Bezeichnung entstammt der Hydrodynamik, benutzt den Namen eines Mathematikers und steht bei der Beschreibung von Strömungen für Teilchen, die sich mit der Strömung bewegen.

Treibbojen werden im Rahmen von Forschungsprogrammen wie WOCE oder TOGA eingesetzt.

...

Komponenten eines Drifters


Alle Drifter messen die Temperatur der Meeresoberfläche, aber die meisten sind auch für die Messung anderer Variablen ausgerüstet. Während sich der Drifter durch die Meeresströmungen bewegt, können Messungen des atmosphärischen Drucks, der Winde, der Wellenhöhe und des Salzgehalts vorgenommen werden. Diese Daten werden von Sensoren im Drifter erfasst und an Satelliten übertragen. Durch die Verfolgung der Position der Drifter im Laufe der Zeit können die Wissenschaftler ein Profil der Meeresströmungen erstellen.

Der Treibanker eines Drifters, auch Meeresanker genannt, reicht 20 Meter tief und ist so konzipiert, dass er sich mit den oberflächennahen Meeresströmungen bewegt. Der Treibanker und der Oberflächenschwimmer bewegen sich gemeinsam, verbunden durch eine lange Leine. Ohne Treibanker wird der Drifter von Wind und Wellen getragen, ähnlich wie ein Tischtennisball oder ein Strandball über die Oberfläche eines Schwimmbeckens geschoben wird.

Quelle: NOAA

Weitere Informationen:

 

Messung von Temperaturen im oberen Ozean mit Bathythermographen

Zum einmaligen Gebrauch bestimmte Bathythermographen  (XBT, Expendable Bathythermograph) werden seit Jahren von Ozeanographen eingesetzt, um Informationen über die ozeanische Temperaturstruktur bis in Tiefen von 1.500 m zu erhalten. Der XBT ist eine ("Wegwerf"-)Sonde, die von einem Schiff ins Wasser gelassen wird und beim Abtauchen die Temperatur misst. Ein zweiadriges, dünnes Kupferkabel überträgt die Daten zum Schiff, wo sie zur späteren Auswertung gespeichert oder an Satelliten zur Weiterleitung übermittelt werden. Die Sonde ist so konstruiert, dass sie mit gleichmässiger Geschwindigkeit fällt, so dass die jeweilige Tiefe der Sonde anhand der Zeit seit ihrer Wasserung ermittelt werden kann. Auf diese Weise kann die gemessene Temperatur mit der zugehörigen Tiefe verknüpft werden.

XBT-Sonde im Vorratsbehälter (links) und in Explosionsansicht (rechts)

Automatische Mehrfach-Startvorrichtung für XBT-Sonden

XBT-Start mit Einfachwerfer

 

xbtfigs2

XBT_auto_launcher

Quellen: NOAA / ARGO / PolarTREC

xbt_launch

 

 

XBTs werden gewöhnlich im Rahmen eines freiwilligen Beobachtungsprogramms durch Handels-, Kriegs- oder Forschungsschiffe (Ship Of Opportunity Program, SOOP) eingesetzt. Dazu hat die NOAA ein Instrumenten- und Übertragungssystem entwickelt, das die Daten von u.a. XBT-Messungen über Satelliten an Bodenstationen übermittelt.
Daten über die Temperaturen des oberen Ozeans sind insbesondere für die Entwicklung gekoppelter Atmosphäre-Ozean-Modelle wichtig.

Weitere Informationen: XBT Network (NOAA AOLM)

 

Niederschlagsmessung im Rahmen von TRMM und der Nachfolgemission GPM

Die japanisch-amerikanische Mission zur Messung des Niederschlags in den gesamten Tropen und Subtropen (Tropical Rainfall Measuring Mission, TRMM), die im November 1997 ihren Betrieb aufnahm und bis 2015 aktiv war, setzte zum ersten Mal im Weltraum aktive (Radar-) und passive Mikrowellendetektoren ein, die Informationen über Niederschlag, Bewölkung und Strahlungsvorgänge in den Tropen und Subtropen lieferten. Sie kombinierte damit auch Daten aus dem sichtbaren, infraroten und dem Mikrowellenbereich. Die Daten unterstützten auch operationelle Anwendungen wie Überschwemmungs- und Dürre-Monitoring und Wettervorhersagen.

TRMM über einem tropischen Wirbelsturm

trmm_in_space

Quellen:
NASA / NASA

Link:
Ausführliche FAQ-Liste
zur tropischen Meteorologie (engl.)

TRMM mit seinen fünf Instrumenten und deren Aufnahmemodi

trmm_instrument

Die Umlaufbahn des TRMM-Satelliten ist kreisförmig in einer Höhe von 350 km und überstreicht einen Bereich zwischen 35 Grad Nord und 35 Grad Süd. Für einen Umlauf benötigt der Satellit ca. 91 Minuten. Zu den beobachteten Gebieten gehören auch jene, in denen El Niño auftritt. Eine der bemerkenswertesten Auswirkungen von El Niño ist die fast weltweite Änderung der Niederschlagsmuster.

Vergleich der globalen Niederschlagsverteilung Januar 1998 / 1999 (Schwerpunkt Tropen)

Die Abbildungen zeigen die globale Niederschlagsverteilung für die Monate Januar 1998 (links) und Januar 1999 (rechts) nach den Beobachtungen des Niederschlagsradars von TRMM.

El Niño-bedingte Veränderungen der Niederschlagsverteilung im pazifischen Raum sind deutlich erkennbar.

Quelle: NASA SVS

 

Tropischer Niederschlag macht mehr als 2/3 des globalen Niederschlags aus. Er ist der hauptsächliche Verteiler von Wärmeenergie im System der planetarischen Zirkulation, da der Wechsel des Aggregatzustandes von Wasser (flüssig - gasförmig - flüssig) das Speichern von latenter Wärme ermöglicht. Das Verständnis des Niederschlags und seiner Variabilität ist entscheidend für das Verständnis des globalen Klimas und die Vorhersage seiner Veränderung. Unser gegenwärtiges Wissen über Niederschlag ist dünn, insbesondere über dem Ozean.

Satelliten messen den Niederschlag mit Hilfe der sichtbaren, infraroten und der Mikrowellenkanäle. Bei der Verwendung von Informationen aus dem sichtbaren und infraroten Bereich werden die Regenmengen vorhergesagt, indem man Formeln benutzt, die auf dem Wolkentyp, dem Prozentsatz wolkenbedeckter Fläche und einem numerischen Faktor basieren, welcher das Niederschlagspotential eines bestimmten Wolkentyps beschreibt.

Mikrowellensensoren können teilweise durch Wolken mit ihren Wassertröpchen hindurch "sehen". Bei Mikrowellenfrequenzen unter 50 GHz beeinflussen Wolken nur geringfügig das Signal, das vom Satelliten empfangen wird. Regentropfen hingegen haben eigentümliche Absorptions-, Streuungs- und Emisionseigenschaften im Mikrowellenbereich und beeinflussen stark das von den Satelliten empfangene Signal. Dieses Signal ändert sich in Abhängigkeit von der Anzahl und Größe der Regentropfen, die sich im Beobachtungsbereich des Sensors befinden.

Die TRMM ging im April 2015 offiziell zu Ende, nachdem sie 17 Jahre lang wertvollste Daten geliefert hatte, obwohl ihre vorgesehene Lebensdauer nur 3 Jahre betrug. Die nunmehr globale Nachfolgemission, die auf dem Erfolg von TRMM aufbaut, ist GPM Core Observatory, ein Satellit, der im Februar 2014 vom Tanegashima Space Center in Japan gestartet wurde.

new_average new_anomaly

Oben: Durchschnittlicher Niederschlag der vergangenen 30 Tage (mm/d)

Unten: Niederschlagsanomalien der vergangenen 30 Tage (mm/d)

Bezugsdatum: 12. August 2015

Der Vorgänger von GPM, die Tropical Rainfall Measuring Mission (TRMM), misst starken bis mäßigen Regen über tropischen und subtropischen Ozeanen. GPM bietet erweiterte Messungen, einschließlich der Abdeckung mittlerer bis hoher Breitengrade, verbesserte Schätzungen von leichtem Regen und Schneefall, erweiterte Schätzungen über Land und Ozean sowie die Koordination von Radar- und Mikrowellenabfragen zur Vereinheitlichung und Verfeinerung der Niederschlagsschätzungen einer Konstellation von Forschungs- und Betriebssatelliten. Das GPM liefert auch häufigere Beobachtungen, alle 2 bis 4 Stunden. Quelle: NASA (R.o.)

Weitere Informationen:

 

Beobachtung von Wolkensystemen mit geostationären Satelliten

Während eines El Niño-Ereignisses verlagert sich das Gebiet mit ausgeprägten tropischen Wolkensystemen vom Westpazifik zum zentralen und östlichen Pazifik. Die sich auftürmende Cumulonimbusbewölkung folgt dabei dem ostwärts wandernden pazifischen Warmwasserkörper. Die Verlagerung  der Wolkenkomplexe kann mit den amerikanischen Geostationary Operational Environmental Satellites (GOES) und den japanischen Geostationary Meteorological Satellites (GMS), bzw. dem Nachfolgesystem MTSAT beobachtet werden. GOES-West, stationiert über dem östlichen Pazifik und GMS, stationiert über dem westlichen Pazifk sind geostationäre Wettersatelliten, die zusammen eine komplette Beobachtung der Wolkentätigkeit über dem Pazifikbecken ermöglichen. Das wichtigste meteorologische Instrument für Wolkenaufnahmen ist das Visible and Infrared Spin Scan Radiometer (VISSR). VISSR arbeitet im sichtbaren und infraroten Bereich des Spektrums und wird eingesetzt um Tages- und Nachtbilder zu erhalten. Im sichtbaren Bereich werden Daten tagsüber alle 30 Minuten aufgenommen, im Infrarotbereich ebenfalls halbstündig, aber über den ganzen Tag hinweg.

geostat_polar

Geostationärer Satellitenorbit (GOES)

Der geostationäre Orbit ermöglicht es Satelliten, ein Phänomen oder ein Objekt mit großer Frequenz zu beobachten, was z.B. das GOES-System höchst nützlich macht für die Beobachtung von Naturgefahren wie Gewitter, Hurrikane, Brände, Vulkanausbrüche und Staubstürme.


Quellen: MetEd / UCAR (Zugang über kostenfreie Registrierung)

Im sichtbaren Kanal misst VISSR die Menge der sichtbaren Strahlung, die zum Satelliten zurück gestrahlt wird. Die mächigsten konvektiven Wolken reflektieren mehr Sonnenlicht und erscheinen am hellsten auf den Satellitenbildern. Im Infrarotkanal misst VISSR sowohl die Strahlungsmenge, die von der Erdoberfläche als auch jene, die von der Wolkenoberseite emittiert wird. Da die Oberseiten hoher Wolken tiefere Temperaturen haben als jene tieferer Wolken, emittieren sie weniger Strahlung. Diese Information kann zur Höhenbestimmung der Wolkenoberseiten verwendet werden. Die Kombination von Bildern aus dem sichtbaren und dem infraroten Bereich ist nützlich, wenn man mit dem Ziel Modelle zu erstellen, Wolkentypen klassifiziert. Die Computermodellierung von El Niño und anderen tropischen Wettersystemen erfordert u.a. die Kenntnis des Strahlungshaushaltes, da unterschiedliche Wolkentypen eine verschieden große Menge an Sonnenstrahlung auf die Erdoberfläche durchläßt und umgekehrt unterschiedliche Wärmemengen in obere Atmosphärenschichten gelangen lässt.

Meteorologen nutzen Wolkenmuster, um Wetterphänomene wie die ITCZ, tropische Wirbelstürme, Meeresbrisen und Tornados zu finden. Wolken bedecken fast zwei Drittel der Erdoberfläche und tragen dazu bei, die Strahlungsbilanz des Systems Erde-Atmosphäre zu regulieren. Die Satelliten-Fernerkundung ist die wichtigste Methode zur Beobachtung und Dokumentation der globalen Strahlungseigenschaften von Wolken. Eine Vielzahl neuer Satellitensensoren hilft den Wissenschaftlern außerdem, mehr über die Struktur, die Formen und die mikrophysikalischen Eigenschaften von Wolken zu verstehen.

clouds_vis_text_2

clouds_ir_text_2

Wolken markieren Wettererscheinungen über dem Südwestpazifik.

Links: Satellitenbild im sichtbaren Bereich des Spektrums

Rechts: Infrarot-Satellitenbild

Die 3-D-Natur von Wolken ist auf sichtbaren Satellitenbildern ersichtlich, in denen hervorstehende Wolken Schatten erzeugen, insbesondere bei niedrigen Sonneneinfallwinkeln (Abb. links). Die Höhe der Wolkendecke kann anhand von Satellitenmessungen der von der Wolkendecke emittierten IR-Strahlungsdichte geschätzt werden, die eine Funktion der absoluten Temperatur ist. Im Allgemeinen sind in den Tropen wärmere Wolkendecken niedriger und kältere Wolkendecken höher (Abb. rechts). In der letzten Jahren haben neue Satellitensensoren mit gleichzeitigen, mehrwinkligen Beobachtungen 3-D-Ansichten von Wolken geliefert.

Quelle: MetEd / UCAR (Zugang über kostenfreie Registrierung)

Die hohe Bildwiederholfrequenz erlaubt es den Wissenschaftlern, Wolkenbewegungen und -entwicklungen sowie die Bildung von tropischen Stürmen während eines El Niño-Ereignisses genau zu beobachten. Die Verfügbarkeit von raschen Bildfolgen ist entscheidend für die Beobachtung der rasch entstehenden tropischen Stürme. Tropische Stürme können sich zu Hurrikanen entwickeln und sich auf bewohnte Inseln und dicht bevölkerte Küstenstriche zu bewegen. Das Bildmaterial erlaubt auch die Abschätzung der zu erwartenden Niederschlagsmengen. Dieser Satellitentyp eignet sich demnach vor allem für kurzfristige Warnungen.

Zwei weitere geostationäre Satellitensysteme, INSAT und METEOSAT ermöglichen es Meteorologen die Telekonnektionen zu untersuchen, die z.B. mit El Niño-bedingter Wolkenaktivität über dem Indischen und dem Atlantischen Ozean verbunden sind.

 

Erhebung bio-optischer Daten mit Hilfe von SeaWiFS

Mikroskopische Pflanzen im Wasser, das sogenannte Phytoplankton, enthalten Chlorophyll und andere Farbpigmente. Diese tragen zur Farbe des Ozeans bei, die abhängig von der Konzentration des Phytoplanktons variiert.

seastar_orbit

Quelle: NASA

 

seawifs_bench

 

 

Links: Der SeaStar-Satellit im Orbit (M.b.)

Verschiedene Farben des Ozeans zeigen das Vorhandensein verschiedener Arten und Mengen von marinem Phytoplankton an, das eine Rolle beim Austausch von wichtigen Elementen und Gasen zwischen der Atmosphäre und den Ozeanen spielt. Der Satellit überwachte auch kleinste Veränderungen in der Farbe des Ozeans überwachen, um Veränderungen in der Menge des marinen Phytoplanktons zu beurteilen. Er lieferte Daten, um besser zu verstehen, wie diese Veränderungen die globale Umwelt und die Rolle der Ozeane im globalen Kohlenstoffkreislauf und anderen biogeochemischen Kreisläufen beeinflussen. Die Mission war eine Fortsetzung des Coastal Zone Color Scanners (CZCS) und erfasste die Ozeane alle zwei Tage vollständig.

Rechts: Das SeaWIFS-Instrument

Nur ein Instrument wurde mitgeführt: der Sea-viewing Wide Field-of-view Sensor (SeaWiFS). Bestehend aus einem optischen Scanning-Teleskop und einem Elektronikmodul, bildete SeaWiFS die Ozeane der Erde in 8 Frequenzbändern ab. Das Scanning-Teleskop rotierte mit sechs Umdrehungen pro Sekunde in der Querrichtung, um eine Scan-Abdeckung mit einer räumlichen Auflösung von 1,13 km zu erreichen.

SeaWiFS (Sea-viewing Wide Field-of-view Sensor) ist ein inzwischen inaktives Instrument, das in der Lage war, diese geringfügigen Farbunterschiede zu registrieren. Es bestand aus einem optischen Scanner im sichtbaren und nahen Infrarot-Bereich sowie einem Elektronikmodul. SeaWiFS war das Nachfolgeexperiment des Coastal Zone Color Scanners an Bord von Nimbus 7. An Bord des GeoEye-Satelliten Orb-View-2 (auch bekannt als SeaStar) lieferte es aktuelle Daten zur Farbe der Ozeane und damit zur Menge und zur Art des Phytoplanktons in einem bestimmten Gebiet. Dies wiederum erlaubte Rückschlüsse auf den Zustand des Ozeans.

SeaStar wurde 1997 mit einer Pegasus-Rakete aus einem Flugzeug in etwa 10 km Höhe in den Erd-Orbit befördert, wo er in 278 km Höhe abgesetzt wurde. Mit einem eigenen Antrieb flog SeaStar dann zu seiner endgültigen Position in 705 km Höhe, wo er in sonnensynchronem Orbit die Erde umkreist. Das Projekt SeaWiFS gehört zum NASA-Programm Earth Observing System. Der Satellit ging Mitte 2011 verloren.
Die Aufgabe des Instruments bestand darin, große Mengen an Daten über die biooptischen Eigenschaften der Ozeane zu sammeln. Kaum sichtbare Unterschiede in der Farbe der Ozeane weisen auf verschiedene Arten und Konzentrationen von Phytoplankton hin.

Mit SeaWiFS konnte man feststellen, dass die Chlorophyll-Konzentration in einem großen Bereich des Pazifiks durch El Niño 1997/98 dramatisch reduziert wurde. Es war also bedeutend weniger Phytoplankton vorhanden. Im Sommer 1998 mit La Niña-Bedingungen gab es dann jedoch ein großes Wachstum mikroskopischer Algen in der Region.
Da Phytoplankton an erster Stelle in der Nahrungskette steht, hatte dies auch einen enormen Einfluss auf alle anderen Lebewesen im Wasser. Besser als je zuvor konnte der enorme Einfluss von El Niño auf die Tier- und Pflanzenwelt gezeigt werden. Man erkannte aber gleichzeitig auch, wie schnell sich der Ozean danach wieder erholt hat. Der Grund für die Reduzierung des Phytoplanktons war der ausbleibende Auftrieb nährstoffreichen Wassers, wodurch dem Phytoplankton die Nahrungsgrundlage entzogen wurde.

Mit dem Rückgang der Primärproduktion in den küstennahen Auftriebsgebieten und den äquatorialen Divergenzgebieten während El Niño-Ereignissen sollte man mit einer Zunahme der CO2-Abgabe des Ozeans an die Atmosphäre rechnen. Schließlich führt die verminderte Phytoplanktonproduktion zu erhöhten CO2-Konzentrationen in den oberen Wasserschichten und zu einer reduzierten Aufnahme von atmosphärischem CO2 durch den Ozean. In Wirklichkeit nimmt jedoch die CO2-Konzentration in der oberen Durchmischungsschicht ab. Zum Verständnis muss man wissen, dass die äquatorialen Divergenzgebiete durch das Upwelling von CO2-reichen Tiefenwässern bedeutende Bereiche für die Abgabe von CO2 an die Atmosphäre sind. Während El Niño-freien Jahren ist der aufwärtige Transport besonders stark, und damit auch die Abgabe von CO2 an die Atmosphäre. Dieser Effekt überkompensiert die Bindung von ursprünglich atmosphärischem Kohlendioxid durch die wegen des Nährstoffnachschubs verstärkte Primärproduktion.

Man schätzt, dass beim El Niño 1997/98 - verglichen mit dem Vorjahr - eine CO2-Menge, die etwa der Hälfte der jährlichen CO2-Abgabe durch die Verbrennung fossiler Brennstoffe in den USA entspricht, weniger in die Atmosphäre abgegeben wurde.

 

Durch das Verständnis des Ausmaßes der riesigen Planktonblüte konnten die Wissenschaftler berechnen, wie die Veränderungen der biologischen Aktivität massive Veränderungen des Kohlendioxids verursachten. Die Wissenschaftler stellten fest, dass El Niño die Menge des in die Atmosphäre abgegebenen Kohlendioxids um 700 Millionen Tonnen verringerte. Normalerweise setzen die tiefen Gewässer der Ozeane große Mengen an Kohlendioxid frei. Während El Niño wurde das kohlenstoffdioxidreiche Wasser unter der Oberfläche gehalten.

Daten zur Farbe des Ozeans liefern weiterhin beipielsweise die Instrumente MODIS auf den Satelliten Terra und Aqua, OLI auf Landsat-8 oder VIIRS auf Suomi-NPP.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Internet-Seiten, auf denen man Karten mit der aktuellen Chlorophyll-Konzentration in den Weltmeeren findet.

 

Neuere Beobachtungsmethoden

Wissenschaftler der GFZ-Sektion Erdsystem-Modellierung entwickeln einen neuen Weg zur ENSO-Beobachtung: Die Betrachtung der ozeanischen Magnetfelder, die aus der Wechselwirkung zwischen Erdmagnetfeld und Gezeitenströmung entstehen. Sie könnte die Vorhersage von ENSO-Ereignissen verbessern und grundlegende Prozesse erklären helfen.

Die durch ENSO verursachten Veränderungen in Temperatur und Salzgehalt des Meerwassers haben einen unmittelbaren Einfluss auf die elektrische Leitfähigkeit des Wassers. Die Leitfähigkeit wiederum beeinflusst die Stärke des ozeanischen Magnetfelds, das durch Wechselwirkungen zwischen Erdmagnetfeld und Gezeiten entsteht. Die Wissenschaftler zeigen in einer numerischen Modellstudie, dass Messungen dieser Magnetfeldstärken das Potenzial haben, als früher Indikator für das Auftreten eines El Niño oder La Niña-Ereignisses zu dienen. Ihre Ergebnisse veröffentlichten sie 2018 in der Fachzeitschrift Ocean Science.

Mithilfe eines Ozean-Atmosphäre-Modells simulierten die Wissenschaftler ozeanische Strömungen, Temperaturen und Salzgehalte über eine Zeitspanne von 50 Jahren. Daraus berechneten sie die ozeanischen Magnetfeldstärken.Sie konnten zeigen, dass in ihrer Simulation einem ENSO-Ereignis immer eine veränderte Amplitude des Gezeitenmagnetfeldes vorausging. Und zwar statistisch etwa vier Monate bevor die ebenfalls typischen Temperaturveränderungen an der Wasseroberfläche auftreten. Grund dafür ist, dass sich vor einem ENSO-Ereignis das vertikale Temperaturprofil im äquatorialen Pazifik verändert, also die Temperaturverteilung in der Tiefe. Das hat eine Änderung in der ozeanischen Leitfähigkeit zur Folge die sich auf die ozeanischen Magnetfeldstärken auswirkt.

Bisher gelingen Magnetfeldmessungen in ausreichender Genauigkeit für eine ENSO-Vorhersage nur im Labor. Mit verbesserter Technik könnte jedoch in Zukunft eine auf den Veränderungen des Gezeitenmagnetfelds basierende Vorhersage für ENSO-Ereignisse möglich werden und die negativen Folgen für beispielsweise die Fischereiindustrie abmildern. (GFZ)

 

ENSO-Vorhersagen

Überblick

Das primäre Ziel einer ENSO-Vorhersage ist es, die relative Wahrscheinlichkeit von regionalen Klimaanomalien besser zu prognostizieren (Goddard & DeWitt 2005). Die Fähigkeit, El Niño- und La Niña-Ereignisse verlässlich mit ihren Amplituden, Zeitverläufen und Strukturen vorherzusagen, ist äußerst wichtig, da diese Ereignisse in der Regel mit konstanten Klimaschwankungen in den Tropen verbunden sind und sogar die Atmosphäre auf der ganzen Welt beeinflussen können.

In den letzten Jahrzehnten wurden viele Fortschritte gemacht, damit El Niño und La Niña und ihre globalen Folgen besser verstanden werden können. Vorhersagen können von großem Wert sein u. a. für Behörden, Katastrophenmanager, Wasserwirtschaftler, Landwirte, Fischer und Einzelpersonen in potentiell von extremen Witterungsereignissen betroffenen Regionen.

Tatsächlich ist das Interesse an ENSO-Vorhersagen nicht neu. Der erste Versuch, einen El Niño vorherzusagen, wurde 1974, vor gut 45 Jahren, von Bill Quinn von der Oregon State University und Klaus Wyrtki von der University of Hawaii unternommen. Sie wurden durch den El Niño von 1972-73 motiviert, der einen Zusammenbruch der peruanischen Sardellenfischerei, der damals größten der Welt auslöste, mit Folgen, die sich auf die gesamte Weltwirtschaft auswirkten (Glantz, 2001). Ihre Hoffnung war es, ein zuverlässiges Prognoseverfahren zu entwickeln, mit dem zukünftige El Niño-Ereignisse weit genug im Voraus antizipiert werden können, um Präventivmaßnahmen zu ergreifen. (McPhaden et al. 2015)

Als Reaktion auf den El Niño 1982-83 expandierte die Überwachung und Modellierung von ENSO rasant (s. Klimamodelle). Eine der ersten Errungenschaften war die erfolgreiche Prognose des El Niño von 1986-87, mit Vorlaufzeiten von 3 bis 9 Monaten durch Mark Cane und Steve Zebiak am Lamont-Doherty Geological Observatory, Columbia University. (MetEd/UCAR)

Die seitherige, aber nicht durchgängige Verbesserung der Vorhersagbarkeit von ENSO-Ereignissen in den letzten Jahrzehnten kann mehreren Faktoren zugeschrieben werden. Vor allem die erheblich optimierten Systeme der Datenverarbeitung, Datenanalyse und -assimilation, schnellere Computer mit höherer Speicherkapazität und ein gesteigertes Verständnis der physikalischen Vorgänge des tropischen Ozeans und der tropischen Atmosphäre, die der Entwicklung des ENSO-Phänomens zu Grunde liegen, sind dafür verantwortlich.

Auch hat theoretische Arbeit von Wissenschaftlern zum Verständnis destabilisierter äquatorialer Wellen (Philander et al., 1984) und einer Theorie für den Übergang zwischen warmen und kalten Zuständen geführt (z.B. der sogenannte delayed oscillator oder der recharge oscillator, Suarez und Schopf, 1988; Battisti und Hirst, 1989; Jin, 1997; Kirtman, 1997). Darüber hinaus beschreibt dieses theoretische Verständnis deutlich die wissenschaftliche Grundlage für ENSO-Vorhersagen, dass nämlich die Wärmestruktur unter der Ozeanoberfläche oder auch Verlagerungen der Thermokline Vorläufer für ENSO-Ereignisse sind und somit für Vorhersagen verwendet werden können. (National Research Council 2010)

Mittlerweile gilt das ENSO-Phänomen als die am besten vorhersagbare kurzzeitige Schwankung des Klimasystems der Erde. Dennoch sind die Grenzen der Vorhersagbarkeit weiterhin Gegenstand intensiver Diskussion.

Datenerhebung für die Vorhersagen

Aufgrund der sozialen Auswirkungen auf die Ankündigung eines sich entwickelnden El Niño müssen die Messungen verifiziert und genau sein. Ein ENSO-Indikator ist der Southern Oscillation Index (SOI), der aus der Druckdifferenz zwischen Tahiti und Darwin berechnet wird. Der SOI ist in El Niño-Jahren negativ und in La Niña-Jahren positiv. Da die SOI-Messungen lokale Schwankungen und Wetterstörungen widerspiegeln können, berechnen Wissenschaftler in der Regel die Messwerte über einen Zeitraum von 5 Monaten, um festzustellen, ob die Druckschwankungen auf ein Großereignis hinweisen.

Darüber hinaus unterhält die NOAA im Bereich des äquatorialen Pazifiks ein System von Überwachungsbojen, das Tropical Atmosphere Ocean (TAO) Array. Die Bojen erfassen und übertragen Temperaturen von der Wasseroberfläche und dem oberen Wasserkörper, Daten der atmosphärischen Bedingungen, Wasserströmungen und Winddaten in Echtzeit an Wissenschaftler und Forscher auf der ganzen Welt.

Auch die automatisierten Treibbojen des internationalen Argo-Programms mit ihren Messungen zu Temperatur, Leitfähigkeit und Druck in der Wassersäule.sind hier zu nennen.

Weitere Verfahren sind bereits im ersten Teil dieses Kapitels vorgestellt.

Vorgehensweise bei den Vorhersagen

Man kann die mit El Niño und La Niña einhergehenden Schwankungen der Oberflächentemperatur des tropischen Pazifiks als einen quasiperiodischen Zyklus verstehen, der im Prinzip vorhersagbar ist. Allerdings, bedingt durch die chaotische Natur des Klimasystems, verläuft dieser Zyklus nicht streng periodisch und kann deshalb nicht perfekt prognostiziert werden. Die Vorhersagen basieren auf statistischen und physikalischen Modellen. Letztere sind i. a. gekoppelte Ozean-Atmosphäre Modelle. Da die Kurzfristklimavorhersage - wie auch die Wettervorhersage - im mathematischen Sinne ein Anfangswertproblem ist, muss der Zustand des Systems zu Beginn der Vorhersage bekannt sein.

Mit Hilfe des TOGA-TAO-Arrays stehen wertvolle Informationen aus verschiedenen Tiefen des äquatorialen Pazifik zur Verfügung. Diese werden in die gekoppelten Modelle „assimiliert“, um einen möglichst dynamisch balancierten Anfangszustand für die Vorhersage zu erhalten.

ENSO-Vorhersagen werden im Prinzip wie Wettervorhersagen durchgeführt. Der für ENSO-Vorhersagen wichtige ozeanische Anfangszustand kann für die gekoppelten Ozean-Atmosphäre-Modelle auf unterschiedliche Art und Weise ermittelt werden. Man kann z. B. die Geschichte der beobachteten Windschubspannungen verwenden, um die Ozeankomponente anzutreiben und die Vorhersagen zu initialisieren. Diese Methode liefert eine geeignete Präkonditionierung des Ozeans, da Veränderungen seiner Dichtestruktur sich vor allem auf Windschubveränderungen zurückführen lassen. Andere Verfahren benutzen die Geschichte der beobachteten Meeresoberflächentemperaturen, und wiederum andere Verfahren assimilieren die dreidimensionale ozeanische Dichtestruktur ins Ozeanmodell, wie sie das TAO-Array liefert. Anomalien der Meeresoberflächentemperatur im äquatorialen Pazifik, einer der wichtigsten Parameter, sind mit heutigen Zirkulationsmodellen bis zu sechs Monate im vorhersagbar. Dies ist eine bescheidenere Zeitspanne als in der Vergangenheit noch angenommen. (Latif 2003, 2011)

Um zufällige Schwankungen herauszufiltern, mittelt man über viele Vorhersagen mit verschiedenen Anfangsbedingungen (Ensemblevorhersagen). Die Berechnung des Mittelwerts dieser Ensemblevorhersagen führt zu einer "Konsensvorhersage", die der Einzelvorhersage eines einzelnen Modells überlegen ist.

Die Vorhersage des Beginns und der Dauer von ENSO-Phasen schafft die Basis für die routinemäßige Bereitstellung von saisonalen Klimavorhersagen und diesbezügliche Informationen und Dienste für Gebiete, die von ENSO betroffen sind. Während die Vorhersagbarkeit von ENSO auf stabilen wissenschaftlichen Grundlagen beruht, ist die Vorhersage seiner globalen Auswirkungen deutlich schwieriger, da diese oft im regionalen Rahmen geschehen und von regionalen und/oder lokalen Effekten beeinflusst werden können.

Studien über die Vorhersagbarkeit von ENSO sind herausfordernd. Sie erfordern die multidisziplinäre Zusammenarbeit zwischen verschiedenen Wissenschaftsbereichen, einschließlich Meteorologie, Ozeanographie, Mathematik und Physik.

ENSO zu verstehen, ist nach wie vor ein Problem, das sich aber zu lösen lohnt. Es gibt wenige oder vielleicht gar keine anderen natürlichen Klimasignale mit halb-regelmäßigem Auftreten, deren Vorhersage so umfassende Auswirkungen haben kann. Allerdings ist die Wissenschaft noch nicht an diesem Punkt. Vor allem ist sie weiterhin von der Verschiedenartigkeit der einzelnen ENSO-Ereignisse überrascht.

Die folgende Tabelle von MetEd/UCAR (modifiziert) enthält eine Webseiten-Liste mit ENSO-Vorhersagen.

ENSO / Tropical Pacific SST Predictions (MetEd/UCAR)
Latest El Niño/La Niña Advisory
National Center for Environmental Prediction (NCEP)
Official NWS forecasts and outlooks for the US
NOAA/NWS Climate Prediction Center
Forecast Forum
Technical discussion of forecasts from different centers
ENSO predictions
NOAA PMEL
Summary of ENSO Model Forecasts
International Research Institute for Climate and Society (IRI)
El Niño and other Experimental Results
Predictive Ocean Atmosphere Model for Australia
CFS Forecast Seasonal Climate Anomalies
NCEP Environmental Global Climate & Weather Modeling Branch
Experimental El Niño Forecast
Scripps Institution of Oceanography / Max Planck Institute for Meteorology Prediction model
Seasonal Forecasts
NOAA Earth System Research Laboratory
Equatorial Pacific SSTA forecasts
Lamont-Doherty Earth Observatory of Climate Modeling Group, Columbia University
Pacific ENSO Update
National Weather Service
German Climate Forecast System
Arbeitsgruppe aus Mitgliedern von CEN (UHH), MPI-M und DWD
Schaltfeld "Vorhersagen auswählen" öffnen

Genauigkeitsprobleme bei den Vorhersagen und ihre möglichen Ursachen

Die Prognosefähigkeit der Modelle ist aufgrund einer Reihe von Faktoren in manchen Jahrzehnten und Jahren besser und in anderen geringer. Unabhängig vom eingesetzten ENSO-Vorhersagemodell (s. u. Klimamodelle), ist die ENSO-Vorhersage beispielsweise zu bestimmten Jahreszeiten schwieriger als in anderen. El Niño- oder La Niña-Episoden entwickeln sich üblicherweise zwischen April und Juni und dauern dann bis zum folgenden Februar oder bis zum Mai. Wenn sich eine Episode im frühen Nordsommer entwickelt, ist die Vorhersage ihrer weiteren Entwicklung nicht sehr schwierig. Eine Vorhersage ist viel schwieriger für die Zeit zwischen März und Juni, wenn sie im vorangehenden Zeitraum Januar-April getroffen werden soll. Man bezeichnet die Schwierigkeit zu dieser Jahreszeit als "Frühlings(vorhersage)barriere" (spring barrier). Dies bedeutet, ein El Niño kann bereits im Gange sein, bevor die Modelle seine Erscheinung vorhersagen. Stochastische Prozesse, externe Antriebe durch Wetterereignisse helfen, die ENSO-Variabilität aufrechtzuerhalten. Ab Ende April wird die Vorhersage für den Rest des Kalenderjahres und die ersten Monate des Folgejahres zunehmend leichter. Die dynamischen Prozesse, die zur Frühlingsvorhersagebarriere beitragen, sind noch nicht wirklich verstanden.

ENSO wird auch durch dekadische Schwankungen wie die Pacific Decadal Oscillation moduliert, was zu den Vorhersageproblemen beiträgt.

Klimaforschern gelang es vor über zwei Jahrzehnten, den El Niño 1997/98 schon Anfang Januar 1997 vorherzusagen. Jedoch kamen nicht alle Klimamodelle zu diesem Schluss, manche errechneten sogar eine leichte Abkühlung des Pazifiks. Zudem haben alle Modelle das Ausmaß der mit El Niño einhergehenden Warmwasserströmung nach Osten unterschätzt, auch wurde sein rasches Einsetzen nicht erkannt. (Barnston et al., 1999) Als im Mai 1997 die El Niño-Warnung ausgesprochen wurde, hatte der Nordwesten Südamerikas nur etwa einen Monat Zeit, sich auf die Zeit der größten Auswirkungen vorzubereiten, während andere Regionen eine längere Vorlaufzeit hatten bis die stärksten Auswirkungen eintraten. Immerhin ist dieser El Niño der erste, der weltweit von Anfang bis Ende beobachtet wurde, und es war das erste Mal in der Menschheitsgeschichte, dass Überflutungen und Dürren Monate vor ihrem Auftreten vorhergesagt wurden. Eindeutige Gewinner bei den Modelltypen waren die gekoppelten Ozean-Atmosphäre-Modelle.

Seit den 90er Jahren haben Prognosesysteme für Jahreszeitenvorhersagen in den großen meteorologischen Zentren eine stetig wachsende Fähigkeit zur Vorhersage der tropischen pazifischen SST-Anomalien in retrospektiven Prognosen der letzten 35 Jahre bewiesen (z. B. Ji et al. 1994; Saha et al. 2006, 2014; Stockdale et al. 1998, 2011; Molteni et al. 2011). Viele Prognosemodelle prognostizierten im operationellen Betrieb den Beginn der starken El Niño-Saison 1997/98 1-2 Jahre im Voraus (Barnston et al. 1999). Ein ähnlicher Erfolg kann auch für das jüngste starke El Niño-Ereignis 2015/16 verzeichnet werden (z.B. IRI). Wie Barnston et al. (2012) zeigen, wurden auch große La Niña-Ereignisse, wie die in den Jahren 2007/08 und 2010/11, saisonal gut prognostiziert.

Eine Umfrage unter deutschen und nordamerikanischen Klimaforschern bezüglich der Brauchbarkeit von Klimamodellen (Bray und von Storch, 1999) brachte aufgrund der uneinheitlichen Vorhersagen eine überwiegende Skepsis der Forscher zum Ausdruck.

Im Allgemeinen ist die ENSO-Vorhersagefähigkeit in den 2000er Jahren im Vergleich zu den 1980er und 1990er Jahren zurückgegangen (z.B. Barnston et al. 2012; Zhao et al. 2016), trotz zunehmender Ozeanbeobachtungen in diesem Zeitraum (Kumar et al. 2015). Dieser Rückgang fiel zeitlich mit dem häufigeren Auftreten von Warm Pool El Niño-Ereignissen (z.B. Kao und Yu 2009; Kug et al. 2009) und länger anhaltenden La Niña-Ereignissen (z.B. Hu et al. 2014) zusammen.

Nach wie vor bestehen auch Probleme bei der Vorhersage der Intensität von ENSO-Ereignissen. Bei El Niño-Ereignissen sieht man einen Grund in der Rolle der Winde während eines El Niños. Unter Nicht-El Niño-Bedingungen wehen Passatwinde über den Pazifik. Aber wenn ein El Niño beginnt und sich das warme Wasser verteilt wurde, erzeugt dieses großflächig verteilte warme Wasser atmosphärische Konvektion, welche starke westliche Winde hervorrufen kann. Diese können wiederum El Niño beschleunigen und verstärken. Aber diese konvektiven Winde sind von Natur aus chaotisch und unvorhersehbar, daher gibt es keine Möglichkeit sie vorherzusehen. Beispielsweise wurde 2012 ein offensichtlicher Fehlalarm für das Auftreten eines starken El Niño-Ereignisses von vielen Klimamodellen ausgelöst (IRI).

Eine weitere häufige Grenze von Klimamodellen ist ihre Unfähigkeit, klar unterscheidbare Zentralpazifik- und Ostpazifik-El Niño-Ereignisse zu simulieren.

Schon 2008 äußerten sich Chen & Cane recht pessimistisch über die ENSO-Vorhersagequalität der damals verfügbaren Modelle, fügten aber auch eine gewisse Zuversicht an:

"In some ways, it is disappointing that we, collectively, have not been able to improve ENSO forecasts more since we started this venture over two decades ago. The level of predictive skill we have achieved so far seems out of proportion to the enormous efforts and resources devoted to ENSO research and prediction. This leads to the pessimistic view that ENSO’s inherent predictability is so low that our current skill is already close to its limit. However, some recent studies have shown reasons of optimism and prospects for further advances. We believe that ‘‘the fault is not in the stars (or the natural ocean–atmosphere system) but in ourselves’’, and that the shortcomings in our models and data assimilation schemes are the principal problem. In particular, datamodel incompatibility is considered a major roadblock."

Chen & Cane 2008

Es gibt immer wieder Situationen, die sich völlig überraschend entwickeln. Einer der Gründe für die limitierte Vorhersagbarkeit von ENSO ist das Rauschen im Klimasystem. Es sind immer kurzfristige Störungen im System vorhanden, die aufgrund der chaotischen Natur der Atmosphäre entstehen und die man nicht vorhersagen kann. Theoretische und Modellstudien zeigen, dass dieser stochastische Antrieb der Hauptgrund für die Irregularität von ENSO und damit für seine limitierte Vorhersagbarkeit ist.

Die wichtige Rolle des stochastischen Antriebs für die Unterbrechung des ENSO-Zyklus wurde einmal mehr 2014 deutlich. Der Wärmeinhalt des äquatorialen
Pazifiks war zu dieser Zeit außergewöhnlich hoch und die Meeresoberflächentemperatur in der Niño 3.4-Region begann zu steigen. Nach dem Recharge Oscillator-Modell hätte sich in dem Jahr ein El Niño-Ereignis entwickeln müssen. Auch die Vorhersagemodelle, statistische wie auch physikalische, prognostizierten für den Winter 2014/2015 den Höhepunkt eines starken El Niño-Ereignisses. Doch es entwickelten sich nur recht schwache Temperaturanomalien an der Meeresoberfläche. Der Grund für den falschen Alarm war eine außergewöhnlich starke Ostwindanomalie, die im Frühsommer über dem westlichen äquatorialen Pazifik auftrat (Hu & Fedorov 2016) und nicht vorherzusehen war.

Ein weiteres Beispiel für den Einfluss des stochastischen Antriebs auf die Klimavariabilität im Bereich des äquatorialen Pazifiks zeigt ebenfalls die Grenzen auf, die Veränderungen der Meeresoberflächentemperaturen in der Region vorherzusagen und damit mögliche Auswirkungen auf den angrenzenden Landregionen. Es handelt sich um den so genannten Küsten-El Niño, der zu Beginn des Jahres 2017 das westliche Südamerika völlig unerwartet heimsuchte. Besonders betroffen waren Kolumbien und Peru. Sintflutartige Niederschläge führten zu Überschwemmungen und Erdrutschen. Hunderte von Todesopfern waren zu beklagen, Hunderttausende wurden obdachlos.

Die folgende Abbildung zeigt die Erwärmung der Meeresoberfläche, die von Februar 2017 bis April 2017 besonders stark ausgeprägt gewesen war und sich von der Küste bis nur etwa 120° W erstreckte. Der lokale Charakter der Erwärmung erklärt den Namen Küsten-El Niño und die auf die Region begrenzten Auswirkungen des Ereignisses. Dadurch unterscheidet sich der Küsten-El Niño von einem klassischen El Niño Ereignis mit seinen beckenweiten Änderungen der Meeresoberflächentemperatur und globalen Auswirkugen. Offensichtlich hat auch bei diesem Ereignis die Theorie des Recharge Oscillator versagt.

Anomalien des Zonalwindes

Anomalien des Zonalwindes, der Meeresoberflächentemperatur und der Thermoklinentiefe

Fünftagemittel der Anomalien längs des Äquators (2°N-2°S) als Funktion der Zeit.

Links: Anomalien des zonalen Windes (m/s) gemessen in 4 m Höhe,

Mitte: Anomalien der Meeresoberflächentemperatur (°C, das schwarze Rechteck zeigt den Küsten-El Niño),

rechts: Anomalien der Thermoklinentiefe (m), dargestellt als Tiefe der 20°C-Isotherme. Die weißen Flächen sind Gebiete, in denen keine Daten verfügbar sind.

Quelle: NOAA nach Latif 2018

Die Ursache für den Küsten-El Niño 2017 sieht man in den Anomalien der zonalen Komponente der oberflächennahen Winde über dem Ostpazifik, die ab dem Beginn des Jahres 2017 positive Werte zeigten, d.h. es handelte sich um Westwindanomalien. Derartige Windanomalien an der Oberfläche verringern den Auftrieb des kalten Tiefenwassers, wodurch die Oberflächentemperatur steigt. Dieser Prozess ist ganz im Osten des Beckens besonders effektiv, weil sich dort die Thermokline dicht unterhalb der Meeresoberfläche befindet. Vorherzusehen waren die Änderungen der Winde nicht, es handelte sich einfach um subsaisonale Wetteranomalien. Der Küsten-El Niño 2017 dauerte nur einige wenige Monate, weil mit dem Verschwinden der Windanomalien auch kein Antrieb mehr vorhanden war.

Der abgebrochene El Niño 2014 und der Küsten-El Niño 2017 zeigen, wie sehr selbst zwischenjährliche Schwankungen von der chaotischen Atmosphäre beeinflusst sind. Persistente Wetterschwankungen können den ENSO-Zyklus buchstäblich aus der Bahn werfen. Weil diese Wetterschwankungen der chaotischen Natur der Atmosphäre entspringen, sind sie über längere Zeiträume nicht vorhersagbar. Das Fazit:

"Belastbare El Niño- und La Niña-Vorhersagen sind deswegen wohl nur einige wenige Monate im Voraus möglich."

Latif 2018

Ein weiterer Problemkreis betrifft die Prozesse, die zur ENSO-Diversität führen. Verschiedene Hypothesen wurden vorgeschlagen, wie z. B. Variationen des stochastischen Antriebs (Levine et al., 2016), dekadische Veränderungen im Hintergrundzustand des tropischen Pazifiks (Choi et al., 2012), und Antriebe aus Regionen außerhalb des tropischen Pazifiks (Paek et al., 2017). Wie diese und andere Faktoren zusammenwirken können, um die Entwicklung der einzelnen Ereignisse zu beeinflussen, ist ein Thema von großem Interesse, da die Vielfalt der Eigenschaften von ENSO zu einer Vielfalt von Klimawirkungen führen kann (McPhaden 2018).

Schließlich stellt sich auch die große Frage, ob die globale Erwärmung bereits den ENSO-Zyklus beeinflusst hat und wie sie sich in Zukunft auswirken wird. Dies ist ein Bereich mit lebhaften Diskussionen, aber viel Unsicherheit. Die Analyse von historischen Daten, Paläoklimaaufzeichnungen und numerischen Modellsimulationen führt oft zu widersprüchlichen Ergebnissen. Die vielleicht robusteste Schlussfolgerung bisher ist, dass in einer wärmeren Welt die Häufigkeit extremer El Niños wie in den Jahren 1982-83, 1997-98 und 2015-16 in Zukunft zunehmen wird (Cai et al., 2014). Aber an diesem Thema, das ein reicher und fruchtbarer Boden für weitere Forschungen ist, muss noch viel mehr getan werden.

Vielleicht hat sich nach Jahrzehnten der Unsicherheit die weitere Präzisierung ergeben, dass die globale Erwärmung sowohl die Amplitude als auch die Häufigkeit des ostpazifischen El Niños erhöhen wird. Dies geht mit weitreichenden klimatischen Folgen einher. (Ham 2018)

Dabei kristallisieren sich folgende Details heraus:

 

Möglicher Nutzen von Vorhersagen

Vorhersagen betreffen zum Einen das bevorstehende Eintreffen einer Extremphase von ENSO, vor allem eines Warmereignisses im Pazifik (El Niño). Zum Anderen beinhalten sie die möglichen Auswirkungen eines solchen Ereignisses.

Klimatisch-meteorologische Vorhersagen werden routinemäßig einmal oder mehrmals pro Jahr von verschiedenen Forschergruppen auf der ganzen Welt gemacht, wobei sie sich unterschiedlicher Klimamodelle (vgl. UnterKap. Klimamodelle) bedienen. Einige der Vorhersagen findet man durch Internetrecherche, über die Links in der Tabelle oben, vor allem aber über die Quellen, die im Kapitel Aktueller Zustand des Pazifiks zusammengetragen sind. BOM liefert die "offiziellen" Daten für Australien, NOAA/CPC solche für die USA. Das International Research Institute for Climate and Society (IRI) verbreitet Vorhersagen mit globaler Sicht.

Vorhersagen zu den Auswirkungen werden auf eher empirischer Grundlage und auf eher informelle Weise gemacht. Und dies geschieht häufig erst, wenn ein eindeutig definierter El Niño bereits im Gange ist. Eine solche Vorhersage basiert typischerweise auf dem, was man historisch über Klimareaktionen oder Korrelationen in Bezug auf El Niño-Ereignisse weiss. Es ist eine probabilistische Aussage, dass bestimmte klimatische Bedingungen mehr oder weniger häufig unter El Niño-Bedingungen auftreten, verglichen mit Normalsituationen. Manchmal sind solche Vorhersagen lediglich die Antwort eines Wissenschaftlers auf Fragen eines Reporters. Organisationen wie die NOAA veröffentlichen routinemäßig formelle climate outlooks und z.T. advisories für die bevorstehende Saison. Wenn ein starker El Niño abläuft, warnen diese outlooks vor ungewöhnlichen Witterungsbedingungen. Eine vergleichbare Aufgabe hat z.B. der ENSO-Blog der NOAA.

Es besteht ein erhebliches Potenzial für den gesellschaftlichen Nutzen vor allem durch Verbesserungen der innersaisonalen bis jahresübergreifenden Vorhersagequalität (engl. ISI, intraseasonal to interannual timescale) und die Bereitstellung von ISI-Prognosen. Viele Managemententscheidungen in den Bereichen Wasserversorgung, Energieerzeugung, Verkehr, Land- und Forstwirtschaft und Fischerei werden routinemäßig nach subsaisonalen, saisonalen oder jährlichen Zeitplänen getroffen. So können beispielsweise während eines El Niño-Winters die Küstengebiete Kaliforniens ein erhöhtes Überschwemmungsrisiko aufweisen, das durch einen Anstieg der Niederschläge und des Meeresspiegels verursacht wird, während in den Berggebieten im pazifischen Nordwesten der Vereinigten Staaten weniger Schnee fallen kann, was die spätere Wasserverfügbarkeit beeinträchtigt. Daher kann das Wissen über das Klimasystem in den ISI-Zeiträumen ein nützlicher Input für Ressourcenmanagement und Planungsentscheidungen sein.

In den USA rechnet man für die Landwirtschaft mit einem Nutzen durch verbesserte Vorhersagen, der mit 240-323 Millionen $ beziffert wird.

Eine zuverlässige und frühzeitige Vorhersage eines El Niño würde es ermöglichen, dass sich weltweit die betroffenen Regionen auf die Klimaanomalie und ihre verheerenden Folgen vorbereiten können. So könnten zum Beispiel die Bauern Pflanzen anbauen, die das El Niño-Klima besser überstehen. In den Gebieten, für die aussergewöhnliche Regenfälle prognostiziert wären, könnte man die Flussbetten ausbauen und Medikamente gegen Malaria und Cholera herbeischaffen. Die NASA geht davon aus, dass sich z.B. mit Hilfe von Satellitendaten der Ausbruch von Rifttalfieber im östlichen Afrika bis zu sechs Monate vorhergesagen lässt. Als Abwehrmaßnahmen böten sich das Ausbringen von Insektiziden auf die Böden an, um das Schlüpfen der virenübertragenden Moskitos zu verhindern sowie die Impfung des Viehs.

Auch kann man sich auf die witterungsabhängige Verbreitung von Schädlingen besser einstellen. Wichtig sind solche Maßnahmen beispielsweise in den dürreanfälligen Gebieten von NO-Brasilien oder von Queensland (NO-Australien).

Im nördlichen Peru werden vornehmlich Reis und Baumwolle angebaut, beides Kulturpflanzen, die hohe Ansprüche an die Menge und an den Zeitpunkt der Niederschläge stellen. Reis benötigt viel Feuchtigkeit während der Wachstumsphase und Niederschlagsarmut während der Reifezeit. Baumwolle ist wegen ihres tiefer reichenden Wurzelsystems trockenheitstoleranter. Daher ist es für die Bauern in dieser Region ratsamer, bei einer El Niño-Vorhersage verstärkt auf Reis zu setzen.

Zuverlässige Prognosen sind auch für Warenterminbörsen von Bedeutung. Da hier mit der künftigen Kursentwicklung eines Rohstoffs spekuliert wird, ist die Kenntnis von meteorologischen Rahmenbedingungen für den Anbau von z.B. Kaffee oder Getreide von großem Nutzen bei Kauf- oder Verkaufsentscheidungen.

Auch Rückversicherungen sind an möglichst genauen Informationen über meteorologisch-klimatologische Entwicklungen interessiert, um Risiken bei Vertragsabschlüssen besser beurteilen zu können.

Ein heikles Problem ist der verantwortungsvolle, zielgerichtete Umgang mit Warninformationen, um Fehlreaktionen potentiell betroffener bzw. nicht betroffener Bevölkerungskreise zu vermeiden. Die im Juni 1997 getroffene Vorhersage, dass den Kaliforniern ein Winter mit dem Mehrfachen der üblichen Niederschlagsmengen bevorsteht, erwies sich als zutreffend, aber nichts wurde getan, um zu vermeiden, dass Menschen in wahrscheinlich ungefährdeten Gebieten in Angst versetzt wurden.

Als die Nachrichtenagentur Reuters entsprechende Katastrophennachrichten auch in Ecuador und Panama (wo starke El Niños tatsächlich verheerend sind) verbreitete, rief dies Panikreaktionen hervor. Banken gaben keine Kredite mehr für den Anbau von Pflanzen und Versicherungsgesellschaften verweigerten Ernteausfallversicherungen, obwohl selbst bei den finstersten Szenarien, die gravierenden Auswirkungen für die Landwirtschaft erst viel später eintreten konnten.

Auch kann falscher Alarm gefährlicher sein als eine fehlende Vorhersage. So veranlasste die Ankündigung einer El Niño-bezogenen Dürre viele Bauern in Zimbabwe zu einem reduzierten und trockenheitsorientierten Anbau. Tatsächlich fiel ausreichend Regen. Aber der reduzierte Anbau führte zu einer Nahrungsmittelknappheit.

Die bisherige Erfahrung belegt die Notwendigkeit von interdisziplinärer Zusammenarbeit. Dies betrifft nicht nur die Naturwissenschaften untereinander, sondern auch deren Zusammenarbeit mit den Sozialwissenschaften.

Im Übrigen hat die ENSO-Vorhersage vieles gemein mit der Vorhersage von Ursachen anderer Naturkatastrophen (Erdbeben, Vulkanausbrüchen, Tsunamis) bezüglich Unsicherheit und Dosierung der Aussagen.

Weitere Informationen:

 

Aktuelle Modellvorhersagen am Beispiel des International Research Institute for Climate and Society (IRI)

Um die ENSO-Bedingungen vorherzusagen, modellieren Computer die SSTs in der Region Niño 3.4 über die nächsten Monate. Das folgende Fahnendiagramm zeigt die Ergebnisse dieser Modelle, von denen einige Gleichungen verwenden, die auf unserem (d. h. IRI) physikalischen Verständnis des Systems basieren (sogenannte dynamische Modelle), und einige verwenden Statistiken, die auf der langen Aufzeichnung historischer Beobachtungen basieren.

Das IRI veröffentlicht zwei Vorhersagen pro Monat (IRI ENSO Forecast):

  1. Die offizielle CPC/IRI ENSO-Wahrscheinlichkeitsprognose, die auf einer abgestimmten Einschätzung von CPC- und IRI-Meteorologen basiert. Es wird in der ersten Monatshälfte in Verbindung mit der offiziellen CPC/IRI ENSO Diagnostic Discussion aktualisiert. Es basiert auf Beobachtungs- und Vorhersageinformationen vom Anfang des Monats und vom Vormonat. Es verwendet neben den Modellergebnissen auch menschliches Urteilsvermögen. Dies ist insbesondere zur Zeit der schwierigen Frühjahrs(vorhersage)barriere nötig, wenn die Modelle bekanntermaßen weniger genaue Vorhersagen abliefern.
  2. Eine rein objektive ENSO-Wahrscheinlichkeitsprognose, die auf Regression basiert und als Input Modellvorhersagen aus der Vielzahl der dynamischen und statistischen Prognosen verwendet. Jede der Prognosen wird gleich gewichtet. Sie wird jeweils um die Monatsmitte aktualisiert, wobei die Prognosen der in der ersten Monatshälfte laufenden Fahnenmodelle verwendet werden. Sie verwendet keine menschliche Interpretation oder Beurteilung.

Mid-Jan 2017 Plume of Model ENSO Predictions

Mid-Jan 2017 Plume of Model ENSO Predictions

Die obige Grafik zeigt Prognosen dynamischer und statistischer Modelle für SST in der Region Niño 3.4 für neun überlappende 3-Monats-Perioden. Beachten Sie, dass die erwarteten Fähigkeiten der Modelle, basierend auf historischen Beobachtungen, nicht gleich sind. Die Fähigkeiten nehmen im Allgemeinen auch mit zunehmender Vorlaufzeit ab. Drittens haben Prognosen nicht zu allen Zeiten des Jahres die gleiche Qualität - sie sind nämlich besser, wenn sie zwischen Juni und Dezember gemacht werden, als wenn sie zwischen Februar und Mai gemacht werden. Unterschiede zwischen den Prognosen der Modelle spiegeln sowohl Unterschiede im Modelldesign als auch tatsächliche Unsicherheiten in der Prognose des möglichen zukünftigen SST-Szenarios wider.

Plume of ENSO Predictions - Explanation

Plume of ENSO Predictions - Explanation

Was bedeutet dies?

  • Jede farbige Linie repräsentiert eine andere Modellvorhersage für den 3-Monatszeitraum auf der unteren Achse (z.B. MAM bedeutet März April Mai).
  • Werte über 0,5 sagen einen El Niño vorher
  • Werte unter -0,5 prognostizieren La Niña.
  • Werte zwischen -0,5 und 0,5 sagen neutrale Verhältnisse voraus (graue Fläche).
Quelle: NOAA PMEL / IRI (hier auch aktuelle Versionen)

Weitere Informationen:

 

Fortschritte bei der Formulierung, Kommunikation und/oder dem Gebrauch von El Niño-Informationen seit dem Starkereignis von 1997/98

Die El Niño 2015 Conference am International Research Institute for Climate and Society (IRI) listete in ihrer Concluding Perspective unter anderem auch die folgenden informationsbezogenen Fortschritte auf, die seit dem Extremereignis von 1997/98 gemacht wurden:

  1. Insgesamt sind die Modelle und Vorhersagen zum Verhalten von El Niño und seinen Auswirkungen auf regionale Klimate verbessert, z.B. wurden die Vorlaufzeiten um einen Monat verkürzt.
  2. Regionen und Länder haben größere Kapazitäten zur Erstellung und Interpretation von Vorhersagen, was beispielsweise durch die Informationsfülle belegt wird, die von CIIFEN, ICPAC und anderen regionalen Zentren belegt wird, sowie durch die Aktivitäten innerhalb des India Meteorological Department und der Philippine Atmospheric, Geophysical and Astronomical Services Administration. Seit dem Ereignis von 1997/98 gibt es eine beträchtliche Zunahme der Zusammenarbeit innerhalb der internationalen Gemeinschaft, regionalen und nationalen Zentren und Gemeinschaften.
  3. Institutionen (d.h. nationale und internationale, aus dem privaten und dem öffentlichen Sektor) sind beträchtlich kompetenter und aktiver beim Gebrauch von Klima- und El Niño-Informationen für die Bereiche Planung, Vorsorge und Schutz.
  4. Es gibt ein größeres Bewusstsein gegenüber dem El Niño-Phänomen, seinen Auswirkungen und für die in einer ganzen Gesellschaft auftretenden Notwendigkeiten angesichts eines El Niño-Ereignisses.

Weitere Informationen: El Niño 2015 Conference - Conference Report (IRI, März 2016)

 

Tropische und außertropische Vorläufer der El Niño / Southern Oscillation

Vorläufer (precursor) der El Niño / Southern Oscillation (ENSO) sind atmosphärische oder ozeanische Phänomene, die häufig vor dem Beginn von ENSO-Ereignissen auftreten und das Potenzial haben, ENSO-Ereignisse mit erheblichen Vorlaufzeiten vorherzusagen. Die meisten der bisher identifizierten bekannten ENSO-Vorläufer treten im tropischen Pazifik auf, wie z.B. die Entstehung von Anomalien des Wärmeinhalts unterhalb der Wasseroberfläche im tropischen Westpazifik. Es wird angenommen, dass diese Vorläufer den ENSO-Beginn durch Schwankungen der Tiefenlage der Thermokline im äquatorialen Pazifik beeinflussen, die als ein zentrales Element des ENSO-Erzeugungsmechanismus anerkannt sind.

Bestimmte Klimamuster können einen frühen Einblick in die Entwicklung von ENSO geben, wie z.B. der Pacific Meridional Mode oder die South Pacific Oscillation.
Rund um die Tropen lassen sich die Klimamuster auf verschiedene Weise identifizieren. Sie können Änderungen der Oberflächentemperatur der Ozeane und/oder eine gewisse Änderung der atmosphärischen Zirkulation beinhalten. Änderungen der atmosphärischen Zirkulation können durch Luftdruck, Windrichtung/-stärke, Niederschlag und andere Indikatoren erkannt werden. Viele werden als "Schwingungen" (Oszillationen) bezeichnet, was in der Wetter- und Klimawissenschaft eine Art Wippe zwischen zwei Orten - auch Dipol genannt - in einem unregelmäßigen Zeitintervall bedeutet.

Dutzende, wahrscheinlich hunderte von wissenschaftlichen Arbeiten wurden über die Identifizierung von ENSO-Vorläufermustern geschrieben, ihre möglichen Auswirkungen auf ENSO und ihre Wechselwirkung untereinander. Und natürlich ist die Komplexität des Systems Ozean/Atmosphäre so groß, dass all diese Muster miteinander verknüpft sind, mit Wechselwirkungen, die wir gerade erst beginnen zu verstehen. Fügt man noch den Klimawandel hinzu wird deutlich, dass dieser Abschnitt nur an der Oberfläche bleiben kann!

Wegen der Komplexizität des Themas wird hier nur dargestellt, wie Vorläufer die Entwicklung von El Niño beeinflussen, La Niña bleibt (vorläufig) außen vor. Im Allgemeinen beeinflussen Vorläufermuster die Entwicklung von El Niño, indem sie die Passatwinde verändern. Diese Winde wehen normalerweise stetig von Ost nach West über den äquatorialen Pazifik, drücken wärmeres Wasser in den westlichen Pazifik und hinterlassen eine relativ kühlere Region im östlichen Pazifik, wenn Wasser aus dem tieferen Ozean aufsteigt.

ENSO Vorläufer

Animation mit sieben Mustern von ENSO-Vorläufern


Die schattierten Farben zeigen die Temperatur der Meeresoberfläche (rot = überdurchschnittlich warm, blau = kühler), die grünen Linien den Druck auf dem Meeresspiegel (durchgezogen = überdurchschnittlich stark, gepunktet = schwächer), die Pfeile zeigen die Windrichtung und die blauen Linien die Windbelastung, also die Kraft, die der Wind auf die Wasseroberfläche ausübt (durchgezogen = überdurchschnittlich stark, gepunktet = geringer).

Quelle: Abbildung von Kathy Pegion, Animation von climate.gov

Wenn die Passate schwächer werden, kann das warme Wasser im fernen Westpazifik beginnen, sich unter der Oberfläche in Form einer Kelvin-Welle verbunden mit Downwelling ostwärts zu bewegen. Manchmal - aber nicht immer - wenn dieses warme Wasser im zentralen/östlichen Pazifik an die Oberfläche steigt, kann es die atmosphärische Reaktion in der Walker-Zirkulation auslösen, die das warme Wasser verstärkt, was zu El Niño-Bedingungen führt. Die Grundgedanke hinter der Beobachtung von Vorläufern ist, dass man, wenn man ihr Verhalten versteht, sie zum Verständnis der Entwicklung von El Niño-Ereignissen beitragen können, sowohl in Bezug auf "wird es im nächsten Winter einen El Niño geben?" als auch in Bezug auf "wenn ja, wie wird er aussehen?

Einer der Vorläufer ist die Nordpazifische Oszillation (North Pacific Oscillation, NPO), ein Luftdruckmuster auf Meereshöhe im Nordpazifik. Dabei wird konkret der Luftdruck im hohen Norden (mittig vor der Westküste Alaskas) mit den mittleren Breiten verglichen (man ziehe eine gedachte Linie zwischen Tokio und Santa Barbara). Die meiste Zeit des Winters ist der Luftdruck über dieser zentralen Region des Nordpazifiks relativ hoch und bildet ein subtropisches Hoch. Wenn der Luftdruck hier niedriger ist als der Mittelwert, schwächen sich die Passatwinde entlang des südlichen Randes ab. Die Nordpazifik-Oszillation ist in erster Linie ein atmosphärisches Muster.

Die North Pacific Oscillation (NPO) agiert nicht allein. Andere Vorläufermuster helfen, die Abschwächung des Subtropenhochs mit der Verlangsamung der Passatwinde zu verbinden. Ein Beispiel ist die Pacific Meridional Mode (für unsere Zwecke hier in North Pacific Meridional Mode umbenannt). Dieses Muster zeigt sich im östlichen Pazifik als überdurchschnittlich warmes Oberflächenwasser nördlich des Äquators und überdurchschnittlich kühles Wasser südlich des Äquators. Die schwächeren Passatwinde der NPO begünstigen die wärmere Meeresoberfläche auf der Nordseite des Äquators, was wiederum die Schwächung der Passatwinde verstärkt. Mehr über diese komplizierten Zusammenhänge erfährt man in der Arbeit von Dan Vimont.

Der Victoria-Modus (Victoria Mode) und das sogenannte Trade Wind Charging verbinden die NPO auch mit der Äquatorregion und damit mit der Entwicklung von ENSO. Die Besonderheit des Victoria-Modus ist das kühlere Oberflächenwasser und die damit verbundenen schwächeren Passate im westlichen Nordpazifik ( ? ). Die kühlere westpazifische Charakteristik des Victoria-Modus entwickelt sich im Zusammenspiel mit der NPO-Zirkulation. (s. a. Essay von Tom Di Liberto)

Das "Trade Wind Charging" ist der Mechanismus, der die Veränderungen der Passatwinde mit der erhöhten Unterwassertemperatur verbindet. Seine Signatur ist ein verringerter Windstress - die Kraft an der Oberfläche, die durch den Wind verursacht wird - im östlichen Pazifik und erhöhter Windstress im westlichen Pazifik. Die Veränderungen des Windstresses sind es, die dazu beitragen, dass die Kelvin-Wellen, die die Unterwassertemperatur erhöhen, in Gang gesetzt werden. Diese Quelle von wärmerem Wasser ist für einen sich entwickelnden El Niño notwendig.

Nicht direkt mit dem NPO verwandt ist das Western North Pacific-Muster. Die Signatur dieses Musters ist überdurchschnittlich kühles Wasser vor der Küste Chinas und wärmeres Wasser im zentralen äquatorialen Pazifik im Winter. Dies führt zu langsamerem Passat und weniger Windstress an der Oberfläche des westlichen äquatorialen Pazifiks, wodurch die Kelvin-Wellen mit Downwelling entstehen und der Wärmegehalt unter der Meeresoberfläche zunimmt. Untersuchungen haben ergeben, dass dieses Muster der Entwicklung von El Niño ein ganzes Jahr vorausgehen kann.

In der südlichen Hemisphäre gibt es die Südpazifische Oszillation (South Pacific Oscillation, SPO) und den Südpazifischen Meridionalmodus (South Pacific Meridional Mode, SPMM). Während die oben beschriebenen nördlichen Vorläufer im Dezember-Februar am nützlichsten sind, sind die südlichen Vorläufer im Juni-August, dem Winter auf der Südhalbkugel, am aktivsten. Wie ihr nordpazifisches Gegenstück ist die südpazifische Oszillation eine Veränderung des Luftdrucks auf Meeresniveau, was zu einem Abflauen der Passatwinde führt. Und wie sein nördliches Pendant erscheint auch der Südpazifische Meridionalmodus als überdurchschnittlich warmes Wasser südlich des Äquators und hilft, die Passatwindveränderungen der südpazifischen Oszillation mit den äquatorialen Winden zu verbinden. Eine Arbeit von Jason Furtado stellt die südlichen Modi ausführlicher dar.

Die genannten Muster überlappen und beeinflussen sich gegenseitig und geben Hinweise auf die Entwicklung von ENSO. Außerdem haben einige von ihnen alternative Namen oder wurden von verschiedenen Forschern unterschiedlich identifiziert. (ENSO Blog)

 

Klimamodelle

Klimamodelle sind extrem komplexe Computerprogramme. Mit ihnen wird versucht, Entwicklungen von und Wechselwirkungen zwischen den einzelnen Komponenten des Klimasystems der Erde zu simulieren – also  beispielsweise von Atmosphäre und Ozeanen, von Wolken, Schnee und Eismassen oder von verschiedenen geologischen, biologischen und chemischen Prozessen.

El Niño-bezogene Klimaänderungen haben oft weitreichende und verheerende Auswirkungen. Dazu gehören die Häufigkeit und die Stärke von Stürmen und das Auftreten von Dürren und Überschwemmungen. Obwohl viele der Folgen von El Niño oder La Niña nicht verhindert werden können, erlauben es ausgeklügelte Vorhersagen den Entscheidungsträgern in klimaabhängigen Wirtschaftssektoren oder im Bereich der Infrastruktur, Strategien zu ändern oder die ökonomische Anfälligkeit zu mindern. Entsprechend groß ist das gesellschaftliche, wirtschaftliche und wissenschaftliche Interesse an ENSO-Vorhersagen.

Vorhersagen dieser Art sind in die Zeitskala von Jahreszeiten einzuordnen. Im Unterschied zur Wettervorhersage macht die Jahreszeitenvorhersage keine Aussage über die detaillierte Entwicklung des Wettergeschehens der nächsten Monate. Es werden nicht einzelne Wettererscheinungen, wie z. B. die Zugbahn eines Tiefdruckgebiets vorgesagt, vielmehr liefert die Jahreszeitenvorhersage eine statistische Auswertung des Wetters über einen mehrmonatigen Zeitraum. Anhand von Modellrechnungen werden Wahrscheinlichkeiten des Auftretens von jahreszeitlichen Anomalien bestimmt. Dies kann z. B. die Oberflächentemperatur sein oder der Niederschlag, gemittelt über eine bestimmte Region und eine Jahreszeit.

Generell hat die saisonale Vorhersagbarkeit ihren Ursprung in langsamen Veränderungen der Randbedingungen, wie z. B. Anomalien der Meeresoberflächentemperatur oder der Meereisausdehnung. Derartige Anomalien sind in der Lage, das Klima zu bestimmen, und das Klima ist dann vorhersagbar, wenn die Anomalien in den Randbedingungen selbst vorhersagbar sind.

Jahreszeitenvorhersagen sind eine besondere Herausforderung für die dabei verwendeten Modelle, da für einen Vorhersagezeitraum von einem halben bis ganzen Jahr insbesondere Prozesse mit längerfristiger (saisonaler und interannualer) Variabilität eine wichtige Rolle spielen und vom Modell abgebildet werden müssen. Langzeitprognosen sind daher nur mit einem gekoppelten Atmosphäre-Ozean-Meereis-Modell möglich, da vor allem Ozean und Meereis Träger dieser langfristigen Informationen sind. Um die Unsicherheiten auf Grund der hohen Komplexität und der Modellfehler abzubilden, werden Jahreszeitenvorhersagen als Ensemblevorhersagen gerechnet. Vor jeder aktuellen Prognose werden lange Zeitreihen in der Vergangenheit gerechnet, die als Grundlage zur Qualitätsprüfung des Modells dienen. Typischerweise werden Jahreszeitenvorhersagen der vergangenen 30 Jahre nachgerechnet.

In den gekoppelten Atmosphäre-Ozean-Modellen werden Atmosphäre und Ozeane in ein dreidimensionales Gitter geteilt. Der Austausch an Masse und Energie zwischen benachbarten Gitterpunkten wird durch mathematische Gleichungen von Zeitschritt zu Zeitschritt gelöst. Dadurch erhält ein Model seine Dynamik. Die Modelle enthalten grundlegende physikalische Differentialgleichungen aus der Fluiddynamik, Hydrologie und Chemie. Mathematisch (noch) nicht beschreibbare Prozesse werden parametrisiert, d.h. mit fixen Werten gerechnet. Alternativ erfolgt die Berechnung des Modells über spektrale Methoden.

Gekoppelte Ozean-Atmosphäre Computermodelle haben während der vergangenen Jahrzehnte eine beachtliche Vorhersagegenauigkeit erzielt. Sie leiden aber noch immer an einem zu bescheidenen maritimen Beobachtungsnetz. So gibt es weder im Atlantischen noch im Indischen Ozean ein dem pazifischen TAO/TRITON-Messnetz vergleichbares Monitoring. Eine bedauerliche Episode ergab sich 2014, als nur noch 40 % der Bojen aus dem TAO/TRITON-Messnetz Daten lieferten. Der Grund für die Ausfälle und das folgende Datenloch waren Sparmaßnahmen bei der Wartung der Bojen. (NZZ 2014)

climate_sys_ncdc

Modell des Klimasystems

Das Modell umfasst wichtige Prozesse und Wechselwirkungen in der Atmosphäre, Hydrosphäre, Biosphäre und Kryosphäre. Klima- und Wettermodelle versuchen, diese Wechselwirkungen zu berücksichtigen.

Ein integraler Bestandteil des Energietransports in und aus den Tropen ist die Wechselwirkung zwischen der Oberfläche und der Atmosphäre. Da der Ozean einen so großen Bereich der Oberfläche einnimmt, sind die Wechselwirkungen zwischen Ozean und Atmosphäre eine dominante Komponente dieses Energieaustauschs. Da Wasser eine größere Wärmekapazität hat, ist die ozeanische Reaktion auf saisonale Schwankungen der Sonneneinstrahlung geringer als über Land. Die Ozeane sind daher in der Lage, Wärme im Sommer zu speichern und im Winter abzugeben. Das Maximum des ozeanischen Wärmetransports zu den Polen tritt in niedrigen Breitengraden auf.

Der Ozean überträgt Wärme und Feuchtigkeit hauptsächlich durch Verdunstung in die Atmosphäre. Auf der anderen Seite übertragen die Winde Impulse auf den Ozean, indem sie das Wasser umherbewegen. Ein tropischer Wirbelsturm ist ein eindrucksvolles Beispiel für diese Wechselwirkungen; seine Energie wird aus dem warmen Ozeanwasser durch latente Wärmeübertragung gewonnen, während seine Winde die Ozeanoberfläche aufwirbeln, den Impuls nach unten übertragen und eine kühle Anomalie in seinem Kielwasser hinterlassen. Darüber hinaus werden Regionen mit Erwärmung und starker Konvektion über den tropischen Kontinenten und warmen Ozeanbecken beobachtet. Verschiedene Wetter- und Klimaphänomene werden als Reaktion auf diese Erwärmungsmaxima erzeugt. Ein prominentes Beispiel ist die Madden-Julian Oscillation (MJO), eine 30- bis 60-tägige Oszillation des Oberflächendrucks und der Winde, die das tropische Wetter von kleinräumiger Konvektion bis hin zu Zirkulationen auf planetarischer Ebene beeinflusst. Die MJO ist ein gekoppeltes Atmosphäre-Ozean-Phänomen, das allgemein durch einen breiten Bereich aktiver Wolken und Niederschläge gekennzeichnet ist, der sich ostwärts um den Äquator ausbreitet. Die ozeanische Signatur der MJO zeigt sich in den SSTs, der Tiefe der isothermen Ozeanoberflächenschicht und dem latenten Wärmeaustausch. Quellen: MetEd / UCAR (Zugang über kostenfreie Registrierung)

Wie wichtig eine genauere Kenntnis vom physikalisch-chemischen Zustand der Ozeane ist, unterstreichen alleine die folgenden Zahlen:

Zur Zeit werden verschiedene Klimamodelle eingesetzt, die unterschiedliche Resultate liefern. Man unterscheidet grundsätzlich folgende Arten:

1. Statistische oder diagnostische Modelle

Auf Grund von früheren, statistisch erfassten Ergebnissen wird auf die zukünftige Entwicklung geschlossen. Dazu benötigt man eine lange Zeitreihe (ca. 30 - 50 Jahre) von Beobachtungsdaten, i. a. von der gleichen Art, wie sie auch als Eingabe für die u.g. dynamischen Modelle genutzt werden. Diese lange Aufzeichnungsreihe wird verwendet, um Schlüsselerscheinungen in Ozean und Atmosphäre zu identifizieren, die als Vorläufer für darauffolgende Veränderungen in Ozean und Atmosphäre in einem bestimmten Raum gelten, z.B. im tropischen Pazifik in Bezug auf ENSO.

Beispiele für El Niño-Vorläufer:

Statistische Modelle werden anhand der langen Geschichte dieser Vorläuferereignisse in Kombination mit den darauffolgenden ENSO-Bedingungen "trainiert", so dass sie bei der Eingabe der aktuellen Beobachtungen in der Lage sind, die Wahrscheinlichkeit für verschiedene ENSO-Bedingungen für die bevorstehende Zeit vorherzusagen. Dieser Modelltyp tut in etwa, was auch ein erfahrener Klimatologe täte, wenn er auf typische Vorläuferbedingungen achtet, um daraus seine Schlüsse zu ziehen. Der Unterschied zum Modell besteht in dessen objektiver und quantitativer Vorgehensweise. Im Gegensatz zu den dynamischen Modellen bleiben die Mechanismen, die ENSO-Variationen hervorrufen, in statistischen Modellen unbekannt, da sie ihre Vorhersagen lediglich auf der Basis vorangegangener Ereignisse treffen. In Bezug auf El Niño / La Niña werden also beobachtete Wetterbedingungen mit dem Auftreten dieser Klimaanomalien korreliert. Typischerweise zieht man die Meeresoberflächentemperatur (SST) in definierten Schlüsselgebieten des äquatorialen Pazifiks heran um El Niño- bzw. La Niña-Phasen abzugrenzen, z.B. beim Oceanic Niño Index (ONI). Alternativ wird der Southern Oscillation Index (SOI) verwendet, der auf dem Luftdruckunterschied zwischen Tahiti und Darwin beruht.

Der Vorteil des SOI gegenüber dem SST-Verfahren liegt darin, dass die SOI-Aufzeichnungen über ein Jahrhundert zurück reichen, während für die zentralen Ozeanbereiche nur seit wenigen Jahren Daten erfasst werden.

Die Stärke von statistischen Vorhersagen besteht in der Verwertung tatsächlich aufgetretener Ereignisse. Andererseits können sie genau deswegen versagen, weil El Niño / La Niña keine jeweils identischen, sich genau wiederholenden Erscheinungen sind.

2. Dynamische Modelle

Sie basieren vorwiegend auf physikalischen Gleichungen (die Bewegungen der Luft der Atmosphäre, des Ozeanwassers, die Speicherung des Wassers im Boden, der Kohlenstoff-Kreislauf usw.). So werden beispielsweise die Newtonschen Bewegungsgesetze zur Vorhersage der Windgeschwindigkeit verwendet. Mathematische Darstellungen der physikalischen Gesetze werden in Computerprogramme umgewandelt. Die zunehmende Rechenleistung ermöglicht die Darstellung komplexerer Verhaltensweisen der Atmosphäre und des Ozeans in dynamischen Modellen.

Die auf solchen Prozessen beruhenden Modelle nennt man auch Modelle der Allgemeinen Zirkulation, engl. General Circulation Model (GCM). Je nachdem, ob man die Atmosphäre modelliert oder den Ozean, wird der Bezeichnung noch ein A beziehungsweise ein O vorangestellt (AGCM bzw. OGCM). Wird das ganze Ozean-Atmosphäre-System modelliert, so spricht man von einem Coupled General Circulation Model (CGCM).

Eine Hauptschwierigkeit bei diesem Vorhersagetyp liegt dabei, dass man nicht jedes Wasser- und Luftmolekül simulieren kann. Einerseits Datenarmut, andererseits die Grenzen von Computern hinsichtlich Geschwindigkeit und Speicherkapazität führen zu einer Abbildung der Realität in Gittermustern. Deren Kantenlänge bemisst sich nach Zehnern bis Hunderten von Kilometern. Diese grobe Auflösung macht eine detaillierte Vorhersage sehr schwierig.

Vorteile von dynamischen Modellen (d.M.) gegenüber statistischen Modellen (s.M.):
Nachteile von dynamischen Modellen gegenüber statistischen Modellen:

In realen ENSO-Vorhersagesituationen hat sich die Leistungsfähigkeit von statistischen und von dynamischen Modellen als nahezu gleichwertig herausgestellt. Die mit der verbesserten Computerleistung von Seiten der Ozeanongraphen und Klimatologen erwartete Überlegenheit der dynamischen Modelle hat sich noch nicht deutlich eingestellt. Daher werden beide Typen weiterhin genutzt. Da s.M. in ihrem Einsatz viel schneller und billiger sind, werden ihre Leistungen gerne als Referenz für die Leistungen der viel teureren d.M. genutzt.

3. Hybridmodelle

Das System Meer - Atmosphäre wird nicht gekoppelt betrachtet, statt dessen berechnet man die Meeresströmungen mit einem dynamischen Modell und leitet dann die Auswirkungen auf die Atmosphäre mit statischen Modellen ab.

Weitere Informationen: