Beobachtung und Vorhersage

Einleitung

Dieses Kapitel befasst sich mit Beobachtungsverfahren, Messsystemen, Klimamodellen zur Vorhersage sowie ENSO-Vorhersagen und deren Nutzen. Aktuelle Daten bzw. die externen Links zu ihrer Beschaffung finden Sie hingegen im Kapitel Aktueller Zustand des Pazifiks.

Wie schon im Überblickskapitel dargestellt, bezieht sich ENSO auf den Wechsel zwischen der El Niño-Phase im tropischen Pazifik und seiner gegenteiligen Phase, der La Niña sowie der Neutralphase. Der Southern Oscillation Index erfasst die Ost-West-Unterschiede des Luftdrucks in Bodennähe, welche diese Veränderungen begleiten. ENSO wird ferner begleitet durch Änderungen der Meerestemperaturen und von Verschiebungen der atmosphärischen Zirkulation, wobei einige Aspekte vorhersagbar erscheinen. Das bedeutet, dass man mit Hilfe von Beobachtungen des Klimas und der Meerestemperaturen, insbesondere im Bereich des tropischen Pazifiks, und von Modellen, die unser Verständnis von Klimavariabilität beschreiben, mit einer gewissen Kompetenz die ENSO-Bedingungen vorhersagen und Prognosen für Lufttemperaturen und Niederschläge in anderen Gebieten machen können.

Seit Wissenschaftler vor über 40 Jahren erkannt haben, dass ozeanische und atmosphärische Teile von ENSO eng miteinander verbunden sind, haben sie begonnen,die kombinierten Phänomene aus einer Vielzahl von Perspektiven aus zu betrachten und schufen so ein tieferes Verständnis für dieses komplexe und einflussreiche Naturphänomen.

Als 1982–83 ein starkes El Niño-Ereignis ohne Vorwarnung einsetzte, erkannten die Wissenschaftler es erst nachdem es sich entwickelt hatte. Dies lag an den beschränkten Beobachtungsmöglichkeiten, den noch primitiven Computermodellen, den gleichzeitig auftretenden Auswirkungen eines Ausbruchs des mexikanischen Vulkans El Chichón im Jahr 1982 und schließlich auch an der fehlenden Erkenntnis über die Entwicklungsvariabilität verschiedener El Niños. Erst der folgende Aufbau eines ENSO-Beobachtungssystems im tropischen Pazifik brachten wesentliche Erkenntnisse für die Frühwarnung.

Ständige Schwankungen in den 1960er und 1970er Jahren formten das frühe Verständnis von ENSO. Die 1980er und 1990er wurden von El Niño-Phasen dominiert, einschließlich der starken Ereignisse von 1982/83 und 1997/98. Auch das Ereignis von 2015/16 war von Eigenheiten im Vergleich zu anderen Starkereignissen geprägt.

Wissenschaftler der NOAA und anderer Wetterbehörden sowie von wissenschaftlichen Instituten setzen heute eine Vielzahl von Instrumenten und Methoden ein zur Beobachtung und Vorhersage von Veränderungen im Pazifik und von deren Auswirkungen auf globale Wettermuster. Im tropischen Pazifik sind dies  u.a. verschiedene Typen von Bojen, schiffgestützte Messungen und Satellitenbeobachtungen.

Aus historischer Perspektive ist anzumerken, dass moderne, auf ENSO bezogene Beobachtungsdaten teilweise bis in das späte 19. Jahrhundert zurückreichen. Da solide Beobachtungen im tropischen Pazifik in der frühen Beobachtungsperiode allerdings nur in spärlichem Umfang vorliegen, werden Datensätze üblicherweise aus den wenigen Beobachtungen, zusätzlich mit Modellen und mit statistischen Methoden erstellt.

images/wang_enso_indices  

ENSO Indizes

Dargestellt sind

(a) SST Anomalien in der Nino 3 Region (5°S-5°N, 150°W-90°W),

(b) SST Anomalien in der Nino 4 Region (5°N-5°S, 160°E-150°W) und

(c) zonale Windanomalien in der Nino 4 Region.

Alle Zeitreihen sind 3-Monatsmittel. Die Werte für die Meeresoberflächentemperaturen stammen von der NOAA extended reconstructed SST version 3 (Smith et al. 2008) und die Werte für die Windreihe sind von der neu entwickelten NOAA Earth System Research Laboratory (ESRL) 20th Century Reanalysis (20CR) (Compo et al. 2011).

 

Quelle: Wang et al. (2012)

 

 

Die Abbildung oben zeigt ENSO-Indizes von Beginn des 20. Jahrhunderts an: Die Anomalien der Meeresoberflächentemperaturen (SST) in der Niño 3-Region (150°W-90°W, 5°S-5°N) und der Niño 4-Region (160°E-150°W, 5°S-5°N), sowie die zonalen Windanomalien in der Niño 4-Region. Aus dieser Abbildung kann man mehrere Punkte ableiten:

  1. Die SST und die zonalen Windanomalien sind stark korreliert, was auf den Charakter von ENSO als gekoppeltes Ozean-Atmosphäre-Phänomen hinweist.
  2. Diese ENSO-Indizes zeigen ein oszillatorisches Verhalten mit einem bevorzugten Rhythmus von 3-5 Jahren, auch wenn die Oszillation eine beträchtliche Unregelmäßigkeit besitzt.
  3. ENSO-Ereignisse zeigen eine Asymmetrie zwischen den warmen El Niño- und den kalten La Niña-Ereignissen, wobei die Anomalien von El Niño stärker sind als jene von La Niña.
  4. Die Abb. (b) zeigt, dass die Warmereignisse im zentralen Pazifik (dargestellt im Niño 4-Index) in den letzten paar Dekaden häufiger aufgetreten sind.

Ein weiteres Merkmal, das allerdings nicht klar aus der oben stehenden Abbildung abgelesen werden kann, ist der phasenstarre Charakter von ENSO in Bezug auf das jahreszeitliche Auftreten. Gemeint ist, dass ENSO-Ereignisse dazu tendieren, ihre stärkste Ausprägung während des Nordwinters zu erreichen (z. B. Rasmusson und Carpenter 1982).

Global Tropical Moored Buoy Array
images/global_tropical_moored_buoy_array_wang

Quelle: Wang et al. (2012) - Abb. geändert nach Vorlage von M. McPhaden (NOAA/PMEL)

 

Das ENSO-Beobachtungssystem im tropischen Pazifik hat die Bezeichnung TAO/TRITON Array. Die Instrumente liefern in nahezu Echtzeit Daten zu Temperatur und Salinität an der Oberfläche und darunter, ferner zu Windgeschwindigkeit und -richtung, Strömungsgeschwindigkeit und zu Luft-Wasser-Austauschvorgängen (air-sea fluxes). Die Rahmen markieren die Nino3-Region (150°W-90°W, 5°S-5°N), die Nino4-Region (160°E-150°W, 5°S-5°N), die Nino3.4-Region ( 170°W-120°W, 5°S-5°N), die Nino1-Region (90°W-80°W, 5°S-10°S) und die Nino2-Region (90°W-80°W, 0°-5°S).
Der Erfolg von verankerten Bojen im tropischen Pazifik führte zur Installation von ähnlichen Bojen im Atlantik und im Indik.

Link zu aktueller Version der Grafik

 

 

Die Lage der Thermokline und ihre Änderungen sind während ENSO-Ereignissen sehr bedeutsam, aber Messungen der Meerestemperatur unterhalb der Oberfläche waren in der Vergangenheit nur sehr spärlich. Der Mangel an Daten und fehlende Kenntnisse über die Ozean-Atmosphäre-Interaktion führten in den 80er und 90er Jahren zu einem zehnjährigen, auf die Tropenmeere bezogenen Forschungsprogramm im Rahmen des World Climate Research Programmes: Das Tropical Ocean Global Atmosphere program (TOGA). Dem Programm lag das Bewusstsein zugrunde, dass sich die dynamische Anpassung des Ozeans in den Tropen rascher vollzieht als in den höheren Breiten. Beispielsweise können sich Störungen, die aus dem Westpazifik im Rahmen eines El Niño-Ereignisses heraus auftreten, innerhalb von Wochen quer über das Ozeanbecken ausbreiten, wohingegen sie in höheren Breiten Jahre für die gleiche Strecke benötigen würden.

Eine der Errungenschaften des TOGA-Programms (1985-1994) war der Aufbau eines ENSO-Beobachtungssystems im tropischen Pazifik. Das Rückgrat des operationell arbeitenden ENSO-Beobachtungssystems läuft heute unter der Bezeichnung TAO/TRITON Array und besitzt ca. 70 verankerte Bojen (Hayes et al. 1991; McPhaden 1995), die von den USA und von Japan eingerichtet und unterhalten werden.

 

Beobachtung des ENSO-Phänomens

Operationelle Datenerhebung

Generell werden heute Daten zur Beobachtung und Vorhersage von El Niño-/La Niña-Ereignissen geliefert von

  1. Pegelstationen auf Land
  2. Satelliten (Doppelrolle, einerseits Träger von Sensoren, andererseits Datenübermittler, z.B. von Bojen zu Forschungsstationen auf Land)
  3. fest verankerten Messbojen
  4. frei schwimmenden (driftenden) Messbojen
  5. Schiffen, auf jeweils freiwilliger Basis: das ozeanographische Programm Ship Of Opportunity Program (SOOP) oder das meteorologische Programm Volunteer Observing Ship (VOS)
  6. Wind-Profilern

Mit Hilfe dieser Daten versuchen die Klimaforscher, die Vorgänge im pazifischen Ozean und der darüberliegenden Atmosphäre mit Computermodellen auf Grossrechnern zu simulieren. Dies ist eine komplexe Aufgabe, weil es zum einen noch nicht seit langer Zeit solche Klimadaten über den Pazifik gibt und zum anderen, weil die Vorgänge in der Natur nicht linear sind, sondern auch schon kleine Veränderungen große Auswirkungen haben können. Ferner gibt es noch immer deutlich zu wenige Beobachtungspunkte, insbesondere was die Tiefen des Ozeans betrifft.

Moderne dynamische und statistische Vorhersagemodelle können die Wahrscheinlichkeit eines El Niño- oder La Niña-Ereignisses heute mit erstaunlicher Güte bis zu einem halben Jahr im Voraus vorhersagen, allerdings wird die maximale Intensität noch nicht sehr gut getroffen. Jedoch sind die Fernwirkungen auf andere Regionen nur ungenau vorhersagbar, da dabei auch andere Faktoren ins Spiel kommen. Viele Aspekte der Frage, wie ein El-Niño-Ereignis im einzelnen ausgelöst wird, sind noch Gegenstand der Forschung.

Jedes Forschungszentrum stützt sich bei seinen ENSO-Updates auf eine Reihe von Kerndatensätzen, so dass die genauen Werte für eine bestimmte Größe (z.B. Niño-3.4 SST) variieren, je nachdem, welcher Datensatz untersucht wird. Diese Unterschiede zwischen den Datensätzen ergeben sich in erster Linie aus strukturellen Gründen, wie z. B. der Wahl des dynamischen Modells oder der statistischen Methode, mit der die verfügbaren Beobachtungen ergänzt werden. Besonders deutlich sind die Unterschiede im tropischen Pazifik, der große Regionen umfasst, die nicht durch Punktmessungen abgedeckt sind (z. B. Bojen, Schiffe). Viele Zentren verlassen sich zudem auf Datensätze, die nicht nur Bojen- oder Schiffsdaten, sondern auch Satelliteninformationen aufnehmen. Die moderne Satellitenaufzeichnung begann jedoch erst Ende der 1970er Jahre, was die Verwendung dieser Datensätze für historische Auswertungen, die weiter zurückreichen, verhindert. Darüber hinaus haben Satellitenschätzungen Verzerrungen (aufgrund von Problemen wie unterschiedlichen äquatorialen Überflugzeiten), die durch in situ Oberflächenbeobachtungen korrigiert werden müssen, und diese Korrekturen können im Laufe von Zeit und Raum variieren, wenn neue Satelliten aufgenommen werden. Einige Datensätze wie der NOAA Extended Reconstructed SST (ERSST) verzichten auf Satelliteninformationen, um die Konsistenz oder Homogenität des Datensatzes zu erhalten. Für Zwecke außerhalb historischer Vergleiche und zur Bereitstellung von ENSO-Updates in Echtzeit werden diese satellitengestützten Datensätze jedoch stark in Anspruch genommen, sowohl um ein Gesamtbild der ENSO-Entwicklung zu erhalten, wie auch um Ausgangsbedingungen für viele Vorhersagemodelle bereitzustellen. (L'Heureux et al. 2017)

"Except for the regular progression of the seasons, ENSO is the most predictable climate fluctuation on the planet. Its predictability is based on wind-driven seasonal variations in the amount of heat stored in the upper few hundred meters of the tropical Pacific Ocean. These variations affect sea surface temperatures, which in turn influence the global atmospheric circulation."

McPhaden, M. J., Zebiak, S. E., Glantz, M. H. (2006): ENSO as an Integrating Concept in Earth Science

Die Notwendigkeit, mit verschiedenen, möglichst Realzeit-Daten liefernden Systemen die Beobachtung zu betreiben, zeigte sich spätestens beim großen El Niño von 1982, der bereits in vollem Gange war, als die Wissenschaftler ihn bemerkten. Diese hatten vereinzelte Hinweise über deutliche Änderungen der Ozeantemperatur von entfernten Inseln im Pazifik ignoriert und vielmehr ihren Wettersatelliten vertraut, die nichts Ungewöhnliches aufzeichneten. Dies lag daran, dass die Temperaturmessungen durch die Stäube eines Vulkanausbruchs Mexiko (El Chichon) überlagert waren. Zwar waren schon Messbojen in Äquatornähe installiert, ihre Daten waren jedoch erst Monate später verfügbar, nachdem die Instrumente geborgen waren.

Die Aussagekraft der verschiedenen Systeme ist äußerst unterschiedlich, was an den folgenden Beispielen deutlich wird:
Pegelmessungen liefern zwar regelmäßig Daten, haben aber den Nachteil, dass sie an die zufällige Verteilung von Inseln und Küsten gebunden sind, was erhebliche Beobachtungslücken zur Folge hat. Gleiches gilt für Handelsschiffe, die im Auftrag der Forschung Messsonden auf ihren routengebundenen Fahrten aussetzen. Räumlich und zeitlich systematischer werden Daten hingegen von einem Netz fest verankerter Bojen geliefert.

Satelliten auf einer Umlaufbahn vermögen zwar kontinuierlich Daten zu liefern. Es können bei jedem Überflug aber nur Daten aus Streifen von einigen 100 km Breite erfasst werden. Ein vollständiges Bild des tropisch-pazifischen Raumes entsteht folglich erst im Abstand einiger Tage.

Kontinuierliche Daten können demgegenüber von geostationären Satelliten geliefert werden, die jedoch jeweils nur den von ihnen aus sichtbaren Teil der Erdoberfläche darstellen können (z.B. die NOAA-Satelliten der Serie GOES: Geostationary Operational Environmental Satellite).

Der ENSO-Mechanismus beinhaltet zwar eine enge Verzahnung von ozeanischen und atmosphärischen Komponenten, die beiden Bereiche reagieren jedoch aufeinander in sehr unterschiedlichen Zeitskalen. Die Atmosphäre ist weniger dicht als der Ozean und reagiert deshalb fast sofort auf einen Impuls von der Ozeanoberfläche. Der Ozean ist vergleichsweise massiv und verhält sich folglich gegenüber einem atmosphärischen Forcing träge. Beispielsweise kann es sein, dass die Tiefe der Thermokline Monate benötigt, um sich veränderten Winden in den Tropen anzupassen, wohingegen sich atmosphärische Konvektion über warmem Wasser innerhalb von Stunden einstellen kann. Diese langsame Entwicklung des Temperaturfeldes im oberen Ozean liefert das "Gedächtnis" für das Klimasystem im tropischen Pazifik. Und es ist genau diese thermische Trägheit, die die Grundlage für die Vorhersagbarkeit für Veränderungen der ENSO-Zeitskala darstellt.

El Niño Rapid Response Field Campaign (2016)

Während des El Nino 2015/16 haben Wissenschaftler der NOAA und von Partnerorganisationen im tropischen Pazifik zu Land, auf dem Meer und in der Luft eine Kampagne zur Untersuchung des Naturphänomens gestartet. Die dabei gewonnenen Daten sollen auch helfen, die Wettervorhersagen in weit entfernten Gebieten zu verbessern, insbesondere durch die Optimierung von Vorhersagemodellen. Gleichfalls dienen sie den jahresübergreifenden ENSO-Vorhersagen, sowie der höheren Genauigkeit von Modellen zur Langzeitvorhersage von Effekten des Klimawandels.

Die als El Niño Rapid Response Field Campaign bezeichnete Kampagne wird das NOAA-Forschungsflugzeug Gulfstream IV sowie das NOAA-Schiff Ronald H. Brown einsetzen, die NASA stellt ihre unbemannte Drohne Global Hawk zur Verfügung, die mit speziellen Sensoren ausgerüstet ist. Dazu kommen Forscher, die u.a. auf Kiritimati (vorm. Weihnachtsinsel) ca. 1340 Meilen südlich von Honolulu stationiert sind. Vom Boden aus lässt man Wetterballone aufsteigen, beobachtet die Atmosphäre mit Radaranlagen, und von Flugzeugen aus werden Instrumente abgeworfen, die zur Erdoberfläche schweben und dabei Wetterparameter messen.

images/mission-map_800

Karte mit dem Einsatzgebiet der El Niño Rapid Response Field Campaign

 

 

Quelle: NOAA ESRL

 

Die Forschung im Kerngebiet dieses sehr starken El Niño wird den Meteorologen dabei helfen, das erste Glied in der Kette zu verstehen, die unter anderem Extremniederschläge an der US-amerikanischen Westküste verursacht.

Während der zwei vorangegangenen Extrem-El Niños wurde Kalifornien von intensiven Regenfällen durchnässt, was zu Überschwemmungen, Hangrutschungen und anderen Sachschäden führten. Kalifornien ist für die Forscher ein hochinteressantes Untersuchungsgebiet, insbesondere als der Staat seit langem versucht mit einer historischen Dürre fertig zu werden.

Derartige Untersuchungen während eines starken El Niño waren bislang noch nicht durchgeführt worden. Die Kampagne musste innerhalb relativ kurzer Zeit konzipiert werden, um die Chance zur Beobachtung des ablaufenden El Niño zu nutzen.

images/noaa-giv-aircraft  

NOAA G-IV Aircraft

The NOAA G-IV aircraft will fly out of Honolulu, Hawaii carrying a suite of meteorological sensors and deploying dropsondes during an estimated 20 research flights from mid January to early March 2016.

Quelle: NOAA ESRL

images/020416-deboer-globalHawk_600  

NASA Global Hawk Unmanned Aircraft

The Sensing Hazards with Operational Unmanned Technology (SHOUT) project led by the NOAA Unmanned Aircraft System (UAS) Program, will deploy the NASA Global Hawk UAS carrying a suite of meteorological sensors and drop parachuted weather instruments during four research flights in February in the eastern Pacific, near the U.S. West Coast. The aircraft is based at the NASA Armstrong Flight Research Center at Edwards Air Force Base.

images/noaa-ron-brown  

NOAA Research Ship Ronald H. Brown

The NOAA Research Ship Ronald H. Brown will launch up to 8-times daily radiosondes (weather balloons) on the Tropical Atmosphere Ocean (TAO) survey cruise from February 16 to March 18, 2016 (Honolulu to San Diego).

images/020216-junyent-SF-xband_600  

Scanning X-Band Radar

A scanning X-Band radar has been temporarily installed in the south San Francisco Bay to fill coverage gaps in the existing radar array and provide more accurate rainfall estimates for the region to better manage potential heavy precipitation and associated negative impacts from El Niño storms.

Kirimati Island Observations  

Kiritimati Island Observations

On Kiritimati (Christmas) Island, approximately 1,340 miles south of Honolulu, a radiosonde sounding system is being set up with twice-a-day vertical soundings made continuously from late January through March 2016.

Picture taken from the International Space Station.

 

Das TAO/TRITON-Messnetz

Das Pacific Marine Environmental Laboratory (PMEL) der NOAA unterhält das weltgrößte System von im Ozean stationierten Wetterstationen, nämlich einen 8.000 Meilen langen Gürtel von ca. 70 instrumentenbestückten Bojen. Diese sind entlang des Äquators von Neu-Guinea bis Panama angeordnet, d.h. von ca. 8°N bis 8°S und von 137°O bis 95°W. Die gesammelten in-situ-Informationen werden über das satellitengestützte Argos-System an das Institut übermittelt. Ursprünglich nur als Tropical Atmosphere-Ocean Array (TAO-Messnetz) bezeichnet, wurde es im Januar 2000 zu TAO/TRITON-Messnetz umbenannt, um der japanischen Beteiligung (JAMSTEC) mit ihren TRITON-Verankerungen Rechnung zu tragen.

1201_0170w

Service an einer Boje des TAO-Messnetzes

 

Quelle:

NOAA - Pacific Marine Environmental Laboratory

Link:

The TAO Story - Developing an El Nino
Observing System (NOAA / YouTube)

Dieses TAO-Messnetz ("Tropical Atmosphere-Ocean Array") misst ozeanographische und oberflächennahe meteorologische Variablen, die für das Erkennen, das Verstehen und die Vorhersage von saisonalen bis mehrjährigen Klimaschwankungen, die in den Tropen ihren Ausgang nehmen, von Bedeutung sind. Besonderes Augenmerk gilt ENSO-Ereignissen.

Per Satellitenübermittlung liefern die Bojen Klimaforschern und Wetterämtern rund um die Welt Echtzeit-Daten aus dem tropischen Pazifik. Das TAO-Messnetz wurde im Rahmen des 1994 abgeschlossenen internationalen TOGA-Programmes ("Tropical Ocean Global Atmosphere") eingerichtet. Die Notwendigkeit für die Etablierung eines solchen Ozean-Beobachtungssystems wurde in der Planungsphase für TOGA überdeutlich durch das Auftreten des extremen El Niño von 1982/83, der weder vorhergesagt, noch bis kurz vor seinem Höhepunkt als solcher erkannt wurde. Es fehlten Echtzeit-Daten.

SST-Messungen Pazifik

Bereich und Dichte von Temperaturmessungen der Meeresoberfläche

Locations of sea surface temperature observations from the International Comprehensive Ocean Atmosphere Data Set (ICOADS) for 20-year periods starting with the 1860-1879 period and ending with 1980-1999. The colors represent the percentage of months with at least one sea surface temperature measurement in each 2 degree by 2 degree grid box. The darker the color the higher the percentage of months in each 20-year period that has an observation. NOAA Climate.gov image with data from ICOADS.

While in the early 1980s there were some ocean observations from ships, buoys and satellites, nothing with the capabilities of the TAO existed until…well, TAO. This includes TAO’s ability not only to measure the surface but also the sub-surface in the equatorial Pacific Ocean. The subsurface can be where all the “action” is in a developing El Niño and La Niña, as that is where oceanic Kelvin waves reside.

Zu größerer Darstellung auf Grafik klicken (Web)

Quelle: NOAA - Climate.gov

Schlüssel zur erfolgreichen Einrichtung von TAO war die Entwicklung von preisgünstigen ATLAS-Bojen ("Autonomous Temperature Line Acquisition System"), die wesentliche, für die Erforschung von ENSO wichtige Daten sammeln und übermitteln.

Jede Boje misst die Parameter Lufttemperatur, relative Luftfeuchte, wasseroberflächennahe Winde, Meeresoberflächentemperatur und Temperaturen des Wasserkörpers bis zu einer Tiefe von 500 Metern.

Zur Messung der Wasserströmung sind exakt entlang des Äquators (147°O, 165°O, 170°W, 140°W, 110°W) unter der Meeresoberfläche festverankerte Sensoren platziert. Es handelt sich um Acoustic Doppler Current Profiler (ADCP). Mit diesen Subsurface Current Meter Moorings werden auch die Parameter Druck und Temperatur gemessen. Alle Daten sind allerdings erst nach der Bergung der Messgeräte verfügbar.

In benachbarten ATLAS-Systemen werden in den oberen 300 m des Wasserkörpers an 4-5 Tiefenstufen ebenfalls die Strömungsverhältnisse gemessen. Diese Systeme liegen bei 165°O, 140°W und 110°W. Eine Echtzeit-Datenübertragung wird entwickelt.

Weitere Informationen über Temperatur und Salzgehalt aus der Tiefe liefern "Einweg"-Bathythermographen (XBT). Diese Geräte werden von Handelsschiffen ausgesetzt und übermitteln ihre Daten beim Absinken.

boje

Aufbau der Bojen am Beispiel einer
äquatorialen ATLAS-Boje

 

Quelle:
NOAA - Pacific Marine Environmental Laboratory

 

Sämtliche Daten des TAO-Messnetzes werden mit Hilfe von NOAA-Satelliten zum Pacific Marine Environmental Laboratory (PMEL) der NOAA weitergeleitet, wo sie aufbereitet und der internationalen Wissenschaft verfügbar gemacht werden. Das Messnetz wird im westlichen Pazifik auch in Kooperation mit Japan, Korea, Frankreich und Taiwan unterhalten.

Im westlichen Pazifik (W von 156°O) werden seit 1998 18 PMEL-Bojen durch leistungsfähigere TRITON-Bojen (Triangle Trans-Ocean Buoy Network) des Japan Marine Science and Technology Center (JAMSTEC) ersetzt. Hierbei erfolgt eine enge messtechnische Abstimmung zwischen PMEL und JAMSTEC, um vergleichbare Daten zu erhalten. Beide Datenserien werden in einen gemeinsamen Datenpool eingespeist und sind frei verfügbar.

Karte der verankerten Bojen im TAO/Triton Messnetz Karte der verankerten Bojen im TAO/Triton Messnetz

Quelle: NOAA - Pacific Marine Environmental Laboratory

Wasserstandsmessungen erfolgen zwar an Küsten von Kontinenten und Inseln, sowie durch Schiffe. Allerdings reicht das nicht aus, da beträchtliche Gebiete dadurch nicht abgedeckt werden. Messungen durch Handelsschiffe können nur in unregelmäßigen Abständen stattfinden, was die Verarbeitung der Daten verkompliziert. Deshalb stellt das TAO/TRITON-Messnetz eine wichtige Ergänzung dar (s. Karte unten).

Karte der Pegelmessstationen zusammen mit den verankerten Bojen und der
Satellitenflugbahn von TOPEX/Poseidon

images/img008a

Quelle: NOAA - Pacific Marine Environmental Laboratory (übersetzt)

An einigen der TAO-Bojen wurden 1996 vom Monterey Bay Aquarium Research Institute biologische und chemische Sensoren angebracht. Sie messen die CO2-Konzentration und die biologische Produktivität in diesen Gebieten. Daten über die biologische Aktivität des Meeres liefert auch der Meeresbeobachtungssatellit der NASA SeaWiFS (Sea-viewing Wide Field-of-View Sensor).

Das internationale CLIVAR-Projekt (Climate Variability and Predictability) ist der Nachfolger zu TOGA und wird die bestehenden Systeme zur Beobachtung von Atmosphäre und Ozean übernehmen und erweitern. Dazu wird auch ein dem TAO-System vergleichbares Messnetz entlang des äquatorialen Atlantik eingerichtet. Gleiches ist auch für den äquatorialen Indischen Ozean vorgesehen.

Detaillierte Informationen zum TAO-Projekt finden sich auf der Website von PMEL.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Webseiten, auf denen man aktuelle Messwerte dieser Bojen findet.

 

Höhenmessung (Altimetrie) mit Hilfe des Satelliten TOPEX/POSEIDON und Nachfolgemissionen (Jason 1 - 3)

Genaue Daten über Änderungen der Meeresspiegelhöhe liefern den Wissenschaftlern, die sich mit der gekoppelten Modellierung des Ozean-Atmosphäre-Systems befassen, wichtige Informationen zur Abschätzung von Änderungen im Wärmehaushalt der oberen Wasserschichten. Diese wiederum sind für die Vorhersage von El Niño- bzw. La Niña-Ereignissen von wesentlicher Bedeutung.

Grundlage für präzise Altimetermessungen ist die genaue Kenntnis des Geoids als Ausdruck des irdischen Schwerefeldes. Diesbezüglich hochgenaue Informationen liefern seit wenigen Jahren die CHAMP- und GRACE-Missionen.

Altimeter-Daten lieferte von 1992 bis 2006 vor allem der Satellit TOPEX/POSEIDON, ein Gemeinschaftsprodukt der amerikanischen Raumfahrtbehörde NASA und der französischen Weltraumbehörde CNES (Centre National d’Etudes Spatiales). Der Zweck des Satelliten war es, eine genaue Bestimmung der Höhe des Meeresspiegels relativ zum Erdmittelpunkt durchzuführen. Die ist von Ort zu Ort unterschiedlich.

Der mit einer Ariane 42P in seine Umlaufbahn gebrachte Satellit überflog die Erde in 1.336 km Höhe auf einer zu den Längengraden geneigten Bahn. Nach knapp zehn Tagen hatte er die Erde einmal vollständig umkreist und begann mit einem neuen Umlaufzyklus.

TOPEX/POSEIDON setzte Radar-Altimetrie ein, bei der Mikrowellen zur Wasseroberfläche gesandt und von dort reflektiert werden. Aus der Zeitspanne vom Senden eines Funkimpulses bis zu dessen Rückkehr nach Spiegelung an der Meeresoberfläche kann in Verbindung mit den genauen Lagedaten des Satelliten und anderen Bezugsgrößen die Meereshöhe bestimmt werden. Insbesondere benötigt man für die Satellitendaten die Informationen von Pegelstationen an Küsten und auf Inseln zur Kalibrierung.

Die Genauigkeit der Meeresspiegelmessungen liegen bei 1 bis 2 cm. Dabei werden Signale, die sich nur auf Gezeitenströme, Windschub und Atmosphärendruck beziehen, herausgerechnet. Die Datenauswertung erfolgt durch 38 Arbeitsgruppen in verschiedenen Ländern.

Das Programm TOPEX/POSEIDON war ursprünglich nur auf drei bis fünf Jahre anberaumt. Der 2001 gestartete Satellit JASON-1 sollte es ablösen. Während der zeitlichen Überlappung ihrer Aktivität wurden aber beide Satelliten in einer Tandemmission parallel genutzt. Jason-2, auch OSTM (Ocean Surface Topography Mission) genannt, folgte am 20. Juni 2008. Er wurde von Vandenberg aus auf eine 1340 km hohe zirkulare Kreisbahn mit 66° Bahnneigung gebracht. Der Satellit ist mit dem Zwei-Frequenz-Altimeter „Poseidon 3“ zur Bestimmung der Höhe von Meereswellen ausgerüstet.

Jason-3 wurde im Januar 2016 mit einer Falcon 9-Trägerrakete von der Vandenberg Air Force Base gestartet.

Missions - Basics

images/Jason_serie_lres

 

Quelle: NASA JPL

Jason-3
Launched: January 17, 2016

OSTM/Jason-2
Launched: June 20, 2008

OSTM/Jason-2 - The Ocean Surface Topography Mission on the Jason-2 satellite, is a follow-on to Jason-1. It takes oceanographic studies of sea surface height into an operational mode for continued climate forecasting research and science and industrial applications.

Jason-1
Launched: December 7, 2001, Decommissioned: July 2013.

Jason-1 continued the task of providing the important oceanographic data time-series originated by TOPEX/Poseidon, carrying updated versions of the same instruments. It flew in tandem with TOPEX/Poseidon for 5 years. (See the Tandem Mission Flash animation for more details).

NASA’s newly launched ocean viewing radar instrument, SeaWinds, has captured the fury of Typhoon Olga as it grew in intensity last week in the China Sea, packing high winds of more than 50 knots (57 miles per hour) and delivering torrential rains to South Korea, North Korea and other coastal communities of south Asia.

TOPEX/Poseidon
Launched: August 10, 1992, Decommissioned: January 2006.

TOPEX/Poseidon data has revolutionized the way the global ocean is studied. For the first time, the seasonal cycle and other temporal variabilities of the ocean were determined globally with high accuracy, yielding fundamentally important information for testing ocean circulation models. Major observations were made using TOPEX/Poseidon data on

  • Oceanic circulation including details on the movement of Rossby and Kelvin waves
  • Oceanic and coastal tides
  • El Niño, La Niña, and the Pacific Decadal Oscillation
  • El Niño-like circulation in the Atlantic Ocean
  • Oceanic seasons in the Mediterranean
  • Ocean floor topography from surface data used to refine the geoid model

GRACE
Launched: March 17, 2002

GRACE - Gravity Recovery and Climate Experiment, is flying two identical spacecraft about 220 kilometers apart in a 500-kilometer elevation polar orbit producing monthly maps of the geoid. The geoid is a hypothetical surface of the Earth that is coincident with mean sea level. It is perpendicular, at every point, to Earth’s gravity. It is the basic surface on which all altimetry data is based.

SWOT
Anticipated Launch: 2020

 

Das Jet Propulsion Laboratory der NASA bietet aktuelle Grafiken und Hintergrundinformationen (Ocean Surface Topography from Space).

Die über 10-jährigen Erfahrungen mit den Altimeterdaten haben deren wissenschaftlichen Einsatzbereich deutlich erweitert. Hier ist eine Liste der Ziele aufrufbar.

Die folgenden dreidimensionalen Reliefkarten zeigen den Pazifik in seinem neutralen Zustand und während eines El Niño-Ereignisses. Die Wasseroberflächentopographie wurde mit Hilfe von TOPEX/POSEIDON ermittelt.

sst_prof_01jan

Neutraler Zustand des Pazifiks

Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, Januar 1997

Farb-Legende:

rot = 30 Grad Celsius - blau = 8 Grad Celsius

 
sst_prof_11nov

Zustand während der El Niño-Phase

Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, November 1997

 
sst_prof_03mar98

Zustand bei der ausklingenden El Niño-Phase

Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, März 1998

Quelle: NASA Earth Observatory

 

Beim neutralen Zustand (Abb. oben) ist ein scharf begrenzter Warmwasserkörper im westlichen Drittel des Pazifik zu erkennen. Gleichzeitig ist dort der Meeresspiegel als Folge der geringeren Dichte des warmen Wasserkörpers erhöht. Die Thermokline - im Bild der Übergang zwischen dem dunklen Blau unten und dem darüber liegenden Türkis - steigt vom zentralen Teil des Pazifiks nach Osten hin steil an. Ihre hohe Lage vor der südamerikanischen Küste ist Beleg für das dort stattfindende Upwelling.

Die El Niño-Situation zeigt eine Ostwärtsverlagerung des Warmwasserkörpers im Rahmen einer Kelvin-Welle. Der Meeresspiegel ist im östlichen Pazifik um bis zu 34 cm erhöht, die Thermokline zeigt sich deutlich abgeflacht.

Auf Basis der Messdaten dieses Satelliten wurde ein TOPEX/Poseidon-El Niño-Index erstellt.

Die beiden folgenden Bilder ermöglichen den Vergleich der Anomalien der Meereshöhen (SSH) während der El Niño-Ereignisse von 1997-1998 (Peak im November 1997) und 2015-2016 (Peak im Januar 2016). Das Bild von 1998 (links) stammt vom Satelliten TOPEX/Poseidon, das Bild von 2016 (rechts) vom Satelliten Jason-2.

Der jüngere El Niño dauerte länger als die Episode von 1997/98 und umfasste ein größeres Gebiet. Ansonsten waren die beiden ähnlich, aber keineswegs identisch, wie gewöhnlich gab es Unterschiede beim zeitlichen Ablauf und bei den Auswirkungen. Man muss sich auch bewusstmachen, dass es 2014/15 einen schwachen zentralpazifischen Niño gab, sodass der starke El Niño von 2015/16 eine Starthilfe hatte. Wenn man die beiden Bilder vergleicht, sieht man, dass der tropische Ostpazifik nördlich des Äquators im Juli 2016 noch immer ein großes Gebiet mit anomal positiven (wärmeren) Werten besitzt. Der Fußabdruck von El Niño ist noch stark.

TOPEX/Poseidon
July 5, 1998 Anomaly

TOPEX/Poseidon July 5, 1998 Anomaly

Jason-2
July 6, 2016 Anomaly

Jason-2 July 6, 2016 Anomaly

Die Daten zu diesen Bildern wurden von den Missionen TOPEX/Poseidon und Jason-2 aufgenommen.

Quelle: NASA / JPL

Weitere Informationen:

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Webseiten mit Karten der aktuellen Meeresoberflächenhöhen.

 

Messung von Windvektoren mit Scatterometern

Neben den beiden Parametern Meeresoberflächentemperatur und Meeresspiegel gehören Veränderungen der Meereswinde zu den wichtigsten Faktoren, die den Einfluss von ENSO auf das Erdsystem belegen. So gelten auf Meereshöhe anomal nach Osten wehende Winde im tropischen West- und Zentralpazifik als Vorläufer und als Hauptmotor von El Niño-Ereignissen.

Ein auf einem japanischen Satelliten basiertes Radarinstrument der NASA stellte von 1996-97 Daten über weltweite Windsysteme bereit. Danach erlitt der Trägersatellit ADEOS (Advanced Earth Observing Satellite) einen Stromausfall. Dieses Scatterometer (NSCAT) genannte Radar arbeitete im Mikrowellenbereich. Es konnte Wolken durchdringen, um durch Informationen über die Meeresoberfläche Aussagen über Windgeschwindigkeit und -richtung zu machen.

QuikSCATStart SeawindsQuikSCAT

QuikSCAT

Links: Start einer Titan II Trägerrakete mit dem QuikSCAT-Satelliten in Vandenberg/Cal. am 19.6.1999

Rechts: QuikSCAT-Satellit auf seiner elliptischen Umlaufbahn mit ihrer max. Höhe von 800 km Quelle: NASA

Seit 1999 war das NSCAT-System ersetzt durch das auf dem QuikSCAT-Satelliten (seit 2009 inaktiv) installierte SeaWinds-System. Es arbeitete ebenfalls mit einem Scatterometer. Die SeaWinds-Antenne sendete Mikrowellenimpulse mit einer Frequenz von 13,4 Gigahertz aus. Neben den Winddaten lieferte das Gerät auch Informationen über Wellen, Strömungen, Polareiseigenschaften und andere Phänomene. Das Gerät sammelte Daten von einem 1.800 km breiten Streifen, wobei es täglich 400,000 Messungen vornahm und 90 % der Erdoberfläche bestrich. Die SeaWinds-Daten werden sowohl für die Seewettervorhersage genutzt, wie auch für Vorhersage-Modelle. Wissenschaftler versprechen sich von ihnen wesentliche Verbesserungen bei kurzfristigen Warnmeldungen und bei kurz- bis langfristigen Vorhersagen.

Windgeschwindigkeiten und -richtungen
über dem Pazifik am 1.8.1999, aufgenommen
mit dem SeaWinds-Radar

quikscat_pazifik_1_8_99

Die starken Oberflächenwinde des Taifuns Olga (gelbe Spirale) können im Chinesischen Meer vor Südkorea ausgemacht werden. Der östlichen Nordpazifik wird von einem beständigen Hochdrucksystem beherrscht, dessen antizyklonale Fließrichtung starke Winde hervorbringt, die parallel zu den Küsten Kanadas und der USA strömen. Drei intensive Wintersturmzentren sind nördlich der Antarktis zu erkennen.

NASA’s newly launched ocean viewing radar instrument, SeaWinds, has captured the fury of Typhoon Olga as it grew in intensity last week in the China Sea, packing high winds of more than 50 knots (57 miles per hour) and delivering torrential rains to South Korea, North Korea and other coastal communities of south Asia. Quelle: NASA JPL

 

Ein Nachfolgeprojekt mit einem SeaWinds-System wurde an Bord des japanischen ADEOS-II im Jahr 2002 ins All gebracht, das allerdings nach kurzer Zeit als Folge eines Sonnensturms ausfiel.

Scatterometer, wie auch das verwandte Synthetic Aperture Radar (SAR) senden Mikrowellenimpulse aus und messen die Intensität des Signals, das zum Satelliten zurückkehrt, nachdem es an der Meeresoberfläche reflektiert wurde. Die Stärke des zurückgekehrten Impulses gibt einen Hinweis auf die Rauhigkeit der Meeresoberfläche. Eine rauhe Meeresoberfläche schickt einen schwachen Impuls zurück, da die Wellen an der Meeresoberfläche die Energie des Mikrowellenimpulses in verschiedene Richtungen streuen. Die Streuung vermindert die Energiemenge, die von dem Satelliten dann empfangen wird. Andererseits schickt eine glatte Meeresoberfläche einen starken Impuls zurück, weil der Streueffekt der Wellen gering ist. Die Oberflächenrauhigkeit ist abhängig von der Windgeschwindigkeit.

Scatterometer und SAR messen die Richtung in der sich die Wellen in Bezug zum Satelliten bewegen. Die Richtung der Wellen in Bezug auf den Radarimpuls wirkt sich auf die Polarisation des zurückgesandten Signals aus. Mit Hilfe dieser Grundlagen und mit mathematischen Formeln kann die Bewegungsrichtung der Wellen bestimmt werden.

GEOSScat

Stärke des reflektierten Mikrowellenstrahls
in Abhängigkeit
von der Rauigkeit der Meeresoberfläche


 

Quelle:
Earth and Space Research Group,
UC Santa Barbara

Aktuell messen ASCAT-Instrumente an Bord der europäischen MetOp-Satelliten Windgeschwindigkeit und -richtung über den Ozeanen.

Nach dem Ausfall des QuikScat-Satelliten installierte die NASA im September 2014 als rasche und kostengünstige Zwischenlösung das RapidSCAT-Instrument auf der Raumstation ISS.

El Niño-Ereignisse haben beträchtliche Auswirkungen auf das gesamte Erdsystem, und gleichzeitig werden sie in hohem Maße durch die beobachtbare Veränderung von drei Parametern des Systems erfasst: die Meeresoberflächentemperatur (SST), die Höhe der Meeresoberfläche (SSH) und die oberflächennahen Meereswinde. In der Tat sind die charakteristischen ostwärts wehenden Winde im tropischen West- und Ostpazifik sowohl Vorläufer als auch Hauptantriebskraft von El Niño-Ereignissen.

Die folgenden Abbildungen zeigen die von NASAs RapidSCAT beobachteten oberflächennahen Winde über den Weltmeeren. Die linke Karte zeigt die durchschnittlichen Windverhältnisse in der Zeit vom 3. Januar 2015 bis zum 3. Februar 2015. Die rechte Karte zeigt die Windanomalien im Januar 2016, bezogen auf 2015. In beiden Fällen stellen die Farben die Windgeschwindigkeit dar, die Pfeile geben die Richtung der mittleren bzw. anomalen Winde an. Das El Niño-Signal ist in der rechten Abbildung durch die ostwärts wehenden anomalen Winde im tropischen West- und Zentralpazifik deutlich erkennbar. Das El Niño-Signal ist auch deutlich in der anomal stärkeren Konvergenz im tropischen Ostpazifik, erkennbar an den dort stärkeren äquatorwärtigen Winden.

RapidScat
January 2015

Rapid Scat - January 2015

RapidScat
January 2016 Anomaly

Rapid Scat - January 2016 Anomaly

Die Daten zu diesen Bildern wurden vom auf der Raumstation basierten Instrument RapidScat aufgenommen.

Quelle: NASA / JPL

Zusätzlich zu den Scatterometer-Messungen, die aktive Mikrowellen-Systeme einsetzen, werden die Geschwindigkeiten bodennaher Winde auch von einem passiven Mikrowellensensor an Bord eines militärischen Wettersatelliten gemessen. Das Gerät trägt die Bezeichnung "Special Sensor Microwave/Imager" (SSM/I).

 

Windmessungen mit Hilfe von "Windprofilern"

Im Pazifik wurde ein Netz von Windprofilern auf 6 abgelegenen Inseln installiert (Trans-Pacific Profiler Network, TPPN). Die Ortswahl soll die Datenlücken im tropischen Pazifik schließen helfen. Die Messergebnisse können für die tägliche Wettervorhersage verwendet werden, wie auch für das Verständnis und die Vorhersage von Phänomenen wie El Niño, die die jahresübergreifende Klimavariabilität in weiten Teilen der Erde beeinflussen. TPPN wird seit 2004 kostenbedingt als Programm nicht mehr weitergeführt, wohl aber gibt im pazifischen Raum auch künftig an mehreren, auch neu hinzugekommenen Standorten diese Technologie.

tppn  

Transpazifisches Windprofiler-Netz


 

Quelle:
Earth and Space Research Group,
UC Santa Barbara
TPPNsite  

Gelände der Wind-Profiler-Station in Biak, Indonesien


 

Quelle:
NOAA Aeronomy Laboratory

Windprofiler sind 50 MHz und 915 MHz Doppler-Radargeräte, die Vertikalprofile von horizontalen und vertikalen Luftbewegungen erstellen können. In Abhängigkeit von der Gerätefrequenz und den atmosphärischen Bedingungen können sie die Troposphäre bis in eine Höhe von 15 km beobachten. Zusätzlich können Informationen über Niederschlag und atmosphärische Turbulenzen gewonnen werden.

Die Windprofiler liefern direkte Messungen, die verwendet werden können um Schwerewellen, Konvektion und andere Prozesse zu untersuchen. Und sie liefern ohne Zusatzkosten kontinuierlich Daten. So dienen sie dem besseren wissenschaftlichen Verständnis

 

Ermittlung von Meeresoberflächentemperaturen mit Radiometern

Das in vier NOAA Satelliten installierte, vier- bzw. fünfkanalige Advanced Very High Resolution Radiometer (AVHRR) liefert Daten über die Temperatur der Meeresoberfläche. Es handelt sich um einen Breitband-Scanner. Der erste AVHRR-Sensor wurde im Oktober 1978 mit dem TIROS-N-Satelliten (Satellitenserie der NOAA) ins All befördert und hatte 4 Kanäle. AVHRR/2 folgte im Juni 1981 auf der NOAA-7-Plattform und hatte bereits 5 Kanäle. "Vierkanalig" bedeutet, dass das Instrument in vier verschiedenen Bereichen der sichtbaren, nahinfraroten und thermisch-infraroten Teile des Spektrums "sieht". Der fünfte Kanal neuerer Modelle verbessert die Messung der SST, indem er Korrekturen für die verzerrende Wirkung des atmosphärischen Wasserdampfes liefert.

Die dritte Version AVHRR/3 (mit nunmehr 6 Kanälen) startete im Mai 1998 mit NOAA-15 und findet sich auch auf dem aktuellen NOAA-19. Ein weiteres AVHRR/3-Instrument wurde im Oktober 2006 mit dem Satelliten Metop-A (EUMETSAT) in den Orbit gebracht. Auch auf den Folgesatelliten dieser Serie ist das Instrument installiert, so dass eine längerfristige Verfügbarkeit gesichert ist. Die Erfahrungen im operationellen Betrieb mit dem MODIS-Sensor an Bord der NASA-Satelliten Terra und Aqua führte zur Entwicklung von VIIRS, dem Nachfolger von AVHRR. VIIRS ist gegenwärtig an Bord des Satelliten Suomi National Polar-orbiting Partnership (frühere Bezeichnung NPOESS ) im Einsatz und wird auch an Bord des Joint Polar Satellite System im Spätjahr 2017 eingesetzt.

nino97

Mögliche El Niño-Telekonnektionen:

Anomalien der Windrichtung
und der Meeresoberflächentemperatur
in der Woche vom 22. bis 31.5.97


 

Quelle: NASA (R.o.)

Die Graphik zeigt das frühe Stadium des El Niños 1997/98 und mögliche Telekonnektionen. Die weißen Pfeile stellen Anomalien der mit NSCAT ermittelten Oberflächenwinde dar, die Farben repräsentieren Anomalien der Meeresoberflächentemperaturen, die mit AVHRR gemessen wurden. Beide Parameter stellen die Situation für die letzte Woche im Mai 1997 dar. Auffällig sind die anomalen Westwinde im äquatorialen Westpazifik, die anomalen Südwinde entlang der mexikanischen und kalifornischen Küste sowie die Unterdrückung der äquatorialen und küstennahen Auftriebswässer und die nachfolgende anomale Erwärmung. Erkennbar ist eine "Pineapple Express" genannte Windströmung, die Feuchtigkeit aus der Gegend um Hawaii an die kalifornische Küste transportiert. Die Verstärkung der außertropischen zyklonalen Fließrichtung führt zu einem Zustrom von ungewöhnlich warmen Wassermassen.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Homepages mit Karten der aktuellen Meeresoberflächentemperaturen.

(s.a. Definition von Radiometer im Lexikon)

 

Messung der Relativen Luftfeuchte

Die Relative Luftfeuchte im 500 hPa-Niveau, welches sich vertikal etwa in der Mitte der für das Wettergeschehen wichtigen Troposphäre befindet, wird als Maß verwendet um in den folgenden Abbildungen Wechsel im atmosphärischen Feuchtigkeitsgehalt hervorzuheben. Die Tropen und die Sturmbahnen der Mittelbreiten sind typischerweise feucht, während die dazwischen liegenden Subtropen trockenere Luft aufweisen (Abb. links). Der El Niño 2015/16 hat im tropischen und subtropischen Ostpazifik zu einer deutlich höheren Relativen Luftfeuchte geführt und gleichzeitig zu viel trockeneren Bedingungen über Indonesien und Südostasien, was mit dem gleichzeitigen Rückgang der Niederschläge, den Dürrebedingungen und den häufigen Bränden übereinstimmt (Abb. rechts).

Relative Humidity at 500 hPa
November Average

images/airs_rh500_avg_11_lres

Relative Humidity at 500 hPa
November 2015 Anomaly

images/airs_rh500_anom_2015_11_lres

Die Daten zu diesen Bildern wurden vom Instrument Atmospheric Infrared Sounder (AIRS) auf dem NASA-Satelliten Aqua aufgenommen.

Quelle: NASA / JPL

 

Beobachtung der Cirrus-Wolken

Cirrus-Wolken sind Eiswolken, die in der oberen Troposphäre zwischen 5 und 13 km auftreten. Ihr Auftreten ist z.B. verbunden mit tropischer Konvektion und Winterstürmen in Kalifornien. Die Veränderungen in der Häufigkeit von Cirrus-Wolken ähnelt dem Muster mit dem sich die Relative Feuchte und die ausgehende Langwellenstrahlung ändern. Bezogen auf die Abbildungen unten (November 2015) ist anzumerken, dass es in den Monaten davor zu einer sehr starken Zunahme von Cirrus-Wolken über dem östlichen Pazifik und über dem südlichen Drittel der USA und über Mexiko gekommen ist und gleichzeitig zu einem aktiveren Subtropenjetstream, was sehr typisch für einen starken El Niño ist.

Cirrus Cloud Frequency
November Average

images/airs_icefreq_avg_11_lres

Cirrus Cloud Frequency
November 2015 Anomaly

images/airs_icefreq_anom_2015_11_lres

Die Daten zu diesen Bildern wurden vom Instrument Atmospheric Infrared Sounder (AIRS) auf dem NASA-Satellit Aqua aufgenommen

Quelle: NASA / JPL

Weitere Informationen: El Niño's effect on Cirrus clouds (NASA JPL)

 

Messung der Outgoing Longwave Radiation mit Radiometern

Beobachtungsdaten der ausgehenden Langwellenstrahlung (Outgoing Longwave Radiation, OLR) an der Obergrenze der Atmosphäre (Top of the Atmosphere, TOA) werden vom Advanced Very High Resolution Radiometer (AVHRR) an Bord der polumlaufenden NOAA-Wettersatelliten ermittelt. Die Datenaufnahme konzentriert sich auf äquatoriale Gebiete von 160° O bis 160° W. Die Rohdaten werden in einen standardisierten Anomalie-Index konvertiert. Negative (Positive) OLR zeigen verstärkte (unterdrückte) Konvektion an und damit stärkere (geringere) Wolkenbedeckung, was typisch für El Niño- (La Niña-) Episoden ist. Verstärkte (geringere) konvektive Aktivität im zentralen und östlichen äquatorialen Pazifik weist auf höhere (niedrigere) und kältere (wärmere) Wolkenoberseiten hin, welche entsprechend viel weniger (mehr) Infrarotstrahlung in den Weltraum ausstrahlen.

olr_13_14

Outgoing Longwave Radiation (OLR)

Last 12 Months (W/m²)

Quelle und aktuelle Version: NOAA NCDC

Weitere Informationen: Climate Prediction Center OLR page

 

Messung der Outgoing Longwave Radiation mit dem AIRS-Infrarotsounder

Outgoing Longwave Radiation (OLR) oder zu dt. ausgehende Langwellenstrahlung, ist die Thermalstrahlung oder Wärmeenergie, die von der Erdoberfläche und der Atmosphäre in Richtung Weltraum abstrahlt. Die OLR ist abhängig von Temperatur, Luftfeuchte und Wolken, und sie ist gewöhnlich über den subtropischen Wüstenregionen und den subtropischen Ozeanen am größten. Die OLR ist geringer in den höheren Breiten und ind den wolkigen und feuchten Teilen der Tropen. Der El Niño 2015/16 hat eine Verlagerung des üblichen geographischen Musters der OLR bewirkt: Der tropische Zentral- und Ostpazifik verzeichnet reduzierte OLR, verbunden mit verstärkter Konvektion und Feuchtigkeit, wohingegen im tropischen Westpazifik die OLR stark zugenommen hat.

Die OLR-Anomalien sind in den Folgemonaten verschwunden, da sich ab Mai 2016 eine Neutralphase ausgebildet hat. Eine Animation zeigt die mit AIRS auf dem NASA-Satelliten Aqua gemessenen OLR-Anomalien von Januar 2015 bis Juni 2016.

All Sky Outgoing Longwave Radiation
February Average

All Sky Outgoing Longwave Radiation - February Average

All Sky Outgoing Longwave Radiation
February 2016 Anomaly

All Sky Outgoing Longwave Radiation - February 2016 Anomaly

Die Daten zu diesen Bildern wurden vom Instrument Atmospheric Infrared Sounder (AIRS) auf dem NASA-Satelliten Aqua aufgenommen

Quelle: NASA / JPL

 

Beobachtung von Wasserdampf-Anomalien in der oberen Troposphäre

Diese Bilder zeigen die Wasserdampfanomalien in der oberen Troposphäre bei ca. 10 km Höhe jeweils am 7. November 2014 und 2015, bezogen auf 11-jährige Durchschnittswerte. Unter normalen Bedingungen sind die Meeresoberflächentemperaturen des tropischen Pazifik am wärmsten in seinem Westteil, etwa in der Gegend von Indonesien und am kühlsten in seinem Ostteil vor Südamerika. Stürme über den Ozeanen sind eine Folge von warmen SSTs, und Feuchtigkeit von solchen Systemen wird bis in die obere Troposphäre transportiert, wie man dies in den Kartendarstellungen erkennen kann. Die roten Werte zeigen überdurchschnittlich feuchte Bedingungen an und blaue überdurchschnittlich trockene. Die roten Flächen, die sich 2015 über dem Ostpazifik zeigen, aber nicht 2014 belegen, dass die SST sich vor der Küste Süd- und Mittelamerikas erwärmt haben, und dass die obere Troposphäre dank verstärkter tropischer Konvektion feuchter als im Mittel ist. Die Bilder wurden nach Daten des Instruments Microwave Limb Sounder (MLS) an Bord des NASA-Satelliten Aura generiert.

Nov, 2014 - 215 hPa H2O Anomaly

images/h2o_20141107_lres

 

Nov, 2015 - 215 hPa H2O Anomaly

images/h2o_20151107_lres

Feuchtigkeitsanomalien in 10 km Höhe nach Messungen des Instruments Microwave Limb Sounder (MLS) auf dem NASA-Satelliten Aura. Die Farben stehen entsprechend der Skala für trockenere, durchschnittliche und feuchtere Bedingungen verglichen mit Durchschnittswerten. Die Darstellung vom 7. November zeigt durchschnittliche Bedingungen.

 

Feuchtigkeitsanomalien in 10 km Höhe. Die Farben stehen entsprechend der Skala für trockenere, durchschnittliche und feuchtere Bedingungen verglichen mit Durchschnittswerten. Die Darstellung vom 7. November zeigt Bedingungen unter einem starken El Niño, da die Feuchtigkeit über dem Westpazifik deutlich größer als im Durchschnitt und der Ostpazifik viel trockener als im Durchschnitt ist.

Die Bilder wurden nach Daten des Instruments Microwave Limb Sounder (MLS) an Bord des NASA-Satelliten Aura generiert.

Quelle: NASA / JPL

 

Messung der Meeresoberflächentemperaturen mit Treibbojen

Treibbojen ("drifter", "drifting buoy") liefern mit ihren Sensoren vor allem zur Messung der Meeresoberflächentemperaturen und der Oberflächenströmungen wichtige Grunddaten für die Erstellung von Klimavorhersagemodellen. Viele Drifter besitzen ein Driftsegel, um die verfälschenden Wind- und Welleneinflüsse zu mindern. Die Messdaten werden an Satelliten übermittelt, welche die Position der Drifter ermitteln und die Daten an Bodenstationen weiter leiten. Häufig findet sich die Bezeichnung "Lagrange'sche" Drifter. Die Bezeichnung entstammt der Hydrodynamik, benutzt den Namen eines Mathematikers und steht bei der Beschreibung von Strömungen für Teilchen, die sich mit der Strömung bewegen.
Treibbojen werden im Rahmen von Forschungsprogrammen wie WOCE oder TOGA eingesetzt.

drifter1 drifter2

Links: Global Lagrangian Drifter

Links die Gesamtansicht einer Niedrigpreisboje (Global Lagrangian Drifter), rechts Schema-zeichnungen von der Sensorkombination zur Messung von Luftdruck, Eintauchtiefe, Meeresoberflächentemperatur, Einstrahlung, Wasserleitfähigkeit/Salzgehalt

 

Rechts: Der 'WOCE/TOGA Lagrangian Drifter'

Quelle: NOAA/AOML
 

Weitere Informationen: Global Drifter Program (NOAA AOML)

 

Messung von Temperaturen im oberen Ozean mit Bathythermographen

Zum einmaligen Gebrauch bestimmte Bathythermographen  (XBT, Expendable Bathythermograph) werden seit Jahren von Ozeanographen eingesetzt, um Informationen über die ozeanische Temperaturstruktur bis in Tiefen von 1.500 m zu erhalten. Der XBT ist eine ("Wegwerf"-)Sonde, die von einem Schiff ins Wasser gelassen wird und beim Abtauchen die Temperatur misst. Ein zweiadriges, dünnes Kupferkabel überträgt die Daten zum Schiff, wo sie zur späteren Auswertung gespeichert oder an Satelliten zur Weiterleitung übermittelt werden. Die Sonde ist so konstruiert, dass sie mit gleichmässiger Geschwindigkeit fällt, so dass die jeweilige Tiefe der Sonde anhand der Zeit seit ihrer Wasserung ermittelt werden kann. Auf diese Weise kann die gemessene Temperatur mit der zugehörigen Tiefe verknüpft werden.

XBT-Sonde im Vorratsbehälter (links) und in Explosionsansicht (rechts)

Automatische Mehrfach-Startvorrichtung für XBT-Sonden

XBT-Start mit Einfachwerfer

 

xbtfigs2

XBT_auto_launcher

Quellen: NOAA / ARGO / PolarTREC

xbt_launch

 

 

XBTs werden gewöhnlich im Rahmen eines freiwilligen Beobachtungsprogramms durch Handels-, Kriegs- oder Forschungsschiffe (Ship Of Opportunity Program, SOOP) eingesetzt. Dazu hat die NOAA ein Instrumenten- und Übertragungssystem entwickelt, das die Daten von u.a. XBT-Messungen über Satelliten an Bodenstationen übermittelt.
Daten über die Temperaturen des oberen Ozeans sind insbesondere für die Entwicklung gekoppelter Atmosphäre-Ozean-Modelle wichtig.

Weitere Informationen: XBT Network (NOAA AOLM)

 

Niederschlagsmessung im Rahmen von TRMM und der Nachfolgemission GPM

Die japanisch-amerikanische Mission zur Messung des Niederschlags in den gesamten Tropen und Subtropen (Tropical Rainfall Measuring Mission, TRMM), die im November 1997 ihren Betrieb aufnahm und bis 2015 aktiv war, setzte zum ersten Mal im Weltraum aktive (Radar-) und passive Mikrowellendetektoren ein, die Informationen über Niederschlag, Bewölkung und Strahlungsvorgänge in den Tropen und Subtropen lieferten. Sie kombinierte damit auch Daten aus dem sichtbaren, infraroten und dem Mikrowellenbereich. Die Daten unterstützten auch operationelle Anwendungen wie Überschwemmungs- und Dürre-Monitoring und Wettervorhersagen.

TRMM über einem tropischen Wirbelsturm

trmm_in_space

Quellen:
NASA / NASA

Link:
Ausführliche FAQ-Liste
zur tropischen Meteorologie (engl.)

TRMM mit seinen fünf Instrumenten und deren Aufnahmemodi

trmm_instrument
 

Die Umlaufbahn des TRMM-Satelliten ist kreisförmig in einer Höhe von 350 km und überstreicht einen Bereich zwischen 35 Grad Nord und 35 Grad Süd. Für einen Umlauf benötigt der Satellit ca. 91 Minuten. Zu den beobachteten Gebieten gehören auch jene, in denen El Niño auftritt. Eine der bemerkenswertesten Auswirkungen von El Niño ist die fast weltweite Änderung der Niederschlagsmuster.

TRMMJan9899

Vergleich der globalen Niederschlagsverteilung
Januar 1998 / 1999


Die Abbildungen zeigen die globale Niederschlagsverteilung für die Monate Januar 1998 (oben) und Januar 1999 (unten) nach den Beobachtungen des Niederschlagsradars von TRMM. El Niño-bedingte Veränderungen der Niederschlagsverteilung im pazifischen Raum sind deutlich erkennbar.


 

Quelle: NASDA
 

Tropischer Niederschlag macht mehr als 2/3 des globalen Niederschlags aus. Er ist der hauptsächliche Verteiler von Wärmeenergie im System der planetarischen Zirkulation, da der Wechsel des Aggregatzustandes von Wasser (flüssig - gasförmig - flüssig) das Speichern von latenter Wärme ermöglicht. Das Verständnis des Niederschlags und seiner Variabilität ist entscheidend für das Verständnis des globalen Klimas und die Vorhersage seiner Veränderung. Unser gegenwärtiges Wissen über Niederschlag ist dünn, insbesondere über dem Ozean.

Satelliten messen den Niederschlag mit Hilfe der sichtbaren, infraroten und der Mikrowellenkanäle. Bei der Verwendung von Informationen aus dem sichtbaren und infraroten Bereich werden die Regenmengen vorhergesagt, indem man Formeln benutzt, die auf dem Wolkentyp, dem Prozentsatz wolkenbedeckter Fläche und einem numerischen Faktor basieren, welcher das Niederschlagspotential eines bestimmten Wolkentyps beschreibt.

Mikrowellensensoren können teilweise durch Wolken mit ihren Wassertröpchen hindurch "sehen". Bei Mikrowellenfrequenzen unter 50 GHz beeinflussen Wolken nur geringfügig das Signal, das vom Satelliten empfangen wird. Regentropfen hingegen haben eigentümliche Absorptions-, Streuungs- und Emisionseigenschaften im Mikrowellenbereich und beeinflussen stark das von den Satelliten empfangene Signal. Dieses Signal ändert sich in Abhängigkeit von der Anzahl und Größe der Regentropfen, die sich im Beobachtungsbereich des Sensors befinden.

Die TRMM ging im April 2015 offiziell zu Ende, nachdem sie 17 Jahre lang wertvollste Daten geliefert hatte, obwohl ihre vorgesehene Lebensdauer nur 3 Jahre betrug. Die nunmehr globale Nachfolgemission, die auf dem Erfolg von TRMM aufbaut, ist GPM Core Observatory, ein Satellit, der im Februar 2014 vomTanegashima Space Center in Japan gestartet wurde.

images/new_average

 

images/new_anomaly

Oben: Durschnittlicher Niederschlag der vergangenen 30 Tage (mm/d)

Unten: Niederschlagsanomalien der vergangenen 30 Tage (mm/d)

Bezugsdatum: 12. August 2015

GPM's predecessor the Tropical Rainfall Measuring Mission (TRMM) measures heavy to moderate rain over tropical and subtropical oceans.  GPM provides advanced measurements, including coverage over medium to high latitudes, improved estimates of light rain and snowfall, advanced estimates over land and ocean, and coordination of radar and microwave retrievals to unify and refine precipitation estimates from a constellation of research and operational satellites.  GPM also provides more frequent observations, every 2 to 4 hours.

Zu aktuellen Versionen hier klicken

Quelle: NASA
 

Weitere Informationen:

 

Beobachtung von Wolkensystemen mit geostationären Satelliten

Während eines El Niño-Ereignisses verlagert sich das Gebiet mit ausgeprägten tropischen Wolkensystemen vom Westpazifik zum zentralen und östlichen Pazifik. Die sich auftürmende Cumulonimbusbewölkung folgt dabei dem ostwärts wandernden pazifischen Warmwasserkörper. Die Verlagerung  der Wolkenkomplexe kann mit den amerikanischen Geostationary Operational Environmental Satellites (GOES) und den japanischen Geostationary Meteorological Satellites (GMS), bzw. dem Nachfolgesystem MTSAT beobachtet werden. GOES-West, stationiert über dem östlichen Pazifik und GMS, stationiert über dem westlichen Pazifk sind geostationäre Wettersatelliten, die zusammen eine komplette Beobachtung der Wolkentätigkeit über dem Pazifikbecken ermöglichen. Das wichtigste meteorologische Instrument für Wolkenaufnahmen ist das Visible and Infrared Spin Scan Radiometer (VISSR). VISSR arbeitet im sichtbaren und infraroten Bereich des Spektrums und wird eingesetzt um Tages- und Nachtbilder zu erhalten. Im sichtbaren Bereich werden Daten tagsüber alle 30 Minuten aufgenommen, im Infrarotbereich ebenfalls halbstündig, aber über den ganzen Tag hinweg.

geostat_polar

Geostationärer Satellitenorbit (GOES)

Der geostationäre Orbit ermöglicht es Satelliten, ein Phänomen oder ein Objekt mit großer Frequenz zu beobachten, was z.B. das GOES-System höchst nützlich macht für die Beobachtung von Naturgefahren wie Gewitter, Hurrikane, Brände, Vulkanausbrüche und Staubstürme.


Quellen: MetEd / UCAR (Zugang über kostenfreie Registrierung)

Im sichtbaren Kanal misst VISSR die Menge der sichtbaren Strahlung, die zum Satelliten zurück gestrahlt wird. Die mächigsten konvektiven Wolken reflektieren mehr Sonnenlicht und erscheinen am hellsten auf den Satellitenbildern. Im Infrarotkanal misst VISSR sowohl die Strahlungsmenge, die von der Erdoberfläche als auch jene, die von der Wolkenoberseite emittiert wird. Da die Oberseiten hoher Wolken tiefere Temperaturen haben als jene tieferer Wolken, emittieren sie weniger Strahlung. Diese Information kann zur Höhenbestimmung der Wolkenoberseiten verwendet werden. Die Kombination von Bildern aus dem sichtbaren und dem infraroten Bereich ist nützlich, wenn man mit dem Ziel Modelle zu erstellen, Wolkentypen klassifiziert. Die Computermodellierung von El Niño und anderen tropischen Wettersystemen erfordert u.a. die Kenntnis des Strahlungshaushaltes, da unterschiedliche Wolkentypen eine verschieden große Menge an Sonnenstrahlung auf die Erdoberfläche durchläßt und umgekehrt unterschiedliche Wärmemengen in obere Atmosphärenschichten gelangen lässt.

clouds_vis_text_2 clouds_ir_text_2

Wolken markieren Wettererscheinungen

Meteorologists use cloud patterns to find weather phenomena, such as the ITCZ, tropical cyclones, sea breezes, and tornadoes. Clouds cover almost two-thirds of the earth's surface and help to regulate the radiation balance of the earth-atmosphere system. Satellite remote sensing is the primary method of observing and documenting global cloud radiative properties. A variety of new satellite sensors also help the scientists understand more about cloud structure, forms, and microphysical properties.

The 3-D nature of clouds is evident from visible satellite images in which protruding clouds create shadows, especially at low sun angles (Fig. left). Cloud top heights can be estimated from satellite measurements of IR radiance emitted from the cloud top, which is a function of the absolute temperature. Generally, in the tropics warmer cloud tops are lower and colder cloud tops are higher (Fig. right). During the most recent decade, new satellite sensors with simultaneous, multi-angle observations have provided 3-D views of clouds.

Quelle: MetEd / UCAR (Zugang über kostenfreie Registrierung)
 

Die hohe Bildwiederholfrequenz erlaubt es den Wissenschaftlern, Wolkenbewegungen und -entwicklungen sowie die Bildung von tropischen Stürmen während eines El Niño-Ereignisses genau zu beobachten. Die Verfügbarkeit von raschen Bildfolgen ist entscheidend für die Beobachtung der rasch entstehenden tropischen Stürme. Tropische Stürme können sich zu Hurrikanen entwickeln und sich auf bewohnte Inseln und dicht bevölkerte Küstenstriche zu bewegen. Das Bildmaterial erlaubt auch die Abschätzung der zu erwartenden Niederschlagsmengen. Dieser Satellitentyp eignet sich demnach vor allem für kurzfristige Warnungen.

Zwei weitere geostationäre Satellitensysteme, INSAT und METEOSAT ermöglichen es Meteorologen die Telekonnektionen zu untersuchen, die z.B. mit El Niño-bedingter Wolkenaktivität über dem Indischen und dem Atlantischen Ozean verbunden sind.

 

Erhebung bio-optischer Daten mit Hilfe von SeaWiFS

Mikroskopische Pflanzen im Wasser, das sogenannte Phytoplankton, enthalten Chlorophyll und andere Farbpigmente. Diese tragen zur Farbe des Ozeans bei, die abhängig von der Konzentration des Phytoplanktons variiert.

seastar_orbit seawifs_bench

Links: Der SeaStar-Satellit im Orbit

Various ocean colors indicate the presence of different types and quantities of marine phytoplankton, which play a role in the exchange of critical elements and gases between the atmosphere and oceans. The satellite will monitor subtle changes in the ocean's color to assess changes in marine phytoplankton levels, and will provide data to better understand how these changes affect the global environmental and the oceans' role in the global carbon cycle and other biogeochemical cycles. Complete coverage of the Earth's oceans will occur every two days.The mission is a follow on to the Coastal Zone Color Scanner (CZCS).

Rechts: Das SeaWIFS-Instrument

Only one instrument is carried: the Sea-viewing Wide Field-of-view Sensor (SeaWiFS). Consisting of an optical scanning telescope and an electronics module, SeaWiFS will image the Earth's oceans in 8 frequency bands. The scanning telescope rotates at six revolutions per second in the cross-track direction to provide scan coverage with a spatial resolution of 1.13 km.

 
Quelle: NASA    

SeaWiFS (Sea-viewing Wide Field-of-view Sensor) ist ein inzwischen inaktives Instrument, das in der Lage war, diese geringfügigen Farbunterschiede zu registrieren. Es bestand aus einem optischen Scanner im sichtbaren und nahen Infrarot-Bereich sowie einem Elektronikmodul. SeaWiFS war das Nachfolgeexperiment des Coastal Zone Color Scanners an Bord von Nimbus 7. An Bord des GeoEye-Satelliten Orb-View-2 (auch bekannt als SeaStar) lieferte es aktuelle Daten zur Farbe der Ozeane und damit zur Menge und zur Art des Phytoplanktons in einem bestimmten Gebiet. Dies wiederum erlaubte Rückschlüsse auf den Zustand des Ozeans.

SeaStar wurde 1997 mit einer Pegasus-Rakete aus einem Flugzeug in etwa 10 km Höhe in den Erd-Orbit befördert, wo er in 278 km Höhe abgesetzt wurde. Mit einem eigenen Antrieb flog SeaStar dann zu seiner endgültigen Position in 705 km Höhe, wo er in sonnensynchronem Orbit die Erde umkreist. Das Projekt SeaWiFS gehört zum NASA-Programm Earth Observing System. Der Satellit ging Mitte 2011 verloren.
Die Aufgabe des Instruments bestand darin, große Mengen an Daten über die biooptischen Eigenschaften der Ozeane zu sammeln. Kaum sichtbare Unterschiede in der Farbe der Ozeane weisen auf verschiedene Arten und Konzentrationen von Phytoplankton hin.

Mit SeaWiFS konnte man feststellen, dass die Chlorophyll-Konzentration in einem großen Bereich des Pazifiks durch El Niño 1997/98 dramatisch reduziert wurde. Es war also bedeutend weniger Phytoplankton vorhanden. Im Sommer 1998 mit La Niña-Bedingungen gab es dann jedoch ein großes Wachstum mikroskopischer Algen in der Region.
Da Phytoplankton an erster Stelle in der Nahrungskette steht, hatte dies auch einen enormen Einfluss auf alle anderen Lebewesen im Wasser. Besser als je zuvor konnte der enorme Einfluss von El Niño auf die Tier- und Pflanzenwelt gezeigt werden. Man erkannte aber gleichzeitig auch, wie schnell sich der Ozean danach wieder erholt hat. Der Grund für die Reduzierung des Phytoplanktons war der ausbleibende Auftrieb nährstoffreichen Wassers, wodurch dem Phytoplankton die Nahrungsgrundlage entzogen wurde.

Mit dem Rückgang der Primärproduktion in den küstennahen Auftriebsgebieten und den äquatorialen Divergenzgebieten während El Niño-Ereignissen sollte man mit einer Zunahme der CO2-Abgabe des Ozeans an die Atmosphäre rechnen. Schließlich führt die verminderte Phytoplanktonproduktion zu erhöhten CO2-Konzentrationen in den oberen Wasserschichten und zu einer reduzierten Aufnahme von atmosphärischem CO2 durch den Ozean. In Wirklichkeit nimmt jedoch die CO2-Konzentration in der oberen Durchmischungsschicht ab. Zum Verständnis muss man wissen, dass die äquatorialen Divergenzgebiete durch das Upwelling von CO2-reichen Tiefenwässern bedeutende Bereiche für die Abgabe von CO2 an die Atmosphäre sind. Während El Niño-freien Jahren ist der aufwärtige Transport besonders stark, und damit auch die Abgabe von CO2 an die Atmosphäre. Dieser Effekt überkompensiert die Bindung von ursprünglich atmosphärischem Kohlendioxid durch die wegen des Nährstoffnachschubs verstärkte Primärproduktion.

Man schätzt, dass beim El Niño 1997/98 - verglichen mit dem Vorjahr - eine CO2-Menge, die etwa der Hälfte der jährlichen CO2-Abgabe durch die Verbrennung fossiler Brennstoffe in den USA entspricht, weniger in die Atmosphäre abgegeben wurde.

Daten zur Farbe des Ozeans liefern weiterhin beipielsweise die Instrumente MODIS auf den Satelliten Terra und Aqua, OLI auf Landsat-8 oder VIIRS auf Suomi-NPP.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Internet-Seiten, auf denen man Karten mit der aktuellen Chlorophyll-Konzentration in den Weltmeeren findet.

 

ENSO-Vorhersagen

Überblick

Das primäre Ziel einer ENSO-Vorhersage ist es, die relative Wahrscheinlichkeit von regionalen Klimaanomalien besser zu prognostizieren (Goddard & DeWitt 2005). Die Fähigkeit, El Niño- und La Niña-Ereignisse verlässlich mit ihren Amplituden, Zeitverläufen und Strukturen vorherzusagen, ist äußerst wichtig, da diese Ereignisse in der Regel mit konstanten Klimaschwankungen in den Tropen verbunden sind und sogar die Atmosphäre auf der ganzen Welt beeinflussen können.

In den letzten Jahrzehnten wurden viele Fortschritte gemacht, damit El Niño und La Niña und ihre globalen Folgen besser verstanden werden können. Vorhersagen können von großem Wert sein u. a. für Behörden, Katastrophenmanager, Wasserwirtschaftler, Landwirte, Fischer und Einzelpersonen in potentiell von extremen Witterungsereignissen betroffenen Regionen.

Tatsächlich ist das Interesse an ENSO-Vorhersagen nicht neu. Der erste Versuch, einen El Niño vorherzusagen, wurde 1974, vor gut 45 Jahren, von Bill Quinn von der Oregon State University und Klaus Wyrtki von der University of Hawaii unternommen. Sie wurden durch den El Niño von 1972-73 motiviert, der einen Zusammenbruch der peruanischen Sardellenfischerei, der damals größten der Welt auslöste, mit Folgen, die sich auf die gesamte Weltwirtschaft auswirkten (Glantz, 2001). Ihre Hoffnung war es, ein zuverlässiges Prognoseverfahren zu entwickeln, mit dem zukünftige El Niño-Ereignisse weit genug im Voraus antizipiert werden können, um Präventivmaßnahmen zu ergreifen. (McPhaden et al. 2015)

Als Reaktion auf den El Niño 1982-83 expandierte die Überwachung und Modellierung von ENSO rasant (s. Klimamodelle). Eine der ersten Errungenschaften war die erfolgreiche Prognose des El Niño von 1986-87, mit Vorlaufzeiten von 3 bis 9 Monaten durch Mark Cane und Steve Zebiak am Lamont-Doherty Geological Observatory, Columbia University. (MetEd/UCAR)

Die seitherige, aber nicht durchgängige Verbesserung der Vorhersagbarkeit von ENSO-Ereignissen in den letzten Jahrzehnten kann mehreren Faktoren zugeschrieben werden. Vor allem die erheblich optimierten Systeme der Datenverarbeitung, Datenanalyse und -assimilation, schnellere Computer mit höherer Speicherkapazität und ein gesteigertes Verständnis der physikalischen Vorgänge des tropischen Ozeans und der tropischen Atmosphäre, die der Entwicklung des ENSO-Phänomens zu Grunde liegen, sind dafür verantwortlich.

Auch hat theoretische Arbeit von Wissenschaftlern zum Verständnis destabilisierter äquatorialer Wellen (Philander et al., 1984) und einer Theorie für den Übergang zwischen warmen und kalten Zuständen geführt (z.B. der sogenannte delayed oscillator oder der recharge oscillator, Suarez und Schopf, 1988; Battisti und Hirst, 1989; Jin, 1997; Kirtman, 1997). Darüber hinaus beschreibt dieses theoretische Verständnis deutlich die wissenschaftliche Grundlage für ENSO-Vorhersagen, dass nämlich die Wärmestruktur unter der Ozeanoberfläche oder auch Verlagerungen der Thermokline Vorläufer für ENSO-Ereignisse sind und somit für Vorhersagen verwendet werden können. (National Research Council 2010)

Mittlerweile gilt das ENSO-Phänomen als die am besten vorhersagbare kurzzeitige Schwankung des Klimasystems der Erde. Dennoch sind die Grenzen der Vorhersagbarkeit weiterhin Gegenstand intensiver Diskussion.

Datenerhebung für die Vorhersagen

Aufgrund der sozialen Auswirkungen auf die Ankündigung eines sich entwickelnden El Niño müssen die Messungen verifiziert und genau sein. Ein ENSO-Indikator ist der Southern Oscillation Index (SOI), der aus der Druckdifferenz zwischen Tahiti und Darwin berechnet wird. Der SOI ist in El Niño-Jahren negativ und in La Niña-Jahren positiv. Da die SOI-Messungen lokale Schwankungen und Wetterstörungen widerspiegeln können, berechnen Wissenschaftler in der Regel die Messwerte über einen Zeitraum von 5 Monaten, um festzustellen, ob die Druckschwankungen auf ein Großereignis hinweisen.

Darüber hinaus unterhält die NOAA im Bereich des äquatorialen Pazifiks ein System von Überwachungsbojen, das Tropical Atmosphere Ocean (TAO) Array. Die Bojen erfassen und übertragen Temperaturen von der Wasseroberfläche und dem oberen Wasserkörper, Daten der atmosphärischen Bedingungen, Wasserströmungen und Winddaten in Echtzeit an Wissenschaftler und Forscher auf der ganzen Welt.

Auch die automatisierten Treibbojen des internationalen Argo-Programms mit ihren Messungen zu Temperatur, Leitfähigkeit und Druck in der Wassersäule.sind hier zu nennen.

Weitere Verfahren sind bereits im ersten Teil dieses Kapitels vorgestellt.

Vorgehensweise bei den Vorhersagen

Man kann die mit El Niño und La Niña einhergehenden Schwankungen der Oberflächentemperatur des tropischen Pazifiks als einen quasiperiodischen Zyklus verstehen, der im Prinzip vorhersagbar ist. Allerdings, bedingt durch die chaotische Natur des Klimasystems, verläuft dieser Zyklus nicht streng periodisch und kann deshalb nicht perfekt prognostiziert werden. Die Vorhersagen basieren auf statistischen und physikalischen Modellen. Letztere sind i. a. gekoppelte Ozean-Atmosphäre Modelle. Da die Kurzfristklimavorhersage - wie auch die Wettervorhersage - im mathematischen Sinne ein Anfangswertproblem ist, muss der Zustand des Systems zu Beginn der Vorhersage bekannt sein.

Mit Hilfe des TOGA-TAO-Arrays stehen wertvolle Informationen aus verschiedenen Tiefen des äquatorialen Pazifik zur Verfügung. Diese werden in die gekoppelten Modelle „assimiliert“, um einen möglichst dynamisch balancierten Anfangszustand für die Vorhersage zu erhalten.

ENSO-Vorhersagen werden im Prinzip wie Wettervorhersagen durchgeführt. Der für ENSO-Vorhersagen wichtige ozeanische Anfangszustand kann für die gekoppelten Ozean-Atmosphäre-Modelle auf unterschiedliche Art und Weise ermittelt werden. Man kann z. B. die Geschichte der beobachteten Windschubspannungen verwenden, um die Ozeankomponente anzutreiben und die Vorhersagen zu initialisieren. Diese Methode liefert eine geeignete Präkonditionierung des Ozeans, da Veränderungen seiner Dichtestruktur sich vor allem auf Windschubveränderungen zurückführen lassen. Andere Verfahren benutzen die Geschichte der beobachteten Meeresoberflächentemperaturen, und wiederum andere Verfahren assimilieren die dreidimensionale ozeanische Dichtestruktur ins Ozeanmodell, wie sie das TAO-Array liefert. Anomalien der Meeresoberflächentemperatur im äquatorialen Pazifik, einer der wichtigsten Parameter, sind mit heutigen Zirkulationsmodellen bis zu sechs Monate im vorhersagbar. Dies ist eine bescheidenere Zeitspanne als in der Vergangenheit noch angenommen. (Latif 2003, 2011)

Um zufällige Schwankungen herauszufiltern, mittelt man über viele Vorhersagen mit verschiedenen Anfangsbedingungen (Ensemblevorhersagen). Die Berechnung des Mittelwerts dieser Ensemblevorhersagen führt zu einer "Konsensvorhersage", die der Einzelvorhersage eines einzelnen Modells überlegen ist.

Die Vorhersage des Beginns und der Dauer von ENSO-Phasen schafft die Basis für die routinemäßige Bereitstellung von saisonalen Klimavorhersagen und diesbezügliche Informationen und Dienste für Gebiete, die von ENSO betroffen sind. Während die Vorhersagbarkeit von ENSO auf stabilen wissenschaftlichen Grundlagen beruht, ist die Vorhersage seiner globalen Auswirkungen deutlich schwieriger, da diese oft im regionalen Rahmen geschehen und von regionalen und/oder lokalen Effekten beeinflusst werden können.

Studien über die Vorhersagbarkeit von ENSO sind herausfordernd. Sie erfordern die multidisziplinäre Zusammenarbeit zwischen verschiedenen Wissenschaftsbereichen, einschließlich Meteorologie, Ozeanographie, Mathematik und Physik.

ENSO zu verstehen, ist nach wie vor ein Problem, das sich aber zu lösen lohnt. Es gibt wenige oder vielleicht gar keine anderen natürlichen Klimasignale mit halb-regelmäßigem Auftreten, deren Vorhersage so umfassende Auswirkungen haben kann. Allerdings ist die Wissenschaft noch nicht an diesem Punkt. Vor allem ist sie weiterhin von der Verschiedenartigkeit der einzelnen ENSO-Ereignisse überrascht.

Die folgende Tabelle von MetEd/UCAR (modifiziert) enthält eine Webseiten-Liste mit ENSO-Vorhersagen.

ENSO / Tropical Pacific SST Predictions (MetEd/UCAR)
Latest El Niño/La Niña Advisory
National Center for Environmental Prediction (NCEP)
http://www.cpc.ncep.noaa.gov/ products/analysis_monitoring/enso_advisory/index.shtml
Official NWS forecasts and outlooks for the US
NOAA/NWS Climate Prediction Center
https://www.cpc.ncep.noaa.gov/products/forecasts/
Forecast Forum
Technical discussion of forecasts from different centers
http://www.cpc.ncep.noaa.gov/ products/CDB/Forecast/forecast.shtml
ENSO predictions
NOAA PMEL
http://www.pmel.noaa.gov/tao/elnino/forecasts.html#enso
Summary of ENSO Model Forecasts
International Research Institute for Climate and Society (IRI)
http://iri.columbia.edu/climate/ENSO/currentinfo/SST_table.html
El Niño and other Experimental Results
Predictive Ocean Atmosphere Model for Australia
http://poama.bom.gov.au/
CFS Forecast Seasonal Climate Anomalies
NCEP Environmental Global Climate & Weather Modeling Branch
http://www.cpc.ncep.noaa.gov/products/ analysis_monitoring/ lanina/ensoforecast.shtml
Experimental El Niño Forecast
Scripps Institution of Oceanography / Max Planck Institute for Meteorology Prediction model
http://meteora.ucsd.edu/~pierce/ elnino/elnino.html
Seasonal Forecasts
NOAA Earth System Research Laboratory
http://www.cdc.noaa.gov/seasonalfcsts/
Equatorial Pacific SSTA forecasts
Lamont-Doherty Earth Observatory of Climate Modeling Group, Columbia University
http://rainbow.ldgo.columbia.edu/%7Edchen/forecast.html
Pacific ENSO Update
www.weather.gov
http://www.prh.noaa.gov/peac/update.php
SST forecasts from the neural network model
Climate Prediction Group, University of British Columbia
http://www.ocgy.ubc.ca/projects/clim.pred/climate.html
German Climate Forecast System
Arbeitsgruppe aus Mitgliedern von CEN (UHH), MPI-M und DWD
https://www.dwd.de/DE/leistungen/jahreszeitenvorhersage/jahreszeitenvorhersage_start.html
Schaltfeld "Vorhersagen auswählen" öffnen

 

Genauigkeitsprobleme bei den Vorhersagen und ihre möglichen Ursachen

Die Prognosefähigkeit der Modelle ist aufgrund einer Reihe von Faktoren in manchen Jahrzehnten und Jahren besser und in anderen geringer. Unabhängig vom eingesetzten ENSO-Vorhersagemodell (s. u. Klimamodelle), ist die ENSO-Vorhersage beispielsweise zu bestimmten Jahreszeiten schwieriger als in anderen. El Niño- oder La Niña-Episoden entwickeln sich üblicherweise zwischen April und Juni und dauern dann bis zum folgenden Februar oder bis zum Mai. Wenn sich eine Episode im frühen Nordsommer entwickelt, ist die Vorhersage ihrer weiteren Entwicklung nicht sehr schwierig. Eine Vorhersage ist viel schwieriger für die Zeit zwischen März und Juni, wenn sie im vorangehenden Zeitraum Januar-April getroffen werden soll. Man bezeichnet die Schwierigkeit zu dieser Jahreszeit als "Frühlings(vorhersage)barriere" (spring barrier). Dies bedeutet, ein El Niño kann bereits im Gange sein, bevor die Modelle seine Erscheinung vorhersagen. Stochastische Prozesse, externe Antriebe durch Wetterereignisse helfen, die ENSO-Variabilität aufrechtzuerhalten. Ab Ende April wird die Vorhersage für den Rest des Kalenderjahres und die ersten Monate des Folgejahres zunehmend leichter. Die dynamischen Prozesse, die zur Frühlingsvorhersagebarriere beitragen, sind noch nicht wirklich verstanden.

ENSO wird auch durch dekadische Schwankungen wie die Pacific Decadal Oscillation moduliert, was zu den Vorhersageproblemen beiträgt.

Klimaforschern gelang es vor über zwei Jahrzehnten, den El Niño 1997/98 schon Anfang Januar 1997 vorherzusagen. Jedoch kamen nicht alle Klimamodelle zu diesem Schluss, manche errechneten sogar eine leichte Abkühlung des Pazifiks. Zudem haben alle Modelle das Ausmaß der mit El Niño einhergehenden Warmwasserströmung nach Osten unterschätzt, auch wurde sein rasches Einsetzen nicht erkannt. (Barnston et al., 1999) Als im Mai 1997 die El Niño-Warnung ausgesprochen wurde, hatte der Nordwesten Südamerikas nur etwa einen Monat Zeit, sich auf die Zeit der größten Auswirkungen vorzubereiten, während andere Regionen eine längere Vorlaufzeit hatten bis die stärksten Auswirkungen eintraten. Immerhin ist dieser El Niño der erste, der weltweit von Anfang bis Ende beobachtet wurde, und es war das erste Mal in der Menschheitsgeschichte, dass Überflutungen und Dürren Monate vor ihrem Auftreten vorhergesagt wurden. Eindeutige Gewinner bei den Modelltypen waren die gekoppelten Ozean-Atmosphäre-Modelle.

Seit den 90er Jahren haben Prognosesysteme für Jahreszeitenvorhersagen in den großen meteorologischen Zentren eine stetig wachsende Fähigkeit zur Vorhersage der tropischen pazifischen SST-Anomalien in retrospektiven Prognosen der letzten 35 Jahre bewiesen (z. B. Ji et al. 1994; Saha et al. 2006, 2014; Stockdale et al. 1998, 2011; Molteni et al. 2011). Viele Prognosemodelle prognostizierten im operationellen Betrieb den Beginn der starken El Niño-Saison 1997/98 1-2 Jahre im Voraus (Barnston et al. 1999). Ein ähnlicher Erfolg kann auch für das jüngste starke El Niño-Ereignis 2015/16 verzeichnet werden (z.B. IRI). Wie Barnston et al. (2012) zeigen, wurden auch große La Niña-Ereignisse, wie die in den Jahren 2007/08 und 2010/11, saisonal gut prognostiziert.

Eine Umfrage unter deutschen und nordamerikanischen Klimaforschern bezüglich der Brauchbarkeit von Klimamodellen (Bray und von Storch, 1999) brachte aufgrund der uneinheitlichen Vorhersagen eine überwiegende Skepsis der Forscher zum Ausdruck.

Im Allgemeinen ist die ENSO-Vorhersagefähigkeit in den 2000er Jahren im Vergleich zu den 1980er und 1990er Jahren zurückgegangen (z.B. Barnston et al. 2012; Zhao et al. 2016), trotz zunehmender Ozeanbeobachtungen in diesem Zeitraum (Kumar et al. 2015). Dieser Rückgang fiel zeitlich mit dem häufigeren Auftreten von Warm Pool El Niño-Ereignissen (z.B. Kao und Yu 2009; Kug et al. 2009) und länger anhaltenden La Niña-Ereignissen (z.B. Hu et al. 2014) zusammen.

Nach wie vor bestehen auch Probleme bei der Vorhersage der Intensität von ENSO-Ereignissen. Bei El Niño-Ereignissen sieht man einen Grund in der Rolle der Winde während eines El Niños. Unter Nicht-El Niño-Bedingungen wehen Passatwinde über den Pazifik. Aber wenn ein El Niño beginnt und sich das warme Wasser verteilt wurde, erzeugt dieses großflächig verteilte warme Wasser atmosphärische Konvektion, welche starke westliche Winde hervorrufen kann. Diese können wiederum El Niño beschleunigen und verstärken. Aber diese konvektiven Winde sind von Natur aus chaotisch und unvorhersehbar, daher gibt es keine Möglichkeit sie vorherzusehen. Beispielsweise wurde 2012 ein offensichtlicher Fehlalarm für das Auftreten eines starken El Niño-Ereignisses von vielen Klimamodellen ausgelöst (IRI).

Eine weitere häufige Grenze von Klimamodellen ist ihre Unfähigkeit, klar unterscheidbare Zentralpazifik- und Ostpazifik-El Niño-Ereignisse zu simulieren.

Schon 2008 äußerten sich Chen & Cane recht pessimistisch über die ENSO-Vorhersagequalität der damals verfügbaren Modelle, fügten aber auch eine gewisse Zuversicht an:

"In some ways, it is disappointing that we, collectively, have not been able to improve ENSO forecasts more since we started this venture over two decades ago. The level of predictive skill we have achieved so far seems out of proportion to the enormous efforts and resources devoted to ENSO research and prediction. This leads to the pessimistic view that ENSO’s inherent predictability is so low that our current skill is already close to its limit. However, some recent studies have shown reasons of optimism and prospects for further advances. We believe that ‘‘the fault is not in the stars (or the natural ocean–atmosphere system) but in ourselves’’, and that the shortcomings in our models and data assimilation schemes are the principal problem. In particular, datamodel incompatibility is considered a major roadblock."

Chen & Cane 2008

Es gibt immer wieder Situationen, die sich völlig überraschend entwickeln. Einer der Gründe für die limitierte Vorhersagbarkeit von ENSO ist das Rauschen im Klimasystem. Es sind immer kurzfristige Störungen im System vorhanden, die aufgrund der chaotischen Natur der Atmosphäre entstehen und die man nicht vorhersagen kann. Theoretische und Modellstudien zeigen, dass dieser stochastische Antrieb der Hauptgrund für die Irregularität von ENSO und damit für seine limitierte Vorhersagbarkeit ist.

Die wichtige Rolle des stochastischen Antriebs für die Unterbrechung des ENSO-Zyklus wurde einmal mehr 2014 deutlich. Der Wärmeinhalt des äquatorialen
Pazifiks war zu dieser Zeit außergewöhnlich hoch und die Meeresoberflächentemperatur in der Niño 3.4-Region begann zu steigen. Nach dem Recharge Oscillator-Modell hätte sich in dem Jahr ein El Niño-Ereignis entwickeln müssen. Auch die Vorhersagemodelle, statistische wie auch physikalische, prognostizierten für den Winter 2014/2015 den Höhepunkt eines starken El Niño-Ereignisses. Doch es entwickelten sich nur recht schwache Temperaturanomalien an der Meeresoberfläche. Der Grund für den falschen Alarm war eine außergewöhnlich starke Ostwindanomalie, die im Frühsommer über dem westlichen äquatorialen Pazifik auftrat (Hu & Fedorov 2016) und nicht vorherzusehen war.

Ein weiteres Beispiel für den Einfluss des stochastischen Antriebs auf die Klimavariabilität im Bereich des äquatorialen Pazifiks zeigt ebenfalls die Grenzen auf, die Veränderungen der Meeresoberflächentemperaturen in der Region vorherzusagen und damit mögliche Auswirkungen auf den angrenzenden Landregionen. Es handelt sich um den so genannten Küsten-El Niño, der zu Beginn des Jahres 2017 das westliche Südamerika völlig unerwartet heimsuchte. Besonders betroffen waren Kolumbien und Peru. Sintflutartige Niederschläge führten zu Überschwemmungen und Erdrutschen. Hunderte von Todesopfern waren zu beklagen, Hunderttausende wurden obdachlos.

Die folgende Abbildung zeigt die Erwärmung der Meeresoberfläche, die von Februar 2017 bis April 2017 besonders stark ausgeprägt gewesen war und sich von der Küste bis nur etwa 120° W erstreckte. Der lokale Charakter der Erwärmung erklärt den Namen Küsten-El Niño und die auf die Region begrenzten Auswirkungen des Ereignisses. Dadurch unterscheidet sich der Küsten-El Niño von einem klassischen El Niño Ereignis mit seinen beckenweiten Änderungen der Meeresoberflächentemperatur und globalen Auswirkugen. Offensichtlich hat auch bei diesem Ereignis die Theorie des Recharge Oscillator versagt.

Anomalien des Zonalwindes

Anomalien des Zonalwindes, der Meeresoberflächentemperatur und der Thermoklinentiefe

Fünftagemittel der Anomalien längs des Äquators (2°N-2°S) als Funktion der Zeit.

Links: Anomalien des zonalen Windes (m/s) gemessen in 4 m Höhe,

Mitte: Anomalien der Meeresoberflächentemperatur (°C, das schwarze Rechteck zeigt den Küsten-El Niño),

rechts: Anomalien der Thermoklinentiefe (m), dargestellt als Tiefe der 20°C-Isotherme. Die weißen Flächen sind Gebiete, in denen keine Daten verfügbar sind.

Quelle: NOAA nach Latif 2018
 

Die Ursache für den Küsten-El Niño 2017 sieht man in den Anomalien der zonalen Komponente der oberflächennahen Winde über dem Ostpazifik, die ab dem Beginn des Jahres 2017 positive Werte zeigten, d.h. es handelte sich um Westwindanomalien. Derartige Windanomalien an der Oberfläche verringern den Auftrieb des kalten Tiefenwassers, wodurch die Oberflächentemperatur steigt. Dieser Prozess ist ganz im Osten des Beckens besonders effektiv, weil sich dort die Thermokline dicht unterhalb der Meeresoberfläche befindet. Vorherzusehen waren die Änderungen der Winde nicht, es handelte sich einfach um subsaisonale Wetteranomalien. Der Küsten-El Niño 2017 dauerte nur einige wenige Monate, weil mit dem Verschwinden der Windanomalien auch kein Antrieb mehr vorhanden war.

Der abgebrochene El Niño 2014 und der Küsten-El Niño 2017 zeigen, wie sehr selbst zwischenjährliche Schwankungen von der chaotischen Atmosphäre beeinflusst sind. Persistente Wetterschwankungen können den ENSO-Zyklus buchstäblich aus der Bahn werfen. Weil diese Wetterschwankungen der chaotischen Natur der Atmosphäre entspringen, sind sie über längere Zeiträume nicht vorhersagbar. Das Fazit:

"Belastbare El Niño- und La Niña-Vorhersagen sind deswegen wohl nur einige wenige Monate im Voraus möglich."

Latif 2018

Ein weiterer Problemkreis betrifft die Prozesse, die zur ENSO-Diversität führen. Verschiedene Hypothesen wurden vorgeschlagen, wie z. B. Variationen des stochastischen Antriebs (Levine et al., 2016), dekadische Veränderungen im Hintergrundzustand des tropischen Pazifiks (Choi et al., 2012), und Antriebe aus Regionen außerhalb des tropischen Pazifiks (Paek et al., 2017). Wie diese und andere Faktoren zusammenwirken können, um die Entwicklung der einzelnen Ereignisse zu beeinflussen, ist ein Thema von großem Interesse, da die Vielfalt der Eigenschaften von ENSO zu einer Vielfalt von Klimawirkungen führen kann (McPhaden 2018).

Schließlich stellt sich auch die große Frage, ob die globale Erwärmung bereits den ENSO-Zyklus beeinflusst hat und wie sie sich in Zukunft auswirken wird. Dies ist ein Bereich mit lebhaften Diskussionen, aber viel Unsicherheit. Die Analyse von historischen Daten, Paläoklimaaufzeichnungen und numerischen Modellsimulationen führt oft zu widersprüchlichen Ergebnissen. Die vielleicht robusteste Schlussfolgerung bisher ist, dass in einer wärmeren Welt die Häufigkeit extremer El Niños wie in den Jahren 1982-83, 1997-98 und 2015-16 in Zukunft zunehmen wird (Cai et al., 2014). Aber an diesem Thema, das ein reicher und fruchtbarer Boden für weitere Forschungen ist, muss noch viel mehr getan werden.

Vielleicht hat sich nach Jahrzehnten der Unsicherheit die weitere Präzisierung ergeben, dass die globale Erwärmung sowohl die Amplitude als auch die Häufigkeit des ostpazifischen El Niños erhöhen wird. Dies geht mit weitreichenden klimatischen Folgen einher. (Ham 2018)

Dabei kristallisieren sich folgende Details heraus:

 

Möglicher Nutzen von Vorhersagen

Vorhersagen betreffen zum Einen das bevorstehende Eintreffen einer Extremphase von ENSO, vor allem eines Warmereignisses im Pazifik (El Niño). Zum Anderen beinhalten sie die möglichen Auswirkungen eines solchen Ereignisses.

Klimatisch-meteorologische Vorhersagen werden routinemäßig einmal oder mehrmals pro Jahr von verschiedenen Forschergruppen auf der ganzen Welt gemacht, wobei sie sich unterschiedlicher Klimamodelle (vgl. UnterKap. Klimamodelle) bedienen. Einige der Vorhersagen findet man durch Internetrecherche, über die Links in der Tabelle oben, vor allem aber über die Quellen, die im Kapitel Aktueller Zustand des Pazifiks zusammengetragen sind. BOM liefert die "offiziellen" Daten für Australien, NOAA/CPC solche für die USA. Das International Research Institute for Climate and Society (IRI) verbreitet Vorhersagen mit globaler Sicht.

Vorhersagen zu den Auswirkungen werden auf eher empirischer Grundlage und auf eher informelle Weise gemacht. Und dies geschieht häufig erst, wenn ein eindeutig definierter El Niño bereits im Gange ist. Eine solche Vorhersage basiert typischerweise auf dem, was man historisch über Klimareaktionen oder Korrelationen in Bezug auf El Niño-Ereignisse weiss. Es ist eine probabilistische Aussage, dass bestimmte klimatische Bedingungen mehr oder weniger häufig unter El Niño-Bedingungen auftreten, verglichen mit Normalsituationen. Manchmal sind solche Vorhersagen lediglich die Antwort eines Wissenschaftlers auf Fragen eines Reporters. Organisationen wie die NOAA veröffentlichen routinemäßig formelle climate outlooks und z.T. advisories für die bevorstehende Saison. Wenn ein starker El Niño abläuft, warnen diese outlooks vor ungewöhnlichen Witterungsbedingungen. Eine vergleichbare Aufgabe hat z.B. der ENSO-Blog der NOAA.

Es besteht ein erhebliches Potenzial für den gesellschaftlichen Nutzen vor allem durch Verbesserungen der innersaisonalen bis jahresübergreifenden Vorhersagequalität (engl. ISI, intraseasonal to interannual timescale) und die Bereitstellung von ISI-Prognosen. Viele Managemententscheidungen in den Bereichen Wasserversorgung, Energieerzeugung, Verkehr, Land- und Forstwirtschaft und Fischerei werden routinemäßig nach subsaisonalen, saisonalen oder jährlichen Zeitplänen getroffen. So können beispielsweise während eines El Niño-Winters die Küstengebiete Kaliforniens ein erhöhtes Überschwemmungsrisiko aufweisen, das durch einen Anstieg der Niederschläge und des Meeresspiegels verursacht wird, während in den Berggebieten im pazifischen Nordwesten der Vereinigten Staaten weniger Schnee fallen kann, was die spätere Wasserverfügbarkeit beeinträchtigt. Daher kann das Wissen über das Klimasystem in den ISI-Zeiträumen ein nützlicher Input für Ressourcenmanagement und Planungsentscheidungen sein.

In den USA rechnet man für die Landwirtschaft mit einem Nutzen durch verbesserte Vorhersagen, der mit 240-323 Millionen $ beziffert wird.

Eine zuverlässige und frühzeitige Vorhersage eines El Niño würde es ermöglichen, dass sich weltweit die betroffenen Regionen auf die Klimaanomalie und ihre verheerenden Folgen vorbereiten können. So könnten zum Beispiel die Bauern Pflanzen anbauen, die das El Niño-Klima besser überstehen. In den Gebieten, für die aussergewöhnliche Regenfälle prognostiziert wären, könnte man die Flussbetten ausbauen und Medikamente gegen Malaria und Cholera herbeischaffen. Die NASA geht davon aus, dass sich z.B. mit Hilfe von Satellitendaten der Ausbruch von Rifttalfieber im östlichen Afrika bis zu sechs Monate vorhergesagen lässt. Als Abwehrmaßnahmen böten sich das Ausbringen von Insektiziden auf die Böden an, um das Schlüpfen der virenübertragenden Moskitos zu verhindern sowie die Impfung des Viehs.

Auch kann man sich auf die witterungsabhängige Verbreitung von Schädlingen besser einstellen. Wichtig sind solche Maßnahmen beispielsweise in den dürreanfälligen Gebieten von NO-Brasilien oder von Queensland (NO-Australien).

Im nördlichen Peru werden vornehmlich Reis und Baumwolle angebaut, beides Kulturpflanzen, die hohe Ansprüche an die Menge und an den Zeitpunkt der Niederschläge stellen. Reis benötigt viel Feuchtigkeit während der Wachstumsphase und Niederschlagsarmut während der Reifezeit. Baumwolle ist wegen ihres tiefer reichenden Wurzelsystems trockenheitstoleranter. Daher ist es für die Bauern in dieser Region ratsamer, bei einer El Niño-Vorhersage verstärkt auf Reis zu setzen.

Zuverlässige Prognosen sind auch für Warenterminbörsen von Bedeutung. Da hier mit der künftigen Kursentwicklung eines Rohstoffs spekuliert wird, ist die Kenntnis von meteorologischen Rahmenbedingungen für den Anbau von z.B. Kaffee oder Getreide von großem Nutzen bei Kauf- oder Verkaufsentscheidungen.

Auch Rückversicherungen sind an möglichst genauen Informationen über meteorologisch-klimatologische Entwicklungen interessiert, um Risiken bei Vertragsabschlüssen besser beurteilen zu können.

Ein heikles Problem ist der verantwortungsvolle, zielgerichtete Umgang mit Warninformationen, um Fehlreaktionen potentiell betroffener bzw. nicht betroffener Bevölkerungskreise zu vermeiden. Die im Juni 1997 getroffene Vorhersage, dass den Kaliforniern ein Winter mit dem Mehrfachen der üblichen Niederschlagsmengen bevorsteht, erwies sich als zutreffend, aber nichts wurde getan, um zu vermeiden, dass Menschen in wahrscheinlich ungefährdeten Gebieten in Angst versetzt wurden.

Als die Nachrichtenagentur Reuters entsprechende Katastrophennachrichten auch in Ecuador und Panama (wo starke El Niños tatsächlich verheerend sind) verbreitete, rief dies Panikreaktionen hervor. Banken gaben keine Kredite mehr für den Anbau von Pflanzen und Versicherungsgesellschaften verweigerten Ernteausfallversicherungen, obwohl selbst bei den finstersten Szenarien, die gravierenden Auswirkungen für die Landwirtschaft erst viel später eintreten konnten.

Auch kann falscher Alarm gefährlicher sein als eine fehlende Vorhersage. So veranlasste die Ankündigung einer El Niño-bezogenen Dürre viele Bauern in Zimbabwe zu einem reduzierten und trockenheitsorientierten Anbau. Tatsächlich fiel ausreichend Regen. Aber der reduzierte Anbau führte zu einer Nahrungsmittelknappheit.

Die bisherige Erfahrung belegt die Notwendigkeit von interdisziplinärer Zusammenarbeit. Dies betrifft nicht nur die Naturwissenschaften untereinander, sondern auch deren Zusammenarbeit mit den Sozialwissenschaften.

Im Übrigen hat die ENSO-Vorhersage vieles gemein mit der Vorhersage von Ursachen anderer Naturkatastrophen (Erdbeben, Vulkanausbrüchen, Tsunamis) bezüglich Unsicherheit und Dosierung der Aussagen.

Weitere Informationen:

 

Aktuelle Modellvorhersagen am Beispiel des International Research Institute for Climate and Society (IRI)

Um die ENSO-Bedingungen vorherzusagen, modellieren Computer die SSTs in der Region Niño 3.4 über die nächsten Monate. Das folgende Fahnendiagramm zeigt die Ergebnisse dieser Modelle, von denen einige Gleichungen verwenden, die auf unserem (d. h. IRI) physikalischen Verständnis des Systems basieren (sogenannte dynamische Modelle), und einige verwenden Statistiken, die auf der langen Aufzeichnung historischer Beobachtungen basieren.

Das IRI veröffentlicht zwei Vorhersagen pro Monat (IRI ENSO Forecast):

  1. Die offizielle CPC/IRI ENSO-Wahrscheinlichkeitsprognose, die auf einer abgestimmten Einschätzung von CPC- und IRI-Meteorologen basiert. Es wird in der ersten Monatshälfte in Verbindung mit der offiziellen CPC/IRI ENSO Diagnostic Discussion aktualisiert. Es basiert auf Beobachtungs- und Vorhersageinformationen vom Anfang des Monats und vom Vormonat. Es verwendet neben den Modellergebnissen auch menschliches Urteilsvermögen. Dies ist insbesondere zur Zeit der schwierigen Frühjahrs(vorhersage)barriere nötig, wenn die Modelle bekanntermaßen weniger genaue Vorhersagen abliefern.
  2. Eine rein objektive ENSO-Wahrscheinlichkeitsprognose, die auf Regression basiert und als Input Modellvorhersagen aus der Vielzahl der dynamischen und statistischen Prognosen verwendet. Jede der Prognosen wird gleich gewichtet. Sie wird jeweils um die Monatsmitte aktualisiert, wobei die Prognosen der in der ersten Monatshälfte laufenden Fahnenmodelle verwendet werden. Sie verwendet keine menschliche Interpretation oder Beurteilung.

Mid-Jan 2017 Plume of Model ENSO Predictions

Mid-Jan 2017 Plume of Model ENSO Predictions

 

Plume of ENSO Predictions - Explanation

Plume of ENSO Predictions - Explanation

Die obige Grafik zeigt Prognosen dynamischer und statistischer Modelle für SST in der Region Niño 3.4 für neun überlappende 3-Monats-Perioden. Beachten Sie, dass die erwarteten Fähigkeiten der Modelle, basierend auf historischen Beobachtungen, nicht gleich sind. Die Fähigkeiten nehmen im Allgemeinen auch mit zunehmender Vorlaufzeit ab. Drittens haben Prognosen nicht zu allen Zeiten des Jahres die gleiche Qualität - sie sind nämlich besser, wenn sie zwischen Juni und Dezember gemacht werden, als wenn sie zwischen Februar und Mai gemacht werden. Unterschiede zwischen den Prognosen der Modelle spiegeln sowohl Unterschiede im Modelldesign als auch tatsächliche Unsicherheiten in der Prognose des möglichen zukünftigen SST-Szenarios wider.

 

Was bedeutet dies?

  • Jede farbige Linie repräsentiert eine andere Modellvorhersage für den 3-Monatszeitraum auf der unteren Achse (z.B. MAM bedeutet März April Mai).
  • Werte über 0,5 sagen einen El Niño vorher
  • Werte unter -0,5 prognostizieren La Niña.
  • Werte zwischen -0,5 und 0,5 sagen neutrale Verhältnisse voraus (graue Fläche).

 

Quelle: NOAA PMEL / IRI (hier auch aktuelle Versionen)

 

Weitere Informationen:

 

Fortschritte bei der Formulierung, Kommunikation und/oder dem Gebrauch von El Niño-Informationen seit dem Starkereignis von 1997/98

Die El Niño 2015 Conference am International Research Institute for Climate and Society (IRI) listete in ihrer Concluding Perspective unter anderem auch die folgenden informationsbezogenen Fortschritte auf, die seit dem Extremereignis von 1997/98 gemacht wurden:

  1. Insgesamt sind die Modelle und Vorhersagen zum Verhalten von El Niño und seinen Auswirkungen auf regionale Klimate verbessert, z.B. wurden die Vorlaufzeiten um einen Monat verkürzt.
  2. Regionen und Länder haben größere Kapazitäten zur Erstellung und Interpretation von Vorhersagen, was beispielsweise durch die Informationsfülle belegt wird, die von CIIFEN, ICPAC und anderen regionalen Zentren belegt wird, sowie durch die Aktivitäten innerhalb des India Meteorological Department und der Philippine Atmospheric, Geophysical and Astronomical Services Administration. Seit dem Ereignis von 1997/98 gibt es eine beträchtliche Zunahme der Zusammenarbeit innerhalb der internationalen Gemeinschaft, regionalen und nationalen Zentren und Gemeinschaften.
  3. Institutionen (d.h. nationale und internationale, aus dem privaten und dem öffentlichen Sektor) sind beträchtlich kompetenter und aktiver beim Gebrauch von Klima- und El Niño-Informationen für die Bereiche Planung, Vorsorge und Schutz.
  4. Es gibt ein größeres Bewusstsein gegenüber dem El Niño-Phänomen, seinen Auswirkungen und für die in einer ganzen Gesellschaft auftretenden Notwendigkeiten angesichts eines El Niño-Ereignisses.

Weitere Informationen: El Niño 2015 Conference - Conference Report (IRI, März 2016)

 

Klimamodelle

Klimamodelle sind extrem komplexe Computerprogramme. Mit ihnen wird versucht, Entwicklungen von und Wechselwirkungen zwischen den einzelnen Komponenten des Klimasystems der Erde zu simulieren – also  beispielsweise von Atmosphäre und Ozeanen, von Wolken, Schnee und Eismassen oder von verschiedenen geologischen, biologischen und chemischen Prozessen.

El Niño-bezogene Klimaänderungen haben oft weitreichende und verheerende Auswirkungen. Dazu gehören die Häufigkeit und die Stärke von Stürmen und das Auftreten von Dürren und Überschwemmungen. Obwohl viele der Folgen von El Niño oder La Niña nicht verhindert werden können, erlauben es ausgeklügelte Vorhersagen den Entscheidungsträgern in klimaabhängigen Wirtschaftssektoren oder im Bereich der Infrastruktur, Strategien zu ändern oder die ökonomische Anfälligkeit zu mindern. Entsprechend groß ist das gesellschaftliche, wirtschaftliche und wissenschaftliche Interesse an ENSO-Vorhersagen.

Vorhersagen dieser Art sind in die Zeitskala von Jahreszeiten einzuordnen. Im Unterschied zur Wettervorhersage macht die Jahreszeitenvorhersage keine Aussage über die detaillierte Entwicklung des Wettergeschehens der nächsten Monate. Es werden nicht einzelne Wettererscheinungen, wie z. B. die Zugbahn eines Tiefdruckgebiets vorgesagt, vielmehr liefert die Jahreszeitenvorhersage eine statistische Auswertung des Wetters über einen mehrmonatigen Zeitraum. Anhand von Modellrechnungen werden Wahrscheinlichkeiten des Auftretens von jahreszeitlichen Anomalien bestimmt. Dies kann z. B. die Oberflächentemperatur sein oder der Niederschlag, gemittelt über eine bestimmte Region und eine Jahreszeit.

Generell hat die saisonale Vorhersagbarkeit ihren Ursprung in langsamen Veränderungen der Randbedingungen, wie z. B. Anomalien der Meeresoberflächentemperatur oder der Meereisausdehnung. Derartige Anomalien sind in der Lage, das Klima zu bestimmen, und das Klima ist dann vorhersagbar, wenn die Anomalien in den Randbedingungen selbst vorhersagbar sind.

Jahreszeitenvorhersagen sind eine besondere Herausforderung für die dabei verwendeten Modelle, da für einen Vorhersagezeitraum von einem halben bis ganzen Jahr insbesondere Prozesse mit längerfristiger (saisonaler und interannualer) Variabilität eine wichtige Rolle spielen und vom Modell abgebildet werden müssen. Langzeitprognosen sind daher nur mit einem gekoppelten Atmosphäre-Ozean-Meereis-Modell möglich, da vor allem Ozean und Meereis Träger dieser langfristigen Informationen sind. Um die Unsicherheiten auf Grund der hohen Komplexität und der Modellfehler abzubilden, werden Jahreszeitenvorhersagen als Ensemblevorhersagen gerechnet. Vor jeder aktuellen Prognose werden lange Zeitreihen in der Vergangenheit gerechnet, die als Grundlage zur Qualitätsprüfung des Modells dienen. Typischerweise werden Jahreszeitenvorhersagen der vergangenen 30 Jahre nachgerechnet.

In den gekoppelten Atmosphäre-Ozean-Modellen werden Atmosphäre und Ozeane in ein dreidimensionales Gitter geteilt. Der Austausch an Masse und Energie zwischen benachbarten Gitterpunkten wird durch mathematische Gleichungen von Zeitschritt zu Zeitschritt gelöst. Dadurch erhält ein Model seine Dynamik. Die Modelle enthalten grundlegende physikalische Differentialgleichungen aus der Fluiddynamik, Hydrologie und Chemie. Mathematisch (noch) nicht beschreibbare Prozesse werden parametrisiert, d.h. mit fixen Werten gerechnet. Alternativ erfolgt die Berechnung des Modells über spektrale Methoden.

Gekoppelte Ozean-Atmosphäre Computermodelle haben während der vergangenen Jahrzehnte eine beachtliche Vorhersagegenauigkeit erzielt. Sie leiden aber noch immer an einem zu bescheidenen maritimen Beobachtungsnetz. So gibt es weder im Atlantischen noch im Indischen Ozean ein dem pazifischen TAO/TRITON-Messnetz vergleichbares Monitoring. Eine bedauerliche Episode ergab sich 2014, als nur noch 40 % der Bojen aus dem TAO/TRITON-Messnetz Daten lieferten. Der Grund für die Ausfälle und das folgende Datenloch waren Sparmaßnahmen bei der Wartung der Bojen. (NZZ 2014)

climate_sys_ncdc

Schematic model of the climate system

The model includes critical processes and interactions in the atmosphere, hydrosphere, biosphere, and cryosphere. Climate and weather models try to account for these interactions.

An integral part of the transport of energy within and from the tropics is the interaction between the surface and the atmosphere. Since the ocean occupies such a large area of the surface, ocean-atmosphere interactions are a dominant component of that energy exchange. Because water has a larger heat capacity, the oceanic response to seasonal variations of solar heating is smaller than over land. The oceans are then able to store heat during the summer and release it during the winter. The peak in oceanic transport of heat to the poles occurs at low latitude.

The ocean to atmosphere transfer is primarily of heat and moisture through evaporation. On the other hand, winds transfer momentum to the ocean by moving the waters around. A tropical cyclone is an impressive example of these interactions; its energy is gained from the warm ocean waters through latent heat transfer while its winds stir the ocean surface, transfer momentum downward, and leave a cool anomaly in its wake. Furthermore, regions of heating and strong convection are observed over the tropical continents and warm ocean basins. Various weather and climate phenomena are generated in response to these heating maxima. One prominent example is the Madden-Julian Oscillation (MJO), a 30-60 day oscillation of surface pressure and winds that influences tropical weather from small-scale convection to planetary-scale circulations. The MJO is a coupled atmosphere-ocean phenomenon that is commonly identified by a broad area of active cloud and rainfall propagating eastward around the equator. The oceanic signature of the MJO is evident in the SSTs, depth of the isothermal ocean surface layer, and latent heat exchange. Quellen: MetEd / UCAR (Zugang über kostenfreie Registrierung)

 

Wie wichtig eine genauere Kenntnis vom physikalisch-chemischen Zustand der Ozeane ist, unterstreichen alleine die folgenden Zahlen:

Zur Zeit werden verschiedene Klimamodelle eingesetzt, die unterschiedliche Resultate liefern. Man unterscheidet grundsätzlich folgende Arten:

1. Statistische oder diagnostische Modelle

Auf Grund von früheren, statistisch erfassten Ergebnissen wird auf die zukünftige Entwicklung geschlossen. Dazu benötigt man eine lange Zeitreihe (ca. 30 - 50 Jahre) von Beobachtungsdaten, i. a. von der gleichen Art, wie sie auch als Eingabe für die u.g. dynamischen Modelle genutzt werden. Diese lange Aufzeichnungsreihe wird verwendet, um Schlüsselerscheinungen in Ozean und Atmosphäre zu identifizieren, die als Vorläufer für darauffolgende Veränderungen in Ozean und Atmosphäre in einem bestimmten Raum gelten, z.B. im tropischen Pazifik in Bezug auf ENSO.

Beispiele für El Niño-Vorläufer:

Statistische Modelle werden anhand der langen Geschichte dieser Vorläuferereignisse in Kombination mit den darauffolgenden ENSO-Bedingungen "trainiert", so dass sie bei der Eingabe der aktuellen Beobachtungen in der Lage sind, die Wahrscheinlichkeit für verschiedene ENSO-Bedingungen für die bevorstehende Zeit vorherzusagen. Dieser Modelltyp tut in etwa, was auch ein erfahrener Klimatologe täte, wenn er auf typische Vorläuferbedingungen achtet, um daraus seine Schlüsse zu ziehen. Der Unterschied zum Modell besteht in dessen objektiver und quantitativer Vorgehensweise. Im Gegensatz zu den dynamischen Modellen bleiben die Mechanismen, die ENSO-Variationen hervorrufen, in statistischen Modellen unbekannt, da sie ihre Vorhersagen lediglich auf der Basis vorangegangener Ereignisse treffen. In Bezug auf El Niño / La Niña werden also beobachtete Wetterbedingungen mit dem Auftreten dieser Klimaanomalien korreliert. Typischerweise zieht man die Meeresoberflächentemperatur (SST) in definierten Schlüsselgebieten des äquatorialen Pazifiks heran um El Niño- bzw. La Niña-Phasen abzugrenzen, z.B. beim Oceanic Niño Index (ONI). Alternativ wird der Southern Oscillation Index (SOI) verwendet, der auf dem Luftdruckunterschied zwischen Tahiti und Darwin beruht.

Der Vorteil des SOI gegenüber dem SST-Verfahren liegt darin, dass die SOI-Aufzeichnungen über ein Jahrhundert zurück reichen, während für die zentralen Ozeanbereiche nur seit wenigen Jahren Daten erfasst werden.

Die Stärke von statistischen Vorhersagen besteht in der Verwertung tatsächlich aufgetretener Ereignisse. Andererseits können sie genau deswegen versagen, weil El Niño / La Niña keine jeweils identischen, sich genau wiederholenden Erscheinungen sind.

2. Dynamische Modelle

Sie basieren vorwiegend auf physikalischen Gleichungen (die Bewegungen der Luft der Atmosphäre, des Ozeanwassers, die Speicherung des Wassers im Boden, der Kohlenstoff-Kreislauf usw.). So werden beispielsweise die Newtonschen Bewegungsgesetze zur Vorhersage der Windgeschwindigkeit verwendet. Mathematische Darstellungen der physikalischen Gesetze werden in Computerprogramme umgewandelt. Die zunehmende Rechenleistung ermöglicht die Darstellung komplexerer Verhaltensweisen der Atmosphäre und des Ozeans in dynamischen Modellen.

Die auf solchen Prozessen beruhenden Modelle nennt man auch Modelle der Allgemeinen Zirkulation, engl. General Circulation Model (GCM). Je nachdem, ob man die Atmosphäre modelliert oder den Ozean, wird der Bezeichnung noch ein A beziehungsweise ein O vorangestellt (AGCM bzw. OGCM). Wird das ganze Ozean-Atmosphäre-System modelliert, so spricht man von einem Coupled General Circulation Model (CGCM).

Eine Hauptschwierigkeit bei diesem Vorhersagetyp liegt dabei, dass man nicht jedes Wasser- und Luftmolekül simulieren kann. Einerseits Datenarmut, andererseits die Grenzen von Computern hinsichtlich Geschwindigkeit und Speicherkapazität führen zu einer Abbildung der Realität in Gittermustern. Deren Kantenlänge bemisst sich nach Zehnern bis Hunderten von Kilometern. Diese grobe Auflösung macht eine detaillierte Vorhersage sehr schwierig.

Vorteile von dynamischen Modellen (d.M.) gegenüber statistischen Modellen (s.M.):
Nachteile von dynamischen Modellen gegenüber statistischen Modellen:

In realen ENSO-Vorhersagesituationen hat sich die Leistungsfähigkeit von statistischen und von dynamischen Modellen als nahezu gleichwertig herausgestellt. Die mit der verbesserten Computerleistung von Seiten der Ozeanongraphen und Klimatologen erwartete Überlegenheit der dynamischen Modelle hat sich noch nicht deutlich eingestellt. Daher werden beide Typen weiterhin genutzt. Da s.M. in ihrem Einsatz viel schneller und billiger sind, werden ihre Leistungen gerne als Referenz für die Leistungen der viel teureren d.M. genutzt.

3. Hybridmodelle

Das System Meer - Atmosphäre wird nicht gekoppelt betrachtet, statt dessen berechnet man die Meeresströmungen mit einem dynamischen Modell und leitet dann die Auswirkungen auf die Atmosphäre mit statischen Modellen ab.