Loading AI tools
Lehre von den physikalischen Vorgängen und Gesetzmäßigkeiten in der Erdatmosphäre Aus Wikipedia, der freien Enzyklopädie
Meteorologie (altgriechisch μετεωρολογία meteōrología „Untersuchung der überirdischen Dinge“ oder „Untersuchung der Himmelskörper“[1]) ist die Lehre der physikalischen und chemischen Vorgänge in der Atmosphäre und beinhaltet auch deren bekannteste Anwendungsgebiete – die Wettervorhersage und die Klimatologie,[2][3] also die Wetterkunde.
Über die Atmosphärenphysik, die Klimaforschung und die Verbesserung der Methoden zur Wettervorhersage hinausgehend untersucht die Meteorologie also auch chemische Prozesse (z. B. Ozonbildung, Treibhausgase) in der Lufthülle und beobachtet atmosphärische Himmelserscheinungen. Sie wird zu den Geowissenschaften gezählt und ist an den Universitäten (siehe Meteorologiestudium) oft den Instituten für Geophysik bzw. der jeweiligen Fakultät für Physik angegliedert. Meteorologe ist kein geschützter Begriff und jeder, der sich mit dem Wetter beschäftigt, kann sich so nennen.
Wetterbeobachtung war schon für die als Nomaden lebenden Menschen von Interesse, um die Wanderbewegungen der Beute- oder Herdentiere oder günstiges Wetter für längere Sammelausflüge einschätzen zu können. Beobachtung und Aufzeichnung des lokalen Wetters ist für Bauern eine wichtige Grundlage für grundlegende Entscheidungen: Wann sät man, wann erntet man?
Meteorologische Beobachtungen unternahm auch der Naturforscher und Philosoph Theophrastos von Eresos im 3. Jahrhundert v. Chr.[4]
Wetterbeobachtung und -forschung kann auch militärischen Zwecken dienen. Beispielsweise war für Seeschlachten eine zutreffende Prognose von Windrichtung und -stärke nützlich (manchmal sogar entscheidend).
Die Entdeckung Amerikas 1492 war der Auftakt für das Zeitalter der Entdeckungen. Der zunehmende interkontinentale Schiffsverkehr brachte viele neue Erkenntnisse über Wetterphänomene. Auf den Schiffen wurde das Wetter detailliert beobachtet und im Logbuch aufgezeichnet.
Frühe theoretische Ansätze lieferte Albertus Magnus: In seiner Abhandlung De natura locorum beschrieb er die Abhängigkeit der Eigenschaften eines Ortes von seiner geografischen Lage. Solche Ansätze wirkten weiter, zum Beispiel schrieb der Wiener Astronom Georg Tannstetter 1514 eine kurze Darlegung der theoretischen Klimatologie.[5]
Eine erste Revolution in der Wetterkunde setzte zwischen 1880 und 1900 ein, als die meteorologischen Dienste einzelner Staaten ihre Wetterdaten mittels drahtgebundener und drahtloser Telegrafie austauschen konnten und so ein zeitnaher Datenvergleich möglich wurde. Dadurch konnten erstmals synoptische Wetterkarten erscheinen. Basis dafür war die genaue Dokumentation in Beobachtungsbüchern oder -tabellen und die Erforschung statistischer Korrelationen.
Nach der Erfindung von Luftfahrzeugen (die erste Montgolfière fuhr 1783) konnte man mit Wetterballonen das Wetter in den unteren Luftschichten besser erforschen (siehe auch Chronologie der Luftfahrt).
Seit der Erfindung des Motorflugs in den 1900er Jahren nahm die Bedeutung der Wetterforschung zu. Flugzeuge wurden zu wichtigen Forschungsgegenständen, mit denen man Wetter (z. B. „Wolken von oben“) großräumig beobachten bzw. fotografieren und Wetterdaten messen konnte. Mit dem Ersten Weltkrieg entwickelte sich die Flugzeugtechnik enorm weiter (z. B. maximale Flughöhe, Reichweite, Geschwindigkeit).
Im Zweiten Weltkrieg wurde das in den 1930er Jahren entwickelte Radar eingesetzt. Spezielle Wetterradare ermöglichte die Gewinnung neuartiger Wetterbeobachtungsdaten (auch bei Nacht und Nebel). So unterhielt die Wehrmacht von 1941 bis 1945 Wetterstationen in der Arktis.
Bald nach dem Krieg begann der Kalte Krieg; er dauerte bis 1990 (Zerfall der Sowjetunion und des Ostblocks). Viele Länder unternahmen große Anstrengungen zur Erforschung des Wetters (z. B. das US-Projekt „Thunderstorm“). Außerdem entwickelte und baute man Aufklärungsflugzeuge, die so hoch fliegen konnten, dass sie damals von gegnerischen Bodenraketen nicht erreicht werden konnten. Das Spionageflugzeug Lockheed SR-71 hatte eine Dienstgipfelhöhe von 24.385 Metern.
Die Wetterforschung in großen Höhen diente vor allem der Raumfahrt, insbesondere der bemannten Raumfahrt (siehe auch der Wettlauf ins Weltall im Kalten Krieg) und der Entwicklung von Interkontinentalraketen.
Ein wesentlicher Meilenstein für die Wetterforschung war der Einsatz von Wettersatelliten. Der erste wurde 1960 gestartet. Von 1960 bis 1966 starteten die USA insgesamt 10 TIROS-Satelliten. Von 1968 bis 1978 starteten sie acht (davon ein Fehlstart) NIMBUS-Satelliten. Sie hatten auch Infrarotkameras an Bord. Damit kann man – auch nachts – Wetterphänomene (z. B. Wolken) filmen und quantifizieren, wie viel Wärme erwärmte Teile der Erdoberfläche (Landmassen, in geringem Maße auch Wasserflächen) nachts ins Weltall abstrahlen (siehe Erde#Globaler Energiehaushalt). Die Satellitenmeteorologie gilt als eigenständiges Teilgebiet der Meteorologie.
Bekannte Wetterforscher waren z. B.
Einen Quantensprung in der Wettervorhersage ermöglichen die rasanten Fortschritte in der Elektronischen Datenverarbeitung (auch EDV oder IT genannt) und die schnell wachsende Rechenleistung. Immer größere Datenmengen von immer mehr Messstationen werden verarbeitet. Die komplexen Algorithmen und Modelle, nach denen sie ausgewertet werden, erfordern leistungsstarke Rechenanlagen. Dadurch werden die Vorhersagen präziser und auch detaillierter in ihrer lokalen Auflösung.[6][7][8]
Zwar ist der Hauptfokus der Meteorologie auf die großskaligen dynamischen Prozesse innerhalb der heutigen Erdatmosphäre gerichtet, jedoch sind die im Rahmen eines besseren Verständnisses der Wetterdynamik entwickelten Modellvorstellungen desselben auch auf andere Systeme übertragbar.
Man zählt daher auch begrenzte Raumklimate bzw. Stadtklimate, extraterrestrische Atmosphären oder Atmosphären vergangener Erdzeitalter (Paläoklimatologie) zu den Studienobjekten der Meteorologie. Diese spielen jedoch meist nur in der Forschung eine größere Rolle, wo sie auch teilweise als „Spielwiese“ zur Verbesserung derjenigen Modelle dienen, die auch die derzeitige Erdatmosphäre beschreiben. Man versucht daher, durch genaue Beobachtungen der Erdatmosphäre eine gesicherte Datengrundlage auszubilden und gleichzeitig diese Daten für die Schaffung eines immer besseren Verständnisses meteorologischer Prozesse heranzuziehen.[10]
Viele Methoden, Herangehensweisen und Ideen der dynamischen Meteorologie entspringen der allgemeinen Fluiddynamik und finden weitere Anwendung in Meereskunde, Geophysik und Ingenieurwissenschaft sowie in fast allen Umweltwissenschaften.
Die Meteorologie ist – abgesehen von der Wetterbeobachtung (Wetterkunde) – eine junge Wissenschaft. Sie besitzt einen außerordentlich interdisziplinären Anspruch, vereint also sehr viele verschiedene Wissenschaften in sich. Wissenschaftliche Fachgebiete, die von der Meteorologie genutzt oder berührt werden, sind:
Die Meteorologie lässt sich nach verschiedenen Richtungen unterteilen, wobei sich einige von ihnen stark überschneiden.
nach Verfahren | nach räumlichen Gegebenheiten | nach angewandten Techniken |
---|---|---|
allgemeine Meteorologie | Aerologie | Satellitenmeteorologie |
theoretische Meteorologie | Aeronomie | Radar-Meteorologie |
dynamische Meteorologie[11] | Grenzschicht-Meteorologie | LIDAR-Meteorologie |
experimentelle Meteorologie | Mikrometeorologie | |
angewandte Meteorologie
|
Maritime Meteorologie | |
Alpine Meteorologie | ||
Glaziale Meteorologie | ||
Polare Meteorologie | ||
Mittelbreiten-Meteorologie | ||
Tropische Meteorologie |
Diese Zusammenstellung ist nicht vollständig. Insbesondere beschäftigt sich die Meteorologie nicht nur mit der Troposphäre, also der untersten Schicht der Atmosphäre, sondern auch mit Stratosphäre und in beschränktem Umfang sogar mit Mesosphäre und Thermosphäre.
Die wichtigste Aufgabe und zugleich das größte Problem der Meteorologie als empirischer Wissenschaft besteht in der Erfassung, Bearbeitung und insbesondere in der Bewertung und dem Vergleich von Daten. Im Unterschied zu anderen Naturwissenschaften kann man in der Meteorologie dabei nur für eine kleine Minderheit von Fragestellungen kontrollierbare Laborbedingungen herstellen. Meteorologische Datenerfassung ist daher in der Regel an die von der Natur vorgegebenen Rahmenbedingungen geknüpft, was die Reproduzierbarkeit von Messergebnissen einschränkt und insbesondere den Reduktionismus auf geschlossene, durch eine Messung beantwortbare, Fragestellungen erschwert.
Die wichtigsten Grundgrößen sind:
Viele dieser Messwerte werden in Klimagärten erhoben.
Diese Größen werden in verschiedenen Standardformaten zum Datenaustausch bereitgestellt. In der Luftfahrt wird beispielsweise der Meteorological Aviation Routine Weather Report (METAR)-Code genutzt, für die Übertragung meteorologischer Daten von Landstationen der SYNOP FM12/13-Code, auf See gewonnene Daten werden mit dem Ship-Code verschlüsselt. Zur Klassifizierung der Ausprägung eines Parameters können unterschiedliche Hilfsmittel eingesetzt werden, für Wind beispielsweise kann die Beaufortskala oder die Sichtmarkentabelle einer Wetterstation dienen. Meteorologische Daten werden abhängig vom jeweiligen Status einer Wetterstation im Messnetz (als Klimastation, Niederschlagsmessstation oder synoptische Station) stündlich oder 2 bis 3 Mal am Tag (um 7 und 19 Uhr oder um 7, 12 und 19 Uhr) gewonnen und international ausgetauscht sowie national verarbeitet. Die Daten werden durch eine Vielzahl von meteorologischen Messgeräten erfasst, wobei die folgende Aufzählung nur die wichtigsten Beispiele aus dieser Vielfalt auflistet:
Aus der Vielzahl von Messgeräten, der Art der Messgrößen und den Zielen ihrer Verwendung ergeben sich zahlreiche Probleme.
Für die Messgröße Niederschlag beispielsweise sind verschiedene Messgeräte zur Erfassung von Regen, Tau, Schnee und Hagel weit verbreitet und praxiserprobt. Aus methodischen Gründen wird die Erfassung von flüssigem (Regen, Tau) und festem (Schnee, Hagel) Niederschlägen unterschieden und die Messgröße daher nach den erfassten Niederschlagsarten klassifiziert angegeben. Die Messgenauigkeit der marktgängigen Verfahren zur Bestimmung des flüssigen Niederschlages kann mit ca. 30 % angesetzt werden, die des festen Niederschlages ist nicht besser. Andere Hydrometeore werden durch Ansaugen einer Luftmenge oder durch die Ablagerung an Stäben erfasst und volumetrisch bestimmt.
Die Qualität der Niederschlagsmessungen wird in erster Linie durch die Parameter Wind, Lufttemperatur, Aufstellungshöhe über Grund, Verdunstung und Aufstellort beeinflusst. Die Frage ihrer Vergleichbarkeit beziehungsweise der notwendigen Korrekturen ist Gegenstand wissenschaftlicher Diskussionen; für verschiedenste Niederschlagsmesser sind bereits zahlreiche Vergleiche durchgeführt worden (siehe hierzu WMO bzw. CIMO).
Auch die Messung der anderen meteorologischen Größen ist mit ähnlichen, wenn auch geringeren Problemen behaftet: beispielsweise konnte lange Zeit die vertikale Komponente der Windgeschwindigkeit nicht richtig erfasst werden und auch heute noch ist die Messung vertikaler Gradienten sehr aufwändig. Man beschränkt sich daher auch meist auf Bodenmessungen, wobei man je nach Messgröße standardisierte Bodenabstände von meist zwei oder zehn Metern anwendet. Zu beachten ist hierbei, dass eine einzelne meteorologische Messung nahezu bedeutungslos ist und die Wetterdynamik in größeren Raumskalen nur durch eine Vielzahl von Messungen verstanden und prognostiziert werden kann. Diese Messungen müssen hierfür jedoch vergleichbar sein, weshalb die Normung und Standardisierung von Messgeräten und Messverfahren in der Meteorologie sehr wichtig ist, aufgrund vielfältiger praktischer Probleme jedoch nur bedingt umgesetzt werden kann. Man spricht daher auch von Messnetzen und der Einrichtung von Wetterstationen. Diese befolgen in der Regel die VDI-Richtlinie 3786 oder andere, teilweise weltweit durch die World Meteorological Organization standardisierte Richtlinien.
Zu einer räumlichen Vergleichbarkeit der Daten, die zur Wettervorhersage notwendig ist, kommt jedoch auch eine zeitliche Vergleichbarkeit, die unter anderem für Klimaprognosen eine entscheidende Rolle spielt. Wird die Entwicklung der Messgeräte und damit der Messgenauigkeit bei der Analyse teilweise sehr alter Daten nicht berücksichtigt, so sind diese Daten wissenschaftlich beinahe wertlos, weshalb weltweit oft veraltete und seit Jahrzehnten unveränderte Messgeräte noch sehr weit verbreitet sind. Auch ist dies eine Kostenfrage, denn es ist hier nicht immer sinnvoll, die modernsten und damit teuersten Messgeräte zu verwenden, da diese nur für einzelne Länder bzw. Institute bezahlbar sind. Zudem ist jeder Wechsel der Messapparatur mit einem Wechsel der Datenqualität verknüpft, was bei längeren und sehr wertvollen Messreihen von vielen Jahrzehnten bis wenigen Jahrhunderten leicht zu falsch postulierten bzw. interpretierten Trends führen kann. Es wird also oft zugunsten der Vergleichbarkeit auf eine höhere Genauigkeit verzichtet. Bei einer globalen Erwärmung von wenigen Grad Celsius sind diese sehr alten Daten meist wenig hilfreich, da schon ihr Messfehler in der Regel den Effekt dieser möglichen Temperaturänderungen übersteigt. Ein großer Teil der Argumente von sogenannten „Klimaskeptikern“ basiert auf dieser teilweise umstrittenen Datenlage, es existieren jedoch auch andere natürliche Klimaarchive mit wesentlich genaueren Daten über sehr lange Zeiträume. Mit der Diskussion um die Aussagekraft von Temperaturaufzeichnungen hat sich u. a. das BEST-Projekt an der Universität Berkeley beschäftigt.
Es ergibt sich also die Notwendigkeit, bedingt durch standortspezifische, personelle und messtechnische Faktoren, Messdaten kritisch zu hinterfragen und diese richtig einzuordnen. In der Meteorologie steht hierbei die räumliche Datenanalyse im Vordergrund, in der ansonsten eng verwandten Klimatologie spielt hingegen die zeitliche Datenanalyse (Zeitreihenanalyse) die Hauptrolle.
Die Gewinnung von physikalischen Größen aus Messungen in verschiedenen Bereichen des elektromagnetischen Spektrums ist eine Herausforderung, die nur mit großem technischen Aufwand sowie durch Einsatz von Modellen gelingt.
Ein wichtiges Hilfsmittel für Meteorologen, speziell der Satellitenmeteorologie, bilden heutzutage die Satelliten, insbesondere die Wetter- und Umweltsatelliten. Man unterscheidet hierbei geostationäre Satelliten, die in einer Höhe von 36'000 km stationär über der Erde verankert sind, und Satelliten, die auf einem LEO in 400 bis 800 km die Erde umkreisen. Aufgrund der großflächigen Erfassung von Messdaten lassen sich mit Satelliten globale Zusammenhänge erfassen und damit letztendlich auch verstehen.
Nur mittels Satelliten ist es heutzutage möglich, Informationen in Form von Beobachtungen auf globaler Basis und täglich aufgelöst über die Atmosphäre zu erlangen. Insbesondere den Zustand und die Zusammensetzung der oberen Atmosphäre (Stratosphäre, Mesosphäre, Thermosphäre) kann man nur wirkungsvoll durch den Einsatz von Satelliten untersuchen.
Hohe räumliche und zeitliche Auflösung von Satellitendaten ist wünschenswert, da man dadurch in die Lage versetzt wird, effektiv Atmosphärenbestandteile und deren Änderung zu überwachen. Satellitendaten leisten beispielsweise bei der Überwachung der Entwicklung der Ozonlöcher wertvolle Dienste, indem man aus Satellitenmessungen direkt den Gehalt von Ozon pro Höhe und pro Tag sehr genau abschätzen kann. Viele andere atmosphärische Spurengase werden auf diese Weise überwacht (beispielsweise Methan, Kohlendioxid, Wasserdampf), aber auch Druck und Temperatur in der Atmosphäre können so sehr genau und räumlich exakt bestimmt werden. Die fortschreitende Entwicklung der Instrumente und der Trend zu kleinen hoch spezialisierten Satelliten macht es darüber hinaus möglich, auch anthropogen induzierte Störungen der Atmosphärenzusammensetzung zu verfolgen. Zusammen mit in-situ durchgeführten Messungen (beispielsweise per Ballon) und Modellrechnungen ergibt sich so nach und nach ein immer geschlosseneres Bild des Zustandes der Erdatmosphäre.
Troposphärische Satellitendaten werden genutzt, um Erkenntnisse über Regionen zu erhalten, die keiner anderen Messmethode zugänglich sind. Ein Beispiel sind Niederschlagsschätzungen oder Windgeschwindigkeitsbestimmungen über den Ozeanen. Dort hat man kein enges Messnetz zur Verfügung und war lange Zeit auf großflächige Datenextrapolationen angewiesen, was selbst heute noch dazu führt, dass bei stark maritim geprägten Wetterlagen, beispielsweise an der Westküste Nordamerikas, wesentlich geringere Vorhersagequalitäten erreicht werden können als bei kontinental bestimmten Wetterlagen. Alle nicht satellitengestützten Datenerhebungen auf dem Ozean stammen hierbei aus Schiffs- oder Bojenmessungen beziehungsweise von Messstationen auf vereinzelten Inseln. Kenntnisse zu den Wetterverhältnissen über den Ozeanen können daher zu einer Verbesserung der Gesamtvorhersagen von Niederschlagsereignissen an Küsten führen. Dies ist gerade für vom Monsun betroffene Länder, wie Indien, eine lebenswichtige Information.
Satellitendaten werden, beispielsweise über die sogenannte Datenassimilierung, als Grundlage in der Klimatologie genutzt, um deren Modelle zu verbessern bzw. zu stützen und eine umfassende und gleichmäßige Datenerfassung zu ermöglichen.
Die Arbeit mit Satellitendaten erfordert weitreichende Kenntnisse in der Datenverarbeitung und der damit zusammengehörenden Technik und der Techniken (beispielsweise effiziente Programmierung). Große Datenmengen (heutzutage im Bereich von Terabytes) müssen empfangen, weitergeleitet, gespeichert, verarbeitet und archiviert werden.
Besonders in der Klimatologie (Klimamodell), aber auch in der Meteorologie (Numerische Wettervorhersage) und Fernerkundung spielen Modelle eine herausragende Rolle. Sie gewinnen ihre Bedeutung durch verschiedene Faktoren:
Das Design von Modellen ist ebenso eine Herausforderung, wie deren inhaltliche Gestaltung. Nur Modelle, welche die Natur möglichst adäquat beschreiben, sind in Forschung wie Praxis sinnvoll einsetzbar. Da solche Modelle wegen der Komplexität des modellierten Systems leicht ganze Rechenzentren beschäftigen können, ist eine effiziente Algorithmik, also die Natur vereinfachende statistische Annahme, ein wichtiger Punkt bei der Entwicklung der Modelle. Nur auf diese Weise können Rechenzeit und somit die Kosten überschaubar gehalten werden.
In den 1920er Jahren hat der Mathematiker Lewis Fry Richardson Methoden entwickelt, mit Hilfe derer die enorme Komplexität mathematischer meteorologischer Modelle angegangen werden konnten. Diese sind heute noch häufig die Grundlage meteorologischer Simulationen (Simulationsmodell) auf Supercomputern. Diese dienen daher auch nicht ohne Grund in sehr vielen Fällen zur Simulation der Wetter- bzw. Klimadynamik, wobei diese ihre Grenzen, trotz teilweise gigantischer Größendimensionen, schnell erreichen.
Es lassen sich verschiedene Arten von Atmosphärenmodellen grob unterscheiden: Strahlungstransfermodelle (bspw. KOPRA), Chemietransportmodelle (bspw. ECHAM) und dynamische Modelle. Der Trend geht jedoch zu integrierten Modellen oder „Weltmodellen“, die die gesamte Natur nachzeichnen (SIBERIA 2).
Bei der Verbesserung der Qualität der Modelle fließen, wie überall in der physikalischen Modellierung, sowohl statistische Verfahrensweisen als auch experimentelle Beobachtungen, neue Ideen usw. in das Verfahren ein. Ein bekanntes Beispiel hierfür ist die Entwicklung, die zur Erkenntnis geführt hat, dass die Veränderung von Spurengasmengen in der Atmosphäre (bspw. Kohlendioxid oder Ozon) zu einer „ungesunden“ Wärmeentwicklung der Biosphäre führen können (bspw. Treibhauseffekt, Abkühlung der Stratosphäre). Auch die Entdeckung des Ozonloches und die Verstärkung des Augenmerks der Wissenschaftler auf die damit zusammenhängende Atmosphärenchemie fällt in diese Kategorie.
Einfachstes meteorologisches Modell und zugleich die erste Bewährungsprobe für alle neuentwickelten Modelle zur Wettervorhersage ist die simple Übertragung des aktuellen Wetters auf die Zukunft. Es gilt hierbei der einfache Grundsatz eines konstanten Wetters, man nimmt also an, das Wetter des nächsten Tages wird dem des aktuellen Tages entsprechen. Dies wird als Persistenzprognose bezeichnet. Da Wetterlagen oft lange nahezu gleich bleibend sind, hat diese einfache Annahme bereits eine Erfolgswahrscheinlichkeit von circa 60 %.
Um den Austausch von Wetterdaten (aktuell, historisch, prognostiziert) zu vereinfachen, hat die Weltorganisation für Meteorologie (WMO) das Datenformat GRIB, engl. GRIdded Binary, definiert.
Die Rechtslage ist ausgesprochen komplex (ebenso wie bei den Geoinformationen). Relevant ist vor allem das Urheberrecht und insbesondere das Datenbankschutzrecht, das sich auf Sammlungen von Wetterdaten bezieht (siehe Datenbankwerk). Es gibt allerdings auch europäische Richtlinien zur Weiterverwendung von Daten des öffentlichen Sektors (Public Sector Information, in Deutschland umgesetzt als Informationsweiterverwendungsgesetz) sowie zur Verbreitung von Umweltinformationen (in Deutschland umgesetzt als Umweltinformationsgesetz), die auf die Rechte an Wetterdaten und deren Verbreitung wirken.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.