Der GISP2-Datensatz, ein wichtiges Zeugnis der Klimageschichte
In einem Vortrag in Heidelberg erklärte Prof. von Storch auf eine Publikumsfrage, dass Paläoklima-Daten insofern nicht mit den heutigen Temperaturentwicklungen vergleichbar seien, weil die Änderungen der Vergangenheit typischerweise in sehr viel längeren Zeiträumen stattgefunden hätten. Noch nie in der Geschichte wäre die Temperaturveränderung so schnell erfolgt wie in der heutigen Zeit, in der der Mensch die entscheidende Ursache der Klimaänderung sei.
Nun gibt es einen Datensatz, der etwa 50000 Jahre in die Vergangenheit reicht, der sich bis in die Mitte des 19. Jahrhundert erstreckt und der eine zeitliche Auflösung von 50 Jahren hat, der GISP2-Datensatz mit Messungen eines Eisbohrkernes von Grönland. Ein Ausschnitt des Datensatzes aus der jüngeren Vergangenheit ist in Abb. 1 dargestellt:
Abb. 1: Temperaturverlauf der letzten 10000 Jahre aufgrund des GISP2-Eisbohrkerns
Es sind in diesem Zeitraum Temperaturschwankungen von rund 3 °C gewesen, einmal innerhalb von rund 400 Jahren (um das Jahr 6000 BC herum). Um die Frage zu beantworten, ob die Temperaturen sich heute schneller ändern als in diesem historischen Datensatz, betrachten wir die sogenannten Anomalien. Diese sind heutzutage definiert als die Differenz zwischen der aktuellen Temperatur und dem Durchschnitt der letzten 30 Jahre. In leichter Abwandlung dieser Definition sei die Anomalie beim GISP2-Datensatz die Differenz eines Messpunkte und seines Vorgängers. Alle Meßpunkte repräsentieren Durchschnittstemperaturen eines 50-Jahres Zeitraums. Diese Anomalien sind in Abb 2.
Abb. 2: Temperaturanomalien, d.h. die Differenz zur jeweils 50 Jahre früheren Temperaturmessung
Daraus ist leicht erkennbar, dass Änderungen der Durchschnittstemperatur von 1/2 °C in 50 Jahren keine Seltenheit sind. Man darf davon ausgehen, dass es innerhalb der 50-Jahres-Intervalle zu noch größeren Änderungen gekommen ist. Aus der Perspektive des GISP2-Datensatzes sind also die heutigen Temperaturänderungen überhaupt nichts Ungewöhnliches. Das Argument, es hätte vorher noch nie so schnelle Klimaänderungen gegeben, greift also nicht.
Da der Datensatz bis 1855 reicht, kann man den Temperaturverlauf von Abb. 1 bis in die Gegenwart fortsetzen, indem eine skalierte Version eines Standard-Datensatzes wie HadCRUT4 ab 1855 an den GISP2-Datensatz angehängt wird. Dies wird in Abb. 3 gezeigt.
Der grüne Kurvenabschnitt repräsentiert die Temperaturdaten seit 1850, während die rote Kurve aus dem Eisbohrkern ermittelt wurde. Die grüne Kurve passt ganz gut in das restliche Bild, jedenfalls ist sie nicht gerade ein aufregender Ausreißer.
Lässt die Wirkung der Senken nach oder nicht?
[latexpage]
Einleitung — was sind Senken?
Zunächst wird die messbare Senkenwirkung $S_i$ des Jahres $i$ als Bilanzgleichung aufgrund der Erhaltung der Gesamtmasse des CO2 und der Kontinuitätsgleichung bestimmt. Der Konzentrationszuwachs $G_i$ der Atmosphäre ergibt sich als Differenz aller Emissionen, also sowohl der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_I$, und der gesamten Absorptionen $A_i$: $G_i= C_i – C_{i-1} = E_i + N_i – A_i$ (1) Die Senkenwirkung $S_i$ ist der Anteil der anthropogenen Emissionen $E_i$, die nicht zum Anwachsen der Konzentration $G_i$ beitragen: $S_i = E_i – G_i$ (2) Diese Senkenwirkung ist aus den verfügbaren Emissions- und CO2-Konzentrations-Daten ohne Modellierung leicht ermittelbar und in Abbildung 1 als Zeitserie ab 1960 gezeigt. Die Daten des monatlich gemessenen Konzentrationszuwachses sind desaisonalisiert, indem jeweils die Differenz zum gleichen Vorjahresmonat bestimmt wird. Emissionen und Konzentration sind in der gleichen Maßeinheit ppm gemessen (1 ppm = 2,123 Gt C = 7,8 Gt CO2)
Abb. 1: Monatliche Emissionsdaten (blau), monatlicher Konzentrationszuwachs (orange) und monatliche Senkenwirkung (grün). Die Senkenwirkung wird hier mit negativem Vorzeichen dargestellt, um sie vom Konzentrationswachstum graphisch zu trennen.
Demzufolge ist die Senkenwirkung auch die Differenz zwischen Absorptionen $A_i$ und natürlichen Emissionen $N_i$ $S_i = A_i -N_i $ (3) Daraus folgt auch, dass die — mit großen Unsicherheiten behafteten — Emissionen durch Landnutzungsänderungen zunächst als zu den unbekannten natürlichen Emissionen gehörig gerechnet werden.
Da die globale Senkenwirkung die einzige Kenngröße ist, die einer einfachen Messung zugänglich ist, muss eine Methode gefunden werden, um mit der gemessenen Senkenwirkung das Senkenmodell zu bewerten. Ziel dieser Untersuchung ist nicht, die Korrektheit der jeweiligen Modelle aus inhaltlichen Gründen zu bewerten, sondern einzig und allein, ein Kriterium zu finden, um aufgrund von Messdaten zu entscheiden, welche Modellklasse besser mit der Realität übereinstimmt.
Die beiden Senkenmodelle
Das lineare Senkenmodell
Es werden 2 Senkenmodelle gegenübergestellt. Das eine, das „lineare Senkenmodell“ oder auch „Badewannenmodell“ geht davon aus, dass die Senkenwirkung im Jahre $i$, $S_i$ streng linear mit der CO₂-Konzentration (des Vorjahrs) $C_{i-1}$ anwächst (eine genauere Analyse ergibt, dass der Erwartungswert der Zeitdifferenz zwischen Konzentration und Senkenwirkung etwa 15-18 Monate beträgt): $S_i = a\cdot C_{i-1} + b = a\cdot(C_{i-1} – C^0)$ (4)
wobei $C^0=-b/a$ die angenommene präindustrielle Gleichgewichtskonzentration ohne anthropogene Emissionen darstellt. Aus den Daten des Zeitraums 1960-2025 ergeben sich diese Schätzwerte: $a=0,0174, b=-4,87, C^0 =280 $ ppm Der Schätzwert der Gleichgewichtskonzentration $C^0$ stimmt bemerkenswert gut mit der gewöhnlich angenommenen präindustriellen Konzentration von 280 ppm überein.
Bei der Modellgleichung handelt es sich um eine Differenzialgleichung 1. Ordnung mit der Impulsantwort $IRF^{linear}(t)=e^{-\frac{t}{\tau}}$ mit $\tau=1/a\approx 57 $ Jahre. Entscheidend ist, dass die Impulsantwort vollständig auf 0 abklingt, was bedeutet, dass das atmosphärische CO₂ mit der Zeit vollständig von den Senken absorbiert wird.
Abb. 2: Lineares Senkenmodell, Impulsantwort der atmosphärischen Konzentration, Zeitkonstante 57 Jahre
Das Berner Modell
Um nicht voreilig falsche Schlussfolgerungen aus dem Berner Modell zu ziehen, erscheint es wichtig, zunächst einen Vorläufer des Berner Modells zu betrachten, das sogenannte 2-Boxen-Modell. Ausgangspunkt des 2-Boxen-Modells ist die im Prinzip richtige Überlegung, dass auch die CO₂-Senken, die Ozeane und die Landpflanzen, endlich sind und nur eine begrenzte Menge an CO₂ aufnehmen können. Das einfachste Modell, das diesen Umstand berücksichtigt, ist das 2-Boxen-Modell, wonach die Atmosphäre die eine Box darstellt, die Ozeane zusammen mit den Landpflanzen die 2. Box.
Abb. 3: 2-Boxen Modell
Diese 2. Box ist um den Faktor $k$ größer als die erste Box. Um den Effekt zu verdeutlichen, wird $k=3$ angenommen. Es erscheint extrem, dass die Ozeane und die Landpflanzen zusammen nur 3-mal größer angenommen werden als die Atmosphäre. Aber das ist tatsächlich der Wert, von dem die aktuelle Klimaforschung (z.B. Prof. Marotzke bei Markus Lanz, 10. Juli 2025, Minute 21:30) ausgeht, obwohl bekannt ist, dass alleine die Ozeane insgesamt etwa 50-mal so viel CO₂ gebunden haben wie die Atmosphäre. Beim Berner Modell ist der Faktor $k$ eher bei 4. Wenn man sich vorstellt, dass der aufnehmende Container tatsächlich nur 3-mal größer ist als die Atmosphäre, dann ist auch klar, dass von jedem zusätzlichen CO₂-Eintrag in die Atmosphäre am Ende, d.h. im Gleichgewichtszustand, 25% in der Atmosphäre zurückbleiben, und nur 75% von den Senken aufgenommen werden können. Dies wird mit der Impulsantwort verdeutlicht.
Abb. 4: 2-Boxen Modell mit k=3, Verlauf Atmospäre (blau), Verlauf (oberer) Ozean (orange)
Das Berner Modell ist ein 4-Boxen-Modell. Es unterteilt den Ozean in 2 Teile. Während in dem oberen Teil der Gasaustausch mit einer ähnlichen Zeitkonstante wie beim linearen Modell geschieht (da dafür nur die oberste Schicht „Mixed Layer“ berücksichtigt wird, ist der Austausch noch schneller als beim linearen Modell) , geschieht der Fluss in die Tiefsee durch eine sehr langsame Diffusion. Die 4. Box repräsentiert die Landpflanzen. Dadurch, dass die Tiefsee durch den langsamen Diffusionsprozess für Hunderte von Jahren „abgeschirmt“ ist, erklärt sich die vermeintlich kleine „Ozean-Box“ und der daher große konstante Rest von über 20% in der Atmosphäre.
Abb 5: Die 4 Boxen des Berner Modells (Aus Präsentation „Simulationen des atmosphärischen CO2 mit einem einfachem globalen Kohlenstoffmodell“, Prof. Martin Heimann, April 2024 bei 4Pi-Solutions)
Die publizierte Näherungsgleichung des Bern-Modells ist $ IRF^{Bern}(t) =a_0 + \sum_{i=1}^3 a_i\cdot e^{-\frac{t}{\tau_i}}$ (5) mit a0=0.21787, a1=0.22896, a2=0.28454, a3=0.26863, tau1=381.33, tau2=34.785, tau3=4.1237 Die mathematische Form der Näherungslösung und die zitierte Publikation suggerieren, dass es sich um 4 parallele Prozesse handelt. Das ist aber nicht so, es ist nur eine Näherungslösung eines komplexen 4-Boxen-Prozesses, um damit den Prozess einfacher als gewichtete Summe linearer Prozesse formulieren zu können. Abb. 6 zeigt die Impulsantworten (IRF) des Bern-Modells (grün) im Vergleich zum obigen linearen Modell (blau) und zum 2-Boxen-Modell (orange).
Abb. 6: Die Impulsantworten des linearen Modells (blau), des 2-Boxen Modells (orange) und des Berner Modells (grün)
Während zu Beginn der Konzentrationsabfall des Berner Modells stärker ist als beim linearen Modell, wird der Verlauf bald flacher, sodass nach 100 Jahren nur 60% absorbiert sind, beim linearen Modell sind es da bereits 85%. Das 2-Boxen-Modell liegt vom Verlauf her zwischen dem linearen und dem Berner Modell, langfristig geht es ähnlich wie das Berner Modell in die Sättigung, d.h. es bleibt ein substantieller Teil des CO₂ in der Atmosphäre.
Anwendung auf realitätsnahen künstlichen Emissionsverlauf
Wie oben beschrieben, ist die gemessene Senkenwirkung die Schnittstelle zwischen Modell und Wirklichkeit. Vor der Anwendung auf die tatsächlichen Messdaten wird die geplante Vorgehensweise mit einem künstlichen einfachen Emissionsverlauf simuliert, der qualitativ dem tatsächlichen Verlauf ähnlich ist. Der Vorteil eines wohldefinierten Emissionsverlaufs ist, dass die Modellunterschiede klar herausgearbeitet werden können, ohne von Rauscheffekten und anderen unbekannten Einflüssen beeinflusst zu sein. Außerdem wird nicht zwischen gemessenen Emissionen der Vergangenheit und projizierten Emissionen der Zukunft unterschieden. Die simulierten Emissionen wachsen ab 1920 für 100 Jahre linear auf 5 ppm/Jahr an und bleiben von da an konstant (Abb 7, nicht ganz zufällig ist der Verlauf angelehnt an den tatsächlichen Emissionsverlauf der Vergangenheit und das Stated Policy Szenario der IEA):
Abb. 7: Hypothetischer Emissionsverlauf: 100 Jahre (1920-2019) linearer Anstieg auf 5 ppm (=10,6 GtC), danach konstant bis 2100
Durch Faltungen mit den jeweiligen Impulsantworten ergeben sich die Konzentrationsverläufe der beiden Modelle und einer natürlichen Gleichgewichtskonzentration von 280 ppm (Abb. 8):
Abb. 8: Konzentrationsverlauf des linearen Senkenmodells (blau) und des Berner Modells (orange)
Es ist aus Abb. 9 deutlich erkennbar, dass die Senkenwirkung des Berner Modells im Vergleich zum linearen Modell auf lange Sicht deutlich nachläßt. Durch Differenzbildung jeweils benachbarter Datenpunkte wird das Konzentrationswachstum bestimmt (Gleichung (1)). Die für das Unterscheidungskriterium wichtige gemessene Senkenwirkung wird dann aus der Differenz zwischen Emissionen und Konzentrationswachstum nach Gleichung (2) bestimmt. Alle Daten sind in Abbildung 9 zusammengefasst. Achtung, die Senkenwirkung ist um der Darstellung willen negativ aufgetragen.
Abb. 8: Emissionen, Konzentrationswachstum und gemessene Senkenwirkung für lineares und Berner Modell
Es wird zur Unterscheidung ein Kriterium benötigt, mit dem man beurteilen kann, ob ein Senkenverlauf „flacher“ als der Verlauf des linearen Modells ist.
Kriterium zur Unterscheidung des linearen Modells von den „abflachenden“ Modellen
Um über die Gültigkeit der Modellklasse zu entscheiden, wird ein Kriterium benötigt, um mit Hilfe eines statistisch bestimmbaren Paramenters eine Aussage über die Modellklasse zu machen. Dazu wird Gleichung (4) etwas verallgemeinert, indem die von der Gleichgewichtskonzentration abweichende Konzentration mit $p$ potenziert wird: $S_i = a\cdot(C_{i-1} – C^0)^p$ Um $p$ aus gegebenen Daten zu bestimmen, wird die Gleichung logarithmiert: $ln(S_i) = ln(a) + p\cdot ln(C_{i-1} – C^0)$ (6) Mit $p=1$ ist die Gleichung identisch mit dem linearen Senkenmodell. Mit $p<1$ bekommt man einen flacheren Verlauf. Wenn nun nachweisbar ist, dass $p$ signifikant kleiner als 1 ist, dann wäre das ein Beweis für ein langfristiges Nachlassen der Senkenwirkung. Umgekehrt: Wenn das Berner Modell korrekt ist, muss der Abflachungseffekt bereits heute erkennbar sein. Zunächst wollen wir anhand der künstlichen Daten überprüfen, welche Werte von $p$ aufgrund der Modellannahmen zu erwarten sind. Dabei wird die Schätzung nicht über den gesamten Datenbereich durchgeführt, sondern nur über die 70 Jahre 1950-2020, den gleichen Zeitraum, der auch bei den realen Daten relevant ist. Für das lineare Modell ergibt die Least-Squares Schätzung mit Gleichung (6):
Der Exponent p ist mit 0,99 sehr nahe bei dem Wert 1 des linearen Modells. Das ist nicht verwunderlich, da die Daten mit dem linearen Model konstruiert wurden.
Bei der Schätzung von Gleichung (6) mit den vom Bern-Modell konstruierten Modelldaten ergeben sich diese Parameter:
Mit der idealtypische Annahme des Berner Modells erhalten wir bei gleichmäßiger Steigerung der Emissionsdaten demnach für $p$ eine große Abweichung von 1.
Test mit den realen Messdaten
Der entscheidende Test erfolgt mit den echten gemessenen Daten. Mit den Zeitreihen bis Ende 2024 sind die Unterschiede der Modelle bei der Rekonstruktion der gemessenen CO2-Konzentration sehr gering (Da die Messdaten vor 1960 ohnehin unzuverlässig sind, sind die Abweichungen vor 1960 von untergeordnetem Interesse).
Abb. 9: Gemessene Zeitreihe der CO2-Konzentration (blau), Rekonstruktion mit dem Berner Modell (orange), Rekonstruktion mit dem linearen Senkenmodell (grün).
Deswegen werden die aussagekräftigeren Verläufe des Konzentrationswachstums und des gemessenen Senkeneffekts betrachtet. Da sind in der Tat bereits heute leichte Unterschiede erkennbar. Diese sind aber — als Einzelwerte — immer noch innerhalb der großen statistischen Schwankungen.
Abb. 10: Reale Emissionen (blau), Konzentrationswachstum (orange) und dessen Rekonstruktion mit linearem (grün) und Bern-Modell (rot), gemessener Senkeneffekt (violett), Rekonstruktin mit linearem (braun) und Bern-Modell (pink).
Aber es ist ein Trendunterschied erkennbar.
Um den Trend mit dem neuen Werkzeug messen zu können, ist eine Bestimmung der Gleichgewichtskonzentration $C^0$ erforderlich, denn von dieser hängt das Schätzergebnis maßgeblich ab.
Für das Bern Modell die richtige „Gleichgewichtskonzentration“ zu bestimmen, ist nicht ganz trivial, denn das Berner Modell kennt keine Gleichgewichtskonzentration — nach diesem Modell wird die atmosphärische Konzentration nie wieder zum präindustriellen „Gleichgewicht“ zurückkehren. Es geht aber darum, den Verlauf der letzten 70 Jahre mit einem veränderten linearen Verlauf zu vergleichen. Aus dem Modellierungsverlauf der Senkenwirkung in Abb. 10 ist erkennbar, dass das lineare und das Berner Modell im Zeitraum 1950-1990 fast identisch sind. Daher ist es sinnvoll, für die Bestimmung der Gleichgewichts-Konzentration diesen Zeitraum von 40 Jahren herzunehmen. Damit erhält man aus den realen Daten eine Gleichgewichtskonzentration $C^0=282$ ppm. Wendet man nun die Gleichung 6 auf die Senkeneffektdaten des Berner Modells an (Abb. 10, pink Kurve) mit den Konzentrationsdaten des Berner Modells als Prädiktor (Abb. 9, orange Kurve).
Der Verlauf des Berner Modells impliziert mit $p=0,9$ eine klare Abweichung vom linearen Modell in Form der zurückgehenden Senkenwirkung.
Beim linearen Modell, das wir für die 70 Jahre 1950-2020 schätzen, ergibt sich die Gleichgewichtskonzentration von selbst nach Anwendung von Gleichung (4). Diese beträgt in diesem Falle etwa 283 ppm. Daraus folgt dann nach Gleichung (6)
Demnach ist ergibt sich eine perfekte Bestätigung des linearen Modells mit $p=1$. Also sind Modelle, die vom streng linearen Zusammenhang zwischen Konzentration und Senkeneffekt „nach unten“ abweichen, statistisch wenig wahrscheinlich. Aus wissenschaftstheoretischer Sicht muß man sich auch fragen, warum ein Modell mit 7 freien Parametern (Berner Modell) einem Modell mit einem freien Parameter (lineares Senkenmodell) vorzuziehen ist, wenn die Meßdaten mit mindesten 70-90% Sicherheit das Modell mit den vielen Parametern ausschließen.
Diese Überlegungen sind die ersten, vereinfachten Überlegungen zu dieser Thematik. Mit verfeinerter Verarbeitung der Daten, wie z.B. unter Nutzung höherer Auflösung, lässt sich die Signifikanz der Aussagen deutlich verbessern. Das erfordert allerdings eine umfangreiche Behandlung des damit verbundenen komplexeren Modells. Mit Aktualisierungen dieser Seite ist zu rechnen.
ChatGPT Dialog zum Treibhauseffekt
[latexpage]
Wie hängt der Treibhauseffekt mit dem adiabatischen Temperaturgradienten zusammen?
Der Zusammenhang zwischen Treibhauseffekt und adiabatischem Temperaturgradienten ergibt sich aus der Tatsache, dass der Treibhauseffekt die Temperatur der Strahlungsebene in der Atmosphäre bestimmt, während der adiabatische Gradient vorgibt, wie sich die Temperatur mit der Höhe zwischen dieser Strahlungsebene und der Erdoberfläche verändert.
Ich erkläre das Schritt für Schritt:
1. Der Treibhauseffekt legt fest, wo die Erde ins All abstrahlt
Ohne Treibhausgase würde die Erdoberfläche selbst die meiste Wärmestrahlung direkt ins All abgeben.
Mit Treibhausgasen wird die Wärmestrahlung in der Atmosphäre absorbiert und re-emittiert.
Für einen Beobachter im All stammt die meiste Abstrahlung aus einer bestimmten Effektivhöhe (oft in 5–7 km Höhe), wo die Atmosphäre gerade durchsichtig genug für Infrarotstrahlung wird.
An dieser Höhe muss die Temperatur so sein, dass die Strahlungsleistung der Erde dem Gleichgewicht mit der eingehenden Sonnenstrahlung entspricht (ca. –18 °C im globalen Mittel).
2. Der adiabatische Temperaturgradient verbindet diese Höhe mit der Oberfläche
In der Troposphäre wird Temperaturänderung mit Höhe (vertikal) oft durch Konvektion bestimmt.
Der trocken-adiabatische Gradient liegt bei etwa 9,8 K pro Kilometer, der feucht-adiabatische bei 4–7 K/km (weil Kondensation Wärme freisetzt).
Wenn wir die Temperatur an der Strahlungshöhe kennen, können wir mit dem adiabatischen Gradient nach unten rechnen und die Temperatur an der Erdoberfläche bestimmen.
Beispiel grob gerechnet:
Strahlungshöhe: 5 km, Temperatur dort: –18 °C
Feucht-adiabatischer Gradient ~6,5 K/km → Temperatur an der Oberfläche: –18 °C + (5 km × 6,5 K/km) ≈ +14 °C
3. Mehr Treibhausgase ⇒ Strahlungshöhe steigt ⇒ Oberfläche wird wärmer
Verstärkter Treibhauseffekt bedeutet: Infrarotstrahlung kann erst aus höheren Schichten entweichen.
Diese höheren Schichten sind kälter, um dieselbe Abstrahlleistung zu erbringen, muss die Temperatur an dieser Höhe gleich bleiben ⇒ die gesamte Troposphäre „verschiebt“ sich temperaturmäßig nach oben.
Wegen des adiabatischen Gradienten wird das auf die Oberflächentemperatur „hochgerechnet“ – also wird es unten wärmer.
Um wieviel höher in konkreten Zahlen ist die Abstrahlhöhe aufgrund der Zunahme des CO2 von 280ppm auf 420ppm?
Idee in einem Satz
Mehr CO₂ erhöht die effektive Strahlungsantrieb (radiative forcing). Um die gleiche abgestrahlte Leistung ins All beizubehalten, muss die Abstrahlungstemperatur geringfügig steigen → bei festem vertikalen Temperaturgradienten (adiabatischer / mittlerer Troposphärengradient) bedeutet das eine höhere Abstrahlungshöhe. Wir berechnen, um wieviel.
Schritt 1 — Radiative forcing durch CO₂-Zunahme
Für CO₂ benutzt man die bewährte Näherung (Myhre et al. 1998; IPCC):
$\Delta F \approx 5{,}35\;\ln\!\left(\frac{C}{C_0}\right)\ \text{W/m}^2$
Für $C_0=280$ ppm → $C=420$ ppm:
$\Delta F = 5{,}35\cdot\ln\!\left(\frac{420}{280}\right)\approx 2{,}17\ \text{W/m}^2.$
(Quelle für Formel und Werte: Myhre/IPCC.)
Schritt 2 — Wie verändert ΔF die Abstrahlungstemperatur?
Die Erde (bzw. die „Strahlungsebene“) strahlt ungefähr wie ein schwarzer Körper mit $T\approx 255\ \text{K}$ (≈ −18 °C). Kleine Änderungen der ausgehenden Strahlung $F=\sigma T^4$ hängen linear mit der Temperaturänderung:
$\Delta T \approx \frac{\Delta F}{4\,\sigma\,T^3}$
Setze $\sigma=5{.}670374\times10^{-8}\ \mathrm{W\,m^{-2}\,K^{-4}} und T=255\ \mathrm{K}$:
$\Delta T \approx \frac{2{,}17}{4\cdot 5{.}67\cdot10^{-8}\cdot 255^3}\approx 0{,}58\ \text{K}.$
Schritt 3 — Temperaturänderung → Höhenänderung über den Lapse‑Rate
Mit einem typischen (mittleren) Troposphären‑Lapse‑Rate $\Gamma ≈ 6,5$ K/km (standardmäßiger Wert für die mittlere Troposphäre) gilt:
$\Delta z \approx \frac{\Delta T}{\Gamma}$
Also
$\Delta z \approx \frac{0{,}58\ \text{K}}{6{,}5\ \text{K/km}}\approx 0{,}089\ \text{km}\approx 89\ \text{m}.$
(Quelle für typische mittlere Lapse‑Rate ≈6.5 K/km.)
Ergebnis (kurz)
Die Zunahme von CO₂ von 280 ppm → 420 ppm verschiebt die (vereinfachte) effektive Abstrahlungshöhe um ≈ 90 Meter nach oben (unter den getroffenen Annahmen).
Wichtige Vorbehalte (weil die Herleitung stark vereinfacht ist)
Wir haben eine globale Mittelbetrachtung benutzt — lokal/vertikal variiert alles.
Linearisation von $F=\sigma T^4 $ist für kleine ΔF gerechtfertigt; hier ist sie gut brauchbar.
Wir haben nur die direkte Strahlungswirkung von CO₂ betrachtet — Rückkopplungen (Wasserdampf, Wolken, Änderung des Temperaturgradienten selbst, Stratosphäre) wurden nicht berücksichtigt. Diese beeinflussen letztlich die Oberflächenerwärmung, aber die einfache Rechnung oben zeigt, wie groß die reine geometrische Hebung der Abstrahlungsschicht ist.
Die effektive Abstrahlungshöhe ist spektral und ortsabhängig — hier ist sie als ein Single‑Level-Modell (vereinfachte, mittlere Höhe) behandelt.
Was kommt mit dieser Rechnung bei einer Verdoppelung auf 560 ppm heraus?
Radiative forcing bei Verdoppelung 280\to560 ppm: $\Delta F = 5{,}35\ln\!\left(\tfrac{560}{280}\right)=5{,}35\ln 2 \approx 3{,}71\ \mathrm{W/m^2}$.
Änderung der effektiven Abstrahlungstemperatur (linearisiert aus $F=\sigma T^4$): $\Delta T \approx \frac{\Delta F}{4\sigma T^3}\approx 0{,}99\ \mathrm{K}$.
Entsprechende Hebung der Abstrahlungshöhe bei $\Gamma=6{,}5\ \mathrm{K/km}$: $\Delta z \approx \frac{\Delta T}{\Gamma}\approx 0{,}152\ \mathrm{km}\approx 152\ \mathrm{m}$.
Kurz: Bei einer CO₂‑Verdoppelung 280→560 ppm verschiebt sich die (vereinfachte) effektive Abstrahlungshöhe um ≈150 Meter nach oben.
Wichtig — Vorbehalte (wie zuvor):
Das ist ein stark vereinfachtes, globales „single‑level“ Modell. In Wirklichkeit ist die Abstrahlung spektral und ortsabhängig; verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen.
Rückkopplungen (Wasserdampf, Wolken, Änderung des vertikalen Gradienten) sind hier nicht berücksichtigt und verändern die bodennahe Erwärmung stark.
Die Rechnung erklärt nur die geometrische Hebung der effektiven Abstrahlungsschicht, nicht die gesamte Oberflächentemperaturänderung.
Wenn du magst, rechne ich das kurz für mehrere Lapse‑Rates (trocken ≈9.8 K/km, feucht ≈5 K/km) durch oder zeichne ein aktualisiertes Diagramm mit den beiden Fällen. Welche Variante hättest du gern?
Wie kommt es, dass das anerkannte Simulationsprogramm MODTRAN zu einem anderen Ergebnis kommt? Bei einer Konstellation aus Wolken und Wasserdampf, die bei der Standardatmosphäre zu einem Stahlungsgleichgewicht bei 240 W/m2 führt, bekomme ich für eine Änderung der CO2 Konzentration von 280 auf 560 ppm einen Stahlungsantrieb von -1.95 W/m2.
Gute Frage — und schön, dass du ein konkretes MODTRAN‑Ergebnis hast. Kurz gesagt: MODTRAN‑Ergebnisse können deutlich von der einfachen Myhre‑Formel abweichen, weil MODTRAN ein spektral aufgelöstes, all‑sky Radiativ‑Transport‑Werkzeug ist und viele Effekte (Wolken, Wasserdampf‑Überlappung, Stratosphären‑Anpassung, Sign‑Konventionen, Bandmodell‑Näherungen usw.) berücksichtigt oder durch Einstellungen unterschiedlich ausweist.
Im Folgenden erkläre ich die wichtigsten Gründe elementar und mit Quellenhinweis, damit du nachvollziehen kannst, warum du −1.95 W/m² siehst.
1) Erst: Vorzeichen / Definition von „Forcing“ in deiner Ausgabe
Bevor wir physikalisch interpretieren: kontrolliere die Sign‑Konvention von MODTRAN‑Output.
Manche Ausgaben zeigen die Änderung des ausgehenden TOA‑LW‑Flusses ($ΔF_{out} = F_{after} − F_{before}$). Wenn CO₂ zunimmt, wird weniger ausgehende LW‑Strahlung ins All gelangen → ΔF_out ist negativ.
Die gebräuchliche IPCC‑Angabe für „radiative forcing“ ist aber oft als netter Strahlungsantrieb (ΔF_downward at TOA) positiv, wenn mehr Energie in das System bleibt. Ein negativer ΔF_out entspricht also einem positiven Forcing in der IPCC‑Konvention. ➡️ Prüfe also, ob dein −1.95 W/m² schlicht Δ(TOA outgoing) statt Δ(TOA net downward) ist. Das allein würde das Vorzeichen erklären. (MODTRAN‑FAQ / Report beschreibt unterschiedliche Ausgabegrößen).
2) All‑sky (Wolken) vs Clear‑sky — Wolken reduzieren das CO₂‑Forcing
Die klassische Myhre‑Formel (≈3.7 W/m² für Verdoppelung) ist eine globale Mittel‑Schätzung häufig für klare Verhältnisse oder aus Line‑by‑Line‑Berechnungen mit typischen Profilen abgeleitet.
Wolken blockieren/absorbieren viel LW selbst und „decken“ Bands, in denen CO₂ wirken würde — dadurch verringert sich die zusätzliche Wirkung einer CO₂‑Erhöhung im globalen Mittel. Laut IPCC verringern Wolken das CO₂‑Forcing im Mittel (klar vs. all‑sky) – typischer Wert ~10–20% Reduktion, je nach Wolkenhöhe/Optical‑Depth. Falls dein Szenario eine dichte/wirkungsvolle Wolkenschicht hat, ist eine starke Abschwächung zu erwarten.
3) Wasserdampf‑Überlappung und Feuchteabhängigkeit
Wasserdampf absorbiert in vielen der gleichen Spektralbereiche wie CO₂. Wenn die Atmosphärensäule schon viel Wasserdampf enthält (feuchte Tropen, viel Wasserdampf in tiefen Schichten), dann teilt sich CO₂ die Absorptionswirkung mit H₂O → die inkrementelle Wirksamkeit zusätzlichen CO₂ wird geringer. Science‑of‑Doom / Literatur zeigen, dass die spaltweise Wirkung stark vom Spalten‑Feuchtegehalt abhängt; je feuchter, desto geringer das zusätzliche Forcing. Das kann die Myhre‑Erwartung weiter reduzieren.
4) Spektrale / Höhenabhängige Effekte: Emissionshöhen sind nicht ein einzelnes Level
Die „effektive Abstrahlungshöhe“ ist spektral verteilt — verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen (Fensterband, CO₂‑Banden, H₂O‑Banden). MODTRAN berechnet genau diese spektrale Verteilung. Wenn deine Atmosphäre + Wolken so beschaffen sind, dass die relevanten Banden bereits aus relativ hohen, kalten Regionen abstrahlen, dann ist der marginale ΔF klein. Das ist physikalisch nicht widersprüchlich zur logarithmischen Näherung, aber zeigt, dass ein einzelner 3.7 W/m²‑Wert nur ein grobes globales Mittel ist.
5) Stratosphärische Temperatur‑Anpassung (Adjusted vs Instantaneous Forcing)
Es gibt verschiedene Forcing‑Definitionen: instantaneous (sofortige Änderung bei fixer Temperaturprofil), stratosphere‑adjusted (Stratosphäre darf sich auf das Gleichgewicht einstellen, Troposphäre bleibt fix) und adjusted surface temperature (voller Gleichgewicht). MODTRAN‑Setups können die Stratosphäre automatisch anpassen — das ändert den gemessenen ΔF um einige Zehntel bis über 1 W/m². IPCC‑Methoden nutzen oft stratosphere‑adjusted (für Vergleichbarkeit). Wenn dein MODTRAN‑Lauf z.B. eine stratosphärische Abkühlung zulässt, kann der reported ΔF (gemessen als Änderung des TOA netto) kleiner ausfallen als die Myhre‑Zahl.
MODTRAN verwendet Bänder‑/correlated‑k‑Ansätze und verschiedene „continuum“‑Parameter für Wasserdampf. Unterschiedliche Versionen (MODTRAN4 vs 5 vs 6) und Parameter‑Choices (z. B. continuum treatment, line cutoffs, spectral resolution, instrument response) verändern kleine, aber nicht vernachlässigbare Teile des ΔF. Die MODTRAN‑Dokumentation beschreibt diese Abhängigkeiten.
Du sagst, deine Konstellation führt zu TOA Abstrahlung ≈240 W/m² — das ist in der Größenordnung des globalen Mittelwertes (≈239–240 W/m²). Das bedeutet: dein Lauf ist wohl ein plausibles all‑sky Szenario, und eine Verringerung der TOA‑Ausgangsleistung um ≈1.95 W/m² (also ΔF_out ≈ −1.95) entspricht einem positiven Forcing von +1.95 W/m² nach IPCC‑Konvention. Das ist deutlich unter 3.7 W/m², aber durchaus nicht ungewöhnlich, wenn Wolken + hoher Spalten‑Feuchte + spezifische Stratosphären‑Anpassungen zusammenwirken.
All‑sky (Wolken) und hoher Wasserdampfgehalt, die das CO₂‑Signal abschwächen,
mögliche Stratosphären‑Anpassung oder andere MODTRAN‑Einstellung (instantaneous vs adjusted),
Modellspezifische Band‑/continuum‑Parameter. Unter diesen Bedingungen ist ein Effekt von ≈1.95 W/m² (nett sichtbar am TOA) völlig plausibel – er bedeutet ≈+1.95 W/m² Strahlungsantrieb nach IPCC‑Konvention und ist nur kleiner als die 3.7 W/m² „Ideal‑Klarfall“ wegen der oben genannten Überlappungs‑/Wolken‑Effekte.
Wenn du willst, kann ich dir konkret helfen und drei Dinge durchsehen / ausprobieren:
Prüfen, welche Größe MODTRAN genau ausgibt (TOA up, TOA net downward, instant vs adjusted).
MODTRAN‑Runs vergleichen: clear‑sky vs all‑sky, und ein Lauf mit Stratosphäre fix/adjusted — das zeigt schnell, welche Effekte die ~1.8 W/m² Differenz erklären.
Eine Abschätzung machen, wie viel Reduktion durch Wolken + Wasserdampf zu erwarten ist (klar → all‑sky).
Schick mir (falls du magst) kurz: die MODTRAN‑Eingabedatei oder die Einstellungen (clear/all‑sky, Version, ob „stratosphere adjust“ an ist, Wolkenhöhe/optische Dicke, Feuchteprofil). Dann interpretiere ich die Ausgabe genau und zeige, welche Komponente wie viel beiträgt.
Zusammenhang zwischen kurzer Residenzzeit und Ausgleichszeit des temperaturabhängigen linearen Senkenmodells
[latexpage]
Es gibt Forschungsansätze zum CO$_2$ Senkeneffekt, die von der unbestrittenen kurzen Residenzzeit des CO$_2$ ausgehen, die in der Größenordnung von 3 Jahren liegt. Das prominenteste dieser Modelle ist das von Prof. Harde, beschrieben in einem Artikel aus 2019. Der Artikel geht insbesondere auf Gegenargumente ein, die gegen eine frühere Publikation von ihm vorgebracht wurde.
Die Hauptgleichung des Modells von Prof. Harde ist (Gleichung 23) – es werden die im Artikel verwendeten und erklärten Original-Bezeichnungen verwendet:
Prof. Harde schreibt, dass die Bestimmung aller Parameter mit den vorhandenen Daten unterbestimmt ist, und dass nur eine Kombination zwischen $\beta_e$ und $\beta_{\tau}$ bestimmt werden kann, wobei im Prinzip auch einer der beiden Koeffizienten gegen 0 gehen kann. Daher nehmen wir vorläufig an, dass $\beta_{\tau}=0$ ist, was bedeutet, dass sich die konzentrationsabhängige Absorptionskonstante nicht mit der Zeit ändert.
Damit vereinfacht sich die Differentialgleichung: $ \frac{dC(t)}{dt}= e_A(t) + e_{N0}+\beta_e\cdot\Delta T(t) – \frac{1}{\tau_{R0}}\cdot C(t) $ Auf den ersten Blick ist das eine direkte „Übersetzung“ der diskreten Gleichung des temperaturabhängigen linearen Modells (Gleichung 2) – auch hier werden die dort verwendeten Symbole angewandt: $C_{i+1} – C_i = E_i – a\cdot C_i – b\cdot T_i – c $ Auf den ersten Blick haben alle Terme klare Entsprechungen:
Als konstant angenommene natürliche Emissionen $-c\Longleftrightarrow e_{N0}$
Aber die Konstanten $c$ und $e_{N0}$ passen nicht zusammen. $c$ wird als Schätzwert der jährlichen natürlichen Netto-Emissionen mit 13.6 ppm/Jahr ermittelt, während $e_{N0}$ mit 93.3 ppm/Jahr als Vorwissen aller natürlichen Emissionen vorgegeben wird. Demzufolge beschreibt $\tau_{R0}$ auch, wie beschrieben, die Residenzzeit von etwa 3 Jahren, während $\frac{1}{a} \approx 23 a $ in der Größenordnung der Zeitkonstante der Absorptionszeit der Bombentest-Daten (etwa 16 Jahre) liegt. Neuere Berechnungen mit monatsgenauen Messdaten ergeben mit dem temperaturabhängigen linearen Modell $a=0.06$, also $\frac{1}{a} \approx 17 a $.
Um die Modelle inhaltlich aufeinander abzustimmen müssen die „Brutto“ natürlichen Emissionen $e_{N0}$ aufgeteilt werden in die Jahres-„Netto“-Emissionen $-c$ und den restlichen, innerhalb des Jahres re-absorbierten natürlichen Emissionen $e_{Rest}$ (dass dabei ein Austausch mit anderem CO$_2$ stattfindet, steht außer Frage, es geht hier nur um die Menge) $e_{N0} = e_{Rest} – c $ sowie deren zugehörige Temperatur-Koeffizienten $\beta_e = \beta_{Rest} – b$ Ebenso müssen die Kehrwerte der Zeitkonstanten entsprechend angepasst werden. $\frac{1}{\tau_{R0}} = \frac{1}{\tau_{Rest}} + a$ Um die beiden Ansätze kompatibel zu bekommen, muß diese Bedingung erfüllt sein: $e_{Rest} +\beta_{Rest}\cdot\Delta T(t)-\frac{1}{\tau_{Rest}}\cdot C(t) = 0$ und die Temperaturkoeffizienten sollten im gleichen Verhältnis stehen wie die Emissionen: $\frac{beta_{Rest}}{\beta_e} = \frac{e_{Rest}}{e_{N0}}$
Was hilft uns das?
Es erscheint mir wichtig, zu einem grundsätzlich gemeinsamen Verständnis zu kommen, um nicht unnötige Fronten in der Wissenschaft aufzurichten, denn leider gibt es sehr viele Mißverständnisse um die Modelle des Kohlenstoffzyklus.
Beide Konzepte, Residenzzeit und Ausgleichszeit, haben in der Diskussion eine große Rolle gespielt. Sie werden häufig gegeneinander ausgespielt, und daher kann es zum Dialog wesentlich beitragen, die Zusammenhänge beider Konzepte zu verstehen. Dann können die Mosaiksteine des Kohlenstoffzyklus zusammengefügt werden.
Die wichtigste Konsequenz ist zu zeigen, dass die Gleichungen zur Behandlung der der Residenzzeit kompatibel ist zur Gleichung zur Bestimmung der Ausgleichszeit, und dass beide Fragestellungen nicht gegeneinander ausgespielt werden dürfen:
Es ist legitim zu fragen, wie sich anthropogene Emissionen auf die Konzentration auswirken, und es ist wenig hilfreich, diese Frage damit herunterzuspielen, dass es vielfach größere natürliche Emissionen gibt
Es ist auch legitim zu sagen, dass trotz des jährlichen Netto-Senkeneffekts eine Temperaturabhängigkeit der natürlichen Emissionen gibt
Es ist wert zu betonen, dass sich die lineare Temperaturabhängigkeit der Emissionen und die lineare Konzentrationsabhängigkeit der Absorptionen teilweise kompensieren, dass die Gesamtwirkung wie eine Temperaturunabhängigkeit des Senkeneffekt bedeuten, solange die Temperatur linear mit der CO$_2$ Konzentration ansteigt.
Treibhauseffekt-Rückkopplung durch Wasserdampf
[latexpage]
In der Klimadiskussion wird das Argument der Rückkopplung durch Wasserdampf dazu herangezogen, um die Klimawirkung der Treibhausgase — die Sensitivität bei Verdoppelung von deren Konzentration in der Atmosphäre — , die nach Strahlungstransportgleichung und generellem Konsens maximal 0,8° beträgt, um einen angeblichen Faktor 2-6 zu verstärken. Allerdings wird das gewöhnlich nicht genauer quantifiziert, es werden in der Regel nur Formeln mit dem „finalen Feedback“ angegeben.
Vor kurzem haben David Coe, Walter Fabinski und Gerhard Wiegleb in der Publikation „The Impact of CO2, H2O and Other ‚Greenhouse Gases‘ on Equilibrium Earth Temperatures“ unter anderem genau diese Rückkopplung beschrieben und analysiert. In Anlehnung an ihre Publikation wird dieser Effekt mit dem teils gleichen, teils leicht unterschiedlichen Ansatz im folgenden hergeleitet. Die Ergebnisse sind fast identisch.
Dabei wird hier von allen anderen Effekten, die bei der Bildung von Wasserdampf auftreten, wie z.B. Wolkenbildung, abgesehen.
Der grundsätzliche Mechanismus der Wasserdampfrückkopplung
Ausgangspunkt ist eine Temperaturerhöhung der Atmosphäre um ∆T0, ungeachtet deren Ursache. Typischerweise wird der Treibhauseffekt als primäre Ursache angenommen. Die Argumentation ist nun, dass die erwärmte Atmosphäre mehr Wasserdampf aufnehmen kann, d.h. der Sättigungsdampfdruck (SVP = „Saturation Water Pressure“) erhöht sich und es wird angenommen, dass sich konsequenterweise auch die Wasserdampfkonzentration ∆H2O erhöht, und zwar als lineare Funktion der Temperaturänderung. (Die Temperaturänderung ist so klein, dass eine Linearisierung auf jeden Fall legitim ist): $\Delta H_2O = j\cdot \Delta T_0 $ Dabei ist $j$ die Proportionalitätskonstante für die Wasserdampfkonzentration. Eine erhöhte Wasserdampfkonzentration bewirkt wiederum aufgrund der Treibhauswirkung von Wasserdampf eine Temperaturerhöhung, die linear von der Wasserdampfkonzentration abhängt: $\Delta T_1 = k\cdot \Delta H_2O $ Zusammengefaßt bewirkt also die auslösende Temperaturerhöhung ∆T0 eine Folgeerhöhung der Temperatur ∆T1: $\Delta T_1 = j\cdot k\cdot \Delta T_0 $ Da die Voraussetzung des Verfahrens ist, dass die Ursache der auslösenden Temperaturerhöhung unerheblich ist, bewirkt die Erhöhung um ∆T1 natürlich ebenfalls wieder einen Rückkopplungszyklus: $\Delta T_2 = j\cdot k\cdot \Delta T_1 = (j\cdot k)^2\cdot \Delta T_0$ Dies wiederholt sich rekursiv. Die finale Temperaturänderung ist demnach eine geometrische Reihe: $\Delta T = \Delta T_0\sum_{n=0}^\infty(j\cdot k)^n = \Delta T_0\cdot \frac{1}{1-j\cdot k} $ Wäre $j\cdot k\ge 1$, würde die Reihe divergieren und die Temperatur über alle Grenzen wachsen. Daher ist es wichtig, sich über die Größe dieser beiden Rückkopplungsfaktoren Klarheit zu verschaffen.
Abhängigkeit der möglichen Wasserdampfkonzentration von der Temperatur
Die maximal mögliche Wasserdampfkonzentratio in Abhängigkeit von der Temperatur T (in °C) ist durch den Sättigungsdampfdruck SVP (englisch „saturation vapour pressure“, SVP) begrenzt. Dieser wird durch die Arden Buck Gleichung, (eine moderne, überarbeitete Version der Magnus-Formel) sehr genau beschrieben: $ SVP = 0.61121\cdot \exp{((18.678-\frac{T}{234.5})(\frac{T}{257.14+T}))} $ Es wird hier die Standard-Atmosphäre mit 15°C Boden- bzw. Wasseroberflächentemperatur und adiabatischem Temperaturgradient von -6.5°C/km betrachtet.
Die absolute Differenz $\frac{\Delta (SVP(T))}{\Delta T}$ ist naturgemäß bei höheren Temperaturen, also in Bodennähe, am größten:
Die relative Differenz $\frac{\frac{\Delta (SVP(T))}{\Delta T}}{SVP(T)}$ wird mit zunehmender Höhe größer, bewegt sich zwischen 4% und 8%.
Die mögliche Zunahme der relativen Luftfeuchtigkeit – das Verhältnis des tatsächlichen Dampfdrucks im Vergleich zum Sättigungsdampfdrucks – als Folge der globalen Temperaturerhöhung $T_0$ ist durch diese relative Änderung des Sättigungsdampfdrucks begrenzt.
Da die mittlere, dominante Infrarot-Abstrahlung der Erde etwa in der Höhe 5000m stattfindet, und sich oberhalb davon kaum mehr Wasserdampf befindet, ist es sinnvoll, 6% als oberes Limit der Änderung der relativen Luftfeuchtigkeit infolge einer Temperaturerhöhung um 1°C anzunehmen. Demzufolge ergibt sich die Konstante $j$ als $j=0.06$. Dieser Wert ist etwas kleiner als die üblicherweise genannten (aber gewöhnlich nicht belegten) 7%. Nach dem obigen Diagramm wären 7% Erhöhung des Wasserdampfgehalts erst oberhalb von 8000 m ü.d.M. möglich.
Die 6% bzw. 7% sind eine maximale Obergrenze der Wasserdampfaufnahme bei Temperaturerhöhung um 1°C. Das muss aber nicht heißen, dass das tatsächlich auch geschieht. Nach Tabelle 3 der Publikation „Global Changes in Water Vapor 1979–2020“ beträgt während der untersuchten 4 Jahrzehnte die aus Klimamodellen berechnete Sensitivität der Änderung des Wasserdampfes von der Temperatur etwa 5% pro °C Erwärmung.
Abhängigkeit des Treibhauseffekts von Änderungen des Wasserdampfgehalt
Der Infrarot Strahlungstransport in der Atmosphäre ist vom Wasserdampfgehalt abhängig. Dies wird in dem bekannten und bewährten Simulationsprogram MODTRAN berücksichtigt. Mit zunehmendem Wasserdampfgehalt sinkt infolge des Treibhauseffektes des Wasserdampfes die ausgehende Infrarotstrahlung.
Die in MODTRAN verwendete US-Standardatmosphäre hat als Default-Voreinstellung 15mm für den niederschlagsfähigen Wasserdampf. Der weltweite durchschnittliche niederschlagsfähige Wasserdampf ist 25mm, was etwa einem Wasserdampffaktor 1.7 bei MODTRAN entspricht. Zur Vereinfachung und um eine obere Grenze für die Rückkopplung zu erhalten, betrachten wir hier nur den wolkenlosen Fall („clear sky“).
Dazu stellen wir die Parameter der MODTRAN Simulation auf
die aktuelle CO2-Konzentration von 420 ppm,
die Wasserdampfskala auf 1.7 (entspricht 25mm niederschlagsfähiger Wasserdampf)
Der Zustand wird gespeichert
Dann wird der Wasserdampffaktor um 5% auf 1.785 verändert. Das bewirkt eine Verringerung der IR Abstrahlung um 0.88 $\frac{W}{m^2}$.
Dann wird der Temperatur-Offset so lange vergrößert, bis die reduzierte IR-Abstrahlung von 0.88 $\frac{W}{m^2}$ durch Temperaturerhöhung wieder ausgeglichen ist. Dies ist bei einer Erhöhung der Bodentemperatur um 0.22 °C der Fall.
Eine 5% höherer Wasserdampfgehalt infolge einer Temperaturerhöhung um 1°C bewirkt also einen Treibhauseffekt, der durch eine Temperaturerhöhung von 0.22°C ausgeglichen wird.
Der finale Rückkopplungsfaktor und der gesamte Treibhauseffekt
Die geometrische Reihe führt zu einem Verstärkungsfaktor $f$ des reinen CO$_2$ Treibhauseffekts um $f=\frac{1}{1-0.22} = 1.28 $
Damit ist die um die Wasserdampfrückkopplung verstärkte „clear sky“ Sensitivität bei Verdopplung der CO$_2$ Konzentration $\Delta T$ nicht mehr $\Delta T_0=0.8$°C, sondern $\Delta T = 1.28\cdot 0.8$ °C = 1°C
Eine differenzierte Betrachtung der wolkenlosen Gebiete (33%) mit einem niederschlagsfähigen Wasserdampfgehalt von 21mm und den wolkigen Gebieten (67%) mit einem niederschlagsfähigen Wasserdampfgehalt von 28mm führt zu einem deutlich niedrigeren Rückkopplungsfaktor von etwa 1.16.