Wie groß ist der Treibhauseffekt in Deutschland? — eine statistische Analyse


[latexpage]

Hohe Korrelation als Indiz der Kausalität?

Die Argumentation, dass CO2 die mittlere globale Temperatur bestimmt, wird häufig mit diesem Diagramm, das eine starke Korrelation zwischen CO2-Konzentration und mittlerer globaler Temperatur zeigt, veranschaulicht oder sogar begründet, hier beispielsweise die in Maona Loa gemessene mittlere jährliche Konzentration und die jährlichen globalen Meeresoberflächentemperaturen:

Es gibt zwar zwischen 1900 und 1975 — immerhin 75 Jahre — starke systematische Abweichungen, aber seit 1975 ist die Korrelation stark.
Wenn wir versuchen, mit den seit 1959 verfügbaren CO2-Konzentrationsdaten von Maona Loa die deutschen Mitteltemperaturen zu erklären, bekommen wir eine klare Beschreibung des Trends der Temperaturentwicklung, aber keine Erklärung der starken Schwankungen:

Die aus den im Jahr $i$ gemessenen logarithmischen CO2-Konzentrationsdaten $ln(C_i)$ mit der Methode der kleinsten Quadrate geschätzte „Modelltemperatur“ $\hat{T}_i$ ergibt sich als
$\hat{T}_i = 7.5\cdot ln(C_i)- 35.1 $ (°C)

Nehmen wir als 2. Erklärungsvariable die jährlichen Sonnenstunden hinzu, so verbessert sich die Anpassung etwas, aber wir sind noch weit entfernt von einer vollständigen Erklärung der schwankenden Temperaturen. Der Trend wird erwartungsgemöß ähnlich gut wiedergeben, auch ein Teil der Schwankungen wird mit den Sonnenstunden erklärt, aber bei weitem nicht so gut, wie man es eigentlich von einer kausalen Bestimmungsgröße erwarten würde :

Die Modellgleichung für die geschätzte Temperatur $\hat{T}_i$ wird mit der Erweiterung der Sonnenstunden $S_i$ zu
$ \hat{T}_i = 5.8\cdot ln(C_i) + 0.002\cdot S_i – 28.5 $ (°C)
Das relative Gewicht der CO2-Konzentration hat bei insgesamt verbessertem statistischem Erklärungswert der Daten etwas abgenommen.

Allerdings sieht es so aus, als ob das Zeitintervall 1 Jahr viel zu lang ist, um die Auswirkung der Sonneneinstrahlung auf die Temperatur korrekt zu behandeln. Es ist offensichtlich, dass die jahreszeitlichen Schwankungen unzweifelhaft von der Sonneneinstrahlung verursacht werden.
Die Auswirkungen der Einstrahlung sind nicht alle spontan, es müssen auch Speichereffekte berücksichtigt werden. Das entspricht unserer Wahrnehmung, dass die Wärmespeicherung der Sommerwärme 1-3 Monate anhält, und z.B. die wärmsten Monate erst nach der Zeit der größten Sonneneinstrahlung sind. Deswegen müssen wir ein auf dem Energiefluss beruhendes Modell erstellen, das mit monatlichen Messwerten gefüttert wird, und das eine Speicherung vorsieht.

Energieerhaltung – Verbesserung des Modells

Um das Verständnis zu verbessern, erstellen wir ein Modell mit monatlichen Daten unter Berücksichtigung der physikalischen Vorgänge (die Monate werden mit der Indexvariablen $i$ durchgezählt):

  • Durch die Sonneneinstrahlung wird der Erdoberfläche Energie zugeführt, diese wird monatlich als proportional zur Zahl der Sonnenstunden $S_i$ angenommen,
  • unter der Annahme des Treibhauseffekts wird ebenfalls Energie zugeführt, für die monatliche Energieaufnahme (bzw. verhinderte Energieabgabe) wird eine lineare Funktion von $ln(C_i)$ angenommen,
  • die oberste Schicht der Erdoberfläche speichert die Energie und gibt sie wieder ab, die monatliche Abgabe wird als eine lineare Funktion der Temperatur $T_i$ angenommen,
  • die monatliche Temperaturänderung in Deutschland wird als proportional zur Energieänderung angenommen.

Daraus ergibt sich diese modellierte Bilanzgleichung, die Konstante $d$ erlaubt es, beliebig skalierte Maßeinheiten zu verwenden:
$ \hat{T}_i – \hat{T}_{i-1} = a\cdot \hat{T}_{i-1} + b\cdot S_i + c\cdot ln(C_i) + d $
Auf der linken Seite der Gleichung steht die Temperaturveränderung als Repräsentant der Energiebilanzänderung, während die rechte Seite die Summe der Ursachen dieser Energieänderung darstellt.
Für die Bestimmung der Koeffizienten $a,b,c,d$ mit der Methode der kleinsten Quadrate wird statt der modellierten Temperatur $\hat{T}_i$ die gemessene Temperatur $T_i$ eingesetzt.

Hier sind zunächst die monatliche Temperatur- und Sonnenstundendaten. Es ist erkennbar, dass die Temperaturdaten den Sonnenstundendaten um etwa 1-2 Monate hinterherhinken, aber insgesamt einen ähnlichen Verlauf haben:

Dies passt zu der Annahme, dass wir tatsächlich einen Speichereffekt haben. Die Bilanzgleichung sollte also sinnvolle Werte liefern. Für die Auswertung des Schätzergebnisses müssen wir allerdings genauer hinschauen.

In dieser Darstellung sind in der 1. Spalte die Werte der jeweiligen Koeffizienten, in der 2. Spalte deren Standardfehler, danach die sogenannte T-Statistik, gefolgt von der Wahrscheinlichkeit, dass die Annahme des von 0 verschiedenen Koeffizienten falsch ist, der sogenannten Irrtumswahrscheinlichkeit. Das bedeutet, dass ein Koeffizient nur dann signifikant ist, wenn diese Wahrscheinlichkeit nahe 0 ist. Dies ist der Fall, wenn die T-Statistik größer 3 oder kleiner -3 ist. Die beiden letzten Spalten beschreiben schließlich das sog. 95% Konfidenzintervall. Das bedeutet, dass mit 95%-iger Wahrscheinlichkeit sich der tatsächliche Schätzwert innerhalb dieses Intervalls befindet.

     Koeffizient  Std.Fehler   t-Wert    P>|t|    [0.025     0.975]
--------------------------------------------------------------------
a -0.4826 0.0142 -33.9049 0.0000 -0.5105 -0.4546
b 0.0492 0.0013 38.8127 0.0000 0.0467 0.0517
c 0.6857 0.9038 0.7587 0.4483 -1.0885 2.4598
d -6.3719 5.3013 -1.2020 0.2297 -16.7782 4.0344

Hier sind die Irrtumswahrscheinlichkeiten der Koeffizienten $c$ und $d$ mit 45% bzw. 23% dermaßen groß, dass wir daraus schließen müssen, dass sowohl $c=0$ also auch $d=0$ sind. $c$ misst die Bedeutung der CO2-Konzentration für die Temperatur. Das bedeutet, dass in Deutschland seit 64 Jahren die CO2-Konzentration keinen statistisch signifikanten Einfluss auf die Temperaturentwicklung hat. Dies aber ist der Zeitraum der größten anthropogenen Emissionen der Geschichte.
Dass $d$ ebenfalls den Wert 0 annimmt, ist eher dem Zufall geschuldet, denn diese Konstante hängt von den Maßeinheiten der CO2-Konzentration und der Temperatur ab.

Demzufolge wird die Bilanzgleichung angepasst:
$ T_i – T_{i-1} = a\cdot T_{i-1} + c\cdot S_i + d $
mit dem Ergebnis:

       Koeffizient Std.Fehler    t-Wert    P>|t|    [0.025    0.975]
--------------------------------------------------------------------
a -0.4823 0.0142 -33.9056 0.0000 -0.5102 -0.4544
b 0.0493 0.0013 38.9661 0.0000 0.0468 0.0517
d -2.3520 0.1659 -14.1788 0.0000 -2.6776 -2.0264

Hier ist nun die Konstante $d$ aufgrund des Umstandes, dass $c=0$ ist, wieder mit hoher Signifikanz gültig. Die beiden anderen Koeffizienten $a$ und $b$ haben sich kaum verändert. Sie verdienen eine kurze Diskussion:

Der Koeffizient $a$ gibt an, welcher Teil der als Temperatur gemessenen Energie im Laufe eines Monate wieder abgegeben wird. Das ist fast die Hälfte. Dieser Faktor ist unabhängig vom Nullpunkt der Temperaturskala, bei der Wahl von K oder Anomalien statt °C käme derselbe Wert heraus. Der Wert entspricht etwa dem subjektiven Empfinden, wie sich im Sommer die Zeiten größter Temperatur zeitlich gegenüber dem Maximum der Sonneneinstrahlung verschieben.
Der Koeffizient $b$ gibt an, mit welchem Faktor sich die Sonnenstunden in monatliche Temperaturänderung übersetzen.

Das Ergebnis ist nicht nur eine abstrakte Statistik, es lässt sich auch veranschaulichen, indem der monatliche Temperaturverlauf der letzten 64 Jahre mit Hilfe des beschriebenen Modells rekonstruiert wird.

Die Rekonstruktion des gesamten Temperaturverlauf ergibt sich aus der Zeitreihe der Sonnenstunden und einem einzigen Temperatur-Startwert $\hat{T}_{-1}=T_{-1}$, dem Vormonat des Beginns der untersuchten Zeitreihe seit 1959, also hier vom Dezember 1958.
Die Rekonstruktion erfolgt mit dieser Rekursion aus den Sonnenstunden über die 768 Monate vom Januar 1959 bis Dezember 2023:
$\hat{T}_i = \hat{T}_{i-1} + a\cdot \hat{T}_{i-1} + b\cdot S_i + d$ $(0\leq i < 768 ) $

Hier die vollständige Rekonstruktion der Temperaturdaten im Vergleich der Original-Temperaturdaten:

Der deutlicheren Darstellung wegen werden die letzten 10 Jahre vergrößert dargestellt:

Es fällt auf, dass das Residuum, d.h. die Abweichungen der Rekonstruktion von den tatsächlichen Temperaturen bis zum Ende des untersuchten Zeitraums um 0 herum symmetrisch erscheint und keine offensichtlichen systematischen Abweichungen zeigt. Das Maß des Fehlers der Rekonstruktion ist die Standardabweichung des Residuums. Diese beträgt 2.5°C. Da wir einen langen Zeitraum von 64 Jahren untersuchen, könnte eine Feinanalyse der langfristigen Trends von Original-Temperaturen, Rekonstruktion und Residuum eine mögliche Obergrenze des möglichen Einflusses von CO2 finden.

Feinanalyse des Residuums

Wenn wir von den 3 Kurven Originaltemperaturdaten, Rekonstruktion und Residuum über den ganzen 64-Jahre Zeitraum die mittlere Steigung durch Schätzung einer Ausgleichsgeraden bestimmen, bekommen wir folgende langfristige Werte:

  • Originaltemperaturdaten: 0.0027 °C/Monat = 0.032 °C/Jahr
  • Rekonstruierte Temperaturdaten: 0.0024°C/Monat = 0.029 °C/Jahr
  • Residuum: 0.00028 °C/Monat = 0.0034 °C/Jahr

Vom Trend der Originaltemperaturen werden 90% durch die Zahl der Sonnenstunden erklärt. Für weitere Ursachen bleiben also nur noch 10% an nicht erklärter Variabilität übrig. Bis zum Beweis des Gegenteils können wir also annehmen, dass höchstens für diese 10% der Anstieg der CO2-Konzentration verantwortlich ist, also für maximal 0.03° C pro Jahrzehnt während der letzten 64 Jahre. Statistisch kann aber der Beitrag der CO2-Konzentration nicht als signifikant beurteilt werden.
Zu bedenken ist, dass mit diesem einfachen Modell sehr viele Einflussfaktoren und Inhomogenitäten nicht berücksichtigt sind, dass also der Einfluss der CO2-Konzentration nicht der einzige Faktor ist, der zusätzlich zu den Sonnenstunden wirksam ist. Deswegen wird der CO2 Einfluss ja auch als statistisch nicht als signifikant bewertet.

Erweiterung — Korrektur durch Approximation der tatsächlichen Einstrahlung

Bislang haben wir die Sonnenstunden als Repräsentant des tatsächlichen Energieflusses verwendet werden. Das ist nicht ganz korrekt, denn eine Sonnenstunde im Winter bedeutet aufgrund des viel flacheren Einfallswinkels deutlich weniger eingestrahlte Energie als im Sommer.

Der jahreszeitliche Verlauf der Wichtung des einströmenden Energieflusses hat diese Form. Mit dieser Wichtung müssen die Sonnenstunden multipliziert werden, um den Energiefluß zu erhalten.

Mit diesen monatlichen Wichtungen wird das Modell aus Sonneneinstrahlung und CO2 erneut bestimmt. Wiederum muss der Beitrag des CO2 wegen mangelnder Signifikanz abgelehnt werden. Daher hier die Rekonstruktion der Temperatur aus dem einstrahlenden Energiefluss etwas besser als die obige Rekonstruktion.

Durch die Korrektur der Sonnenstunden zum Energiefluss hat sich der Standardabweichung des Residuums auf 2.1°C verringert.

Mögliche Verallgemeinerung

Weltweit ist die Erfassung der Sonnenstunden weitaus weniger vollständig als die der Temperaturmessung. Daher können die Ergebnisse für Deutschland nicht einfach weltweit reproduziert werden.
Aber es wird mit Satelliten die Wolkenbedeckung bzw. die Reflexion der Sonneneinstrahlung an den Wolken gemessen. Mit diesen Daten kommt man zu ähnlichen Ergebnissen, dass nämlich der Anstieg der CO2-Konzentration allenfalls für 20% der weltweit mittleren Temperaturerhöhung verantwortlich ist. Da diese im Schnitt niedriger ist als die Temperaturerhöhung in Deutschland, führt das am Ende ebenfalls zu einer Obergrenze von 0.03°C pro Jahrzehnt für die Folgen des CO2-bedingten Treibhauseffekts.




Treibhauseffekt-Rückkopplung durch Wasserdampf


[latexpage]

In der Klimadiskussion wird das Argument der Rückkopplung durch Wasserdampf dazu herangezogen, um die Klimawirkung der Treibhausgase — die Sensitivität bei Verdoppelung von deren Konzentration in der Atmosphäre — , die nach Strahlungstransportgleichung und generellem Konsens maximal 0,8° beträgt, um einen angeblichen Faktor 2-6 zu verstärken. Allerdings wird das gewöhnlich nicht genauer quantifiziert, es werden in der Regel nur Formeln mit dem „finalen Feedback“ angegeben.

Vor kurzem haben David Coe, Walter Fabinski und Gerhard Wiegleb in der Publikation „The Impact of CO2, H2O and Other ‚Greenhouse Gases‘ on Equilibrium Earth Temperatures“ unter anderem genau diese Rückkopplung beschrieben und analysiert. In Anlehnung an ihre Publikation wird dieser Effekt mit dem teils gleichen, teils leicht unterschiedlichen Ansatz im folgenden hergeleitet. Die Ergebnisse sind fast identisch.

Dabei wird hier von allen anderen Effekten, die bei der Bildung von Wasserdampf auftreten, wie z.B. Wolkenbildung, abgesehen.

Der grundsätzliche Mechanismus der Wasserdampfrückkopplung

Ausgangspunkt ist eine Temperaturerhöhung der Atmosphäre um ∆T0, ungeachtet deren Ursache. Typischerweise wird der Treibhauseffekt als primäre Ursache angenommen. Die Argumentation ist nun, dass die erwärmte Atmosphäre mehr Wasserdampf aufnehmen kann, d.h. der Sättigungsdampfdruck (SVP = „Saturation Water Pressure“) erhöht sich und es wird angenommen, dass sich konsequenterweise auch die Wasserdampfkonzentration ∆H2O erhöht, und zwar als lineare Funktion der Temperaturänderung. (Die Temperaturänderung ist so klein, dass eine Linearisierung auf jeden Fall legitim ist):
$\Delta H_2O = j\cdot \Delta T_0 $
Dabei ist $j$ die Proportionalitätskonstante für die Wasserdampfkonzentration.
Eine erhöhte Wasserdampfkonzentration bewirkt wiederum aufgrund der Treibhauswirkung von Wasserdampf eine Temperaturerhöhung, die linear von der Wasserdampfkonzentration abhängt:
$\Delta T_1 = k\cdot \Delta H_2O $
Zusammengefaßt bewirkt also die auslösende Temperaturerhöhung ∆T0 eine Folgeerhöhung der Temperatur ∆T1:
$\Delta T_1 = j\cdot k\cdot \Delta T_0 $
Da die Voraussetzung des Verfahrens ist, dass die Ursache der auslösenden Temperaturerhöhung unerheblich ist, bewirkt die Erhöhung um ∆T1 natürlich ebenfalls wieder einen Rückkopplungszyklus:
$\Delta T_2 = j\cdot k\cdot \Delta T_1 = (j\cdot k)^2\cdot \Delta T_0$
Dies wiederholt sich rekursiv. Die finale Temperaturänderung ist demnach eine geometrische Reihe:
$\Delta T = \Delta T_0\sum_{n=0}^\infty(j\cdot k)^n = \Delta T_0\cdot \frac{1}{1-j\cdot k} $
Wäre $j\cdot k\ge 1$, würde die Reihe divergieren und die Temperatur über alle Grenzen wachsen. Daher ist es wichtig, sich über die Größe dieser beiden Rückkopplungsfaktoren Klarheit zu verschaffen.

Abhängigkeit der möglichen Wasserdampfkonzentration von der Temperatur

Die maximal mögliche Wasserdampfkonzentratio in Abhängigkeit von der Temperatur T (in °C) ist durch den Sättigungsdampfdruck SVP (englisch „saturation vapour pressure“, SVP) begrenzt. Dieser wird durch die Arden Buck Gleichung, (eine moderne, überarbeitete Version der Magnus-Formel) sehr genau beschrieben:
$ SVP = 0.61121\cdot \exp{((18.678-\frac{T}{234.5})(\frac{T}{257.14+T}))} $
Es wird hier die Standard-Atmosphäre mit 15°C Boden- bzw. Wasseroberflächentemperatur und adiabatischem Temperaturgradient von -6.5°C/km betrachtet.

Die absolute Differenz $\frac{\Delta (SVP(T))}{\Delta T}$ ist naturgemäß bei höheren Temperaturen, also in Bodennähe, am größten:

Die relative Differenz $\frac{\frac{\Delta (SVP(T))}{\Delta T}}{SVP(T)}$ wird mit zunehmender Höhe größer, bewegt sich zwischen 4% und 8%.

Die mögliche Zunahme der relativen Luftfeuchtigkeit – das Verhältnis des tatsächlichen Dampfdrucks im Vergleich zum Sättigungsdampfdrucks – als Folge der globalen Temperaturerhöhung $T_0$ ist durch diese relative Änderung des Sättigungsdampfdrucks begrenzt.

Da die mittlere, dominante Infrarot-Abstrahlung der Erde etwa in der Höhe 5000m stattfindet, und sich oberhalb davon kaum mehr Wasserdampf befindet, ist es sinnvoll, 6% als oberes Limit der Änderung der relativen Luftfeuchtigkeit infolge einer Temperaturerhöhung um 1°C anzunehmen. Demzufolge ergibt sich die Konstante $j$ als $j=0.06$. Dieser Wert ist etwas kleiner als die üblicherweise genannten (aber gewöhnlich nicht belegten) 7%. Nach dem obigen Diagramm wären 7% Erhöhung der Luftfeuchtigkeit erst oberhalb von 8000 m ü.d.M. möglich.

Abhängigkeit des Treibhauseffekts von der Änderung der relativen Luftfeuchtigkeit

Der Infrarot Strahlungstransport in der Atmosphäre ist von der relativen Luftfeuchtigkeit abhängig. Dies wird in dem bekannten und bewährten Simulationsprogram MODTRAN berücksichtigt. Mit zunehmender Luftfeuchtigkeit sinkt infolge des Treibhauseffektes des Wasserdampfes die ausgehende Infrarotstrahlung.

Zwischen der Luftfeuchtigkeit 60% und 100% ist die Strahlungsabnahme linear. Daher wird zur Ermittlung der Abnahme der Strahlungsleistung und der zur Kompensation notwendigen Temperaturerhöhung die Zunahme der relativen Luftfeuchtigkeit von 80% auf 86% betrachtet.

Dazu stellen wir die Parameter der MODTRAN Simulation auf

  • die aktuelle CO2-Konzentration von 420 ppm,
  • eine relative Luftfeuchtigkeit von 80%,
  • und eine Wolkenkonstellation, die der mittleren IR Abstrahlungsleistung von 240 $\frac{W}{m^2}$ nahe kommt, in diesem Fall also 244,92 $\frac{W}{m^2}$.

Dann wird die Luftfeuchtigkeit um 6% vergrößert, um herauszufinden, welchen Effekt das auf die Temperatur hat.
Zunächst verringert sich die IR Abstrahlung um 0.69 \frac{W}{m^2}.
Dann wird der Temperatur-Offset wird nun so lange vergrößert, bis die reduzierte IR-Abstrahlung von 0.69 \frac{W}{m^2} durch Temperaturerhöhung wieder ausgeglichen ist. Dies ist bei einer Erhöhung der Bodentemperatur um 0.185 °C der Fall.

Eine 6% höhere relative Luftfeuchtigkeit bewirkt also einen Treibhauseffekt, der durch eine Temperaturerhöhung von 0.185°C ausgeglichen wird, Auf eine Änderung um (theoretische) 100% Luftfeuchtigkeit hochgerechnet sind das $k=3.08$°C/100% .

Der finale Rückkopplungsfaktor und der gesamte Treibhauseffekt

Damit bewirkt eine um 1 Grad höhere Temperatur in einem Rückkopplungszyklus eine zusätzliche Temperaturerhöhung um $k\cdot j = 0.06*3.08= 0.185$.

Die geometrische Reihe führt zu einem Verstärkungsfaktor $f$ des reinen CO$_2$ Treibhauseffekts um
$f=\frac{1}{1-0.185} = 1.23 $

Damit ist die um die Wasserdampfrückkopplung verstärkte Sensitivität bei Verdopplung der CO$_2$ Konzentration $\Delta T$ nicht mehr $\Delta T_0=0.8$°C, sondern
$\Delta T = 1.23\cdot 0.8$ °C = 0.98°C $\approx$ 1°C

Würde man die vom „Mainstream“ postulierten 7% maximaler Erhöhung der Luftfeuchtigkeit zugrunde legen, wäre die zusätzliche Temperaturerhöhung 0.215 °C und demzufolge die Verstärkung des Treibhauseffekts
$f=\frac{1}{1-0.215} = 1.27 $. Die Sensitivität für CO$_2$ Verdoppelung wäre dann
$\Delta T = 1.27\cdot 0.8$ °C = 1.02°C $\approx$ 1°C

Dieses Ergebnis berücksichtigt nicht die um die durch höhere Wasserdampfkonzentration stärkere Wolkenbildung und deren Abschirmung des einfallenden Sonnenlichts, die eine negative Rückkopplung bewirkt.




Häufig gestellte Fragen zur CO2-Sensitivät

Welche Rolle spielt der Wasserdampf bei der CO2-Sensitivität, wirkt er nicht als Treibhausverstärker?

Es geht dabei im Wesentlichen um die Frage, ob durch Wasserdampf eher eine positive Rückkopplung des CO2-bedingten Treibhauseffektes erfolgt (wie z.B. von Vertretern des PIK behauptet) oder eher eine negative, wie von Prof. Richard Lindzen beschrieben.

Hierzu betrachten wir zwei in diesem Zusammenhang wichtige, unbestrittene Fakten.

Das globale Energiebudget

Diejenigen, die behaupten, dass der Wasserdampf den Treibhauseffekt verstärke, berufen sich darauf dass bei steigender Temperatur die Luft gemäß der Clausius-Clapeyron-Gleichung mehr Wasserdampf aufnehmen könne, was zu einem stärkeren Treibhauseffekt führt und damit zu einer positiven Rückkopplung. Der treibhausverstärkende Gesamteffekt des Wasserdampfes ist im globalen Energiebudget mit etwa 26,6W/qm berücksichtigt:

Ebenso bekannt wie unstrittig ist die Bildung von Wolken aus Wasserdampf. Und die meisten Wolken haben die Eigenschaft, dass sie Licht reflektieren. Demzufolge kommt aufgrund der Wolkenalbedo nur ein Teil der kurzwelligen Sonnenenergie bei der Erde an. Der Energieverlust aufgrund der Wolkenreflexion ist im Energiebudget mit etwa -47,5 W/qm berüc ksichtigt. Demzufolge ist die Abkühlung aufgrund der Wolkenbildung global gesehen um mehr als 20 W/qm größer als deren Treibhauswirkung. Die Gesamtwirkung aller Wolken bildet demnach eine sehr starke negative Rückkopplung beim Treibhauseffekt. Wo ist die Evidenz, dass bei marginalen Veränderung der Wolkenbedeckung sich dieser Effekt umkehrt?

Die energetischen Auswirkungen des Rückgangs der Wolkenbedeckung über 30 Jahre

Als wahrscheinlich erste von mittlerweile vielen Arbeiten zur Untersuchung der Albedoveränderung wurde im Artikel Nettoabnahme des Reflexionsvermögens der Wolken, der Aerosole und der Erdoberfläche bei 340 nm Wellenlänge nachgewiesen, dass über einen Zeitraum von 33 Jahren aufgrund der Abnahme der Wolkenbildung und demzufolge Abnahme der Reflexivität der Atmosphäre der Energiezufluß um 2,33 W/qm zugenommen hat:

Dies wirft nicht nur die Frage auf, warum ein 4-fach größerer Effekt als die Treibhauswirkung des CO2 bislang in den Klimamodellen nicht berücksichtigt wird, es zeigt zweifelsfrei, dass nur eine Abnahme der globalen Bewölkung zu einer Temperaturzunahme führt. Eine Bewölkungszunahme würde demzufolge zu einer Temperaturabnahme führen.

Demzufolge wäre eine positive Wasserdampf-Rückkopplung nur möglich, wenn nachgewiesen werden kann, dass global gesehen ein erhöhte Wasserdampfgehalt in der Atmosphäre zu einer verringerten Wolkenbildung führt. Viel Spaß bei diesem Ansinnen.

Wohlgemerkt, es hilft nicht, irgend einen Einzeleffekt zu finden (wie z.B. stratosphärische Cirruswolken), bei dem nur ein Treibhauseffekt stattfindet, aber keine Reflexionsreduktion, es muß schon nachgewiesen werden, dass der Effekt für den globalen Erwartungswert gilt.




Vorhersagen der globalen Temperatur


[latexpage]

Der traditionelle Ansatz wird in Frage gestellt

Die Schlüsselfrage zum Klimawandel ist Wie stark beeinflusst der $CO_2$-Gehalt der Atmosphäre die globale Durchschnittstemperatur? Und insbesondere, wie empfindlich reagiert die Temperatur auf Veränderungen der $CO_2$-Konzentration?
Wir untersuchen dies anhand von zwei Datensätzen, dem HadCRUT4-Datensatz zur globalen Durchschnittstemperatur und dem CMIP6-Datensatz zum $CO_2$-Gehalt.
Die Korrelation zwischen diesen Daten ist ziemlich hoch, so dass es ziemlich offensichtlich erscheint, dass ein steigender $CO_2$-Gehalt steigende Temperaturen verursacht.
Mit einem linearen Modell scheint es einfach herauszufinden, wie genau die Temperaturen im Jahr i $T_i$ durch den $CO_2$-Gehalt $C_i$ und das zufällige (Gauß’sche) Rauschen $\epsilon_i$ vorhergesagt werden. Aus theoretischen Überlegungen (Strahlungsantrieb) ist es wahrscheinlich, dass das Modell mit $log(C_i)$ am besten passt:
$T_i = a + b\cdot log(C_i) + \epsilon_i$
Die Konstanten a und b werden durch eine Anpassung mit der Methode der kleinsten Quadrate bestimmt (mit dem Python-Modul OLS aus dem Paket statsmodels.regression.linear_model):
a=-16,1, b=2,78
Daraus lässt sich die Sensitivität bestimmen, die als Temperaturdifferenz bei Verdopplung von $CO_2$ definiert ist:
$\Delta(T) = b\cdot log (2)$ °C = 1,93 °C
Das sind fast 2 °C, eine Zahl, die nahe an den offiziellen Schätzungen des IPCC liegt.

Was ist daran falsch, es scheint sehr einfach und logisch zu sein?
Wir haben das Residuum der Anpassung mit der Methode der kleinsten Quadrate noch nicht untersucht. Unser Modell besagt, dass das Residuum Gaußsches Rauschen sein muss, d.h. unkorreliert.
Der statistische Test, um dies zu messen, ist der Ljung-Box-Test. Betrachtet man das Q-Kriterium, so ist es Q = 184 mit p=0. Das bedeutet, dass der Residuum signifikante Korrelationen aufweist, es gibt strukturelle Informationen im Residuum, die mit dem vorgeschlagenen linearen Modell des log($CO_2$)-Gehalts nicht erfasst wurden. Ein Blick auf das Diagramm, das die angepasste Kurve zeigt, lässt erahnen, warum der statistische Test fehlgeschlagen ist:

Wir sehen 3 Diagramme:

  • Die gemessenen Temperaturanomalien (blau),
  • die geglätteten Temperaturanomalien (orange),
  • die Rekonstruktion der Temperaturanomalien basierend auf dem Modell (grün)

Während das Modell im Vergleich zu den verrauschten Originaldaten vernünftig aussieht, ist es aus den geglätteten Daten offensichtlich, dass es neben $CO_2$ noch andere systematische Gründe für Temperaturänderungen geben muss, die vorübergehende Temperaturrückgänge wie während 1880-1910 oder 1950-1976 verursachen. Am überraschendsten ist, dass von 1977-2000 der Temperaturanstieg deutlich größer ist, als es das Modell des $CO_2$-Anstiegs erwarten ließe.

Die systematischen Modellabweichungen, u.a. ein 60-jähriges zyklisches Muster, sind auch zu beobachten, wenn man sich die Residuen der kleinsten Quadrate Schätzung anschaut:

Erweiterung des Modells mit einer einfachen Annahme

Angesichts der Tatsache, dass die Ozeane und bis zu einem gewissen Grad auch die Biosphäre enorme Wärmespeicher sind, die Wärme aufnehmen und wieder abgeben können, erweitern wir das Temperaturmodell um einen Speicherterm der Vergangenheit. Ohne den genauen Mechanismus zu kennen, können wir auf diese Weise die „natürliche Variabilität“ in das Modell einbeziehen. Vereinfacht ausgedrückt entspricht dies der Annahme: Die Temperatur in diesem Jahr ist ähnlich wie die Temperatur des letzten Jahres. Mathematisch wird dies durch einen erweiterten autoregressiven Prozess ARX(n) modelliert, wobei angenommen wird, dass die Temperatur im Jahr i eine Summe von

  • einer linearen Funktion des Logarithmus des $CO_2$-Gehalts,log($C_i$), mit Offset a und Steigung b,
  • einer gewichteten Summe der Temperatur der Vorjahre,
  • zufälligem (Gauß’schem) Rauschen $\epsilon_i$

$ T_i = a + b\cdot log(C_i) + \sum_{k=1}^{n} c_k \cdot T_{i-k} +\epsilon_i $

Im einfachsten Fall ARX(1) erhalten wir

$ T_i = a + b\cdot log(C_i) + c_1\cdot T_{i-1} +\epsilon_i $

Mit den gegebenen Daten werden die Parameter geschätzt, wiederum mit dem Python-Modul OLS aus dem Paket statsmodels.regression.linear_model:
$a=-7.33, b=1.27, c_1=0.56 $
Die Rekonstruktion des Trainingsdatensatzes ist deutlich näher an den Originaldaten:

Das Residuum der Modellanpassung sieht nun viel mehr wie ein Zufallsprozess aus, was durch den Ljung-Box-Test mit Q=20,0 und p=0,22 bestätigt wird

Bei Berücksichtigung der natürlichen Variabilität reduziert sich die Empfindlichkeit gegenüber $CO_2$ auf
$\Delta(T) = b\cdot log (2) °C = 0,88 °C $

In einem anderen Beitrag haben wir die Abhängigkeit des atmosphärischen $CO_2$-Gehalts von den anthropogenen $CO_2$-Emissionen untersucht, und dies als Modell für Vorhersagen des zukünftigen atmosphärischen $CO_2$-Gehalts verwendet. Es werden u.a. 3 Szenarien untersucht:

  • „Business as usual“ neu definiert anhand der neuesten Emissionsdaten als Einfrieren der globalen $CO_2$-Emissionen auf das Niveau von 2019 (was auch tatsächlich geschieht)
  • 100% weltweite Dekarbonisierung bis 2050
  • 50% weltweite Dekarbonisierung bis 2100
  • 50% weltweite Dekarbonisierung bis 2050
  • sofortige 50% weltweite Dekarbonisierung (hypothetisch)

Das resultierende atmosphärische $CO_2$ wurde wie folgt berechnet, die statistischen Fehler sind so klein, dass die Prognose für die nächsten 200 Jahre sehr enge Fehlerintervalle aufweist.

Füttert man das Temperatur-ARX(1)-Modell mit diesen vorhergesagten Zeitreihen des $CO_2$-Gehalts, so sind für die Zukunft folgende globale Temperaturentwicklungen zu erwarten:

Schlussfolgerungen

Die folgenden Schlussfolgerungen werden unter der Annahme gezogen, dass es tatsächlich eine starke Abhängigkeit der globalen Temperatur vom atmosphärischen $CO_2$-Gehalt gibt. Ich bin mir bewusst, dass dies umstritten ist, und ich selbst habe an anderer Stelle argumentiert, dass die $CO_2$-Sensitivität bei nur 0,5°C liegt und dass der Einfluss der Wolkenalbedo viel größer ist als der von $CO_2$. Dennoch lohnt es sich, die Mainstream-Annahmen ernst zu nehmen und einen Blick auf das Ergebnis zu werfen.

Unter dem„business as usual“-Szenario, d.h. konstante $CO_2$-Emissionen auf dem Niveau von 2019, ist bis 2150 mit einem weiteren Temperaturanstieg um ca. 0,5°C zu rechnen. Das sind 1,4°C über dem vorindustriellen Niveau und damit unter der 1,5° C-Marke des Pariser Klimaabkommens.
Viel wahrscheinlicher und realistischer ist das Szenario „50%ige Dekarbonisierung bis 2100“ mit einem weiteren Anstieg um 0,25°C, gefolgt von einem Rückgang auf das heutige Temperaturniveau.

Die politisch propagierte „100%ige Dekarbonisierung bis 2050“, die nicht nur ohne wirtschaftlichen Zusammenbruch der meisten Industrieländer völlig undurchführbar ist, bringt uns zurück auf das kalte vorindustrielle Temperaturniveau, was nicht wünschenswert ist.