Die Dekonstruktion des Klimanarrativs

Einleitung – Wie funktioniert das Klimanarrativ?

Zweifellos gibt es ein von Wissenschaft, Medien und Politik propagiertes Klimanarrativ, wonach wir uns aufgrund der anthropogenen CO2 Emissionen auf einem Katastrophenkurs befinden, der angeblich nur mit einer Reduktion der Emissionen auf Null bis zum Jahre 2050 aufzuhalten ist.

Alle die dem Narrativ auch nur in subtilen Details widersprechen, werden wie Aussätzige auf „schwarzen Listen“ geführt, selbst wenn sie renommierte Wissenschaftler, ja sogar Nobelpreisträger sind[1][2] – mit verheerenden Folgen für Bewerbungen, Publikationen oder Förderanträge.     

Wie ist es möglich, alle wichtigen, auch die renommiertesten Universitäten wie Harvard, MIT und Stanford, Oxford, Cambridge und Heidelberg auf die gemeinsame Konsenslinie zu bringen? Wie kann es gelingen, dass die berühmtesten Zeitschriften wie Nature[3] und Science, aber auch populärwissenschaftliche wie Spektrum der Wissenschaft nur noch einen schmalen „Verständnistunnel“ gelten lassen, ohne ihren Ruf nicht offensichtlich zu ruinieren?

Damit das Narrativ eine solche starke und universelle Wirkung entfalten kann, ist zweifellos ein solides wissenschaftliches Fundament notwendig, das man nicht ohne Blamage bestreiten kann. Diejenigen, die es trotzdem tun, werden auf denkbar einfache Weise als „Klimaleugner“ oder „Wissenschaftsfeinde“ identifiziert. 

Auf der anderen Seite sind die Vorhersagen daraus und insbesondere die politischen Konsequenzen daraus dermaßen menschenfeindlich und wirklichkeitsfremd, dass nicht nur eine tiefe gesellschaftliche Spaltung entstanden ist, sondern dass eine zunehmende Zahl von Zeitgenossen, darunter viele Wissenschaftler, hinterfragen, was das für eine Wissenschaft sein soll, die dermaßen abwegige Ergebnisse produziert[4].

Bei sorgfältiger Analyse des Klimathemas findet sich ein Muster, das sich wie ein roter Faden durch alle Aspekte durchzieht. Dieses Muster wird im am Beispiel von 4 Schwerpunkten, die in der Klimaforschung bedeutsam sind, illustriert.

Das Muster, das sich aus langjähriger Auseinandersetzung mit dem Thema herausschälte, besteht darin, dass es im Kern immer eine korrekte Beobachtung oder ein gültiges Naturgesetz gibt. Im nächsten Schritt werden allerdings die Ergebnisse dieser Beobachtung entweder ungeprüft in die Zukunft fortgeschrieben, die Ergebnisse werden übertrieben oder sogar in ihrer Bedeutung verdreht. Andere, zielführende Erkenntnisse werden weggelassen oder ihre Veröffentlichung unterdrückt.

An den genannten und vielen anderen Beispielen lässt sich die typische Schlussfolgerung zeigen, dass bei dem jeweiligen Teilaspekt des Klimas ein möglichst schädliches Ergebnis droht. Das Zusammenfügen mehrerer solcher Komponenten führt in der Summe dann zu den katastrophalen Horrorszenarien, mit denen wir täglich konfrontiert werden. Da die Aussagen meist die Zukunft betreffen, lassen sie sich in der Regel kaum überprüfen.

Die gesamte Argumentationskette des Klimanarrativs hat folgende Form:

  1. Die anthropogenen Emissionen wachsen – exponentiell.
  2. Mit den Emissionen wächst die atmosphärische Konzentration an, solange die Emissionen nicht vollständig auf Null reduziert werden
  3. Das Anwachsen der CO2-Konzentration in der Atmosphäre führt zu einem – dramatischen – Anwachsen der durchschnittlichen Temperatur
  4. Darüber hinaus gibt es noch positive Rückkopplungen, wenn die Temperatur anwächst, ja sogar Kipppunkte, jenseits derer keine Umkehr mehr möglich ist.
  5. Andere Erklärungen wie Sonnenstunden oder die damit zusammenhängende Wolkenbildung werden ignoriert, heruntergespielt oder in das System als Rückkopplungseffekt eingebaut.
  6. Die Auswirkungen sind in der Summe dermaßen katastrophal, dass damit beliebige totalitäre politische Maßnahmen gerechtfertigt werden, mit dem Ziel, die weltweiten Emissionen auf Null herunterzudrücken.

Die ausführliche Beschäftigung mit dem Thema führt zu dem Ergebnis, dass jeder einzelne dieser Punkte das oben beschriebene Muster zeigt, dass es zwar immer einen wahren Kern gibt, der für sich genommen harmlos ist. Den wahren Kern herauszuarbeiten und die Übertreibungen, falschen Extrapolationen oder Weglassen wesentlicher Informationen herauszuarbeiten, ist das Ziel dieser Schrift.

1.  Die anthropogenen Emissionen wachsen – exponentiell?

Jeder kennt die klassischen Beispiele exponentiellen Wachstums, z.B. das Schachbrett, das Feld für Feld mit jeweils der doppelten Menge Reis gefüllt wird. Ein exponentielles Wachstum führt grundsätzlich immer in eine Katastrophe. Daher ist es wichtig, die Fakten des Emissionswachstums zu prüfen.

Abbildung 1: Relatives Wachstum der weltweiten Emissionen[5][6]

Abbildung 1 zeigt das relative Wachstum der weltweiten anthropogenen Emissionen während der letzten 80 Jahre.   Um das Diagramm zu verstehen, vergegenwärtigen wir uns, dass konstantes relatives Wachstum exponentielles Wachstum bedeutet[7]. Ein Sparkonto mit 3% Zinsen wächst im Prinzip exponentiell. Demnach finden wir exponentielles Emissionswachstum mit einer Wachstumsrate von etwa 4,5% zwischen 1945 bis 1975. Diese Phase nannte man einst „Wirtschaftswunder“. Danach ging das Emissionswachstum bis 1980 auf 0 zurück. Man nannte diese Zeit „Rezession“, mit der Konsequenz von Regierungswechseln in USA und Deutschland.

Ein weiterer Wachstumstiefpunkt der Emissionen war um 1990 mit dem Zusammenbruch des Kommunismus verbunden, mit einem folgenden Wiederanstieg, hauptsächlich in den Schwellenländern. Seit 2003 erfolgt eine beabsichtigte Reduktion des Emissionswachstum infolge der Klimapolitik.

Festzuhalten ist, dass aktuell das Emissionswachstum auf 0 gefallen ist.

Vor kurzem hat Zeke Hausfather festgestellt, dass die Summe der weltweiten  anthropogenen Emissionen seit 2011 im Rahmen der Meßgenauigkeit konstant[8] sind, dargestellt in Abbildung 2. Demzufolge ist auch für die Zukunft kein Überschreiten der aktuellen Emissionen mehr zu erwarten[9].

Abbildung 2:  Anthropogene Emissionen sind seit 2011 konstant[10]

Die längerfristige Fortschreibung der aktuellen geplanten künftigen Emissionen, das sogenannte „Stated Policies“ Szenario (von 2021) erwartet bis 2030 konstante weltweite Emissionen und danach eine ganz leichte Senkung von 0,3% pro Jahr.

Abbildung 3:  STEPS Szenario (Stated Policies Scenario) der IEA, nahezu konstante Emissionen[11].

Demzufolge sind die beiden vom IPCC am häufigsten verwendeten Zukunftsszenarien (RCP 8.5 und RCP6.2) fern von der Realität[12] der tatsächlich möglichen Emissionsszenarien. Trotzdem ist das Extremszenario RCP8.5 in den Modellrechnungen immer noch das am häufigsten verwendete[13].

Wissenschaftlich seriös sind vor allem das IPCC Szenario RCP4.5 und diesem in Abbildung 3 dargestellten ähnlichen IEA Szenario „Stated Policies“ (dort S. 33, Figure 1.4)[14].

Damit bleibt es bei Anerkennung der realistischen Emissionsszenarien ohne Infragestellung der vom IPCC verbreiteten Aussagen über das Klima bei einer maximalen emissionsbedingten Temperaturerhöhung von 2,5°C gegenüber dem vorindustriellen Zustand. 

2. Atmosphärische CO2 Konzentration steigt kontinuierlich an  —  es sei denn, die Emissionen werden auf Null reduziert?

Die Frage ist, wie sich anthropogene Emissionen auf die CO2-Konzentration in der Atmosphäre auswirken.  Es ist bekannt und in Abb. 4 von der Internationalen Energieagentur illustriert, dass bei weitem nicht alles emittierte CO2 in der Atmosphäre verbleibt, sondern dass ein wachsender Anteil davon von den Ozeanen und den Pflanzen wieder absorbiert wird.

Die statistische Auswertung der anthropogenen Emissionen und der CO2-Konzentration ergibt unter Berücksichtigung der Massenerhaltung und einem linearen Modell der natürlichen Senken Ozeane und Biosphäre, dass jedes Jahr knapp 2% der über das vorindustrielle natürliche Gleichgewichtsniveau hinausgehenden CO2-Konzentration von den Ozeanen und der Biosphäre

Abbildung 4: Quellen (anthropogene Emissionen und Landnutzung), Senken des CO2
(Ozeane und Landsenken) und Konzentrationswachstum in der Atmosphäre

absorbiert werden[15] [16].  Das ist aktuell die Hälfte der anthropogenen Emissionen mit zunehmender Tendenz, wie in Abbildung 5 dargestellt.    

Abbildung 5: CO2 Bilanz und lineares Senkenmodell: anthropgene Emissionen (blau),
                       Konzentrationswachstum (orange), natürliche Senken und deren Modellierung (grün)

Das wahrscheinlichste weltweite Zukunftsszenario der Internationalen Energie Agentur – die in Abb. 3 dargestellte Fortschreibung heutiger politischer Regelungen  (Stated Policies Szenario STEPS) – beinhaltet bis zum Ende des Jahrhunderts eine sanften Abnahme (3%/Jahrzehnt) der weltweiten Emissionen auf das Niveau von 2005. Diese Emissionsverringerungen sind durch Effizienzverbesserungen und normalen Fortschritt erreichbar.

Wenn wir dieses STEPS Referenz-Szenario zugrunde legen, führt dies bei Nutzung des linearen Senkenmodells zu einem Anstieg der Konzentration um 55 ppm auf ein Plateau von 475 ppm, wo dann die Konzentration verbleibt.   

Abbildung 6:  Gemessene und vorhergesagte CO2-Konzentration mit 95% Fehlerbalken

Wesentlich ist, dass dabei die CO2-Konzentration auf keine klimatisch gefährlich hohe Werte steigen wird.   Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1[17]:
Die Länder müssen ihre maximalen Emissionen baldmöglichst erreichen “um so ein Gleichgewicht zwischen anthropogenen Emissionen von Treibhausgasen und und deren Absorption mittels Senken in der zweiten Hälfte dieses Jahrhunderts zu erreichen”. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Dekarbonisierung. 

Das Netto-Null Gleichgewicht zwischen Emissionen und Absorptionen wird mit der Fortschreibung heutigen Verhaltens im Jahre 2080 ohne radikale Klimamaßnahmen erreicht

Ohne auf die Details der sog. Sensitivitätsberechnung einzugehen, lässt sich vereinfacht für die weitere Temperaturentwicklung sagen:

Angenommen, die CO2-Konzentration sei voll verantwortlich für die Temperaturentwicklung der Atmosphäre, dann war 2020 die CO2-Konzentration 410 ppm, also (410-280) ppm = 130 ppm über dem vorindustriellen Niveau. Bis dahin war die Temperatur etwa 1° C höher als vor der Industrialisierung. Künftig können wir mit der obigen Prognose eine Erhöhung der CO2-Konzentration um (475-410) ppm = 65 ppm erwarten. Das ist grade die Hälfte der bisherigen Steigerung. Demzufolge können wir, auch wenn wir von der Klimawirkung des CO2 überzeugt sind, bis dahin zusätzlich die Hälfte der bisherigen Temperaturerhöhung erwarten, also ½° C. Demzufolge wird 2080 die Temperatur mit 1,5° C über vorindustriellem Niveau das Ziel des Pariser Klimaabkommens erfüllen, auch ohne radikale Emissionsreduktionen.

3.  Atmosphärische CO2 Konzentration verursacht – dramatischen? – Temperaturanstieg

Nach der Diskussion über die möglichen künftigen CO2-Mengen stellt sich die Frage nach deren Auswirkungen auf das Klima, also nach dem Treibhauseffekt des CO2 und dessen Einfluss auf die Temperatur der Erdoberfläche und der Atmosphäre.   

Der mögliche Einfluss des CO2 auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport[18]. Da das Thema einerseits grundlegend für die gesamte Klimadiskussion ist, andererseits anspruchsvoll und schwer durchschaubar, wird hier auf die  komplizierten physikalischen Formeln verzichtet.

Um den Treibhauseffekt messen zu können, muss die in das Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der erwartete Treibhauseffekt ist aber mit 0,2 W/m2 pro Jahrzehnt[19] so winzig, dass er mit heutiger Satellitentechnologie, die eine Messgenauigkeit von etwa 10 W/m2 hat, nicht direkt nachweisbar ist[20].

Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der physikalischen Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses CO2 Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.

Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN[21], mit dem die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der CO2-Treibhauseffekt physikalisch korrekt simuliert werden kann:

Abbildung 7 zeigt, dass die MODTRAN Rekonstruktion des Infrarotspektrums hervorragend mit dem aus dem Weltraum gemessenen Infrarotspektrum übereinstimmt. Damit können wir die Anwendbarkeit des Simulationsprogramms rechtfertigen und schließen, dass sich mit der Simulation auch hypothetische Konstellationen mit ausreichender Genauigkeit beschreiben lassen.

Mit diesem Simulationsprogramm wollen wir die wichtigsten Aussagen bezüglich des Treibhauseffekts überprüfen.

Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum

Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum

Um auf bekanntem Gefilde zu beginnen, versuchen wir zunächst, den üblicherweise publizierten, „reinen CO2-Treibhauseffekt zu reproduzieren“, indem die durch nichts reduzierte Sonneneinstrahlung die Erde erwärmt und deren Infrarotstrahlung in den Weltraum ausschließlich durch die CO2-Konzentration abgeschwächt wird. Die CO2-Konzentration wird auf das vorindustrielle Niveau 280 ppm eingestellt.

Wir verwenden dabei die sogenannte Standard-Atmosphäre[22], die sich seit Jahrzehnten bei für die Luftfahrt wichtigen Berechnungen bewährt hat, entfernen aber alle anderen Spurengase, ebenso den Wasserdampf. Die anderen Gase wir Sauerstoff und Stickstoff sind aber als vorhanden angenommen, sodass sich an der Thermodynamik der Atmosphäre nichts ändert. Durch leichte Korrektur der Bodentemperatur auf 13,5°C (Referenztemperatur ist 15°C) wird die Infrarot-Abstrahlung auf 340 W/m2 eingestellt. Das ist grade ¼ der Solarkonstante[23], entspricht also genau der auf die ganze Erdoberfläche verteilten Sonneneinstrahlung. 

Gut erkennbar ist im Spektrum das „CO2-Loch“, also die gegenüber dem normalen Planck-Spektrum[24]  verminderte Abstrahlung im CO2-Band.

Abbildung 8: Simuliertes IR-Spektrum: nur vorindustrielles CO2

Was passiert nun bei Verdoppelung der CO2-Konzentration?

Abbildung 9: Strahlungsantrieb bei                                  Abbildung 9a: Temperaturanstieg zur
CO2-Verdoppelung (keine Albedo,                                   Kompensation des Strahlungsantriebs
kein Wasserdampf)                                                           von Abb. 9.

In Abb. 9 ist zu sehen, dass bei Verdoppelung der CO2-Konzentration auf 560 ppm der Wärmefluß der Infrarotstrahlung um 3,77 W/m2 vermindert wird. Diese Zahl wird vom IPCC und fast allen Klimaforschern verwendet, um den CO2-Antrieb („Forcing“) zu beschreiben.  In Abb. 9a verändern wir die Bodentemperatur von -1,5°C auf -0,7°C, um wieder die Abstrahlung von 340 W/m2 zu erreichen. Diese Erwärmung um 0,8°C bei Verdoppelung der CO2-Konzentration wird als „Klima-Sensitivität“ bezeichnet.  Sie ist, angesichts der aktuellen Meldungen über die drohenden Klimakatastrophen überraschend gering.

Insbesondere, wenn wir bedenken, dass die bisher verwendeten Einstellungen des Simulationsprogramms völlig an der realen Erdatmosphäre vorbeigehen:

  • Keine Berücksichtigung der Albedo, der Rückstrahlung des Lichteinstrahlung,
  • Keine Berücksichtigung von Wolken und Wasserdampf

Schritt für Schritt wollen wir uns nun den realen Bedingungen nähern. Die Szenarien sind in Tabelle 1 zusammengefaßt:

Szenario Albedo Einstrahlung
 (W/m2)
CO2 vorher (ppm) Temperatur
(°C)
CO2 nachher (ppm) Antrieb
 (W/m2)
Temperatur- Steigerung fürs Gleichgewicht (°C)
Vorindustriell Nur CO2, keine Wolken, kein Wasserdampf 0 340 280 13,7 560 -3,77 0,8
Keine Treib-hausgase, keine Wolken
(CO2 von 0-280 ppm)
0,125 297,5 0 -2 280 -27 7
Nur CO2, Albedo, keine Wolken, kein Wasserdampf 0,125 270 280 5 560 -3,2 0,7
Vorindustrielle 
Standard- Atmosphäre
0,3 240 280 15 560 -2 0,5
Vorindustrielle  Standard Atmosphäre, CO2 heutige Konzentration 0,3 240 280 15 420 -1,1 0,3
Tabelle 1: MODTRAN Szenarien unter verschiedenen Bedingungen, siehe Text.

Das Szenario in der ersten Zeile von Tabelle 1 ist das soeben besprochene „reine CO2“ Szenario.

In der zweiten Zeile gehen wir noch einen Schritt zurück, und entfernen auch noch das CO2, also ein Planet ohne Treibhausgase, ohne Wolken, ohne Wasserdampf. Aber die Erdoberfläche reflektiert Sonnenlicht, hat also Albedo[25]. Der Albedowert 0,125 entspricht dem sonstiger Gesteinsplaneten ebenso wie der Meeresoberfläche. Erstaunlicherweise kommt in diesem Fall eine Oberflächentemperatur von -2° C (und nicht wie oft behauptet -18°C!) zustande. Das kommt daher, dass es ohne Wasserdampf auch keine Wolkenalbedo gibt. Wird nun die CO2-Konzentration auf das vorindustrielle Niveau von 280 ppm erhöht, dann reduziert sich die Infrarot-Abstrahlung um 27 W/m2. Dieser große Strahlungsantrieb wird durch eine Temperatursteigerung von 7°C ausgeglichen.

Wir stellen fest, zwischen dem Zustand ganz ohne Treibhausgase und dem vorindustriellen Zustand gibt es einen stattlichen Treibhauseffekt, mit einer Erwärmung um 7°C.

Die dritte Zeile nimmt diesen vorindustriellen Zustand, also Erdalbedo, 280 ppm CO2, keine Wolken und kein Wasserdampf als Ausgangspunkt für das nächste Szenario. Bei Verdoppelung der CO2-Konzentration beträgt der Strahlungsantrieb von -3,2 W/m2, also etwas weniger als bei dem ersten „reinen CO2-Szenario“. Demzufolge ist auch hier die Erwärmung mit 0,7°C  zur Erreichung des Strahlungsgleichgewichts etwas geringer.

Nach diesen Vorbereitungen ist in der 4. Zeile die vorindustrielle Standardatmosphäre mit Albedo, Wolken, Wasserdampf und  der real gemessenen Albedo von 0,3 repräsentiert, mit der zur Standardatmosphäre zugehörige Bodentemperatur von 15°C.  Es gibt nun mehrere Möglichkeiten, Bewölkung und Wasserdampf einzustellen, um die der Albedo a=0,3 entsprechende Infrarot-Abstrahlung von 340 W/m2 . (1-a) = 240 W/m2 zu erreichen. Für’s Ergebnis kommt es nicht auf die genaue Wahl dieser Parameter an, solange die Abstrahlung 240 W/m2 beträgt.

Bei diesem Szenario bewirkt die Verdoppelung der CO2-Konzentration auf 560 ppm einen Strahlungsantrieb von -2 W/m2 und eine kompensierende Temperaturerhöhung, also Sensitivität von 0,5°C.  

Außer dem Szenario der Verdoppelung der CO2-Konzentration ist natürlich auch von Interesse, was der Treibhauseffekts bis heute bewirkt hat. Die aktuelle CO2-Konzentration von 420 ppm ist gerade in der Mitte zwischen den vorindustriellen 280 ppm und deren doppeltem Wert.

In der 5. Zeile der Tabelle bewirkt die Erhöhung von 280 ppm auf 420 ppm den Strahlungsantrieb von -1,1 W/m2 und die zur Kompensation notwendige Temperaturerhöhung von 0,3°C.   Aus diesem Resultat folgt, dass seit dem Beginn der Industrialisierung der bisherige Anstieg der CO2-Konzentration für eine globale Temperaturerhöhung von 0,3°C verantwortlich war.

Das ist viel weniger als die mittlere Temperaturerhöhung seit dem Beginn der Industrialisierung.  Daher stellt sich die Frage, wie die „restliche“ Temperaturerhöhung zu erklären ist.

Es bieten sich mehrere Möglichkeiten an:

  • Positive Rückkopplungseffekte, die die CO2-bedingte Erwärmung verstärken. Das ist die Richtung des Weltklimarates und Thema des nächsten Kapitels.
  • Andere Ursachen wie Wolkenalbedo. Das ist Thema des übernächsten Kapitels
  • Zufällige Schwankungen. Gerne wird angesichts des chaotischen Charakters des Wettergeschehens der Zufall herangezogen. Diese Möglichkeit bleibt in Rahmen dieser Abhandlung offen.

4.  Rückkopplungen führen zu  — katastrophalen?  — Konsequenzen

Die im vorigen Kapitel maximal mögliche Klimasensitivität, also Temperaturerhöhung bei Verdoppelung der CO2-Konzentration beträgt 0,8°C, unter realen Bedingungen eher 0,5°C.

Es war in der Klimaforschung schon früh klar, dass eine solch geringe Klima-Sensitivität niemanden in der Welt ernsthaft in Sorge versetzen könnte. Dazu kam, dass die gemessene globale Erwärmung größer ist als von der Strahlungstransportgleichung vorhergesagt wird.

Deswegen wurden Rückkopplungen ins Spiel gebracht, die prominenteste Veröffentlichung in diesem Zusammenhang war 1984 von James Hansen et al.: „Climate Sensitivity: Analysis of Feedback Mechanisms“[26] (Klima-Sensitivität: Analyse von Rückkopplungsmechanismen). James Hansen war es, der mit seinem Auftritt vor dem US-Senat 1988[27] die Klimapolitik der USA maßgeblich beeinflusste. Ähnlich argumentierte Prof. Levermann bei einer Anhörung des Umweltausschusses des Deutschen Bundestags[28], verbunden mit der Behauptung, aufgrund der Rückkopplung würde die Temperatur um 3°C steigen.

Mit Hilfe der Rückkopplungsmechanismen entstanden die vom IPCC veröffentlichten hohen Sensitivitäten bei Verdopplung der CO2 Konzentration zwischen 1,5°C und 4,5°C.

Es stellt sich insbesondere die Frage, wie eine geringe Erwärmung von 0,8°C durch Rückkopplung zu einer Erwärmung von 4,5°C führen kann, ohne dass das System völlig außer Kontrolle gerät?

Die in diesem Zusammenhang mit Abstand wichtigste Rückkopplung ist die Wasserdampf-Rückkopplung.

Wie funktioniert die Wasserdampf-Rückkopplung?

Die Wasserdampf-Rückkopplung besteht aus einem 2-Schritt Prozess:

  • Wenn die Lufttemperatur um 1°C steigt, kann die Luft um 6% mehr Wasserdampf aufnehmen[29].  Es ist zu beachten, dass dieser Prozentsatz der maximal mögliche Wasserdampfgehalt ist. Ob dieser wirklich erreicht wird, hängt davon ab, ob genügend Wasserdampf zur Verfügung steht.
  • Der Strahlungstransport von Infrarotstrahlung hängt von der relativen Luftfeuchtigkeit ab:
    Zusätzliche Luftfeuchtigkeit reduziert die abgestrahlte Infrarotstrahlung infolge der Absorption durch den zusätzlichen Wasserdampf.
    Mit Hilfe des bereits erwähnten MODTRAN-Simulationsprogramms wird die Reduktion der Infrarotstrahlung um 0,69 W/m2 bei Erhöhung des Luftfeuchtigkeit um 6%, also z.B. von 80% auf 86% ermittelt[30]

Diese reduzierte Infrarotstrahlung ist ein negativer Strahlungsantrieb. Die diese Abschwächung kompensierende Temperaturerhöhung ist die primäre Rückkopplung g (englisch „gain“). Diese beträgt 0,19 °C als Folge der ursprünglichen Temperaturerhöhung um 1°C, also ist g=0,19.

Die Gesamtrückkopplung f (englisch „feedback“) ergibt sich als geometrische Reihe[31] infolge der rekursiven Anwendung des obigen Mechanismus – die 0,19°C zusätzliche Temperaturerhöhung haben ja eine erneute zusätzliche Wasserdampfbildung zur Folge. Dieser Zusammenhang wird von James Hansen in seiner Arbeit von 1984[32] beschrieben:

f = 1+ g + g2 + g3… = 1/(1-g).   

Mit g=0,19 ist demnach der Rückkopplungsfaktor f = 1,23.  

Unter Zugrundelegung eines Treibhauseffekts aus dem Strahlungstransport von 0,8°C erfolgt daraus zusammen mit der maximal möglichen Rückkopplung eine Temperaturerhöhung von 0,8°C . 1,23 = 0.984 °C  1°C, bei der hier ermittelten Sensitivität 0,5°C . 1,23 = 0,62 °C.  

Beide Werte sind niedriger als die kleinste publizierte Sensitivität von 1,5°C der beim IPCC verwendeten Modelle. Die seit dem Beginn der Industrialisierung erfolgte Erwärmung ist demnach selbst mit Rückkopplung 0,3°C . 1,23 = 0,37°C.

Damit ist belegt, dass auch die vielfach beschworene Wasserdampf-Rückkopplung zu keiner exorbitanten und schon gar keiner katastrophalen Klima-Erwärmung führt.

5.  Aber sie erwärmt sich doch? – Auswirkungen von Wolken.

An dieser Stelle aufzuhören, wird jeden, der sich mit dem Klimathema beschäftigt, mit der naheliegenden Frage unzufrieden zurücklassen: „Aber die Erde erwärmt sich doch, und zwar stärker, als die nach dem revidierten Treibhauseffekt samt Rückkopplung möglich wäre?“.

Deswegen werden hier die in der Klimadiskussion bis vor kurzem wenig beachteten Auswirkungen der tatsächlichen Wolkenbildung[33] untersucht.

Untersuchung der Veränderungen der weltweiten Wolkenbedeckung

Jay R Herman von der NASA[34] hat mit Hilfe von Satellitenmessungen über einen Zeitraum von mehr als 30 Jahren die mittlere Reflexivität der Wolkenbedeckung der Erde berechnet und ausgewertet:

Abbildung 10: Wolkenreflexivität zwischen 1979 und 2011

Er stellte einen klaren Trend der Abnahme der Wolkenbedeckung fest. Daraus berechnete er, wie sich dies auf die davon betroffenen Komponenten des globalen Energiebudgets auswirkt: 

Abbildung 11 Veränderung des Energiebudgets aufgrund der Veränderung der Wolkenreflexivität

Das Ergebnis war, dass aufgrund der reduzierten Wolkenbedeckung die Sonneneinstrahlung in 33 Jahren um 2,33 W/m2 zunahm. Das sind 0,7 W/m2 Strahlungsantrieb pro Jahrzehnt. Demgegenüber betrug die Abnahme der Abstrahlung infolge der Zunahme der CO2-Konzentration maximal 0,2 W/m2 pro Jahrzehnt[35].

Demzufolge ist nach dieser Untersuchung der Einfluss der Wolken mit 78% auf das Klima mindestens 3,5 mal größer als der des CO2, das demnach allenfalls einen Einfluss von 22% hat. 

Fazit – es gibt keine drohende Klimakatastrophe

Fassen wir die Stationen dieser Betrachtungen zur Dekonstruktion des Klimanarrativs noch einmal zusammen:

  1. Es gibt kein exponentielles Wachstum der CO2-Emissionen. Diese Phase gab es bis 1975, aber die ist längst vorbei, und die weltweiten Emissionen sind seit 10 Jahren auf einem Plateau angelangt.
  2. Die CO2-Konzentration wächst zwar trotz konstanter Emissionen noch an, aber deren Wachstum hat sich bereits verlangsamt, und wird unter Annahme des wahrscheinlichsten Emissionsszenarios in der 2. Hälfte des Jahrhunderts aufhören.
  3. Die physikalisch plausible Treibhauswirkung des CO2 ist sehr viel geringer als gewöhnlich behauptet wird, die unter realen atmosphärischen Bedingungen begründbare Sensitivität ist nur 0,5°C.
  4. Aus der Abschätzung der maximal möglichen Rückkopplungswirkung durch Wasserdampf ergibt sich die obere Grenze des Rückkopplungsfaktors als 1,25. Damit lassen sich keine Temperaturerhöhungen von 3°C oder mehr rechtfertigen
  5. Es gibt plausible einfache Erklärungen der Temperaturentwicklung der Erde. Die wichtigste davon ist, dass infolge der verschiedenen Maßnahmen der Luftreinhaltung (Reduzierung von Holz- und Kohleverbrennung, Katalysatoren bei Automobilen, etc.) die Aerosole in der Atmosphäre im Laufe der letzten 70 Jahre zurückgegangen ist, was zu einer Verminderung der Wolkenbildung und daher zu einer Erhöhung der Sonneneinstrahlung führte.   

[1] https://www.eecg.utoronto.ca/~prall/climate/skeptic_authors_table.html
[2] https://climatlas.com/tropical/media_cloud_list.txt
[3] https://www.cfact.org/2019/08/16/journal-nature-communications-climate-blacklist/
[4] z.B. https://clintel.org/
[5] Rohdaten: https://ourworldindata.org/co2-emissions
[6] Relatives Wachstum: https://www.statisticshowto.com/relative-rate-of-change-definition-examples/#:~:text=Relative%20rates%20of%20change%20are,during%20that%20ten%2Dyear%20interval.
[7] https://www.mathebibel.de/exponentielles-wachstum
[8] https://www.carbonbrief.org/global-co2-emissions-have-been-flat-for-a-decade-new-data-reveals/
[9] https://www.carbonbrief.org/analysis-global-co2-emissions-could-peak-as-soon-as-2023-iea-data-reveals/
[10] https://www.carbonbrief.org/global-co2-emissions-have-been-flat-for-a-decade-new-data-reveals/[
11] https://www.iea.org/data-and-statistics/charts/co2-emissions-in-the-weo-2021-scenarios-2000-2050
[12] https://www.nature.com/articles/d41586-020-00177-3
[13] https://rogerpielkejr.substack.com/p/a-rapidly-closing-window-to-secure
[14] https://iea.blob.core.windows.net/assets/4ed140c1-c3f3-4fd9-acae-789a4e14a23c/WorldEnergyOutlook2021.pdf
[15] https://judithcurry.com/2023/03/24/emissions-and-co2-concentration-an-evidence-based-approach/
[16] https://www.mdpi.com/2073-4433/14/3/566
[17] https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:22016A1019(01)
[18] http://web.archive.org/web/20210601091220/http:/www.physik.uni-regensburg.de/forschung/gebhardt/gebhardt_files/skripten/WS1213-WuK/Seminarvortrag.1.Strahlungsbilanz.pdf
[19] https://www.nature.com/articles/nature14240
[20] https://www.sciencedirect.com/science/article/pii/S0034425717304698
[21] https://climatemodels.uchicago.edu/modtran/
[22] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv3=102564&lv2=102248#:~:text=In%20der%20Standardatmosph%C3%A4re%20werden%20die,Luftdruck%20von%201013.25%20hPa%20vor.
[23] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv3=102520&lv2=102248#:~:text=Die%20Solarkonstante%20ist%20die%20Strahlungsleistung,diese%20Strahlungsleistung%20mit%20ihrem%20Querschnitt.
[24] https://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz
[25] https://wiki.bildungsserver.de/klimawandel/index.php/Albedo_(einfach)
[26] https://pubs.giss.nasa.gov/docs/1984/1984_Hansen_ha07600n.pdf
[27] https://www.hsgac.senate.gov/wp-content/uploads/imo/media/doc/hansen.pdf
[28] https://www.youtube.com/watch?v=FVQjCLdnk3k&t=600s
[29] Üblicherweise wird ein Wert von 7% angegeben, aber die 7% sind erst ab einer Höhe von 8 km infolge des dort verminderten Luftdrucks möglich.
[30] https://klima-fakten.net/?p=9287
[31] https://de.wikipedia.org/wiki/Geometrische_Reihe
[32] https://pubs.giss.nasa.gov/docs/1984/1984_Hansen_ha07600n.pdf
[33] Beim IPCC werden Wolken in der Regel nur als potentielle Rückkopplungsmechanismen behandelt.[34]https://www.researchgate.net/publication/274768295_A_net_decrease_in_the_Earth%27s_cloud_aerosol_and_surface_340_nm_reflectivity_during_the_past_33_yr_1979-2011
[35] https://www.nature.com/articles/nature14240




Wie groß ist der Treibhauseffekt in Deutschland? — eine statistische Analyse


[latexpage]

Hohe Korrelation als Indiz der Kausalität?

Die Argumentation, dass CO2 die mittlere globale Temperatur bestimmt, wird häufig mit diesem Diagramm, das eine starke Korrelation zwischen CO2-Konzentration und mittlerer globaler Temperatur zeigt, veranschaulicht oder sogar begründet, hier beispielsweise die in Maona Loa gemessene mittlere jährliche Konzentration und die jährlichen globalen Meeresoberflächentemperaturen:

Es gibt zwar zwischen 1900 und 1975 — immerhin 75 Jahre — starke systematische Abweichungen, aber seit 1975 ist die Korrelation stark.
Wenn wir versuchen, mit den seit 1959 verfügbaren CO2-Konzentrationsdaten von Maona Loa die deutschen Mitteltemperaturen zu erklären, bekommen wir eine klare Beschreibung des Trends der Temperaturentwicklung, aber keine Erklärung der starken Schwankungen:

Die aus den im Jahr $i$ gemessenen logarithmischen CO2-Konzentrationsdaten $ln(C_i)$ mit der Methode der kleinsten Quadrate geschätzte „Modelltemperatur“ $\hat{T}_i$ ergibt sich als
$\hat{T}_i = 7.5\cdot ln(C_i)- 35.1 $ (°C)

Nehmen wir als 2. Erklärungsvariable die jährlichen Sonnenstunden hinzu, so verbessert sich die Anpassung etwas, aber wir sind noch weit entfernt von einer vollständigen Erklärung der schwankenden Temperaturen. Der Trend wird erwartungsgemöß ähnlich gut wiedergeben, auch ein Teil der Schwankungen wird mit den Sonnenstunden erklärt, aber bei weitem nicht so gut, wie man es eigentlich von einer kausalen Bestimmungsgröße erwarten würde :

Die Modellgleichung für die geschätzte Temperatur $\hat{T}_i$ wird mit der Erweiterung der Sonnenstunden $S_i$ zu
$ \hat{T}_i = 5.8\cdot ln(C_i) + 0.002\cdot S_i – 28.5 $ (°C)
Das relative Gewicht der CO2-Konzentration hat bei insgesamt verbessertem statistischem Erklärungswert der Daten etwas abgenommen.

Allerdings sieht es so aus, als ob das Zeitintervall 1 Jahr viel zu lang ist, um die Auswirkung der Sonneneinstrahlung auf die Temperatur korrekt zu behandeln. Es ist offensichtlich, dass die jahreszeitlichen Schwankungen unzweifelhaft von der Sonneneinstrahlung verursacht werden.
Die Auswirkungen der Einstrahlung sind nicht alle spontan, es müssen auch Speichereffekte berücksichtigt werden. Das entspricht unserer Wahrnehmung, dass die Wärmespeicherung der Sommerwärme 1-3 Monate anhält, und z.B. die wärmsten Monate erst nach der Zeit der größten Sonneneinstrahlung sind. Deswegen müssen wir ein auf dem Energiefluss beruhendes Modell erstellen, das mit monatlichen Messwerten gefüttert wird, und das eine Speicherung vorsieht.

Energieerhaltung – Verbesserung des Modells

Um das Verständnis zu verbessern, erstellen wir ein Modell mit monatlichen Daten unter Berücksichtigung der physikalischen Vorgänge (die Monate werden mit der Indexvariablen $i$ durchgezählt):

  • Durch die Sonneneinstrahlung wird der Erdoberfläche Energie zugeführt, diese wird monatlich als proportional zur Zahl der Sonnenstunden $S_i$ angenommen,
  • unter der Annahme des Treibhauseffekts wird ebenfalls Energie zugeführt, für die monatliche Energieaufnahme (bzw. verhinderte Energieabgabe) wird eine lineare Funktion von $ln(C_i)$ angenommen,
  • die oberste Schicht der Erdoberfläche speichert die Energie und gibt sie wieder ab, die monatliche Abgabe wird als eine lineare Funktion der Temperatur $T_i$ angenommen,
  • die monatliche Temperaturänderung in Deutschland wird als proportional zur Energieänderung angenommen.

Daraus ergibt sich diese modellierte Bilanzgleichung, die Konstante $d$ erlaubt es, beliebig skalierte Maßeinheiten zu verwenden:
$ \hat{T}_i – \hat{T}_{i-1} = a\cdot \hat{T}_{i-1} + b\cdot S_i + c\cdot ln(C_i) + d $
Auf der linken Seite der Gleichung steht die Temperaturveränderung als Repräsentant der Energiebilanzänderung, während die rechte Seite die Summe der Ursachen dieser Energieänderung darstellt.
Für die Bestimmung der Koeffizienten $a,b,c,d$ mit der Methode der kleinsten Quadrate wird statt der modellierten Temperatur $\hat{T}_i$ die gemessene Temperatur $T_i$ eingesetzt.

Hier sind zunächst die monatliche Temperatur- und Sonnenstundendaten. Es ist erkennbar, dass die Temperaturdaten den Sonnenstundendaten um etwa 1-2 Monate hinterherhinken, aber insgesamt einen ähnlichen Verlauf haben:

Dies passt zu der Annahme, dass wir tatsächlich einen Speichereffekt haben. Die Bilanzgleichung sollte also sinnvolle Werte liefern. Für die Auswertung des Schätzergebnisses müssen wir allerdings genauer hinschauen.

In dieser Darstellung sind in der 1. Spalte die Werte der jeweiligen Koeffizienten, in der 2. Spalte deren Standardfehler, danach die sogenannte T-Statistik, gefolgt von der Wahrscheinlichkeit, dass die Annahme des von 0 verschiedenen Koeffizienten falsch ist, der sogenannten Irrtumswahrscheinlichkeit. Das bedeutet, dass ein Koeffizient nur dann signifikant ist, wenn diese Wahrscheinlichkeit nahe 0 ist. Dies ist der Fall, wenn die T-Statistik größer 3 oder kleiner -3 ist. Die beiden letzten Spalten beschreiben schließlich das sog. 95% Konfidenzintervall. Das bedeutet, dass mit 95%-iger Wahrscheinlichkeit sich der tatsächliche Schätzwert innerhalb dieses Intervalls befindet.

     Koeffizient  Std.Fehler   t-Wert    P>|t|    [0.025     0.975]
--------------------------------------------------------------------
a -0.4826 0.0142 -33.9049 0.0000 -0.5105 -0.4546
b 0.0492 0.0013 38.8127 0.0000 0.0467 0.0517
c 0.6857 0.9038 0.7587 0.4483 -1.0885 2.4598
d -6.3719 5.3013 -1.2020 0.2297 -16.7782 4.0344

Hier sind die Irrtumswahrscheinlichkeiten der Koeffizienten $c$ und $d$ mit 45% bzw. 23% dermaßen groß, dass wir daraus schließen müssen, dass sowohl $c=0$ also auch $d=0$ sind. $c$ misst die Bedeutung der CO2-Konzentration für die Temperatur. Das bedeutet, dass in Deutschland seit 64 Jahren die CO2-Konzentration keinen statistisch signifikanten Einfluss auf die Temperaturentwicklung hat. Dies aber ist der Zeitraum der größten anthropogenen Emissionen der Geschichte.
Dass $d$ ebenfalls den Wert 0 annimmt, ist eher dem Zufall geschuldet, denn diese Konstante hängt von den Maßeinheiten der CO2-Konzentration und der Temperatur ab.

Demzufolge wird die Bilanzgleichung angepasst:
$ T_i – T_{i-1} = a\cdot T_{i-1} + c\cdot S_i + d $
mit dem Ergebnis:

       Koeffizient Std.Fehler    t-Wert    P>|t|    [0.025    0.975]
--------------------------------------------------------------------
a -0.4823 0.0142 -33.9056 0.0000 -0.5102 -0.4544
b 0.0493 0.0013 38.9661 0.0000 0.0468 0.0517
d -2.3520 0.1659 -14.1788 0.0000 -2.6776 -2.0264

Hier ist nun die Konstante $d$ aufgrund des Umstandes, dass $c=0$ ist, wieder mit hoher Signifikanz gültig. Die beiden anderen Koeffizienten $a$ und $b$ haben sich kaum verändert. Sie verdienen eine kurze Diskussion:

Der Koeffizient $a$ gibt an, welcher Teil der als Temperatur gemessenen Energie im Laufe eines Monate wieder abgegeben wird. Das ist fast die Hälfte. Dieser Faktor ist unabhängig vom Nullpunkt der Temperaturskala, bei der Wahl von K oder Anomalien statt °C käme derselbe Wert heraus. Der Wert entspricht etwa dem subjektiven Empfinden, wie sich im Sommer die Zeiten größter Temperatur zeitlich gegenüber dem Maximum der Sonneneinstrahlung verschieben.
Der Koeffizient $b$ gibt an, mit welchem Faktor sich die Sonnenstunden in monatliche Temperaturänderung übersetzen.

Das Ergebnis ist nicht nur eine abstrakte Statistik, es lässt sich auch veranschaulichen, indem der monatliche Temperaturverlauf der letzten 64 Jahre mit Hilfe des beschriebenen Modells rekonstruiert wird.

Die Rekonstruktion des gesamten Temperaturverlauf ergibt sich aus der Zeitreihe der Sonnenstunden und einem einzigen Temperatur-Startwert $\hat{T}_{-1}=T_{-1}$, dem Vormonat des Beginns der untersuchten Zeitreihe seit 1959, also hier vom Dezember 1958.
Die Rekonstruktion erfolgt mit dieser Rekursion aus den Sonnenstunden über die 768 Monate vom Januar 1959 bis Dezember 2023:
$\hat{T}_i = \hat{T}_{i-1} + a\cdot \hat{T}_{i-1} + b\cdot S_i + d$ $(0\leq i < 768 ) $

Hier die vollständige Rekonstruktion der Temperaturdaten im Vergleich der Original-Temperaturdaten:

Der deutlicheren Darstellung wegen werden die letzten 10 Jahre vergrößert dargestellt:

Es fällt auf, dass das Residuum, d.h. die Abweichungen der Rekonstruktion von den tatsächlichen Temperaturen bis zum Ende des untersuchten Zeitraums um 0 herum symmetrisch erscheint und keine offensichtlichen systematischen Abweichungen zeigt. Das Maß des Fehlers der Rekonstruktion ist die Standardabweichung des Residuums. Diese beträgt 2.5°C. Da wir einen langen Zeitraum von 64 Jahren untersuchen, könnte eine Feinanalyse der langfristigen Trends von Original-Temperaturen, Rekonstruktion und Residuum eine mögliche Obergrenze des möglichen Einflusses von CO2 finden.

Feinanalyse des Residuums

Wenn wir von den 3 Kurven Originaltemperaturdaten, Rekonstruktion und Residuum über den ganzen 64-Jahre Zeitraum die mittlere Steigung durch Schätzung einer Ausgleichsgeraden bestimmen, bekommen wir folgende langfristige Werte:

  • Originaltemperaturdaten: 0.0027 °C/Monat = 0.032 °C/Jahr
  • Rekonstruierte Temperaturdaten: 0.0024°C/Monat = 0.029 °C/Jahr
  • Residuum: 0.00028 °C/Monat = 0.0034 °C/Jahr

Vom Trend der Originaltemperaturen werden 90% durch die Zahl der Sonnenstunden erklärt. Für weitere Ursachen bleiben also nur noch 10% an nicht erklärter Variabilität übrig. Bis zum Beweis des Gegenteils können wir also annehmen, dass höchstens für diese 10% der Anstieg der CO2-Konzentration verantwortlich ist, also für maximal 0.03° C pro Jahrzehnt während der letzten 64 Jahre. Statistisch kann aber der Beitrag der CO2-Konzentration nicht als signifikant beurteilt werden.
Zu bedenken ist, dass mit diesem einfachen Modell sehr viele Einflussfaktoren und Inhomogenitäten nicht berücksichtigt sind, dass also der Einfluss der CO2-Konzentration nicht der einzige Faktor ist, der zusätzlich zu den Sonnenstunden wirksam ist. Deswegen wird der CO2 Einfluss ja auch als statistisch nicht als signifikant bewertet.

Erweiterung — Korrektur durch Approximation der tatsächlichen Einstrahlung

Bislang haben wir die Sonnenstunden als Repräsentant des tatsächlichen Energieflusses verwendet werden. Das ist nicht ganz korrekt, denn eine Sonnenstunde im Winter bedeutet aufgrund des viel flacheren Einfallswinkels deutlich weniger eingestrahlte Energie als im Sommer.

Der jahreszeitliche Verlauf der Wichtung des einströmenden Energieflusses hat diese Form. Mit dieser Wichtung müssen die Sonnenstunden multipliziert werden, um den Energiefluß zu erhalten.

Mit diesen monatlichen Wichtungen wird das Modell aus Sonneneinstrahlung und CO2 erneut bestimmt. Wiederum muss der Beitrag des CO2 wegen mangelnder Signifikanz abgelehnt werden. Daher hier die Rekonstruktion der Temperatur aus dem einstrahlenden Energiefluss etwas besser als die obige Rekonstruktion.

Durch die Korrektur der Sonnenstunden zum Energiefluss hat sich der Standardabweichung des Residuums auf 2.1°C verringert.

Mögliche Verallgemeinerung

Weltweit ist die Erfassung der Sonnenstunden weitaus weniger vollständig als die der Temperaturmessung. Daher können die Ergebnisse für Deutschland nicht einfach weltweit reproduziert werden.
Aber es wird mit Satelliten die Wolkenbedeckung bzw. die Reflexion der Sonneneinstrahlung an den Wolken gemessen. Mit diesen Daten kommt man zu ähnlichen Ergebnissen, dass nämlich der Anstieg der CO2-Konzentration allenfalls für 20% der weltweit mittleren Temperaturerhöhung verantwortlich ist. Da diese im Schnitt niedriger ist als die Temperaturerhöhung in Deutschland, führt das am Ende ebenfalls zu einer Obergrenze von 0.03°C pro Jahrzehnt für die Folgen des CO2-bedingten Treibhauseffekts.




Wie funktioniert der Treibhauseffekt?

Über den Treibhauseffekt ist schon viel geschrieben worden, und viele Vergleiche werden angestellt. Vieles davon ist jedoch irreführend oder sogar falsch.
Der Treibhauseffekt kommt dadurch zustande, dass bei zunehmendem CO2 ein leicht wachsender Anteil der Infrarot-Strahlung aus den oberen, kalten Schichten der Erd-Atmosphäre (d.h. der Stratosphäre) in den Weltraum abgestrahlt wird.
Der Sachverhalt ist im Detail kompliziert, daher ist es auch so einfach, den Bürgern mit Übertreibungen, Verzerrungen oder Lügen Angst zu machen. Hier möchte ich ohne Formeln und anschaulich die Grundlagen des atmosphärischen Treibhauseffektes physikalisch korrekt beschreiben, bei dem das CO2 eine wichtige Rolle spielt.

Aus dem Weltraum betrachtet, erfolgt der Temperaturhaushalt der Erdoberfläche und der Atmosphäre durch

  • Einstrahlung von kurzwelligem, zum großen Teil sichtbarem Sonnenlicht und durch
  • Abstrahlung von langwelliger unsichtbarer Infrarotstrahlung.

Wenn der Energieinhalt der Einstrahlung gleich ist wie der Energieinhalt der Abstrahlung, gibt es ein Gleichgewicht, und die Durchschnittstemperatur der Erde bleibt konstant. Eine Erwärmung findet immer dann statt, wenn entweder die Abstrahlung abnimmt oder die Einstrahlung zunimmt, und zwar so lange, bis das Gleichgewicht wiederhergestellt ist.

Die Infrarotabstrahlung ist der einzige Weg, wie die Erde Energie (Wärme) in den Weltraum abgeben kann. Deshalb ist es notwendig zu verstehen, wie die Mechanismen der Infrarot-Abstrahlung funktionieren.

Die Mechanismen der Infrarot-Abstrahlung in den Weltraum

Es gibt nur 2 Möglichkeiten, wie die Erde Energie in den Weltraum abgeben kann:

  • Die Moleküle der Erdoberfläche oder der Meeresoberfläche strahlen Infrarotwellen bei der Bodentemperatur ab (durchschnittlich 15°C = 288 K).
  • Die Moleküle der sogenannten Treibhausgase, vorwiegend Wasserdampf und CO2 (in sehr viel geringerem Umfang Methan und einige andere Gase), strahlen Infrarotwellen aus der Atmosphäre heraus ab, bei der jeweils in ihrer Umgebung herrschenden Temperatur. Die anderen Gase der Atmosphäre wie Sauerstoff oder Stickstoff haben keine Möglichkeit, nennenswerte Mengen an Infrarotstrahlung abzugeben.
    CO2 unterscheidet sich von Wasserdampf darin, dass es nur in einem kleinen Wellenlängenbereich aktiv ist. Andererseits nimmt der Anteil der Wasserdampfmoleküle in der Atmosphäre ab 5 km Höhe sehr schnell ab, weil der Wasserdampf bei Abkühlung wieder zu Wolken kondensiert und dann abregnet. Das können wir daran erkennen: Im Flugzeug in 10km Höhe sind wir stets über den Wolken. Und oberhalb der Wolken gibt es so gut wie keinen Wasserdampf mehr.
    CO2 ist jedoch bis in die höchsten Schichten der Atmosphäre gleichmäßig vermischt mit den anderen Gasen, vornehmlich Sauerstoff und Stickstoff.

CO2 und Wasserdampf sind also wie zwei konkurrierende Handballmannschaften, von denen die eine (der Wasserdampf) nur bis zu Mittelline laufen darf, und die andere (CO2) sich nur innerhalb eines schmalen Längsstreifens des Spielfeldes bewegen kann. Dieser schmale Längsstreifen wird ein klein wenig breiter, wenn die „CO2 Mannschaft“ mehr Spieler (mehr CO2) bekommt. Das Tor ist für beide Mannschaften das gleiche (der Weltraum) und es erstreckt sich über die ganze Breite des Spielfelds. Solange der Ball noch weit vom Tor entfernt ist, fängt ihn ein anderer Spieler eher auf, als dass er ins Tor gelangt. Dieser andere Spieler spielt den Ball in eine zufällige Richtung wieder ab. Je dichter die Spieler stehen, desto schneller werden die Bälle wieder gefangen und wieder abgespielt. Je näher der Ball zum Tor kommt, desto weiter stehen die Spieler auseinander. Das heißt, dass der Ball dann leichter zwischen den Spielern hindurch ins Tor gelangen kann.

Solange sich noch andere Treibhausgasmoleküle in der Nähe befinden, kann also die Infrarotstrahlung nicht in den Weltraum gelangen (zu dicht stehende Mitspieler), sie wird wieder von den anderen Molekülen aufgefangen und von diesen wieder abgestrahlt. Konkret hat die Infrarotstrahlung in der unteren Atmosphäre nur eine Reichweite von etwa 25m, bis sie wieder von einem anderen Treibhausgasmolekül aufgefangen wird, meist von einem Wassermolekül oder von CO2 . Je dünner die Treibhausgase (weniger Mitspieler) in der Atmosphäre mit zunehmender Höhe werden, desto wahrscheinlicher wird es, dass die Infrarotstrahlung in den Weltraum gelangt.

Daraus kann man schließen, dass es im Prinzip 3 Schichten gibt, aus denen Infrarotstrahlung in den Weltraum gelangt:

  • Wenn die Luft trocken ist und ohne Wolken, dann gibt es einen Teil des Infrarots, das sog. „atmosphärische Fenster„, das direkt vom Boden aus in den Weltraum strahlt (das ist, wenn es keine oder nur sehr wenige Wasserdampf-Spieler auf dem Feld gibt),
  • zwischen 2 und 8 km Höhe, durchschnittlich in 5 km Höhe, ist der obere Rand der Wolken, von wo aus die Wasserdampfmoleküle der Wolken einen großen Anteil der Infrarotstrahlung bei durchschnittlich 255 K = -18°C in den Weltraum abgeben
  • der Anteil Infrarotstrahlung im Wellenlängenbereich um 15 Mikrometer herum (der schmale Streifen des Spielfeldes) wird vom CO2 bis in die hohen kalten Schichten der Stratosphäre transportiert, von wo aus sie bei etwa 220 K = -53°C in den Weltraum abgestrahlt wird.

Dadurch kommt es zu einer Konkurrenzsituation, ob ein Wassermolekül direkt abstrahlen kann oder ob seine Infrarotstrahlung noch von einem CO2-Molekül aufgefangen und in die Höhen der Stratosphäre weitergeleitet wird.

Der Treibhauseffekt

Wie kommt es nun bei einer wachsenden CO2-Konzentration zur verringerten Energieabstrahlung in den Weltraum und damit zu einer Erwärmung?

Dafür ist es wichtig zu wissen, dass mit abnehmender Luft-Temperatur die abgestrahlte Energie stark abnimmt und dass mit zunehmender Höhe die Temperatur abnimmt. Wenn die CO2-Konzentration im Laufe der Zeit zunimmt, dann wird der Wellenlängenbereich, in dem das CO2 für die Abstrahlung „zuständig“ ist, ein klein wenig breiter (der schmale Streifen des Spielfeldes). Das bedeutet, dass ein kleiner Teil der Infrarotstrahlung, die sonst bei 255 K vom Wasserdampf abgestrahlt würde, nun bei 220 K vom CO2 abgestrahlt wird, also mit deutlich niedrigerer Energie. Das bedeutet in der Konsequenz, dass die Energie der Gesamtabstrahlung leicht vermindert wird — die als konstant angenommene Einstrahlung des Sonnenlichts also überwiegt und damit ein Erwärmungseffekt eintritt.

Der Effekt ist allerdings nicht so groß, wie er gewöhnlich in den Medien dargestellt wird:
Denn seit dem Beginn der Industrialisierung hat bei einer Steigerung der CO2-Konzentration um 50% von 280 ppm auf 420 ppm die Infrarotabstrahlung der Erde um grade mal 2 Watt/qm abgenommen. Das sind bei einer durchschnittlichen Abstrahlung von 240 Watt/qm1 nur knapp 1% in 170 Jahren.
Jetzt kennen wir die erste Möglichkeit, wie das eingangs erwähnte Gleichgewicht durch eine Veränderung der Abstrahlung gestört wird. Aber bisher nur in sehr geringem Umfang.

Die Auswirkungen veränderter Einstrahlung sind größer als der Treibhauseffekt

Die zweite Möglichkeit, das Gleichgewicht zu stören, sind die Änderungen der Einstrahlung.
Die Schwankungen der Einstrahlung, die durch wechselnde Wolkenbedeckung hervorgerufen werden, sind bis bis zu 100 mal größer als die genannten 2 W/qm (was Besitzer von Photovoltaikanlagen bestätigen können), die dem Treibhauseffekt zuzurechnen sind. Damit zusammenhängend nimmt in Deutschland laut Deutschem Wetterdienst die Zahl der Sonnenstunden seit 70 Jahren um 1,5% pro Jahrzehnt zu2. Also in weniger als 10 Jahren ein größerer Effekt als durch den Treibhauseffekt in 170 Jahren. Für einen genaueren zahlenmäßigen Vergleich müssen beide zu vergleichenden Messdaten im betreffenden Zeitraum vorhanden sein: In dem Zeitraum der letzten 40 Jahre gab es durch die Zunahme der Sonnenstunden in Deutschland die 6-fache Erwärmung im Vergleich zum Treibhauseffekt. Die Änderungen der Sonneneinstrahlung sind also in weitaus größerem Maße für die Erwärmung der Erde verantwortlich als die Änderungen der CO2-Konzentration.

Damit ist der allgemein bekannte positive Treibhauseffekt beschrieben und eingeordnet. Es gibt also keinen Grund, mit dem Treibhauseffekt Angst und Panik zu begründen. Und es ist dringend notwendig, dass sich die Forschung, die Medien und die Politik mit dem Einfluss und den Ursachen der zunehmenden Sonnenstunden beschäftigen. Eine erste genauere Analyse der Daten des Deutschen Wetterdienstes ergibt, dass die Änderungen der Sonnenstunden in Deutschland die monatlichen Temperaturen der letzten 70 Jahre zu 90% erklären, und dass der Treibhauseffekt in Deutschland keinen statistisch signifikanten Einfluss hat.

Es fehlt noch ein wichtiges Phänomen: In der Antarktis führt der Erhöhung der CO2-Konzentration zur Abkühlung, das nennt man den negativen Treibhauseffekt.

Der negative Treibhauseffekt in der Antarktis

Es gibt einen eigenartigen Effekt, wenn wir die eine Gegend der Erde betrachten, wo die Erdoberfläche zeitweise noch kälter ist als die 220 K, bei der die Infrarotabstrahlung des CO2 in den Weltraum erfolgt: In der Antarktis, wo Temperaturen unter -60°C (=213 K) keine Seltenheit sind, finden wir tatsächlich einen negativen Treibhauseffekt.
Wo also eine Abkühlung bei zunehmender CO2-Konzentration stattfindet.
Bei zunehmender CO2-Konzentration nimmt zwar wie sonst auch der Anteil der Infrarotabstrahlung des CO2 zu. Jetzt ist aber die CO2-Schicht mit 220 K wärmer als die Erdoberfläche der Antarktis. Und damit wird vom CO2 in der Atmosphäre mehr Wärme abgeführt als von der Erdoberfläche darunter.
Mit anderen Worten: In der Antarktis gilt, dass aufgrund der Zunahme der CO2-Konzentration die Wärmeabfuhr in den Weltraum verstärkt wird, und es demnach dort kälter wird und nicht wärmer.




Temperaturabhängigkeit der natürlichen CO2 Quellen und Senken


[latexpage]

Bei dem in diesem Blog und anderswo publizierten einfachen Modell der CO2-Senken und der natürlichen Emissionen tauchte in der Diskussion darüber immer wieder die Frage auf: Wie wird die — offensichtliche — Temperaturabhängigkeit der natürlichen CO2-Quellen, beispielsweise die ausgasenden Ozeane, oder der Senken wie die Photosynthese, berücksichtigt? Denn in dem Modell kommt keine langfristige Temperaturabhängigkeit vor, allenfalls ein kurzfristig zyklische. Ein langfristiger Trend der Temperaturabhängigkeit ist in den letzten 70 Jahren auch bei sorgfältiger Analyse nicht erkennbar.
In der zugrunde liegenden Publikation wurde ausgeschlossen, dass der Absorptionskoeffizient temperaturabhängig sein kann (Kapitel 2.5.3). Allerdings blieb dabei offen, ob nicht doch eine direkte Temperaturabhängigkeit der Quellen oder Senken möglich ist. Und warum diese nicht aus der statistischen Analyse erkennbar ist. Dies wird in dem vorliegenden Beitrag behandelt.

Ursprüngliches temperaturunabhängiges Modell

Die vereinfachte Form der CO2 Massenerhaltung in der Atmosphäre (siehe Gleichungen 1,2,3 der Publikation) mit anthropogenen Emissionen $E_i$ im Jahre $i$, den sonstigen, überwiegend natürlichen Emissionen $N_i$ (zur Vereinfachung werden die Landnutzungsemissionen den natürlichen Emissionen zugeschlagen), dem Zuwachs des CO2 in der Atmosphäre $G_i = C_{i+1} – C_i$ ($C_i$ ist atmosphärische CO2 Konzentration) und den Absorptionen $A_i$ ist:
$E_i – G_i = A_i – N_i$
Die Differenz der Absorptionen und der natürlichen Emissionen wurde linear modelliert mit einem konstanten Absorptionskoeffizienten $a$ und einer Konstante $n$ für die jährlichen natürlichen Emissionen:
$A_i – N_i = a\cdot C_i + n$

Während die Absorptionskonstante und der lineare Zusammenhang zwischen Absorption und Konzentration physikalisch sehr gut begründet und belegt ist, erscheint die Annahme der konstanten natürlichen Emissionen willkürlich. Daher ist es erhellend, statt eines konstanten Ausdrucks $n$ stattdessen aus den Messdaten und der berechneten Absorptionskonstanten $a$ das Residuum
$N_i = G_i – E_i + a\cdot C_i $
zu betrachten:

Der Mittelwert von $N_i$ ergibt den konstanten Modellterm $n$. Mit einer leichten Glättung ergibt sich ein periodischer Verlauf. Roy Spencer hat diese Schwankungen mit dem El Nino begründet, wobei nicht eindeutig ist, ob die Schwankungen den Absorptionen $A_i$ oder den natürlichen Emissionen $N_i$ zuzuordnen sind. Aber es ist keinerlei langfristiger Trend erkennbar. Daher ist die Frage zu klären, warum zwar kurzfristige Temperaturabhängigkeiten vorhanden sind, aber die langfristige globale Erwärmung im Modell anscheinend keine Entsprechung hat.

Temperaturabhängiges Modell

Nun erweitern wir das Modell, indem wir sowohl für die Absorptionen $A_i$ als auch für die natürlichen Emissionen $N_i$ zusätzlich eine lineare Temperaturabhängigkeit zulassen. Da unsere Messdaten nur deren Differenz liefern, können wir die Temperaturabhängigkeit dieser Differenz in einer einzigen linearen Funktion der Temperatur $T_i$, also $b\cdot T_i + d$ darstellen. Gesetzt den Fall, dass sowohl $A_i$ also auch $N_i$ temperaturabhängig sind, ist die Differenz der dazugehörigen linearen Ausdrücke wieder einen linearen Ausdruck. Demnach hat das erweiterte Modell diese Gestalt.
$A_i – N_i = a\cdot C_i + n + b\cdot T_i + d$
Im Prinzip könnten $n$ und $d$ zu einer einzigen Konstanten zusammengefasst werden. Da aber $d$ von der verwendeten Temperaturskala abhängt, und $n$ von der Maßeinheit der CO2 Konzentration, belassen wir es bei 2 Konstanten.

CO2 Konzentration als Proxy für Temperatur

Wie bereits in der Publikation im Kapitel 2.3.2 dargelegt, gibt es zwischen der CO2-Konzentration und der Temperatur einen Zusammenhang mit hoher Korrelation. Woher dieser Zusammenhang kommt, d.h. ob es einen kausalen Zusammenhang gibt (und in welcher Richtung) ist für diese Untersuchung unerheblich. Allerdings stellen wir hier nicht den Zusammenhang zwischen $T$ und $log(C)$ her, sondern den zwischen $T$ (Temperatur) und $C$ (CO2 Konzentration ohne Logarithmus).

Demzufolge kann die Temperatur-Anomalie aus der Konzentration mit der linearen Funktion
$T_i = e\cdot C_i + f$
mit
$e=0.0083, f=-2.72 $
approximiert werden.

Verwendung des CO2-Proxy in der temperaturabhängigen Gleichung

Setzt man für die Temperatur deren Proxy-Funktion in die temperaturabhängige Gleichung ein, so ergibt sich folgende Gleichung:
$A_i – N_i = a\cdot C_i + n + b\cdot (e\cdot C_i + f) + d $
bzw.
$A_i – N_i = (a+b\cdot e)\cdot C_i + (n+b\cdot f\cdot) + d $
Der Ausdruck auf der rechten Seite hat jetzt wieder die gleiche Gestalt wie die ursprüngliche Gleichung, also
$A_i – N_i = a`\cdot C_i + n` $
mit
$ a` = a + b\cdot e $
$ n` = n + b\cdot f + d $

Schlussfolgerungen

Daher können bei einer linearen Abhängigkeit der Temperatur von der CO2-Konzentration Temperatureffekte der Senken und Quellen nicht von Konzentrationseffekten unterschieden werden, beide gehen in die „effektive“ Absorptionskonstante $a`$ und die Konstante der natürlichen Emissionen $n`$ ein. Daher enthält das einfache lineare Quellen- und Senkenmodell sämtliche linearen Temperatureinflüsse.
Das erklärt die erstaunliche Unabhängigkeit des Modells von der globalen Temperaturerhöhung der letzten 70 Jahre.
Außerdem legt dieser Zusammenhang nahe, dass sich das Absorptionsverhalten der beiden atmosphärischen Senken auch in Zukunft nicht ändert.

Will man allerdings wissen, wie sich die Temperatur genau auf die Quellen und Senken auswirkt, müssen andere Datenquellen herangezogen werden. Für die Prognose künftiger CO2-Konzentration aus anthropogenen Emissionen ist dieses Wissen aufgrund des gefundenen Zusammenhangs nicht notwendig, vorausgesetzt der lineare Zusammenhang zwischen Temperatur und CO2-Konzentration bleibt uns noch eine Weile erhalten.




Der Wendepunkt der CO2-Konzentration


[latexpage]

Und steigt und steigt…?

Auf den ersten Blick steigt die atmosphärische CO2-Konzentration fortwährend an, dargestellt an den Jahresmittelwerten, die in Maona Loa gemessen werden (ftp://aftp.cmdl.noaa.gov/products/trends/co2/co2_mm_mlo.txt):

Die zentrale Frage, die sich stellt, ist die, ob die Konzentration immer schneller wächst, d.h. ob jedes Jahr mehr dazukommt? Dann wäre die Kurve konkav, also also nach oben gekrümmt.

Oder wird der jährliche Anstieg der Konzentration immer geringer? Dann wäre sie konvex, also nach unten gekrümmt.

Oder gibt es einen Übergang, also einen Wendepunkt im mathematischen Sinne? Das wäre daran zu erkennen, dass zunächst der jährliche Zuwachs immer größer wird, und ab einem bestimmten Zeitpunkt abnimmt.

Auf den ersten Blick erscheint die Gesamtkurve konkav, was bedeutet dass der jährliche Anstieg der Konzentration mit jedem Jahr augenscheinlich zunimmt.

Die Beantwortung dieser Frage ist entscheidend für die Frage, wie dringend Maßnahmen zur Eindämmung von CO2 Emissionen sind.

Genauere Untersuchung mit dem gemessenen jährlichen Anstieg

Um einen genaueren Eindruck zu bekommen, berechnen wir den jährlichen Anstieg der CO2-Konzentration (Stand 2023):

Damit bestätigt sich, dass bis 2016 ein klarer Trend zu immer höherem jährlichen Konzentrationsanstieg bestand, von knapp 0.75 ppm/Jahr im Jahre 1960 bis über 2.5 ppm/Jahr im Jahre 2016.

Seit 2016 geht jedoch der jährliche Anstieg zurück. Dabei spielt gewiss der Corona-bedingte Emissionsrückgang eine Rolle, dieser erklärt aber nicht den bereits 2016 einsetzenden Rückgang.

Es gibt also in der Konzentrationskurve im Jahre 2016 einen Wendepunkt, eine Trendumkehr von zunehmendem Konzentrationswachstum zu abnehmendem Konzentrationswachstum. Gibt es dafür eine zufriedenstellende Erklärung? Dies ist wesentlich, denn wenn wir absehen können, dass der Trend zurückgehenden Anwachsens der Konzentration anhält, dann ist absehbar, dass die Konzentration irgendwann nicht mehr weiter ansteigt und das Ziel des Pariser Klimaabkommens, das Gleichgewicht zwischen CO2-Quellen und CO2-Senken erreicht werden kann.

Erklärung durch stagnierende Emissionen

Im Rahmen des Global Carbon Brief Projekts hat Zeke Hausfather 2021 aufgrund neuer Erkenntnisse die Werte der globalen CO2-Emissionen der letzten 20 Jahre revidiert, mit dem wichtigen Ergebnis, dass die globalen Emissionen seit 10 Jahre im Rahmen der Messgenauigkeit konstant sind:

Um die Auswirkungen dieser wichtigen Erkenntnis zu bewerten, muss man den Zusammenhang zwischen Emissionen und CO2-Konzentration kennen.

Aus meinen eigenen Recherchen dazu in einer Publikation und in einem danach mit neuen Erkenntnissen ergänzten Blogbeitrag folgt, dass sich der Konzentrationsanstieg aus den Emissionen und den Absorptionen ergibt, die proportional zur CO2-Konzentration sind. Dieses Modell wurde in ähnlicher Form auch von anderen beschrieben und publiziert:

Trivialerweise folgt aus der Massenerhaltung, dass die Konzentration $C_i$ am Ende des Jahres $i$ aus der Konzentration des Vorjahres $C_{i-1}$, den natürlichen Emissionen $N_i$, den anthropogenen Emissionen $E_i$ und den Absorptionen $A_i$ ergibt:

\begin{equation}\label{mass_conservation}C_i = C_{i-1} + N_i + E_i – A_i \end{equation} Daraus ergibt sich unmittelbar die aus Emissionen und gemessenem Konzentrationsanstieg berechneten effektive Absorption:

\begin{equation}\label{absorption_measurement}A_i – N_i = E_i – (C_i – C_{i-1}) \end{equation}
Mit der Definition des Konzentrationswachstums
$G_i = C_i – C_{i-1} $
ergibt sich, dass die gesamte Senkenwirkung sich zwingend aus der Differenz der Emissionen und dem Konzentrationswachstum ergibt – ohne dass man wissen muss, wie diese Senkenwirkung im Detail zustande kommt. Dabei hat diese Gesamtsenkenwirkung zwei Komponenten, und zwar die Jahressumme aller Absorptionen, die zu $A_i$ zusammengefaßt werden, und die als $N_i$ zusammengefaßten sog. „natürlichen Emissionen“, das ist die Jahressumme sämtlicher Emissionen außer den anthropogenen, die separat als $E_I$ geführt werden:

\begin{equation}\label{absorption_measurement}A_i – N_i = E_i – G_i \end{equation}
Unter der Annahme konstanter jährlicher natürlicher Emissionen
$N_i = n$
und der linearen Modellannahme, also dass die Absorptionen proportional zur Konzentration des Vorjahres sind,
$A_i = a\cdot C_{i-1}$
wird das Absorptionsmodell als lineares Modell der Konzentration erstellt (diese beiden Annahmen werden ausführlich in der Publikation begründet):

\begin{equation}\label{absorption_equ}E_i – G_i = a\cdot C_{i-1} – n\end{equation}
Mit $n = a\cdot C_0$ läßt sich die Modellgleichung umformulieren, es ergibt sich damit die Gleichgewichtskonzentration $C_0$ für den Fall von Nullemissionen, also die vorindustrielle Gleichgewichtskonzentration :

\begin{equation}\label{absorption_equ}E_i – G_i = a\cdot(C_{i-1} – C_0)\end{equation}

Die Regressionsrechnung dieses Gleichungssystems mit den aktuellen CO2 Emissionsdaten (Selektion country = World) liefert das Ergebnis $a=0.0187$ und $C_0 = 277 ppm $. Bei dieser Berechnung werden die Emissionen aufgrund von Landnutzungsänderungen nur anteilig (23%) berücksichtigt. Dies erklärt die zahlenmäßigen Unterschiede des Ergebnisses mit denen der zitierten Publikationen. Das geringe Wichtung der Landnutzungsänderungen ist gerechtfertigt:

  • Alle Quellen stimmen darin überein, dass die veröffentlichten Werte der Emissionen durch Landnutzungsänderung stark fehlerbehaftet sind,
  • Mit der Wichtung der Emissionen durch Landnutzungsänderungen von etwa 25% führt das Modell zu einer Gleichgewichtskonzentration $C_0$, die der vorindustriellen Gleichgewichtskonzentration von etwa 280 ppm entspricht.

Mit
$N_i = G_i – E_i + a\cdot C_{i-1} $
können aus der modellierten Absorption die variablen jährlichen natürlichen Nettoemissionen $N_i$ ermittelt werden. Deren Mittelwert ist die Konstante $n$.

Daraus ist erkennbar, dass die residualen natürlichen Emissionen eine zyklische Komponenten enthalten, die mit dem El Nino und kontingenten Ereignissen wie dem Ausbruch des Pinatubo zusammenhängt.

Mit diesem Modell wird die bekannte Konzentration zwischen 2000 und 2020 aus den Daten zwischen 1950-2000 sehr genau prognostiziert. Da das Modell zwar einen linearen Trend, aber keine zyklischen Schwankungen vorsieht – diese landen alle in der Variabilität der natürlichen Emissionen – , zeigt auch die modellierte Konzentration keine zyklischen Schwankungen:

Wachstumsrate der modellierten Konzentration

Die Wachstumsrate der modellierten Konzentration $G^{model}_i$ ergibt sich durch Umstellung der Modellgleichung:
$ G^{model}_i = E_i – a\cdot C_{i-1} + n$
Diese zeigt nun auch nicht mehr die zyklischen Schwankungen:

Es bleibt nach wie vor ein globales Maximum, das Jahr des Maximums ist allerdings von 2016 nach 2013 gewandert.
Diese El Nino bereinigte Konzentrationsänderungen bestätigen die Aussage von Zeke Hausfather, dass in der Tat die Emissionen bereits seit 10 Jahre konstant sind.

Entwicklung der CO2-Konzentration bei konstanten Emissionen

Um den Wendepunkt der CO2-Konzentration zu verstehen, wollen wir mit der Annahme konstanter Emissionen $E_i = E$ und den Gleichungen (\ref{absorption_measurement}) und (\ref{absorption_equ}) den prognostizierten Verlauf berechnen:

\begin{equation}\label{const_E_equ}C_i – C_{i-1} = E- a\cdot(C_{i-1} – C_0)\end{equation}
Die linke Seite beschreibt den Anstieg der Konzentration. Auf der rechten Seite wird von den konstanten Emissionen $E$ ein mit wachsender Konzentration $C_{i-1}$ wachsender Betrag abgezogen, demnach nimmt der Konzentrationszuwachs mit wachsender Konzentration ab. Dies kann mit einem speziellen Bankkonto veranschaulicht werden. Sobald die Konzentration den Wert $\frac{E}{a} + C_0 $ erreicht, ist der Gleichgewichtszustand erreicht, bei dem die Konzentration nicht mehr weiter anwächst, also die oft verwendete „Netto-Null“ Situation.

Mit den aktuellen Emissionen von 4.7 ppm wäre „Netto-Null“ bei 515 ppm, während sich beim „Stated-Policies“ Emissionsscenario der Internationalen Energieagentur (IEA), das eine leichte Reduktion von 3% pro Dekade in der Zukunft vorsieht, ein Gleichgewicht bei 475 ppm einstellt, wie in der obigen Publikation beschrieben. Mit den Prognosedaten der IEA wird dies voraussichtlich 2080 der Fall sein:

Demnach sind konstante Emissionen eine hinreichende Begründung für einen konvexen Verlauf der CO2-Konzentration, wie wir ihn seit 2016 vorfinden. Gleichzeitig wird damit belegt, dass CO2-Absorptionen in der Tat mit zunehmender Konzentration zunehmen.




Häufig gestellte Fragen zur CO2-Sensitivät

Welche Rolle spielt der Wasserdampf bei der CO2-Sensitivität, wirkt er nicht als Treibhausverstärker?

Es geht dabei im Wesentlichen um die Frage, ob durch Wasserdampf eher eine positive Rückkopplung des CO2-bedingten Treibhauseffektes erfolgt (wie z.B. von Vertretern des PIK behauptet) oder eher eine negative, wie von Prof. Richard Lindzen beschrieben.

Hierzu betrachten wir zwei in diesem Zusammenhang wichtige, unbestrittene Fakten.

Das globale Energiebudget

Diejenigen, die behaupten, dass der Wasserdampf den Treibhauseffekt verstärke, berufen sich darauf dass bei steigender Temperatur die Luft gemäß der Clausius-Clapeyron-Gleichung mehr Wasserdampf aufnehmen könne, was zu einem stärkeren Treibhauseffekt führt und damit zu einer positiven Rückkopplung. Der treibhausverstärkende Gesamteffekt des Wasserdampfes ist im globalen Energiebudget mit etwa 26,6W/qm berücksichtigt:

Ebenso bekannt wie unstrittig ist die Bildung von Wolken aus Wasserdampf. Und die meisten Wolken haben die Eigenschaft, dass sie Licht reflektieren. Demzufolge kommt aufgrund der Wolkenalbedo nur ein Teil der kurzwelligen Sonnenenergie bei der Erde an. Der Energieverlust aufgrund der Wolkenreflexion ist im Energiebudget mit etwa -47,5 W/qm berüc ksichtigt. Demzufolge ist die Abkühlung aufgrund der Wolkenbildung global gesehen um mehr als 20 W/qm größer als deren Treibhauswirkung. Die Gesamtwirkung aller Wolken bildet demnach eine sehr starke negative Rückkopplung beim Treibhauseffekt. Wo ist die Evidenz, dass bei marginalen Veränderung der Wolkenbedeckung sich dieser Effekt umkehrt?

Die energetischen Auswirkungen des Rückgangs der Wolkenbedeckung über 30 Jahre

Als wahrscheinlich erste von mittlerweile vielen Arbeiten zur Untersuchung der Albedoveränderung wurde im Artikel Nettoabnahme des Reflexionsvermögens der Wolken, der Aerosole und der Erdoberfläche bei 340 nm Wellenlänge nachgewiesen, dass über einen Zeitraum von 33 Jahren aufgrund der Abnahme der Wolkenbildung und demzufolge Abnahme der Reflexivität der Atmosphäre der Energiezufluß um 2,33 W/qm zugenommen hat:

Dies wirft nicht nur die Frage auf, warum ein 4-fach größerer Effekt als die Treibhauswirkung des CO2 bislang in den Klimamodellen nicht berücksichtigt wird, es zeigt zweifelsfrei, dass nur eine Abnahme der globalen Bewölkung zu einer Temperaturzunahme führt. Eine Bewölkungszunahme würde demzufolge zu einer Temperaturabnahme führen.

Demzufolge wäre eine positive Wasserdampf-Rückkopplung nur möglich, wenn nachgewiesen werden kann, dass global gesehen ein erhöhte Wasserdampfgehalt in der Atmosphäre zu einer verringerten Wolkenbildung führt. Viel Spaß bei diesem Ansinnen.

Wohlgemerkt, es hilft nicht, irgend einen Einzeleffekt zu finden (wie z.B. stratosphärische Cirruswolken), bei dem nur ein Treibhauseffekt stattfindet, aber keine Reflexionsreduktion, es muß schon nachgewiesen werden, dass der Effekt für den globalen Erwartungswert gilt.




Wir können weiterleben – ohne Sorgen wegen CO2

Sie glauben das nicht? Wo uns doch täglich Medien und Politik einhämmern, dass es gar keine Emissionen mehr geben darf, um das berühmte Netto Null zu erreichen? 

Es hilft uns weiter, erst einmal den Originaltext des Pariser Klimaabkommens zu lesen:

  • Die Länder müssen das Emissionsmaximum so bald wie möglich erreichen, um
  • ein Gleichgewicht zwischen vom Menschen verursachten Emissionen durch Quellen und Absorptionen durch Senken von Treibhausgasen in der 2. Hälfte des Jahrhunderts zu erreichen (bei einer Temperaturerhöhung um max. 1.5° C)

Im Klartext heißt also Netto-Null, dass die Quellen von Emissionen mit den Absorptions-Senken im Gleichgewicht sein müssen. Es heißt nicht, dass die Emissionen Null sein müssen, es heißt nur, dass es gleich viele Absorptionen wie Emissionen gibt. 

Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Die Analyse der einzelnen Mechanismen hat zusammen mit der mittlerweile falschen Annahme exponentiell wachsender Emissionen zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen für immer in der Atmosphäre verbleibt.

Zu einer anderen Schlussfolgerung kommen wir jedoch, wenn wir die logisch gleichwertige Frage stellen: „Wie viel CO2 verbleibt nicht in der Atmosphäre?“. Das verändert alles.  Die Menge an CO2, die nicht in der Atmosphäre verbleibt, kann anhand der direkten Messungen von Emissionen und Konzentrationsänderungen berechnet werden, ohne dass wir die Absorptionsmechanismen im Einzelnen untersuchen müssen. Denn für das CO2 gilt die Massenbilanzgleichung, die besagt, dass nichts verloren geht:

Konzentrationsänderung = Emissionen – Absorptionen 

Dass bereits heute mehr als die Hälfte der menschengemachten Emissionen von den Ozeanen und der Photosynthese der Pflanzen und in der Folge auch von Tieren wieder geschluckt werden, ist allgemein bekannt und unstrittig, aber viele befürchten, dass ein Rest für immer in der Atmosphäre verbliebe.

Das trifft so nicht zu: In einer wissenschaftlichen Publikation und in einem leichter verständlichen Blogbeitrag wird mit den Messdaten der letzten 70 Jahre nachgewiesen, dass jedes Jahr etwa 2% der über 280 ppm hinausgehenden CO2-Konzentration von den Ozeanen und den Pflanzen der Atmosphäre wieder entzogen werden. 

Diese 280 ppm ergeben sich aus dem Gleichgewicht aus natürlichen Emissionen und Absorptionen ohne anthropogene Emissionen.

Die Messdaten, insbesondere die der CO2-Konzentration, sind seit den 50er Jahren sehr genau. Mit den Messwerten von 1950-2000 konnten die tatsächlichen CO2-Konzentrationen von 2000-2020 exakt vorhergesagt werden, wie wir rückblickend sehen können.  Die Qualität der Vorhersage ist ganz hervorragend.

Um zu verstehen, wie der Mechanismus der Emission (die Quellen) und Absorption (die Senken) funktioniert, schauen wir uns einen Vergleich aus der vertrauteren Welt eines Geldkontos an.

Das Gleichnis eines speziellen Geldkontos

Stellen Sie sich vor, Sie haben ein Konto mit einem Kontostand von 413 € zu Beginn des Jahres 2020. In dieses Konto werden jedes Jahr 4,50 € einbezahlt.

Nun hat sich der Staat eine eigenartige Vermögenssteuer für dieses Geldkontos einfallen lassen: Es gibt einen Freibetrag von 280 €.  Der Rest des Guthabens auf dem Konto wird am Jahresende mit 2% besteuert.

Was passiert? Wie entwickelt sich der Kontostand? Am Ende des Jahres 2020 sind 417,50 € auf dem Konto, davon werden 0,02*(417,50-280) = 2,75 abgeführt, es verbleiben also 414,75 €

Jahr Am 1.1. Einzahlung Besteuerung Abzug Am 31.12.
2020 413,00 4,50 0,02*(417,50-280,00) 2,75 414,75
2021 414,75 4,50 0,02*(419,25-280,00) 2,78 416,46
2022 416,46 4,50 0,02*(420,96-280,00) 2,82 418,15
….          
2050 452,77 4,50 0,02*(457,27-280,00) 3,55 453,72
         
2080 474,46 4,50 0,02*(478,96-280,00) 3,98 474,98

Man sieht, der Kontostand wächst zwar an, aber die Abzüge erhöhen sich jedes Jahr. Man kann leicht ausrechnen, dass bei einem Kontostand von 505 € am Jahresende die ganzen einbezahlten 4,50 € wieder abgeführt werden. Das heißt, beim Kontostand 505 € ist die berühmte Netto-Null Situation erreicht. Weiter kann das Konto bei jährlichen 4 ,50 € Einzahlungen nicht mehr anwachsen.   Und es dauert ziemlich lange, bis dieser Zustand erreicht ist: Nach 60 Jahren wäre man erst bei 474,98 €.

Zukunftsszenario

Dieses Geldkonto-Gleichnis beschreibt ziemlich genau den CO2-Haushalt der Atmosphäre. Der Kontostand entspricht der Konzentration des CO2 in der Atmosphäre, zu Beginn des Jahres 2020 waren das etwa 413 ppm („parts per million“ = Anteile CO2 pro 1 Million Luftmoleküle).

Die Einzahlungen entsprechen den jährlichen weltweiten Emissionen, also das, was wir in die Atmosphäre hineingeben.  Das sind aktuell etwa 4,5 ppm weltweit, was einem Gewicht von etwa 36 Milliarden Tonnen CO2 entspricht.

Nun hat die Internationale Energieagentur mit ihrer weltweiten Statistik seit 1850 geschätzt, wieviel CO2 in Zukunft ausgestoßen werden wird. Dabei gibt es ein Szenario, bei dem angenommen wird, dass die jetzt grade geltenden Gesetze und Regelungen in allen Ländern der Erde unverändert weiter fortgesetzt werden, das sogenannte „Szenario der ergriffenen Maßnahmen“. Also möglicherweise existierende emissionssenkende Gesetze, aber keine künftigen weiteren Maßnahmen zur Emissions-Senkung.

Dieses Szenario besagt, dass die weltweiten Emissionen über die nächsten 10 Jahre etwa gleichbleiben, und dann ganz leicht mit etwa 0,3% pro Jahr sinken. Das bedeutet, dass es weltweit im Jahre 2100 wieder genauso viele Emissionen geben wird wie im Jahre 2005. Das kann bei einzelnen Ländern schon dazu führen, dass die Emissionen etwas stärker sinken, dagegen in den ärmsten Entwicklungsländern aufgrund des Nachholbedarfs Emissionen erst noch anwachsen. Aber es wird nirgendwo dramatische Auswirkungen geben, die den Wohlstand in Frage stellen.

Mit den Zahlen der Internationalen Energie Agentur haben wir herausgefunden: Der CO2-„Kontostand“ beträgt im Jahre 2080 etwa 475 ppm, und wird darüber hinaus nicht mehr ansteigen. Sensationelles Ergebnis.

Und was heißt das für das Klima?

Wir wollen uns hier ganz bewusst nicht auf die möglicherweise berechtigten Zweifel einlassen, ob nun das CO2 überhaupt einen Einfluss auf die globale Mitteltemperatur und in der Folge auf das Klima hat oder nicht. Unbestritten ist seit dem Beginn der Industrialisierung die CO2 Konzentration von 280 auf 413 ppm angewachsen, also um 133 ppm. 

Wir akzeptieren hier die weit verbreitete Auffassung, dass der Anstieg der globalen Durchschnittstemperatur um 1° C seit dem Beginn der Industrialisierung ausschließlich diesem Anwachsen der CO2 Konzentration geschuldet ist.

Der künftige Anstieg der CO2-Konzentration ist 475 – 413 = 62 ppm.  Das ist knapp die Hälfte des bisherigen Anstiegs von 133 ppm. Damit geht konsequenterweise einher, dass bis dann auch die Temperatur allenfalls nochmal um ein halbes Grad ansteigt, also insgesamt um 1,5° seit Beginn der Industrialisierung.   

Die gute Nachricht: Mit den heutigen CO2 -Emissionen und deren Senkung durch Effizienzsteigerung von 3% pro Jahrzehnt wird das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt, ganz ohne wohlstandsschädigende Maßnahmen ergreifen zu müssen.




Emissionen und CO2 Konzentration – ein evidenzbasierter Ansatz


[latexpage]

Eine neue Sichtweise auf das Problem

Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Dies hat zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen werden für immer in der Atmosphäre verbleibt.

Wir ändern den Fokus der Aufmerksamkeit, indem wir die logisch äquivalente Frage „Wie viel CO2 verbleibt nicht in der Atmosphäre?“ stellen. Warum ist das so anders? Die Menge an CO2 , die nicht in der Atmosphäre verbleibt, kann anhand direkter Messungen berechnet werden. Wir müssen nicht jeden einzelnen Absorptionsmechanismus aus der Atmosphäre in die Ozeane oder Pflanzen analysieren. Aus den bekannten globalen Konzentrationsänderungen und den bekannten globalen Emissionen können wir die Summe der tatsächlichen jährlichen Absorption gut abschätzen. Diese sind mit der CO2 -Konzentration verbunden, was die Leithypothese eines linearen Absorptionsmodells begründet. Es stellt sich heraus, dass wir die tatsächlichen Koeffizienten der einzelnen Absorptionsmechanismen nicht zu kennen brauchen – es reicht aus, ihre lineare Abhängigkeit von der aktuellen CO2 Konzentration anzunehmen.

Dies ist eine Zusammenfassung eines kürzlich veröffentlichten Artikels, in dem alle Aussagen detailliert abgeleitet und mit Referenzen und einem mathematischen Modell untermauert werden. Im Unterschied zu dem Artikel wird in dieser Kurzfassung der Einfluß der mit großen Unsicherheiten behafteten Emissionen aufgrund von Landnutzungsänderung weggelassen, weil

  1. es legitim ist, die ohnehin mit großen Unsicherheiten behafteten Landnutzungsemissionen den unbekannten natürlichen Emissionen zuzuschlagen
  2. sich der statistische Fehler des Ergebnisses bei Weglassen der aufgrund der Unsicherheit ziemlich willkürlichen Landnutzungsänderung verringert, was zu höherer Prognosequalität führt.
Massenerhaltung von CO2

Wie bei der Jahresbilanz eines Bankkontos ergibt sich die atmosphärische CO2-Bilanz aus den Gesamtemissionen abzüglich der Gesamtabsorption:

Konzentrationswachstum = Emissionen – Absorptionen

Der jährliche Anstieg der CO2-Konzentration (orange) wächst im Schnitt langsamer die gesamten anthropogenen Emissionen (blau), was bedeutet, dass die daraus berechnete Netto Absorption (grün) mit der steigenden CO2-Konzentration tendenziell zunimmt:

Wichtig ist hierbei zu bemerken, dass alle natürlichen Emissionen und Absorptionen, die innerhalb der Messintervalle (hier je 1 Jahr) geschehen und sich im langjährigen Gleichgewicht befinden, „unsichtbar“ sind.

Die Annahme einer annähernden Linearität der relevanten Absorptionsprozesse

Dies wird durch ein Streudiagramm veranschaulicht, das die effektive CO2-Absorption mit der CO2-Konzentration in Beziehung setzt. Physikalischer Hintergrund dieser Darstellung ist, dass alle Diffusions- und Absorptionsprozesse mit der Konzentration linear skalieren, ebenso die Aufnahme von CO2 bei der Photosynthese (C4-Pflanzen haben ein Plateau mit geringem aber trotzdem linearen Anstieg im Konzentrationsbereich 280..600 ppm).

Es legt eine langfristige lineare Abhängigkeit der effektiven Absorption von der atmosphärischen CO2-Konzentration mit erheblichen kurzfristigen Abweichungen nahe, wobei die effektive Null-Absorptionslinie bei ca. 280 ppm geschnitten wird. Dies wird als die vorindustrielle CO2-Gleichgewichtskonzentration angesehen, bei der die natürlichen jährlichen Emissionen durch die jährlichen Absorptionen ausgeglichen sind. Die durchschnittliche jährliche Absorption beträgt etwa 2 % der CO2-Konzentration, die 280 ppm überschreitet.

CO2 Konzentration als Proxy für die Temperatur

Wenn wir Vorhersagen mit hypothetischen zukünftigen CO2-Emissionen machen, kennen wir die zukünftigen Temperaturen nicht. Ohne in die problematische Diskussion darüber einzutauchen, wie stark der Einfluss der CO2-Konzentration auf die Temperatur ist, nehmen wir den „schlimmsten Fall“ einer vollständigen Vorhersagbarkeit der Temperatur als Auswirkung der CO2-Konzentration an.

Ohne Annahmen über die C->T-Kausalität zu machen, wird die geschätzte funktionale Abhängigkeit des Temperatur aus der Regression mit der CO2-Konzentration C wie folgt ermittelt:

Tproxy  = -16,0 + 2,77*ln(C) = 2,77* ln(C/(323ppm))

Dies entspricht einer Sensitivität von 2,77*ln(2) °C = 1,92° C bei Verdoppelung der CO2-Konzentration

Modell-Validierung

Das Modell mit konstantem Absorptionsparameter von knapp 2% und konstanten natürlichen Emissionen wird aufgrund statistischer Prüfung als das zuverlässigste ausgewählt auf der Grundlage von Emissionsdaten und Konzentrationsdaten von 1950 bis 2000.

Die CO2 Konzentrationen zwischen 2000 und 2020 werden vom Modell und den Emissionsdaten 2000-2020 vorhergesagt.

Dies ist eine hervorragende Vorhersage der Konzentrationen auf der Grundlage der Emissionen und der oben genannten Modellannahmen. Es gibt nur geringe Abweichungen zwischen den Vorhersagen und den tatsächlichen Daten. Obwohl das Modell unterschiedliche Absorptionen im Laufe der Zeit zulässt, führen die Daten der letzten 70 Jahre, d.h. des Zeitraums, in dem die meisten anthropogenen CO2 -Emissionen stattfanden, zu der Schlussfolgerung, dass der CO2 -Absorptionsparameter keine signifikante temperatur- oder sonstige zeitabhängige Komponente aufweist und ein aktueller CO2 -Emissionsimpuls mit einer Halbwertszeit von 37 Jahren absorbiert wird.

Zukünftiges Emissionsszenario

Das wahrscheinlichste zukünftige Emissionsszenario ist das Emissionsszenario der internationalen Energieagentur (IEA) mit annähernd konstanten, leicht sinkenden globalen Emissionen. Der tatsächlich verwendete Datensatz für eine realistische Zukunftsprojektion („stated policies“) wird durch eine Trendextrapolation über das Jahr 2050 hinaus erweitert. Die Emissionen werden im Jahr 2100 nicht auf Null reduziert werden, sondern ähnlich dem Wert von 2005 sein.

Vorhersage der künftigen CO2 Konzentration

Aus diesem realistischen Emissionsszenario wird die zukünftige CO2-Konzentration mit unserem Modell rekursiv vorhergesagt.

Mit dem von der IEA angegebenen Szenario der „erklärten Maßnahmen“, d.h. Fortschreibung der heutigen Gesetzgebung, wird in der zweiten Hälfte dieses Jahrhunderts ein Gleichgewicht der CO2-Konzentration von ca. 475 ppm erreicht werden.  Auf der Grundlage der obigen empirischen CO2-Temperaturproxy-Gleichung entspricht dieser Anstieg der CO2-Konzentration von 410 ppm (im Jahr 2020) auf 475 ppm einem Temperaturanstieg von 0,4°C ab 2020 bzw. 1,4°C ab 1850.

Daraus folgt, dass wir in der zweiten Hälfte dieses Jahrhunderts eine maximale CO2-Konzentration von etwa 475 ppm erwarten können. Zu diesem Zeitpunkt werden die Emissionen durch die Absorption vollständig ausgeglichen sein, was per Definition die „Netto-Null-Situation“ darstellt.

Ganz offensichtlich besitzt diese Kurve einen Wendepunkt, also einen Punkt mit maximalem Konzentrationsanstieg. Mit bloßem Auge ist nicht erkennbar, ob der in der nahen Zukunft sein muss oder bereits in der Vergangenheit. Eine Analyse der Konzentrationsdaten bis Ende 2022 ergibt, dass das Maximum der Steigung und damit der Wendepunkt der Konzentration bereits im Jahre 2016 gewesen war, eine sehr schöne Bestätigung des vorgestellten Konzepts:

Geht man von dem unwahrscheinlichen pessimistischen Fall aus, dass die CO2-Konzentration für alle globalen Temperaturveränderungen voll verantwortlich ist, so beträgt der maximale erwartete Anstieg der globalen Temperatur, der durch den erwarteten Anstieg der CO2-Konzentration verursacht wird, 0,4° C ab jetzt oder 1,4°C ab Beginn der Industrialisierung.

Wenn wir also mit den derzeitigen CO2 -Emissionen und einer Effizienzsteigerung von 3 % pro Jahrzehnt weiterleben, ist das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt.




5 einfache Klimafakten


[latexpage]

1. Die weltweiten CO2-Emissionen haben 2018 den maximalen Wert erreicht und werden voraussichtlich nicht weiter ansteigen

Es gab 2020 Corona-bedingt einen massiven Einbruch der Emissionen. Aber das Maximum der $CO_2$ Emissionen war mit 33,5 Gt (=4,3 ppm) bereits 2018 erreicht und die Emissionen der Jahre 2019 und 2021 liegen auch unter diesem Wert:

Bereits seit 2003 gibt es einen klaren Trend der Abnahme des relativen CO2-Emissions-Wachstums (Analoge Größe zum Wirtschaftswachstum), wo 2019 dann die 0%-Linie erreicht und 2020 deutlich unterschritten wurde (  http://klima-fakten.net/?p=5995 ):

Abgesehen davon, dass der Corona-bedingte Einbruch der Emissionen der größte der Geschichte war, war er eine Verstärkung des seit 2003 bestehenden Trends sinkenden relativen Emissionswachstums, daran ändert auch das teilweise Zurückschwingen im Jahre 2021 nichts. Grund dafür ist, dass das Anwachsen der Emissionen in den Schwellenländern mittlerweile sich etwa die Waage hält mit der Abnahme der Emissionen in den Industrieländern. In China hat es bereits 2010 einen starken Knick der Emssionskurve gegeben, mit sehr viel geringerem Anstieg seither.

Das tatsächliche „Business-as-usual“ Szenario ist also nicht das in den Medien immer noch weit verbreitete Katastrophenscenario RCP8.5 mit exponentiell wachsenden Emissionen, sondern de facto ein Verbleiben des weltweiten CO2-Ausstoßes auf dem seit 2018 erreichten Plateau.  Das Teilziel des Pariser Klimaabkommens, „Countries must reach peak emissions as soon as possible„, ist also bereits seit 2018 für die Welt als ganze erreicht. Auch die von der IEA projizierten künftigen „realistischen“ Emissionen bestätigen, dass diese nicht mehr signifikant ansteigen werden.

2. Es genügt, die Emissionen zu halbieren, um ein weiteres Anwachsen der CO2-Gehalts in der Atmosphäre zu vermeiden

Trägt man die aus anerkannten Veröffentlichungen publizierten Absorptionen gegen den CO2-Gehalt auf, ist ein langfristig klarer Zusammenhang erkennbar – mehr 2% des über dem natürlichen Gleichgewicht von 280 ppm hinausgehenden CO2-Gehalts der Atmosphäre werden jedes Jahr von der Biosphäre und den Ozeanen absorbiert, das entspricht einer „Halbwertszeit“ von 35 Jahren:

Um den aktuellen CO2-Gehalt der Atmosphäre zu halten, würde es demnach genügen, die Emissionen auf 55% des heutigen Wertes (4,3 ppm), also auf 2,3 ppm zu senken (https://www.youtube.com/watch?v=JN3913OI7Fc&t=291s). Die sorgfältige – einfache – mathematische Ausarbeitung und verschiedene Szenarien (von „Business as usual“ bis „Energiewende“ ist unter http://klima-fakten.net/?page_id=5995 zu finden

Wesentlich ist, dass in keinem Fall der CO2-Gehalt auf klimatisch gefährlich hohe Werte steigen wird, wohl aber bei einer „erfolgreichen“ weltweiten Energiewende auf gefährlich niedrige Werte sinken würde, weil die aktuellen Spitzen-Getreideernten aufgrund der gestiegenen CO2-Werte um 15% größer ausfallen als noch vor 40 Jahren bei niedrigeren $CO_2$-Werten. 
Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1:
Countries must reach peak emissions as soon as possible “so as to achieve a balance between anthropogenic emissions by sources and removals by sinks of greenhouse gases in the second half of this century”.
Das heißt, dass das Gleichgewicht zwischen von Menschen verursachten Emissionen und $CO_2$-Absorptionen in der 2. Hälfte des Jahrhunderts erreicht werden muß. Das Gleichgewicht ist aber erreicht, wenn die Gesamt-Emissionen halbiert sind. Zeitliches Ziel ist der Erreichung dieser 50% ist zwischen 2050 und 2100, diesen beiden Grenzen entsprechen das blaue und türkisgrüne Szenario. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Decarbonisierung.

3. Nach der Strahlen-Physik beträgt die Klimasensitivität nur ein halbes Grad

Der mögliche Einfluß des $CO_2$ auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport. Um diesen Treibhauseffekt tatsächlich messen zu können, muß die in den Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der theoretisch erwartete Treibhauseffekt ist mit 0.2 $\frac{W}{m^2}$ pro Jahrzehnt so winzig, dass er mit heutiger Satellitentechnologie, die eine Meßgenauigkeit von etwa 10 $\frac{W}{m^2}$ hat, nicht nachweisbar ist.
Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.
Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN, mit der die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der $CO_2$-Treibhauseffekt physikalisch sauber simuliert werden kann. Wenn ich mit diesem Programm unter korrekten Bedingungen die sogenannte CO2-Sensitivität (die Temperaturerhöhung bei einer CO2-Verdoppelung von 280 auf 560 ppm) ausrechne, so kommt dabei grade mal 1/2 °C heraus:

Der Sachverhalt wird in diesem Artikel diskutiert. Außerdem beschreibe ich dort mit Hilfe der MODTRAN Simulation, um die Denkweise der IPCC-nahen Wissenschaftler zu verstehen, deren m.E. falsche Vorgehensweise bei der Sensitivitätsberechnung.

Demzufolge ist bei korrekter Berücksichtigung aller realen Bedingungen die Temperaturerhöhung bei Verdoppelung des $CO_2$-Gehalts von 280 ppm auf 560 ppm gerade mal 1/2 °C und damit weit unter den Vorgaben des Pariser Klimaabkommens.

4. Der einzige nachweisbare Effekt des CO2-Anstiegs ist die Begrünung der Erde

Während der Treibhauseffekt bislang eine theoretische Hypothese ist, die wegen ihres geringen Effekts (0.2 $\frac{W}{m^2}$ in 10 Jahren, der nur ein Bruchteil der Messfehler von Infrarot Satellitenmessungen (10 $\frac{W}{m^2}$) ist, bislang nicht zweifelsfrei nachweisbar ist, ist eine andere erfreuliche Auswirkung des gestiegenen CO2 Gehalts überdeutlich nachgewiesen: Zwischen 1982 und 2009 hat die Begrünung der Erde um 25-50% zugenommen, davon sind 70% auf die Zunahme von CO2 zurückzuführen. Insbesondere sind auch Teile der Trockengebiete der Erde grüner geworden, weil Pflanzen bei höherem $CO_2$-Gehalt einen effizienteren Wasserhaushalt haben.
Auch die Getreideernten haben in diesem Zeitraum um etwa 15% aufgrund der besseren Versorgung mit CO2 zugenommen. Fast jedes Jahr werden die Ernterekorde gebrochen.

5. Das Anwachsen der Weltmitteltemperatur der letzten 40 Jahre wurde überwiegend durch die verminderte Wolkenbildung verursacht

Eine einfache Rechnung zeigt, dass 80% des Temperaturanstiegs der letzten 40 Jahre auf den realen und meßbaren Effekt der reduzierten Wolkenreflexivität zurückzuführen sind und allenfalls 20% auf den hypothetischen und bislang nicht definitiv durch Messung nachgewiesenen CO2-Treibhaus-Effekt (http://klima-fakten.net/?p=3217).

Die Ursachen  der verminderten Wolkenbildung können in der Tat zu einem Teil menschengemacht sein, denn der grundlegende Mechanismus der Wärmeregulation durch Verdunstung durch Pflanzen und der daraus entstehenden Wolken ist abhängig von der Art und Weise, wie Menschen Landwirtschaft betreiben und die Naturlandschaft behandeln (siehe auch dieses Video)

Die wichtigsten menschengemachten Risikofaktoren sind

Für die These, dass der Klimawandel teilweise diese Ursachen hat, findet sich z.B. ein Beleg in der TAZ: https://taz.de/Wasser-und-Klimaschutz/!5774434/.
Um die durch verminderte Wolkenbildung verursachte Erwärmung aufzuhalten, nützen allerdings $CO_2$-Emissionsreduktionen nichts, und die Land verbrauchenden Maßnahmen der Energiewende sind kontraproduktiv. Eine Besinnung auf die Lösung der realen Probleme statt eines ideologischen Tunnelblickes ist überfällig.




Wieviel CO2 bleibt in der Atmosphäre?


[latexpage]

Es gibt zwei Teile der Klimadiskussion:

  • Die Empfindlichkeit der Temperatur gegenüber dem atmosphärischen $CO_2$-Gehalt
  • Die Menge an $CO_2$ in der Atmosphäre

Während die $CO_2$-Sensitivität die wissenschaftliche Klimadiskussion dominiert, werden die politischen Entscheidungen von „Kohlenstoffbudget“-Kriterien auf der Basis von Zahlen dominiert, die kaum öffentlich diskutiert werden.
Es wird behauptet, dass mehr als 20 % des emittierten $CO_2$ für mehr als 1000 Jahre in der Atmosphäre verbleiben werden.

In diesem Artikel soll der Zusammenhang zwischen $CO_2$-Emissionen und dem tatsächlichen $CO_2$-Gehalt in der Atmosphäre untersucht werden.
Mit Hilfe dieses als Modell verwendbaren einfachen Zusammenhangs werden verschiedene zukünftige Emissionsszenarien und deren Auswirkung auf den atmosphärischen $CO_2$-Gehalt untersucht.

Kohlendioxid-Emissionen in der Vergangenheit

Ausgangspunkt sind die tatsächlichen $CO_2$-Emissionen während der letzten 170 Jahre:

Es ist sehr informativ, von dieser Zeitserie die (prozentualen) relativen Veränderungen y'(t)/y(t) zu betrachten (Hier mathematische Herleitung). Dies ist das Äquivalent des Wirtschaftswachstums für $CO_2$ Emissionen.

Der größte Anstieg der $CO_2$-Emissionen war zwischen 1945 und 1980, die Phase des großen Wachstums an Wohlstand und Lebensqualität v.a. in den Industrieländern, wobei der absolute Höhepunkt des weltweiten Emissions-Wachstums im Jahre 1970 überschritten wurde, interessanterweise 3 Jahre vor der ersten Ölkrise. Um die Jahrtausendwende gab es nochmal einen Anstieg der Emissionen, diesmal verursacht durch den wirtschaftlichen Aufschwung der Schwellenländer. Seit 2003 geht das Anwachsen der Emissionen stetig zurück, und hat de facto bereits die Nullinie unterschritten, d.h. ab sofort werden die Emissionen voraussichtlich nicht mehr anwachsen, trotz des Wachstums in China, Indien und anderen Schwellen- und Entwicklungsländern.
Dies wird überzeugend dargestellt in der Zeitserien-Graphik des Global Carbon Projekts:

Quelle: Global Carbon Project (Time Series)

Der langjährige Rückgang der Emissionen in den Industrieländern hält sich aktuell die Waage mit dem seit 2010 verlangsamten Anstieg in den Schwellenländern China und Indien.
Demzufolge ist es realistisch und legitim, einen ab 2019 konstanten $CO_2$-Ausstoß als „business as usual“ zu bezeichnen (2020 war ein Covid-19 bedingter Emissions-Rückgang). Nach den neuesten Zahlen (2021) Zahlen des Global Carbon Projects sind bereits seit 2010 die Gesamtemissionen, die den Land-Flächenverbrauch beinhalten, nicht mehr angestiegen:

Image

Prognose des CO2-Gehalts der Atmosphäre mit simplen Emissions-Modellen

Es wird angenommen, dass vor 1850 das $CO_2$-Niveau annähernd konstant war und dass der gemessene $CO_2$-Gehalt die Summe aus dem vorindustriellen konstanten Niveau und einer Funktion der $CO_2$-Emissionen ist.

Drei verschiedene Modelle werden getestet – diese Modelle haben nicht den Anspruch, die Physik abzubilden, sie liefern einen möglichen funktionalen Zusammenhang zwischen $CO_2$-Emissionen und atmosphärischem $CO_2$-Gehalt, der für Prognosen geeignet ist.:

  • Das erste Modell geht davon aus, dass alle $CO_2$-Emissionen für immer in der Atmosphäre bleiben. Das bedeutet, dass der zusätzliche – über das vorindustrielle Niveau hinausgehende – $CO_2$-Gehalt die kumulative Summe aller $CO_2$-Emissionen wäre.
  • Das zweite Modell geht von einem exponentiellen Zerfall des emittierten $CO_2$ in die Ozeane bzw. die Biosphäre mit einer Halbwertszeit von 70 Jahren aus, d.h. die Hälfte des zusätzlich emittierten $CO_2$ ist nach 70 Jahren absorbiert. Dies wird durch eine Faltung mit einem exponentiellen Zerfallskern und einer Zeitkonstante $70/ln(2) \approx 100 $ Jahre erreicht
  • Das dritte Modell geht von einem exponentiellen Zerfall des emittierten $CO_2$ in die Ozeane bzw. Biosphäre mit einer Halbwertszeit von 35 Jahren aus, d.h. die Hälfte des emittierten $CO_2$ ist nach 35 Jahren absorbiert. Dies wird durch eine Faltung mit einem exponentiellen Zerfallskern und einer Zeitkonstante $35/ln(2) \approx 50 $Jahre erreicht.

Um die Zahlen vergleichbar zu machen, müssen die Emissionen, die in Gt gemessen werden, in ppm umgerechnet werden. Dies geschieht mit der Äquivalenz von 3210 Gt $CO_2$ = 410 ppm ( Gesamtmasse des $CO_2$ in der Atmosphäre und Anteil im Jahr 2015 )

Die gelbe Kurve sind die gemessenen tatsächlichen Emissionen aus dem obigen Diagramm, und die blaue Kurve ist der gemessene tatsächliche $CO_2$-Gehalt.

Das erste „kumulative“ Modell approximiert den gemessenen $CO_2$-Gehalt von 1850 bis 1910 recht gut, überschätzt aber den $CO_2$-Gehalt nach 1950 stark. Dies falsifiziert die Hypothese, dass $CO_2$ für „Tausende von Jahren“ in der Atmosphäre bleibt.
Auch das zweite Modell mit einer Halbwertszeit von 70 Jahren des emittierten $CO_2$ überschießt nach 1950 erheblich, es approximiert die Zeit zwischen 1925 und 1945. Das dritte Modell mit einer Halbwertszeit der Emissionen von 35 Jahren passt sehr gut zum tatsächlichen $CO_2$-Gehalt von 1975 bis heute.

Dies bestätigt, was erst kürzlich in Nature veröffentlicht wurde, dass die Rate der $CO_2$-Absorption in die Ozeane mit steigendem atmosphärischen $CO_2$-Gehalt zunimmt. Physikalisch ist das insofern plausibel, weil der mit wachsender Konzentration steigende atmosphärische Partialdruck des $CO_2$ eine wachsende Absorption nahelegt. Dass die Absorption höher ist als nach den bisherigen Modellen, liegt daran dass in der für den Gasaustausch relevanten dünnen Oberflächen-Grenzschicht durch die Verdunstungskälte des Wasserdampfs die Oberflächen-Temperatur niedriger ist als bisher angenommen.

figure2
Source: https://www.nature.com/articles/s41467-020-18203-3

Ein Abflachen des Effekts, etwa aufgrund von Sättigung des $CO_2$-Gehalts im Meer, ist nicht zu erkennen. Im Gegenteil, der Effekt wird in den letzten Jahren größer.
Der gleiche Zusammenhang, insbesondere die zunehmende „Kohlenstoffsenke“ von Ozeanen und Biosphäre, wird vom Global Carbon Project in dieser Grafik gezeigt:

Co2 Quellen Senken

Obwohl für die Zukunft ein weiterer Anstieg des $CO_2$-Flusses in den Ozean zu erwarten ist, können wir daher das dritte Modell mit einer Halbwertszeit von 35 Jahren für konservative, d.h. nicht optimistische Vorhersagen verwenden.

Zukunftsszenarien

Um politische Entscheidungen zu bewerten, werde ich dieses Modell anwenden, um den zukünftigen $CO_2$-Gehalt mit 3 verschiedenen Szenarien vorherzusagen:

  • Das erste Szenario (rot) möchte ich als „Business-as-usual“-Szenario bezeichnen, in dem Sinne, dass China sich verpflichtet hat, den Anstieg der $CO_2$-Emissionen nach 2030 zu stoppen. Bereits jetzt steigen die weltweiten $CO_2$-Emissionen nicht mehr an, und die Industrieländer haben alle fallende Emissionen. Dieses Szenario nimmt an, dass die globalen Emissionen auf dem aktuellen Maximalwert von 37 Gt/a bleiben. Gesamtbudget bis 2100: 2997 Gt $CO_2$, danach 37 Gt/Jahr
  • Das zweite Szenario (grün) ist die weithin proklamierte Dekarbonisierung bis 2050.
    Dabei wird verschwiegen, dass ein weltweiter vollständiger Ersatz existierender fossiler Energiequellen die tägliche Neuinstallation des Äquivalents eines größeren Kernkraftwerks mit je 1,5 GW Leistung erfordern würde.
    Gesamtbudget bis 2100: 555 Gt $CO_2$, danach 0 Gt/Jahr.
  • Das dritte Szenario (blau) ist ein realistischer Plan, der die Emissionen bis 2100 auf 50% reduziert, also etwa dem Wert von 1990. Dieses Szenario spiegelt die Tatsachen wider, dass fossile Brennstoffe endlich sind und dass Forschung und Entwicklung neuer zuverlässiger Technologien Zeit brauchen.
    Gesamtbudget bis 2100: 2248 Gt $CO_2$, danach 18,5 Gt/Jahr

Die Konsequenzen für den $CO_2$-Inhalt sind folgende:

  • Das erste Szenario (rot) erhöht den $CO_2$-Gehalt, aber nicht über 510ppm in der fernen Zukunft hinaus, was weniger als eine Verdopplung gegenüber der vorindustriellen Zeit bedeutet. Je nach Sensitivität (0,5°…2°) bedeutet dies einen hypothetischen Temperaturanstieg von 0,1° bis 0,6° gegenüber den heutigen Temperaturen, bzw. 0,4° bis 1,4° seit der vorindustriellen Zeit. In jedem Fall unter dem optimistischen Ziel von 1,5° des Pariser Klimaabkommens.
  • Das zweite Szenario — weltweit schnelle Dekarbonisierung — (grün) erhöht den $CO_2$-Gehalt kaum noch und reduziert den atmosphärischen $CO_2$-Gehalt schließlich auf vorindustrielles Niveau.
    Wollen wir das wirklich? Das würde einen Nahrungsentzug für alle Pflanzen bedeuten, die am besten bei $CO_2$-Werten größer als 400 ppm gedeihen. Nicht einmal der Weltklimarat (IPCC) hat eine solche Reduzierung jemals als Ziel formuliert.
  • Das realistische Reduktions-Szenario (blau) hebt die $CO_2$-Werte die nächsten 50 Jahre leicht an, hält sie aber unter 455 ppm und senkt sie nach 2055 dann allmählich auf das Niveau von 1990.

Schlussfolgerungen

Nicht einmal das pessimistischste der oben beschriebenen Szenarien erreicht auch nur annähernd einen „katastrophalen“ $CO_2$-Gehalt in der Atmosphäre.
Das Szenario der vollständigen Dekarbonisierung bis 2050 kann nur als völliger Unsinn bewertet werden. Abgesehen von der Unmöglichkeit, bis dahin täglich eine Energiequelle mit dem Äquivalent eines größeren Kernkraftwerks zu installieren, kann sich niemand wünschen, auf das vorindustrielle $CO_2$-Niveau zurückzugehen. Eine einseitige Dekarbonisierung von Deutschland oder Europa hat ohnehin so gut wie keinen Effekt auf den weltweiten $CO_2$ Gehalt.
Auf der anderen Seite motivieren die begrenzten fossilen Ressourcen dazu, sie auf eine machbare und menschenwürdige Weise zu ersetzen. Dies spiegelt sich im „Kompromiss“-Szenario wider, das die langfristigen weltweiten Emissionen bis zum Ende des Jahrhunderts schrittweise auf das Niveau des Jahres 1990 reduziert.

Allen, die sich darüber Sorgen machen, durch die Aufnahme des $CO_2$ aus der Atmosphäre würden die Ozeane „versauern“, sei gesagt, dass die gesamte Menge des $CO_2$ in der Atmosphäre gerade mal 2% dessen sind, was in den Ozeanen gelöst ist. Davon gelangt nur ein Teil in die Ozeane. Auch wenn die Vorgänge sehr komplex sind, kann davon ausgegangen werden dass die Veränderung des $CO_2$-Gehalts in die Ozeanen für alle oben genannten Szenarien vernachlässigt werden kann. Dazu kommt, dass etwa die Hälfte des zusätzlichen atmosphärigen $CO_2$ in Form der $CO_2$-Düngung der Biosphäre, insbesondere Begrünung und Humusbildung, zugute kommt.

Die Frage, welche Auswirkungen diese Szenarien auf die Entwicklung der globalen Durchschnittstemperatur haben werden, wird in diesem Beitrag behandelt.

Eine mathematisch formalisierte saubere Herleitung der beschriebenen Zusammenhänge mit ähnlichen Ergebnissen ist hier beschrieben.