Die Dekonstruktion des Klimanarrativs

Einleitung – Wie funktioniert das Klimanarrativ?

Zweifellos gibt es ein von Wissenschaft, Medien und Politik propagiertes Klimanarrativ, wonach wir uns aufgrund der anthropogenen CO2 Emissionen auf einem Katastrophenkurs befinden, der angeblich nur mit einer Reduktion der Emissionen auf Null bis zum Jahre 2050 aufzuhalten ist.

Alle die dem Narrativ auch nur in subtilen Details widersprechen, werden wie Aussätzige auf „schwarzen Listen“ geführt, selbst wenn sie renommierte Wissenschaftler, ja sogar Nobelpreisträger sind[1][2] – mit verheerenden Folgen für Bewerbungen, Publikationen oder Förderanträge.     

Wie ist es möglich, alle wichtigen, auch die renommiertesten Universitäten wie Harvard, MIT und Stanford, Oxford, Cambridge und Heidelberg auf die gemeinsame Konsenslinie zu bringen? Wie kann es gelingen, dass die berühmtesten Zeitschriften wie Nature[3] und Science, aber auch populärwissenschaftliche wie Spektrum der Wissenschaft nur noch einen schmalen „Verständnistunnel“ gelten lassen, ohne ihren Ruf nicht offensichtlich zu ruinieren?

Damit das Narrativ eine solche starke und universelle Wirkung entfalten kann, ist zweifellos ein solides wissenschaftliches Fundament notwendig, das man nicht ohne Blamage bestreiten kann. Diejenigen, die es trotzdem tun, werden auf denkbar einfache Weise als „Klimaleugner“ oder „Wissenschaftsfeinde“ identifiziert. 

Auf der anderen Seite sind die Vorhersagen daraus und insbesondere die politischen Konsequenzen daraus dermaßen menschenfeindlich und wirklichkeitsfremd, dass nicht nur eine tiefe gesellschaftliche Spaltung entstanden ist, sondern dass eine zunehmende Zahl von Zeitgenossen, darunter viele Wissenschaftler, hinterfragen, was das für eine Wissenschaft sein soll, die dermaßen abwegige Ergebnisse produziert[4].

Bei sorgfältiger Analyse des Klimathemas findet sich ein Muster, das sich wie ein roter Faden durch alle Aspekte durchzieht. Dieses Muster wird im am Beispiel von 4 Schwerpunkten, die in der Klimaforschung bedeutsam sind, illustriert.

Das Muster, das sich aus langjähriger Auseinandersetzung mit dem Thema herausschälte, besteht darin, dass es im Kern immer eine korrekte Beobachtung oder ein gültiges Naturgesetz gibt. Im nächsten Schritt werden allerdings die Ergebnisse dieser Beobachtung entweder ungeprüft in die Zukunft fortgeschrieben, die Ergebnisse werden übertrieben oder sogar in ihrer Bedeutung verdreht. Andere, zielführende Erkenntnisse werden weggelassen oder ihre Veröffentlichung unterdrückt.

An den genannten und vielen anderen Beispielen lässt sich die typische Schlussfolgerung zeigen, dass bei dem jeweiligen Teilaspekt des Klimas ein möglichst schädliches Ergebnis droht. Das Zusammenfügen mehrerer solcher Komponenten führt in der Summe dann zu den katastrophalen Horrorszenarien, mit denen wir täglich konfrontiert werden. Da die Aussagen meist die Zukunft betreffen, lassen sie sich in der Regel kaum überprüfen.

Die gesamte Argumentationskette des Klimanarrativs hat folgende Form:

  1. Die anthropogenen Emissionen wachsen – exponentiell.
  2. Mit den Emissionen wächst die atmosphärische Konzentration an, solange die Emissionen nicht vollständig auf Null reduziert werden
  3. Das Anwachsen der CO2-Konzentration in der Atmosphäre führt zu einem – dramatischen – Anwachsen der durchschnittlichen Temperatur
  4. Darüber hinaus gibt es noch positive Rückkopplungen, wenn die Temperatur anwächst, ja sogar Kipppunkte, jenseits derer keine Umkehr mehr möglich ist.
  5. Andere Erklärungen wie Sonnenstunden oder die damit zusammenhängende Wolkenbildung werden ignoriert, heruntergespielt oder in das System als Rückkopplungseffekt eingebaut.
  6. Die Auswirkungen sind in der Summe dermaßen katastrophal, dass damit beliebige totalitäre politische Maßnahmen gerechtfertigt werden, mit dem Ziel, die weltweiten Emissionen auf Null herunterzudrücken.

Die ausführliche Beschäftigung mit dem Thema führt zu dem Ergebnis, dass jeder einzelne dieser Punkte das oben beschriebene Muster zeigt, dass es zwar immer einen wahren Kern gibt, der für sich genommen harmlos ist. Den wahren Kern herauszuarbeiten und die Übertreibungen, falschen Extrapolationen oder Weglassen wesentlicher Informationen herauszuarbeiten, ist das Ziel dieser Schrift.

1.  Die anthropogenen Emissionen wachsen – exponentiell?

Jeder kennt die klassischen Beispiele exponentiellen Wachstums, z.B. das Schachbrett, das Feld für Feld mit jeweils der doppelten Menge Reis gefüllt wird. Ein exponentielles Wachstum führt grundsätzlich immer in eine Katastrophe. Daher ist es wichtig, die Fakten des Emissionswachstums zu prüfen.

Abbildung 1: Relatives Wachstum der weltweiten Emissionen[5][6]

Abbildung 1 zeigt das relative Wachstum der weltweiten anthropogenen Emissionen während der letzten 80 Jahre.   Um das Diagramm zu verstehen, vergegenwärtigen wir uns, dass konstantes relatives Wachstum exponentielles Wachstum bedeutet[7]. Ein Sparkonto mit 3% Zinsen wächst im Prinzip exponentiell. Demnach finden wir exponentielles Emissionswachstum mit einer Wachstumsrate von etwa 4,5% zwischen 1945 bis 1975. Diese Phase nannte man einst „Wirtschaftswunder“. Danach ging das Emissionswachstum bis 1980 auf 0 zurück. Man nannte diese Zeit „Rezession“, mit der Konsequenz von Regierungswechseln in USA und Deutschland.

Ein weiterer Wachstumstiefpunkt der Emissionen war um 1990 mit dem Zusammenbruch des Kommunismus verbunden, mit einem folgenden Wiederanstieg, hauptsächlich in den Schwellenländern. Seit 2003 erfolgt eine beabsichtigte Reduktion des Emissionswachstum infolge der Klimapolitik.

Festzuhalten ist, dass aktuell das Emissionswachstum auf 0 gefallen ist.

Vor kurzem hat Zeke Hausfather festgestellt, dass die Summe der weltweiten  anthropogenen Emissionen seit 2011 im Rahmen der Meßgenauigkeit konstant[8] sind, dargestellt in Abbildung 2. Demzufolge ist auch für die Zukunft kein Überschreiten der aktuellen Emissionen mehr zu erwarten[9].

Abbildung 2:  Anthropogene Emissionen sind seit 2011 konstant[10]

Die längerfristige Fortschreibung der aktuellen geplanten künftigen Emissionen, das sogenannte „Stated Policies“ Szenario (von 2021) erwartet bis 2030 konstante weltweite Emissionen und danach eine ganz leichte Senkung von 0,3% pro Jahr.

Abbildung 3:  STEPS Szenario (Stated Policies Scenario) der IEA, nahezu konstante Emissionen[11].

Demzufolge sind die beiden vom IPCC am häufigsten verwendeten Zukunftsszenarien (RCP 8.5 und RCP6.2) fern von der Realität[12] der tatsächlich möglichen Emissionsszenarien. Trotzdem ist das Extremszenario RCP8.5 in den Modellrechnungen immer noch das am häufigsten verwendete[13].

Wissenschaftlich seriös sind vor allem das IPCC Szenario RCP4.5 und diesem in Abbildung 3 dargestellten ähnlichen IEA Szenario „Stated Policies“ (dort S. 33, Figure 1.4)[14].

Damit bleibt es bei Anerkennung der realistischen Emissionsszenarien ohne Infragestellung der vom IPCC verbreiteten Aussagen über das Klima bei einer maximalen emissionsbedingten Temperaturerhöhung von 2,5°C gegenüber dem vorindustriellen Zustand. 

2. Atmosphärische CO2 Konzentration steigt kontinuierlich an  —  es sei denn, die Emissionen werden auf Null reduziert?

Die Frage ist, wie sich anthropogene Emissionen auf die CO2-Konzentration in der Atmosphäre auswirken.  Es ist bekannt und in Abb. 4 von der Internationalen Energieagentur illustriert, dass bei weitem nicht alles emittierte CO2 in der Atmosphäre verbleibt, sondern dass ein wachsender Anteil davon von den Ozeanen und den Pflanzen wieder absorbiert wird.

Die statistische Auswertung der anthropogenen Emissionen und der CO2-Konzentration ergibt unter Berücksichtigung der Massenerhaltung und einem linearen Modell der natürlichen Senken Ozeane und Biosphäre, dass jedes Jahr knapp 2% der über das vorindustrielle natürliche Gleichgewichtsniveau hinausgehenden CO2-Konzentration von den Ozeanen und der Biosphäre

Abbildung 4: Quellen (anthropogene Emissionen und Landnutzung), Senken des CO2
(Ozeane und Landsenken) und Konzentrationswachstum in der Atmosphäre

absorbiert werden[15] [16].  Das ist aktuell die Hälfte der anthropogenen Emissionen mit zunehmender Tendenz, wie in Abbildung 5 dargestellt.    

Abbildung 5: CO2 Bilanz und lineares Senkenmodell: anthropgene Emissionen (blau),
                       Konzentrationswachstum (orange), natürliche Senken und deren Modellierung (grün)

Das wahrscheinlichste weltweite Zukunftsszenario der Internationalen Energie Agentur – die in Abb. 3 dargestellte Fortschreibung heutiger politischer Regelungen  (Stated Policies Szenario STEPS) – beinhaltet bis zum Ende des Jahrhunderts eine sanften Abnahme (3%/Jahrzehnt) der weltweiten Emissionen auf das Niveau von 2005. Diese Emissionsverringerungen sind durch Effizienzverbesserungen und normalen Fortschritt erreichbar.

Wenn wir dieses STEPS Referenz-Szenario zugrunde legen, führt dies bei Nutzung des linearen Senkenmodells zu einem Anstieg der Konzentration um 55 ppm auf ein Plateau von 475 ppm, wo dann die Konzentration verbleibt.   

Abbildung 6:  Gemessene und vorhergesagte CO2-Konzentration mit 95% Fehlerbalken

Wesentlich ist, dass dabei die CO2-Konzentration auf keine klimatisch gefährlich hohe Werte steigen wird.   Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1[17]:
Die Länder müssen ihre maximalen Emissionen baldmöglichst erreichen “um so ein Gleichgewicht zwischen anthropogenen Emissionen von Treibhausgasen und und deren Absorption mittels Senken in der zweiten Hälfte dieses Jahrhunderts zu erreichen”. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Dekarbonisierung. 

Das Netto-Null Gleichgewicht zwischen Emissionen und Absorptionen wird mit der Fortschreibung heutigen Verhaltens im Jahre 2080 ohne radikale Klimamaßnahmen erreicht

Ohne auf die Details der sog. Sensitivitätsberechnung einzugehen, lässt sich vereinfacht für die weitere Temperaturentwicklung sagen:

Angenommen, die CO2-Konzentration sei voll verantwortlich für die Temperaturentwicklung der Atmosphäre, dann war 2020 die CO2-Konzentration 410 ppm, also (410-280) ppm = 130 ppm über dem vorindustriellen Niveau. Bis dahin war die Temperatur etwa 1° C höher als vor der Industrialisierung. Künftig können wir mit der obigen Prognose eine Erhöhung der CO2-Konzentration um (475-410) ppm = 65 ppm erwarten. Das ist grade die Hälfte der bisherigen Steigerung. Demzufolge können wir, auch wenn wir von der Klimawirkung des CO2 überzeugt sind, bis dahin zusätzlich die Hälfte der bisherigen Temperaturerhöhung erwarten, also ½° C. Demzufolge wird 2080 die Temperatur mit 1,5° C über vorindustriellem Niveau das Ziel des Pariser Klimaabkommens erfüllen, auch ohne radikale Emissionsreduktionen.

3.  Atmosphärische CO2 Konzentration verursacht – dramatischen? – Temperaturanstieg

Nach der Diskussion über die möglichen künftigen CO2-Mengen stellt sich die Frage nach deren Auswirkungen auf das Klima, also nach dem Treibhauseffekt des CO2 und dessen Einfluss auf die Temperatur der Erdoberfläche und der Atmosphäre.   

Der mögliche Einfluss des CO2 auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport[18]. Da das Thema einerseits grundlegend für die gesamte Klimadiskussion ist, andererseits anspruchsvoll und schwer durchschaubar, wird hier auf die  komplizierten physikalischen Formeln verzichtet.

Um den Treibhauseffekt messen zu können, muss die in das Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der erwartete Treibhauseffekt ist aber mit 0,2 W/m2 pro Jahrzehnt[19] so winzig, dass er mit heutiger Satellitentechnologie, die eine Messgenauigkeit von etwa 10 W/m2 hat, nicht direkt nachweisbar ist[20].

Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der physikalischen Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses CO2 Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.

Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN[21], mit dem die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der CO2-Treibhauseffekt physikalisch korrekt simuliert werden kann:

Abbildung 7 zeigt, dass die MODTRAN Rekonstruktion des Infrarotspektrums hervorragend mit dem aus dem Weltraum gemessenen Infrarotspektrum übereinstimmt. Damit können wir die Anwendbarkeit des Simulationsprogramms rechtfertigen und schließen, dass sich mit der Simulation auch hypothetische Konstellationen mit ausreichender Genauigkeit beschreiben lassen.

Mit diesem Simulationsprogramm wollen wir die wichtigsten Aussagen bezüglich des Treibhauseffekts überprüfen.

Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum

Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum

Um auf bekanntem Gefilde zu beginnen, versuchen wir zunächst, den üblicherweise publizierten, „reinen CO2-Treibhauseffekt zu reproduzieren“, indem die durch nichts reduzierte Sonneneinstrahlung die Erde erwärmt und deren Infrarotstrahlung in den Weltraum ausschließlich durch die CO2-Konzentration abgeschwächt wird. Die CO2-Konzentration wird auf das vorindustrielle Niveau 280 ppm eingestellt.

Wir verwenden dabei die sogenannte Standard-Atmosphäre[22], die sich seit Jahrzehnten bei für die Luftfahrt wichtigen Berechnungen bewährt hat, entfernen aber alle anderen Spurengase, ebenso den Wasserdampf. Die anderen Gase wir Sauerstoff und Stickstoff sind aber als vorhanden angenommen, sodass sich an der Thermodynamik der Atmosphäre nichts ändert. Durch leichte Korrektur der Bodentemperatur auf 13,5°C (Referenztemperatur ist 15°C) wird die Infrarot-Abstrahlung auf 340 W/m2 eingestellt. Das ist grade ¼ der Solarkonstante[23], entspricht also genau der auf die ganze Erdoberfläche verteilten Sonneneinstrahlung. 

Gut erkennbar ist im Spektrum das „CO2-Loch“, also die gegenüber dem normalen Planck-Spektrum[24]  verminderte Abstrahlung im CO2-Band.

Abbildung 8: Simuliertes IR-Spektrum: nur vorindustrielles CO2

Was passiert nun bei Verdoppelung der CO2-Konzentration?

Abbildung 9: Strahlungsantrieb bei                                  Abbildung 9a: Temperaturanstieg zur
CO2-Verdoppelung (keine Albedo,                                   Kompensation des Strahlungsantriebs
kein Wasserdampf)                                                           von Abb. 9.

In Abb. 9 ist zu sehen, dass bei Verdoppelung der CO2-Konzentration auf 560 ppm der Wärmefluß der Infrarotstrahlung um 3,77 W/m2 vermindert wird. Diese Zahl wird vom IPCC und fast allen Klimaforschern verwendet, um den CO2-Antrieb („Forcing“) zu beschreiben.  In Abb. 9a verändern wir die Bodentemperatur von -1,5°C auf -0,7°C, um wieder die Abstrahlung von 340 W/m2 zu erreichen. Diese Erwärmung um 0,8°C bei Verdoppelung der CO2-Konzentration wird als „Klima-Sensitivität“ bezeichnet.  Sie ist, angesichts der aktuellen Meldungen über die drohenden Klimakatastrophen überraschend gering.

Insbesondere, wenn wir bedenken, dass die bisher verwendeten Einstellungen des Simulationsprogramms völlig an der realen Erdatmosphäre vorbeigehen:

  • Keine Berücksichtigung der Albedo, der Rückstrahlung des Lichteinstrahlung,
  • Keine Berücksichtigung von Wolken und Wasserdampf

Schritt für Schritt wollen wir uns nun den realen Bedingungen nähern. Die Szenarien sind in Tabelle 1 zusammengefaßt:

Szenario Albedo Einstrahlung
 (W/m2)
CO2 vorher (ppm) Temperatur
(°C)
CO2 nachher (ppm) Antrieb
 (W/m2)
Temperatur- Steigerung fürs Gleichgewicht (°C)
Vorindustriell Nur CO2, keine Wolken, kein Wasserdampf 0 340 280 13,7 560 -3,77 0,8
Keine Treib-hausgase, keine Wolken
(CO2 von 0-280 ppm)
0,125 297,5 0 -2 280 -27 7
Nur CO2, Albedo, keine Wolken, kein Wasserdampf 0,125 270 280 5 560 -3,2 0,7
Vorindustrielle 
Standard- Atmosphäre
0,3 240 280 15 560 -2 0,5
Vorindustrielle  Standard Atmosphäre, CO2 heutige Konzentration 0,3 240 280 15 420 -1,1 0,3
Tabelle 1: MODTRAN Szenarien unter verschiedenen Bedingungen, siehe Text.

Das Szenario in der ersten Zeile von Tabelle 1 ist das soeben besprochene „reine CO2“ Szenario.

In der zweiten Zeile gehen wir noch einen Schritt zurück, und entfernen auch noch das CO2, also ein Planet ohne Treibhausgase, ohne Wolken, ohne Wasserdampf. Aber die Erdoberfläche reflektiert Sonnenlicht, hat also Albedo[25]. Der Albedowert 0,125 entspricht dem sonstiger Gesteinsplaneten ebenso wie der Meeresoberfläche. Erstaunlicherweise kommt in diesem Fall eine Oberflächentemperatur von -2° C (und nicht wie oft behauptet -18°C!) zustande. Das kommt daher, dass es ohne Wasserdampf auch keine Wolkenalbedo gibt. Wird nun die CO2-Konzentration auf das vorindustrielle Niveau von 280 ppm erhöht, dann reduziert sich die Infrarot-Abstrahlung um 27 W/m2. Dieser große Strahlungsantrieb wird durch eine Temperatursteigerung von 7°C ausgeglichen.

Wir stellen fest, zwischen dem Zustand ganz ohne Treibhausgase und dem vorindustriellen Zustand gibt es einen stattlichen Treibhauseffekt, mit einer Erwärmung um 7°C.

Die dritte Zeile nimmt diesen vorindustriellen Zustand, also Erdalbedo, 280 ppm CO2, keine Wolken und kein Wasserdampf als Ausgangspunkt für das nächste Szenario. Bei Verdoppelung der CO2-Konzentration beträgt der Strahlungsantrieb von -3,2 W/m2, also etwas weniger als bei dem ersten „reinen CO2-Szenario“. Demzufolge ist auch hier die Erwärmung mit 0,7°C  zur Erreichung des Strahlungsgleichgewichts etwas geringer.

Nach diesen Vorbereitungen ist in der 4. Zeile die vorindustrielle Standardatmosphäre mit Albedo, Wolken, Wasserdampf und  der real gemessenen Albedo von 0,3 repräsentiert, mit der zur Standardatmosphäre zugehörige Bodentemperatur von 15°C.  Es gibt nun mehrere Möglichkeiten, Bewölkung und Wasserdampf einzustellen, um die der Albedo a=0,3 entsprechende Infrarot-Abstrahlung von 340 W/m2 . (1-a) = 240 W/m2 zu erreichen. Für’s Ergebnis kommt es nicht auf die genaue Wahl dieser Parameter an, solange die Abstrahlung 240 W/m2 beträgt.

Bei diesem Szenario bewirkt die Verdoppelung der CO2-Konzentration auf 560 ppm einen Strahlungsantrieb von -2 W/m2 und eine kompensierende Temperaturerhöhung, also Sensitivität von 0,5°C.  

Außer dem Szenario der Verdoppelung der CO2-Konzentration ist natürlich auch von Interesse, was der Treibhauseffekts bis heute bewirkt hat. Die aktuelle CO2-Konzentration von 420 ppm ist gerade in der Mitte zwischen den vorindustriellen 280 ppm und deren doppeltem Wert.

In der 5. Zeile der Tabelle bewirkt die Erhöhung von 280 ppm auf 420 ppm den Strahlungsantrieb von -1,1 W/m2 und die zur Kompensation notwendige Temperaturerhöhung von 0,3°C.   Aus diesem Resultat folgt, dass seit dem Beginn der Industrialisierung der bisherige Anstieg der CO2-Konzentration für eine globale Temperaturerhöhung von 0,3°C verantwortlich war.

Das ist viel weniger als die mittlere Temperaturerhöhung seit dem Beginn der Industrialisierung.  Daher stellt sich die Frage, wie die „restliche“ Temperaturerhöhung zu erklären ist.

Es bieten sich mehrere Möglichkeiten an:

  • Positive Rückkopplungseffekte, die die CO2-bedingte Erwärmung verstärken. Das ist die Richtung des Weltklimarates und Thema des nächsten Kapitels.
  • Andere Ursachen wie Wolkenalbedo. Das ist Thema des übernächsten Kapitels
  • Zufällige Schwankungen. Gerne wird angesichts des chaotischen Charakters des Wettergeschehens der Zufall herangezogen. Diese Möglichkeit bleibt in Rahmen dieser Abhandlung offen.

4.  Rückkopplungen führen zu  — katastrophalen?  — Konsequenzen

Die im vorigen Kapitel maximal mögliche Klimasensitivität, also Temperaturerhöhung bei Verdoppelung der CO2-Konzentration beträgt 0,8°C, unter realen Bedingungen eher 0,5°C.

Es war in der Klimaforschung schon früh klar, dass eine solch geringe Klima-Sensitivität niemanden in der Welt ernsthaft in Sorge versetzen könnte. Dazu kam, dass die gemessene globale Erwärmung größer ist als von der Strahlungstransportgleichung vorhergesagt wird.

Deswegen wurden Rückkopplungen ins Spiel gebracht, die prominenteste Veröffentlichung in diesem Zusammenhang war 1984 von James Hansen et al.: „Climate Sensitivity: Analysis of Feedback Mechanisms“[26] (Klima-Sensitivität: Analyse von Rückkopplungsmechanismen). James Hansen war es, der mit seinem Auftritt vor dem US-Senat 1988[27] die Klimapolitik der USA maßgeblich beeinflusste. Ähnlich argumentierte Prof. Levermann bei einer Anhörung des Umweltausschusses des Deutschen Bundestags[28], verbunden mit der Behauptung, aufgrund der Rückkopplung würde die Temperatur um 3°C steigen.

Mit Hilfe der Rückkopplungsmechanismen entstanden die vom IPCC veröffentlichten hohen Sensitivitäten bei Verdopplung der CO2 Konzentration zwischen 1,5°C und 4,5°C.

Es stellt sich insbesondere die Frage, wie eine geringe Erwärmung von 0,8°C durch Rückkopplung zu einer Erwärmung von 4,5°C führen kann, ohne dass das System völlig außer Kontrolle gerät?

Die in diesem Zusammenhang mit Abstand wichtigste Rückkopplung ist die Wasserdampf-Rückkopplung.

Wie funktioniert die Wasserdampf-Rückkopplung?

Die Wasserdampf-Rückkopplung besteht aus einem 2-Schritt Prozess:

  • Wenn die Lufttemperatur um 1°C steigt, kann die Luft um 6% mehr Wasserdampf aufnehmen[29].  Es ist zu beachten, dass dieser Prozentsatz der maximal mögliche Wasserdampfgehalt ist. Ob dieser wirklich erreicht wird, hängt davon ab, ob genügend Wasserdampf zur Verfügung steht.
  • Der Strahlungstransport von Infrarotstrahlung hängt von der relativen Luftfeuchtigkeit ab:
    Zusätzliche Luftfeuchtigkeit reduziert die abgestrahlte Infrarotstrahlung infolge der Absorption durch den zusätzlichen Wasserdampf.
    Mit Hilfe des bereits erwähnten MODTRAN-Simulationsprogramms wird die Reduktion der Infrarotstrahlung um 0,69 W/m2 bei Erhöhung des Luftfeuchtigkeit um 6%, also z.B. von 80% auf 86% ermittelt[30]

Diese reduzierte Infrarotstrahlung ist ein negativer Strahlungsantrieb. Die diese Abschwächung kompensierende Temperaturerhöhung ist die primäre Rückkopplung g (englisch „gain“). Diese beträgt 0,19 °C als Folge der ursprünglichen Temperaturerhöhung um 1°C, also ist g=0,19.

Die Gesamtrückkopplung f (englisch „feedback“) ergibt sich als geometrische Reihe[31] infolge der rekursiven Anwendung des obigen Mechanismus – die 0,19°C zusätzliche Temperaturerhöhung haben ja eine erneute zusätzliche Wasserdampfbildung zur Folge. Dieser Zusammenhang wird von James Hansen in seiner Arbeit von 1984[32] beschrieben:

f = 1+ g + g2 + g3… = 1/(1-g).   

Mit g=0,19 ist demnach der Rückkopplungsfaktor f = 1,23.  

Unter Zugrundelegung eines Treibhauseffekts aus dem Strahlungstransport von 0,8°C erfolgt daraus zusammen mit der maximal möglichen Rückkopplung eine Temperaturerhöhung von 0,8°C . 1,23 = 0.984 °C  1°C, bei der hier ermittelten Sensitivität 0,5°C . 1,23 = 0,62 °C.  

Beide Werte sind niedriger als die kleinste publizierte Sensitivität von 1,5°C der beim IPCC verwendeten Modelle. Die seit dem Beginn der Industrialisierung erfolgte Erwärmung ist demnach selbst mit Rückkopplung 0,3°C . 1,23 = 0,37°C.

Damit ist belegt, dass auch die vielfach beschworene Wasserdampf-Rückkopplung zu keiner exorbitanten und schon gar keiner katastrophalen Klima-Erwärmung führt.

5.  Aber sie erwärmt sich doch? – Auswirkungen von Wolken.

An dieser Stelle aufzuhören, wird jeden, der sich mit dem Klimathema beschäftigt, mit der naheliegenden Frage unzufrieden zurücklassen: „Aber die Erde erwärmt sich doch, und zwar stärker, als die nach dem revidierten Treibhauseffekt samt Rückkopplung möglich wäre?“.

Deswegen werden hier die in der Klimadiskussion bis vor kurzem wenig beachteten Auswirkungen der tatsächlichen Wolkenbildung[33] untersucht.

Untersuchung der Veränderungen der weltweiten Wolkenbedeckung

Jay R Herman von der NASA[34] hat mit Hilfe von Satellitenmessungen über einen Zeitraum von mehr als 30 Jahren die mittlere Reflexivität der Wolkenbedeckung der Erde berechnet und ausgewertet:

Abbildung 10: Wolkenreflexivität zwischen 1979 und 2011

Er stellte einen klaren Trend der Abnahme der Wolkenbedeckung fest. Daraus berechnete er, wie sich dies auf die davon betroffenen Komponenten des globalen Energiebudgets auswirkt: 

Abbildung 11 Veränderung des Energiebudgets aufgrund der Veränderung der Wolkenreflexivität

Das Ergebnis war, dass aufgrund der reduzierten Wolkenbedeckung die Sonneneinstrahlung in 33 Jahren um 2,33 W/m2 zunahm. Das sind 0,7 W/m2 Strahlungsantrieb pro Jahrzehnt. Demgegenüber betrug die Abnahme der Abstrahlung infolge der Zunahme der CO2-Konzentration maximal 0,2 W/m2 pro Jahrzehnt[35].

Demzufolge ist nach dieser Untersuchung der Einfluss der Wolken mit 78% auf das Klima mindestens 3,5 mal größer als der des CO2, das demnach allenfalls einen Einfluss von 22% hat. 

Fazit – es gibt keine drohende Klimakatastrophe

Fassen wir die Stationen dieser Betrachtungen zur Dekonstruktion des Klimanarrativs noch einmal zusammen:

  1. Es gibt kein exponentielles Wachstum der CO2-Emissionen. Diese Phase gab es bis 1975, aber die ist längst vorbei, und die weltweiten Emissionen sind seit 10 Jahren auf einem Plateau angelangt.
  2. Die CO2-Konzentration wächst zwar trotz konstanter Emissionen noch an, aber deren Wachstum hat sich bereits verlangsamt, und wird unter Annahme des wahrscheinlichsten Emissionsszenarios in der 2. Hälfte des Jahrhunderts aufhören.
  3. Die physikalisch plausible Treibhauswirkung des CO2 ist sehr viel geringer als gewöhnlich behauptet wird, die unter realen atmosphärischen Bedingungen begründbare Sensitivität ist nur 0,5°C.
  4. Aus der Abschätzung der maximal möglichen Rückkopplungswirkung durch Wasserdampf ergibt sich die obere Grenze des Rückkopplungsfaktors als 1,25. Damit lassen sich keine Temperaturerhöhungen von 3°C oder mehr rechtfertigen
  5. Es gibt plausible einfache Erklärungen der Temperaturentwicklung der Erde. Die wichtigste davon ist, dass infolge der verschiedenen Maßnahmen der Luftreinhaltung (Reduzierung von Holz- und Kohleverbrennung, Katalysatoren bei Automobilen, etc.) die Aerosole in der Atmosphäre im Laufe der letzten 70 Jahre zurückgegangen ist, was zu einer Verminderung der Wolkenbildung und daher zu einer Erhöhung der Sonneneinstrahlung führte.   

[1] https://www.eecg.utoronto.ca/~prall/climate/skeptic_authors_table.html
[2] https://climatlas.com/tropical/media_cloud_list.txt
[3] https://www.cfact.org/2019/08/16/journal-nature-communications-climate-blacklist/
[4] z.B. https://clintel.org/
[5] Rohdaten: https://ourworldindata.org/co2-emissions
[6] Relatives Wachstum: https://www.statisticshowto.com/relative-rate-of-change-definition-examples/#:~:text=Relative%20rates%20of%20change%20are,during%20that%20ten%2Dyear%20interval.
[7] https://www.mathebibel.de/exponentielles-wachstum
[8] https://www.carbonbrief.org/global-co2-emissions-have-been-flat-for-a-decade-new-data-reveals/
[9] https://www.carbonbrief.org/analysis-global-co2-emissions-could-peak-as-soon-as-2023-iea-data-reveals/
[10] https://www.carbonbrief.org/global-co2-emissions-have-been-flat-for-a-decade-new-data-reveals/[
11] https://www.iea.org/data-and-statistics/charts/co2-emissions-in-the-weo-2021-scenarios-2000-2050
[12] https://www.nature.com/articles/d41586-020-00177-3
[13] https://rogerpielkejr.substack.com/p/a-rapidly-closing-window-to-secure
[14] https://iea.blob.core.windows.net/assets/4ed140c1-c3f3-4fd9-acae-789a4e14a23c/WorldEnergyOutlook2021.pdf
[15] https://judithcurry.com/2023/03/24/emissions-and-co2-concentration-an-evidence-based-approach/
[16] https://www.mdpi.com/2073-4433/14/3/566
[17] https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:22016A1019(01)
[18] http://web.archive.org/web/20210601091220/http:/www.physik.uni-regensburg.de/forschung/gebhardt/gebhardt_files/skripten/WS1213-WuK/Seminarvortrag.1.Strahlungsbilanz.pdf
[19] https://www.nature.com/articles/nature14240
[20] https://www.sciencedirect.com/science/article/pii/S0034425717304698
[21] https://climatemodels.uchicago.edu/modtran/
[22] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv3=102564&lv2=102248#:~:text=In%20der%20Standardatmosph%C3%A4re%20werden%20die,Luftdruck%20von%201013.25%20hPa%20vor.
[23] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv3=102520&lv2=102248#:~:text=Die%20Solarkonstante%20ist%20die%20Strahlungsleistung,diese%20Strahlungsleistung%20mit%20ihrem%20Querschnitt.
[24] https://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz
[25] https://wiki.bildungsserver.de/klimawandel/index.php/Albedo_(einfach)
[26] https://pubs.giss.nasa.gov/docs/1984/1984_Hansen_ha07600n.pdf
[27] https://www.hsgac.senate.gov/wp-content/uploads/imo/media/doc/hansen.pdf
[28] https://www.youtube.com/watch?v=FVQjCLdnk3k&t=600s
[29] Üblicherweise wird ein Wert von 7% angegeben, aber die 7% sind erst ab einer Höhe von 8 km infolge des dort verminderten Luftdrucks möglich.
[30] https://klima-fakten.net/?p=9287
[31] https://de.wikipedia.org/wiki/Geometrische_Reihe
[32] https://pubs.giss.nasa.gov/docs/1984/1984_Hansen_ha07600n.pdf
[33] Beim IPCC werden Wolken in der Regel nur als potentielle Rückkopplungsmechanismen behandelt.[34]https://www.researchgate.net/publication/274768295_A_net_decrease_in_the_Earth%27s_cloud_aerosol_and_surface_340_nm_reflectivity_during_the_past_33_yr_1979-2011
[35] https://www.nature.com/articles/nature14240




Wie groß ist der Treibhauseffekt in Deutschland? — eine statistische Analyse


[latexpage]

Hohe Korrelation als Indiz der Kausalität?

Die Argumentation, dass CO2 die mittlere globale Temperatur bestimmt, wird häufig mit diesem Diagramm, das eine starke Korrelation zwischen CO2-Konzentration und mittlerer globaler Temperatur zeigt, veranschaulicht oder sogar begründet, hier beispielsweise die in Maona Loa gemessene mittlere jährliche Konzentration und die jährlichen globalen Meeresoberflächentemperaturen:

Es gibt zwar zwischen 1900 und 1975 — immerhin 75 Jahre — starke systematische Abweichungen, aber seit 1975 ist die Korrelation stark.
Wenn wir versuchen, mit den seit 1959 verfügbaren CO2-Konzentrationsdaten von Maona Loa die deutschen Mitteltemperaturen zu erklären, bekommen wir eine klare Beschreibung des Trends der Temperaturentwicklung, aber keine Erklärung der starken Schwankungen:

Die aus den im Jahr $i$ gemessenen logarithmischen CO2-Konzentrationsdaten $ln(C_i)$ mit der Methode der kleinsten Quadrate geschätzte „Modelltemperatur“ $\hat{T}_i$ ergibt sich als
$\hat{T}_i = 7.5\cdot ln(C_i)- 35.1 $ (°C)

Nehmen wir als 2. Erklärungsvariable die jährlichen Sonnenstunden hinzu, so verbessert sich die Anpassung etwas, aber wir sind noch weit entfernt von einer vollständigen Erklärung der schwankenden Temperaturen. Der Trend wird erwartungsgemöß ähnlich gut wiedergeben, auch ein Teil der Schwankungen wird mit den Sonnenstunden erklärt, aber bei weitem nicht so gut, wie man es eigentlich von einer kausalen Bestimmungsgröße erwarten würde :

Die Modellgleichung für die geschätzte Temperatur $\hat{T}_i$ wird mit der Erweiterung der Sonnenstunden $S_i$ zu
$ \hat{T}_i = 5.8\cdot ln(C_i) + 0.002\cdot S_i – 28.5 $ (°C)
Das relative Gewicht der CO2-Konzentration hat bei insgesamt verbessertem statistischem Erklärungswert der Daten etwas abgenommen.

Allerdings sieht es so aus, als ob das Zeitintervall 1 Jahr viel zu lang ist, um die Auswirkung der Sonneneinstrahlung auf die Temperatur korrekt zu behandeln. Es ist offensichtlich, dass die jahreszeitlichen Schwankungen unzweifelhaft von der Sonneneinstrahlung verursacht werden.
Die Auswirkungen der Einstrahlung sind nicht alle spontan, es müssen auch Speichereffekte berücksichtigt werden. Das entspricht unserer Wahrnehmung, dass die Wärmespeicherung der Sommerwärme 1-3 Monate anhält, und z.B. die wärmsten Monate erst nach der Zeit der größten Sonneneinstrahlung sind. Deswegen müssen wir ein auf dem Energiefluss beruhendes Modell erstellen, das mit monatlichen Messwerten gefüttert wird, und das eine Speicherung vorsieht.

Energieerhaltung – Verbesserung des Modells

Um das Verständnis zu verbessern, erstellen wir ein Modell mit monatlichen Daten unter Berücksichtigung der physikalischen Vorgänge (die Monate werden mit der Indexvariablen $i$ durchgezählt):

  • Durch die Sonneneinstrahlung wird der Erdoberfläche Energie zugeführt, diese wird monatlich als proportional zur Zahl der Sonnenstunden $S_i$ angenommen,
  • unter der Annahme des Treibhauseffekts wird ebenfalls Energie zugeführt, für die monatliche Energieaufnahme (bzw. verhinderte Energieabgabe) wird eine lineare Funktion von $ln(C_i)$ angenommen,
  • die oberste Schicht der Erdoberfläche speichert die Energie und gibt sie wieder ab, die monatliche Abgabe wird als eine lineare Funktion der Temperatur $T_i$ angenommen,
  • die monatliche Temperaturänderung in Deutschland wird als proportional zur Energieänderung angenommen.

Daraus ergibt sich diese modellierte Bilanzgleichung, die Konstante $d$ erlaubt es, beliebig skalierte Maßeinheiten zu verwenden:
$ \hat{T}_i – \hat{T}_{i-1} = a\cdot \hat{T}_{i-1} + b\cdot S_i + c\cdot ln(C_i) + d $
Auf der linken Seite der Gleichung steht die Temperaturveränderung als Repräsentant der Energiebilanzänderung, während die rechte Seite die Summe der Ursachen dieser Energieänderung darstellt.
Für die Bestimmung der Koeffizienten $a,b,c,d$ mit der Methode der kleinsten Quadrate wird statt der modellierten Temperatur $\hat{T}_i$ die gemessene Temperatur $T_i$ eingesetzt.

Hier sind zunächst die monatliche Temperatur- und Sonnenstundendaten. Es ist erkennbar, dass die Temperaturdaten den Sonnenstundendaten um etwa 1-2 Monate hinterherhinken, aber insgesamt einen ähnlichen Verlauf haben:

Dies passt zu der Annahme, dass wir tatsächlich einen Speichereffekt haben. Die Bilanzgleichung sollte also sinnvolle Werte liefern. Für die Auswertung des Schätzergebnisses müssen wir allerdings genauer hinschauen.

In dieser Darstellung sind in der 1. Spalte die Werte der jeweiligen Koeffizienten, in der 2. Spalte deren Standardfehler, danach die sogenannte T-Statistik, gefolgt von der Wahrscheinlichkeit, dass die Annahme des von 0 verschiedenen Koeffizienten falsch ist, der sogenannten Irrtumswahrscheinlichkeit. Das bedeutet, dass ein Koeffizient nur dann signifikant ist, wenn diese Wahrscheinlichkeit nahe 0 ist. Dies ist der Fall, wenn die T-Statistik größer 3 oder kleiner -3 ist. Die beiden letzten Spalten beschreiben schließlich das sog. 95% Konfidenzintervall. Das bedeutet, dass mit 95%-iger Wahrscheinlichkeit sich der tatsächliche Schätzwert innerhalb dieses Intervalls befindet.

     Koeffizient  Std.Fehler   t-Wert    P>|t|    [0.025     0.975]
--------------------------------------------------------------------
a -0.4826 0.0142 -33.9049 0.0000 -0.5105 -0.4546
b 0.0492 0.0013 38.8127 0.0000 0.0467 0.0517
c 0.6857 0.9038 0.7587 0.4483 -1.0885 2.4598
d -6.3719 5.3013 -1.2020 0.2297 -16.7782 4.0344

Hier sind die Irrtumswahrscheinlichkeiten der Koeffizienten $c$ und $d$ mit 45% bzw. 23% dermaßen groß, dass wir daraus schließen müssen, dass sowohl $c=0$ also auch $d=0$ sind. $c$ misst die Bedeutung der CO2-Konzentration für die Temperatur. Das bedeutet, dass in Deutschland seit 64 Jahren die CO2-Konzentration keinen statistisch signifikanten Einfluss auf die Temperaturentwicklung hat. Dies aber ist der Zeitraum der größten anthropogenen Emissionen der Geschichte.
Dass $d$ ebenfalls den Wert 0 annimmt, ist eher dem Zufall geschuldet, denn diese Konstante hängt von den Maßeinheiten der CO2-Konzentration und der Temperatur ab.

Demzufolge wird die Bilanzgleichung angepasst:
$ T_i – T_{i-1} = a\cdot T_{i-1} + c\cdot S_i + d $
mit dem Ergebnis:

       Koeffizient Std.Fehler    t-Wert    P>|t|    [0.025    0.975]
--------------------------------------------------------------------
a -0.4823 0.0142 -33.9056 0.0000 -0.5102 -0.4544
b 0.0493 0.0013 38.9661 0.0000 0.0468 0.0517
d -2.3520 0.1659 -14.1788 0.0000 -2.6776 -2.0264

Hier ist nun die Konstante $d$ aufgrund des Umstandes, dass $c=0$ ist, wieder mit hoher Signifikanz gültig. Die beiden anderen Koeffizienten $a$ und $b$ haben sich kaum verändert. Sie verdienen eine kurze Diskussion:

Der Koeffizient $a$ gibt an, welcher Teil der als Temperatur gemessenen Energie im Laufe eines Monate wieder abgegeben wird. Das ist fast die Hälfte. Dieser Faktor ist unabhängig vom Nullpunkt der Temperaturskala, bei der Wahl von K oder Anomalien statt °C käme derselbe Wert heraus. Der Wert entspricht etwa dem subjektiven Empfinden, wie sich im Sommer die Zeiten größter Temperatur zeitlich gegenüber dem Maximum der Sonneneinstrahlung verschieben.
Der Koeffizient $b$ gibt an, mit welchem Faktor sich die Sonnenstunden in monatliche Temperaturänderung übersetzen.

Das Ergebnis ist nicht nur eine abstrakte Statistik, es lässt sich auch veranschaulichen, indem der monatliche Temperaturverlauf der letzten 64 Jahre mit Hilfe des beschriebenen Modells rekonstruiert wird.

Die Rekonstruktion des gesamten Temperaturverlauf ergibt sich aus der Zeitreihe der Sonnenstunden und einem einzigen Temperatur-Startwert $\hat{T}_{-1}=T_{-1}$, dem Vormonat des Beginns der untersuchten Zeitreihe seit 1959, also hier vom Dezember 1958.
Die Rekonstruktion erfolgt mit dieser Rekursion aus den Sonnenstunden über die 768 Monate vom Januar 1959 bis Dezember 2023:
$\hat{T}_i = \hat{T}_{i-1} + a\cdot \hat{T}_{i-1} + b\cdot S_i + d$ $(0\leq i < 768 ) $

Hier die vollständige Rekonstruktion der Temperaturdaten im Vergleich der Original-Temperaturdaten:

Der deutlicheren Darstellung wegen werden die letzten 10 Jahre vergrößert dargestellt:

Es fällt auf, dass das Residuum, d.h. die Abweichungen der Rekonstruktion von den tatsächlichen Temperaturen bis zum Ende des untersuchten Zeitraums um 0 herum symmetrisch erscheint und keine offensichtlichen systematischen Abweichungen zeigt. Das Maß des Fehlers der Rekonstruktion ist die Standardabweichung des Residuums. Diese beträgt 2.5°C. Da wir einen langen Zeitraum von 64 Jahren untersuchen, könnte eine Feinanalyse der langfristigen Trends von Original-Temperaturen, Rekonstruktion und Residuum eine mögliche Obergrenze des möglichen Einflusses von CO2 finden.

Feinanalyse des Residuums

Wenn wir von den 3 Kurven Originaltemperaturdaten, Rekonstruktion und Residuum über den ganzen 64-Jahre Zeitraum die mittlere Steigung durch Schätzung einer Ausgleichsgeraden bestimmen, bekommen wir folgende langfristige Werte:

  • Originaltemperaturdaten: 0.0027 °C/Monat = 0.032 °C/Jahr
  • Rekonstruierte Temperaturdaten: 0.0024°C/Monat = 0.029 °C/Jahr
  • Residuum: 0.00028 °C/Monat = 0.0034 °C/Jahr

Vom Trend der Originaltemperaturen werden 90% durch die Zahl der Sonnenstunden erklärt. Für weitere Ursachen bleiben also nur noch 10% an nicht erklärter Variabilität übrig. Bis zum Beweis des Gegenteils können wir also annehmen, dass höchstens für diese 10% der Anstieg der CO2-Konzentration verantwortlich ist, also für maximal 0.03° C pro Jahrzehnt während der letzten 64 Jahre. Statistisch kann aber der Beitrag der CO2-Konzentration nicht als signifikant beurteilt werden.
Zu bedenken ist, dass mit diesem einfachen Modell sehr viele Einflussfaktoren und Inhomogenitäten nicht berücksichtigt sind, dass also der Einfluss der CO2-Konzentration nicht der einzige Faktor ist, der zusätzlich zu den Sonnenstunden wirksam ist. Deswegen wird der CO2 Einfluss ja auch als statistisch nicht als signifikant bewertet.

Erweiterung — Korrektur durch Approximation der tatsächlichen Einstrahlung

Bislang haben wir die Sonnenstunden als Repräsentant des tatsächlichen Energieflusses verwendet werden. Das ist nicht ganz korrekt, denn eine Sonnenstunde im Winter bedeutet aufgrund des viel flacheren Einfallswinkels deutlich weniger eingestrahlte Energie als im Sommer.

Der jahreszeitliche Verlauf der Wichtung des einströmenden Energieflusses hat diese Form. Mit dieser Wichtung müssen die Sonnenstunden multipliziert werden, um den Energiefluß zu erhalten.

Mit diesen monatlichen Wichtungen wird das Modell aus Sonneneinstrahlung und CO2 erneut bestimmt. Wiederum muss der Beitrag des CO2 wegen mangelnder Signifikanz abgelehnt werden. Daher hier die Rekonstruktion der Temperatur aus dem einstrahlenden Energiefluss etwas besser als die obige Rekonstruktion.

Durch die Korrektur der Sonnenstunden zum Energiefluss hat sich der Standardabweichung des Residuums auf 2.1°C verringert.

Mögliche Verallgemeinerung

Weltweit ist die Erfassung der Sonnenstunden weitaus weniger vollständig als die der Temperaturmessung. Daher können die Ergebnisse für Deutschland nicht einfach weltweit reproduziert werden.
Aber es wird mit Satelliten die Wolkenbedeckung bzw. die Reflexion der Sonneneinstrahlung an den Wolken gemessen. Mit diesen Daten kommt man zu ähnlichen Ergebnissen, dass nämlich der Anstieg der CO2-Konzentration allenfalls für 20% der weltweit mittleren Temperaturerhöhung verantwortlich ist. Da diese im Schnitt niedriger ist als die Temperaturerhöhung in Deutschland, führt das am Ende ebenfalls zu einer Obergrenze von 0.03°C pro Jahrzehnt für die Folgen des CO2-bedingten Treibhauseffekts.




Zusammenhang zwischen kurzer Residenzzeit und Ausgleichszeit des temperaturabhängigen linearen Senkenmodells


[latexpage]

Es gibt Forschungsansätze zum CO$_2$ Senkeneffekt, die von der unbestrittenen kurzen Residenzzeit des CO$_2$ ausgehen, die in der Größenordnung von 3 Jahren liegt. Das prominenteste dieser Modelle ist das von Prof. Harde, beschrieben in einem Artikel aus 2019. Der Artikel geht insbesondere auf Gegenargumente ein, die gegen eine frühere Publikation von ihm vorgebracht wurde.

Die Hauptgleichung des Modells von Prof. Harde ist (Gleichung 23) – es werden die im Artikel verwendeten und erklärten Original-Bezeichnungen verwendet:

$ \frac{dC(t)}{dt}=e_{N0}+\beta_e\cdot\Delta T(t) + e_A(t) – \frac{C(t)}{\tau_{R0}+\beta_{\tau}\cdot\Delta T(t)} $

Prof. Harde schreibt, dass die Bestimmung aller Parameter mit den vorhandenen Daten unterbestimmt ist, und dass nur eine Kombination zwischen $\beta_e$ und $\beta_{\tau}$ bestimmt werden kann, wobei im Prinzip auch einer der beiden Koeffizienten gegen 0 gehen kann. Daher nehmen wir vorläufig an, dass $\beta_{\tau}=0$ ist, was bedeutet, dass sich die konzentrationsabhängige Absorptionskonstante nicht mit der Zeit ändert.

Damit vereinfacht sich die Differentialgleichung:
$ \frac{dC(t)}{dt}= e_A(t) + e_{N0}+\beta_e\cdot\Delta T(t) – \frac{1}{\tau_{R0}}\cdot C(t) $
Auf den ersten Blick ist das eine direkte „Übersetzung“ der diskreten Gleichung des temperaturabhängigen linearen Modells (Gleichung 2) – auch hier werden die dort verwendeten Symbole angewandt:
$C_{i+1} – C_i = E_i – a\cdot C_i – b\cdot T_i – c $
Auf den ersten Blick haben alle Terme klare Entsprechungen:

  • Konzentrationswachstum $C_{i+1} – C_i \Longleftrightarrow \frac{dC(t)}{dt}$
  • Anthropogene Emissionen $E_i \Longleftrightarrow e_A(t)$
  • Konzentrationsabhängige Senkenwirkung $a\cdot C_i\Longleftrightarrow \frac{1}{\tau_{R0}}\cdot C(t) $
  • Temperaturabhängige natürliche Emissionen $-b\cdot T_i\Longleftrightarrow \beta_e\cdot\Delta T(t)$
  • Als konstant angenommene natürliche Emissionen $-c\Longleftrightarrow e_{N0}$

Aber die Konstanten $c$ und $e_{N0}$ passen nicht zusammen. $c$ wird als Schätzwert der jährlichen natürlichen Netto-Emissionen mit 13.6 ppm/Jahr ermittelt, während $e_{N0}$ mit 93.3 ppm/Jahr als Vorwissen aller natürlichen Emissionen vorgegeben wird. Demzufolge beschreibt $\tau_{R0}$ auch, wie beschrieben, die Residenzzeit von etwa 3 Jahren, während $\frac{1}{a} \approx 23 a $ in der Größenordnung der Zeitkonstante der Absorptionszeit der Bombentest-Daten (etwa 16 Jahre) liegt. Neuere Berechnungen mit monatsgenauen Messdaten ergeben mit dem temperaturabhängigen linearen Modell $a=0.06$, also $\frac{1}{a} \approx 17 a $.

Um die Modelle inhaltlich aufeinander abzustimmen müssen die „Brutto“ natürlichen Emissionen $e_{N0}$ aufgeteilt werden in die Jahres-„Netto“-Emissionen $-c$ und den restlichen, innerhalb des Jahres re-absorbierten natürlichen Emissionen $e_{Rest}$ (dass dabei ein Austausch mit anderem CO$_2$ stattfindet, steht außer Frage, es geht hier nur um die Menge)
$e_{N0} = e_{Rest} – c $
sowie deren zugehörige Temperatur-Koeffizienten
$\beta_e = \beta_{Rest} – b$
Ebenso müssen die Kehrwerte der Zeitkonstanten entsprechend angepasst werden.
$\frac{1}{\tau_{R0}} = \frac{1}{\tau_{Rest}} + a$
Um die beiden Ansätze kompatibel zu bekommen, muß diese Bedingung erfüllt sein:
$e_{Rest} +\beta_{Rest}\cdot\Delta T(t)-\frac{1}{\tau_{Rest}}\cdot C(t) = 0$
und die Temperaturkoeffizienten sollten im gleichen Verhältnis stehen wie die Emissionen:
$\frac{beta_{Rest}}{\beta_e} = \frac{e_{Rest}}{e_{N0}}$

Was hilft uns das?

Es erscheint mir wichtig, zu einem grundsätzlich gemeinsamen Verständnis zu kommen, um nicht unnötige Fronten in der Wissenschaft aufzurichten, denn leider gibt es sehr viele Mißverständnisse um die Modelle des Kohlenstoffzyklus.

Beide Konzepte, Residenzzeit und Ausgleichszeit, haben in der Diskussion eine große Rolle gespielt. Sie werden häufig gegeneinander ausgespielt, und daher kann es zum Dialog wesentlich beitragen, die Zusammenhänge beider Konzepte zu verstehen. Dann können die Mosaiksteine des Kohlenstoffzyklus zusammengefügt werden.

Die wichtigste Konsequenz ist zu zeigen, dass die Gleichungen zur Behandlung der der Residenzzeit kompatibel ist zur Gleichung zur Bestimmung der Ausgleichszeit, und dass beide Fragestellungen nicht gegeneinander ausgespielt werden dürfen:

  • Es ist legitim zu fragen, wie sich anthropogene Emissionen auf die Konzentration auswirken, und es ist wenig hilfreich, diese Frage damit herunterzuspielen, dass es vielfach größere natürliche Emissionen gibt
  • Es ist auch legitim zu sagen, dass trotz des jährlichen Netto-Senkeneffekts eine Temperaturabhängigkeit der natürlichen Emissionen gibt
  • Es ist wert zu betonen, dass sich die lineare Temperaturabhängigkeit der Emissionen und die lineare Konzentrationsabhängigkeit der Absorptionen teilweise kompensieren, dass die Gesamtwirkung wie eine Temperaturunabhängigkeit des Senkeneffekt bedeuten, solange die Temperatur linear mit der CO$_2$ Konzentration ansteigt.



Wie funktioniert der Treibhauseffekt?

Über den Treibhauseffekt ist schon viel geschrieben worden, und viele Vergleiche werden angestellt. Vieles davon ist jedoch irreführend oder sogar falsch.
Der Treibhauseffekt kommt dadurch zustande, dass bei zunehmendem CO2 ein leicht wachsender Anteil der Infrarot-Strahlung aus den oberen, kalten Schichten der Erd-Atmosphäre (d.h. der Stratosphäre) in den Weltraum abgestrahlt wird.
Der Sachverhalt ist im Detail kompliziert, daher ist es auch so einfach, den Bürgern mit Übertreibungen, Verzerrungen oder Lügen Angst zu machen. Hier möchte ich ohne Formeln und anschaulich die Grundlagen des atmosphärischen Treibhauseffektes physikalisch korrekt beschreiben, bei dem das CO2 eine wichtige Rolle spielt.

Aus dem Weltraum betrachtet, erfolgt der Temperaturhaushalt der Erdoberfläche und der Atmosphäre durch

  • Einstrahlung von kurzwelligem, zum großen Teil sichtbarem Sonnenlicht und durch
  • Abstrahlung von langwelliger unsichtbarer Infrarotstrahlung.

Wenn der Energieinhalt der Einstrahlung gleich ist wie der Energieinhalt der Abstrahlung, gibt es ein Gleichgewicht, und die Durchschnittstemperatur der Erde bleibt konstant. Eine Erwärmung findet immer dann statt, wenn entweder die Abstrahlung abnimmt oder die Einstrahlung zunimmt, und zwar so lange, bis das Gleichgewicht wiederhergestellt ist.

Die Infrarotabstrahlung ist der einzige Weg, wie die Erde Energie (Wärme) in den Weltraum abgeben kann. Deshalb ist es notwendig zu verstehen, wie die Mechanismen der Infrarot-Abstrahlung funktionieren.

Die Mechanismen der Infrarot-Abstrahlung in den Weltraum

Es gibt nur 2 Möglichkeiten, wie die Erde Energie in den Weltraum abgeben kann:

  • Die Moleküle der Erdoberfläche oder der Meeresoberfläche strahlen Infrarotwellen bei der Bodentemperatur ab (durchschnittlich 15°C = 288 K).
  • Die Moleküle der sogenannten Treibhausgase, vorwiegend Wasserdampf und CO2 (in sehr viel geringerem Umfang Methan und einige andere Gase), strahlen Infrarotwellen aus der Atmosphäre heraus ab, bei der jeweils in ihrer Umgebung herrschenden Temperatur. Die anderen Gase der Atmosphäre wie Sauerstoff oder Stickstoff haben keine Möglichkeit, nennenswerte Mengen an Infrarotstrahlung abzugeben.
    CO2 unterscheidet sich von Wasserdampf darin, dass es nur in einem kleinen Wellenlängenbereich aktiv ist. Andererseits nimmt der Anteil der Wasserdampfmoleküle in der Atmosphäre ab 5 km Höhe sehr schnell ab, weil der Wasserdampf bei Abkühlung wieder zu Wolken kondensiert und dann abregnet. Das können wir daran erkennen: Im Flugzeug in 10km Höhe sind wir stets über den Wolken. Und oberhalb der Wolken gibt es so gut wie keinen Wasserdampf mehr.
    CO2 ist jedoch bis in die höchsten Schichten der Atmosphäre gleichmäßig vermischt mit den anderen Gasen, vornehmlich Sauerstoff und Stickstoff.

CO2 und Wasserdampf sind also wie zwei konkurrierende Handballmannschaften, von denen die eine (der Wasserdampf) nur bis zu Mittelline laufen darf, und die andere (CO2) sich nur innerhalb eines schmalen Längsstreifens des Spielfeldes bewegen kann. Dieser schmale Längsstreifen wird ein klein wenig breiter, wenn die „CO2 Mannschaft“ mehr Spieler (mehr CO2) bekommt. Das Tor ist für beide Mannschaften das gleiche (der Weltraum) und es erstreckt sich über die ganze Breite des Spielfelds. Solange der Ball noch weit vom Tor entfernt ist, fängt ihn ein anderer Spieler eher auf, als dass er ins Tor gelangt. Dieser andere Spieler spielt den Ball in eine zufällige Richtung wieder ab. Je dichter die Spieler stehen, desto schneller werden die Bälle wieder gefangen und wieder abgespielt. Je näher der Ball zum Tor kommt, desto weiter stehen die Spieler auseinander. Das heißt, dass der Ball dann leichter zwischen den Spielern hindurch ins Tor gelangen kann.

Solange sich noch andere Treibhausgasmoleküle in der Nähe befinden, kann also die Infrarotstrahlung nicht in den Weltraum gelangen (zu dicht stehende Mitspieler), sie wird wieder von den anderen Molekülen aufgefangen und von diesen wieder abgestrahlt. Konkret hat die Infrarotstrahlung in der unteren Atmosphäre nur eine Reichweite von etwa 25m, bis sie wieder von einem anderen Treibhausgasmolekül aufgefangen wird, meist von einem Wassermolekül oder von CO2 . Je dünner die Treibhausgase (weniger Mitspieler) in der Atmosphäre mit zunehmender Höhe werden, desto wahrscheinlicher wird es, dass die Infrarotstrahlung in den Weltraum gelangt.

Daraus kann man schließen, dass es im Prinzip 3 Schichten gibt, aus denen Infrarotstrahlung in den Weltraum gelangt:

  • Wenn die Luft trocken ist und ohne Wolken, dann gibt es einen Teil des Infrarots, das sog. „atmosphärische Fenster„, das direkt vom Boden aus in den Weltraum strahlt (das ist, wenn es keine oder nur sehr wenige Wasserdampf-Spieler auf dem Feld gibt),
  • zwischen 2 und 8 km Höhe, durchschnittlich in 5 km Höhe, ist der obere Rand der Wolken, von wo aus die Wasserdampfmoleküle der Wolken einen großen Anteil der Infrarotstrahlung bei durchschnittlich 255 K = -18°C in den Weltraum abgeben
  • der Anteil Infrarotstrahlung im Wellenlängenbereich um 15 Mikrometer herum (der schmale Streifen des Spielfeldes) wird vom CO2 bis in die hohen kalten Schichten der Stratosphäre transportiert, von wo aus sie bei etwa 220 K = -53°C in den Weltraum abgestrahlt wird.

Dadurch kommt es zu einer Konkurrenzsituation, ob ein Wassermolekül direkt abstrahlen kann oder ob seine Infrarotstrahlung noch von einem CO2-Molekül aufgefangen und in die Höhen der Stratosphäre weitergeleitet wird.

Der Treibhauseffekt

Wie kommt es nun bei einer wachsenden CO2-Konzentration zur verringerten Energieabstrahlung in den Weltraum und damit zu einer Erwärmung?

Dafür ist es wichtig zu wissen, dass mit abnehmender Luft-Temperatur die abgestrahlte Energie stark abnimmt und dass mit zunehmender Höhe die Temperatur abnimmt. Wenn die CO2-Konzentration im Laufe der Zeit zunimmt, dann wird der Wellenlängenbereich, in dem das CO2 für die Abstrahlung „zuständig“ ist, ein klein wenig breiter (der schmale Streifen des Spielfeldes). Das bedeutet, dass ein kleiner Teil der Infrarotstrahlung, die sonst bei 255 K vom Wasserdampf abgestrahlt würde, nun bei 220 K vom CO2 abgestrahlt wird, also mit deutlich niedrigerer Energie. Das bedeutet in der Konsequenz, dass die Energie der Gesamtabstrahlung leicht vermindert wird — die als konstant angenommene Einstrahlung des Sonnenlichts also überwiegt und damit ein Erwärmungseffekt eintritt.

Der Effekt ist allerdings nicht so groß, wie er gewöhnlich in den Medien dargestellt wird:
Denn seit dem Beginn der Industrialisierung hat bei einer Steigerung der CO2-Konzentration um 50% von 280 ppm auf 420 ppm die Infrarotabstrahlung der Erde um grade mal 2 Watt/qm abgenommen. Das sind bei einer durchschnittlichen Abstrahlung von 240 Watt/qm1 nur knapp 1% in 170 Jahren.
Jetzt kennen wir die erste Möglichkeit, wie das eingangs erwähnte Gleichgewicht durch eine Veränderung der Abstrahlung gestört wird. Aber bisher nur in sehr geringem Umfang.

Die Auswirkungen veränderter Einstrahlung sind größer als der Treibhauseffekt

Die zweite Möglichkeit, das Gleichgewicht zu stören, sind die Änderungen der Einstrahlung.
Die Schwankungen der Einstrahlung, die durch wechselnde Wolkenbedeckung hervorgerufen werden, sind bis bis zu 100 mal größer als die genannten 2 W/qm (was Besitzer von Photovoltaikanlagen bestätigen können), die dem Treibhauseffekt zuzurechnen sind. Damit zusammenhängend nimmt in Deutschland laut Deutschem Wetterdienst die Zahl der Sonnenstunden seit 70 Jahren um 1,5% pro Jahrzehnt zu2. Also in weniger als 10 Jahren ein größerer Effekt als durch den Treibhauseffekt in 170 Jahren. Für einen genaueren zahlenmäßigen Vergleich müssen beide zu vergleichenden Messdaten im betreffenden Zeitraum vorhanden sein: In dem Zeitraum der letzten 40 Jahre gab es durch die Zunahme der Sonnenstunden in Deutschland die 6-fache Erwärmung im Vergleich zum Treibhauseffekt. Die Änderungen der Sonneneinstrahlung sind also in weitaus größerem Maße für die Erwärmung der Erde verantwortlich als die Änderungen der CO2-Konzentration.

Damit ist der allgemein bekannte positive Treibhauseffekt beschrieben und eingeordnet. Es gibt also keinen Grund, mit dem Treibhauseffekt Angst und Panik zu begründen. Und es ist dringend notwendig, dass sich die Forschung, die Medien und die Politik mit dem Einfluss und den Ursachen der zunehmenden Sonnenstunden beschäftigen. Eine erste genauere Analyse der Daten des Deutschen Wetterdienstes ergibt, dass die Änderungen der Sonnenstunden in Deutschland die monatlichen Temperaturen der letzten 70 Jahre zu 90% erklären, und dass der Treibhauseffekt in Deutschland keinen statistisch signifikanten Einfluss hat.

Es fehlt noch ein wichtiges Phänomen: In der Antarktis führt der Erhöhung der CO2-Konzentration zur Abkühlung, das nennt man den negativen Treibhauseffekt.

Der negative Treibhauseffekt in der Antarktis

Es gibt einen eigenartigen Effekt, wenn wir die eine Gegend der Erde betrachten, wo die Erdoberfläche zeitweise noch kälter ist als die 220 K, bei der die Infrarotabstrahlung des CO2 in den Weltraum erfolgt: In der Antarktis, wo Temperaturen unter -60°C (=213 K) keine Seltenheit sind, finden wir tatsächlich einen negativen Treibhauseffekt.
Wo also eine Abkühlung bei zunehmender CO2-Konzentration stattfindet.
Bei zunehmender CO2-Konzentration nimmt zwar wie sonst auch der Anteil der Infrarotabstrahlung des CO2 zu. Jetzt ist aber die CO2-Schicht mit 220 K wärmer als die Erdoberfläche der Antarktis. Und damit wird vom CO2 in der Atmosphäre mehr Wärme abgeführt als von der Erdoberfläche darunter.
Mit anderen Worten: In der Antarktis gilt, dass aufgrund der Zunahme der CO2-Konzentration die Wärmeabfuhr in den Weltraum verstärkt wird, und es demnach dort kälter wird und nicht wärmer.




Treibhauseffekt-Rückkopplung durch Wasserdampf


[latexpage]

In der Klimadiskussion wird das Argument der Rückkopplung durch Wasserdampf dazu herangezogen, um die Klimawirkung der Treibhausgase — die Sensitivität bei Verdoppelung von deren Konzentration in der Atmosphäre — , die nach Strahlungstransportgleichung und generellem Konsens maximal 0,8° beträgt, um einen angeblichen Faktor 2-6 zu verstärken. Allerdings wird das gewöhnlich nicht genauer quantifiziert, es werden in der Regel nur Formeln mit dem „finalen Feedback“ angegeben.

Vor kurzem haben David Coe, Walter Fabinski und Gerhard Wiegleb in der Publikation „The Impact of CO2, H2O and Other ‚Greenhouse Gases‘ on Equilibrium Earth Temperatures“ unter anderem genau diese Rückkopplung beschrieben und analysiert. In Anlehnung an ihre Publikation wird dieser Effekt mit dem teils gleichen, teils leicht unterschiedlichen Ansatz im folgenden hergeleitet. Die Ergebnisse sind fast identisch.

Dabei wird hier von allen anderen Effekten, die bei der Bildung von Wasserdampf auftreten, wie z.B. Wolkenbildung, abgesehen.

Der grundsätzliche Mechanismus der Wasserdampfrückkopplung

Ausgangspunkt ist eine Temperaturerhöhung der Atmosphäre um ∆T0, ungeachtet deren Ursache. Typischerweise wird der Treibhauseffekt als primäre Ursache angenommen. Die Argumentation ist nun, dass die erwärmte Atmosphäre mehr Wasserdampf aufnehmen kann, d.h. der Sättigungsdampfdruck (SVP = „Saturation Water Pressure“) erhöht sich und es wird angenommen, dass sich konsequenterweise auch die Wasserdampfkonzentration ∆H2O erhöht, und zwar als lineare Funktion der Temperaturänderung. (Die Temperaturänderung ist so klein, dass eine Linearisierung auf jeden Fall legitim ist):
$\Delta H_2O = j\cdot \Delta T_0 $
Dabei ist $j$ die Proportionalitätskonstante für die Wasserdampfkonzentration.
Eine erhöhte Wasserdampfkonzentration bewirkt wiederum aufgrund der Treibhauswirkung von Wasserdampf eine Temperaturerhöhung, die linear von der Wasserdampfkonzentration abhängt:
$\Delta T_1 = k\cdot \Delta H_2O $
Zusammengefaßt bewirkt also die auslösende Temperaturerhöhung ∆T0 eine Folgeerhöhung der Temperatur ∆T1:
$\Delta T_1 = j\cdot k\cdot \Delta T_0 $
Da die Voraussetzung des Verfahrens ist, dass die Ursache der auslösenden Temperaturerhöhung unerheblich ist, bewirkt die Erhöhung um ∆T1 natürlich ebenfalls wieder einen Rückkopplungszyklus:
$\Delta T_2 = j\cdot k\cdot \Delta T_1 = (j\cdot k)^2\cdot \Delta T_0$
Dies wiederholt sich rekursiv. Die finale Temperaturänderung ist demnach eine geometrische Reihe:
$\Delta T = \Delta T_0\sum_{n=0}^\infty(j\cdot k)^n = \Delta T_0\cdot \frac{1}{1-j\cdot k} $
Wäre $j\cdot k\ge 1$, würde die Reihe divergieren und die Temperatur über alle Grenzen wachsen. Daher ist es wichtig, sich über die Größe dieser beiden Rückkopplungsfaktoren Klarheit zu verschaffen.

Abhängigkeit der möglichen Wasserdampfkonzentration von der Temperatur

Die maximal mögliche Wasserdampfkonzentratio in Abhängigkeit von der Temperatur T (in °C) ist durch den Sättigungsdampfdruck SVP (englisch „saturation vapour pressure“, SVP) begrenzt. Dieser wird durch die Arden Buck Gleichung, (eine moderne, überarbeitete Version der Magnus-Formel) sehr genau beschrieben:
$ SVP = 0.61121\cdot \exp{((18.678-\frac{T}{234.5})(\frac{T}{257.14+T}))} $
Es wird hier die Standard-Atmosphäre mit 15°C Boden- bzw. Wasseroberflächentemperatur und adiabatischem Temperaturgradient von -6.5°C/km betrachtet.

Die absolute Differenz $\frac{\Delta (SVP(T))}{\Delta T}$ ist naturgemäß bei höheren Temperaturen, also in Bodennähe, am größten:

Die relative Differenz $\frac{\frac{\Delta (SVP(T))}{\Delta T}}{SVP(T)}$ wird mit zunehmender Höhe größer, bewegt sich zwischen 4% und 8%.

Die mögliche Zunahme der relativen Luftfeuchtigkeit – das Verhältnis des tatsächlichen Dampfdrucks im Vergleich zum Sättigungsdampfdrucks – als Folge der globalen Temperaturerhöhung $T_0$ ist durch diese relative Änderung des Sättigungsdampfdrucks begrenzt.

Da die mittlere, dominante Infrarot-Abstrahlung der Erde etwa in der Höhe 5000m stattfindet, und sich oberhalb davon kaum mehr Wasserdampf befindet, ist es sinnvoll, 6% als oberes Limit der Änderung der relativen Luftfeuchtigkeit infolge einer Temperaturerhöhung um 1°C anzunehmen. Demzufolge ergibt sich die Konstante $j$ als $j=0.06$. Dieser Wert ist etwas kleiner als die üblicherweise genannten (aber gewöhnlich nicht belegten) 7%. Nach dem obigen Diagramm wären 7% Erhöhung der Luftfeuchtigkeit erst oberhalb von 8000 m ü.d.M. möglich.

Abhängigkeit des Treibhauseffekts von der Änderung der relativen Luftfeuchtigkeit

Der Infrarot Strahlungstransport in der Atmosphäre ist von der relativen Luftfeuchtigkeit abhängig. Dies wird in dem bekannten und bewährten Simulationsprogram MODTRAN berücksichtigt. Mit zunehmender Luftfeuchtigkeit sinkt infolge des Treibhauseffektes des Wasserdampfes die ausgehende Infrarotstrahlung.

Zwischen der Luftfeuchtigkeit 60% und 100% ist die Strahlungsabnahme linear. Daher wird zur Ermittlung der Abnahme der Strahlungsleistung und der zur Kompensation notwendigen Temperaturerhöhung die Zunahme der relativen Luftfeuchtigkeit von 80% auf 86% betrachtet.

Dazu stellen wir die Parameter der MODTRAN Simulation auf

  • die aktuelle CO2-Konzentration von 420 ppm,
  • eine relative Luftfeuchtigkeit von 80%,
  • und eine Wolkenkonstellation, die der mittleren IR Abstrahlungsleistung von 240 $\frac{W}{m^2}$ nahe kommt, in diesem Fall also 244,92 $\frac{W}{m^2}$.

Dann wird die Luftfeuchtigkeit um 6% vergrößert, um herauszufinden, welchen Effekt das auf die Temperatur hat.
Zunächst verringert sich die IR Abstrahlung um 0.69 \frac{W}{m^2}.
Dann wird der Temperatur-Offset wird nun so lange vergrößert, bis die reduzierte IR-Abstrahlung von 0.69 \frac{W}{m^2} durch Temperaturerhöhung wieder ausgeglichen ist. Dies ist bei einer Erhöhung der Bodentemperatur um 0.185 °C der Fall.

Eine 6% höhere relative Luftfeuchtigkeit bewirkt also einen Treibhauseffekt, der durch eine Temperaturerhöhung von 0.185°C ausgeglichen wird, Auf eine Änderung um (theoretische) 100% Luftfeuchtigkeit hochgerechnet sind das $k=3.08$°C/100% .

Der finale Rückkopplungsfaktor und der gesamte Treibhauseffekt

Damit bewirkt eine um 1 Grad höhere Temperatur in einem Rückkopplungszyklus eine zusätzliche Temperaturerhöhung um $k\cdot j = 0.06*3.08= 0.185$.

Die geometrische Reihe führt zu einem Verstärkungsfaktor $f$ des reinen CO$_2$ Treibhauseffekts um
$f=\frac{1}{1-0.185} = 1.23 $

Damit ist die um die Wasserdampfrückkopplung verstärkte Sensitivität bei Verdopplung der CO$_2$ Konzentration $\Delta T$ nicht mehr $\Delta T_0=0.8$°C, sondern
$\Delta T = 1.23\cdot 0.8$ °C = 0.98°C $\approx$ 1°C

Würde man die vom „Mainstream“ postulierten 7% maximaler Erhöhung der Luftfeuchtigkeit zugrunde legen, wäre die zusätzliche Temperaturerhöhung 0.215 °C und demzufolge die Verstärkung des Treibhauseffekts
$f=\frac{1}{1-0.215} = 1.27 $. Die Sensitivität für CO$_2$ Verdoppelung wäre dann
$\Delta T = 1.27\cdot 0.8$ °C = 1.02°C $\approx$ 1°C

Dieses Ergebnis berücksichtigt nicht die um die durch höhere Wasserdampfkonzentration stärkere Wolkenbildung und deren Abschirmung des einfallenden Sonnenlichts, die eine negative Rückkopplung bewirkt.




Der adiabatische Temperaturgradient – vereinfachte Herleitung


[latexpage]

Die atmosphärische Temperatur variiert mit der Höhe. Dieses wohlbekannte und gut verstandene Phänomen wird als Adiabatischer Temperaturgradient bezeichnet. Dieser beschreibt den Temperaturgradienten in der Höhe und besagt im Wesentlichen, dass die Temperatur pro km Höhe um 4-9,8 Grad Celsius abnimmt. Der Grund für die Erörterung dieses Phänomens ist, dass der vertikale Temperaturgradient oft fälschlicherweise einem strahlungsbedingten „Treibhauseffekt“ zugeschrieben wird, obwohl er in Wirklichkeit die natürliche thermodynamische Folge eines Gasvolumens in einem Gravitationsfeld ist. Da es sich um einen adiabatischen Effekt handelt, ist keine Änderung des Gesamtenergiegehalts beteiligt.
Es gibt viele Möglichkeiten, dieses Phänomen zu erklären. Hier möchte ich es auf die elementarste Weise tun.

Die erste wichtige Annahme ist das lokale thermodynamische Gleichgewicht. Das bedeutet, dass es in einem bestimmten Luftvolumen keine makroskopischen Zustandsänderungen z. B. bei Temperatur oder Druck gibt. Nehmen wir ein Luftvolumen an, das groß genug ist, damit die Temperatur definiert werden kann, und das klein genug ist, damit die Temperatur in diesem Volumen konstant ist, typischerweise „Gaspaket“ genannt.
Dieses Volumen mit der Masse $m$ befindet sich im planetarischen Gravitationsfeld mit der Gravitationskonstante $g$. In der Höhe h hat es die potentielle Energie $$ E_p = m\cdot g\cdot h. $$ und die thermische Energie dieses Volumens mit der Wärmekapazität (bei konstantem Druck) $c_p$ und der Temperatur $T$ gegenüber der Referenztemperatur $T_0$ ist
$$ E_t = c_p\cdot m\cdot (T – T_0) $$ Die zweite Annahme ist, dass das System adiabatisch ist, d.h. es fließt keine Energie in das System hinein oder aus ihm heraus. Das bedeutet, dass die Summe $E$ von $E_p$ und $E_t$ konstant ist:
$$ E = E_p + E_t = const. $$ Die Gesamtableitung von E muss also 0 sein: $$\frac{\partial E}{\partial h}dh + \frac{\partial E}{\partial T} dT = 0 $$ $$m\cdot g \cdot dh + c_p\cdot m\cdot dT = 0 $$ Daraus folgt direkt der Temperaturgradient:
$$ \frac{dT}{dh} = – \frac{g}{c_p} $$ Was bedeutet das? Ausgehend von der Annahme der lokalen Energieerhaltung verliert ein Molekül, das sich nach oben bewegt, Bewegungsenergie im Austausch gegen potentielle Energie, muss also um den entsprechenden Energiebetrag kühler werden, d.h. das Anheben einer Masse im Gravitationsfeld muss von der Bewegungsenergie bezahlt werden, und eine fallende Masse wird beschleunigt, wodurch die Temperatur steigt. Das Gleichgewicht ist erreicht, wenn die Entropie des Systems maximal ist.
Mit $g=9,81 \frac{m}{s^2}$ und $c_p = 1,012 \frac{J}{g\cdot °K} $ beträgt der adiabatische Temperaturgradient für trockene Luft $$ \Gamma = -\frac{9,81}{1,012} \frac{°K}{km} = -9.8 \frac{°K}{km} $$

Wenn die Luft feucht ist, kondensiert der Wasserdampf je nach Druck und Temperatur zu flüssigem Wasser, wobei die latente Wärme von 2260 J/g freigesetzt wird. Diese zusätzliche Kondensationsenergie verringert den Temperaturgradienten, da der „Preis“ für die potenzielle Energie (teilweise) aus der Kondensationsenergie bezahlt werden kann, ohne dass die Temperatur sinkt. Der resultierende feuchtadiabatische Temperaturgradient liegt im Bereich von -4…-9,8 °K/km, abhängig von der Luftfeuchtigkeit. Im globalen Durchschnitt beträgt der Temperaturgradient -6,4 °K/km.

Was hat der Temperaturgradient mit dem Klima oder dem Treibhauseffekt zu tun? Tatsächlich erklärt der Temperaturgradient einen Großteil, wenn nicht sogar den gesamten globalen Temperaturunterschied zwischen der Erdoberfläche und dem oberen Teil der Troposphäre, ohne dass explizite Annahmen über einen „Antrieb“ oder Treibhausgase gemacht werden (Treibhausgase sind jedoch für die Wechselwirkung mit der Infrarotstrahlung relevant). Der durch den Temperaturgradient beschriebene Zustand ist ein Gleichgewichtszustand der Atmosphäre ohne Energiefluss:

Adiabatischer Temperaturegradient in der Troposphäre

Wenn die Atmosphäre von diesem Zustand abweicht, zwingt die Thermodynamik das System stark in diese Richtung, so wie ein in einem Behälter verteiltes Gas zum Zustand gleicher Dichte tendiert. Die adiabatische Barometergleichung beschreibt den großräumigen Gleichgewichtszustand und stellt eine starke Korrelation zwischen dem Temperaturgefälle und dem Druckgefälle her. Daher wird manchmal der Begriff verwendet, dass „Druck die Temperatur verursacht“. Im Zusammenhang mit adiabatischen Bedingungen in einem Gravitationsfeld ist dies zwar nicht falsch, aber die Formulierung ist irreführend, so dass manche Leute fälschlicherweise glauben, dass statischer Druck Wärme erzeugen würde. Daher ziehe ich es vor, zur Beschreibung des Phänomens auf Grundprinzipien wie Energieerhaltung und Entropiemaximierung zu verweisen.

Das Konzept des adiabatischen Temperaturgradienten ist in der Atmosphärenforschung sehr mächtig: Im Jahr 1967 wurde die Oberflächentemperatur der Venus durch Auswertung des Temperaturgradienten korrekt bestimmt – ein expliziter Hinweis auf Treibhausgase war nicht erforderlich, obwohl implizit klar ist, dass die Infrarotstrahlung in den Weltraum von den Treibhausgasen aus der Nähe des Randes der Atmosphäre stammt. Unabhängig davon, wo das eintreffende Sonnenlicht absorbiert wird, verteilt sich die entstehende Wärme via Konvektion und Strahlung entsprechend des Temperaturgradienten.
Dies wurde kürzlich mit einer verbesserten Parametrisierung der Wärmekapazität neu berechnet.

Demzufolge handelt es sich bei der Venus keineswegs um einen „Runaway Treibhauseffekt“, die hohe Oberflächentemperatur hat ihre Ursache ich der sehr viel dickeren Atmosphäre als der der Erde, nur zu einem geringen Teil infolge der reinen CO$_2$-Atmosphäre.




Eigene Publikationen

Hier finden Sie die von mir verfassten oder mit meiner Beteiligung entstandenen Veröffentlichungen zum Thema Klima und Energiewende (bislang unvollständig).

Wissenschaftliche Artikel

Emissions and CO2 Concentration: An Evidence Based Approach in der Zeitschrift mdpi Atmosphere.

Blogbeiträge

Emissions and CO2 Concentration: An Evidence Based Approach“ in Climate Etc. von Judith Curry.

Artikel „CO2-balancen“ im Blog „Klimarealisme.dk“

Zeitungen

Wir können weiterleben ohne Sorgen wegen CO2“ in Epoch Times.

Podcasts und Videos

Podcast Kontrafunk aktuell vom 13.4.2023 über Klima und Energiewende, Interview.

Video „Klima – Wissenschaft oder Religion„, Vortrag bei Bonifatius.tv

Video „Der Tanz ums Kohlendioxid“ Vortrag bei Bonifatius.tv

Video „Keine Sorge wegen anthropogener CO2-Einträge„, Vortrag bei AKEN 27.4.2023
Dazu einleitender Artikel bei mediagnose

Video „Klimafakten statt Alarmismus„, Interview von Bastian Barucker am 14.12.2023

Broschüren und Faltblätter

Faltblatt „Keine Angst vor dem Klimawandel“

Vortragsfolien

Vortrag „Keine Angst vor dem Klimawandel“ bei IDA e.V., Heidelberg, 25.2.2024

Vortrag „Der Irrweg der Energiewende“ (Teil 1) bei IDA e.V., Heidelberg, 5.5.2024




Warum die wachsende CO2-Konzentration weitgehend menschengemacht ist


[latexpage]

Häufig hören wir das Argument, dass die natürlichen Emissionen, sei es durch

  • Atmung der Pflanzen, Tiere und Menschen
  • biologische Zersetzungsprozesse
  • Ausgasung der Ozeane

so groß seien, dass die anthropogenen Emissionen im Vergleich kaum ins Gewicht fallen und quasi „im Rauschen untergehen“.

In der Tat sind die Respiration mit 130 GtC/a und die Ausgasung aus den Ozeanen mit 80 GtC/a wesentlich größer als die 9,5 GtC/a, die durch Verbrennung fossiler Energieträger und Zementproduktion zustandekommen.

Da liegt der Schluß nahe, anzunehmen, dass angesichts der großen natürlichen Umsätze von 210 GtC/a die anthropogenen Emissionen nur 5% ausmachen und daher relativ unbedeutend sind.

Dies ist aber ein Fehlschluß: Der Respiration steht ein gleichgroßer, sogar etwas größerer Betrag der Nettoprimärproduktion und der Ausgasung von 80 GtC/a ebenfalls ein leicht größerer Betrag der Absorption in den Ozeanen gegenüber.

Zwei einfache Tatsachen helfen, die Frage zu klären:

  1. Die jährlichen anthropogenen Emissionen sind deutlich größer als der Anstieg der CO2-Konzentration. Das heißt, dass es auf jeden Fall mehr Emissions-CO2 gibt als was von der der Atmosphäre aufgenommen wird. Die „restlichen“ Einflußfaktoren müssen demnach zwingend in ihrer Gesamtwirkung eine Kohlenstoffsenke sein – so stark, dass sie heute bereits mehr als die Hälfte des anthropogen erzeugten CO2 aufnehmen.
  2. In der Jahresbilanz sind sowohl die Ozeane als auch die Landpflanzen und mit ihnen die gesamte biologische Welt seit 100 Jahren strikte Kohlenstoffsenken sind, sie nehmen übers Jahr gemittelt jeweils mehr als 2 Gt/a mehr Kohlenstoff auf als sie abgeben.

Das folgende Diagramm zeigt sowohl die anthropenen Emissionen einschließlich Landnutzungsänderungen (Abholzung) als positive Beiträge während die „Verwendung“ dieser Emissionen als Verteilung nach Ozeanen, Landpflanzen und Anstieg der atmosphärischen Konzentration dargestellt ist:

Entscheidend ist, dass die unterjährigen natürlichen Austauschprozesse sich gegenseitig aufheben und nichts zum Anstieg der CO2-Konzentration beitragen, obwohl die beteiligten Mengen sehr viel größer als die anthropogenen Emissionen sind. Die Unterscheidung der Aufenthaltszeit und Ausgleichszeit hat Cawley in einer wissenschaftlichen Publikation vorgenommen. Hier möchte ich mich auf eine anschauliche vereinfachte Argumentation beschränken:

Eine Senke kann nicht gleichzeitig Quelle sein. Auch wenn es jahreszeitliche Schwankungen gibt, entscheidend ist die Bilanz am Ende des Jahres – wie bei einem Bankkonto. Darüber hinaus sind die Schwankungen der Art, dass die verstärkte Senkenwirkung aufgrund des Pflanzenwachstums im Frühjahr und Sommer stets dem folgenden Abbau und Zerfall vorausgeht. Die biologische Welt ist aus prinzipiellen Gründen immer eine Netto-Senke.

Die Ozeane kann man als riesige Kohlenstoff-Speicher mit der etwa 50 fachen Kapazität der Atmosphäre auffassen, die auf lange Sicht die CO2-Konzentration derjenigen der Atmosphäre „angleichen“, unter korrekter Berücksichtigung der nicht ganz trivialen physikalischen und chemischen Prozesse. Wir können davon ausgehen, dass bislang die Ozeane auf die vorindustrielle CO2-Konzentration von etwa 280 ppm angepasst sind und daher noch für sehr lange Zeit als effektive Senke wirken.

Daher müssen wir die Tatsache akzeptieren, dass die menschlichen Aktivitäten tatsächlich in den letzten 150 Jahren tatsächlich für ein Anwachsen der CO2-Konzentration um 50% gesorgt haben. An anderer Stelle wird der genaue Mechanismus der Abhängigkeit der Konzentration von den anthropogenen Emissionen behandelt. Damit ist allerdings noch nichts darüber gesagt, ob die Auswirkungen der erhöhten Konzentration eher nützlich oder schädlich sind.

Nachtrag 2.6.2024 — Kleine Einschränkung

Aufgrund neuerer Recherchen lässt sich ein Einfluss der globalen mittleren Wasseroberflächentemperatur auf die CO$_2$-Konzentration nachweisen. Da nicht die Konzentration mit den Temperaturschwankungen korreliert ist, sondern die natürlichen Emissionen, ist die Kausalität so, dass die Temperaturschwankungen zu Emissions- und schließlich zu Konzentrationsänderungen führen. Der definitive Nachweis bezieht sich bislang auf die Temperaturschwankungen, die vom langfristigen Trend abweichen, sowie auf die Daten der Eisbohrkerne aus der Antarktis. Der langfristige Einfluß der Temperatur auf die CO$_2$ Gleichgewichtskonzentration dürfte bei 13 ppm/°C liegen, also bei knapp 10% des CO$_2$ Konzentrationsanstiegs seit dem Beginn der Industrialisierung. Maximal möglich sind 65 ppm/°C. Das wäre dann schon fast die Hälfte.




Temperaturabhängigkeit der natürlichen CO2 Quellen und Senken


[latexpage]

Bei dem in diesem Blog und anderswo publizierten einfachen Modell der CO2-Senken und der natürlichen Emissionen tauchte in der Diskussion darüber immer wieder die Frage auf: Wie wird die — offensichtliche — Temperaturabhängigkeit der natürlichen CO2-Quellen, beispielsweise die ausgasenden Ozeane, oder der Senken wie die Photosynthese, berücksichtigt? Denn in dem Modell kommt keine langfristige Temperaturabhängigkeit vor, allenfalls ein kurzfristig zyklische. Ein langfristiger Trend der Temperaturabhängigkeit ist in den letzten 70 Jahren auch bei sorgfältiger Analyse nicht erkennbar.
In der zugrunde liegenden Publikation wurde ausgeschlossen, dass der Absorptionskoeffizient temperaturabhängig sein kann (Kapitel 2.5.3). Allerdings blieb dabei offen, ob nicht doch eine direkte Temperaturabhängigkeit der Quellen oder Senken möglich ist. Und warum diese nicht aus der statistischen Analyse erkennbar ist. Dies wird in dem vorliegenden Beitrag behandelt.

Ursprüngliches temperaturunabhängiges Modell

Die vereinfachte Form der CO2 Massenerhaltung in der Atmosphäre (siehe Gleichungen 1,2,3 der Publikation) mit anthropogenen Emissionen $E_i$ im Jahre $i$, den sonstigen, überwiegend natürlichen Emissionen $N_i$ (zur Vereinfachung werden die Landnutzungsemissionen den natürlichen Emissionen zugeschlagen), dem Zuwachs des CO2 in der Atmosphäre $G_i = C_{i+1} – C_i$ ($C_i$ ist atmosphärische CO2 Konzentration) und den Absorptionen $A_i$ ist:
$E_i – G_i = A_i – N_i$
Die Differenz der Absorptionen und der natürlichen Emissionen wurde linear modelliert mit einem konstanten Absorptionskoeffizienten $a$ und einer Konstante $n$ für die jährlichen natürlichen Emissionen:
$A_i – N_i = a\cdot C_i + n$

Während die Absorptionskonstante und der lineare Zusammenhang zwischen Absorption und Konzentration physikalisch sehr gut begründet und belegt ist, erscheint die Annahme der konstanten natürlichen Emissionen willkürlich. Daher ist es erhellend, statt eines konstanten Ausdrucks $n$ stattdessen aus den Messdaten und der berechneten Absorptionskonstanten $a$ das Residuum
$N_i = G_i – E_i + a\cdot C_i $
zu betrachten:

Der Mittelwert von $N_i$ ergibt den konstanten Modellterm $n$. Mit einer leichten Glättung ergibt sich ein periodischer Verlauf. Roy Spencer hat diese Schwankungen mit dem El Nino begründet, wobei nicht eindeutig ist, ob die Schwankungen den Absorptionen $A_i$ oder den natürlichen Emissionen $N_i$ zuzuordnen sind. Aber es ist keinerlei langfristiger Trend erkennbar. Daher ist die Frage zu klären, warum zwar kurzfristige Temperaturabhängigkeiten vorhanden sind, aber die langfristige globale Erwärmung im Modell anscheinend keine Entsprechung hat.

Temperaturabhängiges Modell

Nun erweitern wir das Modell, indem wir sowohl für die Absorptionen $A_i$ als auch für die natürlichen Emissionen $N_i$ zusätzlich eine lineare Temperaturabhängigkeit zulassen. Da unsere Messdaten nur deren Differenz liefern, können wir die Temperaturabhängigkeit dieser Differenz in einer einzigen linearen Funktion der Temperatur $T_i$, also $b\cdot T_i + d$ darstellen. Gesetzt den Fall, dass sowohl $A_i$ also auch $N_i$ temperaturabhängig sind, ist die Differenz der dazugehörigen linearen Ausdrücke wieder einen linearen Ausdruck. Demnach hat das erweiterte Modell diese Gestalt.
$A_i – N_i = a\cdot C_i + n + b\cdot T_i + d$
Im Prinzip könnten $n$ und $d$ zu einer einzigen Konstanten zusammengefasst werden. Da aber $d$ von der verwendeten Temperaturskala abhängt, und $n$ von der Maßeinheit der CO2 Konzentration, belassen wir es bei 2 Konstanten.

CO2 Konzentration als Proxy für Temperatur

Wie bereits in der Publikation im Kapitel 2.3.2 dargelegt, gibt es zwischen der CO2-Konzentration und der Temperatur einen Zusammenhang mit hoher Korrelation. Woher dieser Zusammenhang kommt, d.h. ob es einen kausalen Zusammenhang gibt (und in welcher Richtung) ist für diese Untersuchung unerheblich. Allerdings stellen wir hier nicht den Zusammenhang zwischen $T$ und $log(C)$ her, sondern den zwischen $T$ (Temperatur) und $C$ (CO2 Konzentration ohne Logarithmus).

Demzufolge kann die Temperatur-Anomalie aus der Konzentration mit der linearen Funktion
$T_i = e\cdot C_i + f$
mit
$e=0.0083, f=-2.72 $
approximiert werden.

Verwendung des CO2-Proxy in der temperaturabhängigen Gleichung

Setzt man für die Temperatur deren Proxy-Funktion in die temperaturabhängige Gleichung ein, so ergibt sich folgende Gleichung:
$A_i – N_i = a\cdot C_i + n + b\cdot (e\cdot C_i + f) + d $
bzw.
$A_i – N_i = (a+b\cdot e)\cdot C_i + (n+b\cdot f\cdot) + d $
Der Ausdruck auf der rechten Seite hat jetzt wieder die gleiche Gestalt wie die ursprüngliche Gleichung, also
$A_i – N_i = a`\cdot C_i + n` $
mit
$ a` = a + b\cdot e $
$ n` = n + b\cdot f + d $

Schlussfolgerungen

Daher können bei einer linearen Abhängigkeit der Temperatur von der CO2-Konzentration Temperatureffekte der Senken und Quellen nicht von Konzentrationseffekten unterschieden werden, beide gehen in die „effektive“ Absorptionskonstante $a`$ und die Konstante der natürlichen Emissionen $n`$ ein. Daher enthält das einfache lineare Quellen- und Senkenmodell sämtliche linearen Temperatureinflüsse.
Das erklärt die erstaunliche Unabhängigkeit des Modells von der globalen Temperaturerhöhung der letzten 70 Jahre.
Außerdem legt dieser Zusammenhang nahe, dass sich das Absorptionsverhalten der beiden atmosphärischen Senken auch in Zukunft nicht ändert.

Will man allerdings wissen, wie sich die Temperatur genau auf die Quellen und Senken auswirkt, müssen andere Datenquellen herangezogen werden. Für die Prognose künftiger CO2-Konzentration aus anthropogenen Emissionen ist dieses Wissen aufgrund des gefundenen Zusammenhangs nicht notwendig, vorausgesetzt der lineare Zusammenhang zwischen Temperatur und CO2-Konzentration bleibt uns noch eine Weile erhalten.




Emissionen des Kohlenstoffkreislaufs

In der Klimadiskussion wird zunehmend der sog. „CO2-Fußabdruck“ von Lebewesen, insbesondere des Menschen und von Nutztieren als Problem deklariert, bis dahin,

  • das Essen von Fleisch zu diskreditieren,
  • Nutztiere abzuschlachten (z.B. in Irland)
  • oder sogar junge Menschen davon abzuhalten, Kinder zu bekommen.

Diese Diskussion beruht auf falschen Voraussetzungen. Es wird so getan, als ob das Ausatmen von CO2 dieselbe „klimaschädliche“ Qualität hätte wie das Verbrennen von Kohle oder Erdöl.
Eine genauere Analyse des Kohlenstoffkreislaufs zeigt den Unterschied.

Der Kohlenstoffkreislauf

Alles Leben der Erde ist aus Kohlenstoffverbindungen aufgebaut.
Der Beginn der sogenannten Nahrungskette sind die Pflanzen, die mit der Photosynthese aus dem CO2 der Atmosphäre vorwiegend Kohlehydrate, teilweise auch Fette und Öle erzeugen und damit sowohl Kohlenstoff als auch Energie speichern.

Die weitere Verarbeitung dieser Kohlenstoffverbindungen teilt sich auf mehrere Zweige auf, bei denen wieder eine Umwandlung in CO2 erfolgt:

  • der unmittelbare Energieverbrauch der Pflanze, die „pflanzliche Atmung“,
  • der — überwiegend saisonale — Zerfall eines Teils oder der ganzen Pflanze, und Humusbildung,
  • der Energieversorgung von Tieren und Menschen als Nahrung. Hier findet außer der direkten Energieversorgung eine Umwandlung in Eiweiße und Fette statt, zum Teil auch in Kalk.
  • Mit der Nahrungskette werden die Eiweiße und Fette weitergereicht.
  • Im Laufe des Lebens geben Pflanzen, Tiere und Menschen einen Teil des über die Nahrung aufgenommenen Kohlenstoffs durch Atmung wieder als CO2, teilweise auch als Methan ab.
  • Mit der Verwesung der Tiere und Menschen wird über Zersetzungsprozesse teilweise das verbliebene CO2 wieder freigesetzt, teilweise bildet sich Humus, der kohlenstoffhaltig ist.
  • Der biologisch gebildete Kalk bindet das CO2 langfristig. Z.B. bindet jede Eierschale 5g CO2 für sehr lange Zeit.

Menschen und Tiere sind CO2 Senken, keine Quellen

Vielfach wird gesagt, dass Menschen und Tiere über Atmung etc. Kohlenstoff als CO2 oder Methan in die Atmosphäre geben, und daher zu die Emissionen vergrößern. Um zu zeigen, dass sie zusammen mit ihrer Nahrungskette dennoch CO2-Senken sind, wollen wir den als CO2 oder Methan ausgeschiedenen Kohlenstoff zurückverfolgen.
Dieser kommt entweder direkt über den Stoffwechsel aus der aufgenommenen Nahrung, oder aus den Fettreserven des eigenen Organismus. Die Fettreserven wiederum stammen aus der Nahrung, die in der Vergangenheit aufgenommen wurde.
Nun stammt alle Nahrung — mit Ausnahme von Medikamenten — aus Tieren oder Pflanzen. Tiere ernähren sich wiederum von Tieren oder Pflanzen. Am Ende der Nahrungskette stehen in jedem Falle Pflanzen. Diese holen sich all ihren Kohlenstoff aus dem CO2 der Atmosphäre.

Das heißt, dass jedes Kohlenstoffatom, dass wir als CO2 ausatmen, je nach Länge der Nahrungskette ursprünglich und daher vorher aus dem CO2 der Atmosphäre stammt und gebundenen worden war. Daher stammt sämtlicher Kohlenstoff aller Lebewesen, sei er gebunden oder als CO2 ausgeatmet, letztendlich aus der Atmosphäre über die Photosynthese. Das wird sehr anschaulich vom berühmten Nobelpreisträger Prof. Richard Feynman am Beispiel eines Baumes beschrieben (in englischer Sprache):

Alle Lebewesen sind temporäre Speicher des CO2. Die geschilderten Mechanismen bewirken unterschiedliche Halbwertszeiten dieser Speicherung.

Die Eingriffe des Menschen bewirken in der Regel eine Verlängerung der Speicherung und damit in der Konsequenz ein nachhaltigerer Umgang mit CO2:

  • Hauptsächlich durch Konservierung und damit Aufhalten der Fäulnisprozesse. Das bezieht sich nicht nur auf das haltbar machen von Lebensmitteln, sondern auch durch langfristige Konservierung von Holz, solange die Holzverwertung nachhaltig ist. Auf diese Weise ist das Bauen mit Holz eine langfristige Bindung von CO2.
  • Das Getreide vom letzten Jahr wird i.d.R. gelagert und erst etwa ein Jahr später zu Brot etc. weiterverarbeitet. In der Zwischenzeit sind die diesjährigen Getreidepflanzen schon wieder nachgewachsen. Damit sind die stoffwechselbedingten Emissionen von Mensch und Tier schon kompensiert, bevor sie stattfinden. Würde das Getreide ohne Verarbeitung verrotten, dann wäre es bereits im Herbst letzten Jahres wieder in CO2 zerfallen. Würde gar kein Getreide angebaut, würde von vorneherein sehr viel weniger CO2 der Luft gebunden. Es ist nachgewiesen, dass die Intensivierung der Landwirtschaft neben der gestiegenen CO2-Konzentration in der Atmosphäre maßgeblich zum Ergrünen der Erde seit 30 Jahren beigetragen hat, u.a. in Form von sich jährlich steigernden Spitzenernten.
  • Auch die Aufzucht von Nutztieren bedeutet eine CO2-Speicherung, nicht nur in Form der langlebigen Knochen. Die Nutztiere spielen auch eine wichtige Rolle bei der wichtigen Beseitigung von Graspflanzen (siehe weiter unten).

Einschränkung – Düngung und Mechanisierung der Landwirtschaft

3 Faktoren führen dazu, dass bei der Erzeugung von Lebensmitteln u.U. doch mehr CO2 freigesetzt wird als in der „freien Natur“, nämlich wenn Prozesse beteiligt sind, bei denen fossile Brennstoffe zum Einsatz kommen:

  • Die Verwendung von chemisch erzeugten Düngemitteln
  • die Mechanisierung der Landwirtschaft
  • die Industrialisierung der Lebensmittelerzeugung.

Aufgrund sehr unterschiedlicher Erzeugungsprozesse ist es sehr irreführend, von einem produktspezifischen CO2-Fußabdruck zu sprechen.

Um ein wichtiges Beispiel herauszugreifen: Rindfleisch wird gewöhnlich mit einem extrem hohen „CO2-Fußabdruck“ versehen. Das Rindfleisch, das von Rindern stammt, die weitgehend auf einer — ohne Kunstdünger gedüngten — Weide großgezogen werden, hat einen vernachlässigbar kleinen „CO2-Fußabdruck“, im Gegensatz zu dem, was in den üblichen Tabellen verbreitet wird. Dasselbe gilt für Wildtiere, die bei der Jagd erlegt werden.

Ein Beispiel, das die Doppelzüngigkeit der Diskussion illustriert, ist die Erzeugung von Bio-Treibstoffen. Dabei werden ganz genauso wie bei der übrigen Landwirtschaft Düngemittel und mit fossiler Energie betriebene mechanische Geräte eingesetzt. Die erzeugten Treibstoffe gelten jedoch als nachhaltig und „CO2-frei“. Derselbe Maßstab muß auch für die Erzeugung von Lebensmitteln gelten.

Bei der Düngung ist noch zu berücksichtigen, dass gedüngte Pflanzen sehr viel besser wachsen und daher auch mehr CO2 aus der Luft absorbieren. Das heißt, dass ein großer Teil des durch Düngung bedingten „Fußabdrucks“ durch das verbesserte Wachstum der Pflanze und daher erhöhte Photosynthese-Tätigkeit wieder kompensiert wird.

Abhängigkeiten

Die wichtigste Erkenntnis aus Biologie und Ökologie ist, dass es nicht in unserer Beliebigkeit ist, einzelne Elemente der sensiblen Ökologie zu entfernen, ohne dem Ganzen großen Schaden zuzufügen.
Typische Beispiele solch schädlicher Einflüsse sind:

  • Überweidung, d.h. Verödung durch Abfressen der (pflanzlichen) Lebensgrundlagen. Beispiele dafür sind weithin bekannt. Die „Überweidung“ kann auch durch „gut gemeinte“ und als positiv angenommene Eingriffe wie die „Verbesserung der Wasserqualität“ im Bodensee erfolgen, mit dem Ergebnis, dass es für Pflanzen und Tiere im Wasser nicht mehr genug Nahrung gibt.
  • Weniger bekannt ist die „Unterweidung„, insbesondere das Nicht-Beseitigen von verdorrtem Steppengras in den riesigen semiariden Gebieten der Erde. Zur Lösung dieses Problems hat Alan Savory das Konzept des „Holistic Managements“ mit großem Erfolg eingeführt. Dieses Konzept beinhaltet als wesentliche Komponente die Ausweitung der Viehzucht.
    Werden Pflanzen nicht durch „größere“ Tiere weiterverwertet, dann werden sie von Mikroorganismen verarbeitet und zerfallen in der Regel schnell wieder unter Freisetzung des gebundenen CO2, teilweise werden sie in Humus umgewandelt. Für die CO2-Konzentration der Atmosphäre ist also nichts gewonnen, wenn z.B. Rinder oder Schweine abgeschlachtet werden, um angeblich die CO2-Bilanz zu verbessern. Im Gegenteil, die Tiere verlängern die Lebensdauer der organischen kohlenstoffbindenden Substanz.
Abhängigkeit des Pflanzenwachstums vom CO2

Pflanzen gedeihen besser, je höher die CO2-Konzentration der Atmosphäre ist, insbesondere die C3-Pflanzen:

Für das Wachstum der Pflanzen war der Anstieg der CO2-Konzentration der letzten 40 Jahre ausgesprochen günstig, die Welt ist signifikant grüner geworden, mit dem Nebeneffekt der Senkenwirkung, also Aufnahme des zusätzlichen anthropogenen CO2:

Die C3-Pflanzen erreichen erst bei einer Konzentration von 800 ppm dieselbe Aufnahme von CO2 wie C4 Pflanzen. Darum werden vielen Gewächshäuser mit CO2 angereichert.

Schlußfolgerungen

Mit dem Wissen um diese Zusammenhänge ergeben sich zwingende Schlussfolgerungen:

  1. Aufgrund des Primats der Photosynthese und die Abhängigkeit allen Lebens davon ist die Gesamtheit der Lebewesen eine CO2-Senke, mittel- und langfristig kann also die CO2-Konzentration aufgrund des Einflusses der Lebewesen nur abnehmen, niemals zunehmen.
  2. Dabei hängt die photosynthetische Aktivität und daher auch die Senkenwirkung stark von der CO2-Konzentration ab. Je größer die CO2-Konzentration, desto größer ist die Senkenwirkung aufgrund des CO2-Düngungs-Effekts, vorausgesetzt die Pflanze bekommt genug Wasser und Licht und ggf. den notwendigen Dünger.
  3. Alle Lebewesen sind CO2-Speicher, mit unterschiedlichen Speicherzeiten.
  4. Es gibt mindesten 3 Formen langfristiger CO2-Bindung gibt, die zur Abnahme der CO2-Konzentration führen:

    • Kalkbildung
    • Humusbildung
    • nichtenergetische Holznutzung

  5. Der Einsatz von „technischen Hilfsmitteln“, die fossile Energie verbrauchen, muss bei den Betrachtungen getrennt werden von dem natürlichen Kohlenstoffkreislauf. Man kann also nicht sagen, ein bestimmtes Lebensmittel hat einen festen „CO2-Fußabdruck“. Der hängt einzig und allein von der Produktionsweise und der Tierhaltung ab.
    Eine „faire“ Betrachtung muss hier genauso wie z.B. bei Elektrofahrzeugen annehmen, dass die technischen Hilfsmittel der Zukunft oder die Herstellung von Düngemitteln nachhaltig sind.

Dazu kommt, dass unter Berücksichtigung des Wissens, dass mehr als die Hälfte der aktuellen anthropogenen Emissionen im Laufe des Jahres wieder absorbiert werden, führt bereits eine 45% Senkung der aktuellen Emissionen zu der „Netto-Null“ Situation, wo die atmosphärische Konzentration nicht mehr zunimmt. Selbst wenn wir die weltweiten Emissionen nur wenig ändern (was angesichts der energiepolitischen Entscheidungen in China und Indien sehr wahrscheinlich ist), wird noch in diesem Jahrhundert eine Gleichgewichtskonzentration von 475 ppm erreicht, die keinen Grund zur Beunruhigung gibt.