Analyse des Stromausfalls in Spanien am 28. April 2025
Hintergrund und Vorgeschichte
Einführung Am 28. April 2025, um 12:33 Uhr, erlebte Spanien einen massiven Stromausfall, der das gesamte Stromnetz der Iberischen Halbinsel lahmlegte. Dieser Blackout, der als eines der schwerwiegendsten Ereignisse in der jüngeren Geschichte des Landes gilt, hatte seine Wurzeln in einer Kombination aus technischen, wirtschaftlichen und politischen Faktoren, die sich über Monate und Jahre entwickelten. Dieser Bericht analysiert die zeitliche Abfolge, die Ursachen und die Konsequenzen des Ausfalls basierend auf den bereitgestellten Daten.
Vorgeschichte und Warnsignale Bereits im Frühjahr 2024 zeigten sich erste Anzeichen von Instabilität im spanischen Stromnetz. Nach Jahren sinkender Stromerzeugungspreise für Wind- und Solarenergie sanken diese auf negative Day-Ahead-Preise, was darauf hinwies, dass die Marktdynamik nicht mehr ausreichte, um die Erzeugung rentabel zu halten. Trotz Subventionsmaßnahmen wurde die Drosselung erneuerbarer Energien zunehmend notwendig, was die „Flitterwochen für erneuerbare Energien“ beendete[1]. Studien wie die der Organisation „Ökologischer Wandel“, prognostizierten, dass die Wahrscheinlichkeit eines Blackouts im Jahr 2025 fünfmal höher sei als 2021[2]. Der Mutterkonzern Red Eléctrica, Redeia, wies zwei Monate vor dem Ereignis auf die Risiken hin, die durch den Ausbau erneuerbarer Energien und den Rückgang konventioneller Kraftwerke (Kohle, Gas, Kernkraft) entstanden. Besonders die geringere Systemträgheit und die Unfähigkeit, sich an Störungen anzupassen, wurden als kritische Faktoren genannt[3].
Entwicklung in den Tagen vor dem Blackout Sechs Tage vor dem Ausfall, am 22. und 24. April, berichtete Red Eléctrica von ungewöhnlichen Kombinationen von Störungen, die das Netz destabilisierten. Am 22. April um 19:00 Uhr führte eine plötzliche Richtungsänderung des Stromaustauschs mit Portugal (von Export zu Import) sowie eine Reduzierung der Photovoltaikproduktion durch schlechte Wetterbedingungen zu Spannungsschwankungen[4]. Ähnliche Probleme traten am 24. April um 18:00 Uhr auf, als ein rascher Anstieg der Photovoltaikproduktion und Exports nach Frankreich die Leitungen überlastete[5]. Diese Ereignisse deuteten auf eine wachsende Verwundbarkeit des Netzes hin, die durch die hohe Abhängigkeit von erneuerbaren Energien verstärkt wurde.
Verlauf des Blackouts und Folgen
Ablauf des Blackouts am 28. April 2025 Der eigentliche Zusammenbruch begann um 12:33 Uhr, als das Netz ein erstes „Ereignis“ erlitt, vermutlich ein Verlust erneuerbarer Erzeugung, möglicherweise solarbasierter Anlagen im Südwesten Spaniens. Innerhalb von Millisekunden stabilisierte sich das System kurzzeitig, doch 1,5 Sekunden später folgte ein zweites Ereignis, das die Instabilität verschärfte[6]. Etwa 3,5 Sekunden nach dem ersten Ereignis brachen die Verbindungen nach Frankreich zusammen, was den Stromfluss von etwa 2,5 GW unterbrach[7]. Der Frequenzabfall erreichte schließlich 49,25 Hz bei einer Rate of Change of Frequency (RoCoF) von -0,8 Hz/S, was zum vollständigen Netzversagen führte[8]. Der Verlust von 15 GW Solarenergie und der anschließende Ausfall konventioneller Kraftwerke (z. B. Kernkraftwerke, wie der automatische Abschalt des Reaktors in Golfech um 12:34 Uhr) trugen zum Kollaps bei[9].
Ursachen und technische Details Die Hauptursache war ein Überangebot an erneuerbarer Energie, das die Nachfrage überstieg, was zu Frequenzabweichungen führte. Schutzrelais schalteten Teile des Netzes ab, und die geringe Momentanreserve (z. B. 26,54 % um 12:30 Uhr nur in Spanien) sowie der gleichzeitige Ausfall von Kraftwerken wie Omledilla (130 MW) und UF Sabinar (193 MW) verschärften die Krise[10]. Die hohe asynchrone Erzeugung (über 70 % in den Wochen zuvor) und die Abhängigkeit von instabilen Verbindungen (z. B. nach Frankreich) machten das System anfällig für kaskadierende Ausfälle[11].
Nachwirkungen und Maßnahmen Nach dem Blackout aktivierte Spanien Gasenergie, um das Netz zu stabilisieren, und drosselte erneuerbare Energien vorübergehend[12]. Die Wiederherstellung der Versorgung war ein langwieriger Prozess, der einen ganzen Tag dauerte. Der Vorfall hat die Debatte über den Ausbau erneuerbarer Energien und die Notwendigkeit robusterer Netzinfrastrukturen angeheizt.
Fazit Der Blackout vom 28. April 2025 war das Ergebnis kumulativer Warnsignale, die ignoriert wurden, kombiniert mit technischen Schwächen im Umgang mit erneuerbaren Energien. Eine verbesserte Netzstabilität, höhere Reserven und eine balancierte Energiemix-Strategie sind zwingend erforderlich, um zukünftige Krisen zu verhindern. Konkret muss zu jedem Zeitpunkt sichergestellt sein, dass die Momentanreserve mindestens 40 %, besser 50 % der Last ist. Solange noch keine zuverlässigen netzbildenden Wechselrichter im Einsatz sind, sind damit dem weiteren Ausbau der Erneuerbaren Energien klare Grenzen gesetzt.
Zu allen Zeiten haben Klimaereignisse die Menschheit bewegt und geprägt. Das alte Testament gibt uns vielfältige, zum Teil dramatische Zeugnisse aller Arten von extremem Klimageschehen wie langjährigen Dürren, Hitze- und Kälteperioden, Feuerstürmen und Überschwemmungen. Jeder ausgebildete Theologe kennt zu fast jedem heutigen klimatischen Horrorbericht einen entsprechenden im Alten Testament (häufig waren die damaligen Ereignisse extremer, z.B. 7-jährige Dürreperioden). Die Menschen hatten zwar auch immer wieder — wie wir — die Frage gestellt, inwiefern sie selbst für das Geschehen verantwortlich waren, aber haben die Konsequenzen als zum Dasein gehörendes Leiden akzeptiert. Entscheidend ist die Frage eines grundsätzlichen Vertrauens in die Struktur der Wirklichkeit. Das ist keine wissenschaftliche Frage mehr, trotzdem kommt niemand an dieser Frage vorbei. Wer dieses Vertrauen nicht hat, wird unweigerlich wegen jeder Abweichung vom „Normalen“ in Panik geraten und deswegen gerade die falschen Entscheidungen treffen. Es ist meines Erachtens kein Zufall, dass gerade nach der schlimmsten bekannten Flut vor schätzungsweise 4000 Jahren Menschen mit solchem Grundvertrauen in die Wirklichkeit sich mit der Frage der Stabilität des Klimas beschäftigten und die 1. Welt-Klimakonferenz der Menschheit mit einem erstaunlichen Manifest beendete:
Solange die Erde steht, soll nicht aufhören: Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht (Gen. 8/22)
In der Präambel finden wir die Einsicht, dass es möglicherweise mit der Erde zu Ende gehen wird, heute wissen wir, dass dies spätesten mit dem Ende der Sonnentätigkeit geschehen wird. Bis dahin allerdings sehen wir 4 Säulen eines grundsätzlich stabilen Ökosystems und Klimas:
Der Tag-Nacht-Rhythmus ist durch die stabile Eigenrotation der Erde gegeben,
Die Jahreszeiten sind eine Folge der Bahn der Erde um die Sonne bei leichter Neigung der Achse, sowie der mit den Breitengraden zunehmenden Abkühlung aufgrund des flacheren Einfallwinkels des Sonnenlichts,
Frost und Hitze stehen für außergewöhnliche Klimaereignisse. Offenbar waren die Menschen damals realistisch genug, nicht an eine Illusion eines gleichbleibenden Zustandes ohne größere Schwankungen zu glauben. Trockenheit und Überschwemmungen kann man im gleichen Atemzug nennen.
Saat und Ernte schließlich bedeutet die Stabilität eines komplexen ökologischen Systems. Dieses System ist allerdings nicht nur die unberührte Natur. Saat und Ernte sind bewusste, gewollte Eingriffe des Menschen in die Natur — dieser Eingriff ist also von vorneherein vorgesehen – der Mensch ist nicht der Schädling des Planeten. Saat und Ernte“ stehen demnach für die einzigartige Kreativität des Menschen im Umgang mit der Natur und ihren nachwachsenden „Rohstoffen“, sie stehen für die schon früh gekannte und praktizierte „Nachhaltigkeit“, die es dem Menschen erlaubt und möglich macht, die Natur im Rahmen seiner existenziellen Bedürfnisse zu nutzen. Von rücksichtsloser Ausbeutung steht nichts in der Schrift.
Anteile der anthropogenen und der natürlichen Emissionen am Anstieg der CO2-Konzentration
[latexpage]
Aus der Publikation Improvements and Extension of the Linear Carbon Sink Model geht hervor, dass die globale natürliche effektive Senkenwirkung sowohl von der CO2-Konzentration als auch von der globalen (Meeresoberflächen-)Temperaturanomalie abhängen. Dazu hier eine kurze Herleitung der Zusammenhänge. Im Gegensatz zur zitierten Publikation wird hier mit monatlichen anthropogenen Emissionsdaten $E_i$ und monatlichen Konzentrationsdaten $C_i$ Daten mit fortlaufenden Monaten $i$ gerechnet.
Die Massenerhaltung bzw. die Kontinuitätsgleichung bedeutet, dass sich das monatliche Konzentrationswachstum $G_i=C_i-C_{i-1}$ zwingend aus der Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$, vermindert um die monatlichen Absorptionen $A_i$ ergibt: \begin{equation}\label{eq:massconservation} G_i = E_i + N_i – A_i \end{equation} Die effektive Senkenwirkung $S_i$ ist die Differenz zwischen anthropogenen Emissionen und dem Konzentrationswachstum: \begin{equation}\label{eq:sinkeffect}S_i = E_i – G_i\end{equation}
Emissionen, Konzentrationswachstum und effektive Senkenwirkung (Senkenwirkung ist nach unten aufgetragen).
Aus Gleichung \ref{eq:massconservation} folgt unmittelbar, dass die effektive, also direkt messbare Senkenwirkung nicht nur Absorptionen durch die Ozeane und Pflanzen, sondern implizit auch sämtliche natürliche Emissionen enthält: $S_i = A_i – N_i$ Daher ist die Senkenwirkung nicht identisch mit der Summe sämtlicher Absorptionen, sondern nur den Anteil der Absorptionen, die nicht durch natürliche Emissionen kompensiert wurden.
Aus der Arbeit „Improvements and Extension of the Linear Carbon Sink Model“ ergibt sich, dass die globale effektive Senkenwirkung $\hat{S}_i$ durch ein erweitertes Modell aus CO$_2$ Konzentration $C_i$ und globaler Meeresoberflächentemperatur $T_i$ gut beschrieben wird: \begin{equation}\label{eq:bilinearmodel} \hat{S}_i = a\cdot C_{i-1} +b\cdot T_{i-1} + c\end{equation} Zum Vergleich wird das in der Arbeit „Emissions and CO2 Concentration—An Evidence Based Approach“ beschriebene einfache Senkenmodell verwendet, das nur von der CO$_2$ Konzentration abhängt: \begin{equation}\label{eq:linearmodel} \hat{S}_i = a’\cdot C_{i-1} + c’\end{equation}
Abb. 2 Modellierung der Senkenwirkung mit einfachem Senkenmodell (orange) und erweitertem Senkenmodell (grün)
Die Abbildung 2 zeigt, dass das einfache Modell den Trend sehr gut wiedergibt, dass aber die Schwankungen erst durch das erweiterte Modell, also durch Einbeziehen der Meeresoberflächentemperatur beschrieben werden können. Die Parameter für die beste Anpassung des erweiterten Modells sind $a=0,052$, $b=-4$ ppm/°C, $c=-16$ ppm.
Mit den Gleichungen \ref{eq:sinkeffect} und \ref{eq:bilinearmodel} bzw. \ref{eq:linearmodel} lässt sich auch der Konzentrationsanstieg modellieren: \begin{equation}\label{eq:g2model}\hat{G}_i = E_i – a\cdot C_{i-1} – b\cdot T_{i-1} – c\end{equation} Dies wird in Abb. 3 gezeigt. Zum Vergleich auch hier wieder die Rekonstruktion mit dem einfachen Senkenmodell.
Abb. 3: Gemessener Konzentrationsanstieg (blau), mit einfachem Senkenmodell rekonstruierter (orange), mit erweitertem Senkenmodell (grün) rekonstruierter Konzentrationsanstieg.
Rekonstruktion der Konzentration, Unterscheidung des Einflusses von Emissionen und Temperatur
Aus dem Konzentrationswachstum $G_i$ lässt sich mit Hilfe der initialen CO$_2$ Konzentration $C_{-1}$, hier also der Konzentration im Dezember 1958, der Verlauf der CO$_2$ Konzentration rekonstruieren. Nach Gleichung \ref{eq:g2model} wird das Konzentrationswachstum von den äußeren Zustandsgrößen der anthropogenen Emissionen und der Temperatur gesteuert. Zusammen mit dem ermittelten Parameter $b$ ergibt der Term $b\cdot T_i$ die Veränderung der natürlichen Emissionen aufgrund der Temperaturanomalie $T_i$. Daher ist es zunächst interessant, die Größenordnungen beider Emissionsquellen miteinander zu vergleichen. Als Maßeinheit der Emissionen wird GtC verwendet, die sich durch Multiplikation der sonst in ppm gemessenen Größen mit 2,123 ergibt.
Abb. 4 zeigt die anthropogenen Emissionen seit 1959 und die natürlichen Emissionen aufgrund der Temperaturskala der Anomalie der Meeresoberflächentemperaturen. Es fällt auf, dass vor 1975 die Temperaturen und damit die natürlichen Emissionen überwiegend negativ sind. Das hängt mit der willkürlichen Wahl des Nullpunkts der Anomalie-Temperaturskala zusammen.
Abb. 4: Anthropogene Emissionen und durch die Temperatur bewirkte natürliche Emissionen
Weiter fällt auf, dass die anthropogenen Emissionen im Schnitt etwa 4 GtC größer sind als die natürlichen. Insgesamt sind die natürlichen Emissionen zahlenmäßig noch sehr viel größer, da der konstante Term $c$ von etwa 34 GtC (16\cdot 2,123) auch natürliche Emissionen darstellt. Diese konstanten natürlichen Emissionen definieren laut Gleichung 14 in Improvements and Extension of the Linear Carbon Sink Model die Gleichgewichtskonzentration bei der Temperaturanomalie 0°, mit den aktuellen Zahlen ist diese Gleichgewichtskonzentration 307 ppm. Das ist nicht der vorindustrielle Zustand, dieser hat die Temperaturanomalie -0,48°.
In Abb. 5 sind 3 ausgewählte Modellszenarien dargestellt. Außer den tatsächlich gemessenen Konzentrationswerten zunächst die Rekonstruktion mit dem tatsächlichen Temperatur- und Emissionsverlauf (orange). Diese bleibt erwartungsgemäß sehr nahe an den Messdaten.
Abb. 5.: Gemessene Konzentration (blau), Auswirkung von 3 Szenarien auf die Konzentration. Siehe Text.
Zusätzlich werden 2 weitere Szenarien dargestellt:
Die anthropogenen Emissionen bleiben auf dem Stand von 1959 und nur die Temperatur entwickelt sich so weiter wie wir es kennen (grüne Farbe). Die CO$_2$ Konzentration wächst bis etwa 370 ppm an.
Die Temperatur bleibt auf dem Stand von 1959, die anthropogenen Emissionen wachsen aber wie gewohnt. Die Konzentration steigt zunächst steiler and als wenn die Temperatur sich auch verändern würde. Das kommt daher, dass die Temperaturanomalie bis Mitte der 70er Jahre unter 0 bleibt. Erst nach 1983 bleibt die resultierende Konzentration unter dem Referenzwert. Insgesamt haben die anthropogenen Emissionen einen größeren Anteil am Konzentrationswachstum als die natürlichen, aber 2023 z.B. kommen der natürliche dem anthropogenen Emissionsanteil sehr nahe.
Es fällt auch auf, dass die Auswirkungen beider Emissionsquellen in Form von resultierender Konzentration sich nicht einfach addieren lassen. Die Konzentration aus der Summe ist geringer als die Summe der Konzentrationen beiden Emissionsanteile. Das hat damit zu tun, dass mit wachsender Konzentration die Absorptionen zunehmen. Beide Emissionsquellen haben zusammen einen kleineren Effekt auf die Konzentration als man vom jeweiligen Einzeleffekt intuitiv erwarten würde.
Fazit
Das erweiterte Senkenmodell erlaubt es, die Auswirkungen von anthropogenen Emissionen und Temperaturerhöhungen auf die CO$_2$ Konzentration separat zu betrachten. Das Ergebnis widerspricht denjenigen, die der Auffassung sind, dass die anthropogenen Emissionen vollständig die Konzentrationsänderungen seit dem Beginn der Industrialisierung erklären. Aber es widerspricht auch denjenigen, die behaupten, aufgrund des großen Umsatzes des natürlichen Kohlenstoffkreislaufs spielten die anthropogenen Emissionen gar keine Rolle. Die Wahrheit ist, dass beide Faktoren einen größenordnungsmäßig ähnlichen Einfluss haben, die anthropogenen Emissionen allerdings etwas überwiegen.
Abbildung 1: Emissionen und natürliche Senkensysteme, Ozeane und Landlebewesen
Was ist passiert, dass plötzlich nun angeblich die Senkenwirkung nachlässt? Schon auf den ersten Blick verrät das Diagramm, dass die abgebildete Senkenwirkung, die den Landpflanzen zugeordnet wird, außerordentlich starken Schwankungen unterliegt, viel stärker als etwa die der Ozeane. Das sollte gleich stutzig machen, wenn von einem „einmaligen“ Ereignis innerhalb des vergangenen Jahres gesprochen wird.
Um eine angemessene Antwort darauf zu finden, ist es notwendig, genauer hinzuschauen und anhand von Originaldaten zu prüfen, wie sich die Konzentrationsänderungen entwickeln. In den Publikationen Emissions and CO2 Concentration—An Evidence Based Approach und „Improvements and Extension of the Linear Carbon Sink Model“ habe ich den Zusammenhang zwischen Emissionen, Konzentrationsanstieg und Senkenwirkung sorgfältig analysiert und ein robustes einfaches Modell der Senkenwirkung entwickelt, das nicht nur die Messdaten der letzten 70 Jahre sehr genau wiedergibt, sondern auch zuverlässige Prognosen erlaubt. Beispielsweise konnten die Konzentrationsdaten der Jahre 2000-2020 aus den Emissionen und den vor dem Jahre 2000 ermittelten Modellparametern mit extrem hoher Genauigkeit vorhergesagt werden. Allerdings endete die neueste in den Publikationen verwendete Messreihe im Dezember 2023, außerdem wurden Jahresmittelwerte verwendet, daher sind die Phänomene, die aktuell für so viel Aufregung sorgen, dort noch nicht berücksichtigt.
Detailanalyse des Konzentrationsanstiegs bis August 2024
Da es hier nun auf Details der letzten beiden Jahre ankommt, werden die Berechnungen der genannten Publikation hier mit monatsgenauen Daten bis August 2024 weitergeführt, um ein klares Bild der Details zu bekommen und um die neuesten Daten einzubeziehen. Ausgangspunkt sind die Original Maona Loa Meßdaten, die in Abbildung 2 dargestellt sind.
Abbildung 2: Gemessene Maona Loa CO2-Konzentrationsdaten
Die monatsgenauen Daten unterliegen saisonalen Schwankungen, die von der ungleichen Verteilung der Landmasse zwischen Nord- und Südhalbkugel herrühren. Daher besteht der erste Verarbeitungsschritt darin, die saisonalen Einflüsse, d.h. alle periodischen Änderungen mit Periodendauer 1 Jahr herauszurechnen. Das Ergebnis ist ebenfalls in Abbildung 2 zu sehen (Farbe orange).
Die globale Meeresoberflächentemperatur unterliegt ebenfalls saisonalen Schwankungen, allerdings in sehr viel geringerem Ausmaß, wie aus Abbildung 3 hervorgeht.
Bildung und Analyse des monatlichen Konzentrationsanstiegs
Durch Subtraktion zeitlich aufeinanderfolgender Messpunkte wird der „rohe“ Konzentrationsanstieg berechnet:
Abbildung 4: Wachstum der CO2-Kozentration, Original(blau) und geglättet(orange).
Es ist leicht erkennbar, dass die monatlichen Schwankungen des Konzentrationsanstiegs beträchtlich sind, und der besonders hohe Peak Ende 2023 keinesfalls ein singuläres Ereignis darstellt; insbesondere geht der positiven Spitze eine viel größere negative voraus, über die in der Presse kein Wort verloren wurde. Auch der um einiges höhere Anstieg 2015 wurde nicht berücksichtigt. Damit hätte man leicht die gewagte Hypothese eines nachlassenden Senkeneffekts widerlegen können, denn in den geglätteten Daten (orange) ist erkennbar, dass es nach 2015 einen deutlichen Trend eines rückläufigen Konzentrationsanstiegs gibt.
Nach einer Glättung (orange) kann man den wirklichen Verlauf besser erkennen als mit den rohen, rauschbehafteten Differenzen. Da es sich um monatliche Werte handelt, müssen die Werte mit 12 multipliziert werden, um Rückschlüsse auf jährlichen Konzentrationsanstieg ziehen zu können. Ohne Zweifel ist am rechten Rand des Diagramms erkennbar, dass es seit 2023 tatsächlich eine Zunahme des Konzentrationsanstiegs gibt, was in der aktuellen Diskussion als Nachlassen der Senkenleistung interpretiert wird.
Interpretation des Anstieg des Konzentrationswachstums als Folge natürlicher Emissionen
Zur Veranschaulichung ist in Abbildung 5 der Senkenleistung (grün) aus der Differenz von anthropogenen Emissionen (blau) und Konzentrationswachstum (orange). Grundlage dieser Berechnung ist die auf der Massenerhaltung beruhende Kontinuitätsgleichung, wonach das Konzentrationswachstum $G_i$ im Monat $i$ sich aus der Differenz aller Emissionen und allen Absorptionen $A_i$ ergibt, wobei die Gesamtemissionen die Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$ sind, also $G_i = E_i + N_i – A_i $ Die effektive monatliche Senkenwirkung $S_i$ wird ermittelt als Differenz zwischen den monatlichen anthropogenen Emissionen $E_i$ und dem monatlichen Konzentrationswachstum $G_i$, also $S_i = E_i – G_i$ Aufgrund der Kontinuitätsgleichung beinhaltet die effektive Senkenwirkung außer den Absorptionen durch Ozeane und Pflanzen auch die natürlichen Emissionen: $S_i = A_i – N_i$
Abbildung 5: Anthropogene Emissionen(blau), CO2 Konzentrationswachstum(orange) und Senkenwirkung (grün)
Es ist leicht zu sehen, dass auch am rechten Rand von Abbildung 5 die (über einige Monate geglättete) effektive Senkenleistung nicht unter 0 sinkt. Allerdings geht sie tatsächlich zurück. Jetzt muss man sich aber darauf besinnen, dass nach der Kontinuitätsgleichung die „effektive Senkenleistung“ aus Absorptionen (Senken im engeren Sinn) und natürlichen Emissionen besteht. Es könnte also auch sein, dass die Spitzen des Konzentrationswachstums durch natürliche Emissionen hervorgerufen werden. Diese kommen in den Publikationen, die aktuell Alarm schlagen, überhaupt nicht vor.
Es ist allgemein bekannt und Folge des sogenannten Henry-Gesetzes, dass der Gasaustausch zwischen Meer und Atmosphäre von der Meeresoberflächentemperatur abhängt. Deswegen erwarten wir bei steigender Temperatur verstärkte CO2-Emissionen aus den Meeren, etwas übertrieben vergleichbar mit einer Sprudelflasche im Backofen. Diese Überlegung motiviert die Einführung der Temperatur als Modellparameter in der Beschreibung der effektiven Senkenleistung. Die Details der Ausarbeitung dieser Modellerweiterung ist in der oben erwähnten Publikation sowie in deren vereinfachter Beschreibung zu finden.
Was die Hinzunahme der Temperatur für die Modellierung des Konzentrationsanstiegs bedeutet, sieht man in Abbildung 6.
Abbildung 6: Geglättetes Konzentrationswachstum(blau) und dessen Modellierung mit temperaturunabhängigem (grün) und temperaturabhängigem (orange) Senkenmodell
Während die grüne Kurve das weithin bekannte lineare Senkenmodell darstellt (siehe hier (2024), hier (2023), hier (2019) und hier (1997)), wie es in der Publikation bzw. in der vereinfachten Darstellung beschrieben ist, wird in der orangenen Kurve auch noch die Abhängigkeit von der Temperatur gemäß der neuen Publikation berücksichtigt. Es stellt sich heraus, dass der aktuelle „zu große“ Anstieg der Konzentration eine ganz natürliche Folge des zugrundeliegenden Temperaturanstiegs ist. An der Senkenleistung, der linearen Abhängigkeit der Absorption von der CO2-Konzentration, hat sich überhaupt nichts geändert.
Höchste Zeit also, die Temperatur als „normale“ Ursache von CO2-Konzentrationsveränderungen in der öffentlichen Diskussion als Einflußfaktor zu etablieren statt wilde Spekulationen über ausbleibenden Senken ohne Evidenz anzustellen.
Die Dekonstruktion des Klimanarrativs
Einleitung – Wie funktioniert das Klimanarrativ?
Zweifellos gibt es ein von Wissenschaft, Medien und Politik propagiertes Klimanarrativ, wonach wir uns aufgrund der anthropogenen CO2 Emissionen auf einem Katastrophenkurs befinden, der angeblich nur mit einer Reduktion der Emissionen auf Null bis zum Jahre 2050 aufzuhalten ist.
Alle die dem Narrativ auch nur in subtilen Details widersprechen, werden wie Aussätzige auf „schwarzen Listen“ geführt, selbst wenn sie renommierte Wissenschaftler, ja sogar Nobelpreisträger sind[1][2] – mit verheerenden Folgen für Bewerbungen, Publikationen oder Förderanträge.
Wie ist es möglich, alle wichtigen, auch die renommiertesten Universitäten wie Harvard, MIT und Stanford, Oxford, Cambridge und Heidelberg auf die gemeinsame Konsenslinie zu bringen? Wie kann es gelingen, dass die berühmtesten Zeitschriften wie Nature[3] und Science, aber auch populärwissenschaftliche wie Spektrum der Wissenschaft nur noch einen schmalen „Verständnistunnel“ gelten lassen, ohne ihren Ruf nicht offensichtlich zu ruinieren?
Damit das Narrativ eine solche starke und universelle Wirkung entfalten kann, ist zweifellos ein solides wissenschaftliches Fundament notwendig, das man nicht ohne Blamage bestreiten kann. Diejenigen, die es trotzdem tun, werden auf denkbar einfache Weise als „Klimaleugner“ oder „Wissenschaftsfeinde“ identifiziert.
Auf der anderen Seite sind die Vorhersagen daraus und insbesondere die politischen Konsequenzen daraus dermaßen menschenfeindlich und wirklichkeitsfremd, dass nicht nur eine tiefe gesellschaftliche Spaltung entstanden ist, sondern dass eine zunehmende Zahl von Zeitgenossen, darunter viele Wissenschaftler, hinterfragen, was das für eine Wissenschaft sein soll, die dermaßen abwegige Ergebnisse produziert[4].
Bei sorgfältiger Analyse des Klimathemas findet sich ein Muster, das sich wie ein roter Faden durch alle Aspekte durchzieht. Dieses Muster wird im am Beispiel von 4 Schwerpunkten, die in der Klimaforschung bedeutsam sind, illustriert.
Das Muster, das sich aus langjähriger Auseinandersetzung mit dem Thema herausschälte, besteht darin, dass es im Kern immer eine korrekte Beobachtung oder ein gültiges Naturgesetz gibt. Im nächsten Schritt werden allerdings die Ergebnisse dieser Beobachtung entweder ungeprüft in die Zukunft fortgeschrieben, die Ergebnisse werden übertrieben oder sogar in ihrer Bedeutung verdreht. Andere, zielführende Erkenntnisse werden weggelassen oder ihre Veröffentlichung unterdrückt.
An den genannten und vielen anderen Beispielen lässt sich die typische Schlussfolgerung zeigen, dass bei dem jeweiligen Teilaspekt des Klimas ein möglichst schädliches Ergebnis droht. Das Zusammenfügen mehrerer solcher Komponenten führt in der Summe dann zu den katastrophalen Horrorszenarien, mit denen wir täglich konfrontiert werden. Da die Aussagen meist die Zukunft betreffen, lassen sie sich in der Regel kaum überprüfen.
Die gesamte Argumentationskette des Klimanarrativs hat folgende Form:
Die anthropogenen Emissionen wachsen – exponentiell.
Mit den Emissionen wächst die atmosphärische Konzentration an, solange die Emissionen nicht vollständig auf Null reduziert werden
Das Anwachsen der CO2-Konzentration in der Atmosphäre führt zu einem – dramatischen – Anwachsen der durchschnittlichen Temperatur
Darüber hinaus gibt es noch positive Rückkopplungen, wenn die Temperatur anwächst, ja sogar Kipppunkte, jenseits derer keine Umkehr mehr möglich ist.
Andere Erklärungen wie Sonnenstunden oder die damit zusammenhängende Wolkenbildung werden ignoriert, heruntergespielt oder in das System als Rückkopplungseffekt eingebaut.
Die Auswirkungen sind in der Summe dermaßen katastrophal, dass damit beliebige totalitäre politische Maßnahmen gerechtfertigt werden, mit dem Ziel, die weltweiten Emissionen auf Null herunterzudrücken.
Die ausführliche Beschäftigung mit dem Thema führt zu dem Ergebnis, dass jeder einzelne dieser Punkte das oben beschriebene Muster zeigt, dass es zwar immer einen wahren Kern gibt, der für sich genommen harmlos ist. Den wahren Kern herauszuarbeiten und die Übertreibungen, falschen Extrapolationen oder Weglassen wesentlicher Informationen herauszuarbeiten, ist das Ziel dieser Schrift.
1. Die anthropogenen Emissionen wachsen – exponentiell?
Jeder kennt die klassischen Beispiele exponentiellen Wachstums, z.B. das Schachbrett, das Feld für Feld mit jeweils der doppelten Menge Reis gefüllt wird. Ein exponentielles Wachstum führt grundsätzlich immer in eine Katastrophe. Daher ist es wichtig, die Fakten des Emissionswachstums zu prüfen.
Abbildung 1: Relatives Wachstum der weltweiten Emissionen[5][6]
Abbildung 1 zeigt das relative Wachstum der weltweiten anthropogenen Emissionen während der letzten 80 Jahre. Um das Diagramm zu verstehen, vergegenwärtigen wir uns, dass konstantes relatives Wachstum exponentielles Wachstum bedeutet[7]. Ein Sparkonto mit 3% Zinsen wächst im Prinzip exponentiell. Demnach finden wir exponentielles Emissionswachstum mit einer Wachstumsrate von etwa 4,5% zwischen 1945 bis 1975. Diese Phase nannte man einst „Wirtschaftswunder“. Danach ging das Emissionswachstum bis 1980 auf 0 zurück. Man nannte diese Zeit „Rezession“, mit der Konsequenz von Regierungswechseln in USA und Deutschland.
Ein weiterer Wachstumstiefpunkt der Emissionen war um 1990 mit dem Zusammenbruch des Kommunismus verbunden, mit einem folgenden Wiederanstieg, hauptsächlich in den Schwellenländern. Seit 2003 erfolgt eine beabsichtigte Reduktion des Emissionswachstum infolge der Klimapolitik.
Festzuhalten ist, dass aktuell das Emissionswachstum auf 0 gefallen ist.
Vor kurzem hat Zeke Hausfather festgestellt, dass die Summe der weltweiten anthropogenen Emissionen seit 2011 im Rahmen der Meßgenauigkeit konstant[8] sind, dargestellt in Abbildung 2. Demzufolge ist auch für die Zukunft kein Überschreiten der aktuellen Emissionen mehr zu erwarten[9].
Abbildung 2: Anthropogene Emissionen sind seit 2011 konstant[10]
Die längerfristige Fortschreibung der aktuellen geplanten künftigen Emissionen, das sogenannte „Stated Policies“ Szenario (von 2021) erwartet bis 2030 konstante weltweite Emissionen und danach eine ganz leichte Senkung von 0,3% pro Jahr.
Demzufolge sind die beiden vom IPCC am häufigsten verwendeten Zukunftsszenarien (RCP 8.5 und RCP6.2) fern von der Realität[12] der tatsächlich möglichen Emissionsszenarien. Trotzdem ist das Extremszenario RCP8.5 in den Modellrechnungen immer noch das am häufigsten verwendete[13].
Wissenschaftlich seriös sind vor allem das IPCC Szenario RCP4.5 und diesem in Abbildung 3 dargestellten ähnlichen IEA Szenario „Stated Policies“ (dort S. 33, Figure 1.4)[14].
Damit bleibt es bei Anerkennung der realistischen Emissionsszenarien ohne Infragestellung der vom IPCC verbreiteten Aussagen über das Klima bei einer maximalen emissionsbedingten Temperaturerhöhung von 2,5°C gegenüber dem vorindustriellen Zustand.
2. Atmosphärische CO2 Konzentration steigt kontinuierlich an — es sei denn, die Emissionen werden auf Null reduziert?
Die Frage ist, wie sich anthropogene Emissionen auf die CO2-Konzentration in der Atmosphäre auswirken. Es ist bekannt und in Abb. 4 von der Internationalen Energieagentur illustriert, dass bei weitem nicht alles emittierte CO2 in der Atmosphäre verbleibt, sondern dass ein wachsender Anteil davon von den Ozeanen und den Pflanzen wieder absorbiert wird.
Die statistische Auswertung der anthropogenen Emissionen und der CO2-Konzentration ergibt unter Berücksichtigung der Massenerhaltung und einem linearen Modell der natürlichen Senken Ozeane und Biosphäre, dass jedes Jahr knapp 2% der über das vorindustrielle natürliche Gleichgewichtsniveau hinausgehenden CO2-Konzentration von den Ozeanen und der Biosphäre
Abbildung 4: Quellen (anthropogene Emissionen und Landnutzung), Senken des CO2 (Ozeane und Landsenken) und Konzentrationswachstum in der Atmosphäre
absorbiert werden[15][16]. Das ist aktuell die Hälfte der anthropogenen Emissionen mit zunehmender Tendenz, wie in Abbildung 5 dargestellt.
Abbildung 5: CO2 Bilanz und lineares Senkenmodell: anthropgene Emissionen (blau), Konzentrationswachstum (orange), natürliche Senken und deren Modellierung (grün)
Das wahrscheinlichste weltweite Zukunftsszenario der Internationalen Energie Agentur – die in Abb. 3 dargestellte Fortschreibung heutiger politischer Regelungen (Stated Policies Szenario STEPS) – beinhaltet bis zum Ende des Jahrhunderts eine sanften Abnahme (3%/Jahrzehnt) der weltweiten Emissionen auf das Niveau von 2005. Diese Emissionsverringerungen sind durch Effizienzverbesserungen und normalen Fortschritt erreichbar.
Wenn wir dieses STEPS Referenz-Szenario zugrunde legen, führt dies bei Nutzung des linearen Senkenmodells zu einem Anstieg der Konzentration um 55 ppm auf ein Plateau von 475 ppm, wo dann die Konzentration verbleibt.
Abbildung 6: Gemessene und vorhergesagte CO2-Konzentration mit 95% Fehlerbalken
Wesentlich ist, dass dabei die CO2-Konzentration auf keine klimatisch gefährlich hohe Werte steigen wird. Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1[17]: Die Länder müssen ihre maximalen Emissionen baldmöglichst erreichen “um so ein Gleichgewicht zwischen anthropogenen Emissionen von Treibhausgasen und und deren Absorption mittels Senken in der zweiten Hälfte dieses Jahrhunderts zu erreichen”. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Dekarbonisierung.
Das Netto-Null Gleichgewicht zwischen Emissionen und Absorptionen wird mit der Fortschreibung heutigen Verhaltens im Jahre 2080 ohne radikale Klimamaßnahmen erreicht.
Ohne auf die Details der sog. Sensitivitätsberechnung einzugehen, lässt sich vereinfacht für die weitere Temperaturentwicklung sagen:
Angenommen, die CO2-Konzentration sei voll verantwortlich für die Temperaturentwicklung der Atmosphäre, dann war 2020 die CO2-Konzentration 410 ppm, also (410-280) ppm = 130 ppm über dem vorindustriellen Niveau. Bis dahin war die Temperatur etwa 1° C höher als vor der Industrialisierung. Künftig können wir mit der obigen Prognose eine Erhöhung der CO2-Konzentration um (475-410) ppm = 65 ppm erwarten. Das ist grade die Hälfte der bisherigen Steigerung. Demzufolge können wir, auch wenn wir von der Klimawirkung des CO2 überzeugt sind, bis dahin zusätzlich die Hälfte der bisherigen Temperaturerhöhung erwarten, also ½° C. Demzufolge wird 2080 die Temperatur mit 1,5° C über vorindustriellem Niveau das Ziel des Pariser Klimaabkommens erfüllen, auch ohne radikale Emissionsreduktionen.
3. Atmosphärische CO2 Konzentration verursacht – dramatischen? – Temperaturanstieg
Nach der Diskussion über die möglichen künftigen CO2-Mengen stellt sich die Frage nach deren Auswirkungen auf das Klima, also nach dem Treibhauseffekt des CO2 und dessen Einfluss auf die Temperatur der Erdoberfläche und der Atmosphäre.
Der mögliche Einfluss des CO2 auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport[18]. Da das Thema einerseits grundlegend für die gesamte Klimadiskussion ist, andererseits anspruchsvoll und schwer durchschaubar, wird hier auf die komplizierten physikalischen Formeln verzichtet.
Um den Treibhauseffekt messen zu können, muss die in das Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der erwartete Treibhauseffekt ist aber mit 0,2 W/m2 pro Jahrzehnt[19] so winzig, dass er mit heutiger Satellitentechnologie, die eine Messgenauigkeit von etwa 10 W/m2 hat, nicht direkt nachweisbar ist[20].
Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der physikalischen Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses CO2 Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.
Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN[21], mit dem die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der CO2-Treibhauseffekt physikalisch korrekt simuliert werden kann:
Abbildung 7 zeigt, dass die MODTRAN Rekonstruktion des Infrarotspektrums hervorragend mit dem aus dem Weltraum gemessenen Infrarotspektrum übereinstimmt. Damit können wir die Anwendbarkeit des Simulationsprogramms rechtfertigen und schließen, dass sich mit der Simulation auch hypothetische Konstellationen mit ausreichender Genauigkeit beschreiben lassen.
Mit diesem Simulationsprogramm wollen wir die wichtigsten Aussagen bezüglich des Treibhauseffekts überprüfen.
Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum
Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum
Um auf bekanntem Gefilde zu beginnen, versuchen wir zunächst, den üblicherweise publizierten, „reinen CO2-Treibhauseffekt zu reproduzieren“, indem die durch nichts reduzierte Sonneneinstrahlung die Erde erwärmt und deren Infrarotstrahlung in den Weltraum ausschließlich durch die CO2-Konzentration abgeschwächt wird. Die CO2-Konzentration wird auf das vorindustrielle Niveau 280 ppm eingestellt.
Wir verwenden dabei die sogenannte Standard-Atmosphäre[22], die sich seit Jahrzehnten bei für die Luftfahrt wichtigen Berechnungen bewährt hat, entfernen aber alle anderen Spurengase, ebenso den Wasserdampf. Die anderen Gase wir Sauerstoff und Stickstoff sind aber als vorhanden angenommen, sodass sich an der Thermodynamik der Atmosphäre nichts ändert. Durch leichte Korrektur der Bodentemperatur auf 13,5°C (Referenztemperatur ist 15°C) wird die Infrarot-Abstrahlung auf 340 W/m2 eingestellt. Das ist grade ¼ der Solarkonstante[23], entspricht also genau der auf die ganze Erdoberfläche verteilten Sonneneinstrahlung.
Gut erkennbar ist im Spektrum das „CO2-Loch“, also die gegenüber dem normalen Planck-Spektrum[24] verminderte Abstrahlung im CO2-Band.
Abbildung 8: Simuliertes IR-Spektrum: nur vorindustrielles CO2
Was passiert nun bei Verdoppelung der CO2-Konzentration?
Abbildung 9: Strahlungsantrieb bei Abbildung 9a: Temperaturanstieg zur CO2-Verdoppelung (keine Albedo, Kompensation des Strahlungsantriebs kein Wasserdampf) von Abb. 9.
In Abb. 9 ist zu sehen, dass bei Verdoppelung der CO2-Konzentration auf 560 ppm der Wärmefluß der Infrarotstrahlung um 3,77 W/m2 vermindert wird. Diese Zahl wird vom IPCC und fast allen Klimaforschern verwendet, um den CO2-Antrieb („Forcing“) zu beschreiben. In Abb. 9a verändern wir die Bodentemperatur von -1,5°C auf -0,7°C, um wieder die Abstrahlung von 340 W/m2 zu erreichen. Diese Erwärmung um 0,8°C bei Verdoppelung der CO2-Konzentration wird als „Klima-Sensitivität“ bezeichnet. Sie ist, angesichts der aktuellen Meldungen über die drohenden Klimakatastrophen überraschend gering.
Insbesondere, wenn wir bedenken, dass die bisher verwendeten Einstellungen des Simulationsprogramms völlig an der realen Erdatmosphäre vorbeigehen:
Keine Berücksichtigung der Albedo, der Rückstrahlung des Lichteinstrahlung,
Keine Berücksichtigung von Wolken und Wasserdampf
Schritt für Schritt wollen wir uns nun den realen Bedingungen nähern. Die Szenarien sind in Tabelle 1 zusammengefaßt:
Szenario
Albedo
Einstrahlung (W/m2)
CO2 vorher (ppm)
Temperatur (°C)
CO2 nachher(ppm)
Antrieb (W/m2)
Temperatur-Steigerung fürs Gleichgewicht (°C)
Vorindustriell Nur CO2, keine Wolken, kein Wasserdampf
0
340
280
13,7
560
-3,77
0,8
Keine Treib-hausgase, keine Wolken (CO2 von 0-280 ppm)
0,125
297,5
0
-2
280
-27
7
Nur CO2, Albedo, keine Wolken, kein Wasserdampf
0,125
270
280
5
560
-3,2
0,7
Vorindustrielle Standard- Atmosphäre
0,3
240
280
15
560
-2
0,5
Vorindustrielle Standard Atmosphäre, CO2 heutige Konzentration
0,3
240
280
15
420
-1,1
0,3
Tabelle 1: MODTRAN Szenarien unter verschiedenen Bedingungen, siehe Text.
Das Szenario in der ersten Zeile von Tabelle 1 ist das soeben besprochene „reine CO2“ Szenario.
In der zweiten Zeile gehen wir noch einen Schritt zurück, und entfernen auch noch das CO2, also ein Planet ohne Treibhausgase, ohne Wolken, ohne Wasserdampf. Aber die Erdoberfläche reflektiert Sonnenlicht, hat also Albedo[25]. Der Albedowert 0,125 entspricht dem sonstiger Gesteinsplaneten ebenso wie der Meeresoberfläche. Erstaunlicherweise kommt in diesem Fall eine Oberflächentemperatur von -2° C (und nicht wie oft behauptet -18°C!) zustande. Das kommt daher, dass es ohne Wasserdampf auch keine Wolkenalbedo gibt. Wird nun die CO2-Konzentration auf das vorindustrielle Niveau von 280 ppm erhöht, dann reduziert sich die Infrarot-Abstrahlung um 27 W/m2. Dieser große Strahlungsantrieb wird durch eine Temperatursteigerung von 7°C ausgeglichen.
Wir stellen fest, zwischen dem Zustand ganz ohne Treibhausgase und dem vorindustriellen Zustand gibt es einen stattlichen Treibhauseffekt, mit einer Erwärmung um 7°C.
Die dritte Zeile nimmt diesen vorindustriellen Zustand, also Erdalbedo, 280 ppm CO2, keine Wolken und kein Wasserdampf als Ausgangspunkt für das nächste Szenario. Bei Verdoppelung der CO2-Konzentration beträgt der Strahlungsantrieb von -3,2 W/m2, also etwas weniger als bei dem ersten „reinen CO2-Szenario“. Demzufolge ist auch hier die Erwärmung mit 0,7°C zur Erreichung des Strahlungsgleichgewichts etwas geringer.
Nach diesen Vorbereitungen ist in der 4. Zeile die vorindustrielle Standardatmosphäre mit Albedo, Wolken, Wasserdampf und der real gemessenen Albedo von 0,3 repräsentiert, mit der zur Standardatmosphäre zugehörige Bodentemperatur von 15°C. Es gibt nun mehrere Möglichkeiten, Bewölkung und Wasserdampf einzustellen, um die der Albedo a=0,3 entsprechende Infrarot-Abstrahlung von 340 W/m2. (1-a) = 240 W/m2 zu erreichen. Für’s Ergebnis kommt es nicht auf die genaue Wahl dieser Parameter an, solange die Abstrahlung 240 W/m2 beträgt.
Bei diesem Szenario bewirkt die Verdoppelung der CO2-Konzentration auf 560 ppm einen Strahlungsantrieb von -2 W/m2 und eine kompensierende Temperaturerhöhung, also Sensitivität von 0,5°C.
Außer dem Szenario der Verdoppelung der CO2-Konzentration ist natürlich auch von Interesse, was der Treibhauseffekts bis heute bewirkt hat. Die aktuelle CO2-Konzentration von 420 ppm ist gerade in der Mitte zwischen den vorindustriellen 280 ppm und deren doppeltem Wert.
In der 5. Zeile der Tabelle bewirkt die Erhöhung von 280 ppm auf 420 ppm den Strahlungsantrieb von -1,1 W/m2 und die zur Kompensation notwendige Temperaturerhöhung von 0,3°C. Aus diesem Resultat folgt, dass seit dem Beginn der Industrialisierung der bisherige Anstieg der CO2-Konzentration für eine globale Temperaturerhöhung von 0,3°C verantwortlich war.
Das ist viel weniger als die mittlere Temperaturerhöhung seit dem Beginn der Industrialisierung. Daher stellt sich die Frage, wie die „restliche“ Temperaturerhöhung zu erklären ist.
Es bieten sich mehrere Möglichkeiten an:
Positive Rückkopplungseffekte, die die CO2-bedingte Erwärmung verstärken. Das ist die Richtung des Weltklimarates und Thema des nächsten Kapitels.
Andere Ursachen wie Wolkenalbedo. Das ist Thema des übernächsten Kapitels
Zufällige Schwankungen. Gerne wird angesichts des chaotischen Charakters des Wettergeschehens der Zufall herangezogen. Diese Möglichkeit bleibt in Rahmen dieser Abhandlung offen.
4. Rückkopplungen führen zu — katastrophalen? — Konsequenzen
Die im vorigen Kapitel maximal mögliche Klimasensitivität, also Temperaturerhöhung bei Verdoppelung der CO2-Konzentration beträgt 0,8°C, unter realen Bedingungen eher 0,5°C.
Es war in der Klimaforschung schon früh klar, dass eine solch geringe Klima-Sensitivität niemanden in der Welt ernsthaft in Sorge versetzen könnte. Dazu kam, dass die gemessene globale Erwärmung größer ist als von der Strahlungstransportgleichung vorhergesagt wird.
Deswegen wurden Rückkopplungen ins Spiel gebracht, die prominenteste Veröffentlichung in diesem Zusammenhang war 1984 von James Hansen et al.: „Climate Sensitivity: Analysis of Feedback Mechanisms“[26] (Klima-Sensitivität: Analyse von Rückkopplungsmechanismen). James Hansen war es, der mit seinem Auftritt vor dem US-Senat 1988[27] die Klimapolitik der USA maßgeblich beeinflusste. Ähnlich argumentierte Prof. Levermann bei einer Anhörung des Umweltausschusses des Deutschen Bundestags[28], verbunden mit der Behauptung, aufgrund der Rückkopplung würde die Temperatur um 3°C steigen.
Mit Hilfe der Rückkopplungsmechanismen entstanden die vom IPCC veröffentlichten hohen Sensitivitäten bei Verdopplung der CO2 Konzentration zwischen 1,5°C und 4,5°C.
Es stellt sich insbesondere die Frage, wie eine geringe Erwärmung von 0,8°C durch Rückkopplung zu einer Erwärmung von 4,5°C führen kann, ohne dass das System völlig außer Kontrolle gerät?
Die in diesem Zusammenhang mit Abstand wichtigste Rückkopplung ist die Wasserdampf-Rückkopplung.
Wie funktioniert die Wasserdampf-Rückkopplung?
Die Wasserdampf-Rückkopplung besteht aus einem 2-Schritt Prozess:
Wenn die Lufttemperatur um 1°C steigt, kann die Luft um 6% mehr Wasserdampf aufnehmen[29]. Es ist zu beachten, dass dieser Prozentsatz der maximal mögliche Wasserdampfgehalt ist. Ob dieser wirklich erreicht wird, hängt davon ab, ob genügend Wasserdampf zur Verfügung steht.
Der Strahlungstransport von Infrarotstrahlung hängt von der relativen Luftfeuchtigkeit ab: Zusätzliche Luftfeuchtigkeit reduziert die abgestrahlte Infrarotstrahlung infolge der Absorption durch den zusätzlichen Wasserdampf. Mit Hilfe des bereits erwähnten MODTRAN-Simulationsprogramms wird die Reduktion der Infrarotstrahlung um 0,69 W/m2 bei Erhöhung des Luftfeuchtigkeit um 6%, also z.B. von 80% auf 86% ermittelt[30].
Diese reduzierte Infrarotstrahlung ist ein negativer Strahlungsantrieb. Die diese Abschwächung kompensierende Temperaturerhöhung ist die primäre Rückkopplung g (englisch „gain“). Diese beträgt 0,19 °C als Folge der ursprünglichen Temperaturerhöhung um 1°C, also ist g=0,19.
Die Gesamtrückkopplung f (englisch „feedback“) ergibt sich als geometrische Reihe[31] infolge der rekursiven Anwendung des obigen Mechanismus – die 0,19°C zusätzliche Temperaturerhöhung haben ja eine erneute zusätzliche Wasserdampfbildung zur Folge. Dieser Zusammenhang wird von James Hansen in seiner Arbeit von 1984[32] beschrieben:
f = 1+ g + g2 + g3… = 1/(1-g).
Mit g=0,19 ist demnach der Rückkopplungsfaktor f = 1,23.
Unter Zugrundelegung eines Treibhauseffekts aus dem Strahlungstransport von 0,8°C erfolgt daraus zusammen mit der maximal möglichen Rückkopplung eine Temperaturerhöhung von 0,8°C . 1,23 = 0.984 °C 1°C, bei der hier ermittelten Sensitivität 0,5°C . 1,23 = 0,62 °C.
Beide Werte sind niedriger als die kleinste publizierte Sensitivität von 1,5°C der beim IPCC verwendeten Modelle. Die seit dem Beginn der Industrialisierung erfolgte Erwärmung ist demnach selbst mit Rückkopplung 0,3°C . 1,23 = 0,37°C.
Damit ist belegt, dass auch die vielfach beschworene Wasserdampf-Rückkopplung zu keiner exorbitanten und schon gar keiner katastrophalen Klima-Erwärmung führt.
5. Aber sie erwärmt sich doch? – Auswirkungen von Wolken.
An dieser Stelle aufzuhören, wird jeden, der sich mit dem Klimathema beschäftigt, mit der naheliegenden Frage unzufrieden zurücklassen: „Aber die Erde erwärmt sich doch, und zwar stärker, als die nach dem revidierten Treibhauseffekt samt Rückkopplung möglich wäre?“.
Deswegen werden hier die in der Klimadiskussion bis vor kurzem wenig beachteten Auswirkungen der tatsächlichen Wolkenbildung[33] untersucht.
Untersuchung der Veränderungen der weltweiten Wolkenbedeckung
Jay R Herman von der NASA[34] hat mit Hilfe von Satellitenmessungen über einen Zeitraum von mehr als 30 Jahren die mittlere Reflexivität der Wolkenbedeckung der Erde berechnet und ausgewertet:
Abbildung 10: Wolkenreflexivität zwischen 1979 und 2011
Er stellte einen klaren Trend der Abnahme der Wolkenbedeckung fest. Daraus berechnete er, wie sich dies auf die davon betroffenen Komponenten des globalen Energiebudgets auswirkt:
Abbildung 11 Veränderung des Energiebudgets aufgrund der Veränderung der Wolkenreflexivität
Das Ergebnis war, dass aufgrund der reduzierten Wolkenbedeckung die Sonneneinstrahlung in 33 Jahren um 2,33 W/m2 zunahm. Das sind 0,7 W/m2 Strahlungsantrieb pro Jahrzehnt. Demgegenüber betrug die Abnahme der Abstrahlung infolge der Zunahme der CO2-Konzentration maximal 0,2 W/m2 pro Jahrzehnt[35].
Demzufolge ist nach dieser Untersuchung der Einfluss der Wolken mit 78% auf das Klima mindestens 3,5 mal größer als der des CO2, das demnach allenfalls einen Einfluss von 22% hat.
Fazit – es gibt keine drohende Klimakatastrophe
Fassen wir die Stationen dieser Betrachtungen zur Dekonstruktion des Klimanarrativs noch einmal zusammen:
Es gibt kein exponentielles Wachstum der CO2-Emissionen. Diese Phase gab es bis 1975, aber die ist längst vorbei, und die weltweiten Emissionen sind seit 10 Jahren auf einem Plateau angelangt.
Die CO2-Konzentration wächst zwar trotz konstanter Emissionen noch an, aber deren Wachstum hat sich bereits verlangsamt, und wird unter Annahme des wahrscheinlichsten Emissionsszenarios in der 2. Hälfte des Jahrhunderts aufhören.
Die physikalisch plausible Treibhauswirkung des CO2 ist sehr viel geringer als gewöhnlich behauptet wird, die unter realen atmosphärischen Bedingungen begründbare Sensitivität ist nur 0,5°C.
Aus der Abschätzung der maximal möglichen Rückkopplungswirkung durch Wasserdampf ergibt sich die obere Grenze des Rückkopplungsfaktors als 1,25. Damit lassen sich keine Temperaturerhöhungen von 3°C oder mehr rechtfertigen
Es gibt plausible einfache Erklärungen der Temperaturentwicklung der Erde. Die wichtigste davon ist, dass infolge der verschiedenen Maßnahmen der Luftreinhaltung (Reduzierung von Holz- und Kohleverbrennung, Katalysatoren bei Automobilen, etc.) die Aerosole in der Atmosphäre im Laufe der letzten 70 Jahre zurückgegangen ist, was zu einer Verminderung der Wolkenbildung und daher zu einer Erhöhung der Sonneneinstrahlung führte.
Wie groß ist der Treibhauseffekt in Deutschland? — eine statistische Analyse
[latexpage]
Hohe Korrelation als Indiz der Kausalität?
Die Argumentation, dass CO2 die mittlere globale Temperatur bestimmt, wird häufig mit diesem Diagramm, das eine starke Korrelation zwischen CO2-Konzentration und mittlerer globaler Temperatur zeigt, veranschaulicht oder sogar begründet, hier beispielsweise die in Maona Loa gemessene mittlere jährliche Konzentration und die jährlichen globalen Meeresoberflächentemperaturen:
Es gibt zwar zwischen 1900 und 1975 — immerhin 75 Jahre — starke systematische Abweichungen, aber seit 1975 ist die Korrelation stark. Wenn wir versuchen, mit den seit 1959 verfügbaren CO2-Konzentrationsdaten von Maona Loa die deutschen Mitteltemperaturen zu erklären, bekommen wir eine klare Beschreibung des Trends der Temperaturentwicklung, aber keine Erklärung der starken Schwankungen:
Die aus den im Jahr $i$ gemessenen logarithmischen CO2-Konzentrationsdaten $ln(C_i)$ mit der Methode der kleinsten Quadrate geschätzte „Modelltemperatur“ $\hat{T}_i$ ergibt sich als $\hat{T}_i = 7.5\cdot ln(C_i)- 35.1 $ (°C)
Nehmen wir als 2. Erklärungsvariable die jährlichen Sonnenstunden hinzu, so verbessert sich die Anpassung etwas, aber wir sind noch weit entfernt von einer vollständigen Erklärung der schwankenden Temperaturen. Der Trend wird erwartungsgemöß ähnlich gut wiedergeben, auch ein Teil der Schwankungen wird mit den Sonnenstunden erklärt, aber bei weitem nicht so gut, wie man es eigentlich von einer kausalen Bestimmungsgröße erwarten würde :
Die Modellgleichung für die geschätzte Temperatur $\hat{T}_i$ wird mit der Erweiterung der Sonnenstunden $S_i$ zu $ \hat{T}_i = 5.8\cdot ln(C_i) + 0.002\cdot S_i – 28.5 $ (°C) Das relative Gewicht der CO2-Konzentration hat bei insgesamt verbessertem statistischem Erklärungswert der Daten etwas abgenommen.
Allerdings sieht es so aus, als ob das Zeitintervall 1 Jahr viel zu lang ist, um die Auswirkung der Sonneneinstrahlung auf die Temperatur korrekt zu behandeln. Es ist offensichtlich, dass die jahreszeitlichen Schwankungen unzweifelhaft von der Sonneneinstrahlung verursacht werden. Die Auswirkungen der Einstrahlung sind nicht alle spontan, es müssen auch Speichereffekte berücksichtigt werden. Das entspricht unserer Wahrnehmung, dass die Wärmespeicherung der Sommerwärme 1-3 Monate anhält, und z.B. die wärmsten Monate erst nach der Zeit der größten Sonneneinstrahlung sind. Deswegen müssen wir ein auf dem Energiefluss beruhendes Modell erstellen, das mit monatlichen Messwerten gefüttert wird, und das eine Speicherung vorsieht.
Energieerhaltung – Verbesserung des Modells
Um das Verständnis zu verbessern, erstellen wir ein Modell mit monatlichen Daten unter Berücksichtigung der physikalischen Vorgänge (die Monate werden mit der Indexvariablen $i$ durchgezählt):
Durch die Sonneneinstrahlung wird der Erdoberfläche Energie zugeführt, diese wird monatlich als proportional zur Zahl der Sonnenstunden $S_i$ angenommen,
unter der Annahme des Treibhauseffekts wird ebenfalls Energie zugeführt, für die monatliche Energieaufnahme (bzw. verhinderte Energieabgabe) wird eine lineare Funktion von $ln(C_i)$ angenommen,
die oberste Schicht der Erdoberfläche speichert die Energie und gibt sie wieder ab, die monatliche Abgabe wird als eine lineare Funktion der Temperatur $T_i$ angenommen,
die monatliche Temperaturänderung in Deutschland wird als proportional zur Energieänderung angenommen.
Daraus ergibt sich diese modellierte Bilanzgleichung, die Konstante $d$ erlaubt es, beliebig skalierte Maßeinheiten zu verwenden: $ \hat{T}_i – \hat{T}_{i-1} = a\cdot \hat{T}_{i-1} + b\cdot S_i + c\cdot ln(C_i) + d $ Auf der linken Seite der Gleichung steht die Temperaturveränderung als Repräsentant der Energiebilanzänderung, während die rechte Seite die Summe der Ursachen dieser Energieänderung darstellt. Für die Bestimmung der Koeffizienten $a,b,c,d$ mit der Methode der kleinsten Quadrate wird statt der modellierten Temperatur $\hat{T}_i$ die gemessene Temperatur $T_i$ eingesetzt.
Hier sind zunächst die monatliche Temperatur- und Sonnenstundendaten. Es ist erkennbar, dass die Temperaturdaten den Sonnenstundendaten um etwa 1-2 Monate hinterherhinken, aber insgesamt einen ähnlichen Verlauf haben:
Dies passt zu der Annahme, dass wir tatsächlich einen Speichereffekt haben. Die Bilanzgleichung sollte also sinnvolle Werte liefern. Für die Auswertung des Schätzergebnisses müssen wir allerdings genauer hinschauen.
In dieser Darstellung sind in der 1. Spalte die Werte der jeweiligen Koeffizienten, in der 2. Spalte deren Standardfehler, danach die sogenannte T-Statistik, gefolgt von der Wahrscheinlichkeit, dass die Annahme des von 0 verschiedenen Koeffizienten falsch ist, der sogenannten Irrtumswahrscheinlichkeit. Das bedeutet, dass ein Koeffizient nur dann signifikant ist, wenn diese Wahrscheinlichkeit nahe 0 ist. Dies ist der Fall, wenn die T-Statistik größer 3 oder kleiner -3 ist. Die beiden letzten Spalten beschreiben schließlich das sog. 95% Konfidenzintervall. Das bedeutet, dass mit 95%-iger Wahrscheinlichkeit sich der tatsächliche Schätzwert innerhalb dieses Intervalls befindet.
Koeffizient Std.Fehler t-Wert P>|t| [0.025 0.975] -------------------------------------------------------------------- a -0.4826 0.0142 -33.9049 0.0000 -0.5105 -0.4546 b 0.0492 0.0013 38.8127 0.0000 0.0467 0.0517 c 0.6857 0.9038 0.7587 0.4483 -1.0885 2.4598 d -6.3719 5.3013 -1.2020 0.2297 -16.7782 4.0344
Hier sind die Irrtumswahrscheinlichkeiten der Koeffizienten $c$ und $d$ mit 45% bzw. 23% dermaßen groß, dass wir daraus schließen müssen, dass sowohl $c=0$ also auch $d=0$ sind. $c$ misst die Bedeutung der CO2-Konzentration für die Temperatur. Das bedeutet, dass in Deutschland seit 64 Jahren die CO2-Konzentration keinen statistisch signifikanten Einfluss auf die Temperaturentwicklung hat. Dies aber ist der Zeitraum der größten anthropogenen Emissionen der Geschichte. Dass $d$ ebenfalls den Wert 0 annimmt, ist eher dem Zufall geschuldet, denn diese Konstante hängt von den Maßeinheiten der CO2-Konzentration und der Temperatur ab.
Demzufolge wird die Bilanzgleichung angepasst: $ T_i – T_{i-1} = a\cdot T_{i-1} + c\cdot S_i + d $ mit dem Ergebnis:
Koeffizient Std.Fehler t-Wert P>|t| [0.025 0.975] -------------------------------------------------------------------- a -0.4823 0.0142 -33.9056 0.0000 -0.5102 -0.4544 b 0.0493 0.0013 38.9661 0.0000 0.0468 0.0517 d -2.3520 0.1659 -14.1788 0.0000 -2.6776 -2.0264
Hier ist nun die Konstante $d$ aufgrund des Umstandes, dass $c=0$ ist, wieder mit hoher Signifikanz gültig. Die beiden anderen Koeffizienten $a$ und $b$ haben sich kaum verändert. Sie verdienen eine kurze Diskussion:
Der Koeffizient $a$ gibt an, welcher Teil der als Temperatur gemessenen Energie im Laufe eines Monate wieder abgegeben wird. Das ist fast die Hälfte. Dieser Faktor ist unabhängig vom Nullpunkt der Temperaturskala, bei der Wahl von K oder Anomalien statt °C käme derselbe Wert heraus. Der Wert entspricht etwa dem subjektiven Empfinden, wie sich im Sommer die Zeiten größter Temperatur zeitlich gegenüber dem Maximum der Sonneneinstrahlung verschieben. Der Koeffizient $b$ gibt an, mit welchem Faktor sich die Sonnenstunden in monatliche Temperaturänderung übersetzen.
Das Ergebnis ist nicht nur eine abstrakte Statistik, es lässt sich auch veranschaulichen, indem der monatliche Temperaturverlauf der letzten 64 Jahre mit Hilfe des beschriebenen Modells rekonstruiert wird.
Die Rekonstruktion des gesamten Temperaturverlauf ergibt sich aus der Zeitreihe der Sonnenstunden und einem einzigen Temperatur-Startwert $\hat{T}_{-1}=T_{-1}$, dem Vormonat des Beginns der untersuchten Zeitreihe seit 1959, also hier vom Dezember 1958. Die Rekonstruktion erfolgt mit dieser Rekursion aus den Sonnenstunden über die 768 Monate vom Januar 1959 bis Dezember 2023: $\hat{T}_i = \hat{T}_{i-1} + a\cdot \hat{T}_{i-1} + b\cdot S_i + d$ $(0\leq i < 768 ) $
Hier die vollständige Rekonstruktion der Temperaturdaten im Vergleich der Original-Temperaturdaten:
Der deutlicheren Darstellung wegen werden die letzten 10 Jahre vergrößert dargestellt:
Es fällt auf, dass das Residuum, d.h. die Abweichungen der Rekonstruktion von den tatsächlichen Temperaturen bis zum Ende des untersuchten Zeitraums um 0 herum symmetrisch erscheint und keine offensichtlichen systematischen Abweichungen zeigt. Das Maß des Fehlers der Rekonstruktion ist die Standardabweichung des Residuums. Diese beträgt 2.5°C. Da wir einen langen Zeitraum von 64 Jahren untersuchen, könnte eine Feinanalyse der langfristigen Trends von Original-Temperaturen, Rekonstruktion und Residuum eine mögliche Obergrenze des möglichen Einflusses von CO2 finden.
Feinanalyse des Residuums
Wenn wir von den 3 Kurven Originaltemperaturdaten, Rekonstruktion und Residuum über den ganzen 64-Jahre Zeitraum die mittlere Steigung durch Schätzung einer Ausgleichsgeraden bestimmen, bekommen wir folgende langfristige Werte:
Vom Trend der Originaltemperaturen werden 90% durch die Zahl der Sonnenstunden erklärt. Für weitere Ursachen bleiben also nur noch 10% an nicht erklärter Variabilität übrig. Bis zum Beweis des Gegenteils können wir also annehmen, dass höchstens für diese 10% der Anstieg der CO2-Konzentration verantwortlich ist, also für maximal 0.03° C pro Jahrzehnt während der letzten 64 Jahre. Statistisch kann aber der Beitrag der CO2-Konzentration nicht als signifikant beurteilt werden. Zu bedenken ist, dass mit diesem einfachen Modell sehr viele Einflussfaktoren und Inhomogenitäten nicht berücksichtigt sind, dass also der Einfluss der CO2-Konzentration nicht der einzige Faktor ist, der zusätzlich zu den Sonnenstunden wirksam ist. Deswegen wird der CO2 Einfluss ja auch als statistisch nicht als signifikant bewertet.
Erweiterung — Korrektur durch Approximation der tatsächlichen Einstrahlung
Bislang haben wir die Sonnenstunden als Repräsentant des tatsächlichen Energieflusses verwendet werden. Das ist nicht ganz korrekt, denn eine Sonnenstunde im Winter bedeutet aufgrund des viel flacheren Einfallswinkels deutlich weniger eingestrahlte Energie als im Sommer.
Der jahreszeitliche Verlauf der Wichtung des einströmenden Energieflusses hat diese Form. Mit dieser Wichtung müssen die Sonnenstunden multipliziert werden, um den Energiefluß zu erhalten.
Mit diesen monatlichen Wichtungen wird das Modell aus Sonneneinstrahlung und CO2 erneut bestimmt. Wiederum muss der Beitrag des CO2 wegen mangelnder Signifikanz abgelehnt werden. Daher hier die Rekonstruktion der Temperatur aus dem einstrahlenden Energiefluss etwas besser als die obige Rekonstruktion.
Durch die Korrektur der Sonnenstunden zum Energiefluss hat sich der Standardabweichung des Residuums auf 2.1°C verringert.
Mögliche Verallgemeinerung
Weltweit ist die Erfassung der Sonnenstunden weitaus weniger vollständig als die der Temperaturmessung. Daher können die Ergebnisse für Deutschland nicht einfach weltweit reproduziert werden. Aber es wird mit Satelliten die Wolkenbedeckung bzw. die Reflexion der Sonneneinstrahlung an den Wolken gemessen. Mit diesen Daten kommt man zu ähnlichen Ergebnissen, dass nämlich der Anstieg der CO2-Konzentration allenfalls für 20% der weltweit mittleren Temperaturerhöhung verantwortlich ist. Da diese im Schnitt niedriger ist als die Temperaturerhöhung in Deutschland, führt das am Ende ebenfalls zu einer Obergrenze von 0.03°C pro Jahrzehnt für die Folgen des CO2-bedingten Treibhauseffekts.
Wie funktioniert der Treibhauseffekt?
Über den Treibhauseffekt ist schon viel geschrieben worden, und viele Vergleiche werden angestellt. Vieles davon ist jedoch irreführend oder sogar falsch. Der Treibhauseffekt kommt dadurch zustande, dass bei zunehmendem CO2 ein leicht wachsender Anteil der Infrarot-Strahlung aus den oberen, kalten Schichten der Erd-Atmosphäre (d.h. der Stratosphäre) in den Weltraum abgestrahlt wird. Der Sachverhalt ist im Detail kompliziert, daher ist es auch so einfach, den Bürgern mit Übertreibungen, Verzerrungen oder Lügen Angst zu machen. Hier möchte ich ohne Formeln und anschaulich die Grundlagen des atmosphärischen Treibhauseffektes physikalisch korrekt beschreiben, bei dem das CO2 eine wichtige Rolle spielt.
Aus dem Weltraum betrachtet, erfolgt der Temperaturhaushalt der Erdoberfläche und der Atmosphäre durch
Einstrahlung von kurzwelligem, zum großen Teil sichtbarem Sonnenlicht und durch
Abstrahlung von langwelliger unsichtbarer Infrarotstrahlung.
Wenn der Energieinhalt der Einstrahlung gleich ist wie der Energieinhalt der Abstrahlung, gibt es ein Gleichgewicht, und die Durchschnittstemperatur der Erde bleibt konstant. Eine Erwärmung findet immer dann statt, wenn entweder die Abstrahlung abnimmt oder die Einstrahlung zunimmt, und zwar so lange, bis das Gleichgewicht wiederhergestellt ist.
Die Infrarotabstrahlung ist der einzige Weg, wie die Erde Energie (Wärme) in den Weltraum abgeben kann. Deshalb ist es notwendig zu verstehen, wie die Mechanismen der Infrarot-Abstrahlung funktionieren.
Die Mechanismen der Infrarot-Abstrahlung in den Weltraum
Es gibt nur 2 Möglichkeiten, wie die Erde Energie in den Weltraum abgeben kann:
Die Moleküle der Erdoberfläche oder der Meeresoberfläche strahlen Infrarotwellen bei der Bodentemperatur ab (durchschnittlich 15°C = 288 K).
Die Moleküle der sogenannten Treibhausgase, vorwiegend Wasserdampf und CO2 (in sehr viel geringerem Umfang Methan und einige andere Gase), strahlen Infrarotwellen aus der Atmosphäre heraus ab, bei der jeweils in ihrer Umgebung herrschenden Temperatur. Die anderen Gase der Atmosphäre wie Sauerstoff oder Stickstoff haben keine Möglichkeit, nennenswerte Mengen an Infrarotstrahlung abzugeben. CO2 unterscheidet sich von Wasserdampf darin, dass es nur in einem kleinen Wellenlängenbereich aktiv ist. Andererseits nimmt der Anteil der Wasserdampfmoleküle in der Atmosphäre ab 5 km Höhe sehr schnell ab, weil der Wasserdampf bei Abkühlung wieder zu Wolken kondensiert und dann abregnet. Das können wir daran erkennen: Im Flugzeug in 10km Höhe sind wir stets über den Wolken. Und oberhalb der Wolken gibt es so gut wie keinen Wasserdampf mehr. CO2 ist jedoch bis in die höchsten Schichten der Atmosphäre gleichmäßig vermischt mit den anderen Gasen, vornehmlich Sauerstoff und Stickstoff.
CO2 und Wasserdampf sind also wie zwei konkurrierende Handballmannschaften, von denen die eine (der Wasserdampf) nur bis zu Mittelline laufen darf, und die andere (CO2) sich nur innerhalb eines schmalen Längsstreifens des Spielfeldes bewegen kann. Dieser schmale Längsstreifen wird ein klein wenig breiter, wenn die „CO2 Mannschaft“ mehr Spieler (mehr CO2) bekommt. Das Tor ist für beide Mannschaften das gleiche (der Weltraum) und es erstreckt sich über die ganze Breite des Spielfelds. Solange der Ball noch weit vom Tor entfernt ist, fängt ihn ein anderer Spieler eher auf, als dass er ins Tor gelangt. Dieser andere Spieler spielt den Ball in eine zufällige Richtung wieder ab. Je dichter die Spieler stehen, desto schneller werden die Bälle wieder gefangen und wieder abgespielt. Je näher der Ball zum Tor kommt, desto weiter stehen die Spieler auseinander. Das heißt, dass der Ball dann leichter zwischen den Spielern hindurch ins Tor gelangen kann.
Solange sich noch andere Treibhausgasmoleküle in der Nähe befinden, kann also die Infrarotstrahlung nicht in den Weltraum gelangen (zu dicht stehende Mitspieler), sie wird wieder von den anderen Molekülen aufgefangen und von diesen wieder abgestrahlt. Konkret hat die Infrarotstrahlung in der unteren Atmosphäre nur eine Reichweite von etwa 25m, bis sie wieder von einem anderen Treibhausgasmolekül aufgefangen wird, meist von einem Wassermolekül oder von CO2 . Je dünner die Treibhausgase (weniger Mitspieler) in der Atmosphäre mit zunehmender Höhe werden, desto wahrscheinlicher wird es, dass die Infrarotstrahlung in den Weltraum gelangt.
Daraus kann man schließen, dass es im Prinzip 3 Schichten gibt, aus denen Infrarotstrahlung in den Weltraum gelangt:
Wenn die Luft trocken ist und ohne Wolken, dann gibt es einen Teil des Infrarots, das sog. „atmosphärische Fenster„, das direkt vom Boden aus in den Weltraum strahlt (das ist, wenn es keine oder nur sehr wenige Wasserdampf-Spieler auf dem Feld gibt),
zwischen 2 und 8 km Höhe, durchschnittlich in 5 km Höhe, ist der obere Rand der Wolken, von wo aus die Wasserdampfmoleküle der Wolken einen großen Anteil der Infrarotstrahlung bei durchschnittlich 255 K = -18°C in den Weltraum abgeben
der Anteil Infrarotstrahlung im Wellenlängenbereich um 15 Mikrometer herum (der schmale Streifen des Spielfeldes) wird vom CO2 bis in die hohen kalten Schichten der Stratosphäre transportiert, von wo aus sie bei etwa 220 K = -53°C in den Weltraum abgestrahlt wird.
Dadurch kommt es zu einer Konkurrenzsituation, ob ein Wassermolekül direkt abstrahlen kann oder ob seine Infrarotstrahlung noch von einem CO2-Molekül aufgefangen und in die Höhen der Stratosphäre weitergeleitet wird.
Der Treibhauseffekt
Wie kommt es nun bei einer wachsenden CO2-Konzentration zur verringerten Energieabstrahlung in den Weltraum und damit zu einer Erwärmung?
Dafür ist es wichtig zu wissen, dass mit abnehmender Luft-Temperatur die abgestrahlte Energie stark abnimmt und dass mit zunehmender Höhe die Temperatur abnimmt. Wenn die CO2-Konzentration im Laufe der Zeit zunimmt, dann wird der Wellenlängenbereich, in dem das CO2 für die Abstrahlung „zuständig“ ist, ein klein wenig breiter (der schmale Streifen des Spielfeldes). Das bedeutet, dass ein kleiner Teil der Infrarotstrahlung, die sonst bei 255 K vom Wasserdampf abgestrahlt würde, nun bei 220 K vom CO2 abgestrahlt wird, also mit deutlich niedrigerer Energie. Das bedeutet in der Konsequenz, dass die Energie der Gesamtabstrahlung leicht vermindert wird — die als konstant angenommene Einstrahlung des Sonnenlichts also überwiegt und damit ein Erwärmungseffekt eintritt.
Der Effekt ist allerdings nicht so groß, wie er gewöhnlich in den Medien dargestellt wird: Denn seit dem Beginn der Industrialisierung hat bei einer Steigerung der CO2-Konzentration um 50% von 280 ppm auf 420 ppm die Infrarotabstrahlung der Erde um grade mal 2 Watt/qm abgenommen. Das sind bei einer durchschnittlichen Abstrahlung von 240 Watt/qm1nur knapp 1% in 170 Jahren. Jetzt kennen wir die erste Möglichkeit, wie das eingangs erwähnte Gleichgewicht durch eine Veränderung der Abstrahlung gestört wird. Aber bisher nur in sehr geringem Umfang.
Die Auswirkungen veränderter Einstrahlung sind größer als der Treibhauseffekt
Die zweite Möglichkeit, das Gleichgewicht zu stören, sind die Änderungen der Einstrahlung. Die Schwankungen der Einstrahlung, die durch wechselnde Wolkenbedeckung hervorgerufen werden, sind bis bis zu 100 mal größer als die genannten 2 W/qm (was Besitzer von Photovoltaikanlagen bestätigen können), die dem Treibhauseffekt zuzurechnen sind. Damit zusammenhängend nimmt in Deutschland laut Deutschem Wetterdienst die Zahl der Sonnenstunden seit 70 Jahren um 1,5% pro Jahrzehnt zu2. Also in weniger als 10 Jahren ein größerer Effekt als durch den Treibhauseffekt in 170 Jahren. Für einen genaueren zahlenmäßigen Vergleich müssen beide zu vergleichenden Messdaten im betreffenden Zeitraum vorhanden sein: In dem Zeitraum der letzten 40 Jahre gab es durch die Zunahme der Sonnenstunden in Deutschland die 6-fache Erwärmung im Vergleich zum Treibhauseffekt. Die Änderungen der Sonneneinstrahlung sind also in weitaus größerem Maße für die Erwärmung der Erde verantwortlich als die Änderungen der CO2-Konzentration.
Damit ist der allgemein bekannte positive Treibhauseffekt beschrieben und eingeordnet. Es gibt also keinen Grund, mit dem Treibhauseffekt Angst und Panik zu begründen. Und es ist dringend notwendig, dass sich die Forschung, die Medien und die Politik mit dem Einfluss und den Ursachen der zunehmenden Sonnenstunden beschäftigen. Eine erste genauere Analyse der Daten des Deutschen Wetterdienstes ergibt, dass die Änderungen der Sonnenstunden in Deutschland die monatlichen Temperaturen der letzten 70 Jahre zu 90% erklären, und dass der Treibhauseffekt in Deutschland keinen statistisch signifikanten Einfluss hat.
Es fehlt noch ein wichtiges Phänomen: In der Antarktis führt der Erhöhung der CO2-Konzentration zur Abkühlung, das nennt man den negativen Treibhauseffekt.
Der negative Treibhauseffekt in der Antarktis
Es gibt einen eigenartigen Effekt, wenn wir die eine Gegend der Erde betrachten, wo die Erdoberfläche zeitweise noch kälter ist als die 220 K, bei der die Infrarotabstrahlung des CO2 in den Weltraum erfolgt: In der Antarktis, wo Temperaturen unter -60°C (=213 K) keine Seltenheit sind, finden wir tatsächlich einen negativen Treibhauseffekt. Wo also eine Abkühlung bei zunehmender CO2-Konzentration stattfindet. Bei zunehmender CO2-Konzentration nimmt zwar wie sonst auch der Anteil der Infrarotabstrahlung des CO2 zu. Jetzt ist aber die CO2-Schicht mit 220 K wärmer als die Erdoberfläche der Antarktis. Und damit wird vom CO2 in der Atmosphäre mehr Wärme abgeführt als von der Erdoberfläche darunter. Mit anderen Worten: In der Antarktis gilt, dass aufgrund der Zunahme der CO2-Konzentration die Wärmeabfuhr in den Weltraum verstärkt wird, und es demnach dort kälter wird und nicht wärmer.
Temperaturabhängigkeit der natürlichen CO2 Quellen und Senken
[latexpage]
Bei dem in diesem Blog und anderswo publizierten einfachen Modell der CO2-Senken und der natürlichen Emissionen tauchte in der Diskussion darüber immer wieder die Frage auf: Wie wird die — offensichtliche — Temperaturabhängigkeit der natürlichen CO2-Quellen, beispielsweise die ausgasenden Ozeane, oder der Senken wie die Photosynthese, berücksichtigt? Denn in dem Modell kommt keine langfristige Temperaturabhängigkeit vor, allenfalls ein kurzfristig zyklische. Ein langfristiger Trend der Temperaturabhängigkeit ist in den letzten 70 Jahren auch bei sorgfältiger Analyse nicht erkennbar. In der zugrunde liegenden Publikation wurde ausgeschlossen, dass der Absorptionskoeffizient temperaturabhängig sein kann (Kapitel 2.5.3). Allerdings blieb dabei offen, ob nicht doch eine direkte Temperaturabhängigkeit der Quellen oder Senken möglich ist. Und warum diese nicht aus der statistischen Analyse erkennbar ist. Dies wird in dem vorliegenden Beitrag behandelt.
Ursprüngliches temperaturunabhängiges Modell
Die vereinfachte Form der CO2 Massenerhaltung in der Atmosphäre (siehe Gleichungen 1,2,3 der Publikation) mit anthropogenen Emissionen $E_i$ im Jahre $i$, den sonstigen, überwiegend natürlichen Emissionen $N_i$ (zur Vereinfachung werden die Landnutzungsemissionen den natürlichen Emissionen zugeschlagen), dem Zuwachs des CO2 in der Atmosphäre $G_i = C_{i+1} – C_i$ ($C_i$ ist atmosphärische CO2 Konzentration) und den Absorptionen $A_i$ ist: $E_i – G_i = A_i – N_i$ Die Differenz der Absorptionen und der natürlichen Emissionen wurde linear modelliert mit einem konstanten Absorptionskoeffizienten $a$ und einer Konstante $n$ für die jährlichen natürlichen Emissionen: $A_i – N_i = a\cdot C_i + n$
Während die Absorptionskonstante und der lineare Zusammenhang zwischen Absorption und Konzentration physikalisch sehr gut begründet und belegt ist, erscheint die Annahme der konstanten natürlichen Emissionen willkürlich. Daher ist es erhellend, statt eines konstanten Ausdrucks $n$ stattdessen aus den Messdaten und der berechneten Absorptionskonstanten $a$ das Residuum $N_i = G_i – E_i + a\cdot C_i $ zu betrachten:
Der Mittelwert von $N_i$ ergibt den konstanten Modellterm $n$. Mit einer leichten Glättung ergibt sich ein periodischer Verlauf. Roy Spencer hat diese Schwankungen mit dem El Nino begründet, wobei nicht eindeutig ist, ob die Schwankungen den Absorptionen $A_i$ oder den natürlichen Emissionen $N_i$ zuzuordnen sind. Aber es ist keinerlei langfristiger Trend erkennbar. Daher ist die Frage zu klären, warum zwar kurzfristige Temperaturabhängigkeiten vorhanden sind, aber die langfristige globale Erwärmung im Modell anscheinend keine Entsprechung hat.
Temperaturabhängiges Modell
Nun erweitern wir das Modell, indem wir sowohl für die Absorptionen $A_i$ als auch für die natürlichen Emissionen $N_i$ zusätzlich eine lineare Temperaturabhängigkeit zulassen. Da unsere Messdaten nur deren Differenz liefern, können wir die Temperaturabhängigkeit dieser Differenz in einer einzigen linearen Funktion der Temperatur $T_i$, also $b\cdot T_i + d$ darstellen. Gesetzt den Fall, dass sowohl $A_i$ also auch $N_i$ temperaturabhängig sind, ist die Differenz der dazugehörigen linearen Ausdrücke wieder einen linearen Ausdruck. Demnach hat das erweiterte Modell diese Gestalt. $A_i – N_i = a\cdot C_i + n + b\cdot T_i + d$ Im Prinzip könnten $n$ und $d$ zu einer einzigen Konstanten zusammengefasst werden. Da aber $d$ von der verwendeten Temperaturskala abhängt, und $n$ von der Maßeinheit der CO2 Konzentration, belassen wir es bei 2 Konstanten.
CO2 Konzentration als Proxy für Temperatur
Wie bereits in der Publikation im Kapitel 2.3.2 dargelegt, gibt es zwischen der CO2-Konzentration und der Temperatur einen Zusammenhang mit hoher Korrelation. Woher dieser Zusammenhang kommt, d.h. ob es einen kausalen Zusammenhang gibt (und in welcher Richtung) ist für diese Untersuchung unerheblich. Allerdings stellen wir hier nicht den Zusammenhang zwischen $T$ und $log(C)$ her, sondern den zwischen $T$ (Temperatur) und $C$ (CO2 Konzentration ohne Logarithmus).
Demzufolge kann die Temperatur-Anomalie aus der Konzentration mit der linearen Funktion $T_i = e\cdot C_i + f$ mit $e=0.0083, f=-2.72 $ approximiert werden.
Verwendung des CO2-Proxy in der temperaturabhängigen Gleichung
Setzt man für die Temperatur deren Proxy-Funktion in die temperaturabhängige Gleichung ein, so ergibt sich folgende Gleichung: $A_i – N_i = a\cdot C_i + n + b\cdot (e\cdot C_i + f) + d $ bzw. $A_i – N_i = (a+b\cdot e)\cdot C_i + (n+b\cdot f\cdot) + d $ Der Ausdruck auf der rechten Seite hat jetzt wieder die gleiche Gestalt wie die ursprüngliche Gleichung, also $A_i – N_i = a`\cdot C_i + n` $ mit $ a` = a + b\cdot e $ $ n` = n + b\cdot f + d $
Schlussfolgerungen
Daher können bei einer linearen Abhängigkeit der Temperatur von der CO2-Konzentration Temperatureffekte der Senken und Quellen nicht von Konzentrationseffekten unterschieden werden, beide gehen in die „effektive“ Absorptionskonstante $a`$ und die Konstante der natürlichen Emissionen $n`$ ein. Daher enthält das einfache lineare Quellen- und Senkenmodell sämtliche linearen Temperatureinflüsse. Das erklärt die erstaunliche Unabhängigkeit des Modells von der globalen Temperaturerhöhung der letzten 70 Jahre. Außerdem legt dieser Zusammenhang nahe, dass sich das Absorptionsverhalten der beiden atmosphärischen Senken auch in Zukunft nicht ändert.
Will man allerdings wissen, wie sich die Temperatur genau auf die Quellen und Senken auswirkt, müssen andere Datenquellen herangezogen werden. Für die Prognose künftiger CO2-Konzentration aus anthropogenen Emissionen ist dieses Wissen aufgrund des gefundenen Zusammenhangs nicht notwendig, vorausgesetzt der lineare Zusammenhang zwischen Temperatur und CO2-Konzentration bleibt uns noch eine Weile erhalten.
Der Wendepunkt der CO2-Konzentration
[latexpage]
Und steigt und steigt…?
Auf den ersten Blick steigt die atmosphärische CO2-Konzentration fortwährend an, dargestellt an den Jahresmittelwerten, die in Maona Loa gemessen werden (ftp://aftp.cmdl.noaa.gov/products/trends/co2/co2_mm_mlo.txt):
Die zentrale Frage, die sich stellt, ist die, ob die Konzentration immer schneller wächst, d.h. ob jedes Jahr mehr dazukommt? Dann wäre die Kurve konkav, also also nach oben gekrümmt.
Oder wird der jährliche Anstieg der Konzentration immer geringer? Dann wäre sie konvex, also nach unten gekrümmt.
Oder gibt es einen Übergang, also einen Wendepunkt im mathematischen Sinne? Das wäre daran zu erkennen, dass zunächst der jährliche Zuwachs immer größer wird, und ab einem bestimmten Zeitpunkt abnimmt.
Auf den ersten Blick erscheint die Gesamtkurve konkav, was bedeutet dass der jährliche Anstieg der Konzentration mit jedem Jahr augenscheinlich zunimmt.
Die Beantwortung dieser Frage ist entscheidend für die Frage, wie dringend Maßnahmen zur Eindämmung von CO2 Emissionen sind.
Genauere Untersuchung mit dem gemessenen jährlichen Anstieg
Um einen genaueren Eindruck zu bekommen, berechnen wir den jährlichen Anstieg der CO2-Konzentration (Stand 2023):
Damit bestätigt sich, dass bis 2016 ein klarer Trend zu immer höherem jährlichen Konzentrationsanstieg bestand, von knapp 0.75 ppm/Jahr im Jahre 1960 bis über 2.5 ppm/Jahr im Jahre 2016.
Seit 2016 geht jedoch der jährliche Anstieg zurück. Dabei spielt gewiss der Corona-bedingte Emissionsrückgang eine Rolle, dieser erklärt aber nicht den bereits 2016 einsetzenden Rückgang.
Es gibt also in der Konzentrationskurve im Jahre 2016 einen Wendepunkt, eine Trendumkehr von zunehmendem Konzentrationswachstum zu abnehmendem Konzentrationswachstum. Gibt es dafür eine zufriedenstellende Erklärung? Dies ist wesentlich, denn wenn wir absehen können, dass der Trend zurückgehenden Anwachsens der Konzentration anhält, dann ist absehbar, dass die Konzentration irgendwann nicht mehr weiter ansteigt und das Ziel des Pariser Klimaabkommens, das Gleichgewicht zwischen CO2-Quellen und CO2-Senken erreicht werden kann.
Um die Auswirkungen dieser wichtigen Erkenntnis zu bewerten, muss man den Zusammenhang zwischen Emissionen und CO2-Konzentration kennen.
Aus meinen eigenen Recherchen dazu in einer Publikation und in einem danach mit neuen Erkenntnissen ergänzten Blogbeitrag folgt, dass sich der Konzentrationsanstieg aus den Emissionen und den Absorptionen ergibt, die proportional zur CO2-Konzentration sind. Dieses Modell wurde in ähnlicher Form auch von anderen beschrieben und publiziert:
Trivialerweise folgt aus der Massenerhaltung, dass die Konzentration $C_i$ am Ende des Jahres $i$ aus der Konzentration des Vorjahres $C_{i-1}$, den natürlichen Emissionen $N_i$, den anthropogenen Emissionen $E_i$ und den Absorptionen $A_i$ ergibt:
\begin{equation}\label{mass_conservation}C_i = C_{i-1} + N_i + E_i – A_i \end{equation} Daraus ergibt sich unmittelbar die aus Emissionen und gemessenem Konzentrationsanstieg berechneten effektive Absorption:
\begin{equation}\label{absorption_measurement}A_i – N_i = E_i – (C_i – C_{i-1}) \end{equation} Mit der Definition des Konzentrationswachstums $G_i = C_i – C_{i-1} $ ergibt sich, dass die gesamte Senkenwirkung sich zwingend aus der Differenz der Emissionen und dem Konzentrationswachstum ergibt – ohne dass man wissen muss, wie diese Senkenwirkung im Detail zustande kommt. Dabei hat diese Gesamtsenkenwirkung zwei Komponenten, und zwar die Jahressumme aller Absorptionen, die zu $A_i$ zusammengefaßt werden, und die als $N_i$ zusammengefaßten sog. „natürlichen Emissionen“, das ist die Jahressumme sämtlicher Emissionen außer den anthropogenen, die separat als $E_I$ geführt werden:
\begin{equation}\label{absorption_measurement}A_i – N_i = E_i – G_i \end{equation} Unter der Annahme konstanter jährlicher natürlicher Emissionen $N_i = n$ und der linearen Modellannahme, also dass die Absorptionen proportional zur Konzentration des Vorjahres sind, $A_i = a\cdot C_{i-1}$ wird das Absorptionsmodell als lineares Modell der Konzentration erstellt (diese beiden Annahmen werden ausführlich in der Publikation begründet):
\begin{equation}\label{absorption_equ}E_i – G_i = a\cdot C_{i-1} – n\end{equation} Mit $n = a\cdot C_0$ läßt sich die Modellgleichung umformulieren, es ergibt sich damit die Gleichgewichtskonzentration $C_0$ für den Fall von Nullemissionen, also die vorindustrielle Gleichgewichtskonzentration :
Die Regressionsrechnung dieses Gleichungssystems mit den aktuellen CO2Emissionsdaten (Selektion country = World) liefert das Ergebnis $a=0.0187$ und $C_0 = 277 ppm $. Bei dieser Berechnung werden die Emissionen aufgrund von Landnutzungsänderungen nur anteilig (23%) berücksichtigt. Dies erklärt die zahlenmäßigen Unterschiede des Ergebnisses mit denen der zitierten Publikationen. Das geringe Wichtung der Landnutzungsänderungen ist gerechtfertigt:
Alle Quellen stimmen darin überein, dass die veröffentlichten Werte der Emissionen durch Landnutzungsänderung stark fehlerbehaftet sind,
Mit der Wichtung der Emissionen durch Landnutzungsänderungen von etwa 25% führt das Modell zu einer Gleichgewichtskonzentration $C_0$, die der vorindustriellen Gleichgewichtskonzentration von etwa 280 ppm entspricht.
Mit $N_i = G_i – E_i + a\cdot C_{i-1} $ können aus der modellierten Absorption die variablen jährlichen natürlichen Nettoemissionen $N_i$ ermittelt werden. Deren Mittelwert ist die Konstante $n$.
Mit diesem Modell wird die bekannte Konzentration zwischen 2000 und 2020 aus den Daten zwischen 1950-2000 sehr genau prognostiziert. Da das Modell zwar einen linearen Trend, aber keine zyklischen Schwankungen vorsieht – diese landen alle in der Variabilität der natürlichen Emissionen – , zeigt auch die modellierte Konzentration keine zyklischen Schwankungen:
Wachstumsrate der modellierten Konzentration
Die Wachstumsrate der modellierten Konzentration $G^{model}_i$ ergibt sich durch Umstellung der Modellgleichung: $ G^{model}_i = E_i – a\cdot C_{i-1} + n$ Diese zeigt nun auch nicht mehr die zyklischen Schwankungen:
Es bleibt nach wie vor ein globales Maximum, das Jahr des Maximums ist allerdings von 2016 nach 2013 gewandert. Diese El Nino bereinigte Konzentrationsänderungen bestätigen die Aussage von Zeke Hausfather, dass in der Tat die Emissionen bereits seit 10 Jahre konstant sind.
Entwicklung der CO2-Konzentration bei konstanten Emissionen
Um den Wendepunkt der CO2-Konzentration zu verstehen, wollen wir mit der Annahme konstanter Emissionen $E_i = E$ und den Gleichungen (\ref{absorption_measurement}) und (\ref{absorption_equ}) den prognostizierten Verlauf berechnen:
\begin{equation}\label{const_E_equ}C_i – C_{i-1} = E- a\cdot(C_{i-1} – C_0)\end{equation} Die linke Seite beschreibt den Anstieg der Konzentration. Auf der rechten Seite wird von den konstanten Emissionen $E$ ein mit wachsender Konzentration $C_{i-1}$ wachsender Betrag abgezogen, demnach nimmt der Konzentrationszuwachs mit wachsender Konzentration ab. Dies kann mit einem speziellen Bankkonto veranschaulicht werden. Sobald die Konzentration den Wert $\frac{E}{a} + C_0 $ erreicht, ist der Gleichgewichtszustand erreicht, bei dem die Konzentration nicht mehr weiter anwächst, also die oft verwendete „Netto-Null“ Situation.
Mit den aktuellen Emissionen von 4.7 ppm wäre „Netto-Null“ bei 515 ppm, während sich beim „Stated-Policies“ Emissionsscenario der Internationalen Energieagentur (IEA), das eine leichte Reduktion von 3% pro Dekade in der Zukunft vorsieht, ein Gleichgewicht bei 475 ppm einstellt, wie in der obigen Publikation beschrieben. Mit den Prognosedaten der IEA wird dies voraussichtlich 2080 der Fall sein:
Demnach sind konstante Emissionen eine hinreichende Begründung für einen konvexen Verlauf der CO2-Konzentration, wie wir ihn seit 2016 vorfinden. Gleichzeitig wird damit belegt, dass CO2-Absorptionen in der Tat mit zunehmender Konzentration zunehmen.
Häufig gestellte Fragen zur CO2-Sensitivät
Welche Rolle spielt der Wasserdampf bei der CO2-Sensitivität, wirkt er nicht als Treibhausverstärker?
Es geht dabei im Wesentlichen um die Frage, ob durch Wasserdampf eher eine positive Rückkopplung des CO2-bedingten Treibhauseffektes erfolgt (wie z.B. von Vertretern des PIK behauptet) oder eher eine negative, wie von Prof. Richard Lindzen beschrieben.
Hierzu betrachten wir zwei in diesem Zusammenhang wichtige, unbestrittene Fakten.
Das globale Energiebudget
Diejenigen, die behaupten, dass der Wasserdampf den Treibhauseffekt verstärke, berufen sich darauf dass bei steigender Temperatur die Luft gemäß der Clausius-Clapeyron-Gleichung mehr Wasserdampf aufnehmen könne, was zu einem stärkeren Treibhauseffekt führt und damit zu einer positiven Rückkopplung. Der treibhausverstärkende Gesamteffekt des Wasserdampfes ist im globalen Energiebudget mit etwa 26,6W/qm berücksichtigt:
Ebenso bekannt wie unstrittig ist die Bildung von Wolken aus Wasserdampf. Und die meisten Wolken haben die Eigenschaft, dass sie Licht reflektieren. Demzufolge kommt aufgrund der Wolkenalbedo nur ein Teil der kurzwelligen Sonnenenergie bei der Erde an. Der Energieverlust aufgrund der Wolkenreflexion ist im Energiebudget mit etwa -47,5 W/qm berüc ksichtigt. Demzufolge ist die Abkühlung aufgrund der Wolkenbildung global gesehen um mehr als 20 W/qm größer als deren Treibhauswirkung. Die Gesamtwirkung aller Wolken bildet demnach eine sehr starke negative Rückkopplung beim Treibhauseffekt. Wo ist die Evidenz, dass bei marginalen Veränderung der Wolkenbedeckung sich dieser Effekt umkehrt?
Die energetischen Auswirkungen des Rückgangs der Wolkenbedeckung über 30 Jahre
Dies wirft nicht nur die Frage auf, warum ein 4-fach größerer Effekt als die Treibhauswirkung des CO2 bislang in den Klimamodellen nicht berücksichtigt wird, es zeigt zweifelsfrei, dass nur eine Abnahme der globalen Bewölkung zu einer Temperaturzunahme führt. Eine Bewölkungszunahme würde demzufolge zu einer Temperaturabnahme führen.
Demzufolge wäre eine positive Wasserdampf-Rückkopplung nur möglich, wenn nachgewiesen werden kann, dass global gesehen ein erhöhte Wasserdampfgehalt in der Atmosphäre zu einer verringerten Wolkenbildung führt. Viel Spaß bei diesem Ansinnen.
Wohlgemerkt, es hilft nicht, irgend einen Einzeleffekt zu finden (wie z.B. stratosphärische Cirruswolken), bei dem nur ein Treibhauseffekt stattfindet, aber keine Reflexionsreduktion, es muß schon nachgewiesen werden, dass der Effekt für den globalen Erwartungswert gilt.