Sie glauben das nicht? Wo uns doch täglich Medien und Politik einhämmern, dass es gar keine Emissionen mehr geben darf, um das berühmte Netto Null zu erreichen?
Es hilft uns weiter, erst einmal den Originaltext des Pariser Klimaabkommens zu lesen:
Die Länder müssen das Emissionsmaximum so bald wie möglich erreichen, um
ein Gleichgewicht zwischen vom Menschen verursachten Emissionen durch Quellen und Absorptionen durch Senken von Treibhausgasen in der 2. Hälfte des Jahrhunderts zu erreichen (bei einer Temperaturerhöhung um max. 1.5° C)
Im Klartext heißt also Netto-Null, dass die Quellen von Emissionen mit den Absorptions-Senken im Gleichgewicht sein müssen. Es heißt nicht, dass die Emissionen Null sein müssen, es heißt nur, dass es gleich viele Absorptionen wie Emissionen gibt.
Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Die Analyse der einzelnen Mechanismen hat zusammen mit der mittlerweile falschen Annahme exponentiell wachsender Emissionen zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen für immer in der Atmosphäre verbleibt.
Zu einer anderen Schlussfolgerung kommen wir jedoch, wenn wir die logisch gleichwertige Frage stellen: „Wie viel CO2 verbleibt nicht in der Atmosphäre?“. Das verändert alles. Die Menge an CO2, die nicht in der Atmosphäre verbleibt, kann anhand der direkten Messungen von Emissionen und Konzentrationsänderungen berechnet werden, ohne dass wir die Absorptionsmechanismen im Einzelnen untersuchen müssen. Denn für das CO2 gilt die Massenbilanzgleichung, die besagt, dass nichts verloren geht:
Dass bereits heute mehr als die Hälfte der menschengemachten Emissionen von den Ozeanen und der Photosynthese der Pflanzen und in der Folge auch von Tieren wieder geschluckt werden, ist allgemein bekannt und unstrittig, aber viele befürchten, dass ein Rest für immer in der Atmosphäre verbliebe.
Diese 280 ppm ergeben sich aus dem Gleichgewicht aus natürlichen Emissionen und Absorptionen ohne anthropogene Emissionen.
Die Messdaten, insbesondere die der CO2-Konzentration, sind seit den 50er Jahren sehr genau. Mit den Messwerten von 1950-2000 konnten die tatsächlichen CO2-Konzentrationen von 2000-2020 exakt vorhergesagt werden, wie wir rückblickend sehen können. Die Qualität der Vorhersage ist ganz hervorragend.
Um zu verstehen, wie der Mechanismus der Emission (die Quellen) und Absorption (die Senken) funktioniert, schauen wir uns einen Vergleich aus der vertrauteren Welt eines Geldkontos an.
Das Gleichnis eines speziellen Geldkontos
Stellen Sie sich vor, Sie haben ein Konto mit einem Kontostand von 413 € zu Beginn des Jahres 2020. In dieses Konto werden jedes Jahr 4,50 € einbezahlt.
Nun hat sich der Staat eine eigenartige Vermögenssteuer für dieses Geldkontos einfallen lassen: Es gibt einen Freibetrag von 280 €. Der Rest des Guthabens auf dem Konto wird am Jahresende mit 2% besteuert.
Was passiert? Wie entwickelt sich der Kontostand? Am Ende des Jahres 2020 sind 417,50 € auf dem Konto, davon werden 0,02*(417,50-280) = 2,75 abgeführt, es verbleiben also 414,75 €
Jahr
Am 1.1.
Einzahlung
Besteuerung
Abzug
Am 31.12.
2020
413,00
4,50
0,02*(417,50-280,00)
2,75
414,75
2021
414,75
4,50
0,02*(419,25-280,00)
2,78
416,46
2022
416,46
4,50
0,02*(420,96-280,00)
2,82
418,15
….
2050
452,77
4,50
0,02*(457,27-280,00)
3,55
453,72
…
2080
474,46
4,50
0,02*(478,96-280,00)
3,98
474,98
Man sieht, der Kontostand wächst zwar an, aber die Abzüge erhöhen sich jedes Jahr. Man kann leicht ausrechnen, dass bei einem Kontostand von 505 € am Jahresende die ganzen einbezahlten 4,50 € wieder abgeführt werden. Das heißt, beim Kontostand 505 € ist die berühmte Netto-Null Situation erreicht. Weiter kann das Konto bei jährlichen 4 ,50 € Einzahlungen nicht mehr anwachsen. Und es dauert ziemlich lange, bis dieser Zustand erreicht ist: Nach 60 Jahren wäre man erst bei 474,98 €.
Zukunftsszenario
Dieses Geldkonto-Gleichnis beschreibt ziemlich genau den CO2-Haushalt der Atmosphäre. Der Kontostand entspricht der Konzentration des CO2 in der Atmosphäre, zu Beginn des Jahres 2020 waren das etwa 413 ppm („parts per million“ = Anteile CO2 pro 1 Million Luftmoleküle).
Die Einzahlungen entsprechen den jährlichen weltweiten Emissionen, also das, was wir in die Atmosphäre hineingeben. Das sind aktuell etwa 4,5 ppm weltweit, was einem Gewicht von etwa 36 Milliarden Tonnen CO2 entspricht.
Nun hat die Internationale Energieagentur mit ihrer weltweiten Statistik seit 1850 geschätzt, wieviel CO2 in Zukunft ausgestoßen werden wird. Dabei gibt es ein Szenario, bei dem angenommen wird, dass die jetzt grade geltenden Gesetze und Regelungen in allen Ländern der Erde unverändert weiter fortgesetzt werden, das sogenannte „Szenario der ergriffenen Maßnahmen“. Also möglicherweise existierende emissionssenkende Gesetze, aber keine künftigen weiteren Maßnahmen zur Emissions-Senkung.
Dieses Szenario besagt, dass die weltweiten Emissionen über die nächsten 10 Jahre etwa gleichbleiben, und dann ganz leicht mit etwa 0,3% pro Jahr sinken. Das bedeutet, dass es weltweit im Jahre 2100 wieder genauso viele Emissionen geben wird wie im Jahre 2005. Das kann bei einzelnen Ländern schon dazu führen, dass die Emissionen etwas stärker sinken, dagegen in den ärmsten Entwicklungsländern aufgrund des Nachholbedarfs Emissionen erst noch anwachsen. Aber es wird nirgendwo dramatische Auswirkungen geben, die den Wohlstand in Frage stellen.
Mit den Zahlen der Internationalen Energie Agentur haben wir herausgefunden: Der CO2-„Kontostand“ beträgt im Jahre 2080 etwa 475 ppm, und wird darüber hinaus nicht mehr ansteigen. Sensationelles Ergebnis.
Und was heißt das für das Klima?
Wir wollen uns hier ganz bewusst nicht auf die möglicherweise berechtigten Zweifel einlassen, ob nun das CO2 überhaupt einen Einfluss auf die globale Mitteltemperatur und in der Folge auf das Klima hat oder nicht. Unbestritten ist seit dem Beginn der Industrialisierung die CO2 Konzentration von 280 auf 413 ppm angewachsen, also um 133 ppm.
Wir akzeptieren hier die weit verbreitete Auffassung, dass der Anstieg der globalen Durchschnittstemperatur um 1° C seit dem Beginn der Industrialisierung ausschließlich diesem Anwachsen der CO2 Konzentration geschuldet ist.
Der künftige Anstieg der CO2-Konzentration ist 475 – 413 = 62 ppm. Das ist knapp die Hälfte des bisherigen Anstiegs von 133 ppm. Damit geht konsequenterweise einher, dass bis dann auch die Temperatur allenfalls nochmal um ein halbes Grad ansteigt, also insgesamt um 1,5° seit Beginn der Industrialisierung.
Die gute Nachricht: Mit den heutigen CO2 -Emissionen und deren Senkung durch Effizienzsteigerung von 3% pro Jahrzehnt wird das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt, ganz ohne wohlstandsschädigende Maßnahmen ergreifen zu müssen.
CO₂ Sensitivität mit Wasserdampf und Wolken
[latexpage]
Der häufig verwendete Wert des CO₂-Forcings beträgt $3.7 \frac{W}{m^2}$. Dabei beruft man sich gewöhnlich auf die Untersuchungen von Myhre. Dort befindet sich dieser Wert ganz am Ende implizit als „simplified expression“. Dieser Wert läßt sich mit dem öffentlich verfügbaren MODTRAN nicht reproduzieren, es kommt dabei der Wert ohne Kompensation der Stratosphärenstrahlung heraus („instantaneous“), während Myhre den sog. „adjusted“ Wert liefert, der eine Korrektur aufgrund der Stratosphärenstrahlung durchführt. Möglicherweise sind dadurch von MODTRAN gelieferte Werte etwas zu niedrig.
Um eine im globalen Mittel realistische Sensitivität zu erreichen, muss mit der tatsächlichen Abstrahlung von $240 \frac{W}{m^2}$ gerechnet werden, mit der das globale Strahlungsgleichgewicht erreicht wird.
Um das zu simulieren, müssen sowohl Wolken als auch Wasserdampf berücksichtigt werden. Hierzu werden folgende, aus Literaturrecherche ermittelte folgende Annahmen getroffen:
Der Anteil der von Wolken bedeckten Erdoberfläche ist etwa 67%,
Der global durchschnittliche niederschlagsfähige Wasserdampf (PWV) ist bei Wolkendecke 28 mm und bei wolkenlosem Himmel 21 mm. Im Simulationsprogramm MODTRAN ist der angenommene Defaultwert des Wasserdampfes bei der US Standardatmosphäre etwa 15 mm (dem durchschnittlichen Wert der USA), demzufolge ergibt sich bei Wolken für den „Water Vapor Scale“ Parameter 1.87 und bei wolkenlosem Himmel 1.4.
Als Wolkenart wird vereinfachend die häufigste Wolkenart der Kumuluswolken gewählt. Die Einbeziehung weiterer Wolkenarten können das Ergebnis noch geringfügig verändern.
Simulation wolkenloser Himmel
Die Defaultsimulation von MODTRAN wird modifiziert:
CO2-Konzentration 280 ppm
Water Vapor Scale: 1.4
Locality: US Standard Atmosphere 1976
Als IR-Fluss ergeben sich $264 \frac{W}{m^2}$. Dieser Zustand wird gespeichert. Danach wird die CO₂-Konzentration auf 560 ppm verdoppelt:
Der Strahlungsantrieb aufgrund der CO2-Verdoppelung ist also $2.83 \frac{W}{m^2}$, was trotz der „clear sky“ Annahme bereits deutlich weniger ist als der beim IPCC üblicherweise verwendete Wert von über $3.7 \frac{W}{m^2}$. Doch es fehlt noch die Berücksichtigung des Anteils der von Wolken bedeckten Erdoberfläche.
Simulation des von Wolken bedeckten Teils der Atmosphäre
Die Defaultsimulation von MODTRAN wird modifiziert:
CO₂-Konzentration 280 ppm
Water Vapor Scale: 1.87
Locality: US Standard Atmosphere 1976
Als Wolkenbedeckung wird die „Cumulus Cloud Base“ gewählt.
Als IR-Fluss ergeben sich $225\frac{W}{m^2}$. Dieser Zustand wird gespeichert. Danach wird die CO2-Konzentration auf 560 ppm verdoppelt:
Der Strahlungsantrieb aufgrund der CO2-Verdoppelung ist unter diesen Bedingungen $1.79 \frac{W}{m^2}$. Mit der Wahl des Wolkenmodells „Altostratus“ wäre dieser Strahlungsantrieb $1.76 \frac{W}{m^2}$, der maximale Wert ergibt sich beim „Nimbostratus“ Modell mit $2.51 \frac{W}{m^2}$.
Validierung des Strahlungsgleichgewichts und Bestimmung der CO2-Sensitivität
Um das globale Gleichgewicht zwischen Einstrahlung ($240 \frac{W}{m^2} $) und Abstrahlung zu überprüfen, wird die mit dem Grad der Wolkenbedeckung gewichtete Summe der IR Flüsse der beiden Modelle gebildet: $ 225\frac{W}{m^2} \cdot 0.67 + 264\frac{W}{m^2} \cdot 0.33 \approx 238\frac{W}{m^2} $ Angesichts der möglichen Variabilität der Ausgangsparameter kann dieser Wert als „Punktlandung“ betrachtet werden. Bei Verwendung anderer Wolkenmodelle muss darauf geachtet werden, dass dieses Strahlungsgleichgewicht eingehalten wird.
Der Gesamtstrahlungsantrieb $\Delta S$ ist die gewichtete Summe der Antriebe aus dem Wolkenmodell und dem wolkenlosen Modell: $ \Delta S = 2.83 \frac{W}{m^2}\cdot 0.33 +1.79\frac{W}{m^2}\cdot 0.67 \approx 2.1 \frac{W}{m^2}$
Die CO₂-Sensitivität $\Delta T$ wird mit der Ableitung der Stefan-Boltzmann-Gleichung aus dem IR Fluss $S=240 \frac{W}{m^2}$ und dem Strahlungsantrieb $\Delta S$ berechnet:
Demnach reduzieren sowohl Wolken als auch zunehmender Wasserdampfgehalt die CO2-Sensitvität signifikant. Beides muß für eine realistische Berechnung des Treibhauseffekts berücksichtigt werden.
ChatGPT Dialog zum Treibhauseffekt
[latexpage]
Wie hängt der Treibhauseffekt mit dem adiabatischen Temperaturgradienten zusammen?
Der Zusammenhang zwischen Treibhauseffekt und adiabatischem Temperaturgradienten ergibt sich aus der Tatsache, dass der Treibhauseffekt die Temperatur der Strahlungsebene in der Atmosphäre bestimmt, während der adiabatische Gradient vorgibt, wie sich die Temperatur mit der Höhe zwischen dieser Strahlungsebene und der Erdoberfläche verändert.
Ich erkläre das Schritt für Schritt:
1. Der Treibhauseffekt legt fest, wo die Erde ins All abstrahlt
Ohne Treibhausgase würde die Erdoberfläche selbst die meiste Wärmestrahlung direkt ins All abgeben.
Mit Treibhausgasen wird die Wärmestrahlung in der Atmosphäre absorbiert und re-emittiert.
Für einen Beobachter im All stammt die meiste Abstrahlung aus einer bestimmten Effektivhöhe (oft in 5–7 km Höhe), wo die Atmosphäre gerade durchsichtig genug für Infrarotstrahlung wird.
An dieser Höhe muss die Temperatur so sein, dass die Strahlungsleistung der Erde dem Gleichgewicht mit der eingehenden Sonnenstrahlung entspricht (ca. –18 °C im globalen Mittel).
2. Der adiabatische Temperaturgradient verbindet diese Höhe mit der Oberfläche
In der Troposphäre wird Temperaturänderung mit Höhe (vertikal) oft durch Konvektion bestimmt.
Der trocken-adiabatische Gradient liegt bei etwa 9,8 K pro Kilometer, der feucht-adiabatische bei 4–7 K/km (weil Kondensation Wärme freisetzt).
Wenn wir die Temperatur an der Strahlungshöhe kennen, können wir mit dem adiabatischen Gradient nach unten rechnen und die Temperatur an der Erdoberfläche bestimmen.
Beispiel grob gerechnet:
Strahlungshöhe: 5 km, Temperatur dort: –18 °C
Feucht-adiabatischer Gradient ~6,5 K/km → Temperatur an der Oberfläche: –18 °C + (5 km × 6,5 K/km) ≈ +14 °C
3. Mehr Treibhausgase ⇒ Strahlungshöhe steigt ⇒ Oberfläche wird wärmer
Verstärkter Treibhauseffekt bedeutet: Infrarotstrahlung kann erst aus höheren Schichten entweichen.
Diese höheren Schichten sind kälter, um dieselbe Abstrahlleistung zu erbringen, muss die Temperatur an dieser Höhe gleich bleiben ⇒ die gesamte Troposphäre „verschiebt“ sich temperaturmäßig nach oben.
Wegen des adiabatischen Gradienten wird das auf die Oberflächentemperatur „hochgerechnet“ – also wird es unten wärmer.
Um wieviel höher in konkreten Zahlen ist die Abstrahlhöhe aufgrund der Zunahme des CO2 von 280ppm auf 420ppm?
Idee in einem Satz
Mehr CO₂ erhöht die effektive Strahlungsantrieb (radiative forcing). Um die gleiche abgestrahlte Leistung ins All beizubehalten, muss die Abstrahlungstemperatur geringfügig steigen → bei festem vertikalen Temperaturgradienten (adiabatischer / mittlerer Troposphärengradient) bedeutet das eine höhere Abstrahlungshöhe. Wir berechnen, um wieviel.
Schritt 1 — Radiative forcing durch CO₂-Zunahme
Für CO₂ benutzt man die bewährte Näherung (Myhre et al. 1998; IPCC):
$\Delta F \approx 5{,}35\;\ln\!\left(\frac{C}{C_0}\right)\ \text{W/m}^2$
Für $C_0=280$ ppm → $C=420$ ppm:
$\Delta F = 5{,}35\cdot\ln\!\left(\frac{420}{280}\right)\approx 2{,}17\ \text{W/m}^2.$
(Quelle für Formel und Werte: Myhre/IPCC.)
Schritt 2 — Wie verändert ΔF die Abstrahlungstemperatur?
Die Erde (bzw. die „Strahlungsebene“) strahlt ungefähr wie ein schwarzer Körper mit $T\approx 255\ \text{K}$ (≈ −18 °C). Kleine Änderungen der ausgehenden Strahlung $F=\sigma T^4$ hängen linear mit der Temperaturänderung:
$\Delta T \approx \frac{\Delta F}{4\,\sigma\,T^3}$
Setze $\sigma=5{.}670374\times10^{-8}\ \mathrm{W\,m^{-2}\,K^{-4}} und T=255\ \mathrm{K}$:
$\Delta T \approx \frac{2{,}17}{4\cdot 5{.}67\cdot10^{-8}\cdot 255^3}\approx 0{,}58\ \text{K}.$
Schritt 3 — Temperaturänderung → Höhenänderung über den Lapse‑Rate
Mit einem typischen (mittleren) Troposphären‑Lapse‑Rate $\Gamma ≈ 6,5$ K/km (standardmäßiger Wert für die mittlere Troposphäre) gilt:
$\Delta z \approx \frac{\Delta T}{\Gamma}$
Also
$\Delta z \approx \frac{0{,}58\ \text{K}}{6{,}5\ \text{K/km}}\approx 0{,}089\ \text{km}\approx 89\ \text{m}.$
(Quelle für typische mittlere Lapse‑Rate ≈6.5 K/km.)
Ergebnis (kurz)
Die Zunahme von CO₂ von 280 ppm → 420 ppm verschiebt die (vereinfachte) effektive Abstrahlungshöhe um ≈ 90 Meter nach oben (unter den getroffenen Annahmen).
Wichtige Vorbehalte (weil die Herleitung stark vereinfacht ist)
Wir haben eine globale Mittelbetrachtung benutzt — lokal/vertikal variiert alles.
Linearisation von $F=\sigma T^4 $ist für kleine ΔF gerechtfertigt; hier ist sie gut brauchbar.
Wir haben nur die direkte Strahlungswirkung von CO₂ betrachtet — Rückkopplungen (Wasserdampf, Wolken, Änderung des Temperaturgradienten selbst, Stratosphäre) wurden nicht berücksichtigt. Diese beeinflussen letztlich die Oberflächenerwärmung, aber die einfache Rechnung oben zeigt, wie groß die reine geometrische Hebung der Abstrahlungsschicht ist.
Die effektive Abstrahlungshöhe ist spektral und ortsabhängig — hier ist sie als ein Single‑Level-Modell (vereinfachte, mittlere Höhe) behandelt.
Was kommt mit dieser Rechnung bei einer Verdoppelung auf 560 ppm heraus?
Radiative forcing bei Verdoppelung 280\to560 ppm: $\Delta F = 5{,}35\ln\!\left(\tfrac{560}{280}\right)=5{,}35\ln 2 \approx 3{,}71\ \mathrm{W/m^2}$.
Änderung der effektiven Abstrahlungstemperatur (linearisiert aus $F=\sigma T^4$): $\Delta T \approx \frac{\Delta F}{4\sigma T^3}\approx 0{,}99\ \mathrm{K}$.
Entsprechende Hebung der Abstrahlungshöhe bei $\Gamma=6{,}5\ \mathrm{K/km}$: $\Delta z \approx \frac{\Delta T}{\Gamma}\approx 0{,}152\ \mathrm{km}\approx 152\ \mathrm{m}$.
Kurz: Bei einer CO₂‑Verdoppelung 280→560 ppm verschiebt sich die (vereinfachte) effektive Abstrahlungshöhe um ≈150 Meter nach oben.
Wichtig — Vorbehalte (wie zuvor):
Das ist ein stark vereinfachtes, globales „single‑level“ Modell. In Wirklichkeit ist die Abstrahlung spektral und ortsabhängig; verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen.
Rückkopplungen (Wasserdampf, Wolken, Änderung des vertikalen Gradienten) sind hier nicht berücksichtigt und verändern die bodennahe Erwärmung stark.
Die Rechnung erklärt nur die geometrische Hebung der effektiven Abstrahlungsschicht, nicht die gesamte Oberflächentemperaturänderung.
Wenn du magst, rechne ich das kurz für mehrere Lapse‑Rates (trocken ≈9.8 K/km, feucht ≈5 K/km) durch oder zeichne ein aktualisiertes Diagramm mit den beiden Fällen. Welche Variante hättest du gern?
Wie kommt es, dass das anerkannte Simulationsprogramm MODTRAN zu einem anderen Ergebnis kommt? Bei einer Konstellation aus Wolken und Wasserdampf, die bei der Standardatmosphäre zu einem Stahlungsgleichgewicht bei 240 W/m2 führt, bekomme ich für eine Änderung der CO2 Konzentration von 280 auf 560 ppm einen Stahlungsantrieb von -1.95 W/m2.
Gute Frage — und schön, dass du ein konkretes MODTRAN‑Ergebnis hast. Kurz gesagt: MODTRAN‑Ergebnisse können deutlich von der einfachen Myhre‑Formel abweichen, weil MODTRAN ein spektral aufgelöstes, all‑sky Radiativ‑Transport‑Werkzeug ist und viele Effekte (Wolken, Wasserdampf‑Überlappung, Stratosphären‑Anpassung, Sign‑Konventionen, Bandmodell‑Näherungen usw.) berücksichtigt oder durch Einstellungen unterschiedlich ausweist.
Im Folgenden erkläre ich die wichtigsten Gründe elementar und mit Quellenhinweis, damit du nachvollziehen kannst, warum du −1.95 W/m² siehst.
1) Erst: Vorzeichen / Definition von „Forcing“ in deiner Ausgabe
Bevor wir physikalisch interpretieren: kontrolliere die Sign‑Konvention von MODTRAN‑Output.
Manche Ausgaben zeigen die Änderung des ausgehenden TOA‑LW‑Flusses ($ΔF_{out} = F_{after} − F_{before}$). Wenn CO₂ zunimmt, wird weniger ausgehende LW‑Strahlung ins All gelangen → ΔF_out ist negativ.
Die gebräuchliche IPCC‑Angabe für „radiative forcing“ ist aber oft als netter Strahlungsantrieb (ΔF_downward at TOA) positiv, wenn mehr Energie in das System bleibt. Ein negativer ΔF_out entspricht also einem positiven Forcing in der IPCC‑Konvention. ➡️ Prüfe also, ob dein −1.95 W/m² schlicht Δ(TOA outgoing) statt Δ(TOA net downward) ist. Das allein würde das Vorzeichen erklären. (MODTRAN‑FAQ / Report beschreibt unterschiedliche Ausgabegrößen).
2) All‑sky (Wolken) vs Clear‑sky — Wolken reduzieren das CO₂‑Forcing
Die klassische Myhre‑Formel (≈3.7 W/m² für Verdoppelung) ist eine globale Mittel‑Schätzung häufig für klare Verhältnisse oder aus Line‑by‑Line‑Berechnungen mit typischen Profilen abgeleitet.
Wolken blockieren/absorbieren viel LW selbst und „decken“ Bands, in denen CO₂ wirken würde — dadurch verringert sich die zusätzliche Wirkung einer CO₂‑Erhöhung im globalen Mittel. Laut IPCC verringern Wolken das CO₂‑Forcing im Mittel (klar vs. all‑sky) – typischer Wert ~10–20% Reduktion, je nach Wolkenhöhe/Optical‑Depth. Falls dein Szenario eine dichte/wirkungsvolle Wolkenschicht hat, ist eine starke Abschwächung zu erwarten.
3) Wasserdampf‑Überlappung und Feuchteabhängigkeit
Wasserdampf absorbiert in vielen der gleichen Spektralbereiche wie CO₂. Wenn die Atmosphärensäule schon viel Wasserdampf enthält (feuchte Tropen, viel Wasserdampf in tiefen Schichten), dann teilt sich CO₂ die Absorptionswirkung mit H₂O → die inkrementelle Wirksamkeit zusätzlichen CO₂ wird geringer. Science‑of‑Doom / Literatur zeigen, dass die spaltweise Wirkung stark vom Spalten‑Feuchtegehalt abhängt; je feuchter, desto geringer das zusätzliche Forcing. Das kann die Myhre‑Erwartung weiter reduzieren.
4) Spektrale / Höhenabhängige Effekte: Emissionshöhen sind nicht ein einzelnes Level
Die „effektive Abstrahlungshöhe“ ist spektral verteilt — verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen (Fensterband, CO₂‑Banden, H₂O‑Banden). MODTRAN berechnet genau diese spektrale Verteilung. Wenn deine Atmosphäre + Wolken so beschaffen sind, dass die relevanten Banden bereits aus relativ hohen, kalten Regionen abstrahlen, dann ist der marginale ΔF klein. Das ist physikalisch nicht widersprüchlich zur logarithmischen Näherung, aber zeigt, dass ein einzelner 3.7 W/m²‑Wert nur ein grobes globales Mittel ist.
5) Stratosphärische Temperatur‑Anpassung (Adjusted vs Instantaneous Forcing)
Es gibt verschiedene Forcing‑Definitionen: instantaneous (sofortige Änderung bei fixer Temperaturprofil), stratosphere‑adjusted (Stratosphäre darf sich auf das Gleichgewicht einstellen, Troposphäre bleibt fix) und adjusted surface temperature (voller Gleichgewicht). MODTRAN‑Setups können die Stratosphäre automatisch anpassen — das ändert den gemessenen ΔF um einige Zehntel bis über 1 W/m². IPCC‑Methoden nutzen oft stratosphere‑adjusted (für Vergleichbarkeit). Wenn dein MODTRAN‑Lauf z.B. eine stratosphärische Abkühlung zulässt, kann der reported ΔF (gemessen als Änderung des TOA netto) kleiner ausfallen als die Myhre‑Zahl.
MODTRAN verwendet Bänder‑/correlated‑k‑Ansätze und verschiedene „continuum“‑Parameter für Wasserdampf. Unterschiedliche Versionen (MODTRAN4 vs 5 vs 6) und Parameter‑Choices (z. B. continuum treatment, line cutoffs, spectral resolution, instrument response) verändern kleine, aber nicht vernachlässigbare Teile des ΔF. Die MODTRAN‑Dokumentation beschreibt diese Abhängigkeiten.
Du sagst, deine Konstellation führt zu TOA Abstrahlung ≈240 W/m² — das ist in der Größenordnung des globalen Mittelwertes (≈239–240 W/m²). Das bedeutet: dein Lauf ist wohl ein plausibles all‑sky Szenario, und eine Verringerung der TOA‑Ausgangsleistung um ≈1.95 W/m² (also ΔF_out ≈ −1.95) entspricht einem positiven Forcing von +1.95 W/m² nach IPCC‑Konvention. Das ist deutlich unter 3.7 W/m², aber durchaus nicht ungewöhnlich, wenn Wolken + hoher Spalten‑Feuchte + spezifische Stratosphären‑Anpassungen zusammenwirken.
All‑sky (Wolken) und hoher Wasserdampfgehalt, die das CO₂‑Signal abschwächen,
mögliche Stratosphären‑Anpassung oder andere MODTRAN‑Einstellung (instantaneous vs adjusted),
Modellspezifische Band‑/continuum‑Parameter. Unter diesen Bedingungen ist ein Effekt von ≈1.95 W/m² (nett sichtbar am TOA) völlig plausibel – er bedeutet ≈+1.95 W/m² Strahlungsantrieb nach IPCC‑Konvention und ist nur kleiner als die 3.7 W/m² „Ideal‑Klarfall“ wegen der oben genannten Überlappungs‑/Wolken‑Effekte.
Wenn du willst, kann ich dir konkret helfen und drei Dinge durchsehen / ausprobieren:
Prüfen, welche Größe MODTRAN genau ausgibt (TOA up, TOA net downward, instant vs adjusted).
MODTRAN‑Runs vergleichen: clear‑sky vs all‑sky, und ein Lauf mit Stratosphäre fix/adjusted — das zeigt schnell, welche Effekte die ~1.8 W/m² Differenz erklären.
Eine Abschätzung machen, wie viel Reduktion durch Wolken + Wasserdampf zu erwarten ist (klar → all‑sky).
Schick mir (falls du magst) kurz: die MODTRAN‑Eingabedatei oder die Einstellungen (clear/all‑sky, Version, ob „stratosphere adjust“ an ist, Wolkenhöhe/optische Dicke, Feuchteprofil). Dann interpretiere ich die Ausgabe genau und zeige, welche Komponente wie viel beiträgt.
Analyse des Stromausfalls in Spanien am 28. April 2025
Hintergrund und Vorgeschichte
Einführung Am 28. April 2025, um 12:33 Uhr, erlebte Spanien einen massiven Stromausfall, der das gesamte Stromnetz der Iberischen Halbinsel lahmlegte. Dieser Blackout, der als eines der schwerwiegendsten Ereignisse in der jüngeren Geschichte des Landes gilt, hatte seine Wurzeln in einer Kombination aus technischen, wirtschaftlichen und politischen Faktoren, die sich über Monate und Jahre entwickelten. Dieser Bericht analysiert die zeitliche Abfolge, die Ursachen und die Konsequenzen des Ausfalls basierend auf den bereitgestellten Daten.
Vorgeschichte und Warnsignale Bereits im Frühjahr 2024 zeigten sich erste Anzeichen von Instabilität im spanischen Stromnetz. Nach Jahren sinkender Stromerzeugungspreise für Wind- und Solarenergie sanken diese auf negative Day-Ahead-Preise, was darauf hinwies, dass die Marktdynamik nicht mehr ausreichte, um die Erzeugung rentabel zu halten. Trotz Subventionsmaßnahmen wurde die Drosselung erneuerbarer Energien zunehmend notwendig, was die „Flitterwochen für erneuerbare Energien“ beendete[1]. Studien wie die der Organisation „Ökologischer Wandel“, prognostizierten, dass die Wahrscheinlichkeit eines Blackouts im Jahr 2025 fünfmal höher sei als 2021[2]. Der Mutterkonzern Red Eléctrica, Redeia, wies zwei Monate vor dem Ereignis auf die Risiken hin, die durch den Ausbau erneuerbarer Energien und den Rückgang konventioneller Kraftwerke (Kohle, Gas, Kernkraft) entstanden. Besonders die geringere Systemträgheit und die Unfähigkeit, sich an Störungen anzupassen, wurden als kritische Faktoren genannt[3].
Entwicklung in den Tagen vor dem Blackout Sechs Tage vor dem Ausfall, am 22. und 24. April, berichtete Red Eléctrica von ungewöhnlichen Kombinationen von Störungen, die das Netz destabilisierten. Am 22. April um 19:00 Uhr führte eine plötzliche Richtungsänderung des Stromaustauschs mit Portugal (von Export zu Import) sowie eine Reduzierung der Photovoltaikproduktion durch schlechte Wetterbedingungen zu Spannungsschwankungen[4]. Ähnliche Probleme traten am 24. April um 18:00 Uhr auf, als ein rascher Anstieg der Photovoltaikproduktion und Exports nach Frankreich die Leitungen überlastete[5]. Diese Ereignisse deuteten auf eine wachsende Verwundbarkeit des Netzes hin, die durch die hohe Abhängigkeit von erneuerbaren Energien verstärkt wurde.
Verlauf des Blackouts und Folgen
Ablauf des Blackouts am 28. April 2025 Der eigentliche Zusammenbruch begann um 12:33 Uhr, als das Netz ein erstes „Ereignis“ erlitt, vermutlich ein Verlust erneuerbarer Erzeugung, möglicherweise solarbasierter Anlagen im Südwesten Spaniens. Innerhalb von Millisekunden stabilisierte sich das System kurzzeitig, doch 1,5 Sekunden später folgte ein zweites Ereignis, das die Instabilität verschärfte[6]. Etwa 3,5 Sekunden nach dem ersten Ereignis brachen die Verbindungen nach Frankreich zusammen, was den Stromfluss von etwa 2,5 GW unterbrach[7]. Der Frequenzabfall erreichte schließlich 49,25 Hz bei einer Rate of Change of Frequency (RoCoF) von -0,8 Hz/S, was zum vollständigen Netzversagen führte[8]. Der Verlust von 15 GW Solarenergie und der anschließende Ausfall konventioneller Kraftwerke (z. B. Kernkraftwerke, wie der automatische Abschalt des Reaktors in Golfech um 12:34 Uhr) trugen zum Kollaps bei[9].
Ursachen und technische Details Die Hauptursache war ein Überangebot an erneuerbarer Energie, das die Nachfrage überstieg, was zu Frequenzabweichungen führte. Schutzrelais schalteten Teile des Netzes ab, und die geringe Momentanreserve (z. B. 26,54 % um 12:30 Uhr nur in Spanien) sowie der gleichzeitige Ausfall von Kraftwerken wie Omledilla (130 MW) und UF Sabinar (193 MW) verschärften die Krise[10]. Die hohe asynchrone Erzeugung (über 70 % in den Wochen zuvor) und die Abhängigkeit von instabilen Verbindungen (z. B. nach Frankreich) machten das System anfällig für kaskadierende Ausfälle[11].
Nachwirkungen und Maßnahmen Nach dem Blackout aktivierte Spanien Gasenergie, um das Netz zu stabilisieren, und drosselte erneuerbare Energien vorübergehend[12]. Die Wiederherstellung der Versorgung war ein langwieriger Prozess, der einen ganzen Tag dauerte. Der Vorfall hat die Debatte über den Ausbau erneuerbarer Energien und die Notwendigkeit robusterer Netzinfrastrukturen angeheizt.
Fazit Der Blackout vom 28. April 2025 war das Ergebnis kumulativer Warnsignale, die ignoriert wurden, kombiniert mit technischen Schwächen im Umgang mit erneuerbaren Energien. Eine verbesserte Netzstabilität, höhere Reserven und eine balancierte Energiemix-Strategie sind zwingend erforderlich, um zukünftige Krisen zu verhindern. Konkret muss zu jedem Zeitpunkt sichergestellt sein, dass die Momentanreserve mindestens 40 %, besser 50 % der Last ist. Solange noch keine zuverlässigen netzbildenden Wechselrichter im Einsatz sind, sind damit dem weiteren Ausbau der Erneuerbaren Energien klare Grenzen gesetzt.
Zu allen Zeiten haben Klimaereignisse die Menschheit bewegt und geprägt. Das alte Testament gibt uns vielfältige, zum Teil dramatische Zeugnisse aller Arten von extremem Klimageschehen wie langjährigen Dürren, Hitze- und Kälteperioden, Feuerstürmen und Überschwemmungen. Jeder ausgebildete Theologe kennt zu fast jedem heutigen klimatischen Horrorbericht einen entsprechenden im Alten Testament (häufig waren die damaligen Ereignisse extremer, z.B. 7-jährige Dürreperioden). Die Menschen hatten zwar auch immer wieder — wie wir — die Frage gestellt, inwiefern sie selbst für das Geschehen verantwortlich waren, aber haben die Konsequenzen als zum Dasein gehörendes Leiden akzeptiert. Entscheidend ist die Frage eines grundsätzlichen Vertrauens in die Struktur der Wirklichkeit. Das ist keine wissenschaftliche Frage mehr, trotzdem kommt niemand an dieser Frage vorbei. Wer dieses Vertrauen nicht hat, wird unweigerlich wegen jeder Abweichung vom „Normalen“ in Panik geraten und deswegen gerade die falschen Entscheidungen treffen. Es ist meines Erachtens kein Zufall, dass gerade nach der schlimmsten bekannten Flut vor schätzungsweise 4000 Jahren Menschen mit solchem Grundvertrauen in die Wirklichkeit sich mit der Frage der Stabilität des Klimas beschäftigten und die 1. Welt-Klimakonferenz der Menschheit mit einem erstaunlichen Manifest beendete:
Solange die Erde steht, soll nicht aufhören: Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht (Gen. 8/22)
In der Präambel finden wir die Einsicht, dass es möglicherweise mit der Erde zu Ende gehen wird, heute wissen wir, dass dies spätesten mit dem Ende der Sonnentätigkeit geschehen wird. Bis dahin allerdings sehen wir 4 Säulen eines grundsätzlich stabilen Ökosystems und Klimas:
Der Tag-Nacht-Rhythmus ist durch die stabile Eigenrotation der Erde gegeben,
Die Jahreszeiten sind eine Folge der Bahn der Erde um die Sonne bei leichter Neigung der Achse, sowie der mit den Breitengraden zunehmenden Abkühlung aufgrund des flacheren Einfallwinkels des Sonnenlichts,
Frost und Hitze stehen für außergewöhnliche Klimaereignisse. Offenbar waren die Menschen damals realistisch genug, nicht an eine Illusion eines gleichbleibenden Zustandes ohne größere Schwankungen zu glauben. Trockenheit und Überschwemmungen kann man im gleichen Atemzug nennen.
Saat und Ernte schließlich bedeutet die Stabilität eines komplexen ökologischen Systems. Dieses System ist allerdings nicht nur die unberührte Natur. Saat und Ernte sind bewusste, gewollte Eingriffe des Menschen in die Natur — dieser Eingriff ist also von vorneherein vorgesehen – der Mensch ist nicht der Schädling des Planeten. Saat und Ernte“ stehen demnach für die einzigartige Kreativität des Menschen im Umgang mit der Natur und ihren nachwachsenden „Rohstoffen“, sie stehen für die schon früh gekannte und praktizierte „Nachhaltigkeit“, die es dem Menschen erlaubt und möglich macht, die Natur im Rahmen seiner existenziellen Bedürfnisse zu nutzen. Von rücksichtsloser Ausbeutung steht nichts in der Schrift.
Anteile der anthropogenen und der natürlichen Emissionen am Anstieg der CO2-Konzentration
[latexpage]
Aus der Publikation Improvements and Extension of the Linear Carbon Sink Model geht hervor, dass die globale natürliche effektive Senkenwirkung sowohl von der CO2-Konzentration als auch von der globalen (Meeresoberflächen-)Temperaturanomalie abhängen. Dazu hier eine kurze Herleitung der Zusammenhänge. Im Gegensatz zur zitierten Publikation wird hier mit monatlichen anthropogenen Emissionsdaten $E_i$ und monatlichen Konzentrationsdaten $C_i$ Daten mit fortlaufenden Monaten $i$ gerechnet.
Die Massenerhaltung bzw. die Kontinuitätsgleichung bedeutet, dass sich das monatliche Konzentrationswachstum $G_i=C_i-C_{i-1}$ zwingend aus der Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$, vermindert um die monatlichen Absorptionen $A_i$ ergibt: \begin{equation}\label{eq:massconservation} G_i = E_i + N_i – A_i \end{equation} Die effektive Senkenwirkung $S_i$ ist die Differenz zwischen anthropogenen Emissionen und dem Konzentrationswachstum: \begin{equation}\label{eq:sinkeffect}S_i = E_i – G_i\end{equation}
Emissionen, Konzentrationswachstum und effektive Senkenwirkung (Senkenwirkung ist nach unten aufgetragen).
Aus Gleichung \ref{eq:massconservation} folgt unmittelbar, dass die effektive, also direkt messbare Senkenwirkung nicht nur Absorptionen durch die Ozeane und Pflanzen, sondern implizit auch sämtliche natürliche Emissionen enthält: $S_i = A_i – N_i$ Daher ist die Senkenwirkung nicht identisch mit der Summe sämtlicher Absorptionen, sondern nur den Anteil der Absorptionen, die nicht durch natürliche Emissionen kompensiert wurden.
Aus der Arbeit „Improvements and Extension of the Linear Carbon Sink Model“ ergibt sich, dass die globale effektive Senkenwirkung $\hat{S}_i$ durch ein erweitertes Modell aus CO$_2$ Konzentration $C_i$ und globaler Meeresoberflächentemperatur $T_i$ gut beschrieben wird: \begin{equation}\label{eq:bilinearmodel} \hat{S}_i = a\cdot C_{i-1} +b\cdot T_{i-1} + c\end{equation} Zum Vergleich wird das in der Arbeit „Emissions and CO2 Concentration—An Evidence Based Approach“ beschriebene einfache Senkenmodell verwendet, das nur von der CO$_2$ Konzentration abhängt: \begin{equation}\label{eq:linearmodel} \hat{S}_i = a’\cdot C_{i-1} + c’\end{equation}
Abb. 2 Modellierung der Senkenwirkung mit einfachem Senkenmodell (orange) und erweitertem Senkenmodell (grün)
Die Abbildung 2 zeigt, dass das einfache Modell den Trend sehr gut wiedergibt, dass aber die Schwankungen erst durch das erweiterte Modell, also durch Einbeziehen der Meeresoberflächentemperatur beschrieben werden können. Die Parameter für die beste Anpassung des erweiterten Modells sind $a=0,052$, $b=-4$ ppm/°C, $c=-16$ ppm.
Mit den Gleichungen \ref{eq:sinkeffect} und \ref{eq:bilinearmodel} bzw. \ref{eq:linearmodel} lässt sich auch der Konzentrationsanstieg modellieren: \begin{equation}\label{eq:g2model}\hat{G}_i = E_i – a\cdot C_{i-1} – b\cdot T_{i-1} – c\end{equation} Dies wird in Abb. 3 gezeigt. Zum Vergleich auch hier wieder die Rekonstruktion mit dem einfachen Senkenmodell.
Abb. 3: Gemessener Konzentrationsanstieg (blau), mit einfachem Senkenmodell rekonstruierter (orange), mit erweitertem Senkenmodell (grün) rekonstruierter Konzentrationsanstieg.
Rekonstruktion der Konzentration, Unterscheidung des Einflusses von Emissionen und Temperatur
Aus dem Konzentrationswachstum $G_i$ lässt sich mit Hilfe der initialen CO$_2$ Konzentration $C_{-1}$, hier also der Konzentration im Dezember 1958, der Verlauf der CO$_2$ Konzentration rekonstruieren. Nach Gleichung \ref{eq:g2model} wird das Konzentrationswachstum von den äußeren Zustandsgrößen der anthropogenen Emissionen und der Temperatur gesteuert. Zusammen mit dem ermittelten Parameter $b$ ergibt der Term $b\cdot T_i$ die Veränderung der natürlichen Emissionen aufgrund der Temperaturanomalie $T_i$. Daher ist es zunächst interessant, die Größenordnungen beider Emissionsquellen miteinander zu vergleichen. Als Maßeinheit der Emissionen wird GtC verwendet, die sich durch Multiplikation der sonst in ppm gemessenen Größen mit 2,123 ergibt.
Abb. 4 zeigt die anthropogenen Emissionen seit 1959 und die natürlichen Emissionen aufgrund der Temperaturskala der Anomalie der Meeresoberflächentemperaturen. Es fällt auf, dass vor 1975 die Temperaturen und damit die natürlichen Emissionen überwiegend negativ sind. Das hängt mit der willkürlichen Wahl des Nullpunkts der Anomalie-Temperaturskala zusammen.
Abb. 4: Anthropogene Emissionen und durch die Temperatur bewirkte natürliche Emissionen
Weiter fällt auf, dass die anthropogenen Emissionen im Schnitt etwa 4 GtC größer sind als die natürlichen. Insgesamt sind die natürlichen Emissionen zahlenmäßig noch sehr viel größer, da der konstante Term $c$ von etwa 34 GtC (16\cdot 2,123) auch natürliche Emissionen darstellt. Diese konstanten natürlichen Emissionen definieren laut Gleichung 14 in Improvements and Extension of the Linear Carbon Sink Model die Gleichgewichtskonzentration bei der Temperaturanomalie 0°, mit den aktuellen Zahlen ist diese Gleichgewichtskonzentration 307 ppm. Das ist nicht der vorindustrielle Zustand, dieser hat die Temperaturanomalie -0,48°.
In Abb. 5 sind 3 ausgewählte Modellszenarien dargestellt. Außer den tatsächlich gemessenen Konzentrationswerten zunächst die Rekonstruktion mit dem tatsächlichen Temperatur- und Emissionsverlauf (orange). Diese bleibt erwartungsgemäß sehr nahe an den Messdaten.
Abb. 5.: Gemessene Konzentration (blau), Auswirkung von 3 Szenarien auf die Konzentration. Siehe Text.
Zusätzlich werden 2 weitere Szenarien dargestellt:
Die anthropogenen Emissionen bleiben auf dem Stand von 1959 und nur die Temperatur entwickelt sich so weiter wie wir es kennen (grüne Farbe). Die CO$_2$ Konzentration wächst bis etwa 370 ppm an.
Die Temperatur bleibt auf dem Stand von 1959, die anthropogenen Emissionen wachsen aber wie gewohnt. Die Konzentration steigt zunächst steiler and als wenn die Temperatur sich auch verändern würde. Das kommt daher, dass die Temperaturanomalie bis Mitte der 70er Jahre unter 0 bleibt. Erst nach 1983 bleibt die resultierende Konzentration unter dem Referenzwert. Insgesamt haben die anthropogenen Emissionen einen größeren Anteil am Konzentrationswachstum als die natürlichen, aber 2023 z.B. kommen der natürliche dem anthropogenen Emissionsanteil sehr nahe.
Es fällt auch auf, dass die Auswirkungen beider Emissionsquellen in Form von resultierender Konzentration sich nicht einfach addieren lassen. Die Konzentration aus der Summe ist geringer als die Summe der Konzentrationen beiden Emissionsanteile. Das hat damit zu tun, dass mit wachsender Konzentration die Absorptionen zunehmen. Beide Emissionsquellen haben zusammen einen kleineren Effekt auf die Konzentration als man vom jeweiligen Einzeleffekt intuitiv erwarten würde.
Fazit
Das erweiterte Senkenmodell erlaubt es, die Auswirkungen von anthropogenen Emissionen und Temperaturerhöhungen auf die CO$_2$ Konzentration separat zu betrachten. Das Ergebnis widerspricht denjenigen, die der Auffassung sind, dass die anthropogenen Emissionen vollständig die Konzentrationsänderungen seit dem Beginn der Industrialisierung erklären. Aber es widerspricht auch denjenigen, die behaupten, aufgrund des großen Umsatzes des natürlichen Kohlenstoffkreislaufs spielten die anthropogenen Emissionen gar keine Rolle. Die Wahrheit ist, dass beide Faktoren einen größenordnungsmäßig ähnlichen Einfluss haben, die anthropogenen Emissionen allerdings etwas überwiegen.
Abbildung 1: Emissionen und natürliche Senkensysteme, Ozeane und Landlebewesen
Was ist passiert, dass plötzlich nun angeblich die Senkenwirkung nachlässt? Schon auf den ersten Blick verrät das Diagramm, dass die abgebildete Senkenwirkung, die den Landpflanzen zugeordnet wird, außerordentlich starken Schwankungen unterliegt, viel stärker als etwa die der Ozeane. Das sollte gleich stutzig machen, wenn von einem „einmaligen“ Ereignis innerhalb des vergangenen Jahres gesprochen wird.
Um eine angemessene Antwort darauf zu finden, ist es notwendig, genauer hinzuschauen und anhand von Originaldaten zu prüfen, wie sich die Konzentrationsänderungen entwickeln. In den Publikationen Emissions and CO2 Concentration—An Evidence Based Approach und „Improvements and Extension of the Linear Carbon Sink Model“ habe ich den Zusammenhang zwischen Emissionen, Konzentrationsanstieg und Senkenwirkung sorgfältig analysiert und ein robustes einfaches Modell der Senkenwirkung entwickelt, das nicht nur die Messdaten der letzten 70 Jahre sehr genau wiedergibt, sondern auch zuverlässige Prognosen erlaubt. Beispielsweise konnten die Konzentrationsdaten der Jahre 2000-2020 aus den Emissionen und den vor dem Jahre 2000 ermittelten Modellparametern mit extrem hoher Genauigkeit vorhergesagt werden. Allerdings endete die neueste in den Publikationen verwendete Messreihe im Dezember 2023, außerdem wurden Jahresmittelwerte verwendet, daher sind die Phänomene, die aktuell für so viel Aufregung sorgen, dort noch nicht berücksichtigt.
Detailanalyse des Konzentrationsanstiegs bis August 2024
Da es hier nun auf Details der letzten beiden Jahre ankommt, werden die Berechnungen der genannten Publikation hier mit monatsgenauen Daten bis August 2024 weitergeführt, um ein klares Bild der Details zu bekommen und um die neuesten Daten einzubeziehen. Ausgangspunkt sind die Original Maona Loa Meßdaten, die in Abbildung 2 dargestellt sind.
Abbildung 2: Gemessene Maona Loa CO2-Konzentrationsdaten
Die monatsgenauen Daten unterliegen saisonalen Schwankungen, die von der ungleichen Verteilung der Landmasse zwischen Nord- und Südhalbkugel herrühren. Daher besteht der erste Verarbeitungsschritt darin, die saisonalen Einflüsse, d.h. alle periodischen Änderungen mit Periodendauer 1 Jahr herauszurechnen. Das Ergebnis ist ebenfalls in Abbildung 2 zu sehen (Farbe orange).
Die globale Meeresoberflächentemperatur unterliegt ebenfalls saisonalen Schwankungen, allerdings in sehr viel geringerem Ausmaß, wie aus Abbildung 3 hervorgeht.
Bildung und Analyse des monatlichen Konzentrationsanstiegs
Durch Subtraktion zeitlich aufeinanderfolgender Messpunkte wird der „rohe“ Konzentrationsanstieg berechnet:
Abbildung 4: Wachstum der CO2-Kozentration, Original(blau) und geglättet(orange).
Es ist leicht erkennbar, dass die monatlichen Schwankungen des Konzentrationsanstiegs beträchtlich sind, und der besonders hohe Peak Ende 2023 keinesfalls ein singuläres Ereignis darstellt; insbesondere geht der positiven Spitze eine viel größere negative voraus, über die in der Presse kein Wort verloren wurde. Auch der um einiges höhere Anstieg 2015 wurde nicht berücksichtigt. Damit hätte man leicht die gewagte Hypothese eines nachlassenden Senkeneffekts widerlegen können, denn in den geglätteten Daten (orange) ist erkennbar, dass es nach 2015 einen deutlichen Trend eines rückläufigen Konzentrationsanstiegs gibt.
Nach einer Glättung (orange) kann man den wirklichen Verlauf besser erkennen als mit den rohen, rauschbehafteten Differenzen. Da es sich um monatliche Werte handelt, müssen die Werte mit 12 multipliziert werden, um Rückschlüsse auf jährlichen Konzentrationsanstieg ziehen zu können. Ohne Zweifel ist am rechten Rand des Diagramms erkennbar, dass es seit 2023 tatsächlich eine Zunahme des Konzentrationsanstiegs gibt, was in der aktuellen Diskussion als Nachlassen der Senkenleistung interpretiert wird.
Interpretation des Anstieg des Konzentrationswachstums als Folge natürlicher Emissionen
Zur Veranschaulichung ist in Abbildung 5 der Senkenleistung (grün) aus der Differenz von anthropogenen Emissionen (blau) und Konzentrationswachstum (orange). Grundlage dieser Berechnung ist die auf der Massenerhaltung beruhende Kontinuitätsgleichung, wonach das Konzentrationswachstum $G_i$ im Monat $i$ sich aus der Differenz aller Emissionen und allen Absorptionen $A_i$ ergibt, wobei die Gesamtemissionen die Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$ sind, also $G_i = E_i + N_i – A_i $ Die effektive monatliche Senkenwirkung $S_i$ wird ermittelt als Differenz zwischen den monatlichen anthropogenen Emissionen $E_i$ und dem monatlichen Konzentrationswachstum $G_i$, also $S_i = E_i – G_i$ Aufgrund der Kontinuitätsgleichung beinhaltet die effektive Senkenwirkung außer den Absorptionen durch Ozeane und Pflanzen auch die natürlichen Emissionen: $S_i = A_i – N_i$
Abbildung 5: Anthropogene Emissionen(blau), CO2 Konzentrationswachstum(orange) und Senkenwirkung (grün)
Es ist leicht zu sehen, dass auch am rechten Rand von Abbildung 5 die (über einige Monate geglättete) effektive Senkenleistung nicht unter 0 sinkt. Allerdings geht sie tatsächlich zurück. Jetzt muss man sich aber darauf besinnen, dass nach der Kontinuitätsgleichung die „effektive Senkenleistung“ aus Absorptionen (Senken im engeren Sinn) und natürlichen Emissionen besteht. Es könnte also auch sein, dass die Spitzen des Konzentrationswachstums durch natürliche Emissionen hervorgerufen werden. Diese kommen in den Publikationen, die aktuell Alarm schlagen, überhaupt nicht vor.
Es ist allgemein bekannt und Folge des sogenannten Henry-Gesetzes, dass der Gasaustausch zwischen Meer und Atmosphäre von der Meeresoberflächentemperatur abhängt. Deswegen erwarten wir bei steigender Temperatur verstärkte CO2-Emissionen aus den Meeren, etwas übertrieben vergleichbar mit einer Sprudelflasche im Backofen. Diese Überlegung motiviert die Einführung der Temperatur als Modellparameter in der Beschreibung der effektiven Senkenleistung. Die Details der Ausarbeitung dieser Modellerweiterung ist in der oben erwähnten Publikation sowie in deren vereinfachter Beschreibung zu finden.
Was die Hinzunahme der Temperatur für die Modellierung des Konzentrationsanstiegs bedeutet, sieht man in Abbildung 6.
Abbildung 6: Geglättetes Konzentrationswachstum(blau) und dessen Modellierung mit temperaturunabhängigem (grün) und temperaturabhängigem (orange) Senkenmodell
Während die grüne Kurve das weithin bekannte lineare Senkenmodell darstellt (siehe hier (2024), hier (2023), hier (2019) und hier (1997)), wie es in der Publikation bzw. in der vereinfachten Darstellung beschrieben ist, wird in der orangenen Kurve auch noch die Abhängigkeit von der Temperatur gemäß der neuen Publikation berücksichtigt. Es stellt sich heraus, dass der aktuelle „zu große“ Anstieg der Konzentration eine ganz natürliche Folge des zugrundeliegenden Temperaturanstiegs ist. An der Senkenleistung, der linearen Abhängigkeit der Absorption von der CO2-Konzentration, hat sich überhaupt nichts geändert.
Höchste Zeit also, die Temperatur als „normale“ Ursache von CO2-Konzentrationsveränderungen in der öffentlichen Diskussion als Einflußfaktor zu etablieren statt wilde Spekulationen über ausbleibenden Senken ohne Evidenz anzustellen.
Die Dekonstruktion des Klimanarrativs
Einleitung – Wie funktioniert das Klimanarrativ?
Zweifellos gibt es ein von Wissenschaft, Medien und Politik propagiertes Klimanarrativ, wonach wir uns aufgrund der anthropogenen CO2 Emissionen auf einem Katastrophenkurs befinden, der angeblich nur mit einer Reduktion der Emissionen auf Null bis zum Jahre 2050 aufzuhalten ist.
Alle die dem Narrativ auch nur in subtilen Details widersprechen, werden wie Aussätzige auf „schwarzen Listen“ geführt, selbst wenn sie renommierte Wissenschaftler, ja sogar Nobelpreisträger sind[1][2] – mit verheerenden Folgen für Bewerbungen, Publikationen oder Förderanträge.
Wie ist es möglich, alle wichtigen, auch die renommiertesten Universitäten wie Harvard, MIT und Stanford, Oxford, Cambridge und Heidelberg auf die gemeinsame Konsenslinie zu bringen? Wie kann es gelingen, dass die berühmtesten Zeitschriften wie Nature[3] und Science, aber auch populärwissenschaftliche wie Spektrum der Wissenschaft nur noch einen schmalen „Verständnistunnel“ gelten lassen, ohne ihren Ruf nicht offensichtlich zu ruinieren?
Damit das Narrativ eine solche starke und universelle Wirkung entfalten kann, ist zweifellos ein solides wissenschaftliches Fundament notwendig, das man nicht ohne Blamage bestreiten kann. Diejenigen, die es trotzdem tun, werden auf denkbar einfache Weise als „Klimaleugner“ oder „Wissenschaftsfeinde“ identifiziert.
Auf der anderen Seite sind die Vorhersagen daraus und insbesondere die politischen Konsequenzen daraus dermaßen menschenfeindlich und wirklichkeitsfremd, dass nicht nur eine tiefe gesellschaftliche Spaltung entstanden ist, sondern dass eine zunehmende Zahl von Zeitgenossen, darunter viele Wissenschaftler, hinterfragen, was das für eine Wissenschaft sein soll, die dermaßen abwegige Ergebnisse produziert[4].
Bei sorgfältiger Analyse des Klimathemas findet sich ein Muster, das sich wie ein roter Faden durch alle Aspekte durchzieht. Dieses Muster wird im am Beispiel von 4 Schwerpunkten, die in der Klimaforschung bedeutsam sind, illustriert.
Das Muster, das sich aus langjähriger Auseinandersetzung mit dem Thema herausschälte, besteht darin, dass es im Kern immer eine korrekte Beobachtung oder ein gültiges Naturgesetz gibt. Im nächsten Schritt werden allerdings die Ergebnisse dieser Beobachtung entweder ungeprüft in die Zukunft fortgeschrieben, die Ergebnisse werden übertrieben oder sogar in ihrer Bedeutung verdreht. Andere, zielführende Erkenntnisse werden weggelassen oder ihre Veröffentlichung unterdrückt.
An den genannten und vielen anderen Beispielen lässt sich die typische Schlussfolgerung zeigen, dass bei dem jeweiligen Teilaspekt des Klimas ein möglichst schädliches Ergebnis droht. Das Zusammenfügen mehrerer solcher Komponenten führt in der Summe dann zu den katastrophalen Horrorszenarien, mit denen wir täglich konfrontiert werden. Da die Aussagen meist die Zukunft betreffen, lassen sie sich in der Regel kaum überprüfen.
Die gesamte Argumentationskette des Klimanarrativs hat folgende Form:
Die anthropogenen Emissionen wachsen – exponentiell.
Mit den Emissionen wächst die atmosphärische Konzentration an, solange die Emissionen nicht vollständig auf Null reduziert werden
Das Anwachsen der CO2-Konzentration in der Atmosphäre führt zu einem – dramatischen – Anwachsen der durchschnittlichen Temperatur
Darüber hinaus gibt es noch positive Rückkopplungen, wenn die Temperatur anwächst, ja sogar Kipppunkte, jenseits derer keine Umkehr mehr möglich ist.
Andere Erklärungen wie Sonnenstunden oder die damit zusammenhängende Wolkenbildung werden ignoriert, heruntergespielt oder in das System als Rückkopplungseffekt eingebaut.
Die Auswirkungen sind in der Summe dermaßen katastrophal, dass damit beliebige totalitäre politische Maßnahmen gerechtfertigt werden, mit dem Ziel, die weltweiten Emissionen auf Null herunterzudrücken.
Die ausführliche Beschäftigung mit dem Thema führt zu dem Ergebnis, dass jeder einzelne dieser Punkte das oben beschriebene Muster zeigt, dass es zwar immer einen wahren Kern gibt, der für sich genommen harmlos ist. Den wahren Kern herauszuarbeiten und die Übertreibungen, falschen Extrapolationen oder Weglassen wesentlicher Informationen herauszuarbeiten, ist das Ziel dieser Schrift.
1. Die anthropogenen Emissionen wachsen – exponentiell?
Jeder kennt die klassischen Beispiele exponentiellen Wachstums, z.B. das Schachbrett, das Feld für Feld mit jeweils der doppelten Menge Reis gefüllt wird. Ein exponentielles Wachstum führt grundsätzlich immer in eine Katastrophe. Daher ist es wichtig, die Fakten des Emissionswachstums zu prüfen.
Abbildung 1: Relatives Wachstum der weltweiten Emissionen[5][6]
Abbildung 1 zeigt das relative Wachstum der weltweiten anthropogenen Emissionen während der letzten 80 Jahre. Um das Diagramm zu verstehen, vergegenwärtigen wir uns, dass konstantes relatives Wachstum exponentielles Wachstum bedeutet[7]. Ein Sparkonto mit 3% Zinsen wächst im Prinzip exponentiell. Demnach finden wir exponentielles Emissionswachstum mit einer Wachstumsrate von etwa 4,5% zwischen 1945 bis 1975. Diese Phase nannte man einst „Wirtschaftswunder“. Danach ging das Emissionswachstum bis 1980 auf 0 zurück. Man nannte diese Zeit „Rezession“, mit der Konsequenz von Regierungswechseln in USA und Deutschland.
Ein weiterer Wachstumstiefpunkt der Emissionen war um 1990 mit dem Zusammenbruch des Kommunismus verbunden, mit einem folgenden Wiederanstieg, hauptsächlich in den Schwellenländern. Seit 2003 erfolgt eine beabsichtigte Reduktion des Emissionswachstum infolge der Klimapolitik.
Festzuhalten ist, dass aktuell das Emissionswachstum auf 0 gefallen ist.
Vor kurzem hat Zeke Hausfather festgestellt, dass die Summe der weltweiten anthropogenen Emissionen seit 2011 im Rahmen der Meßgenauigkeit konstant[8] sind, dargestellt in Abbildung 2. Demzufolge ist auch für die Zukunft kein Überschreiten der aktuellen Emissionen mehr zu erwarten[9].
Abbildung 2: Anthropogene Emissionen sind seit 2011 konstant[10]
Die längerfristige Fortschreibung der aktuellen geplanten künftigen Emissionen, das sogenannte „Stated Policies“ Szenario (von 2021) erwartet bis 2030 konstante weltweite Emissionen und danach eine ganz leichte Senkung von 0,3% pro Jahr.
Demzufolge sind die beiden vom IPCC am häufigsten verwendeten Zukunftsszenarien (RCP 8.5 und RCP6.2) fern von der Realität[12] der tatsächlich möglichen Emissionsszenarien. Trotzdem ist das Extremszenario RCP8.5 in den Modellrechnungen immer noch das am häufigsten verwendete[13].
Wissenschaftlich seriös sind vor allem das IPCC Szenario RCP4.5 und diesem in Abbildung 3 dargestellten ähnlichen IEA Szenario „Stated Policies“ (dort S. 33, Figure 1.4)[14].
Damit bleibt es bei Anerkennung der realistischen Emissionsszenarien ohne Infragestellung der vom IPCC verbreiteten Aussagen über das Klima bei einer maximalen emissionsbedingten Temperaturerhöhung von 2,5°C gegenüber dem vorindustriellen Zustand.
2. Atmosphärische CO2 Konzentration steigt kontinuierlich an — es sei denn, die Emissionen werden auf Null reduziert?
Die Frage ist, wie sich anthropogene Emissionen auf die CO2-Konzentration in der Atmosphäre auswirken. Es ist bekannt und in Abb. 4 von der Internationalen Energieagentur illustriert, dass bei weitem nicht alles emittierte CO2 in der Atmosphäre verbleibt, sondern dass ein wachsender Anteil davon von den Ozeanen und den Pflanzen wieder absorbiert wird.
Die statistische Auswertung der anthropogenen Emissionen und der CO2-Konzentration ergibt unter Berücksichtigung der Massenerhaltung und einem linearen Modell der natürlichen Senken Ozeane und Biosphäre, dass jedes Jahr knapp 2% der über das vorindustrielle natürliche Gleichgewichtsniveau hinausgehenden CO2-Konzentration von den Ozeanen und der Biosphäre
Abbildung 4: Quellen (anthropogene Emissionen und Landnutzung), Senken des CO2 (Ozeane und Landsenken) und Konzentrationswachstum in der Atmosphäre
absorbiert werden[15][16]. Das ist aktuell die Hälfte der anthropogenen Emissionen mit zunehmender Tendenz, wie in Abbildung 5 dargestellt.
Abbildung 5: CO2 Bilanz und lineares Senkenmodell: anthropgene Emissionen (blau), Konzentrationswachstum (orange), natürliche Senken und deren Modellierung (grün)
Das wahrscheinlichste weltweite Zukunftsszenario der Internationalen Energie Agentur – die in Abb. 3 dargestellte Fortschreibung heutiger politischer Regelungen (Stated Policies Szenario STEPS) – beinhaltet bis zum Ende des Jahrhunderts eine sanften Abnahme (3%/Jahrzehnt) der weltweiten Emissionen auf das Niveau von 2005. Diese Emissionsverringerungen sind durch Effizienzverbesserungen und normalen Fortschritt erreichbar.
Wenn wir dieses STEPS Referenz-Szenario zugrunde legen, führt dies bei Nutzung des linearen Senkenmodells zu einem Anstieg der Konzentration um 55 ppm auf ein Plateau von 475 ppm, wo dann die Konzentration verbleibt.
Abbildung 6: Gemessene und vorhergesagte CO2-Konzentration mit 95% Fehlerbalken
Wesentlich ist, dass dabei die CO2-Konzentration auf keine klimatisch gefährlich hohe Werte steigen wird. Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1[17]: Die Länder müssen ihre maximalen Emissionen baldmöglichst erreichen “um so ein Gleichgewicht zwischen anthropogenen Emissionen von Treibhausgasen und und deren Absorption mittels Senken in der zweiten Hälfte dieses Jahrhunderts zu erreichen”. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Dekarbonisierung.
Das Netto-Null Gleichgewicht zwischen Emissionen und Absorptionen wird mit der Fortschreibung heutigen Verhaltens im Jahre 2080 ohne radikale Klimamaßnahmen erreicht.
Ohne auf die Details der sog. Sensitivitätsberechnung einzugehen, lässt sich vereinfacht für die weitere Temperaturentwicklung sagen:
Angenommen, die CO2-Konzentration sei voll verantwortlich für die Temperaturentwicklung der Atmosphäre, dann war 2020 die CO2-Konzentration 410 ppm, also (410-280) ppm = 130 ppm über dem vorindustriellen Niveau. Bis dahin war die Temperatur etwa 1° C höher als vor der Industrialisierung. Künftig können wir mit der obigen Prognose eine Erhöhung der CO2-Konzentration um (475-410) ppm = 65 ppm erwarten. Das ist grade die Hälfte der bisherigen Steigerung. Demzufolge können wir, auch wenn wir von der Klimawirkung des CO2 überzeugt sind, bis dahin zusätzlich die Hälfte der bisherigen Temperaturerhöhung erwarten, also ½° C. Demzufolge wird 2080 die Temperatur mit 1,5° C über vorindustriellem Niveau das Ziel des Pariser Klimaabkommens erfüllen, auch ohne radikale Emissionsreduktionen.
3. Atmosphärische CO2 Konzentration verursacht – dramatischen? – Temperaturanstieg
Nach der Diskussion über die möglichen künftigen CO2-Mengen stellt sich die Frage nach deren Auswirkungen auf das Klima, also nach dem Treibhauseffekt des CO2 und dessen Einfluss auf die Temperatur der Erdoberfläche und der Atmosphäre.
Der mögliche Einfluss des CO2 auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport[18]. Da das Thema einerseits grundlegend für die gesamte Klimadiskussion ist, andererseits anspruchsvoll und schwer durchschaubar, wird hier auf die komplizierten physikalischen Formeln verzichtet.
Um den Treibhauseffekt messen zu können, muss die in das Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der erwartete Treibhauseffekt ist aber mit 0,2 W/m2 pro Jahrzehnt[19] so winzig, dass er mit heutiger Satellitentechnologie, die eine Messgenauigkeit von etwa 10 W/m2 hat, nicht direkt nachweisbar ist[20].
Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der physikalischen Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses CO2 Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.
Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN[21], mit dem die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der CO2-Treibhauseffekt physikalisch korrekt simuliert werden kann:
Abbildung 7 zeigt, dass die MODTRAN Rekonstruktion des Infrarotspektrums hervorragend mit dem aus dem Weltraum gemessenen Infrarotspektrum übereinstimmt. Damit können wir die Anwendbarkeit des Simulationsprogramms rechtfertigen und schließen, dass sich mit der Simulation auch hypothetische Konstellationen mit ausreichender Genauigkeit beschreiben lassen.
Mit diesem Simulationsprogramm wollen wir die wichtigsten Aussagen bezüglich des Treibhauseffekts überprüfen.
Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum
Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum
Um auf bekanntem Gefilde zu beginnen, versuchen wir zunächst, den üblicherweise publizierten, „reinen CO2-Treibhauseffekt zu reproduzieren“, indem die durch nichts reduzierte Sonneneinstrahlung die Erde erwärmt und deren Infrarotstrahlung in den Weltraum ausschließlich durch die CO2-Konzentration abgeschwächt wird. Die CO2-Konzentration wird auf das vorindustrielle Niveau 280 ppm eingestellt.
Wir verwenden dabei die sogenannte Standard-Atmosphäre[22], die sich seit Jahrzehnten bei für die Luftfahrt wichtigen Berechnungen bewährt hat, entfernen aber alle anderen Spurengase, ebenso den Wasserdampf. Die anderen Gase wir Sauerstoff und Stickstoff sind aber als vorhanden angenommen, sodass sich an der Thermodynamik der Atmosphäre nichts ändert. Durch leichte Korrektur der Bodentemperatur auf 13,5°C (Referenztemperatur ist 15°C) wird die Infrarot-Abstrahlung auf 340 W/m2 eingestellt. Das ist grade ¼ der Solarkonstante[23], entspricht also genau der auf die ganze Erdoberfläche verteilten Sonneneinstrahlung.
Gut erkennbar ist im Spektrum das „CO2-Loch“, also die gegenüber dem normalen Planck-Spektrum[24] verminderte Abstrahlung im CO2-Band.
Abbildung 8: Simuliertes IR-Spektrum: nur vorindustrielles CO2
Was passiert nun bei Verdoppelung der CO2-Konzentration?
Abbildung 9: Strahlungsantrieb bei Abbildung 9a: Temperaturanstieg zur CO2-Verdoppelung (keine Albedo, Kompensation des Strahlungsantriebs kein Wasserdampf) von Abb. 9.
In Abb. 9 ist zu sehen, dass bei Verdoppelung der CO2-Konzentration auf 560 ppm der Wärmefluss der Infrarotstrahlung um 3,77 W/m² vermindert wird. Der von Myhre ermittelte Wert von 3,71 W/m², der mit einer Mischung verschiedener Treibhausgase unter „clear sky“ Bedingungen mit einer Modellrechnung ermittelt wurde, und der auch eine Korrektur aufgrund von Stratosphärenstrahlung enthält, wird vom IPCC und fast allen Klimaforschern verwendet, um den CO2-Antrieb („Forcing“) zu beschreiben. Diese Korrektur, die den Wert geringfügig verändert, ist in der MODTRAN Simulation nicht enthalten. Daher verwende ich, um eine obere Grenze abzuschätzen, als einziges Treibhausgas CO2 ohne Wasserdampf. In Abb. 9a wird die Bodentemperatur von -1,5°C auf -0,7°C verändert, um wieder die Abstrahlung von 340 W/m2 zu erreichen. Diese Erwärmung um 0,8°C bei Verdoppelung der CO2-Konzentration wird als „Klima-Sensitivität“ bezeichnet. Sie ist, angesichts der aktuellen Meldungen über die drohenden Klimakatastrophen, überraschend gering.
Insbesondere, wenn wir bedenken, dass die bisher verwendeten Einstellungen des Simulationsprogramms völlig an der realen Erdatmosphäre vorbeigehen:
Keine Berücksichtigung der Albedo, der Rückstrahlung des Lichteinstrahlung,
Keine Berücksichtigung von Wolken und Wasserdampf
Schritt für Schritt wollen wir uns nun den realen Bedingungen nähern. Die Szenarien sind in Tabelle 1 zusammengefaßt:
Szenario
Albedo
Einstrahlung (W/m2)
CO2 vorher (ppm)
Temperatur (°C)
CO2 nachher(ppm)
Antrieb (W/m2)
Temperatur-Steigerung fürs Gleichgewicht (°C)
Vorindustriell Nur CO2, keine Wolken, kein Wasserdampf
0
340
280
13,7
560
-3,77
0,8
Keine Treib-hausgase, keine Wolken (CO2 von 0-280 ppm)
0,125
297,5
0
-2
280
-27
7
Nur CO2, Albedo, keine Wolken, kein Wasserdampf
0,125
270
280
5
560
-3,2
0,7
Vorindustrielle Standard- Atmosphäre
0,3
240
280
15
560
-2,1
0,63
Vorindustrielle Standard Atmosphäre, CO2 heutige Konzentration
0,3
240
280
15
420
-1,3
0,34
Tabelle 1: MODTRAN Szenarien unter verschiedenen Bedingungen, siehe Text.
Das Szenario in der ersten Zeile von Tabelle 1 ist das soeben besprochene „reine CO2“ Szenario.
In der zweiten Zeile gehen wir noch einen Schritt zurück, und entfernen auch noch das CO2, also ein Planet ohne Treibhausgase, ohne Wolken, ohne Wasserdampf. Aber die Erdoberfläche reflektiert Sonnenlicht, hat also Albedo[25]. Der Albedowert 0,125 entspricht dem sonstiger Gesteinsplaneten ebenso wie der Meeresoberfläche. Erstaunlicherweise kommt in diesem Fall eine Oberflächentemperatur von -2° C (und nicht wie oft behauptet -18°C!) zustande. Das kommt daher, dass es ohne Wasserdampf auch keine Wolkenalbedo gibt. Wird nun die CO2-Konzentration auf das vorindustrielle Niveau von 280 ppm erhöht, dann reduziert sich die Infrarot-Abstrahlung um 27 W/m2. Dieser große Strahlungsantrieb wird durch eine Temperatursteigerung von 7°C ausgeglichen.
Wir stellen fest, zwischen dem Zustand ganz ohne Treibhausgase und dem vorindustriellen Zustand gibt es einen stattlichen Treibhauseffekt, mit einer Erwärmung um 7°C.
Die dritte Zeile nimmt diesen vorindustriellen Zustand, also Erdalbedo, 280 ppm CO2, keine Wolken und kein Wasserdampf als Ausgangspunkt für das nächste Szenario. Bei Verdoppelung der CO2-Konzentration beträgt der Strahlungsantrieb von -3,2 W/m2, also etwas weniger als bei dem ersten „reinen CO2-Szenario“. Demzufolge ist auch hier die Erwärmung mit 0,7°C zur Erreichung des Strahlungsgleichgewichts etwas geringer.
Nach diesen Vorbereitungen ist in der 4. Zeile die vorindustrielle Standardatmosphäre mit Albedo, Wolken, Wasserdampf und der real gemessenen Albedo von 0,3 repräsentiert, mit der zur Standardatmosphäre zugehörige Bodentemperatur von 15°C. Es gibt nun mehrere Möglichkeiten, Bewölkung und Wasserdampf einzustellen, um die der Albedo a=0,3 entsprechende Infrarot-Abstrahlung von 340 W/m2. (1-a) = 240 W/m2 zu erreichen. Für’s Ergebnis kommt es nicht auf die genaue Wahl dieser Parameter an, solange die Abstrahlung 240 W/m2 beträgt.
Bei diesem Szenario bewirkt die Verdoppelung der CO2-Konzentration auf 560 ppm einen Strahlungsantrieb von -2,1 W/m2 und eine kompensierende Temperaturerhöhung, also Sensitivität von 0,6°C.
Außer dem Szenario der Verdoppelung der CO2-Konzentration ist natürlich auch von Interesse, was der Treibhauseffekts bis heute bewirkt hat. Die aktuelle CO2-Konzentration von 420 ppm ist gerade in der Mitte zwischen den vorindustriellen 280 ppm und deren doppeltem Wert.
In der 5. Zeile der Tabelle bewirkt die Erhöhung von 280 ppm auf 420 ppm den Strahlungsantrieb von -1,3 W/m2 und die zur Kompensation notwendige Temperaturerhöhung von 0,34°C. Aus diesem Resultat folgt, dass seit dem Beginn der Industrialisierung der bisherige Anstieg der CO2-Konzentration für eine globale Temperaturerhöhung von 0,34°C verantwortlich war.
Das ist viel weniger als die mittlere Temperaturerhöhung seit dem Beginn der Industrialisierung. Daher stellt sich die Frage, wie die „restliche“ Temperaturerhöhung zu erklären ist.
Es bieten sich mehrere Möglichkeiten an:
Positive Rückkopplungseffekte, die die CO2-bedingte Erwärmung verstärken. Das ist die Richtung des Weltklimarates und Thema des nächsten Kapitels.
Andere Ursachen wie Wolkenalbedo. Das ist Thema des übernächsten Kapitels
Zufällige Schwankungen. Gerne wird angesichts des chaotischen Charakters des Wettergeschehens der Zufall herangezogen. Diese Möglichkeit bleibt in Rahmen dieser Abhandlung offen.
4. Rückkopplungen führen zu — katastrophalen? — Konsequenzen
Die im vorigen Kapitel maximal mögliche Klimasensitivität, also Temperaturerhöhung bei Verdoppelung der CO2-Konzentration beträgt 0,8°C, unter realen Bedingungen eher 0,6°C.
Es war in der Klimaforschung schon früh klar, dass eine solch geringe Klima-Sensitivität niemanden in der Welt ernsthaft in Sorge versetzen könnte. Dazu kam, dass die gemessene globale Erwärmung größer ist als von der Strahlungstransportgleichung vorhergesagt wird.
Deswegen wurden Rückkopplungen ins Spiel gebracht, die prominenteste Veröffentlichung in diesem Zusammenhang war 1984 von James Hansen et al.: „Climate Sensitivity: Analysis of Feedback Mechanisms“[26] (Klima-Sensitivität: Analyse von Rückkopplungsmechanismen). James Hansen war es, der mit seinem Auftritt vor dem US-Senat 1988[27] die Klimapolitik der USA maßgeblich beeinflusste. Ähnlich argumentierte Prof. Levermann bei einer Anhörung des Umweltausschusses des Deutschen Bundestags[28], verbunden mit der Behauptung, aufgrund der Rückkopplung würde die Temperatur um 3°C steigen.
Mit Hilfe der Rückkopplungsmechanismen entstanden die vom IPCC veröffentlichten hohen Sensitivitäten bei Verdopplung der CO2 Konzentration zwischen 1,5°C und 4,5°C.
Es stellt sich insbesondere die Frage, wie eine geringe Erwärmung von 0,8°C durch Rückkopplung zu einer Erwärmung von 4,5°C führen kann, ohne dass das System völlig außer Kontrolle gerät?
Die in diesem Zusammenhang mit Abstand wichtigste Rückkopplung ist die Wasserdampf-Rückkopplung.
Wie funktioniert die Wasserdampf-Rückkopplung?
Die Wasserdampf-Rückkopplung besteht aus einem 2-Schritt Prozess:
Wenn die Lufttemperatur um 1°C steigt, kann die Luft um 6% mehr Wasserdampf aufnehmen. Üblicherweise wird ein Wert von 7% angegeben, aber die 7% sind erst ab einer Höhe von 8 km infolge des dort verminderten Luftdrucks möglich. Es ist zu beachten, dass dies, er Prozentsatz der maximal mögliche Wasserdampfgehalt ist. Ob dieser wirklich erreicht wird, hängt davon ab, ob genügend Wasserdampf zur Verfügung steht. Nach Tabelle 3 der Publikation „Global Changes in Water Vapor 1979–2020„[29] beträgt die aus Klimamodellen berechnete Sensitivität der Änderung des Wasserdampfes von der Temperatur etwa 5% pro °C Erwärmung. Die Pro Jahrzehnt des Untersuchungszeitraums mit der globalen Erwärmung 0.12°C hat sich demnach der Wasserdampfgehalt um 0,6% erhöht, ausgehend von einem niederschlagsfähigen Wasserdampf von 21mm unter wolkenlosen Bedingungen und 28mm unter Wolkenbedingungen.
Der Strahlungstransport von Infrarotstrahlung hängt vom Wasserdampfgehalt ab: Zusätzliche Luftfeuchtigkeit reduziert die abgestrahlte Infrarotstrahlung infolge der Absorption durch den zusätzlichen Wasserdampf. Mit Hilfe des bereits erwähnten MODTRAN-Simulationsprogramms wird unter wolkenlosen Bedingungen und 21 mm niederschlagsfähigem Wasserdampf die wasserdampfbedingte Reduktion der Infrarotstrahlung um 0,75 W/m2 bei Erhöhung des Wasserdampfgehaltes um 5% ermittelt[30].
Diese reduzierte Infrarotstrahlung ist ein negativer Strahlungsantrieb. Die diese Abschwächung kompensierende Temperaturerhöhung ist die primäre Rückkopplung g (englisch „gain“). Diese beträgt 0,25 °C als Folge der ursprünglichen Temperaturerhöhung um 1°C, also ist g=0,25.
Die Gesamtrückkopplung f (englisch „feedback“) ergibt sich als geometrische Reihe[31] infolge der rekursiven Anwendung des obigen Mechanismus – die 0,25°C zusätzliche Temperaturerhöhung haben ja eine erneute zusätzliche Wasserdampfbildung zur Folge. Dieser Zusammenhang wird von James Hansen in seiner Arbeit von 1984[32] beschrieben:
f = 1+ g + g2 + g3… = 1/(1-g).
Mit g=0,25 ist demnach der Rückkopplungsfaktor f = 1,33.
Unter Zugrundelegung eines Treibhauseffekts aus dem Strahlungstransport von 0,8°C erfolgt daraus zusammen mit der maximal möglichen Rückkopplung eine Temperaturerhöhung von 0,8°C . 1,33 = 1,1 °C , bei der hier ermittelten Sensitivität 0,63°C . 1,33 = 0,84 °C.
Beide Werte sind niedriger als die kleinste publizierte Sensitivität von 1,5°C der beim IPCC verwendeten Modelle. Die seit dem Beginn der Industrialisierung erfolgte Erwärmung ist demnach selbst mit Rückkopplung 0,34°C . 1,33 = 0,45°C.
Damit ist belegt, dass auch die vielfach beschworene Wasserdampf-Rückkopplung zu keiner exorbitanten und schon gar keiner katastrophalen Klima-Erwärmung führt.
5. Aber sie erwärmt sich doch? – Auswirkungen von Wolken.
An dieser Stelle aufzuhören, wird jeden, der sich mit dem Klimathema beschäftigt, mit der naheliegenden Frage unzufrieden zurücklassen: „Aber die Erde erwärmt sich doch, und zwar stärker, als die nach dem revidierten Treibhauseffekt samt Rückkopplung möglich wäre?“.
Deswegen werden hier die in der Klimadiskussion bis vor kurzem wenig beachteten Auswirkungen der tatsächlichen Wolkenbildung[33] untersucht.
Untersuchung der Veränderungen der weltweiten Wolkenbedeckung
Jay R Herman von der NASA[34] hat mit Hilfe von Satellitenmessungen über einen Zeitraum von mehr als 30 Jahren die mittlere Reflexivität der Wolkenbedeckung der Erde berechnet und ausgewertet:
Abbildung 10: Wolkenreflexivität zwischen 1979 und 2011
Er stellte einen klaren Trend der Abnahme der Wolkenbedeckung fest. Daraus berechnete er, wie sich dies auf die davon betroffenen Komponenten des globalen Energiebudgets auswirkt:
Abbildung 11 Veränderung des Energiebudgets aufgrund der Veränderung der Wolkenreflexivität
Das Ergebnis war, dass aufgrund der reduzierten Wolkenbedeckung die Sonneneinstrahlung in 33 Jahren um 2,33 W/m2 zunahm. Das sind 0,7 W/m2 Strahlungsantrieb pro Jahrzehnt. Demgegenüber betrug die Abnahme der Abstrahlung infolge der Zunahme der CO2-Konzentration maximal 0,2 W/m2 pro Jahrzehnt[35].
Demzufolge ist nach dieser Untersuchung der Einfluss der Wolken mit 78% auf das Klima mindestens 3,5 mal größer als der des CO2, das demnach allenfalls einen Einfluss von 22% hat.
Fazit – es gibt keine drohende Klimakatastrophe
Fassen wir die Stationen dieser Betrachtungen zur Dekonstruktion des Klimanarrativs noch einmal zusammen:
Es gibt kein exponentielles Wachstum der CO2-Emissionen. Diese Phase gab es bis 1975, aber die ist längst vorbei, und die weltweiten Emissionen sind seit 10 Jahren auf einem Plateau angelangt.
Die CO2-Konzentration wächst zwar trotz konstanter Emissionen noch an, aber deren Wachstum hat sich bereits verlangsamt, und wird unter Annahme des wahrscheinlichsten Emissionsszenarios in der 2. Hälfte des Jahrhunderts aufhören.
Die physikalisch plausible Treibhauswirkung des CO2 ist sehr viel geringer als gewöhnlich behauptet wird, die unter realen atmosphärischen Bedingungen begründbare Sensitivität ist nur 0,5°C.
Aus der Abschätzung der maximal möglichen Rückkopplungswirkung durch Wasserdampf ergibt sich die obere Grenze des Rückkopplungsfaktors als 1,25. Damit lassen sich keine Temperaturerhöhungen von 3°C oder mehr rechtfertigen
Es gibt plausible einfache Erklärungen der Temperaturentwicklung der Erde. Die wichtigste davon ist, dass infolge der verschiedenen Maßnahmen der Luftreinhaltung (Reduzierung von Holz- und Kohleverbrennung, Katalysatoren bei Automobilen, etc.) die Aerosole in der Atmosphäre im Laufe der letzten 70 Jahre zurückgegangen ist, was zu einer Verminderung der Wolkenbildung und daher zu einer Erhöhung der Sonneneinstrahlung führte.
Wie groß ist der Treibhauseffekt in Deutschland? — eine statistische Analyse
[latexpage]
Hohe Korrelation als Indiz der Kausalität?
Die Argumentation, dass CO2 die mittlere globale Temperatur bestimmt, wird häufig mit diesem Diagramm, das eine starke Korrelation zwischen CO2-Konzentration und mittlerer globaler Temperatur zeigt, veranschaulicht oder sogar begründet, hier beispielsweise die in Maona Loa gemessene mittlere jährliche Konzentration und die jährlichen globalen Meeresoberflächentemperaturen:
Es gibt zwar zwischen 1900 und 1975 — immerhin 75 Jahre — starke systematische Abweichungen, aber seit 1975 ist die Korrelation stark. Wenn wir versuchen, mit den seit 1959 verfügbaren CO2-Konzentrationsdaten von Maona Loa die deutschen Mitteltemperaturen zu erklären, bekommen wir eine klare Beschreibung des Trends der Temperaturentwicklung, aber keine Erklärung der starken Schwankungen:
Die aus den im Jahr $i$ gemessenen logarithmischen CO2-Konzentrationsdaten $ln(C_i)$ mit der Methode der kleinsten Quadrate geschätzte „Modelltemperatur“ $\hat{T}_i$ ergibt sich als $\hat{T}_i = 7.5\cdot ln(C_i)- 35.1 $ (°C)
Nehmen wir als 2. Erklärungsvariable die jährlichen Sonnenstunden hinzu, so verbessert sich die Anpassung etwas, aber wir sind noch weit entfernt von einer vollständigen Erklärung der schwankenden Temperaturen. Der Trend wird erwartungsgemöß ähnlich gut wiedergeben, auch ein Teil der Schwankungen wird mit den Sonnenstunden erklärt, aber bei weitem nicht so gut, wie man es eigentlich von einer kausalen Bestimmungsgröße erwarten würde :
Die Modellgleichung für die geschätzte Temperatur $\hat{T}_i$ wird mit der Erweiterung der Sonnenstunden $S_i$ zu $ \hat{T}_i = 5.8\cdot ln(C_i) + 0.002\cdot S_i – 28.5 $ (°C) Das relative Gewicht der CO2-Konzentration hat bei insgesamt verbessertem statistischem Erklärungswert der Daten etwas abgenommen.
Allerdings sieht es so aus, als ob das Zeitintervall 1 Jahr viel zu lang ist, um die Auswirkung der Sonneneinstrahlung auf die Temperatur korrekt zu behandeln. Es ist offensichtlich, dass die jahreszeitlichen Schwankungen unzweifelhaft von der Sonneneinstrahlung verursacht werden. Die Auswirkungen der Einstrahlung sind nicht alle spontan, es müssen auch Speichereffekte berücksichtigt werden. Das entspricht unserer Wahrnehmung, dass die Wärmespeicherung der Sommerwärme 1-3 Monate anhält, und z.B. die wärmsten Monate erst nach der Zeit der größten Sonneneinstrahlung sind. Deswegen müssen wir ein auf dem Energiefluss beruhendes Modell erstellen, das mit monatlichen Messwerten gefüttert wird, und das eine Speicherung vorsieht.
Energieerhaltung – Verbesserung des Modells
Um das Verständnis zu verbessern, erstellen wir ein Modell mit monatlichen Daten unter Berücksichtigung der physikalischen Vorgänge (die Monate werden mit der Indexvariablen $i$ durchgezählt):
Durch die Sonneneinstrahlung wird der Erdoberfläche Energie zugeführt, diese wird monatlich als proportional zur Zahl der Sonnenstunden $S_i$ angenommen,
unter der Annahme des Treibhauseffekts wird ebenfalls Energie zugeführt, für die monatliche Energieaufnahme (bzw. verhinderte Energieabgabe) wird eine lineare Funktion von $ln(C_i)$ angenommen,
die oberste Schicht der Erdoberfläche speichert die Energie und gibt sie wieder ab, die monatliche Abgabe wird als eine lineare Funktion der Temperatur $T_i$ angenommen,
die monatliche Temperaturänderung in Deutschland wird als proportional zur Energieänderung angenommen.
Daraus ergibt sich diese modellierte Bilanzgleichung, die Konstante $d$ erlaubt es, beliebig skalierte Maßeinheiten zu verwenden: $ \hat{T}_i – \hat{T}_{i-1} = a\cdot \hat{T}_{i-1} + b\cdot S_i + c\cdot ln(C_i) + d $ Auf der linken Seite der Gleichung steht die Temperaturveränderung als Repräsentant der Energiebilanzänderung, während die rechte Seite die Summe der Ursachen dieser Energieänderung darstellt. Für die Bestimmung der Koeffizienten $a,b,c,d$ mit der Methode der kleinsten Quadrate wird statt der modellierten Temperatur $\hat{T}_i$ die gemessene Temperatur $T_i$ eingesetzt.
Hier sind zunächst die monatliche Temperatur- und Sonnenstundendaten. Es ist erkennbar, dass die Temperaturdaten den Sonnenstundendaten um etwa 1-2 Monate hinterherhinken, aber insgesamt einen ähnlichen Verlauf haben:
Dies passt zu der Annahme, dass wir tatsächlich einen Speichereffekt haben. Die Bilanzgleichung sollte also sinnvolle Werte liefern. Für die Auswertung des Schätzergebnisses müssen wir allerdings genauer hinschauen.
In dieser Darstellung sind in der 1. Spalte die Werte der jeweiligen Koeffizienten, in der 2. Spalte deren Standardfehler, danach die sogenannte T-Statistik, gefolgt von der Wahrscheinlichkeit, dass die Annahme des von 0 verschiedenen Koeffizienten falsch ist, der sogenannten Irrtumswahrscheinlichkeit. Das bedeutet, dass ein Koeffizient nur dann signifikant ist, wenn diese Wahrscheinlichkeit nahe 0 ist. Dies ist der Fall, wenn die T-Statistik größer 3 oder kleiner -3 ist. Die beiden letzten Spalten beschreiben schließlich das sog. 95% Konfidenzintervall. Das bedeutet, dass mit 95%-iger Wahrscheinlichkeit sich der tatsächliche Schätzwert innerhalb dieses Intervalls befindet.
Koeffizient Std.Fehler t-Wert P>|t| [0.025 0.975] -------------------------------------------------------------------- a -0.4826 0.0142 -33.9049 0.0000 -0.5105 -0.4546 b 0.0492 0.0013 38.8127 0.0000 0.0467 0.0517 c 0.6857 0.9038 0.7587 0.4483 -1.0885 2.4598 d -6.3719 5.3013 -1.2020 0.2297 -16.7782 4.0344
Hier sind die Irrtumswahrscheinlichkeiten der Koeffizienten $c$ und $d$ mit 45% bzw. 23% dermaßen groß, dass wir daraus schließen müssen, dass sowohl $c=0$ also auch $d=0$ sind. $c$ misst die Bedeutung der CO2-Konzentration für die Temperatur. Das bedeutet, dass in Deutschland seit 64 Jahren die CO2-Konzentration keinen statistisch signifikanten Einfluss auf die Temperaturentwicklung hat. Dies aber ist der Zeitraum der größten anthropogenen Emissionen der Geschichte. Dass $d$ ebenfalls den Wert 0 annimmt, ist eher dem Zufall geschuldet, denn diese Konstante hängt von den Maßeinheiten der CO2-Konzentration und der Temperatur ab.
Demzufolge wird die Bilanzgleichung angepasst: $ T_i – T_{i-1} = a\cdot T_{i-1} + b\cdot S_i + d $ mit dem Ergebnis:
Koeffizient Std.Fehler t-Wert P>|t| [0.025 0.975] -------------------------------------------------------------------- a -0.4823 0.0142 -33.9056 0.0000 -0.5102 -0.4544 b 0.0493 0.0013 38.9661 0.0000 0.0468 0.0517 d -2.3520 0.1659 -14.1788 0.0000 -2.6776 -2.0264
Hier ist nun die Konstante $d$ aufgrund des Umstandes, dass $c=0$ ist, wieder mit hoher Signifikanz gültig. Die beiden anderen Koeffizienten $a$ und $b$ haben sich kaum verändert. Sie verdienen eine kurze Diskussion:
Der Koeffizient $a$ gibt an, welcher Teil der als Temperatur gemessenen Energie im Laufe eines Monate wieder abgegeben wird. Das ist fast die Hälfte. Dieser Faktor ist unabhängig vom Nullpunkt der Temperaturskala, bei der Wahl von K oder Anomalien statt °C käme derselbe Wert heraus. Der Wert entspricht etwa dem subjektiven Empfinden, wie sich im Sommer die Zeiten größter Temperatur zeitlich gegenüber dem Maximum der Sonneneinstrahlung verschieben. Der Koeffizient $b$ gibt an, mit welchem Faktor sich die Sonnenstunden in monatliche Temperaturänderung übersetzen.
Das Ergebnis ist nicht nur eine abstrakte Statistik, es lässt sich auch veranschaulichen, indem der monatliche Temperaturverlauf der letzten 64 Jahre mit Hilfe des beschriebenen Modells rekonstruiert wird.
Die Rekonstruktion des gesamten Temperaturverlauf ergibt sich aus der Zeitreihe der Sonnenstunden und einem einzigen Temperatur-Startwert $\hat{T}_{-1}=T_{-1}$, dem Vormonat des Beginns der untersuchten Zeitreihe seit 1959, also hier vom Dezember 1958. Die Rekonstruktion erfolgt mit dieser Rekursion aus den Sonnenstunden über die 768 Monate vom Januar 1959 bis Dezember 2023: $\hat{T}_i = \hat{T}_{i-1} + a\cdot \hat{T}_{i-1} + b\cdot S_i + d$ $(0\leq i < 768 ) $
Hier die vollständige Rekonstruktion der Temperaturdaten im Vergleich der Original-Temperaturdaten:
Der deutlicheren Darstellung wegen werden die letzten 10 Jahre vergrößert dargestellt:
Es fällt auf, dass das Residuum, d.h. die Abweichungen der Rekonstruktion von den tatsächlichen Temperaturen bis zum Ende des untersuchten Zeitraums um 0 herum symmetrisch erscheint und keine offensichtlichen systematischen Abweichungen zeigt. Das Maß des Fehlers der Rekonstruktion ist die Standardabweichung des Residuums. Diese beträgt 2.5°C. Da wir einen langen Zeitraum von 64 Jahren untersuchen, könnte eine Feinanalyse der langfristigen Trends von Original-Temperaturen, Rekonstruktion und Residuum eine mögliche Obergrenze des möglichen Einflusses von CO2 finden.
Feinanalyse des Residuums
Wenn wir von den 3 Kurven Originaltemperaturdaten, Rekonstruktion und Residuum über den ganzen 64-Jahre Zeitraum die mittlere Steigung durch Schätzung einer Ausgleichsgeraden bestimmen, bekommen wir folgende langfristige Werte:
Vom Trend der Originaltemperaturen werden 90% durch die Zahl der Sonnenstunden erklärt. Für weitere Ursachen bleiben also nur noch 10% an nicht erklärter Variabilität übrig. Bis zum Beweis des Gegenteils können wir also annehmen, dass höchstens für diese 10% der Anstieg der CO2-Konzentration verantwortlich ist, also für maximal 0.03° C pro Jahrzehnt während der letzten 64 Jahre. Statistisch kann aber der Beitrag der CO2-Konzentration nicht als signifikant beurteilt werden. Zu bedenken ist, dass mit diesem einfachen Modell sehr viele Einflussfaktoren und Inhomogenitäten nicht berücksichtigt sind, dass also der Einfluss der CO2-Konzentration nicht der einzige Faktor ist, der zusätzlich zu den Sonnenstunden wirksam ist. Deswegen wird der CO2 Einfluss ja auch als statistisch nicht als signifikant bewertet.
Erweiterung — Korrektur durch Approximation der tatsächlichen Einstrahlung
Bislang haben wir die Sonnenstunden als Repräsentant des tatsächlichen Energieflusses verwendet werden. Das ist nicht ganz korrekt, denn eine Sonnenstunde im Winter bedeutet aufgrund des viel flacheren Einfallswinkels deutlich weniger eingestrahlte Energie als im Sommer.
Der jahreszeitliche Verlauf der Wichtung des einströmenden Energieflusses hat diese Form. Mit dieser Wichtung müssen die Sonnenstunden multipliziert werden, um den Energiefluß zu erhalten.
Mit diesen monatlichen Wichtungen wird das Modell aus Sonneneinstrahlung und CO2 erneut bestimmt. Wiederum muss der Beitrag des CO2 wegen mangelnder Signifikanz abgelehnt werden. Daher hier die Rekonstruktion der Temperatur aus dem einstrahlenden Energiefluss etwas besser als die obige Rekonstruktion.
Durch die Korrektur der Sonnenstunden zum Energiefluss hat sich der Standardabweichung des Residuums auf 2.1°C verringert.
Mögliche Verallgemeinerung
Weltweit ist die Erfassung der Sonnenstunden weitaus weniger vollständig als die der Temperaturmessung. Daher können die Ergebnisse für Deutschland nicht einfach weltweit reproduziert werden. Aber es wird mit Satelliten die Wolkenbedeckung bzw. die Reflexion der Sonneneinstrahlung an den Wolken gemessen. Mit diesen Daten kommt man zu ähnlichen Ergebnissen, dass nämlich der Anstieg der CO2-Konzentration allenfalls für 20% der weltweit mittleren Temperaturerhöhung verantwortlich ist. Da diese im Schnitt niedriger ist als die Temperaturerhöhung in Deutschland, führt das am Ende ebenfalls zu einer Obergrenze von 0.03°C pro Jahrzehnt für die Folgen des CO2-bedingten Treibhauseffekts.
Zusammenhang zwischen kurzer Residenzzeit und Ausgleichszeit des temperaturabhängigen linearen Senkenmodells
[latexpage]
Es gibt Forschungsansätze zum CO$_2$ Senkeneffekt, die von der unbestrittenen kurzen Residenzzeit des CO$_2$ ausgehen, die in der Größenordnung von 3 Jahren liegt. Das prominenteste dieser Modelle ist das von Prof. Harde, beschrieben in einem Artikel aus 2019. Der Artikel geht insbesondere auf Gegenargumente ein, die gegen eine frühere Publikation von ihm vorgebracht wurde.
Die Hauptgleichung des Modells von Prof. Harde ist (Gleichung 23) – es werden die im Artikel verwendeten und erklärten Original-Bezeichnungen verwendet:
Prof. Harde schreibt, dass die Bestimmung aller Parameter mit den vorhandenen Daten unterbestimmt ist, und dass nur eine Kombination zwischen $\beta_e$ und $\beta_{\tau}$ bestimmt werden kann, wobei im Prinzip auch einer der beiden Koeffizienten gegen 0 gehen kann. Daher nehmen wir vorläufig an, dass $\beta_{\tau}=0$ ist, was bedeutet, dass sich die konzentrationsabhängige Absorptionskonstante nicht mit der Zeit ändert.
Damit vereinfacht sich die Differentialgleichung: $ \frac{dC(t)}{dt}= e_A(t) + e_{N0}+\beta_e\cdot\Delta T(t) – \frac{1}{\tau_{R0}}\cdot C(t) $ Auf den ersten Blick ist das eine direkte „Übersetzung“ der diskreten Gleichung des temperaturabhängigen linearen Modells (Gleichung 2) – auch hier werden die dort verwendeten Symbole angewandt: $C_{i+1} – C_i = E_i – a\cdot C_i – b\cdot T_i – c $ Auf den ersten Blick haben alle Terme klare Entsprechungen:
Als konstant angenommene natürliche Emissionen $-c\Longleftrightarrow e_{N0}$
Aber die Konstanten $c$ und $e_{N0}$ passen nicht zusammen. $c$ wird als Schätzwert der jährlichen natürlichen Netto-Emissionen mit 13.6 ppm/Jahr ermittelt, während $e_{N0}$ mit 93.3 ppm/Jahr als Vorwissen aller natürlichen Emissionen vorgegeben wird. Demzufolge beschreibt $\tau_{R0}$ auch, wie beschrieben, die Residenzzeit von etwa 3 Jahren, während $\frac{1}{a} \approx 23 a $ in der Größenordnung der Zeitkonstante der Absorptionszeit der Bombentest-Daten (etwa 16 Jahre) liegt. Neuere Berechnungen mit monatsgenauen Messdaten ergeben mit dem temperaturabhängigen linearen Modell $a=0.06$, also $\frac{1}{a} \approx 17 a $.
Um die Modelle inhaltlich aufeinander abzustimmen müssen die „Brutto“ natürlichen Emissionen $e_{N0}$ aufgeteilt werden in die Jahres-„Netto“-Emissionen $-c$ und den restlichen, innerhalb des Jahres re-absorbierten natürlichen Emissionen $e_{Rest}$ (dass dabei ein Austausch mit anderem CO$_2$ stattfindet, steht außer Frage, es geht hier nur um die Menge) $e_{N0} = e_{Rest} – c $ sowie deren zugehörige Temperatur-Koeffizienten $\beta_e = \beta_{Rest} – b$ Ebenso müssen die Kehrwerte der Zeitkonstanten entsprechend angepasst werden. $\frac{1}{\tau_{R0}} = \frac{1}{\tau_{Rest}} + a$ Um die beiden Ansätze kompatibel zu bekommen, muß diese Bedingung erfüllt sein: $e_{Rest} +\beta_{Rest}\cdot\Delta T(t)-\frac{1}{\tau_{Rest}}\cdot C(t) = 0$ und die Temperaturkoeffizienten sollten im gleichen Verhältnis stehen wie die Emissionen: $\frac{beta_{Rest}}{\beta_e} = \frac{e_{Rest}}{e_{N0}}$
Was hilft uns das?
Es erscheint mir wichtig, zu einem grundsätzlich gemeinsamen Verständnis zu kommen, um nicht unnötige Fronten in der Wissenschaft aufzurichten, denn leider gibt es sehr viele Mißverständnisse um die Modelle des Kohlenstoffzyklus.
Beide Konzepte, Residenzzeit und Ausgleichszeit, haben in der Diskussion eine große Rolle gespielt. Sie werden häufig gegeneinander ausgespielt, und daher kann es zum Dialog wesentlich beitragen, die Zusammenhänge beider Konzepte zu verstehen. Dann können die Mosaiksteine des Kohlenstoffzyklus zusammengefügt werden.
Die wichtigste Konsequenz ist zu zeigen, dass die Gleichungen zur Behandlung der der Residenzzeit kompatibel ist zur Gleichung zur Bestimmung der Ausgleichszeit, und dass beide Fragestellungen nicht gegeneinander ausgespielt werden dürfen:
Es ist legitim zu fragen, wie sich anthropogene Emissionen auf die Konzentration auswirken, und es ist wenig hilfreich, diese Frage damit herunterzuspielen, dass es vielfach größere natürliche Emissionen gibt
Es ist auch legitim zu sagen, dass trotz des jährlichen Netto-Senkeneffekts eine Temperaturabhängigkeit der natürlichen Emissionen gibt
Es ist wert zu betonen, dass sich die lineare Temperaturabhängigkeit der Emissionen und die lineare Konzentrationsabhängigkeit der Absorptionen teilweise kompensieren, dass die Gesamtwirkung wie eine Temperaturunabhängigkeit des Senkeneffekt bedeuten, solange die Temperatur linear mit der CO$_2$ Konzentration ansteigt.
Wie funktioniert der Treibhauseffekt?
Über den Treibhauseffekt ist schon viel geschrieben worden, und viele Vergleiche werden angestellt. Vieles davon ist jedoch irreführend oder sogar falsch. Der Treibhauseffekt kommt dadurch zustande, dass bei zunehmendem CO2 ein leicht wachsender Anteil der Infrarot-Strahlung aus den oberen, kalten Schichten der Erd-Atmosphäre (d.h. der Stratosphäre) in den Weltraum abgestrahlt wird. Der Sachverhalt ist im Detail kompliziert, daher ist es auch so einfach, den Bürgern mit Übertreibungen, Verzerrungen oder Lügen Angst zu machen. Hier möchte ich ohne Formeln und anschaulich die Grundlagen des atmosphärischen Treibhauseffektes physikalisch korrekt beschreiben, bei dem das CO2 eine wichtige Rolle spielt.
Aus dem Weltraum betrachtet, erfolgt der Temperaturhaushalt der Erdoberfläche und der Atmosphäre durch
Einstrahlung von kurzwelligem, zum großen Teil sichtbarem Sonnenlicht und durch
Abstrahlung von langwelliger unsichtbarer Infrarotstrahlung.
Wenn der Energieinhalt der Einstrahlung gleich ist wie der Energieinhalt der Abstrahlung, gibt es ein Gleichgewicht, und die Durchschnittstemperatur der Erde bleibt konstant. Eine Erwärmung findet immer dann statt, wenn entweder die Abstrahlung abnimmt oder die Einstrahlung zunimmt, und zwar so lange, bis das Gleichgewicht wiederhergestellt ist.
Die Infrarotabstrahlung ist der einzige Weg, wie die Erde Energie (Wärme) in den Weltraum abgeben kann. Deshalb ist es notwendig zu verstehen, wie die Mechanismen der Infrarot-Abstrahlung funktionieren.
Die Mechanismen der Infrarot-Abstrahlung in den Weltraum
Es gibt nur 2 Möglichkeiten, wie die Erde Energie in den Weltraum abgeben kann:
Die Moleküle der Erdoberfläche oder der Meeresoberfläche strahlen Infrarotwellen bei der Bodentemperatur ab (durchschnittlich 15°C = 288 K).
Die Moleküle der sogenannten Treibhausgase, vorwiegend Wasserdampf und CO2 (in sehr viel geringerem Umfang Methan und einige andere Gase), strahlen Infrarotwellen aus der Atmosphäre heraus ab, bei der jeweils in ihrer Umgebung herrschenden Temperatur. Die anderen Gase der Atmosphäre wie Sauerstoff oder Stickstoff haben keine Möglichkeit, nennenswerte Mengen an Infrarotstrahlung abzugeben. CO2 unterscheidet sich von Wasserdampf darin, dass es nur in einem kleinen Wellenlängenbereich aktiv ist. Andererseits nimmt der Anteil der Wasserdampfmoleküle in der Atmosphäre ab 5 km Höhe sehr schnell ab, weil der Wasserdampf bei Abkühlung wieder zu Wolken kondensiert und dann abregnet. Das können wir daran erkennen: Im Flugzeug in 10km Höhe sind wir stets über den Wolken. Und oberhalb der Wolken gibt es so gut wie keinen Wasserdampf mehr. CO2 ist jedoch bis in die höchsten Schichten der Atmosphäre gleichmäßig vermischt mit den anderen Gasen, vornehmlich Sauerstoff und Stickstoff.
CO2 und Wasserdampf sind also wie zwei konkurrierende Handballmannschaften, von denen die eine (der Wasserdampf) nur bis zu Mittelline laufen darf, und die andere (CO2) sich nur innerhalb eines schmalen Längsstreifens des Spielfeldes bewegen kann. Dieser schmale Längsstreifen wird ein klein wenig breiter, wenn die „CO2 Mannschaft“ mehr Spieler (mehr CO2) bekommt. Das Tor ist für beide Mannschaften das gleiche (der Weltraum) und es erstreckt sich über die ganze Breite des Spielfelds. Solange der Ball noch weit vom Tor entfernt ist, fängt ihn ein anderer Spieler eher auf, als dass er ins Tor gelangt. Dieser andere Spieler spielt den Ball in eine zufällige Richtung wieder ab. Je dichter die Spieler stehen, desto schneller werden die Bälle wieder gefangen und wieder abgespielt. Je näher der Ball zum Tor kommt, desto weiter stehen die Spieler auseinander. Das heißt, dass der Ball dann leichter zwischen den Spielern hindurch ins Tor gelangen kann.
Solange sich noch andere Treibhausgasmoleküle in der Nähe befinden, kann also die Infrarotstrahlung nicht in den Weltraum gelangen (zu dicht stehende Mitspieler), sie wird wieder von den anderen Molekülen aufgefangen und von diesen wieder abgestrahlt. Konkret hat die Infrarotstrahlung in der unteren Atmosphäre nur eine Reichweite von etwa 25m, bis sie wieder von einem anderen Treibhausgasmolekül aufgefangen wird, meist von einem Wassermolekül oder von CO2 . Je dünner die Treibhausgase (weniger Mitspieler) in der Atmosphäre mit zunehmender Höhe werden, desto wahrscheinlicher wird es, dass die Infrarotstrahlung in den Weltraum gelangt.
Daraus kann man schließen, dass es im Prinzip 3 Schichten gibt, aus denen Infrarotstrahlung in den Weltraum gelangt:
Wenn die Luft trocken ist und ohne Wolken, dann gibt es einen Teil des Infrarots, das sog. „atmosphärische Fenster„, das direkt vom Boden aus in den Weltraum strahlt (das ist, wenn es keine oder nur sehr wenige Wasserdampf-Spieler auf dem Feld gibt),
zwischen 2 und 8 km Höhe, durchschnittlich in 5 km Höhe, ist der obere Rand der Wolken, von wo aus die Wasserdampfmoleküle der Wolken einen großen Anteil der Infrarotstrahlung bei durchschnittlich 255 K = -18°C in den Weltraum abgeben
der Anteil Infrarotstrahlung im Wellenlängenbereich um 15 Mikrometer herum (der schmale Streifen des Spielfeldes) wird vom CO2 bis in die hohen kalten Schichten der Stratosphäre transportiert, von wo aus sie bei etwa 220 K = -53°C in den Weltraum abgestrahlt wird.
Dadurch kommt es zu einer Konkurrenzsituation, ob ein Wassermolekül direkt abstrahlen kann oder ob seine Infrarotstrahlung noch von einem CO2-Molekül aufgefangen und in die Höhen der Stratosphäre weitergeleitet wird.
Der Treibhauseffekt
Wie kommt es nun bei einer wachsenden CO2-Konzentration zur verringerten Energieabstrahlung in den Weltraum und damit zu einer Erwärmung?
Dafür ist es wichtig zu wissen, dass mit abnehmender Luft-Temperatur die abgestrahlte Energie stark abnimmt und dass mit zunehmender Höhe die Temperatur abnimmt. Wenn die CO2-Konzentration im Laufe der Zeit zunimmt, dann wird der Wellenlängenbereich, in dem das CO2 für die Abstrahlung „zuständig“ ist, ein klein wenig breiter (der schmale Streifen des Spielfeldes). Das bedeutet, dass ein kleiner Teil der Infrarotstrahlung, die sonst bei 255 K vom Wasserdampf abgestrahlt würde, nun bei 220 K vom CO2 abgestrahlt wird, also mit deutlich niedrigerer Energie. Das bedeutet in der Konsequenz, dass die Energie der Gesamtabstrahlung leicht vermindert wird — die als konstant angenommene Einstrahlung des Sonnenlichts also überwiegt und damit ein Erwärmungseffekt eintritt.
Der Effekt ist allerdings nicht so groß, wie er gewöhnlich in den Medien dargestellt wird: Denn seit dem Beginn der Industrialisierung hat bei einer Steigerung der CO2-Konzentration um 50% von 280 ppm auf 420 ppm die Infrarotabstrahlung der Erde um grade mal 2 Watt/qm abgenommen. Das sind bei einer durchschnittlichen Abstrahlung von 240 Watt/qm1nur knapp 1% in 170 Jahren. Jetzt kennen wir die erste Möglichkeit, wie das eingangs erwähnte Gleichgewicht durch eine Veränderung der Abstrahlung gestört wird. Aber bisher nur in sehr geringem Umfang.
Die Auswirkungen veränderter Einstrahlung sind größer als der Treibhauseffekt
Die zweite Möglichkeit, das Gleichgewicht zu stören, sind die Änderungen der Einstrahlung. Die Schwankungen der Einstrahlung, die durch wechselnde Wolkenbedeckung hervorgerufen werden, sind bis bis zu 100 mal größer als die genannten 2 W/qm (was Besitzer von Photovoltaikanlagen bestätigen können), die dem Treibhauseffekt zuzurechnen sind. Damit zusammenhängend nimmt in Deutschland laut Deutschem Wetterdienst die Zahl der Sonnenstunden seit 70 Jahren um 1,5% pro Jahrzehnt zu2. Also in weniger als 10 Jahren ein größerer Effekt als durch den Treibhauseffekt in 170 Jahren. Für einen genaueren zahlenmäßigen Vergleich müssen beide zu vergleichenden Messdaten im betreffenden Zeitraum vorhanden sein: In dem Zeitraum der letzten 40 Jahre gab es durch die Zunahme der Sonnenstunden in Deutschland die 6-fache Erwärmung im Vergleich zum Treibhauseffekt. Die Änderungen der Sonneneinstrahlung sind also in weitaus größerem Maße für die Erwärmung der Erde verantwortlich als die Änderungen der CO2-Konzentration.
Damit ist der allgemein bekannte positive Treibhauseffekt beschrieben und eingeordnet. Es gibt also keinen Grund, mit dem Treibhauseffekt Angst und Panik zu begründen. Und es ist dringend notwendig, dass sich die Forschung, die Medien und die Politik mit dem Einfluss und den Ursachen der zunehmenden Sonnenstunden beschäftigen. Eine erste genauere Analyse der Daten des Deutschen Wetterdienstes ergibt, dass die Änderungen der Sonnenstunden in Deutschland die monatlichen Temperaturen der letzten 70 Jahre zu 90% erklären, und dass der Treibhauseffekt in Deutschland keinen statistisch signifikanten Einfluss hat.
Es fehlt noch ein wichtiges Phänomen: In der Antarktis führt der Erhöhung der CO2-Konzentration zur Abkühlung, das nennt man den negativen Treibhauseffekt.
Der negative Treibhauseffekt in der Antarktis
Es gibt einen eigenartigen Effekt, wenn wir die eine Gegend der Erde betrachten, wo die Erdoberfläche zeitweise noch kälter ist als die 220 K, bei der die Infrarotabstrahlung des CO2 in den Weltraum erfolgt: In der Antarktis, wo Temperaturen unter -60°C (=213 K) keine Seltenheit sind, finden wir tatsächlich einen negativen Treibhauseffekt. Wo also eine Abkühlung bei zunehmender CO2-Konzentration stattfindet. Bei zunehmender CO2-Konzentration nimmt zwar wie sonst auch der Anteil der Infrarotabstrahlung des CO2 zu. Jetzt ist aber die CO2-Schicht mit 220 K wärmer als die Erdoberfläche der Antarktis. Und damit wird vom CO2 in der Atmosphäre mehr Wärme abgeführt als von der Erdoberfläche darunter. Mit anderen Worten: In der Antarktis gilt, dass aufgrund der Zunahme der CO2-Konzentration die Wärmeabfuhr in den Weltraum verstärkt wird, und es demnach dort kälter wird und nicht wärmer.