Wir können weiterleben – ohne Sorgen wegen CO2

Sie glauben das nicht? Wo uns doch täglich Medien und Politik einhämmern, dass es gar keine Emissionen mehr geben darf, um das berühmte Netto Null zu erreichen? 

Es hilft uns weiter, erst einmal den Originaltext des Pariser Klimaabkommens zu lesen:

  • Die Länder müssen das Emissionsmaximum so bald wie möglich erreichen, um
  • ein Gleichgewicht zwischen vom Menschen verursachten Emissionen durch Quellen und Absorptionen durch Senken von Treibhausgasen in der 2. Hälfte des Jahrhunderts zu erreichen (bei einer Temperaturerhöhung um max. 1.5° C)

Im Klartext heißt also Netto-Null, dass die Quellen von Emissionen mit den Absorptions-Senken im Gleichgewicht sein müssen. Es heißt nicht, dass die Emissionen Null sein müssen, es heißt nur, dass es gleich viele Absorptionen wie Emissionen gibt. 

Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Die Analyse der einzelnen Mechanismen hat zusammen mit der mittlerweile falschen Annahme exponentiell wachsender Emissionen zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen für immer in der Atmosphäre verbleibt.

Zu einer anderen Schlussfolgerung kommen wir jedoch, wenn wir die logisch gleichwertige Frage stellen: „Wie viel CO2 verbleibt nicht in der Atmosphäre?“. Das verändert alles.  Die Menge an CO2, die nicht in der Atmosphäre verbleibt, kann anhand der direkten Messungen von Emissionen und Konzentrationsänderungen berechnet werden, ohne dass wir die Absorptionsmechanismen im Einzelnen untersuchen müssen. Denn für das CO2 gilt die Massenbilanzgleichung, die besagt, dass nichts verloren geht:

Konzentrationsänderung = Emissionen – Absorptionen 

Dass bereits heute mehr als die Hälfte der menschengemachten Emissionen von den Ozeanen und der Photosynthese der Pflanzen und in der Folge auch von Tieren wieder geschluckt werden, ist allgemein bekannt und unstrittig, aber viele befürchten, dass ein Rest für immer in der Atmosphäre verbliebe.

Das trifft so nicht zu: In einer wissenschaftlichen Publikation und in einem leichter verständlichen Blogbeitrag wird mit den Messdaten der letzten 70 Jahre nachgewiesen, dass jedes Jahr etwa 2% der über 280 ppm hinausgehenden CO2-Konzentration von den Ozeanen und den Pflanzen der Atmosphäre wieder entzogen werden. 

Diese 280 ppm ergeben sich aus dem Gleichgewicht aus natürlichen Emissionen und Absorptionen ohne anthropogene Emissionen.

Die Messdaten, insbesondere die der CO2-Konzentration, sind seit den 50er Jahren sehr genau. Mit den Messwerten von 1950-2000 konnten die tatsächlichen CO2-Konzentrationen von 2000-2020 exakt vorhergesagt werden, wie wir rückblickend sehen können.  Die Qualität der Vorhersage ist ganz hervorragend.

Um zu verstehen, wie der Mechanismus der Emission (die Quellen) und Absorption (die Senken) funktioniert, schauen wir uns einen Vergleich aus der vertrauteren Welt eines Geldkontos an.

Das Gleichnis eines speziellen Geldkontos

Stellen Sie sich vor, Sie haben ein Konto mit einem Kontostand von 413 € zu Beginn des Jahres 2020. In dieses Konto werden jedes Jahr 4,50 € einbezahlt.

Nun hat sich der Staat eine eigenartige Vermögenssteuer für dieses Geldkontos einfallen lassen: Es gibt einen Freibetrag von 280 €.  Der Rest des Guthabens auf dem Konto wird am Jahresende mit 2% besteuert.

Was passiert? Wie entwickelt sich der Kontostand? Am Ende des Jahres 2020 sind 417,50 € auf dem Konto, davon werden 0,02*(417,50-280) = 2,75 abgeführt, es verbleiben also 414,75 €

Jahr Am 1.1. Einzahlung Besteuerung Abzug Am 31.12.
2020 413,00 4,50 0,02*(417,50-280,00) 2,75 414,75
2021 414,75 4,50 0,02*(419,25-280,00) 2,78 416,46
2022 416,46 4,50 0,02*(420,96-280,00) 2,82 418,15
….          
2050 452,77 4,50 0,02*(457,27-280,00) 3,55 453,72
         
2080 474,46 4,50 0,02*(478,96-280,00) 3,98 474,98

Man sieht, der Kontostand wächst zwar an, aber die Abzüge erhöhen sich jedes Jahr. Man kann leicht ausrechnen, dass bei einem Kontostand von 505 € am Jahresende die ganzen einbezahlten 4,50 € wieder abgeführt werden. Das heißt, beim Kontostand 505 € ist die berühmte Netto-Null Situation erreicht. Weiter kann das Konto bei jährlichen 4 ,50 € Einzahlungen nicht mehr anwachsen.   Und es dauert ziemlich lange, bis dieser Zustand erreicht ist: Nach 60 Jahren wäre man erst bei 474,98 €.

Zukunftsszenario

Dieses Geldkonto-Gleichnis beschreibt ziemlich genau den CO2-Haushalt der Atmosphäre. Der Kontostand entspricht der Konzentration des CO2 in der Atmosphäre, zu Beginn des Jahres 2020 waren das etwa 413 ppm („parts per million“ = Anteile CO2 pro 1 Million Luftmoleküle).

Die Einzahlungen entsprechen den jährlichen weltweiten Emissionen, also das, was wir in die Atmosphäre hineingeben.  Das sind aktuell etwa 4,5 ppm weltweit, was einem Gewicht von etwa 36 Milliarden Tonnen CO2 entspricht.

Nun hat die Internationale Energieagentur mit ihrer weltweiten Statistik seit 1850 geschätzt, wieviel CO2 in Zukunft ausgestoßen werden wird. Dabei gibt es ein Szenario, bei dem angenommen wird, dass die jetzt grade geltenden Gesetze und Regelungen in allen Ländern der Erde unverändert weiter fortgesetzt werden, das sogenannte „Szenario der ergriffenen Maßnahmen“. Also möglicherweise existierende emissionssenkende Gesetze, aber keine künftigen weiteren Maßnahmen zur Emissions-Senkung.

Dieses Szenario besagt, dass die weltweiten Emissionen über die nächsten 10 Jahre etwa gleichbleiben, und dann ganz leicht mit etwa 0,3% pro Jahr sinken. Das bedeutet, dass es weltweit im Jahre 2100 wieder genauso viele Emissionen geben wird wie im Jahre 2005. Das kann bei einzelnen Ländern schon dazu führen, dass die Emissionen etwas stärker sinken, dagegen in den ärmsten Entwicklungsländern aufgrund des Nachholbedarfs Emissionen erst noch anwachsen. Aber es wird nirgendwo dramatische Auswirkungen geben, die den Wohlstand in Frage stellen.

Mit den Zahlen der Internationalen Energie Agentur haben wir herausgefunden: Der CO2-„Kontostand“ beträgt im Jahre 2080 etwa 475 ppm, und wird darüber hinaus nicht mehr ansteigen. Sensationelles Ergebnis.

Und was heißt das für das Klima?

Wir wollen uns hier ganz bewusst nicht auf die möglicherweise berechtigten Zweifel einlassen, ob nun das CO2 überhaupt einen Einfluss auf die globale Mitteltemperatur und in der Folge auf das Klima hat oder nicht. Unbestritten ist seit dem Beginn der Industrialisierung die CO2 Konzentration von 280 auf 413 ppm angewachsen, also um 133 ppm. 

Wir akzeptieren hier die weit verbreitete Auffassung, dass der Anstieg der globalen Durchschnittstemperatur um 1° C seit dem Beginn der Industrialisierung ausschließlich diesem Anwachsen der CO2 Konzentration geschuldet ist.

Der künftige Anstieg der CO2-Konzentration ist 475 – 413 = 62 ppm.  Das ist knapp die Hälfte des bisherigen Anstiegs von 133 ppm. Damit geht konsequenterweise einher, dass bis dann auch die Temperatur allenfalls nochmal um ein halbes Grad ansteigt, also insgesamt um 1,5° seit Beginn der Industrialisierung.   

Die gute Nachricht: Mit den heutigen CO2 -Emissionen und deren Senkung durch Effizienzsteigerung von 3% pro Jahrzehnt wird das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt, ganz ohne wohlstandsschädigende Maßnahmen ergreifen zu müssen.




Versagen die CO2-Senken — oder deren Modelle?


[latexpage]

Einleitung – das Modell-Dilemma

Es besteht weithin Konsens darüber, dass die seit 1850 angestiegenen CO2-Konzentration in der Atmosphäre von den seither stark angewachsenen anthropogenen CO2-Emissionen herrührt. Seit rund 10 Jahren sind die anthropogenen Emissionen im Rahmen der Messgenauigkeit konstant, und im weiteren Verlauf ist keine größere Abweichung von diesem Trend zu erwarten. Zum Zweck der Veranschaulichung werden für das Zukunftsszenario konstante Emissionen angenommen, in Anlehnung an das Stated Policy Szenario der IEA. Diese bestreitbare Annahme ist für die eigentliche Rechnung irrelevant, da diese ausschließlich mit Messungen vergangener Daten erfolgt. Die gemessenen Emissionen und das angenommene künftige Emissionsszenario wird in Abb. 1 gezeigt. Die Verwendung der etwas ungewöhnlichen Maßeinheit ppm für Emissionen ist der Notwendigkeit des Vergleichs von Emissionen und Konzentration geschuldet ((1 ppm = 2,123 Gt C = 7,8 Gt CO2).

Abb. 1: Gemessene anthropogene Emissionen (braun), Szenario künftiger konstanter Emissionen (grau)

Die anthropogenen Emissionen verbleiben nicht vollständig in der Atmosphäre. Deren Konzentration wächst bislang ungefähr nur halb so stark an, als wenn alle anthropogenen Emissionen in der Atmosphäre blieben, wie in Abb. 2 dargestellt. Dieser Zusammenhang gilt seit etwa 1950, als die Phase des stärkstens Emissionswachstums von etwa 4% pro Jahr begann, das bis in Mitte der 70-er Jahre anhielt.

Abb. 2: Verlauf der tatsächlichen CO2-Konzentration in der Atmosphäre (blau), hypothetischer Verlauf, wenn alle anthropogenen Emissionen in der Atmosphäre geblieben wären (violett).

Der etwas merkwürdige Umstand, dass zwischen 1875 und 1945 die tatsächliche Konzentration größer ist als die hypothetische Konzentration, bei der alle anthropogenen Emissionen in der Atmosphäre bleiben, ist wahrscheinlich darauf zurückzuführen, dass die in der ersten Hälfte des 20. Jahrhunderts signifikant großen Emissionen aufgrund von Landnutzungsänderungen hier nicht berücksichtigt wurden. Auch dies spielt für die hier vorgenommenen Rechnung nur sehr bedingt eine Rolle, weil für die Berechnung des Ergebnisses nur Daten nach 1960 verwendet werden.
Das verminderte Ansteigen der Konzentration im Vergleich zu den anthropogenen Emissionen hat seine Ursache in den beiden großen Senkensystemen, den Landpflanzen und den Weltmeeren, die beide beträchtliche Mengen an CO2 absorbieren. Die wichtige Frage ist, wovon diese Absorption abhängt, und noch wichtiger ist, wie sich die Stärke der Absorption weiterentwickelt. Dies wird reflektiert in den verschiedenen Senkenmodellen. Von den vielen Spielarten dieser Modelle werden heute zwei wichtige, prinzipiell verschiedene Repräsentanten untersucht:

  • das lineare Senkenmodell, bei dem die Senkenwirkung eine strikt lineare Funktion der CO2-Konzentration ist,
  • das Berner Modell, das davon ausgeht, dass etwa 20% der Emissionen für sehr lange Zeit in der Atmosphäre verbleibt.

Welches der Modelle richtig ist, hat schwerwiegende Auswirkungen auf den Umgang mit CO2. Wenn ein Teil davon quasi für immer in der Atmosphäre bleibt, impliziert das letzten Endes die Notwendigkeit der Reduktion der anthropogenen Emissionen auf 0, also eine Budgetierung, was in Deutschland und der EU aktuell politische Zielvorstellung ist. Wäre hingegen das lineare Modell korrekt, könnten wir uns darauf verlassen, dass mit steigender Konzentration auch entsprechend mehr CO2 absorbiert wird und das Pariser Klimaziel, das Gleichgewicht von CO2 Quellen und Senken auch bei kaum verändertem Emissionsverhalten in der 2. Hälfte dieses Jahrhunderts erreicht wird.

Deswegen beschäftigt sich dieser Beitrag damit, ein Kriterium zu finden, um mit existierenden Messdaten die Korrektheit des einen oder anderen Modells zu belegen.

Was sind Senken? Eine formale Beschreibung

Zunächst wird die messbare Senkenwirkung $S_i$ des Jahres $i$ als Bilanzgleichung als Folge der Erhaltung der Gesamtmasse des CO2 mit der Kontinuitätsgleichung bestimmt. Der Konzentrationszuwachs $G_i$ der Atmosphäre ergibt sich als Differenz aller Emissionen, also der anthropogenen Emissionen $E_i$ sowie der natürlichen Emissionen $N_i$, und der gesamten Absorptionen $A_i$ :
$G_i= C_i – C_{i-1} = E_i + N_i – A_i$ (Gleichung 1)
Die globale Senkenwirkung $S_i$ ist der Teil der anthropogenen Emissionen $E_i$, die nicht zum Anwachsen der Konzentration $G_i$ beitragen:
$S_i = E_i – G_i$ (Gleichung 2)
Diese Senkenwirkung ist aus den verfügbaren Emissions- und CO2-Konzentrations-Daten (monatliche Konzentrationsdaten von Mauna Loa) ohne Modellierung ermittelbar und in Abbildung 3 als Zeitserie ab 1960 gezeigt. Die Daten des monatlich gemessenen Konzentrationszuwachses sind desaisonalisiert, indem jeweils die Differenz zum gleichen Vorjahresmonat bestimmt wird. Emissionen und Konzentration sind in der gleichen Maßeinheit ppm gemessen (1 ppm = 2,123 Gt C = 7,8 Gt CO2)

Abb. 3: Monatliche Emissionsdaten (blau), monatlicher Konzentrationszuwachs (orange) und monatliche Senkenwirkung (grün). Die Senkenwirkung wird hier mit negativem Vorzeichen dargestellt, um sie vom Konzentrationswachstum graphisch zu trennen.

Demzufolge ist die Senkenwirkung auch die Differenz zwischen Absorptionen $A_i$ und natürlichen Emissionen $N_i$
$S_i = A_i -N_i $ (Gleichung 3)
Daraus folgt auch, dass die — mit großen Unsicherheiten behafteten — Emissionen durch Landnutzungsänderungen zunächst als zu den unbekannten natürlichen Emissionen gehörig gerechnet werden.

Die so definierte globale Senkenwirkung ist einer einfachen Messung zugänglich. Daher wird eine Methode gesucht, um mit der gemessenen Senkenwirkung das jeweilige Senkenmodell zu bewerten. Ziel dieser Untersuchung ist nicht, die Korrektheit der jeweiligen Modelle aufgrund der jeweils angenommenen Mechanismen zu bewerten, sondern einzig und allein, ein mathematisch statistisches Kriterium zu finden, um aufgrund von Messdaten zu entscheiden, welche Modellklasse besser mit der Realität übereinstimmt1.

Die beiden Senkenmodelle

Das lineare Senkenmodell

Es werden 2 Senkenmodelle gegenübergestellt. Das eine, das „lineare Senkenmodell“ oder auch „Badewannenmodell“ geht davon aus, dass die Senkenwirkung im Jahre $i$, $S_i$ streng linear mit der CO₂-Konzentration (des Vorjahrs) $C_{i-1}$ anwächst (eine genauere Analyse ergibt, dass der Erwartungswert der Zeitdifferenz zwischen Konzentration und Senkenwirkung etwa 15-18 Monate beträgt):
$S_i = a\cdot C_{i-1} + b = a\cdot(C_{i-1} – C^0)$ (Gleichung 4)

wobei $C^0=-b/a$ die angenommene präindustrielle Gleichgewichtskonzentration ohne anthropogene Emissionen darstellt.
Aus den Daten des Zeitraums 1960-2025 ergeben sich diese Schätzwerte:
$a=0,0174, b=-4,87, C^0 =280 $ ppm
Der Schätzwert der Gleichgewichtskonzentration $C^0$ stimmt bemerkenswert gut mit der gewöhnlich angenommenen präindustriellen Konzentration von 280 ppm überein.

Bei der Modellgleichung handelt es sich um eine Differenzialgleichung 1. Ordnung mit der Impulsantwort
$IRF^{linear}(t)=e^{-\frac{t}{\tau}}$
mit $\tau=1/a\approx 57 $ Jahre.
Entscheidend ist, dass die Impulsantwort vollständig auf 0 abklingt, was bedeutet, dass das atmosphärische CO₂ mit der Zeit vollständig von den Senken absorbiert wird.

Abb. 4: Lineares Senkenmodell, Impulsantwort der atmosphärischen Konzentration, Zeitkonstante 57 Jahre
Das Berner Modell

Um nicht voreilig falsche Schlussfolgerungen aus dem Berner Modell zu ziehen, erscheint es wichtig, zunächst einen Vorläufer des Berner Modells zu betrachten, das sogenannte 2-Boxen-Modell. Ausgangspunkt des 2-Boxen-Modells ist die im Prinzip richtige Überlegung, dass auch die CO₂-Senken, die Ozeane und die Landpflanzen, endlich sind und nur eine begrenzte Menge an CO₂ aufnehmen können. Das einfachste Modell, das diesen Umstand berücksichtigt, ist das 2-Boxen-Modell gemäß Abb. 5, wonach die Atmosphäre die eine Box darstellt, die Ozeane zusammen mit den Landpflanzen die 2. Box.

Abb. 5: Das 2-Boxen Modell

Diese 2. Box ist um den Faktor $k$ größer als die erste Box. Um den Effekt zu verdeutlichen, wird $k=3$ angenommen. Es erscheint extrem, dass die Ozeane und die Landpflanzen zusammen nur 3-mal größer angenommen werden als die Atmosphäre. Aber das ist tatsächlich der Wert, von dem die aktuelle Klimaforschung (z.B. Prof. Marotzke bei Markus Lanz, 10. Juli 2025, Minute 21:30) ausgeht, obwohl bekannt ist, dass alleine die Ozeane insgesamt etwa 50-mal so viel CO₂ gebunden haben wie die Atmosphäre. Beim Berner Modell ist der Faktor $k$ eher bei 4. Wenn man sich vorstellt, dass der aufnehmende Container tatsächlich nur 3-mal größer ist als die Atmosphäre, dann ist auch klar, dass von jedem zusätzlichen CO₂-Eintrag in die Atmosphäre am Ende, d.h. im Gleichgewichtszustand, 25% in der Atmosphäre zurückbleiben, und nur 75% von den Senken aufgenommen werden können. Dies wird mit der Impulsantwort verdeutlicht.

Abb. 6: 2-Boxen Modell mit k=3, Verlauf Atmospäre (blau), Verlauf (oberer) Ozean (orange)

Das Berner Modell ist ein 4-Boxen-Modell. Es unterteilt den Ozean in 2 Teile. Während in dem oberen Teil der Gasaustausch mit einer ähnlichen Zeitkonstante wie beim linearen Modell geschieht (da dafür nur die oberste Schicht „Mixed Layer“ berücksichtigt wird, ist der Austausch noch schneller als beim linearen Modell) , geschieht der Fluss in die Tiefsee durch eine sehr langsame Diffusion. Die 4. Box repräsentiert die Landpflanzen. Dadurch, dass die Tiefsee durch den langsamen Diffusionsprozess für Hunderte von Jahren „abgeschirmt“ ist, erklärt sich die vermeintlich kleine „Ozean-Box“ und der daher große konstante Rest von über 20% in der Atmosphäre.

Abb 7: Die 4 Boxen des Berner Modells (Aus Präsentation „Simulationen des atmosphärischen CO2 mit einem
einfachem globalen Kohlenstoffmodell“, Prof. Martin Heimann, April 2024 bei 4Pi-Solutions)

Die publizierte Näherungsgleichung des Bern-Modells ist
$ IRF^{Bern}(t) =a_0 + \sum_{i=1}^3 a_i\cdot e^{-\frac{t}{\tau_i}}$ (Gleichung 5)
mit
$a_0=0.21787, a_1=0.22896, a_2=0.28454, a_3=0.26863$,
$\tau_1=381.33, \tau_2=34.785, \tau_3=4.1237$.
Die mathematische Form der Näherungslösung und die zitierte Publikation suggerieren, dass es sich um 4 parallele Prozesse handelt. Das ist aber nicht so, es ist nur eine Näherungslösung eines komplexen 4-Boxen-Prozesses, um damit den Prozess einfacher als gewichtete Summe linearer Prozesse formulieren zu können.
Abb. 6 zeigt die Impulsantworten (IRF) des Bern-Modells (orange) im Vergleich zum obigen linearen Modell (grün) und zum 2-Boxen-Modell (magenta).

Abb. 8: Die Impulsantworten des linearen Modells (grün), des 2-Boxen Modells (magenta) und des Berner Modells (orange)

Während zu Beginn der Konzentrationsabfall des Berner Modells stärker ist als beim linearen Modell, wird der Verlauf bald flacher, sodass nach 100 Jahren nur 60% absorbiert sind, beim linearen Modell sind es da bereits 85%. Das 2-Boxen-Modell liegt vom Verlauf her zwischen dem linearen und dem Berner Modell, langfristig geht es ähnlich wie das Berner Modell in die Sättigung, d.h. es bleibt ein substantieller Teil des CO₂ in der Atmosphäre.

Anwendung auf den realen Emissionsverlauf

Der entscheidende Test erfolgt mit den echten gemessenen Daten, den gemessenen anthropogenen Emissionen gemäß Abb. 1.
Durch Faltungen mit den beschriebenen jeweiligen Impulsantworten ergeben sich die Konzentrationsverläufe der beiden Modelle und einer natürlichen Gleichgewichtskonzentration von 285 ppm (Abb. 9). Mit den Zeitreihen bis Ende 2024 sind die Unterschiede der Modelle bei der Rekonstruktion der gemessenen CO2-Konzentration sehr gering (Da die Messdaten vor 1960 ohnehin unzuverlässig sind, sind die Abweichungen vor 1960 von untergeordnetem Interesse). Zwischen 1960 und 2020 stimmen nicht nur die beiden Modelle untereinander überein, sondern auch mit den gemessenen Konzentrationsdaten.

Abb. 9: Gemessener Konzentrationsverlauf (blau), Rekonstruktion der Konzentration mit linearem Modell (grün) und Rekonstruktion der Konzentration mit Berner Modell (orange)

Es ist aus Abb. 9 aber deutlich erkennbar, dass die Senkenwirkung des Berner Modells im Vergleich zum linearen Modell auf lange Sicht deutlich nachlässt und als Folge davon die Konzentration ab 2030 stärker anwächst als beim linearen Modell. Deswegen wird für beide Modelle die Senkenwirkung als Vergleichskriterium berechnet, auf die gleiche Weise wie bei den realen Messdaten.

Durch Differenzbildung jeweils benachbarter Datenpunkte aus dem modellierten Konzentrationsverlauf wird das Konzentrationswachstum bestimmt (Gleichung (1)). Die für das Unterscheidungskriterium wichtige gemessene Senkenwirkung wird aus der Differenz zwischen gemessenen Emissionen und dem so bestimmten Konzentrationswachstum nach Gleichung (2) bestimmt. Die daraus ermittelten jeweiligen Senkenwirkungen sind in Abbildung 10 zusammengefasst.

Abb. 10: Gemessene Emissionen (grau), Senkenwirkung des linearen Modells (grün) und Senkenwirkung des Berner Modells (orange)

Wiederumg bestätigt sich, dass das lineare Modell und das Berner Modell sich bis 2020 nur sehr geringfügig unterscheiden. Allerdings werden die Unterschiede danach sehr groß, die Senkenwirkung des Berner Modells geht bis Ende des Jahrhundert nahezu in die Sättigung (aber nicht gegen 0), während die Senkenwirkung des linearen Modells sich den Emissionen im Sinne des Gleichgewichts von Senken und Quellen vom Pariser Klimaabkommens nähert.

Um schon heute eine Aussage zur Gültigkeit des jeweiligen Modells machen zu können, wird ein Kriterium benötigt, mit dem man beurteilen kann, ob sich bereits in den Daten der Vergangenheit ein messbarer Unterschied der jeweiligen Senkenwirkung feststellen läßt.

Kriterium zur Unterscheidung des linearen Modells von den „abflachenden“ Modellen

Ausgehend von Gleichung (4), kann der relative Senkeneffekt bzw. das Senkenverhältnis eines beliebigen Senkenmodells zu jedem Zeitpunkt dadurch beschrieben werden, indem die Absorptionskonstante $a$ des linearen Modells zu einer zeitabhängigen Variablen $a_i$ modifiziert wird:
$S_i = a_i\cdot(C_{i-1} – C^0)$
Der Wert dieser zeitabhängigen relativen Senkenwirkung oder Senkenverhältnis $a_i$ ist definiert als Verhältnis der aus Emissionen und Konzentrationswachstum abgeleiteten Senkenwirkung $S_i$ und der über die präindustrielle Gleichgewichtskonzentration $C^0$ ppm hinausgehende Konzentration des Vorjahres2:
$a_i = \frac{S_i}{C_{i-1}-C^0}$
In Abb. 11 werden diese relativen Senkenwirkungen, das „Senkenverhältnis“ $a_i$ für das lineare Modell (grün) und das Bern-Modell (orange) dargestellt.

Abb. 11: Verlauf der relativen Senkenwirkung (Senkenverhältnis) beim linearen Modell (grün) und beim Berner Modell (orange)

Nach einem leichten Anstieg der relativen Senkenwirkung während der Phase exponentiellen Emissionswachstums bis 1975 ist beim Berner Modell ab 1980 ein deutlicher Abfall der relativen Senkenwirkung erkennbar, währen die relative Senkenwirkung beim linearen Modell erwartungsgemäß weitgehend konstant ist.

Um aus dieser graphischen Veranschaulichung mit Daten der Vergangenheit statistisch auswertbare Messdaten zu erhalten, wird der Verlauf der relativen Senkenwirkung im Zeitraum der 42 Jahre von 1980 bis 2022 jeweils mit einer Geraden approximiert (Abb. 12):

Abb. 12: Senkenverhältnis des linearen Senkenmodells (grün) und dessen Ausgleichsgerade (türkis), Senkenverhältnis des Berner Modells (orange) und dessen Ausgleichsgerade (rosa).

Der Trend der beiden Kurven wird durch die Steigung der Geraden gut wiedergegeben. Die Steigung dieser Geraden ist daher das gesuchte signifikante Unterscheidungskriterium der beiden Modelle. Aus der Kleinste-Quadrat Schätzung der Geradengleichung ergibt sich auch der Standard-Fehler der Steigung. Diese beiden Messwerte werden nun mit ihren Fehlerverteilungen in einem Diagramm aufgetragen. Um ein dimensionsloses Ergebnis zu erhalten, wird der Quotient der Steigung und des Erwartungswertes am Mittelpunkt des Zeitraums aufgetragen und als relative Steigung (in %) als Wert auf der X-Achse von Abb. 13 genutzt. Das Diagramm zeigt die Wahrscheinlichkeitsverteilungen für die relative Steigung beider Modelle.

Abb. 13: Wahrscheinlichkeiten des Steigungstrends des Senkenverhältnisses im Zeitraum 1980-2020 für lineares Modell (grün) und Berner Modell (orange)

Die beiden Wahrscheinlichkeitsverteilungen sind so deutlich disjunkt, dass damit ein Kriterium gefunden ist, in dem sich die beiden Modelle sehr stark unterscheiden, und zwar bereits während Zeitraum der letzten 40 Jahre. Im Klartext heißt das, dass es kaum Trendabweichungen des Senkenverhältnisses von 0 beim linearen Modell gibt, während beim Berner Modell seit 1980 ein Trend eine relative Verringerung des Senkenverhältnisses von 0,4% pro Jahr stattfindet, ausgehend von einem Wert, der 1980 noch größer als beim linearen Modell war aber bereits jetzt um einiges geringer, wie aus Abb. 12 hervorgeht.

Die entscheidende Frage ist nun natürlich, wie sich die echten gemessenen Daten bezügliche dieses Kriteriums verhalten, und damit welches der beiden Modelle eher mit den realen Daten übereinstimmt.

Die relative Senkenwirkung der gemessenen Daten

Der entscheidende Test erfolgt mit den echten gemessenen Daten. Mit den Zeitreihen bis Ende 2024 sind, wie oben gezeigt, die Unterschiede der Modelle bei der Rekonstruktion der gemessenen CO2-Konzentration sehr gering (Da die Messdaten vor 1960 ohnehin unzuverlässig sind, sind die Abweichungen vor 1960 von untergeordnetem Interesse).

Deswegen werden die aussagekräftigeren Verläufe des Konzentrationswachstums und des gemessenen Senkeneffekts betrachtet. Da sind in der Tat bereits heute leichte Unterschiede erkennbar. Da die gemessene Senkenwirkung (blau) extrem starken kurzfristigen Schwankungen unterliegen, werden diese geglättet (violett). Diese Operation verfälscht den langfristigen Trend nicht. Zum Vergleich werden in Abb 14 die gemessenen Senkenwirkung als jährliche „Rohdaten“ sowie als deren geglätteter Verlauf im Vergleich zum linearen und Berner Modell dargestellt.

Abb. 14: Anthropogene Emissionen (grau), jährliche Senkenwirkung (blau), geglättete jährliche Senkenwirkung (violett), lineares Senkenmodell (grün), Berner Modell (orange).

Die Modellwerte beider Modelle sind als Einzelwerte immer noch innerhalb der großen statistischen Schwankungen der gemessenen Senkenwirkung. Aber es deuten sich ganz leichte Trendunterschiede an.

Dies ist aber erst in der Darstellung des Senkenverhältnisses bzw. der relativen Senkenwirkung in Abb. 15 deutlich erkennbar:

Abb. 15: Relative Senkenwirkung (Senkenverhältnis): Senkenverhältnis von Meßdaten (blau), Senkenverhältnis von Meßdaten mit geglätteter Senkenwirkung (violett), Senkenverhältnis lineares Modell (grün), Senkenverhältnis Berner Modell (orange)

Auch das Senkenverhältnis der geglätteten gemessenen Senkenwirkung wird im Zeitraum 1980-2022 durch eine Gerade appoximiert, deren Steigung mit Standardfehler berechnet und in ein gemeinsames Diagramm (Abb. 16) mit den Ergebnissen der beiden Modelle eingetragen wird.

Abb. 16: Wahrscheinlichkeiten des Steigungstrends des Senkenverhältnisses im Zeitraum 1980-2020 für die gemessene, geglättete Senkenwirkung (violett), sowie für lineares Modell (grün) und Berner Modell (orange)

Das Ergebnis ist unmissverständlich. Mit der gemessenen Senkenwirkung der letzten 4 Jahrzehnte ist nur das lineare Senkenmodell kompatibel. Entgegen dem oberflächlichen Augenschein kann das bereits seit 1980 einsetzende Nachlassen der relativen Senkenwirkung des Berner Modells nicht mit den gemessenen Werten in Übereinstimmung gebracht werden. Demnach ist das Berner Modell nicht mit der Realtität kompatibel.

Das gleiche gilt auch für die anderen Modelle wie das Budgetmodell (da ist die Abweichung von der Realität noch deutlich größer als beim Berner Modell) oder auch für das oben beschriebene 2-Boxen Modell. Nur das lineare Senkenmodell ist mit den realen Daten der letzten 45 Jahre zur Deckung zu bringen. Nicht untersucht wurde z.B. ein 2-Boxen Modell, bei dem die 2. Box nicht 3 mal sondern z.B. 50 mal größer ist als die erste. Es ist zu erwarten, das solche „fast-linearen“ Modelle auch mit den gemessenen Daten verträglich sind.

Fußnoten



Der GISP2-Datensatz, ein wichtiges Zeugnis der Klimageschichte

In einem Vortrag in Heidelberg erklärte Prof. von Storch auf eine Publikumsfrage, dass Paläoklima-Daten insofern nicht mit den heutigen Temperaturentwicklungen vergleichbar seien, weil die Änderungen der Vergangenheit typischerweise in sehr viel längeren Zeiträumen stattgefunden hätten. Noch nie in der Geschichte wäre die Temperaturveränderung so schnell erfolgt wie in der heutigen Zeit, in der der Mensch die entscheidende Ursache der Klimaänderung sei.

Nun gibt es einen Datensatz, der etwa 50000 Jahre in die Vergangenheit reicht, der sich bis in die Mitte des 19. Jahrhundert erstreckt und der eine zeitliche Auflösung von 50 Jahren hat, der GISP2-Datensatz mit Messungen eines Eisbohrkernes von Grönland. Ein Ausschnitt des Datensatzes aus der jüngeren Vergangenheit ist in Abb. 1 dargestellt:

Abb. 1: Temperaturverlauf der letzten 10000 Jahre aufgrund des GISP2-Eisbohrkerns

Es sind in diesem Zeitraum Temperaturschwankungen von rund 3 °C gewesen, einmal innerhalb von rund 400 Jahren (um das Jahr 6000 BC herum).
Um die Frage zu beantworten, ob die Temperaturen sich heute schneller ändern als in diesem historischen Datensatz, betrachten wir die sogenannten Anomalien. Diese sind heutzutage definiert als die Differenz zwischen der aktuellen Temperatur und dem Durchschnitt der letzten 30 Jahre. In leichter Abwandlung dieser Definition sei die Anomalie beim GISP2-Datensatz die Differenz eines Messpunkte und seines Vorgängers. Alle Meßpunkte repräsentieren Durchschnittstemperaturen eines 50-Jahres Zeitraums. Diese Anomalien sind in Abb 2.

Abb. 2: Temperaturanomalien, d.h. die Differenz zur jeweils 50 Jahre früheren Temperaturmessung

Daraus ist leicht erkennbar, dass Änderungen der Durchschnittstemperatur von 1/2 °C in 50 Jahren keine Seltenheit sind. Man darf davon ausgehen, dass es innerhalb der 50-Jahres-Intervalle zu noch größeren Änderungen gekommen ist.
Aus der Perspektive des GISP2-Datensatzes sind also die heutigen Temperaturänderungen überhaupt nichts Ungewöhnliches.
Das Argument, es hätte vorher noch nie so schnelle Klimaänderungen gegeben, greift also nicht.

Da der Datensatz bis 1855 reicht, kann man den Temperaturverlauf von Abb. 1 bis in die Gegenwart fortsetzen, indem eine skalierte Version eines Standard-Datensatzes wie HadCRUT4 ab 1855 an den GISP2-Datensatz angehängt wird. Dies wird in Abb. 3 gezeigt.

Der grüne Kurvenabschnitt repräsentiert die Temperaturdaten seit 1850, während die rote Kurve aus dem Eisbohrkern ermittelt wurde. Die grüne Kurve passt ganz gut in das restliche Bild, jedenfalls ist sie nicht gerade ein aufregender Ausreißer.




Lässt die Wirkung der Senken nach oder nicht?


[latexpage]

Nachtrag 14.12.2025: Auch wenn der Inhalt dieser Seite nicht verkehrt ist – es gibt mittlerweile einen verbesserten und konzeptionell einfacheren Ansatz, der zu den gleichen Ergebnissen führt: https://klima-fakten.net/?p=12274

Einleitung — was sind Senken?

Zunächst wird die messbare Senkenwirkung $S_i$ des Jahres $i$ als Bilanzgleichung aufgrund der Erhaltung der Gesamtmasse des CO2 und der Kontinuitätsgleichung bestimmt. Der Konzentrationszuwachs $G_i$ der Atmosphäre ergibt sich als Differenz aller Emissionen, also sowohl der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_I$, und der gesamten Absorptionen $A_i$:
$G_i= C_i – C_{i-1} = E_i + N_i – A_i$ (1)
Die Senkenwirkung $S_i$ ist der Anteil der anthropogenen Emissionen $E_i$, die nicht zum Anwachsen der Konzentration $G_i$ beitragen:
$S_i = E_i – G_i$ (2)
Diese Senkenwirkung ist aus den verfügbaren Emissions- und CO2-Konzentrations-Daten ohne Modellierung leicht ermittelbar und in Abbildung 1 als Zeitserie ab 1960 gezeigt. Die Daten des monatlich gemessenen Konzentrationszuwachses sind desaisonalisiert, indem jeweils die Differenz zum gleichen Vorjahresmonat bestimmt wird. Emissionen und Konzentration sind in der gleichen Maßeinheit ppm gemessen (1 ppm = 2,123 Gt C = 7,8 Gt CO2)

Abb. 1: Monatliche Emissionsdaten (blau), monatlicher Konzentrationszuwachs (orange) und monatliche Senkenwirkung (grün). Die Senkenwirkung wird hier mit negativem Vorzeichen dargestellt, um sie vom Konzentrationswachstum graphisch zu trennen.

Demzufolge ist die Senkenwirkung auch die Differenz zwischen Absorptionen $A_i$ und natürlichen Emissionen $N_i$
$S_i = A_i -N_i $ (3)
Daraus folgt auch, dass die — mit großen Unsicherheiten behafteten — Emissionen durch Landnutzungsänderungen zunächst als zu den unbekannten natürlichen Emissionen gehörig gerechnet werden.

Da die globale Senkenwirkung die einzige Kenngröße ist, die einer einfachen Messung zugänglich ist, muss eine Methode gefunden werden, um mit der gemessenen Senkenwirkung das Senkenmodell zu bewerten. Ziel dieser Untersuchung ist nicht, die Korrektheit der jeweiligen Modelle aus inhaltlichen Gründen zu bewerten, sondern einzig und allein, ein Kriterium zu finden, um aufgrund von Messdaten zu entscheiden, welche Modellklasse besser mit der Realität übereinstimmt.

Die beiden Senkenmodelle

Das lineare Senkenmodell

Es werden 2 Senkenmodelle gegenübergestellt. Das eine, das „lineare Senkenmodell“ oder auch „Badewannenmodell“ geht davon aus, dass die Senkenwirkung im Jahre $i$, $S_i$ streng linear mit der CO₂-Konzentration (des Vorjahrs) $C_{i-1}$ anwächst (eine genauere Analyse ergibt, dass der Erwartungswert der Zeitdifferenz zwischen Konzentration und Senkenwirkung etwa 15-18 Monate beträgt):
$S_i = a\cdot C_{i-1} + b = a\cdot(C_{i-1} – C^0)$ (4)

wobei $C^0=-b/a$ die angenommene präindustrielle Gleichgewichtskonzentration ohne anthropogene Emissionen darstellt.
Aus den Daten des Zeitraums 1960-2025 ergeben sich diese Schätzwerte:
$a=0,0174, b=-4,87, C^0 =280 $ ppm
Der Schätzwert der Gleichgewichtskonzentration $C^0$ stimmt bemerkenswert gut mit der gewöhnlich angenommenen präindustriellen Konzentration von 280 ppm überein.

Bei der Modellgleichung handelt es sich um eine Differenzialgleichung 1. Ordnung mit der Impulsantwort
$IRF^{linear}(t)=e^{-\frac{t}{\tau}}$
mit $\tau=1/a\approx 57 $ Jahre.
Entscheidend ist, dass die Impulsantwort vollständig auf 0 abklingt, was bedeutet, dass das atmosphärische CO₂ mit der Zeit vollständig von den Senken absorbiert wird.

Abb. 2: Lineares Senkenmodell, Impulsantwort der atmosphärischen Konzentration, Zeitkonstante 57 Jahre
Das Berner Modell

Um nicht voreilig falsche Schlussfolgerungen aus dem Berner Modell zu ziehen, erscheint es wichtig, zunächst einen Vorläufer des Berner Modells zu betrachten, das sogenannte 2-Boxen-Modell. Ausgangspunkt des 2-Boxen-Modells ist die im Prinzip richtige Überlegung, dass auch die CO₂-Senken, die Ozeane und die Landpflanzen, endlich sind und nur eine begrenzte Menge an CO₂ aufnehmen können. Das einfachste Modell, das diesen Umstand berücksichtigt, ist das 2-Boxen-Modell gemäß Abb. 3, wonach die Atmosphäre die eine Box darstellt, die Ozeane zusammen mit den Landpflanzen die 2. Box. Beide Boxen sind miteinander durch einen Kanal begrenzter Größe verbunden.

Die 2. Box ist um den Faktor $k$ größer als die erste Box. Um den Effekt zu verdeutlichen, wird $k=3$ angenommen. Das Gleichgewicht ist erreicht, wenn die Konzentration in beiden Boxen gleich ist. Es erscheint extrem, dass die Ozeane und die Landpflanzen zusammen nur 3-mal größer angenommen werden als die Atmosphäre. Aber das ist tatsächlich der Wert, von dem die aktuelle Klimaforschung (z.B. Prof. Marotzke bei Markus Lanz, 10. Juli 2025, Minute 21:30) ausgeht, obwohl bekannt ist, dass alleine die Ozeane insgesamt etwa 50-mal so viel CO₂ gebunden haben wie die Atmosphäre. Beim Berner Modell ist der Faktor $k$ eher bei 4. Wenn man sich vorstellt, dass der aufnehmende Container tatsächlich nur 3-mal größer ist als die Atmosphäre, dann ist auch klar, dass von jedem zusätzlichen CO₂-Eintrag in die Atmosphäre am Ende, d.h. im Gleichgewichtszustand, 25% in der Atmosphäre zurückbleiben, und nur 75% von den Senken aufgenommen werden können. Dies wird mit der Impulsantwort in Abb. 4 veranschaulicht.

Abb. 4: 2-Boxen Modell mit k=3, Verlauf Atmospäre (blau), Verlauf (oberer) Ozean (orange)

Das Berner Modell ist ein 4-Boxen-Modell. Es unterteilt den Ozean in 2 Teile. Während in dem oberen Teil der Gasaustausch mit einer ähnlichen Zeitkonstante wie beim linearen Modell geschieht (da dafür nur die oberste Schicht „Mixed Layer“ berücksichtigt wird, ist der Austausch noch schneller als beim linearen Modell) , geschieht der Fluss in die Tiefsee durch eine sehr langsame Diffusion. Die 4. Box repräsentiert die Landpflanzen. Dadurch, dass die Tiefsee durch den langsamen Diffusionsprozess für Hunderte von Jahren „abgeschirmt“ ist, erklärt sich die vermeintlich kleine „Ozean-Box“ und der daher große konstante Rest von über 20% in der Atmosphäre.

Abb 5: Die 4 Boxen des Berner Modells (Aus Präsentation „Simulationen des atmosphärischen CO2 mit einem
einfachem globalen Kohlenstoffmodell“, Prof. Martin Heimann, April 2024 bei 4Pi-Solutions)

Die publizierte Näherungsgleichung des Bern-Modells ist
$ IRF^{Bern}(t) =a_0 + \sum_{i=1}^3 a_i\cdot e^{-\frac{t}{\tau_i}}$ (5)
mit a0=0.21787, a1=0.22896, a2=0.28454, a3=0.26863, tau1=381.33, tau2=34.785, tau3=4.1237
Die mathematische Form der Näherungslösung und die zitierte Publikation suggerieren, dass es sich um 4 parallele Prozesse handelt. Das ist aber nicht so, es ist nur eine Näherungslösung eines komplexen 4-Boxen-Prozesses, um damit den Prozess einfacher als gewichtete Summe linearer Prozesse formulieren zu können.
Abb. 6 zeigt die Impulsantworten (IRF) des Bern-Modells (grün) im Vergleich zum obigen linearen Modell (blau) und zum 2-Boxen-Modell (orange).

Abb. 6: Die Impulsantworten des linearen Modells (blau), des 2-Boxen Modells (orange) und des Berner Modells (grün)

Während zu Beginn der Konzentrationsabfall des Berner Modells stärker ist als beim linearen Modell, wird der Verlauf bald flacher, sodass nach 100 Jahren nur 60% absorbiert sind, beim linearen Modell sind es da bereits 85%. Das 2-Boxen-Modell liegt vom Verlauf her zwischen dem linearen und dem Berner Modell, langfristig geht es ähnlich wie das Berner Modell in die Sättigung, d.h. es bleibt ein substantieller Teil des CO₂ in der Atmosphäre.

Anwendung auf realitätsnahen künstlichen Emissionsverlauf

Wie oben beschrieben, ist die gemessene Senkenwirkung die Schnittstelle zwischen Modell und Wirklichkeit. Vor der Anwendung auf die tatsächlichen Messdaten wird die geplante Vorgehensweise mit einem künstlichen einfachen Emissionsverlauf simuliert, der qualitativ dem tatsächlichen Verlauf ähnlich ist. Der Vorteil eines wohldefinierten Emissionsverlaufs ist, dass die Modellunterschiede klar herausgearbeitet werden können, ohne von Rauscheffekten und anderen unbekannten Einflüssen beeinflusst zu sein. Außerdem wird nicht zwischen gemessenen Emissionen der Vergangenheit und projizierten Emissionen der Zukunft unterschieden. Die simulierten Emissionen wachsen ab 1920 für 100 Jahre linear auf 5 ppm/Jahr an und bleiben von da an konstant (Abb 7, nicht ganz zufällig ist der Verlauf angelehnt an den tatsächlichen Emissionsverlauf der Vergangenheit und das Stated Policy Szenario der IEA):

Abb. 7: Hypothetischer Emissionsverlauf: 100 Jahre (1920-2019) linearer Anstieg auf 5 ppm (=10,6 GtC), danach konstant bis 2100

Durch Faltungen mit den jeweiligen Impulsantworten ergeben sich die Konzentrationsverläufe der beiden Modelle und einer natürlichen Gleichgewichtskonzentration von 280 ppm (Abb. 8):

Abb. 8: Konzentrationsverlauf des linearen Senkenmodells (blau) und des Berner Modells (orange)

Es ist aus Abb. 9 deutlich erkennbar, dass die Senkenwirkung des Berner Modells im Vergleich zum linearen Modell auf lange Sicht deutlich nachläßt. Durch Differenzbildung jeweils benachbarter Datenpunkte wird das Konzentrationswachstum bestimmt (Gleichung (1)). Die für das Unterscheidungskriterium wichtige gemessene Senkenwirkung wird dann aus der Differenz zwischen Emissionen und Konzentrationswachstum nach Gleichung (2) bestimmt. Alle Daten sind in Abbildung 9 zusammengefasst. Achtung, die Senkenwirkung ist um der Darstellung willen negativ aufgetragen.

Abb. 8: Emissionen, Konzentrationswachstum und gemessene Senkenwirkung für lineares und Berner Modell

Es wird zur Unterscheidung ein Kriterium benötigt, mit dem man beurteilen kann, ob ein Senkenverlauf „flacher“ als der Verlauf des linearen Modells ist.

Kriterium zur Unterscheidung des linearen Modells von den „abflachenden“ Modellen

Um über die Gültigkeit der Modellklasse zu entscheiden, wird ein Kriterium benötigt, um mit Hilfe eines statistisch bestimmbaren Paramenters eine Aussage über die Modellklasse zu machen. Dazu wird Gleichung (4) etwas verallgemeinert, indem die von der Gleichgewichtskonzentration abweichende Konzentration mit $p$ potenziert wird:
$S_i = a\cdot(C_{i-1} – C^0)^p$
Um $p$ aus gegebenen Daten zu bestimmen, wird die Gleichung logarithmiert:
$ln(S_i) = ln(a) + p\cdot ln(C_{i-1} – C^0)$ (6)
Mit $p=1$ ist die Gleichung identisch mit dem linearen Senkenmodell. Mit $p<1$ bekommt man einen flacheren Verlauf. Wenn nun nachweisbar ist, dass $p$ signifikant kleiner als 1 ist, dann wäre das ein Beweis für ein langfristiges Nachlassen der Senkenwirkung. Umgekehrt: Wenn das Berner Modell korrekt ist, muss der Abflachungseffekt bereits heute erkennbar sein.
Zunächst wollen wir anhand der künstlichen Daten überprüfen, welche Werte von $p$ aufgrund der Modellannahmen zu erwarten sind. Dabei wird die Schätzung nicht über den gesamten Datenbereich durchgeführt, sondern nur über die 70 Jahre 1950-2020, den gleichen Zeitraum, der auch bei den realen Daten relevant ist.
Für das lineare Modell ergibt die Least-Squares Schätzung mit Gleichung (6):

Variable  Schätzwert   Std. Fehler         t-Wert     Fehler-WS    95% Vertrauens-Intervall
p 0.9858 0.0006 1584.8340 0.0000 [ 0.9846 0.9870]
ln(a) -3.8447 0.0026 -1474.3731 0.0000 [-3.8499 -3.8395]

Der Exponent p ist mit 0,99 sehr nahe bei dem Wert 1 des linearen Modells. Das ist nicht verwunderlich, da die Daten mit dem linearen Model konstruiert wurden.

Bei der Schätzung von Gleichung (6) mit den vom Bern-Modell konstruierten Modelldaten ergeben sich diese Parameter:

Variable   Schätzwert   Std. Fehler         t-Wert     Fehler-WS    95% Vertrauens-Intervall
----------------------------------------------------------------------------------------
p 0.7256 0.0009 790.5613 0.0000 [ 0.7237 0.7274]
ln(a) -2.7563 0.0038 -722.0434 0.0000 [-2.7639 -2.7487]

Mit der idealtypische Annahme des Berner Modells erhalten wir bei gleichmäßiger Steigerung der Emissionsdaten demnach für $p$ eine große Abweichung von 1.

Test mit den realen Messdaten

Der entscheidende Test erfolgt mit den echten gemessenen Daten. Mit den Zeitreihen bis Ende 2024 sind die Unterschiede der Modelle bei der Rekonstruktion der gemessenen CO2-Konzentration sehr gering (Da die Messdaten vor 1960 ohnehin unzuverlässig sind, sind die Abweichungen vor 1960 von untergeordnetem Interesse).

Abb. 9: Gemessene Zeitreihe der CO2-Konzentration (blau), Rekonstruktion mit dem Berner Modell (orange), Rekonstruktion mit dem linearen Senkenmodell (grün).

Deswegen werden die aussagekräftigeren Verläufe des Konzentrationswachstums und des gemessenen Senkeneffekts betrachtet. Da sind in der Tat bereits heute leichte Unterschiede erkennbar. Diese sind aber — als Einzelwerte — immer noch innerhalb der großen statistischen Schwankungen.

Abb. 10: Reale Emissionen (blau), Konzentrationswachstum (orange) und dessen Rekonstruktion mit linearem (grün) und Bern-Modell (rot), gemessener Senkeneffekt (violett), Rekonstruktin mit linearem (braun) und Bern-Modell (pink).

Aber es ist ein Trendunterschied erkennbar.

Um den Trend mit dem neuen Werkzeug messen zu können, ist eine Bestimmung der Gleichgewichtskonzentration $C^0$ erforderlich, denn von dieser hängt das Schätzergebnis maßgeblich ab.

Für das Bern Modell die richtige „Gleichgewichtskonzentration“ zu bestimmen, ist nicht ganz trivial, denn das Berner Modell kennt keine Gleichgewichtskonzentration — nach diesem Modell wird die atmosphärische Konzentration nie wieder zum präindustriellen „Gleichgewicht“ zurückkehren. Es geht aber darum, den Verlauf der letzten 70 Jahre mit einem veränderten linearen Verlauf zu vergleichen. Aus dem Modellierungsverlauf der Senkenwirkung in Abb. 10 ist erkennbar, dass das lineare und das Berner Modell im Zeitraum 1950-1990 fast identisch sind. Daher ist es sinnvoll, für die Bestimmung der Gleichgewichts-Konzentration diesen Zeitraum von 40 Jahren herzunehmen. Damit erhält man aus den realen Daten eine Gleichgewichtskonzentration $C^0=282$ ppm. Wendet man nun die Gleichung 6 auf die Senkeneffektdaten des Berner Modells an (Abb. 10, pink Kurve) mit den Konzentrationsdaten des Berner Modells als Prädiktor (Abb. 9, orange Kurve).

Variable   Schätzwert   Std. Fehler         t-Wert     Fehler-WS    95% Vertrauens-Intervall
--------------------------------------------------------------------
p 0.9192 0.0092 100.2195 0.0000 [ 0.9009 0.9375 ]
ln(a) -3.6269 0.0360 -100.6758 0.0000 [-3.6987 -3.5550 ]

Der Verlauf des Berner Modells impliziert mit $p=0,9$ eine klare Abweichung vom linearen Modell in Form der zurückgehenden Senkenwirkung.

Beim linearen Modell, das wir für die 70 Jahre 1950-2020 schätzen, ergibt sich die Gleichgewichtskonzentration von selbst nach Anwendung von Gleichung (4). Diese beträgt in diesem Falle etwa 283 ppm. Daraus folgt dann nach Gleichung (6)

Variable   Schätzwert   Std. Fehler         t-Wert     Fehler-WS    95% Vertrauens-Intervall
-------------------------------------------------------------------
p 1.0100 0.1308 7.7223 0.0000 [ 0.7490 1.2710 ]
ln(a) -4.0994 0.5351 -7.6612 0.0000 [-5.1671 -3.0316 ]

Demnach ist ergibt sich eine perfekte Bestätigung des linearen Modells mit $p=1$. Also sind Modelle, die vom streng linearen Zusammenhang zwischen Konzentration und Senkeneffekt „nach unten“ abweichen, statistisch wenig wahrscheinlich. Aus wissenschaftstheoretischer Sicht muß man sich auch fragen, warum ein Modell mit 7 freien Parametern (Berner Modell) einem Modell mit einem freien Parameter (lineares Senkenmodell) vorzuziehen ist, wenn die Meßdaten mit mindesten 70-90% Sicherheit das Modell mit den vielen Parametern ausschließen.

Diese Überlegungen sind die ersten, vereinfachten Überlegungen zu dieser Thematik. Mit verfeinerter Verarbeitung der Daten, wie z.B. unter Nutzung höherer Auflösung, lässt sich die Signifikanz der Aussagen deutlich verbessern. Das erfordert allerdings eine umfangreiche Behandlung des damit verbundenen komplexeren Modells. Mit Aktualisierungen dieser Seite ist zu rechnen.




Energiewende mit Batterien?

Es ist bekannt, dass die sogenannten „Erneuerbaren“, also Windkraft und Photovoltaik, nur zeitweise Energie liefern. Bei der Photovoltaik sind es in Deutschland im Schnitt 800-900 Volllaststunden im Jahr, bei der Onshore Windkraft zwischen 1800 und 2000 Volllaststunden, und bei Offshore Windkraft rund 3300-3500 Volllaststunden.  Das Jahr hat aber im Schnitt 8766 Stunden (8760, im Schaltjahr 8784), demzufolge benötigt man ein Vielfaches der sogenannten Nennleistung, um wenigstens im Durchschnitt die geforderte Energie zu liefern.

Kleiner Exkurs zum Problem des Netzausbaus

Damit wird aber bereits klar, warum die Energiewende ein notorisches Problem mit dem existierenden Stromnetz hat, obwohl es für die Bedarfsdeckung mit konventionellen Kraftwerken völlig ausreichend war und genügend Reservekapazität vorhanden war.  Bei Erzeugung mit Erneuerbaren muss das Netz, zumindest in Teilen, für die volle Nennleistung ausgebaut sein, der tatsächliche durchschnittliche Ertrag davon ist aber höchstens 20% davon, demnach müssen Teile des Netzes bis zu 5-fach überdimensioniert sein.  Sichtbar wird dieses Problem aktuell daran, dass es einen „Stau“ bei der Genehmigung von Batteriegroßspeichern gibt, denn für diese Speicher müssen ebenfalls „auf Verdacht“ große Netzkapazitäten vorgehalten werden, die nur für einen Bruchteil der Zeit dann tatsächlich genutzt werden.   

Diese massiven Probleme, die zwar im Prinzip lösbar sind, aber enorme Kosten nach sich ziehen, bestimmen im Moment einen Großteil der politischen Debatte. Es wird so getan, als ob mit dem Ausbau der Netze das Hauptproblem der Energiewende gelöst wäre. Das ist aber nicht der Fall.

Bei den folgenden Überlegungen werden alle genannten Netzprobleme als gelöst betrachtet. Wir tun so, als hätten wir ideale Netzbedingungen. Der Strom, der in der Nordsee erzeugt wird, steht hypothetisch uneingeschränkt in Berchtesgaden zur Verfügung. Batteriespeicher sollen unbegrenzt anschließbar sein.  

Um zu zeigen, dass das Konzept der Energiewende, volatile Energie mit Batteriespeichern zu  „glätten“, grundsätzliche Probleme hat, nehmen wir ideale Bedingungen an, um nicht im Vorfeld der eigentlichen Probleme hängen zu bleiben.  

Geplanter Ausbau der Energiewende bis Jahre 2030

Je nach Ausbau von Windkraftanlagen und Photovoltaik gibt es also Zeiten des Energiedefizits und Zeiten des Überschusses. Nach den Vorstellungen der Planer der Energiewende soll durch zügigen Ausbau von Photovoltaik und Windkraft bis 2030 der Großteil des elektrischen Energiebedarfs durch Erneuerbare gedeckt werden. Das soll laut der Studie „Klimaneutrales Deutschland 2045“, die der Energiewende zugrunde liegt[1], durch den Ausbau von Photovoltaik und Windkraft so erfolgen:

  • Installierte Leistung Photovoltaik 198 GW (2023: 76 GW)
  • Installierte Leistung Wind On-shore 93 GW (2023: 59 GW)
  • Installierte Leistung Wind Offshore: 27 GW (2023: 8 GW)

Die gesamte geplante installierte Gesamtleistung ist demnach 318 GW. Es wird weiterhin angenommen, dass die Gesamtjahreslast von 458 TWh im Jahre 2023 auf 656 TWh im Jahre 2030 ansteigt. Diese Last wird bei den verwendeten Prozentwerten als Referenz verwendet.

Simulation des 2030 Energiewende Szenarios[2]

Was bedeutet nun dieser Ausbau für die deutsche Stromversorgung im Jahre 2030?  Um diese und andere Fragen zu beantworten, haben Dr. Björn Peters und ich eine Studie durchgeführt, in der die Ausbauszenarien der Energiewende einem Realitätscheck unterworfen wurden[3]: Wir haben die reale, viertelstündliche  Energieerzeugung von Photovoltaik, Wind On-shore und Wind Offshore aus den Jahren 2023 oder wahlweise 2024 mit den jeweiligen Ausbaufaktoren auf das Jahr 2030 hochgerechnet, ebenso die hochgerechnete Verbrauchslast des ausgewählten Referenzjahres. In den Rechnungen hier wird der Datensatz von 2023 verwendet.   

 Weiterhin wurde die 2023 erzeugte Energie aus Wasserkraft unverändert übernommen, was einem Jahresertrag von 19 TWh entspricht (3% der Jahreslast). Die Energieerzeugung aus Biomasse wurde als konstant 7 GW angenommen (9% der Jahreslast), was eine leichte angenommene Steigerung der aktuellen durchschnittlichen 5,4 GW bedeutet

Da in dieser Untersuchung die optimalen Möglichkeiten für die Batteriespeicherung ausgelotet werden sollen, beschränkt sich hypothetisch und idealisierend die nicht regelbare Grundlast auf rein erneuerbare Quellen wie Wasserkraft und Biomasse. Auf regelbare Backupkraftwerke kann beim Ausbau 2030 nicht verzichtet werden. Um fürs ganze Jahr einen Überschuss zu garantieren, sind 8 GW an regelbarer Kraftwerksleistung vorgesehen. Damit wird allerdings weitgehend auf die sogenannte Momentanreserve, die eine Voraussetzung der Netzstabilität ist, verzichtet.  
Mit dieser extrem optimistischen Konstellation werden 66% der Jahreslast durch direkte Nutzung von Windkraft und Photovoltaik abgedeckt. Zusammen mit Wasserkraft und Biomasse sind es 78%.  Die Backupkraftwerke kommen in der Verarbeitungsreihenfolge des Szenarios vor den Batteriespeichern, deren Einsatz ist daher unabhängig von der Speichergröße. Die Backupkraftwerke erzeugen dabei dann 5% der Jahreslast.  Diese Reihenfolge verbessert die Chancen auf das Gelingen des Szenarios.

Eine weitere regelbare Reserve ist durch die möglichen Stromimporte gegeben. Diese werden mit maximal 5 GW als etwa doppelt so hoch wie die tatsächlichen Stromimporte im Jahre 2024 angenommen. Ebenso wird ein jederzeit möglicher Stromexport von 5 GW angenommen. In der gegebenen Konstellation tragen die Importe dann 3% zur Abdeckung der Gesamtlast bei. Sowohl der maximale Import als auch der maximale Export können im Simulationsprogramm[4] beliebig verändert werden.

Unter diesen Voraussetzungen wird untersucht, inwieweit eine Versorgung Deutschlands durch Erneuerbare und Batteriespeichern möglich ist. Mit diesen Bedingungen müssen noch 14% der Gesamtlast aus Batteriepeichern erbracht werden.  Es werden sehr optimistische Annahmen getroffen:

  • Die Kosten für Batteriespeicher werden mit 200 €/kWh Speicher angenommen, inklusive Betrieb, Wartung und Profit. Das ist sehr viel weniger als die heute üblichen 400-600 €/kWh bei Großspeichern,
  • der Speicherwirkungsgrad wird mit 80% angenommen. Das ist höchstwahrscheinlich viel zu optimistisch angesichts des notwendigen Aufwandes für Kühlung bei Großspeichern,
  • die erwartete Lebensdauer von Batterien beträgt 10 Jahre. Das entspricht der von den Herstellern gewährten Garantie.

Zunächst wird in Abb. 1 der Überschuss-/Defizitverlauf des ganzen Jahres gezeigt. Dieser ergibt sich, indem zu jeder Viertelstunde die Energienachfrage vom Energieangebot abgezogen wird. Das Energieangebot besteht aus Wind- und Solarenergie sowie den weiteren erneuerbaren Energien, Wasserkraft und Biomasse.
Anfangs wird nur die aktuell verfügbare Pumpspeicherkapazität von etwa 40 GWh für die Speicherung genutzt

Die blaue Kurve zeigt die Überschüsse und Defizite, bevor Speicherung und variable Backupkraftwerke und Stromimporte eingesetzt werden. In der Bilanz überwiegen vor dem Speicher- und Backupprozess, d.h. in der blauen Kurve die Defizite, insgesamt 22% des Gesamtverbrauchs, während die Überschüsse initial 17% des Gesamtverbrauchs ausmachen.

Der darauf angewandte Prozess beinhaltet (in dieser Reihenfolge) Backupkraftwerke, Import, Speichern und Export. 

Abb. 1: Jahresverlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit Pumpspeicher(rot)

Die rote Kurve beschreibt die Diskrepanz nach diesem Prozess.  Es wird idealisierend angenommen, dass die Backupkraftwerke sehr schnell, d.h. innerhalb einer Viertelstunde auf Anforderungsänderungen reagieren können. Das ist in Wirklichkeit nicht generell möglich. 

Die graue Linie zeigt die maximal mögliche Regelleistung der Backup-Kraftwerke und der Stromimporte. Dies ist mit den gewählten Backup- und Importwerten 8+5 GW = 13 GW.

Zur besseren Veranschaulichung wird in Abb 2. der Monat September ausgewählt und vergrößert dargestellt:

Abb. 2: Verlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit Pumpspeicher im  Monat September. 

In Abb. 3 wird der Ladezustand des (Pump-)Speichers gezeigt:

Abb. 3: Ladezustand des Pumpspeichers im Verlauf des Monats September

Am 1. Tag ist der Speicher leer, und es gibt ein Stromdefizit, das nicht durch den Prozess mit Speicher, Backup und Import ausgeglichen werden kann.  Bis zum 11. Tag wird der Speicher zwar täglich fast gefüllt, aber es reicht trotzdem nicht, die Last zu decken.  Erst ab dem 18. wird der Bedarf für 3 Tage gedeckt. Der Export von 5 GW sorgt dafür, dass die rote Kurve etwas unter der blauen Kurve liegt und maximal 5 GW ins Ausland abfließen können.

Über das Jahr bleiben durch die Speicherung von den ursprünglich 17% Überschuss noch 14%. Das Defizit sinkt von ursprünglich 22% auf 13%. Dieser große Sprung kommt nicht allein vom Speicher, sondern durch den Einsatz von Backupkraftwerken und Stromimport. Jedenfalls ist nach dem Prozess der Überschuss größer als das Defizit, eine gute Voraussetzung für den Einsatz von Batteriespeichern.   

Mit dem minimalen Speicherausbau der existierenden Pumpspeicherkraftwerke können also weder die Überschüsse gespeichert noch die Zeiten des Defizits ausgeglichen werden.

Einsatz von Batteriespeichern

Batterien – das ist der aktuelle Hype, der die Probleme lösen soll, die uns die volatilen Erneuerbaren bereiten. Der Plan ist, die Überschüsse, die aktuell zu Negativpreisen führen, zu speichern, um sie dann nachts oder bei Flaute zur Verfügung zu haben. Wenn es zu Diskussionen über die Probleme der Volatilität kommt, ist die einhellige Antwort, dass dies alles durch große Batteriespeicher gelöst wird. 

Der offizielle Plan ist, 2030 Batteriespeicher mit einer Kapazität von 300 GWh im Einsatz zu haben, zusätzlich zu den existierenden 40 GWh Pumpspeichern. Dazu in Abb. 4 das Diagramm der volatilen Erzeugung.  

Abb. 4: Verlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit 300 GWh Batteriespeicher (rot) im Monat September

Dazu in Abb. 5 der Füllstand der Batteriespeicher (ohne Pumpspeicher)

Abb. 5: Füllstand des Batteriespeichers mit 300 GWh Kapazität im Monat September.

Das Ergebnis der drastischen Vergrößerung des Speichers ist etwas enttäuschend. Die meisten Tage, an denen ohne die Batteriespeicher Stromdefizite waren, haben jetzt immer noch Stromdefizite, wenn auch geringfügig kleinere. Immerhin gibt es nach der Speicherung nur noch an 4 Tagen Überschüsse. Der größere Speicher kann sich naturgemäß nur dort verbessernd auswirken, wo der bisherige Pumpspeicher an seine Kapazitätsgrenzen geraten war, also am 18.-24. Tag, am 24. und am Monatsende. Insgesamt reduziert sich das Stromdefizit des ganzen Jahres auf 10%, also rund 66 TWh. Der volatile Jahresüberschuss ist immer noch bei 11% (73 TWh), der durch Abregelung entsorgt werden muss.    

Dass es sich hier nicht um ein Problem eines besonders „schlechten“ Monats handelt, wird bei der Wahl eines anderen Monats erkennbar, z.B. des Dezembers.  Ausgehend von einem leeren Batteriespeicher gibt es erstmal 8 Tage Stromdefizit, die folgenden Überschusstage füllen den Speicher bereits am ersten Tag. Die Überschüsse der nächsten Überschusstage können daher nicht mehr gespeichert werden, und am 11. Tag wird der Speicherinhalt verbraucht, und der Speicher ist wieder für einige Tage leer.    Ab dem 16. Tag ist dann gelingt dann die Stromversorgung für den Rest des Monats.

Abb. 6: Verlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit 300 GWh Batteriespeicher (rot) im Monat Dezember

Abb. 7: Füllstand des Batteriespeichers mit 300 GWh Kapazität im Monat September.

Zu bedenken ist, dass dieser Speicherausbau mit 300 GWh sich bereits mit zusätzlichen 1 ct/kWh im durchschnittlichen Strompreis auswirkt, wenn die Speicherkosten auf den Gesamtverbrauch umgelegt werden. Wenn nur der tatsächlich der Batterie entnommene Strom betrachtet wird, sind die zusätzlichen Kosten für die Speicherung 33 ct/kWh.   Dieser Preis ist extrem knapp gerechnet, es wird von 200 €/kWh Batteriespeicher bei einer Lebensdauer von 10 Jahren inklusive Gebäude, Betriebs- und Wartungskosten ausgegangen. Das sind reine Einkaufspreise bzw. Selbstkosten. Heutige Großspeicher werden mit 400-800 €/kWh kalkuliert.

Hypothetischer weiterer Ausbau des Batteriespeichers

Wie verändert sich das Bild bei weiterem Speicherausbau? Die im Folgenden behandelten Szenarien sind rein hypothetisch, sie sind in dieser Form weder realistisch noch werden sie von der Regierung so geplant. Sie dienen hier einzig und allein dazu, um zu zeigen, wie groß die Speicherkapazität sein muss, um die Energiewende einigermaßen sicherzustellen. Und dass der bislang geplante Speicherausbau an der Problematik der Volatilität völlig vorbeigeht. Die grundsätzlichen Überlegungen, insbesondere die zu erwartende Speicherkapazität, gelten auch für andere hier nicht diskutierte Speichertechnologien wie z.B. Speicherung mit Wasserstoff. 

Die nächste Simulation wird mit 1 TWh Batteriespeicher gerechnet. Das ernüchternde Ergebnis ist, dass sich das Defizit nach dem Prozess lediglich auf 8% der Jahreslast reduziert, auch der Überschuss ist 8% der Jahreslast.
Nach Abb. 8  läuft der Speicher im Jahresverlauf oft voll und läuft auch immer wieder ganz leer.

Abb. 8: Füllstand des Batteriespeichers mit 1 TWh Kapazität im Jahresverlauf.

Die Batteriespeicherumlage bei den Stromkosten würde unter diesen Voraussetzungen bereits auf 3 ct/kWh anwachsen, der gespeicherte Strom allein würde 58 ct/kWh kosten.   Der Preis pro kWh steigt deswegen so stark an, weil die gespeicherte Energiemenge bei weitem nicht in dem gleichen Maß zunimmt wie die Speicherkapazität.  Zusätzlicher Speicher nützt nur dann etwas, wenn der bisherige Speicher an Kapazitätsgrenzen stößt.    

Beim Ausbau auf 10 TWh gibt es immer noch ein Defizit von 2%, also 13 TWh, dafür steigt die

Abb. 9: Füllstand des Batteriespeichers mit 10 TWh Kapazität im Jahresverlauf.

Speicherumlage auf 30 ct/kWh. Abb. 9 zeigt den Jahresverlauf des Speicherfüllstandes.  Der Speicher läuft nur noch zweimal im Jahr ganz voll, aber wird noch häufig ganz leer.

Erst bei 30 TWh Speicher läuft, wie in Abb. 10 zu sehen ist, der Speicher nicht mehr leer, mit einer Speicherkostenumlage von 90ct/kWh: 

Abb. 10: Füllstand des Batteriespeichers mit 30 TWh Kapazität im Jahresverlauf.

Dieses Ergebnis gilt allerdings nur unter den Bedingungen des Jahres 2023. Wind und Sonne können sich bekanntlich von Jahr zu Jahr sehr verändern, daher ist das Gelingen dieses Szenarios keineswegs eine Garantie, dass es in anderen Jahren auch gelingen wird. 

Aus den Randbedingungen des Szenarios ergibt sich, dass

  • 66% der Last durch direkte Verarbeitung der volatilen erneuerbaren Energien geliefert wird,
  • 12% der Last von Wasserkraft und Biomasse geliefert wird,
  • 8% der Last von Backupkraftwerken und Importen geliefert wird.

Die restlichen 14% müssen durch Speicher aus den Überschüssen gewonnen werden.

In der folgenden Tabelle sind die Ergebnisse der Speicher-Simulationen zusammengefasst. Die Spalte Kosten weist die Kosten für jede tatsächlich gelieferte Kilowattstunde aus, bei der Kostenumlage werden die Batteriekosten auf die gesamte Jahreslast umgelegt, also auch auf den Stromanteil aus allen anderen Stromquellen, die nichts mit dem Speicher zu tun haben.

 
Der CO2-Fußabdruck der Batteriespeicherung wird so berechnet: Bei der Herstellung einer Batterie fallen 75 kg CO2 pro kWh Batteriekapazität an[5]. Bei der angenommenen Lebensdauer von 10 Jahren[6] sind das 7500 t/GWh pro Jahr.  Dies wird mit der Batteriekapazität multipliziert und durch die pro Jahr der Batterie entnommene Energiemenge geteilt (analog zu den Kosten).

Speicher (GWh) Ertragsanteil (% der Last) Überschuss (%) Defizit (%) Kosten (ct/kWh) Kostenumlage (ct/kWh) CO2 Fußabdruck
(g/kWh)
40 1 14 13 0,0 0,0 0
140 3 12 11 20 0,3 75
340 4 11 10            33 0,9 125
1040 6 8 8 58 3,0 218
10040 12 1 2 274 30,0 1027
30040 14 0 0 712 90,0 2668

Das Ergebnis ist, dass mit dem von der Regierung geplanten Ausbau der Batteriespeicher (300 GWh Batteriespeicher, 40 GWh Pumpspeicher) nur 4% der Gesamtlast, also 29% der Strom-Deckungslücke geliefert werden können. Selbst bei einer Verdreifachung der Batteriekapazität auf — schwer vorstellbare — 1 TWh ist es mit 6% der Gesamtlast weniger als die Hälfte der übers ganze Jahr inhomogen verteilte fehlenden Energie. 

Eine Dimensionierung über 1 TWh Kapazität kommt weder aus Kostengründen noch aus Gründen der CO2 Bilanz in Frage, zumal man für den photovoltaischen Anteil  der Energie auch noch rund 150 g/kWh an CO2 Ausstoß rechnen muss.  Zum Vergleich: Ein Gaskraftwerk stößt 400-500 g/kWh an CO2 aus.

In unserer Publikation haben wir die saisonale Speicherung der letzten 10% mit Gasspeichern simuliert, also Herstellung von Wasserstoff mit Elektrolyse, Speicherung des Wasserstoffs in Gaskavernen, und bei Bedarf Wiedergewinnung von Strom mit Gaskraftwerken oder Gasmotoren. Diese Option betrifft aber noch nicht das Jahr 2030, sie wird in einem weiteren Beitrag behandelt. 

Für das Jahr 2030 bedeutet dies, dass die restlichen 10%, also 66 GWh, durch konventionelle Kraftwerke erbracht werden müssen. Rein rechnerisch könnte diese Energie mit 8 GW Kraftwerksleistung (im Dauerbetrieb) erbracht werden. Nun ist es leider nicht so, dass man diese Leistung nach Belieben über das Jahr verteilen kann. Sie muss jeweils punktgenau in den Leistungslücken der Erneuerbaren geliefert werden.    

Das Diagramm Abb. 11 zeigt die Verteilung der angeforderten Leistung. Es werden bis zu 60 GW simultan zusätzlich benötigt, wenn auch nur für wenige Stunden im Jahr.  Für Kraftwerksbetreiber ist die Anforderung, 60 GW Leistung vorzuhalten, für weniger als 300 Stunden im Jahr, ein Albtraum. Niemand wird freiwillig in solche Kraftwerke mit einer Auslastung von weniger als 3,5% investieren.

Abb. 11: Restbedarf an Stunden zusätzlicher Kraftwerksleistung 

Fazit – Batterien lösen das Problem volatiler Energie in Deutschland nicht

Nach diesen Überlegungen wird transparent, dass mit vertretbarem Aufwand im besten Fall 4-6% der benötigten elektrischen Energie durch Batteriespeicher bereitgestellt werden können. Bei 300 GWh Batteriespeicherausbau bedeutet das 6 Mrd. € jährliche Kosten allein für den Batteriespeicher, um damit gerade mal 4% des Strombedarfs, also 18 TWh,  zu decken. Der aus den Batterien kommende Strom kostet demnach 33 ct/kWh zusätzlich zu den eigentlichen Erzeugungskosten. Ein Batteriespeicherausbau darüber hinaus verbietet sich nicht nur durch die immensen Kosten (für jede 100 GWh 2 Mrd. €), sondern auch durch die steigenden CO2-Belastungen bei der Herstellung solch großer Speicher. 

Bei einem Speicherausbau von 300 GWh kann jedoch auf kein einziges Backup-Kraftwerk verzichtet werden. Backup-Kraftwerke müssen die volle Netzlast abfangen können.

Dabei sind 2 wesentliche Problemfelder noch gar nicht angesprochen worden, nämlich den zusätzlichen Netzausbau, den Batteriespeicher nach sich ziehen. Der Grund, warum aktuell sehr viele Anträge zum Bau von Batteriespeichern nicht genehmigt werden, ist nämlich der, dass für jeden großen Batteriespeicher auch entsprechend große Netzkapazitäten zur Verfügung gestellt werden müssen. Da nicht vorhersehbar ist, wann genau ein Batteriespeicher Strom speichert oder abgibt, müssen entsprechende Kapazitäten „auf Verdacht“ bereitgestellt werden. 

Ein weiteres Problemfeld ist die Momentanreserve, die bislang ausschließlich von den rotierenden Massen der konventionellen Kraftwerke bereitgestellt wird. Seit dem Blackout in Spanien wird dort sorgfältig darauf geachtet, dass nicht mehr als 65% des Stroms mit Erneuerbaren erzeugt wird[7].

Das in diesem Artikel beschriebene Szenario nimmt darauf keine Rücksicht, um das maximal mögliche Potenzial von Erneuerbaren und Batteriespeicherung auszuloten. Für eine realistische, mit Momentanreserve abgesicherte Stromversorgung sind wegen der notwendigen Momentanreserve die zu erwartenden Erträge aus Erneuerbaren und Batteriespeichern geringer als hier beschrieben, und die abzuregelnden Überschüsse sind größer.


[1] https://www.agora-energiewende.de/fileadmin/Projekte/2023/2023-30_DE_KNDE_Update/A-EW_344_Klimaneutrales_Deutschland_WEB.pdf

[2] Das Szenario ist ähnlich dem des Interviews https://www.youtube.com/watch?v=HgR6HHQIqtM, weicht aber in Kleinigkeiten davon ab

[3] J. Dengler und B. Peters, Implications of Battery and Gas Storage for Germany’s National Energy Management with Increasing Volatile Energy Sources (2025):  https://www.mdpi.com/2071-1050/17/12/5295

[4]https://www.cortima.com/energiewende/energytransition.html?scenarioSelect=2030&controlledRe=0&sourcefileSelect=2023

[5] Globally regional life cycle analysis of automotive lithium-ion nickel manganese cobalt batteries, Nature, 2019: https://link.springer.com/article/10.1007/s11027-019-09869-2

[6] https://bydbatterybox.com/uploads/downloads/bydbatteryboxpremiumhvlimitedwarrantygermanydev10-5e999139e16f3.pdf

[7] Ermittelbar mit https://transparency.entsoe.eu/generation/r2/actualGenerationPerProductionType/show (Land Spanien auswählen, Datum im Sommer wählen, Chart)




CO₂ Sensitivität mit Wasserdampf und Wolken


[latexpage]

Der häufig verwendete Wert des CO₂-Forcings beträgt $3.7 \frac{W}{m^2}$. Dabei beruft man sich gewöhnlich auf die Untersuchungen von Myhre. Dort befindet sich dieser Wert ganz am Ende implizit als „simplified expression“. Dieser Wert läßt sich mit dem öffentlich verfügbaren MODTRAN nicht reproduzieren, es kommt dabei der Wert ohne Kompensation der Stratosphärenstrahlung heraus („instantaneous“), während Myhre den sog. „adjusted“ Wert liefert, der eine Korrektur aufgrund der Stratosphärenstrahlung durchführt. Möglicherweise sind dadurch von MODTRAN gelieferte Werte etwas zu niedrig.

Um eine im globalen Mittel realistische Sensitivität zu erreichen, muss mit der tatsächlichen Abstrahlung von $240 \frac{W}{m^2}$ gerechnet werden, mit der das globale Strahlungsgleichgewicht erreicht wird.

Um das zu simulieren, müssen sowohl Wolken als auch Wasserdampf berücksichtigt werden.
Hierzu werden folgende, aus Literaturrecherche ermittelte folgende Annahmen getroffen:

  • Der Anteil der von Wolken bedeckten Erdoberfläche ist etwa 67%,
  • Der global durchschnittliche niederschlagsfähige Wasserdampf (PWV) ist bei Wolkendecke 28 mm und bei wolkenlosem Himmel 21 mm. Im Simulationsprogramm MODTRAN ist der angenommene Defaultwert des Wasserdampfes bei der US Standardatmosphäre etwa 15 mm (dem durchschnittlichen Wert der USA), demzufolge ergibt sich bei Wolken für den „Water Vapor Scale“ Parameter 1.87 und bei wolkenlosem Himmel 1.4.
  • Als Wolkenart wird vereinfachend die häufigste Wolkenart der Kumuluswolken gewählt. Die Einbeziehung weiterer Wolkenarten können das Ergebnis noch geringfügig verändern.

Simulation wolkenloser Himmel

Die Defaultsimulation von MODTRAN wird modifiziert:

  • CO2-Konzentration 280 ppm
  • Water Vapor Scale: 1.4
  • Locality: US Standard Atmosphere 1976

Als IR-Fluss ergeben sich $264 \frac{W}{m^2}$. Dieser Zustand wird gespeichert. Danach wird die CO₂-Konzentration auf 560 ppm verdoppelt:

Der Strahlungsantrieb aufgrund der CO2-Verdoppelung ist also $2.83 \frac{W}{m^2}$, was trotz der „clear sky“ Annahme bereits deutlich weniger ist als der beim IPCC üblicherweise verwendete Wert von über $3.7 \frac{W}{m^2}$. Doch es fehlt noch die Berücksichtigung des Anteils der von Wolken bedeckten Erdoberfläche.

Simulation des von Wolken bedeckten Teils der Atmosphäre

Die Defaultsimulation von MODTRAN wird modifiziert:

  • CO₂-Konzentration 280 ppm
  • Water Vapor Scale: 1.87
  • Locality: US Standard Atmosphere 1976
  • Als Wolkenbedeckung wird die „Cumulus Cloud Base“ gewählt.

Als IR-Fluss ergeben sich $225\frac{W}{m^2}$. Dieser Zustand wird gespeichert. Danach wird die CO2-Konzentration auf 560 ppm verdoppelt:

Der Strahlungsantrieb aufgrund der CO2-Verdoppelung ist unter diesen Bedingungen $1.79 \frac{W}{m^2}$. Mit der Wahl des Wolkenmodells „Altostratus“ wäre dieser Strahlungsantrieb $1.76 \frac{W}{m^2}$, der maximale Wert ergibt sich beim „Nimbostratus“ Modell mit $2.51 \frac{W}{m^2}$.

Validierung des Strahlungsgleichgewichts und Bestimmung der CO2-Sensitivität

Um das globale Gleichgewicht zwischen Einstrahlung ($240 \frac{W}{m^2} $) und Abstrahlung zu überprüfen, wird die mit dem Grad der Wolkenbedeckung gewichtete Summe der IR Flüsse der beiden Modelle gebildet:
$ 225\frac{W}{m^2} \cdot 0.67 + 264\frac{W}{m^2} \cdot 0.33 \approx 238\frac{W}{m^2} $
Angesichts der möglichen Variabilität der Ausgangsparameter kann dieser Wert als „Punktlandung“ betrachtet werden.
Bei Verwendung anderer Wolkenmodelle muss darauf geachtet werden, dass dieses Strahlungsgleichgewicht eingehalten wird.

Der Gesamtstrahlungsantrieb $\Delta S$ ist die gewichtete Summe der Antriebe aus dem Wolkenmodell und dem wolkenlosen Modell:
$ \Delta S = 2.83 \frac{W}{m^2}\cdot 0.33 +1.79\frac{W}{m^2}\cdot 0.67 \approx 2.1 \frac{W}{m^2}$

Die CO₂-Sensitivität $\Delta T$ wird mit der Ableitung der Stefan-Boltzmann-Gleichung aus dem IR Fluss $S=240 \frac{W}{m^2}$ und dem Strahlungsantrieb $\Delta S$ berechnet:

$ \Delta T=\frac{T\cdot \Delta S}{4\cdot S} = \frac{288 K\cdot 2.1}{4\cdot 240} = 0.63 K $

Demnach reduzieren sowohl Wolken als auch zunehmender Wasserdampfgehalt die CO2-Sensitvität signifikant. Beides muß für eine realistische Berechnung des Treibhauseffekts berücksichtigt werden.




ChatGPT Dialog zum Treibhauseffekt


[latexpage]

Wie hängt der Treibhauseffekt mit dem adiabatischen Temperaturgradienten zusammen?

Der Zusammenhang zwischen Treibhauseffekt und adiabatischem Temperaturgradienten ergibt sich aus der Tatsache, dass der Treibhauseffekt die Temperatur der Strahlungsebene in der Atmosphäre bestimmt, während der adiabatische Gradient vorgibt, wie sich die Temperatur mit der Höhe zwischen dieser Strahlungsebene und der Erdoberfläche verändert.

Ich erkläre das Schritt für Schritt:

1. Der Treibhauseffekt legt fest, wo die Erde ins All abstrahlt

  • Ohne Treibhausgase würde die Erdoberfläche selbst die meiste Wärmestrahlung direkt ins All abgeben.
  • Mit Treibhausgasen wird die Wärmestrahlung in der Atmosphäre absorbiert und re-emittiert.
  • Für einen Beobachter im All stammt die meiste Abstrahlung aus einer bestimmten Effektivhöhe (oft in 5–7 km Höhe), wo die Atmosphäre gerade durchsichtig genug für Infrarotstrahlung wird.
  • An dieser Höhe muss die Temperatur so sein, dass die Strahlungsleistung der Erde dem Gleichgewicht mit der eingehenden Sonnenstrahlung entspricht (ca. –18 °C im globalen Mittel).

2. Der adiabatische Temperaturgradient verbindet diese Höhe mit der Oberfläche

  • In der Troposphäre wird Temperaturänderung mit Höhe (vertikal) oft durch Konvektion bestimmt.
  • Der trocken-adiabatische Gradient liegt bei etwa 9,8 K pro Kilometer, der feucht-adiabatische bei 4–7 K/km (weil Kondensation Wärme freisetzt).
  • Wenn wir die Temperatur an der Strahlungshöhe kennen, können wir mit dem adiabatischen Gradient nach unten rechnen und die Temperatur an der Erdoberfläche bestimmen.

Beispiel grob gerechnet:

  • Strahlungshöhe: 5 km, Temperatur dort: –18 °C
  • Feucht-adiabatischer Gradient ~6,5 K/km
    → Temperatur an der Oberfläche: –18 °C + (5 km × 6,5 K/km) ≈ +14 °C

3. Mehr Treibhausgase Strahlungshöhe steigt Oberfläche wird wärmer

  • Verstärkter Treibhauseffekt bedeutet: Infrarotstrahlung kann erst aus höheren Schichten entweichen.
  • Diese höheren Schichten sind kälter, um dieselbe Abstrahlleistung zu erbringen, muss die Temperatur an dieser Höhe gleich bleiben ⇒ die gesamte Troposphäre „verschiebt“ sich temperaturmäßig nach oben.
  • Wegen des adiabatischen Gradienten wird das auf die Oberflächentemperatur „hochgerechnet“ – also wird es unten wärmer.

Um wieviel höher in konkreten Zahlen ist die Abstrahlhöhe aufgrund der Zunahme des CO2 von 280ppm auf 420ppm?

Idee in einem Satz

Mehr CO₂ erhöht die effektive Strahlungsantrieb (radiative forcing). Um die gleiche abgestrahlte Leistung ins All beizubehalten, muss die Abstrahlungstemperatur geringfügig steigen → bei festem vertikalen Temperaturgradienten (adiabatischer / mittlerer Troposphärengradient) bedeutet das eine höhere Abstrahlungshöhe. Wir berechnen, um wieviel.

Schritt 1 — Radiative forcing durch CO₂-Zunahme

Für CO₂ benutzt man die bewährte Näherung (Myhre et al. 1998; IPCC):

$\Delta F \approx 5{,}35\;\ln\!\left(\frac{C}{C_0}\right)\ \text{W/m}^2$

Für $C_0=280$ ppm → $C=420$ ppm:

$\Delta F = 5{,}35\cdot\ln\!\left(\frac{420}{280}\right)\approx 2{,}17\ \text{W/m}^2.$

(Quelle für Formel und Werte: Myhre/IPCC.) 

Schritt 2 — Wie verändert ΔF die Abstrahlungstemperatur?

Die Erde (bzw. die „Strahlungsebene“) strahlt ungefähr wie ein schwarzer Körper mit $T\approx 255\ \text{K}$ (≈ −18 °C). Kleine Änderungen der ausgehenden Strahlung $F=\sigma T^4$ hängen linear mit der Temperaturänderung:

$\Delta T \approx \frac{\Delta F}{4\,\sigma\,T^3}$

Setze $\sigma=5{.}670374\times10^{-8}\ \mathrm{W\,m^{-2}\,K^{-4}} und T=255\ \mathrm{K}$:

$\Delta T \approx \frac{2{,}17}{4\cdot 5{.}67\cdot10^{-8}\cdot 255^3}\approx 0{,}58\ \text{K}.$

(Quelle: Stefan–Boltzmann / effektive Abstrahlungstemperatur ≈255 K.) 

Schritt 3 — Temperaturänderung → Höhenänderung über den Lapse‑Rate

Mit einem typischen (mittleren) Troposphären‑Lapse‑Rate $\Gamma ≈ 6,5$ K/km (standardmäßiger Wert für die mittlere Troposphäre) gilt:

$\Delta z \approx \frac{\Delta T}{\Gamma}$

Also

$\Delta z \approx \frac{0{,}58\ \text{K}}{6{,}5\ \text{K/km}}\approx 0{,}089\ \text{km}\approx 89\ \text{m}.$

(Quelle für typische mittlere Lapse‑Rate ≈6.5 K/km.) 

Ergebnis (kurz)

Die Zunahme von CO₂ von 280 ppm → 420 ppm verschiebt die (vereinfachte) effektive Abstrahlungshöhe um ≈ 90 Meter nach oben (unter den getroffenen Annahmen).

Wichtige Vorbehalte (weil die Herleitung stark vereinfacht ist)

  1. Wir haben eine globale Mittelbetrachtung benutzt — lokal/vertikal variiert alles.
  2. Linearisation von $F=\sigma T^4 $ist für kleine ΔF gerechtfertigt; hier ist sie gut brauchbar.
  3. Wir haben nur die direkte Strahlungswirkung von CO₂ betrachtet — Rückkopplungen (Wasserdampf, Wolken, Änderung des Temperaturgradienten selbst, Stratosphäre) wurden nicht berücksichtigt. Diese beeinflussen letztlich die Oberflächenerwärmung, aber die einfache Rechnung oben zeigt, wie groß die reine geometrische Hebung der Abstrahlungsschicht ist.
  4. Die effektive Abstrahlungshöhe ist spektral und ortsabhängig — hier ist sie als ein Single‑Level-Modell (vereinfachte, mittlere Höhe) behandelt.

Was kommt mit dieser Rechnung bei einer Verdoppelung auf 560 ppm heraus?

Annahmen (wie vorher): effektive Abstrahlungstemperatur $T\approx255\ \mathrm{K}$, Myhre‑Formel für CO₂‑Forcing, mittlere Troposphären‑Lapse‑Rate $\Gamma=6{,}5\ \mathrm{K/km}$.

Berechnung (einfach):

  • Radiative forcing bei Verdoppelung 280\to560 ppm:
    $\Delta F = 5{,}35\ln\!\left(\tfrac{560}{280}\right)=5{,}35\ln 2 \approx 3{,}71\ \mathrm{W/m^2}$.
  • Änderung der effektiven Abstrahlungstemperatur (linearisiert aus $F=\sigma T^4$):
    $\Delta T \approx \frac{\Delta F}{4\sigma T^3}\approx 0{,}99\ \mathrm{K}$.
  • Entsprechende Hebung der Abstrahlungshöhe bei $\Gamma=6{,}5\ \mathrm{K/km}$:
    $\Delta z \approx \frac{\Delta T}{\Gamma}\approx 0{,}152\ \mathrm{km}\approx 152\ \mathrm{m}$.

Kurz: Bei einer CO₂‑Verdoppelung 280→560 ppm verschiebt sich die (vereinfachte) effektive Abstrahlungshöhe um ≈150 Meter nach oben.

Wichtig — Vorbehalte (wie zuvor):

  • Das ist ein stark vereinfachtes, globales „single‑level“ Modell. In Wirklichkeit ist die Abstrahlung spektral und ortsabhängig; verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen.
  • Rückkopplungen (Wasserdampf, Wolken, Änderung des vertikalen Gradienten) sind hier nicht berücksichtigt und verändern die bodennahe Erwärmung stark.
  • Die Rechnung erklärt nur die geometrische Hebung der effektiven Abstrahlungsschicht, nicht die gesamte Oberflächentemperaturänderung.

Wenn du magst, rechne ich das kurz für mehrere Lapse‑Rates (trocken ≈9.8 K/km, feucht ≈5 K/km) durch oder zeichne ein aktualisiertes Diagramm mit den beiden Fällen. Welche Variante hättest du gern?

Wie kommt es, dass das anerkannte Simulationsprogramm MODTRAN zu einem anderen Ergebnis kommt? Bei einer Konstellation aus Wolken und Wasserdampf, die bei der Standardatmosphäre zu einem Stahlungsgleichgewicht bei 240 W/m2 führt, bekomme ich für eine Änderung der CO2 Konzentration von 280 auf 560 ppm einen Stahlungsantrieb von -1.95 W/m2.

Gute Frage — und schön, dass du ein konkretes MODTRAN‑Ergebnis hast. Kurz gesagt: MODTRAN‑Ergebnisse können deutlich von der einfachen Myhre‑Formel abweichen, weil MODTRAN ein spektral aufgelöstes, all‑sky Radiativ‑Transport‑Werkzeug ist und viele Effekte (Wolken, Wasserdampf‑Überlappung, Stratosphären‑Anpassung, Sign‑Konventionen, Bandmodell‑Näherungen usw.) berücksichtigt oder durch Einstellungen unterschiedlich ausweist.

Im Folgenden erkläre ich die wichtigsten Gründe elementar und mit Quellenhinweis, damit du nachvollziehen kannst, warum du −1.95 W/m² siehst.

1) Erst: Vorzeichen / Definition von „Forcing“ in deiner Ausgabe

Bevor wir physikalisch interpretieren: kontrolliere die Sign‑Konvention von MODTRAN‑Output.

  • Manche Ausgaben zeigen die Änderung des ausgehenden TOA‑LW‑Flusses ($ΔF_{out} = F_{after} − F_{before}$). Wenn CO₂ zunimmt, wird weniger ausgehende LW‑Strahlung ins All gelangen → ΔF_out ist negativ.
  • Die gebräuchliche IPCC‑Angabe für „radiative forcing“ ist aber oft als netter Strahlungsantrieb (ΔF_downward at TOA) positiv, wenn mehr Energie in das System bleibt. Ein negativer ΔF_out entspricht also einem positiven Forcing in der IPCC‑Konvention.
    ➡️ Prüfe also, ob dein −1.95 W/m² schlicht Δ(TOA outgoing) statt Δ(TOA net downward) ist. Das allein würde das Vorzeichen erklären. (MODTRAN‑FAQ / Report beschreibt unterschiedliche Ausgabegrößen).  

2) All‑sky (Wolken) vs Clear‑sky — Wolken reduzieren das CO₂‑Forcing

Die klassische Myhre‑Formel (≈3.7 W/m² für Verdoppelung) ist eine globale Mittel‑Schätzung häufig für klare Verhältnisse oder aus Line‑by‑Line‑Berechnungen mit typischen Profilen abgeleitet.

Wolken blockieren/absorbieren viel LW selbst und „decken“ Bands, in denen CO₂ wirken würde — dadurch verringert sich die zusätzliche Wirkung einer CO₂‑Erhöhung im globalen Mittel. Laut IPCC verringern Wolken das CO₂‑Forcing im Mittel (klar vs. all‑sky) – typischer Wert ~10–20% Reduktion, je nach Wolkenhöhe/Optical‑Depth. Falls dein Szenario eine dichte/wirkungsvolle Wolkenschicht hat, ist eine starke Abschwächung zu erwarten. 

3) Wasserdampf‑Überlappung und Feuchteabhängigkeit

Wasserdampf absorbiert in vielen der gleichen Spektralbereiche wie CO₂. Wenn die Atmosphärensäule schon viel Wasserdampf enthält (feuchte Tropen, viel Wasserdampf in tiefen Schichten), dann teilt sich CO₂ die Absorptionswirkung mit H₂O → die inkrementelle Wirksamkeit zusätzlichen CO₂ wird geringer. Science‑of‑Doom / Literatur zeigen, dass die spaltweise Wirkung stark vom Spalten‑Feuchtegehalt abhängt; je feuchter, desto geringer das zusätzliche Forcing. Das kann die Myhre‑Erwartung weiter reduzieren. 

4) Spektrale / Höhenabhängige Effekte: Emissionshöhen sind nicht ein einzelnes Level

Die „effektive Abstrahlungshöhe“ ist spektral verteilt — verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen (Fensterband, CO₂‑Banden, H₂O‑Banden). MODTRAN berechnet genau diese spektrale Verteilung. Wenn deine Atmosphäre + Wolken so beschaffen sind, dass die relevanten Banden bereits aus relativ hohen, kalten Regionen abstrahlen, dann ist der marginale ΔF klein. Das ist physikalisch nicht widersprüchlich zur logarithmischen Näherung, aber zeigt, dass ein einzelner 3.7 W/m²‑Wert nur ein grobes globales Mittel ist. 

5) Stratosphärische Temperatur‑Anpassung (Adjusted vs Instantaneous Forcing)

Es gibt verschiedene Forcing‑Definitionen: instantaneous (sofortige Änderung bei fixer Temperaturprofil), stratosphere‑adjusted (Stratosphäre darf sich auf das Gleichgewicht einstellen, Troposphäre bleibt fix) und adjusted surface temperature (voller Gleichgewicht). MODTRAN‑Setups können die Stratosphäre automatisch anpassen — das ändert den gemessenen ΔF um einige Zehntel bis über 1 W/m². IPCC‑Methoden nutzen oft stratosphere‑adjusted (für Vergleichbarkeit). Wenn dein MODTRAN‑Lauf z.B. eine stratosphärische Abkühlung zulässt, kann der reported ΔF (gemessen als Änderung des TOA netto) kleiner ausfallen als die Myhre‑Zahl. 

6) MODTRAN‑Einstellungen / Bandmodell‑Näherungen / Feinstruktur

MODTRAN verwendet Bänder‑/correlated‑k‑Ansätze und verschiedene „continuum“‑Parameter für Wasserdampf. Unterschiedliche Versionen (MODTRAN4 vs 5 vs 6) und Parameter‑Choices (z. B. continuum treatment, line cutoffs, spectral resolution, instrument response) verändern kleine, aber nicht vernachlässigbare Teile des ΔF. Die MODTRAN‑Dokumentation beschreibt diese Abhängigkeiten. 

7) Deine Ausgangszahl 240 W/m² — All‑sky Mittel passt zur Realität

Du sagst, deine Konstellation führt zu TOA Abstrahlung ≈240 W/m² — das ist in der Größenordnung des globalen Mittelwertes (≈239–240 W/m²). Das bedeutet: dein Lauf ist wohl ein plausibles all‑sky Szenario, und eine Verringerung der TOA‑Ausgangsleistung um ≈1.95 W/m² (also ΔF_out ≈ −1.95) entspricht einem positiven Forcing von +1.95 W/m² nach IPCC‑Konvention. Das ist deutlich unter 3.7 W/m², aber durchaus nicht ungewöhnlich, wenn Wolken + hoher Spalten‑Feuchte + spezifische Stratosphären‑Anpassungen zusammenwirken. 

Fazit — was erklärt deinen Wert von −1.95 W/m²?

Wahrscheinlich eine Kombination aus:

  1. Ausgabe‑Vorzeichen (Δ(TOA outgoing) statt Δ(downward) → negatives Vorzeichen erwartbar),
  2. All‑sky (Wolken) und hoher Wasserdampfgehalt, die das CO₂‑Signal abschwächen,
  3. mögliche Stratosphären‑Anpassung oder andere MODTRAN‑Einstellung (instantaneous vs adjusted),
  4. Modellspezifische Band‑/continuum‑Parameter.
    Unter diesen Bedingungen ist ein Effekt von ≈1.95 W/m² (nett sichtbar am TOA) völlig plausibel – er bedeutet ≈+1.95 W/m² Strahlungsantrieb nach IPCC‑Konvention und ist nur kleiner als die 3.7 W/m² „Ideal‑Klarfall“ wegen der oben genannten Überlappungs‑/Wolken‑Effekte.  

Wenn du willst, kann ich dir konkret helfen und drei Dinge durchsehen / ausprobieren:

  • Prüfen, welche Größe MODTRAN genau ausgibt (TOA up, TOA net downward, instant vs adjusted).
  • MODTRAN‑Runs vergleichen: clear‑sky vs all‑sky, und ein Lauf mit Stratosphäre fix/adjusted — das zeigt schnell, welche Effekte die ~1.8 W/m² Differenz erklären.
  • Eine Abschätzung machen, wie viel Reduktion durch Wolken + Wasserdampf zu erwarten ist (klar → all‑sky).

Schick mir (falls du magst) kurz: die MODTRAN‑Eingabedatei oder die Einstellungen (clear/all‑sky, Version, ob „stratosphere adjust“ an ist, Wolkenhöhe/optische Dicke, Feuchteprofil). Dann interpretiere ich die Ausgabe genau und zeige, welche Komponente wie viel beiträgt.




Analyse des Stromausfalls in Spanien am 28. April 2025

Hintergrund und Vorgeschichte

Einführung
Am 28. April 2025, um 12:33 Uhr, erlebte Spanien einen massiven Stromausfall, der das gesamte Stromnetz der Iberischen Halbinsel lahmlegte. Dieser Blackout, der als eines der schwerwiegendsten Ereignisse in der jüngeren Geschichte des Landes gilt, hatte seine Wurzeln in einer Kombination aus technischen, wirtschaftlichen und politischen Faktoren, die sich über Monate und Jahre entwickelten. Dieser Bericht analysiert die zeitliche Abfolge, die Ursachen und die Konsequenzen des Ausfalls basierend auf den bereitgestellten Daten.

Vorgeschichte und Warnsignale
Bereits im Frühjahr 2024 zeigten sich erste Anzeichen von Instabilität im spanischen Stromnetz. Nach Jahren sinkender Stromerzeugungspreise für Wind- und Solarenergie sanken diese auf negative Day-Ahead-Preise, was darauf hinwies, dass die Marktdynamik nicht mehr ausreichte, um die Erzeugung rentabel zu halten. Trotz Subventionsmaßnahmen wurde die Drosselung erneuerbarer Energien zunehmend notwendig, was die „Flitterwochen für erneuerbare Energien“ beendete[1]. Studien wie die der Organisation „Ökologischer Wandel“, prognostizierten, dass die Wahrscheinlichkeit eines Blackouts im Jahr 2025 fünfmal höher sei als 2021[2]. Der Mutterkonzern Red Eléctrica, Redeia, wies zwei Monate vor dem Ereignis auf die Risiken hin, die durch den Ausbau erneuerbarer Energien und den Rückgang konventioneller Kraftwerke (Kohle, Gas, Kernkraft) entstanden. Besonders die geringere Systemträgheit und die Unfähigkeit, sich an Störungen anzupassen, wurden als kritische Faktoren genannt[3].

Entwicklung in den Tagen vor dem Blackout
Sechs Tage vor dem Ausfall, am 22. und 24. April, berichtete Red Eléctrica von ungewöhnlichen Kombinationen von Störungen, die das Netz destabilisierten. Am 22. April um 19:00 Uhr führte eine plötzliche Richtungsänderung des Stromaustauschs mit Portugal (von Export zu Import) sowie eine Reduzierung der Photovoltaikproduktion durch schlechte Wetterbedingungen zu Spannungsschwankungen[4]. Ähnliche Probleme traten am 24. April um 18:00 Uhr auf, als ein rascher Anstieg der Photovoltaikproduktion und Exports nach Frankreich die Leitungen überlastete[5]. Diese Ereignisse deuteten auf eine wachsende Verwundbarkeit des Netzes hin, die durch die hohe Abhängigkeit von erneuerbaren Energien verstärkt wurde.

Verlauf des Blackouts und Folgen

Ablauf des Blackouts am 28. April 2025
Der eigentliche Zusammenbruch begann um 12:33 Uhr, als das Netz ein erstes „Ereignis“ erlitt, vermutlich ein Verlust erneuerbarer Erzeugung, möglicherweise solarbasierter Anlagen im Südwesten Spaniens. Innerhalb von Millisekunden stabilisierte sich das System kurzzeitig, doch 1,5 Sekunden später folgte ein zweites Ereignis, das die Instabilität verschärfte[6]. Etwa 3,5 Sekunden nach dem ersten Ereignis brachen die Verbindungen nach Frankreich zusammen, was den Stromfluss von etwa 2,5 GW unterbrach[7]. Der Frequenzabfall erreichte schließlich 49,25 Hz bei einer Rate of Change of Frequency (RoCoF) von -0,8 Hz/S, was zum vollständigen Netzversagen führte[8]. Der Verlust von 15 GW Solarenergie und der anschließende Ausfall konventioneller Kraftwerke (z. B. Kernkraftwerke, wie der automatische Abschalt des Reaktors in Golfech um 12:34 Uhr) trugen zum Kollaps bei[9].

Ursachen und technische Details
Die Hauptursache war ein Überangebot an erneuerbarer Energie, das die Nachfrage überstieg, was zu Frequenzabweichungen führte. Schutzrelais schalteten Teile des Netzes ab, und die geringe Momentanreserve (z. B. 26,54 % um 12:30 Uhr nur in Spanien) sowie der gleichzeitige Ausfall von Kraftwerken wie Omledilla (130 MW) und UF Sabinar (193 MW) verschärften die Krise[10]. Die hohe asynchrone Erzeugung (über 70 % in den Wochen zuvor) und die Abhängigkeit von instabilen Verbindungen (z. B. nach Frankreich) machten das System anfällig für kaskadierende Ausfälle[11].

Nachwirkungen und Maßnahmen
Nach dem Blackout aktivierte Spanien Gasenergie, um das Netz zu stabilisieren, und drosselte erneuerbare Energien vorübergehend[12]. Die Wiederherstellung der Versorgung war ein langwieriger Prozess, der einen ganzen Tag dauerte. Der Vorfall hat die Debatte über den Ausbau erneuerbarer Energien und die Notwendigkeit robusterer Netzinfrastrukturen angeheizt.

Fazit
Der Blackout vom 28. April 2025 war das Ergebnis kumulativer Warnsignale, die ignoriert wurden, kombiniert mit technischen Schwächen im Umgang mit erneuerbaren Energien. Eine verbesserte Netzstabilität, höhere Reserven und eine balancierte Energiemix-Strategie sind zwingend erforderlich, um zukünftige Krisen zu verhindern. Konkret muss zu jedem Zeitpunkt sichergestellt sein, dass die Momentanreserve mindestens 40 %, besser 50 % der Last ist. Solange noch keine zuverlässigen netzbildenden Wechselrichter im Einsatz sind, sind damit dem weiteren Ausbau der Erneuerbaren Energien klare Grenzen gesetzt.

Erstellt am 08. Mai 2025 basierend auf den bereitgestellten Daten von Stefan Spiegelsperger (Youtube Outdoor Chiemgau):  https://www.youtube.com/watch?v=ty483srwuNU  und https://klima-fakten.net/wp-content/uploads/2025/05/Spanien-Blackout-Timeline-28.04.2025-12-33-Uhr.xlsx
Die Aussagen zur Momentanreserve sind aus den Day-Ahead Daten der Energy-Charts berechnet. Diese Quellen dürfen aus urheberrechtlichen Gründen nicht veröffentlicht werden.


[1]Montelnews, „The Iberian Blackout: Ambition vs. Inertia“, https://montelnews.com/news/b230abfb-a11e-415e-910d-f1a190e0a590

[2] Okdiario, „Sánchez conocía el riesgo de apagon“, https://okdiario.com/espana/sanchez-conocia-riesgo-apagon-transicion-ecologica-aviso-que-era-5-veces-mayor-que-2021-14687783

[3] El País, „La matriz de Red Eléctrica alertó hace dos meses del riesgo de desconexiones severas“, https://elpais.com/economia/2025-04-29/la-matriz-de-red-electrica-alerto-hace-dos-meses-del-riesgo-de-desconexiones-severas-por-el-aumento-de-las-renovables.html

[4] La Sexta, „Red Eléctrica reconoció en informe que seis días antes del apagon“, https://www.lasexta.com/noticias/nacional/red-electrica-reconocio-informe-que-seis-dias-antes-apagon-sistema-sufrio-combinacion-incidencias-que-nunca-habian-coincidido_20250505681885af319ae75da4c0b359.html

[5] Ebenda

[6] https://pbs.twimg.com/media/Gp7b2JUXEAAFimQ?format=jpg

[7] Ebenda

[8] Fraunhofer, „Energy-Charts_Talks_47_Apagon.pdf“, https://www.energy-charts.info/energy-charts_talks/Energy-Charts_Talks_47_Apagon.pdf

[9] EDF, „Actualité de l’unité de production n°1“, https://www.edf.fr/la-centrale-nucleaire-de-golfech/les-actualites-de-la-centrale-nucleaire-de-golfech/actualite-de-l-unite-de-production-ndeg1?utm_source=chatgpt.com

[10] Bild Spain Grid Failure, https://www.saurugg.net/2025/blog/stromversorgung/grossflaechiger-stromausfall-auf-der-iberischen-halbinsel-am-28-april-2025; Montelnews, „La generación cayó en España 19 segundos antes del apagon“, https://montelnews.com/es/news/0fa10545-ccbe-4182-bc45-5a1d301cbcc8

[11] Montelnews, „The Iberian Blackout: Ambition vs. Inertia“, https://montelnews.com/news/b230abfb-a11e-415e-910d-f1a190e0a590

[12] Montelnews, „España corta renovable y activa gas para asegurar la red“, https://montelnews.com/es/news/61b7a85c-f2d5-4ea3-89a7-a4a56e8357e3




Das älteste Klimamanifest der Welt

Zu allen Zeiten haben Klimaereignisse die Menschheit bewegt und geprägt. Das alte Testament gibt uns vielfältige, zum Teil dramatische Zeugnisse aller Arten von extremem Klimageschehen wie langjährigen Dürren, Hitze- und Kälteperioden, Feuerstürmen und Überschwemmungen. Jeder ausgebildete Theologe kennt zu fast jedem heutigen klimatischen Horrorbericht einen entsprechenden im Alten Testament (häufig waren die damaligen Ereignisse extremer, z.B. 7-jährige Dürreperioden). Die Menschen hatten zwar auch immer wieder — wie wir — die Frage gestellt, inwiefern sie selbst für das Geschehen verantwortlich waren, aber haben die Konsequenzen als zum Dasein gehörendes Leiden akzeptiert. Entscheidend ist die Frage eines grundsätzlichen Vertrauens in die Struktur der Wirklichkeit. Das ist keine wissenschaftliche Frage mehr, trotzdem kommt niemand an dieser Frage vorbei. Wer dieses Vertrauen nicht hat, wird unweigerlich wegen jeder Abweichung vom „Normalen“ in Panik geraten und deswegen gerade die falschen Entscheidungen treffen.
Es ist meines Erachtens kein Zufall, dass gerade nach der schlimmsten bekannten Flut vor schätzungsweise 4000 Jahren Menschen mit solchem Grundvertrauen in die Wirklichkeit sich mit der Frage der Stabilität des Klimas beschäftigten und die 1. Welt-Klimakonferenz der Menschheit mit einem erstaunlichen Manifest beendete:

Solange die Erde steht, soll nicht aufhören:
Saat und Ernte,
Frost und Hitze,
Sommer und Winter,
Tag und Nacht (Gen. 8/22)

In der Präambel finden wir die Einsicht, dass es möglicherweise mit der Erde zu Ende gehen wird, heute wissen wir, dass dies spätesten mit dem Ende der Sonnentätigkeit geschehen wird. Bis dahin allerdings sehen wir 4 Säulen eines grundsätzlich stabilen Ökosystems und Klimas:

  • Der Tag-Nacht-Rhythmus ist durch die stabile Eigenrotation der Erde gegeben,
  • Die Jahreszeiten sind eine Folge der Bahn der Erde um die Sonne bei leichter Neigung der Achse, sowie der mit den Breitengraden zunehmenden Abkühlung aufgrund des flacheren Einfallwinkels des Sonnenlichts,
  • Frost und Hitze stehen für außergewöhnliche Klimaereignisse. Offenbar waren die Menschen damals realistisch genug, nicht an eine Illusion eines gleichbleibenden Zustandes ohne größere Schwankungen zu glauben. Trockenheit und Überschwemmungen kann man im gleichen Atemzug nennen.
  • Saat und Ernte schließlich bedeutet die Stabilität eines komplexen ökologischen Systems. Dieses System ist allerdings nicht nur die unberührte Natur. Saat und Ernte sind bewusste, gewollte Eingriffe des Menschen in die Natur — dieser Eingriff ist also von vorneherein vorgesehen – der Mensch ist nicht der Schädling des Planeten. Saat und Ernte“ stehen demnach für die einzigartige Kreativität des Menschen im Umgang mit der Natur und ihren nachwachsenden „Rohstoffen“, sie stehen für die schon früh gekannte und praktizierte „Nachhaltigkeit“, die es dem Menschen erlaubt und möglich macht, die Natur im Rahmen seiner existenziellen Bedürfnisse zu nutzen. Von rücksichtsloser Ausbeutung steht nichts in der Schrift.



Anteile der anthropogenen und der natürlichen Emissionen am Anstieg der CO2-Konzentration


[latexpage]

Aus der Publikation Improvements and Extension of the Linear Carbon Sink Model geht hervor, dass die globale natürliche effektive Senkenwirkung sowohl von der CO2-Konzentration als auch von der globalen (Meeresoberflächen-)Temperaturanomalie abhängen. Dazu hier eine kurze Herleitung der Zusammenhänge. Im Gegensatz zur zitierten Publikation wird hier mit monatlichen anthropogenen Emissionsdaten $E_i$ und monatlichen Konzentrationsdaten $C_i$ Daten mit fortlaufenden Monaten $i$ gerechnet.

Die Massenerhaltung bzw. die Kontinuitätsgleichung bedeutet, dass sich das monatliche Konzentrationswachstum
$G_i=C_i-C_{i-1}$
zwingend aus der Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$, vermindert um die monatlichen Absorptionen $A_i$ ergibt:
\begin{equation}\label{eq:massconservation}
G_i = E_i + N_i – A_i
\end{equation}
Die effektive Senkenwirkung $S_i$ ist die Differenz zwischen anthropogenen Emissionen und dem Konzentrationswachstum:
\begin{equation}\label{eq:sinkeffect}S_i = E_i – G_i\end{equation}

Emissionen, Konzentrationswachstum und effektive Senkenwirkung (Senkenwirkung ist nach unten aufgetragen).

Aus Gleichung \ref{eq:massconservation} folgt unmittelbar, dass die effektive, also direkt messbare Senkenwirkung nicht nur Absorptionen durch die Ozeane und Pflanzen, sondern implizit auch sämtliche natürliche Emissionen enthält:
$S_i = A_i – N_i$
Daher ist die Senkenwirkung nicht identisch mit der Summe sämtlicher Absorptionen, sondern nur den Anteil der Absorptionen, die nicht durch natürliche Emissionen kompensiert wurden.

Aus der Arbeit „Improvements and Extension of the Linear Carbon Sink Model“ ergibt sich, dass die globale effektive Senkenwirkung $\hat{S}_i$ durch ein erweitertes Modell aus CO$_2$ Konzentration $C_i$ und globaler Meeresoberflächentemperatur $T_i$ gut beschrieben wird:
\begin{equation}\label{eq:bilinearmodel} \hat{S}_i = a\cdot C_{i-1} +b\cdot T_{i-1} + c\end{equation}
Zum Vergleich wird das in der Arbeit „Emissions and CO2 Concentration—An Evidence Based Approach“ beschriebene einfache Senkenmodell verwendet, das nur von der CO$_2$ Konzentration abhängt:
\begin{equation}\label{eq:linearmodel} \hat{S}_i = a’\cdot C_{i-1} + c’\end{equation}

Abb. 2 Modellierung der Senkenwirkung mit einfachem Senkenmodell (orange) und erweitertem Senkenmodell (grün)

Die Abbildung 2 zeigt, dass das einfache Modell den Trend sehr gut wiedergibt, dass aber die Schwankungen erst durch das erweiterte Modell, also durch Einbeziehen der Meeresoberflächentemperatur beschrieben werden können. Die Parameter für die beste Anpassung des erweiterten Modells sind $a=0,052$, $b=-4$ ppm/°C, $c=-16$ ppm.

Mit den Gleichungen \ref{eq:sinkeffect} und \ref{eq:bilinearmodel} bzw. \ref{eq:linearmodel} lässt sich auch der Konzentrationsanstieg modellieren:
\begin{equation}\label{eq:g2model}\hat{G}_i = E_i – a\cdot C_{i-1} – b\cdot T_{i-1} – c\end{equation}
Dies wird in Abb. 3 gezeigt. Zum Vergleich auch hier wieder die Rekonstruktion mit dem einfachen Senkenmodell.

Abb. 3: Gemessener Konzentrationsanstieg (blau), mit einfachem Senkenmodell rekonstruierter (orange), mit erweitertem Senkenmodell (grün) rekonstruierter Konzentrationsanstieg.

Rekonstruktion der Konzentration, Unterscheidung des Einflusses von Emissionen und Temperatur

Aus dem Konzentrationswachstum $G_i$ lässt sich mit Hilfe der initialen CO$_2$ Konzentration $C_{-1}$, hier also der Konzentration im Dezember 1958, der Verlauf der CO$_2$ Konzentration rekonstruieren.
Nach Gleichung \ref{eq:g2model} wird das Konzentrationswachstum von den äußeren Zustandsgrößen der anthropogenen Emissionen und der Temperatur gesteuert. Zusammen mit dem ermittelten Parameter $b$ ergibt der Term $b\cdot T_i$ die Veränderung der natürlichen Emissionen aufgrund der Temperaturanomalie $T_i$.
Daher ist es zunächst interessant, die Größenordnungen beider Emissionsquellen miteinander zu vergleichen. Als Maßeinheit der Emissionen wird GtC verwendet, die sich durch Multiplikation der sonst in ppm gemessenen Größen mit 2,123 ergibt.

Abb. 4 zeigt die anthropogenen Emissionen seit 1959 und die natürlichen Emissionen aufgrund der Temperaturskala der Anomalie der Meeresoberflächentemperaturen. Es fällt auf, dass vor 1975 die Temperaturen und damit die natürlichen Emissionen überwiegend negativ sind. Das hängt mit der willkürlichen Wahl des Nullpunkts der Anomalie-Temperaturskala zusammen.

Abb. 4: Anthropogene Emissionen und durch die Temperatur bewirkte natürliche Emissionen

Weiter fällt auf, dass die anthropogenen Emissionen im Schnitt etwa 4 GtC größer sind als die natürlichen. Insgesamt sind die natürlichen Emissionen zahlenmäßig noch sehr viel größer, da der konstante Term $c$ von etwa 34 GtC (16\cdot 2,123) auch natürliche Emissionen darstellt. Diese konstanten natürlichen Emissionen definieren laut Gleichung 14 in Improvements and Extension of the Linear Carbon Sink Model die Gleichgewichtskonzentration bei der Temperaturanomalie 0°, mit den aktuellen Zahlen ist diese Gleichgewichtskonzentration 307 ppm. Das ist nicht der vorindustrielle Zustand, dieser hat die Temperaturanomalie -0,48°.

In Abb. 5 sind 3 ausgewählte Modellszenarien dargestellt. Außer den tatsächlich gemessenen Konzentrationswerten zunächst die Rekonstruktion mit dem tatsächlichen Temperatur- und Emissionsverlauf (orange). Diese bleibt erwartungsgemäß sehr nahe an den Messdaten.

Abb. 5.: Gemessene Konzentration (blau), Auswirkung von 3 Szenarien auf die Konzentration. Siehe Text.

Zusätzlich werden 2 weitere Szenarien dargestellt:

  • Die anthropogenen Emissionen bleiben auf dem Stand von 1959 und nur die Temperatur entwickelt sich so weiter wie wir es kennen (grüne Farbe). Die CO$_2$ Konzentration wächst bis etwa 370 ppm an.
  • Die Temperatur bleibt auf dem Stand von 1959, die anthropogenen Emissionen wachsen aber wie gewohnt. Die Konzentration steigt zunächst steiler and als wenn die Temperatur sich auch verändern würde. Das kommt daher, dass die Temperaturanomalie bis Mitte der 70er Jahre unter 0 bleibt. Erst nach 1983 bleibt die resultierende Konzentration unter dem Referenzwert. Insgesamt haben die anthropogenen Emissionen einen größeren Anteil am Konzentrationswachstum als die natürlichen, aber 2023 z.B. kommen der natürliche dem anthropogenen Emissionsanteil sehr nahe.

Es fällt auch auf, dass die Auswirkungen beider Emissionsquellen in Form von resultierender Konzentration sich nicht einfach addieren lassen. Die Konzentration aus der Summe ist geringer als die Summe der Konzentrationen beiden Emissionsanteile. Das hat damit zu tun, dass mit wachsender Konzentration die Absorptionen zunehmen. Beide Emissionsquellen haben zusammen einen kleineren Effekt auf die Konzentration als man vom jeweiligen Einzeleffekt intuitiv erwarten würde.

Fazit

Das erweiterte Senkenmodell erlaubt es, die Auswirkungen von anthropogenen Emissionen und Temperaturerhöhungen auf die CO$_2$ Konzentration separat zu betrachten. Das Ergebnis widerspricht denjenigen, die der Auffassung sind, dass die anthropogenen Emissionen vollständig die Konzentrationsänderungen seit dem Beginn der Industrialisierung erklären. Aber es widerspricht auch denjenigen, die behaupten, aufgrund des großen Umsatzes des natürlichen Kohlenstoffkreislaufs spielten die anthropogenen Emissionen gar keine Rolle. Die Wahrheit ist, dass beide Faktoren einen größenordnungsmäßig ähnlichen Einfluss haben, die anthropogenen Emissionen allerdings etwas überwiegen.




Sind die natürlichen Senken am Ende?

[latexpage]

Aktuell werden in den Medien Artikel verbreitet, wonach angeblich die natürlichen CO2-Senken „plötzlich und unerwartet“ ihre Funktion beendet hätten, stellvertretend für viele andere der Artikel im Focus „Viel früher als berechnet: Plötzlich geraten natürliche CO2-Speicher ins Wanken„. Die natürlichen CO2-Speicher ist die biologische Welt, bestehend aus allen Lebewesen, Pflanzen, Tiere und Menschen. Außerdem die Ozeane, die etwa die 50-fache Menge CO2 der Atmosphäre speichern. Es ist bekannt und seit vielen Jahrzehnten belegt dass sowohl die biologische Welt als auch die Ozeane starke CO2-Senken sind. Mit wachsender Tendenz wird aktuell mehr als die Hälfte aller anthropogenen Emissionen von den beiden großen Senkensystemen absorbiert, wie in Abbildung 1 dargestellt.

Abbildung 1: Emissionen und natürliche Senkensysteme, Ozeane und Landlebewesen

Was ist passiert, dass plötzlich nun angeblich die Senkenwirkung nachlässt? Schon auf den ersten Blick verrät das Diagramm, dass die abgebildete Senkenwirkung, die den Landpflanzen zugeordnet wird, außerordentlich starken Schwankungen unterliegt, viel stärker als etwa die der Ozeane. Das sollte gleich stutzig machen, wenn von einem „einmaligen“ Ereignis innerhalb des vergangenen Jahres gesprochen wird.

Bei genauerer Betrachtung aller zu diesem Thema erschienenen Artikel wird schnell klar, dass sich alle auf eine einzige Publikation berufen. „Wissenschaftliche“ Grundlage und Auslöser der aktuellen Diskussion ist offenbar dieser Artikel: „Low latency carbon budget analysis reveals a large decline of the land carbon sink in 2023„.  

Um eine angemessene Antwort darauf zu finden, ist es notwendig, genauer hinzuschauen und anhand von Originaldaten zu prüfen, wie sich die Konzentrationsänderungen entwickeln. In den Publikationen Emissions and CO2 Concentration—An Evidence Based Approach und  „Improvements and Extension of the Linear Carbon Sink Model“ habe ich den Zusammenhang zwischen Emissionen, Konzentrationsanstieg und Senkenwirkung sorgfältig analysiert und ein robustes einfaches Modell der Senkenwirkung entwickelt, das nicht nur die Messdaten der letzten 70 Jahre sehr genau wiedergibt, sondern auch zuverlässige Prognosen erlaubt. Beispielsweise konnten die Konzentrationsdaten der Jahre 2000-2020 aus den Emissionen und den vor dem Jahre 2000 ermittelten Modellparametern mit extrem hoher Genauigkeit vorhergesagt werden. Allerdings endete die neueste in den Publikationen verwendete Messreihe im Dezember 2023, außerdem wurden Jahresmittelwerte verwendet, daher sind die Phänomene, die aktuell für so viel Aufregung sorgen, dort noch nicht berücksichtigt.

Detailanalyse des Konzentrationsanstiegs bis August 2024

Da es hier nun auf Details der letzten beiden Jahre ankommt, werden die Berechnungen der genannten Publikation hier mit monatsgenauen Daten bis August 2024 weitergeführt, um ein klares Bild der Details zu bekommen und um die neuesten Daten einzubeziehen. Ausgangspunkt sind die Original Maona Loa Meßdaten, die in Abbildung 2 dargestellt sind.

Abbildung 2: Gemessene Maona Loa CO2-Konzentrationsdaten

Die monatsgenauen Daten unterliegen saisonalen Schwankungen, die von der ungleichen Verteilung der Landmasse zwischen Nord- und Südhalbkugel herrühren. Daher besteht der erste Verarbeitungsschritt darin, die saisonalen Einflüsse, d.h. alle periodischen Änderungen mit Periodendauer 1 Jahr herauszurechnen. Das Ergebnis ist ebenfalls in Abbildung 2 zu sehen (Farbe orange).

Die globale Meeresoberflächentemperatur unterliegt ebenfalls saisonalen Schwankungen, allerdings in sehr viel geringerem Ausmaß, wie aus Abbildung 3 hervorgeht.

Abbildung 3: Globale Meeresoberflächen Temperatur-Anomalien (HadSST4)

Bildung und Analyse des monatlichen Konzentrationsanstiegs

Durch Subtraktion zeitlich aufeinanderfolgender Messpunkte wird der „rohe“ Konzentrationsanstieg berechnet:     

Abbildung 4: Wachstum der CO2-Kozentration, Original(blau) und geglättet(orange).

Es ist leicht erkennbar, dass die monatlichen Schwankungen des Konzentrationsanstiegs beträchtlich sind, und der besonders hohe Peak Ende 2023 keinesfalls ein singuläres Ereignis darstellt; insbesondere geht der positiven Spitze eine viel größere negative voraus, über die in der Presse kein Wort verloren wurde.  Auch der um einiges höhere Anstieg 2015 wurde nicht berücksichtigt. Damit hätte man leicht die gewagte Hypothese eines nachlassenden Senkeneffekts widerlegen können, denn in den geglätteten Daten (orange) ist erkennbar, dass es nach 2015 einen deutlichen Trend eines rückläufigen Konzentrationsanstiegs gibt.

Nach einer Glättung (orange) kann man den wirklichen Verlauf besser erkennen als mit den rohen, rauschbehafteten Differenzen. Da es sich um monatliche Werte handelt, müssen die Werte mit 12 multipliziert werden, um Rückschlüsse auf jährlichen Konzentrationsanstieg ziehen zu können. Ohne Zweifel ist am rechten Rand des Diagramms erkennbar, dass es seit 2023 tatsächlich eine Zunahme des Konzentrationsanstiegs gibt, was in der aktuellen Diskussion als Nachlassen der Senkenleistung interpretiert wird.

Interpretation des Anstieg des Konzentrationswachstums als Folge natürlicher Emissionen

Zur Veranschaulichung ist in Abbildung 5 der Senkenleistung (grün) aus der Differenz von  anthropogenen Emissionen (blau) und Konzentrationswachstum (orange). 
Grundlage dieser Berechnung ist die auf der Massenerhaltung beruhende Kontinuitätsgleichung, wonach das Konzentrationswachstum $G_i$ im Monat $i$ sich aus der Differenz aller Emissionen und allen Absorptionen $A_i$ ergibt, wobei die Gesamtemissionen die Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$ sind, also
$G_i = E_i + N_i – A_i $
Die effektive monatliche Senkenwirkung $S_i$ wird ermittelt als Differenz zwischen den monatlichen anthropogenen Emissionen $E_i$ und dem monatlichen Konzentrationswachstum $G_i$, also
$S_i = E_i – G_i$
Aufgrund der Kontinuitätsgleichung beinhaltet die effektive Senkenwirkung außer den Absorptionen durch Ozeane und Pflanzen auch die natürlichen Emissionen:
$S_i = A_i – N_i$

Abbildung 5: Anthropogene Emissionen(blau), CO2 Konzentrationswachstum(orange) und Senkenwirkung (grün)

Es ist leicht zu sehen, dass auch am rechten Rand von Abbildung 5 die (über einige Monate geglättete) effektive Senkenleistung nicht unter 0 sinkt. Allerdings geht sie tatsächlich zurück. Jetzt muss man sich aber darauf besinnen, dass nach der Kontinuitätsgleichung die „effektive Senkenleistung“ aus Absorptionen (Senken im engeren Sinn) und natürlichen Emissionen besteht. Es könnte also auch sein, dass die Spitzen des Konzentrationswachstums durch natürliche Emissionen hervorgerufen werden.  Diese kommen in den Publikationen, die aktuell Alarm schlagen, überhaupt nicht vor.

Es ist allgemein bekannt und Folge des sogenannten Henry-Gesetzes, dass der Gasaustausch zwischen Meer und Atmosphäre von der Meeresoberflächentemperatur abhängt. Deswegen erwarten wir bei steigender Temperatur verstärkte CO2-Emissionen aus den Meeren, etwas übertrieben vergleichbar mit einer Sprudelflasche im Backofen.
Diese Überlegung motiviert die Einführung der Temperatur als Modellparameter in der Beschreibung der effektiven Senkenleistung. Die Details der Ausarbeitung dieser Modellerweiterung ist in der oben erwähnten Publikation sowie in deren vereinfachter Beschreibung zu finden.

Was die Hinzunahme der Temperatur für die Modellierung des Konzentrationsanstiegs bedeutet, sieht man in Abbildung 6.

Abbildung 6: Geglättetes Konzentrationswachstum(blau) und dessen Modellierung mit temperaturunabhängigem (grün) und temperaturabhängigem (orange) Senkenmodell

Während die grüne Kurve das weithin bekannte lineare Senkenmodell darstellt (siehe Vollmer&Eberhardt (2024), Dübal&Vahrenholt (2023), Spencer (2019) und Dietze (1997)), wie es in der Publikation bzw. in der vereinfachten Darstellung beschrieben ist, wird in der orangenen Kurve auch noch die Abhängigkeit von der Temperatur gemäß der neuen Publikation berücksichtigt. Es stellt sich heraus, dass der aktuelle „zu große“ Anstieg der Konzentration eine ganz natürliche Folge des zugrundeliegenden Temperaturanstiegs ist. An der Senkenleistung, der linearen Abhängigkeit der Absorption von der CO2-Konzentration, hat sich überhaupt nichts geändert.

Höchste Zeit also, die Temperatur als „normale“ Ursache von CO2-Konzentrationsveränderungen in der öffentlichen Diskussion als Einflußfaktor zu etablieren statt wilde Spekulationen über ausbleibenden Senken ohne Evidenz anzustellen.