Sie glauben das nicht? Wo uns doch täglich Medien und Politik einhämmern, dass es gar keine Emissionen mehr geben darf, um das berühmte Netto Null zu erreichen?
Es hilft uns weiter, erst einmal den Originaltext des Pariser Klimaabkommens zu lesen:
Die Länder müssen das Emissionsmaximum so bald wie möglich erreichen, um
ein Gleichgewicht zwischen vom Menschen verursachten Emissionen durch Quellen und Absorptionen durch Senken von Treibhausgasen in der 2. Hälfte des Jahrhunderts zu erreichen (bei einer Temperaturerhöhung um max. 1.5° C)
Im Klartext heißt also Netto-Null, dass die Quellen von Emissionen mit den Absorptions-Senken im Gleichgewicht sein müssen. Es heißt nicht, dass die Emissionen Null sein müssen, es heißt nur, dass es gleich viele Absorptionen wie Emissionen gibt.
Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Die Analyse der einzelnen Mechanismen hat zusammen mit der mittlerweile falschen Annahme exponentiell wachsender Emissionen zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen für immer in der Atmosphäre verbleibt.
Zu einer anderen Schlussfolgerung kommen wir jedoch, wenn wir die logisch gleichwertige Frage stellen: „Wie viel CO2 verbleibt nicht in der Atmosphäre?“. Das verändert alles. Die Menge an CO2, die nicht in der Atmosphäre verbleibt, kann anhand der direkten Messungen von Emissionen und Konzentrationsänderungen berechnet werden, ohne dass wir die Absorptionsmechanismen im Einzelnen untersuchen müssen. Denn für das CO2 gilt die Massenbilanzgleichung, die besagt, dass nichts verloren geht:
Dass bereits heute mehr als die Hälfte der menschengemachten Emissionen von den Ozeanen und der Photosynthese der Pflanzen und in der Folge auch von Tieren wieder geschluckt werden, ist allgemein bekannt und unstrittig, aber viele befürchten, dass ein Rest für immer in der Atmosphäre verbliebe.
Diese 280 ppm ergeben sich aus dem Gleichgewicht aus natürlichen Emissionen und Absorptionen ohne anthropogene Emissionen.
Die Messdaten, insbesondere die der CO2-Konzentration, sind seit den 50er Jahren sehr genau. Mit den Messwerten von 1950-2000 konnten die tatsächlichen CO2-Konzentrationen von 2000-2020 exakt vorhergesagt werden, wie wir rückblickend sehen können. Die Qualität der Vorhersage ist ganz hervorragend.
Um zu verstehen, wie der Mechanismus der Emission (die Quellen) und Absorption (die Senken) funktioniert, schauen wir uns einen Vergleich aus der vertrauteren Welt eines Geldkontos an.
Das Gleichnis eines speziellen Geldkontos
Stellen Sie sich vor, Sie haben ein Konto mit einem Kontostand von 413 € zu Beginn des Jahres 2020. In dieses Konto werden jedes Jahr 4,50 € einbezahlt.
Nun hat sich der Staat eine eigenartige Vermögenssteuer für dieses Geldkontos einfallen lassen: Es gibt einen Freibetrag von 280 €. Der Rest des Guthabens auf dem Konto wird am Jahresende mit 2% besteuert.
Was passiert? Wie entwickelt sich der Kontostand? Am Ende des Jahres 2020 sind 417,50 € auf dem Konto, davon werden 0,02*(417,50-280) = 2,75 abgeführt, es verbleiben also 414,75 €
Jahr
Am 1.1.
Einzahlung
Besteuerung
Abzug
Am 31.12.
2020
413,00
4,50
0,02*(417,50-280,00)
2,75
414,75
2021
414,75
4,50
0,02*(419,25-280,00)
2,78
416,46
2022
416,46
4,50
0,02*(420,96-280,00)
2,82
418,15
….
2050
452,77
4,50
0,02*(457,27-280,00)
3,55
453,72
…
2080
474,46
4,50
0,02*(478,96-280,00)
3,98
474,98
Man sieht, der Kontostand wächst zwar an, aber die Abzüge erhöhen sich jedes Jahr. Man kann leicht ausrechnen, dass bei einem Kontostand von 505 € am Jahresende die ganzen einbezahlten 4,50 € wieder abgeführt werden. Das heißt, beim Kontostand 505 € ist die berühmte Netto-Null Situation erreicht. Weiter kann das Konto bei jährlichen 4 ,50 € Einzahlungen nicht mehr anwachsen. Und es dauert ziemlich lange, bis dieser Zustand erreicht ist: Nach 60 Jahren wäre man erst bei 474,98 €.
Zukunftsszenario
Dieses Geldkonto-Gleichnis beschreibt ziemlich genau den CO2-Haushalt der Atmosphäre. Der Kontostand entspricht der Konzentration des CO2 in der Atmosphäre, zu Beginn des Jahres 2020 waren das etwa 413 ppm („parts per million“ = Anteile CO2 pro 1 Million Luftmoleküle).
Die Einzahlungen entsprechen den jährlichen weltweiten Emissionen, also das, was wir in die Atmosphäre hineingeben. Das sind aktuell etwa 4,5 ppm weltweit, was einem Gewicht von etwa 36 Milliarden Tonnen CO2 entspricht.
Nun hat die Internationale Energieagentur mit ihrer weltweiten Statistik seit 1850 geschätzt, wieviel CO2 in Zukunft ausgestoßen werden wird. Dabei gibt es ein Szenario, bei dem angenommen wird, dass die jetzt grade geltenden Gesetze und Regelungen in allen Ländern der Erde unverändert weiter fortgesetzt werden, das sogenannte „Szenario der ergriffenen Maßnahmen“. Also möglicherweise existierende emissionssenkende Gesetze, aber keine künftigen weiteren Maßnahmen zur Emissions-Senkung.
Dieses Szenario besagt, dass die weltweiten Emissionen über die nächsten 10 Jahre etwa gleichbleiben, und dann ganz leicht mit etwa 0,3% pro Jahr sinken. Das bedeutet, dass es weltweit im Jahre 2100 wieder genauso viele Emissionen geben wird wie im Jahre 2005. Das kann bei einzelnen Ländern schon dazu führen, dass die Emissionen etwas stärker sinken, dagegen in den ärmsten Entwicklungsländern aufgrund des Nachholbedarfs Emissionen erst noch anwachsen. Aber es wird nirgendwo dramatische Auswirkungen geben, die den Wohlstand in Frage stellen.
Mit den Zahlen der Internationalen Energie Agentur haben wir herausgefunden: Der CO2-„Kontostand“ beträgt im Jahre 2080 etwa 475 ppm, und wird darüber hinaus nicht mehr ansteigen. Sensationelles Ergebnis.
Und was heißt das für das Klima?
Wir wollen uns hier ganz bewusst nicht auf die möglicherweise berechtigten Zweifel einlassen, ob nun das CO2 überhaupt einen Einfluss auf die globale Mitteltemperatur und in der Folge auf das Klima hat oder nicht. Unbestritten ist seit dem Beginn der Industrialisierung die CO2 Konzentration von 280 auf 413 ppm angewachsen, also um 133 ppm.
Wir akzeptieren hier die weit verbreitete Auffassung, dass der Anstieg der globalen Durchschnittstemperatur um 1° C seit dem Beginn der Industrialisierung ausschließlich diesem Anwachsen der CO2 Konzentration geschuldet ist.
Der künftige Anstieg der CO2-Konzentration ist 475 – 413 = 62 ppm. Das ist knapp die Hälfte des bisherigen Anstiegs von 133 ppm. Damit geht konsequenterweise einher, dass bis dann auch die Temperatur allenfalls nochmal um ein halbes Grad ansteigt, also insgesamt um 1,5° seit Beginn der Industrialisierung.
Die gute Nachricht: Mit den heutigen CO2 -Emissionen und deren Senkung durch Effizienzsteigerung von 3% pro Jahrzehnt wird das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt, ganz ohne wohlstandsschädigende Maßnahmen ergreifen zu müssen.
Energiewende mit Batterien?
Es ist bekannt, dass die sogenannten „Erneuerbaren“, also Windkraft und Photovoltaik, nur zeitweise Energie liefern. Bei der Photovoltaik sind es in Deutschland im Schnitt 800-900 Volllaststunden im Jahr, bei der Onshore Windkraft zwischen 1800 und 2000 Volllaststunden, und bei Offshore Windkraft rund 3300-3500 Volllaststunden. Das Jahr hat aber im Schnitt 8766 Stunden (8760, im Schaltjahr 8784), demzufolge benötigt man ein Vielfaches der sogenannten Nennleistung, um wenigstens im Durchschnitt die geforderte Energie zu liefern.
Kleiner Exkurs zum Problem des Netzausbaus
Damit wird aber bereits klar, warum die Energiewende ein notorisches Problem mit dem existierenden Stromnetz hat, obwohl es für die Bedarfsdeckung mit konventionellen Kraftwerken völlig ausreichend war und genügend Reservekapazität vorhanden war. Bei Erzeugung mit Erneuerbaren muss das Netz, zumindest in Teilen, für die volle Nennleistung ausgebaut sein, der tatsächliche durchschnittliche Ertrag davon ist aber höchstens 20% davon, demnach müssen Teile des Netzes bis zu 5-fach überdimensioniert sein. Sichtbar wird dieses Problem aktuell daran, dass es einen „Stau“ bei der Genehmigung von Batteriegroßspeichern gibt, denn für diese Speicher müssen ebenfalls „auf Verdacht“ große Netzkapazitäten vorgehalten werden, die nur für einen Bruchteil der Zeit dann tatsächlich genutzt werden.
Diese massiven Probleme, die zwar im Prinzip lösbar sind, aber enorme Kosten nach sich ziehen, bestimmen im Moment einen Großteil der politischen Debatte. Es wird so getan, dass mit dem Ausbau der Netze das Hauptproblem der Energiewende gelöst ist. Das ist aber nicht der Fall.
Deswegen werden bei den folgenden Überlegungen alle genannten Netzprobleme als gelöst betrachtet. Wir tun so, als hätten wir ideale Netzbedingungen. Der Strom, der in der Nordsee erzeugt wird, steht hypothetisch uneingeschränkt in Berchtesgaden zur Verfügung. Batteriespeicher sollen unbegrenzt anschließbar sein.
Um zeigen zu können, dass das Konzept der Energiewende, volatile Energie mit Speichern zu „glätten“, grundsätzliche Probleme hat, müssen wir ideale Bedingungen annehmen, um nicht im Vorfeld der eigentlichen Probleme hängen zu bleiben.
Geplanter Ausbau der Energiewende bis Jahre 2030
Je nach Ausbau von Wind und Solar gibt es also Zeiten des Defizits und Zeiten des Überschusses.
Nun ist aber die Energiewende so gedacht, dass letztlich die gesamte Versorgung durch erneuerbare Energien erfolgen soll. Nach den Vorstellungen der Planer der Energiewende soll durch zügigen Ausbau von Photovoltaik und Windkraft bis 2030 der Großteil des elektrischen Energiebedarfs durch Erneuerbare gedeckt werden. Das soll laut der Studie „Klimaneutrales Deutschland 2045“, die der Energiewende zugrunde liegt[1], durch den Ausbau von Photovoltaik und Windkraft so erfolgen:
Die gesamte geplante installierte Gesamtleistung ist demnach 318 GW.
Es wird weiterhin angenommen, dass 2030 die Gesamtjahreslast von 458 TWh im Jahre 2023 auf 656 TWh ansteigt. Diese Last wird bei den verwendeten Prozentwerten als Referenz verwendet.
Was bedeutet nun dieser Ausbau für die deutsche Stromversorgung im Jahre 2030? Um diese und andere Fragen zu beantworten, haben Dr. Björn Peters und ich eine Studie durchgeführt, in der die Ausbauszenarien der Energiewende einem Realitätscheck unterworfen wurden[3]: Wir haben die realen, viertelstündliche Energieerzeugung von Photovoltaik, Wind On-shore und Wind Offshore aus den Jahren 2023 oder wahlweise 2024 mit den jeweiligen Ausbaufaktoren auf das Jahr 2030 hochgerechnet, ebenso die hochgerechnete Verbrauchslast des ausgewählten Referenzjahres. In den Rechnungen hier wird der Datensatz von 2023 verwendet.
Weiterhin wurde die erzeugte Energie aus Wasserkraft unverändert übernommen, was einem Jahresertrag von 19 TWh entspricht (3% der Jahreslast). Die Energieerzeugung aus Biomasse wurde als konstant 7 GW angenommen (9% der Jahreslast), was eine leichte angenommene Steigerung der aktuellen durchschnittlichen 5,4 GW bedeutet
Da in dieser Untersuchung die optimalen Möglichkeiten für die Batteriespeicherung ausgelotet werden sollen, beschränkt sich die nicht regelbare Grundlast auf rein erneuerbare Quellen wie Wasserkraft und Biomasse. Auf regelbare Backupkraftwerke kann beim Ausbau 2030 noch nicht ganz verzichtet werden. Um insgesamt einen Überschuss zu garantieren, sind 8 GW an regelbarer Kraftwerksleistung vorgesehen. Damit wird allerdings weitgehend auf die Momentanreserve, die eine Voraussetzung der Netzstabilität ist, verzichtet. Mit dieser extrem optimistischen Konstellation werden 66% der Jahreslast durch direkte Nutzung erneuerbarer Energien abgedeckt. Zusammen mit Wasserkraft und Biomasse, also 78%. Die Backupkraftwerke kommen in der Verarbeitungsreihenfolge des Szenarios zuerst und sind daher unabhängig von der Speichergröße. Die Backupkraftwerke erzeugen dabei 5% der Jahreslast.
Eine weitere regelbare Reserve ist durch die möglichen Stromimporte gegeben. Diese werden mit maximal 5 GW als etwa doppelt so hoch wie die tatsächlichen Stromimporte im Jahre 2024 angenommen. Ebenso wird ein jederzeit möglicher Stromexport von 5 GW angenommen. In der gegebenen Konstellation tragen die Importe dann 3% zur Abdeckung der Gesamtlast bei. Sowohl der maximale Import als auch der maximale Export können im Simulationsprogramm[4] beliebig verändert werden.
Unter diesen Voraussetzungen wird untersucht, inwieweit eine Versorgung Deutschlands durch Erneuerbare und Batteriespeichern möglich ist. Mit diesen Voraussetzungen müssen noch 14% der Gesamtlast aus Speichern erbracht werden.
Zunächst wird in Abb. 1 der Überschuss-/Defizitverlauf des ganzen Jahres gezeigt. Dieser ergibt sich, indem zu jeder Viertelstunde die Energienachfrage vom Energieangebot abgezogen wird. Das Energieangebot besteht aus Wind- und Solarenergie sowie den weiteren erneuerbaren Energien, Wasserkraft und Biomasse. Anfangs wird nur die verfügbare Pumpspeicherkapazität von etwa 40 GWh für die Speicherung genutzt
Die blaue Kurve zeigt die Überschüsse und Defizite, bevor Speicherung und variable Backupkraftwerke und Stromimporte eingesetzt werden. In der Bilanz überwiegen vor dem Speicher- und Backupprozess, in der blauen Kurve die Defizite, in der Summe 22% des Gesamtverbrauchs, während die Überschüsse initial 17% des Gesamtverbrauchs ausmachen.
Der darauf angewandte Prozess beinhaltet (in dieser Reihenfolge) Backupkraftwerke, Import, Speichern und Export.
Abb. 1: Jahresverlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit Pumpspeicher(rot)
Die rote Kurve beschreibt die Diskrepanz nach diesem Prozess. Es wird idealisierend angenommen, dass die Backupkraftwerke sehr schnell, d.h. innerhalb einer Viertelstunde auf Anforderungsänderungen reagieren können. Das ist in Wirklichkeit nicht immer möglich.
Die graue Linie zeigt die maximal mögliche Regelleistung der Backup-Kraftwerke und der Stromimporte. Dies ist mit den gewählten Backup- und Importwerten 8+5 GW = 13 GW.
Zur besseren Veranschaulichung wird in Abb 2. der Monat September ausgewählt und vergrößert dargestellt:
Abb. 2: Verlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit Pumpspeicher im Monat September.
In Abb. 3 wird der Ladezustand des (Pump-)Speichers gezeigt:
Abb. 3: Ladezustand des Pumpspeichers im Verlauf des Monats September
Am 1. Tag ist der Speicher leer, und es gibt ein Stromdefizit, das nicht durch den Prozess mit Speicher, Backup und Import ausgeglichen werden kann. Bis zum 11. Tag wird der Speicher zwar täglich fast gefüllt, aber es reicht trotzdem nicht, die Last zu decken. Erst ab dem 18. wird der Bedarf für 3 Tage gedeckt. Der Export von 5 GW sorgt dafür, dass die rote Kurve etwas unter der blauen Kurve liegt und maximal 5 GW ins Ausland abfließen können.
Über das Jahr bleiben durch die Speicherung von den ursprünglich 17% Überschuss noch 14%. Das Defizit sinkt von ursprünglich 22% auf 13%. Dieser große Sprung kommt nicht allein vom Speicher, sondern durch den Einsatz von Backupkraftwerken und Stromimport. Jedenfalls ist nach dem Prozess der Überschuss größer als das Defizit, eine gute Voraussetzung für den Einsatz von Batteriespeichern.
Mit dem minimalen Speicherausbau der existierenden Pumpspeicherkraftwerke können also weder die Überschüsse gespeichert noch die Zeiten des Defizits ausgeglichen werden.
Einsatz von Batteriespeichern
Batterien – das ist der aktuelle Hype, der die Probleme lösen soll, die uns die volatilen Erneuerbaren bereiten. Der Plan ist, die Überschüsse, die aktuell zu Negativpreisen führen, zu speichern, um sie dann nachts oder bei Flaute zur Verfügung zu haben. Wenn es zu Diskussionen über die Probleme der Volatilität kommt, ist die einhellige Antwort, dass dies alles durch große Batteriespeicher gelöst wird.
Der offizielle Plan ist, 2030 Batteriespeicher mit einer Kapazität von 300 GWh im Einsatz zu haben, zusätzlich zu den existierenden 40 GWh Pumpspeichern. Dazu in Abb. 4 das Diagramm der volatilen Erzeugung.
Abb. 4: Verlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit 300 GWh Batteriespeicher (rot) im Monat September
Dazu in Abb. 5 der Füllstand der Batteriespeicher (ohne Pumpspeicher)
Abb. 5: Füllstand des Batteriespeichers mit 300 GWh Kapazität im Monat September.
Das Ergebnis der drastischen Vergrößerung des Speichers ist etwas enttäuschend. Die meisten Tage, an denen ohne die Batteriespeicher Stromdefizite waren, haben jetzt immer noch Stromdefizite, wenn auch geringfügig kleinere. Immerhin gibt es nach der Speicherung nur noch an 4 Tagen Überschüsse. Der größere Speicher kann sich naturgemäß nur dort verbessernd auswirken, wo der bisherige Pumpspeicher an seine Kapazitätsgrenzen geraten war, also am 18.-24. Tag, am 24. und am Monatsende. Insgesamt reduziert sich das Stromdefizit des ganzen Jahres auf 10%, also rund 66 TWh. Der volatile Jahresüberschuss ist immer noch bei 11% (73 TWh), der durch Abregelung entsorgt werden muss.
Dass es sich hier nicht um ein Problem eines besonders „schlechten“ Monats handelt, wird bei der Wahl eines anderen Monats erkennbar, z.B. des Dezembers. Ausgehend von einem leeren Batteriespeicher gibt es erstmal 8 Tage Stromdefizit, die folgenden Überschusstage füllen den Speicher bereits am ersten Tag. Die Überschüsse der nächsten Überschusstage können daher nicht mehr gespeichert werden, und am 11. Tag wird der Speicherinhalt verbraucht, und der Speicher ist wieder für einige Tage leer. Ab dem 16. Tag ist dann gelingt dann die Stromversorgung für den Rest des Monats.
Abb. 6: Verlauf der volatilen Stromerzeugung (blau) und nach Speicherung mit 300 GWh Batteriespeicher (rot) im Monat Dezember
Abb. 7: Füllstand des Batteriespeichers mit 300 GWh Kapazität im Monat September.
Zu bedenken ist, dass dieser Speicherausbau mit 300 GWh sich bereits mit zusätzlichen 1 ct/kWh im durchschnittlichen Strompreis auswirkt, wenn die Speicherkosten auf den Gesamtverbrauch umgelegt werden. Wenn nur der tatsächlich der Batterie entnommene Strom betrachtet wird, sind die zusätzlichen Kosten für die Speicherung 33 ct/kWh. Dieser Preis ist extrem knapp gerechnet, es wird von 200 €/kWh Batteriespeicher bei einer Lebensdauer von 10 Jahren inklusive Betriebs- und Wartungskosten ausgegangen. Das sind reine Einkaufspreise bzw. Selbstkosten. Heutige Großspeicher werden mit 400-800 €/kWh kalkuliert.
Hypothetischer weiterer Ausbau des Batteriespeichers
Wie verändert sich das Bild bei weiterem Speicherausbau? Die im Folgenden behandelten Szenarien sind rein hypothetisch, sie sind in dieser Form weder realistisch noch werden sie von der Regierung so geplant. Sie dienen hier einzig und allein dazu, um zu zeigen, wie groß die Speicherkapazität sein muss, um die Energiewende einigermaßen sicherzustellen. Und dass der bislang geplante Speicherausbau an der Problematik der Volatilität völlig vorbeigeht. Die grundsätzlichen Überlegungen, insbesondere die zu erwartende Speicherkapazität, gelten auch für andere hier nicht diskutierte Speichertechnologien wie z.B. Speicherung mit Wasserstoff.
Die nächste Simulation wird mit 1 TWh Batteriespeicher gerechnet.
Das ernüchternde Ergebnis ist, dass sich das Defizit nach dem Prozess lediglich auf 8% der Jahreslast reduziert, auch der Überschuss ist 8% der Jahreslast. Nach Abb. 8 läuft der Speicher im Jahresverlauf oft voll und läuft auch immer wieder ganz leer.
Abb. 8: Füllstand des Batteriespeichers mit 1 TWh Kapazität im Jahresverlauf.
Die Batteriespeicherumlage bei den Stromkosten würde unter diesen Voraussetzungen bereits auf 3 ct/kWh anwachsen, der gespeicherte Strom allein würde 58 ct/kWh kosten. Der Preis pro kWh steigt deswegen so stark an, weil die gespeicherte Energiemenge bei weitem nicht in dem gleichen Maß zunimmt wie die Speicherkapazität. Zusätzlicher Speicher nützt nur dann etwas, wenn der bisherige Speicher an Kapazitätsgrenzen stößt.
Beim Ausbau auf 10 TWh gibt es immer noch ein Defizit von 2%, also 13 TWh, dafür steigt die
Abb. 9: Füllstand des Batteriespeichers mit 10 TWh Kapazität im Jahresverlauf.
Speicherumlage auf 30 ct/kWh. Abb. 9 zeigt den Jahresverlauf des Speicherfüllstandes. Der Speicher läuft nur noch zweimal im Jahr ganz voll, aber wird noch häufig ganz leer.
Erst bei 30 TWh Speicher läuft, wie in Abb. 10 zu sehen ist, der Speicher nicht mehr leer, mit einer Speicherkostenumlage von 90ct/kWh:
Abb. 10: Füllstand des Batteriespeichers mit 30 TWh Kapazität im Jahresverlauf.
Dieses Ergebnis gilt allerdings nur unter den Bedingungen des Jahres 2023. Wind und Sonne können sich bekanntlich von Jahr zu Jahr sehr verändern, daher ist das Gelingen dieses Szenarios keineswegs eine Garantie, dass es in anderen Jahren auch gelingen wird.
Aus den Randbedingungen des Szenarios ergibt sich, dass
66% der Last durch direkte Verarbeitung der volatilen erneuerbaren Energien geliefert wird,
12% der Last von Wasserkraft und Biomasse geliefert wird,
8% der Last von Backupkraftwerken und Importen geliefert wird.
Die restlichen 14% müssen durch Speicher aus den Überschüssen gewonnen werden.
In der folgenden Tabelle sind die Ergebnisse der Speicher-Simulationen zusammengefasst. Die Spalte Kosten weist die Kosten für jede tatsächlich gelieferte Kilowattstunde aus, bei der Kostenumlage werden die Batteriekosten auf die gesamte Jahreslast umgelegt, also auch auf den Stromanteil aus allen anderen Stromquellen, die nichts mit dem Speicher zu tun haben.
Der CO2-Fußabdruck der Batteriespeicherung wird so berechnet: Bei der Herstellung einer Batterie fallen 75 kg CO2 pro kWh Batteriekapazität an[5]. Bei der angenommenen Lebensdauer von 10 Jahren[6] sind das 7500 t/GWh pro Jahr. Dies wird mit der Batteriekapazität multipliziert und durch die pro Jahr der Batterie entnommene Energiemenge geteilt (analog zu den Kosten).
Speicher (GWh)
Ertragsanteil (% der Last)
Überschuss (%)
Defizit (%)
Kosten (ct/kWh)
Kostenumlage (ct/kWh)
CO2 Fußabdruck (g/kWh)
40
1
14
13
0,0
0,0
0
140
3
12
11
20
0,3
75
340
4
11
10
33
0,9
125
1040
6
8
8
58
3,0
218
10040
12
1
2
274
30,0
1027
30040
14
0
0
712
90,0
2668
Das Ergebnis ist, dass mit dem von der Regierung geplanten Ausbau der Batteriespeicher (gelb markierte Zeile, 300 GWh Batteriespeicher, 40 GWh Pumpspeicher) nur 4% der Gesamtlast, also 29% der Strom-Deckungslücke geliefert werden können. Selbst bei einer Verdreifachung der Batteriekapazität auf — schwer vorstellbare — 1 TWh ist es mit 6% der Gesamtlast weniger als die Hälfte der übers ganze Jahr inhomogen verteilte fehlenden Energie.
Eine Dimensionierung über 1 TWh Kapazität kommt weder aus Kostengründen noch aus Gründen der CO2 Bilanz in Frage, zumal man für den photovoltaischen Anteil der Energie auch noch rund 150 g/kWh an CO2 Ausstoß rechnen muss. Zum Vergleich: Ein Gaskraftwerk stößt 400-500 g/kWh an CO2 aus.
In unserer Publikation haben wir die saisonale Speicherung der letzten 10% mit Gasspeichern simuliert, also Herstellung von Wasserstoff mit Elektrolyse, Speicherung des Wasserstoffs in Gaskavernen, und bei Bedarf Wiedergewinnung von Strom mit Gaskraftwerken oder Gasmotoren.
Diese Option betrifft aber noch nicht das Jahr 2030, sie wird in einem weiteren Beitrag behandelt.
Für das Jahr 2030 bedeutet dies, dass die restlichen 10%, also 66 GWh, durch konventionelle Kraftwerke erbracht werden müssen. Rein rechnerisch könnte diese Energie mit 8 GW Kraftwerksleistung (im Dauerbetrieb) erbracht werden. Nun ist es leider nicht so, dass man diese Leistung nach Belieben über das Jahr verteilen kann. Sie muss jeweils punktgenau in den Leistungslücken der Erneuerbaren geliefert werden.
Das Diagramm Abb. 11 zeigt die Verteilung der angeforderten Leistung. Es werden bis zu 60 GW simultan zusätzlich benötigt, wenn auch nur für wenige Stunden im Jahr. Für Kraftwerksbetreiber ist die Anforderung, 60 GW Leistung vorzuhalten, für weniger als 300 Stunden im Jahr, ein Albtraum. Niemand wird freiwillig in solche Kraftwerke mit einer Auslastung von weniger als 3,5% investieren.
Abb. 11: Restbedarf an Stunden zusätzlicher Kraftwerksleistung
Fazit – Batterien lösen das Problem volatiler Energie in Deutschland nicht
Nach diesen Überlegungen wird transparent, dass mit vertretbarem Aufwand im besten Fall 4-6% der benötigten elektrischen Energie durch Batteriespeicher bereitgestellt werden können. Bei 300 GWh Batteriespeicherausbau bedeutet das 6 Mrd. € jährliche Kosten allein für den Batteriespeicher, um damit gerade mal 4% des Strombedarfs, also 18 TWh, zu decken. Der aus den Batterien kommende Strom kostet demnach 33 ct/kWh zusätzlich zu den eigentlichen Erzeugungskosten. Ein Batteriespeicherausbau darüber hinaus verbietet sich nicht nur durch die immensen Kosten (für jede 100 GWh 2 Mrd. €), sondern auch durch die steigenden CO2-Belastungen bei der Herstellung solch großer Speicher.
Bei einem Speicherausbau von 300 GWh kann jedoch auf kein einziges Backup-Kraftwerk verzichtet werden. Backup-Kraftwerke müssen die volle Netzlast abfangen können.
Dabei sind 2 wesentliche Problemfelder noch gar nicht angesprochen worden, nämlich den zusätzlichen Netzausbau, den Batteriespeicher nach sich ziehen. Der Grund, warum aktuell sehr viele Anträge zum Bau von Batteriespeichern nicht genehmigt werden, ist nämlich der, dass für jeden großen Batteriespeicher auch entsprechend große Netzkapazitäten zur Verfügung gestellt werden müssen. Da nicht vorhersehbar ist, wann genau ein Batteriespeicher Strom speichert oder abgibt, müssen entsprechende Kapazitäten „auf Verdacht“ bereitgestellt werden.
Ein weiteres Problemfeld ist die Momentanreserve, die bislang ausschließlich von den rotierenden Massen der konventionellen Kraftwerke bereitgestellt wird. Seit dem Blackout in Spanien wird dort sorgfältig darauf geachtet, dass nicht mehr als 65% des Stroms mit Erneuerbaren erzeugt wird[7].
Das in diesem Artikel beschriebene Szenario nimmt darauf keine Rücksicht, um das maximal mögliche Potenzial von Erneuerbaren und Batteriespeicherung auszuloten. Für eine realistische, mit Momentanreserve abgesicherte Stromversorgung sind wegen der notwendigen Momentanreserve die zu erwartenden Erträge aus Erneuerbaren und Batteriespeichern geringer als hier beschrieben, und die abzuregelnden Überschüsse sind größer.
[3] J. Dengler und B. Peters, Implications of Battery and Gas Storage for Germany’s National Energy Management with Increasing Volatile Energy Sources (2025): https://www.mdpi.com/2071-1050/17/12/5295
Der häufig verwendete Wert des CO₂-Forcings beträgt $3.7 \frac{W}{m^2}$. Dabei beruft man sich gewöhnlich auf die Untersuchungen von Myhre. Dort befindet sich dieser Wert ganz am Ende implizit als „simplified expression“. Dieser Wert läßt sich mit dem öffentlich verfügbaren MODTRAN nicht reproduzieren, es kommt dabei der Wert ohne Kompensation der Stratosphärenstrahlung heraus („instantaneous“), während Myhre den sog. „adjusted“ Wert liefert, der eine Korrektur aufgrund der Stratosphärenstrahlung durchführt. Möglicherweise sind dadurch von MODTRAN gelieferte Werte etwas zu niedrig.
Um eine im globalen Mittel realistische Sensitivität zu erreichen, muss mit der tatsächlichen Abstrahlung von $240 \frac{W}{m^2}$ gerechnet werden, mit der das globale Strahlungsgleichgewicht erreicht wird.
Um das zu simulieren, müssen sowohl Wolken als auch Wasserdampf berücksichtigt werden. Hierzu werden folgende, aus Literaturrecherche ermittelte folgende Annahmen getroffen:
Der Anteil der von Wolken bedeckten Erdoberfläche ist etwa 67%,
Der global durchschnittliche niederschlagsfähige Wasserdampf (PWV) ist bei Wolkendecke 28 mm und bei wolkenlosem Himmel 21 mm. Im Simulationsprogramm MODTRAN ist der angenommene Defaultwert des Wasserdampfes bei der US Standardatmosphäre etwa 15 mm (dem durchschnittlichen Wert der USA), demzufolge ergibt sich bei Wolken für den „Water Vapor Scale“ Parameter 1.87 und bei wolkenlosem Himmel 1.4.
Als Wolkenart wird vereinfachend die häufigste Wolkenart der Kumuluswolken gewählt. Die Einbeziehung weiterer Wolkenarten können das Ergebnis noch geringfügig verändern.
Simulation wolkenloser Himmel
Die Defaultsimulation von MODTRAN wird modifiziert:
CO2-Konzentration 280 ppm
Water Vapor Scale: 1.4
Locality: US Standard Atmosphere 1976
Als IR-Fluss ergeben sich $264 \frac{W}{m^2}$. Dieser Zustand wird gespeichert. Danach wird die CO₂-Konzentration auf 560 ppm verdoppelt:
Der Strahlungsantrieb aufgrund der CO2-Verdoppelung ist also $2.83 \frac{W}{m^2}$, was trotz der „clear sky“ Annahme bereits deutlich weniger ist als der beim IPCC üblicherweise verwendete Wert von über $3.7 \frac{W}{m^2}$. Doch es fehlt noch die Berücksichtigung des Anteils der von Wolken bedeckten Erdoberfläche.
Simulation des von Wolken bedeckten Teils der Atmosphäre
Die Defaultsimulation von MODTRAN wird modifiziert:
CO₂-Konzentration 280 ppm
Water Vapor Scale: 1.87
Locality: US Standard Atmosphere 1976
Als Wolkenbedeckung wird die „Cumulus Cloud Base“ gewählt.
Als IR-Fluss ergeben sich $225\frac{W}{m^2}$. Dieser Zustand wird gespeichert. Danach wird die CO2-Konzentration auf 560 ppm verdoppelt:
Der Strahlungsantrieb aufgrund der CO2-Verdoppelung ist unter diesen Bedingungen $1.79 \frac{W}{m^2}$. Mit der Wahl des Wolkenmodells „Altostratus“ wäre dieser Strahlungsantrieb $1.76 \frac{W}{m^2}$, der maximale Wert ergibt sich beim „Nimbostratus“ Modell mit $2.51 \frac{W}{m^2}$.
Validierung des Strahlungsgleichgewichts und Bestimmung der CO2-Sensitivität
Um das globale Gleichgewicht zwischen Einstrahlung ($240 \frac{W}{m^2} $) und Abstrahlung zu überprüfen, wird die mit dem Grad der Wolkenbedeckung gewichtete Summe der IR Flüsse der beiden Modelle gebildet: $ 225\frac{W}{m^2} \cdot 0.67 + 264\frac{W}{m^2} \cdot 0.33 \approx 238\frac{W}{m^2} $ Angesichts der möglichen Variabilität der Ausgangsparameter kann dieser Wert als „Punktlandung“ betrachtet werden. Bei Verwendung anderer Wolkenmodelle muss darauf geachtet werden, dass dieses Strahlungsgleichgewicht eingehalten wird.
Der Gesamtstrahlungsantrieb $\Delta S$ ist die gewichtete Summe der Antriebe aus dem Wolkenmodell und dem wolkenlosen Modell: $ \Delta S = 2.83 \frac{W}{m^2}\cdot 0.33 +1.79\frac{W}{m^2}\cdot 0.67 \approx 2.1 \frac{W}{m^2}$
Die CO₂-Sensitivität $\Delta T$ wird mit der Ableitung der Stefan-Boltzmann-Gleichung aus dem IR Fluss $S=240 \frac{W}{m^2}$ und dem Strahlungsantrieb $\Delta S$ berechnet:
Demnach reduzieren sowohl Wolken als auch zunehmender Wasserdampfgehalt die CO2-Sensitvität signifikant. Beides muß für eine realistische Berechnung des Treibhauseffekts berücksichtigt werden.
ChatGPT Dialog zum Treibhauseffekt
[latexpage]
Wie hängt der Treibhauseffekt mit dem adiabatischen Temperaturgradienten zusammen?
Der Zusammenhang zwischen Treibhauseffekt und adiabatischem Temperaturgradienten ergibt sich aus der Tatsache, dass der Treibhauseffekt die Temperatur der Strahlungsebene in der Atmosphäre bestimmt, während der adiabatische Gradient vorgibt, wie sich die Temperatur mit der Höhe zwischen dieser Strahlungsebene und der Erdoberfläche verändert.
Ich erkläre das Schritt für Schritt:
1. Der Treibhauseffekt legt fest, wo die Erde ins All abstrahlt
Ohne Treibhausgase würde die Erdoberfläche selbst die meiste Wärmestrahlung direkt ins All abgeben.
Mit Treibhausgasen wird die Wärmestrahlung in der Atmosphäre absorbiert und re-emittiert.
Für einen Beobachter im All stammt die meiste Abstrahlung aus einer bestimmten Effektivhöhe (oft in 5–7 km Höhe), wo die Atmosphäre gerade durchsichtig genug für Infrarotstrahlung wird.
An dieser Höhe muss die Temperatur so sein, dass die Strahlungsleistung der Erde dem Gleichgewicht mit der eingehenden Sonnenstrahlung entspricht (ca. –18 °C im globalen Mittel).
2. Der adiabatische Temperaturgradient verbindet diese Höhe mit der Oberfläche
In der Troposphäre wird Temperaturänderung mit Höhe (vertikal) oft durch Konvektion bestimmt.
Der trocken-adiabatische Gradient liegt bei etwa 9,8 K pro Kilometer, der feucht-adiabatische bei 4–7 K/km (weil Kondensation Wärme freisetzt).
Wenn wir die Temperatur an der Strahlungshöhe kennen, können wir mit dem adiabatischen Gradient nach unten rechnen und die Temperatur an der Erdoberfläche bestimmen.
Beispiel grob gerechnet:
Strahlungshöhe: 5 km, Temperatur dort: –18 °C
Feucht-adiabatischer Gradient ~6,5 K/km → Temperatur an der Oberfläche: –18 °C + (5 km × 6,5 K/km) ≈ +14 °C
3. Mehr Treibhausgase ⇒ Strahlungshöhe steigt ⇒ Oberfläche wird wärmer
Verstärkter Treibhauseffekt bedeutet: Infrarotstrahlung kann erst aus höheren Schichten entweichen.
Diese höheren Schichten sind kälter, um dieselbe Abstrahlleistung zu erbringen, muss die Temperatur an dieser Höhe gleich bleiben ⇒ die gesamte Troposphäre „verschiebt“ sich temperaturmäßig nach oben.
Wegen des adiabatischen Gradienten wird das auf die Oberflächentemperatur „hochgerechnet“ – also wird es unten wärmer.
Um wieviel höher in konkreten Zahlen ist die Abstrahlhöhe aufgrund der Zunahme des CO2 von 280ppm auf 420ppm?
Idee in einem Satz
Mehr CO₂ erhöht die effektive Strahlungsantrieb (radiative forcing). Um die gleiche abgestrahlte Leistung ins All beizubehalten, muss die Abstrahlungstemperatur geringfügig steigen → bei festem vertikalen Temperaturgradienten (adiabatischer / mittlerer Troposphärengradient) bedeutet das eine höhere Abstrahlungshöhe. Wir berechnen, um wieviel.
Schritt 1 — Radiative forcing durch CO₂-Zunahme
Für CO₂ benutzt man die bewährte Näherung (Myhre et al. 1998; IPCC):
$\Delta F \approx 5{,}35\;\ln\!\left(\frac{C}{C_0}\right)\ \text{W/m}^2$
Für $C_0=280$ ppm → $C=420$ ppm:
$\Delta F = 5{,}35\cdot\ln\!\left(\frac{420}{280}\right)\approx 2{,}17\ \text{W/m}^2.$
(Quelle für Formel und Werte: Myhre/IPCC.)
Schritt 2 — Wie verändert ΔF die Abstrahlungstemperatur?
Die Erde (bzw. die „Strahlungsebene“) strahlt ungefähr wie ein schwarzer Körper mit $T\approx 255\ \text{K}$ (≈ −18 °C). Kleine Änderungen der ausgehenden Strahlung $F=\sigma T^4$ hängen linear mit der Temperaturänderung:
$\Delta T \approx \frac{\Delta F}{4\,\sigma\,T^3}$
Setze $\sigma=5{.}670374\times10^{-8}\ \mathrm{W\,m^{-2}\,K^{-4}} und T=255\ \mathrm{K}$:
$\Delta T \approx \frac{2{,}17}{4\cdot 5{.}67\cdot10^{-8}\cdot 255^3}\approx 0{,}58\ \text{K}.$
Schritt 3 — Temperaturänderung → Höhenänderung über den Lapse‑Rate
Mit einem typischen (mittleren) Troposphären‑Lapse‑Rate $\Gamma ≈ 6,5$ K/km (standardmäßiger Wert für die mittlere Troposphäre) gilt:
$\Delta z \approx \frac{\Delta T}{\Gamma}$
Also
$\Delta z \approx \frac{0{,}58\ \text{K}}{6{,}5\ \text{K/km}}\approx 0{,}089\ \text{km}\approx 89\ \text{m}.$
(Quelle für typische mittlere Lapse‑Rate ≈6.5 K/km.)
Ergebnis (kurz)
Die Zunahme von CO₂ von 280 ppm → 420 ppm verschiebt die (vereinfachte) effektive Abstrahlungshöhe um ≈ 90 Meter nach oben (unter den getroffenen Annahmen).
Wichtige Vorbehalte (weil die Herleitung stark vereinfacht ist)
Wir haben eine globale Mittelbetrachtung benutzt — lokal/vertikal variiert alles.
Linearisation von $F=\sigma T^4 $ist für kleine ΔF gerechtfertigt; hier ist sie gut brauchbar.
Wir haben nur die direkte Strahlungswirkung von CO₂ betrachtet — Rückkopplungen (Wasserdampf, Wolken, Änderung des Temperaturgradienten selbst, Stratosphäre) wurden nicht berücksichtigt. Diese beeinflussen letztlich die Oberflächenerwärmung, aber die einfache Rechnung oben zeigt, wie groß die reine geometrische Hebung der Abstrahlungsschicht ist.
Die effektive Abstrahlungshöhe ist spektral und ortsabhängig — hier ist sie als ein Single‑Level-Modell (vereinfachte, mittlere Höhe) behandelt.
Was kommt mit dieser Rechnung bei einer Verdoppelung auf 560 ppm heraus?
Radiative forcing bei Verdoppelung 280\to560 ppm: $\Delta F = 5{,}35\ln\!\left(\tfrac{560}{280}\right)=5{,}35\ln 2 \approx 3{,}71\ \mathrm{W/m^2}$.
Änderung der effektiven Abstrahlungstemperatur (linearisiert aus $F=\sigma T^4$): $\Delta T \approx \frac{\Delta F}{4\sigma T^3}\approx 0{,}99\ \mathrm{K}$.
Entsprechende Hebung der Abstrahlungshöhe bei $\Gamma=6{,}5\ \mathrm{K/km}$: $\Delta z \approx \frac{\Delta T}{\Gamma}\approx 0{,}152\ \mathrm{km}\approx 152\ \mathrm{m}$.
Kurz: Bei einer CO₂‑Verdoppelung 280→560 ppm verschiebt sich die (vereinfachte) effektive Abstrahlungshöhe um ≈150 Meter nach oben.
Wichtig — Vorbehalte (wie zuvor):
Das ist ein stark vereinfachtes, globales „single‑level“ Modell. In Wirklichkeit ist die Abstrahlung spektral und ortsabhängig; verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen.
Rückkopplungen (Wasserdampf, Wolken, Änderung des vertikalen Gradienten) sind hier nicht berücksichtigt und verändern die bodennahe Erwärmung stark.
Die Rechnung erklärt nur die geometrische Hebung der effektiven Abstrahlungsschicht, nicht die gesamte Oberflächentemperaturänderung.
Wenn du magst, rechne ich das kurz für mehrere Lapse‑Rates (trocken ≈9.8 K/km, feucht ≈5 K/km) durch oder zeichne ein aktualisiertes Diagramm mit den beiden Fällen. Welche Variante hättest du gern?
Wie kommt es, dass das anerkannte Simulationsprogramm MODTRAN zu einem anderen Ergebnis kommt? Bei einer Konstellation aus Wolken und Wasserdampf, die bei der Standardatmosphäre zu einem Stahlungsgleichgewicht bei 240 W/m2 führt, bekomme ich für eine Änderung der CO2 Konzentration von 280 auf 560 ppm einen Stahlungsantrieb von -1.95 W/m2.
Gute Frage — und schön, dass du ein konkretes MODTRAN‑Ergebnis hast. Kurz gesagt: MODTRAN‑Ergebnisse können deutlich von der einfachen Myhre‑Formel abweichen, weil MODTRAN ein spektral aufgelöstes, all‑sky Radiativ‑Transport‑Werkzeug ist und viele Effekte (Wolken, Wasserdampf‑Überlappung, Stratosphären‑Anpassung, Sign‑Konventionen, Bandmodell‑Näherungen usw.) berücksichtigt oder durch Einstellungen unterschiedlich ausweist.
Im Folgenden erkläre ich die wichtigsten Gründe elementar und mit Quellenhinweis, damit du nachvollziehen kannst, warum du −1.95 W/m² siehst.
1) Erst: Vorzeichen / Definition von „Forcing“ in deiner Ausgabe
Bevor wir physikalisch interpretieren: kontrolliere die Sign‑Konvention von MODTRAN‑Output.
Manche Ausgaben zeigen die Änderung des ausgehenden TOA‑LW‑Flusses ($ΔF_{out} = F_{after} − F_{before}$). Wenn CO₂ zunimmt, wird weniger ausgehende LW‑Strahlung ins All gelangen → ΔF_out ist negativ.
Die gebräuchliche IPCC‑Angabe für „radiative forcing“ ist aber oft als netter Strahlungsantrieb (ΔF_downward at TOA) positiv, wenn mehr Energie in das System bleibt. Ein negativer ΔF_out entspricht also einem positiven Forcing in der IPCC‑Konvention. ➡️ Prüfe also, ob dein −1.95 W/m² schlicht Δ(TOA outgoing) statt Δ(TOA net downward) ist. Das allein würde das Vorzeichen erklären. (MODTRAN‑FAQ / Report beschreibt unterschiedliche Ausgabegrößen).
2) All‑sky (Wolken) vs Clear‑sky — Wolken reduzieren das CO₂‑Forcing
Die klassische Myhre‑Formel (≈3.7 W/m² für Verdoppelung) ist eine globale Mittel‑Schätzung häufig für klare Verhältnisse oder aus Line‑by‑Line‑Berechnungen mit typischen Profilen abgeleitet.
Wolken blockieren/absorbieren viel LW selbst und „decken“ Bands, in denen CO₂ wirken würde — dadurch verringert sich die zusätzliche Wirkung einer CO₂‑Erhöhung im globalen Mittel. Laut IPCC verringern Wolken das CO₂‑Forcing im Mittel (klar vs. all‑sky) – typischer Wert ~10–20% Reduktion, je nach Wolkenhöhe/Optical‑Depth. Falls dein Szenario eine dichte/wirkungsvolle Wolkenschicht hat, ist eine starke Abschwächung zu erwarten.
3) Wasserdampf‑Überlappung und Feuchteabhängigkeit
Wasserdampf absorbiert in vielen der gleichen Spektralbereiche wie CO₂. Wenn die Atmosphärensäule schon viel Wasserdampf enthält (feuchte Tropen, viel Wasserdampf in tiefen Schichten), dann teilt sich CO₂ die Absorptionswirkung mit H₂O → die inkrementelle Wirksamkeit zusätzlichen CO₂ wird geringer. Science‑of‑Doom / Literatur zeigen, dass die spaltweise Wirkung stark vom Spalten‑Feuchtegehalt abhängt; je feuchter, desto geringer das zusätzliche Forcing. Das kann die Myhre‑Erwartung weiter reduzieren.
4) Spektrale / Höhenabhängige Effekte: Emissionshöhen sind nicht ein einzelnes Level
Die „effektive Abstrahlungshöhe“ ist spektral verteilt — verschiedene Wellenlängen entweichen aus unterschiedlichen Höhen (Fensterband, CO₂‑Banden, H₂O‑Banden). MODTRAN berechnet genau diese spektrale Verteilung. Wenn deine Atmosphäre + Wolken so beschaffen sind, dass die relevanten Banden bereits aus relativ hohen, kalten Regionen abstrahlen, dann ist der marginale ΔF klein. Das ist physikalisch nicht widersprüchlich zur logarithmischen Näherung, aber zeigt, dass ein einzelner 3.7 W/m²‑Wert nur ein grobes globales Mittel ist.
5) Stratosphärische Temperatur‑Anpassung (Adjusted vs Instantaneous Forcing)
Es gibt verschiedene Forcing‑Definitionen: instantaneous (sofortige Änderung bei fixer Temperaturprofil), stratosphere‑adjusted (Stratosphäre darf sich auf das Gleichgewicht einstellen, Troposphäre bleibt fix) und adjusted surface temperature (voller Gleichgewicht). MODTRAN‑Setups können die Stratosphäre automatisch anpassen — das ändert den gemessenen ΔF um einige Zehntel bis über 1 W/m². IPCC‑Methoden nutzen oft stratosphere‑adjusted (für Vergleichbarkeit). Wenn dein MODTRAN‑Lauf z.B. eine stratosphärische Abkühlung zulässt, kann der reported ΔF (gemessen als Änderung des TOA netto) kleiner ausfallen als die Myhre‑Zahl.
MODTRAN verwendet Bänder‑/correlated‑k‑Ansätze und verschiedene „continuum“‑Parameter für Wasserdampf. Unterschiedliche Versionen (MODTRAN4 vs 5 vs 6) und Parameter‑Choices (z. B. continuum treatment, line cutoffs, spectral resolution, instrument response) verändern kleine, aber nicht vernachlässigbare Teile des ΔF. Die MODTRAN‑Dokumentation beschreibt diese Abhängigkeiten.
Du sagst, deine Konstellation führt zu TOA Abstrahlung ≈240 W/m² — das ist in der Größenordnung des globalen Mittelwertes (≈239–240 W/m²). Das bedeutet: dein Lauf ist wohl ein plausibles all‑sky Szenario, und eine Verringerung der TOA‑Ausgangsleistung um ≈1.95 W/m² (also ΔF_out ≈ −1.95) entspricht einem positiven Forcing von +1.95 W/m² nach IPCC‑Konvention. Das ist deutlich unter 3.7 W/m², aber durchaus nicht ungewöhnlich, wenn Wolken + hoher Spalten‑Feuchte + spezifische Stratosphären‑Anpassungen zusammenwirken.
All‑sky (Wolken) und hoher Wasserdampfgehalt, die das CO₂‑Signal abschwächen,
mögliche Stratosphären‑Anpassung oder andere MODTRAN‑Einstellung (instantaneous vs adjusted),
Modellspezifische Band‑/continuum‑Parameter. Unter diesen Bedingungen ist ein Effekt von ≈1.95 W/m² (nett sichtbar am TOA) völlig plausibel – er bedeutet ≈+1.95 W/m² Strahlungsantrieb nach IPCC‑Konvention und ist nur kleiner als die 3.7 W/m² „Ideal‑Klarfall“ wegen der oben genannten Überlappungs‑/Wolken‑Effekte.
Wenn du willst, kann ich dir konkret helfen und drei Dinge durchsehen / ausprobieren:
Prüfen, welche Größe MODTRAN genau ausgibt (TOA up, TOA net downward, instant vs adjusted).
MODTRAN‑Runs vergleichen: clear‑sky vs all‑sky, und ein Lauf mit Stratosphäre fix/adjusted — das zeigt schnell, welche Effekte die ~1.8 W/m² Differenz erklären.
Eine Abschätzung machen, wie viel Reduktion durch Wolken + Wasserdampf zu erwarten ist (klar → all‑sky).
Schick mir (falls du magst) kurz: die MODTRAN‑Eingabedatei oder die Einstellungen (clear/all‑sky, Version, ob „stratosphere adjust“ an ist, Wolkenhöhe/optische Dicke, Feuchteprofil). Dann interpretiere ich die Ausgabe genau und zeige, welche Komponente wie viel beiträgt.
Analyse des Stromausfalls in Spanien am 28. April 2025
Hintergrund und Vorgeschichte
Einführung Am 28. April 2025, um 12:33 Uhr, erlebte Spanien einen massiven Stromausfall, der das gesamte Stromnetz der Iberischen Halbinsel lahmlegte. Dieser Blackout, der als eines der schwerwiegendsten Ereignisse in der jüngeren Geschichte des Landes gilt, hatte seine Wurzeln in einer Kombination aus technischen, wirtschaftlichen und politischen Faktoren, die sich über Monate und Jahre entwickelten. Dieser Bericht analysiert die zeitliche Abfolge, die Ursachen und die Konsequenzen des Ausfalls basierend auf den bereitgestellten Daten.
Vorgeschichte und Warnsignale Bereits im Frühjahr 2024 zeigten sich erste Anzeichen von Instabilität im spanischen Stromnetz. Nach Jahren sinkender Stromerzeugungspreise für Wind- und Solarenergie sanken diese auf negative Day-Ahead-Preise, was darauf hinwies, dass die Marktdynamik nicht mehr ausreichte, um die Erzeugung rentabel zu halten. Trotz Subventionsmaßnahmen wurde die Drosselung erneuerbarer Energien zunehmend notwendig, was die „Flitterwochen für erneuerbare Energien“ beendete[1]. Studien wie die der Organisation „Ökologischer Wandel“, prognostizierten, dass die Wahrscheinlichkeit eines Blackouts im Jahr 2025 fünfmal höher sei als 2021[2]. Der Mutterkonzern Red Eléctrica, Redeia, wies zwei Monate vor dem Ereignis auf die Risiken hin, die durch den Ausbau erneuerbarer Energien und den Rückgang konventioneller Kraftwerke (Kohle, Gas, Kernkraft) entstanden. Besonders die geringere Systemträgheit und die Unfähigkeit, sich an Störungen anzupassen, wurden als kritische Faktoren genannt[3].
Entwicklung in den Tagen vor dem Blackout Sechs Tage vor dem Ausfall, am 22. und 24. April, berichtete Red Eléctrica von ungewöhnlichen Kombinationen von Störungen, die das Netz destabilisierten. Am 22. April um 19:00 Uhr führte eine plötzliche Richtungsänderung des Stromaustauschs mit Portugal (von Export zu Import) sowie eine Reduzierung der Photovoltaikproduktion durch schlechte Wetterbedingungen zu Spannungsschwankungen[4]. Ähnliche Probleme traten am 24. April um 18:00 Uhr auf, als ein rascher Anstieg der Photovoltaikproduktion und Exports nach Frankreich die Leitungen überlastete[5]. Diese Ereignisse deuteten auf eine wachsende Verwundbarkeit des Netzes hin, die durch die hohe Abhängigkeit von erneuerbaren Energien verstärkt wurde.
Verlauf des Blackouts und Folgen
Ablauf des Blackouts am 28. April 2025 Der eigentliche Zusammenbruch begann um 12:33 Uhr, als das Netz ein erstes „Ereignis“ erlitt, vermutlich ein Verlust erneuerbarer Erzeugung, möglicherweise solarbasierter Anlagen im Südwesten Spaniens. Innerhalb von Millisekunden stabilisierte sich das System kurzzeitig, doch 1,5 Sekunden später folgte ein zweites Ereignis, das die Instabilität verschärfte[6]. Etwa 3,5 Sekunden nach dem ersten Ereignis brachen die Verbindungen nach Frankreich zusammen, was den Stromfluss von etwa 2,5 GW unterbrach[7]. Der Frequenzabfall erreichte schließlich 49,25 Hz bei einer Rate of Change of Frequency (RoCoF) von -0,8 Hz/S, was zum vollständigen Netzversagen führte[8]. Der Verlust von 15 GW Solarenergie und der anschließende Ausfall konventioneller Kraftwerke (z. B. Kernkraftwerke, wie der automatische Abschalt des Reaktors in Golfech um 12:34 Uhr) trugen zum Kollaps bei[9].
Ursachen und technische Details Die Hauptursache war ein Überangebot an erneuerbarer Energie, das die Nachfrage überstieg, was zu Frequenzabweichungen führte. Schutzrelais schalteten Teile des Netzes ab, und die geringe Momentanreserve (z. B. 26,54 % um 12:30 Uhr nur in Spanien) sowie der gleichzeitige Ausfall von Kraftwerken wie Omledilla (130 MW) und UF Sabinar (193 MW) verschärften die Krise[10]. Die hohe asynchrone Erzeugung (über 70 % in den Wochen zuvor) und die Abhängigkeit von instabilen Verbindungen (z. B. nach Frankreich) machten das System anfällig für kaskadierende Ausfälle[11].
Nachwirkungen und Maßnahmen Nach dem Blackout aktivierte Spanien Gasenergie, um das Netz zu stabilisieren, und drosselte erneuerbare Energien vorübergehend[12]. Die Wiederherstellung der Versorgung war ein langwieriger Prozess, der einen ganzen Tag dauerte. Der Vorfall hat die Debatte über den Ausbau erneuerbarer Energien und die Notwendigkeit robusterer Netzinfrastrukturen angeheizt.
Fazit Der Blackout vom 28. April 2025 war das Ergebnis kumulativer Warnsignale, die ignoriert wurden, kombiniert mit technischen Schwächen im Umgang mit erneuerbaren Energien. Eine verbesserte Netzstabilität, höhere Reserven und eine balancierte Energiemix-Strategie sind zwingend erforderlich, um zukünftige Krisen zu verhindern. Konkret muss zu jedem Zeitpunkt sichergestellt sein, dass die Momentanreserve mindestens 40 %, besser 50 % der Last ist. Solange noch keine zuverlässigen netzbildenden Wechselrichter im Einsatz sind, sind damit dem weiteren Ausbau der Erneuerbaren Energien klare Grenzen gesetzt.
Zu allen Zeiten haben Klimaereignisse die Menschheit bewegt und geprägt. Das alte Testament gibt uns vielfältige, zum Teil dramatische Zeugnisse aller Arten von extremem Klimageschehen wie langjährigen Dürren, Hitze- und Kälteperioden, Feuerstürmen und Überschwemmungen. Jeder ausgebildete Theologe kennt zu fast jedem heutigen klimatischen Horrorbericht einen entsprechenden im Alten Testament (häufig waren die damaligen Ereignisse extremer, z.B. 7-jährige Dürreperioden). Die Menschen hatten zwar auch immer wieder — wie wir — die Frage gestellt, inwiefern sie selbst für das Geschehen verantwortlich waren, aber haben die Konsequenzen als zum Dasein gehörendes Leiden akzeptiert. Entscheidend ist die Frage eines grundsätzlichen Vertrauens in die Struktur der Wirklichkeit. Das ist keine wissenschaftliche Frage mehr, trotzdem kommt niemand an dieser Frage vorbei. Wer dieses Vertrauen nicht hat, wird unweigerlich wegen jeder Abweichung vom „Normalen“ in Panik geraten und deswegen gerade die falschen Entscheidungen treffen. Es ist meines Erachtens kein Zufall, dass gerade nach der schlimmsten bekannten Flut vor schätzungsweise 4000 Jahren Menschen mit solchem Grundvertrauen in die Wirklichkeit sich mit der Frage der Stabilität des Klimas beschäftigten und die 1. Welt-Klimakonferenz der Menschheit mit einem erstaunlichen Manifest beendete:
Solange die Erde steht, soll nicht aufhören: Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht (Gen. 8/22)
In der Präambel finden wir die Einsicht, dass es möglicherweise mit der Erde zu Ende gehen wird, heute wissen wir, dass dies spätesten mit dem Ende der Sonnentätigkeit geschehen wird. Bis dahin allerdings sehen wir 4 Säulen eines grundsätzlich stabilen Ökosystems und Klimas:
Der Tag-Nacht-Rhythmus ist durch die stabile Eigenrotation der Erde gegeben,
Die Jahreszeiten sind eine Folge der Bahn der Erde um die Sonne bei leichter Neigung der Achse, sowie der mit den Breitengraden zunehmenden Abkühlung aufgrund des flacheren Einfallwinkels des Sonnenlichts,
Frost und Hitze stehen für außergewöhnliche Klimaereignisse. Offenbar waren die Menschen damals realistisch genug, nicht an eine Illusion eines gleichbleibenden Zustandes ohne größere Schwankungen zu glauben. Trockenheit und Überschwemmungen kann man im gleichen Atemzug nennen.
Saat und Ernte schließlich bedeutet die Stabilität eines komplexen ökologischen Systems. Dieses System ist allerdings nicht nur die unberührte Natur. Saat und Ernte sind bewusste, gewollte Eingriffe des Menschen in die Natur — dieser Eingriff ist also von vorneherein vorgesehen – der Mensch ist nicht der Schädling des Planeten. Saat und Ernte“ stehen demnach für die einzigartige Kreativität des Menschen im Umgang mit der Natur und ihren nachwachsenden „Rohstoffen“, sie stehen für die schon früh gekannte und praktizierte „Nachhaltigkeit“, die es dem Menschen erlaubt und möglich macht, die Natur im Rahmen seiner existenziellen Bedürfnisse zu nutzen. Von rücksichtsloser Ausbeutung steht nichts in der Schrift.
Anteile der anthropogenen und der natürlichen Emissionen am Anstieg der CO2-Konzentration
[latexpage]
Aus der Publikation Improvements and Extension of the Linear Carbon Sink Model geht hervor, dass die globale natürliche effektive Senkenwirkung sowohl von der CO2-Konzentration als auch von der globalen (Meeresoberflächen-)Temperaturanomalie abhängen. Dazu hier eine kurze Herleitung der Zusammenhänge. Im Gegensatz zur zitierten Publikation wird hier mit monatlichen anthropogenen Emissionsdaten $E_i$ und monatlichen Konzentrationsdaten $C_i$ Daten mit fortlaufenden Monaten $i$ gerechnet.
Die Massenerhaltung bzw. die Kontinuitätsgleichung bedeutet, dass sich das monatliche Konzentrationswachstum $G_i=C_i-C_{i-1}$ zwingend aus der Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$, vermindert um die monatlichen Absorptionen $A_i$ ergibt: \begin{equation}\label{eq:massconservation} G_i = E_i + N_i – A_i \end{equation} Die effektive Senkenwirkung $S_i$ ist die Differenz zwischen anthropogenen Emissionen und dem Konzentrationswachstum: \begin{equation}\label{eq:sinkeffect}S_i = E_i – G_i\end{equation}
Emissionen, Konzentrationswachstum und effektive Senkenwirkung (Senkenwirkung ist nach unten aufgetragen).
Aus Gleichung \ref{eq:massconservation} folgt unmittelbar, dass die effektive, also direkt messbare Senkenwirkung nicht nur Absorptionen durch die Ozeane und Pflanzen, sondern implizit auch sämtliche natürliche Emissionen enthält: $S_i = A_i – N_i$ Daher ist die Senkenwirkung nicht identisch mit der Summe sämtlicher Absorptionen, sondern nur den Anteil der Absorptionen, die nicht durch natürliche Emissionen kompensiert wurden.
Aus der Arbeit „Improvements and Extension of the Linear Carbon Sink Model“ ergibt sich, dass die globale effektive Senkenwirkung $\hat{S}_i$ durch ein erweitertes Modell aus CO$_2$ Konzentration $C_i$ und globaler Meeresoberflächentemperatur $T_i$ gut beschrieben wird: \begin{equation}\label{eq:bilinearmodel} \hat{S}_i = a\cdot C_{i-1} +b\cdot T_{i-1} + c\end{equation} Zum Vergleich wird das in der Arbeit „Emissions and CO2 Concentration—An Evidence Based Approach“ beschriebene einfache Senkenmodell verwendet, das nur von der CO$_2$ Konzentration abhängt: \begin{equation}\label{eq:linearmodel} \hat{S}_i = a’\cdot C_{i-1} + c’\end{equation}
Abb. 2 Modellierung der Senkenwirkung mit einfachem Senkenmodell (orange) und erweitertem Senkenmodell (grün)
Die Abbildung 2 zeigt, dass das einfache Modell den Trend sehr gut wiedergibt, dass aber die Schwankungen erst durch das erweiterte Modell, also durch Einbeziehen der Meeresoberflächentemperatur beschrieben werden können. Die Parameter für die beste Anpassung des erweiterten Modells sind $a=0,052$, $b=-4$ ppm/°C, $c=-16$ ppm.
Mit den Gleichungen \ref{eq:sinkeffect} und \ref{eq:bilinearmodel} bzw. \ref{eq:linearmodel} lässt sich auch der Konzentrationsanstieg modellieren: \begin{equation}\label{eq:g2model}\hat{G}_i = E_i – a\cdot C_{i-1} – b\cdot T_{i-1} – c\end{equation} Dies wird in Abb. 3 gezeigt. Zum Vergleich auch hier wieder die Rekonstruktion mit dem einfachen Senkenmodell.
Abb. 3: Gemessener Konzentrationsanstieg (blau), mit einfachem Senkenmodell rekonstruierter (orange), mit erweitertem Senkenmodell (grün) rekonstruierter Konzentrationsanstieg.
Rekonstruktion der Konzentration, Unterscheidung des Einflusses von Emissionen und Temperatur
Aus dem Konzentrationswachstum $G_i$ lässt sich mit Hilfe der initialen CO$_2$ Konzentration $C_{-1}$, hier also der Konzentration im Dezember 1958, der Verlauf der CO$_2$ Konzentration rekonstruieren. Nach Gleichung \ref{eq:g2model} wird das Konzentrationswachstum von den äußeren Zustandsgrößen der anthropogenen Emissionen und der Temperatur gesteuert. Zusammen mit dem ermittelten Parameter $b$ ergibt der Term $b\cdot T_i$ die Veränderung der natürlichen Emissionen aufgrund der Temperaturanomalie $T_i$. Daher ist es zunächst interessant, die Größenordnungen beider Emissionsquellen miteinander zu vergleichen. Als Maßeinheit der Emissionen wird GtC verwendet, die sich durch Multiplikation der sonst in ppm gemessenen Größen mit 2,123 ergibt.
Abb. 4 zeigt die anthropogenen Emissionen seit 1959 und die natürlichen Emissionen aufgrund der Temperaturskala der Anomalie der Meeresoberflächentemperaturen. Es fällt auf, dass vor 1975 die Temperaturen und damit die natürlichen Emissionen überwiegend negativ sind. Das hängt mit der willkürlichen Wahl des Nullpunkts der Anomalie-Temperaturskala zusammen.
Abb. 4: Anthropogene Emissionen und durch die Temperatur bewirkte natürliche Emissionen
Weiter fällt auf, dass die anthropogenen Emissionen im Schnitt etwa 4 GtC größer sind als die natürlichen. Insgesamt sind die natürlichen Emissionen zahlenmäßig noch sehr viel größer, da der konstante Term $c$ von etwa 34 GtC (16\cdot 2,123) auch natürliche Emissionen darstellt. Diese konstanten natürlichen Emissionen definieren laut Gleichung 14 in Improvements and Extension of the Linear Carbon Sink Model die Gleichgewichtskonzentration bei der Temperaturanomalie 0°, mit den aktuellen Zahlen ist diese Gleichgewichtskonzentration 307 ppm. Das ist nicht der vorindustrielle Zustand, dieser hat die Temperaturanomalie -0,48°.
In Abb. 5 sind 3 ausgewählte Modellszenarien dargestellt. Außer den tatsächlich gemessenen Konzentrationswerten zunächst die Rekonstruktion mit dem tatsächlichen Temperatur- und Emissionsverlauf (orange). Diese bleibt erwartungsgemäß sehr nahe an den Messdaten.
Abb. 5.: Gemessene Konzentration (blau), Auswirkung von 3 Szenarien auf die Konzentration. Siehe Text.
Zusätzlich werden 2 weitere Szenarien dargestellt:
Die anthropogenen Emissionen bleiben auf dem Stand von 1959 und nur die Temperatur entwickelt sich so weiter wie wir es kennen (grüne Farbe). Die CO$_2$ Konzentration wächst bis etwa 370 ppm an.
Die Temperatur bleibt auf dem Stand von 1959, die anthropogenen Emissionen wachsen aber wie gewohnt. Die Konzentration steigt zunächst steiler and als wenn die Temperatur sich auch verändern würde. Das kommt daher, dass die Temperaturanomalie bis Mitte der 70er Jahre unter 0 bleibt. Erst nach 1983 bleibt die resultierende Konzentration unter dem Referenzwert. Insgesamt haben die anthropogenen Emissionen einen größeren Anteil am Konzentrationswachstum als die natürlichen, aber 2023 z.B. kommen der natürliche dem anthropogenen Emissionsanteil sehr nahe.
Es fällt auch auf, dass die Auswirkungen beider Emissionsquellen in Form von resultierender Konzentration sich nicht einfach addieren lassen. Die Konzentration aus der Summe ist geringer als die Summe der Konzentrationen beiden Emissionsanteile. Das hat damit zu tun, dass mit wachsender Konzentration die Absorptionen zunehmen. Beide Emissionsquellen haben zusammen einen kleineren Effekt auf die Konzentration als man vom jeweiligen Einzeleffekt intuitiv erwarten würde.
Fazit
Das erweiterte Senkenmodell erlaubt es, die Auswirkungen von anthropogenen Emissionen und Temperaturerhöhungen auf die CO$_2$ Konzentration separat zu betrachten. Das Ergebnis widerspricht denjenigen, die der Auffassung sind, dass die anthropogenen Emissionen vollständig die Konzentrationsänderungen seit dem Beginn der Industrialisierung erklären. Aber es widerspricht auch denjenigen, die behaupten, aufgrund des großen Umsatzes des natürlichen Kohlenstoffkreislaufs spielten die anthropogenen Emissionen gar keine Rolle. Die Wahrheit ist, dass beide Faktoren einen größenordnungsmäßig ähnlichen Einfluss haben, die anthropogenen Emissionen allerdings etwas überwiegen.
Abbildung 1: Emissionen und natürliche Senkensysteme, Ozeane und Landlebewesen
Was ist passiert, dass plötzlich nun angeblich die Senkenwirkung nachlässt? Schon auf den ersten Blick verrät das Diagramm, dass die abgebildete Senkenwirkung, die den Landpflanzen zugeordnet wird, außerordentlich starken Schwankungen unterliegt, viel stärker als etwa die der Ozeane. Das sollte gleich stutzig machen, wenn von einem „einmaligen“ Ereignis innerhalb des vergangenen Jahres gesprochen wird.
Um eine angemessene Antwort darauf zu finden, ist es notwendig, genauer hinzuschauen und anhand von Originaldaten zu prüfen, wie sich die Konzentrationsänderungen entwickeln. In den Publikationen Emissions and CO2 Concentration—An Evidence Based Approach und „Improvements and Extension of the Linear Carbon Sink Model“ habe ich den Zusammenhang zwischen Emissionen, Konzentrationsanstieg und Senkenwirkung sorgfältig analysiert und ein robustes einfaches Modell der Senkenwirkung entwickelt, das nicht nur die Messdaten der letzten 70 Jahre sehr genau wiedergibt, sondern auch zuverlässige Prognosen erlaubt. Beispielsweise konnten die Konzentrationsdaten der Jahre 2000-2020 aus den Emissionen und den vor dem Jahre 2000 ermittelten Modellparametern mit extrem hoher Genauigkeit vorhergesagt werden. Allerdings endete die neueste in den Publikationen verwendete Messreihe im Dezember 2023, außerdem wurden Jahresmittelwerte verwendet, daher sind die Phänomene, die aktuell für so viel Aufregung sorgen, dort noch nicht berücksichtigt.
Detailanalyse des Konzentrationsanstiegs bis August 2024
Da es hier nun auf Details der letzten beiden Jahre ankommt, werden die Berechnungen der genannten Publikation hier mit monatsgenauen Daten bis August 2024 weitergeführt, um ein klares Bild der Details zu bekommen und um die neuesten Daten einzubeziehen. Ausgangspunkt sind die Original Maona Loa Meßdaten, die in Abbildung 2 dargestellt sind.
Abbildung 2: Gemessene Maona Loa CO2-Konzentrationsdaten
Die monatsgenauen Daten unterliegen saisonalen Schwankungen, die von der ungleichen Verteilung der Landmasse zwischen Nord- und Südhalbkugel herrühren. Daher besteht der erste Verarbeitungsschritt darin, die saisonalen Einflüsse, d.h. alle periodischen Änderungen mit Periodendauer 1 Jahr herauszurechnen. Das Ergebnis ist ebenfalls in Abbildung 2 zu sehen (Farbe orange).
Die globale Meeresoberflächentemperatur unterliegt ebenfalls saisonalen Schwankungen, allerdings in sehr viel geringerem Ausmaß, wie aus Abbildung 3 hervorgeht.
Bildung und Analyse des monatlichen Konzentrationsanstiegs
Durch Subtraktion zeitlich aufeinanderfolgender Messpunkte wird der „rohe“ Konzentrationsanstieg berechnet:
Abbildung 4: Wachstum der CO2-Kozentration, Original(blau) und geglättet(orange).
Es ist leicht erkennbar, dass die monatlichen Schwankungen des Konzentrationsanstiegs beträchtlich sind, und der besonders hohe Peak Ende 2023 keinesfalls ein singuläres Ereignis darstellt; insbesondere geht der positiven Spitze eine viel größere negative voraus, über die in der Presse kein Wort verloren wurde. Auch der um einiges höhere Anstieg 2015 wurde nicht berücksichtigt. Damit hätte man leicht die gewagte Hypothese eines nachlassenden Senkeneffekts widerlegen können, denn in den geglätteten Daten (orange) ist erkennbar, dass es nach 2015 einen deutlichen Trend eines rückläufigen Konzentrationsanstiegs gibt.
Nach einer Glättung (orange) kann man den wirklichen Verlauf besser erkennen als mit den rohen, rauschbehafteten Differenzen. Da es sich um monatliche Werte handelt, müssen die Werte mit 12 multipliziert werden, um Rückschlüsse auf jährlichen Konzentrationsanstieg ziehen zu können. Ohne Zweifel ist am rechten Rand des Diagramms erkennbar, dass es seit 2023 tatsächlich eine Zunahme des Konzentrationsanstiegs gibt, was in der aktuellen Diskussion als Nachlassen der Senkenleistung interpretiert wird.
Interpretation des Anstieg des Konzentrationswachstums als Folge natürlicher Emissionen
Zur Veranschaulichung ist in Abbildung 5 der Senkenleistung (grün) aus der Differenz von anthropogenen Emissionen (blau) und Konzentrationswachstum (orange). Grundlage dieser Berechnung ist die auf der Massenerhaltung beruhende Kontinuitätsgleichung, wonach das Konzentrationswachstum $G_i$ im Monat $i$ sich aus der Differenz aller Emissionen und allen Absorptionen $A_i$ ergibt, wobei die Gesamtemissionen die Summe der anthropogenen Emissionen $E_i$ und der natürlichen Emissionen $N_i$ sind, also $G_i = E_i + N_i – A_i $ Die effektive monatliche Senkenwirkung $S_i$ wird ermittelt als Differenz zwischen den monatlichen anthropogenen Emissionen $E_i$ und dem monatlichen Konzentrationswachstum $G_i$, also $S_i = E_i – G_i$ Aufgrund der Kontinuitätsgleichung beinhaltet die effektive Senkenwirkung außer den Absorptionen durch Ozeane und Pflanzen auch die natürlichen Emissionen: $S_i = A_i – N_i$
Abbildung 5: Anthropogene Emissionen(blau), CO2 Konzentrationswachstum(orange) und Senkenwirkung (grün)
Es ist leicht zu sehen, dass auch am rechten Rand von Abbildung 5 die (über einige Monate geglättete) effektive Senkenleistung nicht unter 0 sinkt. Allerdings geht sie tatsächlich zurück. Jetzt muss man sich aber darauf besinnen, dass nach der Kontinuitätsgleichung die „effektive Senkenleistung“ aus Absorptionen (Senken im engeren Sinn) und natürlichen Emissionen besteht. Es könnte also auch sein, dass die Spitzen des Konzentrationswachstums durch natürliche Emissionen hervorgerufen werden. Diese kommen in den Publikationen, die aktuell Alarm schlagen, überhaupt nicht vor.
Es ist allgemein bekannt und Folge des sogenannten Henry-Gesetzes, dass der Gasaustausch zwischen Meer und Atmosphäre von der Meeresoberflächentemperatur abhängt. Deswegen erwarten wir bei steigender Temperatur verstärkte CO2-Emissionen aus den Meeren, etwas übertrieben vergleichbar mit einer Sprudelflasche im Backofen. Diese Überlegung motiviert die Einführung der Temperatur als Modellparameter in der Beschreibung der effektiven Senkenleistung. Die Details der Ausarbeitung dieser Modellerweiterung ist in der oben erwähnten Publikation sowie in deren vereinfachter Beschreibung zu finden.
Was die Hinzunahme der Temperatur für die Modellierung des Konzentrationsanstiegs bedeutet, sieht man in Abbildung 6.
Abbildung 6: Geglättetes Konzentrationswachstum(blau) und dessen Modellierung mit temperaturunabhängigem (grün) und temperaturabhängigem (orange) Senkenmodell
Während die grüne Kurve das weithin bekannte lineare Senkenmodell darstellt (siehe hier (2024), hier (2023), hier (2019) und hier (1997)), wie es in der Publikation bzw. in der vereinfachten Darstellung beschrieben ist, wird in der orangenen Kurve auch noch die Abhängigkeit von der Temperatur gemäß der neuen Publikation berücksichtigt. Es stellt sich heraus, dass der aktuelle „zu große“ Anstieg der Konzentration eine ganz natürliche Folge des zugrundeliegenden Temperaturanstiegs ist. An der Senkenleistung, der linearen Abhängigkeit der Absorption von der CO2-Konzentration, hat sich überhaupt nichts geändert.
Höchste Zeit also, die Temperatur als „normale“ Ursache von CO2-Konzentrationsveränderungen in der öffentlichen Diskussion als Einflußfaktor zu etablieren statt wilde Spekulationen über ausbleibenden Senken ohne Evidenz anzustellen.
Die Dekonstruktion des Klimanarrativs
Einleitung – Wie funktioniert das Klimanarrativ?
Zweifellos gibt es ein von Wissenschaft, Medien und Politik propagiertes Klimanarrativ, wonach wir uns aufgrund der anthropogenen CO2 Emissionen auf einem Katastrophenkurs befinden, der angeblich nur mit einer Reduktion der Emissionen auf Null bis zum Jahre 2050 aufzuhalten ist.
Alle die dem Narrativ auch nur in subtilen Details widersprechen, werden wie Aussätzige auf „schwarzen Listen“ geführt, selbst wenn sie renommierte Wissenschaftler, ja sogar Nobelpreisträger sind[1][2] – mit verheerenden Folgen für Bewerbungen, Publikationen oder Förderanträge.
Wie ist es möglich, alle wichtigen, auch die renommiertesten Universitäten wie Harvard, MIT und Stanford, Oxford, Cambridge und Heidelberg auf die gemeinsame Konsenslinie zu bringen? Wie kann es gelingen, dass die berühmtesten Zeitschriften wie Nature[3] und Science, aber auch populärwissenschaftliche wie Spektrum der Wissenschaft nur noch einen schmalen „Verständnistunnel“ gelten lassen, ohne ihren Ruf nicht offensichtlich zu ruinieren?
Damit das Narrativ eine solche starke und universelle Wirkung entfalten kann, ist zweifellos ein solides wissenschaftliches Fundament notwendig, das man nicht ohne Blamage bestreiten kann. Diejenigen, die es trotzdem tun, werden auf denkbar einfache Weise als „Klimaleugner“ oder „Wissenschaftsfeinde“ identifiziert.
Auf der anderen Seite sind die Vorhersagen daraus und insbesondere die politischen Konsequenzen daraus dermaßen menschenfeindlich und wirklichkeitsfremd, dass nicht nur eine tiefe gesellschaftliche Spaltung entstanden ist, sondern dass eine zunehmende Zahl von Zeitgenossen, darunter viele Wissenschaftler, hinterfragen, was das für eine Wissenschaft sein soll, die dermaßen abwegige Ergebnisse produziert[4].
Bei sorgfältiger Analyse des Klimathemas findet sich ein Muster, das sich wie ein roter Faden durch alle Aspekte durchzieht. Dieses Muster wird im am Beispiel von 4 Schwerpunkten, die in der Klimaforschung bedeutsam sind, illustriert.
Das Muster, das sich aus langjähriger Auseinandersetzung mit dem Thema herausschälte, besteht darin, dass es im Kern immer eine korrekte Beobachtung oder ein gültiges Naturgesetz gibt. Im nächsten Schritt werden allerdings die Ergebnisse dieser Beobachtung entweder ungeprüft in die Zukunft fortgeschrieben, die Ergebnisse werden übertrieben oder sogar in ihrer Bedeutung verdreht. Andere, zielführende Erkenntnisse werden weggelassen oder ihre Veröffentlichung unterdrückt.
An den genannten und vielen anderen Beispielen lässt sich die typische Schlussfolgerung zeigen, dass bei dem jeweiligen Teilaspekt des Klimas ein möglichst schädliches Ergebnis droht. Das Zusammenfügen mehrerer solcher Komponenten führt in der Summe dann zu den katastrophalen Horrorszenarien, mit denen wir täglich konfrontiert werden. Da die Aussagen meist die Zukunft betreffen, lassen sie sich in der Regel kaum überprüfen.
Die gesamte Argumentationskette des Klimanarrativs hat folgende Form:
Die anthropogenen Emissionen wachsen – exponentiell.
Mit den Emissionen wächst die atmosphärische Konzentration an, solange die Emissionen nicht vollständig auf Null reduziert werden
Das Anwachsen der CO2-Konzentration in der Atmosphäre führt zu einem – dramatischen – Anwachsen der durchschnittlichen Temperatur
Darüber hinaus gibt es noch positive Rückkopplungen, wenn die Temperatur anwächst, ja sogar Kipppunkte, jenseits derer keine Umkehr mehr möglich ist.
Andere Erklärungen wie Sonnenstunden oder die damit zusammenhängende Wolkenbildung werden ignoriert, heruntergespielt oder in das System als Rückkopplungseffekt eingebaut.
Die Auswirkungen sind in der Summe dermaßen katastrophal, dass damit beliebige totalitäre politische Maßnahmen gerechtfertigt werden, mit dem Ziel, die weltweiten Emissionen auf Null herunterzudrücken.
Die ausführliche Beschäftigung mit dem Thema führt zu dem Ergebnis, dass jeder einzelne dieser Punkte das oben beschriebene Muster zeigt, dass es zwar immer einen wahren Kern gibt, der für sich genommen harmlos ist. Den wahren Kern herauszuarbeiten und die Übertreibungen, falschen Extrapolationen oder Weglassen wesentlicher Informationen herauszuarbeiten, ist das Ziel dieser Schrift.
1. Die anthropogenen Emissionen wachsen – exponentiell?
Jeder kennt die klassischen Beispiele exponentiellen Wachstums, z.B. das Schachbrett, das Feld für Feld mit jeweils der doppelten Menge Reis gefüllt wird. Ein exponentielles Wachstum führt grundsätzlich immer in eine Katastrophe. Daher ist es wichtig, die Fakten des Emissionswachstums zu prüfen.
Abbildung 1: Relatives Wachstum der weltweiten Emissionen[5][6]
Abbildung 1 zeigt das relative Wachstum der weltweiten anthropogenen Emissionen während der letzten 80 Jahre. Um das Diagramm zu verstehen, vergegenwärtigen wir uns, dass konstantes relatives Wachstum exponentielles Wachstum bedeutet[7]. Ein Sparkonto mit 3% Zinsen wächst im Prinzip exponentiell. Demnach finden wir exponentielles Emissionswachstum mit einer Wachstumsrate von etwa 4,5% zwischen 1945 bis 1975. Diese Phase nannte man einst „Wirtschaftswunder“. Danach ging das Emissionswachstum bis 1980 auf 0 zurück. Man nannte diese Zeit „Rezession“, mit der Konsequenz von Regierungswechseln in USA und Deutschland.
Ein weiterer Wachstumstiefpunkt der Emissionen war um 1990 mit dem Zusammenbruch des Kommunismus verbunden, mit einem folgenden Wiederanstieg, hauptsächlich in den Schwellenländern. Seit 2003 erfolgt eine beabsichtigte Reduktion des Emissionswachstum infolge der Klimapolitik.
Festzuhalten ist, dass aktuell das Emissionswachstum auf 0 gefallen ist.
Vor kurzem hat Zeke Hausfather festgestellt, dass die Summe der weltweiten anthropogenen Emissionen seit 2011 im Rahmen der Meßgenauigkeit konstant[8] sind, dargestellt in Abbildung 2. Demzufolge ist auch für die Zukunft kein Überschreiten der aktuellen Emissionen mehr zu erwarten[9].
Abbildung 2: Anthropogene Emissionen sind seit 2011 konstant[10]
Die längerfristige Fortschreibung der aktuellen geplanten künftigen Emissionen, das sogenannte „Stated Policies“ Szenario (von 2021) erwartet bis 2030 konstante weltweite Emissionen und danach eine ganz leichte Senkung von 0,3% pro Jahr.
Demzufolge sind die beiden vom IPCC am häufigsten verwendeten Zukunftsszenarien (RCP 8.5 und RCP6.2) fern von der Realität[12] der tatsächlich möglichen Emissionsszenarien. Trotzdem ist das Extremszenario RCP8.5 in den Modellrechnungen immer noch das am häufigsten verwendete[13].
Wissenschaftlich seriös sind vor allem das IPCC Szenario RCP4.5 und diesem in Abbildung 3 dargestellten ähnlichen IEA Szenario „Stated Policies“ (dort S. 33, Figure 1.4)[14].
Damit bleibt es bei Anerkennung der realistischen Emissionsszenarien ohne Infragestellung der vom IPCC verbreiteten Aussagen über das Klima bei einer maximalen emissionsbedingten Temperaturerhöhung von 2,5°C gegenüber dem vorindustriellen Zustand.
2. Atmosphärische CO2 Konzentration steigt kontinuierlich an — es sei denn, die Emissionen werden auf Null reduziert?
Die Frage ist, wie sich anthropogene Emissionen auf die CO2-Konzentration in der Atmosphäre auswirken. Es ist bekannt und in Abb. 4 von der Internationalen Energieagentur illustriert, dass bei weitem nicht alles emittierte CO2 in der Atmosphäre verbleibt, sondern dass ein wachsender Anteil davon von den Ozeanen und den Pflanzen wieder absorbiert wird.
Die statistische Auswertung der anthropogenen Emissionen und der CO2-Konzentration ergibt unter Berücksichtigung der Massenerhaltung und einem linearen Modell der natürlichen Senken Ozeane und Biosphäre, dass jedes Jahr knapp 2% der über das vorindustrielle natürliche Gleichgewichtsniveau hinausgehenden CO2-Konzentration von den Ozeanen und der Biosphäre
Abbildung 4: Quellen (anthropogene Emissionen und Landnutzung), Senken des CO2 (Ozeane und Landsenken) und Konzentrationswachstum in der Atmosphäre
absorbiert werden[15][16]. Das ist aktuell die Hälfte der anthropogenen Emissionen mit zunehmender Tendenz, wie in Abbildung 5 dargestellt.
Abbildung 5: CO2 Bilanz und lineares Senkenmodell: anthropgene Emissionen (blau), Konzentrationswachstum (orange), natürliche Senken und deren Modellierung (grün)
Das wahrscheinlichste weltweite Zukunftsszenario der Internationalen Energie Agentur – die in Abb. 3 dargestellte Fortschreibung heutiger politischer Regelungen (Stated Policies Szenario STEPS) – beinhaltet bis zum Ende des Jahrhunderts eine sanften Abnahme (3%/Jahrzehnt) der weltweiten Emissionen auf das Niveau von 2005. Diese Emissionsverringerungen sind durch Effizienzverbesserungen und normalen Fortschritt erreichbar.
Wenn wir dieses STEPS Referenz-Szenario zugrunde legen, führt dies bei Nutzung des linearen Senkenmodells zu einem Anstieg der Konzentration um 55 ppm auf ein Plateau von 475 ppm, wo dann die Konzentration verbleibt.
Abbildung 6: Gemessene und vorhergesagte CO2-Konzentration mit 95% Fehlerbalken
Wesentlich ist, dass dabei die CO2-Konzentration auf keine klimatisch gefährlich hohe Werte steigen wird. Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1[17]: Die Länder müssen ihre maximalen Emissionen baldmöglichst erreichen “um so ein Gleichgewicht zwischen anthropogenen Emissionen von Treibhausgasen und und deren Absorption mittels Senken in der zweiten Hälfte dieses Jahrhunderts zu erreichen”. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Dekarbonisierung.
Das Netto-Null Gleichgewicht zwischen Emissionen und Absorptionen wird mit der Fortschreibung heutigen Verhaltens im Jahre 2080 ohne radikale Klimamaßnahmen erreicht.
Ohne auf die Details der sog. Sensitivitätsberechnung einzugehen, lässt sich vereinfacht für die weitere Temperaturentwicklung sagen:
Angenommen, die CO2-Konzentration sei voll verantwortlich für die Temperaturentwicklung der Atmosphäre, dann war 2020 die CO2-Konzentration 410 ppm, also (410-280) ppm = 130 ppm über dem vorindustriellen Niveau. Bis dahin war die Temperatur etwa 1° C höher als vor der Industrialisierung. Künftig können wir mit der obigen Prognose eine Erhöhung der CO2-Konzentration um (475-410) ppm = 65 ppm erwarten. Das ist grade die Hälfte der bisherigen Steigerung. Demzufolge können wir, auch wenn wir von der Klimawirkung des CO2 überzeugt sind, bis dahin zusätzlich die Hälfte der bisherigen Temperaturerhöhung erwarten, also ½° C. Demzufolge wird 2080 die Temperatur mit 1,5° C über vorindustriellem Niveau das Ziel des Pariser Klimaabkommens erfüllen, auch ohne radikale Emissionsreduktionen.
3. Atmosphärische CO2 Konzentration verursacht – dramatischen? – Temperaturanstieg
Nach der Diskussion über die möglichen künftigen CO2-Mengen stellt sich die Frage nach deren Auswirkungen auf das Klima, also nach dem Treibhauseffekt des CO2 und dessen Einfluss auf die Temperatur der Erdoberfläche und der Atmosphäre.
Der mögliche Einfluss des CO2 auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport[18]. Da das Thema einerseits grundlegend für die gesamte Klimadiskussion ist, andererseits anspruchsvoll und schwer durchschaubar, wird hier auf die komplizierten physikalischen Formeln verzichtet.
Um den Treibhauseffekt messen zu können, muss die in das Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der erwartete Treibhauseffekt ist aber mit 0,2 W/m2 pro Jahrzehnt[19] so winzig, dass er mit heutiger Satellitentechnologie, die eine Messgenauigkeit von etwa 10 W/m2 hat, nicht direkt nachweisbar ist[20].
Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der physikalischen Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses CO2 Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.
Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN[21], mit dem die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der CO2-Treibhauseffekt physikalisch korrekt simuliert werden kann:
Abbildung 7 zeigt, dass die MODTRAN Rekonstruktion des Infrarotspektrums hervorragend mit dem aus dem Weltraum gemessenen Infrarotspektrum übereinstimmt. Damit können wir die Anwendbarkeit des Simulationsprogramms rechtfertigen und schließen, dass sich mit der Simulation auch hypothetische Konstellationen mit ausreichender Genauigkeit beschreiben lassen.
Mit diesem Simulationsprogramm wollen wir die wichtigsten Aussagen bezüglich des Treibhauseffekts überprüfen.
Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum
Abbildung 7: Vergleich zwischen gemessenem Infrarot-Spektrum und mit MODTRAN simuliertem Infrarot-Spektrum
Um auf bekanntem Gefilde zu beginnen, versuchen wir zunächst, den üblicherweise publizierten, „reinen CO2-Treibhauseffekt zu reproduzieren“, indem die durch nichts reduzierte Sonneneinstrahlung die Erde erwärmt und deren Infrarotstrahlung in den Weltraum ausschließlich durch die CO2-Konzentration abgeschwächt wird. Die CO2-Konzentration wird auf das vorindustrielle Niveau 280 ppm eingestellt.
Wir verwenden dabei die sogenannte Standard-Atmosphäre[22], die sich seit Jahrzehnten bei für die Luftfahrt wichtigen Berechnungen bewährt hat, entfernen aber alle anderen Spurengase, ebenso den Wasserdampf. Die anderen Gase wir Sauerstoff und Stickstoff sind aber als vorhanden angenommen, sodass sich an der Thermodynamik der Atmosphäre nichts ändert. Durch leichte Korrektur der Bodentemperatur auf 13,5°C (Referenztemperatur ist 15°C) wird die Infrarot-Abstrahlung auf 340 W/m2 eingestellt. Das ist grade ¼ der Solarkonstante[23], entspricht also genau der auf die ganze Erdoberfläche verteilten Sonneneinstrahlung.
Gut erkennbar ist im Spektrum das „CO2-Loch“, also die gegenüber dem normalen Planck-Spektrum[24] verminderte Abstrahlung im CO2-Band.
Abbildung 8: Simuliertes IR-Spektrum: nur vorindustrielles CO2
Was passiert nun bei Verdoppelung der CO2-Konzentration?
Abbildung 9: Strahlungsantrieb bei Abbildung 9a: Temperaturanstieg zur CO2-Verdoppelung (keine Albedo, Kompensation des Strahlungsantriebs kein Wasserdampf) von Abb. 9.
In Abb. 9 ist zu sehen, dass bei Verdoppelung der CO2-Konzentration auf 560 ppm der Wärmefluss der Infrarotstrahlung um 3,77 W/m² vermindert wird. Der von Myhre ermittelte Wert von 3,71 W/m², der mit einer Mischung verschiedener Treibhausgase unter „clear sky“ Bedingungen mit einer Modellrechnung ermittelt wurde, und der auch eine Korrektur aufgrund von Stratosphärenstrahlung enthält, wird vom IPCC und fast allen Klimaforschern verwendet, um den CO2-Antrieb („Forcing“) zu beschreiben. Diese Korrektur, die den Wert geringfügig verändert, ist in der MODTRAN Simulation nicht enthalten. Daher verwende ich, um eine obere Grenze abzuschätzen, als einziges Treibhausgas CO2 ohne Wasserdampf. In Abb. 9a wird die Bodentemperatur von -1,5°C auf -0,7°C verändert, um wieder die Abstrahlung von 340 W/m2 zu erreichen. Diese Erwärmung um 0,8°C bei Verdoppelung der CO2-Konzentration wird als „Klima-Sensitivität“ bezeichnet. Sie ist, angesichts der aktuellen Meldungen über die drohenden Klimakatastrophen, überraschend gering.
Insbesondere, wenn wir bedenken, dass die bisher verwendeten Einstellungen des Simulationsprogramms völlig an der realen Erdatmosphäre vorbeigehen:
Keine Berücksichtigung der Albedo, der Rückstrahlung des Lichteinstrahlung,
Keine Berücksichtigung von Wolken und Wasserdampf
Schritt für Schritt wollen wir uns nun den realen Bedingungen nähern. Die Szenarien sind in Tabelle 1 zusammengefaßt:
Szenario
Albedo
Einstrahlung (W/m2)
CO2 vorher (ppm)
Temperatur (°C)
CO2 nachher(ppm)
Antrieb (W/m2)
Temperatur-Steigerung fürs Gleichgewicht (°C)
Vorindustriell Nur CO2, keine Wolken, kein Wasserdampf
0
340
280
13,7
560
-3,77
0,8
Keine Treib-hausgase, keine Wolken (CO2 von 0-280 ppm)
0,125
297,5
0
-2
280
-27
7
Nur CO2, Albedo, keine Wolken, kein Wasserdampf
0,125
270
280
5
560
-3,2
0,7
Vorindustrielle Standard- Atmosphäre
0,3
240
280
15
560
-2,1
0,63
Vorindustrielle Standard Atmosphäre, CO2 heutige Konzentration
0,3
240
280
15
420
-1,3
0,34
Tabelle 1: MODTRAN Szenarien unter verschiedenen Bedingungen, siehe Text.
Das Szenario in der ersten Zeile von Tabelle 1 ist das soeben besprochene „reine CO2“ Szenario.
In der zweiten Zeile gehen wir noch einen Schritt zurück, und entfernen auch noch das CO2, also ein Planet ohne Treibhausgase, ohne Wolken, ohne Wasserdampf. Aber die Erdoberfläche reflektiert Sonnenlicht, hat also Albedo[25]. Der Albedowert 0,125 entspricht dem sonstiger Gesteinsplaneten ebenso wie der Meeresoberfläche. Erstaunlicherweise kommt in diesem Fall eine Oberflächentemperatur von -2° C (und nicht wie oft behauptet -18°C!) zustande. Das kommt daher, dass es ohne Wasserdampf auch keine Wolkenalbedo gibt. Wird nun die CO2-Konzentration auf das vorindustrielle Niveau von 280 ppm erhöht, dann reduziert sich die Infrarot-Abstrahlung um 27 W/m2. Dieser große Strahlungsantrieb wird durch eine Temperatursteigerung von 7°C ausgeglichen.
Wir stellen fest, zwischen dem Zustand ganz ohne Treibhausgase und dem vorindustriellen Zustand gibt es einen stattlichen Treibhauseffekt, mit einer Erwärmung um 7°C.
Die dritte Zeile nimmt diesen vorindustriellen Zustand, also Erdalbedo, 280 ppm CO2, keine Wolken und kein Wasserdampf als Ausgangspunkt für das nächste Szenario. Bei Verdoppelung der CO2-Konzentration beträgt der Strahlungsantrieb von -3,2 W/m2, also etwas weniger als bei dem ersten „reinen CO2-Szenario“. Demzufolge ist auch hier die Erwärmung mit 0,7°C zur Erreichung des Strahlungsgleichgewichts etwas geringer.
Nach diesen Vorbereitungen ist in der 4. Zeile die vorindustrielle Standardatmosphäre mit Albedo, Wolken, Wasserdampf und der real gemessenen Albedo von 0,3 repräsentiert, mit der zur Standardatmosphäre zugehörige Bodentemperatur von 15°C. Die einfachste realitätsnahe Simulation ist eine gewichtete Summe eines wolkenlosen Szenarios mit 21mm niederschlagsfähigem Wasserdampf und ein Wolkenscenario mit der häufigsten Wolkenart (Kumulus) und 28 mm niederschlagsfähigem Wasserdampf. Das wolkenlose Szenario hat das Gewicht 1/3 und das Wolkenscenario hat das Gewicht 2/3. Damit wird eine realistische Abstrahlung erreicht, die im Gleichgewicht zur Einstrahlung von 340 W/m2. (1-a) = 240 W/m2 ist. Für’s Ergebnis kommt es nicht auf die genaue Wahl dieser Parameter an, allerdings sollte die Abstrahlung 240 W/m2 betragen.
Bei diesem Szenario bewirkt die Verdoppelung der CO2-Konzentration auf 560 ppm einen Strahlungsantrieb von -2,1 W/m2 und eine kompensierende Temperaturerhöhung, also Sensitivität von 0,63°C.
Außer dem Szenario der Verdoppelung der CO2-Konzentration ist natürlich auch von Interesse, was der Treibhauseffekts bis heute bewirkt hat. Die aktuelle CO2-Konzentration von 420 ppm ist gerade in der Mitte zwischen den vorindustriellen 280 ppm und deren doppeltem Wert.
In der 5. Zeile der Tabelle bewirkt die Erhöhung von 280 ppm auf 420 ppm den Strahlungsantrieb von -1,3 W/m2 und die zur Kompensation notwendige Temperaturerhöhung von 0,34°C. Aus diesem Resultat folgt, dass seit dem Beginn der Industrialisierung der bisherige Anstieg der CO2-Konzentration für eine globale Temperaturerhöhung von 0,34°C verantwortlich war.
Das ist viel weniger als die mittlere Temperaturerhöhung seit dem Beginn der Industrialisierung. Daher stellt sich die Frage, wie die „restliche“ Temperaturerhöhung zu erklären ist.
Es bieten sich mehrere Möglichkeiten an:
Positive Rückkopplungseffekte, die die CO2-bedingte Erwärmung verstärken. Das ist die Richtung des Weltklimarates und Thema des nächsten Kapitels.
Andere Ursachen wie Wolkenalbedo. Das ist Thema des übernächsten Kapitels
Zufällige Schwankungen. Gerne wird angesichts des chaotischen Charakters des Wettergeschehens der Zufall herangezogen. Diese Möglichkeit bleibt in Rahmen dieser Abhandlung offen.
4. Rückkopplungen führen zu — katastrophalen? — Konsequenzen
Die im vorigen Kapitel maximal mögliche Klimasensitivität, also Temperaturerhöhung bei Verdoppelung der CO2-Konzentration beträgt 0,8°C, unter realen Bedingungen eher 0,6°C.
Es war in der Klimaforschung schon früh klar, dass eine solch geringe Klima-Sensitivität niemanden in der Welt ernsthaft in Sorge versetzen könnte. Dazu kam, dass die gemessene globale Erwärmung größer ist als von der Strahlungstransportgleichung vorhergesagt wird.
Deswegen wurden Rückkopplungen ins Spiel gebracht, die prominenteste Veröffentlichung in diesem Zusammenhang war 1984 von James Hansen et al.: „Climate Sensitivity: Analysis of Feedback Mechanisms“[26] (Klima-Sensitivität: Analyse von Rückkopplungsmechanismen). James Hansen war es, der mit seinem Auftritt vor dem US-Senat 1988[27] die Klimapolitik der USA maßgeblich beeinflusste. Ähnlich argumentierte Prof. Levermann bei einer Anhörung des Umweltausschusses des Deutschen Bundestags[28], verbunden mit der Behauptung, aufgrund der Rückkopplung würde die Temperatur um 3°C steigen.
Mit Hilfe der Rückkopplungsmechanismen entstanden die vom IPCC veröffentlichten hohen Sensitivitäten bei Verdopplung der CO2 Konzentration zwischen 1,5°C und 4,5°C.
Es stellt sich insbesondere die Frage, wie eine geringe Erwärmung von 0,8°C durch Rückkopplung zu einer Erwärmung von 4,5°C führen kann, ohne dass das System völlig außer Kontrolle gerät?
Die in diesem Zusammenhang mit Abstand wichtigste Rückkopplung ist die Wasserdampf-Rückkopplung. Warum? Weil Wasserdampf per se ein sehr starkes Treibhausgas ist. Allerdings kommt es bei der Rückkopplung nicht auf die Gesamtwirkung an, sondern auf die Wirkung bei kleinen Veränderungen.
Wie funktioniert die Wasserdampf-Rückkopplung?
Die Wasserdampf-Rückkopplung besteht aus einem 2-Schritt Prozess:
Wenn die Lufttemperatur um 1°C steigt, kann die Luft um 6% mehr Wasserdampf aufnehmen. Üblicherweise wird ein Wert von 7% angegeben, aber die 7% sind erst ab einer Höhe von 8 km infolge des dort verminderten Luftdrucks möglich. Es ist zu beachten, dass dieser Prozentsatz der maximal mögliche Wasserdampfgehalt ist. Ob dieser wirklich erreicht wird, hängt davon ab, ob genügend Wasserdampf zur Verfügung steht. Nach Tabelle 3 der Publikation „Global Changes in Water Vapor 1979–2020„[29] beträgt die aus Klimamodellen berechnete Sensitivität der Änderung des Wasserdampfes von der Temperatur etwa 5% pro °C Erwärmung. Die Pro Jahrzehnt des Untersuchungszeitraums mit der globalen Erwärmung 0.12°C hat sich demnach der Wasserdampfgehalt um 0,6% erhöht, ausgehend von einer durchschnittlichen niederschlagsfähigen Wasserdampfmenge von 25mm.
Der Strahlungstransport von Infrarotstrahlung hängt vom Wasserdampfgehalt ab: Zusätzlicher Wasserdampf reduziert die abgestrahlte Infrarotstrahlung infolge der Absorption durch den zusätzlichen Wasserdampf. Mit Hilfe des bereits erwähnten MODTRAN-Simulationsprogramms wird unter wolkenlosen Bedingungen und dem globalen Mittelwert von 25 mm niederschlagsfähigem Wasserdampf die wasserdampfbedingte Reduktion der Infrarotstrahlung um 0,88 W/m2 bei Erhöhung des Wasserdampfgehaltes um 5% auf 26,5 mm ermittelt[30].
Diese reduzierte Infrarotstrahlung ist ein negativer Strahlungsantrieb. Die diese Abschwächung kompensierende Temperaturerhöhung ist die primäre Rückkopplung g (englisch „gain“). Diese beträgt 0,22 °C als Folge der ursprünglichen Temperaturerhöhung um 1°C, also ist g=0,22.
Die Gesamtrückkopplung f (englisch „feedback“) ergibt sich als geometrische Reihe[31] infolge der rekursiven Anwendung des obigen Mechanismus – die 0,22°C zusätzliche Temperaturerhöhung haben ja eine erneute zusätzliche Wasserdampfbildung zur Folge. Dieser Zusammenhang wird von James Hansen in seiner Arbeit von 1984[32] beschrieben:
f = 1+ g + g2 + g3… = 1/(1-g).
Mit g=0,22 ist demnach der Rückkopplungsfaktor f = 1,28.
Unter Zugrundelegung eines Treibhauseffekts aus dem Strahlungstransport von 0,8°C erfolgt daraus zusammen mit der maximal möglichen Rückkopplung eine Temperaturerhöhung von 0,8°C . 1,28 = 1,0 °C , bei der hier ermittelten Sensitivität 0,63°C . 1,28 = 0,81 °C.
Beide Werte sind niedriger als die kleinste publizierte Sensitivität von 1,5°C der beim IPCC verwendeten Modelle. Die seit dem Beginn der Industrialisierung erfolgte Erwärmung ist demnach selbst mit Rückkopplung 0,34°C . 1,28 = 0,44°C.
Damit ist belegt, dass auch die vielfach beschworene Wasserdampf-Rückkopplung zu keiner exorbitanten und schon gar keiner katastrophalen Klima-Erwärmung führt.
5. Aber sie erwärmt sich doch? – Auswirkungen von Wolken.
An dieser Stelle aufzuhören, wird jeden, der sich mit dem Klimathema beschäftigt, mit der naheliegenden Frage unzufrieden zurücklassen: „Aber die Erde erwärmt sich doch, und zwar stärker, als die nach dem revidierten Treibhauseffekt samt Rückkopplung möglich wäre?“.
Deswegen werden hier die in der Klimadiskussion bis vor kurzem wenig beachteten Auswirkungen der tatsächlichen Wolkenbildung[33] untersucht.
Untersuchung der Veränderungen der weltweiten Wolkenbedeckung
Jay R Herman von der NASA[34] hat mit Hilfe von Satellitenmessungen über einen Zeitraum von mehr als 30 Jahren die mittlere Reflexivität der Wolkenbedeckung der Erde berechnet und ausgewertet:
Abbildung 10: Wolkenreflexivität zwischen 1979 und 2011
Er stellte einen klaren Trend der Abnahme der Wolkenbedeckung fest. Daraus berechnete er, wie sich dies auf die davon betroffenen Komponenten des globalen Energiebudgets auswirkt:
Abbildung 11 Veränderung des Energiebudgets aufgrund der Veränderung der Wolkenreflexivität
Das Ergebnis war, dass aufgrund der reduzierten Wolkenbedeckung die Sonneneinstrahlung in 33 Jahren um 2,33 W/m2 zunahm. Das sind 0,7 W/m2 Strahlungsantrieb pro Jahrzehnt. Demgegenüber betrug die Abnahme der Abstrahlung infolge der Zunahme der CO2-Konzentration maximal 0,2 W/m2 pro Jahrzehnt[35].
Demzufolge ist nach dieser Untersuchung der Einfluss der Wolken mit 78% auf das Klima mindestens 3,5 mal größer als der des CO2, das demnach allenfalls einen Einfluss von 22% hat.
Fazit – es gibt keine drohende Klimakatastrophe
Fassen wir die Stationen dieser Betrachtungen zur Dekonstruktion des Klimanarrativs noch einmal zusammen:
Es gibt kein exponentielles Wachstum der CO2-Emissionen. Diese Phase gab es bis 1975, aber die ist längst vorbei, und die weltweiten Emissionen sind seit 10 Jahren auf einem Plateau angelangt.
Die CO2-Konzentration wächst zwar trotz konstanter Emissionen noch an, aber deren Wachstum hat sich bereits verlangsamt, und wird unter Annahme des wahrscheinlichsten Emissionsszenarios in der 2. Hälfte des Jahrhunderts aufhören.
Die physikalisch plausible Treibhauswirkung des CO2 ist sehr viel geringer als gewöhnlich behauptet wird, die unter realen atmosphärischen Bedingungen begründbare Sensitivität ist nur 0,5°C.
Aus der Abschätzung der maximal möglichen Rückkopplungswirkung durch Wasserdampf ergibt sich die obere Grenze des Rückkopplungsfaktors als 1,25. Damit lassen sich keine Temperaturerhöhungen von 3°C oder mehr rechtfertigen
Es gibt plausible einfache Erklärungen der Temperaturentwicklung der Erde. Die wichtigste davon ist, dass infolge der verschiedenen Maßnahmen der Luftreinhaltung (Reduzierung von Holz- und Kohleverbrennung, Katalysatoren bei Automobilen, etc.) die Aerosole in der Atmosphäre im Laufe der letzten 70 Jahre zurückgegangen ist, was zu einer Verminderung der Wolkenbildung und daher zu einer Erhöhung der Sonneneinstrahlung führte.
Wie groß ist der Treibhauseffekt in Deutschland? — eine statistische Analyse
[latexpage]
Hohe Korrelation als Indiz der Kausalität?
Die Argumentation, dass CO2 die mittlere globale Temperatur bestimmt, wird häufig mit diesem Diagramm, das eine starke Korrelation zwischen CO2-Konzentration und mittlerer globaler Temperatur zeigt, veranschaulicht oder sogar begründet, hier beispielsweise die in Maona Loa gemessene mittlere jährliche Konzentration und die jährlichen globalen Meeresoberflächentemperaturen:
Es gibt zwar zwischen 1900 und 1975 — immerhin 75 Jahre — starke systematische Abweichungen, aber seit 1975 ist die Korrelation stark. Wenn wir versuchen, mit den seit 1959 verfügbaren CO2-Konzentrationsdaten von Maona Loa die deutschen Mitteltemperaturen zu erklären, bekommen wir eine klare Beschreibung des Trends der Temperaturentwicklung, aber keine Erklärung der starken Schwankungen:
Die aus den im Jahr $i$ gemessenen logarithmischen CO2-Konzentrationsdaten $ln(C_i)$ mit der Methode der kleinsten Quadrate geschätzte „Modelltemperatur“ $\hat{T}_i$ ergibt sich als $\hat{T}_i = 7.5\cdot ln(C_i)- 35.1 $ (°C)
Nehmen wir als 2. Erklärungsvariable die jährlichen Sonnenstunden hinzu, so verbessert sich die Anpassung etwas, aber wir sind noch weit entfernt von einer vollständigen Erklärung der schwankenden Temperaturen. Der Trend wird erwartungsgemöß ähnlich gut wiedergeben, auch ein Teil der Schwankungen wird mit den Sonnenstunden erklärt, aber bei weitem nicht so gut, wie man es eigentlich von einer kausalen Bestimmungsgröße erwarten würde :
Die Modellgleichung für die geschätzte Temperatur $\hat{T}_i$ wird mit der Erweiterung der Sonnenstunden $S_i$ zu $ \hat{T}_i = 5.8\cdot ln(C_i) + 0.002\cdot S_i – 28.5 $ (°C) Das relative Gewicht der CO2-Konzentration hat bei insgesamt verbessertem statistischem Erklärungswert der Daten etwas abgenommen.
Allerdings sieht es so aus, als ob das Zeitintervall 1 Jahr viel zu lang ist, um die Auswirkung der Sonneneinstrahlung auf die Temperatur korrekt zu behandeln. Es ist offensichtlich, dass die jahreszeitlichen Schwankungen unzweifelhaft von der Sonneneinstrahlung verursacht werden. Die Auswirkungen der Einstrahlung sind nicht alle spontan, es müssen auch Speichereffekte berücksichtigt werden. Das entspricht unserer Wahrnehmung, dass die Wärmespeicherung der Sommerwärme 1-3 Monate anhält, und z.B. die wärmsten Monate erst nach der Zeit der größten Sonneneinstrahlung sind. Deswegen müssen wir ein auf dem Energiefluss beruhendes Modell erstellen, das mit monatlichen Messwerten gefüttert wird, und das eine Speicherung vorsieht.
Energieerhaltung – Verbesserung des Modells
Um das Verständnis zu verbessern, erstellen wir ein Modell mit monatlichen Daten unter Berücksichtigung der physikalischen Vorgänge (die Monate werden mit der Indexvariablen $i$ durchgezählt):
Durch die Sonneneinstrahlung wird der Erdoberfläche Energie zugeführt, diese wird monatlich als proportional zur Zahl der Sonnenstunden $S_i$ angenommen,
unter der Annahme des Treibhauseffekts wird ebenfalls Energie zugeführt, für die monatliche Energieaufnahme (bzw. verhinderte Energieabgabe) wird eine lineare Funktion von $ln(C_i)$ angenommen,
die oberste Schicht der Erdoberfläche speichert die Energie und gibt sie wieder ab, die monatliche Abgabe wird als eine lineare Funktion der Temperatur $T_i$ angenommen,
die monatliche Temperaturänderung in Deutschland wird als proportional zur Energieänderung angenommen.
Daraus ergibt sich diese modellierte Bilanzgleichung, die Konstante $d$ erlaubt es, beliebig skalierte Maßeinheiten zu verwenden: $ \hat{T}_i – \hat{T}_{i-1} = a\cdot \hat{T}_{i-1} + b\cdot S_i + c\cdot ln(C_i) + d $ Auf der linken Seite der Gleichung steht die Temperaturveränderung als Repräsentant der Energiebilanzänderung, während die rechte Seite die Summe der Ursachen dieser Energieänderung darstellt. Für die Bestimmung der Koeffizienten $a,b,c,d$ mit der Methode der kleinsten Quadrate wird statt der modellierten Temperatur $\hat{T}_i$ die gemessene Temperatur $T_i$ eingesetzt.
Hier sind zunächst die monatliche Temperatur- und Sonnenstundendaten. Es ist erkennbar, dass die Temperaturdaten den Sonnenstundendaten um etwa 1-2 Monate hinterherhinken, aber insgesamt einen ähnlichen Verlauf haben:
Dies passt zu der Annahme, dass wir tatsächlich einen Speichereffekt haben. Die Bilanzgleichung sollte also sinnvolle Werte liefern. Für die Auswertung des Schätzergebnisses müssen wir allerdings genauer hinschauen.
In dieser Darstellung sind in der 1. Spalte die Werte der jeweiligen Koeffizienten, in der 2. Spalte deren Standardfehler, danach die sogenannte T-Statistik, gefolgt von der Wahrscheinlichkeit, dass die Annahme des von 0 verschiedenen Koeffizienten falsch ist, der sogenannten Irrtumswahrscheinlichkeit. Das bedeutet, dass ein Koeffizient nur dann signifikant ist, wenn diese Wahrscheinlichkeit nahe 0 ist. Dies ist der Fall, wenn die T-Statistik größer 3 oder kleiner -3 ist. Die beiden letzten Spalten beschreiben schließlich das sog. 95% Konfidenzintervall. Das bedeutet, dass mit 95%-iger Wahrscheinlichkeit sich der tatsächliche Schätzwert innerhalb dieses Intervalls befindet.
Koeffizient Std.Fehler t-Wert P>|t| [0.025 0.975] -------------------------------------------------------------------- a -0.4826 0.0142 -33.9049 0.0000 -0.5105 -0.4546 b 0.0492 0.0013 38.8127 0.0000 0.0467 0.0517 c 0.6857 0.9038 0.7587 0.4483 -1.0885 2.4598 d -6.3719 5.3013 -1.2020 0.2297 -16.7782 4.0344
Hier sind die Irrtumswahrscheinlichkeiten der Koeffizienten $c$ und $d$ mit 45% bzw. 23% dermaßen groß, dass wir daraus schließen müssen, dass sowohl $c=0$ also auch $d=0$ sind. $c$ misst die Bedeutung der CO2-Konzentration für die Temperatur. Das bedeutet, dass in Deutschland seit 64 Jahren die CO2-Konzentration keinen statistisch signifikanten Einfluss auf die Temperaturentwicklung hat. Dies aber ist der Zeitraum der größten anthropogenen Emissionen der Geschichte. Dass $d$ ebenfalls den Wert 0 annimmt, ist eher dem Zufall geschuldet, denn diese Konstante hängt von den Maßeinheiten der CO2-Konzentration und der Temperatur ab.
Demzufolge wird die Bilanzgleichung angepasst: $ T_i – T_{i-1} = a\cdot T_{i-1} + b\cdot S_i + d $ mit dem Ergebnis:
Koeffizient Std.Fehler t-Wert P>|t| [0.025 0.975] -------------------------------------------------------------------- a -0.4823 0.0142 -33.9056 0.0000 -0.5102 -0.4544 b 0.0493 0.0013 38.9661 0.0000 0.0468 0.0517 d -2.3520 0.1659 -14.1788 0.0000 -2.6776 -2.0264
Hier ist nun die Konstante $d$ aufgrund des Umstandes, dass $c=0$ ist, wieder mit hoher Signifikanz gültig. Die beiden anderen Koeffizienten $a$ und $b$ haben sich kaum verändert. Sie verdienen eine kurze Diskussion:
Der Koeffizient $a$ gibt an, welcher Teil der als Temperatur gemessenen Energie im Laufe eines Monate wieder abgegeben wird. Das ist fast die Hälfte. Dieser Faktor ist unabhängig vom Nullpunkt der Temperaturskala, bei der Wahl von K oder Anomalien statt °C käme derselbe Wert heraus. Der Wert entspricht etwa dem subjektiven Empfinden, wie sich im Sommer die Zeiten größter Temperatur zeitlich gegenüber dem Maximum der Sonneneinstrahlung verschieben. Der Koeffizient $b$ gibt an, mit welchem Faktor sich die Sonnenstunden in monatliche Temperaturänderung übersetzen.
Das Ergebnis ist nicht nur eine abstrakte Statistik, es lässt sich auch veranschaulichen, indem der monatliche Temperaturverlauf der letzten 64 Jahre mit Hilfe des beschriebenen Modells rekonstruiert wird.
Die Rekonstruktion des gesamten Temperaturverlauf ergibt sich aus der Zeitreihe der Sonnenstunden und einem einzigen Temperatur-Startwert $\hat{T}_{-1}=T_{-1}$, dem Vormonat des Beginns der untersuchten Zeitreihe seit 1959, also hier vom Dezember 1958. Die Rekonstruktion erfolgt mit dieser Rekursion aus den Sonnenstunden über die 768 Monate vom Januar 1959 bis Dezember 2023: $\hat{T}_i = \hat{T}_{i-1} + a\cdot \hat{T}_{i-1} + b\cdot S_i + d$ $(0\leq i < 768 ) $
Hier die vollständige Rekonstruktion der Temperaturdaten im Vergleich der Original-Temperaturdaten:
Der deutlicheren Darstellung wegen werden die letzten 10 Jahre vergrößert dargestellt:
Es fällt auf, dass das Residuum, d.h. die Abweichungen der Rekonstruktion von den tatsächlichen Temperaturen bis zum Ende des untersuchten Zeitraums um 0 herum symmetrisch erscheint und keine offensichtlichen systematischen Abweichungen zeigt. Das Maß des Fehlers der Rekonstruktion ist die Standardabweichung des Residuums. Diese beträgt 2.5°C. Da wir einen langen Zeitraum von 64 Jahren untersuchen, könnte eine Feinanalyse der langfristigen Trends von Original-Temperaturen, Rekonstruktion und Residuum eine mögliche Obergrenze des möglichen Einflusses von CO2 finden.
Feinanalyse des Residuums
Wenn wir von den 3 Kurven Originaltemperaturdaten, Rekonstruktion und Residuum über den ganzen 64-Jahre Zeitraum die mittlere Steigung durch Schätzung einer Ausgleichsgeraden bestimmen, bekommen wir folgende langfristige Werte:
Vom Trend der Originaltemperaturen werden 90% durch die Zahl der Sonnenstunden erklärt. Für weitere Ursachen bleiben also nur noch 10% an nicht erklärter Variabilität übrig. Bis zum Beweis des Gegenteils können wir also annehmen, dass höchstens für diese 10% der Anstieg der CO2-Konzentration verantwortlich ist, also für maximal 0.03° C pro Jahrzehnt während der letzten 64 Jahre. Statistisch kann aber der Beitrag der CO2-Konzentration nicht als signifikant beurteilt werden. Zu bedenken ist, dass mit diesem einfachen Modell sehr viele Einflussfaktoren und Inhomogenitäten nicht berücksichtigt sind, dass also der Einfluss der CO2-Konzentration nicht der einzige Faktor ist, der zusätzlich zu den Sonnenstunden wirksam ist. Deswegen wird der CO2 Einfluss ja auch als statistisch nicht als signifikant bewertet.
Erweiterung — Korrektur durch Approximation der tatsächlichen Einstrahlung
Bislang haben wir die Sonnenstunden als Repräsentant des tatsächlichen Energieflusses verwendet werden. Das ist nicht ganz korrekt, denn eine Sonnenstunde im Winter bedeutet aufgrund des viel flacheren Einfallswinkels deutlich weniger eingestrahlte Energie als im Sommer.
Der jahreszeitliche Verlauf der Wichtung des einströmenden Energieflusses hat diese Form. Mit dieser Wichtung müssen die Sonnenstunden multipliziert werden, um den Energiefluß zu erhalten.
Mit diesen monatlichen Wichtungen wird das Modell aus Sonneneinstrahlung und CO2 erneut bestimmt. Wiederum muss der Beitrag des CO2 wegen mangelnder Signifikanz abgelehnt werden. Daher hier die Rekonstruktion der Temperatur aus dem einstrahlenden Energiefluss etwas besser als die obige Rekonstruktion.
Durch die Korrektur der Sonnenstunden zum Energiefluss hat sich der Standardabweichung des Residuums auf 2.1°C verringert.
Mögliche Verallgemeinerung
Weltweit ist die Erfassung der Sonnenstunden weitaus weniger vollständig als die der Temperaturmessung. Daher können die Ergebnisse für Deutschland nicht einfach weltweit reproduziert werden. Aber es wird mit Satelliten die Wolkenbedeckung bzw. die Reflexion der Sonneneinstrahlung an den Wolken gemessen. Mit diesen Daten kommt man zu ähnlichen Ergebnissen, dass nämlich der Anstieg der CO2-Konzentration allenfalls für 20% der weltweit mittleren Temperaturerhöhung verantwortlich ist. Da diese im Schnitt niedriger ist als die Temperaturerhöhung in Deutschland, führt das am Ende ebenfalls zu einer Obergrenze von 0.03°C pro Jahrzehnt für die Folgen des CO2-bedingten Treibhauseffekts.
Zusammenhang zwischen kurzer Residenzzeit und Ausgleichszeit des temperaturabhängigen linearen Senkenmodells
[latexpage]
Es gibt Forschungsansätze zum CO$_2$ Senkeneffekt, die von der unbestrittenen kurzen Residenzzeit des CO$_2$ ausgehen, die in der Größenordnung von 3 Jahren liegt. Das prominenteste dieser Modelle ist das von Prof. Harde, beschrieben in einem Artikel aus 2019. Der Artikel geht insbesondere auf Gegenargumente ein, die gegen eine frühere Publikation von ihm vorgebracht wurde.
Die Hauptgleichung des Modells von Prof. Harde ist (Gleichung 23) – es werden die im Artikel verwendeten und erklärten Original-Bezeichnungen verwendet:
Prof. Harde schreibt, dass die Bestimmung aller Parameter mit den vorhandenen Daten unterbestimmt ist, und dass nur eine Kombination zwischen $\beta_e$ und $\beta_{\tau}$ bestimmt werden kann, wobei im Prinzip auch einer der beiden Koeffizienten gegen 0 gehen kann. Daher nehmen wir vorläufig an, dass $\beta_{\tau}=0$ ist, was bedeutet, dass sich die konzentrationsabhängige Absorptionskonstante nicht mit der Zeit ändert.
Damit vereinfacht sich die Differentialgleichung: $ \frac{dC(t)}{dt}= e_A(t) + e_{N0}+\beta_e\cdot\Delta T(t) – \frac{1}{\tau_{R0}}\cdot C(t) $ Auf den ersten Blick ist das eine direkte „Übersetzung“ der diskreten Gleichung des temperaturabhängigen linearen Modells (Gleichung 2) – auch hier werden die dort verwendeten Symbole angewandt: $C_{i+1} – C_i = E_i – a\cdot C_i – b\cdot T_i – c $ Auf den ersten Blick haben alle Terme klare Entsprechungen:
Als konstant angenommene natürliche Emissionen $-c\Longleftrightarrow e_{N0}$
Aber die Konstanten $c$ und $e_{N0}$ passen nicht zusammen. $c$ wird als Schätzwert der jährlichen natürlichen Netto-Emissionen mit 13.6 ppm/Jahr ermittelt, während $e_{N0}$ mit 93.3 ppm/Jahr als Vorwissen aller natürlichen Emissionen vorgegeben wird. Demzufolge beschreibt $\tau_{R0}$ auch, wie beschrieben, die Residenzzeit von etwa 3 Jahren, während $\frac{1}{a} \approx 23 a $ in der Größenordnung der Zeitkonstante der Absorptionszeit der Bombentest-Daten (etwa 16 Jahre) liegt. Neuere Berechnungen mit monatsgenauen Messdaten ergeben mit dem temperaturabhängigen linearen Modell $a=0.06$, also $\frac{1}{a} \approx 17 a $.
Um die Modelle inhaltlich aufeinander abzustimmen müssen die „Brutto“ natürlichen Emissionen $e_{N0}$ aufgeteilt werden in die Jahres-„Netto“-Emissionen $-c$ und den restlichen, innerhalb des Jahres re-absorbierten natürlichen Emissionen $e_{Rest}$ (dass dabei ein Austausch mit anderem CO$_2$ stattfindet, steht außer Frage, es geht hier nur um die Menge) $e_{N0} = e_{Rest} – c $ sowie deren zugehörige Temperatur-Koeffizienten $\beta_e = \beta_{Rest} – b$ Ebenso müssen die Kehrwerte der Zeitkonstanten entsprechend angepasst werden. $\frac{1}{\tau_{R0}} = \frac{1}{\tau_{Rest}} + a$ Um die beiden Ansätze kompatibel zu bekommen, muß diese Bedingung erfüllt sein: $e_{Rest} +\beta_{Rest}\cdot\Delta T(t)-\frac{1}{\tau_{Rest}}\cdot C(t) = 0$ und die Temperaturkoeffizienten sollten im gleichen Verhältnis stehen wie die Emissionen: $\frac{beta_{Rest}}{\beta_e} = \frac{e_{Rest}}{e_{N0}}$
Was hilft uns das?
Es erscheint mir wichtig, zu einem grundsätzlich gemeinsamen Verständnis zu kommen, um nicht unnötige Fronten in der Wissenschaft aufzurichten, denn leider gibt es sehr viele Mißverständnisse um die Modelle des Kohlenstoffzyklus.
Beide Konzepte, Residenzzeit und Ausgleichszeit, haben in der Diskussion eine große Rolle gespielt. Sie werden häufig gegeneinander ausgespielt, und daher kann es zum Dialog wesentlich beitragen, die Zusammenhänge beider Konzepte zu verstehen. Dann können die Mosaiksteine des Kohlenstoffzyklus zusammengefügt werden.
Die wichtigste Konsequenz ist zu zeigen, dass die Gleichungen zur Behandlung der der Residenzzeit kompatibel ist zur Gleichung zur Bestimmung der Ausgleichszeit, und dass beide Fragestellungen nicht gegeneinander ausgespielt werden dürfen:
Es ist legitim zu fragen, wie sich anthropogene Emissionen auf die Konzentration auswirken, und es ist wenig hilfreich, diese Frage damit herunterzuspielen, dass es vielfach größere natürliche Emissionen gibt
Es ist auch legitim zu sagen, dass trotz des jährlichen Netto-Senkeneffekts eine Temperaturabhängigkeit der natürlichen Emissionen gibt
Es ist wert zu betonen, dass sich die lineare Temperaturabhängigkeit der Emissionen und die lineare Konzentrationsabhängigkeit der Absorptionen teilweise kompensieren, dass die Gesamtwirkung wie eine Temperaturunabhängigkeit des Senkeneffekt bedeuten, solange die Temperatur linear mit der CO$_2$ Konzentration ansteigt.