Emissionen des Kohlenstoffkreislaufs

In der Klimadiskussion wird zunehmend der sog. „CO2-Fußabdruck“ von Lebewesen, insbesondere des Menschen und von Nutztieren als Problem deklariert, bis dahin,

  • das Essen von Fleisch zu diskreditieren,
  • Nutztiere abzuschlachten (z.B. in Irland)
  • oder sogar junge Menschen davon abzuhalten, Kinder zu bekommen.

Diese Diskussion beruht auf falschen Voraussetzungen. Es wird so getan, als ob das Ausatmen von CO2 dieselbe „klimaschädliche“ Qualität hätte wie das Verbrennen von Kohle oder Erdöl.
Eine genauere Analyse des Kohlenstoffkreislaufs zeigt den Unterschied.

Der Kohlenstoffkreislauf

Alles Leben der Erde ist aus Kohlenstoffverbindungen aufgebaut.
Der Beginn der sogenannten Nahrungskette sind die Pflanzen, die mit der Photosynthese aus dem CO2 der Atmosphäre vorwiegend Kohlehydrate, teilweise auch Fette und Öle erzeugen und damit sowohl Kohlenstoff als auch Energie speichern.

Die weitere Verarbeitung dieser Kohlenstoffverbindungen teilt sich auf mehrere Zweige auf, bei denen wieder eine Umwandlung in CO2 erfolgt:

  • der unmittelbare Energieverbrauch der Pflanze, die „pflanzliche Atmung“,
  • der — überwiegend saisonale — Zerfall eines Teils oder der ganzen Pflanze, und Humusbildung,
  • der Energieversorgung von Tieren und Menschen als Nahrung. Hier findet außer der direkten Energieversorgung eine Umwandlung in Eiweiße und Fette statt, zum Teil auch in Kalk.
  • Mit der Nahrungskette werden die Eiweiße und Fette weitergereicht.
  • Im Laufe des Lebens geben Pflanzen, Tiere und Menschen einen Teil des über die Nahrung aufgenommenen Kohlenstoffs durch Atmung wieder als CO2, teilweise auch als Methan ab.
  • Mit der Verwesung der Tiere und Menschen wird über Zersetzungsprozesse teilweise das verbliebene CO2 wieder freigesetzt, teilweise bildet sich Humus, der kohlenstoffhaltig ist.
  • Der biologisch gebildete Kalk bindet das CO2 langfristig. Z.B. bindet jede Eierschale 5g CO2 für sehr lange Zeit.

Menschen und Tiere sind CO2 Senken, keine Quellen

Vielfach wird gesagt, dass Menschen und Tiere über Atmung etc. Kohlenstoff als CO2 oder Methan in die Atmosphäre geben, und daher zu die Emissionen vergrößern. Um zu zeigen, dass sie zusammen mit ihrer Nahrungskette dennoch CO2-Senken sind, wollen wir den als CO2 oder Methan ausgeschiedenen Kohlenstoff zurückverfolgen.
Dieser kommt entweder direkt über den Stoffwechsel aus der aufgenommenen Nahrung, oder aus den Fettreserven des eigenen Organismus. Die Fettreserven wiederum stammen aus der Nahrung, die in der Vergangenheit aufgenommen wurde.
Nun stammt alle Nahrung — mit Ausnahme von Medikamenten — aus Tieren oder Pflanzen. Tiere ernähren sich wiederum von Tieren oder Pflanzen. Am Ende der Nahrungskette stehen in jedem Falle Pflanzen. Diese holen sich all ihren Kohlenstoff aus dem CO2 der Atmosphäre.

Das heißt, dass jedes Kohlenstoffatom, dass wir als CO2 ausatmen, je nach Länge der Nahrungskette ursprünglich und daher vorher aus dem CO2 der Atmosphäre stammt und gebundenen worden war. Daher stammt sämtlicher Kohlenstoff aller Lebewesen, sei er gebunden oder als CO2 ausgeatmet, letztendlich aus der Atmosphäre über die Photosynthese. Das wird sehr anschaulich vom berühmten Nobelpreisträger Prof. Richard Feynman am Beispiel eines Baumes beschrieben (in englischer Sprache):

Alle Lebewesen sind temporäre Speicher des CO2. Die geschilderten Mechanismen bewirken unterschiedliche Halbwertszeiten dieser Speicherung.

Die Eingriffe des Menschen bewirken in der Regel eine Verlängerung der Speicherung und damit in der Konsequenz ein nachhaltigerer Umgang mit CO2:

  • Hauptsächlich durch Konservierung und damit Aufhalten der Fäulnisprozesse. Das bezieht sich nicht nur auf das haltbar machen von Lebensmitteln, sondern auch durch langfristige Konservierung von Holz, solange die Holzverwertung nachhaltig ist. Auf diese Weise ist das Bauen mit Holz eine langfristige Bindung von CO2.
  • Das Getreide vom letzten Jahr wird i.d.R. gelagert und erst etwa ein Jahr später zu Brot etc. weiterverarbeitet. In der Zwischenzeit sind die diesjährigen Getreidepflanzen schon wieder nachgewachsen. Damit sind die stoffwechselbedingten Emissionen von Mensch und Tier schon kompensiert, bevor sie stattfinden. Würde das Getreide ohne Verarbeitung verrotten, dann wäre es bereits im Herbst letzten Jahres wieder in CO2 zerfallen. Würde gar kein Getreide angebaut, würde von vorneherein sehr viel weniger CO2 der Luft gebunden. Es ist nachgewiesen, dass die Intensivierung der Landwirtschaft neben der gestiegenen CO2-Konzentration in der Atmosphäre maßgeblich zum Ergrünen der Erde seit 30 Jahren beigetragen hat, u.a. in Form von sich jährlich steigernden Spitzenernten.
  • Auch die Aufzucht von Nutztieren bedeutet eine CO2-Speicherung, nicht nur in Form der langlebigen Knochen. Die Nutztiere spielen auch eine wichtige Rolle bei der wichtigen Beseitigung von Graspflanzen (siehe weiter unten).

Einschränkung – Düngung und Mechanisierung der Landwirtschaft

3 Faktoren führen dazu, dass bei der Erzeugung von Lebensmitteln u.U. doch mehr CO2 freigesetzt wird als in der „freien Natur“, nämlich wenn Prozesse beteiligt sind, bei denen fossile Brennstoffe zum Einsatz kommen:

  • Die Verwendung von chemisch erzeugten Düngemitteln
  • die Mechanisierung der Landwirtschaft
  • die Industrialisierung der Lebensmittelerzeugung.

Aufgrund sehr unterschiedlicher Erzeugungsprozesse ist es sehr irreführend, von einem produktspezifischen CO2-Fußabdruck zu sprechen.

Um ein wichtiges Beispiel herauszugreifen: Rindfleisch wird gewöhnlich mit einem extrem hohen „CO2-Fußabdruck“ versehen. Das Rindfleisch, das von Rindern stammt, die weitgehend auf einer — ohne Kunstdünger gedüngten — Weide großgezogen werden, hat einen vernachlässigbar kleinen „CO2-Fußabdruck“, im Gegensatz zu dem, was in den üblichen Tabellen verbreitet wird. Dasselbe gilt für Wildtiere, die bei der Jagd erlegt werden.

Ein Beispiel, das die Doppelzüngigkeit der Diskussion illustriert, ist die Erzeugung von Bio-Treibstoffen. Dabei werden ganz genauso wie bei der übrigen Landwirtschaft Düngemittel und mit fossiler Energie betriebene mechanische Geräte eingesetzt. Die erzeugten Treibstoffe gelten jedoch als nachhaltig und „CO2-frei“. Derselbe Maßstab muß auch für die Erzeugung von Lebensmitteln gelten.

Bei der Düngung ist noch zu berücksichtigen, dass gedüngte Pflanzen sehr viel besser wachsen und daher auch mehr CO2 aus der Luft absorbieren. Das heißt, dass ein großer Teil des durch Düngung bedingten „Fußabdrucks“ durch das verbesserte Wachstum der Pflanze und daher erhöhte Photosynthese-Tätigkeit wieder kompensiert wird.

Abhängigkeiten

Die wichtigste Erkenntnis aus Biologie und Ökologie ist, dass es nicht in unserer Beliebigkeit ist, einzelne Elemente der sensiblen Ökologie zu entfernen, ohne dem Ganzen großen Schaden zuzufügen.
Typische Beispiele solch schädlicher Einflüsse sind:

  • Überweidung, d.h. Verödung durch Abfressen der (pflanzlichen) Lebensgrundlagen. Beispiele dafür sind weithin bekannt. Die „Überweidung“ kann auch durch „gut gemeinte“ und als positiv angenommene Eingriffe wie die „Verbesserung der Wasserqualität“ im Bodensee erfolgen, mit dem Ergebnis, dass es für Pflanzen und Tiere im Wasser nicht mehr genug Nahrung gibt.
  • Weniger bekannt ist die „Unterweidung„, insbesondere das Nicht-Beseitigen von verdorrtem Steppengras in den riesigen semiariden Gebieten der Erde. Zur Lösung dieses Problems hat Alan Savory das Konzept des „Holistic Managements“ mit großem Erfolg eingeführt. Dieses Konzept beinhaltet als wesentliche Komponente die Ausweitung der Viehzucht.
    Werden Pflanzen nicht durch „größere“ Tiere weiterverwertet, dann werden sie von Mikroorganismen verarbeitet und zerfallen in der Regel schnell wieder unter Freisetzung des gebundenen CO2, teilweise werden sie in Humus umgewandelt. Für die CO2-Konzentration der Atmosphäre ist also nichts gewonnen, wenn z.B. Rinder oder Schweine abgeschlachtet werden, um angeblich die CO2-Bilanz zu verbessern. Im Gegenteil, die Tiere verlängern die Lebensdauer der organischen kohlenstoffbindenden Substanz.
Abhängigkeit des Pflanzenwachstums vom CO2

Pflanzen gedeihen besser, je höher die CO2-Konzentration der Atmosphäre ist, insbesondere die C3-Pflanzen:

Für das Wachstum der Pflanzen war der Anstieg der CO2-Konzentration der letzten 40 Jahre ausgesprochen günstig, die Welt ist signifikant grüner geworden, mit dem Nebeneffekt der Senkenwirkung, also Aufnahme des zusätzlichen anthropogenen CO2:

Die C3-Pflanzen erreichen erst bei einer Konzentration von 800 ppm dieselbe Aufnahme von CO2 wie C4 Pflanzen. Darum werden vielen Gewächshäuser mit CO2 angereichert.

Schlußfolgerungen

Mit dem Wissen um diese Zusammenhänge ergeben sich zwingende Schlussfolgerungen:

  1. Aufgrund des Primats der Photosynthese und die Abhängigkeit allen Lebens davon ist die Gesamtheit der Lebewesen eine CO2-Senke, mittel- und langfristig kann also die CO2-Konzentration aufgrund des Einflusses der Lebewesen nur abnehmen, niemals zunehmen.
  2. Dabei hängt die photosynthetische Aktivität und daher auch die Senkenwirkung stark von der CO2-Konzentration ab. Je größer die CO2-Konzentration, desto größer ist die Senkenwirkung aufgrund des CO2-Düngungs-Effekts, vorausgesetzt die Pflanze bekommt genug Wasser und Licht und ggf. den notwendigen Dünger.
  3. Alle Lebewesen sind CO2-Speicher, mit unterschiedlichen Speicherzeiten.
  4. Es gibt mindesten 3 Formen langfristiger CO2-Bindung gibt, die zur Abnahme der CO2-Konzentration führen:

    • Kalkbildung
    • Humusbildung
    • nichtenergetische Holznutzung

  5. Der Einsatz von „technischen Hilfsmitteln“, die fossile Energie verbrauchen, muss bei den Betrachtungen getrennt werden von dem natürlichen Kohlenstoffkreislauf. Man kann also nicht sagen, ein bestimmtes Lebensmittel hat einen festen „CO2-Fußabdruck“. Der hängt einzig und allein von der Produktionsweise und der Tierhaltung ab.
    Eine „faire“ Betrachtung muss hier genauso wie z.B. bei Elektrofahrzeugen annehmen, dass die technischen Hilfsmittel der Zukunft oder die Herstellung von Düngemitteln nachhaltig sind.

Dazu kommt, dass unter Berücksichtigung des Wissens, dass mehr als die Hälfte der aktuellen anthropogenen Emissionen im Laufe des Jahres wieder absorbiert werden, führt bereits eine 45% Senkung der aktuellen Emissionen zu der „Netto-Null“ Situation, wo die atmosphärische Konzentration nicht mehr zunimmt. Selbst wenn wir die weltweiten Emissionen nur wenig ändern (was angesichts der energiepolitischen Entscheidungen in China und Indien sehr wahrscheinlich ist), wird noch in diesem Jahrhundert eine Gleichgewichtskonzentration von 475 ppm erreicht, die keinen Grund zur Beunruhigung gibt.




Der Wendepunkt der CO2-Konzentration


[latexpage]

Und steigt und steigt…?

Auf den ersten Blick steigt die atmosphärische CO2-Konzentration fortwährend an, dargestellt an den Jahresmittelwerten, die in Maona Loa gemessen werden (ftp://aftp.cmdl.noaa.gov/products/trends/co2/co2_mm_mlo.txt):

Die zentrale Frage, die sich stellt, ist die, ob die Konzentration immer schneller wächst, d.h. ob jedes Jahr mehr dazukommt? Dann wäre die Kurve konkav, also also nach oben gekrümmt.

Oder wird der jährliche Anstieg der Konzentration immer geringer? Dann wäre sie konvex, also nach unten gekrümmt.

Oder gibt es einen Übergang, also einen Wendepunkt im mathematischen Sinne? Das wäre daran zu erkennen, dass zunächst der jährliche Zuwachs immer größer wird, und ab einem bestimmten Zeitpunkt abnimmt.

Auf den ersten Blick erscheint die Gesamtkurve konkav, was bedeutet dass der jährliche Anstieg der Konzentration mit jedem Jahr augenscheinlich zunimmt.

Die Beantwortung dieser Frage ist entscheidend für die Frage, wie dringend Maßnahmen zur Eindämmung von CO2 Emissionen sind.

Genauere Untersuchung mit dem gemessenen jährlichen Anstieg

Um einen genaueren Eindruck zu bekommen, berechnen wir den jährlichen Anstieg der CO2-Konzentration (Stand 2023):

Damit bestätigt sich, dass bis 2016 ein klarer Trend zu immer höherem jährlichen Konzentrationsanstieg bestand, von knapp 0.75 ppm/Jahr im Jahre 1960 bis über 2.5 ppm/Jahr im Jahre 2016.

Seit 2016 geht jedoch der jährliche Anstieg zurück. Dabei spielt gewiss der Corona-bedingte Emissionsrückgang eine Rolle, dieser erklärt aber nicht den bereits 2016 einsetzenden Rückgang.

Es gibt also in der Konzentrationskurve im Jahre 2016 einen Wendepunkt, eine Trendumkehr von zunehmendem Konzentrationswachstum zu abnehmendem Konzentrationswachstum. Gibt es dafür eine zufriedenstellende Erklärung? Dies ist wesentlich, denn wenn wir absehen können, dass der Trend zurückgehenden Anwachsens der Konzentration anhält, dann ist absehbar, dass die Konzentration irgendwann nicht mehr weiter ansteigt und das Ziel des Pariser Klimaabkommens, das Gleichgewicht zwischen CO2-Quellen und CO2-Senken erreicht werden kann.

Erklärung durch stagnierende Emissionen

Im Rahmen des Global Carbon Brief Projekts hat Zeke Hausfather 2021 aufgrund neuer Erkenntnisse die Werte der globalen CO2-Emissionen der letzten 20 Jahre revidiert, mit dem wichtigen Ergebnis, dass die globalen Emissionen seit 10 Jahre im Rahmen der Messgenauigkeit konstant sind:

Um die Auswirkungen dieser wichtigen Erkenntnis zu bewerten, muss man den Zusammenhang zwischen Emissionen und CO2-Konzentration kennen.

Aus meinen eigenen Recherchen dazu in einer Publikation und in einem danach mit neuen Erkenntnissen ergänzten Blogbeitrag folgt, dass sich der Konzentrationsanstieg aus den Emissionen und den Absorptionen ergibt, die proportional zur CO2-Konzentration sind. Dieses Modell wurde in ähnlicher Form auch von anderen beschrieben und publiziert:

Trivialerweise folgt aus der Massenerhaltung, dass die Konzentration $C_i$ am Ende des Jahres $i$ aus der Konzentration des Vorjahres $C_{i-1}$, den natürlichen Emissionen $N_i$, den anthropogenen Emissionen $E_i$ und den Absorptionen $A_i$ ergibt:

\begin{equation}\label{mass_conservation}C_i = C_{i-1} + N_i + E_i – A_i \end{equation} Daraus ergibt sich unmittelbar die aus Emissionen und gemessenem Konzentrationsanstieg berechneten effektive Absorption:

\begin{equation}\label{absorption_measurement}A_i – N_i = E_i – (C_i – C_{i-1}) \end{equation}
Mit der Definition des Konzentrationswachstums
$G_i = C_i – C_{i-1} $
ergibt sich, dass die gesamte Senkenwirkung sich zwingend aus der Differenz der Emissionen und dem Konzentrationswachstum ergibt – ohne dass man wissen muss, wie diese Senkenwirkung im Detail zustande kommt. Dabei hat diese Gesamtsenkenwirkung zwei Komponenten, und zwar die Jahressumme aller Absorptionen, die zu $A_i$ zusammengefaßt werden, und die als $N_i$ zusammengefaßten sog. „natürlichen Emissionen“, das ist die Jahressumme sämtlicher Emissionen außer den anthropogenen, die separat als $E_I$ geführt werden:

\begin{equation}\label{absorption_measurement}A_i – N_i = E_i – G_i \end{equation}
Unter der Annahme konstanter jährlicher natürlicher Emissionen
$N_i = n$
und der linearen Modellannahme, also dass die Absorptionen proportional zur Konzentration des Vorjahres sind,
$A_i = a\cdot C_{i-1}$
wird das Absorptionsmodell als lineares Modell der Konzentration erstellt (diese beiden Annahmen werden ausführlich in der Publikation begründet):

\begin{equation}\label{absorption_equ}E_i – G_i = a\cdot C_{i-1} – n\end{equation}
Mit $n = a\cdot C_0$ läßt sich die Modellgleichung umformulieren, es ergibt sich damit die Gleichgewichtskonzentration $C_0$ für den Fall von Nullemissionen, also die vorindustrielle Gleichgewichtskonzentration :

\begin{equation}\label{absorption_equ}E_i – G_i = a\cdot(C_{i-1} – C_0)\end{equation}

Die Regressionsrechnung dieses Gleichungssystems mit den aktuellen CO2 Emissionsdaten (Selektion country = World) liefert das Ergebnis $a=0.0187$ und $C_0 = 277 ppm $. Bei dieser Berechnung werden die Emissionen aufgrund von Landnutzungsänderungen nur anteilig (23%) berücksichtigt. Dies erklärt die zahlenmäßigen Unterschiede des Ergebnisses mit denen der zitierten Publikationen. Das geringe Wichtung der Landnutzungsänderungen ist gerechtfertigt:

  • Alle Quellen stimmen darin überein, dass die veröffentlichten Werte der Emissionen durch Landnutzungsänderung stark fehlerbehaftet sind,
  • Mit der Wichtung der Emissionen durch Landnutzungsänderungen von etwa 25% führt das Modell zu einer Gleichgewichtskonzentration $C_0$, die der vorindustriellen Gleichgewichtskonzentration von etwa 280 ppm entspricht.

Mit
$N_i = G_i – E_i + a\cdot C_{i-1} $
können aus der modellierten Absorption die variablen jährlichen natürlichen Nettoemissionen $N_i$ ermittelt werden. Deren Mittelwert ist die Konstante $n$.

Daraus ist erkennbar, dass die residualen natürlichen Emissionen eine zyklische Komponenten enthalten, die mit dem El Nino und kontingenten Ereignissen wie dem Ausbruch des Pinatubo zusammenhängt.

Mit diesem Modell wird die bekannte Konzentration zwischen 2000 und 2020 aus den Daten zwischen 1950-2000 sehr genau prognostiziert. Da das Modell zwar einen linearen Trend, aber keine zyklischen Schwankungen vorsieht – diese landen alle in der Variabilität der natürlichen Emissionen – , zeigt auch die modellierte Konzentration keine zyklischen Schwankungen:

Wachstumsrate der modellierten Konzentration

Die Wachstumsrate der modellierten Konzentration $G^{model}_i$ ergibt sich durch Umstellung der Modellgleichung:
$ G^{model}_i = E_i – a\cdot C_{i-1} + n$
Diese zeigt nun auch nicht mehr die zyklischen Schwankungen:

Es bleibt nach wie vor ein globales Maximum, das Jahr des Maximums ist allerdings von 2016 nach 2013 gewandert.
Diese El Nino bereinigte Konzentrationsänderungen bestätigen die Aussage von Zeke Hausfather, dass in der Tat die Emissionen bereits seit 10 Jahre konstant sind.

Entwicklung der CO2-Konzentration bei konstanten Emissionen

Um den Wendepunkt der CO2-Konzentration zu verstehen, wollen wir mit der Annahme konstanter Emissionen $E_i = E$ und den Gleichungen (\ref{absorption_measurement}) und (\ref{absorption_equ}) den prognostizierten Verlauf berechnen:

\begin{equation}\label{const_E_equ}C_i – C_{i-1} = E- a\cdot(C_{i-1} – C_0)\end{equation}
Die linke Seite beschreibt den Anstieg der Konzentration. Auf der rechten Seite wird von den konstanten Emissionen $E$ ein mit wachsender Konzentration $C_{i-1}$ wachsender Betrag abgezogen, demnach nimmt der Konzentrationszuwachs mit wachsender Konzentration ab. Dies kann mit einem speziellen Bankkonto veranschaulicht werden. Sobald die Konzentration den Wert $\frac{E}{a} + C_0 $ erreicht, ist der Gleichgewichtszustand erreicht, bei dem die Konzentration nicht mehr weiter anwächst, also die oft verwendete „Netto-Null“ Situation.

Mit den aktuellen Emissionen von 4.7 ppm wäre „Netto-Null“ bei 515 ppm, während sich beim „Stated-Policies“ Emissionsscenario der Internationalen Energieagentur (IEA), das eine leichte Reduktion von 3% pro Dekade in der Zukunft vorsieht, ein Gleichgewicht bei 475 ppm einstellt, wie in der obigen Publikation beschrieben. Mit den Prognosedaten der IEA wird dies voraussichtlich 2080 der Fall sein:

Demnach sind konstante Emissionen eine hinreichende Begründung für einen konvexen Verlauf der CO2-Konzentration, wie wir ihn seit 2016 vorfinden. Gleichzeitig wird damit belegt, dass CO2-Absorptionen in der Tat mit zunehmender Konzentration zunehmen.




Häufig gestellte Fragen zur CO2-Sensitivät

Welche Rolle spielt der Wasserdampf bei der CO2-Sensitivität, wirkt er nicht als Treibhausverstärker?

Es geht dabei im Wesentlichen um die Frage, ob durch Wasserdampf eher eine positive Rückkopplung des CO2-bedingten Treibhauseffektes erfolgt (wie z.B. von Vertretern des PIK behauptet) oder eher eine negative, wie von Prof. Richard Lindzen beschrieben.

Hierzu betrachten wir zwei in diesem Zusammenhang wichtige, unbestrittene Fakten.

Das globale Energiebudget

Diejenigen, die behaupten, dass der Wasserdampf den Treibhauseffekt verstärke, berufen sich darauf dass bei steigender Temperatur die Luft gemäß der Clausius-Clapeyron-Gleichung mehr Wasserdampf aufnehmen könne, was zu einem stärkeren Treibhauseffekt führt und damit zu einer positiven Rückkopplung. Der treibhausverstärkende Gesamteffekt des Wasserdampfes ist im globalen Energiebudget mit etwa 26,6W/qm berücksichtigt:

Ebenso bekannt wie unstrittig ist die Bildung von Wolken aus Wasserdampf. Und die meisten Wolken haben die Eigenschaft, dass sie Licht reflektieren. Demzufolge kommt aufgrund der Wolkenalbedo nur ein Teil der kurzwelligen Sonnenenergie bei der Erde an. Der Energieverlust aufgrund der Wolkenreflexion ist im Energiebudget mit etwa -47,5 W/qm berüc ksichtigt. Demzufolge ist die Abkühlung aufgrund der Wolkenbildung global gesehen um mehr als 20 W/qm größer als deren Treibhauswirkung. Die Gesamtwirkung aller Wolken bildet demnach eine sehr starke negative Rückkopplung beim Treibhauseffekt. Wo ist die Evidenz, dass bei marginalen Veränderung der Wolkenbedeckung sich dieser Effekt umkehrt?

Die energetischen Auswirkungen des Rückgangs der Wolkenbedeckung über 30 Jahre

Als wahrscheinlich erste von mittlerweile vielen Arbeiten zur Untersuchung der Albedoveränderung wurde im Artikel Nettoabnahme des Reflexionsvermögens der Wolken, der Aerosole und der Erdoberfläche bei 340 nm Wellenlänge nachgewiesen, dass über einen Zeitraum von 33 Jahren aufgrund der Abnahme der Wolkenbildung und demzufolge Abnahme der Reflexivität der Atmosphäre der Energiezufluß um 2,33 W/qm zugenommen hat:

Dies wirft nicht nur die Frage auf, warum ein 4-fach größerer Effekt als die Treibhauswirkung des CO2 bislang in den Klimamodellen nicht berücksichtigt wird, es zeigt zweifelsfrei, dass nur eine Abnahme der globalen Bewölkung zu einer Temperaturzunahme führt. Eine Bewölkungszunahme würde demzufolge zu einer Temperaturabnahme führen.

Demzufolge wäre eine positive Wasserdampf-Rückkopplung nur möglich, wenn nachgewiesen werden kann, dass global gesehen ein erhöhte Wasserdampfgehalt in der Atmosphäre zu einer verringerten Wolkenbildung führt. Viel Spaß bei diesem Ansinnen.

Wohlgemerkt, es hilft nicht, irgend einen Einzeleffekt zu finden (wie z.B. stratosphärische Cirruswolken), bei dem nur ein Treibhauseffekt stattfindet, aber keine Reflexionsreduktion, es muß schon nachgewiesen werden, dass der Effekt für den globalen Erwartungswert gilt.




Wir können weiterleben – ohne Sorgen wegen CO2

Sie glauben das nicht? Wo uns doch täglich Medien und Politik einhämmern, dass es gar keine Emissionen mehr geben darf, um das berühmte Netto Null zu erreichen? 

Es hilft uns weiter, erst einmal den Originaltext des Pariser Klimaabkommens zu lesen:

  • Die Länder müssen das Emissionsmaximum so bald wie möglich erreichen, um
  • ein Gleichgewicht zwischen vom Menschen verursachten Emissionen durch Quellen und Absorptionen durch Senken von Treibhausgasen in der 2. Hälfte des Jahrhunderts zu erreichen (bei einer Temperaturerhöhung um max. 1.5° C)

Im Klartext heißt also Netto-Null, dass die Quellen von Emissionen mit den Absorptions-Senken im Gleichgewicht sein müssen. Es heißt nicht, dass die Emissionen Null sein müssen, es heißt nur, dass es gleich viele Absorptionen wie Emissionen gibt. 

Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Die Analyse der einzelnen Mechanismen hat zusammen mit der mittlerweile falschen Annahme exponentiell wachsender Emissionen zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen für immer in der Atmosphäre verbleibt.

Zu einer anderen Schlussfolgerung kommen wir jedoch, wenn wir die logisch gleichwertige Frage stellen: „Wie viel CO2 verbleibt nicht in der Atmosphäre?“. Das verändert alles.  Die Menge an CO2, die nicht in der Atmosphäre verbleibt, kann anhand der direkten Messungen von Emissionen und Konzentrationsänderungen berechnet werden, ohne dass wir die Absorptionsmechanismen im Einzelnen untersuchen müssen. Denn für das CO2 gilt die Massenbilanzgleichung, die besagt, dass nichts verloren geht:

Konzentrationsänderung = Emissionen – Absorptionen 

Dass bereits heute mehr als die Hälfte der menschengemachten Emissionen von den Ozeanen und der Photosynthese der Pflanzen und in der Folge auch von Tieren wieder geschluckt werden, ist allgemein bekannt und unstrittig, aber viele befürchten, dass ein Rest für immer in der Atmosphäre verbliebe.

Das trifft so nicht zu: In einer wissenschaftlichen Publikation und in einem leichter verständlichen Blogbeitrag wird mit den Messdaten der letzten 70 Jahre nachgewiesen, dass jedes Jahr etwa 2% der über 280 ppm hinausgehenden CO2-Konzentration von den Ozeanen und den Pflanzen der Atmosphäre wieder entzogen werden. 

Diese 280 ppm ergeben sich aus dem Gleichgewicht aus natürlichen Emissionen und Absorptionen ohne anthropogene Emissionen.

Die Messdaten, insbesondere die der CO2-Konzentration, sind seit den 50er Jahren sehr genau. Mit den Messwerten von 1950-2000 konnten die tatsächlichen CO2-Konzentrationen von 2000-2020 exakt vorhergesagt werden, wie wir rückblickend sehen können.  Die Qualität der Vorhersage ist ganz hervorragend.

Um zu verstehen, wie der Mechanismus der Emission (die Quellen) und Absorption (die Senken) funktioniert, schauen wir uns einen Vergleich aus der vertrauteren Welt eines Geldkontos an.

Das Gleichnis eines speziellen Geldkontos

Stellen Sie sich vor, Sie haben ein Konto mit einem Kontostand von 413 € zu Beginn des Jahres 2020. In dieses Konto werden jedes Jahr 4,50 € einbezahlt.

Nun hat sich der Staat eine eigenartige Vermögenssteuer für dieses Geldkontos einfallen lassen: Es gibt einen Freibetrag von 280 €.  Der Rest des Guthabens auf dem Konto wird am Jahresende mit 2% besteuert.

Was passiert? Wie entwickelt sich der Kontostand? Am Ende des Jahres 2020 sind 417,50 € auf dem Konto, davon werden 0,02*(417,50-280) = 2,75 abgeführt, es verbleiben also 414,75 €

Jahr Am 1.1. Einzahlung Besteuerung Abzug Am 31.12.
2020 413,00 4,50 0,02*(417,50-280,00) 2,75 414,75
2021 414,75 4,50 0,02*(419,25-280,00) 2,78 416,46
2022 416,46 4,50 0,02*(420,96-280,00) 2,82 418,15
….          
2050 452,77 4,50 0,02*(457,27-280,00) 3,55 453,72
         
2080 474,46 4,50 0,02*(478,96-280,00) 3,98 474,98

Man sieht, der Kontostand wächst zwar an, aber die Abzüge erhöhen sich jedes Jahr. Man kann leicht ausrechnen, dass bei einem Kontostand von 505 € am Jahresende die ganzen einbezahlten 4,50 € wieder abgeführt werden. Das heißt, beim Kontostand 505 € ist die berühmte Netto-Null Situation erreicht. Weiter kann das Konto bei jährlichen 4 ,50 € Einzahlungen nicht mehr anwachsen.   Und es dauert ziemlich lange, bis dieser Zustand erreicht ist: Nach 60 Jahren wäre man erst bei 474,98 €.

Zukunftsszenario

Dieses Geldkonto-Gleichnis beschreibt ziemlich genau den CO2-Haushalt der Atmosphäre. Der Kontostand entspricht der Konzentration des CO2 in der Atmosphäre, zu Beginn des Jahres 2020 waren das etwa 413 ppm („parts per million“ = Anteile CO2 pro 1 Million Luftmoleküle).

Die Einzahlungen entsprechen den jährlichen weltweiten Emissionen, also das, was wir in die Atmosphäre hineingeben.  Das sind aktuell etwa 4,5 ppm weltweit, was einem Gewicht von etwa 36 Milliarden Tonnen CO2 entspricht.

Nun hat die Internationale Energieagentur mit ihrer weltweiten Statistik seit 1850 geschätzt, wieviel CO2 in Zukunft ausgestoßen werden wird. Dabei gibt es ein Szenario, bei dem angenommen wird, dass die jetzt grade geltenden Gesetze und Regelungen in allen Ländern der Erde unverändert weiter fortgesetzt werden, das sogenannte „Szenario der ergriffenen Maßnahmen“. Also möglicherweise existierende emissionssenkende Gesetze, aber keine künftigen weiteren Maßnahmen zur Emissions-Senkung.

Dieses Szenario besagt, dass die weltweiten Emissionen über die nächsten 10 Jahre etwa gleichbleiben, und dann ganz leicht mit etwa 0,3% pro Jahr sinken. Das bedeutet, dass es weltweit im Jahre 2100 wieder genauso viele Emissionen geben wird wie im Jahre 2005. Das kann bei einzelnen Ländern schon dazu führen, dass die Emissionen etwas stärker sinken, dagegen in den ärmsten Entwicklungsländern aufgrund des Nachholbedarfs Emissionen erst noch anwachsen. Aber es wird nirgendwo dramatische Auswirkungen geben, die den Wohlstand in Frage stellen.

Mit den Zahlen der Internationalen Energie Agentur haben wir herausgefunden: Der CO2-„Kontostand“ beträgt im Jahre 2080 etwa 475 ppm, und wird darüber hinaus nicht mehr ansteigen. Sensationelles Ergebnis.

Und was heißt das für das Klima?

Wir wollen uns hier ganz bewusst nicht auf die möglicherweise berechtigten Zweifel einlassen, ob nun das CO2 überhaupt einen Einfluss auf die globale Mitteltemperatur und in der Folge auf das Klima hat oder nicht. Unbestritten ist seit dem Beginn der Industrialisierung die CO2 Konzentration von 280 auf 413 ppm angewachsen, also um 133 ppm. 

Wir akzeptieren hier die weit verbreitete Auffassung, dass der Anstieg der globalen Durchschnittstemperatur um 1° C seit dem Beginn der Industrialisierung ausschließlich diesem Anwachsen der CO2 Konzentration geschuldet ist.

Der künftige Anstieg der CO2-Konzentration ist 475 – 413 = 62 ppm.  Das ist knapp die Hälfte des bisherigen Anstiegs von 133 ppm. Damit geht konsequenterweise einher, dass bis dann auch die Temperatur allenfalls nochmal um ein halbes Grad ansteigt, also insgesamt um 1,5° seit Beginn der Industrialisierung.   

Die gute Nachricht: Mit den heutigen CO2 -Emissionen und deren Senkung durch Effizienzsteigerung von 3% pro Jahrzehnt wird das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt, ganz ohne wohlstandsschädigende Maßnahmen ergreifen zu müssen.




Emissionen und CO2 Konzentration – ein evidenzbasierter Ansatz


[latexpage]

Eine neue Sichtweise auf das Problem

Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO2 verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO2 Konzentration aufzunehmen. Dies hat zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Anteil der anthropogenen Emissionen werden für immer in der Atmosphäre verbleibt.

Wir ändern den Fokus der Aufmerksamkeit, indem wir die logisch äquivalente Frage „Wie viel CO2 verbleibt nicht in der Atmosphäre?“ stellen. Warum ist das so anders? Die Menge an CO2 , die nicht in der Atmosphäre verbleibt, kann anhand direkter Messungen berechnet werden. Wir müssen nicht jeden einzelnen Absorptionsmechanismus aus der Atmosphäre in die Ozeane oder Pflanzen analysieren. Aus den bekannten globalen Konzentrationsänderungen und den bekannten globalen Emissionen können wir die Summe der tatsächlichen jährlichen Absorption gut abschätzen. Diese sind mit der CO2 -Konzentration verbunden, was die Leithypothese eines linearen Absorptionsmodells begründet. Es stellt sich heraus, dass wir die tatsächlichen Koeffizienten der einzelnen Absorptionsmechanismen nicht zu kennen brauchen – es reicht aus, ihre lineare Abhängigkeit von der aktuellen CO2 Konzentration anzunehmen.

Dies ist eine Zusammenfassung eines kürzlich veröffentlichten Artikels, in dem alle Aussagen detailliert abgeleitet und mit Referenzen und einem mathematischen Modell untermauert werden. Im Unterschied zu dem Artikel wird in dieser Kurzfassung der Einfluß der mit großen Unsicherheiten behafteten Emissionen aufgrund von Landnutzungsänderung weggelassen, weil

  1. es legitim ist, die ohnehin mit großen Unsicherheiten behafteten Landnutzungsemissionen den unbekannten natürlichen Emissionen zuzuschlagen
  2. sich der statistische Fehler des Ergebnisses bei Weglassen der aufgrund der Unsicherheit ziemlich willkürlichen Landnutzungsänderung verringert, was zu höherer Prognosequalität führt.
Massenerhaltung von CO2

Wie bei der Jahresbilanz eines Bankkontos ergibt sich die atmosphärische CO2-Bilanz aus den Gesamtemissionen abzüglich der Gesamtabsorption:

Konzentrationswachstum = Emissionen – Absorptionen

Der jährliche Anstieg der CO2-Konzentration (orange) wächst im Schnitt langsamer die gesamten anthropogenen Emissionen (blau), was bedeutet, dass die daraus berechnete Netto Absorption (grün) mit der steigenden CO2-Konzentration tendenziell zunimmt:

Wichtig ist hierbei zu bemerken, dass alle natürlichen Emissionen und Absorptionen, die innerhalb der Messintervalle (hier je 1 Jahr) geschehen und sich im langjährigen Gleichgewicht befinden, „unsichtbar“ sind.

Die Annahme einer annähernden Linearität der relevanten Absorptionsprozesse

Dies wird durch ein Streudiagramm veranschaulicht, das die effektive CO2-Absorption mit der CO2-Konzentration in Beziehung setzt. Physikalischer Hintergrund dieser Darstellung ist, dass alle Diffusions- und Absorptionsprozesse mit der Konzentration linear skalieren, ebenso die Aufnahme von CO2 bei der Photosynthese (C4-Pflanzen haben ein Plateau mit geringem aber trotzdem linearen Anstieg im Konzentrationsbereich 280..600 ppm).

Es legt eine langfristige lineare Abhängigkeit der effektiven Absorption von der atmosphärischen CO2-Konzentration mit erheblichen kurzfristigen Abweichungen nahe, wobei die effektive Null-Absorptionslinie bei ca. 280 ppm geschnitten wird. Dies wird als die vorindustrielle CO2-Gleichgewichtskonzentration angesehen, bei der die natürlichen jährlichen Emissionen durch die jährlichen Absorptionen ausgeglichen sind. Die durchschnittliche jährliche Absorption beträgt etwa 2 % der CO2-Konzentration, die 280 ppm überschreitet.

CO2 Konzentration als Proxy für die Temperatur

Wenn wir Vorhersagen mit hypothetischen zukünftigen CO2-Emissionen machen, kennen wir die zukünftigen Temperaturen nicht. Ohne in die problematische Diskussion darüber einzutauchen, wie stark der Einfluss der CO2-Konzentration auf die Temperatur ist, nehmen wir den „schlimmsten Fall“ einer vollständigen Vorhersagbarkeit der Temperatur als Auswirkung der CO2-Konzentration an.

Ohne Annahmen über die C->T-Kausalität zu machen, wird die geschätzte funktionale Abhängigkeit des Temperatur aus der Regression mit der CO2-Konzentration C wie folgt ermittelt:

Tproxy  = -16,0 + 2,77*ln(C) = 2,77* ln(C/(323ppm))

Dies entspricht einer Sensitivität von 2,77*ln(2) °C = 1,92° C bei Verdoppelung der CO2-Konzentration

Modell-Validierung

Das Modell mit konstantem Absorptionsparameter von knapp 2% und konstanten natürlichen Emissionen wird aufgrund statistischer Prüfung als das zuverlässigste ausgewählt auf der Grundlage von Emissionsdaten und Konzentrationsdaten von 1950 bis 2000.

Die CO2 Konzentrationen zwischen 2000 und 2020 werden vom Modell und den Emissionsdaten 2000-2020 vorhergesagt.

Dies ist eine hervorragende Vorhersage der Konzentrationen auf der Grundlage der Emissionen und der oben genannten Modellannahmen. Es gibt nur geringe Abweichungen zwischen den Vorhersagen und den tatsächlichen Daten. Obwohl das Modell unterschiedliche Absorptionen im Laufe der Zeit zulässt, führen die Daten der letzten 70 Jahre, d.h. des Zeitraums, in dem die meisten anthropogenen CO2 -Emissionen stattfanden, zu der Schlussfolgerung, dass der CO2 -Absorptionsparameter keine signifikante temperatur- oder sonstige zeitabhängige Komponente aufweist und ein aktueller CO2 -Emissionsimpuls mit einer Halbwertszeit von 37 Jahren absorbiert wird.

Zukünftiges Emissionsszenario

Das wahrscheinlichste zukünftige Emissionsszenario ist das Emissionsszenario der internationalen Energieagentur (IEA) mit annähernd konstanten, leicht sinkenden globalen Emissionen. Der tatsächlich verwendete Datensatz für eine realistische Zukunftsprojektion („stated policies“) wird durch eine Trendextrapolation über das Jahr 2050 hinaus erweitert. Die Emissionen werden im Jahr 2100 nicht auf Null reduziert werden, sondern ähnlich dem Wert von 2005 sein.

Vorhersage der künftigen CO2 Konzentration

Aus diesem realistischen Emissionsszenario wird die zukünftige CO2-Konzentration mit unserem Modell rekursiv vorhergesagt.

Mit dem von der IEA angegebenen Szenario der „erklärten Maßnahmen“, d.h. Fortschreibung der heutigen Gesetzgebung, wird in der zweiten Hälfte dieses Jahrhunderts ein Gleichgewicht der CO2-Konzentration von ca. 475 ppm erreicht werden.  Auf der Grundlage der obigen empirischen CO2-Temperaturproxy-Gleichung entspricht dieser Anstieg der CO2-Konzentration von 410 ppm (im Jahr 2020) auf 475 ppm einem Temperaturanstieg von 0,4°C ab 2020 bzw. 1,4°C ab 1850.

Daraus folgt, dass wir in der zweiten Hälfte dieses Jahrhunderts eine maximale CO2-Konzentration von etwa 475 ppm erwarten können. Zu diesem Zeitpunkt werden die Emissionen durch die Absorption vollständig ausgeglichen sein, was per Definition die „Netto-Null-Situation“ darstellt.

Ganz offensichtlich besitzt diese Kurve einen Wendepunkt, also einen Punkt mit maximalem Konzentrationsanstieg. Mit bloßem Auge ist nicht erkennbar, ob der in der nahen Zukunft sein muss oder bereits in der Vergangenheit. Eine Analyse der Konzentrationsdaten bis Ende 2022 ergibt, dass das Maximum der Steigung und damit der Wendepunkt der Konzentration bereits im Jahre 2016 gewesen war, eine sehr schöne Bestätigung des vorgestellten Konzepts:

Geht man von dem unwahrscheinlichen pessimistischen Fall aus, dass die CO2-Konzentration für alle globalen Temperaturveränderungen voll verantwortlich ist, so beträgt der maximale erwartete Anstieg der globalen Temperatur, der durch den erwarteten Anstieg der CO2-Konzentration verursacht wird, 0,4° C ab jetzt oder 1,4°C ab Beginn der Industrialisierung.

Wenn wir also mit den derzeitigen CO2 -Emissionen und einer Effizienzsteigerung von 3 % pro Jahrzehnt weiterleben, ist das optimistische Pariser Klimaziel von 1,5° bei Netto Null erfüllt.




Wieviel Erde braucht der Mensch?


[latexpage]

Energiewende für einen 4-Personen Haushalt

Die Energiewende geht von der Zielvorstellung aus, dass der komplette Energiebedarf durch Wind- und Sonnenergie gedeckt werden soll. Beide Energiearten zeichnen sich dadurch aus, dass sie

  1. volatil sind, d.h. nicht die ganze Zeit verfügbar sind,
  2. dass sie keine hohe Energiedichte haben, d.h. viel (Boden-)Fläche beanspruchen

Ziel dieser Untersuchung ist, an dem eingeschränkten konkreten Beispiel der Basisenergieversorgung eines beispielhaften 4-Personen Haushalt in Form von

  • Elektrizität
  • Warmwasser
  • Heizung

zu ermitteln, wie groß der Flächenbedarf für eine Vollversorgung mittels Photovoltaik ist, ohne Energiesubventionierung durch Backup von Kohle-, Gas- oder Kernkraftwerken.

Annahmen zum Verbrauch und Energiespeicherung

Beim Verbrauch wird von folgenden Annahmen ausgegangen:

Energieerzeugung, Speicherung mit Batterien und Wasserstoff

Batteriespeicher für Tag/Nacht-Ausgleich
Für die kurzfristige Speicherung photovoltaischen Stroms, d.h. zur Überbrückung der Tag-/Nachtvolatilität werden Batteriespeicher angenommen, was zu einer 75% Strom-Autarkie im Jahresdurchschnitt führt. Von diesen 75% stammt die Hälfte direkt und damit verlustlos von der Photovoltaik, die andere Hälfte, also 37,5% kommen vom Batteriespeicher unter der optimistischen Annahme von 10% Verlust. Die restlichen 25% müssen aus gespeicherten Wasserstoff generiert werden. Der Batteriespeicher ist so bemessen, dass er etwa die Kapazität des halben durchschnittlichen Tagesbedarfs hat, im Beispiel also 6 kWh.

Brennstoffzelle und Wärmepumpe für die Heizung
Da die Heizung im überwiegend sonnenarmen Winter erfolgt, kann allenfalls 1/3, also etwa 3500 kWh durch die direkte Umwandlung von PV-Strom mit einer Wärmepumpe gewonnen werden. Der Rest von 7500 kWh erfolgt durch Speicherung von Wasserstoff und Rückumwandlung in Elektrizität und Wärme. Die Kennzahlen dazu sind exemplarisch der Spezifikation der Panasonic Brennstoffzelle entnommen. Diese 5 KW Brennstoffzelle hat einen elektrischen Wirkungsgrad von 56% und einen thermischen Wirkungsgrad von 39%, also fallen pro kWh Wasserstoff 0,56 kWh Strom und 0,39 kWh verwertbare Wärme an. Erfolgt die Heizung mit einer Wärmepumpe, dann wird der Stromanteil um den COP-Faktor „aufgewertet“. Um eine realistische Bewertung abzugeben, verwende ich einen konservativen COP-Faktor von 3. Je nach individuellen Gegebenheiten kann dieser bis maximal 5 sein. Der effektive Heizwert des Wasserstoffs ist dann pro erzeugte kWh $0,56 kWh\cdot 3 + 0,39 kWh = 2,07 kWh $, also etwas mehr als das doppelte des theoretischen Brennwerts, maximal bei einem COP-Faktor von 5 sind es 3,19 kWh.

Elektrolyse für die Wasserstoff-Erzeugung
Bei der Elektrolyse wird einen Wirkungsgrad von 62,5% angenommen, gemäß des Datenblatts des Enapter Elektrolyseurs, der z.B. in der Komplettlösung PICEA Anwendung findet. Die Wärme des Elektrolyseurs kann ggf. zur Warmwasserbereitung mitverwendet werden, da sie aber überwiegend in der warmen Jahreszeit anfällt, wird sie hier nicht berücksichtigt. 1 kWh primäre PV Energie erzeugt demnach 0,625 kWh Wasserstoff (und etwa 0,33 kWh nicht speicherbare Wärme), bei Nutzung einer Brennstoffzelle und Wärmepumpe also 1,29 (maximal 2) kWh Heizwärme und 0,35 kWh nutzbare elektrische Energie.

Flächenbedarf

Zur Berechnung der notwendigen Kollektorfläche wird der Gesamtverbrauch aufgeteilt:

  1. Stromnutzung direkt vom Modul oder dem Batteriespeicher mit einem mittleren Wirkungsgrad von 95%, für elektrische Verbraucher, Warmwasser und Heizung in der Übergangszeit:
    $ (5000\cdot 0,75 + \frac{3500}{3})\cdot \frac{100}{95} kWh = 5175 kWh $
  2. Stromerzeugung aus gespeichertem Wasserstoff bei einem Gesamtwirkungsgrad von 35%, für elektrische Verbraucher und Warmwasser (die Abwärme der Brennstoffzelle wird als Wärmequelle für die Wärmepumpe im Winter verwendet):
    $(5000\cdot 0,25)\cdot \frac{100}{35} kWh = 3571 kWh $
  3. Heizwärme aus gespeichertem Wasserstoff bei einem Gesamtwirkungsgrad von 129%:
    $7500\cdot \frac{100}{129} kWh = 5814 kWh $

Daraus ergibt sich ein Gesamtbedarf von primärer PV-Energie von 14.560 kWh im Jahr, also eine Durchschnittsleistung von 1661 Watt. Das entspricht bei dem in Deutschland mittleren Ertrag von 10,6% der installierten Maximalleistung einer installierten Leistung von 15,7 kWp, also 39 Module zu je 400 Wp mit einer Gesamtmodulfläche von 67 qm. Bei Abweichungen von der optimalen Südausrichtung steigt die Anzahl der notwendigen Module.
Unter der Voraussetzung der Nutzung einer Wärmepumpe wird zusätzlich noch Gartenfläche für den sog. Wärmekollektor benötigt, ungefähr 40qm pro KW Heizleistung. Bei 11 KW Heizleistung müssen also 440 qm Garten aufgegraben und mit einem Wärmekollektor bestückt werden. Die Bepflanzung auf dieser Fläche ist stark eingeschränkt.

Die von der Photovoltaik beanspruchte effektive Bodenfläche ergibt sich unter der Annahme von durchschnittlich etwa 10,5 W/qm Bodenfläche. Dieser Wert ist deswegen deutlich niedriger als die Leistung pro Modulfläche, weil die Module in der Regel schräg gestellt sind, und somit etwa die doppelte Modulfläche verschatten. PV-Module, die in die gleiche Richtung ausgerichtet sind, können im Mittel nicht dichter aufgestellt werden. Diese Bodenfläche wird implizit auch bei Dachmontage beansprucht, sie überlappt sich dann aber mit der Grundfläche des Gebäudes. Bei der Modellrechnung ergibt sich also eine Mindestbedarf von 158 qm Bodenfläche, um den Energiebedarf für Strom, Warmwasser und Heizung eines durchschnittlichen 4 Personen-Einfamilienhauses zu decken. Diese Fläche ist für jeden Haushalt notwendig, daher ist die reine PV-basierte Lösung für Mehrfamilienhäuser, wo der einzelnen Familie weniger nutzbare Fläche zur Verfügung steht, unrealistisch. Von Stadthäusern und gemieteten Wohnungen ganz zu schweigen. Eine dort auf dem Dach installierte Anlage kann allenfalls einen Teil des Bedarfs abdecken. Die besten Voraussetzungen hat ein Einfamilienhaus mit großem Grundstück, dessen Qualität durch die installierte Wärmepumpe deutlich eingeschränkt wird.

Potential von Brennholz

Bestandserhaltend geerntetes Brennholz ist eine nachhaltige Energiequelle, kann also ebenfalls als künftiger Energieträger berücksichtigt werden. Eine Überschlagsrechnung zeigt das Potential von Brennholz als Beitrag zum Heizen von Wohngebäuden:

Deutschland hat eine Waldfläche von 11,7 Millionen ha und (Stand 31.12.2021) eine Einwohnerzahl von 82,3 Millionen. Das ist ein rechnerischer Anteil von 0,137 ha Waldfläche pro Einwohner.
Der bestandserhaltende Holzertrag ist etwa 12 Festmeter bzw. 22 Raummeter pro ha und Jahr. Die tatsächliche durchschnittliche Holzverwendung für Brennholz in privaten Haushalten war im Schnitt der letzten 15 Jahre etwa 30 Millionen Festmeter pro Jahr. Das entspricht einer Nutzung von 10 Raummeter pro ha im Jahr auf der Hälfte der verfügbaren Waldfläche. Soviel (d.h. 7-10 Raummeter) kann man bei naturverträglicher Brennholz-Nutzung erwarten. Da aber außer der privaten Nutzung nochmal etwa genauso viel in Kleinfeuerungsanlagen und Großfeuerungsanlagen verbrannt wird, muss davon ausgegangen werden, dass ein großer Teil unseres Brennholzes importiert und daher nicht nachhaltig verwendet wird, z.B. aus Rumänien stammt.
Der durchschnittliche Heizwert von Brennholz wird mit 1600 kWh/Raummeter geschätzt, was etwa 2900 kWh/Festmeter entspricht.

Würde die ganze Waldfläche systematisch nachhaltig bewirtschaftet und wird knapp die Hälfte als Brennholz verwendet, steht rechnerisch für jeden Einwohner pro Jahr die Heizenergie von
$ 0.137\cdot 10 \cdot 1600 kWh = 2192 kWh $
zur Verfügung. Für einen 4-Personen-Haushalt also 8768 kWh. Das entspricht ungefähr der o.g. Heizenergie aus gespeichertem Wasserstoff (7500 kWh). Optimistisch gesehen, kann also langfristig für den größten Teil der Bevölkerung statt Wasserstoff auch Holz zum nachhaltigen Heizen im Winter verwendet werden. Eine Verwendung in Kraftwerken wäre dann aber ausgeschlossen.

Die aktuelle für Privathaushalte verwendete Energiemenge aus Brennholz ist aber im Schnitt pro Person und Jahr nur
$ \frac{30 \cdot 2900}{82.3} kWh = 1057 kWh $,
was bei einem 4-Personen Haushalt 4288 kWh entspricht. Grenzen der weiteren Nutzung werden insbesondere auch durch den Naturschutz gesetzt. Weiterhin ist zu prüfen, ob dieses Brennholz tatsächlich aus nachhaltiger Nutzung der heimischen Wälder stammt oder ob es importiert ist.

Fazit

Als Fazit ist festzuhalten, dass das Ideal der Energiewende nur von einem Teil der Bevölkerung im eigenen Wohnbereich umgesetzt werden kann, den wohlhabenden Eigentümern eines Einfamilienhauses. Zu dem Aufwand an Dach- und Bodenfläche kommt noch der finanzielle Aufwand für die beschriebenen Geräte. Stand heute sind die Investitionskosten für ein solches autarkes System noch so teuer, dass in realistischen Amortisationszeiten von 10-20 Jahren allenfalls eine 75% Autarkie für die Stromgewinnung mit PV-Modulen und Batteriespeicher, und ggf. einer kleinen Wärmepumpe für die Warmwasserbereitung von März-Oktober mit Überschuss-PV-Strom sinnvoll ist.
Dabei entfallen die horrenden Kosten für die Wasserstoff-Elektrolyse und Lagerung, sowie die teure und große Gartenflächen erfordernde Installation einer Heizungs-Wärmepumpe, dem nach aktueller Gesetzgebung künftig verpflichtenden Standard für neu installierte Heizsysteme.
Die Abschätzung über die Verwendung von Holz als — bereits üblichem — Energieträger zum Heizen weist einen Weg, die unbezahlbar teuren Investitionen in Wasserstoff als Energieträger für Privathaushalte zu umgehen. Allerdings sind die Begrenzungen zu berücksichtigen, die durch die nachhaltige Nutzung der Wälder gesetzt sind.

In diesen Betrachtungen wurde weder der Energieaufwand für den Mobilität noch der für die industrielle Herstellung aller Gebrauchsgüter berücksichtigt. Eine neuere Studie hat verschiedene Szenarien der Energieversorgung der Schweiz mit erneuerbaren Energien durchgerechnet, wo der Verkehr mitberücksichtigt wird.
Auch eine Kostenanalyse steht noch aus, da von einigen Produkten die Endkundenpreise (noch) nicht bekannt sind und zu erwarten ist, dass die – aktuell prohibitiven – Preise für Elektrolyseure und Brennstoffzellen deutlich fallen werden.




Flächenverbrauch der Photovoltaik


[latexpage]

Um den Flächenverbrauch für photovoltaische Energiegewinnung realistisch abzuschätzen, gehen wir von den existierenden PV-Anlagen in Deutschland aus. Nach den Informationen des Fraunhofer Instituts wurden 2020 in Deutschland durchschnittlich 926 kWh pro installiertem kWp erzielt (50 TWh bei 54 GWp installierter Leistung), das sind durchschnittlich 10,5% der installierten PV-Leistung. Ein gängiges Modul mit 1,7 m2 Fläche hat aktuell die Leistung 345-400 Wp. Pro m2 Kollektorfläche ergibt sich demnach eine erwarteter Jahresertrag von 188-218 kWh. Verteilt auf die 8766 Stunden des Jahres ergibt sich also ein theoretischer Durchschnittsertrag von 21,4-24,9 $\frac{W}{m^2}$.

Diese Überlegungen beziehen sich auf die aktive Kollektorfläche. Die Landnutzungsfläche ist um mindestens einen Faktor 2 größer, weil die Kollektoren zur besseren Ausbeute schräg gestellt werden und demzufolge zur Vermeidung von Abschattung entsprechende Abstände bleiben müssen. Solange die Solarkollektoren auf Dächern montiert sind, spielen diese Überlegungen eine untergeordnete Rolle, aber bei Freilandanlagen entsteht auch bei Solaranlagen das Problem des Flächenverbrauchs. Demzufolge kann bei einer großflächigen Anlage in unseren Breitengraden höchstens von einem Durchschnittsertrag von 10,7-12,5 $\frac{W}{m^2}$ Bodenfläche ausgegangen werden.

An dem konkreten realen Solarparkprojekt in Werneuchen, Brandenburg, lassen sich diese Werte überprüfen:

Nach Herstellerangaben werden auf 164 ha 465 000 Module mit einer gesamten installierten Leistung von 187 MW gebaut (pro Modul 402 W installierte Leistung, also modernste Hochleistungsmodule). Ein Modul mit $1.7 m^2$ Fläche beansprucht demnach etwa $3.5 m^2$ Bodenfläche, etwas mehr als die doppelte Modulfläche. Der Boden-Flächenbedarf für 1kW installierte Leistung ist also $8.8 m^2$.
Nach der oben beschriebenen offiziellen Stastistik des Fraunhofer Instituts über die gesamte solare Stromproduktion in Deutschland ergibt sich ein erwarteter Ertrag von 926 kWh/Jahr für jedes installierte kW, das ist ein durchschnittlicher Ertrag (der aber nicht gleichmäßig verteilt anfällt) von etwa 106 Watt für jedes installierte kW. Um 1 kW mittlerer Dauerleistung zu erzeugen, müssen also 9.5 kW physisch installiert werden, mit einem Boden-Flächenbedarf von $83.6 m^2$. Für das volatile Äquivalent eines nicht-volatilen, grundlastfähigen AKW mit 1.5 GW Leistung werden demnach 125 $km^2$ Bodenfläche benötigt.

Lösung der Volatilität durch Speicherung

Die durchaus signifikanten Verluste der kurzfristigen (Tag/Nacht) Speicherung mit Batterien (etwa 10% bei max. 1 Tag Speicherung) sollen in dieser groben Betrachtung vernachlässig werden. Realistisch können bei mehrtägiger Speicherung aufgrund der Leckströme nur 60-75% der eingesetzten Energie wieder gewonnen werden. Für eine langfristige Energiespeicherung kommen Batterien aus Material- und Kostengründen ohnehin nicht in Frage.
Wenn ein Anteil der solar erzeugten Energie über einen längeren Zeitraum, also chemisch gespeichert werden muß, ist aufgrund der Wandlungsverluste nach Wasserstoff und ggf. Methan mit einem deutlich höheren „Primärverbrauch“ an Energie zu rechnen.
Vereinfachend gehe ich von der Annahme eines – für die Herstellung und Wieder-Verstromung von Methan realistischen – Wirkungsgrades von 25% aus, mit dem 1/4 der zu erzeugenden Energie über einen längeren Zeitraum gespeichert werden muß, während 3/4 der Jahresenergie direkt oder mit kurzfristiger Batteriespeicherung verbraucht wird. Dies führt in der Summe zum 1.75-fachen Primärverbrauch. Die zusätzlichen 75% sind der Preis für die „Grundlastfähigkeit“.

Demzufolge hat jedes kW an saisonbereinigter, grundlastfähiger Dauerleistung einen Boden-Flächenbedarf von $146 m^2$.

Das Äquivalent von einem grundlastfähigen AKW der Leistung 1.5 GW beansprucht demnach eine Landfläche von etwa $ 220 km^2$, oder 147 $km^2$ Landverbrauch für jedes GW grundlastfähiger PV-Energie.

Die aktuelle Planung der Energiewende sieht einen Ausbau der Solarenergiegewinnung mit einer gesamten installierten Leistung von 200 GW vor. Das bedeutet einen Gesamtflächenbedarf von 1760 $km^2$, etwa 0,5% der Gesamtfläche Deutschlands bzw. knapp 1% der landwirtschaftlichen Nutzfläche. Der durchschnittliche volatile Ertrag davon sind etwa 21 GW, bei Berücksichtung von kurz- und langfristiger Speicherung zum Ausgleich der Volatilität verbleiben noch 12 GW grundlastfähige Leistung, gerade mal 20% der aktuell benötigten elektrischen Energie von durchschnittlich 57 GW.




Energiewende-Fakten


[latexpage]

Solarenergie ist im Winter unbrauchbar

Es gibt – teilweise prominente – Stimmen, im Winter mit photovoltaisch betriebenen Wärmepumpen zu heizen. Das ist eine völlig realitätsferne Illusion. Fakt ist, dass PV-Anlagen in unseren Breitengraden in den 4 Wintermonaten November-Februar so gut wie keine Leistung erbringen. Eine Anlage mit 6 KW installierter Leistung erbringt Ende Oktober kaum mehr als 3kWh am Tag, das entspricht dem Heizwert eines Braunkohlenbriketts.

Der Umstand, dass im Winter so wenig Sonnenenergie vorhanden ist, ist ja grade der Grund, dass es einen Winter gibt.

Eine Langzeitspeicherung mit Batterien ist unmöglich

Um den Strombedarf eines einzigen Haushaltes bei einem Tagesbedarf von 10 kWh während der Wintermonate zu decken, müßte der Bedarf von mindestens 4 Monaten über etwa 1/2 Jahr gespeichert werden, zusätzlich zum Tagesspeicher, der die Tag/Nacht-Volatilität ausgleicht. Das sind 120 Tage und demnach eine mindestens notwendige Gesamtspeicherkapazität von 1,2 MWh. Bei einem — sehr günstig angenommenen — Batteriepreis von 500 €/kWh sind das 600 000 € für den Batteriespeicher, bei einer Lebensdauer von 10 Jahren, von der Umweltbelastung und dem Platzbedarf für diese riesige Speichermenge ganz abgesehen. Das wären reine Batteriekosten von 60 000 € pro Winter – ausschließlich für den Strombedarf, ohne Heizung oder Mobilität.
Eine Studie zeigt am Beispiel der Versorgung eines Rechenzentrums, dass eine Langzeitspeicherung nur in chemischer Form, also z.B. Wasserstoff oder Methangas (Power-to-gas) erfolgen kann, bei der Energiespeicherung mit flüssigem Wasserstoff wäre der durchschnittliche Strompreis etwa 120 \$/MWh, bei einer hypothetischen Speichung mit Li-Ionen Batterien wäre er über 4000 \$/MWh.

Das Power-to-Gas Verfahren hat mit PV-Strom den gleichen CO2 Fußabdruck wie fossiles Erdgas

Die Herstellung von Solar-Paneelen ist sehr energie-intensiv. Deren Herstellung erfolgt überwiegend mit fossilen Energiequellen. Ohne Berücksichtigung der Entsorgung der Solar-Paneele ist der CO2-Fußabdruck bei der Photovoltaik-Energiegewinnung etwa 132 $\frac{g}{kWh}$. Die Stromspeicherung mit dem Power-to-gas Verfahrens hat bekanntermaßen einen Wirkungsgrad von nur 25%. Das bedeutet, dass für die gespeicherte Energie die 4-fache Menge an elektrischer Energie erzeugt werden muß. Daher hat der über das power-to-gas Verfahren erzeugte Strom einen CO2 Fußabdruck von 528 $\frac{g}{kWh}$. Das ist etwa der gleiche Betrag an CO2, der beim Betrieb eines mit Erdgas betriebenen Kraftwerks. Demzufolge ist mit heutigen Solarzellen im Vergleich zu einem modernen Gaskraftwerk hinsichtlich von CO2 Emissionen nichts gewonnen.

Energiepflanzen und Biogas sind keine skalierbare Lösung

Dieses Bild hat ein leeres Alt-Attribut. Der Dateiname ist Figure-10.6-hi.jpg

Betrachtet man den reinen Energieertrag pro Flächeneinheit bei dem über viele Jahrhunderte verwendeten wichtigsten nachhaltigen Brennstoff, dem Brennholz, so kommt man mit einer einfachen Rechnung zu dem Schluß, dass bei nachhaltiger Bewirtschaftung, also bei der maximal möglichen Entnahme von 10 $\frac{Fm}{ha\cdot Jahr}$ von den nachwachsenden 11,2 $\frac{Fm}{ha\cdot Jahr}$ und einem angenommenen durchschnittlichen Heizwert von 1800 $\frac{kWh}{Rm}$ (1 Fm = 1,4 Rm ) der Flächen-Energieertrag gerade mal $$\frac{10\cdot 1.4\cdot 1800}{8766} = 2.9 \frac{kW}{ha} = 0.29 \frac{W}{m^2} $$ beträgt.

Auch wenn man bei nachhaltiger Forstwirtschaft nicht wirklich von Landschaftsverbrauch sprechen kann, wollen wir diese Kenngröße ($\frac{km^2}{TWh/Jahr})$ im Sinne von benötigter Fläche zum Erzeugen einer bestimmten Energiemenge berechnen, um einen Bezug zu anderen Energiepflanzen herstellen zu können. $$ \frac{1}{10\cdot\1.4\cdot 1800} \frac{ha}{kWh/Jahr} = \frac{10^7}{25200}\frac{km^2}{TWh\cdot Jahr} \approx 400\frac{km^2}{TWh/Jahr} $$

Der reale durchschnittliche Holzeinschlag in Deutschland ist de facto nur die Hälfte der obigen Annahme, nämlich etwa 55 Mio Fm bei einer gesamten Waldfläche von 11 Mio ha (es gibt widersprüchliche Angaben, demnach wurden in den Jahren 2000-2012 durchschnittlich 76 Mio Fm/Jahr geerntet). Davon werden etwa 28 Mio Fm, also ungefähr die Hälfte als Brennholz verwendet (das Bundesministerium für Landwirtschaft verbreitet die wahrscheinlich falsche Information, es wären 68 Mio Fm). Das bedeutet, dass aktuell etwa $$ 28\cdot 10^6 Fm\cdot 1.4\frac{Rm}{Fm}\cdot 1800 \frac{kWh}{Rm\cdot Jahr} \approx 70 \frac{TWh}{Jahr} = 254 \frac{PJ}{Jahr} $$ an Energie aus landeseigenem Holz gewonnen werden. Aus dem Umstand, dass für den Endenergieverbrauch an Holz (für 2018) aber 743 PJ angegeben werden (für den Primärenergieverbrauch noch mehr), muß ich annehmen, dass wir das Doppelte unserer eigenen Brennholzproduktion aus dem Ausland importieren.

Selbst bei einer Steigerung der nachhaltigen energetischen Nutzung auf 2/3 der Waldfläche ist damit der in Deutschland maximal erreichbare Energieertrag (wegen der Nutzung weniger energiereichen Holzes wird der angenommene Heizwert auf 1500 $\frac{kWh}{Rm} $ gesenkt) $$ 11\cdot 10^6 ha \cdot\frac{2}{3}\cdot 10 \frac{Fm}{ha}\cdot 1.4\frac{Rm}{Fm}\cdot 1500\frac{kWh}{Rm} = 154 TWh/Jahr $$




5 einfache Klimafakten


[latexpage]

1. Die weltweiten CO2-Emissionen haben 2018 den maximalen Wert erreicht und werden voraussichtlich nicht weiter ansteigen

Es gab 2020 Corona-bedingt einen massiven Einbruch der Emissionen. Aber das Maximum der $CO_2$ Emissionen war mit 33,5 Gt (=4,3 ppm) bereits 2018 erreicht und die Emissionen der Jahre 2019 und 2021 liegen auch unter diesem Wert:

Bereits seit 2003 gibt es einen klaren Trend der Abnahme des relativen CO2-Emissions-Wachstums (Analoge Größe zum Wirtschaftswachstum), wo 2019 dann die 0%-Linie erreicht und 2020 deutlich unterschritten wurde (  http://klima-fakten.net/?p=5995 ):

Abgesehen davon, dass der Corona-bedingte Einbruch der Emissionen der größte der Geschichte war, war er eine Verstärkung des seit 2003 bestehenden Trends sinkenden relativen Emissionswachstums, daran ändert auch das teilweise Zurückschwingen im Jahre 2021 nichts. Grund dafür ist, dass das Anwachsen der Emissionen in den Schwellenländern mittlerweile sich etwa die Waage hält mit der Abnahme der Emissionen in den Industrieländern. In China hat es bereits 2010 einen starken Knick der Emssionskurve gegeben, mit sehr viel geringerem Anstieg seither.

Das tatsächliche „Business-as-usual“ Szenario ist also nicht das in den Medien immer noch weit verbreitete Katastrophenscenario RCP8.5 mit exponentiell wachsenden Emissionen, sondern de facto ein Verbleiben des weltweiten CO2-Ausstoßes auf dem seit 2018 erreichten Plateau.  Das Teilziel des Pariser Klimaabkommens, „Countries must reach peak emissions as soon as possible„, ist also bereits seit 2018 für die Welt als ganze erreicht. Auch die von der IEA projizierten künftigen „realistischen“ Emissionen bestätigen, dass diese nicht mehr signifikant ansteigen werden.

2. Es genügt, die Emissionen zu halbieren, um ein weiteres Anwachsen der CO2-Gehalts in der Atmosphäre zu vermeiden

Trägt man die aus anerkannten Veröffentlichungen publizierten Absorptionen gegen den CO2-Gehalt auf, ist ein langfristig klarer Zusammenhang erkennbar – mehr 2% des über dem natürlichen Gleichgewicht von 280 ppm hinausgehenden CO2-Gehalts der Atmosphäre werden jedes Jahr von der Biosphäre und den Ozeanen absorbiert, das entspricht einer „Halbwertszeit“ von 35 Jahren:

Um den aktuellen CO2-Gehalt der Atmosphäre zu halten, würde es demnach genügen, die Emissionen auf 55% des heutigen Wertes (4,3 ppm), also auf 2,3 ppm zu senken (https://www.youtube.com/watch?v=JN3913OI7Fc&t=291s). Die sorgfältige – einfache – mathematische Ausarbeitung und verschiedene Szenarien (von „Business as usual“ bis „Energiewende“ ist unter http://klima-fakten.net/?page_id=5995 zu finden

Wesentlich ist, dass in keinem Fall der CO2-Gehalt auf klimatisch gefährlich hohe Werte steigen wird, wohl aber bei einer „erfolgreichen“ weltweiten Energiewende auf gefährlich niedrige Werte sinken würde, weil die aktuellen Spitzen-Getreideernten aufgrund der gestiegenen CO2-Werte um 15% größer ausfallen als noch vor 40 Jahren bei niedrigeren $CO_2$-Werten. 
Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1:
Countries must reach peak emissions as soon as possible “so as to achieve a balance between anthropogenic emissions by sources and removals by sinks of greenhouse gases in the second half of this century”.
Das heißt, dass das Gleichgewicht zwischen von Menschen verursachten Emissionen und $CO_2$-Absorptionen in der 2. Hälfte des Jahrhunderts erreicht werden muß. Das Gleichgewicht ist aber erreicht, wenn die Gesamt-Emissionen halbiert sind. Zeitliches Ziel ist der Erreichung dieser 50% ist zwischen 2050 und 2100, diesen beiden Grenzen entsprechen das blaue und türkisgrüne Szenario. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Decarbonisierung.

3. Nach der Strahlen-Physik beträgt die Klimasensitivität nur ein halbes Grad

Der mögliche Einfluß des $CO_2$ auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport. Um diesen Treibhauseffekt tatsächlich messen zu können, muß die in den Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der theoretisch erwartete Treibhauseffekt ist mit 0.2 $\frac{W}{m^2}$ pro Jahrzehnt so winzig, dass er mit heutiger Satellitentechnologie, die eine Meßgenauigkeit von etwa 10 $\frac{W}{m^2}$ hat, nicht nachweisbar ist.
Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.
Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN, mit der die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der $CO_2$-Treibhauseffekt physikalisch sauber simuliert werden kann. Wenn ich mit diesem Programm unter korrekten Bedingungen die sogenannte CO2-Sensitivität (die Temperaturerhöhung bei einer CO2-Verdoppelung von 280 auf 560 ppm) ausrechne, so kommt dabei grade mal 1/2 °C heraus:

Der Sachverhalt wird in diesem Artikel diskutiert. Außerdem beschreibe ich dort mit Hilfe der MODTRAN Simulation, um die Denkweise der IPCC-nahen Wissenschaftler zu verstehen, deren m.E. falsche Vorgehensweise bei der Sensitivitätsberechnung.

Demzufolge ist bei korrekter Berücksichtigung aller realen Bedingungen die Temperaturerhöhung bei Verdoppelung des $CO_2$-Gehalts von 280 ppm auf 560 ppm gerade mal 1/2 °C und damit weit unter den Vorgaben des Pariser Klimaabkommens.

4. Der einzige nachweisbare Effekt des CO2-Anstiegs ist die Begrünung der Erde

Während der Treibhauseffekt bislang eine theoretische Hypothese ist, die wegen ihres geringen Effekts (0.2 $\frac{W}{m^2}$ in 10 Jahren, der nur ein Bruchteil der Messfehler von Infrarot Satellitenmessungen (10 $\frac{W}{m^2}$) ist, bislang nicht zweifelsfrei nachweisbar ist, ist eine andere erfreuliche Auswirkung des gestiegenen CO2 Gehalts überdeutlich nachgewiesen: Zwischen 1982 und 2009 hat die Begrünung der Erde um 25-50% zugenommen, davon sind 70% auf die Zunahme von CO2 zurückzuführen. Insbesondere sind auch Teile der Trockengebiete der Erde grüner geworden, weil Pflanzen bei höherem $CO_2$-Gehalt einen effizienteren Wasserhaushalt haben.
Auch die Getreideernten haben in diesem Zeitraum um etwa 15% aufgrund der besseren Versorgung mit CO2 zugenommen. Fast jedes Jahr werden die Ernterekorde gebrochen.

5. Das Anwachsen der Weltmitteltemperatur der letzten 40 Jahre wurde überwiegend durch die verminderte Wolkenbildung verursacht

Eine einfache Rechnung zeigt, dass 80% des Temperaturanstiegs der letzten 40 Jahre auf den realen und meßbaren Effekt der reduzierten Wolkenreflexivität zurückzuführen sind und allenfalls 20% auf den hypothetischen und bislang nicht definitiv durch Messung nachgewiesenen CO2-Treibhaus-Effekt (http://klima-fakten.net/?p=3217).

Die Ursachen  der verminderten Wolkenbildung können in der Tat zu einem Teil menschengemacht sein, denn der grundlegende Mechanismus der Wärmeregulation durch Verdunstung durch Pflanzen und der daraus entstehenden Wolken ist abhängig von der Art und Weise, wie Menschen Landwirtschaft betreiben und die Naturlandschaft behandeln (siehe auch dieses Video)

Die wichtigsten menschengemachten Risikofaktoren sind

Für die These, dass der Klimawandel teilweise diese Ursachen hat, findet sich z.B. ein Beleg in der TAZ: https://taz.de/Wasser-und-Klimaschutz/!5774434/.
Um die durch verminderte Wolkenbildung verursachte Erwärmung aufzuhalten, nützen allerdings $CO_2$-Emissionsreduktionen nichts, und die Land verbrauchenden Maßnahmen der Energiewende sind kontraproduktiv. Eine Besinnung auf die Lösung der realen Probleme statt eines ideologischen Tunnelblickes ist überfällig.




Vorhersagen der globalen Temperatur


[latexpage]

Der traditionelle Ansatz wird in Frage gestellt

Die Schlüsselfrage zum Klimawandel ist Wie stark beeinflusst der $CO_2$-Gehalt der Atmosphäre die globale Durchschnittstemperatur? Und insbesondere, wie empfindlich reagiert die Temperatur auf Veränderungen der $CO_2$-Konzentration?
Wir untersuchen dies anhand von zwei Datensätzen, dem HadCRUT4-Datensatz zur globalen Durchschnittstemperatur und dem CMIP6-Datensatz zum $CO_2$-Gehalt.
Die Korrelation zwischen diesen Daten ist ziemlich hoch, so dass es ziemlich offensichtlich erscheint, dass ein steigender $CO_2$-Gehalt steigende Temperaturen verursacht.
Mit einem linearen Modell scheint es einfach herauszufinden, wie genau die Temperaturen im Jahr i $T_i$ durch den $CO_2$-Gehalt $C_i$ und das zufällige (Gauß’sche) Rauschen $\epsilon_i$ vorhergesagt werden. Aus theoretischen Überlegungen (Strahlungsantrieb) ist es wahrscheinlich, dass das Modell mit $log(C_i)$ am besten passt:
$T_i = a + b\cdot log(C_i) + \epsilon_i$
Die Konstanten a und b werden durch eine Anpassung mit der Methode der kleinsten Quadrate bestimmt (mit dem Python-Modul OLS aus dem Paket statsmodels.regression.linear_model):
a=-16,1, b=2,78
Daraus lässt sich die Sensitivität bestimmen, die als Temperaturdifferenz bei Verdopplung von $CO_2$ definiert ist:
$\Delta(T) = b\cdot log (2)$ °C = 1,93 °C
Das sind fast 2 °C, eine Zahl, die nahe an den offiziellen Schätzungen des IPCC liegt.

Was ist daran falsch, es scheint sehr einfach und logisch zu sein?
Wir haben das Residuum der Anpassung mit der Methode der kleinsten Quadrate noch nicht untersucht. Unser Modell besagt, dass das Residuum Gaußsches Rauschen sein muss, d.h. unkorreliert.
Der statistische Test, um dies zu messen, ist der Ljung-Box-Test. Betrachtet man das Q-Kriterium, so ist es Q = 184 mit p=0. Das bedeutet, dass der Residuum signifikante Korrelationen aufweist, es gibt strukturelle Informationen im Residuum, die mit dem vorgeschlagenen linearen Modell des log($CO_2$)-Gehalts nicht erfasst wurden. Ein Blick auf das Diagramm, das die angepasste Kurve zeigt, lässt erahnen, warum der statistische Test fehlgeschlagen ist:

Wir sehen 3 Diagramme:

  • Die gemessenen Temperaturanomalien (blau),
  • die geglätteten Temperaturanomalien (orange),
  • die Rekonstruktion der Temperaturanomalien basierend auf dem Modell (grün)

Während das Modell im Vergleich zu den verrauschten Originaldaten vernünftig aussieht, ist es aus den geglätteten Daten offensichtlich, dass es neben $CO_2$ noch andere systematische Gründe für Temperaturänderungen geben muss, die vorübergehende Temperaturrückgänge wie während 1880-1910 oder 1950-1976 verursachen. Am überraschendsten ist, dass von 1977-2000 der Temperaturanstieg deutlich größer ist, als es das Modell des $CO_2$-Anstiegs erwarten ließe.

Die systematischen Modellabweichungen, u.a. ein 60-jähriges zyklisches Muster, sind auch zu beobachten, wenn man sich die Residuen der kleinsten Quadrate Schätzung anschaut:

Erweiterung des Modells mit einer einfachen Annahme

Angesichts der Tatsache, dass die Ozeane und bis zu einem gewissen Grad auch die Biosphäre enorme Wärmespeicher sind, die Wärme aufnehmen und wieder abgeben können, erweitern wir das Temperaturmodell um einen Speicherterm der Vergangenheit. Ohne den genauen Mechanismus zu kennen, können wir auf diese Weise die „natürliche Variabilität“ in das Modell einbeziehen. Vereinfacht ausgedrückt entspricht dies der Annahme: Die Temperatur in diesem Jahr ist ähnlich wie die Temperatur des letzten Jahres. Mathematisch wird dies durch einen erweiterten autoregressiven Prozess ARX(n) modelliert, wobei angenommen wird, dass die Temperatur im Jahr i eine Summe von

  • einer linearen Funktion des Logarithmus des $CO_2$-Gehalts,log($C_i$), mit Offset a und Steigung b,
  • einer gewichteten Summe der Temperatur der Vorjahre,
  • zufälligem (Gauß’schem) Rauschen $\epsilon_i$

$ T_i = a + b\cdot log(C_i) + \sum_{k=1}^{n} c_k \cdot T_{i-k} +\epsilon_i $

Im einfachsten Fall ARX(1) erhalten wir

$ T_i = a + b\cdot log(C_i) + c_1\cdot T_{i-1} +\epsilon_i $

Mit den gegebenen Daten werden die Parameter geschätzt, wiederum mit dem Python-Modul OLS aus dem Paket statsmodels.regression.linear_model:
$a=-7.33, b=1.27, c_1=0.56 $
Die Rekonstruktion des Trainingsdatensatzes ist deutlich näher an den Originaldaten:

Das Residuum der Modellanpassung sieht nun viel mehr wie ein Zufallsprozess aus, was durch den Ljung-Box-Test mit Q=20,0 und p=0,22 bestätigt wird

Bei Berücksichtigung der natürlichen Variabilität reduziert sich die Empfindlichkeit gegenüber $CO_2$ auf
$\Delta(T) = b\cdot log (2) °C = 0,88 °C $

In einem anderen Beitrag haben wir die Abhängigkeit des atmosphärischen $CO_2$-Gehalts von den anthropogenen $CO_2$-Emissionen untersucht, und dies als Modell für Vorhersagen des zukünftigen atmosphärischen $CO_2$-Gehalts verwendet. Es werden u.a. 3 Szenarien untersucht:

  • „Business as usual“ neu definiert anhand der neuesten Emissionsdaten als Einfrieren der globalen $CO_2$-Emissionen auf das Niveau von 2019 (was auch tatsächlich geschieht)
  • 100% weltweite Dekarbonisierung bis 2050
  • 50% weltweite Dekarbonisierung bis 2100
  • 50% weltweite Dekarbonisierung bis 2050
  • sofortige 50% weltweite Dekarbonisierung (hypothetisch)

Das resultierende atmosphärische $CO_2$ wurde wie folgt berechnet, die statistischen Fehler sind so klein, dass die Prognose für die nächsten 200 Jahre sehr enge Fehlerintervalle aufweist.

Füttert man das Temperatur-ARX(1)-Modell mit diesen vorhergesagten Zeitreihen des $CO_2$-Gehalts, so sind für die Zukunft folgende globale Temperaturentwicklungen zu erwarten:

Schlussfolgerungen

Die folgenden Schlussfolgerungen werden unter der Annahme gezogen, dass es tatsächlich eine starke Abhängigkeit der globalen Temperatur vom atmosphärischen $CO_2$-Gehalt gibt. Ich bin mir bewusst, dass dies umstritten ist, und ich selbst habe an anderer Stelle argumentiert, dass die $CO_2$-Sensitivität bei nur 0,5°C liegt und dass der Einfluss der Wolkenalbedo viel größer ist als der von $CO_2$. Dennoch lohnt es sich, die Mainstream-Annahmen ernst zu nehmen und einen Blick auf das Ergebnis zu werfen.

Unter dem„business as usual“-Szenario, d.h. konstante $CO_2$-Emissionen auf dem Niveau von 2019, ist bis 2150 mit einem weiteren Temperaturanstieg um ca. 0,5°C zu rechnen. Das sind 1,4°C über dem vorindustriellen Niveau und damit unter der 1,5° C-Marke des Pariser Klimaabkommens.
Viel wahrscheinlicher und realistischer ist das Szenario „50%ige Dekarbonisierung bis 2100“ mit einem weiteren Anstieg um 0,25°C, gefolgt von einem Rückgang auf das heutige Temperaturniveau.

Die politisch propagierte „100%ige Dekarbonisierung bis 2050“, die nicht nur ohne wirtschaftlichen Zusammenbruch der meisten Industrieländer völlig undurchführbar ist, bringt uns zurück auf das kalte vorindustrielle Temperaturniveau, was nicht wünschenswert ist.