1

Wieviel Erde braucht der Mensch?


[latexpage]

Energiewende für einen 4-Personen Haushalt

Die Energiewende geht von der Zielvorstellung aus, dass der komplette Energiebedarf durch Wind- und Sonnenergie gedeckt werden soll. Beide Energiearten zeichnen sich dadurch aus, dass sie

  1. volatil sind, d.h. nicht die ganze Zeit verfügbar sind,
  2. dass sie keine hohe Energiedichte haben, d.h. viel (Boden-)Fläche beanspruchen

Ziel dieser Untersuchung ist, an dem eingeschränkten konkreten Beispiel der Basisenergieversorgung eines beispielhaften 4-Personen Haushalt in Form von

  • Elektrizität
  • Warmwasser
  • Heizung

zu ermitteln, wie groß der Flächenbedarf für eine Vollversorgung mittels Photovoltaik ist, ohne Energiesubventionierung durch Backup von Kohle-, Gas- oder Kernkraftwerken.

Annahmen zum Verbrauch und Energiespeicherung

Beim Verbrauch wird von folgenden Annahmen ausgegangen:

Energieerzeugung, Speicherung mit Batterien und Wasserstoff

Batteriespeicher für Tag/Nacht-Ausgleich
Für die kurzfristige Speicherung photovoltaischen Stroms, d.h. zur Überbrückung der Tag-/Nachtvolatilität werden Batteriespeicher angenommen, was zu einer 75% Strom-Autarkie im Jahresdurchschnitt führt. Von diesen 75% stammt die Hälfte direkt und damit verlustlos von der Photovoltaik, die andere Hälfte, also 37,5% kommen vom Batteriespeicher unter der optimistischen Annahme von 10% Verlust. Die restlichen 25% müssen aus gespeicherten Wasserstoff generiert werden. Der Batteriespeicher ist so bemessen, dass er etwa die Kapazität des halben durchschnittlichen Tagesbedarfs hat, im Beispiel also 6 kWh.

Brennstoffzelle und Wärmepumpe für die Heizung
Da die Heizung im überwiegend sonnenarmen Winter erfolgt, kann allenfalls 1/3, also etwa 3500 kWh durch die direkte Umwandlung von PV-Strom mit einer Wärmepumpe gewonnen werden. Der Rest von 7500 kWh erfolgt durch Speicherung von Wasserstoff und Rückumwandlung in Elektrizität und Wärme. Die Kennzahlen dazu sind exemplarisch der Spezifikation der Panasonic Brennstoffzelle entnommen. Diese 5 KW Brennstoffzelle hat einen elektrischen Wirkungsgrad von 56% und einen thermischen Wirkungsgrad von 39%, also fallen pro kWh Wasserstoff 0,56 kWh Strom und 0,39 kWh verwertbare Wärme an. Erfolgt die Heizung mit einer Wärmepumpe, dann wird der Stromanteil um den COP-Faktor „aufgewertet“. Um eine realistische Bewertung abzugeben, verwende ich einen konservativen COP-Faktor von 3. Je nach individuellen Gegebenheiten kann dieser bis maximal 5 sein. Der effektive Heizwert des Wasserstoffs ist dann pro erzeugte kWh $0,56 kWh\cdot 3 + 0,39 kWh = 2,07 kWh $, also etwas mehr als das doppelte des theoretischen Brennwerts, maximal bei einem COP-Faktor von 5 sind es 3,19 kWh.

Elektrolyse für die Wasserstoff-Erzeugung
Bei der Elektrolyse wird einen Wirkungsgrad von 62,5% angenommen, gemäß des Datenblatts des Enapter Elektrolyseurs, der z.B. in der Komplettlösung PICEA Anwendung findet. Die Wärme des Elektrolyseurs kann ggf. zur Warmwasserbereitung mitverwendet werden, da sie aber überwiegend in der warmen Jahreszeit anfällt, wird sie hier nicht berücksichtigt. 1 kWh primäre PV Energie erzeugt demnach 0,625 kWh Wasserstoff (und etwa 0,33 kWh nicht speicherbare Wärme), bei Nutzung einer Brennstoffzelle und Wärmepumpe also 1,29 (maximal 2) kWh Heizwärme und 0,35 kWh nutzbare elektrische Energie.

Flächenbedarf

Zur Berechnung der notwendigen Kollektorfläche wird der Gesamtverbrauch aufgeteilt:

  1. Stromnutzung direkt vom Modul oder dem Batteriespeicher mit einem mittleren Wirkungsgrad von 95%, für elektrische Verbraucher, Warmwasser und Heizung in der Übergangszeit:
    $ (5000\cdot 0,75 + \frac{3500}{3})\cdot \frac{100}{95} kWh = 5175 kWh $
  2. Stromerzeugung aus gespeichertem Wasserstoff bei einem Gesamtwirkungsgrad von 35%, für elektrische Verbraucher und Warmwasser (die Abwärme der Brennstoffzelle wird als Wärmequelle für die Wärmepumpe im Winter verwendet):
    $(5000\cdot 0,25)\cdot \frac{100}{35} kWh = 3571 kWh $
  3. Heizwärme aus gespeichertem Wasserstoff bei einem Gesamtwirkungsgrad von 129%:
    $7500\cdot \frac{100}{129} kWh = 5814 kWh $

Daraus ergibt sich ein Gesamtbedarf von primärer PV-Energie von 14.560 kWh im Jahr, also eine Durchschnittsleistung von 1661 Watt. Das entspricht bei dem in Deutschland mittleren Ertrag von 10,6% der installierten Maximalleistung einer installierten Leistung von 15,7 kWp, also 39 Module zu je 400 Wp mit einer Gesamtmodulfläche von 67 qm. Bei Abweichungen von der optimalen Südausrichtung steigt die Anzahl der notwendigen Module.
Unter der Voraussetzung der Nutzung einer Wärmepumpe wird zusätzlich noch Gartenfläche für den sog. Wärmekollektor benötigt, ungefähr 40qm pro KW Heizleistung. Bei 11 KW Heizleistung müssen also 440 qm Garten aufgegraben und mit einem Wärmekollektor bestückt werden. Die Bepflanzung auf dieser Fläche ist stark eingeschränkt.

Die von der Photovoltaik beanspruchte effektive Bodenfläche ergibt sich unter der Annahme von durchschnittlich etwa 10,5 W/qm Bodenfläche. Dieser Wert ist deswegen deutlich niedriger als die Leistung pro Modulfläche, weil die Module in der Regel schräg gestellt sind, und somit etwa die doppelte Modulfläche verschatten. PV-Module, die in die gleiche Richtung ausgerichtet sind, können im Mittel nicht dichter aufgestellt werden. Diese Bodenfläche wird implizit auch bei Dachmontage beansprucht, sie überlappt sich dann aber mit der Grundfläche des Gebäudes. Bei der Modellrechnung ergibt sich also eine Mindestbedarf von 158 qm Bodenfläche, um den Energiebedarf für Strom, Warmwasser und Heizung eines durchschnittlichen 4 Personen-Einfamilienhauses zu decken. Diese Fläche ist für jeden Haushalt notwendig, daher ist die reine PV-basierte Lösung für Mehrfamilienhäuser, wo der einzelnen Familie weniger nutzbare Fläche zur Verfügung steht, unrealistisch. Von Stadthäusern und gemieteten Wohnungen ganz zu schweigen. Eine dort auf dem Dach installierte Anlage kann allenfalls einen Teil des Bedarfs abdecken. Die besten Voraussetzungen hat ein Einfamilienhaus mit großem Grundstück, dessen Qualität durch die installierte Wärmepumpe deutlich eingeschränkt wird.

Potential von Brennholz

Bestandserhaltend geerntetes Brennholz ist eine nachhaltige Energiequelle, kann also ebenfalls als künftiger Energieträger berücksichtigt werden. Eine Überschlagsrechnung zeigt das Potential von Brennholz als Beitrag zum Heizen von Wohngebäuden:

Deutschland hat eine Waldfläche von 11,7 Millionen ha und (Stand 31.12.2021) eine Einwohnerzahl von 82,3 Millionen. Das ist ein rechnerischer Anteil von 0,137 ha Waldfläche pro Einwohner.
Der bestandserhaltende Holzertrag ist etwa 12 Festmeter bzw. 22 Raummeter pro ha und Jahr. Die tatsächliche durchschnittliche Holzverwendung für Brennholz in privaten Haushalten war im Schnitt der letzten 15 Jahre etwa 30 Millionen Festmeter pro Jahr. Das entspricht einer Nutzung von 10 Raummeter pro ha im Jahr auf der Hälfte der verfügbaren Waldfläche. Soviel (d.h. 7-10 Raummeter) kann man bei naturverträglicher Brennholz-Nutzung erwarten. Da aber außer der privaten Nutzung nochmal etwa genauso viel in Kleinfeuerungsanlagen und Großfeuerungsanlagen verbrannt wird, muss davon ausgegangen werden, dass ein großer Teil unseres Brennholzes importiert und daher nicht nachhaltig verwendet wird, z.B. aus Rumänien stammt.
Der durchschnittliche Heizwert von Brennholz wird mit 1600 kWh/Raummeter geschätzt, was etwa 2900 kWh/Festmeter entspricht.

Würde die ganze Waldfläche systematisch nachhaltig bewirtschaftet und wird knapp die Hälfte als Brennholz verwendet, steht rechnerisch für jeden Einwohner pro Jahr die Heizenergie von
$ 0.137\cdot 10 \cdot 1600 kWh = 2192 kWh $
zur Verfügung. Für einen 4-Personen-Haushalt also 8768 kWh. Das entspricht ungefähr der o.g. Heizenergie aus gespeichertem Wasserstoff (7500 kWh). Optimistisch gesehen, kann also langfristig für den größten Teil der Bevölkerung statt Wasserstoff auch Holz zum nachhaltigen Heizen im Winter verwendet werden. Eine Verwendung in Kraftwerken wäre dann aber ausgeschlossen.

Die aktuelle für Privathaushalte verwendete Energiemenge aus Brennholz ist aber im Schnitt pro Person und Jahr nur
$ \frac{30 \cdot 2900}{82.3} kWh = 1057 kWh $,
was bei einem 4-Personen Haushalt 4288 kWh entspricht. Grenzen der weiteren Nutzung werden insbesondere auch durch den Naturschutz gesetzt. Weiterhin ist zu prüfen, ob dieses Brennholz tatsächlich aus nachhaltiger Nutzung der heimischen Wälder stammt oder ob es importiert ist.

Fazit

Als Fazit ist festzuhalten, dass das Ideal der Energiewende nur von einem Teil der Bevölkerung im eigenen Wohnbereich umgesetzt werden kann, den wohlhabenden Eigentümern eines Einfamilienhauses. Zu dem Aufwand an Dach- und Bodenfläche kommt noch der finanzielle Aufwand für die beschriebenen Geräte. Stand heute sind die Investitionskosten für ein solches autarkes System noch so teuer, dass in realistischen Amortisationszeiten von 10-20 Jahren allenfalls eine 75% Autarkie für die Stromgewinnung mit PV-Modulen und Batteriespeicher, und ggf. einer kleinen Wärmepumpe für die Warmwasserbereitung von März-Oktober mit Überschuss-PV-Strom sinnvoll ist.
Dabei entfallen die horrenden Kosten für die Wasserstoff-Elektrolyse und Lagerung, sowie die teure und große Gartenflächen erfordernde Installation einer Heizungs-Wärmepumpe, dem nach aktueller Gesetzgebung künftig verpflichtenden Standard für neu installierte Heizsysteme.
Die Abschätzung über die Verwendung von Holz als — bereits üblichem — Energieträger zum Heizen weist einen Weg, die unbezahlbar teuren Investitionen in Wasserstoff als Energieträger für Privathaushalte zu umgehen. Allerdings sind die Begrenzungen zu berücksichtigen, die durch die nachhaltige Nutzung der Wälder gesetzt sind.

In diesen Betrachtungen wurde weder der Energieaufwand für den Mobilität noch der für die industrielle Herstellung aller Gebrauchsgüter berücksichtigt. Eine neuere Studie hat verschiedene Szenarien der Energieversorgung der Schweiz mit erneuerbaren Energien durchgerechnet, wo der Verkehr mitberücksichtigt wird.
Auch eine Kostenanalyse steht noch aus, da von einigen Produkten die Endkundenpreise (noch) nicht bekannt sind und zu erwarten ist, dass die – aktuell prohibitiven – Preise für Elektrolyseure und Brennstoffzellen deutlich fallen werden.




Flächenverbrauch der Photovoltaik


[latexpage]

Um den Flächenverbrauch für photovoltaische Energiegewinnung realistisch abzuschätzen, gehen wir von den existierenden PV-Anlagen in Deutschland aus. Nach den Informationen des Fraunhofer Instituts wurden 2020 in Deutschland durchschnittlich 926 kWh pro installiertem kWp erzielt (50 TWh bei 54 GWp installierter Leistung), das sind durchschnittlich 10,5% der installierten PV-Leistung. Ein gängiges Modul mit 1,7 m2 Fläche hat aktuell die Leistung 345-400 Wp. Pro m2 Kollektorfläche ergibt sich demnach eine erwarteter Jahresertrag von 188-218 kWh. Verteilt auf die 8766 Stunden des Jahres ergibt sich also ein theoretischer Durchschnittsertrag von 21,4-24,9 $\frac{W}{m^2}$.

Diese Überlegungen beziehen sich auf die aktive Kollektorfläche. Die Landnutzungsfläche ist um mindestens einen Faktor 2 größer, weil die Kollektoren zur besseren Ausbeute schräg gestellt werden und demzufolge zur Vermeidung von Abschattung entsprechende Abstände bleiben müssen. Solange die Solarkollektoren auf Dächern montiert sind, spielen diese Überlegungen eine untergeordnete Rolle, aber bei Freilandanlagen entsteht auch bei Solaranlagen das Problem des Flächenverbrauchs. Demzufolge kann bei einer großflächigen Anlage in unseren Breitengraden höchstens von einem Durchschnittsertrag von 10,7-12,5 $\frac{W}{m^2}$ Bodenfläche ausgegangen werden.

An dem konkreten realen Solarparkprojekt in Werneuchen, Brandenburg, lassen sich diese Werte überprüfen:

Nach Herstellerangaben werden auf 164 ha 465 000 Module mit einer gesamten installierten Leistung von 187 MW gebaut (pro Modul 402 W installierte Leistung, also modernste Hochleistungsmodule). Ein Modul mit $1.7 m^2$ Fläche beansprucht demnach etwa $3.5 m^2$ Bodenfläche, etwas mehr als die doppelte Modulfläche. Der Boden-Flächenbedarf für 1kW installierte Leistung ist also $8.8 m^2$.
Nach der oben beschriebenen offiziellen Stastistik des Fraunhofer Instituts über die gesamte solare Stromproduktion in Deutschland ergibt sich ein erwarteter Ertrag von 926 kWh/Jahr für jedes installierte kW, das ist ein durchschnittlicher Ertrag (der aber nicht gleichmäßig verteilt anfällt) von etwa 106 Watt für jedes installierte kW. Um 1 kW mittlerer Dauerleistung zu erzeugen, müssen also 9.5 kW physisch installiert werden, mit einem Boden-Flächenbedarf von $83.6 m^2$. Für das volatile Äquivalent eines nicht-volatilen, grundlastfähigen AKW mit 1.5 GW Leistung werden demnach 125 $km^2$ Bodenfläche benötigt.

Lösung der Volatilität durch Speicherung

Die durchaus signifikanten Verluste der kurzfristigen (Tag/Nacht) Speicherung mit Batterien (etwa 10% bei max. 1 Tag Speicherung) sollen in dieser groben Betrachtung vernachlässig werden. Realistisch können bei mehrtägiger Speicherung aufgrund der Leckströme nur 60-75% der eingesetzten Energie wieder gewonnen werden. Für eine langfristige Energiespeicherung kommen Batterien aus Material- und Kostengründen ohnehin nicht in Frage.
Wenn ein Anteil der solar erzeugten Energie über einen längeren Zeitraum, also chemisch gespeichert werden muß, ist aufgrund der Wandlungsverluste nach Wasserstoff und ggf. Methan mit einem deutlich höheren „Primärverbrauch“ an Energie zu rechnen.
Vereinfachend gehe ich von der Annahme eines – für die Herstellung und Wieder-Verstromung von Methan realistischen – Wirkungsgrades von 25% aus, mit dem 1/4 der zu erzeugenden Energie über einen längeren Zeitraum gespeichert werden muß, während 3/4 der Jahresenergie direkt oder mit kurzfristiger Batteriespeicherung verbraucht wird. Dies führt in der Summe zum 1.75-fachen Primärverbrauch. Die zusätzlichen 75% sind der Preis für die „Grundlastfähigkeit“.

Demzufolge hat jedes kW an saisonbereinigter, grundlastfähiger Dauerleistung einen Boden-Flächenbedarf von $146 m^2$.

Das Äquivalent von einem grundlastfähigen AKW der Leistung 1.5 GW beansprucht demnach eine Landfläche von etwa $ 220 km^2$, oder 147 $km^2$ Landverbrauch für jedes GW grundlastfähiger PV-Energie.

Die aktuelle Planung der Energiewende sieht einen Ausbau der Solarenergiegewinnung mit einer gesamten installierten Leistung von 200 GW vor. Das bedeutet einen Gesamtflächenbedarf von 1760 $km^2$, etwa 0,5% der Gesamtfläche Deutschlands bzw. knapp 1% der landwirtschaftlichen Nutzfläche. Der durchschnittliche volatile Ertrag davon sind etwa 21 GW, bei Berücksichtung von kurz- und langfristiger Speicherung zum Ausgleich der Volatilität verbleiben noch 12 GW grundlastfähige Leistung, gerade mal 20% der aktuell benötigten elektrischen Energie von durchschnittlich 57 GW.




Energiewende-Fakten


[latexpage]

Solarenergie ist im Winter unbrauchbar

Es gibt – teilweise prominente – Stimmen, im Winter mit photovoltaisch betriebenen Wärmepumpen zu heizen. Das ist eine völlig realitätsferne Illusion. Fakt ist, dass PV-Anlagen in unseren Breitengraden in den 4 Wintermonaten November-Februar so gut wie keine Leistung erbringen. Eine Anlage mit 6 KW installierter Leistung erbringt Ende Oktober kaum mehr als 3kWh am Tag, das entspricht dem Heizwert eines Braunkohlenbriketts.

Der Umstand, dass im Winter so wenig Sonnenenergie vorhanden ist, ist ja grade der Grund, dass es einen Winter gibt.

Eine Langzeitspeicherung mit Batterien ist unmöglich

Um den Strombedarf eines einzigen Haushaltes bei einem Tagesbedarf von 10 kWh während der Wintermonate zu decken, müßte der Bedarf von mindestens 4 Monaten über etwa 1/2 Jahr gespeichert werden, zusätzlich zum Tagesspeicher, der die Tag/Nacht-Volatilität ausgleicht. Das sind 120 Tage und demnach eine mindestens notwendige Gesamtspeicherkapazität von 1,2 MWh. Bei einem — sehr günstig angenommenen — Batteriepreis von 500 €/kWh sind das 600 000 € für den Batteriespeicher, bei einer Lebensdauer von 10 Jahren, von der Umweltbelastung und dem Platzbedarf für diese riesige Speichermenge ganz abgesehen. Das wären reine Batteriekosten von 60 000 € pro Winter – ausschließlich für den Strombedarf, ohne Heizung oder Mobilität.
Eine Studie zeigt am Beispiel der Versorgung eines Rechenzentrums, dass eine Langzeitspeicherung nur in chemischer Form, also z.B. Wasserstoff oder Methangas (Power-to-gas) erfolgen kann, bei der Energiespeicherung mit flüssigem Wasserstoff wäre der durchschnittliche Strompreis etwa 120 \$/MWh, bei einer hypothetischen Speichung mit Li-Ionen Batterien wäre er über 4000 \$/MWh.

Das Power-to-Gas Verfahren hat mit PV-Strom den gleichen CO2 Fußabdruck wie fossiles Erdgas

Die Herstellung von Solar-Paneelen ist sehr energie-intensiv. Deren Herstellung erfolgt überwiegend mit fossilen Energiequellen. Ohne Berücksichtigung der Entsorgung der Solar-Paneele ist der CO2-Fußabdruck bei der Photovoltaik-Energiegewinnung etwa 132 $\frac{g}{kWh}$. Die Stromspeicherung mit dem Power-to-gas Verfahrens hat bekanntermaßen einen Wirkungsgrad von nur 25%. Das bedeutet, dass für die gespeicherte Energie die 4-fache Menge an elektrischer Energie erzeugt werden muß. Daher hat der über das power-to-gas Verfahren erzeugte Strom einen CO2 Fußabdruck von 528 $\frac{g}{kWh}$. Das ist etwa der gleiche Betrag an CO2, der beim Betrieb eines mit Erdgas betriebenen Kraftwerks. Demzufolge ist mit heutigen Solarzellen im Vergleich zu einem modernen Gaskraftwerk hinsichtlich von CO2 Emissionen nichts gewonnen.

Energiepflanzen und Biogas sind keine skalierbare Lösung

Dieses Bild hat ein leeres Alt-Attribut. Der Dateiname ist Figure-10.6-hi.jpg

Betrachtet man den reinen Energieertrag pro Flächeneinheit bei dem über viele Jahrhunderte verwendeten wichtigsten nachhaltigen Brennstoff, dem Brennholz, so kommt man mit einer einfachen Rechnung zu dem Schluß, dass bei nachhaltiger Bewirtschaftung, also bei der maximal möglichen Entnahme von 10 $\frac{Fm}{ha\cdot Jahr}$ von den nachwachsenden 11,2 $\frac{Fm}{ha\cdot Jahr}$ und einem angenommenen durchschnittlichen Heizwert von 1800 $\frac{kWh}{Rm}$ (1 Fm = 1,4 Rm ) der Flächen-Energieertrag gerade mal $$\frac{10\cdot 1.4\cdot 1800}{8766} = 2.9 \frac{kW}{ha} = 0.29 \frac{W}{m^2} $$ beträgt.

Auch wenn man bei nachhaltiger Forstwirtschaft nicht wirklich von Landschaftsverbrauch sprechen kann, wollen wir diese Kenngröße ($\frac{km^2}{TWh/Jahr})$ im Sinne von benötigter Fläche zum Erzeugen einer bestimmten Energiemenge berechnen, um einen Bezug zu anderen Energiepflanzen herstellen zu können. $$ \frac{1}{10\cdot\1.4\cdot 1800} \frac{ha}{kWh/Jahr} = \frac{10^7}{25200}\frac{km^2}{TWh\cdot Jahr} \approx 400\frac{km^2}{TWh/Jahr} $$

Der reale durchschnittliche Holzeinschlag in Deutschland ist de facto nur die Hälfte der obigen Annahme, nämlich etwa 55 Mio Fm bei einer gesamten Waldfläche von 11 Mio ha (es gibt widersprüchliche Angaben, demnach wurden in den Jahren 2000-2012 durchschnittlich 76 Mio Fm/Jahr geerntet). Davon werden etwa 28 Mio Fm, also ungefähr die Hälfte als Brennholz verwendet (das Bundesministerium für Landwirtschaft verbreitet die wahrscheinlich falsche Information, es wären 68 Mio Fm). Das bedeutet, dass aktuell etwa $$ 28\cdot 10^6 Fm\cdot 1.4\frac{Rm}{Fm}\cdot 1800 \frac{kWh}{Rm\cdot Jahr} \approx 70 \frac{TWh}{Jahr} = 254 \frac{PJ}{Jahr} $$ an Energie aus landeseigenem Holz gewonnen werden. Aus dem Umstand, dass für den Endenergieverbrauch an Holz (für 2018) aber 743 PJ angegeben werden (für den Primärenergieverbrauch noch mehr), muß ich annehmen, dass wir das Doppelte unserer eigenen Brennholzproduktion aus dem Ausland importieren.

Selbst bei einer Steigerung der nachhaltigen energetischen Nutzung auf 2/3 der Waldfläche ist damit der in Deutschland maximal erreichbare Energieertrag (wegen der Nutzung weniger energiereichen Holzes wird der angenommene Heizwert auf 1500 $\frac{kWh}{Rm} $ gesenkt) $$ 11\cdot 10^6 ha \cdot\frac{2}{3}\cdot 10 \frac{Fm}{ha}\cdot 1.4\frac{Rm}{Fm}\cdot 1500\frac{kWh}{Rm} = 154 TWh/Jahr $$




5 einfache Klimafakten


[latexpage]

1. Die weltweiten CO2-Emissionen haben 2018 den maximalen Wert erreicht und werden voraussichtlich nicht weiter ansteigen

Es gab 2020 Corona-bedingt einen massiven Einbruch der Emissionen. Aber das Maximum der $CO_2$ Emissionen war mit 33,5 Gt (=4,3 ppm) bereits 2018 erreicht und die Emissionen der Jahre 2019 und 2021 liegen auch unter diesem Wert:

Bereits seit 2003 gibt es einen klaren Trend der Abnahme des relativen CO2-Emissions-Wachstums (Analoge Größe zum Wirtschaftswachstum), wo 2019 dann die 0%-Linie erreicht und 2020 deutlich unterschritten wurde (  http://klima-fakten.net/?p=5995 ):

Abgesehen davon, dass der Corona-bedingte Einbruch der Emissionen der größte der Geschichte war, war er eine Verstärkung des seit 2003 bestehenden Trends sinkenden relativen Emissionswachstums, daran ändert auch das teilweise Zurückschwingen im Jahre 2021 nichts. Grund dafür ist, dass das Anwachsen der Emissionen in den Schwellenländern mittlerweile sich etwa die Waage hält mit der Abnahme der Emissionen in den Industrieländern. In China hat es bereits 2010 einen starken Knick der Emssionskurve gegeben, mit sehr viel geringerem Anstieg seither.

Das tatsächliche „Business-as-usual“ Szenario ist also nicht das in den Medien immer noch weit verbreitete Katastrophenscenario RCP8.5 mit exponentiell wachsenden Emissionen, sondern de facto ein Verbleiben des weltweiten CO2-Ausstoßes auf dem seit 2018 erreichten Plateau.  Das Teilziel des Pariser Klimaabkommens, „Countries must reach peak emissions as soon as possible„, ist also bereits seit 2018 für die Welt als ganze erreicht. Auch die von der IEA projizierten künftigen „realistischen“ Emissionen bestätigen, dass diese nicht mehr signifikant ansteigen werden.

2. Es genügt, die Emissionen zu halbieren, um ein weiteres Anwachsen der CO2-Gehalts in der Atmosphäre zu vermeiden

Trägt man die aus anerkannten Veröffentlichungen publizierten Absorptionen gegen den CO2-Gehalt auf, ist ein langfristig klarer Zusammenhang erkennbar – mehr 2% des über dem natürlichen Gleichgewicht von 280 ppm hinausgehenden CO2-Gehalts der Atmosphäre werden jedes Jahr von der Biosphäre und den Ozeanen absorbiert, das entspricht einer „Halbwertszeit“ von 35 Jahren:

Um den aktuellen CO2-Gehalt der Atmosphäre zu halten, würde es demnach genügen, die Emissionen auf 55% des heutigen Wertes (4,3 ppm), also auf 2,3 ppm zu senken (https://www.youtube.com/watch?v=JN3913OI7Fc&t=291s). Die sorgfältige – einfache – mathematische Ausarbeitung und verschiedene Szenarien (von „Business as usual“ bis „Energiewende“ ist unter http://klima-fakten.net/?page_id=5995 zu finden

Wesentlich ist, dass in keinem Fall der CO2-Gehalt auf klimatisch gefährlich hohe Werte steigen wird, wohl aber bei einer „erfolgreichen“ weltweiten Energiewende auf gefährlich niedrige Werte sinken würde, weil die aktuellen Spitzen-Getreideernten aufgrund der gestiegenen CO2-Werte um 15% größer ausfallen als noch vor 40 Jahren bei niedrigeren $CO_2$-Werten. 
Wörtlich heißt es im Pariser Klimaabkommen im Artikel 4.1:
Countries must reach peak emissions as soon as possible “so as to achieve a balance between anthropogenic emissions by sources and removals by sinks of greenhouse gases in the second half of this century”.
Das heißt, dass das Gleichgewicht zwischen von Menschen verursachten Emissionen und $CO_2$-Absorptionen in der 2. Hälfte des Jahrhunderts erreicht werden muß. Das Gleichgewicht ist aber erreicht, wenn die Gesamt-Emissionen halbiert sind. Zeitliches Ziel ist der Erreichung dieser 50% ist zwischen 2050 und 2100, diesen beiden Grenzen entsprechen das blaue und türkisgrüne Szenario. Das Pariser Klimaabkommen verlangt also keineswegs eine vollständige Decarbonisierung.

3. Nach der Strahlen-Physik beträgt die Klimasensitivität nur ein halbes Grad

Der mögliche Einfluß des $CO_2$ auf die Erderwärmung besteht darin, dass durch dessen Absorption von Wärmestrahlung diese Strahlung abgeschwächt in das Weltall gelangt. Die Physik dieses Prozesses ist der Strahlungstransport. Um diesen Treibhauseffekt tatsächlich messen zu können, muß die in den Weltall abgestrahlte Infrarotstrahlung gemessen werden. Der theoretisch erwartete Treibhauseffekt ist mit 0.2 $\frac{W}{m^2}$ pro Jahrzehnt so winzig, dass er mit heutiger Satellitentechnologie, die eine Meßgenauigkeit von etwa 10 $\frac{W}{m^2}$ hat, nicht nachweisbar ist.
Daher hat man keine andere Wahl, als sich mit mathematischen Modellen der Strahlungstransportgleichung zu begnügen. Ein gültiger Beweis für die Wirksamkeit dieses Treibhauseffektes in der realen, sehr viel komplexeren Atmosphäre ist das allerdings nicht.
Es gibt ein weithin anerkanntes Simulationsprogramm MODTRAN, mit der die Abstrahlung von Infrarotstrahlung in den Weltraum und damit auch der $CO_2$-Treibhauseffekt physikalisch sauber simuliert werden kann. Wenn ich mit diesem Programm unter korrekten Bedingungen die sogenannte CO2-Sensitivität (die Temperaturerhöhung bei einer CO2-Verdoppelung von 280 auf 560 ppm) ausrechne, so kommt dabei grade mal 1/2 °C heraus:

Der Sachverhalt wird in diesem Artikel diskutiert. Außerdem beschreibe ich dort mit Hilfe der MODTRAN Simulation, um die Denkweise der IPCC-nahen Wissenschaftler zu verstehen, deren m.E. falsche Vorgehensweise bei der Sensitivitätsberechnung.

Demzufolge ist bei korrekter Berücksichtigung aller realen Bedingungen die Temperaturerhöhung bei Verdoppelung des $CO_2$-Gehalts von 280 ppm auf 560 ppm gerade mal 1/2 °C und damit weit unter den Vorgaben des Pariser Klimaabkommens.

4. Der einzige nachweisbare Effekt des CO2-Anstiegs ist die Begrünung der Erde

Während der Treibhauseffekt bislang eine theoretische Hypothese ist, die wegen ihres geringen Effekts (0.2 $\frac{W}{m^2}$ in 10 Jahren, der nur ein Bruchteil der Messfehler von Infrarot Satellitenmessungen (10 $\frac{W}{m^2}$) ist, bislang nicht zweifelsfrei nachweisbar ist, ist eine andere erfreuliche Auswirkung des gestiegenen CO2 Gehalts überdeutlich nachgewiesen: Zwischen 1982 und 2009 hat die Begrünung der Erde um 25-50% zugenommen, davon sind 70% auf die Zunahme von CO2 zurückzuführen. Insbesondere sind auch Teile der Trockengebiete der Erde grüner geworden, weil Pflanzen bei höherem $CO_2$-Gehalt einen effizienteren Wasserhaushalt haben.
Auch die Getreideernten haben in diesem Zeitraum um etwa 15% aufgrund der besseren Versorgung mit CO2 zugenommen. Fast jedes Jahr werden die Ernterekorde gebrochen.

5. Das Anwachsen der Weltmitteltemperatur der letzten 40 Jahre wurde überwiegend durch die verminderte Wolkenbildung verursacht

Eine einfache Rechnung zeigt, dass 80% des Temperaturanstiegs der letzten 40 Jahre auf den realen und meßbaren Effekt der reduzierten Wolkenreflexivität zurückzuführen sind und allenfalls 20% auf den hypothetischen und bislang nicht definitiv durch Messung nachgewiesenen CO2-Treibhaus-Effekt (http://klima-fakten.net/?p=3217).

Die Ursachen  der verminderten Wolkenbildung können in der Tat zu einem Teil menschengemacht sein, denn der grundlegende Mechanismus der Wärmeregulation durch Verdunstung durch Pflanzen und der daraus entstehenden Wolken ist abhängig von der Art und Weise, wie Menschen Landwirtschaft betreiben und die Naturlandschaft behandeln (siehe auch dieses Video)

Die wichtigsten menschengemachten Risikofaktoren sind

Für die These, dass der Klimawandel teilweise diese Ursachen hat, findet sich z.B. ein Beleg in der TAZ: https://taz.de/Wasser-und-Klimaschutz/!5774434/.
Um die durch verminderte Wolkenbildung verursachte Erwärmung aufzuhalten, nützen allerdings $CO_2$-Emissionsreduktionen nichts, und die Land verbrauchenden Maßnahmen der Energiewende sind kontraproduktiv. Eine Besinnung auf die Lösung der realen Probleme statt eines ideologischen Tunnelblickes ist überfällig.




Vorhersagen der globalen Temperatur


[latexpage]

Der traditionelle Ansatz wird in Frage gestellt

Die Schlüsselfrage zum Klimawandel ist Wie stark beeinflusst der $CO_2$-Gehalt der Atmosphäre die globale Durchschnittstemperatur? Und insbesondere, wie empfindlich reagiert die Temperatur auf Veränderungen der $CO_2$-Konzentration?
Wir untersuchen dies anhand von zwei Datensätzen, dem HadCRUT4-Datensatz zur globalen Durchschnittstemperatur und dem CMIP6-Datensatz zum $CO_2$-Gehalt.
Die Korrelation zwischen diesen Daten ist ziemlich hoch, so dass es ziemlich offensichtlich erscheint, dass ein steigender $CO_2$-Gehalt steigende Temperaturen verursacht.
Mit einem linearen Modell scheint es einfach herauszufinden, wie genau die Temperaturen im Jahr i $T_i$ durch den $CO_2$-Gehalt $C_i$ und das zufällige (Gauß’sche) Rauschen $\epsilon_i$ vorhergesagt werden. Aus theoretischen Überlegungen (Strahlungsantrieb) ist es wahrscheinlich, dass das Modell mit $log(C_i)$ am besten passt:
$T_i = a + b\cdot log(C_i) + \epsilon_i$
Die Konstanten a und b werden durch eine Anpassung mit der Methode der kleinsten Quadrate bestimmt (mit dem Python-Modul OLS aus dem Paket statsmodels.regression.linear_model):
a=-16,1, b=2,78
Daraus lässt sich die Sensitivität bestimmen, die als Temperaturdifferenz bei Verdopplung von $CO_2$ definiert ist:
$\Delta(T) = b\cdot log (2)$ °C = 1,93 °C
Das sind fast 2 °C, eine Zahl, die nahe an den offiziellen Schätzungen des IPCC liegt.

Was ist daran falsch, es scheint sehr einfach und logisch zu sein?
Wir haben das Residuum der Anpassung mit der Methode der kleinsten Quadrate noch nicht untersucht. Unser Modell besagt, dass das Residuum Gaußsches Rauschen sein muss, d.h. unkorreliert.
Der statistische Test, um dies zu messen, ist der Ljung-Box-Test. Betrachtet man das Q-Kriterium, so ist es Q = 184 mit p=0. Das bedeutet, dass der Residuum signifikante Korrelationen aufweist, es gibt strukturelle Informationen im Residuum, die mit dem vorgeschlagenen linearen Modell des log($CO_2$)-Gehalts nicht erfasst wurden. Ein Blick auf das Diagramm, das die angepasste Kurve zeigt, lässt erahnen, warum der statistische Test fehlgeschlagen ist:

Wir sehen 3 Diagramme:

  • Die gemessenen Temperaturanomalien (blau),
  • die geglätteten Temperaturanomalien (orange),
  • die Rekonstruktion der Temperaturanomalien basierend auf dem Modell (grün)

Während das Modell im Vergleich zu den verrauschten Originaldaten vernünftig aussieht, ist es aus den geglätteten Daten offensichtlich, dass es neben $CO_2$ noch andere systematische Gründe für Temperaturänderungen geben muss, die vorübergehende Temperaturrückgänge wie während 1880-1910 oder 1950-1976 verursachen. Am überraschendsten ist, dass von 1977-2000 der Temperaturanstieg deutlich größer ist, als es das Modell des $CO_2$-Anstiegs erwarten ließe.

Die systematischen Modellabweichungen, u.a. ein 60-jähriges zyklisches Muster, sind auch zu beobachten, wenn man sich die Residuen der kleinsten Quadrate Schätzung anschaut:

Erweiterung des Modells mit einer einfachen Annahme

Angesichts der Tatsache, dass die Ozeane und bis zu einem gewissen Grad auch die Biosphäre enorme Wärmespeicher sind, die Wärme aufnehmen und wieder abgeben können, erweitern wir das Temperaturmodell um einen Speicherterm der Vergangenheit. Ohne den genauen Mechanismus zu kennen, können wir auf diese Weise die „natürliche Variabilität“ in das Modell einbeziehen. Vereinfacht ausgedrückt entspricht dies der Annahme: Die Temperatur in diesem Jahr ist ähnlich wie die Temperatur des letzten Jahres. Mathematisch wird dies durch einen erweiterten autoregressiven Prozess ARX(n) modelliert, wobei angenommen wird, dass die Temperatur im Jahr i eine Summe von

  • einer linearen Funktion des Logarithmus des $CO_2$-Gehalts,log($C_i$), mit Offset a und Steigung b,
  • einer gewichteten Summe der Temperatur der Vorjahre,
  • zufälligem (Gauß’schem) Rauschen $\epsilon_i$

$ T_i = a + b\cdot log(C_i) + \sum_{k=1}^{n} c_k \cdot T_{i-k} +\epsilon_i $

Im einfachsten Fall ARX(1) erhalten wir

$ T_i = a + b\cdot log(C_i) + c_1\cdot T_{i-1} +\epsilon_i $

Mit den gegebenen Daten werden die Parameter geschätzt, wiederum mit dem Python-Modul OLS aus dem Paket statsmodels.regression.linear_model:
$a=-7.33, b=1.27, c_1=0.56 $
Die Rekonstruktion des Trainingsdatensatzes ist deutlich näher an den Originaldaten:

Das Residuum der Modellanpassung sieht nun viel mehr wie ein Zufallsprozess aus, was durch den Ljung-Box-Test mit Q=20,0 und p=0,22 bestätigt wird

Bei Berücksichtigung der natürlichen Variabilität reduziert sich die Empfindlichkeit gegenüber $CO_2$ auf
$\Delta(T) = b\cdot log (2) °C = 0,88 °C $

In einem anderen Beitrag haben wir die Abhängigkeit des atmosphärischen $CO_2$-Gehalts von den anthropogenen $CO_2$-Emissionen untersucht, und dies als Modell für Vorhersagen des zukünftigen atmosphärischen $CO_2$-Gehalts verwendet. Es werden u.a. 3 Szenarien untersucht:

  • „Business as usual“ neu definiert anhand der neuesten Emissionsdaten als Einfrieren der globalen $CO_2$-Emissionen auf das Niveau von 2019 (was auch tatsächlich geschieht)
  • 100% weltweite Dekarbonisierung bis 2050
  • 50% weltweite Dekarbonisierung bis 2100
  • 50% weltweite Dekarbonisierung bis 2050
  • sofortige 50% weltweite Dekarbonisierung (hypothetisch)

Das resultierende atmosphärische $CO_2$ wurde wie folgt berechnet, die statistischen Fehler sind so klein, dass die Prognose für die nächsten 200 Jahre sehr enge Fehlerintervalle aufweist.

Füttert man das Temperatur-ARX(1)-Modell mit diesen vorhergesagten Zeitreihen des $CO_2$-Gehalts, so sind für die Zukunft folgende globale Temperaturentwicklungen zu erwarten:

Schlussfolgerungen

Die folgenden Schlussfolgerungen werden unter der Annahme gezogen, dass es tatsächlich eine starke Abhängigkeit der globalen Temperatur vom atmosphärischen $CO_2$-Gehalt gibt. Ich bin mir bewusst, dass dies umstritten ist, und ich selbst habe an anderer Stelle argumentiert, dass die $CO_2$-Sensitivität bei nur 0,5°C liegt und dass der Einfluss der Wolkenalbedo viel größer ist als der von $CO_2$. Dennoch lohnt es sich, die Mainstream-Annahmen ernst zu nehmen und einen Blick auf das Ergebnis zu werfen.

Unter dem„business as usual“-Szenario, d.h. konstante $CO_2$-Emissionen auf dem Niveau von 2019, ist bis 2150 mit einem weiteren Temperaturanstieg um ca. 0,5°C zu rechnen. Das sind 1,4°C über dem vorindustriellen Niveau und damit unter der 1,5° C-Marke des Pariser Klimaabkommens.
Viel wahrscheinlicher und realistischer ist das Szenario „50%ige Dekarbonisierung bis 2100“ mit einem weiteren Anstieg um 0,25°C, gefolgt von einem Rückgang auf das heutige Temperaturniveau.

Die politisch propagierte „100%ige Dekarbonisierung bis 2050“, die nicht nur ohne wirtschaftlichen Zusammenbruch der meisten Industrieländer völlig undurchführbar ist, bringt uns zurück auf das kalte vorindustrielle Temperaturniveau, was nicht wünschenswert ist.




Wieviel CO2 bleibt in der Atmosphäre?


[latexpage]

Es gibt zwei Teile der Klimadiskussion:

  • Die Empfindlichkeit der Temperatur gegenüber dem atmosphärischen $CO_2$-Gehalt
  • Die Menge an $CO_2$ in der Atmosphäre

Während die $CO_2$-Sensitivität die wissenschaftliche Klimadiskussion dominiert, werden die politischen Entscheidungen von „Kohlenstoffbudget“-Kriterien auf der Basis von Zahlen dominiert, die kaum öffentlich diskutiert werden.
Es wird behauptet, dass mehr als 20 % des emittierten $CO_2$ für mehr als 1000 Jahre in der Atmosphäre verbleiben werden.

In diesem Artikel soll der Zusammenhang zwischen $CO_2$-Emissionen und dem tatsächlichen $CO_2$-Gehalt in der Atmosphäre untersucht werden.
Mit Hilfe dieses als Modell verwendbaren einfachen Zusammenhangs werden verschiedene zukünftige Emissionsszenarien und deren Auswirkung auf den atmosphärischen $CO_2$-Gehalt untersucht.

Kohlendioxid-Emissionen in der Vergangenheit

Ausgangspunkt sind die tatsächlichen $CO_2$-Emissionen während der letzten 170 Jahre:

Es ist sehr informativ, von dieser Zeitserie die (prozentualen) relativen Veränderungen y'(t)/y(t) zu betrachten (Hier mathematische Herleitung). Dies ist das Äquivalent des Wirtschaftswachstums für $CO_2$ Emissionen.

Der größte Anstieg der $CO_2$-Emissionen war zwischen 1945 und 1980, die Phase des großen Wachstums an Wohlstand und Lebensqualität v.a. in den Industrieländern, wobei der absolute Höhepunkt des weltweiten Emissions-Wachstums im Jahre 1970 überschritten wurde, interessanterweise 3 Jahre vor der ersten Ölkrise. Um die Jahrtausendwende gab es nochmal einen Anstieg der Emissionen, diesmal verursacht durch den wirtschaftlichen Aufschwung der Schwellenländer. Seit 2003 geht das Anwachsen der Emissionen stetig zurück, und hat de facto bereits die Nullinie unterschritten, d.h. ab sofort werden die Emissionen voraussichtlich nicht mehr anwachsen, trotz des Wachstums in China, Indien und anderen Schwellen- und Entwicklungsländern.
Dies wird überzeugend dargestellt in der Zeitserien-Graphik des Global Carbon Projekts:

Quelle: Global Carbon Project (Time Series)

Der langjährige Rückgang der Emissionen in den Industrieländern hält sich aktuell die Waage mit dem seit 2010 verlangsamten Anstieg in den Schwellenländern China und Indien.
Demzufolge ist es realistisch und legitim, einen ab 2019 konstanten $CO_2$-Ausstoß als „business as usual“ zu bezeichnen (2020 war ein Covid-19 bedingter Emissions-Rückgang). Nach den neuesten Zahlen (2021) Zahlen des Global Carbon Projects sind bereits seit 2010 die Gesamtemissionen, die den Land-Flächenverbrauch beinhalten, nicht mehr angestiegen:

Image

Prognose des CO2-Gehalts der Atmosphäre mit simplen Emissions-Modellen

Es wird angenommen, dass vor 1850 das $CO_2$-Niveau annähernd konstant war und dass der gemessene $CO_2$-Gehalt die Summe aus dem vorindustriellen konstanten Niveau und einer Funktion der $CO_2$-Emissionen ist.

Drei verschiedene Modelle werden getestet – diese Modelle haben nicht den Anspruch, die Physik abzubilden, sie liefern einen möglichen funktionalen Zusammenhang zwischen $CO_2$-Emissionen und atmosphärischem $CO_2$-Gehalt, der für Prognosen geeignet ist.:

  • Das erste Modell geht davon aus, dass alle $CO_2$-Emissionen für immer in der Atmosphäre bleiben. Das bedeutet, dass der zusätzliche – über das vorindustrielle Niveau hinausgehende – $CO_2$-Gehalt die kumulative Summe aller $CO_2$-Emissionen wäre.
  • Das zweite Modell geht von einem exponentiellen Zerfall des emittierten $CO_2$ in die Ozeane bzw. die Biosphäre mit einer Halbwertszeit von 70 Jahren aus, d.h. die Hälfte des zusätzlich emittierten $CO_2$ ist nach 70 Jahren absorbiert. Dies wird durch eine Faltung mit einem exponentiellen Zerfallskern und einer Zeitkonstante $70/ln(2) \approx 100 $ Jahre erreicht
  • Das dritte Modell geht von einem exponentiellen Zerfall des emittierten $CO_2$ in die Ozeane bzw. Biosphäre mit einer Halbwertszeit von 35 Jahren aus, d.h. die Hälfte des emittierten $CO_2$ ist nach 35 Jahren absorbiert. Dies wird durch eine Faltung mit einem exponentiellen Zerfallskern und einer Zeitkonstante $35/ln(2) \approx 50 $Jahre erreicht.

Um die Zahlen vergleichbar zu machen, müssen die Emissionen, die in Gt gemessen werden, in ppm umgerechnet werden. Dies geschieht mit der Äquivalenz von 3210 Gt $CO_2$ = 410 ppm ( Gesamtmasse des $CO_2$ in der Atmosphäre und Anteil im Jahr 2015 )

Die gelbe Kurve sind die gemessenen tatsächlichen Emissionen aus dem obigen Diagramm, und die blaue Kurve ist der gemessene tatsächliche $CO_2$-Gehalt.

Das erste „kumulative“ Modell approximiert den gemessenen $CO_2$-Gehalt von 1850 bis 1910 recht gut, überschätzt aber den $CO_2$-Gehalt nach 1950 stark. Dies falsifiziert die Hypothese, dass $CO_2$ für „Tausende von Jahren“ in der Atmosphäre bleibt.
Auch das zweite Modell mit einer Halbwertszeit von 70 Jahren des emittierten $CO_2$ überschießt nach 1950 erheblich, es approximiert die Zeit zwischen 1925 und 1945. Das dritte Modell mit einer Halbwertszeit der Emissionen von 35 Jahren passt sehr gut zum tatsächlichen $CO_2$-Gehalt von 1975 bis heute.

Dies bestätigt, was erst kürzlich in Nature veröffentlicht wurde, dass die Rate der $CO_2$-Absorption in die Ozeane mit steigendem atmosphärischen $CO_2$-Gehalt zunimmt. Physikalisch ist das insofern plausibel, weil der mit wachsender Konzentration steigende atmosphärische Partialdruck des $CO_2$ eine wachsende Absorption nahelegt. Dass die Absorption höher ist als nach den bisherigen Modellen, liegt daran dass in der für den Gasaustausch relevanten dünnen Oberflächen-Grenzschicht durch die Verdunstungskälte des Wasserdampfs die Oberflächen-Temperatur niedriger ist als bisher angenommen.

figure2
Source: https://www.nature.com/articles/s41467-020-18203-3

Ein Abflachen des Effekts, etwa aufgrund von Sättigung des $CO_2$-Gehalts im Meer, ist nicht zu erkennen. Im Gegenteil, der Effekt wird in den letzten Jahren größer.
Der gleiche Zusammenhang, insbesondere die zunehmende „Kohlenstoffsenke“ von Ozeanen und Biosphäre, wird vom Global Carbon Project in dieser Grafik gezeigt:

Co2 Quellen Senken

Obwohl für die Zukunft ein weiterer Anstieg des $CO_2$-Flusses in den Ozean zu erwarten ist, können wir daher das dritte Modell mit einer Halbwertszeit von 35 Jahren für konservative, d.h. nicht optimistische Vorhersagen verwenden.

Zukunftsszenarien

Um politische Entscheidungen zu bewerten, werde ich dieses Modell anwenden, um den zukünftigen $CO_2$-Gehalt mit 3 verschiedenen Szenarien vorherzusagen:

  • Das erste Szenario (rot) möchte ich als „Business-as-usual“-Szenario bezeichnen, in dem Sinne, dass China sich verpflichtet hat, den Anstieg der $CO_2$-Emissionen nach 2030 zu stoppen. Bereits jetzt steigen die weltweiten $CO_2$-Emissionen nicht mehr an, und die Industrieländer haben alle fallende Emissionen. Dieses Szenario nimmt an, dass die globalen Emissionen auf dem aktuellen Maximalwert von 37 Gt/a bleiben. Gesamtbudget bis 2100: 2997 Gt $CO_2$, danach 37 Gt/Jahr
  • Das zweite Szenario (grün) ist die weithin proklamierte Dekarbonisierung bis 2050.
    Dabei wird verschwiegen, dass ein weltweiter vollständiger Ersatz existierender fossiler Energiequellen die tägliche Neuinstallation des Äquivalents eines größeren Kernkraftwerks mit je 1,5 GW Leistung erfordern würde.
    Gesamtbudget bis 2100: 555 Gt $CO_2$, danach 0 Gt/Jahr.
  • Das dritte Szenario (blau) ist ein realistischer Plan, der die Emissionen bis 2100 auf 50% reduziert, also etwa dem Wert von 1990. Dieses Szenario spiegelt die Tatsachen wider, dass fossile Brennstoffe endlich sind und dass Forschung und Entwicklung neuer zuverlässiger Technologien Zeit brauchen.
    Gesamtbudget bis 2100: 2248 Gt $CO_2$, danach 18,5 Gt/Jahr

Die Konsequenzen für den $CO_2$-Inhalt sind folgende:

  • Das erste Szenario (rot) erhöht den $CO_2$-Gehalt, aber nicht über 510ppm in der fernen Zukunft hinaus, was weniger als eine Verdopplung gegenüber der vorindustriellen Zeit bedeutet. Je nach Sensitivität (0,5°…2°) bedeutet dies einen hypothetischen Temperaturanstieg von 0,1° bis 0,6° gegenüber den heutigen Temperaturen, bzw. 0,4° bis 1,4° seit der vorindustriellen Zeit. In jedem Fall unter dem optimistischen Ziel von 1,5° des Pariser Klimaabkommens.
  • Das zweite Szenario — weltweit schnelle Dekarbonisierung — (grün) erhöht den $CO_2$-Gehalt kaum noch und reduziert den atmosphärischen $CO_2$-Gehalt schließlich auf vorindustrielles Niveau.
    Wollen wir das wirklich? Das würde einen Nahrungsentzug für alle Pflanzen bedeuten, die am besten bei $CO_2$-Werten größer als 400 ppm gedeihen. Nicht einmal der Weltklimarat (IPCC) hat eine solche Reduzierung jemals als Ziel formuliert.
  • Das realistische Reduktions-Szenario (blau) hebt die $CO_2$-Werte die nächsten 50 Jahre leicht an, hält sie aber unter 455 ppm und senkt sie nach 2055 dann allmählich auf das Niveau von 1990.

Schlussfolgerungen

Nicht einmal das pessimistischste der oben beschriebenen Szenarien erreicht auch nur annähernd einen „katastrophalen“ $CO_2$-Gehalt in der Atmosphäre.
Das Szenario der vollständigen Dekarbonisierung bis 2050 kann nur als völliger Unsinn bewertet werden. Abgesehen von der Unmöglichkeit, bis dahin täglich eine Energiequelle mit dem Äquivalent eines größeren Kernkraftwerks zu installieren, kann sich niemand wünschen, auf das vorindustrielle $CO_2$-Niveau zurückzugehen. Eine einseitige Dekarbonisierung von Deutschland oder Europa hat ohnehin so gut wie keinen Effekt auf den weltweiten $CO_2$ Gehalt.
Auf der anderen Seite motivieren die begrenzten fossilen Ressourcen dazu, sie auf eine machbare und menschenwürdige Weise zu ersetzen. Dies spiegelt sich im „Kompromiss“-Szenario wider, das die langfristigen weltweiten Emissionen bis zum Ende des Jahrhunderts schrittweise auf das Niveau des Jahres 1990 reduziert.

Allen, die sich darüber Sorgen machen, durch die Aufnahme des $CO_2$ aus der Atmosphäre würden die Ozeane „versauern“, sei gesagt, dass die gesamte Menge des $CO_2$ in der Atmosphäre gerade mal 2% dessen sind, was in den Ozeanen gelöst ist. Davon gelangt nur ein Teil in die Ozeane. Auch wenn die Vorgänge sehr komplex sind, kann davon ausgegangen werden dass die Veränderung des $CO_2$-Gehalts in die Ozeanen für alle oben genannten Szenarien vernachlässigt werden kann. Dazu kommt, dass etwa die Hälfte des zusätzlichen atmosphärigen $CO_2$ in Form der $CO_2$-Düngung der Biosphäre, insbesondere Begrünung und Humusbildung, zugute kommt.

Die Frage, welche Auswirkungen diese Szenarien auf die Entwicklung der globalen Durchschnittstemperatur haben werden, wird in diesem Beitrag behandelt.

Eine mathematisch formalisierte saubere Herleitung der beschriebenen Zusammenhänge mit ähnlichen Ergebnissen ist hier beschrieben.




Temperatur-Manipulationen?

Eine aussagekräftige Datenanalyse hängt entscheidend von der Verfügbarkeit zuverlässiger Daten ab. Historisch gesehen ist es von größter Bedeutung, möglichst genaue Temperaturdaten zu haben, da diese einer der wesentlichen Prädiktoren für das zu erwartende Wetter sind. Auch die Langzeitbeobachtung von Klima und Klimatrends erfordert Temperaturdaten von höchster Qualität.

Was wäre, wenn Menschen und Institutionen anfangen würden, solche Daten zu verfälschen, weil die Daten, wie sie tatsächlich sind, nicht zu einer bestimmten politischen Agenda passen? Das würde – zumindest teilweise – die Schlussfolgerungen, die wir aus diesen Messungen ziehen, ungültig machen.

Leider sind genau solche vorsätzlichen Manipulationen von Temperaturdaten tatsächlich passiert. Einer der Meilensteine der Ereignisse ist eine Publikation von James Hansen „GISS analysis of surface temperature change“. In diesem Beitrag beschreibt Hansen eine Reihe von anscheinend notwendigen Anpassungen, die – in angeblich seltenen Fällen – an den Temperaturdaten vorgenommen werden müssen, um die Mittelung der Temperaturanomalien konsistent zu machen:

  • Die häufigste Anpassung ist die Korrektur für den städtischen Wärmeinseleffekt. Dieser ist typischerweise eine Folge des städtischen Wachstums: Früher befand sich das Thermometer außerhalb einer Stadt in einer grünen Umgebung, mit dem Wachstum der Stadt ist es nun von Häusern umgeben und unterliegt dem städtischen Wärmeeffekt, der die Temperatur ansteigen lässt. Um dies mit der vorherigen Messung in Einklang zu bringen, werden entweder die vergangenen Temperaturen angehoben oder die zukünftigen Temperaturen abgesenkt. In der Regel ist es einfacher, die vergangene Temperatur anzupassen, indem man so tut, als wäre die Stadt immer so groß gewesen wie heute. Es ist fraglich, ob eine solche Anpassung gerechtfertigt ist, oder ob es nicht klüger wäre, den städtischen Wärmeeffekt stehen zu lassen und explizit zu verfolgen und dafür geschichtliche Tatsachen anzuerkennen, indem die tatsächlichen Messungen der Vergangenheit nicht verändert werden. Tatsache ist, dass eine Veränderung der vergangenen Temperaturen auch die damalige globale Mitteltemperatur verändert, was unter keinen Umständen gerechtfertigt ist.
  • Eine zweite – eher verständliche – Situation zur Anpassung von Temperaturdaten tritt auf, wenn ein Thermometerstandort in eine größere oder geringere Höhe verlegt wird. Z.B. bei einer Höhenveränderung von 160m nach unten würde dies einer Temperaturerhöhung der bisherigen Daten um 1° C entsprechen, bei einem von Hansen angenommenen adiabatischen Temperaturgradienten von -6°/km . Physikalisch bedeutet dies die Invarianz der Potentialtemperatur, wenn der Energiegehalt des Gesamtsystems nicht verändert wird. Meinem Verständnis nach ist das die einzige legitime Anpassung nach Temperaturmessungen, weil sie den ursprünglichen wahren Messwert nicht verändert, sondern ihn lediglich auf einen anderen Ort abbildet, an dem vorher nicht gemessen wurde. Besser wäre allerdings eine zeitliche Abgrenzung der Thermometer-Gültigkeit ohne eine explizite Anpassung, wie es in anderen Gebieten der Datenverarbeitung selbstverständlich ist.
    Die Transformation und Interpolation der Daten wäre dann ggf. bei der Auswertung durchzuführen. Dort findet ohnehin eine Interpretation der Daten statt, die bei seriösen Publikationen eine nachvollziehbare Rechtfertigung jedes Verarbeitungsschrittes beinhaltet.

Beide diese Anpassungen wurden in Hansens Arbeit erwähnt und begründet. Anzumerken ist, dass der dominante Fall der städtischen Wärmeinseln zu einem Anstieg der vergangenen Temperaturen oder zu einem Rückgang der aktuellen und zukünftigen Temperaturen führen muss (wenn man von dem in Zeiten starken Bevölkerungswachstums sehr seltenen Fall absieht, dass eine Stadt verlassen wird und vollständig verfällt).

Die Zeitreihen der US-Mitteltemperaturen hat Hansen auf S. 47 seines Papiers veröffentlicht (unten links auf der Seite):

Es ist deutlich zu erkennen, dass die 3 höchsten Temperaturen im 20. Jahrhundert in den Jahren 1934, 1921 und 1931 lagen. Auch der gleitende Durchschnitt hat seinen Höhepunkt eindeutig in den frühen 1930er Jahren, und einen Abwärtstrend von den 30er Jahren bis zum Ende des Jahrhunderts.

Wenn wir uns die heutigen Temperaturdaten ansehen, die online von NOAA verfügbar sind, sind wir überrascht, dies zu sehen:

Wenn man sich das Diagramm genau ansieht, kann man beobachten, dass die Temperatur von 1998 jetzt größer ist als die zuvor größte Temperatur von 1934, eine Erhöhung um fast ein halbes Grad Celsius! Eine Reihe der späteren Temperaturen des 20. Jahrhunderts wurden ebenfalls erhöht, während die früheren Daten des 20. Jahrhunderts reduziert wurden. Das ist genau das Gegenteil von dem, was man von einer Korrektur des städtischen Wärmeinsel-Effekts erwarten würde.

Durch ein Video von Tony Heller bin ich auf diese Problematik, die nach meinem Verständnis nur als vorsätzliche Manipulation gedeutet werden kann, aufmerksam geworden.

Detailierte Datenanalyse von Prof. Friedrich Ewert

Dass die Temperaturdaten der NASA/NOAA manipuliert wurden, hat Prof. Friedrich Ewert in einer langwierigen Analyse nachgewiesen. Demnach sind viele Temperaturdaten von vor 2010 nach dem Jahre 2012 verändert. Mit den heutigen Datensätzen sind die Originaldaten von vor 2010 nicht mehr zu finden. Prof. Ewert konnte die Vergleiche anstellen, weil er die früheren Datensätze rechtzeitig archiviert hatte.

Die Manipulationen beziehen sich nicht nur auf US-Temperaturdaten, sondern auch auf Daten anderer Länder. Für die 120 zufällig ausgewählten Stationen erfasste Ewert die zehntausenden von Einzeldaten, die die NASA für jedes Jahr vor und nach 2010 angibt. Würde man seine Daten ausdrucken, ergäbe sich eine 6 Meter lange Liste. Es ist zu erkennen, dass zehn verschiedene Methoden verwendet wurden, um einen Trend zur Klimaerwärmung zu erzeugen. Sie sind alle in der Studie mit Beispielen dokumentiert. 6 der 10 Beispiele wurden am häufigsten angewendet (Prof Ewert unterteilt den gesamten Zeitraum in aufeinanderfolgende Warm- und Abkühlungsphasen):

  • Eine Absenkung der Jahresmittelwerte in der Anfangsphase.
  • Eine Verringerung einzelner höherer Werte in der ersten Warmphase.
  • Eine Erhöhung einzelner Werte in der zweiten Warmphase.
  • Eine Unterdrückung der zweiten Abkühlungsphase ab etwa 1995.
  • Eine Verkürzung der Datenreihen um die früheren Jahrzehnte.
  • Bei Langzeitreihen wurden die Datenreihen sogar um die frühen Jahrhunderte verkürzt.

Die Climategate Emails

Die durchgesickerten „Climategate Emails“, die 2009 öffentlich wurden, liefern weitere Beweise dafür, dass die absichtliche Manipulation von Temperaturdaten keine Verschwörungstheorie, sondern eine echte Verschwörung zwischen mehreren Institutionen und Personen zumindest aus den USA und Großbritannien war, sorgfältig untersucht von Stephen McIntyre und Ross McKitrick, die bereits 2009 in ihrem Paper „Proxy inconsistency and other problems in millennial paleoclimate reconstructions“ die Täuschung des „Hockeysticks“ von Michael Mann entlarvten und aufdeckten.

Das berühmteste Beispiel für die absichtliche Temperaturmanipulation wurde von Phil Jones vom britischen Met Office in einer E-Mail an Michael Mann und Keith Briffa geäußert:

„Ich habe gerade Mikes Trick aus Nature angewandt, indem ich die realen Temperaturen zu jeder Reihe für die letzten 20 Jahre (d.h. ab 1981) und ab 1961 für die von Keith hinzugezählt habe, um den Rückgang zu verbergen.“

Hier das Diagramm aus dem zitierten Dossier von Stephen McIntyre und Ross McKitrick:

Absenkung der Temperatur von 2016

2016 war ein sehr heißes Jahr, und bislang das im globalen Durchschnitt das heißeste Jahr der jüngeren Vergangenheit. Die darauf folgenden Jahre waren deutlich kühler. Das Jahr 2020 war dann im globalen Durchschnitt fast so heiß wie das Jahr 2016. Um eines neuen Superlatives willen änderte die NASA im Nachhinein die Temperatur von 2016, damit der Trend zu immer neuen Hitzerekorden aufrecht erhalten werden konnte:




Die Kohlendioxid-Bilanz der photovoltaischen Energiegewinnung


[Latexpage/]

Solarenergie gilt als $CO_2$ emissionsfrei, die wahre Lösung für den Wunsch nach einer kohlenstofffreien Energieversorgung. Dies lenkt den Fokus der Aufmerksamkeit auf das „aktive“ Leben der PV-Stromerzeugung, die scheinbar „kostenlose“ Energie, ohne Kosten und frei von $CO_2$, produziert.

Dieser Fokus ändert sich, wenn man tatsächlich plant, eine photovoltaische Versorgung z.B. für ein Privathaus zu installieren. Dies erfordert eine ganze Reihe von kostspieligen Komponenten:

  • Die Solarpaneele und (dicke Hochstrom-)Kabel
  • das Wechselrichtermodul,
  • Backup-Batterien, um zumindest die Tag/Nacht-Schwankungen zu überbrücken

Insbesondere die Solarmodule und Li-Ionen-Batterien benötigen zur Herstellung viel Energie und andere kritische Ressourcen. Da sie aufgrund der geringen solaren Energiedichte, des niedrigen Wirkungsgrades der Photovoltaik und der Unbeständigkeit des Sonnenlichts in großer Menge benötigt werden, müssen für eine vollständige Berechnung des Energiehaushalts und der CO2-Bilanz die Beiträge für deren Herstellung berücksichtigt werden.

Häufig werden Effizienzberechnungen und Energiebilanzen erstellt, die das Vorhandensein einer auf fossilen Brennstoffen beruhenden Infrastruktur voraussetzen. Dies ist z.B. die implizite Voraussetzung der deutschen „Energiewende“ mit ihrem Einspeise-Konzept. Die Probleme der Volatilität solarer Energieerzeugung werden hauptsächlich auf die sorgfältig abgestufte Regelungstechnik konventionellen Kraftwerke abgewälzt, um diese dann für die „Verstopfung der Netze“ verantwortlich zu machen. Wir untersuchen hier den vollständigen Kohlendioxid-Fußabdruck eines Systems, das nicht von fossilen Brennstoffen abhängig ist.

Im Jahr 2013 hat Mariska de Wild-Scholten in der Veröffentlichung „Energy payback time and carbon footprint of commercial photovoltaic systems“ den Kohlendioxid-Fußabdruck der Produktion von Solar-Paneelen untersucht. Diese wird als Ausgangspunkt für die vorliegende Analyse verwendet. Diese Arbeit erscheint mir zuverlässiger als die offiziellen Verlautbarungen des Deutschen Umweltbundesamtes, wonach die effektive $CO_2$-Emission bei solar erzeugter Energie bei nur 67 g/kWh liege.

Die Annahmen ihrer Berechnungen erscheinen fair und realistisch. Zwei davon möchte ich genauer betrachten:

  • Energieertrag wird mit 1275 kWh/a pro installierter $kW_p$ Modulleistung angenommen,
  • Lebensdauer wird mit 30 Jahren angenommen

Nimmt man den real erbrachten Energieertrag in Deutschland, basierend auf der offiziellen Statistik des Fraunhofer-Instituts, so beträgt die gesamte produzierte volatile Energie 2020 aus $54 GW_p$ installierten Solarmodulen $50 TWh$, was einer durchschnittlichen realen Leistung von
$926 kWh/a \approx 2.5 kWh/d \approx 106 W$
für jedes installierte $kW_p$ Modul entspricht. Vereinfacht gesagt von 1 kW installierter Leistung bekommt man im Durchschnitt 106 W heraus, das sind 2,5 kWh am Tag oder 926 kWh im Jahr. In de Wild-Scholten’s Publikation wird explizt angenommen, dass die Berechnungen für modellierte Bedingungen in Südeuropa gültig sind, also ist es keine absichtliche Übertreibung, aber ihre Zahlen entsprechen nicht den in Deutschland tatsächlich gemessenen Werten.

Die Annahme einer Lebensdauer von 30 Jahren ist ebenfalls sehr optimistisch. Wenn man berücksichtigt, dass es zu Schäden an den Modulen durch Gewitter, Hagelschlag oder Defekte in den Solarzellen kommen kann, ist es realistischer, die garantierte Produktlebensdauer von typischerweise 25 Jahre anzunehmen.

Die meisten der aktuell in Deutschland installierten PV-Module werden in China produziert, so dass hinsichtlich der $CO_2$-Emissionen die Basiszahl für den $CO_2$ Fußabdruck

$ CF_{base}=80 \frac{g CO_2}{kWh} $

beträgt. Unter Berücksichtigung der realen Solarenergielieferung und der realistischeren, versicherungstechnisch garantierten Lebenserwartung von 25 Jahren beträgt der reale PV Kohlendioxid Fußabdruck für Mitteleuropa, repräsentiert durch die Statistik von Deutschland

$ CF_{Deutschland} = 80\cdot \frac{1275}{926}\cdot\frac{30}{25} \frac{g CO_2}{kWh} = 132 \frac{g CO_2}{kWh}$,
also etwa doppelt so viel wie die „schöngerechnete“ Zahl des Deutschen Umweltbundesamtes.

Weiterhin muss in der Bilanz noch die nicht genutze Energie berücksichtigt werden. Dies hängt von vielen Bedingungen ab, v.a. von der verwendeten Speichergröße. Ohne Speicherung oder Einspeisung kann davon ausgegangen werden, dass im Schnitt nicht mehr als die Hälfte des gelieferten Stromes genutzt wird, was den $CO_2$ Fußabdruck effektiv verdoppelt.

Betrachtung mit Kurzzeitspeicherung

Durch den volatilen Charakter der Solarenergie ist die durchschnittliche Energiemenge eine unvollständige Sichtweise, wenn das Ziel eine Energieerzeugung ohne fossile Brennstoffe ist. Die erste Art der Volatilität ist der Tag/Nacht-Zyklus und kurzfristige Wetterschwankungen. Diese Art der Volatilität kann mit einem Batteriespeicher für 1-7 Tage abgedeckt werden. Ein einigermaßen sicherer Wert ist ein Speicher, der einem Energieverbrauch von 3,5 Tagen entspricht, was ca. 7 Tage abdeckt, wenn man annimmt, dass die Hälfte des Verbrauchs während der – solaraktiven – Tageszeit stattfindet. Mit diesem Szenario stehen die Chancen gut, fast die gesamte Zeitspanne von März bis Oktober abzudecken. Das ist mehr Batterie-Kapazität, als derzeit in Deutschland typischerweise gekauft oder gefördert wird, aber die politische Förderung von Speichern steht erst am Anfang. Die in USA häufigeren vollständig autarken „Insel“-Anlagen haben eher noch größere Speicher. Daher kann als Faustregel eine Batteriekapazität von 1% des jährlichen Durchschnitt-Energieertrages angenommen werden, um mit Ausnahme der 3-4 Wintermonate den größten Teil der benötigten Energie bereitzustellen. Dies wird durch praktische Erfahrungen belegt. Für jedes installierte Modul mit 1 $kW_P$ beträgt die erforderliche Kapazität C
$ C = 926 \cdot 0,01 kWh \approx 9 kWh $

Der Kohlenstoff-Fußabdruck für die Herstellung von Li-Ionen-Batterien beträgt ca. 75 kg pro kWh Speicherkapazität und die garantierte Lebensdauer beträgt 10 Jahre, obwohl es – nicht garantierte – Angaben von 20 Jahren Lebensdauer gibt. Um konservativ zu schätzen, gehen wir von 10 Jahren Lebensdauer aus, zumal die Kapazität nicht zu 100% genutzt werden kann. Will man die Lebensdauer verlängern, muß man große Kapazitätseinbußen (30-50%) in Kauf nehmen. Die Berechnungen können bei künftigen neuen Akku-Entwicklungen ggf. für 15 oder 20 Jahre angepasst werden. Daher wird der Fußabdruck für die Speicherung pro installiertem 1 $kW_P$ Modul auf die Gesamtenergieproduktion von 10 Jahren verteilt:
$CF_{Batterie}= \frac{75 kg \cdot 9}{10*925 kWh} \approx 73 \frac{g}{kWh} $

Bei dieser Berechnung wurde davon ausgegangen, dass man die in der Batterie gespeicherte Leistung zu 100% wieder herausbekommt. Das ist aber nicht der Fall. Die Batteriehersteller geben zwar einen Wert von über 90% an. Dieser gilt aber nur für neue Batterien im Kurzzeitbetrieb. Bei mehrtägiger Speicherung müssen die Leckströme mit in Betracht gezogen werden und nach vielen Lade-Entlade-Zyklen sinkt die Lade-Kapazität. Eine Langzeitstudie in Californien ergab eine langjährigen Mittelwert von nur 60% wiedergewinnbarer batteriegespeicherter Energie (RTE = „round trip efficiency“). Demnach ist der über mehrere Jahre ermittelte $CO_2$ Fußabdruck der Li-Ionen Akkus

$CF_{Batterie}= \frac{100}{60}\cdot 73 \frac{g}{kWh} \approx 122 \frac{g}{kWh} $

Die Standard-Solar-installation für Privathaushalte, die im Wesentlichen die Stromversorgung über 8 Monate von März bis Oktober abdeckt, bedeutet demnach einen mittleren Kohlendioxidausstoß von $254 \frac{g}{kWh}$, ziemlich viel für eine als „$CO_2$-frei propagierte Technologie.

Langzeitspeicherung – über den Winter

Es gibt verschiedene Möglichkeiten, den Einfluss der saisonalen Schwankungen abzuschätzen, d.h. dass im Winter kaum nutzbare Sonneneinstrahlung vorhanden ist, während im Sommer ein Peak auftritt. Unter der Annahme, dass die jährliche Gesamtsolarenergieerzeugung dem jährlichen Gesamtverbrauch entspricht, ist es offensichtlich, dass die saisonale Volatilität, die zum Defizit im Winter führt, einen Überschuss in den Sommermonaten bedeutet.

Nach der Analyse von Prof. Hans-Werner Sinn ist das Hauptproblem der Speicherung nicht die Kurzzeitspeicherung, sondern die Langzeitspeicherung. Löst man das Problem allein mit Solarenergie, müssen wir mindestens 3 Monate zusätzlich speichern, da zwischen Mitte November und Mitte Februar kaum Solarenergie vorhanden ist. Es besteht Einigkeit darüber, dass die saisonale Speicherung mit Li-Ionen-Batterien nicht möglich ist, weder preislich noch aus Sicht der CO2-Bilanz.

Lokale langfristige Lösung – nur mit Solarenergie

Der derzeit favorisierte Ansatz zur Langzeitspeicherung ist das sogenannte Power-to-Gas-Konzept: Die überschüssige elektrische Energie im Sommer wird durch Elektrolyse in Wasserstoff umgewandelt. Da Wasserstoff schwierig zu speichern und zu handhaben ist, wird angenommen, dass er zu Methan weiterverarbeitet wird (für die Alternativen Ammoniak oder Methanol gelten ähnliche Überlegungen, ein reines Wasserstoff-Konzept wird hier mit etwas anderem Fokus durchgerechnet) Dieses ist im wesentlichen identisch mit Erdgas und kann leicht gespeichert werden (z.B. in flüssiger Form als LNG) und in einem Gaskraftwerk wieder zu elektrischem Strom umgewandelt werden. Dies kann auf der lokalen Ebene der Gemeinde, der Stadt oder des Landkreises geschehen, wo sowohl der Elektrolyseur als auch die Gaskraftwerke betrieben werden. Damit können u.U. teure Überland-Leitungen eingespart werden.
Das Problem dieses Konzepts ist, dass der effektive Wirkungsgrad der Speicherung nur 25% beträgt. Um 1 kWh in einem Wintermonat zu erhalten, muss man während des restlichen Jahres 4 kWh investieren. Betrachtet man also die Wintermonate, dann sind diese beim solaren Power-to-Gas (P2G) Verfahren mit dem 4-fachen Kohlendioxid-Fußabdruck belastet, also $4\cdot 132 \frac{g}{kWh} = 528 \frac{g}{kWh}$. Das ist in etwa derselbe Wert wie der eines normalen Gaskraftwerks (436-549 $\frac{g}{kWh}$, siehe auch hier ) . Demnach ist es für die $CO_2$ Bilanz unerheblich, ob der im Winter notwendige Strom aus fossilem Erdgas oder über solar-betriebenes Power-to-Gas Verfahren erzeugt wird. Der Preis des mit Power-to-Gas erzeugten Methans ist allerdings etwa der 10 fache des fossilen Erdgases.

Wenn es gelingt, Wasserstoff ohne extrem hohen Druck oder extreme Kälte direkt zu speichern, dann läßt sich der Wirkungsgrad der Speicherung auf 50% erhöhen, mit der Folge eines $CO_2$-Fußabdrucks von mindestens 264 $\frac{g}{kWh}$.
Die Speicherung des Wasserstoffs in flüssiger Form benötigt für die Verflüssigung von Wasserstoff etwa 4,94 kWh/kg – bei einem Heizwert/Brennwert von 33/39 kWh/kg – geht also etwa 1/7 der nutzbaren Energie verloren, mit der Folge eines $CO_2$-Fußabdrucks von
$264\cdot\frac{7}{6} \frac{g}{kWh} \approx 300 \frac{g}{kWh}$

Langfristige Lösung im großen Maßstab – einschließlich Windenergie

In seiner Analyse hat Prof. Sinn berücksichtigt, dass nicht nur die Solarenergie, sondern auch die Windenergie „regenerativ“ ist, und dass die Verfügbarkeit von Wind teilweise komplementär zur Solarenergie ist. Das Ergebnis seiner Berechnungen war, dass der gesamte Speicherbedarf zur Glättung der saisonalen Volatilität (im Wesentlichen das Problem des Winters) 11 TWh betragen würde, basierend auf dem gesamten Stromverbrauch im Jahr 2014 von 163 TWh, was etwa 6,7 % des gesamten Stromverbrauchs entspricht. Aufgrund der jährlichen Schwankungen sind mit einer Sicherheitsreserve mindestens 7 bis 7,5 % Speicherkapazität erforderlich, sofern man auf einer 100%igen Versorgung ohne fossile Brennstoffe besteht. Gleichzeitig muss das Speichersystem in der Lage sein, sehr hohe Leistungen, im Extremfall einer Dunkelflaute die komplette Netzleistung abzugeben.

1-s2.0-S0014292117300995-gr5_lrg.jpg (1500×1597)
H.-W.Sinn: Saisonale Speicherung der Solar/Wind-Volatilität

Das würde einen minimalen langfristigen Energiekostenfaktor für einen saisonalen Power-to-Gas-Speicher von
$ \frac{93.3}{100}+\frac{4*6.7}{100} \approx 1.2 $
bedeuten und einen gesamten Kohlenstoff-Fußabdruck von
$ CF_{Gesamt} = 132*1.2 + 73 \frac{g}{kWh} = 231 \frac{g}{kWh} $

Der Kohlenstoff-Fußabdruck der Windenergie-Erzeugung wird hier nicht explizit behandelt, d.h. es wird implizit angenommen, dass er etwa derselbe ist wie bei der Solar-PV-Erzeugung. Für die ursprüngliche Fragestellung der privaten Haushaltsstromversorgung spielt sie eine untergeordnete Rolle, sie ist nur als regenerativer Netz-Teilanbieter im Winter relevant.

Jedenfalls ist der $CO_2$ Fußabdruck von der langfristig angestrebten 0 weit entfernt.

Konsequenzen für Elektrofahrzeuge

Nach dem derzeitigen politischen Verständnis in der EU gelten Elektrofahrzeuge per Definition als klimaneutral. Es gibt jedoch ernste Diskussionen über den wahren Kohlenstoff-Fußabdruck von E-Fahrzeugen im Vergleich zu z.B. Dieselautos, die aus einer Studie von Prof. Hans-Werner Sinn et al. hervorgehen. Ihre Analyse, die besagt, dass der Kohlenstoff-Fußabdruck höher ist als der eines vergleichbaren Dieselautos, basiert auf dem aktuellen Strommix des deutschen Netzes. Basierend auf ihren Quellen beträgt der Kohlendioxid Fußabdruck einer 75 kWh Autobatterie mindestens 73 $\frac{g CO_2}{km}$, möglicherweise bis zu 98 $\frac{g CO_2}{km}$.
Wenn $CO_2$ ein aktives Treibhausgas ist, kümmert es sich nicht um ein politisches Tabu.

Der Verbrauch wird realistischerweise mit 15 kWh pro 100 km angesetzt. Daher ist der Kohlenstoff-Fußabdruck des batterie- und solargestützten Verbrauchs (dies vernachlässigt den Kohlendioxid-Fußabdruck zum Bau des Autos) optimal
$CF_{EV} = (73 + \frac{15\cdot 231}{100})\frac{g CO_2}{km} = 108 \frac{g CO_2}{km} $

Dies liegt deutlich über dem EU-Grenzwert für 2020 von 95 $\frac{g CO_2}{km}$ und mehr als 50 % über dem Grenzwert für 2025 von 70 $\frac{g CO_2}{km}$.

Warum wird in der Politik und bei den Behörden mit zweierlei Maß gemessen? Für die Natur ist es unerheblich, auf welchem Wege das $CO_2$ in die Atmosphäre gelangt. Politisch ist es ehrlicher, mit einem Benzin- oder Diesel-Fahrzeug das $CO_2$ in den eigenen Luftraum zu lassen, als durch $CO_2$-Kolonialismus die eigene Luft vermeintlich „sauber“ zu halten, aber durch die Produktion der notwendigen Komponenten den Ausstoß nach China oder anderen „Billigländern“ zu verlagern.




Wie nachhaltig ist die Energiewende?


[latexpage]

Um die einzelnen Komponenten der Energiewende zu bewerten, ist es notwendig, zunächst eine Definition der Ziele dieser Energiewende zu betrachten. Nur das gibt uns eine Referenz, anhand derer wir die einzelnen Maßnahmen bewerten können.
Das wesentliche Schlagwort ist die „Nachhaltigkeit“. Zum ersten Mal tauchte der Begriff „Nachhaltigkeit“ in der Forstwirtschaft auf. Das war im Jahr 1713. Heute steht Nachhaltigkeit für viel mehr. Ökologische, soziale und ökonomische Nachhaltigkeit gehören zusammen und beeinflussen sich gegenseitig.

Für eine angemessene Bewertung muß der etwas schwammige Begriff „Nachhaltigkeit“ formal sauber beschrieben werden, um nicht in die Gefahr der Beliebigkeit zu geraten. Das von dem Chemiker Michael Braungart und dem Architekten William McDonough eingeführte Konzept „Cradle to Cradle“ (siehe auch deren Buch) bewerten lassen.

Nach Cradle to Cradle findet die gesamte Wirtschaft in 2 Kreisläufen statt:

Darstellung des Kreislaufs nach dem Cradle to Cradle-Prinzip
Die beiden Kreisläufe des Cradle to Cradle Konzepts
  • Die Produkte im Biologischen Kreislauf müssen vollständig biologisch abbaubar sein und müssen verträglich mit den Kriterien der Ökologie, also Natur- und Landschaftsschutz. Dazu gehört insbesondere auch das gesundheitliche und seelische Wohlbefinden der Menschen.
  • Der Technischen Kreislauf ist zweifellos die Grundlage von Lebensqualität und Wohlstand. Hier kommen auch Stoffe und Prozesse vor, vor denen der Biologische Kreislauf geschützt werden muß.

Beiden Kreisläufen ist konzeptionell gemeinsam, dass sie gemäß der Zielvorstellung geschlossen sind – es dürfen per Definition keine Abfälle zurückbleiben. Alles wird entweder wiederverwendet oder es wird in verträglicher Form dem Biologischen Kreislauf zurückgegeben. Viele Alltagsprozesse sowie Produktionsprozesse der Industrie und auch der Landwirtschaft entsprechen nicht diesem strengen Kriterium. Dabei ist zu unterscheiden:

  • existierende Prozesse, Produkte und Einrichtungen, die aufgrund von Verträgen, Genehmigungen und gesetzlichen Regelungen Bestandsschutz und Investitionsschutzgarantien genießen. Dazu gehören z.B. existierende Wohngebäude, die entsprechend der erteilten Baugenehmigung gebaut wurden. Leichtfertige, politisch motivierte Verletzungen dieser Grundsätze führen in der Regel zu sehr teuren Schadensersatzklagen und zu gesellschaftlichem Unfrieden, so wie etwa bei der widerrechtlich verkürzten Laufzeit bereits genehmigter Kernkraftwerke im Jahre 2011.
  • Anders ist es bei noch nicht umgesetzten, geplanten Prozessen, neuen Produkten und Einrichtungen. Bei diesen dürfen keine politisch motivierten faulen Kompromisse mit den Zielen der Nachhaltigkeit im Sinne der rückstandsfreien Kreislaufwirtschaft eingegangen eingegangen werden.

Bei der sogenannten Energiewende sind leider bislang die Kriterien der Nachhaltigkeit im Sinne einer Kreislaufwirtschaft kaum bis gar nicht berücksichtigt worden, weil eine einseitige Fokussierung auf Vermeidung von $CO_2$ alle anderen Nachhaltigkeitsprobleme verdrängte. Aufgrund des besseren Verständnisses atmosphärischer Prozesse (siehe auch hier) kann mit großer Sicherheit davon ausgegangen werden, dass es auch bei weiterer $CO_2$-Erzeugung nicht zu so dramatischen „Klimafolgen“ kommen wird, die rechtfertigen würden, alle anderen Anforderungen des Natur- und Landschaftsschutzes zu vernachlässigen – „…wir dürfen nicht zulassen, dass die Regenerativen Energien unsere Umwelt zerstören“ (siehe auch hier)

Größenordnung der Nutzung regenerativer Energie

Bei den folgenden Betrachtungen soll der Schwerpunkt auf Wind- und Solarenergie liegen, daher werden folgende zur nachhaltigen Energiegewinnung gerechneten Technologien nur kurz erwähnt – was nicht heißt, dass Nachhaltigkeitsbetrachtungen bei ihnen unwesentlich sind:

Gesamtstromverbrauch: etwa 512 TWh (2019), davon per Windenergie: 125 TWh, per Solarenergie 54 TWh.

Die Webseite des Umweltbundesamtes zeigt die wesentlichen Anteile der sogenannten erneuerbaren Energieträger, gegliedert nach den Anteilen in den Sektoren Strom, Wärme und Verkehr:

Anteil erneuerbarer Energie bei Strom, Wärme und Verkehr

Kritische Analyse der Energiewendemaßnahmen

Für eine wirklich zukunftsfähige Infrastruktur müssen die Maßnahmen der Energiewende daran gemessen werden, inwieweit sie dem Konzept der oben beschriebenen Kreislaufwirtschaft Genüge tun, also müssen bei jeder Maßnahme diese Aspekte überprüft werden:

  • Erzeugung/Produktion
  • Betrieb
  • Entsorgung

Der Übersicht halber geschieht diese Überprüfung für jede der wichtigsten Komponenten der Energiewende. Bei jeder Komponente werden alle 3 Kriterien überprüft.

Photovoltaik

Erzeugung:

Es gibt sehr starkte Indizien, dass nach einer Studie, über die in der New York Times berichtet wird, die Solarzellen in China mit Zwangs- und Sklavenarbeit hergestellt werden. Das erklärt die sensationell niedrigen Preise chinesischer Solarzellen, die zur Geschäftsaufgabe fast aller einst erfolgreichen deutschen Hersteller von Solarzellen führten. Warum führen diese Menschenrechtsverletzungen nicht zum Boykott chinesischer Photovoltaik-Anlagen?

Internierungslager in Xinjiang. Zitatquelle: New York Times

Der Einsatz sog. „seltener Erden“ erhöht bei Solarzellen die Lichtausbeute. Diese kommen überwiegend aus China, was unsere Abhängigkeit von China verstärkt.

Abbau seltener Erden in China. Zitatquelle: Handelsblatt.

Den Wirtschaftsstandort für die Produktion von Solarzellen hat Deutschland aufgegeben: Von 2011 bis 2015 sind über 80000 Arbeitsplätze in dieser Branche verloren gegangen. Ein Grund dafür ist, dass die für die notwendige Erzeugung von hochreinem Silizium sehr viel konventionelle elektrische Energie notwendig ist, was in Deutschland mit den weltweit höchsten Strompreisen zusehends teurer wird.
Darüber hinaus ist die notwendige Energie zur Herstellung ein signifikanter Bruchteil dessen , was jemals aus der Zelle an Energie gewonnen werden kann.
Die Bewertungen dazu gehen weit auseinander, am einen Ende der Bewertungs-Skala ist die Energiebilanz negativ, wenn die notwendige Zwischenspeicherung noch mit berücksichtigt wird, und am anderen Ende ein möglicher Energie-Erntefaktor von bis zu 9. In dieser Rechnung sind allerdings wesentliche Teile des Gesamtenergieverbrauchs wie Abbau der Rohstoffe, Transport, Installation und Kosten des Finanzierungskapitals nicht berücksichtigt worden. Eine Klärung der Frage der tatsächlichen Energieausbeute ist von entscheidender Bedeutung, falls das Ziel sein sollte, konventionelle Energiequellen zu reduzieren.

Der $CO_2$-Fußabdruck beträgt für die effizienten monokristallinen Zellen 50g (europäische Hersteller) bis 70 g (chinesische Produktion) pro erzeugter KWh. Diese Rechnung erscheint etwas vage, weil sie eine ungewisse geschätzte Lebensdauer mit einbezieht. Daher habe ich den $CO_2$-Fußabdruck genauer auf der Grundlage der tasächlich in Deutschland gewonnenen Energie berechnet, mit dem Ergebnis, dass er je nach Betrachtungsweise und Nutzungsform der solare $CO_2$-Fußabdruck zwischen 132 und 528 g pro kWh beträgt.

Betrieb:

Der Betrieb von Solaranlagen ist bislang in zweierlei Hinsicht parasitär, d.h. die Anlagen leben davon, dass es nukleare oder fossile Stromversorgung gibt:

  • Zum einen sind sie von Anfang an bis heute stark subventioniert, die Nutzer konventionellen Stroms müssen mehr bezahlen, um den solar erzeugten Strom zu finanzieren,
  • zum anderen wird solarer Strom nicht nachfrageorientiert erzeugt, sondern wann immer die Sonne grade scheint. Insbesondere an den Abenden, wo die Hauptlast der privaten Haushalte ist, fällt die solare Versorgung ganz aus. Im Winter ist die solare Stromerzeugung vernachlässigbar gering. Das bedeutet, dass solare Stromerzeugung zu 100% mit anderen Methoden der Stromerzeugung ersetzbar sein oder durch Speicherung gepuffert werden muß.

Das Kernproblem solarer Energiegewinnung ist die geringe Energiedichte: Im weltweiten räumlich und zeitlich gemittelten Schnitt erreichen durchschnittlich 161 Watt jeden qm Erdoberfläche, der Wirkungsgrad der Umsetzung von Licht in elektrischen Strom liegt bei 15-20%, was bei vollständiger Bedeckung einer größeren Fläche einer theoretischen elektrischen Durchschnittsleistung von $25-32 \frac{W}{m^2}$ entspricht – unter der unrealistischen Voraussetzung, dass Strom beliebig gespeichert werden kann. Durch Schrägstellen der Solarmodule und optimale Ausrichtung Richtung Äquator ist die Ausbeute pro Kollektorfläche etwas größer, was aber durch die Abstände der Solarmodule wieder kompensiert werden muß. Ein hochwertigs Solarmodul hat eine Spitzenleistung von etwa $205 \frac{W}{m^2}$ Kollektorfläche, die in unseren Breiten aber nur im Sommer bei unbewölktem Himmel in den Mittagsstunden erreicht wird. Bei Solarfarmen gilt für die Berechnung des Flächenbedarfs der Richtwert von etwa $6.8 \frac{W}{m^2}$ (4.1 Acre/(GWh/a)), in Sonderfällen maximal $10 \frac{W}{m^2}$ (2.8 Acre/(GWh/a))
Im Jahresdurchschnitt ist die durchschnittliche Leistung (in Deutschland) realistischerweise etwa 10.7% der installierten Leistung: Laut Fraunhofer Institut wurden 2020 50.000 GWh Strom solar erzeugt mit 53 GW installierter (Spitzen-)Leistung. Bei 8766 Std./Jahr wurden also pro Stunde im Schnitt 5.7 GW erzeugt, die Leistung von etwa 4 Kernkraftwerken. Das sind 10.7% der installierten Leistung. Demzufolge ist die reale durchschnittliche Leistung in Deutschland pro qm Kollektorfläche etwa 20 W, also unter dem oben genannten Erwartungswert.

Solange Solaranlagen auf Hausdächer begrenzt sind, fallen sie hinsichtlich Flächenverbrauch nicht wesentlich ins Gewicht. Bei dem geplanten massiven Ausbau (500 GW installierte Leistung bis 2050, also 10 fache installierte Leistung von heute ) ist zu erwarten, dass zunehmend auch auf Freiflächen Solaranlagen installiert werden, die dann entweder mit der Landwirtschaft oder mit dem Naturschutz konkurrieren. Eine optimistische Beispielrechnung für den amerikanischen Bundesstaat Ohio kommt zu dem Schluß, dass höchstens die Hälfte des notwendigen Strombedarfs durch Dachinstallationen gedeckt werden kann.

Bei großflächigen Installationen ist zudem die Auswirkung von Solarmodulen auf die Veränderung der Erd-Albedo zu berücksichtigen – Solarmodule sind schwarz und ihr Ziel ist es, möglichst viel Strahlung zu absorbieren -, die zu absehbaren problematischen Auswirkungen auf’s Klima führen.

Beispiele von Versiegelung von Landschaften durch Photovoltaik-Anlagen:

Den Landverbrauch von Solaranlagen kann man durch die erzielbare Energiedichte angeben. Infolge der optimierten Ausrichtung der Solarmodule können die Module nicht beliebig dicht aufgestellt werden, dies führt in der Regel zum 3-fachen Landverbrauch im Vergleich zur aktiven Kollektorfläche. Realistisch können also 6,8 W volatile Durchschnittsleistung pro $m^2$ erzielt werden, in Ausnahmefällen 10 W. Um im Durchschnitt ein Kraftwerk mit der Leistung 1 GW durch Photovoltaik zu ersetzen, wird also eine Landfläche von 147 $km^2$ benötigt, ein Quadrat mit der Seitenlänge von 12,1 km. Damit ist aber noch lange nicht das Kraftwerk ersetzt, denn der solare Strom ist volatil, und muß unter Leistungsverlust (z.B. mit flüssigem Wasserstoff) gespeichert werden, was den Flächenverbrauch nochmal vergrößert auf mindestens 176 $km^2$ pro GW elektrischer Leistung.

https://nca2014.globalchange.gov/report/sectors/energy-water-and-land/graphics/projected-land-use-intensity-2030#submenu-highlights-report-findings
Berechnung des Energy Return of Energy invested

Folgende beiden einander widersprechende Publikationen müssen noch sorgfältig analysiert und bewertet werden:

Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation

Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation: A comprehensive response

Replik der ursprünglichen Autoren: https://www.sciencedirect.com/science/article/pii/S0301421517302914

Dazu noch grundsätzliche Überlegungen zur Berechnung des EROEI:

Entsorgung/Recycling

Der Preis für’s Recycling beträgt aktuell etwa 15€ für ein Paneel, was das Recycling bei einem Neupreis von etwa 150€ wirtschaftlich unattraktiv macht.

Beschreibung der Problematik in Deutschland

Eine wissenschaftliche Abhandlung zum Recycling von PV-Anlagen

Konzept für’s Recycling

Windkraftwerke

Erzeugung:

Seltene Erden (Neodym, Kobalt), Kinderarbeit, Einsatz konventioneller Energie, Balsa-Holz.

Der Einsatz konventioneller Energie beim Bau entspricht etwa 1 Jahr Laufzeit der Windanlage.

Einsatz von Balsaholz problematisch für Tropenwälder

Betrieb:

Flächenverbrauch, Vogelschredder, Gesundsheitsschäden

Staatlich gelenkte gezielte Verleumdung derjenigen, die sich z.B. aus Naturschutzgründen gegen den Ausbau von Windenergie in Wäldern oder anderen „umweltkritschen“ Gebieten einsetzen, wie in Kleine Staatskunde für Windkraftprofiteure.

Entsorgung:

Die Entsorgung der Windkraftanlagen, die eine nur sehr begrenzte Lebensdauer von etwa 20 Jahren haben, beginnt zu einem gigantischen Problem zu werden, denn die Bestandteile wie die Rotorblätter sind kaum recyclingfähig (siehe auch hier), was auch offizielle Stellen bestätigen.

Image
Quelle: https://pbs.twimg.com/media/EuyJZpfXEAMFVpU?format=jpg&name=900×900

14.000 Turbinen verrotten in den USA – jede Turbine – 1.671 Tonnen Material, darunter 1300 Tonnen Beton, 295 Tonnen Stahl, 48 Tonnen Eisen, 24 Tonnen Glasfaser, 4 Tonnen Kupfer, chinesische Seltenerdmetalle, 0,4 Tonnen Neodym und 0,065 Tonnen Dysprosium. 43 Millionen Tonnen Schaufelabfälle

Elektromobilität

Das zentrale Problem in Bezug auf die Umwelt ist die Speicherung der elektrischen Energie mittels Lithium-Ionen Batterien. Hierzu werden insbesondere große Mengen an Lithium, Kobalt, Nickel, Mangan und anderen Seltenen Erden benötigt. Probleme gibt es es in allen Phasen des „Lebenszyklus“, bei Erzeugung, Betrieb und Entsorgung.

Erzeugung:

Die als erstes ins Auge fallenden Probleme ist der immense Wasserverbrauch bei der Gewinnung von Lithium, dies ausgerechnet in einem Wüsten-Gebiet in Chile, wo Wasser außerordentlich knapp ist.

Ausgangspunkt sind die natürlichen unterirdischen Vorkommen einer Salzlösung mit 0.15% Lithiumgehalt, gemischt mit 2.5% Kaliumgehalt in einer Gegend, die zu den trockensten der Erde gehört und eine große Hitze herrscht.

Der Lithium-Verdampfungsprozess

Diese Salzlake wird aus 1.5-60m Tiefe in große Verdampfungsbecken geleitet. In der ersten Phase der Verdunstung, während eines Zeitraums von 6-9 Monaten, wird das Kaliumsalz ausgefällt. Nach Überleitung in eine zweite Gruppe von Verdunstungsteichen wird die Lösung aus 6% Lithiumgehalt angereichert.

Lithium Verdampfungsbecken

Nach dieser Anreicherung wird die Lithiumcloridlösung abgepumpt und in Chemiefabriken transportiert, wo eine Umwandlung nach Lithiumhydroxid und Lithiumcarbonat erfolgt.

Kobalt aus dem Kongo

Das zweite bekannte Problem ist, dass der überwiegende Teil der Welt-Kobalt-Produktion in der Republik Kongo stattfindet, unter menschen-unwürdigen Bedingungen, insbesondere unter dem Einsatz von Kinderarbeit im großen Stil (sieh auch hier)

Kinderarbeit im Kongo beim Kobalt-Abbau

Die Doppelmoral des der „Energiewende“ zugrundeliegenden Klima-Alarmismus wird in dieser Karikatur gut ausgedrückt:

Wissenschaftliche Analyse des Resourcenverbrauchs

Der Umwelt-„Fußabdruck“ bei der Batterieherstellung läßt sich mit mehreren Kennzahlen beschreiben. Grundlage dabei ist ein Prozess-basiertes „Lifecycle Assessment Model“ (LCA) namens GREET (Greenhous gases, Regulated Emissions and Energy use in Transportation).

Die erste wichtige Größe ist der Energieeinsatz, der zur Herstellung notwendig ist:

Notwendiger Energieeinsatz zur Herstellung einer Lithium-Ionen Batterie

Genau betrachtet ist die Energie-Skala dimensionslos, weil 1 J = 1 Ws ist, also 1 kWh = 3,6 MJ . 1200 MJ/kWh bedeutet, dass zur Herstellung einer Batterie mit 1 kWh Kapazität die Energie von etwa 333 vollständigen Ladezyklen notwendig ist. Die Angaben der Lebensdauer von Akkus gehen weit auseinander, sie werden auf 500- 3000 Ladezyklen geschätzt.

Die zweite wichtige Kennzahl ist der „$CO_2$-Fußabdruck“, also die Erzeugung von $CO_2$ pro kWh Batteriekapazität:

Treibhausgas-Emissionen pro kWh Batterie-Kapazität

Die $CO_2$ Emissionen für die Herstellung einer 100 kWh Batterie (Tesla Model X) in einem Elektroauto (entspricht einer theoretischen 500 km Reichweite — ohne Heizung oder Klimaanlage — bei einem Verbrauch von 20 kWh/100 km) betragen demnach 7500 kg $CO_2$. Bei einem angenommenen Grenzwert von 100 $g CO_2 /km$ entspricht dies der Fahrleistung von 75.000 km eines schadstoffarmen Dieselfahrzeugs. Dabei ist noch nicht der $CO_2$ Fußabdruck der Stromerzeugung berücksichtigt.

Recycling von Li-Ionen Akkus

Betrieb:

Eine Umstellung auf Elektromobilität erfordert gigantische Maßnahmen der Umstellung der gesamten Infrastruktur:

  • Stromversorgung von Millionen von Fahrzeugen ist für das aktuelle Stromnetz nicht vorgesehen
  • Die „überschießenden Stromspitzen“ von Wind- und solarer Elektrizitätsproduktion, die durch Elektrolyse mit Hilfe von Wasserstoff gespeichert werden, reichen maximal für den Betrieb von 200.000 Fahrzeugen
  • Alle bisherigen Erfahrungen haben gezeigt, dass bei winterlicher Kälte der Betrieb von batteriebetriebenen Fahrzeugen nicht mehr zuverlässig funktioniert, wie es sich 2020/21 bei den Berliner Verkehrsbetrieben gezeigt hat.
Entsorgung:

Von der EU wird bislang lediglich eine Recyclingrate von 45% der Lithium-Ionen Batterien gefordert. Es gibt jetzt Einrichtungen, in denen Li-Ionen Batterien zu 70% in ihre elementaren Bestandteile zerlegt werden. Das ist zwar ein Fortschritt gegenüber der

Schlußfolgerungen

Dies sind einfache Überschlagsrechnungen. Prof Sinn hat ist nach einer gründlichen Studie zu ähnlichen Schlußfolgerungen gekommen, nämlich dass der Ausstoß von E-Autos über die Gesamt-Lebensdauer betrachtet ähnlich groß ist wie von Verbrenner-betriebenen Fahrzeugen, genau genommen lassen die E-Autos nur „woanders verbrennen“. Berücksichtigt man allerdings den Umstand, dass sich durch Einführung der Elektromobilität im großen Umfang die Notwendigkeit ergibt, den zusätzlich benötigten Strom wieder durch Kohlekraftwerke zu erzeugen (aktuell gibt es keine andere Möglichkeit), dann ergibt sich daraus ein über 70% höherer $CO_2$ Ausstoss von Elektrofahrzeugen gegenüber Diesel-betriebenen.

Auf humorvolle Weise hat Dirk Maxeiner die für die Einführung der Elektromobilität notwendigen „Schönrechnungen“ auf den Punkt gebracht.

Der Vollständigkeit und der Fairness halber soll aber auch die andere Seite gehört werden.

Das Hauptproblem bleibt. Wir sind weit entfernt von einem geschlossenen Kreislauf, wie er vom Cradle-to-Cradle Prinzip gefordert wird. Die Richtlinien der EU fordern aktuell lediglich ein 50% Recylcling der Batterien. Dies kann durch die Komplexität der Bauweise dann so „getrickst“ werden, dass die Kernbestandteile, die Akku-Zellen, gar nicht recycled werden, weil dies immer noch sehr aufwendig und teuer ist.

Gebäudedämmung, Biotreibstoffe etc.

Diese Themen bergen ebenfalls Risiken bezüglich der Wiederverwendbarkeit und der schädlichen Einflüsse auf den ökologischen Kreislauf.

Sie werden in einer künftigen Erweiterung dieses Beitrags behandelt.




Intelligentes Produktdesign und geschlossene Kreisläufe statt Recycling

Dies ist eine Bearbeitung des Artikels: Cradle to Cradle oder: Die Industrie soll endlich mal!

Cradle to Cradle (C2C) steht im Gegensatz zum bisherigen End-Of-Pipe Ansatz, mit dem wir nur an den Symptomen herumdoktern. Statt wie beim Recycling am Ende eines Produktlebens zu schauen, welche Rohstoffe noch mühsam extrahiert und wiederverwendet werden können (ein erheblicher Teil wandert anschließend doch in die Müllverbrennung oder wird nur „downgecycelt“), stellt C2C die Produktentwicklung und die folgenden Fragen in den Fokus:

  • Welche Materialien und Chemikalien habe ich verbaut? Sind sie positiv definiert? Kenne ich ihre Auswirkungen auf Mensch und Natur?
  • Was passiert mit meinem Produkt nach der Nutzungsphase? Wie verhindere ich, dass es zu Abfall wird?
  • Kann ich alle genutzten Materialien so verbauen, dass sie nachher sortenrein trenn- und wiederverwendbar (Technischer Kreislauf) oder kompostierbar (Biologischer Kreislauf) sind?
  • Kann ich dem Produkt einen zusätzlichen positiven Nutzen hinzufügen?
Darstellung des Kreislaufs nach dem Cradle to Cradle-Prinzip

Damit ist C2C eines der wenigen Nachhaltigkeitskonzepte, das sich an Unternehmen richtet und diese schon in der Produktentwicklung in „Verantwortung“ nimmt. Zusätzlich sollten wir als Gesellschaft das Konzept „Müll“ aus unseren Köpfen streichen, und alles als Nährstoff für Neues – für neue Produkte oder für die Natur – anfangen zu begreifen!

Negativbeispiele

Ein aktuelles Negativbeispiel, wie man es nicht machen sollte, sind die aktuell propagierten FFP2-Masken, die aus Polypropylen hergestellt sind, gesundheitlich höchst problematisch sind und nach einmaliger Verwendung weggeworfen werden, mit Folgen für die Umwelt, und viele davon enden in den Ozeanen. Es ist paradox, erst vor kurzem wurde ein Gesetz zum Verbot von Einwegplastik (Strohhalme und Wattestäbchen) erlassen, und jetzt wird nicht recylebares Einwegplastik in unvorstellbaren Mengen auf den Markt geworfen und staatlich subventioniert. Eine Heuchelei biblischer Dimension!

Bei der Umsetzung der Energiewende werden aufgrund von politischen Vorgaben zunehmend die zerstörerischen Eingriffe der Technik in die biologischen Kreisläufe ignoriert und heruntergespielt. Die verheerenden Folgen der Windkraftnutzung auf die naturnahe Umwelt erläutert der bekannte Biologe Dr. Wolfgang Epple.

Beispiele einer technischen Kreislaufwirtschaft

Wird Cradle to Cradle konsequent umgesetzt, können Produkte mit einen öko-effektiven Nutzen entstehen:

  • So gibt es Teppiche, die nicht nur immer wieder in einem technischen Kreislauf zirkulieren können, sondern durch ihre spezielle Oberfläche aus Garn auch Feinstaub aus der Luft filtern können.
  • Oder kompostierbare T-Shirts, deren Mikrofaserabrieb sich zersetzt und so nicht als Mikroplastik in den Meeren landet.
  • Desweiteren wird an speziellen Eisverpackungen geforscht, die ihre Eigenschaften nur gekühlt behalten, sich jedoch in Wasser auflösen, sobald sie Zimmertemperatur erreichen.

Dabei geht es oftmals nicht nur um klassisches Ökodesign, sondern vielmehr auch um Qualität. C2C birgt das Potential, alle Dinge um uns herum nochmals mit der Brille der Kreislauffähigkeit und Öko-Effektivität auf den Prüfstand zu nehmen.

Neue Geschäftsmodelle

Zudem können komplett neue Geschäftsmodelle entstehen:

  • Besagter Teppichhersteller etwa least seine Teppiche im Business-to-Business-Sektor für etwa 6 Jahre und nimmt sie danach zurück. Er stellt so sicher, dass er die Rohstoffe wieder nutzen kann. Und er muss die kompletten Entwicklungs- und Produktionskosten plus Gewinnmarge nicht mit einem einmaligen Verkauf einspielen, sondern kann dies über eine längere Zeitdauer mit mehreren Leasing-Verträgen realisieren.
  • Beim Bau der Venlo City Hall in den Niederlanden wurden stattdessen die Baufirmen schon heute für einen geordneten Rückbau in 50 Jahren verpflichtet. Verbaute wertvolle Materialien, wie das Aluminium der Fensterprofile, werden als Investition angesehen, welche später gewinnbringend veräußert werden können. Der Rückbau wird also keinen Sondermüll verursachen, sondern zusätzliche Gewinne erzielen.

Cradle to Cradle läßt sich zusammenfassen zu:

  • Abfall ist Nährstoff – für neue Produkte oder für die Natur
  • Erst Ökoeffektivität und Qualität, dann Ökoeffizienz
  • Circular Economy birgt Potential für Entkopplung von Wirtschaftswachstum und Ressourcenverbrauch – und für neue Geschäftsmodelle

Die zentrale Botschaft der C2C Denkschule lautet aber: Habe Mut, deinen eigenen positiven Fußabdruck zu hinterlassen.

C2C-Design Konzept

Weiterführende Informationen

Prof. Michael Braungart Cradle to Cradle Keynote – Entrepreneurship Summit 2015 in Berlin
C2C in Bau & Architektur: Erwin Thoma – Cradle to Cradle Congress 2017