Die Empfindlichkeit der Temperatur gegenüber dem atmosphärischen $CO_2$-Gehalt
Die Menge an $CO_2$ in der Atmosphäre
Während die $CO_2$-Sensitivität die wissenschaftliche Klimadiskussion dominiert, werden die politischen Entscheidungen von „Kohlenstoffbudget“-Kriterien auf der Basis von Zahlen dominiert, die kaum öffentlich diskutiert werden. Es wird behauptet, dass mehr als 20 % des emittierten $CO_2$ für mehr als 1000 Jahre in der Atmosphäre verbleiben werden.
In diesem Artikel soll der Zusammenhang zwischen $CO_2$-Emissionen und dem tatsächlichen $CO_2$-Gehalt in der Atmosphäre untersucht werden. Mit Hilfe dieses als Modell verwendbaren einfachen Zusammenhangs werden verschiedene zukünftige Emissionsszenarien und deren Auswirkung auf den atmosphärischen $CO_2$-Gehalt untersucht.
Kohlendioxid-Emissionen in der Vergangenheit
Ausgangspunkt sind die tatsächlichen $CO_2$-Emissionen während der letzten 170 Jahre:
Es ist sehr informativ, von dieser Zeitserie die (prozentualen) relativen Veränderungen y'(t)/y(t) zu betrachten (Hier mathematische Herleitung). Dies ist das Äquivalent des Wirtschaftswachstums für $CO_2$ Emissionen.
Der größte Anstieg der $CO_2$-Emissionen war zwischen 1945 und 1980, die Phase des großen Wachstums an Wohlstand und Lebensqualität v.a. in den Industrieländern, wobei der absolute Höhepunkt des weltweiten Emissions-Wachstums im Jahre 1970 überschritten wurde, interessanterweise 3 Jahre vor der ersten Ölkrise. Um die Jahrtausendwende gab es nochmal einen Anstieg der Emissionen, diesmal verursacht durch den wirtschaftlichen Aufschwung der Schwellenländer. Seit 2003 geht das Anwachsen der Emissionen stetig zurück, und hat de facto bereits die Nullinie unterschritten, d.h. ab sofort werden die Emissionen voraussichtlich nicht mehr anwachsen, trotz des Wachstums in China, Indien und anderen Schwellen- und Entwicklungsländern. Dies wird überzeugend dargestellt in der Zeitserien-Graphik des Global Carbon Projekts:
Der langjährige Rückgang der Emissionen in den Industrieländern hält sich aktuell die Waage mit dem seit 2010 verlangsamten Anstieg in den Schwellenländern China und Indien. Demzufolge ist es realistisch und legitim, einen ab 2019 konstanten $CO_2$-Ausstoß als „business as usual“ zu bezeichnen (2020 war ein Covid-19 bedingter Emissions-Rückgang). Nach den neuesten Zahlen (2021) Zahlen des Global Carbon Projects sind bereits seit 2010 die Gesamtemissionen, die den Land-Flächenverbrauch beinhalten, nicht mehr angestiegen:
Prognose des CO2-Gehalts der Atmosphäre mit simplen Emissions-Modellen
Es wird angenommen, dass vor 1850 das $CO_2$-Niveau annähernd konstant war und dass der gemessene $CO_2$-Gehalt die Summe aus dem vorindustriellen konstanten Niveau und einer Funktion der $CO_2$-Emissionen ist.
Drei verschiedene Modelle werden getestet – diese Modelle haben nicht den Anspruch, die Physik abzubilden, sie liefern einen möglichen funktionalen Zusammenhang zwischen $CO_2$-Emissionen und atmosphärischem $CO_2$-Gehalt, der für Prognosen geeignet ist.:
Das erste Modell geht davon aus, dass alle $CO_2$-Emissionen für immer in der Atmosphäre bleiben. Das bedeutet, dass der zusätzliche – über das vorindustrielle Niveau hinausgehende – $CO_2$-Gehalt die kumulative Summe aller $CO_2$-Emissionen wäre.
Das zweite Modell geht von einem exponentiellen Zerfall des emittierten $CO_2$ in die Ozeane bzw. die Biosphäre mit einer Halbwertszeit von 70 Jahren aus, d.h. die Hälfte des zusätzlich emittierten $CO_2$ ist nach 70 Jahren absorbiert. Dies wird durch eine Faltung mit einem exponentiellen Zerfallskern und einer Zeitkonstante $70/ln(2) \approx 100 $ Jahre erreicht
Das dritte Modell geht von einem exponentiellen Zerfall des emittierten $CO_2$ in die Ozeane bzw. Biosphäre mit einer Halbwertszeit von 35 Jahren aus, d.h. die Hälfte des emittierten $CO_2$ ist nach 35 Jahren absorbiert. Dies wird durch eine Faltung mit einem exponentiellen Zerfallskern und einer Zeitkonstante $35/ln(2) \approx 50 $Jahre erreicht.
Um die Zahlen vergleichbar zu machen, müssen die Emissionen, die in Gt gemessen werden, in ppm umgerechnet werden. Dies geschieht mit der Äquivalenz von 3210 Gt $CO_2$ = 410 ppm ( Gesamtmasse des $CO_2$ in der Atmosphäre und Anteil im Jahr 2015 )
Die gelbe Kurve sind die gemessenen tatsächlichen Emissionen aus dem obigen Diagramm, und die blaue Kurve ist der gemessene tatsächliche $CO_2$-Gehalt.
Das erste „kumulative“ Modell approximiert den gemessenen $CO_2$-Gehalt von 1850 bis 1910 recht gut, überschätzt aber den $CO_2$-Gehalt nach 1950 stark. Dies falsifiziert die Hypothese, dass $CO_2$ für „Tausende von Jahren“ in der Atmosphäre bleibt. Auch das zweite Modell mit einer Halbwertszeit von 70 Jahren des emittierten $CO_2$ überschießt nach 1950 erheblich, es approximiert die Zeit zwischen 1925 und 1945. Das dritte Modell mit einer Halbwertszeit der Emissionen von 35 Jahren passt sehr gut zum tatsächlichen $CO_2$-Gehalt von 1975 bis heute.
Dies bestätigt, was erst kürzlich in Nature veröffentlicht wurde, dass die Rate der $CO_2$-Absorption in die Ozeane mit steigendem atmosphärischen $CO_2$-Gehalt zunimmt. Physikalisch ist das insofern plausibel, weil der mit wachsender Konzentration steigende atmosphärische Partialdruck des $CO_2$ eine wachsende Absorption nahelegt. Dass die Absorption höher ist als nach den bisherigen Modellen, liegt daran dass in der für den Gasaustausch relevanten dünnen Oberflächen-Grenzschicht durch die Verdunstungskälte des Wasserdampfs die Oberflächen-Temperatur niedriger ist als bisher angenommen.
Ein Abflachen des Effekts, etwa aufgrund von Sättigung des $CO_2$-Gehalts im Meer, ist nicht zu erkennen. Im Gegenteil, der Effekt wird in den letzten Jahren größer. Der gleiche Zusammenhang, insbesondere die zunehmende „Kohlenstoffsenke“ von Ozeanen und Biosphäre, wird vom Global Carbon Project in dieser Grafik gezeigt:
Obwohl für die Zukunft ein weiterer Anstieg des $CO_2$-Flusses in den Ozean zu erwarten ist, können wir daher das dritte Modell mit einer Halbwertszeit von 35 Jahren für konservative, d.h. nicht optimistische Vorhersagen verwenden.
Zukunftsszenarien
Um politische Entscheidungen zu bewerten, werde ich dieses Modell anwenden, um den zukünftigen $CO_2$-Gehalt mit 3 verschiedenen Szenarien vorherzusagen:
Das erste Szenario (rot) möchte ich als „Business-as-usual“-Szenario bezeichnen, in dem Sinne, dass China sich verpflichtet hat, den Anstieg der $CO_2$-Emissionen nach 2030 zu stoppen. Bereits jetzt steigen die weltweiten $CO_2$-Emissionen nicht mehr an, und die Industrieländer haben alle fallende Emissionen. Dieses Szenario nimmt an, dass die globalen Emissionen auf dem aktuellen Maximalwert von 37 Gt/a bleiben. Gesamtbudget bis 2100: 2997 Gt $CO_2$, danach 37 Gt/Jahr
Das zweite Szenario (grün) ist die weithin proklamierte Dekarbonisierung bis 2050. Dabei wird verschwiegen, dass ein weltweiter vollständiger Ersatz existierender fossiler Energiequellen die tägliche Neuinstallation des Äquivalents eines größeren Kernkraftwerks mit je 1,5 GW Leistung erfordern würde. Gesamtbudget bis 2100: 555 Gt $CO_2$, danach 0 Gt/Jahr.
Das dritte Szenario (blau) ist ein realistischer Plan, der die Emissionen bis 2100 auf 50% reduziert, also etwa dem Wert von 1990. Dieses Szenario spiegelt die Tatsachen wider, dass fossile Brennstoffe endlich sind und dass Forschung und Entwicklung neuer zuverlässiger Technologien Zeit brauchen. Gesamtbudget bis 2100: 2248 Gt $CO_2$, danach 18,5 Gt/Jahr
Die Konsequenzen für den $CO_2$-Inhalt sind folgende:
Das erste Szenario (rot) erhöht den $CO_2$-Gehalt, aber nicht über 510ppm in der fernen Zukunft hinaus, was weniger als eine Verdopplung gegenüber der vorindustriellen Zeit bedeutet. Je nach Sensitivität (0,5°…2°) bedeutet dies einen hypothetischen Temperaturanstieg von 0,1° bis 0,6° gegenüber den heutigen Temperaturen, bzw. 0,4° bis 1,4° seit der vorindustriellen Zeit. In jedem Fall unter dem optimistischen Ziel von 1,5° des Pariser Klimaabkommens.
Das zweite Szenario — weltweit schnelle Dekarbonisierung — (grün) erhöht den $CO_2$-Gehalt kaum noch und reduziert den atmosphärischen $CO_2$-Gehalt schließlich auf vorindustrielles Niveau. Wollen wir das wirklich? Das würde einen Nahrungsentzug für alle Pflanzen bedeuten, die am besten bei $CO_2$-Werten größer als 400 ppm gedeihen. Nicht einmal der Weltklimarat (IPCC) hat eine solche Reduzierung jemals als Ziel formuliert.
Das realistische Reduktions-Szenario (blau) hebt die $CO_2$-Werte die nächsten 50 Jahre leicht an, hält sie aber unter 455 ppm und senkt sie nach 2055 dann allmählich auf das Niveau von 1990.
Schlussfolgerungen
Nicht einmal das pessimistischste der oben beschriebenen Szenarien erreicht auch nur annähernd einen „katastrophalen“ $CO_2$-Gehalt in der Atmosphäre. Das Szenario der vollständigen Dekarbonisierung bis 2050 kann nur als völliger Unsinn bewertet werden. Abgesehen von der Unmöglichkeit, bis dahin täglich eine Energiequelle mit dem Äquivalent eines größeren Kernkraftwerks zu installieren, kann sich niemand wünschen, auf das vorindustrielle $CO_2$-Niveau zurückzugehen.Eine einseitige Dekarbonisierung von Deutschland oder Europa hat ohnehin so gut wie keinen Effekt auf den weltweiten $CO_2$ Gehalt. Auf der anderen Seite motivieren die begrenzten fossilen Ressourcen dazu, sie auf eine machbare und menschenwürdige Weise zu ersetzen. Dies spiegelt sich im „Kompromiss“-Szenario wider, das die langfristigen weltweiten Emissionen bis zum Ende des Jahrhunderts schrittweise auf das Niveau des Jahres 1990 reduziert.
Allen, die sich darüber Sorgen machen, durch die Aufnahme des $CO_2$ aus der Atmosphäre würden die Ozeane „versauern“, sei gesagt, dass die gesamte Menge des $CO_2$ in der Atmosphäre gerade mal 2% dessen sind, was in den Ozeanen gelöst ist. Davon gelangt nur ein Teil in die Ozeane. Auch wenn die Vorgänge sehr komplex sind, kann davon ausgegangen werden dass die Veränderung des $CO_2$-Gehalts in die Ozeanen für alle oben genannten Szenarien vernachlässigt werden kann. Dazu kommt, dass etwa die Hälfte des zusätzlichen atmosphärigen $CO_2$ in Form der $CO_2$-Düngung der Biosphäre, insbesondere Begrünung und Humusbildung, zugute kommt.
Die Frage, welche Auswirkungen diese Szenarien auf die Entwicklung der globalen Durchschnittstemperatur haben werden, wird in diesem Beitrag behandelt.
Eine aussagekräftige Datenanalyse hängt entscheidend von der Verfügbarkeit zuverlässiger Daten ab. Historisch gesehen ist es von größter Bedeutung, möglichst genaue Temperaturdaten zu haben, da diese einer der wesentlichen Prädiktoren für das zu erwartende Wetter sind. Auch die Langzeitbeobachtung von Klima und Klimatrends erfordert Temperaturdaten von höchster Qualität.
Was wäre, wenn Menschen und Institutionen anfangen würden, solche Daten zu verfälschen, weil die Daten, wie sie tatsächlich sind, nicht zu einer bestimmten politischen Agenda passen? Das würde – zumindest teilweise – die Schlussfolgerungen, die wir aus diesen Messungen ziehen, ungültig machen.
Leider sind genau solche vorsätzlichen Manipulationen von Temperaturdaten tatsächlich passiert. Einer der Meilensteine der Ereignisse ist eine Publikation von James Hansen „GISS analysis of surface temperature change“. In diesem Beitrag beschreibt Hansen eine Reihe von anscheinend notwendigen Anpassungen, die – in angeblich seltenen Fällen – an den Temperaturdaten vorgenommen werden müssen, um die Mittelung der Temperaturanomalien konsistent zu machen:
Die häufigste Anpassung ist die Korrektur für den städtischen Wärmeinseleffekt. Dieser ist typischerweise eine Folge des städtischen Wachstums: Früher befand sich das Thermometer außerhalb einer Stadt in einer grünen Umgebung, mit dem Wachstum der Stadt ist es nun von Häusern umgeben und unterliegt dem städtischen Wärmeeffekt, der die Temperatur ansteigen lässt. Um dies mit der vorherigen Messung in Einklang zu bringen, werden entweder die vergangenen Temperaturen angehoben oder die zukünftigen Temperaturen abgesenkt. In der Regel ist es einfacher, die vergangene Temperatur anzupassen, indem man so tut, als wäre die Stadt immer so groß gewesen wie heute. Es ist fraglich, ob eine solche Anpassung gerechtfertigt ist, oder ob es nicht klüger wäre, den städtischen Wärmeeffekt stehen zu lassen und explizit zu verfolgen und dafür geschichtliche Tatsachen anzuerkennen, indem die tatsächlichen Messungen der Vergangenheit nicht verändert werden. Tatsache ist, dass eine Veränderung der vergangenen Temperaturen auch die damalige globale Mitteltemperatur verändert, was unter keinen Umständen gerechtfertigt ist.
Eine zweite – eher verständliche – Situation zur Anpassung von Temperaturdaten tritt auf, wenn ein Thermometerstandort in eine größere oder geringere Höhe verlegt wird. Z.B. bei einer Höhenveränderung von 160m nach unten würde dies einer Temperaturerhöhung der bisherigen Daten um 1° C entsprechen, bei einem von Hansen angenommenen adiabatischen Temperaturgradienten von -6°/km . Physikalisch bedeutet dies die Invarianz der Potentialtemperatur, wenn der Energiegehalt des Gesamtsystems nicht verändert wird. Meinem Verständnis nach ist das die einzige legitime Anpassung nach Temperaturmessungen, weil sie den ursprünglichen wahren Messwert nicht verändert, sondern ihn lediglich auf einen anderen Ort abbildet, an dem vorher nicht gemessen wurde. Besser wäre allerdings eine zeitliche Abgrenzung der Thermometer-Gültigkeit ohne eine explizite Anpassung, wie es in anderen Gebieten der Datenverarbeitung selbstverständlich ist. Die Transformation und Interpolation der Daten wäre dann ggf. bei der Auswertung durchzuführen. Dort findet ohnehin eine Interpretation der Daten statt, die bei seriösen Publikationen eine nachvollziehbare Rechtfertigung jedes Verarbeitungsschrittes beinhaltet.
Beide diese Anpassungen wurden in Hansens Arbeit erwähnt und begründet. Anzumerken ist, dass der dominante Fall der städtischen Wärmeinseln zu einem Anstieg der vergangenen Temperaturen oder zu einem Rückgang der aktuellen und zukünftigen Temperaturen führen muss (wenn man von dem in Zeiten starken Bevölkerungswachstums sehr seltenen Fall absieht, dass eine Stadt verlassen wird und vollständig verfällt).
Die Zeitreihen der US-Mitteltemperaturen hat Hansen auf S. 47 seines Papiers veröffentlicht (unten links auf der Seite):
Es ist deutlich zu erkennen, dass die 3 höchsten Temperaturen im 20. Jahrhundert in den Jahren 1934, 1921 und 1931 lagen. Auch der gleitende Durchschnitt hat seinen Höhepunkt eindeutig in den frühen 1930er Jahren, und einen Abwärtstrend von den 30er Jahren bis zum Ende des Jahrhunderts.
Wenn wir uns die heutigen Temperaturdaten ansehen, die online von NOAA verfügbar sind, sind wir überrascht, dies zu sehen:
Wenn man sich das Diagramm genau ansieht, kann man beobachten, dass die Temperatur von 1998 jetzt größer ist als die zuvor größte Temperatur von 1934, eine Erhöhung um fast ein halbes Grad Celsius! Eine Reihe der späteren Temperaturen des 20. Jahrhunderts wurden ebenfalls erhöht, während die früheren Daten des 20. Jahrhunderts reduziert wurden. Das ist genau das Gegenteil von dem, was man von einer Korrektur des städtischen Wärmeinsel-Effekts erwarten würde.
Durch ein Video von Tony Heller bin ich auf diese Problematik, die nach meinem Verständnis nur als vorsätzliche Manipulation gedeutet werden kann, aufmerksam geworden.
Detailierte Datenanalyse von Prof. Friedrich Ewert
Dass die Temperaturdaten der NASA/NOAA manipuliert wurden, hat Prof. Friedrich Ewert in einer langwierigen Analyse nachgewiesen. Demnach sind viele Temperaturdaten von vor 2010 nach dem Jahre 2012 verändert. Mit den heutigen Datensätzen sind die Originaldaten von vor 2010 nicht mehr zu finden. Prof. Ewert konnte die Vergleiche anstellen, weil er die früheren Datensätze rechtzeitig archiviert hatte.
Die Manipulationen beziehen sich nicht nur auf US-Temperaturdaten, sondern auch auf Daten anderer Länder. Für die 120 zufällig ausgewählten Stationen erfasste Ewert die zehntausenden von Einzeldaten, die die NASA für jedes Jahr vor und nach 2010 angibt. Würde man seine Daten ausdrucken, ergäbe sich eine 6 Meter lange Liste. Es ist zu erkennen, dass zehn verschiedene Methoden verwendet wurden, um einen Trend zur Klimaerwärmung zu erzeugen. Sie sind alle in der Studie mit Beispielen dokumentiert. 6 der 10 Beispiele wurden am häufigsten angewendet (Prof Ewert unterteilt den gesamten Zeitraum in aufeinanderfolgende Warm- und Abkühlungsphasen):
Eine Absenkung der Jahresmittelwerte in der Anfangsphase.
Eine Verringerung einzelner höherer Werte in der ersten Warmphase.
Eine Erhöhung einzelner Werte in der zweiten Warmphase.
Eine Unterdrückung der zweiten Abkühlungsphase ab etwa 1995.
Eine Verkürzung der Datenreihen um die früheren Jahrzehnte.
Bei Langzeitreihen wurden die Datenreihen sogar um die frühen Jahrhunderte verkürzt.
Das berühmteste Beispiel für die absichtliche Temperaturmanipulation wurde von Phil Jones vom britischen Met Office in einer E-Mail an Michael Mann und Keith Briffa geäußert:
„Ich habe gerade Mikes Trick aus Nature angewandt, indem ich die realen Temperaturen zu jeder Reihe für die letzten 20 Jahre (d.h. ab 1981) und ab 1961 für die von Keith hinzugezählt habe, um den Rückgang zu verbergen.“
Hier das Diagramm aus dem zitierten Dossier von Stephen McIntyre und Ross McKitrick:
Absenkung der Temperatur von 2016
2016 war ein sehr heißes Jahr, und bislang das im globalen Durchschnitt das heißeste Jahr der jüngeren Vergangenheit. Die darauf folgenden Jahre waren deutlich kühler. Das Jahr 2020 war dann im globalen Durchschnitt fast so heiß wie das Jahr 2016. Um eines neuen Superlatives willen änderte die NASA im Nachhinein die Temperatur von 2016, damit der Trend zu immer neuen Hitzerekorden aufrecht erhalten werden konnte:
Die Kohlendioxid-Bilanz der photovoltaischen Energiegewinnung
[Latexpage/]
Solarenergie gilt als $CO_2$emissionsfrei, die wahre Lösung für den Wunsch nach einer kohlenstofffreien Energieversorgung. Dies lenkt den Fokus der Aufmerksamkeit auf das „aktive“ Leben der PV-Stromerzeugung, die scheinbar „kostenlose“ Energie, ohne Kosten und frei von $CO_2$, produziert.
Dieser Fokus ändert sich, wenn man tatsächlich plant, eine photovoltaische Versorgung z.B. für ein Privathaus zu installieren. Dies erfordert eine ganze Reihe von kostspieligen Komponenten:
Die Solarpaneele und (dicke Hochstrom-)Kabel
das Wechselrichtermodul,
Backup-Batterien, um zumindest die Tag/Nacht-Schwankungen zu überbrücken
Insbesondere die Solarmodule und Li-Ionen-Batterien benötigen zur Herstellung viel Energie und andere kritische Ressourcen. Da sie aufgrund der geringen solaren Energiedichte, des niedrigen Wirkungsgrades der Photovoltaik und der Unbeständigkeit des Sonnenlichts in großer Menge benötigt werden, müssen für eine vollständige Berechnung des Energiehaushalts und der CO2-Bilanz die Beiträge für deren Herstellung berücksichtigt werden.
Häufig werden Effizienzberechnungen und Energiebilanzen erstellt, die das Vorhandensein einer auf fossilen Brennstoffen beruhenden Infrastruktur voraussetzen. Dies ist z.B. die implizite Voraussetzung der deutschen „Energiewende“ mit ihrem Einspeise-Konzept. Die Probleme der Volatilität solarer Energieerzeugung werden hauptsächlich auf die sorgfältig abgestufte Regelungstechnik konventionellen Kraftwerke abgewälzt, um diese dann für die „Verstopfung der Netze“ verantwortlich zu machen. Wir untersuchen hier den vollständigen Kohlendioxid-Fußabdruck eines Systems, das nicht von fossilen Brennstoffen abhängig ist. Im Jahr 2013 hat Mariska de Wild-Scholten in der Veröffentlichung „Energy payback time and carbon footprint of commercial photovoltaic systems“ den Kohlendioxid-Fußabdruck der Produktion von Solar-Paneelen untersucht. Diese wird als Ausgangspunkt für die vorliegende Analyse verwendet. Diese Arbeit erscheint mir zuverlässiger als die offiziellen Verlautbarungen des Deutschen Umweltbundesamtes, wonach die effektive $CO_2$-Emission bei solar erzeugter Energie bei nur 67 g/kWh liege.
Die Annahmen ihrer Berechnungen erscheinen fair und realistisch. Zwei davon möchte ich genauer betrachten:
Energieertrag wird mit 1275 kWh/a pro installierter $kW_p$ Modulleistung angenommen,
Lebensdauer wird mit 30 Jahren angenommen
Nimmt man den real erbrachten Energieertrag in Deutschland, basierend auf der offiziellen Statistik des Fraunhofer-Instituts, so beträgt die gesamte produzierte volatile Energie 2020 aus $54 GW_p$ installierten Solarmodulen $50 TWh$, was einer durchschnittlichen realen Leistung von $926 kWh/a \approx 2.5 kWh/d \approx 106 W$ für jedes installierte $kW_p$ Modul entspricht. Vereinfacht gesagt von 1 kW installierter Leistung bekommt man im Durchschnitt 106 W heraus, das sind 2,5 kWh am Tag oder 926 kWh im Jahr. In de Wild-Scholten’s Publikation wird explizt angenommen, dass die Berechnungen für modellierte Bedingungen in Südeuropa gültig sind, also ist es keine absichtliche Übertreibung, aber ihre Zahlen entsprechen nicht den in Deutschland tatsächlich gemessenen Werten.
Die Annahme einer Lebensdauer von 30 Jahren ist ebenfalls sehr optimistisch. Wenn man berücksichtigt, dass es zu Schäden an den Modulen durch Gewitter, Hagelschlag oder Defekte in den Solarzellen kommen kann, ist es realistischer, die garantierte Produktlebensdauer von typischerweise 25 Jahre anzunehmen.
Die meisten der aktuell in Deutschland installierten PV-Module werden in China produziert, so dass hinsichtlich der $CO_2$-Emissionen die Basiszahl für den $CO_2$ Fußabdruck
$ CF_{base}=80 \frac{g CO_2}{kWh} $
beträgt. Unter Berücksichtigung der realen Solarenergielieferung und der realistischeren, versicherungstechnisch garantierten Lebenserwartung von 25 Jahren beträgt der reale PV Kohlendioxid Fußabdruck für Mitteleuropa, repräsentiert durch die Statistik von Deutschland
$ CF_{Deutschland} = 80\cdot \frac{1275}{926}\cdot\frac{30}{25} \frac{g CO_2}{kWh} = 132 \frac{g CO_2}{kWh}$, also etwa doppelt so viel wie die „schöngerechnete“ Zahl des Deutschen Umweltbundesamtes.
Weiterhin muss in der Bilanz noch die nicht genutze Energie berücksichtigt werden. Dies hängt von vielen Bedingungen ab, v.a. von der verwendeten Speichergröße. Ohne Speicherung oder Einspeisung kann davon ausgegangen werden, dass im Schnitt nicht mehr als die Hälfte des gelieferten Stromes genutzt wird, was den $CO_2$ Fußabdruck effektiv verdoppelt.
Betrachtung mit Kurzzeitspeicherung
Durch den volatilen Charakter der Solarenergie ist die durchschnittliche Energiemenge eine unvollständige Sichtweise, wenn das Ziel eine Energieerzeugung ohne fossile Brennstoffe ist. Die erste Art der Volatilität ist der Tag/Nacht-Zyklus und kurzfristige Wetterschwankungen. Diese Art der Volatilität kann mit einem Batteriespeicher für 1-7 Tage abgedeckt werden. Ein einigermaßen sicherer Wert ist ein Speicher, der einem Energieverbrauch von 3,5 Tagen entspricht, was ca. 7 Tage abdeckt, wenn man annimmt, dass die Hälfte des Verbrauchs während der – solaraktiven – Tageszeit stattfindet. Mit diesem Szenario stehen die Chancen gut, fast die gesamte Zeitspanne von März bis Oktober abzudecken. Das ist mehr Batterie-Kapazität, als derzeit in Deutschland typischerweise gekauft oder gefördert wird, aber die politische Förderung von Speichern steht erst am Anfang. Die in USA häufigeren vollständig autarken „Insel“-Anlagen haben eher noch größere Speicher. Daher kann als Faustregel eine Batteriekapazität von 1% des jährlichen Durchschnitt-Energieertrages angenommen werden, um mit Ausnahme der 3-4 Wintermonate den größten Teil der benötigten Energie bereitzustellen. Dies wird durch praktische Erfahrungen belegt. Für jedes installierte Modul mit 1 $kW_P$ beträgt die erforderliche Kapazität C $ C = 926 \cdot 0,01 kWh \approx 9 kWh $
Bei dieser Berechnung wurde davon ausgegangen, dass man die in der Batterie gespeicherte Leistung zu 100% wieder herausbekommt. Das ist aber nicht der Fall. Die Batteriehersteller geben zwar einen Wert von über 90% an. Dieser gilt aber nur für neue Batterien im Kurzzeitbetrieb. Bei mehrtägiger Speicherung müssen die Leckströme mit in Betracht gezogen werden und nach vielen Lade-Entlade-Zyklen sinkt die Lade-Kapazität. Eine Langzeitstudie in Californien ergab eine langjährigen Mittelwert von nur 60% wiedergewinnbarer batteriegespeicherter Energie (RTE = „round trip efficiency“). Demnach ist der über mehrere Jahre ermittelte $CO_2$ Fußabdruck der Li-Ionen Akkus
Die Standard-Solar-installation für Privathaushalte, die im Wesentlichen die Stromversorgung über 8 Monate von März bis Oktober abdeckt, bedeutet demnach einen mittleren Kohlendioxidausstoß von $254 \frac{g}{kWh}$, ziemlich viel für eine als „$CO_2$-frei propagierte Technologie.
Langzeitspeicherung – über den Winter
Es gibt verschiedene Möglichkeiten, den Einfluss der saisonalen Schwankungen abzuschätzen, d.h. dass im Winter kaum nutzbare Sonneneinstrahlung vorhanden ist, während im Sommer ein Peak auftritt. Unter der Annahme, dass die jährliche Gesamtsolarenergieerzeugung dem jährlichen Gesamtverbrauch entspricht, ist es offensichtlich, dass die saisonale Volatilität, die zum Defizit im Winter führt, einen Überschuss in den Sommermonaten bedeutet.
Der derzeit favorisierte Ansatz zur Langzeitspeicherung ist das sogenannte Power-to-Gas-Konzept: Die überschüssige elektrische Energie im Sommer wird durch Elektrolyse in Wasserstoff umgewandelt. Da Wasserstoff schwierig zu speichern und zu handhaben ist, wird angenommen, dass er zu Methan weiterverarbeitet wird (für die Alternativen Ammoniak oder Methanol gelten ähnliche Überlegungen, ein reines Wasserstoff-Konzept wird hier mit etwas anderem Fokus durchgerechnet) Dieses ist im wesentlichen identisch mit Erdgas und kann leicht gespeichert werden (z.B. in flüssiger Form als LNG) und in einem Gaskraftwerk wieder zu elektrischem Strom umgewandelt werden. Dies kann auf der lokalen Ebene der Gemeinde, der Stadt oder des Landkreises geschehen, wo sowohl der Elektrolyseur als auch die Gaskraftwerke betrieben werden. Damit können u.U. teure Überland-Leitungen eingespart werden. Das Problem dieses Konzepts ist, dass der effektive Wirkungsgrad der Speicherung nur 25% beträgt. Um 1 kWh in einem Wintermonat zu erhalten, muss man während des restlichen Jahres 4 kWh investieren. Betrachtet man also die Wintermonate, dann sind diese beim solaren Power-to-Gas (P2G) Verfahren mit dem 4-fachen Kohlendioxid-Fußabdruck belastet, also $4\cdot 132 \frac{g}{kWh} = 528 \frac{g}{kWh}$. Das ist in etwa derselbe Wert wie der eines normalen Gaskraftwerks(436-549 $\frac{g}{kWh}$, siehe auch hier ) . Demnach ist es für die $CO_2$ Bilanz unerheblich, ob der im Winter notwendige Strom aus fossilem Erdgas oder über solar-betriebenes Power-to-Gas Verfahren erzeugt wird. Der Preis des mit Power-to-Gas erzeugten Methans ist allerdings etwa der 10 fache des fossilen Erdgases.
Wenn es gelingt, Wasserstoff ohne extrem hohen Druck oder extreme Kälte direkt zu speichern, dann läßt sich der Wirkungsgrad der Speicherung auf 50% erhöhen, mit der Folge eines $CO_2$-Fußabdrucks von mindestens 264 $\frac{g}{kWh}$. Die Speicherung des Wasserstoffs in flüssiger Form benötigt für die Verflüssigung von Wasserstoff etwa 4,94 kWh/kg – bei einem Heizwert/Brennwert von 33/39 kWh/kg – geht also etwa 1/7 der nutzbaren Energie verloren, mit der Folge eines $CO_2$-Fußabdrucks von $264\cdot\frac{7}{6} \frac{g}{kWh} \approx 300 \frac{g}{kWh}$
Langfristige Lösung im großen Maßstab – einschließlich Windenergie
In seiner Analyse hat Prof. Sinn berücksichtigt, dass nicht nur die Solarenergie, sondern auch die Windenergie „regenerativ“ ist, und dass die Verfügbarkeit von Wind teilweise komplementär zur Solarenergie ist. Das Ergebnis seiner Berechnungen war, dass der gesamte Speicherbedarf zur Glättung der saisonalen Volatilität (im Wesentlichen das Problem des Winters) 11 TWh betragen würde, basierend auf dem gesamten Stromverbrauch im Jahr 2014 von 163 TWh, was etwa 6,7 % des gesamten Stromverbrauchs entspricht. Aufgrund der jährlichen Schwankungen sind mit einer Sicherheitsreserve mindestens 7 bis 7,5 % Speicherkapazität erforderlich, sofern man auf einer 100%igen Versorgung ohne fossile Brennstoffe besteht. Gleichzeitig muss das Speichersystem in der Lage sein, sehr hohe Leistungen, im Extremfall einer Dunkelflaute die komplette Netzleistung abzugeben.
H.-W.Sinn: Saisonale Speicherung der Solar/Wind-Volatilität
Das würde einen minimalen langfristigen Energiekostenfaktor für einen saisonalen Power-to-Gas-Speicher von $ \frac{93.3}{100}+\frac{4*6.7}{100} \approx 1.2 $ bedeuten und einen gesamten Kohlenstoff-Fußabdruck von $ CF_{Gesamt} = 132*1.2 + 73 \frac{g}{kWh} = 231 \frac{g}{kWh} $
Der Kohlenstoff-Fußabdruck der Windenergie-Erzeugung wird hier nicht explizit behandelt, d.h. es wird implizit angenommen, dass er etwa derselbe ist wie bei der Solar-PV-Erzeugung. Für die ursprüngliche Fragestellung der privaten Haushaltsstromversorgung spielt sie eine untergeordnete Rolle, sie ist nur als regenerativer Netz-Teilanbieter im Winter relevant.
Jedenfalls ist der $CO_2$ Fußabdruck von der langfristig angestrebten 0 weit entfernt.
Der Verbrauch wird realistischerweise mit 15 kWh pro 100 km angesetzt. Daher ist der Kohlenstoff-Fußabdruck des batterie- und solargestützten Verbrauchs (dies vernachlässigt den Kohlendioxid-Fußabdruck zum Bau des Autos) optimal $CF_{EV} = (73 + \frac{15\cdot 231}{100})\frac{g CO_2}{km} = 108 \frac{g CO_2}{km} $
Dies liegt deutlich über dem EU-Grenzwert für 2020 von 95 $\frac{g CO_2}{km}$ und mehr als 50 % über dem Grenzwert für 2025 von 70 $\frac{g CO_2}{km}$.
Warum wird in der Politik und bei den Behörden mit zweierlei Maß gemessen? Für die Natur ist es unerheblich, auf welchem Wege das $CO_2$ in die Atmosphäre gelangt. Politisch ist es ehrlicher, mit einem Benzin- oder Diesel-Fahrzeug das $CO_2$ in den eigenen Luftraum zu lassen, als durch $CO_2$-Kolonialismus die eigene Luft vermeintlich „sauber“ zu halten, aber durch die Produktion der notwendigen Komponenten den Ausstoß nach China oder anderen „Billigländern“ zu verlagern.
Die beiden Kreisläufe des Cradle to Cradle Konzepts
Die Produkte im Biologischen Kreislauf müssen vollständig biologisch abbaubar sein und müssen verträglich mit den Kriterien der Ökologie, also Natur- und Landschaftsschutz. Dazu gehört insbesondere auch das gesundheitliche und seelische Wohlbefinden der Menschen.
Der Technischen Kreislauf ist zweifellos die Grundlage von Lebensqualität und Wohlstand. Hier kommen auch Stoffe und Prozesse vor, vor denen der Biologische Kreislauf geschützt werden muß.
Beiden Kreisläufen ist konzeptionell gemeinsam, dass sie gemäß der Zielvorstellung geschlossen sind – es dürfen per Definition keine Abfälle zurückbleiben. Alles wird entweder wiederverwendet oder es wird in verträglicher Form dem Biologischen Kreislauf zurückgegeben. Viele Alltagsprozesse sowie Produktionsprozesse der Industrie und auch der Landwirtschaft entsprechen nicht diesem strengen Kriterium. Dabei ist zu unterscheiden:
existierende Prozesse, Produkte und Einrichtungen, die aufgrund von Verträgen, Genehmigungen und gesetzlichen Regelungen Bestandsschutz und Investitionsschutzgarantien genießen. Dazu gehören z.B. existierende Wohngebäude, die entsprechend der erteilten Baugenehmigung gebaut wurden. Leichtfertige, politisch motivierte Verletzungen dieser Grundsätze führen in der Regel zu sehr teuren Schadensersatzklagen und zu gesellschaftlichem Unfrieden, so wie etwa bei der widerrechtlich verkürzten Laufzeit bereits genehmigter Kernkraftwerke im Jahre 2011.
Anders ist es bei noch nicht umgesetzten, geplanten Prozessen, neuen Produkten und Einrichtungen. Bei diesen dürfen keine politisch motivierten faulen Kompromisse mit den Zielen der Nachhaltigkeit im Sinne der rückstandsfreien Kreislaufwirtschaft eingegangen eingegangen werden.
Bei der sogenannten Energiewende sind leider bislang die Kriterien der Nachhaltigkeit im Sinne einer Kreislaufwirtschaft kaum bis gar nicht berücksichtigt worden, weil eine einseitige Fokussierung auf Vermeidung von $CO_2$ alle anderen Nachhaltigkeitsprobleme verdrängte. Aufgrund des besseren Verständnisses atmosphärischer Prozesse (siehe auch hier) kann mit großer Sicherheit davon ausgegangen werden, dass es auch bei weiterer $CO_2$-Erzeugung nicht zu so dramatischen „Klimafolgen“ kommen wird, die rechtfertigen würden, alle anderen Anforderungen des Natur- und Landschaftsschutzes zu vernachlässigen – „…wir dürfen nicht zulassen, dass die Regenerativen Energien unsere Umwelt zerstören“ (siehe auch hier)
Größenordnung der Nutzung regenerativer Energie
Bei den folgenden Betrachtungen soll der Schwerpunkt auf Wind- und Solarenergie liegen, daher werden folgende zur nachhaltigen Energiegewinnung gerechneten Technologien nur kurz erwähnt – was nicht heißt, dass Nachhaltigkeitsbetrachtungen bei ihnen unwesentlich sind:
Bio-Treibstoffe: Bio-Treibstoffe bergen grundsätzlich das potentielle Problem des großen Flächenverbrauchs und -mißbrauchs, da der nachhaltige Ertrag von z.B. Holz auf 0,5 $\frac{W}{m^2}$ begrenzt ist (das entspricht einem jährlichen Holzertrag von 10 Raummeter/ha). Es spricht nichts gegen eine Nutzung von Brennholz im Rahmen der forstwirtschaftlich gesunden Nachhaltigkeitsgrenzen ( in Deutschland aktuell 60 Mio Festraummeter) Dazu kommt das Problem der Monokulturen beim Anbau von „Energiepflanzen“ und der gefährlichen Konkurrenz von profitablen Energiepflanzen und Nahrungsmitteln, was unweigerlich die Verteuerung von Nahrungsmitteln zur Folge hat.
Anteil erneuerbarer Energie bei Strom, Wärme und Verkehr
Kritische Analyse der Energiewendemaßnahmen
Für eine wirklich zukunftsfähige Infrastruktur müssen die Maßnahmen der Energiewende daran gemessen werden, inwieweit sie dem Konzept der oben beschriebenen Kreislaufwirtschaft Genüge tun, also müssen bei jeder Maßnahme diese Aspekte überprüft werden:
Es gibt sehr starkte Indizien, dass nach einer Studie, über die in der New York Times berichtet wird, die Solarzellen in China mit Zwangs- und Sklavenarbeit hergestellt werden. Das erklärt die sensationell niedrigen Preise chinesischer Solarzellen, die zur Geschäftsaufgabe fast aller einst erfolgreichen deutschen Hersteller von Solarzellen führten. Warum führen diese Menschenrechtsverletzungen nicht zum Boykott chinesischer Photovoltaik-Anlagen?
Internierungslager in Xinjiang. Zitatquelle: New York Times
Der Betrieb von Solaranlagen ist bislang in zweierlei Hinsicht parasitär, d.h. die Anlagen leben davon, dass es nukleare oder fossile Stromversorgung gibt:
Zum einen sind sie von Anfang an bis heute stark subventioniert, die Nutzer konventionellen Stroms müssen mehr bezahlen, um den solar erzeugten Strom zu finanzieren,
zum anderen wird solarer Strom nicht nachfrageorientiert erzeugt, sondern wann immer die Sonne grade scheint. Insbesondere an den Abenden, wo die Hauptlast der privaten Haushalte ist, fällt die solare Versorgung ganz aus. Im Winter ist die solare Stromerzeugung vernachlässigbar gering. Das bedeutet, dass solare Stromerzeugung zu 100% mit anderen Methoden der Stromerzeugung ersetzbar sein oder durch Speicherung gepuffert werden muß.
Solange Solaranlagen auf Hausdächer begrenzt sind, fallen sie hinsichtlich Flächenverbrauch nicht wesentlich ins Gewicht. Bei dem geplanten massiven Ausbau (500 GW installierte Leistung bis 2050, also 10 fache installierte Leistung von heute ) ist zu erwarten, dass zunehmend auch auf Freiflächen Solaranlagen installiert werden, die dann entweder mit der Landwirtschaft oder mit dem Naturschutz konkurrieren. Eine optimistische Beispielrechnung für den amerikanischen Bundesstaat Ohio kommt zu dem Schluß, dass höchstens die Hälfte des notwendigen Strombedarfs durch Dachinstallationen gedeckt werden kann.
Bei großflächigen Installationen ist zudem die Auswirkung von Solarmodulen auf die Veränderung der Erd-Albedo zu berücksichtigen – Solarmodule sind schwarz und ihr Ziel ist es, möglichst viel Strahlung zu absorbieren -, die zu absehbaren problematischen Auswirkungen auf’s Klima führen.
Beispiele von Versiegelung von Landschaften durch Photovoltaik-Anlagen:
Den Landverbrauch von Solaranlagen kann man durch die erzielbare Energiedichte angeben. Infolge der optimierten Ausrichtung der Solarmodule können die Module nicht beliebig dicht aufgestellt werden, dies führt in der Regel zum 3-fachen Landverbrauch im Vergleich zur aktiven Kollektorfläche. Realistisch können also 6,8 W volatile Durchschnittsleistung pro $m^2$ erzielt werden, in Ausnahmefällen 10 W. Um im Durchschnitt ein Kraftwerk mit der Leistung 1 GW durch Photovoltaik zu ersetzen, wird also eine Landfläche von 147 $km^2$ benötigt, ein Quadrat mit der Seitenlänge von 12,1 km. Damit ist aber noch lange nicht das Kraftwerk ersetzt, denn der solare Strom ist volatil, und muß unter Leistungsverlust (z.B. mit flüssigem Wasserstoff) gespeichert werden, was den Flächenverbrauch nochmal vergrößert auf mindestens 176 $km^2$ pro GW elektrischer Leistung.
Der Preis für’s Recycling beträgt aktuell etwa 15€ für ein Paneel, was das Recycling bei einem Neupreis von etwa 150€ wirtschaftlich unattraktiv macht.
Staatlich gelenkte gezielte Verleumdung derjenigen, die sich z.B. aus Naturschutzgründen gegen den Ausbau von Windenergie in Wäldern oder anderen „umweltkritschen“ Gebieten einsetzen, wie in Kleine Staatskunde für Windkraftprofiteure.
14.000 Turbinen verrotten in den USA – jede Turbine – 1.671 Tonnen Material, darunter 1300 Tonnen Beton, 295 Tonnen Stahl, 48 Tonnen Eisen, 24 Tonnen Glasfaser, 4 Tonnen Kupfer, chinesische Seltenerdmetalle, 0,4 Tonnen Neodym und 0,065 Tonnen Dysprosium. 43 Millionen Tonnen Schaufelabfälle
Elektromobilität
Das zentrale Problem in Bezug auf die Umwelt ist die Speicherung der elektrischen Energie mittels Lithium-Ionen Batterien. Hierzu werden insbesondere große Mengen an Lithium, Kobalt, Nickel, Mangan und anderen Seltenen Erden benötigt. Probleme gibt es es in allen Phasen des „Lebenszyklus“, bei Erzeugung, Betrieb und Entsorgung.
Ausgangspunkt sind die natürlichen unterirdischen Vorkommen einer Salzlösung mit 0.15% Lithiumgehalt, gemischt mit 2.5% Kaliumgehalt in einer Gegend, die zu den trockensten der Erde gehört und eine große Hitze herrscht.
Der Lithium-Verdampfungsprozess
Diese Salzlake wird aus 1.5-60m Tiefe in große Verdampfungsbecken geleitet. In der ersten Phase der Verdunstung, während eines Zeitraums von 6-9 Monaten, wird das Kaliumsalz ausgefällt. Nach Überleitung in eine zweite Gruppe von Verdunstungsteichen wird die Lösung aus 6% Lithiumgehalt angereichert.
Lithium Verdampfungsbecken
Nach dieser Anreicherung wird die Lithiumcloridlösung abgepumpt und in Chemiefabriken transportiert, wo eine Umwandlung nach Lithiumhydroxid und Lithiumcarbonat erfolgt.
Die erste wichtige Größe ist der Energieeinsatz, der zur Herstellung notwendig ist:
Notwendiger Energieeinsatz zur Herstellung einer Lithium-Ionen Batterie
Genau betrachtet ist die Energie-Skala dimensionslos, weil 1 J = 1 Ws ist, also 1 kWh = 3,6 MJ . 1200 MJ/kWh bedeutet, dass zur Herstellung einer Batterie mit 1 kWh Kapazität die Energie von etwa 333 vollständigen Ladezyklen notwendig ist. Die Angaben der Lebensdauer von Akkus gehen weit auseinander, sie werden auf 500- 3000 Ladezyklen geschätzt.
Die zweite wichtige Kennzahl ist der „$CO_2$-Fußabdruck“, also die Erzeugung von $CO_2$ pro kWh Batteriekapazität:
Treibhausgas-Emissionen pro kWh Batterie-Kapazität
Die $CO_2$ Emissionen für die Herstellung einer 100 kWh Batterie (Tesla Model X) in einem Elektroauto (entspricht einer theoretischen 500 km Reichweite — ohne Heizung oder Klimaanlage — bei einem Verbrauch von 20 kWh/100 km) betragen demnach 7500 kg $CO_2$. Bei einem angenommenen Grenzwert von 100 $g CO_2 /km$ entspricht dies der Fahrleistung von 75.000 km eines schadstoffarmen Dieselfahrzeugs. Dabei ist noch nicht der $CO_2$ Fußabdruck der Stromerzeugung berücksichtigt.
Eine Umstellung auf Elektromobilität erfordert gigantische Maßnahmen der Umstellung der gesamten Infrastruktur:
Stromversorgung von Millionen von Fahrzeugen ist für das aktuelle Stromnetz nicht vorgesehen
Die „überschießenden Stromspitzen“ von Wind- und solarer Elektrizitätsproduktion, die durch Elektrolyse mit Hilfe von Wasserstoff gespeichert werden, reichen maximal für den Betrieb von 200.000 Fahrzeugen
Das Hauptproblem bleibt. Wir sind weit entfernt von einem geschlossenen Kreislauf, wie er vom Cradle-to-Cradle Prinzip gefordert wird. Die Richtlinien der EU fordern aktuell lediglich ein 50% Recylcling der Batterien. Dies kann durch die Komplexität der Bauweise dann so „getrickst“ werden, dass die Kernbestandteile, die Akku-Zellen, gar nicht recycled werden, weil dies immer noch sehr aufwendig und teuer ist.
Gebäudedämmung, Biotreibstoffe etc.
Diese Themen bergen ebenfalls Risiken bezüglich der Wiederverwendbarkeit und der schädlichen Einflüsse auf den ökologischen Kreislauf.
Sie werden in einer künftigen Erweiterung dieses Beitrags behandelt.
Intelligentes Produktdesign und geschlossene Kreisläufe statt Recycling
Cradle to Cradle (C2C) steht im Gegensatz zum bisherigen End-Of-Pipe Ansatz, mit dem wir nur an den Symptomen herumdoktern. Statt wie beim Recycling am Ende eines Produktlebens zu schauen, welche Rohstoffe noch mühsam extrahiert und wiederverwendet werden können (ein erheblicher Teil wandert anschließend doch in die Müllverbrennung oder wird nur „downgecycelt“), stellt C2C die Produktentwicklung und die folgenden Fragen in den Fokus:
Welche Materialien und Chemikalien habe ich verbaut? Sind sie positiv definiert? Kenne ich ihre Auswirkungen auf Mensch und Natur?
Was passiert mit meinem Produkt nach der Nutzungsphase? Wie verhindere ich, dass es zu Abfall wird?
Kann ich alle genutzten Materialien so verbauen, dass sie nachher sortenrein trenn- und wiederverwendbar (Technischer Kreislauf) oder kompostierbar (Biologischer Kreislauf) sind?
Kann ich dem Produkt einen zusätzlichen positiven Nutzen hinzufügen?
Damit ist C2C eines der wenigen Nachhaltigkeitskonzepte, das sich an Unternehmen richtet und diese schon in der Produktentwicklung in „Verantwortung“ nimmt. Zusätzlich sollten wir als Gesellschaft das Konzept „Müll“ aus unseren Köpfen streichen, und alles als Nährstoff für Neues – für neue Produkte oder für die Natur – anfangen zu begreifen!
Wird Cradle to Cradle konsequent umgesetzt, können Produkte mit einen öko-effektiven Nutzen entstehen:
So gibt es Teppiche, die nicht nur immer wieder in einem technischen Kreislauf zirkulieren können, sondern durch ihre spezielle Oberfläche aus Garn auch Feinstaub aus der Luft filtern können.
Oder kompostierbare T-Shirts, deren Mikrofaserabrieb sich zersetzt und so nicht als Mikroplastik in den Meeren landet.
Desweiteren wird an speziellen Eisverpackungen geforscht, die ihre Eigenschaften nur gekühlt behalten, sich jedoch in Wasser auflösen, sobald sie Zimmertemperatur erreichen.
Dabei geht es oftmals nicht nur um klassisches Ökodesign, sondern vielmehr auch um Qualität. C2C birgt das Potential, alle Dinge um uns herum nochmals mit der Brille der Kreislauffähigkeit und Öko-Effektivität auf den Prüfstand zu nehmen.
Neue Geschäftsmodelle
Zudem können komplett neue Geschäftsmodelle entstehen:
Besagter Teppichhersteller etwa least seine Teppiche im Business-to-Business-Sektor für etwa 6 Jahre und nimmt sie danach zurück. Er stellt so sicher, dass er die Rohstoffe wieder nutzen kann. Und er muss die kompletten Entwicklungs- und Produktionskosten plus Gewinnmarge nicht mit einem einmaligen Verkauf einspielen, sondern kann dies über eine längere Zeitdauer mit mehreren Leasing-Verträgen realisieren.
Beim Bau der Venlo City Hall in den Niederlanden wurden stattdessen die Baufirmen schon heute für einen geordneten Rückbau in 50 Jahren verpflichtet. Verbaute wertvolle Materialien, wie das Aluminium der Fensterprofile, werden als Investition angesehen, welche später gewinnbringend veräußert werden können. Der Rückbau wird also keinen Sondermüll verursachen, sondern zusätzliche Gewinne erzielen.
Cradle to Cradle läßt sich zusammenfassen zu:
Abfall ist Nährstoff – für neue Produkte oder für die Natur
Erst Ökoeffektivität und Qualität, dann Ökoeffizienz
Circular Economy birgt Potential für Entkopplung von Wirtschaftswachstum und Ressourcenverbrauch – und für neue Geschäftsmodelle
Die zentrale Botschaft der C2C Denkschule lautet aber: Habe Mut, deinen eigenen positiven Fußabdruck zu hinterlassen.
Prof. Michael Braungart Cradle to Cradle Keynote – Entrepreneurship Summit 2015 in Berlin
C2C in Bau & Architektur: Erwin Thoma – Cradle to Cradle Congress 2017
Klima-Sensitivität
[latexpage]
Die zentrale Frage der ganzen Klimadiskussion dreht sich um ein einziges Thema: Wie ändert sich das Klima, insbesondere die Welt-Durchschnittstemperatur, wenn sich der $CO_2$-Gehalt der Atmosphäre verdoppelt. Dies nennt man die sogenannte Klima-Sensitivität, die Stellschraube aller Klimapolitik. Ausgehend von den unterschiedlichen Modellvorstellungen des Internationalen Klimarates, des IPCC, droht uns bis Ende des Jahrhunderts eine durchschnittliche Temperaturerhöhung von 2°-5° C. Das politische „Optimalziel“ des Pariser Klimaabkommens ist eine Beschränkung auf 1.5° C. Das Problem ist, dass die sich daraus ergebenden Vorgaben hinsichtlich $CO_2$-Vermeidung auf einer angenommenen Klimasensitivität von 2°-3° C bei Verdopplung des $CO_2$-Gehaltes beruhen.
Ist das korrekt? Ungeheure Kosten, der Industriestandort Deutschland und die dadurch bedingte Verarmung, nicht zuletzt unsere Freiheit hängen von der richtigen Antwort auf diese Frage ab.
Ein einfaches Klimamodell
Wir wollen die bewährte MODTRAN-Simulation als eindimensionales Mini-Klimamodell verwenden, um die Frage der Klima-Sensitivität zu beantworten. Diese Vereinfachung ist insofern legitim, weil das Strahlungsgleichgewicht im Prinzip an jedem Ort der Erde berechnet werden kann und wenn unter den verschiedenen Bedingungen ein konsistentes Endergebnis herauskommt, dann halten wir es für verlässlich. Das Programm ist öffentlich zugänglich, daher ist alles überprüfbar. Wir wollen uns heute auf eine Beispielrechnung mit der Standardatmosphäre beschränken.
Dazu stellen wir das MODTRAN Programm so ein, wie die Atmosphäre 1850 etwa gewesen war, insbesondere war der $CO_2$ Gehalt damals 280 ppm. Alle anderen Luftbestandteile bleiben auf dem voreingestellten „Standard“-Durchschnittswert. Das Atmosphärenmodell ist die sogenannte US Standard-Atmosphäre, wie sie auch in der Internationalen Luftfahrt verwendet wird. Als Wolkenmodell habe ich diejenigen Wolken gewählt, die am häufigsten vorkommen, die Cumulus-Wolken zwischen 660m und 2700m Höhe. Der Wasserdampfgehalt wird dann so eingestellt, dass die Infrarot-Abstrahlung gerade den korrekten Wert von etwa 240 $\frac{W}{m^2}$ bekommt. Das ist mit einem durchschnittlichen relativen Wasserdampfgehalt von 0.25 gegeben. Die angenommene Durchschnitts-Oberflächentemperatur der Standardatmosphäre ist 15.2° C.
Simulation der vorindustriellen Atmosphäre
Das dunkelblaue Spektrum zeigt das bereits besprochene Verhalten. Das $CO_2$-Loch ist sehr ähnlich wie wir es schon kennen, der Einfluss des Wasserdampfes am rechten und am linken Rand ist ebenfalls gut erkennbar. Als Hilfslinien sind zusätzlich die Kurven eingetragen, die das ideale Strahlungsverhalten ohne Treibhausgase bei den Temperaturen 220° K bis 300° K kennzeichnen. Damit kann man die Abstrahltemperatur und damit die Energie an jeder Stelle des Spektrums schätzen.
Als nächsten Test wollen wir den heutigen $CO_2$-Gehalt von 415 ppm einstellen. Die Kurve von 1850 bleibt als blaue Referenz-Kurve im Hintergrund, und die rote Kurve von heute wird „darüber“ gezeichnet.
Simulation der heutigen Atmosphäre
Was als erstes auffällt, ist, dass die Kurven fast identisch sind, und mit bloßem Auge nicht zu unterscheiden. Die rote Kurve verdeckt die blaue fast vollständig. Nur in den berechneten Werte links sieht man einen leichten Unterschied. Die um etwa 1 $\frac{W}{m^2}$ geringere Abstrahlung wird durch eine Temperaturerhöhung der Erdoberfläche von 0.3° kompensiert. Diese durchschnittlich 0.3° sind der effektive Treibhauseffekt seit Beginn der Industrialisierung bis heute, aufgrund des weithin akzeptierten MODTRAN Modells.
Wie ist es nun, wenn wir eine Verdoppelung des $CO_2$ Gehaltes von 280 ppm auf 560 ppm annehmen? Wiederum wird die neue Kurve der ursprünglichen blauen Kurve überlagert.
Simulation der Atmosphäre bei Verdoppelung des CO2-Gehalts
Und wiederum sind mit bloßem Auge kaum Unterschiede zu erkennen – einige kleine blaue Spitzen schauen bei der Wellenzahl 500 heraus, und die „$CO_2$“-Wanne ist einen Hauch breiter geworden. Um die aufgrund dieses minimalen Treibhauseffektes verminderte Infrarot-Abstrahlung zu kompensieren, wird die Bodentemperatur um insgesamt 0.5° C erhöht. Damit beträgt die Klimasensitivität mit der vorgenommenen MODTRAN Simulation ziemlich genau ein halbes Grad. Ein mögliches Erklärungsmodell für diese gemessene Sensitivität wird in diesem Artikel beschrieben.
Demnach besteht keinerlei Grund zu irgendeinem Alarmismus. Dieser Wert ist weit unterhalb der niedrigsten Annahmen des Weltklimarates.
Warum kommt der Weltklimarat zu anderen Ergebnissen
Die natürliche Frage nach diesen Überlegungen ist, warum der Weltklimarat, in dem ja die besten Klimaforscher vertreten sind, zu so viel pessimistischeren Ergebnissen kommen? Ein zentrales Problem dabei ist, dass deren Klimamodelle extrem komplex sind und den Anspruch haben, die gesamte Komplexität des Klimageschehens abzubilden. Es gibt gute Gründe anzunehmen, dass dies unter den heutigen Voraussetzungen grundsätzlich nicht möglich ist, z.B. weil turbulente energiereiche Phänomene wie Meeresströmungen oder Tropenstürme in diesen Modellen nicht angemessen abbildbar sind. Ähnliche Modelle werden zur Wettervorhersage verwendet, und diese versagen bekanntlich bereits häufig bei Vorhersagen, die über wenige Tage hinausgehen.
Ein wichtiger Grund, die Gültigkeit der „globalen Zirkulationsmodelle“, kurz GCM genannt, anzuzweifeln, ist der, dass sie in zurückliegenden Vorhersagen für vergangene Klimadaten zu hohe Werte vorhergesagt haben. Links die durchschnittliche Temperaturentwicklung (roter Balken) 1993-2012 – 0.15°/10 Jahre, rechts dasselbe im Zeitraum 1998-2012 – 0.03°/10 Jahre, und dazu die Ergebnisse von 110 verschiedenen Klimamodellen. Fast alle hatten deutlich höhere Temperaturen geschätzt.
Mit dem MODTRAN Simulationsprogramm kann man aufgrund der von IPCC-nahen Autoren publizierten Daten allerdings deren Denkweise nachvollziehen. Dazu wird zunächst eine Atmosphäre ganz ohne Wasserdampf und ohne die anderen Treibhausgase angenommen, und dort die $CO_2$ Sensitivität gemessen.
Mit der MODTRAN Simulation wird diese Situation erreicht, wenn in der Standard-Atmosphäre alles bis auf den $CO_2$ Gehalt auf 0 gesetzt wird, also auch keine Wolken, kein Wasserdampf.
Damit steigt natürlich die hypothetische Abstrahlung auf einen unrealistisch hohen Wert von 347 $\frac{W}{m^2}$. Deutlich ist als einzige Abweichung von der „Idealkurve“ das bekannte $CO_2$-Loch zu erkennen.
Bei Verdoppelung des $CO_2$-Gehalts und gleichbleibender Bodentemperatur sinkt aufgrund des Treibhauseffekts jetzt die Abstrahlung um 3.77 $\frac{W}{m^2}$.
Das ist ziemlich genau der vom Weltklimarat veröffentlichte Wert des $CO_2$ bedingten „Strahlungsantriebs“ („radiative forcings“). Die verminderte Abstrahlung wird durch Temperaturerhöhung kompensiert:
Demnach gleicht eine Temperaturerhöhung von 0.75° die Verdoppelung von $CO_2$ wieder aus, das wäre laut MODTRAN die Sensitivität. Viele Wissenschaftler kommen allerdings auf eine noch höhere Sensitivität von etwa 1°. Diese Sensitivität wird aber — in gewisser Weise zu Recht — von den IPCC nahen Wissenschaftlern als die „reine $CO_2$-Sensitivität“ bezeichnet, weil dabei noch nicht der Einfluss des Wasserdampfes berücksichtigt ist. Da aber Wasserdampf ein noch stärkeres Treibhausgas ist, und durch die $CO_2$-bedingte Temperatur-Erhöhung mehr Wasserdampf erzeugt wird, wird in dieser Denkweise die $CO_2$ Sensitivität dadurch effektiv verdoppelt. So ist es möglich, zu einer Sensitivität von 2° zu kommen, die man dann durch andere Katastrophen-Szenarien wie das hypothetische Abschmelzen des Polareises noch willkürlich steigern kann. Völlig unberücksichtigt lassen sie dabei die Cumulus-Wolkenbildung, die ebenfalls durch Vergrößerung des Wasserdampfgehaltes verstärkt würde und die zur Reduzierung der einfallenden Energie führen würde, also zu einer starken negativen Rückkopplung. Allenfalls wird das Thema Wolken dadurch genutzt, indem argumentiert wird, dass die sehr hohen Zirrus-Wolken u.U. zu einer Verstärkung des Treibhauseffektes führen.
Nach meiner Auffassung ist aber das Auseinanderreißen von $CO_2$, Wolken und Wasserdampf bei der Berechnung der $CO_2$ Sensitivität nicht berechtigt. Werden alle Faktoren simultan berücksichtigt, führt das zu der oben genannten geringen Sensitivitität von 0.5°.
Die aktuelle öffentliche Diskussion und in der Folge die Umweltpolitik scheint nur eine einzige Zielrichtung zu kennen, die Vermeidung des „klimaschädlichen Treibhausgases“ CO2. Der sogenannte „Klima-Konsens“ beruht auf einer Mischung aus begründeten Fakten, unbegründeten oder falschen Behauptungen, verdrängten und verleugneten Fakten, Vermutungen und vor allem aus Befürchtungen, Spekulationen und Erwartungen über die Zukunft:
Das Klima wäre bis zum Beginn der Industrialisierung stabil und „gut“ gewesen.
Die Gleichgewichtstemperatur zwischen Sonneneinstrahlung und Infrarotabstrahlung beträgt 255° K oder -18° C. Dies wäre die Temperatur der Erdoberfläche, wenn es keine Treibhausgase gäbe. Die Treibhausgase bewirkten aktuell eine um 33 Grad höhere Gleichgewichtstemperatur.
Durch den Anstieg des CO2 Gehalts in der Atmosphäre seit 1850 habe sich die Weltdurchschnittstemperatur bisher um 1 Grad erhöht und wird sich bis zum Ende des Jahrhunderts um weitere 1-5 Grad erhöhen, je nach geschätzter oder angenommener „Klimasensitivität“.
Das CO2 sei der primäre Faktor der weiteren Temperaturentwicklung und damit die Wurzel allen künftigen Übels auf der Welt.
Die Rückkopplungs-Faktoren wie Wasserdampf und Wolken würden die Wirkung des CO2 verstärken.
Die Temperaturerhöhung wirke zerstörerisch durch zunehmende Überflutungen, Waldbrände, Tropenstürme.
Der Mensch sei verantwortlich für die Erhöhung des $CO_2$ und damit für die Erhöhung der Temperatur
S: Indikator für Wohlstand (Services pro Person), also wohnen, heizen, kochen, fahren
E: Spezifischer Energieverbrauch (Energie pro Service), also die Frage, wieviel Strom der Kühlschrank braucht
C: Kohlenstoffverbrauch für die Energiegewinnung, also das $CO_2$ pro Energieeinheit
Das Grundglaubensbekenntnis ist, dass die Frage des $CO_2$ zur „Schuldfrage“ gemacht wird und das Heil der Menschheit in der Vermeidung von $CO_2$ gesucht wird.
Die Konsequenz, die die aktuelle Politik daraus zieht:das Heil der Welt beginnt mit dem großen Reset – $CO_2$ Erzeugung auf 0 bringen! Mit dieser Formel wird aus einer akademischen Diskussion eine Religion:
P: Der Mensch sei der Schädling des Planeten => möglichst wenige Menschen, Reduzierung durch Verhütung, Abtreibung und Euthanasie
S: Statt wie bisher Wohlstand für alle soll Wohlstand wieder zum Luxusgut werden: Flugreisen, schöne Häuser etc. nur noch für wenige Privilegierte.
E: Thema Energieeffizienz ist im Prinzip sinnvoll, ist bei uns bereits weitgehend ausgereizt, wird aber von Werbung und Politik als Druckmittel verwendet, immer wieder neue Geräte anzuschaffen.
C: Ziel des „Green Deals“ – Energiegewinnung ohne CO2 bis 2050, merkwürdigerweise in Deutschland ohne Kernkraft.
Die verdrängte Wirklichkeit
Die dramatisch positiven Auswirkungen des weltweit gestiegenen Energieverbrauchs und der damit verbundenen $CO_2$-Zunahme werden von den Klimawandel-Gläubigen gezielt verdrängt.
Die Lebenserwartung in den armen Ländern hat seit 1950 von 42 Jahre auf heute 72 Jahre zugenommen
Im folgenden möchte ich zunächst die wissenschaftlichen Aspekte des Klimas und die Argumente der Vertreter der Klimareligion untersuchen, und zum Schluss deren philosophische Motivation hinterfragen.
Wie geht Klima? Basisfakten der Klima-Physik
Zunächst möchte ich einige elementare unstrittige Zusammenhänge aus der Physik beschreiben, um das umstrittene Thema Treibhauseffekt zu erhellen.
Die Energiebilanz der Erde
Der Beginn aller Betrachtungen zum globalen Klima ist, dass das Klima auf der Erde nur dann langfristig stabil ist wenn die von der Sonne eingestrahlte Energie (linke Seite der Gleichung) gleich ist mit der von der Erde abgestrahlten Energie (rechte Seite der Gleichung). $$(1-\alpha)\cdot S = 4\cdot\sigma\cdot T^4$$ In dieser Energiebilanz sind maßgeblich:
Die konstante Sonneneinstrahlung S mit 1370 W pro m².
Der Anteil der von Atmosphäre, Wolken und Erdoberfläche reflektierten Sonneneinstrahlung $\alpha$.
Die abgestrahlte Infrarotstrahlung, die von der Temperatur T abhängt.
Der Faktor 4 stammt daher, dass die Einstrahlung auf einer Kreisfläche mit dem Erdradius erfolgt und daher zu jedem Zeitpunkt nur der 4. Teil der Erdoberfläche beschienen wird, im Schnitt bekommt daher jeder m² 342 W.
Der Faktor $\sigma$ ist die sog. Stefan-Boltzmann Konstante.
Eine verfeinerte Betrachtung zeigt wie sich das aufteilt:
insgesamt 30% des eingestrahlten Sonnenlichtes werden durch die Atmosphäre, die Wolken und die Erdoberfläche gleich wieder in den Weltraum zurück reflektiert, hauptsächlich durch die Wolken. Die restlichen 70%, also durchschnittlich etwa 240 $\frac{W}{m^2}$ werden durch Ozeane, Land und Luft absorbiert und teilweise gespeichert.
Diese Wärme wird auf 4 verschiedenen Wegen wieder in den Weltraum abgegeben
7% durch aufsteigende Luft (Konvektion),
23% durch aufsteigender Wasserdampf,
21% durch Wärmestrahlung,
19% durch in Luft und Wolken absorbiertes Licht insgesamt wieder 70% der Gesamtenergiemenge.
Bei der Wärmestrahlung gehen 6% direkt von der Erdoberfläche in den Weltraum, das spüren Sie z.B. in einer klaren Nacht, es wird kälter als wenn Wolken da sind. Um die rot gekennzeichneten 15% „von der Atmosphäre absorbierte Wärmestrahlung“ dreht sich ein großer Teil der Diskussion von Klimaaktivisten – unberechtigterweise. In dieser – korrekten – Darstellung ist das nur ein kleiner Anteil des Energiebudgets, davon wird das meiste durch den Wasserdampf und ein Bruchteil durch das $CO_2$ absorbiert. Aber man kann das so darstellen, dass der falsche Eindruck vermittelt wird, dass durch das $CO_2$ eine gigantisch große Gegenstrahlung – größer als die gesamte Sonneneinstrahlung – von der Atmosphäre auf die Erde zurückstrahlt. Eine solche Gegenstrahlung gibt es aber nicht als realen Wärmefluss, sondern nur als mathematische Hilfskonstruktion: Man kann die genannten 15% als Differenz 110%-95% darstellen, und diese 95% dann Gegenstrahlung nennen, um den falschen Eindruck zu erwecken, als würden Strahlungseffekte das Geschehen in der Atmosphäre dominieren. Die Prozentzahlen der Energiebilanz sprechen eine klare andere Sprache, Verdampfung bzw. Kondensation und Luftströmungen dominieren den Wärmetransport in der klimabestimmenden Troposphäre. Zudem fließt Wärmeenergie immer von der wärmeren Erdoberfläche in die kälteren höheren Luftschichten. Es genügt festzuhalten, dass bis auf die 6% Wärmestrahlung, die ungehindert durch die Atmosphäre in den Weltraum gelangen, alle andere Energie letztlich dazu verwendet wird, die Atmosphäre zu erwärmen. Die nächste Frage ist, wie sich diese Wärme dann in der Atmosphäre verteilt und letztlich wieder in den Weltraum abgegeben wird.
Der Temperaturgradient der Atmosphäre
Jeder Bergwanderer kennt die „Bergsteiger“-Regel, dass beim Anstieg mit je 100m Höhenunterschied im Schnitt die Temperatur um etwa 1° C abnimmt, bei feuchtem Wetter ist es weniger. Symbol dafür sind die mitten in den Tropen stehenden Berge wie der Kilimandscharo:
Die Voraussetzung für diesen Temperaturgradienten ist das lokale thermodynamische Gleichgewicht, d.h. die Luftmoleküle stoßen so häufig aufeinander, dass alle Energie-Unterschiede schnell ausgeglichen werden. Das gilt überall dort, wo man mit einem normalen Thermometer die Temperatur messen kann, also bis zum oberen Rand er Troposphäre, in etwa 12-14km Höhe. Außerdem wird zur Erklärung des Phänomens angenommen, dass keine Energie von außen zugeführt wird oder abfließt, wir sprechen von einem adiabatischen Zustand. Anschaulich muss man sich vorstellen, was mit einem einzelnen Molekül passiert, wenn es sich z.B. nach oben bewegt: Aufgrund der Schwerkraft verliert es einen Teil seiner Bewegungsenergie, wird also kälter. Umgekehrt wird es bei einer Bewegung nach unten durch die Schwerkraft schneller, also wärmer. Der Gleichgewichtszustand ist also nicht dann erreicht, wenn alle Moleküle gleich warm sind, wie wir es üblicherweise kennen, sondern wenn die etwas höher gelegenen Moleküle ein wenig kälter sind.Die Rate der Änderung, der Temperaturgradient, hängt nur von der Gravitationskonstante und der Wärmekapazität der Luft ab. Deswegen ist der Temperaturgradient in feuchter Luft kleiner, weil diese eine höhere Wärmekapazität hat. Der über die ganze Atmosphäre gemittelte Temperaturgradient $ \Gamma$ beträgt -6.5 °C pro km Höhenunterschied.
Aus der Graphik wird erkennbar, dass innerhalb der Troposphäre die Temperatur streng linear abfällt, also ausschließlich die beschriebene thermodynamische Ursache hat, was nichts mit Treibhausgasen oder Strahlungseffekten zu tun hat. Die Abweichung von dieser strengen Linie oberhalb der Tropopause bedeutet, die Luft ist dort so dünn und die Stöße der Luftmoleküle werden seltener, und die Strahlungseffekte überwiegen.
Der Energiefluß in den Weltraum
Um Wärme-Energie wirklich „loszuwerden“, gibt es für die Erde nur eine Möglichkeit – es muss in Form von Strahlungsenergie geschehen. Diese Strahlung ist im Infrarotbereich, also Wärmestrahlung. Seit es entsprechende Satelliten gibt, lässt sich diese Strahlung messen, sogar in Abhängigkeit von der Wellenlänge der Strahlung, das wird Emissions-Spektrum genannt. Dies ist der komplizierteste Teil der heutigen Präsentation, und hier findet auch das statt, was man Treibhauseffekt nennt, diese Überlegungen sind sehr wichtig, um sich ein Bild über die Größenordnung des Effekts zu machen.
Ein „ideales“ Spektrum ohne Treibhausgase würde als „idealer Planck’scher Strahler“ einer der gestrichelten Temperaturkurven folgen, im betrachteten Fall der Kurve T=320° K, was 47° C entspricht. Das wäre die Temperatur der Erdoberfläche – das Spektrum ist über der Sahara-Wüste aufgenommen. In dem Diagramm sind zwei Kurven:
Die schwarze sind die vom Satelliten gemessenen Werte
Die rotbraune stammen von einem Simulationsprogramm namens MODTRAN. Der Umstand, dass die beiden Kurven so hervorragend übereinstimmen, zeigt, das der Strahlungstransport in der Atmosphäre von der Physik gut verstanden ist, und es ermöglicht, mit dem durch MODTRAN gegebenen vereinfachten Atmosphärenmodell wichtige Klimafragen zu beantworten. Darauf werde ich noch zurückkommen.
Von welcher Höhe aus die Infrarotstrahlung in den Weltraum abgestrahlt wird, hängt stark von deren Wellenlänge bzw. Wellenzahl ab. Die Treibhausgase in der Atmosphäre, vor allem Wasserdampf und $CO_2$ absorbieren Infrarotstrahlung in den für sie spezifischen Wellenzahlbereichen. Erst wenn die Luft so dünn ist, dass in dem betreffenden Wellenzahlbereich zu wenige Atome sind, um die Strahlung wieder zu absorbieren, kann die Infrarotstrahlung die Atmosphäre verlassen. Der Fachbegriff heißt „optische Dichte“ – Abstrahlung in den Weltraum findet statt, wenn die optische Dichte zum Weltraum hin kleiner als 1 wird, vereinfacht gesagt, sobald die Atmosphäre für die betreffende Wellenzahl durchsichtig wird.
Aus diesem Emissionsspektrum können wir im wesentlichen 3 Wege der abfließenden Wärmeenergie erkennen:
Bei Wellenzahlen von $800-1250 cm^{-1}$ ist das „atmosphärische Fenster“, in dem die wolkenlose Atmosphäre für die Infrarotstrahlung nahezu transparent ist, und die Strahlungstemperatur entspricht der Temperatur der Erdoberfläche von 310-320° K. Diese Wärme strahlt direkt von der Erdoberfläche aus in den Weltraum. Der Umstand, dass in diesem Bereich in der Stratosphäre auch ein „Ozon“-Band ist, hat fast keine Auswirkungen, weil sich in Bodennähe kaum Ozon befindet.
Zwischen der Wellenzahl $600-750 cm^{-1}$ liegt das $CO_2$-Band. $CO_2$ ist homogen in der Atmosphäre verteilt, wobei das Strahlungsmaximum in der Stratosphäre einer eher niedrigen Strahlungstemperatur von etwa 220° K (-53° C) entspricht. Eine Temperatur, die interessanterweise weder von der $CO_2$-Konzentration noch von der Temperatur der Erdoberfläche abhängt. Man spricht davon, dass das $CO_2$ Band weitgehend „gesättigt“ ist und sich bei weiterer Erhöhung der $CO_2$-Konzentration kaum mehr verändert. Diese „Wärme“ (-53° C) verlässt die Atmosphäre überwiegend von der Stratosphäre aus, von 18-60 km Höhe. Das heißt, das $CO_2$ blockiert den Abfluss von Wärme in „seinem“ Wellenzahlbereich. Aber: Dieser Bereich ändert sich kaum, wenn der Atmosphäre zusätzliches $CO_2$ zugeführt wird.
Mit dem $CO_2$-Band überlappt das Wasserdampfband mit der Wellenzahl $100-1000 cm^{-1} $. Zwischen $1500 cm^{-1} $ und $2000 cm^{-1}$ befindet sich ein weiteres Wasserdampfband. Wasser und Wasserdampf dominieren mit großem Abstand das gesamte Klimageschehen, und insbesondere auch die Abstrahlung von Wärme in den Weltraum. Aus der folgenden Abbildung geht hervor, dass die Wasserdampfkonzentration in 5 km Höhe stark abnimmt. Daher ist die Strahlungstemperatur des Wasserdampfbandes deutlich höher als die von $CO_2$ , ca. 250-280° K, also wird vom Wasserdampf sehr viel mehr Energie abgestrahlt als vom $CO_2$. $CO_2$ ist aber gleichmäßig verteilt und dort wo die Zahl der Wassermoleküle abnimmt, überwiegt die Zahl der $CO_2$-Moleküle und die vom Wasserdampf im $CO_2$-Band emittierte Infrarotstrahlung wird von höher reichenden $CO_2$-Molekülen absorbiert und schließlich von $CO_2$ in größerer Höhe und meist niedrigerer Temperatur emittiert. Die stark reduzierte Temperatur des Infrarot abstrahlenden $CO_2$, also das „Loch“ im Spektrum ist das eigentliche Treibhaus-Phänomen, das die aktuelle Diskussion so antreibt, weil das $CO_2$-Band wie eine selektive Isolierschicht einer Thermoskanne wirkt, aber eben nur für einen kleinen Teil des ganzen Spektrums, und dieser Teil ändert sich kaum, wie wir sehen werden, wenn man zusätzliches $CO_2$ zuführt.
Nach diesen Vorüberlegungen haben wir die Voraussetzungen, um die Gleichgewichtstemperatur der Erde zu berechnen und sie richtig zu deuten. Wir haben festgestellt, dass die 3 verschiedenen Infrarot-Komponenten aus unterschiedlicher Höhe und daher mit unterschiedlicher Temperatur Wärmeenergie abgeben. Wir wissen wenig über die genaue Verteilung der Wolken, was es schwierig macht, über das Abstrahlverhalten des sog. Atmosphärischen Fensters etwas auszusagen. Angesichts all dieser Probleme nehmen wir der Einfachheit halber an, dass die gesamte Infrarotstrahlung von einer einzigen Abstrahlhöhe aus in das Weltall gelangt. Da wir wissen, dass der überwiegende Teil der Abstrahlung durch den Wasserdampf erfolgt, und die „Dichtegrenze“ des Wasserdampfes in etwa 5 km Höhe ist, erwarten wir, dass die „effektive Abstrahlhöhe“ sich ungefähr in 5 km Höhe befindet. Eine kleine Bemerkung zu den Maßeinheiten: Für alle Berechnungen müssen wir die absolute Temperaturskala Kelvin verwenden, zur Veranschaulichung wechsle ich dann bisweilen zur gewohnten Celsius-Skala.
Wir nutzen unsere am Anfang aufgestellte Gleichung des Energiegleichgewichts $(1-\alpha)\cdot S = 4\cdot\sigma\cdot T^4$ Mit $S=1370 \frac{W}{m^2}$ und $\alpha=0.3$ ergibt sich der mittlere Energiefluß: $\frac{(1-\alpha)\cdot S}{4} = \sigma\cdot T^4 = 240 \frac{W}{m^2}$ Dies lösen wir nach der effektiven Temperatur $T_e$ auf: $ T_e = \sqrt[4]{\frac{S\cdot(1-\alpha)}{4\cdot \sigma} } = \sqrt[4]{\frac{1370 \cdot(1-0.3)}{4\cdot 5.67\cdot 10^{-8} } }$ °K = 255° K = -18° C
Das ist sie nun, die berühmte Gleichgewichtstemperatur von -18° C, die in der Klimareligion als die Temperatur der Erdoberfläche angegeben wird, wenn es keine Treibhausgase gäbe, und die Differenz von 33° C zur tatsächlichen Mitteltemperatur von 15 °C wäre durch den Treibhauseffekt verursacht. Diese Aussage ist aber insofern falsch, denn wenn es keine Treibhausgase gäbe, also auch keinen Wasserdampf, dann gäbe es auch keine Wolken, und die durchschnittliche Albedo $\alpha$, also die Licht-Reflexivität der Erde wäre nicht 0.3, sondern nur 0.125, und die Gleichgewichtstemperatur $T_0$ der Erde wäre dann: $ T_0= \sqrt[4]{\frac{S\cdot(1-\alpha)}{4\cdot \sigma} } = \sqrt[4]{\frac{1370 \cdot(1-0.125)}{4\cdot 5.67\cdot 10^{-8} } }$ °K $\approx 270 $°K = -3 °C
Was bedeutet dann die effektive Gleichgewichtstemperatur $T_e=255$° K? Es ist die Abstrahltemperatur einer durchschnittlichen effektiven Abstrahlhöhe $h_e$. Um diese effektive Abstrahlhöhe $h_e$ zu bestimmen, nutzen wir den besprochenen mittleren Temperaturgradienten $\Gamma$ mit -6.5 °C pro km und die gemessene mittlere Oberflächentemperatur der Erde $T_s$ die wir mit 288° K als gegeben annehmen:
$h_e=\frac{T_s-T_e}{\Gamma}=\frac{288-255}{6.5} km \approx 5 km $
Die 33° Differenz zwischen effektiver Abstrahltemperatur und Bodentemperatur wird also nicht in erster Linie durch eine Gegenstrahlung hervorgerufen, sondern durch den Umstand, dass die Atmosphäre mit zunehmender Höhe kälter wird und nur an ihrem Rand Infrarotstrahlung in das Weltall abgeben kann. Wo der Rand genau liegt, hängt von der Wellenzahl bzw. Wellenlänge der Infrarotstrahlung ab, und natürlich von der Zusammensetzung der Atmosphäre. Der Treibhauseffekt ist also abhängig von der Dicke der optisch dichten Atmosphäre, weswegen es auf dem Mars gar keinen und auf der Venus mit ihrer 90 fach schwereren Atmosphäre als die der Erde einen extrem großen Treibhauseffekt gibt.
An dieser Stelle halten wir fest, dass der Wärmeabgabe überwiegend durch die langwellige Infrarotabstrahlung des Wasserdampfes und die Reflexion des kurzwelligen Lichtes an Wolken geschieht, und dass $CO_2$ im Vergleich dazu eine geringfügige Rolle zu spielen scheint. Den genauen $CO_2$-Einfluss wollen wir im nächsten Abschnitt betrachten.
Die Billionen-€-Frage der CO2-Sensitivität
Die zentrale Frage der ganzen Klimadiskussion dreht sich um ein einziges Thema: Wie ändert sich das Klima, insbesondere die Welt-Durchschnittstemperatur, wenn sich der $CO_2$-Gehalt der Atmosphäre verdoppelt. Dies nennt man die sogenannte Klima-Sensitivität, die Stellschraube aller Klimapolitik. Ausgehend von den unterschiedlichen Modellvorstellungen des Internationalen Klimarates, des IPCC, droht uns bis Ende des Jahrhunderts eine durchschnittliche Temperaturerhöhung von 2°-5° C. Das politische „Optimalziel“ des Pariser Klimaabkommens ist eine Beschränkung auf 1.5° C. Das Problem ist, dass die sich daraus ergebenden Vorgaben hinsichtlich $CO_2$-Vermeidung auf einer angenommenen Klimasensitivität von 2°-3° C bei Verdopplung des $CO_2$-Gehaltes beruhen.
Ist das korrekt? Ungeheure Kosten, der Industriestandort Deutschland und die dadurch bedingte Verarmung, nicht zuletzt unsere Freiheit hängen von der richtigen Antwort auf diese Frage ab.
Ein einfaches Klimamodell
Wir wollen die beschriebene bewährte MODTRAN-Simulation als eindimensionales Mini-Klimamodell verwenden, um die Frage der Klima-Sensitivität zu beantworten. Diese Vereinfachung ist insofern legitim, weil das Strahlungsgleichgewicht im Prinzip damit an jedem Ort der Erde berechnet werden kann und wenn unter den verschiedenen Bedingungen ein konsistentes Endergebnis herauskommt, dann halten wir es für verlässlich. Das Programm ist öffentlich zugänglich, daher ist alles überprüfbar. Wir wollen uns heute auf eine Beispielrechnung mit der Standardatmosphäre beschränken.
Dazu stellen wir das MODTRAN Programm so ein, wie die Atmosphäre 1850 etwa gewesen war, insbesondere war der $CO_2$ Gehalt damals 280 ppm. Alle anderen Luftbestandteile bleiben auf dem voreingestellten „Standard“-Durchschnittswert. Das Atmosphärenmodell ist die sogenannte US Standard-Atmosphäre, wie sie auch in der Internationalen Luftfahrt erfolgreich verwendet wird. Als Wolkenmodell habe ich diejenigen Wolken gewählt, die am häufigsten vorkommen, die Cumulus-Wolken zwischen 660m und 2700m Höhe. Der Wasserdampfgehalt wird dann so eingestellt, dass die Infrarot-Abstrahlung gerade den korrekten Wert von etwa 240 $\frac{W}{m^2}$ aufweist. Das ist mit einem durchschnittlichen relativen Wasserdampfgehalt von 0.25 gegeben. Die angenommene Durchschnitts-Oberflächentemperatur der Standardatmosphäre ist 15.2° C:
Simulation der vorindustriellen Atmosphäre
Das dunkelblaue Spektrum zeigt das bereits besprochene Verhalten. Das $CO_2$-Loch ist sehr ähnlich wie wir es schon kennen, der Einfluss des Wasserdampfes am rechten und am linken Rand ist ebenfalls gut erkennbar. Als Hilfslinien sind zusätzlich die Kurven eingetragen, die das ideale Strahlungsverhalten ohne Treibhausgase bei den Temperaturen 220° K bis 300° K kennzeichnen. Damit kann man die Abstrahltemperatur und damit die Energie an jeder Stelle des Spektrums schätzen.
Als nächsten Test wollen wir den heutigen $CO_2$-Gehalt von 415 ppm einstellen. Die Kurve von 1850 bleibt als blaue Referenz-Kurve im Hintergrund, und die rote Kurve von heute wird „darüber“ gezeichnet.
Simulation der heutigen Atmosphäre
Was als erstes auffällt, ist, dass die Kurven fast identisch sind, und mit bloßem Auge nicht zu unterscheiden. Die rote Kurve verdeckt die blaue fast vollständig. Nur in den berechneten Werte links sieht man einen leichten Unterschied. Die um etwa 1 $\frac{W}{m^2}$ geringere Abstrahlung wird durch eine Temperaturerhöhung der Erdoberfläche von 0.3° kompensiert. Diese durchschnittlich 0.3° sind der effektive Treibhauseffekt seit Beginn der Industrialisierung bis heute, aufgrund des weithin akzeptierten MODTRAN Modells.
Wie ist es nun, wenn wir eine Verdoppelung des $CO_2$ Gehaltes von 280 ppm auf 560 ppm annehmen? Wiederum wird die neue Kurve der ursprünglichen blauen Kurve überlagert.
Simulation der Atmosphäre bei Verdoppelung des CO2-Gehalts
Und wiederum sind mit bloßem Auge kaum Unterschiede zu erkennen – einige kleine blaue Spitzen schauen bei der Wellenzahl 500 heraus, und die „$CO_2$“-Wanne ist einen Hauch breiter geworden. Um die aufgrund dieses minimalen Treibhauseffektes verminderte Infrarot-Abstrahlung zu kompensieren, wird die Bodentemperatur um insgesamt 0.5° C erhöht. Damit beträgt die Klimasensitivität mit der vorgenommenen MODTRAN Simulation ziemlich genau ein halbes Grad.
Demnach besteht keinerlei Grund zu irgendeinem Alarmismus. Dieser Wert ist weit unterhalb der niedrigsten Annahmen des Weltklimarates.
Warum kommt der Weltklimarat zu anderen Ergebnissen
Die natürliche Frage nach diesen Überlegungen ist, warum der Weltklimarat, in dem ja die besten Klimaforscher vertreten sind, zu so viel pessimistischeren Ergebnissen kommen? Ein zentrales Problem dabei ist, dass deren Klimamodelle extrem komplex sind und den Anspruch haben, die gesamte Komplexität des Klimageschehens abzubilden. Es gibt gute Gründe anzunehmen, dass dies unter den heutigen Voraussetzungen grundsätzlich nicht möglich ist, z.B. weil turbulente energiereiche Phänomene wie Meeresströmungen oder Tropenstürme in diesen Modellen nicht angemessen abbildbar sind. Ähnliche Modelle werden zur Wettervorhersage verwendet, und diese versagen bekanntlich bereits häufig bei Vorhersagen, die über wenige Tage hinausgehen.
Ein wichtiger Grund, die Gültigkeit der „globalen Zirkulationsmodelle“, kurz GCM genannt, anzuzweifeln, ist der, dass sie in zurückliegenden Vorhersagen für vergangene Klimadaten zu hohe Werte vorhergesagt haben. Links die durchschnittliche Temperaturentwicklung (roter Balken) 1993-2012 – 0.15°/10 Jahre, rechts dasselbe im Zeitraum 1998-2012 – 0.03°/10 Jahre, und dazu die Ergebnisse von 110 verschiedenen Klimamodellen. Fast alle hatten deutlich höhere Temperaturen geschätzt.
Mit dem MODTRAN Simulationsprogramm kann man aufgrund der von IPCC-nahen Autoren publizierten Daten allerdings deren Denkweise nachvollziehen. Dazu wird zunächst eine Atmosphäre ganz ohne Wasserdampf und ohne die anderen Treibhausgase angenommen, und dort die $CO_2$ Sensitivität gemessen.
Mit der MODTRAN Simulation wird diese Situation erreicht, wenn in der Standard-Atmosphäre alles bis auf den $CO_2$ Gehalt auf 0 gesetzt wird, also auch keine Wolken, kein Wasserdampf.
Damit steigt natürlich die hypothetische Abstrahlung auf einen unrealistisch hohen Wert von 347 $\frac{W}{m^2}$. Deutlich ist als einzige Abweichung von der „Idealkurve“ das bekannte $CO_2$-Loch zu erkennen.
Bei Verdoppelung des $CO_2$-Gehalts und gleichbleibender Bodentemperatur sinkt aufgrund des Treibhauseffekts jetzt die Abstrahlung um 3.77 $\frac{W}{m^2}$.
Das ist ziemlich genau der vom Weltklimarat veröffentlichte Wert des $CO_2$ bedingten „Strahlungsantriebs“ („radiative forcings“). Die verminderte Abstrahlung wird durch Temperaturerhöhung kompensiert:
Demnach gleicht eine Temperaturerhöhung von 0.75° die Verdoppelung von $CO_2$ wieder aus, das wäre laut MODTRAN die Sensitivität. Viele Wissenschaftler kommen allerdings auf eine noch höhere Sensitivität von etwa 1°. Diese Sensitivität wird aber — in gewisser Weise zu Recht — von den IPCC nahen Wissenschaftlern als die „reine $CO_2$-Sensitivität“ bezeichnet, weil dabei noch nicht der Einfluss des Wasserdampfes berücksichtigt ist. Da aber Wasserdampf ein noch stärkeres Treibhausgas ist, und durch die $CO_2$-bedingte Temperatur-Erhöhung mehr Wasserdampf erzeugt wird, wird in dieser „atomistischen“ Denkweise die $CO_2$ Sensitivität dadurch effektiv verdoppelt. So ist es möglich, zu einer Sensitivität von 2° zu kommen, die man dann durch weitere Katastrophen-Szenarien wie das hypothetische Abschmelzen des Polareises noch willkürlich steigern kann. Völlig unberücksichtigt lassen sie dabei die Cumulus-Wolkenbildung, die ebenfalls durch Vergrößerung des Wasserdampfgehaltes verstärkt würde und die zur Reduzierung der einfallenden Energie führen würde, also zu einer starken negativen Rückkopplung. Allenfalls wird das Thema Wolken dadurch genutzt, indem argumentiert wird, dass die sehr hohen Zirrus-Wolken u.U. zu einer Verstärkung des Treibhauseffektes führen.
Nach meiner Auffassung ist aber das Auseinanderreißen von gleichzeitig vorhandenem $CO_2$, Wolken und Wasserdampf bei der Berechnung der $CO_2$ Sensitivität nicht berechtigt. Werden alle Faktoren simultan berücksichtigt, führt das zu der oben genannten geringen Sensitivitität von 0.5°.
Ja, aber die Temperatur nimmt doch zu?
Es ist unbestritten, dass die mittlere Temperatur seit 1850 und insbesondere während der letzten 40 Jahre zugenommen hat.
Diese Zunahme wird ist der Klimadiskussion überwiegend dem Einfluss von $CO_2$ zugeschrieben, der wie oben beschrieben, nur einen begrenzten Einfluss auf den Strahlungshaushalt der Erde hat. Es gibt jedoch noch weitere Faktoren, die berücksichtigt werden müssen. Der einfallende Energiefluss, die kurzwellige-Einstrahlung, ist offensichtlich von entscheidender Bedeutung . Die Gesamtmenge des von der Sonne kommenden Energieflusses, die „Solarkonstante“, hat sich als extrem stabil erwiesen, aber die globale Albedo, die darüber entscheidet, wie viel Sonnenfluss in die Atmosphäre eintritt, ist ein extrem wichtiger Kontrollparameter.
Das Dilemma der Albedo der Erde ist, dass es keine simple Theorie gibt, wie man sie aus einer einfachen (vorzugsweise vom Menschen verursachten) Ursache bestimmen kann. Im Gegenteil, sie beinhaltet viele derzeit schlecht verstandene Faktoren, von denen einige unter menschlicher Kontrolle sind, andere aber nicht:
Wolken unterschiedlicher Art in verschiedenen Höhen,
reflektierende und streuende Aerosole,
Einflüsse auf die Wolkenerzeugung, wie kosmische Strahlung und Magnetfelder,
Oberflächen- und atmosphärische Eigenschaften als Folge von Schneebedeckung, Verstädterung, Landwirtschaft, Luftverschmutzung usw.,
mögliche Rückkopplungseffekte der Temperatur über Wasserdampf und Wolkenbildung.
Eine umfassende Theorie des Einflusses der Erdalbedo wurde lange Zeit in der Mainstream-Diskussion vernachlässigt oder ignoriert. In den IPCC Berichten wird dieser Faktor als „schlecht verstanden“ zur Seite gelegt. Aber es gibt einen anderen Ansatz. Satellitenmessungen haben es möglich gemacht, den direkten Einfluss der Albedo auf die tatsächliche Sonneneinstrahlung zu messen .
Diese sorgfältige kürzliche Analyse zeigt einen klaren, signifikanten Trend für die Reflexivität von 75% der gesamten Sonneneinstrahlung auf die Erde (Breitengrad -60…60 Grad, kleinere Einstrahlung und größere Albedo in Polnähe):
Gemessene Erdreflexivität von 1980 bis 2010
Die verringerte Wolken-Reflektivität vergrößert die von der Erde absorbierte und vermindert die reflektierte Lichtstrahlung:
Energiebudget des eingehenden SW-Flusses, mit Änderungen aufgrund der Albedo-Abnahme
Demnach ist die solare Einstrahlung in den 30 Jahren von 1980 bis 2010 um 2.33 $\frac{W}{m^2}$ gestiegen. Diese albedo-bedingte Zunahme innerhalb von 30 Jahren ist größer als die geschätzte Strahlungsantrieb von max. 2 $\frac{W}{m^2}$ der durch den Anstieg von $CO_2$ seit Beginn der Industrialisierung verursacht wurde. Schätzungsweise lassen sich 80% der Temperaturänderungen der letzten 40 Jahren auf die gemessenen Änderungen der Wolkenreflexivität zurückführen, und etwa 20% auf die postulierte Änderung infolge des gestiegenen $CO_2$-Gehalts der Atmosphäre. Dies bestätigt die Klimasensitivität von etwa 0.5° C.
Unser nächstes Thema beschäftigt sich mit der Frage:
Nehmen die klimabedingten Naturkatastrophen zu?
Dass die Natur nicht nur schön und gut sein kann, sondern von unvorstellbarer Brutalität, wird spätestens bei den ungewöhnlichen Ereignissen erkennbar, die man landläufig Naturkatastrophen nennt: Überschwemmungen, Dürreperioden, Waldbrände und Wirbelstürme. Diese Ereignisse stören das Bild von der „unberührten“ Natur, die in der Klimareligion als das Ideal der perfekten Welt gilt.
Von daher ist es nicht erstaunlich, dass bei mittlerweile jeder Naturkatastrophe, die irgendetwas mit Klima zu tun hat, der Chor der klima-gläubigen Medien diese Katastrophe in einen Sinnzusammenhang stellt mit dem „menschengemachten“ Klimawandel, um die Politiker und die ganze Gesellschaft „auf Kurs“ zu bringen. Es darf nicht sein, was uns alle Geschichtsbücher übereinstimmend berichten, dass wir als Menschen es mit einer bisweilen lebensfeindlichen Natur zu tun haben, die hin und wieder ganz ohne unser Zutun aus mühsam aufgebauter Ordnung wieder unbeschreibliches Chaos und Verderben anrichtet, in der Umkehr des Schöpfungsgeschehens: „Am Anfang war Tohuwabohu – und Gott sprach: Es werde Licht…“.
Die entscheidende Frage ist aber nicht, ob es extreme und katastrophale Ereignisse gibt, sondern ob es einen eindeutigen Trend zu schlimmeren, gravierenderen Ereignissen gibt. Dieser Frage wollen wir nachgehen.
Ich möchte hier die Ereignisse über einen längen Zeitraum betrachten. Das erscheint mir als das einzige legitime Vorgehen. Grundsätzlich ist es sinnlos, angesichts so großer Schwankungen wie sie bei Wetterereignissen vorkommen, bei einem untersuchten Zeitraum von weniger als 30 Jahren von „klimarelevant“ zu sprechen. Selbst beim offiziellen Bericht des Weltklimarats wird hinsichtlich von Naturereignissen gesagt, dass es bislang keinen Nachweis gibt, dass diese in einem Zusammenhang mit dem höheren $CO_2$-Gehalt stehen.
Beginnen möchte ich mit den Schäden der atlantischen Wirbelstürme während der letzten 100 Jahre. Trotz starken Bevölkerungswachstums und vielfach größerer Zahl von zerstörbaren Gütern gibt es während der letzten 100 Jahre keinen Trend zu stärker zerstörerischen Wirbelstürmen.
Finanzielle Schäden aufgrund von Atlantischen Wirbelstürmen seit 100 Jahren
Bei den Taifun-Wirbelstürmen in oder um Japan ist es ähnlich. Hier kann man sogar von einem abnehmenden Trend reden.
Die Todesfälle bei Naturkatastrophen haben im Laufe der letzten 100 Jahre dramatisch abgenommen. Das ist unmittelbar darauf zurückzuführen, dass Menschen durch die Nutzung von überwiegend fossiler Energie wohlhabender wurden, und sich vor den Widrigkeiten der Natur, seien es Wetterereignisse oder andere Katastrophen, besser als vorher schützen konnten.
Zu den künftig möglichen Naturkatastrophen gehört wegen des daraus folgenden Anstiegs des Meeresspiegels das befürchtete Abschmelzen des Eises der Polkappen sowie des Grönlandeises.
Grundsätzlich ist hierbei zu unterscheiden, ob es sich um Meereis oder um Eis auf dem Land handelt. Abschmelzen von Meereis ist Meeresspiegel-neutral, wenn das Eis auf dem Wasser schwimmt. Also ist die die Frage des Nordpol-Eises für das Thema Meeresspiegel-Anstieg irrelevant. Wegen des Grönlandeises ist allerdings die Entwicklung des nordischen Polarklimas für den Meeresspiegel relevant. Eine Erwärmung während der der letzten 30-40 Jahre ist zweifellos zu verzeichnen. Es fällt allerdings auf, dass die meisten Analysen des nördlichen Polarklimas erst 1978 oder später beginnen. Kann es sein, dass das damit zu tun hat, dass die Erwärmung der letzten 40 Jahre ungefähr gleich groß war wie die Abkühlung während der 40 Jahre davor? Die Temperaturentwicklung auf Spitzbergen (Svalbard) zeigt dies deutlich:
Temperaturentwicklung in Spitzbergen gemäß GISS-Temperaturdatensatz.
Bei der Betrachtung des Eises der Antarktis wird als Indikator für den Zustand der Gesamtvereisung die Ausbreitung des Meer-Eises gemessen, weil es mit Satelliten leicht zu messen kann (Stand 20.11.2020):
Die Graphik zeigt, dass die Werte der vergangenen 5 Jahr sich alle in der Nähe des jeweiligen langjährigen jahreszeitbezogenen Mittelwertes befinden, und dass sich insbesondere dieses Jahr die Meer-Eis-Ausbreitung deutlich über dem langjährigen Mittelwert befindet. Von Abschmelzen kann also überhaupt Rede sein. Dazu kommt, dass über der Antarktis der Treibhauseffekt negativ ist, d.h. die Antarktis ist so kalt, dass die $CO_2$ Abstrahltemperatur von -53° C meist größer ist als die Temperatur des Eises. Daher bewirkt eine Zunahme des $CO_2$ in der Atmosphäre eine leicht verstärkte Infrarot-Abstrahlung, also eine leichte Temperatur-Absenkung.
Bislang haben wir uns mit der Analyse beschäftigt, mit der Hinterfragung der wissenschaftlichen Voraussetzungen des Klimageschehens. Nun sind aber die Maßnahmen zur Vermeidung der vermeintlichen Gefahr eines weiteren Anstiegs von $CO_2$ schon seit 20 Jahren im Gange. Daher widmen wir uns jetzt der Energiewende und ihren Folgen.
Der Preis der Energiewende
Es wird in der Klimadiskussion viel geredet über den Preis, den wir und künftige Generationen finanziell und in Form von Lebensqualität „bezahlen“ müssen, wenn wir einfach so weitermachen wie bisher. Deutlich weniger wird darüber geredet, welchen Preis wir für die Alternativen bezahlen, die aktuell als „Lösung“ des „Klimawandels infolge des Treibhauseffektes“ politisch propagiert werden.
Konkretisierung der Energiewende
Was wird aktuell unter Energiewende verstanden? Es ist ein Bündel von bereits begonnenen oder geplanten Maßnahmen, die das Ziel haben, letztlich unsere komplette Energieversorgung angeblich „nachhaltig“ zu gestalten:
Abschaltung von Kohle- und Kernkraftwerken, letztlich auch Gaskraftwerken
Energiegewinnung durch Wind- und Solarenergie
Treibstoffgewinnung durch Biotreibstoffe oder „grünem“ Wasserstoff
Elektromobilität
Einsparung von Heizkosten durch Dämmung und effizientere Gasheizungen
Machbarkeit der Energiewende
Es muss — eigentlich längst vor der Umsetzung — die Frage gestellt werden, inwieweit sich dieses Konzept unter den gegebenen Randbedingungen umsetzen lässt. Dazu hat der langjährige Leiter des Münchener IFO-Instituts, Prof. Werner Sinn, Ende 2017 einen richtungsweisenden Vortrag gehalten, der nach wie vor aktuell ist. Eines der zentralen Probleme von Wind- und Solarenergie ist die Speicherung von elektrischer Energie aufgrund der unzuverlässigen Erzeugung. Dabei ist das Hauptproblem nicht die kurzfristige Speicherung, die ggf. mit einem „Smart Grid“ und/oder Batterien erfolgen kann, sondern die langfristige, saisonale Speicherung. Diese kann mit bekannter Technologie nur in Speicherkraftwerken oder mit Wasserstoff oder Methan erfolgen. Beide Konzepte haben ihre eigenen Probleme:
Deutschland verfügt überhaupt nicht über Standorte, die für weitere Pumpspeicherkraftwerke geeignet wären.
Die Wasserstoff-Speicherung ist vom Wirkungsgrad mit 40-50% etwas besser, aber Transport, Lagerung und Nutzung von Wasserstoff sind sehr viel aufwändiger und sind zum Teil noch im Forschungsstadium.
Die Brennstoffzellentechnologie zur direkten Nutzung von Wasserstoff ist aktuell wegen der notwendigen teuren Platin-Katalysatoren nur bei speziellen Anwendungen eine wirtschaftliche Option.
Das führt zu dem Ergebnis, dass selbst unter sehr optimistischen Annahmen ein maximaler Anteil von 50% durch Wind- und Solarenergie sinnvoll realisierbar ist.
Die Ineffizienz der Energiewende
Sowohl die Stromgewinnung aus Solarenergie wie auch aus Windenergie hängen seit über 20 Jahren am Tropf der Subventionen. Diese müssen von den anderen, überwiegend den kleinen privaten Stromabnehmern bezahlt werden.
Warum das so ist, wird schnell offensichtlich, wenn man die Ausbeute bei den deutschen Windkraftanlagen betrachtet:
Über die Hälfte des Jahres erbringen alle Anlagen zusammen weniger als 20% ihrer Nennleistung. Nur während 15% der Zeit leisten sie mehr als ihre halbe Nennleistung. Im Durchschnitt leisten sie also höchstens $\frac{1}{6}$ ihrer installierten Leistung, und diese Leistung ist nicht bedarfsorientiert, sondern fällt an, wenn zufällig der Wind weht.
Aufgrund der Ankündigung, dass ab dem Jahr 2020, also nach 20 Jahren Förderung, keine Subventionen mehr für Windenergie ausgegeben werden, sind die Investitionen seit 2018 rapide zurückgegangen, sodass damit zu rechnen ist, dass in den kommenden Jahren, wenn mehr und mehr alte Windkraftwerke angesichts der kurzen Lebensdauer von etwa 20 Jahren, wieder abgebaut werden, unter normalen Marktbedingungen die gesamte installierte Leistung zurückgehen wird:
Neuinvestitionen in Windenergie
Bei der Photovoltaik ist die Phase des schnellen Ausbaus offenbar ebenfalls vorbei, die größten Jahresinvestitionen mit bis zu $8 GW_{peak}$ pro Jahr waren im Jahr 2012, das ist danach dramatisch auf $1-2 GW_{peak}$ pro Jahr zurückgegangen, zuletzt $4 GW_{peak}$ pro Jahr.
Gesamte installierte Leistung bei Photovoltaik-Anlagen
Aufgrund der geringen Sonnenscheindauer in Deutschland und des Wirkungsgrades der Anlagen erreichen ist die Energieausbeute nur 10.7% der installierten Leistung, im Jahr 2019 waren es 46 TWh, was etwa 8.2% des Gesamtstromverbrauchs bedeutet.
Die aktuelle Situation lässt sich exemplarisch an dem Tesla-Werk in Brandenburg beschreiben. In der Ausschreibungsphase wurde damit geworben, dass das Werk in Brandenburg vollständig mit nachhaltiger Wind- und Sonnenenergie betrieben würde – so wie es bei dem Tesla-Werk in Nevada geplant ist. In der deutschen Presse gab es wahre Begeisterungsstürme. Nevada liegt allerdings in der Wüste, es ist eine der heißesten und wolkenärmsten Gegenden der USA mit 3838 Sonnenstunden im Jahr.
Es wird in der Öffentlichkeit weithin der Eindruck vermittelt, dass die „neuen“ Technologien der Energiewende auch Umweltverträglichkeit bedeuten. Mit der Einführung dieser Technologien hat sich allerdings gezeigt, dass es zu teilweise vorhersehbaren, gravierenden „Kollisionen“ mit dem Schutz der Umwelt und der Bewahrung der Schöpfung kommt. Der seit über 50 Jahren in Umweltfragen engagierte, renommierte Biologe Dr. Wolfgang Epple hat sich u.a. sehr intensiv mit den Nebenwirkungen der Windenergiegewinnung und Bio-Treibstoffen, zwei wesentlichen Standbeinen der Energiewende auseinandergesetzt:
Flächenverbrauch (in Wäldern z.B. 600 Bäume pro Windanlage, bzw. etwa 1 ha Fläche, davon 0.5 ha dauerhaft). Allerdings bildet die Frage des Flächenverbrauchs die Problematik des Verdrängens von Wildtieren und Störung des ökologischen Gleichgewichts nur ungenügend ab.
Beeinträchtigung der Biodiversität durch Monokulturen
Zu ähnlichen Schlußfolgerungen kommt Michael Shellenberger in seinem Buch „Abocalypse Never“. Shellenberger, der über viele Jahre die regenerativen Energien im „energetischen Musterland“ Kalifornien propagiert hat, resümiert: „Jetzt, nachdem wir festgestellt haben, dass die erneuerbaren Energien den Planeten nicht retten können, sollten wir den erneuerbaren Energien nicht erlauben, den Planeten zu zerstören:“
In Deutschland gibt es aufgrund der in Folge der Energiewende exorbitanten Kosten für Strom, Öl und Gas mittlerweile über 300.000 Menschen, denen der Strom abgestellt wurde, weil sie die Stromrechnung nicht mehr bezahlen konnten, und die Bundesregierung verweigert genauere Untersuchungen darüber. Das bis vor kurzem unbekannte Wort „Energiearmut“ ist nun Bestandteil der deutschen Sprache.
Zusammenfassung der wissenschaftlichen Bestandsaufnahme
Grundsätzlich ist es richtig, dass eine Zunahme des $CO_2$ Gehalts der Atmosphäre eine leichte Temperaturzunahme bewirken kann, das kann aber bis heute nicht zweifelsfrei nachgewiesen werden
Diese Temperaturzunahme von etwa 0.5° bei Verdoppelung der $CO_2$-Gehalts ist nach dem Stand der Wissenschaft keineswegs von katastrophalem Ausmaß, sie liegt weit unter den Grenzwerten des Pariser Klimaabkommens
Die stark zugenommene Begrünung der Erde ist die sichtbarste positive Auswirkung der Zunahme des $CO_2$ Gehalts
Die seriösen Wissenschaftler sind sich darin einig, dass die mit Klima und Wetter zusammenhängenden Naturkatastrophen im Laufe der letzten 100 Jahre nicht zugenommen, und in ihren Auswirkungen dramatisch abgenommen haben.
Die als Lösung des Klimaproblems seit 20 Jahren vorangetriebene Energiewende kann aufgrund physikalischer Grenzen und exorbitanter Kosten das vorgenommene Ziel nicht erreichen.
Die Nebenwirkungen der Energiewende in Form von Energie-Armut, eingeschränkter Lebensqualität, Zerstörung der Umwelt, Einschränkungen der Freiheit sind so dramatisch, dass vor einem „weiter so“ nur gewarnt werden kann.
Der letzte Teil des heutigen Vortrags ordnet das Phänomen der Klimareligion historisch und philosophisch ein. Für mich stellt es sich so dar:
Die Klimareligion, ein Glaubensbekenntnis der Postmoderne
Um die Klimareligion als eine Konfession oder Sekte der Postmoderne zu verstehen, müssen wir ein Stück zurückblicken. Wir erleben die Klimareligion als eine Ausprägung der sogenannten politischen Korrektheit. Das ist ein Bündel von Anschauungen und Überzeugungen, die seit Jahrzehnten als vermeintlicher „gesellschaftlicher Konsens“ vorangetrieben werden, und denen zu widersprechen zusehends schwieriger wird und nicht selten die gesellschaftliche Ächtung bedeutet. Zu diesem vermeintlichen Konsens, gehört die Klimareligion, deren fragwürdiges Bekenntnis, wie oben ausgeführt, stark vereinfacht darin besteht, dass der Mensch, genauer die jeweils anderen Menschen, letztendlich ein Schädling des ansonsten „guten“ Planeten Erde sei.
Die „politische Korrektheit“ ist ein paradoxes Gemisch aus der Postmoderne, die als eine Form der Philosophie und Literaturkritik entstanden ist, und dem Marxismus oder Neomarxismus. Diese postmoderne philosophische Revolution ist wesentlich geprägt durch zwei französische Intellektuelle, Jacqes Derrida, und Michel Foucault. Derrida’s Thema war die Literaturkritik, deren zentrales Element der sogenannten „Dekonstruktion“ sich mittlerweile in alle Sprach- und Sozialwissenschaften ausgebreitet hat. Das zentrale Argument der postmodernen Dekonstruktion ist die im Prinzip richtige Feststellung: Es gibt unendlich viele Möglichkeiten, jede endliche Menge von Phänomenen zu interpretieren. Das ist tatsächlich wahr. Dieser Umstand bereitet z.B. in der digitalen Bildverarbeitung und künstlichen Intelligenz große Probleme, die reale Welt richtig zu interpretieren. Denn es stellt sich heraus, dass die Welt so komplex ist, dass ihre Wahrnehmung technisch gesehen praktisch unmöglich erscheint. Die Konsequenz der Postmodernen Philosophie daraus ist die These, dass keine dieser Interpretationen gegenüber anderen bevorzugt werden sollte.
Für die Postmodernen Philosophen und ihre Nachfolger folgt aus diesem grundsätzlichen Problem, dass man es dazu benutzen kann, jede konkrete Interpretation der Wirklichkeit – der anderen – anzugreifen. In der Theologie gibt es eine ähnliche Entwicklung mit der historisch-kritischen Methode schon seit dem 19. Jahrhundert, und sie führte zu einer weitgehenden Relativierung und Beliebigkeit in der kirchlichen Verkündigung und dem damit verbundenen massiven Glaubensabfall.
Der inhaltliche Fehler der postmodernen Philosophie
Der grundlegende Fehler der Postmodernen liegt darin, dass es zwar eine sehr große Zahl potenzieller Interpretationen der Welt gibt, dass diese Interpretationen der Welt aber nicht alle mit dem Leben verträglich sind. Dabei sind Interpretationen nicht als distanzierte theoretische Betrachtungen zu verstehen, sondern als die Wahrnehmung, die zum aktiven Handeln in der Welt führt.
Die schlimmsten Fehlinterpretationen der Wirklichkeit führen zum Tod – eine schreckliche Lösung des Interpretationsproblems. Deswegen schützen wir unsere Kinder vor solchen gravierenden Fehlinterpretationen, solange sie die Wirklichkeit noch nicht selbst angemessen beurteilen können. Ob Benutzung scharfer Messer, giftige Beeren oder Pilze, oder der Straßenverkehr – erst durch komplexe Lernprozesse lernen wir die mit dem Leben verträgliche Interpretation der Wirklichkeit.
Damit ergibt sich die erste Gruppe von Einschränkungen: Die Interpretationen der Welt sollen so weit wie möglich vor übermäßigem Leiden und Tod schützen. Dies sollte jedem einleuchten, der nicht in die suizidale Richtung zielt.
Das Zusammenleben mit anderen – Kooperation und Konkurrenz – schränken die zulässigen Interpretationen weiter ein. Vor allem, wenn man bedenkt, dass man nicht nur einmal kooperieren und mit den Menschen konkurrieren muss, sondern dass man mit denselben Menschen oft viele Male in vielen verschiedenen Kontexten kooperieren und konkurrieren muss.
Man will also nicht zu viel leiden und nicht sterben, und man will mit den Menschen zusammenarbeiten und mit ihnen konkurrieren können. Und Sie wollen das über lange Zeiträume tun können, und dann wollen Sie es vielleicht auch mit einem Ziel vor Augen tun. Dadurch müssen wir unsere Interpretation einschränken, so dass, wenn wir sie in der Welt umsetzen, die Wahrscheinlichkeit steigt, dass das, was wir anstreben, auch eintritt.
Der Philosoph Immanuel Kant hat dies mit dem „kategorischen Imperativ“ ausgedrückt: Handle so, als ob die Sache, die Du tust, von allen gemacht wird. Und der Entwicklungspsychologe Piaget hat es weiter ausgeführt: Lebe so, als ob das, was Du tun wirst, immer wieder wiederholt wird, und zwar so, dass es aufwärts statt abwärts geht. Es gibt also enorme Einschränkungen in der Art und Weise, wie wir die Welt aus jeder sinnvollen realistischen Perspektive interpretieren können. Die Kritik der Postmodernen, dass es unendlich viele Interpretationen und als Konsequenz moralische Beliebigkeit gibt, zerfällt also bei näherer Betrachtung.
Die merkwürdige Allianz der Postmoderne mit dem Marxismus
Dazu kommt die auffällige Merkwürdigkeit, dass die Postmodernen die Lösung aller Probleme im Marxismus sehen, dass die Welt am besten durch die Linse von Unterdrückern und Unterdrückten betrachtet wird. Weil es so ist, und wenn man zum Beispiel Derrida oder Foucault liest, und die Geistesgeschichte der postmodernen Bewegung betrachtet, die sich in den 1970er Jahren schnell ausbreitete, stellt man fest, dass es kein Geheimnis ist, dass die Postmoderne aus einem zugrunde liegenden marxistischen Rahmen heraus entstanden ist. Diesen haben sie nie aufgegeben, sie haben ihn lediglich modifiziert.
Der Klassenkampf „Proletariat gegen Bourgeoisie“ ging nahtlos über in den Kampf einer Identitätsgruppe gegen die andere: Frauen gegen Männer, Homosexuelle etc. gegen Heterosexuelle, Farbige gegen Weiße, Einwanderer gegen Einheimische, Moslems gegen Christen, Progressive gegen Konservative. Es ist immer wieder die gleiche Inszenierung: gefühlten Unterdrückte gegen vermeintliche Unterdrücker, immer derselbe Taschenspielertrick.
Bündnis der Postmoderne mit dem Marxismus
Wie kommt es also, dass sich Postmoderne, die angeblich keine Interpretation bevorzugen, mit dem Marxismus verbündet haben? Die wohlwollende Antwort könnte sein: Die Postmodernisten und die Radikalen, die die politisch korrekte Bewegung vorantreiben, sind eigentlich aufrichtig in ihrem Wunsch, den Unterdrückten zu helfen. Auch wenn es keine bevorzugte Lebensinterpretation gibt, können wir immer noch wie anständige Menschen handeln und versuchen, uns um Menschen zu kümmern, die weniger Glück haben als wir.
Intellektuell ist das allerdings ein schlechtes Argument, weil es den Widerspruch der Postmoderne zwischen unendlich vielen Interpretationen und der Bevorzugung der marxistischen Interpretation nicht auflöst. Mangelnder Respekt vor Kohärenz und Logik ist die Schwäche der Postmodernen.
Das entscheidende Problem dieser Theorie war aber, dass Ende der 60er Jahre Beweise der mörderischen Taten des maoistischen China, der stalinistischen und poststalinistischen Sowjetunion bekannt wurden: Abscheuliche politische Praktiken in einem solchen Ausmaß und einer solchen Unbestreitbarkeit, dass selbst die französischen Intellektuellen zugeben mussten, dass etwas nicht stimmte.
Und so wurde es ihnen Ende der 1960er Jahre unmöglich, sich mit den Unterdrückten zu identifizieren und gleichzeitig zu behaupten, dass man sich an die Grundsätze des Marxismus als einer funktionierenden wirtschaftlichen und politischen Doktrin halte. Alexander Solschenizyn hat schließlich Mitte der 70er Jahre mit seinem „Archipel Gulag“ den sozialistischen Terror endgültig entlarvt.
Damit ist das postmoderne Argument unglaubwürdig und disqualifiziert, dass Mitgefühl das Motiv für die Allianz zwischen Postmoderne und Marxismus sei. Weil sie die historische Realität ignorieren, dass die Doktrinen, die sie in die Praxis umzusetzen versuchen, mörderisch jenseits aller Vorstellungskraft waren – kann ich das Argument nicht akzeptieren, dass es Mitgefühl ist, das sie angeblich antreibt.
Die Klimareligion und die Grünen
Wie reiht sich nun die Klimareligion in dieses marxistische Konzept ein? Hier wird die falsche Illusion aufgebaut, dass eine „unberührte Natur“ pauschal als gut idealisiert wird. Diese wird in deren Sichtweise vom Menschen unterdrückt, ausgebeutet und zerstört. Damit wird der marxistische „Klassenkampf“ ausgeweitet als Kampfansage an alle Menschen, weil jeder einzelne vermeintlich zur Unterdrückung und Zerstörung der „guten“ Natur beiträgt. Der Mensch, sofern er überhaupt ein Lebensrecht hat, wage sich nicht, dem Schöpfungsauftrag „Macht euch die Erde untertan“ nachzukommen, sondern ordne sich der Natur unter. Das erklärt den ansonsten unerhörten Widerspruch dieser Aktivisten, dass sie sich in Großdemonstrationen für „Juchtenkäfer“ einsetzen, aber keine Skrupel zeigen, wenn in Spätabtreibungen lebensfähige Kinder umgebracht werden.
Das $CO_2$ erweist sich für diese Aktivisten als idealer „Verbündeter“. Es wirkt grenzüberschreitend, seine Erzeugung ist bislang untrennbar mit dem Erzeugen von Energie als Grundlage von Gesundheit und Wohlstand verbunden. Seine Verteufelung erschließt einen Machthebel über die ganze Welt. Das Beste aber: Sie machen damit Angst.
Dazu kommt, dass speziell in Deutschland der Beginn der „grünen“ Bewegung direkt gekoppelt war mit dem Kampfansage der marxistischen Linken gegen die Atomkraft, die als Verkörperung des kapitalistischen Feindbildes gesehen wurde. Der Widerstand gegen die Atomkraft diente insbesondere auch dazu, die durch die linksradikalen Terroristen der RAF gespaltene und verwirrte linke Bewegung wieder auf ein gemeinsames Ziel zu lenken. Die marxistische Fixierung der Bewegung stieß diejenigen, die sich ursprünglich durch Leidenschaft für den Naturschutz und Sorge um die Schöpfung der grünen Partei anschlossen, vor den Kopf. Die „aufrichtigen Naturschützer“ wie z.B. Dr. Herbert Gruhl, waren bald in der Minderheit und verließen die Partei. Seither ist die Partei durch hartgesottene Stalinisten („Fundis“) und postmoderne „Identitätspolitiker“ verschiedener Ausprägung („Realos“) charakterisiert. Ähnlich ging es einem der Mitgründer von Greenpeace, Patrick Moore, als er erleben musste, dass sich die Aktivitäten von Greenpeace zunehmend gegen die Fundamente der Industriegesellschaft richteten, die unser aller Gesundheit und Wohlstand sichert. Mit dem Kampf gegen die Atomkraft sägen die Vertreter der Klimareligion am zweiten möglichen Pfeiler der Energiegewinnung, die zudem völlig $CO_2$ neutral ist, und in der Geschichte der Energiegewinnung die Abstand wenigsten Opfer, bezogen auf die erzeugte Energie, zu beklagen hat.
Die wahre Movitation der Postmoderne – Missgunst und Verbitterung
Was aber treibt die marxistische Postmoderne und speziell die Klimareligion an? Den Schlüssel zum Verständnis finden wir bei Friedrich Nietzsche – vor 150 Jahren.
Er schrieb in „Wille zur Macht“, dass die nihilistischen Doktrinen, die in der Folge nach der Zerstörung der theologischen und philosophischen Substruktur des Westens auftauchen würden, die er mit der Offenbarung des Todes Gottes in Verbindung brachte, politische Katastrophen hervorrufen würden. Und er sprach ausdrücklich vom Kommunismus, das war um 1850-1860 – unglaublich – und dass dieser im 20. Jahrhundert zig bis hunderte von Millionen Menschen töten würde.
Zur Motivation führt Nietzsche im Gedicht „Von den Taranteln“ sehr treffend aus:
Prediger der Gleichheit! Taranteln seid ihr mir und versteckte Rachsüchtige! »Rache wollen wir üben und Beschimpfung an allen, die uns nicht gleich sind« – so geloben sich die Tarantel-Herzen. Ihr Prediger der Gleichheit, der Tyrannen-Wahnsinn der Ohnmacht schreit also aus euch nach »Gleichheit«: eure heimlichsten Tyrannen-Gelüste vermummen sich also in Tugend-Worte!
Das ist also der Wesenskern des „Gleichheitswahns“, der alle Unterschiede nivellieren möchte und überall „verborgene“ Macht- und Ausbeutungsstrukturen wittert. Dies erklärt die paradoxen, die perversen Paradoxien, die der ansonsten unverständlichen Vereinigung zwischen den Postmodernen und den Marxisten zugrunde liegen. Die von ihnen selbst angebotene Erklärung ist Mitgefühl, aber die Lehren, deren Umsetzung im Dienste der Menschheit propagiert werden, haben sich wie kaum eine andere Doktrin mörderisch und tyrannisch jenseits aller menschlichen Vorstellungskraft erwiesen.
In ihrer Welt gibt es nichts als Macht.Sie haben kein Interesse an einer ergebnisoffenen Diskussion, der Andersdenkende muß zum Schweigen gebracht werden, am besten endgültig. Um eine wissenschaftliche Klimatagung zu verhindern, haben bekannte Pressevertreter und Politiker sich mit radikalen Antifa-Gruppen verbündet, um dem Tagungshotel mit Gewalt zu drohen, was dann auch zur Kündigung des Mietvertrages führte. Alle postmodernen Fraktionen werden von Missgunst und Bitterkeit angetrieben. Greta Thunbergs Schlachtruf ist „Ihr habt meine Träume und meine Kindheit gestohlen“, ihr damit verbundener Gesichtsausdruck voller Missgunst und Bitterkeit spricht Bände – sie selbst gehört übrigens zu den Privilegierten dieser Welt.
Greta Thunberg (UNO Klimagipfel 2019)
Egal, wie gut es mir geht, ich finde immer jemanden, der mehr hat oder mehr geachtet ist, und die Güter sind ungleich verteilt. Ich stelle fest, dass diese Verteilung auf einer bestimmten Interpretation der Wirklichkeit beruht, die in aller Regel das Ergebnis eines langen und auch immer wieder zu Recht umstrittenen politischen und gesellschaftlichen Meinungsbildungsprozesses ist, z.B. auf dem freien Wettbewerb und der Belohnung der Fleißigen, oder der Nutzung natürlicher Resourcen wie Kohle und Öl, dann kann ich als Postmoderner diese Verteilungshierarchie dadurch demolieren, indem ich die Gültigkeit dieser – gewachsenen – Interpretation untergrabe. Damit kann ich jegliche Macht, Autorität oder Privileg in Frage stellen, und sie im Zweifel durch eine Interpretation ersetzen, die mir selbst Macht, Autorität oder Privileg verschafft.
Und da die Postmoderne bereits behauptet hat, dass alles, was existiert, Macht ist, warum sollten wir annehmen, dass es irgendetwas anderes gibt, das sie motiviert, etwas anderes als der Nackte Wille zur Macht? Dieses Denken beherrscht unsere Universitäten und dringt in den Rest unserer Gesellschaft ein, und die Idee, dass etwas Gutes dahinter steckt, ist eine gefährliche Idee. Ich denke, was dahinter steckt, ist genau das, was Nietzsche vor 150 Jahren notiert hat: Es ist Missgunst, Bitterkeit und die Forderung nach Macht, die sich als Mitgefühl tarnt, und es ist an der Zeit, die Maske davon herunterzureißen und die Dinge in Ordnung zu bringen, bevor wir einen Weg weitergehen, der uns weiter in den Abgrund führt.
Leserzuschrift zu Spektrum.de, Kommentar von Stefan Rahmstorf: Das Klima-Manifest der WerteUnion
Als promovierter und habilitierter Physiker war ich viele Jahre lang treuer Abonnent von Spektrum der Wissenschaft. Es diente mir nicht nur dazu, mich in den Themen außerhalb meines eigenen Fachgebiets auf dem aktuellen Stand der Wissenschaft zu halten, sondern auch als Anregung für eigene Vorlesungen an der Heidelberger Universität.
Was ich allerdings mit diesem Artikel von Ihnen und dem Autor Stefan Rahmstorf zugemutet bekomme, ist einer Zeitschrift mit wissenschaftlichem Anspruch unwürdig, es ist allerniedrigstes Propagandaniveau und voller einseitiger und falscher Informationen.
Redaktionelle Einleitung
Der Artikel fängt mit der redaktionellen Einleitung an, die bereits das Urteil „krasser Unsinn“ über die Werteunion und „Klimaskeptiker“ gefällt hat, ohne auf ein einziges deren Argumente einzugehen. Wenigstens in der Einleitung hätten Sie sich das „Mäntelchen der Seriosität“ durch eine einigermaßen „neutrale“ Formulierung umhängen können. Aber offensichtlich glauben Sie irrtümlich, Sie hätten bereits den Kampf um die Deutungshoheit in der Klimadiskussion so haushoch gewonnen, dass eine sachliche Auseinandersetzung durch Diffamierung eines vermeintlichen „Gegners“ ersetzt werden kann. Sie sollten es eigentlich seit dem Prozess gegen Galilei besser wissen, dass man wissenschaftliche Auseinandersetzungen nicht durch Angriffe gegen Personen oder Personengruppen gewinnen kann, auch wenn man glaubt, sich in der mächtigeren Position zu befinden. Bevor Sie das Argument ins Feld führen, die Werte-Union hätte im Klima-Manifest ebenfalls unsachlich argumentiert (z.B. durch die Formulierung „Müll-Wissenschaft“), möchte ich Sie daran erinnern, daß die Werte-Union eine politische Partei ist, wo pointierte Ausdrucksweisen und bisweilen unsachliche Übertreibungen in gewissen Grenzen normal sind, Sie aber als wissenschaftliche Zeitschrift einem anderen Niveau verpflichtet sind, wenn man Sie ernst nehmen soll.
Zum Autor
Der Autor, Prof. Rahmstorf, fällt seit längerem und nicht nur in diesem Artikel durch ausgesprochene Einseitigkeit, Überheblichkeit und Arroganz auf. Dabei hätte er allen Grund, mit voreiligen Aussagen zum Klimawandel vorsichtig zu sein. Einer seiner eigenen Versuche, den Klima-Alarmismus durch „dramatischen Meeresspiegelanstieg“ anzuheizen, ist gescheitert, weil er nach Aussagen der Gutachter voreingenommen war und „manuelles Tuning“ (=Manipulation) der Parameter vorgenommen hat, und sein Artikel wurde final abgelehnt. Welche Absicht steht hinter Ihrer Entscheidung, ausgerechnet einen solchen einseitigen notorischen „Scharfmacher“ für einen Artikel zu einem so politisch aufgeladenen Thema zu wählen?
Zum Inhalt
Inhaltlich fällt auf, dass bereits die Referenz zum Gegenstand der Diskussion, dem Klima-Manifest unseriös ist, Rahmstorf verwendet einen Archiv-Link zu einem manipulierten Dokument, das dem unvoreingenommenen Leser zum einen fälschlicherweise suggeriert, dass es das ursprüngliche Dokument gar nicht mehr gibt, und in dem darüber hinaus die Links manipuliert sind (z.B. wird statt zum vorgesehenen (aber offensichtlich von Rahmstorf unerwünschten) Vortrag des Nobelpreisträgers Ivar Giaever zu verweisen, wird in der archivierten Version zur von Rahmstorf propagierten Mainauer Deklaration verwiesen. Das ist wissenschaftlicher Betrug.
Inhaltlich bietet Prof. Rahmstorf ansonsten auf der 1. Seite nur unsachliche Polemik, die versucht, berechtigte Anliegen wie die bereits beginnende Deindustrialisierung ins Lächerliche zu ziehen.
Was die Alarmismus-Prognosen des letzten halben Jahrhunderts betrifft, so sehe ich vor allem, dass alle grandios daneben lagen. Wer mir erklären will, dass wir in der Zukunft Klima-bedingte Probleme haben werden, soll mir erstmal erklären, warum die bisherigen Horrorprognosen so grottenfalsch waren.
Das einzige andeutungsweise sachlich angegangene Thema ist die Frage des Einflusses der Sonnenaktivität auf Wetter und Klima. Die erwähnte Studie von Launig über den Einfluss der Sonnenaktivität greift zu kurz, weil sie die eigentlich wirksamen Zusammenhänge nicht berücksichtigt. Ein Leserbrief ist allerdings nicht das Forum, um dieses Thema einschließlich der erwarteten Abkühlung würdig zu behandeln.
Dass es eine Erwärmung der Erde während der letzten 30 Jahre gegeben hat und dass möglicherweise ein Teil dieser Erwärmung auf CO2 zurückzuführen ist, bestreitet das Klima-Manifest nicht. Wohl aber dass die künftig zu erwartende Erwärmung katastrophale Ausmaße haben soll – es wird berechtigt darauf hingewiesen, dass die prognostizierten Erwärmungen alle in Modellen stattfinden, die bereits jetzt zu stark überhöhten Prognosen führen.
Ich möchte Sie dringend dazu auffordern, sich von der ideologischen Engführung zu befreien und wieder zu dem aus früheren Jahren gewohnten wissenschaftlichen Niveau zurückzufinden.
Albedoänderungen und Klimasensitivität
[latexpage]
Die Klimadiskussion wird überwiegend von der Diskussion um den Einfluss von $CO_2$ dominiert, das nach den Strahlungstransportgleichungen, die die ausgehende Infrarotstrahlung (OLR = „outgoing longwave radiation“) beschreiben, einen gewissen Einfluss auf den Strahlungshaushalt der Erde hat. Es gibt jedoch noch weitere Faktoren, die berücksichtigt werden müssen. Der einfallende Energiefluss, die kurzwellige Lichteinstrahlung, ist offensichtlich von entscheidender Bedeutung . Die tatsächliche Menge des von der Sonne kommenden Energieflusses, die „Sonnenkonstante“, hat sich als extrem konstant erwiesen, aber die globale Albedo, die darüber entscheidet, wie viel Sonnenfluss in die Atmosphäre eintritt bzw. in den Weltraum reflektiert wird, ist ein extrem wichtiger Kontrollparameter.
Das Dilemma der Albedo der Erde war, dass es keine „nette Theorie“ gibt, wie man sie aus einer einfachen (möglicherweise vom Menschen verursachten) Ursache bestimmen kann. Im Gegenteil, sie beinhaltet viele derzeit schlecht verstandene Faktoren, von denen einige unter menschlicher Kontrolle sind, andere aber nicht:
Wolken unterschiedlicher Art in verschiedenen Höhen,
reflektierende und streuende Aerosole,
Einflüsse auf die Wolkenerzeugung, wie kosmische Strahlung und Magnetfelder,
Oberflächen- und atmosphärische Eigenschaften als Folge von Schneebedeckung, Verstädterung, Landwirtschaft, Luftverschmutzung usw.,
mögliche Rückkopplungseffekte der Temperatur über Wasserdampf.
Mangels einer umfassenden Theorie wurde der Einfluss der Erdalbedo lange Zeit in der Mainstream-Klimadiskussion vernachlässigt oder ignoriert. Aber es gibt einen anderen Ansatz. Satellitenmessungen haben es möglich gemacht, die Albedo zu messen und daher den direkten Einfluss der Albedo auf die von der Erde absorbierte Sonneneinstrahlung zu messen . Kürzlich wurde von J. Herman et al. eine Analyse über 30 Jahre veröffentlicht: Nettoabnahme des Reflexionsvermögens der Wolken, der Aerosole und der Erdoberfläche bei 340 nm Wellenlänge.
Diese sorgfältige Analyse zeigt einen klaren, signifikanten Trend für die gesamte Reflexivität, die 75% der gesamten Sonneneinstrahlung auf der Erde ausmacht (Breitengrad -60…60 Grad, die Pole haben weniger Gewicht aufgrund kleinerer Gesamt-Einstrahlung und größerer Albedo in Polnähe):
Gemessene Erdreflexivität von 1980 bis 2010
Die geänderte Reflektivität wurde in Änderungen des einfallenden bzw. reflektierten Licht-Energieflusses umgesetzt:
Energiebudget des eingehenden Licht-Flusses, mit Änderungen aufgrund der Albedo-Abnahme
Das bedeutet, dass der solare Einstrahlungs-Energiefluss in den 30 Jahren von 1980 bis 2010 um $2,33\frac{W}{m^2}$ gestiegen ist. Diese albedo-bedingte Zunahme innerhalb von 30 Jahren ist größer als der geschätzte Strahlungs-Antrieb durch den Anstieg von $CO_2$ seit Beginn der Industrialisierung.
ergibt sich die Temperatur-Sensitivität gegenüber Einstrahlungsänderungen (ohne Berücksichtigung von möglichen Rückkopplungen) – durch Bildung der ersten Ableitung $\frac{dT}{dS_a}$ und linearer Approximation des Stefan-Boltzmann-Gesetzes:
$ \Delta T_{CO_2} = 0,25\cdot \frac{0,6\cdot 288}{161,3+78} K = 0,18 K $
führt. Beide „Antriebe“ sorgen für Erwärmung der Atmosphäre. Es gibt 2 wichtige und einfache Konsequenzen aus dieser Übersicht und den Berechnungen:
Der Einfluss von $CO_2$ macht 20% der Temperaturänderung der letzten 30 Jahre aus, während die Änderung der Wolkenreflexivität 80% der Temperaturänderung bewirkt.
Beide Kräfte zusammen hätten demnach zusammen eine durchschnittliche Erwärmung von 0,88 K erzeugt. Die tatsächliche Änderung der globalen Temperatur ist viel geringer, je nach der Institution, die die Temperatur misst, beträgt sie 0,3..0,5 K, was etwa die Hälfte der theoretischen Gleichgewichtstemperatur nach den obigen Überlegungen ist. Daher muss es eine ziemlich starke negative Rückkoppelung geben, die den Effekt des zusätzlichen Licht-Energieflusses (von der abnehmenden Wolkenreflextion) sowie des verminderten Infrarot-Energieflusses (von $CO_2$) um ca. 50% reduziert.
Für die $CO_2$-Sensitivität (Temperaturänderung bei Verdoppelung von $CO_2$) bedeutet diese negative Rückkopplung, dass wir bei einer Erhöhung der $CO_2$-Konzentration auf 600 ppm eine Temperaturänderung von weniger als 0,5 Grad K im Vergleich zu vorindustriellen Zeiten erwarten können. Diese Schlussfolgerung wird unter der Annahme gezogen, dass Albedo-Veränderungen unabhängig von $CO_2$-Änderungen sind.
Unangenehme Tatsachen bei den Australischen Buschfeuern
Der renommierte amerikanische Wissenschaftler Roger Pielke hat in einem sehr differenzierten Beitrag zu den australischen Buschfeuern zu Beginn des Jahres 2020 Stellung genommen: Wir leben in einer Zeit, in der jedes extreme Wetter oder klimabedingte Ereignis unmittelbar mit dem vom Menschen verursachten Klimawandel in Verbindung gebracht wird. Bei solchen Assoziationen geht es oft nicht wirklich um die Wissenschaft des Klimas, sondern eher um ein Symbol, das im politischen Kampf um den Klimawandel mahnt. Nach den Aussagen der Australischen Akademie der Wissenschaften sind die Zusammenhänge allerdings viel komplizierter:
„Buschfeuer stellen, zusammen mit anderen Herausforderungen in Bezug auf Wetter und Klima, komplexe und weitreichende Probleme dar. Bevölkerungswachstum, Klimawandel, Temperaturextreme, Dürren, Stürme, Wind und Überschwemmungen überschneiden sich in einer Weise, die nur schwer zu entwirren und zu bewältigen ist.“ Und anstatt den Wechsel einzelner Politiker zu fordern, fordert die Akademie eine verbesserte Politik: „Alles, einschließlich der Stadtplanung, der Baunormen, der Wiederherstellung von Lebensräumen, der Erhaltung der biologischen Vielfalt und der Artenvielfalt sowie des Land-, Wasser- und Wildtiermanagements wird sorgfältige und maßvolle Überlegungen erfordern.„