1

Die Kosten radikalen Umweltak­tivismus‘ für die Gesell­schaft

In der Novelle „1984“ von George Orwell aus dem Jahre 1949 sah der Autor eine Zeit kommen, „in welcher ein großer Teil der Welt das Opfer eines ewigen Krieges ist, Opfer von omnipräsenter Überwachung seitens der Regierung, Opfer historischen Negationismus [?] und Propaganda“ [hier]. Heute scheint es so, als hätte Orwell bemerkenswerte seherische Fähigkeiten gehabt.

Hier folgt das reale „1984“, ein Interview aus jenem Jahr mit dem Ex-KGB-Offizier und Überläufer Yuri Bezmenov [YouTube]. Er beschrieb das langfristig angelegte Programm der Sowjetunion, die westlichen Demokratien ideologisch zu unterminieren. Man springe zu 1:07:30, also zu Bezmenovs Diskussion „ideologischer Subversion“. Es geht darum, die nützlichen Idioten zu manipulieren – also die pro-sowjetischen Linksextremen innerhalb der Demokratien.

Ein Kommentator des Videos schrieb: „Das ist irre! Fast alles, was in dem Video prophezeit wurde, ist bereits im Gange!“ Bernie Sanders [US-Präsidentschafts-Bewerber für die Wahl 2020, AOC und andere Soialisten-Demokraten sagen ganz offen, was Bezmenov schon vor Jahrzehnten prophezeit hatte. Die letzten Demokratien werden durch Linksextremisten angegriffen.

Auf der ganzen Welt sind Länder, die einst eine Zukunft hatten, zu Diktaturen verkommen und in Armut und Elend versunken. Es ist bemerkenswert, dass von allen der rund 167 großen Länder der Welt die meisten totalitäre Staaten sind (hier), und sämtliche Bürger mit Ausnahme der „ausgewählten Wenigen“ leiden unter brutalen Linksdiktaturen.

Radikale Grüne haben Storys über eine runaway-globale Erwärmung und Klimawandel wild übertrieben, um die Leichtgläubigen vor sich her zu treiben, um ihre politischen Ziele zu erreichen. Die Grünen behaupten, pro-Umwelt zu sein, aber deren Politik hat der Umwelt bereits schwerste Schäden zugefügt. Radikale Grüne waren außerdem bzgl. der Menschheit äußerst destruktiv und haben Millionen Todesopfer zu verantworten. Kürzlich schrieb ich dazu:

Die modernen Grünen begannen mit dem effektiven Verbot von DDT 1972 bis 2002. Dies führte global zu Todesfällen durch Malaria, die von etwa 1 Million auf zwei Millionen Menschen pro Jahr zunahmen. Die meisten dieser Todesfälle waren Kinder unter fünf Jahren in Afrika südlich der Sahara…“ (hier).

…radikale Grüne (wirkliche Linksextremisten) sind die großen Mörder unserer Zeit. Jetzt töten die Grünen Babys oder lassen sie erblinden mittels ihrer Opposition gegen Goldenen Reis…“ (hier)

Die grüne Bewegung ist in Wirklichkeit ein Deckmantel für die alten Marxisten – und sie sind die Großen Mörder unserer Zeit“ (hier, auf deutsch hier).

2. Radikale Grüne haben Kosten von Billionen Dollar verursacht sowie hunderte Millionen Menschen das Leben gekostet!

Hier folgen einige der Belege dafür:

Das DDT-Verbot von ~1972 bis 2002. Es verursachte Todesfälle durch Malaria von Zehner-Millionen Kindern und ließ weitere Zehner-Millionen Menschen aller Altersstufen erkranken und sterben.

Referenz: „Silent Spring At 50: The False Crises of Rachel Carson“, 21. September 2012:

Carson machte sich kaum die Mühe, eine ausgeglichene Perspektive zu vermitteln und ignorierte konstant alle Beweise, die ihrer Arbeit widersprachen. Zwar bot das Buch einige bemerkenswerte Gedanken, aber eine Anzahl von Carsons Hauptargumenten basieren auf etwas, das man nur als vorsätzliche Ignoranz beschreiben kann“.

Die wütende grüne Opposition gegen Goldenen Reis. Sie tötete Millionen weitere Kinder und ließ sie erblinden. Referenzen hier, hier, hier und hier.

Die Fehlleitung seltener globaler Ressourcen für kostspielige und destruktive Programme bzgl. ,Grüner Energie‘, welche alles andere als grün sind und kaum nützliche Energie erzeugen (hier).

Wären sie angemessen verteilt worden, hätte ein Bruchteil der für grüne Programme verschwendeten Billionen Dollar ausgereicht, um saubere Trinkwasser- und Sanitär-Systeme in jeder Gemeinde auf der ganzen Welt zu installieren. Dies hätte vielen Zehner-Millionen Kindern und Erwachsenen das Leben gerettet! Mit dem übrigen Geld hätte man Todesfälle durch Malaria und Mangelernährung signifikant reduzieren können.

Globale Krisen, globale Lösungen“, der 1. Kopenhagen-Konsens, Bjørn Lomborg et al. 2004.

Die Anzahl der Todesfälle durch extreme Winterkälte in der entwickelten Welt sowie die Anzahl beeinträchtigter Lebensverhältnisse durch ausufernde Energiekosten in den Entwicklungsländern geht möglicherweise noch über die Zehner-Millionen Malaria-Toten durch das DDT-Verbot hinaus. Kältetote (mehr Todesfälle im Winter als in Nicht-Winter-Monaten) machen über zwei Millionen Seelen pro Jahr aus. Dies belegt eindeutig, dass die Erde kälter ist als es für die Menschen optimal wäre (hier).

Todesfälle in Behausungen durch offene Kochfeuer (hier) tragen zu Krankheiten und frühzeitigem Tod in den Entwicklungsländern bei, besonders bei Frauen und Kindern.

Zusätzlich zu ausufernden Energiekosten und zunehmenden Kältetoten haben intermittente Wind- und Solarenergie die Netz-Stabilität reduziert (hier) und das Risiko von Stromausfällen drastisch erhöht (hier).

Riesige Landflächen sind dem Ackerbau entzogen und für die Erzeugung von Biotreibstoffen missbraucht worden. Dies führte zu steigenden Kosten für Nahrungsmittel und Hunger bei den ärmsten Menschen auf der Welt (hier).

3. Es gibt KEINERLEI glaubwürdige Beweise, dass das Klima gegenüber einem steigenden atmosphärischen Kohlendioxidgehalt sehr sensitiv ist – und reichliche Beweise für das Gegenteil. Eine katastrophale, vom Menschen verursachte Erwärmung ist eine falsche Krise.

Kompetenten Wissenschaftlern ist diese Tatsache seit Jahrzehnten bekannt. In einer von APEGA gesponserten, schriftlich niedergelegten Debatte im Jahre 2002 (hier) unter Mitwirkung von Dr. Sallie Baliunas, Dr. Tim Patterson und mir selbst von unserer Seite kamen wir zu dem Ergebnis:

Die Klimawissenschaft stützt nicht die Theorie einer katastrophalen, vom Menschen verursachten globalen Erwärmung – die vermeintliche Erwärmungs-Krise ist nicht existent.

Die ultimative Agenda von Pro-Kyoto-Befürwortern läuft auf die Eliminierung fossiler Treibstoffe hinaus, aber dies würde zu einem katastrophalen Einbruch der globalen Energieversorgung führen – die verschwenderischen, ineffizienten Lösungen bzgl. Energie aus dem Kyoto-Protokoll können fossile Treibstoffe einfach nicht ersetzen“.

Viele wissenschaftliche Beobachtungen zeigen, dass beide Feststellungen immer noch gültig sind. Der gegenwärtige Gebrauch des Terminus‘ „Klimawandel“ ist vage, und die Definition desselben wird regelmäßig geändert – es handelt sich um eine „nicht falsifizierbare Hypothese“. Sie ist daher unwissenschaftlicher Nonsens.

Eine Theorie, die nicht widerlegbar ist durch irgendein vorstellbares Ereignis ist unwissenschaftlich!“ – Karl Popper.

Das Klima hat sich immer geändert. Das gegenwärtige Klima ist nicht ungewöhnlich und außerdem vorteilhaft für Mensch und Umwelt. Die Erde befindet sich in einer etwa 10.000-jährigen Warmzeit innerhalb eines Zyklus‘ von 100.000 Jahren mit abwechselnden Kalt- und Warmzeiten. Eine Warmzeit ist KEINE Krise. Eine Vereisungs-Periode (,Eiszeit‘) mit 2 km dicken Eisschilden über dem Festland IST eine Krise.

Der Terminus „katastrophale, vom Menschen verursachte globale Erwärmung“ IST eine falsifizierbare Hypothese und WURDE AUCH SCHON vor Jahrzehnten falsifiziert. Die Verbrennung fossiler Treibstoffe und der atmosphärische CO2-Gehalt haben nach ~1940 drastisch zugenommen, während die globale Temperatur von ~1945 bis ~1977 gesunken ist. Es gibt keine glaubwürdigen Belege, dass das Wetter jetzt chaotischer ist – die Anzahl sowohl von Hurrikanen als auch von Tornados befindet sich seit vielen Jahrzehnten auf einem niedrigen Aktivitätsniveau (hier).

Selbst wenn man die gesamte globale Erwärmung dem gestiegenen atmosphärischen CO2-Gehalt zuordnet, beträgt die berechnete maximale Klimasensitivität bei einer Verdoppelung von CO2 in der Atmosphäre nur etwa ein Grad Celsius, und das reicht nicht zur Auslösung einer katastrophalen Erwärmung. Belege dafür hier und hier.

Der Alarmismus um die globale Erwärmung basiert auf der falschen Vermutung, dass der zunehmende atmosphärische CO2-Gehalt eine katastrophale globale Erwärmung verursacht. Tatsächlich hinken Änderungen des atmosphärischen CO2-Gehaltes den Änderungen der globalen Temperatur in allen Zeitmaßstäben hinterher (hier). Erst ändert sich die Wassertemperatur tropischer Meeres, danach die Feuchtigkeit in den Tropen, dann die Lufttemperaturen und erst dann der CO2-Gehalt – in dieser Reihenfolge.

In Klima-Computermodelle des IPCC und von anderen Klima-Aktivisten gehen viel höhere vermutete Sensitivitäts-Werte ein, welche falschen Alarm erzeugen. Die Fähigkeit zur Prognose ist vielleicht die objektivste Maßgabe wissenschaftlicher Kompetenz. Sämtliche Angst erzeugenden Prophezeiungen der Klima-Alarmisten bzgl. einer gefährlichen globalen Erwärmung oder extremerem Wetter haben sich bis auf den heutigen Tag als falsch erwiesen. Die Alarmisten können einen perfekt negativen prognostischen Werdegang vorweisen, so dass ihnen kein vernünftiger Mensch mehr glauben sollte.

Auf der Grundlage des gegenwärtigen Wissens sind die einzigen bedeutenden Auswirkungen des gestiegenen CO2-Gehaltes der Atmosphäre ein erheblich verbessertes Wachstum von Pflanzen und steigende Ernteerträge.

4. Die Menschheit braucht moderne Energiesysteme, um zu überleben – um unsere Nahrungsmittel anzubauen und zu verteilen, um Schutz, Wärme und überhaupt alles zu bieten, das wir zum Leben brauchen. Wind- und Solarenergie sind viel zu unberechenbar und diffus, um praktikabel oder effektiv zu sein. Grüne Energieprogramme waren kostspielige Fehlschläge.

Fast 85% der globalen Primärenergie stammt von fossilen Treibstoffen – Öl, Kohle und Erdgas (hier). Die verbleibenden 15% gehen fast durchweg auf das Konto von Kern- oder Wasserkraft. Grüne Energie ist von 1% auf weniger als 2% gestiegen – trotz vieler Billionen Dollar an verschwendeten Subventionen. Die Komponente fossiler Treibstoffe von 85% ist über die vergangenen Jahrzehnte praktisch unverändert geblieben und dürfte sich auch in zukünftigen Jahrzehnten kaum ändern.

Das folgenschwere Scheitern der Netzanbindung grüner Energie ist, dass diese weder grün ist noch nutzbare Energie erzeugt, hauptsächlich der Unberechenbarkeit geschuldet – der Wind weht nicht immer und die Sonne scheint nicht 24 Stunden am Tag. Intermittente, in das Netz eingespeiste grüne Energie erfordert fast 100% Backup-Reserve mittels konventioneller Energiequellen. Intermittente Stromerzeugung durch Wind und Solar reduziert nicht einmal signifikant CO2-Emissionen – alles, was sie mit sich bringen, sind steigende Energiekosten und Reduktion der Netz-Stabilität.

(Siehe auch hier bei Jo Nova)

Behauptungen, Energiespeicherung in der Größenordnung des Netzes das Problem der Unberechenbarkeit lösen werden, haben sich bis auf den heutigen Tag als falsch erwiesen (hier). Das einzige hinreichende Speichersystem einer ,Super-Batterie‘ ist Pumpspeicherung, aber geeignete Stellen dafür sind rar. Die Provinz Alberta ist größer als viele Länder, weist aber keine einzige geeignete Lokation für einen solchen Speicher auf.

5. Die Billionen Dollar für seltene globale Ressourcen, welche für die Hysterie um die globale Erwärmung verschwendet worden waren, um Fanatismus bzgl. fossiler Treibstoffe und grüner Energie-Programme, hätten bei ordentlicher Verwendung das Leben vieler Millionen Menschen verbessern und retten können.

Etwa zwei Millionen Kinder unter 5 Jahren sterben jedes Jahr durch verschmutztes Wasser – etwa 70 Millionen tote Kinder seit Aufkommen des Alarmismus‘ um die globale Erwärmung. Bjørn Lomborg schätzt, dass ein Bruchteil dieser vergeudeten Gelder für grüne Energie sauberes Wasser und sanitäre Einrichtungen in jede Gemeinde weltweit hätte bringen können.

Verschwendung von Geld für den Globale-Erwärmung-Alarmismus und den grünen Energie-Unsinn haben die Menschen auf der ganzen Welt geschädigt. In Nordamerika, Europa und Australien sind Billionen Dollar verschwendet worden für grüne Energie-Programme und deren Netzanbindung (hier). Das hat zu steigenden Energiekosten, steigender Winter-Sterblichkeit und reduzierter Stabilität elektrischer Netze geführt.

In den Entwicklungsländern ist die Installation von Stromnetzen Jahrzehnte lang verhindert worden – alles aufgrund des falschen Globale-Erwärmung-Alarmismus‘ (hier).

Im Winter 2017/18 traten in England und Wales über 50.000 zusätzliche Winter-Todesfälle auf (hier). Diese britische Pro-Kopf-Rate war ~drei mal so hoch wie die entsprechende Rate in den USA und Kanada.

Dabei sind die Energiekosten in UK viel höher – dank der radikalen grünen Opposition in UK gegen Fracking von Schiefergas (hier).

Die Anti-Ölpipeline-Kampagne kostete ~120 Milliarden Dollar durch verlorene Einnahmen aus dem Ölverkauf. Sie vernichtete ~200.000 Arbeitsplätze in Alberta und ganz Kanada. Dies stellt für das Land einen enormen Verlust an Geld und Arbeitsplätzen dar. Kanada, größtenteils Alberta, ist der fünftgrößte Ölproduzent der Welt und der größte Energie-Lieferant für die USA. Mehr dazu hier und hier.

Die Verschwendung finanzieller Ressourcen für die jeder Grundlage entbehrende Globale-Erwärmung-Hysterie, der anti-fossile Fanatismus und destruktive grüne Energie-Programme hätten bei ordentlicher Verwendung das Leben vieler Millionen Menschen verbessern und retten können.

6. Das Verhalten der Klima-Alaristen ist destruktiv, heimtückisch und gewalttätig.

Globale-Erwärmung-Alarmisten haben legitime Debatten niedergeschrien sowie heimtückische und gewalttätige Akte begangen, um ihre falsche Causa zu stützen.

Die Klimagate-E-Mails zeigen unwiderlegbar die wissenschaftliche Verdunkelung und das betrügerische Fehlverhalten.

In Kanada sind der skeptische Klimatologe Dr. Tim Ball und Andere Drohungen ausgesetzt, und Gebäude mit Bezug zur Energieindustrie, darunter der Calgary Petroleum Club, waren Gegenstand von Brandanschlägen. In den USA wurden die Wohnungen skeptischer Wissenschaftler überfallen, und viele hoch kompetente skeptische Wissenschaftler wurden geschmäht und aus ihren akademischen Stellungen hinausgedrängt.

7. Radikale Grüne haben der Umwelt gewaltige Schäden zugefügt, darunter:

Rodung der tropischen Regenwälder, um Zuckerrohr- und Palmöl-Plantagen anzulegen für die Erzeugung von Biotreibstoffen

Beschleunigte Trockenlegung der vitalen Grundwasser führenden Schicht in den USA für die Äthanol- und Biodiesel-Erzeugung.

Rodung von Wäldern im Osten der USA, um das Holz an das Drax-Kraftwerk in UK zu liefern.

Die Errichtung von Vögel und Fledermäuse zerschmetternden Windturbinen.

8.Warum sind die radikalen Grünen so sehr anti-umweltlich?

Dr. Patrick Moore, Mitbegründer und ehemaliger Präsident von Greenpeace, haben schon vor Jahrzehnten darauf Antworten geliefert. Moore erkannte, dass Öko-Extremismus die neue ,falsche Front‘ für ökonomische Marxisten ist, der nach dem Fall der Sowjetunion um das Jahr 1990 so diskreditiert war. Sie übernahmen die Grüne Bewegung, um ihre politischen Ziele zu fördern. Beschrieben hat Moore das in seinem Artikel mit dem Titel „Hard Choices for the Environmental Movement“ aus dem Jahr 1994 – man beachte „The Rise of Eco-Extremism“.

Radikalen Grünen war es nie um die Umwelt gegangen – die Umwelt war nichts als ein Deckmantel für ihre linksextremen totalitären politischen Ziele. Sollten radikale Grüne je an die Macht kommen, wird es „Ein Mann, Eine Stimme, aus!“ sein – das Ende jeder Demokratie.

Um die radikalen grünen Ziele zu verstehen, schaue man hier: http://www.green-agenda.com/. Auszüge daraus:

Der gemeinsame Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen feind, der uns einigen kann, kamen wir auf die Idee, dass Verschmutzung, die Drohung einer globalen Erwärmung, Wasserknappheit, Hungersnöte und dergleichen dieses Ziel erreichen können. Alle diese Gefahren sind menschlichen Eingriffen geschuldet, und nur durch verändertes Verhalten kann diesen Dingen begegnet werden. Der wirkliche Feind ist also die Menschheit selbst“. – Club of Rome, primäre Umwelt-Denkfabrik und Berater der UN.

Wir müssen breit angelegte Unterstützung bekommen, um die Vorstellung in der Bevölkerung zu verankern … also müssen wir ängstigende Szenarien entwerfen, vereinfachte dramatische Erklärungen abgeben sowie kein Aufhebens um irgendwelche Zweifel machen … Jeder von uns muss für sich selbst entscheiden, ob er lieber ehrlich oder lieber effektiv sein will“ – Prof. Stephen Schneider, Professor der Klimatologie bei Stanford und Leitautor vieler IPCC-Berichte.

Besteht nicht die einzige Hoffnung des Planeten darin, dass die industrialisierten Zivilisationen kollabieren? Liegt es icht in unserer Verantwortung, genau dies auf den Weg zu bringen? – Maurice Strong, Gründer des UN-Umweltprogramms UNEP

Das Aussterben der menschlichen Spezies mag nicht nur unvermeidlich sein, sondern wäre auch etwas Gutes“ – Christopher Manes, Earth First!

Eine massive Kampagne zur De-Entwicklung der USA muss angezettelt werden. De-Entwicklung bedeutet, unser ökonomisches System auf eine Linie zu bringen mit den Realitäten der Ökologie und der Lage der Welt-Ressourcen“ – Paul Ehrlich, Professor für Bevölkerungsstudien

Ein Amerikaner belastet die Erde mehr als zwanzig Bewohner von Bangladesh. Das zu sagen ist schrecklich. Um die Weltbevölkerung zu stabilisieren, müssen wir 350.000 Menschen pro Tag eliminieren! Das zu sagen ist furchtbar, aber genauso furchtbar ist es, das nicht zu sagen. – Jacques Cousteau, UNESCO-Botschafter.

[Hervorhebung vom Übersetzer]

Es spielt keine Rolle, ob die Wissenschaft der globalen Erwärmung durchweg verlogen ist … der Klimawandel bietet die beste Gelegenheit, Gerechtigkeit und Gleichheit in die Welt zu bringen“. – Christine Stewart, ehemalige kanadische Umweltministerin

Ich glaube, dass die Ausrottung der Pocken ein Fehler war. Sie spielten eine tragende Rolle bei der Ausbalancierung von Ökosystemen. – John Davis, Herausgeber des Earth First!-Journals.

Wir müssen auf diesem Thema globale Erwärmung herumreiten. Selbst falls die Theorie zur globalen Erwärmung falsch ist, tun wir das Richtige hinsichtlich Wirtschafts- und Umweltpolitik. – Timothy Wirth, Präsident der UN-Foundation

Das Aussterben der Menschen würde das Überleben von Millionen, wenn nicht Milliarden Spezies auf der Erde bedeuten. Das Auslöschen der menschlichen Rasse wird jedes Problem auf der Erde lösen – in sozialer und umweltlicher Hinsicht. – Ingrid Newkirk, ehemelaige PETA-Präsidentin

[Hervorhebung vom Übersetzer]

Das Ziel ist jetzt eine sozialistische Umverteilungs-Gesellschaft, welche der angemessene Bewahrer der Natur und die einzige Hoffnung für die Gesellschaft ist. – David Brower, erster Direktor des Sierra Club und Gründer von Friends of the Earth.

9. Schlussfolgerungen

Radikale grüne Extremisten haben der Gesellschaft Billionen Dollar gestohlen und viele Millionen Menschenleben auf dem Kerbholz. Das Verbot von DDT und die radikale grüne Opposition gegen Goldenen Reis haben Zehnermillionen Kinder erblinden und sterben lassen.

Grüne Energie- sowie CO2-Verbots-Programme, getrieben durch falsche Befürchtungen bzgl. einer katastrophalen globalen Erwärmung haben die Umwelt ernsthaft geschädigt sowie Billionen Dollar verschwendet, welche man viel besser ausgegeben hätte, um den realen und unmittelbaren Bedürfnissen der Menschheit Rechnung zu tragen. Ordentlich verwendet hätte dieses Geld wohl ausgereicht, um Malaria und den Hunger in der Welt auszumerzen.

Die Zahl der zerrütteten Leben aufgrund des radikal-grünen Aktivismus‘ liegt gleichauf mit der Todesrate der großen Killer des 20. Jahrhunderts – Stalin, Hitler und Mao – radikale Grüne befürworten eine ähnliche linksextrem-totalitäre Politik. Sie sind unempfänglich für die daraus resultierenden Umweltschäden und menschliches Leiden … und falls man nicht aufpasst, wird der radikale Umweltaktivismus uns die Freiheit rauben.

Link: https://wattsupwiththat.com/2019/07/04/the-cost-to-society-of-radical-environmentalism/

Übersetzt von Chris Frey EIKE




Klima : Es grünt auf der Welt*

Der Weltklimarat verlangt, dass die Menschheit den globalen Temperaturanstieg auf 1,5 Grad Celsius (gegenüber dem Niveau vor Beginn der Industrialisierung) begrenzt.

Immer mehr Dürren?

Sollte die globale Temperatur in den kommenden Jahren um ein halbes Grad steigen, drohten Natur und Menschheit dramatische Folgen. Ab einem halben Grad, so wird prophezeit, werden sich Dürrekatastrophen und Überschwemmungen, Wirbelstürme und Waldbrände vervielfachen. Noch mehr Armut für Hunderte von Millionen Menschen sei eine der besonders schlimmen Folgen. Ein Jahrzehnt sei alles, was bleibe, um katastrophale Schäden durch den Klimawandel zu stoppen, warnte die Präsidentin der Uno-Generalversammlung, María Fernanda Espinosa Garcés, an einer hochrangigen Sitzung der Vereinten Nationen Anfang des Jahres: «Wir sind die letzte Generation, die irreparable Schäden auf unserem Planeten verhindern kann», sagte sie.

Diesem apokalyptischen Weltbild stehen allerdings harte Daten und Fakten entgegen. Es besteht ein erheblicher Widerspruch zwischen dem neuen Klimaalarm und der empirischen Realität.

Die Temperaturen fallen wieder

Da ist zum einen die Tatsache, dass die durchschnittliche globale Temperatur seit dem Super-El-Niño vor drei Jahren um fast ein halbes Grad Celsius gefallen ist. Und obwohl die globalen Temperaturen seit dreissig Jahren langsam gestiegen sind, hat sich dieser Trend seit Anfang des Jahrhunderts merklich verlangsamt, anstatt sich zu beschleunigen. Dies steht im völligen Gegensatz zu den Voraussagen der Klimamodelle.

So wurde im ersten Bericht des Weltklimarates im Jahr 1990 ein Anstieg der globalen Durchschnittstemperatur von 0,3 Grad Celsius pro Jahrzehnt vorausgesagt. Tatsächlich sind die globalen Temperaturen seither nur zwischen 0,13 und 0,2 Grad Celsius pro Jahrzehnt angestiegen, je nachdem, welcher Datensatz verwendet wird. Das heisst: Lediglich ein Drittel bis zwei Drittel der prognostizierten Erderwärmung hat in den letzten dreissig Jahren stattgefunden, und dies obwohl zugleich mehr als die Hälfte aller industriellen Kohlendioxidemissionen seit Beginn der industriellen Revolution freigesetzt wurden.

Wissenschaftler haben Angst

Die Begrenzung des Anstiegs der globalen Temperatur auf 2 Grad Celsius über dem vorindustriellen Niveau wurde 1996 von der EU als politisches Ziel festgelegt und schliesslich auch von der Uno übernommen. Die meisten Klimaökonomen waren davon überzeugt, dass erst bei einem globalen Anstieg von über 2 Grad Celsius Nettoschäden entstehen würden. Bei einem flauen Temperaturanstieg von 0,1 oder 0,2 Grad Celsius pro Jahrzehnt würde dieses Ziel allerdings erst in einem halben Jahrhundert oder sogar noch später erreicht werden.

Der überraschend langsame Anstieg der Temperaturen und das Ausbleiben vorausgesagter Klimakatastrophen hat bei Wissenschaftlern wachsende Besorgnis ausgelöst. Die Angst vor dem Verlust wissenschaftlicher Glaubwürdigkeit steckt wohl auch hinter der Entscheidung des Weltklimarats im letzten Oktober, die Begrenzung der Erderwärmung auf 1,5 Grad Celsius als neues Ziel auszugeben.

Um den 1,5-Grad-Grenzwert zu erreichen, darf die Welt laut Weltklimarat nur noch etwa 420 Gigatonnen CO2 ausstossen. Bei der gegenwärtigen Emissionsrate wäre dieses globale CO2-Budget bereits in sechs bis zehn Jahren aufgebraucht.

Damit ist der Tag des Jüngsten Klima-Gerichts in greifbare Nähe gerückt. Bis zum Jahr 2030 müssten die CO2-Emissionen im Vergleich zum Jahr 2010 um 45 Prozent fallen, so die IPCC-Wissenschaftler, um eine Katastrophe zu verhindern.

Meeresspiegel steigt ein kleines bisschen

Während die globalen CO2-Emissionen ungebremst steigen, gibt es keine Anzeichen für eine Beschleunigung des Klimawandels oder von dessen Folgen. Trotzdem ist es für Wissenschaftler, Medien und Aktivisten seit Jahren zur Routine geworden, extreme Wetterereignisse mit dem Klimawandel in Verbindung zu bringen. Die grundlegende Behauptung ist, dass der Anstieg von Treibhausgasen in der Atmosphäre in den vergangenen Jahrzehnten zu immer extremeren Wetterbedingungen aller Art geführt hat – zu mehr Dürren, mehr Überschwemmungen, stärkeren Wirbelstürmen und mehr Waldbränden.

Entgegen allen Voraussagen, die auf Klimamodellen beruhen, hat weder die Zahl noch die Intensität von Dürren, Überschwemmungen, Waldbränden oder Wirbelstürmen in den vergangenen dreissig Jahren zugenommen. Dies geht aus dem «IPCC Special Report on Global Warming of 1,5g C» hervor.

Selbst der Anstieg des Meeresspiegels vollzieht sich sehr viel konstanter als vorausgesagt. Laut Nasa beträgt der durchschnittliche Anstieg des Meeresspiegels seit 1993 3,2 Millimeter pro Jahr. Es gibt keinerlei Anzeichen für eine Beschleunigung dieser Wachstumsrate, seitdem Satelliten vor 25 Jahren damit begonnen haben, den Meeresspiegel zu messen. Bei dieser Rate beträgt der Anstieg sage und schreibe 32 Zentimeter in hundert Jahren.

Sinkende Sterblichkeit

Zwar werden Hitzewellen etwas häufiger, aber laut einer 2015 veröffentlichten Studie führt kaltes Wetter zu zwanzigmal mehr Todesfällen als heissere Perioden: Eine grossangelegte Lancet-Studie analysierte die Daten von 74 Millionen Todesfällen zwischen 1985 und 2012 in dreizehn verschiedenen Ländern. 7 Prozent der Todesfälle hingen mit niedrigen Temperaturen zusammen, nur 0,4 Prozent mit erhöhten Temperaturen.

Ebenso wenig bekannt ist wohl auch die Tatsache, dass die wetterbedingte Sterblichkeit und die Sterblichkeitsraten weltweit in den letzten hundert Jahren um mehr als 95 Prozent zurückgegangen sind. Die grössten Verbesserungen ergaben sich aus dem Rückgang der Sterblichkeit aufgrund von weniger Dürren und Überschwemmungen, die für mehr als 90 Prozent aller globalen Todesfälle verantwortlich waren, welche durch extreme Wetterereignisse im 20. Jahrhundert verursacht wurden.

Weniger Hunger und Armut

Als ebenso haltlos erweisen sich die endlosen Prophezeiungen der letzten Jahrzehnte, laut denen der Klimawandel zu einem Anstieg von Armut und Hunger führen werde. Nach Angaben der Weltbank hat sich seit 1990 der Anteil der Armen weltweit halbiert. Auch der Anteil der unterernährten Menschen ist global seit 1990 um fast die Hälfte gesunken.

Die weltweite Verringerung der Armut und des Hungers um mehr als 50 Prozent hat sich in einer Periode globaler Erwärmung vollzogen und ist zweifellos eine der bemerkenswertesten menschlichen Errungenschaften in der Geschichte.

Dabei ist vielen unbekannt, dass der Ausstoss von anthropogenen, also menschengemachten Treibhausgasen dabei eine herausragende Rolle spielt. Hunderte von wissenschaftlichen Publikationen haben dokumentiert, dass die steigenden Kohlendioxidkonzentrationen in der Luft zu einer markanten Steigerung globaler Ernteerträge und zu einem dramatischen Rückgang globaler Armut beigetragen haben.

Enorme Vorteile

Die Apokalyptiker und Katastrophenpropheten irren. Die langsam steigenden Temperaturen und die wachsenden Kohlendioxidemissionen haben im Grossen und Ganzen mehr positive als negative Auswirkungen auf die Menschheit und die Biosphäre. Diese enormen Vorteile sind manifest und beweisbar, während die Kosten künftiger Erwärmung weiterhin spekulativ und ungewiss bleiben.

Der grösste Vorteil entsteht freilich nicht durch die moderate Klimaänderung, sondern durch das Kohlendioxid. Auf einem Viertel bis der Hälfte der bewachsenen Gebiete der Erde hat sich in den vergangenen 35 Jahren eine erhebliche Vergrünung gezeigt, vor allem wegen der Zunahme des atmosphärischen Kohlendioxids.

Zahlreiche auf Satellitenbeobachtungen basierende Studien zeigen, dass der Anstieg des atmosphärischen CO2-Gehaltes während der letzten drei Jahrzehnte signifikant zur Vergrünung unseres Planeten beigetragen hat.

Der steigende CO2-Gehalt der Atmosphäre wirkt wie eine Düngung auf die Vegetation. Satellitenaufnahmen belegen, dass die Pflanzendecke auf der ganzen Welt üppiger geworden ist. Diese Zunahme an grüner Biomasse weltweit entspricht nach Angaben von Wissenschaftlern einem neuen grünen Kontinent, doppelt so gross wie die USA.

Nach Angabe der Wissenschaftler sind 70 Prozent des globalen Ergrünens auf den Düngeeffekt der steigenden CO2-Werte zurückzuführen. Die damit einhergehende Erhöhung der Ernteerträge hat den chronischen Hunger in den Entwicklungsländern von 24 Prozent der Bevölkerung im Jahre 1990 auf unter 10 Prozent reduziert, obwohl die Bevölkerung um 40 Prozent zunahm.

In scharfem Kontrast zu düsteren Prognosen hat die globale Erwärmung sogar positive Effekte auf die Sahara und die Sahelzone. GemässNature-Magazin nehmen Wissenschaftler an, dass der Anstieg von CO2-Emissionen «günstig für die Aufrechterhaltung und potenzielle Verstärkung der Erholung der Niederschläge in der Sahelzone ist». Die südliche Grenze der Sahara hat sich denn auch seit mehr als dreissig Jahren zurückgezogen. Familien, die in feuchtere Küstenregionen geflohen waren, haben begonnen zurückzukehren.

Eine im letzten Jahr publizierte Studie dokumentierte anhand von Satellitenbildern, dass die Vegetationsbedeckung von Wäldern südlich der Sahara in den letzten drei Jahrzehnten um 8 Prozent zugenommen hat. Auch die globale Waldbedeckung hat in den vergangenen vier Jahrzehnten merklich zugenommen. So zeigt eine Analyse von Satellitendaten, dass weltweit die Fläche, auf der mindestens fünf Meter hohe Bäume wachsen, seit etwa 35 Jahren um 2,24 Millionen Quadratkilometer gewachsen ist.

Kurzfristige Witterungsschwankungen und extreme Wetterereignisse verursachen oft schreckliche menschliche Kosten, und solche Wetterereignisse machen zu Recht Schlagzeilen. Aber sie erfassen nicht die Realität des vergleichsweise milden Klimas unseres Planeten, das in den letzten drei Jahrzehnten die Erde etwas wärmer, etwas feuchter und sehr viel grüner gemacht hat.

Die Vorhersagen eines katastrophalen Klimawandels haben sich in den vergangenen dreissig Jahren als falsch oder extrem überzogen erwiesen. Das bisherige Ausbleiben einer beschleunigten Erderwärmung bedeutet freilich nicht, dass es auch in Zukunft so bleiben wird. Niemand weiss mit Sicherheit, wie sich das Klima der Welt angesichts anhaltender CO2-Emissionen in den nächsten Jahrzehnten entwickeln wird. In den kommenden zehn Jahren wird sich allerdings weisen, ob die Zunft unheilverkündender Klimawissenschaftler einmal mehr falschliegt.

==========================================================

Benny Peiser ist Direktor der Global Warming Policy Foundation (GWPF), einer in London ansässigen, überparteilichen Denkfabrik für Klima- und Energiepolitik.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : .Es grünt auf der Welt.| Die Weltwoche, Nr. 27 (2019) | 4. Juli 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Benny Peiser für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Wie man Kinder lehren kann, alarmie­renden Klima-Behaup­tungen zu begegnen

Vom Kindergarten an wird unseren jungen Menschen immer wieder eingeredet, dass sie, unsere Natur und unser Planet vor beispiellosen Kataklysmen infolge des vom Menschen verursachten Klimawandels stehen – verursacht durch unseren Verbrauch fossiler Treibstoffe. Die Wissenschaft ist settled, hören sie unablässig, und in den Klassenräumen darf keine Diskussion stattfinden.

Infolgedessen hören sie praktisch nichts über die wachsende Kluft zwischen den Prophezeiungen der Computermodelle und den Temperaturmessungen via Satelliten. Sie hören nichts über die Datenmanipulationen seitens der den gefährlichen, vom Menschen verursachten Klimawandel befürwortenden Wissenschaftler; den hunderten Wissenschaftlern, die nicht dem vermeintlichen „Konsens“ folgen bzgl. eines menschengemachten Klima-Chaos‘ oder dem Fehlen jeglicher Beweise aus der realen Welt, dass Kohledioxid Korallen bleichen lässt, dass Spezies aussterben oder der endlosen Litanei noch absurderer Behauptungen, dass die Emissionen fossiler Treibstoffe Haifische rechtshändig und arktische Pflanzen zu groß machen; dass Schweine dünner und Lachse unfähig werden, Gefahren zu erkennen, um nur einige der idiotischen Beispiele zu nennen.

Den Schülern wird praktisch nie etwas über den erfreulichen Zustand gesagt, dass die USA die rekordlange Zeit von 12 Jahren von starken Hurrikanen der Stärke 3 bis 5 verschont geblieben waren oder dass der Zeitraum 1944 bis 1950 die schlimmste Periode jemals war, in welcher Monster-Hurrikane Florida heimsuchten. Ihnen wird verschwiegen, dass es in den USA um 40% weniger starke Tornados (F4 bis F5 von 5) im Zeitraum von 1986 bis 2018 gegeben hatte als im Zeitraum von 1954 bis 1985 – oder dass es im Jahre 2018 in den USA zu keinem einzigen starken Tornado gekommen war – zum ersten Mal in der Geschichte. Stattdessen werden sie mit Falschinformationen gefüttert, wonach Stürme häufiger und stärker werden.

Sogar von der Kleinen Eiszeit, der Römischen und der Mittelalterlichen Warmzeit hören sie kaum etwas, auch nicht von ausgedehnten Dürreperioden in der Vergangenheit oder der entscheidenden Rolle solarer Fluktuationen, von periodischen Oszillationen im Pazifik und Atlantik sowie anderen mächtigen natürlichen Kräften, welche ununterbrochen Klimawandel während der gesamten Erd- und Menschheitsgeschichte gesteuert haben.

Es ist daher kaum überraschend, dass wir jetzt Kinder durch die Straßen marschieren sehen, welche nach „Klima-Maßnahmen“ oder „Klima-Gerechtigkeit“ rufen. Noch schlimmer ist, dass ihre Lehrer deren Schuleschwänzen nicht nur entschuldigen, sondern sie auch noch dazu ermutigen oder sogar sagen, dass der Aktivismus der Schüler bzgl. Klima und fossile Treibstoffe wichtiger ist als Lesen, Mathematik, Geschichte und andere Lerninhalte.

Es ist lächerlich. Aber es ist real und fortwährend im Gange – und oftmals auch noch direkt gefördert durch unsere Steuergelder oder durch steuerbefreite Stiftungen und Aktivistengruppen, deren Ansichten unsere Bildung und die Medien dominieren und durchdringen.

Zusätzlich zu dem, was Schüler in ihren Klassenräumen zu hören bekommen, wird ihnen auch „Anleitung“ und Information“ zuteil von „Bildungs“-Websites, welche den Klima-Alarmismus hochhalten. Unglaublicherweise sind viele davon Jahre lang regierungsamtlich gefördert worden, und einige davon erhalten immer noch Gelder von Regierungsagenturen der Trump-Regierung!

Beispiel: das „Climate Literacy and Energy Awareness Network“ (CLEAN wie in „clean energy”) betreibt die CLEAN website, welche gemeinsam von der NOAA, der National Science Foundation (NSF) und dem Energieministerium finanziert wird.

Die Website bringt vermeintlich „Klima-Bildung“ voran – und das ist der wirkliche Code für den falschen Glauben, dass Menschen einen gefährlichen Klimawandel verursachen. CLEAN sagt, es hätte über 600 Ressourcen für den freien Gebrauch, geeignet für die Verwendung in allen Klassenstufen. Sie brüstet sich auch damit, der Kern der Abteilung „Klima-Lehre“ auf der Climate.gov website zu sein. Das dient der Fehlleitung von Kindern seitens der [US-]Bundesregierung.

Eines der grundlegenden Prinzipien der CLEAN-Version von Klima-Bildung wird folgerichtig so erklärt: „Eine große Herausforderung im 21. Jahrhundert wird es sein, Gemeinden darauf vorzubereiten, sich an den Klimawandel anzupassen, während der menschliche Einfluss auf das Klimasystem reduziert wird“. Weiter heißt es bei CLEAN: „Weil die primäre Ursache des jüngsten globalen Klimawandels der Mensch ist, muss auch der Mensch für entsprechende Lösungen sorgen“. Mit anderen Worten, wir können jetzt das ewig launische Klima der Erde kontrollieren – einfach durch Drehen des Kohlendioxid-Kontrollhebels. In unseren Träumen.

Sämtliche verzerrten Lehrmaterialien von CLEAN haben diese falsche Prämisse zur Grundlage. In Wirklichkeit ist der gefährliche menschliche Einfluss auf das Klima vollkommen unbewiesen und Gegenstand intensiver wissenschaftlicher Debatten. Dass nur die ängstigende Seite als settled Wissenschaft präsentiert wird, ist eine ernste und nicht hinnehmbare Unausgewogenheit.

Dr. Wojick hat jüngst ein Crowd-Funding Projekt gestartet, um alternative Lehrmaterialien zu verbreiten. Sein Material reflektiert die ausgeprägte und gut dokumentierte Debatte, welche tatsächlich weltweit im Gange ist über den unsinnigen Klima-Alarmismus, die realen (natürlichen) Ursachen von Klimawandel und Wetterereignissen und vor allem über die Art und Weise, mit der das steigende atmosphärische Kohlendioxid-Niveau den Pflanzen hilft, besser und schneller zu wachsen (hier).

Das Climate Change Debate Education project oder CCDE ist noch klein. Aber es wächst stetig, und dessen GoFundMe effort spielt eine entscheidende Rolle.

Im Moment bietet das CCDE-Projekt von Dr. Wojick zwei primäre Arten von Lehrmaterialien. Eines sind skeptische Videos seitens führender Wissenschaftler. Davon gibt es derzeit 193 Videos, u. A. von so bedeutenden Wissenschaftlern wie William Happer, Patrick Michaels, Fred Singer, Roy Spencer und Richard Lindzen. Wojick sagte, dass er zum Ziel hat, 1000 solcher skeptischer Videos anzubieten, die eindeutig belegen, dass die wissenschaftliche Debatte real ist.

[Wer der englischen Sprache nicht so mächtig ist – auch auf der Website des EIKE gibt es hier viele derartige Videos. Anm. d. Übers.]

Dr. Wojick und sein Projekt entwickeln auch etwas, das er „Türöffner“ [gate breakers] nennt. Dabei handelt es sich um nicht-technische Zusammenfassungen auf einer Seite, welche sich einen bestimmten Aspekt aus der wissenschaftlichen Debatte über Klimawandel herausgreifen. Sie sind dazu gedacht, „Tore verschlossen haltende“ Alarmisten damit zu konfrontieren, herauszufordern oder deren Aussagen zu hinterfragen – wie etwa Lehrer, Redner oder Politiker – welche es ablehnen einzuräumen, dass die wissenschaftliche Debatte überhaupt im Gange ist.

Bislang gibt es drei Gate Breakers auf der Website, welche Hurrikane, die Kleine Eiszeit und die Rolle der Sonne bzgl. Klimawandel und globale Erwärmung ansprechen. Aber viele andere sind in Entwicklung.

[Einen solchen Gate Breaker gibt es auch auf der Website des Übersetzers auf Deutsch in Gestalt eines Leserbriefes, und zwar hier. Anm. d. Übers.]

Ein interessantes Feature ist, dass jeder Gate Breaker eine Version enthält mit einer Google Scholar Search für mehr der umfangreichen wissenschaftlichen Literatur zum jeweiligen Thema. Dr. Wojick sagt, dass es bei diesen Suchen nicht darum geht, dass die Schüler all diesen technischen Kram lesen, sondern nur darum zu erkennen, dass die Debatte wirklich im Gange ist. In jedem Fall werden tausende von Artikeln in wissenschaftlichen Journalen genannt, die das Gruppendenken und die Hysterie hinterfragen, welche in Klassenräumen und Medienbeiträgen zum Thema Klima so dominant sind.

Das Climate Change Debate Education project ist ein ambitioniertes und bedeutendes Unterfangen. Es verdient, von jedermann unterstützt zu werden, der an wissenschaftliche Prinzipien und an die Integrität wissenschaftlicher Forschung glaubt – und an offene, robuste Diskussionen bzgl. der Behauptungen über einen gefährlichen, vom Menschen verursachten Klimawandel, müssen diese doch dafür herhalten, einen rapiden und vollständigen Wechsel weg von fossilen Treibstoffen zu rechtfertigen – von Treibstoffen, welche über 80% des Energiebedarfs der USA und der ganzen Welt decken … ohne Rücksicht auf die ungeheuer schädlichen Auswirkungen, welche dieser Wechsel auf unsere Ökonomie, unsere Arbeitsplätze, unseren Lebensstandard, unser Gesundheit, unsere Produktivität, Wohnsituation, Transportwesen und persönliche Freiheiten hätte.

Unternehmen, welche dieses unabdingbare Bildungsprogramm unterstützen könnten und sollten, sind zu sehr eingeschüchtert durch die mächtige Waffe der Antifa-Mobs in Gestalt des „Zwei Billionen Dollar pro Jahr klima-industriellen Komplexes“ (hier). Das bedeutet, dass die Bürger die Initiative ergreifen müssen. Die Zukunft der US- und der globalen Wissenschaft, Energie und Wohlstand steht auf dem Spiel.

Paul Driessen is senior policy advisor for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of many articles on the environment. 

Link: https://www.thegwpf.com/educating-kids-to-debate-alarming-climate-claims/




Steigende Durchschnittstemperaturen – stimmt das, und wenn ja, ist das relevant?

Wie der kluge EIKE-Leser weiß, leben wir derzeit in einer Phase des Warmzeit-Optimums, die seit etwa 1850 andauert, zwischen 2030 und 2040 zu Ende gehen und vom Shaviv-Svensmark-Minimum* abgelöst werden wird. Es wäre also nicht erstaunlich, wenn seit mindestens 150 Jahren die Temperaturen gestiegen wären.

Was sagt die Statistik dazu? Der philosophische Youtube-Kanal von Thomas Wangenheim betrachtet zu diesem Thema eine Temperatur-Meßreihe in der alten Universitätsstadt Jena, der Heimstatt von EIKE. Setzt man die historische Methodik als zuverlässig voraus, zeigt sich eine leichte Erwärmung von 1824 bis heute.

Standbild https://www.youtube.com/watch?v=r2Xc_uhlo0s

Im Graphen ist diese Aufheizung auf den ersten Blick schlecht ablesbar, weswegen man zum Beispiel das Verfahren der linearen Regression einsetzen kann, um eine Trendgerade zu erzeugen, die entweder steigt oder fällt. (Dem Laien sei versichert, daß die Regression keine große Kunst ist und mit jedem Büro/Office-Programm durchgeführt werden kann.)

Problematisch ist, daß sich die Meßmethode über die Jahrzehnte technisch und örtlich verändert hat, was Wangenheim in seinem Video auch sehr schön dokumentiert. So lag der Messpunkt in Jena vor 200 Jahren am Stadtrand in einem Gartenareal; 100 Jahre später in bebautem Gebiet, und heute mitten in der Innenstadt. Die verwendeten Meßgeräte machten ebenfalls eine Evolution durch; die Technik entwickelte sich vom Gas- übers Quecksilber- hin zum elektronischen Thermometer; und heute kommen noch die Satelliten hinzu.

Aber lassen wir diese Betrachtung einmal im Raume stehen und nehmen die Meßwerte so, wie sie sind. Wangenheim ermittelt in seinem Video (unbedingt seine reiche Quellenlage beachten!) für Jena und Kremsmünster, einem Kloster in Österreich, einen Temperaturanstieg von rund 0,5°C in 250 Jahren. „Das ist nichts“, wie er lakonisch bemerkt.

Neben Jena haben wir in Deutschland eine Temperaturreihe aus Berlin-Dahlem und dem benachbarten Potsdam, die lückenlos von 1701 bis 2008 dokumentiert. Schaut man sich die Dah­le­mer Rei­he an, die nur 14 km Luft­li­nie vom Landtag in Potsdam ent­fernt ist (Bild unten), dann er­kennt man, dass jetzt eine Tem­pe­ra­tur in Ber­lin gemessen wird, wie am An­fang des 19. Jahr­hun­derts. Und dazu noch ohne jede CO2-Korrelation. Dieser sehr geringe Anstieg kann nur  durch den wissenschaftlich unumstrittenen Urban Heat Island-Effekt ausgelöst worden sein, denn seit dem Startjahr 1701 hat sich die Bevölkerung im Bereich beider Städte von einigen Zehntausend auf fast vier Millionen erhöht, was bedeutet, dass die Stadterwärmung der dominante Faktor sein muss.

Abb. 2 Temperaturverlauf der Dahlemer Reihe von 1701 bis 2008. Zur Verfügung gestellt von Prof. Dr. Horst Malberg, ehem. Direktor des Meteorologischen Instituts der Freien Universität Berlin. Der lineare Trend der Dahlemer Reihe zeigt einen Anstieg von nur 0,08°C/Jahrhundert. Die Temperatur steigt in diesen 300 Jahren von ca. 8,75°C auf 9°C. Das ist statistisch völlig irrelevant.

Zum Thema Temperaturmessung und ihre Probleme sei an den Vortrag von Dipl.-Ing. Limburg auf unserer Konferenz erinnert:

*Ich habe mir erlaubt, das Minimum nach unseren beiden Referenten zu benennen.




Ausbreitung der Vegetation : Freut euch des üppigen Grüns*

Bei all dem Gerede von einem unmittelbar bevorstehenden, durch CO2-Emissionen herbeigeführten Weltuntergang wird eine Tatsache oft übersehen: Die globale Vergrünung geht schneller voran als der Klimawandel. Seit mindestens dreissig Jahren nimmt die Vegetation auf der Welt Jahr für Jahr zu. Dies lässt sich anhand der Wachstumsrate von Pflanzen und mit Hilfe von Satellitendaten nachweisen.

2016 veröffentlichten 32 Autoren aus 24 Institutionen in acht Ländern eine Analyse von Satellitendaten, aus der hervorging, dass die grüne Vegetation seit mehr als dreissig Jahren um etwa 14 Prozent zugenommen hat. 70 Prozent dieser Zunahme gingen demnach auf das zusätzliche Kohlendioxid in der Atmosphäre zurück. Der federführende Autor der Studie, Zaichun Zhu von der Universität Peking, betont, dass dieses Plus an grüner Vegetation einer Fläche entspricht, die doppelt so gross ist wie die Vereinigten Staaten.

 

Die globale Vergrünung wirkt sich auf alle Ökosysteme aus – die arktische Tundra, Korallenriffe, Plankton, tropische Regenwälder –, besonders eindrucksvoll zeigt sich das aber in ariden Regionen wie der Sahelzone, wo die Desertifikation inzwischen weitgehend umgekehrt worden ist. Das liegt daran, dass Pflanzen im Prozess der Kohlendioxidaufnahme weniger Wasser verlieren, wenn die CO2-Konzentration höher ist. Ökosysteme und Landwirtschaft werden am Ende dieses Jahrhunderts weniger unter Wasserknappheit leiden als heutzutage in Perioden mit geringem Niederschlag.

Gescheiterte Erklärungsversuche

Diese Erkenntnis sollte eigentlich niemanden überraschen. Tausende Experimente wurden durchgeführt, in denen der CO2-Wert über Anbauflächen oder wilden Ökosystemen erhöht wurde und zu stärkerem Wachstum führte. Betreiber von kommerziellen Treibhäusern pumpen gewöhnlich CO2 in die Luft, um das Wachstum der Pflanzen zu beschleunigen. CO2 ist Pflanzennahrung. Diese globale Ergrünung ist positiv. Sie bedeutet mehr Nahrung für Insekten und Rotwild, für Elefanten und Mäuse, für Fische und Wale. Sie bedeutet grössere Ernteerträge. Tatsächlich dürfte sie den Erzeugern in den letzten dreissig Jahren Mehreinnahmen in Höhe von etwa 3 Billionen Dollar beschert haben. Das heisst also, es braucht weniger Boden, um die Menschheit zu ernähren, und es bleibt mehr Land für die Tierwelt.

Doch davon spricht niemand. Die Aktivisten, die von der Angst vor dem Klimawandel leben und verzweifelt Panikmache betreiben, tun ihr Bestes, um diese unbequeme Wahrheit zu ignorieren. Wenn sie das Thema nicht umgehen können, sagen sie, dass Vergrünung ein vorübergehendes Phänomen sei, das sich in der zweiten Hälfte des Jahrhunderts umkehren werde. Dabei stützen sie sich auf einige wenige Modelle, die mit extremen Theorien arbeiten, weshalb ihr Argument nicht glaubwürdig ist.

Dieses biologische Phänomen erklärt auch das Kommen und Gehen von Eiszeiten. Es ist immer ein Rätsel gewesen, dass Eiszeiten über Zehntausende von Jahren allmählich kälter, dann aber innerhalb weniger tausend Jahre plötzlich wärmer werden, woraufhin die gigantischen Eiskappen von Eurasien und Nordamerika abschmelzen und die Welt in eine wärmere Zeit eintritt, wie wir sie seit 10 000 Jahren haben.

Versuche, diesen Zyklus zu erklären, sind bislang weitgehend gescheitert. CO2-Werte folgen dem Wandel, aber sie steigen, nachdem die Welt sich erwärmt hat, und sinken, sobald die Welt wieder kühler wird. Sie sind also nicht die Ursache. Schwankungen in der Erdumlaufbahn spielen eine Rolle: In besonders warmen nordischen Sommern gehen Eisschilde zurück, aber nur einige dieser «grossen Sommer» führen zum Abschmelzen von Gletschern.

Jüngst analysierte Eisbohrkerne aus der Antarktis scheinen nun die Schuldigen zu identifizieren: Es sind die Pflanzen. Während der Eiszeiten sinkt der CO2-Gehalt in der Atmosphäre, weil kältere Ozeane mehr von diesem Gas absorbieren. Schliesslich erreicht er ein so niedriges Niveau (etwa 0,018 Prozent auf dem Höhepunkt der letzten Eiszeit), dass die Pflanzen kaum noch wachsen, namentlich in trockenen Regionen oder grossen Höhen. In der Folge überziehen Staubstürme den gesamten Planeten, erreichen sogar die Antarktis, wo der Staubgehalt im Eis dramatisch ansteigt. Diese Staubstürme färben besonders die nördlichen Eisschilde schwarz, so dass sie, wenn der nächste «grosse Sommer» kommt, rasch schmelzen. In der Eiszeit war es selbst in den Tropen ziemlich ungemütlich: kalt, trocken, staubig und mit viel weniger Pflanzen als heute.

Der schwedische Forscher Svante Arrhenius, der als Erster den Treibhauseffekt mass, schrieb: «Durch den Einfluss des wachsenden Kohlensäuregehalts in der Atmosphäre können wir vielleicht hoffen, Zeiten mit gemässigterem und zuträglicherem Klima zu erleben.» Freuen wir uns über das üppige Grün in der heutigen Welt und darüber, dass die Vegetation rascher voranschreitet als die globalen Durchschnittstemperaturen.

============================================================

Matt Ridleyist ein britischer Politiker, Unternehmer, Zoologe und Autor.

Die Grafik beruht auf den Arbeiten des Forschers Ranga Myneni, Boston University.




Vahrenholt: Merkels erhöhtes Klimaziel kostet Deutschland 3000 Milliarden Euro mehr

Die Erhöhung der Klimaschutzziele, die Bundeskanzlerin Angela Merkel auf dem Evangelischen Kirchentag angekündigt hat, würde die deutsche Volkswirtschaft und jeden einzelnen Haushalt erheblich belasten. Wird das von Merkel formulierte Ziel wirklich umgesetzt, das CO2-Reduktionsziel von 90 auf 100 Prozent bis 2050 zu erhöhen, entstünden dadurch nach einer Berechnung des früheren Hamburger Umweltsenators Fritz Vahrenholt (SPD) Mehrkosten von rund 3000 Milliarden Euro. Damit stiegen die Kosten für das Erreichen der Klimaneutralität bis zum Jahr 2050 von bislang geschätzten 4600 Milliarden auf 7600 Milliarden Euro. Das ist etwa doppelt so viel wie das Bruttoinlandsprodukt Deutschland im Jahr 2018. Das berichtet das Magazin Tichys Einblick in seiner am heutigen Montag erscheinenden Ausgabe.

Bei diesen Zahlen stützt sich Vahrenholt auf eine Studie im Auftrag der Bundesregierung über die Kosten der Energiewende, die die Nationale Akademie der Wissenschaften Leopoldina, die Deutschen Akademie der Technikwissenschaften (acatech) und die Union der deutschen Akademien der Wissenschaften im November 2017 vorgelegt hatten. Danach rechnen die Forscher mit Kosten zur Erreichung des 90-Prozent-Ziels bis 2050 in Höhe von 4600 Milliarden Euro. Das entspricht laut Studie einer Mehrbelastung der Haushalte in Deutschland von im Schnitt 320 Euro monatlich.

Eine Erhöhung der Klimaschutzziele über das 90-Prozent-Ziel hinaus, wie jetzt von Angela Merkel als Ziel formuliert, ist besonders teuer, weil alle „günstigen“ Möglichkeiten zur CO2-Einsparung und Ersetzung schon ausgeschöpft sind. „Der technische Aufwand für jede weitere Minderung wird bei bereits hohen Werten ungleich höher, da alle Potenziale für direkte Stromnutzung ausgereizt sind und kostengünstiges fossiles Erdgas durch aufwendig hergestellte synthetische Energieträger ersetzt werden muss“, konstatierten die Forscher schon 2017. Auf Basis der Kostenannahmen der Forscher hat Vahrenholt die Kosten für die letzten zehn Prozent fortgeschrieben. Danach liegen die Kosten für die letzten zehn Prozent bei 3000 Milliarden Euro. Zum Vergleich: Die Forscher haben in ihrem Regierungsgutachten die Mehrkosten für die Erhöhung des Klimaschutzzieles von 85 auf 90 Prozent mit 1300 Milliarden Euro angegeben.

Würde man der Forderung der Klimademonstranten von „Fridays for Future“ nachkommen, und die Klimaneutralität schon 2035 erreichen wollen, fallen die Kosten in kürzerer Zeit an. Die Kostenbelastung würde laut Vahrenholt pro Haushalt auf 1050 Euro steigen – pro Monat!


Sie lesen die ausführlichen Kostenberechnungen in der am letzten Montag erscheinenden Ausgabe von Tichys Einblick. Den Artikel finden Sie auch im Internetangebot hier.

www.tichyseinblick.de




Die Schizophrenie der französischen Energiepolitik

Die Kosten des 2018 in Betrieb gegangenen Reaktors Taishan-1 beliefen sich auf umgerechnet über 7 Milliarden Euro. Mit dessen Bau war bereits im Jahre 2009 begonnen worden. Infolge des Reaktor-Unglücks von Fukushima war der Bau jedoch für zwei Jahre unterbrochen worden. Die Bauzeit für diesen Prototyp hielt sich also in einem vernünftigen Rahmen.

Das kann man von seinem heimischen Bruder, dem EPR von Flamanville in der Normandie, nicht sagen. Da in Frankreich über ein Jahrzehnt lang keine neuen Nuklear-Reaktoren mehr gebaut wurden, ist offenbar auch dort (wenn auch nicht im selben Ausmaß wie in Deutschland) viel Fachwissen und Übung verloren gegangen. Im Jahre 2017 hat der Abnehmer des EPR, der staatliche Strom-Monopolist Électricité de France (EdF), der Überwachungsbehörde ASN (Autorité de Sûreté Nucléaire) insgesamt 66 „nicht-konforme“ Schweißnähte an den Dampf-Leitungen der Anlage gemeldet. Vor einem Jahr hat EdF dann einen Plan für die Reparatur der beanstandeten Schweißnähte vorgelegt. Wann der Reaktor betriebsbereit sein wird, steht in den Sternen. Grund zur Freude bei den Grünen aller Parteien, die nun neue Chancen für die von ihnen in den Himmel gelobten zufallsabhängigen „erneuerbaren“ Energien wittern. In der Tat hat kündigte François de Rugy, Macrons Energiewende-Minister, die Errichtung eines großen Offshore-Windparks mit 75 Wind-Turbinen vor Dünkirchen unweit von Flamanville an. Dieser soll Strom zu einem Preis von 50 Euro je Megawattstunde liefern, während der EPR den Strom, nach mehrfach korrigierten Kostenschätzungen, ab 2030 wohl nicht unter 70 Euro je Megawattstunde wird liefern können.

Das energiepolitische Programm der Regierung Macron/Philippe sieht bis 2035 die Reduktion des Kernenergie-Anteils an der Elektrizitätserzeugung von derzeit über 70 auf 50 Prozent vor. Das entspricht der Stilllegung von 14 der zurzeit betriebenen 58 Kern-Reaktoren. Die Laufzeiten eines großen Teils der verbleibenden Reaktoren soll um 10 bis 20 Jahre verlängert werden. Deshalb sollen 32 der 900-Megawatt-Reaktoren bis zum Jahre 2031 generalüberholt und sicherheitstechnisch ertüchtigt werden. Für dieses Programm des „grand carénage“ stellt EdF für den Zeitraum zwischen 2014 und 2025 insgesamt 45 Milliarden Euro zur Verfügung. Umgerechnet auf den Strompreis für Endverbraucher entspricht das ungefähr einem von derzeit 15 Euro-Cent je Kilowattstunde. Der französische Rechnungshof (Cour des comptes), bestätigt diese Schätzung, indem er davon ausgeht, dass die Produktionskosten der Kernenergie in Frankreich, die sich einschließlich der Uranerschließung  und -förderung sowie der Endlagerung der radioaktiven Abfälle bislang auf 5 Euro-Cent je Kilowattstunde belaufen, durch das umfangreiche Sanierungs- und Modernisierungsprogramm um einen Euro-Cent ansteigen werden.

Die Produktionskosten je Kilowattstunde des EPR werden wohl zunächst fast doppelt so hoch sein. Jedenfalls rechnet EdF für sein EPR-Projekt Hinkley Point in Großbritannien mit etwa 23 Milliarden Euro Investitionskosten. Bei einem Abzinsungssatz von 9 Prozent ergäben sich daraus 11 Euro-Cent je Kilowattstunde über mehrere Jahrzehnte. EdF geht aber davon aus, dass diese Kosten auf 7 Eurocent je Kilowattstunde sinken werden, sobald der EPR in Serie produziert wird. Hier fällt die aufwändige redundante Sicherheitstechnik des EPR (einschließlich Core Catcher) ins Gewicht. Dieser Sicherheitsaufwand war nicht alternativlos, sondern wurde den Partnern Areva und Siemens nach der Aufregung um den Super-GAU von Tschernobyl von der Politik diktiert. (Dass die Technik des in Tschernobyl durchgegangenen Reaktors bei weitem nicht den im Westen geltenden Standards entsprach, interessierte in den politischen Auseinandersetzungen kaum jemanden.) Die US-Firma Westinghouse, die die Technik der älteren französischen Kernreaktoren lieferte, hatte ein kostengünstigeres Konzept der passiven Sicherheit vorgeschlagen, kam aber nicht zum Zuge.

Die Umsetzung des EPR-Konzeptes setzt nicht nur die Serienproduktion der Reaktoren, sondern auch die Verstaatlichung und Zentralisierung der Energiewirtschaft voraus, was in Frankreich ohnehin längst geschehen ist. Denn es ist kaum vorstellbar, dass private Firmen so hohe Kapitalbeträge aufbringen und für Jahrzehnte festlegen können. Die Serienproduktion kann allerdings erst richtig anlaufen, wenn der französische Staat entscheidet, die 14 stillgelegten 900-Megawatt-Reaktoren durch acht EPR zu ersetzen. Danach sieht es zurzeit allerdings nicht aus. Die immer zahlreicher werdenden französischen Nuklear-Gegner, die übrigens über das Office Franco-Allemand pour la Transition Energétique (OFATE) mit dem deutschen Lobby-Think Tank Agora Energiewende vernetzt sind, schöpfen infolge der Verzögerung an der EPR-Baustelle von Flamanville neue Hoffnung, das EPR-Projekt noch stoppen und eine totale „Energiewende“ nach deutschem Vorbild einleiten zu können.

Dadurch kommt es im Staatskonzern EdF zu absurden Situationen, weil ganze Abteilungen gegeneinander statt miteinander arbeiten. Diese Schizophrenie soll nun durch die Aufspaltung von EdF in einen grünen und einen blauen Teilkonzern beendet werden. Der modische grüne Teil würde dann zum Subventionsempfänger, während der weniger sexy blaue (nukleare) Teil die Dreckarbeit der sicheren Elektrizitätsversorgung leisten müsste.

 




Wer kollabiert zuerst: Der Planet oder der Euro?

Die Deutschen schätzen ihre sprichwörtliche German Angst hoch ein, eine meist irrationale, diffuse Furcht vor Dingen, die sie sich bereitwillig einreden lassen. Waldsterben, Rinderwahn, Radioaktivität, Genmanipulation, Amalgam, Fipronileier, Dieselfeinstaub, Dioxin oder Ozonloch – in keinem Land reagiert die Öffentlichkeit auch nur halb so schrill und hysterisch wie in Deutschland.

Auf dieser German Angst fußt das Geschäftsmodell der Grünen. Es funktioniert so: Eine „wissenschaftliche“ Studie macht eine potenzielle Gefahr aus. Die Medien machen eine Tatsache daraus. Experten aller Art heizen die Diskussion mit immer neuen grenzwertigen Theorien an. Die Grünen verweisen auf tausende Todesopfer und fordern den sofortigen Schutz der Bevölkerung. Es bleibt der Politik kein anderer Ausweg, sie muss öffentlichkeitswirksame – das heißt möglichst kostspielige – Maßnahmen einleiten, um nicht den Volkszorn zu erregen. Nach einigen Wochen oder Monaten legt sich die Angst, weil nichts passiert. Und die Grünen verbuchen einen weiteren Erfolg, weil sie unser aller Ableben mit ihrem Alarmismus gerade nochmal verhindert haben.

Jährlich 420.000 Tote durch Lebensmittelvergiftungen120.000 Tote durch Feinstaub1.400.000 Opfer durch Tschernobyl500.000 Erkrankte durch Dioxin, dagegen muten die 120-BSE-Toten pro Jahr in Deutschland fast harmlos an. Wir könnten alle schon 120 Jahre alt sein, wenn wir nicht ständig von irgendwelchen bösartigen Kapitalisten vergiftet und gestorben würden.

Wissenschaftliche Studien malen ein Klima-Höllenszenario aus, was als Dauerfeuer aus allen Rohren der Medien auf die Deutschen niederprasselt. Der Meeresspiegel steigt um 60 Meter an – die Sintflut droht. Der Permafrostboden taut, die Amazonaswälder verdorren in der Hitze. Stürme, Waldbrände, Dürre, Überschwemmungen, dann versiegt auch noch der Golfstrom und eine neue Eiszeit kommt. Das ist nichts anderes als die zehn Plagen, nur etwas modern aufgemotzt.

Dann gehen in Deutschland hin und wieder die Lichter aus

Und natürlich will Deutschland die Welt retten, am besten ganz alleine. Jetzt soll „de-karbonisiert“ werden, was das Zeug hält. Wir können unsere 25 nennenswerten Kohlekraftwerke abschalten. Dann gehen in Deutschland hin und wieder die Lichter aus und die Industrie muss leider auswandern. Das ist aber mit den Kohlekraftwerken so ähnlich wie mit den Kernkraftwerken: Für jedes Kohlekraftwerk, das wir hier abschalten, werden woanders 56 neue gebaut. Weltweit sind 1.400 Kohlekraftwerke im Bau oder in Planung. Und die kohlekraftwerksbauenden Länder denken gar nicht daran, bei der Weltrettung auf Kosten ihres Wohlstandes mitzumachen – genauso wenig, wie alle anderen Länder nicht daran denken, beim deutschen Atomausstieg mitzumachen.

Was kann Deutschland überhaupt zur Dekarbonisierung der Welt beitragen? Machen wir mal eine kleine Bilanz. Die Atmosphäre der Erde besteht zu 78 Prozent aus Stickstoff und zu 21 Prozent aus Sauerstoff – das sind 99 Prozent der Atmosphäre. Argon, Dämpfe und Spurengase machen 0,93 Prozent aus. Nur 4.000 von 10 Millionen Molekülen in der Atmosphäre sind CO2, das sind 0,04 Prozent. Von den 4.000 CO2-Molekülen sind 120 menschengemacht. Von diesen 120 menschengemachten CO2-Molekülen stammen drei (3) aus Deutschland, das sind 0,00003 Prozent. Drei CO2-Gasmoleküle von 10 Millionen sind Gasmoleküle aus Deutschland.

Um sich das bildlich vorstellen zu können, machen wir mal einen Höhenvergleich daraus. Wenn die Erdatmosphäre so hoch wie der Eiffelturm (324 m) wäre, dann wäre Stickstoff etwa 253 m hoch, so wie der Messeturm in Frankfurt. Sauerstoff wäre 68 m hoch, so etwa wie die Thomaskirche in Leipzig. Argon und die Spurengase wären 3 m hoch, wie das Goethe-/Schiller-Denkmal in Weimar. CO2 wäre so hoch wie eine Büro-Kaffeetasse, etwa 13 cm. Und der deutsche Anteil am CO2 wäre so hoch wie ein Blatt Papier, nämlich 0,1 mm. Der deutsche Beitrag zum weltweiten CO2 ist so viel, wie ein Blatt Papier im Vergleich zum Eiffelturm. (Vielen Dank an die Ersteller eines Videoclips mit diesem Vergleich auf Facebook.) Tja, liebe Deutsche, von ganzem Herzen: Viel Erfolg beim Weltretten!

Schluss mit der Klimakrise und mit lustig

Ich ordne die Forderungen nach sofortiger Abschaltung deutscher Kohlekraftwerke zwecks Weltrettung unter dem Begriff „Wohlstandsignoranz“ ein. Das sind Forderungen in Ermanglung echter Probleme, von denen es zugegebenermaßen schon heute ein paar gibt, über die man weniger gern spricht. Doch Greta, Annalena und Luisa wären sofort weg vom Fenster, wenn akut echte Probleme auftauchten, die jeden deutschen Angsthasen sofort und unmittelbar betreffen würden.

Das wäre spätestens der Fall, wenn uns allen in nicht allzu langer Zukunft der Euro um die Ohren fliegen würde. Die Zeit dafür ist reif. Die Nachrichten über eine Bankenkrise verdichten sich. Deutschland sitzt auf einem Berg Schuldscheine aus Target-Salden in höhe von 941 Milliarden Euro, die von den Schuldnern niemals zurückgezahlt werden können und für die im Falle eines Euro-Crashs die Steuerzahler haften. Die EZB druckt weiterhin munter jeden Monat 60 Milliarden, die Zinsen bleiben bei null, damit die Südländer weiter fröhlich Schulden machen können, mit Billigung von Brüssel.

Es ist sehr wahrscheinlich, dass der Eurocrash noch lange vor dem Klima-Armageddon dazwischen kommt. Man muss kein Volkswirt sein, um zu erkennen, dass durch die Politik des lockeren Geldes im letzten Jahrzehnt zu viel Schulden bei der Zukunft aufgenommen wurden, dass zu viel Pseudo-Geld ohne Gegenwert gedruckt und dass zu viel Steuer-Geld für unsinnige Weltrettungsideen verschleudert wurde.

Im Falle eines Eurocrash ist in Deutschland Schluss mit der Klimakrise und mit lustig. Denn dann ist nicht nur die Altersvorsorge futsch, womöglich das klein‘ Häuschen weg – falls es noch nicht abbezahlt ist oder eine Zwangshypothek kommt, es droht darüber hinaus Mammutinflation mit Arbeitslosigkeit und Massenverelendung. Wir haben noch 13 Jahre? Vielleicht auch nicht.

Der Beitrag erschien zuerst bei ACHGUT hier




Der Klimasommer

Dieses schöne Wort wurde uns von Annalena Baerbock geschenkt.

Im Gegensatz zu vielen anderen Sprachen ist es im Deutschen problemlos möglich, Substantive zu kombinieren. Das ist oft sinnvoll, erspart es doch längere Formulierungen oder Umschreibungen. Es kann aber auch zu Irrtümern führen, denn ein Kreiskrankenhaus ist nicht rund, ein Kronzeuge trägt keine Krone und ein Zitronenfalter faltet keine Zitronen.

Was ist nun ein „Klimasommer“? Tauchen wir also tief in den Kübel politischer Sprachpanscherei ein und greifen zunächst den Sommer: Aha, eine Jahreszeit. Die wärmste, wo die Sonne am höchsten steht und die Tage am wärmsten sind. Sie dauert genau drei Monate und ist global verschieden. Wenn wir Sommer haben, ist in Australien Winter. Klingt seltsam, ist aber so.

Beim zweiten Griff halten wir das Klima in der Hand. Es entsteht aus der Kette Wetter → Witterung → Klima und ist eine Statistik von Temperatur, Niederschlag, Luftfeuchte, Sonnenscheindauer und Windaufkommen, ermittelt über mindestens 30 Jahre. Weiter kann man unterscheiden in Mikro-, Meso- und Makroklima, je nach räumlicher Dimension der Betrachtung.

Nun haben wir in jeder Hand ein Wort – „Klima“ und „Sommer“ und pappen das einfach zusammen, wie es Frau Baerbock getan hat. Fügt man die Begriffe aber anders  zusammen als sie es tat, erhält es einen Sinn:Sommerklima. Da erinnert sich jeder, wie das Wetter in seiner Region so im Durchschnitt in den letzten Jahrzehnten war. Der Grönländer stöhnt bei fünf Grad plus über die Hitze, während der Nordafrikaner in seinem Winterklima bei zehn Grad plus die Mütze aufsetzt und die dicken Stiefel anzieht.

Also, alles relativ mit dem jahreszeitlichen Klima. Aber was ist nun ein Klimasommer? Hat das Klima, also eine Wetterstatistik über eine längere Zeit, jetzt auch Jahreszeiten? Das könnte man so sehen, wenn man an die Warm- und Kaltzeiten der Erdgeschichte denkt und die heutige Zeit als Warmzeit interpretiert. Ein weiterer Wortsinn ergibt sich nicht.

Vermutlich meinte Frau Baerbock auch etwas anderes, als sie sich anmaßte, das Auftreten der Kanzlerin, immerhin der ersten Person im Staat, völlig taktlos einer laienmedizinischen Diagnose zu unterziehen und dies gleichzeitig politisch zu instrumentalisieren. Da hat Annalena wieder einen Baerbock geschossen, der ihrer Kanzlerinnenkanditatinneneignung (um wiederum ein zusammengesetztes Substantiv zu benutzen) schaden dürfte. Sie hat mit dem rhetorisch atemlos im Stil einer Singer-Nähmaschine ratternden Stakkato in gewohnt hoher Platitüdenfrequenz schlicht überzogen. Um meinerseits eine laienmedizinische Diagnose abzugeben, vermute ich bei ihr eine cerebrale kognitive Insuffizienz, hervorgerufen durch lokale Hyperthermie in der Cortex cerebri als Ursache.

Als Politiker*_In der ersten Reihe hätte ihr das nicht passieren dürfen. Eine nachgeschobene Entschuldigung ist kosmetischer Natur, spontane Sprache legt das Denken offen. Wechselweises Gift sprühen und Kreide fressen gehört allerdings zum Instrumentarium der Politiker und auch der Grünen.

Was wollte Frau Baerbock mit dem Begriff „Klimasommer“ nun transportieren? Sie meinte mit einiger Wahrscheinlichkeit einen Sommer, der infolge eines Klimawandels wärmer ist als vorherige und der entsprechende Auswirkungen auf die Gesundheit der Menschen hat. Warum sagt sie das nicht? Weil Politikersprech sich zunehmend verschlagwortet und in Phrasen ergötzt. Unklare Sprache zeigt unklares Denken. Dies zeugt wiederum vom Elend unserer Eliten, dem Bildungselend.

Es gibt eine Vielzahl weiterer in dieser Weise unzulässig erfundener Begriffe, die zunehmend auch menschenfeindliche Assoziationen wecken. „Klimasünder“ und „Klimaleugner“ sind Menschenfeinde, „Klimaschädlinge“ sind offenbar nicht mal mehr Menschen. Am Klima kann man sich nicht „versündigen“, auch wenn manche pro Kopf mehr CO2ausstoßen als andere. Niemand leugnet den Klimawandel, es gibt nur verschiedene Ansichten zu den Ursachen. Und einen „Klimamanager“ kann es auch nicht geben, denn Management des Klimas würde gezielte Beeinflussung des Wetters bedeuten. Wenn Herr Rahmsdorf vom PIK nun meint, wir hätten die Kontrolle über das Klima verloren, bitte ich um die Angabe, wann und wie der Mensch diese Kontrolle schon jemals hatte.

 

Die Grünen in ihrer moralinsauren Abgehobenheit, die erntereife Felderzertrampeln oder dies gutheißen, scheinen von hohen Temperaturen deutlich beeinflusst, auch wenn sie derzeit wohl eher angesichts hoher Umfragewerte erregt zittern. Sie werden ihre ungedeckten Schecks auf die Zukunft noch einlösen müssen, wenn nach mehr als 14 Jahren Merkel die Scherben zusammengefegt werden. Egal, bei welcher Temperatur.

Der Beitrag erschien zuerst bei TE hier

 




Die Bekenntnisse des Klimaforschers Hans von Storch (HvS)

Beginnen wir mit seinen leicht zu identifizierenden Bekenntnissen in weitgehend wörtlicher Rede:

  • -die behauptete Klimakrise ist zur Allzweckwaffe verkommen, mit der -inzwischen ein regelrechter Kulturkampf geführt  wird
  • -dem Mainstream-Bemühen, alles an aktuellen Sachfragen, vom Plastikmüll bis zum Bienensterben, dem Klima-Framing zu unterwerfen
  • -keine belastbaren Hinweise auf verstärkte Extremwetter zu besitzen
  • -„Science is not settled“ da sind Hausaufgaben zu machen, zumindest für regionale Situationen
  • -der Rest der Welt wird der deutschen Vorreiterrolle nicht aus Idealismus folgen, sondern wenn, nur aus ökonomischen Gründen
  • -die Politisierung der Wissenschaften lässt sich empirisch belegen. Junge Klimawissenschaftler geben auf Befragung an, dass sie ihre Hauptaufgabe in der „Motivierung der Öffentlichkeit“ sehen. Die Frage ist, ob dieser gedient ist, wenn sie unter dem Banner vorgeblicher Objektivität bevormundet wird
  • -indem sich die Politik einer eigenen Gestaltungsverantwortung verweigert und gegenüber der Öffentlichkeit auf wissenschaftliche Vorgaben verweist, begibt sie sich auf das Terrain vermeintlicher Alternativlosigkeit. Das ist zutiefst undemokratisch

Mit letzterem Satz klagt HvS die weltweite Unfähigkeit von Politikern an, ihre Verantwortung wirklich wahrzunehmen- Ausnahmen bestätigen die Regel. Das Bundestagsmantra der 97%-Wissenschaft bestätigt die Malaise täglich.

Wo sind die Schwachstellen seiner  Argumentation?

Er schreibt „ die Wissenschaft bietet eine Erklärung für die beobachtbaren Klimaveränderungen an – , mit der auch künftige Entwicklungen beim Klima zumindest im Groben korrekt beschrieben werden.“

Wie passt eine monokausale Erklärung, die AGW-Hypothese, zusammen mit seiner Erkenntnis, dass es sich bei Klimaveränderungen um ein komplexes System handelt? Auf welcher Faktenlage redet er von „im groben korrekt“? Ist die Bandbreite der Klimasensitivitätsangaben von 0,5-4 °C korrekt genug, um daraus zu handeln?

HvS widerspricht sich selbst, wenn er die aktuell über 90-%-tige Zustimmung der Klimawissenschaftler zum menschgemachten Klimawandel anführt, um 2 Seiten später die Politisierung der nachwachsenden  Klimawissenschaftler empirisch zu belegen

In seiner Badewannen-Analogie will er erzählen, dass die bereits hochgefüllte CO2-Wanne sich mit jeder neu emittierten Tonne kumulierend füllt. Es ist die Vorhersage der im Gasmüll ertrinkenden Menschheit. Wie hoch kann denn die Wanne ansteigen, wenn sie  Überläufe im Sinne von Gleichgewichtsverschiebungen hat (hier und hier). Fördert CO2 nicht die Fotosynthese und den Pflanzen- und Algenwuchs? HvS sollte nicht blind auf den Zug der Schreckensszenarien aufspringen, wenn es plausible andere gibt.

Schlussendlich schließt sich HvS den ersehnten neuen Technologien an, die er mit dem Geld der „Reichen“ erschließen will. „Starten wir also damit, die Speicherung elektrischer Energie voranzubringen“ Lieber Klimaforscher HvS, seit der Erfindung des U-Bootes arbeiteten daran tausende von Batterieforschern und gegenwärtig wahrscheinlich einhunderttausend weltweit. Mit was wollen Sie denen noch in den „Hintern treten“ Nehmen Sie die naturgesetzlichen Grundlagen und deren Angaben über Machbarkeitsschranken zur Kenntnis (elektrochemische Spannungsreihe) und behalten Sie die Hoffnung auf Otto Hahn 2.0. Aber lassen sie vor allen dem halbreichen Teil der Bevölkerung die finanziellen Ressourcen zur hochwertigen Ausbildung des Nachwuchses!

Was verschweigt uns HvS? Seine Auslassungen:

Hvs erwähnt zwar den Kulturkampf um die „bessere Lebensweise“, verschweigt aber die bereits laufende  „GroßeTransformation“ der WBGU-Aktivisten um  Schellnhuber, Schneidewind und  Rockström. In  den Veröffentlichungen des WBGU und des Wuppertal-Instituts sind die politischen Maßnahmen detailliert beschrieben, die die  3. Stufe der Menschheitsentwicklung nach Steinzeit und Abschaffung der Sklaverei bewirken sollen. Kleiner geht es wohl nicht? Sie verkörpern sich in den Vorlagen des Klimaschutzgesetzes im Rat der (angeblich) alles wissenden Experten. Wissen Sie von all dem nichts, lieber HvS (hier)?

Was geschieht eigentlich mit der Wirtschaftsleistung in einer dekarbonisierten Welt oder im voranreitenden Deutschland? Bauen wir Windräder aus Bambusbüscheln oder brennen wir Zement mit nachwachsendem Holz? Wenn HvS auf den zu beweisenden  ökonomischen Vorteilen der deutschen Energiewende besteht, dann muss er erklären, wie er die mehrfachen Brennstoffkosten der Gaskraftwerke gegenüber den ach so schmutzigen Kohlekraftwerken kompensieren will. Mit den eindimensionalen Betrachtungen eines Klimaschützers geht das eben nicht.

Ein letzes, ironischerweise ganz Kleines,  zur Kunst des Verschweigens eines deutschen(!) Klimaforschers:

Was ist eigentlich mit der emissionsfreien Kernkraft, der höchstkonzentriertesten Energieform, die die Welt seit 70 Jahren wirklich bereichert hat? HvS, als auf diesem Felde völlig deutsch-politisch korrekter Mensch, widmet ihr kein Wort. Bei der angeblichen Größe seines Blickes ist diese Denkblockade unbegreiflich.

Dem CICERO sei Dank für soviel Aufhellung!

Nachtrag der Redaktion:

Hans v. Storch behauptete zudem, dass er zwei Tagungen von Klimaskeptikern in Deutschland besucht hätte und kommentierte die Veranstaltungen mit den Worten „Das Niveau war größtenteils katastrophal“ und „Ein wirkliches Interesse an einer Diskussion war nicht zu erkennen“.[22].

Da er nie auf EIKE Veranstaltungen angemeldet und auch nie gesichtet wurde, spricht v. Storch unzulässigerweise verallgemeinernd. Welche Veranstaltungen er gemeint hatte, sagte er nicht.

Umgekehrt darf festgestellt werden, dass v. Storch bei einer Veranstaltung  der Max-Plank Gesellschaft am 17.9.2009 in Berlin das Publikum mittels eines einfach erkennbaren Zirkelschlusses von der Richtigkeit der CO2 Hypothese zu überzeugen versuchte. Details dazu hier und hier




Durchbruch: Wissen­schaftler finden handfeste Beweise, dass kosmische Strahlen das Erdklima beeinflussen

Als sich die kosmische Strahlung während der letzten Polumkehr der Erde vor etwa 780.000 Jahren verstärkte, führte der Abschirm-Effekt der Bildung tiefer Wolken zu hohem Luftdruck über Sibirien. Dadurch verstärkte sich der ostasiatische Wintermonsun. Dies ist ein eindeutiger Beweis dafür, dass galaktische kosmische Strahlung Änderungen des Erdklimas bewirkt. Diese Ergebnisse erzielte ein Forschungsteam unter Leitung von Prof. Masayuki Hyodo (Research Center for Inland Seas, Kobe University). Die Studie wurde am 28. Juni in der Online-Ausgabe von Scientific Reports veröffentlicht.

Der Svensmark-Effekt ist eine Hypothese, der zufolge kosmische Strahlung die Bildung tiefer Wolken induziert und das Erdklima beeinflusst. Tests auf der Grundlage jüngerer meteorologischer Beobachtungen zeigen kurzfristig nur geringe Änderungen der Menge kosmischer Strahlung und der tiefen Wolken, was es schwierig macht, diese Hypothese zu beweisen. Während der letzten geomagnetischen Transition jedoch, als die kosmische Strahlung dramatisch zunahm, gab es gleichzeitig eine große Zunahme der Wolkenbedeckung. Dadurch war es möglich, die Auswirkung kosmischer Strahlung auf das Klima mit größerer Sensitivität zu bestimmen.

Im Loess Plateau in China, unmittelbar südlich der Wüste Gobi nahe der Grenze zur Mongolei, wurde seit 2,6 Millionen Jahren Staub aus Löss-Schichten verfrachtet – Sedimente, entstanden durch Akkumulation von windverblasenem Staub. Sie können eine Dicke bis zu 200 Metern erreichen. Falls der Wind zunimmt, werden die groben Partikel über längere Strecken verweht, außerdem werden größere Mengen verfrachtet. Gestützt auf dieses Phänomen konnte das Forschungsteam nachweisen, dass der Wintermonsun unter dem Abschirm-Effekt tiefer Wolken während des geomagnetischen Übergangs stärker wurde. Das Team untersuchte Änderungen der Partikelgröße und die Geschwindigkeit der Akkumulation der Staubschichten an zwei Stellen auf dem Loess Plateau.

An beiden Stellen fanden sie über einen Zeitraum von etwa 5000 Jahren während der geomagnetischen Umkehrung vor 780.000 Jahren Beweise für stärkere Wintermonsune: Die Partikel wurden größer und die Akkumulation erfolgte bis zu drei mal schneller. Diese starken Wintermonsune fielen mit dem Zeitraum während der geomagnetischen Umkehrung zusammen, in denen die Stärke des irdischen Magnetfeldes auf weniger als ¼ sank und die kosmische Strahlung um über 50% zunahm. Dies belegt, dass die Zunahme der kosmischen Strahlung begleitet worden war durch eine Zunahme der Bedeckung mit tiefen Wolken. Der dadurch hervorgerufene Abschirm-Effekt kühlte den Kontinent, und das sibirische Hochdruckgebiet verstärkte sich. Bezieht man weitere Phänomene während der geomagnetischen Umkehrung mit ein – also Beweise für einen Rückgang der jährlichen Mitteltemperatur um 2 bis 3°C sowie eine Zunahme der jährlichen Temperaturschwankungen – ist diese neue Entdeckung bzgl. des Wintermonsuns ein weiterer Beleg dafür, dass Klimaänderungen verursacht werden durch den Wolken-Abschirm-Effekt.

Das IPCC hat die Auswirkungen der Wolkenbedeckung auf das Klima in seinen Evaluierungen angesprochen, aber dieses Phänomen wurde in den Klima-Prophezeiungen niemals berücksichtigt wegen des unzureichenden physikalischen Verständnisses desselben“, kommentiert Prof. Hyodo. „Diese Studie bietet eine Gelegenheit, die Auswirkungen von Wolken auf das Klima noch einmal zu überdenken. Nimmt die kosmische Strahlung zu, ist das bei tiefen Wolken ebenso, und umgekehrt. Eine Klima-Erwärmung könnte also dem Gegenteil eines Abschirm-Effektes geschuldet sein. Der Abschirm-Effekt infolge kosmischer Strahlung ist bedeutsam, wenn man über die jüngste globale Erwärmung und auch über die Warmzeit des Mittelalters nachdenkt“.

Journal Reference:

  1. Yusuke Ueno, Masayuki Hyodo, Tianshui Yang, Shigehiro Katoh. Intensified East Asian winter monsoon during the last geomagnetic reversal transitionScientific Reports, 2019; 9 (1) DOI: 10.1038/s41598-019-45466-8.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/scientists-find-evidence-cosmic-rays-influence-earths-climate/

Übersetzt von Chris Frey EIKE




„Atommüll“ im Bohrloch

Man kann heute nicht nur einige tausend Meter senkrecht in die Tiefe bohren, sondern auch noch bis zu 5 km waagerecht. Dabei ist entscheidend, daß man die waagerechten Bohrungen bis auf etwa einen Meter zielgenau innerhalb einer Schicht ausführen kann. Damit ergeben sich völlig neue Aspekte für den Bau eines Endlagers.

Bergwerk oder Bohrfeld

Der klassische Weg ist die Anlage eines Bergwerkes. Bis man mit der Einlagerung beginnen kann, muß man tatsächlich ein komplettes Bergwerk mit allen zugehörigen Einbauten errichten. Entscheidender Faktor ist hierbei der Mensch: Bergleute müssen von der ersten Stunde bis zum endgültigen Verschluß – ein Zeitraum von rund 100 Jahren – in diesem Bergwerk arbeiten. Das erfordert einen enormen Aufwand für die Sicherheit und begrenzt die Tiefe: Es muß nicht nur eine mehrere Kilometer lange Rampe für den Transport der Abfallbehälter aufgefahren werden, sondern zusätzlich noch Schachtanlagen für die Belüftung und den Personentransport. Für all die aufwendige Technik müssen im Berg komplette Werkstätten, Sozialräume etc. eingerichtet und betrieben werden. Ein enormer Kostenfaktor. Abschließend müssen alle Einbauten und Installationen (Kabel, Rohrleitungen usw.) wieder zurückgebaut werden und alle Hohlräume sorgfältig verfüllt und abgedichtet werden. Bei einem konventionellen Bergwerk holt man nur die wertvollen Dinge raus und läßt das Bergwerk absaufen und langsam in sich zusammenfallen. Genau das geht bei einem Endlager nicht. Hier muß der ursprüngliche Zustand des Gebirges möglichst gleichwertig wieder hergestellt werden – ist doch das Gestein die entscheidende Barriere eines Endlagers. Durch all diese bergmännischen Tätigkeiten wird die ursprüngliche Einlagerungsstätte erheblich verletzt. Dabei sind nicht nur die Hohlräume wieder zu verschließen, sondern auch die durch den Abbau gestörten Randzonen entsprechend abzudichten.

Legt man ein Bohrfeld an, muß zu keinem Zeitpunkt irgendein Mensch unter Tage arbeiten. Alle Bau-, Einlagerungs- und Verfüllarbeiten werden ausschließlich von der Oberfläche aus ausgeführt. Die Arbeiten gehen abschnittsweise vor sich. Sobald eine Bohrung fertiggestellt ist, kann sie befüllt werden und (wunschgemäß sofort) wieder fachgerecht verschlossen werden. Für jede Bohrung sind nur einige Monate erforderlich und anschließend ist sofort der Endlagerzustand erreicht. Dies bedeutet eine enorme Flexibilität. Man muß nicht mehr ein zentrales Endlager betreiben, in dem alle radioaktiven Abfälle eingelagert werden, sondern kann mehrere spezielle Lagerstätten einrichten. Dies könnte auch eine bessere Akzeptanz bei der Bevölkerung bedeuten. Es gibt nicht mehr eine Region, die sich als „Atomklo“ der Nation verstehen muß, sondern viele Endlager sind möglich. Der Nutzen von einem Kernkraftwerk kann besser mit den (vermeintlichen) Nachteilen eines Endlagers ausgeglichen werden. Insbesondere durch horizontale Bohrungen werden ganz neue Gebiete für die Endlagerung gewonnen. Für ein Bergwerk braucht man eine möglichst dicke Schicht (z. B. Salzstock). Für horizontale Bohrungen reichen sehr dünne Schichten (Abweichungen von weniger als einem Meter bei der Bohrung) aus. Ein stark geschichteter Untergrund kann sogar von Vorteil sein, wie man von den Gaslagerstätten weiß. Einzelne Schichten im Untergrund sind oft so dicht, daß sie nicht einmal unter Druck stehendes Erdgas durchlassen. Ein gewaltiger Vorteil für ein Endlager.

Senkrecht oder horizontal?

Die Idee „Atommüll“ in tiefe Bohrungen zu versenken ist nicht neu. So hat man in den USA versuchsweise Bohrungen bis 5000 m Tiefe ausgeführt. In den unteren 1 bis 2 km sollten dann Kanister mit „Atommüll“ endgelagert werden. Hier galt das Prinzip: Je tiefer, je sicherer, denn Tiefe schützt vor durchgehenden Rissen und es verbleibt nur noch die (langsame) Diffusion zum Transport. Der „Atommüll“ sollte also mindestens drei Kilometer unter der Erdoberfläche gelagert sein. Bei dieser Bauart stehen die Kanister übereinander, was zu einer entsprechenden Belastung für den untersten Kanister führt. Gemildert kann dies werden, indem man mehrere Pfropfen in die Bohrung einbaut, auf denen jeweils ein separater Turm steht. Dies verkürzt aber die nutzbare Länge entsprechend und erhöht die Baukosten. Nachteilig ist auch bei einem Wassereintritt, daß die radioaktiven Stoffe – angetrieben durch den Auftrieb durch die Wärmeentwicklung – bevorzugt in der Bohrung und ihrer Störzone nach oben steigen wollen. Es ist also eine besonders sorgfältige Wiederverfüllung nötig, damit auch langfristig keine radioaktiven Stoffe in Grundwasser führende Schichten gelangen.

Bei einer horizontalen Lagerung ist der Auftrieb naturbedingt wesentlich kleiner, da die Wärmeentwicklung eher flächig auftritt. Technisch arbeitet man dem Auftrieb entgegen, indem man den horizontalen Teil leicht ansteigend ausführt. Flüssigkeiten und Gase haben dadurch die Tendenz sich entgegen der Hauptbohrung zu bewegen. Bei einer solchen Anlage spielt Wasser in der Einlagerungszone eine geringe Rolle. Anders als bei einem Bergwerk muß es gar nicht abgepumpt werden und es werden somit nicht die Strukturen gestört. Es muß lediglich gewährleistet sein, daß es oberhalb ausreichende Sperrschichten gibt, die einen Austausch mit oberflächennahen Grundwasserschichten verhindern. Wie lange dieses Wasser schon keinen Kontakt mehr mit der Oberfläche hatte, kann man leicht über eine Isotopenanalyse ermitteln. So stammen beispielsweise die Wässer in den Ölfeldern von Texas (permian) überwiegend aus dem gleichen Meer, in dem auch die öl- und gasbildenden Organismen gelebt haben – sie sind Millionen Jahre alt. Genau die Schichten, die auch das Öl und Gas gefangen gehalten haben, haben auch sie von der Oberfläche fern gehalten. Ein weiterer Vorteil dieser alten Wässer ist, daß sie längst mit Mineralien gesättigt sind und keinen Sauerstoff mehr enthalten – sie können deshalb nur sehr schlecht den „Atommüll“ auflösen bzw. die Behälter korrodieren.

Die Konstruktion eines horizontalen Lagers

Der Bau eines solchen Endlagers vollzieht sich in drei Schritten: Im ersten Schritt wird eine ganz konventionelle Bohrung bis in die gewünschte Tiefe (mindestens so tief wie die geplanten Bergwerke) niedergebracht. Ist sie fertig gebohrt, wird sie komplett mit einem Stahlrohr ausgekleidet, welches einzementiert wird. Der Spezialzement verbindet das Rohr fest mit dem umgebenden Gestein und festigt die durch das Bohrgerät beschädigte Randzone (jeweils ungefähr einen halben Bohrungsdurchmesser um das Loch). Ab diesem Moment hat man also eine stabile senkrechte Rohrleitung nach unten. Im zweiten Schritt wird der Bogen als Übergang von der Senkrechten in die Horizontale gebohrt. Dies geschieht mit einem Winkel von etwa 0,25° pro Meter (300 bis 600 Höhenmeter zwischen Senkrecht und Waagerecht). Wie stark die Krümmung sein darf, hängt wesentlich von der Länge der „Müllbehälter“ ab. Schließlich sollen diese Behälter später ohne Belastung – wie ein Sattelzug auf einer Straße – um die Ecke gefahren werden. Will man z. B. komplette Brennelemente (in Deutschland z. B. ist eine Wiederaufbereitung politisch ausgeschlossen) einlagern, hat ein solcher Kanister eine Länge von knapp 5 m und wiegt rund 500 kg. Ist auch dieser Teil fertig gebohrt, wird er ebenfalls durchgehend bis zur Erdoberfläche verrohrt. Im senkrechten Teil besteht die Konstruktion nun aus zwei zentrischen Rohren, deren Zwischenraum ebenfalls zementiert wird. Im dritten Schritt wird die horizontale Bohrung ausgeführt. Man realisiert heute im Ölgeschäft bis zu 5 km lange Strecken. Wie lang eine Bohrung sein kann hängt maßgeblich von der Beschaffenheit der Schicht ab, in die die Endlagerung erfolgen soll. Dieser Teil wird nun ebenfalls verrohrt, was zur Folge hat, daß im senkrechten Teil nun drei Rohre ineinander gesteckt sind.

Die „Abfallbehälter“ bestehen aus Rohren mit einer Wandstärke von etwa 1 cm aus „Alloy 625“ (einem rostfreien Edelstahl, aus dem z. B. auch Rohre in Kernkraftwerken gefertigt werden). Hohlräume in den Behältern werden ausgefüllt und diese anschließend gasdicht verschweißt. Solche „Stangen“ – typische Durchmesser 23 bis 33 cm – sind außerordentlich stabil. Bis diese Behälter „durchgerostet“ sind, vergehen mindestens 50 000 Jahre. Ein Zeitraum, in dem fast alle Spaltprodukte bereits zerfallen sind. Erst dann müßte das Gestein seine Aufgabe als weitere Barriere erfüllen. Die Rohre zur Auskleidung der Bohrlöcher haben eine Lebensdauer von mehreren hundert Jahren.

Aus der Ölindustrie kennt man zahlreiche Verfahren, wie man solche Bohrungen befahren kann. Das Ein- und Ausbringen von Messgeräten, Kameras, Werkzeugen usw. ist Routine. Es gibt sogar Spezialfirmen, die abgebrochene oder verklemmte Bohrgestänge wieder aus einem Bohrloch fischen können. Die „Abfallbehälter“ werden wahrscheinlich mit einem elektrisch angetriebenen Traktor, an einem Stahlseil hängend, in die Rohre gedrückt bzw. wieder herausgezogen. Die Lagerung ist also für (mindestens) Jahrzehnte rückholbar. Auch dies eine politische Forderung, die eigentlich im Widerspruch zu einem Endlager steht.

Alle Arbeiten werden also von der Erdoberfläche aus ausgeführt. Einzige Besonderheit ist eine Abschirmung gegen die Strahlung während der Versenkung des „Atommülls“. In der Ölförderung ist es üblich, von einer kleinen Baustelle aus, mehrere Löcher zu bohren. Teilweise sogar mehrere Schichten übereinander zu erschließen. So könnte man auch ein recht großes Lagerfeld für viele Tonnen Abfall anlegen. Auch der oberirdische Platzbedarf wäre somit sehr viel kleiner als für ein vergleichbares Bergwerk.

Was könnte man einlagern?

Wie oben schon erwähnt, könnte man ganze Brennelemente ohne weitere Bearbeitung einlagern. Dies dürfte – wegen der enormen Rohstoffverschwendung – die Ausnahme sein. Viel eher wird man die verglasten Spaltprodukte mit den minoren Aktinoiden nach einer Wiederaufbereitung (französischer Weg) in solche Behälter gießen. Es sind aber auch andere Wege darstellbar. So fällt man in den USA in den militärischen Aufbereitungsanlagen Strontium und Cäsium (Halbwertszeit etwa 30 Jahre) aus der Spaltproduktlösung aus. So erhält man eine relativ große Menge kurzlebigen Abfall und eine relativ geringe Menge langlebigere Spaltprodukte. Diese Cäsium- und Strontium-Kapseln werden getrennt gelagert. Man kann hierfür einen besonders geeigneten Lagerort finden. Dampferzeuger aus Kernkraftwerken werden heute schon in Spezialfabriken zerlegt und dekontaminiert. Übrig bleibt eine große Menge handelsüblicher Schrott zu Wiederverwendung und ein kleiner Block eingeschmolzenen radioaktiven Materials. Diesen Abfall könnte man auch in die „Abfallbehälter“ gießen und endlagern. Heute wird es immer mehr üblich, kontaminierte Stoffe (Schutzkleidung etc.) vorher einzuäschern und nur noch das kleine Volumen der Asche zu lagern. Genauso könnte man belastete Filterharze in „Abfallbehälter“ umfüllen. Alles nur eine Frage der Kosten und des politischen Willens.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Temperatur­rekorde in Frank­reich: 3 Fakten, welche man nie in den Medien finden wird

[Vorbemerkung: sämtliche Temperaturangaben im Original in Grad Fahrenheit wurden hier gleich umgerechnet in Grad Celsius. Anm. d. Übers.]

Nun ist es nicht ganz ausgeschlossen, dass die menschliche Komponente zu der jüngsten Erwärmung diese Hitzewelle noch ein klein wenig verschlimmert hat, doch gibt es drei Fakten, welche die Medien regelmäßig ignorieren, wenn über solche „Rekord-Hitze“-Ereignisse berichtet wird. Falls jemand diese Fakten benennt, würden nur sehr wenige Individuen mit der Fähigkeit, selber zu denken, weiter darauf bestehen, dass unsere Treibhausgas-Emissionen einen wesentlichen Einfluss haben.

1. Rekordhohe Temperaturen treten auch ohne globale Erwärmung auf

Der mit zuverlässigen Thermometermessungen abgedeckte Zeitraum ist relativ kurz, selbst in Europa. Infolge der chaotischen Natur des Wetters ist zu erwarten, dass es von Zeit zu Zeit rekordhohe und auch rekordniedrige Temperaturen gibt – selbst ohne einen langfristigen Erwärmungstrend.

Die Frage lautet: nimmt die Anzahl rekordhoher Temperaturen mit der Zeit zu? Zumindest in den USA lautet die Antwort ,nein‘, hat doch die Anzahl der Tage mit Werten über 38°C bzw. 41°C nicht zugenommen (siehe Abbildung 5 in diesem Beitrag). Man müsste die Daten für Europa unter die Lupe nehmen, um diesen Sachverhalt dort zu ergründen.

Aber selbst wenn das der Fall sein sollte, muss man sich auf die Suche nach der Ursache machen. Der größte Teil der Erwärmung seit Ende der Kleinen Eiszeit (um das Jahr 1900) erfolgte, bevor man Treibhausgase dafür verantwortlich machen konnte. Es gibt keine Temperaturmessungen während der Mittelalterlichen Warmzeit vor etwa 1000 Jahren. Wie heiß waren die Sommer der damaligen Zeit? Niemand weiß das. Das Wetter ändert sich eben, und das führt mich zum nächsten Punkt.

2. Sommerliche Hitzewellen sind Wetter, und ungewöhnliche Kälte findet sich gewöhnlich daneben

Die jüngste exzessive Hitzewelle in Europa wurde nicht verursacht durch Sommerluft, die einfach da war und in einem Bad vom Menschen emittierten Kohlendioxids aufgekocht wurde. Verursacht wurde sie vielmehr durch einen Schwall Sahara-Luft (SAL), die aus dieser gigantischen Wüste nordwärts wehte.

Das kommt immer wieder einmal vor. Hier sind die Temperaturabweichungen im 850-hPa-Niveau (ca. 1500 m Höhe):

[*Leider wird nicht angegeben, welcher Normalwert über welchen Zeitraum hier gemeint ist. Anm. d. Übers.]

Die Sahara-Luftmasse wehte aus der Sahara über Westeuropa hinweg nordwärts, während sich gleichzeitig ein Kaltluftkörper über Osteuropa südwärts ausbreitete. Als Beweis dafür, wie groß natürliche Wettervariationen sein können, beachte man einfach die ganze Bandbreite der Abweichungen vom Normalwert nur in diesem kleinen Teil der Welt: Sie machte 25°C aus.

Die globale mittlere Temperatur-Anomalie für Juni (vom Climate Forecast System, CFSv2-Modell der NASA) an der Erdoberfläche betrug lediglich 0,3°C und hatte selbst an einem einzelnen Tag (1. Juli 2019; WeatherBell.com) einen Wert von +0,3°C).

Wird das Missverhältnis dieser beiden Zahlen deutlich? Auf Wetter bezogene Temperatur-Variationen von 25°C relativ zu einer Klima-bezogenen „Erwärmung“ von 0,3°C.

Am Boden stellte sich das Ganze so dar:

Die Bandbreite der Temperaturabweichungen vom Normalen betrug 32°C, was ebenfalls die globale „Klima“-Wärme von 0,3°C um einen Faktor 100 überstieg.

Das heißt, wenn wir von neuen Temperaturrekorden sprechen, sollten wir zunächst die ganz normalen Variationen des Wetters betrachten.

3. Die meisten Thermometer-Messungen sind teilweise vom Städtischen Wärmeinsel-Effekt beeinflusst

Ich bin zutiefst davon überzeugt, dass die globalen Thermometer-Aufzeichnungen übertriebene Erwärmungstrends aufweisen infolge des Wärmeinsel-Effektes UHI. Wird natürliche Vegetation durch Gebäude oder Straßenpflasterung ersetzt und treten zusätzliche Wärmequellen hervor wie Air Condition, Autos und Eiskrem-LKW, ändert sich das Mikroklima um die Messorte.

Viele von uns machen täglich diese Erfahrungen, wenn man aus der ländlicheren Umgebung zur Arbeit in Innenstädte fährt.

Man nehme als Beispiel den Miami International Airport. Dort war kürzlich ein neuer Temperatur-Wärmerekord für den Monat Mai mit 37°C aufgetreten. Das fragliche Thermometer befindet sich am westlichen Ende der südlichen Rollbahn des Flughafens im Zentrum des Metro-Komplex‘ Miami-Ft. Lauderdale. Noch vor 120 Jahren lebte fast niemand in Miami, betrug doch die Bevölkerung dort im Jahre 1896 300 Menschen.

Der UHI-Effekt ist so stark und allgegenwärtig, dass er inzwischen Eingang in das GFS-Wettervorhersage-Modell gefunden hat, und im Falle der jüngsten Hitze in Miami zeigte sich, dass es im Zentrum des Metro-Komplex‘ um Mitternacht über 5°C wärmer war als in der ländlichen Umgebung:

[Einschub des Übersetzers: Im Gebiet von Berlin (West) gab es während der achtziger Jahre {leider ist das genaue Datum nicht mehr erinnerlich} zwischen Innenstadt und Außenbezirken eine maximale Temperaturdifferenz von 14 K! In klaren Nächten, in denen die nächtliche Abkühlung in der Innenstadt viel später und schwächer erfolgte als am Stadtrand, traten während der späten Abendstunden regelmäßig Unterschiede über 10 K auf. Bis zum Eintreten der Tiefsttemperatur hatte sich die Differenz wieder etwas verringert, weil die Taubildung am Stadtrand und die dadurch freigesetzte latente Wärme einer weiteren starken Abkühlung entgegen wirkte.

Ende Einschub]

Weist ein Thermometer-Messpunkt diese Art einer unechten nächtlichen Erwärmung auf, wird man dort auch tagsüber unecht hohe Temperaturen messen (und umgekehrt).

Die sorgfältigste und umfassendste Analyse des UHI-Effektes auf die Temperaturen in den USA wurde von Anthony Watts und seinen Mitautoren durchgeführt. [Bei uns in Deutschland ist dies den gründlichen Arbeiten von Kämpfe und Kowatsch zu verdanken]. Watts et al. analysierten Hunderte von Thermometer-Messpunkten in den gesamten USA und wiesen nach, dass falls nur die am besten positionierten Thermometer berücksichtigt werden (zumeist in ländlichen Gebieten) der Erwärmungstrend in der Regel nur halb so hoch ist. Komischerweise ergab sich außerdem, dass die offiziellen, von der NOAA adjustierten Temperaturdaten (in die sowohl ländliche als auch städtische Messwerte eingehen) sogar eine noch stärkere Erwärmung zeigen als wenn man keine UHI-Adjustierungen vorgenommen hätte. Dies führte viele von uns dazu zu folgern, dass das UHI-Adjustierungs-Verfahren der NOAA ländliche Daten wie städtische Daten aussehen lässt anstatt umgekehrt, wie es der Fall sein sollte.

Wie beeinflusst das alles nun die rekordhohen Temperaturen in Frankreich? Es ist keine Frage, dass es ungewöhnlich heiß war; mir geht es lediglich darum zu ergründen, warum diese Rekorde aufgetreten waren. Ich habe schon in früheren Arbeiten nachgewiesen, dass 1) rekordhohe Temperaturen auch ohne globale Erwärmung auftreten; 2)Variationen des Wetters die primäre Ursache sind (in diesem Falle ein Vorstoß von Sahara-Luft) und jetzt 3) viele Thermometer-Messpunkte Schauplatz einer unechten Erwärmung sind.

Zu diesem dritten Punkt listet MeteoFrance hier die Temperaturrekorde jenes Ereignisses. Dabei stach mir ein Messpunkt ins Auge (Mont Aigua), weil das ein Bergobservatorium mit nur geringer Veränderung ist auf einem gut belüfteten Gipfel. Der bisherige Temperaturrekord aus dem Jahr 1923 wurde um lediglich 0,5°C übertroffen.

Einige der anderen Rekorde auf der Liste jener Website stammen ebenfalls aus dem frühen 20. Jahrhundert, was natürlich die Frage aufwirft, wie es damals so heiß hatte werden können, wenn keine anthropogenen Treibhausgase zugegen waren und auch kaum eine städtische Entwicklung.

Unter dem Strich steht, dass rekordhohe Temperaturen auf natürliche Weise auftreten, mit oder ohne Klimawandel, und unsere Fähigkeit, diese auszumachen, wurde durch eine unechte Erwärmung in den meisten Thermometerdaten kompromittiert, weil dieser unechten Erwärmung nicht angemessen Rechnung getragen worden ist.

Link: https://wattsupwiththat.com/2019/07/02/record-high-temperatures-in-france-3-facts-the-media-dont-tell-you/

Übersetzt von Chris Frey EIKE

Anmerkung: Zum gleichen Thema hat aus hiesiger Sicht auch schon Dipl.-Met. Hans-Dieter Schmidt einen Beitrag geschrieben.




Batteriespeicherung – ein winziger Teil der benötigten elektrischen Energie

Großspeicher sind jedoch nur ein unbedeutender Teil der Elektroenergieindustrie und sind dazu verurteilt, dies auch in den kommenden Jahrzehnten zu tun.

[Auf Eike fanden Sie dazu u.a. den übersetzten Artikel „Energiespeicher sind noch nicht verfügbar, für einen Einsatz im Stromsystemwobei das „noch“unter Mythos abzulegen ist, der Übersetzer]

Im vergangenen Monat hat Senatorin Susan Collins  aus Maine eine Gesetzesvorlage mit dem Titel „The Better Energy Storage Technology Act“ (Gesetz über bessere Energiespeicherungstechnologie) vorgelegt, in der 300 Millionen US-Dollar für die Entwicklung von Batterielösungen für elektrischen Strom vorgesehen sind. Collins erklärte  im Washington Exeminer: „Energiespeicher der nächsten Generation werden dazu beitragen, die Effizienz und Zuverlässigkeit unseres Stromnetzes zu verbessern, die Energiekosten zu senken und die Übernahme erneuerbarer Ressourcen zu fördern.“

[Washington Exeminer
… Collins und die anderen Republikaner, die die Gesetzesvorlage unterstützen, Sens. Cory Gardner aus Colorado und Martha McSally aus Arizona, stehen 2020 vor harten Wiederwahlkämpfen in lila Staaten, wobei Umweltprobleme, als Thema mit dem „Green New Deal“ durch die Demokraten ins Spiel gebracht, eine herausragende Rolle spielen dürften.]

Arizona, Kalifornien, Hawaii, Massachusetts, New Jersey, New York und Oregon verabschiedeten Statuten oder Ziele zur Entwicklung von Speichersystemen für die Netzstromversorgung, wobei sich New York zum ehrgeizigsten Ziel des Landes bekennt. Im Januar kündigte der Gouverneur von New York, Andrew Cuomo, im Rahmen seines Mandats „100 Prozent sauberen Strom bis 2040“ an, bis 2030 Speicher mit einer Leistung von 3.000 Megawatt (MW) bereitzustellen.

Heute haben 29 Staaten Gesetze für die Mengen an zu nutzender „Erneuerbarer Energien“, was bedeutet, weiter steigende Mengen an erneuerbaren Energien zu erwerben. Die Stromerzeugung aus Wind- und Solarsystemen ist jedoch intermittierend [und selten gerade dann erhältlich, wenn gebraucht]. Im Durchschnitt liegt die Windleistung zwischen 25% und 35% der Nennleistung der Windstromanlagen. Die Solarleistung ist sogar noch geringer und macht durchschnittlich etwa 15% bis 20% der Nennleistung aus.

Zum Vergleich bedeutet der erzwungene Einkauf von Strom aus Wind und Sonne, dass eine Familie gezwungen wird, ein zweites Auto zu kaufen, welches aber im Durchschnitt nur in 30% der Zeit fahren kann [und dass noch unplanbar]. Die Familie kann das ursprüngliche Auto nicht durch das neue intermittierende Auto ersetzen, sondern muss dann zwei Autos betreiben.

Befürworter erneuerbarer Energien schlagen jetzt die Speicherung von Elektrizität vor, um das Problem der Zufälligkeit zu lösen und die traditionellen Kohle-, Erdgas- und Kernkraftwerke durch erneuerbare Energien zu ersetzen. Bei hoher Wind- und Solarleistung wird überschüssiger Strom in Batterien gespeichert um in schwachwind und sonnenarmen Zeiten traditionelle Kraftwerke zu ersetzen, welche standardmäßig rund um die Uhr Strom erzeugen können.

In den Schlagzeilen einschlägiger Medien wird das Wachstum von Batterieanlagen für die Netzspeicherung hervorgehoben, die im vergangenen Jahr um 80% und gegenüber 2014 um 400% gestiegen sind. Die Menge an US-amerikanischem Strom, der heutzutage gespeichert wird, ist jedoch zum Ganzen verglichen gering.

US Energy Information Administration, Vergleich Kapazität  Pumpspeicher zu Batteriespeicher

Pumpspeicher, nicht Batterien, speichern in den USA etwa 97% des gespeicherten Stromes. Pumpspeicher verwenden überschüssigen Strom, um Wasser in ein höher gelegenes Reservoir zu pumpen, und wenn es abgelassen wird, treibt es eine Turbine mit Generator an, um wieder Strom zu erzeugen, wenn dieser [kurzfristig] benötigt wird. Aber weniger als ein Watt in 100.000 Watt US-Strom stammt aus Pumpspeichern.

Im Jahr 2018 erzeugten US-Kraftwerke 4,2 Millionen GWh an elektrischen Strom. Die Kapazität der Pumpspeicher belief sich auf 23 GWh. Die Batteriespeicher bieten nur etwa 1 GWh Kapazität. Damit ist ersichtlich, dass nur weniger als ein Millionstel des verbrauchten Stroms in Batterien gespeichert werden kann.

Stromspeicher sind teuer. Pumpspeicher sind mit etwa 2.000 USD pro Kilowatt die kostengünstigste Form des Netzspeichers, erfordern jedoch Landschaften, in denen ein tiefgelegener See mit genügend Wasser-Kapazität und ein dazugehöriges, hochgelegenes Gegenstück gebaut werden kann, bzw. zur Verfügung steht. Dagegen kosten Batteriespeicher etwa 2.500 USD pro Kilowatt für eine Entladungsdauer von zwei Stunden oder mehr. Batterien sind teurer als Windenergie an Land, deren Marktpreis unter 1.000 USD pro Kilowatt liegt. Ein Schlüsselfaktor für die Nützlichkeit des Speichers ist jedoch die Zeitspanne, in der das System den gespeicherten Strom liefern kann.

Im Fall des Staates New York, sind geplant:

In Part 4. Launching the Green New Deal, ab Seite 312

Die Installation von 9.000 MW Offshore – Windkapazität bis 2.035 und 3.000 MW Batteriespeicherung bis 2030 [Es ist unklar, ob damit 3.000 MWh gemeint sind oder „MW = Anschlussleistung“]. Das Windsystem kostet wahrscheinlich über 9 Milliarden USD und das Batteriesystem wird wahrscheinlich etwa 7,5 Milliarden USD kosten. Diese geplante Batteriekapazität ist jedoch völlig unzureichend, um die Unterbrechungen des Windstroms auszugleichen.

Wenn das Windsystem eine durchschnittliche Abgabeleistung von 33% seiner Nennleistung hat, können die geplanten 3.000 MW-Batteriespeicher nur etwa zwei Stunden lang die durchschnittliche Windleistung liefern

[Annahme: dann hätten die geplanten Batteriespeicher eine Kapazität von 6.000 MWh –das  muss aber in Überschusszeiten erstmal wieder geladen werden können.

Die „größte Batterie der Welt“ von Elon Musk in Südaustralien kann gerade mal 30MW anbieten (s. Nachsatz unten) und hat eine Kapazität von etwa 100 MWh, der Übersetzer]

Um die Leistung für einen ganzen Tag zu ersetzen, an dem der Wind nicht weht, wären 36.000 MW Speicher erforderlich, und zwar zu einem Preis von 90 Milliarden US-Dollar, was etwa dem Zehnfachen des Windsystems selbst entspricht. Da an den meisten Standorten mehrere Tage Windstille üblich sind, reicht selbst ein Tag Batteriesicherung nicht aus.

Darüber hinaus ist die Lebensdauer von Batterien im Netzabsicherungs-Maßstab von 10-15 Jahren nicht lang zu nennen. Wind- und Solaranlagen sind für eine Lebensdauer von 20-25 Jahren ausgelegt. Traditionelle Kohle-, Erdgas- und Nuklearsysteme haben eine Lebensdauer von 35 Jahren und mehr.

Die Speicherung von Elektrizität war bislang von jedem verarbeitenden Gewerbe als unklug angesehen. Jahrzehntelang setzten große Unternehmen auf Just-in-Time-Produktion, „Losgröße eins“, Kanban, Lean Manufacturing und andere Mitarbeiterprogramme, die darauf abzielen, den Bestand an Fertigwaren zu reduzieren, um die Kosten zu senken.

Strom muss bei Bedarf sofort erzeugt und geliefert werden, das ultimative Null-Fertigwaren-Inventar-Produkt. Aber viele Organisationen fordern jetzt Stromspeicher, um die Unterbrechungsschwäche der erneuerbaren Energien zu beheben.

Heute beträgt die Speicherkapazität der Batterien am Netz weniger als ein Millionstel der nationalen Stromproduktion. Batteriespeicherung erhöht die Kosten des Partnersystems für erneuerbare Energien um einen Faktor von mindestens zehn. Es wird Jahrzehnte dauern, bis die Batteriespeicherung in großen Stromversorgungssystemen eine bedeutende Rolle spielt, wenn überhaupt  [genügend Rohstoffe und Geld zur Herstellung vorhanden sind].

Veröffentlicht auf Wattsupwiththat vom 29.06.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/06/29/battery-storage-an-infinitesimally-small-part-of-electrical-power/

Ursprünglich in Energy Central veröffentlicht . Auf Wunsch des Autors hier neu veröffentlich

 

Nachschub vom Übersetzer:

Dieser Artikel ist offenbar durch die Pläne der Politiker in USA beeinflusst, und kann unseren Lesern einen anderen Blickwinkel auf die Problematik der volatilen Erneuerbaren und die Stromspeicher geben. Gleichwohl, sind die Eigenschaften der angesprochenen Stromgeneratoren und Stromspeicher unklar beschrieben. Kommt sicherlich auch durch die Agenda 2019 von Gouverneur Andrew M. Cuomo., Part 4. Launching the Green New Deal, ab Seite 312

***

Eigenschaften

Ein Kraftwerk wird mit MW spezifiziert, thermische Kraftwerke (Kohle, Gas Nuklear) können z.B. eine Leistung von 1.300 MW haben, Windkraft inzwischen meist um 3.000 kWatt (= 3 MW), die Haliade-X 12 des US-amerikanischen Herstellers General Electric soll 12MW haben.

Diese Leistung kann das Kraftwerk maximal zur Verfügung stellen, anders ausgedrückt, Verbraucher mit diesem Bedarf können daran angeschlossen werden. Das ist aber erstmal nichts anderes, als z.B. von einem PKW Motor zu sagen: der hat 100PS (74 KW) – solange der Motor steht, wird auch keine Energie erzeugt (aus dem Brennstoff in Bewegung / Strom umgewandelt). Wie lange und ob überhaupt  (Windstärke -> Windstrom) Strom geliefert werden kann, ist eine ganz andere Frage.

Was gebraucht wird, ist die tatsächlich gelieferte Energie, in der Elektrotechnik im Privathaushalt mit kWh abgerechnet, größere Verbrauchsmengen werden in MWH oder GWh gemessen.

Ein konventionelles Kraftwerk kann beispielsweise aufs Jahr gesehen, den Strom an durchschnittlich mehr als 90% aller Stunden mit seiner Nennleistung liefern. (Stillstands Zeiten für Störung und Wartung eingerechnet), also 8760 h x 0,9 x 1.300 MW = 10.249.200 MWh  = ~ 10.249 GWh – und dieses kontinuierlich, planbar

Windkraftanlagen, 3 MW Nennleistung, liefern aufs Jahr durchschnittlich z.B. 40%  ihrer Kapazität, 8760h x 0,4 x 3 MW = 10.512 MWh, das ist im Durchschnitt aufs Jahr. Das kann – wie der Wind weht – auch mal mehr oder weniger sein, aber nicht planbar wie lange und wann,

Batterien werden mit drei Kennwerten beschrieben, mit der Anschluss Spannung (in Volt), der Kapazität (in Ah) und dem maximalen Entladestrom (in Ampere) (zum Laden auch den maximalen Ladestrom).

Weil das viele unserer Leser sicherlich schon mal gesehen haben, zur Erläuterung als Beispiel eine typische, gute Autobatterie: 12 V, 44 Ah, 440 A

Die Anschlussspannung ist 12 Volt,
ein Strom von 44 Ampere kann eine Stunde lang geliefert werden , dann ist sie leer (das sind 12 V x 44A x 1h = 0,528 KWh

( – wobei die Zellenspannung nicht auf 12 V bis zur vollständigen Entladung bleibt, damit sinkt der Strom, d.h. real weniger nutzbare Kapazität, In der Praxis der Autobatterien wird ein Entladestrom über 5 Stunden gemessen und dann auf Stundenwert umgerechnet)

Der maximale Strom, der zum Starten für 30sec gezogen werden kann, sind 440A, realerweise  dann nicht mit 12V. Nehmen wir mal 10V an: 10 V x 440 A= 4.400 Wh = 4,4 kW Startleistung, mit obigen Kapazitätswerten, hält die Batterie das dann theoretisch rd. 9 min durch, bis sie leer ist.

Daher ist die im Artikel angegebene Leistung von 3.000 MW für das große Netzspeicher-Batteriesystem wahrscheinlich die von Politikern phantasierte Kurzzeitleistung – noch ist so ein Batteriespeicher nicht gebaut worden.




Strom ist nicht gleich Strom – Wieder Engpässe beim Strom in Deutschland

So viel Sonne – und dann Stromengpässe? Wie kann das denn sein? Die chaotischen Zustände kommen bekanntlich nicht erst seit diesem Monat vor, sondern schon seit langem. Wir haben die katastrophalen Folgen der Energiewende hier oft genug beschrieben. Z.B.:

Der Spiegel-Mann schreibt vermutlich von der FAZ ab: »Gerät das System aus der Balance, schwankt auch die sogenannte Stromfrequenz – was ganze Fabriken aus dem Takt bringen kann.«

Sogar ganze Fabriken. Das muss ja schlimm sein. Was, erführe der wackere Spiegel-Mann, dass die Netzfrequenz, nicht die »sogenannte Stromfrequenz«, die entscheidende Regelgröße ist, nach der Stromproduktion dem Verbrauch angepasst wird. Strom ist nämlich ein ganz besonderer Saft. Er kann nicht in größeren Mengen gespeichert werden. Es kommt immer darauf an, wann er gebraucht wird. „Strom ist also nicht gleich Strom“, wie auch der Titel eines lesenswerten Buches lautet.

Es kommt darauf an, wann er gebraucht wird und nicht, wann er zufällig anfällt. Ein Industrieland benötigt die Energie „Strom“, es kann seine Produktion nicht danach ausrichten, wenn zufällig die Sonne so schön scheint und ein paar Stunden tagsüber sehr viel Strom aus den Photovoltaikanlagen kommt. Nachmittags und spätestens abends ist Schluss mit lustig, Strom gibts nicht mehr, weil die Sonne untergegangen ist. Das Gleiche gilt für die Windräder, die auch nur dann Strom liefern, wenn der zufällig weht.

Woher kommt dann der Strom? In den Mengen, in denen er gebraucht wird, kann er nicht gespeichert werden. Wenn die letzten Kohlekraftwerke abgeschaltet sein werden, wird’s dunkel in Deutschland. Nur mit den großen Schwungmassen der Generatoren können die kurzzeitigen Schwankungen im Netz schnell ausgeglichen werden. Die werden sich nicht mehr drehen.

Denn noch steht in Deutschland hinter jedem Windrad, hinter jeder Photovoltaikanlage die Leistung eines konventionellen Kraftwerkes. Das lässt sich nicht eben mal anschalten, das dauert. Es läuft daher tagsüber gewissermaßen im Leerlauf, kostet entsprechend, muss dann liefern, wenn’s dunkel wird und von den Solaranlagen nichts mehr kommt.

Verbrauch und Produktion müssen in einem sehr exakten Gleichgewicht stehen. Die Netzfrequenz ist das entscheidende Maß dafür, ob genügend Strom produziert wird. Sämtliche Stromerzeuger und Verbraucher in Europa takten im Gleichklang von 50 Hertz. Sinkt die Frequenz auch nur geringfügig unter diesen Wert, so herrscht Strommangel und die Netzbetreiber müssen schnellstens weitere Stromquellen dazuschalten – oder eben möglichst schnell Stromverbraucher abschalten, also etwa mal eine Stadt.

Gerät das Verhältnis zwischen Stromproduktion und Verbrauch aus dem Takt, droht nicht nur der Ausfall einer Fabrik, sondern ein weitreichender Stromausfall, ein Blackout, der schnell ganz Europa erfassen kann. Das Beispiel Südamerika, das jüngst einen Stromausfall erlebte, der 48 Millionen Menschen im Dunkeln ließ, sollte für uns ein Warnschuss sein. Besonders bemerkenswert an diesem Ereignis ist, dass seine Ursachen immer noch nicht geklärt sind. Eine stabile Stromversorgung für ein Industrieland aufrecht zu erhalten, ist hoch komplex, insbesondere dann, wenn zwangsweise immer mehr wetterabhängiger Zufallsstrom eingespeist wird. Denn der ist pures Gift für die Netzstabilität.

Wenn wie derzeit tagsüber zu viel Sonnenstrom da ist, wissen die Netzbetreiber oft nicht, wohin damit. Denn auch in den Nachbarländern wartet man nicht auf den Strom, der zufällig mal aus Deutschland kommt. Erst eine kräftige Mitgift in Höhe von einigen Millionen Euro bewegt die Netzbetreiber, die eigene Produktion herunterzufahren und Strom aus Deutschland abzunehmen. Das nennen nur sehr Wohlmeinende Stromexportland.

Sehr nett finden es mitunter eidgenössische Netzbetreiber, Zufallsstrom aus Deutschland abzunehmen und damit Wasser in hochgelegene Speicher in den Alpen zu pumpen. Dafür bekommen sie oft genug viele Euros; die bekommen sie dann auch wieder, wenn sie diese Energie wieder an Deutschland zurückgeben, wenn dort Dunkelflaute herrscht. Der Gelackmeierte ist der Stromkunde, der den Spaß mit den höchsten Strompreisen Europas bezahlt.

Noch nicht erwähnt haben wir bisher die erheblichen Energieverluste, die bei diesen Stromtransporten quer durch Europa entstehen, und die ebenfalls der Stromkunde bezahlt. Denn Energie in Form elektrischer Energie über weite Strecken zu transportieren, ist die ungünstigste Form des Energietransportes. Effektiver geht es in Form der Kohlenwasserstoffe wie Kohle, Öl oder Gas.

Also: Strom ist nicht gleich Strom, es kommt immer darauf an, wann er gebraucht wird. Die Energiewende zerstört diese Regeln gründlich.

Der einzige vernünftige Vorschlag in der unseligen Energiewendendiskussion, den ich kenne, war der, dass Windkraft- und Photovoltaikstromlieferanten dann ihren Strom liefern müssten, wenn er auch benötigt wird. So, wie das der Bäcker machen muss, wenn er seine Brötchen ausliefert – in der Menge und zu dem Zeitpunkt, wenn seine Kunden sie benötigen. So müssen es die Wasserwerke machen, die schlecht sagen können: Jetzt haben wir gerade Wasser, wascht euch!

Das wäre Markt: Das Angebot richtet sich nach der Nachfrage, der Preis wird entsprechend geregelt. Und nicht umgekehrt wie derzeit auf dem Energiesektor, wo Stromproduzenten munter fordern: Wir liefern jetzt Strom, weil wir ihn gerade haben, weil Sonne und Wind liefern, also zahlt uns unseren horrenden Preis, gleichgültig, ob ihr den Strom benötigt oder nicht. In einem solchen System von „Marktteilnehmern“ zu sprechen, wie es der Spiegel tut, ist schräg.

Eine regelmäßige, gesicherte Energieversorgung ist die Voraussetzung für ein Industrieland. Das zerstört man am besten, indem dessen Energieversorgung zerstört wird, wie es die Energiewende gerade macht.

Die Schuld an einem Blackout muss man dann natürlich Spekulanten in die Schuhe schieben. Kennt man von Honecker & Co, die für schlechte Ernten den Klassenfeind verantwortlich machten, aber niemals die eigene Unfähigkeit. Von daher klingt dieses »Framing« bekannt – und bedrohlich.

Der Beitrag erschien zuerst bei TICHYS Einblick hier