1

Wir sollten jetzt die realen und nachteiligen Folgen von Abkühlung fürchten

Eisbohrkernen zufolge war das letzte Jahrtausend von 1000 bis 2000 das kälteste Millenium des gegenwärtigen Interglazials. Am deutlichsten wird dieser Umstand illustriert, wenn man die Ergebnisse aus den Eisbohrkernen im Zeitmaßstab von Jahrtausenden darstellt, und zwar zurück bis zum Zeitalter des Eemian:

Unser jetziges warmes, angenehmes Holozän-Interglazial ermöglichte überhaupt erst die Entwicklung der menschlichen Zivilisation während der letzten 10.000 Jahre, obwohl es kühler ist als im Eemian-Interglazial* vor 120.000 Jahren.

[*Die Bezeichnung „Eemian“ tauchte zu Beginn des 20. Jahrhunderts erstmals auf. Sie entstand aus „Eem“, einem Flüsschen in Holland, dem „ian“ angehängt wurde. Quelle. Anm. d. Übers.]

Die Betrachtung des gegenwärtigen Holozän-Interglazials im Zeitmaßstab von Jahrtausenden ist vernünftig. Leider scheint es aber so zu sein, dass Klima-Alarmisten auf irrationale Art und Weise den Temperaturverlauf mit einer viel zu hohen zeitlichen Auflösung betrachten, Wetterereignis für Wetterereignis, Monat für Monat, Jahr für Jahr. Und das nur durch die Notwendigkeit getrieben, die Hypothese/Religion einer katastrophalen anthropogenen globalen Erwärmung zu stützen.

Aus der umfassenderen Perspektive zeigt sich, dass jede erkennbare Wärmespitze des gegenwärtigen, 11.000 Jahre langen Holozäns jeweils kälter ausgefallen war als die Wärmespitze davor (Klimaoptimum des Holozäns, Minoische-, Römische-, Mittelalterliche-, Moderne Warmzeit).

Aus den Eisbohrkernen aus Grönland geht hervor, dass der Temperaturverlauf zu Beginn des Holozäns, also während der ersten 7000 bis 8000 Jahre, weitgehend flach verlaufen war, einschließlich der ersten Wärmespitze, bekannt als „Klima-Optimum“. Aber im weiteren Verlauf des Holozäns kam es seit einer Art „Kipp-Punkt“ vor etwa 3000 Jahren zu einer Abkühlung, deren Rate 20 mal höher liegt als die Rate vor diesem Zeitpunkt.

Das Holozän-Interglazial dauert nunmehr 10.000 bis 11.000 Jahre, und betrachtet man lediglich die Länge früherer Interglazial-Perioden, sollte die Holozän-Epoche ihrem Ende entgegen gehen: in diesem Jahrhundert, im nächsten Jahrhundert oder in diesem Jahrtausend.

Nichtsdestotrotz haben die Klima-Alarmisten in ihrem blindwütigen Vorantreiben ihrer Ansichten die geringe und wirklich vorteilhafte Erwärmung zum Ende des 20. Jahrhunderts in einen Höhepunkt der „großen, katastrophalen, vom Menschen verursachten globalen Erwärmung“ verdreht.

[Hervorhebung vom Übersetzer]

Die jüngste Erwärmung seit dem Ende der Kleinen Eiszeit war durch und durch vorteilhaft, wenn man sie mit den verheerenden Auswirkungen der leichten Abkühlung während der Kleinen Eiszeit vergleicht.

Angesichts der Tatsache, dass die Temperaturen derzeit nach der kurzen Wärmespitze um die Jahrtausendwende während der letzten 20 Jahre Stagnation oder Abkühlung zeigen, sollte die Welt jetzt die realen und nachteiligen Auswirkungen von Abkühlung fürchten anstatt hysterisch über eine begrenzte, vorteilhafte und vermutlich gar nicht existierende weitere Erwärmung zu schwadronieren. Wärmere Zeiten sind und waren immer Zeiten von Erfolg und Wohlergehen der Menschheit und der gesamten Biosphäre.

Aber das bevorstehende Ende des gegenwärtigen Holozän-Interglazials wird eventuell erneut zur Bildung eines Kilometer dicken Eisschildes in weiten Teilen der Nordhemisphäre führen. Diese Rückkehr zu Eiszeit-Bedingungen wird dann die wirkliche Klima-Katastrophe sein.

Mit der gegenwärtig reduzierten Sonnenaktivität werden signifikant niedrigeren Temperaturen bis hinunter zum Niveau einer neuen Kleinen Eiszeit prognostiziert, und zwar schon ziemlich bald in diesem Jahrhundert.

Ob die jetzt bevorstehende Abkühlung wirklich zu einem neuen Eiszeitalter führt oder nicht ist noch nicht geklärt.

Holocene Context for Catastrophic Anthropogenic Global Warming

Link: https://www.iceagenow.info/we-should-now-fear-the-real-and-detrimental-effects-of-cooling/

Übersetzt von Chris Frey EIKE




Die Empörung der Grünen – der lustige EU-Klimawandel-Report

Ein Parlamentarier der UKIP ruft Empörung hervor mit einem Bericht, in dem die menschliche Rolle bzgl. Klimawandel bestritten wird

In dem Report werden Fluktuationen der kosmischen Strahlung und der Sonnenflecken-Aktivität als ursächlich für Klimawandel genannt, was unter Klimawissenschaftlern Spott hervorrief. Sie sagen: „Ein Report für das Europa-Parlament, in welchem Fluktuationen kosmischer Strahlen, Sonnenflecken und planetarischer Gravitationswellen für Klimawandel verantwortlich gemacht werden, ist so banal und auf falschen Informationen beruhend, dass Dinosaurier darob ,erröten‘ würden“.

Die nicht bindende Meinung des UKIP-MEP John Stuart Agnew hat die EU-Gesetzgeber geschockt ob seiner Missachtung der Klimawissenschaft – und ob der Unterstützung, die ihm zuteil wurde, den Report zu schreiben seitens rechter und linker politischer Blöcke des Mainstreams.

Die Abgeordnete der Grünen Molly Scott Cato sagte, dass die Wahl von Agnew, einem Landwirt aus Norfolk, als Berichterstatter als Berichterstatter seitens des Komitees für Landwirtschaft ein „wahrhaft skandalöses“ Fiasko war, welches die wachsende populistische Bedrohung illustriert. Ein Berichterstatter wird gewählt, um EU-Vorlagen durch das Parlament zu bringen und es dann nach Gesprächen mit der Europäischen Kommission und den EU-Staaten als Gesetz zu beschließen.

Der Agnew-Report verlangt einen grünen Fonds in Höhe von 5,45 Milliarden Euro mit der Bezeichnung Life, um sich auf ein „drohendes Maunder Minimum“ vorzubereiten – oder auf eine Periode mit geringer Sonnenflecken-Aktivität.

Die Vorschläge der Europäischen Kommission, die Mittel des Fonds‘ auszugeben für Infrastruktur sauberer Energie, welche zur Abschwächung von Klimawandel beitragen und den Verpflichtungen aus dem Paris-Abkommen nachkommen sollen, sind gelöscht.

Agnew hat schon lange gegen das gekämpft, was er den „Betrug um globale Erwärmung“ nennt. Er sagte dem Guardian, dass er „seinen Hut in den Ring geworfen habe in der Erwartung, dass dieser Report vollständig in der Versenkung verschwindet“, dass er dann aber „zu seiner echten Verblüffung“ verbreitete Zustimmung erntete.

Ein Sprecher der Europäischen Volkspartei sagte, dass deren Stützung von Agnew zurückgehe auf Ausschreibungen und nicht auf eine Befürwortung seiner Klimapolitik.

Mehr: https://www.theguardian.com/environment/2018/aug/29/ukip-mep-sparks-outrage-with-report-denying-human-role-in-climate-change

Hier steht ein Entwurf des Reports.

Das folgende Video zeigt, wie Stuart Agnew seinen Report im Europaparlament zur Diskussion stellt:

Der Landwirt Agnew war einst eine Klima-Befürworter. Agnew zufolge ließ er sich 15 Jahre lang von der nahe gelegenen University of East Anglia beraten, welches Getreide er anbauen sollte. Und fast durchweg musste er in den meisten diese 15 Jahre massive Ernteausfälle hinnehmen durch Schadfröste, zu welchen es ja angeblich nicht mehr kommen sollte.

Die geforderte Reaktion des Guardian auf Agnews Aufruhr ist die ziemlich pathetische Strategie, „die Diskussion zu verweigern“.

Link: https://wattsupwiththat.com/2018/09/03/green-outrage-ukips-hilarious-eu-climate-change-report/

Übersetzt von Chris Frey EIKE




Könnte das Aufladen von Haushaltsgeräten aus schimmeligem Brot die Zukunft sein?

Professor Geoffrey Gadd von der Universität Dundee in Schottland sagte, dass ein Organismus eines seltenen Schimmelpilzes: roter Brotpilz  [Neurospora crassa] gefunden wurde, der zu Manganoxid umgewandelt werden kann, das elektrochemische Eigenschaften besitzt.

Und er sagte, es habe definitiv funktioniert.

AUDIO-Beitrag: Forget the mobile phone charger, pass the mouldy bread instead (The World Today)

Die Tage der verzweifelten Suche durch in der Schreibtischschublade für ein Ersatzladegerät für Handys könnten gezählt werden. Wissenschaftler haben eine Möglichkeit entdeckt, seltenen Rotbrotschimmel zu nehmen und ihn in die Lage zu versetzen, Batterien wieder aufzuladen. Bislang wird es nur bei kleinen LED-Geräten eingesetzt, aber es zeigt vielversprechende Ergebnisse. Die Hintermänner des Durchbruchs sagen, dass die Entdeckung dazu beitragen könnte, die Art und Weise, wie Wissenschaftler über nachhaltige Energie nachdenken, zu ändern.

 ***

Professor Geoffrey Gadd

„Viele andere Dinge wurden mit Manganoxid als a-biotische Materialien probiert oder vielleicht andere Arten von Versuchen. Aber das ist das erste Mal, dass jemand es in einem Pilzmaterial verwendet.“, sagt Professor Gadd , und das er bereits ein LED-Gerät mit ermutigenden Ergebnissen laden konnte.

[Im Original: „A lot of the other things that have been tried with manganese oxide of being a-biotic materials, or maybe some other kinds of stuff,“ Professor Gadd said. „But this is the first time anyone’s used it in a fungal material.“. Ganz klar ist mir nicht, was der Herr Prof. genau meint, der Übersetzer]

„Wenn wir es beispielsweise in Lithium-Ionen-Batterien einsetzen, verlieren sie nach etwa 200 Ladezyklen nur noch etwa 10 Prozent ihrer Ladungsstabilität.“

Mit weiterer Forschung hoffen die Wissenschaftler, die Kapazität der Batterien zu erhöhen, die die Schimmelpilzmischung laden kann.

Professor Gadd sagte, das Experiment sei Teil der Suche nach erneuerbaren Energien.

„Auch um ein grundlegendes Verständnis davon zu vermitteln, wozu der Organismus in der Lage ist … Die meisten unserer Arbeiten befassen sich mit dem, was Organismen mit Metallen und Mineralien tun, und das war wirklich eine Nebensache, eine verrückte Idee, diese Art von Mineral zu nutzen und Manganoxid zu machen. Es war eine komplette Abschweifung für uns, aber wir waren sehr erfreut und überrascht zu sehen, dass es so gut funktioniert hat.“

Hier vom Link der Uni von Prof. Gadd

„Wir hatten die Idee, dass die Zersetzung solcher biomineralisierter Carbonate zu Oxiden eine neue Quelle für Metalloxide mit signifikanten elektrochemischen Eigenschaften liefern könnte“, sagte Professor Gadd.

Tatsächlich gab es viele Bemühungen, die Leistung von Lithium-Ionen-Batterien oder Superkondensatoren unter Verwendung alternativer Elektrodenmaterialien wie Kohlenstoff-Nanoröhrchen und anderer Manganoxide zu verbessern. Aber nur wenige hatten eine Rolle für Pilze im Herstellungsprozess in Betracht gezogen.

Menschen nehmen grüne Energie in ihre eigenen Hände

Paul Graham, Chefökonom des CSIRO, sagte, er erwarte, dass „skurrile wissenschaftliche Funde“, wie dieser, im Energiesektor häufiger auftreten werden.

„Ich denke, wir werden eine Menge Aktivität in diesem Bereich sehen. Was uns antreibt, ist natürlich, dass wir einen beträchtlichen Anstieg der Strompreise hatten und mit dem hochkommenden Solar,  haben viele Leute darüber nachgedacht, was sie selbst tun können .

Auch wird ein verstärktes Interesse der Verbraucher dazu beitragen, die Energiekosten in den kommenden Jahren zu senken.

Ich denke, es gibt eine Menge Leute, die zu grüner Energie übergehen wollten, weil die Regierung vielleicht die Aktivitäten vermissen lässt. Und dann gibt es eine ganze Gruppe von Leuten, die einfach Geld bei ihren Rechnungen sparen wollen, wenn die Strompreise steigen.

Und ich denke, wir haben auch eine Gruppe von Kunden, die schnelle Adapter sind, die sich einfach nur auf neue Technologien einlassen wollen.

So gibt es viele verschiedene Motivationen, aber das alles trägt dazu bei, die Energiekosten für den Durchschnittshaushalt zu senken.“

[1] Aufladen von Geräten zu Hause mit Schimmelpilzen „ist absolut möglich“.

Professor Gadd meint: „… der Tag könnte kommen, an dem es möglich sei, dass jeder zu Hause mit ein wenig Hilfe von schimmeligem Brot nachhaltige Energie entwickeln könne.

Nun, viele Leute machen ihren eigenen Wein und Bier zum Beispiel und es gibt keinen großen Unterschied.

Theoretisch könnten Menschen so etwas zu Hause machen, wenn sie es denn wollen.“

Prof. Graham sagte, dies sei eine Möglichkeit und verwies dabei auf die Tatsache, dass niemand erwartet hatte, dass die Solarenergie so abheben würde, wie sie es getan hatte. [Der gefundene Beitrag ist von Anfang 2016!]

„Vor über 30 Jahren hat noch niemand damit gerechnet, dass Solarstrom von der Sonne kommen wird. Wir ahnten nicht, dass aus etwas Verrücktes wie das Anbringen von Paneelen auf Ihrem Dach, die die Sonnenstrahlen absorbieren, eine boomende Photovoltaik-Industrie werden würde, die die Energieeffizienz vorantreibt. Der Energiesektor ist schockiert über den technologischen Wandel, der sich ereignet hat und noch immer vor sich geht.

Dann ist es plötzlich einfach explodiert und so denke ich, wenn wir uns die Technologien anschauen, schauen wir uns die Dinge irgendwie an und denken:  ’naja, das wird vielleicht nie irgendwas werden.

Aber ich denke, nachdem was auf dem Solarmarkt passiert ist, schauen wir uns jetzt alle Technologien an und fragen uns, wann ist ihr Wendepunkt erreicht?

Also schreibe ich wirklich nichts mehr ab, weil der gesamte Energiesektor durch den technologischen Wandel schockiert ist und vielleicht könnte Schimmel die Zukunft sein.“

 [1] https://blog.csiro.au/using-mouldy-bread-charge-phone/

Gefunden auf ABC News, Australien vom 18.03.2016

Übersetzt durch Andreas Demmig

http://www.abc.net.au/news/2016-03-18/green-energy-future:-recharge-your-devices-with-mouldy-bread/7257272

 

PS: Kommentar

Wie genau die zukünftige „Ladestation“ beschaffen sein soll, habe ich nicht finden können. Ich nehme an, dass Manganoxid in einer Redox flow battery Verwendung finden soll. [Elektrochemische Spannungsreihe]

Auf der anderen Seite, bin ich mir nicht sicher, ob das nicht ein verspäteter Aprilscherz ist. Professor Geoffrey Gadd ist jedoch zu finden, siehe Link oben.

Die Vorstellung, dass ich Brot brauche, es – zu Hause – verschimmeln lasse, um dann Strom draus zu machen… ? Könnte das eine Aktion der Bäckerinnung sein?

Oder sollen wir Toastbrotscheiben aufs Dach legen (daher wohl der Hinweis auf Solarzellen), getostet?

Hier habe ich gleich mal einen Versuch gemacht:

Demmig, Laborversuch zu Hause

Ergebnis steht noch aus

****




Die New York Times versucht mal wieder mit globaler Erwärmung Angst zu schüren

  • Die New York Times hat sich mit Klimaforschern zusammengetan, um eine Grafik zu produzieren, die angeblich einen Anstieg der Anzahl von heißen Tagen zeigt.
  • Die Grafik der NYT zeigt jedoch einen Durchschnitt, basierend auf Klimamodellen und stimmt mit den Aufzeichnungen der Temperaturen nicht überein.

Die NYT und Climate Impact Lab lassen ihre Leser eine interaktive Grafik erstellen, die zeigen soll, wie viele Tage mit mehr als 90°F (32°C) sie in ihrer Heimatstadt von ihrer Geburt an erwarten konnten – ihre Datenauswertungen beginnen jedoch erst ab 1960. [Im folgenden habe ich die 90°F stehen lassen, Anm. d. Übersetzers]

Die Frage ist: Wie genau ist die Darstellung der Veränderung in Tagen bei über 90°F? Nun, zumindest für US-Städte scheint es irreführend zu sein.

„Das ist Zeitverschwendung“, witzelte Dr. Ryan Maue vom Cato Institute in einem Tweet, der am Sonntag veröffentlicht wurde. Maue wertete die Aufzeichnungen für Atlanta aus und erhielt eine andere Grafik als jene, die die NYT für diese Stadt anzeigt.

View image on Twitter

Grafik von Ryan Maue | weathermodels.com

 

„Ich habe die 90°F Tage in Atlanta aufgestockt, weil ich den @nytimes -Klimadaten … Durchschnitt von 46 in den letzten 40 Jahren nicht vertraut habe. Im Jahr 2018 sind sie mit 48 auf Zielkurs. Die NYT begann ihre Datenanalyse im Jahr 1960 – wundert Sie das?“

Hier ist die Grafik, die die NYT ihren Lesern für Atlanta zeigen:

Quelle: Screenshot der New York Times vom 02.09.2018

Warum gibt es einen Unterschied zwischen dem beobachteten Datensatz und dem, was die NYT berichtet?

Ein Grund dafür ist, dass die NYT einen „21-jährigen gleitenden Durchschnitt“ verwendet, um den Lesern zu zeigen, wie viele heiße Tage sie im Jahr ihrer Geburt erwarten könnten – nicht die tatsächliche Anzahl, die beobachtet wurde.

Der zweite Grund ist, dass die Daten von der NYT nach 2000 mit einem Klimamodell gemischt werden, das auf zukünftige Klimaprojektionen abgestimmt ist. Nach 2020 notiert die NYT: „Die Daten verwenden ein gemischtes Klimamodell, das eine breite Palette extremer Temperaturreaktionen erfasst.“

„Die Zukunftsprognose, die hier gezeigt wird, geht davon aus, dass die Länder die Treibhausgasemissionen ungefähr in Übereinstimmung mit den ursprünglichen Verpflichtungen der Pariser Vereinbarung eindämmen werden“, stellt die NYT fest.

Ebenfalls ersichtlich ist, dass der Ausgangspunkt für die Daten der NYT im Jahr 1960 anfängt – zu Beginn einer Reihe von Jahren mit relativ wenigen Tagen, an denen die Temperaturen stiegen. Mit dem Start ihrer Daten im Jahr 1960 ignoriert die NYT die Jahrzehnte zuvor mit einer höheren Anzahl von 90°F-Tagen, in etwa gleicher Höhe wie heutzutage.

Die NYT verwendet diese modellgemischten Daten jedoch, um zu behaupten, dass Atlanta „diese zusätzliche Hitze spüren wird, selbst wenn die Länder Maßnahmen ergreifen, um ihre Emissionen bis zum Ende des Jahrhunderts zu senken.“ Die Studie zitiert Experten, die davor warnen, dass die menschliche Gesundheit und die Landwirtschaft leiden werden.

„Wenn es auch noch feucht ist, kann der menschliche Schweiß nicht so leicht verdunsten und wir können unseren Körper nicht effektiv kühlen“, sagte Kelly McCusker von Climate Impact Lab gegenüber der NYT.

„Lebensmittel, Wasser, Energie, Transport und Ökosysteme werden sowohl in Städten als auch auf dem Land betroffen sein. Gesundheitliche Beeinträchtigungen aufgrund hoher Temperaturen werden die am stärksten gefährdeten Menschen treffen“, so Cynthia Rosenzweig, Wissenschaftlerin am NASA Goddard Institute for Space Studies.

Während die zukünftige Erwärmung zur Debatte steht, wird die historische Aufzeichnung außen vor gelassen. Das NYT-Modell der vermischten Temperatur-Diagramme wird auf viele Städte im ganzen Land angewandt, jedoch scheint es nicht die tatsächliche Anzahl der Tage bei oder über 90°F zu reflektieren – zumindest in den USA, wo es Temperaturaufzeichnungen gibt.

Maue untersuchte auch Stationsdaten aus Washington, D.C. und stellte erneut fest, dass diese nicht wie die Grafik der NYT aussehen.

View image on Twitter

Ryan Maue | weathermodels.com

Washington DC (Reagan) seit 1940, 90°F Tage im jeweiligem Jahr.
Aber noch mal, 90°F ist im Grunde die Durchschnittstemperatur im Hochsommer.

Beachten Sie, dass das von der NYT gewählte Startdatum von 1960 an einen Tiefpunkt der Anzahl von 90°F Tagen liegt. Die Daten von DC gehen nur bis zum Jahr 1940 zurück, es gibt also nicht so lang zurückreichende Aufzeichnungen wie in anderen Städten.

Wenn die NYT einen Trend zu mehr 90°F oder heißeren Tagen zeigen will, dann erreicht man das mit dem Beginn ab 1960. Die höheren Temperaturen in den 1930er Jahren werden dabei ignoriert. Zu der „Dust Bowl Ära der 1930er Jahre“ stellt der letzte Bericht des National Climate Assessment fest, dass die Jahre damals noch immer eine Spitzenzeit für extreme Hitze bleiben.

Diese Hitze ist auch in den Aufzeichnungen von Hitzewellen zu sehen, die von der Umweltbehörde EPA präsentiert werden. Kein anderes Jahrzehnt kommt in Bezug auf den Hitzewellenindex der 1930er Jahre.

Figure 1. U.S. Annual Heat Wave Index, 1895–2015

Diese Abbildung zeigt die Jahreswerte des US Heat Wave Index von 1895 bis 2015. Die Daten umfassen die zusammenhängenden 48 Staaten.

Interpretation: Ein Indexwert von beispielsweise 0,2 könnte bedeuten, dass 20 Prozent des Landes eine Hitzewelle durchgemacht haben oder 10 Prozent des Landes zwei Hitzewellen oder eine andere Kombination von Frequenz und Fläche diesen Wert ergeben hat.

Leser sollten das Temperatur-Tool von der NYT verwenden, um modellierte Trends für ihre eigenen Heimatstädte zu überprüfen und sie dann mit beobachteten Temperaturdaten zu vergleichen. Die Ergebnisse könnten überraschend sein.

Gefunden auf The Daily Caller vom 02.09.2018

Übersetzt und Zusammengestellt von Andreas Demmig

http://dailycaller.com/2018/09/02/new-york-times-global-warming/

 

***

Ergänzung zu USA

Quelle: https://www.epa.gov/climate-indicators/climate-change-indicators-high-and-low-temperatures

Diese Grafik zeigt den prozentualen Anteil der Landfläche der zusammenhängenden 48 Staaten mit ungewöhnlich kalten Tageshöchst- und Tiefsttemperaturen in den Monaten Dezember, Januar und Februar. Die dünnen Linien repräsentieren einzelne Jahre, während die dicken Linien einen neunjährigen gewichteten Durchschnitt zeigen. Blaue Linien stellen Tageshöchstwerte dar, während violette Linien tägliche Tiefs darstellen. Der Begriff „ungewöhnlich“ bezieht sich in diesem Fall auf die langfristigen durchschnittlichen Bedingungen an jedem Standort.

 

Ergänzung deutsche Städte:

Die interaktive Grafik der NYT bringt auch Daten zu deutschen Städten.

Berlin, Potsdam, Frankfurt/ Main habe ich probiert.

Unten ausführlicher dargestellt für Potsdam.

Möglicherweise findet sich einer unserer Autoren oder Leser, der diese Grafik mit den Aufzeichnungen zu Potsdam vergleicht?

Als Sie in 1960 geboren wurden, so konnten Sie an zwei Tagen erwarten, Tage mit 32°C oder mehr zu bekommen.
Heutzutage können Sie an drei Tagen erwarten, Tage mit 32°C oder mehr zu bekommen.

Wenn Sie 80 Jahre alt sind, können Sie an fünf Tagen sehr warme Temperaturen erwarten. Die voraussichtliche Bandbreite beträgt 3 bis 9 Tage.

 




Korruptions­verdacht beim Welt­klimarat: Hat sich Südkorea die IPCC-Wahl „etwas kosten lassen“?

Bis heute kann sich Stocker diese Abstimmungsniederlage nicht richtig erklären. Als Naturwissenschaftler fand er sich viel geeigneter als den südkoreanischen Ökonomen. Hatte sich Stocker nicht jahrelang dafür eingesetzt, die Klimagefahr als eine der größten Bedrohungen der Menschheit einzustufen? Dabei war ihm meist jedes Mittel recht, bog sich die Fakten so, wie er sie gerade brauchte (siehe “IPCC-Berichts-Chef Thomas Stocker zeigt im Weltwoche-Interview unerklärliche Gedächtnislücken: Die Gesprächsanalyse” und “Führender IPCC-Wissenschaftler im Streitgespräch über die kalte Sonne: Thomas Stocker vs. Fritz Vahrenholt auf dem Berner Bundesplatz“).

Am 2. September 2018 strahlte die SRF-Reihe “reporter” ein Porträt Stockers aus. Titel der Sendung: Der Klimaforscher. Die Sendung ist als Video auf der SRF-Webseite verfügbar. Es lohnt sich wirklich dort einmal reinzuschauen, denn überraschenderweise stellen die Redakteure einige kritische Fragen, die Stocker mehr schlecht als recht parieren kann.

Den Rahmen der Doku bildet eine private Studienlustreise für ausgewählte Wissenschaftler und Künstler, die komplett von einer wohlhabenden schweizerischen Unternehmerin (Christiane Leister) bezahlt wurde. Die Filmemacher sprechen schmunzelnd von “unbezahlbaren Erlebnissen”. Bei der Rundreise kommen Linien- und auch Charterflugzeuge zum Einsatz, powered by petroleum. Stocker wird gefragt, wie er diese enormen CO2-Emissionen seiner Traumreise rechtfertigen könne, wo er doch die Bevölkerung zum Verzicht von Fernreisen auffordere. Seine Antwort ist enttäuschend: Die Millionärin würde ja die Emissionen finanziell kompensieren. Der Redakteur gibt zu Bedenken, dass dies als Ablasshandel verstanden werden könnte und das Reisen zum Privileg für Reiche machen würde. Stocker hat darauf keine richtige Antwort. Er behauptet, es wäre ja gar keine Spaßreise, sondern er hätte an der grönländischen Eisstation “East Grip” ja auch kurz mit Wissenschaftlern dort gesprochen. Der Redakteur reagiert prompt: Hätte er dort nicht auch anrufen können? Stocker verneint. Er hätte den Kollegen beim Gespräch ins Gesicht schauen wollen. Stocker macht keine gute Figur und gerät ins argumentative Schwimmen.

Die Sendung weist auf interessante Zusammenhänge hin. Ein schweizerischer Politiker räumt ein, dass die Klimaforschung vor Ort auch den schönen Vorteil mitbrächte, durch die “Hintertür” politischen Zugang zum Arktischen Rat zu erlangen. Wissenschaft nur als Alibiveranstaltung? Es ist schon kurios, dass sich Stocker für die Eiskerne in Grönland interessiert. Deren Temperaturgeschichte der letzten 10.000 Jahre zeigt nämlich eine hochinteressante Zyklik im 1000-Jahrestakt, die bisher kein einziges Klimamodell hat reproduzieren können. Klimamodellierer Stocker schweigt dazu.

Dann platzt auch noch eine kleine Bombe. Stocker wird auf den neuen IPCC-Chef aus Südkorea angesprochen. Was hält er von ihm? Stocker kann seine Enttäuschung nicht verbergen und erklärt gerade heraus, dass er ihn kritisch sehe, er sei zu wenig wissenschaftlich. Und dann wird er noch deutlicher: Er vermutet, dass die Südkoreaner ihren Kandidaten mit gekauften Stimmen durchgesetzt hätten. Es habe direkte Kontakte der Koreaner mit anderen Nationen gegeben, wobei “Versprechungen” gemacht wurden. Starker Tobak. Die SRF-Redaktion bat den IPCC um eine Stellungnahme zu den Vorwürfen. Wie nicht anders zu erwarten, stritt der IPCC jegliche Unregelmäßigkeiten ab. Die Wahl wäre sauber abgelaufen und alle Nationen hätten das Ergebnis akzeptiert.

War es vielleicht Stockers übergroße Neigung zum Klimaalarmismus, die letztendlich seine Wahl verhindert hat? Vielleicht bekamen einige Nationen Bedenken, jemanden an die Spitze des IPCC zu setzen, der die Klimawissenschaften als Religion anstatt ergebnisoffene Wissenschaft betrieb. Schwer von außen zu sagen.

In einem SRF-Begleitartikel zur Sendung schimmert durch, dass er durchaus Kritiker in der Wissenschaft hat, die sich aber aus verständlichen Karriere-Gründen bedeckt halten müssen:

Berufskollegen beschreiben Stocker als intellektuell herausragend, rhetorisch brillant und taktisch geschickt. Gleichzeitig hat er nicht nur Freunde unter Klimaforschern – was natürlich auch mit Neid zu tun haben kann. Zitieren lassen will sich niemand.

In Begleitartikel gibt es auch weitere Hinweise auf Stockers religiöse Neigung:

Stocker ist kontaktfreudig, hat Humor und eine einnehmende Art. Er interessiert sich nicht nur für Klimaforschung, sondern auch für religiöse Fragen, für nationale und internationale Politik und für Kunst.

Stocker deutet an, dass er durchaus Fragen per Email beantwortet. Allerdings müssen man sich auf EINE Email beschränken und dürfe dann auch nicht mehr nachhaken bzw. seine Antwort in Frage stellen:

Wenn er ein halbwegs höfliches Mail mit einer Frage bekomme, beantworte er es, sagt Stocker. In der Regel gehe es dann allerdings so weiter: Nach seiner Antwort folgten fünf weitere Fragen, bereits schärfer formuliert. Wer dann den Fehler mache, erneut zu antworten, der werde nicht mehr fertig. Kollegen hätten es versucht, wohlmeinend, ausdauernd – und am Ende erfolglos. Sie hätten keinen einzigen Kritiker überzeugt. Mit anderen Worten: reine Zeitverschwendung.

[…]

Damit das immer mehr Menschen klar wird, publizieren [Klimaskeptiker] Bossert und Hoffmann im Web fleißig Artikel und Videos. Gerne würden die beiden Stocker mit ihren Fragen konfrontieren. Das Problem sei allerdings, dass Stocker ihre Mails nicht beantworte. Sie gehen davon aus, dass er es nicht tut, weil er ihren Argumenten nicht gewachsen sei. Stocker sagt: Genau solche Leute meine er, wenn er davon rede, dass eine Antwort reine Zeitverschwendung sei.

Vielleicht hat der eine oder andere eine Frage und möchte das Angebot Stockers wahrnehmen. Hier seine Institutsseite. Eine höfliche Form der Email sollte selbstverständlich sein, da hat Stocker Recht. Der Ton macht die Musik. Der SRF hat Stocker neun Fragen vorgelegt und vier der Antworten veröffentlicht. Wie zu erwarten, hat sich SRF für diese Kritikerbefragung argumentativ schwache Fragen zu Strahlungsphysik, Hiatus und Basistemperaturniveau ausgesucht, die relativ leicht von Stocker neutralisiert bzw. als unglaubwürdig dargestellt werden können. Allerdings waren unter den ausgelassenen Fragen durchaus interessante Punkte dabei. Auf den Webseiten des Klimamanifest von Heiligenroth und EIKE kann man die anderen 5 Fragen und Antworten nachlesen. Hier eine Frage, bei der Stocker kalt erwischt wurde:

FRAGE: Das «2-Grad-Ziel» ist in aller Munde. Bei welchem globalen Absoluttemperaturwert wird der Anfang der „2-Grad-Ziel-Leitplanke“ definiert?

STOCKER: Die Absoluttemperatur ist in dieser Diskussion nicht relevant, sondern die Änderung bezüglich der vorindustriellen Temperatur.

Wir erleben Stocker sprachlos. Er zieht den Joker und behauptet keck, der Aspekt wäre irrelevant. Wirklich? Der IPCC sieht dies anders. In den Berichten wird das Basisniveau des 2-Grad-Ziels klar definiert. Es liegt am Ende der Kleinen Eiszeit, zwischen 1850-1900. Hätte Stocker dies eingeräumt, wäre klar geworden, dass es sich nicht etwa um einen Temperaturdurchschnittswert der letzten Jahrtausende handelt, sondern um eine außergewöhnliche Kältephase, nämlich die Kleine Eiszeit. Lüning & Vahrenholt 2017 haben die Problematik in einer Publikation in Frontiers in Earth Science detailliert analysiert (pdf kostenfrei hier, oben rechte “Download Article”):

Paläoklimatischer Zusammenhang und Referenz-Niveau des in Paris vereinbarten langfristigen 2°C bzw. 1,5°C-Ziels

Das im Dezember 2015 vereinbarte Abkommen schreibt fest, dass die Zunahme der globalen mittleren Temperatur deutlich unter 2°C „über dem präindustriellen Niveau“ gehalten werden muss und dass man sich bemüht, die Erwärmung unter 1,5°C über dem vorindustriellen Niveau zu halten. Um die Akzeptanz der Öffentlichkeit dieser Grenzen zu stärken, ist es wichtig, dieses Ziel und die Grundlagen, auf dem es beruht, in einen paläoklimatischen Zusammenhang der letzten 150.000 Jahre und im Besonderen der letzten 10.000 Jahre zu stellen (Holozän, gegenwärtiges Interglazial PIG). Intensive paläoklimatische Forschungen während des vorigen Jahrzehnts haben bestätigt, dass die präindustriellen Temperaturen hoch variabel waren, was in den Definitionen der der Grundlagen des Paläoklimas berücksichtigt werden muss. Das gegenwärtig herangezogene Referenz-Niveau 1850 bis 1900 repräsentiert das Ende der Kleinen Eiszeit LIA. Die LIA repräsentiert die kälteste Phase der letzten 10.000 Jahre, als die mittleren Temperaturen deutlich unter den Mittelwerten im Holozän lag. Damit ist es kaum gerechtfertigt, als repräsentative vorindustrielle Grundlage zu dienen. Das Temperaturniveau während des Zeitintervalls 1940 bis 1970 ergäbe ein besseres Referenz-Niveau, scheint dieser Wert doch grob die mittlere vorindustrielle Temperatur während der letzten beiden Jahrtausende zu repräsentieren. Stellt man die Klima-Grenzen in einen erweiterten paläoklimatischen Zusammenhang, wird dies zu zeigen helfen, dass die gewählten Klimaziele valide und gefährliche Extreme der bekannten natürlichen Bandbreite der Variabilität der Temperatur im Holozän sind.

Link: http://diekaltesonne.de/korruptionsverdacht-beim-weltklimarat-hat-sich-sudkorea-die-ipcc-wahl-etwas-kosten-lassen/

Dieser Beitrag ist zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung des Schluss-Absatzes durch Chris Frey EIKE




Heißer Sommer – Schweizer Medien – eigene Erfahrungen!

Nun ja, die Schweizer Medien sind noch nicht ganz frei, …..Lügen zu können wann sie es gerade wollen. Die BAZ und die Weltwoche sind echte Oppositionsblätter, davon die BAZ leider nicht mehr lange. Sie konnte sich unter der Leitung des FDP-lers Markus Somm im linken Stadtkanton Basel nicht durchsetzen. Die NZZ bringt immerhin noch ab und an mal einen guten Artikel. Aber generell träumen die Sozis hier das selbe wie die Linken in Deutschland.

Mann kann es am Konzert sehen welches unsere Linken in Zürich im Zuge von Chemnitz veranstalteten.

————————————-

Ich bin auf dem Bauernhof aufgewachsen.

Mein Vater hat Zeiten erlebt als man kaum brauchbare Wetterberichte kannte, ja die erst zu spät eintrafen, oder dann allenfalls am Radio gehört werden mussten.

Vater stand also immer Morgens um 5 auf und sah aus dem Fenster …… Wetter begutachten.

Im Gegensatz zu mir lebte er vom Wetter und hatte über Jahrzehnte jeden guten, besseren oder heissen Sommer ganz genau im Kopf gespeichert.

Auch die kalten Winter waren ihm präsent, die der 40-igerjahre usw. bis in die Neuzeit.

Und als die Klimahysterie losging sagte er nur, dass sei Unsinn alles sei wie immer, unregelmässig aber im Rahmen dessen was er und schon sein Vater über Jahrzehnte erlebt hatten.

Das selbe sagte er auch als in den 70-igern das Thema Waldsterben aufkam.

Während wir „Jungen“ dafür empfänglich waren, verwarf er das ganze aus langer Erfahrung, denn seiner Meinung nach waren die Wälder früher nie so schön wie eben in den 70-igern.

Den Wald besser pflegen wäre die Lösung, meinte er dazu….. aber das rentierte sich ja nicht mehr. Für ihn waren das Nutzflächen, für mich pure Erholung.

Als er ein Kind war, da waren die Wälder viel sauberer. Es waren Nutzflächen die intensiv genutzt wurden. Im negativen Sinne jedoch, denn damals wurde alles Totholz am Boden sofort aus dem Wald geräumt.

Viele Arbeiter und auch deren Frauen gingen in die Wälder und sammelten alles was am Boden lag auf, Bucherker, Eicheln, Äste, ja sogar das Laub. Brennholz war das Standard Heizmaterial. Viele Wälder sahen ganz anders aus wie heute, es gab kaum niedere Büsche, kaum etwas lag herum, jedes Ästchen kam noch ins „Pöscheli“.

Starb ein Baum ab ……er wurde sofort verwertet. Liegen blieb kaum etwas.

Als ich ein Junge war, da holten wir tote Bäume auch aus Waldstücken die in tiefen Flusstälern lagen, wir sägten sie im 1 m Stücke und trugen sie Stück für Stück  200 m hinauf. Heute …….. naja, niemand macht das noch, sowas ist für die jetzige Generation überhaupt nicht mehr vorstellbar.

Ich selber habe mehrere Hitzesommer erlebt, der diesjährige war aber bei weitem nicht der ausgeprägteste.

Für die ganz genauen Jahre kann ich nicht mehr bürgen, aber ungefär sollten sie stimmen. 1976 war so einer, damals waren hier wirklich alle Höhenzüge braun-beige. Ich bin als Kind mit Vater extra über die Höhenzüge gewandert damit wir uns das Ausmass ganz genau ansehen konnten. „Hundwilerhöhe“, alles braun, Kronberg das selbe, Chäserrugg / Gamserrugg usw. alles braun oben und in den Tälern nur wenig grün.

Dann gabs 2003 so einen markanten Sommer…….

Hingegen auch 1980 einen Sommer der 3 Monate fast nur aus Regen bestand. Ich hatte mir damals mein erstes Motrorrad gekauft, aber es regnete immer…..(((-:

Der Sommer dieses Jahr, also wirklich nichts ernstes…… wer meint der sei ungewöhnlich gewesen, der hat entweder keins oder nur ein sehr kurzes Gedächtnis.

Der Apfelbaum hier trägt dieses Jahr ausgesprochen gut.




U-Battery aus Europa

Interessant ist schon mal die Erschließung völlig neuer Marktsegmente durch die Reaktorleistung (hier 10 MWth und 4 MWel) und die nutzbare Temperatur (hier 750 °C). Diese neue Klasse wird als MMR (.micro modular reactor) bezeichnet. Wie schon die Bezeichnung „Uran-Batterie“ andeutet, wird ferner eine ununterbrochene Betriebszeit von mindestens 5 – 10 Jahren vorgesehen. Hiermit wird das Marktsegment der Kraft-Wärme-Kopplung auf der Basis von „Schiffsdieseln“ und kleinen Gasturbinen angestrebt. Ein sich in der Industrie immer weiter (steigende Strompreise und sinkende Versorgungssicherheit durch Wind und Sonne) verbreitendes Konzept. Hinzu kommen die Inselnetze in abgelegenen Regionen (Kleinstädte), Bergwerke und Produktionsplattformen auf dem Meer, Verdichterstationen in Pipelines usw. Hierfür kann ebenfalls auch die hohe Betriebstemperatur — selbst bei reiner Stromproduktion — von Vorteil sein, da sie problemlos Trockenkühlung (Wüstengebiete) erlaubt.

Die treibende Kraft hinter diesem Projekt ist — in diesem Sinne sicherlich nicht ganz zufällig — das Konsortium URENCO. Ein weltweiter Betreiber von Urananreicherungsanlagen. Solche Kaskaden aus Zentrifugen brauchen kontinuierlich gewaltige Mengen elektrische Energie. Man sucht also selbst nach einer Lösung für die immer teurere Versorgung.

Der Reaktor

Wieder ein neuer „Papierreaktor“ mehr, könnte man denken. Ganz so ist es aber nicht. Man hat von Anfang an auf erprobte Technik gesetzt. Es ist reine Entwicklungsarbeit — insbesondere für die Nachweise in einem erfolgreichen Genehmigungsverfahren — aber keine Forschung mehr zu leisten. Insofern ist der angestrebte Baubeginn 2024 durchaus realisierbar.

Fangen wir mit dem Brennstoff an. Es sind [TRISO] (TRISO) Brennelemente vorgesehen. Dieser Brennstofftyp ist bereits in mehreren Ländernerfolgreich angewendet worden. Diese Brennelemente überstehen problemlos Temperaturen von 1800 °C. Dadurch sind solche Reaktoren inhärent sicher. Gemeint ist damit, daß die Kettenreaktion auf jeden Fall infolge des Temperaturanstiegs zusammenbricht und eine Kernschmelzedurch die Nachzerfallswärme (Fukushima) ausgeschlossen ist. Man braucht somit keine Notkühlsysteme, dies spart Kosten und vor allem: Was man nicht hat, kann auch nicht kaputt gehen oder falsch bedient werden. Der Sicherheitsgewinn ist dadurch so groß, daß sich alle denkbaren Unfälle nur auf den Reaktor und sein schützendes Gebäude beschränken. Nennenswerte Radioaktivität kann nicht austreten und damit beschränken sich alle Sicherheitsanforderungen nur noch auf das Kraftwerksgelände selbst. Eine „revolutionäre Feststellung“, der sich die Genehmigungsbehörden langsam anschließen. Dies hat erhebliche Auswirkungen auf die möglichen Standorte, Versicherungsprämien etc. Ein nicht mehr umkehrbarer Schritt auf dem Weg zu einem „normalen Kraftwerk“ oder einer „üblichen Chemieanlage“. Die Errichtung solcher Reaktoren in unmittelbarer Nähe zu Städten (Fernwärme) oder Industrieanlagen (Chemiepark, Automobilwerk etc.) ist nur noch eine Frage der Zeit.

Als Kühlmittel ist Helium vorgesehen. Der Reaktorkern wird aus sechseckigen Brennelementen als massiver Block aufgebaut. Mit dieser Technik besitzt GB eine jahrzehntelange Erfahrung. Kein Land besitzt mehr Betriebsjahre mit Reaktorgraphit. Der Vorteil gegenüber einem Kugelhaufen sind definierte Kanäle für das Kühlmittel und die Regelstäbe. Vor allen Dingen ergibt sich aber kein Staubproblem aus dem Abrieb der Kugeln während des Betriebs. Die notwendigen Rohrleitungen und das Gebläse zur Umwälzung des Heliums bleiben sauber. Dies erleichtert etwaige Wartungs- und Reparaturarbeiten. Der komplette Reaktor kann in einer Fabrik gebaut und getestet werden und mit einem LKW einsatzbereit auf die Baustelle gebracht werden.

Als Brennstoff dient angereichertes Uran. Die Anreicherung (< 20% U235) erlaubt einen mehrjährigen Betrieb ohne einen Brennstoffwechsel („Batterie“). Ob der Brennstoff vor Ort im Kraftwerk gewechselt werden muß oder der gesamte Reaktor zurück zum Hersteller gebracht werden kann, ist noch nicht abschließend geklärt (Strahlenschutz). Der Ansatz einer „Batterie“ verringert jedenfalls die Größe eines etwaigen Brennelementenlagers am Kraftwerk und schließt eine mißbräuchliche Nutzung praktisch aus (Proliferation). Damit ist ein solches Kraftwerk auch problemlos in „zwielichtigen Staaten“ einsetzbar. Ferner verringert sich der Personalaufwand im Kraftwerk. Ein solches Kraftwerk wäre halbautomatisch und fernüberwacht betreibbar. Was den Umfang des erforderlichen Werkschutzes anbelangt, sind die Genehmigungsbehörden noch gefragt. Eine Chemieanlage — egal wie gefährlich — kommt heutzutage mit einem üblichen Werkschutz aus, während von Kernkraftwerken erwartet wird, eine komplette Privatarmee zu unterhalten. Alles Ausgeburten von „Atomkraftgegnern“ um die Kosten in die Höhe zu treiben. Verkauft wird so etwas als Schutz gegen den Terrorismus.

Der konventionelle Teil

Man plant keinen Dampfkreislauf, sondern eine Gasturbine als Antrieb des Generators. Kein ganz neuer Gedanke, aber bisher ist z. B. Südafrika an der Entwicklung einer Heliumturbine gescheitert. Helium ist thermodynamisch zu eigenwillig und außerdem ist bei einem Kugelhaufenreaktor mit einer radioaktiven Staubbelastung zu rechnen. Bei der U-Battery hat man sich deshalb für einen sekundären Kreislauf mit Stickstoff entschieden. Vordergründig kompliziert und verteuert ein zusätzlicher Wärmeübertrager zwischen Reaktorkreislauf (Helium) und Turbinenkreislauf (Stickstoff) das Kraftwerk, aber man hat es sekundärseitig nur noch mit einem sauberen und nicht strahlenden Gas zur beliebigen Verwendung zu tun. Stickstoff ist nahezu Luft (rund 78% N2) und man kann deshalb handelsübliche Gasturbinen verwenden. Auch an dieser Stelle erscheint das wirtschaftliche Risiko sehr gering. Der Wärmeübertrager Helium/Stickstoff übernimmt lediglich die Funktion der Brennkammer eines Flugzeugtriebwerkes (Leistungsklasse). Bei der vorgesehenen hohen Temperatur von 750°C des Stickstoffs bleibt nach der Turbine noch jegliche Freiheit für die Verwendung der Abwärme (Fernwärme, Prozessdampf etc.). Die immer noch hohe Temperatur am Austritt einer Gasturbine erlaubt problemlos eine Kühlung mit Umgebungsluft ohne große Verschlechterung des Wirkungsgrades. Ein immenser Vorteil für alle ariden Gebiete.

Die Projektierer

Eine zügige Verwirklichung scheint durch die Zusammensetzung der beteiligten Unternehmen nicht unwahrscheinlich: Amec Foster Wheeler (über 40000 Mitarbeiter in 50 Ländern) mit umfangreicher Erfahrung in Öl- und Gasprojekten. Cammel Laird als Werft. Laing O’Rourke als Ingenieurunternehmen. Atkins für Spezialtransporte. Rolls Royce als international führender Produzent von Gasturbinen (Flugzeuge und Schiffe), darüberhinaus mit umfangreicher Erfahrung in der Kerntechnik.

Bemerkenswert ist die Ausweitung des Projektes auf den Commonwealth. Kanada und Indien sind bereits dabei. Läßt der „Brexit“ hier grüßen? Nach bisherigem Stand der Dinge, könnte der erste Reaktor in Chalk River in Kanada gebaut werden. Dies ist auch kein Zufall, da in Kanada bereits über 200 potentielle Standorte für einen solchen MMR ermittelt wurden. Für diese potentiellen Kunden ist bereits ein neuartiges Geschäftsmodell in Arbeit: Sie bezahlen nur die gelieferte Wärme und und die elektrische Energie. Das Kraftwerk wird dann von einer Zweckgesellschaft finanziert, gebaut und betrieben. So kann dem Kunden das wirtschaftliche Risiko abgenommen werden. Es ist nicht anzunehmen, daß irgendein Bergwerk oder eine Ölraffinerie bereit ist in das „Abenteuer Kerntechnik“ einzusteigen. Andererseits sind solche sog. „Betreibermodelle“ in der einschlägigen Industrie lange bekannt und erprobt.

Noch ein paar Daten

Der Reaktor hat einen Durchmesser von etwa 1,8 m und eine Länge von etwa 6 m. Er ist damit problemlos auf einem LKW transportierbar. Das Helium soll einen Betriebsdruck von ca. 40 bar haben und eine Austrittstemperatur von 750 °C. Damit ergibt sich eine notwendige Wandstärke von unter 100 mm. Dies ist wichtig, weil hierfür keine speziellen Schmieden bzw. Rohlinge erforderlich sind. Nur wenige Unternehmen weltweit können demgegenüber Druckbehälter für Leichtwasserreaktoren schmieden.

Als Brennstoff soll auf knapp 20% angereichertes Uran (high assay, low enriched uranium (HALEU)) verwendet werden. Damit werden die TRISO-Kügelchen hergestellt, die zu Tabletten mit einer Höhe von ca. 40 mm und einem Außendurchmesser von ca. 26 mm gepreßt werden. Aus diesen werden die sechseckigen Brennelemente mit einer Kantenlänge von 36 cm und einer Höhe von 80 cm aufgebaut. Sie enthalten alle Kanäle für Regelstäbe, Instrumentierung usw. Der Kern des Reaktors besteht aus je 6 Brennelementen in 4 Lagen übereinander. Er beinhaltet etwa 200 kg Uran. Dies reicht für einen ununterbrochenen Vollastbetrieb von 5 Jahren.

Eine Doppelblockanlage (2 x 4 MWel) erfordert einen Bauplatz von ca. 10 x 12 m (Reaktoren, Wärmeübertrager und Turbinen im „Keller“, Halle für Wartungsarbeiten darüber). Hinzu käme noch Platz für Schaltanlagen, Kühler, Büros etc.

Es wird von Baukosten zwischen 45 bis 78 Millionen € für eine Doppelblockanlage ausgegangen (5600 bis 9750 €/KW). Das mag auf den ersten Blick hoch anmuten, aber man bewegt sich mit dieser Leistung von 8 MWel im Marktsegment der sog. Dieselmotoren-Kraftwerke. Hinzu kommen in entlegenen Standorten noch die meist höheren Kosten für den Dieselkraftstoff. Der für die „U-Battery“ ermittelte Strompreis von 9 Cent/KWh dürfte somit für den angepeilten Kundenkreis sehr attraktiv sein.

Inzwischen gibt es eine sehr enge Kooperation zwischen Kanada und GB. Ein paralleles, aber kooperatives Genehmigungsverfahren zeichnet sich ab. Weiterhin sind Indien, Japan, Polen, USA und Neuseeland bereits mit im Boot. Vielleicht schon die erste Morgendämmerung, wohin die Reise von GB nach dem Brexit geht? Jedenfalls nicht in das Rest-Europa, in dem unsere Kanzlerin so gut und gerne lebt.




Die „parallele Logik“ für eine Dekarbonisierung der Welt

Eine kritische Würdigung dieser Sendung ist hier auf EIKE zu finden.

Dieses große Lob gilt allein dem MONITOR-Forum, das gegenwärtig eine sachliche und sehr konträre Diskussion zwischen Befürwortern und Gegnern eines vorgeblich menschengemachten Klimawandels ermöglicht. Diese Diskussion wurde von der Redaktion zunächst mit einer Beschreibung der besagten Sendung eröffnet, also mit dem üblichen Skeptiker-Bashing. Aber dann, man lese und staune, konnten dort auf dem MONITOR-Forum konträre Ansichten völlig unzensiert ausgetauscht werden, wie es die dortigen Spielregeln versprechen, Zitat vom MONITOR-Forum:

Mitdenken. Mitreden. Mitstreiten.
Das MONITOR-Forum soll eine freie und unzensierte Plattform sein. Um Missbrauch zu verhindern wird das Forum moderiert – die Einträge werden erst nach vorheriger Kontrolle durch die Redaktion veröffentlicht. Wir bitten um Ihr Verständnis – und ggf. etwas Geduld
.“

Respekt, in diesem MONITOR-Forum werden vom Klimamainstream abweichende Meinungen tatsächlich nicht unterdrückt. Und damit kann man die Hoffnung verbinden, dass dieses Beispiel in der gesellschaftlichen Diskussion Schule machen möge. Denn man hebt eine gesellschaftliche Spaltung nicht auf, indem man einer kritischen Minderheit den Mund verbietet.

Im Verlauf dieser Diskussion auf dem MONITOR-Forum wurde aus der Vorgehensweise in der Studie “Quantifying the consensus on anthropogenic global warming in the scientific literature” von Cook at al. (2013) über einen 97%-Konsens für den vorgeblich menschengemachten Klimawandel (Anthropogenic Global Warming = AGW) eine „parallele Logik“ abgeleitet. Diese  „parallele Logik“ wurde dann als derjenige Hütchentrick entlarvt, mit dem aus einer verketteten Aussage (1)->(2)->(3) die verständnisstiftende Bezugsgröße (2) entfernt wird, um damit dann in der Öffentlichkeit eine „parallele Wahrheit“ (1)->(3) verbreiten zu können:

(1)    Zunächst wird eine Gruppe als 100%-Gesamtmenge (1) untersucht. Aus der zugrunde liegenden Fragestellung ergeben sich dann mehrere Teilmengen mit einem jeweils einheitlichen Spezifikum, die in ihrer Summe wiederum diese 100% ergeben.

(2)    Dann wird eine beliebige Teilmenge(2) mit einem ganz bestimmten Spezifikum ausgegliedert (1)->(2) und als neue 100%-Basis einer näheren Untersuchung unterzogen. Deren prozentuale Unter-Teilmengen beziehen sich dann in Summe ausschließlich auf die ausgegliederte Teilmenge (2).

(3)    Am Ende wird für eine dieser Unter-Teilmenge eine Aussage (3) abgeleitet und mit einem Prozentsatz aus der 100%-Teilmengenbasis (2) belegt, wobei der originäre Bezug (1)->(2)->(3) für den Wahrheitsgehalt dieser Aussage von entscheidender Bedeutung ist.

(4)    Die aus (1)->(2)->(3) abgeleitete Aussage bleibt also nur so lange wissenschaftlich gültig, wie die „Umetikettierung“ in Punkt (2) nicht verloren geht oder unterdrückt wird.

(5)    Und jetzt kommt der Hütchentrick der „parallelen Logik“ zum Tragen: Früher oder später wird die Aussage (1)->(2)->(3) einfach ohne die zwingende Einschränkung aus (2) direkt mit der ursprünglichen Gesamtmenge aus (1) in Beziehung gesetzt und führt zu einer ganz neuen „parallelen Wahrheit“ (1)->(3).

Vergleichen wir nun diese „parallele Logik“ mit dem Ergebnis von Cook et al. (2013):

(1)    Es wurden die Zusammenfassungen von 11.944 wissenschaftlichen Arbeiten aus der begutachteten wissenschaftlichen Literatur auf Aussagen zu AGW untersucht.

(2)    66,4 Prozent der Zusammenfassungen machten keine Angaben zu AGW und die verbleibenden 32,6 Prozent mit einer Position zu AGW wurden näher untersucht.

(3)    Von diesen 32,6% mit Aussagen zu AGW bestätigen 97,1% die AGW-Theorie.

Inzwischen wird das Ergebnis der Studie von Cook et al. (2013) aber öffentlich als 97%-Zustimmung aus der Gesamtmenge der dort untersuchten Klimaartikel und als Beweis für einen wissenschaftlichen 97%-AGW-Konsens verbreitet, so beispielsweise auch von Cook et al. (2016) selbst, wo man in der Kernaussage von allen publizierenden Klimawissenschaftlern spricht.

Die Differenz zwischen Propaganda und Wissenschaft beträgt am Beispiel von Cook et al. (2013) also genau 65,4%, nachfolgend der Beweis mittels konventioneller Logik:    

„Parallele Logik“ [%]: (1)->(3) mit 97,1% Zustimmung ohne Hinweis auf (2)

Konventionelle Logik [%]: (1)->(2)->(3) mit 97,1% Zustimmung aus 32,6% (1) = 31,7%

 [97,1% von Cook (2013) @Teilmenge(2)] – [31,7% von Cook (2013) @Gesamtmenge(1)] = 65,4%

Die mathematische Analyse verfügt genauso wenig über eine „parallele Logik“, wie sich die Wissenschaft selbst eine „höhere Wahrheit“ zuschreiben kann. Vielmehr hat sich die Wissenschaft im historischen Rückblick immer mehrheitlich mit demjenigen gesellschaftlichen System arrangiert, in dem sie tätig geworden ist. Die Unterscheidung zwischen Wahrheit und Ideologie unterliegt daher jedem Einzelnen von uns selbst. Man kann also entweder selbständig nachdenken, oder man muss eben alles glauben, was einem so erzählt wird.

Merke: „Wer nichts weiß, muss alles glauben(Marie von Ebner-Eschenbach)

Das 97-Prozent-Problem war übrigens schon vor langer Zeit einmal Thema hier im KS-Blog.

Der Beitrag erschien zuerst bei die kalte Sonne hier




Sommer­halbjahres-Nieder­schlag 2018

Extrem, aber nicht anomal

wäre wohl die passendere Bezeichnung. Dazu benötigt man allerdings keine (alarmistische) „Klimawandel-Fachperson“, sondern es reicht, sich die Daten des DWD anzusehen.

In der folgenden Grafik sieht man den Verlauf des Gesamtniederschlags Deutschland von April (als die Trockenheit anfing) bis zum August seit dem Jahr 1880 bis 2018.
Erkennbar gab es zwei Jahre mit gleich niedrigem, 1910 sogar mit niedrigerem Niederschlag und 1893 war er nur geringfügig stärker. Und ausgerechnet im Jahr 1975 – nachdem am 12.08.1974 kurz zuvor vom Spiegel die kommende Eiszeit ausgerufen wurde –, war der Niederschlag identisch gering. Die Regressionsgerade ist praktisch waagerecht und zeigt damit seit Beginn der Wetteraufzeichnungen keinen Änderungstrend.

Bild 1 Niederschlag April – August von 1881 – 2018. Grafik vom Autor erstellt. Datenquelle: DWD Zeitreihen und Trends

Nachdem gerade die „Alpenprawda“, SZ zu berichten wusste: [2] Heißer Sommer – Extrem ist das neue Normal, die Grafik der jährlichen Differenzen.
Weder hatte dieses Jahr die höchste Differenz, noch nehmen diese Differenzen als Extreme zu, wie es die deutlich fallende, lineare Regression zeigt. Man muss sich (wieder) fragen, woher die SZ ihre Informationen bekommt. Selbst recherchieren ist dieser Postille jedenfalls ein Gräuel. Es ist allerdings zu vermuten, dass die SZ-Redaktion wieder irgend einer Klimasimulation mehr glauben möchte als den gemessenen Daten.

Bild 2 Niederschlag April – August von 1881 – 2018, Differenz zum Vorjahr. Grafik vom Autor erstellt. Datenquelle: DWD Zeitreihen und Trends

Der Sommer 2018

Zur Ergänzung noch die Grafiken für den reinen Sommerzeitraum. Auch diese bestätigen die vorhergehenden Ergebnisse. Dass sich beim Niederschlag Extremvorhersagen selbst in mehr als 100jährigen Zeitreihen nicht aus dem Trendverlauf ableiten lassen, zeigt das Bild 5 wieder überdeutlich. Solche Tatsachen hält unsere „Klimawandelsachverständigen“ natürlich nicht davon ab, das Gegenteil zu behaupten.
Die Simulationsvorhersagen des DWD im letzten Bild sind (im Gegensatz zu den „Vorhersagen“ der „Klimawandelfachpersonen“) unspektakulär. Sie zeigen nur zusätzlich, dass fast alle Simulationsläufe den aktuellen Zustand schon deutlich verfehlen und die Simulationszukunft damit unglaubwürdig wird.

Bild 3 Niederschlag Sommer von 1881 – 2018 mit Trendgeraden. Grafik vom Autor erstellt. Datenquelle: DWD Zeitreihen und Trends

Bild 4 Niederschlag Sommer von 1881 – 2018 mit 30jährigem Mittelwertverlauf. Grafik vom Autor erstellt. Datenquelle: DWD Zeitreihen und Trends

Bild 5 Niederschlag Sommer von 1881 – 2018, Differenz zum Vorjahr mit Trendgeraden. Grafik vom Autor erstellt. Datenquelle: DWD Zeitreihen und Trends

Bild 6 Niederschlag Sommer von 1881 – 2018, mit Zufügung des Wertes 2018 durch den Autor. Datenquelle: DWD Klimaatlas

Sind die Vorboten der Klimakrise angekommen?

Es gibt die gezeigten Daten [5] – und es gibt Meinungen. Eine dazu exemplarisch. Mit einer Aussage dürfte diese „Fachperson“ allerdings recht haben: Deutschland ist für das tägliche Wetter (wie es früher bereits war) nicht mehr gerüstet [4] . Das zur Infrastruktur erforderliche Geld wird für anderes (sinnlos) ausgegeben.

Bild 7 Screenshot von der Homepage der GRÜNEN

Annalena Baerbock: … Waldbrände und trockene Sommer gab es immer schon, neu aber ist die Dimension. Die Hitzerekorde stehen, das sagen übergreifend renommierte Wissenschaftler – in deutlichem Zusammenhang mit der globalen Erwärmung durch zu hohen CO2-Ausstoß. Sie beobachten eine um das Fünffache gestiegene Zunahme von Rekordmonaten und -jahren. Allein in den letzten drei Jahren waren die Temperaturen um mehr als 0,85 Grad Celsius höher als im Durchschnitt der vergangenen hundert Jahre.

Das zeigt: Die Vorboten der Klimakrise sind angekommen. Mitten in Europa. Nicht mehr abstrakt, nicht mehr irgendwann, sondern hier und konkret. Und wir sind dafür nicht genug gerüstet. Spätestens jetzt muss klar sein: Klimaschutz ist ein hartes Thema, auch bei uns, eine der größten Herausforderungen dieser Zeit für Wohlstand und Sicherheit.

Quellen

[1] EIKE 30.08.2018: Die Irreführungen und Halbwahrheiten des ZDF-Fernsehprofessors Harald Lesch – eine Richtigstellung aus meteorologischer Sicht

[2] SZ 01. August 2018: Heißer Sommer Extrem ist das neue Normal

[3] EIKE 11. August 2018: Heutzutage geht der Bürger an seine Uni um konforme Desinformation zu erhalten

[4] EIKE 04.06.2018: Nun überschwemmt der Klimawandel bereits unsere Städte. Alternativ: Hat Deutschland kein Geld mehr, um sich gegen normale (Un-)Wetter zu schützen?

[5] EIKE 08. Juni 2018: Die Suche nach dem Klimawandel geht weiter. Denn in Deutschland ist er nicht zu finden




Sommer-Witterung 2018 : Eine Märchen-Stunde der Klima-Alarmisten

==========================================================

Klaus-Eckart Puls, Dipl. Meteorologe

Medien und Alarmisten in kollektivem Klima-Rausch :

„… Hitzesommer: Klimawandel passiert im Vorgarten“ [2] …„Umweltbundesamt fordert Hitze-Aktionspläne … mehr Anstrengungen in der Klimapolitik“ [3]… „Der Sommer, der nie endet“ [4]… „Der Klimaforscher Mojib Latif warnt davor, daß die derzeitigen Wetterverhältnisse schon bald  Normalität sein könnten ….“ [5] …

Diese  Beispiele aus dem diesjährigen sommerlichen Medien-Spektakel ließen sich hier hundertfach fortsetzen, aber jeder Leser ist denen in den Medien selbst begegnet – hier soll es reichen !

Um mit diesem hundertfachen meteorologischen Unfug aufzuräumen, genügt es, den meteorologischen Alt-Barden Jörg Kachelmann zu zitieren [6]:

„Wir konnten in vielen Medien all die frei erfundenen Räuber-Geschichten lesen – vom ‚Hitzering über der Nordhemisphäre‘ und daß es nun überall gleichzeitig Hitzerekorde geben würde, was in keiner Form der Wahrheit entsprach.“

u.w.a.a.O. “ … sei auch erwähnt, daß in dieser Woche im Mittleren Westen der USA neue Allzeit-Kälterekorde registriert wurden. Alle Berichte in wunderbar schrecklichen Farben, die von einer hemisphärischen Hitzedröhnung sprachen, waren schlicht gelogen es kann eben nie genug sein.

… und als fachlichen Hinweis und Beweis führt Kachelmann an : 

„Es war auch in diesem Jahr immer so, daß über die gesamte Nordhemisphäre die Gebiete mit überdurchschnittlichen und unterdurchschnittlichen Temperaturen ausglichen und entsprechend zu einer hemisphärischen Abweichung von rund 0 Grad führten, wie Kollege Ryan Maue darstellen konnte“ (==> Abb.1) :

Abb. 1 :  Globale Temperatur-Anomalien Sommer 2018

(Quelle: https://tinyurl.com/ycfttkx2; Markierungsring eingefügt)

Mit diesen wenigen Kachelmann-Sätzen und den dort angeführten Fakten ist das von ihm so genannte „Lügengebäude“ des Sommermärchens von dem medialen Klima-Katastrophen-Signal eigentlich schon erledigt.

Wir wollen aber dazu bei dieser Gelegenheit noch einige weitere meteorologische Aspekte anführen.

Meteorologische Aspekte

Der Antrieb des Witterungs-Geschehens in West- und Mittel-Europa ist die überwiegend West-Ost-gerichtete Höhenströmung über dem Atlantik – meist bekannt unter dem Begriff  „West-Wind-Zirkulation der gemäßigten Breiten“. Häufig herrschen in den Höhen von etwa 4000-8000 Metern in der Troposphäre Wind-Geschwindigkeiten von 300 … 400 … ja bis über 500 km/h. Daher ist für die Winde in der oberen Troposphäre auch der Begriff  Jetstreamgeläufig. In dieser Höhenströmung ziehen die in den Bodenwetterkarten dargestellten Tiefs über den Atlantik – sowohl auf der Nord- wie auch auf der Südhemisphäre (==> Abb. 2).

Abb. 2  – Westwindzonen

Entscheidend für unser Wetter und deren Abfolge ist immer die Intensität der Höhenströmung. Diese Höhenströmung ist niemals geradlinig oder gar laminar, sondern stark turbulent. Daher kommt es darin aus Gründen der Instabilität eines stochastischen physikalischen Systems rasch zu mehr oder weniger ausgeprägten Schwingungen, genannt „Planetarische Wellen“.  Etwas schematisiert ist das in Abb. 3 dargestellt :

Abb. 3 : Planetarische Wellen

In der Fachsprache der Meteorologie sagt man :

Die Boden-Tiefs entstehen in den Divergenzen/Difluenzen der Höhenströmung und werden von dieser nach Osten gesteuert.

Die Bodentiefs und deren Wetter sind – salopp gesagt – die „Abfallprodukte“ des Höhen-Wetters.

Diese „Planetarischen Wellen“ der West-Wind-Zirkulation schwingen mit ihren Hochs + Tiefs überwiegend  West ==> Ost. Manchmal kommen diese Planetarischen Wellen zum „Stillstand“ – über Tage oder Wochen oder in seltenen Fällen sogar über einige Monate.

Eine solche „Blockierungs-Wetterlage“ hatten wir im Sommer 2018 (==> Abb. 4) :

Abb. 4 : Höhenwetterkarte 24.07.2018 (Textfelder eingefügt)

Derartige Wetterlagen sind in den Archiven der Wetterdienste dokumentiert, sowie in Proxydaten und alten Chroniken sogar über Jahrhunderte und Jahrtausende !

Dazu wurde in diesem Sommer 2018 in Medien verschiedentlich das Jahr 1540 mit extremer Dürre und Hitze zitiert [7]: „… nach Quellenaussagen soll es in 26 Wochen (Anm.: über 6 Monate !) an nur 5 Tagen ‚Tropflesregen‘ gegeben haben. Die Hitze des Sommers von 1540 ist das am besten belegte Ereignis im 16. Jahrhundert und kann als eines der Jahrtausend-Ereignisse angesehen werden.“

Vergleichbare Wetterlagen – in schwächer ausgeprägter Form – hat es durchaus auch in jüngerer Zeit gegeben, z.B. in den Sommern 1959, 1975, 1976, 2003 … und eben 2018.

Solche „Blockierungs-Wetterlagen“ können zu allen Jahreszeiten entstehen. Häufig liegt dann das „ortsfeste“ Hoch über Skandinavien und/oder Mitteleuropa. Die Folgen sind in Deutschland und anderen Teilen Europas im Winter dann länger andauernde strenge Kälte, im Sommer anhaltende Hitze und Dürre – wie gehabt in 2018!

Alles nichts Besonderes, alles wie gehabt, alles schon x-mal dagewesen ! So war der Sommer 2018 in Deutschland insgesamt weder bei der Mitteltemperatur noch bei der Dürre ein neuer „Rekord-Sommer“ – abgesehen von einigen lokalen/regionalen Meßwerten. [1]

Säkularer Dürre-Trend im sommerlichen Deutschland ?  keine Spur !

Von den Klima-Alarmisten und den konform gehenden Medien wurden nun anläßlich eines einzelnen Sommers Heißzeiten und Dürrezeiten für die nächsten 100 Jahre und darüber hinaus prophezeit [8]:

„Neue Klimawandel-Studie Der Erde droht eine „Heißzeit“ …“ Dabei ist mit deutlich häufigeren und stärkeren Extremereignissen wie Hitzewellen, Dürren und Überflutungen zu rechnen.“

Nur „leider“ – die Wetterdienste und selbst der Klimarat IPCC finden dazu keine säkularen Trends.

Für Deutschland zeigen das die Daten des DWD (==> Abb. 5 + 6) :

Abb. 5 [9]: Niederschlagsmittel D (Sommer: Juni+Juli+August 1881-2018)

DWD-PM (https://www.dwd.de/) v. 30.08.2018 für Sommer 2018: 130 mm

Betrachtet man den Frühsommer und den Hochsommer mit den Monaten Mai-Juli,  d a n n  zeigt sich in Deutschland sogar eine leichte säkulare Niederschlags-Zunahme, allerdings nicht signifikant :

Abb. 6 : säkularer Niederschlagstrend Mai-Juli in Deutschland

Auch der Klimarat IPCC findet nichts dergleichen, keine globalen Dürre-Trends [10] :

”There is low confidence in a global-scale observed trend in drought or dryness“.

Sommer 2018 – alles Klimakatastrophe, oder was ?

Dieser Sommer hat bei den Klima-Alarmisten und deren willfährigen Medien Schnappatmung bis zur Hysterie ausgelöst, über die man sich als Meteorologe nur die Augen reiben kann [11] :

Weltuntergang voraus: Alarmisten der Klima-Sekte in völliger Sommer-Verzückung“ :

“Eine Schwalbe macht noch keinen Sommer” sagt ein Sprichwort. Das gilt für gewöhnlich in allen Bereichen. Mit einer Ausnahme: Der “Klimaforschung”. Dort gelten kalte Winter und nasse Sommer nämlich stets als “Einzelereignisse” oder “Wetter”, während schon zwei Tage Sonne am Stück als ultimativer Beweis einer angeblich menschen-gemachten Klima-Erwärmung gewertet werden.“

Dem ist nichts hinzuzufügen.

Einer Hypothese zufolge „sollen“ nun die Blockierungs-Wetterlagen zunehmen – selbstverständlich wegen des anthropogenen Klimawandels. Das geht so: Die moderate säkulare Erderwärmung von weniger als 1 Grad ist bisher in der Arktis etwas stärker ausgefallen als in den gemäßigten Breiten des Nordatlantik. Dadurch „soll“ sich der mittlere Temperaturgradient und dann der Luftdruckgradient zwischen den arktischen Regionen und der Westwindzone der gemäßigten Breiten etwas abschwächen, mit der Folge von häufigeren Blockierungs-Wetterlagen.

Das ist hypothetisch und theoretisch nicht ganz unplausibel.

J e d o c h :

Das ist durch nichts bewiesen. Eine Statistik mit signifikanter Aussage ist dazu nicht bekannt. Das ganze Gegenteil zeigen die Meßwerte.

Der diesbezügliche Index der Nord-Atlantischen Oszillation ( NAO [12]) zeigt keinen derartigen Trend (==> Abb. 7) :

Abb. 7 : Zirkulations-Index NAO [12] :

Natürliches stochastisches Chaos statt Klima-Trend

Die Krone für den besten intellektuellen Verriß all diesen klima-alarmistischen Sommer-Irrsinns gebührt denn wohl FRITZ VAHRENHOLT [13]:

„Aussagen über klimatische Einflüsse natürlichen oder anthropogenen Ursprungs kann man eben nur über eine Zeitdauer von 30 Jahren und mehr treffen. …

In der Hitze des nordeuropäischen Sommers hatte man einen anderen Eindruck. Da reichte schon ein heißer Juli in einer Region des Erdballs, um den letzten Beweis der Klima-Katastrophe hervor zu zaubern. …

Entscheidend ist die globale Mitteltemperatur. Und da sind wir in 2018 im Sinkflug. Auch der August 2018 hat das eindrucksvoll belegt. Die heute (02.09.2018) bekannt gegebenen Daten der satelliten-gestützten UAH-Messungen [14]  für August zeigen nur noch eine um 0,19 °C  große Abweichung vom 30-jährigen Mittelwert. …

Das gilt auch für eine Arbeit [15], die in der Schwüle des Juli Furore machte. Eine Reihe von Wissenschaftlern um den bekannten Hans Joachim Schellnhuber entwerfen darin eine Szenario, in dem bestimmte Kipp-Elemente das Klima der Erde in neue, unentrinnbare heiße Gleichgewichte treiben. Das Entscheidende steht in der Schlußfolgerung : Zu vermeiden geht das nur durch eine neue “Erdsystemverwaltung”. Der Leser war gespannt auf Berechnungen, Softwarecodes, empirische Herleitungen – und findet nichts dergleichen :

Reine Spekulation. Science Fiction. Hokus-Pokus.“

… und weiter Fritz Vahrenholt:

… „Es ist schlimm, wie dilettantisch unsere Bundesregierung agiert, es ist schlimm, wie eindimensional sie Kommissionen besetzt, und es ist schlimm, daß niemand in dieser Bundesregierung den Mut hat, Vorschläge, die auf falschen Behauptungen beruhen, als das zu bezeichnen, was es ist :

Politische Propaganda sich selbst überschätzender Wissenschaftler.
Niemand widerspricht. Es ist unfaßbar.“

F a z i t :

==================================================================

Q u e l l e n :

[1]https://www.dwd.de/DE/presse/pressemitteilungen/DE/2018/20180830_deutschlandwetter_sommer_news.html?nn=16210

[2]  taz: http://www.taz.de/!5530544/

[3]  FR:  http://www.fr.de/wissen/klimawandel/klimawandel/rekord-sommer-umweltbundesamt-fordert-hitze-aktionsplaene-a-1553983

[4]  DER SPIEGEL, 32/2018, Titel

[5]  BZ: www.berliner-zeitung.de

[6]  https://www.t-online.de/nachrichten/panorama/id_84212752/wetter-in-deutschland-kachelmann-ueber-den-klimawandel-kein-sommermaerchen.html

[7]  https://eike.institute/2018/08/04/die-jahrelange-beispiellose-hitze-und-duerreperiode-in-europa-um-1540-ein-worst-case/

[8]  https://www.zdf.de/nachrichten/heute/interview-studie-erde-droht-heisszeit-100.html

[9]  https://eike.institute/2018/08/29/der-heisse-sommer-2018-ein-dauerbrenner-ist-nun-geschichte/

[10]  IPCC 2013, AR5, WGI, Technical Summery, Seite 50, pdf-Seite 66

[11]  https://www.crash-news.com/2018/08/02/weltuntergang-voraus-alarmisten-der-klima-sekte-in-voelliger-sommerverzueckung/

[12]  https://crudata.uea.ac.uk/cru/data/nao/img/idl_nao_base1951-1980_Annual_300dpi.png

[13]  http://diekaltesonne.de/fritz-vahrenholts-sonnenkolumne-818-ein-heisser-sommer/

[14]  http://www.drroyspencer.com/latest-global-temperatures/

[15]  http://www.pnas.org/content/early/2018/07/31/1810141115

============================================================

PDF zum Artikel :     Puls.Sommer2018.Tx.kpl.(X)




Schweizer Medien sind das neue Westfernsehen! Oderrrr??

Am 02. September 2018 um 21Uhr40 wurde im Schweizer Fernsehen ein 23-minütiger Film-Bericht über den Schweizer Klimaforscher Thomas Stocker gezeigt, an dessen Dreharbeiten wir vom „Klimamanifest-von-Heiligenroth“ seit April 2018 mitbeteiligt waren und wo wir auch mit unserer Kritik zu Wort kommen, hier: [SRF Reporter, Youtube, ab Minute 4:40.] Auch wenn wir uns als Ergebnis in dem am 02.09.2018 gesendeten SRF-Filmbericht etwas mehr Detail-Kritik an den Thesen von Thomas Stocker gewünscht hätten, so ist doch der Filmbericht in Verbindung mit den beiden ergänzenden SRF-Blogtexten von Simon Christen eine im Vergleich zu ARD, ZDF (und auch ORF) wohltuend-hinterfragende Auseinandersetzung mit den abstrusen Thesen eines bekannten Klima(folgen)forschers, in diesem Fall Thomas Stocker:

Klimaforscher Thomas Stocker und seine Gegner

Klimaforscher Thomas Stocker beantwortet Fragen von Kritikern

Auf der obigen SRF-Blogwebseite sind nur vier (4) Fragen und Antworten an und von Thomas Stocker aufgelistet. Insgesamt hatte der SRF-Autor Simon Christen dem Schweizer Klimaforscher Thomas Stocker aber insgesamt neun (9) Fragen gestellt, die wir ergänzend ebenfalls kommentiert bzw. beantwortet haben und die wir nachfolgend alle neun (9) veröffentlichen und zusätzlich mit Beleg-Links ausgestattet haben:

#1
Die Schweizer Bevölkerung ist über den Klimawandel besorgt, wie eine Studie der Uni Lausanne zeigt. Aber nur 44% der Befragten glauben, dass der Klimawandel auf menschliche Aktivitäten zurückzuführen ist. Wie erklären Sie sich das?

Thomas Stocker, Uni Bern:
Diese Zahl verwundert mich, da SFR eine kürzliche Umfrage gemacht hat, in welcher die Sorge um den menschgemachten Klimawandel Platz #1 der Schweizer Bevölkerung einnahm. Generell beobachte ich aber, dass die öffentliche Meinung zu dieser Frage recht schnellen Veränderungen in beide Richtungen unterworfen ist. Deshalb muss die Wissenschaft und die Medien noch besser und differenzierter informieren.

Rainer Hoffmann, www.klimamanifest.ch
Es ist stattdessen wahrzunehmen, dass immer mehr Menschen die Widersprüche begreifen, die die Klima(folgen)forscher seit über 30 Jahren bei Ihren Thesen über die angeblich gefährliche globale Erwärmung fabrizieren. Vergleicht man die Begründungen der Klimafolgenforscher aus den 1980er-Jahren für die angebliche Existenz einer gefährlichen globalen Erwärmung, insbesondere aus der Zeit seit Gründung des IPCC, des Weltklimarates, so stehen diese Begründungen im krassen Gegensatz zu den heute publizierten Begründungen der Klima(folgen)forscher. Diese grundlegenden Widersprüche in den Begründungen, die wir auch mit zunehmenden Erfolg öffentlich machen, erkennen und begreifen immer mehr Menschen, da es auch einfachste logische Widersprüche sind.

#2
Die «Klima-Zweifler» lassen sich grob in 2 Gruppen einteilen. Die einen sagen: Es gibt keinen Zusammenhang zwischen der Erderwärmung und menschlichen Aktivitäten. Die anderen sagen: Es gibt einen Zusammenhang, aber er wird stark übertrieben – ergänzt wird die Aussage mit dem Hinweis darauf, dass nur 3% des CO2 in der Atmosphäre menschgemacht seien. Der Einfluss könne also gar nicht gross sein. Was sagen Sie dazu?

Thomas Stocker, Uni Bern:
Beide Gruppen stellen Behauptungen auf, die keine wissenschaftliche Basis haben. Die Behauptung der Gruppe 1 ist klar widerlegt durch tausende von wissenschaftliche Studien, die in den letzten 50 publiziert wurden, die von den Wissenschaftern vor der Publikation kritisch begutachtet, und im Rahmen der IPCC Berichte gründlich beurteilt wurden. Diese Studien umfassen die theoretischen Grundlagen, Messungen der letzten 150 Jahre in der Atmosphäre und im Ozean, aber auch die paläoklimatischen Informationen der letzten 40 Millionen Jahre.

Die Behauptung der Gruppe 2 ist ebenfalls falsch: Der Anstieg der atmosphärischen Konzentration von CO2 seit 1750 ist vollständig menschgemacht durch die Verbrennung von Kohle, Erdöl und Erdgas, sowie die Abholzung. Das hat zu einer gemessenen Erhöhung der CO2 Konzentration um 35% geführt. Heute ist die CO2 Konzentration höher als je zuvor in den letzten 800’000 Jahren.

Neben der Konzentration von CO2 ist diejenige des drittwichtigsten Treibhausgases, Methan, seit 1750 sogar um 150% angestiegen!

Rainer Hoffmann, www.klimamanifest.ch
Man benötigt keine (natur-) wissenschaftliche Ausbildung, um die Widersprüche in den Behauptungen der Klima(folgen)forschung zu erkennen, sondern nur ein gesundes logisches Verständnis bzw. einen gesunden Menschenverstand. Und „tausende von wissenschaftliche Studien“ sind definitiv kein Beweis für die Kausalität des menschengemachten Kohlendioxids (oder anderer angeblicher Treibhausgase), die bodennahe Luft messbar zu erwärmen. Denn das notwendige wissenschaftliche Experiment, dass die Hypothese von der atmosphärischen Wärmerückstrahlung durch CO2 beweist, fehlt bis heute. Damit ist auch die obigen Antwort von Thomas Stocker zur „kritischen Gruppe 2“ als argumentationslos und inhaltsleer entlarvt, weil Thomas Stocker nur eine Korrelation als angebliche Begründung beschreibt, aber eben keine Kausalität, die aber als Beweis für den angeblichen Einfluss der menschgemachten „Treibhausgase“ zwingend wissenschaftlich notwendig ist. Und das angeblich so effektive und angeblich Fehler vermeidende „peer-reviewed-Verfahren“, auf das Thomas Stocker in seiner Antwort anspielt, ist letztendlich spätestens seit Öffentlichwerdung des „Himalaya-Fehlers“ im 4. IPCC-Bericht (und weiterer Fehler) im Januar 2010 kläglich gescheitert. Und in diesen Tagen wurde bekannt, dass z.B. Hans Joachim Schellnhuber, der bekannte deutsche „Klimapapst“ die peer-reviewed Begutachter mancher seiner Publikationen selbst aussucht. Damit ist dokumentiert, dass dieses „peer-reviewed-Verfahren“ der Klima(folgen)forscher nur Augenwischerei und Täuschung der Öffentlichkeit ist

#3
Diejenigen, die den Zusammenhang zwischen CO2 und Erderwärmung bestreiten, sagen: In der Physik müssten Theorien bewiesen werden. Es existiere aber weltweit noch kein Experiment, in dem nachgewiesen werden konnte, dass die erdnahen Luftschichten infolge CO2 erwärmt werden. Ihr Kommentar?

Thomas Stocker, Uni Bern (1. Antwort):
Das Experiment findet seit Millionen von Jahren in der Atmosphäre statt, denn ohne Treibhausgase (Wasserdampf und CO2, plus weitere Spurengase) wäre die mittlere Temperatur an der Erdoberfläche ca –15°C, und Leben wäre nicht möglich. Das ist der natürliche Treibhauseffekt der Erdatmosphäre.

Rainer Hoffmann, www.klimamanifest.ch
Auch diese Antwort von Thomas Stocker zeigt leider, dass er die eigentliche Herleitung des angeblichen „Treibhauseffektes“ nicht kennt. Denn „-15°C“ sind falsch, denn die mittlere Temperatur an der Erdoberfläche wurde mit „-18°C“ behauptet und von dem Rückstrahlungswert „240 W“ aus der Stefan-Boltzmann-Strahlungswert-Tabelle abgeleitet. Thomas Stocker hat satte 3 Grad (Differenz -15°C zu -18°C) einfach „wegretouschiert“, und DAS, wo doch die Klima(folgen)forschung alles daran setzt, dass die Weltöffentlichkeit eine angeblich so wichtige „2-Grad-Ziel-Leitplanke“ endlich ernst nehmen soll. Zum wiederholten Male stellen wir fest, dass Thomas Stocker seine eigene Wissenschaft nicht korrekt und nicht-logisch-konsistent erklären kann. Das ist z.B. so ein Widerspruch, von denen ich oben bei meinen Antworten bereits gesprochen hatte. Über diesen und weitere Widersprüche in den Behauptungen von Thomas Stocker haben wir auch bereits ein eigenes Video gemacht.

Am 30.08.2018, 8:32 erhielten wir von Simon Christen (SRF) die folgende Nachricht:

Stocker hat soeben seine Antwort […] korrigiert. Es müsse nicht -15 Grad, sondern -18,3 Grad heissen.
Er habe sich hier selbst falsch zitiert:
http://climatehomes.unibe.ch/~stocker/papers/stocker18icm.pdf …

Damit sieht die (2.) Antwort dann von Thomas Stocker zu dieser Frage zwangsläufig wie folgt aus:

Thomas Stocker, Uni Bern (2. Antwort):
Das Experiment findet seit Millionen von Jahren in der Atmosphäre statt, denn ohne Treibhausgase (Wasserdampf und CO2, plus weitere Spurengase) wäre die mittlere Temperatur an der Erdoberfläche ca –18,3°C, und Leben wäre nicht möglich. Das ist der natürliche Treibhauseffekt der Erdatmosphäre.

Rainer Hoffmann, www.klimamanifest.ch
Diese Antwort von Thomas Stocker zeigt leider, dass er die eigentliche Herleitung des angeblichen „Treibhauseffektes“ nicht kennt. Denn „-18,3°C“ (Stocker vorher: „-15°C“) sind nach offizieller Lehrmeinung, die sogar auch in Schulbüchern nachzulesen ist, auch falsch. Denn bezeichnend ist, dass Stocker für die „-18,3°C“ keine andere Quelle angibt, ausser seine eigene Publikation. Denn die mittlere Temperatur an der Erdoberfläche „ohne Atmosphäre“ wurde mit genau „-18°C“ behauptet und explizit von dem Rückstrahlungswert „240 W“ aus der Stefan-Boltzmann-Strahlungswert-Tabelle abgeleitet. Thomas Stocker hat also 0,3 Grad (Differenz: -18°C zu -18,3°C) einfach „wegretouschiert“, und DAS, wo doch die Klima(folgen)forschung alles daran setzt, dass die Weltöffentlichkeit eine angeblich so wichtige „2-Grad-Ziel-Leitplanke“ mit jeder wichtigen Nachkommenstellen-Änderung endlich ernst nehmen soll. Man muss wissen: Thomas Stocker bindet die „-18,3°C“ in seinen Publikationen in einen vollständigen Zusammenhang wie folgt ein:

„Wäre die Erde ein perfekter schwarzerKörper, also e =1, so würde die Temperatur –18.3°C betragen. Die ca. +33°C sind dem natürlichen Treibhauseffekt der Erde zuzuschreiben, der hauptsächlich durch Wasserdampf verursacht wird.“

Da aber jedes Kind weiss, dass die Erde bekanntlich kein „perfekter schwarzer Körper“ ist, ist zwingend anzunehmen, dass die Klima(forscher)forscher sich bei dieser Argumentation ein „Möchte-Gern-Konstrukt“ gebastelt haben. Aber wenn man dieses „Konstrukt“ mal trotzdem als korrekt voraussetzt, ist zu beachten, dass der globale Absoluttemperaturwert aus dem natürlichen Treibhauseffekt (kurz: THE) – nach Stocker – bei 14,7°C (-18,3°C + 33°C = 14,7°C) liegen würde, was gleichwohl bedeutet, dass sich die Erdmitteltemperatur in den letzten über 150 Jahren nur um 0,1°C (wenn überhaupt) über ein gefährliches Mass hinaus erhöht hat, da die WMO in Genf für die Jahre 2016 und 2017 eine absolute Globaltemperatur von rund 14,8°C [2016: 14,83°C und 2017: 14,76°C] vermeldet hatte. Stocker bestätigt also mit seiner heutigen Antwort, dass die Menschheit mit dem angeblich mensch-verstärkten Treibhauseffekt eine gefährliche globale Erderwärmung seit über 150 Jahren, d.h. seit Beginn der Industrialisierung, lediglich bei höchstens 0,1°C liegt (14,8°C [WMO] – 14,7°C [THE lt. Stocker]) und eben nicht bei 0,8°C bis 1°C, was aber Klima(folgen)forscher laufend in den (TV-)Medien behaupten. Wenn der natürliche Treibhauseffekt (THE) aber bei 15°C (anstatt: 14,7°C lt. Stocker) definiert wird, wie es einschlägige und offizielle wissenschaftliche Publikationen bis heute ausweisen, gibt es sogar per definitionem seit über 150 Jahren überhaupt keine gefährliche Erderwärmung. (siehe dazu auch: #7)

Video nicht mehr verfügbar

 

 

Paul Bossert, www.klimamanifest.ch
Thomas Stocker weicht in Sachen wissenschaftlicher Beweisführung aus, mit dem Hinweis auf die angebliche Treibhausgas-Hypothese. Thomas Stocker muss den wissenschaftlichen experimentellen Beweis erbringen, dass das CO2 die erdnahen Luftschichten erwärmt. So will es die wissenschaftliche Terminologie der Physik.

 

 

#4
Zudem sagen diese Kreise, die Infrarot-Rückstrahlungstheorie sei nicht möglich, weil damit der zweite Hauptsatz der Thermodynamik verletzt werde. Werde auf dieser Theorie beharrt, wäre ein Perpetuum-Mobile zweiter Ordnung möglich, was aber bekanntermassen niemals funktionieren werde. Was sagen Sie dazu?

Thomas Stocker, Uni Bern:
Der natürliche Treibhauseffekt, verursacht durch die Infrarot-Rückstrahlung durch die Treibhausgase in der Atmosphäre (vor allem H2O und CO2), zeigt deutlich, dass der Treibhauseffekt, sowohl der natürliche menschgemachte, sehr wohl im Einklang mit der Thermodynamik ist. Dieselbe Physik gilt für den zusätzlichen Treibhauseffekt, der durch die Erhöhung der Treibhausgaskonzentrationen zustande kommt.

Die Infrarot-Rückstrahlung wird weltweit gemessen und zeigt, in Übereinstimmung mit dem durch menschliche Aktivitäten verstärkten Treibhauseffekt, einen deutlichen Anstieg seit Messbeginn.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker ist mit seiner Antwort definitiv nicht in der Lage, den Vorwurf der Verletzung des zweiten Hauptsatzes der Themodynamik bei der Hypothese vom Treibhauseffekt zu entkräften.

Dabei lässt sich bereits bei den wissenschaftlichen Erklärungen zu „Der natürliche Treibhauseffekt“ von Bakan/Raschke aus dem Jahr 2002, auf die auch ein Stefan Rahmstorf häufig verweist, und die auch ein Mojib Latif in seinen Büchern zum Klimawandel nachweislich verwendet, dokumentieren, dass der angebliche Treibhauseffekt auf einer Iteration, d.h. auf einen wissenschaftlich unstatthaften Zirkelschluss basiert. Der angebliche Treibhauseffekt wird nur mit sich selbst begründet und wird bis heute nicht – nach den sonst üblichen wissenschaftlichen Standards – erklärt. Beispiel: So findet sich z.B. auch in Publikationen von Thomas Stocker die bekannte globale Energiebilanzgrafik mit einer angeblichen Bodenabstrahlung von 396 W/m² [390 W/m²], die gleichbedeutend ist mit einer Bodentemperatur von 16°C [15°C] nach dem Stefan-Boltzmann-Gesetz. Diese „16°C“ [15°C] können aber alleine schon durch das Stefan-Boltzmann-Gesetz begründet (denn die „-18°C“ wurden mit der gleichen Logik begründet) und hergeleitet werden, trotzdem behauptet die Klima(folgen)forschung, diese „16°C“ [15°C] seien die Ursache für einen angeblichen „Treibhauseffekt“. In diesem Sachverhalt steckt die wissenschaftlich-unstatthafte Iteration und (mindestens) ein logischer Widerspruch, auf den der angebliche Treibhauseffekt basiert.

Paul Bossert, www.klimamanifest.ch
Thomas Stocker glaubt an eine Infrarot Rückstrahlung, obwohl es auf der Welt noch keinen einzigen Thermo-Scanner gibt, der diese so genannte atmosphärische Gegenstrahlung messen kann. Die von den „Klimaforschern“ verwendeten Pyranometer und Pyrgeometer (z.B. von Kipp & Zonen) sind für eine Rückstrahlungsmessung nicht geeignet. Dass eine nichtmessbare Rückstrahlung die Erde erwärmen soll, kann Thomas Stocker wissenschaftlich nicht beweisen. Gemäss IPCC beträgt diese Rückstrahlung 342 W/m2. Das ist mehr als die gesamte Sonnenstrahlung von 340 W/m2. Wäre diese Strahlung vorhanden, könnte weltweit auf Heizungen verzichtet werden. Dass die Wärmeabstrahlung der Erde [398 W/m²] um 58 W/m2 grösser als die Sonneneinstrahlung [340 W/m²] sein soll, ist ebenfalls nicht nachvollziehbar.

aus: 5. IPCC-Bericht 2013 (deutsche Übersetzungen von P. Bossert)

#5
Die Erderwärmung wird in einer Verlaufkurve der «globalen Mitteltemperatur» ausgedrückt. Was ist das genau?

Thomas Stocker, Uni Bern:
Das ist eine mathematische Grösse, die aus Millionen von Thermometermessungen berechnet wird.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker verschleiert mit seiner Antwort, dass die „Millionen von Thermometermessungen“ trotzdem nur in Wahrheit auf wenigen Tausend Messstationen weltweit basieren, die in Wahrheit nicht in der Lage sind, eine „globale Mitteltemperatur“ in notwendiger Weise objektiv und glaubwürdig abzubilden. So gibt es zum Beispiel grosse Gebiete auf den Weltmeeren und in der Antarktis, wo überhaupt keine Messstationen vorhanden sind.


#6

In den Jahren 1988 bis 1995, also in den Anfangsjahren des Weltklimarates IPCC, wurde nach mehreren übereinstimmenden Quellen die absolute globale Mitteltemperatur zwischen 15,4 °C bis 15,5 °C ausgewiesen. Seit dem wissenschaftlichen 4. IPCC-Bericht 2007, für den auch Sie mitverantwortlich waren, verläuft aber die globale Absoluttemperatur einer globalen Erderwärmung nur noch zwischen einem absoluten Temperaturfenster von 13,67 °C (für das Jahr 1850) und bis zu 14,8°C (laut WMO in Genf für das Jahr 2017). Wurde es in den letzten 30 Jahren also kälter?

Thomas Stocker, Uni Bern:
Die Wissenschaft steht nicht still, das heisst, dass auch diese Zahlen ständig hinterfragt und kritisch beurteilt werden. Wenn in einem nachfolgenden IPCC Bericht Zahlen korrigiert werden, erfolgt dies erst nach einem langwierigen Begutachtungsverfahren, eingehender Debatte und genauer Nachprüfung, bis schliesslich ein Konsens gefunden wird. Das bedeutet, dass die erwähnten Zahlen von einem früheren Bericht nicht mit denjenigen eines nachfolgenden Berichts verrechnet werden können.

Rainer Hoffmann, www.klimamanifest.ch
Die Antwort von Thomas Stocker ist ausweichend und verfälschend, denn Thomas Stocker ignoriert, dass in den ersten Jahren seit der Gründung des IPCC eine ganz bestimmte, auch damals noch logisch-nachvollziehbare Begründung für eine gefährliche Erderwärmung der Weltöffentlichkeit vorgelegt worden ist, die auch heute noch nachweislich in Schulbüchern nachzulesen ist. Es behauptet auch niemand, dass die erwähnten Zahlen von einem früheren IPCC mit denjenigen eines nachfolgenden Berichts – so Stocker wörtlich – „verrechnet“ worden sein sollen. Es ist vielmehr durch Recherchen in den IPCC-Berichten 1 bis 5 erkennbar, dass im 5. IPCC-Bericht die ursprünglichen Temperaturgrundlagen für den „greenhouse-effect“ (Treibhauseffekt) und „Globaler Absoluttemperatur“ still und heimlich entfernt worden sind, obwohl diese Informationen im 4. IPCC-Bericht noch vorhanden waren. Seit dem 5. IPCC-Bericht sind die argumentativen Grundlagen, mit denen vor über 30 Jahren eine gefährliche Erderwärmung begründet worden ist, entfernt worden. Es wurde nicht „verrechnet“, sondern es wurden wichtige Informationen im 5. IPCC-Bericht „beseitigt“, womöglich deshalb, weil die heutigen Widersprüche zu der damaligen Argumentation einer angeblich gefährlichen Erderwärmung, mittlerweile offensichtlich geworden sind.

 


#7

In den Anfangsjahren des IPCC wurde der Wert aus dem «natürlichen Treibhauseffekt» durch die verantwortlichen Klimaforscher mit einer globalen Absoluttemperatur von 15 Grad begründet. Ein Wert, der auch heute noch in zahlreichen klima-wissenschaftlichen Publikationen und auch in aktuellen, deutsch-sprachigen Schulbüchern zu finden ist, um die Gefährlichkeit einer Erderwärmung zu erklären und zu begründen. Nach dem Ende der „Kleinen Eiszeit“ im Jahr 1850 ist aber die globale Absoluttemperatur nur von 13,76 °C (1850) bis auf 14,8 °C (2017) angestiegen. Der Wert eines Treibhauseffekts von „+ 15 °C + X“ wurde also seit 1850 bis heute nicht überschritten. Inwiefern kann also überhaupt von einer „gefährlichen, mensch-verstärkten Erderwärmung“ gesprochen werden?

Thomas Stocker, Uni Bern:
Diese Behauptung entbehrt jeder Grundlage (siehe vorherige Antwort). Schulbücher sind nicht geeignet, um eine wissenschaftliche Debatte zu führen. Mit „gefährlicher Erderwärmung“ ist nicht die bisher erfolgte Erwärmung von 1°C seit dem Jahr 1900 gemeint, sondern die mögliche weitere Erwärmung von 4.5°C in den kommenden 80 Jahren, falls die CO2 Emissionen nicht schnell sinken.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker verleugnet mit seiner Antwort seine eigene Wissenschaft. Denn in Schulbüchern steht nachweislich die gleiche wissenschaftliche Argumentation, mit denen bereits vor über 30 Jahren die Klima(folgen)forschung eine gefährliche Erderwärmung begründet hatte, siehe z.B. die Seiten 27 bis 29 der Bundestagsdrucksache 11/8030 vom 24.05.1990 der wissenschaftlichen Enquete-Kommission, zu denen u.a. auch ein Hartmut Graßl und ein Paul Crutzen gehört haben. Es lässt sich durch weitere, unzählige Publikationen in diversen Archiven nachweisen, dass die Klima(folgen)forschung in den Jahren 1988 bis 1995, also insbesondere in den Anfängen des IPCC, eine gefährliche, mensch-verstärkte Erderwärmung („gefährlicher Klimawandel“) bei einer globalen Absoluttemperatur von oberhalb von 15°C definiert hatte:

aus: Seite 29 der Bundestagsdrucksache 11/8030 vom 24.05.1990 (Blaue Pfeile, Kreis und blaue Temperaturwerte nachträglich zur Verdeutlichung ergänzt)


Es ist deshalb auch historisch nachvollziehbar, dass diese Argumentation auch heute noch in Schulbüchern zu finden ist. Kein geringer als Stefan Rahmstorf vom PIK in Potsdam hat im Februar 2018 unsere Recherchen als korrekte Prämissen bestätigt. Denn es steht defacto auch im Schellnhuber/Rahmstorf-Buch „DER KLIMAWANDEL“, dass auf Basis der ursprünglichen und historischen Definition für eine gefährliche Erderwärmung seit über 150 Jahren keine gefährliche Erderwärmung existiert.

#8
Das «2-Grad-Ziel» ist in aller Munde. Bei welchem globalen Absoluttemperaturwert wird der Anfang der „2-Grad-Ziel-Leitplanke“ definiert?

Thomas Stocker, Uni Bern:
Die Absoluttemperatur ist in dieser Diskussion nicht relevant, sondern die Änderung bezüglich der vorindustriellen Temperatur.

Rainer Hoffmann, www.klimamanifest.ch
Da Thomas Stocker oben in einer Antwort bestätigt hat, dass „Millionen von Thermometermessungen“ relevant sind, um eine globale Mitteltemperatur zu errechnen, wird Thomas Stocker nicht abstreiten können, Temperaturwerte in absolut-gemessener Form auch die Grundlage für ein „2-Grad-Ziel“ darstellen müssen. Thomas Stocker wird bestätigen müssen: Temperaturveränderungen sind definitiv nur durch den Vergleich mindestens zweier Absoluttemperaturwerte errechenbar. Soweit Thomas Stocker in seiner Antwort die „vorindustrielle Temperatur“ erwähnt, müsste Stocker zuerst einmal korrekt den Zeitpunkt (= Jahreszahl) für eine „vorindustrielle Temperatur“ bestimmen und mitteilen. Noch im November 2017 definierte der bekannte Wissenschaftsjournalist Harald Lesch auf der Webseite des ZDF diesen Zeitpunkt auf das Jahr 1994. Kein Witz:

In der NZZ konnte man am 03.02.2017 lesen, dass amerikanische Wissenschaftler sich dafür ausgesprochen hätten, dass der Beginn der Industrialisierung ab dem Jahr 1750 zu definieren sei. Ja, was denn nu?

Wir haben auf unserer Klimamanifest-Webseite bisher sage-und-schreibe 27. (!) verschiedene Varianten eines „2-Grad-Zieles“ recherchiert. Deshalb: Es wäre endlich mal an der Zeit, dass die Klima(folgen)forschung- und eben auch ein Thomas Stocker – der Weltöffentlichkeit mitteilt, welches „2-Grad-Ziel“ denn das richtige, das korrekte ist. Auch Thomas Stocker ist mit seiner heutigen Antwort dieser wichtigen Frage erneut ausgewichen.

#9
Wenn der CO2-Ausstoss auf dem aktuellen Niveau weitergeht, wann wird dieser Absoluttemperaturwert des «2-Grad-Zieles» erreicht sein?

Thomas Stocker, Uni Bern
Die 2°C Marke wird um etwa 2040 erreicht sein, falls die CO2 Emissionen auf heutigem Stand bleiben. Sie steigen jedoch immer noch an, also wird +2°C früher erreicht. Um +2°C nicht zu überschreiten, müssen die CO2 Emissionen sehr schnell sinken und um ca. 2050 auf Null gehen, in einigen Szenarien sogar netto negativ werden.

Rainer Hoffmann, www.klimamanifest.ch
Thomas Stocker ist erneut dem gefragten Absoluttemperaturwert ausgewichen, obwohl deutlich danach gefragt worden ist. Da der deutsche „Klimapapst“ Schellnhuber in der Vergangenheit laufend das globale „2-Grad-Ziel“ mit „2-Grad-Fieber“ beim Menschen verglichen hat, ist es ebenfalls legitim, zu fragen, wo denn vergleichbare Absoluttemperaturwerte bei der Erde liegen, wenn der Absolutwert beim Menschen für zwei Grad Fieber bei 39°C liegt? Das nachfolgende Schaubild verdeutlicht diese elementare Fragestellung:


Zusatz-Info:
Wir beabsichtigen ausserdem erneut ein Aufklärungs-Video über den Auftritt von Thomas Stocker in der SRF-„Schawinski“-Sendung am 27.08.2018 und über die zwei „Unschärfen“ in der REPORTER-Sendung vom 02.09.2018 in Kürze zu erstellen.

Übernommen von www.klimamanifest.ch

 




Das Sommertheater im Juli und andere Klima-Phantasien

Sehr geehrter Herr Limburg,

unser  Bericht über die Sonnenaktivität im Juli zeigt erneut, dass die Sonnenfleckenzahl mit 1,6  im langjährigen Vergleich außerordentlich schwach war. Dies gilt insgesamt für den im Dezember 2008 begonnenen und etwa noch 1 Jahr andauernden Sonnenzyklus, der seit 200 Jahren die schwächste Sonnenaktivität aufweist. Klimatisch wird das deswegen bedeutsam, weil auch der nächste Zyklus, der etwa bis 2030 andauern wird, sehr schwach zu werden droht.Die Auswirkungen werden wir erst mit einem Zeitverzug von einigen Jahren feststellen können. Aussagen über klimatische Einflüsse natürlichen oder anthropogenen Ursprungs kann man eben nur über eine Zeitdauer von 30 Jahren und mehr treffen.

Das Sommertheater im Juli

In der Hitze des nordeuropäischen Sommers hatte man einen anderen Eindruck. Da reichte schon ein heisser Juli in einer Region des Erdballs, um den letzten Beweis der Klimakatastrophe hervorzuzaubern.
„In 17 Jahren Wettervorhersage habe ich so etwas noch nicht erlebt“, echauffierte sich der Meteorologe Özden Terli im ZDF.
Das ist schlicht falsch. Im Juli 2015 war es auf der Nordhalbkugel wärmer, im Juli 2016 ebenso und auch im Juli 2017 war es wärmer. Und der Juli 2006 war in Deutschland  deutlich wärmer.

Temperaturen im Sinkflug

Entscheidend ist die globale Mitteltemperatur. Und da sind wir in 2018 im Sinkflug. Auch der August 2018 hat das eindrucksvoll belegt. Die heute bekanntgegebenen Daten der satellitengestützen UAH-Messungen für August zeigen nur noch eine um 0,19 °C  große Abweichung vom 30-jährigen Mittelwert. Ich werde mich nicht hinreißen lassen, daraus voreilige Schlüsse zu ziehen. Aber das, was sich grüne Alarmisten in  Politik, Wissenschaft und Medien an Sommertheater geleistet haben, ist nur noch zu subsumieren unter „Der Zweck heiligt die Mittel“.

Kippelemente für eine angstgeleitete Politik

Das gilt auch für  eine Arbeit, die in der Schwüle des Juli Furore machte. Eine Reihe von Wissenschaftlern um den bekannten Hans Joachim Schellnhuber ( die Arbeit wurde am 19. Juni eingereicht und am 6. Juli akzeptiert, ein neuer Sprintrekord zwischen Abgabe und Annahme) entwerfen darin eine Szenario, in dem bestimmte Kippelemente das Klima der Erde in neue, unentrinnbare heiße Gleichgewichte treiben. Das Entscheidende steht in der Schlussfolgerung : Zu vermeiden geht das nur durch eine neue „Erdsystemverwaltung“. Der Leser war gespannt auf Berechnungen, Softwarecodes, empirische Herleitungen- und findet nichts dergleichen. Reine Spekulation.Science Fiction. Hokus-Pokus.

Die Temperaturtrends bleiben konstant

Es bleibt dabei : trägt man Jahr für Jahr seit 1960 den Trend der ansteigenden Temperaturen auf, also von 1960 bis 1990, 1961 bis 1991, bis hin zu  1988 bis 2018, dann bleiben die Steigungen bei 1,6 bis 1,8 C pro Jahrhundert seit dreissig Jahren konstant. Da müsste man keine grosse Angst haben, vor dem was uns in diesem Jahrhundert erwartet. Das sagt uns die Empirie. Da braucht man Kippelemente aus der Science Fiction-Welt, um uns zu einer angstgeleiteten Politik zu verführen.

WGBU fordert Klimapass

Wie schlimm die Instrumentalisierung von Politik durch Klimawissenschaft und umgekehrt  geworden ist, zeigt eine brandneue Studie des WGBU (Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen) Zeitgerechte Klimapolitik -Vier Intitiaven für Fairness.
Vorsitzender des Beirats ist Prof. Schellnhuber. Der Beirat berichtet direkt an die  Bundesregierung  und empfiehlt ihr Klimapässe für klimabedingte Migranten und Migrantinnen auszustellen. Der Klimapass „soll den einzelnen Menschen in die Lage versetzen, frei über seine Fortwanderung zu entscheiden“. Der WGBU geht von „Schätzungen für globale umweltbedingte Migration bis zum Jahr 2050 von 25 Mio. bis zu 1 Mrd. betroffenen Personen“ aus.“Schier unerträglich ist die Vorstellung, dass Millionen Klimamigrant*innen in den kommenden Jahrzehnten auf kriminelle Schlepperorganisationen angewiesen wären“. „In einer ersten Phase sollte der Klimapass den Bevölkerungen kleiner Inselstaaten, deren Staatsgebiet durch den Klimawandel unbewohnbar werden dürfte, frühzeitige, freiwillige und humane Migrationswege eröffnen. Mittelfristig sollte der Pass auch massiv bedrohten Menschen anderer Staaten, einschließlich Binnenvertriebener, zur Verfügung stehen. Als Aufnahmeländer sollten sich Staaten mit erheblichen historischen wie heutigen Treibhausgasemissionen und somit großer Verantwortung für den Klimawandel engagieren.“ Als kurzfristigen ersten Schritt schlägt der WGBU vor :“ Im Rahmen der 24. Klimakonferenz in Katowice (im Dezember 2018,d.Verf.) sollte die Bundesregierung als Vorreiterin potenzieller Aufnahmeländer den Klimapass als Angebot für die Bevölkerung flacher Inselstaaten vorschlagen“.

Flächenvergrößerung in Tuvalu

Erneut geht es mehr um Science Fiction. Denn es gibt mehrere Arbeiten der jüngsten Vergangenheit, die ein „Untergehen“ vieler Inselstaaten ausschließen, sondern ehereine Flächenvergrößerung feststellen.
Es lohnt sich das Politikpapier ( so nennen es die Wissenschaftler) nachzulesen, um das krude Denken derjenigen aufzuspüren, die mit allen Mitteln eine „Große Transformation“ herbeisehnen. Adressat ist die Bundesregierung, die das Papier in Person der Bundesumweltministerin Schultze und dem Wissenschaftstaatsekretär Schütte brav entgegennahmen und versprachen, die Vorschläge zu prüfen.
Es ist schlimm, wie dilettantisch unsere Bundesregierung agiert, es ist schlimm,wie eindimensional sie Kommissionen besetzt und es ist schlimm, dass niemand in dieser Bundesregierung den Mut hat, Vorschläge, die auf falschen Behauptungen beruhen, als das zu bezeichnen, was es ist : politische Propaganda sich selbst überschätzender Wissenschaftler.
Niemand widerspricht. Es ist unfassbar.

Herzlichst
Ihr
Fritz Vahrenholt




Der Papst sorgt sich mehr um wichtige Probleme wie z.B. Klimawandel, als um Pädophilie in der Kirche

Jason Hopkins
Papst Franziskus sieht sich schweren Vorwürfen ausgesetzt, er habe sexuellen Missbrauch in der katholischen Kirche vertuscht. Ein Kardinal aus Chicago sagt dagegen, dass der Papst sich mehr mit den Themen beschäftigt, die er für wichtiger hält.
Das Thema Klima ist wichtig für den Papst, daher hier die Nachrichten darüber. Das Verhalten von Würdenträgern gegenüber Schutzbedürftigen ist leider eine unangenehme Nebensache – je nach Standpunkt (der Übersetzer)

„Der Papst weiß, dass wir eine weitreichendere Agenda haben. Wir müssen über die Umwelt sprechen, über die Armen, wir müssen die Menschen erreichen, die in der Gesellschaft marginalisiert sind. Wir können uns in diesem Moment nicht ablenken lassen „, sagte Blase Cupich, der neunte Erzbischof der Erzdiözese Chicago, während eines Interviews mit WGN-TV [mit VPN aufrufen, da EU gesperrt]

Cupich – der sich selbst mit Vorwürfen konfrontiert sieht – bestreitet jegliche Kenntnis von sexuellem Missbrauch gegen Kinder und sagte, er hätte solche Fälle sofort gemeldet.

„Ich hatte keine Vorkenntnisse darüber. Ich denke, dass mein Bericht über 20 Jahre als Bischof darauf hinweisen würde, dass ich gehandelt hätte, wenn ich Informationen über jemanden hätte, der Kinder oder irgendjemanden sonst missbraucht. Also, die Antwort ist ein geradliniges NEIN“

Das Thema geht auf Anschuldigungen von Carlo Maria Vigano zurück, der von 2011 bis 2016 Apostolischer Nuntius in den Vereinigten Staaten war. In einem Brief, der wie eine Bombe wirkte, behauptet er, dass Franziskus und andere hochrangige Vertreter des Vatikans sexuellen Missbrauch und Vorwürfe aktiv vertuscht haben, und dass es ein Netzwerk von homosexuellen Priestern gibt, die Jungen jagen. Vigano hat den Papst aufgefordert, wegen seiner Gleichgültigkeit zurückzutreten.

(RELATED: Former Vatican Diplomat Accuses Pope Francis Of Complicity In Covering Up McCarrick’s Abuses, Calls For His Resignation)

(Ehemaliger Vatikan-Diplomat beschuldigt Papst Franziskus der Komplizenschaft, McCarricks Misshandlungen zu vertuschen. Er fordert den Rücktritt des Papstes)

Vigano, so seine Kritiker, wurde ebenfalls beschuldigt, Behauptungen über sexuellen Missbrauch zu vertuschen.

Vigano  veröffentlichte einen 11-seitigen Brief

…  „In diesem äußerst dramatischen Moment für die universale Kirche, muss er seine Fehler eingestehen und das proklamierte Prinzip der Null-Toleranz halten. Franziskus muss der Erste sein, der gutes Beispiel für die Kardinäle und Bischöfe setzt, die McCarricks  Missstände vertuschen und zusammen mit allen zurücktritt“, fügte er hinzu.

Seit er die Zügel der katholischen Kirche übernommen hat, hat sich Franziskus für den Kampf gegen den Klimawandel stark gemacht. Er veranstaltete im Juni ein Treffen mit internationalen Ölmanagern, um sie zu ermutigen, sich von fossilen Brennstoffen wegzubewegen. Dieses Treffen fand drei Jahre nach der Veröffentlichung der Papst-Enzyklika Laudato Si ’statt, wo er den Klimawandel als Bedrohung für das Leben auf der Erde bezeichnete.

Behauptungen, dass der Papst über Pädophilie in der Kirche Bescheid wusste, kamen durch einem Bericht des Obersten Gerichtshofs von Pennsylvania hoch, in dem über 1.000 Kinder identifiziert wurden, die in 70 Jahren in sechs Diözesen Opfer wurden.

Gefunden auf The Daily Caller vom 28.08.2018

Übersetzt durch Andreas Demmig

https://dailycaller.com/2018/08/28/pope-environment-pedophilia/




Klimaerwär­mung in Deutsch­land – macht der Wärmeinsel­effekt den Unter­schied?

Abgesehen davon, dass es keinen wissenschaftlichen Versuchsbeweis gibt, der die Klimasensitivität des angeblichen Aufheizgases Kohlendioxid bestätigt und der quantitative Betrag der angeblichen Aufheizung von sogenannten Experten nur hypothetisch schätzend auf 2 bis 4 Kelvin festgelegt ist, geben auch die vergleichenden Temperaturmessungen nichts her. Es sei denn, man zieht ausgesprochene Stationen in wachsenden Wärmeinseln heran, was dann gerne mit vollem Eifer getan wird. Frankfurt, Berlin, München, Karlsruhe und Leipzig, die Zunahme der heißen Tage in diesen Städten sind dann Beweise einer allgemeinen Erwärmung.

In diesem Artikel wollen wir anhand eines weiteren Beispiels zeigen, dass eine angebliche CO2-Erwärmung vorwiegend auf den Wärmeinseleffekt der Region zurückzuführen ist.

Wir verwenden dafür die beiden Städte im bayrischen Voralpenland, München und Rosenheim, beide sind knapp 50 km voneinander entfernt, München liegt an der Isar, Rosenheim am Inn und hat 60 000 Einwohner. Die Einwohnerzahl wächst moderat, während München neben der Bevölkerungszunahme vor allem seit der Einheit eine starke Touristenzunahme, darunter viele Tagesausflügler, zu verzeichnen hat.

Bevor wir in der Argumentation fortfahren soll der Leser zunächst über den Temperaturverlauf der jeweiligen DWD-Wetterstationen in diesen Städten informiert werden.

Wir betrachten die letzten 30 Jahre, in welcher die globalen CO2-Erwärmungsgase besonders zugenommen haben und wo Medienpropheten wie Claus Kleber bereits Kipp- und Gefahrenpunkte ausgemacht haben.

Die Temperaturgrafik der bayrischen Landeshauptstadt der letzten 30 Jahre sieht so aus:

Abb.1: München zeigt über die letzten 30 Jahre, Die in den Medien behauptete Erwärmung München wurde wärmer, die Aussage ist richtig.

Nun die Temperaturentwicklung von Rosenheim über denselben Zeitraum:

Abb 2. Die Wetterstation der bayerischen Stadt Rosenheim zeigt über die letzten 30 Jahre gar keine Erwärmung, obwohl dort die angeblichen erwärmenden Treibhausgase genauso zugenommen haben. Wurde das Klima in Bayern nun wärmer oder nicht?

Wir sehen: Anstatt Kohlendioxid müssen andere Gründe für die Erwärmung der bayerischen Hauptstadt verantwortlich sein. Auch an den von uns oben genannten Touristenströmen allein ist dieser markante Erwärmungsunterschied nicht zu erklären, denn auch schon vor 1988 war München eine Weltstadt und der Bevölkerungszuwachs verläuft ähnlich moderat wie in Rosenheim.

Die Standorte der DWD-Wetterstationen machen den Unterschied

Standort Rosenheim: außerhalb der Stadt

Abb.3: Die DWD-Wetterstation Rosenheim befindet sich außerhalb der Stadtgrenze in den feuchten und grünen Innwiesen nördlich der Stadt zwischen der Reithalle und den Kläranlagen. Bis zur Innenstadt sind es einige Kilometer.

Der zunehmende Wärmeinseleffekt der Stadt Rosenheim wird dadurch nicht gänzlich eliminiert, er erreicht das Thermometer aber nur noch in abgeschwächter Form. Ganz im Gegensatz zu München.

Der Standort der DWD-Wetterstation München: Mitten in der Stadt.

Abb.4: DWD-Station München. die Station steht an der Dachauer Straße Ecke Helene-Weber-Allee, Trambahn-Haltestelle „Goethe-Institut“ (Linien 20 und 21). Im Rücken des Fotografen befinden sich die stark befahrene Dachauer Straße und auf deren anderen Seite riesige Mietshaus-Komplexe.

Erklärung: Die Wetterstation in München misst somit keine allgemeine Klimaerwärmung, sondern die zunehmende Stadtwärme, also den zunehmenden Wärmeinseleffekt der Stadt München.

Das Thermometer der DWD-Wetterstation Rosenheim ist weniger geprägt durch die Stadtwärme, obwohl ein erheblicher Teil der Frischluftschneise aus den Alpen in Rosenheim abgefangen wird. Die Wetterstation Rosenheim misst jedoch insgesamt viel realistischer die von den täglichen Wetterlagen vorgegebenen Temperaturen in der Region. Und die zeigen über die letzten 30 Jahre keine Erwärmung für den Raum Oberbayern in der freien Landschaft.

Frage: Wie wäre der Temperaturverlauf bei der Wetterstation, wenn Rosenheim und die Region im Betrachtungszeitraum 30 Jahre identisch geblieben wären?

Wir weisen auf einen weiteren Unterschied hin:

Rosenheim liegt etwa 100 m tiefer und die Temperaturen müssten deshalb ein halbes Grad höher sein als in München. Das ist nicht der Fall. In der nächsten Abbildung 5 haben wir beide Temperaturverläufe in eine Grafik gebracht.

Abb.5: Temperaturverlauf der beiden DWD-Wetterstationen München (rot) und Rosenheim (braun) über die letzten 30 Jahre. Die Station Rosenheim liegt fast 100 m tiefer als München. Aufgrund des Höhenunterschiedes müsste Rosenheim um ein halbes Grad wärmer sein.

Zu Beginn der Betrachtung  vor 30 Jahren lagen die Münchner Stadttemperaturen bereits um ein halbes Grad höher, und jetzt beträgt der Unterschied ca. 1 Grad. Die Temperaturschere geht auseinander. Auch diesen Fakt kann man ausschließlich mit dem zunehmenden Wärmeinseleffekt der Stadt München erklären, den es bereits vor 30 Jahren gab, und der nun weiter ansteigend ist, und auch noch vom Thermometer der DWD-Station München voll erfasst wird

Da die Wetterstation von Rosenheim außerhalb der Bebauung steht, wirkt die moderate Stadtbebauung weniger erwärmend auf das Thermometer der Wetterstation in den Innwiesen ein. Die weitere Bebauungsverdichtung von München hingegen hat die Stadtwärme weiter verstärkt.

Andere Erklärungen für die Temperaturverläufe der letzten 30 Jahre sehen wir nicht; wobei anzumerken ist, dass die zunehmende Sonnenscheindauer, besonders im Sommerhalbjahr, bebaute Gebiete viel stärker erwärmt, als unbesiedeltes, intaktes Freiland.

Gibt es eine bayerische oder gar deutschlandweite Erwärmung in den letzten 30 Jahren, wie die Medien und die Treibhaus-Erwärmungsgläubigen behaupten?

Unsere Antwort: Die gibt es nicht. Die Behauptungen der scheinbaren Experten sind falsch. Es kommt auf den Standort der Messstationen an. Richtig ist vielmehr, dass überall, wo Messstationen noch außerhalb der Wärmeinseln und damit außerhalb der menschengemachten Erwärmung stehen, keine oder zumindest keine signifikante Erwärmung seit etwa 1990 stattfand. Bei langfristiger Betrachtung, etwa seit 1881, die dann von CO2-Klimagläubigen gerne als Gegenargument ins Feld geführt wird, gibt es in ganz Mitteleuropa zwar merkliche Erwärmungstendenzen; doch gingen diese nicht konform mit dem Anstieg der CO2-Konzentration und lassen sich auch viel besser mit geänderten Großwetterlagenhäufigkeiten, zunehmender Sonnenscheindauer und diversen Wärmeinseleffekten erklären. Letztere könnten sich nun zunehmend auch überall dort im Freiland bemerkbar machen, wo große Solar- und Windparks installiert werden (sie ähneln in ihrer Wirkung einer städtischen Bebauung).

Abb. 6: Da passt was nicht ganz zusammen. Während die seit 1959 kontinuierlich am Mauna Loa gemessene CO2-Konzentration immer schneller stieg, schwächte sich der Temperaturanstieg in Deutschland seit den 1990er Jahren merklich ab; es wurde seitdem nur noch minimal wärmer. Eine wesentlich bessere Erklärung für dieses Temperaturverhalten liefert neben WI-Effekten die jährliche Sonnenscheindauer; sie nahm ab den 1980er Jahren erst merklich, dann nur noch langsam, zu. Wegen der sehr unterschiedlichen Größen wurde für die bessere Darstellung in einer Grafik in Indexwerte umgerechnet; der zeitliche Verlauf und die Trends ändern sich dadurch nicht.

Mitunter zeigen ländliche Stationen wie Amtsberg im Erzgebirge sogar leichte Abkühlungen. Und die freie Fläche umfasst 85% der Gesamtfläche Deutschlands. Rosenheim ist nur ein weiteres Beispiel von den vielen, die wir bereits gefunden und ausführlich beschrieben haben.

Auch diese Betrachtung ist ein Hinweis, dass die angebliche katastrophale Erwärmung Deutschlands nicht von CO2 verursacht ist, sondern von der Wahl der Standorte für die Wetterstationen. Leider stehen fast alle Wetterstationen nicht in der freien Fläche Deutschlands, sondern dort, wo die Menschen wohnen und arbeiten. Und nur dort in den 15% der urbanisierten Fläche Deutschlands wird es wärmer. Allerdings dehnen sich diese Flächen täglich in Deutschland um fast 100 ha aus. Es findet eine tägliche Urbanisierung und Bebauung mitsamt Trockenlegungen in die Natur hinein, aber auch innerorts, statt. Ein schönes Beispiel für eine massive, sommerliche Wärmeinselerwärmung ist die Station Frankfurt/Main (Flughafen) im Vergleich zum ländlicheren Gießen nördlich von Frankfurt:

Abb. 7: Starke sommerliche Erwärmung im städtischen Frankfurt; keinerlei Erwärmung im ländlicheren Gießen – obwohl die Reihe bei beiden mit dem Hitze-Sommer 2018 endet.

Auch die angeblichen Folgen wie Überschwemmungszunahme sind keine Folgen einer allgemeinen CO2-Klimaerwärmung, sondern eine Folge der wachsenden Urbanisierung und eine Folge der industrialisierten Landwirtschaft mit der Schaffung ständig neuer „Beton-Ackerböden“, die kaum noch saugfähig sind.

Das uns Angst einflößen sollende CO2-Klimaerwärmungsmodell ist falsch und ein reines Geschäftsmodell. Mehr CO2 in der Atmosphäre macht die Erde grüner, CO2 ist kein Giftgas, kein Klimagas, kein Heißgas, sondern für das Leben auf der Erde genauso notwendig wie Sauerstoff und Wasser. Die optimale Menge dieses Spurengases, -derzeit minimale 0,04% – ist für das Leben auf der Erde noch längst nicht erreicht.

Einstmals kleine Wärmeinseln sind in den letzten 100 Jahren zu Wärmeregionen zusammengewachsen. Wer die heißen Tage in den vom Menschen geschaffenen Wärmeregionen eindämmen will, muss für weniger Versiegelung und mehr Verdunstungskälte sorgen.

Die andere Möglichkeit wäre, wir bauen Deutschland und die Erde wieder zurück wie sie vor 100 Jahren war, mit demselben niedrigen Lebensstandard, der geringeren Bevölkerungszahl, der Armut von damals und dem geringen Energieverbrauch. Das will keiner von uns.

Klima wandelt sich immer. Es gab noch nie ein stabiles Erdklima, schon gar nicht vor der Industrialisierung. Klimawandel gibt es seit die Erde eine Atmosphäre hat. Er hängt mit der Aktivität der Sonne, mit dem sich immer wieder ändernden Neigungswinkel der Erdachse und mit der jeweiligen Position unseres Sonnensystems bei der Wanderung durch das Weltall/die Milchstraße ab. Neben diesen natürlichen Ursachen wirkt der Mensch mit durch die Schaffung immer größerer Wärmeregionen.

Klimaerwärmung durch anthropogene „Treibhausgase“ gibt es nicht oder es ist ein vollkommen unbedeutender Effekt. Das haben wir mit der Wetterstation Rosenheim erneut gezeigt. „Treibhausgase“ ist eine Worterfindung für ein durchtriebenes Geschäftsmodell. Natur- und Umweltschutz sind wichtig, werden aber leider auch in Deutschland nicht konsequent durchgeführt.

Josef Kowatsch, unabhängiger Natur- und Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Die Modellrechnung

Zeitlich abgestimmt auf die Arbeit der „Strukturwandelkommission“, umgangssprachlich als „Kohlekommission“ und in interessierten Kreisen als „Kohleausstiegskommission“ bezeichnet, präsentiert das Deutsche Institut für Wirtschaftsforschung (DIW) eine Studie mit Modellrechnungen zum zügigen Kohleausstieg, vor allem in Nordrhein-Westfalen. Nachdem öffentlich wurde, dass der Strukturwandel durch einen Kohleausstieg die Lausitz härter treffen würde als das Rheinland, richtet das DIW nun Kimme und Korn nach Westen. Die Hoffnung, die Reviere würden künftig ihre Forderungen konfrontativ stellen („Nein, fangt ihr an“), dürfte sich indes kaum erfüllen.

Der „Wochenbericht  33“ des DIW vom 15. August enthält den Beitrag „Erfolgreicher Klimaschutz durch zügigen Kohleausstieg in Deutschland und Nordrhein-Westfalen“und stellt nicht weniger als die Erreichung von Emissionszielen und mithin die Weltrettung der Bundesregierung und der Regierung in NRW anheim. Zu Beginn wird schlechtes Gewissen gemacht: Steinkohle und Braunkohle in Deutschland trügen mehr als ein Viertel zu den deutschen Treibhausgasemissionen bei. Verschwiegen wird, dass dafür 40 Prozent des Strombedarfs gesichert werden. Zudem stünden in NRW die meisten und ältesten Kohlekraftwerke und der Beitrag der erneuerbaren Energien zur Stromerzeugung betrüge derzeit nur 12,5 Prozent und sei somit „weit unterhalb des Bundesdurchschnitts von 36 Prozent“. Nachholbedarf wird gesehen.

Einen Blick auf die Ursachen wirft das DIW nicht, die Wissenschaftlichkeit des Berichts bleibt knapp über der Rasenoberkante. Hat der Anteil der Regenerativen in den Bundesländern vielleicht auch mit der geografischen Lage und mit der Bevölkerungsdichte zu tun? 524 Menschen teilen sich in Binnenland NRW einen Quadratkilometer, in Mecklenburg-Vorpommern sind es nur 69. Abstandsregeln für Windkraftanlagen sind für das Institut ohnehin kein Thema. Die Regierung in Düsseldorf versucht gegenwärtig, ihrer Vorsorgeverpflichtung gegenüber der Bevölkerung besser als ihre Vorgänger nachzukommen und will die Abstände erhöhen.

Präsentiert wird eine Modellrechnung für drei Pfade. Ein Referenzmodell, das die Entwicklung ohne politische Eingriffe beschreibt und zwei schärfere Ausstiegsvarianten. Das erinnert mich an Bertolt Brechts „Ballade von der Unzulänglichkeit menschlichen Planens“:

Ja, mach nur einen Plan!
Sei nur ein großes Licht!
Und mach dann noch’nen zweiten Plan
Gehn tun sie beide nicht.

Die zwei beschleunigten Ausstiegspfade orientieren sich an den Vorschlägen zu frühzeitigen Stilllegungen von Kohlekraftwerken bis zum Jahr 2020, welche rund um die Jamaika-Sondierungen im November 2017 diskutiert wurden. Mit anderen Worten: Ein halbgarer politischer Kompromiss dient als Grundlage einer „wissenschaftlichen“ Betrachtung.

Da die berechneten Abschaltungen nicht die Emissionen ausreichend senken, sollen weiter laufende Kraftwerke auf 4.000 Betriebsstunden pro Jahr begrenzt werden. Natürlich wird kein Gedanke daran verschwendet, dass dann wirtschaftlicher Betrieb nicht mehr denkbar ist und eine Subventionierung nötig wäre. Generell wird der ökonomische Aspekt des ganzen Vorhabens standhaft ignoriert, ein geistiges Armutszeichen für ein Institut, das sich der „Wirtschafts“forschung verschrieben haben will.

„Zurzeit wird ein Teil des deutschen Kohlestroms ins Ausland exportiert.“Nein, liebe Laien, es wird Strom exportiert. Man kann ebenso wenig nur Kohlestrom exportieren, wie man nur Ökostrom beziehen kann. Im Netz ist immer ein Strommix aus verschiedenen Quellen. Klingt komisch, ist aber so. Zudem wird manchmal mit Strom gehandelt und manchmal ist der Export pure Verzweiflung zum Zweck der Netzrettung, was sogar zu negativen Strompreisenim Großhandel führt. Dies passiert mit schöner Regelmäßigkeit, wenn viel Wind bläst und oder viel Sonne scheint. Dann können trotzdem nicht alle Kohlekraftwerke abschalten, weil immer noch jemand regeln und die Netzdienstleistungen bereitstellen muss, wozu die Regenerativen nicht in der Lage sind. So gesehen wird dann vor allem regenerativ erzeugter Strom exportiert.

Auf ähnlich dünner Basis geht es weiter. Bei den absehbaren Versorgungsproblemen durch Atom- und Kohleausstieg bei gleichzeitiger Sektorkopplung erspart man sich Berechnungen, sondern bleibt wolkig und schiebt die Verantwortung in Richtung Politik:

„Im Zuge einer verstärkten Verzahnung der Sektoren Strom, Wärme und Verkehr könnte die jährliche Spitze der Stromnachfrage entsprechend steigen. Die zunehmende Elektrifizierung sollte daher von einer adäquaten technologischen, marktlichen, ordnungsrechtlichen und regulatorischen Rahmensetzung flankiert werden. Diese sollte darauf hinwirken, dass gleichzeitig auftretende Spitzen der Stromnachfrage in den gekoppelten Sektoren vermieden oder zumindest gemildert werden.“

Im Klartext bedeutet dies, eine Rationierung einzuführen. Heizen und E-Mobil laden nur mit entsprechend genehmigtem Budget. Oder Wäsche waschen statt Heizen. Oder Auto laden statt Wäsche waschen. Energiearmut ist abzusehen, die verfügbare Strommenge wird sinken, die Preise werden steigen. Aber steigende Kosten bei eingeschränkter Versorgung für die Verbraucher sind kein Thema für das DIW. Stattdessen versteigt sich Frau Professor Kemfert zu der abwegigen Vorhersage, dass der Strom in Zukunft absehbar billigerwerden würde. Das war 2016 und es gibt wirklich keine Anzeichen, die diese aus der Luft gegriffene Prognose stützen würde. Wir sind Strompreis-Europameister beim Haushaltsstrom und Vizemeister beim Industriestrompreis. Im Jahr 2011 weissagte „Miss Energiewende“ (ZEIT) nach einem Blick in die grünglasige DIW-Prognosekugel eine EEG-Umlage für 2020 von 3,64 Cent pro Kilowattstunde. Wir werden sehen.

Das Thema Versorgungssicherheit schiebt man ebenso ab:

„Einerseits kann der Gesetzgeber verstärkt angebots- und nachfrageseitige Potentiale zur Flexibilisierung heben. Hierzu zählen beispielsweise Großbatteriespeicher . . .“.

Auch hier hätte man rechnen können. Keine Angabe zu nötigen Kapazitäten, verfügbaren Technologien, Preisen, Kosten, Betreibern, Standorten und notwendigen Terminen von Inbetriebnahmen. Wirklich alles von dem, was der „Wochenbericht“ vorschlägt, müsste über „Politikmaßnahmen“ reguliert werden und ließe sich nicht über den Markt herbeiführen. Energetischer Staatsdirektionismus soll Markt ersetzen. Bisher hat Plansozialismus realwirtschaftlich noch nie nachhaltig funktioniert.

Wirtschafts-Voodoo statt Wissenschaft

Dringend notwendige Berechnungen erspart sich das Institut. Was hätte man alles modellrechnen und berücksichtigen können?

–      Wie werden die deutschen wegfallenden Kapazitäten ersetzt?

  • Wie gehen die gesicherten Kapazitäten in den Nachbarländernzurück?
  • Anmerkung der Redaktion: Wie die europäischen gesicherten Kapazitäten zurückgehen hätte das DIW bei der EU erfragen oder hier der Zeitung „Die Welt“ entnehmen können. Haben sie aber nicht, das wäre zwar wissenschaftlich gewesen, hätte aber das gewünschte Ergebnis zerstört. Mit Dank an Leser Ordowski für den Hinweis
  • Welcher Speicherbedarf entsteht durch weiteren Zubau volatiler Einspeisung?
  • Welcher Strombedarf entsteht durch die Sektorkopplung? Welcher Netzausbaubedarf entsteht dadurch?

–      Was kostet das Ganze und wie hoch ist der Preis für eine Tonne CO2-Vermeidung? Wenn dieser höher ist als der Zertifikatspreis, wäre es sinnvoller, diese aufzukaufen und zu löschen.

Stattdessen bemüht das DIW den Adam Riese ausschließlich für den mathematischen Zusammenhang zwischen Kohlekraftwerksleistung und CO2-Emission, geht in die Prosa und erzählt vermeintlich positive Nebenwirkungen. Der schützenswerte Wald von Hambach könne erhalten bleiben, wenn der Tagebau nicht kommt. Was die Autoren denken, aber nicht schreiben: Dann kann man auch in diesen Wald Windkraftanlagen stellen. Der Tagebau Inden soll nicht bis 2030 betrieben werden, sondern schon 2020 schließen. Wer dann die Rekultivierung bezahlen soll, wenn der Betreiber dafür keine Rücklagen mehr bilden kann, wird nicht ausgeführt. Ökonomisches Denken ist nicht die Stärke der beauftragten Wirtschaftsvisionäre.

Auch sei die Nichterreichung der Senkungsziele im Gebäude- und Verkehrssektor nicht so schlimm, wenn man nur mehr Kohlekraftwerke abschaltet. Die wurden vermutlich nur zur CO2-Erzeugung gebaut.

 

Der Chef des DIW, Professor Fratzscher, bezeichnete höchst selbst die Energiewende  als „Experiment“(1). Seine Subalternen wollen aus einem laufenden Experiment heraus konkrete Entscheidungen für die Zukunft zimmern.

Kein Institut, außer dem DIW, kann davon leben, sich beim Thema Energie ausschließlich mit dem Kohleausstieg zu beschäftigen. Die Antwort auf die Frage, woher das Geld für diesen „Wochenbericht“ kommt, den man angesichts der flachen Qualität nicht mal als Gefälligkeitsgutachten bezeichnen kann, ist naheliegend.

Inzwischen schlägt die EU neue „Klimaziele“ für 2030 vor. 45 statt 40 Prozent sollten nun eingespart werden. Damit dürfte der nächste DIW-Wochenbericht zum noch schnelleren, ehrgeizigeren, entschlossenerem,  mutigeren, progressiveren Kohleausstieg nicht lange auf sich warten lassen. Mit dem zu erwartendem Fazit: Problemlos möglich, wenn nur die Politik endlich schnell, ehrgeizig, entschlossen, mutig und progressiv handeln würde.

Die alles entscheidende Berechnung bleibt das DIW in seinen Modellrechnungen ohnehin schuldig: Wie viel Grad globale Erwärmung werden durch die angepeilte Emissionssenkung vermieden?

1)Marcel Fratzscher „Die Deutschland-Illusion“, S. 96