1

Der US Rechnungshof schließt sich der Debatte über die globale Erwärmung an

Die US-Regierung hat im letzten Jahrzehnt 350 Milliarden US-Dollar als Reaktion für Unwetter wie Hurrikane und Waldbrände ausgegeben. Basierend auf Daten, die der GAO erstellt hat, prognostiziert die GAO, dass deren Zahl zunimmt, da Treibhausgase mehr Störungen im Klima verursachen.

Der  Berichte prognostiziert einen Rückgang der Arbeitsproduktivität von 150 Milliarden US-Dollar bis 2099 und einen Rückgang der Ernteerträge um bis zu 53 Milliarden US-Dollar und erkennt damit einen direkten Zusammenhang zwischen Naturkatastrophen und Klimawandel, so der Artikel in der New York Times (NYT)

Der Bericht ist das Ergebnis einer gemeinsamen Anfrage der Demokratischen Senatorin Maria Cantwell aus Washington und der Republikanischen Senatorin Susan Collins aus Maine.

„Das Government Accountability Office – wenn Sie wollen, der Chef-Erbsenzähler – sagt uns im Grunde, dass uns dies eine Menge Geld kostet“, sagte Cantwell der NYT. „Wir müssen verstehen, dass das Klima ein finanzpolitisches Thema ist und die Tatsache, dass es einen so großen finanziellen Einfluss auf unseren Bundeshaushalt hat, muss durch den Verwalter des Steuerzahlers behandelt werden.“

Trotz der negativen wirtschaftlichen Auswirkungen werden die Auswirkungen des Klimawandels nur weniger als 1 Prozent des derzeitigen Budgets von 3,1 Billionen US-Dollar ausmachen.

„Die Methoden [zur Modellierung der Auswirkungen des Klimawandels] sind komplex, weil sie verschiedene Arten komplizierter Klima- und Wirtschaftsmodelle miteinander verknüpfen, um abzuschätzen, wie sich prognostizierte Klimaveränderungen auf verschiedene Sektoren und Regionen auswirken könnten. Sie produzieren ungenaue Ergebnisse aufgrund von Informationen und Modellierungsbeschränkungen“, so der Bericht weiter. „Laut der Experten, die wir interviewt haben, können die Methoden jedoch nützliche Einblicke in breite Themen über potenzielle Klimaschäden in den Vereinigten Staaten liefern.“

Berichtet auf The Daily Caller am 24.10.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/10/24/the-government-accountability-office-joins-the-global-warming-debate/

 

*  * *

Der Bericht des GAO

CLIMATE CHANGE:

Information on Potential Economic Effects Could Help Guide Federal Efforts to Reduce Fiscal Exposure

GAO-17-720: Published: Sep 28, 2017. Publicly Released: Oct 24, 2017.

Übersicht

Klimabedingte Auswirkungen wie Küstenbeschädigungen haben der Bundesregierung bereits Milliardenbeträge gekostet, und diese Kosten werden wahrscheinlich in Zukunft steigen. Wir haben herausgefunden, dass Informationen über die wirtschaftlichen Auswirkungen des Klimawandels sich entwickeln und ungenau sind, aber es kann Einblicke in die Regionen und Sektoren geben, die am stärksten betroffen sein könnten.

Als ersten Schritt bei der Festlegung von staatlichen Prioritäten für das Management von Klimarisiken empfahlen wir, dass das Exekutivbüro des Präsidenten Informationen über wirtschaftliche Auswirkungen nutzt, um signifikante Klimarisiken zu erkennen und angemessene föderale Antworten zu finden.

Beispiele von potentiell Oekonomischen Auswirkungen durch Klimawandel bis 2100

Übersetzung: Von links oben- im Uhrzeigersinn:

  • Verminderte Schalentier Fänge (decreased shellfish harvest)
  • Steigende Straßenschäden
  • Steigen Schäden an der Kanalisation in Kommunen
  • Verminderte Sterblichkeit wegen Kälteauswirkung
  • Rückgang der Ernteerträge
  • Steigende Zerstörung der Küstenstruktur
  • Zunehmende Sterblichkeit wegen Hitzeauswirkung
  • Erhöhter Energiebedarf
  • Steigende Waldbrände
  • Erhöhte Anforderungen an die Wasserversorgung und den Bedarf
  • Erhöhung der Ernteerträge

 

Highlights

Was GAO gefunden hat

Die Methoden zur Abschätzung der potenziellen wirtschaftlichen Auswirkungen des Klimawandels in den Vereinigten Staaten basieren auf der Entwicklung von Forschungsergebnissen, die mit Hilfe von verknüpften Modellen der Klimawissenschaft [Klimamodelle] und der Ökonomie zusammenhängen. Die Methoden und die Studien, die sie verwenden, liefern aufgrund von Modellierungen und anderen Einschränkungen ungenaue Ergebnisse, können jedoch einen Einblick in potenzielle Klimaschäden in den Sektoren in den Vereinigten Staaten geben.

Die beiden verfügbaren nationalen Studien,[dazu folgt ein weiterer Bericht, der Übersetzer] die die wirtschaftlichen Auswirkungen des Klimawandels in den gesamten US-amerikanischen Sektoren untersuchen, deuten darauf hin, dass potenzielle wirtschaftliche Auswirkungen über Sektoren und Regionen hinweg signifikant und ungleich verteilt sein könnten. So wird in einer Studie für 2020 bis 2039 zwischen 4 und 6 Milliarden US-Dollar jährlich an Zerstörungen der Küstenregionen aufgrund des Anstiegs des Meeresspiegels sowie häufigerer und intensiverer Stürme geschätzt. Auch in dieser Studie ist die Südostwahrscheinlichkeit aufgrund von Küstenbeschädigungen größeren Auswirkungen als anderen Regionen ausgesetzt (siehe Abbildung).

Empfehlung:

Die zuständigen Stellen des Präsidialamts [Executive Office] des Präsidenten, darunter der Rat für Umweltqualität, Büro und Verwaltung und Haushalt, sowie das Amt für Wissenschaft und Technologie, sollten Informationen über die potenziellen wirtschaftlichen Auswirkungen des Klimawandels zur Identifizierung signifikanter Klimas Risiken gegenüber der Bundesregierung nutzen und entsprechende bundesweite Antworten erstellen. Solche Reaktionen könnten die Etablierung einer Strategie beinhalten, um Bundesinvestitionen zu identifizieren, zu priorisieren und zu leiten, um die Widerstandsfähigkeit gegen zukünftige Katastrophen zu verbessern.

Betroffene Agentur: Exekutivbüro des Präsidenten

 

Übersetzt durch Andreas Demmig




Ein skeptischer Versuch, die gläsernen Grenzen der „kumpelhaften Begutachtungen“ der Wissenschaftsjournale zu durchbrechen

Regelmäßige Leser bei Anthony’s Watts Up With That und EIKE werden wissen, dass ich seit Juli 2013 über Jahre hinweg versucht habe, eine Analyse der Fehler der Klimamodelle zu veröffentlichen.

Die Analyse zeigt die Fortpflanzungsfehler der Klimamodelle durch Kalibrierung an der Untergrenze ihrer Projektionen der Lufttemperatur. Wer das erkannt hat, kann als Ergebnis vorhersagen: Klimamodelle sind äußerst unzuverlässig. Für eine ausführlichere Diskussion siehe meinen früheren WUWT-Beitrag zu diesem Thema (Danke Anthony).

Das Endergebnis ist, dass, wenn es zu einem CO 2-Effekt auf das globale Klima kommt, niemand weiß, wovon er redet.

[[ Eine ganze Passage voll Frust, die ich Ihnen dann doch übersetzt habe – etwas eingerückt. Informationen zur Studie gehen unten (normal formatiert) weiter, der Übersetzer

Bevor ich fortfahre, möchte ich ein herzliches Dankeschön aussprechen an Anthony, dafür, dass er den Klimaskeptikern eine unzensierte Stimme gibt, gegenüber denen, die sie lieber zum Schweigen bringen würden. Mit „Klimaskeptikern“ meine ich, wissenschaftlich denkende Menschen, die den Fall einer anthropogenen globalen Erwärmung beurteilen und ihre kritische Integrität beibehalten haben. Ich jedenfalls habe kürzlich meine sechste Ablehnung erhalten; diesmal von Earth and Space Science, einer AGU-Zeitschrift. [American Geophysical Union ; Die AGU veröffentlicht 20 hoch angesehene, von Experten begutachtete wissenschaftliche Zeitschriften zur Erforschung der Erd- und Weltraumwissenschaften – Eigenwerbung]

 Die Ablehnung folgte den üblichen zwei Runden von gleichmäßig negativen, aber wissenschaftlich verdienstvollen Bewertungen (mehr dazu später).

 Nach sechs Versuchen in mehr als vier Jahren zweifelte ich nun daran, den Artikel jemals in einem Klimaportal zu veröffentlichen. Die Einsätze sind einfach zu groß. Es sind nicht nur die Billionen von Dollar, die für Nachhaltigkeitstreibende verloren gehen würden.

Nee. Wenn die Analyse veröffentlicht würde, würde die Karriere jedes einzelnen Klimamodellierers mit James Hansen beginnend, Ihre Kompetenz würde in Frage gestellt. Zuschüsse verschwinden, Universitäten verlieren enormes Einkommen.

Welcher Konsens-Klimawissenschaftler würde bei all dem Interessenkonflikt möglicherweise eine unpassende Bewertung liefern? Sie werden sich zu Recht bedroht fühlen. Warum sollten sie nicht einen Grund finden, irgendeinem Grund, die Studie abzulehnen?

Irgendwie scheinen Herausgeber von Journalen zur Klimawissenschaft für diesen offensichtlichen Interessenkonflikt blind zu sein, wenn sie ihre Gutachter auswählen.

 Mit nahezu Hoffnungslosigkeit auf Veröffentlichung habe ich beschlossen, das Manuskript als Samisdat-Literatur weithin verfügbar zu machen [ein System …, um die von der Regierung unterdrückte Literatur heimlich zu drucken und verteilen].

]]

Das Manuskript mit seinem Hintergrund ist hier uneingeschränkt verfügbar (13,4 MB pdf).

Bitte beschäftigen Sie sich damit weiter und laden Sie es herunter, prüfen Sie es, kommentieren Sie es und senden Sie es an wen Sie möchten. Ich habe keine Zweifel, dass die Analyse korrekt ist.

Der analytische Kern des Ganzen:

Die Projektionen von Lufttemperatur sind in Klimamodellen nur lineare Extrapolationen der Treibhausgasemissionen. Sie unterliegen daher einer linearen Fehlerfortpflanzung.

Kompliziert, oder nicht? Nun muss ich nur noch auf einen Konsens-Klimawissenschaftler treffen, der dieses Konzept erfassen kann.

Willis Eschenbach hat im Jahr 2011 gezeigt, dass Klimamodelle nur Linearitätsmaschinen sind, so wie ich es in meinem Skeptic-Paper 2008 und bei CA im Jahr 2006 bereits vorgestellt habe.

Diese lineare Gleichung …

… emuliert die Projektion der Lufttemperatur eines Klimamodells nach;  fCO2 spiegelt die Klimasensitivität wider [bei angenommener Verdoppelung des CO2 Gehaltes] und “ a “ ist der Offset. Beide Koeffizienten variieren je nach Modell. Der Ausdruck in Klammer ist nur die partielle Veränderung des [CO2 -] Antriebs. Die Projektionen der Lufttemperatur selbst der fortgeschrittensten Klimamodelle sind kaum besser als y = mx + b.

Das Manuskript zeigt Dutzende erfolgreicher Emulationen wie diese:

Legende: Punkte sind CMIP5 RCP4.5 und RCP8.5 Projektionen. Grafik ‚a‘ [links] ist das GISS GCM Modell-E2-H-p1. Grafik ‚b‘ ist das GCM Modell 1-1 aus Beijing (BCC-CSM1-1). Die PWM-Graphen sind Emulationen aus der linearen Gleichung.

Die CMIP5-Modelle zeigen einen inhärenten Kalibrierungsfehler von ± 4 Wm-2 in ihren Simulationen der Langwellen-Wolkenforcierung (LWCF). Dies ist ein systematischer Fehler, der sich aus falscher physikalischer Theorie ergibt. Es pflanzt sich in jedem einzelnen iterativen Schritt einer Klimasimulation fort. Eine ausführliche Diskussion findet sich im Manuskript.

Die folgende Abbildung zeigt, was passiert, wenn dieser Fehler sich in CMIP5-Lufttemperaturprojektionen (ab 2005) fortpflanzt.

Legende: Grafik ‚a‘ Punkte sind die CMIP5 Multi-Model Mean Anomaly Projektionen der 5AR RCP4.5 und RCP8.5 Szenarien. Die PWM-Linien sind die linearen Emulationen. In der Grafik ‚b‘ sind die farbigen Linien die gleichen zwei RCP-Projektionen. Die Bandbereite der Unsicherheiten stammen aus der Fortpflanzung des Kalibrierungsfehlers des LWCF Modells.

Bei RCP4.5 weicht die Emulation ab der mittleren Projektion des Jahres 2050 ab, weil der GHG [Treibhausgas] Antrieb konstant geworden ist.

Als ein Monument für die außergewöhnliche Inkompetenz, die auf dem Gebiet der Konsens-Klimawissenschaft herrscht, stelle ich die 29 Bewertungen und meine Antworten für alle sechs Vorlagen hier zur öffentlichen Prüfung (44,6 MB Zip-Datei, geprüft mit Norton Antivirus).

 

Wenn ich Inkompetenz sage, hier ist was ich damit meine und was Sie finden:

„Konsens“ Klimawissenschaftler:

  1. sie denken, dass Präzision Genauigkeit ist
  2. sie denken, dass ein quadratischer Mittelwert-Fehler eine energetische Störung im Modell ist
  3. sie denken, dass Klimamodelle zur Validierung von Klimamodellen verwendet werden können
  4. sie habe keine Ahnung von Kalibrierung
  5. Sie wissen nicht, dass der Kalibrierungsfehler sich in nachfolgenden Berechnungen fortpflanzt
  6. sie kennen den Unterschied nicht, zwischen statistischer Unsicherheit und physikalischem Fehler
  7. sie glauben, dass eine „±“ [plus/minus] Unsicherheit einen positiven Fehlerversatz bedeutet
  8. sie glauben, dass die zufällige Annullierung von Fehlern die physikalisch bedingte Unsicherheit beseitigt
  9. sie glauben, dass die Anomalien der Projektionen physikalisch genau sind (das wurde nie bewiesen)
  10. sie glauben, dass die Projektionsvarianz über einen Mittelwert mit dem propagierten Fehler identisch ist
  11. sie denken, dass eine „± K“ -Unschärfe eine physikalisch reale Temperatur wäre
  12. sie denken, dass ein „± K“ -Unschärfebalken bedeutet, dass das Klimamodell selbst heftig zwischen Kältekammer- und Backofen Klima oszilliert
    Punkt 12 ist besonders bezeichnend für die allgemeine Unfähigkeit von Konsens-Klimawissenschaftlern.
    Nicht einer der Doktoren, die diese Annahme machten, bemerkte, dass ein „±“ – Unsicherheitsbalken jeden einzelnen simulierten Temperaturpunkt durchläuft und vertikal durchschneidet. Nicht einer von ihnen hat erkannt, dass ihre „±“ vertikalen Schwingungen bedeuten, dass das Modell die Kältekammer und Backofen Klimazustände gleichzeitig einnehmen muss!

Wenn Sie sie herunterladen, finden Sie diese Fehler wiederholt und verzweigt in den Bewertungen.

 

Meine Manuskriptbegutachter haben diese offensichtlichen Fehler offenbar als gültige Bewertung akzeptiert. Einige [der Gutachter] haben die Erfahrung, um zu erkennen, dass die [meine] Manuskriptanalyse korrekt ist.

Aus diesem Grund habe ich entschieden, dass ihre Bewertungsleistung Applaus verdient. Es sind:

  • Steven Ghan Journal of Geophysical Research-Atmospheres
  • Radan Huth International Journal of Climatology
  • Timothy Li Earth Science Reviews
  • Timothy DelSole Journal of Climate
  • Jorge E. Gonzalez-cruz Advances in Meteorology
  • Jonathan Jiang Earth and Space Science

Bitte kontaktieren oder belästigen Sie keine dieser Herren. Denn man kann hoffen, dass manche Veröffentlichung sie dazu bringt, vor Scham zu erröten.

Nachdem ich meine Antworten eingereicht hatte, die zeigten, dass die Kritiken wissenschaftlich nicht haltbar waren, bat ich einige dieser Redakteure, den Mut eines Wissenschaftlers zu haben und als „verdienstlose Einwände“ zu veröffentlichen. Schließlich werden in der Wissenschaft kritische, analytische Äußerungen oft ignoriert. Keiner von ihnen stellte sich jedoch der Herausforderung.

Wenn irgendein Redakteur oder Verleger nach der Prüfung meines Manuskripts dieses in wissenschaftlichen Journalen veröffentlichen will, wäre ich sehr dankbar.

Die oben genannten Zeitschriften vereinbarten, das Manuskript zur Überprüfung zu versenden. Zielstrebige Leser mögen vielleicht die wenigen eigenartigen Geschichten von nichtgeprüften -Rückweisungen im Anhang unten lesen.

Wirklich seltsam: Mehrere Gutachter haben unabsichtlicher Weise das Manuskript validiert und obwohl sie es ablehnten.

 

Zum Beispiel schrieb der dritte Rezensent der JGR Runde 2 [vom Journal of Geophysical Research]  (JGR-A R2 # 3), dass,

„[Emulation] ist nur bei Situationen möglich, in denen das Forcing [der GHG Antrieb] im Wesentlichen linear ist …“ und „[Emulationen] funktionieren nur mit Szenarien, die annähernd linear zunehmende Forcings haben. Jede Stabilisierung oder Addition großer Transienten (wie Vulkane) führt dazu, dass die Fehlanpassung zwischen diesem Emulator und dem zugrunde liegenden GCM offensichtlich ist. „

 Das Manuskript zeigte sofort, dass jede einzelne Klimamodell-Projektion ein lineares Forcing hatte. Die Überprüfung der Linearität durch den Rezensenten ist gleichbedeutend mit einer Validierung.

Der Gutachter hat aber auch ein Kriterium festgelegt, mit dem die Analyse verifiziert werden kann – eine Projektion mit nichtlinearen Forcierungen nachzuahmen. Offensichtlich überprüfte er  seine Aussage nicht, bevor er sie machte (oh, oh!), obwohl er die Emulationsgleichung hatte.

Meine Antwort beinhaltete diese Grafik:

Legende: Die Punkte von Jim Hansen 1988 Szenario A , B und C. Alle drei Szenarien beinhalten vulkanische Forcings. Die Linien sind die linearen Emulationen.

Die vulkanischen Forcings sind nicht linear, aber Klimamodelle extrapolieren sie linear. Die lineare Gleichung emuliert erfolgreich lineare Extrapolationen von nichtlinearen Forcings. Simpel. Die Emulationen von Jim Hansens GISS Model II Simulationen sind so gut wie die eines jeden anderen Klimamodells.

Der Herausgeber war offenkundig unbeeindruckt von der Demonstration und dass der Rezensent versehentlich die Manuskriptanalyse validiert hatte.

Die gleiche Inkongruenz von unbeabsichtigten Validierungen trat in fünf der sechs Einreichungen auf: AM R1 # 1 und R2 # 1; IJC R1 # 1 und R2 # 1; JoC, # 2; ESS R1 # 6 und R2 # 2 und R2 # 5.

In dem Review bei JGR R2 erwähnt Rezensent 3 sofort Informationen, die er nur in der Debatte gefunden haben konnte, die ich mit Gavin Schmidt bei Realclimate führte (und gewonnen hatte). Der Rezensent verwendete auch eine Gavin-ähnliche Ausdrucksweise. Ich vermute also, dass dieser JGR-Rezensent in der Tat Gavin Schmidt war. Das ist nur meine Meinung. Ich kann nicht ganz sicher sein, weil die Begutachtung anonym war.

Also, nennen wir ihn Gavinoid Schmidt-ähnlich. Drei der Redakteure bemühten diesen Rezensenten. Man erwartet, dass sie die große Waffe auspacken, um den Emporkömmling zu entsorgen.

Der Gavinoid antwortete mit drei meist identischen Bewertungen. Diese Bewertungen gehörten zu den unfähigsten der 29. Jeder dieser drei enthält den Fehler # 12.

Hier ist Gavinoids tiefes Denken:

„Selbst wenn sich die Forcings stabilisiert haben, würde diese Analyse voraussagen, dass die Modelle zwischen den Zuständen „snowball“ [entweder Schneeball = Kälte, oder „expotentiell“ ?] und außer-Kontrolle-laufenden „Gewächshäuser“ immer wilder schwingen werden.“

Und das ist es. Gavinoid denkt, dass die immer größer werdenden „± K“ -Projektions-Unsicherheitsbalken bedeuten, dass das Klimamodell selbst immer stärker zwischen Eis- und Hitze-Klimazuständen oszilliert. Er denkt, dass eine Statistik eine physikalisch reale Temperatur ist.

Ein Fehler eines naiven Neulings und der Gavinoid ist zweifellos ein promovierter Klimamodellierer.

Der Hauptteil von Gavinoids analytischen Fehlern besteht aus den Listenpunkten 2, 5, 6, 10 und 11. Wenn Sie die Studie und die Hintergrundinformationen herunterladen, enthält Abschnitt 10.3 der Hintergrund-Information eine Diskussion des gesamten Hash-Gavinoids aus einer Stefan-Boltzmann-Analyse.

Und wenn Sie eine außergewöhnlich schlechte Bewertung sehen möchten, sehen Sie sich die ESS-Runde 2-Rezension # 2 an [Earth and Space Science]. Es hat anscheinend die redaktionelle Durchsicht passiert.

Ich kann nicht enden, ohne das Video von Dr. Patrick Brown zu erwähnen, da welches die Youtube-Präsentation der Manuskriptanalyse kritisiert. Dies war mein Vortrag in 2016 für die Ärzte der Katastrophenvorsorge. Dr. Browns Vortrag wurde auch in „andthentheresphysics“ (aufgeführt ohne Ironie) und auf youtube veröffentlicht .

Dr. Brown ist Klimamodellierer und Postdoktorand bei Prof. Kenneth Caldiera am Carnegie Institute der Stanford University. Er hat mich freundlich benachrichtigt, nachdem er seine Kritik veröffentlicht hat. Unsere Unterhaltung darüber befindet sich im Kommentarbereich unter seinem Video.

Dr. Browns Einwände waren der klassischen Klimamodellierer, die Listenfehler 2, 4, 5, 6, 7 und 11.

Er machte auch den fast einmaligen Fehler, den quadratischen Mittelwert von statistischen Kalibrierungsfehlern [~?- im Original: root-sum-square average of calibration error statistics] mit einem Durchschnitt physikalischer Größen zu verwechseln; fast einzigartig, weil nur einer der ESS-Gutachter denselben Fehler gemacht hat.

Mr. „andthentheresphysics“ brachte seine eigenen falschen Ansichten sowohl bei Patrick Brown Webseite als auch bei seinen eigenen ein. Seine Blog-Kommentatoren äußerten alberne Unwesentlichkeiten und sein Moderator war mühsam kritisch.

Das ist alles. Leser, die Kritik an der Analyse vorbringen, werden dringend gebeten, zuerst die Liste und dann die Rezensionen zu konsultieren. Wahrscheinlich finden Sie ihre Einwände kritisch angesprochen.

Ich habe die Begutachtungen erleichtert, indem ich sie mit einer Zusammenfassung von Überprüfungsfehlern begann. Allerdings schien das den Redakteuren nicht zu helfen.

Danke, für Ihre Nachsicht, das hier zu lesen.

Ich fühlte ein echtes Bedürfnis, an die Öffentlichkeit zu gehen, anstatt schweigend zu dulden, was ich als reflexive intellektuelle Ablehnung und als einen schädlichen Verrat an der Wissenschaft durch die Menschen betrachte, die mit ihrem Schutz beauftragt sind.

Anhang von Journalen mit redaktionellen ABM* -Antworten

[ABM – anyone but me ~ jeder außer mir]

Risk Analysis. L. Anthony (Tony) Cox, Chefredakteur; James Lambert, Manuskript-Herausgeber.

Dies war meine erste Einreichung. Ich hatte ein positives Ergebnis erwartet, weil sie erkennbare Ambitionen im Klimakampf hatten, ihre Website über Kompetenz in der mathematischen Modellierung verfügt und Veröffentlichungen zur Fehleranalyse numerischer Modelle veröffentlicht hat. Was könnte schiefgehen?

Grund für eine ablehnende Begutachtung: „Der Ansatz ist ziemlich eng gefasst und es gibt wenig Aussicht auf Interesse und Lehren, die sich auf die verschiedenen Disziplinen übertragen, die die Zielgruppe der Zeitschrift RA sind.

Chefredakteur Tony Cox stimmte diesem Urteil zu.

Das Publikum des Online Journals: Risk Analysis, das nicht daran interessiert ist, dass es kein erkennbares Risiko für CO2-Emissionen gibt.

Genau.

Asia-Pacific Journal of Atmospheric Sciences, Songyou Hong, Chefredakteur; Sukyoung Lee, Manuskript-Herausgeber.

Dr. Lee ist Professor für atmosphärische Meteorologie am Penn State, ein Kollege von Dr. Michael Mann [Hockey Stick] und insgesamt bieten sie eine wunderbare Aussicht auf unvoreingenommenes Urteilsvermögen.

Grund für eine ablehnende Begutachtung: „Modellsimulierte atmosphärische Zustände sind weit davon entfernt, in einem strahlenden konvektiven Gleichgewicht zu sein, wie in Manabe und Wetherald (1967), auf dem Ihre Analyse basiert “ Und weil das Klima komplex und nichtlinear ist.

Chefredakteur Songyou Hong unterstützte dieses Urteil.

Das Manuskript handelt von Fehleranalyse, nicht von Klima. Es verwendet Daten von Manabe und Wetherald, basiert aber offensichtlich nicht darauf.

Dr. Lees Ablehnung folgt entweder einer flachen Analyse oder einem bequemen Vorwand.

Ich hoffe, sie wurde trotzdem mit Mike’s [Dr. Mann] Wertschätzung belohnt.

 

Science Bulletin, Xiaoya Chen, Chefredakteur, unsignierte E-Mail-Kommunikation von „Zhixin“.

Grund für eine ablehnende Begutachtung: „Wir haben [dem Manuskript] ernsthafte Aufmerksamkeit geschenkt und es sorgfältig gelesen. Die Kriterien für das Science Bulletin zur Beurteilung von Manuskripten sind die Neuheit und Bedeutung der Forschung und ob sie für ein breites wissenschaftliches Publikum interessant ist. Leider erreicht Ihr Manuskript keine Priorität, die für eine vollständige Überprüfung in unserem Journal ausreichend ist. Wir bedauern, Ihnen mitzuteilen, dass wir es nicht weiter zur Veröffentlichung betrachten werden. 

Eine Analyse, die jede einzelne Klimamodellstudie der letzten 30 Jahre entkräftet – zeigt, dass eine globale Klimawirkung von CO 2-Emissionen, falls vorhanden, gegenwärtig unerkennbar ist und das beweist unbestreitbar die wissenschaftliche Bedeutungslosigkeit des IPCC: „…erreicht keine Priorität ausreichend für eine vollständige Überprüfung im Science Bulletin.

Na klar.

Das Science Bulletin fuhr dann tapfer fort, mein E-Mail-Konto sofort zu sperren.

* * *

Erschienen auf WUWT am

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/10/23/propagation-of-error-and-the-reliability-of-global-air-temperature-projections/




Deutsche Steuermilliarden gegen den Klimawandel – „Internationale Klimafinanzierung“ – mehr Mittel trotz unklarer Wirkung

Deutschland ist Energiewende-Land. Aber wussten Sie, dass der deutsche Steuerzahler jährlich mehrere Milliarden Euro für die „internationale Klimafinanzierung“ zahlt? Die Bundesregierung finanziert Maßnahmen in Entwicklungs- und Schwellenländern zur Verminderung von Treibhausgasemissionen und zur Anpassung an die Folgen des Klimawandels. Rund 90 Prozent der Mittel stammen aus dem Haushalt des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ). So wird der überwiegende Teil der Mittel auch – ähnlich der Entwicklungszusammenarbeit – für die bilaterale Zusammenarbeit verwendet. Die restlichen Mittel werden über internationale Organisationen und Finanzierungsmechanismen bereitgestellt – die sogenannte multilaterale Zusammenarbeit.

2,7 Milliarden Euro Haushaltsmittel

Die deutschen Beiträge aus öffentlichen Haushalten sind in den vergangenen Jahren deutlich angestiegen. Die aktuellsten Zahlen liegen für das Jahr 2015 vor. Damals hatte die Bundesregierung rund 2,7 Milliarden Euro aus Haushaltsmitteln für internationalen Klimaschutz und Anpassungsmaßnahmen zugesagt. Weitere Mittel – rund 4,7 Milliarden Euro – wurden über Kredite, Beteiligungen und andere Finanzierungen aus Kapitalmarktmitteln der öffentlichen Kreditanstalt für Wiederaufbau (KfW) und der Deutschen Investitions- und Entwicklungsgesellschaft (DEG), einer Tochtergesellschaft der KfW, zugesagt.

Die Ausgaben aus Haushaltsmitteln haben sich innerhalb von zehn Jahren nahezu versechsfacht und sollen weiter steigen. Bundeskanzlerin Angela Merkel hatte im Mai 2015 auf dem „Petersberger Klimadialog“ angekündigt, den deutschen Beitrag zur Klimafinanzierung zu verdoppeln. Dies bedeutet einen Anstieg der Ausgaben aus dem Bundeshaushalt auf 4 Milliarden Euro bis zum Jahr 2020. Unklar ist noch, wie sich der Rückzug der USA aus dem Pariser Klimaabkommen auf die verbleibenden Geberländer auswirken wird.

Wirkung nicht ganz klar

Nicht ganz klar sind offenbar auch die Wirkungen der finanzierten Projekte auf die CO2-Emissionen. Dies ergab eine Anfrage des Deutschen Steuerzahlerinstituts (DSi) an das BMZ. In der aktuellen Ausgabe der „Deutschen Nachhaltigkeitsstrategie“ räumt die Bundesregierung sogar ein, dass die Angaben zur Wirkung letztlich Prognosen sind und überschätzt sein können. Mit Blick auf die geplanten Ausgabensteigerungen muss die Wirkungskontrolle verbessert werden.

Dieser Artikel ist zuerst erschienen im Wirtschaftsmagazin Der Steuerzahler: Internationale Klimafinanzierung – mehr Mittel trotz unklarer Wirkung, Der Steuerzahler, Ausgabe 09/2017. 

EIKE dankt dem Deutschen Steuerzahlerinstitut des Bundes der Steuerzahler (www.steuerzahlerinstitut.de/) und dem Bund der Steuerzahler (www.steuerzahler.de) für die Gestattung des ungekürzten Nachdrucks.

Quelle: BMZ.




Maischberger fragt: Kippt unser Klima? Antwort: Nein – wohl aber die Kompetenz der meisten Talkgäste?

Die Talkrunde (hier kann sie bis zum 10.10,2018 nochmals angesehen werden) begann so:

Jörg Kachelmann, ist beim Wetter von nichts mehr überrascht!

Der „bekannteste Kimaforscher Deutschlands“ Prof. H.J. Schellnhuber sieht die Sahara bereits bis nach Europa vordringen.

Der Wissenschaftsjournalist Alex Reichmuth, studierter Mathematiker und Physiker und bekennender „Klimaleugner“ sieht die versuchte Bekämpfung des Klimawandels als viel gefährlicher an, als die Folgen desselben. Radikale Klimaabkommen bewirken Hungersnöte und den Zusammenbruch der Energieversorgung

Bärbel Höhn – inzwischen Öko-Oma der Grünen- tadelt die Klima-Bilanz der großen Koalition und deren Chefin – Angela Merkel- gleich mit. Sie hätte für den Klimaschutz Null erreicht. Eine neue Regierung müsse sofort alle „alten“ Kohlekraftwerke abschalten.

Dorothee Bär CSU Staatsekretärin im Verkehrsministerium findet im Prinzip alles richtig nur dürften die Maßnahmen nicht zu Lasten der Bürger dieses Landes gehen.

Mit dieser illustren Truppe ging die Moderatorin Sandra Maischberger die drückende Frage an: Xavier und die Wetterextreme: Kippt unser Klima?

 

Video der Maischbergersendung vom 11.10.17 in voller Länge. Mit Dank an Maischberger TV

Nun, ohne den munteren Inhalt dieser Talkshow vorwegnehmen zu wollen, diese hochwichtige Doppel- Frage – wurde je nach Couleur der Befragten – mit ja und auch mit nein beantwortet. Obwohl öfter mal sowohl Kachelmann wie auch Schellnhuber darauf hinwiesen, dass Klima und Wetter zwei paar Schuhe sind und tunlichst nicht miteinander vermengt werden sollten, hielt sich kaum einer der Anwesenden daran, die Mahner eingeschlossen, und taten genau das und immer wieder. Fröhlich angeregt durch manche Einspieler Maischbergers, die jedes Wetterextrem der letzten Jahre dem Klimawandel andichtete.

Es wäre journalistische Schwerstarbeit auch nur die gröbsten Schnitzer vieler Beteiligter hier im Detail aufzulisten, deswegen beschränke ich mich hier auf einige „Lowlights“ , die, wie sollte es anders sein, insbesondere vom größten Klimaforscher alle Zeiten (GröKaZ?) H. J. Schellnhuber, und seiner politischen Erfüllungsgehilfin Bärbel Höhn zum Besten gegeben wurden.

Schellnhuber gestand, als es um den Vorschlag Stockholmer „Klimaforscher“ ging, zur Rettung des Weltklimas u.a den Individualverkehr mit samt dem Fliegen einzustellen, dass er leider und offensichtlich widerwillig mit dem Flugzeug nach Köln anreisen musste, weil er ja zuvor noch in Potsdam seine eigene Konferenz zu leiten hatte. Bei der ging es ebenfalls um die Weltrettung.

Allein deswegen, so mein Eindruck, müssten wir Zuschauer ihm doch dankbar sein, und ihm auch das Flugzeugnehmenmüssen verzeihen! Tun wir! Wer so Großes leistet sollte nicht an kleinliche Vorgaben gebunden werden.

Das alles beflügelte den Professor dann noch so einiges an Katastrophen auf die Zuschauer loszulassen, die, hoch genau berechnet, uns Erdenbürger ereilen, wenn die Erwärmung ungebremst z.B. 5 ° C erreichte. Dann, so die schnelle und ausführliche Antwort – und das wäre keineswegs ausgeschlossen- würde der Meeresspiegel- und alle nickten verständig, denn jeder glaubt zu wissen was das ist (wer das nicht so genau weiß, kann ja hier und hier mal nachschauen)- doch um sage und schreibe 60 bis 70 m ansteigen. Das schöne Florida zum Beispiel würde in den Fluten versinken. Auf die trockene Frage von Alex Reichmuth, wann das denn eintreten würde, sagte der GröKaZ nur: Bis zum Jahr 3000.

Also in 1000 Jahren kommentierte Reichmuth ungerührt, .. und sie glauben Sie könnten das berechnen?“ Das sei doch nur einfache Physik warf der Professor ein und schob nach … „aber um 1 m bis zum Ende des Jahrhunderts“. Doch da waren die Anwesenden schon beim nächsten Thema und niemand fürchtete sich mehr über die 1 m. Bemerkenswert nur, dass niemand der Anwesenden sich dazu äußerte, bzw. an den Kopf fasst und „Herr lass Hirn regnen“ erbat, wie jemand der sich Wissenschaftler nennt, „genau berechnen“ kann wie hoch der Meeresspiegel in tausend Jahren sein würde.

Von ähnlicher Qualität war die Behauptung des Professors aus Potsdam, dass „die Wissenschaft“ mit 99,999 % Wahrscheinlichkeit berechnet hätte, dass der Mensch zu 60 % zum „Klimawandel“ (gemeint ist die leichte Erwärmung des vergangenen Jahrhunderts um ca. 0,8 K, wenn man den vielfach manipulierten Berechnungen des GISS, der NOAA und des Hadley Centers weiterhin Glauben schenken möchte) beigetragen hätte. Es lag wohl an der mangelnden Kompetenz so mancher Teilnehmer, vielleicht auch am Druck den die Moderatorin machte, um ihre vorbereiteten Einspieler abarbeiten zu können, dass niemand den Professor fragte, wie denn „die Wissenschaft“ zu dieser Präzisionsaussage gekommen sei. Falls er wahrheitsgemäß geantwortet hätte, wäre herausgekommen, dass er Modelle meinte, die, eigens für diesen Zweck gemacht, nachwiesen, dass die anthropogenen Treibhausgase – mit Riesenvorsprung das CO2- der Hauptantrieb der Erwärmung seien. Das zeigen 99,999 % der Modellläufe. Doch der alleinige Grund ist nicht das CO2, sondern die Konstruktion der Modelle als virtuellem Beweisersatz– die können gar nicht anders!

Denn wenn man das CO2 als Hauptantrieb einbaut, wird das Weglassen dieses Antriebs automatisch eine geringere bis zu gar keiner Erwärmung führen müssen. Das ist exakt dasselbe, als wenn man ein Auto mit Benzinmotor baut, um zu beweisen, dass Autos generell nur mit Benzin betrieben werden können. Füllt man Benzin in den Tank, dann läuft der Motor, das Auto fährt. Lässt man das Benzin weg, oder ersetzt es durch Diesel, Gas, Wasserstoff o.ä. dann bleibt der Motor stehen und das Auto fährt nicht mehr. Und die Wahrscheinlichkeit dafür liegt sogar bei 100 %.

Von ähnlicher – auch trickreicher- Qualität der Ausnutzung der Unwissenheit seiner meisten Zuschauer, gepaart mit tiefer Gläubigkeit an die Kompetenz des „bekanntesten Klimaforschers Deutschlands“ (ein Titel, der ihm unzweifelhaft gebührt, aber ein sehr schlechtes Licht auf alle anderen in diese Kohorte wirft) – sind die anderen „genauen“ Berechnungen diese Professors, die er bei jeder sich bietenden Gelegenheit seinen beeindruckten Zuschauern an den Kopf wirft. Das Team vom Klimamanifest von Heiligenroth hat hier einige dieser Stilblüten zusammen gestellt. Da spielte es auch keine große Rolle mehr, dass er später behauptete, dass eine Dunkelflaute in Deutschland durch große Batterien verhindert werden, wie sie EON zur Zeit baue. Es sind ja nur im Mittel 1,64 TWh, die Deutschland derzeit täglich benötige. Dafür würden immerhin schon 16,4 Millionen Superbatterien a 100 kWh der Teslaklasse ausreichen. Das sagte er allerdings nicht.

Kümmern wir uns noch ein wenig um die anderen Teilnehmer. Kachelmann hält mit überzeugenden Argumenten den Sturm Xavier für Wetter, wie alle anderen aufgezählten extremen Wetterphänomene auch. Ein Bezug zum Klimawandel, gar zum menschgemachten, sieht er nicht. Glaubt aber trotzdem daran, dass – weil er einen dreijährigen Sohn hat, und bezieht auf Nachfrage den zehnjährigen Sohn der Moderatorin mit ein- dass die Regierung , und schaut zu den beiden zukünftigen Regierungsmitgliedern oder –macherinnen hinüber, unbedingt etwas gegen den Klimawandel machen müsse.

Eine davon, das grüne Urgestein Bärbel Höhn, hatte zuvor – wenn auch unfreiwillig- im Drang die Schließung zunächst „alter“, dann aller Kohlekraftwerke, auch als sozial berechtigt darzustellen, ein klassisches Eigentor geschossen. Weil ja – so Höhn- immerhin 370.000 Arbeitsplätze bei den „Erneuerbaren“ schon für 35 % des Stroms hierzulande sorgen würden, während nur 20.000 Arbeitsplätze bei den Kohleverstromern, allerdings 40 % des Stroms erzeugten. Sie wollte verdeutlichen, dass die Arbeitsplätze der Erneuerbaren doch um soviel wertvoller, weil zahlreicher seien, als die wenigen 20.000 Arbeitsplätze bei den Kohleverstromern, die nun leider, leider – was soll man machen- wegfallen müssten. Abgesehen von der auch nicht unwesentlichen Tatsache, dass beide Zahlen von den Arbeitsplätzen falsch sind, zeigte sie damit auf, dass die Erzeugung von Kohlestrom um fast den Faktor 20 x produktiver ist (370.000: 20.000), als die von Zappelstrom.

Und wenn man dann noch weiß, dass die Vergütung für den Erzeuger einer kWh für Kohlestrom nur ca. 3 – 4 Cent beträgt, während für Zappelstrom im Mittel 16 Cent/kWh bezahlt werden müssen, dann muss jedem klar werden, dass die bereits heute irrsinnig hohe Zweitkapazität an Zappelstromerzeugung nichts weiter als ein ausschließlich ideologisch begründeter aber extrem teurer Irrweg ist. Doch leider wurde auch dieses Eigentor nicht zum Thema, sondern ging im Getümmel der lebhaften Aussprache unter. Ebenso wie der zaghafte Hinweis der Staatssekretärin im Verkehrsministerium Dorothee Bär, die zwar alles gut und richtig fand, was der Professor und ihre vielleicht zukünftige Koalitionärin zum Klimawandel so sagten, und auch fest zum Pariser Abkommen steht, wie sie sagte, aber all dies nur machen wollte, wenn es nicht zu Lasten der Menschen gehen würde. Wie das gehen sollte, sagte sie allerdings nicht. Jedenfalls, so warf sie schüchtern ein, stünde ja Deutschland nur für 2 % der weltweiten Emissionen. Und damit – wollte sie wohl sagen- im weltweiten Ringen um den „Klimaschutz“ völlig unbedeutend. Und, hätte sie ergänzen müssen, auch wenn Deutschland komplett auf seine CO2 Emissionen verzichtete – im Vorgriff auf die Forderungen der Stockholmer „Wissenschaftler“ die auch noch die Einkind-Politik á la Mao dem Westen empfahlen- dann China und Indien zusammen diese Menge in wenigen Monaten zusätzlich in die Atmosphäre bliesen. Also total irrelevant ist, was wir hier machen oder nicht machen. Aber auch dieser schüchterne Einwand mit dem Ziel doch wieder etwa mehr Vernunft walten zu lassen, ging unkommentiert unter.

So bleibt nur noch das Schlusswort von Alex Reichmuth erwähnenswert, der tapfer gegen den Mainstream schwimmend allen sagen durfte, dass er jeglichen Versuch der Menschheit das Klima der Welt zu ändern für Hybris halte, allerdings gepaart mit einem entsetzliche Verlust an Wohlstand bzw. die Aussicht darauf. „Man würde hunderte Millionen Menschen zurückbringen ins tiefste Mittelalter, es gäbe Hungersnöte“ Wohl wahr! Freunde in der Runde hat er sich aber damit nicht gemacht.

 




Xavier-Nachlese: Die windigen Behaup­tungen des Mojib Latif – Erwide­rungen auf ein NDR- Fernseh­interview

Stefan Kämpfe, Josef Kowatsch, Klaus-Eckart Puls
Am 5. Oktober 2017 fegte der Orkan „XAVIER“ durch Deutschland. Unser Mitgefühl gilt den Angehörigen der Opfer und allen, die Sachschäden erlitten haben. Doch kaum hatte „XAVIER“ sein zerstörerisches Werk vollendet, meldete sich der Alarmist Mojib Latif zu Wort und deutete in der NDR- Talkshow vom 6. Oktober das Orkantief als Folge des Klimawandels. Doch so schlimm die Auswirkungen von XAVIER auch waren- Stürme gehören in der Westwindzone der gemäßigten Breiten, in denen Deutschland liegt, zum Alltag.Sie sind der Preis, den wir für ein insgesamt angenehmes Klima ohne extreme Hitze oder Kälte und mit meist ausreichenden Niederschlägen bezahlen müssen, denn sie gleichen – besonders vom Herbst bis zum Frühling – die Temperaturunterschiede zwischen heißen und kalten Regionen aus. Und um es vorweg zu nehmen: Stürme und Unwetter werden nicht häufiger, und der leichte, insgesamt angenehme Temperaturanstieg der vergangenen 100 Jahre in Deutschland lässt sich ganz ohne die zunehmende CO2- Konzentration erklären.

Das Interview finden Sie hier http://www.ndr.de/fernsehen/sendungen/ndr_talk_show/Klimaforscher-Prof-Dr-Mojib-Latif,ndrtalkshow4272.html

 

Video nicht mehr verfügbar
.

Interview von Prof. Dr. Mojib Latif zum Wirbelsturm Xavier und Klimawandel in der ndr-Talkshow vom 6.10.17

Gibt es mehr oder weniger Wind, Stürme und Sturmfluten in Norddeutschland?

Abb. 1: Abnehmende Windgeschwindigkeit in Norddeutschland (Mittel aus 25 DWD- Stationen) seit 1992 im Jahresmittel, weil Großwetterlagen mit unbestimmter Anströmrichtung (XX- Lagen der Objektiven Wetterlagen- Klassifikation des DWD) häufiger wurden.

Abb. 2: Abnehmende Windgeschwindigkeit in Norddeutschland (Mittel aus 25 DWD- Stationen) seit 1992 auch im Oktobermittel. „Xavier“ war ein Einzelfall, der so leider stets unregelmäßig als Herbststurm auftreten kann und nichts über die langfristige Klimaentwicklung aussagt!

Abb. 3: Auch langfristig wurde der Wind, hier ist der geostrophische Wind für die Deutsche Bucht dargestellt, schwächer. Grafik: Klaus Puls

Abb. 4: Nachdem die Anzahl atlantischer Orkantiefs zu Beginn der 1990er Jahre einen Höhepunkt erreichte, nahm sie wieder deutlich ab. Die Aussage des Herrn Latif, es gäbe immer mehr Stürme, ist falsch! Grafik: Klaus Puls

Abb. 5: Auch wegen der angeblichen Zunahme von Sturmfluten müssen wir uns keine Sorgen machen. Zwar erreichte deren Anzahl 1990 ein auffälliges Maximum, doch seitdem nahm ihre Häufigkeit wieder stark ab. Grafik: Klaus Puls

Gibt es mehr schwere Hurrikane (Tropische Wirbelstürme des Atlantiks), wie das Herr Latif im Interview am 06.10.2017 (NDR- Talkshow 22:00 Uhr) behauptete?

Abb. 6: Erst seit etwa 1950 kann man davon ausgehen, dass Anzahl und Intensität der Hurrikane einigermaßen korrekt erfasst wurden (zunehmende See- und Luftfahrt; Wettersonden und Wetterballone). Und da Zeigt sich Überraschendes: Schwere Hurrikane ab der Kategorie 3 auf der Saffir- Simpson- Skala wurden etwas seltener; zwar ist der Abnahmetrend nicht signifikant; eine „besorgniserregende Zunahme“ fehlt jedoch eindeutig.

Abb. 7: Die durch alle Hurrikane pro Jahr freigesetzte Energiemenge (ACE) blieb seit 1950 praktisch gleich. Die zunehmenden finanziellen Schäden durch Hurrikane resultieren nicht aus mehr Hurrikan- Energie, sondern sind eine Folge der immer stärkeren Besiedlung der Küsten, bei steigendem Wohlstand, was zu immer mehr Bebauung führt.

Mildere Winter mit immer weniger Eis und Schnee in Deutschland?

Hierbei handelt es sich um eine halbwahre Aussage des Herrn Latif. Zwar wurden die Winter seit 1950 um beachtliche fast 1,8 Kelvin milder (DWD- Mittel), allerdings endete diese Erwärmung nach der 2. Hälfte der 1980er Jahre. Eine wesentliche Ursache der winterlichen Erwärmung Deutschlands (und der Erwärmung besonders im Frühling und Sommer) ist nicht die CO2- Zunahme, sondern neben geänderten Großwetterlagenhäufigkeiten und mehr Sonnenschein (nur im Sommerhalbjahr!) der so genannte Wärmeinsel- Effekt (WI):

Abb. 8: Der Winter erwärmte sich in Deutschland seit den 1950er Jahren, an welche Herr Latif in dem Interview seine Kindheits- und Jugenderinnerungen hing, auch deshalb stark, weil das DWD- Mittel stark WI- belastete Stationen enthält und bis Anfang der 1980er Jahre eine Abkühlungsphase herrschte; hier Frankfurt/Main- Flughafen mit starker Zunahme an Besiedlungsdichte, Bebauung und Verkehr. Die ländliche Station Schneifelforsthaus/Eifel (grün) erwärmte sich deutlich weniger stark. Und seit den späten 1980er Jahren wurden die Winter überall wieder ein wenig kälter.

Abb. 9: Böse Überraschung für Herrn Latif: Seit 30 Jahren werden die Winter in Deutschland nicht milder, sondern etwas kühler.

Abb. 10: Unter Hinzunahme des sehr kalten Winters 1986/87 ergibt sich im DWD- Mittel noch eine Temperaturstagnation; doch an WI- armen Orten (Amtsberg- Dittersdorf/Erzgebirge, blau, sehr ländlich) bereits eine merkliche Abkühlung.

Weniger Schnee im Winter?

Daten liegen hierzu nur sehr wenige vor; immerhin dürfte die Anzahl der Tage mit einer Schneedecke von mind. 1 cm Höhe in Potsdam seit 1893/94 einigermaßen korrekt beobachtet worden sein:

Abb. 11: Seit dem Ende des 19. Jh. nahm die Anzahl der Schneedeckentage nur minimal ab. Betrachtet man das Gleitende Mittel, so steht schneeärmeren Phasen um 1920 und heute eine schneereichere um 1970 gegenüber – mit „Klimawandel“ hat das nichts zu tun.

Abb. 12: Betrachtet man die Zeit seit der Mitte der 1920er Jahre, so blieb die Anzahl der Schneedeckentage völlig unverändert; die wenigsten gab es mit nur einem(!) Tag 1948/49 und 1974/75 (3 Tage).

Erwärmung um etwa 1 Grad in ca. 100 Jahren in Deutschland – warum?

Auch hier helfen- weil langfristig vorhanden und relativ zuverlässig- die Daten aus Potsdam weiter. Sie zeigen, dass die Erwärmung des Sommerhalbjahres zu gut 56% allein mit der zunehmenden Sonnenscheindauer erklärbar ist:

Abb. 13: Enge Verzahnung des Gangs der Sonnenscheindauer (gelb) und der Temperatur (pink) im Sommerhalbjahr (April bis September).

Leider liegt ein DWD- Mittel der Sonnenscheindauer erst seit 1951 vor, doch seit dieser Zeit zeigt sich auch da ein deutlicher Zusammenhang:

Abb. 14: Selbst im Jahresmittel (von Oktober bis Februar wärmt die Sonne kaum) zeigt sich eine merkliche Verzahnung von Sonnenscheindauer und Temperatur, knapp 21% der Temperaturvariabilität lassen sich schon mit der Sonnenscheindauer erklären.

Werfen wir als nächstes einen Blick auf die Entwicklung der Großwetterlagenhäufigkeiten:

Abb. 15: Seit 1881 wurden Großwetterlagen mit südlichem Strömungsanteil enorm häufiger; diese wirken erwärmend. In 2014, dem bislang wärmsten Jahr in Deutschland mit 10,3°C (DWD- Mittel), erreichte ihre Häufigkeit mit 134 Tagen den bislang höchsten Wert (in den Kaltjahren 1887, 1908 und 1919 gab es diese erwärmend wirkenden Lagen mit Südanteil nur an 22, 27 und 23 Tagen). Die Wetterlagen-Klassifikation erfolgte nach HESS/BREZOWSKY. Wegen der sehr unterschiedlichen Größe der Daten mussten Indexwerte berechnet werden, um beide Werte in einer Grafik anschaulich darstellen zu können.

5 Grad Erwärmung in Deutschland bis 2100- wie realistisch sind die apokalyptischen Erwärmungsprognosen des Herrn Latif?

In dem Interview nannte Herr Latif keinen konkreten Startpunkt, ab dem die Erwärmung von 5 Grad (entspricht 5 Kelvin) gelten soll. Da ein verlässliches Deutschland- Mittel seit 1881 vorliegt, ergibt sich seitdem eine Erwärmung (Jahresmitteltemperatur) um gut 1,4 Grad; in den bis 2100 verbleibenden gut 8 Jahrzehnten müsste es sich also um 3,6 Grad erwärmen- völlig unrealistisch:

Abb. 16: In den 136 Jahren seit 1881 bis 2016 sind erst 1,4 Grad der 5 Grad Erwärmung erfolgt. Um diese 5 Grad zu schaffen, müsste sich die Erwärmung in den verbleibenden gut 8 Jahrzehnten auf mehr als 0,4 Grad je Jahrzehnt beschleunigen – mehr als unrealistisch. An der fetten, grauen Trendmittel- Linie erkennt man, dass sie jedoch ganz am Ende flacher wird. Eine weitere, wesentliche Erwärmungsursache ist nämlich die AMO (in deren Warmphasen, wie zur Mitte des 20. Jahrhunderts und heuer, es in Deutschland tendenziell wärmer war; doch nun wird erwartet, dass bald eine AMO- Kaltphase beginnt).

Obwohl statistisch nicht signifikant, lohnt sich ein Blick auf die Temperaturentwicklung der letzten 20 Jahre; denn sie zeigt eine merkliche Abschwächung des Erwärmungstrends:

Abb. 17: Seit 2 Jahrzehnten scheint sich die Deutschland- Erwärmung zu verlangsamen – keine guten Voraussetzungen, dass die Prognosen des Herrn Latif für das Jahr 2100 auch nur annähernd eintreten. Und hierbei wurde 2017 schon sehr optimistisch auf 9,6°C geschätzt – vermutlich wird es noch 1 bis 3 Zehntelgrad kühler als diese Schätzung ausfallen. Wegen der nachlassenden Sonnenaktivität wird hingegen eine Stagnations- oder Abkühlungsphase immer wahrscheinlicher.

Fazit: Die Behauptungen des Mojib Latif lassen sich anhand der Daten widerlegen. Die mittleren Windgeschwindigkeiten in Norddeutschland nahmen sowohl langfristig als auch seit den 1990er Jahren ab. Die Anzahl der atlantischen Orkantiefs und der Sturmfluten (Nordsee) erreichte in den frühen 1990er Jahren zwar ein markantes Maximum; anschließend sank ihre Zahl aber wieder auf das Niveau der 1950er bis 1970er Jahre. Seit fast 70 Jahren lässt sich auch keine Zunahme der schweren Hurrikane (ab Kategorie 3) beobachten; eher wurden sie etwas seltener. Dass Unwetterschäden zunahmen, ist eine Folge des gestiegenen Wohlstands (mehr, größere und wertvollere Gebäude oder Anlagen, teils in dafür ungeeigneten Gebieten wie Meeresküsten, Bach- und Flusstälern); nicht eine Folge des Klimawandels. Und die in Deutschland tatsächlich gestiegenen Lufttemperaturen haben ihre Hauptursachen in geänderter Landnutzung (WI- Effekte), zunehmender Sonnenscheindauer und häufigerer Großwetterlagen mit südlichem Strömungsanteil. Die von Herrn Latif befürchtete Erwärmung um 5 Grad bis 2100 ist mehr als unrealistisch, zumal sich der Erwärmungstrend zu verlangsamen scheint; er könnte gar in eine Stagnations- oder Abkühlungsphase übergehen.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Klaus Puls

Josef Kowatsch

Wer dem ndr-Fernsehen seine Meinung dazu schreiben möchte hier die Mail-Adresse fernsehen@ndr.de




Deutschland auf der Geisterbahn der Angst

Insbesondere durch Opfer wurde das Volk dazu gebracht, die höheren Wesen gnädig zu stimmen. Die häufig erfolgende Bestrafung der Sünder äußerte sich in Katastrophen verschiedenster Art: Seuchen, Missernten, Sintfluten , Erdbeben oder auch das längere Ausbleiben von Regen und andere schmerzliche Ereignisse, die den Menschen ihre Machtlosigkeit gegen die Götter vor Augen führte.
Die christlichen Religionen hatten für diesen Zweck die Hölle eingeführt. Während die Evangelischen kaum Chancen haben, angesichts ihrer Sünden der Hölle zu entkommen, hat die katholische Kirche ein kluges System etabliert, mit dem sich die Sünder freikaufen können: Im Mittelalter buchstäblich mit Geld (der von Martin Luther bekämpfte Ablasshandel), heute mit dem Absolvieren bestimmter Rituale (Wallfahrten, Rosenkränze beten etc.).

Im Grunde hat sich auch in unseren angeblich aufgeklärten Zeiten nicht viel an dieser Methode der Kontrolle und Steuerung einer Bevölkerung geändert, denn die Benutzung von Angst zur Erreichung politischer Ziele war und ist unübertroffen wirksam. Die Priesterschaft vergangener Zeiten ist heute durch eine enge Arbeitsgemeinschaft von Regierenden und Medien ersetzt worden; (Anmerkung der Redaktion: „Die Wissenschaftler“ nicht zu vergessen, deren Autorität von den Regierenden und Medien genutzt werden, um ihre Behauptungen udn Forderungen unangreifbar zu machen, die aber auch oft selber in einer Doppelrolle: Verkünder der letzten Weisheit und politischer Vollstrecker – Beispiel unter vielen H.J. Schellnhuber & Cie- diese Rolle übernehmen) die Götter haben zumindest in unserem Lande nicht mehr viel zu melden, aber die Dämonen sind geblieben. An die Stelle der Götter sind flexibel nutzbare Begriffswolken wie Umwelt, Klima und Natur getreten; seltener die Mutter Erde persönlich in Gestalt von Gaia.
Was aber im Vergleich zum Mittelalter sehr viel stärker in der Angstpolitik genutzt wird, ist der Ablasshandel. Er hat viele Erscheinungsformen:

– Bioprodukte kaufen,
– Ökostrom nutzen,
– vorbildliche Mülltrennung,
– Photovoltaik-Paneele auf dem Dach,
– Elektroauto oder Hybridauto fahren,
– Jute-Tragetaschen,
– Fair-Trade-Artikel kaufen;

das sind nur einige Beispiele für Handlungsweisen, die ein sog. Gutmensch praktizieren muss, damit er als solcher von Seinesgleichen auch anerkannt wird. An die Stelle der Hölle ist die Ächtung durch die Medien, also die angebliche Öffentlichkeit, getreten; was nach dem Tode folgt, spielt keine Rolle mehr. Dieses System hat den Vorteil, dass die Strafe für Ungläubige und Ketzer bereits im Diesseits und nicht mehr im dubiosen Jenseits erfolgt. Auch muss man sich nicht mehr Sonntags in eine Kirche bemühen, um vom Dorfpfarrer zusammengestaucht zu werden. Das erledigen die täglich präsenten Medien mit Schreckensnachrichten aus aller Welt, mit den haaresträubenden Berichten und nicht sofort nachprüfbaren Prophezeiungen angeblicher Wissenschaftler sowie den mahnenden Ansprachen von Politikern, die ihrerseits das von den Medien vorsortierte und von Kritik gesäuberte Faktenmaterial als ihre Meinung vortragen.

Damit auch die Ungläubigen, die den Ablasshandel boykottieren, in das Ablass-System einzahlen müssen, gibt es spezielle Steuern, Abgaben und Umlagen, durch die sie als Sünder gegen die Umwelt bestraft werden, wodurch auch gleichzeitig der Finanzminister profitiert. Wie man die Gutmenschen davon verschont, ist noch nicht geklärt; schließlich braucht der Finanzminister auch deren Geld.
.
Weil sich die Natur des Menschen im Laufe der kurzen Zeitspanne seiner Existenz in keiner Weise verändert hat, gehört auch heute zum politischen System der Angstmacherei immer das Verdienen von Geld in großem Stil. Die Profiteure der Angst stellen sich rasch auf diese mit Subventionen gefüllten Rendite-Goldgruben ein und stellen eine die Politik stützende Lobby dar. Zum Beispiel mit der Produktion von politisch begünstigten Anlagen, die normalerweise niemand kaufen und installieren würde – gigantische Windräder, deren „Zappelstrom“ völlig unbrauchbar ist oder Photovoltaik-Paneele auf dem Dach, die nachts und bei schlechtem Wetter funktionslos vor sich hingammeln – aber bei den Nachbarn Eindruck machen.

Die sogenannte Energiewende und der ebenfalls sogenannte Klimaschutz – verstärkt durch den Kernkraft-Ausstieg – haben speziell in Deutschland einen quasi-religiösen Charakter erhalten. Kritik durch Fachleute gab es von Anfang an, aber im Parlament, wo angeblich nur ihrem Gewissen verpflichtete Abgeordnete sitzen, gab es bis heute keine vernehmliche kritische Stimme – von keiner einzigen Partei.

Die insbesondere durch die Umwelt- und Energiepolitik zwangsläufig und unvermeidbar entstandenen riesenhaften Probleme sind bereits in zahlreichen klugen Artikeln beschrieben worden. Die liest nur leider nicht jeder.
Dass die Gesetze der Physik die Todfeinde der Energiewende sind, ist zum Beispiel in einem Artikel vor nicht allzu langer Zeit dargestellt worden. Diese Tatsache hätte zwar den Politikern und insbesondere den Ministerialbeamten rechtzeitig zu denken geben müssen, aber wenn man von der Physik keine Ahnung hat, dann gibt es auch keine Bedenken,

Die Ahnungslosigkeit in Bezug auf die Physik betrifft auch die Mehrheit der Bevölkerung, was an der vor allem in den westlichen Bundesländern jahrelang und bis heute miserablen Schulausbildung liegt. Ausnahmen sind Bayern und die Ost-Länder; letztere hatten in DDR-Zeiten eine wirklich gute Schulausbildung in den naturwissenschaftlichen Fächern – was auch dafür der Grund sein mag, dass sich die „Ossis“ deutlich weniger von fragwürdigen Weltuntergangstheorien wie die angebliche Klimakatastrophe oder von pseudotechnologischen Heilslehren wie die Segnungen durch „erneuerbare Energien“ beeindrucken lassen. Außerdem haben sie gelernt, in einer manipulierten Presse zwischen den Zeilen zu lesen, was ihnen heute angesichts einer abermals regierungsfrommen, nun aber links-grün ausgerichteten Presse nach wie vor zu Gute kommt.

Ein beeindruckendes Beispiel für die nach DDR-Muster erzeugte typische Jubel-Staatspropaganda bot der im Januar 2017 von der Bundesregierung (BMWi) veröffentlichte Bericht „Die Energiewende: unsere Erfolgsgeschichte“. Er ist wie folgt in Abschnitte gegliedert:

– Nachhaltig und sicher
– Bezahlbar und planbar
– Verlässlich und intelligent
– Effizient
– Wettbewerbsfähig

– Weltweit wegweisend (!).

In Anbetracht der Tatsachen ist dieser Bericht unbeabsichtigt eine grausame Parodie; er zeigt aber auch eine klare Verachtung der Bürger, denen damit eine kaum fassbare Konzentration von geradezu devoter Schönfärberei, Faktenunterdrückung, Verdrehungen und nicht zuletzt peinlichem Größenwahn („weltweit wegweisend“) zugemutet wird.
Dennoch ist dieser Bericht wertvoll. Er beschreibt das Niveau einer Regierung und erinnert an die legendäre Pressekonferenz des irakischen Propagandaministers, Journalistenbezeichnung „Chemical Ali“, der frohgemut Siegesmeldungen in die TV-Kamera verkündete, während man durch sein Bürofenster im Hintergrund bereits US-Panzer sehen konnte.

Es gibt eine Menge Leute, die genau wissen, dass die Energiewende von Frau Merkel unweigerlich auf ein Scheitern hinläuft. Es gibt über 1000 Bürgerinitiativen, die gegen Windparks, gegen die Zerstörung von Waldgebieten und gegen neue Stromtrassen kämpfen. Aber es gibt eine offenbar deutlich größere Anzahl von Bürgern, die mangels Wissen, aus Desinteresse und wohl auch, weil die Kosten noch nicht schmerzhaft genug sind, Merkels staatliche Umwandlungspläne kritiklos hinnehmen.

Aber es gibt ein noch weitaus stärkeres Motiv für die Zurückhaltung: Es ist die Angst.

Die Angst ist seit Menschengedenken ein probates Mittel, um die Untertanen von ketzerischen Gedanken oder gar Widerstand abzuhalten. Und Angst ist auch heute noch aus den gleichen Gründen ein Mittel der Politik. Gelingt es erst einmal, in großem Ausmaß Angst zu erzeugen, dann kann man sogar sehr fragwürdige politische Entscheidungen durchsetzen, die in einer funktionierenden Demokratie sofort blockiert und unterbunden worden wären.

Ohne das Erzeugen von Ängsten wäre die Energiewende mit dem Ziel eines radikalen Umbaus großer Teile der Wirtschaft nicht möglich. Als sie beschlossen wurde, war so ziemlich allen fachkundigen Menschen in der Industrie und in der Wissenschaft klar, was das für ein Unsinn war. Man sollte annehmen, dass sich sofort ein Sturm der Entrüstung erhob, der die Regierung hinwegfegte. Aber so war es nicht. Aus der Industrie kam fast kein Protest; von den Verbänden überhaupt keiner. Auch die Wissenschaft verhielt sich sehr ruhig.
Bei näherem Hinsehen zeigte sich, dass mehrere Varianten von Angst am Werk waren: Bei der Industrie eine Mischung von kritikloser Politikfrömmelei („Es ist schließlich von der Regierung so beschlossen und die werden es schon richtig machen“) , verbunden mit der Erwartung von Subventionen, falls es schief zu gehen drohte, womit man wohl rechnete. Außerdem versprach die vorübergehende Eröffnung eines durch Planwirtschaft gesteuerten „Marktes“ für politisch erwünschte Produkte und Anlagen gute Renditen – wenn auch nur auf Zeit.

Bei den gänzlich unpolitischen Natur- und Ingenieurwissenschaften war die Angst vor der Abkoppelung vom warmen Regen der Fördergelder ausschlaggebend, für deren Bewilligung man jede kritische Anwendung physikalischer Gesetze und damit auch jede Scham fallen lassen musste.
In beiden Fällen war es also die Furcht vor dem Verlust von Geld.

Eine besondere Rolle kam der sogenannten öffentlichen Meinung zu. So werden hier Presse und Fernsehen bezeichnet, aber es liegt eine massive Täuschung darin. Mehrere Recherchen ergaben, dass in den zugehörigen Redaktionen zu ca. 70 Prozent parteipolitisch festgelegte Personen saßen, die sich selbst als Anhänger der Grünen und der SPD bezeichneten. Diese Personen interpretierten ihre Arbeit als legitime Unterstützung ihrer Partei, wozu politisch missliebige, wenn auch wichtige und zutreffende Informationen unterdrückt werden mussten. Im Fernsehen fielen diese Manipulationen deutlicher auf, weil ständig die gleichen „Experten“ zu den Interviews und Talkrunden eingeladen wurden. So gibt es in Deutschland genau eine einzige Energieexpertin und zwei Klimafachleute – Sie kennen die zur Genüge (Anmerkung der Redaktion: Genau genommen gibt es 2 1/2 hier einer davon). Kritiker werden fern gehalten, was kontroverse Debatten vermeiden hilft und vor allem die Verbreitung ihrer Argumente in der Öffentlichkeit verhindert.

Diese Selbstzensur der Redaktionen erzeugte eine rot-grüne Medienmacht, die zwar mit einer öffentlichen Meinung nur noch wenig zu tun hatte, die aber von der Politik zunehmend gefürchtet wird.
In Ostdeutschland, wo man über 40 Jahre von den Medien systematisch belogen wurde, hat man wesentlich empfindlichere Antennen für Manipulationen und Falschmeldungen, was die dortige harte Kritik an den Medien erklärt.

Die Methode der gezielten Informationsunterdrückung verliert allerdings stetig an Kraft, weil das politisch unkontrollierbare Internet – man ist ja (noch) nicht in China – speziell unter den Jüngeren immer mehr zur einzig genutzten Informationsquelle wird.
                                  

Die Angstthemen der Regierung

 

Die Angst vor dem Weltuntergang durch menschengemachte CO2-Emissionen.

In der Naturwissenschaft gilt ein unumstößliches Gesetz: Jede Theorie ist nur dann richtig, wenn sie durch ein überzeugendes Experiment bewiesen wird. Und über dieses Experiment muss vollständig berichtet werden, um anderen Forschern die Möglichkeit zu geben, das Experiment zu wiederholen und dessen Ergebnisse mit der vorgestellten Theorie zu vergleichen. Erst wenn das erfolgreich geschehen ist, gehört die Theorie zur wissenschaftlichen Erkenntnis.

Einen derartigen Beweis für die Theorie vom menschengemachten Klimawandel, dessen Ursache die von den Menschen verursachten Kohlendioxid- (CO2)-Emissionen sein sollen, hat es bis heute nicht gegeben. Es handelt sich deshalb um eine unbewiesene Theorie, die daher auch von sehr vielen Wissenschaftlern angegriffen wird. Einen Konsens der Forscher hat es niemals gegeben; im Gegenteil. Im Übrigen genügt in der Wissenschaft ein einziger fundierter Gegenbeweis, um eine falsche Theorie zu „kippen“. Die wissenschaftliche Literatur ist inzwischen voller derartiger Gegenbeweise, was aber die politische Klimarats-Organisation IPCC nicht daran hindert, ihre allein auf Computer-Simulationen beruhende Theorie weiter zu vertreten.

Dass die internationale Politik jemals bereit war, dieses unbewiesene und umstrittene Stück erfolgloser Wissenschaft zu glauben und daraus eine weltweite Rettungsaktion zur Verhinderung des angeblich bevorstehenden Untergangs dieses Planeten zu machen, ist zwar ein Meisterstück politischer Manipulation, aber sonst nichts.

Die wichtigste Triebkraft dieser Klimapolitik ist wieder die Angst, das bewährte Druckmittel. Es ist nicht weiter verwunderlich, dass Deutschland als die Nation, deren Politik schon lange besonders bedenkenlos die Angstverbreitung zu einem der wichtigsten politischen Instrumente gemacht hat, in der internationalen Klimapanik an vorderster Front steht.

Immer deutlicher stellt sich heraus, dass die von Menschen verursachten Emissionen von CO2 keinen bedeutenden Einfluss auf das Erdklima haben. Seit nunmehr fast 20 Jahren ändert sich die globale Durchschnittstemperatur der Erde nicht mehr, obwohl die CO2-Emissionen – insbesondere durch China – gerade in diesem Zeitraum immer weiter angestiegen sind.

Ein Politiker muss keineswegs ein Wissenschaftler sein, um die ganze Sinnlosigkeit dieser Klimapanik und insbesondere die winzige und vollkommen unmaßgebliche Rolle des kleinen Deutschlands bei den angeblich notwendigen Gegenmaßnahmen – die weltweite Vermeidung von CO2-Emissionen – zu erkennen.
Es genügt das Lesen der regelmäßig erscheinenden Berichte über die Emissionen der Staaten und etwas Schulmathematik aus der 3. oder 4. Klasse.
Dann sieht man, dass China mit 30 Prozent Anteilen an der weltweiten Emission der sog. Treibhausgase aus der energetischen Verwendung fossiler Brennstoffe den Löwenanteil hat, während Deutschland mit gerade einmal 2,2 Prozent eine winzige Rolle spielt. Jeder kann ausrechnen, dass selbst eine Verringerung der deutschen Emissionen um den zehnten Teil nur 0,2 Prozent an weltweiter Reduzierung bringen würde. Aber tatsächlich schafft Deutschland überhaupt keine Reduzierung, sondern erhöht sogar seinen Ausstoß. Und das wird sich mit jedem neu abgeschalteten Kernkraftwerk fortsetzen, denn dessen Strom wird durch Kohlekraftwerke ersetzt werden müssen. Erneuerbare Energien können das nicht, so viele Windräder man auch in die Landschaft und in die Wälder stellt.

Dieses Thema wird für Deutschland und seine Regierung noch peinlicher, wenn man die Wirkung des europäische Zertifikatssystems für Treibhausgas-Emissionen betrachtet. Es setzt die erlaubte Höchstmenge dieser Emissionen fest und der Handel mit diesen sog. Verschmutzungsrechten führt zu einem Preis für diese. Wenn ein Land wie Deutschland eine eigene, in Europa nicht vorgesehene zusätzliche Emissionsminderung mit Subventionen wie die EEG-Zulage installiert, dann werden Zertifikate sowohl frei als auch billiger, die dann ein anderes EU-Land kaufen kann, um seine Emissionen erhöhen zu können. Das bedeutet, dass alle zusätzlichen Minderungsmaßnahmen der Energiewende durch ausländische Mehr-Emissionen vollständig ausgeglichen werden: Der Effekt für die europäische Treibhausgas-Bilanz ist gleich Null. Die Regierung weiß das selbstverständlich, denn sie beherrscht die Viertklässler-Schulmathematik auch. Aber sogar die Kritik an der Nutzlosigkeit dieser deutschen Extra-Aktivitäten im letzten Klimabericht des IPCC hat nichts bewirkt.

Und der dänische Politiloge und Statistiker Björn Lomborg macht sich regelmäßig einen Spaß daraus, den Deutschen auf der Grundlage der IPCC-Formeln vorzurechnen, um wie viele Stunden oder Tage sämtliche über die vielen Jahre ihrer Anwendung ausgegebenen Energiewende-Milliarden die angeblich in einigen Jahrzehnten bevorstehenden Klimaerwärmung zeitlich hinausschieben würden – wenn dieser Unsinn überhaupt stimmt.
Er veröffentlichte am 15. Mai 2015 in der FAZ einen ausführlichen Artikel zu dem Thema „Deutschlands gescheiterte Klimapolitik“ (3).
Er schrieb darin zu der Wirkung der deutschen Klima-Milliarden:

„Sämtliche Anstrengungen, die Deutschland zur Förderung der erneuerbaren Energien unternimmt, werden geschätzt zu einer Senkung der Emissionen um jährlich 148 Megatonnen (Millionen Tonnen) führen. Im Standard Klimamodell führt die gesamte Förderung der nächsten 20 Jahre zu einer Reduktion um gerade einmal 0,001 Grad Celsius bis zum Ende des Jahrhunderts oder einer Hinauszögerung des Temperaturanstiegs bis zum Jahr 2100 um weniger als 18 Tage.
Es sollte kaum verwundern, dass eine derart teure Klimapolitik , die so wenig Auswirkung auf das Klima hat, für die restliche Welt kaum nachvollziehbar ist.“
(Ende des Zitats).

 

Die Angst vor der atomaren Vernichtung durch die eigene Kernkraft

Als die Regierung 2011 mit dem Ausstiegsbeschluss aus der Kernkraft der Energiewende eine unerwartete Richtungskorrektur gab, die aber – ohne das es die Regierung begriff – gleichzeitig das Scheitern der Energiewende beschleunigte, zeigte sich, dass das Aufeinandersetzen zweier apokalyptischer Ängste das Erreichen des ursprünglichen Ziels zuverlässig verhindert. Unter allen schweren Fehlern der Regierung war der Kernkraftausstieg der folgenreichste. Es war nicht nur ein katastrophaler Schaden für das Industrieland Deutschland, sondern auch gleichzeitig der Sargnagel Nr.2 für Merkels Lieblingsprojekt Energiewende.
Wir erinnern uns: Sargnagel Nr.1, der allein schon für deren Scheitern völlig ausreicht, ist das dauerhafte Fehlen einer erforderlichen, enormen Anzahl großer Pumpspeicherkraftwerke.

Der Fortfall eines großen Teils der Strom-Grundlastversorgung erzwingt deren Ersatz durch eine andere Grundlastquelle – und das ist alleine Kohlestrom, der nur mit Braunkohlekraftwerken kostengünstig produziert werden kann. Allerdings ist es nun eine eher unwichtige Eigenschaft der Kernkraftstrom-Erzeugung, dass sie praktisch keine sog. Treibhausgas-Emissionen verursacht. Und diese mächtige Stromerzeugungs-Kapazität musste nun als Folge der nur in Deutschland propagierten Angst vor den eigenen Kernkraftwerken stillgelegt werden. Damit steigen die CO2-Emissionen an und es geschieht damit das Gegenteil der nun zur Makulatur gewordenen vollmundigen „Klimaschutz“-Ankündigungen. Dass das Spurengas CO2 nahezu nichts mit dem Klimawandel zu tun hat, gehört wiederum zum Angstthema „Weltuntergang durch menschengemachte CO2-Emissionen“.

Weder der Unfall von Tschernobyl noch der von Fukushima gaben Deutschland einen Anlass, die Sicherheit der eigenen Kernkraftwerke in Frage zu stellen. In Tschernobyl explodierte ein veralteter Reaktortyp (Druckröhren-Reaktor), der wegen seiner prinzipiell großen Gefährlichkeit – und noch dazu fehlender Sicherheitsvorkehrungen wie eine stabile Schutzhülle – niemals im Westen gebaut worden ist. Dass die Sowjetunion die wenigen Reaktoren dieses Typs nicht längst stillgelegt hatte, führte letztlich zu dieser leider durchaus möglichen und wahrscheinlichen Katastrophe.
In Fukushima standen 4 alte Reaktoren eines US-Typs, die – im Gegensatz zu allen deutschen Raktoren – niemals während ihres jahrzehntelangen Betriebs sicherheitstechnisch nachgerüstet worden waren. Nicht genug damit: Sie waren völlig unzureichend gegen Tsunamis geschützt, die im Durchschnitt alle 30 Jahre deutlich höhere Flutpegel als die viel zu niedrige Sperrmauer aufwiesen, was zur Überschwemmung des unteren Teils der Anlagen führte, in denen ausgerechnet die für den Ausfall der externen Stromversorgung und damit der Reaktorkühlung vorgesehenen Notstromdiesel wiederum ungeschützt eingebaut waren – und absoffen. Die Stromversorgung von Land aus war durch das Erdbeben unterbrochen. Daraufhin fiel die Nachkühlung der abgeschalteten Reaktoren aus. Dieser Unfall war somit die Folge einer kaum glaublichen Verantwortungslosigkeit der unfähigen Chefs und Aufsichtspersonen der Betreiberfirma TEPCO. Es ist nicht bekannt, ob auch nur einer von ihnen zur Verantwortung gezogen worden ist.
Obwohl durch diesen Unfall keine Person ihr Leben verlor, verstanden es die deutschen Medien, die Unfallfolgen so darzustellen, als ob alle über 18.000 Toten, die Japan als Folge der Flutwelle zu beklagen hatte, durch die beschädigten Reaktoren verursacht worden seien. Es gab jedoch keinen einzigen Todesfall durch Strahlung. Diese Falschmeldungen sind international stark kritisiert worden.

In Deutschland wiederum waren alle Kernreaktoren regelmäßig mit den neuesten Sicherheitstechniken nachgerüstet worden und es bestanden insofern keinerlei Bedenken in Bezug auf ihre Sicherheit, wie die Reaktorsicherheits-Kommission der Regierung bescheinigte. Und eine Tsunami-Gefahr gab es ebenfalls nicht. Frau Merkel ersetzte daher das Votum der Experten durch eine sog. Ethik-Kommission, die auch das erwünschte Ergebnis – die Empfehlung zur Stilllegung aller Kernkraftwerke – lieferte. Und das Parlament stimmte dieser geradezu absurden Manipulation zu – ein Versagen, das es zuvor so noch nicht gegeben hatte.
Seither wird wie geplant stillgelegt. Woher die südlichen Bundesländer nach dem Abschalten ihrer letzten Kernkraftwerke den für eine zuverlässige Versorgung zwingend erforderlichen Grundlaststrom bekommen sollen, weiß im Moment niemand.

Die Regierung hatte zur Lösung dieses offensichtlichen ernsten Problems eine zusätzliche, ebenfalls teure Investition in die Wege geleitet: Den Neubau mehrerer Höchstspannungsleitungen, die von Norddeutschland ausgehend den dort – nur gelegentlich und wetterabhängig – erzeugten Windstrom in den Süden zu leiten. Es entstanden viele Bürgerinitiativen, die diese Pläne bekämpften und die eine erstaunliche Entdeckung machten: Die östliche Trasse, die Bayern mit Windstrom versorgen sollte, endete bereits bei Bad Lauchstädt bei Leipzig. Also mitten im Braunkohlerevier mit seinen Kohlekraftwerken – und mit dem zweiten Braunkohlerevier an der polnischen Grenze und den dort zugehörigen Kohlekraftwerken mit Leitungen verbunden. Niemand wollte ernsthaft Windstrom aus dem Norden nach Bayern transportieren. Die Bürgerinitiativen entdeckten die Täuschung und die bayrische Landesregierung sah sich gezwungen, den Bau dieser Trasse zu stoppen. Später erschien eine neue Landkarte des Netzausbaus und dieses Mal ging die Osttrasse weiter bis Norddeutschland…Auch die westliche Trasse führt recht nahe am rheinischen Braunkohlerevier vorbei.
Aber alle wissen, dass der völlig unzuverlässige, stark schwankende und auch gerne einmal für zwei Wochen ausfallende Windstrom niemals irgendein Bundesland sicher versorgen kann. Und die Bundesnetzagentur weiß es auch. Deshalb sorgte sie mit ihrer Planung für ausreichend Braunkohlestrom für Süddeutschland, tat aber so, als wäre es grüner Windstrom…Wieder eine Täuschung, hier aber sinnvoll – und im Grunde ein Akt der Verzweiflung.
Schließlich entschied noch Minister Gabriel, dass alle neuen Höchstspannungsleitungen als Erdkabel gebaut werden müssen. Das tröstete die Bürgerinitiativen etwas, führt aber zu mindestens zwei weiteren Jahren der Verzögerung; von den Mehrkosten ganz zu schweigen.
Der gesamte Netzausbau ist daher nur ein unnötiges, extrem teures Hilfsprojekt, mit dem den Bürgern eine sinnvolle Verwendung des vom Wetter gesteuerten und daher überwiegend unbrauchbaren oder auch vollkommen ausfallenden Windstroms vorgegaukelt werden soll.

Mit der Entscheidung für den Kernkraftausstieg hat die Regierung ihrer Energiewende selbst die Grundlage entzogen und ihre nach wie vor betonte Rolle als „Vorreiter“ ist zur internationalen Lachnummer geworden.

Wenn eine Angst nicht mehr wirkt – dann eben eine Ersatzangst

Manchmal muss man tatsächlich eine Rede der Bundeskanzlerin nachlesen – und dann muss man sie noch einmal lesen, weil man es einfach nicht glauben will. Vom Glauben spricht die Kanzlerin übrigens in ihrer hier behandelten Rede beim Internationalen WBGU-Symposium am 9. Mai 2012 in Berlin mehrfach. Ein Zitat ist erforderlich, um die eigentümliche Denkweise zu verstehen und die merkwürdigen Schlussfolgerungen bewerten zu können.

Merkel: „Ich nenne immer Klimawandel und Ressourceneffizienz oder Endlichkeit der Ressourcen in einem Zusammenhang, weil ich keine Lust habe, mich immer mit Zweiflern auseinanderzusetzen, ob der Klimawandel nun wirklich so schwerwiegend sein wird…Allein die Tatsache, dass wir in die Richtung neun Milliarden Menschen auf der Welt zugehen, zeigt uns, dass auch diejenigen, die an den Klimawandel nicht glauben, umdenken müssen. Damit hier kein Zweifel aufkommt: Ich gehöre zu denen, die glauben, dass etwas mit dem Klima passiert. Aber damit wir nicht über das Ob so lange Zeit verlieren, sage ich einfach: Wer nicht daran glauben mag, wer immer wieder Zweifel sät, wer die Unsicherheiten in den Vordergrund stellt, sollte sich einfach daran erinnern, dass wir in Richtung auf neun Milliarden Menschen auf der Welt zusteuern, und er sollte sich die Geschwindigkeit des Verbrauchs fossiler Ressourcen anschauen. Dann kommt er zu dem gleichen Ergebnis, dass nämlich derjenige gut dran ist, der sich unabhängig davon macht, Energie auf die herkömmliche Art und Weise zu erzeugen. Deshalb sind eine andere Energieversorgung, also durch erneuerbare Energien, und ein effizienterer Umgang mit der Energie und den Ressourcen die beiden Schlüsselfaktoren.“

(Ende des Zitats)

Wäre dies ein Schulaufsatz gewesen, die rote Tinte wäre reichlich geflossen. Wo soll man anfangen? Die mehrfache Verwendung des Verbums „glauben“ ist bezeichnend. Tatsächlich geht es ja um Naturwissenschaft, und da wird nicht geglaubt, sondern bewiesen und widerlegt- siehe oben. Nur Politiker und Kirchenleute legen Wert auf den Glauben. Natürlich nur den richtigen.
Die Kritik an denen, die an den Klimawandel nicht glauben wollen, ist vollkommen daneben, denn von den zweimal genannten demnächst 9 Milliarden Menschen weiß nahezu jeder, dass Klimawandel etwas Normales ist, was seit etlichen 100 Millionen Jahren geschieht – und zwar durch die Sonne gesteuert. Mit „Zweiflern“ meint sie Wissenschaftler, die die unbewiesenen Theorien des IPCC als falsch betrachten und andere Theorien bevorzugen. Das ist deren Job. Und eine der Kritiker-Gruppen hat sogar ein Experiment zur Wolkenbildung durch die kosmische Höhenstrahlung erfolgreich durchgeführt, was zur Erklärung der atmosphärischen Prozesse beiträgt und in dem das Spurengas CO2 überhaupt nicht vorkommt. Das ist bisher das einzige Experiment in der ganzen theoretischen Debatte. Und das sind eben keine „Zweifler“. Man beachte die Wortwahl. Dass sie „keine Lust hat“, sich mit diesen „Zweiflern“ auseinanderzusetzen, kann man verstehen. Sie würde dabei untergehen.

Und dann kommt der doppelte Rittberger: Eine neue Angst an Stelle einer alten, deren Wirkung nachzulassen scheint. Die Frage der Verfügbarkeit der Vorräte und der Reserven sei ganz einfach die gleiche, wie die nach der Glaubwürdigkeit der Theorien des IPCC, weil es schliesslich immer nur um das CO2 geht. Und nach diesem Salto braucht man nur noch über die Ressourcen sprechen. Aber Merkel liegt auch damit wieder falsch. Ihre Bundesanstalt für Geologie und Rohstoffe BGR hat in seriösen Berichten den Beweis geführt, dass fossile Ressourcen noch sehr lange reichen; insbesondere die Kohle.
In ihrem letzten Satz braucht man übrigens nur die Worte „erneuerbare Energien“ durch „Kernkraft“ zu ersetzen und hat dann eine richtigere Aussage, denn mit den in der Entwicklung befindlichen Reaktortypen der 4. Generation vergrößert man den Vorrat an nutzbarem Uranbrennstoff um das 60-fache – auf Jahrtausende. Und dann ist die Kohle längst überflüssig als Energiequelle.
Bei aller Fehlerkonzentration und logikfreien Analogie von Klima und Rohstoffen ist Merkels Aussage doch vielsagend und wertvoll: So denkt Deutschlands führende Politikerin.


Eine begründete Angst, die im Angst-Arsenal fehlt: Der große Blackout

Die durch die unkontrollierbaren Störungen immer kritischer werdende Situation im Stromnetz – verursacht vor allem durch die Windräder – kann von den Netzbetreibern mit ihren Redispatch-Maßnahmen kaum noch beherrscht werden. Der große Blackout droht im Winter bei „Dunkelflaute“.

Auch im Januar 2017 befand sich das deutsche Stromnetz am Rande des Zusammenbruchs. Der Grund dafür war die klägliche Leistung von Windkraftanlagen (WKA) und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die schon damals riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpfte. Dieser Zustand kann ohne weiteres mehrere Tage anhalten. Während dieser Zeit muss die gesamte notwendige Erzeugungsleistung, die im Winter mindestens 80.000 Megawatt beträgt, von den konventionellen Kraftwerken kommen – also von Kohle- und Kernkraftwerken sowie von Gaskraftwerken.

Der 24. Januar 2017 war nun wieder einmal ein Tag, an dem der Ernstfall – der völlige Zusammenbruch der deutschen Stromversorgung – gefährlich nahe kam. Dieser große Blackout wurde gerade noch vermieden, weil die Energieversorger „auch noch das letzte Reservekraftwerk heranzogen“, wie Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie Reportern mitteilte (1).
Nach dem Bericht von RP-Online führte Vassiliadis auf einer Veranstaltung in Haltern am See vor Journalisten aus, dass „der Zustand am 24. Januar kritisch wurde. Energieunternehmen und Netzbetreiber hätten an diesem Tage die Stromversorgung nur mit größter Mühe aufrechterhalten können.“ Denn die Deutschen forderten – wie an anderen Tagen auch – mehr als 80.000 MW Leistung ab. Vassiliadis: „Die Erneuerbaren konnten nicht einmal fünf Prozent davon bieten“.

Den meisten Bürgern ist nicht klar, was ein großer Blackout bedeutet, stellten die Fachleute des Büros für Technologiefolgen-Abschätzung beim Deutschen Bundestag (TAB) in einem sehr ausführlichen Bericht (4) fest, der zwar bereits 2011 erstellt wurde, dessen Aktualität jedoch heute mit jedem Monat zunimmt.

 

Aus diesem Bericht werden hier wichtige Ergebnisse zitiert:

„Aufgrund der Erfahrungen mit bisherigen nationalen und internationalen Stromausfällen sind erhebliche Schäden zu erwarten. Für den Fall eines mehrwöchigen Stromausfalls sind Schäden zu erwarten, die um Größenordnungen höher (als mehrere Milliarden €) liegen.

Telekommunikations- und Datendienste fallen teils sofort, spätestens aber nach wenigen Tagen aus. Die für zentrale Kommunikationseinrichtungen vorgehaltenen Reservekapazitäten wie »Unterbrechungsfreie Stromversorgung« und Notstromaggregate sind nach wenigen Stunden oder Tagen erschöpft bzw. aufgrund ausgefallener Endgeräte wirkungslos. Damit entfällt innerhalb sehr kurzer Zeit für die Bevölkerung die Möglichkeit zur aktiven und dialogischen Kommunikation mittels Telefonie und Internet.

Im Sektor »Transport und Verkehr« fallen die elektrisch betriebenen Elemente der Verkehrsträger Straße, Schiene, Luft und Wasser sofort oder nach wenigen Stunden aus. Zu Brennpunkten werden der abrupte Stillstand des Schienenverkehrs und die Blockaden des motorisierten Individual- und öffentlichen Personennahverkehrs in dichtbesiedelten Gebieten….Der Straßenverkehr ist unmittelbar nach dem Stromausfall besonders in großen Städten chaotisch. Es ereignen sich zahlreiche Unfälle, auch mit Verletzten und Todesopfern. Rettungsdienste und Einsatzkräfte haben erhebliche Schwierigkeiten, ihren Aufgaben gerecht zu werden. Durch den Ausfall der meisten Tankstellen bleiben zunehmend Fahrzeuge liegen, der motorisierte Individualverkehr nimmt nach den ersten 24 Stunden stark ab. Der Öffentliche Personennahverkehr kann wegen knappen Treibstoffs allenfalls rudimentär aufrechterhalten werden.

Die Wasserversorgung benötigt elektrische Energie in der Wasserförderung,
-aufbereitung und -verteilung. Fallen diePumpen aus, ist die Grundwasserförderung nicht mehr möglich, die Gewinnung von Wasser aus Oberflächengewässern zumindest stark beeinträchtigt.

Eine Unterbrechung der Wasserversorgung wirkt sich umfassend auf das häusliche Leben aus: Die gewohnte Körperpflege ist nicht durchführbar; für die Mehrzahl der Haushalte gibt es kein warmes Wasser. Das Zubereiten von Speisen und Getränken ist nur reduziert möglich, und die Toilettenspülung funktioniert nicht.

Da als Folge der reduzierten oder ausgefallenen Wasserversorgung die Brandbekämpfung beeinträchtigt ist, besteht insbesondere in Städten wegen der hohen Besiedelungsdichte die Gefahr der Brandausbreitung auf Häuserblöcke und möglicherweise sogar auf ganze Stadtteile.

Als Folge des Stromausfalls ist die Versorgung mit Lebensmitteln erheblich gestört; deren bedarfsgerechte Bereitstellung und Verteilung unter der Bevölkerung werden vorrangige Aufgaben der Behörden. Von ihrer erfolgreichen Bewältigung hängt nicht nur das Überleben zahlreicher Menschen ab, sondern auch die Aufrechterhaltung der öffentlichen Ordnung. Die weiterverarbeitende Lebensmittelindustrie fällt zumeist sofort aus, sodass die Belieferung der Lager des Handels unterbrochen wird. Trotz größter Anstrengungen kann aber mit hoher Wahrscheinlichkeit die flächendeckende und bedarfsgerechte Verteilung der Lebensmittellieferungen nur ungenügend gewährleistet werden.

Das dezentral und hocharbeitsteilig organisierte Gesundheitswesen kann den Folgen eines Stromausfalls nur kurz widerstehen. Innerhalb einer Woche verschärft sich die Situation derart, dass selbst bei einem intensiven Einsatz regionaler Hilfskapazitäten vom weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung auszugehen ist. Bereits nach 24 Stunden ist die Funktionsfähigkeit des Gesundheitswesens erheblich beeinträchtigt. Krankenhäuser können mithilfe von Notstromanlagen noch einen eingeschränkten Betrieb aufrechterhalten, Dialysezentren sowie Alten- und Pflegeheime aber müssen zumindest teilweise geräumt werden und Funktionsbereiche schließen. Arzneimittel werden im Verlauf der ersten Woche zunehmend knapper, da die Produktion und der Vertrieb pharmazeutischer Produkte im vom Stromausfall betroffenen Gebiet nicht mehr möglich sind und die Bestände der Krankenhäuser und noch geöffneten Apotheken zunehmend lückenhaft werden. Dramatisch wirken sich Engpässe bei Insulin, Blutkonserven und Dialysierflüssigkeiten aus.

Dieser dezentral strukturierte Sektor ist schon nach wenigen Tagen mit der eigenständigen Bewältigung der Folgen des Stromausfalls überfordert. Der Zusammenbruch der in Krankenhäusern konzentrierten Versorgung droht.

Spätestens am Ende der ersten Woche wäre eine Katastrophe zu erwarten, d.h. die gesundheitliche Schädigung bzw. der Tod sehr vieler Menschen sowie eine mit lokal bzw. regional verfügbaren Mitteln und personellen Kapazitäten nicht mehr zu bewältigende Problemlage. Ohne weitere Zuführung von medizinischen Gütern, Infrastrukturen und Fachpersonal von außen ist die medizinisch-pharmazeutische Versorgung nicht mehr möglich.

FAZIT: Wie die zuvor dargestellten Ergebnisse haben auch die weiteren Folgenanalysen des TAB gezeigt, dass bereits nach wenigen Tagen im betroffenen Gebiet die flächendeckende und bedarfsgerechte Versorgung der Bevölkerung mit (lebens)notwendigen Gütern und Dienstleistungen nicht mehr sicherzustellen ist. Die öffentliche Sicherheit ist gefährdet, der grundgesetzlich verankerten Schutzpflicht für Leib und Leben seiner Bürger kann der Staat nicht mehr gerecht werden. Die Wahrscheinlichkeit eines langandauernden und das Gebiet mehrerer Bundesländer betreffenden Stromausfalls mag gering sein. Träte dieser Fall aber ein, kämen die dadurch ausgelösten Folgen einer nationalen Katastrophe gleich. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht »beherrschbar«, allenfalls zu mildern“.

(Ende des Zitats)


Die Netzbetreiber wissen das selbstverständlich alles. Niemand wagt es derzeit, die einzig sinnvolle und bezahlbare Lösung vorzuschlagen: Den Verzicht auf die Stilllegung der letzten Kernkraftwerke – verbunden mit einer mindestens 15 Jahre langen Laufzeitgarantie. Eher würden wohl die für die deutsche Energiepolitik Verantwortlichen einen Tabu-Tod erleiden, wie er bei den Menschen einiger Naturvölker eintritt, wenn sie es wagen, eine vom Schamanen gekennzeichnete verbotene Zone zu betreten.
Die Absicht der Netzbetreiber ist viel bescheidener: Sie sehen so deutlich wie sonst niemand den großen Blackout auf sie zukommen. Genauso, wie auch U. Kaussen von Tennet auf die gestellte Frage „Droht uns ein Blackout ?“ mit einem klaren „Ja“ geantwortet hat (2). Und sie kennen auch die übliche Reaktion der Politik, wenn es darum geht, sich für ihr Versagen zu rechtfertigen: Sie haben bereits heute die Sündenböcke identifiziert. Es sind natürlich die Netzbetreiber, die bei ihrem Redispatch versagt haben. Auch die Bundesnetzagentur – dem Wirtschaftsministerium unterstellt – wird ins gleiche Horn stoßen.

Das Waldsterben

Das Märchen vom bevorstehenden Absterben des Waldes ist ein extremes Beispiel von der Entstehung und der staatlich betriebenen Aufblähung einer falschen Theorie, die insbesondere der Presse, aber auch bestimmten staatlichen Stellen sehr gut gefiel. Im Jahre 1979 berichtete ein Forstprofessor aus Göttingen, dass er in Laborversuchen festgestellt hätte, dass eine Beregnung von kleinen Nadelbäumen mit „saurem Regen“ erhebliche Schäden verursachte, die letztlich zu deren Absterben führten. Er verstieg sich dabei zu der Prognose, dass in wenigen Jahren der deutsche Wald vernichtet werde.
Anlass für seine Untersuchungen waren die immer noch vorhandenen Schwefeldioxidemissionen aus Kraftwerken, die zwar längst durch sehr wirksame Maßnahmen der Rauchgasentschwefelung, die von früheren Regierungen angeordnet wurden, drastisch verringert worden waren und weiter sanken. Aber immer noch hatten Niederschläge einen zu kleinen pH-Wert, waren also sauer anstatt neutral.
Schon in den siebziger Jahren gab es eine internationale Debatte über den sauren Regen und seine Folgen. Der Säureregen zerfraß Gebäude, ließ vitale Seen absterben, schädigte Pflanzen und bedrohte auch die Gesundheit der Menschen. Bereits im 1.Umweltprogramm der Regierung Brandt von 1971 wurde dieses Problem detailliert samt entsprechenden Aktionen vorgestellt. Die Stockholmer UN-Umweltkonferenz von 1972 und das Genfer Übereinkommen 1979 führten zu internationalen Verträgen mit weitreichenden Maßnahmen. Bereits im März 1974 konnte Bundesinnenminister Werner Maihofer beachtliche Erfolge vorzeigen: Die Schwefeldioxid-Emissionen waren drastisch zurückgegangen und sanken weiter.

Unterstützung erhielt der Göttinger 1981 von einem Professor aus München; das war aber schon alles an Beistand aus der Forschung. Die gesamte übrige Forstforschung lehnte diese Theorie ab. Aber es half schon nichts mehr: Die Medien hatten dieses wunderbare Panikthema aufgegriffen. Eine Art Himmelsgeschenk erhielten sie durch eine recht flapsige Bezeichnung für Waldschäden, die von den Forstleuten selbst erfunden worden war: Wenn in einem Waldgebiet irgendeine Schädigung im Gange war – sei es durch Insekten, Pilze oder andere Ursachen – pflegte man dafür einen Begriff zu wählen, der die betroffene Baumart und den Anhang „-sterben“ zusammenfügte. Also z.B. Eichensterben. Gab es mehrere derartige Schadfaktoren oder waren gleichzeitig mehrere Baumarten betroffen, nannte man es ungerührt und im Grunde leichtfertig „Waldsterben“. Damit hatte die Presse den besten Angstbegriff für eine Medienkampagne.
Die Sache wäre normalerweise innerhalb der Wissenschaft geklärt worden und man hätte dann nichts mehr von der falschen Theorie gehört. Aber die Presse gab keine Ruhe. Und dann geschah etwas, das aus einer Theorie eine staatliche Großaktion machte, die sogar auf andere Länder übergriff: Das Bundeslandwirtschafts-Ministerium BML, in dem nur eine sehr kleine Abteilung, die keinerlei Kompetenzen aber eine inhaltlose Zuständigkeit für Waldangelegenheiten hatte, vor sich hin dämmerte. Bundes-Staatswald gab es nicht. Wald, Forstämter, Forstforschungseinrichtungen, weitere Kompetenzen und vor allem Geld hatten allein die Länder.
In dieser Situation war die Waldsterbepanik ein Geschenk des Himmels für das BML. Es winkten endlich Geld, neue Pöstchen, großartige Koordinierungsaktionen mit den Ländern und damit endlich eine Erlösung aus der Bedeutungslosigkeit.
Es folgte ein gewaltiger Aktionismus, eine bundesweite Waldschadenserhebung wurde geboren – mit ungeeigneten Kriterien dafür, was eigentlich ein Waldschaden sei. Die Kritik von sämtlichen Forstwissenschaftlern (außer die in Göttingen) wurde beiseite gewischt. Man wollte sich das großartige Waldsterben nicht nehmen lassen.
Die Wissenschaft witterte das Geld und Forschunganträge begannen hereinzuströmen. Viele Forscher schreckten auch nicht vor völlig unsinnigen Theorien zurück: So wollt man z.B. Kernkraftwerke als Schuldige überführen. Auch die Grünen beteiligten sich fleißig an der Angsterzeugung: Sie starteten 1990 eine Kleine Anfrage im Parlament: »Zu den Problemen von Waldsterben … durch Einwirkung von Richtfunk und Radarwellen«. Es erwies sich ebenfalls als Unsinn.

Am 2. Februar 1993 – also immerhin 10 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung durch das BML – veröffentlichte das Bundesforschungsministerium (BMFT) eine Zwischenbilanz mit einer Stellungnahme seines Expertenkreises. Dieses Gremium, dem auch der o.e. Göttinger Professor angehörte, kam zu der klaren Aussage, »dass ein Absterben ganzer Wälder in Zukunft nicht mehr zu befürchten« sei. Er räumte damit in respektabler Manier ein, dass er damals mit seiner Prognose zu weit gegangen war. Nur 4 von 54 Tageszeitungen brachten diese Nachricht. Man wollte sich die Panik nicht durch die Forstforscher vermiesen lassen.

Die politischen Parteien hielten noch viel länger unverdrossen am Waldsterben fest. Noch im Mai 2000 stellten die Fraktionen der CDU/CSU und der SPD gleichlautend fest, »dass es keinen Grund zur Entwarnung gibt«. Dieser Satz dient seit Jahren der umweltpolitischen Geisterbeschwörung – vor allem für die Umweltverbände, die auf Entwarnungen allergisch reagierten. Im März 2001 erklärte Landwirtschafts-Staatssekretär Berninger im Parlament, »dass wir zusätzliche Strategien gegen das Waldsterben entwickeln«. Und im Januar 2002 forderten die Fraktionen der SPD und der Grünen, die Anstrengungen zur Reduktion und Beseitigung der »neuartigen Waldschäden« zu verstärken.

Dann kam die Überraschung: Im Sommer 2003 – also ganze 10 Jahre nach dem wissenschaftlichen Todesurteil der Waldsterbe-Theorie im Februar 1993 und 20 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung (heute Waldzustandserhebung) – erklärte Ministerin Renate Künast das Waldsterben für beendet. Die fachliche Kritik und wohl auch der Spott waren offenbar unerträglich geworden. Die Franzosen, die deutsche Ängste seit je nicht ganz ernst nehmen, fügten ihrem Vokabular le waldsterben hinzu, nachdem sie bereits le angst aufgenommen hatten.

Der Autor nahm damals im Bundesforschungs-Ministerium am Kampf gegen die BML-Panikfraktion teil – vergebens, denn die hatten die Zuständigkeit. Seltsamerweise bekam der BML-Minister, immerhin ein CSU-Mitglied, nichts von alledem mit. Die Regierung selbst verhielt sich vollkommen passiv. So dauerte es 10 Jahre, bis die grundlegenden Fehler in der Göttinger Theorie aufgedeckt wurden und die gesamte Waldsterbepanik in sich zusammen brach und weitere 10 Jahre, bis die Politik das Thema aufgab.
Am Ende war das Waldsterben nur noch ein sicherer Lacher in Kabaretts. Für die Steuerzahler gab es dagegen wenig zu lachen, denn die staatliche Förderung der Forschung über die vermeintlichen Ursachen des nicht existierenden Waldsterbens hatte allein im Bereich der Bundesregierung über 600 Millionen DM gekostet – die Ausgaben der Länder nicht gerechnet.

Eine ausführliche Schilderung der deutschen Waldsterbe-Angst und ihrer Folgen hat der Autor 2004 in der ZEIT veröffentlicht (5).

Der belgische Reaktor Tihange

Eine Variante der Nuklearangst ist die Schreckensvision von einer Reaktorkatastrophe im belgischen Tihange. Von Umweltschützern und inzwischen auch von westdeutschen Landesregierungen wird behauptet, dass der Stahl des Reaktordruckgefäßes von Rissen durchzogen und damit unsicher sei. Damit wäre ein großes Unglück wahrscheinlich. Seltsamerweise sehen das die dem Kraftwerk viel näher lebenden Belgier ganz anders. Die zuständigen Behörden des Landes betonen auch, man habe alles geprüft und es bestünde keine Gefahr.
Aber die deutsche Politik muss auf Ängste – echte oder nur behauptete – reagieren und so gab es böse Briefe der NRW-Landesregierung nach Belgien und die Stadt Aachen setzte noch eins drauf und verteilte Jodtabletten, die im Falle einer Explosion des Reaktors sofort zu schlucken wären.
Im Grunde laufen diese Aktionen darauf hinaus, der belgischen Atomaufsicht Leichtfertigkeit und Verantwortungslosigkeit und der belgischen Bevölkerung Leichtsinn und Dummheit zu unterstellen. Auch hierbei spielen die deutschen Medien eine fragwürdige Rolle.

 

Die Geisterbahn hat noch viele Nischen, in denen Angst lauert

Es gibt noch den Rinderwahnsinn, von dem bislang nicht behauptet werden kann, dass er auf den Menschen übertragbar ist. Gab es hierzu eine endgültige Entwarnung ?
Es gibt die Angst vor der Strahlung von Mobiltelefonen, die eigentlich wie alle Hochfrequenzstrahlung nur Wärme im Gewebe erzeugen kann, bei der sich die Wissenschaft aber auf die übliche Floskel „weitere Untersuchungen sind aber nötig“ zurückzieht. In diesem Falle ist aber der Wunsch der Kunden, unbedingt so ein Gerät zu besitzen, derart übermächtig, dass jegliche Angsterzeugung unbeachtet bleibt.

Die Bürger sollten vielleicht einmal den Katalog ihrer Ängste prüfen. Im Grunde können sie sämtliche von der Regierung verbreiteten Ängste streichen.
Vor dem großen Blackout aber dürfen sie sich mit Recht grausen.

Angst ?

Dass hier so über die Angstmacher und die Angsthasen gschrieben wird, liegt daran, dass der Autor keine dieser Ängste (mit Ausnahme des Großen Blackouts) ernst nimmt. Eigentlich bleibt dann nur die berechtigte Angst vor dem Zahnarzt übrig.
Allerdings gibt es doch vielleicht eine Sache, die mir etwas Sorge bereitet. Wenn in der näheren Umgebung unseres Hauses eine Wasserstoff-Tankstelle eröffnet wird, ziehe ich um. Den gewaltigen Explosionskrater kann ich mir gut vorstellen. Natürlich habe ich keine Angst. Aber dieses mulmige Gefühl…….

 

Quellen
(1): Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie; Kommentar zu den Vorgängen am 24.1.2017; Veranstaltung in Haltern am See vor Journalisten
(2): Urban Kaussen: „Droht uns ein Blackout ?“, Technology Review – TR Online, 08.07.2015; https://www.heise.de/tr/droht-uns-ein-blackout-2639922.hmtl

(3): Björn Lomborg: „Deutschlands gescheiterte Klimapolitik“, FAZ, 15.05.2015;
www.faz.net/aktuell/wirtschaft/energiepolitik/bjoern-lomborg-ueber-klimawandel-und-gescheiterte-klimapolitik-13580487-p3.html
(4): Thomas Petermann, Harald Bradtke, Arne Lüllmann, Maik Poetzsch, Ulrich
Riehm: „Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel
eines   großräumigen und langandauernden Ausfalls der Stromversorgung“,
17.5.2011; Arbeitsbericht Nr. 141; Publikation: „Was bei einem Blackout geschieht“, Studie des Büros für Technikfolgenabschätzung beim Deutschen Bundestag, Bd. 33, 2011, Verlag edition sigma, Berlin, ISBN 9783836081337, Volltext:
http://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht- ab141.pdf

(5): Günter Keil: „Chronik einer Panik“, DIE ZEIT, 9.12.2004;
www.zeit.de/2994/51/N-Waldsterben




Mainstream-Journalisten wachen endlich auf, beim größten Betrug aller Zeiten: Subventionierte Windenergie

Original des Aufmacher gefunden: Screenshot des Komikerduos “Cheet & Chong smoke-up the car”

Hier war eine Mammut-Geschichte im Entstehen: Die Bundesregierung hatte 60 Milliarden Dollar an Subventionen gesperrt, die für ein völlig wetterabhängiges Stromerzeugungssystem herausgeworfen werden sollten, welches vor Jahrhunderten aus recht offensichtlichen Gründen aufgegeben wurde. Und doch schien keiner von ihnen das geringste Interesse daran zu haben, die Fakten herauszubekommen.

Es gibt immer noch viele Leichtgewichte, die überhaupt nicht denken, sprechen, geschweige denn schreiben, was man als Kritik an Wind und Sonnenenergie bezeichnen könnte. Jetzt, wo Rendite-Suchende mit Erneuerbaren die massiven black-outs und den Lastabwurf durch wetterbedingte Leistungseinbrüche an Orten wie Australiens Windkraftzentrum in Südaustralien nicht mehr vertuschen können oder einen Blick erhaschen, dass der von „Wind“ angetriebene Staat derzeit die höchsten Strompreise der Welt erleidet, beginnen die Mainstream-Journalisten nicht nur den größten Wirtschafts- und Umweltbetrug aller Zeiten in Frage zu stellen, sondern auch die mangelnde journalistische Integrität und Objektivität unter ihren Kollegen.

Es stimmt, die Ausarbeitung von Peter Hannams im Sydney Morning Herald mutet eher an, wie eine Kreuzung zwischen den Gekritzel eines geistesgestörten religiösen Eiferers und den infantilen Schmierereien eines boshaften Kindes. Journalisten haben jedoch die Verantwortung, die Tatsachen in den Griff zu bekommen und sie weiterzugeben, ohne sie bis zur Unkenntlichkeit zu verstümmeln.

Wie George Orwell es ausdrückt: „Journalismus druckt, was jemand anders nicht drucken will: alles andere ist Public Relations.“

Hier ist eine Beschreibung, die der australische Chris Mitchell gut gemacht hat.

 

Die Klimahysterie übertrifft die Spitze der Blödheit in dieser Hurrikansaison

Chris Mitchell vom 18 September 2017, The Australian

Das ist die Geschichte der Hurrikane, mit der sich die Linken blamierten

Die Medienklima-Hysterie erreichte ihre Spitze der Blödheit in dieser US-Hurrikansaison, indem Phillip Adams von ABC Radio Nationals Late Night Live seinen US-Korrespondenten Bruce Shapiro fragte , ob Floridas Gouverneur Rick Scott, aus religiösen, fundamentalistischen Gründen ein Klimawandel-Leugner sei. Hintergrund waren die Linken und ihre Arroganz, indem sie jeden dickfellig nannten, der nur den leisesten Zweifel an der Notwendigkeit äußerte, alles was an Subventionen verfügbar wäre, gegen den Klimawandel einzusetzen.

Hey, nicht so die linke Schauspielerin Jennifer Lawrence, die sich mit der Gaia-Theorie des britischen Umwelt-Elder-Staatsmannes James Lovelock einfach nur lächerlich machte. Sie ist eine weitere Berühmtheit, die den Rummel über Hurrikan Irma als Beweis für die Rache der Natur gegen Präsident Donald Trump nutzte, weil dieser für die USA das Pariser Klimaabkommen kündigte.

Wie fantastisch, dass James Delingpole von The Spectator am 9. September 2017 sein Interview mit James Lovelock veröffentlichte [leider hinter Bezahlsperre]. Man erfuhr, dass Lovelock die „Natur-schlägt-zurück-Story“ aus seinem 2006 erschienenen Buch The Revenge of Gaia in Bezug auf die Hurrikane zurückgewiesen hat. Der Vater der Umweltbewegung sagt, er hasst Windenergie, er denkt, es sei ein finanzieller Betrug und ist für die bescheidene Ausbeute von Schiefergas. Er favorisiert [inzwischen] sehr die Kernenergieerzeugung und glaubt, dass die Gefahren von Grünen aus Gründen, die mehr mit quasi-religiöser Ideologie als mit Wissenschaft zu tun haben, grotesk übertrieben wurden.

Sogar die New York Times widersetzte sich der Hurrikan-Hysterie und veröffentlichte am 6. September eine Erklärung von Henry Fountain, das darauf hinwies, dass es an dieser US-Hurrikansaison nichts Ungewöhnliches gibt.

Wenn nur die australischen ideologischen Verwandten der NYT bei The Age und dem The Sydney Morning Herald davon Notiz nehmen würden. Fairfax-Umweltredakteur Peter Hannam und die Stammgäste Peter Fitz Simons und Jane Caro waren sich sicher, dass die Ankunft von Hurrikan Irma mit dem Klimawandel zusammenhängt und benutzen die Gaia-Analogie, um die Regierung anzugreifen, weil diese versuchte, „das Licht anzulassen“.

Graham Lloyd, Umweltredakteur, hat am vergangenen Montag in einem langen Beitrag die Fakten festgehalten. Lloyd wies darauf hin, dass sich Irma in einem Teil des Atlantiks mit ungewöhnlich kühler Ozean Oberflächentemperatur von durchschnittlich 26,5 ° C gebildet hatte, etwa zwei Grad weniger als sonst, bei solch einem intensiven Sturm.

Er spießte auch das neueste Bulletin des Klimarats unter der Leitung des Paläontologen und Klimaaktivisten Tim Flannery auf, betitelt: „Fingerabdrücke des Klimawandels mit dem tropischen Sturm Harvey“. Die Leiterin des Klimarats, Amanda McKenzie, hatte behauptet, „der Klimawandel beschleunigt extreme Wetterereignisse“.

Lloyd zitierte die neueste wissenschaftliche Studie der National Oceanic and Atmospheric Administration, dass es verfrüht sei zu vermuten, dass menschliche Aktivitäten bereits eine nachweisbare Auswirkung auf die Aktivität der Hurrikans im Atlantik oder die globale Aktivität des tropischen Wirbelsturms hätten.

Die grünen Extremisten proklamieren lautstark, man soll die Wissenschaft akzeptieren, aber selbst machen sie das nicht wirklich. Dies ist die Art von Fundamentalismus, den Phillip Adams verspottet, die aber normalerweise zu seinen eigenen Argumenten gehört. Er ist von der Überzeugung geprägt, dass der Klimawandel das wichtigste Thema auf der Erde ist und es sollte keine Begrenzung der Menge an CO2-Emissionsminderungen geben, auch wenn es unsere Industrien vertreibt und finanzielles Chaos bei denjenigen anrichtet, die ihre Energierechnungen nicht mehr zahlen können.

Wie Redakteur Simon Benson von The Australian in seinem Bericht in Wochenmitte schrieb, werden hunderte von Kohlekraftwerken auf der ganzen Welt gebaut. Und die USA können ihre CO2-Verpflichtungen trotzdem noch erfüllen. Die USA reduzierten 2015 ihre Emissionen um 145 Millionen Tonnen, den größten jährlichen Rückgang aller Zeiten. Dies kam nicht durch die Nutzung erneuerbarer Energien. Nein, es ist das Gas aus Fracking, das sowohl die Energiepreise als auch die Emissionen senkt.

Es ist das erste Mal, das Gas (mit 33 Prozent) die Kohle (mit 32 Prozent) als den primären Brennstoff für die Stromerzeugung in den USA abgelöst hat. Erneuerbare belaufen sich auf 15 Prozent, aber die Hälfte davon ist Wasserkraft. Auf Wind entfallen 6 Prozent und auf Solar 1 Prozent. Der Rest ist Kernkraft. In 1990 entfielen 60% der Energie in USA auf Kohlekraft.

Die Grünen und die Labor Party Anhänger hier in Australien sagen, die Kohle wäre tot, aber wenn man die Projekte für Energieerzeugung weltweit betrachtet, die geplant oder im Bau sind, so summiert sich das auf 1600 neuer Kohlekraftwerke. Sie sagen auch, Kohle in China ist tot. Es ist wahr, das über 100 neue Kohlekraftwerke verzögert worden sind, aber das Land eröffnet noch immer zwei neue Kohlekraftwerke in der Woche. China schlug Obama auf dem G20 Treffen in Brisbane Jahr 2015 vor, die Spitze der Emissionen im Jahr 2030 zu erreichen. Es ist also wie gewohnt die Kohle, um die es geht.

Indien plant oder baut 370 neue Kohlekraftwerke. In Südostasien sind 400 geplant und 170 im Bau, einschließlich in den fortgeschrittenen Ländern Südkorea und Japan. Deutschland hat dieselben Zuverlässigkeitsprobleme mit erneuerbaren Energien wie Südaustralien und baut mehr Kohlekraftwerke [??]. Erneuerbare Energien machen ein Drittel seiner elektrischen Energie aus und das Ziel sind 40 Prozent, aber die Probleme mit der Zuverlässigkeit kosten zusätzlich. Gibt es da eine Botschaft für die Turnbull-Regierung?

Während führende linke Journalisten in den Fairfax Media, The Guardian und das ABC [öffentlich-rechtliche Sender] sich letzte Woche bestürzt zeigten, dass Malcolm Turnbull, [der Premierminister von Australien] versuchte Druck auf AGL zu machen, den Energieversorger und der Eigentümer der Liddell Kraftwerke im NSW Hunter Valley, damit diese das Kraftwerk länger in Betrieb halten, als bis zur geplanten Stilllegung in 2022 – oder es an jemanden zu verkaufen, der es in Betrieb halten würde. Es gibt jeden Grund zu glauben, dass die Regierung jetzt einem praktikablen Plan nahe kommt, der die Kosten für erneuerbare Energien einschränken könnte und sogar Arbeitsplätze in der Industrie retten, was alles aufgrund der Aktionen der Labour-Regierungen in den Bundesstaaten entstand.

Die jüngste Aktion kommt im Zusammenhang mit der Veröffentlichung von vor zwei Wochen, durch die Chefin von AEMO [Australian Energy Market Operator – Energieversorger], Frau Audrey Zibelman, in dem Australien vor dem Risiko eines ernsthaften Defizits bei back-up Energien warnt, es fehlt Energie aus Gas oder Wasserkraft und theoretisch Batteriestrom für „Dispatch Maßnahmen“, aber Solar und Wind können nicht helfen. Bei der Summe, die South Australien für die 100-Megawatt-Batterie von Elon Musk zahlt, die diesen Staat in einer Krise nur für ein paar Minuten antreiben wird, denke ich, dass keine Regierung das innerhalb eines Jahrzehnts mit einem Blick auf die Strompreise nachahmen wird.

Jetzt kritisieren Journalisten Turnbull für das, was wie ein Rückzug von den im Finkel-Bericht empfohlenen 42-prozentigen Ziels Erneuerbarer-Energien bis zum Jahr 2030 aussieht. Die eindeutigen Beweise für den Schaden, den das jetzige 28-Prozent-Ziel bereits anrichtet und damit den Interessen der Verbraucher entgegenläuft, kommen bei dem grünen Fundamentalisten erst an zweiter Stelle.

Mark Kenny, Redakteur für nationale Angelegenheiten beim Sydney Morning Herald and The Age, hatte am Freitagmorgen sogar den Verdacht, dass Turnbull von dem politischen Wunsch motiviert werden könnte, Bill Shorten, den Führer der Labor Party, auch „Blackout Bill“ und „Geißel der Bergbauarbeiter“ genannt, politisch zu schädigen. Gott bewahre.

Viele Journalisten scheinen zu skandalisieren, dass Finkel die so genannte „saubere Kohle“ in dem Ziel für saubere Energien einschließen könnte. Diese Journalisten sollten die Arbeit der US-Umweltschützerin Amory Lovins lesen, die seit mehr als einem Jahrzehnt den Kohlekraftwerken in den USA gezeigt hat, wie sie die Emissionen durch Nachrüstung sauberer Filter und Produktionsmethoden senken können.

Frau Zibelman von AEMO berichtete in einer Anhörung in Canberra, dass die Antwort auf das Problem der back-up Energien ein separates Auktionssystem für Strom sein könnte, der schnell ein- und ausgeschaltet werden kann. Deutschland geht den gleichen Weg. Verstanden? Wir brauchen mehr Zuverlässigkeit, als Wind und Sonne bieten können.

Zum Schluss noch die Kritik an Sky News und das ABC, die weiterhin den ehemaligen Oppositionsführer John Hewson als Kommentator für das Energieproblem einzuladen, ohne zu erklären, dass er ein bedeutender Investor in Energietechnologien war.

The Australian

 

Gefunden auf stopthesethings vom 23.09.2017

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2017/09/23/mainstream-journalists-finally-wake-up-to-the-greatest-fraud-of-all-time-subsidised-wind-power/




Klima : Entwarnung der Alarmisten

Von Alex Reichmuth (Red. WELTWOCHE Zürich)*

Eigentlich müsste nun jede seriöse Zeitung titeln: «Klimawandel weit weniger dramatisch als befürchtet!» Denn das, was im Fachmagazin Nature Geoscience vor wenigen Tagen erschienen ist, ist das Eingeständnis führender Klimaforscher, dass sie mitsamt ihren angeblich unfehlbaren Computermodellen falsch lagen. Es ist die Beichte, dass die Erderwärmung viel langsamer voranschreitet, als uns all die Warner, Mahner und Moralisten in Wissenschaft, Politik und Medien weismachen wollten. Es ist das Geständnis, dass die sogenannten Klimaskeptiker recht hatten.

Verfasst worden ist die einschlägige Studie von Klimawissenschaftlern aus acht Ländern. Die Mehrheit der Autoren ist massgeblich beim Weltklimarat (IPCC) engagiert, zum Teil in führender Stellung. Diese Forscher sind somit mitverantwortlich für die Alarme des IPCC vor einer angeblichen Klimakatastrophe. Nun aber sind sie zum Schluss gekommen, dass die Menschheit mehr CO2 ausstossen darf, bis sich die Erde mutmasslich um 1,5 Grad erwärmt hat: nicht ein Zehntel mehr, nicht ein Fünftel oder die Hälfte mehr – nein: fast viermal mehr.

Temperaturanstieg überschätzt

Der Grund ist, dass sich die Wissenschaft verrechnet hat. Die Computermodelle hätten den Temperaturanstieg überschätzt, gab Co-Autor Michael Grubb vom University College London gegenüber der britischen Zeitung Times zu. «Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können», ­sagte sein Mitautor Myles Allen von der ­University of Oxford.

(Anmerkung EIKE-Red.: vgl. Graphiken unten) **

Man reibt sich die ­Augen:

Da reden führende Wissenschaftler genau so, wie es die vielgeschmähten «Klimaleugner» seit Jahren tun: Der Klimawandel ­habe sich in den letzten zwanzig Jahren verlangsamt. Die Computermodelle lägen falsch, weil grundlegende klimatische Zusammenhänge in der Atmosphäre nicht bekannt oder nicht verstanden seien.

Doch so schnell geben Missionare nicht auf. Das Eingeständnis der Forscher kommt versteckt daher, quasi durch die Hintertür. Vordergründig verkaufen sie ihre Erkenntnis als eindrückliche Bestätigung für den Klimaschutz. «Emissionsbudget und Emissionspfad vereinbar mit dem Ziel, die Erwärmung auf 1,5 Grad zu begrenzen», haben sie ihre Studie betitelt. Hervorgestrichen wird nicht, dass der Klimawandel schwächer ist, sondern dass die Ziele des Klimaabkommens von Paris nun einfacher erreichbar seien.

«Das ist eine wirklich gute Nachricht», sagte Co-Autor Pierre Friedlingstein von der University of Exeter zur britischen BBC. Denn ohne die Verlangsamung wäre das Vorhaben, die Erwärmung auf 1,5 Grad zu begrenzen, wohl unrealistisch gewesen. «Viele Leute waren der Meinung, dass dies nicht möglich sei», so Myles ­Allen gegenüber der Times. Dabei war das Pariser Abkommen 2015 rund um die Welt als grosser Durchbruch gefeiert worden. Dass die Ziele unrealistisch sind, war damals kaum zu vernehmen.

Auch die meisten Medien verkünden, dass die Studie in Nature Geo­science den Klimaschutz stärke – sofern sie denn überhaupt darüber berichten. «Ziel von Paris immer noch erreichbar», so BBC. Das Resultat der Studie sei ein «Hoffnungsschimmer», hiess es bei Radio SRF. «Es gibt kein Zurücklehnen, mahnte der Tages-Anzeiger. «Niemand weiss, bei welchem Ziel die Erde auf der sicheren Seite ist.»

Kein Wort war zu lesen, dass die Klimaforschung mit dieser Studie an Glaubwürdigkeit verloren hat.

Wären die Verfasser zum gegenteiligen Schluss gekommen, dass die Erderwärmung stärker geworden sei, wäre die Interpretation mit Sicherheit gleich ausgefallen: Jetzt ist Klimaschutz erst recht nötig! Egal also, welche ­Resultate die Wissenschaft liefert: Sie werden immer als Bestätigung gewertet, dass der CO2-Ausstoss möglichst rasch abnehmen muss. Man fühlt sich an ein altes Sprichwort erinnert: «Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt, wie es ist.»

==========================================================================================

)* Anmerkung der EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich : Klima: Entwarnung der Alarmisten | Die Weltwoche, Nr. 39/2017 | 28. September 2017;  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

===========================================================================================

)**




Hurrikan-Apostel (Editorial WELTWOCHE Zürich)

von Roger Köppel  (Chefred. WELTWOCHE Zürich)*

Eigentlich ist es der Stoff für einen neuen Stephen-King-Roman. Der amerikanische Meisterschriftsteller des intelligenten Horrors hat Bücher geschrieben über das, was mit ­Menschen passiert, wenn sie mit Bedrohungen konfrontiert werden, die grösser sind als sie selbst.

Ich kann mich an einen Stephen-King-Film erinnern, da verbarrikadieren sich ein paar Amerikaner in einem Supermarkt, während draussen aus einer unheimlichen weissen ­Wolke namenlose Monstren auf die Menschheit niedergehen, langbeinige Riesenspinnen oder Käfer mit gewaltigen Giftstacheln.

King ist nun weniger an den körperlichen ­Eigenschaften der Kreaturen interessiert. Ihn fasziniert die Frage, wie sich die Menschen zur Wehr setzen, vor allem: wie sich ihre Gemeinschaft unter dem Angriff der grauenvollen, wie von einem zornigen Gott entsandten Gefahr verändert.

Im Supermarkt purzeln plötzlich die alten Hackordnungen. Der vorher auftrumpfende Lokalpolitiker verkriecht sich und wird als Feigling entlarvt. Die unscheinbare Brillen­trägerin an der Kasse entwickelt plötzlich ­un­geahnte Führungsqualitäten.

Vor allem aber mobilisiert der Angriff der Monsterinsekten den heiligen Furor eines Spinners am Hundefutter-Regal, den vorher ­niemand zur Kenntnis nahm, der aber in der neuen Situation zum unverhofften Charisma­prediger, zur religiösen Autorität, avanciert. Er gewinnt die Menschen, indem er die Monstren als göttliche Strafe, als moderne Heuschreckenplage gegen die frevelnden Sterblichen, beschreibt.

Der Trick funktioniert. Bald folgen die ­Supermarktleute dem neuen Moses blind,­ ­vielleicht ist es auch eine Frau, der Film liegt lange zurück. Seine Botschaft verlangt bedingungs­losen Gehorsam. Wer sich widersetzt oder die Deutungen des Sehers bestreitet, muss den ­Supermarkt verlassen: ein sicherer Tod.

So geht das gute neunzig Minuten lang. Als Zuschauer wissen wir nicht, was es mit dieser weissen Wolke und den Killerinsekten auf sich hat. Ist es womöglich doch eine Strafe des Allmächtigen? Mumpitz: Es handelt sich um Züchtungen der US-Armee, die aus Versehen ins Freie gelangten. Am Schluss führen Polizisten den Prediger ab, der wieder ein Spinner ist.

Was will uns King mit dieser Story sagen? ­

Erstens: Hört auf, auf Menschen zu hören, die euch in schwierigen Situationen erzählen, sie seien die Sachwalter höherer Wahrheiten oder göttlichen Willens. Das sind Verrückte, Be­trüger oder beides.

Zweitens: Bezieht nicht jede Katastrophe, die ihr nicht auf Anhieb versteht, automatisch auf euch selbst. Diese Schuld­egozentrik ist ein Steilpass für das Böse.

Warum komme ich jetzt auf Stephen King und seine Theorie des religiösen Katastrophenscharlatans?

Weil uns diese Scharlatane wieder auf allen Kanälen genau das einreden, was King in seiner Monsterparabel so treffend in eine spannende Geschichte packte: dass die jüngsten Stürme, Felsstürze und Gletscher­abbrüche die gerechten Strafen für unsere Sünden seien, keine Insektenmonster, aber ­andere Heimsuchungen, die von oben aus der Wolke kommen.

Nehmen wir Bundespräsidentin Doris Leuthard. Zwischen den Felsmassen von Bondo ­predigte sie kürzlich in ihren Designerkleidern und Designergummistiefeln, dass wir alle ­selber schuld seien am Unheil, denn der Berg sei abgebrochen wegen des «menschengemachten Klimawandels», den es endlich entschlossen zu bekämpfen gelte, selbstverständlich mit der Klima- und Energiepolitik der Bundespräsidentin.

Gegenfrage: Übernimmt Frau Leuthard eine Garantie, dass es in der Schweiz keine Felsstürze mehr gibt, wenn ihre Energiestrategie einst durchgekommen ist?

Verzeihung, ich sehe keinen Unterschied zwischen dem Spinnerprediger im Supermarkt von Stephen King und den Journalisten und Bildschirm-Existenzen, die seit Wochen, beispielsweise in der wissenschaftlichen Tages­zeitung Blick, fuchtelnd die These verkünden, die Hurrikane von Florida und Texas seien die Quittung für alle, die sich weigern, einen Tesla zu kaufen oder das Pariser Klimaabkommen gut zu finden.

Ich bin sicher, diese Leute würden am liebsten den neuen US-Präsidenten vor ein Nürnberger Klimaverbrecher-Tribunal zerren, wovon sie vorläufig nur deshalb absehen, weil sie tief in ihrem Innersten ahnen, dass die Nichtunterzeichnung dieses ohnehin unverbindlichen Klimavertrags durch Trump so kurz vor den Sommerferien doch noch nicht die Kraft ­zweier Tropenstürme entfesseln konnte. Spätestens im nächsten Jahr allerdings, wenn ­irgendwo an der Atlantikküste im Spätsommer bei einem Unwetter eine Palme umgeblasen wird, sind die Beweisketten lückenlos.

Jedoch: Genauso wenig, wie es im Roman von Stephen King fruchtete, dem katastrophengläubigen Endzeitprediger ein paar Fakten entgegenzuhalten, ist es heute aussichtsreich, durch Argumente den Klima-Apokalyptikern den Wind aus den Segeln nehmen zu wollen.

Ich versuche es trotzdem.

Nach dem neusten Klimabericht des IPCC, «Executive Summary», Tabelle Seite sieben, gibt es weltweit «low confidence» (kaum Anzeichen) für langfristige Veränderungen bei Zahl und Heftigkeit von Tropenstürmen.**

Einzig im Nordatlantik habe es seit 1970 «virtually certain» (fast sicher) mehr Stürme gegeben, kaum aber im frühen 21. Jahrhundert. Erwarten uns in den nächsten hundert Jahren stärkere Orkane? Auch dafür gebe es höchstens schwache Belege. Dasselbe gilt für den Zusammenhang zwischen menschlichem Verhalten und Sturmintensität.

Man darf das so lesen: Selbst der hehre Weltklimarat, der ausdrücklich dafür geschaffen wurde, die Menschheit vor dem menschen­gemachten Klimawandel zu warnen, muss zugeben, dass es keine eindeutigen Belege für ­gefährlichere Tropenstürme gibt.

Kratzt das irgendjemanden von diesen Hurrikan-Aposteln da draussen? Natürlich nicht, aber schon Stephen King wusste: Das menschengemachte schlechte Gewissen ist der wertvollste Rohstoff, den es gibt, und erst noch beliebig erneuerbar. Nichts ist süsser als die Macht, die sich daraus ziehen lässt.

)* Anmerkung der EIKE-Redaktion : Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Hurrikan-Apostel | Die Weltwoche, Nr. 37/2017 | 14. September 2017  : http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Roger Köppel für die Gestattung des ungekürzten Nachdrucks.

===============================================================================

)**  Original-Zitat mit Quelle hier :

=========================================================================




Naturkatastrophen: «Noch nicht erlebt» (?)

Es kommt selten vor, dass «10 vor 10»-
­Moderator Arthur Honegger und US-Präsident Donald Trump mit einer Stimme sprechen. «Die Fluten sind beispiellos», twitterte Trump am 27. August über Hurrikan Harvey. «Ein Tropensturm, wie ihn die Menschen in Texas noch nicht erlebt haben», verkündete Honegger einen Tag später auf SRF.

Harvey forderte etwa fünfzig Todesopfer. Das ist tragisch. Ob die Folgen des Hurrikans aber «beispiellos» sind, hängt von der Sichtweise ab :

Im Jahr 1900 traf der Galveston-Hurrikan vor Houston auf die Küste und tötete zwischen 6000 und 12 000 Menschen. Es gab damals so viele Leichen, dass man kaum mehr nachkam mit dem Bau von Massengräbern. 2005 forderte Hurrikan Katrina im Süden der USA mit rund 1800 ebenfalls viel mehr Tote als Harvey.

Auch die Windgeschwindigkeit war nicht beispiellos: In der Liste der stärksten Tropenstürme, die seit 1850 das US-Festland erreicht haben, steht Harvey nur an vierzehnter Stelle. Dieser beendete vielmehr eine aussergewöhnlich lange Periode von zwölf Jahren, in denen kein grösserer Hurrikan mehr das US-Festland erreicht hatte.

In den Sumpf gebaut

Rekordmässig war bei Harvey der Niederschlag: An gewissen Messstationen regnete es soviel wie noch nie bei einem Tropensturm in Amerika. Das lag daran, dass der Hurrikan tagelang über der Küstenlinie verharrte, während andere Stürme meist zügig weiterziehen. Daran ist kaum der ­Klimawandel schuld: Es ist nicht bekannt, dass Hurrikane wegen der Erderwärmung länger stehenbleiben.

Beispiellos waren die Schäden, die Harvey in Texas anrichtete: Alleine in Houston wurden Zehntausende Häuser zerstört. Zuerst war von Kosten von gegen 40 Milliarden Dollar die Rede. Anfang Woche sprach der texanische Gouverneur, der an möglichst viel Hilfe interessiert ist, von bis zu 180 Milliarden. Das wäre mehr als der Schaden, den Katrina 2005 anrichtete (160 Milliarden).

Dafür ist aber ebenfalls nicht der Klimawandel schuld. Vielmehr werden um Houston seit Jahrzehnten überschwemmungsgefährdete Gebiete besiedelt. Man hat buchstäblich in den Sumpf gebaut.

============================================================

)* Anmerkung der EIKE-Redaktion : Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Naturkatastrophen: „Noch nicht erlebt“ | Die Weltwoche, Nr. 36/2017 | 07. September 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

============================================================




Doch nicht menschengemacht!

Alex Reichmuth (Red. WELTWOCHE)*

Letzte Woche konnte das SRF einen seiner Lieblingsexperten im Studio begrüssen: Andreas Fischlin. Der Klimaforscher der ETH Zürich lieferte im «10 vor 10»-Gespräch zuverlässig das Erwartete. Er bestätigte, dass an den jüngsten Natur- und Wetterkatastrophen der Mensch schuld sei. Hurrikan über Houston? «Der Klimawandel spielt hier hinein.» Bergsturz im Bergell? «Eindeutig auf den menschengemachten Klimawandel zurück­zuführen.» Waldbrände in Südeuropa? «Kommen in Zukunft viel häufiger vor.»

Kein Wort aber verlor man beim Schweizer Fernsehen, so wenig wie in anderen Schweizer Medien, über eine Studie, die vor kurzem im Fachjournal Geo Res J publiziert worden ist. ­Dabei lässt das Resultat, zu dem australische Forscher gekommen sind, aufhorchen: Die ­Erwärmung der Erde um etwa ein Grad Celsius seit Mitte des 19. Jahrhunderts habe weit­gehend natürliche Ursachen.

Stalagmiten als Datenträger

Grundlage der Studie der Biologin Jennifer ­Marohasy und des Chemikers John Abbot ­waren Temperaturreihen für die vergangenen 2000 Jahre, die sich auf sogenannte Proxy-­Daten abstützen. Solche Daten lassen sich aus Baumringen, Eisbohrkernen, Stalagmiten oder Korallen gewinnen. Mittels Proxy-Daten kann man auf das Klima zu Zeiten schliessen, als es noch keine zuverlässigen meteorologischen Messungen gab. Marohasy und Abbot haben sechs Proxy-Temperaturreihen, die die letzten 2000 Jahre abbilden, einem neuartigen Computerverfahren unterworfen. Dieses beruht auf einer Art künstlichem neuronalem Netzwerk, das fähig ist, in Zeitreihen Regelmässigkeiten zu erkennen und daraus die künftige Entwicklung abzuschätzen. Die beiden Forscher haben dieses Verfahren schon früher mit Erfolg angewandt, etwa um Regenmengen in Australien vorherzusagen.

Bei den Temperaturreihen interessierte ­Marohasy und Abbot nun, wie sich diese ohne den CO2-Ausstoss des Menschen mutmasslich entwickelt hätten. Entsprechend fütterten sie ihre Computer nur mit den Proxy-Daten bis zum Jahr 1830, als die Verfeuerung fossiler Brennstoffe im grossen Stil begann. Die Programme suchten also nach periodischen Mustern in dem Teil der Reihen, der sicher nicht durch den CO2-Ausstoss beeinflusst ist. Es er­gaben sich unter anderem Schwankungen im Rhythmus von etwa sechzig Jahren um einige Zehntelgrade. Und es zeigte sich ein stärkeres, langfristiges Auf und Ab: Nach einer Erwärmungsphase bis etwa 1200, als es mindestens so warm war wie heute, sank die Temperatur um rund ein Grad, bis sie ab 1650 tendenziell wieder anstieg.

Aus den eruierten Regelmässigkeiten schätzte das Verfahren den weiteren, sozusagen natürlichen Verlauf der Reihen ab. Anschliessend verglichen die Forscher die Prognosen mit dem tatsächlichen Verlauf der Temperaturreihen ab 1830. Es zeigten sich nur geringe Abweichungen, im Schnitt lediglich um 0,1 Grad. Die Welt­temperatur wäre demnach auch ohne Einfluss des Menschen um 0,6 bis 1 Grad gestiegen. Maro­hasy und Abbot folgerten, dass die Erwärmungswirkung durch zusätzliches CO2 in der Atmosphäre viel geringer sein müsse, als andere Klimaforscher behaupten.

Seit Jahren verkündet aber ein Zirkel tonangebender Wissenschaftler, am Haupteinfluss des Menschen an der Erderwärmung gebe es keine Zweifel mehr.

Die Reaktionen auf die Studie von Marohasy und Abbot fielen harsch aus: Es handle sich um «junk science», also um wertlose Wissenschaft, schrieb die linksliberale britische Zeitung The Guardian. Im Artikel kamen prominente Klimaforscher zu Wort, die Marohasy und Abbot eine Reihe gravierender metho­discher Fehler vorwarfen – etwa, dass die Proxy-Datenreihen willkürlich ausgewählt und die Berechnungen falsch interpretiert worden seien. Auch bei Pro Clim, einem Zusammenschluss von Schweizer Klimawissenschaftlern, hält man nichts von der Studie. Die verwendeten Zeitreihen seien grösstenteils nur lokal und nicht global bedeutend, schreibt Pro Clim auf Anfrage der Weltwoche. Zudem weise die Studie eine Reihe von «groben Fehlern» auf.

Seriöses Fachmagazin

Das Geo Res  J, in dem die Studie ­erschienen ist, ist allerdings ein ­seriöses Fachmagazin. Es wird von Elsevier herausgegeben, einem der führenden Wissenschaftsverlage der Welt. Die Studie hatte vor der Publikation eine kritische Begutachtung durch unabhängige Wissenschaftler bestanden. Die Fachgutachter hätten im Rahmen dieser peer review keine Fehler in der Studie entdeckt, bestätigte der Herausgeber des Magazins gegenüber dem Guardian.

Sicher muss die Qualität wissenschaftlicher Ergebnisse immer hinterfragt werden. Doch was die heftige Kritik an der Studie in Geo Res  J betrifft, kommt der Verdacht auf, dass diese auch andere Gründe hat als rein fachliche: Die Autoren Jennifer Marohasy und John Abbot ­gehören nämlich zu den Forschern, die nicht an die These des menschengemachten Klimawandels glauben – und das auch offen sagen. «Die wissenschaftlichen Fakten sind alles andere als klar», schrieb Marohasy in einem Internetkommentar – in Anspielung auf die Behauptung, kein ernsthafter Forscher könne mehr an der Verantwortung des Menschen an der Erderwärmung zweifeln. «Vielmehr sind die grund­legenden physikalischen Mechanismen [des Klimas, Anm. d. Red.] komplex und noch kaum geklärt», so die Biologin weiter.

Klar ist, dass die Studie von Marohasy und Abbot alleine keinen Beweis darstellt, dass die Erderwärmung nicht doch massgeblich vom CO2-Ausstoss angetrieben ist. Die beiden Forscher haben mit einer neuartigen Art der Datenberechnung gearbeitet, deren Aussagekraft ­diskutabel ist. Grundsätzlich ist die Bedeutung von Computerberechnungen zum Klima ­immer davon abhängig, welche Wirkung von chemischen Substanzen man annimmt, welche physikalischen Zusammenhänge man zugrunde legt und welche Qualität die eingespeisten ­Daten haben.

Man muss aber wissen, dass sich die tonangebenden Wissenschaftler bei ihren Warnungen vor einer weiteren ­Erwärmung praktisch ausschliesslich auf Computerberechnungen abstützen, die Kritiker seit langem als unbrauchbar bezeichnen. Diese Kritik ist nicht einfach nur böse Propaganda, denn es wurden in der Tat schon krasse Fehler hochdekorierter Klimawissenschaftler belegt.

Die bekannteste solcher Fehlleistungen ist wohl die sogenannte Hockeyschläger-Kurve des amerikanischen Klimaforschers Michael Mann, die auf Computerberechnungen beruht. Sie zeigte eine Welttemperatur, die während ­vieler Jahrhunderte praktisch unverändert blieb, um dann im 19. Jahrhundert plötzlich steil anzusteigen. Der Weltklimarat bildete die Kurve in seinem dritten Sachstandsbericht von 2001 an zentraler Stelle ab, um so vor einer Klimakatastrophe zu warnen. Später wies der kanadische Bergbauspezialist Steve McIntyre nach, dass die statistischen Verfahren von Michael Mann mathematisch untauglich sind. Damit hatte ein Hobbyforscher einen der höchstdekorierten Klimaforscher der Welt ­widerlegt.

Die Ergebnisse von Jennifer Marohasy und John Abbot stehen nicht so quer, wie man meinen könnte. Wissenschaftliche Resultate, die den Einfluss des Menschen auf das Klima als weit geringer als angenommen zeigen, sind keine Seltenheit. Sie kommen manchmal sogar aus der Schweiz:

So stellte das Weltstrahlungszentrum (PMOD/WRC) in Davos fest, dass die Strahlkraft der Sonne seit 1950 überdurchschnittlich hoch ist, in den kommenden Jahrzehnten aber wohl stark abnehmen wird. Die Abkühlungswirkung könne durchaus ein halbes Grad betragen, sagte PMOD/WRC-Leiter Werner Schmutz im letzten März gegenüber SRF. Ein halbes Grad wäre immerhin die Hälfte des ­Temperaturanstiegs, den man seit Beginn der Industrialisierung verzeichnet hat.

Dass das Schweizer Fernsehen Schmutz zu Wort kommen liess, dürfte damit zu tun haben, dass dieser sich sofort zum menschengemachten Klimawandel bekannte: «Die Sonne rettet uns nicht, die Sonne könnte uns höchstens ­etwas Zeit geben.»

Auch Galileo Galilei liess man einst erst laufen, nachdem er der Be­deutung der Sonne abgeschworen hatte.

=================================================================

)* Anmerkung der EIKE-Redaktion :  Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Doch nicht menschgemacht | Die Weltwoche, Nr. 36/2017 | 07. September 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

=================================================================




Wir haben nur noch drei Jahre, um den Planeten vor dem Klimawandel zu retten

Hier der Bericht vom 07. Juli 2017 des alarmistischen World Economic Forum auf Deutsch.

Daher verlängerte er seine Frist in 2015 [vorsichtshalber gleich] um weitere 35 Jahre. Sie könnten daher annehmen, dass diese Leute darüber reden und ihre Geschichten korrigieren.

In einem neuen offenen Brief schrieben sechs prominente Wissenschaftler und Diplomaten, darunter die ehemalige UN-Klimakonzertchefin Christiana Figueres, Hans-Joachim Schellnhuber und Stefan Rahmstorf , dass die Welt nur noch etwa drei Jahre hat, bevor die schlimmsten Auswirkungen des Klimawandels greifen. Veröffentlicht am 28. Juni, fordert der Brief Regierungen, Unternehmen, Wissenschaftler und Bürger auf, die weltweiten Treibhausgasemissionen jetzt anzugehen.

Ein Planet, der durch den Klimawandel verwüstet wird, mag wie eine ferne Zukunft erscheinen. Aber die Erde erlebt diese Effekte bereits heute.

Der mittlere Anstieg des Meeresspiegels kletterte weltweit in den letzten zwei Jahrzehnten um 50%. Die Temperaturen haben in 2017 bereits in einigen Gebieten, von Kalifornien bis Vietnam, ihre höchsten Werte erreicht. Und die letzten drei Jahre waren die heißesten der Aufzeichnungen.

 Wenn die Emissionen bis 2020 dauerhaft gesenkt werden können, kann es wahrscheinlich vermieden werden, dass die globalen Temperaturen eine irreversible Schwelle erreichen, schrieben sie. Die Auswirkungen umfassen eine rasche Entwaldung, Überschwemmungen durch steigenden Meeresspiegel und unvorhersehbare Wetterveränderungen, was die Landwirtschaft zerstört und das Leben an den Küsten beeinflussen könnte, wo die überwiegende Mehrheit der Menschen lebt.

Ihr Plan enthält sechs Ziele bis 2020:

  • Erhöhung des Anteils der erneuerbaren Energie auf 30% des Stromverbrauchs.
  • Pläne für Städte und Staaten, um bis 2050 auf fossilen Brennstoff komplett zu verzichten, mit einer Finanzierung von 300 Milliarden Dollar jährlich. [habe ich richtig gerechnet: 32 x 300 = 9,6 Billionen insgesamt. Womit und vom wem soll das verdient werden?]
  • Sicherstellen, dass 15% aller verkauften Neufahrzeuge elektrisch sind. [bei weltweit rd. 1,3 Mrd. Autos in 2017, wären das dann 195 Mio E-Autos; der Übersetzer]
  • Beenden der Netto-Emissionen aus Entwaldung.
  • Beginnen Sie mit dem Plan zur Halbierung der Emissionen aus der Entwaldung schon vor 2050.
  • Ermutigen Sie den Finanzsektor, mehr “ grüne Anleihen “ für Klimaschutzbemühungen auszugeben.

Die Ziele des Briefes stehen im Widerspruch zu den Prioritäten der Trump-Administration, die signalisiert hat, dass der Klimawandel  nicht auf der Agenda steht . Anfang Juni gab Präsident Trump  bekannt,  dass die USA im Jahr 2019 aus dem Pariser Abkommen zurücktreten werden, das nationale Benchmarks zur Eindämmung der Treibhausgasemissionen festlegt.

Die Autoren fordern Städte und Unternehmen auf, die Emissionen zu bekämpfen und die Pariser Ziele zu erreichen, auch ohne die Hilfe der US-Regierung.

„Wir stehen an der Schwelle, um die Emissionskurve bis 2020 nach unten zu bekommen, wie es die Wissenschaft fordert, zum Schutz der UNO Entwicklungsziele für Nachhaltigkeit [Union für Nebulöse Ortientierungshilfen; Walt Disney Lustiges Taschenbuch, etwa 1989 oder 1990] und insbesondere der Beseitigung der extremen Armut“, sagte Frau Figueres in einer Pressemitteilung.

„Diese monumentale Herausforderung fällt mit einer beispiellosen Offenheit zur Selbst-Hilfe seitens der subnationalen Regierungen in den USA, Regierungen auf allen Ebenen außerhalb der USA und des privaten Sektors im Allgemeinen zusammen. Die Gelegenheit, die uns in den nächsten drei Jahren gegeben wird, ist in der Geschichte einzigartig.“

 

Erschienen auf WUWT am 06.09.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/09/06/claim-just-three-years-left-to-save-the-planet-from-climate-change/




AfD fordert Schluss mit Klimaschutz und Schluss mit der Energiewende – Medien schweigen

Nach langer, intensiver Vorbereitung traten die Spitzenkandidaten der AfD Frau Dr. Alice Weidel und Herr Dr. Alexander Gauland am 4.9.17 im Haus der Bundespressekonferenz zu den Themen Energie und Klima vor die Presse. Unterstützt wurden sie von Herrn Burkard Reimer Dipl. Ing. und Dipl. Chemiker und mir, ebenfalls Dipl. Ing.

Video nicht mehr verfügbar

Video der AfD Pressekonferenz zu Klima & Energiethemen am 4.9.17 in Berlin

 Der Saal war brechend voll- Viele Kamerateams sind da, dazu ein Dutzend Fotografen und mehrere Dutzend Presseleute.“, berichtet Frau Verena Kern, freie Journalistin bei Klimaretter.info, wie es scheint ein wenig neidisch . Da sie nach eigener Auskunft Philosophie und Kommunikationswissenschaften studiert hat und sogar Fachbücher lektoriert, ist auf ihr Urteil sicher Verlass. Und zumindest das stimmt auch. Der Saal war sehr voll.

Zunächst trug Frau Weidel klar und pointiert den Standpunkt der AfD zu den Themen Auto & Diesel vor. Umfassend begründet forderte sie dann:

  • Die Festlegung vernünftiger Grenzwerte für Stickoxide und Feinstaub,
  • Bis dahin ein mindestens 10 jähriges Moratorium – also Aussetzung der überzogenen EU- Grenzwerte – durch den Gesetzgeber.
  • Eine Bestandsgarantie bis mindestens 2050 für alle Verbrennungsmotoren
  • Elektromobilität darf sich nur auf marktwirtschaftlicher Basis und unter Beachtung der Umweltfolgen entwickeln
  • Damit unsere bitter benötigte stabile Stromversorgung auch in Zukunft gewährleistet bleibt, muss die Laufzeit unserer als sicherste der Welt geltenden Kernkraftwerke allein nach deren technischer Nutzungsdauer richten.

Anschließend trug Herr Gauland sein Statement vor. Auch in diesem begründete er umfassend und klar die daraus abgeleiteten Forderungen der AfD (14:08). Sie lauten:

  • Schluss mit der Energiewende, und allen ihren Ausformungen, Abschaffung des EEG, der EnEV und der dazu gehörenden Gesetze und Verordnungen
  • Die staatliche Planwirtschaft ist zu beenden. Alle Formen der Energieerzeugung sind in die Marktwirtschaft zu entlassen und sollen sich im fairen Wettbewerb stellen.
  • Die AfD wird wissenschaftliche Gutachten, die dem EEG Verfassungswidrigkeit und ein Verstoß gegen europäische Rechtsnormen bescheinigen ggf. vom Bundesverfassungsgericht prüfen lassen (zwar nicht von Gauland gesagt, aber im Handout geschrieben)

Nach diesen, das Weidel Statement ergänzenden Feststellungen und Forderungen, trug Gauland die Haltung der AfD zum Klimawandel vor. Wieder umfassend begründet, schloss er auch hier mit den daraus abgeleiteten Forderungen:

  • Zurück zur wissenschaftlich begründeten Vernunft in der deutschen und internationalen Klimapolitik
  • Austritt aus dem Pariser Klimaabkommen, Schluss mit dem Klimaschutzplan 2050 und der Dekarbonisierung
  • Schluss mit dem sog. Klimaschutz

Dazu gehört:

  • Ausstieg aus allen diesbezüglichen internationalen wie nationalen Verträgen, Kommissionen und Verpflichtungen.
  • Einstellung aller „Klimaschutzmaßnahmen“ in der öffentlichen Verwaltung samt aller Budgets und Posten
  • Die Mittel die derzeit zum Klimaschutz aufgewendet werden müssen umgeschichtet werden, zur Finanzierung von Maßnahmen zur Anpassung an zukünftige Umweltschäden durch Wetterextreme
    • Dagegen Konzentration von Wissenschaft und Administration auf Verbesserung der Infrastruktur – auch um bspw. Starkniederschläge zu bewältigen, oder die Folgen anderer Wetterextreme zu beherrschen. Denn nicht die Wetterextreme haben zugenommen, wohl aber der lokale Wohlstand und entsprechend die Besiedlungsdichte in diesem Land. (zwar nicht von Gauland gesagt, aber im Handout geschrieben)

Mein Fazit:

Entweder waren die anwesenden Journalisten in der Mehrzahl dermaßen überrascht, dass sie weitgehend sprachlos blieben oder sie waren vom Mittagessen, es war schließlich schon fast 14:00 Uhr, noch so sediert, dass sie eigentlich nur einen Platz zum Ausruhen gesucht und gefunden haben.

Denn die Zahl der Fragesteller blieb gering, etwa die Hälfte der wenigen Fragen bezogen sich auf Klatsch & Tratsch, bzw. Sachverhalte, die mit den Themen nichts zu tun hatten. Die Fragen zu den eigentlichen Themen blieben spärlich.

Gering blieb auch die mediale Resonanz. Weltredakteur Mathias Kamman, sonst nie um ein tägliches AfD Bashing verlegen, wunderte sich zwar, dass seine Zeitung nach seinem Verständnis des Handouts, dass jeder Teilnehmer bekommen hatte, nicht mehr zu den Leitmedien gehören sollten und ließ sich auch von meinen Erläuterungen nur wenig trösten, denn einen Artikel über diese Pressekonferenz verkniff er sich.

Lediglich im Berliner Tagesspiegel und in der FAZ Online Version wurde berichtet.

Und, ach ja, der lokale ARD Sender rbb berichtete kurz in seinen Rundfunk-Nachrichtensendungen, genauer im Inforadio, über diese Pressekonferenz.

Einlullen, verschweigen, ausgrenzen durch Nichtbeachtung wurde auch hier wieder als Verteidigungsstrategie angewandt. Ob sie etwas nützt wird der 24.9.17 ab 18:00 Uhr zeigen.

Ich war jedenfalls mit dem nun auch öffentlichen Ansatz der AfD sehr zufrieden! Sitzt sie erstmal mit genügend großer Zahl von Abgeordneten im Deutschen Bundestag, wird sie – wie bisher auch, aber auf größerer Bühne- die anderen Parteien vor sich hertreiben, wenn die nicht gleich die Forderungen der AfD übernehmen. Aus reiner Selbsterhaltung. Wie jetzt auch schon!

 

 

 

 

 

 




Umfragen: Die einen sagen so – die anderen so!

Zugegeben, den größten Teil dieser schönen Schlagzeile habe ich von Henryk M. Broder auf ACHGUT geklaut. Und der entnahm sie vermutlich einem uralten, etwas delikatem Witz[1]. Doch uns beiden fiel wohl gleichzeitig einige Berichte über Umfragen auf, die zum Nachdenken Anlass geben.

Bei Broder liest sich das so:

Von Henryk.M. Broder.

Eine Emnid-Umfrage im Auftrag der BamS ergab, dass nur 29% der Bundesbürger das Thema „Zuwanderung“ als „äußerst oder sehr wichtig“ für ihre Wahlentscheidung halten. Eine Woche später ergab eine Umfrage der Gesellschaft für Konsumforschung, dass kein anderes Thema die Deutschen so sehr umtreibt „wie die Zuwanderung und Integration von Ausländern“. Seltsam, nicht wahr? Der Unterschied könnte mit der Methodik der Umfragen zu tun haben. Während Emnid einer wie immer „repräsentativen Auswahl“ von Bügern die Frage stellte „Wie wichtig sind Ihnen für Ihre Stimmabgabe bei der Bundestagswahl die folgenden Aufgabenbereiche?“ und die Bereiche auflistete, waren bei der GfK-Umfrage keine Antworten vorgegeben. Die Teilnehmer der Umfrage konnten „frei antworten, in Worte fassen, was sie am meisten besorgt“. – So einfach kann eine Erklärung für das Unerklärliche sein. Und wie einfach es ist, das Ergebnis einer Umfrage durch die Art der Fragestellung zu manipulieren.  / Link zum Fundstück

Bei mir war die Ausgangslage etwas anders. Es ging – natürlich- um die vermeintliche Klimaangst der Deutschen. Da behauptete z.B. die Berliner Morgenpost – eine Zeitung der Funke-Mediengruppe- dass, …die Mehrheit der Deutschen denkt laut einer jüngsten Umfrage des Kantar Emnid Instituts, dass Klimawandel das dringendste Problem der Gegenwart ist.“

Diese Erkenntnis des jetzt Kantar Emnid Institutes wurde recht breit auch in anderen Medien und nicht nur von Funke verbreitet.

Im Einzelnen findet man im Beitrag der Morgenpost:

Danach sagen 71 Prozent der Befragten, die Veränderung des Weltklimas bereite ihnen persönlich besonders große Sorgen. 65 Prozent führen neue Kriege als beherrschende Furcht an. Bei 63 Prozent sind es Terroranschläge, 62 Prozent nennen Kriminalität, und 59 Prozent ängstigen sich vor Altersarmut. Mit einigem Abstand folgt die Zuwanderung von Flüchtlingen (45 Prozent). Arbeitslosigkeit ist mit 33 Prozent die geringste der genannten Sorgen.

Weil mir diese Reihenfolge angesichts der täglichen Berichte in allen Medien komisch vorkam, nicht nur in Bezug auf das Klima, rief ich bei Kantar Emnid an, und bat um die Nennung der Fragestellung, die dieser Umfrage zugrunde lägen.

Man beschied mich abschlägig, da diese Eigentum der Funke Mediengruppe seien, und sie nicht darüber verfügen dürften. Und auch aus mehreren Artikeln anderer Medien konnte man nirgends entnehmen, wie und was gefragt wurde. Da gab ich auf.

Aber fast zeitgleich wurde eine Studie des PEW Centers mit 1000 Befragten in Deutschland (z.B. hier) veröffentlicht, die transparenter ist, und bei welcher der Klimawandel nur auf Pos. 3 der Besorgnisse landete. Aber immerhin noch von 63 % der Befragten angegeben wurde.

Und nun die Umfrage der Gesellschaft für Konsumforschung (GFK)!

Überraschung: Darin taucht die Angst vor Klimawandel überhaupt nicht auf.

Stattdessen steht die Furcht vor Zuwanderung/Migration deren Belastung und Kosten ja gerade erst beginnen sich in unserem Alltag zu verfestigen, an prominent erster Stelle.

Warum?

Weil die Befragten – oder soll man besser sagen- die beeinflussten Probanden diesmal- „frei antworten konnte, in Worte fassen, was sie am meisten besorgt“.

Die zu beantwortende Frage lautet: „Was sind Ihrer Meinung nach die dringendsten Aufgaben, die heute in Deutschland zu lösen sind?“

Und da liegt das Thema Zuwanderung/Migration mit ca. 63 %, also Riesenabstand, weit, weit vorn.

Die Angst vor Klimawandel kommt einfach nicht vor.

Die einen sagen eben so, die anderen so.

Wobei man zu Annahme kommen könnte, dass die einen die Meinungsmacher – genannt Umfrage-Institute- sind, während die anderen, die Leute von der Straße sind, also wir!

Und es drängt sich die Frage auf: Ist die Beeinflussung der Befragten nicht auch bei anderen Umfragen gängige Praxis?

Seufz! Fragen über Fragen.

Die weise Aussage eines Staatmannes „glaube keiner Statistik die Du nicht selber gefälscht hast“ bestätigt sich eben immer wieder.

 

[1] Der Witz geht so: Fragt ein Freund den anderen: „Na, wie ist denn Deine Frau so im Bett?“ Darauf der Andere: „Die einen sagen so, die andern so!“




Verschiebt der Klimawandel Europas Hochwässer dramatisch?

Die Hochwasser in Europa kommen scheinbar nicht mehr pünktlich, wie im Kalender angegeben

TU Wien, Pressemeldung: [6] Der Klimawandel verschiebt Europas Hochwässer
Ein Zusammenhang zwischen dem Klimawandel und Hochwässern ist nun erstmals klar belegt. Eine von der TU Wien geleitete Studie zeigt: Der Zeitpunkt der Hochwässer verschiebt sich dramatisch.
… In einem internationalen Großprojekt, geleitet vom Hochwasserexperten Prof. Günter Blöschl von der TU Wien, wurden nun Datensätze aus 50 Jahren von über 4000 hydrometrischen Stationen aus 38 europäischen Ländern gesammelt und ausgewertet. Das Ergebnis: Der Klimawandel hat tatsächlich einen deutlichen Einfluss auf Hochwasserereignisse. Erkennen lässt sich das am besten daran, dass sich das Auftreten der Hochwässer über die Jahre zeitlich verschiebt. Je nach Ursache der Hochwasserereignisse treten sie in manchen Regionen immer früher auf, in anderen immer später …

Es lohnt sich, die Studie zu sichten, da sie (wieder) eines der typischen Beispiele ist, wie aus im Kern unbrauchbaren Daten durch statistische Kunstkniffe Abweichungen „generiert“ werden und das unspektakuläre Ergebnis dann medial aufgebauscht vermittelt wird.

 

Die Hochwasserpegel wurden bisher nicht höher und die Starkniederschläge ebenfalls nicht schlimmer

Wie unlängst in einer kleinen Sichtung anhand 100-jähriger Niederschlagsreihen gezeigt wurde, sind die Starkniederschlags-Streuungen unglaublich hoch. Es ist so „schlimm“, dass ist nicht einmal nach 100 Jahren sichere Trends belegbar sind. Vor allem jedoch: Eine Korrelation mit der steigenden Temperatur oder dem CO2-Eintrag zeigt sich definitiv nicht [4].

Zur Erinnerung dazu Niederschlags-Verläufe [4] einer von Starkniederschlag oft betroffenen Gegend: Einmal die Tageswerte und dazu die 7-Tageswerte, wie sie in der Studie [6] [7] ausgewertet wurden. Farblich hinterlegt ist das Jahr 1960, mit dem die Auswertungen der Studie beginnen.

Bild 1 Tagesniederschlag Annaburg (DWD-Station 170) von 1901 – 2017

Bild 2  7-Tages-Niederschlag Annaburg (DWD-Station 170) von 1901 – 2017

 

Historische Flutpegel sind verblüffend oft erheblich höher, als die seit dem „Klimawandel“. Es wird noch viele, viele Jahrzehnte dauern (falls es überhaupt so weit kommt), bis solche überhaupt wieder erreicht werden, von einer Erhöhung dann noch gar nicht zu reden.
Der Pegel des Mains (aber auch viele andere) sind dafür ein beredtes Beispiel. Im Jahr 2013 wurde in Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überflutungsgebiet zugewiesen hatte und musste abgebrochen werden. Zeitungen schrieben damals dazu, es wäre eine sichtbare Auswirkung des Klimawandels. Der Autor sagt anhand von Bild 3 dazu, es war eine sichtbare Auswirkung von Dummheit des städtischen Planungsamtes. Das städtische Amt, welches die Fläche zugewiesen hatte, hielt sich mit Äußerungen zurück.

Bild 3 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013 (Grafik vom Autor anhand der Hochwassermarken-Angaben erstellt)

Bild 4 Hochwassermarken Neckarsteinach vor dem Bistro „Stadtgarten“ Quelle: Historische Hochwassermarken

Bild 5 Hochwassermarken in Frankfurt a. M. Quelle: Historische Hochwassermarken

Bild 6 Elbe, Fließmengen seit 1850. Wert der Flut 2002 von 4.700 m3 nach vom Autor nach den Angaben in der Studie ergänzt. Quelle: MUDELSEE ET AL.: EXTREME FLOODS IN CENTRAL EUROPE

Das ist nicht nur in und um Deutschland herum so, sondern zum Beispiel auch in Schweden:
[9] … The results show that the changes in annual maximum daily flows in Sweden oscillate between dry and wet periods but exhibit no significant trend over the past 100 years.

 

Es muss aber doch ein (negativer) Klimawandeleinfluss zu finden sein

Den schlimmen Einfluss des Klimawandels zeigende „Belege“ müssen aber her. Und da es die Höhe und die Häufigkeit der Hochwasser nicht hergeben, muss es eben deren zeitliche Verschiebung sein. Scheinbar konnte man sich früher auf die Pünktlichkeit der Hochwässer verlassen und diese Pünktlichkeit scheint der Klimawandel nun „zerstört“ zu haben.
Damit der Nachweis gelang, wurde ein enormer (geförderter) Aufwand betrieben.

 

Jahrelange, mühevolle Arbeit, um zu erkennen, dass wenn der Schnee früher schmilzt, das Schmelzwasser auch früher im Flachland ankommt

Die durchführende TU Wien meldete stolz die (Klimawandel-negativen) Ergebnisse.
TU Wien, Pressemeldung: [6] … So wurden in jahrelanger, mühevoller Arbeit Hochwasserdaten aus ganz Europa zusammengesammelt, aufbereitet und mit Hilfe von Modellrechnungen analysiert. Dabei zeigte sich tatsächlich, dass sich die Hochwässer in Europa in den letzten 50 Jahren zeitlich ganz deutlich verschoben haben:
„Im Nordosten Europas, in Schweden, Finnland und im Baltikum kommen die Hochwässer heute um einen Monat früher als in den 60er und 70er Jahren. Damals traten sie durchschnittlich im April auf, heute im März“
, sagt Günter Blöschl. „Das liegt daran, dass der Schnee heute bereits früher schmilzt als damals.“ In England und Norddeutschland hingegen kommt das Hochwasser heute um etwa zwei Wochen später als damals .. An den Atlantikküsten Westeuropas führt der Klimawandel dazu, dass früher im Jahr das Maximum an Bodenfeuchte erreicht ist, und in Teilen der Mittelmeerküste führt die Erwärmung des Mittelmeers dazu, dass die Hochwasserereignisse immer später auftreten.

Diese Erkenntnis hat etwas an sich. Nun wissen von durch Schneeschmelzen-Hochwasser Betroffene endlich, warum solche früher auftreten.
Allerdings soll es doch weniger Schnee haben, so dass dadurch einmal die Ereignisse selbst und auch deren Höhe zurückgehen müssen. Und früher gab es viele besonders schlimme Schmelz-Hochwasser durch Eisstau im Fluss. Diese sind durch die Erwärmung (und veränderte Fließgeschwindigkeiten) fast völlig verschwunden. Alles Einflüsse, welche in der Studie keine Berücksichtigung finden, da sie weitgehend vor dem Untersuchungszeitraum lagen.

 

Ein Fleckerlteppich an differierenden Trends

So man will, lässt sich zu allem und überall ein kurzfristiger Trend als Korrelation berechnen und statistisch belegen, was ja auch Anlass für viele Witze ist. Warum soll das bei Hochwässern nicht so sein. Wenn man es, wie in der Studie [7] durchgeführt, kommen auch bei Hochwässern Trendrichtungen heraus, allerdings regional verteilt sehr unterschiedliche. Bild 7 aus der Studie zeigt diese: Blau: positive Zeitverschiebung (später), Braun: negative Zeitverschiebung (früher). Daraus kann man sich heraussuchen, welchen Trend man in Europa gerne möchte.

Bild 7 [7] Supplement, Fig. S3 (Teilbild) 7-day maximum precipitation (1960-2010), trend in timing; red indicates earlier precipitation, blue later precipitation (days per decade) (B).

 

Um den Trend-Fleckerlteppich zu beschönigen, wurden die „Trends“ etwas anders „eingefärbt“ (Bild 8) und von kleineren, leidlich „trendigen“ Regionsbereichen (den von Vierecken umschlossenen) Trendbilder erstellt (Bild 9).

Bild 8 [7] Supplement, Fig. S2 (Ausschnitt) Observed trends in flood timing 1960-2010, at individual hydrometric stations (points, n=3184) and interpolated trends (background pattern). Rectangles show selected subregions that were subject to a detailed regional analysis (Fig. 2).

So richtig „trendig“ sind aber selbst diese Regionen nicht. Stellt man sich die Unsicherheitsbereiche, welche (bestimmt nicht zufällig) nur mit +-0,5 Sigma (weniger Aussagekraft als ein Münzwurf) schraffiert wurden, mit den sonst üblichen, mindestens +-2 Sigma (95 %), eher sogar +-2,5 Sigma (99 %) vor, bleibt von einer „Trendsicherheit“ praktisch nichts mehr übrig.

Bild 8-2 [7] Fig. 2 Long-term temporal evolution of timing of floods and their drivers for six hotspots in Europe.
(A) Southern Sweden; (B) Baltics; (C) southwestern Norway; (D) southern England; (E) northwestern Iberia; (F) Adriatic coast. Solid lines show median timing over the entire hotspot; shaded bands indicate variability of timing within the year (±0.5 circular standard deviations). Green, timing of observed floods; purple, 7-day maximum precipitation; orange, snowmelt indicator; blue, timing of modeled maximum soil moisture. All data were subjected to a 10-year moving average filter. Vertical axes show month of the year (June to May).

 

Starkregenereignisse streuen ohne Klimawandel-Trend

Damit Überschwemmungen auftreten, muss es stark regnen. Als Starkregen gelten >30 mm Wassersäule pro Tag, also 30 Liter / m2. In [4] wurden anhand von Beispielen die extremen Streuungen von Starkregenereignissen gezeigt, anbei daraus (und zusätzliche) Darstellungen.
Im folgenden Bild ist die zeitliche Lage der Tage (Tag im Jahr), an denen Starkregen an der Messstation Annaburg auftrat. Es zeigt sich eine Zeit-Spanne von ca. 200 Tagen. Ein Trend ist nicht erkennbar und wäre bei der hohen Streuung auch aus dem über 100-jährigen Verlauf nicht signifikant zu ermitteln.


Bild 9 DWD-Messstation Annaburg, Sachsen-Anhalt (ID 170), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

Wenn man auf drei Tage Starkregen hintereinander verdichtet, werden die Ereignisse natürlich weniger. Jetzt könnte man im Verlauf von über 100 Jahren einen ganz schwachen Trend sehen. Ob dieser signifikant ist, bleibt fraglich.

Bild 10 DWD-Messstation Annaburg (ID 1176), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

 

Während die Messstation Annaburg so etwas wie einen Jahreszeiten-Bezug aufweist, zeigt eine Messstation in Württemberg, wie Teile dieses Bundeslandes von Starkregenereignissen geradezu malträtiert werden.

Bild 11 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

Verdichtet man die Ereignisse ebenfalls und nimmt wieder nur die, wenn es drei Tage lang ununterbrochen Starkregen gab, ändert sich zwar die Anzahl, aber nicht die zeitliche Auftretenswahrscheinlichkeit über das gesamte Jahr. In Verbindung mit dem Bild 13, welches die 4-Tage-Starkregen-Ereignisse zeigt, wird klar, dass es keinen Trend, sondern ein chaotisches Verhalten gibt.

Bild 12 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176). Ereignistage von 3 Tagen hintereinander auftretendem Starkregen zwischen 1901 – 2017

 

Bild 13 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176), Ereignistage von 4 Tagen hintereinander auftretendem Starkregen zwischen 1901 – 2017

 

So hat es auch ein Redakteur DER WELT einmal erkannt und in einem Artikel beschrieben.
ZEIT ONLINE: … Die Grafik zeigt alle Starkregen-Ereignisse seit 1960; jeder der 44.005 Punkte ist eine solche Messung. Einen Trend kann man daraus nicht ablesen. Es gab weder häufiger noch seltener Starkregen in den vergangenen fünfeinhalb Jahrzehnten.
… Könnte alles nur Zufall sein? Könnte es. Statistisch wird man das erst nachweisen können, wenn man bessere Daten – etwa aus den Satellitenaufnahmen – über einen sehr langen Zeitraum auswertet. Und damit meinen Klimaforscher Jahrhunderte …

Bild 14 Deutschland, alle Starkregenereignisse seit 1960 – ca. 2015. Quelle: ZEIT ONLINE, 3. Juni 2016: Was ist starker Regen

 

Was der Autor in DER WELT schrieb, klingt zu vernünftig und widerspricht auch der Doktrin. Deshalb durfte es so natürlich nicht stehen bleiben. Mit einer Dialektik, welche mittelalterlichen Scholastikern zur Ehre gereicht hätte, wurde das Manko gerade gebogen, indem erklärt wird, dass gerade, weil man es nicht belegen kann, es ein Beleg wird, indem man sich darüber eben einigt:
ZEIT ONLINE: … Meteorologe Becker …  „Der fehlende Messnachweis eines Ereignisses stellt keinen sicheren Beweis für die Abwesenheit des Ereignisses oder Trends dar. Außerdem lägen aus der Zeit zu Beginn der Industrialisierung nicht so gute und umfassende Daten vor.
Der Zeitraum, seit dem es Wetteraufzeichnungen gibt, ist einfach zu kurz, um diesen Zusammenhang zu beweisen, sagt auch der DWD selbst. Trotzdem sind sich die meisten Meteorologen einig, dass die globale Erwärmung zu mehr extremen Wetterereignissen und damit auch zu häufigerem und intensiverem Starkregen führt. Und zwar auch in Deutschland.

 

Warum untersucht die Studie nur sieben Tage-Ereignisse?

In der Studie wird eine Flut erst nach 7 Tagen mit starkem Niederschlag angenommen. Gerade die jüngeren Überflutungsereignisse in Deutschland, bei denen viele kleinere Flüsse und Bäche über die Ufer traten und in Städten und Dörfern massivste Schäden anrichteten, geschahen aber spätestens mit dem zweiten Starkregentag.
Doch ist offensichtlich, warum nur die Ereignisse über viele Tage verwendet werden konnten. Wie die Bilder 10, 12, 13 zeigen, kommt man erst dann zu „auswertbaren“ Häufigkeitsbildern.

Dass diese Einschränkung rein „ergebnisorientiert“ und nicht „problemorientiert“ begründet ist, zeigt ein gerade erschienener Artikel sehr schön. Die jüngeren Flutschäden wurden vorwiegend durch kurzfristige Starkniederschläge verursacht:
Bayerische Staatszeitung BSZ, 18.07.2017: Weniger Schäden durch Naturkatastrophen Im ersten Halbjahr ging es auf dem Planeten vergleichsweise ruhig zu, … Hochwasserschäden haben stark abgenommen.
„So haben etwa die Hochwasserschäden an Flüssen stark abgenommen. Das liegt an verbessertem Hochwasserschutz.“ Auf der anderen Seite gebe es einen signifikanten Anstieg der Schäden durch Gewitterereignisse. „Gegen Gewitter kann man sich nicht so gut schützen wie gegen Flussüberschwemmungen, gegen materielle Schäden durch starke Tornados kann man eigentlich gar nichts tun“, sagte Höppe.
In Deutschland hätten Ereignisse wie die schweren Gewitter in Braunsbach und Simbach 2016 und zuletzt in Berlin und Umland hohe Schäden verursacht. „Für diese Entwicklung gibt es auch eine Erklärung, nämlich den Anstieg des Feuchtegehalts der Erdatmosphäre. Das ist ein klares Anzeichen des Klimawandels.“

Auch zeigt der Artikel auf, dass Herr Höppe hier bewusst (er weiß es als Fachmann ganz sicher besser) den leider gängigen Unsinn: Mehr Wärme = mehr Starkregen, erzählt. Denn die Starkregen von Simbach, Braunsbach und diesem Juli (wozu das in Berlin zählt), ereigneten sich nach kühlen Tagen und taugen keinesfalls als „Anzeichen des Klimawandels“, wie der Autor extra nachgeprüft und in mehreren EIKE-Artikeln dazu berichtet hat [4] [10] [11].

 

In der ersehnten, vorindustriellen Zeit war es nicht besser

Die Studie behauptet, mit einer Trendanalyse, beginnend im Jahr 1960 könnte man bei durch Niederschläge initiierten Ereignissen signifikante Trends ermitteln. Wie das (außer bei Schneeschmelze-bedingten Ereignissen) gelingen soll, bleibt dem Autor ein Rätsel. Zudem bliebe dann immer noch die Frage offen, ob es solche Trends nicht auch schon früher gab (was in der Studie nicht untersucht wurde), und sie damit (falls sie vorhanden wären) überhaupt Klimawandel-bedingt sein müssen.
Denn natürlich schwankten die Ereigniszeiten auch früher beträchtlich, (Bilder 3 … 6) und als Beispiel:
Dionysius-Kirche in Asselt, 5 km nördlich von Roermond (NL). Datum der Hochwasserereignisse, in bezüglich der Pegelhöhe absteigender Reihenfolge:
2.1.1926; 13.1.1995; 24.12.1993; 14.12.1880; 16.1.1920; 2.2.1981; 16.10.1924; 15.2.1984; 14.1.1992; 23.7.1980; 26.7.1879.
Die Ereignis-Spanne reicht vom Oktober über den Winter bis zum Juli, also über mehr als ein halbes Jahr.

 

Wenn man nicht genau weiß, zu welchem Datum das nächste Hochwasser kommt, kann man doch nicht planen

Wie die Menschheit die vielen Jahrtausende bis zur heutigen Zeit überleben konnte, wird immer mehr zum Rätsel. Man könnte gerade meinen, es gab vor dem Klimawandel nur stabiles, streng nach dem Kalender verlaufendes Wetter und Regen und Sonnenschein erschienen immer pünktlich. Weil dies (angeblich) wegen des Klimawandels nicht mehr so sein soll, hat der moderne Mensch – beziehungsweise die GRÜNEN, denen alles (von ihnen) Ungeplante ein Gräuel ist – nun jedoch massive Probleme.
Studie: [7] … If the trends in flood timing continue, considerable economic and environmental consequences may arise, because societies and ecosystems have adapted to the average within-year timing of floods. Later winter floods in catchments around the North Sea, for example, would lead to softer ground for spring farming operations, higher soil compaction, enhanced erosion, and direct crop damage, thereby reducing agricultural productivity. Spring floods occurring earlier in the season in northeastern Europe may limit the replenishment of reservoirs if managers expect later floods that never arrive, with substantial reductions in water supply, irrigation, and hydropower generation. Our flood timing observations at the continental scale also enable the identification of a clear climate change signal that could not be obtained by earlier studies based on flood magnitude data

Extrakt: … Wenn sich die Trends der zeitlichen Verschieben der Fluten fortsetzen, können erhebliche ökonomische und ökologische Konsequenzen entstehen, weil sich Gesellschaften und Ökosysteme an den durchschnittlichen Jahreszeitplan der Überschwemmungen angepasst haben.

 

Das zeitliche Auftreten in Deutschland schwankt innerhalb weniger Jahrzehnte um 100 … 200 … 360 Tage. Ausgesuchte Gegenden in Europa schwanken innerhalb von 50 Jahren um – 65 … + 45 Tage, ein dramatisches Ergebnis?

Studie: [7]: … Our data show a clear shift in the timing of floods in Europe during the past 50 years (Fig. 1). The regionally interpolated trend patterns shown in Fig. 1 range from –13 days per decade toward earlier floods to +9 days toward later floods, which translates into total shifts of –65 and +45 days, respectively, of linear trends over the entire 50-year period

Durch die selektive Zeitauswahl der Studie konnten über Europa Trends „berechnet“ werden und diese werden als „dramatisch“ dargestellt.

Betrachtet man das Thema etwas globaler und bezieht auch andere Ereigniszeiten mit ein, verschwindet das Ergebnis in den Streuungen, wie es in der Studie auch im Ansatz gelistet ist:
Studie: [7] … where 81% of the stations show a shift toward earlier floods (50% of the stations by more than –8 days per 50 years) …
… there is a shift toward later floods (50% of the stations by more than +5 days per 50 years) …

 

Wie formulierte es der für die Schadenstatistik Verantwortliche von Munich Re so herrlich:
BSZ, 18.07.2017: … Skeptiker des Klimawandels führen als Argument häufig ins Feld, die Schäden durch Naturkatastrophen seien nicht gestiegen. …
Höppe tritt dem entgegen: … „Wenn man sämtliche Naturkatastrophen in einen Topf wirft, haben wir nach dieser Berechnung zunächst tatsächlich keinen Anstieg der Schäden. Doch wenn man das etwas differenzierter betrachtet, sieht man, dass dies teilweise an Präventionsmaßnahmen liegt“, … „So haben etwa die Hochwasserschäden an Flüssen stark abgenommen. Das liegt an verbessertem Hochwasserschutz.“ Auf der anderen Seite gebe es einen signifikanten Anstieg der Schäden durch Gewitterereignisse.
Ausgerechnet die Gewitterereignisse hat die Studie nicht untersucht, dafür die Hochwässer, welche „keinen Anstieg an Schäden zeigen“. Ein guter, zusätzlicher Beleg, dass die Studie nicht nach Gefahren, sondern nach Klimawandel-„Belegen“ gesucht hat.

 

Der Klimawandel verursacht in jedem Fall Kosten

Wenn ein Herr Höppe dazu meint:
… Höppes Fazit: „Der Klimawandel verursacht in jedem Fall Kosten – entweder durch die erhöhten Präventionskosten oder durch Schäden, wenn die Vorsorge unterblieben oder nicht möglich ist.“
hat er sogar recht. Das ist seit Jahrtausenden so, seit man begann, sich gegen Wetterunbilden zu schützen. Was sich über Zeiträume aber verändert hat, ist die Effektivität der Maßnahmen.

Im Mittelalter glaubte man falschen Entstehungstheorien und gab das Geld zur Prävention damit völlig unwirksam für immer größere Kathedralen und einen sich immer weiter aufblähenden Kirchenstaat aus. Mit Beginn der Neuzeit dachte man tiefgehender nach, erfasste die physikalischen Hintergründe und begann, das Geld für wirkliche Lösungen auszugeben. Aktuell glaubt man wieder einer falschen Entstehungstheorie und gibt das Geld lieber vollkommen wirkungslos für die Ökokirche (CO2-Verhinderung) aus, als die direkte Schadensabwehr zu finanzieren. Das ist aber nicht Schuld des „Klimawandels“, sondern der tiefen Gläubigkeit gegenüber Öko-Heilsbringern, wie sie leider auch bei den zuständigen Politiker*innen zu finden ist:
EIKE: Klimawandel-Statements von Umweltministerin Frau Hendricks und UBA Chefin Krautzberger

Dazu abschließend noch Daten aus der Datenbank der Münchner Rückversicherung. Leider schneidet der Viewer (für den interessierten Bürger) die vorhandenen, alten Daten ab. Der Autor behauptet böswillig, damit man nicht so deutlich sieht, wie „schlimme Daten“ früher noch schlimmer waren. Aber auch so erkennt man, dass ein „Klimawandel“ – und damit das anthropogenen CO2 – keinen sich stetig verschlimmernden Einfluss haben kann, wie immer „ermittelt“ und berichtet wird.

Bild 15 Flutereignisse Europa von 1980 … 2016. Schäden. Quelle: MuRe Schadensdatenbank NatCat-Viewer

Bild 16 Flutereignisse Europa von 1980 … 2016. Anzahl. Quelle: MuRe Schadensdatenbank NatCat-Viewer

Für Fördermittel publizieren wir jedes gewünschte Ergebnis

Man wird den Verdacht nicht los, dass für das viele Geld und Personal, welches für die Studie bereitgestellt wurde, unbedingt ein (klimaalarmistisches) Ergebnis veröffentlicht werden musste.
Regelmäßige EIKE-Leser ahnen, welches Portal für (Des-)Information zu Klima und EEG die Pressemitteilung vollkommen kritiklos übernahm:
KLIMARETTER.INFO, 14. August 2017: Klimawandel verschiebt Hochwasser

 

Quellen

[1]
EIKE 31.07.2017: G20 Klimafakten ohne Hysterie betrachtet Teil 4 (4)

[2]
EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[3]
EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[4]
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[5]
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

[6]
Technische Universität Wien, 2017-08-1, Pressemeldung: Der Klimawandel verschiebt Europas Hochwässer

[7]
Günter Blöschl at al., 11. August 2017: Changing climate shifts timing of European floods

[8]
WEB-Seite: Historische Hochwassermarken

[9]
Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)

[10]
EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

[11]
EIKE 06.07.2016 : Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag