1

Bedeutende Denker des 21. Jahrhunderts

Zitat:

Von: José Gomes

Email: xxxxxxxxxxxxx

Page URL: https://eike.institute/ueber-uns/kontakt/

Nachricht:

Keine Sorge:

Spätestens per Ende 2021 kommen mehr als 50% unserer Nettostromerzeugung aus Erneuerbarer Energie.

Spätestens in 2026 ist Schluss mit der Steinkohle und in 2030 mit der Braunkohle. Nicht aus ökologischen Gründen, sondern aus ökonomischen. Die Kohle ist im Vergleich zu Wind- und Sonne gekoppelt mit Speicher und Backup einfach zu teuer.

Grund: Die deutlich verringerten, bzw. nicht mehr vorhandenen Brennstoffkosten machen den Unterschied.

Wir sollten uns im Januar 2022 mal wieder unterhalten.

Kommentar:

Eigentlich möchte ich dagegen wetten, aber wegen der grenzenlosen Beschränktheit unserer Politiker auch und gerade in Bezug auf Klima und Energiethemen, welche gerade die neue GroKo anstreben, dabei aufs heftigste unterstützt von Meistern der Gigabyte bei den Grünen und anderswo, kann man nicht ausschließen, dass der Mann recht hat.

Zitat aus der Martin Schulz Biographie:

„Ich war ja nicht gerade dumm, allerdings katastrophal in den naturwissenschaftlichen Fächern Rechnen, Physik und Chemie … Überall, wo man konkret werden musste, war ich schlecht.“

Die Folgen tragen wir! 




Bis hierher und nicht weiter

[*Das Wort angst stand so im Original! Anm. d. Übers.]

So wird unsere höllische Welt aussehen, nachdem wir den 2°C-Kipp-Punkt der globalen Erwärmung überschritten haben

Rebecca Leber am 21. Dezember 2014

Die de-facto-Hypothese der Politik bzgl. Klimawandel ist, dass die Welt den Anstieg der globalen Temperatur auf 2°C über das präindustrielle Niveau begrenzen muss, wenn sie nicht das Risiko eingehen will, einen Kipp-Punkt zu überschreiten, jenseits dessen die Einwirkung unumkehrbar wird. Die Zahl geht zurück auf das Jahr 1975, als der Ökonom William Nordhaus die Prämisse in den Raum warf, dass eine Erwärmung um mehr als 2°C das Klima „außerhalb der Bandbreite der Beobachtungen bringen würde, welche während der letzten vielen hunderttausend Jahre herrschte“. Bis zum Jahr 1990 erregten diese 2°C die Aufmerksamkeit der wissenschaftlichen Gemeinschaft und danach der Politik, als der Europäische Rat im Jahre 1996 vorschlug, dass 2°C die rote Linie der UN bzgl. der globalen Erwärmung sein sollte. Aber erst vor vier Jahren verpflichteten sich Länder auf einer Klimakonferenz in Cancun „die Erwärmung der globalen mittleren Temperatur unter 2°C zu halten“.

Hier noch ein weiterer Ausschnitt, diesmal aus „The Conversation“ im Jahre 2017, zusammen mit der obligatorischen herzzerreißenden Abbildung (Hervorhebung von mir, Eschenbach):

David Tittley, 22. August 2017

Praktisch jeder Artikel über Klimawandel bezieht sich in irgendeiner Weise auf das „2°C“-Ziel. Dabei werden oftmals erhebliche Risiken an die Wand gemalt, falls das Klima über 2°C hinausgeht und sogar „katastrophale“ Folgen für unsere Welt mit sich bringen würde, wenn die Erwärmung über dieses Ziel hinausgeht.

Jüngst ist eine Reihe wissenschaftlicher Studien erschienen des Inhalts, dass wir eine Chance von 5% haben, die Erwärmung auf 2°C zu begrenzen. Zusätzlich zeigen jüngste Forschungen dass die Erwärmung schon 1,5°C betragen würde, selbst wenn wir auf magische Art und Weise unseren Kohlenstoff-Fußabdruck schon heute auf Null bringen könnten.

Und es gibt noch einen weiteren Korken: Welches ist die korrekte Grundlinie, die wir anwenden sollten? Das IPCC nennt oftmals eine Erwärmung relativ zur zweiten Hälfte des 19. Jahrhunderts, aber im Pariser Klima-Abkommen ist festgelegt, dass als Referenz die Temperatur des „vorindustriellen“ Niveaus herangezogen werden sollte, also vor 1850. Wissenschaftler haben gezeigt, dass eine solche Grundlinie uns im Endeffekt um weitere 0,2°C näher an die obere Grenze bringen würde.

[Es kostet Überwindung, einen solchen gefährlichen Unsinn zu übersetzen, hauptsächlich weil dieser Blödsinn ja die offizielle Doktrin ist. Aber weil Autor Eschenbach dies dann genüsslich zerpflückt, habe ich mit „Augen zu und durch“ übersetzt. Anm. d. Übers.]

Habt Angst … habt sehr viel Angst … das IPCC sagt, dass es nicht um 2°C wärmer werden sollte als Ende des 19. Jahrhunderts. Das Pariser Klima-Abkommen sagt, dass es nicht um 1,8°C wärmer werden sollte als Ende des 19. Jahrhunderts (was es als 2°C über „vorindustrtiell“ bezeichnet).

Anderenfalls, so wurden und werden wir wieder und immer wieder gewarnt … anderenfalls droht uns das Thermageddon, das sagenhafte Ende aller Zeiten. Mehr Überschwemmungen. Mehr Dürren. Mehr Hitzewellen. Mehr Kältewellen. Bei einer Erwärmung um 2°C geraten wir vermeintlich in erhebliche Schwierigkeiten. Pflanzen und Tiere schrumpfen immer mehr und sterben. Vögel fallen von den Ästen. Steckt eine Gabel in den Globus, wir werden getoastet.

Nun gibt es eine Art Binsenweisheit in den Studien zum globalen Klima. Man kann kein kontrolliertes Experiment hinsichtlich des globalen Klimas durchführen. Das ist eine Tatsache. Es gibt keinen anderen Planeten, den wir zu Kontrollzwecken betrachten können … und man kann das Experiment auch nicht variieren. Man kann den globalen Luftdruck nicht künstlich in die Höhe schrauben und dann sehen, was passiert.

Allerdings sollte uns diese fehlende Kontrollmöglichkeit nicht davon abhalten, Experimente durchzuführen. Obwohl es keine kontrollierten Experimente gibt, gibt es sehr wohl „natürliche Experimente“. Mir ist dieser Terminus schon vor einiger Zeit untergekommen, und zwar in einer Studie aus dem Jahr 1998 von Sherwood Idso. Man kann sie auf der Website von Warwick Hughes hier einsehen.

Also … auf welches natürliche Experiment könnten wir schauen hinsichtlich der gefürchteten 2°C-Grenze?

Nun, wir haben die globale Temperaturaufzeichnung von Berkeley Earth hier. Wie es bei allen Datensätzen der Fall ist, enthält er einige Probleme, von denen ich eines hier diskutiert habe. Aber es ist dem Vernehmen nach der beste Datensatz, den wir haben und unterscheidet sich nicht wesentlich von den anderen Datensätzen. Mit all dem als Prolog und ohne weitere Fanfare zeigte ich jetzt die Anomalie der globalen mittleren Lufttemperatur nach Berkeley Earth. Die monatliche Temperaturanomalie ist hellblau eingezeichnet, die gelbe und die schwarze Linie sind Gauss’sche Glättungen der monatlichen Temperaturanomalie über 6 Jahre.

Da haben wir unser natürliches Experiment. Ich bin sicher, dass man das Problem erkennt: Es ist bereits 2 Grad wärmer als in den fünfziger Jahren des 19. Jahrhunderts … und noch wärmer als zu Beginn desselben.

Meine Frage an die versammelten Massen lautet also: Da wir schon jetzt dieses ach so wichtige 2°C-Klimaziel gebrochen haben, wo sind die Leichen? Wo sind die ungewöhnlichen Katastrophen? Wo sind die Klima-bezogenen Katastrophen? Warum gibt es keine überfluteten Städte? Was ist mit den Gebieten, die vermeintlich unbewohnbar sein sollen? Wo sind die untergegangenen Atolle? Wo sind die versprochenen Millionen Klimaflüchtlinge – wo sind sie bloß?

Kurz gesagt, wo sind all die schrecklichen Ereignisse, vor denen man uns so gewarnt hatte, falls das 2°C-Ziel gerissen wird?

Im Ernst, wir haben das natürliche Experiment gerade durchgeführt. Die Welt hat sich um den gefürchteten Betrag erwärmt, und es gab keinerlei Zunahme hinsichtlich irgendwelcher Klima-bezogener Katastrophen.

Warum ist das so? Gute Frage. Teilweise liegt die Antwort in dem Umstand, dass der größte Teil der Erwärmung a) nachts, b) im Winter, c) in den subpolaren Regionen des Planeten mit niedrigen Temperaturen stattgefunden hat. Es mag dumm klingen, aber ich glaube kaum, dass sich irgendjemand in Boston oder Wladiwostok darüber beklagen wird, dass es in den Mittwinter-Nächten 1 Grad oder so wärmer ist, und das gilt vor allem für die Armen …

Ein anderer Teil der Antwort ist der Tatsache geschuldet, dass Wärme etwas Gutes ist, sowohl für Pflanzen als auch für Tiere. Längere Wachstumsphasen, weniger Eis auf den Flüssen, wärmerer Boden, weniger Frostbeulen bei den Obdachlosen, weniger Bedarf nach Isolierung und Heizung, jedes Insekt ist glücklich … es gibt einen Grund dafür, dass sich das Leben in den Tropen verschwenderisch und rasch entwickelt sowie langsamer nahe den Polen.

Ich denke, die beste Nachricht ist, dass das Schlimmste passiert ist, dass wir nichts tun können, dass wir dem Untergang geweiht sind. Wir haben den Krieg gegen das Thermometer verloren. Wir haben den Klima-Kipp-Punkt überschritten … also haben wir vielleicht endlich Zeit, uns einigen realen Problemen zu widmen.

Also … wo sind die Leichen?

————————–

Zusatzbemerkung: Traurigerweise verschleiert diese verrückte Besessenheit um Temperaturänderungen um einige Zehntelgrad die erstaunliche Stabilität des Klimasystems der Erde. Es ist diese immer wieder überraschende Stabilität, welche zuerst meine Aufmerksamkeit erregte und mich dazu brachte, mich eingehend mit dem Thema Klima zu befassen. Hinsichtlich dieser Stabilität würde ich gerne sofort erfahren wollen, dass die Temperatur des Systems durch irgendeine Kombination Temperatur regelnder Phänomene getrieben wird. Man bekommt diese Art der Stabilität nicht durch Zufall.

Also möchte ich hier schließen mit genau der Art von Daten, die man in der Graphik oben sieht, aber dieses Mal nach Art der Ingenieure, welche das Klima als eine weltweite Wärmemaschine ansehen:

Link: https://wattsupwiththat.com/2018/01/08/been-there-exceeded-that/

Übersetzt von Chris Frey EIKE




Gegen eine Dummheit, die gerade in Mode ist, kommt keine Klugheit auf. Theodor Fontane

So, so, die Sondierer der SPD, CDU und CSU haben ihre „Sondierungen“ „erfolgreich“ abgeschlossen und sich auf ein gemeinsames Papier geeinigt (Ergebnis Sondierung CDU_CSU_SPD 120118). So melden es unisono die Medien und die meisten können sich vor Begeisterung darüber nicht lassen.

Niemandem von denen kommt die Frage in den Sinn, was denn die künftigen Groß-Koalitionäre die letzten vier Jahre so miteinander beredet und getrieben haben? Bis auf den Großeuropäer Schulz haben doch immer dieselben Leute – wie heute auch- beieinander gesessen und häufig nichts weiter getan, als miteinander geredet ..und „Politik gemacht“.

Und schon fast kleinlich kommt man sich vor, wenn man auf die simple Tatsache verweist, dass die SPD nach der Wahlklatsche vom 24. September vorgab dazu gelernt zu haben und sich in der Opposition zu regenerieren wollte. Ohne wenn und aber.

Tweet von Martin Schulz vor knapp 8 Wochen

„Wir stehen für den Eintritt in eine Große Koalition nicht zur Verfügung – diese Konstellation wurde abgewählt. Wir scheuen Neuwahlen nicht.“

Doch Ministerposten, div. StaatssekrärInnnenposten und ähnliches führten wohl dazu, dass man sich an den alten Müntefehring erinnerte, dessen Frau Michelle Müntefehring die gelernte Kindergärtnerin wohl bei den Verhandlungen dabei war, der sagte: Opposition ist Mist“

„Was schert mich mein Geschwätz von gestern“ pflegt der alte Adenauer ehrlich zu sagen, wenn er mal wieder alle überrascht hatte mit einer politischen Volte. So auch hier und heute.

In diesem Sondierungspapier sind nun wieder mal alle Plattitüden. Gemeinplätze und Worthülsen nachzulesen, die uns jedoch immer wieder aufs Neue als Tatkraft und klare Strategie verkauft werden sollen. So auch beim „Klimaschutz“ und der von ihm befeuerten Energiewende.

So liest man nach viel Tra Ra auf S 5 zum . „Klimaschutz“ (Hervorhebungen vom Autor):

Die EU muss beim Klimaschutz international eine Vorreiterrolle einnehmen und für eine ambitionierte Umsetzung des Pariser Klimaschutzabkommens eintreten.

Um wenig auf S 6 später aufzuzählen 

Die Soziale Marktwirtschaft ist der Motor, der unser Land wirtschaftlich nach vorn gebracht hat. Digitalisierung, Globalisierung, Klimawandel und abnehmender gesellschaftlicher Zusammenhalt stellen uns vor zahlreiche Herausforderungen.

Was der Klimawandel damit zu tun hat, erschließt sich wohl nur den gläubigen Absorbenten der öffentlich rechtlichen Regierungspropganda, die seit langem jedes Wettergeschehen dem „Klimawandel“ zuordnet. Dem menschgemachten versteht sich. Obwohl sich weder hierzulande noch weltweit die Zahl, noch die Dauer noch Stärke von Extremwetterereignissen erhöht hat, baut man -wie gewohnt- einen inhaltsleeren Buhmann auf, hinter dem man dann bestenfalls ganz andere Interessen verfolgen kann, ohne auch nur gestehen zu müssen, dass man eigentlich nicht weiß, wovon man redet.

Zur Umschreibung des größten Fehlers (sogar absichtlich begangen, wie man im Buch von Robin Allexander „ Die Getriebenen“ detailliert nachlesen kann) der vergangenen Regierung – nämlich die völlig kontrollfreie Zulassung der größten Massenimmigtation der jüngeren Geschichte muslimischer Menschen in unser Land- werden die dürren Worte benutzt … und abnehmender gesellschaftlicher Zusammenhalt.. .. stellen uns vor zahlreiche Herausforderungen,…. werden wohl Berufenere als ich kommentieren

Von ähnlicher Qualität und voll innerer Widersprüche sind die anderen Verlautbarungen von den ich hier nur die klima- und energierelevanten zitieren

 

S7

Wir wollen Fahrverbote vermeiden und die Luftreinhaltung verbessern. Die Mobilitätspolitik ist dem Pariser Klimaschutzabkommen verpflichtet. Wir wollen die Klima- ziele von Paris erreichen und dabei soziale Belange berücksichtigen, die Wettbewerbsfähigkeit der Industrie gewährleisten und bezahlbare Mobilität sicherstellen.

S 20

Wir wollen Fluchtursachen bekämpfen, nicht die Flüchtlinge.

  •  Entwicklungszusammenarbeit verbessern 

  • Ausbau humanitären Engagements 

  • Engagement für Friedenssicherung ausweiten (u.a. Stärkung internationaler 
Polizeimissionen)
  • Faire Handels- und Landwirtschaftspolitik (faire Handelsabkommen) 

  • Verstärkter Klimaschutz 

  • Restriktive Rüstungsexportpolitik 


Die Lösung: Wir werden eine Kommission Fluchtursachen im Deutschen Bundestag einrichten.

Anmerkung des Autors: An dieser Stelle kann ich es mir nicht verkneifen … die alte Beamtenweisheit zu zitieren: … Und wenn Du nicht mehr weiter weißt, dann gründe einen Arbeitskreis..landläufig auch gern Kommission genannt.

Und dazu gestatte ich mir noch einen Tip: Die Hauptfluchtursache heißt: Deutschland. Unterbindet man die unkontrollierte Zuwanderung, dann fällt Hauptfluchtursache weg.

S 23

Wir wollen weniger Bürokratie und mehr Effizienz für eine marktfähige Landwirtschaft, die gesunde Lebensmittel nachhaltig produziert. Insofern sind besonders Tier-, Natur- und Klimaschutz sowie die Wahrung sozialer Standards im öffentlichen Interesse auch öffentlich zu fördern.

Klimaschutz, Energie und Umwelt  

S 24

  1. Klimaschutz

Wir bekennen uns zu den Klimazielen 2020, 2030 und 2050. Die Handlungslücke zur Erreichung des Klimaziels 2020 wollen wir so schnell wie möglich schließen. Das Minderungsziel 2030 wollen wir auf jeden Fall erreichen. Dies soll unter Beachtung des Zieldreiecks Versorgungssicherheit, Sauberkeit und Wirtschaftlichkeit sowie oh- ne Strukturbrüche realisiert werden.

Wir werden eine Kommission „Wachstum, Strukturwandel und Beschäftigung“ unter Einbeziehung der unterschiedlichen Akteure aus Politik, Wirtschaft, Umweltverbänden, Gewerkschaften sowie betroffenen Ländern und Regionen einsetzen, die bis Ende 2018 ein Aktionsprogramm mit folgenden Elementen erarbeiten soll:

Maßnahmen, um die Lücke zur Erreichung des 40 %-Reduktionsziels bis 2020 so weit wie möglich zu reduzieren,

Maßnahmen, die das 2030-Ziel für den Energiesektor zuverlässig erreichen, einschließlich einer umfassenden Folgenabschätzung,

einen Plan zur schrittweisen Reduzierung und Beendigung der Kohleverstromung einschließlich eines Abschlussdatums und der notwendigen rechtlichen, wirtschaftlichen, sozialen und strukturpolitischen Begleitmaßnahmen und

die finanzielle Absicherung für den notwendigen Strukturwandel in den betroffenen Regionen und einen Fonds für Strukturwandel aus Mitteln des Bundes.

Ein paralleles Vorgehen soll für den Bau- und Verkehrssektor erfolgen. Auf dieser Grundlage wollen wir ein Gesetz verabschieden, dass die Einhaltung der Klima- schutzziele 2030 gewährleistet. Wir werden 2019 eine rechtlich verbindliche Umset- zung verabschieden.

 

S 25

Voraussetzung für eine erfolgreiche Klimaschutzpolitik ist ein weiterer zielstrebiger, effizienter, netzsynchroner und zunehmend marktorientierter Ausbau der Erneu- erbaren Energien. Unter diesen Voraussetzungen streben wir einen Anteil von etwa 65 % Erneuerbarer Energien bis 2030 an. Der Ausbau der Erneuerbaren Energien muss deutlich erhöht werden, auch um den zusätzlichen Strombedarf zur Erreichung der Klimaschutzziele im Verkehr, in Gebäuden und in der Industrie zu decken.

Vorgesehen ist eine Sonderausschreibung, mit der acht bis zehn Mio. t CO2 zum Klimaschutzziel 2020 beitragen sollen. Hier sollen je vier Gigawatt Onshore- Windenergie und Photovoltaik sowie ein Offshore-Windenergiebeitrag zugebaut wer- den, je zur Hälfte wirksam in 2019 und 2020. Voraussetzung ist die Aufnahmefähig- keit der entsprechenden Netze.

Wir wollen
 weitere Anstrengungen zum Ausbau und zur Modernisierung der Energienetze

(Netzausbaubeschleunigungsgesetz).

  •   die Sektorenkoppelung in Verbindung mit Speichertechnologien voranbringen. 

  •   die Kraft-Wärme-Kopplung weiterentwickeln und umfassend modernisieren. 


 

III. Umwelt

Wir wollen für unsere Kinder und Enkelkinder eine intakte Natur bewahren. Dazu werden wir folgende Maßnahmen umsetzen:

 Programm „Nationales Naturerbe“ fortsetzen
 Programm zum vorbeugenden Hochwasserschutz ausbauen
 Endlagersuche zielstrebig fortsetzen
 Erhalt der Biodiversität und den Artenschutz als Querschnittsaufgabe verankern und entsprechende Bundesprogramme weiter stärken
 „Aktionsprogramm Insektenschutz“
 die Potenziale der Landwirtschaft für Klimaschutz und Biodiversität nutzen
 die Vermüllung der Weltmeere eindämmen; Müllvermeidung und Recycling stärken
 durch multi- und bilaterale Entwicklungszusammenarbeit den Aus- und Aufbau von Kreislaufwirtschaftssystemen unterstützen.

 

Dazu fallen mir nur die klugen Worte von – Curt Goetz ein:

„Keine Dummheit ist so groß, als dass sie nicht durch Beharrlichkeit noch größer werden könnte.“

 

 

 

 

 




Offener Brief an Präsident Donald Trump

Sehr geehrter Herr Präsident,

Ich schreibe Ihnen diesen offenen Brief, um Sie aufzufordern, ihre Erkenntnisse bzgl. der UN-Bewegung eines vom Menschen verursachten globalen Erwärmung/Klimawandels bekannt zu geben, wie sie Premierministerin Margaret Thatcher in ihren Memoiren Statecraft aus dem Jahr 2002 beschrieben hat.

Zunächst zu meinem Hintergrund: Ich schreibe regelmäßig Beiträge für die „weltweit am häufigsten angeklickte Website zu globaler Erwärmung/Klimawandel“ mit der Bezeichnung WattsUpWithThat. Zu den normalerweise in meinen Beiträgen angesprochenen Themen gehören:

Klimamodelle simulieren nicht das Klima der Erde

Werden sie angemessen gezeigt, zeigen die Ergebnisse von Klimamodellen eindeutig, dass die klimawissenschaftliche Gemeinschaft immer noch nicht unterscheiden kann zwischen einer natürlich auftretenden und einer vom Menschen verursachten globalen Erwärmung, und

seit Anfang der achtziger Jahre zeigen die Temperaturdaten eindeutig und nachhaltig, dass sich die Oberflächen der globalen Ozeane erwärmt haben als Reaktion auf natürlich auftretende Wechselwirkungen zwischen Ozean und Atmosphäre, und nicht als Reaktion auf Treibhausgas-Emissionen.

In meiner jüngst veröffentlichten Kurzgeschichte Dad, Why Are You A Global Warming Denier?: A Short Story That’s Right for The Times habe ich über diese Themen geschrieben, und ich präsentierte auch ein Thema, welches für mich neu ist:

Die Politik hinter der internationalen Bewegung globale Erwärmung/Klimawandel scheint auf der Grundlage von Agenden zu stehen, die keinerlei Beziehung zu globaler Erwärmung oder Klimawandel haben.

Hinsichtlich der politischen Aspekte meiner Story stütze ich mich auf zahlreiche, auch längere Zitate aus den Memoiren von Margaret Thatcher Statecraft, welche unter der Überschrift „Hot Air and Global Warming“ enthalten sind. Hier folgen zwei dieser Zitate aus Statecraft:

Der erste Abschnitt unter der genannten Überschrift aus Statecraft lautet (Hervorhebung von mir, Tisdale):

Das bevorzugte Thema der Untergangs-Propheten unserer Tage ist Klimawandel. Dieses Thema ist für sie aus mehreren Gründen attraktiv. Erstens, die Wissenschaft ist extrem geheimnisvoll, so dass man sie nicht so leicht widerlegen kann. Zweitens, wir alle machen uns Gedanken hinsichtlich des Wetters: Traditionellerweise reden die Engländer zu Beginn kaum von etwas anderem. Drittens, da jedweder Plan zur Änderung des Klimas nur im globalen Maßstab betrachtet werden kann, stellt das Thema eine wunderbare Rechtfertigung für einen weltweiten, supra-nationalen Sozialismus dar.

Einer meiner Charaktere in meiner Kurzgeschichte greift diesen hervorgehobenen letzten Satz auf weltweiter, supra-nationaler Sozialismus? So etwas würde hier in den Staaten fliegen wie ein ,Lead Balloon‘.

Auch den nächsten Abschnitt in den Memoiren der Eisernen Lady dürften Sie interessant finden hinsichtlich Ihres Rückzugs aus dem Paris-Abkommen (Hervorhebung wieder von mir, Tisdale):

In der Sache hatte Präsident Bush sehr recht, das Kyoto-Protokoll abzulehnen. Sein Vorgänger hatte es wegen der internationalen Auswirkungen noch unterstützt, obwohl er wusste, dass die Bedingungen darin dieses zu hause zu einem toten Vogel machen würden: Der US-Senat hat hier einstimmig abgestimmt. Das Protokoll hätte die gesamte Last der CO2-Reduktion den entwickelten Ländern aufgebürdet, während die Entwicklungsländer – darunter China und Indien – weiterhin mit stark steigenden Wachstumsraten produzieren durften. Das amerikanische Ziel bzgl. Kürzungen war total unrealistisch – eine Reduktion der Gesamtemissionen um 7 Prozent unter das Niveau des Jahres 1990 von 2008 bis 2012. Und all das, bevor irgendjemand auch nur auf den Gedanken kam, die wissenschaftlichen Gründe zu betrachten, warum und bis zu welchem Ausmaß es zu einer globalen Erwärmung kommt. Kyoto war ein Anti-Wachstum-, Anti-Kapitalismus-, Anti-Amerika-Projekt, welches kein amerikanischer Führer, dem die nationalen Interessen seines Landes am Herzen lagen, hätte unterstützen dürfen.

Angesichts der Tatsache, dass die Eiserne Lady Margaret Thatcher das Kyoto-Protokoll als „anti-Wachstum, anti-kapitalistisch, anti-amerikanisch“ ansah und dass Präsident Bush recht hatte mit der Zurückweisung des Protokolls – glauben Sie, dass der geschätzte Premierminister ähnliche Gedanken haben würde hinsichtlich des den Wohlstand umverteilenden Paris-Abkommens und dass Sie, Herr Präsident, ebenfalls recht hatten mit dem Rückzug aus Paris?

Das bringt mich zu meiner zentralen Frage: „Stand die UN-Bewegung eines vom Menschen verursachten globalen Erwärmung/Klimawandel immer auf der Grundlage internationaler „Anti-Wachstum-, Anti-Kapitalismus-, Anti-Amerika-Agenden“?

Ich bin sehr interessiert an Ihren Standpunkten hierzu.

Zum Schluss darf ich Ihnen versichern, Herr Präsident, dass ich beim Verfassen meiner Kurzgeschichte oft an Sie gedacht habe.

Most respectfully

Bob Tisdale

Link: https://wattsupwiththat.com/2018/01/08/open-letter-to-president-donald-trump/




Graphen, Trends und Hypothesen

Warnung: Dieser Beitrag enthält die Aussage Trends können keine zukünftigen Werte prognostizieren und tun es auch nicht. Wem dieser Gedanke zuwider ist, sollte jetzt aufhören zu lesen.

Ich beginne diesen Beitrag mit einem früheren Kommentar auf den ersten, oben verlinkten Beitrag von Andrew C. Rifkin mit dem Titel „Warming Trend and Variations on a Greenhouse-Heated Planet” vom 8. Dezember 2014. Darin verlinkt er auch meine Erwiderung. Der folgende Kommentar stammt von Dr. Eric Steig. Dieser ist Professor des Fachbereiches Earth & Space Sci. an der University of Washington, wo er als Direktor des IsoLab fungiert. Auf der Website der Fakultät wird er als Gründungsmitglied und Beitragender zu der einflussreichen (deren Bezeichnung) klimawissenschaftlichen Website RealClimate.org gelistet. Steig sagt:

Kip Hansens „Kritik“ des Cartoons ist clever – und geht vollständig an der Sache vorbei. Ja, die Kommentatoren hätten nicht sagen sollen, „der Trend bestimmt die Zukunft“, das war schlecht formuliert. Aber der Klima-Antrieb (zumeist CO2) bestimmt doch den Trend, und der Trend (wo Herrchen läuft) bestimmt, wohin der Hund gehen wird, im Mittel. (Hervorhebung von mir, Hansen)

Ich glaube, dass Dr. Steig seine Erwiderung einfach „schlecht formuliert“ hat. Er meinte sicherlich, dass die Klimaantriebe, welche selbst nach oben tendieren, die zukünftigen Temperaturen bestimmen („wohin der Hund laufen wird, im Mittel“). Diese Meinung steht ihm zu, aber er irrt sich, wenn er darauf besteht, dass „der Trend (wo Herrchen läuft) bestimmt, wohin der Hund läuft“. Es ist diese wiederholte und fast überall benutzte, ungenaue Wortwahl, welche einen erheblichen Teil der Missverständnisse auslöst sowie Schwierigkeiten in der englischsprachigen Welt (und ich vermute, auch in anderen Sprachen nach einer direkten Übersetzung), wenn es um Zahlen, Statistiken, Graphiken und Trendlinien geht. Menschen, Studenten, Journalisten, Leser, Publikum … fangen an, tatsächlich zu glauben, dass der Trend selbst zukünftige Werte bestimmt.

Viele werden nun sagen „Unsinn! Niemand glaubt so etwas!“ Das glaubte ich auch, aber man lese die Kommentare zu meinen beiden Beiträgen zuvor, und man wird erstaunt sein.

Datenpunkte, Linien und Graphiken:

Betrachten wir zunächst die Definition einer Trendlinie: „Eine Linie in einer Graphik, welche die allgemeine Richtung anzeigt, in die eine Gruppe von Datenpunkten zu laufen scheint“. Oder eine andere Version: „Eine Trendlinie (auch die Linie des besten Fits genannt) ist eine Linie, die man einer Graphik hinzufügt, um die allgemeine Richtung anzuzeigen, in welche die Punkte zu gehen scheinen“.

Hier folgt ein Beispiel (zumeist mit Bildern):

Trendlinien werden Graphiken bestehender Daten hinzugefügt, um die „allgemeine Richtung zu zeigen, in welche die Datenpunkte zu laufen scheinen“. Genauer, zur Klarstellung, die Trendlinie allein zeigt tatsächlich die allgemeine Richtung, in welche die Datenpunkte gelaufen sind – und man könnte hinzufügen „bisher jedenfalls“.

Das sieht sehr pingelig aus, oder? Aber es ist sehr wichtig für das Verständnis, was ein Datengraph wirklich ist – nämlich eine Visualisierung bestehender Daten – also der Daten, wie wir wirklich haben – und die gemessen sind. Wir würden alle zustimmen, dass die Hinzufügung von Datenpunkten an beiden Enden des Graphen betrügerisch ist – Daten, die wir gerade erst bekommen haben und die nicht wirklich gemessen oder experimentell gefunden worden sind. Aber trotzdem haben wir kaum jemanden gesehen, der gegen „Trendlinien“ ist, die weit über die auf dem Graphen liegenden Datenpunkte hinausgehen – gewöhnlich in beide Richtungen. Manchmal ist es Bequemlichkeit bei der Erstellung der Graphik. Manchmal liegt aber auch die absichtliche (ungerechtfertigte) Implikation zugrunde, dass Daten in Vergangenheit und Zukunft auf der Trendlinie liegen. Aber klar gesagt: falls es keine Daten „vorher“ und „nachher“ gibt, dann kann und sollte eine solche Hypothese nicht aufgestellt werden.

Hier noch ein oder zwei kleine Argumente:

[Eggnog = Eierlikör]

Ich werde mit einer Graphik antworten:

Aber (gibt es nicht immer ein ,Aber‘?):

Fügt man den Datenpunkten auf einem Graphen Zwischenschritte hinzu, kann dies manchmal dazu führen, dass man diese Zwischenschritte als Daten ansieht, die zwischen den gezeigten Datenpunkten liegen. Angemessener würde der Graph NUR die Datenpunkte zeigen, falls das alles ist, was wir haben – aber wie oben gezeigt sind wir es nicht wirklich gewöhnt, Zeitreihen-Graphen auf diese Weise zu sehen – wir wollen die kleinen Linien über die Zeit laufen sehen, welche die Werte verbinden. Das ist gut, solange wir nicht auf den närrischen Gedanken kommen, dass die Linien irgendwelche Daten repräsentieren. Das ist nicht so, und man sollte sich nicht durch kleine Linien dazu bringen lassen zu glauben, dass zwischenzeitliche Daten sich entlang dieser kleinen Linien positionieren. Das kann so sein … oder auch nicht … aber es gibt keine Daten, zumindest nicht auf dem Graphen, die diesen Gedanken stützen.

Für Eierlikör-Verkäufe habe ich Teile des Graphen zwecks Anpassung an die Realität modifiziert:

Dies ist einer der Gründe, warum Graphiken von so etwas wie „jährliche mittlere Daten“ erheblich irreführende Informationen vermitteln – die Spurlinien zwischen den jährlichen mittleren Datenpunkten können leicht dahingehend missverstanden werden, dass sie zeigen, wie sich die Daten in der dazwischen liegenden Zeit verhalten haben – zwischen year-end totals oder jährlichen Mittelwerten. Die graphische Darstellung jährlicher Mittelwerte oder globaler Mittelwerte verdeckt leicht wichtige Informationen über die Dynamik des Systems, welches die Daten hervorbringt. In einigen Fällen, wie Eierlikör wäre es sehr entmutigend, lediglich auf individuelle monatliche Verkaufszahlen zu schauen wie die Zahl der Verkäufe im Juli (die traditionell nahe Null liegen). So etwas könnte einen Eierlikör-Produzenten dazu verleiten, das jährliche Verkaufspotential erheblich zu unterschätzen.

Es gibt viele gute Informationsquellen, wie man eine Graphik angemessen anwendet – und über die allgemeinen Wege, auf denen Graphen missbraucht und missgebildet werden – entweder aus Ignoranz oder mit Absicht, um Propagandazwecke zu unterstützen. Sie treten fast überall auf, nicht nur in der Klimawissenschaft.

Hier folgen zwei klassische Beispiele:

In beiden Graphiken gibt es noch ein weiteres, unsichtbares Element – Fehlerbalken (oder Vertrauensintervalle, wenn man so will) – unsichtbar, weil sie vollständig fehlen. In Wirklichkeit sind Werte vor 1990 „vage geraten“, Vertrauen nimmt von 1900 bis 1950 zu aufgrund von „Schätzungen [erraten] aus sehr ungenauen und räumlich sehr dünn verteilten Daten“. Vertrauen nimmt weiter zu von 1950 bis zu den neunziger Jahren aufgrund „besserer Schätzungen“ und schließlich in der Satelliten-Ära „bessere Schätzungen auf der Grundlage von rechenintensiver Hybris“.

Soweit die Einführung und die Beschreibung von Punkten, an die wir alle uns immer wieder mal erinnern sollten.

Der Knopf-Sammler [the button collector]: überarbeitet

Meine früheren beiden Beiträge über Trends konzentrierten sich auf den button collector, den ich hiermit noch einmal einführen möchte:

Ich habe einen Bekannten, der ein fanatischer Sammler von Knöpfen [button collector] ist. Er sammelt Knöpfe bei jeder Gelegenheit, verwahrt sie, denkt jeden Tag an sie, liest über Knöpfe und Knöpfe sammeln; er bringt jeden Tag Stunden damit zu, seine Knöpfe in verschiedene kleine Schachteln zu sortieren und sorgt sich um die Sicherheit seiner Sammlung. Ich nenne ihn einfach den button collector*. Natürlich sammelt er nicht wirklich Knöpfe, sondern er sammelt Dollars, Yen, Lira, Pfund Sterling, Escudos, Pesos usw. Aber er verwendet sie nie für irgendeinen brauchbaren Zweck; sie helfen weder ihm noch anderen, also könnten es genauso gut auch Knöpfe sein.

[*Im Folgenden behalte ich den Begriff kursiv bei. Anm. d. Übers.]

Er hat nach der jüngsten Zählung Millionen über Millionen Knöpfe, genau, Sonntag Abend. Also können wir die „Millionen über Millionen“ ignorieren und einfach sagen, dass er Montag früh, zu Beginn seiner Woche, keine Knöpfe hat, um die Dinge vereinfacht darzustellen. (Man sieht schon, der Gedanke von „Anomalien“ hat schon ein paar Vorteile). Montag, Dienstag und Mittwoch gehen vorüber, und Mittwoch Abend zeigt ihm sein Buchhalter die folgende Graphik:

Wie in meinem Beitrag zuvor frage ich: „wie viele Knöpfe wird BC am Freitag Abend haben, also am Tag 5?“

Bevor wir antworten wollen wir darüber sprechen, was man tun muss, um diese Frage auch nur zu beantworten versuchen. Wir müssen einen Gedankengang formulieren, welches Verfahren mit diesem kleinen Datensatz modelliert wird. (Mit „modellieren“ meine ich einfach, dass die täglichen Ergebnisse irgendeines Systems visuell dargestellt werden).

„Nein, müssen wir nicht!“ werden Einige sagen. Wir nehmen einfach ein kleines Lineal zur Hand und zeichnen eine kleine Linie wie folgt (oder verwenden komplizierte mathematische Prozeduren auf unseren Laptops, die das für uns tun) und – voila! Die Antwort ist enthüllt:

Und unsere Antwort lautet „10“ … … (und wird natürlich falsch sein).

Es gibt keinerlei mathematische oder statistische oder physikalische Gründe oder Rechtfertigung zu glauben, dass wir die korrekte Antwort gezeigt haben. Wir haben einen sehr wichtigen Schritt ausgelassen. Wir sind einfach zu schnell vorgegangen. Wir müssen zuerst versuchen zu ergründen, welcher Prozess dahinter steckt (mathematisch, welche Funktion hier graphisch dargestellt wird), der die Zahlen erzeugt, die wir sehen. Dieses Ergründen wird wissenschaftlicher eine „Hypothese“ genannt, ist aber an diesem Punkt nicht anders als jeder andere Guess. Wir können sicher annehmen, dass der Prozess (die Funktion) lautet, „der Gesamtwert von morgen wird der Gesamtwert von heute plus 2 sein“. Dies ist tatsächlich der einzige vernünftige Ansatz für die Daten der ersten drei Tage – und geht sogar konform mit formalen Prognose-Prinzipien (wenn man fast nichts weiß, prognostiziere man mehr des Gleichen).

Schauen wir mal auf den Donnerstag-Graphen:

Klasse! Genau wie gedacht! Und jetzt Freitag:

Hoppla! Was ist passiert? Unsere Hypothese ist mit Sicherheit korrekt. Vielleicht eine Störung…? Versuchen wir es mit Sonnabend (wir arbeiten über das Wochenende, um verlorene Zeit aufzuholen)

Aha, das sieht schon besser aus. Bewegen wir unsere kleine Trendlinie etwas, um sicher zu gehen…:

Na ja, sagen wir, immer noch ziemlich nah dran … jene verdammten Störungen!

Aber einen Moment … wie lautete unsere Original-Hypothese, unser guess hinsichtlich des Systems, des Prozesses, der Funktion, welche die Ergebnisse der ersten drei Tage ergab? Sie lautete „Die Gesamtzahl morgen ist die Gesamtzahl heute plus 2“. Stützen unsere Ergebnisse unsere Original-Hypothese, unseren first guess, bis zum Tag 6? (Klarstellung: diese Ergebnisse kommen einfach durch Zählen zustande – das ist unser Verfahren der Datengewinnung – zählen). Nein, tun sie nicht. Keine wie auch immer geartete Schummelei – etwa zu sagen „aufwärts ist aufwärts“ oder „der Trend ist immer noch steigend“ – lassen diese Ergebnisse unsere Hypothese stützen.

Was würde ein Wissenschaftler, der etwas auf sich hält, an diesem Punkt tun? Er darf viele Dinge nicht tun, als da wären: 1) Die Ergebnisse so frisieren, dass sie zur Hypothese passen, 2) so tun, als ob „nahe“ das Gleiche ist wie Unterstützung ist („erkennen Sie, wie eng die Trends korrelieren?“), 3) Die Option „warten wir bis morgen, wir sind uns sicher, dass sich die Störung aufklären wird“ übernehmen, 4) eine Neuzählung anordnen und sicherstellen, dass die Knopf-Zähler verstehen, welche Zahlen sie zu finden haben, 5) eine Re-Analyse durchzuführen, incremental hourly in-filling, krigging, de-trending and re-analysis and anything else, bis die Ergebnisse auf der Linie liegen, auf der sie „liegen sollten“.

Während unsere Kollegen diese Tricks durchführen, wollen wir schauen, was am Tag 7 passiert:

Oh Mann … mitten in unserem „immer noch steigend“-Mantra müssen wir erkennen, dass wir die Daten nicht mehr weiter verwenden können, um unsere Original-Hypothese zu stützen – irgendetwas Anderes, was wir nicht erwartet haben, muss hier geschehen sein.

Ein wahrer Wissenschaftler macht an diesem Punkt Folgendes:

Er stellt eine neue Hypothese auf, welche die tatsächlichen Ergebnisse besser erklärt, normalerweise mittels Modifizierung der Original-Hypothese.

Das ist schwer – erfordert es doch das Eingeständnis, dass man beim ersten Mal falsch gelegen hatte. Es kann bedeuten, einen wirklich schönen Gedanken aufzugeben – einen Gedanken, der professionell, politisch oder sozial ist, unabhängig davon, ob er die Frage, um die es hier geht, beantwortet. Aber – an diesem Punkt MUSS man das tun!

Tag 8, obwohl „in die richtige Richtung weisend“, hilft unserer Original-Hypothese auch nicht:

Der gesamte Trend der Woche „geht immer noch aufwärts“ – aber dafür ist eine Trendlinie nicht geeignet.

Warum also eine Trendlinie?

Um uns zu helfen, das System oder den Prozess zu visualisieren und zu verstehen, der die Zahlen (tägliche Zählung der Knöpfe) hervorbringt (verursacht), die wir sehen – das ist vor allem nützlich bei Daten, die viel mehr durcheinander sind als hier.

Um uns bei der Beurteilung zu helfen, ob die Hypothese korrekt ist oder nicht.

Solange wir nicht verstehen, was vor sich geht, welcher Prozess zugrunde liegt, werden wir kaum in der Lage sein, bedeutsame Prognosen abzugeben darüber, was die tägliche Zählung der Knöpfe in Zukunft ergibt. An diesem Punkt müssen wir einräumen, dass wir es nicht wissen, weil wir die zugrunde liegenden Prozesse nicht vollständig verstehen.

Trendlinien sind zum Austesten einer Hypothese sinnvoll. Sie können den Forschern visuell oder numerisch zeigen, ob sie einerseits das System oder den Prozess korrekt erkannt haben, welcher ihren Ergebnissen zugrunde liegt, oder ihnen andererseits aufzeigen, wo sie vom Weg abgekommen sind und ihnen Gelegenheit geben, Hypothesen umzuformulieren oder sogar „zurück auf Los gehen“, falls das notwendig ist.

Diskussion

Mein Beispiel ist für die Leserschaft ein wenig unfair, weil es für Tag 10 keine offensichtliche Antwort auf die Frage gibt, die wir beantworten müssen: Welcher Prozess oder welche Funktion erzeugt diese Ergebnisse?

Das ist der ganze Punkt dieses Beitrags!

Ich will bekennen: Die Ergebnisse dieser Woche sind zufällig ausgesucht – es gibt kein zugrunde liegendes System, das es in den Ergebnissen zu entdecken gibt.

Derartiges tritt viel öfter bei Forschungsergebnissen auf als allgemein bekannt – man sieht scheinbar zufällige Ergebnisse, hervorgehend aus einer schlecht durchgeführten Studie, aus einer zu geringen Datenmenge, aus einer ungenauen Selektion der Parameter und einer „Hypothese weit daneben liegend“. Dies hat zu unsäglichen Bearbeitungen unschuldiger Daten geführt, die unablässig „bearbeitet werden, um Geheimnisse zu ergründen, die sie gar nicht enthalten“.

Wir glauben oft, dass wir ziemlich klar und offensichtlich sehen, was verschiedene Visualisierungen numerischer Ergebnisse uns sagen können. Wir kombinieren diese mit unserem Verständnis der Dinge, und wir geben kühne Statements ab, oftmals mit übertriebener Sicherheit. Haben wir diese erst einmal aufgestellt, sind wir versucht, aus falschem Stolz bei unseren first guesses zu bleiben. Falls unsere Zeiträume im obigen Beispiel nicht Tage, sondern Jahre gewesen wären, würde diese Versuchung sogar noch stärker sein, vielleicht unwiderstehlich – unwiderstehlich, falls wir zehn Jahre mit dem Versuch zugebracht haben zu zeigen, wie richtig unsere Hypothese ist, nur um zu sehen, dass die Daten uns betrügen.

Wenn unsere Hypothesen daran scheitern, die Daten zu prognostizieren oder zu erklären, die bei unseren Ergebnissen oder bei Messungen in Systemen der realen Welt zutage treten, brauchen wir neue Hypothesen – neue guesses – modifizierte guesses. Wir müssen uns dem Umstand stellen, dass unsere Hypothese nicht stimmt – oder noch schlimmer, dass sie vollständig falsch ist.

Von Linus Pauling, brillanter Chemiker und Nobelpreisträger, glaubt man allgemein, dass er sich zum Ende seines Lebens zu viele Jahre lang dem Kampf gegen eine Krebs-Kur mit Vitamin C verschrieben hat, und der es stets abgelehnt hat seine Hypothese neu zu evaluieren, als die Daten gegen sie sprachen und andere Gruppen seine Ergebnisse nicht nachvollziehen konnten. Dick Feynman machte für Derartiges etwas verantwortlich, dass er ,sich selbst zum Narren halten‘ nannte. Andererseits kann Pauling recht haben hinsichtlich der Fähigkeit von Vitamin C, gewöhnliche Erkältungen zu verhindern oder deren Dauer zu verkürzen. Dieses Thema war noch nicht ausreichend Gegenstand guter Experimente, um Schlussfolgerungen ziehen zu können.

Wenn unsere Hypothese nicht zu den Daten passt wie im oben ausführlich beschriebenen Beispiel – und es scheint dafür keine vernünftige, belastbare Antwort zu geben – dann müssen wir zurück zu den Grundlagen gehen und unsere Hypothesen testen:

1) Ist unser Experiment-Aufbau valide?

2) Sind unsere Messverfahren angemessen?

3) Haben wir die richtigen, zu messenden Parameter gewählt? Reflektieren/repräsentieren unsere gewählten Parameter (physisch) das, was wir glauben, dass sie reflektieren/repräsentieren?

4) Haben wir alle möglichen Störvariablen berücksichtigt? Sind die Störfaktoren um Größenordnungen größer als das, was wir zu messen versuchen? (Hier steht ein Beispiel).

5) Verstehen wir das größere Bild gut genug, um ein Experiment dieser Art angemessen durchzuführen?

Darum geht es heutzutage – das ist der Fragenkatalog, den ein Forscher aufstellen muss, wenn die Ergebnisse einfach nicht zur Hypothese passen, unabhängig von wiederholten Versuchen und Modifizierungen der Original-Hypothese.

„Moment“, kann man jetzt sagen, „was ist mit Trends und Prognosen?“

Trends sind einfach nur graphische Visualisierungen der Änderungen während der Vergangenheit oder von vorhandenen Ergebnissen. Das möchte ich wiederholen: es sind Ergebnisse von Ergebnissen – Auswirkungen von Auswirkungen – es sind keine Ursachen und können auch keine sein.

Wie wir oben sehen, können selbst offensichtliche Trends nicht herangezogen werden, um zukünftige Werte beim Fehlen eines wahren (oder zumindest „ziemlich wahren“) und klaren Verständnisses der Prozesse, Systeme und Funktionen (Ursachen) zu prognostizieren, welche zu den Ergebnissen, den Datenpunkten führen, welche die Grundlagen des Trends sind.

Wenn man ein klares und ausreichendes Verständnis der zugrunde liegenden Systeme und Prozesse wirklich hat, dann ist es so: falls der Trend der Ergebnisse vollständig unserem Verständnis (unserer Hypothese) entspricht und falls man eine Größe verwendet, welche die Prozesse genau genug spiegelt, dann kann man dies heranziehen, um mögliche zukünftige Werte innerhalb bestimmter Grenzen zu prognostizieren – fast mit Sicherheit, falls Wahrscheinlichkeiten allein als Prognosen akzeptabel sind. Aber es ist das Verständnis des Prozesses, der Funktion, dass es gestattet, die Prognose abzugeben, nicht der Trend – und das tatsächliche kausative Agens ist immer der zugrunde liegende Prozess selbst.

Falls man durch Umstände, Druck der Öffentlichkeit oder seitens der Politik oder einfach durch Hybris gezwungen wird, eine Prognose trotz des Fehlens von Verständnis abzugeben – mit großer Unsicherheit – ist es das Sicherste, „weiterhin das Gleiche“ zu prognostiziere und selbst bei einer solchen Prognose sehr viel Spielraum zuzulassen.

Anmerkungen:

Studien aus jüngerer Zeit zu Trends in nicht linearen Systemen (hier) geben nicht viel Hoffnung, abgeleitete Trends für Prognosen nutzen zu können. Meist reicht es nur zu „vielleicht wird es so weitergehen wie in der Vergangenheit – aber vielleicht wird es auch eine Änderung geben“. Klimaprozesse sind fast mit Sicherheit nicht linear – folglich ist es für Zahlen physikalischer Variablen als Ergebnis von Klimaprozessen (Temperatur, Niederschlag, atmosphärische Zirkulation, ENSO/AMO/PDO) unlogisch, wenn man davon gerade Linien (oder Kurven) über Graphiken numerischer Ergebnisse dieser nicht linearen Systeme zeichnet, um Projektionen zu erhalten und zu nicht physikalischen Schlussfolgerungen zu kommen.

Es gibt immer mehr Arbeiten zum Thema Prognose. (Hinweis: Die Konstruktion gerader Linien in Graphiken ist kein Beweis). Scott Armstrong bemühte sich viele Jahre lang, einen Satz von Prognose-Prinzipien zu entwickeln, um „wissenschaftliches Prognostizieren allen Forschern, Praktikanten, Klienten und Anderen zugänglich zu machen, die sich um Prognose-Genauigkeit kümmern“. Seine Arbeit findet sich hier. Auf seiner Website gibt es viele Beiträge zu Schwierigkeiten, Klima und globale Erwärmung zu prognostizieren (nach unten scrollen).

# # # # #

Der größte Teil der Leserschaft hier ist skeptisch hinsichtlich des Mainstreams und des IPCC-Konsens‘ der Klimawissenschaft, welche meiner Ansicht nach zu verzweifelten Versuchen verkommen ist, eine gescheiterte Hypothese namens „CO2-induzierte katastrophale globale Erwärmung“ mit aller Gewalt am Leben zu halten – Treibhausgase mögen allgemein eine gewisse Erwärmung bewirken, aber wie stark, wie schnell, wie lange sowie vorteilhaft oder schädlich – das sind alles Fragen, die bisher in keiner Weise beantwortet sind. Und außerdem steht immer noch die Frage im Raum, ob sich das Klima der Erde selbst reguliert trotz sich ändernder Konzentrationen von Treibhausgasen oder solarer Fluktuationen.

Link: https://wattsupwiththat.com/2018/01/04/the-button-collector-revisited-graphs-trends-and-hypotheses/

Übersetzt von Chris Frey EIKE




Trotz allem, was man so hört: globale Erwärmung macht das Wetter nicht extremer

Zuletzt kam diese Behauptung des „neuen Normals“ von der Münchener Rück, welche jüngst ihren jährlichen Bericht zu Schadenssummen durch Hurrikane, Überschwemmungen, Buschbrände und so weiter veröffentlichte (hier).

Dem Report zufolge zahlten Versicherer die Rekordsumme von 135 Milliarden Dollar aufgrund dieser Katastrophen, und der Gesamtverlust belief sich auf 330 Milliarden Dollar, das ist die zweithöchste Summe seit 2011. Es war dem Report zufolge auch die kostspieligste Hurrikan-Saison jemals. Und wenn man die Graphik in dem Report betrachtet, kann man den Eindruck gewinnen, dass die Kosten von Naturkatastrophen seit dem Jahr 1980 einen Aufwärtstrend zeigen.

Natürlich schlachten Klimawandelisten diesen Punkt aus als weiteren Beweis, dass die Zunahme des CO2-Niveaus schon jetzt Katastrophen in aller Welt auslöst. Der Environmental Defense Fund EDF drückt es so aus: „Mit dem Voranschreiten des vom Menschen ausgelösten Klimawandels wird Extremwetter immer häufiger und gefährlicher“.

Das eigene Corporate Climate Center der Münchner Rück behauptet, dass „2017 kein Ausreißer war“ und dass „wir unser Radar auf einen Trend neuer Größenordnungen ausrichten müssen“.

Aber welche Beweise gibt es dafür, dass Extremwetter „immer häufiger und gefährlicher wird“? In den USA gar keinen.

Wer das nicht glaubt, sollte sich die Serie von Graphiken unten anschauen, von Websites der Regierung entnommen, in denen jeweils Trends von Hurrikanen, Tornados, Dürren und Buschfeuer dargestellt sind – die den Alarmisten zufolge allesamt einen Aufwärtstrend aufweisen.

Diese Graphiken finden sich hier.



Dr. Roger Pielke Jr. zeigt auf seinem Blog “The Climate Fix”:

Abbildung: Jährliche Kosten von Wetterkatastrophen (Daten von der Münchner Rück) im Verhältnis zum globalen BIP (Daten von den UN) von 1990 bis 2017.

Erkenntnisse daraus:

2017 liegt nach 2005 an zweiter Stelle

Der Datensatz wird dominiert von US-Hurrikanen (die etwa 70% des Verlustes ausmachen)

Der Trend von 1990 bis 2017 zeigt abwärts

Mittel und Median liegen beide bei 0,24%

während 6 der letzten 10 Jahre lagen die Verluste unter dem Mittel.

Aber der wichtigste Punkt: Man ziehe Katastrophen nicht als Argument bzgl. Klimatrends heran. Man verwende Klimadaten. Pielke 2015 zeigt eine zugängliche Zusammenfassung der IPCC-Schlussfolgerungen zu Trends hinsichtlich von Wetterextremen. (Siehe auch IPCC SREX and AR5). Trends hinsichtlich des Auftretens von Extremwetter helfen, diese Graphik zu erklären, hat doch die Welt gerade eine lange Zeit Glück gehabt in dieser Hinsicht.

Link: https://wattsupwiththat.com/2018/01/07/despite-what-youve-heard-global-warming-isnt-making-weather-more-extreme/

Übersetzt von Chris Frey EIKE




Keine Erwärmung während der letzten 40 Jahre?

Das diese unglaubliche Tatsache unbemerkt geblieben ist, geht hauptsächlich auf die Fixierung der wissenschaftlichen Gemeinschaft auf die Erwärmung zurück, wie sie aus den statistischen Temperaturmodellen hervorgeht. Aber wie hier erklärt, sind diese komplexen Computermodelle vollständig unzuverlässig.

Die Satelliten-Messungen zeigen nun aber eine gewisse globale Erwärmung, was manch einen dazu brachte, diesen Umstand fälschlicherweise der Hypothese einer vom Menschen verursachten, CO2-induzierten Erwärmung zuzuschreiben. Eine sorgfältige Betrachtung zeigt, dass diese Hypothese falsch ist. In Wirklichkeit gibt es keinen einzigen Beweis einer Erwärmung durch CO2 während der gesamten Satelliten-Aufzeichnungen.

Um das zu erkennen, muss man die Satelliten-Aufzeichnungen im Detail betrachten. Dazu sollte man im Hinterkopf haben, dass es in der Wissenschaft ausschließlich um spezifische Details einer Beobachtung geht. Diese Details können große, allgemein akzeptierte Theorien grundlegend widerlegen.

Beispiel: Das negative Ergebnis des Michelson-Morley-Experimentes führte zu der revolutionären Speziellen Relativitätstheorie. Wenn es um globale Erwärmung geht, zeigen die 40 Jahre langen Satelliten-Messungen ein stark negatives Ergebnis für die Hypothese der Erwärmung durch CO2. Die CO2-Erwärmung ist einfach nicht da.

Dieses negative Ergebnis geht eindeutig aus einer eingehenden Betrachtung der folgenden Graphik hervor:

Quelle

Die Graphik zeigt die monatlichen, fast globalen Temperaturmessungen in der unteren Atmosphäre. Die Satelliten decken nicht den gesamten Globus ab, aber den größten Teil. In der Graphik enthalten ist auch eine rote Linie, welche ein gleitendes Mittel über 13 Monate repräsentiert.

Man beachte, dass auf der vertikalen Achse die Temperatur mit etwas dargestellt wird, das wir Anomalien nennen, es sind keine tatsächlichen Temperaturen. Eine Anomalie ist hier die Differenz in Grad Celsius zwischen der tatsächlichen Temperatur und einer willkürlich gewählten mittleren Temperatur. Diese mittlere Temperatur definiert die Null-Linie in der Graphik. Für unsere Diskussion hier ist es unwichtig, warum man das so macht.

Schauen wir zunächst auf die Periode vom Anfang bis zum Jahr 1997. Die rote Linie zeigt, dass dies etwas ist, was man einen aperiodischen Oszillator nennt. Es ist ein Oszillator, weil er immer wieder steigt und fällt, steigt und fällt usw. Es ist aperiodisch im Gegensatz zu periodisch, weil die Phasen von Anstieg und Rückgang unregelmäßig daherkommen.

Es ist wohl eindeutig, dass es alles in allem nur eine sehr geringe Erwärmung während dieses Zeitraumes gab, wenn überhaupt eine. Das heißt, die rote Linie oszilliert in etwa um die -0,1°C-Linie.

Liegt ein aperiodischer Oszillator mit so wenigen Oszillationen vor, gibt es keinen Grund zu versuchen, übertrieben präzise zu sein, weil die nächste Oszillation daran etwas ein wenig ändern könnte. Im Besonderen muss man sehr sorgfältig vorgehen, wenn man eine gerade Linie (d.h. linear) in die Trendanalyse legt, weil das Ergebnis dann sehr empfindlich darauf reagiert, wo man mit dem Trend anfängt und aufhört.

Sagen wir also einfach, dass es während dieses Zeitraumes eine geringe oder gar keine Erwärmung gegeben hat. Zu jener Zeit war das bekannt und ein wesentlicher Punkt in der Klimawandel-Debatte.

Dann ereignete sich etwas, was oftmals der Große El Nino genannt wird, obwohl es in Wirklichkeit ein großer El Nino-La Nina-Zyklus der ozeanischen Zirkulation ist. Erst steigt die Temperatur stark, dann geht sie stark zurück, bis sie sich wieder in einem natürlichen aperiodischen Oszillator stabilisiert.

Der große El Nino-La Nina-Zyklus begann Mitte 1997 und unterbrach eine abwärts gerichtete aperiodische Oszillation. Er endet irgendwann 2001, gefolgt von einer neuen aperiodischen Oszillation. Allerdings ist diese Oszillation wärmer und konzentriert sich in etwa um die +0,15°C-Linie. Diese neue Oszillation dauert bis zu einer weiteren großen El Nino-La Nina-Oszillation um das Jahr 2015. Was dieser letzte El Nino-Zyklus bewirkt, muss abgewartet werden.

Folglich scheint der Graph im Wesentlichen vier unterschiedliche Perioden aufzuweisen. Erstens die Periode mit geringer bzw. fehlender Erwärmung von 1979 bis 1997. Zweitens der große El Nino-La Nina-Zyklus von 1997 bis 2001. Drittens die wärmere Periode mit geringer oder gar keiner Erwärmung von 2001 bis 2015. Viertens der neue El Nino-La Nina-Zyklus, der immer noch im Gange ist.

Ja, es gibt eine gewisse Erwärmung, aber diese scheint fast vollständig zusammenzufallen mit dem großen El Nino-La Nina-Zyklus. Die einfachste Erklärung für den Umstand, dass die zweite flach verlaufende aperiodische Kurve wärmer ist als die erste, ist der El Nino-Effekt. Vielleicht ist ein Teil der in der Atmosphäre freigesetzten Erwärmung dort verblieben, was die Grundlinie für die nächste aperiodische Oszillation anhebt.

In keinem Falle jedoch gibt es irgendwelche Beweise einer CO2-induzierten oder einer anthropogen verursachten Erwärmung. Diese Ursachen würden zu einer relativ stetigen Erwärmung mit der Zeit führen und nicht zu einzelnen episodischen Erwärmungen, die hier vorliegen. Im Besonderen gibt es meines Wissens keine bekannte Art und Weise, mit der die graduelle CO2-Zunahme diesen gigantischen El Nino-La Nina-Zyklus verursacht haben könnte.

Folglich scheint die geringe Erwärmung während der letzten 40 Jahre mehr oder weniger vollständig natürlichen Ursprungs zu sein. In jedem normalen Wissenschafts-Fachbereich wäre dieses Ergebnis ausreichend, die Hypothese ungültig zu machen, dass die zunehmende CO2-Konzentration die globale Erwärmung verursacht.

Link: http://www.cfact.org/2018/01/02/no-co2-warming-for-the-last-40-years/

Übersetzt von Chris Frey EIKE

Anmerkung: Auch wenn ich mich wiederhole: Für jeden Laien mit halbwegs gesundem Menschenverstand ist doch glasklar, dass das Wetter – und damit das Klima – nicht nur von einem einzigen Parameter gesteuert wird, der noch dazu nur in so geringer Menge in der Atmosphäre vorhanden ist – oder? — C. F.




Klimapolitik: 20 Arten ein totes Pferd zu reiten

Die amtsführende, ergebnisoffen diskutierende Bundesregierung hat ihre Klimaziele überholt, ohne sie einzuholen – die Groko-Wahrscheinlichkeit steigt mit jedem einzubüßendem Ministersessel. Nachdem die Politik und die Medien den Trumpschen Abschied von der Pariser Klimashow einhellig lautstark in die letzte Hölle verdammt haben, holt die Physik nun die Weltretter ein. Linke Energiewendeträume wurden auf den Boden der Realität zurück gebeamt. Aber bis 2040 wird’s bestimmt was. Bis dahin ändert wir die Kirchhoffschen Gesetze.

Vor einem Jahr war Trump, als er das Pariser Abkommen verließ, nur ein bisschen ehrlicher, als die weltweiten Klimaglobuliste. Heute tut Deutschland dasselbe. Diese Teileinsicht der deutschen Energiewender hat die Steuerzahler ein paar hundert Milliarden hart erarbeitetes Steuergeld gekostet. In anderen Worten: jede deutsche Familie investiert einen Kleinwagen in die „Klimarettung“ – jetzt kommt heraus: ohne jede Wirkung. Was wirklich passiert ist: Man hat die CO2-freie Kernenergie durch CO2-freien Flatterstrom ersetzt. Tröstlich ist: Das viele Geld ist nicht wirklich weg. Es haben jetzt nur andere.

Zieht jetzt Einsicht in die politische Agenda der Sondierer ein? Aus Fehlern lernen? Das muss nicht sein. Eine alte Weisheit der Dakotas sagt: „Wenn du merkst, dass dein Pferd tot ist, steig ab“.

Doch das tote Pferd wird tapfer weiter geritten.

Hier ein paar Ratschläge für die neue Groko zum erfolgreichen Weiterreiten: (kostenlos präsentiert von Roland Schäfer)

Zum guten Schluss noch ein Vorschlag an den womöglich künftigen Vizekanzler Martin Schulz: „Wenn Du merkst, dass das Pferd, auf dem Du reitest, tot ist, dann bringe es zum Besamen nach Brüssel

Der Beitrag erschien zuerst bei ACHGUT hier




Globale Erwärmung verursacht kein harsches Winterwetter

Einige Klimaforscher zeigen mit dem Finger auf die von Menschen verursachte globale Erwärmung als Ursache für das jüngste winterliche Wetter, aber es gibt nicht viel Gewissheit dafür, dass eine globale Erwärmung derzeit extreme Kälte und Schnee verursacht.

Der Klimaforscher der Penn State University, Dr. Michael Mann [Hockey Stick Erfinder], schrieb einen Blogeintrag für das Climate Reality Project, der Gruppe von Ex-Vizepräsident Al Gore, die behauptet, dass “ ist genau die Art von extremem Winterwetter, das wir aufgrund des Klimawandels erwarten.“ Manns Argument ist, dass wir mehr „Bombenzyklone“ und Kälteeinbrüche erwarten können, während der Planet sich erwärmt. Aber Mann, der oft den „Konsens“ über die globale Erwärmung beschwört, scheint mit den Beweisen zu diesem Thema außer Tritt geraten zu sein.

Kevin Trenberth, ein Wissenschaftler des National Center for Atmospheric Research, sagte dem Daily Caller:

„Winterstürme sind eine Manifestation des Winters, nicht des Klimawandels. Die Arktis ist stark vom Klimawandel betroffen und hat einen Rückkopplungseffekt – aber nicht im Winter. Es ist keine Ursache, sondern ein Teil des sich wandelnden Klimas.“

Cliff Mass, ein Klimatologe der University of Washington, über Behauptungen von Mann und anderen.

„Solche Behauptungen ergeben keinen Sinn und stimmen nicht mit Beobachtungen und der realen Wissenschaft überein“, sagte  „Die Häufigkeit von kalten Wellen hat in den letzten fünfzig Jahren abgenommen, nicht zugenommen. Das allein zeigt, dass solche Behauptungen unbegründet sind.  Und in persönlicher Hinsicht ist es sehr enttäuschend, dass Mitglieder meines Berufes solche offensichtlich falschen Behauptungen machen. Es verletzt die Wissenschaft, verletzt die Glaubwürdigkeit der Klimaforscher und schwächt unsere Fähigkeit, von der Gesellschaft ernst genommen zu werden.“

 

Kälter ist wärmer

Jeder Winter scheint die Debatte über die globale Erwärmung sich neu zu entfachen. Die Dinge wurden intensiver, als der ehemalige Wissenschaftshistoriker des Weißen Hauses, John Holdren, 2014 ein Video veröffentlichte, in dem er behauptete, der diesjährige „Polarwirbel“ sei ein Zeichen der globalen Erwärmung.

[de.Wiki: Die beiden Polarwirbel über der Arktis und Antarktis sind großräumige Höhentiefs und wesentliche Elemente der atmosphärischen Zirkulation. Es sind Kaltluftzonen aufgrund der negativen Strahlungsbilanz der Polargebiete. Sie treten im Polarwinter auf; dann ist der Temperaturunterschied besonders groß.]

Holdrens Video basierte größtenteils auf Forschungen der Rutgers University-Wissenschaftlerin Jennifer Francis, die behauptet, dass die Erwärmung in der Arktis den Jetstream wackeliger macht, so dass Kälteeinbrüche und Nordoststürme häufiger auftreten.

Holdren  gab später zu, dass sein Video auf seiner „persönlichen Meinung“ von Wissenschaft basierte, aber das Argument wird immer noch benutzt, wenn kalte arktische Luft durch die unteren 48 Staaten fließt.

„Wenn dieses Muster vorhanden ist, bilden sich wahrscheinlich großflächige Stürme, dessen Winde aus nordöstlicher Richtung kommen, entlang der Grenze zwischen der kalten Luft und dem warmen Atlantik, angetrieben durch die Dynamik des Jetstreams entlang der Ostküste,“, schrieb Francis in einer E-Mail-Mitteilung zu den aktuellen US-Wetterbedingungen .Wir können nicht sagen, dass dieser besondere Sturm durch die globale Erwärmung verursacht wird, aber wir können sagen, dass das anhaltende Hochdruck / Tiefdruck Muster, das ein Faktor für Nordöstliche Stürme ist, häufiger auftreten wird“.

Dr. Mann schrieb, dass die globale Erwärmung „dazu führen könnte, dass sich der Jetstream in einem bestimmten Muster meandert [~ schlängelt]“, was in den östlichen USA zu Kältewellen führt. Mann vermutete, dass dieses Muster durch „den dramatischen Verlust von Meereis in der Arktis“ getrieben wurde.

Wissenschaftler unterstützen diese Theorie jedoch nicht. Mass wies darauf hin, dass theoretische Forschung das Gegenteil beweisen hat. Die zukünftige Erwärmung verursacht weniger Wellen im Jetstream und würde das Gebiet, das für Kältewellen in den USA verantwortlich ist, aufheizen

„Die in peer-reviewed-Journalen dokumentierte Forschung hat gezeigt, dass es keine Beweise für dererlei Behauptungen gibt, dass die Häufigkeit von“ Lazy-Jet-Streams“ zunimmt und im Laufe der Zeit blockiert wird“, sagte Mass. [geringere Temperaturunterschiede Äquator – xxPol sollen den Jetstrom verlangsamen] „Wenn Sie die Quellregion der kalten Luft [die Pole] wesentlich erwärmen, werden kalte Wellen abnehmen“.

„Unser Wetter wird vom Pazifik kontrolliert, deshalb werden sich unsere Temperaturen wegen des Pazifiks nicht sehr schnell ändern, und unsere Schneedecke wird sich wegen des Pazifiks noch eine Weile halten.“ Dr. Mass auf Q13Fox

Eine 2014 von der Colorado State University geleitete Studie der Klimawissenschaftlerin Elizabeth Barnes fand keine Beweise, die die Theorie unterstützen, dass ein langsamer oder wobbelnder Jetstream immer häufiger würde.

„Es gibt viel Uneinigkeit darüber, ob wir bereits erhebliche Auswirkungen erlebt haben“, schrieb Barnes in einem Donnerstag-Blogbeitrag für das Programm „Klimavariabilität und Vorhersagbarkeit“.

Weder Barnes noch Francis reagierten auf die Anfrage des Daily Callers nach einem Kommentar.

 

Neujahr, Neue Nordoststürme

Der Wintersturm Grayson war ein weiterer Brennpunkt in der Klimadebatte. Der „Bombenzyklon“ brachte eisige Temperaturen und starken Schneefall an die Ostküste.

„Wir können intensivere Nordost-Wetter-Ereignisse erwarten, da der von Menschen verursachte Klimawandel weiterhin die Ozeane erwärmt“, sagte Mann und bezog sich dabei auf den „Bomben-Zyklon“, der den nordöstlichen Donnerstag traf.

Wenn der Atlantik sich erwärmt, wird er mit der kalten Luft des nordamerikanischen Kontinents interagieren, was zu weiteren Nordoststürmen führen wird.

„Der Sturm wird auf diese außergewöhnlichen Hitze des Ozeans treffen, wenn er entlang der amerikanischen Küstenlinie nach Norden zieht und das ist einer der Gründe, warum er eine sehr gute Chance hat, der intensivste Nordoststurm zu werden, den wir bisher beobachtet haben“, schrieb Mann.

Die Klimatologin Judith Curry sagte jedoch, dass der „Bombenzyklon“, der derzeit durch Nordamerika tobt, nichts Neues ist. Diese außertropischen Stürme haben eine „Bombogenese“ oder eine schnelle Intensivierung erfahren.

[„Bombenzyklone“ oder „Wetterbomben“ sind gefährliche Winterstürme, die mit der Stärke von Hurrikanen konkurrieren können und wegen des Prozesses, der sie hervorbringt, so genannt werden: Bombogenese. Es ist ein meteorologischer Begriffs, der sich auf einen Sturm bezieht (im Allgemeinen ein nicht-tropischer), der sich sehr schnell intensiviert.

 

Quelle NOAA Satellitenvideo

LiveScience.com Satellitenfilm  NOAA Amerikanische Wetterbehörde

„Der Begriff“ Bombe „für solche Stürme wurde vor fast 40 Jahren von MIT Fred Sanders geprägt“, sagte Curry gegenüber dem Daily Caller „der einen Großteil seiner Karriere damit verbrachte, solche Stürme zu studieren, als die globale Erwärmung definitiv kein Faktor war.“

Curry sagte, während „wärmere Ozeane mehr Schneefall verursachen können“, wird die Sturmintensität eher „von den „by the patterns“ [~Verteilung] der Oberflächentemperatur der Meere und nicht so sehr von den Durchschnittstemperaturen beeinflusst“.

Aber Prof. Manns Argumente basieren mehr auf seinen Erwartungen, was bei mehr Erwärmung passieren könnte und haben wenig mit aktuellen Trends in „Bombenzyklonen“ zu tun.

Der Meteorologe Ryan Maue, Experte für Wirbelstürme, wies darauf hin, dass es auf der Nordhalbkugel jedes Jahr zwischen 50 und 60 „Bombenzyklone“ gibt, von denen wir viele nicht bemerken, weil sie zu weit draußen auf See sind.

Aber auch die Untersuchungen von Maue zu „Bombenzyklonen“ zeigen von 1979 bis 2010 keine erkennbaren Trends.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/05/scientists-global-warming-is-not-causing-harsh-winter-weather/

 

* * *

Pressestimmen in Deutschland

 

Wetter.de

Rekordkälte in Nordamerika kein Widerspruch zum Klimawandel

  1. Januar 2018 um 14:46 Uhr

An vielen Orten der USA herrschte zu Jahresbeginn eisige Kälte. Doch etwas mehr Klimaerwärmung, wie sie US-Präsident Trump sich wünschte, könnte da eher kontraproduktiv sein. Denn die eisigen Zeiten sind nach Forscherangaben keineswegs ein Zeichen für einen stockenden globalen Klimawandel. Sie sind vielmehr ein Teil dessen.

Bild von Schneesturm durch eine Straße,(wg. copyright nicht kopiert)Text: Ein fieser Wintersturm fegt durch New York. Doch auch das ist Kimawandel, auch wenn Präsident Trump  das nicht wahr haben will

„Es ist zunächst wichtig, daran zu erinnern, dass sich die extreme Kälte fast ausschließlich regional auf die USA beschränkt“, betont Marlene Kretschmer vom Potsdam-Institut für Klimafolgenforschung (PIK). „Global gesehen ist es momentan viel wärmer auf der Erde als normalerweise.“ Zur Erinnerung: In Deutschland war es an Silvester bis zu 16,1 Grad warm.

https://www.wetter.de/cms/rekordkaelte-in-nordamerika-kein-widerspruch-zum-klimawandel-4138600.html

 

Spiegel online

Seit Beginn der Industrialisierung

Menschheit erlebt die drei wärmsten Jahre

Das vergangene Jahr hat weltweit einen brisanten Wärmerekord aufgestellt. Klimaforscher sind alarmiert.

…Klimaforscher hatten diese Entwicklung erwartet – wegen des Ausstoßes von Treibhausgasen durch Autos, Fabriken, Kraftwerke, Landwirtschaft und Feuer. Dies könnte in manchen Regionen gravierende Folgen haben.

Dass es regional zu extremer Kälte kommt wie derzeit in Nordamerika, ist dabei kein Widerspruch – Klima ist der langjährige Durchschnitt kurzfristiger Wetterschwankungen.

Die neuen Daten zeigen, wie schwer das Vorhaben werden dürfte. 1,2 Grad sind bereits erreicht – und der weltweite Ausstoß von Treibhausgasen konnte bislang nicht gesenkt werden.

http://www.spiegel.de/wissenschaft/natur/klimawandel-2017-war-zweitwaermstes-jahr-seit-industrialisierung-a-1186468.html

 

Stuttgarter Nachrichten

Klimawandel

Eiskalte Gegensätze

Von Klaus Zintz 08. Januar 2018 – 17:55 Uhr

 Das Schneechaos in den USA und das Hochwasser in Deutschland hängen eng miteinander zusammen.

Stuttgart – …. So wird die Ostküste der USA von einer ungewöhnlichen Kältewelle mit rekordverdächtigen Minustemperaturen bis weit in den Süden hinab heimgesucht. Sogar in Florida wurde der erste bedeutende Schneefall seit 29 Jahren verzeichnet. In Westeuropa ist es dagegen ungewöhnlich milde, aber auch nass und stürmisch. Entwurzelte Bäume blockieren bis heute Bahnstrecken im Schwarzwald, der Dauerregen führte zu Hochwasser.

Inzwischen entspannt sich hierzulande die Lage. Seit Montagnachmittag sinken die Pegelstände der deutschen Flüsse wieder. In Köln wurden rund 8,80 Meter als Höchststand erreicht, was alle zwei bis fünf Jahre vorkomme, wie Rafael Vedder von der Kölner Hochwasserschutzzentrale erläutert. ….

Obwohl an der Ostküste der USA in den vergangenen Tagen mancherorts Rekord-Minustemperaturen erreicht wurden, so ist doch diese Großwetterlage nicht ungewöhnlich. Anfang 2014 etwa war es an der US-Ostküste ebenfalls bitterkalt, während auf der anderen Atlantikseite in Großbritannien eine Flutwarnung die nächste jagte. Heute wie damals ist der sogenannte Jetstream die wesentliche Ursache. Diese in großer Höhe verlaufende westliche Luftströmung windet sich derzeit nicht kreisförmig um die Arktis, sondern in mehr oder weniger wellenförmigen Ausbuchtungen. Dabei hat sich die Welle auf der Westseite Nordamerikas weit in Richtung Arktis verlagert, weshalb dort warme Luft von Süden nach Norden strömt. Daher war es dieser Tage ungewöhnlich warm in Alaska – in der Hauptstadt Anchorage wurden bis zu plus sieben Grad gemessen, ein neuer Wärmerekord für Januar. Sozusagen zum Ausgleich beult sich der Jetstream an der Ostseite von Nordamerika weit nach Süden aus und transportiert im Gefolge eiskalte Polarluft in südliche Gefilde. Dieser Zustand kann, wie man derzeit sieht, viele Tage anhalten.

Wenig verwunderlich ist, dass die derzeitige Kältewelle im Osten der USA die politische Diskussion über den vom Menschen verursachten Klimawandelangeheizt hat – ungeachtet der Tatsache, dass in den ersten Januartagen im Nordwesten von Kanada und den USA sowie in Europa rekordverdächtig warme Januartemperaturen zu verzeichnen waren. Für die Experten des Potsdam-Instituts für Klimafolgenforschung (PIK) gibt es dabei einen Zusammenhang zwischen der besonders raschen Erwärmung der Arktis und den offenbar zunehmenden Kälteeinbrüchen in den USA und womöglich auch in Europa: Die steigenden Temperaturen beeinflussen die polaren Windverhältnisse, den sogenannten Polarwirbel. Dieser hält sozusagen die kalte Luft hoch im Norden. Schwächelt der Wirbel jedoch, wirkt sich dies offenbar auch auf den Jetstream aus, der sich stärker und häufiger als früher ausbeult. Dem PIK zufolge ist der größte Teil dieser Veränderungen erst in den vergangenen 40 Jahren aufgetreten.  …..

Für die Klimaforscher ist offenkundig, dass solche Extremereignisse in jüngster Zeit häufiger auftreten, als durch die direkten Folgen der Klimaerwärmung zu erwarten wäre. Die zunehmende Wellenbildung des Jetstreams zusammen mit anderen Veränderungen großräumiger Luftströmungen könnten hier die Ursache sein. Aber diese Erkenntnis ändert nichts an der Tatsache, dass der zunehmende Ausstoß von Treibhausgasen die treibende Kraft hinter all diesen Entwicklungen ist.

https://www.stuttgarter-nachrichten.de/inhalt.klimawandel-eiskalte-gegensaetze.a9f690be-9d62-47ac-b6e1-7de46446b69b.html

 

* * *

Aus der Wetterchronik:

1658:  Folge des kalten Winters: viele Überschwemmungen
Feb: großes Rhein-Hochwasser, Köln 12,07 m Pegel

1907 Dezember
sehr milde Weihnacht, „ungewöhnlich laues Frühlingswetter, auch die Alten erinnern sich an keine Weihnacht mit solchem Frühlingswetter“ Milde Luft und Regen bringen Knospen zum Treiben.




In Kalifornien ist ein Gesetzentwurf eingereicht, den Verkauf von Benzin-Autos ab 2040 zu verbieten

Der demokratische Abgeordnete Phil Ting stellte das „Clean Cars 2040 Gesetz“ vor, um Klimawandel durch die Reduzierung der Treibhausgasemissionen von Fahrzeugen zu verhindern. Würde das Gesetz verabschiedet werden, würde das verlangen, dass alle nach dem 1. Januar 2040 verkauften Personenkraftwagen emissionsfreie Maschinen haben müssten.

„Kalifornien hat die Nation seit langem mit der Förderung des Umweltschutzes und der öffentlichen Gesundheit durch visionäre Politik und technologische Innovationen angeführt“, sagte Ting am Mittwoch in einer Erklärung. „Es ist an der Zeit, dass wir den Weg für einen emissionsfreien Verkehr frei machen und wichtige Schritte unternehmen, um unsere ehrgeizigen Emissionsreduktionsziele zu erreichen.“

Der Milliardär und Umweltaktivist Tom Steyer, der derzeit eine Kampagne zur Amtsenthebung von Präsident Donald Trump laufen hat, unterstützte die Gesetzesvorlage.

„Diese Gesetzgebung ist mehr als je vorher notwendig, um die Gesundheit der Kalifornier zu schützen, gut bezahlte Arbeitsplätze für saubere Energie zu schaffen und die Rolle unseres Bundesstaates als globaler Klimaführer zu stärken“, sagte Steyer in einer Erklärung.

Das neue Gesetz würde nicht für Nutzfahrzeuge mit einem Gewicht von mehr als fünf Tonnen gelten. Es würde auch nicht für Autos gelten, die von Leuten besitzt werden, die von anderswo nach Kalifornien umziehen.

Ting folgt dem Beispiel von Ländern wie Norwegen, Großbritannien und Frankreich, die sich verpflichtet haben, den Verkauf von Autos mit Benzinantrieb in den kommenden Jahrzehnten zu verbieten.

Dies ist die erste Gesetzgebung dieser Art, die in den Vereinigten Staaten eingeführt wurde.

Erschienen auf The Daily Caller am 03.01.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/03/california-lawmaker-introduces-bill-to-ban-gas-powered-cars-by-2040/

* * *

Vorstehender Link des Business Insiders, zu

Diese Länder verbieten Benzinautos bis 2040

 

Der Business Insider zitiert aus dem letzten Bericht .pdf der

  1. Norwegen wird ab 2030 nur noch Elektro- und Hybridfahrzeuge verkaufen.

… Jahr 2017 machten Elektro- und Hybridfahrzeuge 2016 28% des Marktanteils in Norwegen aus.

  1. Die Niederlande sagten, dass sie ab 2025 nur Elektrofahrzeuge verkaufen werde.

Auf Elektrofahrzeuge und Hybridfahrzeuge entfielen   laut IEA-Bericht im Jahr 2016 6% des niederländischen Marktanteils .

  1. Indien hat ehrgeizige Ziele für die Elektrifizierung und sagt, dass es ab 2030 nur noch Elektro- und Hybridfahrzeuge verkaufen wird.

Indien hat noch keine Infrastruktur zur Unterstützung von batteriebetriebenen Fahrzeugen aufgebaut, weshalb sie nur einen winzigen Marktanteil ( weniger als 1% ) aufweisen.

  1. China hat gesagt, dass es schließlich nur elektrische und hybride Fahrzeuge verkaufen wird, aber hat noch eine konkrete Zeitlinie festgelegt.

…. machten Elektro- und Hybridfahrzeuge 2016 1,4% des chinesischen Marktanteils aus .

  1. Großbritannien will ab 2040 den Verkauf von Benzin– und Dieselautos verbieten

…. Elektrofahrzeuge entfielen 1,4% des Fahrzeugmarkt britischen Anteils im Jahr 2016

  1. Frankreich will ab 2040 den Verkauf von Benzin– und Dieselautos verbieten, mit dem Ziel: CO2 neutral ab 2050

…machten Elektro- und Hybridfahrzeuge 2016 1,4% des französischen Pkw-Marktanteils aus .

  1. Städte wie Barcelona, Kopenhagen und Vancouver wollen ab 2030 den Verkauf von Benzin– und Dieselautos verbieten.

Die Bürgermeister von Los Angeles, Mexiko-Stadt, Seattle, Barcelona, ​​Vancouver, Mailand, Quito, Kapstadt und Auckland haben sich am Montag verpflichtet, bis 2030 Gas- und Dieselfahrzeuge aus „großen Teilen“ ihrer Städte zu verbannen.

 

In dem Bericht ist auf Seite 13-14  u.s. Grafik zu finden.

Links blaue Kurve : fallende Kosten je KWh in USD – rechts: Potential bei 100 USD/KWh

Links: gelbe Kurve: Energiedichte in Wh/L, rechts Potential bei 400 KWh/L

Bemerkung: Im Gegensatz zu den Vorhersagen von 2009, … ist das eine Projektion




MIT HAKEN UND ÖSEN – Photovoltaik und Vulkane

Das Jahr 1816 gilt als das »Jahr ohne Sommer«. In vielen Ländern schien über ein Jahr lang kaum die Sonne, heftige Regenfälle verwüsteten das Land; in Europa und in den Vereinigten Staaten fuhren die Bauern Missernten ein, Hungersnöte brachen aus; weniger allerdings in Russland, dessen Zar Getreide in die Schweiz liefern ließ.

Ein Jahr zuvor, im April 1815, brach auf der anderen Seite des Erdballes der Vulkan Tambora aus. Eine gewaltige Explosion schleuderte den oberen Teil des Vulkans in die Luft, verkleinerte den Berg von 4.300 Meter Höhe auf nur noch 2.800 Meter. Er spie ungeheure Mengen an giftigen Gasen und Asche in die Luft. Die Explosion vernahm man noch in 1.500 Kilometer Entfernung. Die Asche breitete sich meterdick über riesige Flächen aus, zerstörte alles Leben. 100.000 Menschen sollen gestorben sein.

In der westlichen Hemisphäre gilt dieser Ausbruch als eine Ursache für die katastrophale Wetterverschlechterung. Wie weit der Ausbruch des Vulkans an der dramatischen Verschlechterung des Wetters beteiligt war, ist noch nicht ganz geklärt. Schließlich gab es schon seit 1812 eine Reihe von kalten und regnerischen Jahren verbunden mit Missernten. Aber keine Frage: Der Vulkanausbruch schleuderte gewaltige Mengen an Asche und Feinstaub in die oberen Luftschichten der Atmosphäre. Der Vulkan liegt dicht am Äquator, ausgestoßene Gase und Ascheteilchen geraten in die globalen Windströmungen und werden rund um den Globus verteilt. Das geschieht bei näher an den Polen gelegenen Vulkanen eher nicht.

Eine solche Naturkatastrophe bekommt ganz neue, bisher ungeahnte Folgen für ein Land, das seine Energie aus sogenannten »Erneuerbaren« bezieht. Was geschieht also, wenn wieder ein Vulkan ausbricht? TE-Leser Wolfgang Kohl fragt, welche Auswirkungen auf die alternative Stromversorgung ein Vulkanausbruch mit global weitflächiger und monate- oder gar jahrelanger stark verminderter Sonnenstrahlung haben kann? Denn in der bisherigen Diskussion über alternative Energien hat er noch nie etwas darüber gelesen, wie derartige Naturkatastrophen in ihren Auswirkungen eingeschätzt werden.

Da lohnt ein Blick schon einmal auf den Normalbetrieb von Photovoltaik-Anlagen. Wer in Städten in Wüstengebieten sein Auto nur zwei oder drei Tage stehen lässt, sieht hinterher nichts mehr durch seine Scheiben und muss durch eine Waschstraße fahren. Es sind permanent ungeheure Mengen an feinem Staub in der Luft, die sich auf alle Flächen absetzen. Fensterreinigern jedenfalls geht die Arbeit nie aus.

Das Gleiche passiert auch mit Photozellen. Auf denen setzt sich eine Schicht Staub ab und vermindert den Lichteinfall. Das kann bis zum völligen Blockieren des Lichteinfalls führen, wenn die komplette Fläche der Solarzellen mit Staub, Schmutz oder gar Schnee bedeckt sind. Bis zu 25 Prozent reduziert sich der Ertrag einer Photovoltaik-Anlage bei nur leichter Verschmutzung.

In staubigen und trockenen Regionen bildet sich innerhalb weniger Tage eine geschlossene Decke an Staub und Schmutz auf den Photozellen und reduziert bis verhindert die Stromerzeugung. In trockenen und staubigen Ländern lassen sich die Auftraggeber meist bestätigen, dass die Photovoltaikanlagen sich selbst reinigen. Hier sind die Oberflächen speziell beschichtet; das soll verhindern, dass sie sich zusetzen. Letztlich aber ist ein kräftiger Wüstenstaub stärker.

In Deutschland sind die meisten Module auf Dachschrägen befestigt. Hier sorgt Regen für eine gewisse Reinigung der Oberflächen. Dennoch sammeln sich gerade über längere trockene Zeiten Staub und Laub auf den Flächen an und vermindern die Leistung. Abrieb von Bremsstäuben, Zement und Kalkstäube sind aggressiv und fressen sich in das Glas. Zusätzlich können Moose und Algen wachsen. Es muss also gereinigt werden, wenn der Ertrag nicht zu stark vermindert werden soll.

Problematischer sind Anlagen, die auf flacheren Dächern von Ställen zum Beispiel montiert wurden. Die Landwirte lockten die großen Flächen, doch die warme Luft, die Tiere abgeben, strömt nach oben und zieht über die Lüftungsöffnungen der Dächer ab. Mit im Gepäck haben sie Staub und Ammoniakverbindungen aus dem Stall. Das legt sich über die Glasflächen und reduziert ebenfalls den Lichteinfall. Solarmodule putzen – es ist immer wieder nett anzuschauen, welche neuen Berufsbilder ein solches Gebilde wie die Energiewende produziert.

Bereits im Normalbetrieb also beeinträchtigen Staub und sonstige Stoffe in der Luft den Betrieb von Photovoltaik-Anlagen. Wir wollen uns besser nicht ausmalen, was geschieht, wenn ein Vulkan ausbricht, die Erde verdunkelt und die vollkommen ()oder überwiegend) auf Photovoltaik und Windenergie verlegte Energieerzeugung empfindlich stört. Klar ist, dass eine solche Naturkatastrophe erhebliche Auswirkungen auf die Energieversorgung eines Industrielandes wie Deutschland hätte. Man kann davon ausgehen, dass die meisten Photovoltaik-Anlagen keinen Strom mehr liefern werden, wenn sich eine Ascheschicht auf die Module legte und zudem von der Sonne weniger Licht durch die Luftschichten käme.

Das ist glücklicherweise nur in Deutschland so. Die Nachbarländer verfügen über konventionelle Kohle- und Kernkraftwerke. Wir können den Strom aus Frankreich und Tschechien bekommen. Später werden wir in Russland und China um Energie bitten und betteln.

Wie wacklig die sogenannten erneuerbaren Energien sind, erwies sich gerade wieder beim jüngsten Hochwasser. Die ach so natürliche Wasserkraft zeigte, wie weit der Rückschritt ins Mittelalter gediehen ist: Bei den jüngsten heftigen Regenfällen und Schneeschmelzen mit hohem Wasseraufkommen produzierten die Wasserkraftwerke – nein, nicht, wie man angesichts der Wassermassen vermuten könnte, gigantische zusätzliche Mengen an Strom, nein, sie mussten – abgeschaltet werden. Abgeschaltet! Zu viel Wasser!

Denn einmal war die Differenz zwischen Ober- und Unterwasser zu gering, der Druckunterschied vor und nach der Wasserturbine so gering, dass kaum mehr Strom erzeugt werden konnte. Zudem liefen die Wasserkraftwerke Gefahr, dass die mitgeführten Unratmassen die Turbineneinläufe mit ihren Rechenwerken verstopfen. Äste, ganze Baumstämme, tonnenschwer, reißen die Fluten mit, zudem viel Laub – tödlich für jede Turbine. Im Winter droht bei Eis sogar die Zerstörung des Wasserkraftwerkes. Deshalb haben die alten Wassermühlenerbauer früher einen separaten Zulauf zum Mühlrad angelegt, den sie bei Eisgang sperren konnten.

Zu viel Wasser ist also nichts für die Stromerzeugung aus Wasserkraft. Genauso wie zu viel Wind schädlich für die Windräder ist. Bei kräftigem Wind und Sturm knicken sie um wie Streichhölzer. Damit sie nicht in Gefahr geraten, auseinanderzufliegen, müssen sie bei starkem Wind abgeschaltet werden. Die Flügel werden in eine sogenannte Segelstellung gestellt, bieten so dem Wind kaum Widerstand und laufen weniger Gefahr, von Orkanböen zertrümmert zu werden.

»Erneuerbare« Energien also sind sehr anfällig gegenüber Unbilden der Natur. Zu viel Wind, zu viel Wasser oder gar ein Vulkanausbruch mit Ascheregen – kein Strom. Fein, dass die Grünen den großen Fortschritt, eine einigermaßen unabhängige und günstige Energiequelle geschaffen zu haben, jetzt wieder rückgängig machen wollen.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Von Korrelationen, Trends bei Anomalien!

Zugegeben es ist kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist.

In der Klimatologie wird aus guten Gründen sehr oft mit Korrelationen gearbeitet. Diese werden gesucht, berechnet, verglichen, mit vermuteten Ursachen unterlegt, oft aber auch beides miteinander verwechselt, um der Beantwortung der schwierigen Frage näher zu kommen: Was steuert unser Klima? Oder – genauer – was steuert unsere Temperatur? Da Klimatologen es oft nicht unter „Weltklima“ machen – dabei es tunlichst unterlassen diesen Begriff zu definieren – muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!

Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2°C-Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt gemessen werden.

Nun wissen wir aus vielfältigen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist, eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern eher schlechter geworden. Zwar behauptet das britische Met. Office1 ungerührt auf seiner Website: „Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“. Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends – ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt, gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.

Abbildung 1: Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung.

Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Met. Office zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen2 ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels – des Politprofis Al Gore – die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 3 im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die Autoren „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.

In der Zusammenfassung des Aufsatzes steht:“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ In diesem hochtrabenden, etwas sehr verschwurbelten Satz steht also im Klartext:“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“ Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet.

Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert wurde, schaffte man

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen Modelle (GCM´s) wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.

Diese Methode wird vom GISS unter seinem Chef James Hansen und seinem Nachfolger Gavin Schmidt bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren4 angemeldet.

Jüngst erst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.

Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen

Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.

Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.

Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt.

Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.

Wir sehen sie in Abbildung 5:

Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.

Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:

Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen

Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!

Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach 5 folgert daraus:

„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.(http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728) Denn dort wird so gut wie nirgends gemessen: „Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“ Richtige seriöse Klimaforschung sollte anders aussehen.

Meint

Michael Limburg EIKE

1 Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html) …The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.

2„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit (Wikipedia spricht allgemeiner von Wechselbeziehungen) zweier Datenzeitreihen. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. sehr ähnlich. Ein negatives Vorzeichen verändert die Ähnlichkeit nicht, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.

3 HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

4 Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen, gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode

5 Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728




Kosten für Energiewende explodieren

Der unregelmässige und unvorhersehbare Wind- und Sonnenstrom wird zunehmend zum Problem für das Stromnetz in Deutschland.  

Fast eine Milliarde Euro hat der deutsche Stromnetzbetreiber Tennet TSO letztes Jahr für Noteingriffe aufgewendet, um das Netz zu stabilisieren. Das hat das Unternehmen Anfang dieser Woche bekannt gegeben. Die Kosten lagen damit rund die Hälfte höher als 2016 (660 Millionen Euro) und rund vierzig Prozent über denen von 2015 (710 Millionen). Tennet ist für die Stromversorgung in einem Gebiet zuständig, das von Schleswig-Holstein im Norden bis Südbayern reicht und rund vierzig Prozent der Fläche Deutschlands ausmacht. Insbesondere ist Tennet verantwortlich für wichtige Nord-Süd-Trassen.

Grund für die Zunahme der Notinterventionen sind die immer zahlreicheren Solar- und Windanlagen in Deutschland. Der Anteil der erneuerbaren Energie ist letztes Jahr von 29 auf 33 Prozent der Stromversorgung gestiegen. Wind- und Sonnenstrom fallen aber unregelmässig und oft unvorhersehbar an. Damit wird das Netz zunehmend instabil. Denn gemäss den Gesetzen der Physik müssen die eingespeiste und die nachgefragte Elektrizität jederzeit übereinstimmen – ansonsten kommt es zu Blackouts. Die deutschen Netzbetreiber müssen bei drohenden Ungleichgewichten darum Gas-, Kohle- oder Atomkraftwerke anweisen, ihre Stromeinspeisung hochzufahren oder zu drosseln. Zum Teil bitten sie ausländische Kraftwerke um Unterstützung. Hilfreich kann auch die Anweisung an Windkraft- und Solaranlagen-Betreiber sein, ihre Produktion vorübergehend einzustellen. Damit werden die Netzverantwortlichen aber entschädigungspflichtig, da für Alternativstrom eine Abnahmegarantie besteht. Tennet bezahlt also Geld für das Abstellen von Windrädern.

Netzstabilität leidet

Eine Herausforderung der deutschen Energiewende besteht darin, dass das Leitungsnetz angesichts der steigenden Schwankungen dringend verstärkt werden muss. Insbesondere fehlen leistungsstarke Leitungen vom Norden, wo viele Windkraftanlagen stehen, in den Süden, wo der Strombedarf gross ist. «Wir brauchen zwingend ein Energiewende-Netz, also die vom Gesetzgeber bereits beschlossenen Netzausbauprojekte», sagte Tennet-Geschäftsführungsmitglied Lex Hartmann zur Frankfurter Allgemeinen Zeitung. Bis dahin seien «Netzengpässe, hohe Kosten für die Verbraucher und eine zunehmend instabile Versorgung die harte Wirklichkeit».

Der Ausbau der Netze hinkt den Ausbauplänen der Regierung allerdings weit hinterher. Laut dem McKinsey Energiewende-Index vom letzten Oktober sind bisher erst 816 der 3582 Kilometer Stromleitungen gebaut, die bis 2020 in Betrieb sein sollen. McKinsey bezeichnet die Erreichbarkeit des angestrebten Netz-Ausbauziels darum als «unrealistisch».

Grund für die Verzögerungen ist massgeblich der Widerstand der Bevölkerung gegen neue Überlandleitungen, der teilweise von den Regierungen der Bundesländer unterstützt wird. So hat sich Thüringens Ministerpräsident Bodo Ramelow (Linke) im November gegen neue Stromtrassen in seinem Bundesland ausgesprochen. Vor zwei Jahren kam entsprechender Widerstand auch von Horst Seehofer (CSU), Ministerpräsident von Bayern. Die Stromnetzbetreiber sind häufig gezwungen, neue Leitungen teilweise unterirdisch zu verlegen, was zu grossen Landschaftseingriffen, horrenden Kosten und beträchtlichen Verzögerungen führt.

Die deutschen Stromverbraucher bezahlen jährlich rund 25 Milliarden Euro für die Förderung von Alternativstrom, mit steigender Tendenz. Zwar ist die sogenannte Umlage, die pro verbrauchte Kilowattstunde in Rechnung gestellt wird, auf Anfang dieses Jahres leicht von 6,88 auf 6,79 Eurocent gesunken. Kosten wie etwa diejenigen für Noteingriffe ins Netz werden den Verbrauchern aber zusätzlich in Rechnung gestellt. Gemäss Schätzungen wird die Energiewende in Deutschland bis 2025 über eine halbe Billion Euro kosten. Die Belastung für eine vierköpfige Familie beträgt demnach total etwa 25’000 Euro, was mehr als die Hälfte eines durchschnittlichen deutschen Brutto-Jahresverdienstes ausmacht. Im Jahr 2016 wurde insgesamt 330’000 Haushalten wegen offener Energierechnungen der Strom abgestellt.

Problem betrifft auch die Schweiz

Die Probleme mit der Netzstabilität könnten mit dem Abschalten der verbliebenen Atomkraftwerke noch deutlich zunehmen. An Silvester ging der Block B des AKW Gundremmingen in Bayern vom Netz, womit nun bundesweit noch sieben Reaktoren in Betrieb sind. Block B hatte eine Leistung von 1344 Megawatt, was etwas höher als die des AKW Leibstadt ist. Der Reaktor hatte während 33 Jahren störungsfrei produziert. Bundesumweltministerin Barbara Hendricks (SPD) zeigte sich «froh» über das Abschalten. Das letzte AKW in Deutschland soll 2022 vom Netz gehen. Mit dem Atomausstieg habe man «den Grundstein für eine international wettbewerbsfähige Energiestruktur in Deutschland gelegt», so Hendricks. Gemäss der Bundesnetzagentur könnten die Kosten für Noteingriffe nach dem Ende aller AKW bundesweit aber auf bis zu vier Milliarden Euro steigen.

Auch in der Schweiz nehmen Noteingriffe im Stromnetz zu. Die Gründe liegen beim Ausbau von Wind- und Solarstrom und bei Netzinstabilitäten im Ausland, die sich auch auf die Schweiz auswirken. Zudem ist hierzulande der Netzausbau ebenfalls stark im Rückstand. Wie die Basler Zeitung im November berichtete, musste die Schweizer Netzbetreiberin Swissgrid letztes Jahr bis Ende August bereits 274 Mal eingreifen, was gegenüber dem Vorjahr etwa eine Verdoppelung bedeutete. Wie viele Netzeingriffe es 2017 insgesamt waren, will Swissgrid nächste Woche bekannt geben. (Basler Zeitung)

Dieser Beitrag erschien zuerst in der Basler Zeitung hier




EU – Energierat hat beschlossen: Planwirtschaft

Immer wenn Akteure aus dem Berliner Politbetrieb wie Rainer Baake lauthals etwas von »Erfolg« verkünden, ist besonders hohe Vorsicht angebracht. »Das vom Energierat beschlossene Paket »Saubere Energie für alle Europäer« ist ein Meilenstein. Es gestaltet fast den gesamten europäischen Energierahmen neu.«, verkündete Baake Anfang dieser Woche.

Baake ist einer der Hauptideologen der Energiewende, war früher Staatssekretär in Hessen, als Joschka Fischer Umweltminister in Wiesbaden war. Beide wollten das Kernkraftwerk Biblis sofort dichtmachen, der damalige Bundesumweltminister Töpfer verhinderte dies. Für alle Außenstehenden unverständlich machte der damalige Wirtschaftsminister Gabriel den Grünen zum Staatssekretär. Seine Nachfolgerin Zypris hat nichts daran geändert. Baake war auch einmal Bundesgeschäftsführer der äußerst dubiosen Deutschen Umwelthilfe und will das Energiesystem umbauen. Bisher allerdings trägt er die wesentliche Mitschuld an dem Energiedesaster, an extrem hohen Strompreisen und dem Ruin der alten Energieerzeuger. Der gelernte Volkswirt ist mit verantwortlich für die Vernichtung von Werten in Milliardenhöhe.

Rainer Baake vertritt Deutschland bei den Brüsseler Energieverhandlungen. Jetzt will er nichts Geringeres als den europäischen Energiemarkt mal eben neu ordnen. Was in Deutschland schon nicht funktioniert, soll nun Europa aufgezwängt werden. »Saubere Energie für alle Europäer« soll ein Vorzeigeprojekt der EU sein. Sie basteln an einer »Energieunion«, sind sich aber darüber im Klaren, wie schwierig es werden würde, ein entsprechendes Gesetzpaket auf nationaler Ebene umzusetzen. Die EU-Kommission möchte 30 Prozent Energieeinsparung bis zum Jahr 2030 erreichen. Beachtlich hochfliegende Pläne, die Bürger Europas können sich lediglich glücklich schätzen, dass die meisten Gesetzesvorschläge als zahnloser Bettvorleger enden. Bisher zeigen die meisten europäischen Staaten – das abschreckende Beispiel Deutschlands vor Augen – wenig Neigung auf einen gemeinsamen Nenner zu kommen.Vor einem Jahr hat die EU ein »Winterpaket« (nennt sie tatsächlich so) vorgestellt, ein Paket an Gesetzesvorschlägen für eben »Saubere Energie für alle Europäer«.
Im Wesentlichen handelt es sich um eine Verbreitung der deutschen Energievorstellungen über Europa. Unter anderem mit den Parolen »keine Diskriminierung einer Stromart«, alle Verbraucher sollen das Recht haben, Strom zu erzeugen und der Leerformel »Mehr Energieeffizienz«.

In dieser Woche verkündet Baake lauthals, dass die »28 EU-Energieminister Weichen auf europäische Energiewende gestellt hätten«. Ein Schritt, den die Minister am 18. Dezember beschlossen haben: »Neue Kohlekraftwerke dürfen an diesen Kapazitätsmärkten ab Ende 2025 und Bestandsanlagen ab Ende 2030 nicht mehr teilnehmen. Zwischen 2025 und 2030 soll die Förderung jährlich abgesenkt werden.«

Im Klartext: Den europäischen Ländern sollen Kohlekraftwerke verboten werden, nicht direkt, sondern über den Umweg, dass sie »an diesen Kapazitätsmärkten … nicht mehr teilnehmen (dürfen).« Klingt nicht direkt nach drastischem Verbot, ist aber im Effekt das Gleiche. Der Kohleausstieg für alle EU-Länder soll also durch die Hintertür eingeführt werden. Die Kommission hatte bereits vorgeschlagen, die Kohleverstromung in Europa zu reduzieren.

Die Gefahr größerer Blackouts, vor der die Fachleute schon seit langem warnen, wird damit nicht nur Deutschland treffen, sondern auch andere EU-Länder. Auch eine Art Solidarität: Warum soll nur Deutschland allein den Untergang seiner industriellen Basis zu tragen haben?

Wir sehen einmal kurz nach, wo seit längerer Zeit unser Strom in Deutschland herkommt. Denn kritisch für die Stromversorgung sind vor allem die langen dunklen Wintermonate, kurze Tageszeiten, Hochdruckwetterlagen, dichte Wolkendecken, durch die fast keine Sonne dringt, wenig Wind auf der Nordsee. So sieht dann das Strombild auch aus. Ohne Kohle- und die wenigen Kernkraftwerke säßen wir im Dunklen. Von Sonne und Wind kommt nichts, kann auch nichts kommen, wenn nichts da ist:

Nur Hardcore-Ideologen behaupten dann fußaufstampfend: Und es geht doch!
Vielleicht deutet sich auch so etwas wie blanke Panik bei Baake & Co an. Leute wie er wollen sich möglicherweise auch über die Brüsseler Bande Unterstützung für ihr Projekt »Zerstörung Industrielandschaft« holen. Denn ein wesentlicher Punkt der jetzigen Brüsseler Beschlüsse ist die weitere Öffnung der europäischen Netze. Baake in unziemlich imperialistischem Tonfall: »Wir definieren Versorgungssicherheit nicht mehr rein national, sondern europäisch.«

 

Das neue Verfahren soll laut Bundeswirtschaftsministerium vorsehen: »Die Mitgliedstaaten müssen die grenzüberschreitenden Stromleitungen schrittweise immer weiter für den europäischen Stromhandel öffnen. Dafür ist ein Zielwert in Höhe von 75 % beschlossen worden, der Ende 2025 erreicht werden muss. Die Mitgliedstaaten können selber entscheiden, wie sie das erreichen wollen: Indem sie ihre Gebotszonen verkleinern oder durch einen Maßnahmenplan für die Modernisierung der Netze und den Netzausbau und sogenannte Redispatch-Maßnahmen, um die verbleibenden Engpässe zu beheben. Wenn die Mitgliedstaaten diese schrittweise Öffnung der grenzüberschreitenden Stromleitungen nicht erreichen, kann die Kommission Maßnahmen vorschlagen und als letzte Konsequenz auch einen Teilung der Gebotszonen anordnen.«Staatssekretär Baake: »Das neue Verfahren zum Umgang mit internen Netzengpässen gibt den Mitgliedstaaten Zeit, ihre Netze auszubauen. Es macht aber andererseits auch sehr klar, dass sich die Mitgliedstaaten nicht länger auf ihren internen Engpässen ausruhen können.« Das ist der passende Tonfall, den die deutschen Nachbarn so schätzen gelernt haben.

Das bedeutet in erster Linie Hilfe für die geplagten deutschen Stromnetze, wenn wieder einmal zu viel Windstromüberschuß das Netz überschwemmt und die deutschen Netzbetreiber schwitzen, wohin mit den Mengen? Strom muss genau in dem Augenblick, in dem er erzeugt wird, irgendwohin und verbraucht werden. Speichern geht eben nicht. Wenn in Deutschland absolut nichts mehr damit anzufangen ist, dann bleibt nur noch das Ausland übrig. Dort trifft er aber auch auf immer weniger Freude. Denn der zerstört dort Netze und Märkte. Daher machen Länder wie Polen bereits dicht.

 

Die südlichen Länder werden sich wohl kaum um diese Brüsseler Beschlüsse kümmern. Die Reaktion der osteuropäischen Länder dürfte eindeutig sein: Mit uns nicht! Sie können ihren Bevölkerungen keine ins wahnwitzige gesteigerten Kosten zumuten, Vorrang hat der Ausbau einer einigermaßen stabilen und preiswerten Energieversorgung. Der Brüsseler Beschluss von dieser Woche hat daher zur Folge: noch mehr Grenzsperren in den Netzen. Mit Phasenschiebern wie bereits an deutsch-polnischen Netzübergängen wird verhindert, dass Strom aus deutschen Anlagen die Netze überschwemmt. Statt Eiserner Vorhang nun Netzsperren als Trennlinie zwischen West und Ost. Der Wahnsinn hat sich nur umgekehrt.Baake in denglischem Phrasendresch: »Die Bedeutung der neuen Governance für die Energieunion geht aber über die Erfüllung der 2030-Energie-und Klimaziele hinaus. Erstmals gibt sich hier einer der größten Wirtschaftsräume der Welt einen gemeinsamen Plan, wie die Mitgliedstaaten zur langfristigen Dekarbonisierung und Versorgungssicherheit Europas beitragen wollen.«




Die Chinesen sind gelandet…

 Die französische Vorgeschichte

Schon seit längerem betreibt der staatliche französische Energieversorger EDF (Electricite de France) auch die Kernkraftwerke in England. Etwas ungewöhnlich, handelt es sich doch um gasgekühlte (CO2) und mit Graphit moderierte Reaktoren älteren Datums. Ein Typ, der schon lange in Frankreich abgeschaltet wurde. Gleichwohl ist EDF somit als ein zuverlässiger und etablierter Betreiber in GB bekannt.

Es war damit folgerichtig, daß auch bei der Renaissance der Kernkraft die EDF an vorderster Stelle mit dabei sein würde. Es entstand das Projekt Hinkley Point C in Somerset mit zwei ebenfalls französischen Reaktoren vom Typ EPR. Alles schien ganz einfach – wenn nicht der französische Versorger chronisch unterfinanziert wäre. Es mußte deshalb unbedingt ein kapitalkräftiger Investor mit ins Boot, zumal noch weitere Kernkraftwerke geplant waren. Die Chance für den chinesischen Staat einen Fuß in die Tür des europäischen Marktes zu bekommen. Seltsamerweise ist die Angst vor einer Abhängigkeit in der volkswirtschaftlichen Schlüsselgröße der Stromversorgung von der chinesischen Diktatur noch geringer, als die Furcht vor dem „friedliebenden und aufrechten Demokraten“ Putin. Irgendwie scheint in den Hirnen europäischer Politiker der Irrglaube, elektrische Energie sei so etwas ähnliches wie Kartoffeln, fest verwurzelt zu sein.

Die chinesische Vorgeschichte

China baut inzwischen mehrere Reaktoren pro Jahr. Hunderttausende hoch qualifizierte und überdurchschnittlich bezahlte Arbeitskräfte sind dafür nötig. Allerdings ist jedem klar, daß auch in einem Riesenreich der Markt irgendwann gesättigt ist. Darüberhinaus muß man eine Menge Autos, PC’s oder Jacken aus recyceltem Plastik verkaufen, um den Umsatz nur eines einzigen Kraftwerks zu erzielen. Ein Wissen, das in Deutschland völlig verloren gegangen zu sein scheint. Deshalb der konsequente Schritt der Chinesen in den Export.

Allerdings ist das einfacher beschlossen, als umgesetzt. Ein wichtiger Hebel ist der Preis und die Finanzierung. Trotzdem ist für ein solch sensibles Produkt auch eine gewisse Reputation nötig. Es reicht (noch nicht) der Nachweis einer großen Stückzahl im eigenen Land. Dies gilt besonders für geheimniskrämerische, sozialistisch geprägte Diktaturen wie China und Rußland. Man versucht deshalb wenigstens den Goldstandard eines „westlichen Genehmigungsverfahrens“ zu erlangen. Ein teures und aufwendiges Unterfangen, wie bereits Rußland in Finnland zu spüren bekommt. Es ist halt ein himmelweiter Unterschied, ob man sich in irgendwelchen Hinterzimmern – unter gegenseitig wohlgesonnenen Fachleuten – Papierberge hin und her schiebt oder im Internetzeitalter unter den Argusaugen von „Atomkraftgegnern“ ein transparentes Verfahren durchstehen muß.

Hinzu kommen bei den Chinesen noch komplizierte Lizenzfragen. Man hat sich aus aller Welt Kernkraftwerke zusammengekauft. Ein Wirrwarr von Lizenzverträgen. Deshalb versucht man es hier mit einer vermeintlichen Eigenentwicklung. So etwas ist in Industrieländern schlicht unverkäuflich. Nicht einmal über den Preis oder politische Kompensationsgeschäfte. Ein Bau in England als Referenz, erscheint daher wie ein Sechser im Lotto. Deshalb also der gemeinsame Antrag von China General Nuclear Power Corporation (CGN), Electricite de France (EDF S.A.) and General Nuclear International (GNI) zum Bau und Betrieb von bis zu sechs Reaktoren. Einschließlich großzügiger Finanzierung, versteht sich.

Die Entstehungsgeschichte des Hualong

Ihren Gemischtwarenladen – nicht nur an Leichtwasserreaktoren – haben die Chinesen nach dem Unglück von Fukushima geschickt zu bereinigen versucht. Es soll zukünftig nur noch ein Typ gebaut werden – sicherheitstechnisch auf den neusten Stand der Technik gebracht, versteht sich.

Alles begann mit der Übernahme französischer Druckwassertechnik, die zum Bau der Reihe M310 im Jahr 1987 führte (4 Reaktoren, Inbetriebnahmen 1994–2003). Dies führte zur Baureihe CPR1000 im Jahr 2005 (13 Reaktoren, Inbetriebnahmen 2010–2016). Die Erfahrungen aus Bau und Betrieb führten 2010 zur überarbeiteten Baureihe CPR1000+ (2 Reaktoren, Inbetriebnahmen 2016–2017). Die Denkpause nach dem Unglück von Fukushima führte zur Baureihe ACPR1000 (4 Reaktoren, noch im Bau). Bisheriger Abschluss dieser evolutionären Entwicklung ist der Typ HPR1000, der seit 2015 im Bau ist. Dies ist auch die Basis des ersten Exports Karachi 2, welches seit 2015 in Pakistan gebaut wird.

China verfügt also über genügend Erfahrung in der Abwicklung solcher Großprojekte. Leider muß man aktuell sagen, sogar über mehr Praxis als die USA und Frankreich. Durch deren lange Pausen beim Neubau von Kernkraftwerken, sind dort die Erfahrungen abgerissen und müssen erst wieder mühselig neu erworben werden. Von Deutschland braucht man in diesem Zusammenhang gar nicht mehr zu reden. Hier ist die Deindustrialisierung bereits so weit fortgeschritten, daß man nicht mal mehr einen vergleichbar simplen Flughafen bauen kann.

Die eingereichten Unterlagen

Im Oktober 2017 wurden die ersten Unterlagen bei der britischen Genehmigungsbehörde eingereicht. In ihnen wird immer von einem UK-HPR1000 gesprochen. Man ist sich also darüber im Klaren, daß es eine spezielle Version geben muß, damit sie in GB genehmigungsfähig ist. Interessant an den eingereichten Unterlagen ist, daß es Beschreibungen des Hualong sind, wie er gerade im Kraftwerk Fangchenggang als Block 3 gebaut wird (HPR1000(FCG3)). Auf diese Weise erhält man einen – wenn auch sehr kleinen – Einblick in die aktuelle chinesische Reaktortechnik.

Bereits aus den beigefügten Zeichnungen kann man erkennen, daß es sich um einen typischen „französischen Reaktor“ handelt, wie er dutzendfach in Frankreich steht. Charakteristisch sind die drei Dampferzeuger und die dreifachen (redundanten) Sicherheitssysteme. Es handelt sich keinesfalls um eine Neukonstruktion mit grundsätzlich passivem Sicherheitsansatz wie z. B. der AP1000 von Westinghouse oder einem evolutionär weiterentwickelten Konvoi-Reaktor wie den EPR mit vierfacher Redundanz. Es wird interessant sein, wie die Genehmigungsbehörde darauf reagieren wird. So wie er eingereicht wurde, ist er eher ein Neubau vorhandener und nachgerüsteter französischer Reaktoren. Entweder müssen die Chinesen noch richtig Geld in die Hand nehmen um das Sicherheitsniveau moderner westlicher Reaktoren zu erreichen oder GB gibt sich mit geringeren – als möglichen – Sicherheiten zufrieden. Dann könnte man aber auch Reaktoren in Korea oder Rußland kaufen. In diesem Zusammenhang wird auch das Genehmigungsverfahren des russischen Kernkraftwerks in Finnland noch sehr interessant werden. Ist doch auch dort der unmittelbare Vergleich zum EPR gegeben. Jedenfalls ist der Hualong keinen Deut sicherer als die Kernkraftwerke, die gerade in Deutschland vom Netz genommen werden. Absurdistan läßt grüßen. Auch der Betrieb dürfte keineswegs günstiger sein. Dafür sorgt schon die Dreisträngigkeit (Sicherheitsphilosophie: Ein System versagt, ein weiteres startet nicht, d. h. es steht noch ein drittes zur Verfügung. Bei vierfacher Redundanz kann man somit Wartungsarbeiten während des Betriebs durchführen.). Ebenso die konventionelle Leitungsführung (Wiederholungsprüfungen) und die Hauptkühlmittelpumpen.

Einige Unterschiede zum EPR

Die Leistung des Hualong beträgt nur 70% des EPR. Dies ist kein prinzipieller Nachteil. Allerdings beträgt die Leistung der Dampferzeuger mit 1050 MWth fast 93% der Leistung der Dampferzeuger des EPR. Man hat also durch Weglassen eines Stranges Baukosten gespart.

Der Kern des Hualong besteht aus nur 177 Brennelementen gegenüber 241 Brennelementen beim EPR. Aber die lineare Wärmeleistung ist mit 179 W/m2gegenüber 170 W/m2 sogar höher. Auch hier wurde also zur Kosteneinsparung geknautscht. Ebenso ist die aktive Höhe des Kerns mit 3,66 m kleiner als beim EPR mit 4,20 m. Interessant werden die Ergebnisse der thermohydraulischen Vergleichsrechnungen mit ein und demselben Programm sein. Es ist die klassische Frage nach der Optimierung von Kosten und Sicherheitszugewinn die sich hier stellt.

Die Auslegungslebensdauer (nicht zu verwechseln mit der tatsächlichen oder wirtschaftlichen Lebensdauer; sie sind wesentlich höher) wird keck mit 60 Jahren angegeben. Lebensdauer ist aber immer eine Frage der Konstruktion, der verwendeten Materialien und Fertigungsverfahren, der Qualitätssicherung und des Betriebs. Schon die Konstruktion gibt zu denken: Der EPR hat im Druckbehälter einen ca. 30 cm dicken Reflektor aus Stahl, der als Schutzschild für das Reaktordruckgefäß gegen die Bestrahlung mit Neutronen dient. Qualitätssicherung nach europäischen Maßstäben ist die nächste Frage. Man denke nur an das Theater um den Kohlenstoffgehalt im Deckel des EPR von Flamanville. Ein vermeintlicher Kostenvorteil chinesischer und russischer Fertigungsstätten kann schnell in einen Nachteil mit unkalkulierbaren Kostensteigerungen umschlagen, denn man wird weder in Finnland noch GB bereit sein, ein erhöhtes Risiko einzugehen – egal, ob aus mangelnden technischen Fähigkeiten des Herstellers oder systemtypischer Schlamperei.

Der EPR hat einen sog. „Core-Catcher“, der bei einer Kernschmelze verhindern soll, daß der Sicherheitsbehälter zerstört wird. Beim Hualong wird die Grube, in der sich der Druckbehälter befindet, mit „ausreichend borierten“ Wasser geflutet. So soll ein durchschmelzen des Druckbehälters verhindert werden. Nicht verkehrt, kommt aber sehr auf die konstruktive Gestaltung an.

Dem vollständigen Verlust jeglicher äußeren Wärmesenke (Fukushima Störfall) soll durch einen Wassertank oben am Reaktorgebäude begegnet werden. In diesen ringförmigen Tank soll sich der Dampf aus den Dampferzeugern niederschlagen. Dieses Prinzip wurde offensichtlich von den Russen übernommen. Wie hoch der Sicherheitsgewinn sein soll, wird eine probabilistische Fehleranalyse zeigen müssen. Es riecht ein wenig nach „Weißer Salbe“ oder PR-Gag. Gerne wird von den Russen immer ein Generation III+ angeführt – nur hat ein Wassertank auf dem Dach noch wenig mit einem passiven Sicherheitskonzept für schwerste Störfälle zu tun (z. B. AP1000 von Westinghouse oder ESBWR von GE/Hitachi).

Jedenfalls benötigt der Hualong genauso elektrische Energie, wie schon jeder Reaktor der zweiten Generation. Bricht die Stromversorgung komplett zusammen, schmilzt sein Core genauso, wie in den Reaktoren von Fukushima. Alles hängt – wie übrigens auch beim EPR – von einer stets funktionierenden Stromversorgung ab. Der „Sicherheitsgewinn“ beim EPR und seinem russischen Pendant (richtiger ist eigentlich die Strahlenbelastung der Umgebung nach einem Fukushima Störfall) gegenüber einem aktuellen Reaktor in Deutschland, ergibt sich allein aus dem „Core Catcher“. Es wird noch unwahrscheinlicher, daß große Mengen Spaltprodukte auch bei einer vollständigen Zerstörung von Kern und Druckbehälter freigesetzt werden.

Nachtrag

Damit kein falscher Eindruck entsteht, es geht hier nicht um eine Abwertung chinesischer Reaktoren, denn es geht immer um die Abwägung von Sicherheit und Kosten, was letztendlich immer eine rein politische Entscheidung ist. Als deutscher Ingenieur tut man sich etwas schwerer damit, da wir zum Gürtel gern die Hosenträger bevorzugen. Andererseits hat uns genau diese Mentalität vor einem Tschernobyl oder Fukushima bewahrt. Deutschland war immer ganz vorne dabei, wenn es um Risikoanalysen und die Umsetzung der daraus resultierenden Konsequenzen ging.

Darin liegt die eigentliche Tragik: Einschlägig bekannte Politiker haben wieder einmal – diesmal durch ein dubioses „Vorangehen“ – versucht, mit ihrer verdrehten Ideologie die Welt zu beglücken. Die Welt wird sich aber mitnichten von der Kernenergie abwenden. Einigen besonders schlichten Gemütern war es einfach egal. Sollen sich doch ferne Völker „verstrahlen“, wir versorgen unser Bullerbü mit Wind, Sonne und Biokost. Das Aufwachen in der Realität wird heilsam sein: Vielleicht werden ja tatsächlich bald Kernkraftwerke in unseren Nachbarländern neu errichtet, die sicherheitstechnisch bestenfalls dem Standard der Kraftwerke entsprechen, die wir gerade voller Begeisterung abschalten. Ähnlichkeiten mit „Hans im Glück“ sind rein zufällig.

Der Beitrag erschien zuerst bei NUKEKlaus hier