1

Wird sich die globale Abkühlung 2014 fortsetzen?

Bild rechts: WoodForTrees.org – Paul Clark. Weitere Einzelheiten

Man betrachte die Abbildung rechts. Sie zeigt den Temperaturverlauf von Januar 2001 bis 2004 und dann von Januar 2011 bis Januar 2014 nach den Daten von RSS [Satelliten]. Man sieht, dass der linke Punkt im roten Bereich höher liegt als der linke Punkt im grünen Bereich. Das bedeutet, dass der Januar 2001 wärmer ausgefallen war als der Januar 2011. Und wie sich zeigt, war das ganze Jahr 2001 wärmer als das Jahr 2011. Jetzt vergleiche man den rechten roten Punkt mit dem rechten grünen Punkt. Man sieht, dass der rechte rote Punkt höher als der rechte grüne Punkt liegt, der Januar 2004 also wärmer war als der Januar 2014. Welche logischen Vorhersagen kann man daraus ableiten?

 (Jan 2001, Jan 2011); (2001 anomaly, 2011 anomaly);
(Jan 2002, Jan 2012); (2002 anomaly, 2012 anomaly);
(Jan 2003, Jan 2013); (2003 anomaly, 2013 anomaly);
(Jan 2004, Jan 2014); (2004 anomaly, 2014 anomaly?).

Man beachte, dass in den RSS-Daten die zweite Zahl in allen Fällen durchweg niedriger liegt als die erste Zahl. Was kann man an Stelle des * vorhersagen?

(0,101; 0,080), (0,246; 0,143);
(0,359; -0,064), (0,315; 0,187);
(0,440; 0,439), (0,320; 0,218);
(0,311; 0,262), (0,202; *).

Gibt es physikalische Gründe, um den "January Leading Indicator" von Walter Dnes zu erklären? Mit fallen einige ein. Vielleicht hat jemand noch andere Gründe parat.

1. Den Gesetzen der Mittelbildung zufolge sollte die Hälfte aller Januar-Monate über dem jährlichen Mittel und die andere Hälfte unter dem jährlichen Mittel liegen. Weisen mehr Januar-Monate hohe Zahlen auf, werden die End-Anomalien höher liegen als mit einer Anzahl von Monaten mit niedrigeren Zahlen.

2. Wenn also dem zufolge die Anomalie im Januar von 0,4 auf 0,3 zurückgeht, und unter der Annahme, dass die Anomalie im Jahr zuvor ebenfalls 0,4 betragen hatte und mit einer Wahrscheinlichkeit unter 50% für eine Anomalie unter 0,3 im neuen Jahr ist die Wahrscheinlichkeit für eine Anomalie unter 0,4 größer als umgekehrt.

3. Die Januar-Zahl kann so viel höher oder niedriger liegen, dass es 11 Monate normaler Werte bedarf, um den Effekt des sehr hohen bzw. niedrigen Januarwertes auszugleichen. Um es mit einer Analogie aus dem Bereich Sport auszudrücken: Zwei Teams mögen gleich stark sein, aber ein Team bricht in den ersten 5 Minuten ein und liegt danach bereits 3 Tore im Rückstand. Es ist sehr gut möglich, dass die restliche Spielzeit nicht ausreicht, um dieses Defizit auszugleichen. Walter Dnes‘ Methode ist analog der Möglichkeit, den Ausgang eines Spiels bereits nach 5 Minuten vorherzusagen.

4. Bob Tisdale zufolge zeigen sich Auswirkungen von El Nino- oder La Nina-Ereignissen oftmals im Januar, so dass in diesen Fällen offensichtlich ist, warum das restliche Jahr dem folgt.

5. Jeder andere Zyklus wie z. B. die Sonne, die derzeit mit jedem Jahr ruhiger wird, würde automatisch in den Anomalien des Januar reflektiert werden, ebenso wie über das restliche Jahr.

6. Wem fallen noch mehr Gründe ein?

In den folgenden Abschnitten möchte ich die jüngsten Fakten beschreiben. Die Informationen werden in drei Abschnitten dargestellt.

Im ersten Abschnitt wird gezeigt, wie lange in den unterschiedlichen Datensätzen keine Erwärmung mehr erkennbar ist. Im zweiten Abschnitt untersuchen wir, seit wann es in den verschiedenen Datensätzen keine statistisch signifikante Erwärmung mehr gegeben hat.

Im dritten Abschnitt vergleichen wir den Januar 2014 mit dem Januar 2013 sowie den wärmsten Jahren und Monaten jemals. Zusätzlich vergleiche ich auch den Januar 2014 mit dem Januar 2004.

Abschnitt 1

Diese Analyse zieht den jüngsten Monat heran, für den bei WoodForTrees.com (WFT) Daten zur Verfügung stehen. Alle Daten bei WFT sind auch von den spezifischen, unten genannten Quellen abrufbar. Wir beginnen mit heute und gehen zurück bis zum am weitesten zurück liegenden Monat, in dem die Steigung zumindest leicht negativ ist. Falls also die Steigung von September 4 X 10↑-4, von Oktober aber -4 X 10↑-4 beträgt, geben wir den Oktober an, so dass uns niemand vorwerfen kann, unehrlich zu sein, falls wir sagen, dass die Steigung von einem bestimmten Monat an flach verläuft.

In allen im Folgenden gelisteten Datensätzen liegt der erste Monat mit einer zumindest leicht negativen Steigung zwischen 9 Jahre und 1 Monat bis zu 17 Jahre und 5 Monate zurück.

1. Bei GISS ist der Verlauf flach seit November 2001 oder seit 12 Jahren und 3 Monaten.

2. Bei Hadcrut3 ist der Verlauf flach seit August 1997 oder 16 Jahre und 6 Monate.

3. Bei einer Kombination der Daten von GISS, Hadcrut3, UAH and RSS ist der Verlauf flach seit Januar 2001 oder 13 Jahre und 1 Monat.

4. Bei Hadcrut4 ist der Verlauf flach seit Januar 2001 oder 13 Jahre und 1 Monat.

5. Bei Hadsst3 ist der Verlauf flach seit Dezember 2000 oder 13 Jahre und 2 Monate

6. Bei UAH ist der Verlauf flach seit Januar 2005 oder 9 Jahre und 1 Monat.

7. Bei den RSS-Daten ist der Verlauf flach seit September 1996 oder 17 Jahre und 5 Monate. Dieser Datensatz geht also schon über die von Ben Santer genannten 17 Jahre hinaus. (Alle Zählungen jeweils bis Januar).

Nachtrag: Die Anomalie für Februar 2014 ist inzwischen auch eingetroffen, und die Zeit beträgt nunmehr also 17 Jahre und 6 Monate; von September 1996 bis Februar 2014.*

[*In einem Anhang werden diese Punkte für jeden Datensatz extra noch ausführlicher dargestellt. Diese Zusammenstellung habe ich aus Zeitgründen nicht noch einmal übersetzt. A. d. Übers.]

Die nächste Graphik zeigt das oben gesagte. Man betrachte es als Seitenweg-Graphik, in der die Länge der Linien die relative Zeitdauer zeigt, in der die Neigung Null ist. Zusätzlich zeigt die schwankende steigende Linie, wie der CO2-Gehalt in diesem Zeitraum zugenommen hat.

Www.WoodForTrees.org – Paul Clark

Obwohl ich zwei Dinge geplottet habe, zeigt sich links lediglich die Temperaturanomalie.

Die tatsächlichen Zahlen sind an sich bedeutungslos, da alle Linien eine Neigung nahe Null zeigen und die Lage einer jeden Linie lediglich eine Reflexion der Basisperiode ist, aus der die Anomalien für jeden Datensatz stammen. Hinsichtlich des CO2 wurden keine Zahlen genannt. Einige haben gefragt, ob man nicht den Log der CO2-Konzentration plotten könnte. Allerdings liefert WFT diese Option nicht. Die aufwärts gerichtete Steigung der CO2-Konzentration zeigt, dass der CO2-Gehalt während der letzten 17 Jahre zwar kontinuierlich gestiegen ist. Der Verlauf der Temperaturen jedoch ist für verschiedene Zeiträume in verschiedenen Datensätzen flach verlaufen.

Die nächste Graphik zeigt das Gleiche, nur dass diesmal die Trendlinien zusammen mit den Datenpunkten geplottet sind und der CO2-Verlauf weggelassen worden ist.

www.WoodForTrees.org – Paul Clark

Abschnitt 2

Für diese Analyse wurden Daten von der Website Nick Stokes’ Trendviewer herangezogen. Diese Analyse zeigt, wie lange es den Kriterien von Nick zufolge keine statistisch signifikante Erwärmung mehr gegeben hat. Die Daten reichen bis zur letzten Aktualisierung in jedem Datensatz. In jedem Fall liegt die untere Grenze der Fehler-Bandbreite im negativen Bereich, so dass eine Neigung von Null im gezeigten Monat nicht ausgeschlossen werden kann.

In den verschiedenen Datensätzen zeigt sich keine statistisch signifikante Erwärmung in einem Zeitraum zwischen 16 und 21 Jahren.

Die Details für einige Datensätze folgen hier:

UAH: Seit Februar 1996: CI from -0.042 to 2.415
RSS: Seit November 1992: CI from -0.022 to 1.900
Hadcrut4: Seit Oktober 1996: CI from -0.027 to 1.234
Hadsst3: Seit Januar 1993: CI from -0.016 to 1.812
GISS: Seit September 1997: CI from -0.014 to 1.299

Abschnitt 3

Dieser Abschnitt zeigt Daten des Januar 2014 und andere Informationen in Form einer Tabelle. Die Tabelle zeigt die sechs Datenquellen von UAH, RSS, Hadcrut4, Hadcrut3, Hadsst3, GISS. In den Spalten steht Folgendes:

1. 13ra: Endrangfolge 2013 für jeden Datensatz.

2. 13a: Mittlere Anomalie für das Jahr 2013

3. Jahr: Diese Spalte zeigt das wärmste Jahr jemals für den jeweiligen Datensatz. Man beachte, dass zwei Datensätzen zufolge das Jahr 2010 und die übrigen vier das Jahr 1998 als das wärmste Jahr zeigen.

4. ano: Das Mittel der monatlichen Anomalien der in Spalte 3 genannten wärmsten Jahre.

5. mon: In diesem Monat zeigte der jeweilige Datensatz die höchste Anomalie. Die Monate werden durch die ersten drei Buchstaben eines jeden Monats und die letzten beiden Ziffern des jeweiligen Jahres gekennzeichnet.

6. ano: Die Anomalie des Monats aus Spalte 5

7. y/m: Nennt den längsten Zeitraum, in der die Neigung nicht positiv ist, dargestellt in Jahre/Monate. Dabei bedeutet 16/2, dass der Zeitraum 16 Jahre und 2 Monate beträgt, in der die Neigung Null war.

8. sig: Zeigt den ersten Monat ohne statistisch signifikante Erwärmung nach den Kriterien von Nick. Den ersten drei Buchstaben der Monate folgen die letzten beiden Ziffern des jeweiligen Jahres.

9. Jan14: zeigt die Anomalie im Januar 2014 in jedem Datensatz.

10. Jan13: Dito für den Januar 2013.

11. diff: Hier zeige ich lediglich, ob die Zahl des Januar 2014 negativ oder positiv gegenüber der Zahl des Januar 2013 ist. Eine negative Differenz bedeutet, dass 2014 kühler werden wird als 2013 und umgekehrt. Siehe Zeile 1 für den Rang 2013.

12. Jan14: Zeigt eine Wiederholung der Anomalie im Januar 2014 für den jeweiligen Datensatz. Ich wiederhole der Klarheit halber Zeile 9, weil Zeile 12 jetzt mit Zeile 13 verglichen wird.

13. Jan04: Die Anomalie des Januar 2004 für den jeweiligen Datensatz.

14. diff: hiermit kennzeichne ich einfach die Differenz, ob die Zahl im Januar 2014 positiv oder negativ ist im Vergleich zu der Zahl 2004. Eine negative Differenz bedeutet, dass das Jahr 2014 in der Vorhersage kühler ausfällt als das Jahr 2004 und umgekehrt.

15. 04rk: Hier zeige ich die Rangfolge des Jahres 2004 für jeden einzelnen Datensatz.

16. rnk: Dies ist die Rangfolge, die jeder einzelne Datensatz aufweisen würde, falls die Anomalie im Januar 2014 sich das ganze Jahr über fortsetzen würde. Natürlich wird das nicht der Fall sein, aber man betrachte es als eine Aktualisierung alle 5 Minuten in einem Spiel. Wegen der unterschiedlichen Basisperioden ist die Rangfolge aussagekräftiger als die mittlere Anomalie.

Tabelle

Nachtrag: Die RSS-Anomalie für Februar 2014 liegt vor und hat einen Wert von 0,162. Gemittelt mit der Januar-Anomalie von 0,262 ergibt sich 0,212. Dies würde das Jahr 2014 an die 11. Stelle legen, falls es über das Jahr so bliebe.

Welche Schlussfolgerungen kann man nun aus den obigen beiden Differenz-Sätzen ziehen? Im Folgenden gehe ich davon aus, dass die qualitative Vorhersage von Walter Dnes richtig bleibt und die Ergebnisse vorgibt.

UAH: der finale Rang wäre kälter als der 7., aber wärmer als der 12.

RSS: der finale Rang wäre kälter als der 11.

HadCRUT4: der finale Rang wäre kälter als der 11., aber wärmer als der 8*.

HadCRUT3: der finale Rang wäre kälter als der 7., aber wärmer als der 6*

HadSST3: der finale Rang wäre kälter als der 9., aber wärmer als der 6*.

GISS: der finale Rang wäre wärmer als der 6.

*Offensichtlich kann es keine Widersprüche geben. Wie Walter erklärt hatte, gibt es eine Menge Rauschen in diesen Zahlen. Um die wahre Vorhersage zu finden, müssen wir den Rang finden, der am Besten zum Januar 2014 passt. Die Zahlen des Januar 2004 lägen näher an der Linie in Walters Graphiken, so dass sie meiner Meinung nach die zuverlässigsten Schätzungen zeigen. Zu beachten ist dabei, dass meine Zahlen für Version 5.5 von UAH gelten, und ich habe Zahlen für HadSST3, die Walter nicht hatte. Darum kann ich diese nicht kommentieren. Allerdings sieht es so aus, als wäre Walter zufolge eine Abkühlung eher zu erwarten.

Siehe auch folgende Graphik:

www.WoodForTrees.org – Paul Clark

Alle Graphen beginnen beim Wert 0,4 für Januar 2004. Wenn man also sehen will, ob das Jahr 2014 wahrscheinlich wärmer oder kälter ausfällt als das Jahr 2004, muss man auf den Endpunkt, also Januar 2014 schauen, ob dieser unter oder über 0,4 liegt. Diers ist aber nur eine quantitative Schätzung.

Falls jemand alle der jüngsten Anomalien verifizieren will:
http://vortex.nsstc.uah.edu/public/msu/t2lt/tltglhmam_5.5.txt
For RSS, see: ftp://ftp.ssmi.com/msu/monthly_time_series/rss_monthly_msu_amsu_channel_tlt_anomalies_land_and_ocean_v03_3.txt
For HadCRUT4, see: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.2.0.0.monthly_ns_avg.txt
For HadCRUT3, see: http://www.cru.uea.ac.uk/cru/data/temperature/HadCRUT3-gl.dat
For HadSST3, see: http://www.cru.uea.ac.uk/cru/data/temperature/HadSST3-gl.dat
For GISS, see: http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt

Um alle Punkte seit Januar 2013 in Form einer Graphik zu sehen, betrachte man die folgende WFT-Graphik:

www.WoodForTrees.org – Paul Clark

Wie man sieht, beginnen alle Linien an der gleichen Stelle im Januar. Das macht es einfach, den Januar 2013 mit dem Januar 2014 zu vergleichen.

Appendix

Anhang

In diesem Abschnitt werden die Daten für jeden Datensatz getrennt zusammengefasst. [Diese Einzelheiten werden hier nicht übersetzt; siehe Fußnote oben!]

Schlussfolgerung:

Walters Kriterien zufolge scheinen die Hinweise eher gemischt als eindeutig darauf hinzuweisen, ob dieses Jahr Erwärmung oder Abkühlung zeigen wird. Zeitweise sind die qualitativen Anhaltspunkte den Quantitativen Anhaltspunkten entgegengesetzt. Dies zeigt, dass es ganz schön viel Rauschen in den Daten gibt. Alles in allem scheint es aber etwas mehr Hinweise für eine Abkühlung zu geben. Meine Intuition sagt mir, in diesen Fällen der quantitativen Zahl zu vertrauen als den besten Hinweis für die Richtung, in die es gehen wird.

Ich würde sagen, solange sich nicht sehr schnell ein sehr starker El Nino einstellt, ist die Chance auf Erwärmung in diesem Jahr nur sehr gering, und der Zeitraum ohne Erwärmung wird weiter anwachsen. Ebenso wird auch der Zeitraum ohne statistisch signifikante Erwärmung immer länger werden. Oder?

Link: http://wattsupwiththat.com/2014/03/09/will-global-cooling-continue-in-2014-now-includes-january-data/

Übersetzt von Chris Frey EIKE




Groß Britannien: Pläne für Windparks zerfallen nach Beschneidung grüner Subventionen

Bild rechts: Die Entscheidung, Windparks auf Eis zu legen, ist der erste Beweis, dass die Ausbreitung von Windturbinen im ganzen Land zum Stillstand kommt. Photo: PA

Die Entwickler geben Pläne für neue Windparks in UK auf, weil sie sich „finanziell nicht länger rechnen“.

Die Entscheidung, Windparks auf Eis zu legen, ist der erste Beweis, dass die Ausbreitung von Windturbinen im ganzen Land zum Stillstand kommt. Sie folgt einer radikalen und gründlichen Überarbeitung seitens der Regierung der von den Verbrauchern aufgebrachten Subventionen im Wert von über 1 Million Pfund für Windparkbetreiber.

Mit diesen Subventionen wird den Windparks garantiert, dass sie das Doppelte des Marktpreises für den Strom bekommen, den sie erzeugen. Unter dieser neuen Prämisse, die später in diesem Jahr in Kraft gesetzt werden soll, müssen die Unternehmen ihren Strom in das nationale Netz zu einem Preis einspeisen, der dem wettbewerbsbedingten System von Angebot und Nachfrage unterliegt.

Die neue Prämisse wird die Gesamthöhe der verfügbaren Subventionen für grüne Energie begrenzen; zuvor war der Subventionshaushalt nach oben praktisch unbegrenzt.

Die Änderung hat bereits jetzt dazu geführt, dass die Entwickler Pläne für Windparks aufgeben, befürchten sie doch, dass Windparks in Zukunft nicht mehr profitabel sind.

Vorige Woche hat SSE, eines der großen sechs Energieunternehmen, angekündigt, zwei Windparks in Schottland zu streichen, die beide starker Opposition vor Ort ausgesetzt waren.

Die Pläne von SSE sahen ursprünglich vor, eine Anlage mit 27 Windturbinen, jede 400 Fuß hoch [ca. 120 m], bei Dalnessie in Sutherland und weitere 12 Turbinen bei Glen Orrin in Ross-shire zu errichten. Keine der beiden wird jetzt errichtet. SSE sagte, es würde hinsichtlich aller anderen Projekte „von Fall zu Fall“ entscheiden.

Community Windpower, der bereits eine Anzahl Windparks betreibt, hat Pläne für zwei neue Standorte in England aufgegeben – einen für 16 Turbinen, jede 426 Fuß hoch [ca. 130 m] auf einem stillgelegten Fliegerhorst im nördlichen Cornwall und einen anderen mit 10 Turbinen im Forest of Bowland, einer wunderschönen Landschaft in Lancashire.

Beide Unternehmen haben Millionen Pfund in den Systemen versenkt, die über das Planungsstadium hinausgegangen waren. Renewable UK, die Handelsagentur, sagte, dass auch andere Windenergie-Unternehmen vor dem Hintergrund abschmelzender Subventionen zukünftige Projekte noch einmal unter die Lupe nehmen wollen.

Für Campaigner, die sagen, dass Windparks hässlich, teuer und unzuverlässig sind, wird das ein Fest.

Link: http://www.thegwpf.org/wind-farm-plans-tatters-government-cuts-green-subsidies/

Übersetzt von Chris Frey EIKE

Bemerkung: Falls es in D auch dazu kommt, wird es wohl genauso aussehen.




Mehr Reaktionen auf die Studie von Lewis und Crok: Was das IPCC zum Thema Klimasensitivität wusste, uns aber nicht gesagt hat

Starke Worte? Urteilen Sie selbst!

Der Bericht  „Oversensitive—how the IPCC hid the good news on global warming“ wurde kürzlich von der Global Warming Policy Foundation (GWPF) veröffentlicht – einer Denkfabrik in UK, die sich “Sorgen macht hinsichtlich der Kosten und anderer Implikationen von vielen der politischen Maßnahmen, die gegenwärtig mit Hinblick auf die Klimaänderung auf den Weg gebracht werden“.

Der neue GWPF-Bericht kommt zu dem Ergebnis:

Wir glauben, dass der Fünfte Zustandsbericht verfehlt hat, eine angemessene Abschätzung der Klimasensitivität zu liefern, hauptsächlich wegen der Beschränkungen des sich an Klimamodellen orientierenden IPCC-Prozesses – entweder ECS (Gleichgewichts-Klimasensitivität) oder TCR (vorübergehende Klimareaktionen) – welches sicher die wichtigsten Parameter in der Klimadebatte sind. Im Einzelnen findet sich in dem Bericht nichts zu der Divergenz, die sich zwischen Schätzungen von ECS und TCR aufgetan hat, einer Divergenz, die aus eindeutigen gemessenen Beweisen und den in den GCMs enthaltenen Parametern hervorgeht. Folglich sind Politiker über den Stand der Wissenschaft unangemessen informiert worden.

Autoren der Studie waren Nicholas Lewis und Marcel Crok. Crok ist ein freiberuflicher Wissenschaftsautor aus den Niederlanden, und Lewis, ein unabhängiger Klimawissenschaftler, war Autor von zwei wichtigen Studien aus jüngerer Zeit, in denen es um die Gleichgewichts-Klimasensitivität (ECS) geht – das heißt, wie stark die mittlere Temperatur der Erde als Folge einer Verdoppelung des atmosphärischen CO2-Gehaltes steigen wird.

Die Klimasensitivität der Erde ist der wichtigste Klimafaktor bei der Bestimmung, wie stark die globale Erwärmung als Folge unserer Treibhausgasemissionen ausfallen wird (hauptsächlich durch das Verbrennen fossiler Treibstoffe, um zuverlässig billige Energie zu erzeugen). Das Problem jedoch: wir kennen den Wert der Klimasensitivität nicht, was die Projektionen zukünftiger Klimaänderungen – wie soll man sagen – ein wenig spekulativ macht.

Wie zu erwarten war, wurde in jüngster Zeit sehr viel in dieser Richtung geforscht, um besser zu verstehen, was die Klimasensitivität sein könnte. Wir haben diese Forschungen vielfach thematisiert in unserer Reihe von Artikeln, die die neuesten Ergebnisse hierzu beleuchten. Insgesamt ergibt sich aus diesen neuen Forschungen ein ECS-Wert etwas unter 2°C. Der jüngste Beitrag dieser Reihe findet sich hier.

Aber im 5. Zustandsbericht, der im Januar dieses Jahres 2014 veröffentlicht worden ist, hat das IPCC die eminente Bedeutung dieser Sammlung neuer Forschungsergebnisse nur ganz kurz angerissen – dass die Klimasensitivität viel geringer ist als das, was das IPCC in allen seinen früheren Zustandsberichten genannt hat und dass die Rate der Klimaänderung viel geringer ist.

Zum Beispiel liest man im 4. Zustandsbericht 2007 des IPCC zum Thema Gleichgewichts-Klimasensitivität:

Die ECS liegt wahrscheinlich im Bereich zwischen 2°C und 4,5°C mit einer Best Estimate von etwa 3°C; es ist sehr unwahrscheinlich, dass der Wert unter 1,5°C liegt. Werte deutlich höher als 4,5°C können nicht ausgeschlossen werden, aber die Übereinstimmung der Modelle  mit Beobachtungen lässt diese Werte nicht realistisch erscheinen.

In seinem neuen 5. Zustandsbericht hatte das IPCC Folgendes zu sagen:

Die ECS liegt wahrscheinlich im Bereich zwischen 1,5°C und 4,5°C (hohes Vertrauen); es ist extrem unwahrscheinlich, dass der Wert unter 1°C (hohes Vertrauen) und sehr unwahrscheinlich über 6°C liegt (mittleres Vertrauen). Die untere Temperaturgrenze der geschätzten Wahrscheinlichkeits-Bandbreite ist also geringer als die im AR 4 genannten 2°C, aber die obere Grenze bleibt die Gleiche. Diese Abschätzung spiegelt das verbesserte Verständnis, die erweiterte Temperaturaufzeichnung in der Atmosphäre und den Ozeanen sowie neue Schätzungen des Strahlungsantriebs.

Und in Fußnote 16 im AR 5 des IPCC heißt es:

Für die Gleichgewichts-Klimasensitivität kann derzeit kein Best Estimate angegeben werden, weil die Werte der Studien und der Beobachtungen nicht übereinstimmen.

Angesichts der rasant zunehmenden wissenschaftlichen Beweise für eine substantiell niedrigere Klimasensitivität hat das IPCC sich gerade mal dazu durchringen können, die untere Grenze seiner „wahrscheinlichen“ Bandbreite um ein halbes Grad zu erniedrigen. Außerdem hat es abgelehnt, einen Wert als Best Estimate zu nennen und klebt nach wie vor an der hohen Obergrenze der Bandbreite. Was für ein Theater!

Der Grund, warum das IPCC lediglich diese mageren Änderungen machen konnte, war, dass die Sammlung der im IPCC verwendeten Klimamodelle den Hauptteil seiner Projektionen zukünftiger Klimaänderungen ausmacht (sowie zukünftige Auswirkungen der Klimaänderungen) mit einem mittleren ECS-Wert von 3,2°C. Das IPCC konnte nicht gut aufgrund der wissenschaftlichen Beweise zu dem Ergebnis kommen, dass der wirkliche Wert irgendwo unter 2°C liegt – falls es das so gesagt hätte, hätte es die Klimamodelle ungültig gemacht und damit den Gehalt des ganzen Berichtes (das heißt seiner Projektionen der Klimaänderung).

Wir haben die Lage, vor der das IPCC im vorigen Sommer stand (also vor Veröffentlichung der Endfassung des AR 5) folgendermaßen beschrieben:

Das IPCC hat drei Optionen:

1. Runderneuerung des gesamten AR 5 und Neubeginn

2. Veröffentlichung des AR 5 mit einem Statement, das klar macht, dass alle darin beschriebenen Klimaänderungen und deren Auswirkungen wahrscheinlich um etwa 50% überschätzt worden sind, oder

3. nichts tun und die Politiker sowie die ganze übrige Welt in die Irre zu führen.

Wir haben auf Nummer 3 gesetzt. Und siehe da – wie vorhergesagt, hat das IPCC Option 3 gewählt!

Der neue GWPF-Bericht bestätigt detailliert die Wahl des IPCC und die Gründe dafür – nämlich indem die Leser mit einer Sammlung von längst widerlegten Beweisen verwirrt wurden, die auf fadenscheinigen Hypothesen beruhten, nicht direkt anwendbar oder schlicht und ergreifend falsch waren.

Lewis und Crok beschreiben die Lage folglich so, und zwar in netter Form:

Die Autoren des AR5 könnten kein Interesse gehabt haben zu erklären, dass einige Studien besser als andere sind oder zwischen beobachteten und auf Modellen basierenden Beweislinien zu urteilen, aber wir glauben, dass dies genau das ist, worum es in einer Zustandsbeschreibung gehen sollte: nämlich das Nutzen von Expertenwissen, um verschiedene Beweislinien beurteilen zu können. In diesem Abschnitt präsentieren wir vernünftige Argumente für eine andere Zustandsbeschreibung als im AR5.

Lewis und Crok arbeiten sich detailliert durch jede vom IPCC erwähnte Studie zum Thema Klimasensitivität und identifizieren deren Schwächen. Am Ende haben sie eine Sammlung von fünf Studien, die – wenngleich immer noch Unsicherheiten enthaltend – auf dem robustesten Satz von Hypothesen und Messungen beruhen.

Aus diesen Studien ziehen Lewis und Crok folgende Schlussfolgerungen:

Eine neue ‚Best Observational Estimate‘ der ECS kann jetzt berechnet werden, indem man einen einfachen Mittelwert der verschiedenen, auf Beobachtungen basierenden Schätzungen hernimmt … dies ergibt ein Best Estimate von ECS von 1,75°C und eine wahrscheinliche Bandbreite von 1,3 bis 2,4°C. Wenn wir jedoch berücksichtigen, dass Fehler und Unsicherheiten in den zugrunde liegenden Studien größer als zulässig sein könnten und vorwiegend das obere Limit der Bandbreite beeinflussen, schätzen wir die Bandbreite konservativ von 1,25 bis 3,0°C.

Jetzt vergleiche man diese Angaben mit jenen in den AR 4 und 5. Unser Wert von 1,75°C liegt über 40% niedriger als sowohl der Best Estimate von 3°C im AR 4 und dem Mittel von 3,2°C in den GCMs des AR 5. Zumindest genauso wichtig ist, dass die obere Grenze der wahrscheinlichen Bandbreite für ECS von 3,0°C um ein Drittel niedriger liegt als im AR 5 genannt (4,5°C), und zwar selbst dann noch, wenn man es noch viel konservativer macht als impliziert durch die Mittelung der Bandbreiten einer jeden beobachteten Schätzung.

Und was dies für die Projektionen der globalen Erwärmung des IPCC bedeutet, beschreiben Lewis und Crok so:

Die Klimamodelle überschätzen die zukünftige Erwärmung um das 1,7- bis 2-fache relativ zu einer Schätzung, die auf den besten beobachteten Beweisen beruht.

Dies ist eine mächtige und wichtige Schlussfolgerung.

Wir empfehlen, den gesamten Bericht zu lesen. Er ist nicht nur eine verständliche und umfassende Beschreibung der gegenwärtigen Wissenschaft zum Stichwort Klimasensitivität, sondern beleuchtet auch, wie die IPCC-Prozesse funktionieren oder besser nicht funktionieren.

Die Obama-Administration und deren EPA werden diese Realität bis zur Katastrophe ignorieren.

Link: http://wattsupwiththat.com/2014/03/06/more-reax-to-lewis-and-crok-what-the-ipcc-knew-but-didnt-tell-us/

Übersetzt von Chris Frey EIKE




Energie als politisches Druckmittel?

Energie als Handelsware

Prinzipiell sind alle Energieträger ganz normale Handelsgüter. Sie liegen in unterschiedlichen Formen vor: Als Rohstoffe (Erdöl, Kohle, Uran usw.), als Halbfertigprodukte (Diesel, Benzin, „Erdgas“ etc.) und als spezielle Endprodukte (Wechselstrom 50 Hz, Super Benzin, usw.). Analog z. B. zu Kupferbarren, Kupferdraht und einer Spule. Die simple Tatsache, daß Energieträger nicht gleich Energieträger ist, ist bereits eine sehr wichtige Erkenntnis. Je spezieller der Stoff ist, je schwieriger ist er zu ersetzen und je enger werden die möglichen Bezugsquellen. Ein Motor, der für Dieselkraftstoff gebaut ist, braucht auch Dieselkraftstoff. Selbst wenn Benzin im Überfluß vorhanden ist, nützt dies dem Betreiber gar nichts. Anders sieht es z. B. in der Elektrizitätswirtschaft aus. Besitzt man — wie in Deutschland — noch einen Kraftwerkspark aus Steinkohle-, Braunkohle, Gas- und Kernkraftwerken etc., sieht die Lage völlig anders aus. Selbst wenn ein Brennstoff nahezu vollständig ausfällt, muß dies noch lange nicht zu Einschränkung führen. Geht man noch eine Ebene höher, ergibt sich noch mehr Flexibilität. Verringert sich z. B. das Angebot an Erdgas, kann man bewußt den Verbrauch in Kraftwerken einstellen um genug Heizgas zur Verfügung zu haben. Ein ganz normaler Vorgang, wie er jeden Winter üblich ist. Es gibt sogar Kraftwerke, die für mehrere Brennstoffe geeignet sind. Da der Anteil vom Erdgas am Primärenergieverbrauch in Deutschland nur rund 21 % beträgt und allein der Lagervorrat etwa 1/6 des Jahresverbrauches beträgt, braucht keine Panik vor einem „Erdgasboykott“ zu bestehen. Da Russland ohnehin nur etwa ⅓ des Verbrauches liefert, könnten sie gern ihre Lieferungen vollständig einstellen. Deswegen würde hier keine Wohnung kalt bleiben oder eine Fabrik stillstehen. Selbst die Auswirkungen auf die Erdgaspreise dürften gering bleiben, weil viele Verbraucher (vor allem Kraftwerke) auf andere Energieträger ausweichen könnten bzw. andere Lieferanten gern die russischen Marktanteile übernehmen würden.

Der Faktor Zeit

Die Frage, ob man einen Energieträger durch einen anderen ersetzen kann, ist nicht so entscheidend, wie die Zeitdauer die hierfür erforderlich ist. Wobei die Zeitdauer weniger technisch bedingt, als eine Frage der Kosten ist. Besonders unflexibel sind Gaspipelines. Bis man neue Leitungen verlegt hat oder einen angeschlossenen Verbraucher umgestellt hat, können Jahre vergehen. Geht man auf die volkswirtschaftliche Ebene, wird man eher in Jahrzehnten denken müssen. Ein Beispiel hierfür, ist der massive Ausbau der Kernkraftwerke als Ersatz für Ölkraftwerke infolge der sog. Ölkriesen (1973 und 1976).

Für kurzfristige Versorgungslücken ist die Lagerung von Brennstoff ein probates Mittel. Auch hier ist Erdgas die technisch schwierigste und damit kostspieligste Lösung. Brennstäbe für Kernkraftwerke nehmen nur wenig Platz ein und ein Kernkraftwerk läuft ohnehin viele Monate, bis eine Nachladung nötig wird. Steinkohle hat auch eine recht hohe Energiedichte und ist relativ einfach zu lagern. Es war nicht zufällig im alten West-Berlin der Brennstoff der Wahl, zur Absicherung gegen „Berlin-Blockaden“.

Ein weiterer wichtiger Aspekt sind Transportwege und Transportmittel. Öltanker und Massengutfrachter kann man noch auf hoher See umleiten. Bei der heute weltweiten Verteilung von Öl und Kohle ist der Lieferboykott eines Landes oder einer Gruppe von Ländern (OPEC) ein völlig stumpfes Schwert. Im Gegenteil, man weitet diesen Zustand auch immer weiter auf Erdgas aus. Überall auf der Welt, entstehen Anlagen zur Verflüssigung und Rückvergasung von Erdgas. Der neuste Trend dabei ist, solche Anlagen komplett auf Spezialschiffen zu installieren, die gegebenenfalls auch noch flexibel verlagert werden können. Nicht zuletzt Russland, hat diesen Trend schon vor der aktuellen  Krise durch seine Preispolitik und seine Lieferunterbrechungen an die Ukraine enorm beschleunigt. Nur Deutschland hat konsequent auf Pipelines nach Russland gesetzt. All unsere Nachbarn haben bereits Flüssiggasterminals in Betrieb oder im Bau. Es geht halt nichts über wahre Männerfreundschaften, nicht wahr, Gerhard und Vladimir?

Der Faktor Geographie

Energieträger sind — mit Ausnahme von Uran und Thorium — Massengüter. Transportmittel der Wahl, ist deshalb das Schiff. Pipelinenetze lohnen sich wegen der enormen Kapitalkosten nur in Verbrauchsschwerpunkten oder bei sehr großen Feldern. Zumindest übergangsweise, dient auch die Eisenbahn als Transportmittel. Rußland ist zur Zeit (noch) der größte Ölproduzent vor den USA und Saudi Arabien. Anders als diese beiden, verfügt es aber über keine bedeutenden Häfen. Die längste Zeit des Jahres liegen seine Küsten und Flüsse unter einem Eispanzer. Für Rußland sind seine Pipelines in den Westen lebenswichtige Adern. Selbst mit seinem Eisenbahnnetz (Breitspur) hat es sich bewußt vom Rest der Welt abgegrenzt. Verglichen z. B. mit dem Iran, eine fatale Situation bei einem Abnahmeboykott.

Der Faktor Wirtschaft

Russland ist kein Industrieland, sondern spielt eher in der Liga von Nigeria, Venezuela etc. Geschätzt zwischen 70 bis 90 % aller Staatseinnahmen stammen aus dem Export von Öl und Gas. Es gibt praktisch keine russischen Produkte, die auf dem Weltmarkt verkäuflich sind. Die Situation ist noch desolater, als in der ehemaligen „DDR“. Die konnte wenigstens einen Teil ihrer Erzeugnisse über Dumpingpreise auf dem Weltmarkt verschleudern um an Devisen zu gelangen. Selbst der einstige Exportschlager Waffen, ist wegen seiner erwiesenen schlechten Qualität, immer unverkäuflicher. Klassische Importeure sind entweder bereits untergegangen (Irak, Lybien, etc.) oder wenden sich mit grausen ab (Indien, Vietnam usw.).

Rußland hat seine „fetten Jahre“ vergeudet. Während im kommunistischen Bruderland China eine Auto-, Computer- und Mobilfunkfabrik nach der nächsten gebaut wurde, hat man sich in der „Putinkratie“ lieber Fußballvereine im Ausland gekauft. Die Angst vor und die Verachtung für das eigene Volk, scheint unvergleichlich höher. Selbst in den Staaten der Arabischen Halbinsel hat man schon vor Jahrzehnten realisiert, daß die Öleinnahmen mal nicht mehr so sprudeln werden und man deshalb einen Sprung in die industriealisierte Welt schaffen muß. Gerade, wenn man die dort — praktisch in wenigen Jahrzehnten aus dem Wüstensand heraus — geschaffene Infrastruktur und Industrie betrachtet, kann man die ganze Erbärmlichkeit der russischen Oberschicht ermessen.

Was dies für die internationalen Energiemärkte bedeuten könnte

Die Selbstisolation, durch militärische Bedrohung der Nachbarn, erinnert an das Verhalten von Potentaten in Entwicklungsländern kurz vor deren Untergang. Wenn Putin nicht einlenkt, wird man ihn stoppen müssen. Er täuscht sich gewaltig, wenn er glaubt, er könne Teile Europas in den gleichen Abgrund, wie Syrien stürzen. Gerade sein Syrienabenteuer wird ihm in der nächsten Zeit auf die Füße fallen. Er hat sich bei allen Staaten — die zufällig zu den größten Gas- und Ölproduzenten zählen — äußerst unbeliebt gemacht. Für die, dürfte es alles andere als ein Zufall sein, daß gerade die muslimischen Tataren auf der Krim am meisten unter seiner „Ukrainepolitik“ leiden. Es könnte sein, daß dies der berühmte Tropfen ist, der das Fass zum überlaufen bringt. Zumindest in Saudi Arabien ist die Erinnerung an die „brüderliche Waffenhilfe der Sowjets“ in Afghanistan und Putins Vorgehen in Tschetschenien noch sehr lebendig.

Wenn Putin nicht einlenkt, wird man ihn wirtschaftlich unter Druck setzen (müssen). Das kann sehr schnell und sehr schmerzhaft geschehen, ohne daß man überhaupt wirtschaftliche Sanktionen beschließen muß. Man muß nur die russischen Preise für Energieträger unterbieten. Jeder Kontrakt, der Rußland vollkommen verloren geht, reißt ein tiefes Loch, jeder gesenkte Preis, ein etwas kleineres Loch, in die Kassen des Kreml. Jeder Verfall des Rubel verteuert darüber hinaus die lebenswichtigen Importe. Ein faktisches Entwicklungsland wie Rußland, hat dem nichts entgegen zu setzen. Eigentlich sollte gerade Rußland aus dem Kollaps des Sowjetreichs seine Lehren gezogen haben: Als es glaubte, die Welt mit Waffengewalt beherrschen zu können (Einmarsch in das sozialistische Bruderland Afghanistan) nahm Ronald Reagen die Herausforderung an und erschuf den „Krieg der Sterne“. Putin mag als guter Schachspieler gelten, aber die USA sind immer noch die Nation der Poker-Spieler. Putin wird noch lernen müssen, wenn man kein gutes Blatt in den Händen hält und nichts in der Tasche hat, sollte man besser nicht, die wirklich großen Jungs reizen.

Kohle

Die russische Kohleindustrie ist durch und durch marode. Das gilt auch und gerade für das Revier im Osten der Ukraine. Die Produktionskosten sind teilweise so hoch, daß jetzt schon mit Verlusten produziert wird. Demgegenüber hat allein die USA schier unerschöpfliche Kohlenmengen verfügbar. Dies betrifft sogar die Transport- und Hafenkapazitäten. Es ist ein leichtes, den Vertrieb zu intensivieren und sich um jeden russischen Kunden zu bemühen. Man muß nur jeweils etwas unter den russischen Preisen anbieten. Dies wird nicht einmal an den Weltmärkten zu Verwerfungen führen. Der Exportanteil Russlands ist einfach zu gering. Für Russland andererseits, ist jede nicht verkaufte Schiffsladung ein Problem.

Öl

Russland, USA und Saudi Arabien sind die drei größten Ölförderländer. Die USA werden in den nächsten Jahren zur absoluten Nummer eins aufsteigen. Schon jetzt liegen die Preise in den USA (WTI) rund zehn Dollar unter den Preisen in Europa (Brent). Es schwelt schon lange ein Konflikt, um die Aufhebung des Exportverbotes. Ein denkbarer Kompromiß, wäre eine Aufhebung für „befreundete Nationen“ in Europa. Geschieht das, rächt sich die Vernachlässigung der russischen Transportkapazitäten. Die USA können zusammen mit Saudi Arabien die Ölpreise in den klassischen Abnehmerländern Russlands in beliebige Tiefen treiben. Dies gilt vor allem für die hochwertigen Rohöl-Qualitäten. Zusätzlich noch ein bischen Konjunkturabschwächung in China und der russische Staatshaushalt gerät aus den Fugen.

Erdgas

Russland besitzt nach wie vor die größten konventionellen Erdgasreserven. Danach folgen Qatar und Iran. Alle drei sind tief im Syrienkonflikt verstrickt. Alle drei aus dem gleichen Grund, wenn auch auf verschiedenen Seiten. Syrien ist das potentielle Transitland für Erdgas aus dem Golf-Gebiet. Rußland schürt mit allen Mitteln den Krieg, um einen geplanten Ausbau des Pipelinenetzes aus Süd-Irak zu verhindern. Ist das Gas erstmal im Irak angekommen, ist der Anschluß an die südeuropäischen Netze nicht mehr weit. Qatar kann die gemeinsamen Gasfelder mit Iran weiterhin günstig ausbeuten, solange dem Iran mangels Transportkapazität der Absatzmarkt fehlt. Iran verfügt genauso wenig wie Russland, über die Technologie für eine LNG-Kette. Iran bekommt keine Unterstützung, solange es an einer Atombombe bastelt. Russland kann sich (noch) mit Importen der Anlagentechnik aus dem Westen im bescheidenen Maße behelfen.

Allein in den USA befinden sich zwanzig Anlagen zur Verflüssigung und anschließendem Export in der Genehmigung. Der Weltmarkt für Erdgas wird sich in den nächsten Jahren völlig verändern. Deutliches Zeichen sind die Verwerfungen in den Preisen. In Europa sind die Preise derzeit etwa doppelt so hoch, wie in den USA. In Asien sogar drei bis vier mal so hoch. Hauptursache in Asien sind die enormen Importe durch Japan als Ersatz für die abgeschalteten Kernkraftwerke. Sobald Japan wieder seine Kernkraftwerke in Betrieb nimmt — was technisch innerhalb weniger Wochen möglich wäre — werden die Erdgaspreise in Asien mangels Nachfrage deutlich sinken. Es bietet sich dann an, diese Ströme nach Europa umzuleiten. Ausgerechnet die Golfstaaten verfügen über die größten Verflüssigungsanlagen und Transportflotten. Ganz schlecht für Putin, wenn er weiterhin den Krieg in Syrien schüren will und die muslimischen Krim-Tataren erneut vertreiben will. Putin wird sich mit den Gaspreisen zufrieden geben müssen, die ihm die USA und die arabische Welt zugestehen werden. Ein Ausweichen auf andere Kunden ist praktisch nicht möglich. Pipelines lassen sich im Gegensatz zu Tankerflotten zwar abschalten, nicht aber umleiten.

Fazit

Energie ist immer auch Politik. Eine Tatsache, die nach den Erfahrungen der 1970er Jahre mit den sog. „Ölkrisen“ gern wieder verdrängt wurde. In den vergangenen Jahrzehnten gehörte es für jeden Linken (Schröder, Fischer etc.) zu den festen Glaubensgrundsätzen, daß die USA nur „Kriege wegen Öl“ führen. Stets von Schule bis Medien in diesem Glauben geschult, hat man in Deutschland einfach nicht wahrnehmen wollen, welche Veränderungen (gerade) durch Präsident Bush in den USA stattgefunden haben. In einer gigantischen Kraftanstrengung wurde das gesamte Öl- und Gasgeschäft praktisch neu erfunden.

Heute, gilt mehr denn je, der „Fluch der Rohstoffe“. Länder, die über billige Energievorkommen verfügen, aber nicht verstehen, etwas vernünftiges mit den daraus resultierenden Devisenströmen an zu fangen, drohen durch zu viel Geld weiter zu verarmen. Nigeria, Venezuela und Russland sind hierfür typische Beispiele.

Länder, die durchaus energieautark sein könnten (Deutschland z. B. gehört zu den zehn Ländern mit den größten Kohlevorkommen weltweit), können es sich erlauben, „hochwertige Waren“ gegen „billigere Energie“ (volkswirtschaftlich) gewinnbringend zu tauschen. Man — meint zumindest — sogar auf neuere Fördermethoden verzichten zu können (sog. Fracking-Verbot in Deutschland und Frankreich).

Stellvertretend für die Energieversorgung (im Sinne von Energiepolitik) des 21. Jahrhunderts ist die Kernenergie: Der Brennstoff Uran ist überall, preiswert und in beliebigen Mengen erhältlich. Er ist einfach zu lagern. Kernkraftwerke können über Jahre mit einer Brennstoffladung betrieben werden. Die „Kunst“ besteht in der Beherrschung der Technik. Die Ersatzteile, das Fachpersonal und der allgemeine industrielle Hintergrund bestimmen die Versorgungssicherheit. Insofern dürfte sich Russland durch seine Abenteuer in der Ukraine auch aus diesem Geschäftsbereich selbst herauskatapultiert haben.

Zuerst erschienen bei NUKEKLAUS 




Stecken Sie Ihr Altersruhegeld bloß nicht in Grünes, Mrs. Worthington…

Bjørn Lomborg hat vor kurzem mit einer vernichtenden Graphik gezeigt: Wenn Sie durch die Hockeyschläger-Graphik im 3. Zustandsbericht 2001 so geängstigt worden wären, dass Sie 100 Dollar in Grünes investiert hätten, wären Sie jetzt stolzer Eigentümer von immerhin noch 28 Dollar, oder vielleicht inflationsbereinigt noch etwas weniger.

Wären Sie jedoch Moncktons Regel bzgl. profitabler Investitionen gefolgt, die da lautet: Hören Sie sehr sorgfältig zu, was die Regierung Ihnen sagt, tun Sie dann genau das Gegenteil, dann warten Sie ein Jahrzehnt oder so. Hätten Sie also Ihre 100 Dollar in Öl- und Gas-Aktien angelegt, könnten Sie jetzt über 238 Dollar verfügen – und hätten rund 1000% mehr als der unglückselige Investor in Grünes.

Das sind bemerkenswerte Zahlen. Öl- und Gasunternehmen standen und stehen sogar vor immer höheren Steuern und immer strengeren Vorschriften im Namen der Rettung des Planeten. Grünes wurde bis zu einem so absurd hohen Niveau subventioniert, dass es noch über die Subventionen der Kommunisten hinausgeht. Selbst mit den Mühlsteinen hoher Besteuerung, extremer Vorschriften und Hasstiraden von offizieller Seite haben sich Öl- und Gasaktien sehr gut behauptet. Selbst mit einer häufigen Überdosis von Adrenalin in Gestalt von Subventionen der Steuerzahler und Triumphgesängen von Funktionären ist Grünes – wie die Brigade der roten Steigbügelhalter es nennen würden – in die Toilette gespült worden.

Das ist ein bemerkenswerter Kontrast. Nicht der geringste Grund für all das ist, dass alle Formen der sog. „erneuerbaren“ Energie so monströs und unabänderlich ineffizient sind. Gegenwärtig sind mein bevorzugtes Beispiel die saftigen Subventionen der Regierung von UK für neue Elektroautos.

Typische gasgetriebene Automotoren sind zu etwa 27% effizient. Typische fossil betriebene Erzeugerstationen sind zu 50% effizient, der Transport zum Endverbraucher zu 67%, das Aufladen der Batterien zu 90% und der elektrische Automotor zu 90%. Die Treibstoff-Effizienz eines Elektroautos beträgt also – ebenfalls 27%. Allerdings verbraucht das Elektroauto 30% mehr Strom pro Meile, um die Masse seiner Batterien in Bewegung zu setzen.

CO2-Emissionen aus dem heimischen Verkehr machen etwa 24% der Emissionen in UK aus, und Autos, Lastwagen und Taxis repräsentieren 90% des Transportes auf Straßen. Unter der Annahme, dass 80% des Treibstoffverbrauchs durch diese Autos kommt, dann sind ihnen 19,2% der UK-CO2-Emissionen geschuldet. Überträgt man das auf elektrischen Strom, von dem ein Anteil von etwa 61% durch fossile Treibstoffe in UK erzeugt wird, betrügen die CO2-Emissionen in UK noch 7,5%.

Allerdings würde die Last durch die Batterien noch 3,5% der UK-Emissionen ausmachen. Daraus ergibt sich eine Gesamt-Einsparung bei einer Übertragung aller Autos, Lastwagen und Taxis in UK auf Strom von lediglich 4% der UK-Emissionen, die wiederum 1,72% der globalen Emissionen ausmachen. Folglich würde eine Umstellung auf Elektroantrieb aller Autos in UK die globalen CO2-Emissionen um 0,07% verringern.

Aber zu welchem Preis?

Die Kosten für den Steuerzahler in UK durch die Subventionen für die 30.000 Elektro-Fahrzeuge, die im Jahre 2012 verkauft worden sind, belaufen sich auf eine Einheitsrate an Subvention von 8333 Dollar für jedes Fahrzeug und eine weitere Subvention in Höhe von 350 Dollar durch Steuererleichterungen für diese Fahrzeuge, insgesamt also 260,5 Millionen Dollar. Da die Langlebigkeit der Elektroautos um 50% über derjenigen der Verbrennungsmotoren liegt, müssen die Batterien alle paar Jahre komplett zu horrenden Kosten ausgewechselt werden, was den Vorteil der Langlebigkeit wieder zunichte macht.

Die beachtlichen Kosten des Verbrauchs von erneuerbarer Energie, um den Anteil der durch fossile Treibstoffe erzeugten Energie vom globalen Mittel von 67% auf 61% zu senken, sind hierbei nicht berücksichtigt, obwohl man streng genommen einen angemessenen Anteil dieser sehr hohen Subventionen für die Stromerzeugung aus Erneuerbaren den Elektroautos zuordnen sollte.

Im Gegensatz dazu, welche Kosten würden anfallen, wenn man gar nichts tut?

Der Stern-Report über die wirtschaftlichen Folgen der Klimaänderung sagt, dass eine Erwärmung um 3°C in diesem Jahrhundert etwa 0 bis 3% des globalen BIP kosten würde. Nun bekommen wir aber keine Erwärmung um 3°C, nicht einmal annähernd. Also nehmen wir mal einen Wert von 1% des globalen BIP an.

Aber die Kosten für die Beseitigung der globalen Erwärmung durch Methoden, die pro eingesparter Erwärmung um 1°C äquivalent den Kosten der verrückten UK-Subventionen für Elektroautos sein würden, machen etwa 74% des globalen BIP aus. Es ist also 74 mal teurer, heute zu agieren als sich übermorgen anzupassen. Ach herrje!

In Wirklichkeit ist das Kosten-Nutzen-Verhältnis vielleicht sogar noch schlechter. Inzwischen haben sowohl RSS als auch UAH ihre aus Satellitenbeobachtungen abgeleiteten monatlichen Anomalien für den Monat Februar 2014 veröffentlicht. Damit kann man den Vorhersageindex der globalen Erwärmung berechnen, basierend auf dem einfachen Mittel der beiden Datensätze seit Januar 2005.

Der AR5 des IPCC aus dem vorigen Jahr datierte die Modellprojektionen zurück bis zum Jahr 2005. Darin wurde die zentrale Schätzung der globalen Erwärmung während der nächsten 30 Jahre praktisch um die Hälfte zurückgenommen, nämlich von einer Rate von 2,3°C pro Jahrhundert in der Vorversion auf eine solche von 1,3°C pro Jahrhundert in der Endversion.

Aber selbst diese erheblich reduzierte Projektion entfernt sich immer weiter von der nüchternen Wirklichkeit, dass sich der globale Temperaturtrend stabilisiert hat.

Die nachdenklicheren und ehrlicheren Befürworter der offiziellen Linie wissen, dass im Lichte dieser Tatsachen ihre Forderungen nach Nahe-Null-CO2-Emissionen nicht länger haltbar sind.

Und doch fahren sie fort, ihre schrillen Forderungen zu erheben, dass der Westen im Endeffekt sich selbst abschalten soll. Sie tun das aus dem folgenden interessanten Grund. Sie wissen, dass die Theorie der hohen Sensitivität, von der sie sagen, dass sie sich ihrer sicherer denn je wären, Unsinn ist. Sie wissen, dass sich die Welt um vielleicht 1°C in diesem Jahrhundert als Folge unserer Aktivitäten erwärmen wird, und das ist alles, und es ist kein Problem.

Sie wissen auch, dass in nur sieben Jahren das Mittel aller fünf globalen Temperatur-Datensätze keine globale Erwärmung seit 20 Jahren zeigen wird – überhaupt keine. Sie wissen, wenn die CO2-Konzentration weiterhin im derzeitigen Ausmaß zunimmt, wird es für jedermann offensichtlich, dass sie mit ihrem Alarmismus spektakulär, ungeheuerlich und beschämend falsch lagen.

Daraus haben sie die Schlussfolgerung gezogen – wenig überraschend, aber hinterhältig – dass der einzige Ausweg darin besteht zu propagieren, dass die Wissenschaft sogar mehr ‚settled‘ denn je ist und dass die CO2-Emissionen noch schneller als zuvor reduziert werden müssen.

Wenn die globale Temperatur dann nicht weiter steigt – und sie wissen, dass das so sein wird – dann können sie sagen, dass der Stillstand eingetreten ist, weil die CO2-Emissionen stabilisiert werden konnten durch Maßnahmen, nach denen sie so profitabel verlangt haben – und verschweigen, dass der Stillstand ohnehin eingetreten wäre.

Und tatsächlich fangen schon ein oder zwei der schlimmsten Ganoven der globalen Erwärmung an zu behaupten, dass der Stillstand ihr Werk ist. Dabei muss man nur auf die stetig steigende graue CO2-Kurve in der Graphik schauen, um zu erkennen, dass das Unsinn ist.

Allerdings steht der jüngste Tag vor der Tür. Ein Betrugsfall, der drei Kontinente einspannt, wird in aller Stille und sehr sorgfältig zusammengetragen. Wenn die letzten Beweisstücke sorgfältig gesammelt sind, werden ein halbes Dutzend Menschen vor Gericht gestellt; Anklage: ernster, krimineller Betrug durch [absichtliche] Fehlinterpretationen.

Wenn dieser Tag kommt, dann achten Sie auf all die Ratten, die den Bogen dieser hochgradig schädlichen Angstmache überspannt haben, aus Angst, der nächste zu sein, wie sie in ihren Löchern verschwinden. Dann, und erst dann, wird die Angstmache vorbei sein.

Link: http://wattsupwiththat.com/2014/03/06/dont-put-your-pension-into-greens-mrs-worthington/

Übersetzt von Chris Frey EIKE

EIKE Reaktion: Obwohl C. Monckton hier das Beispiel von Groß Britannien durch buchstabiert trifft das 1:1 auch auf Deutschland zu.




Stillstand, welcher Stillstand?

„Die globale Temperatur des Jahres 2013 ist konsistent mit dem langzeitlichen Erwärmungstrend”, sagte WMO-Generalsekretär Michel Jarraud. „Die Erwärmungsrate ist nicht gleichmäßig, aber der zugrunde liegende Trend ist unbestreitbar. Angesichts der Rekordmenge an Treibhausgasen in unserer Atmosphäre wird die globale Temperatur noch viele Generationen lang steigen“, sagte Mr. Jarraud.

Die eine Woche vor der offiziellen Veröffentlichung seitens der WMO vom UK Met. Office genannte WMO-Zahl beträgt 0,5°C ± 0,1. Ich habe seinerzeit gesagt, dass diese Zahl die globale Temperatur am besten beschreibt unter Vorgabe der Unsicherheit von ± 0,1°C. Also dachte ich mir, dass man doch einmal der wissenschaftlichen Praxis folgen könnte, die ich unseren Studenten nahelege, wenn es um Messungen und Fehler geht. Dazu wollte ich die WMO-Daten mit diesem Niveau von Genauigkeit und Präzision plotten.

Wie üblich lag mein Startpunkt im Jahre 1997 aus den Gründen, die schon oft zuvor benannt worden sind. Das heißt, man geht hinsichtlich der Daten vom heutigen Tag zurück zum letzten Datenpunkt, der noch der Null-Trend-Hypothese genügt, und dieser Datenpunkt ist das Jahr 1997. Verwendet man eine übertriebene Temperaturskala, sieht es so aus:

Die Variationen sind statistisch unbedeutend. Dies wird als provozierend angesehen, enthalten die Messungen doch leichte Erwärmungen und Abkühlungen infolge von El Nino bzw. La Nina-Ereignissen. Aber die Daten sehen noch eindrucksvoller aus, wenn man sie so plottet:

Dies zeigt, wie sehr die globale Temperatur konstant geblieben ist, wenn man die Daten der guten wissenschaftlichen Praxis gemäß behandelt. Können Sie den „Stillstand“ sehen?

WMO-Generalsekretär Michel Jarraud zufolge ist die Erwärmungsrate nicht gleichmäßig, was richtig ist, und dass der zugrunde liegende Trend unbestreitbar ist. Doch dies hängt davon ab, wie man die Daten betrachtet.

Man bearbeite die Daten, und sie werden alles bestätigen, was man so sagt; und es gibt Einige, die die Daten nicht nur behandeln, sondern dies auch mit einer bestimmten Berufung im Kopf tun. Eine Analyse aus neuerer Zeit der globalen Temperatur nach 1979 ist hierfür ein gutes Beispiel.

Darin nimmt der Analyst die HadCRUT4-Daten von 1979 bis 1997 und verwendet den daraus berechneten Trend zur Vorhersage, was während der letzten 16 Jahre geschehen wäre, falls sich die Erwärmung fortgesetzt oder angehalten hätte. Obwohl es in dieser Analyse ein Problem mit der Sensitivität des finalen Wertes der Regressionsgeraden gibt bis zum letzten gewählten Datenpunkt und der nicht korrekten Temperatur, die für den „Stillstand“ gewählt worden ist, muss man die interessante Frage stellen, was der Analyst damit bezweckt. Gibt es irgendeinen statistischen Beweis in den Daten nach 1997, dass dort ein Teil des Erwärmungstrends auftritt, der sich in den Daten nach 1979 zeigt?

Die Antwort lautet nein, wie es aus dem fehlenden Trend und der geringen Streuung um eine konstante Temperatur offensichtlich wird. Es ist nicht so, wie Michel Jarraud sagt, dass nämlich „die Rate nicht gleichmäßig verläuft, der zugrunde liegende Trend aber unbestreitbar ist“. Betrachtet man die Daten von 1979 bis 2013, kann man natürlich ohne Weiteres eine gerade Erwärmungslinie durch alle Daten ziehen. Aber irgendetwas passierte 1997/98, das die beiden Abschnitte der Daten statistisch unabhängig voneinander machte.

„Es gibt keinen Erwärmungs-Stillstand!”

Das Climate News Network brachte eine Story über die WMO-Zahlen, die im Wesentlichen aus einer wieder hervorgewürgten WMO-Presseerklärung plus einem Extra-Zitat von Michel Jarraud bestand.

Auszug: Auf die Frage des Climate News Network, wie die WMO zu Behauptungen einiger Kritiker steht, dass es einen „Stillstand der globalen Erwärmung seit 1997 gibt“, antwortete Mr. Jarraud: „Welcher Stillstand? Das kälteste Jahr seit 2001 ist wärmer als jedes Jahr vor 1998… Jede Dekade ist wärmer als die Vorhergehende. Es gibt eine globale Variabilität von Jahr zu Jahr. Man muss auf längere Zeiträume schauen. Falls man das tut, ist die Botschaft über alle Zweifel erhaben… trotz der Tatsache, dass es 2013 keinen El Nino gegeben hat, war dieses Jahr immer noch das sechstwärmste Jahr. Das allein zählt“.

Das Climate News Network hätte dies recherchieren sollen, weil schon den eigenen Daten der WMO zufolge der erste Satz falsch ist. Auch wäre es ein besserer Journalismus gewesen, einen Wissenschaftler zu befragen, der denkt, dass der „Stillstand“ ein reales, wenn auch bislang unerklärliches Ereignis ist. Inzwischen gibt es nämlich viele davon, möglicherweise eine Mehrheit.

Link: http://www.thegwpf.org/standstill-standstill/

Übersetzt von Chris Frey EIKE




USA – „Erneuerbare“ Energie auf dem Rückzug

Im Dezember 2007 erhielt der ehemalige Vizepräsident Al Gore zusammen mit dem IPCC den Friedensnobelpreis für seine Arbeiten zur vom Menschen verursachten Klimaänderung. Seitdem führte er einen internationalen Kreuzzug an, die globale Erwärmung zu stoppen. Im Juni 2008 sagte der Präsidentschaftskandidat Barack Obama, nachdem er eine Mehrheit von Delegierten um sich geschart hatte: „…dies war der Zeitpunkt, von dem an sich der Anstieg der Ozeane verlangsamt hat und unser Planet begonnen hatte zu heilen…“ Klimaaktivisten schauten auf den bevor stehenden Klimagipfel in Kopenhagen 2009 als den nächsten großen Schritt zur Kontrolle von Treibhausgasemissionen.

Der Preis für Rohöl stieg im Juni 2008 auf 145 Dollar pro Barrel. Die International Energy Agency IEA und andere Organisationen erklärten, dass man sich am Peak Oil befand und sagten eine Abnahme der globalen Erzeugung voraus. Viele haben behauptet, dass der Welt die auf Kohlenwasserstoffen basierende Energie ausgehen würde.

Getrieben durch die Zwillings-Dämonen globale Erwärmung und Peak Oil beeilten sich die Regierungen der Welt, Erneuerbare zu unterstützen. Zwanzig Jahre Subventionen, Steuerbefreiungen, Einspeisetarife und Vorschriften führten zu einer Explosion von Installationen erneuerbarer Energie. Der Renewable Energy Index (RENIXX) der 30 weltgrößten Erneuerbaren-Unternehmen stieg über 1800.

Zehntausende Windturbinen wurden installiert, Ende 2012 waren es insgesamt über 200.000 Windmühlen weltweit. Deutschland war führend in der Welt mit über einer Million Solarinstallationen auf den Dächern. 40% der Maisernte in den USA wurde zu Biodiesel verarbeitet.

Aber gleichzeitig war es zu einer unerwarteten Energierevolution gekommen. Unter Verwendung des guten alten Erfindungsreichtums der Yankees entdeckte die Öl- und Gasindustrie in den USA, wie man Öl und Erdgas aus Schiefer gewinnen kann. Mit hydraulischem Brechen und horizontaler Bohrtechnik wurde es möglich, sich riesige Mengen von Kohlenwasserstoff-Ressourcen zu erschließen, und zwar aus Schieferfeldern in Texas, North Dakota und Pennsylvania.

Von 2008 bis 2013 schnellte die Petroleum-Erzeugung in den USA um 50% nach oben. Die Erdgasproduktion in den USA stieg um 34% von einem Tiefpunkt im Jahre 2005. Russland, China, die Ukraine, die Türkei und über 10 Nationen in Europa begannen, Genehmigungen für hydraulisches Brechen zu erteilen. Der Drache von Peak Oil und Peak Gas war geschlagen.

Im Jahre 2009 geriet die Ideologie des Klimatismus’, also des Glaubens, dass die Menschen eine gefährliche globale Erwärmung verursachen, ernsthaft unter Druck. Im November 2009 fand Klimagate statt. Die bekannt gewordenen E-Mails enthüllten Verzerrungen, Manipulationen von Daten, Umgehung der Gesetze zur freien Information und Bemühungen, den Begutachtungsprozess zu unterwandern – alles nur, um die Causa anthropogene Klimaänderung am Leben zu halten.

Einen Monat später endete die Klimakonferenz Kopenhagen mit einem Scheitern, sich auf ein Nachfolgeabkommen des Kyoto-Protokolls zu einigen. Fehlschläge bei den UN-Konferenzen in Cancun (2010), Durban (2011), Doha (2012) und Warschau (2013) folgten. Kanada, Japan, Russland und die USA haben angekündigt, dass sie einem Kyoto-Nachfolgeabkommen nicht beitreten würden.

Wesentliche gesetzgeberische Maßnahmen entfalteten sich auf der ganzen Welt. Cap and Trade scheiterte 2009 im Kongress mit zunehmender Opposition seitens der Republikaner. Der Preis von Kohlenstoff-Zertifikaten im Zertifikate-Handelssystem der EU brach im April 2013 zusammen, als die EU dafür gestimmt hat, den Preis für Zertifikate nicht zu stützen. Die Australier haben mit Premierminister Tony Abbot im Herbst 2013 einen Präsidenten gewählt, der mit seiner Plattform verprochen hatte, die Kohlenstoffsteuer in seinem Land wieder abzuschaffen.

Die Europäer entdeckten, dass die Unterstützung in Gestalt von Subventionen für Erneuerbare nicht nachhaltig war. Subventionsverpflichtungen in Deutschland stiegen 2013 in Deutschland über 140 Milliarden Dollar und in Spanien über 34 Milliarden Dollar. Die Subventionen führten zu den höchsten Stromerzeugerpreisen in Dänemark und Deutschland. Strom- und Erdgaspreise in Europa stiegen auf die doppelte Höhe als in den USA.

Besorgt wegen aufgeblähter Haushalte, abnehmender industrieller Wettbewerbsfähigkeit und Gegenreaktionen der Bevölkerung haben sich die europäischen Nationen während der letzten vier Jahre allmählich von grüner Energie zurückgezogen. Spanien hat 2009 die Solarsubventionen gekippt, und die Verkäufe von Photovoltaik fielen um 80% in nur einem einzelnen Jahr. In Deutschland wurden 2011 und 2012 die Subventionen gekürzt, und die Anzahl der Arbeitsplätze in der deutschen Solarindustrie fiel um 50 Prozent. Hinzu kamen Subventionskürzungen in der Tschechischen Republik, Griechenland, Italien, den Niederlanden und UK. Der RENIXX, also der Erneuerbare-Energien-Index fiel 2012 unter 200, das waren 90% weniger als der Spitzenwert 2008.

Einst führend bzgl. Klimaänderung wandte sich Deutschland nach der Entscheidung aus dem Jahr 2012, die Kernkraftwerke zu schließen, der Kohle zu. Kohle erzeugt jetzt 50% des deutschen Stromes, und 23 neue Kohlekraftwerke sind in der Planung [in Deutschland? Stand das in der Zeitung? A. d. Übers.]. Die globale Energieerzeugung aus Kohle ist um 4,4 Prozent pro Jahr während der letzten zehn Jahre gestiegen.

Die Ausgaben für Erneuerbare sind weiter auf dem Rückzug. Bloomberg zufolge erreichten diese Ausgaben 2011 ihren höchsten Stand mit 318 Milliarden Dollar. 2012 gingen diese Ausgaben auf 280 Milliarden Dollar und 2013 auf 254 Milliarden Dollar zurück. Den größten Rückgang gab es in Europa, wo die Investitionen im vorigen Jahr um 41 Prozent eingebrochen sind. Die im vorigen Jahr ausgelaufenen Steuervorteile für die Erzeugung von Windenergie werden den Abwärtstrend weiterführen.

Heute decken Wind und Solar weniger als 1 Prozent der globalen Energie. Während diese Quellen vielleicht noch wachsen, werden sie wahrscheinlich auch noch Jahrzehnte lang nur einen winzigen Bruchteil der Weltenergie erzeugen. Der Output aus Erneuerbaren könnte seinen Zenit überschritten haben, zumindest als Prozentanteil der globalen Energieerzeugung.

Steve Goreham is Executive Director of the Climate Science Coalition of America and author of the book The Mad, Mad, Mad World of Climatism:  Mankind and Climate Change Mania.

Link: http://wattsupwiththat.com/2014/03/01/renewable-energy-in-decline/

Übersetzt von Chris Frey EIKE




Vulkane und der ‚Stillstand’

Nun würde man denken, beispielsweise nach der Lektüre des Guardian, dass dies ein klares Ergebnis ist, und sie zitieren den Mitautor der Studie Carl Mears mit den Worten: „Wir waren in der Lage zu zeigen, das ein Teil der Ursachen des jüngsten Stillstands der Erwärmung die große Anzahl kleinerer Vulkanausbrüche während der letzten 15 Jahre ist“. Schaut man sich die Studie näher an, ist sie wirklich faszinierend, jedoch längst nicht so eindeutig, wie der Guardian und andere berichten. Alles in allem ist das unordentliche Klimawissenschaft.

Zunächst betrachte man diese Graphik aus einer Präsentation der letzten Zeit. Sie zeigt die optische Tiefe oder Transparenz der Atmosphäre. Die Auswirkungen von vulkanischen Aerosolen nach den Ausbrüchen von El Chichon und Pinatubo sind eindeutig erkennbar, haben sie doch Sonnenlicht reflektiert und die Temperatur der Erde gekühlt. Aber man betrachte den Zeitraum nach dem Jahr 2000. Der Verlauf ist bemerkenswert flach. So flach, dass tatsächlich viele Wissenschaftler, die auch das Fehlen der Einwirkung vulkanischer Aerosole sehen, dies als „Hintergrund“-Ereignis bezeichnen, das ein Grundniveau atmosphärischer Transparenz zeigt – ein Referenzniveau, von dem aus man andere Variationen messen kann.

Santer et al. (2014) weisen darauf hin, dass es seit 1999 zu 17 kleinen Ausbrüchen gekommen war, über 50% davon in den Tropen (wobei man davon ausgeht, dass dort die Auswirkungen der Aerosole stärker zu Buche schlagen als in höheren Breiten). Um ihren Einfluss auf die Temperatur der unteren Atmosphäre zu untersuchen, nehmen sie diese und bereinigen sie von den ENSO-Effekten und den Folgen der Ausbrüche von El Chichon und Pinatubo. Sie sagen, dass dies das interne Rauschen reduziert, so dass sich kleinere Vulkanausbrüche besser untersuchen lassen.

Ihre Abbildung 1 zeigt Temperatur-Rohdaten (a), dann ohne El Nino (b) und ohne die großen Vulkanausbrüche (c). Betrachtet man 1c, sieht man, dass die untere Atmosphäre seit 1993 einen Stillstand zeigt, das heißt also 20 Jahre! Allein schon dadurch ist das eine bemerkenswerte Graphik, die den ‚Stillstand‘ nunmehr ins dritte Jahrzehnt seines Auftretens erweitert.

Sie sagen, dass die vulkanischen Effekte mit der optischen Tiefe der Atmosphäre korreliert sind. Man betrachte ihre Abbildung 2a, die Änderungen der beobachteten optischen Tiefe stratosphärischen Aerosols (SAOD) im Zeitraum 2000 bis 2012 zeigt, zusammen mit den vielen Vulkanausbrüchen während jenes Jahrzehnts. Nun weiß ich, dass man durch fast jeden Datensatz eine gerade Linie ziehen kann, aber ich frage mich, ob eine gerade Linie eine gute Repräsentation der Daten darstellt. Genauso zeigt ihre Abbildung 2b die kurzwellige Strahlung bei klarem Himmel an der Obergrenze der Atmosphäre. Sicher gab es um das Jahr 2002 eine Delle, aber rechtfertigt deren Auftreten wirklich einen dekadisch steigenden Trend? Ich bezweifle auch, dass irgendeine Korrelation zwischen der SAOD und den Daten an der Obergrenze der Atmosphäre besteht, wenn man aus den atmosphärischen Temperaturmessungen den El Nino entfernt.

Schaut man nach einer in der Studie genannten Referenz für die behauptete Änderung der optischen Tiefe der Atmosphäre, findet man dies. Zeigt die global gemessene SAOD wirklich eine jährliche Zunahme um 4 bis 7% zwischen 2000 und 2009? Sicher gibt es Änderungen, aber sind diese linearer Natur? Ich glaube, dass der Trend des globalen stratosphärischen Aerosols spekulativ sein muss.

Alles in allem zeigt diese Studie, dass Vulkane einen geringen oder marginalen Effekt haben und in vielen Fällen etwa den gleichen Effekt wie das Rauschen im Datensatz der globalen Temperatur der letzten 15 Jahre. Sie kommt zu dem Ergebnis, dass das Verhältnis zwischen Simulationen der globalen Temperatur und den aktuellen Beobachtungen um 15% geringer ist, obwohl es große Unsicherheiten hinsichtlich der Größenordnung dieser Effekte gibt.

Formal stimmt es, dass das Einbeziehen der Vulkane bedeutet, dass die Modelle besser in der Lage sind, die beobachtete Temperatur abzubilden, wenngleich das auch nicht allzu viel bringt. Es gibt so viele andere Faktoren, die man mitbetrachten muss und die Unsicherheiten einbringen, die sich zu der Ungenauigkeit der Modelle hinsichtlich der Erklärung des ‚Stillstands‘ addieren. Aber der Guardian behauptet trotzdem, dass die Modelle richtig sind, Punkt.

Link: http://www.thegwpf.org/volcanoes-20-year-pause/

Übersetzt von Chris Frey EIKE




Grünsprech in der Wirtschaft: Kapitalvernichter werden zu Vorbildern ernannt.

Nicht weil die NIE so billig und so gut erzeugt werden, wie ihre Konkurrenten das können, sondern weil der Staat deren Besitzern für  jeder beliebige Menge für zwanzig Jahre massiv überhöhte Preise garantiert. Diese überhöhten Kosten werden durch die EEG Umlage auf den Verbraucher umgelegt.  Und der auf diese Weise oft vorbei am Bedarf  produzierte Strom genießt zudem das Privileg der Vorrangeinspeisung. D.h. er muss immer dann wenn der Wind weht, oder die Sonne scheint abgenommen werden.

Das daraus resultierende Überangebot treibt die Strompreise an der Börse in den Keller. Mit der Konsequenz, dass sich konventionelle Stromerzeugung nicht mehr rechnet.  Statt nun konsequent die sofortige Abschaffung dieser wettbewerbsverzerrenden Schnapsidee der Stromerzeugung durch „Erneuerbare“ zu fordern, ist sich der Chef des Unternehmens RWE Peter Terium nicht zu schade öffentlich zu bedauern, dass man nicht schon früher in diese Kapital -Vernichtungstechnologie eingestiegen sei.  Und plappert damit nach, was die  Grünen aller Parteien, zuvorderst deren Propagandabteilung Greenpeace, den Journalisten in die Federn diktierte. Wer wird da nicht an die berüchtigten Stalinschen Schauprozesse erinnert, wie sie z.B. Arthur Koestler so beklemmend beschrieben hat. Das Opfer bekennt sich als Täter, der eine "gerechte" Strafe erbittet. 

Obwohl Terium zuvor im Konzern als Vorstand fürs Controlling zuständig war, ist ihm wohl entgangen, dass fast alle Firmen, die sich im Subventionsmeer der „Erneuerbaren“ tummelten von den Aktionärsschützern zu den größten Kapitalvernichtern gezählt wurden.

„Energiewende wird zum eiskalten Kapitalvernichter“ titelte jüngst die Welt. Und schreibt weiter Ganz oben stehen dabei Solar- und Windkraftanlagenbauer. Aber auch fünf Dax-Konzerne gehören dazu.“ Von den 50 deutschen größten Kapitalvernichtern kommt rund ein Viertel aus der Solar- und Windkraftbranche. Darunter eben auch RWE.

Denn auch das RWE eigene Engagement in das Windgeschäft brachte trotz reichlicher Unterstützung durch den Steuerzahler nicht das gewünschte Ergebnis. „Gemeinsam mit Partnern versorgt [RWE] Innogy 2,5 Millionen Haushalte mit grünem Strom." versucht Terium die Situation schön zu reden.

Das Manager Magazin schreibt zu diesen „Erfolg“: Ganze 196 Millionen Euro betrug das betriebliche Ergebnis der Ökosparte. Auf das Ergebnis des Gesamtkonzerns bezogen sind das beinahe lächerliche 3,33 Prozent. … und schreibt weiter: Selbst die 196 Millionen Euro Gewinn von Innogy hinterlassen einen faden Beigeschmack: Um die Kapitalkosten zu decken, müsste die Tochter eigentlich 300 bis 400 Millionen Euro erwirtschaftenDie letzte Hoffnung heißt nun Sigmar Gabriel. Der Bundeswirtschaftsminister soll einen künstlichen Markt für Back-up-Kraftwerke einrichten, die im Notfall einspringen. RWE soll auf diese Weise gerettet werden, damit der Konzern die Energiewende retten kann, quasi als Kaltreserve der Nation – so die vage Aussicht.

Nun, der hat bisher seinen Orwell gut gelesen und interpretiert ihn immer wieder neu in flüssigen Sätzen. Dem wird sicher auch dazu noch was einfallen. Zu Lasten der Verbraucher, versteht sich.




Der grüne Blackout – Das neue Buch von FOCUS Redakteur Alexander Wendt zur Energiewende

Sicher, es gab schon immer Spinner, die Wunderwaffen, oder Wunderenergien z.B. im Perpetuum Mobile entdeckt zu haben glaubten. Doch die bekannt nüchterne, deutsche Ingenieurs- und Finanzwelt machte bisher diesen Wundergläubigen und ihren Anhängern immer schnell klar, dass sie nicht mit einer Verwirklichung ihrer Schnapsideen rechnen können.

Das änderte sich erst, als mit der Kirche der globalen Erwärmung eine neue – „wissenschaftlich“ gesicherte- Religion weltweit verkündet wurde. Und die fand besonders in Deutschland mal wieder schnell viele und tiefgläubige Anhänger. Wie schon G.K. Chestertons Pater Brown scharfsinnig beobachtete, glauben Menschen, die nicht an Gott glauben, nicht etwa an gar nichts, sondern an alles Mögliche.

Plötzlich wurden wieder Wunder, als durch die Politik befehlbar, beherrschbar und zur Regel erklärt, z.B. dass Wind und Sonne zur Energieerzeugung für ein führendes Industrieland taugten. Und viele, viele glaubten diesen Erzählungen. Zumal auf diese Weise auch noch der in hundert Jahren angekündigte Hitzetod der  Welt vermieden werden könnte.

Das erkennend machten sich vier gläubige Politiker ans Werk – zwei von den Sozen und zwei von den Grünen und erfanden das Erneuerbare Energiengesetz (EEG). Schon dessen Name zeigt die tiefe Religiösität der Gesetzeschreiber, denn dass Energie nicht „erneuerbar“ ist, wissen wir anderen schon seit Anfang des 19. Jahrhunderts. Diese Gläubigen waren allerdings sonst mit allen Wassern gewaschene politische Strippenzieher, nämlich die SPD Solar-Aktivisten Hermann Scheer und Dietmar Schütz sowie von den Grünen Michaele Husted und Hans Josef Fell.

Sie erfanden im Hinterstübchen ein Gesetz, dass in verklausulierter Form, die Geschichte vom indischen Maharadscha mit dem Schachbrett, welches mit allen Weizenkörnern der Welt -weil exponentiell pro Karo an Zahl zunehmend- nicht gefüllt werden kann, neu und gossen sie in Gesetzesform. Wie damals bemerkten die damit konfrontierten Herrschenden nicht, welche zerstörerische Kraft sie damit entfesselt hatten und lösten die größte Umverteilung von unten nach oben aus, die dieses Land je erlebt hatte.

Und wohlgemerkt: Es waren zwei Grüne und zwei Rote, die dieses Gesetz der Umverteilung von unten nach oben erfanden und seine Einführung organisierten.  Da tröstet es auch nur wenig, dass das EEG bis heute in über 60 Staaten vollständig oder in Teilen übernommen wurde, wie einer der Schöpfer H.J. Fell jüngst stolz bemerkte. Dummheit ist eben kein Alleinstellungsmerkmal deutscher Regierungen.

Wendt berichtet dann, dass z.B. Fell bestätigt, dass das EEG weder in einem Wahlprogramm noch in der damaligen Koalitionsvereinbarung auftauchte, also praktisch aus dem Dunkel kam; und dass der damalige parteilose Wirtschaftsminister Werner Müller sich in dem Buch damit zitieren lässt, er habe vor allem die Solarförderung für viel zu hoch und Solaranlagen generell für ungeeignet in Deutschland gehalten: "Deutschland ist nun mal kein Sonnenland."

Doch keiner der damals Zustimmenden aus der Regierung befand es für bedeutsam genug, um sich mit diesen "Peanuts" länger aufzuhalten und zuvor wenigstens auf dessen katastrophale Folgen zu überprüfen. Es sollte und musste eine bestimmte rot-grüne Klientel bedienen. Und wurde unter Ablage „Gedöhns“ vom Kabinett durchgewinkt und vom Parlament mit Mehrheit beschlossen.

Nun steckt das Land dank Energiewende in einer tiefen Krise: Regierungspolitiker räumen mittlerweile ein, dass kaum etwas in dem deutschen Musterschülerprojekt nach Plan läuft. Millionen Stromkunden bringen mehr als 20 Milliarden Euro an jährlichen Subventionen auf, während nur wenige profitieren. Das grüne Jobwunder fand nur in Prognosen statt. Und zur Kohlendioxid-Reduzierung trägt die Ökoenergie erst recht nichts bei. 

„Der Grüne Blackout“ von Alexander Wendt zeigt: Die Energiewende scheitert nicht an ihren vermeintlichen Feinden – sondern an ihrem Wunderglauben. Wunder geschehen in der Realität eben nicht. Und wenn doch, dann nicht per Gesetz

Das politische Großprojekt, auch von der Physikerin Angela Merkel mit Begeisterung fortgesetzt und zur "Energiewende" verklärt, droht zum größten politischen und wirtschaftlichen Desaster der Bundesrepublik zu werden. Es bescherte Deutschland bisher die zweithöchsten Strompreise Europas, eine Planwirtschaft nach osteuropäischem Vorbild und eine beginnende aber sich schnell beschleunigende Deindustriealisierung. Und das, obwohl die bis in Jahr 2050 geplante Wende noch am Anfang steht.

In seinem Buch “Der grüne Blackout” geht Alexander Wendt Fragen nach, die sich inzwischen viele stellen:

•   Warum steigt der Strompreis seit Jahren, gegen alle Prognosen? Wie konnten sich Politiker und Fachleute derart kollektiv irren? Und: welche Endsumme steht auf der Rechnung, wenn der Ökostrom irgendwann die deutsche Energieversorgung dominiert?

•   Warum steigt der Kohlendioxidausstoß Deutschlands seit Jahren, obwohl die Energiewende damit begründet wird, der Kohlendioxidausstoß müsse sinken?

•   Warum sind die Millionen grünen Jobs nie entstanden? Warum kämpfen stattdessen die Reste der  deutschen Solarbranche ums Überleben?

•   Wie konnte es passieren, dass selbst tausende Windkraftinvestoren trotz der üppigen Subventionen Geld verlieren?

Und: Wenn so viele zu den Verlierern gehören – wer profitiert dann eigentlich?

Die real existierende Energiewende jedenfalls kann nicht funktionieren. Und das liegt nicht an ein paar falsch justierten Stellschrauben. ”Der grüne Blackout” zeigt: Es liegt an ihrer Konstruktion.

An ein paar Stellen des Buches z.B. wenn er das Beispiel der Vulkaninsel Island beschreibt, betont der Autor, dass nur dann ein "Wunder" geschehen könnte, wenn natürliche besondere Bedingungen verfügbar sind, die über Erfolg oder Misserfolg einer alternativen Energieversorgung entscheiden. Auch wird erst später klar, dass der Titel „Der grüne Blackout“ nicht unbedingt den realen Blackout meint, sondern den in den Köpfen der Befürworter dieses zerstörerischen Unsinns. Aber das sind kleine Fische im Vergleich zum Erkenntnisgewinn, den auch der erfahrene Leser aus dem Buch haben wird.

Das Buch sorgt für Durchblick. Wer in der Energiewende-Debatte mitreden will, der findet in dieser hoch aktuellen Recherche eine Fülle von unentbehrlichen Fakten, Analysen und Antworten.

Den „Grünen Blackout“ gibt es ab 10. März als E-Book Bundle in den Formaten PDF, EPUB und MOBI für 2,99 Euro auf der Website von Alexander Wendt. (Oder auf Amazon).




Münchner Rück – Ein Dax-Vorstand und die Klimagerechtigkeit – Ein merkwürdiger Aufsatz in der FAS

„Wo bleibt die Klimagerechtigkeit?“

lautet deshalb schon in der Überschrift die Frage auf Seite 22 im Wirtschaftsteil der Frankfurter Allgemeinen Sonntagszeitung und sie wird von keinem geringeren gestellt als von Nikolaus von Bomhard, dem Vorstandvorsitzenden einer der größten Rückversicherungsgesellschaften der Welt, der Münchner Re. Wenn das kein Kulturwandel ist ? Jetzt fordert schon einer der höchstbezahlten Bosse der Finanzwirtschaft mehr Gerechtigkeit, wenn auch nur für das Klima. Aber wer weiß, was sich daraus noch alles entwickeln kann. Je öfter ich den Artikel gelesen habe, umso verwirrter war ich, fielen mir immer mehr Widersprüche auf. Da geht doch einiges kreuz und quer, so dass ich zu einem vorsichtigen Schluss komme: Dieses Elaborat muss ein Hilfsreferent geschrieben haben, denn dass sich ein Topmanager auf soviel Ungereimtes beruft und vielleicht auch noch daran glaubt, kann ich mir einfach nicht vorstellen, denn das würde ein verheerendes Licht auf die Qualität der Vorstandsetagen werfen.

„Der Klimawandel beflügelt die Migration“ ist die dick gedruckte Hauptüberschrift. Das ist nun wirklich eine Binsenwahrheit, die wir aus den Geschichtsbüchern wissen. Die Wanderungen der Germanen aus den Weiten Eurasiens nach Westeuropa werden mit massiven Klimaveränderungen begründet. Die Hinweise auf Hochkulturen, die in der Sahara gefunden werden, lassen darauf schließen, das Nordafrika einst ein mildes, menschenfreundliches Klima hatte. Diese Liste lässt sich lange fortsetzen. Die für uns alle noch nachvollziehbare Wanderungswelle am Anfang des 19. Jahrhunderts von Europa nach Amerika hing mit einer langen verheerenden Kältewelle zusammen, bei der in Deutschland Hunderttausende und in Irland fast zwei Millionen Menschen verhungerten.

„Arme sind von Naturkatastrophen besonders betroffen. Oft bleibt ihnen nichts anderes übrig, als abzuhauen“, ist eine weitere Feststellung, mit der der Artikel überschrieben ist. Während der erste Teil dieser Aussage uneingeschränkt stimmt, beschreibt die Schlussfolgerung zumindest zurzeit nicht die Realität. Das Erdbeben in Haiti und die Auswirkungen des Tsunami für die Provinz Aceh auf Sumatra, haben jeweils über Hunderttausende in großer Armut lebende Völker betroffen. An den Ursachen, den schweren Erdbeben kann der Mensch nichts ändern. Aber die Folgen für die Betroffenen können durch technische und wirtschaftliche Hilfen der wohlhabenden Nationen gelindert werden. Zu großen Auswanderungswellen haben beide Katastrophen nicht geführt. Die Flüchtlingsströme, die von Süd nach Nord unterwegs sind, werden von Menschen angetrieben – von skrupellosen Diktatoren wie Simbabwes Mugabe oder Syriens Assad. Die Unterdrückung und Misswirtschaft in Eritrea, Somalia, Äthiopien, dem Sudan und vielen mehr treibt die Bevölkerung in die Arme der Menschenhändler, die sie nach Europa schleusen. Aber wer sollen die 25 Millionen Flüchtlinge sein, die 2005 durch Klimakatastrophen zum Verlassen ihrer Heimat gezwungen wurden und von denen Nikolaus von Bomhard schreibt?

Der Boss dieser mächtigen Versicherung beruft sich auf den Weltklimarat, den IPCC, der behauptet, dass ein sich wandelndes Klima in vielen Regionen zu veränderten Wetterextremen führen wird. Ich bin über von Bomhards Gutgläubigkeit erstaunt. Deshalb einige Hinweise: Der Weltklimarat schreibt: das Klima wird sich ändern – also von einem Zustand, der erst eintreten wird. Wieso hatten wir dann 2005 schon 24 Millionen Klimaflüchtlinge?

Der Weltklimarat und seine 2007 veröffentlichte „Klimabibel“ ist alles andere als eine zuverlässige Quelle. Ich rate Herrn von Bomhard dringend die Untersuchung der kanadischen Journalisten Donna Laframboise zu lesen. Sie hat mit über 40 Kollegen die über 18 000 Gutachten des Weltklimarates überprüft, die laut eigener Aussage von den besten Wissenschaftlern der Welt verfasst und zertifiziert wurden. Dabei kam heraus, dass über 5000 Arbeiten von Umweltaktivisten ohne wissenschaftliche Überprüfung übernommen wurden, dass der Weltklimarat seine eigenen Standards nicht einhält und dass die politischen Zusammenfassungen in vielen Fällen mit den wissenschaftlichen Ausführungen nichts zu tun haben. Wohl aber ist der Weltklimarat, ähnlich wie der Club of Rom, immer gut, wenn es um den drohenden Weltuntergang geht.

Auf der einen Seite stellt Nikolaus von Bomhard fest, dass es letztlich keine Rolle spielt, ob natürliche Klimaschwankungen oder anthropogene Einflüsse für das Wetter- und Klimageschehen verantwortlich sind, die die Lebensgrundlagen für Millionen Menschen wegbrechen lassen, aber auf der anderen Seite behauptet er, die Wetterkatastrophen hätten in den vergangenen Jahrzehnten global stark zugenommen. Dabei schwingt immer mit, dass der Mensch, vor allem die Industriestaaten für diese Wetterkapriolen die Verantwortung tragen. Seine Sympathien für eine UN-Klimakonvention und einer Fortführung des Kyotoprotokolls sind nicht zu übersehen. Aber der Artikel bleibt merkwürdig diffus, außer, dass am Ende mehr Klimagerechtigkeit gefordert wird.

Er schreibt, dass die Wetterkapriolen zunehmen. Nach dem Hurrican Katharina, der New Orleans verwüstet hat, erzählten uns die Klimakatastrophler, dass dank der Treibhausgase und der Erderwärmung die Zahl der Hurrikans und Taifune zunehmen würden. Aber nichts passierte. Drei Jahre lang fiel die Hurrikan-Saison aus. Nach dem Monstersturm Haiyan, der Tacloban in den Philippinen verwüstete, lautet jetzt die Voraussage: Es wird weniger, dafür aber umso heftigere Stürme geben. Auch dafür gibt es in den langjährigen Aufzeichnungen keinen Beleg. Nur die Berichterstattung ändert sich: Jeder Taifun und Hurrikan wird mit Sondersendungen begleitet oder wie Sturm „Xaver“ an der deutschen Nordseeküste im Herbst zu einem Monster aufgebaut, dass dann keines war, aber im Bewusstsein der Fernsehzuschauer ganz schön gruselig daher kam.

Trotz unseres schlappen Winters 2013/2014 verzeichnet die Welttemperatur seit 1998, also seit 16 Jahren eine leichte Abkühlung – und das trotz steigendem Ausstoß von Treibhausgasen. Im letzten Jahr ist die Schadenssumme der Münchner Re deutlich geringer gewesen, als im Jahr zuvor. Warum also diese Aufregung? Ist es wirklich die Sorge für eine Welt, die wegen zunehmender Klimakatastrophen in unlösbare Konflikte gestürzt wird, die den Versicherungsboss motiviert hat, einen Vortrag bei der 50. Sicherheitskonferenz in München über Klimagerechtigkeit zu halten, der in Auszügen Grundlage für den Artikel in der FAS ist? Oder treibt ihn doch mehr das Geschäftsfeld „Wetterderivate“, das die Münchner Re ausbauen will, wie die Versicherung in einer Pressemeldung verkündete, um dabei zusätzliche Risiken und Branchen zu erschließen. So entpuppen sich die Anlagen für „Erneuerbare Energien“ durchaus als Möglichkeit neue Verträge abzuschließen: zum Beispiel eine Versicherung gegen unzureichende Wind- oder Sonnenstrahlung.

Mir kommt es so vor, als habe ein PR-Berater seinem Vorstandschef eine Vorlage geschrieben, in der alles so vorkommt, was heute den politischen Mainstream befriedigt. Dazu gehört der Begriff „Gerechtigkeit“. Nun hätte ein Unternehmer ja auch mehr Marktwirtschaft fordern können, die pure Planwirtschaft der Energiewende kritisieren dürfen und dabei mehr Gerechtigkeit für die gebeutelten Stromkunden verlangen, die von kleinen Einkommen leben müssen. Aber das Wort „Klimagerechtigkeit“ deckt ja gleich zwei Begriffe ab: „Klima“ und „Gerechtigkeit“. Das kommt gut an, wird sogar von der FAS in die Überschrift genommen. (Ob die Redakteure der FAS erklären können, was das ist?) Dann gibt es zurzeit die Angstvokabel „Migration“. Dazu gehören die Flüchtlinge, die im Mittelmeer ertrinken – ganz furchtbar ist das. Hier haben wollen wir sie auch nicht: Einwanderung in unser soziales Netz, Kinder mit Migrantenhintergrund in den Schulen – alles was mit dem Begriff Migrant zu tun hat, ist schlecht. So ist die Überschrift. „Klimawandel beflügelt die Migration“ geradezu ein Musterbeispiel für erfolgreiche PR-Beeinflussung: Der Angst einflößende Klimawandel treibt uns jetzt auch noch die Migranten ins Land. Das sitzt! Und jetzt noch die Mitleidsnummer: Der Klimawandel treibt die Armen zur Migration – spätestens jetzt ist die Botschaft rund: Wer den Menschen gemachten Klimawandel bekämpft, verhindert Armut und Migration! Alles klar?

Dafür nimmt ein Dax-Vorstand offenbar Planwirtschaft, Staatsmonopolkapitalismus und Steuererhöhungen in Kauf. Man muss auch einmal (ordnungspolitische) Opfer bringen – solange die Opfer dann aber durch staatliche Garantien (EEG-Zwangseinspeisegebühren) die eigenen Profite sichern.

Aber ich will nicht die Motive des Nikolaus von Bomhard ergründen. Ein paar Fakten helfen da eher. Die Münchner Rückversicherung unterstützt seit Jahren Organisationen wie „german watch“, die für die Verbreitung der Horrormeldungen über den Menschen gemachten Klimawandel unterwegs ist. Ein Vorschlag für die Münchner Rück: Im April treffen in Mannheim Wissenschaftler zusammen, die ihre Forschungen über den Einfluss der Sonne auf unser Klima vorstellen. Darunter Prof. Dr. Nir Shariv aus Jerusalem, Prof. Dr. Hendrik Svensmark vom Dänischen Weltraumforschungszentrum Kopenhagern, Prof. Dr. Richard Lindzen vom MIT in Cambrigde. Er berichtet zum Beispiel vom Konflikt der zwischen Klimamodellen und den tatsächlichen Messungen besteht. Auch Donna Laframboise ist da und klärt über die peinlichen Lügen des Weltklimarates auf.

Natürlich kann sich ein DAX-Vorstandschef nicht die Zeit nehmen, um sich anzuhören, was es an Erkenntnissen über das Klima gibt. Aber vielleicht sollten seine Mitarbeiter, die das schwurbelige Referat über den noch schwurbeligeren Begriff „Klimagerechtigkeit“ geschrieben haben, die Gelegenheit nutzen, sich weiter zu bilden. Es würde der Glaubwürdigkeit des Unternehmens dienlich sein.




Gründe und Implikationen des Stillstands der globalen Mitteltemperatur!

Das Abstract meines Vortrages:

Gründe und Implikationen der wachsenden Divergenz zwischen den Simulationen der Klimamodelle und den Beobachtungen

Während der vergangenen mehr als 15 Jahre ist die globale Temperatur nicht mehr gestiegen, ein Phänomen, das allgemein unter der Bezeichnung ‚Stillstand‘ [hiatus] bekannt ist. Im Gegensatz dazu beliefen sich die Schätzungen der Erwärmung in den ersten Jahrzehnten des 21. Jahrhundert im IPCC-Bericht 4 auf 0,2°C pro Dekade. Dieser Vortrag fasst die Ergebnisse der Simulationen des jüngsten CMIP5-Modells zusammen und vergleicht sie mit Messungen und Beobachtungen.

Die jüngsten, im AR 5 verwendeten Modellsimulationen zeigen, dass die Erwärmungspause seit 1998 nicht mehr konsistent mit den Modellprojektionen ist, nicht einmal im 2%-Vertrauensniveau. Potentielle Gründe für die Diskrepanzen zwischen Messungen und Modellen werden besprochen. Ein Schwerpunkt des Vortrags betrifft die Rolle der multidekadischen natürlichen inneren Variabilität der Klimavariationen des 20. und des frühen 21. Jahrhunderts. Das „Stadium Wave“-Klimasignal [?] wird beschrieben, welches sich über die Nordhemisphäre bewegt durch ein Netzwerk von Ozeanen, Eis und atmosphärischen Zirkulations-Regimes, die sich selbst organisiert. Die Stadium Wave-Hypothese bietet eine plausible Erklärung für den Stillstand der Erwärmung und hilft zu erklären, warum die Klimamodelle diesen Stillstand nicht vorhergesagt haben. Außerdem zeigt die neue Hypothese, wie lange der Stillstand noch dauern könnte. Implikationen des Stillstands im Zusammenhang mit der Sensitivität der Klimamodelle zum CO2-Antrieb werden ebenso besprochen wie die Gründe der Erwärmung, die im letzten Viertel des 20. Jahrhunderts beobachtet worden ist.

Die PPT-Präsentation steht hier. Es folgen die Texte von einigen Folien der Zusammenfassung:

Bedeutung des Stillstands

Unter den Bedingungen des anthropogenen Treibhaus-Antriebs:

● Nur 2% der Klimamodell-Simulationen erzeugen Trends, die innerhalb der gemessenen Unsicherheit liegen

● Modellierte Pausen über 15 Jahre sind selten; die Wahrscheinlichkeit einer modellierten Pause, die über 20 Jahre hinausgeht, ist verschwindend gering.

Fragen, die sich aus der Diskrepanz ergeben

● Sind die Klimamodelle zu sensitiv hinsichtlich des Treibhaus-Antriebs?

● Ist die Behandlung der natürlichen Klimavariabilität in den Klimamodell unzureichend?

● Ist das vom IPCC angegebene Niveau ‚extrem wahrscheinlich‘ als Vertrauensniveau hinsichtlich des menschlichen Beitrags seit 1950 gerechtfertigt?

● Ist die Erwärmung aus den Klimamodell-Projektionen im 21. Jahrhundert zu hoch?

● Wie sicher sind wir hinsichtlich der Messungen?

I. Wo ist die fehlende Wärme?

Hypothese 1: Sie muss sich in den Ozeanen verstecken

● Beweise für die Ansammlung in den Ozeanen sind indirekt; es gibt kaum Messungen in der Tiefsee vor dem Jahr 2005.

● Ozeanmodelle transportieren Wärme in der Vertikalen alles andere als so effizient wie aus den Reanalysen des ECMWF hervorgeht

● Die Sorge, dass die Wärme an die Oberfläche zurückkehrt, scheint unmöglich zu sein, wenn die Wärme gut verteilt ist – anderenfalls würde der 2. Hauptsatz verletzt

Hypothese 2: Es gibt KEINE fehlende Wärme; Änderungen der Bedeckung mit Wolken haben zu mehr Reflektion der Sonnenstrahlung geführt.

● Die globalen Wolkenbeobachtungen durch Satelliten reichen nur bis zum Jahr 1983 zurück; Kalibrierungsprobleme komplizieren Trendanalysen

● Die Analysen der globalen Energiebilanz sind mit bedeutenden Unsicherheiten verbunden

II Vielleicht sind die Modelle OK und das Problem ist der externe Antrieb

Es gibt bedeutende Unterschiede in den verschiedenen Datensätzen zum Antrieb.

Die CMIP5-Simulationen wurden getrieben durch einzelne ‚Best Estimate‘-Datensätze

Es gab keine systematischen Bemühungen, die Unsicherheiten in diesen Datensätzen abzuschätzen oder die Sensitivität der Klimamodelle zur Unsicherheit des Antriebs.

III Vielleicht maskiert die ENSO (natürliche interne Variabilität) die Treibhaus-Erwärmung

IV Multidekadische Eigenheiten der natürlichen internen Variabilität

A. Die Atlantische Multidekadische Oszillation (AMO), die Pazifische Dekadische Oszillation (PDO) usw. sind dem Erwärmungstrend überlagert und sollten in zukünftigen Studien zur Zuordnung und in Projektionen der Zukunft einbezogen werden.

B. Klimaverschiebungs-Hypothese: Synchronisierte Chaos-Rahmenbedingungen für die natürliche interne Variabilität (Verschiebung ca. im Jahr 2001).

C. Stadium Wave-Hypothese: die räumlich-zeitliche Verteilung der Fortpflanzung eines Signals durch ein synchronisiertes Netzwerk von Klimaindizes; quasi-periodische Wechsel über 50 bis 80 Jahre, wobei Amplitude und Geschwindigkeit durch externe Antriebe modifiziert werden.

Implikationen für die Zukunft: I. Die Ansicht des IPCC-AR 5:

Der Stillstand wird demnächst zu Ende gehen, und zwar mit dem nächsten El Nino.

Implikationen für die Zukunft: II. Die Betrachtung der natürlichen internen Variabilität:

● Der ‚Stillstand‘ wird noch mindestens ein Jahrzehnt weitergehen.

● Klimamodelle sind zu sensitiv hinsichtlich externer Antriebe

● Ein Andauern des Stillstands über 20 Jahre würde eine offizielle Erklärung stützen, dass es Probleme mit den Klimamodellen gibt

● Die unzulängliche Betrachtung der natürlichen internen Variabilität impliziert:

● -eine verzerrte Zuordnung der Erwärmung im 20. Jahrhundert

● -Klimamodelle sind im Zeitmaßstab von Jahrzehnten unbrauchbar

Zusammenfassung der wesentlichen Unsicherheiten

● Variationen des Wärmegehalts der Tiefsee und Mechanismen des vertikalen Wärmetransportes zwischen der Tiefsee und der Oberfläche

● Unsicherheiten hinsichtlich der Daten zum externen Antrieb und Implikationen der Ursachen-Analyse und Zukunftsprojektionen.

● Sensitivität des Klimasystems auf externe Antriebe

● Wolken: Trends, Antriebe, Rückkopplungen und Aerosole – Wolken-Wechselwirkungen

● Natur und Mechanismen der multidekadischen ‚internen‘ Variabilität

● Unbekannte – indirekte solare Effekte, Auswirkungen durch das magnetische und das elektrische Feld, orbitale und andere Effekte, Wechselwirkungen zwischen Erdkern und Erdmantel usw.

Link: http://judithcurry.com/2014/03/04/causes-and-implications-of-the-pause/

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Über 60 % der AfD Mitglieder fordern die Abschaffung des EEG und die Einstellung aller „Klimaschutzmaßnahmen“ wie den Emissionshandel

Die uns hier interessierenden Thesen lauteten wie folgt: 

These 22 zum EEG:

Option 1: Wir fordern eine umfassende Reform des EEG, die die Kosten der Energiewende begrenzt aber das grundsätzliche Ziel der Energiewende nicht in Frage stellt. Die Versorgungssicherheit muss zu jedem Zeitpunkt gewährleistet sein. 

Für diese Option stimmten: 28,6 %

Option 2: Die AfD setzt sich für Marktwirtschaft und Wettbewerb auf allen Wertschöpfungsstufen der Energiewirtschaft ein und lehnt Subventionen, z. B. staatlich garantierte Vergütungen oder Vorrangeinspeisung für bestimmte Stromerzeugungsanlagen, grundsätzlich ab. Deshalb muss das EEG unter Anerkennung eingegangener Verpflichtungen sofort beendet werden. Neue Zielvorgaben für den Ausbau erneuerbarer Energien und der Energieeffizienz nach 2020 lehnen wir als ein schädliches Wettbewerbshemmnis ab, solange andere hochindustrialisierte Länder nicht gleichartige Maßnahmen ergreifen. 

Für diese Option stimmten: 29,2 %

Option 3: Das EEG muss komplett abgeschafft werden. Ansprüche von Altanlagen-Besitzern sind grundgesetzkonform als Gruppe abzufinden. Alle Energiemarkt-Eingriffe durch Reglementierung oder Subventionen sind sofort einzustellen. Sie führen zu einer noch stärkeren Beeinträchtigung der Wettbewerbsfähigkeit der deutschen Wirtschaft im EU-Binnenmarkt und weltweit, denn sie verteuern den Strom in Deutschland auf unverantwortliche Weise und schädigen die bisher hohe Sicherheit der Stromversorgung in Deutschland. 

Für diese Option stimmten: 35,5 % 

Insgesamt stimmten damit 64,7 % für die Abschaffung des EEG. Über 90 % befanden diese Thematik als "sehr wichtig" oder "Wichtig".

These 23: Kritik an der CO2 Politik:

Option 1 : Der wissenschaftliche Erkenntnisstand zum Klimawandel wird von der AfD nicht in Frage gestellt. Jedoch gibt es für politischen Aktionismus keinen Anlass, da wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen noch unsicherheitsbehaftet sind. Da es sich um ein globales Problem handelt, lehnt die AfD nationale und europäische Alleingänge ab. Stattdessen soll eine graduelle Reduktion von CO2-Emissionen auf globaler Basis erfolgen, die marktwirtschaftliche Instrumente wie CO2-Zertifikate einsetzt und sich daran orientiert, was für Haushalte und Unternehmen finanziell tragbar ist. Wir unterstützen das europäische CO2-Emissionshandelssystem, da es ein wettbewerbs- und technologieneutrales Instrument zur Reduktion von Emissionen ist. 

Für diese Option stimmten: 26,2 % 

Option 2: Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind mit großer Unsicherheit behaftet, die CO2-Wirkungen auf das Klima (Erwärmung) höchst umstritten. Daher lehnt die AfD, solange die Unsicherheit nicht überzeugend ausgeräumt ist, jegliches Hantieren mit CO2-Emissionen, Emissionszielen und Zertifikaten ab. 

Für diese Option stimmten: 32,4 % 

Option 3: CO2-Minderungsziele sollen nur verfolgt werden, soweit sie auf gesicherten wissenschaftlichen Erkenntnissen beruhen, die Minderungsziele international abgestimmt sind und mit den gleichen Verpflichtungen für alle EU-Staaten verfolgt werden. Nationale wie auch europäische Alleingänge lehnt die AfD ab. 

Für diese Option stimmten: 30,6 % 

Insgesamt stimmten damit 63 % für die Beendigung von Alleingängen bzw. jegliches Hantieren mit CO2 Emissionen, Emissionszielen etc. ab, solange die Zweifel an der Klimawirksamkeit des CO2 nicht ausgeräumt wurden. Über 80 % befanden diese Thematik als "sehr wichtig" oder "Wichtig".

Die EIKE Redaktion meint:

Ein klarer Sieg der Vernunft über die Ideologie.

Auf dem kommenden Parteitag der AfD am 22.3.14 in Erfurt, mit bereits mehr als 2000 Anmeldungen sollen diese Ergebnisse in ein Europawahlprogramm umgesetzt werden. 




Wetter- und Klimavorhersagen der Regierung sind gescheitert

800×600

Der Kommentar von Richard Feynman beschreibt die wissenschaftliche Methode, gilt aber auch für die Vorhersagen von Wetter und Klima. Viele mittel- und langfristige Wetter- und Klimavorhersagen sind falsch und liegen jenseits jedweder Brauchbarkeit. (Beispiel: die Vorhersage des Met. Office UK eines trockenen Winters 2013-2014 endete mit massiven Überschwemmungen. A. v. Anthony Watts). Die meisten Vorhersage-Institutionen wechseln zwischen der Bestimmung ihres eigenen Niveaus der Zuverlässigkeit oder legen detailliert offen, wie ungeeignet ihre Arbeit ist. Keine gesellschaftliche Gruppe liegt so daneben wie Wettervorhersagen der Regierung, und doch macht sie immer weiter. Offensichtlich nehmen die Leute das hin, zusammen mit all den anderen gescheiterten politischen Vorgaben. Ihre wirkliche Ansicht spiegelt die Tatsache, dass nur wenige Aktivitäten mehr Gelächter und Geringschätzung erfahren als Wettervorhersagen.

Historie der Vorhersagen

Ungefähr im Jahr 300 v. C. hat Theophrastus, ein Schüler von Aristoteles, ein Buch geschrieben, in dem er zum ersten Mal Regeln für die Wettervorhersage festlegte. In dem Buch Book of Signs hat er über 200 empirische Indikatoren beschrieben wie z. B. die Aussage „A halo around the moon portends rain“ [etwa: wenn der Mond einen Hof hat, ist Regen im Anzug]. Viele Skeptiker einschließlich ich selbst, sagen, dass wir seitdem noch nicht sehr viel weiter gekommen sind. Stattdessen würde ich sagen, dass wir uns rückwärts entwickelt haben.

Über die Jahrhunderte gab es sehr viele Versuche der Vorhersage von Wetter und Klima. Old Richard’s Almanac von Benjamin Franklin begann mit einem Dienst dieser Art im Jahre 1757 für Langfristvorhersagen, vor allem für Landwirte. Er erweiterte damit die Gedanken von Theophrastus bzgl. der Wetterfolklore, die eigentlich aus klimatischen Beobachtungen jahreszeitlicher Ereignisse und deren Änderungen abgeleitet waren. Im Jahre 1792 wurde dieses Werk ersetzt durch The Farmer’s Almanac, heute bekannt unter dem Titel The Old Farmer’s Almanac; und es wird von vielen Menschen zu Rate gezogen, vor allem von Landwirten. Der Begründer Robert B. Thomas kombinierte Sonnenaktivität, Wetterabläufe und astronomische Zyklen, um seine Vorhersagen zu erstellen. Wir können das in heutige Formulierungen übersetzen: mittlere Sonnenflecken-Aktivität, historische Wetteraufzeichnungen und Variationen des Magnetfeldes, um eine größere Genauigkeit zu erreichen als die limitierten Variablen für die meisten Vorhersagen, vor allem aber für die des IPCC. Sie sind besser als offizielle langfristige Vorhersagen wie z. B. die Jahreszeiten-Vorhersagen des UK Met. Office während der letzten Jahre. Zuletzt war da die Vorhersage eines trockenen Winters 2013, der einer der nassesten jemals gewesen ist.

Im Jahre 1837 hat Patrick Murphy, ein englischer Gentleman der Wissenschaft, eine Studie veröffentlicht mit dem Titel The Weather Almanac (on Scientific principles, showing the State of the Weather for Every Day of the Year of 1838). Darin enthalten war eine nahezu akkurate Vorhersage für den 20. Januar 1838: „Schön, und wahrscheinlich einer der kältesten Tage des Winters“. Die Temperatur lag bei bemerkenswerten -20°C, also bei dem niedrigsten Wert seit Menschengedenken. Dickes Eis bildete sich auf der Themse, dick genug, um ein Schaf am offenen Feuer bei Hammersmith zu rösten. Die Temperatur scheint aus heutiger Sicht bemerkenswert, war aber konsistent mit einer Erde, die sich vom Tiefpunkt der Kleinen Eiszeit in den achtziger Jahren des 17. Jahrhunderts erholte, dann aber im Zuge des Dalton-Minimums einen Rückschlag erlitt.

Der Winter 1838 wurde Murphys Winter, allerdings waren die Vorhersagen für das restliche Jahr meistens falsch. Diese ärmlichen Ergebnisse mündeten in ein in der Times abgedrucktes Gedicht:

When Murphy says ‘frost’, then it will snow

The wind’s fast asleep when he tells us ’twill blow.

For his rain, we get sunshine; for high, we have low.

Yet he swears he’s infallible – weather or no!*

Dies scheint Wort für Wort anwendbar auch auf das UK Met. Office heute.

[*Das lässt sich nicht übersetzen! A. d. Übers.]

Ein gewisser Dr. Merriweather aus Whitby, Yorkshire, hat eine Technik entwickelt, Wettervorhersagen zu erstellen aus der Beobachtung der Blutegel, die er zur Blutentnahme in seiner Praxis einsetzte. Er notierte sich die Position der Blutegel in seinen Reagenzgläsern, um das Wetter vorherzusagen. Bei ruhigem Wetter hielten sie sich am Boden auf, aber wenn sie anfingen, an der Seite empor zu kriechen, war eine Wetteränderung nach einem halben Tag zu erwarten. War Regen im Anzug, kletterten die Blutegel über die Wasserlinie, und wenn sie dort blieben und sich zu einer Kugel zusammen rollten, war Sturm zu erwarten.

Merriweather schrieb eine Studie mit dem Titel An Essay Explanatory of the Tempest Prognostication [Tempest = Gewittersturm], wobei ihm als Grundlage ein spezielles Glasgefäß diente, das er selbst entworfen hatte. Darin befand sich ein Blutegel und eine Glocke, die erklang, wenn der Egel das Wasser verließ. Er verkaufte es auf der Weltausstellung 1851. Seine gescheiterten Prognosen sind vergleichbar mit den heutigen Behauptungen der Zunahme von Extremwetter.

Gescheiterte Vorhersagen der Moderne

Vor über 200 Jahren sagte Lavoisier (1743 bis 1794): „Es ist fast unmöglich, für ein oder zwei Tage innerhalb einer relativ begrenzten Wahrscheinlichkeit vorherzusagen, wie sich das Wetter entwickeln wird“. Ich verstehe das, weil die Persistenz und die Markov-Wahrscheinlichkeit eine Wahrscheinlichkeit von 63% ergeben, dass das Wetter morgen genauso sein wird wie heute. Gegenwärtig nimmt das UK Met Office für sich eine Genauigkeit von 93,8% bzgl. der Temperaturvorhersagen für den nächsten Tag in Anspruch; jedoch hätten die Tiefsttemperaturen der folgenden Nacht nur noch eine Genauigkeit von 84,3%. Das Problem liegt darin, dass beide mit einer Fehlertoleranz von ±2°C einhergehen, so dass der Fortschritt hinsichtlich der Wahrscheinlichkeit minimal ist. Es scheint, als wäre Lavoisiers „grobe Bandbreite der Wahrscheinlichkeiten“ nur wenig verbessert worden. Die meisten kommen zu besseren Ergebnissen, weil sie etwas praktizieren, was ich „graduelle Approximation“ nenne. Sie erstellen eine Vorhersage über fünf Tage  und ändern diese dann alle sechs Stunden bis zum aktuellen Zeitraum. Mir ist keine Forschungsarbeit bekannt, in der die Genauigkeit der ersten Fünf-Tages-Prognose mit der Realität verglichen wird. Wie viele Änderungen wurden vorgenommen, um der Wirklichkeit auch nur halbwegs nahe zu kommen?

Wettervorhersagen fanden im Ersten Weltkrieg praktische Verwendung, als Flugzeuge und deren Piloten der Gnade des Wetters ausgeliefert waren. Darum befinden sich die meisten Wetterstationen an Flughäfen, wo sie anfällig waren für Hitze von den Rollbahnen, den Düsentriebwerken und in vielen Fällen der sich verstärkenden städtischen Wärmeinsel (UHI). Bjerknes hat viele der Terme formuliert, die bei der Vorhersage von Warm- und Kaltfronten verwendet werden oder bei der Entwicklung bzw. Auflösung frontaler Wettersysteme, wobei die Terminologie aus dem Krieg stammt. Durch Fortschritte in der Luftfahrt schwindet heute der Bedarf an Vorhersagen. Wetterinformationen für die Luftfahrt sind heute einfach Stationsdaten der gegenwärtigen Bedingungen und auch nur für Kleinflugzeuge. Größere oder fortschrittlichere Flugzeuge können praktisch auch bei Nullsicht landen, so dass lediglich eine geschlossene Landebahn ein Problem darstellt. Das Problem der meisten Daten von Wetterstationen ist, dass sie nicht in „Echtzeit“ erfolgen, so dass der Pilot sich darauf verlässt, was der Tower ihm sagt.

Landwirte bräuchten genaue Vorhersagen entweder eine Woche oder Monate im Voraus, so dass sie ihre Operationen planen können. Keine davon ist mit hinreichender Zuverlässigkeit zu haben. Andere Aktionsgruppen wie die Forstwirtschaft oder Energieerzeuger erstellen ihre eigenen Vorhersagen, wobei viele sogar deren Daten sammeln. Das Problem sind ungenügende Wetterstationen, um Wetterkarten mit hinreichender Genauigkeit zu zeichnen, um nützliche Ergebnisse zu zeitigen. Je länger die Vorhersage, umso ausgedehnter die Anzahl der involvierten Stationen – eine Vorhersage für fünf Tage bedeutet eine Wetterentwicklung weit stromaufwärts. In den meisten Fällen sind die Lücken der diesbezüglichen Informationen einfach zu groß.

Öffentliche Bilder mit Wettervorhersagen bringt das Fernsehen, und zwar in einem 2 bis 3-minütigen Segment am Ende der Nachrichten, das man kurz nach der Präsentation schon wieder vergessen hat. Die meisten Fernsehsender versuchen, die Informationen mit visuellen Spielchen aufzumotzen. Einige präsentieren „Extremwetter“ oder aus einem „Storm Center“*. Sie verzerren die Wirklichkeit, indem sie so etwas wie den Wind Chill oder Hitze-Indizes verbreiten, als sei das die aktuelle Temperatur. Alles wird übertrieben, und das führt dazu, dass die Leute dem immer weniger Aufmerksamkeit schenken. Die Glaubwürdigkeit geht verloren, weil sie häufig [echte] Extremereignisse nicht richtig vorhersagen.

[*Gemeint ist hier eine Einrichtung wie etwa das National Hurricane Center in Miami. Den Begriff mit „Sturmzentrum“ zu übersetzen wäre grob irreführend. A. d. Übers.]

Ich habe  mit der Fliegerei angefangen, bevor es computergestützte Wetterkarten gab. Wettervorhersagen waren nicht sehr gut, aber mit Sicherheit besser als heutzutage [!]. In jenen Tagen hat der Wettermensch individuelle Stationsdaten herangezogen und seine eigene, auf Isobaren basierende Karte gezeichnet. Bei der Erstellung dieser Karte hat er ein Gefühl für den wahrscheinlichen Wetterablauf entwickelt, den er dann mit den Erfahrungen vor Ort in Verbindung brachte. Immer noch war das Vertrauen in die Vorhersagen gering, vor allem bei Personen, die ein genaueres Produkt brauchten. Hubert Lamb hat als Forecaster* ernste Beschwerden über schlechte Vorhersagen von Flugzeugbesatzungen aus dem Zweiten Weltkrieg gesammelt, die über Deutschland im Einsatz waren. Ihm wurde klar, dass für bessere Vorhersagen bessere Kenntnisse des Wetters in der Vergangenheit vonnöten waren, und das war der entscheidende Auslöser für die Gründung der Climate Research Unit CRU.

[*Der Begriff „Forecaster“ ist nach Ansicht meines Freundes Hans-Dieter Schmidt nicht übersetzbar, und jeder wisse, was damit gemeint ist. Ich frage aber trotzdem mal: Weiß jemand hierfür einen passenden deutschen Begriff? „Prognostiker“ vielleicht, wie die Übersetzungshilfe LEO vorschlägt? A. d. Übers.]

Als Wigley die CRU von Lamb übernahm, führte er die CRU in eine ganz andere Richtung und sorgte für die effektive Aufhebung der Rekonstruktionen des vergangenen Klimas. Die Arbeit einiger Weniger hat die Grenzen der Daten und der Fähigkeit der Computermodelle, genaue Wetterkarten zu erstellen, bloßgestellt. Benjamin Santer, ein CRU-Student, vervollständigte ein Thesenpapier mit dem Titel Regional Validation of General CirculationModels. Man brauchte drei Computermodelle, um die nordatlantischen Bedingungen nachzustellen. Offensichtlich hat man dieses Gebiet ausgewählt, weil es das größte Gebiet mit den besten Daten war. Aber trotzdem haben die Computermodelle massive Drucksysteme erzeugt, die nicht existieren.

Santer verwendete regionale Modelle im Jahre 1987, aber nichts hat sich während 21 Jahren verbessert. Im Jahre 2008 hat Tim Palmer, ein leitender Klimamodellierer am ECMWF in Reading, UK, im Journal New Scientist gesagt:

Ich möchte das IPCC nicht unterminieren, aber die Vorhersagen, vor allem hinsichtlich regionaler Klimaänderungen, sind immens unsicher.

Wie unsicher sie sind, zeigt die Überprüfung der Vorhersagegenauigkeit durch die NOAA in den USA und Kanada. Die Abbildungen 1 und 2 sind die Ergebnisse der NOAA-Überprüfungen für 3-monatige Vorhersagen.

Abbildungen 1 und 2: Überprüfung der Güte 3-monatiger Vorhersagen

Das Folgende erklärt, wie dieser Test abläuft:

Der Ausdruck „skill“ [etwa: Vorhersagegüte, -leistung etc. Ich lasse den Begriff hier mal unübersetzt stehen. A. d. Übers.] in Bezug auf Vorhersagen bedeutet ein Maß für die Güte der Vorhersage relativ zu einem gewählten Standard. Oftmals besteht der Standard aus dem langzeitlichen (30-jährigen) Mittel (der Klimatologie) eines Parameters, der vorhergesagt wird. Folglich ist die Bestimmung des Skills eine Messung der Verbesserung der Vorhersage über den Standard hinaus.

CPC verwendet den Heidke-Skill Score, welcher eine Maßzahl dafür ist, wie gut sich eine Vorhersage relativ zu einer anderen ausgewählten Vorhersage macht. Eine Maßzahl 0 bedeutet, dass die Vorhersage nicht besser war als das, was man zufällig erwartet hätte. Eine Maßzahl 100 beschreibt eine „perfekte“ Vorhersage, und eine Maßzahl -50 steht für die „schlechtest mögliche“ Vorhersage. Die gestrichelten Linien in der Graphik zeigen den mittleren Skill Score für alle Vorhersagen und für die „Nicht-CL-Vorhersagen“. „CL“ bezieht sich auf die Klimatologie oder eine Vorhersage gleicher Wahrscheinlichkeit für Temperatur und Niederschlag jeweils über, bei oder unter dem Normalwert. „Nicht-CL“ bezieht sich auf alle Vorhersagen, in denen erhebliche Abweichungen nach oben bzw. unten vorhergesagt werden. „Prozentzahl“ bezieht sich auf die Prozentzahl des Vorhersagegebietes, für das erhebliche Abweichungen von Temperatur und Niederschlag vorhergesagt werden.

Die Ergebnisse sind sehr mager und in den meisten Fällen kaum besser als Zufallsvorhersagen.

Environment Canada führt einen ähnlichen Skill-Test durch. Die Abbildungen 3 und 4 sind Beispiele für Temperatur-Vorhersagen über 4 bis 6 Monate (links) sowie 12 Monate (rechts). Hinsichtlich der Vorhersage von Niederschlag sieht es noch schlechter aus.

Abbildung 3: Vorhersagen für 4 bis 6 Monate und Prozentzahl der Treffer; Abbildung 4: dito für 12-Monats-Vorhersagen

Die kanadischen Ergebnisse sind schlechter als in den USA, zeigt doch das Mittel in Abbildung 3 eine Gewissheit von lediglich 44,6% und in Abbildung 4 von 41,5%. Diese Beispiele sind willkürlich ausgewählt, und in den meisten Fällen sind diese Ergebnisse noch schlechter, wie man sich selbst überzeugen kann.

In einer Pressemitteilung im Jahr 2005 hieß es: „NASA/NOAA verkünden massive Verbesserungen von Vorhersagen“. Im Lichte der oben beschriebenen Ergebnisse gibt es von  JSCDA-Direktor Dr. John LeMarshall eine merkwürdige Äußerung:

„Um eine Zunahme der Vorhersage-Genauigkeit um vier Prozent zu erreichen bei Vorhersagen für fünf oder sechs Tage im Voraus, braucht man normalerweise viele Jahre“, – „dies ist ein erheblicher Fortschritt und nur der Anfang dessen, was wir als viel mehr Daten ansehen können, die in die operationellen Vorhersage-Modelle des Environmental Modeling Center der NOAA eingehen“.

Was bedeutet die Aussage, dass die Vorhersage-Genauigkeit in 19 Jahren (2014-2005) verbessert worden ist? Falls wir annehmen, dass die Hälfte dieser Zeit (~9 Jahre) „viele Jahre“ bedeutet, hat sich die Genauigkeit vermutlich um 8 Prozent verbessert bei Vorhersagen für 5 bis 6 Tage im Voraus. Das Problem ist, dass man praktisch bei einer Null-Genauigkeit anfängt. Es wird Jahrhunderte dauern, bis man ein brauchbares Niveau erreicht. Die wichtige Frage lautet, ab welchem Punkt man zugeben muss, dass die Wissenschaft falsch liegt.

In einem vor Kurzem erschienenen Artikel bei WUWT wurde detailliert eine Studie beschrieben, die zu dem Ergebnis gekommen ist, dass „es immer noch ein Weiter Weg ist bis zu zuverlässigen regionalen Prognosen, die man im Zeitmaßstab von Jahreszeiten bis Jahrzehnten machen kann“. Das untertreibt die Probleme und Potentiale. Die Daten sind in allen Dimensionen ungeeignet. Das Verständnis und die Modellierung der Mechanismen sind unzureichend. Niemand verwendet diese Ergebnisse, weil sie so unzuverlässig sind. Man macht nur weiter damit, weil die Regierung dafür zahlt und weil die erzeugenden Bürokraten den Politikern weismachen, dass sie wertvoll sind. Das sind sie nicht.

Das IPCC gibt niemals zu, dass es wissenschaftlich falsch liegt. Jede einzelne IPCC-Vorhersage seit dem Bericht 1990 war falsch. Anstatt ihre Wissenschaft neu zu überdenken, hat es mit etwas angefangen, das inzwischen zu seiner Standardpraxis geworden ist, nämlich die Eckpunkte zu verschieben. Die volle Politisierung der Klimawissenschaft erfolgte zwischen den Berichten 1990 und 1995. Anstatt zuzugeben, dass die Wissenschaft falsch war, gingen sie von Prognosen zu Projektionen über, die seitdem ebenfalls allesamt falsch waren. Abbildung 6 zeigt die drei IPCC-Niveaus der Projektionen aus dem Jahr 1990 im Vergleich zu aktuellen Temperaturmessungen von Bodenstationen (blau) und Satelliten (grün); zusammengestellt von Clive Best:

Abbildung 6

[Hinweis: Abbildung 5 war nicht auffindbar. Ein Versehen des Autors bei der Zählung? A. d. Übers.]

Vorhersagen im Kurz- (Stunden und Tage), Mittel- (Wochen und Monate) sowie Langfristzeitraum (Jahrzehnte) sind alle falsch, liegen sie doch in jedem Falle nahe bei oder sogar unter dem Zufallsniveau. Trotz Dollarmilliarden und konzentrierten Bemühungen zur Verbesserung gibt es wenig oder gar keine Verbesserung. Falls ein solches Niveau gescheiterter Vorhersagen in irgendeiner anderen Unternehmenslogik liegen würde, würde dies zumindest das Eingestehen verlangen, dass etwas in der Wissenschaft fundamental falsch ist.

Vielleicht wird der Artikel im Daily Caller vom 20. Februar 2014 ein paar Antworten provozieren, werden doch darin die Regierungs-Prognostiker in schlimmster Weise angegriffen. Die Schlagzeile lautet: Bericht: Farmers Almanac genauer als die Klimawissenschaftler der Regierung. Ich weiß, dass die meisten Menschen nicht überrascht sind, wussten sie doch schon lange, dass die meisten Vorhersagen der Regierung falsch waren. Außerdem waren sie sehr teuer und von sehr geringem Wert. Thomas Sowell brachte es mit der Frage auf den Punkt:

Würden Sie Ihren Monatslohn auf die Wettervorhersage für morgen verwetten? Falls nicht, warum sollte dann dieses Land (die USA) Milliarden auf die Vorhersagen der globalen Erwärmung verwetten, die sogar noch viel weniger begründet sind?

Es ist schlimmer als das. Die Wissenschaft der Regierung ist falsch, und darum sind auch deren Vorhersagen falsch. Auf dieser Basis drückt sie eine Politik durch, die das Gegenteil einer sich fortentwickelnden Zukunft ist.

Link: http://wattsupwiththat.com/2014/02/25/government-weather-and-climate-forecasts-are-failures/

Übersetzt von Chris Frey EIKE

Hierzu möchte mein Freund Hans-Dieter Schmidt einen Kommentar schreiben:

Leider besteht in der Kommentarfunktion keine Möglichkeit, Abbildungen einzustellen, weshalb ich Chris Frey gebeten habe, ob ich hier zu diesem Artikel Stellung nehmen kann (vorbehaltlich der Zustimmung der EIKE-Redaktion):

Die kurzfrist-Wettervorhersage beurteilt Dr. Ball m. E. falsch, denn tatsächlich hat es hier signifikante Verbesserungen gegeben. Der Deutsche Wetterdienst veröffentlicht seit Jahren vierteljährlich  eine Auswertung der Prognosegüte für 1 bis 6 Tage.

Mittel- und langfristig und vor allem in Klimazeiträumen liegt Dr. Ball jedoch richtig, wie ich mit folgenden drei Abbildungen zeigen möchte. Sie geben Ensemble-Vorhersagen von einem gegebenen Ausgangspunkt (heute) für 24 Stunden, 168 Stunden (1 Woche) und 384 Stunden (über zwei Wochen). Man erkennt: Nach 24 Stunden gibt es gute Übereinstimmung, nach 1 Woche kann man vielleicht noch ein Muster erkennen, aber bei 384 Stunden ist definitiv Feierabend.

Zum letzten Bild: In Politik und Medien wird eine Vorhersage für 50 bis 100 JAHRE als das Maß aller Dinge betrachtet…




Energiewende grotesk: SuedLink – noch mehr Milliarden für blanken Unfug

Mit Superlativen und bombastischen Worten wurde bei der Vorstellung dieses Projekts nicht gespart: Von einer „Stromschlagader“, gar von einem „Rückgrat, einem wesentlichen Kernstück der Energiewende“ schwärmten Politik und Netzbetreiber bei der Vorstellung des Projekts für eine neue Nord-Süd-Stromverbindung. Damit soll die wegen angeblich fehlender Netzkapazitäten gefährdete Energiewende wieder auf Kurs gebracht werden. Innerhalb von etwa acht Jahren soll Deutschland eine Hochleistungs-Stromverbindung in Nord-Südrichtung bekommen, die es gestatten soll, den im Norden erzeugten Windstrom ohne Umwege und Verluste denjenigen Bedürftigen im Süden der Bundesrepublik zukommen zu lassen, die demnächst nach Abschaltung ihrer Kernkraftwerke auf Windstrom aus dem Nord- und Ostseeraum angewiesen sein werden. Nach dem derzeit kommunizierten Planungsstand soll eine Hochspannungs-Gleichstromleitung mit einer Gesamtübertragungskapazität von 4000 MW von Wilster in Schleswig-Holstein aus bis nach Grafenrheinfeld in Bayern führen. Über die genaue Planung und Trassenführung wird man voraussichtlich erst in den nächsten Monaten Näheres erfahren. Bezüglich der Kosten wird von einem einstelligen Milliardenbetrag gesprochen [ALT]. Eines steht jedoch bereits jetzt fest: Widerstand der Bürger will man mit allen Mitteln verhindern, der Staat hat dem Projekt Priorität eingeräumt und wird den Gegnern juristisch keine Chance lassen [WELT].

Bild 1. Trassenführung der geplanten SuedLink-Verbindung (Grafik: Tennet [TENN])

Was ist der Zweck von SuedLink?

Der Zweck des Projekts ist im Prinzip so einfach zu begreifen, dass man darüber eigentlich kaum viele Worte verlieren müsste. Es geht darum, sehr viel Geld auszugeben, um in den südlichen Bundesländern eine hervorragend funktionierende, äußert zuverlässige und zudem preisgünstige Stromversorgung durch eine falsch dimensionierte und unzuverlässige Energieversorgung zu ersetzen. Gebraucht würde die Leitung nicht: Bayern und Baden-Württemberg haben schon seit langem eine bestens ausgebaute Energie-Infrastruktur aus funktionierenden Kernkraftwerken mit einer Bruttokapazität von rund 8300 MW und einer Verfügbarkeit von min. 90 %. Allerdings sollen diese nach dem Willen der Politik bis zum Jahre 2022 komplett stillgelegt werden. Als Ersatz soll SüdLink Windstrom über 800 km aus der Küstenregion nach Süden transportieren. Von der südlichen Empfangsstation beim derzeit noch laufenden Kernkraftwerk Grafenrheinfeld aus soll dieser Strom dann nach Rückwandlung von Gleich- in Wechselstrom im süddeutschen Raum verteilt werden.

Das derzeit noch in Betrieb befindliche Kernkraftwerk Grohnde (Foto: kohlekraftwerke.de)

Wie gut ist die aktuelle Stromversorgung in Süddeutschland?

Auch nach der Abschaltung einer Reihe von Kernkraftwerken werden die hoch industrialisierten südlichen Bundesländer von zurzeit noch sechs solcher Anlagen mit einer Gesamtkapazität von 8300 MW mit Strom versorgt. Hinzu kommen noch konventionelle Kraftwerke, Wasserkraft, etwas Wind und vergleichsweise viel Fotovoltaik. Die Kernkraftwerke bilden jedoch das Rückgrat der Versorgung, nicht zuletzt auch aufgrund ihrer hohen Verfügbarkeit von > 90%. Trägt man diese Versorgung mit Kernkraftstrom grafisch auf, so zeigt sich, dass man in Bayern und Baden-Württemberg zurzeit auf eine stabile, ganzjährig ohne Unterbrechungen verfügbare Versorgungskapazität von mindestens 7000 MW und zeitweilig sogar mehr als 8300 MW aus Kernkraft zählen kann, Bild 2.

 

Bild 2. Hypothetische Verfügbarkeit der süddeutschen Kernkraftwerke unter Berücksichtigung periodischer Stilllegungen für Wartungszwecke in MW

Wie zuverlässig ist Windstrom?

Ganz anders sieht die Versorgungssicherheit dagegen bei der Windenergie aus. Im Rahmen einer gut dokumentierten Untersuchung hat Detlef Ahlborn die typische Verfügbarkeit von Windenergie in Deutschland über den Zeitraum eines Jahres statistisch untersucht, [AHLB]. Grundlage ist eine Aufzeichnung der Jahresproduktion im Viertelstundentakt. Die entsprechende Grafik zeigt Bild 3. Trotz der Größe der Fläche, über welche die Anlagen verteilt sind, kommt es nicht zu einer Vergleichmäßigung des Stromangebots durch Ausgleich der Erträge aus windstarken und windschwachen Standorten. Der Minimalwert der Einspeisung lag 2012 bei lediglich 170 MW, gerade einmal 0,5 % der gesamten installierten Kapazität. Damit ist eine gesicherte Verfügbarkeit der Versorgung undenkbar. Schon ein oberflächlicher Vergleich mit der Verfügbarkeit der Kernkraftwerke zeigt, dass Windstrom vom Funktionsprinzip her nicht imstande ist, die Bedürfnisse einer modernen Industriegesellschaft zu erfüllen. Ein heutiger Arbeitsplatz und der typische Privathaushalt brauchen Strom dann, wenn das Produktionsgeschehen und der Tagesablauf es erfordern, und nicht dann, wenn es dem Wetter so gefällt. Nur so lassen sich Werte schaffen.

Bild 3. Aufzeichnung der Wind-Summenleistung über ganz Deutschland im Jahr 2012 bei einer installierten Gesamtkapazität von 31.000 MW (Grafik: [AHLB])

Wo nichts ist…

Das Problem mit der Windenergie ist die geringe Verfügbarkeit von knapp über 20 % selbst an den „guten“ Standorten in küstennahen Regionen. Zudem unterliegt das Angebot selbst in windstarken Zeiten noch kurzzeitig extremen Schwankungen. Eine Leitung wie SüdLink, die mehr oder weniger ausschließlich Windstrom nach Süden transportieren soll, leidet damit zwangsläufig unter der gleichen „Erbkrankheit“: Ihre Auslastung dürfte ebenfalls bei nur 20 % liegen, was hohe spezifische Kosten bedingt, und sie kann nur dann Strom transportieren, wenn dieser auch tatsächlich vorhanden ist. In Amerika gibt es für ein solches Dilemma den drastischen, aber zutreffenden Begriff „Shit in, Shit out“, womit alles gesagt ist. Einen sehr schönen grafischen Vergleich des Unterschiedes zur Kernkraft liefert Bild 4. Hier wurden die Daten von Bild 2 und Bild 3 zusammengeführt. Die blauen Bereiche unterhalb der „Zappellinie“ des Windstroms kennzeichnen die Windstrom-Verfügbarkeit via SüdLink. Man erkennt sofort, dass diese Leitung weder von der Menge noch von der zeitlichen Verfügbarkeit her imstande sein kann, die Kernkraft zu ersetzen. Diese prinzipbedingte Unfähigkeit ließe sich auch nicht durch Verdopplung oder Verdreifachung der installierten Erzeugungs- und Übertragungskapazität beheben: Wenn bei BMW oder Audi die Schicht anläuft, muss Strom zur Verfügung stehen, Punkt. Da reichen weder 170 MW noch 340 MW und auch keine 510 MW.Vervielfacht würden ausschließlich die Kosten.

 

Bild 4. Massstabsgerechter Vergleich der Verfügbarkeit von Strom aus 8300 MW installierter Kernkraftwerks-Kapazität (rot) und 4000 MW installierter Leitungskapazität von Strom aus norddeutscher Windkraft via SüdLink

Politische Manöver

Interessant sind vor diesem Hintergrund die jüngsten politischen Manöver von Bayerns Ministerpräsident Horst Seehofer, der sich kürzlich für ein Moratorium des Ausbaus von SüdLink aussprach und dafür prompt heftig attackiert wurde. Seehofer ist beileibe kein Gegner der desaströsen Energiewendepolitik in Deutschland. Jedoch beherbergt Bayern mit BMW und Audi zwei der größten Automobilhersteller Deutschlands.

Hier nützt kein „Smartmeter“: Beim Zusammenfügen dieser Autokarosserie sind zahlreiche Roboter im Einsatz. Nur wenn diese zuverlässig Strom bekommen, bekommt der Bürger zuverlässige Autos (Symbolbild)

Deren Vorstände müssen immer mal wieder über Investitionen mit Reichweiten von teilweise mehr als 10 Jahren entscheiden. Möglicherweise hat man dort auf den einen oder anderen Energiefachmann gehört, der sich fragt, wie man bei unsicherer Stromversorgung eine sichere Autoproduktion aufrechterhalten will, und dies dem Landesvater ins Ohr geflüstert. Es dürfte noch spannend werden…

Fred F. Mueller

Quellen:

[AHLB] http://www.eike-klima-energie.eu/news-cache/statistik-und-verfuegbarkeit-von-wind-und-solarenergie-in-deutschland/

[TENN] http://suedlink.tennet.eu/suedlink.html

[WELT] http://www.welt.de/wirtschaft/article124675495/Gegner-der-Stromtrasse-haben-keine-Chance.html