1

Stromnetze am Limit – das Risiko wächst: Mit jedem Windrad nehmen die Probleme zu

Schafft die Leitstelle dies nicht, so gerät das Netz innerhalb von Sekundenbruchteilen aus dem Takt. Grundlage des Problems ist die Tatsache, dass unsere Stromversorgung mit Wechselstrom arbeitet. Jeder Erzeuger, der in ein Verbundnetz einspeist, muss dies nicht nur mit der exakt gleichen Frequenz tun wie alle anderen Generatoren, sondern auch mit genau synchronem Verlauf der positiven und negativen Halbwellen. Anders ausgedrückt darf das eine Kraftwerk nicht gerade in dem Moment mit negativer Spannung einspeisen, wenn das andere gerade eine positive Spannung erzeugt, denn diese unterschiedlichen Polungen würden dazu führen, dass die Generatoren gegeneinander statt miteinander arbeiten würden, Bild 1. Statt gemeinsam Strom ins Netz zu liefern, würden sie sich gegenseitig innerhalb von wenigen Sekunden zerstören, weil die Wicklungen der Generatoren ausbrennen würden.

Bild 1. Würden zwei Generatoren mit derartiger Phasenverschiebung gleichzeitig ins Netz einspeisen, so würden sie sich gegenseitig beschädigen (Grafik: Saure, Wikipedia Creative Commons)

Eine der wichtigsten Aufgaben der Netzleitstellen besteht daher darin, die Netzfrequenz zu überwachen und innerhalb extrem enger Grenzen stabil zu halten, damit die mehr als eine Million Teilnehmer, die allein in das deutsche Verbundnetz einspeisen, stets synchron und mit exakt gleicher Phasenlage einspeisen können.

Zusammenhang von Frequenz und Netzlast

Die Netzfrequenz hängt wiederum direkt von Gleichgewicht zwischen Erzeugung und Verbrauch ab. Je höher der Verbrauch, desto größer ist auch das von der Turbine aufzubringende Drehmoment, damit der Generator seine exakt vorgeschriebene Drehzahl halten kann. Laständerungen wirken sich daher sofort auf seine Drehzahl und damit auf die Frequenz des erzeugten Wechselstroms aus. Das Kraftwerk überwacht deshalb die Frequenz und versucht, diese stabil zu halten, indem es mehr oder weniger Dampf auf die Turbine leitet. Im Verbundnetz muss dies stets von allen einspeisenden Generatoren synchron nachvollzogen werden, um das dynamische Gleichgewicht von Erzeugung, Verbrauch und Netzfrequenz innerhalb der für den stabilen Netzbetrieb erforderlichen Sicherheitsmargen zu halten. Voraussetzung hierfür ist die Fähigkeit der einspeisenden Kraftwerke, ihre Energieerzeugung bedarfsgerecht entweder zu steigern oder zu drosseln.

Solar- und Windenergieanlagen können solche gezielten Leistungsanpassungen prinzipbedingt nicht in nutzbarem Umfang erbringen und sind daher außerstande, das Netz zu stabilisieren. Im Gegenteil, ihre nur von den Zufällen von Wind und Wetter abhängige Einspeisung, die von den Netzbetreibern aufgrund gesetzlicher Vorgaben zwangsläufig abgenommen werden muss, erschwert den restlichen Kraftwerken die sowieso schon anspruchsvolle Aufgabe, das Netz auch im Falle unvorhersehbarer Störungen ständig im Gleichgewicht zu halten.

Reaktion auf Netzstörungen

Im Netz treten unablässig Änderungen der Belastung auf, die durch ständige Anpassung der Erzeugung aufgefangen werden müssen. Viele dieser Änderungen sind mit einer gewissen Zuverlässigkeit vorhersehbar – beispielsweise das Einschalten zahlloser Fernseher pünktlich zum Beginn eines Bundeligaspiels oder das morgendliche Duschen vor der Arbeit – und können daher in den Tagesfahrplänen der Kraftwerke berücksichtigt werden. Andere Ereignisse sind jedoch nicht planbar, zum Beispiel Leitungsausfälle, Trafo- oder Kraftwerksstörungen oder Blitzeinschläge, die zu Kurzschlüssen und damit zu größeren Ausfällen im Stromnetz führen können. Erschwerend kommt hinzu, dass solche Ereignisse oft in Sekundenbruchteilen eintreten, viel schneller, als jeder Mensch reagieren könnte. Erste Sicherheitsreserve im Netz sind deshalb die riesigen Schwungräder, als die in solchen Fällen die rotierenden Turbinen und Generatoren fungieren. In diesen rotierenden Massen (Bild 2) sind enorme Energiemengen gespeichert, die sofort zur Verfügung steht. Große Turbinen und Generatoren wiegen hunderte von Tonnen und rotieren mit hohen Drehzahlen, typischerweise 1500 oder 3000 Umdrehungen pro Minute.

 

Bild 2. Solche Wellen für Kraftwerke wiegen oft mehr als 100 Tonnen und rotieren mit bis zu 3000 Umdrehungen pro Minute. Sie speichern daher große Energiemengen Bild http://www.saarschmiede.com/69.html

Es ist die darin gespeicherte, sofort ohne jede Verzögerung verfügbare Energie, welche in den ersten Sekunden einer größeren Störung die Netzfrequenz und damit die Netzstabilität innerhalb der zulässigen Grenzen hält. Unmittelbar darauf reagieren die Dampfventile der für die Notversorgung herangezogenen Kraftwerke und sorgen beispielsweise dafür, dass mehr Dampf auf die Turbine geleitet wird. Damit wird die zweite Verteidigungslinie der Netzstabilisierung aktiviert, die großen Energiereserven, die in den vielen tausend Tonnen extrem hoch erhitzten und komprimierten Dampfs gespeichert sind, welchen die riesigen Dampfkessel fossiler Kraftwerke ständig vorrätig halten. Diese extrem schnelle und in Sekunden verfügbare Stabilisierung kann nur von dampfbetriebenen Fossil- und Kernkraftwerken mit massiven, schnell rotierenden Generatoren gewährleistet werden. Einen gewissen Beitrag können auch Wasserkraftwerke leisten. Solar- und Windenergie sind hierzu dagegen außerstande, denn sie halten weder nennenswerte Rotationsenergie vor noch lassen sich Sonne und Wind gezielt herauf- oder herunterregeln. Vor diesem Hintergrund lassen Behauptungen, eine 100 prozentige Stromversorgung aus erneuerbaren Energien ohne konventionelle Kraftwerke sei möglich, doch erhebliche Zweifel daran aufkommen, ob die Betreffenden überhaupt wissen, wovon sie reden.

Worst Case: Ein Kraftwerks-Totalausfall

Eine der kritischsten Situationen, auf die eine Netzleitstelle ständig vorbereitet sein muss, ist der Totalausfall des größten derzeit am Netz befindlichen Kraftwerks oder einer sonstigen leistungsbestimmenden Komponente wie einer großen Fernleitung. Die im Netz vorgehaltenen Leistungsreserven müssen selbst in einem solchen Fall ausreichen, um einen Zusammenbruch zu verhindern. Dafür muss die ausgefallene Leistung innerhalb von Sekundenbruchteilen ersetzt werden. Um das zu erreichen, muss die Leitstelle dafür sorgen, dass automatisch genügend Zusatzleistung von den anderen mit dem Netz verbundenen Großkraftwerken bereitgestellt wird. Da einige wenige Kraftwerke einen solchen plötzlichen Mehrbedarf gar nicht stemmen könnten, wird die benötigte Ersatzleistung in vielen Teilbeträgen auf zahlreiche Kraftwerke aufgeteilt. Die einzelnen Beiträge sind dabei so klein, dass die jeweiligen Kraftwerke damit noch problemlos zurechtkommen. In der Regel sind dies 2,5 % der jeweils möglichen Erzeugungsleistung. Diese Reserve muss zur Hälfte innerhalb von 5 Sekunden und insgesamt innerhalb von 30 Sekunden bereitgestellt werden [PRIM]. Im Rahmen ihrer ständigen Notfallbereitschaftsplanung führt die Netzleitstelle eine ständig aktualisierte Liste mit denjenigen Kraftwerken, die zurzeit am Netz sind und über die Fähigkeit verfügen, diese Systemdienstleistung zu erbringen. Die Leistungsregler dieser Kraftwerke müssen hierfür ständig direkt von der Leitstelle aus ansteuerbar sein und werden von dort im Notfall dann aufgefahren. Dies erfolgt vollautomatisch computergesteuert innerhalb von Sekundenbruchteilen, viel schneller als ein Mensch reagieren könnte. Da Deutschland im Rahmen des europäischen Verbundnetzes im Notfall auch auf Hilfe aus dem Ausland zählen kann, liegt der Umfang dieser Leistungsreserve, die jederzeit abrufbereit zur Verfügung stehen muss, bei 700 MW [PRIM]. Aus beiden Angaben lässt sich leicht ausrechnen, dass zur Aufrechterhaltung der Netzsicherheit jederzeit 28000 MW an primärregelfähiger Kraftwerksleistung am Netz sein müssen – was inzwischen jedoch aufgrund des ständig wachsenden Aufkommens an Solar- und Windstrom im Netz nicht mehr ständig der Fall ist, Bild 3.

Bild 3. Als am 27.10. 2013 – einem Sonntag mit geringer Netzlast – ein Sturm über Deutschland hinwegfegte, war das Aufkommen an zwangseingespeistem Wind- und Solarstrom so hoch, dass der Beitrag konventioneller Kraftwerke unter die kritische Marke von ca. 28.000 MW gedrückt wurde (Daten: Strombörse EEX)

Wird diese kritische untere Grenze unterschritten, so gerät das Netz in Gefahr. Zwar kann man in solchen Fällen über das europäische Verbundnetz Hilfe von den Nachbarn erhalten, doch erwarten diese im umgekehrten Falle natürlich gleichwertige Dienste auch von Deutschland, so dass die ständig vorzuhaltende Leistung in der Summe letztlich gleich bleibt.

Die erste Regelebene ist entscheidend

Neben den ersten beiden Regelebenen – der Trägheitsreserve und der Sekundenregelung – verfügt die Leitstelle noch über eine Sekundär und Tertiärebene [WIKI], die innerhalb von 30 s bis 5 min bzw. innerhalb von 5 bis 15 min zur Verfügung stehen müssen. Aus diesem Grund bezeichnet man die zweite Ebene als Sekundenreserve und die dritte Ebene als Minutenreserve. Zur Sekundenreserve gehören vor allem schnellstartfähige Kraftwerke wie Gaskraftwerke, die innerhalb kürzester Zeit von Null auf Vollleistung gehen können, sowie Speicher-Wasserkraftwerke, die nur die Regelventile weiter zu öffnen brauchen. Die Sekundärregelung hat vor allem die Aufgabe, den Abfall der Netzfrequenz aufzufangen und damit die „rotierende Reserve“ zu entlasten, so dass sie für eventuelle weitere Notfälle wieder voll verfügbar wird. Überlappend hierzu werden auch die anderen Regelebenen aktiviert, indem zunächst Pumpspeicher- oder Gasturbinenkraftwerke – die auch die Sekundärregelung besorgen – und mit entsprechender Zeitverzögerung auch Großkraftwerke auf höhere Leistung gefahren werden.

Ungeachtet der Feinheiten des Zusammenspiels verschiedener Regelebenen muss man sich jedoch darüber im Klaren sein, dass die ersten Sekundenbruchteile einer größeren Störung entscheidend sind. Gelingt es nicht, das Netz innerhalb dieser ersten „Flackersekunden“ zu stabilisieren, so reicht selbst eine noch so große, aber eben erst nach 30 s verfügbare Zusatzleistung nicht aus, um einen Zusammenbruch zu verhindern: Dann geht es, bildlich gesprochen, nicht mehr um Therapie, sondern um Autopsie, denn die unterbrechungsfreie Stromversorgung ist dann nicht mehr möglich, es müssen Netze und/ oder Verbraucher abgeworfen und später mit hohen Kosten wieder hochgefahren werden.

Und bei der Betrachtung der zur Verfügung stehenden Rotationsenergie zeigt sich, dass die oft als „Dinosaurier“ geschmähten Großkraftwerke (Bild 4) hier einen entscheidenden Vorteil gegenüber kleineren Einheiten haben, denn ihre riesigen Turbinen-Rotor-Einheiten können erheblich mehr Energie speichern als kleinere Systeme, weil die Energie eines Schwungrads mit dem Quadrat des Durchmessers zunimmt.

 

Bild 4. Die oft als Dinosaurier geschmähten großen Dampfkraftwerke – hier das Kraftwerk Neurath – sind für die Aufrechterhaltung der Netzstabilität ganz einfach unersetzlich (Foto: Kohlekraftwerke.de)

Enorme Risiken

Vor diesem Hintergrund versteht man schnell, dass die „Energiewende“ mit der ins Auge gefassten Steigerung der Kapazitäten an Wind- und Solarstromerzeugung so nicht funktionieren kann, ohne die Netzstabilität zu opfern. Zur Zeit sind 32000 MW Windleistung und 34000 MW Solarleistung am deutschen Netz [EEX]. Sie tragen kumuliert jedoch nur etwa 12 % zur Gesamtstromerzeugung bei. Um die ca. 64 % zu erreichen, die nach EEG-Planung bis 2050 erreicht werden sollen (Annahme: 80 % Wind- und Solaranteil an insgesamt 80 % EE-Erzeugung), müssten bei gleichbleibendem Verbrauch noch fünfmal so viele Windräder und Solaranlagen wie aktuell verfügbar aufgestellt werden. Damit würden die konventionellen Anlagen endgültig aus dem Markt gedrängt, obwohl sie bei Flaute und fehlendem Sonnenschein dennoch gebraucht werden. Das ist völlig unrealistisch, kann doch die Lage in den deutschen Netzen bereits jetzt als kritisch bezeichnet werden [FOCU, RWE]. So sagte der Tennet-Chef einem Bericht in den VDI-Nachrichten vom 4.10.2013 zufolge: „Wir haben heute im Schnitt drei Eingriffe ins Stromnetz am Tag. Vor zehn Jahren waren es drei im gesamten Jahr” [EIKE]. Ähnliche Meldungen gibt es auch von den anderen deutschen Netzbetreibern. Falls nicht bald gegengesteuert wird, drohen im Falle von Blackouts insbesondere in modernen Industrien (Bild 5) mit ihren fein austarierten Hochleistungsprozessen oft enorme Schäden [BER].

 

Bild 5. Stromausfälle legen die in jedem modernen Betrieb unentbehrlichen Computer lahm. Das kann zu erheblichen Ausfällen und sogar Anlagenschäden führen

Schon eine einzige Stunde Blackout in Deutschland kann Schäden von bis zu 600 Mio. € verursachen [WEWO]. Hält man sich diese Tatsachen vor Augen, so weiß man angesichts von Berichten wie dem des Spiegel-Journalisten Stefan Schultz [SPON], der behauptet, die Stromversorgung lasse sich auf absehbare Zeit auch mit den bestehenden Mitteln ohne die Gefahr von Blackouts sichern, wirklich nicht mehr, ob man nun lachen oder weinen soll.

Vor diesem Hintergrund sind die jüngsten Äußerungen von RWE-Chef Peter Terium, dass sein Unternehmen aus den Planungen zum Bau konventioneller Kraftwerke komplett aussteigen will [RWE2], im Prinzip als Resignation zu werten. Im Bereich der Stromversorger scheint man offensichtlich die Hoffnung aufgegeben zu haben, dass die deutsche Politik in absehbarer Zukunft wieder zur Vernunft findet. Frau Merkel und ihre neue Regierung haben damit ein im Prinzip unlösbares Problem am Hals, noch bevor die Koalition auch nur steht. Auf Deutschland dürften somit im Sinne des Wortes düstere Zeiten zukommen.

Fred F. Mueller

Quellen

[BER] Bericht “Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel eines großräumigen und langandauernden Ausfalls der Stromversorgung”, Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestags (04/2011)

[EEX] http://www.transparency.eex.com/de

[PRIM] http://www.udo-leuschner.de/basiswissen/SB124-03.htm

[EIKE] http://www.eike-klima-energie.eu/news-cache/deutscher-journalismus-kommmir-nicht-mit-fakten-meine-meinung-steht/

[FOCU] http://www.focus.de/immobilien/energiesparen/bedrohliche-energiewende-502-stoerfaelle-im-ersten-halbjahr-stromnetz-steht-vor-kollaps_aid_1089770.html

[RWE] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[RWE2] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[SPON] http://www.spiegel.de/wirtschaft/soziales/kraftwerke-darum-braucht-deutschland-keinen-teuren-reservemarkt-a-929302.html

[WEWI] http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)




Führender Wissenschaftler: Echtes Risiko einer ‚kleinen Eiszeit’ nach Art des Maunder-Minimums

Bild rechts: Autor Paul Hudson

Ich war dabei, als Professor Mike Lockwood einen Blick auf seine Forschungen geworfen hat hinsichtlich einer möglichen Verbindung zwischen Sonnenaktivität und Klimavorgängen. Ihm zufolge war die zweite Hälfte des 20. Jahrhunderts eine Periode, in der die Sonne ungewöhnlich aktiv war und mit einem so genannten ‚Grand Maximum’ um das Jahr 1985 ihren Höhepunkt erreichte. Seitdem ist die Sonne immer ruhiger geworden.

Aufgrund bestimmter Isotope in Eisbohrkernen konnte er die Sonnenaktivität über Tausende von Jahren bestimmen. Nach der Analyse seiner Daten glaubt Prof. Lockwood, dass die Sonnenaktivität derzeit schneller zurück geht als zu irgendeiner Zeit während der letzten 10.000 Jahre. Er fand 24 verschiedene Zeitpunkte während dieser Zeit, in der sich die Sonne in genau dem gleichen Zustand wie derzeit befand – und die gegenwärtige Abnahme verläuft schneller als in diesen 24 Fällen.

Aufgrund seiner Ergebnisse hat er die Wahrscheinlichkeit des Auftretens eines neuen Maunder-Minimums von 10% vor einigen Jahren auf jetzt 25 bis 30% angehoben. Und die Wahrscheinlichkeit des Auftretens eines solaren Dalton-Minimums, wie es in der ersten Hälfte des 19. Jahrhunderts der Fall war und ebenfalls mit kalten Wintern und kühlen Sommern einher gegangen war, ist größer als die, dass es nicht dazu kommt.

Er glaubt, dass wir schon jetzt anfangen zu sehen, wie sich unser Klima in diese Richtung verändert – sind wir doch Zeuge kälterer Winter und kühlerer Sommer – und dass wir uns während der nächsten fünf Dekaden auf dem Weg in ein neues Maunder-Minimum befinden.

Es muss betont werden, dass nicht jeder Winter streng und nicht jeder Sommer kühl ausfällt. Aber strenge Winter und kühle Sommer werden häufiger auftreten.

Professor Lockwood hält in seiner Beschreibung der potentiellen Auswirkungen eines solchen Szenarios in UK nichts zurück. Er sagt, dass eine derartige Änderung unseres Klimas ausgeprägte Implikationen für die Energiepolitik und die Transport-Infrastruktur bereit hält.

Obwohl die größten Auswirkungen einer solchen von der Sonne getriebenen Änderung regionaler Natur hier in UK und Europa wären, gäbe es auch weltweite Implikationen.

Forschungen von Michael Mann im Jahre 2001 zufolge, einem lautstarken Befürworter der vom Menschen verursachten globalen Erwärmung, kann man abschätzen, dass die globale Temperatur durch das Maunder-Minimum um 0,3°C bis 0,4°C gesunken ist.

Man muss betonen, dass die meisten Wissenschaftler glauben, dass die langfristige globale Erwärmung nicht beendet ist. Jede globale Abkühlung durch dieses natürliche Phänomen wäre ultimativ vorübergehend, und falls die Projektionen korrekt sind [in Wirklichkeit sind sie ja Unsinn!, A. d. Übers.], würde die langfristige Erwärmung durch Kohlendioxid und andere Treibhausgase diese solar getriebene Abkühlung überkompensieren.

Sollte jedoch Nordwesteuropa wirklich Schauplatz einer neu heraufdämmernden ‚Kleinen Eiszeit’ sein, könnte das weit reichende politische Folgen haben – nicht zuletzt, wenn die Temperaturen stark genug fallen, wenn auch temporär, um Vieles der Erwärmung seit den fünfziger Jahren zu eliminieren.

ENDE 

Link: http://www.live.bbc.co.uk/blogs/blogpaulhudson/posts/Real-risk-of-a-Maunder-minimum-Little-Ice-Age-says-leading-scientist

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Extrem störend war für mich, am Ende der Übersetzung die Überzeugung des Autors dokumentieren zu müssen, dass CO2 der maßgebliche Klimatreiber ist. Warum nur fällt es selbst Menschen mit Denkkraft so schwer, diesen Superbetrug endlich über Bord zu werfen?

C. F.




Klimapolitik braucht wissenschaftliche Vorhersagen und keine Szenarien

Bild rechts: Autor J. Scott Armstrong

Die Computermodelle, auf die das IPCC sich verlässt, sind komplizierte Repräsentationen der Hypothese, dass menschliche CO2-Emissionen jetzt der primäre Faktor sind, der die Klimaänderung antreibt. Die Modellierer haben korrekt festgestellt, dass sie Szenarien erzeugen. Szenarien sind Geschichten, die aus einer Sammlung verschiedener Annahmen konstruiert worden sind. Gut konstruierte Szenarien können sehr überzeugend sein, so überzeugend wie ein gut geschriebener Roman oder ein gut gemachter Spielfilm. Allerdings sind Szenarien weder Vorhersagen noch das Produkt validierter Vorhersageverfahren.

Den IPCC-Modellierern waren offensichtlich die vielen Jahrzehnte der Erforschung von Vorhersagemethoden nicht bewusst. Zusammen mit Dr. Kesten Green habe ich ein Audit der Verfahren durchgeführt, die zur Erstellung der IPCC-Szenarien geführt haben. Wir fanden heraus, dass das IPCC 72 von 89 relevanten Prinzipien wissenschaftlicher Vorhersagen verletzt hat. (Die Prinzipien sind hier frei im Internet verfügbar). Würden Sie eine Flugreise antreten, wenn sie Zeuge der Unterhaltung zwischen dem Bodenpersonal wären, aus der hervorgeht, dass der Pilot 80 Prozent der Sicherheitsvorschriften vor dem Flug verletzt hat?

Angesichts der kostspieligen politischen Maßnahmen, die im Namen der Verhinderung einer vom Menschen verursachten globalen Erwärmung vorgeschlagen und eingeführt worden sind, sind wir erstaunt darüber, dass es nur eine einzige veröffentlichte und wissenschaftlich begutachtete Studie gibt, die behauptet, wissenschaftliche Langfrist-Vorhersagen der globalen mittleren Temperaturen zur Verfügung zu stellen. Die Studie: Der Artikel von Green, Armstrong und Soon 2009 im International Journal of Forecasting.

In der Studie wurden der Wissensstand und die verfügbaren empirischen Daten untersucht, um geeignete, auf Beweisen basierende Verfahren für langfristige Vorhersagen der globalen Mitteltemperaturen auszuwählen. Angesichts der Komplexität und der Ungewissheit der Lage kamen wir zu dem Ergebnis, dass das „Kein-Trend“-Modell die am meisten mit den Vorhersageprinzipien konsistente Methode ist.

Wir testeten das Kein-Trend-Modell mit den gleichen Daten, die auch das IPCC verwendet hat. Wir erzeugten jährliche Vorhersagen für Zeiträume von einem bis 100 Jahren im Voraus. Startpunkt war das Jahr 1851, von dem aus wir uns Jahr für Jahr vorwärts bewegt haben bis zum Jahr 1975, also dem Jahr, bevor der gegenwärtige Erwärmungs-Alarm ausgelöst worden ist. (Es ist auch das Jahr, in dem Newsweek und andere Magazine berichtet hatten, dass die Wissenschaftler „fast einstimmig“ der Ansicht seien, dass die Erde in eine neue Periode der globalen Abkühlung eintreten werde). Wir führten die gleiche Analyse für das IPCC-Szenario durch, bei dem die Temperaturen mit einer Rate von 0,03°C pro Jahr als Folge der zunehmenden menschlichen CO2-Emissionen steigen. Dieses Verfahren ergab 7550 Vorhersagen aus jeder Methode.

Alles in Allem hatte der Fehler der Kein-Trend-Vorhersage nur ein Siebentel der IPCC-Projektion betragen. Sie waren genauso akkurat oder noch akkurater als die IPCC-Temperaturen für alle Vorhersagezeiträume. Noch wichtiger, die relative Akkuratesse der Kein-Trend-Vorhersagen nahm mit der Länge des Vorhersagezeitraumes zu. Zum Beispiel betrug der Fehler der Kein-Trend-Vorhersage nur ein Zwölftel der IPCC-Szenarien für Vorhersagen 91 bis 100 Jahre im Voraus.

Unsere weiteren Forschungen überprüften eingehend andere Vorhersagemethoden, verwendeten mehr und bessere Daten und erweiterten unsere Validerungstests. Die Ergebnisse unterstreichen die Schlussfolgerung, dass es keine wissenschaftlichen Vorhersagen gibt, die eine gefährliche globale Erwärmung prognostizieren.

Auf einen auf- oder abwärts gerichteten Trend der Temperaturen gibt es hinsichtlich wissenschaftlicher Vorhersagen keinerlei Hinweise. Ohne Stützung durch wissenschaftliche Vorhersagen ist der Alarm der globalen Erwärmung ein falscher Alarm und sollte ignoriert werden.

Regierungsprogramme, Subventionen, Steuern und Vorschriften als Reaktion auf den Alarm der globalen Erwärmung führen dazu, dass wertvolle Ressourcen verschwendet werden. Sie führen zu inflationären Energiepreisen, abnehmender internationaler Wettbewerbsfähigkeit, dem Verschwinden von Industrien und Arbeitsplätzen und bedrohen Gesundheit und Wohlstand.

Klimapolitik erfordert wissenschaftliche Vorhersagen und keine von Computern erzeugten Storys darüber, was dem Glauben mancher Wissenschaftler zufolge geschehen könnte.

Professor J. Scott Armstrong ist ein Mitbegründer der zwei wichtigsten Journale zu Vorhersagemethoden, Autor von Long-Range Forecasting, Herausgeber des Handbuches Principles of Forecasting und Gründer der Website forecastingprinciples.com. Wenn jemand Vorhersagen haben möchte, ist er genau der Richtige, an den man sich wenden sollte.

Im Jahre 2007 schlug er Al Gore eine Wetter über zehn Jahre vor, dass er eine genauere Vorhersage erstellen könne als jede Vorhersage, die Al Gore ins Spiel bringen könnte. Siehe The Climate Bet, um die jüngsten monatlichen Ergebnisse zu sehen, die bislang eingetreten sein könnten.

Link: http://wmbriggs.com/blog/?p=9681

Übersetzt von Chris Frey EIKE




Im Takt der AMO und der NAO (2):Das Häufigkeitsverhalten der Großwetterlagenund dessen Auswirkungen auf die Deutschland- Temperaturen

Bild rechts: Mehr Südwestlagen durch höhere Wassertemperaturen? Quelle: WERNER/GERSTENGARBE  (2010)

Im Teil 1 hatten wir gesehen, dass die Häufigkeit südwestlicher und südlicher Wetterlagen mit Ausnahme des Winters deutlich zunahm und es gerade diese Wetterlagen waren, welche am stärksten erwärmend wirkten. Als eine mögliche Ursache für deren gehäuftes Auftreten (und dem gleichzeitigen Rückgang nördlicher Strömungskomponenten)kommt unter anderem die AMO in Betracht. Diese schwankte zumindest seit Beginn ihrer Erfassung in einem etwa 50- bis 70-jährigen Zyklus, und insgesamt sind die Wassertemperaturen momentan noch etwas höher, als im späten 19. Jahrhundert. Für die folgende Grafik (und alle weiteren im Teil 2) wurden 11- jährige Gleitmittel verwendet, um die stark schwankende Häufigkeiten der Großwetterlagen, Großwettertypen und Clusterzu glätten, so dass die Darstellungen jeweils 1886 beginnen und 2007 enden:

Abb. 1: AMO (Grün) sowie die Häufigkeit der Großwettertypen Süd (Dunkelrot) und Südwest (Orange) im Vergleich. Man beachte, dass die Südwestlagen (SWA und SWZ) als eigenständiger Großwettertyp nicht im Großwettertyp Süd enthalten sind. Beide Großwettertypen, vor allem aber die Südwestlagen, wurden deutlich häufiger und folgen außerdem- wenngleich mit einer gewissen zeitlichen Verzögerung und nur undeutlich- den Schwankungen der AMO.

Und bei den nördlichen bis östlichen Wetterlagen zeigen sich genau umgekehrte Verhältnisse:

Abb. 2: AMO (Grün) sowie die Häufigkeit der Großwettertypen Nord (Hellblau)und Ost (Hellgrün) im Vergleich. Auch hier gibt es bei den jeweils enthaltenen Großwetterlagen keine Überschneidungen. Beide Großwettertypen, vor allem aber die Ostlagen, wurden seltener.Die Häufigkeit der Nördlichen Lagen folgt fast exakt den Schwankungen der AMO, während die Ostlagen diesen mit deutlicher Zeitverzögerung folgen.

Aufgrund der hier gewonnenen Erkenntnisse bietet sich eine Auflistung aller Lagen und Cluster an, die von der AMO (jeweils Jahresmittel) wenigstensandeutungsweise (Betrag der Korrelationskoeffizienten >0,2) beeinflusst wurden:

Abb. 3 (Tabelle): Lagen mit AMO- Korrelationskoeffizienten, deren Betrag mindestens 0,2 erreichte (Gesamtjahr) im Vergleich. Man beachte, dass aufgrund der sehr unterschiedlichen Häufigkeitsverhältnisse sowie der mehrfachen Präsenz einzelner Lagen in verschiedenen Clustern ein quantitativer Vergleich über die Zusammenhänge nicht möglich ist! Trotzdem kann man unschwer erkennen, dass besonders „wärmende“ Lagen mit “positiver“ Reaktion auf erhöhte AMO- Werte zu- und viele kühlenden Lagen mit negativer Reaktion auf hohe AMO- Werte abgenommen haben. So sind, rein statistisch betrachtet, gegenwärtig pro Jahr fast 44 Tage mehr mit Südanteil zu erwarten, als im späten 19. Jahrhundert, während besonders östliche, nördliche und antizyklonale Lagen abnahmen. Bemerkenswert ist auch die starke Zunahme der (insgesamt im Jahresmittel) leicht erwärmend wirkenden zyklonalen Lagen auf Kosten der antizyklonalen.

Auch hier muss davon ausgegangen werden, dass die Jahresmittelung jahreszeitliche, deutlichere Unterschiede, auf die später noch eingegangen wird, verwischt. Außerdem werden hier mögliche übergeordnete Antriebsmechanismen für AMO, Wetterlagenverhalten und Deutschlandtemperaturen nicht untersucht.  Die folgenden Grafiken veranschaulichen weitere interessante Zusammenhänge zwischen AMO und Wetterlagen:

Abb. 4: Zyklonale Lagen (Mintgrün) nahmen deutlich zu und schwingen- wenn auch zeitverzögert- deutlich im Takt der AMO; bei Antizyklonalen Lagen (Orangerosa) ist es umgekehrt; auch ist der (hier negative) Zusammenhang zur AMO weniger deutlich.

Abb 5: Hier zeigt sich die deutliche Zunahme der Lagen mit südlicher Strömungskomponente (Südanteil) sowie der zwei Troglagen(von denen TRM kühlend, aber TRW erwärmend wirkt), beide mehr oder weniger zeitverzögert etwas von der AMO beeinflusst. TRW ist im Cluster Südanteil enthalten.

Abb. 6: Man erkennt sehr schön, dass „normale“ Westlagen (WA und WZ, Dunkelviolett) erstens viel häufiger als die „gestörten“ Westlagen (Hell Blauviolett)auftreten, beide konträr schwingen und von der AMO in umgekehrter Weise beeinflusst werden. Das rhythmische Verhalten der Westlagen wird noch zu diskutieren sein.

Bei solchen, auf das Gesamtjahr bezogenen Betrachtungen verschwinden allerdings jahreszeitliche Besonderheiten, welche nicht außer Acht gelassen werden dürfen. Die folgenden Tabellen fassen daher alle Großwetterlagen (GWL) und Großwettertypen sowie weitere Cluster zusammen, welche sich in den einzelnen Meteorologischen Jahreszeiten durch die jeweils stärkste Zu- oder –Abnahme der Häufigkeit, die stärkste positive/ negative Beeinflussung des Deutschlandmittels (°C Jahreszeiten) auszeichneten und deren Häufigkeit am stärksten positiv/negativ von der AMO und der NAO (jeweilige Jahreszeit, letztere nur im Winter) beeinflusst wurde:

Abb. 7 bis 10 (4 Jahreszeittabellen): Zusammenfassung der in den einzelnen Jahreszeiten auffälligsten Lagen. Nur im Winter zeigten 2 Cluster, nämlich alle Lagen mit Westlichem Strömungsanteil und der Großwettertyp Ost, einen deutlichen Einfluss auf die zugehörigen Wintermitteltemperaturen in Deutschland. In einzelnen Monaten, die aus Gründen des Umfangs hier nicht behandelt werden konnten, sind noch einige wenige ähnlich enge Zusammenhänge ermittelt worden, siehe Abb. 5 im Teil 1. Außerdem muss betont werden, dass die linearen Zu- und Abnahmen als Rechengrößen nicht überbewertet werden dürfen, denn bei Betrachtung kürzerer Zeiten zeigen sich bemerkenswerte Einzelheiten und oft auch periodische Verhaltensweisen der Häufigkeiten, auf welche im Teil 3 näher eingegangen wird.

Man kann vermuten, dass die Sonnenscheindauer, welche besonders zwischen etwa Ende März und Anfang Oktober einen deutlichen Einfluss auf die Lufttemperaturen in Deutschland hat (KÄMPFE, LEISTENSCHNEIDER, KOWATSCH, 2013; WEHRY, 2009) die durch die Großwetterlagen bedingten Temperaturunterschiede (Luftmassen!) verringert und nivelliert (in trockener Subpolarluft führt der lange und intensive Sonnenschein zur raschen Erwärmung der Kaltluft, beispielsweise im Juli 2013, als es trotz häufiger nördlicher Windkomponente recht warm war und sich nur in den kurzen, sehr kühlen Sommernächten die meist subpolare Herkunft der Luftmassen zeigte, während sich subtropische, aber wolkenreichere Luftmassen tagsüber im Sommeroft weniger erwärmen). Dem entsprechen auch die Untersuchungsergebnisse, nach denen Südwestlagen im Juli als einzigem Monat nicht erwärmend wirkten. Im Winter, wenn der Einfluss der Sonnenscheindauer gering ist, können sich hingegen die Unterschiede zwischen trocken- kalter Nordostluft und feucht- milder Atlantikluft über Deutschland halten oder sogar verschärfen, weil in der Atlantikluft die Wolken die Auskühlung bremsen, während die klare, wasserdampfarme Nordostluft weiter auskühlt. Die nächste Abbildung zeigt zur Verdeutlichung, wie schwierig die Interpretation und die Bewertung der Folgen der Häufigkeitsschwankungen der Großwetterlagen und deren Cluster ist, das Verhalten von 3 insgesamt deutlich erwärmend wirkenden Clustern im Herbst:

Abb. 11: Drei Cluster mit deutlicher linearer Zunahme im Herbst. Aber nur beim Cluster Südanteil hielt diese Zunahme tatsächlich bis zum Ende des Untersuchungszeitraumes an, während besonders das Cluster Westanteil etwa ab der Jahrtausendwende wieder seltener wurde.

In diesem zweiten Teil wurde verdeutlicht, dass die AMO das Häufigkeitsverhalten zahlreicher Wetterlagencluster, Großwettertypen und sogar einzelner Großwetterlagen, im Jahresmittel zumindest andeutungsweise mit beeinflusst. Dabei ist außerdem nicht ausgeschlossen, dass übergeordnete Antriebe wie etwa die Variabilität der Sonnenaktivität oder der großräumigen (planetarischen) Zirkulation, als übergeordnete Treiber fungieren. Die Zusammenhänge sind nur schwach bis mäßig (Korrelationskoeffizienten zwischen +0,46 und -0,31); aufgrund des großen Stichprobenumfangs dürfen diese jedoch nicht unterschätzt werden. Dabei zeichnet sich ab, dass für Deutschland erwärmend wirkende Lagen, besonders Südwestlagen, in positiven AMO- Phasen häufiger auftreten und insgesamt mit den leicht steigenden Wassertemperaturen stark zunahmen; bei den meisten kühlenden Lagen herrschten umgekehrte Verhältnisse. In den einzelnen Jahreszeiten zeigte sich, dass mit Ausnahme des Winters südliche und südwestliche Lagen deutlich häufiger wurden. Außerdem war im Winter als einziger Jahreszeit und in einzelnen Sommermonaten ein deutlicher Einfluss der Häufigkeiten bestimmter Cluster auf die Lufttemperaturen zu verzeichnen (Cluster Westanteil- stark erwärmend, GWT E- stark kühlend; Kontinentale Hochdrucklagen- vor allem im Juli stark wärmend). Besonders in den Übergangsjahreszeiten werden die meisten Zusammenhänge undeutlicher; und oft nivelliert in der strahlungsreicheren Jahreszeit die Sonnenscheindauer viele luftmassenbedingte Unterschiede.

Verfasst und zusammengestellt von Stefan Kämpfe, Weimar, 2012/2013.

Eine ausführliche Zusammenstellung der verwendeten Literatur und Informationsquellen finden Sie am Ende des 3. Teiles




Wir hatten es Euch doch gesagt! „Öl-Knappheit ist ein Mythos“ meint der BND

Nun aber meldet sich der BND mit einer „Studie“ macht- und geräuschvoll und dazu öffentlich zurück. In der Welt lesen wir zur BND Studie:

„Künftig haben wir kein Problem knapper Reserven mehr.“

Daraus folge aber, dass der Ausstoß des Klimagases Kohlendioxid zunehme und die Umwelt weiter belaste.“

Um gleich danach die chronisch klimaalarmistischen Kollegen der AFP zu zitieren: „Der Klimawandel geht weiter“ so der Titel einer Bildstrecke mit der Abbildung eines Globus und darauf „Extreme Wetterereignisse“.

Im Laufe des weiteren Artikel wird dann berichtet (Hervorhebungen vom Autor):

Daraus folge aber, dass der Ausstoß des Klimagases CO2 zunehme und die Umwelt weiter belaste. „Der Verteilungskampf wird darum gehen, wer künftig wie viel CO2 emittieren darf“, heißt es in einer neuen Bewertung des BND, der damit seine Analyse über die Folgen der Schiefergas-/Schieferölfunde in den USA von November 2012 und Juni 2013 aktualisiert hat. Die Behörde bestätigte die Existenz der Studie auf Nachfrage der „Welt“.

Grund für den erwarteten dramatischen Wechsel in geostrategischen Debatten ist laut BND nicht nur, dass Schwellenländer immer mehr Energie verbrauchen. Vor allem erschwert die zunehmende Förderung von sogenanntem unkonventionellem Gas und Öl den Wechsel von fossilen auf erneuerbare Energien immer mehr…

..Und die frühere Sorge vor einem Versiegen der Öl- und Gasquellen ist verflogen. Stattdessen nehme die Zahl der heute nachgewiesenen anerkannten Reserven fossiler Energieträger weltweit immer mehr zu. Grund sind neue Technologien, die die Förderung aus bisher unzugänglichen Lagerstätten ermögliche.

Brisant ist die Analyse und die Warnung vor einem „Deponieproblem“ für Klimagase, weil sie nicht von Umweltschützern stammt, sondern von einem Auslandsgeheimdienst. Bereits heute sei absehbar, dass noch vor 2040 die Grenze des CO2-Anteils in der Luft von 0,045 Volumenprozent (450 ppm) überschritten werde. Dies bedeutet, dass in einer Million Luftmoleküle 450 Kohlendioxidmoleküle enthalten sind.

und die FAZ assistiert:

Die Warnung hat mittlerweile Widerhall in der deutschen Innenpolitik gefunden. „Wenn die Kohlefreunde von Union und SPD sich durchsetzen, wäre das katastrophal fürs Klima und teuer für die Verbraucher“, sagte die Grünen-Parteichefin Simone Peter: „Wer auf fossile Energien wie Kohle und Öl setzt, beschleunigt den Klimawandel, verschärft internationale Konflikte und spielt mit der Zukunft nachfolgender Generationen.“

Offensichtlich sind sowohl die Schlapphüte des BND, wie auch viele Mitglieder der schreibenden Zunft, immer noch nicht darauf gekommen, dass die Klimakatastrophenidee sich schon länger totgelaufen hat, weil die Natur sich einfach nicht um die Kristallkugeln der Klimakatastrophenwissenschaftler kümmert. Vielleicht deshalb, weil sie nur das sehen oder hören wollen, was sie dürfen, oder wollen. Wie beim Kanzlerinnenhandy. Das konnte jeder wissen, nur der BND nicht. Denn damit gibt er sich gar nicht erst ab. Bei Wikipedia findet man über seine Aufgaben: 

Der BND ist der Auslandsnachrichtendienst der Bundesrepublik Deutschland und damit zuständig für die Beschaffung sicherheits- und außenpolitisch relevanter Erkenntnisse aus dem Ausland bzw. über das Ausland (§ 1 Abs. 2 BND-Gesetz).[5] Er darf hierzu nachrichtendienstliche Mittel, wie zum BeispielObservationLegendierungen und Tarnkennzeichen, anwenden. Im Unterschied zu den Auslandsgeheimdiensten einiger anderer Staaten hat der BND nach § 2 des BND-Gesetzes grundsätzlich keine polizeilichen Exekutivbefugnisse, ist also z. B. nicht zur Durchführung von Festnahmen berechtigt.

Seine Erkenntnisse gibt der Dienst weiter an die Bundesregierung und Abgeordnete des Bundestags. Nach eigenen Angaben erstellt der BND im Monat rund 300 Berichte zu verschiedenen Themen und Ländern und beantwortet im Monat etwa 800 Anfragen zu Krisengebieten oder konkreten Sachverhalten (Stand 2013). In Hintergrundgesprächen informiert der BND Abgeordnete, er nimmt an Sitzungen von Bundestagsausschüssen teil und brieft Ministerien.[6]

Zu diesen sicherheitsrelevanten Erkenntnissen gehört zwar nicht das Kanzlerinnen-Handy, wohl aber die Angst vorm Klimawandel. Leider wohl nicht mehr die Angst vorm baldigen Ende der Energieressourcen. Da muss schnell was Neues her. Wasserknappheit z.B. böte sich auch im wasserreichen Deutschland an.

* Vielleicht hält es Frau Merkel aber nur mit unserem Altkanzler Konrad Adenauer der sagte: „Was interessiert mich mein Geschwätz von gestern.“




Wenn Sie immer noch an ‚Klimaänderung’ glauben, lesen Sie dies…

Heißt das, dass Ed Davey Chris Huhne hätte in das Gefängnis folgen sollen wegen seiner Behauptung gegenüber Andrew Neil in der BBC-Sendung Daily Politics? Dort hatte er getönt, dass „eine kürzliche Analyse von 12 000 Klimastudien … der Wissenschaftler von den 97 Prozent ergeben habe, dass der Klimawandel stattfindet und dass die Ursache menschliche Aktivitäten seien“.

Nein, unglücklicherweise sollte er das nicht wirklich, weil er nichts technisch Falsches gesagt hat. Ein besserer Kandidat für das Gefängnis wäre jeder, der unter dem Namen @Barack Obama twittert. Mit seinem Twitter „97 Prozent aller Wissenschaftler stimmen überein: Die Klimaänderung ist real, vom Menschen verursacht und gefährlich“ hat er nachweislich die Unwahrheit verkündet.

Niemand hat jemals bestritten, dass sich das Klima ändert.

So ziemlich jeder – möglicherweise sogar mehr als 97 Prozent – stimmt darin überein, dass es bis zu einem gewissen Grad einen anthropogenen Einfluss gibt, selbst wenn es der kaum messbare Beitrag durch Entgasungen von Rindern oder die von Städten erzeugte Wärme ist.

Aber ist das gefährlich? Niemand hat diese Gefährlichkeit jemals auch nur annähernd belegen können, es gibt keinen schlüssigen Beweis dafür, und nur sehr wenige Wissenschaftler – mit Sicherheit viel, viel weniger als 97 Prozent von ihnen – würden jemals ihren Ruf mit einer derartig tendenziösen Behauptung aufs Spiel setzen.

Hintergrund von all dem – und der Mär von den „97 Prozent aller Wissenschaftler sagen…“ – wird expertenmäßig in einer neuen Studie für die Global Warming Policy Foundation von Andrew Montford beschrieben.

In einer vernünftigen Welt hätte diese Studie nicht geschrieben werden müssen. Ein obskurer grünpolitischer Aktivist namens John Cook und einige seiner Öko-Kumpane haben eine pseudowissenschaftliche Studie fabriziert, die so voller Falschaussagen steckt, dass man sie eigentlich gleich hätte in die Tonne treten sollen. Stattdessen wurde sie von einer willfährigen Meute von Mainstream-Medien, einer verzweifelten und propagandahungrigen grünen Industrie sowie durch den US-Präsidenten aufgebläht zu einer sehr wichtigen Meta-Analyse, die unbestreitbare Beweise für einen „wissenschaftlichen Konsens“ zur „Klimaänderung“ liefert.

Montford kommt zu dem Ergebnis:

Der Konsens, so wie er von dieser Studie beschrieben wird, ist praktisch bedeutungslos und sagt uns nichts über den gegenwärtigen Stand der wissenschaftlichen Meinung außer der trivialen Beobachtung, dass Kohlendioxid ein Treibhausgas ist und dass die Menschen den Planeten durch ihre Aktivitäten bis zu einem gewissen, nicht näher benannten Ausmaß erwärmt haben. Die Methodik hat folglich in keiner Weise die Schlüsselpunkte angesprochen, die gegenwärtig in der Debatte um die globale Erwärmung eine Rolle spielen“.

Wie also gelingt es diesen Schurken [bastards], damit durchzukommen? Jamie Whyte bietet eine faszinierende, kluge und originelle Antwort an, und zwar in seiner neuen Studie für das  Institute of Economic Affairs – Schwatz-Politik [Quack Policy].

(Eine Zusammenfassung der Reaktion der Linken darauf findet man hier)

In der Studie legt er das „rhetorische Wutgeheul“ zwischen den Worten des klimaalarmistischen Establishments offen, dass ihr Anliegen stärker und vertrauenswürdiger „wissenschaftlich“ erscheinen lassen soll, als es tatsächlich der Fall ist. Im Besonderen ist er skeptisch hinsichtlich jener, die versuchen, ihr Anliegen mit der doppelsinnigen Bezeichnung „auf Beweisen basierende“ Politik [„evidence based“ policy] voranzutreiben.

„Sie sind parteiisch bei der Aufrechnung von Kosten und Nutzen; sie ignorieren Austauscheffekte; sie tun so, als ob mathematische Präzision ein Beweis ist; sie verwechseln Risiko und Unsicherheit und sie übertreiben die aus den verfügbaren Beweisen resultierende Gewissheit. Sie verschleiern all diese Fehler mit grandiosen Bedeutungslosigkeiten über wissenschaftlich begutachtete Veröffentlichungen, einen Konsens unter Wissenschaftlern und die Einsetzung offizieller wissenschaftlicher Komitees“.

Für Whyte – Ökonom und Philosoph – besteht der Hauptfehler der warmistischen Argumentation darin, dass sie keinen vernünftigen Diskontsatz verwenden.

Keine der projizierten katastrophalen Auswirkungen der Klimaänderung ist gegenwärtig im Gange, sondern nur in einer imaginären Zukunft (die niemals eintreten könnte: man erinnere sich, dass es lediglich nicht verifizierbare Computer-„Modellprojektionen“ gibt). Also sollten wir bei der Betrachtung unserer teuren Maßnahmen zur Verhinderung bzw. Abschwächung in den Mittelpunkt rücken, dass „zukünftige Generationen“ reicher als wir und daher viel besser in der Lage sein werden, irgendwelche Probleme anzugehen, die die „Klimaänderung“ für sie bereit halten könnte.

Aber die Alarmisten können es sich nicht leisten, das zuzugeben, denn wenn sie es täten, würden sie ihr Anliegen, dass die Zeit zum Handeln jetzt und jede Verzögerung fatal ist, irreparabel schwächen. Dass sie die bevor stehende Katastrophe so hervorheben, soll eine rationale Vorgehensweise ausschließen, als ob sie durch die Politik pflügen wollen, bevor besonnenere Gemüter ihre Betrügereien bemerken.

Um dem Katastrophismus mehr Glaubwürdigkeit zu verleihen, bemühen die Alarmisten immer wieder die Bedeutung des „Konsens’“. (Das ist natürlich der Grund dafür, dass sie um die o. g. Studie von Cook ein solches Fass aufmachten).

Und wieder findet Whyte in dieser Argumentationslinie eine Schwindelei:

Die AGW vorhersagenden Klimamodelle wurden nie getestet, und sie sind keine logischen Ableitungen aus bekannten physikalischen und chemischen Gesetzen. Warum nur setzen die Wissenschaftler dann so hohes Vertrauen in diese Modelle? Mit anderen Worten, wenn es wirklich einen wissenschaftlichen Konsens gibt, muss man uns genau dies erklären. Er kann sich nicht selbst erklären oder rechtfertigen.

Guter Punkt. Und ich würde zu gerne eine überzeugende Antwort hierauf hören von den zahlreichen namhaften Wissenschaftlern, die ihr Prestige oder ihre Berühmtheit oder ihre vermutete Erfahrung eingebracht haben, um die große Angst vor der Klimaänderung zu befeuern. Ich denke hier an alle von Lord Winston und Sir Paul Nurse bis zu Hintergrund-Wissenschaftlern wie Ben Goldacre, Simon Singh und Dara O’Briain. Sie alle haben bei vielen Gelegenheiten vorgegeben zu wissen, dass „Klimaänderung“ ein wesentliches Problem ist, weil es unter den Wissenschaftlern eine Art „Konsens“ gibt.

Weiter erläutert Whyte:

Wir haben kein Vertrauen in die Vorhersagen der Physik, weil die Physiker sagen, dass wir das haben sollten. Stattdessen gründet sich unser Vertrauen auf den außerordentlichen Erfolg der Physik. Die physikalischen Theorien gestatten es uns nicht nur, die Existenz und Stellung bislang nicht beobachteter Planeten zu vermuten oder die Geschwindigkeit zu berechnen, mit der kleine Teewagen in den wissenschaftlichen Laboratorien umher rollen, sondern sie erlaubt uns auch, Dinge zu konstruieren wie Fernsehapparate, Raumschiffe, Mikrowellen-Öfen und so weiter. Physiker ziehen ihre Glaubwürdigkeit aus der Physik, nicht umgekehrt. Darum ist ihre spezielle Glaubwürdigkeit auf die Physik beschränkt.

Jene, die Klimamodelle bauen, sind Wissenschaftler. Aber sie haben in ihrem Bereich der Wissenschaft keinen Erfolg, uns zu beeindrucken, weder mit ihren Vorhersagen noch mit den Implikationen. In Abwesenheit dieser Dinge sollte man ihren Beteuerungen des Vertrauens nur wenig Gewicht beimessen. Vor allem, wenn solche Beteuerungen vorhersehbar sind selbst in Abwesenheit einer geeigneten Basis für dieses Vertrauen.

Whyte hat recht! Der Gedanke, dass die Industrie der katastrophalen Klimaänderung irgendeine Art Achtung aus wirklicher Wissenschaft ableiten kann, ist eine Beleidigung für die wirkliche Wissenschaft.

Um all das weiter zu stützen, könnte dieser ausgezeichnete Essay von Dr. Richard Lindzen von Interesse sein, den man hier bei Watts Up With That? lesen kann. Er argumentiert, dass die Mainstream-Wissenschaft derzeit dem Lysenkoismus gleicht, und ihre Anhänger haben mehr mit religiösen Zeloten gemein als mit Personen, die skrupellos nach der Wahrheit suchen.

„Der globale Klima-Alarmismus war für die Gesellschaft teuer und hat das Potential, noch erheblich teurer zu werden. Er hat auch die Wissenschaft beschädigt, haben doch Wissenschaftler sowohl Daten und selbst Theorien manipuliert, um politisch korrekte Ergebnisse zu erzielen. Wie kann man der Eisernen Triangel entkommen, wenn sie eine Schummel-Wissenschaft hervorbringt, die immensen Einfluss hat und zu einer katastrophalen öffentlichen Politik führt?“

Richtig, ihr wehleidigen, lügnerischen, korrupten, engstirnigen, pseudowissenschaftlichen, fanatischen Klima-Trolle! Lasst uns eure erbärmlichen Entschuldigungen hören…

Link: http://blogs.telegraph.co.uk/news/jamesdelingpole/100234054/if-you-still-believe-in-climate-change-read-this/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Wie auch bei einem anderen Artikel von James Delingpole, den ich kürzlich übersetzt habe, sticht mir hier wieder seine klare und jeden Laien ansprechende Wortwahl ins Auge. Diese Klarheit findet sich auch in seinem Buch Watermelons, wenngleich er dort auch eine weniger drakonische Sprache benutzt.

Ich möchte die Aufforderung im letzten Satz gerne an diejenigen Kommentatoren hier auf der Website des EIKE weitergeben, die ebenfalls noch das Hohelied der CO2-Katastrophe singen!

C. F.




Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records

Abstract:

The longest six instrumental temperature records of monthly means reach back maximally to 1757 AD and were recorded in Europe. All six show a V-shape, with temperature drop in the 19th and rise in the 20th century. Proxy temperature time series of Antarctic ice cores

show this same characteristic shape, indicating this pattern as a global phenomenon. We used the mean of the 6 instrumental records for analysis by discrete Fourier transformation (DFT), wavelets, and the detrended fluctuation method (DFA). For comparison, a  stalagmite record was also analyzed by DFT. The harmonic decomposition of the above mentioned mean shows only 6 significant frequencies above periods over 30 yr. The Pearson correlation between the mean, smoothed by a 15 yr running average (boxcar) and the reconstruction using the 6 significant frequencies yields r = 0.961. This good agreement has a 99.9% confidence level

confirmed by Monte Carlo simulations. It shows that the climate dynamics is governed at present by periodic oscillations. We find indications that observed periodicities result from intrinsic dynamics.

Related Files




US-Schiefer-Revolution erinnert an reiche Erfindungsgabe, das Übernehmen von Risiken und Unternehmertum in Amerika

Bild rechts: Autor Mark J. Perry. Mehr zum Autor: http://www.aei-ideas.org/author/mperry/

Zuckerman präsentiert fachkundig eine sehr detaillierte und lesenswerte Geschichte der amerikanischen Spekulanten, die irgendwann „den Code geknackt“ haben für Schiefergas und –öl sowie des revolutionierten US-Energiesektors mit Beginn im Jahre 2008. Während es die meisten großen Ölunternehmen aufgegeben haben, nach neuen Öl- und Gasfunden in Amerika zu suchen und sich darauf konzentriert haben, anderswo Erkundungen durchzuführen – Afrika, Asien, Russland – war es einer kleinen Gruppe von US-„Petrounternehmern“ [„petropreneurs“] vorbehalten, kosteneffektive Technologien zu entwickeln, um die Ozeane von Öl und Gas zugänglich zu machen, von denen sie wussten, dass sie in mit fossilen Treibstoffen gesättigten Schieferformationen mehrere Kilometer unter der Erdoberfläche enthalten waren.

In dem Material zur Bekanntmachung des Buches heißt es: „Jedermann wusste, dass es unsinnig war zu versuchen, in Schiefergestein tief unter der Erde begrabenes Öl und Erdgas zu extrahieren. Jedermann – mit Ausnahme von ein paar waghalsigen Spekulanten, die ihre Karrieren aufs Spiel setzten, um der Welt zu beweisen, dass sie unrecht hatte“.

Hier folgt ein geringfügig überarbeiteter Auszug aus dem letzten Kapitel des Buches. Darin sind meiner Ansicht nach einige der Schlüsselpunkte der amerikanischen Schieferrevolution genannt sowie der Petrounternehmer, die das ermöglicht haben:

Eine Gruppe von Frackern, die sich eher auf die Kräfte des Marktes als auf Lenkungen seitens der Regierung verließ, hat dramatische Fortschritte erzielt, indem sie sich auf fossile Treibstoffe aller Art konzentrierte. Es ist ein eindrucksvoller Beweis dafür, dass Durchbrüche in der Industrie normalerweise durch schrittweise Fortschritte erreicht werden, oftmals im Angesicht von tiefem Skeptizismus, und nicht durch von der Regierung inspirierte Heureka-Momente.

Das Team von George Mitchell hat 17 frustrierende Jahre damit zugebracht, bedeutende Mengen Gas aus dem Schiefer zu gewinnen, die Männer von Harold Hamm haben bis zum Jahr 2007 vergeblich versucht, viel Öl aus dem Bakken-Feld zu pumpen, während das Unternehmen von Charif Souki in den letzten Zügen lag, bevor es auf die Idee kam, Gas zu exportieren. Was sie erreicht haben, ist ein Hinweis auf die Rolle von Beharrlichkeit und Halsstarrigkeit bei Fortschritten in der Vergangenheit.

Ausländischen Nationen fehlt vielleicht das Schlüsselelement hinter der US-Energierevolution: eine unternehmerische Kultur und reichliche Anreize für die Jahre der Versuche und der Fehler, die für die Durchbrüche hinsichtlich Schiefer erforderlich waren. George Mitchell, Harold Hamm, Mark Papa und andere eigenwillige Spekulanten harrten aus, weil sie wussten , dass sie sowohl Ruhm als auch bemerkenswertes Glück ernten würden, wenn sie wirtschaftliche Wege finden würden, an die im Schiefer verborgenen Schätze zu gelangen. Vergleichbare Preise gibt es in anderen Ländern nicht immer, wo die Regierungen eine größere Rolle in der Gesellschaft spielen können.

Die USA prahlen auch mit einer extensiven Energie-Infrastruktur wie Pipelines und aufwändigen Datensammlungen der Geologie im Untergrund, große Kapitalmärkte zur Finanzierung der Bohrungen, mehr Bohrplattformen als jedermann sonst, Speichermöglichkeiten und erfahrene Arbeitskräfte.

Die Rechtsordnung der USA gibt individuellen Eigentümern das Recht, auf die Mineralien unter ihrem Land zuzugreifen sowie die Möglichkeit, diese Rechte an Andere zu verpachten. Das hat die Bohrungen im Vergleich zu anderen Nationen beschleunigt, wo die Rechte an Mineralien durch sich nur langsam bewegende Regierungen kontrolliert werden. Und die USA profitieren von der geringen Bevölkerungsdichte in Gebieten wie North Dakota und Texas, wo sich viele der reicheren Schieferlagerstätten befinden.

Es gibt einige Dinge, die in den USA anscheinend besser funktionieren als anderswo, wie z. B. das Kreieren von Computer-Apps, Drohnen und [rap stars; was immer das sein soll. A. d. Übers.]. Fracking ist ein anderer Bereich, in dem es einen ausgeprägten amerikanischen Vorteil gibt.

Gegen all die Kritik, dass das Land seinen Vorreiterrolle hinsichtlich Innovation aufgegeben habe, ist die rasant zunehmende amerikanische Energieerzeugung eine Erinnerung an die reiche Erfindungsgabe, das Übernehmen von Risiken und Unternehmertum, die immer noch im Lande verblieben sind. Autor Niall Ferguson und Andere argumentieren, dass die westliche Zivilisation in eine Periode des Rückgangs eingetreten ist, aber viele kleinere amerikanische Städte erleben derzeit eine Renaissance mit einigen jungen Menschen im Energiegeschäft, die sich an sechsstelligen Gehältern erfreuen und auf eine zugrunde liegende Belastbarkeit in einem Land hinweisen, das sich immer noch von einem tiefen wirtschaftlichen Abschwung erholt.

Den Erfolge der Architekten der Schiefer-Ära kann man Kreativität, Draufgängertum und den starken Wunsch zuordnen, wirklich wohlhabend zu werden. Mehr Amerikanisches braucht es dazu nicht. Tatsächlich, während die gewaltigen Gewinne, die die vom Markt beherrschte amerikanische Wirtschaft verspricht, zu einer unglücklichen Einkommensverteilung geführt haben, stellen sie auch Anreize für ein bemerkenswertes Ziel dar.

Mark Perry dazu: Ich würde nicht so sehr das Statement im letzten Satz betonen über eine „unglückliche Einkommensverteilung“, sondern eher auf etwas anderes hinweisen: während die Anzahl der Milliardäre und Millionäre durch die Schiefer-Revolution zugenommen hat und zu größeren Einkommensunterschieden geführt haben könnte, haben doch die „Milliardärs-Spekulanten“ enorme Einsparungen für alle Amerikaner gebracht, indem sie für sinkende Energiepreise gesorgt haben. Zum Beispiel zeigt die Tabelle unten, dass die Amerikaner seit dem Jahr 2008 kollektiv über 357 Milliarden Dollar durch niedrigere Erdgaspreise in den Jahren von 2009 bis 2012 gespart haben, jedenfalls Daten zu Gasverbrauch und –preisen der Energy Information Administration EIA zufolge (eine ähnliche Analyse durch die American Gas Association findet sich hier).

Summa summarum: Obwohl die Schiefer-Revolution lediglich einer kleinen Gruppe risikofreudiger Spekulanten großen Reichtum gebracht hat, würde ich sagen, dass ihr persönlicher Wohlstand verblasst vor den signifikanten Vorteilen für die Gesellschaft durch niedrigere Gaspreise und hunderte Milliarden Dollar an Einsparungen für Amerikaner in allen Einkommensschichten als nur ein Beispiel der vielen Vorteile der Schiefer-Revolution. Dem Land als Ganzes geht es wegen des Großen Amerikanischen Energie-Booms deutlich besser, und jede daraus sich ergebende „Einkommensverteilung“ ist nur ein sehr kleiner Preis, den man für viel größere Vorteile und günstige Bedingungen aufbringen muss, die wir alle derzeit erleben. Aber das ist eine unbedeutende Wortklauberei, und ich zögere nicht, jedem dringend Zuckermans großen Beitrag einer sehr bemerkenswerten Energie-Erfolgsstory zu empfehlen.

Link: http://www.aei-ideas.org/2013/10/the-us-shale-revolution-is-a-reminder-of-the-deep-pools-of-ingenuity-risk-taking-and-entrepreneurship-in-america/

Übersetzt von Chris Frey EIKE

p. s. Kann so etwas rein theoretisch nicht auch in D oder EU passieren? A. d. Übers.




EIKE Klima- und Energiegespräche zur IPCC Konferenz in Warschau

Am 20.November findet im Hotel Mercure Grand das erste Expertenbriefing zu Klima und Energiefragen statt. Beginn 8:15 Uhr. Die Vortragssprache ist Englisch. Es wird simultan von polnisch <-> englisch und zurück übersetzt.

Programm 

Expertenbriefing zu Klima und Energie
Hotel Mercure Grand, Warschau, 20. November 2013

08.15 Uhr

Registrierung und Kaffee

09.00 Uhr

Begrüßung – Warum ist Klima für uns ein Thema

Wolfgang Müller

Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

9.15 Uhr

Manipulation vs. Realität – Der Erfolgsdruck der UN

Marc Morano

ClimateDepot, USA

09.45 Uhr

Der UN-Klimarat: Eine Schande für die Wissenschaft

Donna Laframboise

Blog nofrakkingconsensus.com, Autor des Buchs “The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“, Toronto, Canada

10.30 Uhr – 11.00 Uhr Pause

Ein leichtes Frühstück wird serviert

11.00 Uhr

Menschengemacht oder Natürlich? Die Klimadebatte in der NASA

Walt Cunningham

NASA Wissenschaftler und früherer Apollo VII Astronaut

11.45 Uhr

Meeresspiegelanstieg – Fakt und Fiktion

Prof. em. Dr. Niels Axel Mörner

Department of Paleogeophysics & Geodynamics, University of Stockholm

12.30 Uhr Mittagessen

13.30 Uhr

Die Energiewende und ihre Kosten für die Verbaucher

Michael Limburg

Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

14.00 Uhr

Climate Change in the Geological Past

Prof. Dr. Leszek Marks  

Institute of Geology, University of Warsaw

14.30 Uhr – 15.00 Pause

15.00 Uhr

Die Katastrophe der UN Klima- und Energiepolitik

Dr. Bolesław Jankowski

Vizepräsident, Systems Research EnergySys Ltd.

15.45 Uhr

Schlussworte

Dr. Holger Thuss

Präsident, Europäisches Institut für Klima und Energie (EIKE)

16.00 Uhr

Empfang und Ende der Konferenz

Snacks und Getränke werden serviert

All Vorträge und Diskussionen werden simultan gedolmetscht Englisch-Polnisch und Polnisch-Englisch

Aufgrund begrenzter Sitzplätze wird um Anmeldung gebeten

Bitte schicken Sie Ihre Anmeldung mit vollständigem Namen und Institution an Europäisches Institut für Klima und Energie: Postfach 110111, 07722 Jena

Email: info@eike-klima-energie.eu

Fax: +49-3641-3279-8589

Programme 

9th International Conference on Climate Change (ICCC-9)
VI International Conference on Climate and Energy (ICCE-6)
Cardinal Stefan Wyszyński University, Warsaw, November 21 2013

10:00 am

Welcome

Dr. Tomasz Teluk

Instytut Globalizacji, Gliwice, Poland

10:10 am

Why are We Still Dealing with Climate?

Wolfgang Müller

General Secretary, European Institute for Climate and Energy (EIKE)

10:20 pm

Manipulation vs. Reality – The UN’s Pressure to Succeed

Marc Morano

ClimateDepot, USA

10:45 am

Man-Made or Natural? The Climate Debate within NASA

Walt Cunningham

NASA Scientist and former Apollo VII Astronaut

11:30 am – 12:00 am Break

12:00 am

Sea Level Changes – Facts and Fiction

Prof. em. Dr. Niels Axel Mörner

Department of Paleogeophysics & Geodynamics, University of Stockholm

12:30 pm Lunch

1:30 pm

The Cost of Going Green  – The Bad Example of Germany’s “New Energy Concept

Michael Limburg

Vice-President, European Institute for Climate and Energy (EIKE)

2:00 pm

Climate Change in the Geological Past

Prof. Dr. Leszek Marks  

Institute of Geology, University of Warsaw

2:30 pm –3:00 am Break

3:00 pm

The Catastrophe of the EU Climate and Energy Policy

Dr. Bolesław Jankowski

Vice-president of Systems Research EnergySys Ltd.

3:45 pm

Concluding Remarks

Dr. Holger Thuss

President, European Institute for Climate and Energy (EIKE)

All talks and discussions will be simultaneously interpreted English-Polish and Polish-English

Due to the limited number of space registration is essential.

Please send your registration with full name and institution to:

European Institute for Climate and Energy

PO Box: 110111, 07722 Jena, Germany

Email: info@eike-klima-energie.eu

Fax: +49-3641-3279-8589

Programme für beide Veranstaltungen können als pdf im Anhang heruntergeladen werden. Wegen der begrenzten Teilnehmerzahl bitten wir um zügige Anmeldung. 

Anmeldungen bitte unter vollem Namen und Institution an: Europäische Insitut für Klima und Energie PO Box: 110111, 07722 Jena, Germany

Email: info@eike-klima-energie.eu

Fax: +49-3641-3279-8589 

Related Files




Europa kann grüne Ziele und Wachstum nicht unter einen Hut bringen

Bild rechts: Wind turbine image courtesy of Shutterstock

Die FT berichtet:

„Es ist ja gut und schön, sehr, sehr grün zu sein, aber nicht, wenn man an heimischer Produktion interessiert ist“, sagt Jim Ratcliffe, Direktor des Chemie-Giganten Ineos. „UK ist schon jetzt benachteiligt durch die Kosten für Energie, und dann packt die Regierung auch noch Steuern obendrauf. Jeder Energieverbraucher wird auf diese Weise irgendwann einfach verschwinden“.

Die beste Art, auf grüne Energiepolitik zu schauen, ist es, sie als einen Luxus zu betrachten. Das heißt, normalerweise zwingt man die Leute, Dinge zu tun, die sie sonst nicht tun würden, und das behindert das Wachstum. In Boomzeiten ist das nicht so problematisch, wie man in den Jahren vor Ausbruch der Finanzkrise 2008 sehen konnte. Aber heutzutage merken die „grüneren“ Länder, dass es immer schwerer wird, den grünen Hügel hinauf zu strampeln.

„Es hat eine greifbare Verschiebung in Europa gegeben”, sagt Roger Reynolds, ein Spezialist bei Exane BNP Paribas in London. „Der Schwerpunkt hat sich jetzt verschoben, und zwar von der Reduktion von Emissionen, koste es, was es wolle, hin zur Frage der Bezahlbarkeit“.

Europa hatte gehofft, beim Festlegen seiner ambitionierten Klimaziele bis zum Jahr 2020 als globaler Anführer zu fungieren. Aber seine Position, der erste Betreiber grüner Politik zu sein, hat nur dazu geführt, dass Europa bzgl. Wettbewerb relativ zur übrigen Welt ins Hintertreffen geraten ist. Grüne Energie ist viel teurer als braune Energie und muss durch Subventionen der Regierung aufgepäppelt werden, um einen signifikanten Marktanteil zu erlangen. Die Kosten dieser Subventionen werden an die Verbraucher durchgereicht. Das bedeutet, dass Haushalte und Industrie sich für Strom dumm und dämlich zahlen müssen. Wenn man ein mittlerer Hersteller von Widgets in Deutschland ist, sehen die Optionen in Entwicklungsländern oder den schieferreichen USA immer attraktiver aus.

Während die Deutschen darüber debattieren, wie deren Energiepolitik die ökonomische Stärke ihres Landes beeinflusst und auch darüber, welche Auswirkungen sie auf die Armen hat, gibt es zwei Dinge, über die wir Anderen nachdenken sollten: Erstens, alle Ausgaben in Deutschland sowie deren Schwierigkeiten mit grüner Energie werden im wesentlichen Null Auswirkungen auf das globale Klima haben. Das Wachstum in Ländern wie China und Indien – teilweise beschleunigt durch die rasche Verlagerung energieintensiver Prozesse von Deutschland in weniger durch Vorschriften behinderte Ökonomien – wird sämtliche Einsparungen Deutschlands weit überkompensieren. Zweitens, die Chance, dass das „Beispiel“ Deutschlands die Politik rund um Energie und Klima in den Entwicklungsländern ändern wird, ist minimal. Diesbezügliche Entscheidungen basieren auf heimischer Politik und dem Gleichgewicht der Kräfte vor Ort.

Das ist Politik als Ritual. Es geht mehr um Identität und Gesinnung als darum, die Welt zu verändern. Das ist ein großartiges Gefühl für diejenigen, die sich das leisten können.

Link: http://blogs.the-american-interest.com/wrm/2013/10/16/europe-cant-find-balance-between-green-goals-and-growth/

Übersetzt von Chris Frey EIKE




Multiperiodisches Klima: Spektralanalyse von Klimadaten

1. Allgemeines

Für die Analyse wurden am längsten zurückreichende Temperaturaufzeichnungen weltweit verwendet. Da die „offiziellen“ Temperaturmessungen (insbesondere die von GISS veröffentlichten) durch vielfältige Manipulationen, wie „Normalisierungen“, „Ausschluss von „verdächtigen“ Daten“, selektiver Ausschluss von etwa 70 % der weltweiten Mess-Stationen usw. kaum mehr für objektive Analysen geeignet sind, wurden die Messdaten zum Teil direkt von den Messstationen bezogen. Die längsten Aufzeichnungen existieren für Mitteleuropa (Abb.1).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig1.jpg

Abb.1: Instrumentelle Temperaturdaten von 6 mitteleuropäischen Stationen

Wegen der geringen Unterschiede der Daten der verschiedenen Messstationen haben wir sie in einer „mitteleuropäischen Temperaturkurve“ (Abb.2) zusammengefasst. Die blaue Kurve gibt Temperaturen aus antarktischen Eisbohrkernen wieder, welche nahelegt, dass der mitteleuropäische Temperaturverlauf für den ganzen Globus repräsentativ ist.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig2.jpg

Bild 2: "Europäische" Gesamtkurve zusammen mit Eisbohrkerndaten der Antarktis

2. Spektren und Zyklen

Es gibt zwei grundsätzlich unterschiedliche Vorgehensweisen bei der Analyse von Zeitreihen [2], [3]. In der ersten wird angenommen, dass der die Zeitreihe bildende Prozess durch ein mathematisches Modell wiedergegeben werden kann (oft sind es sog. AR Modelle). Man versucht dann, mit den auf das Modell zugeschnittenen Analyseverfahren die Modell-Parameter zu ermitteln. Falls das Modell nicht realistisch ist (wessen man nie sicher sein kann), erhält man naturgemäß falsche Ergebnisse. Deshalb sind „modellfreie“ Verfahren, wie von uns gewählt, oft vorzuziehen.

Zu diesen modellfreien Analyseverfahren gehören neben den Methoden der Spektralanalyse, die bekannteste ist die Fourier Transformation (FT) und ihre Rücktransformation (IFT), beispielsweise auch die Detrended Fluctuation Method (DFA) zur Ermittelung des Hurst Exponenten einer Reihe [4]. Die DFA kam auch in unserer Arbeit zur Anwendung. Es musste die diskrete FT verwendet werden, weil die Daten Temperaturpunkte mit äquidistanten Abständen darstellen, keine kontinuierlichen, analytischen Funktion.

Das aus der FT resultierende Spektrum, welches die mitteleuropäische Temperaturreihe im Frequenzbereich zeigt (Abb. 3), überrascht zunächst. Intuitiv hätte man ein mehr oder minder kontinuierliches Spektrum erwarten können, welches zufälligen Temperaturschwankungen entspräche. Im Gegensatz dazu besteht das Spektrum aus diskreten Maxima.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig3.jpg

Abb. 3: links Spektrum der "europäischen" Reihe, rechts das Stalagmitenspektrum

Dies zeigt an, dass das Klima von periodischen Vorgängen dominiert ist. Bei einer solchen Spektralanalyse können allerdings Artefakte auftreten. Zur Prüfung ob Maxima nicht evtl. Artefakte sind und ob die diskreten Spektralkomponenten alleine den realen Temperaturverlauf beschreiben, wurden die 6 stärksten Spektralkomponenten ausgewählt und nur mit diesen via IFT in den Zeitbereich zurück transformiert. Abb. 4 zeigt, dass diese 6 Komponenten, die periodische Vorgänge darstellen, den Klimaverlauf sehr gut wiedergeben.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig6.jpg

Abb. 4: schwarz Messdaten über 15 Jahre geglättet, rot Wiedergabe mit nur 6 Spektralkomponenten

Dies legt nahe, dass sie keine Artefakte sind. Weiter zeigt die gute Übereinstimmung von Rekonstruktion und Messdaten, dass außer periodischen keine anderen Prozesse das Klima beeinflussen. Nichtperiodische Vorgänge wie z.B. eine Erwärmung durch den monoton zunehmenden CO2-Gehalt der Luft können danach höchstens nur einen sehr kleinen Bruchteil der insgesamt etwa 0,7 Grad Erwärmung seit 1880 bewirkt haben.

Allerdings muss die Existenz einer starken 240 Jahr Komponente, die ja die Haupttemperaturänderungen (Abfall von 1780  bis 1880, und dann Anstieg bis 1990) beschreibt, kritisch geprüft  werden. Die zeitliche Länge der Messdaten enthält nur eine Periode einer möglichen 240 Jahr Periode. Das ist für eine sichere Bestimmung wirklich periodischen Verhaltens selbstverständlich unzureichend. Längere Temperaturmessungen waren daher notwendig. Wir wählten dazu eine von Mangini [5] gewonnene Stalagmiten-Temperaturreihe aus, die ebenso wie die unserer Messstationen aus Mitteleuropa stammt und zwar aus der Spannagel-Höhle bei Innsbruck. Der Temperaturverlauf, gewonnen aus der Stalagmitenanalyse, stimmt recht genau mit Temperaturverläufen überein, die in ähnlicher Weise aus Sedimenten des Nordatlantiks gewonnen wurden. Im Stalagmitenspektrum (Abb. 3 rechts) ist die 240 Jahre Periode eine der stärksten. In Abschnitt 6 unserer Arbeit sind noch weitere, wesentlich tiefer greifende Belege aufgeführt, die die von uns gefundenen Periodizitäten als Artefakte ausschließen. Abb. 5  zeigt das Wavelet-Diagramm der Spannagel Daten.

Wavelet-Analysen geben zusätzlich zur FT an, zu welcher Zeit mit welcher Stärke Periodizitäten herrschten, dies freilich nur zum Preis einer grundsätzlich höheren Frequenzungenauigkeit als der der FT. Im Wavelet-Bild tritt deutlich eine Oszillation hervor, die ihre Periode von 1100 bis heute von 125 Jahren auf 240 Jahren verändert hat.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Fig5.jpg

Abb. 5: Wavelet Diagramm des Stalagmiten

Diese Oszillation war seit fast 1000 Jahren DIE dominierende Klimaänderung und steht in Übereinstimmung mit der 240 Jahre Komponente im Spektrum (Abb. 3 links). Letztere darf durch das Wavelet Diagramm somit als gültig bestätigt angesehen werden.

Die ca. 65 Jahr Komponente ist die gut bekannte und 1400 Jahre zurückverfolgbare  „Atlantisch-Pazifische Oszillation“ AMO/PDO. Deren Maxima und Minima sind in Abb. 4 deutlich zu erkennen. Die AMO/PDO resultiert als Eigendynamik, d.i. hier Rückkopplung zwischen Atmosphäre und Meer. Sie stellt einen „Oszillator“ dar, der keinen äußeren Antrieb („forcing“) braucht. Soweit wir sehen, ist die von uns gefundene 240 Jahre Periode nichts anderes als der aus der Astrophysik gut bekannte „de Vries Zyklus“ dessen bestimmender Einfluss auf das Klima vielfach vermutet wurde (hier, hier). Die übrigen Zyklen zwischen 240 und 65 Jahren Periodenlänge sind schwächer.

Der Klimaverlauf wird praktisch ausschließlich durch den de Vries Zyklus und die AMO/PDO bestimmt. Insofern ist richtig, wie offiziell angeführt, dass das Klima nicht alleine durch solare Emissionsschwankungen bestimmt wird. Die Eigendynamik des Systems Atmosphäre/Meer (AMO/PDO) ist ebenfalls bedeutend. Zusammen ergeben diese beiden Zyklen mit hoher Genauigkeit den gemessenen Klimaverlauf. Eine irgendwie ins Gewicht fallende Erwärmung durch anthropogenes CO2 kann man nach den von uns gefundenen Ergebnissen ausschließen. Dies stimmt mit den Ergebnissen anderer Analysen überein, die sich auf Messungen gründen [6]. Im Gegensatz dazu basieren die „offiziellen“ Voraussagen über den Klimaeinfluss von anthropogenem CO2 nur auf grob unvollständigen Modellen, die selbst in den einfachsten Tests allesamt "durchfielen". So ist z.B. die Voraussage spätestens nach 25 Jahren nicht mehr von zufälligem Raten zu unterscheiden [7]-[9]. Wie es jetzt schon einer breiteren Öffentlichkeit bekannt wurde, können Klimamodelle nicht einmal die jüngste Temperaturstagnation über etwa 15 Jahre wiedergeben (Abb. 6).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Modelle1.jpg

Abb. 6: ein stellvertretendes Beispiel der Diskrepanz von Klimamodellen und Realität (Bildquelle, WUWT, 24.10.2013).

Dass eine Erwärmung durch CO2 in Zukunft stärker ausfallen könnte, kann ebenfalls ausgeschlossen  werden. Der seit Beginn der Industrialisierung  erfolgte CO2 Anstieg in der Atmosphäre von 40% repräsentiert bereits eine Temperaturzunahme von 50%. Mit anderen Worten kann die mögliche Erwärmung bis 2100, zu welchem Zeitpunkt eine Verdopplung der CO2 Konzentration, verglichen mit vorindustriellen Werten, vom IPCC für möglich gehalten wird (exponentieller Anstieg mit der heutigen Rate), nicht mehr als ca. 0,1 bis 0,2 Grad betragen.

Viel plausibler ist allerdings eine merkliche Abkühlung. Der 65 Jahre Zyklus und der 240 Jahre Zyklus haben ungefähr beide derzeit ihre Maxima.  Das ist in Übereinstimmung mit der ausbleibenden Erwärmung in den letzten 15 Jahren (Abb. 6, Abb. 7). Beide sorgen in Zukunft für fallende Temperaturen. Der 65 Jahre Zyklus relativ schnell.  Sein nächstes Minimum wird um 2035 liegen. Der 240 Jahre Zyklus wird zu einem absoluten Minimum gegen Ende des 21. Jahrhunderts führen.

3. Anmerkungen zur Spektralanalyse

Neben dem ältesten Verfahren der FT stehen heute zahlreiche modernere Methoden zur Verfügung, stellvertretend Periodengramme für ungleichmäßige Zeitschritte, Multi Taper Methoden und Wavelet-Verfahren. Diese Methoden weisen in manchen Details Vorteile, in anderen aber auch Nachteile gegenüber der klassischen FT auf. Bei vielen der neuen Verfahren gibt es im Gegensatz zur FT frei wählbare Parameter, was ihre Ergebnisse subjektiven Einflüssen aussetzt. Welche Methode der Spektralanalyse am günstigsten ist, hängt von dem zugrunde liegenden Problem ab und kann nicht allgemein beantwortet werden.

Grundsätzlich bleibt bei der FT bzw. der IFT der Informationsgehalt unverändert, der Frequenzbereich bietet lediglich eine andere Darstellungsform als der Zeitbereich. Als weiteres Merkmal der FT wird eine Reihe endlicher Länge als unendlich periodisch fortgesetzt angenommen. Der Zeitverlauf jeder Spektralkomponente setzt sich daher zwangsläufig am Zeitende der untersuchten Zeitreihe wie an deren Zeitanfang wieder fort. In diesem Zusammenhang ist anzumerken, dass der in Abb. 6 gestrichelt eingezeichnete Verlauf nach dem Jahre 2010 nicht die Fortsetzung der FT darstellt. Er ist vielmehr eine von uns vorgenommene Abschätzung des weiteren Temperaturverlaufs auf Basis der zwei stärksten Spektralkomponenten, hier von 240 Jahren und von 65 Jahren Periodenlängen.

Durch Zero Padding (ZP), d.h. dem Auffüllen der Reihe am Anfang oder Ende mit Nullen bleibt nach der FT der Informationsgehalt des Spektrums ebenfalls unverändert, nur steigt die Auflösung im Frequenzbereich mit der Anzahl der Nullen an (ZP erzeugt optimale Interpolation im Frequenzbereich). Dies kann für die genauere Bestimmung der Periodenlängen tiefer Frequenzen (lange Periodenlängen) wichtig sein.

4. Methoden und Programmierung

Die von uns verwendeten Methoden, vorrangig die Fourier-Analyse, die DFA und die Monte-Carlo-Methode sind Standardverfahren. Rechencodes für Methoden, die für die eigene Programmierung zu aufwendig sind, was in unserer Arbeit nur die Wavelet-Analyse betraf, kann man heute für alle gebräuchlichen technischen Programmiersprachen aus zahlreichen Internet-Seiten von US-Universitäten unentgeltlich entnehmen. Wir haben keine „eigenen neuen“ Verfahren oder Methoden entwickelt, sondern brauchten lediglich die notwendigen Programmteile zur Verknüpfung von Standardbausteinen zu schreiben, die von uns schon früher kodiert wurden. Wir verwendeten die Programmiersprache matlab, für kleinere Aufgaben VB6.0. Ferner kam das unverzichtbare EXCEL/VBA zum Einsatz.

5. "Resonanz auf unsere Veröffentlichung"

Unser paper wurde auf den Blogs von Anthony Watts (hier) und Joanne Nova (hier) besprochen und dort in zahlreichen Kommentaren diskutiert. Im mathematisch-physikalischen Kolloquium der Universität Hannover am 22.10.2013 berichtete und diskutierte Carl Weiss über unsere Arbeit.

Quellen

[1] im als pdf angefügten Originalpaper: Zitate der Arbeiten von  „Scafetta“ und den in diesen Arbeiten zitierten Quellen

[2] im als pdf angefügten Originalpaper Zitat der Arbeit von Ghil et al.

[3] P. Stoica and R. Moses: Spectral Analysis of Signals, Prentice Hall

[4] A. Bunde und J. Kantelhardt: Langzeitkorrelationen in der Natur: von Klima, Erbgut und Herzrythmus, Physikalische Blätter 57, Nr. 5 (2001), Wiley-VCH

[5] A. Mangini and C. Spötl: Reconstruction of temperature in the Central Alps during the past 2000 yr from d18 O stalagmite record, Earth and Planetary Science Letters 235, 741-751 (2005)

[6] Neben weiteren stellvertretend die folgenden Publikationen:

R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), http://tinyurl.com/3mbresk

R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

R.W. Spencer, and W.D. Braswell: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sensing 3(8) (2011), R.W.

Spencer, and W.D. Braswell: On the diagnosis of radiative feedback in the presence of unknown radiative forcing, Journal of Geophysical Research, Vol. 115 (2010)

G. Paltridge et al.: Trends in middle- and upper-level tropospheric hunmidity from NCEP reanalysis data, Theor. Appl. Climatol. 98 (2009)

M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011)

R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011)

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011),

[7] M. Collins, Climate predictability on interannual on decadal time scales: the initial value problem, Clim. Dynam., 2002, 19, 671-692

[8] G.J. Boer: A study of atmosphere-ocean predictability on long time scales, Clim. Dynam., 2000, 16, 479-477

[9] G.J. Boer and S.J. Lambert: Multi-model decadal potential predictability of precipitation and temperature, Geophys. Res. Lett., 2008, 35, L05706, 1-6

Zu den Autoren:

Prof. Dr. Horst-Joachim Lüdecke (Physiker) lehrte nach Forschungs- und Industrietätigkeit an der HTW des Saarlandes. Fachveröffentlichungen in Kernphysik, Strömungsmechanik, Chemietechnik und Klimaphysik sowie 1 Fachbuch und 2 Klimasachbücher (hier). Er ist Pressesprecher von EIKE.

Prof. Dr. Carl Otto Weiss (Physiker) war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er ist EIKE Mitglied.

Dr. Alexander Hempelmann (Physiker), der dritte Autor der hier besprochenen cp-Veröffentlichung ist wissenschaftlicher Mitarbeiter der Sternwarte Hamburg.

Related Files