1

Nissans Plan, dass Elektroautos Energie zurück speisen können, kann Britanniens Stromnetz zum kippen bringen

Europäische Länder wie Großbritannien, Niederlande, Norwegen und Frankreich [und Deutschland] schreiten fort, in dem Bemühen, die Automobilmärkte zum Produzieren von Elektrofahrzeugen zu stimulieren und diese [auch] vermehrt zu verkaufen. Großbritannien ist dabei die Elektrofahrzeuge zu fördern, indem Nissan die Erlaubnis erhält, ein Programm zu erstellen, so dass Kunden überschüssigen Strom zurück in das Netz des Energienetzbetreiber National Grid schieben können.

Der japanische Autohersteller sagte am Dienstag, das er einen Probelauf mit dem Mega-Power-Unternehmen Enel plant, um 100 Fahrzeug-zu-Netz Einheiten für Privat- und Geschäftskunden zu installieren.

Die Entscheidung wird wahrscheinlich die Belastung auf das Netz weiter verstärken, welches durch die Schließung von Kohlekraftwerke bereits stark in Mitleidenschaft gezogen ist [im Original ~ zerschlagen ist]. Britische Behörden haben eine Verpflichtung hergestellt, alle Kohlekraftwerke innerhalb der nächsten zehn Jahre zu schließen, um Umweltvorschriften einzuhalten. Diese Aktion reduziert die Erzeugungskapazität bereits sehr stark.

Das Abschalten der restlichen Kohlekraftwerke des Landes wird eine große Menge an Strom [Erzeugerkapazität] aus dem Netz nehmen, und es bedeutet, das fast 35 Prozent der britischen Energie durch andere Quellen ersetzt werden müssen.

Diejenigen, die mit dem Betrieb des Stromnetzes beauftragt sind, warnen, dass diese Regelung der Zurückspeisung unnötigen Stress auf das Netz bringen wird, wenn keine entsprechenden Vorsichtsmaßnahmen getroffen werden.

"Es ist unsere Aufgabe, das nationale Übertragungsnetz zukunftssicher zu gestalten“, sagte National Grid Non-Executive Director und ehemaliger CEO Steve Holliday gegenüber Reuters. "Die schnelle Aufnahme von Elektrofahrzeugen ist sicherlich positiv, könnte aber auch eine Herausforderung sein, wenn wir nicht im Voraus planen."

Etwa 3 Prozent der Fahrzeuge in Großbritannien die im Jahr 2015 verkauft wurden, waren Plug-in-Hybriden und Elektroautos. Diese Zahl ist um Größenordnungen in diesem Jahr gewachsen, als die Verkäufe von Elektrofahrzeugen und Hybrid-Fahrzeug- um 24 Prozent gestiegen sind. [also auf etwa 3,72% aller Verkäufe]

Nissan Europe sagte ihren Elektroauto – Kunden, dass sie überschüssige Energie nutzen könnten, um ein wenig Geld zu machen, indem sie während der Spitzenzeit Energie zurück an das Netz verkaufen.

"Der Wert für den Verbraucher ist, dass sie ihre Energie in Schwachlastzeiten beziehen können, so in der Nacht", meint der Vorsitzende von Nissan Europa Paul Willcox gegenüber Reuters.

Erschienen auf The Daily Caller am 10. Mai 2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/05/10/nissans-electric-vehical-energy-sell-back-scheme-could-topple-britains-strained-grid/




Umweltaktivismus der Linken ist religiöser Sozialismus

Im Gegensatz zu dem, was die meisten Leute glauben, wird Umweltaktivismus als politische Agenda nur durch extrem wohlhabende und mächtige Linksgruppen getrieben, die ihr Geld mit der Ausbeutung der Umwelt machten. Die Psychologie dahinter ist nicht Thema dieses Beitrags, aber man betrachte die Scheinheiligkeit von George Soros, Maurice Strong, Bill Gates, der Rockefellers, Leonardo DiCaprio, Ted Turner und vielen anderen. Die Verwirrung ist ähnlich wie in Bezug auf eine andere Person, von dem die meisten Menschen glauben, dass er ein Rechtsaußen-Faschist war, der aber hinsichtlich Umweltaktivismus ein Sozialist war – Adolf Hitler.

Die meisten dieser Leute agierten mittels ihrer privilegierten Gruppe, genannt der Club of Rome. Das Gründungstreffen dieses Clubs fand im Jahre 1968 auf dem Anwesen von David Rockefeller in Bellagio, Italien, statt. In ihrem im Jahre 1994 erschienenen Buch „The First Global Revolution“ schreiben sie:

Der gemeinsame Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen Feind, der uns vereinigen kann, kamen wir auf den Gedanken, dass Verschmutzung, die Bedrohung durch die globale Erwärmung, Wasserknappheit, Hunger und dergleichen dafür gute Dienste leisten können. Alle diese Gefahren sind menschlichen Eingriffen geschuldet, und nur mit verändertem Verhalten können sie überwunden werden. Der wirkliche Feind ist also die Menschheit selbst“.

[Es fällt mir wirklich schwer, einen solchen Quatsch zu übersetzen! Anm. d. Übers.]

Sie behaupten, dass die Liste der Feinde erschaffen worden ist, um die Menschen zu vereinen. Tatsächlich besteht die Notwendigkeit, das zu überwinden, was sie als die Teilung in Nationalstaaten ansehen, und die Rechtfertigung einer Eine-Welt-Regierung oder globaler Sozialismus. Die globale Erwärmung ist ein globales Problem, das nationale Regierungen für sich allein nicht lösen können.

Schließlich einigten sie sich auf die globale Erwärmung als das Umweltthema, das ihrem Ziel am dienlichsten ist. Natürlich ist dieser Plan nur der Anfang. Einer meiner Lieblings-Cartoons aus dem New Yorker zeigte Moses auf dem Berg mit den Zehn Geboten. In der Legende heißt es: „Großartige Idee, wer wird es finanzieren?“ Globale Erwärmung und die Identifizierung des anthropogen erzeugten CO2 als das Problem passte zu sämtlichen politischen, finanziellen und religiösen Kontrollmechanismen, die sich eine sozialistische Gruppe nur wünschen kann.

Das Kyoto-Protokoll wurde als eine Lösung des Problems der vom Menschen verursachten globalen Erwärmung präsentiert. Aber jene, die das Protokoll erzeugt haben, haben auch das Problem erzeugt. Via das IPCC erzeugten sie die zur Stützung ihrer Behauptung erforderliche Wissenschaft. Es ist ein gut durchdachter und gut geplanter, klassischer Zirkelschluss: Erzeuge das Problem, fabriziere den Beweis für das Problem, dann biete die Lösung an. Sie sagten irrigerweise, dass eine Zunahme des CO2-Gehaltes eine Temperaturzunahme verursacht. Sie boten Beweise. Sie programmierten ihre Computermodelle so, dass eine CO2-Zunahme eine Temperaturzunahme zur Folge hatte. Sie ließen ihre Modelle laufen, wobei sie alles andere gleichbleibend hielten, was man in der Wissenschaft ,Alles Andere bleibt gleich‘ [ceteris paribus] nennt. Natürlich zeigten die Modelle denn auch die Temperaturzunahme, welche sie dann flugs als Beweise für ihre Behauptung anführten.

CO2 wurde schließlich zur religiösen Grundlage für die sozialistische Agenda. Nationen, deren Ökonomien aufblühten und die mittels CO2 wohlhabend wurden, sollten für ihre Sünden bezahlen, indem sie Geld an diejenigen Nationen überweisen, die leiden. Es war eine Buße. Katholiken zahlten Bußgelder für ihre Sünden, was auch eine Verzögerung bei ihrem Eintritt in den Himmel [heaven] bewirkte. In der mittelalterlichen katholischen Kirche konnte man Ablassbriefe kaufen, um diese Bestrafung zu umgehen. Kohlenstoff-Zertifikate sind das moderne Pendant dazu, und Al Gore war das Pendant zum Ablassprediger (hier), der Ablassbriefe verkaufte und in den Canterbury Tales von Geoffrey Chaucer gefeiert wurde.

CO2 via Kyoto stellte schließlich die politische Grundlage für die sozialistische Agenda. Es war eine Umverteilung des Wohlstands, wobei man den erfolgreich entwickelten Nationen Geld wegnahm und es an die weniger erfolgreich entwickelten Länder gab. Diese Operation erforderte eine Eine-Welt-Regierung und eine Welt-Bankagentur.

CO2 via Kyoto bot auch die Grundlage für die finanzielle sozialistische Agenda. Das für die Finanzierung der sozialistischen Regierung erforderliche Geld sollte in Form einer globalen Kohlenstoff-Steuer hereinkommen. Auf der COP15-Klimakonferenz in Kopenhagen im Jahre 2009 ging es auch um die Festlegung der finalen Details einer Kohlenstoffsteuer, die vom International Monetary Fund erhoben werden sollte. Mancher wusste, dass die politische Agenda auf der falschen Wissenschaft beruhte, wie die durchgesickerten Klimagate-E-Mails der CRU bewiesen hatten. Die maßgeblichen, das IPCC kontrollierenden Wissenschaftler arbeiteten an der CRU. Die Enthüllungen verzögerten effektiv den politischen Prozess, weil die COP nur auf Grundlage der Wissenschaft agieren kann, die vom IPCC vorgegeben wird. Die Verzögerung war nur vorübergehend, weil die meisten die Wissenschaft nicht verstanden hatten oder um die Implikationen der durchgesickerten E-Mails wussten. Im Jahre 2010 schuf man auf der COP 16 in Durban das als Ersatz fungierende sozialistische Programm unter der Bezeichnung Green Climate Fund (GCF). Auf der COP21 in Paris im Dezember 2015 wurde dieser Prozess autorisiert.

[Leugnen die Alarmisten nicht bis heute die Klimagate-E-Mails? Anm. d. Übers.]

Vaclav Klaus, vormals Präsident der Tschechischen Republik, war der einzige Führer der Welt, der klar benannte, was da vor sich ging. Ich hörte ihn sprechen auf der Heartland Klimakonferenz 2004 in New York. In seinem Eröffnungskommentar führte er aus, dass die Welt durch 70 Jahre Kommunismus gegangen war, und stellte die Frage, warum zum Teufel man dahin zurückkehren wolle. Noch deutlicher wurde er in seinem Buch Blue Planet in Green Shackles [Blauer Planet in grünen Fesseln]. Dort schrieb er:

Inzwischen sollte allgemein jedem klar sein, dass Umweltaktivismus zu einer allgemeinen Ideologie über die Menschen wird, über ihre Freiheit, über ihre Beziehung untereinander und gegenüber dem Staat und über die Manipulation der Menschen im Mäntelchen eines „noblen“ Gedankens. Es ist weder ein ehrliches Verfolgen „nachhaltiger Entwicklung“ noch elementarer Umweltschutz noch Suche nach rationalen Verfahren, um eine gesunde Umwelt zu erhalten. Nein, vielmehr gehen Dinge vor sich, die Kopfschütteln auslösen, wird man doch daran erinnert, dass man nicht mehr in der kommunistischen Stalin-Ära und auch nicht mehr in der Orwell’schen Utopie von 1984 lebt“.

Bild oben rechts: Der Präsident Boliviens Evo Morales übergibt Papst Franziskus eine Bronzeplastik mit Christus, gekreuzigt auf Hammer und Sichel.

Link: http://drtimball.com/2016/environmentalism-of-the-left-is-religious-socialism/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn H. R. Vogt für den Hinweis auf diesen Beitrag. Er kommentierte hier.




Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Glaubt man den „offiziellen“ Informationen, so ist das Klima der Vergangenheit genau bekannt. Schaut man sich jedoch die zugrunde liegenden Daten an, kann man feststellen, dass diese ganz andere Bilder zeigen. Konkret: Sie sind so ungenau, dass man darauf basierend praktisch beliebige Klimaverläufe rekonstruieren kann!

Proxidaten und statistische Methoden

Im EIKE Beitrag „Rekontruierte Temperaturverläufe der letzten zwei Jahrtausende“ wurde bereits angesprochen wie unterschiedlich viele Proxidaten sind und anhand des folgenden Bildes aus einem IPCC Bericht gezeigt, zu welchen „Spaghettimustern“ dies führt.

Bild 1 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

Diese „Spaghettimuster“ zeigen signifikante Probleme auf:

— Drastische Zeitverschiebungen der Temperaturextreme zwischen Rekonstruktionen der gleichen Gegend

— Teilweise gegensätzliche Max- / Min-Kurvenverläufe

— Wie im Artikel gezeigt wird den Verdacht, dass viele Proxis mehr Rauschen als Daten beinhalten

Es stellt sich die Frage, ob eine statistische Weiterverarbeitung solch chaotischen Datenmaterials überhaupt zulässig ist. Solche Verläufe können nicht wie zwingend erforderlich aus gleichwertigem und vor allem homogenen Datenmaterial stammen und es ist auch zu bezweifeln, ob sie den Verlauf der Temperaturen ausreichend repräsentieren.

Alternativaussage: Oder der Klimaverlauf wäre wirklich so lokal begrenzt wie es verschieden Proxis angeben – womit es dann aber nirgends einen globalen, nicht einmal einen großflächig einheitlichen Klimaverlauf geben würde.

Das Ergebnis wird bei der Hockey Stick Kurve (Bild 2) erkennbar.

Obwohl eine hohe Spannweite (graue Schatten) besteht, ergibt sich eine „ruhige“ Mittelwertkurve mit angeblich geringer Varianz. Diese hat nur einen Mangel: Sie repräsentiert nicht einen wahrscheinlichen Temperaturverlauf, sondern die Fehler des Datenmaterials.

Allerdings wird es anders verkündet:

WIKIPEDIA Hockeyschläger-Diagramm:

Das Hockeyschläger-Diagramm wurde von verschiedenen Seiten mehrfach auf Fehler überprüft. Die Ergebnisse von Mann et al. wurden damit mehrfach bestätigt.

Prof. Rahmstorf PIK:

[9] Von der Wissenschaft glänzend bestätigt, von der “Klimaskeptiker”-Lobby verunglimpft

In der Fachwelt gelten die Arbeiten von Mann et al. als hoch respektierte Pionierleistung (die Forscher erhielten eine Reihe von Preisen, Mann und Bradley z.B. beide die Oeschger-Medaille der European Geosciences Union).

Bild 2 Hockey Stick-Kurve

Quelle: IPCC Report AR2 von 2001, Figure 1: Variations of the Earth’s surface temperature over the last millennium.

Warum der Autor trotz solcher immer wiederholten Darstellungen bekannter und hoch gelobter Wissenschaftler bei seiner gegensätzlichen Ansicht bleibt, versucht er mit diesem Beitrag zu begründen.

Probleme der Proxi-Temperaturrekonstruktionen

Anbei ohne viel Mathematik anschaulich darstellbare Problematiken.

Zeitverschiebungen

Bild 3 zeigt, wie alleine durch Verschiebungen oder Fehler der Zeitdatierung zweier Proxis aus einer Warmzeit durch Mitteln eine Kaltzeit wird. Gleiches passiert, falls Weltgegenden Klimaveränderungen zeitlich verschoben „erleben“, wie es sein könnte falls z.B. die mittelalterliche Warmzeit als eine „Welle“ um die Welt ging und nicht zeitgleich überall auftrat. Dieser mathematische Effekt ist sicher einigen vom Drehstrom bekannt. Obwohl in allen drei Drehstrom-Phasenleitungen Strom fließt, ist der arithmetische Mittelwert des Summenstromes im Mittelpunktsleiter null, da sich die Phasenverschiebungen aufheben. Nach den AGW-Rechenregeln dürfte aus der Drehstromsteckdose somit keine Energie fließen.

Bild 3[4] Darstellung wie durch Zeitversatz zweier Proxis aus einer Warmzeit (Kurven: dunkelblau, grün) durch Mittelung eine Kaltzeit wird (Kurve: Globally Cooler, hellblau)

Wie extrem Zeitverschiebungen in Proxis enthalten sind, ist in Bild 21 gezeigt.

Problem Temperaturrekonstruktion

In der Hockeystick-Kurve ist die Temperatur in 0,1 Grad Schritten aufgeteilt und so dargestellt, als wäre die Mittelwertkurve mit ihrer Verlaufsspanne von ca. +- 0,25 Grad sicher ermittelt.

Jedoch: Eine moderne, sorgfältig geeichte elektronische Temperatur-Messstation misst die Temperatur auf +- 0,2 Grad genau. Diese werden seit ca. 1990 … 2000 verwendet. Vorher las man vom Thermometer ab. Es wird angenommen, dass die absolute Messgenauigkeit vor 1980 ungefähr ±1°C betrug und aktuell auch nicht viel besser als ca. +- 0,6 Grad ist [5]. Und dies gilt nur für den gleichen Mess-Standort – nicht für Flächenbetrachtungen.

Proxis müssen immer kalibriert werden. Schon dadurch kann das Ergebnis nicht genauer werden als der des Kalibrierwertes, in der Regel noch mit Temperaturwerten vor 1980 durchgeführt. Dazu kommen noch die Fehler der Kalibrierkette.

Es ist deshalb vollkommen unglaubwürdig, Temperaturen der Vergangenheit im Bereich von +-0,1 Grad bestimmen zu können. Solche systematischen Fehler lassen sich auch nicht durch Mittelung beseitigen, da die dazu nötign Anforderungen an die Datenbasis nicht eingehalten werden.

Um die Problematik zu zeigen, hat der Autor die Hockey-Stick-Kurve und PAGES 2k Projektion auf ein Proxi von Deutschland[6] gelegt (Bild 4). Die Temperaturvariabilität unterscheidet sich mit einem Faktor nahe 10 um eine ganze Größenordnung. Man beachte auch den Unterschied im Jahr 2000.

Proxi Deutschland, Moschen at al[6].

— Spannweite Temperatur: > 10 Grad

— Spannweite Mittelwertkurve ca. 6 Grad

Hockey-Stick (Zeitraum vor 1850):

— Spannweite Temperatur: ca. 1,5 Grad

— Spannweite Mittelwertkurve: ca. 0,4 Grad

Bild 4 Ein Proxi von Deutschland und den Hockey-Stick-Verlauf übereinander gelegt

Quellen: Proxi Deutschland: Moschen at al. 2011, Temperature variability at Durres Maar[6], Hockey-Stick: [9]

Der Verlauf Deutschland und auch der Stand zum Jahr 2000 sind nicht so exotisch wie man meinen könnte. Eine Proxirekonstruktion aus Island und Japan zeigen einen ähnlichen Verlauf. Erkennbar sind jedoch bei diesen beiden Proxis eklatante Zeitverschiebungen und gegensätzliche Max / Min-Verläufe (Bild 5). Gemeinsam ist ihnen eine große Temperaturspanne und das vollkommene Fehlen des Hockey-Stick-Endes.

Bild 5, Proxiverläufe Island [7] und Japan[8]

Quellen: [7] Sicre at al. 2008: Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142. Quelle: Co2Science. [8] Kitagawa at al., Japan, Quelle: Co2Science.

Problem Jahreszeiten- Abhängigkeit

Viele Proxis stammen von Pollen und Baumringen. Sie bilden das Jahr deshalb nicht vollständig ab. Welche enormen Unterschiede sich für das Jahresmittel daraus ergeben können sei indirekt an der folgenden Proxidarstellung welche Sommer und Winter getrennt ausweist gezeigt.

Anmerkung: Diese Rekonstruktion (so sie stimmen sollte) zeigt auch, dass die aktuelle Erwärmung fast vollständig durch wärmere Winter erzeugt wird (die zum Schluss sogar wärmer als die Sommer werden!) – ein eklatanter Widerspruch zur CO2-Theorie. Anmerkung: Dieses Phänomen ist in der Publizierung Das Phänomen der „Temperaturstufen“ [14] ebenfalls gezeigt.

Bild 6[12] Rekonstruktionsverlauf Mitteleuropa getrennt für Sommer, Jahreswert, Winter (vom Autor mit den gestrichelten Linien ergänzt)

Bildtext: Abb. 5.5.: Multi-Proxy-Reihe für Mitteleuropa. Die Reihe ist 31-jährig geglättet. Die grau hinterlegt Fläche zeigt den Fehler, welcher aus der Unsicherheit bei der Indexbildung resultiert. Der Vergleich mit dem Mittel der Sommer und Wintertemperaturen des GMD zeigt eine hohe Übereinstimmung (r=0.9).

Erklärung zum Bild (in der Dissertation):

[12]Bei Betrachtung des Verlaufs der rekonstruierten Temperaturen fällt der Gegensatz zwischen Sommer- und Wintertemperaturen auf. Die Sommertemperaturen weisen eine hohe und konstante mittelfristige Variabilität auf, welche auch in den letzten 50 Jahren keinen auffälligen positiven Trend zeigt. Hingegen weisen die Wintertemperaturen deutlichere Unterschiede sowohl in der Stabilität der Variabilität als auch im langfristigen Verlauf auf

Problem Rauschanteil

Ein weiteres, großes Problem ist der deutlich erkennbare Rauschanteil von Proxiverläufen (Bilder 10 und 11). Dieser ist jedoch schwer zu klassifizieren und in den Auswirkungen zu berechnen, weshalb er – obwohl sehr signifikant – als Einflussgröße nur gestreift wird.

Das Projekt PAGES 2k

Zwischenzeitlich wird eine neue, groß angelegte Rekonstruktion des Temperaturverlaufs der Nordhemisphäre durchgeführt (PAGES 2k-Projekt ) (Bild 7). Diese hat laut den Studienautoren den Hockey Stick neu bestätigt. Prof. Rahmstorf vom PIK berichtete darüber:

Prof. Rahmstorf Paläoklima: Die Hockeyschläger-Debatte:

Vorige Woche haben wir hier die neue Klimarekonstruktion des PAGES 2k-Projekts besprochen, die einmal mehr den Hockeyschläger-Verlauf der Klimageschichte der letzten tausend Jahre bestätigt hat.

Bild 7[9], Hockey-Stick und PAGES 2 k Rekonstruktion

Bildtext: Grüne Punkte zeigen die 30-Jahresmittel (flächengewichteter Mittelwert über die Kontinente) der neuen PAGES 2k-Rekonstruktion. Die rote Kurve zeigt die globale Mitteltemperatur laut HadCRUT4 Messdaten ab 1850 (mit einem 30-Jahresfenster geglättet). Dazu in blau der ursprüngliche hockey stick von Mann, Bradley und Hughes (1999) mit seinem Unsicherheitsbereich (hellblau). Grafik: Klaus Bittermann.

Komischerweise zeigt das PAGES 2k Ergebnis einen noch geraderen Verlauf des Mittelwertes als der Hockey-Stick.

Bei diesem Ergebnis stellt sich die Frage: Ist der Verlauf mit neuen, viel besseren – bedeutet sicher statistisch auswertbaren Daten – generiert und damit genauer, oder wurden die Fehler der Vergangenheit nur wiederholt?

Eine kleine Sichtung soll zeigen, was wahrscheinlicher ist.

Die Urdaten des PAGES 2k-Projektes sind in Excel verfügbar. Der Autor hat daraus örtlich konzentrierte Datensätze zweier Erdteile (Nordeuropa, Südamerika) herausgezogen und gesichtet. Leider sind die Temperaturwerte in den Daten nicht in Grad, sondern unterschiedlichsten Dimensionen angegeben, weshalb nur die Verläufe, aber nicht die Absolutwerte vergleichbar sind.

PAGES 2k Proxivergleich Raum Norwegen, Schweden, Finnland

Aus der Arktis sind die Proxis: ARC_55; 38¸26; 13 dargestellt (Bild 8). Diese repräsentieren einen begrenzten räumlichen Bereich und man sollte erwarten, dass sie deshalb ähnliche Verläufe zeigen.

Bild 8 Proxis Bereich Arctic ARC_55; 38¸26; 13 des PAGES 2k Datensatzes vom Autor übereinander gelegt. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben.

Jedoch erkennt man in Bild 8 stattdessen deutliche Zeitverschiebungen und teils gegensätzliche Verläufe, zudem große Streuungen. Bildet man die Mittelwerte, sind natürlich die Streuungen verschwunden. Dafür werden die anderen Probleme deutlicher (Bild 9).

Ersichtlich ist, dass über erhebliche Zeitabschnitte keine vernünftige Korrelation besteht. Das kann man sich bei Datensätzen aus der gleichen Gegend aber schwer vorstellen.

Bild 9, Mittelwerte aus Bild 8 (Proxis des Projekt PAGES 2k Datensatzes ARC_55; 38¸26; 13) vom Autor übereinander kopiert. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben und wurden vom Autor verschoben.

Detailsichtung der Datensätze Arktik ARc_34 und ARc_36 aus der gleichen Gegend von Grönland

Die Datensätze ARc_34 und ARc_36 (Eisbohrkern-Daten) wurden vom Autor auf gleiche Spannweite und den Endwert 0 (im Jahr 1973) normiert. Bild 10 zeigt die sich ergebenden Proxiverläufe.

Bild 10 Proxi ARc_34 (blau) und ARc_36 (rot) (beides Eisbohrkern-Daten) des PAGES 2k Datensatzes. Normiert auf gleiche Spannweite und Endwert 0 im Jahr 1973

Im folgenden Bild sind normalverteilte Zufallszahlen dargestellt. Die Ähnlichkeit mit den vorhergehenden Proxi-Bildern ist verblüffend.

Bild 11 Bild normalverteilter Zufallszahlen

Bild 12 zeigt zusätzlich die Mittelwerte und Regressionsgeraden. Im Bild sieht man, dass die Kalibrierungen zum Jahr 1973 nicht übereinstimmen, denn die Mittelwertkurven und Regressionsgeraden haben zueinander einen erheblichen Offset. Die zugefügte Mittelwertkurve aus den Zufallswerten von Bild 11 (braun) zeigt eine fast identische Verlaufscharakteristik (vor allem zur blauen Proxikurve), womit die Wahrscheinlichkeit dass die Proxis im Wesentlichen Rauschen darstellen erhärtet wird.

Bild 12 30-Jahre Mittelwerte der Proxis ARc_34 (blau) und ARc_36 (rot) des PAGES 2k Datensatzes. Normiert auf gleiche Spannweite und Endwert 0 im Jahr 1973. Zugefügt eine Mittelwertkurve normalverteilter Zufallswerte (braun) mit gleicher Auflösung und entsprechend der blauen Kurve schief gestellt

Doch auch die Übereinstimmung der Mittelwertverläufe selbst ist desaströs (Bild 13). Eine Übereinstimmung welche einen Münzwurf überschreitet (K >= +0,5) besteht nur für 42 % des Zeitraums, eine vollständig negative Korrelation (K < 0) besteht für 27 % des Zeitraumes.

Bild 13 Korrelationsverlauf der 30-Jahre Mittelwerte der Proxis ARc_34 und ARc_36 (Bild 9.2) des PAGES 2k Datensatzes vom Jahr 613 – 1973

Aussagen des Korrelationskoeffizienten:

Koeffizient = +1: Übereinstimmung

Koeffizient = +0,5: Übereinstimmung entspricht einem Münzwurf (50 %)

Koeffizient = 0: Keinerlei Übereinstimmung

Koeffizient = -1: genau entgegengesetzte Übereinstimmung

Beispiele Kontinental-globaler Proxisammlungen

Bevor noch weitere Detailsichtungen erfolgen, eine Übersicht wie es aussieht wenn alle Proxiverläufe eines Kontinentes gemeinsam dargestellt sind.

Über einen WEB-Viewer „Aktive viewer for the Pages 2K Proxis“ lassen sich die PAGES 2k Daten direkt ansehen. Daraus beispielhaft der Proxiverlauf der gesamten Arktis (Bild 14) und Nordamerika (Bild 14.1). Man sieht auch ohne Statistik, dass diese Bilder keinen globalen Klimaverlauf sondern ein Chaos durch Proximängel zeigen.

Dazu die einfache Frage: Welche Statistik soll daraus den wirklichen Verlauf extrahieren? Ein stur berechneter Mittelwert erzeugt jedoch immer einen mehr oder weniger geraden Strich. Und dieser Strich wird um so „gerader“, je mehr solch unbrauchbare Datensätze „zusammen gepackt“ werden. Durch das Erhöhen der Anzahl Proxis wird rechnerisch der Mittelwert immer genauer (die Vier-fache Probenmenge verdoppelt die Genauigkeit), wie es viele Rekonstruktionen stolz ausweisen – in Wirklichkeit wird es aber schlechter, weil die fehlende Datenintegrität nur Rauschen zufügt und das „Wissen“ über die Grundgesamtheit nicht verbessert, sondern „verwässert“.

Bild 14 Alle Proxis Arctic des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Nun der „Spaghettiverlauf“ von Nord-Amerika. Auch hier das identische Problem (Bild 11).

Bild 14.1 Alle Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Bild 14.2 Liste aller Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

PAGES 2k Proxivergleich Raum Südamerika Westküste

Das Vorgehen zur orientierenden Analyse von Arktisdaten nun wiederholt für Proxis aus Süd-Amerika. Die ausgewählten drei Samples stammen alle aus dem mittleren Bereich der südamerikanischen Westküste. Die Datensätze SAm_1;_2 stammen sogar vom gleichen Eisfeld. Die Klimaverläufe (SAm_1;_2) wurden jedoch nach unterschiedlichen Verfahren ermittelt.

SAm_1 Quelccaya Peru Ice-Core, Verfahren accumulation

SAm_2 Quelccaya Peru Ice-Core, Verfahren δ180

SAm_3 Laguna Aculeo Chile, Verfahren Lake sediment

Bild 15 Proxis Bereich Südamerika SAM_1, SAM_2¸ SAM_3 des PAGES 2k Datensatzes vom Autor übereinander gelegt. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben.

Wieder zeigen sich erhebliche Zeitverschiebungen, teils gegensätzliche Verläufe und große Streuungen. Im übereinander gelegten Verlaufsbild der Mittelwerte (Bild 16) erkennt man es noch deutlicher.

Bild 16 Proxis des PAGES 2k Datensatzes SAM_1; 2¸ 3 vom Autor übereinander kopiert. Mittelwerte (von Bild 15), Zeitachse genau, die Vertikalachsen sind in den Originalen nicht in vergleichbaren Maßstäben und wurden vom Autor deshalb auf eine ungefähr gleich große Spanne verschoben.

Bild 17 zeigt den Datensatz SAm_2 im Original ohne verbindende Linien. Wieder besteht der große Verdacht, dass der Datensatz im Wesentlichen aus Rauschen besteht.

Bild 17 Proxi SAm_2 des PAGES 2k Datensatzes

Detailsichtung der Datensätze Südamerika SAm_1 und SAm_2 vom gleichen Eisfeld

Die Datensätze SAm_1 und SAm_2 wurden vom Autor auf gleiche Spannweite und den Endwert 0 (im Jahr 1995) normiert. Bild 18 zeigt die sich ergebenden Mittelwertverläufe und Regressionsgeraden.

Es zeigt sich:

— Die Mittelwerte verlaufen teils über mehrere Hundert Jahre gegensätzlich

— Die Regressionsgeraden ergeben für SAm_1 (schwarz) einen minimalen Anstieg , für SAm_2 (rot) einen deutlichen Temperaturabfall.

Bild 18 Mittelwert (n = 30 Jahre) SAm_1 (schwarz) SAm_2 (rot). Regressionsgeraden SAm_1 (schwarz) SAm_2 (rot)

Die Korrelationskurven der beiden Mittelwertverläufe zeigt Bild 19. Zwischen den beiden Kurven besteht weder im 30 Jahre noch im 100-Jahre-Intervall und nicht einmal in der jüngeren Zeit eine längere Korrelation über dem „Münzwurfwert“ + 0,5. Für über 50 % der Zeit besteht sogar ein gegensätzlicher Verlauf.

Korrelationen innerhalb des 30-Jahre Intervalls (Bild 19):

K >= 0,5 16 % des Zeitraums

K < 0 53 % des Zeitraums

Es besteht deshalb mehr als der Verdacht, dass die Proxis im Wesentlichen nur Rauschen darstellen.

Bild 19 Korrelation der 30-Jahre Mittelwertkurven von SAm_1 / SAm_2 über die Zeitabschnitte 30 Jahre (grün) und 100 Jahre (braun).

Zuletzt noch das Gesamtbild aller Proxis Südamerika (Bild 20). Auch darin sind wieder vollkommen gegensätzliche Verläufe und Zeitverschiebungen erkennbar.

Bild 20 Alle Proxis SAmerica des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Damit wiederholend die Feststellung:

Entweder gab es auch in diesem begrenzten Bereich von Südamerika kein einheitliches Klima – was unwahrscheinlich erscheint – oder die Proxis spiegeln es einfach nicht wieder.

Auch in dieser Gegend kann man leicht belegen, dass Proxis der gleichen Gegend (hier sogar vom gleichen Eisfeld) vollkommen gegensätzliche Klimaverläufe anzeigen und extrem fehlerbehaftet sein müssen – sich sogar die Frage stellt, ob sie überhaupt einen Klimaverlauf wiederspiegeln.

Zwei Proxis aus der gleichen Höhle in Afrika

als ein Beispiel für eklatante Proxi-Zeitfehler.

In zwei Studien welche im MWP-Projekt von CO2SCIENCE verwendet (und gemittelt) wurden:

[2] Tyson at al., Cold Air Cave, Makapansgat Valley, South Africa und

[1] Holmgren at al. Cold Air Cave, Makapansgat Valley, South Africa

ist jeweils eine Proxirekonstruktion aus der gleichen Höhle gelistet. Legt man diese zwei Rekonstruktionen aus den Studien übereinander zeigt sich das Bild 21. Man könnte meinen, die Höhle hat gleichzeitig zwei vollkommen verschiedene Klimate erlebt. Auf jeden Fall wird das Ergebnis durch Mitteln (was in dem Projekt erfolgte) niemals richtig.

Bild 21 Zwei Proxis [1][2] aus der Höhle Makapansgat Valley, South Africa vom Autor im angegebenen Zeitmaßstab übereinander platziert

Komprimiert man allerdings die Zeitachse der Proxirekonstruktion aus [2] um ca. 300 Jahre!, dann werden beide Verläufe deckungsgleich (Bild 22). Ein exemplarisches Beispiel für teils extreme Probleme der Zeitzuordnungen und leider dem extrem laschen (eher sträflichen) Umgang damit.

Bild 22 Proxis [1][2] von Bild 16. Proxi [2] vom Autor zeitlich komprimiert und dadurch mit [1] in Deckung gebracht

Dazu bedenke man, dass im Projekt aus den Daten von Bild 21 durch Mitteln ein „wahrscheinlicher Verlauf“ „ermittelt“ wurde – der wie gezeigt jedoch vollkommen falsch ist. Und solche Verschiebungs- Konstellationen sind ein häufiger Fall.

Fazit PAGES 2k Projekt

Es ist erkennbar, warum das Projekt PAGES 2k die Hockeystick-Kurve bestätigen muss. Es wurden auch bei der Wiederholung gleich ungeeignete Datensätze und statistische Verfahren verwenden. Damit muss das gleiche Ergebnis – eine ziemlich linear verlaufende Mittelwertkurve – herauskommen. Da nutzt es nichts, dass zum Projekt 79 Haupt-Autoren gelistet sind.

Auch die Darstellung bei RealClimate dazu kann der Autor nicht teilen und würde anstelle des dort zustimmenden „ … forward“ ganz konkret ein desaströßes „ … backward“ sagen:

RealClimate: The PAGES-2k synthesis, Guest commentary by Darrell Kaufman (N. Arizona U.)

…In a major step forward in proxy data synthesis, the PAst Global Changes (PAGES) 2k Consortium has just published a suite of continental scale reconstructions of temperature for the past two millennia in Nature Geoscience.“

Dazu ein leicht angepasster Statistikseminar-Einsteigerwitz:

Patient steht mit einem Fuß in kochendem Wasser und mit dem anderen im Trocken-Eis. Der Computer berechnet mit höchster Signifikanz, dass sich der Patient im Mittel pudelwohl fühlt und die Standardabweichung dazu sehr gering sei. Kurz darauf stirbt der Patient. Ein Klimawissenschaftler folgert nun: Die Standardabweichung war noch zu groß. Mit mehr Probanden wird sie aber kleiner und sie fühlen sich immer signifikanter pudelwohl.

Merkt das niemand?

Doch, natürlich. Aber es wird ignoriert – da man keine Lösung hat. Die richtige Lösung: Zugeben, dass man falsch angefangen hat und unbedingt neu aufsetzen müsste – ist politisch derzeit nicht vorstellbar. Es wäre auch ein schlimmes Desaster – nicht nur für die beteiligten Wissenschaftler.

Man geht da doch lieber in die Offensive und verkauft weiterhin sogar solche offensichtlichen Mängel und Fehler als Erfolg und heftet sich (noch kurz vor dem Untergang?) möglichst viele Orden an die Brust, Nobelpreis-Aspiranz gleich inbegriffen, Beispiele:

Prof Rahmstorf mit seinem uneingeschränkten Lob zum PAGES 2k Ergebnis „Paläoklima: Die Hockeyschläger-Debatte“ und Klimaretter.Info „Einen Nobelpreis für James Hansen!

Prof Rahmstorf in „Paläoklima: Die Hockeyschläger-Debatte“: In der Fachwelt gelten die Arbeiten von Mann et al. als hoch respektierte Pionierleistung (die Forscher erhielten eine Reihe von Preisen, Mann und Bradley z.B. beide die Oeschger-Medaille der European Geosciences Union).

Nur selten werden Hinweise auf Probleme publiziert. Ein positives Beispiel ist die zu einer Studie des Alfred Wegener Instituts – deren Kommentierung jedoch schon fast einer Bankrotterklärung entspricht:

[11] NEUE STUDIE ZEIGT ERHEBLICHE DIFFERENZEN ZWISCHEN KLIMAARCHIVEN UND KLIMAMODELLENDas Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht.

Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.

Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.

Ein Kommentar aus einem Blog zum PAGES 2k Datensatz zeigt, dass nicht nur der Autor (und vielleicht ein paar politisch nicht ausreichend umgeschulte Forscher des AWI) die Datensätze und das statistische Vorgehen als ungeeignet betrachten:

Blog: RealClimate, The PAGES-2k synthesis

Kommentar

To my eye, flipping between the proxies from a given region shows there to be lots of noise both within a given series and between any pair of series. This is very evident for the various ‘CAN composite’ series, which from Nick’s map appear to be geographically close together. When I spend some time flipping between these it is really impossible for me to say with any confidence that they are measures of the same thing – whatever that thing might be – and that if they are then the signal to noise ratio is miniscule.

If I had a student who brought data like this to me along with a statistical analysis I would send him back to the lab to get better data. Paleoclimate studies can’t do this, of course, but I’m wondering if it would at least be worthwhile to calculate correlations between proxies absent any underlying assumptions in order to assess whether the data has any value.

For example, wouldn’t one expect all the geographically close ‘CAN composite’ series to be more similar to each other than they are to, say central Asia? Shouldn’t it be a requirement that this be true before going ahead and throwing it into the mix? Otherwise it seems to me that garbage is being mixed with what is already a very small signal and I can’t see any good coming of that.

If I had to give an overall impression of the state of progress of paleoclimate reconstructions over the past 15 years I would say that it largely consists of taking more and more data and dumping it into ever more elaborate statistical procedures in the hope that a silk purse will emerge. It’s not at all clear to me that we wouldn’t be better off going back a step and trying to improve the data.

[Übersetzung von Chris Frey: Meiner Ansicht nach zeigt das Hin- und Herschwingen zwischen Proxys einer bestimmten Regioneine Menge Rauschen erzeugt, sowohl in einer gegebenen Einzelreihe als auch in jedwedem Satz von Reihen. Dies ist sehr offensichtlich bei den verschiedenen ,CAN-Komposit-Reihen‘ der Fall, welche Nicks Graphik zufolge geographisch nahe beieinander zu liegen scheinen. Wenn ich eine Weile zwischen diesen hin- und herschalte, ist es mir wirklich unmöglich, mit einiger Sicherheit zu sagen, dass es Messungen der gleichen Sache sind – was auch immer diese Sache sein mag – und falls das so ist, dann ist das Signal im Verhältnis zum Rauschen minimal.

Falls mir ein Student mit einer Analyse wie dieser unterkommen würde, , würde ich ihn in sein Laboratorium zurückschicken, um bessere Daten zu bekommen. Mit paläoklimatischen Studien geht das nicht, aber ich frage mich, ob es nicht zumindest wert ist, Korrelationen zu berechnen zwischen Proxys, denen jedwede zugrunde liegende Hypothese fehlt, um abzuschätzen, ob die Daten überhaupt von Wert sind. Beispiel: Würde man nicht erwarten, dass alle geographisch benachbarten ,CAN-Reihen‘ miteinander ähnlicher sind als beispielsweise mit Zentralasien? Sollte nicht die Notwendigkeit bestehen, bevor man weitergeht und alles in den Mix hineinwirft? Anderenfalls scheint mir , dass Müll mit etwas vermischt wird, dass bereits nur ein sehr geringes Signal ist, und ich kann daran nichts Gutes finden.

Falls ich einen Gesamteindruck des Status‘ des Fortschritts bei paläoklimatischen Rekonstruktionen während der letzten 15 jahre geben müsste, würde ich sagen, dass dieser Status im Wesentlichen gekennzeichnet ist durch das Sammeln von immer noch mehr Daten und diese mit immer weiteren statistischen Verfahren zu bearbeiten – in der Hoffnung, dass sich irgendetwas zeigt. Mir ist in keiner Weise eingängig, warum es nicht besser wäre, einen Schritt zurückzugehen und bessere Daten zu bekommen versuchen.]

Antwort des Admin

[Response: And what specific suggestions for “improving the data” do you have in mind? It is worth noting that in my experience, the correlation among weather station data is no higher than among similarly spaced paleoclimate data. To me, this says that the paleoclimate data quality if just fine– and that the noise is in regional vs global climate, not the quality of the proxies themselves. In short, we need more data, not “better” data (though better is fine, obviously). Getting more data, of course, it exacty what the authors of the PAGES 2k paper are trying to do.–eric]

[Übersetzung von Chris Frey: Erwiderung: Und welche spezifischen Vorschläge zur „Verbesserung der Daten“ schweben Ihnen vor? Man muss sagen, dass meiner Erfahrung nach die Korrelation unter den Daten von Wetterstationen nicht höher ist als unter ähnlich gelagerten paläoklimatischen Daten. Ich schließe daraus, dass die Qualität der paläoklimatischen Daten einfach gut ist – und dass das Rauschen dem Unterschied zwischen regionalem und globalem Klima geschuldet ist und nicht der Qualität der Proxys selbst. Kurz gesagt, wir brauchen mehr Daten, nicht „bessere“ Daten (obwohl natürlich ,besser‘ sehr schön wäre). Und mehr Daten zu erhalten ist natürlich genau das, was die Autoren der PAGES 2k-Studie versuchen.]

Kommentierung

Bei der Antwort des Admin bleibt einem wirklich „die Spucke weg“. Weil die Daten von Temperatur-Messstationen genau so wenig übereinstimmen (wie Proxidaten) müssen es Proxidaten auch nicht. Dazu die Aussage, nicht die Daten müssen genauer werden, sondern man benötigt eben mehr (schlechte). Und die Bestätigung, dass dies das Vorgehen im Projekt PAGES 2k bestimmt (hat).

Dabei macht der Admin genau den im Artikel angesprochenen Fehler:

— Bei den Temperaturmessungen hat man eine Genauigkeit, bei der eine größere Abdeckung durch mehr Messstellen die bisherige Ungenauigkeit globaler Kurven verringert.

— Bei den Temperaturproxis ist die erforderliche Basisgenauigkeit, Datenhomogenität, Zeitzuordnung und Rauschfreiheit nicht gegeben, so dass mehr Proxis kein besseres Ergebnis, sondern nur eine immer geradere, falsche Kurve liefern können.

Nachtrag

Als Bonmot noch eine Darstellung, was jemand der für die CRU-Datensammlung eingesetzt wurde über die Datenqualität in Mails sagte. Es könnte vom Autor stammen, dem es bei seinen Recherchen ganz genau so geht. Denn es ist wirklich so: Die Datenqualität – ob Temperaturdaten, Proxis oder Meeresspiegel – ist weltweit einfach nur grottenschlecht. Entsprechend sind es auch die Zukunfts-Projezierungen „Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel“

Es wäre alles kein Problem – wenn diese Mängel und offensichtlichen Fehler nicht das Geld der Bürger kosten würden.

CRU: Datensammlung oder Datenmüll?

Quelle: ScienceSkepticalBlog, 16. Januar 2010: Ilmastogate – Finnische Doku zu Klimagate mit deutscher Übersetzung

Eine wichtige Aufgabe der CRU ist die Pflege der Daten und des Computer-Codes zur Berechnung der globalen Durchschnittstemperatur. Es ist dieses Material, dass Jones so standhaft vor externer Überprüfung geschützt hat. Die bekannt gewordenen Dokumente enthüllen jetzt einen möglichen Grund für die Geheimhaltung. Die wissenschaftlichen Daten und der Computer-Code im Zentrum der Weltpolitik sind in einem Zustand, dass sie nicht einmal für Leute zu entschlüsseln sind, die verantwortlich für die Pflege der Daten sind. Vor kurzem wurde junger Computer Programmierer, genannt Harry, eingestellt um das Chaos in Ordnung zu bringen. Harrys genervte Anmerkungen sind jetzt für die Öffentlichkeit verfügbar (Anm.: Der im Original hier eingestellte Link verweist nicht mehr auf die richtige Fundstelle).

OH VERF****. Es ist Sonntag Abend, ich habe das gesamte Wochenende gearbeitet, und gerade als ich dachte, ich wäre fertig, finde ich schon wieder ein neues Problem. Es gibt keine einheitliche Datenintegrität. Es ist eine einzige Ansammlung von Problemen die anwachsen sobald man sie gefunden hat.“

Es ist genau ebendiese Datenbank, welche Harry so verflucht, mit der die Welt-Mitteltemperatur ermittelt wird, die im 20. Jahrhundert um 0,7 °C angestiegen sein soll. Diese Daten sind auch wichtig für die Zukunft. Die Computermodelle zur Vorhersage eines zukünftigen Anstiegs der Globaltemperatur werden mit Hilfe dieser CRU-Statistik getestet und kalibriert. Wenn sie in der Lage sind, den Anstieg im letzten Jahrhundert zu reproduzieren, wie er von der CRU konstruiert worden ist, sollen sie angeblich in der Lage sein, das Klima bis zum Ende des 21. Jahrhunderts vorhersagen zu können.

Quellen

[1] Holmgren, K., Tyson, P.D., Moberg, A. and Svanered, O. 2001. A preliminary 3000-year regional temperature reconstruction for South Africa. South African Journal of Science 97: 49-51.

[2] Tyson, P.D., Karlen, W., Holmgren, K. and Heiss, G.A. 2000. The Little Ice Age and medieval warming in South Africa.  South African Journal of Science 96: 121-126.

[3] ScienceScepticalBlog, 12. Oktober 2013 : Der Hockeystick: Rise and Fall des Symbols für den menschgemachten Klimawandel

http://www.science-skeptical.de/klimawandel/der-hockeystick-rise-and-fall-des-symbols-fuer-den-menschgemachten-klimawandel/0010940/

[4] itsnotnova: Nova’s Warm Period https://itsnotnova.wordpress.com/2012/09/03/novas-warm-period/

[5] EIKE, 26.04.2016: Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

http://www.eike-klima-energie.eu/news-cache/systematischer-fehler-bei-klimamessungen-die-aufzeichnung-der-lufttemperatur-an-der-erdoberflaeche/

[6] Moschen at al. 2011, Temperature variability at Durres Maar

Moschen et al. present "a high resolution reconstruction of local growing season temperature anomalies at Durres Maar, Germany [50°52’N, 6°53’E], spanning the last two millennia

[7] Sicre at al. 2008: Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142. Quelle: Co2Science

[8] Kitagawa at al. 1995: Climatic implications of δ13C variations in a Japanese cedar (Cryptomeria japonica) during the last two millennia. Geophysical Research Letters 22: 2155-2158. Bildquelle: Co2Science.

[9] SciLogs 23. Mai 2013 von Stefan Rahmstorf in Klimadaten: Paläoklima: Die Hockeyschläger-Debatte

http://www.scilogs.de/klimalounge/palaeoklima-die-hockeyschlaeger-debatte/

[10] ScienceSkepticalBlog, 16. Januar 2010: Ilmastogate – Finnische Doku zu Klimagate mit deutscher Übersetzung

[11] kaltesonne 22. November 2014: Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

http://www.kaltesonne.de/neue-awi-studie-zeigt-erhebliche-differenzen-zwischen-klimaarchiven-und-klimamodellen/

[12] Riemann, Dirk 2010, Dissertation: Methoden zur Klimarekonstruktion aus historischen Quellen am Beispiel Mitteleuropas

[13] SciLogs, Prof. Rahmstorf 17. Juni 2013: Paläoklima: Das ganze Holozän

[14] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“

http://www.eike-klima-energie.eu/news-cache/langfrist-temperaturverlaeufe-deutschlands-das-phaenomen-der-temperaturstufen/




Der lange Marsch in die große Pleite

Als das Angstmachen professionalisiert wurde…

Es gibt ein Datum für den Beginn des Einsatzes der Angst vor angeblichen Umweltkatastrophen als staatliches politisches Instrument in Deutschland: Es ist der 22.Oktober 1969.

An diesem Tage nahm das Kabinett Brandt I seine Arbeit auf – und Vizekanzler Genscher (FDP), der das Innenministerium übernahm, brachte einen Vertrauten mit und ernannte ihn zum beamteten Staatssekretär: Günter Hartkopf. Dieser für sein „ökologisches Engagement“ bekannte Mann hatte damit eine Schlüsselstellung gefunden, in der er während seiner knapp 14 Dienstjahre im BMI nahezu unbemerkt, dabei höchst effektiv und fast immer am Parlament vorbei die Gründung und Unterstützung von Hunderten von Bürgerinitiativen und Umweltgruppen betrieb. Er lenkte ebenfalls Steuergelder in Institute und ihm genehme Wissenschaftsbetriebe.

Sein Ziel war der Aufbau einer unüberwindbaren ministerialen Gegenmacht zur Wirtschaft, die er als ständig bremsendes Hindernis bei der Verschärfung von Umweltstandards und Grenzwerten und im Grunde als seinen Feind ansah.

Dazu benötigte er eben nicht nur eine dafür ausgerüstete und starke Verwaltung, sondern auch eine mächtige Unterstützerlobby im Außenraum, die er sich mit den von ihm finanzierten Umweltverbänden selbst geschaffen hatte.

Originalton Hartkopf: „Nachdem zu Beginn der eigentlichen bundesdeutschen Umweltpolitik eine solche potente Gegenseite (Anm.: zur Wirtschaft) nicht vorhanden war, musste sie geschaffen werden….Es waren vorwiegend Beamte (Anm.: seine eigenen), die den Grundstein für die Arbeitsgemeinschaft für Umweltfragen legten und sie mit Leben und sachlichen Mitteln ausstatteten….Doch die Arbeitsgemeinschaft für Umweltfragen ist kein umweltpolitischer Kampfverband. Weil ein solcher fehlte, musste er eben gebildet werden. Es waren wiederum Beamte, die den Plan vorwärts trieben, örtliche Bürgerinitiativen zu einem Dachverband zusammenzuschließen, und die Gründungsversammlung und noch einiges zu finanzieren.“

Dass diese Finanzierungen aus Steuermitteln jemals vom Bundestag in seinen Haushaltsberatungen akzeptiert worden wären, ist nicht vorstellbar.

In einem 1986er Vortrag in Bad Kissingen zog er stolz Bilanz und verwies auf das bis dahin geschaffene Potenzial: Zitat: „Eine Mitgliedschaft von rund vier Millionen Bürgern kann jederzeit mobilisiert werden (!) und bildet daher ein beachtliches Potenzial, an dem die Politik nicht vorbeigehen kann.“

Hartkopf konnte sich auch als Initiator der Menschenmanipulation mittels der Medien rühmen und sprach in seinem Vortrag stolz von „Tendenzinformationen, mit denen die Zeitungsmacher gefüttert wurden“. Er verwies auf die Masse der zur Glaubwürdigkeitssteigerung gezielt erzeugten Berichte in Wissenschaftsjournalen, die nach Hartkopf „aus der Feder von Beamten stammen, wenn man die Veröffentlichungen von Professoren und ihren beamteten Mitarbeitern an Unis mit einbezieht.“ Mit dieser Veröffentlichungs-Welle werde die widerspenstige Wirtschaft mundtot gemacht. Zitat: „Die Fülle der substanziellen Fachartikel ist so groß, dass die Wirtschaft weder von der Menge noch von der Qualität mithalten kann.“ Als einzelne Bundesländer in den 70er Jahren versuchten, überzogene Grenzwerte abzuschwächen, wurden sie nach Hartkopfs Aussage „mithilfe der Medien wegadministriert.“

Dieser unauffällige FDP-Mann, dessen jeweilige Chefs – Genscher, Maihofer, Baum (alle FDP), Schmude (SPD) und Zimmermann (CSU) – anscheinend nie bemerkten, was er mit großem Einsatz und Steuergeld so alles trieb, war der Urvater und Züchter des deutschen Angst- und Ökowahns, den wir heute zum Gespött des Auslands mit über 20 Milliarden Euro jährlich allein für den „Klimaschutz“ bezahlen dürfen.

Dass heute Hunderte von Bürgerinitiativen gegen eine umweltzerstörende Politik – nicht der Wirtschaft, sondern der Regierung – kämpfen, ohne von Beamten „mit sachlichen Mitteln ausgestattet“ zu werden, ist eine traurige Ironie der Geschichte.

Staatssekretär Hartkopf erhielt nach seinem Ausscheiden aus dem Dienst das Große Bundesverdienstkreuz mit Stern und Schulterband. 

Hartkopfs zweiter großer Trumpf, die von ihm hoch gelobte effiziente und mit überlegenem know-how ausgestattete Verwaltung – insbesondere die der Bundesministerien – ist allerdings  inzwischen zerfallen. So hat das Wirken von Jürgen Trittin als Bundesumweltminister im Kabinett Schröder I (10.1989-10.2002) und Schöder II (10.2002-10.2005) zu einem fast totalen Kahlschlag bei den Fachleuten im BMU geführt, die durch grüne Aktivisten aus den Ökoinstituten ersetzt wurden. Die Mitleid erregenden, zwar ideologisch korrekten aber z.T. selbst der Physik widersprechenden Gesetze und Verordnungen aus diesem Haus, die der Energiewende und dem „Klimaschutz“ dienen sollten, sind eine Folge dieses Fachleute-Exorzismus‘.

Dass hierbei auch das stets beteiligte Bundeswirtschaftsministerium nur eine lange Geschichte des Versagens beisteuern konnte, liegt an der FDP. Diese Partei schaffte es, das BMWi vom Kabinett Brandt II (ab 15.12.1972) bis zum Ende des Kabinetts Kohl V (26.10.1098) ganze 16 Jahre ununterbrochen zu halten.

In den Regierungen Schröder I und II sowie Merkel I (Ende 28.10.2009) saß die FDP nicht; jedoch  in der Regierung Merkel II (28.10.2009 – 22.10.2013) besetzte sie wieder das BMWi mit Brüderle (bis Mai 2011) und danach Rösler. Das waren zusammen 20 Jahre seit 1972, in denen die FDP eine kompromisslose, allein auf die Unterbringung von Parteimitgliedern ausgerichtete Personalpolitik betrieb. Dass dabei die fachlichen Qualifikationen erst in zweiter Hinsicht eine Rolle spielten, schwächte dieses Ressort zunehmend. Der Einfluss dieses einst wichtigen Ministeriums in der Regierung, das schließlich einst von Ludwig Erhard und Karl Schiller geleitet wurde und in den 7 Jahren der Regierungen Schröder unter ihren Chefs Werner Müller und Wolfgang Clement die schweren Defizite nicht mehr beheben konnte, wurde unbedeutend – man brauchte es nicht mehr ernst zu nehmen. Das BMWi war nicht mehr in der Lage, der Ideologen-Mannschaft des BMU wirksam zu begegnen. 

Den Tiefpunkt erreichte dieses Ressort unter Rösler, als es der Forderung der Offshore-Lobby nachgab und das Gesetz zur Übernahme der finanziellen Haftung bei Verzögerungen und anderen Problemen der Windparks durch die Stromverbraucher formulierte, vorlegte und verabschiedete: Eine planwirtschaftliche Todsünde, die nicht nur den Niedergang dieses einst die Marktwirtschaft verteidigenden Ressorts, sondern auch den Niedergang der FDP deutlich machte. 

Man hätte nun annehmen können, dass zumindest das Bundesfinanzministerium BMF angesichts der Aussicht auf schwerste Schäden für die Wirtschaft sowie eine viel höhere Belastung der Bürger durch die Strompreise – also stark sinkende Steuereinnahmen – irgendwann die Notbremse ziehen musste. Aber das Gegenteil ist der Fall: Das BMF ist bislang einer der größten Profiteure der Strangulierung von (konventionellen) Stromerzeugern und         -Verbrauchern, weil eine ganze Serie von Steuergesetzen (siehe Kap.8) eine riesenhafte Einnahmequelle darstellt – allen voran die Stromsteuer und die Mehrwertsteuer, die auf alles noch obendrauf kommt. Damit finanzieren die Regierungen den Sozialstaat, ebenso wie sie von den enormen Einnahmen, die den privaten Autofahrern mit diversen Steuern abgenommen werden, schon immer einen beträchtlichen Anteil zweckentfremdet haben.

Das Bundesfinanzministerium beschleunigt also den Niedergang der Wirtschaft aus kurzfristigem Einnahmeinteresse. Was ohne eine deutliche Kursänderung in 10 oder 15 Jahren passiert, interessiert dort niemand. 

Auch das Erneuerbare-Energien-Gesetz (EEG), mit dessen desaströsen Auswirkungen sich hier mehrere Kapitel beschäftigen, ist nicht erst von der Großen Koalition erfunden worden; auch nicht in der Ära Trittin (1989 – 2005), sondern es wurde als „Gesetz über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ am 7.12.1990 von der Regierung Kohl III beschlossen und galt seit 1991. Umweltminister war Töpfer und Bangemann Wirtschaftsminister.

Es wurde danach von den 7 folgenden Bundesregierungen immer weiter ausgebaut und „verbessert“: Seit März 2000 hieß es dann EEG und enthielt die bedeutenden „Verbesserungen“ der Einführung des Vorrangprinzips, eines bundesweiten Wälzungsmechanismus und einer starken Anhebung der Vergütungssätze für die Photovoltaik – also starke Beschleunigungselemente für die Fahrt in die wirtschaftliche Katastrophe. Und das waren jetzt  tatsächlich die üblichen Verdächtigen Schröder und Trittin, die vermutlich noch heute darauf stolz sind.

Als die Probleme zunahmen,  befassten sich die späteren Regierungen zunehmend mit verschlimmbessernden Reparaturmaßnahmen, gaben das groteske Vorhaben aber nicht auf. Und so wird es weitergehen, bis der angerichtete Schaden vollends untragbar geworden ist. 

Mit diesen Ausführungen soll deutlich gemacht werden, dass die Ursachen für die jetzige Situation, in der die Regierung scheinbar ratlos, hilflos und unter dem Spott des Auslands auf die Zerstörung der deutschen Energiewirtschaft zusteuert, während sie sich mit längst widerlegten Ausreden zu rechtfertigen versucht, eine lange Vorgeschichte haben. Hartkopfs größte Hinterlassenschaft – die Angst als politisches Instrument – ist nach wie vor präsent.

Selbstverständlich tragen auch einige der bekannten Politiker aus der jüngeren Vergangenheit und  Gegenwart – stellvertretend seien Merkel, Trittin, Töpfer, Gabriel und Rösler genannt – Schuld am jetzt erreichten Zustand.  Aber das Problem hat wesentlich tiefer gehende Wurzeln.




Gavin Schmidt und seine „Trickserei“ mit Referenz-Perioden

Schmidt erhob alle Vorwürfe, die er schon zu oft zuvor erhoben hatte:

@curryja use of Christy’s misleading graph instead is the sign of partisan not a scientist. YMMV. tweet;

@curryja Hey, if you think it’s fine to hide uncertainties, error bars & exaggerate differences to make political points, go right ahead.  tweet.

[Übersetzung extra, weil ich nicht weiß, ob diese links erhalten bleiben: Der Gebrauch von Christys irreführender Graphik ist ein Zeichen dafür, dass er ein Partisan und kein Wissenschaftler ist.

Falls Sie glauben, dass es in Ordnung ist, Unsicherheiten und Fehlerbalken zu verstecken sowie Differenzen zu übertreiben, dann machen Sie einfach weiter.]

Als Folge hiervon hat sich Curry entschlossen, Christys Graphik nicht bei ihrem jüngsten Vortrag vor einem Komitee des Kongresses zu zeigen. Im heutigen Beitrag möchte ich die Validität von Schmidts Kritik untersuchen (oder das Fehlen derselben).

Soweit ich das verstehe, ging es bei Schmidts primärem Streit darum, dass Christy seine Modell- und Beobachtungsdaten so aufbereitet hatte, dass sie beide im Jahre 1979 ihren Ausgang nahmen, also dem Beginn der Satelliten-Ära. Dieses Verfahren zeigt (offensichtlich) eine größere Diskrepanz am Ende des Zeitraumes als als wenn die Daten in der Mitte des Zeitraumes platziert wären. Ich werde die Unterstützung für Christys Verfahren durch seinen vieljährigen Kontrahenten Carl Mears unter die lupe nehmen, dessen eigene Vergleiche zwischen Modell und Beobachtungen eine kurze Periode (1979 bis 1983) überdeckten, „damit die Änderungen mit der Zeit besser erkennbar waren“. Während sowohl Christy als auch Mears rationale Argumente für ihre Grundsatzentscheidung vorbrachten, war Schmidts Argumentation nur wenig mehr als Geschrei.

Hintergrund

Die ganze Geschichte der Kontroverse um die Diskrepanz zwischen Modellen und Beobachtungen in der tropischen Troposphäre ist literaturmäßig voluminös. Während die wesentlichen Protagonisten Christy, Douglass und Spencer auf der einen Seite sowie Santer, Schmidt, Thorne und andere auf der anderen Seite waren, haben auch Ross McKitrick und ich selbst zu diesem Thema bereits Einiges gesagt, und [die Kommentare von] McKitrick et al. (2010) wurden ausführlich im AR 5 diskutiert, allerdings unglücklicherweise wie so oft hinsichtlich der Schlüsselpunkte betrügerisch.

Startzeitpunkte und Referenzperioden

Christy und Spencer haben viele Jahre lang stilistisch ähnliche Graphiken erstellt. Roy Spencer zeigte hier im Jahre 2014 eine ähnliche Graphik um den Zeitraum 1979 bis 1983 (unten). Tatsächlich war es diese frühere Version, die Bart Verheggen zu wüsten Kommentaren veranlasste, Kommentare, die offenbar ihren Ursprung in einigen der vorherrschenden alarmistischen Memes* haben.

[Wer wie ich mit dem Begriff „Meme“ nichts anfangen kann – hier steht eine gute Erklärung. A. d. Übers.].

Abbildung 1: Version 2014 der Graphik von Christy, entnommen dem Blog von Roy Spencer hier. Sie verwendete den Referenzzeitraum 1979 bis 1983. Dies wurde später hier von Bart Verheggen kritisiert.

Christys Vortrag vom Februar 2016 erklärte diesen allgemeinen Ursprung als die geeignetste Referenzperiode, wobei der Start eines Rennens als Metapher angeführt wurde:

Hierzu sage ich im Gegenteil, dass wir die Daten auf bedeutsamste Art und Weise dargestellt haben. Es geht hier um die Rate der Erwärmung des Großteils der Atmosphäre, d. h. den Trend. Diese Metrik sagt uns, wie schnell sich Wärme in der Atmosphäre akkumuliert – die fundamentale Metrik der globalen Erwärmung. Um dies visuell zu verdeutlichen habe ich alle Datensätze adjustiert, so dass sie einen gemeinsamen Startzeitpunkt haben. Man denke an folgende Analogie: Ich habe während der letzten 25 Jahre an über 500 Rennen teilgenommen, und in jedem Falle starten alle Läufer an der gleichen Stelle zur gleichen Zeit. Damit soll einfach festgestellt werden, wer der Schnellste ist und um wie viel schneller an der Ziellinie. Offensichtlich wird die Gesamt-Relativgeschwindigkeit eindeutig bestimmt durch ihre Reihenfolge bei der Überquerung der Ziellinie – aber alle müssen zusammen starten.

Das in der Graphik von 2016 angewendete Verfahren variierte in gewissem Ausmaß vom früheren Stil: sie verwendete den Wert aus dem Jahr 1979 des Trends von 1975 bis 2005 als Referenz für die Zentrierung; also einen Wert, der sehr nahe dem Mittelwert von 1979 bis 1983 lag.

Carl Mears

Ironischerweise hat Christys immerwährender Gegner Carl Mears auf der RSS-Website des Vergleichs zwischen Modell und Beobachtung eine fast identische Referenzperiode herangezogen (1979 bis 1984), damit „die Änderungen mit der Zeit einfacher erkennbar sind“. Mears schrieb: „Falls die Modelle als Ganzes akzeptable Arbeit geleistet hätten bei der Simulation der Vergangenheit, dann würden die Beobachtungen zumeist innerhalb des gelben Bandes liegen“, aber „dies war nicht der Fall“.

Das gelbe Band zeigt die 5% bis 95%-Einhüllende des Ergebnisses von 33 CMIP5-Modellsimulationen (19 verschiedene Modelle, viele davon mit multiplen Erkenntnissen). Sie sollen das Erdklima während des 20. Jahrhunderts simuliert haben. Für die Zeit vor 2005 wurden die Modelle mit historischen Werten von Treibhausgasen gefüttert, mit vulkanischen Aerosolen und solarem Output. Nach 2005 wurden hierfür geschätzte Projektionen dieser Antriebe verwendet. Falls die Modelle als Ganzes einen akzeptablen Job hinsichtlich der Simulation der Vergangenheit geleistet hätten, dann würden die Beobachtungen zumeist im Bereich des gelben Bandes liegen. Für die ersten beiden Plots (Abbildung 1 und 2), welche globale und tropische Mittelwerte zeigen, ist dies nicht der Fall.

Mears illustrierte den Vergleich mit der folgenden Graphik, deren Legende den Referenzzeitraum 1979 bis 1984 und die damit verbundene Erklärung liefert:

Abbildung 2, entnommen von RSS hier: Original-Legende: tropische (30S bis 30N) mittlere TLT-Anomalie, dargestellt als eine Funktion der Zeit. Das blaue Band ist die 5% bis 95%-Einhüllende für das RSS V3.3 MSU/AMSU-Temperatur-Unsicherheitsensemble. Das gelbe Band ist die Bandbreite von 5% bis 95% des Outputs von CMIP5-Klimasimulationen. Der mittlere Wert jeder Zeitreihe von 1979 bis 1984 wurde auf Null gesetzt, so dass die Änderungen mit der Zeit deutlicher erkennbar sind. Erneut liegen die Beobachtungen nach 1998 wahrscheinlich unter den simulierten Werten. Dies zeigt, dass die Simulation als Ganzes mehr Erwärmung prophezeit als von den Satelliten beobachtet.

Die sehr geringe Überlappung zwischen der Einhüllenden der Modelle und derjenigen der Beobachtungen ist ein klarer Beweis – für jeden geübten Beobachter – dass es eine statistisch signifikante Differenz gibt zwischen dem Ensemble-Mittel und den Beobachtungen, und zwar bei Verwendung der T-Statistik von Santer et al. 2008.

Nichtsdestotrotz war Mears nicht der Ansicht, dass die Schuld bei den Modellen zu suchen war. Sondern er argumentierte stattdessen zusammen mit Santer, dass das Phänomen Fehlern der Antriebe geschuldet war, Fehler in den Beobachtungen und der internen Variabilität (siehe hier). Trotz dieser Differenzen bei der Diagnose stimmte Mears mit Christy überein hinsichtlich der Eignung eines gemeinsamen Ursprungs für diese Art von Vergleich.

IPCC AR5

Das IPCC, das sich nach Schmidts Worten nicht scheut, „Differenzen zu übertreiben oder zu minimieren, um politisch zu punkten“, hat eine Referenzperiode inmitten des Satelliten-Intervalls ausgewählt (1986 bis 2005) für seine Graphik im AR 5, Kapitel 11, Abbildung 11.25, in der ein globaler Vergleich von CMIP5-Modellen mit dem Mittel von 4 Datensätzen mit Messungen gezeigt wird.

Abbildung 3: IPCC, AR5, WG1, Abbildung 11.25a

Der effektive Ursprung in dieser Graphik lag daher im Jahre 1995, was die Divergenz zwischen Modellen und Beobachtungen auf etwa die Hälfte der gesamten Divergenz während der Satelliten-Ära hat schrumpfen lassen. Roy Spencer präsentierte das folgende Diagramm, welches die Auswirkung illustriert, wenn man zwei Reihen mit unterschiedlichen Trends um die Mitte des Zeitraumes (oben) und am Beginn des Zeitraumes (unten) einbettet. Falls man die beiden Trendreihen in der Mitte des Zeitraumes einbettet, dann ist die Lücke am Ende des Zeitraumes auf die Hälfte reduziert im Vergleich zur Einbettung am Startzeitpunkt, wenn beide Reihen den gleichen Ursprung haben (wie im Christy-Diagramm).

Abbildung 4: Das Diagramm von Roy Spencer, welches die Differenz zeigt zwischen Einbettung am Beginn und in der Mitte.

Bart Verheggen

Das alarmistische Narrativ über vermeintlich ungeeignete Grundlinien in der Abbildung von Christy scheint seinen Ursprung in einem Blogbeitrag von Bart Verheggen zu haben, in welchem eine oben gezeigte frühere Version der Graphik von Roy Spencers Blog (hier) mit der Einbettung von 1979 bis 1983 verunglimpft wurde, obwohl diese Auswahl fast exakt identisch war mit der Einbettung 1979 bis 1984, die später von RSS/Carl Mears verwendet worden ist.

Verheggen beschimpfte derartige Grundlinien als „teilweise betrügerisch“ und warf Christy und Spencer vor, die Modellläufe nach oben zu „verschieben“, um „die Diskrepanz zu vergrößern“:

Sie verschoben die modellierte Temperaturanomalie nach oben, um die Diskrepanz mit den Beobachtungen um etwa 50% zu vergrößern.

Verheggen behautete, dass die Graphik mit einem Referenzzeitraum von 19867 bis 2005 begonnen hatte (also des im AR5 des IPCC herangezogenen Zeitraumes) und dass Christy und Spencer diesen Zeitraum auf die kürzere Periode von 1979 bis 1983 „umfunktioniert“ hätten, um „die visuelle Erscheinung einer Diskrepanz zu maximieren“:

Der nächste Schritt ist die Umfunktionierung der Abbildung, um die visuelle Präsenz einer Diskrepanz zu maximieren: Man stelle alles auf die Grundlinie des Mittels von 1979 bis 1983 (eine viel zu kurze Periode und, wie es scheint, sehr taktisch ausgewählt) … Dies sieht überraschend ähnlich aus wie Spencers Trickserei-Graphik.

Verheggen hat auch nicht die Spur eines Beweises geliefert, der zeigte, dass Christy und Spencer die Graphik zuerst mit der in der Mitte des Intervall liegenden Referenzperiode erstellt und die Graphik dann „umfunktioniert“ hatten, um die Menschen zu „täuschen“. Angesichts des Umstandes, dass die Referenzperiode von „1979 bis 1983“ klar auf der Y-Achse aufgetragen war, brauchte man auch kaum reverse engineering um zu erkennen, dass Christy und Spencer eine Referenzperiode von 1979 bis 1983 herangezogen hatten. Auch sollte es nicht „überraschend“ gekommen sein, dass eine Nachbildung mittels einer Referenzperiode von 1979 bis 1983 ähnlich aussehen würde. Außerdem hat Verheggen die Mears’sche Verwendung eines Referenzzeitraumes von 1979 bis 1984 verdammt, damit die Änderungen „klarer hervortreten“.

Verheggens Vorwürfe finden in der alarmistischen Blog-Gemeinde immer noch Resonanz. Wenige Tage, nachdem Gavin Schmidt Judy Curry herausgefordert hatte, wurde Verheggens Beitrag bei Climate Crocks als die „bislang beste Analyse von John Christys Zaubergrafik“ bezeichnet, die „in der Leugner-Sphäre [deniosphere] so attraktiv ist“.

Die Trickserei geht jedoch vollständig in die umgekehrte Richtung. Graphische Verfahren, die aus einem Ursprung in der Mitte eines Zeitraumes (~1995) resultieren anstatt zum Startzeitpunkt (1979) reduzieren die Diskrepanz zum Ende um etwa 50%, verschleiern also sozusagen die Divergenz.

Gavin Schmidt

Während sich Schmidt darüber beklagte, dass das Christy-Diagramm keine „vernünftige Grundlinie“ habe, hat er keine Kriterien dafür genannt, aufgrund derer eine Grundlinie „vernünftig“ sein sollte und eine andere nicht. Oder dafür, was falsch daran war, einen gemeinsamen Ursprung zu verwenden (oder einen Referenzzeitraum zum Beginn der Satelliten-Ära), „damit die Änderungen mit der Zeit klarer hervortreten“, wie Mears es getan hatte.

Im März 2016 erzeugte Schmidt seine eigenen Graphiken unter Verwendung zweier unterschiedlicher Grundlinien, um Modelle und Beobachtungen zu vergleichen. Schmidt nahm andere ikonographische Variationen der Graphik vor, aber für diese Analyse sind nur die Referenzperioden von Interesse.

Schmidts erste Graphik (linker Teil der Abbildung unten – leider links und rechts verstümmelt in der Twitter-Version) wurde mit dem folgenden Kommentar vorgestellt:

Hoffentlich endgültige Versionen des Vergleiches von Zeitreihen und Trends zwischen Modellen und Messungen in der tropischen mittleren Troposphäre (bis 2016!)

In dieser Version wurde die Einbettung 1979 bis 1988 verwendet, eine Wahl, die relativ geringe Differenzen im Vergleich zu Christys Einbettung zeigt. Victor Venema hänselte Schmidt wegen seiner Erzeugung von Anomalien, die denen von Christy so ähnlich waren, und fragte sich bzgl. der Referenzperiode:

Haben diese Christy-Anomalien den Bezugszeitraum 1983? Oder ist es Zufall, dass die Beobachtungen zu Beginn so gut passen? (@ClimateOfGavin)

Schmidt hat seine Graphik sofort neu erstellt, diesmal mit der Einbettung 1979 bis 1998, was die Ähnlichkeit zu den „Christy-Anomalien“ verringerte. Diese Überarbeitung (rechter Teil der Abbildung unten) kündigte er folgendermaßen an:

Die Änderung ist ganz einfach vorzunehmen. Hier folgt das Gleiche für den Zeitraum 1979 bis 1998. Vielleicht ist das besser … (@VariabilityBlog)

Nach dieser „Umfunktionierung“ der Graphik, zeigten sich die Beobachtungen jetzt während des gesamten Zeitraumes als innerhalb des Vertrauensintervalls liegend. Es war diese zweite Version, die Schmidt später Curry anbot als das Ergebnis der Auswahl einer „vernünftigeren“ Grundlinie.

Abbildung 5: Zwei Abbildungen aus den Tweets von Gavin Schmidt vom 4. März 2016. Links: aus dem Tweet vom 4. März mit der Einbettung 1979 bis 1988. Man beachte, dass Teile der Graphik am linken und rechten Rand abgeschnitten worden sind, so dass die Graphik nicht bis zum Jahr 2015 reicht. Rechts: zweite Version mit der Einbettung 1979 bis 1998, was den Modellrahmen relativ zu den Beobachtungen verringerte.

Der Vorgang ist mehr als nur etwas ironisch im Zusammenhang mit Verheggens früheren Vorwürfen. Er zeigte eine Sequenz von Graphiken einer Grundlinie von 1986 bis 2005 bis zu einer Grundlinie von 1979 bis 1983. Gleichzeitig warf er Spencer und Christy vor, die Grundlinien „umzufunktionieren“, um das „sichtbare Auftauchen einer Diskrepanz zu maximieren“ – was Verheggen „Trickserei“ nannte. Verheggen stellte diese Behauptungen ohne auch nur die Spur eines Beweises auf, dass Christy und Spencer von einer Referenzperiode 1986 bis 2005 ausgegangen waren – was zunächst einmal ein sehr fragwürdiger Zeitraum ist, wenn man Differenzen zeigen will über die Periode 1979 bis 2012, wie Mears erkannt hat. Andererseits hat Schmidt auf Veranlassung von Venema tatsächlich seine Graphik „umfunktioniert“, um das „sichtbare Auftauchen einer Diskrepanz zu reduzieren“.

Noch einmal zur Christy-Graphik

Judy Curry war sehr reserviert darüber, ob Schmidts „Umfunktionieren“ ausreichend war, um den Änderungen aus der Abbildung von Christy Rechnung zu tragen. Sie beobachtete:

Meine Reaktion war, dass diese Plots in keiner Weise wie der Plot von Christy aussahen, und das ist nicht nur eine Sache der Grundlinie.

Zusätzlich zur Änderung der Referenzperiode nahm Schmidt in seiner Graphik noch viele weitere Änderungen vor:

● Schmidt verwendete Jahresdaten anstatt eines 5-Jahre-Mittelwertes.

● Schmidt zeigte eine graue Einhüllende, welche das Vertrauensintervall 5% bis 95% repräsentieren sollte, anstatt die individuellen Spaghetti-Stränge zu zeigen.

● Anstatt 102 Läufe individuell zu zeigen, zeigte Christy Mittel für 32 Modelle. Schmidt scheint 102 Läufe individuell zu zeigen, basierend auf seiner nicht korrekten Referenz auf 102 Modelle (!) in seiner Legende.

Ich bin derzeit dabei, Schmidts Graphik zu reproduzieren. Um den Effekt von Schmidts Umfunktionieren der Christy-Graphik zu isolieren, habe ich die Christy-Graphik so genau wie möglich nachvollzogen (zweites Paneel), wobei ich das meiner Meinung nach Wesentliche berücksichtigt habe, und habe dann die Graphik mit Schmidts Einbettung reproduziert.

Das dritte Paneel isoliert den Effekt von Schmidts Einbettungs-Periode von 1979 bis 1998. Dies bringt sowohl Modelle als auch Beobachtungen nach unten, die Modelle etwas mehr als die Beobachtungen. Allerdings hat sich m. E. der visuelle Effekt gegenüber Christys Einbettung nicht materiell geändert. Dies scheint die Vermutung von Judy Curry zu bestätigen, dass die Änderungen in Schmidts Graphik auf mehr zurückgehen als nur auf eine Änderung der Grundlinie. Eine Möglichkeit ist, dass die Änderung der visuellen Erscheinung Christys Verwendung von Ensemble-Mitteln für jedes Modell geschuldet ist anstatt individueller Läufe. Um dies zu testen, zeigt das vierte Paneel die Christy-Graphik unter Verwendung der Läufe. Und wieder scheint es mir nicht so, dass die ikonographische Entscheidung grundlegend ist für den visuellen Eindruck. Während der Spaghetti-Graph nicht eindeutig ist, kann der INM-CM4-Modelllauf als Blanko-„Kalt“-Modell in allen vier Paneelen unterschieden werden.


Abbildung 1: Christy-Graphik (links) und Variationen. Siehe Diskussion im Text. Die blaue Linie zeigt das Mittel von UAH 6.0 und RSS 3.3 TLT-tropische Daten.

Schlussfolgerungen

Es ist nichts Mysteriöses an der Lücke zwischen Modellen und Beobachtungen zum Ende des Zeitraumes als eine Maßzahl für differierende Trends. Als Secretariat das Feld von 1973 Belmont um 25 Längen hinter sich ließ, haben sogar heutige Klimawissenschaftler nicht in Frage gestellt, dass Secretariat schneller gerannt ist als die anderen Pferde.

Nicht einmal Ben Santer hat in Frage gestellt, ob es eine „statistisch signifikante Differenz“ gegeben habe zwischen Steph Currys epischem 3-point shooting in 2015-6 und Führern in anderen Jahreszeiten. Kürzlich hat Sports Illustrated der NYT die Lücke zwischen Steph Curry und früheren 3-point leaders mittels einer Spaghetti-Graphik illustriert (siehe unten), die wie die Christy-Graphik den Vergleich begann mit einem gemeinsamen Ursprung. Die visuelle Kraft kommt von der Separierung zum Ende.

[In diesem Absatz konnte ich einige kursiv gesetzte Begriffe nicht vernünftig übersetzen. Anm. d. Übers.]

Falls NYT Sports die Reihe in die Mitte der Jahreszeit eingebettet hätte (nach Art von Bart Verheggen), dann wäre Currys Separierung zum Ende der Jahreszeit nur halb so groß. Falls NYT Sports die Reihe in der ersten Hälfte eingebettet hätte, wäre das Ende der Saison genauso reduziert. Offensichtlich sollte man derartige Versuche, die Separierung zu verringern, als lächerlich zurückweisen.

Es gibt eine wirkliche Diskrepanz zwischen Modellen und Beobachtungen in der tropischen Troposphäre. Falls der aktuelle Punkt die Differenz zu den Trends der Satelliten-Ära (seit 1979) ist, dann ist es vollkommen vernünftig, wie Carl Mears beobachtet hat, die Einbettung der Daten in eine frühe Referenzperiode zu verwenden, so wie der von Mears verwendete Zeitraum 1979 bis 1984 oder der von Christy und Spencer verwendete Zeitraum 1979 bis 1983, damit (Mears) „die Änderungen klarer hervortreten“.

Legt man die Worte von Schmidt aus, heißt das: Wenn man irgendetwas anderes macht, wird es in „verstecken“ hinauslaufen und in „Minimierung von Differenzen, um politisch zu punkten“, was nach Schmidts Worten „einen Partisanen kennzeichnet und nicht einen Wissenschaftler“.

Link: https://climateaudit.org/2016/04/19/gavin-schmidt-and-reference-period-trickery/

Übersetzt von Chris Frey EIKE




Die Umweltbehörde EPA arbeitet weiterhin am “Global Warming Plan”, trotz des Stopps durch den Obersten Gerichtshof

Die EPA übermittelte einen Vorschlag an das Weiße Haus für die Subventionen für grüne Energien – für die Staaten, welche die CO2 Reduktionsziele des Bundes frühzeitig erfüllen. Das Clean Energy – Anreiz Programm (CEIP) würde einen "Kredit für Energieerzeugung durch neue Wind- und Solarprojekte im Jahr 2020 und 2021 geben“ und einen "doppelten Anreiz für Energieeffizienzmaßnahmen in einkommensschwachen Gemeinden", nach Politico’s Energie von Morgen.

Diese Aktion scheint die Haltung des Supreme Court gegen den CPP zu verletzen, zu verhindern, dass das EPA die Umsetzung seines Plans die Kohlendioxidemissionen der US-Kraftwerke zu beschneiden. EPA argumentiert jedoch, es tut dies für Staaten, die ihre Emissionen freiwillig senken wollen – ungeachtet, dass dieses Teil des CPP’s ist.

"Viele Bundesstaaten und Wahlbezirke haben angegeben, dass sie planen, freiwillig die Kohlenstoffbelastung aus Kraftwerken zu senken und haben die Umweltbehörde aufgefordert, ihre Unterstützung fortzusetzen und die Instrumente zu entwickeln, die diese Bemühungen unterstützen können, einschließlich des CEIP, heißt es in einer von EPA an Politico übermittelten Erklärung.

EPA’s Administrator Gina McCarthy ist aufgefordert mehr zu diesen Plan am Mittwochnachmittag zu erklären und wird es ohne Zweifel gegen Kritiker verteidigen, die der Umweltbehörde nachsagen, dass sie eine Anweisung des Supreme Court verletzen.

„Die Übersendung dieses Vorschlag an OMB [Office of Management and Budget = Rechnungshof] zur Überprüfung ist ein Routineschritt, und es ist mit der Haltung des Supreme Courts zum Clean Power Plan im Einklang", sagte die EPA.

EPA machte trotz der Entscheidung des Supreme Court weiter mit Aspekten des CPP. Nach der Entscheidung des Gerichts im Februar, signalisierte die EPA, sie würden mit Staaten weiterarbeiten, die sich "freiwillig" vorwärts bewegen wollen.

"Ob wir die Entscheidung des Obersten Gerichtshofs respektieren werden? Darauf können Sie wetten, natürlich machen wir es", sagte Frau McCarthy den Führungskräften im Februar." Aber es bedeutet nicht, dass es das einzige ist, woran wir arbeiten und es bedeutet nicht, dass wir auch weiterhin nicht jeden Staat unterstützen, der sich freiwillig vorwärts bewegt."

[Wieso ist „einschränken“ vorwärts? – der Übersetzer]

Ebenso hat die Leiterin der für Luft und Strahlung zuständigen Abteilung, Janet McCabe, nahegelegt, dass die [CCP] Regulierung schließlich bestätigt wird.

"Die EPA Ausführungsvorschriften wurden zweimal zurückgewiesen und wurden schließlich bestätigt", sagte McCabe, während in einer Podiumsdiskussion in Bloomington, Ind. in letzter Woche. "Es ist für die Bundesstaaten nur klug, weiter daran zu arbeiten."

"Wir stehen bei der EPA bereit, jedem Bundesstaat zu helfen, die sich mit ihren Planungsaktivitäten nach vorne bewegen wollen", sagte McCabe, unter Hinweis darauf, dass einige Staaten CO2 zu senken versprechen, obwohl der Supreme Court den CPP aussetzte.

McCabe bezog sich auf eine Vereinbarung, die von 17 Staaten in der Zeit nach der Entscheidung des Obersten Gerichtshofs unterzeichnet wurden, als Verpfändung, die globale Erwärmung zu bekämpfen. Die Vereinbarung unterzeichneten vor allem die demokratischen Gouverneure, fördert die Zusammenarbeit zwischen den Staaten in grüner Energie, ohne ausdrücklich die globale Erwärmung zu erwähnen.

McCabe vermied es, die 30 Bundesstaaten und staatlichen Stellen zu erwähnen, welche die EPA verklagen, den CPP nieder zu schlagen. [auch hier, opponiert ein Rabbiner, ein strammer Öko Aktivist, um die Umwelt zu retten; der Übersetzer] Diese Koalition von Staaten vereint auch Dutzenden von Unternehmensgruppen, die Kohleindustrie und die Gewerkschaften im Kampf, die Kohlekraftwerke zu erhalten.

"EPA hat eine Linie überschritten, sich selbst durch die Zuordnung als große Regulierungsbehörde aufzuspielen und alles beiseite zu schieben, was jemals durch den Kongress in Betracht gezogen wurde.", sagte Jeffrey Connor, Interims-CEO der National Rural Electric Cooperative Association (NRECA) in einer Erklärung. NRECA lehnt CPP ab.

"Tatsache ist, dass die EPA nicht einfach eine Regel zur Reduzierung von Emissionen produzierte – EPA schmiedete einen radikalen Plan den US-Energiesektor zu restrukturieren".

 

Erschienen am 27. April 2016 auf The Daily Caller

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/04/27/epa-continues-to-implement-global-warming-plan-supreme-court-said-it-couldnt/

Zum Thema:

KANSAS stoppt die Arbeit am Clean Power Plan: Der Gouverneur von Kansas, Sam Brownback unterzeichnete am Freitag einen Gesetzentwurf, der den Bundesstaat von der Weiterarbeit einer Implementierung der EPA Vorschriften für Kraftwerke abhält, berichtet der Wichita Eagle.




Der Weltklimavertrag – eine UN-Klima-Posse ohne Substanz!

Das Ziel des Übereinkommens von Paris ist es, den Anstieg der Erdtemperatur unter 2 Grad Celsius zu halten. Der für Klimapolitik und Energie zuständige EU-Kommissar Miguel Arias Cañete erklärte im Vorfeld: „Wir haben eine Einigung erzielt, wir werden unsere Unterschrift leisten und wir werden handeln. In Europa haben wir bereits die Aufgabe in Angriff genommen, das Übereinkommen von Paris umzusetzen…“ Das Ziel der Staaten dieser Erde ist es, „die gefährliche Erwärmung der Erde zu bremsen und katastrophale Folgen abzuwenden“, so die Schweizer Bundesrätin Doris Leuthard. Im Tages-Anzeiger vom 23. April 2016 wird sie wie folgt zitiert: „Das ist das erste Abkommen im Bereich Klima, das universell gültig ist. Dass Staatspräsidenten hierher kommen und zu den Klimazielen stehen, hat Symbolik und sendet eine politische Botschaft, damit sich die ganze Welt auf den Weg macht, den Planeten weniger fossil zu gestalten.“

 

Der deutsche Bundeslandwirtschaftsminister Christian Schmidt betonte in einer Presseerklärung, dass das Weltklimaschutzabkommen die wichtige Rolle der Land- und Forstwirtschaft beim Klimaschutz unterstreiche. Es räume der Ernährungssicherheit oberste Priorität ein und würdige die Klimaleistung insbesondere der Wälder. Schmidt behauptete ferner, die Landwirtschaft trage durch die Bindung von atmosphärischem Kohlenstoffdioxid in Biomasse aktiv zum Klimaschutz bei. Er wurde deswegen von der Essensretter-Organisation „foodwatch“ heftig kritisiert. Dabei ist seit den Verssuchen von Jan Ingenhousz, Joseph Priestley und De Saussure (1804) die Photosynthese in ihren Grundzügen bekannt. Kohlenstoffdioxid + Wasser + Licht ergeben organische Substanz + Sauerstoff.

 

Dennoch ist der Landwirtschaftsminister Schmidt heftig zu kritisieren, denn er weiß ganz genau, dass das CO2 ein essentielles Grundnahrungsmittel für alle grünen Pflanzen ist und sein minimaler Gehalt in der Luft von 0,04 Prozent nichts, aber auch rein gar nichts mit den Lufttemperaturen auf der Erde zu tun hat. Verursacht etwa das CO2 Nachtfröste wie bei den „Eisheiligen“? Falls er zweifeln sollte, dann sollte er sich an dem Institut für Forstmeteorologie der Universität München nach den Tagesgängen der Lufttemperatur und des CO2-Gehalts der Luft im „Ebersbacher Forst“ erkundigen. Sie zeigen eindeutig, dass beider Tagesgänge keine Kausalität zeigen, ja nicht einmal eine Korrelation. Im Gegenteil, beide .sind gegenläufig. Wenn am Morgen die Sonne aufgeht, dann erwärmen ihre Strahlen den Erdboden und setzen zugleich die „chemische Fabrik“ Pflanze in Gang. Die Bäume entziehen ganztätig von Sonnenaufgang bis zum Sonnenuntergang der Luft das CO2 und bauen dies in „Biomasse“ ein. Sobald es dunkel wird, hört die Assimilation von CO2 auf. Betrug am Morgen der Gehalt der Waldluft an CO2 0,08-0,09 Prozent, so waren es am Abend 0,03 Prozent. So gewaltig ist der Hunger der Bäume nach Kohlenstoffdioxid.

 

Und was macht die Temperaturen? Sie steigen, solange die Sonne am Himmel emporsteigt. Sie erreichen ihr Maximum wenige Stunden nach dem Höchststand der Sonne und beginnen von dem Moment an zu fallen, wenn die von der Sonne dem Erdboden zu gestrahlte Energie geringer wird als die von dem erwärmten Erdboden abgestrahlte unsichtbare Infrarot-Energie. Der nachmittägliche Abfall der Temperatur hält an bis zum Sonnenaufgang. Die Sonne steuert den Tagesgang der Temperatur wie auch den Tagesgang des CO2, aber gegensätzlich. Dies zeigt sich auch im Jahresgang, wie selbst die Mauna-Loa-Kurve des CO2 auf Hawaii ganz deutlich an ihren jährlichen „Sägezähnen“ offenbart.

 

Dank wissenschaftlicher Irrtümer und der Fehlleitung des Weltklimarates IPCC ist der Pariser Vertrag nach Shakespeare „viel Lärm um Nichts“! Eine Prognose ist absolut sicher: Auch wenn die Staaten dieser Erde strikt ihre Versprechungen, die CO2-Emissionen deutlich zu senken und auf Null zu reduzieren, einhalten, werden sie ihre „Klimaziele“ verfehlen. Selbst wenn es, was auf der Erdkugel ohnehin unmöglich ist,  gelingen sollte, den CO2-Gehalt die Luft konstant zu halten, wird das „Klima“ nicht konstant sein, denn das „Klima“ richtet sich nach dem Wetter, wie allein die Definition des Begriffs „Klima“ zeigt. Das Wetter ist der Dirigent und schwingt den Taktstock, nach dessen Musik das „Klima“ tanzt.

 

„US-Justizministerium prüft strafrechtliche Verfolgung von Klimaleugnern“

 

Diese Meldung wurde am 21. April 2016, einen Tag vor der UN-Zeremonie von New York über das Internet verbreitet und wurde nicht sofort, auch bis heute nicht, dementiert. Wenn man nur die Überschrift liest, muss man sich an den Kopf fassen und sich fragen, ob die hohen US-Justizbeamten von „allen guten Geistern“ verlassen sind. Allein den Gedanken zu erwägen, ist schon ein Zeichen von Halb- oder Unbildung, die sich jedoch strafrechtlicher Verfolgung entzieht. Selbst die Götter haben es aufgegeben, gegen menschliche Dummheit vorzugehen.

 

Der Schwachsinn des Gedankens beginnt schon beim Begriff. Was bedeutet der Tatbestand „Klimaleugnen“ und welches Vergehen begeht der „Klimaleugner“? im deutschen Sprachgebrauch gibt es zur Umschreibung des Wettergeschehens im Speziellen oder im Generellen die drei Begriffe WETTER, WITTERUNG und KLIMA. Schon in der Grundschule werden diese Begriffe erklärt und den Schülern die Unterschiede verständlich gemacht.

 

WETTER ist das augenblickliche und sich permanent verändernde Wetter, der Ist-Zustand der Atmosphäre. Das Wetter selbst ist vom Luftdruck und seiner Verteilung bestimmt und selbst an Tief- und Hochdruckgebiete gebunden, die eine bestimmte Lebensdauer mit unterschiedlichem Wetter haben. Tiefdruckgebiete bringen im allgemeinen Wind, Wolken und Regen, Hochdruckgebiete dagegen trockenes und meist heiteres Wetter. Das sind grobe Charakteristika. Die Phasen, an denen das Wetter unter Tief- oder Hochdruckeinfluss stehen, nennt man pauschal WITTERUNG. Sie wird bestimmt durch die jeweilige Großwetterlage. Die Witterung ist realitätsnah, was vom KLIMA nicht mehr gesagt werden kann.

 

KLIMA ist ein menschliches Kunstprodukt, dem kein natürlicher Vorgang in der Natur entspricht. KLIMA ist laut offizieller und international gültiger Definition das gemittelte oder „mittlere Wettergeschehen“ an einem bestimmten Ort über eine Zeitspanne von 30 Jahren. Der Ort ist nicht austauschbar, denn das Wetter ist stark an die Topographie gebunden und von Ort zu Ort verschieden, wie man bei strichweisem Regen oder lokalen Gewittern beobachten kann. Auch ist die Temperatur höhenabhängig und muss wie der Luftdruck zum Vergleich immer auf Meeresniveau reduziert werden. Auch wenn wir permanent und penetrant von KLIMA reden, KLIMA gibt es nicht. KLIMA ist ein fiktiver mittlerer Zustand an einem Ort über eine Zeit, die mit 30 Jahren einer „Generation“ entspricht. „Islandtief“ und „Azorenhoch“ sind statistische Scheingebilde.

 

Ich bin noch nie einem Menschen begegnet, der im Ernst das KLIMA und den KLIMAWANDEL geleugnet hätte. Man kann nicht etwas leugnen, was es gar nicht gibt. Woran ernsthaft gezweifelt werden muss, ist die Erklärung der Geschichte des Klimawandels, die der Versuch einer Geschichte des ewigen Wetterwandels ist. Da Messungen der Wetterelemente erst jüngerer Natur sind, wird das Wetter grob rekonstruiert an den Spuren, die es in der Natur hinterlassen hat. Der Blick in den blauen Himmel gibt keinen Hinweis darauf, dass am Tag vorher ein heftiges Hagelgewitter niedergegangen ist, das entsprechende Schäden angerichtet hat.

 

Wenn der Generalbundesanwalt des Staates New York, Eric Schneiderman, feststellt, der „Klimawandel ist real“, dann ist das korrekt und kein Mensch hat das je bezweifelt. Das erdgeschichtliche Auf und ab zwischen Eiszeiten und Warmzeiten ist normal und völlig unabhängig von uns Menschen. Er kann damit nicht auf menschliche CO2-Emissionen zurückgeführt werden. Insbesondere das nacheiszeitliche Klima der vergangenen 10.000 Jahre mit dem Auf und Ab der Temperaturen bei konstanten CO2-Gehalt der Luft bei 0.027 Prozent ist mit der „Treibhaushypothese“ nicht erklärbar. Die Römer haben das „Klimaoptimum zur Römerzeit“ nicht ausgelöst, um Wein in England anzubauen, sondern von dieser Gunst der Natur profitiert. In solch eine Warmperiode fiel später die Entdeckung von Island (862), Grönland (980) und Neufundland (1000), das die Wikinger Vinland nannten.

 

Der eigentliche Skandal ist, dass die US-Justizministerin Loretta Lynch so wenig naturhistorisches Wissen besitzt, dass sie an das FBI eine Anfrage gerichtet hat herauszufinden, ob Kriterien vorliegen, die es Gerichten gestatten, zivilrechtlich gegen „Klimaleugner“ vorgehen zu können.

 

Von der Grünen-Partei droht die größte Gefahr für das Grün der Erde!

 

Ab Januar 2016 tickt bei Bündnis 90/Die Grünen die „Klima-Uhr“ mitsamt der Uralt-Parole „Zeit zum Handeln“. Zuerst der bekannte Sermon: „Das arktische Eis schmilzt, der Meeresspiegel steigt an, die Gletscher schmelzen, Starkregen, Hitzewellen, tropische Wirbelstürme nehmen zu, Dürre bereitet sich aus.“ An allem ist das CO2-Molekül schuld: „Vor allem die Kohleverbrennung mit ihren hohen CO2  Emissionen heizt die Erde auf. Wenn wir die Erde ernsthaft vom Fieber heilen wollen, müssen wir künftig auf sämtliche fossilen Energieträger wie Kohle, Öl und Gas verzichten.“ Das heißt: „Raus aus Kohle, Öl und Gas – rein in die Erneuerbaren Energien!“ Der Gipfel des Unsinns ist die Forderung: „Die Verankerung einer CO2-Bremse im Grundgesetz, damit Klimaschutz als Verfassungsziel verankert wird, um unabhängig von Wahlen und Legislaturperioden die Paris-Klimaziele national umzusetzen.“

 

Und was ist, wenn die Natur die „Erneuerbaren Energien“ nicht erneuert? Oder haben die Grünen ein Rezept, wie sie den Wind motivieren immer so stark zu wehen, dass das Stromangebot exakt dem wechselnden Strombedarf angepasst wird? Der Wind orientiert sich nicht an grünen Utopien, sondern richtet sich nach dem Luftdruckgradient. Doch auf diesen hat der Mensch keinen Einfluss. Dies ist auch gut so, denn wer Wind sät, wird Sturm ernsten und windstilles Hochdruckwetter würde es nicht mehr geben.  Nein, der Mensch „erneuert“ weder den Wind noch die Sonne. Er ist darauf angewiesen, dass der Wind weht und keine Wolken am Himmel sind, damit wenigstens am Tag die Sonne scheinen kann.

 

Nein und abermals nein! Wind und Sonne sind nicht in der Lage, den Strombedarf unserer Industriegesellschaft kontinuierlich bedarfsgerecht zu decken. Beides sind keine „erneuerbare Energien“, bestenfalls „additive Energien“, die aber nicht in der Lage sind, die „fossilen Energien“ zu ersetzen. Wer „raus aus Kohle, Öl und Gas“ ruft, muss „rein in die Kernenergie“ rufen! Da führt kein Weg dran vorbei.

 

Außerdem scheinen die Grünen immer noch nicht begriffen zu haben, dass das CO2 weder eine „Klimakiller“ noch ein „Umweltgift“ ist, sondern einzig und allein ein Pflanzennahrungsmittel. Ohne CO2 in der Luft würden keine grünen Pflanzen wachsen, kein Baum und kein Strauch, würde es keine Nahrung geben für Tier und Mensch. Die Frage, ob man vegetarisch oder vegan leben möchte, erübrigt sich dann. CO2 ist ebenso wie das H2O unverzichtbar für die Photosynthese. Wer CO2-Freiheit zum Zwecke das Klimaschutzes propagiert, entzieht allem Leben, auch die selbst, die Existenzgrundlage.

 

Bei dieser unser aller Existenz gefährdenden Position der Grünen ist es mehr als verwunderlich, dass die Grünen politisch so mächtig werden konnten. Doch die Wähler müssen sich entscheiden, ob die völlig unnötig geschürte Klimaangst es wert ist, seine ganze Existenz aufs Spiel zu setzen.

 

Oppenheim, den 6. Mai 2016                     Dipl.-Meteorologe Dr. phil. Wolfgang Thüne

 

 

 

 




Zeigen Sie Ihre Meinung – Neue Aufkleber verfügabr




DMG: Erste Öffnungs-Tendenzen in der Klima-Debatte ?

=================================================================

Kommentar zur Stellungnahme der DMG zum  Klimawandel in Heft 3/2015
Walter Fett, Berlin

Nach dem letzten Statement der DMG zum Klimawandel von 2007 brachte die DMG am 2. Sept. 2015, also 8 Jahre später, aber noch rechtzeitig vor der anstehenden UN-Klimakonferenz in Paris, eine neue Stellungnahme heraus – mit der einleitenden Überschrift "Der Erwärmungstrend ist ungebrochen", – obgleich schon weit zuvor, nämlich bereits seit 1998 keine gesicherte Erwärmung mehr nachzuweisen ist. Genau das steht sogar im jüngsten IPCC-Bericht 2013 [1]: "… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series".
Die letzte Erwärmung (und wohlgemerkt, NUR diese Trendaussage steht hier zur Diskussion) brach also schon vor 17 Jahren ab, nachdem diese Erwärmungs-Phase zwischen etwa 1975 bis 1998 auch nicht viel länger andauerte als die jetzige Stagnations-Phase. Mehr noch an Bruchstellen: Dieser nicht allzu langen Erwärmungsphase ging eine 3 Jahrzehnte lange – wenn auch nur leichtere – Abkühlung voraus [2]. Diese Tatsachen sind in der DMG-Stellungnahme jedenfalls keiner Erwähnung wert. Natürlich waren auf dem letztlich erreichten – und unbestritten seit langer Zeit höchsten – Niveau die meisten folgenden Jahre dann auch mit die wärmsten. Und blieben sie auch das kommende Dutzend Jahre gleichbleibend auf diesem Niveau, würden wiederum die meisten Jahre mit "die wärmsten" sein: eine triviale Aussage. Doch wollte man etwa auch dann immer noch sagen, der Erwärmungstrend sei ungebrochen geblieben?
DMG: "Von den 10 wärmsten Jahren dieses Zeitraums traten global 9 und in Deutschland 7 allein im 21. Jahrhundert auf. Dies ist ein Indiz dafür, dass die Erwärmung der unteren Atmosphäre weiter fortschreitet." Diese Aufzählung gestattet keinesfalls eine Zukunftsaussage: Sie ist lediglich ein Indiz dafür, dass sich die Erwärmung auf diesem Niveau – zumindest zunächst – stabilisiert hat. Doch auch auf einem noch so hohen Plateau besagte eine neue Maximumüberschreitung allein keine Trendaussage, sondern fördert allenfalls eine Vermutung, oft aber nur ein Menetekel.

Bei Trendaussagen mit Einzelwerten zu argumentieren, selbst mit Maximalwerten, zeugt nicht von hinreichendem Statistikverständnis. In den 8 Jahren seit der DMG-Erklärung von 2007 läge auch bei einer Zufallsfolge um einen konstanten Mittelwert herum die Wahrscheinlichkeit, dass der 9. Wert das bisherige Maximum zufällig überschreitet, noch immer über 12%, und vom Jahre 1998 an gerechnet noch bei fast 6%. Selbst wenn sich die Werte noch ein weiteres Dutzend Jahre in gleicher Weise ohne Trend fortsetzten, ist ein inzwischen neuer Maximalwert auch rein zufällig stets zu erwarten, und zwar zu jedem und auch baldigem Zeitpunkt (zumal beim aktuell anstehenden maximalen Temperaturwert für 2015 das neue Super-El-Nino-Ereignis relativierend in erklärende Rechnung zu stellen wäre!). Das wäre darum aber immer noch kein Wahrscheinlichkeitsbeleg dafür, um sagen zu können, es läge nach 3 Jahrzehnten – und erst damit vergleichbar lang mit dem negativen Trend nach 1945 – nun doch endlich ein positiver Trend vor. Sollten sich unter solchen Gegebenheiten die Meteorologen als vorauseilende Warner hergeben? Zudem lässt sich mit statistischen Aussagen vor statistischen Laien leicht auch im irritierend-opportunistischem Sinne argumentieren. Unversehens gelangt man dabei aber leicht vom Trend zur Transzendenz und von der Tendenz zum Tendenziösen. Wenn man hingegen nur wollte und es opportun wäre, ließe sich nämlich mit genau den gleichen Beobachtungen die Öffentlichkeit also durchaus auch beruhigen. In welchem Interesse liegt nun demgegenüber die gewählte bedrohliche Alternative?

Den Stellungnehmern der DMG, welche die beobachtete Datenfolge in ihrer Extrapolation extensiv und eher mutmaßlich interpretieren, mag die Sorge vor einer  – wenn auch erst in zeitlicher Ferne! – irdischen Erhitzungsgefahr zugebilligt werden. Ist demgegenüber dann nicht gleichermaßen die Sorge derjenigen verständlich, die sich durch jene höchst vorzeitig in Gang gesetzten und unserer Gesellschaft zugemuteten Zusatzlasten von ungewisser Auswirkung zunehmend belastet sehen, und zwar bereits gegenwärtig! – zumal angesichts noch ganz anderweitig akut drohender gesellschaftspolitischer Belastungen?

[1] IPCC : Climate Change 2013: The Physical Science Basis, Technical Summary, p.61. (www.ipcc.ch)  [2] Climate Research Unit, University of East Anglia  (www.cru.uea.ac.uk/data/temperature)   

=================================================================

DMG-Anmerkung zum Leserbrief von Herrn Fett

Das Autorenteam des DMG-Statements 2015

Das Autorenteam der aktuellen Stellungnahme der DMG zum Klimawandel möchte den Leserbrief des Kollegen Fett nicht unwidersprochen lassen.

     Der von Herrn Fett aus dem aktuellen Sachstandsbericht des IPCC zitierte Satz hinsichtlich des Hiatus der globalen oberflächennahen Lufttemperatur in den Jahren 1998 bis 2010 ist in der Box TS.3 der Technischen Zusammenfassung auf S. 61 des Berichts (1) zu finden. Dort wird der Hiatus im Zusammenhang mit der internen Klimavariabilität diskutiert. Und gerade um der "Tendenz zum Tendenziösen“ zu entgehen, haben auch wir ausdrücklich betont, dass die Erderwärmung zeitlich (und räumlich) nicht gleichmäßig erfolgt. Ferner haben wir darauf hingewiesen, dass die oberflächennahe Lufttemperatur nicht der einzige und in mancher Hinsicht auch kein guter Indikator für die anthropogen verursachte Erwärmung des Klimasystems sei. Wir verweisen nochmals auf den IPCC-Bericht, insbesondere auf die Abbildung 1 auf S. 264 des Berichts der Arbeitsgruppe I. Dort wird klar zum Ausdruck gebracht, dass seit den 1970er Jahren zunehmend Energie in den oberen Schichten des Ozeans  gespeichert wird. Änderungen der Energiespeicherung in der Atmosphäre fallen demgegenüber kaum ins Gewicht. Die Zunahme der Energiespeicherung im Klimasystem ist konsistent mit den Abschätzungen der Antriebsänderungen des globalen Energiekreislaufes, die ebenfalls in vielfältiger Weise im IPCC-Bericht dokumentiert sind. Diese klare Kongruenz von Beobachtung und Theorie, die wir im Statement betonen, und nicht allein das Betrachten der Daten lässt belastbare Zukunftsaussagen zu.

     Ein Wort zum von Herrn Fett uns unterstelltem nicht hinreichenden Statistikverständnis, was uns angesichts der Tatsache, dass Mitglieder des Autorenteams international anerkannte Experten der Klimastatistik sind, schmunzeln lässt. Richtig ist auf den ersten Blick der Einwand, dass bei einem anhaltenden Erwärmungstrend die jüngsten Jahre sozusagen automatisch die wärmsten sein sollten. Bei sehr starker überlagerter, zwischenjährlicher Variabilität könnte es aber auch anders sein. Daher ist es durchaus eine Erwähnung wert, dass dies nicht der Fall ist. Dass parallel zur allgemeinen Erwärmung auch eine Häufung von sehr warmen Jahren in den letzten zwei Jahrzehnten beobachtet wurde, ist schon seit geraumer Zeit dokumentiert (siehe IPCC-Bericht) und als ein Phänomen jenseits der natürlichen Schwankungen erkannt worden (2).

     Kommen wir damit zum Politischen. Wir stimmen der Bemerkung von Herrn Fett zu, dass mit dem Hiatus alles Mögliche, auch Tendenziöses, angestellt werden kann. Mit Blick auf die aktuelle Entwicklung der globalen Mitteltemperatur mit den außergewöhnlich warmen Jahren 2014 und 2015 müssen wir fragen, welchen Sinn eigentlich die Hiatus-Diskussion gehabt hat. Im Internet finden sich viele Beispiele, in denen die naturwissenschaftliche Diskussion von der Sorge um die Kosten der gegenwärtigen Klimapolitik geprägt ist. Dass uns dagegen die Sorge vor einer Erhitzungsgefahr getrieben haben solle, das Klimastatement der DMG zu aktualisieren, ist lediglich als eine Interpretation von Herrn Fett zu betrachten. Tatsächlich weisen wir in den beiden letzten Abschnitten des Statements ausdrücklich darauf hin, dass noch viele Fragen offen seien und dass sich die DMG stärker als bisher mit dem Spannungsfeld zwischen politischem Nutzen und wissenschaftlicher Offenheit beschäftigen müsse, um ihre Rolle eines sachorientierten Kommunikators noch besser wahrzunehmen.

(1) IPCC, 2013: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, F., et al. (Eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp.  (2) Zorita, e., t. Stocker and H. Von Storch, 2008: How unusual is the recent series of warm years? Geophys. Res. Lett. 35, L24706, doi:10.1029/2008GL036228, 6 pp.

=================================================================

Anmerkungen der EIKE-Redaktion zur o.st. DMG-Anmerkung :

[A] DMG: "… dass seit den 1970er Jahren zunehmend Energie in den oberen Schichten des Ozeans  gespeichert wird."

Hier scheint die DMG nicht ganz auf dem aktuellen Stand zu sein, wie die folgenden Abbildungen zeigen:

 

                                          Abb. 1 : Wärmeinhalt Nordatlantik

 

                    Abb. 2 : Wassertemperaturen der vergangenen 2000 Jahre

[B]  DMG:  "Diese klare Kongruenz von Beobachtung und Theorie, die wir im Statement betonen, und nicht allein das Betrachten der Daten lässt belastbare Zukunftsaussagen zu."

Schon im IPCC-Report von 2001 steht Gegenteiliges zu lesen:

"In climate research and modeling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible"  [IPCC, 3. Ass. Report, 2001, Section 14.2.2.2, S. 774].

[C]  DMG: "Dass parallel zur allgemeinen Erwärmung auch eine Häufung von sehr warmen Jahren in den letzten zwei Jahrzehnten beobachtet wurde, ist schon seit geraumer Zeit dokumentiert (siehe IPCC-Bericht) und als ein Phänomen jenseits der natürlichen Schwankungen erkannt worden (2)."

Für Zweifel an dieser Aussage genügen in der Millionen Jahre währenden Klimahistorie schon die letzten 10 Tausend Jahre – Abb. 3 :

 

                         Abb. 3 : Temperaturen der letzten 10.000 Jahre

[D] DMG: "Mit Blick auf die aktuelle Entwicklung der globalen Mitteltemperatur mit den außergewöhnlich warmen Jahren 2014 und 2015 müssen wir fragen, welchen Sinn eigentlich die Hiatus-Diskussion gehabt hat."

Hier ausgerechnet die beiden El-Nino-bedingten warmen Jahre 2014+15 als erneutes Signal einer anhaltenden Erderwärmung zu werten – das ist schon kühn und nahezu dreist (Abb.4).

                            Abb. 4 : Alle Temperatur-Reihen

Wir erinnern uns: Die etablierte Klimaforschung und auch die mediale Öffentlichkeit war konsterniert, daß ausgerechnet der Klimarat IPCC in seinem jüngsten Bericht (2013/14) einen 15-jährigen(!) Erwärmungsstillstand ("Hiatus = Pause") zugestehen mußte. Es gab sogar intensive politische Bemühungen, insbesondere auch von deutschen Bundes-Ministerien, diesen Stillstand aus dem "Summary for Policymakers" heraus zu halten [X] ! Umgehend "erklärte" die etablierte Klimaforschung, daß es lt. WMO-Definition eines wenigstens "30-jährigen-Stillstandes bedürfe", um von einem Klima-Stillstand zu sprechen. Nun erwidert hier w.o. die DMG ihrem Kollegen Fett, daß schon 1…2 Jahre Erwärmung (2014/15) genügen, um die "Hiatus-Debatte für sinnlos zu erklären"; und das El-Nino-Wetter-Phänomen wird w.o. von der DMG "sicherheitshalber" gar nicht erst erwähnt. Was für eine seltsame Wissenschaft!

[X] (a) SPIEGEL-ol : Streit mit Forschern: Politiker wollen Erwärmungspause aus Klimareport verbannen; 20.09.2013; http://www.spiegel.de/wissenschaft/natur/ipcc-verhandlungen-politiker-gegen-wissenschaftler-beim-uno-klimareport-a-923507.html (b) WELT-ol., 22.09.2013: Deutsche Politiker wollen Klimabericht verschärfen; http://donnerunddoria.welt.de/2013/09/22/deutsche-politiker-wollen-klimabericht-verschaerfen/

==========================================================================




Die Europäische Kommission hat festgestellt, dass CO2 ein Pflanzengift ist – allerdings erst ab 5.000 ppm Konzentration

European Commission[1]

The concentration of carbon dioxide in the atmosphere has reached 400 parts per million (ppm) for the first time in recorded history1. As well as driving climate change, elevated levels of CO2 have important effects on agriculture — although these may not necessarily be negative.

[3] … a review of over 400 observations showed CO2 enrichment increased yield by an average of 36%

[Übersetzung von Chris Frey: Die CO2-Konzentration in der Atmosphäre hat 400 ppm erreicht, zum ersten Mal in der aufgezeichneten Historie. Ebenso wie als Klimaantrieb haben erhöhte CO2-Niveaus bedeutende Auswirkungen auf die Landwirtschaft – obwohl diese nicht unbedingt negativ sein müssen.]

Das Problem lag jedoch nur daran, dass man in der Vergangenheit nicht weit über 1200 ppm CO2 Konzentration hinaus gekommen war (aktuell hat die Atmosphäre ca. 400 ppm CO2-Anteil, wenn es gelänge alle vermuteten Ressourcen der Welt zu verbrennen, könnte man vielleicht 800 ppm erreichen).

Eine richtungsweisende Studie prüfte nun endlich bis zu 5.000 ppm Konzentration und konnte damit erstmals belegen, dass darüber eine Gefahr für Pflanzen durch CO2 nicht mehr ausgeschlossen werden kann.

Yuming Fu at al.[3]

CO2 concentrations between 1 000 and 3 000 µmol/mol increased both yield and antioxidant content, compared to ground level CO2 (400 µmol/mol). This was expected by the researchers, as it is in line with the findings of previous studies. More surprisingly, they found that concentrations between 3 000 to 5 000 µmol/mol decreased both yield and antioxidant content, suggesting that very high atmospheric CO2 levels may impede the growth and quality of plants.

[Übersetzung von Chris Frey: CO2-Konzentrationen zwischen 1000 und 3000 µmol/mol würde die Ernte deutlich zunehmen lassen, verglichen mit dem derzeitigen CO2-Niveau von 400 ppm. Dies war von den Forschern erwartet worden, liegt es doch auf einer Linie mit Ergebnissen früherer Studien. Überraschender war das Ergebnis, dass bei Konzentrationen zwischen 3000 und 5000 ppm die Ernten wieder abnehmen würden, was zeigt, dass sehr hohe atmosphärische CO2-Konzentrationen Qualität und Wachstum von Pflanzen erschweren würden.]

Ein wegen des Zeitdrucks dringender Warnhinweis, aber auch ein Dank des Autors sei hinzugefügt:

Letztes Mal traten solch hohe CO2-Konzentrationen vor über 500 Millionen Jahren auf und läuteten die größte bekannte Wachstumsphase von Grünpflanzen ein (Entstehen der Kohlelagerstätten und Ölfelder). Der Kohlenstoff ist zwischenzeitlich im Wesentlichen in weltweit riesigen Kalkgebirgen „verbaut“ und für die Atmosphäre unwiederbringlich verloren.

Ein Danke geht deshalb an die Wissenschaftler, welche eingetretene Pfade verlassen haben und mit sicher langwierigen und teuren Forschungen diese drohende Gefahr für die Menschheit ermitteln konnten und noch rechtzeitig zur Publizierung freigaben – und selbstredend an die wachsamen EU Kommissionsbeamten, welche die darin hinterlegte Brisanz sofort und messerscharf erkannten.

Oben rechts: Bild CO2-Konzentrationen im Erdzeitalter. Quelle www.biokurs.de: CO2, ein essentieller Naturstoff

Dank an das Team von kaltesonne für den Hinweis auf diese EU-Publizierung[2].

Quellen

[1] "Science for Environment Policy": European Commission DG Environment News Alert Service, edited by SCU, The University of the West of England, Bristol.

Issue 452, 08. April 2016: Very high CO2 levels decrease yield and antioxidant content of some green vegetables

http://ec.europa.eu/environment/integration/research/newsalert/pdf/very_high_co2_levels_decrease_antioxidant_content_green_vegetables_452na5_en.pdf

[2] kaltesonne 2. Mai 2016: Klimaalarmisten verweigern sich legitimen wissenschaftlichen Fragen

http://www.kaltesonne.de/klimaalarmisten-verweigern-sich-legitimen-wissenschaftlichen-fragen/

[3] Yuming Fu at al., 12 August 2015: Unexpected decrease in yield and antioxidants in vegetable at very high CO2 levels.




Waldbrände bei Fort McMurray – Klima oder Inkompetenz?

Bild rechts: Feuer bei Fort McMurray. Riesige Flammen und Rauch haben den Highway 63 blockiert. Quellen: DarrenRDFile:Landscape view of wildfire near Highway 63 in south Fort McMurray.jpg, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=48561288

[Hinweis des Übersetzers: Bei den Zeitangaben im folgenden Auszug darf man nicht vom heutigen Datum ausgehen, sondern von der Woche, die am Montag, dem 2.5.2016 angefangen hat.]

Uns stehen harte Tage bevor“: Der Waldbrand bei Fort McMurray wird sich noch weiter ausbreiten.

Der Waldbrand bei Fort McMurray hat sich hinsichtlich der Größe während der letzten Woche mehr als vergrößert, und Feuerwehren warnten davor, dass die Wetterbedingungen die größte Herausforderung seien.

Dicke, unheilvolle Rauchwolken wälzten sich am Montag in den Himmel. Aber Dienstag früh war der Himmel ziemlich klar. Den Behörden zufolge bedeutet dies nicht, dass das Feuer erloschen ist, und sie erklärten, wie eine Inversion den Rauch am Boden hielt. Diese würde sich wie üblich am Nachmittag auflösen, und danach würde der Rauch wieder in den Himmel steigen.

Die Bedingungen für das Feuer sind extrem“, sagte Darby Allen, der regionale Feuerwehrchef. Ihm zufolge dürfte das Feuer „erst noch richtig aufwachen“.

Die borealen Wälder sind ein Ökosystem, das vom Feuer abhängig ist! Die Fichten und Tannen – sie brauchen das Feuer“, sagte Bernie Schmitte, Forstrmanager in Fort McMurray. „Sie müssen brennen, um sich selbst regenerieren zu können, und diese Spezies haben sich an solche Brände angepasst. Ihre Zapfen können sich sich erst nach einem solchen Feuer öffnen [und haben dann keine Wachstums-Konkurrenten. Anm. d. Übers.], und die Bäume haben sich angepasst dergestalt, dass wenn sie alt sind und ersetzt werden müssen, sie sich sozusagen dem Feuer zur Verfügung stellen“.

Schmitte zufolge war der südwestliche Zipfel des Feuers am aktivsten und hat sich auch am Montag am meisten ausgeweitet. Es breitete sich nach Südwesten aus, weg von Fort McMurray.

Behörden sagten, solange es sicher bleibe, würden die Feuerwehrleute mit Bulldozern die ganze Nacht über Schneisen in den Wald schlagen, um eine Barriere für das Feuer zu bilden, bevor es den Highway 63 erreicht.

Mehr: http://globalnews.ca/news/2673945/residents-on-alert-as-three-wildfires-burn-near-fort-mcmurray/

Australier wie ich selbst stehen manchmal ebenfalls vor dem Risiko großer Wald- und Buschbrände; auch unsere Wälder sind „vom Feuer abhängige Ökosysteme“. Es ist normal zu versuchen, im Falle des Ausbruchs eines Brandes neue Breschen für Notfälle in den Wald zu schlagen, um es am weiteren Ausbreiten zu hindern. Aber ein solches Vorgehen ist kein Ersatz für ordnungsgemäß angelegte Breschen im Wald, die man anlegt, bevor der Brand ausbricht.

Schauen wir noch etwas tiefer:

Aus einem Report aus dem Jahr 2012: Die alternden Wälder in Alberta erhöhen das Risiko ,katastrophaler Brände‘ erheblich!

Die Unterdrückung von Waldbränden hat das Gebiet von Bränden in den borealen Wäldern Albertas deutlich reduziert. Allerdings altern die Wälder infolge der verringerten Brandaktivität immer mehr, was das Ökosystem ultimativ verändert. Damit steigt das Risiko großer und potentiell kostspieliger katastrophaler Waldbrände“.

Um dieser Bedrohung zu begegnen, schlug das Komitee vor, Wetterberichte um einen Abschnitt zur Abschätzung der Feuergefahr zu erweitern. Außerdem sollte man Feuerwehr-Spezialisten ausbilden, die im Falle eines Falles sehr schnell reagieren können und die mehr zur Vermeidung von Feuer in der Provinz tun können.

Das Ziel war es, alle Waldbrände am Tag nach deren erstem Aufspüren bis 10 Uhr vormittags zu erfassen und bevor mehr als vier Hektar Wald verbrannt sind. Diesen Standard erfüllen die meisten Waldbrände in Alberta, aber diese Woche in Fort McMurray wurde dieser Standard nicht erfüllt.

Der Bericht des Gremiums erschien als Reaktion auf die beispiellose Feuersaison im Mai 2011, welche mit dem tödlichen und kostspieligen Slave Lake Fire [= Feuer am Großen Sklavensee] ihren Höhepunkt erreichte, waren doch dabei ein Hubschrauberpilot ums Leben gekommen sowie 510 Häuser zerstört worden. Die Kosten insgesamt beliefen sich auf 700 Millionen Dollar. Das Sustainable Resource Development-Department der Regierung von Alberta rief ein Gremium ins Leben, das ausarbeiten sollte, wie man dieser Art von Bedrohung am besten begegnen könnte.

Das Gremium sprach sich für verbreitete Feuersperren aus. Außerdem sollte das Betreten bestimmter Waldgebiete bei extremem Wetter verboten werden, widrigenfalls man hohe Bußgelder verhängen sollte.

Das Gremium wollte dies geltend machen für die Risiko-Waldgebiete in der Nähe von Städten. „Prioritär sollte man Nadelwälder ausdünnen, besonders Schwarzfichten, oder sie in Mischwälder überführen, so dass die Bedrohung für Kommunen abnimmt (wie sie durch eine strategische Analyse des Bedrohungspotentials durch Waldbrände ermittelt worden sind)“.

Man verlangte mehr Personal, welches das ganze Jahr über tätig sein sollte. „Damit sollten Ressourcen einschließlich Mannschaften, Ausrüstung und Flugzeug-Bereitschaften erschlossen werden, die bei potentiellen Feuern sofort eingreifen können. Es muss sichergestellt werden, dass freie Stellen so bald wie möglich besetzt werden. Der Arbeitsauftrag sollte auf das ganze Jahr für einen Teil der Feuerwehr ausgedehnt werden, um die Aufrechterhaltung der Schutzmaßnahmen zu stützen und Kapazitäten für die Feuerbekämpfung zu schaffen“.

Mehr: http://edmontonjournal.com/news/local-news/albertas-aging-forests-increase-risk-of-catastrophic-fires-2012-report

Zu wenig Personal, das auch noch viel zu gering ausgestattet ist, soll das steigende Risiko von Waldbränden angehen, ein Risiko, das noch erheblich verschärft wurde durch exzessive Unterdrückung von Feuern. Dies führte zu einer Ansammlung entflammbarer Gehölze und ist ein Rezept für eine Katastrophe.

Haben die Behörden von Alberta reagiert, und effektiv reagiert auf die Forderungen des Komitees? Die Antwort auf diese Frage kenne ich nicht. Es ist möglich, dass die Wetterbedingungen zu extrem sind, dass selbst vernünftigste Sicherheitsmaßnahmen gegen Waldbrände nicht ausreichten. Aber falls mein Eigentum und mein Leben direkt bedroht wäre durch die derzeitige Feuersbrunst, würde meine erste Frage an die Behörden von Alberta NICHT lauten „warum haben Sie nicht noch mehr Windturbinen errichtet?“

Link: https://wattsupwiththat.com/2016/05/06/fort-mcmurray-wildfire-climate-or-incompetence/

Übersetzt von Chris Frey EIKE




Die Klimawandel-Brigade, Pressefreiheit – und gedeihende Glockenblümchen

Der Brief war ein perfektes Beispiel für „Gruppendenken“.

Vier Unterzeichner waren Mitglieder des vermeintlich „unabhängigen“ Committee on Climate Change einschließlich dessen Vorsitzenden Lord Deben (alias John Gummer). Andere Unterzeichner waren Lord (Nicholas) Stein und Lord Oxburgh. Letzterer war auch Vorsitzender des Untersuchungs-Ausschusses der East Anglia University, die deren Climatic Research Unit von jedem Eindruck wissenschaftlichen Fehlverhaltens freigesprochen hatte, der durch die Klimagate-E-Mails aufgekommen war. Obwohl diese Unterzeichner vollkommen überzeugte „Klima-Alarmisten“ sind, ist keiner von ihnen auch nur ansatzweise so etwas wie ein Klimawissenschaftler, und Viele haben besondere finanzielle Interessen, sind sie doch an „Erneuerbaren“ und „Low Carbon“-Energie beteiligt.

Der Kernpunkt ihres Briefes, den sie mit Beratung durch Richard Black, dem ehemaligen BBC-Umweltreporter geschrieben hatte, der jetzt eine ultra-grüne Propaganda-Einheit betreibt, war es, ihre Entrüstung zum Ausdruck zubringen, dass die Times zwei Artikel veröffentlicht hatte, die die offizielle Orthodoxie zur globalen Erwärmung in Frage gestellt zu haben scheinen. Einer davon war von so „schlechter Qualität“, dass er „in den sozialen Medien zum Gespött geworden ist“. Falls der Herausgeber weiterhin so einen Unsinn veröffentlichte, würde man seiner Zeitung nicht länger bei irgendwas vertrauen, „nicht einmal den Sportberichten“.

„Weil ihr Gruppendenken auf so lockerem Sand gebaut ist, schlagen sie intolerant gegen jeden aus, der es wagt, es in Frage zu stellen“.

Was all dies noch bizarrer machte war, dass der provozierende Artikel lediglich über eine sehr technische Studie berichtet hatte, die für die GWPF von einem bedeutenden Professor der Statistik geschrieben worden war, einem Experten für Computermodelle, der die Zuverlässigkeit der Modelle in Frage gestellt hatte, die offiziell zur Vorhersage der zukünftigen globalen Temperaturen herangezogen werden – Modelle, die sich so konsistent als falsch erwiesen haben.

Die Reaktion der Unterzeichner des Briefes war eine perfekte Fallstudie dessen, was Irving Janis, der ehemalige Psychologie-Professor bei Yale, als „Gruppendenken“ analysiert hat. Jene, die in einer solchen Blase gefangen waren, erliegen zunächst einer kollektiven Denkweise, die irgendwie nicht mit der Realität in Einklang zu bringen ist. Dann erheben sie diese in eine illusorische Orthodoxie, die nicht mehr in Frage gestellt werden kann. Und zuletzt, weil ihr Gruppendenken auf so lockerem Sand gebaut ist, schlagen sie intolerant gegen jeden aus, der es wagt, es in Frage zu stellen“.

Nichts in diesem Brief war entlarvender als die Behauptung der Unterzeichner, dass sie sich in keiner Weise in die Meinungsfreiheit einmischen wollten – während alles andere in dem Brief zeigte, dass genau das ihre Absicht war

Blumen zeigen, dass das Klima sehr in Ordnung ist.

Bei der Ankunft am Dorfladen meines Dorfes in Somerset war ich erschrocken, Gras und Fahrbahnen mit Schnee bedeckt vorzufinden. Während sich Kinder Schneeballschlachten lieferten, hörte ich von erwachsenen Passanten derbe Kommentare über „all diese globale Erwärmung“.

Erst vor ein paar Wochen haben die Warmisten hinaus posaunt, dass wir jüngst durch den „wärmsten Winter jemals“ gekommen waren, und es stimmt, dass sogar im Januar ein oder zwei Primeln oder Narzissen erblühten [tatsächlich war das bzgl. Primeln an einer geschützten Stelle auch in meinem Garten der Fall. Anm. d. Übers.]. Aber selbst diese waren später dran als wir es in jenen warmen Wintern Anfang der neunziger Jahre erlebt haben, als Primeln mehr als einmal schon vor Weihnachten ans Licht gekommen waren. (Dies brachte jene berühmte Prophezeiung hervor, dass Kinder „bald nicht mehr wissen würden, was Schnee ist“).

Aber es dauerte bis zum April dieses Jahres, bis die Masse von Primeln und Narzissen in voller Blüte stand, genau wie es auch zu erwarten war, genauso wie es mit Glockenblumen, Veilchen, Anemonen und allen anderen Frühlingsblumen war. Am erhellendsten war, dass gleichzeitig mit der Kältewelle der vorigen Woche [zeitlich identisch mit der Kältewelle bei uns! Anm. d. Übers.] unsere Hecken mit dem Weiß der Schlehdorn-Blüten überzogen waren.

Wie ich früher schon geschrieben habe, es gibt keine einzige Wettergeschichte auf dem Land, die über die Jahrzehnte genauer war als der Kälteschauer eines „Schlehdorn-Winters“: Wie oft haben wir während der Baumblüte einen markanten Temperaturrückgang erlebt, traditionell während der letzten 10 Tage im April.

Und vorige Woche war es wieder ganz genau so gekommen. Das soll uns wohl daran erinnern, je mehr sich unser Klima ändert, desto mehr bleiben manche Dinge gleich.

Link: http://www.telegraph.co.uk/news/2016/05/01/the-climate-change-brigade-press-freedoms—and-clockwork-bluebe/

Übersetzt von Chris Frey EIKE




Die Grünen verkleiden den grünen Bankrott-Panikverkauf als „erneuertes Interesse“

Fütterung des Rausches im Bereich erneuerbare Energie in Spanien

Ein Wind der Veränderung weht den spanischen Erneuerbaren um die Ohren: Unternehmen und Investment Fonds befanden sich in einer Kauforgie. Sie nutzten das Wissen und die Wachstumsaussichten eines Bereiches, der immer noch aus einer Krise heraus taumelt.

Im Jahre 2015 „erreichten die Transaktionen eine Größenordnung von 5 Milliarden Euros)“, sagte Joao Saint-Aubyn, ein in Madrid ansässiger Energieexperte bei der globalen Beratungsfirma Roland Berger.

Mit Abstand die größte davon war der Kauf der mit Privatkapital betriebenen US-Firma Cerberus durch den Erneuerbaren-Spezialisten Renovelia für etwa eine Milliarde Euro, und der Ausverkauf der Investment-Gruppe KKR von Gestamp Solar für einen ähnlichen Preis.

Und es ist unwahrscheinlich, dass der Zahlungswahnsinn abstirbt, liebäugelt doch der deutsche Industrie-Riese Siemens mit dem Windkraft-Unternehmen Gamesa, und von Cerberus nimmt man an, dass man dort überlegt, sich mit dem US-Milliardär George Soros zusammenzutun, um T-Solar und deren Solarparks zu schlucken.

Polo fügt hinzu, dass ein weiterer starker Pfeiler des Windenergie-Bereiches in Spanien ist, dass in der gesamten Produktionskette involvierte Unternehmen im ganzen Lande präsent sind.

Das Know-How der Unternehmen hat es ihnen erlaubt, „Projekte anderswo auf der ganzen Welt“ an Land zu ziehen“, sagte Rubio.

Gamesa beispielsweise liegt unter den fünf größten Windturbinen-Herstellern der Welt und ist außerdem fest etabliert in vielen Entwicklungsländern wie Indien, Brasilien und China – was für Siemens von größtem Interesse ist.

Um jedoch dem Wachstum folgen zu können, brauchen sie Geld.

Aber viele Eigentümer von Windparks „kämpfen schon jetzt schwer mit ihren Schulden“, sagt die AEE nach dem abrupten Rückgang der Subventionen der öffentlichen Hand.

Mehr dazu hier.

Als Folge des Pariser Abkommens scheinen sich drei wesentliche Strategien für Investitionen abzuzeichnen: Eine Strategie geht davon aus, dass hoch verschuldete, nach Geld gierende Regierungen noch weiter in punkto Subventionen ausgequetscht werden können – dass man sich auf Politiker verlassen kann, dass diese sich an ihre regelmäßig „überarbeiteten“ Verpflichtungen halten (hier), um unökonomische Programme bzgl. erneuerbarer Energie großzügig zu subventionieren (hier).

Die zweite Strategie ist spekulativer Natur – Kernfusion, nächste Generation von Kernkraft. Technologien, die spektakuläre Gewinne versprechen, wenn die technischen Schwierigkeiten erst einmal überwunden sind.

Die dritte Strategie fußt auf Beweisen und auf auf Beweisen basierenden Vorhersagen eines weiteren gewaltigen Anstiegs des Verbrauchs fossiler Treibstoffe sowie auf weiteren massiven Investitionen (hier) in einen Energiebereich, der nicht von Regierungs-Subventionen abhängig ist, um Profite abzuwerfen.

Link: https://wattsupwiththat.com/2016/05/02/greens-reframe-spains-green-bankruptcy-fire-sale-as-renewed-interest/

Übersetzt von Chris Frey EIKE




Es gibt keinen verfrühten Frühlingsbeginn mehr

Bild rechts: Kowatsch

In der Oberamtsbeschreibung Aalen von 1854 wurde erwähnt, dass die Jahre ab 1842 nun angenehm wärmer wurden. Als Standort der Messstation wird ein Platz bei einem Forsthaus am Waldrand angegeben, daraus kann man zumindest entnehmen, dass die Station sich nicht wie heute, inmitten der Kreisstadt Aalen befindet, die Stadt, die heute etwa 10 mal mehr Einwohner hat als damals. Wann die Bäume am Waldrand Aalens beim damaligen Standort ausgeschlagen haben ist leider nicht überliefert.

Deshalb muss der Verfasser für das Ausschlagen der Bäume seine eigenen Kindheitserinnerungen heranziehen. Da ich schon immer ein guter Naturbeobachter war und täglich bei jedem Wetter draußen in der Umgebung meines Wohnortes mich aufgehalten habe, kann ich mich an Einzelepisoden gut erinnern. Froschlaich holen, Kröten fangen während der Krötenwanderung und vor allem am 1.Mai mit Schuhschachteln losziehen für den internen Bubenwettbewerb „Wer findet die meisten Maikäfer“ sind gut in Erinnerung gebliebene Kindheitserlebnisse aus der Zeit von 1955 bis 1962. Dabei verwischt die Erinnerung die Jahre automatisch zu einem Durchschnitt.

Seit damals soll es angeblich eine Klimaerwärmung gegeben haben. Damit ist das Interesse geweckt: Ist die Krötenwanderung nun früher als damals, blühen die Bäume früher, kommen die Märzenveilchen nun vielleicht schon Ende Februar? Und wo sind die Maikäfer?. Sind diese Tiere wegen der angeblich schrecklichen Erwärmung vielleicht schon im April unterwegs und keiner merkt was? Oder sind die Insekten etwa deshalb verschwunden aus Deutschland, weil es Ihnen zu warm wurde?

Gehen wir nun der Reihe nach vor und beginnen wir mit dem Grünwerden der Bäume:

Bild 1: Aufnahme vom 1.Mai 2016, wegen des Schaltjahres eigentlich ein Tag mehr. Die Buchen, Hasel und Traubenkirschensträucher stehen 500 m außerhalb des Wohnortes des Fotographen in der freien Fläche, genauso wie vor 60/70 Jahren. Die Meereshöhe beträgt etwa 460 bis 465 m.

Standortbeschreibung:

Da der Verfasser dieses Artikels immer am selben Ort gewohnt hat, kann er aus eigener Erinnerung berichten. Genau an diesem Ort der Bildaufnahme sind wir Buben ab 1955 immer am 1.Mai in kleiner Runde um 10 Uhr losgezogen, mit Schuhschachtel bewaffnet und haben immer an denselben Bäumchen, meist Buchen und Hasel die Maikäfer runtergeschüttelt. Der Verfasser kann aus eigener Erinnerung bestätigen: Die grüne Belaubung ist 2016 etwa gleich weit entwickelt wie der Verfasser sie vor 60 Jahren angetroffen hat, natürlich sind die Sträucher und Bäume auf dem Bild inzwischen die Tochtergenerationen. Auch der Grasbewuchs unter den Sträuchern ist etwa gleich, also noch nicht zu üppig. 20 Meter weiter vom rechten Bildrand in der bäuerlich genutzten Wiese sieht die Sache anders aus. Aufgrund der intensiven Düngung u.a. mit Gülle und des inzwischen höheren CO2-gehaltes der Luft, steht das Gras in der landwirtschaftlich genutzten Wiese vielleicht 15 Tage vor der ersten Mahd. Wo ist die behauptete Klimaerwärmung geblieben? frage ich mich, wenn wir aus der Kindheitserinnerung keine Vegetationsänderungen gegenüber heute feststellen können? Dabei ist zu bedenken, dass wir ein Schaltjahr haben, also bereits einen Tag weiter sind wie am 1.Mai 1955.

Die Standortbetrachtung des Bildes bei knapp 465m hat zudem den Vorteil, dass sie außerhalb des Wohnortes in der freien Fläche sich befindet und damit scheidet der in den letzten Jahrzehnten sich vergrößernde Wärmeinseleffekt aus. Mein Wohnort Hüttlingen hat seine Einwohnerzahl seit damals fast verdoppelt, die versiegelte Fläche etwa verzehnfacht, der Energieverbrauch grob geschätzt mehr als verhundertfacht. Der Kirschbaum des Erkennungsbildes steht auf 447 m Höhe. Wir wohnen direkt am Ortsrand. Auch wenn das nun ein anderer Kirschbaum ist als vor 60 Jahren ist, bleiben mir die Worte meiner Mutter in Erinnerung: Immer am 1. Mai blüht der Kirschbaum

Halten wir fest: Die Bäume werden im meinem Heimatort außerhalb des Wohnortes am 1.Mai grün wie im Jahre 1955. Der Kirschbaum steht am 1. Mai in voller Blüte, die Maikäfer gibt’s nicht mehr bei uns, sie erscheinen aber auch nicht im April, weil die Bäume und Sträucher im April noch gar keine Blätter haben. In anderen Teilen Deutschlands dürfte es ähnlich sein, der Maikäfer wird auch zukünftig nicht Aprilkäfer heißen müssen.

Gehen wir zur Krötenwanderung, die bekanntlich auch außerhalb der Wärmeinseln der menschlichen Ansiedlungen stattfindet. Die war bei uns schon immer im April, dieses Jahr etwas verspätet, wofür der kalte März verantwortlich ist, die Laichgewässer sind im März 2016 immer wieder zugefroren. Die Vögel brüten zur gleichen Zeit wie in meiner Kindheit. Der Kuckuck ist seit einigen Tagen zu hören wie schon immer. Und die Märzenveilchen erschienen dieses Jahr erst Ende März.

Temperaturbetrachtung: Verantwortlich für das Ergrünen der Bäume ist nicht der warme Februar, sondern die Temperatur des Aprilmonates. Er wurde vom DWD diesmal mit 8 C für 2016 angegeben. Schauen wir in der DWD Statistik des April nach. Die sieben Jahre meiner Kindheitserinnerungen und Maikäfererlebnisse von 1955 bis 1962 hatten beim DWD einen Aprilschnitt von 7,6 C. Damit kann sich auch kein gravierender Vegetationsunterschied ergeben, zumal der heutige Wert von 8C viel stärker wärmeinselbehaftet ist als die Vergleichswerte des DWD in meiner Kindheit. Und der Apfelbaum, 20 m vom Haus entfernt zur freien Fläche hin hatte am 3.Mai die ersten Blüten, genauso wie ich das in Erinnerung und in meiner Kindheit gelernt habe: Birnen und Kirschen Ende April/Anfang Mai, Apfelbäume im ersten Maidrittel, Kastanienbäume ab Mitte Mai.

Bild 2: Das sind die Vegetationsstände Anfang Mai 2016: Der Apfelbaum ist am Aufblühen, der Birnbaum links hinter dem Apfelbaum blüht noch und die Ahornbäumchen zwischen beiden in der Hecke dahinter fangen erst an zu ergrünen. Der noch niemals gedüngte Grasbewuchs am Boden ist noch recht spärlich. Es handelt sich um einen frei stehenden Platz auf 456m Höhe.

Fazit: Die Kohlendioxidkonzentration der Atmosphäre ist seit 1955 von 0,03% auf 0,04% gestiegen, die Düngung hat zugenommen, das sind alles vegetationsfördernde Maßnahmen. Da die Apriltemperatur 2016 nach Abzug eines WI-effektes eher niedriger ist in der freien Fläche als damals, hat sich bei der Vegetation überhaupt nichts verändert.

Dabei erfülle ich alle Bedingungen eines guten Naturbeobachters. Ich bin vor 65 Jahren in meinem Heimatort geboren, ich habe immer hier gelebt, ich bin täglich draußen, ich fahre im Frühjahr grundsätzlich nicht in Urlaub, und ich freue mich jedes Frühjahr auf das Erwachen der Natur. Deshalb stelle ich fest:

1) Den behaupteten früheren Frühlingsbeginn gibt es nicht, jedenfalls nicht um meinen Wohnort Hüttlingen. Nach einer kurzzeitigen Vegetationsverfrühung pendelt sich seit etlichen Jahren wieder der Zustand von 1950 bis 1960 ein.

2) Und die deutschen Maienlieder beweisen: Das Ergrünen der Bäume und Sträucher ist in der freien Fläche außerhalb der Städte genau dann wie es schon immer war, sogar schon seit 1842: Nämlich Anfang Mai.

3) Alle getätigten Behauptungen, dass der Frühling wegen einer zunehmenden Frühlingserwärmung immer früher käme, sind falsch. Das sind Aussagen von Leuten, die keine Naturbeobachtungen vor Ort betreiben, und die keine Temperaturentwicklung der freien Fläche kennen.

Für die Temperaturentwicklung außerhalb der Wärmeinseln, wo nur wenige Messstationen des Deutschen Wetterdienstes stehen, ziehen wir gerne die Wetterstation Amtsberg-Dittersdorf heran. Dort hat sich laut Aussage des Stationsleiters nämlich fast gar nichts geändert. Gleiche Einwohnerzahl, gleich viele Häuser, zumindest seit 1982.

Grafik 3: Der Monat Mai zeigt in dem fast Wärmeinselfreien Ort Amtsberg schon seit 1982 eine fallende Trendlinie. Der Frühlingsmonat Mai wird außerhalb der Ansiedlungen kälter. Wo wird sich der Mai 2016 einordnen?

Josef Kowatsch, guter Naturbeobachter und neutraler Klimawissenschaftler.




Nicht nachhaltiger Wahnwitz: Kosten der deutschen „Energiewende“ erreichen 31 Milliarden Euro allein im Jahre 2016!

Man bekommt nichts für das Geld

Tatsächlich sind die CO2-Emissionen in Deutschland keineswegs während der letzten 7 Jahre gesunken, sondern im Gegenteil im vorigen Jahr sogar um ein Prozent gestiegen. Außerdem sind die Wetterbedingungen heute genauso wie immer: typisch regnerisch, kühl, grau, windig und rau. Für die etwa 1200 Euro pro Jahr, die ein normaler Haushalt aufbringen muss, klingt das nach einem furchtbar schlechten Deal (es sei denn, man gehört zu den wenigen Glücklichen, die mit diesem Betrug sehr viel Geld verdienen). Und diese Summe von 1200 Euro dürfte während der kommenden Jahre erheblich weiter steigen.

Bei www.finanznachrichten.de heißt es, dass die Zahl des Jahres 2016 um 3 Milliarden (11%) über der Zahl des Vorjahres liegt. Das ist ein nicht nachhaltiges Wachstum der Belastungen.

Netz-Stabilisierung“ erfordert weitere Kosten

Ein Grund für die ewig steigenden Kosten sind der Website zufolge die „Kosten für die Stabilisierung des Stromnetzes“. Je mehr stark fluktuierender und wetterabhängiger Strom ins Netz geht, desto teurer werden Maßnahmen zur Stabilisierung des Netzes. Was einst ein stabiles Energieversorgungs-System war, das nur etwa ein Dutzend Eingriffe pro Jahr erforderte, sind jetzt in jedem Jahr zehntausende Interventionen der Netzbetreiber erforderlich.

Oftmals sind Wind- und Solarparks gezwungen, vom Netz zu gehen, um dieses vor dem Durchbrennen durch Sturmböen und Solarausbrüche zu bewahren. In derartigen Fällen werden die Wind- und Solarpark-Betreiber aber trotzdem bezahlt, egal ob sie etwas erzeugen oder nicht. Im vorigen Jahr wurden die Verbraucher mit über 500 Millionen Euro belastet durch diese Kosten für „nicht erzeugte Energie“. Die Energiewende verwandelt sich in in einen zentralen Planungs-Wahnwitz von einer Größenordnung, die nur mit den venezolanischen Chavez-Kommunisten vergleichbar ist.

Bis zum Jahr 2030 um 30% höhere Stromrechnungen

Ein weiterer Grund für die Kostenexplosion ist die unverändert fortgesetzte Neuinstallation von Wind- und Sonnenenergie erzeugenden Systemen. Da ist es kein Wunder, dass die führenden deutschen Politiker wie Michael Fuchs nervös werden und nach einem Stopp der Errichtung neuer Windparks rufen, für die es keine Übertragungsleitungen gibt. Geschieht dies nicht, so Fuchs, werden die Stromrechnungen für die deutschen Haushalte schon bis zum Jahr 2020 um 30% steigen.

Es ist nur eine Frage der Zeit, bevor die Sicherungen durchzubrennen beginnen.

Link: http://notrickszone.com/#sthash.yY3rwleg.XntWVcBA.dpbs

Bemerkung des Übersetzers: Mit genau dem gleichen Thema befasst sich auch ein Beitrag von Anthony Watts. Er führt u. a. weitere Zitate hierzu an, die hier beigefügt sind:

Gescheitert: CO2-Emissionen in der EU nehmen zu, trotz grüner Subventionen in Höhe von 1 Billion Euro

Anthony Watts

Eurostat schätzt, dass die CO2-Emissionen des Jahres 2015 durch die Verbrennung fossiler Treibstoffe in der EU im Vergleich zum Vorjahr um 0,7% zunehmen. – Europäische Kommission, 3. Mai 2016.

Deutschlands CO2-Emissionen sind von 2014 bis 2015 um geschätzte 10 Millionen Tonnen gestiegen – ein massiver Schlag gegen die Ambitionen des Landes, die Klima-Führung zu übernehmen. Ein Beschluss aus dem Jahr 2011 zur Abschaltung der Kernkraft innerhalb eines Jahrzehnts hatte zur Folge, dass schmutzige [?] Kohle einen bedeutenden Anteil am Energiemix übernommen hat. Als Folge hat sich der Fortschritt bzgl. Emissionen verlangsamt. Eine Abnahme im Jahre 2011 standen Zunahmen während der Jahre 2012 und 2013 gegenüber. – Megan Darby, Climate Home, 14. März 2016.

Full story

Link: https://wattsupwiththat.com/2016/05/03/fail-co2-emissions-increasing-in-eu-despite-1-trillion-in-green-subsidies/

Alles Übersetzt von Chris Frey EIKE