1

Der Klima-,Gott aus der Maschine‘ hat sich als falscher Gott herausgestellt

Der Pionier-Meteorologe und Mathematiker am Massachusetts Institute of Technology Edward Lorenz bezweifelte diese Fähigkeit bereits in den sechziger Jahren des vorigen Jahrhunderts. Der glückliche Entdecker der Chaos-Theorie postulierte „gibt es so etwas wie Klima überhaupt?“ Gibt es ein definierbares „normales globales Klima“, von welchem Abweichungen als anomal bezeichnet werden können? In seiner Studie aus dem Jahr 1965 heißt es: „… falls außerdem der gegenwärtige Zustand oder der gegenwärtige und vergangene Zustand nicht mit vollständiger Genauigkeit bekannt sind, wird jedes Vorhersageverfahren zu schlechteren und immer schlechteren Vorhersagen führen, so wie die Bandbreite des Niederschlags zunimmt, bis ultimativ nur die periodische Komponente in ferner Zukunft vorhergesagt werden kann“. Sein Statement ist eine Beschreibung dessen, was als chaotisches Verhalten bekannt ist. Derartige Systeme sind charakterisiert durch die Tatsache, dass winzige Änderungen der Ausgangsbedingungen zu gewaltig unterschiedlichen Ergebnissen über einen bestimmten Zeitraum führen. Das Verhalten des Klimas erfüllt treffend diese Definition. Kurzfristige Änderungen sind bekannt als Wetter, und die Genauigkeit von Wettervorhersagen hat sich im Laufe der Jahrzehnte bis zu einer Woche im Voraus verbessert.

Jetzt hatte Judith Curry den Mut gehabt, das Fehlen von Kleidung des Kaisers ,Klima-Computer‘ zu bemerken. Prof. Curry, Autorin von über 180 wissenschaftlichen Studien zum Thema Wetter und Klima, hat sich kürzlich vom Georgia Institute of Technnology zurückgezogen. Dort fungierte sie als Professorin und Vorsitzende der School of Earth and Atmospheric Sciences. Sie schrieb jüngst Climate Models for the Layman [auf Deutsch beim EIKE hier], worin sie die inhärent in Computermodellen vorhandenen fundamentalen Probleme offenlegte. Diese Probleme sind so schwerwiegend, dass sie Zweifel wecken an der Fähigkeit, ein solches Klima-Vorhersagesystem zu erstellen. Gegenwärtige Klimamodell-Prophezeiungen weichen von der historischen Realität ab, wenn man sie im Zeitmaßstab von Jahrzehnten betrachtet. Und doch werden diese fehlbaren Prophezeiungen, anderweitig als Szenarien bekannt, von Politikern, Umweltgruppen und Energie-Firmen herangezogen, um darauf Politik und zukünftige Energiepläne zu entwickeln.

Prof. Curry:

Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Allerdings gab es jene unter den „wir“, welche gelernt haben massiv zu profitieren von dem Versuch, „die globale Wirtschaft umzukrempeln“. Regierungen haben Milliarden ausgegeben, um die Energieerzeugung zu kontrollieren und zu benutzen in dem Versuch, das Klima zu kontrollieren. Milliarden des Steuerzahlers wurden an die Betreiber zahlreicher derartige Programme geleitet. Kontrolle über Energie bedeutet Kontrolle über alle Aspekte des modernen Lebens einschließlich persönlicher Freiheit. Ein vom Menschen verursachter gefährlicher Klimawandel ist ein Musterbeispiel „falscher Fake-Nachrichten“, ein Begriff, eingeführt von Julian Simon, um den Gebrauch von falschen Nachrichten zur Angsterzeugung in den Medien zu verwenden – eine Taktik, die er treffend in seinem Traktat „Hoodwinking the Nation“ zum Ausdruck gebracht hat.

Großer Dank an Judith Curry, die diesen falschen Gott bloßgestellt hat!

[Dem aber Politik und Medien hierzulande, allen voran die „Süddeutsche Zeitung“, nach wie vor huldigen! Anm. d. Übers.]

Charles G. Battig, M.S., M.D., Heartland Institute policy expert on environment; VA-Scientists and Engineers for Energy and Environment (VA-SEEE). His website is Climate Reality

Link: https://wattsupwiththat.com/2017/02/22/the-climate-deus-ex-machina-is-shown-to-be-a-false-god/

Übersetzt von Chris Frey EIKE




Scott Pruitt: Trocken­legung des EPA-Sumpfes bringt Krokodils­tränen

Mit Verweis auf ihre aggressive und trotzige Brief- und Telefon-Kampagne, mit der sie gegen Pruitts Berufung vorgingen, sagte der Direktor des Center for Congressional and Presidential Studies an der American University James Thurber der New York Times: „Das ist selten … ich kann mich an kein weiteres Mal erinnern, an dem Menschen in der Bürokratie solches getan haben“.

Die große Mehrheit dieser Protestierer sind Beamte, die nicht gefeuert werden können. Dieser Tatsache bewusst hat der ehemalige EPA-Administrator unter der Regierung von George W. Bush kommentiert: „Das bedeutet, dass es ein Blutbad geben wird, wenn Pruitt dieses Amt übernimmt“.

Blank liegende Nerven, die zu diesem Angst- und Abscheu-Angriff führten, wurden befeuert, weil der ehemalige Generalstaatsanwalt unter Obama mindestens 14 mal geklagt hatte, um EPA-Umweltvorschriften zu Fall zu bringen, weil er jedweden glaubwürdigen wissenschaftlichen Beweis für eine vom Menschen verursachte Klimakrise vermisst und weil er immer gegen den kostspieligen EPA-Alarmplan der Obama-Regierung opponiert hatte, welcher Vorschriften bzgl. Energie vorsah sowie das Verfahren zur Gesetzgebung zu umgehen.

Von Opponenten gebrandmarkt als „Klimaleugner“ und „Lockvogel von Öl und Gas“, erklärte Scott Pruitt bei der Anhörung vor einem feindlich gesinnten Senat der Demokraten und Anderen, was er wirklich denkt.

Pruitt warf der EPA vor, ihre Kompetenzen zu überschreiten, und sagte, dass sie „ihre eigenen Vollmachten und Mittel durch Gesetzgebung verletzt hatte“ sowie mittels vorbestimmter Ergebnisse „sue and settle“-Deals mit freundlich gesinnten Prozessparteien einzugehen. Seine Politik würde sich mehr auf [von ihm vorgefundene] Zustände verlassen als auf Funktionäre, die sich als „Umsetzer von Umweltschutz und Vollstrecker an vorderster Front unserer Nation“ gerieren.

Pruitt stellte sich hinter Landwirte und kleine Unternehmen, die „hoffnungslos waren sowie Opfer einer niemals endenden Flut neuer Vorschriften, die nur ein Anwalt noch verstehen könne“. Er sagte, dass „sie die EPA fürchten, und genau das sollte nicht so sein“. Er versprach, „unermüdlich zu arbeiten um sicherzustellen, dass die EPA den Gesetzen folgt, vernünftig arbeitet und immer an jene hart arbeitenden Amerikaner denkt“.

In einem Austausch mit Bernie Sanders von den Demokraten räumte er ein, dass „sich das Klima ändert und menschliche Aktivitäten dazu auf irgendeine Weise beitragen“, aber dass das Ausmaß jenes Beitrags „Gegenstand weiterer Debatten“ ist.

Hinsichtlich Energiepolitik sagte er, dass die Agentur unter seiner Leitung aufhören werde, „willkürlich Gewinner und Verlierer auszusuchen“. Pruitt erwartet, rasch den so genannten „Clean Power Plan“ der Obama-EPA zu annullieren. Er würde auch eine Vorschrift „Waters of the United States“ aus dem Jahr 2015 zum Halten bringen. Diese Vorschrift verschafft der EPA die Macht über praktisch jeden einzelnen Bach, jeden einzelnen Teich oder Entwässerungsgraben mit einer bedeutenden Verbindung zu einem „schiffbaren Wasserweg“.

Pruitt erklärte: Es gibt einen ganz einfachen Grund, warum das so gemacht werden muss … Weil die Gerichte die Legalität jener Vorschriften ernsthaft in Frage gestellt hatten“. Pruitt sollte es wissen, war er doch schließlich Partei in Gerichtsverfahren, welche bis zum Obersten Gerichtshof liefen, welcher das CPP beibehalten wollte und einen Appell an untere Gerichte ausgab, die Wasser-Vorschrift anzuhalten.

Auf einer Veranstaltung des Claremont Institute unterstützte der Richter am Obersten Gerichtshof Samuel Alito eindeutig die gesetzlichen Vorgaben des neuen EPA-Administrators. Er stellte fest: „Der Clean Air Act wurde vom Kongress schon im Jahre 1970 in Kraft gesetzt, und er reguliert die Emission von ,Verschmutzern‘ – so lautet der Terminus in dem Statut“.

Richter Alito fuhr fort: „Als der Kongress die Vorschriften bzgl. Verschmutzer genehmigte, hatte er Substanzen wie Schwefeldioxid oder Partikel im Sinn – vor allem Ruß oder Rauch in der Luft. Der Kongress dachte nicht an Kohlendioxid und andere Treibhausgase“. Er warnte: „Falls die Regierungs-Agentur EPA das machen darf, dann weiß ich nicht, was eine Regierungs-Agentur nicht darf. Die gesetzgeberische Macht wurde vom Kongress an die Exekutive Transferiert“.

Mit Bezug auf den CPP erklärte der Richter seinen Zuhörern, dass „eine Politik von derartiger Bedeutung von gewählten Repräsentanten der Bevölkerung durchgeführt werden sollte im Rahmen der Verfassung, und nicht von nicht gewählten Mitgliedern der Judikative und von Bürokraten“. Er fügte noch hinzu: „Aber genau dieses System haben wir heute, und es ist ein großer Bruch unserer verfassungsmäßigen Struktur“.

Alito sprach von „einer massiven Verschiebung der Gesetzgebung weg von gewählten Repräsentanten hin zu nicht gewählten Bürokraten“, welche „eine enorme Zunahme von Vorschriften zu verantworten haben, die wir mit allen begleitenden Auswirkungen auf unsere Wirtschaft ertragen mussten“.

Unter Verweis auf die Wasser-Vorschrift der EPA als Beispiel sagte Alito, dass diese Vorschriften auf einer obskuren legalen Interpretation beruhen, welche niemand, nicht einmal der Kongress, versteht. Mit der Vermutung, dass Flüsse und Seen gemeint seien, fragte er: „Aber was ist mit einem Strom, der die meiste Zeit des Jahres trocken fällt? Was ist mit einem Entwässerungsgraben? Was ist mit einem feuchten Hinterhof?“

Ja, und während sie darüber reden – warum soll es nicht auch um die schlammigen Sumpfgewässer der EPA gehen. Scott Pruitt dürfte genau der richtige Mann sein, um es mit dieser schmutzigen Herausforderung aufzunehmen.

Larry Bell is an endowed professor of space architecture at the University of Houston where he founded the Sasakawa International Center for Space Architecture (SICSA) and the graduate program in space architecture. He is the author of “Scared Witless: Prophets and Profits of Climate Doom”(2015) and “Climate of Corruption: Politics and Power Behind the Global Warming Hoax” (2012). Read more of his reports — Click Here Now.

Link: http://www.newsmax.com/LarryBell/scott-pruitt-epa-justice-alito-drain-the-swamp/2017/02/21/id/774735/

Übersetzt von Chris Frey EIKE

Zusatz des Übersetzers: Die offizielle Website der EPA begrüßt Pruitt sehr herzlich (hier).

Die Debatte darum ist aber voll im Gange, wie dieser Auftritt der Washington Times zeigt.




G20: Merkel legt einen Klima-Hinterhalt für Trump

Merkel ist bereit, es mit Trump aufzunehmen, während sie nach einem Klima-Kompromiss trachtet

Nach nur zwei Monaten seiner Amtszeit als Präsident schockierte Bush die Welt mit seiner Ankündigung, Wort zu halten: Die USA würden nicht das Kyoto-Protokoll implementieren, welches von seinem Vorgänger unterzeichnet worden war. Mit Verweis auf „den unvollständigen Status wissenschaftlicher Erkenntnisse hinsichtlich der Gründe des Klimawandels sowie Lösungen dagegen, und auf das Fehlen kommerziell sich rechnender Technologien zum Entfernen und Speichern von Kohlendioxid“ erklärte Bush, dass er kein Abkommen unterzeichnen könne, welches „unsere Wirtschaft und unsere Arbeiter schädigt“. Stattdessen würde Amerika zusammen mit seinen Verbündeten und mittels internationaler Zusammenarbeit „Technologien entwickeln ebenso wie marktbasierte Anreize und andere innovative Verfahren“.

Es war wie eine frische Brise im Mief des ermüdenden Nachdenkens über Emissionskürzungen. Aber dann geschah etwas Seltsames. Ein innovatives Verfahren nach dem anderen wurde Stück für Stück verworfen, und die Bush-Regierung fand sich selbst erneut von den UN-Klimawandel-Verhandlungen eingesogen.

Auf dem G8-Gipfel in Gleneagles, UK, im Jahre 2005 trieb der Gastgeber Tony Blair Bush in die Enge. „Alle hier stimmen überein, dass der Klimawandel jetzt im Gange ist, dass menschliche Aktivitäten dazu beitragen und dass er jeden Teil des Globus‘ betreffen könnte“, stellte Blair in seiner Schlussbemerkung zu dem Gipfel fest. „Wir wissen, dass Emissionen, global gesprochen, verringert werden und dann aufhören müssen, was uns hin zu einer Low-Carbon-Ökonomie bringt“. Diese Haltung wurde im Kommuniqué des Gipfels reflektiert, was Bush in Zugzwang brachte für eine ökonomisch schädliche Politik, der er niemals entkommen würde.

Seine Strategie bzgl. Klimawandel pflasterte den Weg für die Strategie von Barack Obama. Auch in der heimischen Energiepolitik stellten sich die letzten beiden Jahre der Bush-Präsidentschaft als ein Vorspiel zu Obamas acht Jahren heraus. Während jener Zeit erfolgte der unsinnige Ruf, Amerikas Abhängigkeit von Öl zu brechen. Es wurde das Ziel ausgegeben, den Benzinverbrauch um 20% zu senken, und die Vorschriften bzgl. alternativer Treibstoffe sowie die Festlegung aggressiver Standards für die Treibstoff-Wirtschaft wurden in den Energy Independence and Security Act von 2007 eingebettet, einem Monument der Verrücktheit von Konsens-Energiepolitik zweier Parteien.

Die Bush-Obama-Strategie kollabierte 2009 auf dem Klimagipfel in Kopenhagen, als China und Indien erfolgreich Widerstand gegen jedweden multilateralen Vertrag leisteten, welcher drohte, ihre Emissionen zu kürzen. Nach Kopenhagen entwickelte Todd Stern, Präsident Obamas Klima-Botschafter, kunstvoll eine auf vielfältige Weise geniale Strategie: Die Obama-Regierung würde China mit an Bord holen, wenn man dem Land Ausnahmeregelungen bzgl. Emissionskürzungs-Verpflichtungen gewähren würde, welche die entwickelte Welt auffangen müsste. Sterns Strategie zielte auf die Umgehung des Senats, was ein Indiz war für die einseitige Natur dieser von den USA und anderen westlichen Nationen eingegangenen Verpflichtungen.

Das Risiko derartiger einseitiger Maßnahmen bestand immer darin, dass sie rückgängig gemacht werden konnten, falls die Republikaner 2016 das Weiße Haus für sich gewinnen würden. In einer Rede vor einem Jahr, gehalten, nachdem der Oberste Gerichtshof dem Clean Power Plan der EPA ein Korsett verpasst hatte, erklärte Stern, dass es unwahrscheinlich sei, dass ein republikanischer Präsident aus dem Pariser Abkommen aussteigen würde, weil ein solcher Schritt international Empörung auslösen würde. Offensichtlich scheiterte diese Strategie an Trumps kometenhaftem Aufstieg.

Zum Gipfel 2005 hatte Tony Blair gerade eine dritte Amtszeit gewonnen. In diesem Jahr steht Angela Merkel vor einer Wiederwahl-Kampagne, die härter als erwartet daherkommt, und sie braucht auf dem Gipfel einen großen Sieg gegen Trump. Trump könnte im Gegenzug das Scheinwerferlicht auf die verheerende Energiepolitik Deutschlands richten, was sie derzeit ja ist.

Kein anderes Land in der Welt verfolgt einen derartig radikalen Kurs. Das sagt der führende Energie-Experte und Naturschützer Fritz Varenholt. Unter dem Dekarbonisierungsplan im Zuge der Energiewende verfolgt Deutschland das Ziel, bis zum Jahr 2050 den Anteil Erneuerbarer an der Energieversorgung auf 80 bis 95% zu steigern. Schon jetzt müssen die deutschen Verbraucher pro Jahr 25 Milliarden Dollar berappen.

In diesem Jahr steigt sich die Erneuerbaren-Umlage auf Stromrechnungen auf 6,88 Cent pro Kilowattstunde, verglichen mit den im Mittel 12,75 Cent pro Kilowattstunde für amerikanische Haushalte im November. Fast 60% der Wind- und Solarenergie aus Deutschland wird in die Nachbarländer entsorgt. Wind-Investoren erhalten 1 Milliarde Euro pro Jahr, wenn zu viel Wind weht. Ohne Kohlekraftwerke würde das Netz zusammenbrechen. Und doch, so Varenholt, „wurde der Atmosphäre nicht eine einzige Tonne Kohlendioxid erspart durch Deutschlands Übereifer“. Tatsächlich haben sich die Emissionen aus dem Energiesektor kaum verändert oder sind sogar gestiegen, und die Gesamt-CO2-Reduktionen, die Berlin bis zum Jahr 2020 verspricht, werden von China in nur drei Monaten kompensiert.

Man macht den Amerikanern weis, dass Trump mit einem Rückzug aus dem Pariser Klima-Abkommen die Führerschaft in diesem Bereich an China übergeben würde. Es gibt ein deutsches Sprichwort, was für eine gute Idee das wäre: Der Esel geht über das Eis, bis er einbricht. (Ein zielstrebiger Alleingang bei der Verfolgung eines irrationalen und selbstzerstörerischen Maßnahmen-Pakets ist in der deutschen Geschichte kaum unbekannt).

Von allen Ländern der Welt haben die USA am meisten zu verlieren, wenn sie vom Paris-Abkommen eingebunden werden. Die Nation besitzt fast eine halbe Billion metrischer Tonnen Kohle. Sie hat Saudi-Arabien und Russland überflügelt und ist jetzt der größte Energieerzeuger der Welt. Nach Jahrzehnten vergeblicher Versuche von Präsidenten beider Parteien ist damit endlich das OPEC-Ölkartell durchbrochen – dank Fracking in den Formationen Permian, Marcellus, Bakken und Barnett.

China derweil kann niemals darauf hoffen, an Amerikas spektakuläre Energie-Vorherrschaft heranzukommen. Es kann nur eine Klima-Führerschaft vorgeben, indem ein paar Billionen Dollar in die tot geborene Wind- und Solarenergie gepumpt werden. Falls Peking den freiwilligen Verpflichtungen aus dem Paris-Abkommen nachkommt, werden die Chinesen bis 2020 200 Gigawatt Windkapazität und 100 Gigawatt Solarkapazität installiert haben. Das ist mehr Wind und Solar als in den USA, Deutschland, UK und Spanien zusammen.

Donald Trump müsste nicht irgendwelche Handelsabkommen mit China neu aushandeln – oder mit irgendjemandem sonst. Höhere Energiekosten, verursacht durch ineffiziente und teure Erneuerbare, wird als eine selbst auferlegte Energie-Abgabe auf Chinas Exporte wirken. Die führenden Konkurrenten in den USA betrachten es als das bestmögliche Handelsabkommen überhaupt, wenn China seine Energie immer teurer macht, während eine amerikanische Kohlenwasserstoff-Revolution rapide ihren Fortgang nimmt, was amerikanischen Industrien und Arbeitern einen großen und wachsenden wettbewerbsmäßigen Vorteil bringt.

Die Amerikaner haben im November nicht für ein Klima-Martyrium gestimmt. Natürlich wollen die Partner und Rivalen Amerikas, dass die USA an ihren Klima-Schmerzen teilhaben, und machen sich Sorgen, dass die amerikanische Industrie sie überfährt mittels dessen Zugang zu den reichsten Energiereserven der Welt.

Es steht mehr auf dem Spiel als nur die Wirtschaft. Varenholt drückt es so aus: eine ernsthafte Bewegung Deutschlands weg von seiner Energiewende „würde sich zu einem strategischen Desaster auswachsen mit unvorhersehbaren Konsequenzen für das derzeitige politische Establishment“. Das Gesicht zu wahren ist kein guter Grund für die USA, auf dem Fuße zu folgen. Tatsächlich würde Donald Trump Deutschland und Europa einen großen Gefallen tun, wenn er die Frage nach Amerikas Teilnahme am Paris-Abkommen zu einer „Lehrstunde“ macht bzgl. des Wahnsinns ihrer Energiepolitik.

Link: http://www.nationalreview.com/article/445121/donald-trump-paris-climate-agreement-teachable-moment-europe

Übersetzt von Chris Frey EIKE




Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen – gute Aussichten für Frühjahr und Sommer?

Teil 1: Ursachen und Besonderheiten der Winterwitterung 2016/17

Kein Schnee, keine Kälte und immer mehr Westlagen“- die Irrungen des Mojib Latif

Am ersten April des Jahres 2000, also vor fast 2 Jahrzehnten, war bei SPIEGEL ONLINE folgende Meldung zu lesen: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie. „Durch den Einfluss des Menschen werden die Temperaturen bei uns mit einer Wahrscheinlichkeit von 95 Prozent noch weiter steigen“, meint Latif. Wegen dieses so genannten Treibhauseffekts wird es in Mittel- und Nordeuropa künftig mehr Westwindlagen geben. Das hätte wiederum regenreiche und noch mildere Winter zur Folge. Der gesamte Artikel, den Latif später teilweise in seinen Aussagen abschwächen wollte, findet sich unter http://www.spiegel.de/wissenschaft/mensch/winter-ade-nie-wieder-schnee-a-71456.html . Angesichts derartiger „Prognosen“ wunderte sich so mancher Zeitgenosse über das weiße, kalte und rutschige Pulver, welches im Januar 2017 bergeweise zu finden war:

Abbildung 1: Massenhaft rätselhaftes, weißes Pulver am Bahnhof Oberhof im Januar 2017. Die Straßen im Thüringer Wald konnten nur unter großem Aufwand nach und nach geräumt werden. Weil es nach den Vorhersagen unserer „Klimaforscher“ ja keinen Schnee mehr gibt, musste es etwas anderes gewesen sein. Vielleicht hatte Frau Holle irrtümlicherweise Mehl verschüttet, aber warum war das Zeug so kalt und rutschig? Foto: Stefan Kämpfe

Nun kann ein einzelner, schneereicher Wintermonat aber auch nur mal zufällig auftreten. Langfristige Beobachtungsreihen zeigen uns, ob es tatsächlich immer weniger Schnee gibt. In Potsdam wird die Anzahl der Tage mit einer Schneedecke von mindestens 1cm Höhe seit dem Winter 1893/94 gezählt:

Abbildung 2: Die Anzahl der winterlichen Schneedeckentage blieb in Potsdam fast unverändert; der minimale Negativtrend ist wegen der enormen Streuung der Einzelwerte nicht signifikant. Fast schneefrei war dort (weit vor Latifs Zeiten) der Winter 1948/49; während der Winter 2016/17 eine annähernd durchschnittliche Anzahl von 32 Schneedeckentagen erreichte.

Der amerikanische Wetterdienst NOAA erfasst seit 50 Jahren unter anderem die Größe der schneebedeckten Flächen des Superkontinents Eurasien, zu welchem auch Mitteleuropa gehört. Die Werte für den aktuellen Winter, welcher eine überdurchschnittliche Schneebedeckung im Dezember und Januar aufwies, liegen noch nicht vor; aber auch so zeigt sich statt der erwarteten Ab- eine deutliche Zunahme:

Abbildung 3: Die winterliche Schneebedeckung Eurasiens (Kontinente Asien und Europa) dehnte sich aus, anstatt zu schrumpfen. Für den Winter 2016/17, der hier noch nicht enthalten ist, wird eine überdurchschnittliche von Schnee bedeckte Fläche erwartet.

Seit etwa 30 Jahren blieb außerdem der vorhergesagte winterliche Temperaturanstieg in Deutschland aus; hier am Beispiel der DWD- Station Erfurt/Weimar gezeigt:

Abbildung 4: Keine winterliche Erwärmung an der Flughafen-Station Erfurt/Weimar trotz steigender CO2- Werte seit 30 Jahren. Im Deutschland-Mittel zeigt sich ein ähnliches Verhalten; bei der enormen Streuung der Wintermittel ist die geringe, erkennbare Abkühlung aber nicht signifikant.

Bliebe noch die Frage mit der erwarteten Häufung der Westwetterlagen zu klären. In Deutschland werden zwei Klassifikationsverfahren zur Ermittlung der Großwetterlagen genutzt; Näheres dazu unter https://eike.institute/2016/10/19/wetterlagenhaeufigkeit-und-jahrestemperaturverhalten-in-deutschland/ . Weil die (insgesamt genauere) „Objektive“ Wetterlagenklassifikation erst seit Mitte 1979 möglich ist, beginnt die folgende Grafik mit dem Winter 1979/80. Der an Westlagen relativ arme Winter 2016/17 ist noch nicht enthalten; trotzdem zeigt sich bei allen Klassifikationsmethoden (zwei nach HESS/BREZOWSKY, eine nach der objektiven Methode) keine Häufigkeitszunahme von Westwetterlagen seit mehr als 35 Jahren:

Abbildung 5: Keine Häufigkeitszunahme von Westwetterlagen seit mehr als 35 Jahren: Oben (dunkelviolett) das Objektive Klassifikationsverfahren, Mitte (rosa) alle Großwettertypen mit Westanteil (West-, Südwest- und Nordwestlagen), unten nur der Großwettertyp West, jeweils nach HESS/BREZOWSKY. Keiner der Trends ist signifikant.

Keine erfreulichen Nachrichten für Herrn Latif also, dem deswegen ein Karikaturist (Quelle: Science Skeptical Blog, Michael Krüger) eine Pinocchio- Nase verpasst hat.

Abbildung 6: Lange Gesichter und lange Nasen bei Mojib Latif und den anderen etablierten Klimaforschern: Das Klima will nicht so recht nach ihrer Pfeife tanzen.

Lediglich anhand der Langfrist-Werte (verfügbar in Deutschland seit dem Winter 1881/82) könnte Herr Latif etwas Hoffnung schöpfen. Diese zeigen (noch) einen leichten Temperaturanstieg in Deutschland (allerdings nicht wärmeinselbereinigt) bei einer Häufigkeitszunahme der Westwetterlagen nach HESS/BREZOWSKY. Jedoch deutet sich auch hier die Umkehr der Entwicklung ab spätestens etwa dem Jahr 2000 an; ob diese anhält, muss aber noch abgewartet werden:

Abbildung 7: Um 1915 und kurz vor der Jahrtausendwende wiesen Westlagenhäufigkeit und Wintertemperaturen Maxima auf. Mit einem Bestimmtheitsmaß von 46% erstaunlich eng ist der Zusammenhang zwischen der Häufigkeit aller Großwetterlagen mit Westanteil (rotviolett) und den deutschen Wintertemperaturen. Aber seit etwa 2 Jahrzehnten deutet sich ein leichter Rückgang an – weitere Entwicklung völlig offen.

Ursachen und Besonderheiten der Winterwitterung 2016/17

Der Winter 2016/17 war relativ arm an windigen, intensiven Westwetterlagen und deshalb zeitweise kalt. Eine mögliche Ursache hierfür ist die AMO, eine periodische Schwankung der Wassertemperaturen im Nordatlantik. In diesem Winter waren die AMO- Werte sehr hoch. Den spiegelbildlichen Zusammenhang zwischen AMO- Werten und Westlagenhäufigkeit illustriert die Abbildung 8:

Abbildung 8: Um 1915 und kurz vor der Jahrtausendwende wies die Westlagenhäufigkeit Maxima auf, was die Serienhäufung milder Winter und die insgesamt etwas höheren Wintertemperaturen in diesen Zeiträumen teilweise erklärt. Die AMO verhielt sich dazu invers, in ihren Maxima (kurz vor 1900, späte 1930er bis 1960er, 2000er Jahre) waren die Winter ärmer an Westlagen und tendenziell etwas kälter. Auch diese Zusammenhänge sind grob und können nicht alle winterlichen Witterungsabläufe erklären.

Zahlreiche andere Einflussgrößen auf die Winterwitterung, unter anderem die NAO, die QBO und die Vorwitterung, sollen aus Zeitgründen hier nur erwähnt werden; Näheres dazu unter https://eike.institute/2016/12/03/wintervorschau-201617-widerspruechliche-prognosesignale/ . Auffallend waren in diesem Winter aber besonders zwei nicht zu unterschätzende Einflussgrößen – die geringe Sonnenaktivität und die geringe Stärke des Polarwirbels. Tendenziell tritt eine Schwächung der milden Westwetterlagen, welche sich auch an der geringeren Geschwindigkeit der Westströmung im 500 hPa- Niveau (mittlere Troposphäre, entspricht etwa 5500 Metern Höhe) zeigt, bei geringerer Sonnenaktivität auf:

Abb. 9: Zonalwindmittel für den meteorolog. Winter (rot, oben) in der Druckfläche 500 hPa (entspricht etwa 5.500 Metern Höhe im Mittel) am Gitterpunkt 50°N und 10°E (Zentraldeutschland), dazu die Sonnenfleckenzahlen mit einem Monat Versatz früher wegen der verzögerten Auswirkung (gelb, unten) mit jeweils 11-jährigen Gleitmitteln. Man erkennt in Phasen erhöhter Sonnenaktivität tendenziell eine erhöhte Zonalwindgeschwindigkeit; wobei die Sonnenfleckenanzahl die solare Aktivität aber nur sehr grob abbildet.

Der Polarwirbel in der Stratosphäre war in diesem Winter auffallend häufig gestört beziehungsweise nur schwach ausgebildet, besonders im Januar und Februar, was ebenfalls zur zeitweisen Schwächung der Westwind-Zirkulation beigetragen hat:

Abbildungen 10a und 10b: Ein fast ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre, obere Abbildung) ist fast kreisrund und in der Arktis extrem kalt (violette Farbtöne), was Westwetterlagen begünstigt, welche in Deutschland mild sind. Diese Situation herrschte zum milden Weihnachtsfest 2016 (Westwetterlage). Unten die Situation 3 Wochen später – Mitte Januar 2017. Der Polarwirbel ist stark deformiert, hat seinen Schwerpunkt über dem amerikanischen Sektor der Arktis und ist weniger kalt. Zu diesem Zeitpunkt begann über Mitteleuropa eine längere, intensive Kältewelle. Quelle: Meteociel (Französischer Wetterdienst).

Der Winter 2016/17 wies ungewöhnlich viele Hochdruckwetterlagen auf. Dabei wurde im Dezember ein neuer Rekordwert des Luftdruckmittels in Potsdam registriert, und erstmals seit der Erfassung der Großwetterlagen nach HESS/BREZOWSKY (ab 1881) waren alle 31 Dezembertage antizyklonal (überwiegend von Hochdruckgebieten beeinflusst). Im Dezember/Januar befand sich der hohe Luftdruck vorwiegend über Mitteleuropa, was vor allem in Süd- und Mitteldeutschland für kältere Witterungsabschnitte sorgte; während es an den Küsten zu mild blieb; Näheres dazu unter https://eike.institute/2016/12/30/dezemberrueckblick-2016-hochwinterausblick-2017/?print=print und https://eike.institute/2017/01/27/eiskalt-erwischt-der-januar-2017-straft-die-theorie-der-klimaerwaermung-luegen/ . Bei einer weiteren Kältewelle in der ersten Februarhälfte lag das Hochdruckgebiet über Skandinavien, so dass nun vor allem die Nordosthälfte Deutschlands von Kaltluft mit Dauerfrost beherrscht wurde:

Abbildung 11: Ein sehr kräftiges Skandinavien-Hoch lenkte Kaltluft in den Nordosten Deutschlands. Anders als im Dezember/Januar herrschte nun nahe der Ostsee das kälteste Winterwetter, während es im Südwesten relativ mild blieb. Zur Monatsmitte verlagerte sich das Hoch südwärts, so dass es bei südlichem Wind überall sehr mild wurde.

Die vielen Hochdruckwetterlagen wurden auffallend häufig von Nebel begleitet, der oft gefror. Im Zuge der hohen Sonnenaktivität, der Luftreinhaltemaßnahmen und der Häufung windig-milder Westlagen war die Zahl der Nebeltage in den 1990er und den frühen 2000er Jahren im Winter stark zurückgegangen. Ob dieser teils neblige Winter 2016/17 eine Trendwende zu wieder mehr Nebeltagen einleitete, muss noch abgewartet werden:

Abbildung 12: Auf dem Höhepunkt der Luftverschmutzung zwischen den 1950er und den 1980er Jahren gab es in Potsdam besonders viele winterliche Nebeltage; danach wurden sie auffallend selten.

Die Schattenseiten des Hochdruck-Winters 2016/17: Dunkelflauten und Niederschlagsarmut

Der alte DDR- Witz von den vier Hauptfeinden des Sozialismus (Frühling, Sommer, Herbst und Winter) ist angesichts der deutschen „Energiewende“ leider aktueller denn je. Im Winter machen windschwache Hochdruckwetterlagen und die kurze Sonnenscheindauer eine ausreichende Stromversorgung aus „erneuerbaren“ Quellen unmöglich – egal, wie viele „Solar- und Windparks“ man für teures Geld zur immer weiteren Landschaftsverschandelung aufstellt, und effektive Speichermöglichkeiten fehlen in absehbarer Zeit. Die folgende Grafik spricht für sich und zeigt exemplarisch die geringe Bereitstellung von „erneuerbarer“ Elektroenergie am 24. Januar 2017; ähnliche Fälle finden sich auch im Dezember 2016 und im Februar 2017:

Abbildung 13: Der Löwenanteil des benötigten Stroms in Deutschland (graublau, deutlich mehr als 85%) musste am 24. Januar 2017 konventionell erzeugt werden; der Wind, der „angeblich immer irgendwo weht“, war selbst auf dem Meer zu schwach und die Sonne schien nur kurz- eine echte „Dunkelflaute“. Doch hier handelt es sich nur um die Stromproduktion – bei Betrachtung der gesamten, benötigten Primärenergie würde der Anteil der „Erneuerbaren“ fast gegen Null gehen. Quelle agora-energiewende.de, nachbearbeitet von Stefan Kämpfe.

Die Schneemassen in den Gebirgen täuschen – in weiten Regionen Deutschlands waren alle 3 Wintermonate deutlich zu trocken; schon jetzt führen die meisten Flüsse extrem wenig Wasser. Die Regenfälle nach Mitte Februar konnten das Defizit nur wenig verringern. Das könnte nicht nur für die Schifffahrt und die Kraftwerke (Kühlwasser!) problematisch werden, so dass massive Versorgungsprobleme drohen, sondern auch für die Landwirtschaft, falls nicht dauerhaft reichliche Niederschläge fallen. Nach nur im weitesten Sinne ähnlicher Vorwitterung waren die Sommer 1947, 1982 und 2003 sehr trocken; allerdings verbietet die geringe Zahl der Vergleichsfälle eine Prognose. Die in diesem Winter rekordverdächtig geringe Eisausdehnung im Arktischen Ozean (eine Folge der hohen AMO- Werte) könnte, falls sie auch bis ins Frühjahr so unterdurchschnittlich bleiben und die AMO- Werte sehr hoch bleiben sollten, die Frühlingstemperaturen in Deutschland positiv beeinflussen; speziell die des Aprils:

Abbildung 14: Aprilmonate mit geringer Eisausdehnung in der Arktis fallen in Deutschland tendenziell wärmer aus (negative Korrelation). Der mäßige Zusammenhang ist für eine sichere Prognose aber unzureichend; und im März und Mai fällt er deutlich geringer aus.

Momentan mehren sich aber auch sonst Anzeichen für ein eher zu warmes, zeitiges Frühjahr und einen relativ warmen Sommer, was meist mit Trockenheit verbunden ist; auch die Modellrechnungen deuten in diese Richtung; freilich sind sie noch sehr unsicher:

Abbildung 15: Der für die Vegetationsentwicklung entscheidende Zeitraum (April bis Juni) könnte etwas zu warm ausfallen. Quelle: NOAA (USA- Wetterdienst). Die „Prognose“ ist aber mit großen Unsicherheiten behaftet.

Fazit: Dank vieler Hochdruckwetterlagen fiel der Winter 2016/17 deutlich kälter und trockener als seine Vorgänger aus und ermöglichte endlich wieder über längere Zeiträume gute Wintersportbedingungen auf Naturschnee. In der Endabrechnung war er fast temperaturnormal. Auch tendenziell über längere Zeiträume betrachtet, lassen sich weder eine besorgniserregende winterliche Erwärmung, noch eine merkliche Abnahme der Schneebedeckung oder eine merkliche Zunahme der Westwetterlagen erkennen. Ein zeitiges, relativ mildes Frühjahr und ein eher warmer Sommer 2017 deuten sich an; sie lassen sich aber nicht sicher vorhersagen.

Im Teil 2 werden die Prognosen für den Winter 2016/17 einer kritischen Prüfung unterzogen.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Computer-Prophe­zeiungen von Klima­alarm sind inhärent fehlerhaft

Die Autorin der Studie, die bedeutende amerikanische Klimatologin Prof. Judith Curry erklärt, dass der Klimaalarm auf hoch komplexen Computer-Simulationen des Klimas der Erde beruht.

Aber obwohl Wissenschaftler sich seit Jahrzehnten mit der Entwicklung derselben befasst haben, müssen diese Simulationen immer noch „frisiert“ werden, um sie dem realen Klima anzupassen. Dies macht sie im Wesentlichen unbrauchbar für den Versuch herauszufinden, was Änderungen des Klimas verursacht, und es macht sie unzuverlässig für Prophezeiungen, was in der Zukunft passieren wird.

Prof. Curry: „Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Prof. Curry kündigte kürzlich an, dass sie ihre akademische Laufbahn aufgegeben habe infolge von Angriffen auf ihre Forschungen und dem „Idiotismus“ [craziness] der Klimadebatte.

Einschub des Übersetzers: Das gesamte PDF steht hier . Die ,Executive Summary‘ lautet [Ende Einschub]:

Executive Summary

Es gibt eine große Debatte über Genauigkeit und Brauchbarkeit von globalen Klimamodellen (GCMs). Diese Debatte findet innerhalb der Gemeinschaft der Klimawissenschaftler statt, die sich über das Gewicht uneinig sind, welches man Computermodellen relativ zu Beobachtungen beimessen sollte. GCM-Outputs werden auch von Ökonomen, Gesetzgebern und Politikern herangezogen, weshalb die Modelle Gegenstand sehr genauer Überprüfungen seitens einer größeren Gemeinschaft von Wissenschaftlern, Ingenieuren, Software-Experten und Wissenschaftsphilosophen waren und sind. Dieser Report versucht, die Debatte um die GCMs zu beschreiben für eine gebildete, aber nicht technisch bewanderte Zuhörerschaft.

Schlüsselpunkte der Summary:

GCMs wurden niemals einer rigorosen Verifikation und Validierung unterzogen, welche jedoch die Norm sind im Ingenieurswesen und in der behördlichen Wissenschaft.

Es gibt wohlbegründete Bedenken hinsichtlich eines fundamentalen Fehlens von Vorhersagbarkeit im komplexen, nicht linearen Klimasystem.

Es gibt zahlreiche Argumente, die die Schlussfolgerung stützen, der zufolge Klimamodelle nicht geeignet sind für das Ziel, den Anteil der Erwärmung des 20. Jahrhunderts mit hoher Sicherheit zu identifizieren, der im Gegensatz zu natürlichen Kräften anthropogenen Ursachen zuzuschreiben ist.

Es gibt immer mehr Beweise dafür, dass Klimamodelle viel zu viel Erwärmung prophezeien infolge des steigenden atmosphärischen CO2-Gehaltes.

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, wie sie vom IPCC bekannt gegeben werden, enthalten nicht entscheidende Elemente der Klimavariabilität und sind daher wenig nützlich für Projektionen, wie sich das Klima im 21. Jahrhundert tatsächlich entwickeln wird.

Klimamodelle sind nützliche Utensilien für die Durchführung wissenschaftlicher Forschungen, um das Klimasystem besser zu verstehen. Allerdings führen die oben genannten Punkte zu der Schlussfolgerung, dass die gegenwärtigen GCMs nicht geeignet sind, um die Gründe der Erwärmung des 20. Jahrhunderts anzugeben oder die Vorhersage globaler oder regionaler Klimaänderungen im Zeitmaßstab von Jahrzehnten bis Jahrhunderten vorzunehmen, mit welch hohem Niveau von Vertrauen auch immer. Übertragen bedeutet dies, dass sie keineswegs herangezogen werden sollten für politische Entscheidungen, die die Sozial-, Ökonomie- oder Energiesysteme der Erde fundamental verändern. Es ist diese Anwendung der Ergebnisse von Klimamodellen, welche die Lautstärke der Debatte um Klimamodelle befeuern.

———————————————-

Hier folgt jetzt noch die Zusammenfassung am Schluss der Studie:

Summary

Es gibt immer mehr Beweise, dass Klimamodelle viel zu warm ausfallen und dass die Klimasensitivität bzgl. Kohlendioxid am untersten Rand der vom IPCC angegebenen Bandbreite liegt. Nichtsdestotrotz wird diesen niedrigeren Werten der Klimasensitivität in den IPCC-Klimamodell-Projektionen bis zum Ende des 21. Jahrhunderts oder bei Schätzungen der Reduktion von CO2-Emissionen auf die Temperatur in keiner Weise Rechnung getragen. Die IPCC-Klimamodell-Simulationen konzentrieren sich auf die Reaktionen des Klimas bei verschiedenen Emissions-Szenarien. In den Klimamodell-Projektionen für das 21. Jahrhundert sind nicht enthalten:

Eine Bandbreite von Szenarien bzgl. vulkanischer Eruptionen (die Modelle nehmen an, dass die vulkanische Aktivität im 21. Jahrhundert mit derjenigen im 20. Jahrhundert vergleichbar ist, obwohl die Aktivität in Letzterem deutlich geringer war als im 19. Jahrhundert).

Ein mögliches Szenario solarer Abkühlung analog dem solaren Minimum, welches von russischen Wissenschaftlern vorhergesagt wird.

Die Möglichkeit, dass die Klimasensitivität um einen Faktor zwei niedriger ist als von den meisten Klimamodellen simuliert.

Realistische Simulationen von Phase und Amplitude der natürlichen internen Klimavariabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten.

Die Gemeinschaft der Klima-Modellierer konzentrierte sich auf die Reaktion des Klimas auf vom Menschen verursachte Emissionen, und die politische Gemeinschaft akzeptiert (entweder explizit oder implizit) die Ergebnisse der Simulationen für das 21. Jahrhundert als tatsächliche Prophezeiungen. Folglich fehlt uns bislang ein gutes Verständnis der relativen Klimaauswirkungen auf die oben genannten Parameter oder dessen potentielle Auswirkungen auf die Entwicklung des Klimas im 21. Jahrhunderts.

Übersetzt von Chris Frey EIKE




Deutschlands Erneuer­bare-Revolution destabili­siert die Stromnetze seiner Nachbarn

Eine Schlacht tobt in Mitteleuropa. Es geht um das Gleichgewicht der Strom-Macht. [Unübersetzbares Wortspiel: The balance of power – the electrical kind. ,Power‘ ist ein Teekessel und bedeutet sowohl Macht als auch Energie oder Strom. Diese Doppelbedeutung ist nicht übersetzbar, aber für mich hoch interessant! Anm. d. Übers.]

Polen und die Tschechische Republik sehen Deutschland als einen Aggressor, der viel zu viel Strom erzeugt und diesen über seine Grenzen hinweg entsorgt. Deutschland selbst sieht sich dagegen als ein Pionier grüner Energie, der unfairen Angriffen seitens weniger innovativer Nachbarn ausgesetzt ist.

Als Teil von Kanzlerin Merkels Energiewende [auch im Amerikanischen steht das Wort so im Original, Anm. d. Übers] wird Deutschland seine Kernkraftwerke bis zum Jahre 2022 vom Netz nehmen und durch rapide sich ausweitende Wind- und Solarenergie ersetzen.

Aber die volatilen Erneuerbaren spielen nicht immer mit, und die Deutschen sind auch von Kohle- und Gaskraftwerken abhängig, um die Lichter nicht ausgehen zu lassen.

Dies führt an sonnigen und windigen Tagen zu Problemen, wenn Deutschland weitaus mehr Strom erzeugt als es braucht. Die überschüssige Energie ergießt sich über die Grenzen auf polnisches und tschechisches Gebiet, was dort die ernste Gefahr von Zusammenbrüchen der Netze heraufbeschwört.

Das ist „ein Kollateralschaden einer rein politischen Entscheidung der deutschen Regierung“, sagte Barbora Peterova, die Sprecherin des nationalen Netzes in Tschechien. Es hatte zuvor „keinerlei Konsultationen oder Diskussionen hinsichtlich der Auswirkungen gegeben“.

Deutschlands Unternehmen bestreiten nicht, dass der erratische Energiefluss ein Problem ist, aber sie argumentieren, dass die Überspannungen großenteils veralteten Netzen beiderseits der Grenze geschuldet sind.

„Eine Kette ist nur so stark wie ihr schwächstes Glied“, sagte Gert Schwarzbach, Direktor von 50Hertz Transmission GmbH, einem Netzbetreiber, der zuständig ist für Stromleitungen nach Polen und die Tschechische Republik in Nordostdeutschland.

[Im Original ist hier ein interessantes Bild von Getty Images, das aus urheberrechtlichen Gründen nicht übernommen werden kann. Anm. d. Übers.]

Aber das Problem wurde erheblich verschlimmert durch Deutschlands Jahrzehnte langen [bislang vergeblichen] Kampf, Hochspannungsleitungen zu installieren, die mehr Energie von seinen Windmühlen im stürmischen Norddeutschland zu den industriellen Zentren in Süddeutschland leiten sollen. Diese Verzögerung zwang Deutschland dazu, die Netze der Nachbarn in Anspruch zu nehmen, um Energie nach Süden zu leiten, was deren Netze schwer unter Stress setzt mit dem Risiko von Blackouts.

„Der überschüssige Strom hat alle Netzanschlüsse verstopft“, sagte Grzegorz Wilinski, ein leitender polnischer Stromfunktionär. [a senior official at the Polish Electricity Association and deputy director of strategy at Polska Grupa Energetyczna SA, Poland’s biggest energy company.]

Um die Last der deutschen Überschuss-Energie zu tragen, investieren Prag und Warschau derzeit Millionen in stärkere Hochspannungsleitungen und in Transformatoren an der Grenze, um die deutsche Energie direkt nach Deutschland zurückzuleiten.

CEPS und der polnische Netzbetreiber Polskie Sieci Elektroenergetyczne SA haben etwa 115 Millionen Euro für diese massiven Transformatoren ausgegeben, bekannt als Phasenschieber. Polen hat im vorigen Jahr 300 Millionen Dollar investiert, um seine Netze und Unterstationen auf den neuesten Stand zu bringen.

Full Story [paywalled]

Link: http://www.thegwpf.com/germanys-renewables-revolution-threatens-neighbours-with-grid-collapse/

Übersetzt von Chris Frey EIKE




Spekulant und Skeptiker macht Kasse mit bankrott gehenden Solarunter­nehmen

Der am meisten gehasste Spekulant gibt nicht auf

von Brian Eckhouse

Als das Unternehmen SolarCity von Elon Musk vor etwa einem Jahr Aktienanalysten zu sich einlud, um sich über ihre Chancen in der Solarbranche auszulassen, war der Name Gordon Johnson nirgendwo zu finden.

Es scheint, als ob Johnson, ein 36 Jahre alter Analyst von der Beraterfirma Axiom Capital Management Inc. nicht darunter war. Das muss nicht ein Versehen gewesen sein; es passiert ihm oftmals.

Jeder hasst mich“, sagte der in New York ansässige Analyst im Scherz, womit er seinen Ruf als berüchtigter Solar-Spekulant meinte, der für seine markigen Sprüche bekannte Contrarian unter einer Gruppe von Analysten, die im Allgemeinen optimistisch bzgl. der langfristigen Perspektiven der Industrie sind. „Unternehmen mögen mich nicht, weil ich ihre Aktienwerte einstufen kann“.

Dieser Tage hat Johnson eine Verkaufsempfehlung von jeder Aktie, der er seine Aufmerksamkeit widmet (einschließlich einiger Stahlunternehmen), und er hat einen neuen Grund – Donald Trump. Johnson geht davon aus, dass der Präsident, ein Kritiker von Erneuerbaren während seiner gesamten Kampagne, versuchen könnte, Subventionen der öffentlichen Hand für Solar zu widerrufen – eine Minderheiten-Meinung. „Dies wäre ein großes Negativum für Erneuerbare, besonders Solar“, sagt Johnson. Auch eine Steuerreform wäre schädlich.

Als Solar-Skeptiker seit seiner Anstellung bei Lehman Brothers vor einem Jahrzehnt ist Johnson nicht beliebt unter den von ihm beobachteten Unternehmen, um andere Analysten der Wall Street nicht zu erwähnen. Einige sehen in ihm lediglich ein Verbündeten von Hedge Fonds und anderen Spekulationsobjekten, die seine Kunden sind, und dass er manchmal einfach nur Glück hat bei seinen Aktivitäten, welche die anderen als „Solar-Achterbahn“ [ solar-coaster]bezeichnen.

Johnsons konträrer Standpunkt leitet sich aus einer einfachen These ab: Solar, sagt er, kann niemals mit Erdgas konkurrieren oder dieses gar ersetzen, weil Solar nicht Energie rund um die Uhr zur Verfügung stellen kann und weil Solar erheblicher Subventionen bedarf, um wettbewerbsfähig zu sein.

Mehr: https://www.bloomberg.com/news/articles/2017-02-16/frozen-out-by-ceos-solar-s-most-hated-bear-sticks-to-his-guns

Spekulantentum wird in der gängigen Presse stark geschmäht, wobei die Reporter es oftmals als ein gefährliches Spiel charakterisieren, welches von Abbruch-Unternehmen [wreckers] gespielt wird.

Die Realität ist, dass eine Spekulation nur funktioniert, falls das anvisierte Unternehmen bereits abbruchreif ist. Spekulation klärt das Nebelmeer und enthüllt die hässliche Realität hinter den Hochglanz-Broschüren und den rosigen, hochgejubelten Vorhersagen. Spekulation zwingt Investoren, unbequeme Fragen zu stellen – Fragen, von denen sich die anvisierten Unternehmen wünschen, dass sie unbeantwortet bleiben.

Ich zweifle, dass Johnson demnächst die Erneuerbaren-Unternehmen ausgehen für seine Spekulationen.

Im Artikel werden detailliert einige Fälle genannt, bei denen sich Johnson geirrt hat. Die Art der Handelsaktivitäten von Johnson sind potentiell höchst lukrativ, bergen aber meiner Ansicht nach auch ein hohes Risiko – ein Irrtum kann einen das Hemd kosten. Dein Geld, dein Risiko, deine Verantwortung.

Link: https://wattsupwiththat.com/2017/02/20/short-selling-skeptic-cashing-in-on-solar-company-collapses/

Übersetzt von Chris Frey EIKE




Fünf-Billionen-Dollar-Plan zur Rettung des Eises in der Arktis

Forscher fordern: Rettung der Arktis mit schwimmenden, mit Windenergie betriebenen Eismaschinen im Wert von 5 Billionen Dollar

Tristin Hopper am 16. Februar 2017

Angesichts des Umstandes, dass sich die Arktis rascher erwärmt als jedes andere Gebiet der Erde schlägt eine neue wissenschaftliche Studie ein radikales Programm vor, um die Eiskappe dicker zu machen: Millionen und Abermillionen autonome Eismaschinen.

Im Einzelnen mittels 10 bis 100 Millionen schwimmender, mit Windenergie betriebener Pumpen, die während des Winters Wasser auf dem Meereis versprühen sollen.

Das sind teure Vorschläge, aber mit den Mitteln von Regierungen in einer Größenordnung durchführbar, welche vergleichbar ist mit dem Manhattan Project“ [= dem Bau der ersten Atombombe in WW II. Anm. d. Übers.] heißt es in der Studie, die in der Ausgabe von Earth’s Future am 24. Januar veröffentlicht worden ist. Das Journal selbst wird von der American Physical Union vertrieben.

Der Plan wäre eines der teuersten Einzelprojekte der Weltgeschichte, ein Unterfangen in der Größenordnung der International Space Station ISS, der gesamten US-Autoindustrie oder einem großen globalen Konflikt wie dem Irak-Krieg.

Der ambitioniertesten Version des Planes zufolge würden 100 Millionen Maschinen dieser Art über die Arktis verteilt.

Nichtsdestotrotz nennen die Forscher von der Arizona State University die Kosten mit Hinblick auf das Endziel „ökonomisch machbar“ und die Auswirkung auf die Umwelt „vernachlässigbar“.

Allerdings brachten sie auch einen weniger kostenintensiven Plan im Wert von 500 Milliarden Dollar ins Spiel, dem zufolge die Eismaschinen nur etwa 10% der Arktis überdecken sollen.

Die Notwendigkeit ist dringend, lassen doch die normalen Abkühlungseffekte sommerlichen Meereises schon jetzt nach und könnten in weniger als zwei Jahrzehnten ganz verschwunden sein“, heißt es in der Studie.

Die Eismaschinen-Flotte würde so ausgestattet, dass sie einen zusätzlichen Meter Meereis in der Arktis schafft – in jedem Winter.

Der Report enthält keine spezifischen Vorschläge hinsichtlich des Designs der Wasserpumpen, beschreibt sie aber als Windturbinen und einem Tank, der auf einer Boje montiert ist.

Mehr: http://news.nationalpost.com/news/canada/save-the-arctic-with-5-trillion-of-floating-wind-powered-ice-machines-researchers-recommend

Das Abstract der Studie liest sich so:

Earth’s Future Arctic ice management

Steven J. Desch, Nathan Smith, Christopher Groppi, Perry Vargas, Rebecca Jackson,Anusha Kalyaan, Peter Nguyen, Luke Probst, Mark E. Rubin, Heather Singleton, Alexander Spacek, Amanda Truitt,PyePyeZaw, and Hilairy E. Hartnett

Mit der vonstatten gegangenen Änderung des Erdklimas hat sich die Ausdehnung des arktischen Meereises drastisch verringert. Es ist wahrscheinlich, dass die Arktis jeweils zum Ende des Sommers schon in den dreißiger Jahren dieses Jahrhunderts eisfrei ist. Dieser Meereis-Verlust stellt einen der ernstesten positiven Rückkopplungs-Effekte im Klimasystem dar, würde doch Sonnenlicht, das anderenfalls vom Meereis reflektiert werden würde, vom Ozean absorbiert. Es ist unwahrscheinlich, dass CO2-Niveau und Temperatur rechtzeitig verringert werden können, um diesen Verlust zu verhindern, darum ist die künstliche Wiederherstellung von Meereis ein Muss. [Hilfe! Und für so einen Quatsch gibt es Fördergelder – vom Steuerzahler!! Anm. d. Übers.] Hier untersuchen wir, wie man zur Verstärkung der Meereisbildung in der Arktis vorgehen könnte, und zwar mittels Windenergie, um während des arktischen Winters Wasser auf der Eisoberfläche zu versprühen, wo es schneller gefrieren wird. Wir zeigen, dass es möglich ist dort, wo geeignete Apparate zum Einsatz kommen, die Eisdicke über das natürliche Niveau hinaus zunehmen zu lassen, und zwar um etwa 1 m im Verlauf des Winters. Wir untersuchen die Auswirkungen dieses Vorgehens auf das arktische Klima, und kommen zu dem Ergebnis, dass ein derartiges Unterfangen auf 10% der Fläche der Arktis, besonders dort, wo das Überdauern des Eises marginal ist, die gegenwärtigen Trends des Eisverlustes mehr als umkehren kann. Wir regen an, dass die Verdickung winterlichen Eises mittels per Windenergie angetriebener Pumpen in Erwägung gezogen wird und sehen es als Teil einer multilateralen Strategie zur Wiederherstellung des Meereises und zum Anhalten der stärksten Rückkopplungen im Klimasystem.

Mehr: http://onlinelibrary.wiley.com/doi/10.1002/2016EF000410/epdf

Die gesamte Idee ist absurd, aber selbst wenn wir akzeptieren, dass es eines Tages aus welchen Gründen auch immer notwendig wird, Wasser auf das Meereis in dieser Größenordnung zu pumpen, wäre es viel einfacher, Kernkraft anstatt Windenergie einzusetzen.

Das in der Studie in den Abschnitten 1.3 erwähnte Energie-Budget beträgt 1300 GW Energie, 7% des gegenwärtigen globalen Energie-Budgets. Die größten, derzeit in Betrieb befindlichen Kernkraftwerke erzeugen rund 8 GW Energie. Falls man die Kosten der Konstruktion eines Reaktors mit 5 Milliarden Dollar ansetzt (man denke an Massenproduktion), würde sich die Gesamtrechnung der Konstruktion auf 800 Milliarden Dollar belaufen – drastisch weniger als die in der Studie geschätzten 5 Billionen Dollar.

Außerdem wären Kernreaktoren viel weniger in Gefahr zu vereisen wie die Turbine im Bild oben.

Ich werde nicht einmal ansatzweise Überlegungen anstellen über die Folgekosten von Unterhalt und Wartung all dieser Windanlagen in der harten arktischen Umgebung, die nichts verzeiht.

Link: https://wattsupwiththat.com/2017/02/18/five-trillion-dollar-plan-to-save-the-arctic-ice/

Übersetzt von Chris Frey EIKE




Der Klimawandel lebt nur noch von Wieder­holungen

Potzblitz!

So nennt sich der Artikel mit dem Interview in der Printausgabe. Anfangs kommt etwas interessante Information, bis die Redakteurinnen ab der Hälfte zu ihrem wirklichen Anliegen überleiten und dem Betreiber mit ihren Fragen die gewünschten Antworten in den Mund legen:
RedakteurIn: „Sie haben vor zwei Jahren gesagt, dass weltweite Krisen die Klimaproblematik in den Hintergrund gedrängt haben. Das gilt heute nicht mehr. Kann das Thema warten?
Betreiber: „Es ist wichtiger denn je. … Aber durch die Erderwärmung werden zum Beispiel Hungersnöte und Flüchtlingsbewegungen zunehmen.
RedakteurIn: „ D. Trump … Zum Chef der Umweltbehörde machte er einen Klimawandel-Leugner … „
Betreiber: „Das ist für mich Zensur… mir blutet da das Herz … Trump glaubt wissenschaftlichen Erkenntnissen nicht ... „
RedakteurIn: „Haben Sie einen Beweis für Trump
Betreiber: „Die Forschungen von Tausenden von Experten … lassen keinen anderen Schluss zu. Das ist Konsens unter 99,9 Prozent der Wissenschaftler. Die Anzeichen, dass es diesen Klimawandel gibt, werden immer deutlicher. Eisschollen brechen in der Antarktis ab, der Meeresspiegel steigt. Wetterextreme nehmen zu: heiße Sommer, kältere Winter, heftigere Unwetter und Überschwemmungen.“
RedakteurIn: „Macht Ihnen der Klimawandel und seine Folgen Angst?
Betreiber: „ … ich habe nicht direkt Angst, aber man muss diese Veränderungen durchaus mit Sorge betrachten.

Rezension

Ein Artikel, welcher in dieser Kürze eine so geballte Ladung an Klimawandel-Plattitüden listet, muss fast als eigenständige Leistung des Redakteurinnen-Teams betrachtet werden. Nur werden die Inhalte dadurch nicht investigativer.

Mehrmals wurde über Aktivisten berichtet, welche bewusst apokalyptische Aussagen manipulieren:
EIKE: Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen
EIKE: Der Krieg des Klimas gegen die Menschheit, Über den weltweit bekanntesten Klimaaktivisten Bill McKibben
klimaretter.info: [2] Klimaflüchtlinge, die nicht flüchten
Leider sind beim Klimawandel falsche Informationen dank unserer Medien so „gängig“, dass selbst Personen, welche es besser wissen könnten, daran glauben, da es Ihnen an einer wichtigen Grundeigenschaft wissenschaftlichen Arbeitens – dem Hinterfragen – mangelt. Und dies kann man auch beim Betreiber der Wetterstation (der öfters von lokalen Zeitungen zu Wetterthemen interviewt wird) vermuten. Klar ist natürlich auch: Würde er nicht so antworten, wäre es mit der Reputation bei den Zeitungen wohl schnell vorbei.

So, wie die Aktivisten und selbst ernannte „Fachpersonen“ immer neu ihre alten „Belege“ wiederholen, erlaubt sich der Autor zu diesem Artikel „seine“ zu wiederholen.

„Hungersnöte und Flüchtlingsbewegungen“ nehmen zu“.

Dazu lohnt es sich, einen Bericht des Spiegel aus dem Jahr 2011 nachzulesen.
Spiegel Online: [3] Warnung von 2005 Prognose zu Klimaflüchtlingen bringt Uno in Bedrängnis
Hungersnöte, Völkerwanderungen, Seuchen und Kriege – oft hat das Wetter historische Umbrüche befördert. 2005 verkündeten die Vereinten Nationen, das Klima könnte nun erneut gravierend eingreifen in die Kulturgeschichte: Bis 2010 könnten 50 Millionen Menschen wegen der Erderwärmung auf der Flucht sein, erklärten das Uno-Umweltprogramm (Unep) sowie die Universität der Vereinten Nationen (Unu) 2005.
Doch jetzt distanziert sich die Uno gegenüber SPIEGEL ONLINE von der Prognose: „Dies ist keine Unep-Vorhersage“, hieß es auf Anfrage. Die entsprechende Mitteilung auf der Unep-Internetseite wurde gelöscht. Offizielle Statistiken zeigen, dass die Bevölkerung in angeblichen Gefahrenregionen sogar wächst. Und vorhergesagte Umweltkatastrophen sind bislang nicht eingetreten.

Schaut man dann genauer in „Klimafüchtlings-„ Meldungen, zeigt sich häufig ein typisches Muster:
ungebremstes Bevölkerungswachstum und Missmanagement treffen auf begrenzte Ressourcen.
Ein typisches Beispiel dafür ist eine ehemalige Kornkammer Afrikas, Simbabwe. Obwohl sich seit 1983 (man könnte auch 1902 nehmen) weder an der Temperatur, noch am Niederschlag etwas signifikant verändert hat, brechen die Ernteerträge drastisch ein, während die Bevölkerung überproportional zunimmt:
Simbabwe 1960 – 2010
Bevölkerungswachstum: +340 %,
Ernteerträge: Niedriger als 1960

Bild 1 Simbabwe Ertrag Getreide gesamt (blau) und Bevölkerungsentwicklung (violette Linie), dazu der weltweite Weizenertrag. Beachten: Vertikalachsen-Maßstäbe sind unterschiedlich. Quellen: fact fish, Vom Autor ergänzt.

Bild 2 Zimbabwe Temperatur und Niederschlag von 1901 – 2012 Quelle: THE WORLD BANK GROUP Climate Change Knowledge Portal

Man braucht nicht zu raten, wer daran Schuld haben muss. Aber was dagegen vom Westen vorgeschlagen wird, ist schon mehr als Satire:

[5] adelphi: Unterstützung der Regierung von Simbabwe bei der Entwicklung nationaler Klimaschutz-Zusagen
Ziel dieser Einrichtung war es, die am wenigsten entwickelten Ländern der Welt (LDC) oder Kleine Inselentwicklungsländer (SIDS) bei der Entwicklung eigener nationaler Klimaschutz-Zusagen (INDC) zu unterstützen. INDC sind die individuellen Verpflichtungen der Vertragsstaaten zur Minderung von Treibhausgasen im Sinne des Pariser Klimavertrags.

Der Berliner Tagesspiegel, damals noch nicht so durchgrünt wie heute, hatte es auf den Punkt gebracht und zudem fast hellseherisch aufgezeigt, was Deutschland mit seiner Klimahysterie noch blühen kann:
DER TAGESSPIEGEL, 13.05.2007: Simbabwes Klimamodell
Es nicht so, dass Simbabwe gar nichts gegen die Klimaerwärmung getan hätte. Genau genommen hat Diktator Robert Mugabe das Modell Ostdeutschland – wenn die Fabriken dicht machen, nützt das dem Klima – ein wenig überinterpretriert. Er hat Simbabwes Wirtschaft so gründlich ruiniert, dass sich die Mehrheit der Simbabwer weder Petroleum noch Benzin leisten können, die Traktoren auf den meisten Farmen stillstehen und die Stromversorgung für Haushalte auf vier Stunden am Tag beschränkt bleibt. Simbabwes Modell ist also Klimaschutz durch Verelendung bei einer Inflation von aktuell 2200 Prozent – genau das Gegenteil von dem, was die UN wollen. Nachhaltig ist nur, wie Mugabe sein einst reiches und vorbildhaftes Land zu Grunde gerichtet hat.

Nicht jedes Land ist regiert wie Simbabwe, doch wiederholen sich in den Ländern die typischen Klimazyklen „ … seit 30 Jahren hat es nicht mehr so wenig geregnet … „, ist auch dort nicht die Natur, sondern sofort der Klimawandel schuld.
EIKE: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia
EIKE: SPIEGEL ONLINE: Der Klimawandel ist nicht für den Syrienkrieg verantwortlich

An diesen Darstellungen wird sich nichts ändern. Einmal „erzwingt“ der Klimafond diese Argumentation, da sie den lokalen Clans in den Regierungen sicher und problemlos Geld in die Kassen spült und zudem haben die das Geld vergebenden Organisationen ebenfalls kein Interesse daran, die Argumentation zu versachlichen:

kaltesonne: Bericht der UN-Organisation FAO: 842 Millionen Menschen hungern

Die kanadische Journalistin Donna Laframboise erstellte vor zwei Jahren eine aufsehenerregende Detail-Analyse der Zusammensetzung des IPCC-Expertengremiums, wobei zum Vorschein kam, dass ein Großteil der Schlüsselpositionen durch Vertreter von Umweltaktivistenorganisationen wie WWF und Greenpeace besetzt war. Sehr schön alles nachzulesen in ihrem Buch. Unverständlicherweise ist dies sogar auch noch in der aktuellen fünften Ausgabe des Klimaberichts der Fall wie Laframboise in einem Artikel vom 24. September im Wall Street Journal zeigen konnte.

Nur dadurch lässt sich auch erklären, warum keine Medien über die Segnungen der kleinen Erwärmung seit der für die Menschheit auf der Nordhemisphäre grausamen Zwischenkaltzeit (in dieser Zeit lagen die letzten wetterbedingten großen Hungersnöte Europas) berichten.

Zum Beispiel weder darüber, dass der Sahel als typisch genannte Problemzone dank dem sich wandelnden Klima grüner wird:
kaltesonne: Der Klimawandel bringt der Sahelzone mehr Niederschlag,
noch über die gewaltigen Ertragssteigerungen der Ernten:
EIKE: Ernteerträge und Klimawandel.
Stattdessen wird erklärt, dass der Biolandbau weltweit verstärkt werden muss, obwohl dieser Mehraufwand verursacht und trotzdem vergleichbar nur ca. 60 % Ernteertrag liefert. Damit wollen unsere „Gutmenschen“ dann dem Problem der Überbevölkerung in unterentwickelten Ländern begegnen.

SWISSAID: Bio-Landbau besiegt den Hunger
Welche Ertrags-Risiken bis zum Totalverlust diese Bauern eingehen, erleben unsere Biobauern jährlich neu. Nur mit dem Unterschied, dass die Deutschen Biobauern vom Staat deshalb überproportional subventioniert werden, weil der Verkaufserlös und das Ertragsrisiko Risiko nicht einmal bei uns zum Überleben reichen würde.
EIKE: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
EIKE: Biobauern darben ohne Klimawandel (und extremen Subventionen)
(Anmerkung: Dies wurde gerade in einem Interview der nordbayerischen Nachrichten vom 13. Februar mit dem oberfränkischen Bezirkspräsidenten des Bayerischen Bauernverbandes und einem Bio-Bauern erneut bestätigt).

„ … Trump glaubt wissenschaftlichen Erkenntnissen nicht …“

ist einer der häufigen „Belege“, wenn nichts mehr an Argumentation einfällt, und der auch vom neuen Klimaapostel Harald Lesch ständig wiederholt wird:
EIKE: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

Dabei ist gerade der anthropogene Klimawandel eines der zweifelhaftesten Wissenschaftsthemen des Jahrhunderts mit der Vermutung, dass es sich dabei vielleicht um den größten Wissenschaftsirrtum des Jahrhunderts, manche sprechen auch von Betrug, handelt.

Um das festzustellen, muss man allerdings den Mut haben, das Thema auch kritisch zu betrachten und nicht fest daran zu glauben, dass sich wissenschaftliche Erkenntnisse durch Abstimmungen und Einfluss von Aktivisten ergeben.

„ … Das ist Konsens unter 99,9 Prozent der Wissenschaftler … “

Hat sich eine Aussage erst einmal lange genug verbreitet, wird sie nicht mehr hinterfragt. So ist es auch mit der (Un-) Wissenschaftlichkeit eines Konsenses in der Wissenschaft. Entweder ist es bewiesen, oder ein offenes Thema. Wenn aber das dazu errichtete Weltgremium IPCC weder den Auftrag hat, das Thema neutral zu untersuchen und zudem von Aktivisten durchsetzt ist, sind Abstimmungen vollkommen wertlos, beziehungsweise so aussagekräftig wie in den ehemaligen sozialistischen Ländern.

Im Artikel: [4] „Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor“,
wurde zudem gelistet, dass die angeblichen 99,9 % einer der typischen Treppenwitze der Geschichte sind. Denn es gibt weder „die eine Konsensumfrage“:
[4] In der jüngsten Konsensusstudie: JohnCook at al.: Consensus on consensus, sind von 1991 bis 2014 alleine 14 Konsensusumfragen gelistet,
noch ist man sich im Konsens selbst einig:
Spiegel Online, 23.09.2014:[3] Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
Ruhrkultour: [8] Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler
Von den rund 12.000 Veröffentlichungen bestätigte nur rund ein Drittel der Wissenschaftler, 32,6 Prozent, die Ansicht, dass die globale Erwärmung durch Menschen verursacht sei (Anthropogenic Global Warming-AGW), 97 Prozent dieses Drittels, nicht der Gesamtmenge, hielt “die jüngste Erwärmung vor allem von Menschen gemacht”. Die Mehrheit der Wissenschaftler, 66,4 Prozent, bezog keine Position zum AGW. Aber die Zahl 97 machte weltweit die Runde. Noch am selben Tag der Veröffentlichung des IOP twitterte der Präsident der USA, Barack Obama: (Bild)

Bild 3 Tweet von B. Obama zur Konsensstudie

Wer möchte, kann die Zustimmung von B. Obama gerne als Beleg betrachten, doch wissenschaftlicher wird er dadurch nicht.

Den „Konsens“ gibt es nur, wenn man gegenteilige Meinungen ignoriert

Nicht nur zufällig „vergessen“ die Berichter des „Klimakonsens“ zu erwähnen, dass es auch das Gegenteil in der Klimawissenschaft gibt:
Natural News, August 31, 2016: Over 37,000 Scientists Sign On Against Man-Made Global Warming Fraud!
kaltesonne: Größte unabhängige Forschungsorganisation Norwegens: Es gibt keinen wissenschaftlichen Konsens in den Klimawissenschaften
Die größte unabhängige Forschungsorganisation Norwegens, die SINTEF, gab Mitte April 2013 einen neuen Bericht mit dem Titel “Konsensus und Kontroverse” heraus, in dem die wissenschaftliche Klimadebatte kritisch analysiert wurde. Der Bericht ist im Internet als pdf frei verfügbar. … In der Kurzfassung der lesenswerten Studie fasst SINTEF zusammen:
Dieser Bericht lehnt das Konzept ab, dass es einen einstimmigen wissenschaftlichen Konsensus zur Frage der anthropogenen Klimaerwärmung gäbe und dass die wissenschaftlichen Grundlagen heute vollständig bekannt wären. Der Bericht schlußfolgert, dass eine bedeutende kritische wissenschaftliche Diskussion in den Klimawissenschaften existiert. In dieser Diskussion einen Konsensus herbeiführen zu wollen entspricht einem politisierten und unwissenschaftlichen Glauben an die Forschung, welcher mit dem Ethos der traditionellen Wissenschaft unvereinbar ist.
… Zunächst kann festgestellt werden, dass die Behauptung schlichtweg falsch ist, dass jegliche Zweifel in der Klimadebatte ausgeräumt wären. Trotz eines hohes Maßes an Übereinstimmung in der wissenschaftlichen Literatur darüber, dass eine menschengemachte Klimaerwärmung prinzipiell existiert, gibt es in der Diskussion eine Vielzahl von abweichenden Meinungen, offene Fragen und gegenteilige Ansichten, sowohl in der wissenschaftlichen Debatte als auch in der öffentlichen Meinung. Die Behauptung “alle Zweifel sind heute ausgeräumt” ist daher unhaltbar.

Nicht die Klimawissenschaft muss schlecht sein, aber viele ihrer Ableitungen sind es

Man kann davon ausgehen, dass weder die zwei RedakteurInnen, noch der Betreiber der Wetterstation sich vertieft mit Klima(wandel)studien beschäftigt haben. Wer einfach exemplarisch das international angelegte P2K-Studienprojekt zur (versuchten) Rekonstruktion der historischen Temperaturen betrachtet, zweifelt nicht an der Wissenschaft selbst, aber daran, wie diese behaupten kann, aus vollkommen ungeeignetem Datenmüll genaueste Aussagen ableiten zu können, anstelle zuzugeben, dass man in Wirklichkeit ganz neu anfangen müsste, zuerst einmal glaubhafte Daten zu gewinnen.
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Das Bild 4 der Temperaturproxis Asien vom Jahr 0 – 2000 aus dem Pages2k-Viewer soll es verdeutlichen. Das statistische Ergebnis ist ein waagerechter Strich mit ganz engem Vertrauensbereich, da dieser stur mit der Anzahl Proben immer enger wird. Am Ende den Proxi-Mittelwertstriche mit den Thermometertemperaturen seit ca. 1850 erweitert, und egal, was man macht, es kommt ein statisch extrem vertrauenswürdiger Hockeystik heraus. Nimmt man anstelle des Proxisalates einfach Rauschen, bleibt die Kurve die Gleiche. Ein „Belegexperiment“ für eine berühmte Temperaturkurve, die sich immer neu selbst belegt.

Bild 4 Temperatur-Proxirekonstruktionen Asien. Quelle: Pages2k-Viewer

Wie unwissenschaftlich und ganz einfach auch falsch daraus abgeleitete Aussagen dann sind, hat kaltesonne gerade wieder „ausgegraben“: Planet Schule patzt beim Klimawandel

… Planet Schule hat wieder neue Klimaalarm-Filme im Programm (“Wo das Klima auf der Kippe steht”), so dass auch die Kleinsten in den Klimaalarm eingeweiht werden können. Die Filme laufen in verschiedenen Dritten Programmen, sind aber auch online hier verfügbar. Den Schülern wird darin vorgegaukelt, dass das Klima früher durchgehend konstant und angenehm gewesen wäre. Erst als der Mensch die Bühne betrat, habe sich das Klima dann extremisiert. Eine romantische Vorstellung, die jedoch komplett an der Realität vorbei geht. Fake News. In Wahrheit unterlag das Klima der vergangenen 10.000 Jahren enormen natürlichen Schwankungen. Die will man den Schülern natürlich nicht zumuten, “vereinfachen” heißt das wohl. Ansonsten könnten Justin und Julia auf die Idee kommen, dass die heutigen Schwankungen wohl Teil dieser Langfristentwicklung wären… Original-Aussage aus dem Film (Südafrika):
“Laut Nasa-Wissenschaftlern ändert sich das Klima heute hundertmal so schnell, wie in der Vergangenheit”.
Diese Aussage ist falsch. Eigentlich müsste der entsprechende Film sofort aus dem Verkehr gezogen werden.

Es bleibt einfach unverständlich, wie eine „Wissenschaft“, welche es nötig hat, jährlich auf „Wanderzirkus-Veranstaltungen“ mit 30 … 50.000 Teilnehmern, von denen die absolute Mehrheit ausschließlich Aktivisten sind, über ihre Aussagen abzustimmen, von unseren Medien – und vorgeblichen Fachpersonen – ernst genommen wird.

Und ob das „Berichtsteam“ der nordbayerischen Nachrichten jemals Artikel wie den aktuellen auf NoTricksZone zu den inzwischen schon regelmäßigen Temperaturmanipulationen gelesen hat:
Global Temperature Data Manipulation:
Thousands Of Non-Urban Thermometers Removed
0.3°C Of Pause-Busting Warmth Added Since 1998,
0.5°C Of Warming Removed From 1880-1950 Trend,

Oder EIKE: Wie die neue Software der NOAA die regionale Erwärmung antreibt,
darf man ebenfalls bezweifeln.

Wie eine solche Richtigstellung „falscher“ Messungen in der Vergangenheit an die aktuellen politischen Vorgaben in der Praxis aussieht, zeigt der folgende Bildvergleich mit dem Temperaturverlauf von Capetown, Südafrika.

Bild 5 GISS Temperaturdaten von Capetown, Südafrika von 1880 – 2015. Linkes Bild Rohdaten, rechtes Bild der homogenisierte Verlauf. Quelle: Screenshots aus dem NASA-Viewer

„ … Die Anzeichen, dass es diesen Klimawandel gibt, werden immer deutlicher …“

Man muss leider feststellten, dass wirklich seltenst jemand in den IPCC Langbericht sieht und dort nachliest, was man in der Kurzfassung für Politiker bewusst an Information weggelassen hat. Genau unter die Weglassungen fallen die Aussagen (im Langbericht), dass der Klimawandel nicht belegt werden kann (vollständige Listung siehe Schlusskapitel „IPCC Aussagen“). Aber auch neuere Publizierungen bleiben – sofern sie den Klimawandel nicht bestätigen – vollkommen unbeachtet.

Wie leicht zudem eindeutig andere Ursachen ganz aktuell vor aller Augen bewusst verfälschend einem Klimawandel zugewiesen werden, zeigen die Unwetter des letzten Jahres ganz exemplarisch:
EIKE: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
dessen Beispiel sich natürlich auch an vielen anderen Ereignissen feststellen lässt:
Sowohl in Deutschland:
EIKE: Der Klimamonitoringbericht 2016 für Süddeutschland,
wie auch international:
EIKE: Klimazombis, die nicht sterben dürfen, wie der Poopó-See in Bolivien
EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2: So viel Meerespegel und Stürme hat es vor dem Klimawandel nie gegeben
kaltesonne: University of Cambridge: Extremwetter in der ersten Hälfte des 20. Jahrhunderts häufiger als in der zweiten Hälfte.

… Eisschollen brechen in der Antarktis ab …“

Und nun brechen in der Antarktis als „Klimawandel-Beleg“ Eisschollen ab, was wohl demonstrieren soll, dass es dort auch alarmistisch wärmer geworden wäre. Die Frage ist nur, wie will die Klimwa(wandel)wissenschaft dies feststellen?
Die Proxirekonstruktionen des immerhin umfassendsten AGW-Rechercheprojektes lassen im langfristigen Maßstab überhaupt keinen Beleg für wärmer oder kälter zu. Und für die Arktis würde man danach eher leicht „kälter“ vermuten.

Bild 6 Temperatur-Proxirekonstruktionen Antarktis. Quelle: Pages2k-Viewer

Doch auch die Arktis, welche sich laut unseren Medien geradezu überhitzt, zeigt im langfristigen Vergleich wenig davon, so man aus dem Proxi-Datensalat überhaupt etwas ableiten will.

Bild 7 Temperatur-Proxirekonstruktionen Arktis. Quelle: Pages2k-Viewer

Leider musste selbst die NASA feststellen, dass die Antarktis an Eis zunimmt und damit weit weniger als bisher angenommen, zum Meeresspiegelanstieg beitragen kann:
kaltesonne, 31. Dezember 2015: NASA-Studie mit überraschendem Befund: Antarktische Eiskappe wächst derzeit und bremst globalen Meeresspiegelanstieg
Die Meldung schlug ein wie ein Blitz: Die Antarktis verliert derzeit nicht etwa an Eismasse, sondern wächst sogar. Dies berichtete am 30. Oktober 2015 die NASA per Pressemitteilung. Damit steuert die Antarktis momentan nichts zum Meeresspiegelanstieg bei. Im Gegenteil, das Eiswachstum bremst den Anstieg sogar mit 0,23 mm pro Jahr. Die NASA widerspricht damit dem letzten IPCC-Bericht von 2013 (AR5), in dem noch von einem positiven Meeresspiegel-Beitrag der Antarktis von 0,27 mm pro Jahr ausgegangen worden war.
Unterdessen reduzierte eine andere Studie von britischen und französischen Wissenschaftlern auch den zukünftigen Meeresspiegelbeitrag der Antarktis. In einer Pressemitteilung des British Antarctic Survey vom 18. November 2015 teilten die Forscher mit, dass die Antarktis bis 2100 im schlimmsten Fall 30 cm beisteuern würde, was drastisch unter jenen Werten anderer Prognostiker liegt, die wahre Sintfluten heraufziehen sahen. Natürlich fragt man sich, was wohl der wahrscheinlichste Wert ist, der weder in der Pressemiteilung, noch im Abstract der Arbeit genannt wird. Dazu schauen wir in die Originalarbeit und lesen den Wert (50%-Quantil) direkt in der Graphik ab (Abbildung 1). Das Ergebnis: Die Antarktis wird bis 2100 im wahrscheinlichsten Fall 15 cm zum Meeresspiegelanstieg beitragen.

Dass das Abbrechen von Schelfeis nichts mit einem Klimawandel zu tun hat, ist auch Meinung kompetenter Klimawissenschaftler. Doch in der Berichterstattung zeigt sich, ist solche Kenntnis „nicht erwünscht“:
kaltesonne: No-News: Kein Klimawandel auf der britischen Halley-Station in der Antarktis
Am 20. Januar 2017 ging es in der  BBC-Sendung “Science in Action” um den Zwangsumzug der Britischen Antarktis Station Halley VI. Kurios: Während in der Anmoderation noch wie üblich davon geredet wurde, dass man besonders in der Antarktis den “long term effect of Global Warming” fürchten müsse, widersprach der verantwortliche Chefwissenschaftler des British Antarctic Survey BAS (ab 6:30 Laufzeit) ganz entschieden der Behauptung, dass der Riss im Eisschelf etwas mit Klimaerwärmung zu tun habe. Prof. David Vaughan meinte dazu unter anderem:
“…it would be a mistake to connect this immediately with some kind of global warming. At Halley, where we have measured the temperature routinely on a daily basis for almost 50 years, we haven’t seen any evidence for climate change in that area…”
Diese glasklare Aussage von Seiten des führenden britischen Antarktis Forschers ist freilich eine köstliche Ohrfeige für all die zahllosen Medien, welche den nötigen Umzug der Station, sofort und reflexhaft, dem anthropogenen Klimawandel anlasteten. Negativbeispiele z.B. beim ORF, NZZ, Krone. Aber auch der stets klima-besorgten BBC war das Zitat von Prof. Vaughan offenbar zu ehrlich und klimarealistisch und deswegen wurde es in der sonst eigentlich ausführlicheren Schwester-Sendung “The Science Hour” herausgeschnitten und durch eine deutlich abgeschwächte Formulierung eines Moderators ersetzt

„ … der Meeresspiegel steigt … „

Wenn dem so ist, kann der Meeresspiegel aber niemals wie immer noch – vor allem vom deutschen PIK – simuliert, überproportional ansteigen.

Bild 8 [8] mit simulierten Pegelprojektionen
Und genau das macht er auch nicht. Weder in der angeblich alle Atolle verschlingenden Südsee:

Bild 8.1 Pegeldaten von Fidschi und weiteren umliegenden Messstationen im Süd-Pazifik seit 1966 (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Bild 9 Pegeldaten von Brest (Frankreich) 1810 – 2015, Quelle: PSMSL Pegeldaten

Was einen GRÜNEN Minister natürlich nicht daran hindert, das Gegenteil als gesichertes, ideologisches Wissen seiner Partei zu verkünden:
05.01.2016 Niedersachsen Umweltminister Wenzel: „Happy Birthday, Nationalpark Wattenmeer!
… Als größte Bedrohung für den Naturschutz im Wattenmeer bezeichnete der Minister den Klimawandel und den Anstieg des Meeresspiegels …,
obwohl eine Pegelstudie der Uni Siegen im Jahr 2013 auch für die Deutsche Nordseeküste ganz konkret Entwarnung gab:
WESTFALENPOST 31.07.2013: Nordsee-Forschung: Meeresspiegel steigt pro Jahr um 1,7 Millimeter

Es könnte natürlich weltweit gesehen anders sein, doch auch das ist nicht der Fall. Seit Anfang 1800 verbessert sich die Messgenauigkeit, die Anstiegsrate der Tidenpegel ändert sich weltweit aber nicht.

Bild 10 [6] PSMSL Jevrejeva et al, 2014, Global Mean Sea Level Reconstruction von 1807 – 2010. Linke Achse: gsl rate (grün), rechte Achse: absoluter Pegel (blau)
PSMSL Datenbeschreibung (Auszug): This page provides a short description and file with data of global sea level reconstruction for the period 1807-2010 by Jevrejeva, S., J. C. Moore, A. Grinsted, A. P. Matthews and G. Spada.
Authors have used 1277 tide gauge records of relative sea level (RSL) monthly mean time series from the Permanent Service for Mean Sea Level (PSMSL) database

Man lernt daraus: Fake-News sind ausschließlich solche mit der politisch unerwünschten Meinung.

Macht Ihnen der Klimawandel und seine Folgen Angst?

Die RedakteurInnen erhalten wenigstens darauf eine leidlich realistische Antwort: Angst hat der Betreiber keine, aber er macht sich trotzdem vorsichtshalber (für die Redaktion?) Sorgen.

In vielen EIKE-Artikeln hat der Autor gezeigt, dass die meisten angeblichen Klimawandel-Veränderungen im historischen Kontext betrachtet nicht vorliegen und der wichtigste Beleg, die Erwärmung hätte erst mit dem Beginn der Industrialisierung angefangen, nicht haltbar ist, da es spätestens schon gegen 1650 begann wärmer zu werden, siehe
EIKE: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende.,
mit dem folgenden Bild daraus:

Bild 11 Vergleich der neuen Klimarekonstruktionen (LOC 2k und LOC 500y) mit anderen Rekonstruktionen aus dem IPCC AR5

Doch auch mittelfristig besteht keinerlei Anlass zu Sorgen:
EIKE 05.11.2016: Novemberrückschau Klima und EEG: Nichts Neues, nur Deutschland ist recht kalt geworden,
wie es die mit Satelliten gemessen Temperaturkurve der europäischen Breiten der Nordhemisphäre (welche nicht so stark manipuliert werden, wie die mit Thermometern gemessenen) unbestechlich zeigen:

Bild 12 UAH-Satellitendaten der mittleren nördlichen Breiten (25 … 60 Grad), bodennahe Schichten. Vom Autor aus der Datentabelle erstellt.

wie man es auch detaillierter auf EIKE und auf englischsprachigen Portalen nachlesen kann:
NoTricksZone: The earth is greening and 16 other comments on climate hysteria

Womit nur die Sorge übrig bleibt, es könnte bald wieder so kalt werden wie zur Zeit vor dem Beginn der industriellen Revolution, oder weit Schlimmeres:
EIKE: Man sollte schon langsam an die nächste Eiszeit denken

Vielleicht gibt jedoch das Wetter in Roßtal zu Sorgen Anlass

Die Daten der Wetterstation lassen sich ab dem Jahr 2003 anzeigen. Wenn nicht überall davon geredet würde, dass der CO2-Ausstoß ungebremst zunimmt und man zur Verhinderung des Schlimmsten sofort massivst reduzieren muss, würde man denken können, der Mensch habe dank einer schon gelungenen 0-Setzung des CO2-Ausstoßes die Lenkung des Wetters zum linearen Idealverlauf gut in den Griff bekommen.
Zum Glück ist dem nicht so, sonst wäre der Beleg für die Unhaltbarkeit der Klimawandel-Hypothese (angeblicher, direkter Zusammenhang zwischen der Erwärmung und dem anthropogenen CO2-Eintrag) verschwunden.

So zeigt die Wetterstation „Wetter Roßtal“:
Die Temperatur steigt keinesfalls ungebremst immer höher (obwohl alle Medien laufend davon berichten):

Bild 13 Temperaturdaten der privaten Wetterstation Wetter Roßtal von 8.2003 – 14.2.2017

Der Niederschlag und auch die Niederschlags-Spitzen nehmen nicht zu (obwohl es wegen der angeblich zunehmenden Wärme doch immer mehr Feuchte in der Luft gibt, die vermehrt sintflutartig niederregnet),

Bild 14 Niederschlagsdaten der privaten Wetterstation Wetter Roßtal von 8.2003 – 14.2.2017

Der Wind nimmt nicht zu (obwohl verstärkt auftretende Stürme eine typische Begleiterscheinung des Klimawandels sein sollen).

Bild 15 Windwerte der privaten Wetterstation Wetter Roßtal von 8.2003 – 14.2.2017

In meiner Zeitung steht, was die ganze Wahrheit braucht. Weil sie unabhängig berichtet und Hintergründe aufdeckt

Die nordbayerischen Nachrichten werben ganzseitig mit den folgenden Aussagen:
WEIL JEDES WORT DEN BLICK ERWEITERT … in meiner Zeitung steht, was die ganze Wahrheit braucht. Weil sie unabhängig berichtet und Hintergründe aufdeckt“.
Das Thema wäre eine gute Gelegenheit gewesen, es zu belegen, doch wurde diese Gelegenheit ganz bewusst ausgelassen. Wirklich schade, denn das Thema böte viel Stoff für interessante Artikel.

Gleich eine Woche später zeigte die Redaktion zudem exemplarisch, dass sie kein Interesse daran hat, den Lesern „ … was die ganze Wahrheit braucht“ zu bieten und nahe daran ist, eher in die Richtung „ … presse“ zu tendieren.

Im Rahmen ihrer nun erkennbaren Medienkampagne zur Unterstützung der Klimawandel-Hysterie brachte die Zeitung am 18.02. einen mehr als halbseitigen Artikel „Weg mit dem Eisbär“, in dem ausschließlich ein Klimawandel-NGO „Climate Outreach“ sozusagen als Werbeagentur mitteilt, wie man durch Weglassen von Information und Konzentration auf Plakatives den Glauben an den Klimawandel stärkt. Selbstverständlich durfte auch dort vollkommen unreflektiert wiederholt werden: … worum es geht, nämlich um Stürme, Fluten und Dürren, um Hunger, versinkende Welten, Städte ohne Luft zum Atmen.
Nicht einmal über das inzwischen allseits bekannte Lügenmärchen der angeblich vom Klimawandel bedrohten Eisbären wurde informiert.
EIKE: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)

Unter „WISSEN KOMPAKT“ auf der gleichen Seite dann noch eine Information, welche an Suggestion und Weglassung wirklicher Information in der Kürze kaum überbietbar ist:

Teures Leugnen
„Der neue US-Präsident Donald Trump leugnet hartnäckig die Klimaerwärmung (siehe oben). Doch mit seiner Politik könnte Trump den USA deutliche Mehrkosten bescheren: US-Forscher haben ermittelt, dass der steigende Stromverbrauch für Kühlung an immer heißer werdenden Tagen das US-Stromnetz bis zum Ende des Jahrhunderts an seine Kapazitätsgrenzen führen wird. Um eine Überlastung zu verhindern, wären Investitionen von bis zu 180 Milliarden US-Dollar nötig.

Die Amis wird diese auf Simulation beruhende Information wohl eher kalt lassen, denn Wärmer ist es in Amerika bisher nicht geworden (die höchste Temperatur in den USA wurde 1913 gemessen), dafür werden sie trotz „Klimawandel“ weiterhin regelmäßig von Kältewellen geplagt. Da sind dann die Netze nicht nur überlastet, sondern wegen der Blizzards fallen die Masten um und es kommt überhaupt kein Strom.
kaltesonne: In den nordöstlichen USA hat es im Winter 2014/15 so viel geschneit wie seit 300 Jahren nicht mehr
kaltesonne: Neue Nature-Studie: US-Wetter hat sich in den letzten 40 Jahren deutlich verbessert. Winter wärmer, Sommer gleichbleibend
Und Leser, welche die EEG-Entwicklung bei uns kritisch verfolgen, werden sich sagen: Dem Deutschen Stromnetz wird dies viel früher passieren und zu weit höheren Kosten. Allerdings mit dem gegenteiligen Vorzeichen, der Bejahung der Klimahysterie.
EIKE: DDR 2.0 – oder wie ich lernte die Energiewende als Erfolgsgeschichte zu sehen!
EIKE: Deutschlands Energiewende-Alptraum: Netzzusammenbruch wegen unregelmäßiger Wind- und Sonnenenergie kommt näher

„ … Wetterextreme nehmen zu … „

IPCC Aussagen des letzten Sachstandsberichtes zu Extremereignissen.

Praktisch alle Extremereignis-Aussagen der Vorgängerberichte mussten zurückgenommen oder relativiert werden. Deshalb erschienen diese Informationen nur im Langbericht und wurden im Summary weggelassen.

Tropische Stürme und Hurrikane
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Tropische Zyklone
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”
Übersetzung: “Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

Außertropische Zyklonen
IPCC 2013, AR5, WGI, Kapitel 2, Seite 220: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”
Übersetzung: “Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Dürren
IPCC 2013, AR5, WGI, Technical Summery, Seite 50: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”
Übersetzung: “Es besteht ein geringes Vertrauen im globalen Maßstab beobachteten Trend an Dürre oder Trockenheit (Mangel an Niederschlag), aus Mangel an direkten Beobachtungen, Abhängigkeiten von abgeleiteten Trends auf der Indexauswahl und wegen geographischer Unstimmigkeiten in den Trends.“
sowie
IPCC 2013, AR5, WGI, Kapitel 2, Seite 215: “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”
Übersetzung: „Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es zur Zeit nicht genug Hinweise und [nur] ein geringes Vertrauen in einen beobachteten globalen Trend an Dürre oder Trockenheit (Mangel an Niederschlägen) gibt, aus Mangel an direkten Beobachtungen in der Mitte des 20. Jahrhunderts, geographischen Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends auf der Indexauswahl. Auf Basis aktualisierter Studien waren die AR4-Schlußfolgerungen bezüglich global zunehmender Trends an Dürre seit den 1970er Jahren wahrscheinlich übertrieben. Es ist jedoch wahrscheinlich, dass die Häufigkeit und Intensität von Dürre im Mittelmeerraum und Westafrika sich erhöhen könnte und im Zentrum von Nordamerika und Nordwest-Australien seit 1950 abnehmen könnte.“

Überflutungen
IPCC 2013, AR5, WGI, Technical Summery, Seite 112: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”
Übersetzung: “Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“

Hagel und Gewitter
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”
Übersetzung: „Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“

IPCC Zusammenfassung
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Nachtrag
Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen, deutschen Fassung des Summary for policymakers (hier) fehlen!

Quellen

[1] nordbayerische Nachrichten, Lokalausgabe vom 10.02.2017, Artikel: Potzblitz

[2] klimaretter.info: Klimaflüchtlinge, die nicht flüchten

[3] Spiegel Online: Warnung von 2005Prognose zu Klimaflüchtlingen bringt Uno in Bedrängnis

[4] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[5] adelphi: Unterstützung der Regierung von Simbabwe bei der Entwicklung nationaler Klimaschutz-Zusagen
https://www.adelphi.de/de/projekt/unterst%C3%BCtzung-der-regierung-von-simbabwe-bei-der-entwicklung-nationaler-klimaschutz-zusagen

[6] EIKE 18.10.2016: Wie steht es um den Untergang der Marshall-Inseln?
http://www.eike-klima-energie.eu/news-cache/wie-steht-es-um-den-untergang-der-marshall-inseln/

[7] EIKE 01.04.2016: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen




Wo ist der CO2-Treibhaus­effekt? Der Januar wird seit über 30 Jahren kälter

Vollmundig sind die Worte der CO2-Erwärmungsgemeinschaft, wenn es um die Wintererwärmung geht, da sollten doch die deutschen Kinder den Schnee überhaupt nicht mehr kennengelernt haben, und falls ja, dann nur im Hochgebirge. Laut Behauptung des CO2-Erwärmungsorakels sollte doch gerade der Januar und insbesondere die Winter wärmer werden. Tatsache ist: Kein einziger dieser Erwärmungsverkünder, aber auch keiner aus der Gemeinschaft der Erwärmungs-Gläubigen, die man auch immer wieder bei EIKE in den Kommentaren findet, konnte uns eine wärmer werdende Wetterstation aus den letzten 30 Jahren benennen. Gibt es überhaupt eine?

Aber zwei aufmerksame Leser haben sich gemeldet und die Daten von Neugersdorf, eine Wetterstation an der deutsch/polnisch/tschechischen Grenze, und von der Zugspitze, Deutschlands höchstem Berg zugeschickt.

Beginnen wollen wir mit der Zugspitze seit der Einrichtung der Station durch den DWD.

Grafik 1: Auf der x-Achse sind die Temperaturen aufgetragen, auf der y-Achse die 117 Januarmonate. Die Trendlinie verläuft recht ausgeglichen.

Auch die Temperaturen auf Deutschlands höchstem Berg zeigen das übliche Schaubild. Die Januarmonate wurden ab 1900 bis über Jahrhundertemitte hinaus erst einmal kälter, um dann wieder leicht anzusteigen. Nach 1986 erfolgt dann ein plötzlicherTemperatursprung auf ein höheres Niveau, das 1989 erreicht war. Weder die leichte Temperaturabnahme über 60 Jahre zu Beginn des letzten Jahrhunderts, noch der plötzliche Sprung auf das höhere Niveau lassen sich mit einem Kohlendioxidtreibhauseffekt erklären. Erklärungsversuche wie wir sie fast täglich durch Katastrophenscharlatane erleben, sind reine wissenschaftliche Märchen.

30 Jahre sind eine Klimaeinheit. Deshalb betrachten wir die letzten 30 Jahre, in welcher laut Gemeinschaft der Erwärmungsgläubigen die Temperaturen besonders stark gestiegen wären.

Grafik 2: Auch auf der Zugspitze wurde es in den letzten 30 Januarmonaten eindeutig kälter und nicht wärmer.

Fazit: Alle Behauptungen in deutschen Medien über wärmer werdende Winter sind Unwahrheiten. Seriöse Wissenschaftler richten sich nicht nach dem Mehrheits-Glauben und nach der oftmals bombastischen Panikmache von ZDF und dergleichen, sondern nach den Fakten des Deutschen Wetterdienstes. Schon allein diese Grafik der Januartemperaturen der Zugspitze, einer offiziellen DWD-Wetterstation zeigt, dass Kohlendioxid und Temperaturen unabhängig voneinander sind. Eins hat mit dem anderen nichts zu tun. Aus der Grafik müsste man vielmehr schlussfolgern, dass die auf dem Mouna Loa gemessene CO2-Konzentrationszunahme der Atmosphäre eher zu einer Abkühlung in den letzten 30 Jahren in Mitteleuropa geführt hat. Also Klimaabkühlung durch CO2-Zunahme? Hier gilt es, diesen möglichen Zusammenhang in Zukunft näher zu beleuchten. Immerhin gibt es Hypothesen, welche das behaupten.

Und wie reagieren unsere Medien auf die Januargrafiken? Antwort: gar nicht oder mit diesem Trick: Es wird nur die CO2-Zunahme der letzten 30 Jahre gezeigt und den Unwissenden suggeriert, dass auch die Temperaturen ähnlich gestiegen wären. Aber wer fällt darauf rein? Antwort: Viele. Leider auch immer noch viele der EIKE-Kommentarschreiber.

Anmerkung: Grundsätzlich sind die Daten der Zugspitze mit Vorsicht zu betrachten, denn der Berg hat durch den Umbau in den letzten 100 Jahren zur Touristenhochburg einen immensen Wärmeinseleffekt entwickelt, eine menschengemachte Zusatzwärme, welche das Thermometer auf dem Dach des DWD-Hauses mit misst, eine anthropogene Wärmeinsel-Erwärmung, welche in die gemessenen Temperaturerhebungen mit eingeht. Jedoch sind die Besucherströme vorwiegend in den Sommermonaten, so dass der Wärmeinseleffekt im Januar weniger Wirkungen zeigt.

Wetterstation 2: Neugersdorf: sprich Neu-Gersdorf.

Die Daten dieser Station schickte uns ein Leser zu, der in Goldbach bei Bischofswerda selbst seit 22 Jahren eine Wetterstation führt und sich deswegen auch in der Nachbarschaft umtut. Ab 1960 bis 2011 stand die Wetterstation Neugersdorf an einer 50m höher gelegenen Stelle wie momentan. Die Januardaten ab 2012 wurden von der neuen etwas wärmeren Station in der Nähe einer der Spreequellen durch den Stationsleiter auf den ehemaligen Standort umgerechnet. Der Ort selbst ist wärmeinselarm, da die Einwohnerzahl seit der Wende stagniert.

Die Januar-Grafik der letzten 30 Jahre:

Grafik 3: Die fast wärmeinselfreie Wetterstation in Neugersdorf zeigt eine deutliche Abkühlung der Januartemperaturen in den letzten 30 Jahren. Mit y = – 0,11x ist die Trendlinie stark negativ und unterbietet damit deutlich den DWD-Schnitt. Ein richtiger Temperatursturz in der Oberlausitz.

Zum Vergleich, für Gesamtdeutschland sieht das Januarmittel der letzten 30 Jahre, erhoben durch den Deutschen Wetterdienst so aus:

Grafik 4: Die offiziellen Daten des Deutschen Wetterdienstes, ermittelt aus vielen Einzelstationen über ganz Deutschland verteilt, darunter auch viele Städte und Großstädte, zeigen eindeutig, dass der Monat Januar in den letzten 30 Jahren kälter wurde. Wie es weitergeht weiß niemand, da CO2 wirkungslos ist.

Es wird Zeit, dass endlich der Natur- und Umweltschutz in den Mittelpunkt des öffentlichen Handelns gerückt werden und nicht das Geschäftsmodell Klimaschutz. Wir leben derzeit in einer klimatisch sehr ruhigen Periode mit ausgeglichenen Temperaturen. Nur in den Städten wurde es in den letzten 100 Jahren wärmer, was aber nicht durch Kohlendioxid, sondern durch den zunehmenden Wärmeinseleffekt bedingt wurde. Kohlendioxid und Temperaturen haben nichts oder fast nichts miteinander zu tun. Das beweisen gerade die Grafiken dieses Artikels.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher




Rundbrief der GWPF vom 17. Februar 2017

Anzahl der Eisbären immer noch steigend, trotz globaler Erwärmung

Neuen Forschungen zufolge steigt die Eisbär-Population immer weiter, trotz globaler Erwärmung. Die neuen Populations-Schätzungen der Scientific Working Group 2016 liegen irgendwo zwischen 22.633 und 32.257 Bären. Dies wäre eine Gesamt-Zunahme gegenüber dem Vorjahr, als 22.000 bis 31.000 Exemplare geschätzt worden waren. Die gegenwärtigen Zahlen sind eine erhebliche Zunahme gegenüber dem Jahr 2005, als lediglich 20.000 bis 25.000 Bären geschätzt worden waren – und außerdem sind jene Zahlen eine drastische Zunahme gegenüber Schätzungen Ende der sechziger Jahre, als man von 8000 bis 10.000 Bären ausging. Wissenschaftler erkennen immer mehr, dass Eisbären erheblich widerstandsfähiger gegen Änderungen des Niveaus von Meereis sind als Umweltaktivisten geglaubt hatten. – Andrew Follett, The Daily Caller, 16. Februar 2017

Gestützt und bestätigt wird diese Meldung hier:

Jetzt offiziell: Anzahl der Polarbären nimmt weiter zu! – Susan Crockford, Polar Bear Science, 15. Februar 2017

———————————————

Bates, Burgers & die wissenschaftliche Integrität der NOAA

Es geht nicht um David Rose [der es ans Licht gebracht hatte]. Es geht auch nicht um Bates [den Whistleblower]. Es geht um die Umgehung der Verfahren, die eingeführt worden sind, um die Integrität der Daten zu schützen und damit auch den Ruf der NOAA. Es geht darum, was Bates so umrissen hat: „Ethische Standards müssen befolgt werden“. Es kann kein Vertrauen in Daten geben ohne Vertrauen in die Verfahren um Sammlung und Speicherung der Daten. Und Personen oder Organisationen, die diesen Verfahren keinerlei Wert beimessen, erodieren das Vertrauen noch weiter. Toad Liquor, 14. Februar 2017

———————————————

Nicht vor Klima kneifen!

Präsident Trump wird seine Aufmerksamkeit demnächst einem weiteren Versprechen seiner Kampagne zuwenden – der Rücknahme der Klimaagenda von Obama – und einer Quelle aus seiner Regierung zufolge werden Executive Orders zu diesem Thema „die Luft aus dem Raum saugen“. Das ist gut, aber nur, wenn das Team Trump das Vorhaben vollendet und die Pariser Klima-Bemühung in jenes Vakuum sendet. Das ist nicht mehr sicher. Das schlimme Risiko des erbärmlichen Verfahrens sieht so aus: Falls die umweltliche Linke etwas aus den letzten 20 Jahren gelernt hat, dann den Umstand, dass in der juristischen Branche viele zuverlässige Freunde sitzen. Republikaner teilen die grüne Agenda nicht, und die Regierungen der Demokraten, die das tun, sind gehindert durch Gesetze und Vorschriften. Aber Richter erledigen das. Will man eine Schlange auf die Liste gefährdeter Arten setzen? Will man einen Damm stilllegen? Man klage vor einem freundlich gesonnenen Gericht, und man bekommt augenblicklich bindende Ergebnisse. – Kimberley A. Strassel, The Wall Street Journal, 17. Februar 2017 [paywalled]

———————————————

Sind Klima-Alarmisten Kult-Gläubige mit glasigen Augen?

Will Happer ist ein bedeutender Physiker bei Princeton, der sich entschlossen hat, (zusammen mit seinem Kollegen Freeman Dyson) eine Flagge auf der skeptischen Seite der Klimadebatte einzurammen. Jüngst fiel sein Name als potentieller Kandidat als Wissenschaftsberater von Präsident Trump. Kürzlich gab Happer dem Guardian ein Interview. Beim Thema „Klimawandel“ nahm Happer kein Blatt vor den Mund: „Es gibt einen ganzen Bereich der so genannten Klimawissenschaft, der in Wirklichkeit mehr ein Kult ist“, sagte Happer dem Guardian. „Es ist wie Hare Krishna oder so. Sie haben glasige Augen und sie singen. Das wird potentiell das Image der Wissenschaft insgesamt schädigen“. Das Wort „Kult“ mag ein wenig zu hoch gegriffen sein, aber was immer es ist, es ist mit Sicherheit keine Wissenschaft. – Francis Menton, Manhattan Contrarian, 17. Februar 2017

———————————————

Übersetzt von Chris Frey EIKE




Energie-Restrik­tionen, nicht der Klima­wandel, sind das Risiko für Zivili­sationen

McKibbens Artikel ist eine Mischung aus Halbwahrheiten, Irreführung und Fiktion. Er hat die Absicht, die Wired-Leser davon zu überzeugen, dass die Wissenschaft eindeutig ist dergestalt, dass Menschen eine katastrophale globale Erwärmung verursachen. Nichts könnte weiter entfernt von der Wahrheit liegen.

In den neunziger Jahren des 19. Jhh. hat der schwedische Physiker und spätere Gewinner des Nobelpreises Svante Arrhenius die ersten Berechnungen durchgeführt, bei denen er einen steigenden CO2-Gehalt in der Atmosphäre mit Erwärmung in Verbindung brachte. Für Klimaalarmisten wie McKibben ist Arrhenius ein Held. Was er aber wohlweislich nicht erwähnt ist, das Arrhenius keineswegs eine Erwärmung als eine Drohung für die Menschheit ansah, sondern dass er sich im Gegenteil dringend eine wärmere Welt wünschte, die zu bekommen er glaubte. Arrhenius argumentierte, dass die Erwärmung durch menschliche CO2-Emissionen notwendig waren, um eine rapide wachsende Bevölkerung zu ernähren und die nächste Eiszeit auszubremsen.

McKibben vergöttert auch den US-Ozeanographen Roger Revelle, den ehemaligen Präsidenten der American Association for the Advancement of Science, für seine frühen Arbeiten zur globalen Erwärmung. In einer Studie aus dem Jahr 1957, die Revelle zusammen mit Hans Suess durchführte, behaupteten die Forscher, dass die Ozeane der Welt all das überschüssige CO2 aus der Verbrennung fossiler Treibstoffe nicht aufnehmen können, wie es Forscher davor geglaubt hatten. Als Folge davon, sagte Revelle, verursachen die Menschen einen „Treibhauseffekt“, der zu einer „globalen Erwärmung“ führen werde. In seinem Film Eine Unbequeme Wahrheit würdigt der gescheiterte Präsidentschaftskandidat Al Gore die Arbeiten von Revelle, der in Harvard sein Lehrer war und der ihn in den siebziger Jahren auf die Gefahren einer vom Menschen verursachten globalen Erwärmung aufmerksam machte.

Den Worten des unsterblichen Rundfunksprechers Paul Harvey zufolge ist hier „die übrige Story“. Alarmiert darüber, dass seine Arbeiten bzgl. Klima für Bemühungen herangezogen wurden, Gesetzgeber zu nötigen, dramatische Maßnahmen zum Kampf gegen die globale Erwärmung zu ergreifen, schrieb Revelle im Jahre 1991, dem letzten Jahr seines Lebens, in einem Artikel „Die wissenschaftliche Grundlage für eine Treibhaus-Erwärmung ist zu unsicher, um drastische Maßnahmen zu diesem Zeitpunkt zu rechtfertigen. Es gibt kaum ein Risiko dabei, mit politischen Reaktionen noch zu warten“. Revelle und seine Kollegen gingen noch weiter, als sie feststellten: „Drastische, überstürzte – und besonders einseitige – Schritte, die vermeintlichen Treibhaus-Auswirkungen zu verzögern, können Arbeitsplätze und Wohlstand kosten sowie die menschlichen Entbehrungen bei der globalen Armut zunehmen lassen, ohne effektiv zu sein. Stringente ökonomische Kontrollen wären derzeit ökonomisch verheerend besonders für Entwicklungsländer…“.

Und was ist mit dem Pariser Klimaabkommen, bei dem McKibben solche Angst hat, dass Präsident Donald Trump diesen aufkündigen wird? Zwar stimmt es, dass 195 Nationen zugestimmt haben, ihren Kohlendioxid-Ausstoß zu verringern, doch bei genauerem Hinsehen erzählen die Details des Planes eine völlig andere Story.

Das Pariser Klimaabkommen ist ein Papiertiger. Die darin versprochenen Kürzungen der Emissionen sind für die Unterzeichner-Länder nicht bindend, und es sind keine Strafen vorgesehen für Länder, die ihre freiwillig gesetzten Ziele nicht erreichen.

Nach Unterzeichnung des Abkommens räumte man im UN-Umweltprogramm ein, dass selbst wenn alle am Abkommen beteiligten Parteien die versprochenen Emissionsziele erreichen würden, würden die von den Regierungen eingereichten Pläne zu einer weniger als halb so starken Reduktion der Emissionen führen, wie zur Erreichung des 2°C-Zieles erforderlich wären. Diese Tatsache veranlasste James Hansen, den ehemaligen Direktor des Goddard Institute for Space Studies der NASA, zu seinem vernichtenden Urteil des Abkommens gegenüber dem Guardian, von dem er sagte, dass es ein „wirklicher Betrug, ein Fake sei … Es gibt keine Maßnahmen, nur Versprechungen“.

Da das Abkommen nicht mehr ist als eine ein gutes Gefühl vermittelnde Maßnahme, deren wirkliches Ziel es war, den Führern der Welt einen positiven Photo-Termin zu verschaffen, wird es keinen messbaren Einfluss auf das Klima haben, falls Trump sein Wort hält und sich aus dem Abkommen zurückzieht.

Fossile Treibstoffe sind das Lebenselixier der modernen Zivilisation. Wie Alex Epstein in seinem brillanten Buch The Moral Case for Fossil Fuels demonstriert, ermöglichen erst sie die moderne Landwirtschaft, die erforderlich ist, um die Milliarden Menschen auf diesem Planeten zu ernähren, sowie die moderne Medizintechnik, welche für einen drastischen Rückgang der Kindersterblichkeit sowie für längere Lebensdauer gesorgt hat. Man kann keine Krankenhäuser, Ambulanzen, Operationssäle und Kliniken 24 Stunden am Tag betreiben, wenn man nicht Kohle, Erdgas und Öl verbrennt.

Epstein schrieb: „Das Klima ist jetzt nicht mehr ein wesentlicher Grund für Todesfälle, was zum größten Teil den fossilen Treibstoffen zu verdanken ist … Nicht nur, dass wir das Große Ganze ignorieren, indem wir den Kampf gegen die Klimagefahr in den Mittelpunkt unserer Kultur stellen, sondern auch, dass wir den Klimawandel ,bekämpfen‘ mittels Gegnerschaft zu dem Werkzeug, dass das Klima Dutzende Male weniger gefährlich macht. Die öffentliche Klimadiskussion ist rückwärts gewandt. Sie betrachtet den Menschen als eine destruktive Kraft bzgl. der Überlebensfähigkeit im Klima; als einen, der das Klima wegen des Verbrauchs fossiler Treibstoffe gefährlich macht. Tatsächlich ist aber das genaue Gegenteil der Fall: Wir verwandeln ein sicheres Klima nicht in ein gefährliches Klima, sondern wir verwandeln ein gefährliches Klima in ein sicheres Klima.“.

Das ist die wirkliche Story der Relation zwischen fossilen Treibstoffen und der Zivilisation – eine Story, die Misanthropen wie McKibben einfach nicht verstehen [oder nicht verstehen wollen, wie z. B. die gesamte Klimaille hierzulande! Anm. d. Übers.]

[Originally Published at American Spectator]

Link: https://www.heartland.org/news-opinion/news/energy-restrictions-not-climate-change-put-civilizations-at-risk

Übersetzt von Chris Frey EIKE




Weitere Daten-Manipu­lationen seitens NOAA, NASA, HadCRUT … Vergangen­heit kälter, Gegen­wart wärmer gemacht

Um Folgendes geht es:

Manipulation von globalen Temperaturdaten:

Tausende nicht-städtische Messorte wurden ausgesondert

Seit 1998 wurden 0,3°C Wärme hinzugefügt, um den ,Stillstand‘ zu beseitigen

Von dem Trend 1880 bis 1950 wurden 0,5°C Wärme subtrahiert

Im Verlauf der letzten paar Jahrzehnte haben es die drei Hauptbetreiber von Datensätzen der globalen Temperatur vom 19. Jahrhundert bis zur Gegenwart – NOAA, NASA und HadCRUT – erfolgreich geschafft, diese Temperaturaufzeichnungen so zu frisieren, dass sie zu den Ergebnissen der Klimamodelle passen. Genauer, es gab konzertierte Bemühungen, die Vergangenheit kälter zu machen – vor allem die Warmperiode von den zwanziger bis zu den vierziger Jahren – und die Temperaturwerte aus jüngeren Jahrzehnten zu erwärmen, vor allem nach dem Jahr 1950. Auf diese Weise erscheint ein Trend einer starken linearen Erwärmung, der ähnlich aussieht wie die lineare Form anthropogener CO2-Emissionen im 20. und 21. Jahrhundert. Passen die beiden Verläufe besser zusammen, hilft das, eine Kausalität zu implizieren, und diese vorgebliche, in Kausalität umgewandelte Koinzidenz kann dann herangezogen werden, um politische Maßnahmen zu rechtfertigen, die fossile Treibstoffe eliminieren sollen.

Seit den siebziger Jahren wurden 75% aller GHCN-Temperatur-Messpunkte ausgesondert.

Eines der am wenigsten erwähnten Mittel, die zu diesem „Aussehen“ der Temperaturkurve führt, war die tendenziöse und umfassende Aussonderung Tausender Wetterstationen und Messpunkten in abgelegenen Gebieten, auf Bergen und/oder nicht-städtischen Stellen seit den siebziger Jahren. Alle diese Stationen zeigen nicht den von den Modellen prophezeiten Erwärmungstrend, sind sie doch nicht betroffen von der Nähe zu künstlichen oder nicht-klimatischen Heizquellen (befestigte Straßen, Gebäude, Maschinen, Industrie usw.), wie es bei urbanen Messpunkten der Fall ist. (Wie weiter unten detailliert erläutert, kann die Aufstellung von Thermometern nahe urbanen Heizquellen einen Warm-Bias zwischen 0,1°C und 0,4°C pro Jahrzehnt hervorrufen).

Falls eine in krassem Missverhältnis stehende Anzahl NICHT-urbaner Wetterstationen aus dem globalen Temperaturarchiv entfernt werden, erhalten die urban aufgestellten Thermometer ein viel größeres Gewicht als vor der Entfernung der nicht-städtischen Messpunkte. Darum wird eine solche Temperaturaufzeichnung viel mehr Erwärmung zeigen – obwohl diese zusätzliche Wärme nicht klimatischen Ursprungs, sondern künstlich erzeugt ist.

Und genau das ist auch geschehen. Das Global Historical Climatology Network (GHCN) ist die primäre Quelle für Aufzeichnungen von Temperaturdaten aus der ganzen Welt. NOAA, NASA und HadCRUT sind sehr stark von der GHCN-Temperaturhistorie abhängig bei der Konstruktion ihrer globalen Datensätze bis zurück zum 19. Jahrhundert. McKitrick (2010) zufolge gab es noch bis in die siebziger Jahre des vorigen Jahrhunderts hinein zwischen 5000 und 6000 GHCN-Messpunkte auf der ganzen Welt, welche zum Temperaturarchiv beitrugen. Heute (oder bis zum Jahr 2009) sind davon noch etwas über 1000 Stationen übrig geblieben – 75% aller in dem siebziger Jahre noch in Gebrauch gewesenen Thermometer sind verschwunden. Es gibt jetzt weniger Stationen, die zum GHCN beitragen, als im Jahre 1919.

Erstaunlicherweise befinden sich fast die Hälfte aller GHCN-Messpunkte (49% im Jahre 2009) auf der Welt auf (betonierten) Beton- oder Asphaltflächen auf Flughäfen!

McKitrick, 2010:

Es gibt drei große globale Temperatur-Historien: die kombinierte CRU-Hadley-Aufzeichnung (HadCRU), die NASA-GISS-Aufzeichnung (GISTEMP) und die NOAA-Aufzeichnung. Alle drei globalen Mittel hängen vom gleichen zugrunde liegenden Datenarchiv ab, dem Global Historical Climatology Network (GHCN). Infolge dieser Abhängigkeit vom GHCN werden die Qualitäts-Defizite auch die Qualität aller abgeleiteten Produkte beeinträchtigen.

Die Anzahl von Wetterstationen, die zum GHCN beitragen, erfuhren 1990 und dann noch einmal 2005 einen scharfen Rückgang. Die Stichprobenmenge ist seit dem Spitzenwert Anfang der siebziger Jahre um 75% gesunken und ist jetzt kleiner als zu jedweder Zeit seit 1919“.

Zunehmender Bias durch Aufstellung an Flughäfen:

Der Kollaps der Stichprobenmenge hat den relativen Anteil von Daten, die von Flughäfen stammen, um etwa 50% zunehmen lassen (von etwa 30% in den siebziger Jahren). … Die Änderung der Menge war hinsichtlich des Typus‘ der Quelle nicht ausgewogen. So wurde die Stichprobenmenge zu Flughafen-Bedingungen hin verzerrt. Die GHCN-Daten hatten schon immer ein Übergewicht von Flughäfen, welche aus vielen Gründen ungeeignet für das Klima-Monitoring sind. Ein Problem mit Flughäfen besteht darin, dass sie oftmals nahe urbanen Plätzen liegen, die während der letzten paar Jahrzehnte gebaut worden waren, und die Zunahme des Luftverkehrs hat dazu geführt, dass Verkehr, Versieglung von Flächen, Gebäude und Abwärme zugenommen haben. Diese Einflüsse sind allesamt nur schwer aus den Temperaturaufzeichnungen zu entfernen. … Im globalen Maßstab kamen im Jahre 2009 49% aller GHCN-Daten von Flughäfen (NH 46%, SH 59%). Ende der zwanziger Jahre waren es lediglich etwas über 20%“. McKitrick, 2010

Tom Karl von der NOAA hegte einst Bedenken hinsichtlich des Warm-Bias von Flughäfen und Städten.

Ende der achtziger Jahre dachte man, dass der Warm-Bias von 0,1°C bis 0,4°C aufgrund der Thermometer-Aufstellung auf Flughäfen oder in urbanen Gebieten die globalen Temperatursätze ernsthaft beeinträchtigen würde mit einem „substantiellen Anteil am Gesamt-Trend globaler und regionaler Temperaturen“, welche diesen Warm-Bias direkt reflektieren. Die „künstliche Erwärmung im Netzwerk der primären Stationen“ ist niemals verschwunden. Heute wird dieser Umstand einfach ignoriert.

Karl and Quayle, 1988

„Karl et al. (1988) haben gezeigt, dass in einigen Städten des Sun Belt [in den westlichen USA] der Temperaturanstieg, der dem Wärmeinsel-Effekt zugeordnet werden kann, bis zu 0,3°C bis 0,4°C pro Dekade beträgt … Die künstliche Erwärmung im Netzwerk der Primärstationen beträgt relativ zu den Daten in der Division Klima fast 0,17°C während der letzten 34 Jahre (seit ~1950). Derartige Trends sind zumindest genau so groß wie jedweder der anderen beobachteten Trends in den USA (Karl 1988) oder auf dem Globus (Jones und Wigley 1987)“.

Karl and Jones, 1989

„Die Ergebnisse zeigen, dass die beiden festlands-basierten Datensätze der Temperatur in den USA über das 20. Jahrhundert (1901 bis 1984) einen urbanen Bias von +0,1°C bis +0,4°C aufweisen. … Gegenwärtig können nur grobe Schätzungen der potentiellen Auswirkungen der Verstädterung angegeben werden. Dies enthält einen urbanen Bias in den Daten von Hansen und Lebedeff (1987; NASA), der über die USA zwischen 0,3°C und 0.4°C im 20. Jahrhundert liegt. Dieser Wert ist größer als der Trend insgesamt in den USA während dieses Zeitraumes. … Unseres Wissens nach sind die USA das einzige große Gebiet, in welchem die Größenordnung dieses Bias‘ sorgfältig untersucht worden ist.

Es stellte sich heraus, dass die Größenordnung dieses urbanen Bias‘ in den beiden landbasierten Datensätzen einen substantiellen Anteil beiträgt zu dem Gesamttrend der globalen und regionalen Temperaturen“.

Kukla, Gavin, and Karl, 1986

In städtischer Umgebung liegende Stationen in Nordamerika erwärmten sich zwischen 1941 und 1980 im Vergleich zu ländlichen Stationen (Abkühlung) mit einer mittleren Rate von etwa 0,12C pro Dekade. Säkulare Trends der Lufttemperatur, die vorherrschend aus urbanen Stationsdaten berechnet werden, haben sehr wahrscheinlich einen starken Warm-Bias. … Wir verglichen Trends der 34 städtischen/ländlichen Stationspaare … wobei die städtischen Stationen im Vergleich zur freien Landschaft während fast des gesamten Jahres eine Erwärmung zeigen.

Die jährliche mittlere Differenz zwischen den Trends beträgt etwa +0,11°C pro Dekade (nicht-klimatische Erwärmung infolge der Nähe zur Stadt). … Die mittlere Differenz zwischen Trends (zwischen urbaner bzw. ländlicher Umgebung) summieren sich zu einer jährlichen Erwärmungsrate von 0,34°C pro Dekade. … Der Grund für die merklich höhere Erwärmungsrate (könnte sein), dass die Rate nach den fünfziger Jahren zugenommen hat, entsprechend dem jüngsten starken Wachstum in der Umgebung von Flughäfen. … Unser Ergebnisse sowie auch diejenigen anderer Autoren zeigen, dass die Inhomogenität durch urbanes Wachstum erheblich ist und berücksichtigt werden muss, wenn man die Zuverlässigkeit von Temperaturaufzeichnungen abschätzt“.

Zunehmender Bias an Tiefland-Stationen

Die stetige Zunahme (der mittleren Seehöhe von Temperaturstationen seit den achtziger Jahren) ist konsistent mit einer Verlagerung der Stationen des Netzwerkes weiter landeinwärts, ebenso wie einer zunehmenden Zahl von Stationen in den Bergen. Der Kollaps der Messpunkte im Jahre 1990 ist eindeutig sichtbar als ein drastischer Rückgang nicht nur der Anzahl, sondern auch der Seehöhe. Dies impliziert, dass abgelegene Stationen in größerer Höhe aufgegeben wurden zugunsten von Messpunkten in Tälern und an küstennahen urbanen Stellen. Dies geschah ein zweites Mal im Jahre 2005. Nun tendieren Stellen mit geringer Höhe über dem Meeresspiegel dazu, mehr von Landwirtschaft, Verstädterung und anderen Modifikationen der Landschaft betroffen zu sein. Dieser Vorgang, eine gleichbleibende Seehöhe der Messpunkte, verletzt die statistische Kontinuität. … GHCN hat immer mehr Messpunkte in höher gelegenen Gebieten aufgegeben (z. B. in Richtung der Pole) zugunsten von tiefer gelegenen Stationen. Wenn alle anderen Umstände gleich bleiben, impliziert dies, dass immer weniger Daten aus entfernt liegenden, kalten Regionen und mehr aus bewohnten, wärmeren Regionen eingehen“. McKitrick, 2010

Die Ergebnisse: eine künstliche Erwärmung des Festlandes seit 1980:

NOAA Global Land vs. Sea 

HadCRUT Land vs. Ocean Temperature Anomalies

Die NOAA fügt seit 1998 0,3°C Erwärmung (relativ zu Satelliten) hinzu

Jüngst wurde die Studie von Karl et al. (2015), das „Pause-Buster“-Paper, erneut signifikanter Kritik unterzogen durch einen anderen ehemaligen NOAA-Wissenschaftler (Tom Karl war im Jahr 2015 der Direktor der NOAA) aufgrund von Vorwürfen, dass es politischer Druck war, die Studie vor der Pariser Klimakonferenz im Dezember 2015 an die Presse zu leiten ohne die vorschriftsmäßigen Qualitäts-Checks. Der Grund dafür war offensichtlich: Falls man den unbequemen Stillstand der globalen Erwärmung, über den im IPCC-Bericht 2013 berichtet worden war, eliminieren könnte, wäre dies ein bedeutender Vorgang, der die Regierungschefs zu Versprechungen ermutigen könnte, CO2-Emissionen zu reduzieren. Unglücklicherweise sind die zur Berechnung des neuen Trends herangezogenen Temperaturdaten in der NOAA-Veröffentlichung „verloren gegangen“ aufgrund eines schadhaften Computers, der „vollständig abgestürzt“ sei, so dass es kaum die Chance gibt die Studie einer unabhängigen Replikation oder Verifikation zu unterziehen.

Seitdem hat die New York Times eine Verteidigung der NOAA-Kontroverse ausgegeben mit der Behauptung, dass der Trend von 1998 bis 2014 von Karl et al. (2015) durch andere Wissenschaftler unabhängig verifiziert worden sei, ebenso wie durch Satellitendaten, die zeigen, dass der Trend von +0,11°C pro Dekade (+0,2°C insgesamt) zwischen 1998 und 2014 in allen Datensätzen konsistent war.

Diese Behauptung ist natürlich Unsinn. Mittels der verfügbaren Rohdaten und dem WoodForTrees interactive tool erkennt man, dass die Trend-Diskrepanz für den betrachteten Zeitraum 1998 bis 2014 fast 0,3°C beträgt, wenn man den jüngst erzeugten NOAA-Trend mit Satellitendaten (RSS) vergleicht. Es gibt sogar eine Differenz von 0,5°C zwischen den Endpunkten der Trendlinien von NOAA/NASA GISS sowie RSS (Dezember 2014). Die aus den Satellitendaten hervorgehende Abkühlung von -0,1°C wurde von Karl et al. (2015) in eine Erwärmung von +0,2°C umgewandelt. Fast augenblicklich nach deren Veröffentlichung wurde der neue Erwärmungstrend 1998 bis 2014 von der NASA und HadCRUT gleichermaßen akzeptiert, was dazu führte, dass alle drei Datensätzen jetzt eine signifikante Erwärmung zeigen, während sich zuvor ein Stillstand, ja sogar eine geringe Abkühlung zeigte.

Source: WoodForTrees

HadCRUT radiert die leichte Abkühlung von 1998 bis 2012 einfach aus mittels Änderung der Versionen

Die Änderung [politisch] unpassender Temperaturtrends gerade rechtzeitig vor einem Ereignis von großer Bedeutung für die internationale Politik und Öffentlichkeit gab es auch früher schon.

Der kombinierte Datensatz von HadCRUT) – welcher den IPCC-Berichten zugrunde liegt – wurde im März 2012 einer Revision von Version 3 zu Version 4 unterzogen. Dies war etwa ein Jahr vor der geplanten Veröffentlichung des jüngsten IPCC-Berichtes erfolgt (2013). Zu jener Zeit (Anfang 2012) war es für das Paradigma ziemlich unbequem, dass sich bei HadCRUT4 zwischen 1998 und 2012 ein leichter Abkühlungstrend zeigte, wie die Graphik unten zeigt (Rohdaten von HadCRUT3 und HadCRUt4 von WoodForTrees).

Graphiken des IPCC, die einen leichten Abkühlungstrend seit 1998 zeigten, wären für diejenigen Politiker inakzeptabel gewesen, die die Dringlichkeit des Kampfes gegen eine gefährliche globale Erwärmung betonen wollten. Also wurden pünktlich zur Ausgabe des IPCC-Berichtes 2013 dem HadCRUT-Trend etwa 0,1°C Erwärmung hinzugefügt. Damit sollte die leichte Abkühlung in etwas transformiert werden, was das IPCC einen „Stillstand“ der Erwärmung nannte. Um den in HadCRUT3 auftretenden leichten Abkühlungstrend zu entfernen, wurden die jüngeren Anomalien in HadCRUT4 erwärmt (um 0,1°C bis 0,2°C), während die Wärme der Vergangenheit (besonders um das Jahr 1998) unangetastet gelassen wurde. Der Effekt war, dass die Gegenwart wärmer und die Vergangenheit kälter gemacht wurden.

Quelle: WoodForTrees

IPCC-Analyse (2013) des „Stillstandes“ der Erwärmung von 1998 bis 2012

Im Zeitraum 1998 bis 2011 zeigen 111 der 114 Klimamodell-Simulationen einen Erwärmungstrend, der größer ist als der beobachtete Trend.

Während des im Jahre 1998 beginnenden 15-jährigen Zeitraumes liegt das Ensemble der HadCRUT4 GMST-Trends unter fast allen von Modellen simulierten Trends.

Fast alle historischen Simulationen der CMIP5-Modelle reproduzieren nicht den beobachteten jüngsten Erwärmungs-Stillstand.

NASA hat seit den neunziger Jahren etwa 0,5°C von der Erwärmung 1880 bis 1950 subtrahiert

Noch im Jahre 1990 war weithin akzeptiert, dass der globale Temperaturtrend, wie er von der NASA angegeben wurde (Hansen und Lebedeff 1987) zwischen 1880 und 1950 einen Anstieg um 0,5°C zeigte.

Pirazzoli, 1990:

Die Untersuchung sehr langer Aufzeichnungen (z. B. Amsterdam von 1682 bis 1930 sowie Brest seit 1807) hat gezeigt, dass es zwischen dem Ende des 19. und Mitte des 20. Jahrhunderts zu einer Beschleunigung von 0,9 mm pro Jahr gekommen war. Da diese Beschleunigung mit der jüngsten Änderung der globalen Temperatur (ein Anstieg um 0,5°C) zwischen 1880 und 1950 korreliert mit weniger bedeutenden Änderungen vor und nach diesem Zeitraum (Jones et al. 1986 sowie Hansen & Lebedeff 1987) und mit einem markanten Abschmelzen von Gletschern der Mittleren Breiten wurde sie interpretiert als korrespondierend mit einem eustatischen Anstieg.

Dieser Anstieg der globalen Temperaturen um 0,5°C zwischen 1880 und 1950 (sowie 0,6°C zwischen 1880 und 1940) erscheint klar in der NASA GISS-Graphik aus dem Jahr 1987:

Schneider, S. H. 1989. The greenhouse effect: Science and policy. Science 243: 771-81.

Heute ist es für die Datensätze der globalen Temperatur von HadCRUT, NASA und NOAA nicht mehr akzeptabel, einen starken Erwärmungstrend während der ersten Hälfte des 20. Jahrhunderts graphisch darzustellen. Grund hierfür waren die CO2-Emissionen, die damals keine Änderungen zeigten und vernachlässigbar waren im Vergleich zu heute während dieser abrupten Erwärmungsperiode, wie hier gezeigt:

Um also die Unbequemlichkeit eines nicht-anthropogenen Erwärmungstrends in modernen Zeiten zu eliminieren, haben die NASA und NOAA die gesamte oder fast die gesamte Erwärmung von 0,5°C zwischen 1880 und 1950 eliminiert. Falls Rohdaten der Temperatur in der Vergangenheit nicht zu dem Narrativ passen, dass menschliche CO2-Emissionen den Klimawandel treiben, müssen die Rohdaten eben verändert werden. Auf diese Weise erhält man das Paradigma am Leben.

NASA GISS graph

Link: http://notrickszone.com/2017/02/13/more-data-manipulation-by-noaa-nasa-hadcrut-cooling-the-past-warming-the-present/

Übersetzt von Chris Frey EIKE




Die versteckten Agenden von Nachhaltigkeits-Illusionen

Genau wie der „gefährliche, vom Menschen verursachte Klimawandel“ reflektiert der Begriff Nachhaltigkeit das geringe Verstehen hinsichtlich grundlegender Prinzipien von Energie, Ökonomie, Ressourcen-Ausbeutung und Produktion – sowie eine Tendenz, Tautologien und theoretische Modelle als eine Alternative zu empfehlen für schon jetzt zu beobachtende Beweise in der realen Welt. Involviert sind auch schlecht informierte Menschen mit guten Absichten, die von gut informierten Aktivisten mit schlechten Absichten in die Irre geführt werden, welche damit eine größere Kontrolle der Regierung über das Leben, die Lebensweise und den Lebensstandard erreichen wollen.

Die allgemeinste Definition lautet, dass wir die Bedürfnisse der gegenwärtigen Generationen nur bis zu einem Ausmaß erfüllen dürfen, damit wir die Fähigkeiten zukünftiger Generationen, deren Bedürfnisse zu erfüllen, nicht gefährden.

Auf den ersten Blick klingt das logisch und sogar ethisch. Aber es erfordert unmögliche Hellseherei.

Im Jahre 1887, als das Hearthstone House zum ersten Haus wurde, das mit Wasserkraft erleuchtet wurde, konnte und hat niemand vorhergesehen, dass Strom unser Leben dominieren, verbessern und sicherer machen würde auf den unendlich vielfältigen Wegen, wie das heutzutage der Fall ist. Jahrzehnte später hat niemand erwartet, dass Kabel aus reinem Silizium-Fiber Kupferdrähte ersetzen würden.

Niemand prophezeite kleine Mobil-Telefone mit ausgezeichneten digitalen Kameras und größerer Computerleistung als ein Desktop-Computer des Jahres 1990 oder ein 3-D-Drucker oder Tausende Windturbinen verstreut über unsere fruchtbaren [fruited] Ebenen – oder Kadmium, Seltene Erden und andere Rohstoffe, die plötzlich erforderlich sind, um diese technologischen Wunder zu vollbringen.

Die Menschheit ist Tausende Jahre lang nur im Schneckentempo vorangekommen. Nachdem die moderne, auf fossilen Treibstoffen beruhende Ära Fuß gefasst hatte, beschleunigte sich dieses Vorankommen in atemberaubenden Tempo. Heute ist Änderung exponentiell. Als wir von Feuersteinen zu Kupfer, zu Bronze, Eisen, Stahl und darüber hinaus kamen, war der Grund hierfür nicht, dass die Vorräte von Feuersteinen, Kupfer, Zinn und so weiter erschöpft gewesen wären. Sondern wir taten es mit Innovation – indem wir etwas besseres, effizienteres oder praktischeres erfanden. Jeder Fortschritt erforderte unterschiedliche Rohstoffe.

Wer kann heute vorhersahen, über welche Technologien zukünftige Generationen in 25, 50 oder 200 Jahren verfügen werden? Welche Rohstoffe werden sie brauchen? Wie können wir heute vermeintlich sicherstellen, dass jene Familien ihre Bedürfnisse decken können?

Warum sollten wir darum auch nur daran denken, die Regierung zu ermächtigen, die heutigen Aktivitäten Vorschriften zu unterwerfen, die auf völlig unvorhersagbaren Technologien, Lebensweisen und Bedarf an Rohstoffen ferner Generationen in der Zukunft beruhen? Warum sollten wir die Bedürfnisse heutiger Generationen ignorieren oder beschneiden, um jenen völlig unvorhersagbaren zukünftigen Bedürfnissen zu genügen – einschließlich der Bedürfnisse der heutigen ärmsten, unterernährten Menschen ohne Zugang zu Strom, die verzweifelt nach einem besseren Leben streben?

Außerdem werden uns die Ressourcen in absehbarer Zeit längst nicht ausgehen. Ein 1 Kilometer langes Fiberglas-Kabel aus 45 Pfund Silizium (dem auf der Erde am meisten vorhandenen Element) überträgt tausendfach mehr Informationen als ein gleich langes RG-6-Kabel aus 3600 Pfund Kupfer, was die Nachfrage nach Kupfer zurückgehen lässt.

Im Jahre 1947 beliefen sich die nachgewiesenen Ölreserven der Erde auf 47 Milliarden Barrel. Während der nachfolgenden 70 Jahre verbrauchten wir hunderte Milliarden Barrel – und dennoch hatten wir im Jahre 2016 mindestens 2800 Milliarden Barrel Ölreserven, darunter Ölsande, Schieferöl und andere unkonventionelle Lagerstätten: mindestens noch ein Jahrhundert lang, dazu überreichlich Erdgas. Fortwährend sich verbessernde Technologien lassen uns jetzt Öl und Erdgas aus Lagerstätten finden und erzeugen, die wir noch vor ein paar Jahrzehnten nicht einmal erkennen, geschweige denn ausbeuten konnten.

Das Nachhaltigkeits-Dogma rankt sich um Hass auf fossile Treibstoffe und die Entschlossenheit, die Welt von diesen Stoffen zu befreien, ohne jede Rücksicht auf jedwede sozialen, ökonomischen oder umweltlichen Kosten. Und wir sehen häufig, dass vermeintlich grüne, ökofreundliche und nachhaltige Alternativen häufig genau das nicht sind.

Die [gesetzlichen] Äthanol-Quoten in den USA verbrauchen 40% der Maisvorräte der Nation, Ackerland von der Größe Iowas, Milliarden Gallonen Wasser und riesige Mengen von Pestiziden, Dünger, Treibstoff für Traktoren und Erdgas, um Energie zu erzeugen, welche die Preise für Nahrungsmittel in die Höhe treibt, kleine Motoren schädigt und ein Drittel weniger Kilometer-Leistung pro Gallone [= ca. 4 Liter] als Benzin bringt.

Stark subventionierte Windenergie erfordert mit fossilen Treibstoffen betriebene Generatoren im Standby-Modus, ultralange Fernleitungen und folglich Millionen Tonnen Beton, Stahl, Kupfer, seltene Erden und Fiberglas. Die Turbinen führen zu chronischen Gesundheitsproblemen bei Anwohnern und töten Millionen Vögel und Fledermäuse – nur um zeitweilig völlig unzuverlässigen Strom zu erzeugen, der bis zu 250% mehr kostet als kohlebasierter Strom.

Mit all dem erzeugten die 3500 gigantischen Windturbinen in UK an einem heißen, trockenen Augusttag gerade mal 12 Megawatt Strom: das waren 0,032% der 38.000 Megawatt, welche das Land zu jener Zeit verbrauchte.

UK subventioniert auch viele riesige anaerobic digesters, dazu ausersehen, tierischen Dung und andere landwirtschaftliche Abfälle in ökofreundliches Methan umzuwandeln, welches dann zur Stromerzeugung genutzt wird. Aber es gibt viel zu wenig landwirtschaftliche Abfälle. Also werden die Behälter mit Mais, Gras und Roggen befüllt, welcher auf 130.000 Acres (etwa viermal die Größe von Washington D.C.) angebaut wird und enorme Mengen Wasser und Dünger benötigt – und natürlich Dieselkraftstoff, um die Ernten anzubauen, zu ernten und zu den Behältern transportieren. Warum bohrt oder frackt man nicht einfach nach Erdgas?

Dies führt uns zu der politischen Arena mit ihrer zyklischen, dehnbaren und unendlich elastischen Terminologie – also das perfekte Werkzeug für Aktivisten. Was auch immer sie stützen ist nachhaltig; gegen was auch immer sie opponieren ist nicht nachhaltig; und welche Mantras oder vorsorgliche Maßnahmen sie vorschlagen – jedes Einzelne verleiht ihnen mehr Macht und Kontrolle.

Der Club of Rome trachtete danach, eine neue Bewegung ins Leben zu rufen, indem er „einen gemeinsamen Feind kreierte, vor dem wir uns vereinigen können“ – vermeintlich bevor stehende Katastrophen „verursacht durch menschliche Eingriffe in natürliche Prozesse“ sowie die Erfordernis „geänderter Haltung und Verhalten“, um globales Unheil zu vermeiden: globale Erwärmung und Ressourcen-Erschöpfung.

„Die Schaffung einer umweltlich nachhaltigen Zukunft erfordert Einschränkung der globalen Ökonomie, eine dramatische Veränderung der Vermehrung der Menschen sowie die Änderung von Werten und Lebensarten“, sagte der Gründer des Worldwatch Institute Lester Brown. „Um dies schnell zu erreichen, ist nichts Geringeres notwendig als eine Revolution“.

„Der gegenwärtige Lebensstil und Verbrauchsraten der wohlhabenden Mittelklasse – darunter hoher Fleischkonsum, der Verbrauch fossiler Treibstoffe, Elektrogeräte, Air Conditioning im Büro und zu hause sowie Wohnen in Vororten – ist nicht nachhaltig“, erklärte der kanadische Ur-Umweltaktivist Maurice Strong.

„Kleinere Änderungen der Politik, moderate Verbesserung von Gesetzen und Vorschriften anstelle einer echten Änderung“, sagte der ehemalige Vizepräsident Al Gore, „sind alles Formen der Besänftigung, dazu gedacht, die Öffentlichkeit dazu zu bringen zu glauben, dass Opfer, Mühen und eine die Öffentlichkeit zerreißende Transformation der Gesellschaft nicht erforderlich sein werden“. Der Umweltaktivist Daniel Sitarz stimmte dem mit den Worten zu: „Die Agenda 21 bietet eine Vielfalt von Maßnahmen mit der Absicht, diese jedem Menschen auf der Erde zu implementieren. Die effektive Durchführung der Agenda 21 wird eine ausgeprägte Umorientierung aller Menschen erforderlich machen; anders als alles, was die Welt bisher erfahren hat“.

Der National Research Council [etwa: Nationaler Forschungsrat] deklamierte in einem Report aus dem Jahr 2011: „Nachhaltige Entwicklung wirft Fragen auf, denen nicht vollständig oder direkt in der US-Politik oder in den US-Gesetzen Rechnung getragen wird, einschließlich der Frage, wie man nicht nachhaltige Produktion und Verbrauch definieren und kontrollieren kann und wie man die Entwicklung nachhaltiger Gemeinden, Erhaltung der Biodiversität, saubere Energie und umweltlich nachhaltige ökonomische Entwicklungen sowie die Kontrolle des Klimawandels fördern kann“. Tatsächlich, sagte Obamas Wissenschaftsberater John Holdren, können wir nicht einmal über Nachhaltigkeit sprechen, ohne über Politik, Macht und Kontrolle zu sprechen. Besonders Kontrolle!

Natürlich fühlen diese Aktivisten, Politiker und Vorschriftengeber kaum Beschwerden, erfreuen sie sich doch an Geldern und Vergünstigungen, für die Steuerzahler und Stiftungen aufkommen. Sie fliegen zu UN- und anderen Konferenzen und logieren dabei in Fünf-Sterne-Hotels auf der ganzen Welt – und implementieren Agenden, die das Leben anderer Menschen kontrollieren, umkrempeln und transformieren.

Es sind wir, die Regierten – vor allem die Arbeiterklasse und arme Bürger – welche den Preis zahlen, wobei die ärmsten Familien der Welt den höchsten Preis zahlen. Wir können nur hoffen, dass die Trump-Regierung und der Kongress nachhaltige Entwicklung abbricht und nicht mehr finanziert – das alter ego des katastrophalen, vom Menschen verursachten Klimawandels.

https://www.cfact.org/2017/02/09/the-hidden-agendas-of-sustainability-illusions/

Übersetzt von Chris Frey EIKE




Eine Merkwürdig­keit bei den Adjustie­rungen von Bojen-Daten von Karl et al. 2015

Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm-Änderungen in den ERSSTv4-Daten erforderlich macht.

Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%.

Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm-adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte?

Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber davon habe ich nichts gesehen.

Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel:

https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record/

Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen. Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der Anteil 2015 über 70% gelegen hat.

Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50% gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren Temperatur-Adjustierungen.

Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm-Adjustierung infolge der Bojen.

Link: https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy-data-adjustments/

Übersetzt von Chris Frey EIKE