1

Fünf-Billionen-Dollar-Plan zur Rettung des Eises in der Arktis

Forscher fordern: Rettung der Arktis mit schwimmenden, mit Windenergie betriebenen Eismaschinen im Wert von 5 Billionen Dollar

Tristin Hopper am 16. Februar 2017

Angesichts des Umstandes, dass sich die Arktis rascher erwärmt als jedes andere Gebiet der Erde schlägt eine neue wissenschaftliche Studie ein radikales Programm vor, um die Eiskappe dicker zu machen: Millionen und Abermillionen autonome Eismaschinen.

Im Einzelnen mittels 10 bis 100 Millionen schwimmender, mit Windenergie betriebener Pumpen, die während des Winters Wasser auf dem Meereis versprühen sollen.

Das sind teure Vorschläge, aber mit den Mitteln von Regierungen in einer Größenordnung durchführbar, welche vergleichbar ist mit dem Manhattan Project“ [= dem Bau der ersten Atombombe in WW II. Anm. d. Übers.] heißt es in der Studie, die in der Ausgabe von Earth’s Future am 24. Januar veröffentlicht worden ist. Das Journal selbst wird von der American Physical Union vertrieben.

Der Plan wäre eines der teuersten Einzelprojekte der Weltgeschichte, ein Unterfangen in der Größenordnung der International Space Station ISS, der gesamten US-Autoindustrie oder einem großen globalen Konflikt wie dem Irak-Krieg.

Der ambitioniertesten Version des Planes zufolge würden 100 Millionen Maschinen dieser Art über die Arktis verteilt.

Nichtsdestotrotz nennen die Forscher von der Arizona State University die Kosten mit Hinblick auf das Endziel „ökonomisch machbar“ und die Auswirkung auf die Umwelt „vernachlässigbar“.

Allerdings brachten sie auch einen weniger kostenintensiven Plan im Wert von 500 Milliarden Dollar ins Spiel, dem zufolge die Eismaschinen nur etwa 10% der Arktis überdecken sollen.

Die Notwendigkeit ist dringend, lassen doch die normalen Abkühlungseffekte sommerlichen Meereises schon jetzt nach und könnten in weniger als zwei Jahrzehnten ganz verschwunden sein“, heißt es in der Studie.

Die Eismaschinen-Flotte würde so ausgestattet, dass sie einen zusätzlichen Meter Meereis in der Arktis schafft – in jedem Winter.

Der Report enthält keine spezifischen Vorschläge hinsichtlich des Designs der Wasserpumpen, beschreibt sie aber als Windturbinen und einem Tank, der auf einer Boje montiert ist.

Mehr: http://news.nationalpost.com/news/canada/save-the-arctic-with-5-trillion-of-floating-wind-powered-ice-machines-researchers-recommend

Das Abstract der Studie liest sich so:

Earth’s Future Arctic ice management

Steven J. Desch, Nathan Smith, Christopher Groppi, Perry Vargas, Rebecca Jackson,Anusha Kalyaan, Peter Nguyen, Luke Probst, Mark E. Rubin, Heather Singleton, Alexander Spacek, Amanda Truitt,PyePyeZaw, and Hilairy E. Hartnett

Mit der vonstatten gegangenen Änderung des Erdklimas hat sich die Ausdehnung des arktischen Meereises drastisch verringert. Es ist wahrscheinlich, dass die Arktis jeweils zum Ende des Sommers schon in den dreißiger Jahren dieses Jahrhunderts eisfrei ist. Dieser Meereis-Verlust stellt einen der ernstesten positiven Rückkopplungs-Effekte im Klimasystem dar, würde doch Sonnenlicht, das anderenfalls vom Meereis reflektiert werden würde, vom Ozean absorbiert. Es ist unwahrscheinlich, dass CO2-Niveau und Temperatur rechtzeitig verringert werden können, um diesen Verlust zu verhindern, darum ist die künstliche Wiederherstellung von Meereis ein Muss. [Hilfe! Und für so einen Quatsch gibt es Fördergelder – vom Steuerzahler!! Anm. d. Übers.] Hier untersuchen wir, wie man zur Verstärkung der Meereisbildung in der Arktis vorgehen könnte, und zwar mittels Windenergie, um während des arktischen Winters Wasser auf der Eisoberfläche zu versprühen, wo es schneller gefrieren wird. Wir zeigen, dass es möglich ist dort, wo geeignete Apparate zum Einsatz kommen, die Eisdicke über das natürliche Niveau hinaus zunehmen zu lassen, und zwar um etwa 1 m im Verlauf des Winters. Wir untersuchen die Auswirkungen dieses Vorgehens auf das arktische Klima, und kommen zu dem Ergebnis, dass ein derartiges Unterfangen auf 10% der Fläche der Arktis, besonders dort, wo das Überdauern des Eises marginal ist, die gegenwärtigen Trends des Eisverlustes mehr als umkehren kann. Wir regen an, dass die Verdickung winterlichen Eises mittels per Windenergie angetriebener Pumpen in Erwägung gezogen wird und sehen es als Teil einer multilateralen Strategie zur Wiederherstellung des Meereises und zum Anhalten der stärksten Rückkopplungen im Klimasystem.

Mehr: http://onlinelibrary.wiley.com/doi/10.1002/2016EF000410/epdf

Die gesamte Idee ist absurd, aber selbst wenn wir akzeptieren, dass es eines Tages aus welchen Gründen auch immer notwendig wird, Wasser auf das Meereis in dieser Größenordnung zu pumpen, wäre es viel einfacher, Kernkraft anstatt Windenergie einzusetzen.

Das in der Studie in den Abschnitten 1.3 erwähnte Energie-Budget beträgt 1300 GW Energie, 7% des gegenwärtigen globalen Energie-Budgets. Die größten, derzeit in Betrieb befindlichen Kernkraftwerke erzeugen rund 8 GW Energie. Falls man die Kosten der Konstruktion eines Reaktors mit 5 Milliarden Dollar ansetzt (man denke an Massenproduktion), würde sich die Gesamtrechnung der Konstruktion auf 800 Milliarden Dollar belaufen – drastisch weniger als die in der Studie geschätzten 5 Billionen Dollar.

Außerdem wären Kernreaktoren viel weniger in Gefahr zu vereisen wie die Turbine im Bild oben.

Ich werde nicht einmal ansatzweise Überlegungen anstellen über die Folgekosten von Unterhalt und Wartung all dieser Windanlagen in der harten arktischen Umgebung, die nichts verzeiht.

Link: https://wattsupwiththat.com/2017/02/18/five-trillion-dollar-plan-to-save-the-arctic-ice/

Übersetzt von Chris Frey EIKE




Der Klimawandel lebt nur noch von Wieder­holungen

Potzblitz!

So nennt sich der Artikel mit dem Interview in der Printausgabe. Anfangs kommt etwas interessante Information, bis die Redakteurinnen ab der Hälfte zu ihrem wirklichen Anliegen überleiten und dem Betreiber mit ihren Fragen die gewünschten Antworten in den Mund legen:
RedakteurIn: „Sie haben vor zwei Jahren gesagt, dass weltweite Krisen die Klimaproblematik in den Hintergrund gedrängt haben. Das gilt heute nicht mehr. Kann das Thema warten?
Betreiber: „Es ist wichtiger denn je. … Aber durch die Erderwärmung werden zum Beispiel Hungersnöte und Flüchtlingsbewegungen zunehmen.
RedakteurIn: „ D. Trump … Zum Chef der Umweltbehörde machte er einen Klimawandel-Leugner … „
Betreiber: „Das ist für mich Zensur… mir blutet da das Herz … Trump glaubt wissenschaftlichen Erkenntnissen nicht ... „
RedakteurIn: „Haben Sie einen Beweis für Trump
Betreiber: „Die Forschungen von Tausenden von Experten … lassen keinen anderen Schluss zu. Das ist Konsens unter 99,9 Prozent der Wissenschaftler. Die Anzeichen, dass es diesen Klimawandel gibt, werden immer deutlicher. Eisschollen brechen in der Antarktis ab, der Meeresspiegel steigt. Wetterextreme nehmen zu: heiße Sommer, kältere Winter, heftigere Unwetter und Überschwemmungen.“
RedakteurIn: „Macht Ihnen der Klimawandel und seine Folgen Angst?
Betreiber: „ … ich habe nicht direkt Angst, aber man muss diese Veränderungen durchaus mit Sorge betrachten.

Rezension

Ein Artikel, welcher in dieser Kürze eine so geballte Ladung an Klimawandel-Plattitüden listet, muss fast als eigenständige Leistung des Redakteurinnen-Teams betrachtet werden. Nur werden die Inhalte dadurch nicht investigativer.

Mehrmals wurde über Aktivisten berichtet, welche bewusst apokalyptische Aussagen manipulieren:
EIKE: Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen
EIKE: Der Krieg des Klimas gegen die Menschheit, Über den weltweit bekanntesten Klimaaktivisten Bill McKibben
klimaretter.info: [2] Klimaflüchtlinge, die nicht flüchten
Leider sind beim Klimawandel falsche Informationen dank unserer Medien so „gängig“, dass selbst Personen, welche es besser wissen könnten, daran glauben, da es Ihnen an einer wichtigen Grundeigenschaft wissenschaftlichen Arbeitens – dem Hinterfragen – mangelt. Und dies kann man auch beim Betreiber der Wetterstation (der öfters von lokalen Zeitungen zu Wetterthemen interviewt wird) vermuten. Klar ist natürlich auch: Würde er nicht so antworten, wäre es mit der Reputation bei den Zeitungen wohl schnell vorbei.

So, wie die Aktivisten und selbst ernannte „Fachpersonen“ immer neu ihre alten „Belege“ wiederholen, erlaubt sich der Autor zu diesem Artikel „seine“ zu wiederholen.

„Hungersnöte und Flüchtlingsbewegungen“ nehmen zu“.

Dazu lohnt es sich, einen Bericht des Spiegel aus dem Jahr 2011 nachzulesen.
Spiegel Online: [3] Warnung von 2005 Prognose zu Klimaflüchtlingen bringt Uno in Bedrängnis
Hungersnöte, Völkerwanderungen, Seuchen und Kriege – oft hat das Wetter historische Umbrüche befördert. 2005 verkündeten die Vereinten Nationen, das Klima könnte nun erneut gravierend eingreifen in die Kulturgeschichte: Bis 2010 könnten 50 Millionen Menschen wegen der Erderwärmung auf der Flucht sein, erklärten das Uno-Umweltprogramm (Unep) sowie die Universität der Vereinten Nationen (Unu) 2005.
Doch jetzt distanziert sich die Uno gegenüber SPIEGEL ONLINE von der Prognose: „Dies ist keine Unep-Vorhersage“, hieß es auf Anfrage. Die entsprechende Mitteilung auf der Unep-Internetseite wurde gelöscht. Offizielle Statistiken zeigen, dass die Bevölkerung in angeblichen Gefahrenregionen sogar wächst. Und vorhergesagte Umweltkatastrophen sind bislang nicht eingetreten.

Schaut man dann genauer in „Klimafüchtlings-„ Meldungen, zeigt sich häufig ein typisches Muster:
ungebremstes Bevölkerungswachstum und Missmanagement treffen auf begrenzte Ressourcen.
Ein typisches Beispiel dafür ist eine ehemalige Kornkammer Afrikas, Simbabwe. Obwohl sich seit 1983 (man könnte auch 1902 nehmen) weder an der Temperatur, noch am Niederschlag etwas signifikant verändert hat, brechen die Ernteerträge drastisch ein, während die Bevölkerung überproportional zunimmt:
Simbabwe 1960 – 2010
Bevölkerungswachstum: +340 %,
Ernteerträge: Niedriger als 1960

Bild 1 Simbabwe Ertrag Getreide gesamt (blau) und Bevölkerungsentwicklung (violette Linie), dazu der weltweite Weizenertrag. Beachten: Vertikalachsen-Maßstäbe sind unterschiedlich. Quellen: fact fish, Vom Autor ergänzt.

Bild 2 Zimbabwe Temperatur und Niederschlag von 1901 – 2012 Quelle: THE WORLD BANK GROUP Climate Change Knowledge Portal

Man braucht nicht zu raten, wer daran Schuld haben muss. Aber was dagegen vom Westen vorgeschlagen wird, ist schon mehr als Satire:

[5] adelphi: Unterstützung der Regierung von Simbabwe bei der Entwicklung nationaler Klimaschutz-Zusagen
Ziel dieser Einrichtung war es, die am wenigsten entwickelten Ländern der Welt (LDC) oder Kleine Inselentwicklungsländer (SIDS) bei der Entwicklung eigener nationaler Klimaschutz-Zusagen (INDC) zu unterstützen. INDC sind die individuellen Verpflichtungen der Vertragsstaaten zur Minderung von Treibhausgasen im Sinne des Pariser Klimavertrags.

Der Berliner Tagesspiegel, damals noch nicht so durchgrünt wie heute, hatte es auf den Punkt gebracht und zudem fast hellseherisch aufgezeigt, was Deutschland mit seiner Klimahysterie noch blühen kann:
DER TAGESSPIEGEL, 13.05.2007: Simbabwes Klimamodell
Es nicht so, dass Simbabwe gar nichts gegen die Klimaerwärmung getan hätte. Genau genommen hat Diktator Robert Mugabe das Modell Ostdeutschland – wenn die Fabriken dicht machen, nützt das dem Klima – ein wenig überinterpretriert. Er hat Simbabwes Wirtschaft so gründlich ruiniert, dass sich die Mehrheit der Simbabwer weder Petroleum noch Benzin leisten können, die Traktoren auf den meisten Farmen stillstehen und die Stromversorgung für Haushalte auf vier Stunden am Tag beschränkt bleibt. Simbabwes Modell ist also Klimaschutz durch Verelendung bei einer Inflation von aktuell 2200 Prozent – genau das Gegenteil von dem, was die UN wollen. Nachhaltig ist nur, wie Mugabe sein einst reiches und vorbildhaftes Land zu Grunde gerichtet hat.

Nicht jedes Land ist regiert wie Simbabwe, doch wiederholen sich in den Ländern die typischen Klimazyklen „ … seit 30 Jahren hat es nicht mehr so wenig geregnet … „, ist auch dort nicht die Natur, sondern sofort der Klimawandel schuld.
EIKE: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia
EIKE: SPIEGEL ONLINE: Der Klimawandel ist nicht für den Syrienkrieg verantwortlich

An diesen Darstellungen wird sich nichts ändern. Einmal „erzwingt“ der Klimafond diese Argumentation, da sie den lokalen Clans in den Regierungen sicher und problemlos Geld in die Kassen spült und zudem haben die das Geld vergebenden Organisationen ebenfalls kein Interesse daran, die Argumentation zu versachlichen:

kaltesonne: Bericht der UN-Organisation FAO: 842 Millionen Menschen hungern

Die kanadische Journalistin Donna Laframboise erstellte vor zwei Jahren eine aufsehenerregende Detail-Analyse der Zusammensetzung des IPCC-Expertengremiums, wobei zum Vorschein kam, dass ein Großteil der Schlüsselpositionen durch Vertreter von Umweltaktivistenorganisationen wie WWF und Greenpeace besetzt war. Sehr schön alles nachzulesen in ihrem Buch. Unverständlicherweise ist dies sogar auch noch in der aktuellen fünften Ausgabe des Klimaberichts der Fall wie Laframboise in einem Artikel vom 24. September im Wall Street Journal zeigen konnte.

Nur dadurch lässt sich auch erklären, warum keine Medien über die Segnungen der kleinen Erwärmung seit der für die Menschheit auf der Nordhemisphäre grausamen Zwischenkaltzeit (in dieser Zeit lagen die letzten wetterbedingten großen Hungersnöte Europas) berichten.

Zum Beispiel weder darüber, dass der Sahel als typisch genannte Problemzone dank dem sich wandelnden Klima grüner wird:
kaltesonne: Der Klimawandel bringt der Sahelzone mehr Niederschlag,
noch über die gewaltigen Ertragssteigerungen der Ernten:
EIKE: Ernteerträge und Klimawandel.
Stattdessen wird erklärt, dass der Biolandbau weltweit verstärkt werden muss, obwohl dieser Mehraufwand verursacht und trotzdem vergleichbar nur ca. 60 % Ernteertrag liefert. Damit wollen unsere „Gutmenschen“ dann dem Problem der Überbevölkerung in unterentwickelten Ländern begegnen.

SWISSAID: Bio-Landbau besiegt den Hunger
Welche Ertrags-Risiken bis zum Totalverlust diese Bauern eingehen, erleben unsere Biobauern jährlich neu. Nur mit dem Unterschied, dass die Deutschen Biobauern vom Staat deshalb überproportional subventioniert werden, weil der Verkaufserlös und das Ertragsrisiko Risiko nicht einmal bei uns zum Überleben reichen würde.
EIKE: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
EIKE: Biobauern darben ohne Klimawandel (und extremen Subventionen)
(Anmerkung: Dies wurde gerade in einem Interview der nordbayerischen Nachrichten vom 13. Februar mit dem oberfränkischen Bezirkspräsidenten des Bayerischen Bauernverbandes und einem Bio-Bauern erneut bestätigt).

„ … Trump glaubt wissenschaftlichen Erkenntnissen nicht …“

ist einer der häufigen „Belege“, wenn nichts mehr an Argumentation einfällt, und der auch vom neuen Klimaapostel Harald Lesch ständig wiederholt wird:
EIKE: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

Dabei ist gerade der anthropogene Klimawandel eines der zweifelhaftesten Wissenschaftsthemen des Jahrhunderts mit der Vermutung, dass es sich dabei vielleicht um den größten Wissenschaftsirrtum des Jahrhunderts, manche sprechen auch von Betrug, handelt.

Um das festzustellen, muss man allerdings den Mut haben, das Thema auch kritisch zu betrachten und nicht fest daran zu glauben, dass sich wissenschaftliche Erkenntnisse durch Abstimmungen und Einfluss von Aktivisten ergeben.

„ … Das ist Konsens unter 99,9 Prozent der Wissenschaftler … “

Hat sich eine Aussage erst einmal lange genug verbreitet, wird sie nicht mehr hinterfragt. So ist es auch mit der (Un-) Wissenschaftlichkeit eines Konsenses in der Wissenschaft. Entweder ist es bewiesen, oder ein offenes Thema. Wenn aber das dazu errichtete Weltgremium IPCC weder den Auftrag hat, das Thema neutral zu untersuchen und zudem von Aktivisten durchsetzt ist, sind Abstimmungen vollkommen wertlos, beziehungsweise so aussagekräftig wie in den ehemaligen sozialistischen Ländern.

Im Artikel: [4] „Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor“,
wurde zudem gelistet, dass die angeblichen 99,9 % einer der typischen Treppenwitze der Geschichte sind. Denn es gibt weder „die eine Konsensumfrage“:
[4] In der jüngsten Konsensusstudie: JohnCook at al.: Consensus on consensus, sind von 1991 bis 2014 alleine 14 Konsensusumfragen gelistet,
noch ist man sich im Konsens selbst einig:
Spiegel Online, 23.09.2014:[3] Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
Ruhrkultour: [8] Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler
Von den rund 12.000 Veröffentlichungen bestätigte nur rund ein Drittel der Wissenschaftler, 32,6 Prozent, die Ansicht, dass die globale Erwärmung durch Menschen verursacht sei (Anthropogenic Global Warming-AGW), 97 Prozent dieses Drittels, nicht der Gesamtmenge, hielt “die jüngste Erwärmung vor allem von Menschen gemacht”. Die Mehrheit der Wissenschaftler, 66,4 Prozent, bezog keine Position zum AGW. Aber die Zahl 97 machte weltweit die Runde. Noch am selben Tag der Veröffentlichung des IOP twitterte der Präsident der USA, Barack Obama: (Bild)

Bild 3 Tweet von B. Obama zur Konsensstudie

Wer möchte, kann die Zustimmung von B. Obama gerne als Beleg betrachten, doch wissenschaftlicher wird er dadurch nicht.

Den „Konsens“ gibt es nur, wenn man gegenteilige Meinungen ignoriert

Nicht nur zufällig „vergessen“ die Berichter des „Klimakonsens“ zu erwähnen, dass es auch das Gegenteil in der Klimawissenschaft gibt:
Natural News, August 31, 2016: Over 37,000 Scientists Sign On Against Man-Made Global Warming Fraud!
kaltesonne: Größte unabhängige Forschungsorganisation Norwegens: Es gibt keinen wissenschaftlichen Konsens in den Klimawissenschaften
Die größte unabhängige Forschungsorganisation Norwegens, die SINTEF, gab Mitte April 2013 einen neuen Bericht mit dem Titel “Konsensus und Kontroverse” heraus, in dem die wissenschaftliche Klimadebatte kritisch analysiert wurde. Der Bericht ist im Internet als pdf frei verfügbar. … In der Kurzfassung der lesenswerten Studie fasst SINTEF zusammen:
Dieser Bericht lehnt das Konzept ab, dass es einen einstimmigen wissenschaftlichen Konsensus zur Frage der anthropogenen Klimaerwärmung gäbe und dass die wissenschaftlichen Grundlagen heute vollständig bekannt wären. Der Bericht schlußfolgert, dass eine bedeutende kritische wissenschaftliche Diskussion in den Klimawissenschaften existiert. In dieser Diskussion einen Konsensus herbeiführen zu wollen entspricht einem politisierten und unwissenschaftlichen Glauben an die Forschung, welcher mit dem Ethos der traditionellen Wissenschaft unvereinbar ist.
… Zunächst kann festgestellt werden, dass die Behauptung schlichtweg falsch ist, dass jegliche Zweifel in der Klimadebatte ausgeräumt wären. Trotz eines hohes Maßes an Übereinstimmung in der wissenschaftlichen Literatur darüber, dass eine menschengemachte Klimaerwärmung prinzipiell existiert, gibt es in der Diskussion eine Vielzahl von abweichenden Meinungen, offene Fragen und gegenteilige Ansichten, sowohl in der wissenschaftlichen Debatte als auch in der öffentlichen Meinung. Die Behauptung “alle Zweifel sind heute ausgeräumt” ist daher unhaltbar.

Nicht die Klimawissenschaft muss schlecht sein, aber viele ihrer Ableitungen sind es

Man kann davon ausgehen, dass weder die zwei RedakteurInnen, noch der Betreiber der Wetterstation sich vertieft mit Klima(wandel)studien beschäftigt haben. Wer einfach exemplarisch das international angelegte P2K-Studienprojekt zur (versuchten) Rekonstruktion der historischen Temperaturen betrachtet, zweifelt nicht an der Wissenschaft selbst, aber daran, wie diese behaupten kann, aus vollkommen ungeeignetem Datenmüll genaueste Aussagen ableiten zu können, anstelle zuzugeben, dass man in Wirklichkeit ganz neu anfangen müsste, zuerst einmal glaubhafte Daten zu gewinnen.
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Das Bild 4 der Temperaturproxis Asien vom Jahr 0 – 2000 aus dem Pages2k-Viewer soll es verdeutlichen. Das statistische Ergebnis ist ein waagerechter Strich mit ganz engem Vertrauensbereich, da dieser stur mit der Anzahl Proben immer enger wird. Am Ende den Proxi-Mittelwertstriche mit den Thermometertemperaturen seit ca. 1850 erweitert, und egal, was man macht, es kommt ein statisch extrem vertrauenswürdiger Hockeystik heraus. Nimmt man anstelle des Proxisalates einfach Rauschen, bleibt die Kurve die Gleiche. Ein „Belegexperiment“ für eine berühmte Temperaturkurve, die sich immer neu selbst belegt.

Bild 4 Temperatur-Proxirekonstruktionen Asien. Quelle: Pages2k-Viewer

Wie unwissenschaftlich und ganz einfach auch falsch daraus abgeleitete Aussagen dann sind, hat kaltesonne gerade wieder „ausgegraben“: Planet Schule patzt beim Klimawandel

… Planet Schule hat wieder neue Klimaalarm-Filme im Programm (“Wo das Klima auf der Kippe steht”), so dass auch die Kleinsten in den Klimaalarm eingeweiht werden können. Die Filme laufen in verschiedenen Dritten Programmen, sind aber auch online hier verfügbar. Den Schülern wird darin vorgegaukelt, dass das Klima früher durchgehend konstant und angenehm gewesen wäre. Erst als der Mensch die Bühne betrat, habe sich das Klima dann extremisiert. Eine romantische Vorstellung, die jedoch komplett an der Realität vorbei geht. Fake News. In Wahrheit unterlag das Klima der vergangenen 10.000 Jahren enormen natürlichen Schwankungen. Die will man den Schülern natürlich nicht zumuten, “vereinfachen” heißt das wohl. Ansonsten könnten Justin und Julia auf die Idee kommen, dass die heutigen Schwankungen wohl Teil dieser Langfristentwicklung wären… Original-Aussage aus dem Film (Südafrika):
“Laut Nasa-Wissenschaftlern ändert sich das Klima heute hundertmal so schnell, wie in der Vergangenheit”.
Diese Aussage ist falsch. Eigentlich müsste der entsprechende Film sofort aus dem Verkehr gezogen werden.

Es bleibt einfach unverständlich, wie eine „Wissenschaft“, welche es nötig hat, jährlich auf „Wanderzirkus-Veranstaltungen“ mit 30 … 50.000 Teilnehmern, von denen die absolute Mehrheit ausschließlich Aktivisten sind, über ihre Aussagen abzustimmen, von unseren Medien – und vorgeblichen Fachpersonen – ernst genommen wird.

Und ob das „Berichtsteam“ der nordbayerischen Nachrichten jemals Artikel wie den aktuellen auf NoTricksZone zu den inzwischen schon regelmäßigen Temperaturmanipulationen gelesen hat:
Global Temperature Data Manipulation:
Thousands Of Non-Urban Thermometers Removed
0.3°C Of Pause-Busting Warmth Added Since 1998,
0.5°C Of Warming Removed From 1880-1950 Trend,

Oder EIKE: Wie die neue Software der NOAA die regionale Erwärmung antreibt,
darf man ebenfalls bezweifeln.

Wie eine solche Richtigstellung „falscher“ Messungen in der Vergangenheit an die aktuellen politischen Vorgaben in der Praxis aussieht, zeigt der folgende Bildvergleich mit dem Temperaturverlauf von Capetown, Südafrika.

Bild 5 GISS Temperaturdaten von Capetown, Südafrika von 1880 – 2015. Linkes Bild Rohdaten, rechtes Bild der homogenisierte Verlauf. Quelle: Screenshots aus dem NASA-Viewer

„ … Die Anzeichen, dass es diesen Klimawandel gibt, werden immer deutlicher …“

Man muss leider feststellten, dass wirklich seltenst jemand in den IPCC Langbericht sieht und dort nachliest, was man in der Kurzfassung für Politiker bewusst an Information weggelassen hat. Genau unter die Weglassungen fallen die Aussagen (im Langbericht), dass der Klimawandel nicht belegt werden kann (vollständige Listung siehe Schlusskapitel „IPCC Aussagen“). Aber auch neuere Publizierungen bleiben – sofern sie den Klimawandel nicht bestätigen – vollkommen unbeachtet.

Wie leicht zudem eindeutig andere Ursachen ganz aktuell vor aller Augen bewusst verfälschend einem Klimawandel zugewiesen werden, zeigen die Unwetter des letzten Jahres ganz exemplarisch:
EIKE: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
dessen Beispiel sich natürlich auch an vielen anderen Ereignissen feststellen lässt:
Sowohl in Deutschland:
EIKE: Der Klimamonitoringbericht 2016 für Süddeutschland,
wie auch international:
EIKE: Klimazombis, die nicht sterben dürfen, wie der Poopó-See in Bolivien
EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2: So viel Meerespegel und Stürme hat es vor dem Klimawandel nie gegeben
kaltesonne: University of Cambridge: Extremwetter in der ersten Hälfte des 20. Jahrhunderts häufiger als in der zweiten Hälfte.

… Eisschollen brechen in der Antarktis ab …“

Und nun brechen in der Antarktis als „Klimawandel-Beleg“ Eisschollen ab, was wohl demonstrieren soll, dass es dort auch alarmistisch wärmer geworden wäre. Die Frage ist nur, wie will die Klimwa(wandel)wissenschaft dies feststellen?
Die Proxirekonstruktionen des immerhin umfassendsten AGW-Rechercheprojektes lassen im langfristigen Maßstab überhaupt keinen Beleg für wärmer oder kälter zu. Und für die Arktis würde man danach eher leicht „kälter“ vermuten.

Bild 6 Temperatur-Proxirekonstruktionen Antarktis. Quelle: Pages2k-Viewer

Doch auch die Arktis, welche sich laut unseren Medien geradezu überhitzt, zeigt im langfristigen Vergleich wenig davon, so man aus dem Proxi-Datensalat überhaupt etwas ableiten will.

Bild 7 Temperatur-Proxirekonstruktionen Arktis. Quelle: Pages2k-Viewer

Leider musste selbst die NASA feststellen, dass die Antarktis an Eis zunimmt und damit weit weniger als bisher angenommen, zum Meeresspiegelanstieg beitragen kann:
kaltesonne, 31. Dezember 2015: NASA-Studie mit überraschendem Befund: Antarktische Eiskappe wächst derzeit und bremst globalen Meeresspiegelanstieg
Die Meldung schlug ein wie ein Blitz: Die Antarktis verliert derzeit nicht etwa an Eismasse, sondern wächst sogar. Dies berichtete am 30. Oktober 2015 die NASA per Pressemitteilung. Damit steuert die Antarktis momentan nichts zum Meeresspiegelanstieg bei. Im Gegenteil, das Eiswachstum bremst den Anstieg sogar mit 0,23 mm pro Jahr. Die NASA widerspricht damit dem letzten IPCC-Bericht von 2013 (AR5), in dem noch von einem positiven Meeresspiegel-Beitrag der Antarktis von 0,27 mm pro Jahr ausgegangen worden war.
Unterdessen reduzierte eine andere Studie von britischen und französischen Wissenschaftlern auch den zukünftigen Meeresspiegelbeitrag der Antarktis. In einer Pressemitteilung des British Antarctic Survey vom 18. November 2015 teilten die Forscher mit, dass die Antarktis bis 2100 im schlimmsten Fall 30 cm beisteuern würde, was drastisch unter jenen Werten anderer Prognostiker liegt, die wahre Sintfluten heraufziehen sahen. Natürlich fragt man sich, was wohl der wahrscheinlichste Wert ist, der weder in der Pressemiteilung, noch im Abstract der Arbeit genannt wird. Dazu schauen wir in die Originalarbeit und lesen den Wert (50%-Quantil) direkt in der Graphik ab (Abbildung 1). Das Ergebnis: Die Antarktis wird bis 2100 im wahrscheinlichsten Fall 15 cm zum Meeresspiegelanstieg beitragen.

Dass das Abbrechen von Schelfeis nichts mit einem Klimawandel zu tun hat, ist auch Meinung kompetenter Klimawissenschaftler. Doch in der Berichterstattung zeigt sich, ist solche Kenntnis „nicht erwünscht“:
kaltesonne: No-News: Kein Klimawandel auf der britischen Halley-Station in der Antarktis
Am 20. Januar 2017 ging es in der  BBC-Sendung “Science in Action” um den Zwangsumzug der Britischen Antarktis Station Halley VI. Kurios: Während in der Anmoderation noch wie üblich davon geredet wurde, dass man besonders in der Antarktis den “long term effect of Global Warming” fürchten müsse, widersprach der verantwortliche Chefwissenschaftler des British Antarctic Survey BAS (ab 6:30 Laufzeit) ganz entschieden der Behauptung, dass der Riss im Eisschelf etwas mit Klimaerwärmung zu tun habe. Prof. David Vaughan meinte dazu unter anderem:
“…it would be a mistake to connect this immediately with some kind of global warming. At Halley, where we have measured the temperature routinely on a daily basis for almost 50 years, we haven’t seen any evidence for climate change in that area…”
Diese glasklare Aussage von Seiten des führenden britischen Antarktis Forschers ist freilich eine köstliche Ohrfeige für all die zahllosen Medien, welche den nötigen Umzug der Station, sofort und reflexhaft, dem anthropogenen Klimawandel anlasteten. Negativbeispiele z.B. beim ORF, NZZ, Krone. Aber auch der stets klima-besorgten BBC war das Zitat von Prof. Vaughan offenbar zu ehrlich und klimarealistisch und deswegen wurde es in der sonst eigentlich ausführlicheren Schwester-Sendung “The Science Hour” herausgeschnitten und durch eine deutlich abgeschwächte Formulierung eines Moderators ersetzt

„ … der Meeresspiegel steigt … „

Wenn dem so ist, kann der Meeresspiegel aber niemals wie immer noch – vor allem vom deutschen PIK – simuliert, überproportional ansteigen.

Bild 8 [8] mit simulierten Pegelprojektionen
Und genau das macht er auch nicht. Weder in der angeblich alle Atolle verschlingenden Südsee:

Bild 8.1 Pegeldaten von Fidschi und weiteren umliegenden Messstationen im Süd-Pazifik seit 1966 (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Bild 9 Pegeldaten von Brest (Frankreich) 1810 – 2015, Quelle: PSMSL Pegeldaten

Was einen GRÜNEN Minister natürlich nicht daran hindert, das Gegenteil als gesichertes, ideologisches Wissen seiner Partei zu verkünden:
05.01.2016 Niedersachsen Umweltminister Wenzel: „Happy Birthday, Nationalpark Wattenmeer!
… Als größte Bedrohung für den Naturschutz im Wattenmeer bezeichnete der Minister den Klimawandel und den Anstieg des Meeresspiegels …,
obwohl eine Pegelstudie der Uni Siegen im Jahr 2013 auch für die Deutsche Nordseeküste ganz konkret Entwarnung gab:
WESTFALENPOST 31.07.2013: Nordsee-Forschung: Meeresspiegel steigt pro Jahr um 1,7 Millimeter

Es könnte natürlich weltweit gesehen anders sein, doch auch das ist nicht der Fall. Seit Anfang 1800 verbessert sich die Messgenauigkeit, die Anstiegsrate der Tidenpegel ändert sich weltweit aber nicht.

Bild 10 [6] PSMSL Jevrejeva et al, 2014, Global Mean Sea Level Reconstruction von 1807 – 2010. Linke Achse: gsl rate (grün), rechte Achse: absoluter Pegel (blau)
PSMSL Datenbeschreibung (Auszug): This page provides a short description and file with data of global sea level reconstruction for the period 1807-2010 by Jevrejeva, S., J. C. Moore, A. Grinsted, A. P. Matthews and G. Spada.
Authors have used 1277 tide gauge records of relative sea level (RSL) monthly mean time series from the Permanent Service for Mean Sea Level (PSMSL) database

Man lernt daraus: Fake-News sind ausschließlich solche mit der politisch unerwünschten Meinung.

Macht Ihnen der Klimawandel und seine Folgen Angst?

Die RedakteurInnen erhalten wenigstens darauf eine leidlich realistische Antwort: Angst hat der Betreiber keine, aber er macht sich trotzdem vorsichtshalber (für die Redaktion?) Sorgen.

In vielen EIKE-Artikeln hat der Autor gezeigt, dass die meisten angeblichen Klimawandel-Veränderungen im historischen Kontext betrachtet nicht vorliegen und der wichtigste Beleg, die Erwärmung hätte erst mit dem Beginn der Industrialisierung angefangen, nicht haltbar ist, da es spätestens schon gegen 1650 begann wärmer zu werden, siehe
EIKE: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende.,
mit dem folgenden Bild daraus:

Bild 11 Vergleich der neuen Klimarekonstruktionen (LOC 2k und LOC 500y) mit anderen Rekonstruktionen aus dem IPCC AR5

Doch auch mittelfristig besteht keinerlei Anlass zu Sorgen:
EIKE 05.11.2016: Novemberrückschau Klima und EEG: Nichts Neues, nur Deutschland ist recht kalt geworden,
wie es die mit Satelliten gemessen Temperaturkurve der europäischen Breiten der Nordhemisphäre (welche nicht so stark manipuliert werden, wie die mit Thermometern gemessenen) unbestechlich zeigen:

Bild 12 UAH-Satellitendaten der mittleren nördlichen Breiten (25 … 60 Grad), bodennahe Schichten. Vom Autor aus der Datentabelle erstellt.

wie man es auch detaillierter auf EIKE und auf englischsprachigen Portalen nachlesen kann:
NoTricksZone: The earth is greening and 16 other comments on climate hysteria

Womit nur die Sorge übrig bleibt, es könnte bald wieder so kalt werden wie zur Zeit vor dem Beginn der industriellen Revolution, oder weit Schlimmeres:
EIKE: Man sollte schon langsam an die nächste Eiszeit denken

Vielleicht gibt jedoch das Wetter in Roßtal zu Sorgen Anlass

Die Daten der Wetterstation lassen sich ab dem Jahr 2003 anzeigen. Wenn nicht überall davon geredet würde, dass der CO2-Ausstoß ungebremst zunimmt und man zur Verhinderung des Schlimmsten sofort massivst reduzieren muss, würde man denken können, der Mensch habe dank einer schon gelungenen 0-Setzung des CO2-Ausstoßes die Lenkung des Wetters zum linearen Idealverlauf gut in den Griff bekommen.
Zum Glück ist dem nicht so, sonst wäre der Beleg für die Unhaltbarkeit der Klimawandel-Hypothese (angeblicher, direkter Zusammenhang zwischen der Erwärmung und dem anthropogenen CO2-Eintrag) verschwunden.

So zeigt die Wetterstation „Wetter Roßtal“:
Die Temperatur steigt keinesfalls ungebremst immer höher (obwohl alle Medien laufend davon berichten):

Bild 13 Temperaturdaten der privaten Wetterstation Wetter Roßtal von 8.2003 – 14.2.2017

Der Niederschlag und auch die Niederschlags-Spitzen nehmen nicht zu (obwohl es wegen der angeblich zunehmenden Wärme doch immer mehr Feuchte in der Luft gibt, die vermehrt sintflutartig niederregnet),

Bild 14 Niederschlagsdaten der privaten Wetterstation Wetter Roßtal von 8.2003 – 14.2.2017

Der Wind nimmt nicht zu (obwohl verstärkt auftretende Stürme eine typische Begleiterscheinung des Klimawandels sein sollen).

Bild 15 Windwerte der privaten Wetterstation Wetter Roßtal von 8.2003 – 14.2.2017

In meiner Zeitung steht, was die ganze Wahrheit braucht. Weil sie unabhängig berichtet und Hintergründe aufdeckt

Die nordbayerischen Nachrichten werben ganzseitig mit den folgenden Aussagen:
WEIL JEDES WORT DEN BLICK ERWEITERT … in meiner Zeitung steht, was die ganze Wahrheit braucht. Weil sie unabhängig berichtet und Hintergründe aufdeckt“.
Das Thema wäre eine gute Gelegenheit gewesen, es zu belegen, doch wurde diese Gelegenheit ganz bewusst ausgelassen. Wirklich schade, denn das Thema böte viel Stoff für interessante Artikel.

Gleich eine Woche später zeigte die Redaktion zudem exemplarisch, dass sie kein Interesse daran hat, den Lesern „ … was die ganze Wahrheit braucht“ zu bieten und nahe daran ist, eher in die Richtung „ … presse“ zu tendieren.

Im Rahmen ihrer nun erkennbaren Medienkampagne zur Unterstützung der Klimawandel-Hysterie brachte die Zeitung am 18.02. einen mehr als halbseitigen Artikel „Weg mit dem Eisbär“, in dem ausschließlich ein Klimawandel-NGO „Climate Outreach“ sozusagen als Werbeagentur mitteilt, wie man durch Weglassen von Information und Konzentration auf Plakatives den Glauben an den Klimawandel stärkt. Selbstverständlich durfte auch dort vollkommen unreflektiert wiederholt werden: … worum es geht, nämlich um Stürme, Fluten und Dürren, um Hunger, versinkende Welten, Städte ohne Luft zum Atmen.
Nicht einmal über das inzwischen allseits bekannte Lügenmärchen der angeblich vom Klimawandel bedrohten Eisbären wurde informiert.
EIKE: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)

Unter „WISSEN KOMPAKT“ auf der gleichen Seite dann noch eine Information, welche an Suggestion und Weglassung wirklicher Information in der Kürze kaum überbietbar ist:

Teures Leugnen
„Der neue US-Präsident Donald Trump leugnet hartnäckig die Klimaerwärmung (siehe oben). Doch mit seiner Politik könnte Trump den USA deutliche Mehrkosten bescheren: US-Forscher haben ermittelt, dass der steigende Stromverbrauch für Kühlung an immer heißer werdenden Tagen das US-Stromnetz bis zum Ende des Jahrhunderts an seine Kapazitätsgrenzen führen wird. Um eine Überlastung zu verhindern, wären Investitionen von bis zu 180 Milliarden US-Dollar nötig.

Die Amis wird diese auf Simulation beruhende Information wohl eher kalt lassen, denn Wärmer ist es in Amerika bisher nicht geworden (die höchste Temperatur in den USA wurde 1913 gemessen), dafür werden sie trotz „Klimawandel“ weiterhin regelmäßig von Kältewellen geplagt. Da sind dann die Netze nicht nur überlastet, sondern wegen der Blizzards fallen die Masten um und es kommt überhaupt kein Strom.
kaltesonne: In den nordöstlichen USA hat es im Winter 2014/15 so viel geschneit wie seit 300 Jahren nicht mehr
kaltesonne: Neue Nature-Studie: US-Wetter hat sich in den letzten 40 Jahren deutlich verbessert. Winter wärmer, Sommer gleichbleibend
Und Leser, welche die EEG-Entwicklung bei uns kritisch verfolgen, werden sich sagen: Dem Deutschen Stromnetz wird dies viel früher passieren und zu weit höheren Kosten. Allerdings mit dem gegenteiligen Vorzeichen, der Bejahung der Klimahysterie.
EIKE: DDR 2.0 – oder wie ich lernte die Energiewende als Erfolgsgeschichte zu sehen!
EIKE: Deutschlands Energiewende-Alptraum: Netzzusammenbruch wegen unregelmäßiger Wind- und Sonnenenergie kommt näher

„ … Wetterextreme nehmen zu … „

IPCC Aussagen des letzten Sachstandsberichtes zu Extremereignissen.

Praktisch alle Extremereignis-Aussagen der Vorgängerberichte mussten zurückgenommen oder relativiert werden. Deshalb erschienen diese Informationen nur im Langbericht und wurden im Summary weggelassen.

Tropische Stürme und Hurrikane
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Tropische Zyklone
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”
Übersetzung: “Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

Außertropische Zyklonen
IPCC 2013, AR5, WGI, Kapitel 2, Seite 220: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”
Übersetzung: “Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Dürren
IPCC 2013, AR5, WGI, Technical Summery, Seite 50: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”
Übersetzung: “Es besteht ein geringes Vertrauen im globalen Maßstab beobachteten Trend an Dürre oder Trockenheit (Mangel an Niederschlag), aus Mangel an direkten Beobachtungen, Abhängigkeiten von abgeleiteten Trends auf der Indexauswahl und wegen geographischer Unstimmigkeiten in den Trends.“
sowie
IPCC 2013, AR5, WGI, Kapitel 2, Seite 215: “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”
Übersetzung: „Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es zur Zeit nicht genug Hinweise und [nur] ein geringes Vertrauen in einen beobachteten globalen Trend an Dürre oder Trockenheit (Mangel an Niederschlägen) gibt, aus Mangel an direkten Beobachtungen in der Mitte des 20. Jahrhunderts, geographischen Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends auf der Indexauswahl. Auf Basis aktualisierter Studien waren die AR4-Schlußfolgerungen bezüglich global zunehmender Trends an Dürre seit den 1970er Jahren wahrscheinlich übertrieben. Es ist jedoch wahrscheinlich, dass die Häufigkeit und Intensität von Dürre im Mittelmeerraum und Westafrika sich erhöhen könnte und im Zentrum von Nordamerika und Nordwest-Australien seit 1950 abnehmen könnte.“

Überflutungen
IPCC 2013, AR5, WGI, Technical Summery, Seite 112: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”
Übersetzung: “Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“

Hagel und Gewitter
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”
Übersetzung: „Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“

IPCC Zusammenfassung
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Nachtrag
Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen, deutschen Fassung des Summary for policymakers (hier) fehlen!

Quellen

[1] nordbayerische Nachrichten, Lokalausgabe vom 10.02.2017, Artikel: Potzblitz

[2] klimaretter.info: Klimaflüchtlinge, die nicht flüchten

[3] Spiegel Online: Warnung von 2005Prognose zu Klimaflüchtlingen bringt Uno in Bedrängnis

[4] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[5] adelphi: Unterstützung der Regierung von Simbabwe bei der Entwicklung nationaler Klimaschutz-Zusagen
https://www.adelphi.de/de/projekt/unterst%C3%BCtzung-der-regierung-von-simbabwe-bei-der-entwicklung-nationaler-klimaschutz-zusagen

[6] EIKE 18.10.2016: Wie steht es um den Untergang der Marshall-Inseln?
http://www.eike-klima-energie.eu/news-cache/wie-steht-es-um-den-untergang-der-marshall-inseln/

[7] EIKE 01.04.2016: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen




Wo ist der CO2-Treibhaus­effekt? Der Januar wird seit über 30 Jahren kälter

Vollmundig sind die Worte der CO2-Erwärmungsgemeinschaft, wenn es um die Wintererwärmung geht, da sollten doch die deutschen Kinder den Schnee überhaupt nicht mehr kennengelernt haben, und falls ja, dann nur im Hochgebirge. Laut Behauptung des CO2-Erwärmungsorakels sollte doch gerade der Januar und insbesondere die Winter wärmer werden. Tatsache ist: Kein einziger dieser Erwärmungsverkünder, aber auch keiner aus der Gemeinschaft der Erwärmungs-Gläubigen, die man auch immer wieder bei EIKE in den Kommentaren findet, konnte uns eine wärmer werdende Wetterstation aus den letzten 30 Jahren benennen. Gibt es überhaupt eine?

Aber zwei aufmerksame Leser haben sich gemeldet und die Daten von Neugersdorf, eine Wetterstation an der deutsch/polnisch/tschechischen Grenze, und von der Zugspitze, Deutschlands höchstem Berg zugeschickt.

Beginnen wollen wir mit der Zugspitze seit der Einrichtung der Station durch den DWD.

Grafik 1: Auf der x-Achse sind die Temperaturen aufgetragen, auf der y-Achse die 117 Januarmonate. Die Trendlinie verläuft recht ausgeglichen.

Auch die Temperaturen auf Deutschlands höchstem Berg zeigen das übliche Schaubild. Die Januarmonate wurden ab 1900 bis über Jahrhundertemitte hinaus erst einmal kälter, um dann wieder leicht anzusteigen. Nach 1986 erfolgt dann ein plötzlicherTemperatursprung auf ein höheres Niveau, das 1989 erreicht war. Weder die leichte Temperaturabnahme über 60 Jahre zu Beginn des letzten Jahrhunderts, noch der plötzliche Sprung auf das höhere Niveau lassen sich mit einem Kohlendioxidtreibhauseffekt erklären. Erklärungsversuche wie wir sie fast täglich durch Katastrophenscharlatane erleben, sind reine wissenschaftliche Märchen.

30 Jahre sind eine Klimaeinheit. Deshalb betrachten wir die letzten 30 Jahre, in welcher laut Gemeinschaft der Erwärmungsgläubigen die Temperaturen besonders stark gestiegen wären.

Grafik 2: Auch auf der Zugspitze wurde es in den letzten 30 Januarmonaten eindeutig kälter und nicht wärmer.

Fazit: Alle Behauptungen in deutschen Medien über wärmer werdende Winter sind Unwahrheiten. Seriöse Wissenschaftler richten sich nicht nach dem Mehrheits-Glauben und nach der oftmals bombastischen Panikmache von ZDF und dergleichen, sondern nach den Fakten des Deutschen Wetterdienstes. Schon allein diese Grafik der Januartemperaturen der Zugspitze, einer offiziellen DWD-Wetterstation zeigt, dass Kohlendioxid und Temperaturen unabhängig voneinander sind. Eins hat mit dem anderen nichts zu tun. Aus der Grafik müsste man vielmehr schlussfolgern, dass die auf dem Mouna Loa gemessene CO2-Konzentrationszunahme der Atmosphäre eher zu einer Abkühlung in den letzten 30 Jahren in Mitteleuropa geführt hat. Also Klimaabkühlung durch CO2-Zunahme? Hier gilt es, diesen möglichen Zusammenhang in Zukunft näher zu beleuchten. Immerhin gibt es Hypothesen, welche das behaupten.

Und wie reagieren unsere Medien auf die Januargrafiken? Antwort: gar nicht oder mit diesem Trick: Es wird nur die CO2-Zunahme der letzten 30 Jahre gezeigt und den Unwissenden suggeriert, dass auch die Temperaturen ähnlich gestiegen wären. Aber wer fällt darauf rein? Antwort: Viele. Leider auch immer noch viele der EIKE-Kommentarschreiber.

Anmerkung: Grundsätzlich sind die Daten der Zugspitze mit Vorsicht zu betrachten, denn der Berg hat durch den Umbau in den letzten 100 Jahren zur Touristenhochburg einen immensen Wärmeinseleffekt entwickelt, eine menschengemachte Zusatzwärme, welche das Thermometer auf dem Dach des DWD-Hauses mit misst, eine anthropogene Wärmeinsel-Erwärmung, welche in die gemessenen Temperaturerhebungen mit eingeht. Jedoch sind die Besucherströme vorwiegend in den Sommermonaten, so dass der Wärmeinseleffekt im Januar weniger Wirkungen zeigt.

Wetterstation 2: Neugersdorf: sprich Neu-Gersdorf.

Die Daten dieser Station schickte uns ein Leser zu, der in Goldbach bei Bischofswerda selbst seit 22 Jahren eine Wetterstation führt und sich deswegen auch in der Nachbarschaft umtut. Ab 1960 bis 2011 stand die Wetterstation Neugersdorf an einer 50m höher gelegenen Stelle wie momentan. Die Januardaten ab 2012 wurden von der neuen etwas wärmeren Station in der Nähe einer der Spreequellen durch den Stationsleiter auf den ehemaligen Standort umgerechnet. Der Ort selbst ist wärmeinselarm, da die Einwohnerzahl seit der Wende stagniert.

Die Januar-Grafik der letzten 30 Jahre:

Grafik 3: Die fast wärmeinselfreie Wetterstation in Neugersdorf zeigt eine deutliche Abkühlung der Januartemperaturen in den letzten 30 Jahren. Mit y = – 0,11x ist die Trendlinie stark negativ und unterbietet damit deutlich den DWD-Schnitt. Ein richtiger Temperatursturz in der Oberlausitz.

Zum Vergleich, für Gesamtdeutschland sieht das Januarmittel der letzten 30 Jahre, erhoben durch den Deutschen Wetterdienst so aus:

Grafik 4: Die offiziellen Daten des Deutschen Wetterdienstes, ermittelt aus vielen Einzelstationen über ganz Deutschland verteilt, darunter auch viele Städte und Großstädte, zeigen eindeutig, dass der Monat Januar in den letzten 30 Jahren kälter wurde. Wie es weitergeht weiß niemand, da CO2 wirkungslos ist.

Es wird Zeit, dass endlich der Natur- und Umweltschutz in den Mittelpunkt des öffentlichen Handelns gerückt werden und nicht das Geschäftsmodell Klimaschutz. Wir leben derzeit in einer klimatisch sehr ruhigen Periode mit ausgeglichenen Temperaturen. Nur in den Städten wurde es in den letzten 100 Jahren wärmer, was aber nicht durch Kohlendioxid, sondern durch den zunehmenden Wärmeinseleffekt bedingt wurde. Kohlendioxid und Temperaturen haben nichts oder fast nichts miteinander zu tun. Das beweisen gerade die Grafiken dieses Artikels.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher




Rundbrief der GWPF vom 17. Februar 2017

Anzahl der Eisbären immer noch steigend, trotz globaler Erwärmung

Neuen Forschungen zufolge steigt die Eisbär-Population immer weiter, trotz globaler Erwärmung. Die neuen Populations-Schätzungen der Scientific Working Group 2016 liegen irgendwo zwischen 22.633 und 32.257 Bären. Dies wäre eine Gesamt-Zunahme gegenüber dem Vorjahr, als 22.000 bis 31.000 Exemplare geschätzt worden waren. Die gegenwärtigen Zahlen sind eine erhebliche Zunahme gegenüber dem Jahr 2005, als lediglich 20.000 bis 25.000 Bären geschätzt worden waren – und außerdem sind jene Zahlen eine drastische Zunahme gegenüber Schätzungen Ende der sechziger Jahre, als man von 8000 bis 10.000 Bären ausging. Wissenschaftler erkennen immer mehr, dass Eisbären erheblich widerstandsfähiger gegen Änderungen des Niveaus von Meereis sind als Umweltaktivisten geglaubt hatten. – Andrew Follett, The Daily Caller, 16. Februar 2017

Gestützt und bestätigt wird diese Meldung hier:

Jetzt offiziell: Anzahl der Polarbären nimmt weiter zu! – Susan Crockford, Polar Bear Science, 15. Februar 2017

———————————————

Bates, Burgers & die wissenschaftliche Integrität der NOAA

Es geht nicht um David Rose [der es ans Licht gebracht hatte]. Es geht auch nicht um Bates [den Whistleblower]. Es geht um die Umgehung der Verfahren, die eingeführt worden sind, um die Integrität der Daten zu schützen und damit auch den Ruf der NOAA. Es geht darum, was Bates so umrissen hat: „Ethische Standards müssen befolgt werden“. Es kann kein Vertrauen in Daten geben ohne Vertrauen in die Verfahren um Sammlung und Speicherung der Daten. Und Personen oder Organisationen, die diesen Verfahren keinerlei Wert beimessen, erodieren das Vertrauen noch weiter. Toad Liquor, 14. Februar 2017

———————————————

Nicht vor Klima kneifen!

Präsident Trump wird seine Aufmerksamkeit demnächst einem weiteren Versprechen seiner Kampagne zuwenden – der Rücknahme der Klimaagenda von Obama – und einer Quelle aus seiner Regierung zufolge werden Executive Orders zu diesem Thema „die Luft aus dem Raum saugen“. Das ist gut, aber nur, wenn das Team Trump das Vorhaben vollendet und die Pariser Klima-Bemühung in jenes Vakuum sendet. Das ist nicht mehr sicher. Das schlimme Risiko des erbärmlichen Verfahrens sieht so aus: Falls die umweltliche Linke etwas aus den letzten 20 Jahren gelernt hat, dann den Umstand, dass in der juristischen Branche viele zuverlässige Freunde sitzen. Republikaner teilen die grüne Agenda nicht, und die Regierungen der Demokraten, die das tun, sind gehindert durch Gesetze und Vorschriften. Aber Richter erledigen das. Will man eine Schlange auf die Liste gefährdeter Arten setzen? Will man einen Damm stilllegen? Man klage vor einem freundlich gesonnenen Gericht, und man bekommt augenblicklich bindende Ergebnisse. – Kimberley A. Strassel, The Wall Street Journal, 17. Februar 2017 [paywalled]

———————————————

Sind Klima-Alarmisten Kult-Gläubige mit glasigen Augen?

Will Happer ist ein bedeutender Physiker bei Princeton, der sich entschlossen hat, (zusammen mit seinem Kollegen Freeman Dyson) eine Flagge auf der skeptischen Seite der Klimadebatte einzurammen. Jüngst fiel sein Name als potentieller Kandidat als Wissenschaftsberater von Präsident Trump. Kürzlich gab Happer dem Guardian ein Interview. Beim Thema „Klimawandel“ nahm Happer kein Blatt vor den Mund: „Es gibt einen ganzen Bereich der so genannten Klimawissenschaft, der in Wirklichkeit mehr ein Kult ist“, sagte Happer dem Guardian. „Es ist wie Hare Krishna oder so. Sie haben glasige Augen und sie singen. Das wird potentiell das Image der Wissenschaft insgesamt schädigen“. Das Wort „Kult“ mag ein wenig zu hoch gegriffen sein, aber was immer es ist, es ist mit Sicherheit keine Wissenschaft. – Francis Menton, Manhattan Contrarian, 17. Februar 2017

———————————————

Übersetzt von Chris Frey EIKE




Energie-Restrik­tionen, nicht der Klima­wandel, sind das Risiko für Zivili­sationen

McKibbens Artikel ist eine Mischung aus Halbwahrheiten, Irreführung und Fiktion. Er hat die Absicht, die Wired-Leser davon zu überzeugen, dass die Wissenschaft eindeutig ist dergestalt, dass Menschen eine katastrophale globale Erwärmung verursachen. Nichts könnte weiter entfernt von der Wahrheit liegen.

In den neunziger Jahren des 19. Jhh. hat der schwedische Physiker und spätere Gewinner des Nobelpreises Svante Arrhenius die ersten Berechnungen durchgeführt, bei denen er einen steigenden CO2-Gehalt in der Atmosphäre mit Erwärmung in Verbindung brachte. Für Klimaalarmisten wie McKibben ist Arrhenius ein Held. Was er aber wohlweislich nicht erwähnt ist, das Arrhenius keineswegs eine Erwärmung als eine Drohung für die Menschheit ansah, sondern dass er sich im Gegenteil dringend eine wärmere Welt wünschte, die zu bekommen er glaubte. Arrhenius argumentierte, dass die Erwärmung durch menschliche CO2-Emissionen notwendig waren, um eine rapide wachsende Bevölkerung zu ernähren und die nächste Eiszeit auszubremsen.

McKibben vergöttert auch den US-Ozeanographen Roger Revelle, den ehemaligen Präsidenten der American Association for the Advancement of Science, für seine frühen Arbeiten zur globalen Erwärmung. In einer Studie aus dem Jahr 1957, die Revelle zusammen mit Hans Suess durchführte, behaupteten die Forscher, dass die Ozeane der Welt all das überschüssige CO2 aus der Verbrennung fossiler Treibstoffe nicht aufnehmen können, wie es Forscher davor geglaubt hatten. Als Folge davon, sagte Revelle, verursachen die Menschen einen „Treibhauseffekt“, der zu einer „globalen Erwärmung“ führen werde. In seinem Film Eine Unbequeme Wahrheit würdigt der gescheiterte Präsidentschaftskandidat Al Gore die Arbeiten von Revelle, der in Harvard sein Lehrer war und der ihn in den siebziger Jahren auf die Gefahren einer vom Menschen verursachten globalen Erwärmung aufmerksam machte.

Den Worten des unsterblichen Rundfunksprechers Paul Harvey zufolge ist hier „die übrige Story“. Alarmiert darüber, dass seine Arbeiten bzgl. Klima für Bemühungen herangezogen wurden, Gesetzgeber zu nötigen, dramatische Maßnahmen zum Kampf gegen die globale Erwärmung zu ergreifen, schrieb Revelle im Jahre 1991, dem letzten Jahr seines Lebens, in einem Artikel „Die wissenschaftliche Grundlage für eine Treibhaus-Erwärmung ist zu unsicher, um drastische Maßnahmen zu diesem Zeitpunkt zu rechtfertigen. Es gibt kaum ein Risiko dabei, mit politischen Reaktionen noch zu warten“. Revelle und seine Kollegen gingen noch weiter, als sie feststellten: „Drastische, überstürzte – und besonders einseitige – Schritte, die vermeintlichen Treibhaus-Auswirkungen zu verzögern, können Arbeitsplätze und Wohlstand kosten sowie die menschlichen Entbehrungen bei der globalen Armut zunehmen lassen, ohne effektiv zu sein. Stringente ökonomische Kontrollen wären derzeit ökonomisch verheerend besonders für Entwicklungsländer…“.

Und was ist mit dem Pariser Klimaabkommen, bei dem McKibben solche Angst hat, dass Präsident Donald Trump diesen aufkündigen wird? Zwar stimmt es, dass 195 Nationen zugestimmt haben, ihren Kohlendioxid-Ausstoß zu verringern, doch bei genauerem Hinsehen erzählen die Details des Planes eine völlig andere Story.

Das Pariser Klimaabkommen ist ein Papiertiger. Die darin versprochenen Kürzungen der Emissionen sind für die Unterzeichner-Länder nicht bindend, und es sind keine Strafen vorgesehen für Länder, die ihre freiwillig gesetzten Ziele nicht erreichen.

Nach Unterzeichnung des Abkommens räumte man im UN-Umweltprogramm ein, dass selbst wenn alle am Abkommen beteiligten Parteien die versprochenen Emissionsziele erreichen würden, würden die von den Regierungen eingereichten Pläne zu einer weniger als halb so starken Reduktion der Emissionen führen, wie zur Erreichung des 2°C-Zieles erforderlich wären. Diese Tatsache veranlasste James Hansen, den ehemaligen Direktor des Goddard Institute for Space Studies der NASA, zu seinem vernichtenden Urteil des Abkommens gegenüber dem Guardian, von dem er sagte, dass es ein „wirklicher Betrug, ein Fake sei … Es gibt keine Maßnahmen, nur Versprechungen“.

Da das Abkommen nicht mehr ist als eine ein gutes Gefühl vermittelnde Maßnahme, deren wirkliches Ziel es war, den Führern der Welt einen positiven Photo-Termin zu verschaffen, wird es keinen messbaren Einfluss auf das Klima haben, falls Trump sein Wort hält und sich aus dem Abkommen zurückzieht.

Fossile Treibstoffe sind das Lebenselixier der modernen Zivilisation. Wie Alex Epstein in seinem brillanten Buch The Moral Case for Fossil Fuels demonstriert, ermöglichen erst sie die moderne Landwirtschaft, die erforderlich ist, um die Milliarden Menschen auf diesem Planeten zu ernähren, sowie die moderne Medizintechnik, welche für einen drastischen Rückgang der Kindersterblichkeit sowie für längere Lebensdauer gesorgt hat. Man kann keine Krankenhäuser, Ambulanzen, Operationssäle und Kliniken 24 Stunden am Tag betreiben, wenn man nicht Kohle, Erdgas und Öl verbrennt.

Epstein schrieb: „Das Klima ist jetzt nicht mehr ein wesentlicher Grund für Todesfälle, was zum größten Teil den fossilen Treibstoffen zu verdanken ist … Nicht nur, dass wir das Große Ganze ignorieren, indem wir den Kampf gegen die Klimagefahr in den Mittelpunkt unserer Kultur stellen, sondern auch, dass wir den Klimawandel ,bekämpfen‘ mittels Gegnerschaft zu dem Werkzeug, dass das Klima Dutzende Male weniger gefährlich macht. Die öffentliche Klimadiskussion ist rückwärts gewandt. Sie betrachtet den Menschen als eine destruktive Kraft bzgl. der Überlebensfähigkeit im Klima; als einen, der das Klima wegen des Verbrauchs fossiler Treibstoffe gefährlich macht. Tatsächlich ist aber das genaue Gegenteil der Fall: Wir verwandeln ein sicheres Klima nicht in ein gefährliches Klima, sondern wir verwandeln ein gefährliches Klima in ein sicheres Klima.“.

Das ist die wirkliche Story der Relation zwischen fossilen Treibstoffen und der Zivilisation – eine Story, die Misanthropen wie McKibben einfach nicht verstehen [oder nicht verstehen wollen, wie z. B. die gesamte Klimaille hierzulande! Anm. d. Übers.]

[Originally Published at American Spectator]

Link: https://www.heartland.org/news-opinion/news/energy-restrictions-not-climate-change-put-civilizations-at-risk

Übersetzt von Chris Frey EIKE




Feinstaub, eine Posse

Schädigt Feinstaub auch das Gehirn? Schaffen es diese mikroskopisch kleinen Teilchen, durch die Lunge in das Blut, sogar die legendäre Blut-Hirn-Schranke, die letzte Bastion des Gehirns, zu überwinden und in das Gehirn einzudringen? Richten sie dort verheerende Schäden an? Wenn man die Diskussion darüber verfolgt, kommt man nicht umhin, diese Frage zu bejahen. So vernebelt klingen die Äußerungen.

Feinstaub gilt seit einiger Zeit als das größte anzunehmende Übel, der Super-Gau schlechthin – unmittelbar nach der Kernschmelze eines Kernkraftwerkes. Er lässt Alkohol, Zigaretten und sogar das ganz superböse CO2 weit hinter sich in der nach oben offenen Katatstropenskala. Feinstaub gefährdet die Gesundheit, ist einfach grauenhaft, muss weg. Feinstaub führen Grüne und selbsternannte Umweltschützer im Mund, wenn sie auf die Gesundheitsgefahren unserer Industriegesellschaft hinweisen – oder schlichtweg Geld für „mutige“ Projekte gegen den Feinstaub wollen.

Ökokriegsgewinnler wie die umstrittene Deutsche Umwelthilfe DUH überziehen derzeit Städte mit teuren Klagewellen, weil die die deutlich heruntergesetzten Grenzwerte nicht einhalten (können). Sie treiben ein teures Spiel über die Brüsseler Bande: Dort sorgt die Umweltguerilla-Lobby für niedrige Grenzwertvorgaben. Daraufhin kann Brüssel mit schöner Regelmäßigkeit Deutschland wegen grenzwertüberschreitender Feinstaubbelastung rügen. Das führt zum Beispiel dazu, dass der baden-württembergisch grüne Verkehrsminister in Brüssel mit einem Stuttgarter Feinstaubaktionsplan davon überzeugen muss, die Lage im Griff zu haben und dass im Südwesten in Sachen Umwelt etwas getan wird. Doch die Kommission verlangt jetzt »Butter bei die Fische«: »Wir wollen Ergebnisse sehen!« Zehn Jahre schon mahnt Brüssel und dringt auf Einhaltung der Grenzwerte.

Den Eiertanz kann man besonders schön in Stuttgart bewundern. Schon weit vor der Landeshauptstadt warnen Schilder über der Autobahn »Feinstaubalarm«, klingt ähnlich wie Bombenalarm. Die Bürger sollen das Auto stehenlassen, vor allem die Heizungen ausmachen. Frieren gegen Feinstaub. Über Internet lässt sich grafisch aufbereitet der Horror direkt verfolgen verbunden mit aktuellen Handlungsanweisungen: »Bitte lassen Sie Ihren Komfort-Kamin aus« und »Bitte lassen Sie Ihr Auto stehen.« Umweltverbände wie die Deutsche Umwelthilfe fordern Fahrverbote, allerdings nicht für ihren Chef, den Vielflieger und Vielfahrer Jürgen Resch. Der soll für den Schutz der Umwelt ungegrenzt fahren und fliegen dürfen.

Angst machen wirkt
Der vorzeitige Todesfall als Herrschaftsinstrument unserer Zeit

Nun ist in Stuttgart das Messgerät für Luftschadstoffe am Neckartor direkt an einer mehrspurigen Einfallstraße positioniert, also an der dreckigsten Stelle im gefürchteten Stuttgarter Kessel. Nach Berechnungen der Landesanstalt für Umweltmessungen Baden-Württemberg kommen an genau dieser berüchtigten Kreuzung 51 Prozent des Feinstaubes aus dem Straßenverkehr. Von diesen 51 Prozent allerdings nur 7 Prozent aus dem Auspuff der Autos, 44 Prozent davon entstehen beim Bremsen und wesentlich durch Abrieb von Reifen. Ein paar Meter weiter sieht die Situation vermutlich gleich ganz anders aus. Deshalb hatte einst die CDU-Fraktion beantragt, eine zweite Meßstelle zu installieren: »Auch – immer vorausgesetzt, im Ergebnis stellen sich die Werte besser dar – würde das Image der Stadt, die mit dem Neckartor als extrem dreckigem Ort in Sachen Feinstaub europaweit in den Schlagzeilen steht, bei einer sich möglicherweise ergebenden positiveren Gesamtdarstellung etwas weniger leiden.«Die EU muss sich auch nicht mit den zu erwartenden Protesten der Bürger herumschlagen. Davor scheuen die Grünen im Stuttgarter Rathaus als auch in der baden-württembergischen Landesregierung denn doch zurück. Im Prinzip hieße das, das Wirtschaftsleben einzustellen. Dann gibts auch keine Steuereinnahmen mehr.

Was tun, fragen sich verzweifelt die Grünen. Sie können auch ihre letzte Wählerklientel in guter Stuttgarter Halbhöhenlage kaum in der kalten Jahreszeit frieren lassen. Sie haben jetzt erst einmal »Betriebsbeschränkungen für kleine Feuerungsanlagen« verordnet. Danach sollen sogenannte Komfortkamine bei Feinstaubalarm – na was wohl – verboten werden. Also Holzöfen, die eine »bereits vorhandene Heizung ergänzen und nicht den Grundbedarf an Wärme decken«.

Die vor der Wut der Stuttgarter Bürger zitternden Stuttgarter Grünen sind zudem auf die Idee einer blauen Plakette gekommen. Nur Autos mit einer solchen Plakette sollen in die Innenstadt fahren dürfen. Damit sollen – so der Plan – im Jahr die Stickoxidwerte um 91 %, der Feinstaub um 10 % reduziert werden. Wieder eine neue Plakette, nachdem sich schon die alte grüne als wirkungslos erwiesen hat. 16 % der Feinstaubbelastung sollen kleine und mittlere Feuerungsanlagen produzieren, 30 % Ferntransporte und 3 % Industrie, Gewerbe, Baustellen und Sonstiges. Wohlgemerkt immer bezogen auf die bundesweit bekannte Messstelle am Neckartor in der baden-württembergischen Landeshauptstadt. Die bisherigen Fahrverbote haben jedenfalls keinerlei Wirkung gezeigt. Kunststück, denn der Verkehr ist keineswegs die Hauptquelle des ominösen Feinstaubes im Stuttgarter Talkessel.

Die Deutsche Umwelthilfe hat das Ausnehmen des Staates (und von Wirtschafts-Treibenden) als probates Geschäftsmodell erkannt und klagt sich spendenheischend durch die Gerichtsinstanzen, verweist auf die EU-Richtlinien, die die Grünen wesentlich herbeigeführt haben und will PR-trächtig die Städte zwingen, Autoverkehr stillzulegen. Derzeit klagt sie unter anderem vor dem Verwaltungsgericht Stuttgart. Das Land muss darlegen, wie es in der Stadt dauerhaft für saubere Luft sorgen will. Verkehrsminister Hermann wird wahrscheinlich das Gericht um Aufschub bitten.

Diese Umwelthelfer wollen sich gern mit dem Triumph schmücken, den Verkehr in einer Stadt lahmgelegt zu haben. Natürlich nur aus Umweltgründen. Das bringt PR und Geld. Ins Feld geführt werden bedrohlich klingende Untersuchungen, nach denen allein in Deutschland jährlich 34.000 Menschen an den Folgen von Feinstaub sterben. Das wäre deutlich mehr als die 3.000 bis 4.000 Verkehrstoten, ein wenig mehr als jene 20.000 bis 30.000, die aufgrund mangelnder Hygiene in unseren Krankenhäusern sterben würden. Europaweit sollen es 430.000 Menschen sein, weltweit einige Millionen: kurzum der Schrecken der modernen Industriegesellschaft. Ob das alles stimmt, weiß niemand. Es sind wieder einmal alles nur Modellrechnungen, die keinerlei Aussagekraft haben, wie das vor kurzem hier Peter Heller herausragend dargelegt hat.Niemand kann sagen, wie lange ein Mensch und mit welcher Konzentration ein Mensch Feinstaub ausgesetzt sein muss, damit er daran Schaden leidet. Niemand weiß das, schon gleich gar nicht lässt sich feststellen, ob jemand an einer zu hohen Feinstaubbelastung verstorben ist. Nun reicht es nicht, Autoverkehr und Heizung zu verbieten, sondern es müssen gleich auch Pflanzen und Bäume abgeholzt werden. Denn feine Staubpartikel produziert auch die Natur in ungeheurem Ausmaße. Pollen und Blütenstäube zum Beispiel wehen im Frühjahr bald wieder übers Land. Waldbrände muss man verbieten, dabei entstehen Feinstäube, und ebenso sollte man Vulkane einstellen. Was da an Staub aus dem Vulkanschlot herauspustet, übersteigt grünes Vorstellungsvermögen.

Keine Frage: Gute Luft ist ein hohes Gut, das niemand leichtfertig aufgeben darf. Aber es gilt, keine Alarmistenmaschinen einzuschalten, um noch mehr Geld aus irgendwelchen Fördertöpfen zu holen. Aber es gilt, die Kirche im Dorf zu lassen. Immerhin ist eingetreten, was Willy Brandt seinerzeit forderte: Der Himmel über dem Ruhrgebiet soll wieder blau werden. Das geschah einmal durch höhere Schornsteine, die den Dreck weiter in der Landschaft verteilten. Doch gleichzeitig brachten vor allemn neu entwickelte Filtertechnologien beachtliche Fortschritte. Anfang der 1960er Jahre wurden im Ruhrgebiet 1,5 Millionen Tonnen Staub und Russ sowie vier Millionen Tonnen Schwefeldioxid aus Kraftwerken, Stahlwerken und anderen Anlagen in die Luft geblasen. 1962 wurde in Nordrhein-Westfalen als erstem Bundesland ein Immissionsschutzgesetz verabschiedet. 1964 lag die Konzentration von Schwefeldioxid im Ruhrgebiet bei über 200 µg/Kubikmeter, 2009 sind es weniger als 10 µg.

Kraftwerke bekamen elektrostatische Rauchfilter, Katalysatoren, aufwendige Abgasreinigungsanlagen, so dass heute die Luft sauber geworden ist. Die Autos wurden mit aufwendigen Katalysatoren ausgerüstet – zuerst gegen den heftigen Widerstand der Autohersteller, Dieselmotoren wurden mit Rußfiltern ausgerüstet. Heute fällt es einem auf, wenn man hinter einem alten Auto ohner Abgastechnik her fährt.

Stickoxide braucht die Umwelt!
Die gute Seite der Stickoxide

Aber Feinstaub ist so recht ein Thema, über das man wunderbar dramatische Berichte in die Welt setzen kann. Feinstaub ist so schön geheimnisvoll, man sieht ihn kaum, er hat geheimnisvolle Eigenschaften, und kann „natürlich“ auch die Erbsubstanz schädigen. Vom Auspuff ins Gehirn – wie Feinstaub die Gesundheit schädigt – schöner kann man es nicht ausdrücken. Feinstaub ist Auslöser von Krankheiten, klar Übergewicht gleich mit, Alzheimer sowieso, die bis vor kurzem noch als ideologisch gut befundenen Heizungen mit Holz, weil so schön CO2-frei, sind plötzlich eine wesentliche Ursache des Übels, werden als Dreckschleuder Holzofen gebrandmarkt.Auch die Industrie lernt schnell. Verkaufte sie noch bei der atomaren Superkatastrophe von Tschernobyl, die bekanntermaßen den Erdball sprengte, so viele Geigerzähler wie noch nie an Leute, die eher wenig damit anfangen konnten, so hat sie jetzt Sonderschichten für die Fertigung von Partikelmessgeräte wie das HP-5800 elf (F für Feinstaub) Messgerät angeworfen, erhältlich über Amazon. Leider verfügt das Gerät noch nicht über den neuesten Schrei und kann noch nicht den Zusammenhang messen, den die Wissenschaft gerade herausgefunden hat, dass ultrafeine Partikel auch die Herzfunktion beeinflussen.

Ein Verbot tibetanischer Räucherstäbchen haben die Grünen bisher offenkundig nicht geplant. Die lassen in den Wohnungen die Feinstaubwerte dramatisch ansteigen. Das könnte denn doch zu viele Wähler der Grünen verschrecken. Da kann es eher gegen die Kirchen gehen. Weihrauchkessel lassen die Feinstaubwerte in den Kirchengemäuern über alle EU-Grenzwerte steigen.

Früher jedenfalls waren die Stadtverwaltungen praktisch veranlagt: Sie ließen mit Wassersprengwagen die Straßen abspritzen. Das wirkte Wunder. Staub, Feinstaub, Abrieb von Bremsen und Reifen sowie Rußniederschläge aus Heizungen wurden in die Kanalisation gespült. Dafür fehlt heute das Geld. Und dann ließe sich das Thema »Feinstaub« politisch nicht so schön ausschlachten.

Und niemand darf jetzt auf die neue Elektromobilität kommen. Elektroautos produzieren ziemliche Mengen eines anderen Stoffes, der vor Jahr und Tag für große Panik sorgte: Ozon. Wehe, wenn das rauskommt.

zuerst erschienen bei Tichys Einblick hier




Weitere Daten-Manipu­lationen seitens NOAA, NASA, HadCRUT … Vergangen­heit kälter, Gegen­wart wärmer gemacht

Um Folgendes geht es:

Manipulation von globalen Temperaturdaten:

Tausende nicht-städtische Messorte wurden ausgesondert

Seit 1998 wurden 0,3°C Wärme hinzugefügt, um den ,Stillstand‘ zu beseitigen

Von dem Trend 1880 bis 1950 wurden 0,5°C Wärme subtrahiert

Im Verlauf der letzten paar Jahrzehnte haben es die drei Hauptbetreiber von Datensätzen der globalen Temperatur vom 19. Jahrhundert bis zur Gegenwart – NOAA, NASA und HadCRUT – erfolgreich geschafft, diese Temperaturaufzeichnungen so zu frisieren, dass sie zu den Ergebnissen der Klimamodelle passen. Genauer, es gab konzertierte Bemühungen, die Vergangenheit kälter zu machen – vor allem die Warmperiode von den zwanziger bis zu den vierziger Jahren – und die Temperaturwerte aus jüngeren Jahrzehnten zu erwärmen, vor allem nach dem Jahr 1950. Auf diese Weise erscheint ein Trend einer starken linearen Erwärmung, der ähnlich aussieht wie die lineare Form anthropogener CO2-Emissionen im 20. und 21. Jahrhundert. Passen die beiden Verläufe besser zusammen, hilft das, eine Kausalität zu implizieren, und diese vorgebliche, in Kausalität umgewandelte Koinzidenz kann dann herangezogen werden, um politische Maßnahmen zu rechtfertigen, die fossile Treibstoffe eliminieren sollen.

Seit den siebziger Jahren wurden 75% aller GHCN-Temperatur-Messpunkte ausgesondert.

Eines der am wenigsten erwähnten Mittel, die zu diesem „Aussehen“ der Temperaturkurve führt, war die tendenziöse und umfassende Aussonderung Tausender Wetterstationen und Messpunkten in abgelegenen Gebieten, auf Bergen und/oder nicht-städtischen Stellen seit den siebziger Jahren. Alle diese Stationen zeigen nicht den von den Modellen prophezeiten Erwärmungstrend, sind sie doch nicht betroffen von der Nähe zu künstlichen oder nicht-klimatischen Heizquellen (befestigte Straßen, Gebäude, Maschinen, Industrie usw.), wie es bei urbanen Messpunkten der Fall ist. (Wie weiter unten detailliert erläutert, kann die Aufstellung von Thermometern nahe urbanen Heizquellen einen Warm-Bias zwischen 0,1°C und 0,4°C pro Jahrzehnt hervorrufen).

Falls eine in krassem Missverhältnis stehende Anzahl NICHT-urbaner Wetterstationen aus dem globalen Temperaturarchiv entfernt werden, erhalten die urban aufgestellten Thermometer ein viel größeres Gewicht als vor der Entfernung der nicht-städtischen Messpunkte. Darum wird eine solche Temperaturaufzeichnung viel mehr Erwärmung zeigen – obwohl diese zusätzliche Wärme nicht klimatischen Ursprungs, sondern künstlich erzeugt ist.

Und genau das ist auch geschehen. Das Global Historical Climatology Network (GHCN) ist die primäre Quelle für Aufzeichnungen von Temperaturdaten aus der ganzen Welt. NOAA, NASA und HadCRUT sind sehr stark von der GHCN-Temperaturhistorie abhängig bei der Konstruktion ihrer globalen Datensätze bis zurück zum 19. Jahrhundert. McKitrick (2010) zufolge gab es noch bis in die siebziger Jahre des vorigen Jahrhunderts hinein zwischen 5000 und 6000 GHCN-Messpunkte auf der ganzen Welt, welche zum Temperaturarchiv beitrugen. Heute (oder bis zum Jahr 2009) sind davon noch etwas über 1000 Stationen übrig geblieben – 75% aller in dem siebziger Jahre noch in Gebrauch gewesenen Thermometer sind verschwunden. Es gibt jetzt weniger Stationen, die zum GHCN beitragen, als im Jahre 1919.

Erstaunlicherweise befinden sich fast die Hälfte aller GHCN-Messpunkte (49% im Jahre 2009) auf der Welt auf (betonierten) Beton- oder Asphaltflächen auf Flughäfen!

McKitrick, 2010:

Es gibt drei große globale Temperatur-Historien: die kombinierte CRU-Hadley-Aufzeichnung (HadCRU), die NASA-GISS-Aufzeichnung (GISTEMP) und die NOAA-Aufzeichnung. Alle drei globalen Mittel hängen vom gleichen zugrunde liegenden Datenarchiv ab, dem Global Historical Climatology Network (GHCN). Infolge dieser Abhängigkeit vom GHCN werden die Qualitäts-Defizite auch die Qualität aller abgeleiteten Produkte beeinträchtigen.

Die Anzahl von Wetterstationen, die zum GHCN beitragen, erfuhren 1990 und dann noch einmal 2005 einen scharfen Rückgang. Die Stichprobenmenge ist seit dem Spitzenwert Anfang der siebziger Jahre um 75% gesunken und ist jetzt kleiner als zu jedweder Zeit seit 1919“.

Zunehmender Bias durch Aufstellung an Flughäfen:

Der Kollaps der Stichprobenmenge hat den relativen Anteil von Daten, die von Flughäfen stammen, um etwa 50% zunehmen lassen (von etwa 30% in den siebziger Jahren). … Die Änderung der Menge war hinsichtlich des Typus‘ der Quelle nicht ausgewogen. So wurde die Stichprobenmenge zu Flughafen-Bedingungen hin verzerrt. Die GHCN-Daten hatten schon immer ein Übergewicht von Flughäfen, welche aus vielen Gründen ungeeignet für das Klima-Monitoring sind. Ein Problem mit Flughäfen besteht darin, dass sie oftmals nahe urbanen Plätzen liegen, die während der letzten paar Jahrzehnte gebaut worden waren, und die Zunahme des Luftverkehrs hat dazu geführt, dass Verkehr, Versieglung von Flächen, Gebäude und Abwärme zugenommen haben. Diese Einflüsse sind allesamt nur schwer aus den Temperaturaufzeichnungen zu entfernen. … Im globalen Maßstab kamen im Jahre 2009 49% aller GHCN-Daten von Flughäfen (NH 46%, SH 59%). Ende der zwanziger Jahre waren es lediglich etwas über 20%“. McKitrick, 2010

Tom Karl von der NOAA hegte einst Bedenken hinsichtlich des Warm-Bias von Flughäfen und Städten.

Ende der achtziger Jahre dachte man, dass der Warm-Bias von 0,1°C bis 0,4°C aufgrund der Thermometer-Aufstellung auf Flughäfen oder in urbanen Gebieten die globalen Temperatursätze ernsthaft beeinträchtigen würde mit einem „substantiellen Anteil am Gesamt-Trend globaler und regionaler Temperaturen“, welche diesen Warm-Bias direkt reflektieren. Die „künstliche Erwärmung im Netzwerk der primären Stationen“ ist niemals verschwunden. Heute wird dieser Umstand einfach ignoriert.

Karl and Quayle, 1988

„Karl et al. (1988) haben gezeigt, dass in einigen Städten des Sun Belt [in den westlichen USA] der Temperaturanstieg, der dem Wärmeinsel-Effekt zugeordnet werden kann, bis zu 0,3°C bis 0,4°C pro Dekade beträgt … Die künstliche Erwärmung im Netzwerk der Primärstationen beträgt relativ zu den Daten in der Division Klima fast 0,17°C während der letzten 34 Jahre (seit ~1950). Derartige Trends sind zumindest genau so groß wie jedweder der anderen beobachteten Trends in den USA (Karl 1988) oder auf dem Globus (Jones und Wigley 1987)“.

Karl and Jones, 1989

„Die Ergebnisse zeigen, dass die beiden festlands-basierten Datensätze der Temperatur in den USA über das 20. Jahrhundert (1901 bis 1984) einen urbanen Bias von +0,1°C bis +0,4°C aufweisen. … Gegenwärtig können nur grobe Schätzungen der potentiellen Auswirkungen der Verstädterung angegeben werden. Dies enthält einen urbanen Bias in den Daten von Hansen und Lebedeff (1987; NASA), der über die USA zwischen 0,3°C und 0.4°C im 20. Jahrhundert liegt. Dieser Wert ist größer als der Trend insgesamt in den USA während dieses Zeitraumes. … Unseres Wissens nach sind die USA das einzige große Gebiet, in welchem die Größenordnung dieses Bias‘ sorgfältig untersucht worden ist.

Es stellte sich heraus, dass die Größenordnung dieses urbanen Bias‘ in den beiden landbasierten Datensätzen einen substantiellen Anteil beiträgt zu dem Gesamttrend der globalen und regionalen Temperaturen“.

Kukla, Gavin, and Karl, 1986

In städtischer Umgebung liegende Stationen in Nordamerika erwärmten sich zwischen 1941 und 1980 im Vergleich zu ländlichen Stationen (Abkühlung) mit einer mittleren Rate von etwa 0,12C pro Dekade. Säkulare Trends der Lufttemperatur, die vorherrschend aus urbanen Stationsdaten berechnet werden, haben sehr wahrscheinlich einen starken Warm-Bias. … Wir verglichen Trends der 34 städtischen/ländlichen Stationspaare … wobei die städtischen Stationen im Vergleich zur freien Landschaft während fast des gesamten Jahres eine Erwärmung zeigen.

Die jährliche mittlere Differenz zwischen den Trends beträgt etwa +0,11°C pro Dekade (nicht-klimatische Erwärmung infolge der Nähe zur Stadt). … Die mittlere Differenz zwischen Trends (zwischen urbaner bzw. ländlicher Umgebung) summieren sich zu einer jährlichen Erwärmungsrate von 0,34°C pro Dekade. … Der Grund für die merklich höhere Erwärmungsrate (könnte sein), dass die Rate nach den fünfziger Jahren zugenommen hat, entsprechend dem jüngsten starken Wachstum in der Umgebung von Flughäfen. … Unser Ergebnisse sowie auch diejenigen anderer Autoren zeigen, dass die Inhomogenität durch urbanes Wachstum erheblich ist und berücksichtigt werden muss, wenn man die Zuverlässigkeit von Temperaturaufzeichnungen abschätzt“.

Zunehmender Bias an Tiefland-Stationen

Die stetige Zunahme (der mittleren Seehöhe von Temperaturstationen seit den achtziger Jahren) ist konsistent mit einer Verlagerung der Stationen des Netzwerkes weiter landeinwärts, ebenso wie einer zunehmenden Zahl von Stationen in den Bergen. Der Kollaps der Messpunkte im Jahre 1990 ist eindeutig sichtbar als ein drastischer Rückgang nicht nur der Anzahl, sondern auch der Seehöhe. Dies impliziert, dass abgelegene Stationen in größerer Höhe aufgegeben wurden zugunsten von Messpunkten in Tälern und an küstennahen urbanen Stellen. Dies geschah ein zweites Mal im Jahre 2005. Nun tendieren Stellen mit geringer Höhe über dem Meeresspiegel dazu, mehr von Landwirtschaft, Verstädterung und anderen Modifikationen der Landschaft betroffen zu sein. Dieser Vorgang, eine gleichbleibende Seehöhe der Messpunkte, verletzt die statistische Kontinuität. … GHCN hat immer mehr Messpunkte in höher gelegenen Gebieten aufgegeben (z. B. in Richtung der Pole) zugunsten von tiefer gelegenen Stationen. Wenn alle anderen Umstände gleich bleiben, impliziert dies, dass immer weniger Daten aus entfernt liegenden, kalten Regionen und mehr aus bewohnten, wärmeren Regionen eingehen“. McKitrick, 2010

Die Ergebnisse: eine künstliche Erwärmung des Festlandes seit 1980:

NOAA Global Land vs. Sea 

HadCRUT Land vs. Ocean Temperature Anomalies

Die NOAA fügt seit 1998 0,3°C Erwärmung (relativ zu Satelliten) hinzu

Jüngst wurde die Studie von Karl et al. (2015), das „Pause-Buster“-Paper, erneut signifikanter Kritik unterzogen durch einen anderen ehemaligen NOAA-Wissenschaftler (Tom Karl war im Jahr 2015 der Direktor der NOAA) aufgrund von Vorwürfen, dass es politischer Druck war, die Studie vor der Pariser Klimakonferenz im Dezember 2015 an die Presse zu leiten ohne die vorschriftsmäßigen Qualitäts-Checks. Der Grund dafür war offensichtlich: Falls man den unbequemen Stillstand der globalen Erwärmung, über den im IPCC-Bericht 2013 berichtet worden war, eliminieren könnte, wäre dies ein bedeutender Vorgang, der die Regierungschefs zu Versprechungen ermutigen könnte, CO2-Emissionen zu reduzieren. Unglücklicherweise sind die zur Berechnung des neuen Trends herangezogenen Temperaturdaten in der NOAA-Veröffentlichung „verloren gegangen“ aufgrund eines schadhaften Computers, der „vollständig abgestürzt“ sei, so dass es kaum die Chance gibt die Studie einer unabhängigen Replikation oder Verifikation zu unterziehen.

Seitdem hat die New York Times eine Verteidigung der NOAA-Kontroverse ausgegeben mit der Behauptung, dass der Trend von 1998 bis 2014 von Karl et al. (2015) durch andere Wissenschaftler unabhängig verifiziert worden sei, ebenso wie durch Satellitendaten, die zeigen, dass der Trend von +0,11°C pro Dekade (+0,2°C insgesamt) zwischen 1998 und 2014 in allen Datensätzen konsistent war.

Diese Behauptung ist natürlich Unsinn. Mittels der verfügbaren Rohdaten und dem WoodForTrees interactive tool erkennt man, dass die Trend-Diskrepanz für den betrachteten Zeitraum 1998 bis 2014 fast 0,3°C beträgt, wenn man den jüngst erzeugten NOAA-Trend mit Satellitendaten (RSS) vergleicht. Es gibt sogar eine Differenz von 0,5°C zwischen den Endpunkten der Trendlinien von NOAA/NASA GISS sowie RSS (Dezember 2014). Die aus den Satellitendaten hervorgehende Abkühlung von -0,1°C wurde von Karl et al. (2015) in eine Erwärmung von +0,2°C umgewandelt. Fast augenblicklich nach deren Veröffentlichung wurde der neue Erwärmungstrend 1998 bis 2014 von der NASA und HadCRUT gleichermaßen akzeptiert, was dazu führte, dass alle drei Datensätzen jetzt eine signifikante Erwärmung zeigen, während sich zuvor ein Stillstand, ja sogar eine geringe Abkühlung zeigte.

Source: WoodForTrees

HadCRUT radiert die leichte Abkühlung von 1998 bis 2012 einfach aus mittels Änderung der Versionen

Die Änderung [politisch] unpassender Temperaturtrends gerade rechtzeitig vor einem Ereignis von großer Bedeutung für die internationale Politik und Öffentlichkeit gab es auch früher schon.

Der kombinierte Datensatz von HadCRUT) – welcher den IPCC-Berichten zugrunde liegt – wurde im März 2012 einer Revision von Version 3 zu Version 4 unterzogen. Dies war etwa ein Jahr vor der geplanten Veröffentlichung des jüngsten IPCC-Berichtes erfolgt (2013). Zu jener Zeit (Anfang 2012) war es für das Paradigma ziemlich unbequem, dass sich bei HadCRUT4 zwischen 1998 und 2012 ein leichter Abkühlungstrend zeigte, wie die Graphik unten zeigt (Rohdaten von HadCRUT3 und HadCRUt4 von WoodForTrees).

Graphiken des IPCC, die einen leichten Abkühlungstrend seit 1998 zeigten, wären für diejenigen Politiker inakzeptabel gewesen, die die Dringlichkeit des Kampfes gegen eine gefährliche globale Erwärmung betonen wollten. Also wurden pünktlich zur Ausgabe des IPCC-Berichtes 2013 dem HadCRUT-Trend etwa 0,1°C Erwärmung hinzugefügt. Damit sollte die leichte Abkühlung in etwas transformiert werden, was das IPCC einen „Stillstand“ der Erwärmung nannte. Um den in HadCRUT3 auftretenden leichten Abkühlungstrend zu entfernen, wurden die jüngeren Anomalien in HadCRUT4 erwärmt (um 0,1°C bis 0,2°C), während die Wärme der Vergangenheit (besonders um das Jahr 1998) unangetastet gelassen wurde. Der Effekt war, dass die Gegenwart wärmer und die Vergangenheit kälter gemacht wurden.

Quelle: WoodForTrees

IPCC-Analyse (2013) des „Stillstandes“ der Erwärmung von 1998 bis 2012

Im Zeitraum 1998 bis 2011 zeigen 111 der 114 Klimamodell-Simulationen einen Erwärmungstrend, der größer ist als der beobachtete Trend.

Während des im Jahre 1998 beginnenden 15-jährigen Zeitraumes liegt das Ensemble der HadCRUT4 GMST-Trends unter fast allen von Modellen simulierten Trends.

Fast alle historischen Simulationen der CMIP5-Modelle reproduzieren nicht den beobachteten jüngsten Erwärmungs-Stillstand.

NASA hat seit den neunziger Jahren etwa 0,5°C von der Erwärmung 1880 bis 1950 subtrahiert

Noch im Jahre 1990 war weithin akzeptiert, dass der globale Temperaturtrend, wie er von der NASA angegeben wurde (Hansen und Lebedeff 1987) zwischen 1880 und 1950 einen Anstieg um 0,5°C zeigte.

Pirazzoli, 1990:

Die Untersuchung sehr langer Aufzeichnungen (z. B. Amsterdam von 1682 bis 1930 sowie Brest seit 1807) hat gezeigt, dass es zwischen dem Ende des 19. und Mitte des 20. Jahrhunderts zu einer Beschleunigung von 0,9 mm pro Jahr gekommen war. Da diese Beschleunigung mit der jüngsten Änderung der globalen Temperatur (ein Anstieg um 0,5°C) zwischen 1880 und 1950 korreliert mit weniger bedeutenden Änderungen vor und nach diesem Zeitraum (Jones et al. 1986 sowie Hansen & Lebedeff 1987) und mit einem markanten Abschmelzen von Gletschern der Mittleren Breiten wurde sie interpretiert als korrespondierend mit einem eustatischen Anstieg.

Dieser Anstieg der globalen Temperaturen um 0,5°C zwischen 1880 und 1950 (sowie 0,6°C zwischen 1880 und 1940) erscheint klar in der NASA GISS-Graphik aus dem Jahr 1987:

Schneider, S. H. 1989. The greenhouse effect: Science and policy. Science 243: 771-81.

Heute ist es für die Datensätze der globalen Temperatur von HadCRUT, NASA und NOAA nicht mehr akzeptabel, einen starken Erwärmungstrend während der ersten Hälfte des 20. Jahrhunderts graphisch darzustellen. Grund hierfür waren die CO2-Emissionen, die damals keine Änderungen zeigten und vernachlässigbar waren im Vergleich zu heute während dieser abrupten Erwärmungsperiode, wie hier gezeigt:

Um also die Unbequemlichkeit eines nicht-anthropogenen Erwärmungstrends in modernen Zeiten zu eliminieren, haben die NASA und NOAA die gesamte oder fast die gesamte Erwärmung von 0,5°C zwischen 1880 und 1950 eliminiert. Falls Rohdaten der Temperatur in der Vergangenheit nicht zu dem Narrativ passen, dass menschliche CO2-Emissionen den Klimawandel treiben, müssen die Rohdaten eben verändert werden. Auf diese Weise erhält man das Paradigma am Leben.

NASA GISS graph

Link: http://notrickszone.com/2017/02/13/more-data-manipulation-by-noaa-nasa-hadcrut-cooling-the-past-warming-the-present/

Übersetzt von Chris Frey EIKE




Viele Klimawissenschaftler betreiben „Kult mit glasigen Augen und Mantra-artigen Gesängen“

William Happer, ein Physiker an der Princeton Universität, und der wahrscheinlichste Kandidat als Donald Trump’s Wissenschaftsberater, sagte, dass viele Klimaforscher ihre Arbeit wie ein „Kult mit glasigen Augen und Mantra-artigen Gesängen“ betreiben. Im Interview mit dem The Guardian sagte Happer, dass diese Wissenschaftler unter der Form des „kollektiven Wahnsinns“ leiden. Happer war im vergangenen Monat mit Trump zusammen gekommen, um die Position des Wissenschaftsberaters zu diskutieren, ist der führende Kandidat für den Job. Er ist auch sicher, dass die Menschheit eine „Klima-Änderung“ verursacht und das wird als gut angesehen.

Happer ist nicht irgendein durchgeknallter Wissenschaftler, der verrückte Ideen unterstützt. Er ist wirklich ein bedeutender Physiker und gut angesehen in der akademischen Welt. Aber seine Ansichten über die Klimawissenschaft verursachen Bestürzung der aktiven Klimaforscher, die sich auf die Regierung wegen Forschungsstipendien und aufwändiger Finanzierung verlassen. Happer verwies auf den derzeit unter Beschuss stehenden NOAA Bericht, nachdem ein Whistleblower namens Dr. John Bates sich meldete.

Bates deckte auf, wie die Autoren die Temperaturdaten manipulierten, um die etablierte globale Erwärmungspause zu löschen. Diese Studie wurde überstürzt vor einer wichtigen U.N.-Konferenz veröffentlicht, um die Übereinkunft auf ein Klimaabkommen zu beeinflussen. Er sagte, diese Studie war wie eine „politische Fanfare“, aber Wissenschaft und Regierungsbehörden sollten ihr Verhalten nicht nach politischer Agenda ausrichten.

 

Glasige Augen

Happer sagte, es gibt ein ganzes Gebiet der Klimaforschung, dass „wirklich mehr wie ein Kult“ ist. Er hält es dem Hare Krishna ähnlich, wo die Mitglieder alle mit glasigen Augen den gleichen Mantra-artigen Refrain intonieren. Diese Wissenschaftler sind es, die potenziell „das Image aller Wissenschaftler schädigen.“ Happer glaubt, dass Regierungswissenschaftler ihre Erkenntnisse nicht öffentlich diskutieren sollten, bevor die Ergebnisse vollständig überprüft wurden. Er sagte, dass die Wissenschaftler der Regierungsbehörden „besonders sauber“ und „ohne Fehler“ sein müssen.

Die Menschen haben die Regierung satt, die ihnen Lügen erzählt und wenn etwas sehr Wichtiges kommt, hören sie nicht zu. Er nannte die Verwirrung, die um Impfstoffe für Kinder entstand und die Bewegung von einigen Eltern, ihre Kinder nicht zu impfen. „Die Regierung, sollte absolut zuverlässig über Tatsachen, wirkliche Tatsachen berichten.“

 

Übertriebene Alarmierung schadet der Wissenschaft

Er sagte auch, Trump kein „Anti-Wissenschaftler“, wissenschaftlich belesen und sehr aufmerksam, wenn sie sich treffen. Trumpf stellt auch gute Fragen. Während sie den Klimawandel nur streiften, hält Trump Sonnenkollektoren in Staaten, die viel Sonnenschein bekommen wie Arizona, für sinnvoll. Er sagte, dass der Präsident weder für noch gegen erneuerbare Energien war.

Was die Temperatur-, Klima- und CO2-Überwachung angeht, so hält Happer das alles wichtig für wichtig. Aber, fügte er hinzu, übertriebene Alarmierung der Klimaforscher über die Bedrohung durch die globale Erwärmung sind „überzogen“. Enorme Summen werden ausgegeben, um „den Planeten zu retten“, Gelder, die an anderer Stelle verwendet werden könnten. Er sagte, Bürokratien rechtfertigen sich durch die Schaffung einer Bedrohung, die nur sie beheben könnten.

 

Frage zum Klimakonsens

Happer ist auch kein Klimaskeptiker und hat vor kurzen erklärt, dass die globale Erwärmung gut für die Menschheit ist. Während der Arbeit als Direktor der Forschung in der George W. Bush’s Energieministerium, begann er den damals noch in Entwicklung befindlichen Klima Konsens zu hinterfragen. Als er Klimaforscher zu ihren Ergebnissen befragte, bekam er nur ausweichende und nicht zur Frage gehörende Antworten. Da begann er, sich wirklich um Klimaforschung zu sorgen.

Beim „Marsch für die Wissenschaft“, der in verschiedenen Städten im April geplant ist, sollte die Öffentlichkeit die Teilnehmer als „privilegierte Elite“ und nicht als adelig ansehen. Der Nachteil, was ihn beunruhigt, wäre, dass die Wissenschaftler als „gieriger Haufen verdorbener Menschen“ angesehen werden. Natürlich sieht Happer sie nicht so, aber es wäre leicht, sich diese Sichtweise zu eigen zu machen.

Erschienen auf Blasting News am 15.02.2107

http://us.blastingnews.com/news/2017/02/trump-s-likely-science-advisor-many-climate-scientists-glassy-eyed-cult-001474849.html

Vita auf de.Wikipedia :
William Happer ist Jahrgang 1939 und ein US-amerikanischer Physiker in den Bereichen Atomphysik, Optik und Spektroskopie. Er hat die Cyrus Fogg Brackett Professur für Physik an der Princeton University inne. Position: Professor Emeritus

 

Auch auf WUWT wird über Happer berichtet.

Von Eric Worrall das Schlusszitat:

Ehrlich gesagt denke ich, dieser Vergleich ist ein bisschen hart.

Ich weiß nicht, wie sich Krishnas anderswo verhalten, aber in Australien gehören Hare Krishnas ein bisschen zum Inventar. Gelegentlich genieße ich ein vegetarisches Gericht an einer ihrer Gaststätten. Gelegentlich wandern sie umher, um über ihre Religion zu sprechen, aber sie sind nicht aufdringlich – sie akzeptieren „nein“ als eine Antwort. Ich habe noch nie einen Hare Krishna getroffen, der jemanden anderen auffordert nach ihren Prinzipien zu leben.

Wenn Klimawissenschaftler so zurückhaltend wären, ihren Glauben zu vertiefen, nicht zu versuchen, ihre Lebenseinstellung anderen aufzudrängen, hätte ich viel weniger Probleme mit der Klimaforschung.

Übersetzt durch Andreas Demmig

 




Die versteckten Agenden von Nachhaltigkeits-Illusionen

Genau wie der „gefährliche, vom Menschen verursachte Klimawandel“ reflektiert der Begriff Nachhaltigkeit das geringe Verstehen hinsichtlich grundlegender Prinzipien von Energie, Ökonomie, Ressourcen-Ausbeutung und Produktion – sowie eine Tendenz, Tautologien und theoretische Modelle als eine Alternative zu empfehlen für schon jetzt zu beobachtende Beweise in der realen Welt. Involviert sind auch schlecht informierte Menschen mit guten Absichten, die von gut informierten Aktivisten mit schlechten Absichten in die Irre geführt werden, welche damit eine größere Kontrolle der Regierung über das Leben, die Lebensweise und den Lebensstandard erreichen wollen.

Die allgemeinste Definition lautet, dass wir die Bedürfnisse der gegenwärtigen Generationen nur bis zu einem Ausmaß erfüllen dürfen, damit wir die Fähigkeiten zukünftiger Generationen, deren Bedürfnisse zu erfüllen, nicht gefährden.

Auf den ersten Blick klingt das logisch und sogar ethisch. Aber es erfordert unmögliche Hellseherei.

Im Jahre 1887, als das Hearthstone House zum ersten Haus wurde, das mit Wasserkraft erleuchtet wurde, konnte und hat niemand vorhergesehen, dass Strom unser Leben dominieren, verbessern und sicherer machen würde auf den unendlich vielfältigen Wegen, wie das heutzutage der Fall ist. Jahrzehnte später hat niemand erwartet, dass Kabel aus reinem Silizium-Fiber Kupferdrähte ersetzen würden.

Niemand prophezeite kleine Mobil-Telefone mit ausgezeichneten digitalen Kameras und größerer Computerleistung als ein Desktop-Computer des Jahres 1990 oder ein 3-D-Drucker oder Tausende Windturbinen verstreut über unsere fruchtbaren [fruited] Ebenen – oder Kadmium, Seltene Erden und andere Rohstoffe, die plötzlich erforderlich sind, um diese technologischen Wunder zu vollbringen.

Die Menschheit ist Tausende Jahre lang nur im Schneckentempo vorangekommen. Nachdem die moderne, auf fossilen Treibstoffen beruhende Ära Fuß gefasst hatte, beschleunigte sich dieses Vorankommen in atemberaubenden Tempo. Heute ist Änderung exponentiell. Als wir von Feuersteinen zu Kupfer, zu Bronze, Eisen, Stahl und darüber hinaus kamen, war der Grund hierfür nicht, dass die Vorräte von Feuersteinen, Kupfer, Zinn und so weiter erschöpft gewesen wären. Sondern wir taten es mit Innovation – indem wir etwas besseres, effizienteres oder praktischeres erfanden. Jeder Fortschritt erforderte unterschiedliche Rohstoffe.

Wer kann heute vorhersahen, über welche Technologien zukünftige Generationen in 25, 50 oder 200 Jahren verfügen werden? Welche Rohstoffe werden sie brauchen? Wie können wir heute vermeintlich sicherstellen, dass jene Familien ihre Bedürfnisse decken können?

Warum sollten wir darum auch nur daran denken, die Regierung zu ermächtigen, die heutigen Aktivitäten Vorschriften zu unterwerfen, die auf völlig unvorhersagbaren Technologien, Lebensweisen und Bedarf an Rohstoffen ferner Generationen in der Zukunft beruhen? Warum sollten wir die Bedürfnisse heutiger Generationen ignorieren oder beschneiden, um jenen völlig unvorhersagbaren zukünftigen Bedürfnissen zu genügen – einschließlich der Bedürfnisse der heutigen ärmsten, unterernährten Menschen ohne Zugang zu Strom, die verzweifelt nach einem besseren Leben streben?

Außerdem werden uns die Ressourcen in absehbarer Zeit längst nicht ausgehen. Ein 1 Kilometer langes Fiberglas-Kabel aus 45 Pfund Silizium (dem auf der Erde am meisten vorhandenen Element) überträgt tausendfach mehr Informationen als ein gleich langes RG-6-Kabel aus 3600 Pfund Kupfer, was die Nachfrage nach Kupfer zurückgehen lässt.

Im Jahre 1947 beliefen sich die nachgewiesenen Ölreserven der Erde auf 47 Milliarden Barrel. Während der nachfolgenden 70 Jahre verbrauchten wir hunderte Milliarden Barrel – und dennoch hatten wir im Jahre 2016 mindestens 2800 Milliarden Barrel Ölreserven, darunter Ölsande, Schieferöl und andere unkonventionelle Lagerstätten: mindestens noch ein Jahrhundert lang, dazu überreichlich Erdgas. Fortwährend sich verbessernde Technologien lassen uns jetzt Öl und Erdgas aus Lagerstätten finden und erzeugen, die wir noch vor ein paar Jahrzehnten nicht einmal erkennen, geschweige denn ausbeuten konnten.

Das Nachhaltigkeits-Dogma rankt sich um Hass auf fossile Treibstoffe und die Entschlossenheit, die Welt von diesen Stoffen zu befreien, ohne jede Rücksicht auf jedwede sozialen, ökonomischen oder umweltlichen Kosten. Und wir sehen häufig, dass vermeintlich grüne, ökofreundliche und nachhaltige Alternativen häufig genau das nicht sind.

Die [gesetzlichen] Äthanol-Quoten in den USA verbrauchen 40% der Maisvorräte der Nation, Ackerland von der Größe Iowas, Milliarden Gallonen Wasser und riesige Mengen von Pestiziden, Dünger, Treibstoff für Traktoren und Erdgas, um Energie zu erzeugen, welche die Preise für Nahrungsmittel in die Höhe treibt, kleine Motoren schädigt und ein Drittel weniger Kilometer-Leistung pro Gallone [= ca. 4 Liter] als Benzin bringt.

Stark subventionierte Windenergie erfordert mit fossilen Treibstoffen betriebene Generatoren im Standby-Modus, ultralange Fernleitungen und folglich Millionen Tonnen Beton, Stahl, Kupfer, seltene Erden und Fiberglas. Die Turbinen führen zu chronischen Gesundheitsproblemen bei Anwohnern und töten Millionen Vögel und Fledermäuse – nur um zeitweilig völlig unzuverlässigen Strom zu erzeugen, der bis zu 250% mehr kostet als kohlebasierter Strom.

Mit all dem erzeugten die 3500 gigantischen Windturbinen in UK an einem heißen, trockenen Augusttag gerade mal 12 Megawatt Strom: das waren 0,032% der 38.000 Megawatt, welche das Land zu jener Zeit verbrauchte.

UK subventioniert auch viele riesige anaerobic digesters, dazu ausersehen, tierischen Dung und andere landwirtschaftliche Abfälle in ökofreundliches Methan umzuwandeln, welches dann zur Stromerzeugung genutzt wird. Aber es gibt viel zu wenig landwirtschaftliche Abfälle. Also werden die Behälter mit Mais, Gras und Roggen befüllt, welcher auf 130.000 Acres (etwa viermal die Größe von Washington D.C.) angebaut wird und enorme Mengen Wasser und Dünger benötigt – und natürlich Dieselkraftstoff, um die Ernten anzubauen, zu ernten und zu den Behältern transportieren. Warum bohrt oder frackt man nicht einfach nach Erdgas?

Dies führt uns zu der politischen Arena mit ihrer zyklischen, dehnbaren und unendlich elastischen Terminologie – also das perfekte Werkzeug für Aktivisten. Was auch immer sie stützen ist nachhaltig; gegen was auch immer sie opponieren ist nicht nachhaltig; und welche Mantras oder vorsorgliche Maßnahmen sie vorschlagen – jedes Einzelne verleiht ihnen mehr Macht und Kontrolle.

Der Club of Rome trachtete danach, eine neue Bewegung ins Leben zu rufen, indem er „einen gemeinsamen Feind kreierte, vor dem wir uns vereinigen können“ – vermeintlich bevor stehende Katastrophen „verursacht durch menschliche Eingriffe in natürliche Prozesse“ sowie die Erfordernis „geänderter Haltung und Verhalten“, um globales Unheil zu vermeiden: globale Erwärmung und Ressourcen-Erschöpfung.

„Die Schaffung einer umweltlich nachhaltigen Zukunft erfordert Einschränkung der globalen Ökonomie, eine dramatische Veränderung der Vermehrung der Menschen sowie die Änderung von Werten und Lebensarten“, sagte der Gründer des Worldwatch Institute Lester Brown. „Um dies schnell zu erreichen, ist nichts Geringeres notwendig als eine Revolution“.

„Der gegenwärtige Lebensstil und Verbrauchsraten der wohlhabenden Mittelklasse – darunter hoher Fleischkonsum, der Verbrauch fossiler Treibstoffe, Elektrogeräte, Air Conditioning im Büro und zu hause sowie Wohnen in Vororten – ist nicht nachhaltig“, erklärte der kanadische Ur-Umweltaktivist Maurice Strong.

„Kleinere Änderungen der Politik, moderate Verbesserung von Gesetzen und Vorschriften anstelle einer echten Änderung“, sagte der ehemalige Vizepräsident Al Gore, „sind alles Formen der Besänftigung, dazu gedacht, die Öffentlichkeit dazu zu bringen zu glauben, dass Opfer, Mühen und eine die Öffentlichkeit zerreißende Transformation der Gesellschaft nicht erforderlich sein werden“. Der Umweltaktivist Daniel Sitarz stimmte dem mit den Worten zu: „Die Agenda 21 bietet eine Vielfalt von Maßnahmen mit der Absicht, diese jedem Menschen auf der Erde zu implementieren. Die effektive Durchführung der Agenda 21 wird eine ausgeprägte Umorientierung aller Menschen erforderlich machen; anders als alles, was die Welt bisher erfahren hat“.

Der National Research Council [etwa: Nationaler Forschungsrat] deklamierte in einem Report aus dem Jahr 2011: „Nachhaltige Entwicklung wirft Fragen auf, denen nicht vollständig oder direkt in der US-Politik oder in den US-Gesetzen Rechnung getragen wird, einschließlich der Frage, wie man nicht nachhaltige Produktion und Verbrauch definieren und kontrollieren kann und wie man die Entwicklung nachhaltiger Gemeinden, Erhaltung der Biodiversität, saubere Energie und umweltlich nachhaltige ökonomische Entwicklungen sowie die Kontrolle des Klimawandels fördern kann“. Tatsächlich, sagte Obamas Wissenschaftsberater John Holdren, können wir nicht einmal über Nachhaltigkeit sprechen, ohne über Politik, Macht und Kontrolle zu sprechen. Besonders Kontrolle!

Natürlich fühlen diese Aktivisten, Politiker und Vorschriftengeber kaum Beschwerden, erfreuen sie sich doch an Geldern und Vergünstigungen, für die Steuerzahler und Stiftungen aufkommen. Sie fliegen zu UN- und anderen Konferenzen und logieren dabei in Fünf-Sterne-Hotels auf der ganzen Welt – und implementieren Agenden, die das Leben anderer Menschen kontrollieren, umkrempeln und transformieren.

Es sind wir, die Regierten – vor allem die Arbeiterklasse und arme Bürger – welche den Preis zahlen, wobei die ärmsten Familien der Welt den höchsten Preis zahlen. Wir können nur hoffen, dass die Trump-Regierung und der Kongress nachhaltige Entwicklung abbricht und nicht mehr finanziert – das alter ego des katastrophalen, vom Menschen verursachten Klimawandels.

https://www.cfact.org/2017/02/09/the-hidden-agendas-of-sustainability-illusions/

Übersetzt von Chris Frey EIKE




« Aberwitzige Sprünge »

=========================================================================

Er war einer der ersten Grünen. Der linke Chemiker Fritz Vahrenholt warnte 1978 mit seinem Buch «Seveso ist überall» vor den «tödlichen Risiken der Chemie». Er drängte 1990 als Umweltsenator der SPD die Hamburger mit einem 24-Punkte-Programm «zur Verminderung der Klimagefahren». Er baute ab 2001 das Windkraftunternehmen Repower Systems auf. Und er führte von 2008 bis 2012 die Sparte für erneuerbare Energie des Konzerns RWE. Seit seiner Pensionierung kümmert sich der 67-jährige Manager um die Deutsche Wildtier Stiftung.

Und er kämpft als Grüner für ­einen vernünftigen, also zurückhaltenden Einsatz von erneuerbarer Energie.

Mit dem Buch «Die kalte Sonne», das er 2012 mit dem Geologen Sebastian Lüning herausgab, griff er die Uno-Klimapolitik an. Und mit ­einem ­Referat, das er vor einem Monat im ­britischen Unterhaus hielt, warnte er, die Energiewende sei «a disaster in the making».

==========================================================================

Herr Vahrenholt, Sie waren einer der wichtigsten Pioniere der erneuerbaren Energie und sind jetzt einer der grössten Kritiker der Energiewende. Wie kam es dazu?

Als ich ab 2001 ein Windkraftunternehmen aufbaute, hätte ich mir diese Energiewende nie träumen lassen. Wir dachten nie an eine Versorgung, die zu neunzig Prozent auf schwankende, also nicht zuver­lässige Energieträger setzt. Wir gingen ­immer davon aus, dass es sinnvoll ist, erneuerbare Energie zu nutzen, aber nicht, dass bei der Energieversorgung eines Industrie­landes allein darauf gebaut werden sollte.

Die Energiewende von 2011 brachte also nicht das, worauf Sie hingearbeitet hatten?

Nein, ich hielt die Energiewende von Anfang an für falsch. Bei Teil eins wollte die Regierung von Bundeskanzlerin Merkel die Kernenergie durch Erneuerbare er­setzen. Wer ein bisschen etwas von der Energieversorgung verstand, der wusste schon damals, dass das nicht funktionieren kann, weil es auch in der Nacht oder bei Windstille verlässlichen Strom braucht. Aber die Regierung bringt jetzt sogar noch Teil zwei: Sie will auch aus der Kohle aussteigen. Das ist gefährlich.

Warum?

Die Stromversorgung beruht darauf, dass ein Energieträger einspringt, wenn die Sonne nicht scheint und der Wind nicht weht. Und das kann gegenwärtig nur ein konventionelles Kraftwerk sein.

Die Leute stöhnen wegen der Strompreise, die Wirtschaft warnt vor dem Verlust der Wettbewerbsfähigkeit. Trotzdem zieht Kanzlerin Merkel das durch. Ist alles gar nicht so schlimm?

Na ja, die Belastung der Bürger ist extrem hoch. Wir verteilen ja von unten nach oben, zu jenen, die sich ein Solardach oder eine Windkraftanlage mit gesicherter Rendite leisten können. Dafür bezahlen die Mieter, vor allem die sozial schwachen, mit ihrer Stromrechnung – das grösste Umverteilungsprogramm, das es in der Sozial­geschichte Deutschlands je gegeben hat.

Aber die Belastung schmerzt noch nicht so sehr. ­Eine Kilowattstunde kostet 29 Cent; da steckt so viel an Steuern und Abgaben drin, dass es auf die 6,88 Cent für die Erneuerbaren auch nicht mehr ankommt. Deutschland geht es gut, somit können das viele verschmerzen. Und die Regierung redet den Leuten ja ein, dass wir das machen müssen, um die Welt vor der Klimakatastrophe zu retten.

Muss die Kanzlerin die Warnungen der Wirtschaft nicht ernst nehmen?

Der Motor der deutschen Wirtschaft sind die mittelständischen Betriebe. Viele der Elek­trotechnik- und Maschinenbaufirmen, die wir noch haben, werden zur Kasse gebeten; die Ausgaben für Strom fallen bei ihren Kosten aber noch nicht ins Gewicht. Und jene Unternehmen, die sofort pleite wären, wenn sie für die Kilowattstunde 6,88 Cent mehr bezahlen müssten, sind von der Abgabe befreit. Weil der Strompreis wegen des Überangebots der Windkraftanlagen zusammengebrochen ist, zahlt die Grundstoffindustrie so wenig wie nie in den letzten zwanzig Jahren – das ist das Verrückte an diesem System. Darum kommt so wenig Widerstand aus der Wirtschaft.

Sie muss sich doch nicht nur wegen der ­Betriebskosten sorgen, sondern vor allem wegen der Versorgungssicherheit.

Ja, es geht noch gut, weil unser Netz – wie Ihres in der Schweiz – over-engineered ist: Wir haben Gürtel und Hosenträger. Und wir können bisher Blackouts vermeiden, indem wir den überschüssigen Strom aus den Windkraftanlagen den Nachbarn vor die ­Türe schütten.

Drohen uns tatsächlich Blackouts?

Das Risiko steigt, denn der dringend nötige Netzausbau findet nicht statt. Früher war ­jedes Kraftwerk mehrfach mit den Abnehmern verbunden. Jetzt erzeugen wir den Strom im Norden, verbrauchen ihn aber vorwiegend im Süden, und die Transportleitungen gibt es nicht. Wenn wir sie bauen wollen, dann wehren sich dieselben Bürger, die jetzt aus der Kohle aussteigen möchten, gegen die Verschandelung der Landschaft.

Was dann?

Wir müssen die Leitungen einbuddeln, aber das führt zu neuen Diskussionen. Man muss die Leitungen auf sechzehn Meter Breite von jedem Bewuchs freihalten; so wird sich eine Todeszone durch Deutschland, auch durch Biotope fressen. Und man hat so was noch nirgendwo auf der Welt gemacht. Das Netz wird achtmal so teuer und erst fünf Jahre nach dem Abstellen des letzten Kernkraftwerks fertig sein. Ab 2022 können wir also bei jedem Starkwind nur noch beten.

Wie kommt Kanzlerin Merkel da wieder raus?

Da kommt sie nicht mehr raus. Ich glaube aber auch nicht, dass sie dann noch Kanzlerin ist. Kein anderes Land dachte an eine ­solche Energiewende, wir machten sie an ­einem Wochenende.

Doch, die Schweiz zieht die Energiewende auch seit sechs Jahren durch.

Aber nicht so idiotisch wie wir – dass Sie jedes Jahr ein, zwei Kernkraftwerke abstellen.

Was würden denn Sie als Bundeskanzler machen?

Die Debatte über die Kernenergie ist durch, niemand in Deutschland will sie noch reanimieren. Aber wer sieht, dass das ein Fehler war, muss nicht den nächsten Fehler machen. Wir müssen nicht auch noch beim CO2-Ausstoss die Weltmeister sein, also auf die Kohle verzichten. Das Energiehaus der Zukunft sollte getragen sein von den ­Pfeilern Kernenergie, Kohle und Erneuer­bare, dazu vom vierten Pfeiler Effizienz. Den ersten Pfeiler hat man weggeschlagen, den zweiten schlägt man jetzt weg, und der dritte trägt nicht. Ich würde deshalb als Kanzler sagen: «Wir können uns den Ausstieg aus der Kohle nicht leisten» – egal, was wir in ­Paris unterschrieben haben. Die meisten Nationen kümmern sich ja auch nicht darum.

Immerhin haben alle Uno-Mitglieder das Klimaabkommen unterzeichnet.

Die Chinesen lachen sich doch einen ab. Sie haben das Abkommen unterschrieben, sich aber zu nichts verpflichtet. Im Gegenteil: Sie können bis 2035 ihre Emissionen noch dramatisch steigern. Was die Deutschen bis 2020 durch das Stilllegen von Kohlekraftwerken sparen, machen die ­Chinesen in drei Monaten wett.

Und was würden Sie als Chef eines Stromkonzerns machen?

Die Konzerne haben einerseits gesicherte Einkünfte dank den Investitionen in Erneuerbare. Da herrscht Planwirtschaft, man kann ohne Risiko Kasse machen. Und sie ­haben ­anderseits konventionelle Kraftwerke, die sie von Gesetzes wegen betreiben müssen. Das lohnt sich nicht mehr; die Kraftwerke bekommen deshalb die Betriebskosten ersetzt, aber sie können keinen Gewinn mehr machen. Das ist, wie wenn ich einem Taxifahrer sagen würde: «Ich zahle für das Benzin, das Auto kostet dich ja nichts mehr.» Das heisst: Die Energiewende lebt von der Ausbeutung und Entwertung der bestehenden Energieversorger. An ihrer Stelle würde ich also ebenfalls in Erneuerbare investieren, mich aber auch dafür engagieren, dass ihre Leistungen für die Versorgungssicherheit vergütet werden: Wenn sie ihre nach marktwirtschaftlicher Rechnung unrentablen Werke abschalten würden, bräche das System in dieser Sekunde zusammen.

Die Schweiz leidet auch unter der deutschen Energiewende.

Die Nachbarn leiden alle mit. Ihre Investi­tionen rentieren nicht mehr, weil wir sie mit unserem Strom überschwemmen. Das ist ja nicht das erste Mal, dass wir Europa vor ­einem Alleingang nicht fragten.

Was halten Sie von der Energiewende auf Schweizer Art?

Sie haben günstigere Bedingungen als wir, dank Ihren Speicherseen. Aber Sie dürfen sich nicht selbst betrügen: Das Speichern kostet auch etwas; jede Kilowattstunde ­Flatterstrom, die zur falschen Zeit entsteht, geht ins Geld. Die Kosten für die Erzeugung, fünf bis acht Cent, verdoppeln sich durch die Speicherung. Sie müssen sich in der Schweiz deshalb Zeit kaufen, um den Umbau vernünftig zu machen. Das geht, indem Sie sich über die Laufzeit der Kernkraftwerke verständigen, sich also fragen: «Wie viele Gaskraftwerke wollen wir uns leisten?»

Die Anhänger der Energiewende lehnen auch Gaskraftwerke ab.

Ich kann nicht die Arbeit Ihrer Umwelt­ministerin machen. Ich kann ihr nur sagen: So, wie sie die Energiewende plant, wird sie nicht funktionieren – oder nur mit sehr, sehr hohen Kosten und einem naturzerstörenden Landschaftsverbrauch. Vergessen Sie nicht: Wir wollen in Deutschland die Windkapazität verdreifachen. Wenn wir das tun, dann steht da im Durchschnitt alle 2,7 Kilometer eine Windturbine.

Christoph Blocher meint, die Schweiz müsste wegen der Verletzung von Völkerrecht der WTO und des Freihandelsabkommens mit der EU gegen Deutschland klagen.

Ich würde den einfacheren Weg gehen, wie es die Polen machen: Sie bauen an der Grenze Phasenschieber, die den Strom von der deutschen Seite zurückweisen können, übrigens mit Erlaubnis der EU. Das könnten Sie auch machen. Wenn es alle Nachbarn tun, muss Deutschland Farbe bekennen.

Wir exportieren 50 Terawattstunden, also 50 Millionen Megawattstunden, und zwar immer dann, wenn uns der Windstrom aus den Ohren kommt. Insgesamt produzieren wir 85 Terawattstunden mit Wind. Schon diese Zahlen zeigen, wie absurd diese Politik ist. Wir erzeugen Windstrom für den Export und verhökern ihn für einen Cent oder sogar zu Negativ­preisen, bezahlen aber neun Cent dafür.

Grüne Politiker aller Parteien in der Schweiz sagen, die Deutschen müssten einfach ihre Dreckschleudern abstellen, dann sei das Problem gelöst.

Quatsch.

Weshalb?

Herr Trittin von den deutschen Grünen sagt das auch; er behauptet, der Kohlestrom verstopfe das Netz. Das ist Blödsinn. Die Erneuerbaren haben jederzeit Vorrang, aber leider auch einen schweren strukturellen Nachteil: Sie können nicht innert Sekunden reagieren. Diese Leute haben den Bezug zur Lebenswirklichkeit verloren. In der realen Welt wird in jedem Moment etwas hoch- oder runtergefahren: Im Basler Fussballstadion gehen die Lichter an, im Zürcher Hauptbahnhof fährt ein ICE ab. Das braucht zig Megawatt; das Netz gibt deshalb über die Änderung der Frequenz einem Kraftwerk das Signal: «Hier wird jetzt Strom gebraucht, und zwar in einer Milli­sekunde.» Darum können wir nicht auf die konventionellen Kraftwerke verzichten. ­Eine Faustregel sagt: Zwanzig Prozent der Last müssen mit solcher sich selbst regelnder Generatorleistung vorgehalten werden. Diese sogenannte Sekundenreserve beträgt in Deutschland 20 000 Megawatt. Die Schweizer Versorger lassen also ihre Werke nicht laufen, weil sie die Kernenergie lieben, sondern weil sie wissen, dass sonst das Netz zusammenbricht.

Immerhin haben die Grünen doch recht, wenn sie sagen, der Kohlestrom sei zu ­billig, weil die externen Kosten nicht ­eingepreist sind.

Was meinen Sie mit den externen Kosten?

Dass wegen des CO2-Ausstosses die ­Klimakatastrophe droht.

Es gibt ja das System mit den Emis­sionszertifikaten; es löst dieses Problem bis 2020.

Aber die Zertifikate sind zu billig!

Was ist denn das für eine Politik, die findet, ein System müsse teuer sein, damit es erfolgreich ist ?

Wir erreichen alle Ziele, und zwar zu einem Preis von 5 Euro pro Tonne CO2. Und wenn wir mit 5 Euro zwanzig Prozent Reduktion erzielen, dann können wir mit 7 oder 10 Euro auch dreissig Prozent anstreben. Das ist für mich vernünftig, ein marktwirtschaftlicher Ansatz.

Heisst das, dass die Klimapolitik erfolgreich ist?

Die Emissionszertifikate sind es; so lässt sich das CO2 dort einsparen, wo es am meisten bringt. Das ist für mich vernünftiger als das, was das Pariser Abkommen festschreibt: Alle ­Industrieländer reduzieren den CO2-Ausstoss um zwanzig oder dreissig Prozent. Das führt zu einer Weltplanwirtschaft, dabei stossen China oder Indien immer noch mehr CO2 aus. Stattdessen sollten wir das euro­päische System auf alle Länder ausweiten, so dass eine Tonne CO2 überall einen durch den Markt bestimmten Preis hat.

Sie zweifeln ohnehin an der Klimapolitik der Uno.

Ja, dieses Abkommen wird seine Feuertaufe zu bestehen haben, wenn die Temperaturen nicht ansteigen wie prognostiziert. Dann fragen sich die Leute nicht nur in Deutschland und in der Schweiz, sondern überall: «Wofür machen wir das eigentlich?» Bisher verlässt sich die Politik auf Klimaforscher mit Modellen, die die Klimaentwicklung der Vergangenheit nicht nachbilden und ­jene der Zukunft nicht voraussagen können.

Sie sagten vor fünf Jahren in Ihrem Buch «Die kalte Sonne» wegen der schwachen Sonnenaktivität eine Abkühlung voraus. Wir erlebten aber seither einige der wärmsten Jahre.

Wir stützten uns in unserem Buch nicht nur auf die Sonnenaktivität, sondern auch auf die Ozeanströmungen. Und Sie dürfen nicht vergessen: Das System ist träge, wir müssen mit Verzögerungen um Jahrzehnte rechnen. Von 1950 bis 2000 gab es eine Phase der stärksten Sonnenaktivität seit über tausend Jahren; das wirkte sich mit einem Verzug von zehn bis zwanzig Jahren aus. Ich kann Ihnen nicht ­sagen, wie lange es dauert, um den Temperaturtrend bei schwacher Sonnenaktivität umzukehren. Ich weiss nur: Es ist sicherlich nicht korrekt, wenn die Forscher des Weltklima­rates und alle, die ihnen an den Lippen hängen, den Einfluss der Sonne mit null bewerten.

Was erwarten Sie denn?

Wir wissen nicht, was auf der Sonne geschieht; das konnte noch niemand berechnen. Aber wenn die Sonne weiter schwächelt, werden wir es bei den Temperaturen sehen.

Wir können nur feststellen:

In der Vergangenheit spielte das CO2 keine Rolle – die Konzentration erhöhte sich jeweils nach einem Temperaturanstieg, nicht vorher. Es gab schon immer erhebliche Schwankungen auch ohne den Einfluss des CO2, so etwa in der mittelalterlichen Warmzeit. Warum sollte das jetzt anders sein?

Sind Sie also ein Klimaleugner?

Nein, ich würde niemals behaupten, dass CO2 überhaupt keine Wirkung habe. Wissenschaftlich lässt sich nachweisen, dass es den Treibhauseffekt gibt. Aber gemäss neuen Studien erhöht sich die Temperatur bei einer Verdoppelung des CO2-Anteils um 1,3 Grad.

Wenn es dabei bleibt, dann können wir uns alle zurücklehnen und müssen nicht in Panik verfallen. Wir können die Energieversorgung in diesem Jahrhundert in aller Ruhe umbauen.

Glauben Sie wirklich, dass sich an der ­Klimapolitik etwas ändert?

Die Wissenschaftler sind ja keine ver­schworene Gemeinschaft, sondern einzelne beginnen zu zweifeln. Es gibt zwar Hardliner, auch einige bei Ihnen in der Schweiz. Aber andere wie Hans von Storch sagen: «Wenn bis 2020 die Temperaturen nicht deutlich steigen, liegen wir mit unseren Modellen falsch.»

Wie sieht die Energielandschaft in zwanzig Jahren aus?

Das hätte ich Ihnen vor zwanzig Jahren noch sagen können: ein Drittel Kernenergie, ein Drittel fossile, ein Drittel erneuerbare Energie. Jetzt kann ich es nicht mehr sagen;

wir ­haben ja gelernt, welch aberwitzige Sprünge die Politik machen kann. Ich weiss nur eines: Die Suppe, die wir uns eingebrockt haben, müssen wir jahrzehntelang auslöffeln.

===========================================================================

)* Anmerkung der EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

«Aberwitzige Sprünge» | Die Weltwoche, Ausgabe 7/2017 | Freitag, 17. Februar 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE, dem Autor Markus Schär sowie Prof. Fritz Vahrenholt für die Gestattung des ungekürzten Nachdrucks.

=========================================================================




Eine Merkwürdig­keit bei den Adjustie­rungen von Bojen-Daten von Karl et al. 2015

Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm-Änderungen in den ERSSTv4-Daten erforderlich macht.

Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%.

Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm-adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte?

Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber davon habe ich nichts gesehen.

Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel:

https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record/

Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen. Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der Anteil 2015 über 70% gelegen hat.

Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50% gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren Temperatur-Adjustierungen.

Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm-Adjustierung infolge der Bojen.

Link: https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy-data-adjustments/

Übersetzt von Chris Frey EIKE




Deutschlands Energie­wende-­Albtraum: Netzzusam­menbruch wegen unregelmäßiger Wind- und Sonnen­energie kommt näher

Manager Magazin berichtet, wie Erneuerbare Energie Deutschland in einen wilden Abwärtsstrudel führt
Es ist das Paradoxon der deutschen Energiewende: Die Kurse an der Strombörse sind niedriger als je zuvor, doch die Konsumenten bezahlen inzwischen die höchsten Preise – ohne Begrenzung im weiteren Anstieg. Darüber hinaus, je mehr grüner Strom ins Netz eingespeist wird, desto mehr Kohle wird verbrannt.

 

Kommunistische Staatsplanung

Wenn die Beschreibung des heutigen deutschen Stromnetzes wie eine Horrorgeschichte des kommunistischen staatlich geplanten Managements klingt, dann weil es genauso so ist. Und überraschenderweise ist die ganze Industrie auf dem besten Weg zu einer sozialistischen Kernschmelze.

Dafür sorgt die ehemalige DDR-Kommunistin Angela Merkel zusammen mit ihren grätenlosen westdeutschen CDU-Kollegen, von denen viele eifrig bei der Abzockerei mitmachen und das Land in einen Abwärtsstrudel reißen, ohne das einer aussteigen kann.

Heute klärt uns der deutsche Manager Magazin über das grüne Stromnetz des Landes auf – mit Blick in die Leitwarte des Netzbetreibers Tennet. Manager Magazin nennt es das Herz der deutschen Energiewende. Hier entscheidet ein Team von Ingenieuren, wie viel wovon in die verschiedenen Netze eingespeist wird und welche Windparks liefern dürfen und welche nicht.

 

Balanceakt

Heute ist die Stromversorgung zu einem herausfordernden Balanceakt geworden. Betriebsleiter Volker Weinreich: „Wir müssen immer öfter eingreifen, um das Stromnetz stabil zu halten. Wir kommen immer näher an die Grenze heran. “

Der Grund für die Netzinstabilität: die wachsende Menge an schwankender Erneuerbarer Energie aus Wind und Sonne. Manager Magazin schreibt, dass es immer vier Mitarbeiter in der Tennet-Zentrale außerhalb von Hannover sein müssen, die die Netzfrequenz überwachen, um sicherzustellen, dass sie nahe bei 50 Hz bleibt. Zu viel Abweichung und Instabilität würde die „schlimmste denkbare Katastrophe bedeuten: Netzkollaps und Stromausfall“.

 

Weitere Preissteigerungen in der Pipeline

Deutschland hat inzwischen ein riesiges Überangebot an Strom der in das Netz flutet und damit sind die Preise an den Strombörsen auf nie zuvor gesehene Werte gesunken. Dennoch sind den erneuerbaren Stromerzeugern in den meisten Fällen außergewöhnlich hohe Energiepreise über einen Zeitraum von 20 Jahren garantiert. Das bedeutet, dass die Versorger Energie zu einem hohen Preis hereinnehmen müssen, aber dafür nur sehr wenig an den Börsen bekommen können.

Das deutsche Wirtschaftsmagazin schreibt dann, dass wieder die Verbraucher die Last tragen müssen, da die Einspeisezuschüsse um weitere 0,53 Cent-Euro im Jahr 2017 klettern, so dass der Einspeisetarif für Stromverbraucher auf 6,88 Cent -Euro für jede Kilowattstunde klettert.

 

Bayern steht vor dem industriellen Stromausfall

Ein weiteres großes Problem ist, dass Deutschland bis zum Jahr 2022 die verbleibenden Kernkraftwerke abschaltet, eine Quelle auf die sich Deutschlands industrieller Süden verlässt.

In der Zwischenzeit werden die notwendigen [genannten] Übertragungsleitungen zur Beförderung von Windenergie von der Nordsee nach Süden wegen starker Proteste nicht gebaut und bedingen dadurch Engpässe. Damit ist Bayerns Schwerindustrie gefährdet. Manager Magazin schreibt, dass die Übertragungsleitungen voraussichtlich nicht vor 2025 komplettiert sein werden!

Im 3. Teil berichtet Manager Magazin, dass der Betrieb eines Stromnetzes aufgrund der erneuerbaren Energien komplexer und kostspieliger geworden sei und die Energiewende zu einer „ökologischen Torheit“ geworden sei.

Weinreich beschreibt, wie an stürmischen Tagen Windparks gezwungen sind, herunterzufahren, um das Netz nicht zu kollabieren. Und je mehr Windkraftanlagen online kommen, desto öfter müssen Windparks abgeschaltet werden. Dies macht sie noch ineffizienter [aber ihren Betreibern ist das egal – die Vergütung wird trotzdem bezahlt, der Übersetzer].

Damit arbeiten nicht nur Wind- und Solaranlagen auf Teilzeitbasis, sondern jetzt auch die konventionellen Kraftwerke – alles nach den Launen des Wetters. Viel zu oft liefern sie Energie nur weit unterhalb der Nennleistung der Höchstleistung. Die Kosten dieser Ineffizienzen werden an die Verbraucher weitergegeben. Zehntausende Verbraucher mit niedrigem Einkommen wurden in die „Energiearmut“ gezwungen.

Quelle STT

Zitat: Der Verlust an Konkurrenzfähigkeit ist erschreckend. Wenn die Leute entscheiden, ob sie in Europa oder USA investieren, das erste an was sie denken sind die Energiekosten – Paulo Savona, Vorstand der Fondo Interbancario, Italien

 

1400 Netzeingriffe

Weinreich berichtet, dass das Netz so instabil ist, dass es 2015 für Tennet notwendig war, etwa 1400 Mal einzugreifen. Mit den alten konventionellen Krafttagen waren es nur „ein paar Mal im Jahr“.

In Teil 4 berichtet Manager Magazin, dass alle Netzeingriffe und Abschaltungen von hochlaufenden Windparks die Verbraucher „Milliarden kosten“. Allein im Jahr 2017  schätzt Tennet , werden die Netzkosten um 80% steigen, weitere 30 Euro mehr an Belastung pro Jahr für jeden Haushalt bedeutet. Das Geld fließt natürlich von armen Konsumenten die sich nicht wehren können in die Taschen wohlhabender Solar- und Windparkbetreiber und Investoren.

Kein Wunder, dass viele Experten die deutsche Energiewende als die größte Vermögens Umverteilung von unten nach oben bezeichnen, die je erfunden wurde.

Erschienen auf No TricksZone am 28.12.2016

http://notrickszone.com/2016/12/28/manager-magazin-reports-how-renewable-electricity-is-taking-germany-on-a-wild-ride/#sthash.VaUUtBC6.qddOw0GC.dpbs

 

gefunden durch

https://stopthesethings.com/2017/01/13/germanys-energiewende-nightmare-grid-collapse-looms-due-to-erratic-wind-solar/

 

Dort ein Gedanke von Brian Johnston:

January 15, 2017 at 9:29 pm

… im Artikel steht:

 Deutschland hat nun eine Überproduktion an Strom

Zuleitungen um überschüssigen Strom von Norden nach Süden zu leiten kommen nicht voran.

1) Antwort: Richtiger ist, dass Deutschland eine Überversorgung mit nutzlosen, aber gefährlichen Oberwellen aufweist. Das führt dazu, dass die Situation ständig überwacht werden muss

  2) Warum geben Sie Milliarden für Übertragungsleitungen aus, um unbrauchbare und gefährliche Oberschwingungen nach Süden zu transportieren?

 

Übersetzt durch Andreas Demmig




Rundbrief der GWPF vom 13. Februar 2017: Met.-Office vs. NOAA: Die Schlacht um Wahrheit und Glaub­würdigkeit hinsichtlich der ,Global Warming Pause‘

„What you see is that the slowdown just goes away.“ –Thomas Karl (NOAA),   Science Magazine, 4 June 2015.

,Verlangsamung‘ der Ozean-Erwärmung verleiht den Klimaskeptikern ein warmes Leuchten [a warm glow]

Der ,Slowdown‘ ist nicht verschwunden“ – Peter Stott (Met Office),  The Sunday Times, 12 February 2017 [paywalled].

Eine wissenschaftliche Kontroverse hinsichtlich der Auswirkung des Klimawandels auf Ozeane hat eine neue Wendung genommen angesichts von Forschungen, die eine langsamere Erwärmung als ursprünglich gedacht zeigen. Wissenschaftler haben von 2000 bis 2015 Millionen Messungen aus allen Ozeanen der Erde analysiert und festgestellt, dass die Wassertemperatur mit einer Rate von 1,17°C pro Jahrhundert steigt. Schätzungen zuvor hatten eine Rate von 1,34°C pro Jahrhundert angenommen. Der Unterschied mag gering scheinen, ist aber trotzdem wichtig, weil die Ozeane so riesig sind, dass selbst eine Erwärmung um ein Zehntelgrad eine sehr erhebliche Zunahme der gespeicherten Energie bedeutet – und den potentiellen Einfluss auf das Klima. Es ist auch politisch relevant, vor allem in Amerika, wo eine zunehmend klimaskeptisch werdende Republikanische Partei diesen Umstand als eine Bestätigung des vermuteten ,Slowdowns‘ der globalen Erwärmung betrachtet sowie als Beweis, dass die bisherige Erwärmung übertrieben dargestellt worden war. – Jonathan Leake, The Sunday Times, 12 February 2017 [paywalled]

——————————————-

Karl et al. (2015) und die Rückkehr der ,Pause‘

Die von Karl et al. (2015) ins Spiel gebrachten Änderungen [über die seinerzeit auch die „Süddeutsche Zeitung“ in großer Aufmachung berichtete, während sie jetzt natürlich zu der zugrunde liegenden Datenmanipulation dröhnend schweigt, Anm. d. Übers.] waren einflussreich, aber gering und vorübergehend. Inzwischen haben sie sich als völlig irrelevant herausgestellt, wenn man die derzeitige Datenlage betrachtet. Sollte immer noch irgendjemand glauben, dass die höheren Trends der Jahre 2015 und 2016 der langzeitlichen globalen Erwärmung geschuldet sind, der sollte sich die Abbildung 3 bei HadCRUT4 anschauen, aus der eindeutig hervorgeht, dass die Wärmespitze dem jüngsten starken El Nino zuzuordnen ist. Inzwischen sind die Temperaturen wieder auf das Niveau des Jahres 2014 und das Niveau der „Pause“ gesunken. – David Whitehouse, GWPF Observatory, 6 February 2017

Global mean temperature 1997 -2017 — source Met Office (HadCrut4)

——————————————-

Daten, Ableitungen und die ,Pause‘

Eine Story in der Sunday Times bestätigt, dass UKMO die Leugnung des Stillstandes der globalen Erwärmung seitens Karl et al. nicht akzeptiert, und es wird darin eingeräumt, dass der ,Slowdown‘ nicht verschwunden ist. In der Ausgabe des New Scientist von dieser Woche behauptet Michael Mann, dass die ,Pause‘ ein „total widerlegter Gedanke“ ist, dass es ,hinsichtlich der finalen Analyse viel Aufhebens um nichts gegeben‘ hatte und dass ,er zu einem favorisierten Punkt der Klima-Kontrarians geworden ist‘. Die ,Pause‘ ist real und enthält viel interessante Wissenschaft; es werden über 50 Erklärungen angeboten. Aber ein weiterer Aspekt ist, dass die Vielfalt von Meinungen in der Klimawissenschaft ans Tageslicht kommt, welche hinsichtlich dieses bedeutenden Themas alles andere als ,settled‘ ist. Wer kann leugnen, dass die Klimawissenschaft geteilt ist hinsichtlich dieses grundlegenden Themas? – David Whitehouse, GWPF Observatory, 12 February 2017

——————————————-

Wie können wir den Klimawissenschaftlern trauen, falls diese weiterhin Schindluder mit der Wahrheit treiben?

Wahrscheinlich noch größeren Schaden richtet die Behauptung Einiger in der grünen Lobby an, dass unsere Enthüllungen kleine Fische sind. Tatsächlich kann deren Bedeutung aber gar nicht überschätzt werden. Sie treffen ins Herz der Klimawissenschaft, weil sie die Integrität der Datensätze des globalen Klimas in Frage stellt, auf denen praktisch alles beruht. Die einzigen ,Fake News‘ in unseren Enthüllungen ist die Behauptung, dass sie keine Rolle spielen. In Wahrheit richten sie erheblichen Schaden an, weil sie ein stillschweigendes Übereinkommen von Figuren wie Barack Obama und David Cameron zeigen, die sich teilweise auf Forschungen beriefen, die nicht mit Integrität veröffentlicht worden waren. Dies ist ein Zeitalter, in welchem Viele die Rolle von Experten hinterfragen. Die Wiederherstellung des Vertrauens erfordert Transparenz. Al Gore tätigte einmal den berühmten Ausspruch: „Die Wissenschaft ist settled“. Das ist sie nicht! Wir können es nicht zulassen, dass ein so wichtiges Thema für unsere Zukunft in Halbwahrheiten und Irreführungen ertränkt wird. – David Rose, Mail on Sunday, 12 February 2017

——————————————-

Alles übersetzt von Chris Frey EIKE




Klimaapo­kalyptiker Lesch: Wie ernst kann man ihn noch nehmen?

 Die Süddeutsche Zeitung liebt Lesch und bot ihm am 24. November 2016 kostenlose Werbefläche in Form eines Artikels für sein neues Klimalarmbuch:

Der zornige Wissenschaftler
Seit Wochen ist die Lesung ausverkauft. 250 Leute wollen Professor Harald Lesch hören, den Physiker, der so anschaulich wie lebendig auch schwierige Zusammenhänge zu erklären vermag. Am Mittwochabend geht es um den Zustand der Erde, den Lesch zusammen mit Klaus Kamphausen in dem Buch “Die Menschheit schafft sich ab” beschrieben hat. Es ist am 6. September erschienen und steht aktuell auf Platz 10 der Bestseller-Liste des Spiegel. […] Vor allem geht es um den Klimawandel, dessen Auswirkungen schon jetzt spürbar seien: Zum Beispiel in den vielen Stürmen und Hochwasser-Katastrophen wie dieses Jahr in Niederbayern, aber auch im Auftauen der Permafrost-Böden.

Ein schönes Beispiel wie Lesch die Wissenschaft instrumentalisiert und fehldeutet. Fakt ist: Es gibt in Deutschland keinen Trend zu heftigeren Regenfällen. Und Fakt ist auch: Sturmaktivität der nördlichen mittleren Breiten hat signifikant abgenommen. Lesch erzählt seinen Zuhörern unglaublichen Schmarrn. Das schert die jedoch nicht, denn sie lieben ihren Klimapropheten, der so schön zornig sein kann – auch wenn er sich die Argumente so biegt wie er sie gerade braucht.

Unser aller TV-Erklärer hat sich auch in der Lanz-Talkshow vom 29. September 2016 wortreich zum Thema Klimawandel geäußert. Hier redet er endlich einmal “Klartext”, wie uns der Titel des Mitschnitts suggeriert, und äußert sich darüber hinaus zur Begrifflichkeit des “Anthropozäns” (bitte auf Youtube direkt anschauen):

Video nicht mehr verfügbar

Ein paar Zitate, die uns besondere Freude gemacht haben.

“Wir leben momentan in der Zeit, wo wir zum ersten Mal feststellen: Wir haben die Erde massiv verändert und wundern uns jetzt darüber, dass diese Natur, die wir eigentlich noch gerne so natürlich gerne hätten, dass die nicht so geblieben ist, wie sie mal war […] Und das führt halt dazu, dass wir zum Beispiel einen Klimawandel haben, der schlicht und einfach [!!] dadurch ausgelöst wird, dass wir systematisch die Atmosphäre aufladen mit Atomen bzw. Molekülen, die die Wärmestrahlung der Erde absorbieren und dann wieder zurückgeben; nur teils ans Universum, der Rest bleibt hier …”

Oder:

“In den Alpen liegen wir deutlich über der 2-Grad-Grenze, von der ja immer die Rede ist. Am Nordpol liegen wir momentan – am NORDPOL, also oben – 5 Grad über dem langjährigen Mittel. SO warrrm war es in der Arrrrktis noch nie!!  [Anm.: Lesch neigt ja dazu, immer dann das „r“ zu rollen, wenn er seinen Aussagen besonderes Gewicht verleihen will, seien sie auch noch so unerheblich] Wenn man momentan zum Nordpol wollte, müsste man hinschwimmen, weil es nämlich jede Menge Eis dort oben nicht mehr gibt.”

Und noch mal so richtig bescheuert:

“Und deswegen mein Vorschlag; gerade für Deutschland: Was wir brauchen, sind Klima-Feiertage. Wenn nämlich Deutschland Urlaub macht, und zwar wirklich zu Hause bleibt, dann emittieren wir alle wesentlich weniger CO2. Wir bräuchten fünf bis sechs Klimafeiertage im Jahr: einen für die Atmosphäre, einen für die Flüsse, einen für die Meere, einen für’n Wald, einen für die anderen und einen für mich oder sowas, ja?”

Lesch ist unheimlich produktiv. Schon wieder hat er einen neuen Klimaclip gemacht, der seit 7. Dezember 2016 in der ZDF-Mediathek zu bestaunen ist. Klicken Sie auf den Link, denn die Leschtruppe hat das Kalte-Sonne-Blog auf die Schwarze Liste gesetzt, zumindest bei den offiziellen Lesch-Youtube-Videos, die wir jetzt nicht mehr in unsere Besprechungen einbinden können. Offenbar ist den TV-Leschologen die inhaltliche Auseinandersetzung mit unserer Kritik unangenehm. Kommentare unter den Leschvideos werden sowieso umgehend gelöscht. Zensur auf hohem Niveau.

Wenn sie sich doch einige Minuten des Terra X-Clips antun wollen, bitte schön. Die Art von Lesch ist unerträglich, unsachlich, kurz vor dem Abdrehen. Er regt sich prächtig über das Erreichen der 400 ppm-CO2-Grenze auf. Kein Wort zur wichtigen Diskussion der CO2-Klimasensitivität. Danach geht er zum Rosinenpicken über. Irgendein Modell prognostiziert mehr Hochwasser in Mitteleuropa, wenn sich das Mittelmeer erwärmt. Dieses Paper schafft es in die Sendung. Andere, positivere Papers bleiben wie gewohnt unerwähnt:

Lesch koppelt die Extremregenfälle allein an die Temperatur des Mittelmeers. Dabei hatten vorindustrielle Langzeitrekonstruktionen doch einen ganz anderen Antrieb identifiziert, der von Lesch mit keiner Silbe erwähnt wird, nämlich Sonnenaktivitätsschwankungen:

Lesch führt seine Zuschauer in die Irre. Er ist gefangen im Drang, seine klimaalarmistische Ideologie unter das Volk zu mischen und hat jedes wissenschaftliche Augenmaß verloren. Eigentlich müssten die Verantwortlichen ihn sofort aus dem Programm nehmen. Kann sich das ZDF nicht einen seriöseren Klimamann suchen? Wie wäre es mit Hans von Storch zum Beispiel? Der ist nicht so aufgeregt, kann auch gut erzählen und bleibt nah an den Fakten.

Dann kommt Lesch zu den Super-Taifunen, die im Nordwest-Pazifik seit den späten 1970er Jahren zugenommen haben sollen. Aber warum beschränkt sich Lesch auf die letzten paar Jahrzehnte? Des Rätsels Lösung: Wenn man noch weiter zurückschaut, wird schnell klar, dass hier die natürliche Variabilität am Werke ist. Die von Lesch verwendeten Trends liegen im Lichte des Langzeitgeschehens voll und ganz im Bereich der natürlichen Schwankungsbreite

Nächster Lesch-Punkt: Das “ewige” Grönlandeis, das der Mensch jetzt zum Tauen bringt. Ist natürlich noch niemals zuvor passiert, dieses Schmelzen, oder?

Weiter mit der Lesch Videoclipographie. Am 9. Dezember 2016 war Lesch in der WDR-Talkshow “Kölner Treff” zu Gast und hat auch dort wieder seine klimaalarmistischen Sprüche abgelassen (mittlerweile kann man sie beinahe auswendig mitsprechen).

Video nicht mehr verfügbar

Eine Kommentierung des Videos gibt es auf FMDsTVChannel.

 

Nächster Clip. Billigste Buchpromotion zur Adventszeit:

 

Hier bei der Kalten Sonne hat es sich jetzt erstmal ausgelescht. Alles schon gehabt, der beratungsresistente Astro-Professor macht einfach sein Ding weiter, mit freundlicher Unterstützung des ZDF und den ungefragten Gebührenzahlern. Wer immer noch nicht genug hat, dem seien die beiden folgenden Beiträge von Helmut Kuntz auf EIKE zu Lesch empfohlen:

Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Harald Lesch trägt vor den GRÜNEN zum Klima­wandel vor: Der Klima­wandel ist kein Thema, das man ernsthaft bezweifeln kann

Unkommentiert lassen wir auch dieses bizarre Lesch-Latif-Interview, ein absolutes Traumpaar:

 

Im Januar 2017 waren dann die Lesch-Sintflut-Tage im TV:

  • ZDF, Leschs Kosmos; Wettlauf gegen die Flut; Di, 17.01.2017; 23:00 Uhr
  • Phoenix, Rückkehr der Sintflut (1/2); Wenn das Ewige Eis schmilzt; Mi, 18.01.2017; 20:15 Uhr
    Wdh. heute, Do, 19.01.2017; 18:30 Uhr
  • Phoenix, Rückkehr der Sintflut (2/2); Wie unsere Kinder leben werden; Mi, 18.01.2017; 21:00 Uhr
    Wdh. Do, 19.01.2017; 19:15 Uhr

Für heute haben wir fertig.

Übernommen von Die kalte Sonne




Nachdem sich der Rauch verzogen hat: Stefan-Boltzmann auf den Punkt gebracht

Wenn wir einmal draußen bei hellem Sonnenlicht mit einem Vergrößerungsglas auf eine Zeitung fokussieren, erkennen wir sofort den Unterschied zwischen einer durchschnittlichen Energiebilanz für die gesamte Zeitung und dem Strahlungsgleichgewicht auf der mit der Lupe fokussierten Fläche:

Bei einer Betrachtung mit der durchschnittlichen Energiebilanz dürfte mit der Zeitung nämlich gar nichts passieren, tatsächlich aber fängt die Zeitung im Strahlungsgleichgewicht des Brennpunktes sofort an zu qualmen. Die Temperatur im Brennpunkt lässt sich mit einer Energiebilanz für die ganze Zeitung also nicht erklären.

Hintergrund für diese Betrachtung: Der hemisphärische Stefan-Boltzmann Ansatz zur Berechnung der Schwarzkörpertemperatur unserer Erde aus der Sonneneinstrahlung auf der Tagseite, der zu einer Widerlegung des „atmosphärischen Treibhauseffektes“ führt, wurde in den Kommentarfunktionen zu folgenden Artikeln diskutiert:

Tichys Einblick zu den Artikeln vom 19. Januar 2017, 24. Januar 2017 und 29. Januar 2017,

EIKE, Europäisches Institut für Klima & Energie zu den Artikeln vom 23. Januar 2017 und 1. Februar 2017

und auf dem ScienceScepticalBlog mit dem Diskussionsaufruf vom 5. Februar 2017.

In den Kommentaren stellt sich die Argumentation für einen atmosphärischen Treibhauseffekt als ein sich selbst beweisender Zirkelbezug auf die konventionelle Herleitung der Stefan-Boltzmann Schwarzkörpertemperatur unserer Erde über die globale Energiebilanz mit -18 Grad Celsius dar. Dieser „atmosphärische Treibhauseffekt“ mag einstmals als Hypothese aus einem Erklärungsnotstand für die Temperaturdifferenz von 33 Grad Celsius zur gemessenen Durchschnittstemperatur an der Erdoberfläche von +14,8 Grad Celsius (NST=Near Surface Temperatur) geboren worden sein und sich dann später als „atmosphärische Gegenstrahlung“ verselbständigt haben. Der absolute Argumentations-GAU ist aber die gerne zitierte Herleitung einer „atmosphärischen Gegenstrahlung“ mittels Schwarzschild-Gleichung und Strahlungstransfergleichungen, in der die sogenannte „Gleichgewichts-Temperatur“ von 255° Kelvin (=-18° Celsius) für das System Erde-Atmosphäre dann ausgerechnet wieder aus der konventionellen S-B Berechnung für die Schwarzkörpertemperatur der Erde über die global gemittelten Energiebilanz hergeleitet wird (hier unter 4.11.1)…

Erstaunlicherweise bedienen sich auch ausgewiesene Klimarealisten des hinlänglich bekannten „Leugnerwiderlegungsschemas“ für unliebsame Gegenargumente zur eigenen These, denn eine „Widerlegung“ meiner Hemisphären-Betrachtung läuft genau nach dem nachstehend beschriebenen Schema (1) bis (3) ab, und zwar einzeln oder in beliebiger Kombination:

  • Wiederholung der eigenen These.
  • Grundsätzliche Ablehnung der neuen These mit vordergründigen Sophismen.
  • Persönliche Diffamierung des Autors.

Bemerkenswert ist aber, dass die Eckdaten (-18°C „Normaltemperatur“ der Erde und 33° Temperatureffekt) der „atmosphärischen Gegenstrahlung“ für einen „atmosphärischen Treibhauseffekt“ immer auf das Ergebnis der konventionellen S-B Berechnung für die Schwarzkörpertemperatur der Erde (-18°C) und deren Differenz (33°) zur gemessenen globalen Durchschnittstemperatur (+14°C) zurückgeführt werden können. Alle diesbezüglichen Argumente müssen also als Rekursion auf diesen konventionellen S-B Ansatz für die Schwarzkörpertemperatur unserer Erde aus der globalen Energiebilanz verstanden werden. Bei einem durchschnittlichen Wärmefluss von etwa 0,07 W/m² aus dem Erdinneren läge die tatsächliche „natürliche“ Temperatur unserer Erde ohne Sonneneinstrahlung übrigens bei ungefähr -240 Grad Celsius…

Wir haben es hier also mit zwei ganz unterschiedlichen Herleitungen für die Schwarzkörpertemperatur unserer Erde über das Stefan-Boltzmann Gesetz zu tun, und zwar einerseits über eine durchschnittliche Energiebilanz für die gesamte Erde und andererseits über ein Strahlungsgleichgewicht auf der tatsächlich bestrahlten Fläche, also der Tagseite der Erde – oder anders ausgedrückt:

Die konventionelle Herleitung der Schwarzkörpertemperatur berechnet sich mit dem S-B Gesetz aus der globalen Energiebilanz der Erde für die gesamte Kugeloberfläche:
(Solarkonstante/4) => netto 235 W/m² => -18° Celsius + Treibhauseffekt

Die alternative Herleitung (Weber) berechnet sich mit dem Strahlungsgleichgewicht des S-B Gesetzes für eine Halbkugelbetrachtung in einem Zweischichtfall für Atmosphäre und Erdoberfläche:
(Solarkonstante/2) => netto 390 W/m² => +14,8°Celsius

Stefan-Boltzmann auf den Punkt gebracht: Um meinen zugrunde liegenden Gedankengang für die alternative Herleitung der S-B Schwarzkörpertemperatur über die Sonneneinstrahlung auf der Tagseite unserer Erde noch einmal zu verdeutlichen, hatte ich in der Kommentarfunktion von EIKE zum Beitrag vom 1. Februar 2017 bereits die exakte Umkehrung des Stefan-Boltzmann Experimentes formuliert, Zitat mit Hervorhebungen, die beiden Abbildungen nebst Erklärungen wurden zum besseren Verständnis zusätzlich eingefügt:

„…Das Stefan-Boltzmann Experiment verbindet Temperatur und Strahlung eines künstlich erhitzten Schwarzen Körpers:

 

  • Ein Schwarzer Körper strahlt mit seiner erhitzten Fläche A eine Energiemenge P ab, die der 4. Potenz seiner Temperatur T folgt:


  • Wir können uns in den exakten S-B Versuchsaufbau für die die Strahlung eines idealen Schwarzen Körpers einmal den grauen Körper Erde mit seiner Albedo a „hineindenken“. Die Gesamtsituation in diesem Gedankenexperiment wäre dann zwar nicht mehr „ideal“, würde aber verdeutlichen, dass im künstlich erhitzten Ofen ein Strahlungsgleichgewicht für alle Flächen gelten würde, also auch für die „Nachtseite“ der Erde.
    Hinweis: Diese Abstraktion für das S-B Experiment führt unmittelbar zu der entscheidenden Frage, mit welcher Leistung in [W/m²] eine künstlich erhitzte Erde bei einer bestimmten Temperatur eigentlich abstrahlen würde. Beide Lösungsvarianten, nämlich -19°C bei 235 W/m² als auch +14,8°C bei 390 W/m², wären nach dem S-B Gesetz möglich.
  • Die logische Umkehrung für einen passiv bestrahlten Schwarzen Körper lautete dann:

  • Ein bestrahlter Schwarzer Körper nähme auf seiner bestrahlten Fläche A die Temperatur T an, die der 4. Wurzel aus der eingestrahlten Energiemenge P folgt
    …“:Es wird aus dieser Abbildung sofort deutlich, dass man den Körper Erde eigentlich von beiden Seiten bestrahlen müsste, um der Umkehrung des S-B Experimentes bei einer globalen Betrachtung voll zu entsprechen. Denn man kann die Einstrahlung der Sonne auf der Tagseite der Erde nicht einfach halbieren, um dann die andere Hälfte dieser Strahlung ihrer Nachtseite zuzurechnen. Diese Darstellung führt also zwangsläufig zur hemisphärischen Betrachtung für die Gleichgewichtstemperatur der Erde.

Das einleitend ausgeführte Beispiel mit dem Brennglas und der Zeitung hatten wir alle in unserer Jugend ja sicherlich schon einmal ausprobiert. Wenn wir annehmen, das Brennglas habe eine Fläche von 30 cm² und der Brennpunkt sei 10 mm² groß, dann hätten wir im Brennpunkt eine Konzentration der einfallenden Strahlung um den Faktor

3.000 mm² / 10 mm² = 300 (in Worten: Dreihundert).

Dieser Faktor 300 gilt aber ausschließlich für den Brennpunkt, wo die Zeitung bei entsprechenden Bedingungen dann ja auch sofort anfängt zu qualmen. Dabei verändert sich aber im Prinzip die durchschnittliche Energiebilanz der gesamten Zeitung nicht, vom Schatten des Handgriffs und des Rahmens der Lupe sowie der haltenden Hand einmal abgesehen. Sehr wohl verändert sich aber die Energiedichte und damit auch die Temperatur der Zeitung im Strahlungsgleichgewicht des Brennpunktes, wie dieses Experiment eindeutig nachweist. Und wenn wir dieses Experiment bei Nacht und gleicher durchschnittlicher globaler Energiebilanz wiederholen, dann qualmt da gar nichts, weil ja schließlich die Sonneneinstrahlung fehlt.

Halten wir hier also noch einmal fest:

Globale Energiebilanz ≠ lokales thermisches Gleichgewicht

Ich hatte ja bereits ausdrücklich darauf hingewiesen, dass meine originären Ausführungen (hier ab Seite 19) zur Fehlberechnung des atmosphärischen Treibhauseffektes aus dem Stefan-Boltzmann-Gesetz selbstverständlich jederzeit wissenschaftlich widerlegt werden können, Zitat:

„…Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt…“

Ich zweifle also die durchschnittliche globale Energiebilanz der Erde in keiner Weise an, aber daraus lässt sich m. E. die Schwarzkörpertemperatur der Erde nicht errechnen. Denn ein aktiver Temperatureinfluss der Sonneneinstrahlung kann sich nur auf der Tagseite der Erde entwickeln, während auf der Nachtseite lediglich Abstrahlung erfolgt. Der grundsätzliche physikalische Unterschied zwischen der durchschnittlichen Energiebilanz unserer Erde und der direkten temperaturwirksamen Sonneneinstrahlung auf ihrer Tagseite wird also bei der konventionellen Herleitung der S-B Schwarzkörpertemperatur nicht korrekt abgebildet. Denn wenn man die S-B Schwarzkörpertemperatur aus der globalen Energiebilanz berechnen will, muss man die tatsächliche solare Energiedichte auf der Tagseite halbieren – und rechnet dann aus diesem physikalisch gar nicht existenten Durchschnittswert für die Sonneneinstrahlung mittels eines als Gleichung missbrauchten S-B Gesetzes die Temperatur für ein nicht existierendes Strahlungsgleichgewicht aus der 4. Wurzel dieser global gemittelten Sonneneinstrahlung.

Richtig ist lediglich, dass man über eine solche globale Mittelung die durchschnittliche Gesamtabstrahlung der Erde im Energiegleichgewicht berechnen kann:

(EINSTRAHLUNG = 470 W/m² über 2πR2) =   (ABSTRAHLUNG = 235 W/m² über 4πR2)

Es gibt auf unserer Erde nämlich gar keine durchschnittliche globale Sonneneinstrahlung von 235 W/m², die im Strahlungsgleichgewicht zu einer berechneten Schwarzkörpertemperatur von -19° Celsius führen könnte. Es existiert lediglich die tatsächliche Sonneneinstrahlung auf der Tagseite der Erde mit durchschnittlich 470 W/m², deren atmosphärische Nettowirkung 390 W/m² einer S-B Temperatur von +14,8° Celsius entspricht. Analog zu dem oben ausgeführten Beispiel mit der Lupe und der Zeitung ist hier also klar ersichtlich, dass sich die S-B Gleichgewichtstemperatur der Erde nur auf ihrer direkt von der Sonne bestrahlten Tagseite ausbilden kann.

Anmerkung: Die Differenz zwischen dem hier angegebenen Strahlungswert von 470 W/m² und dem oben angegebenen temperaturwirksamen Nettowert von 390 W/m² für die Atmosphäre besteht in den 80 W/m² IR-Abstrahlung von der Erdoberfläche im sogenannten „atmosphärischen Fenster“ auf der Tagseite, die in der Atmosphäre ohne thermische Wirkung bleiben.
Und wenn Sie es noch genauer wissen wollen:
Mit den Ausführungen von Kiehl & Trenberth (1997) verteilt sich die primäre Sonneneinstrahlung für die Tagseite von netto 470 W/m² auf die Atmosphäre mit (134 W/m²) und die Erdoberfläche mit (336 W/m²); es handelt sich hier also um einen Zweischichtfall. Die 336 W/m² werden dann als IR-Strahlung von der Erdoberfläche zurückgestrahlt, sodass in der Atmosphäre insgesamt (134+336–80=390) W/m² temperaturwirksam werden können. Es ergibt sich in diesem Zweischichtfall also ein Temperaturüberschuss von ca. 10 Grad zugunsten der Atmosphäre, was man auch als „Atmosphäreneffekt“, aber niemals als eigenständigen „Treibhauseffekt“ bezeichnen könnte. Und bevor sich jetzt auf der Kommentarplattform die „Widerleger“ überschlagen, sei hier ausdrücklich auf die unterschiedliche Entropie dieser Strahlungsbeträge hingewiesen; bei den 134 W/m² handelt es sich nämlich um primäre Sonnenstrahlung. Für eine ausführliche Herleitung sei nochmals auf meine originäre Veröffentlichung verwiesen (hier ab Seite 19).

Es ist also keine wirklich gute Idee, die tatsächliche Sonneneinstrahlung auf der Tagseite der Erde über die gesamte Erdoberfläche inklusive der Nachtseite zu mitteln, um dann aus diesem globalen Mittelwert mit dem Stefan-Boltzmann Gesetz als „Rechenvorgabe“ die Gleichgewichtstemperatur der Erde für die einfallende Sonneneinstrahlung zu berechnen.