1

Marsch der Wissen­schaft vs. tatsäch­liche Wissen­schaft

Falls man etwas über Klimawissenschaft erfahren möchte, was der politischen Propaganda entgegensteht, klicke man hier, um eine bedeutende, gerade veröffentlichte Studie von Dr. James P. Wallace III, Dr. John R. Christy and Dr. Joseph S. D’Aleo zu lesen, welche von einer Anzahl prominenter Klimawissenschaftler für gut befunden wurde.

Die Studie trägt den Titel [übersetzt] „Über die Existenz eines ,Tropischen Hot Spot‘ & die Stichhaltigkeit des CO2 Endangerment Finding der EPA“. Wie wahrscheinlich bekannt, ist das empörende Ergebnis der EPA, dem zufolge Emissionen von Kohlendioxid die öffentliche Gesundheit und das Wohlergehen gefährdet, obwohl dieses Spurengas unabdingbar ist für alles Leben auf der Erde, die Grundlage des Krieges der Obama-Regierung gegen bezahlbare Energie.

Wie jede ordentliche wissenschaftliche Studie ist sie schwer zusammenzufassen. Ich werde es mal versuchen, aber man sollte vielleicht die gesamte Studie lesen.

Die Modelle, welche die Basis sind für den globalen Erwärmungs-Alarmismus, heben alle als entscheidend einen „tropischen Hot Spot“ hervor, welcher die vermeintliche „Signatur“ der vom Menschen verursachten Erwärmung sein soll. Tatsächlich jedoch existiert ein solcher Hot Spot über den Tropen nicht:

Bereitet man Datensätze nur mit der Grundlage natürlicher Faktoren auf, zeigt sich NICHT EINE der oben analysierten neun Temperatur-Zeitreihen aus den Tropen konsistent mit der Hot Spot-Hypothese (THS) der EPA konsistent.

Das heißt, adjustiert man die Datensätze nur mit Bezug auf die Auswirkungen natürlicher Faktoren über ihre gesamte Periode, zeigen alle neun analysierte Temperaturreihen keine statistisch signifikanten Trends – was die THS widerlegt. Mehr noch, CO2 kam nicht einmal in die Nähe davon, auch nur auf einen einzigen dieser Temperaturreihen einen statistisch signifikanten Einfluss zu haben. Aus ökonometrischer Sicht funktionierte das generische Modell extrem gut in allen neun Fällen.

Diese Ergebnisse der Analysen scheinen nur sehr, sehr geringe Zweifel zurückzulassen hinsichtlich der EPA-Behauptung eines THS aufgrund steigender CO2-Niveaus in der Atmosphäre. Er existiert ganz einfach in der realen Welt nicht. Ebenfalls von entscheidender Bedeutung ist, dass aus den Analysen nicht hervorgeht, dass das stetig steigende atmosphärische CO2-Niveau überhaupt irgendeine signifikante Auswirkung auf irgendeine der 14 analysierten Temperaturreihen hat.

Folglich widerlegen die Ergebnisse der Analyse alle drei Beweis-Linien im Endangerment Finding der EPA bzgl. CO2. Ist die THS-Hypothese der EPA erst einmal widerlegt, wird für jedermann offensichtlich, dass die Klimamodelle, auf die man sich ihren Aussagen zufolge verlassen kann, ebenfalls gegenstandslos sind.

Es ist bemerkenswert, dass irgendjemand überhaupt für eine halb ausgegorene Theorie argumentiert, wie sie von einem Modell beschrieben wird, anstatt für empirische Beobachtungen. Mit Sicherheit würde kein kompetenter Wissenschaftler dies tun. Und doch ist es genau das, was in der Debatte um die globale Erwärmung der Fall ist. Wie wir schon sehr oft dokumentiert haben, sind die Linken – wohl wissend, dass sie ihre argumentative Grundlage verlieren – dazu übergegangen, Temperaturaufzeichnungen zu manipulieren, auf die sie Zugriff haben, um sie für ihre Theorie passend zu machen. Dies ist meiner Ansicht nach der schlimmste Skandal in der Historie der Wissenschaft.

Falls die grundlegenden natürlichen Faktoren – solare, vulkanische und ENSO-Aktivitäten – aus der Gleichung herausgenommen werden, gäbe es während der letzten Jahre insgesamt keine globale Erwärmung:

Schlussfolgerung aufgrund empirischer Beweise:

Obige Analyse atmosphärischer Temperaturdaten aus globalen Ballonaufstiegen und Satellitenbeobachtungen ebenso wie angrenzende mittlere Temperaturdaten aus den USA und von Hadley ergab keine statistische Unterstützung für die Aussage, dass CO2 der Grund für den positiven Trend in den aufgezeichneten US-und globalen Temperaturdaten ist, selbst dann nicht, wenn man es mit allen anderen weggelassenen Variablen kombiniert.

Tatsächlich scheint es sehr eindeutig zu sein, dass die globale Erwärmung von 1959 bis heute ziemlich einfach allein mit natürlichen Faktoren erklärt werden kann. Angesichts der Anzahl unabhängiger Unternehmungen und der verwendeten unterschiedlichen Instrumentierung bei der Gewinnung der hier analysierten Temperaturdaten erscheint es extrem unwahrscheinlich, dass diese Ergebnisse irrig sind.

Ich habe versucht, die verständlichen Abschnitte herauszuschreiben, aber in dem Beitrag gibt es viel reine Wissenschaft, z. B. (ohne Fußnoten):

Eine letzte Frage bleibt noch übrig, die bisher nicht explizit behandelt worden ist. Und zwar die Frage, ob die Existenz der CO2-Gleichung wirklich bestätigt werden, so dass gleichzeitig Verfahren zur Abschätzung der Gleichungs-Parameter genutzt werden müssen, um eine statistisch signifikante Auswirkung von CO2 auf die Temperatur zu bestätigen. Im Vorwort beziehen sich die Autoren auf eine bestimmte Studie als Beweis. Unten wird dieser sehr bedeutende zusätzliche Beweis beschrieben.

Nachdem sich das CO2 als nicht statistisch signifikant herausgestellt hatte bei der strukturellen Analyse der 13 Temperatur-Datensätze, wie sie in Abschnitt XXIII [23] unmittelbar hiervor zusammengefasst sind, kann man das im Vorwort beschriebene Gleichungssystem als rekursiv betrachten, welches es gestattet, die Parameter der CO2-Gleichung abzuschätzen mittels gewöhnlicher oder direkter kleinster Quadrate.

Eine explizite Schreibweise der im Vorwort erwähnten CO2-Gleichung lautet:

(∆C- cfossil)t = a + b*Tt + c* CO2,t-1

Hierin ist:

(∆C – cfossil)t der Ausfluss der gesamten, nicht fossilen CO2-Emissionen aus den Ozeanen und cfossil die CO2-Emissionen aus der Verbrennung fossiler Treibstoffe,

Tt ist die Wassertemperatur der tropischen Ozeane nach UAH [Tropical TLT Ocean Temperature]. Das erwartete Vorzeichen ist positiv.

CO2,t-1 auf der rechten Seite ist ein Proxy für den Landverbrauch. Das erwartete Vorzeichen ist negativ, weil mit steigendem CO2-Niveau die CO2-Aufnahme durch die Pflanzen zunimmt, wenn alles andere gleich gesetzt wird.

Wie in Tabelle XXIV-1 gezeigt, ergibt die Anwendung der gewöhnlichen kleinsten Quadrate auf diese Gleichung ein hohes adjustiertes R-Quadrat (0,64). Die Koeffizienten haben die korrekten Vorzeichen und sind statistisch signifikant im Vertrauensniveau von 95%.

Die Wissenschaft ist faszinierend, aber man muss kein Wissenschaftler sein um zu verstehen, warum die Hysterie um die globale Erwärmung einfach falsch ist. Hier sind einige grundlegende Fakten, die man zwar leugnen, dadurch aber nicht aus der Welt schaffen kann:

Das Klima der Erde hat sich seit Jahrmillionen geändert. Gegenwärtig leben wir in einer von Eiszeiten charakterisierten geologischen Epoche. Ich möchte darauf hinweisen, dass mein derzeitiger Wohnort vor 15.000 Jahren – geologisch ein Augenzwinkern – unter Kilometer dickem Eis begraben war. Wissenschaftler haben Theorien, aber nicht einmal ansatzweise eine Ahnung, warum derartig starke Schwingungen des Erdklimas während der letzten Millionen Jahre überhaupt aufgetreten waren. Was wir mit Sicherheit wissen ist, dass es garantiert nichts mit irgendwelchen menschlichen CO2-Emissionen zu tun hatte.

Wir leben in einer relativ kalten Ära. Seit dem Ende der letzten Eiszeit war es auf der Erde die meiste Zeit wärmer als derzeit – den meisten Experten zufolge etwa 90% der Zeit. Falls also die Temperatur ein wenig steigt, ist das kaum eine Überraschung.

Ein vernünftiges wissenschaftliches Argument auf der Grundlage von Energie-Transfer (über das man jedoch streiten kann) lautet, dass eine Verdoppelung des CO2-Gehaltes die mittlere Temperatur der Erde um etwa 1 Grad Celsius steigen lassen könnte. Jedermann stimmt darin überein, dass dies sehr zu begrüßen wäre.

Um ängstigende Schlagzeilen zu erzeugen spekulieren die Alarmisten, dass verschiedene positive Rückkopplungen jene mögliche Temperaturzunahme um 1 Grad verstärken können auf 3 bis 6 Grad. Diese Rückkopplungs-Theorien sind im besten Falle spekulativ. In Wirklichkeit wissen wir, dass sie falsch sind, da höhere Temperaturen während der letzten 500.000 Jahre keine irgendwie geartete Runaway-Temperaturzunahme verursacht haben.

Der Alarmislus der globalen Erwärmung basiert ausschließlich auf Modellen, nicht auf Beobachtungen und Messungen. Aber wir wissen, dass die Modelle falsch sind. Sie prophezeien eine viel stärkere Erwärmung als während der letzten Jahrzehnte beobachtet. Ein Modell, welches sich als falsch herausgestellt hat, ist wertlos. Es kann nicht wiederbelebt werden durch eine selektive, politisch motivierte Verzerrung aufgrund von Fakten.

[Hervorhebung vom Übersetzer!]

Das ist eigentlich alles, was man wissen muss.

Link: http://www.powerlineblog.com/archives/2017/05/marches-for-science-vs-actual-science-2.php

Übersetzt von Chris Frey EIKE




Woche der grünen Energie-Armut

[Der Beitrag stammt vom 24. April. Die seinerzeit gemachte Vorhersage von Driessen kann man wohl inzwischen als ,voll eingetreten‘ bezeichnen. Anm. d. Übers.]

Auf der Website des „Klima-Marsches“ heißt es, dass diese Kräfte des „Widerstands“ darauf abzielen, Präsident Trump zu zeigen, dass sie seine verhasste Energie-Agenda Schritt für Schritt bekämpfen werden. Die Organisatoren des Marsches sagen, sie würden niemanden tolerieren, der versucht, „Wissenschaft zu verzerren, zu ignorieren, zu missbrauchen oder sich in diese einzumischen“.

Nach acht Jahren einer Regierungspolitik, die zu massiven Arbeitsplatzverlusten und zu einem Stopp des wirtschaftlichen Wachstums führte, und in welcher Wissenschaft und Wissenschaftler, die sich von alarmistischen Standpunkten distanzierten, verzerrt dargestellt, missbraucht, behindert, verunglimpft und verfolgt worden sind, ist diese Frömmigkeit nichts als arrogante Scheinheiligkeit.

Aber deren Theater des Absurden wird noch schlimmer. Einige Führer des Marsches der Wissenschaften waren empört, dass die jüngste, auf den IS abgeworfene MOAB-Bombe zeige, „wie Wissenschaft als Waffe eingesetzt wird gegen Kleine Leute“.

Die Rhetorik erwähnt auch die jährliche Earth Hour, wenn Menschen in reichen Ländern ihr Licht 60 Minuten lang ausschalten sollen, um für die Sünde des Verbrauches fossiler Treibstoffe, von Kern- und Wasserkraft Buße zu tun, mit der wir unsere Wohnungen, Geschäfte, Schulen und Krankenhäuser elektrifizieren. Ich persönlich folge und befürworte die Human Achievement Hour [etwa: Stunde menschlicher Errungenschaften], indem ich zusätzlich Licht einschalte, um die unglaublichen Innovationen und Fortschritte der Menschheit während der letzten 150 Jahre zu feiern, unseren modernen Lebensstandard und womit ich für das Recht aller Menschen eintrete, ihr Leben zu verbessern und ihre Lebensspanne zu verlängern.

Ich war ein Organisator vor Ort beim ersten Earth Day im Jahre 1970, als wir ein ernstes Verschmutzungs-Problem hatten. Aber seitdem haben wir unsere Handlungen, unsere Luft und unser Wasser gesäubert. Umweltgruppen, Modellierer und Obamas Gesetzgeber ignorierten diese Fortschritte, die reale Klimawissenschaft und das Klima der realen Welt vor ihren Fenstern.

Was noch weitaus schlimmer ist, während sie behaupten, sich mit aller Kraft um die Ärmsten unter uns zu kümmern, ignorieren sie den Schaden, welche ihre Politik gerade diesen Menschen zufügt: stark steigende Strompreise, weniger Arbeitsplätze, niedrigerer Lebensstandard im Westen – und ewig fortdauernde Armut, Krankheiten Unterernährung und Säugkingssterblichkeit in Entwicklungsländern. Jedes Jahr zahlen wir mehr für vermeintliche Verbesserungen der Umweltgüte in Kombination mit immer weiter ausufernder Kontrolle von Regierung und Aktivisten auf unser Leben – und unerschütterlichem Widerstand gegen zuverlässige und bezahlbare Energie in der Dritten Welt.

Darum haben einige Leute, die sich tatsächlich um Arme, Minderheiten, Ältere, die Arbeiterklasse und Familien in Entwicklungsländern kümmern, die Woche vom 17. bis zum 23. April als Woche grüner Energie-Armut proklamiert.

In Industrieländern bezieht sich der Terminus „grüne Energiearmut“ auf Haushalte, die 10% oder mehr des Familieneinkommens ausgeben müssen für Gas und Strom – infolge einer Politik, welche die Versorgungseinrichtungen dazu zwingt, immer größere Mengen teurer, unzuverlässiger und politisch bevorzugter „grüner“ Energie zu liefern. Es ist eine regressive Steuer, welche unverhältnismäßig Familien mit geringem Einkommen belastet, die kaum Geld für andere Dinge übrig haben wie Nahrung, Kleidung, Miete und andere Grundbedürfnisse. Jeder weitere Preisanstieg drückt sie weiter nieder.

Jenseits unserer Grenzen unterstreicht das Konzept, dass viele Familien sich nicht der Lebensstandards erfreuen können, welche wir als garantiert hinnehmen. Sie haben keinen Strom oder haben ihn nur wenige Stunden pro Woche zu zufälligen Zeiten; sie müssen Holz und Dung verbrennen für Kochen und Heizen, und sie müssen jeden Tag stundenlang Treibstoff und schmutziges Wasser von weither holen. Korrupte, inkompetente Regierungen und unablässiger Druck seitens skrupelloser Umweltbanden in reichen Ländern sorgen dafür, dass sich Elend, Arbeitslosigkeit, Krankheiten, Hunger und früher Tod unendlich fortsetzen.

In den USA betrifft grüne Energiepolitik die ärmsten Haushalte dreimal stärker als die reichsten Haushalte. Tatsächlich betreffen steigende Strompreise alle Güter und Dienstleistungen und alle Stromverbraucher: Wohnungen, Büros, Krankenhäuser, Schulen, Einkaufszentren, Bauernhöfe und Fabriken. Angesichts von 37 Millionen amerikanischer Familien, welche weniger als 24.000 Dollar pro Jahr verdienen, und von 22 Millionen Haushalten, denen weniger als 16.000 Dollar nach Steuern verbleiben, ist es ziemlich offensichtlich, warum Vorschriften bzgl. Wind und Solar unfair, nicht nachhaltig und unmenschlich sind.

Es ist unglaublich, aber einem Bericht des Manhattan Institutes zufolge leben eine Million Haushalte in Kalifornien trotz des dort immer milden Wetters in Energiearmut. Tatsächlich weist der einstige Golden State die höchste Armutsrate der USA auf, zu wesentlichen Teilen dank der Forderungen seitens der Regierung, dass ein Drittel des Stromes in dem US-Staat bis zum Jahr 2020 aus „erneuerbaren“ Quellen stammen muss; bis zum Jahr 2030 sogar zur Hälfte. Kein Wunder, dass die Preissteigerungsrate in Kalifornien fast doppelt so hoch liegt wie in Kentucky und anderen Staaten, die zur Stromerzeugung Kohle und Erdgas nutzen.

Elektroautos von Tesla belohnen ebenfalls nur wohlhabende Käufer: mit Gratis-Ladestationen, Zugang zu HOV-Spuren [High-occupancy vehicle lane: in den USA und Kanada besondere Fahrstreifen von Straßen nur für Kraftfahrzeuge mit mehreren Insassen] und 10.000 Dollar an Steuernachlässen. Für deren Betrieb sind Batterien erforderlich, hergestellt aus Lithium, welches unter furchtbaren oder nicht existierenden umweltlichen und gesundheitlichen Bedingungen ausgegraben wird, wobei Sicherheit ignoriert und Kinderarbeit in Afrika eingesetzt wird. Die Batterien kosten 325 Dollar pro Kilowattstunde – das ist gleich 350 Dollar pro Barrel Öl (das ist sieben mal mehr als der Pro-Barrel-Preis von 50,40 Dollar im April 2017).

Würde man die Politik in Kalifornien auf die gesamten USA ausweiten, würden die Kosten für Heizung, Licht, Strom, Internet und alle Güter und Dienstleistungen in den Himmel schießen. Arbeitsplätze würden verschwinden, der Lebensstandard würde abnehmen, Fälle von Depression sowie Drogen- und Alkoholmissbrauch würden zunehmen, und mehr Menschen würden an sich verschlechternder Gesundheit, an Drogen und durch Selbstmord sterben.

Schauen wir nach Europa: Dort sind die Strompreise derzeit doppelt so hoch wie in Kalifornien: 30 bis 45 Cent pro kWh! Grüne-Energie-Politik vernichtet Arbeitsplätze, Industrien, Gesundheitsvorsorge, Familien-Budgets und Zukunftsprojekte.

Britische Familien zahlen derzeit „atemberaubende 54% mehr“ für Strom als der durchschnittliche Amerikaner. Nahezu 40% aller Haushalte in UK schränken ihre Nahrungseinkäufe und andere Bedürfnisse ein, um Strom bezahlen zu können. Eine von drei Familien in UK hat Mühe, die Energierechnungen zu zahlen. Bis zu 24.000 ältere Briten sterben in jedem Winter an Krankheiten und Unterkühlung, weil sie sich angemessene Heizung nicht leisten können. Viele sind gezwungen, sich zu entscheiden zwischen Heizung und Nahrung.

In Deutschland wurde 330.000 Familien im Jahre 2015 der Strom abgedreht, weil sie die immens steigenden Rechnungen nicht mehr bezahlen konnten. 50% des mittleren Haushaltseinkommens werden für Energie ausgegeben. Die Griechen fällen Bäume in geschützten Wäldern, weil sie sich kein Heizöl leisten können; hunderttausende Acres Land werden in ganz Europa aus dem gleichen Grund zerstört. Ein Zehntel aller EU-Familien leben derzeit in grüner Energiearmut.

Unendlich viel schlimmer ist es für Eltern und Kinder in den ärmsten Regionen Europas. In Afrika, Indien und anderen verarmten Regionen verbrennen über zwei Milliarden Menschen immer noch Holz, Holzkohle und Dung zum Kochen. Millionen sterben an Lungenkrankheiten verursacht durch die Verschmutzung dieser offenen Feuer, Millionen weitere an Darmkrankheiten durch mit Bakterien verseuchte Nahrung und Wasser, weitere Millionen an verdorbenen Medikamenten. Die Gesundheitsfürsorge in Kliniken ohne Strom und Kühlmöglichkeiten ist primitiv.

In Uganda haben „Unternehmer“ ein Dorf niedergebrannt, wobei ein krankes Kind zu hause starb, um das Gebiet in neues Waldland zu verwandeln, damit das Land dann Kohlenstoff-Zertifikate fordern kann, um den Klimawandel zu verhindern. Die Regierung des Tschad ächtete Holzkohle, den Hauptbrennstoff zum Kochen in jener Nation, mit der absurden Begründung von Bedenken über Klimawandel.

Die verzweifelten Familien in Afrika jagen und kochen alles, was läuft, kriecht, fliegt oder schwimmt, ob nun vom Aussterben bedroht oder nicht. Viele Kilometer im Umkreis ihrer Städte und Dörfer haben sie Wald- und Buschland gerodet – und damit die Habitate von Geparden und Schimpansen in Feuerholz und Holzkohle verwandelt. Armut ist unleugbar der schlimmste Umweltzerstörer.

Für die wohlhabende und immer mächtigere radikale Umweltbewegung geht es nicht mehr darum, wirkliche Verschmutzungsprobleme anzusprechen, die Umwelt zu schützen oder die menschliche Gesundheit zu verbessern. Wie UN-Funktionäre stolz verkündet haben, geht es in Wirklichkeit um das Ende des Verbrauches fossiler Treibstoffe und Kapitalismus, die Umverteilung des Reichtums der Welt und um die Kontrolle über die Lebensweise, den Lebensstandard und die Freiheiten der Menschen.

Natürlich ist alles nur gut gemeint und soll der Rettung der Menschen und des Planeten dienen – von übertriebenen oder fabrizierten Klima-Kataklysmen bis zu Ressourcen-Erschöpfung. Aber man denke während der Woche der grünen Energiearmut über die Konsequenzen in der realen Welt nach.

Umweltaktivisten beteuern unablässig, sich mit ganzer Kraft um die Armen in Amerika und der Welt kümmern zu wollen. Aber ihre Politik und Maßnahmen sind viel zu oft viel lauter als ihre Worte. Man verzeihe mir die Frage, aber mit Freunden und Beschützern dieser Art – brauchen die Armen der Welt dann wirklich noch Feinde?

Link: http://www.thegwpf.com/paul-driessen-green-energy-poverty-week/

Übersetzt von Chris Frey EIKE




Neue Studie bestätigt: Der Erwärmungs-„Stillstand“ ist real und zeigt sich immer deutlicher

Die Studie versucht, den ,Stillstand‘ zu erklären mittels eines Blickes darauf, was man über die Klima-Variabilität weiß. Sie sagen, dass es vier Jahre nach Veröffentlichung des AR 5vom IPCC, in welchem viel vom ,Stillstand‘ die Rede war, an der Zeit ist zu checken, was man daraus lernen kann.

Man könnte ein wenig sarkastisch fragen, warum Nature sieben ganze Seiten einem Ereignis zur Verfügung stellt, von dem manche vehement vorbringen, dass es niemals existierte [darunter kürzlich die ,Süddeutsche Zeitung‘, Anm. d. Übers.] und die darauf bestehen, dass es schon vor langer Zeit widerlegt wurde. Jetzt jedoch, da die El Nino-Temperaturspitze der letzten paar Jahre abflacht, scheint es wieder in Mode zu kommen, den ,Stillstand‘ zu analysieren.

Die Autoren dieser jüngsten Studie ziehen eine feine Grenze zwischen den beiden gegensätzlichen Lagern, wenn sie einerseits sagen, dass beide Seiten irgendwie recht haben und deren bestimmte Analyseverfahren verständlich sind. Andererseits stellen sie klar, dass es da ein wirkliches Ereignis gibt, welches untersucht werden muss.

Als jemand, welcher den ,Stillstand‘ seit fast einem Jahrzehnt genau verfolgt hat, bin ich vielleicht aufmerksamer als die meisten Anderen, wenn es um ein Wiederaufwärmen der Historie des Gedankens und der Beobachtungen geht.

Die Autoren sagen, der Stillstand begann mit Behauptungen von außerhalb der wissenschaftlichen Gemeinschaft. Nun, ja und nein. Er wurde versuchsweise in den Jahren 2006 und 2007 von Klimaskeptikern in den Raum geworfen, von denen viele erfahrene Wissenschaftler waren, die sehr gut in der Lage sind, eine Graphik zu interpretieren und Statistiken zu berechnen. Ein Jahrzehnt, nachdem die Behauptungen aufgekommen waren, ist es ein Tribut an all jene, die ihn zuerst entdeckt hatten und seitdem harter Kritik ausgesetzt waren. Es waren die Skeptiker, welche den Stillstand bemerkten und damit einen wertvollen Beitrag zur Wissenschaft leisteten. Jahrelang war er ausschließlich in der Blogosphäre Gegenstand von Analysen und Diskussionen war, bevor Journale geruhten, von ihm Kenntnis zu nehmen.

Es gibt nichts Neues in ihrer neuen Studie oder dass nicht bei der GWPF diskutiert worden wäre. Vielleicht verschafft dies Einigen, welche Fronten zwischen Stillstands-Unterstützern (Skeptiker) und den Stillstand Befürwortenden (Wissenschaftler) ziehen, eine Pause zum Nachdenken.

Was die Autoren nicht mit ihren drei Definitionen des Stillstands erwähnen, ist die einfache Tatsache, auf die wir schon oft hingewiesen haben. Man betrachte HadCRUT4 von 2001 (nach dem El Nino von 1999 – 2000) bis 2014 (vor Beginn des jüngsten El Nino), und man wird erkennen, dass der Temperaturverlauf flach ist. Außerhalb der El-Nino-Zeiten gab es keinerlei globale Erwärmung seit 2001, obwohl es während dieser Zeit mehrere El Nino- und La Nina-Ereignisse gegeben hatte. Das ist es, was ich einen Stillstand nenne.

Ich werde es dem Leser überlassen, einen Trend zu berechnen sowie den Fehler dieses Trends im gleichen Zeitraum mittels anderer globaler Datensätze der Temperatur. Die Dauer des Stillstands erstreckt sich inzwischen etwa über die Hälfte der nominalen 30-Jahre-Periode der Klimazustands-Abschätzung, und falls er sich während der nächsten paar Jahre erneut einstellt, könnte er zum dominanten Klimaereignis in jüngster Zeit werden. Der Stillstand endete nicht infolge einer graduellen globalen Erwärmung, sondern aufgrund eines natürlichen Wetterereignisses, dessen vorübergehende Rate der globalen Erwärmung viel zu groß war, um anthropogenen Ursprungs zu sein. Dies hinderte entsprechende Kreise jedoch nicht daran zu behaupten, dass wir in eine Periode der katastrophalen globalen Erwärmung eingetreten seien.

Man betrachte ihre Abbildung 1, welche Trends der globalen Temperatur-Datensätze zeigt. Man erkennt, dass etwa seit dem Jahr 2000 die Trends in allen Datensätzen abnehmende Trendraten zeigen. Erst der jüngste El Nino hat diesen Vorgang unterbrochen. Man beachte, dass alle Variationen in der Graphik den Autoren zufolge deutlich innerhalb der Grenzen der natürlichen Variation liegen. Dies zeigt, dass während der Zeit, die der Graph abdeckt, nichts Ungewöhnliches vor sich gegangen ist.

Man betrachte auch ihre Abbildungen 2b und 2c. Sie zeigen HadCRUT3 von 1980 bis 2008 und zeigen die jüngste Stillstands-Periode. Dann werden fünf globale Datensätze gezeigt von 1980 bis 2015, die zeigen, dass der Stillstand verschwunden ist. Da spielt es keine Rolle, dass der Grund für den Stopp des Stillstandes kein klimatischer ist, sondern dem kurzfristigen El Nino geschuldet ist.

Man betrachte auch ihre Abbildung 5, von der gesagt wird, Beobachtungen und Computer-Modelle zu verschmelzen, um zu zeigen, dass es keine Diskrepanz gibt. Wieder ist es aber nur der jüngste El Nino, der Modelle und Messungen in Übereinstimmung bringt. Ohne dieses kurzlebige Wetterereignis wären die Klimamodelle eindeutig zu warm.

All dies widerspricht dem Ziel der Studie, den Stillstand mit dem zu erklären, was über die Klima-Variabilität bekannt ist.

Es gibt auch einen Kommentar von Risbey and Lewandowsky zu der Studie, welche im Bereich ,Nachrichten und Standpunkte‘ bei ,Nature‘ veröffentlicht worden ist und der einfach nur absurd ist. Sie liegen falsch hinsichtlich ihrer Standpunkte zu Had CRUT4 und Flachverlaufs-Perioden, siehe oben. Sie weisen darauf hin, dass die Datensätze weiterhin signifikante Erwärmungstrends zeigen, wenn die Trendlänge über 16 Jahre hinausgeht. Dies ist ein offensichtlicher Punkt, wenn man den Anstieg der globalen Temperatur betrachtet, welcher in den Jahren vor dem El Nino 1998 erkennbar ist. Sie sollten auch noch einmal Abbildung 1 betrachten und im Gedächtnis behalten, was ich zu El Ninos sage.

Der Stillstand war für die Wissenschaft extrem wertvoll und erhellend. Vor einem Jahrzehnt, herrschte die Ansicht vor, dass das anthropogene Signal der globalen Erwärmung ausgeprägt war. Als jedoch die Temperaturen im Gegensatz zu den Modellsimulationen nicht um mehr als 0,3°C stiegen, wurden dafür Erklärungsversuche gemacht. Die natürliche dekadische Variabilität wurde herangezogen, um das Fehlen eines Temperaturanstiegs zu erklären, und es resultierte in einer graduellen Änderung der Standpunkte.

Jetzt wurde behauptet, dass das anthropogene Signal verschleiert worden ist durch die dekadische klimatische Variabilität, und es würde mehrere Jahrzehnte dauern, bevor es wieder hervortreten und noch darüber hinaus gehen werde. So jedenfalls behaupteten es Meehl et al. in Nature Climate Change. „Längerzeitliche extern angetriebene Trends der globalen mittleren Temperatur sind eingebettet in das Hintergrundrauschen der intern generierten multidekadischen Variabilität“.

Ob sich nun tatsächlich der Stillstand nach Ende des jüngsten El Nino und dessen Nachwehen wieder einstellen wird, bleibt abzuwarten. Seit seiner Entdeckung durch Skeptiker ist der Stillstand zu einem wesentlichen Streit- und Diskussionsobjekt in der Klimawissenschaft geworden. Trotz fortgesetzter Versuche, ihn insgesamt zu leugnen oder neue Gründe für dessen Existenz zu finden, weiß niemand wirklich etwas hinsichtlich der Ursachen oder ob er sich erneut einstellen wird.

Link: https://wattsupwiththat.com/2017/05/04/new-study-confirms-the-warming-pause-is-real-and-revealing/

Übersetzt von Chris Frey EIKE




Nun muss man nicht mehr nur die Dritte Welt für die Erwär­mung entschä­digen, sondern auch die heimischen Bauern wegen der gewünschten Kälte

Und was in der Aprilrückschau [1] mit: Die Konsequenz daraus liest sich wie eine mittelalterliche Unwetterbeschreibung zu Beginn eines Hungerjahres …
beschrieben wurde, ist nun auch bei unseren Behörden aufgeschlagen. Und man ist überrascht:

Das sehnlichst herbeigeflehte, vorindustrielle Wetter ist auf einmal eine Naturkatastrophe

Man mag es kaum glauben. Es sind noch einige Grad Kälte bis zum durch standhafte und teure CO2-Vermeidung zu erzwingenden, vorindustriellem, kalten „Idealklima“ zu „erarbeiten“ [1] – erst ein „wichtiger Zwischenschritt“, der Mittelwert der international gültigen Referenzperiode 1961 bis 1990 ist gerade erreicht – und auf einmal erklärt die GRÜNE Regierung von Baden-Württemberg diesen mühsam und extrem teuer erkämpften Beginn zur Idealtemperatur zur Naturkatastrophe!

Bayerisches Fernsehen: Bayerns Obstbauern fordern Staatshilfen
Erst sehr warm, dann eisig kalt – das schöne Wetter im März und die Frostnächte im April haben den Obstbäumen heftig zugesetzt. Von möglichen Millionenschäden ist die Rede. Bayerische Obstbauern hoffen jetzt auf staatliche Hilfe
Zwei Wochen sind die frostig kalten Nächte im April her. Und langsam wird das ganze Ausmaß deutlich. Bis zu minus sieben Grad hatte es in Veitshöchheim in Unterfranken – viel zu kalt für viele Blüten. Von möglichen Schäden im zweistelligen Millionenbereich spricht der Bayerische Bauernverband. Vor allem bei Kirschen und Zwetschgen sei mit Ernteeinbußen von bis zu 80 Prozent zu rechnen, so ein Sprecher.
Vorbild Stuttgart
Baden-Württemberg will den Bauern helfen. Das Kabinett in Stuttgart hat am Dienstag die Frostnächte im April zur Naturkatastrophe erklärt. Dies sei Bedingung, damit der Staat den Bauern überhaupt finanziell unter die Arme greifen dürfe, ohne dabei EU-Recht zu verletzen. Bayerische (Obst-)Bauern fordern das jetzt auch vom Freistaat.
„Die Schäden haben wir in Äpfeln, in Birnen, in Zwetschgen, in den Quitten, in Kirschen, in Aprikosen, Pfirsichen, teilweise auch in den Himbeeren, in den Jungruten, die jetzt gerade aufwachsen, eigentlich müssen wir sagen in den kompletten Obstkulturen.“
Alexander Zimmermann von der Bayerischen Landesanstalt für Wein- und Gartenbau.
Ähnlich die Situation am Bodensee:
Wenige Kilometer weiter – am Bodensee entlang – auf baden-württembergischer Seite gelten die Frostnächte im April schon als
Naturkatastrophe. So hat es die Landesregierung in Stuttgart beschlossen.

Gegen solche Naturkatastrophen ist man – wie so oft – nicht vorbereitet

Was in Baden-Württemberg sofort funktioniert, benötigt in Bayern noch etwas Zeit. Denn obwohl sich dort eine Umweltministerin befindet, welche an fachlicher (Un-)Kenntnis mit der des Bundes problemlos mithalten kann, scheint man vollkommen überrascht zu sein, dass die gewünschte, vorindustrielle Kälte schon damals Ernten unmöglich gemacht hat, sie zumindest drastisch verringerte. Und was macht man, wenn man historisches Wissen aus ideologischen Gründen – und in vielen Fällen wohl auch (zusätzlich) aus schlichter Dummheit – ignoriert hat und dann nicht mehr weiter weiß: Man gründet einen Arbeitskreis
[2] Mitteilung von Bayerns Landwirtschaftsminister Helmut Brunner, CSU:
… Um eine einheitliche Vorgehensweise sicherzustellen, werde ich mich mit den betroffenen Ländern wie Baden-Württemberg sowie dem Bund abstimmen.“ …

Doch es hat auch sein Gutes. Wenn es einmal so ganz langsam auch den dümmsten Politikern klar wird, was sie mit ihrer 100 % Zustimmung zum Klimavertrag für einen Unsinn unterstützt haben:
EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen,
ist zumindest für die dann beschäftigungslos werdende Gilde der Pseudo-Klimawissenschaftler eine neue Arbeit vorhanden:
[2] Alle Schäden zu erfassen, ist jetzt auch Aufgabe der Landesanstalt für Weinbau und Gartenbau in Veitshöchheim
Diese Arbeitsmaßnahme wird man wenn es zum geforderten, noch weit kälterem Klima kommen sollte, ausweiten müssen.

Dabei haben die Simulationen diese Kälte doch (fast) richtig vorhergesagt. Sie zeigen praktisch alle eine noch wesentlich schlimmere Kälte an (die Simulationswerte repräsentieren den berechneten Mittelwert und nicht die aktuelle Temperatur). Wurde dieses „Simulationswissen“ einfach vollkommen ignoriert, weil es die falsche Richtung anzeigte? Oder hat niemand der vielen „Fachpersonen“ Ahnung, was Kälte für die Landwirtschaft bedeutet, weil alle nur „gegen“ Wärme forschen?

Nach dem DWD-Bild würde die jetzige Aprilkälte (im Mittel) mindestens ungefähr bis zum Jahr 2050 andauern. Ob es danach stimmt und besser (nach der Klimaideologie allerdings wieder schlimmer) würde, wenn schon aktuell nichts stimmt, sei einmal dahingestellt. Jedenfalls müsste es sich lohnen, schnellstens nach Resistenzen gegen Kälte zu forschen.

Bild 1 DWD Klimaatlas Apriltemperatur (inzwischen mit dem Aprilwert 2017). Dieser liegt genau auf der grünen „Ideallinie“

 

Kälte schadet doch nicht

Als nächstes werden die Bürger anfangen zu lamentieren, wenn sie nicht mehr mit Öl oder Gas heizen dürfen und der gerade im Winter rare EEG-Strom nicht mehr zum einzig erlaubten Elektroheizen ausreicht. Die brauchen dann aber sicher nicht wie die Bauern, wegen einer Entschädigung anzuklopfen. Die Ideologie weiß ja, man stirbt nur wegen zu viel Hitze:
EIKE 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen
Zudem hält der (gesunde) Mensch wenn es sein muss, wirklich viel Kälte aus. In einer ARTE-Reportage kam jüngst, dass in Nepals buddhistischen Klöstern nicht geheizt wird – bei bis zu -30 °C im Winter.
Die von einer bevorzugten und in vielen Ämtern schon bewährten Berliner Führungskraft „geforderten“ 18 °C sind dagegen immer noch der reine Luxus und ein wirklich generöses Zugeständnis an das Volk:
WELT N24, 23.12.2012: Peter Altmaier „Bei mir zu Hause ist es nicht wärmer als 18 Grad“
Das notwendige – bei der politischen Führungskraft erkennbar bewährte – Wärmepolster auf den Rippen lässt sich mit Fast-Food auch für Harz-4 Empfänger realisieren.

Quellen

[1] EIKE 04.05.2017: Es darf ruhig noch kälter und schlimmer werden – der April war immer noch zu warm

[2] Bayerisches Fernsehen: Bayerns Obstbauern fordern Staatshilfen




Die Eisheiligen werden immer kälter, Vorschau auf 2017

So behauptete DWD-Vorstand Friedrich noch all die Jahre davor, dass

1) Die Eisheiligen in jüngster Zeit immer wärmer würden, sie seien bald zu Heißheiligen geworden, was die Presse dann gern zum Anlass nahm, um gleich von Schweißheiligen zu reden und

2) Überhaupt seien die Eisheiligen wegen der Klimaerwärmung bald gänzlich verschwunden.

Um diese Aussagen zu unterstreichen, wird meist auf das umfangreiche Archiv des Deutschen Wetterdienstes verwiesen. Das erweckt natürlich bei unseren unkritischen Medien Eindruck. Aber niemals wird irgendeine Temperaturgrafik gezeigt und schon gar nicht die Aussagen überprüft.

Wir wollen das im Voraus tun, damit der Leser weiß, worum es gehen wird ab dem 11.Mai und was wahr und falsch ist.

Wir wählen zur Betrachtung möglichst wärmeinselarme Stationen, also nicht Frankfurt-Land, denn die Station steht bekanntermaßen an den Landebahnen des Großflughafens im Strahle der 600 C heißen Abgase. In den Heizräumen unserer Häuser ist am Thermometer bekanntermaßen auch kein Eisheiliger feststellbar.

Die ersten beiden Grafiken beginnen 1985 und wir lassen Platz für den 2017er-Wert, damit der Leser die neuen Werte einordnen kann.

Grafik 1: Die fünf Eisheiligentage in Potsdam wurden seit 1985 eindeutig kälter. Das ist genau das Gegenteil dessen, was als Ankündigung der Eisheiligen in den Medien steht.

Die zweite Grafik kommt aus Dresden Klotzsche, genauso wie Potsdam eine offizielle Messstation des Deutschen Wetterdienstes. Herr Samuel Hochauf hat neben dem Temperaturmittel der fünf Tage in Blau auch noch die Maximaltemperaturen, die Minimumtemperaturen und auch die Minimumtemperaturen in Bodennähe (5cm) seit 1985 dargestellt bis 2015. Der fünf Tagesmittel der Eisheiligen für 2016 betrugen 12,88C, genau auf der Fortsetzung der blauen Linie. Die Grafik scheint zunächst etwas unübersichtlich, dem ungeübtem Betrachtet sei empfohlen, zunächst mit der blauen Betrachtung zu beginnen, das sind die üblichen Durchschnittstemperaturen der Eisheiligen seit 1985

Grafik 2: DWD-Station Dresden Klotzsche. Man betrachte zunächst Blau: In Blau sind die fünf Eisheiligentagesmittel dargestellt. In Braun die Tages-Maximaltemperaturen, in Grau die Minimaltemperaturen und in Gelb die Minimumtemperaturen in 5 cm-Bodennähe.

Auswertung: Die Minimumtemperaturen (gelb) in Bodennähe sind die kältesten und die Maximumtemperaturen (braun) die wärmsten. Wichtiger ist der Blick auf die Trendlinien: Die Trendlinien sind sich sehr ähnlich, sie sind nur parallel verschoben. Im Gegensatz zu manchen Vermutungen scheint es unwesentlich zu sein, welche Temperatur der Eisheiligen dargestellt werden. Alle vier Trendlinien zeigen, dass die Eisheiligen seit 1985 kälter und nicht wärmer wurden. Alle vier Trendlinien zeigen, dass die Aussagen der DWD-Führungsriege falsch sind. Die Eisheiligen werden kälter in Deutschland.

Und schließlich Goldbach bei Bischofswerda, die Klimastation gibt es erst seit 1996, aber auch dort werden die Eisheiligen kälter. Die ungenauen Angaben der DWD-Vorstände mit „in jüngster Zeit“ oder „in der „Gegenwart“, könnte man vielleicht die letzten 20 Jahre meinen. Aber auch in jüngster Zeit ist das Ergebnis eindeutig, die Eisheiligen werden kälter. Je kürzer der Betrachtungszeitraum, desto fallender die Trendlinien. Fallende Temperaturtrendlinien sind das genaue Gegenteil von Erwärmung. Und damit können die Eisheiligen in jüngster Zeit auch nicht zu Heißheiligen geworden sein. Wir bitten die Leser, bei entsprechenden Falschmeldungen sofort bei ihren Tageszeitungen aktiv zu werden.

Grafik 3: Auch in dem kleinen Ort Goldbach werden die Eisheiligen in der Gegenwart kälter. Man darf gespannt sein, wo sich 2017 einordnet.

Dieses Jahr erwarten wir von DWD Vorstand Friedrich vor dem 11. Mai folgende Eisheiligen-Pressemitteilungen: „ Der Monat Mai wird kälter, aber die Eisheiligen werden noch kälter.“ Und als Ergänzung: Die Eisheiligen werden bald wieder so kalt sein wie um die Jahrhundertmitte als die damaligen Klimaforscher eine neue Eiszeit befürchteten. Das war vor 60 Jahren.

Was könnten die Gründe sein für das Kälter werden der Eisheiligen seit über 20 Jahren?

Wir wissen, dass unter anderem die Sonnenaktivität die Häufigkeitsverhältnisse der Großwetterlagen (GWL) beeinflusst; auch die AMO könnte hierbei eine Rolle spielen. Die seit 2 Jahrzehnten nachlassende Sonnenaktivität mit der (noch) bestehenden AMO- Warmphase scheint zu Witterungsextremen neigende Meridionallagen, welche im Frühling ohnehin besonders häufig auftreten, zu begünstigen, während die ausgleichend wirkenden Zonallagen (Westwetterlagen) seltener werden. Im „Horror- Frühling“ 2017 mussten wir das schon reichlich erleben – erst die angenehme Wärme bei Südwetter Ende März/Anfang April; dann die Nordlagen mit Horrorkälte, Schnee und schweren Spätfrostschäden ab Mitte April. Bei einer typischen „Eisheiligen-Lage“ befindet sich ein Hochdruckgebiet über den Britischen Inseln, der Nordsee und/oder dem Nordmeer; manchmal dehnt es sich bis nach Skandinavien aus. Zwischen ihm und tieferem Luftdruck über Ost- und Südeuropa fließt dann arktische Luft nach Deutschland, die bei nächtlichem Aufklaren oft noch Fröste verursacht. Auch 2017 besteht diese Gefahr; zum Zeitpunkt der Fertigstellung dieses Beitrages am 3.Mai war die Sicherheit der Mittelfrist-Prognosen aber noch ungenügend. Eine typische Eisheiligen-Lage erlebten wir 2016:

Abbildung 1: Nordlage am 14. Mai 2016. Tagsüber wurden kaum mehr als 10 bis 13 Grad erreicht; in den Mittelgebirgen gab es Schnee- und im Flachland Graupelschauer. Größere Frostschäden blieben aber aus, weil die Luftmasse (Arktische Meeresluft) relativ wolkenreich und der Wind stark war, so dass die nächtliche Abkühlung moderat ausfiel.

In dem hier gewählten kurzen Untersuchungszeitraum ab 1985, welcher wegen der starken Streuung der Häufigkeiten der Großwetterlagen keine signifikanten Aussagen zulässt, nahm die Häufigkeit der Nordlagen im Mai leicht zu, was eine höhere Wahrscheinlichkeit für deren Auftreten auch im Mai bedeutet:

Grafik 4: Seit 1985 nahm die Häufigkeit der Nordwetterlagen (hier die Objektive Wetterlagenklassifikation des DWD) im Mai leicht (nicht signifikant) zu. Im ungemütlichen Mai 1991 herrschte an 20 Tagen „Nordwetter“, was „Dauer- Eisheilige“ zur Folge hatte; es musste den ganzen Monat hindurch geheizt werden.

Für längerfristige Betrachtungen stehen seit 1881 nur die GWL nach HESS/BREZOWSKY zur Verfügung:

Grafik 5: Die Häufigkeit des „Nordwetters“ im Mai schwankte enorm; doch auch bei dieser langfristigen Betrachtung erkennt man eine Häufigkeitszunahme ab etwa 2010, was auch die Wahrscheinlichkeit für „Eisheiligen- Ereignisse“ wieder erhöht; ob diese unerfreuliche Entwicklung anhält, muss aber noch abgewartet werden.

Und am Ende zeigt sich: Die stetig steigende CO2- Konzentration vermag unser Klima auch im Mai nicht zu erwärmen und kann die Plage der „Eisheiligen“, den Horror aller Gärtner und Landwirte, nicht verhindern.

Fazit: Kaltluftvorstöße im Mai, welche bevorzugt (aber nicht immer) um die Eisheiligen auftreten, werden immer kälter.
Josef Kowatsch, unabhängiger, weil unbezahlter Natur- und Klimaforscher

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Offensicht­licher Bias in den Medien bzgl. Klima

Das Ereignis war die Anhörung vor dem Wissenschaftskomitee des Weißen Hauses vom 29.März unter dem Motto: „Klimawissenschaft: Hypothesen, politische Implikationen und wissenschaftliche Verfahren“. Das Unterfangen ist das ausgreifende Projekt des Heartland Institutes für Lehrer der Naturwissenschaften im ganzen Land. Dabei versendet Heartland Ausgaben der Broschüre „Warum Wissenschaftler hinsichtlich globaler Erwärmung uneinig sind“, verfasst von drei angesehenen Klimawissenschaftlern, an über 200.000 Lehrer der Naturwissenschaften an Middle und High Schools.

Man verstehe mich nicht falsch. Ich bin keineswegs überrascht, dass all jene erklärtermaßen links gerichteten Verteidigungs-Publikationen wie die Huffington Post – „Kongressabgeordneter der Republikaner macht das Wissenschaftskomitee zu einer Plattform für seine eigenen wissenschaftlichen Ansichten“ (März 2017) – und Mother Jones – „Ein Wissenschaftler brachte 2 geschlagene Stunden damit zu, mit den größten Leugnern der globalen Erwärmung im Kongress zu diskutieren“ (29.März 2017) – ihre Berichterstattung gegen Klimarealismus verzerren.

Aber wenn so genannte Bastionen eines an Fakten ausgerichteten und ausgeglichenen Qualitätsjournalismus‘ wie die Washington Post und Scientific American [und man kann ganz sicher auch die Süddeutsche Zeitung dazu zählen, Anm. d. Übers.] mit den Fakten Schindluder treiben, bin ich aus irgendwelchen Gründen enttäuscht, und mein Zorn kocht hoch – selbst wenn ich weiß, dass diese Organe das schon seit Jahren machen.

Ich möchte nur ein Beispiel anführen für die Art vermeintlicher „Berichterstattung“, welches meinen Ärger hochkochen ließ. Die Washington Post zitiert aus einem Report in Frontline im PBS [= Public Broadcasting System {Öffentliche Rundfunksender}], in welchem es sowohl um die Bildungsanstrengungen von Heartland als auch um die Anhörung im Weißen Haus ging. Frontline hat Heartland den Gefallen getan und Lennie Jarrett zitiert, den Projektmanager des Center for Transforming Education bei Heartland. Frontline schrieb: „Er fordert die Lehrer auf, die ,Möglichkeit in Betracht zu ziehen‘, dass die Wissenschaft nicht settled ist. ,Falls das der Fall ist, wäre den Studenten besser gedient, wenn man sie wissen lässt, dass unter den Wissenschaftlern derzeit eine lebhafte Debatte im Gange ist’“.

Klingt vernünftig, oder? Schließlich ist der Austausch von Gedanken bzgl. überprüfbarer Hypothesen, Daten und Methoden der Datenerfassung zentraler Bestandteil der wissenschaftlichen Methode, nicht wahr? Die Reaktion der Post war, die Bildungsoffensive eine „Propaganda-Kampagne“ zu nennen.

Weiter unten in der Story beschreibt die Post die Zeugen bei der Anhörung folgerichtig so: „Das Komitee hat drei Personen geladen, welche die mit überwältigender Mehrheit akzeptierte Wissenschaft vom Klimawandel zurückweisen, sowie einen aktiven Klimaforscher“. Diese Darstellung ist gröblichst irreführend.

Erstens, jede dieser vom Komitee gehörten Personen ist – oder war bis vor Kurzem wie im Falle Roger Pielke – ein aktiver Klimaforscher. (Pielke hat sich aufgrund politischen Drucks im Jahre 2015 aus der Klimaforschung zurückgezogen). Jeder Einzelne hat hunderte begutachteter Artikel mit Bezug zu Klima veröffentlicht und an der Arbeit des IPCC oder der NASA oder des NCAR teilgehabt. Mit anderen Worten, alle Aussagenden befanden sich im Zentrum von Mainstream-Klimaforschungs-Institutionen.

Außerdem glauben sie alle an den Klimawandel – wer tut das nicht? Sie „weisen nicht die mit überwältigender Mehrheit akzeptierte Wissenschaft vom Klimawandel zurück“ – sondern sie weisen zurück, dass eine solche überwältigend akzeptierte Wissenschaft überhaupt besteht. Ihre Forschungen sowie die Forschungen tausender anderer Wissenschaftler auf der ganzen Welt zeigen, dass die Wissenschaft eben nicht settled ist. Vielmehr gibt es eine aktive, lebendige Debatte über das Ausmaß des menschlichen Einflusses auf das Klima und die möglichen Auswirkungen des Klimawandels auf die menschliche Gesellschaft und die Umwelt.

Der Aufstieg von Donald Trump und das Aufkommen alternativer Medienportale haben einen fast tödlichen Würgegriff der radikalen Linken nebst ihren Alliierten in den Medien auf das Klima-Narrativ durchbrochen. Diese Linken werden rot vor Wut, schnappen nach Luft und finden keine Atempause. Sie haben einfach keine Ahnung, was sie machen sollen, außer mit ihren Füßen zu stampfen und all jene, die ihnen nicht folgen, mit Ausdrücken wie „Leugner“, „Scharlatane“ und „bezahlte Schergen“ zu belegen.

H. Sterling Burnett

Quellen: Mother Jones ; EOS ; Washington Post und Judith Curry

Übersetzt von Chris Frey EIKE




Zahlen lügen nicht: Deutsch­lands Energie­wende hatte Null Auswir­kungen auf Emissionen – bestenfalls

Man hört regelmäßig Kommentare des Inhalts, dass die USA dasjenige Land sind, welches am meisten von Klima-Kontrarians betroffen ist und dass diese Debatte in anderen Teilen der Welt (vor allem in Europa) gar nicht existiert. Dort herrscht Konsens hinsichtlich der Notwendigkeit zu handeln, usw. Ein deutscher Staatsbürger dazu:

Unter den 97% der Wissenschaftler, die bzgl. der Grundlagen übereinstimmen, sind viele konservative Wissenschaftler. Dass es da ein Problem gibt, ist keine parteiische Angelegenheit. Wie man es löst, ist Sache der Politik. Das Pariser Klima-Abkommen wurde von fast 200 Ländern unterzeichnet und folglich von vielen konservativen Regierungen. Sie akzeptieren, dass Klimawandel ein reales Problem ist. Europäische konservative Parteien mögen weniger aktiv sein, leugnen aber nicht, dass es ein Problem gibt. In Europa leugnen nur ,Trumpische‘ rassistische Parteien dieses Problem. Dass die Klima-„Debatte“ zumeist ein amerikanisches Problem ist zeigt, dass es bei dem Problem nicht um konservativ vs. liberal geht, dass es nicht um das Fehlen wissenschaftlicher Beweise geht und dass es kein Problem der Kommunikation von Wissenschaft ist. Das Problem ist der korrumpierende Einfluss des Geldes in der US-Politik und den US-Medien.

Ich nehme ihn beim Wort.

Deutschland ist das Land mit dem stärksten Konsens um die Notwendigkeit, ,etwas‘ zu tun bzgl. Klimawandel. Keine andere Nation hat einen Plan eingesetzt, der so ambitioniert ist wie die Energiewende [hoch interessant, was Wikipedia Englisch zum deutschen Terminus ,Energiewende‘ schreibt. Anm. d. Übers.] Das Programm begann im Jahre 2000 und setzte eine Objektive bis zum Jahr 2050 – obwohl bizarrerweise, wie es üblich ist bei diesen ,Programmen‘ und ,Roadmaps‘, die Objektive in Gestalt absoluter Treibhausgas-Emissionen angegeben wird anstatt in Emissions-Intensität der Wirtschaft. Das Problem ist einfach zu erfassen:

a) Falls Emissionen im Jahre 2050 höher sind als geplant, werden Befürworter behaupten, dass es dazu kam, weil das ökonomische Wachstum stärker als erwartet war. Mit anderen Worten: Befürworter könnten behaupten, Klimapolitik sei erfolgreich gewesen, weil die Emissionen geringer waren als ohne ein solches Programm. Natürlich haben Befürworter von Emissionskürzungen nie klargestellt, wie viel ökonomisches Wachstum sie überhaupt erwarten, so dass diese Behauptung in keinem Falle falsifizierbar ist.

b) Falls die Emissionen bis 2050 gleich oder geringer sind als im Plan vorgesehen, werden deren Befürworter das Programm als erfolgreich darstellen – obwohl die Abnahme der Emissionen in Wirklichkeit ökonomischen Krisen und/oder einem Rückgang der Bevölkerung geschuldet sein kann.

Ich möchte nicht wiederholend klingen, aber die einzige sinnvolle Maßzahl ist die Emissions-Intensität des BIP und hier im Einzelnen, wie stark diese Intensität pro Jahr abnimmt. In diesem Beitrag werde ich eine positive Zahl zeigen, d. h. wie viel mehr BIP-Dollars pro Tonne CO2-Emissionen wir bekommen durch Verbrennung, sind doch Emissionen von Methan, Ozon, N20 und CO2 durch Landverbrauch höchst unsicher.

Wie auch immer, kommen wir zurück zur Energiewende. Wir sind jetzt zu einem Drittel mit dem Programm durch. Falls er also irgendwelche Auswirkungen haben sollte, müssten wir jetzt sehen, dass…:

a)…die Rate der Dekarbonisierung in Deutschland höher ist als im Zeitraum zuvor.

b)…die Rate höher ist als in anderen Ländern, welche sich vermutlich nicht so sehr um Klima-Maßnahmen kümmern. Im Vergleich zu den USA könnte dieser Unterschied erheblich sein.

Die folgende Graphik zeigt die Dekarbonisierung in den USA seit 1966, liegen doch Emissionsdaten erst seit 1965 vor. Wir können Gleiches für Deutschland seit dem Jahr 1971 sehen mit Beginn von Datenreihen des BIP des Landes – zumindest auf der Website der Weltbank:

Hoppla: Die Rate der Abnahme in Deutschland ist nicht nur die Gleiche wie in den USA, sondern liegt niedriger als vorher!

Genauer: das Mittel der Jahre 2000 bis 2015 beträgt für Deutschland 2,06% und für die USA 2,26%. Von 1971 bis 1999 liegt das Mittel in Deutschland bei 3,13%. Aber diese Zahlen werden aufgebläht durch sehr starke Zunahme während der Jahre 1989 bis 1992, als in der ehemals kommunistische Ökonomie Ostdeutschlands die meisten CO2-intensiven Betriebe außer Betrieb gingen (was kaum Auswirkungen auf das BIP hatte). Lässt man diese vier Jahre außen vor, liegt das Vor-Energiewende-Mittel von Deutschland immer noch bei 2,58% oder ein wenig höher als im Jahre 2000 – obwohl man erwähnen muss, dass den Zahlen der siebziger Jahre durch hohe Ölpreise ,nachgeholfen‘ worden ist.

Ich denke, das Beste, was man sagen kann ist, dass die Dekarbonisierungs-Rate von Deutschland etwa die Gleiche ist wie zuvor.

Um es ganz klar zu sagen: eine höhere Rate der Dekarbonisierung ist das Minimum, was man von einer Klimapolitik erwarten muss. Sie ist notwendig, aber nicht ausreichend, weil es jener Politik immer noch möglich ist, so viel zu kosten, wie es die Reduktion von Emissionen nicht wert ist. Man sollte nicht automatisch eine höhere Dekarbonisierungsrate für besser halten als eine niedrigere. Mit anderen Worten, man muss die Kosteneffektivität berücksichtigen – wie es mit allen Dingen der Fall ist, für die wir Geld ausgeben.

In Deutschland gibt es keinen Grund, über die Kosteneffektivität der Klimapolitik zu debattieren, weil deren Effektivität im besten Falle Null ist.

Befürworter von Emissionskürzungen folgen ihren eigenen Ansichten und nicht ihren eigenen Fakten. Falls jemand geltend machen will, dass Klimapolitik tatsächlich erfolgreich war, ob nun in Deutschland oder weltweit, muss Fehler in den Zahlen finden, welche die Weltbank und BP verbreiten. Falls die Daten bzgl. Verbrennung fossiler Treibstoffe signifikant falsch wären, wäre das eine dicke Schlagzeile. Falls die Daten des deutschen BIP-Wachstums (oder das der Welt) signifikant falsch wären, wäre das eine gewaltige Nachricht.

Folglich ist es sehr einfach zu beweisen, dass die Klimapolitik erfolgreich war: man weise die Zahlen als falsch nach.

Man könnte einen Nobelpreis gewinnen.

Link: https://wattsupwiththat.com/2017/05/02/numbers-dont-lie-germanys-energiewende-has-had-zero-impact-on-emissions-at-best/

Übersetzt von Chris Frey EIKE




Rundbrief der GWPF von Ende April – Energie

Eingeschaltet: der neueste Tokamak Fusions-Reaktor in UK

Die in Oxfordshire ansässige Firma Tokamak Energy hat zum ersten Mal ihren jüngsten Fusionsreaktor angeschaltet und will erreichen, dass er im nächsten Jahr 100 Millionen Grad Celsius erreicht. Bekannt unter der Bezeichnung ST40 repräsentiert der Reaktor den dritten von fünf Schritten auf dem Plan des Unternehmens, bis zum Jahr 2030 die erste Fusionsenergie in das Netz zu speisen.

Kontrollierte Fusion erfordert Temperaturen über 100 Millionen Grad Celsius, aber ein privat finanziertes Unternehmen hat dieses Ziel noch nie erreicht. Um diesmal erfolgreich zu sein konzentriert man sich bei Tokamak Energy auf kompakte, sphärische Tokamak-Reaktoren, glaubt man doch, dass diese schneller zu entwickeln sind und den schnellsten Weg zu kommerzieller Fusionsenergie bieten. The Engineer, 28. April 2017

Der erste kommerzielle Fusionsreaktor nimmt erste Hürden zur Energieerzeugung

Der neueste Fusionsreaktor ist eingeschaltet worden und hat UK einen Schritt weiter gebracht zur Stromerzeugung mit der Energie der Sterne. Man erwartet, dass das Kernstück des Tokamak ST40-Reaktors – eine superheiße Wolke elektrisch geladenen Gases oder Plasma – bis zum Jahr 2018 eine Temperatur von 100 Millionen Grad Celsius erreicht. Der neue Reaktor wurde in Milton Park in Oxfordshire von der Firma Tokamak Energy gebaut, einem privaten Unternehmen, welches Pionierarbeit leistet zur Entwicklung von Fusionsenergie in UK und der Welt. Wir enthüllen die erste Weltklasse-Anlage zur kontrollierten Fusion, gebaut und betrieben von einem privaten Unternehmen. Die ST40 ist eine Maschine, welche zeigen wird, dass Fusionstemperaturen – 100 Millionen Grad – in kompakten, kosteneffektiven Reaktoren erreicht werden können. Dies wird es gestatten, Fusionsenergie in Jahren und nicht Jahrzehnten zu bekommen. Energy Voice, 28. April 2017

Wir alle sind Opfer des Großen Grünen Schwindels

Unsere Besessenheit, Kohlenstoff-Emissionen zu reduzieren, hat schreckliche Konsequenzen gezeitigt. Unsere Versuche, altruistisch zu sein, haben den Verwundbarsten viel eher Schaden zugefügt als ihnen zu helfen. Fast genauso schlimm ist, dass jene 11 Millionen Menschen, die derzeit ein Dieselfahrzeug fahren, bestraft werden, weil sie vor einem Jahrzehnt dem Ratschlag der Regierung gefolgt waren, dass Dieselfahrzeuge helfen würden, die CO2-Emissionen des Landes zu reduzieren. Es sind die Autohersteller, die nach wie vor höchste Profite durch diesen großen grünen Schwindel einstreichen – die Verbraucher sind es mit Sicherheit nicht. Politische Berater in Downing Street weisen darauf hin, dass Theresa May auf der Seite der Verbraucher steht und skeptisch ist hinsichtlich der jüngsten, überaus einträglichen Umweltmarotte. Im vorigen Jahr hat der Stabschef der Premierministerin den Climate Change Act, welcher die Wurzel eines großen Teils dieser fehlgeleiteten Politik war, ein „monströses Gesetz nationaler Selbstbeschädigung“ genannt. Er hatte recht. Sobald die Wahl vorüber ist, braucht UK eine koordinierte Energie-Strategie und einen neuen Clean Air Act, um die Umwelt zu schützen und das Vertrauen in die Politik der Regierung wiederherzustellen. – Alice Thomson, The Times, 26. April 2017

Energiepolitik während der ersten 100 Tage von Präsident Trump

Der 29. April markiert das Ende der ersten 100 Tage von Donald Trump als Präsident. Er viele bedeutende Maßnahmen im Bereich Energie- und Klimapolitik ergriffen und scheint auf diesem Weg weiterzugehen. Was aber natürlich wirklich zählt ist, was er während der nächsten zwei bis vier Jahre erreicht und wie viel seiner Energie-Agenda danach noch in kraft ist. Journalisten und und Kritiker fahren fort, Präsidenten bzgl. ihrer ersten 100 Tage zu vergleichen, teils wegen des Einflusses von Pro-New-Deal-Historikern [?], welche jene Metrik popularisieren, um sicherzustellen, dass frühe legislative Leistungen immer als sehr eindrucksvoll erscheinen. Damit hat sich Präsident Trump selbst als ein großer Erfolgstyp bzgl. Politik erwiesen, welcher seinen wirtschaftlichen Erfolgen in nichts nachsteht. – Marlo Lewis Jr, Competitive Enterprise Institute, 25. April 2017

Der Preis von Europas grüner Narretei: Gazprom weidet sich an seiner Dominanz in Europa

Den neuesten Nachrichten zufolge sicherte die Nord Stream-Pipeline 2 von Gazprom 50% seiner Finanzierung durch Darlehen/Kredite [loans] von fünf europäischen Unternehmen. Der Generaldirektor des in Staatsbesitz befindlichen Unternehmens verhehlte seine Freude nicht. „Heute brechen wir unseren Rekord aus dem Jahr 2016 um 10 Prozent. Daher können wir in diesem Jahr neue Rekorde erwarten, und der Marktanteil von Gazprom in Europa sieht einem weiteren Anstieg entgegen“, sagte Alexej Miller in einem Interview mit Reuters. Miller hat da nicht ganz unrecht. Egal wie stark Europa dafür agitiert hat, von russischem Gas unabhängig zu werden, hat der Kontinent in Wirklichkeit seine Abhängigkeit von Gazprom seit der Annexion der Krim erhöht. Gazprom hält die Trumpfkarte in dieser Beziehung, hat es doch seine Fähigkeit und seinen Willen gezeigt, seine Versorgung im Mittwinter einzustellen, um seinem Ärger über seine Verbraucher Ausdruck zu verleihen. The American Interest, 27. April 2017

Übersetzt von Chris Frey EIKE




Elektroautos und Microsoft, der Beginn einer Erfolgs­geschichte

Beschreibung der SZ zum BMW i3 Vorgängertyp: … diesem Akku gingen nämlich oft schon knapp jenseits der 100-Kilometer-Marke die Reserven aus. Bei winterlicher Kälte sogar deutlich früher

Doch nun ist alles besser geworden. Der Neue kann inzwischen alles (was man laut der SZ braucht), zumindest sei die Reichweitenanzeige (endlich) verlässlich. Zum Laden benötigt er daheim 9:30 Stunden, an einer öffentlichen Leistungstankstelle 2:45 Stunden und an einer der ganz wenigen Super-Schnelladesäulen 40 Minuten – wobei sich das Letzte ein stolzer Besitzer gut überlegen wird, denn darunter leidet die Batterie-Lebensdauer – und ganz voll wird sie dabei vorsichtshalber auch nicht.

Die Gefahr, dass die in Deutschland seitens unserer Regierung geplanten, eine Millionen Elektroautos liegengeblieben die Standstreifen der Autobahnen oder die Parkflächen der Rastanlagen beim Warten auf Stromzugang belegen, braucht man sich nicht zu machen, denn die Empfehlung lautet: … auf Autobahnen ist der i 3 aber deplatziert. Hohe Geschwindigkeiten strapazieren die Batterie einfach viel zu stark ...
Allerdings darf man auf der Autobahn auch langsam fahren, sofern es einen triftigen Grund dafür gibt. Und „Reichweitenangst“ (siehe EIKE: Reichweitenangst, die neue Volkskrankheit) werden alle Psychologen dazu erklären, womit die Gefahr der Fahrspurbelegung durch in „Traktorengeschwindigkeit“ dahin schleichender Elektroautos nicht ganz gebannt ist und die bald bei uns „fehlenden“ Holländer [1] auf den Autobahnen doch noch pünktlich genug „ersetzen“ kann:
Auto Zeitung: Autobahn-Mindestgeschwindigkeit: Wie langsam ist erlaubt?
Es ist ein weit verbreiteter Irrtum, dass auf Autobahnen eine festgelegte Mindestgeschwindigkeit herrscht. Die Straßenverkehrsordnung schreibt lediglich vor, dass Autobahnen nur von Fahrzeugen benutzt werden dürfen, die baulich in der Lage sind, schneller als 60 km/h zu fahren.
Das bedeutet jedoch nicht, dass man auch mit einem schnelleren Fahrzeug beliebig vor sich hinschleichen darf. Wer nämlich ohne triftigen Grund langsam fährt und dadurch andere Verkehrsteilnehmer behindert, verstößt gegen die Straßenverkehrsordnung.

Eine Zukunftsvision (des Autors) vermutet deshalb, dass mobile (Diesel-betriebene?) Ladestationen bald die omnipräsenten DIXI-Klos im Straßenbild ablösen könnten.

Doch zum eigentlichen Thema
Ältere werden sich noch erinnern, wie man zu Beginn der Microsoft-Zeit mit DOS-Betriebssystem immer sehnsüchtig auf ein neues Update wartete, da immer noch (zu) viele Funktionen fehlten. Elektroautos wiederholen gerade diese einzigartige Erfolgsgeschichte:
SZ: „ … Vernünftiger ist es aber, bis 2018 zu warten. Denn dann, so heißt es jedenfalls, soll ein weiteres Batterie-Update eine Norm-Reichweite von bis zu 450 Kilometern ermöglichen.
Und so, wie man sich damals teils mit Fremdprogrammen zwischenzeitlich behelfen musste, ist es auch beim Elektroauto:
SZ: „Wer seine Sorgen dennoch nicht los wird, ergänzt den i 3 mit einem Range Extender, einem Benzinmotor, der die Batterie auflädt. Dann kostet der BMW allerdings ... „

Man versteht auf einmal, warum Vorstände wie der Daimler-Chef den (zwangs-)Umbruch so enthusiastisch begrüßen:
EIKE: Freunde, wollen wir trinken, auf die schöne kurze Zeit … und auch die Autobauer wollen die Transformation in die CO2-freie Zukunft
Diese Gelegenheit, nicht ausreichende Eigenschaften verkaufen zu dürfen und Kunden dazu zu bringen, ihr Produkt, bevor es regulär unbrauchbar wird, laufend zu erneuern, dies aber als Innovation zu preisen, bot sich bisher nur in der Softwarebranche. Nur da (wenn die SW ein eigenes Produkt ist) sind Mängel nicht nachbesserungspflichtig – sonst wäre Bill Gates schon nach den ersten Wochenenden seiner DOS-Garagenbastelei pleite gewesen.
Jedenfalls ist dank Elektroautos endlich das Autobauer-Paradies in Reichweite: Das Auto-Ende lässt sich vom Hersteller über Updates der Batteriesätze steuern.
Als Lösung wird unserer Regierung aber etwas einfallen: Es könnte zum Beispiel sein, dass Elektroautos als Sperrmüll entsorgt werden dürfen.

Und abwarten, der Softwareanteil im Auto wird auch immer höher – das Spiel mit dem Updatezwang und nicht mehr möglicher Hochrüstung kann sich dann nochmals wiederholen.

Quellen

[1] FOCUS: Ab 2025 nur noch Elektroautos Niederlande wollen Verkauf von Diesel- und Benzinautos verbieten

[2] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit




Es darf ruhig noch kälter und schlimmer werden – der April war immer noch zu warm

DWD Pressemitteilung: Deutschlandwetter im April 2017
Anfangs für die Jahreszeit zu warm, dann verbreitet Spätfröste
… Die Durchschnittstemperatur im April 2017 entsprach mit 7,5 Grad Celsius (°C) fast genau dem Soll der international gültigen Referenzperiode 1961 bis 1990 von 7,4 °C. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad …

Die Konsequenz daraus liest sich wie eine mittelalterliche Unwetterbeschreibung zu Beginn eines Hungerjahres:
DWD Pressemitteilung:
Niedersachsen und Bremen: Hagel verwandelte dabei die Stadt Wunstorf und ihre Umgebung vorübergehend in eine weiße Landschaft.
Sachsen: Gebietsweise große Schäden verursachten Spätfröste in der Nacht zum 20. April in der Landwirtschaft, vor allem an Weinreben und Obstbaumblüten.
Hessen: In der Nacht zum 20. entstanden an Weinreben und Obstbaumblüten erhebliche Frostschäden.
Rheinland-Pfalz: Spätfröste bis -6 °C führten in der Nacht zum 20. zu erheblichen Frostschäden an Weinreben und Obstbaumblüten.
Saarland: Spätfröste bis zu -7 °C führten am 20. zu Frostschäden an Weinreben. Ungewöhnlich: Die Station Perl-Nennig verzeichnete insgesamt 21 Frosttage im April.
Baden-Württemberg: Große Schäden richteten Spätfröste in den Nächten zum 20. und 21. an Weinreben und Obstbaumblüten an. Im Südschwarzwald, so in Singen und Buchenbach, gab es örtlich neue Rekorde bei den April-Tiefstwerten.
Bayern: Spätfröste verursachten in den Nächten zum 20. und zum 21. Schäden am Frankenwein und an Obstbaumblüten.

Andere Meldungen:
Topagrar.com, 22.04.2017: Frostschäden: Ausfallrate bei Weinreben zwischen 10 und 95 Prozent
MDR JUMP 21.04.2017: Obstbauern und Winzer bangen um die Ernte
proplanta: Österreich: Enorme Frostschäden im Obstbau
Klagenfurt – Heftiger Schneefall hat einen «Jahrhundertschaden» für Österreichs Landwirte ausgelöst. Auf rund 100 Millionen Euro schätzte allein das Agrarministerium der Steiermark den Schaden in den Obstplantagen durch Schnee und Frost.

Zum Glück sind Bauern in Deutschland ziemlich überflüssig geworden, außer sie produzieren vorwiegend Mais zur EEG-Biogasanlagen-Fütterung, der nicht so sensibel auf das geforderte, kalte Wetter reagiert. Und die Biobauern, denen ein solches Wetter noch weit schlimmer zusetzt, „ernähren“ sich sowieso vorwiegen über Subventionen [3], deshalb stört es diese (dass unsere Regierung ihnen noch mehr Kälte vorschreibt) wohl nicht so sehr.

Und so darf man konsequent und mit viel, viel Geld weiter daran „arbeiten“, auf dass es noch etwas kälter würde, denn wie Bild 1 zeigt, sind zur Erreichung der „glücklichen“-vorindustriellen Temperaturen noch einige Grad Celsius Luft nach unten.

Bild 1 DWD Märztemperaturen seit 1750. Linke Skala Temperaturen, rechte Skala 30-Jahre Mittel. Grafik vom Autor anhand der DWD-Daten erstellt

Allerdings hatte der gerade vergangene April schon einmal die Temperatur wie um 1750, und war zum „Üben“, was Kälte für die Landwirtschaft bedeutet – und warum damals so viele Hungersnöte waren – ein kleiner Fingerzeig. Es führte damals in der Not zu einer tiefen Volks-Frömmigkeit und das wird heute von unseren „Eliten“ gegenüber der alles wissenden Ökokirche schmerzlich vermisst:

Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) fordert: [1] Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.“

Anhand des Aprilverlaufs lässt sich wieder (wie beim Märzrückblick [2]) sehen, dass der Temperaturanstieg entgegen den Verkündigungen unserer „Klimawissenschaftler“ vor der Industrialisierung begann und damit wenig mit dem anthropogenen CO2 zu tun hat. Doch wem erzählt man das immer wieder [4]? So lange es nur für die gegenteilige
„Er-“Kenntnis Fördermittel gibt und dafür sogar das Volk, angeführt von „Intelligenz“, zum Beispiel auch Claudia Kemfert:
Klimaretter.Info: Aufbruchstimmung im Elfenbeinturm,
alternativ EIKE: Betreff: March for Science am 22.4.2017,
auf die Straße geht, wird sich so schnell nichts daran ändern.

Ergänzend, wie bei jedem Monatsrückblich, die dankenswerter Weise beim DWD hinterlegte Vorschau bis zum Jahr 2100. Die Grafik ist zwar noch vom letzten Jahr, hat sich aber nur insoweit verändert, als dass der aktuell April um 0,4 °C kälter wurde. Wenn die Computer richtig rechnen (was sie bisher beim Klimavorhersehen seltenst taten) können zumindest die verbliebenen Bauern etwas aufatmen.

Bild 2 DWD-Klimaatlas Märztemperatur-Verlauf 1881 bis 2016 mit Simulation bis zum Jahr 2100

Etwas längerfristig in die Zukunft geschaut, sieht es dann jedoch kritischer aus, außer der ganz große „Klimahellseher“ und Papstberater, Prof. Schellnhuber behält recht und die zyklisch bereits anstehende, nächste Eiszeit fällt erstmals seit 500.000 Jahren wirklich aus [5] [6].

Bild 3 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt

Quellen

[1] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

[2] EIKE 07.04.2017: Ist der März in Deutschland endlich wieder so warm wie vor 1000 Jahren?

[3] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
[4] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[5] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

[6] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein




Neue Studie: ,Stillstand‘ bestätigt – und das Scheitern der Klimamodelle

Macht nichts, diese heute in Nature Climate Change veröffentlichte Studie von Hedemann et al. bestätigt nicht nur den „Stillstand“ der globalen Temperatur, sondern zeigt auch einen Grund dafür auf: „… der Stillstand könnte auch der internen Variabilität des Energie-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) geschuldet sein“.

Das ist eine wichtige Aussage, zeigt sie doch, dass trotz vieler Behauptungen des Gegenteils ein CO2-getriebener Antrieb der planetarischen Temperatur nicht der Kontrollknopf ist und dass die natürliche Variabilität nach wie vor im Spiel ist.

Beachten sollte man auch den Rückgang, markiert durch die beiden farbigen ,X‘ in Abbildung 1:

Modelle und Beobachtungen fangen nicht einmal an, irgendwelche Übereinstimmungen zu zeigen.

Die spitzfindigen Ursprünge von Erwärmungs-Stillständen

Christopher Hedemann, Thorsten Mauritsen, Johann Jungclaus & Jochem Marotzke
AffiliationsContributionsCorresponding author
Nature Climate Change (2017) doi:10.1038/nclimate3274
Received 12 July 2016 Accepted 17 March 2017 Published online 17 April 2017

Während der ersten Dekade des 21. Jahrhunderts erwärmte sich die Erdoberfläche langsamer als von den Klimamodellen simuliert (1). Dieser Stillstand der Erwärmung wird in manchen Studien Modellfehlern bei den externen Antrieben zugeschrieben (2, 3, 4), während Andere auf Wärme-Umverteilungen in den Ozeanen hinweisen (5, 6, 7, 8, 9, 10), für welche die interne Variabilität ursächlich ist. Das Timing derselben kann von den Modellen nicht vorhergesagt werden (1). Allerdings sind sich Analysen von Beobachtungen nicht einig, welche Region der Ozeane dafür in Frage kommt (11, 12, 13, 14, 15, 16). Hier zeigen wir, dass der Stillstand seine Ursache auch im Energie-Ungleichgewicht an der Obergrenze der Atmosphäre haben könnte. Eine Energie-Budgetierung der Oberflächenschicht der Ozeane mittels eines 100 Member zählenden historischen Ensembles zeigt, dass Stillstände verursacht werden durch Abweichungen der Energieflüsse, die so gering wie 0,08 W/m² sein können. Sie können ihren Ursprung an der Obergrenze der Atmosphäre, im Ozean oder in beidem haben. Die Budgetierung mittels bestehender Beobachtungen kann den Ursprung des gegenwärtigen Stillstandes nicht belegen, weil die Unsicherheit in den Beobachtungen die geringen Abweichungen der Flüsse marginalisiert, welche einen Stillstand verursachen können. Die Sensitivität dieser Fluss-Abweichungen in den Beobachtungs-Datensätzen und im Energiehaushalt helfen zu erklären, warum frühere Studien einander widersprechen, und zeigt, dass der Ursprung des gegenwärtigen Stillstandes vielleicht niemals herausgefunden werden kann.

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3274.html
(paywalled)

Aus der Introduction:

Die Temperatur der Erde hat sich von 1998 bis 2012 langsamer erwärmt als man aus Untersuchungen der meisten Modell-Projektionen oder des langzeitlichen Erwärmungstrends erwarten konnte. Selbst obwohl einige Studien jetzt die Abweichung vom langzeitlichen Trend Mess-Verzerrungen zuordnen, bleibt die Lücke zwischen Beobachtungen und Modellen bestehen. Die beobachteten Abweichungen des Trends bis zu -0,17°C pro Dekade von den CMIP5-Projektionen sind zwei bis vier mal größer als der beobachtete Trend. Der Stillstand ist daher nach wie vor eine Herausforderung für die Klimawissenschaft.

Die wichtigsten Auszüge aus der Studie:

Der Input des gekoppelten Klimamodells MPI-ESM1.1 besteht aus dem vom CMIP5 vorgegebenen historischen Antrieb von 1850 bis 2005 und wurde erweitert bis 2015 mit dem RCP4.5-Szenario. Liegt die rote Linie über der grauen Linie zeigt mindestens ein Ensemble-Member einen Stillstand, definiert als eine Abweichung von über 0,17°C pro Dekade unter dem Ensemble-Mittel. Diese Abweichung ist die gleiche wie die Lücke zwischen dem Ensemble-Mittel des CMIP5 (schwarzes Kreuz) und den beobachteten GMST-Trends (gelbes Kreuz) für den Zeitraum 1998 bis 2012. Die Linien repräsentieren die Anzahl der Ensemble-Mitglieder in Bündeln von 0,05°C pro Dekade.

Aus unserer Analyse der Beobachtungen sind wir nicht in der Lage, eine TOA-Anomalie als mögliche Ursache des gegenwärtigen Stillstandes auszuschließen. Bezieht man die Beobachtungen auf ein alternatives Energie-Budget (anstatt auf dasjenige des großen Ensembles), könnte sich die absolute Position des grünen und gelben Kreuzes verschieben. Allerdings würde sich der relative Abstand voneinander und die Größe ihrer Fehlerbalken nicht ändern.

Die Rolle der TOA und des Ozeans in jedem Stillstand kann bestimmt werden mittels Vergleich ihrer Relativ-Beiträge zur Anomalie der Fluss-Divergenz. Für Stillstände im großen historischen Ensemble ist die negative (Abkühlungs-) Anomalie in 12% aller Fälle vollständig durch die TOA verursacht und durch den Ozean in 24% aller Fälle. In den verbleibenden Fällen (64%) wird die negative Anomalie verursacht durch TOA und Ozean zusammen (unterer linker Quadrant in der Abbildung). Die Variabilität der TOA ist folglich in 76% aller Fälle von Stillstand involviert.

Wir kommen zu dem Ergebnis, dass die TOA eine Quelle signifikanter interner Variabilität während des Stillstands sein kann. Unsere Ergebnisse sind nicht ein Artefakt der vom Modell erzeugten TOA-Variabilität, erzeugt doch das große Ensemble eine TOA-Variabilität, die den Mess-Aufzeichnungen ähnlich ist. Vielmehr stehen unsere Ergebnisse auf der Grundlage eines einfachen, aber dennoch robusten Prinzips, nämlich dass die Oberflächenschicht der Erde eine geringe Wärmekapazität aufweist. Die Temperatur an der Oberfläche kann daher durch kleine Variationen der großen, sich teilweise gegenseitig aufhebenden Flüsse beeinflusst werden, welche dieses größere Energie-Budget ausmachen. Vergleicht man die geringe Variabilität des TOA-Ungleichgewichtes mit dem Gesamt-Ungleichgewicht der TOA im Zuge der globalen Erwärmung, wird die Bedeutung dieser geringen Variationen bzgl. des Stillstandes verschleiert.

Dies ist das wahre Dilemma im Zentrum der Debatte um den Stillstand: Die Variabilität des ozeanischen Wärmegehaltes kann den Stillstand nicht erklären, und die Messung, die es könnte – die Fluss-Divergenz in der Oberflächen-Schicht – wird durch die Beobachtungs-Unsicherheit marginalisiert. Zwar gibt es Versuche, die Lücken bei den Beobachtungen mit Ozean-Reanalysen aufzufüllen, doch sind die resultierenden Daten während des Stillstandes von fragwürdiger Integrität und – wie wir zeigen – stimmen nicht mit dem auf CERES21 und WOA22 basierenden Budget überein. Selbst wenn diese Nicht-Übereinstimmungen beigelegt werden können, macht es das Verfahren, Satellitenbeobachtungen mit der Wärmeaufnahme der Ozeane zu verbinden, schwierig, die Beiträge von der TOA und vom Ozean zu entflechten, weil deren absolute Differenz unbekannt ist. Solange die Unsicherheit in den beobachteten Schätzungen nicht deutlich reduziert werden kann, kann daher der wahre Grund des jüngsten Stillstandes vielleicht niemals herausgefunden werden.

(Hervorhebung von mir [Watts])

Striche

Code availability.
The MPI-ESM1.1 model version was used to generate the large ensemble and is available at http://www.mpimet.mpg.de/en/science/models/mpi-esm.html. Computer code used in post-processing of raw data has been deposited with the Max Planck Society: http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695.

Data availability.
Raw data from the large ensemble were generated at the Swiss National Computing Centre (CSCS) and Deutsches Klimarechenzentrum (DKRZ) facilities. Derived data have been deposited with the Max Planck Society (http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695). Supplementary Fig. 7 uses TOA flux reconstructions provided by R Allan40 (http://www.met.reading.ac.uk/~sgs01cll/flux) and satellite observations provided by the NASA CERES project31 (http://ceres.larc.nasa.gov). For observational estimates in Fig. 3c, we make use of data provided by the NOAA World Ocean Atlas22(https://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT) and by the ECMWF Ocean Reanalysis System 4 (ref. 9; http://icdc.zmaw.de/projekte/easy-init/easy-init-ocean.html).

PDF files
Supplementary Information (3,616 KB)

Link: https://wattsupwiththat.com/2017/04/17/new-karl-buster-paper-confirms-the-pause-and-models-failure/#comment-2478621

Übersetzt von Chris Frey EIKE




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.

Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc

Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/

Übersetzt von Chris Frey EIKE




Bedeutung und Nutzen von Mittel­werten bei der Anwen­dung auf Klima

[Bemerkung: Im folgenden Beitrag hat der Autor bei allen Temperaturangaben (in °F) die Zehntel-Ziffer unterstrichen. Ich habe sämtliche Angaben in Grad Celsius umgerechnet, aber auf die Unterstreichung der Zehntel-Ziffern verzichtet. Aus dem Beitrag geht eindeutig hervor, was der Autor damit hervorheben will. Anm. d. Übers.]

Mittelwerte

Mittelwerte sind vielfach nützlich. Ein allgemeiner Nutzen ist es, die Berechnung einer fest vorgegebenen Beschaffenheit genauer und präziser zu machen, wie etwa eine physikalische Dimension. Dies wird erreicht durch die Eingrenzung aller zufälligen Fehler beim Prozess der Messung. Unter geeigneten Umständen wie etwa der Berechnung des Durchmessers eines Balles mittels einer Schublehre können multiple Messungen einen präziseren mittleren Durchmesser ergeben. Grund hierfür ist, dass sich die Zufallsfehler bei der Ablesung auf der Schublehre gegenseitig herausmitteln und die Präzision durch die Standardabweichung gegeben wird, welche invers abhängig ist von der Quadratwurzel der Anzahl der Messungen.

Ein anderer allgemeiner Zweck ist es, die Eigenschaften einer Variablen zu charakterisieren, indem man multiple repräsentative Messungen durchführt und die Häufigkeitsverteilung der Messungen beschreibt. Dies kann graphisch erfolgen oder mittels statistischer Parameter wie Mittelwert, Standardabweichung und Asymmetrie/Wölbung [skewness/kurtosis]. Da jedoch die gemessenen Eigenschaften variieren, wird es problematisch, die Fehler bei den Messungen von der Variabilität der Eigenschaften zu trennen. Folglich erfahren wir mehr darüber, wie die Eigenschaft variiert, als über die Verteilung des zentralen Wertes. Und doch konzentrieren sich Klimatologen auf die arithmetischen Mittel sowie die daraus errechneten Anomalien. Mittelwerte können Informationen verschleiern, sowohl absichtlich als auch unabsichtlich.

Damit im Hinterkopf müssen wir untersuchen, ob zahlreiche Messungen der Temperaturen auf dem Festland, den Ozeanen und der Luft uns wirklich einen präzisen Wert für die „Temperatur“ der Erde vermitteln können.

Die „Temperatur“ der Erde

Der Konvention zufolge ist das Klima üblicherweise definiert als das Mittel meteorologischer Parameter über einen Zeitraum von 30 Jahren. Wie können wir die verfügbaren Temperaturdaten verwenden, welche zum Zwecke der Wetterüberwachung und -vorhersage ermittelt werden, um das Klima zu charakterisieren? Das gegenwärtig angewendete Verfahren ist die Berechnung eines arithmetischen Mittels für eine willkürliche Referenzperiode und dann die Subtraktion tatsächlicher Temperaturmessungen (entweder individuelle Werte oder Mittelwerte) von dieser Referenzperiode, um etwas zu erhalten, was man Anomalie nennt. Was jedoch bedeutet es, alle Temperaturdaten zu sammeln und das Mittel zu berechnen?

Befände sich die Erde im thermodynamischen Gleichgewicht, würde es nur eine Temperatur geben, die zu messen recht einfach wäre. Die Erde hat aber nicht nur eine Temperatur, sondern eine unendliche Vielfalt von Temperaturen. Tatsächlich variiert die Temperatur ununterbrochen horizontal, vertikal und mit der Zeit, was eine unendliche Anzahl von Temperaturen ergibt. Die offensichtliche Rekord-Tiefsttemperatur beträgt -135,8°F [ca. -93,2°C] und die aufgezeichnete Höchsttemperatur 159,3°F [ca. 70,7°C]. Die maximale Bandbreite beträgt also 295,1°F, die geschätzte Standardabweichung etwa 74°F, dem Empirischen Gesetz zufolge. Änderungen von weniger als einem Jahr sind sowohl zufällig als auch saisonal, längere Zeitreihen enthalten periodische Änderungen. Die Frage lautet, ob das Sammeln [von Daten an] einigen tausend Stellen über eine Periode von Jahren uns einen Mittelwert geben kann, welcher einen vertretbaren Wert beim Aufzeigen einer geringen Änderungsrate liefert?

Eines der Probleme ist, dass Wassertemperaturen dazu neigen, geschichtet aufzutreten. Die Wassertemperatur an der Oberfläche neigt dazu, die wärmste Schicht zu sein, darunter nimmt die Temperatur mit der Tiefe ab. Oftmals gibt es eine abrupte Änderung der Temperatur, Thermokline genannt. Außerdem kann aufwallendes Tiefenwasser kaltes Wasser an die Oberfläche bringen, vor allem entlang von Küsten. Daher ist die Lokalisierung und Tiefe der Datenproben entscheidend bei der Berechnung so genannter Meeresoberflächen-Temperaturen (SST). Des Weiteren muss berücksichtigt werden, dass – weil Wasser eine um 2 bis 5 mal höhere spezifische Wärme aufweist als normale Flüssigkeiten und eine vier mal höhere als Luft – es sich viel langsamer erwärmt als das Festland! Es ist unangebracht, SSTs mit Festlandstemperaturen zu mitteln. Das ist ein klassischer Fall eines Vergleiches von Äpfeln und Birnen. Falls jemand Trends der sich ändernden Temperatur erkennen will, können sie auf dem Festland offensichtlicher hervortreten als über den Ozeanen, obwohl Wassertemperaturen dazu neigen, Zufalls-Fluktuationen zu unterdrücken. Es ist vermutlich am besten, SSTs mit einer Skala zu plotten, die vier mal so groß ist wie bei den Festlandstemperaturen und beide in die gleiche Graphik einzutragen zum Vergleich.

Bei Temperaturen auf dem Festland ergibt sich oftmals das ähnlich gelagerte Problem von Temperatur-Inversionen, das heißt, es ist in den bodennahen Luftschichten kälter als in größerer Höhe darüber. Dies ist das Gegenteil dessen, was die Adiabate vorgibt, dass nämlich die Temperatur in der Troposphäre mit der Höhe abzunehmen hat. Aber dies stellt uns vor ein weiteres Problem. Temperaturen werden in Höhen aufgezeichnet, die in einem Bereich von unter dem Meeresspiegel (Death Valley) bis über 3000 Metern Seehöhe liegen. Anders als es die Allgemeine Gasgleichung vorgibt, welche die Eigenschaften eines Gases bei Standard-Temperatur und -Druck festlegt, werden alle Wetter-Temperaturmessungen bei der Mittelung in einen Topf geworfen, um ein arithmetisches Mittel der globalen Temperatur zu erhalten ohne Berücksichtigung der Standard-Drücke. Dies ist wichtig, weil die Allgemeine Gasgleichung vorgibt, dass die Temperatur eines Luftpaketes mit abnehmenden Druck abnimmt, was das Temperaturgefälle steigen lässt.

Historische Aufzeichnungen (vor dem 20.Jahrhundert) sind besonders problematisch, weil Temperaturen nur auf das nächste ganze Grad Fahrenheit abgelesen wurden – von Freiwilligen, die keine professionellen Meteorologen waren. Außerdem war die Technologie von Temperaturmessungen nicht ausgereift, besonders hinsichtlich standardisierter Thermometer.

Klimatologen haben versucht, die oben beschriebenen zusammengewürfelten Faktoren zu umschreiben mit der Überlegung, dass Genauigkeit und damit Präzision verbessert werden kann durch Mittelbildung. Als Grundlage ziehen sie 30-Jahres-Mittel jährlicher Mittel monatlicher Mittel heran, womit sie die Daten glätten und Informationen verlieren! Tatsächlich besagt das ,Gesetz über Große Zahlen‘, dass die Genauigkeit gesammelter Stichproben verbessert werden kann (falls keine systematischen Verzerrungen präsent sind!). Dies gilt besonders für probabilistische Ereignisse wie etwa das Werfen einer Münze. Falls jedoch jährliche Mittelwerte aus monatlichen Mittelwerten abgeleitet werden anstatt aus täglichen Mittelwerten, dann sollten die Monate gewichtet werden der Anzahl der Tage in jenem Monat gemäß. Es ist unklar, ob dies gemacht wird. Allerdings werden selbst tägliche Mittelwerte extrem hohe und tiefe Temperaturen glätten und somit die vorhandene Standardabweichung reduzieren.

Jedoch selbst wenn man die oben beschriebenen Probleme nur vorübergehend ignoriert, gibt es das fundamentale Problem zu versuchen, Lufttemperaturen an der Erdoberfläche präziser und genauer zu erfassen. Anders als der Ball mit im Wesentlichen einem Durchmesser (mit minimaler Exzentrizität) ändert sich die Temperatur an jedem Punkt der Erdoberfläche ständig. Es gibt keine einheitliche Temperatur für irgendeine Stelle zu irgendeinem Zeitpunkt. Und man hat nur eine Gelegenheit, jene vergängliche Temperatur zu messen. Man kann nicht multiple Messungen durchführen, um die Präzision einer bestimmten Messung der Lufttemperatur präziser machen!

Temperatur-Messungen

Höhlen sind dafür bekannt, stabile Temperaturen aufzuweisen. Viele variieren um weniger als ±0,5°F jährlich. Allgemein wird angenommen, dass die Temperatur der Höhle eine mittlere jährliche Lufttemperatur an der Oberfläche reflektieren, jedenfalls an der Stelle, an der sich die Höhle befindet. Während die Lage ein wenig komplexer ist, ist es doch eine gute Approximation erster Ordnung. (Zufälligerweise gibt es einen interessanten Beitrag von Perrier et al. (2005) über einige sehr frühe Arbeiten in Frankreich hinsichtlich Temperaturen im Untergrund. Zur Illustration wollen wir einmal annehmen, dass ein Forscher die Notwendigkeit sieht, die Temperatur einer Höhle während einer bestimmten Jahreszeit zu bestimmen. Der Forscher möchte diese Temperatur mit größerer Präzision ermitteln als es ein durch die Gänge getragenes Thermometer vermag. Der Wert sollte nahe dem nächsten Zehntelgrad Fahrenheit liegen. Diese Situation ist ein ziemlich guter Kandidat für multiple Messungen zur Verbesserung der Präzision, weil es über einen Zeitraum von zwei oder drei Monaten kaum Temperaturänderungen geben dürfte und die Wahrscheinlichkeit hoch ist, dass die gemessenen Werte normalverteilt sind. Die bekannte jährliche Bandbreite gibt an, dass die Standardabweichung unter (50,5 – 49,5)/4 oder etwa 0,3°F liegen sollte. Daher ist die Standardabweichung der jährlichen Temperaturänderung von gleicher Größenordnung wie die Auflösung des Thermometers. Weiter wollen wir annehmen, dass an jedem Tag, wenn die Stelle aufgesucht wird, der Forscher als Erstes und als Letztes die Temperatur abliest. Nach 100 Temperaturmessungen werden die Standardabweichung und der Standardfehler des Mittelwertes berechnet. Unter der Voraussetzung, dass es keine Ausreißer gibt und das alle Messungen um wenige Zehntelgrad um den Mittelwert verteilt sind, ist der Forscher zuversichtlich, dass es gerechtfertigt ist, den Mittelwert bekanntzugeben mit einer signifikanten Zahl mehr als das Thermometer direkt zu messen in der Lage war.

Jetzt wollen wir dies mit der allgemeinen Praxis im Bereich Klimatologie kontrastieren. Klimatologen verwenden meteorologische Temperaturen, die vielleicht von Individuen abgelesen werden mit geringerem Interesse an gewissenhaften Beobachtungen als die einschlägige Forscher haben. Oder Temperaturen wie etwa von den automatisierten ASOS können zum nächsten ganzen Grad Fahrenheit gerundet und zusammen gebracht werden mit Temperaturwerten, die zum nächsten Zehntelgrad Fahrenheit gerundet sind. (Zu allermindest sollten die Einzelwerte invers zu ihrer Präzision gewichtet werden). Weil die Daten eine Mittelung (Glättung) durchlaufen, bevor das 30-Jahre-Referenzmittel berechnet wird, scheint die Datenverteilung zusätzlich weniger verzerrt und mehr normalverteilt, und die berechnete Standardabweichung ist kleiner als sie es bei Verwendung der Rohdaten wäre. Es ist nicht nur die Mitteltemperatur, die sich jährlich ändert. Die Standardabweichung und Verzerrung ändert sich mit Sicherheit ebenfalls, aber dazu werden keine Angaben gemacht. Sind die Änderungen der Standardabweichung und der Verzerrung zufälliger Natur oder gibt es einen Trend? Falls es einen Trend gibt, was ist dafür die Ursache? Was bedeutet das, falls es überhaupt etwas bedeutet? Da sind Informationen, die nicht untersucht und bekannt gegeben werden, obwohl sie Einsichten in die Dynamik des Systems vermitteln können.

Man gewinnt sofort den Eindruck, dass die bekannten höchsten und tiefsten Temperaturen (siehe oben) zeigen, dass die Datensammlung eine Bandbreite bis zu 300°F haben kann, wenngleich auch näher bei 250°F. Wendet man zur Schätzung der Standardabweichung die Empirische Regel an, würde man einen Wert über 70°F dafür vorhersagen. Geht man konservativer vor und zieht man das Tschbycheff’sche Theorem heran und teilt durch 8 anstatt durch 4, ergibt sich immer noch eine Schätzung über 31°F. Außerdem gibt es gute Gründe für die Annahme, dass die Häufigkeitsverteilung der Temperaturen verzerrt ist mit einem langen Schwanz auf der kalten Seite. Im Kern dieses Arguments steht die Offensichtlichkeit, dass Temperaturen unter 50°F unter Null normaler sind als Temperaturen über 150°F, während das bekannt gemachte Mittel der globalen Festlands-Temperaturen nahe 50°F liegt.

Im Folgenden wird gezeigt, wie meiner Ansicht nach die typischen jährlichen Rohdaten aussehen sollten, wenn sie als Häufigkeitsverteilung geplottet werden, wobei man die bekannte Bandbreite, die geschätzte Standardabweichung und das veröffentlichte Mittel berücksichtigt:

Die dicke, rote Linie repräsentiert die typischen Temperaturen eines Jahres, die kurze grüne Säule (in der Skala eingeordnet) repräsentiert die Temperatur in einer Höhle bei obigem Temperatur-Szenario. Ich bin zuversichtlich, dass das Mittel der Höhlentemperatur bis zu einem Hundertstel Grad Fahrenheit präzise ist, aber trotz der gewaltigen Anzahl von Messungen der Temperatur auf der Erde bringe ich Gestalt und Verteilung der globalen Daten längst nicht die gleiche Zuversicht für die globalen Temperaturen auf! Es ist offensichtlich, dass die Verteilung eine erheblich größere Standardabweichung aufweist als die Höhlentemperatur, und die Rationalisierung mittels Teilung der Quadratwurzel der Anzahl kann nicht gerechtfertigt sein, um Zufallsfehler zu eliminieren, wenn der gemessene Parameter niemals zweimal den gleichen Wert aufweist. Die multiplen Schritte der Mittelung der Daten reduziert Extremwerte und die Standardabweichung. Die Frage lautet: „Ist die behauptete Präzision ein Artefakt der Glättung, oder ergibt das Glättungsverfahren einen präziseren Wert?“ Darauf weiß ich keine Antwort. Es ist jedoch mit Sicherheit etwas, das diejenigen beantworten und rechtfertigen sollten, die die Temperatur-Datenbasis erstellen!

Zusammenfassung

Die Theorie der anthropogenen globalen Erwärmung prophezeit, dass man die stärksten Auswirkungen nachts und im Winter sehen wird. Das heißt, der kalte Schwanz in der Kurve der Häufigkeitsverteilung sollte sich verkürzen und die Verteilung symmetrischer werden. Dies würde die berechnete globale Mitteltemperatur zunehmen lassen, selbst wenn sich die Temperaturen im hohen und mittleren Bereich gar nicht ändern. Die Prophezeiungen zukünftiger katastrophaler Hitzewellen basieren auf der unausgesprochenen Hypothese, dass mit der Zunahme des globalen Mittels sich die gesamte Kurve der Häufigkeitsverteilung hin zu höheren Temperaturwerten verschieben würde. Das ist keine gewünschte Hypothese, weil die Differenz zwischen täglichen Höchst- und Tiefsttemperaturen während des 20. Jahrhunderts nicht konstant war. Sie bewegen sich nicht in Stufen, möglicherweise weil es unterschiedliche Faktoren gibt, welche die Höchst- und Tiefstwerte beeinflussen. Tatsächlich waren einige der tiefsten Tiefsttemperaturen in der Gegenwart gemessen worden! In jedem Falle ist eine globale Mitteltemperatur keine gute Maßzahl für das, was mit den globalen Temperaturen passiert. Wir sollten die Trends der täglichen Höchst- und Tiefsttemperaturen in allen Klimazonen betrachten, wie sie durch physikalische Geographen definiert worden sind. Wir sollten auch die Form der Häufigkeits-Verteilungskurven für verschiedene Zeiträume analysieren. Der Versuch, das Verhalten des ,Klimas‘ der Erde mit einer einzelnen Zahl zu charakterisieren, ist keine gute Wissenschaft, ob man nun an Wissenschaft glaubt oder nicht.

Link: https://wattsupwiththat.com/2017/04/23/the-meaning-and-utility-of-averages-as-it-applies-to-climate/

Übersetzt von Chris Frey EIKE




Teil 2: Schnee statt Frühlings­wärme – geht der Klima­erwärmung nun auch im April die Puste aus?

Aus den Temperaturdiagrammen im Teil 1 dieses Beitrages war ersichtlich, dass der Monat April sich in den letzten 30 Jahren noch leicht erwärmte, trotz der Abkühlung im letzten Jahrzehnt. Der DWD hat den April 2017 mit 7,4 C angeben. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad. Das hört sich kalt an, ist aber Immer noch relativ mild im Vergleich zu den Aprilmonaten vor 50 Jahren, doch die Abwärtstendenz scheint bereits vorgegeben zu sein. Der April macht eben doch nicht was er will, sondern sein Temperaturverlauf ist von vielen Einflussfaktoren abhängig, von denen wir hier in Teil 2 einige benennen wollen. Doch zunächst nochmals zur Erinnerung der Temperaturverlauf seit 1943. Anschließend werden wir einige Gründe beschreiben, die in Mitteleuropa das Klima bestimmen.

Grafik 1: Aprilverlauf in Deutschland seit 75 Jahren, momentan mit Abwärtstrend.

Doch was gilt für die Zukunft? Wir wünschen uns alle einen schönen Frühling, der wie Balsam auf unsere Seelen wirkt. Doch leider deutet wenig darauf hin. Die Jahrzehnte angenehm steigender Apriltemperaturen ab 1975 könnten bald ein Ende finden, wenn man die AMO als Indikator heranzieht. Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird.

Grafik 2: Das Diagramm des Klimaforschers Stefan Kämpfe zeigt: Mit dem Ende der aktuellen AMO- Warmphase könnte auch für den Monat April ein Temperaturrückgang einsetzen, und der deutet sich (möglicherweise) schon an. Auch wegen des überall zunehmenden Wärmeinseleffektes sind die Apriltemperaturen der letzten 20 Jahre noch auf einem hohen Niveau.

Die AMO unterliegt vermutlich einer 60ig- bis 80ig- jährigen Rhythmik; aktuell herrscht noch die Warmphase; welche vermutlich in Kürze endet- ein erstes, mögliches Indiz für eine beginnende Abkühlung. Allerdings vermag die AMO nur den Temperaturverlauf des April über längere Zeiträume zu erklären; wie auch der niedrige Korrelationskoeffizient von 0,192 (Bestimmtheitsmaß 3,7%) zeigt. Das erklärt auch, warum der April 2017 trotz (noch) hoher AMO- Werte insgesamt eher kühl ausgefallen ist. Für das Verhalten einzelner Aprilmonate kommen andere Einflussgrößen in Betracht, die aber möglicherweise zumindest indirekt und teilweise auch AMO- beeinflusst sein könnten. Zuerst die Häufigkeitsverhältnisse der Großwetterlagen; wobei die mit nördlichem Anteil zu betrachten sind, weil diese im April merklich kühlend wirken:

Grafik 3: Langfristig nahm die Häufigkeit der Großwetterlagen mit nördlichem Strömungsanteil nach HESS/BREZOWSKY leicht ab, was die leicht steigenden Apriltemperaturen in Deutschland seit 1881 mit erklären kann. Der Zusammenhang ist, bezogen auf die Einzeljahre, deutlicher als bei der AMO. Nachdem von den späten 1990er bis zu den frühen 2000er Jahren viele milde Aprilmonate mit wenig Nordwetter vorherrschten, scheint neuerdings wieder mehr Nordwetter mit leichter Abkühlung einzutreten.

Der deutlichste Zusammenhang fand sich jedoch zwischen April- Sonnenscheindauer und Apriltemperaturen, wofür die Werte von Potsdam untersucht werden mussten, weil ein langfristiges Mittel der Sonnenscheindauer für ganz Deutschland erst ab 1951 vorliegt:

Grafik 4: Enge Verzahnung von Sonnenschein- Dauer und Apriltemperaturen, sowohl langfristig, als auch in Einzeljahren. Sonnige Aprilmonate sind deutlich wärmer. Die Sonnenscheindauer beeinflusst die Variabilität der Apriltemperaturen zu 35% und damit signifikant. Wesentlich größer ist der Zusammenhang nur in den 3 Sommermonaten.

Ob auch die Ausdehnung des arktischen Meereises Einfluss ausübt? Viel Eis bedeutet, dass sich mehr und länger Kaltluft im Polargebiet trotz des Polartages hält, die dann bei Nordlagen südwärts ausbrechen kann. Leider liegen erst seit 1979 halbwegs zuverlässige Daten zur Ausdehnung des Arktis- Meereises vor:

Grafik 5: Mäßiger Zusammenhang zwischen der vom Meereis der Arktis bedeckten Fläche und den Apriltemperaturen in Deutschland. Viel Eis bedeutet tendenziell niedrigere Temperaturen (negative Korrelation), allerdings ist dieser Zusammenhang wegen der Kürze der Zeit zu unsicher. So war die Eisausdehnung 2017 die geringste seit Aufzeichnungsbeginn; aber der erhoffte milde April blieb aus.

Auch wegen des zunehmenden Wärmeinseleffektes in Deutschland uns somit in den Daten des DWD sind die Apriltemperaturen noch auf einem hohen Niveau, wie Grafik 1 uns zeigt. Eine wärmeinselarme Station wie Neugersdorf (sprich Neu-Gersdorf) im Osten Sachsens zeigt bereits einen deutlichen Rückgang in den letzten 20 Jahren.

Grafik 6: Messstation in kleinen Ortschaften, deren Umgebung sich im Betrachtungszeitraum wenig verändert hat, zeigen bereits seit 20 Jahren eine deutliche Aprilabkühlung. Die DWD-Trendlinie ist im gleichen Zeitraum eben. (siehe Grafik 4 im Teil 1)

Ganz wärmeinselfrei sind ländlichen Stationen aber auch nicht. Begründung: Es gibt nämlich nicht nur UHI- sondern auch allgemeine WI-Effekte im freien Umland wie etwa Wege- und Straßenausbau, Straßen wirken wie Wärmebänder in der freien Landschaft. Nicht unerwähnt bleiben dürfen ständige Entwässerungsmaßnahmen in Feld und Flur um den ländlichen Ort, Straßengräben auch entlang von Feld- und Waldwegen und vor allem die „Wind- und Solarparks“, welche massiv erwärmend wirken. Solarpaneele- Albedoerniedrigung durch deren dunkle Oberflächen; Windräder bremsen tagsüber den kühlenden Wind und zerstören bei Strahlungswetter nachts die bodennahen Kaltluftschichten, so dass es dort weniger abkühlen kann. Auch neue Leitungstrassen mit ihren 200 C warmen Hochtemperaturseilen können zumindest leichte Erwärmungseffkte im vermeintlich „WI- armen“ Umland bewirken. Die allgemeine Entwässerung (Straßen, Äcker) führt außerdem zu weniger Nebel und weniger tiefen Wolken (CL- Wolken wie Hochnebel oder Stratocumulus), was, vor allem im Sommerhalbjahr, mehr Besonnung und damit Erwärmung überall, also auch im „ungestörten“ Freiland, verursacht. Kurzum, wärmeinselfreie Orte gibt es in Deutschland nicht mehr.

Welchen Einfluss weitere Faktoren, so etwa die Sonnenaktivität auf die Apriltemperaturen haben, muss noch intensiver erforscht werden. Es deutet sich aber an, dass bei stark nachlassender Sonnenaktivität, so wie momentan, die ausgleichend wirkenden Westwetterlagen in ihrer Intensität schwächer und seltener werden, was zu Extremwetter neigende Nord-, Süd- und Ostlagen begünstigen könnte.

Ergebnis: Bereits seit 30 Jahren tendieren die ersten vier Monate des Jahres im Gesamtschnitt zur Abkühlung. Das belegen die Temperaturen des Deutschen Wetterdienstes. Doch diese Daten des DWD sind nicht wärmeinselbereinigt. Außerhalb der Städte, insbesondere in der WI-armen freien Natur, ist die Abkühlungstendenz bereits deutlich. Die Apriltemperaturen werden von der AMO, der Sonnenscheindauer und den Häufigkeitsverhältnissen der Großwetterlagen beeinflusst; es mehren sich Indizien für eine zumindest leichte April- Abkühlung in den kommenden Jahren bis Jahrzehnten, wobei der auch in der Freifläche zunehmende Wärmeinseleffekt die Abkühlung bremst. Sichere Prognosen sind aber nicht möglich.

Zusammenfassung: Wir haben uns in den beiden Teilen die Frage gestellt, wie sich die Apriltemperaturen über 200, über 75, die letzten 30 und die letzten 20 Jahre entwickelt haben.
200 Jahre: Anfang und Ende etwa gleich
75 Jahre: Eine Sinusschwingung, der letzte Höhepunkt wurde vor 10 Jahren überschritten, seitdem geht’s wieder abwärts.
30 Jahre: derzeit noch wärmer wie vor 30 Jahren, steigende Trendlinie.
20 Jahre: ebenes Niveau beim DWD, bei ländlichen Stationen schon seit 25 Jahren eben.
nächste 20 Jahre: das weiß niemand, wahrscheinlich vorerst Abkühlungstrend wie die Monate Januar, Februar, März, …. Mai usw.
im Jahre 2100: Und das weiß nicht einmal der liebe Gott, braucht er auch nicht zu wissen, denn die Erde ist voll mit falschen Propheten und CO2-Erwärmungsgläubigen.

Kohlendioxid kann jedoch entweder gar keine oder kaum eine erwärmende Funktion haben. Andere Faktoren bestimmen das Klima. Diese herauszufinden und vor allem das ständige Wechselspiel zu begreifen, ist eine Aufgabe der seriösen Klimawissenschaft, zu der wir uns bekennen.

Es wird Zeit, dass endlich wieder der Natur- und Umweltschutz in den Mittelpunkt des Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz mit seinem unnützen, teuren und bürokratischen Auswüchsen, die am Klimaverlauf der Erde nichts ändern, aber die Natur oftmals zerstören.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Klimawandel – FakeNews in SRF1 RUNDSCHAU am 26. April 2017

und hier:

Es ist an den beiden Screenshots zur Sendung bereits zu erkennen, wie die SRF RUNDSCHAU „Klima(schutz)“ mit „Umweltschutz“ gleichsetzt, obwohl beides nur sehr wenig miteinander zu tun hat. Aber das ist nicht der einzige Kritikpunkt, der in dem nun folgenden Blogtext thematisiert wird:

Dieser Bericht „Klimalügner: Trumps Kampf gegen den Umweltschutz (Länge: 8 min 38sek, inkl. Anmoderation) wurde am 26. April 2017, ab 20:55 als letzter von drei TV-Beiträgen in dieser gebühren-finanzierten, investigativen Schweizer TV-Sendung auf SRF1 ausgestrahlt. Es ist auch die Anmoderation durch den Moderator und Redakteur  Sandro Brotz kritisch zu erwähnen …

RUNDSCHAU Frontmann Sandro Brotz

… weil Sandro Brotz durch seine Anmoderation eine irreführende Suggestion beim Zuschauer aufgebaut hat, die in dem dann nachfolgenden TV-Beitrag von Peter Düggeli nicht bestätigt worden ist. Denn Sandro Brotz behauptete in seiner Anmoderation folgendes:

Mit Trump als [US-]Präsident ist nun auch den Wissenschaftlern das Lachen im Hals stecken geblieben. Hunderttausende haben sich am Wochenende weltweit an einem Marsch für die Freiheit der Forschung beteiligt. Trump glaubt nicht daran, dass der Mensch für die globale Erwärmung verantwortlich ist. Vielleicht sollte er mal zu den Everglades in Florida hinfahren, wie es unser Korrespondent Peter Düggeli getan hat. Alternative Fakten hin oder her. Dort zeigt sich wie real der Klimawandel schon ist.

Mit dieser Anmoderation hat Sandro Brotz eine Erwartungshaltung aufgebaut, die beim Zuschauer den Eindruck vermittelte, der dann nachfolgende Bericht von Peter Düggeli aus den Everglades in Florida würde eindeutige Beweise für die menschliche Schuld am Klimawandel bzw. die menschliche Schuld an der angeblich globalen Erwärmung liefern.

Es ist zusätzlich zu kritisieren, dass Sandro Brotz nur den verkürzten Begriff „Klimawandel“ in seiner Anmoderation verwendet hat, aber damit die angeblich „menschliche Schuld am Klimawandel“ gemeint hat, für die es aber bis heute keinen einzigen wissenschaftlichen Beweis gibt, sondern lediglich ein CO2-Anstieg als Parameter für eine angebliche Erwärmungs-Ursache in linear-mathematisch-programmierte Computerklimamodelle eingegeben worden ist. Einzig und allein auf dieser zweifelhaften Grundlage existiert die Hypothese vom angeblich CO2-bedingten Klimawandel. Und diese sachlich-korrekte Information ist kein „Alternativer Fakt“.

Dieser fehlende wissenschaftliche Beweis für die menschliche Schuld am angeblich CO2-Klimawandel zeigte sich dann auch konkret in dem knapp 8-minütigen SRF1 „RUNDSCHAU“ TV-Beitrag von Peter Düggeli:

00:57: Der Florida – Panther

Nachdem in den ersten Sekunden im TV-Beitrag von Peter Düggeli schöne Landschafts- und Tier-Aufnahmen aus den Everglades gezeigt wurden, mit einer weiblichen Offstimme und beruhigender Chillout-Musik untermalt wurden, wurde ca. bei Minute 00:57 des TV-Beitrags vom 26.04.2017 folgendes durch eine weibliche Offstimme wörtlich behauptet:

Doch was heute noch Idylle ist, könnte schon morgen nicht mehr da sein.

Aha, plötzlich wird behauptet: „könnte schon morgen nicht mehr da sein.“

Aus der propagierten Tatsache, die Sandro Brotz in seiner Anmoderation dem Zuschauer vermittelt hatte, wird nun dem Zuschauer erstmalig durch einen Konjunktiv

könnte schon morgen…

klar, dass die angeblichen Fakten, die Sandro Brotz in der Anmoderation suggestiv behauptet hatte, in Wirklichkeit alternative Fakten, besser: gar keine Fakten sind, sondern in Wahrheit fiktive Zukunftsszenarien sind,  von denen niemand wirklich weiß, ob diese Szenarien auch wirklich eintreffen werden.

Als nächstes wurde dann der O-Ton eines Bob Johnson, Direktor des Wissenschaftszentrum Süd-Florida, gesendet:

01:06: Bob Johnson

der bei Minute 01:06 dann im amerikanischen Originalton mit einer deutschen Übersetzung behauptete:

Diese Zone am südlichen Ende von Florida wird verschwinden, weil die Meeresspiegel steigen. Tiere, wie Alligatoren werden nicht mehr da sein.

Auch diese Behauptung von Bob Johnson ist keine Tatsache, sondern eindeutig ein subjektives Zukunftsszenario des Bob Johnson, denn er sagt:

wird verschwinden…

und

werden nicht mehr da sein…

Das heisst mit anderen Worten: Aktuell ist aber noch alles vorhanden. Es ist also bis heute nix in den Everglades verschwunden und/oder zerstört !!

An dieser Stelle ist bereits nach den ersten Sekunden zu Beginn des Beitrags von Peter Düggeli  jedem halbwegs-intelligenten Zuschauer klar geworden, dass Sandro Brotz mit seiner Anmoderation mit einer falschen Suggestion den TV-Zuschauer in die Irre geführt hatte. Denn Sandro Brotz hatte ja in seiner Anmoderation dem US-Präsidenten Donald Trump empfohlen – und damit suggestiv  auch jedem SRF1 RUNDSCHAU-TV-Zuschauer, er solle doch zu den Everglades fahren, denn dort könne man die Auswirkung des Klimawandels bereits sehen, so Sandro Brotz.

Stattdessen aber stellt sich nun bereits in den ersten Sekunden im Beitrag von Peter Düggeli heraus: Wenn ein TV-Zuschauer in die Everglades fährt, und dort die angeblich schon sichtbaren Auswirkungen des (angeblich menschgemachten) Klimawandels sehen will, dann sieht der Zuschauer dort nix dergleichen. Denn in Wirklichkeit/Wahrheit spielen sich die von Sandro Brotz propagierten „Tatsachen“ nur als  Zukunftsszenarien in den Köpfen der von Peter Düggeli interviewten Protagonisten ab, in diesem Fall im Kopf eines Bob Johnson.

Und die weibliche Off-Stimme im RUNDSCHAU-Betrag bestätigt dann sogar auch dieses Zukunftszenario im Kopf des Bob Johnson, ab Minute 01:19:

Bob Johnson der Direktor des Wissenschaftszentrum Süd-Floridas warnt seit Jahren, dass der Klimawandel die Everglades zerstören könnte.

Auch an dieser Stelle wieder keine Tatsache, kein Fakt, sondern nur ein fiktiver Konjunktivkönnte“ als subjektives Zukunftsszenario im Kopf einer einzelnen Person mit Namen Bob Johnson:

zerstören könnte

Und die weibliche Rundschau-Offstimme behauptet bei Minute 01:27 sogar weiter:

Deshalb fahren wir dorthin, wo sich die Bedrohung zeigt.

Oh ja, bitte, denkt sich jeder kritische und halbwegs-intelligente TV-Zuschauer, vielleicht wird ja jetzt in den nächsten Sekunden endlich ein „Beweis“ für die propagierte „Bedrohung“ gezeigt, dass menschlicher Einfluss den CO2-Klimawandel bewirkt.

01:37: Mit Peter Düggeli (rechts) und Bob Johnson fahren mit einem Schnellboot durch die Seen-und Mangroven-Landschaft der Everglades in Florida.

Der Rundschau-Zuschauer sieht nun, wie SRF Autor Peter Düggeli mit Bob Johnson in einem Schnellboot durch die Seenlandschaft der Everglades fährt …

….und die weibliche Offstimme behauptet nun bei Minute 01:37:

Florida Bay, das Mündungsgebiet zwischen den Everglades und dem Atlantik. Viele kleine Inseln mit Mangroven-Bäumen. Matt [der Fahrer des Schnellbootes] zeigt uns, wo das Meer jetzt schon bei Ebbe die Inseln  anfrisst.

01:51: Bob Johnson zeigt eine in Zukunft überflutete Insel (was aber der TV-Zuschauer nicht wirklich sieht)

Dann kommt – angeblich unmittelbar vor einer solchen „angefressenen Insel“ – bei Minute 1:51 wieder Bob Johnson zu Wort und er behauptet in amerikanisch mit deutscher Off-Stimmen-Übersetzung:

Es braucht nicht viel und die Insel ist überflutet. Laut Prognosen wird das Wasser bis 2100 um ein Meter ansteigen. Dann ist DAS offenes Meer. Die Inseln werden verschwunden sein.

Dem TV-Zuschauer wurde mit diesem O-Ton von Bob Johnson suggeriert, dass das, was er auf dem TV-Bildschirm gesehen hat, durch angeblich „menschgemachten Klimawandel“ verursacht sei.

Aber es war auf dem TV- Bildschirm in diesem SRF1 RUNDSCHAU-TV-Beitrag in Wahrheit garnichts zu sehen, was die Behauptungen von Bob Johnson und der Offstimme belegen würde. Es wurde stattdessen dem TV-Zuschauer die bildliche und sprachliche Behauptung eines Gezeiten-Wechsels von Ebbe und Flut als angeblich „menschverursacht“ eingeredet. Mehr war an angeblichen „Beweisen“ in dieser Film-Sequenz nicht auszumachen. Oder sehen Sie, lieber Blog-Leser, das anders?

Zur Erinnerung:

Im Herbst 2013 hatte das Schweizer Fernsehen in einer TV-Dokumentation in ähnlicher Weise wörtlich behauptet, ein Dorf auf einer Südsee-Insel von Kiribati sei angeblich durch den Klimawandel zerstört worden. Unsere Beschwerde beim SRF-Ombudsmann hatte damals die korrekten Zusammenhänge und Ursachen ans Licht gebracht.

Hinzu kommt, dass die aktuelle Behauptung vom 26.04.2017 in der SRF1 RUNDSCHAU,

das Wasser würde bis [zum Jahr] 2100 um einen Meter ansteigen

KEINE PROGNOSE ist, sondern faktisch (!) ein Computerszenario in Form einer szenarienbedingte Projektion, die in einem linear-mathematisch-programmiertem Computerklimamodell eingegeben worden ist, in dem CO2 ein maßgeblicher Parameter (Variable) ist. In der Realität, d.h. auf der Erde, konnte ein solcher Temperaturanstieg bedingt durch CO2 noch nicht nachgewiesen werden. Der angebliche „Temperaturanstieg“ durch CO2 findet nur in Computerklimamodellen statt.

Und: Wir haben in unseren zahlreichen Videos schon mehrfach durch einschlägige Zitate der Klima(folgen)forschung belegt und dokumentiert, dass auch die offizielle Klima(folgen)forschung bestätigt und zugibt, dass KEINE KLIMAPROGNOSEN erstellt werden. Das gilt auch für ein Szenario (= Computerspiel) eines angeblichen Meeresspiegelanstiegs bis zum Jahr 2100.

Und die „Krönung“ der #FakeNews:
Bei Minute 02:09 behauptet dann die weibliche Offstimme:

Die beiden sind immer wieder perplex, wie viele Leute nicht an die Mitschuld des Menschen am Klimawandel glauben. Dass sie z.B. die Werte von Messstationen ignorieren. Als Beamter muss Bob sich aber vorsichtig äußern.

Und Bob Johnson behauptet dann noch ab Minute 02:25 mit der Messstation im Hintergrund:

02:27: Bob Johnson mit im Hintergrund einer Meeresspiegel-Messstation

Wir müssen es halt immer wieder erklären. Wenn jemand DAS HIER sieht, ist es schwierig alles zu leugnen.

Frage von einem kritischen, halbwegs-intelligenten Zuschauer:

Wann und wo wurden denn am 26.04. im TV-Bericht von Peter Düggeli die angeblichen „Messwerte der Messstationen“ gezeigt, die von der weibliche Offstimme ab Minute 2:09 erwähnt wurden?

Der TV-Beitrag zeigt stattdessen parallel zu diesem obigen Zitat „Messwerte der Messstationen“ nur  eine im Wasser stehende Messstation, ohne aber zusätzlich statistische Datenreihen von dieser Messstation dem Zuschauer zu zeigen, die eindeutig belegen können, dass der Meeresspiegel in den letzten Jahren und Jahrzehnten an dieser Stelle oder in den gesamten Everglades bzw. an den Küsten Floridas angestiegen ist.

Die Einblendung eines solchen Belegs mit einer glaubwürdigen Messreihe wäre die elementarste journalistische Pflicht und Aufgabe des TV-Journalisten Peter Düggeli und letztendlich auch der verantwortlichen SRF1 RUNDSCHAU-Redaktion rund um Sandro Brotz gewesen, anstatt dem Zuschauer lediglich das Standbild einer in den Everglades stehenden Messstation zu zeigen und dem Zuschauer zu suggerieren, damit wäre der Beweis erbracht, dass der Mensch eine angebliche (Mit-)schuld am CO2-Klimawandel hätte.

Hallo?

Wir haben haben daraufhin selbst im Internet Messreihen über die Pegelstände in Florida in den letzten 27 Jahren recherchiert und haben festgestellt, dass definitiv seit mindestens 27 Jahren, seit 1990, kein Meeresspiegelanstieg an Floridas Messstationen festzustellen ist:



Recherchieren Sie selbst: Weitere Messstations-Grafiken aus Florida bei dieser Quelle (Aber Achtung: Lassen Sie sich dort nicht durch die Trendgrafiken täuschen).

Die SRF „RUNDSCHAU“-Redaktion würde gut daran tun, wenn sie eine mindestens 30-jährigen Messreihe mit Messwerten der im TV-Beitrag eingeblendeten Messstation vorlegen könnte…

02:21: Messstation in den Everglades

… ähnlich der drei Grafiken, wie sie – oben zu sehen – von drei Orten in Florida (Mayport, Pensacola, Key West) von unserer Seite ohne großen Aufwand im Internet recherchiert werden konnten.

Danach folgt im SRF1 RUNDSCHAU TV-Beitrag ein sekundenlanges „Trump-Bashing“, wo US-Präsident Donald Trump mit seinen altbekannten Zitaten als angeblicher „Klimaleugner“ dargestellt wird, mit dem abschließenden Zitat der weiblichen Offstimme bei Minute 03:13:

02:44 Der neue US-Präsident Donald Trump als angeblicher „Klimaleugner“.

 

Trump verhöhnt die Wissenschaft, schürt Unglauben und Verwirrung

Danach kommt ein Ken Kimmell von der HARVARD-Universität zu Wort:

03:24 Ken Kimmell

Er ist wohl parallel in der „Gewerkschaft für besorgte Wissenschaftler“ und sein O-Ton wird ab Minute 03:24 von der deutschen Offstimmen-Übersetzungen wie folgt übersetzt:

Was ist, wenn die US-Regierung eine Kehrtwende macht und nur die verrückten Wissenschaftler unterstützt, die den Klimawandel anzweifeln und versuchen andere Gründe dafür zu finden? Was, wenn die [US-] Regierung eine Propaganda-Maschine gegen den Klimawandel wird und nichts mehr dagegen unternimmt?

Zu beachten ist, dass Ken Kimmell zu Beginn seines Statements wörtlich gesagt hatte:

The fear I have that the United States government…

und diese Eingangsworte von Ken Kimmell ins DEUTSCHE wie folgt übersetzt wurden:

Was ist, wenn die US-Regierung…

Wollte man von Seiten der SRF RUNDSCHAU-Redaktion die „Angst“ der Wissenschaftler in dieser deutschen Übersetzung ausblenden, dass diese Wissenschaftler, wie Ken Kimmell, „Angst“ um ihre Forschungsgelder haben, wenn nur noch „die Wissenschaftler der Gegenseite“ mit Forschungsgeldern unterstützt werden?

Es wäre noch zusätzlich interessant zu erfahren, was Ken Kimmell im US-amerikanischen Original-Interview anstelle der Begriffe

verrückte Wissenschaftler…

und

Propaganda-Maschine…

gesagt hatte. Aber leider sind die amerikanischen Original-Worte aus dem Interview nicht deutlich genug herauszuhören.

Ab Minute 03:50 wurden dann in der SRF1 RUNDSCHAU vom 26.04.2017 Ausschnitte vom sog. „March for Science“ vom 22.04.2017 in Washington DC gezeigt, wo angeblich 40’000 Wissenschaftler „für ihre Glaubwürdigkeit“ und „gegen Trump“ auf die Straße gegangen sind:

03:50: Wissenschaftler beim „March for Science“ in Washington DC

Das folgende Zitat bei Minute 04:18 dieses angeblichen Wissenschaftlers ist als „Hohn schlechthin“ zu bewerten, wenn Sie sich in Erinnerung rufen, was wir in den obigen Zeilen über diese aktuelle SRF1 RUNDSCHAU-Berichterstattung vom 26.04.2017 recherchiert haben:

04:18 Wissenschaftler über Trump

 

Trump fehlen die Berater, die ihm helfen, wissenschaftliche Fakten zu verstehen. Er bildet sich seine Meinung nur von dem, was er im TV sieht.

Interessant, „was er im TV sieht„: Es wird Trump unterstellt, er würde sich seine Informationen nur aus dem TV holen. Jeder soll sich mal fragen, wie viele „dumme“ Menschen durch diesen grob-fehlerhaften und suggestiven  SRF1 RUNDSCHAU-TV-Beitrag vom 26.04.2017 wieder „glauben“ werden, die Everglades würden versinken, wenn wir diese perfiden medialen Suggestionen, „Halbwahrheiten“ und Falschbehauptungen nicht durch diesen Blogtext hier offenlegen und entlarven würden?

Oder auch dieses Zitat dieser angeblichen Wissenschaftlerin beschreibt genau das Gegenteil, was als wissenschaftliche Wahrnehmung festzustellen ist:

04:29 eine Wissenschaftlerin über Trump

 

Er versetzt den Planeten in Angst und Schrecken. Dagegen kämpfe ich an.

Dabei sind es die Klimawissenschaftler, die seit über 30 Jahren das Horrorszenario einer drohenden Klimakatastrophe heraufbeschwören.

Danach setzt der SRF RUNDSCHAU TV-Beitrag die Berichterstattung in den Everglades fort und die weibliche Offstimme behauptet bei Minute 04:42:

04:42 Peter Düggeli mit Bob Johnson zurück in den Everglades

Bob [Johnson] zeigt uns, wie sich die Landschaft wegen des Klimawandels verändert.

Kritische und intelligente TV-Zuschauer werden daraufhin wieder gespannt auf „Beweise“ warten, die den [menschgemachten] Klimawandel belegen. Sie warten vergeblich, denn Bob Johnson zeigt bei Minute 04:50 in die Mangroven- und Sumpf-Landschaft und behauptet:

04:50 Bob Johnson zeigt auf den „Klimawandel“

Dahinten sehen wir Mangroven-Bäume, die mehr ins Landesinnere wandern. Wegen der steigenden Meeresspiegel durchdringt das Salzwasser die Böden. Aus Everglades wird so marines Mündungsgebiet.

Und erinnern Sie sich noch: Die Offstimme behauptete bei Minute 04:42 doch

Bob Johnson zeigt uns

Außer dem Zeigen von „Mangroven-Bäumen dahinten“ wurde dem Zuschauer nix „Faktisches“ gezeigt, was objektiv einen menschgemachten Klimawandel wissenschaftlich belegen würde. Stattdessen „zeigte“ die SRF RUNDSCHAU wieder nur einen Behauptungs-Monolog eines Bob Johnson.

Und der Autor Peter Düggeli schlug dann bei Minute 05:10 journalistisch geschickt den Bogen nach Miami, in dem er die Frage stellte:

05:10 Peter Düggeli schlägt geschickt den Bogen in Richtung Miami

 

Und was passiert in der Stadt Miami, wenn das Meer steigt?

Bob Johnson antwortete daraufhin:

Wir müssen die Stadt [Miami] verändern. Straßen erhöhen und Wasser zurück ins Meer pumpen.

Daraufhin zeigt die SRF RUNDSCHAU Bilder und Stimmen aus Miami, die die angebliche Bedrohung durch den angeblich steigenden Meeresspiegel belegen würden.

06:02 Miami von oben

Die weibliche Offstimme behauptet dann bei Minute 06:02 als Zusammenfassung auf diese angebliche „Bedrohung“, zusammen mit Luftbildern auf die Kernstadt Miami:

Miami, allein die Kernstadt hat 500.000 Einwohner. Das Gebiet ist durch den Wasseranstieg bedroht.

Bemerkenswert: Die weibliche Offstimme behauptet „Wasseranstieg“ und eben nicht „Meeresspiegelanstieg“.

Denn die recherchierbaren Pegelstände über den Meeresspiegelanstieg weisen ebenfalls seit 27 Jahren in Miami Beach keinen Meerespiegelanstieg aus, schauen Sie selbst:

Wohl deshalb hat man dann bereits seit ca. 1983 die Pegel-Messungen in Miami Beach eingestellt.  Denn es ist ja auch wohl auch „einfacher“, einen fiktiven Trend durch eine Linie einzutragen und damit zu behaupten, es gäbe angeblich einen Meeresspiegelanstieg, schauen Sie mal:

Kein Witz: Auch diese Grafik mit den Trendlinien können Sie so – mit den von der NOAA eingezeichneten Trendlinien – auf der Webseite der NOAA abrufen. So wird offenkundig durch eine „gewünschte“ Trendlinie ein angeblicher Meeresspiegelanstieg „konstruiert“.

Unglaublich !!

Dieser Sachverhalt war in diesen Tagen ohne viel Mühe im Internet zu recherchieren. In der SRF RUNDSCHAU vom 26.04.2017, die mit Gebührengeldern finanziert wird, erfährt der TV-Zuschauer darüber nix.

Verstehen Sie jetzt, warum Donald Trump auch zurecht darüber nachdenkt, diese merkwürdige Ozean-Behörde NOAA abzuschaffen?

Stattdessen setzt die SRF  Rundschau am 26.04. das Klimawandel-Leugner-Bashing gegen die US-Regierung fort und kritisiert nun den neuen Chef der US-amerikanischen Umweltbehörde EPA, Scott Pruitt. Die Offstimme behauptet bei Minute 06:13:

06:22 Der neue Chef der US-Umweltschutzbehörde EPA: Scott Pruitt

 

Aber ausgerechnet der Chef der US-Umweltschutzbehörde zweifelt an der maßgeblichen Schuld des Menschen am Klimawandel.

Scott Pruitt wird dann in einem Fernsehinterview – journalistisch ausgewogen – mit seiner kritischen Auffassung ab Minute 06:22 zitiert:

Der Einfluss des Menschen aufs Klima nachzuweisen ist sehr schwierig. Ich glaube nicht, dass er [der Mensch] ein Haupttreiber der globalen Erwärmung ist.

Danach kommen im SRF RUNDSCHAU TV-Beitrag erneut Wissenschaftler, diesesmal aus Chicago, zu Wort, die Trinkwasser analysieren und die angeblich von den 30%-Kürzungen in der US-Umweltbehörde EPA betroffen sein werden. Merkwürdig: Die SRF RUNDSCHAU lässt nun Umweltwissenschaftler (!), die Trinkwasser analysieren, zu Wort kommen, obwohl Trumps Kritik an der EPA sich vornehmlich gegen überbordende Klimaschutz-Maßnahmen richtete. Die SRF RUNDSCHAU wirft also „Umweltschutz“ und „Klimaschutz“ fälschlich in einem Topf. Das gipfelte dann in der Erwähnung eines Trinkwasser-Skandals in der US-amerikanischen Stadt Flint, wo vor Jahren Trinkwasser durch Blei vergiftet worden war. Der intelligente TV-Zuschauer fragt sich zurecht:

Was hat so ein Umweltskandal um verseuchtes Trinkwasser mit „Global Warming“ zu tun?

06:56 Peter Düggeli (Mitte) mit den beiden EPA-Umweltwissenschaftlern Wayne Wipple (rechts) und Frank Lagunas (links)

Es ist dadurch deutlich erkennbar, wie die SRF RUNDSCHAU dem TV-Zuschauer zu suggerieren versuchte, die Klima(folgen)forscher würden in der gleichen löblichen Art und Weise agieren, wie die beiden Trinkwasser-Analytiker aus Chicago, die den Trinkwasserskandal in der Stadt Flint aufgedeckt haben.

Die Realität und die „Aufgabe“ der Klima(folgen)forschung sieht aber vollkommen anders aus, was auch schon Ottmar Edenhofer vom PIK in Potsdam bereits vor Jahren zugegeben und bestätigt hatte:

Ottmar Edenhofer wiederholte seine obige These über das „Umverteilen von Weltvermögen per Klimaschutz“ auch noch einmal im Februar 2011.

Die SRF RUNDSCHAU ließ dann am 26.04.2017 durch einen O-Ton die Behauptung verbreiten, die von Donald Trump geplanten Kürzungen bei der EPA würden in Zukunft die Aufdeckung solcher Umweltskandale nahezu unmöglich machen.

Frank Lagunas von der EPA, Chicago behauptet bei Minute 07:55:

07:55: Frank Lagunas

 

Zu wissen, dass Leute krank werden können, oder sogar sterben, nur weil Budgetkürzungen unsere Mittel einschränken, das ist herzzerreißend.

Dann werden von SRF RUNDSCHAU drei ehemalige Twitter-Behauptungen  von Donald Trump eingeblendet, die sich aber in Gänze auf Kritik an der Klimawissenschaft beziehen:

08:14

08:17

08:21

Beachten Sie:

Global Warming“ in den Twitter-Meldungen von Donald Trump wurde von der SRF RUNDSCHAU-Redaktion durchweg fälschlich ins Deutsche mit „Klimawandel“ übersetzt.

Die Behauptung/These, die US-amerikanischen Atomwaffentests nach dem 2. Weltkrieg hätten Einfluss auf das Klima gehabt, gab es wirklich. Und es wurde von „Klimapapst“ Schellnhuber auch schon mit dem 2. Weltkrieg als mögliche Erklärung für die globale Abkühlung von 1945 bis 1965 spekuliert:

Die weibliche Offstimme behauptet dann zum Ende des sehr beanstandungswürdigen SRF RUNDSCHAU-Beitrages von Peter Düggeli, während die Kamera über die schöne Sumpf-Landschaft der Everglades fährt:

08:27: Das „Schlusswort“ der weiblichen Offstimme, oder: „Das Wort zum Sonntag“

 

Umwelt und Natur in den Everglades. In Amerika. In dem ganzen Globus. Sie sind jetzt auch dem Klimaskeptiker Trump ausgeliefert.

Fazit:
Übelste Klimawandel-Propaganda in der SRF RUNDSCHAU am 26.04.2017

Fassen wir noch einmal die oben im Detail geschilderten Kritikpunkte in Kurzform zusammen:

  • Fälschliche Suggestion in der Anmoderation durch Sandro Brotz, es gäbe in den Everglades (Florida) angeblich Beweise für den menschgemachten Klimawandel. Denn die von Sandro Brotz suggerierten „Fakten“ entpuppen sich im TV-Bericht von Peter Düggeli dann als „Konjunktive“ und subjektive „Zukunftsszenarien“.

  • Behauptungen (Szenarien) über einen angeblichen Meeresspiegelanstieg bis zum Jahr 2100 werden fälschlich als „Prognosen“ bezeichnet.

  • Küstenerosionsvorgänge, die nur als natürliche Ebbe- und- Flut-Vorgänge auszumachen sind, werden suggestiv als „vom Klimawandel verursacht“ ausgewiesen.

  • Anstatt glaubwürdige Pegelstatistiken über einen angeblichen Meeresspiegelanstieg vorzulegen, wird nur ein Standbild einer Everglades-Messstation  gezeigt.

  • „Klimaschutz“ wird fälschlicherweise mit „Umweltschutz“ gleichgesetzt.

  • Mehrere (bewusst?) falsche Übersetzungen aus dem Amerikanischen ins Deutsche.

Wir informieren über diesen Blogtext auch Sandro Brotz und die RUNDSCHAU-Redaktion. Wir erwarten bis zum 7. Mai 2017 eine dezidierte Stellungnahme durch die SRF RUNDSCHAU Redaktion, bevor wir über weitere Schritte (Beschwerde beim SRF OMBUDSMANN) entscheiden werden. Die 20-Tagesfrist für eine solche Ombudsmann-Beschwerde läuft am 16. Mai 2017 ab.

Sollten wir eine Stellungnahme der SRF RUNDSCHAU REDAKTION erhalten, werden wir hier in unserem Blog darüber informieren.

Es steht jedem Leser dieses Blogtextes frei, ebenfalls jederzeit eine Beschwerde beim Schweizer Ombudsmann einzureichen.

————————————————–

Dieser Beitrag wurde übernommen von: https://www.klimamanifest-von-heiligenroth.de/wp/klimawandel-fakenews-in-der-srf-rundschau-am-26-april-2017/