1

Erwärmung durch menschgemachtes CO2: Neue Fachstudie zeigt Entwarnung an

Von diesem Beitrag werden Sie bei Leit-Medien nichts erfahren.
Das hat zwei Gründe: Das Ergebnis des Beitrags und die Art, wie das Ergebnis zustande gekommen ist. Das hier:

Argh, richtige Wissenschaft. Ein Text, in dem empirische Daten zur Grundlage genommen werden, um vor dem Hintergrund physikalischer Gesetze zu untersuchen, wie sich Sonnenstrahlung, die auf die Erde trifft, als Wärmestrahlung wieder abgegeben und von Treibhausgasen “aufgefangen” wird, auf das Klima auswirkt. Das ist nichts, was “Klimaaktivisten” zur Kenntnis nehmen, nichts, was angebliche “Wissenschaftsjournalisten” aufarbeiten, nicht einmal etwas, was Fach-Zeitschriften der Physik drucken wollen, nicht weil es keine Physik wäre, nein, an der Methode und der Durchführung gibt es nichts auszusetzen, aber am Ergebnis.

Das Ergebnis passt nicht in die Welt der Klima-Hysterie, und alles, was nicht in die Welt der Klimahysterie passt, weil es z.B. Wissenschaft ist, wird unterdrückt, unterschlagen, führt zu Angst bei den Herausgebern von wissenschaftlichen Zeitschriften, denn Herausgeber kann man heute wohl nur noch werden, wenn man den Verdacht widerlegen konnte, mit einem Rückgrat ausgestattet zu sein. Versuchten wir heute unseren Text “Bringing Boys Back In” zu veröffentlichen, es fänden sich wohl keine Herausgeber mehr, die das Rückgrat von Diether Hopf und Ewald Terhart hätten.

Zurück zu Happer und Wijngaarden.
Zentral für das, was die beiden auf rund 35 Seiten darlegen, ist das hier:

Das ist ein Absorptionsband für verschiedene Wellenlängen. Die schwarzen Flächen zeigen die Wellenlängen bei denen eine Absorption von Wärmestrahlung durch die entsprechenden Moleküle erfolgt. Die ganze Idee des von Menschen zu verantwortenden Klimawandels basiert darauf, dass mit einer Zunahme der Konzentration von CO2 in der Atmosphäre, also mit einem Mehr an CO2-Molekülen, die durch das Verbrennen von fossilen Brennstoffen der Atmosphäre zugeführt werden, ein Mehr an Wärmestrahlung gebunden und die Erde zu einem Treibhaus mit steigenden Temperaturen entwickelt werden kann. Die entsprechenden Rechnungen basieren auf eher kruden Varianten der oben dargestellten Absoprtionsbänder, die letztlich das Licht-Spektrum der einzelnen Moleküle abbilden, ein Spektrum, das man in einzelnen Linien zerlegen kann, um auf Grundlage der einzelnen Linien zu untersuchen, wie es um die Absorption von Wärmestrahlung durch z.B. CO2 steht.

Zunächst ist es jedoch notwendig, das Konzept der Saturation einzuführen. Stellen Sie sich ein halbgefülltes Wasserglas in der Sonne vor, das abgedeckt ist, aus dem keine Wassermoleküle (H2O) entweichen können. Das Wasser absorbiert Wärme: Wasserdampf ensteht, der den Rest des Glases fühlt und an der Oberfläche der Flüssigkeit wieder kondensiert. Sättigung, Saturation beschreibt den Punkt, bei dem die Verdunstung von Wasser der Kondensation von Wasserdampf entspricht. Offenkundig ist Sättigung von Temperatur abhängig. Ebenso offensichtlich gibt es einen Punkt, ab dem eine Steigerung der Temperatur nicht mehr dazu führt, dass die Wassermenge im Glas abnimmt.

Diese Logik haben Happer und Wijngaarden auf die Atmosphäre übertragen und mit einer unglaublich genauen und bislang nicht dagewesenen Analyse der einzelnen Spektrallinien der fünf Treibhausgase (H2O [Wasserdampf], CO2, CH4 [Methan], N2O (Stickoxid) und O3 [Ozon]) verbunden. Nicht nur das. Sie haben auch in Rechnung gestellt, dass die Temperaturen in der Troposphäre, der Stratospäre und der Mesosphäre nicht identisch sind, was (in Analogie zu dem Wasserglasbeispiel) dazu führt, dass die genannten Treibhausgase nicht nur Wärmestrahlung absorbieren, sondern auch emittieren. Damit haben Happer und Wijngaarden wohl die erste Arbeit vorgelegt, die für das grundlegende Modell des “radiative forcing”, das sich hinter der Rede von der Erderwärmung verbirgt, im Detail untersucht, wie sich ein erhöhter Ausstoß von Treibhausgasen auf die Erdtemperatur auswirkt.

Das theoretische Modell, anhand dessen der menschliche Einfluss auf das Klima modelliert wird, setzt übrigens die Sonneneinstrahlung auf eine schwarze Oberfläche und die daraus resultierende Abgabe von Wärmestrahlung unter Auslassung aller störenden Einflüsse von Wolken und Treibhausgasen, mit einem ebensolchen, das Treibhausgase und Wolken berücksichtigt, ins Verhältnis.

Das Ergebnis dieser Analyse, die weit über das hinausgeht, was das Intergovernmental Panel of Climate Change zur Grundlage seiner Ermärmungs- oder Überhitzungsmodelle macht, kann zunächst auf zwei Postulate gebracht werden:

  • Für die Modellierung der Erderwärmung ist die Berücksichtigung der Emission von Wärmeenergie durch Treibhausgase ebenso wichtig wie die Berücksichtigung der Absorption von Wärmestrahlung.
  • Die Variation in der Temperatur der Atmosphäre mit zunehmender Höhe ist für die richtige Bestimmung des Effekts von CO2 auf das Erdklima mindestens so wichtig wie die Konzentration von CO2. Warum? Wegen des Sättigungseffekts, der oben beschrieben wurde.

Aber das Hauptergebnis besteht in der Bestimmung des Effekts auf das Erdklima, der von einer Verdoppelung der CO2-Konzentration in der Atmosphäre von 400ppm auf 800ppm ausgehen würde. Eine solche Verdoppelung treibt den Klimahysterikern die Panik in die Augen, denn es ist ein Ausmaß, bei dem sie die eigene Verdampfung erwarten. Aber, nichts dergleichen stellt sich ein:

Im Wesentlichen zeigt diese Abbildung für CO2 eine Sättigung. Happer und Wijngaard schreiben dazu:

“The saturations of the abundant greenhouse gases H2O and CO2 are so extreme that the per-molecule forcing is attenuated by four orders of magnitude with respect to the optically thin values. Saturation also suppresses the forcing power per molecule for the less abundant greenhouse gases, O3, N2O and CH4, from their optically thin values, but far less than for H2O and CO2.”

Der Einfluss von jedem weiteren emittierten Molekül CO2 auf die Erwärmung der Erde wird um den Faktor 104 abgeschwächt, mit anderen Worten, wir können Kohle, Gas und Öl nach Lust und Laune verbrennen, denn der Effekt weiterer CO2-Moleküle auf die Erderwärmung ist fast nicht mehr vorhanden, denn die Atmosphäre ist gesättigt.

Die Arbeit von Happer und Wijngaard, die wir hier vorgestellt haben, wird von Fachverlagen nicht gedruckt, sie wird vorhersehbar von MS-Medien, den Legitimationswissenschaftlern des IPCC oder der nationalen Regierungen, die die Klimahysterie ausnutzen wollen, um mehr Kontrolle über ihre Bevölkerung zu erreichen, nicht thematisiert werden. Wir haben uns entschlossen, den Preprint von Happer und Wijngaard vollständig zu veröffentlichen. Wer weiß, wie lange er noch auf arxiv zu bekommen ist.



Wichtige Studien, die Ihnen Leitmedien vorenthalten, finden Sie bei ScienceFiles.

ScienceFiles lebt von Spenden.

Bitte unterstützen Sie unseren Fortbestand als Freies Medium.
Vielen Dank!



Folgen Sie uns auf TELEGRAM


Bleiben Sie mit uns in Kontakt.
Wenn Sie ScienceFiles abonnieren, erhalten Sie bei jeder Veröffentlichung eine Benachrichtigung in die Mailbox.




Horst-Joachim Lüdecke: Energie und Klima – Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung.

Autor

Horst-Joachim Lüdecke ist pensionierter Professor für Physik, als Klimaforscher (Mit-)Autor zahlreicher internationaler Publikationen in begutachteten Fachjournalen und Autor einiger populärwissenschaftlicher Bücher. Auch durch Vorträge und Anhörungen in Parlamenten ist er bekannt geworden. Wer ihn noch nicht kennt (was hier selten sein dürfte), findet Einzelheiten hier.

Charakteristik und Stil

Im vorliegenden Buch hinterfragt der Autor das gängige mediale Narrativ zum anthropogenen CO2 als Hauptursache des aktuellen Klimawandels und damit verbunden die deutsche Energiepolitik. Auf nur 221 Seiten mit 33 Abbildungen bringt er dabei nahezu Unglaubliches fertig: Der Text ist so komprimiert geschrieben und gespickt mit Fakten, dass man als Leser mit fortschreitendem Kenntnisstand bei wiederholtem Lesen immer wieder Neues entdeckt. Gleichzeitig liest er sich, auch für thematische Neulinge, flüssig und (scheinbar) leicht. Obwohl als populärwissenschaftliches Buch konzipiert, weicht der Autor der Komplexität des Gegenstandes nicht aus und erliegt nie der Gefahr, unzulässig zu vereinfachen.

Lesebeispiel: Kapitel 1.1., Ausganglage, S. 11f.

„Bereits leicht zugängliche Fakten zeigten somit an, dass die Grundlagen der Klimafurcht fragwürdig sind. Über problemlos Nachprüfbares, wie Überschwemmungshöhen von Flüssen und Extremwetter-Statistiken, besteht weitgehende Unkenntnis in der Öffentlichkeit und den Redaktionsstuben der Medien. Wie sieht es aber dann erst bei komplexeren Sachverhalten aus? Ist menschgemachtes CO2wirklich klimaschädlich? Beantworten wir diese Frage einmal hilfsweise mit „Ja“. Dann schließt sich die Folgefrage an, ob Deutschlands kostspielige CO2-Vermeidungsmaßnahmen überhaupt global spürbar sein können. Unser Weltanteil von etwa 2% aller menschgemachten CO2-Emissionen ist  vernachlässigbar, und von den maßgebenden Verursachern, wie beispielsweise China hört man außer wohlfeilen politischen Beteuerungen nichts Substantielles über CO2-Vermeidungsmaßnahmen. Und weiter: Kann man das sich naturgesetzlich stets wandelnde Klima überhaupt schützen? Welche Klimazone von polar bis tropisch bedarf des stärksten Schutzes? Was sagen unabhängige Klimafachleute dazu? Gibt es hier einen ähnlichen Konsens über die Klimaschädlichkeit des menschgemachten CO2wie in Politik und Öffentlichkeit?“

Dem wissenschaftlichen Anspruch wird er nicht nur durch differenzierte, relativierende Formulierungen, sondern vor allem durch 320 Quellen und ein sorgfältig aufbereitetes Literaturverzeichnis gerecht. Theoretische und praxisnahe Abschnitte wechseln einander ab.

Daneben handelt es sich um einen der ganz seltenen naturwissenschaftlichen Texte, die schon rein sprachlich ein Genuss sind. Grammatisch und etymologisch anspruchsvolle Passagen werden gewürzt mit Humor, Sarkasmus und manchmal auch etwas Polemik. Einmal begonnen, kann man das Buch kaum noch aus der Hand legen.

Inhalt und Aufbau

Anstelle einer Zusammenfassung, die wegen der schon erwähnten Inhaltsdichte kaum mehr möglich ist, hier das Inhaltsverzeichnis Inhalt.

Entgegen der Behauptung auf Wikipedia – die man insofern als üble Nachrede bezeichnen muss – ist der Autor ist kein „Klima(wandel)leugner“. Weder streitet er ab, dass Klima sich wandelt, noch dass der Mensch einen Anteil daran haben kann, noch dass CO2 ein Treibhausgas ist. Allerdings widerlegt er mit klaren Argumenten, durch zahlreiche nachprüfbare Quellen belegt, die derzeit in den Medien immer wiederkehrenden „Mythen“ zum Klimawandel, z.B.:

  • Noch nie war es so warm wie heute.
  • Noch nie hat sich die Erde so schnell erwärmt wie heute.
  • Extremwetter (z.B. Dürren, Hurrikanes) nehmen im Zuge des Klimawandels zu.
  • Durch den Klimawandel sterben Korallen, die Natur gerät aus dem Gleichgewicht.

u.a.

Der erste Teil des Buches beschäftigt sich neben diesen Themen mit der Klimageschichte der Erde und mit theoretischen und empirischen Zusammenhäng von CO2 und postulierten Klimafolgen (Temperaturanstieg, Meeresversauerung u.a.). Besonders unter die Lupe genommen wird die vielzitierte Korrelation zwischen anthropogenem CO2 und dem globalen Temperaturanstieg seit ca. 1850. Fazit: So einfach und monokausal, wie es uns in den täglichen Medien nahegebracht wird, liegen die Dinge nicht. Über die komplexen atmosphärischen Zusammenhänge weiß die Wissenschaft noch sehr wenig, aber Vieles, was wir täglich zu lesen oder hören bekommen, ist nachweislich falsch.

Im zweiten Teil geht es um Energie. Anliegen des Autors ist es aufzuzeigen, dass die in Deutschland eingeleitete „Energiewende“maßnahmen weder geeignet noch verhältnismäßig sind, um Klimawandel und seine postulierten Begleiterscheinungen aufzuhalten. Dass Strom nur einen kleiner Teil unserer Energie darstellt, und dass selbst dieser Teil niemals durch Wind- und Solarkraft bereitgestellt werden kann, wissen selbst viele Akademiker in Deutschland heutzutage nicht. Die Zahlen und Fakten im Buch sind geeignet, ihnen schnell und nachhaltig die Augen zu öffnen. Zahlreiche praktische Rechenbeispiele erlauben dem interessierten Leser, sich aktiv zu beteiligen.

Ein abschließendes Kapitel bewertet nicht nur die aktuelle Klimapolitik, sondern deckt auch unlautere Aktivitäten von Wissenschaft und Medien auf. Die angeführten Belege beweisen, dass es sich dabei keineswegs um verschwörungstheoretische Behauptungen handelt.

Der Aufbau des Buches ist besonders lebendig gestaltet durch einführende Überblicke zu Beginn der Kapitel, in denen der Leser schon neugierig gemacht wird auf die spätere systematische Darstellung, die Auflockerung der detailreichen Theoriekapitel durch Bilder und Rechenbeispiele, und abschließende Zusammenfassungen und Rückverweise.

Lesebeispiel, einführender Überblick: Kapitel 2, Klima, S. 21.

„Der verheerende Hurrikan Katrina hatte Ende August 2005 die Stadt New Orleans im Süden der USA schwer geschädigt, wobei die nächsten Jahre keine schweren Stürme in New Orleans mehr vorkamen. War Katrina ein Klimaereignis? Die Antwort lautet „Nein“. Es wäre ein Klimaereignis gewesen, wenn in den gesamten 30 Jahren vor Katrina die Hurrikan-Häufigkeit oder -Stärke zugenommen hätten. Dies war aber nicht der Fall (s. unter 2.3.1).“

Lesebeispiel, praktische Rechnung: Kapitel 3, Energie, S. 149:

„Unter 3.3 haben wir die Leistung beim Betanken eines einzigen Benzinautos berechnet, es waren 6,1 MW! Dies entspricht der realen mittleren Jahresleistung von vier200 m hohen E126 [Windkraftanlagen]! Welcher Kunde an einer Tankstelle mag sich dies beim Tanken wohl vorstellen?“

Lesebeispiel, abschließende Zusammenfassung: Kapitel 2, Klima, S. 111ff.

„2.8   Diskussionen von Klimarealisten mit Klimawarnern?

[…] Diskutiert man dagegen mit Leuten, die es mit Informationsgewinn ernst meinen und sich einer vernünftigen Diskussion nicht verschließen, erscheinen nur die einfachsten und möglichst faktennahen Argumente hilfreich. […] Hier daher die nach Auffassung des Buchautors zehn wichtigsten und einfachsten Kernargumente, die den Behauptungen der Klimawarner entgegengesetzt werden könnten:

  1. Klimawarner: „Klimaschutz“ ist die größte aktuelle Herausforderungder Menschheit.

    Klimarealist: „Klima ist […]“

Und was fehlt in dem Buch? Bei allem Enthusiasmus geht eine Besprechung nicht ohne Kritik ab. Im vorletzten Kapitel „Hintergründe des Klima-Aktivismus“ diskutiert der Autor als politische Motivation die so genannte große Transformation. Hier hätten aber auch wirtschaftliche Motive all jener Kapitalgeber und Industrien genannt werden können, die seit Beginn der Klimadiskussion in den 1980er Jahren zunehmend in propagierte Technologien investiert haben. Außerdem würde man sich zum schnellen Nachschlagen, z.B. in Diskussionen, einen Index wünschen.

Was ist neu?

Gegenüber den vorherigen Auflagen hat der Autor den Aufbau des Buches grundlegend verändert. Obwohl sich schon die vorigen Auflagen gut lasen, fällt hier die deutlich systematischere inhaltliche Gliederung der Abschnitte auf. Außerdem wurden inhaltliche Schwerpunkte verschoben. Während zum Thema Energie die Kernkraft inzwischen in einem eigenen Buchbehandelt wird und somit hier kaum noch zu finden ist, sind zum Thema Klima weitere interessante Details hinzugekommen, z.B. zur Klimasensitiviät von CO2 (Bild 18) oder zu den Klimamodellen des IPCC (Bild 19). Zudem sind alle Daten aktualisiert und zahlreiche aktuelle Literatur, insbesondere kritisierte Mediendarstellungen, neu eingefügt worden.

Für wen lohnt sich der Kauf?

Klare Antwort: Für alle. Jedenfalls für alle, die …

… eine der früheren Auflagen bereits gelesen haben und ihre Kenntnisse auffrischen und ergänzen wollen,

… die bisher ahnungslos dem gängigen Medien-Narrativ geglaubt haben,

… die der Politik vertrauen und misstrauisch sind gegenüber den „Verschwörungstheorien der Klimaleugner“ – jedenfalls wenn sie sich einen Rest gesunder Neugier und Misstrauen gegen sich selbst bewahrt haben.

Nur blinde Ideologen können sich den Geld- und Zeitaufwand wohl sparen.

Nach meiner eigenen Erfahrung im (akademisch gebildeten) Bekanntenkreis war das Buch von Professor Lüdecke bisher das am besten geeignete, um Menschen aus dem „Tal der Ahnungslosigkeit“ herauszuhelfen.

Diepositive Besprechung, die Konrad Kleinknecht, ehemaliges Vorstandsmitglied der Deutschen Physikalischen Gesellschaft, zur ersten Auflage im Physik Journal verfasst hatte, kann auch für die Neuauflage als Nachweis der wissenschaftlichen Seriosität und Werbung gelten. Das ist umso wichtiger, als – wie viele Leser wissen, und wie es auch im Buch thematisiert wird – der Autor und zahlreiche Buchinhalte, z.B. zum angeblichen wissenschaftlichen Konsens im Kapitel 3.5.3, Opfer medialer Zensur und unsachlicher Verunglimpfung geworden sind, z.B. auf Wikipedia (s.o.). Aus diesem Grund lege ich, wenn ich das Buch an „Neulinge“ verschenke, immer eine Kopie der Kleinknecht-Besprechung bei. (Gleichermaßen kann das dem Buch vorangestellte Geleitwort des Mathematikers und CDU-Bundestagsabgeordneten Arnold Vaatz dazu dienen, misstrauische Zeitgenossen, die sich kein eigenes Urteil zutrauen, von der Seriosität zu überzeugen.)

Buch:

Lüdecke, Horst-Joachim (4. überarbeitete Auflage 2020). Energie und Klima. Chancen, Risiken und Mythen. Tübingen: expert Verlag. 221 Seiten, 320 Quellen, 33 Abbildungen.

Zu bestellen hier oder hier.

 

Weitere Quellen:

Kleinknecht, K. (2013). Kampf um Strom + Energie und Klima. Physik Journal 12 (2013) Nr. 8/9, S. 86-87. https://www.pro-physik.de/restricted-files/91316




Wie Klimadaten in den USA manipuliert werden – Erwärmung statt Abkühlung?

https://realclimatescience.com/

Die * „National Oceanic and Atmospheric Administration“ NOAA ist die Wetter- und Ozeanografie­behörde der Vereinigten Staaten. Sie wurde am 3. Oktober 1970 als eine Einrichtung des Handelsministeriums gegründet, um die nationalen Ozean- und Atmosphärendienste zu koordinieren. Ihr Sitz ist die Bundeshauptstadt Washington.

Heller zeigt, wie die Klimatologen in den USA mit Hilfe des „Beobachtungszeitraum-Fehlers“ eine Abkühlung der USA nach 1960 in eine Erwärmung ummünzen, um das klimapoltische CO2-Narrativ zu unterstützen.


 

 




„Wir sind dümmer geworden“ -Medien setzen Rekordkälte mit globaler Erwärmung gleich

Die New York Times zum Beispiel berichtet auf ihrer Website über die Gefahren von Frostbeulen im Winter, einschließlich eines reißerischen Artikels , der die Rekordhitze in Australien und die Rekordkälte in den USA als zwei Seiten der globalen Erwärmung bezeichnet.

„Ganz allgemein erlebt ein heißer Planet extremes Wetter häufiger und intensiver“, heißt es in dem Artikel der Times, in dem er vor dem „Zeitalter der Wetterextreme“ gewarnt wird.

Auch die Chicago Times, Axios, The Washington Post und andere verbreiten die Theorie, dass die globale Erwärmung den Jet-Stream schwächte, so dass der „Polarwirbel“ nach Süden wandern und Rekordkälte bringen konnte.

(Bill Nyes, [ein bekannter Alarmist] entwarf apokalyptische Szenarien für die ultimativ stattfindende globale Erwärmung: „Die USA müssen ihr Gemüse in Kanada anbauen“)

Viele Experten halten dies nicht für richtig und sagen, es sei ein Hype der Klimamedien. Tatsächlich werden Wetterereignisse, die früher als üblich angesehen wurden, nunmehr der globalen Erwärmung zugeschrieben, die sich über Jahrzehnte abspielt und in Trends gemessen wird, und nicht in kurzfristigen Wetterschwankungen.

Sehen Sie hier das Original auf Twitter

“Klimawandel“ bezog sich einst auf Statistiken, die das gemessene Wetter über Jahrzehnte hinweg zusammengefasst hatten“, bemerkte Roger Pielke Jr, Professor der University of Colorado, auf Twitter.

Heutzutage wird Klimawandel meist als ursächlicher Faktor bei der Zuordnung von Ereignissen über Stunden, Tage oder Wochen verwendet“, sagte Pielke. „Wir sind dümmer geworden.“

 

Literaturausschnitte

Diese zweite Art von Verwirrung liegt sichtbar vor, wenn der Ausdruck „Klimawandel“ selbst als kausaler Faktor verwendet wird. Kommt es beispielsweise zu einem ungewöhnlichen [in einem maximalen Zeitraum von drei Jahren, Meinung des Übersetzers] Ereignis, wird in vielen Medienberichten unweigerlich gefragt: Hat der Klimawandel dieses Ereignis verursacht?

Diese Frage ist von Natur aus unsinnig.

[Der Rest beschreibt am Beispiel eines Baseballspielers, dessen durchschnittliche Performance für sich keinen Grund darstellt, welche Leistung er heute auf dem Platz zeigt]

Unglücklicherweise, drehen sich viele Diskussionen im Kreise und sind gleichermaßen inhaltsleer. Klimawandel an sich verursacht nicht mehr Wetterereignisse. Es kann angenommen werden, dass die Phrase „Klimawandel“ gleichgesetzt wird mit „Kohlenstoff Emissionen“ [und sofort mit „anthropogen“]. In dem Maße, in dem ein solcher Euphemismus in Diskussionen verwendet wird, schafft er Hindernisse für glaubwürdige Diskussionen um Beweise im Zusammenhang mit extremen Wetterereignissen

Winterwetter provoziert oft eine Flut von Artikeln darüber, warum kaltes Wetter die globale Erwärmung nicht widerlegt, aber jetzt bringt die Kälte „Wissenschaftler“, Aktivisten und Experten hervor, die behaupten, dass Erwärmung hinter der Kälte steckt. Sogar Greenpeace-Aktivisten machten mit, hier ist es Mike Hudema:

Sehen Sie hier das Original auf Twitter

Klimawandel bedeutet schwere Hitze, Wirbelstürme, Brände und Luftströmungen und auch extreme Kälte #cold.

Wir spüren bereits die Auswirkungen der #climate Krise. Werden wir etwas dagegen unternehmen? #ActOnClimate #energy #cdnpoli #PolarVortex #Renewables #GreenNewDeal #PanelsNotPipelines

Ergibt das einen Sinn? Natürlich nicht, und viele Wissenschaftler haben darauf hingewiesen.

„Ehrlich gesagt, ist es ein langer, verschwurbelter Weg, um eine solche Verbindung herzustellen“, sagte Kevin Trenberth, Klimaforscher am Nationalen Zentrum für Atmosphärenforschung.

„Über der Arktis ist in einer Polarnacht immer kalte Luft. Die Frage ist, ob sie dort bleibt oder weiterwandert“, sagte Trenberth. „Das alles liegt im Bereich des Wetters. Das ist kein Klima. “

Mehrere Studien haben eine Korrelation und sogar eine Verbindung zwischen der Erwärmung der Arktis und dem Wetter in der mittleren Breite gefordert, einschließlich einer im Jahr 2018 veröffentlichten Studie, in der festgestellt wurde, dass Kälteeinbrüche wahrscheinlicher sind, wenn die Arktis ungewöhnlich warm ist .

Diese Studie litt jedoch unter gravierenden Mängeln, dh. es wurden weder Hypothesen geprüft noch wurde versucht, eine Kausalität zwischen der globalen Erwärmung und den Kälteeinbrüchen festzustellen. Auch die offiziellen Datensätze der Regierungsorganisationdeuten deuten auf weniger Kälteeinbrüche hin, nicht auf mehr.

Gefunden auf The Daily Caller News Foundation vom 30.01.2019

Übersetzt durch Andreas Demmig

https://dailycaller.com/2019/01/30/media-global-warming-polar-vortex/

 




Mojib Latif: Drei Aussagen, drei Mal voll daneben

AUSSAGE 1:

Mojib Latif am 4. Dezember 2012 in der Talkshow “Pelzig hält sich“:

„Eins will ich ja auch nochmal sagen. Ich wäre ja froh, wenn es die Sonne wäre. Dann könnten wir ja nichts tun. Ja, aber das ist es nicht. Wenn Sie sich die Sonnenstrahlung angucken, seit 50 Jahren ist die Sonne schwächer geworden. Und wie soll eine schwächer werdende Sonne eigentlich eine massive Erwärmung verursachen?“

Falsch. Die Sonne ist in den letzten 50 Jahren in Wahrheit stärker geworden, wenn man die Total Solar Irradiance (TSI) (weiße Kurve im Diagramm) berücksichtigt, die auch die kosmische Strahlung bzw. das Sonnenmagnetfeld mit einbezieht.

Abbildung: Entwicklung der Sonnenaktivität während der vergangenen 400 Jahre. Weiße Kurve zeigt solare Gesamtstrahlung (Total Solar Irradiance, TSI), gelbe Ausschläge markieren Sonnenflecken. Quelle: PAGES2K-Webseite, heruntergeladen im März 2016.

———–

AUSSAGE 2:

Mojib Latif am 4. Dezember 2012 in der Talkshow “Pelzig hält sich“:

„Ja, das kann man ja alles quantifizieren. Das ist natürlich eine glatte Lüge, wenn behauptet wird, dass wir die Sonne nicht mit berücksichtigen. Es gibt kein Klimamodell, dass die Sonne nicht mitberücksichtigt. Ich meine wir sind ja keine Deppen. Hier wird ja irgendwie der Eindruck erweckt, als wenn wir die größten Vollidioten aller Zeiten sind. So ist es ja nicht.“

Falsch, Herr Latif. Ein Blick auf den Strahlungsantrieb im 5. IPCC-Klimazustandsbericht reicht aus, um zu sehen, dass die Sonne in den Modellen nahezu keinen Einfluss hat. CO2: 1,68 W/m2, Sonne: 0,05 W/m2. Die Sonne spielt damit praktisch keine Rolle.

 

Abbildung: Strahlungsantrieb der einzelnen Klimafaktoren laut 5. IPCC-Bericht. Die Sonne spielt praktisch keine Rolle beim IPCC.

———–

AUSSAGE 3:

Mojib Latif im Interview mit der Neuen Osnabrücker Zeitung (NOZ) am 12. September 2012:

NOZ: Herr Latif, trägt eher die Sonne zur Erderwärmung bei oder das Treibhausgas Kohlendioxid, CO2?

LATIF: Es ist ein Mix aus beidem. Klar ist, dass der Mensch über die Hälfte des Temperaturanstiegs seit Beginn der Industrialisierung zu verantworten hat.

Zuvor hatte Latif der österreichischen Zeitung ‚Die Presse‘ (DP) am 9. Februar 2012 das Folgende gesagt:

DIE PRESSE: Zurück zur bisherigen Erwärmung, 0,8 Grad seit 100 Jahren. Für Vahrenholt kommt die Hälfte von der Sonne. Und beim IPCC kommt alles vom CO2?

LATIF: Nein, das hat der IPCC nie gesagt, er ist sehr vorsichtig und sagt, dass etwa die Hälfte der Erwärmung anthropogen ist.

DIE PRESSE: Dann sagt er das Gleiche wie Vahrenholt?

LATIF: Ja, das ist es ja, was mich wahnsinnig macht: Da wird ein Popanz aufgebaut und dann genüsslich zerrissen.

Wieder liegt Latif falsch. Hier genügt ein Blick in den neuen Spezialbericht des IPCC zum 1,5-Grad-Ziel:

Den langfristigen Erwärmungstrend seit vorindustriellen Zeiten widerspiegelnd, lag die beobachtete mittlere globale Oberflächentemperatur in dem Jahrzehnt 2006–2015 um 0,87 °C(wahrscheinlich zwischen 0,75 °C und 0,99 °C) höher als der Durchschnitt für den Zeitraum 1850–1900 (sehr hohes Vertrauen).

Die geschätzte anthropogene globale Erwärmung stimmt mit dem Ausmaß der beobachteten Erwärmung innerhalb von ±20 % (wahrscheinlicher Bereich) überein.

Oder anders ausgedrückt: Die gesamte beobachtete Erwärmung der letzten 150 Jahre ist laut IPCC anthropogen.

———–

Drei Latif-Aussagen, drei Mal voll daneben. Gilt unter diesen Umständen Latifs Kritik an der Kalten Sonne überhaupt noch? Gerne würden wir mit Mojib Latif darüber persönlich sprechen. Ist er nach seiner früheren Verweigerung zur Diskussion jetzt vielleicht gesprächsbereit? Wir hoffen auf gute klimatische Entwicklungen für 2019.

Wir wünschen allen Kalte-Sonne-Bloglesern – und natürlich auch Herrn Latif – einen Guten Rutsch ins neue Jahr.

Die EIKE Redaktion schließt sich diesem Wunsch des kalte Sonne Teams vorbehaltlos an.




Klimasensitivität –  Wer rechnet hier falsch ? 

Diese Annahme wird auch bei den Klimamodellen verwendet.  Neuere Studienergebnisse zu diesem  Thema mit einem wesentlich geringeren Anstieg wurden vom IPCC ignoriert. Wie auch jüngst wieder durch PIK Professor Anders Levermann beim öffentlichen Fachgespräch im Umweltausschuss des Deutschen Bundestages am 28.11.18.

Doch auch Prof. Marotzke (MPI) gab kürzlich zu, dass die bisherige Annahme offenbar zu hoch ist. Dies wird  durch den Vergleich des berechneten Temperaturanstieges mit der Realität der letzten 20 Jahre bestätigt. Bis heute konnte der angebliche CO2-Effekt auf die Globaltemperatur nicht durch historische Fakten belegt werden, sondern ist laut IPCC-Bericht eine Sache von „confidence“, d.h. von Glauben oder Vertrauen.

Die Milchmädchen-Rechnung, die Klima-Politiker, Journalisten und etliche Klimatologen nicht machen können oder  wollen, lautet wie folgt:

Bis zur Verdoppelung des CO2-Gehaltes von heute 400 auf 800 ppm vergehen bei den aktuellen Emissionen mit einem Anstieg von ca. 2 ppm pro Jahr noch 200 Jahre. Das bedeutet real in 100 Jahren ca. + 1,5°C – genau das, was sich Politiker bei der Pariser Konferenz so vorgestellt haben, aber ohne kostspielige und risikoreiche CO2-Verminderungsmaßnahmen.

Das international anerkannte Modtran-Programm der Atmosphärenphysik zeigt zwischen 400 und 800 ppm einen Temperaturanstieg von nur 1,7°C (anstelle von den 3°C des IPCC) mit Berücksichtigung des Sättigungseffektes, der ansonsten oft ignoriert wird. Das wäre dann in 100 Jahren nur ein Anstieg um ca. +0,85°C.

 

Tatsächlich ist aber kein weiterer Anstieg der mittleren Globaltemperatur zu erwarten, sondern das Gegenteil: sie wird in den nächsten 400 Jahren aller Wahrscheinlichkeit nach wieder um ca. 1,5°C absinken – so, wie dies schon seit 8000 Jahren regelmäßig alle 1000 Jahre der Fall war, zuletzt in der mittelalterlichen Kaltzeit (auch „ Little Ice Age“ genannt). Dieser natürliche Klimazyklus basiert auf solaren und astrophysikalischen Faktoren und kann von Menschen nicht beeinflusst werden – genauso wenig wie andere Natur-Ereignisse wie Erdbeben und Vulkanausbrüche.




Wissenschaftler: Globale Erwärmung ist vorbei, jetzt kommt Abkühlung

Einer dieser Klimaforscher ist Valentina Zharkova, Astrophysikerin an der Northumbria University im Vereinigten Königreich. Zharkova und ihr Forscherteam sagen, auf der Grundlage mathematischer Modelle der magnetischen Aktivität der Sonne, ist es wahrscheinlich, dass die Erde über einem Zeitraum von 33 Jahren abnehmende Magnetfelder erlebt, beginnend ab 2021.

[Mehr zum Thema Sonne und ihre Strahlen beim Bundesministerium für Bildung und Forschung und Zentrale für Unterrichtsmedien im Internet e. V.]

Zharkova ist nicht allein. Forscher des Physikalischen Meteorologischen Observatoriums Davos, des Eidgenössischen Wasserforschungsinstituts, der ETH Zürich und der Universität Bern haben 2017 ein Modell veröffentlicht, das eine Abkühlphase  „in 50 bis 100 Jahren“ projektiert. Zahlreiche andere Studien haben ähnliche Projektionen. Die Website NoTricksZone listet Hunderte von Peer-Reviewed-Studien [Die Sonne treibt das Klima], in denen argumentiert wird, dass Sonnenaktivität und Sonnenzyklen auf dekadischen, jahrhundertlangen und tausendjährigen Zeitskalen einen wesentlichen Einfluss auf den globalen Klimawandel haben. Einige dieser Papers untermauern sogar, dass Sonnenaktivität oft der dominierende Faktor für den Klimawandel ist.

Die Forscher sagen, dass verminderte solare magnetische Aktivität mit historisch kühlen Perioden in der Erdgeschichte in Verbindung gebracht werden konnten, wie das Maunder-Minimum, eine Periode niedriger magnetischer Aktivität, die mit der „Mini-Eiszeit“ von 1645 bis 1715 zusammenhängt. Während des Maunder-Minimums stürzten die Temperaturen so stark ab, dass die Londoner „Frostmessen“ auf der gefrorenen Themse veranstalteten.

Wegen Copyright nur hier der Link, zu Aufnahmen von niederländischen Darstellungen der “Kleinen Eiszeit” im staatlichen Museum in Berlin:
Auch sehenswert, Eiszeitbilder auf : Pinterest

Der Historiker Geoffrey Parker schrieb für die New York Times :

„In der ungewöhnlichen Kälte, die von den 1620er bis in die 1690er Jahre dauerte, war das Eis am Bosporus und an der Ostsee so dick, dass die Menschen von einer Seite zur anderen laufen konnten.“

Obwohl Zharkova sagt, dass die Genauigkeit ihres Modells bei 97 Prozent liegt, ist sie sich nicht sicher, wie einflussreich die niedrigere magnetische Sonnenaktivität sein wird, insbesondere weil man glaubt, dass es heutzutage mehr Kohlendioxid in der Atmosphäre gibt als im 17. Jahrhundert, und es gibt auch Klimaforscher, die glauben, dass höhere CO2-Werte zusätzliche Erwärmung verursachen.

Viele von denen, die überzeugt sind, dass die Menschen für die höheren globalen Temperaturen verantwortlich sind, die im vergangenen Jahrhundert aufgezeichnet wurden, haben sie bereits begonnen, Zharkova und andere abzutun, die sagen, dass die globale Temperatur sich aufgrund der Sonnenaktivität bald abschwächen könnte. Michael Mann , Professor an der Pennsylvania State University, der den widerlegten „Hockeyschläger-Graphen“ kreierte, sagte der Washington Post in 2015, dass der Effekt der geringeren Sonnenaktivität im Vergleich zu den Kohlendioxidemissionen „ein Tropfen auf den heißen Stein“ wäre.

Wenn Mann und andere CO2 – Warmisten, falsch liegen und mit einer geringeren Sonnenaktivität sich auch das Klima abkühlt, dann könnten diese Ergebnisse katastrophal für die Kreuzzüge des Klimawandels in der Democratic Party, den Vereinten Nationen und anderen Ländern sein, die unbedingt CO2-Emissionsbeschränkungen, Strafen oder beides verhängen wollen –  das schließt alle auf der Welt ein, auch Sie. Eine Abkühlung würde nicht nur praktisch jedes einzelne Klimamodell unterminieren, welches auf eine stetige Erwärmung im nächsten Jahrhundert getrimmt ist, sondern es würde auch zeigen, wie schlecht die Mainstream-Klimawissenschaft geworden ist. Wenn Klimaaktivisten noch nicht einmal eine 33-jährige Abkühlungsdauer aufgrund der Sonnenaktivität nicht genau vorhersagen können, wieso sollte man dann darauf vertrauen, dass sie die globale Temperatur für 100 Jahre in der Zukunft vorhersagen können?

Im Gegensatz zu den schrecklichen Warnungen, die regelmäßig von linken Zeloten und Politikern wie Sen. Bernie Sanders (I-VT) ausgegeben werden, ist die Debatte über Ursachen und Folgen des Klimawandels noch immer sehr lebendig. Ironisch wäre es, wenn Zharkovas Theorie der reduzierten Sonnenaktivität sich als zutreffend erweist und Befürworter der Theorie, dass Menschen für den Klimawandel verantwortlich sind, darin Recht haben, das auch die Menschheit etwas zur Erderwärmung beiträgt.

Wenn die Klimaalarmisten Recht hätten, dann müsste der Planet heute viel kühler sein als er es ist, wenn der Mensch nie größere Mengen CO2 produziert hätte. Das bedeutet, dass die Kühlung, die sich aus der verringerten Sonnenaktivität ergibt, theoretisch ohne die CO2-Emissionen der Menschen viel extremer wäre. Das ist unglaublich wichtig, weil kühlere globale Temperaturen in der Vergangenheit tödlichere Lebensbedingungen für Menschen, Pflanzen und Wildtiere bedeutet hätten.

Wie Parker in der Times bemerkte:

Die tiefe Kälte in Europa und extreme Wetterereignisse [während der letzten kleinen Eiszeit] führten zu einer Reihe von Dürren, Überschwemmungen und Ernteausfällen, die zu erzwungenen Wanderungen, Kriegen und Revolutionen [und zur Inquisition und Hexenverfolgung] führten.“

Die angesehene akademische Zeitschrift The Lancet veröffentlichte 2015 eine Studie, in der Gesundheitsdaten aus 13 Ländern berücksichtigt wurden. Die Untersuchung von 74 Millionen Todesfällen ergab, dass kaltes Wetter indirekt oder direkt 1.700 Prozent mehr Menschen tötet als warmes Wetter. Dies deutet stark darauf hin, dass, selbst wenn Menschen dafür verantwortlich sind, das globale Klima wärmer zu machen, sie in den nächsten 30 bis 40 Jahren viel besser dran sein werden, als sie es sonst in einem kälteren Klima wären, vorausgesetzt, Zharkovas Theorie ist richtig.

Zusätzliche Beweise zeigen auch, dass das wärmere Klima, über das Umweltaktivisten ständig lamentieren, zahlreiche Vorteile hat. Eine Studie, die im Jahr 2017 veröffentlicht wurde, fand rund 5 Mio km² Wälder, die bisher nicht gezählt wurden [Fläche der 28 EU-Mitgliedsländer 4,3 Mio km²], was laut Patrick Michaels vom Cato Institute ein starker Beweis dafür ist, dass die Erwärmung eine signifikante Ökologisierung verursacht hat.

In 2016 wurde in Nature Climate Change eine Untersuchung veröffentlich, dass es von 1982 bis 2009 eine erhöhte Begrünung gab, in 25-50 Prozent des globalen Vegetationsbereiches, während nur 4 Prozent des Vegetationsbereiches eine Dürre (Bräunung) erlebte. Die Forscher schätzen, dass 70 Prozent der Begrünung auf höhere Kohlendioxidemissionen zurückzuführen sind.

Wenn eine globale Abkühlperiode stattfinden würde, wie würden Klimaalarmisten reagieren? Wahrscheinlicher eher gar nicht, indem sie vorschlagen, dass die Abkühlphase der Menschheit die letzte Chance bietet, die Katastrophe der globalen Erwärmung abzuwenden, indem sie radikalere Energiepolitiken wie CO2-Handelssysteme oder CO2-Steuern anwendet.

Zharkova schlug dies im Dezember in einem Interview mit Sky News vor.

„Ich hoffe, dass die globale Warnung durch diesen Effekt [geringere solare magnetische Aktivität] außer Kraft gesetzt wird und der Menschheit und der Erde 30 Jahre Zeit gibt, um unsere Verschmutzung zu beseitigen. Wir müssen uns in dieser Zeit sammeln und alles auf der Erde für die nächste große Sonnenaktivität vorbereiten“.

Wenn Klimawissenschaftler nur halb so viel Zeit und Energie darauf verwenden würden, zu lernen mit einem sich verändernden Klima zu leben, anstatt zu versuchen, Vorhersagen darüber zu machen, was mit dem Klima der Erde in hundert Jahren sein könnte, wären wir alle viel besser dran. Natürlich gäbe es dann weniger dringende „Krisen“ und damit weniger Möglichkeiten, weit reichende Gesetze zu begründen, die jeden Aspekt des Lebens der Menschen kontrollieren.

Und das können wir sicher nicht, oder?

[hier bin ich mir nicht sicher, wie das gemeint ist: … dass die Wissenschaftler sich um Anpassung bemühen und weniger alarmistische Warnungen ausgeben – oder weniger knebelnde Gesetzgebung? – der Übersetzer]

Justin Haskins ist Chefredakteur und wissenschaftlicher Mitarbeiter und H. Sterling Burnett, Ph.D., ist Senior Fellow, beide am Heartland Institute.

Gefunden auf AmericanThinker vom 23. Oktober 2018

Übersetzt durch Andreas Demmig

https://www.americanthinker.com/articles/2018/10/why_some_scientists_say_global_warming_is_out_and_global_cooling_is_in.html#ixzz5VKK1D85U 

 

Hinweis:

Die Einwirkung kosmischer Strahlen und ihre Auswirkung auf das Wettergeschehen der Erde, ist Forschungsthema von Prof. Dr. Henrik Svensmark, hier auf Eike schon öfter vorgestellt – und Gastredner auf der 12. Internationalen Klima- und Energiekonferenz in München




Ex-Beatle bekämpft die Klimaerwärmung mit veganer Kost

„Es ist nicht die totale Lösung, aber es ist Teil der Lösung„, sagte Sir Paul McCartney Reportern in einem Interview. Fleischlos hilft die globale Erwärmung zurückzudrängen. Aktivisten haben diese Position seit Jahren gestärkt, fügte er hinzu, aber Leute wie Trump machen es schwierig.

„Besonders wenn jemanden wie Trump sagt, dass der Klimawandel nur ein Schwindel ist“, sagte McCartney, 75, über Kommentare, die der Präsident einst über die globale Erwärmung äußerte. In dem Interview wurde ein Kurzfilm des ehemaligen Beatles gezeigt, in dem die Leute ermutigt wurden, eine Woche lang auf tierische Produkte zu verzichten.

„Viele Leute wie ich denken, das ist nur verrückt, also ist es vielleicht jetzt eine gute Zeit, um die Aufmerksamkeit der Leute zu bekommen und zu sagen:“ Schau, vergiss Trump, wir können selbst etwas tun „.

Umweltschützer haben schon länger versucht, Schulen und andere Institutionen zu veranlassen, von Fleischgerichten in Richtung Tofu umzustellen. Schulen aus Kalifornien schlossen sich Anfang dieses Jahres mit der Umweltgruppe Friends of the Earth (FOE) zusammen, um Kindern ein Mittagsmenü zu  geben, das darauf  ausgelegt ist, Nahrungsmittel zu eliminieren, von denen gesagt wird, dass sie für unseren Planeten „nicht nachhaltig sind“.

Die neue Speisekarte bietet weit weniger Fleisch und mehr pflanzliche Lebensmittel. Jedes Fleisch oder jeder Käse, den die Schule verwendete, stammte von „weidenden, ökologischen Milchkühen“. Die Mittagskarte der Schüler reicht von der Pepperoni-Pizza über veganen Tofu und vegane Tostadas.

Erschienen auf The Daily Caller am 06.11.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/11/06/paul-mccarthy-gong-vegan-is-the-best-way-to-get-back-at-trumps-climate-madness/




Die Gesetze der Mittelwerte: Teil 3, Der durchschnittliche Durchschnitt

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2 [Teil 2 hier übersetzt] werfen, bevor Sie fortfahren.

 

Warum ist es eine mathematische Sünde, eine Reihe von Durchschnittswerten zu mitteln?

„Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

„Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte „zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis: NEIN!)

Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist, aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „- siehe Wiki.de “Simpsons Paradox

Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von Patienten, die gleiche Anzahl von Meinungen und, wie bei allen Durchschnittswerten, sind die Daten selbst physisch und logisch homogen (nicht heterogen) und physisch und logisch kommensurabel (nicht inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1]

Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30 Schüler gehören und wollte nun die durchschnittliche Größe der Schüler finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die Ergebnisse sind gleich.

Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben: 30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann durch 150 teilt.

Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20 Schülern und die einzelnen Schüler der Klasse von 60 Schülern unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil des Gesamtdurchschnitts repräsentieren [0,66 = 1/150].

Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für 25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für 0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im Durchschnitt gleichberechtigt ist.

Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in diesen Abschnitt vorgestellt wurden. (Hier und hier)

Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:

Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise, bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro-Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem Rechenweg und acht Landkreise liegen unter dem Durchschnitt.

Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen basieren, die im Bereich der einstelligen oder sogar Bruchteilen von Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad.

Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C) beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert. (0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und 0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie. [Kann man diesen Unterschied merken? – der Übersetzer]

Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein

 

Ähnlich, aber nicht identisch, das ist Simpsons Paradox.

Simpsons Paradox

Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen, das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten) auftritt, oft in medizinischen Studien und verschiedenen Zweigen der Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten) kombiniert werden.

Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern.

[Die 1868 gegründete University of California, Berkeley, gehört zu den renommiertesten Universitäten der Welt.]

Hier erklärt es einer der Autoren:

„Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt, weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen zeigen.

UCB Bewerber
Applicants
Zugelassen
Admitted
Männer 8442 44%
Frauen 4321 35%

Statistischer Beweis für die Anklage (Tabelle abgetippt)

Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für Frauen zu haben.“

In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle Fachbereiche hinweg keine informative Sicht auf die Situation.

Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die wahre Geschichte finden sie hier.

Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt erreichte.“

Diese Tabelle zeigt das Paradox:

In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag – Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter [auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik. Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden.

 

Klimatologie

In der Klimatologie tendieren die verschiedenen Gruppen die Daten über längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter die verschiedenen Methoden gewichten und ihre Methoden verteidigen.

Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage hervorbringt, die sie dann einfach als die globale durchschnittliche Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen, monatlichen und jährlichen Durchschnitten an – aber das sind keine echten Mittelwerte…. mehr dazu später.

Ein anderer Experte mag behaupten, dass sie definitiv keine Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] -Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“ bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien „gedurchschnittet“ (gemittelt).

Die Anomalien können oder können nicht, je nach Berechnungssystem, tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)]. Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen.

Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das arithmetische Mittel der niedrigsten und höchsten aufgezeichneten Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen, auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo und den Hi summiert und durch zwei teilt.

 

Macht das einen Unterschied? Das ist eine heikle Frage.

Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent zu bleiben, so macht man es auch heute noch.

Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN: 64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf Minuten eine Temperaturablesung. Der Datensatz enthält Werte für „DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von „DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die „DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser letzte Wert wird in der Klimatologie als die tägliche durchschnittliche Temperatur verwendet. Für einen typischen Dezembertag sehen die aufgezeichneten Werte so aus:

Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab auf x)

Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3 F… Die Differenzen für diesen einen Tag:

Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F aufgrund des Rundungsalgorithmus.

Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten Temperaturen = 0,667 ° F

Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am 5. Januar 2016.

Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des aufgezeichneten Durchschnitts.

Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung herangezogen] – aber eher werden berechnet „wie wir das schon immer getan haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint. Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre] für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in Richtung wärmer].

Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden, um politische Entscheidungen zu beeinflussen, nicht genau berechnete, grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind. Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“ verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten der ersten Werteebene sind falsch, unpräzise, ungenau berechnet.

 

Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der übliche Chor von:

  1. Am Ende gleicht sich alles aus (tut es nicht)
  2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken)
  3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien.

Die beiden ersten Argumente sind fadenscheinig.

Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben beschriebenen Unterschiede. Der Grund für den Unterschied (außer der einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde eine „normal Verteilung“ sehen, die sich so darstellt:

Normal-oder-Standard-Verteilung

Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur – das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den Tag unterscheiden.

Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese drei Tage von Januar und Februar 2016 in Millbrook, NY:

Reale stündliche Temperaturen

Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese Tatsache. Doch in der Klimatologie werden die tägliche Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen, monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen Idee berechnet.

Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und Konsistenz.

Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo-Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen – weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen beeinflussen, die Stationsdaten als Quelle verwenden.

Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt quantitativ – sowohl die Werte als auch die Größen der Effekte werden für verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische Manipulation oder durch Reduzierung der Stationsdaten zu Anomalien nicht vermieden werden.

Alle Anomalien, die durch Subtrahieren von klimatischen Durchschnittswerten von aktuellen Temperaturen abgeleitet werden, werden uns nicht mitteilen, ob die durchschnittliche absolute Temperatur an einer Station steigt oder fällt (oder um wie viel). Es wird uns nur sagen, dass der Mittelwert zwischen den täglichen Hochtemperaturen steigt oder fällt – was etwas ganz anders ist. Tage mit sehr niedrigen Tiefs für eine Stunde oder zwei am frühen Morgen gefolgt von hohen Temperaturen für die meiste Zeit des restlichen Tages haben die gleichen Max-Min Mittelwerte wie Tage mit sehr niedrigen Tiefs für 12 Stunden und eine kurze heiße Spitze am Nachmittag. Diese beiden Arten von Tagen, haben nicht die gleiche tatsächliche durchschnittliche Temperatur. Anomalien können den Unterschied nicht erhellen. Ein Klimawandel von einem zum anderen wird in Anomalien nicht auftauchen. Weder noch würde die Umwelt von einer solchen Verschiebung stark betroffen sein.

 

Können wir etwas erfahren, aus der Nutzung dieser ungenauen „täglichen Durchschnittswerte“ und alle anderen von ihnen abgeleiteten Zahlen?

Es gibt einige die in Frage stellen, dass es tatsächliche eine globale durchschnittliche Oberflächentemperatur gibt. (Siehe „Gibt es eine globale Temperatur?“)

Auf der anderen Seite, formulierte Steven Mosher in seinem Kommentar kürzlich so treffend:

Sind abgeleitete Temperaturen bedeutungslos?

Ich denke, dass es schlecht ist, wenn Alarmisten versuchen, die kleine Eiszeit und die Mittelalterliche Warmzeit zu löschen … WUWT wird die ganze Geschichte leugnen wollen. Die globale Temperatur ist vorhanden. Es hat eine genaue physikalische Bedeutung. Es ist diese Bedeutung, die uns erlaubt zu sagen …  Die kleine Eiszeit war kühler als heute … es ist die Bedeutung, die es uns erlaubt, zu sagen, dass die die Tagseite des Planeten wärmer ist als die Nachtseite … die gleiche Bedeutung, die uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und dass Merkur wärmer ist.

Was ein solcher globaler Mittelwert, basierend auf einen fragwürdigen abgeleiteten „Tagesdurchschnitt“, uns nicht sagen kann, ist oder war es in diesem Jahr ein Bruchteil eines Grades wärmer oder kühler?

Der Berechnungsfehler – der Messfehler – der am häufigsten verwendeten Station der täglichen durchschnittlichen Durchschnittstemperatur ist in der Größe gleich (oder nahezu gleich groß) wie die langfristige globale Temperaturänderung. Die historische Temperaturaufzeichnung kann nicht für diesen Fehler korrigiert werden. Moderne digitale Aufzeichnungen würde eine Neuberechnung der Tagesmittelwerte von Grund auf neu erfordern. Selbst dann würden die beiden Datensätze quantitativ nicht vergleichbar sein – möglicherweise nicht einmal qualitativ.

 

Also, „Ja, es macht was aus“

Es ist sehr wichtig, wie und was man mittelt. Es macht was aus, den ganzen Weg nach oben und unten durch das prächtige mathematische Wunderland, was die Computerprogramme darstellen, die diese grundlegenden digitalen Aufzeichnungen von Tausenden von Wetterstationen auf der ganzen Welt lesen und sie zu einer einzigen Zahl verwandeln.

Es macht vor allem dann etwas aus, wenn diese einzelne Zahl dann später als Argument verwendet wird, um die breite Öffentlichkeit zu treffen und unsere politischen Führer zu bestimmten gewünschten politischen Lösungen zu bringen (~ zu zwingen), die große – und viele glauben negative – Auswirkungen auf die Gesellschaft haben werden.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

In der Klimatologie wurden und werden tägliche Durchschnittstemperaturen ungenau und unpräzise aus den täglichen minimalen und maximalen Temperaturen berechnet, die damit Zweifel an den veröffentlichten globalen durchschnittlichen Oberflächentemperaturen hervorrufen.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

 

UPDATE:

Diejenigen, die mehr Informationen bekommen wollen, über die Unterschiede zwischen Tmean (das Mittel zwischen Täglichem Min und Max) und Taverage (das arithmetische Mittel aller aufgezeichneten 24 stündlichen Temperaturen – einige verwenden T24 dafür) – sowohl quantitativ als auch in jährlichen Trends beziehen sich beide auf die Spatiotemporal Divergence of the Warming Hiatus over Land Based  on Different Definitions of Mean Temperature von Chunlüe Zhou & Kaicun Wang  [Nature Scientific Reports | 6:31789 | DOI: 10.1038/srep31789].[~Räumliche und zeitliche Abweichungen der Erwärmungspause über Land auf der Grundlage verschiedener Definitionen der mittleren Temperatur] von Chunlüe Zhou & Kaicun Wang [Nature Scientific Reports | 6: 31789 | DOI: 10.1038 / srep31789]. Im Gegensatz zu Behauptungen in den Kommentaren, dass Trends dieser unterschiedlich definierten „durchschnittlichen“ Temperaturen gleich sind, zeigen Zhou und Wang diese Figur und Kation: (h / t David Fair)

Abbildung 4. Die (a, d) jährliche, (b, e) Kälte und (c, f) warme saisonale Temperaturtrends (Einheit: ° C / Jahrzehnt) aus dem Global Historical Climatology Network-Daily Version 3.2 (GHCN-D , [T2]) und die „Integrated Surface Database-Hourly“ (ISD-H, [T24]) sind für 1998-2013 gezeigt. Die GHCN-D ist eine integrierte Datenbank der täglichen Klimazusammenfassungen von Land-Oberflächenstationen auf der ganzen Welt, die Tmax und Tmin Werte von rund 10.400 Stationen von 1998 bis 2013 zur Verfügung stellt. Die ISD-H besteht aus globalen stündlichen und synoptischen Beobachtungen bei etwa 3400 Stationen aus über 100 Originaldatenquellen. Die Regionen A1, A2 und A3 (innerhalb der grünen Regionen, die in der oberen linken Teilfigur gezeigt sind) werden in dieser Studie ausgewählt.

[Klicken Sie hier für ein Bild in voller Größe]  in Nature

Erschienen auf WUWT am 24.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/24/the-laws-of-averages-part-3-the-average-average/

 




Sprechen wir über den 97% Konsens zum Global Warming

Die 97-Prozent-Zahl wurde oft von der Obama-Regierung verwendet, um ihren Ausstieg aus fossilen Brennstoffen zu stützen und Präsident Barack Obama selbst benutzte diesen Ansatz, um seine Kritiker zum Schweigen zu bringen. Die NASA zitiert sogar Studien, die behaupten, eine nahezu einstimmige Übereinstimmung über das Thema zu zeigen.

In jüngster Zeit hat Newsweek diesen Ansatz in einem Beitrag aufgenommen, der „Klima-Leugner“ in staatlichen Ministerien angreift, die versuchen, das wissenschaftliche Curriculum zu beeinflussen. Der Autor konnte nicht widerstehen, dass „97% der Wissenschaftler, die aktiv das Klima der Erde studieren, sagen, dass es sich wegen der menschlichen Aktivität ändert.“

Video der Prager University zum „97 %“ Konsens. Mit Dank an Spürnase R. Hoffmann

Die Liberalen benutzen dieses Argument, um die Debatte um die globale Erwärmung zu beenden. Immerhin, wie können Sie mit all diesen Wissenschaftlern nicht einverstanden sein, von denen viele ihr Leben damit verbracht haben, das Klima zu studieren?

Aber wie viele Befürworter von „Klimawandel“ haben sich tatsächlich die Mühe gemacht, die Forschungsberichte zu lesen, die einen so populären Gesprächspunkt behandeln? Wie viele erkennen das der „Konsens“ eher eine statistische Verrenkung ist als tatsächliche Übereinstimmung?

Wahrscheinlich nicht viele, also lassen Sie uns über die 2013-Studie unter der Leitung des australischen Forschers John Cook reden, der behauptet, dass es einen 97-Prozent-Konsens über die globale Erwärmung gibt.

 

Was bedeutet der „Konsens“ wirklich?

Cook und seine Kollegen haben gezeigt, wie viel Wissenschaftler sich einig waren, dass die Menschen zur globalen Erwärmung beitragen.

Um dies zu tun, analysierte Cook die Abstracts von 11.944 Peer-Review-Studien zur globalen Erwärmung, die zwischen 1991 und 2011 veröffentlicht wurden, um zu sehen, welche Position sie in Bezug auf menschlichen Einfluss auf das Klima einnahmen.

Von diesen Studien, nahm knapp über 66 Prozent oder 7.930, keine Position in Bezug auf die von Menschen verursachte globale Erwärmung ein. Nur 32,6 Prozent oder 3.896 von Peer-Review-Papieren, befürworteten den „Konsens“, dass die Menschen zur globalen Erwärmung beitragen, während nur 1 Prozent der Papiere entweder diese Position ablehnten oder unsicher waren.

Video nicht mehr verfügbar

Video Ausschnitt aus der PHOENIX Runde vom 9.12.2010 zum Konsensgerede. Mit Dank an ‚FMD’s TV-Channel

Cook geht davon aus, dass von diesen Studien, die eine Position zur globalen Erwärmung einnehmen (entweder explizit oder implizit), sich 97,1 Prozent einig waren, das die Menschen zu einem gewissen Grad zur globalen Erwärmung beitragen.

In Bezug auf Peer-Review-Studien ist der „97-Prozent-Konsens“ nur der „32,6-Prozent-Konsens“, wenn alle untersuchten Studien berücksichtigt werden.

Aber Cook lud auch die Autoren dieser Studien ein, ihre Anerkennung des „Konsens“ zu bewerten. Cook Emailed an 8.574 Autoren, ihre Studien selbst zu bewerten, davon bewerteten nur 1.189 Autoren selbst 2.142 Studien.

Auch hier haben 35,5 Prozent oder 761 von diesen Selbstbewerteten keine Stellungnahme zur Ursache der globalen Erwärmung. Etwa 62,7 Prozent oder 1.342 dieser Studien befürworteten den „globale Erwärmung Konsens“, während 1,8 Prozent oder 39 Selbstbeurteilte Studien es ablehnten.

Verdreht man die Zahlen ein wenig, kommt Cook zu dem Schluss, dass 97,2 Prozent (1.342 von 1.381) der selbst bewerteten Studien mit einer Position zur globalen Erwärmung, die Idee unterstützen, dass Menschen dazu beigetragen haben.

Andere Studien, die vor und nach Cooks versuchten, einen Konsens zu finden, aber in unterschiedlichem Ausmaß, finden eine Reihe von 7 bis 100 Prozent (ja, keine Meinungsverschiedenheit) unter Klima-Experten, je nachdem, welche Untergruppe befragt wurde.

Cook’s Studie ist wohl die am meisten zitierte, nachdem sie mehr als 600.000 Mal heruntergeladen und in populären Medien beschrieben wurde.

Kritik

Linke Politiker und Umweltaktivisten, die Gesetze und Verordnungen vorantreiben, um die globale Erwärmung zu adressieren, beziehen zweifellos die Studie von Cook damit ein.

Aber nicht jeder stimmte zu. Einige globale Erwärmungs Skeptiker warfen einen genaueren Blick auf Cook’s Arbeit und fanden einige eklatante Probleme.

Andrew Montford von der Global Warming Policy Foundation hat eine große Kritik an der Cook Studie vom Jahr 2013 verfasst.

Montford argumentierte, Cooks „97-Prozent-Konsens“ -Deutung ist bedeutungslos, denn es umspannte ein weites Netz von globalen Erwärmungs-Skeptikern zusammen mit hard-Core Gläubigen.

Um ein Teil des Konsens von Cook zu sein, musste eine wissenschaftliche Studie nur dazu beitragen, dass Kohlendioxid ein Treibhausgas ist und dass die menschlichen Aktivitäten den Planeten „in einem nicht näher bezeichneten Umfang“ erwärmt haben. Keiner dieser Punkte ist umstritten, schrieb Montford.

Es ist wie die Behauptung, dass es einen Konsens über die legalisierte Abtreibung gibt, indem sie Pro-Abtreibungsaktivisten mit denen, die jede Abtreibung ablehnen, in einen Topf werfen, außer in Fällen von Inzest und Vergewaltigung. Dieser „Konsens“ wäre ein sinnloser Ansatz.

Geologe David Legates und seine Kollegen der University of Delaware, untersuchten in 2015 einen Bruch in Cook’s Arbeit und fanden, dass die Zahlen über einen grundlegenden und weitgespannten Konsens zusammengestellt waren.

Legate-Studie, veröffentlicht in der Zeitschrift Science and Education, fand, das nur 41 von Cooks 11.944 Peer-Review-Klima-Studien, ausdrücklich angaben, dass die Menschheit das meiste der Erwärmung seit 1950 verursacht hat.

Cook nahm grundsätzlich ein weitgespanntes Netz, um einen scheinbar großen Konsens zu schaffen, obwohl er nur ein Bruchteil der Studien, die er näher betrachtete, „Menschen sind die Hauptursache der jüngsten globalen Erwärmung“ oder etwas zu diesem Effekt ausdrücklich beinhalteten.

Dr. Richard Lindzen, ein Klimatologe am Massachusetts Institute of Technology, nannte Cooks Arbeit „Propaganda“, um das politische Argument für eine wirtschaftlich schmerzhafte Klimapolitik zu stärken.

„Also alle Wissenschaftler sind sich einig, dass es heutzutage wärmer ist, als es am Ende der Kleinen Eiszeit war“, sagte Lindzen 2016. „Fast alle Wissenschaftler sind sich einig, dass, wenn Sie CO2 hinzufügen, Sie etwas Erwärmung haben werden. Vielleicht sehr wenig Erwärmung. „

„Aber es ist Propaganda, dass als gefährlich zu bezeichnen und wir müssen CO2 reduzieren“.

 

Gibt es einen Konsens?

Cook’s Studie ist zum Trumpf für Alarmisten geworden, um diejenigen nieder zu halten, die mit ihnen nicht einverstanden sind. Selten ist ein Tag vergangen, ohne dass ein Politiker oder Aktivist den 97-Prozent-Konsens zitiert hat, aber nur wenige realisieren, wie bedeutungslos die Zahl ist.

Aber es gibt ein grundsätzliches Problem mit Cook’s 97 Prozent Zahl – Konsens ist kein Beweis.

Experten können alle zustimmen, aber das bedeutet nicht, dass sie Recht haben. Die meisten politischen Experten und Abgeordneten prognostizierten, das Hillary Clinton die Präsidentschafts-Rennen 2016 gewinnen würde, das wurde aber am 8. November als total falsch bewiesen.

Der Versuch, den Dissens zu beenden, mit „nun, dass all diese klugen Leute nicht mit dir übereinstimmen“, beweist nichts. Es gewinnt keiner damit. Im Gegenteil, die meisten Amerikaner glauben nicht einmal, dass es tatsächlich einen „97-Prozent-Konsens“ unter den Wissenschaftlern gibt.

„Nur 27% der Amerikaner sagen, dass“ fast alle „Klimawissenschaftler das menschliche Verhalten für den Klimawandel verantwortlich machen“, so Pews neue Umfrage vom Oktober. [Web-Link reagiert nicht]

Das heißt, die meisten Klima-Wissenschaftler sind wahrscheinlich einverstanden, dass die Menschen zur Erwärmung in irgendeiner Weise beitragen.

Die Gruppe von Klimaforschern, die mit dem IPCC zusammenarbeiten, glauben sicher, dass die meisten globalen Erwärmungen, wenn auch nicht alle, seit 1950 von menschlichen Aktivitäten getrieben wurden.

Das lässt uns noch viele Möglichkeiten. Sind 51 Prozent der globalen Erwärmung auf den Menschen zurückzuführen oder sind es 99 Prozent? Wissenschaftler können raten, aber niemand weiß es sicher.

Auf der anderen Seite, ergab eine Umfrage [Dieser Absatz ist zusammengefasst und übersichtlicher dargestellt; der Übersetzer]

In 2016 machte die George Mason University bei mehr als 4.000 Mitgliedern der American Meteorological Society (AMS) eine Umfrage. Diese ergab:

29 Prozent der AMS-Mitglieder dachten, dass die globale Erwärmung „weitgehend oder ganz“ durch Menschen verursacht wurde

38 Prozent glauben, dass die Erwärmung „meist“ auf den Menschen liegt.

33% glauben entweder, dass der Klimawandel nicht beeinflusst ist, meistens natürlich ist, oder ist höchstens halb-natürlich und halb-künstlich.

Andere Wissenschaftler, wie Lindzen, sehen den Einfluss der Menschen auf das Klima der Erde als minimal an. Klimawissenschaftler am libertären Cato-Institut – wo Lindzen jetzt ein Mitglied ist – haben gezeigt, dass Klimamodelle seit sechs Jahrzehnten den globalen Temperaturanstieg falsch vorhergesagt haben.

Klimamodelle zeigen derzeit doppelt so viel Erwärmung wie bisher beobachtet wurde – ein Problem, das viele Wissenschaftler erst vor kurzem realisiert haben.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/03/05/lets-talk-about-the-97-consensus-on-global-warming/




Beobachterin nennt Filmfestival in Sundance „Climate Porn“ – update

Tag eins, mit dem neuen Film von Al Gore, haben Sie bereits auf Eike gelesen.
Hier das Programm.pdf,  den Film von Al Gore finden Sie auf Seite 22.

Hier nun der Eindruck von weiteren Filmen. Übersetzt habe die kürzere Version des Newsletters vom 25.01.2017. Den Link zum ausführlichen Bericht finden Sie wie üblich am Ende – Einleitung durch den Übersetzer –

####

CFACT’s Mitarbeiterin hat auf dem Sundance Film Festival die Runden gemacht und ein Update vom Festival gepostet.

Sie nannte den großen Grünen Klimaschub der Filme beim Sundance-Festival „Klima-Porno“, aber Sie glauben bestimmt nicht, dass einer der Filme eine Hommage an die Pornofilme der Achtziger ist?

 

Es wird jeden Tag härter, den Unsinn aus dem „Erwärmungs – Lager“ ernst zu nehmen.

CFACT’s Mitarbeiterin: „Der Klima Porn bei Sundance bewegte sich vom Bild bis zum Literal mit der Einbeziehung des Kurzfilms“ Hot Winter „, einer Parodie der Campy-Pornofilme der achtziger Jahre.“ [Campy Filme übertreiben bis ins skurrile – Handlung, Kostüme, Charakter …, als Beispiel habe ich gefunden: Rocky Horror Picture Show, Drag Queen Priscilla; der Übersetzer]

„Einer der ersten Filme im amerikanischen Kino, die sich dem Klimawandel widmen“, so der Witz, war auch ein „Hardcore-Porno“. Für das Festival wurden „alle Sex-Szenen entfernt, um nicht von der bewussten Botschaft abzulenken.“ Wir folgen „Dr. Manly“, dem weltweit renommiertesten Klimaforscher, Bodybuilder und ehemaligen Schauspieler, als er schließlich der vielgehassten Ölkonzern-Präsidentin, Frau Frost, verfällt. Alles führt zurück zur globalen Erwärmung und am Ende des Films wird uns gesagt, dass „globale Erwärmung real ist“ und der Wegweiser, die Erde zu retten, ist, indem wir erneuerbare Energie verwenden. Parodieren die Produzenten des Films achtzig Pornos oder die Erwärmungskampagne selbst? Wissen Sie das überhaupt? “

Einen vollständigen Bericht finden auf CFACT.org und Sie können dort Videos von einigen Interviews in Sundance sehen..

Sie berichtet auch, dass es auf dem Festival eiskalt mit viel Schnee ist:

„Welcher bessere Weg, um den ‚Gore-Effekt‘ auszulösen? Das passiert oft: Wenn Gore das Klima beschwört, frieren die Festivalgänger im City Park, Utah ihre Erwärmung weg.“

Quelle Cfact, Sundance im Griff des Klimas

„Was könnte noch schiefgehen?“ wurde Festivaldirektor John Cooper gefragt. Was ging ‚falsch‘? Nun, Trump Trump Trump, ein Cyber-Angriff, Stromausfälle, öffentliche Beschwerde über Internet-Zugang, Autobahn gesperrt, Verkehrsstaus wegen zu vieler SUVs, Busse, Lieferwagen und Schneepflüge, Festival Banner flogen weg und auf die Hauptstraße, und ein großer schwerer Schneesturm mit Perioden von Blizzards und einstelligen Temperaturen [z.B. 5° Fahrenheit = -15 °C]. Minus drei °F [> -20°C] wird für Donnerstag prognostiziert. “

Sowohl die Filmemacher als auch das Publikum bei Sundance konnten mit den Realitäten der Klimawissenschaft und den Prioritäten des amerikanischen Volkes kaum enger in Kontakt kommen.

Während sie die gleichen veralteten, für die Erwärmung sprechenden Punkte in die Projektoren laden, ist Präsident Trump in Washington dabei, Pipelines wiederzubeleben und die Führung der Bürokratie aus der Klima-Fantasy-Welt, in der sie leben, zurück in die reale Welt zu befehlen.

Wenn Sie, oder jemand, den Sie kennen, die wirklichen Tatsachen wünschen, die Propagandatricks erkennen zu wollen und zu entlarven, auf denen die Gores Filme beruhen, ist Climate Hustle von CFACT das richtige für Sie (Bestellen  oder streamen sie hier!!).

Die warmgläubige Linke hoffte, eine Flut von neuen Propagandafilmen würde ihren Betrug neu beleben. Was in Sundance zu sehen war, erfüllt diese Aufgabe nicht.

####

Für die Natur und auch die Menschen,

Craig Rucker, Leitender Direktor

 

Erhalten am 25.01.2017

Übersetzt durch Andreas Demmig

https://www.cfact.org/2017/01/25/climate-porn-and-snow-at-sundance/

Der letzte Bericht zu Sundance hier

https://www.cfact.org/2017/01/26/rounding-out-the-sundance-green-propaganda-fest/

quelle cfact

 

Abschlussworte der Autorin

Sundance Organisatoren kündigten an, dass sie begeistert sind, mehr Grüne-Filme auf dem Festival 2018 einzuführen. Die Grüne Linke hat einen starken Verbündeten in Hollywood. Sie wissen, dass Filme Gedanken, Gefühle und Handlungen formen. Die Klima-Filmindustrie wird von Leuten bevölkert, die die globale Erwärmung für ihr Leben predigen. Ihre einzige Lösung ist, das sie [die anderen] Ihren Lebensstil radikal verändern, fossile Brennstoffen abschwören und uns erneuerbare Energien aufzwingen. Diese Leute werden davon reich. Leider, für den Rest von uns, bedeuten sie nichts sinnvolles Gutes.




Die New York Times: Der Meeresspiegel steigt und die Hitze wird schlimmer – unter Trump

Der NYT-Reporter Justin Gillis schrieb: „Wenn Washington die Klimapolitik zurückdreht, werden die Meere weiter steigen und die Hitzewellen schlimmer werden. Und ergänzte: „dass die nächsten vier Jahre ein faszinierender Test sein könnten, wie weit sich Politik von der physischen Realität entfernen kann.“

Gillis Artikel ist vorsichtig optimistisch über die Zukunft der grünen Energie:

„Die Regierung hat tatsächlich relativ wenig Einfluss auf die amerikanische Energiepolitik“,

warnte aber, dass es unwahrscheinlich ist, das Trump notwendige Maßnahmen zur Bekämpfung der globalen Erwärmung ergreifen wird.

„Um den Klimazielen des Pariser Abkommens gerecht zu werden, bräuchte die Welt einen amerikanischen Präsidenten, der den Energieübergang beschleunigt hätte“, so Gillis.

Aber das war, bevor Gillis seine Vorhersage über weiter steigende Meeresspiegel und schlimmer werdende Hitzewellen mit der kommenden Administration verknüpfte. Zwei Prognosen, die einige Wissenschaftler erwarten wahr zu werden – ironischerweise – egal, wer gewählt werden würde.

Präsident Barack Obamas Versprechen, die US-Treibhausgasemissionen um 26 bis 28 Prozent bis 2025 zu senken, würde die prognostizierte globale Erwärmung nur um 0,03 Grad Celsius auf der Grundlage von Klimamodellen reduzieren [Im Original: based on government climate models; … durch die Regierung subventionierte…(?); der Übersetzer] .

Trump versprach, diese Vorschriften aufzuheben, während die ehemalige Staatssekretärin Hillary Clinton plante, dafür einzutreten. Trump versprach auch, die Teilnahme an der Klimaschutzvereinbarung der Vereinten Nationen zu überdenken – auch dieses Abkommen hat nur eine vernachlässigbare Auswirkung auf die projizierte Erwärmung.

Der Meeresspiegelanstieg wird seit gut einem Jahrhundert beobachtet. Der Meeresspiegel ist seit 1993 um etwa 3,17 mm pro Jahr gestiegen, nach Regierungsangaben.

Was die Hitzewellen angeht, so ist das IPCC aufgrund des „Mangels an Daten oder Studien in Afrika und Südamerika“ weniger sicher, dass sie im Laufe des letzten Jahrhunderts zugenommen haben. „Dennoch sagte das IPCC, dass es wahrscheinlich sei, „dass die Häufigkeit von Hitzewellen während dieser Periode in weiten Teilen Europas, Asiens und Australiens zugenommen hat.“

„Das Pariser Abkommen ist eher ein Leitfaden, mehr Hoffnung als Realität. Herr Trump hat geschworen, sich daraus zurückzuziehen. Zurzeit erklären andere Länder, dass sie damit weiter vorwärts gehen werden, selbst wenn Trump es tatsächlich realisiert, aber es ist nicht schwer, sich vorzustellen, dass sich das Ganze auflöst.“

„Als Teil der Verhandlungen versprach die Obama-Regierung Milliarden von Dollar der amerikanischen Steuerzahlern an armen Ländern zu spenden, um ihnen zu helfen, sich der globalen Erwärmung anzupassen“.

Gefunden auf The Daily Caller vom 02. Januar 2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/01/02/nyt-predicts-seas-will-keep-rising-and-heat-waves-will-get-worse-under-trump/




Januar 2010 zu warm? Merkwürdige Berechnungsmethoden des GISS (Goddard Institute of Space Sciences) für die Durchschnittstemperaturen der Welt im Januar 10

Wie kommt das?

Schauen wir uns die beiden Graphiken doch einmal genauer an. Wir sehen in der "wärmeren" Graphik, dass es dort fast keine grauen Flächen gibt. Zu grauen Flächen heißt es in der Erläuterung zur Graphik:
Note: Gray areas signify missing data.
Hier also gibt es keine Daten!

Man beachte: wählt man den kleineren Gültigkeitsradius für gemessene Temperaturen von 1200 KM auf 250 KM, dann werden die vielen Flächen sichtbar, die grau sind, also ohne jede Messstation. Und, fatal, sofort verändern sich die durchschnittlichen Temperaturen gravierend – und zwar: nach unten!!

Warum ist das so?
Bedeutet dies nicht, dass ganz erhebliche Flächen, wo überhaupt nicht gemessen wurde, mit einer "angenommenen" Temperatur versehen werden? Also z.B. Gebiete in Alaska oder der Antarktis werden durch die Wahl des Gültigkeitsradiuses für Temperaturen aus einer (weit abgelegenen – Radius 1200 KM!!) Messstation pauschal abgedeckt, obwohl dort nie gemessen wurde?

Wer legt die Legitimation für die Festlegung eines Radiuses fest oder erfolgt diese Festlegung willkürlich?

Wie würden die Daten aussehen, wenn der Radius nur noch 1, 10, 30 oder 50 KM betragen würde? Diese Wahl hat man nämlich nicht. Voreingestellt ist der Radius 1200 KM und zur Auswahl wurde nur noch 250 KM zugelassen. Eine Messstation, die Gültigkeit für 250 KM Umfeld hat, kann ich mir kaum vorstellen.

Fazit: Wenn ich hier nun "zufällig" Messstationen mit wärmeren oder kälteren Temperaturen in die Auswahl für den Radius genommen habe, dann würden sich für sehr grosse Regionen Temperaturen ergeben, die in der Realität so nicht abzubilden wären. Dazu muss man wissen, dass massgeblicher Faktor für die Berechnung der globalen Temperatur die Fläche (KM²) ist. Fläche ist erstmal neutral. Bekommt aber durch das "Überstülpen" einer "angenommenen" Temperatur die entscheidende Bedeutung. Das "Glätten" (smoothing) oder Gleichmachen von Flächen, die ohne jede reale Messung einfach nur grau wäre (also ohne Berücksichtigung bleiben müsste), ist aus mathematischer Sicht schlicht und einfach das Verfälschen von Daten und damit Ergebnissen, um eine vermutete Aussage visuell und statistisch belegen zu können. Wäre das nicht gewollt, gäbe es die Auswahl eines beliebigen Radiuses. Dieser Radius ist ein klassisch variabler Faktor, der nicht nur butterweich ist, sondern sogar fiktiv und reine Spekulation, da er nichts, aber auch gar nichts mit der Realität und den Echtdaten zu tun hat.

Anhand dieser einfachen Analyse wird deutlich, wie wesentlich es ist, die wissenschaftlich neutralen und korrekten Messstationen als Datenquelle zu nutzen, da Daten jeder "akzeptierten" Messstation für einige tausend "grauen" KM² zur Gültigkeit erklärt werden. So kommt jeglicher Auswahl von Messstationen eine ganz besondere Bedeutung zu.

Ein Übrigens habe ich dann auch noch:
In der Antarktis sehen wir selbst in der 2. Graphik, erstaulich viele eingefärbte Flächen. Bei einem Radius von 250 KM, den ich gewählt habe, müssten also in der Antarktis zig Messstationen Echtdaten liefern, immer gleichwarme übrigens, wie man sehen kann (siehe "Bodensockel"). Hat jemand eine Vermutung, wieviele Messstationen in der gesamten Antarktis real vorhanden sind? Das Alfred Wegener Institut hat EINE. Wer noch? Keiner? Tatsächlich niemand?
Dann wäre diese eine gemessene Temperatur für wieviel Fläche der Erde gültig? Mag jemand rechnen?

Ich lasse mich gern eines Besseren belehren. Gern stelle ich einen weiteren solcher Graphik-Vergleiche hier in das Forum, wenn es gewünscht wird.

Analytische Grüsse,
Blogger KlimaAutist  

Quelle: Wetter Online




ClimateGate 21: Der IPCC-Skandal – Der Damm bricht!

Glaubwürdigkeit der Klimawissenschaft wird immer mehr in Frage gestellt

So war ziemlich sicher auch die im Zuge von Klimagate verlorene Glaubwürdigkeit der Klimaforschung ein Grund dafür, dass Journalisten das Bedürfnis hatten, kritischen Kommentaren,die bislang meist nur in Internetblogs zu lesen waren, etwas genauer auf den Grund zu gehen. Als Anfang November letzten Jahres Indische Wissenschaftler das IPCC beschuldigt hatten, bei den Vorhersagen zum Glescherschwund massiv zu übertreiben (wir berichteten), hielt man das noch für eine Außenseitenmeinung und ignorierte diese dementsprechend. Jetzt, nach Klimagate, sieht die Sache anders aus.

Wird Pachauris Kopf als erstes rollen?

Damals konnte der IPCC-Vorsitzende Rajendra Pachauri die Sache noch damit abtun, dass er seinen indischen Kollegen “extreme Arroganz” vorwarf und auf die überragende wissenschaftliche Expertise des IPCC verwies. Heute sieht es mehr danach aus, dass Pachauris Kopf der erste sein wird, der als Folge der IPCC-Affäre rollen wird (auch hier). Wobei vor allemPachauris finanzielle Verstrickungen und Interessenkonflikte immer mehr in den Vordergrund rücken.

Und heute, nach Klimagate, zeigen auch die Medien plötzlich ein bisher ungekanntes Interesse an den fragwürdigen Praktiken des IPCC. So staunten einige Spiegel Leser nicht schlecht, als sie heute morgen die aktuelle Ausgabe aufschlugen. Dort stellte Autor Gerald Traufetter ein “Schmelzendes Vertrauen“  in den Weltklimarat fest und auf SpiegelOnline wurde dann auch zur Rettung des Weltklimarates aufgerufen.Und selbst mein Haussender, der WDR, rückte auf einmal merklich von seiner bisher kritiklosen IPCC-Gläubigkeit ab. Nachdem letzte Woche noch sehr zarte kritische Worte zu vernehmen waren, wurde der Ton heute schon deutlicher.

Noch etwas näher am Geschehen war die Welt, die letzte Woche vermutete, dass der Bericht des Weltklimarates noch weit mehr Fehler enthält, als der bis dato bekannt gewordene “Zahlendreher” bei der Gletscherschmelze im Himalaja. Und so stellte sich am Wochenende zunächst heraus, dass der vermeintliche Flüchtigkeitsfehler dem IPCC sehr wohl bekannt war, man aber aus dramaturgischen Gründen entschied, die unbelegbaren Behauptungen beizubehalten (auch hier)

IPCC sieht den WWF als wissenschaftliche Quelle an

Und es dauerte auch nicht lange, bis weiter Ungereimtheiten im IPCC-Bericht gefunden wurden. Zusammenhänge zwischen dem Klimawandel und Naturkatastrophen beruhten auf zweifelhaften Studien, die Schäden durch Extremwetterereignisse wurden viel zu hoch angesetzt, und entgegen der ständigen Beteuerungen des IPCC basiert deren Report nicht ausschließlich auf wissenschaftlichen Veröffentlichungen mit entsprechender Begutachtung. Die kanadische Journalistin Donna Laframboise hat nach eigenem Bekunden nur wenige Stunden gebraucht, um eine beeindruckende Liste von im IPCC Bericht zitierten Studien zu erstellen, die nicht wissenschaftliche Ergebnisse, sondern eher die Meinung einer dem umweltpolitischen Kampagnenorganisation widerspiegeln.

  • Allianz and World Wildlife Fund, 2006: Climate change and the financial sector: an agenda for action, 59 pp. [Accessed 03.05.07: http://www.wwf.org.uk/ filelibrary/pdf/allianz_rep_0605.pdf]
  • Austin, G., A. Williams, G. Morris, R. Spalding-Feche, and R. Worthington, 2003: Employment potential of renewable energy in South Africa. Earthlife Africa, Johannesburg and World Wildlife Fund (WWF), Denmark, November, 104 pp.
  • Baker, T., 2005: Vulnerability Assessment of the North-East Atlantic Shelf Marine Ecoregion to Climate Change, Workshop Project Report, WWF, Godalming, Surrey, 79 pp.
  • Coleman, T., O. Hoegh-Guldberg, D. Karoly, I. Lowe, T. McMichael, C.D. Mitchell, G.I. Pearman, P. Scaife and J. Reynolds, 2004: Climate Change: Solutions for Australia. Australian Climate Group, 35 pp. http://www.wwf.org.au/ publications/acg_solutions.pdf
  • Dlugolecki, A. and S. Lafeld, 2005: Climate change – agenda for action: the financial sector’s perspective. Allianz Group and WWF, Munich [may be the same document as "Allianz" above, except that one is dated 2006 and the other 2005]
  • Fritsche, U.R., K. Hünecke, A. Hermann, F. Schulze, and K. Wiegmann, 2006: Sustainability standards for bioenergy. Öko-Institut e.V., Darmstadt, WWF Germany, Frankfurt am Main, November
  • Giannakopoulos, C., M. Bindi, M. Moriondo, P. LeSager and T. Tin, 2005: Climate Change Impacts in the Mediterranean Resulting from a 2oC Global Temperature Rise. WWF report, Gland Switzerland. Accessed 01.10.2006 at http://assets.panda.org/downloads/medreportfinal8july05.pdf.
  • Hansen, L.J., J.L. Biringer and J.R. Hoffmann, 2003: Buying Time: A User’s Manual for Building Resistance and Resilience to Climate Change in Natural Systems. WWF Climate Change Program, Berlin, 246 pp.
  • http://www.panda.org/about_wwf/what_we_do/climate_change/our_solutions/business_industry/climate_savers/ index.cfm
  • Lechtenbohmer, S., V. Grimm, D. Mitze, S. Thomas, M. Wissner, 2005: Target 2020: Policies and measures to reduce greenhouse gas emissions in the EU. WWF European Policy Office, Wuppertal
  • Malcolm, J.R., C. Liu, L. Miller, T. Allnut and L. Hansen, Eds., 2002a: Habitats at Risk: Global Warming and Species Loss in Globally Significant Terrestrial Ecosystems. WWF World Wide Fund for Nature, Gland, 40 pp.
  • Rowell, A. and P.F. Moore, 2000: Global Review of Forest Fires. WWF/IUCN, Gland, Switzerland, 66 pp. http://www.iucn.org/themes/fcp/publications /files/global_review_forest_fires.pdf
  • WWF, 2004: Deforestation threatens the cradle of reef diversity. World Wide Fund for Nature, 2 December 2004. http://www.wwf.org/
  • WWF, 2004: Living Planet Report 2004. WWF- World Wide Fund for Nature (formerly World Wildlife Fund), Gland, Switzerland, 44 pp.
  • WWF (World Wildlife Fund), 2005: An overview of glaciers, glacier retreat, and subsequent impacts in Nepal, India and China. World Wildlife Fund, Nepal Programme, 79 pp.
  • Zarsky, L. and K. Gallagher, 2003: Searching for the Holy Grail? Making FDI Work for Sustainable Development. Analytical Paper, World Wildlife Fund (WWF), Switzerland

Und als besondere Schmankerl fand Laframboise noch zwei Arbeiten, die in den klimawissenschaftlich sicher äußerst bedeutsamen Magazinen Leisure (Freizeit) und Event Management publiziert wurden.

  • Jones, B. and D. Scott, 2007: Implications of climate change to Ontario’s provincial parks. Leisure, (in press)
  • Jones, B., D. Scott and H. Abi Khaled, 2006: Implications of climate change for outdoor event planning: a case study of three special events in Canada’s National Capital region. Event Management, 10, 63-76

Und hier noch von Greenpeace initiierte Studien:

GREENPEACE-GENERATED LITERATURE CITED BY THE 2007 NOBEL-WINNING IPCC REPORT

* Aringhoff, R., C. Aubrey, G. Brakmann, and S. Teske, 2003: Solar thermal power 2020, Greenpeace International/European Solar Thermal Power Industry Association, Netherlands
* ESTIA, 2004: Exploiting the heat from the sun to combat climate change. European Solar Thermal Industry Association and Greenpeace, Solar Thermal Power 2020, UK
* Greenpeace, 2004:http://www.greenpeace.org.ar/cop10ing/SolarGeneration.pdf accessed 05/06/07
* Greenpeace, 2006: Solar generation. K. McDonald (ed.), Greenpeace International, Amsterdam
* GWEC, 2006: Global wind energy outlook. Global Wind Energy Council, Bruxelles and Greenpeace, Amsterdam, September, 56 pp., accessed 05/06/07
* Hoegh-Guldberg, O., H. Hoegh-Guldberg, H. Cesar and A. Timmerman, 2000: Pacific in peril: biological, economic and social impacts of climate change on Pacific coral reefs. Greenpeace, 72 pp.
* Lazarus, M., L. Greber, J. Hall, C. Bartels, S. Bernow, E. Hansen, P. Raskin, and D. Von Hippel, 1993: Towards a fossil free energy future: the next energy transition. Stockholm Environment Institute, Boston Center, Boston. Greenpeace International, Amsterdam.

* Wind Force 12, 2005: Global Wind Energy Council and Greenpeace,http://www.gwec.net/index.php?id=8, accessed 03/07/07

Kritik am IPCC reißt nicht ab

So sieht sie also aus, die Datenbasis für den Zustandsbericht unserer Welt, erstellt von den 3000 besten (oder vielleicht nur bestbezahlten) Wissenschaftlern, die der Planet je hervorgebracht hat.  Und immer neue Fragen rund um das IPCC tauchen auf. So wurde als letztes bekannt gegeben, dass auch die Aussagen des Weltklimarates bezüglich der Gefahr des Klimawandels für den Regenwald keine vernünftige Wissenschaftliche Basis zu haben scheinen.  Nach Klimagate, Pachaurigate und Gletschergate kommt nun Amazonasgate.

Wenn man bedenkt, dass aufgrund der Ergebnisse dieses Reports politische Entscheidungen getroffen werden, die das Verschieben von tausenden Milliarden Euro beinhalten und letztlich zu einem totalen Umbau unseres Wirtschaftssystems führen sollen, dann kann einem nur Angst und Bange werden.

Von Rudolf Kipp EIKE zuerst erschienen bei Science Sceptical

Die Potsdamer vom PIK kommentieren das so::

Der Klimawandel ist ein dramatisches, aber lösbares Problem. Seine Bewältigung ist eine Feuertaufe für die im Entstehen begriffene Weltgesellschaft.“
Stefan Rahmstorf, Hans-Joachim Schellnhuber

Stefan Rahmstorf / Hans J. Schellnhuber, Der Klimawandel 
Ein Buch von 144 Seiten, mit dem Werbetext:

Zwei renommierte Klimaforscher geben einen kompakten und verständlichen Überblick über den derzeitigen Stand unseres Wissens und zeigen Lösungswege auf. »

mit Dank an Krischna Gans für dies Fundstücke

ÄHNLICHE BEITRÄGE (BETA):




Indische Studie: IPCC übertreibt bei Gletscherschmelze im Himalaya

Bei der Präsentation der Studie am Montag sagte der indische Umweltminister Jairam Ramesh, dass durch diese Arbeit die gängige Meinung über das Abschmelzen der Gletscher in Frage gestellt würde. Ein direkter Zusammenhang zwischen der Gletscherschmelze im Himalaya und dem globalen Klimawandel könne, so Ramesh, nicht hergestellt werden. Auch wenn sich einige Gletscher im Himalaya nach wie vor auf dem Rückzug befänden, würde dies mit einer Geschwindigkeit erfolgen, die, historisch betrachtet, nicht besorgniserregend sei.

Aussagen der indischen Geologen stehen im Widerspruch zum IPCC

Mit dieser Auffassung steht der Minister im direkten Widerspruch zum Intergovernmental Panel on Climate Change (IPCC), dass in seinem Report 2007 noch vor einem totalen Verschwinden der meisten Himalaya-Gletscher bis 2035 gewarnt hatte. Und so führte Ramesh auch an dass er bereit sei, sich mit den Untergangsszenarien von Al Gore und dem IPCC anzulegen.

„Mich beunruhigt“, so Ramesh weiter „dass alle bisherigen Studien von westlichen Wissenschaftlern kommen. Es ist dringend an der Zeit, dass Indien selbst mehr in die Forschung investiert um zu verstehen, was im Ökosystem Himalaya vor sich geht.“

Wie zu erwarten war, hat sich der Minister mit diesen Äußerungen nicht nur Freunde gemacht. Besonders scharf wurde er von seinem Landsmann, dem Vorsitzenden des IPCC Rajendra Pachauri, angegriffen. Dieser bezeichnete die Verlautbarungen Rameshs als „extrem arrogant“ und stellte die wissenschaftliche Glaubwürdigkeit des gesamten Reports in Frage. Auch der Autor der Studie, der Geologe und ehemaliger stellvertretender Direktor der Geological Survey of India (GSI) Vijay Kumar Raina, musste sich Kritik von Pachauri gefallen lassen der dabei explizit erwähnte, dass es sich bei Raina schließlich um einen Geologen im Ruhestand handele.

Zu solch scharfen Worten kam es wohl weil auch Raina es wagte, offen den Ergebnissen des IPCC-Berichts von 2007 zu widersprechen: „Die Gletscher im Himalya schmelzen, aber es gibt da nichts dramatisches, nichts was andeutet dass sie innerhalb von Jahrzehnten verschwinden.“ Der Fehler der westlichen Wissenschaftler wäre, die Schmelzraten aus anderen Teilen der Welt einfach auf den Himalaya zu übertragen: „In den Vereinigten Staaten liegen die höchsten Gletscher in Alaska immer noch unterhalb den niedrigsten im Himalaya. Unsere 9500 Gletscher befinden sich in sehr großen Höhen. Es ist ein komplett anderes System … So lange es den Monsun gibt werden wir auch Gletscher haben. Viele Faktoren sind zu berücksichtigen wenn wir herausfinden wollen wie schnell die Gletscher schmelzen, Niederschläge, Verschmutzung, Relief und Gelände.“

In der Studie war unter anderem herausgefunden worden, dass der Gangotri-Gletscher, die Hauptquelle des Ganges, den stärksten Rückzug 1977 erlebte und heute praktisch zum Stillstand gekommen ist. In dem Bericht, der die Daten aus 150 Jahren untersucht wurden 25 Gletscher im Detail analysiert. Damit stellt diese Arbeit die erste umfassende Studie dieser Art überhaupt in der Region dar. Zusammenfassend kamen die Forscher zum dem Schluss, dass Gletscher sich weder beschleunigt zurückziehen, noch dass sie sich als Indikatoren für einen globalen Klimawandel eignen.

…Average annual retreat of the glaciers, under observation, which generally was around 5m till up to late 50s of the 20th century, increased many folds in some glaciers in the Central and the Eastern Himalayas during the decade of mid seventies to late eighties, touching a value of as high 25m-30m as in the case of the Gangotri glacier. The retreat, with the advent of the decade of the nineties, began to slow down and in some cases like the Siachen glacier, Machoi glacier, Darung Drung glacier, Gangotri glacier, Satopanth-Bhagirath Kharak glaciers and the Zemu glacier, it has practically come down to stand still during the period 2007-09…

…Annual snow precipitation, during the accumulation season, is the parameter primarily responsible for the glacier having either a positive or a negative balance…

…We know today, with a great degree of certainty that glaciers can be considered as nature’s secular barometers, which can help in deciphering the climatic changes that the earth has undergone since a particular glacier has come into existence. But to postulate that a glacier can warn of the climate changes likely to take place in future is a big question mark. A glacier as, already, stated does not necessarily respond to the immediate climatic changes, for if it be so then all glaciers within the same climatic zone should have been advancing or retreating at the same time…

Vorhersagen über das Verschwinden der Gletscher sind Propaganda

Unterstützung bekam Raina auch von anderen indischen Geologen. So sagte etwa Rameshwar Bali, Professor für Geologie an der Universität Lucknow: „Vorhersagen die das Verschwinden der Himalaya Gletscher sehen sind Unsinn. Das ist organisierte Propaganda von Klimawandel Aktivisten.“ Ein weiterer Geologe, Anjani Tangri vom Uttar Pradesh Remote Sensing Applications Centre hat Satellitendaten und Expeditionsmessungen kombiniert und dabei ebenfalls gefunden, dass der Rückgang des Gangotri sich signifikant verlangsamt hat: „Trotzdem redet jeder nur von der globalen Erwärmung.“

Rajinder Ganjoo, Geologe an der Universität Jammu, hat vor kurzem eine Studie im Journal Climatic Change veröffentlicht, in welcher er den Einfluss des Wetters auf Zu- und Abnahme von Schnee auf dem Naradu-Gletscher untersuchte: „Es scheint Übertreibungen des Ausmaßes des Gletscherschwunds zu geben.“ Bei Untersuchungen des Siachen-Gletschers fand er eine Rückzugsrate von nur 60 cm pro Jahr – und nicht 7,5 m die von anderen Quellen angegeben wurden.

aktueller Nachtrag:   — Pallava Bagla, Science Magazine, 13 November 2009

Several Western experts who have conducted studies in the region agree with Raina’s nuanced analysis—even if it clashes with IPCC’s take on the Himalayas. The „extremely provocative“ findings „are consistent with what I have learned independently,“ says Jeffrey S. Kargel, a glaciologist at the University of Arizona, Tucson. Many glaciers in the Karakoram Mountains, which straddle India and Pakistan, have „stabilized or undergone an aggressive advance,“ he says, citing new evidence gathered by a team led by Michael Bishop, a mountain geomorphologist at the University of Nebraska, Omaha. Kenneth Hewitt, a glaciologist at Wilfrid Laurier University in Waterloo, Canada, who just returned from an expedition to mountain K2, says he observed five glacier advances and a single retreat in the Karakoram. Such evidence „challenges the view that the upper Indus glaciers are ‘disappearing’ quickly and will be gone in 30 years,“ Hewitt says. „There is no evidence to support this view and, indeed, rates of retreat have been less in the past 30 years than the previous 60 years,“ he says.

Quellen:

[1] Himalayan Glaciers – A State-of-Art Review of Glacial Studies, Glacial Retreat and Climate Change

[2] The Telegraph India – Experts dispute glacier fear in Himalayas

[3] Hindustan Times – Government quells panic over Himalayan glacial melt

[4] Roger Pileke Jr. Blog – IPCC vs. Indian Environment Ministry

[5] Guardian – India ‚arrogant‘ to deny global warming link to melting glaciers

Rudolf Kipp EIKE