1

Das totalitäre Klimagebäude (2): Zehn fragwürdige Kernbehauptungen

Damit man auch nur in die Nähe einer solchen Vorstellung käme, müsste das komplette Narrativ der totalitären Klimabewegung zweifelsfrei zutreffen, das im Wesentlichen aus den nachfolgend skizzierten zehn Punkten besteht:

  1. Die globalen Temperaturen (auf der Erdoberfläche, wo die Menschen leben, sowie Tiere und Pflanzen) steigen in bedeutender Weise an, schon seit vielen Jahrzehnten, und dies ist eine ungewöhnliche, „unnatürliche“ Entwicklung.
  2. Dieser Anstieg beruht auf dem „Treibhauseffekt“, der durch zunehmende Umfänge von CO2 in der Atmosphäre hervorgerufen wird.
  3. Das zusätzliche CO2 ist verschuldet durch die industrialisierte Menschheit und ihre Verbrennung von fossilen Energieträgern: Kohle, Gas, Öl vor allem.
  4. Der (eigentlich eher geringe) „Treibhauseffekt“ des CO2 ist trotzdem gefährlich und Ursache der Temperaturanstiege, weil es einen „Feedback“-Effekt durch Wasserdampf gibt, der die Sache um ein Vielfaches schlimmer macht.
  5. Natürliche Ursachen für Klimawandel / veränderliche globale Durchschnitts-Temperaturen sind praktisch irrelevant: keine Ausreden für die Menschheit.
  6. Die immer höheren Temperaturen „bringen das ganze Klima durcheinander“, führen zu massiven Naturkatastrophen weltweit, die Menschenleben bedrohen. [Darunter auch ein bedrohlicher Anstieg der Meeresspiegel und die „Übersäuerung“ der Ozeane.]
  7. Wie es mit dem CO2-Anstieg und den Folgen für das Klima weitergeht, kann in den Computer-Modellen der „Klimawissenschaft“ seriös nachvollzogen und auf viele Jahrzehnte hinaus vorhergesagt werden.
  8. Selbst wenn es noch gewisse Unsicherheiten geben sollte: es gilt das „Vorsorgeprinzip“, also besser heute schon aktiv werden, ehe die Dinge ganz außer Kontrolle geraten.
  9. Dieser „Klimawandel“ ist also hochgefährlich und muss unbedingt verhindert werden.
  10. Der Prozess kann signifikant gebremst und schlimme Folgen vermieden werden, wenn vor allem die westlichen Industrienationen auf fossile Energie-Erzeugung verzichten und „dekarbonisieren“.

Damit ganz klar wird, was diese Liste bedeutet: Das sind nicht etwa „zehn gute Argumente“ dafür, warum „Klimaschutz“ notwendig ist, unabhängig voneinander. Es ist vielmehr eine Beweis- oder Indizienkette, die nur so stark ist wie ihr schwächstes Glied. Jeder der zehn Punkte ist eine Achillesferse, sodass es sich bei dem ganzen Narrativ um eine höchst wackelige Angelegenheit handelt, um ein argumentatives Kartenhaus: Selbst wenn nur einer der zehn Punkte falsch wäre, würde es in sich zusammenfallen.

Tatsächlich müssen hinter jeden der zehn Punkte Fragezeichen gesetzt werden. Manche Einzelbeobachtung oder Theorie hat womöglich etwas für sich, aber das meiste ist mindestens fragwürdig und vieles ist schlicht und einfach falsch, nachweisbar. Wenn juristische Maßstäbe eines Gerichtsverfahrens gelten würden: Hier gibt es nicht nur „vernünftige Zweifel“ daran, dass die gesamte Aussage zutrifft. Diese „Beweisführung“ ist dermaßen wackelig, dass eine nüchterne Staatsanwaltschaft schon darauf verzichten würde, überhaupt Klage zu erheben, um sich nicht vor einem seriösen Gericht in Grund und Boden zu blamieren.

Was man dazu wissen muss

Zu jedem der zehn Punkte ließe sich eine lange (wissenschaftliche) Abhandlung produzieren, und viele kluge Darstellungen kursieren ja schon längst im Internet, in Form von Aufsätzen, Büchern, Vorträgen, Videos. (Ja, es ist ein ziemlich unübersichtliches Themenfeld, das einen naturwissenschaftlichen Laien auch leicht verunsichern kann. Wenn die Dinge ganz simpel wären, hätten wir das Problem nicht.) Nachfolgend, auch als Startpunkt für jedermanns eigene weitere Befassung mit dem Thema, kritische Hinweise zu den zentralen zehn Punkten der Klima-Aktivisten:

  1. („Global warming“ als „unnatürliche“ Entwicklung). Das Temperaturniveau auf der Erde lässt sich nicht so leicht aussagekräftig auf Zehntel-Celsius-Grade genau messen (um die es aber überhaupt nur geht!), erst recht kennen wir die Zustände der Vergangenheit nicht präzise, schon für das 19. Jahrhundert nicht, außerhalb kleiner Teile der (bewohnten) Erdoberfläche. Es hat aber immer schon deutliche Temperaturschwankungen gegeben, auch viel massivere. So hat die Erde zuletzt mehrere Eiszeiten erlebt. Wir sind gegenwärtig – in geologischen Maßstäben – immer noch am Ausgang der letzten Eiszeit und in kürzeren Maßstäben immer noch am Ende der „kleinen Eiszeit“ der frühen Neuzeit.
  2. (CO2-Treibhauseffekt als Ursache)
    Schon die Korrelation (der synchrone Verlauf) zwischen Temperaturen und CO2-Gehalt der Atmosphäre ist in geologischen Maßstäben nicht nur fraglich, sondern weitgehend nicht-existent; soweit in jüngerer Erdzeit die Korrelation existiert, scheint die Temperatur dem CO2-Gehalt voranzugehen; jedenfalls kann die Korrelation auch auf einen dritten Faktor zurückgehen oder die Kausalität kann sogar „andersrum“ funktionieren:
  3. (Zusätzliches CO2 in der Atmosphäre durch Menschheit verursacht)
    Wenn es wärmer wird, können die Ozeane weniger CO2 binden, sie „gasen aus“. In den Ozeanen sind unvergleichlich größere Mengen CO2 „gespeichert“ als in der Atmosphäre (etwa Faktor 50). Biologisch und geologisch spricht man von einem (kleinen und großen) Kohlenstoff-Kreislauf, der auch die Gebirge und Gesteinsformationen (aus Calcium-Carbonat / Kalkstein) umfasst, sowie natürlich das gesamte Pflanzen- und Tierleben auf der Erde.
  4. (Treibhauseffekt massiv verstärkt durch „Feedback“)
    Der tatsächliche, physikalisch unstreitig vorhandene „Treibhauseffekt“ von CO2 ist nach neueren, experimentell-labormäßig gestützten Berechnungen geradezu lächerlich gering. Ob das angebliche „Feedback“ durch Wasserdampf die ihm zugeschriebene massive Verstärkung bewirken kann, ist sehr zweifelhaft, denn mehr Wasserdampf führt auch zu mehr Wolken, die die Erde beschatten und damit abkühlen. Es spricht aus meteorologischer Sicht vieles dafür, dass die Wolkenbildung in der Atmosphäre eine Art natürlichen „Thermostaten“ ergibt, der Klima-Auswüchse verhindert, anstatt sie zu verstärken. Wenn schon die geringste – wodurch auch immer hervorgerufene – Erwärmung irgendwo im regionalen Wetter einen „Feedback“-Effekt durch Wasserdampf anstoßen kann, warum dann nicht auch ohne den (minimalen) Anstoß durch etwas mehr CO2? Noch dazu ist Wasserverdunstung ein sehr effektiver Weg für die Erdoberfläche, Wärme-Energie abzugeben.
  5. (Keine relevanten natürlichen Ursachen)
    Das Klima hat erdgeschichtlich gewaltige Veränderungen vollzogen, um Größenordnungen stärker als gegenwärtig vielleicht messbar. Es muss also massive natürliche Ursachen geben – und warum sollten diese gerade jetzt vollständig „still“ und unauffällig sein? Alles Leben und alle Energie auf der Erde werden von der Sonne angetrieben, die aber nicht „perfekt gleichmäßig“ funktioniert, wie wir teilweise schon seit Jahrhunderten wissen („Sonnenflecken“ – auch kreist die Erde nicht perfekt gleichmäßig und stabil um die Sonne.) Zu behaupten, die Sonne hätte mit unserem Klima oder seiner Veränderung nichts zu tun, ist absurd.
  6. (Immer mehr Naturkatastrophen)
    Es gibt für die bei diesem Thema überhaupt nur relevanten letzten fünf bis sieben Jahrzehnte (seit der CO2-Ausstoß der Industrienationen weltweit nennenswerte Umfänge erreicht) keinen Nachweis, dass Naturkatastrophen häufiger oder schlimmer würden. Wir werden jetzt quasi täglich mit Katastrophenmeldungen überschüttet, um das Narrativ zu belegen, aber ein seriöser statistischer Beleg existiert nicht, wie sogar in IPCC-Kreisen und -Papieren zugegeben wird. (Noch ganz unabhängig von der Frage, ob zunehmende Naturkatastrophen, soweit es sie gäbe, überhaupt von veränderten Temperaturen verursacht wären.) Der Anstieg der Meeresspiegel ist konstant, unabhängig vom CO2, und noch eine Folge der auslaufenden Eiszeiten; die angebliche „Übersäuerung“ der Ozeane ist reine Propaganda und wissenschaftlich unhaltbar.
  7. (Computer-Modelle aussagekräftig)
    Die GCM-Computermodelle („general circulation model“) gießen nur in Zahlen, was die Anhänger der Klimapanik an Theorien – vorläufigen Behauptungen, Hypothesen – entwickelt haben. Sie werden so justiert, dass sie (und nur sehr unvollkommen) frühere Klima-Entwicklungen nachbilden können. Das ist kein Beweis für die Richtigkeit der Theorien. Vor allem haben die Modelle bisher regelmäßig komplett versagt bei ihren Prognosen. Sie haben keine größere wissenschaftliche Validität als Wettervorhersagen in einer Boulevardzeitung für den Sommer nächsten Jahres. Insgesamt haben die „wissenschaftlichen“ Klimapanik-Produzenten seit Jahrzehnten, auch über die Modellberechnungen hinaus, groteske Fehlprognosen veröffentlicht und sich als lächerlich falsche Propheten erwiesen, Scharlatane durch und durch.
  8. („Vorsorgeprinzip walten lassen“)
    „Vorsorge“ kann nicht heißen, einseitig Risiken des „Klimawandels“ maßlos zu über- und Kosten seiner „Bekämpfung“ ignorant zu unterschätzen. Es ist auch nicht per se der einzig richtige Weg, ein Problem „an der Ursache“ zu bekämpfen – es kann viel klüger sein, sich auf Unvermeidliches einzustellen und vorzubereiten. Ein steigender Meeresspiegel, selbst wenn er durch CO2 verursacht wäre, kann mit Deichbau wirksam „eingedämmt“ werden. Holland, wie wir es kennen, würde sonst nicht existieren. Auf den Malediven, die angeblich schon längst untergegangen sein sollten, werden Milliarden in Tourismus investiert. Ein schwerer Sturm, selbst wenn er von „globaler Erwärmung“ verursacht wäre, bringt ungeschützte Menschen um, aber nicht Bewohner von stabilen Betonhäusern. Armut bringt Menschen um, und vor der Natur nicht geschützt zu sein. Dieser Schutz ist leicht möglich, wenn genug materieller Wohlstand vorhanden ist. In 30 oder 50 Jahren können Weltgegenden, die heute noch von Armut geprägt sind, weit zu unserem Wohlstand aufgeschlossen haben und brauchen vor der Natur keine Angst mehr zu haben.
  9. (CO2-Emissionen lebensgefährlich für die Menschheit)
    Der „Klimawandel“ mag existieren oder nicht, er mag durch CO2 verursacht sein oder nicht, aber sicher ist: Der CO2-Gehalt der Atmosphäre war mit knapp 300 ppm vor der Industrialisierung gefährlich niedrig; Pflanzen haben sich aus solcher Luft kaum noch vernünftig ernähren können. Die heutigen Lebensformen haben sich erdgeschichtlich entwickelt, als es tausende ppm an CO2-Gehalt gab. Weltweit ergrünen riesige Flächen durch die „Düngung“ mit mehr CO2 in der Luft, auch das ist unbestritten. Mit mehr CO2 in der Luft können Pflanzen auch in trockenen Regionen besser überleben, weil sie nicht mehr so viel Wasser verlieren – das ist Basis-Biologie. Das alles kann auch helfen, mehr Menschen weltweit anständig zu ernähren.
  10. („Dekarbonisierung“ der Industriestaaten als Lösung)
    Es spielt selbst nach Projektionen des IPCC praktisch keine Rolle, ob Deutschland, ob der Rest Europas, ob dauerhaft die USA ihre CO2-Produktion mindern, denn China und Indien verfeuern so viel fossile Brennstoffe, um ihren Wohlstand aufzubauen, dass der Zug längst abgefahren ist. Wenn wir Konsumgüter nicht bei uns produzieren, „für den Klimaschutz“, aber dafür aus China kaufen, wird der CO2-Ausstoß sogar größer, denn unser Kraftwerkspark ist effizienter als der chinesische. Die Menschheit ist nicht bereit, „zurück in die Höhle“ zu wechseln oder gar „zurück auf die Bäume“, und mit Solar und Wind lässt sich der Energiebedarf einfach nicht decken. Das ganze CO2-Minderungsregime von Paris dient nur der Selbstverstümmelung der bisher reichen Länder, es ändert nichts am Weltklima. Selbst wenn die Theorien der Klimapaniker über die Erwärmung durch CO2 weitgehend stimmen würden: Es geht nur darum, ob eine fiktive Katastrophe schon im Januar 2100 eintritt oder erst im Februar 2100.

Man sieht, selbst wenn die kritischen Hinweise zu den Nummern eins bis neun völlig gegenstandslos wären, nur eine „Verschwörungstheorie“ von „Klimaleugnern“: Schon Punkt zehn beweist, dass die Aktivisten und mit ihnen jetzt auch amtlich das Bundesverfassungsgericht auf einem Holzweg sind, und nicht auf einem „nachhaltigen“. Punkt zehn ist übrigens auch ungefähr das, was Bjørn Lomborg seit vielen Jahren unermüdlich – und sehr überzeugend – vorträgt. Er ist ausdrücklich kein „Klimaleugner“, er nimmt die IPCC-Theorien weitgehend als akzeptable Diskussionsgrundlage, und dennoch wendet er sich vollständig gegen den Panik-Aktivismus, der die Politiker ergriffen hat.

Renommierte Umweltschützer gegen Panik

Es ist angeblich moralisch geboten, den Planeten vor uns Menschen zu retten, um jeden Preis. Aber nicht nur ist der Planet gar nicht wirklich in Not; selbst wenn es Probleme gäbe, ihre „Lösung“ sollte nicht schlimmer sein als das Problem. Man amputiert kein Bein wegen eines blauen Flecks, man erschießt einen Ladendieb nicht zur Strafe und Vorbeugung. Die Klimapanik lebt von der völligen Abstraktion und Verabsolutierung, von der Absage an gesunden Menschenverstand, Pragmatismus, Verhältnismäßigkeit. Und sie lebt davon, die Bedürfnisse der Menschen zu verachten, die angeblich das perfekte „natürliche Gleichgewicht“ auf der Erde zerstören. Wie wahnhaft diese Weltsicht ist, lässt sich daran ablesen, dass sich ihr längst langjährige wirkliche Umweltschützer widersetzen, wie zum Beispiel Michael Shellenberger, ebenso in aller Deutlichkeit der Greenpeace-Mitbegründer  Patrick Moore.

Dass die „Klimawissenschaft“ keine Panik rechtfertigt, erläutert ganz aktuell mit einem Bestseller der Physiker Steve Koonin, der unter Obama (!) die US-Regierung beraten hat. Zu den Autoren sehr bemerkenswerter, wirklich wissenschaftlich basierter Abhandlungen gehören auch weitere Amerikaner wie Roy W. Spencer und Patrick J. Michaels, der Kanadier Ross McKitrick, der Skandinavier Henrik Svensmark, der Brite Matt Ridley, der deutsche Professor Horst-Joachim Lüdecke; bemerkenswerte Hinweise gegen die vorherrschende Propaganda präsentiert in unnachahmlicher Weise per Videoclip Tony Heller; die aktuelle Forschung wird lebhaft diskutiert in einem Blog von Anthony Watts. Prof. Fritz Vahrenholt und Sebastian Lüning sind dem hiesigen Publikum ohnehin vertraut (Buch).

Das sind Ausschnitte einer in Wahrheit alles andere als „erledigten“ weltweiten Debatte; das sind auch nicht „Verschwörungstheoretiker“, die in ihrem Keller als Pseudo-Privatgelehrte an Physik und Naturgesetzen zweifeln, sondern das sind im Gegenteil arrivierte Funktionsträger und solide Selbst-Denker, die das Narrativ „hinterfragen“ und sich nicht von Politaktivisten mundtot machen lassen. Auf der „Gegenseite“, bei den angeblich wissenschaftlichen Größen hinter der Klimapanik, steht ein Michael „Hockeystick“ Mann, der seine Kritiker gerichtlich mundtot zu machen versucht, aber nicht bereit ist, seine Methoden offenzulegen – womit er sich gegen kollegiale Versuche der Replikation sträubt und damit als Wissenschaftler disqualifiziert; es gibt den „climategate“-Skandal rund um ein für die Klima-Beobachtung zentrales Institut in England, dessen ans Tageslicht gekommener E-Mail-Austausch klar politisch-taktische Motive für die „Forschung“ belegt; letztlich ist nicht auszuschließen, dass an den angeblichen „Fakten“ über die Temperaturentwicklung massiv und ungeniert herummanipuliert wird.

Ein zentraler Urheber der ganzen Panik, der mit seinem Auftritt vor einem Gremium des US-Parlaments vieles ins Rollen gebracht hat, ist James Hansen, dessen angeblich wissenschaftliche Prognosen sich beinahe vollständig als lächerliche, wahnwitzige Horrorvisionen herausgestellt haben. Die Panik-Propheten reihen sich nahtlos ein in eine lange Reihe von Untergangs-Denkern, die es schon mit anderen Themen und schon Jahrzehnte früher gegeben hat; so hat sich ein gewisser Paul Ehrlich mit seinen apokalyptischen Szenarienzur Überbevölkerung ebenso gründlich blamiert wie der „Club of Rome“ mit seinen düsteren Prognosen. All diese Wichtigtuer haben zwar irgendwie Thesen und Theorien von „wissenschaftlicher“ Seite aufgegriffen, aber sie haben einzelne Trends verabsolutiert und gegenläufige Erkenntnisse ausgeblendet, die ihnen den Auftritt vermasselt hätten – genau keine Wissenschaft, denn diese setzt Selbstkritik, regelrecht Selbstzweifel und offene Debatte voraus.

Lesen Sie morgen Teil 3: „Klimawissen für jedermann“

Teil 1 finden Sie hier.

Der Beitrag erschien zuerst bei ACHGUT hier




Educated Guess: Wie wird eigentlich die durchschnittliche Erd-Temperatur berechnet?

Wie wird die Temperatur der Erde denn berechnet?

Es gibt sicher niemanden, der denkt, man liest die Erdtemperatur am entsprechenden Thermometer, sagen wir in Norwich, in East Anglia Super-Exaggerated Temperature ab.

Wie kommt sie dann zustande?

Das Grundproblem mit der Erdtemperatur besteht darin, dass Temperatur sehr heterogen ist. In der Arktis ist es kälter als in Mali und in München wärmer als in Aberystwyth, während es in Khartoum wärmer ist als in Reykjavik. Mit anderen Worten, um die Temperatur der Erde zu bestimmen, braucht man viele verschiedene Messstationen, sehr viele verschiedene Messstationen, die so über die Erde verteilt sind, dass ihr Gesamt auf die Erdtemperatur schließen lässt. Die Messstationen dürfen jedoch nicht nur an Land stehen, es muss sie auch auf dem Meer geben: auf Schiffen, in Bojen usw.

Derzeit gibt es weltweit vier Datensätze, die genug Temperatur-Informationen enthalten (sollen), um die Erdtemperatur zu bestimmen.

Der wohl umfassendste Datensatz ist der GISTEMP-Datensatz, den das Goddard-Institute for Space Science der NASA zusammenstellt. Er soll 99% der Erde mit Temperaturinformationen abdecken.

Daneben gibt es noch den MLOST-Datensatz der National Oceanic and Atmospheric Administration (NOAA) der USA, den HadCRUT4-Datensatz, der von UK Met Office Hadley Centre und der Univeristy of East Anglia (Climate Research Unit) zusammengestellt wird, sowie einen Datensatz, den die Japanese Meterological Agency (JMA) erstellt. Er hat mit rund 85% die geringste Abdeckung durch Messstationen. Die Daten stammen für HadCRUT4 aus rund 5.500 Messstationen, GISTEMP basiert auf rund 6.300 Einzeldaten, MLOST auf rund 7.000. Alle Messstationen befindet sich an Land. Die Temperaturmessung auf dem Meer ist ein eigenes Problem.

Die Datensätze unterscheiden sich nicht nur darin, aus wie vielen Messstationen sie ihre Informationen beziehen, sie unterscheiden sich auch in der Länge der Datenreihen. Die längste Datenreihe stellt HadCRUT4 bereit, sie beginnt 1850, GISTEMP und MLOST Daten beginnen mit dem Jahr 1880, die Daten der JMA beginnen im Jahr 1891.

Aus diesen Quellen stammen die Informationen, auf denen dann eine Abbildung wie die folgende basiert, die wir auf Basis der NASA GISTEMP Daten erstellt haben.

Die Musik bei dieser Abbildung spielt in dem, was links am Rand abgetragen ist: Average Temperature Anomalies. Was es damit auf sich hat, beschreibt NOAA wie folgt:

“The term temperature anomaly means a departure from a reference value or long-term average. A positive anomaly indicates that the observed temperature was warmer than the reference value, while a negative anomaly indicates that the observed temperature was cooler than the reference value.”

Nicht unbedingt der Gipfel an Transparenz und Informationsbereitstellung. Bei der NASA findet sich der folgende Splitter:

„This graph illustrates the change in global surface temperature relative to 1951-1980 average temperatures.”

Aus beiden Informationen kann man sich nun zusammenbasteln, was eine Temperatur Anomalie ist. Sie wird als Abweichung der täglich gemessen (Anmerkung der Redaktion genauer-aus Messungen, nach bestimmten aber unterschiedlichen Algorithmen errechneter) Durchschnittstemperatur für eine Messstation von einem Erwartungswert berechnet. Der Erwartungswert, der bei NASA und NOAA die Grundlage der Anomalien darstellt, ist der Mittelwert der Temperatur (an der entsprechenden Messstation) für den entsprechenden Tag im Zeitraum von 1951 bis 1980.

Für jede Messstation wird aus den Tagesdurchschnittswerten ein Monatsdurchschnittswert berechnet, der jeweils die Temperatur-Anomalie, also die Abweichung zur Durchschnittstemperatur für den Zeitraum 1951 bis 1980, angibt. Warum der Zeitraum von 1951 bis 1980 und nicht der Zeitraum von 1931 bis 1960? Weil der Zeitraum von 1931 bis 1960 die „Heisszeit“ der End-1930er und 1940er Jahre enthält:

Die Abbildung enthält Temperaturangaben für die vier oben genannten Datensätze HadCRUT4, GISTEMP (NASA GISS) und MLOST (NOAA). Wie man sieht, weichen die Temperaturangaben von einander ab. Indes: Es handelt sich hierbei um die Angabe der Erdtemperatur auf Basis tatsächlich gemessener Werte. Offenkundig gibt es mehr als eine durchschnittliche Erdtemperatur oder die Berechnung dessen, was durchschnittliche Erdtemperatur sein soll, ist nicht so einfach, wie gedacht.

Und das ist sie tatsächlich nicht. Stellen Sie sich vor, sie haben die Daten für ihre Messstationen, die sich an unterschiedlichen Orten der Erde befinden. Wie kommen Sie von den Einzeldaten zur durchschnittlichen Erdtemperatur?

Die Vorgehensweise von NASA, NOAA; Met Office / East Anglia und JMA ist weitgehend identisch. Die Erde wird in ein Netz von Quadraten eingeteilt, für jedes Quadrat wird die durchschnittliche Temperatur bestimmt. Für GISTEMP liegen die meisten Daten vor, also kann es sich das Goddard Center leisten, ein Grid aus Quadraten von jeweils 2 Breiten- und 2 Längengraden herzustellen. Alle anderen müssen mit 5 Breiten- und 5 Längengraden arbeiten.

Bislang haben wir quasi den Idealfall dargestellt. Die Realität besteht darin, dass alle vier Datensätze mit leeren Feldern in Ihrem Grid umgehen müssen. Die folgende Abbildung für HadCRUT4 zeigt, dass zum Teil erhebliche Lücken bestehen:

Die weißen Gridzellen sind solche, für die keine Informationen in HadCRUT4 vorhanden sind. Wenn Wissenschaftler mit leeren Zellen in ihren Daten konfrontiert sind, haben sie mehrere Möglichkeiten, man kann die leeren Zellen aus den räumlich gesehen nächsten Zellen, für die Werte vorliegen, berechnen. Diesen Weg geht man im Goddard Center der NASA. Es ist auch möglich, die fehlenden Werte mit dem errechneten „globalen Durchschnitt“ zu füllen. Diesen Weg gehen die Forscher bei HadCRUT4.

All die Entscheidungen, all die Unterschiede in der Berechnung der Erdtemperatur tragen dazu bei, dass die Modelle der Klimaforscher je nachdem, welchen Datensatz sie zu Grunde legen, unterschiedliche Ergebnisse ausspucken. Hinzu kommen nicht wirklich nachvollziehbare Entscheidungen wie die, die Erdtemperatur für die nördliche und südliche Hemisphäre zunächst getrennt zu berechnen und daraus einen Mittelwert für die endgültige Erdtemperatur zu errechnen. Der Hintergrund ist, dass es im Norden mehr Messstationen als im Süden gibt. Hinzukommt, dass die Distanz zwischen zwei Längengrad am Äquator größer ist als an den Polen. Um dieses Problem auszugleichen, werden die Ergebnisse aus den Zellen, für die Werte vorliegen, gewichtet (wie auch immer).

Die Darstellung der Berechnung der durchschnittlichen Erdtemperatur, die wir morgen für die Darstellung einiger Ungereimtheiten bei der NASA benötigen, sollte schon jetzt gezeigt haben, dass die Temperatursteigerung, die die Klimawandeljünger wie einen Fetisch anbeten, das Ergebnis eines sehr komplexen und mit vielen, sehr vielen Annahmen, Extra- und Interpolationen durchsetzten Prozesses ist. Die durchschnittliche Erdtemperatur, wie wir sie kennen, ist ein Educated Guess, mehr nicht.

Der Beitrag erschien zuerst bei ScienceFiles hier

Weiterführende links zum o.a. Thema hier




Harald Lesch schwindelt weiter !! nun schon Episode 3 #oliwillreden

Es ist bereits die dritte Folge der Lesch´schen Widersprüche die sich bei jedem neuen Versuch die physikalische Wahrheit in grüne Phantasien zu verwandeln, immer mehr als eine Sammlung von Peinlichkeiten erweist.

Diese 20 Minuten über Harald Lesch („Frag den Lesch„) sprechen für sich….
[Bereits 16.000 Aufrufe in 48h]

Video nicht mehr verfügbar
Video der neuesten Widersprüche und Ungereimtheiten die Harald Lesch ungerührt seinen Zuschauern immer wieder aufs Neue vorsetzt.

Im zugehörigen Youtube-Beschreibungstext lesen wir:

Unfassbar, mit welcher Dreistigkeit Harald Lesch die Täuschung seiner Zuschauer fortsetzt. Während der Recherche zu dieser Episode 3 wurden noch weitere „Dreistigkeiten“ von Lesch offenbar. Insbesondere, wie Lesch die Aufdeckungen seiner Schwindeleien aus der Episode 1 und 2 retuschiert. Unfassbar.

Obwohl er Lesch sich für die Verwendung der gefälschten Grafik (siehe Episode 2) im November 2018 entschuldigt, könnte es wohl faktisch so gewesen sein, jedenfalls scheint es so zu sein – bitte seine Entschuldigung genau anhören -, dass LESCH SELBST die Zeitleiste in der Grafik gefälscht hatte.

Episode 1: https://youtu.be/eVNC0V1dCAA

Episode 2: https://youtu.be/MyPzHeBUu6Y

Quellennachweise: Frag den Lesch-Webseite mit „1994“: https://www.zdf.de/wissen/frag-den-le…

WMO-Grafik mit Links zu den absoluten Globaltemperaturen von 2014 bis 2018 finden sich in diesem Blogtext: https://www.klimamanifest-von-heilige…

Siehe auch Variante 27 der „2-Grad-Ziele“ in diesem Blogtext: https://www.klimamanifest-von-heilige…

Weitere Quellen-Nachweise auf Anfrage, z.B. über die Youtube-Kommentarfunktion




12. IKEK am 23. und 24.11.2018 – Michael Limburg – Wie glaubwürdig sind Zeitreihen historischer Klimadaten?

Die westliche Welt begann im ausgehenden 19. Jahrhundert, fast nur in den entwickelten Ländern Klima- und Wetterdaten mittels Messstationen aufzuzeichnen, von denen wir heute noch glauben profitieren zu können. Doch auch um 1900 war die Nordhalbkugel der Erde immer noch sehr spärlich mit Messstationen ausgestattet, das änderte sich erst in der zweiten Hälfte des 20. Jh. Erst ab 1960 waren, auf Grund des kalten Krieges die USA, Europa und weite Teile der damaligen Sowjetunion vglw. dicht bestückt.

Video des Vortrages von Michael Limburg anlässlich der 12. IKEK am 23. und 25.11.18

Für die Südhalbkugel galt das jedoch nie, die war und blieb spärlich versorgt, was sowohl der Entwicklung der dort befindlichen Länder, als auch an der geringen Landbedeckung geschuldet ist.

Hinzu kam, dass über den Ozeanen eine genügende Abdeckung, die diesen Namen auch verdient, außerhalb der Hauptschifffahrtsrouten nicht vorhanden war.

Doch selbst wenn die besser wären, sind die verfügbaren historischen Klimadaten viel zu dünn, sowohl in der Flächenabdeckung, als auch in der kontinuierlichen Langzeit-Messdauer, um als Basis für die präzise Berechnung einer globalen Mitteltemperatur dienen zu können.

Und nicht nur das, denn sie sind auch viel zu ungenau, als dass Klimatologen mit ihrer Hilfe eine präzise Bestimmung der globalen Mitteltemperatur durchführen und somit als valide Quellenlage gelten könnten.

Die Klimatologen glauben aber, es sei so, obwohl jeder, der sich mit Messtechnik und Fehlerstatistik auskenne, feststellen muss, dass die Daten dafür nicht taugten. Schuld an diesem Irrglauben ist ein Artikel der Klimawissenschaftler Hansen & Lebedeff von 1988, in dem sie behaupteten, dass die Werte einer Messstation für eine Kreisfläche von 2.400 km Durchmesser als „Normal“ stehen könne.

Als „Beweis“ dafür führten sie lediglich an, dass die Trendverläufe der Teststationen innerhalb dieser Fläche immer noch eine Korrelation von ≥ 0,5 (als „gut“ bezeichnet) aufwiesen. Mittels einfachem direkten Vergleiches von realen Verläufen hätten sie jedoch erkennen müssen, dass auch bei Korrelation von ≥ 0,5 die Zeitreihen der Temperatur viel zu unterschiedlich seien, als dass eine Station im Zentrum als Maß für alle stehen könnte. Beispielsweise fänden sich im Umkreis des Nordpols zwei Messstationen mit je rund 1.000 km Abstand zum Pol, was viel zu weit weg sei, um das Wetter und seine Daten dort genau genug erfassen zu können.

Ein weiterer Fehler ist anzunehmen, das die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n sich von selbst und nur von ihrer Zahl abhängig, in Richtung Null korrigieren, unbekümmert für sämtliche Messwerte angewendet werden darf.

Dem ist jedoch nicht so, weil die Messempfindlichkeit eine Untergrenze darstellt, bis zu der sich zufällige – also gleich verteilte – Messfehler ausgleichen könnten.

Die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n – wobei n die Zahl der Messungen ist – gegen Null tendieren, findet da ihre Untergrenze.

Ein weiterer wichtiger Einflussfaktor auf die Messgenauigkeit ist bspw. das Material des Schutzbehälters, in denen sich der Messfühler befindet, das sogenannte Wetterhäuschen (z.B. Englische Hütte). Allein dadurch entsteht ein systematischer Messfehler von etwa 0,2°C (+/-). Bei einem Wechsel des Wetterhäuschens oder des Messgerätes erhalte man so „sprunghafte systematische Fehler“. Diese schlagen 1:1 auch bei Anomalienbildung mit dem „Stationsnormal“ durch, und gleichen sich nicht – wie weit und breit geglaubt- gegenseitig aus.

In Berlin beispielsweise würden seit 1990 elektronische Fühler eingesetzt, was die örtliche mittlere Temperatur scheinbar um 0,1°C erhöht habe. Korrigiert wurde das bis heute nicht.

Zusammenfassend kann festgestellt werden, dass die systematischen Fehler bei der Erhebung von Klimadaten sehr vielfältig und zum allergrößten Teil nicht mehr zu korrigierbar sind, da die Umstände unter denen sie entstanden, nicht mehr rekonstruierbar sind. Das hat zur Folge, dass jeder ehrliche Versuch, eine globale Mitteltemperatur aus den vorhandenen Daten zu berechnen, mit einen Unsicherheitsband von mindestens vier Grad umgeben sein muss.

Das wiederum ermögliche keinerlei Bestimmung von Änderungen im Bereich von einem Grad, und damit auch keinerlei Bestimmung einer evtl. Ursache. All das verschwinde im Rauschen der Messfehler.

Die einzig gute Nachricht ist, dass oszillierende Einflüsse (periodisches auf und ab) von diesem Problem nicht betroffen sind,  und damit sehr wohl sichtbar seien. Ihre Präsenz erlaubt die Bestimmung ihrer Zykluszeiten, jedoch nur sehr unsicher, bezüglich ihrer Amplituden.

Hinzu kommt, dass Rohdaten der Vergangenheit auf breiter Front offensichtlich gefälscht wurden, mit dem Ziel, die Vergangenheit kühler erscheinen zu lassen, damit die Gegenwart wärmer erschiene. Das folgende Video zeigt einige verblüffende Zusammenhänge.

Video von Tony Heller zu der Manipulation historischer Temperaturdaten