1

Validierung von Klimamodellen ist unabdingbar: Die unschätzbar wertvolle Arbeit von Dr. Vincent Gray

Als ein Experten-Begutachter des IPCC seit 18 Jahren, das heißt also von dessen ersten Anfängen an, habe ich tausende Kommentare zu allen Berichten geschrieben. Meine Kommentare zum 4. Zustandsbericht, alle 1898, können beim IPCC (2007) gefunden werden, und meine Meinungen über das IPCC stehen in Gray (2008b).

Seine jüngste Veröffentlichung trägt den Titel [übersetzt] „Der Betrug um die globale Erwärmung und der Superbetrug um den Klimawandel“ [The Global Warming Scam and the Climate Change Super Scam]. Sie ist gewissermaßen eine Fortsetzung seiner sehr effektiven ersten Kritik mit dem Titel „The Greenhouse Delusion: A Critique of “Climate Change 2001“. Wir wissen jetzt, dass der Bericht aus dem Jahr 2001 den Hockeyschläger enthielt sowie Phil Jones‘ globale Temperaturaufzeichnung, zwei Beweisstücke, die grundlegend für die Proklamation anthropogener Gründe für die globale Erwärmung sind. In der Zusammenfassung jenes Buches schreibt er:

Es gibt gewaltige Unsicherheiten in den Modellergebnissen, die erkannt und unermesslich sind. Sie sind so gewaltig, dass Adjustierungen der Modellparameter Modellergebnisse erzeugen kann, die zu fast jedem Klima passen, einschließlich zu einem solchen ohne Erwärmung oder gar mit Abkühlung.

Kein Modell hat jemals irgendeine zukünftige Klimasequenz erfolgreich vorhergesagt. Trotzdem werden Zukunfts-„Projektionen“ bis zu mehreren hundert Jahren im Voraus vom IPCC als plausible Zukunftstrends präsentiert, basierend auf umfangreich verzerrten „Storylines“ in Kombination mit nicht getesteten Modellen.

Das IPCC hat eine Fülle wissenschaftlicher Informationen zum Thema Klima abgeliefert, aber nicht einen einzigen Beweis erbracht, dass ein zunehmender Kohlendioxidgehalt irgendwelche schädlichen Auswirkungen hat.

Auf Seite 58 des Buches beschreibt er eine der ernstesten Grenzen der Computermodelle:

Kein Computermodell ist jemals validiert worden. Ein früher Entwurf von Climate Change 95 enthielt ein Kapitel mit dem Titel „Climate Models – Validierung“ als eine Erwiderung auf meinen Kommentar, dass kein Modell jemals validiert worden ist. Sie änderten den Titel zu „Climate Model – Evaluation“ und ersetzten auch im Text das Wort „Validierung“ mit „Evaluation“. Damit beschrieben sie nichts weniger als was man tun müsste, um ein Modell zu validieren.

Ohne einen erfolgreichen Validierungsprozess sollte man kein Modell als fähig erachten, eine plausible Prophezeiung zukünftigen Verhaltens des Klimas zu liefern.

Was ist Validierung?

Die traditionelle Definition von Validierung involviert, dass man das Modell rückwärts laufen lässt, um bekannte Klimabedingungen abzubilden. Der allgemein angewendete Terminus lautete „Nachhersage“ [hindsight forecasting]. Da gibt es eine wesentliche Begrenzung wegen der Zeit, die ein Computer braucht, um die historischen Bedingungen zu rekonstruieren. Steve McIntyre hat bei ClimateAudit das Problem illustriert:

Caspar Amman sagte, dass GCMs etwa einen Tag Maschinenzeit brauchten, um 25 Jahre abzudecken. Auf dieser Grundlage ist es offensichtlich unmöglich, den Übergang vom Pliozän zum Pleistozän mit einem GCM zu modellieren (also die letzten 2 Millionen Jahre), da dieses dazu 219 Jahre Rechenzeit benötigen würde.

Auch sind Modelle nicht in der Lage, gegenwärtige oder historische Bedingungen zu simulieren, weil wir diesbezüglich keine genauen Kenntnisse oder Messungen haben. Das IPCC räumt dies in Kapitel 9 des Berichtes aus dem Jahr 2013 ein:

Obwohl von grundlegender Bedeutung hat die Evaluierung von Klimamodellen auf der Grundlage von Klimabeobachtungen der Vergangenheit einige wichtige Grenzen. Sie sind begrenzt hinsichtlich der Variablen und Phänomene, für die es Beobachtungen gibt.

Sorgfältige Validierung ist „unabdingbar“, aber ernsthaft begrenzt, weil wir nicht wissen, was historisch los war. Die Reduktion der Anzahl der Variablen umgeht die begrenzte Computer-Kapazität sowie fehlende Daten oder Wissen um die Mechanismen.

Allerdings erklären O’Keefe und Kueter:

Als Folge hiervon gibt es nur sehr wenige GCM-Projektionen in vollem Umfang. Die Modellierer haben eine Vielfalt von Vereinfachungs-Verfahren angewendet, um mehr Ergebnisse erzeugen zu können. Da die Genauigkeit vollumfänglicher GCM-Läufe unbekannt ist, ist es auch nicht möglich abzuschätzen, welche Auswirkung die Anwendung dieser Vereinfachungen auf die Qualität der Modellergebnisse hat.

Ein Problem ist, dass eine Variable, die derzeit als keine Konsequenzen zeitigend angesehen wird, unter anderen Bedingungen von grundlegender Bedeutung ist. Dies Problem tauchte in der Erdwissenschaft auf, wo bestimmte Mineralien, „trace minerals” genannt, als von geringer Bedeutung eingestuft worden waren und in Berechnungen der Bodenfruchtbarkeit keinen Eingang gefunden haben. In den siebziger Jahren lautete die Objektive, mittels massiven Einsatzes von Dünger die Ernteerträge zu verbessern. Anfang der achtziger Jahre gingen die Ernteerträge trotz hinzugefügter Dünger zurück. Offensichtlich konnten die Pflanzen Dünger-Mineralien ohne einige Spuren-Mineralien nicht aufnehmen. Im Beispiel Weizen war es Zink, welches der Katalysator war für die Absorption bedeutender chemischer Dünger.

In der Klimadebatte ist es inzwischen ein Muss, dass eine Person, die durch AGW-Befürworter angegriffen wird, mit der Wahrheit handelt. Es beweist, dass sie die Wahrheit kennen und aus eigenem Willen von diesen Wahrheiten Abstand nehmen aus politisch-ideologischen Gründen. Skepticalscience ist ein perfektes Beispiel, und dessen Versuch, die Validierung von Modellen zu rechtfertigen beginnt mit einem Angriff auf die Beobachtung von Freeman Dyson, dass:

Modelle voller verformbarer Faktoren stecken, die an das bestehende Klima angepasst werden, so dass die Modelle mehr oder weniger mit den gemessenen Daten übereinstimmen. Aber es gibt keinen Grund zu glauben, dass die gleichen verformbaren Faktoren das richtige Verhalten in einer Welt mit unterschiedlicher chemischer Zusammensetzung spiegeln, zum Beispiel in einer Welt mit einem viel höheren CO2-Anteil in der Atmosphäre“.

Sie verwenden „Zuverlässigkeit“ anstelle von Validierung und verwenden den Terminus „Nachhersage“ [hindcasting], aber in einem anderen Zusammenhang:

Falls ein Modell korrekt Trends prophezeien kann ab einem Anfangszeitpunkt irgendwann in der Vergangenheit, können wir erwarten, dass es mit hinreichender Sicherheit prophezeien kann, was in der Zukunft passieren könnte“.

Sie behaupten, dass mittels ihres Systems

die Modelle erfolgreich die globalen Temperaturen seit dem Jahr 1900 reproduzieren können, auf dem Festland, in der Luft und im Ozean.

Und:

Klimamodelle müssen getestet werden um herauszufinden, ob sie funktionieren. Wir können nicht 30 Jahre lang warten, um, zu sehen, ob ein Modell gut ist oder nicht; Modelle werden gegen die Vergangenheit getestet, gegen das, was wir wissen.

Es ist jetzt 25 Jahre her, dass das IPCC seine ersten Modell-Prophezeiungen (Projektionen) veröffentlicht hat, und schon damals wurde die Lüge in Abbildung 1 bloßgestellt:

Abbildung 1. Quelle: Präsentation von John Christy von der University of Alabama [UAH] vor dem Committee on Natural resources des Weißen Hauses am 15. Mai 2015.

Herumfummeln, um Zuverlässigkeit als Validierung zu maskieren

Versuche der Validierung während der 120 Jahre mit Instrumenten-Aufzeichnungen erwiesen sich ebenfalls als problematisch, aus den gleichen Gründen wie bei den historischen Aufzeichnungen. Eine wesentliche Herausforderung war die Abkühlungsphase von 1940 bis 1980, weil diese zusammenfällt mit der stärksten Zunahme der menschlichen CO2-Erzeugung. Dies widersprach der grundlegendsten Hypothese des IPCC, der zufolge eine CO2-Zunahme zu einer Temperaturzunahme führt. Freeman Dyson hat diese Praxis beschrieben als „verbiegen“ [tweaking] und darüber in vielen Beiträgen bei WUWT berichtet. Es ist die Praxis der Fabrikation von Beweisen, um die Lügen zu stützen, die die Computermodelle sind.

Sie trachteten nach einer Erklärung in Einklang mit ihrer Philosophie, dass jedwede Anomalie, oder jetzt Störung, dem Menschen geschuldet ist. Sie verbogen das Modell mit Sulfaten aus anthropogenen Quellen, eine Partikelsorte, die Sonnenlicht blockiert und Abkühlung erzeugt. Sie wendeten das an, bis der Modelloutput zur Temperaturkurve passte. Das Problem war, dass nach 1980 die Erwärmung wieder einsetzte, das Sulfatniveau aber gleich blieb. Alles, was sie tun, leidet unter der von T. H. Huxley ausgesprochenen Wahrheit: „Die Große Tragödie der Wissenschaft ist das Scheitern einer wunderschönen Hypothese an einem hässlichen Faktum“.

Gray erklärte:

Anstelle von Validierung und der traditionellen Anwendung mathematischer Statistik sind die Modelle „evaluiert“ ausschließlich durch die Ansicht derjenigen, die sie erdacht haben. Derartige Ansichten sind parteiisch und verzerrt. Außerdem sind sie nichts weiter als Raten.

Er verwies auch darauf, dass das IPCC im Bericht 2001 im Abschnitt mit der Überschrift Model Evaluation geschrieben hat:

Wir erkennen in vollem Umfang, dass viele Evaluierungs-Statements, die wir abgeben, einen bestimmten Grad subjektiver wissenschaftlicher Vorstellung enthalten sowie viel „allgemeines“ oder „persönliches“ Wissen. Beispiel: Die reine Auswahl von Modellvariablen und Modellierungsprozessen, die untersucht werden, basieren oftmals auf der subjektiven Beurteilung und Erfahrung des modellierenden Teams.

Im Physical Science Basis-Bericht 2013 wird eingeräumt, dass es keine Validierung gibt.

Kapitel 9 des IPCC-Berichtes aus dem Jahr 2013 trägt den Titel Evaluation of Climate Models.Sie machen ein paar Verbesserungen bei der Evaluierung geltend, aber es handelt sich immer noch nicht um Validierung.

Obwohl von grundlegender Bedeutung, hat die auf Klimabeobachtungen der Vergangenheit basierende Evaluation von Klimamodellen einige wichtige Begrenzungen. Sie ist begrenzt auf jene Variablen und Phänomene, für die es Beobachtungen gibt.

In vielen Fällen bilden das Fehlen oder die schlechte Qualität langfristiger Beobachtungen, seien es spezifische Variablen, ein wichtiger Prozess oder ein bestimmtes Gebiet (z. B. Polargebiete, obere Troposphäre/untere Stratosphäre {UTLS} und die Tiefsee) unverändert ein Hindernis. Außerdem sind die beobachteten Aufzeichnungen, mit denen die Modelle verglichen werden, ,mangelhaft‘, und zwar wegen Ungewissheiten bei den Beobachtungen und der Gegenwart interner Variabilität. Diese Begrenzungen können reduziert, aber nicht vollständig eliminiert werden, durch die Verwendung multipler unabhängiger Beobachtungen der gleichen Variable ebenso wie die Verwendung von Modell-Ensembles.

Das in dem Kapitel beschriebene Verfahren zur Modellevaluierung reflektiert die Notwendigkeit der Klimamodelle, dass diese das beobachtete Verhalten des Klimas in der Vergangenheit als eine notwendige Bedingung für Projektionen in die Zukunft in Betracht ziehen müssen. Dies ist jedoch keine Antwort auf die viel schwierigere Frage zu bestimmen, wie sehr ein Modell zu Beobachtungen passen muss, bevor Projektionen durchgeführt werden, die man zuverlässig erachten kann. Seit dem AR 4 gibt es ein paar Beispiele auftauchender Hindernisse, wobei Beobachtungen verwendet werden, um Multimodell-Ensemble-Projektionen zu behindern. Diese Beispiele, die später noch in Abschnitt 9.8.3 zur Sprache kommen, bleiben Bestandteil eines Gebietes aktiver und bislang nicht aufschlussreicher Forschungen.

Ihre Schlussfolgerung

Die heutigen Klimamodelle sind im Prinzip besser als ihre Vorgänger. Allerdings ist jede einzelne hinzugefügte weitere Komplexität auch eine Quelle neuer Fehler (z. B. mittels unsicherer Parameter), obwohl damit einige Aspekte des simulierten Klimas verbessert werden sollen. Außerdem können dadurch neue Wechselwirkungen zwischen Modellkomponenten auftreten, die vielleicht, wenn auch nur zeitweise, die Modellsimulation anderer Aspekte des Klimasystems entwerten können. Und es kommt noch hinzu, dass trotz der erzielten Fortschritte wissenschaftliche Unsicherheiten hinsichtlich der Details vieler Prozesse fortbestehen.

Diese Zitate stammen aus dem Physical Basis Science-Bericht, was bedeutet, dass die Medien und die Politiker sie nicht lesen. Alles, was sie zu Gesicht bekommen, ist ein kleiner Kasten (2.1) auf Seite 56 der Summary for Policymakers SPM. Man hat die Worte sorgfältig gewählt, um zu implizieren, dass alles besser ist als noch im Ar 4. Eröffnet wird das Ganze mit den Worten:

Verbesserungen der Klimamodelle seit dem AR 4 des IPCC sind offensichtlich bei den Simulationen der Temperatur im Maßstab von Kontinenten, hinsichtlich der großräumigen Niederschlagsmenge, des Monsuns, des Arktischen Meereises, dem ozeanischen Wärmegehalt, einigen Extremereignissen, dem Kohlenstoff-Zyklus, der atmosphärischen Zusammensetzung und Aerosole, den Auswirkungen stratosphärischen Ozons und der El Niño-Southern Oscillation.

Das Einzige, was sie einräumen, ist, dass

die Simulation großräumiger Verteilungen des Niederschlags sich seit dem AR 4 etwas verbessert hat, obwohl die Modelle auch weiterhin hinsichtlich des Niederschlags schlechter abschneiden als hinsichtlich der Temperatur. Das Vertrauen in die Repräsentation der Prozesse bzgl. Wolken und Aerosole bleibt gering.

Ironischerweise sind diese Bemerkungen Gegenstand der gleichen Herausforderung der Validierung, weil der Leser den Anfangszeitpunkt nicht kennt. Falls das Modell nicht funktioniert, ist der Terminus „etwas verbessert“ bedeutungslos.

All dies bestätigt die Gültigkeit der Kommentare von Dr. Gray, dass die Validierung für ein Klimamodell unabdingbar ist und dass

kein Computer-Modell jemals validiert worden ist“.

Und: Ohne einen erfolgreichen Validierungsprozess sollte kein Modell als fähig erachtet werden, eine plausible Vorhersage des zukünftigen Verhaltens des Klimas zu liefern.

Link: http://wattsupwiththat.com/2015/08/08/validation-of-a-climate-model-is-mandatory-the-invaluable-work-of-dr-vincent-gray/

Übersetzt von Chris Frey EIKE




Relative Homogenität der Mittelalterlichen Warmzeit MWP und der Kleinen Eiszeit LIA

Bild rechts: Quelle: Abbildung 7c im FAR des IPCC.

Bei den mit dieser Abbildung verbundenen drei Problemen handelte es sich um Folgende:

● Die Mittelalterliche Warmzeit MWP widersprach ihren Behauptungen, dass das 20. Jahrhundert das Wärmste jemals war.

● Die Kleine Eiszeit LIA zeigte, dass der gegenwärtige Erwärmungstrend schon deutlich vor den wesentlichen Einflüssen der industriellen Revolution begonnen hatte. Signifikante CO2-Mengen wurden von den Menschen erst nach dem 2. Weltkrieg emittiert.

● Der Erwärmungstrend seit etwa 1650, dem Tiefpunkt der LIA, lag deutlich innerhalb der natürlichen Variabilität.

Die Hockeyschläger-Graphik kümmerte sich um all diese Punkte, indem sie die MWP ebenso wie die LIA kurzerhand eliminierte. Sie zeigte ungerechtfertigterweise lediglich wie das Blatt des Schlägers einen scharfen Knick nach oben hinsichtlich der Temperatur des 20. Jahrhunderts. Phil Jones erzeugte diesen Knick nach oben, der eine Erwärmung von 0,6°C ± 0,2°C während 120 Jahre behauptete. Sie behaupteten weiter, dass diese Rate weit jenseits jeder natürlichen Erwärmung lag, wobei sie bequemerweise den Fehlerfaktor von 33% ignorierten.

Ein zweiter Aspekt ihres Problems involvierte eine Studie von Soon und Baliunas mit dem Titel „Proxy climatic and environmental changes of the past 1,000 years“ (Climate Research 23, S. 89-110). Darin wurde detailliert das weltweite Auftreten der MWP nachgewiesen. Die persönlichen Angriffe auf Soon und Baliunas sind jetzt bekannt geworden, vor allem die Rolle, die John Holdren während seiner Zeit an der Harvard dabei gespielt hat.

Ein dritter Aspekt involvierte die Behauptung, dass Abbildung 7c die Temperatur der Nordhemisphäre zeigte und dass weder die MWP noch die LIA globale Ereignisse waren. Das Argument, dass eine Klimaperiode regional aufgetreten war oder in einem gegebenen Zeitraum einer Aufzeichnung wurde dazu verwendet, dem Problem zu begegnen, dass das Optimum des Holozäns wärmer war als das 20. Jahrhundert. Steve McIntyre untersuchte die Antwort der AGW-Unterstützer einschließlich einer Aussage der NOAA, nämlich:

Zusammengefasst: im Mittlere Holozän vor etwa 6000 Jahren war es allgemein wärmer als heute, aber nur im Sommer und nur auf der Nordhemisphäre.

Timing der Ereignisse

Das Problem, um das es hier geht, ist ein Klassisches und unabdingbar zum Verständnis von Klima. Es involviert eine Standardpraxis im Bereich Klimatologie namens Relative Homogenität. Falls man ein Muster des Klimawandels etablieren will, muss man zuvor festlegen, ob dieses Muster lokal, regional, hemisphärisch oder global auftrat. Es geht um die genaue Definition von Klimatologie, welche das Studium des Klimas in einer Region oder dessen Änderung mit der Zeit ist.

Ich habe mich mit diesem Thema befasst, während ich die These meiner Doktorarbeit vorbereitete, in der es um die Rekonstruktion des Klimawandels in der Stadt Churchill in Manitoba an der Hudson Bay ging, und zwar von 1714 bis 1850. Mein Doktorvater Dr. Bruce Atkinson legte mir nahe, die Klimaänderungen bei der Ortschaft York Factory zu rekonstruieren, ebenfalls an der Hudson Bay, aber 200 km entfernt. Der Vergleich ergab lokale Änderungen in Churchill, während die Untersuchung im regionalen, hemisphärischen und globalen Maßstab einen größeren Zusammenhang zeigte.

Zwei wesentliche Hypothesen komplizieren die Bestimmung von Länge und Ausmaß der Änderung. Die erste lautet, dass ein Ereignis wie die MWP [überall?] gleichzeitig beginnt und endet.* Die zweite lautet, dass durch externe Antriebe ausgelöste Änderungen in allen Aufzeichnungen klar hervortreten. Ich habe beide Hypothesen ausführlich mit Hubert Lamb diskutiert, weil der von mir untersuchte Zeitraum den Übergang von der LIA zur modernen Warmzeit abdeckt. Lamb hat den Terminus Mittelalterliche Warmzeit (MWP) nicht verwendet, und Jean Grove ordnet den Begriff Kleine Eiszeit (LIA) Mathes (1939) zu, aber Lamb legte viel Gewicht auf die Zeitpunkte von Beginn und Ende beider Perioden. In Ausgabe 2 seiner Climatic History and the Future: Climate Present, Past and Future benutzte er die traditionellen Termini „the medieval warm epoch or Little Climatic Optimum“. Dies war die Unterscheidung zwischen Epochen und Ereignissen, wie sie bei magnetischen Umkehrungen üblich ist. Zu jener Zeit war das Optimum des Holozäns das ,Klima-Optimum‘ genannt worden, und die MWP wurde zum ,Kleinen Klima-Optimum‘.

[*Einfügung in [ ]vom Übersetzer zum Verständnis. Ohne diese Einfügung wäre der Satz wohl missverständlich. Oder ist etwas anderes gemeint? Anm. d. Übers.]

Lamb wies darauf hin, dass trotz des globalen Auftretens des Ereignisses dessen Zeitpunkt von Beginn, Höhepunkt und Ende deutlich variierte, abhängig von unterschiedlichen Umständen auf allen Ebenen von lokal über regional bis hemisphärisch. Er zeigte auch, dass der zeitliche Unterschied Dekaden ausmachen konnte. Man kann eine einzelne Station oder sogar mehrere Stationen in einer Region betrachten und würde keine Beweise eines Trends finden wie der MWP oder der LIA. Lamb schrieb:

Beweise, die in dieser Ausgabe schon an verschiedenen Stellen erwähnt worden sind zeigen, dass das Klima im Mittelalter ein paar Jahrhunderte lang in den meisten Gebieten der Welt sich den wärmsten nacheiszeitlichen Epochen annäherte. Der Höhepunkt der Warmzeit trat nicht überall zur gleichen Zeit auf … In den zentralen Gebieten von Nordamerika ebenso wie im europäischen Teil Russlands und in Grönland kann die wärmste Zeit von 950 bis 1200 datiert werden. In den meisten Gebieten von Europa scheinen aber die wärmsten Perioden zwischen 1150 und etwa 1300 gelegen zu haben mit nennenswerter Wärme auch in den 900er-Jahren“.

In der Legende zur Abbildung 7c (hier oben rechts) im FAR des IPCC hieß es:

Die gepunktete Linie repräsentiert nominell die Bedingungen zu Beginn des 20. Jahrhunderts“.

Vermutlich hat irgendjemand diese Linie hinzugefügt und dabei eine allgemeine Bandbreite für die MWP und die LIA eingeführt. Nach Augenschein überdeckt die MWP den Zeitraum 950 bis 1350 und die LIA den von 1350 bis 1900. Dies passt nicht zu den Angaben im Text, besonders hinsichtlich der LIA mit Zahlen, die Grove von 1540 bis 1840 zugeordnet werden, also vor 150 bis 450 Jahren. Es gibt ein paar interessante Kommentare, die der Korrektur bedurften für den politisch motivierten IPCC-Bericht 2001. Mit Bezug auf die MWP wird angemerkt:

Diese Zeit verbreiteter Wärme ist bemerkenswert hinsichtlich des Umstands, dass es keine Beweise gibt, dass diese Warmzeit mit einer Zunahme von Treibhausgasen einher gegangen war.

Bei der Diskussion der zahlreichen Erklärungen für die LIA schrieb man:

Einige haben vorgebracht, dass eine Zunahme des explosiven Vulkanismus‘ Ursache der Abkühlung war (z. B. Hammer 1977 oder Porter 1986). Andere behaupten eine Verbindung zwischen Gletschervorstößen und Reduktionen der solaren Aktivität (Wigley und Kelly 1989). Beispiele sind die Maunder- und Sporer-Minima (Eddy 1976) und auch Pittock 1983.

Man beachte, dass diese gleichen Argumente vorgebracht werden zur Erklärung des gegenwärtigen „Stillstands“ der Temperatur. Man beachte auch den Namen von Tom Wigley, ehemaliger Direktor der CRU und eine zentrale Figur im IPCC-Bericht 2001, der die Abkühlung der Sonnenaktivität zuschrieb. Folgende Referenz wird zitiert:

Wigley, T M L , and PM Kelly, 1989 Holocene climatic change, 14C wiggles and variations in solar irradiance Phil. Trans. Royal Society London (im Druck).

Offensichtlich ist der Artikel, gelistet als „im Druck“ niemals erschienen, weil er in Wigleys Veröffentlichungs-Liste nicht aufgeführt ist.

Auf Seite 203 des IPCC-Berichtes beobachten sie:

Folglich könnte ein Teil der globalen Erwärmung seit 1850 einer Erholung aus der Kleinen Eiszeit geschuldet sein und nicht einer direkten Folge menschlicher Aktivitäten. Es ist daher wichtig zu erkennen, dass natürliche Variationen des Klimas hervortreten und jede zukünftige, vom Menschen induzierte Änderung modulieren.

All diese Punkte konfrontierten die politische Agenda und widersprachen dieser, dass menschliches CO2 für die globale Erwärmung und später den Klimawandel verantwortlich sei. Die Widerlegung begann 1995 im Zweiten Zustandsbericht (SAR) des IPCC und erreichte ihren Höhepunkt im Dritten Zustandsbericht (TAR) 2001 mit seiner zentralen Abbildung, dem „Hockeyschläger“. Die genaue Bestimmung der Zeitpunkte von Beginn und Ende von MWP und LIA, die Relative Homogenität, war unabdingbar zur Identifikation der zugrunde liegenden Mechanismen. Der Hockeyschläger ,löste‘ dieses Problem, indem er beide Ereignisse kurzerhand eliminierte und die Gestalt eines modernen Schlägers annahm mit einem Fehlerfaktor, der die Zahlen bedeutungslos machte.

Willkommen bei der Klimawissenschaft des IPCC!

Link: http://wattsupwiththat.com/2015/03/22/relative-homogeneity-of-the-medieval-warm-period-mwp-and-the-little-ice-age-lia/

Übersetzt von Chris Frey EIKE




Was ist ein „normales“ Klima?

Al Gores Märchenfilm Eine Unbequeme Wahrheit behauptete, dass die globale Temperatur „genau richtig“ sei. Das ist ähnlich der Firma Goldilock, die über Porridge sagte „nicht zu heiß, nicht zu kalt, sondern gerade richtig“. Der Film hat den Oscar mehr als verdient, weil es ein in Hollywood produzierter Märchenfilm war, dem Land unbegrenzter Phantasie. Das große Gorakel erklärt: wir müssen diesen Normalzustand erhalten, weil das böse Hexen-CO2 diesen bedroht. Auf welchem Schloss auch immer er derzeit residiert, er diktiert, den Status Quo zu erhalten, so dass er seinen „normalen“ Lifestyle* weiterleben kann einschließlich der Profite aus dem Verkauf seines Märchens. Mit diebischer Freude bezieht er sich auf Menschen der Vergangenheit wie Arrhenius, Callendar oder Roger Revelle, wobei er bequemerweise die Tatsache ignoriert, dass sie alle in anderen „Normalzuständen“ lebten. Er ignoriert auch die „normalen“ Bedingungen seiner Vorfahren während der Eiszeit.

[*An sich mag ich diesen Begriff, der sich leider auch im Deutschen breit macht, überhaupt nicht. Aber weil ich nicht sicher bin, ob die Übersetzungen „Lebensstil“ oder „Lebensweise“ hier den Nagel auf den Kopf treffen, übernehme ich den Begriff mal. Anm. d. Übers.]

Gore möchte sein „Normal“ erhalten sehen durch die Reduktion der CO2-Menge in der Atmosphäre auf ein vorindustrielles Niveau. Das IPCC sagt, dass die Menge damals 270 ppm betragen hatte. Das ist zwar nicht korrekt, aber nehmen wir einmal an, dass es stimmt, um die Konsequenzen bei Erreichen dieses Niveaus zu betrachten. Nehmen wir also an, dass das IPCC recht hat und dass nahezu die gesamte Zunahme der globalen Temperaturen vom Höhepunkt der Kleinen Eiszeit [dem CO2 geschuldet] ist*, vor allem seit 1950. Dem IPCC zufolge liegt das gegenwärtige Niveau bei 400 ppm, so dass vermutlich das Erreichen des vorindustriellen Niveaus eine Reduktion um 130 ppm erforderlich macht. Dem IPCC und dem Nobelpreis-Gewinner Al Gore zufolge bestimmt das CO2-Niveau die Temperatur, so dass eine solche Reduktion eine Rückkehr zu den Bedingungen während der Kleinen Eiszeit nach sich ziehen würde. Eine Vielzahl von Quellen spezifiziert diese Bedingungen, besonders The Little Ice Age von Jean Grove sowie Links bei CO2Science.org und das Nongovernmental International Panel on Climate Change (NIPCC).

[*Der Satz lautet im Original: Assume also that the IPCC is correct and that virtually all the increase in global temperatures from the nadir of the Little Ice Age, especially since 1950. M. E. ist das kein Satz, weil das Prädikat fehlt. Ich habe meine Vorstellung des ganzen Satzes in eckigen Klammern hinzugefügt. Anm. d. Übers.]

Das IPCC und Gore betrachten nur die Temperatur-Implikationen von CO2, aber es ist unabdingbar für das Pflanzenleben, welches wiederum das Sauerstoff-Niveau bestimmt, das für alle Lebensformen unabdingbar ist. Wie viel Vegetation würde verloren gehen bei einer Reduktion um 130 ppm? Es ist lediglich die Berechnung eines Computermodells, aber das Abstract [einer Studie von] Donohue et al. erklärt:

Satellitenbeobachtungen zeigen ein Ergrünen des Planeten während der letzten Jahrzehnte. Die Rolle des „CO2-Düngungs-Effektes“ – also die gesteigerte Photosynthese infolge des zunehmenden CO2-Niveaus – muss aber noch untersucht werden. Die direkte Auswirkung des CO2-Effektes auf die Vegetation sollte sich am deutlichsten in warmen, ariden Umgebungen zeigen, wo Wasser das dominante Limit des Pflanzenwachstums ist. Mittels der Gas-Austausch-Theorie [gas exchange theory?] sagen wir voraus, dass die Zunahme des atmosphärischen CO2-Gehaltes im Zeitraum von 1982 bis 2010 zu einer Zunahme um 5% bis 10% der Bedeckung mit grünen Pflanzen in warmen, ariden Umgebungen geführt hat. Satellitenbeobachtungen, analysiert um die Effekte variierender Niederschläge zu entfernen, zeigen, dass die Bedeckung dieser Umgebungen um 11% zugenommen hat. Unsere Ergebnisse bestätigen, dass der vermutete CO2-Düngungseffekt stattfindet zusammen mit fortgesetzten anthropogenen Störungen des Kohlenstoff-Zyklus‘, und dass der Düngungseffekt inzwischen zu einem signifikanten Prozess auf dem Festland geworden ist.

Nimmt man erneut an, dass die IPCC-Zahlen korrekt sind, führte eine Zunahme des CO2-Gehaltes um 14% zu einer Zunahme der Vegetation um 11%. Welche Auswirkung würde eine Reduktion um 130 ppm haben? Wie würde der Einfluss reduzierter CO2-Düngung und zurückgehender Temperatur zusammen aussehen? Grove und Andere zeigten die Auswirkung sinkender Temperaturen, nicht CO2.

Als in den siebziger Jahren Konsens hinsichtlich einer globalen Abkühlung bestanden hatte, fertigte Martin Perry Studien über den Einfluss von Abkühlung im Verlauf der Kleinen Eiszeit (Abbildung 1):

Abbildung 1

Abbildung 1 zeigt den Landkreis [county] Berwickshire in der Borders-Region in UK mit einer hohen Prozentzahl von Land, dass der Kultivierung während dieser Zeit verloren gegangen war. Was war normal für die Menschen, die während dieser Zeit gelebt haben? Die Antwort lautet, was immer sie erlebt haben.

Die WMO hat die Normalperiode von 30 Jahren eingeführt mit der Begründung, dem Problem abzuhelfen, was normal ist oder um Mittelwerte für Planungen und andere Anwendungen zur Verfügung zu stellen. Sie erklären:

Die Standard-Klima-Normalwerte unterstützen viele Klima-Serviceleister und Anwendungen einschließlich Klimatologien. Sie komprimieren auch die Referenzperiode für die Evaluierung von Anomalien der Klimavariabilität und -änderung“.

Ein Problem taucht auf, wenn man historische Aufzeichnungen wie z. B. für den Zeitraum von 1781 bis 1810 mit den modernen Normalzeiträumen vergleicht. Welchen modernen Zeitraum würde man heranziehen, 1931 bis 1960 oder den jüngsten 1981 bis 2010? William Wright führte über dieses Problem eine Studie durch, in der er…

…für einen dualen Normalstandard plädierte. CCI-MG konkurriert mit der Schlussfolgerung, dass es die Notwendigkeit häufiger Aktualisierungen bei der Berechnung der Normalwerte für Klima-Applikationen gibt (Vorhersage und Belange der Klimatologie). Dies basiert auf der Notwendigkeit, grundlegende Planungsentscheidungen auf die Grundlage mittlerer und extremer Klimabedingungen zu stellen bei nicht stationären Klimabedingungen“.

Und da haben wir den Kopf des Nagels: „nicht stationäre Klimabedingungen“.

Dann gibt es da noch das Problem der endemischen Adjustierungen all der „offiziellen“ Daten. Die NOAA sagt:

Viele Änderungen und Zusätze wurden den Normalwerten von 1981 bis 2010 hinzugefügt. Monatliche Temperatur- und Niederschlags-Normalwerte basieren auf zugrunde liegenden Datenwerten, die einer zusätzlichen Qualitätskontrolle unterzogen worden sind. Monatliche Temperaturen wurden ebenfalls standardisiert, um den Auswirkungen von Stationsverlagerungen, Änderungen der Instrumentation usw. Rechnung zu tragen“.

Vermutlich bedeutet dies, dass man die Ergebnisse nicht mit jenen früherer „Normalwerte“ vergleichen kann.

Die NOAA informiert uns darüber, dass

Normalwerte eine große Zusammenstellung von Datenprodukten sind, die den User viele Tools zum Verständnis typischer Klimabedingungen zur Verfügung zu stellen. Und zwar für tausende Orten in den gesamten USA“.

Nein, das tun sie nicht! Es sind lediglich 30-Jahres-Mittelwerte, die nichts zum Verständnis typischer Klimabedingungen an irgendeiner Stelle beitragen. Da sich die 30-jährigen Mittelwerte ändern im Zuge von Verfahren, die in Zeiträumen länger als 30 Jahre ablaufen, sagen sie uns einfach nur etwas über das Klima während jenes Zeitraumes. Das Problem illustriert die Auslassung der Milankovitch-Mechanismen seitens des IPCC. Wie berichtet, hat Prof. Lindzen im jüngsten APS-Workshop erklärt:

Die IPCC-Schätzung des anthropogenen Einflusses lautet etwa 2 W/m² im AR 5, und das ist viel weniger als der Milankovitch-Effekt von 100 W/m² auf 65°N, siehe Edvardson et al.

Abbildung 2 zeigt die 100 W/m²-Variabilität auf 65°N, berechnet von Berger 1978 und diskutiert in meinem Beitrag Important But Little Known “Earth “ scientists.”

Abbildung 2: Variationen der Einstrahlung (einfallende Solarstrahlung) auf 65°N.

Quelle: Berger 1978. Langzeitliche Variationen der täglichen Einstrahlung und quaternäre [quaternary?] klimatische Änderungen. J. Atmos. Sci. 35: 2362–2367.

Ein IPCC-Modellierer sagte mir einmal, dass man Milankovitch ausgelassen hätte, weil man den zeitlichen Maßstab als ungeeignet angesehen hatte.

Offensichtlich stellen die Menschen Planungen und Management-Entscheidungen auf die Grundlage dieser „Normalwerte“. NOAA berichtet:

Zusätzlich zu den Wetter- und Klima-Vergleichen werden Normalwerte in scheinbar zahllosen Anwendungen in einer ganzen Palette von Bereichen verwendet. Darunter sind: Vorschriften von Energieunternehmen, Energie-Lastvorhersagen, Ernteauswahl und Pflanzzeiten, die Planung von Konstruktionen, das Design von Gebäuden und viele andere.

Sie nehmen an, dass all diese Bedingungen fortbestehen. Das erinnert mich an eine Präsentation von Michael Schlesinger auf einer Konferenz in Edmonton zur Zukunft des Klimas in der kanadischen Prärie. Ein Bürokrat sagte, man plane die Aufforstung in Teilen des südlichen Alberta, und Ihre Daten zeigen, dass diese Gebiete in 50 Jahren Wüste sind. Wie genau ist diese Vorhersage? Schlesinger erwiderte etwa 50%. Der Bürokrat sagte: „Mein Minister verlangt 98%“.

Das ist heute kein bisschen besser. Abbildung 3 ist eine Karte der Genauigkeit der Niederschlagsvorhersage für 12 Monate in Kanada. Sie liegt in 95% des Gebietes von Kanada unter 40%, wenn man es mit dem 30-jährigen Normalwert 1981 bis 2010 vergleicht.

Abbildung 3

Ich habe es so verstanden, dass man einen Zeitraum von 30 Jahren gewählt hat, weil 30 Jahre eine statistisch signifikante Größe (n) für eine Testreihe für irgendeine Bevölkerung (N) ist. Der Zeitraum ist für Klimaverteilungen wertlos, und die Ursachen, die zu diesen Klimaverteilungen führen, erstrecken sich über viel längere Zeitperioden. Die NOAA räumt dies auch ein, wenn sie schreibt:

Tatsächlich war es so: als die weit verbreitete Praxis der Berechnung von Normalwerten in den dreißiger Jahren begonnen hatte, lautete die allgemein akzeptierte Auffassung des Klimas, dass zugrunde liegende langfristige Mittelwerte der Klima-Zeitreihen konstant wären.

Dieser Gedanke setzte sich durch und wurde zur fundamentalen Auffassung der Öffentlichkeit, dass das Klima konstant ist, was die gegenwärtige Änderung als etwa Anomales erscheinen ließ. Auch wurde die 30-jährige Normalperiode zum Mittelwert für die Wetterleute in Radio und Fernsehen. Die NOAA bestätigt diese Übernahme.

Meteorologen und Klimatologen verwenden Normalwerte regelmäßig für die Übertragung jüngster Klimabedingungen in einen historischen Zusammenhang. Die NOAA-Normalwerte sieht man allgemein bei lokalen Wetternachrichten als Vergleich zu den täglichen Wetterbedingungen.

Wenn Medien-Meteorologen sagen, dass eine Wettervariable heute über dem Normalwert liegt, gilt das üblicherweise nur für den 30-jährigen Mittelwert, nicht aber für die Gesamtdauer der Aufzeichnung an der Station. Dies engt die Bandbreite erheblich ein und erzeugt ein verzerrtes Bild davon, wie stark das Klima variiert. Dies wiederum verstärkt die Effektivität der Behauptungen von Gore und Anderen, dass das gegenwärtige Wetter anomal ist. Der Klima-„Normalwert“ ist jetzt genauso verzerrt wie Goldilocks Gores „Normalwert“. Bei Porridge und Märchen mag es ja funktionieren, aber für das aktuelle Klima funktioniert es nicht. Die Behauptung, dass das Normale anomal ist, ist wirklich eine Absurdität.

Link: http://wattsupwiththat.com/2015/03/17/what-is-a-normal-climate/

Übersetzt von Chris Frey EIKE




2014: Unter den 3 Prozent der kältesten Jahre innerhalb der letzten 10.000 Jahre?

Bild rechts: Abbildung1

Wir wissen, dass sich die Schlagzeile auf die NOAA-Projektion bezieht, aber die Öffentlichkeit verinnerlicht nur den Terminus „wärmstes Jahr“. Das ist von Anfang an die Routine der Manipulation von Schlagzeilen durch Bürokraten und IPCC-Unterstützer. Die Behauptung kam nicht überraschend, weil die NOAA schon im Januar angefangen hat, das Jahr 2014 mit der Schlagzeile NOAA: January 2014 fourth-warmest on record zu apostrophieren. Verschiedene Monate des Jahres wurden benannt, zum Beispiel „NOAA: August 2014 Was The Warmest On Record,” mit dem Zusatz, dass er ein kleines bisschen zu warm war. Aber da hatte die NOAA schon berichtet:

Der Sommer des Jahres 2014 ist offiziell der wärmste seit Beginn moderner instrumenteller Aufzeichnungen vor über 130 Jahren. Dies geht aus dem jüngsten Klimastatusbericht des National Climatic Data Center der NOAA hervor.

Im Oktober hatte man das Jahr zusammengefasst:

Dies macht die ersten zehn Monate des Jahres 2014 zur wärmsten Januar-bis-Oktober-Periode jemals und schiebt das Jahr 2014 auf den Weg, das wärmste, in den bis zum Jahr 1880 zurück reichenden NOAA-Archiven verzeichnete Jahr zu werden.

Bob Tisdale schrieb eine exzellente Zusammenfassung der „ Anticipation [Erwartung] der beiden Reihen vom GISS und vom NCDC. Er war nicht überrascht, als diese Aufzeichnungen erschienen und zeigten, dass das Jahr 2014 um 0.02°C über dem bisherigen Rekord lag. Man erinnere sich, dies stammt aus einer Reihe, die in historischen Aufzeichnungen beschränkt war auf 0,5°C. Wir kennen auch die beiden Satelliten-Datenreihen, RSS und UAH, und beide zeigen, dass es nicht das wärmste Jahr war.

Um der Schlagzeile zu begegnen bräuchte man etwas sehr Dramatisches, weil es hinsichtlich der Temperatur 2014 nichts Signifikantes gibt, wie Tisdale in einem Beitrag mit dem Titel The Uptick in Global Surface Temperatures in 2014 Doesn’t Help the Growing Difference between Climate Models and Reality zu beweisen plant. Er ist daran interessiert zu sehen, wie Gavin Schmidt, Nachfolger von James Hansen am Goddard Institute for Space Studies (GISS) die Fackel weiterträgt. Die Historie zeigt, dass die GISS-Werte stets höher lagen als die Werte aus allen anderen Quellen. Das ist nur ein Indikator der Temperatur-Adjustierungen, die vorgenommen worden waren, um die AGW-Hypothese passend zur politischen Agenda zu machen.

Herausforderungen und Festlegungen [fixes] des IPCC

Wie belastbar ist die Behauptung bzgl. 2014? Im Kontext der letzten 10.000 Jahre ist das bedeutsam, weil sich das Jahr unter den 3 Prozent der kältesten Jahre befindet, was viel bedeutsamer ist, als die von den Warm-Alarmisten proklamierten 100 Jahre. Es gibt zwei wesentliche Gründe: Die höchsten Temperaturen wurden in den letzten Jahren steigender Temperatur abgelesen. Jede Veränderung, Adjustierung und Kurzfassung der Aufzeichnung bislang wurde vorgenommen, um zunehmend höhere Temperaturen zu erzeugen und zu verkünden

1. Die instrumentellen Daten sind räumlich und zeitlich unzureichend. Wetterdaten an der Oberfläche sind praktisch nicht existent und ungleich über 85% der Erdoberfläche verteilt. Über 70% der Ozeane gibt es praktisch gar keine. Auf dem Festland gibt es praktisch keine Daten aus den 19% Berge, 20% Wüste, 20% boreale Wälder, 20% Prärien und 6% tropischer Regenwald. Um die Lücken „aufzufüllen“, stellte das GISS die lächerliche Behauptung auf, dass eine einzige Stations-Temperaturmessung repräsentativ sei für ein Gebiet um die Station mit einem Radius von 1200 km. Die initialen AGW-Behauptungen basierten auf Festlandsdaten. Die Daten sind vollkommen ungeeignet als Grundlage für die Konstruktion der Modelle.

2. Die meisten Stationen konzentrieren sich im östlichen Nordamerika und in Westeuropa. Sie wurden schon früh zu Beweisen für die vom Menschen verursachte globale Erwärmung. IPCC-Advokaten haben lange Zeit die Tatsache ignoriert, dass diese Stationen fast alle vom städtischen Wärmeinsel-Effekt UHI betroffen waren.

Der UHI war eine der ersten Herausforderungen der aus den instrumentellen Messungen abgeleiteten AGW-Behauptung. Zwei von Warwick Hughes erzeugte Graphiken waren die Effektivsten und erschienen im Jahre 1991 kurz nach Veröffentlichung des 1. IPCC-Berichtes 1990. Abbildung 2 zeigt die Temperatur an sechs großen australischen Städten.

Abbildung 2

Eine höchst wahrscheinliche Erklärung des UHI ist die Ausdehnung der Stadtgebiete, bis ursprünglich außerhalb der Stadt liegende Wetterstationen an Flughäfen davon eingeschlossen worden waren. Das Automobil hat dies möglich gemacht. Abbildung 3 zeigt einen Vergleich mit 26 ländlichen Stationen:

Abbildung 3

Der Unterschied ist markant. Genauso interessant ist, dass die Temperaturen im ersten Teil der Zeitreihe von 1880 bis 1900 höher lagen.

3. Es gibt eine konstante Revision der Aufzeichnungen hin zu niedrigeren historischen Werten. Dies lässt den Gradienten der vermeintlichen Erwärmung zunehmen. Offensichtlich wird dies in den Aufzeichnungen von Neuseeland (Abbildung 4):

Abbildung 4

Eine Suche bei WUWT nach dem Terminus „Temperature adjustments” ergibt eine Unmenge von Beweisen. Jedwede vorgenommene Anpassung diente dazu, den Gradienten der Kurve so zu verändern, dass es heute wärmer ist als in der Vergangenheit. Erklärungen, wenn überhaupt abgegeben, bieten gewöhnlich kaum eine Rechtfertigung für diese Adjustierungen. Das andere Leuchtzeichen ist, dass nahezu alle Adjustierungen vorgenommen worden waren, bevor die UAH-Satelliten-Temperaturaufzeichnung im Jahre 1991 begann.

4. Die Politik hatte erwartet, dass Satellitendaten die Wetterstationen am Erdboden ersetzen würden. Als Folge wurden viele Wetterstationen stillgelegt (Abbildung 5) oder zumindest nicht in die Berechnung des globalen Mittelwertes aufgenommen.

Die Abbildungen unten zeigen:

a) die Anzahl von Stationen mit einer Aufzeichnungsdauer von mindestens N Jahren als eine Funktion von N,

b) die Anzahl messender Stationen als eine Funktion der Zeit,

c) die Prozentzahl hemisphärischer Gebiete, die sich innerhalb des Radius‘ von 1200 km um eine messende Station befindet.

Abbildung 5

Die Anzahl von Bodenstationen war im Jahre 1960 unzureichend und wurde im Jahre 1990 noch weiter reduziert. Man beachte, dass nur etwa 1000 Stationen einen Zeitraum von 100 Jahren überdecken.

Aber wie genau kann man die globale Temperatur ermitteln, wenn der antarktische Kontinent ausgelassen wird? Man betrachte die IPCC-Schlussfolgerung:

Der größte Teil der beobachteten Zunahme der globalen mittleren Temperaturen seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der anthropogenen Treibhausgas-Konzentrationen geschuldet. Es ist wahrscheinlich, dass es während der letzten 50 Jahre eine signifikante anthropogene Erwärmung gemittelt über jeden Kontinent (außer der Antarktis) gegeben hat.

Antarktika ist 14 Millionen km² groß, also fast so groß wie Russland (17 Millionen km²), dem größten Land der Erde.

Man füge dem die 14 Millionen km² des Arktischen Ozeans hinzu, aus dem keine Daten vorliegen, wie das Arctic Climate Impact Assessment (ACIA) anmerkt (Abbildung 6)

Abbildung 6

Die Ausdehnung dieser Gebiete ist das Eine, ihre Rolle bzgl. des Weltklimas das Andere und weitaus wichtiger als die Rolle fast aller anderen Regionen.

Abbildung 7 zeigt, dass weniger Stationen ein beitragender Faktor zu höheren Temperaturen sind:

Abbildung 7

Die Stationen, die die NOAA aus dem GHCN in Kanada übernommen hat, illustrieren das Problem (Abbildung 8).

Abbildung 8

Es gibt 100 Stationen nördlich des Polarkreises, aber die NOAA zieht nur die Station Eureka, eine bekannte Wärmeinsel heran, um ein Drittel des zweitgrößten Landes der Erde zu repräsentieren. Selbst der 1200-km-Radius zählt hier nicht mehr.

7. Abänderungen der historischen Aufzeichnungen enthalten auch den infamen Hockeyschläger. Dabei wird von einem Mitglied der Climatic Research Unit CRU berichtet, dass er Prof. David Deming gesagt hat: „Wir müssen die Mittelalterliche Warmzeit loswerden!“ Mit dieser Äußerung im Hintergrund wurde der Hockeyschläger erzeugt. Das Blatt [des Hockeyschlägers] wurde geformt von CRU-Direktor Phil Jones‘ Daten, die eine Zunahme von 0,6°C innerhalb von etwa 120 Jahren zeigten. Das Problem war der Fehlerfaktor: ±0.2°C oder ±33 Prozent.

8. Die Temperaturtrends des 20. Jahrhunderts beginnen mit einer Erwärmung von 1900 bis 1940, der eine Abkühlung von 1940 bis 1980 folgte, gefolgt von einer erneuten Erwärmung von 1980 bis 1998 sowie einem leichten Abkühlungstrend danach bis 2014. Die Alarmisten haben die Abkühlung den menschlichen Emissionen von Sulfaten zugeordnet, aber das stellte sich als falsch heraus, als die Temperaturen wieder zu steigen begannen ohne dass die Sulfate abnahmen.

9. Falls wir die Erwärmung alles in allem ab 1900 akzeptieren, was vernünftig wäre, kam doch die Erde aus der Kleinen Eiszeit (LIA), dann treten die höchsten Temperaturen erst in den jüngsten Aufzeichnungen auf (Abbildung 9)

Abbildung 9

Der Umstand, dass 2014 einen winzigen Betrag wärmer war als jedes andere Jahr in der Aufzeichnung ändert nicht den Trend des „Stillstands“. Er verstärkt nicht die CO2-Kausalitäts-Behauptung.

10. Die Behauptung lautet, dass das Jahr 2014 um 0,02°C wärmer ist als jedes andere Jahr. Es ist vernünftig zu vermuten, dass die US-Temperaturaufzeichnung unter den Besten ist. Anthony Watts zeigte, dass nur 7,9 Prozent der US-Stationen auf <1°C genau ist (Abbildung 10).

Abbildung 10

Eine Gegenschlagzeile muss eine Perspektive bieten

Der Titel zu diesem Beitrag könnte auch lauten [übersetzt] 2014: unter den 3 Prozent kältester Jahre in 10.000 Jahren“. Abbildung 11 zeigt die Temperatur der Nordhemisphäre für den Zeitraum, der bezeichnet wird als „Klimaoptimum, Hypsithermal und Holozän-Optimum“.

Abbildung 11

Die dem Originaldiagramm hinzugefügte rote Linie vergleicht die genäherten Temperaturen des 20. Jahrhunderts (rechte Seite) mit denen der letzten 10.000 Jahre. Bei CO2Science wird von Dahl-Jensen (1998) angemerkt:

Nach dem Ende der Eiszeitperiode haben die Temperaturen bis zum klimatischen Optimum (vor 4000 bis 7000 Jahren) stetig zugenommen, bis die Temperatur maximal um 2,5°C über den heutigen Werten lagen.

Der Schlüssel-Terminus in der 2014-Behauptung ist „in der Aufzeichnung“, aber die überdeckt lediglich etwa 100 Jahre. Im Zusammenhang mit dem klimatologisch viel bedeutenderen Zeitraum von 10.000 Jahren ist es eines der kältesten Jahre.

Die Behauptung, dass 2014 das wärmste Jahr jemals war, war politisch wichtig für die Befürworter der IPCC-Story, dass menschliches CO2 die Ursache der globalen Erwärmung sei. In der Mitte dieser Argumentation stand die Notwendigkeit zu beweisen, dass die Temperaturen zum Ende des 20. Jahrhunderts die „wärmsten jemals“ waren. Dies ist der Grund, warum die 2014-Behauptung so bequem vor dem COP-Treffen in Lima auftauchte, auf dem die falsche IPCC-Behauptung verzweifelt beworben wurde.

Die Beweise widersprechen weiterhin hartnäckig den wesentlichen Hypothesen der AGW-Hypothese. T. H. Huxley (1825 bis 1895) drückte das so aus:

Die große Tragödie der Wissenschaft – eine wunderschöne Hypothese wird durch eine hässliche Tatsache geschlachtet.

Das Problem ist, dass die Fakten immer weiter anwachsen und die AGW-Befürworter diese weiterhin ignorieren, umgehen oder sie verfälschen. Wir wissen, dass die Wissenschaft falsch ist, weil die IPCC-Projektionen falsch sind. Normale Wissenschaft verlangt verlangt immer aufs Neue das Überdenken einer Hypothese und deren Implikationen. Das IPCC hat diese Option entfernt, als sie den Beweis für die Hypothese ausschlossen. Dies packt das IPCC auf die Tretmühle, die Ergebnisse zu fixieren, vor allem die Temperaturaufzeichnung. Der chinesische General Tao Kan drückte es so aus: „Es ist wie der Ritt auf einem Tiger, von dem abzusteigen sehr schwierig ist“.

Link: http://wattsupwiththat.com/2015/01/21/2014-among-the-3-percent-coldest-years-in-10000-years/

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Im Original ist der Autor Tim Ball vermutlich mit der Zählung seiner Abbildungen durcheinander gekommen. Die Abbildung 6 taucht im Original zweimal auf, obwohl es sich um ganz verschiedene Graphiken handelt. Danach geht die Zählung mit 7 weiter.

Ich habe die Zählung daher korrigiert. Die zweite als „Abbildung 6“ bezeichnete Graphik habe ich zu Abbildung 7 gemacht. Aus Abbildung 7 im Original wurde hier Abbildung 8, usw bis zum Ende des Beitrags.




Eine einfache Wahrheit: Computer-Klimamodelle können nicht funktionieren

Bild rechts (Abbildung 1): Wigley und H.H.Lamb, Gründer der CRU. Quelle

IPCC-Computer-Klimamodelle sind die Zugpferde bei der Irreführung der Öffentlichkeit hinsichtlich AGW mit der Behauptung, dass menschliches CO2 die globale Erwärmung verursacht. Sie erzeugen die Ergebnisse, für die sie konstruiert worden sind.

Das Akronym GIGO (Garbage In, Garbage Out) reflektiert den Umstand, dass die meisten an Computermodellen Arbeitenden das Problem kannten. Einige schlagen vor, dass es in der Klimawissenschaft tatsächlich steht für Gospel In, Gospel Out [etwa: Prinzip hinein, Prinzip heraus. Ich belasse es wegen der vielen Bedeutungen beim Original. Anm. d. Übers.]. Die Gospel Out-Ergebnisse sind die IPCC-Vorhersagen (Projektionen), und sie sind konsistent falsch. Das ist für mich keine Überraschung, weil ich von Anfang an die Unzulänglichkeit der Modelle betont habe. Ich habe beobachtet, wie die Klimamodellierer die Klimakonferenzen als Präsentatoren von Schlüsselbemerkungen gekapert und dominiert haben. Es waren Modellierer, die die CRU dominiert haben und mittels der CRU auch das IPCC. Die Gesellschaft ist immer noch fasziniert von Computern, so dass sie diesen eine Aura der Genauigkeit und Wahrheit zugebilligt wird, die durch nichts gerechtfertigt ist. Pierre Gallois erklärt dazu:

Falls man Albernheiten in einen Computer füttert, kommt nichts außer Albernheiten heraus. Aber diese Albernheiten hier sind durch eine sehr teure Maschine gelaufen und wurden irgendwie geadelt, und niemand wagt es, sie zu kritisieren.

Michael Hammer fasst es so zusammen:

Es ist wichtig, sich daran zu erinnern, dass der Modelloutput vollständig und exklusiv bestimmt wird durch die in den Input-Fragen enthaltenen Gleichungen. Der Computer bewirkt kein Hinterfragen, bringt keine neuen Informationen und keine größere Sicherheit im Output. Er liefert nur Rechenleistung.

Es ist ein guter Artikel, der jedoch den wichtigsten aller Punkte nicht anspricht, nämlich dass ein Modell nur so gut ist wie die Struktur, auf dem es konstruiert wurde, nämlich Wetteraufzeichnungen.

Die IPCC-Lücke zwischen Daten und Modellen beginnt

Dieses Auslassen ist keine Überraschung. Der CRU-Gründer Hubert Lamb definierte das grundlegende Problem, und sein Nachfolger Tom Wigley besorgte die Transition zum größeren Problem von politisch dirigierten Klimamodellen.

Der Grund von Lamb, die CRU zu gründen, wird auf Seite 203 seiner Autobiographie genannt mit dem Titel: Through all the Changing Scenes of Life: A Meteorologists Tale”:

…es war klar, dass die erste und größte Notwendigkeit darin bestand, die Fakten von Aufzeichnungen des natürlichen Klimas aus der Vergangenheit zu etablieren, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten wichtig geworden sein könnten“.

Lamb wusste, was los war, wenn er kryptisch schreibt:

Mein direkter Nachfolger Professor Tom Wigley war zuallererst an den Aspekten einer Veränderung des Weltklimas interessiert als Folge menschlicher Aktivitäten, primär durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“ – „Nach nur wenigen Jahren wurde fast die gesamte Arbeit an der historischen Rekonstruktion von Klima- und Wettersituationen der Vergangenheit, die die CRU zunächst so bekannt gemacht hatte, aufgegeben“.

Lamb erklärte des Weiteren, wie eine Zuwendung der Rockefeller Foundation zu einem völligen Fehlschlag wurde:

…eine verständlicherweise unterschiedliche wissenschaftliche Beurteilung zwischen mir und dem Wissenschaftler Dr. Tom Wigley, den wir damit beauftragt haben, die Verantwortung für die Forschung zu übernehmen“.

Wigley trieb die Anwendung von Klimamodellen voran, aber Lamb wusste, dass diese nur so gut waren wie die Daten, die für ihre Konstruktion verwendet worden waren. Lamb liegt immer noch richtig. Die Modelle beruhen auf Daten, die entweder gar nicht existieren oder hinsichtlich aller Messungen ungeeignet sind.

Abbildung 2

Das Konstrukt von Klimamodellen

Modelle reichen von einfachen maßstäblich verkleinerten Kopien mit erkennbaren individuellen Komponenten bis zu Abstraktionen wie mathematische Formeln, die weit entfernt sind von der Realität, wobei Symbole die individuellen Komponenten repräsentieren. Abbildung 2 ist ein einfaches schematisches Modell mit den für ein Computermodell notwendigen Gliederungen. Der Abstand der Gitterpunkte (gezeigt hier 3° mal 3°) variiert, und es wird behauptet, dass eine Reduktion des Abstandes der Gitterpunkte verbesserte Genauigkeit liefert. Das spielt aber keine Rolle, weil es so wenige Stationen mit angemessener Länge oder Zuverlässigkeit gibt. Die mathematische Gleichung für jeden Gitterpunkt kann nicht genau sein.

Abbildung 3: Anzahl der Stationen nach NASA GISS

Diese Karte ist betrügerisch, weil jeder Punkt eine einzelne Wetterstation repräsentiert, aber im Maßstab der Karte jeweils ein paar Hundert Quadratkilometer überdeckt. Aber unabhängig davon ist es Realität, dass es in riesigen Gebieten der Welt überhaupt keine Wetterstationen gibt. Möglicherweise gibt es an über 85% der Gitterpunkte keine Daten. Das tatsächliche Problem ist sogar noch größer als NASA GISS, vielleicht unwissentlich, und wird in Abbildung 4 illustriert:

Abbildung 4

Abbildung 4(a) zeigt die Länge der Aufzeichnung. Nur 100 Stationen reichen 100 Jahre zurück, und fast alle von ihnen liegen in dicht besiedelten Gebieten im Nordosten der USA oder Westeuropa und sind Schauplatz des städtischen Wärmeinseleffektes (UHI). Abbildung 4(b) zeigt den Rückgang der Anzahl von Stationen um das Jahr 1960. Teils erfolgte dieser Rückgang wegen der vermuteten besseren Abdeckung durch Satelliten. Effektiv war das aber erst 2003-2004 der Fall. Die Messungen an der Erdoberfläche blieben der Standard für die IPCC-Berichte. Abbildung 5 zeigt eine von der CRU erstellte Karte für den Arctic Climate Impact Assessment (ACIA)-Bericht [etwa: Bericht zur Abschätzung von Klimaauswirkungen in der Arktis].

Abbildung 5.

Es ist eine stereographische Projektion über den Zeitraum 1954 bis 2003 und zeigt für den Arktischen Ozean (14 Millionen km², also fast die Größe von Russland) „no data“. Trotz des signifikanten Rückgangs der Anzahl von Stationen in Abbildung 4(b) zeigt die Graphik 4(c) nur einen leichten Rückgang der abgedeckten Gebiete. Dies liegt daran, dass man annimmt, dass jede Station einen Umkreis von 1200 km um die Station repräsentiert. Das ist absurd. Man zeichne einen Kreis mit einem Radius von 1200 km um irgendeine Station an Land oder auf See und schaue, was darin eingeschlossen ist. Die Behauptung ist sogar noch dümmer, wenn der Umkreis teilweise Wasser überdeckt.

Abbildung 6a zeigt den direkten Abstand zwischen Calgary und Vancouver, der 670 km beträgt und in etwa auf der gleichen geographischen Breite liegt.

Abbildung 6a

Abbildung 6b: Distanz zwischen London und Bologna 1154 km.

Abbildung 6c: Distanz zwischen Trondheim und Rom 2403 km. Man beachte, dass dieser Kreis mit Durchmesser 2400 km fast ganz Europa einschließt.

Ein Beispiel der Probleme, die sich aus der 1200-km-Behauptung ergeben, zeigte sich vor ein paar Jahren in Saskatchewan. Der Ombudsmann der Provinz suchte meinen Rat hinsichtlich Behauptungen einer Frostversicherung, die sinnlos schienen. Die Landwirtschafts-Versicherung der Regierung entschloss sich, Versicherungen gegen Frost anzubieten. Jeder Landwirt wurde aufgefordert, die nächstliegende Wetterstation als Basis für Entscheidungen heranzuziehen. Schon im allerersten Jahr kam es zu Frost bereits Ende August. Mittels der Aufzeichnungen von Wetterstationen erhielt die Hälfte aller Landwirte keinen Ausgleich, weil ihre Station +0,5°C gemessen hatte, obwohl sie alle von „schwarzem Frost“ betroffen waren. Die Bezeichnung „schwarzer Frost“ deswegen, weil vormals grüne Blätter nach dem Frost schwarz waren. Die andere Hälfte wurde ausbezahlt, obwohl es dort keine Beweise für physischen Frost gab, die Station aber eine Temperatur von -0,5°C angezeigt hatte. Der Ombudsmann konnte dieses Missverhältnis und die Ungenauigkeit der Temperaturmessungen nicht glauben, vor allem in einem nahezu isotropen Gebiet. Vor allem, nachdem ich darauf hingewiesen hatte, dass die Temperaturmessungen von einer Stevenson Wetterhütte (Screen) stammten, zumeist 1,25 bis 2 m über Grund und damit über dem Getreide. Die Temperaturen unterhalb dieses Niveaus sind markant unterschiedlich.

Empirischer Test der Temperaturdaten

Eine Gruppe, die ein Kartographie-Projekt durchführte und dabei versuchte, Daten für die praktische Anwendung zu verwenden, brachte die Unzulänglichkeit der Temperaturaufzeichnung ans Licht:

Die Story dieses Projektes beginnt mit Kaffee, wir wollten Karten erstellen, die zeigten, wo in der Welt Kaffee am besten gedeiht und wohin er nach der Ernte geht. Wir erkundeten Daten der weltweiten Kaffeeproduktion und besprachen, wie man die optimalen Wachstumsgebiete auf der Grundlage entscheidender Umweltbedingungen kartographieren könnte: Temperatur, Niederschlag, Höhe, Sonnenlicht, Wind und Bodenqualität.

Den ersten extensiven Datensatz, den wir finden konnten, enthielt Temperaturdaten vom National Climatic Data Center NCDC der NOAA. Also begannen wir eine Karte der Erde zu zeichnen auf der Grundlage der historischen monatlichen Temperatur. Der Datensatz enthielt Messungen bis zum Jahr 1701 zurück von über 7200 Wetterstationen auf der ganzen Welt.

Jede Klimastation konnte an einem bestimmten Punkt auf dem Globus platziert werden aufgrund der geographischen Koordinaten. Nordamerika und Europa wiesen dicht gedrängt Messpunkte auf, während die räumliche Verteilung von Stationen in Südamerika, Afrika und Ostasien ziemlich spärlich ist. Die Stationsliste veränderte sich von Jahr zu Jahr, wobei einige Stationen neu online gingen und andere verschwanden. Dies bedeutete, dass man nicht einfach die Temperatur an einem bestimmten Punkt mit der Zeit plotten konnte.

Abbildung 7

Die von ihnen erstellte Karte illustriert die Lücken sogar noch stärker, aber das war nicht das einzige Phänomen.

An dieser Stelle hatten wir eine Karte mit einer passablen Approximation der globalen Temperatur (Abbildung 7), aber es war schwierig, Daten hinsichtlich Niederschlag, Höhe über NN, Sonnenlicht, Wind und Bodenqualität zu finden. Die Temperaturdaten allein lieferten uns keine überzeugende Story.

UK mag genaue Temperaturmessungen haben, aber das ist ein kleines Gebiet. Viel größere Länder weisen ungeeignete Instrumentation und Messungen auf. In den USA gibt es möglicherweise das beste, mit Sicherheit aber das teuerste Netzwerk. Forschungen von Anthony Watts zeigten, dass die US-Aufzeichnungen nur 7,9 Prozent Wetterstationen mit einer Genauigkeit unter 1°C aufweisen.

Daten bzgl. Niederschlag sind das größere Problem

Wasser in allen Aggregatzuständen ist kritisch für den Energietransport durch die Atmosphäre. Der Transfer von zusätzlicher Energie aus den Tropen, um Defizite in Polargebieten auszugleichen (Abbildung 8) erfolgt zum größten Teil in Gestalt latenter Wärme. Niederschlag ist lediglich eine Art, diese grundlegende Variable zu messen.

Abbildung 8

Es ist eine nur sehr schwer genau zu messende Variable, und die Aufzeichnungen sind räumlich und zeitlich völlig ungeeignet aufgelöst. Ein Beispiel dieses Problems zeigte sich in Versuchen, Computermodelle zu verwenden, um den afrikanischen Monsun vorherzusagen (Science, 4. August 2006):

Alessandra Giannini, eine Klimawissenschaftlerin an der Columbia University: „Einige Modelle sagen eine nassere Zukunft vorher, andere eine trockenere. Sie können nicht alle richtig sein“.

Ein ausgemachter Schuldiger hierfür war die Unzulänglichkeit der Daten.

Ein offensichtliches Problem ist das Fehlen von Daten. Das afrikanische Netzwerk von 1152 Wetterstationen, die Daten in Echtzeit übermitteln und Eingang in internationale Klimaarchive finden, enthält nur ein Achtel der minimalen Stationsdichte, wie sie von der WMO verlangt wird. Außerdem fallen die tatsächlich bestehenden Stationen oftmals aus.

Wahrscheinlich erfüllen nur sehr wenige Gebiete die von der WMO vorgegebene Dichte. Das Problem ist komplexer, weil sich die Temperatur relativ einheitlich ändert, allerdings mit Sicherheit nicht in einem Radius von 1200 km. Die Niederschlagsmenge jedoch variiert schon im Abstand einiger Meter. Viel Niederschlag wird von Schauern geliefert aus sich im Tagesverlauf entwickelnden Cumulus-Wolken. Viele Farmer in den USA sind bestens vertraut damit, dass Teile ihrer Ländereinen einen Wolkenbruch abbekommen, während es in anderen Teilen trocken bleibt.

Temperatur und Niederschlagsmenge, die beiden wichtigsten Variablen, sind vollkommen ungeeignet, um die Bedingungen zu schaffen und damit die Formel für irgendein Gitterpunktsnetz im Modell. Im jüngsten Zustandsbericht des IPCC, AR5, heißt es in zwei klassischen Understatement-Bemerkungen:

Die Fähigkeit der Klimamodelle, die bodennahe Temperatur zu simulieren, hat sich in vielen, aber nicht allen wichtigen Aspekten verbessert relativ zu der Erzeugung der Modelle wie im AR 4 beschrieben.

Die Simulation großräumiger Verteilungen des Niederschlags hat sich seit dem AR 4 etwas verbessert, obwohl die Modelle hinsichtlich des Niederschlags weiterhin viel schlechter sind als hinsichtlich der Temperatur.

Aber die Atmosphäre ist dreidimensional, und die Anzahl der Daten über der Oberfläche ist fast nicht existent. Nur ein Beispiel soll diese Probleme hier illustrieren. Es gab einmal alle 60 Meter Instrumente an einem 304 Meter hohen Turm außerhalb der städtischen Wärmeinsel der Stadt Winnipeg. Die Änderungen auf dieser kurzen Distanz waren bemerkenswert und zeigten viel mehr Inversionen als wir erwartet hatten.

Mancher glaubt, dass die Parametrisierung erfolgt, um grundlegende Daten wie Temperatur und Niederschlag zu ersetzen. Das ist nicht der Fall. Es ist eine Methode, um Prozesse zu ersetzen, die zu kleinräumig oder zu komplex sind, um physikalisch durch einen vereinfachten Prozess im Modell repräsentiert werden zu können.

Selbst dann räumt das IPCC Grenzen und Varianzen ein:

Die Differenzen zwischen Parametrisierungen sind eine wichtige Ursache, warum sich die Ergebnisse von Klimamodellen unterscheiden.

Daten für die dynamische Atmosphäre sogar noch unzulänglicher

Sie „füllen“ die Lücke mit der Behauptung der 1200 km, was zeigt, wie bedeutungslos das alles ist. Sie haben wenige oder gar keine Daten in irgendeinem der Kreise, und doch sind diese die mathematischen Fundamente der Computermodelle. Wahrscheinlich gibt es Daten zwischen der Oberfläche und der freien Atmosphäre nur für etwa 10% des atmosphärischen Volumens. Diese Bemerkungen gelten für eine statistische Situation, aber die Volumina ändern sich konstant täglich, monatlich, jahreszeitlich und jährlich in einer dynamischen Atmosphäre, und all dies ändert sich mit dem Klimawandel.

Ockhams Rasierer zeigt, dass jede Diskussion über die Komplexität der Klimamodelle einschließlich der Verfahren, Prozesse und Prozeduren irrelevant ist. Sie können nicht funktionieren, weil die einfache Wahrheit lautet, dass die Daten, das Fundament der Modelle, vollständig unzulänglich sind. Tolstoi hat über das Phänomen einer einfachen Wahrheit Folgendes gesagt:

Ich weiß, dass die meisten Menschen einschließlich jener, die Problemen größter Komplexität entspannt gegenüber stehen, selten auch nur die einfachsten und offensichtlichsten Wahrheiten akzeptieren können, falls diese sie dazu zwingen würden, die Fehlerhaftigkeit von Schlussfolgerungen einzuräumen, die sie so erfreut ihren Kollegen erklärt haben, die sie stolz gelehrt haben und die sie Faden für Faden mit ihrem Leben verwoben haben“.

Eine andere einfache Wahrheit lautet, dass ein Modelloutput niemals als Basis für irgendetwas benutzt werden sollte, und schon gar nicht für die globale Energiepolitik.

Link: http://wattsupwiththat.com/2014/10/16/a-simple-truth-computer-climate-models-cannot-work/

Übersetzt von Chris Frey EIKE




Klimawissenschaft: Fehler von Fehlverhalten trennen

In einem kürzlich bei Climate Audit erschienenen Artikel wird untersucht, ob eine Graphik absichtlich oder unabsichtlich verkehrt herum dargestellt worden ist. In der Einleitung wird gefragt:

Spielt es eine Rolle, ob Proxys verkehrt herum verwendet werden oder nicht?

Vielleicht nicht in der Welt von Michael Mann (in der er als Erwiderung auf unsere Kritik bei PNAS behauptete, dass es für ihn unmöglich sei, Reihen verkehrt herum zu verwenden). Aber anders als Mann räumt Darrell Kaufman die Verantwortung ein, Proxy-Reihen in der richtigen Reihenfolge zu verwenden. Unglücklicherweise scheinen er und die PAGES2K-Autoren nicht sehr erpicht darauf zu sein sicherzustellen, dass sie das auch so machen.

Diese Story läuft parallel zur Tijander-Graphik, einer früheren Verkehrt-Herum-Präsentation in dem Debakel um den „Hockeyschläger“, der dazu erdacht worden ist, die Klima-Historie umzuschreiben dergestalt, dass die Mittelalterliche Warmzeit MWP aus den Statistiken eliminiert wird. Bei Climate Audit hat man sich auch die Tijander-Graphik vorgenommen und erschöpfend untersucht.

McIntyre und McKitrick (M&M) kommt der Verdienst zu, die von Mann et al. angewendeten ungeeigneten statistischen Methoden bloßgestellt zu haben, mit denen die Hockeyschlägergraphik erstellt worden ist. Diese hat ja den Missbrauch der Klimawissenschaft seitens des IPCC an das Tageslicht gebracht. Allerdings hat der große australische Skeptiker John Daly das größere Problem erkannt, bevor M&M die falschen Methoden bloßgestellt hatten. Ich empfehle dringend allen Menschen Dalys bemerkenswerte Analyse in seinem Artikel „The ‘Hockey Stick’: A New Low in Climate Science” zu lesen. Man beachte, dass dieser Artikel vor M&M erschienen war, findet sich doch darin keinerlei Querverweis auf deren Arbeit. Stattdessen handelt es sich dabei um eine synoptische Klimaanalyse dessen, was falsch ist.

Ich verstehe es so, dass McIntiyre den „Hockeyschläger“ auf einer Konferenz gesehen und ohne zu wissen, dass es eine Darstellung der globalen Temperatur sein sollte, aus seiner Erfahrung mit Statistik heraus sofort erkannt hat, dass es sich um eine potentiell manipulierte Darstellung handelt. Aus der Analyse von M&M geht klar hervor, mit welchen spezifischen Mitteln diese Graphik erzeugt worden ist. Eine Zeitlang kritisierten Kommentatoren auf der Website von McIntyre, dass dieser unwillig war zu sagen, dass Manns Aktionen absichtlich irreführend waren. Korrekterweise billigte ihm McIntyre zunächst das Recht auf Zweifel zu und ging davon aus, dass es bei ihm fehlendes Wissen und Verständnis war. Ethisch gibt es einen Unterschied zwischen einem Fehler und einem vorsätzlichen Fehler. Dies war Thema meiner Präsentation auf der 6. Heartland-Klimakonferenz in Washington D.C., aber dort kam das Argument, dass der gesamte IPCC-Prozess vorsätzlich war ebenso wie die Ergebnisse ihrer Computermodelle.

Der Missbrauch spezialisierter Methoden und Verfahren ist ein fundamentales Problem wegen der allgemeinen wissenschaftlichen Natur der Klimatologie. Die meisten sind Spezialisten nur in einer einzelnen Hinsicht und nennen sich dann fälschlich Klimawissenschaftler. Wenn sie versuchen, Stücke des riesigen Systems zusammenzufügen, müssen sie unvermeidlich zu unvertrauten Methoden und Verfahren greifen. Die Wahrscheinlichkeit eines Fehlers ist hoch. Dies ist höchst problematisch für Computer-Modellierer.

Das IPCC hat solche Spezialisten zusammengebracht und sie damit beauftragt, die Hypothese zu beweisen (anstatt sie zu widerlegen), dass die Menschen Grund für die globale Erwärmung (AGW) sind. Es war eine unheilige Allianz, die ein Umfeld von Missbrauch schuf. Sie fabrizierten wissenschaftliche Beweise in Fachbereichen, von denen sie kaum Ahnung hatten, und zwar mit Methoden und Verfahren, von denen sie sogar noch weniger Ahnung hatten. Mit massiven Finanzzuwendungen und politischer Unterstützung wurde dies zu einem Rezept für Katastrophen, wie es in den durchgesickerten E-Mails der Climate Research Unit (CRU) offenbar geworden ist. Das Ergebnis rechtfertigt die Mittel: man tue alles, was immer notwendig ist, um zu zeigen, dass menschliches CO2 die Ursache der globalen Erwärmung ist und dass die derzeitigen Temperaturen die höchsten jemals waren. CRU war eine kleine Gruppe und ein klassisches Beispiel von Gruppendenken, befeuert durch die Politik, wie ich seinerzeit hier erklärt habe.

Irving Janis erklärt das Konzept von Gruppendenken, welches Einmütigkeit erfordert auf Kosten von Entscheidungen hinsichtlich der Qualität. Ein kürzlich bei WUWT erschienener Beitrag befasste sich mit dem Problem des Gruppendenkens im Gebiet der Physik (hier):

Vom Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Aktionen durchzuführen, die andere Gruppen entseelen. Eine Gruppe ist besonders verwundbar durch Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe abgeschirmt ist von externen Meinungen und wenn es keine klaren Regeln für die Entscheidungsfindung gibt.

Lubos Motl berichtete über den Kommentar von Benjamin Santer vom 25. April, in dem er sagte:

Ich schaute mir Einiges von dem Zeug bei Climate Audit an. Ich hatte wirklich das Gefühl, dass ich mal mit einigen dieser „Auditoren“ in einer dunklen Ecke reden sollte.

Dies ist der gleiche Santer, der als Leitautor einen zuvor abgesegneten IPCC-Bericht noch verändert hat. Avery und Singer schrieben im Jahre 2006:

Santer hat im Alleingang die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes auf den Kopf gestellt und damit auch den politischen Prozess bzgl. der globalen Erwärmung! Der vom IPCC proklamierte vermeintliche ,erkennbare menschliche Einfluss‘ wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Diskussionen unter Nichtwissenschaftlern“.

Es ist kaum vorstellbar, dass Santer nicht wusste, was er tat. Als seine Änderungen öffentlich gemacht worden waren, wurde eine rapide Antwort erzeugt, die eine Vertuschung zu sein scheint. Zu den diesbezüglichen Aktionen folgt hier noch einmal mit kleinen Änderungen, was ich seinerzeit dazu geschrieben habe:

Am 4. Juli 1996, kurz nach der Enthüllung, wartete das offensichtlich willfährige Journal Nature mit einem Artikel auf unter der Überschrift A Search for Human Influences On the Thermal Structure of the Atmosphere”. Mitgeliefert wurde eine nur allzu bekannte Liste von Autoren – Santer, Wigley, Mitchell, Oort und Stouffer. Er bot beobachtbare Beweise, die zeigten, dass die Modelle akkurat waren. Eine Graphik ist so viel wert wie tausend Worte, wie Manns „Hockeyschläger“ zeigte, und genauso war es mit Santers ,erkennbarem menschlichen Einfluss‚. John Daly reproduzierte die Graphik von Santer et al. (Abbildung 1) mit dem aufwärts gerichteten Temperaturtrend in der oberen Atmosphäre:

Abbildung 1

Dann erstellte Daly eine Graphik mit dem größeren Datensatz in Abbildung 2 und erklärte: „Wir erkennen, dass die in Santers Version erkennbare Erwärmung einfach das Ergebnis der ausgewählten Daten ist“ (Fettdruck von Daly):

Abbildung 2

Fast sofort wurden Fehler entdeckt, aber Nature hat sich mit der Veröffentlichung der Widerlegungen 5 Monate Zeit gelassen (bis zum 12. Dezember 1996), nachdem der oben besprochene Artikel veröffentlicht worden war. Einer erkannte die Rosinenpickerei, ein anderer stellte eine natürliche Erklärung für das Phänomen vor. Allerdings war zu jener Zeit die PR-Verschleierung bereits im Gange. Am 25. Juli 1996 sandte die American Meteorological Society AMS eine Brief der Verteidigung an Santer. Der Brief scheint den CRU-Einfluss zu beweisen und ist ein PR-Meisterstück. Es hieß darin, dass es zwei Fragen gebe, die Wissenschaft und was die Gesellschaft hinsichtlich der wissenschaftlichen Ergebnisse und der Debatte tun muss, die sie ausgelöst haben. Wissenschaft sollte nur in wissenschaftlich begutachteten Fachjournalen besprochen werden und nicht in den Medien. Dies war die in einer durchgesickerten E-Mail bestätigte Strategie von Mann. „Das war die Gefahr, die Skeptiker immer zu kritisieren, weil sie nichts in der ,begutachteten Literatur‘ veröffentlichen“. Darauf schrieb die AMS: Was zählt, ist wissenschaftliche Information und wie diese in politischen Debatten interpretiert wird. Das ist ein wichtiger Teil unserer Aufgaben. Das sind schließlich die wirklichen Gründe für die Vermischung von Wissenschaft und Politik im IPCC. Daly nannte das zu Recht „Wissenschaftismus“ [scientism].

Die Zurückweisung scheint zu belegen, dass Santer wusste, was er tat mit seinen Original-Änderungen des IPCC-Berichtes. Er wusste eindeutig um den willkürlich gewählten Start- und Endzeitpunkt der Graphik. Jeder Graph muss einen Start- und einen Endzeitpunkt haben, aber dieses Beispiel fand sich in einem Artikel, der geschrieben worden war, um die Bloßstellung seiner Umformulierungen zu verwerten.

Die Verteidigung von Santer erfolgte offensichtlich konzertiert und folgte einem Muster, das immer dann zur Anwendung kam, wenn Fehlverhalten ans Tageslicht gekommen war. Das Einspannen offizieller Agenturen zur Abdeckung des Fehlverhaltens erklärt vieles, warum das immer weiter betrieben wurde. Es erklärt auch, warum die Täter weiterhin glauben, dass sie nichts Falsches getan haben.

Phil Jones hat nach der Veröffentlichung der E-Mails die Polizei gerufen. Um die Behauptung eines Hacker-Angriffs zu stützen, musste er zugeben, dass sie echt waren. Die Ergebnisse waren bedeutungslos, weil sich die Untersuchung hinzog, bis das Statute of Limitations [?] ausgelaufen war. In einer dem widersprechenden Schlussfolgerung sagte die Polizei:

Besonders die internationale Dimension, das World Wide Web zu untersuchen, hat sich als extreme Herausforderung erwiesen … Als Ergebnis unserer Ermittlungen können wir jedoch sagen, dass der Datendiebstahl das Ergebnis eines ausgeklügelten und sorgfältig orchestrierten Angriffs auf die Datensätze der CRU war, durchgeführt via Internet“.

Das ist einfach unglaubwürdig angesichts des Ausmaßes, mit dem gewöhnliche Bürger ausspioniert werden, und angesichts des Ausmaßes an Wissen, das erforderlich ist, um aus 220.000 E-Mails 1000 herauszufiltern. Es gibt drei Möglichkeiten: Sie sind inkompetent, absichtlich irreführend oder beides. Wie auch immer, es war zu langsam, um dem Glaubwürdigkeitsverlust der gesamten IPCC-Operation zu begegnen.

Als Folge wurden blitzartig fünf kontrollierte Untersuchungen initiiert, alle orchestriert, um irrezuführen und abzulenken. Hans von Storch schrieb über die 3 Untersuchungen in UK:

Wir müssen uns selbstkritisch fragen, was da geschehen ist. Nichts darf unter den Teppich gekehrt werden. Einige der Untersuchungen wie in UK haben genau das getan. Sie haben eine Gelegenheit, Vertrauen wiederherzustellen, verpasst“*

[*Rückübersetzung aus dem Englischen].

Lord Oxburgh wurde berufen, eine der Untersuchungen zu leiten.

Oxburgh war kompromittiert, weil er ein Mitglied der Royal Society ist. Wichtiger aber ist, dass er leitender Direktor der Carbon Capture and Storage Association und Vorsitzender of Falck Renewable Resources ist, die sehr von der Behauptung profitieren, dass menschliches CO2 Erwärmung verursacht. Er befürwortete auch die Erwärmungs-Behauptung als Vizevorsitzender von GLOBE International in UK, einem Konsortium von Industrie, NGOs und der Regierung, die für die Politik zur globalen Erwärmung Lobbyarbeit leistet.

Es folgt eine Liste der Probleme bei der Oxburgh-Untersuchung:

Die Oxburgh-Untersuchung sollte die CRU-Wissenschaft untersuchen, aber um das zu tun, gab es a) keine öffentlichen Anhörungen und b) keine Anforderung von Beweisen.

Nur 11 akademische Studien wurden untersucht, eine Liste, die von Phil Jones unter die Lupe genommen worden war. Er war Direktor der CRU, also der Agentur, die untersucht werden sollte.

Interviews mit CRU-Mitarbeitern wurden nur hinter verschlossenen Türen durchgeführt.

Es gab keine Zusammenkunft mit CRU-Kritikern.

Die UEA hatte die effektive Kontrolle über die gesamte Untersuchung.

Das Select Committee des Unterhauses in UK hat Oxburgh hinsichtlich der Oberflächlichkeit seiner Studie und seines Berichtes sowie seiner versprochenen Begutachtung der Wissenschaft in die Mangel genommen.

Mehr Informationen hierzu gibt es in der detaillierten Zusammenfassung der Grenzen aller Untersuchungen bei Andrew Montford. Die Untersuchung von Muir Russell war so schlecht, dass selbst Guardian’s Fred Pearce schrieb:

Geheimniskrämerei stand bei der CRU auf der Tagesordnung. Wir fanden, dass es dort ein konsistentes Verhalten gab, nicht dem gebotenen Grad an Offenheit zu folgen, heißt es in dem Bericht. Diese Kritik richtet sich nicht nur an Jones und sein Team an der CRU. Sie richtet sich genauso an die Universität selbst, die empört sein könnte, sich selbst genauso im Schlamassel zu finden wie die Wissenschaftler, über die zu richten Russell beauftragt worden war“.

Jeder macht Fehler in der Wissenschaft, aber normalerweise werden diese im idealerweise unpersönlichen und professionellen Begutachtungsprozess gefunden. In Santers Fall haben seine Mitautoren die Begutachtung durchgeführt. Er hat beschlossen, deren Bedenken beiseite zu schieben und wurde erwischt. Der Artikel zum Hockeyschläger war begutachtet, aber wie Prof. Wegman in seinem Bericht an ein Komitee des Kongresses schrieb:

In unserer weiteren Erkundung des Netzwerkes der Autoren der Temperatur-Rekonstruktion fanden wir, dass mindestens 43 Autoren direkte Verbindungen zu Dr. Mann haben, und zwar in Gestalt der Mitautorenschaft seiner Studien. Unsere Ergebnisse dieser Analyse zeigen, dass Autoren im Fachgebiet Paläoklima eng verbandelt sind und dass daher ,unabhängige Studien‘ nicht so unabhängig sein könnten, wie sie an der Oberfläche aussehen.

Dieses Ergebnis wurde durch die durchgesickerten CRU-E-Mails bestätigt. Die Korruption dieses Prozesses seitens der CRU bedeutete Fehler, die absichtlich oder unabsichtlich Eingang in die wissenschaftliche Aufzeichnung fanden. Außerdem wurde die Verschleierung und die Ablehnung der Veröffentlichung von Daten zum Standard. Wegman dazu:

Es ist nicht klar, dass Mann und seine Verbündeten den Fehler in ihrer Verfahrensweise zur Zeit der Veröffentlichung erkannt haben. Infolge fehlender vollständiger Dokumentation ihrer Daten und Computer-Codes waren wir nicht in der Lage, ihre Forschungen nachzuvollziehen. Wir haben jedoch bei der Reproduktion der Verfahren von M&M ähnliche Ergebnisse wie diese erzielt. Dieses Nachvollziehen stützt die Kritik der MBH98-Methoden, wo der Offset* des mittleren Wertes eine künstlich große Abweichung vom gewünschten mittleren Wert Null erzeugt.

[*Original: „as the offset of the mean value creates an artificially large deviation from the desired mean value of zero“. Das habe ich inhaltlich nicht verstanden. Im LEO werden für ,offset‘ so viele Bedeutungen angezeigt, dass ich deswegen da ratlos war. Anm. d. Übers.]

Sie wussten, warum man die Daten in Erfahrung bringen wollte. Phil Jones antwortete am 21. Februar 2005 auf die Datenanforderung von Warwick Hughes so:

Wir haben etwa 25 Jahre in die Arbeit gesteckt. Warum sollte ich Ihnen die Daten zugänglich machen, wenn es Ihr Ziel ist zu versuchen, Fehler darin zu finden?“

Später sagte Jones dass er die Daten verloren habe. Werden auch andere Daten im Nirwana verschwinden?

Bedeutsam ist hier die Natur des Fehlers. Falls er entscheidend war für eine These oder eine wissenschaftliche Schlussfolgerung, wurde der Fehler aus Inkompetenz oder mit Absicht gemacht. Wie auch immer, die dafür verantwortliche Person ist auf seiner Position wegen seiner Behauptungen fehl am Platze.

Entscheidend für die IPCC-Objetive war die Notwendigkeit zu beweisen, dass die menschliche Erzeugung von CO2 zu Temperaturzunahmen führte und Temperaturen zeitigte, die in der gesamten Historie höher denn je lagen. Ist es Zufall, dass dies die Bereiche sind, wo die Wissenschaft geschaffen wurde, um das vorbestimmte Ergebnis zu bekommen? Es scheint, dass sich eine Verteilung von Fehlern heraus kristallisiert, die Fehlverhalten beweisen. Unglücklicherweise weiß ich nicht um die Verantwortlichkeiten, aber dies ist allgemein die Lage mit den verbundenen Punkten des Fehlverhaltens in der heutigen Gesellschaft.

Link: http://wattsupwiththat.com/2014/10/12/climate-science-separating-mistakes-from-malfeasance/

Übersetzt von Chris Frey EIKE




CO2-Daten mögen ja der IPCC-Hypothese genügen, entsprechen aber nicht der Realität

Man erschaffe die gewünschten Fakten

In einem Kommentar zu dem Beitrag auf WUWT „The Record of recent Man-made CO2 emissions: 1965-2013” hat Pamela Gray die Lage graphisch, aber pointiert zusammengefasst:

Wann endlich werden wir die Mathematik betreiben? Der allein anthropogene Anteil am atmosphärischen CO2, vor allem der Anteil Chinas, hat nicht die erforderliche Fähigkeit, auch nur ein winziges bisschen „Wetter“ auch nur ein wenig zu verändern. Man entferne nur den anthropogenen CO2-Anteil und lasse die vergangenen 30 Jahre bzgl. des Wetters noch einmal Revue passieren. Es wäre zu genau den gleichen Wetterabläufen gekommen. Oder vielleicht wäre es wegen der dem Wetter eigenen Natur noch schlimmer gekommen. Oder vielleicht besser. Jetzt mache man etwas wirklich Lächerliches: man nehme den Anteil Chinas heraus. Ich weiß, dass es in dem Beitrag nicht darum geht, China als den bösen Buben hinzustellen. Aber. Wirklich? Wirklich? All das für etwas, das so klein ist, dass man es gar nicht finden kann? Nicht einmal im Luftballon eines Kindes?

Die einzige Deutung, die mir einfällt ist, dass die Menge die Sinnlosigkeit der Behauptungen illustriert, wie Gray anmerkt, aber das IPCC und die EPA konzentrieren sich auf Trends und Zuordnungen. Es muss einen menschlichen Grund haben und stetig zunehmen, oder, wie sie es bevorzugen – es muss schlimmer werden.

Verengung des Blickwinkels

Es ist erforderlich, die Kritik an den vom IPCC erzeugten CO2-Niveaus während der ganzen letzten Jahre wieder aufzugreifen. Heutzutage ist die Vehemenz persönlicher Attacken eine Maßzahl für das Zutreffen der Kritik, zielen diese doch darauf ab, von Wissenschaft und Beweisen abzulenken.

Seit seiner Gründung konzentrierte sich das IPCC auf die menschliche Produktion von CO2. Es begann mit der Definition von Klimaänderung, die von der UNFCCC vorgegeben worden war und die vom Menschen als die einzige Quelle ausging. Ziel war es, die Hypothese zu belegen, dass der zunehmende atmosphärische CO2-Gehalt zu einer Erwärmung führen würde. Dies erforderte Beweise, dass das Niveau seit der vorindustriellen Zeit zugenommen hat und jedes Jahr weiter zunehmen wird wegen der menschlichen industriellen Aktivität. Wie lange wird es noch dauern, bis sie anfangen, die Rate der CO2-Zunahme zu reduzieren, um den sinkenden Temperaturen Rechnung zu tragen? Ihnen gehen allmählich die Entschuldigungen aus, zuletzt mindestens 30 [auf Deutsch beim EIKE hier], um das fortgesetzte Fehlen einer Temperaturzunahme zu erklären.Inzwischen sind es 17 Jahre und 10 Monate.

Das IPCC stellt die bizarre Behauptung auf, dass bis zum Jahr 1950 der menschliche CO2-Eintrag ein untergeordneter Treiber der globalen Temperatur war. Danach sind über 90% der Temperaturzunahme dem menschlichen CO2 geschuldet.

Das meiste der beobachteten Zunahme der globalen mittleren Temperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der atmosphärischen Treibhausgas-Konzentrationen geschuldet.

Die Behauptung, dass eine geringfügige CO2-Zunahme aus anthropogenen Quellen, welches natürlicherweise nur 4% aller Treibhausgase ausmacht, der dominante Faktor innerhalb nur weniger Jahre wird, ist unglaublich. Diese Behauptung entstammt Computermodellen. Sie sind der einzige Ort auf der ganzen Welt, wo eine CO2-Zunahme eine Temperaturzunahme verursacht. Sie hängt ab von der menschlichen Produktion und dem zunehmenden atmosphärischen Niveau. Sie nehmen an, dass die Temperatur immer weiter steigt, wie alle drei IPCC-Szenarien implizieren.

Ihre Frustration ist, dass sie zwar die CO2-Daten kontrollieren, aber nachdem die University of Alabama in Huntsville (UAH) mit der Aufzeichnung von globalen Temperaturdaten via Satelliten begonnen hatte, war die Kontrolle der globalen Temperaturdaten beschränkt. Es hat sie allerdings nicht völlig davon abgehalten, wie McIntyre, Watts, Goddard, die New Zealand Climate Science Coalition und viele andere illustriert haben.

Und jetzt sind sie konfrontiert mit einem Problem, das T. H. Huxley aufgeworfen hatte:

Die große Tragödie der Wissenschaft – die Zerschlagung einer wunderbaren Hypothese durch eine hässliche Tatsache.

Dieser Artikel beleuchtet, wie das derzeitige atmosphärische CO2-Niveau bestimmt und kontrolliert wird, um zur Hypothese zu passen. Sie können sich an eine politische Agenda anpassen, aber sie können sich nicht die Agenda der Natur zupass machen.

Eine neue deduktive Methode: Man erschaffe sich Fakten, die zur Theorie passen

Farhad Manjoo fragte in dem Beitrag True Enough: Learning To Live In A Post-fact Society:

Warum hat in jüngster Zeit Gelehrsamkeit die Nachrichten gekapert? Warum scheinen sich Lügen so lange im kulturellen Unterbewusstsein zu halten, selbst nachdem sie längst nachhaltig offengelegt worden waren? Und warum funktioniert faktenfreie Propaganda so gut, wo doch mehr Menschen als je zuvor die Wahrheit mit Laptops und digitalen Kameras festhalten?

Manjoos Kommentare sprechen die Gesellschaft allgemein an, sind aber über die Klimawissenschaft besonders ausgeprägt wegen der unterschiedlichen Fähigkeiten der Öffentlichkeit hinsichtlich wissenschaftlicher Belange. Eine große Mehrheit kann leicht betrogen werden.

Manjoo argumentiert, dass die Leute sich die Fakten selbst zusammen schustern oder jemanden finden, der es für sie macht. Die Fabrikation von Daten ist die einzige Option in der Klimawissenschaft, weil – wie es der NRC-Bericht aus dem Jahr 1999 zeigte – es praktisch keine wirklichen Daten gibt. In dem Bericht vom US National Research Council (NRC) über Klimadaten vom 3. Februar 1999 heißt es:

Defizite hinsichtlich der Genauigkeit, Qualität und Kontinuität der Aufzeichnungen lassen ernste Zweifel an dem Vertrauen aufkommen, dass man den Forschungsergebnissen entgegen bringen kann.

Die Lage ist heutzutage noch schlimmer. Die Anzahl der verwendeten Stationen ist dramatisch reduziert worden, und Aufzeichnungen wurden hin zu niedrigeren historischen Daten verbogen. Dadurch nahm der Gradient in den Aufzeichnungen zu. Jüngst wurde das Fehlen von Ozean-Daten erkannt.

Zwei der führenden Ozeanographen von Harvard und dem MIT haben die begrenzten Daten angesprochen, die gegenwärtig die ozeanographische Gemeinschaft daran hindern, die Differenzen zwischen den vielen Schätzungen des ozeanischen Wärmegehaltes zu lösen.

Die Ozeane sind eine Schlüsselgröße hinsichtlich des CO2-Niveaus, und zwar wegen ihrer großen Kapazität als Quelle oder Senke.

Die Daten, die notwendig sind für eine ordentliche Festlegung der Klimaprozesse und daraus folgend der Klimaänderung, sind durchweg ungenügend. Dies gilt vor allem für die Struktur von Klimamodellen. Es gibt für mindestens 80% des den Globus umspannenden Netzes keine Daten, so dass sie raten: das nennt man Parametrisierung. Im IPCC-Bericht 2007 heißt es dazu:

Infolge der begrenzten Auflösung der Modelle können viele dieser Prozesse durch das Gitternetz der Modelle nicht angemessen aufgelöst werden und müssen daher parametrisiert werden. Die Unterschiede zwischen den Parametrisierungen sind ein wichtiger Grund für die Abweichungen der Klimamodelle untereinander.

Infolge der ungenügenden Datenlage tauchen unterschiedliche Ergebnisse auf, und die beteiligten Personen treffen eine subjektive Auswahl.

Das IPCC fabriziert die menschlichen Erzeugungs-Zahlen

Im IPCC-Bericht 2001 wurden 6,5 Gigatonnen Kohlenstoff als von menschlichen Quellen stammend identifiziert. Diese Zahl stieg auf 7,5 Gigatonnen im Bericht 2007 und bis 2010 auf 9,5 Gigatonnen. Woher haben sie diese Zahlen genommen? Antwort: Das IPCC hat sie erfunden und dann weiterverwendet. In der FAQ-Sektion fragen sie: „Wie erzeugt das IPCC seine Leitlinien?“

Zur Verwertung der ICC-Methoden werden Experten auf der ganzen Welt nominiert, die Berichte zu entwerfen, die dann extensiv zweimal begutachtet werden, bevor sie vom IPCC genehmigt werden.

Bis zum Bericht 2013 wurden diese Special Reports on Emissions Scenarios (SRES) genannt. Danach wurden sie zu Representative Concentration Pathways (RCP). Im März 2001 berichtet John Daly von Richard Lindzen unter Bezug auf die SRES und den gesamten IPCC-Prozess einschließlich SRES Folgendes:

In einem kürzlich geführten Interview mit James Glassman sagte Dr. Lindzen, dass der jüngste IPCC-Bericht (den er mit geschrieben hatte) „sehr stark wie ein Kinderspiel dessen war, was möglicherweise passiert“, vorbereitet durch eine „sonderbare Gruppe“ [a peculiar group] „ohne technische Kompetenz“.

William Kininmomth, Autor des aufschlussreichen Buches „Climate Change: A Natural Hazard“, war einst Leiter des National Climate Centre von Australien und dessen Delegation bei der WMO-Kommission für Klimatologie. Er schrieb Folgendes an die Site von ClimateSceptics:

Zuerst war ich verwirrt über das im AR 5 auftauchende RCP-Konzept. Ich kam zu der Schlussfolgerung, dass RCP nicht mehr ist als ein Taschenspielertrick, um die Leser zu verwirren und die Absurditäten in früheren Verfahren zu verstecken.

Man wird sich erinnern, dass die früheren Kohlenstoff-Emissionsszenarien vermeintlich auf soliden wirtschaftlichen Modellen beruhten. Allerdings ist diese Grundlage durch angesehene Ökonomen in Frage gestellt worden, und die Wirtschafts-Modellierung des IPCC blieb ziemlich zerfleddert und mit einem riesigen Fragezeichen darüber zurück.

Ich fühle, dass das RCP-Verfahren die zweifelhafte ökonomische Modellierung überbrückt: vorgeschriebene Strahlungs-Antriebe werden in die Klimamodelle gefüttert, um in der Zukunft einen Temperaturanstieg zu bekommen – falls der Strahlungsantrieb bei 8,5 W/m² ein Plateau erreicht irgendwann nach dem Jahr 2100, wird der globale Temperaturanstieg 3°C betragen. Aber was bedeuten 8,5 W/m²? Zuvor war bei einer Verdoppelung des CO2 ein Strahlungsantrieb von 3,7 W/m² im Gespräch. Um einen Strahlungsantrieb von 7,4 W/m² zu erreichen, müsste es noch eine Verdoppelung geben – eine viermal so hohe CO2-Konzentration. Folglich muss die atmosphärische CO2-Konzentration 1120 ppm nach dem Jahr 2100 übersteigen, um RCP 8,5 zu folgen.

Wir bleiben zurück mit der Frage nach dem Realismus eines solchen RCP 8,5-Szenarios. Besteht irgendeine Wahrscheinlichkeit, dass das atmosphärische CO2 nach 2100 1120 ppm erreichen wird? Das IPCC hat ein Strohmann-Szenario ins Spiel gebracht, um einen ,gefährlichen‘ globalen Temperaturanstieg von 3°C zu Anfang des 22. Jahrhunderts zu bekommen. Dabei wusste es vollkommen, dass eine solche Konzentration extrem unwahrscheinlich ist. Aber natürlich wird dies den Politikern und den politischen Entscheidungsträgern nicht erläutert. Ihnen wird nur das gefährliche Ergebnis vor Augen gehalten, falls man dem RCP 8,5 folgt ohne jeden Hinweis auf die geringe Wahrscheinlichkeit eines solchen Geschehens.

Eine Absurdität wird durch eine andere ersetzt! Oder habe ich etwas Grundlegendes übersehen?[1]

Nein, es fehlt nichts! Allerdings spielt es in der Wirklichkeit gar keine Rolle, ob sich dadurch irgendetwas ändert; es erfüllt das Ziel einer CO2-Zunahme und deren vermeintliche Auswirkung auf die globale Erwärmung. Die Untermauerung der IPCC-Klimawissenschaft und der Wirtschaft hängt von genauen Daten und profunden Kenntnissen der Prozesse statt. Beides ist nicht verfügbar.

Wir wissen, dass die Wetterdaten, auf denen Klimamodelle konstruiert werden, unzureichend sind, und die Lage wurde noch verschlimmert durch das Herausnehmen von Wetterstationen. Andere wurden ,adjustiert‘ und die Daten willkürlich herausgepickt. Wir wissen, dass die Kenntnisse der Prozesse unvollkommen sind, weil der IPCC-WGI-Bericht genau das sagt:

Unglücklicherweise sind die Wärme- und Wasserflüsse an der Oberfläche nicht gut dokumentiert.

Oder, damit die Modelle genau die jahreszeitlich wechselnde Verteilung des Niederschlags akkurat simulieren können, müssen sie korrekt eine Anzahl von Prozessen simulieren (z. B. Verdunstung, Kondensation, Transport). Dies ist im globalen Maßstab sehr schwierig zu evaluieren.

Zwei kritische Situationen standen im Mittelpunkt, das atmosphärische CO2-Niveau zu kontrollieren. Wir wissen, dass Guy Stewart Callendar, ein britischer Dampfmaschinen-Ingenieur, die niedrigen Zahlen aus 90.000 atmosphärischen CO2-Messungen im 19. Jahrhundert herausgepickt hatte. Dies etablierte nicht nur ein geringes vorindustrielles Niveau, sondern veränderte auch den Trend des atmosphärischen Niveaus (siehe folgende Abbildung:)

Abbildung 1 (Nach Jaworowski; Trendlinien hinzugefügt)

Callendars Arbeit war einflussreich hinsichtlich der von Gore aufgestellten Behauptungen über vom Menschen induzierte CO2-Zunahmen. Das einflussreichste Papier in der Klimagemeinschaft, vor allem an der CRU und beim IPCC, war jedoch die Studie von Tom Wigley aus dem Jahr 1983 mit dem Titel „The Pre-industrial carbon dioxide level“ (Climatic Change. 5, 315-320). Ich habe Seminare abgehalten über dessen Validität und Selektivität zur Etablierung einer vorindustriellen Basislinie.

Ich schrieb einen Nachruf auf Ernst Georg Beck, nachdem ich von seinem überraschenden Ableben erfahren hatte:

Ich war geschmeichelt, als er mich bat, eine seiner frühen Studien zur historischen Verteilung von atmosphärischem CO2 und dessen Beziehung zur globalen Erwärmung zu begutachten. Ich war begeistert von der Präzision, den Details und dem Wahrnehmungsvermögen und drängte auf die Veröffentlichung dieser Studie. Ich warnte ihn auch vor persönlichen Angriffen und unwissenschaftlichen Anwürfen, die er zu erwarten hatte. Am 6. November schrieb er mir: „In Deutschland ist die Lage vergleichbar mit den Zeiten der mittelalterlichen Inquisition“. Glücklicherweise war er nicht abgeschreckt. Sein Freund Edgar Gärtner erklärte Becks Beitrag in seinem Nachruf. „Aufgrund seines immensen Fachwissens und seiner methodischen Strenge fielen Ernst sehr frühzeitig zahlreiche Ungereimtheiten in den Aussagen des „Weltklimarates“ IPCC auf. Er hielt es schlicht für unvorstellbar, dass ein Anstieg des Kohlenstoffdioxid-Gehaltes der Luft von winzigen 0,03 auf kaum weniger winzige 0,04 Volumenprozent für die in den vergangenen Jahrzehnten eher gefühlte als gemessene Erwärmung der Erdatmosphäre verantwortlich sein sollte. Und er zweifelte daran, dass man die seit 1957/58 auf dem Hawaii-Vulkan Mauna Loa aufgezeichnete Kurve des CO2-Anstiegs linear bis ins 19. Jahrhundert nach rückwärts datieren kann“.*

[*Dieses Zitat ist das deutsche Original von Gärtner und keine Rückübersetzung aus Dr. Ball! Ball hatte glücklicherweise den Link angegeben und auf das deutsche Original verwiesen. Anm. d. Übers.]

Beck war der erste, der die Daten aus dem 19. Jahrhundert detailliert untersucht hat. Die Daten waren gesammelt worden für wissenschaftliche Versuche, präzise die Menge des CO2 in der Atmosphäre zu messen. Es begann im Jahre 1812, ausgelöst durch die Arbeit von Priestly zu atmosphärischem Sauerstoff und war Teil der wissenschaftlichen Bemühungen, alle atmosphärischen Gase zu quantifizieren. Es gab kein unmittelbares politisches Motiv. Beck hat mit den Ergebnissen keine Rosinenpickerei betrieben, sondern er hat das Verfahren untersucht, die genauen Messorte und so viele Details wie möglich für jede Messung. Dies stand in absolutem Kontrast zu dem, was Callendar und Wigley gemacht haben.

Das IPCC musste jetzt beweisen, dass:

● Zunahmen des atmosphärischen CO2-Gehaltes in den historischen Aufzeichnungen eine Erwärmung ausgelöst haben

● die gegenwärtigen Niveaus ungewöhnlich hoch sind im Vergleich zu den historischen Aufzeichnungen

● das gegenwärtige Niveau viel höher ist als in vorindustriellen Zeiten

● die Unterschiede zwischen dem vorindustriellen und dem jetzigen Niveau dem menschlichen CO2-Beitrag in die Atmosphäre geschuldet sind.

Becks Arbeit zeigt die Falschheit dieser Behauptungen, und indem er das getan hat, hat er sich eine große Last aufgeladen.

Nochmals aus meinem Nachruf:

Ernst Georg Beck war ein Gelehrter und Gentleman in jeder Hinsicht. Sein Freund schrieb: „Sie versuchten, Ernst Georg Beck im Internet als ahnungslosen Amateur und Datenfälscher zu denunzieren. Ernst konnte sich dagegen in den letzten Monaten wegen seiner fortschreitenden Krankheit leider kaum noch wehren“.* Seine Arbeit, seine Bestimmung und seine Ethik waren allesamt darauf gerichtet, Fragen in skeptischer Manier zu beantworten, was wirkliche Wissenschaft ist; die Antithese zu den Bemühungen all jener, die ihn herausforderten oder versuchten, ihn mundtot zu machen oder ihn zu verleumden.

[*Auch hier das Originalzitat]

Die CO2-Messungen aus dem 19. Jahrhundert sind nicht genauer als die Messungen der Temperatur: tatsächlich würde ich sagen, dass Beck zeigt, wie gut sie sind. Warum also sind beispielsweise seine Einschätzungen weniger gültig als jene, die zu Anfang der Central England Temperatures (CET) gemacht worden sind? Ich habe mich lange mit Hubert Lamb über die Anfänge dieser CET-Rekonstruktion von Manley unterhalten, weil die Instrumente, Messorte, Messungen Aufzeichnungen und das Wissen der Beobachter vergleichbar waren mit jenen in den Aufzeichnungen der Hudson Bay Company, mit denen ich mich befasst habe.

Als das vorindustrielle Niveau einmal erschaffen worden war, wurde es notwendig sicherzustellen, dass sich der neue nachindustrielle CO2-Trend fortsetzt. Dies wurde erreicht, als C. D. Keeling die Messstation am Mauna Loa eingerichtet hatte. Beck sagt dazu:

Die moderne Treibhaus-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling, die die Linie von S. Arrhenius fortsetzen, was jüngst durch das IPCC popularisiert worden ist.

Keelings Sohn betreibt jetzt die Station am Mauna Loa und, wie Beck anmerkt, besitzt das globale Monopol der Kalibrierung aller CO2-Messungen. Er ist auch Ko-Autor der IPCC-Berichte, die die Werte vom Mauna Loa und alle anderen Messungen als repräsentativ für das globale Niveau akzeptieren. Folglich kontrolliert das IPCC die Zahlen der menschlichen Erzeugung und des atmosphärischen CO2-Niveaus. Beide nehmen konstant und konsistent zu.

Dies lenkt ab von dem realen Problem mit den Messungen und Behauptungen. Die fundamentale IPCC-Prämisse ist es, die menschlichen Gründe der globalen Erwärmung zu benennen. Man kann nur dann den menschlichen Beitrag und Anteil bestimmen, wenn man natürliche Niveaus kennt und wie stark diese variieren, und wir haben nur sehr grobe Schätzungen.

Welche Werte werden für jede Komponente des Kohlenstoff-Zyklus‘ verwendet?

Dr. Dietrich Kölle ist einer der wenigen Wissenschaftler, der Schätzungen natürlicher jährlicher CO2-Emissionen unter die Lupe nimmt. Er kommt zu folgenden Ergebnissen:

Jährliche Kohlendioxid-Emissionen GtC pro Jahr:

1. Atmung (Menschen, Tiere, Phytoplankton) 45 bis 52

2. Ozeanische Ausgasung (tropische Gebiete) 90 bis 100

3. Vulkanische und andere Quellen aus dem Erdboden 0,5 bis 2

4. Bodenbakterien, Verrottung und Verfall 50 bis 60

5. Roden von Wäldern, Waldbrände 1 bis 3

6. Anthropogene Emissionen aus fossilen Treibstoffen (2010) 9,5

Gesamtmenge 196 bis 226,5

Quelle: Dr. Dietrich Kölle

Die IPCC-Schätzung der menschlichen Produktion (6) für das Jahr 2010 betrug 9,5 GtC, aber das ist die Gesamtproduktion. Einer der frühen Dinge in dem Betreiben, das Kyoto-Protokoll zu ratifizieren war ein Versuch, die USA zur Ratifikation zu bewegen. Die USA forderten Kohlenstoff-Zertifikate, vor allem für die Entfernung von CO2 durch Aufforstung, damit eine Gesamtzahl zur Anwendung kommt, die die USA als eine entwickelte Nation einschätzen. Das wurde abgelehnt. Realität ist, dass die Gesamtzahl besser den menschlichen Einfluss repräsentiert. Falls wir die menschliche Gesamtproduktion (6) mit 5 GtC für das Jahr 2010 ansetzen, liegt dies innerhalb der Bandbreite von Schätzungen für drei natürliche Quellen (1), (2) und (4).

Die Wahrheit wird ans Licht kommen

Wie lange wird das IPCC noch damit fortfahren, CO2-Daten zu erzeugen, die zu seiner Hypothese passen, dass die Temperatur weiterhin steigen wird? Wie lange wird es dauern, bis die Öffentlichkeit auf Pamela Grays anschauliche Beobachtung aufmerksam wird, die da lautet: Der allein anthropogene Anteil am atmosphärischen CO2, vor allem der Anteil Chinas, hat nicht die erforderliche Fähigkeit, auch nur ein winziges bisschen „Wetter“ auch nur ein wenig zu verändern. Der nunmehr fast 18 Jahre lange Stillstand und leichte Rückgang der globalen Temperatur ist essentiell unmöglich, wenn man die IPCC-Hypothesen zugrunde legt. Eine Behauptung lautet schon jetzt, dass der Stillstand nicht ihrer Wissenschaft oder ihren Projektionen widerspricht, sondern diese stattdessen anerkennt, zusammen mit falschen Prognosen.

Das IPCC und die EPA haben bereits gezeigt, dass es keine Rolle spielt, unrecht zu haben oder ertappt zu werden. Die Objektive ist die Angst erzeugende Schlagzeile, verstärkt durch die stetige Behauptung, dass es zunehmend schlimmer wird und dass die Zeit davonläuft. Aldous Huxley sagte: Fakten werden nicht dadurch aus der Welt geschafft, dass man sie ignoriert. Wir müssen sicherstellen, dass diese Fakten real sind und nicht ignoriert werden.

[1] Nachdruck mit Erlaubnis von William Kininmonth.

Link: http://wattsupwiththat.com/2014/08/05/co2-data-might-fit-the-ipcc-hypothesis-but-it-doesnt-fit-reality/#more-114086

Übersetzt von Chris Frey EIKE




Reale Klimawissenschaft gewinnt die Wissenschafts-Schlacht, verliert aber den Politik-Krieg

E-Mails, die im Jahre 2009 von der Climatic Research Unit CRU durchgesickert waren, haben die Praktiken der das IPCC kontrollierenden Wissenschaftler enthüllt. Bloßgestellt wurden auch deren Unterstützer und die Gefolgsleute dieses Schwindels. Viele dieser E-Mails waren offenbar harmlose Ereignisse oder Kommentare, aber sie bedurften Erklärungen und Zusammenhänge. Die Kommentare scheinen oft einfach, sagen aber bei längerem Nachdenken sehr viel. Der reiche kanadische Geschäftsmann Conrad Black wurde gefragt, warum er kein Politiker sei. Seine sechs Worte „Das muss ich doch gar nicht“ sprachen Bände.

Im Dezember 2011 schrieb Richard Littlemore, leitender Betreiber der kanadischen Website DeSmogBlog eine E-Mail an Michael Mann mit folgendem Inhalt:

Hi Michael [Mann],

ich bin ein Autor bei DeSmogBlog (Richard Littlemore), und ich versuche, die jüngste Ankündigung  abzuwehren, dass es eine globale Erwärmung im 20. Jahrhundert tatsächlich nicht gegeben hat.

Mir scheint, dass Gerd Burger versucht, die Klimaänderung zu leugnen, indem er die seit den siebziger Jahren gemessenen, tatsächlich flach verlaufenden Temperaturen „geglättet“, „korrigiert“ oder in anderer Weise gerundet hat, aber ich bin dem nicht gewachsen. (Ich bin sicher, dass Sie bemerkt haben: Wir alle sind PR hier und nicht viel Wissenschaft). Also frage ich mich, ob ihr hinsichtlich Burgers Einmischung in die Wissenschaft etwas getan habt oder noch tun werdet.

Diese E-Mail allein diskreditiert effektiv alles, was auf dem DeSmogBlog steht. Sie zeigt auch, dass die Klimawissenschaft, wie sie von der CRU und dem IPCC praktiziert wird, eine PR-Übung war. Der Ausdruck abwehren spricht Bände. Er illustriert, dass es bei der Schlacht um die Gedanken der Menschen ging, kompliziert durch die Tatsache, dass es wie bei Littlemore nicht viel um Wissenschaft geht.

Kunst und Wissenschaft

Ich habe einen Glaubwürdigkeits-Kursus bzgl. Wissenschaft für Kunststudenten seit 25 Jahren abgehalten. Ich weiß, wie wenige etwas über Wissenschaft wissen oder auch nur wissen möchten. Ich habe die Studenten gelehrt, indem ich ihnen sagte, dass es im Grunde darum geht zu verstehen, „wie die Erde funktioniert“, und als zukünftige Erdenbürger sollten sie etwas Verständnis haben, damit sie nicht so leicht ausgebeutet werden können hinsichtlich umweltlicher Themen. Auf jeder Seite umfassenderen Wissens studierte ich die ‚Historie der Wissenschaft‘ und habe häufig Vorlesungen dazu gegeben. Ein Kursus zur Historie der Wissenschaft sollte für alle Studenten verpflichtend sein. Ich füge die empirischen Beweise von hunderten öffentlicher Präsentationen oder Radioprogrammen mit Hörerbeteiligung seit über vierzig Jahren hinzu.

Etwa 25 Prozent der Amerikaner glauben, dass die Sonne die Erde umkreist. In Wirklichkeit spielt das für die meisten Menschen gar keine Rolle. Solange die Sonne aufgeht und ihrem ordnungsgemäßen Kreislauf folgt, hat das keine Konsequenzen. Ein Grund für dieses Desinteresse ist, dass Kopernikus seine Hypothese im Jahre 1543 vorgestellt hat, der Beweis aber erst 295 Jahre später erbracht worden ist, nämlich im Jahre 1838.

Newtons Theorie hat für die Meisten ebenfalls keine Konsequenzen, solange die Schwerkraft funktioniert und niemand abfällt. Noch weniger verstehen Albert Einstein, darunter viele Wissenschaftler. Die große Änderung kam mit Darwin, als Wissenschaft Eingang in die Empfindlichkeit von jedermann fand. In grob vereinfachender Weise argumentierten Gegner von Darwin, dass er sage, unser Großvater sei ein Gorilla gewesen. Das änderte die Akademia von zwei Fakultäten, humanistische und Naturwissenschaften, und fügte die dritte und inzwischen größte Fakultät hinzu, nämlich die Sozialwissenschaften.

Vor vielen Jahren wurde ich von einer Gruppe Wissenschaftler im Ruhestand in Calgary eingeladen, um eine in Opposition zu Kyoto stehende Gruppe zu bilden. Ihre Bedenken richteten sich gegen die unzureichende Wissenschaft hinter der geplanten Politik. Ansässig in Calgary und einige beschäftigt im Bereich Öl, standen sie vor einem Glaubwürdigkeits-Problem. Sie haben sich entschlossen, strikt bei der Wissenschaft zu bleiben – eine Entscheidung, die ich unterstützte. Sie haben ausgezeichnete Arbeit geleistet und Unterstützung erhalten und tun das immer noch, wurden aber schon bald marginalisiert, als eine sehr kleine Zuwendung von einem Ölunternehmen ihre Glaubwürdigkeit unterminierte. Es ist ein klassisches Beispiel der Macht von PR und der Politik über die Wissenschaft. Ein weiterer Beweis war der bemerkenswerte Erfolg von Gores in Hollywood produziertem Film, sind doch dort die Meister der PR-(Propaganda) aktiv.

Wissen der Öffentlichkeit über Klimawissenschaft

Eine Studie der Yale University kam zu alarmierenden Ergebnissen hinsichtlich des Wissensstandes der Öffentlichkeit zum Thema Klimawandel. Abbildung 1 zeigt die aktuellen Ergebnisse mit Zeugnisnoten für die Leute. Nur 8 Prozent bekamen eine Eins oder Zwei, während 77 Prozent eine Vier oder Fünf bekamen*.

[*Das Schulnoten-System in den USA besteht aus den Buchstaben A bis F an Stelle der in Deutschland üblichen Zahlen-Noten. A steht für Eins, F für Sechs ‚flunked = durchgefallen‘. Auch im Original und in der Abbildung stehen diese Buchstaben. Im Text habe ich das deutsche System angeführt, in der Abbildung ging das nicht. Anm. d. Übers.]


Abbildung 1. Quelle: Yale University

Das ist eigentlich alles, was man wissen muss, aber die Forscher waren damit nicht zufrieden. Sie entschlossen sich, weitere Adjustierungen vorzunehmen wegen der Schwierigkeit der Fragen, und zwar mit der Konstruktion einer gebogenen Einschätzungs-Skala als ein alternatives Bewertungssystem.

Für die Einführung einer gebogenen Einschätzungs-Skala gibt es keine Rechtfertigung. Abbildung 2 zeigt das Ergebnis. Jetzt fallen nur noch 27 Prozent durch und 33 Prozent haben eine Eins oder Zwei.

Wie können diese Fragen zu schwierig sein? Diese Adjustierung verurteilt und negiert die gesamte Studie. Einige der Fragen waren schlecht formuliert, und die Analyse war falsch, weil die Autoren nicht wussten, was Klimawissenschaft ist. Wie auch immer, die Ergebnisse sind definitiv und das Problem ist fälschlich hochgespielt durch Fragen, die angeblich schwierig sein sollen. Wer hat festgelegt, dass sie schwierig sind?


Abbildung 2

Ein Cartoon (Abbildung 3, siehe oben rechts!) erschien in der Ausgabe des New Scientist vom 1. September 1977.

Wie viele Menschen würden diesen Witz verstehen? Vielleicht die Wenigen, die den begleitenden Artikel über den Milankovitch-Effekt gelesen haben, aber nicht sehr viele andere. Tatsächlich sind Milankovitch-Effekte in den IPCC-Modellen nicht enthalten.

Wahrscheinlich würden höchstens 20 Prozent das verstehen. Abbildung 4 zeigt die Prozentzahl von Studenten mit wissenschaftlichen Fähigkeiten auf hohem Niveau in vielen Ländern.

Abbildung 4

Abbildung 5

Abbildung 5 zeigt etwas höhere wissenschaftliche Fähigkeiten bei Universitäts-Absolventen (hier) – eine willkürlich ausgewählte Gruppe.

Das Fehlen wissenschaftlicher Fähigkeiten oder der Übung beim Umgang damit erstreckt sich auf viele wichtige Bereiche, zum Beispiel auch auf Anwälte und Politiker. Abbildung 6 zeigt, dass 12 Prozent von Jurastudenten an der University of Michigan auch Abschlüsse in Wissenschaft und Mathematik hatten.

Figure 6.

Das Versagen der Medien

Die Mainstream-Medien sind die Hauptgruppe, die in der Debatte um die globale Erwärmung völlig versagt haben [und natürlich weiter versagen! Anm. d. Übers.]. Sie haben die Rolle des prüfenden, investigativen Journalismus‘, den die US-Gründungsväter von ihnen erwartet hatten, abgeschafft.

Wenige Journalisten haben wissenschaftliches Training und erzeugen zunehmend Sensations-Storys, um sich dem politischen Bias anzupassen – ihrem eigenen und dem ihrer Arbeitgeber. Sie sind jetzt die Klatschmäuler in Marshall McLuhans globalem Dorf. Wie alle Klatschtanten bemühen sie nur wenige Fakten, verbreiten falsche Informationen und erfinden Storys, die kombiniert Leben zerstören. Jonathan Swift, einer der größten Satiriker, sagte einmal: „Was einige einführen, vergrößert der Rest“.

Das IPCC hat absichtlich all diese Schwächen ausgenutzt, um die Menschen in die Irre zu führen. Differenzen zwischen den Wissenschaftlichen Berichten der Arbeitsgruppe I und der Summary for Policymakers sind zu groß, um zufälliger Natur zu sein. Der Betrug begann schon bei der Definition von Klimawandel. Die Medien und die Öffentlichkeit glauben, dass das IPCC den Klimawandel in Gänze studiert. Um die Menschen verantwortlich zu machen, wurde die Definition von Klimawandel in Artikel 1 der UNFCCC stark eingeengt.

„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zuzuordnen ist und die die Zusammensetzung der globalen Atmosphäre verändern, und dies zusätzlich zur natürlichen Klimavariabilität, die in beträchtlichen Zeiträumen beobachtet worden ist“.

Nichts wurde getan, um die Menschen von ihrem Missverständnis zu befreien. Tatsächlich wurde dieses Missverständnis weiter bekräftigt durch unrichtige Statements des IPCC:

„Das IPCC ist die führende internationale Einrichtung zur Erforschung des Klimawandels“.

Öffentliche Verwirrung, politische Reaktionen

Eine Umfrage des Pew Centers (Abbildung 7) ist repräsentativ für die öffentliche Meinung und platziert den „Umgang mit der globalen Erwärmung“ sehr weit unten (an 19. Von 20 Stellen) auf der Rangliste der Sorgen.

Dafür gibt es sehr viele Erklärungen, darunter:

•Fehlendes Verständnis

•Verwirrung durch sich widersprechende Beweise

•Allgemeines Misstrauen gegenüber den Regierungen

•Das Gefühl, dass man ohnehin nichts dazu tun kann.

All dies stellt die Politiker vor ein Dilemma. Sie haben immer noch Angst vor Vorwürfen, dass sie sich nicht um den Planeten kümmern, um die Kinder, die Zukunft oder irgendeine andere der emotionalen Bedrohungen, die angeführt werden, um den moralischen Hintergrund zu stehlen. Aus ihrer Perspektive stecken sie in der Zwickmühle zwischen Arbeitsplätzen und der Wirtschaft oder der Umwelt. Das scheint einfach und offensichtlich, aber Umweltschutz als Religion macht es zu einer großen Herausforderung.

Das fängt an mit der Abstimmung im US-Senat über die Ratifizierung des Kyoto-Protokolls. Zwar äußerten die Politiker ihre Bedenken hinsichtlich der Umwelt, wollten aber Arbeitsplätze und die Wirtschaft nicht aufs Spiel setzen.

…der US-Senat stimmte mit 95 zu Null gegen die Unterzeichnung jedweden Vertrages, der „der US-Wirtschaft ernste wirtschaftliche Schäden“ zufügen würde, selbst wenn dies einzig in der Welt sein sollte.

Abbildung 7

Westliche Politiker streiften sich den Deckmantel des Grünen über und blieben bei ihrer Angst davor, irgendetwas außerhalb davon zu diskutieren. Ein vom indischen Premierminister ins Leben gerufenes Gremium näherte sich dem Moral-Problem in unterschiedlicher Weise:

„…der Council of Climate Change des Premierministers sagte, dass Indien seine Bevölkerung eher vor der Armut bewahren würde als vor der globalen Erwärmung, weshalb man nicht das Wachstum beschneiden werde, um Gasemissionen zu verringern.

Es ist offensichtlich, dass Indien seinen Pro-Kopf-Energieverbrauch erhöhen muss, um ein Minimum eines akzeptablen Wohlergehens seiner Bevölkerung sicherzustellen.

Indien ist entschlossen, dass seine Treibhausgas-Emissionen pro Kopf an keiner Stelle den der entwickelten Länder übersteigen wird“.

Die wichtige Verbindung zwischen den beiden Voten ist die Opposition gegen Ungleichheit. Kyoto nahm Geld von entwickelten Ländern wegen ihrer Sünde der CO2-Erzeugung und reichte es weiter an Entwicklungsländer, um diesen zu helfen, mit den negativen Auswirkungen fertig zu werden. Nichts davon, weder die Behauptungen des IPCC noch die Gegenbehauptungen der Skeptiker haben irgendetwas mit Wissenschaft zu tun.

Regierungskontrollen mit dem Vorwand der Klimaänderung nehmen rasant zu

Maurice Strong und die Ersteller der Agenda 21 und das IPCC sind nicht besorgt. Die gesamte Struktur war darauf ausgerichtet, an der Politik und den Bedürfnissen der Menschen vorbeizugehen. Bürokratien implementieren immer schneller die Ziele, die anthropogenes CO2 erzeugenden Aktivitäten zu reduzieren. Der Schlüssel hierzu war die Rolle der Weltwetterorganisation WMO, die Wetterämtern in jedem Land die Verantwortung von Energiepolitik übertrug. Sie fahren fort mit Plänen, das Ziel zu erreichen. Abbildung 8 zeigt das Titelbild eines Klima-Aktionsplanes für die Provinz British Columbia:

Abbildung 8

Ein Klima-Aktionskomitee hat diesen Plan entworfen, wie die Website der Regierung beschreibt:

Das Klima-Aktionsteam in British Columbia wurde im November 2007 gegründet, um der Regierung zu helfen, die Treibhausgasemissionen der Provinz bis zum Jahr 2020 um 33 Prozent zu reduzieren. Dahinter stecken einige der besten Köpfe der Provinz einschließlich neun weltweit führenden Klimawissenschaftlern.

Unter diesen neun befand sich Andrew Weaver, beitragender Autor zum Abschnitt über Computer-Modellierungen in vier IPCC-Berichten (1995, 2001, 2007 und 2013).

Der Plan wird eingeführt durch Besuche der Regierung der Provinz bei Gemeinden. Nach einem solchen Besuch wurde ich von Anwohnern der Mayne Island  (eine der Golf-Inseln) zu einer Präsentation eingeladen. Sie waren erbost, weil der Regierungsbesuch eine Vorstellung des Gore-Films enthielt, gefolgt von Vorschlägen, die Politik und Praktiken auf ihrer Insel zu ändern. Darunter war auch die Diskussion um die Einstellung sämtlicher Fahrten mit Motorfahrzeugen und die Beseitigung von Straßen.

Abbildung 9.

Übersetzung: Was die Regierung von B.C. hier getan hat ist, dass sie erkannt haben, dass dies das Richtige ist, das man tun muss, es ist das Einzige, was man tun kann, um dem Problem zu begegnen, und wir werden nicht warten, bis die [kanadische] Bundesregierung oder irgendwer sonst etwas tut. Wir werden Führung in Nordamerika zeigen, und passen Sie auf: es wird ansteckend sein, und andere werden uns im Laufe der Jahre folgen.

Der Plan basiert ausschließlich auf den Ergebnissen des IPCC. Darunter sind neben anderen Dingen eine Kohlenstoff-Steuer und die Verpflichtung zu Smart Meters. Weaver präsentierte eine Einfügung, die Abbildung 9 zeigt.

Premierminister der Provinz bei der Einführung des Klima-Aktionsplanes war Gordon Campbell. Er wusste, dass Kontrolle und Macht den Bürokratien oblag. In seiner ersten Amtszeit hatte er weit reichende neue Gesetze eingeführt. Er wusste auch um die Lücke zwischen dem, was die Politiker beabsichtigten und dem, was die Bürokraten eingeführt haben, und beauftragte zwei Politiker, die Umsetzung in jedem Department [=Landkreis] zu überwachen. Bürokraten tolerierten dies, war ihnen doch klar, dass sie die Zeit der Politiker überdauern würden.

Maurice Strong hat genau das Gegenteil getan, als er die WMO-Bürokraten ins Boot holte für die Planung, Einführung und Produktion. Er kontrollierte effektiv die Politiker der Welt. Elaine Dewar berichtete in ihrem Buch Cloak of Green, dass es sein Ideal war, industrialisierte Nationen zu eliminieren. Sie fragte, ob er beabsichtige, ein Politiker zu werden, um das Vorhaben umzusetzen. Er antwortete nein, weil man als Politiker gar nichts tun könne; er mochte die UN, weil:

Er konnte seine eigenen Mittel einfordern, von jedem, von dem er sie wollte, und er konnte jeden, den er wollte, mit der Kontrolle der Agenda beauftragen.

Dewar fügte hinzu:

Strong nutzte die UN als Plattform, eine globale Umweltkrise und die Agenda einer Weltregierung auszubreiten.

Wie Strong geplant und Weaver vorhergesagt hatte, traten bald Andere bei. Informationen der EPA, wie Staaten und niedere Regierungsebenen einen Climate Action Plan eingeführt haben, sieht man hier:

Klimaänderungs-Aktionspläne

Erfahren Sie hier, wie Sie einen Klimaänderungs-Aktionsplan für Ihre Gemeinde entwickeln.

Regionaler Klimaänderungs-Aktionsplan

Ein Klimaänderungs-Aktionsplan entwirft eine Strategie einschließlich bestimmter Forderungen an die Politik, die eine lokale Regierung verwenden kann, um der Klimaänderung zu begegnen und die Emission von Treibhausgasen zu reduzieren. Beispiele für von lokalen Regierungen entwickelte Klimaänderungs-Aktionspläne sind unten nach US-Staaten gelistet:

AZ, AK, CA, CO, CT, FL, GA, IL, KY, LA, MD, MA, MN, MO, NH, NM, NY, NC, OR, PA, SC, TN, TX, UT, WA, All States

Grundlage des EPA-Planes ist ausschließlich die Wissenschaft des IPCC, die Skeptiker längst als falsch überführt haben. Die einzige Opposition gegen diesen Plan wird durch verlorene Arbeitsplätze und ökonomische Fehlschläge kommen.

Abbildung 10

Entweder ein britisches Poster wird Volk und Politiker überzeugen, oder das kluge Wortspiel eines Autoaufklebers (Abbildung 10) wird sich als wahr herausstellen.

Link: http://wattsupwiththat.com/2014/07/24/climate-science-winning-the-science-battle-but-losing-the-policy-war/

Übersetzt von Chris Frey EIKE




Korruption akademischer Journale für Profite und Klimaänderungs-Propaganda

Dr. Tim Ball schreibt:

CRU und akademische Veröffentlichung

Jüngste Enthüllungen exzessiver Korruption (hier) des Begutachtungs-Prozesses durch eine Gruppe von Akademikern sind ein weiterer Schlag gegen die akademische Glaubwürdigkeit. Empfehlenswert in dieser geschmacklosen Geschichte war die Reaktion des Herausgebers des Journal of Vibration and Control (JVC), der sofort 60 Artikel zurückgezogen hatte. Aber was passiert, wenn der Herausgeber Teil des Schemas ist, die ordentlichen wissenschaftlichen Checks und Ausgewogenheit zu pervertieren? Wie viele weitere korrumpierte veröffentliche Artikel gibt es? Wie viele davon mit oder ohne Wissen des Herausgebers? Möglicherweise sehr viele, da die Eisberg-Analogie in solchen Fällen fast immer anwendbar ist.

Beispielsweise gab es kürzlich in Nature News einen Artikel über die Kontrolle des wissenschaftlichen Begutachtungs-Prozesses. Das ist eine Ironie, weil Nature, das „internationale wöchentliche Journal der Wissenschaft“, verstörend stark involviert ist im falschen Narrativ und der gesteuerten Botschaften der Wissenschaft um die globale Erwärmung.

Einige Medien sind ganz offen selektiv, was noch beängstigender ist, weil sie offensichtlich glauben, vernünftig zu handeln. Tatsächlich zeigen deren Verlautbarungen, dass sie glauben, es sei ihre Pflicht, die Menschen vor dem zu bewahren, was sie als schädlich ansehen. In dieser Hinsicht verfolgt die British Broadcasting Corporation (BBC) aktiv einen politischen Bias und Zensur, und zwar mit einer Politik, die Skeptiker und deren Ansichten verbannt. Es ist absolut unakzeptabel und widersprüchlich, weil die BBC vom Steuerzahler finanziert wird und sich selbst als eine Quelle vieler unterschiedlicher Ansichten geriert. Es folgt dem alten Witz: falls es zur Revolution kommt, machst du genau das, was man dir sagt.

Die Rolle mancher akademischen Journale bei der Verbreitung von Fehlinformation zu globaler Erwärmung und Klimaänderung ist bedeutend und verstörend. Wir haben viel erfahren über ihre Rolle durch die durchgesickerten Klimagate-E-Mails und das Verhalten einiger Herausgeber. Teil der CRU-Aktivitäten war die Kontrolle von Informationen besonders durch akademische Zeitschriften. Dies wurde nötig gemacht durch den gewählten Schwerpunkt von „Begutachtung“ in einer absichtlichen, aber unaufrichtigen Verkündung, dass sie, die Journale, die Autorität seien. Es wurde ihnen leichter gemacht durch das Arrangieren der gegenseitigen Begutachtung ihrer Artikel, wie der Wegman Report ans Tageslicht gebracht hatte. Sie griffen Herausgeber an, die Material veröffentlicht hatten, das sie nicht mochten, bis hin zu einem Rauswurf (Kündigung). Es ist eine Litanei von Korruption im Begutachtungsprozess, einschließlich des Zuerkennens von Prioritäten, um den Redaktionsschluss für den Eingang in die IPCC-Berichte einzuhalten. Donna Laframboise zufolge hat man sogar redaktionelle Positionen beim Journal of Climate kontrolliert.

Einigen wenigen so genannten Skeptikern war es gelungen, einen begutachteten Artikel in einer Zeitschrift zu veröffentlichen. Michael Mann hat offenbar geglaubt, dass ihnen dies nur gelungen ist durch Übernahme der Kontrolle über den Herausgeber und die Redaktion, eine Taktik, die CRU-Mitarbeitern sehr bekannt ist. Am 11. März 2003 schrieb er an Phil Jones:

„Die Studie von Soon & Baliunas (siehe meinen eigenen Artikel über die Rolle von John Holdren bzgl. dieser Studie) kann nirgendwo durch einen ‚legitimen‘ Begutachtungsprozess gelaufen sein. Es gibt also nur eine Möglichkeit – dass der Begutachtungsprozess an der CRU gekapert worden ist durch ein paar Skeptiker in der Redaktion“.

Er fügte hinzu:

„Dies war die Gefahr, wenn man die Skeptiker immer dafür kritisiert, in der ‚begutachteten Literatur‘ nie etwas veröffentlicht zu haben“.

Eine wichtige Frage lautet, warum einige Journale, besonders die vermeintlich Angesehenen wie Nature, anfällig sind für Zwang und Manipulation. Sieht man dies zusammen mit dem Bias und der Selektivität der Mainstream-Medien (MSM), wird dadurch der Öffentlichkeit ein einseitiges, unausgeglichenes und unwissenschaftliches Bild vermittelt.

Journalisten und Journalismus

Die meisten Journalisten haben zwei Bias’, die ihre Arbeit beeinflussen und begrenzen: keine wissenschaftliche Erfahrung und eine Bestimmung, ihren eigenen institutionellen und persönlichen Bias in der Öffentlichkeit zu verankern. Storys über Klima – und das sind die meisten – fallen der Sensationsgier anheim. Ausgewogenheit und Objektivität sind aus den Medien praktisch verschwunden. Der Slogan von ‚Fox News‘ „fair und ausgewogen“ sollte eigentlich überflüssig sein, wurde aber zu einer stolzen und fast einstimmigen Behauptung, trotz einer Alibipolitik.

Mit der Zeit bemerkte ich eine allgemeine Abfolge in Interviews. Es beginnt gewöhnlich mit einer Frage über meine Meinung hinsichtlich eines Ereignisses. Ist diese nicht sensationell oder kontrovers, änderte sich die Taktik hin zur Konfrontation. Derartige Fragen werden meist eingeleitet mit „nun, der und der hat gesagt…“. Falls ich gesagt hätte, dass ich dieser Person zustimme, wäre diese Story oder zumindest mein Kommentar nie erschienen. Dass sich Sensationen und Konfrontation gut verkaufen, ist nichts Neues, aber warum hat sich ein akademisches Journal dazu hergegeben, aufgegebene Genauigkeit, Integrität, Redlichkeit und Bias-Vermeidung zu „verkaufen“?

Ein Reporter ohne wissenschaftlichen Hintergrund, der aber trotzdem Artikel hauptsächlich über Umwelt und Klima schreibt, erzählte mir, dass eine wichtige Quelle von Themen in Nature veröffentlichte Artikel und Briefe sei. Er suchte nach sensationellen Schlagzeilen und brachte dann einen journalistischen Drall in die Story. Das funktionierte, weil er wusste, dass die Schlagzeile alles war. Sie erregte Aufmerksamkeit, und später erinnerte sich die gesamte Öffentlichkeit daran. Schlagzeilen sind aktive Äußerungen, stehen immer im Präsens und sind definitiv. Unvermeidlich enthält die Story alle Begrenzungen und im Konjunktiv gehaltene Abschnitte aus dem Original, aber die werden übersehen oder schnell vergessen. Alarmisten der globalen Erwärmung beuten diese Situation aus, indem sie Artikel veröffentlichen, einfach um eine Schlagzeile zu erzeugen. Schlagzeilen sind eine Form literarischer markanter Sprüche. Sie sind heute sogar noch wichtiger, weil sie zentrale Schlagworte zur Eingabe in Internet-Suchmaschinen geben.

Die sich ändernde Dynamik professioneller Journale

Professionelle, besonders akademische, Journale sind esoterisch und werden zumeist nur von wenigen Menschen gelesen. In der Presse der Universitäten erscheinen sie gewöhnlich, wobei einige Journale eine Rechnung einfordern, um einen Artikel zu veröffentlichen. Dies hat sich aus vielen Gründen geändert, hauptsächlich jedoch wegen zunehmender Spezialisierung und steigender Kosten. Mehr Spezialisierung bedeutete spezialisiertere Journale und weniger Personen, die Beiträge dazu lieferten oder diese kauften. Abo-Kosten waren hoch, weil der Steuerzahler, nicht der Akademiker über zahlreiche Agenturen zahlte.

Diese Praxis nahm zu, als die Finanzierung von Universitäten in den achtziger Jahren ein wichtiges Anliegen geworden ist. Die Universitäten haben erkannt, dass sie einen höheren Prozentsatz von Forschungsförderung nehmen können, die jedes Fakultäts-Mitglied einbrachte. Journale konnten diese Zahlungen zunehmen lassen, indem sie Institutionen eine viel höhere Rate einräumten; sie wurden für die Herausgeber kommerziell attraktiv.

Am Ende seiner Laufbahn merkte John Daly an, dass der Bias bei der Veröffentlichung von Artikeln über globale Erwärmung bereits 1997 vorherrschend war, als er schrieb:

Die de-la-mar-Studie, vollständig begutachtet und in ‚Nature‘ veröffentlicht, ist ein klassisches Beispiel dafür, wie fragwürdige Wissenschaft ganz einfach durch die derzeitige Denkweise schlüpft, erzeugt durch die Hysterie um die globale Erwärmung, wo normale wissenschaftliche Standards ohne weiteres kompromittiert werden, wenn die Orthodoxie der globalen Erwärmung in Kraft gesetzt wird. Sie repräsentiert auch einen weiteren Fehlschlag hinsichtlich des vielgerühmten Begutachtungsprozesses.

In einem Artikel kommentierte er sarkastisch: Man sagt, dass ein Magazin mit dem Namen ‚Nature‘ ein „Journal der Wissenschaft“ sei. Es ist viel schlimmer, wie die durchgesickerten Klimagate-E-Mails enthüllt haben. Die Probleme von Nature als Geschäft neben dem redaktionellen Bias waren, dass die Öffentlichkeit das Journal nicht gelesen hat und viele, die es hätten lesen können, durch den Preis davon abgehalten wurden.

Übergang von spezialisierten akademischen Veröffentlichungen an den Zeitungskiosk

Nature Publishing Group (NPG) berechnen die Kosten und Begrenztheit des Flaggschiff-Journals auf zwei Wegen. Sie haben den Schwerpunkt zunehmend auf sensationelle Themen verlagert, besonders globale Erwärmung. Sie wurden involviert in populäre Veröffentlichung ab Juni 2007, und zwar mit der Publikation Nature Reports Climate Change, welche ab Mai 2010 zu Nature Climate Change wurde. Die Sensationslust wurde benutzt, um die Auflage zu steigern und das „unter dem Strich“ stehende zu verbessern. Aber der Preis dafür waren verloren gegangene Akkuratesse, Ausgewogenheit, Objektivität und Offenheit.

Die Zeitschrift Scientific American (SA) hatte es sich zur Gewohnheit gemacht, informative Artikel über die wissenschaftliche Forschung zu verfassen. Sie halfen der Öffentlichkeit zum allgemeinen Verständnis, vereinfachten jedoch zu sehr, falls man sich hinsichtlich des Themas auskannte. Mit dem Rückgang der Verkaufszahlen änderten sich die Artikel offenbar von interessant und anspruchsvoll zu sensationell und einseitig bei Kontroversen. (Seit 2010 gibt es darin fünf Artikel von Michael Mann). Im Jahre 2008, offenbar in Verbindung mit Versuchen, bei einer größeren Leserschaft Aufmerksamkeit zu gewinnen, wurde SA unter die Kontrolle von NPG gestellt. Sie haben ihre Propaganda-Rolle im Oktober 2012 ausgeweitet, als die Berichterstattung über Wissenschaft zunehmend politisch und sensationsheischend geworden ist.

,Nature’ und ,Scientific American’ haben sich zusammengetan, um den ersten Bericht zum Status der Weltwissenschaft im Oktober 2012 zu erstellen. Gedacht als jährliche Publikation vom ‚Scientific American‘ geht es in diesem Bericht um den Gedanken, dass das Erlangen von Wissen ein globales Unterfangen ist und darum, wie die Globalisierung die Art und Weise verändert, mit der Wissenschaft betrieben wird und wie sie die Welt informiert.

Willkommen in der Welt der (politischen) Wissenschaft

Idealerweise ist Wissenschaft unpolitisch und amoralisch. Je mehr man sich von diesen Idealen entfernt, umso größer der Verlust an Glaubwürdigkeit und Integrität. Die Ausbreitung des Hypes um die globale Erwärmung war erfolgreich, weil einige Wissenschaftler und Akademiker politisch geworden sind. Die Wissenschaftler haben aus allen möglichen Gründen mitgemacht, darunter finanzielle Förderung, Gelegenheit zu Karrieresprüngen und politische Tendenzen. Die Journale waren involviert, weil angesehene wissenschaftliche Verlage offensichtlich Sensationsgier und politischen Bias höher gestellt haben als Ausgewogenheit und Objektivität. Der Übergang vollzog sich allmählich, so dass nur wenige bemerkt haben, was da vor sich ging.

Glücklicherweise gab es einige Personen und Veröffentlichungen mit Integrität, nicht zuletzt Sonja Böhmer-Christiansen und das Journal Energy and Environment (E and E). Sie veröffentlichten die Analyse von McIntyre und McKitrick zum infamen Hockeyschläger und haben so den Zorn der CRU-Bande auf sich gezogen, die von den meisten akademischen Journalen unterstützt worden war.

So unerfreulich das auch ist, es gibt nur wenige größere Ehrungen als das Ziel von Attacken zu sein. Piloten der Luftwaffe wussten, dass sie über dem Ziel waren, wenn das Flak-Feuer besonders heftig wurde. Paul Thacker schrieb im Jahre 1995 zynisch: „Wenn die Manuskripte von Skeptikern der Klimaänderung durch begutachtete wissenschaftliche Journale abgelehnt werden, können sie ihre Studien immer bei Energy and Environment einreichen“. Außerdem zitiert er Sonja Böhmer-Christiansen mit den  Worten: „Es sind nur wir Klimaskeptiker, die nach kleinen Journalen suchen müssen, und kleine Verleger wie ich, die sogar ihre Artikel veröffentlichen“.

Es ist eine traurige Geschichte, dass viel zu vielen akademischen Mainstream-Verlagen wie Nature eine derartige Integrität fehlt.

Link: http://wattsupwiththat.com/2014/07/12/corruption-of-academic-journals-for-profit-and-climate-change-propaganda/

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Standardabweichung, das übersehene, aber essentielle Klima-Statistikum

Es ist wichtig, die Isolation der Paläoklima-Gemeinschaft zu unterstreichen; selbst wenn sie sich stark auf statistische Methoden stützen, die sie anscheinend nicht mit der Gemeinschaft der Statistiker abgesprochen haben.

Offensichtlich wussten sie, dass ihr Gebrauch und Missbrauch von Statistik und statistischen Methoden niemals untersucht werden würde. Das galt für den „Hockeyschläger“, einem Beispiel von falscher Anwendung und für die Erzeugung ‚einheitlicher‘ statistischer Methoden, um das Ergebnis vorweg zu bestimmen. Unglücklicherweise ist diese Gefahr in der Statistik inhärent. Ein Statistik-Professor sagte mir: je ausgeklügelter eine statistische Methode ist, umso schwächer sind die Daten. Alles jenseits grundlegender statistischer Methoden ‚unterminierte‘ die Daten und entfernte sich immer weiter von der Realität und einer vernünftigen Analyse. In der Klimatologie ist dies wegen unzureichender Daten unvermeidlich. Im Bericht des US National Research Council vom 3. Februar 1999 heißt es:

„Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen begrenzen ernstlich das Vertrauen in die Forschungsergebnisse“.

Methods in Climatology von Victor Conrad ist ein klassisches Lehrbuch, das die meisten der grundlegenden Dinge in der Klimaanalyse anspricht. Seine Stärke liegt in der Erkenntnis, dass  die Menge und Qualität der Daten kritisch ist. Dieses Thema war für Hubert Lamb zentral, als er die Climate Research Unit (CRU) ins Leben gerufen hatte. Meiner Ansicht nach hat sich die Statistik, so wie sie hinsichtlich des Klimas angewendet wird, seitdem kaum weiterentwickelt. Es stimmt zwar, dass wir inzwischen über andere Methoden verfügen wie die Spektralanalyse, aber alle diese Methoden sind bedeutungslos, wenn man nicht akzeptiert, dass es Zyklen gibt oder dass man Aufzeichnungen hinreichender Qualität und zeitlicher Länge braucht.

Ironischerweise entfernen einige Methoden Daten, wie z. B. gleitende Mittel. Eisbohrkern-Aufzeichnungen sind ein gutes Beispiel. Die antarktischen Aufzeichnungen aus Eisbohrkernen, zum ersten Mal im Jahre 1990 gezeigt, illustrieren die Mahnung des Statistikers William Briggs:

Jetzt werde ich Ihnen die große Wahrheit über Analysen von Zeitreihen verkünden. Sind Sie bereit? Solange die Daten nicht mit Fehlern gemessen werden, darf man die Zeitreihe niemals, jemals, unter keinen Umständen und auf keinen Fall GLÄTTEN! Und wenn man dies aus irgendwelchen bizarren Gründen doch tut, werden Sie diese geglättete Reihe absolut NIE als Input für andere Analysen benutzen! Werden die Daten mit Fehlern gemessen, kann man versuchen, diese zu modellieren (das heißt zu glätten), und zwar in einem Versuch, den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine von außen kommende Abschätzung jenes Fehlers haben, das heißt eine, die nicht Ihre gegenwärtigen Daten zur Grundlage hat (Fettdruck von ihm).

Die Aufzeichnungen der antarktischen Eisbohrkerne hat man mit einer über 70 Jahre gehenden Glättung versehen. Dies eliminiert einen großen Teil dessen, was Briggs „reale Daten“ nennt, im Gegensatz zu „fiktiven Daten“, die die Glättung hervorbringt. Die Glättung verkleinert eine wesentliche Komponente grundlegender Statistik, nämlich die Standardabweichung der Rohdaten. Dies ist teilweise der Grund, warum diese in den Klimastudien so wenig Aufmerksamkeit erfahren hat, obwohl sie ein kritischer Faktor hinsichtlich des Einflusses von Wetter und Klima auf Flora und Fauna ist. Die Konzentration auf Mittelwerte und Trends war ebenfalls dafür verantwortlich. Noch wichtiger aus wissenschaftlicher Perspektive ist deren Wichtigkeit zur Berechnung von Mechanismen.

Abbildung (Beschreibung teils aus dem Original): Rekonstruierte CO2-Konzentrationen für das Zeitintervall zwischen etwa 8700 und 6800 Kalenderjahren vor heute, basierend auf CO2, das aus Luftbläschen des antarktischen Eises an der Stelle Taylor Dome extrahiert worden ist (linke Kurve; ref.2; Rohdaten erhältlich bei www.ngdc.noaa.gov/paleo/taylor/taylor.html) und SI-Daten für fossile B. pendula und B. pubescens [?] aus dem Lille Gribso-See in Dänemark. Die Pfeile kennzeichnen accelerator mass spectrometry 14C–Chronologien, die für zeitweilige Kontrollen verwendet wurden. Das schattierte Zeitintervall markiert das Abkühlungsereignis von 8200 Jahren vor heute.

Quelle: Proc. Natl. Acad. Sci. USA 2002 September 17: 99 (19) 12011 -12014.

Die Abbildung zeigt eine Bestimmung des atmosphärischen CO2-Gehaltes in einem Zeitraum von 2000 Jahren, wobei geglättete Daten aus einem Eisbohrkern (links) und aus Stomata (rechts) verglichen werden. Unabhängig von der Wirksamkeit jeder Methode der Datengewinnung ist es nicht schwierig zu bestimmen, welcher Plot wahrscheinlich die meisten Informationen über die Mechanismen vermittelt. Wo ist das Abkühlungsereignis vor 8200 Jahren in der Kurve des Eisbohrkerns?

Zu Beginn des 20. Jahrhunderts wandte man Statistik auf die Gesellschaft an. Universitäten, ursprünglich geteilt in Natur- und Geisteswissenschaften, sahen eine neue und ultimativ größere Disziplin heraufdämmern, die Sozialwissenschaften. Viele im Bereich der Naturwissenschaften sehen die Sozialwissenschaft als einen Widerspruch in sich und nicht als ‚wirkliche‘ Wissenschaft. Um die Bezeichnung zu rechtfertigen, begann man in den Sozialwissenschaften, deren Forschungen statistisch zu untermauern. Ein Buch mit dem Titel  „Statistical Packages for the Social Sciences”  (SPSS) erschien erstmals im Jahre 1970 und wurde zum Handbuch für Studenten und Forscher. Man gebe ein paar Zahlen ein, und das Programm liefert Ergebnisse. Die Brauchbarkeit der Daten, wie der Unterschied zwischen kontinuierlichen und diskreten Zahlen, sowie die Methode waren wenig bekannt oder sind ignoriert worden, obwohl die Ergebnisse beeinflusst worden sind.

Die Meisten kennen den Kommentar von Disraeli: Es gibt drei Arten Lügen: Lügen, verdammte Lügen und Statistik“, aber nur Wenige verstehen, wie sehr die Anwendung von Statistik ihr Leben beeinflusst. Jenseits der ungenauen Anwendung von Statistiken liegt das Entfernen von allem jenseits der Standardabweichung, was die Dynamik der Gesellschaft beseitigt. Macdonald verkörpert die Anwendung von Statistiken – sie haben die Mittelmäßigkeit perfektioniert. Wir fühlen, wenn alles zu jedem passt, aber nie genau zu jedem einzelnen passt.

Klimastatistik

Klima ist ein Mittel des Wetters über einen bestimmten Zeitraum oder einem Gebiet, und bis zu den sechziger Jahren waren Mittelwerte effektiv die einzige entwickelte Statistik. Antike Griechen benutzten mittlere Bedingungen, um drei globale Klimaregionen zu bestimmen: die heißen, gemäßigten und kalten Zonen, erzeugt vom Winkel zum Sonnenstand. Klimaforschung enthält die Berechnung und Veröffentlichung mittlerer Bedingungen an individuellen Stationen oder Gebieten. Nur wenige verstehen, wie bedeutungslos eine Messung ist, obwohl schon Robert Heinlein schrieb: „Klima ist das, was man erwartet, und Wetter ist das, was man bekommt“. Auch Mark Twain war sich dessen bewusst, bemerkte er doch: „Klima ist immer, Wetter nur ein paar Tage“. Ein Landwirt befragte mich hinsichtlich der Wahrscheinlichkeit eines normalen Sommers. Er ärgerte sich über die Antwort „nahe Null“, weil er nicht verstanden hat, dass ‚Mittel‘ Statistik ist. Eine informativere Frage ist, ob es kälter oder wärmer als normal sein wird, aber dazu braucht man Kenntnis über zwei andere wesentliche statistische Parameter, nämlich Variation und Trend.

Nach dem Zweiten Weltkrieg kamen Planungen und Sozialforschung auf, als die Nachkriegs-Gesellschaften Entwicklungen einer einfachen Trendanalyse ausgelöst hatten. Man nahm an, dass ein darin erscheinender Trend immer so weiterlaufen würde. Die Mentalität hatte Bestand trotz offensichtlicher Auf- und Abschwünge; hinsichtlich des Klimas scheint es Teil der Zurückweisung von Zyklen zu sein.

Studien zu Klimatrends begannen im Wesentlichen in den siebziger Jahren mit der Vorhersage einer kommenden Mini-Eiszeit, hatten doch die Temperaturen bis dahin seit 1940 abgenommen. Als Mitte der achtziger Jahre die Temperaturen wieder stiegen, hieß es, dass sich dieser Trend ohne Abschwächung fortsetzen würde. Politische User des Klimas übernahmen etwas, das ich den Trend-Waggon nenne. Das IPCC machte den Trend unabwendbar mit der Aussage, dass das menschliche CO2 dafür der Grund war und dass CO2 immer weiter zunehmen werde, solange die industrielle Revolution noch andauert. Wie auch alle Trends zuvor hatte auch dieser Trend keinen Bestand, zeigte sich doch nach 1998 bei den Temperaturen ein Abwärtstrend.

Für das Leben und die Wirtschaft ist die Variabilität von Jahr zu Jahr wichtig. Landwirte wissen, dass die Arbeit des nächsten Jahres nicht auf der Grundlage des Wetters im vorigen Jahr geplant werden kann, aber eine reduzierte Variabilität reduziert das Risiko merklich. Die jüngste Änderung der Variabilität ist normal und durch bekannte Mechanismen erklärt, wird aber von denjenigen mit einer politischen Agenda als anomal hingestellt.

John Holdren, der Wissenschafts-Zar von Obama, nutzte die Autorität des Weißen Hauses, um die zunehmende Variation des Wetters und eines Mechanismus‘ auszuschlachten, der den meisten Wissenschaftlern, geschweige denn der Öffentlichkeit unbekannt ist, nämlich den Polarwirbel [the circumpolar vortex]. Er erzeugte eine ungenaue Propaganda-Veröffentlichung über den Polarwirbel, um zu implizieren, dass dieser etwas völlig Neues und unnatürliches sei und daher den Menschen zuzuordnen ist. Zwei der drei von den antiken Griechen festgelegten Klimazonen sind sehr stabil, nämlich die Tropen und die Polargebiete. Die gemäßigte Zone weist infolge jahreszeitlicher Veränderungen die größte kurzfristige Variabilität auf. Es gibt dort aber auch eine längerfristige Variabilität, weil der Polarwirbel zyklisch zonal und meridional hin und her schwingt. Letzteres führt zu einer zunehmenden Variation der Wetter-Statistik, wie es auch jüngst der Fall war.  

Das Scheitern der IPCC-Studien und –Vorhersagen war unvermeidlich, weil ihm Daten fehlen und Daten fabriziert wurden, weil Kenntnisse über Mechanismen fehlen und bekannte Mechanismen ausgeschlossen worden sind. Reduktion oder Entfernung der Standardabweichung führte zu Informationsverlusten und einer weiteren Verzerrung der natürlichen Wetter- und Klimavariabilität, die beide weiterhin innerhalb historischer und natürlicher Normen ablaufen.

Link: http://wattsupwiththat.com/2014/06/15/standard-deviation-the-overlooked-but-essential-climate-statistic/

Übersetzt von Chris Frey EIKE




Svensmark kosmische Theorie und Darstellungen der Wolkenbedeckung in Kunstwerken der Kleinen Eiszeit

Durch rigorose [aber vergebliche] Versuche, den kosmischen Effekt in bester wissenschaftlicher Manier zu widerlegen, ist dieser Effekt jetzt etabliert.

Herausforderung des IPCC

Abbildung 3: IPCC-Abbildung 7c

Eine wesentliche Objektive des 3. Zustandsberichtes des IPCC (TAR) war es, den Beweisen in Abbildung 7c aus dem 1. Zustandsbericht 1990 zu begegnen. Sie war ärgerlich, zeigte sie doch signifikante Temperaturvariationen während der letzten 1000 Jahre. Dies widersprach der IPCC-Behauptung, dass die Erwärmung im 20. Jahrhundert einmalig und anomal war. Der Schwerpunkt lag auf der Darstellung der Mittelalterlichen Warmzeit MWP von etwa 950 bis 1350. Aber auch die Kaltzeit von 1350 bis 1850, bekannt als die Kleine Eiszeit LIA, war Gegenstand von Gedanken. Lamb hat in einer persönlichen Bemerkung darauf hingewiesen, dass das Einsetzen und die Dauer dieser Perioden regional variiert hat, manchmal um Jahrzehnte.

Künstler-Gemälde der LIA

Wir alle sehen die Welt auf unterschiedliche Weise mit unterschiedlichen Gefühlen und unterschiedlichem Bewusstsein. Klassischerweise ist das meiste davon Natur, besonders mit bestimmten Fähigkeiten wie Mathematik, Musik oder Kunst. Künstler sehen Farben, Licht und Abbildungen der Welt unterschiedlich. Es gibt eine Grundlage für Landschaftsmaler, weil sie malen, was sie vor sich sehen, wenn auch mit artistischer Brillanz je nach Gelegenheit. Ihre Werke liefern Beweise für Bedingungen wie den Schnee und die Kälte der Kleinen Eiszeit von Breughel (Abbildung 4) oder Grifier (Abbildung 5). Eine Ausstellung dieser Werke gab es von Hendrick Avercamp mit dem Titel „the Little Ice Age“ in der National Gallery in Washington von März bis Juli 2010.

Abbildung 4: Pieter Breughel the Elder, Hunters in the Snow*

Diese Künstler betrachteten diese Bedingungen als relativ normal, vor allem, wenn ihre Lebensspanne innerhalb der LIA lag. Als Landschaftsmaler würden sie jedoch sich ändernde atmosphärische Bedingungen vor allen anderen bemerken, was ihre Werke beeinflussen würde.

Abbildung 5: Jan Grifier, The Great Frost 1683 (River Thames)*

[*Diese Untertitel habe ich absichtlich nicht übersetzt! A. d. Übers.]

Sich veränderndes Himmelsbild ist Beweis für ein sich änderndes Klima

Abbildung 6: John Constable, englischer Künstler

Der US-Bundesstaat Montana ist bekannt unter der Bezeichnung „Big Sky Country“, und folglich sind die dominanten Features in Bildern Himmel und Wolken. Dies gilt für jedes Flachland-Gebiet, wie z. B. Saskatchewan oder Norfolk in Ostengland. Künstler malen diese Himmelsbilder natürlich, aber nur wenige mit größerer Aufmerksamkeit als John Constable (Abbildung 6). Er wurde so sehr auf die Wolken aufmerksam, dass er im Jahre 1821 ein ganzes Album fertigte ausschließlich mit Wolken und Wolkenformen (Abbildung 8). Es gibt viele Bücher, die diese Malereien analysieren. Eines davon mit dem Titel John Constables Himmel [skies] trägt den Untertitel A Fusion of Art and Science [etwa: „Fusion von Kunst und Wissenschaft]. Darin wird die Frage gestellt: Und waren seine Himmelsbilder wissenschaftlich korrekt gemalt? Es wurde 1999 veröffentlicht und ging der Bestätigung von Svensmarks Arbeiten über Sonnenflecken und Wolkenbedeckung voraus.

Constables Werke unterstützen nicht aus sich selbst heraus Svensmarks Arbeiten, aber wenn man sie mit einer 1970 erschienenen Studie von Neuberger vergleicht (die als Nachdruck am 30. April 2012 in Weather erschienen war), stellen sie eine unabhängige Bestätigung dar. Die Schönheit von Neubergers Arbeit Climate in Art besteht darin, dass sie 29 Jahre vor dem Beginn der Untersuchung einer Verbindung zwischen Sonnenflecken und Temperatur erschienen war, die Friis-Christensen und Knud Lassen in einem Science-Artikel im Jahre 1991 umrissen haben. Titel: Length of the Solar Cycle: An Indicator of Solar Activity Closely Associated with Climate [etwa: Länge eines solaren Zyklus’: Ein Indikator für eine enge Beziehung zwischen Sonnenaktivität und Klima].

Neubergers Hypothese lautete: …eine statistisch ausreichende Menge von Malereien von vielen Malern, die in einer gegebenen Periode in einer gegebenen Region gelebt haben, sollte meteorologische Features zeigen, die sich signifikant von jenen einer ähnlichen Menge von Malereien unterscheiden, die in der gleichen Epoche in einer klimatisch anderen Region entstanden sind.

Er untersuchte über 12.000 Gemälde in 41 europäischen und amerikanischen Kunstmuseen. Die untersuchte Zeitperiode erstreckte sich von 1400 bis 1967. Verschiedene Definitionen wurden aufgestellt, um die Kategorien zu standardisieren einschließlich des Codes im US-Flugverkehr, der aus vier Kategorien besteht:

clear (weniger als 10% des sichtbaren Himmels ist mit Wolken bedeckt)

scattered (10 bis 50% Wolkenbedeckung)

broken (60 bis 90% Wolkenbedeckung)

overcast (über 90% Wolkenbedeckung)

Er unterteilte den Zeitraum von 1400 bis 1967 in drei Epochen, dargestellt in Abbildung 7 (Abbildung 12 im Originalartikel).

Abbildung 7: Neubergers Bildunterschrift: Epochale Änderungen verschiedener gemalter Features.

Die Epochen definierte er so:

1400 bis 1549: die Periode vor dem Höhepunkt der Kleinen Eiszeit

1550 bis 1849: Die Periode des Höhepunktes der LIA, die „Jahre ohne Sommer“ enthält

1850 bis 1967: Die Periode nach dem Höhepunkt, gekennzeichnet durch Gletscherrückzug und substantieller atmosphärischer Erwärmung.

Als er diese Zeiträume auf 50-Jahres-Epochen herunterbrach, zeigten die Prozentzahlen der mittleren Bewölkung dramatische Unterschiede, die von 29% im Zeitraum 1400 bis 1449 bis zu 77% im Zeitraum 1550 bis 1599 reichten. Dazu schrieb er:

Die Häufigkeit tiefer und konvektiver Wolken zeigt auch eine starke Änderung von der ersten zur zweiten Epoche. Dies spiegelt die Verschlechterung des Wetters in ganz Europa.

Abbildung 8: Aus einer Wolkenstudie von Constable (1821).

J. M. W. Turner, ein Zeitgenosse von Constable, hat ebenfalls Landschaften mit einer extensiven Darstellung der Wolken gemalt. Ihn haben mehr die wechselnden Lichtbedingungen angesprochen, vor allem nach dem Ausbruch des Tambora im Jahre 1815. Deswegen werden seine Werke als früher englischer Impressionismus angesehen.

Schlussfolgerung

Ein kritischer Punkt bei der Rekonstruktion des Klimas ist die Beschaffung bestätigender Informationen aus unabhängigen Quellen. Diese frühe Studie von Neuberger stützt Svensmarks Hypothese, dass die sich ändernde Sonnenaktivität verstärkt die Bildung tiefer Wolken verursacht, die wiederum zu Änderungen der Temperatur führt.

Link: http://wattsupwiththat.com/2014/04/24/svensmarks-cosmic-theory-and-cloud-cover-depictions-in-little-ice-age-art/

Übersetzt von Chris Frey EIKE




Wetter- und Klimavorhersagen der Regierung sind gescheitert

800×600

Der Kommentar von Richard Feynman beschreibt die wissenschaftliche Methode, gilt aber auch für die Vorhersagen von Wetter und Klima. Viele mittel- und langfristige Wetter- und Klimavorhersagen sind falsch und liegen jenseits jedweder Brauchbarkeit. (Beispiel: die Vorhersage des Met. Office UK eines trockenen Winters 2013-2014 endete mit massiven Überschwemmungen. A. v. Anthony Watts). Die meisten Vorhersage-Institutionen wechseln zwischen der Bestimmung ihres eigenen Niveaus der Zuverlässigkeit oder legen detailliert offen, wie ungeeignet ihre Arbeit ist. Keine gesellschaftliche Gruppe liegt so daneben wie Wettervorhersagen der Regierung, und doch macht sie immer weiter. Offensichtlich nehmen die Leute das hin, zusammen mit all den anderen gescheiterten politischen Vorgaben. Ihre wirkliche Ansicht spiegelt die Tatsache, dass nur wenige Aktivitäten mehr Gelächter und Geringschätzung erfahren als Wettervorhersagen.

Historie der Vorhersagen

Ungefähr im Jahr 300 v. C. hat Theophrastus, ein Schüler von Aristoteles, ein Buch geschrieben, in dem er zum ersten Mal Regeln für die Wettervorhersage festlegte. In dem Buch Book of Signs hat er über 200 empirische Indikatoren beschrieben wie z. B. die Aussage „A halo around the moon portends rain“ [etwa: wenn der Mond einen Hof hat, ist Regen im Anzug]. Viele Skeptiker einschließlich ich selbst, sagen, dass wir seitdem noch nicht sehr viel weiter gekommen sind. Stattdessen würde ich sagen, dass wir uns rückwärts entwickelt haben.

Über die Jahrhunderte gab es sehr viele Versuche der Vorhersage von Wetter und Klima. Old Richard’s Almanac von Benjamin Franklin begann mit einem Dienst dieser Art im Jahre 1757 für Langfristvorhersagen, vor allem für Landwirte. Er erweiterte damit die Gedanken von Theophrastus bzgl. der Wetterfolklore, die eigentlich aus klimatischen Beobachtungen jahreszeitlicher Ereignisse und deren Änderungen abgeleitet waren. Im Jahre 1792 wurde dieses Werk ersetzt durch The Farmer’s Almanac, heute bekannt unter dem Titel The Old Farmer’s Almanac; und es wird von vielen Menschen zu Rate gezogen, vor allem von Landwirten. Der Begründer Robert B. Thomas kombinierte Sonnenaktivität, Wetterabläufe und astronomische Zyklen, um seine Vorhersagen zu erstellen. Wir können das in heutige Formulierungen übersetzen: mittlere Sonnenflecken-Aktivität, historische Wetteraufzeichnungen und Variationen des Magnetfeldes, um eine größere Genauigkeit zu erreichen als die limitierten Variablen für die meisten Vorhersagen, vor allem aber für die des IPCC. Sie sind besser als offizielle langfristige Vorhersagen wie z. B. die Jahreszeiten-Vorhersagen des UK Met. Office während der letzten Jahre. Zuletzt war da die Vorhersage eines trockenen Winters 2013, der einer der nassesten jemals gewesen ist.

Im Jahre 1837 hat Patrick Murphy, ein englischer Gentleman der Wissenschaft, eine Studie veröffentlicht mit dem Titel The Weather Almanac (on Scientific principles, showing the State of the Weather for Every Day of the Year of 1838). Darin enthalten war eine nahezu akkurate Vorhersage für den 20. Januar 1838: „Schön, und wahrscheinlich einer der kältesten Tage des Winters“. Die Temperatur lag bei bemerkenswerten -20°C, also bei dem niedrigsten Wert seit Menschengedenken. Dickes Eis bildete sich auf der Themse, dick genug, um ein Schaf am offenen Feuer bei Hammersmith zu rösten. Die Temperatur scheint aus heutiger Sicht bemerkenswert, war aber konsistent mit einer Erde, die sich vom Tiefpunkt der Kleinen Eiszeit in den achtziger Jahren des 17. Jahrhunderts erholte, dann aber im Zuge des Dalton-Minimums einen Rückschlag erlitt.

Der Winter 1838 wurde Murphys Winter, allerdings waren die Vorhersagen für das restliche Jahr meistens falsch. Diese ärmlichen Ergebnisse mündeten in ein in der Times abgedrucktes Gedicht:

When Murphy says ‘frost’, then it will snow

The wind’s fast asleep when he tells us ’twill blow.

For his rain, we get sunshine; for high, we have low.

Yet he swears he’s infallible – weather or no!*

Dies scheint Wort für Wort anwendbar auch auf das UK Met. Office heute.

[*Das lässt sich nicht übersetzen! A. d. Übers.]

Ein gewisser Dr. Merriweather aus Whitby, Yorkshire, hat eine Technik entwickelt, Wettervorhersagen zu erstellen aus der Beobachtung der Blutegel, die er zur Blutentnahme in seiner Praxis einsetzte. Er notierte sich die Position der Blutegel in seinen Reagenzgläsern, um das Wetter vorherzusagen. Bei ruhigem Wetter hielten sie sich am Boden auf, aber wenn sie anfingen, an der Seite empor zu kriechen, war eine Wetteränderung nach einem halben Tag zu erwarten. War Regen im Anzug, kletterten die Blutegel über die Wasserlinie, und wenn sie dort blieben und sich zu einer Kugel zusammen rollten, war Sturm zu erwarten.

Merriweather schrieb eine Studie mit dem Titel An Essay Explanatory of the Tempest Prognostication [Tempest = Gewittersturm], wobei ihm als Grundlage ein spezielles Glasgefäß diente, das er selbst entworfen hatte. Darin befand sich ein Blutegel und eine Glocke, die erklang, wenn der Egel das Wasser verließ. Er verkaufte es auf der Weltausstellung 1851. Seine gescheiterten Prognosen sind vergleichbar mit den heutigen Behauptungen der Zunahme von Extremwetter.

Gescheiterte Vorhersagen der Moderne

Vor über 200 Jahren sagte Lavoisier (1743 bis 1794): „Es ist fast unmöglich, für ein oder zwei Tage innerhalb einer relativ begrenzten Wahrscheinlichkeit vorherzusagen, wie sich das Wetter entwickeln wird“. Ich verstehe das, weil die Persistenz und die Markov-Wahrscheinlichkeit eine Wahrscheinlichkeit von 63% ergeben, dass das Wetter morgen genauso sein wird wie heute. Gegenwärtig nimmt das UK Met Office für sich eine Genauigkeit von 93,8% bzgl. der Temperaturvorhersagen für den nächsten Tag in Anspruch; jedoch hätten die Tiefsttemperaturen der folgenden Nacht nur noch eine Genauigkeit von 84,3%. Das Problem liegt darin, dass beide mit einer Fehlertoleranz von ±2°C einhergehen, so dass der Fortschritt hinsichtlich der Wahrscheinlichkeit minimal ist. Es scheint, als wäre Lavoisiers „grobe Bandbreite der Wahrscheinlichkeiten“ nur wenig verbessert worden. Die meisten kommen zu besseren Ergebnissen, weil sie etwas praktizieren, was ich „graduelle Approximation“ nenne. Sie erstellen eine Vorhersage über fünf Tage  und ändern diese dann alle sechs Stunden bis zum aktuellen Zeitraum. Mir ist keine Forschungsarbeit bekannt, in der die Genauigkeit der ersten Fünf-Tages-Prognose mit der Realität verglichen wird. Wie viele Änderungen wurden vorgenommen, um der Wirklichkeit auch nur halbwegs nahe zu kommen?

Wettervorhersagen fanden im Ersten Weltkrieg praktische Verwendung, als Flugzeuge und deren Piloten der Gnade des Wetters ausgeliefert waren. Darum befinden sich die meisten Wetterstationen an Flughäfen, wo sie anfällig waren für Hitze von den Rollbahnen, den Düsentriebwerken und in vielen Fällen der sich verstärkenden städtischen Wärmeinsel (UHI). Bjerknes hat viele der Terme formuliert, die bei der Vorhersage von Warm- und Kaltfronten verwendet werden oder bei der Entwicklung bzw. Auflösung frontaler Wettersysteme, wobei die Terminologie aus dem Krieg stammt. Durch Fortschritte in der Luftfahrt schwindet heute der Bedarf an Vorhersagen. Wetterinformationen für die Luftfahrt sind heute einfach Stationsdaten der gegenwärtigen Bedingungen und auch nur für Kleinflugzeuge. Größere oder fortschrittlichere Flugzeuge können praktisch auch bei Nullsicht landen, so dass lediglich eine geschlossene Landebahn ein Problem darstellt. Das Problem der meisten Daten von Wetterstationen ist, dass sie nicht in „Echtzeit“ erfolgen, so dass der Pilot sich darauf verlässt, was der Tower ihm sagt.

Landwirte bräuchten genaue Vorhersagen entweder eine Woche oder Monate im Voraus, so dass sie ihre Operationen planen können. Keine davon ist mit hinreichender Zuverlässigkeit zu haben. Andere Aktionsgruppen wie die Forstwirtschaft oder Energieerzeuger erstellen ihre eigenen Vorhersagen, wobei viele sogar deren Daten sammeln. Das Problem sind ungenügende Wetterstationen, um Wetterkarten mit hinreichender Genauigkeit zu zeichnen, um nützliche Ergebnisse zu zeitigen. Je länger die Vorhersage, umso ausgedehnter die Anzahl der involvierten Stationen – eine Vorhersage für fünf Tage bedeutet eine Wetterentwicklung weit stromaufwärts. In den meisten Fällen sind die Lücken der diesbezüglichen Informationen einfach zu groß.

Öffentliche Bilder mit Wettervorhersagen bringt das Fernsehen, und zwar in einem 2 bis 3-minütigen Segment am Ende der Nachrichten, das man kurz nach der Präsentation schon wieder vergessen hat. Die meisten Fernsehsender versuchen, die Informationen mit visuellen Spielchen aufzumotzen. Einige präsentieren „Extremwetter“ oder aus einem „Storm Center“*. Sie verzerren die Wirklichkeit, indem sie so etwas wie den Wind Chill oder Hitze-Indizes verbreiten, als sei das die aktuelle Temperatur. Alles wird übertrieben, und das führt dazu, dass die Leute dem immer weniger Aufmerksamkeit schenken. Die Glaubwürdigkeit geht verloren, weil sie häufig [echte] Extremereignisse nicht richtig vorhersagen.

[*Gemeint ist hier eine Einrichtung wie etwa das National Hurricane Center in Miami. Den Begriff mit „Sturmzentrum“ zu übersetzen wäre grob irreführend. A. d. Übers.]

Ich habe  mit der Fliegerei angefangen, bevor es computergestützte Wetterkarten gab. Wettervorhersagen waren nicht sehr gut, aber mit Sicherheit besser als heutzutage [!]. In jenen Tagen hat der Wettermensch individuelle Stationsdaten herangezogen und seine eigene, auf Isobaren basierende Karte gezeichnet. Bei der Erstellung dieser Karte hat er ein Gefühl für den wahrscheinlichen Wetterablauf entwickelt, den er dann mit den Erfahrungen vor Ort in Verbindung brachte. Immer noch war das Vertrauen in die Vorhersagen gering, vor allem bei Personen, die ein genaueres Produkt brauchten. Hubert Lamb hat als Forecaster* ernste Beschwerden über schlechte Vorhersagen von Flugzeugbesatzungen aus dem Zweiten Weltkrieg gesammelt, die über Deutschland im Einsatz waren. Ihm wurde klar, dass für bessere Vorhersagen bessere Kenntnisse des Wetters in der Vergangenheit vonnöten waren, und das war der entscheidende Auslöser für die Gründung der Climate Research Unit CRU.

[*Der Begriff „Forecaster“ ist nach Ansicht meines Freundes Hans-Dieter Schmidt nicht übersetzbar, und jeder wisse, was damit gemeint ist. Ich frage aber trotzdem mal: Weiß jemand hierfür einen passenden deutschen Begriff? „Prognostiker“ vielleicht, wie die Übersetzungshilfe LEO vorschlägt? A. d. Übers.]

Als Wigley die CRU von Lamb übernahm, führte er die CRU in eine ganz andere Richtung und sorgte für die effektive Aufhebung der Rekonstruktionen des vergangenen Klimas. Die Arbeit einiger Weniger hat die Grenzen der Daten und der Fähigkeit der Computermodelle, genaue Wetterkarten zu erstellen, bloßgestellt. Benjamin Santer, ein CRU-Student, vervollständigte ein Thesenpapier mit dem Titel Regional Validation of General CirculationModels. Man brauchte drei Computermodelle, um die nordatlantischen Bedingungen nachzustellen. Offensichtlich hat man dieses Gebiet ausgewählt, weil es das größte Gebiet mit den besten Daten war. Aber trotzdem haben die Computermodelle massive Drucksysteme erzeugt, die nicht existieren.

Santer verwendete regionale Modelle im Jahre 1987, aber nichts hat sich während 21 Jahren verbessert. Im Jahre 2008 hat Tim Palmer, ein leitender Klimamodellierer am ECMWF in Reading, UK, im Journal New Scientist gesagt:

Ich möchte das IPCC nicht unterminieren, aber die Vorhersagen, vor allem hinsichtlich regionaler Klimaänderungen, sind immens unsicher.

Wie unsicher sie sind, zeigt die Überprüfung der Vorhersagegenauigkeit durch die NOAA in den USA und Kanada. Die Abbildungen 1 und 2 sind die Ergebnisse der NOAA-Überprüfungen für 3-monatige Vorhersagen.

Abbildungen 1 und 2: Überprüfung der Güte 3-monatiger Vorhersagen

Das Folgende erklärt, wie dieser Test abläuft:

Der Ausdruck „skill“ [etwa: Vorhersagegüte, -leistung etc. Ich lasse den Begriff hier mal unübersetzt stehen. A. d. Übers.] in Bezug auf Vorhersagen bedeutet ein Maß für die Güte der Vorhersage relativ zu einem gewählten Standard. Oftmals besteht der Standard aus dem langzeitlichen (30-jährigen) Mittel (der Klimatologie) eines Parameters, der vorhergesagt wird. Folglich ist die Bestimmung des Skills eine Messung der Verbesserung der Vorhersage über den Standard hinaus.

CPC verwendet den Heidke-Skill Score, welcher eine Maßzahl dafür ist, wie gut sich eine Vorhersage relativ zu einer anderen ausgewählten Vorhersage macht. Eine Maßzahl 0 bedeutet, dass die Vorhersage nicht besser war als das, was man zufällig erwartet hätte. Eine Maßzahl 100 beschreibt eine „perfekte“ Vorhersage, und eine Maßzahl -50 steht für die „schlechtest mögliche“ Vorhersage. Die gestrichelten Linien in der Graphik zeigen den mittleren Skill Score für alle Vorhersagen und für die „Nicht-CL-Vorhersagen“. „CL“ bezieht sich auf die Klimatologie oder eine Vorhersage gleicher Wahrscheinlichkeit für Temperatur und Niederschlag jeweils über, bei oder unter dem Normalwert. „Nicht-CL“ bezieht sich auf alle Vorhersagen, in denen erhebliche Abweichungen nach oben bzw. unten vorhergesagt werden. „Prozentzahl“ bezieht sich auf die Prozentzahl des Vorhersagegebietes, für das erhebliche Abweichungen von Temperatur und Niederschlag vorhergesagt werden.

Die Ergebnisse sind sehr mager und in den meisten Fällen kaum besser als Zufallsvorhersagen.

Environment Canada führt einen ähnlichen Skill-Test durch. Die Abbildungen 3 und 4 sind Beispiele für Temperatur-Vorhersagen über 4 bis 6 Monate (links) sowie 12 Monate (rechts). Hinsichtlich der Vorhersage von Niederschlag sieht es noch schlechter aus.

Abbildung 3: Vorhersagen für 4 bis 6 Monate und Prozentzahl der Treffer; Abbildung 4: dito für 12-Monats-Vorhersagen

Die kanadischen Ergebnisse sind schlechter als in den USA, zeigt doch das Mittel in Abbildung 3 eine Gewissheit von lediglich 44,6% und in Abbildung 4 von 41,5%. Diese Beispiele sind willkürlich ausgewählt, und in den meisten Fällen sind diese Ergebnisse noch schlechter, wie man sich selbst überzeugen kann.

In einer Pressemitteilung im Jahr 2005 hieß es: „NASA/NOAA verkünden massive Verbesserungen von Vorhersagen“. Im Lichte der oben beschriebenen Ergebnisse gibt es von  JSCDA-Direktor Dr. John LeMarshall eine merkwürdige Äußerung:

„Um eine Zunahme der Vorhersage-Genauigkeit um vier Prozent zu erreichen bei Vorhersagen für fünf oder sechs Tage im Voraus, braucht man normalerweise viele Jahre“, – „dies ist ein erheblicher Fortschritt und nur der Anfang dessen, was wir als viel mehr Daten ansehen können, die in die operationellen Vorhersage-Modelle des Environmental Modeling Center der NOAA eingehen“.

Was bedeutet die Aussage, dass die Vorhersage-Genauigkeit in 19 Jahren (2014-2005) verbessert worden ist? Falls wir annehmen, dass die Hälfte dieser Zeit (~9 Jahre) „viele Jahre“ bedeutet, hat sich die Genauigkeit vermutlich um 8 Prozent verbessert bei Vorhersagen für 5 bis 6 Tage im Voraus. Das Problem ist, dass man praktisch bei einer Null-Genauigkeit anfängt. Es wird Jahrhunderte dauern, bis man ein brauchbares Niveau erreicht. Die wichtige Frage lautet, ab welchem Punkt man zugeben muss, dass die Wissenschaft falsch liegt.

In einem vor Kurzem erschienenen Artikel bei WUWT wurde detailliert eine Studie beschrieben, die zu dem Ergebnis gekommen ist, dass „es immer noch ein Weiter Weg ist bis zu zuverlässigen regionalen Prognosen, die man im Zeitmaßstab von Jahreszeiten bis Jahrzehnten machen kann“. Das untertreibt die Probleme und Potentiale. Die Daten sind in allen Dimensionen ungeeignet. Das Verständnis und die Modellierung der Mechanismen sind unzureichend. Niemand verwendet diese Ergebnisse, weil sie so unzuverlässig sind. Man macht nur weiter damit, weil die Regierung dafür zahlt und weil die erzeugenden Bürokraten den Politikern weismachen, dass sie wertvoll sind. Das sind sie nicht.

Das IPCC gibt niemals zu, dass es wissenschaftlich falsch liegt. Jede einzelne IPCC-Vorhersage seit dem Bericht 1990 war falsch. Anstatt ihre Wissenschaft neu zu überdenken, hat es mit etwas angefangen, das inzwischen zu seiner Standardpraxis geworden ist, nämlich die Eckpunkte zu verschieben. Die volle Politisierung der Klimawissenschaft erfolgte zwischen den Berichten 1990 und 1995. Anstatt zuzugeben, dass die Wissenschaft falsch war, gingen sie von Prognosen zu Projektionen über, die seitdem ebenfalls allesamt falsch waren. Abbildung 6 zeigt die drei IPCC-Niveaus der Projektionen aus dem Jahr 1990 im Vergleich zu aktuellen Temperaturmessungen von Bodenstationen (blau) und Satelliten (grün); zusammengestellt von Clive Best:

Abbildung 6

[Hinweis: Abbildung 5 war nicht auffindbar. Ein Versehen des Autors bei der Zählung? A. d. Übers.]

Vorhersagen im Kurz- (Stunden und Tage), Mittel- (Wochen und Monate) sowie Langfristzeitraum (Jahrzehnte) sind alle falsch, liegen sie doch in jedem Falle nahe bei oder sogar unter dem Zufallsniveau. Trotz Dollarmilliarden und konzentrierten Bemühungen zur Verbesserung gibt es wenig oder gar keine Verbesserung. Falls ein solches Niveau gescheiterter Vorhersagen in irgendeiner anderen Unternehmenslogik liegen würde, würde dies zumindest das Eingestehen verlangen, dass etwas in der Wissenschaft fundamental falsch ist.

Vielleicht wird der Artikel im Daily Caller vom 20. Februar 2014 ein paar Antworten provozieren, werden doch darin die Regierungs-Prognostiker in schlimmster Weise angegriffen. Die Schlagzeile lautet: Bericht: Farmers Almanac genauer als die Klimawissenschaftler der Regierung. Ich weiß, dass die meisten Menschen nicht überrascht sind, wussten sie doch schon lange, dass die meisten Vorhersagen der Regierung falsch waren. Außerdem waren sie sehr teuer und von sehr geringem Wert. Thomas Sowell brachte es mit der Frage auf den Punkt:

Würden Sie Ihren Monatslohn auf die Wettervorhersage für morgen verwetten? Falls nicht, warum sollte dann dieses Land (die USA) Milliarden auf die Vorhersagen der globalen Erwärmung verwetten, die sogar noch viel weniger begründet sind?

Es ist schlimmer als das. Die Wissenschaft der Regierung ist falsch, und darum sind auch deren Vorhersagen falsch. Auf dieser Basis drückt sie eine Politik durch, die das Gegenteil einer sich fortentwickelnden Zukunft ist.

Link: http://wattsupwiththat.com/2014/02/25/government-weather-and-climate-forecasts-are-failures/

Übersetzt von Chris Frey EIKE

Hierzu möchte mein Freund Hans-Dieter Schmidt einen Kommentar schreiben:

Leider besteht in der Kommentarfunktion keine Möglichkeit, Abbildungen einzustellen, weshalb ich Chris Frey gebeten habe, ob ich hier zu diesem Artikel Stellung nehmen kann (vorbehaltlich der Zustimmung der EIKE-Redaktion):

Die kurzfrist-Wettervorhersage beurteilt Dr. Ball m. E. falsch, denn tatsächlich hat es hier signifikante Verbesserungen gegeben. Der Deutsche Wetterdienst veröffentlicht seit Jahren vierteljährlich  eine Auswertung der Prognosegüte für 1 bis 6 Tage.

Mittel- und langfristig und vor allem in Klimazeiträumen liegt Dr. Ball jedoch richtig, wie ich mit folgenden drei Abbildungen zeigen möchte. Sie geben Ensemble-Vorhersagen von einem gegebenen Ausgangspunkt (heute) für 24 Stunden, 168 Stunden (1 Woche) und 384 Stunden (über zwei Wochen). Man erkennt: Nach 24 Stunden gibt es gute Übereinstimmung, nach 1 Woche kann man vielleicht noch ein Muster erkennen, aber bei 384 Stunden ist definitiv Feierabend.

Zum letzten Bild: In Politik und Medien wird eine Vorhersage für 50 bis 100 JAHRE als das Maß aller Dinge betrachtet…




Überbevölkerung: Die Täuschung hinter der Täuschung der globalen Erwärmung

„Der allgemeine Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen, uns einigenden Feind kam uns der Gedanke, dass Verschmutzung, die Bedrohung durch die globalen Erwärmung,  Wasserknappheit, Hungersnöte und dergleichen diese Rolle einnehmen könnten. All diese Gefahren haben ihren Ursprung in menschlicher Einmischung, und man kann sie nur überwinden durch verändertes Verhalten. Der wirkliche Feind ist demnach die Menschheit selbst“.

Sie glauben, dass all diese Probleme dem Menschen geschuldet sind, aber durch technologische Fortschritte einer wachsenden Bevölkerung abgemildert werden. Verändertes Verhalten bedeutet im Grunde, was Thomas Malthus mit seinem Gedanken in die Welt gesetzt hat, dass die Welt überbevölkert ist. Er glaubte, dass Wohltätigkeit und Hilfe für die Armen eine Hauptursache des Problems sei, und dass es notwendig sei, die Bevölkerung durch Regeln und Vorschriften zu reduzieren. Die Bemühungen des TCOR gipfelten in den politischen Aktivitäten der Konferenz von Rio 1992, die von Maurice Strong (einem TCOR-Mitglied) unter dem Umweltprogramm der UN (UNEP) organisiert worden ist.

Die Hypothesen und Objektiven wurden zur Hauptstruktur der Agenda 21, dem Masterplan für das 21. Jahrhundert. Der Bedrohung durch die globale Erwärmung wurde in Rio Rechnung getragen mit der Gründung des UNFCCC (United Nations Framework Convention on Climate Change) und der Schaffung des IPCC. Dessen Aufgabe war es ausschließlich, Beweise dafür zu finden, dass menschliches CO2 ein Beitrag des allgemeinen Feindes sei.

Das IPCC war dabei sehr erfolgreich. Trotz aller Enthüllungen über korrumpierte Wissenschaft und ihrer gescheiterten Vorhersagen (Projektionen) steht CO2 immer noch im Mittelpunkt der Aufmerksamkeit hinsichtlich Energie und Umwelt. Beispielsweise wird auf zahlreichen Websites der Regierung der CO2-Ausstoß neuer und gebrauchter Autos aufgelistet. Autobauer arbeiten daran, Autos mit immer geringerem CO2-Ausstoß zu bauen und damit zu werben, und sei es auch nur zu dem Zweck, möglichst grün dazustehen. Die Autoindustrie, welche die Wissenschaftler in ihren Reihen hat, die es besser wissen, hat sich hinsichtlich CO2 kollektiv den Öko-Schikanen unterworfen. Damit stehen sie nicht allein. Sie kommen damit durch, weil sie die unnötigen Kosten an eine umnebelte Bevölkerung weiterreichen, die „nur im Sinn hat, das Richtige zu tun“.

Der TCOR übertrug Malthus’ Behauptung auf einen Wettlauf auf alle Ressourcen bis zu deren Erschöpfung, der bereits im Gange sei. Sowohl Malthus als auch der COR glauben, dass die Begrenzung der Bevölkerung obligatorisch sei. Darwin hatte eine Ausgabe des Essay on Population bei sich und äußerte sich zu dessen Einfluss auf seine Evolutionstheorie in seinem Journal Beagle im September 1838. Die Saat der Verzerrung bzgl. Überbevölkerung wurde durch Darwins Akzeptanz der Malthus’schen Behauptungen gelegt.

In der von Paul Johnson erstellten Biographie von Charles Darwin wird der Widerspruch zwischen Darwins wissenschaftlichen Methoden und seine Akzeptanz der Malthus’schen Thesen kommentiert:

Malthus’ Ziel war es, Wohltätigkeit abzuschaffen und die bestehenden Armen-Gesetze zu reformieren, welche seinen Worten zufolge die Hilflosen ermutigen und so das Problem verschlimmern. Das war nicht Darwins Problem. Was ihn berührte, war der Kontrast zwischen der geometrischen Progression (Brüten) und der arithmetischen Progression (Nahrungsmittel). Er war kein Mathematiker und hat die Logik hinter Malthus‘ Einlassungen nie hinterfragt … tatsächlich war Malthus‘ Gesetz Unsinn. Er hat es nie bewiesen. Er hat es in den Raum gestellt. Das Fehlen auch nur eines kleinsten Beweises in seinem gesamten Werk war augenfällig. Warum ist Darwin das nicht aufgefallen? Ein Mysterium. Malthus’ einziger „Beweis” war die Bevölkerungszunahme in den USA.

Es gab keinen einzigen Punkt, an dem Malthus’ geometrischen/arithmetischen Regeln sich mit den bekannten Fakten trafen. Und er hatte keinerlei Grund, von den hohen Raten des amerikanischen Bevölkerungszuwachses auf einen stetigen Verdoppelungs-Effekt alle 25 Jahre zu schließen.

Er schluckte den Malthusianismus, weil es zu seinen emotionalen Bedürfnissen passte, er hat keine Tests durchgeführt und nicht den Skeptizismus an den Tag gelegt, den ein Wissenschaftler haben sollte. Es war eine seltene Abweichung von der Disziplin seines Fachgebietes. Aber es war eine sehr bedeutende.

Darwins Zustimmung zu Malthus gaben dessen Ideen eine Glaubwürdigkeit, die sie nicht verdient hatten. Seitdem hat die Malthus’sche Behauptung die Wissenschaft dominiert, ebenso wie die Sozialwissenschaft und zuletzt die Umweltbewegung. Selbst heute noch glauben viele, die die Falschheit der globalen Erwärmung durch die Menschen erkannt haben, dass Überbevölkerung ein echtes Problem ist.

In allen TCOR-Aktivitäten stand die Überbevölkerung im Mittelpunkt. Drei Bücher waren für diese Botschaft wesentlich, nämlich The Population Bomb (1968) und Ecoscience: Population, Resources and Environment (1977) von Paul Ehrlich, wobei er Letzteres zusammen mit Obamas Wissenschafts-Zaren John Holdren geschrieben hat. Außerdem Limits to Growth von Meadowes et al., veröffentlicht 1972. Darin war das Vorgehen des IPCC mittels Computervorhersagen (Projektionen) vermutet worden. Darin heißt es:

Falls sich die gegenwärtigen Wachstumstrends hinsichtlich Weltbevölkerung, Industrialisierung, Verschmutzung, Nahrungsmittelerzeugung und Ausbeutung von Ressourcen unverändert fortsetzen, werden die Grenzen des Wachstums auf diesem Planeten irgendwann während der nächsten 100 Jahre erreicht sein.

Auf der Website des COR heißt es:

Sie haben ein Computermodell erstellt, das die Beziehungen zwischen verschiedenen globalen Entwicklungen einbezieht und Simulationen für alternative Szenarien entwickelt. Teil der Modellierung waren die unterschiedlichen Mengen der möglicherweise erschließbaren Ressourcen, unterschiedliche Niveaus der landwirtschaftlichen Produktivität, Geburtenkontrolle und Umweltschutz.

Man schätzte die gegenwärtig verfügbaren Mengen einer Ressource, bestimmte die Verbrauchsrate und fügte eine steigende Nachfrage wegen zunehmender Industrialisierung und Bevölkerung hinzu und kam mit einfachen linearen Trendanalysen zu dem Ergebnis, dass die Welt dem Untergang geweiht ist.

Der Wirtschaftsexperte Julian Simon stellte den TCOR und die Hypothesen von Ehrlich in Frage.

Ehrlich hatte behauptet: „Wenn ich ein Zocker [gambler] wäre, würde ich sogar wetten, dass England im Jahr 2000 nicht mehr existieren würde“. Simon betrachtete diese Behauptung als zu dumm, um sich überhaupt damit zu befassen. Er reagierte mit einem „öffentlichen Angebot von 10000 Dollar … für meine Annahme, dass die Kosten von nicht von der Regierung kontrollierten Rohstoffen (einschließlich Getreide und Öl) langfristig nicht steigen werden“.

Simon schlug vor:

„Sie können Ihre eigenen Modalitäten festlegen: wählen Sie irgendeinen Rohstoff – Kupfer, Zinn, was auch immer – und wählen Sie irgendein Datum in der Zukunft, irgendein Datum, das über ein Jahr in der Zukunft liegt, und ich wette, dass der Preis dieses Gutes an jenem Datum niedriger sein wird als derzeit“.

John Holdren wählte die Materialien und den Zeitpunkt. Simon hat die Wette gewonnen.

Der globalen Erwärmung liegt der Gedanke zugrunde, dass sich das CO2 wegen zunehmender Industrialisierung und wachsender Bevölkerung bis auf schädliche Niveaus anreichern würde. Die politische Manipulation der Klimawissenschaft wurde mit Entwicklung und Kontrolle der Bevölkerung auf vielfache Weise verbunden. Hierzu gibt es einen Kommentar von Senator Tim Wirth aus einem PBS interview. Man hatte ihn gefragt: „Welches Ereignis Ende der achtziger Jahre hat Ihrer Ansicht nach zum Höhenflug des Themas globale Erwärmung geführt?“ Er erwiderte:

Ich glaube, dass es Ende der achtziger Jahre eine ganze Reihe von Ereignissen gegeben hat. Erstens gab es da den (NASA-Wissenschaftler) James Hansen 1988 … Wir hatten ein weitreichendes Gesetz eingebracht, und zwar ein Gesetz zur Klimaänderung mit 18 Punkten; darunter Bevölkerung, Konservierung – und auch Kernkraft. Es enthielt alles, was wir uns in Bezug auf die Klimaänderung vorstellen konnten … Und dann folgte die Reihe von Anhörungen, in denen Jim Hansen der Star-Zeuge war.

In Wikipedia liest man über Wirth:

Im State Department arbeitete er mit Vizepräsident Al Gore an globalen Umwelt- und Bevölkerungsthemen und unterstützte die Ansicht der Regierung zur globalen Erwärmung. Als Unterstützer des Kyoto-Protokolls verkündete Wirth den Einsatz der USA für gesetzlich bindende Grenzen von Treibhausgas-Emissionen.

Gore war 1988 bei der Hansen”-Anhörung der Vorsitzende und stand im Mittelpunkt der These, dass die Bevölkerung die Grundlage aller anderen Probleme sei. Er führte die US-Delegation bei der International Conference on Population and Development im September 1994 in Kairo.

Diese Konferenz war eine Fortentwicklung der Konferenz 1992 von Rio, auf der die Bevölkerung mit allen anderen vermeintlichen Problemen in Zusammenhang gebracht worden waren.

Die explizite Integration der Bevölkerung in wirtschaftliche Entwicklungsstrategien wird sowohl das Tempo der nachhaltigen Entwicklung und der Erleichterungen erhöhen und zum Erreichen von Bevölkerungs-Objektiven beitragen sowie zu einer Verbesserung der Lebensumstände.

Dieses Thema stand im Mittelpunkt der Rio+20-Konferenz im Juni 2012 und war dazu gedacht, der Rio-Konferenz des Jahres 1992 neuen Schwung zu verleihen.

Die Zahlen

Die Welt ist nicht überbevölkert. Jener Trugschluss zieht sich durch die gesamte Umweltforschung, die Politik und die Planungen, einschließlich der globalen Erwärmung und jüngst der Klimaänderung. Wie also sehen die Fakten hinsichtlich der Weltbevölkerung aus?

Das Zensus-Büro der USA gibt eine laufende Schätzung der Weltbevölkerung. Am 15. Februar 2012 wurden 6.994.551.619 Menschen vermutet. Am 30. Oktober 2011 ist Behauptungen der UN zufolge die 7-Milliarden-Grenze gerissen worden; der Unterschied beträgt 5.448.381. Das ist mehr als die Bevölkerung von 129 Ländern der 242 Länder, die von Wikipedia genannt werden. Der Unterschied bestätigt, dass die meisten statistischen Angaben hierzu grobe Schätzungen sind, vor allem jene der UN, die sich auf individuelle Mitgliedsländer stützen, obwohl es von dort keinen genauen Zensus gibt.

Die Bevölkerungsdichte ist ein bedeutenderer Parameter. Die meisten Menschen konzentrieren sich in küstennahen Gebieten und Flussmündungen, die etwa 5 Prozent der Landfläche ausmachen. Man vergleiche die Bevölkerung in Kanada, dem zweitgrößten Land der Welt mit etwa 35,3 Millionen Einwohnern geschätzt im Jahre 2013 mit Kalifornien mit einer geschätzten Bevölkerung von 37,3 Millionen Menschen (2010). Einige illustrieren die Bedeutungslosigkeit der Dichte, indem sie jeden in ein bekanntes Gebiet stellen. Zum Beispiel, dividiert man die Fläche von Texas, umgerechnet knapp 700.000 km² durch die Weltbevölkerung im Jahre 2012, 6.994.551.619 Menschen, kommt man auf eine Fläche von knapp 100 m² pro Person. Wenn man alle Menschen in ein Gebiet presst, ist das etwas anderes als die Möglichkeit, dort zu leben. Der größte Teil der Welt ist nicht von Menschen bewohnt.

Bevölkerungs-Geographen trennen das bewohnte Gebiet von den nicht bewohnten Gebieten. Die Verteilung in beiden ändert sich mit der Zeit infolge sich ändernder Technologie, Kommunikationsmöglichkeiten und der Kapazität zur Erzeugung von Nahrungsmitteln. Viele dieser Änderungen haben mit Klimakontrolle zu tun. Der Gebrauch von Feuer und Kleidung erlaubte das Überleben in kälteren Gebieten, während Bewässerung die Ansiedlung in ariden Gebieten möglich machte. Moderne Umweltschützer würden am liebsten alle diese evolutionären Fortschritte wieder abschaffen.

Ironischerweise ist das irrige Problem die Lösung

Das alles klingt nur zu vertraut bei der Ausbeutung der Wissenschaft für eine politische und persönliche Agenda. Aber es gibt eine sogar noch größere Tragödie, weil die Entwicklung, die TCOR und IPCC verdammen, tatsächlich die Lösung ist.

Alle Bevölkerungsvorhersagen von Ehrlich und Anderen waren falsch, aber wichtiger und auch verdammenswerter war, dass sie eine andere Entwicklung ignorierten, die man schon 1929 entdeckt hatte und die sich im gleichen Zeitraum wie die Malthus’schen Behauptungen entfaltete. Bekannt ist dies unter der Bezeichnung Demographic Transition [etwa: Demographischer Übergang].

Sie zeigt, was auch Statistiken bestätigen, dass die Bevölkerung mit zunehmender Industrialisierung und Wirtschaftswachstum abnimmt. In entwickelten Ländern ist dies so dramatisch, dass die Bevölkerungspyramide inzwischen in Schieflage geraten ist. Es gibt nicht mehr genügend junge Menschen gibt, um die massiven Sozialprogramme für die Älteren zu finanzieren. Einige Länder umgehen dieses Problem durch Einwanderung, was aber schlicht und ergreifend zu anderen Problemen führt. In Ländern, die die Zuwanderung nicht zulassen oder stark beschränken wie z. B. Japan gibt es ganz andere Probleme. Solche Länder bieten Anreize, mehr als zwei Kinder zu bekommen, so wie es Präsident Putin in Russland verkündet hat. China hat drakonische und unmenschliche Maßnahmen ergriffen, um die Ein-Kind-Politik durchzusetzen. Die Ironie liegt darin (obwohl daran nichts komisch ist), dass sie jetzt die größten Erzeuger von CO2 und des größten Wirtschaftswachstums sind. Wenn sie einfach nur den demographischen Übergang studiert und den Dingen einfach ihren Lauf gelassen hätten, dann hätten die schon eingetretenen und noch zu erwartenden Tragödien vermieden werden können.

Die Welt ist nicht überbevölkert. Malthus wartete mit dem Gedanken auf, dass die Bevölkerung irgendwann nicht mehr ausreichend mit Nahrung versorgt werden könnte. Die gegenwärtige Erzeugung von Nahrungsmittel würde Schätzungen zufolge 25 Milliarden Menschen ernähren, Tendenz wachsend. Der Punkt ist, dass in den Entwicklungsländern etwa 60 Prozent der Nahrungsmittel niemals auf dem Esstisch landen. In entwickelten Ländern liegt dieser Prozentsatz bei 30%, hauptsächlich durch Möglichkeiten der Kühlung. In ihrer blinden Begeisterung haben die gleichen Leute, die für das IPCC-Fiasko verantwortlich waren, die technologische Lösung dieses Problems bekämpft – bessere und billigere Kühlung. Das Thema CFC/Ozon wurde künstlich geschaffen, um CFCs zu verbannen und eine globale Kontrolle durch das Montreal-Protokoll einzuführen. Genau wie das Kyoto-Protokoll handelte es sich dabei um eine massive, teure, unnötige Lösung für ein nicht existierendes Problem.

TCOR und später die Agenda 21 des UNEP haben die Malthus’sche Denkweise zur Überbevölkerung übernommen und auf alle Ressourcen ausgeweitet. Sie ist inzwischen zur Grundsatzlehre aller Politiker und der gesamten Politik geworden. Das IPCC wurde ins Leben gerufen, um die Verantwortung für die globale Erwärmung oder jüngst der Klimaänderung dem menschlichen CO2 in die Schuhe zu schieben, und zwar CO2 von einer industrialisierten zunehmenden Bevölkerung. Beide gingen sie von falschen Hypothesen aus, haben manipulierte Daten und Wissenschaft benutzt, die sie in Computermodelle eingaben, die wenig überraschend falsch waren. Das Ergebnis ist, dass der Trugschluss der globalen Erwärmung infolge menschlichen CO2 ein Unterbereich des Trugschlusses der Überbevölkerung ist.

Link: http://wattsupwiththat.com/2014/01/05/overpopulation-the-fallacy-behind-the-fallacy-of-global-warming/

Übersetzt von Chris Frey EIKE




Viele Klima-Rekonstruktionen werden fälschlich Temperaturänderungen zugeordnet

Bild rechts: Die Fichte bei Churchill, Manitoba (Quelle: der Autor). Siehe Text weiter unten!

Die IPCC-Definition einer Klimaänderung hat den Brennpunkt dafür auf menschliche Ursachen verengt, hat aber das Ganze verschärft, indem es Variablen ignoriert, in ihrer Bedeutung herabgestuft und missbraucht hat. Am wichtigsten und auch grundlegend war Wasser in all seinen Zuständen und Funktionen (hier). Die Besessenheit begrenzte die Sichtweise auf höhere Temperaturen und zunehmendem CO2. Finanzielle Förderung wurde für Analysen hinsichtlich der Auswirkungen auf Wirtschaft und Umwelt ausgegeben, anstatt dass man eine Kosten/Nutzen-Analyse durchgeführt hätte. In Klimastudien ging es nur um die Temperatur, wobei gewöhnlich und fälschlich durch Niederschlag ausgelöste Änderungen der Temperatur zugeordnet wurden. Diese Praxis zeigte sich höchst augenscheinlich in paläoklimatischen Rekonstruktionen, ausgeführt entweder durch IPCC-Teilnehmer oder ausgewählt zum Einfließen in die IPCC-Berichte.

Es ist fast schon eine Maxime: wenn die Mitarbeiter an der Climatic Research Unit CRU, die effektiv die IPCC-Wissenschaft kontrolliert haben, auf ein Thema geschaut haben, dann nur in der Hinsicht, dass es vielleicht eine Bedrohung ihrer vorbestimmten Hypothese sein könnte.

Tom Wigley übernahm den Posten des Direktors an der CRU von Hubert Lamb und bestimmte weitgehend die Richtung früher Forschungen. Dann behielt er seinen Einfluss, als die durchgesickerten E-Mails bekannt geworden sind. Er hat die Ziele von Lamb vollständig umgelenkt, hatte dieser doch die Notwendigkeit von Daten betont, bevor irgendein Verständnis erwachsen kann:

„Als Erstes und Wichtigstes muss man die Fakten des Klimas der Vergangenheit etablieren, bevor irgendwelche Zusatzeffekte durch menschliche Aktivitäten von Bedeutung werden könnten“.

Lamb war gegen Wigleys Ansichten und scheint bereut zu haben, diesen einzustellen, schrieb er doch über die andere Richtung, in die Wigley die CRU gelenkt hat. Er schrieb:

„Prof. Tom Wigley war hauptsächlich daran interessiert festzuschreiben, dass Änderungen des Weltklimas die Folge menschlicher Aktivitäten seien, vor allem durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“

Das wurde zum Brennpunkt der CRU und in der Folge auch des IPCC. Es war die vorbestimmte Hypothese, die zur Manipulation der Klimawissenschaft geführt hatte. Die durchgesickerten CRU-E-Mails enttarnen Wigley als die graue Eminenz, an die sich alle Studenten und Kollegen an der CRU wandten, wenn sie Rat und Anleitung brauchten.

Eine klassische Gefahr in der Klimaforschung und eine frühe Bedrohung der Behauptungen hinsichtlich eines menschlichen Signals war, dass man sie als das Ergebnis einer Auto-Korrelation bloßstellen konnte. Das Ganze wurde bereits 1944 in dem Klassiker von Conrad benannt: Methods in Climatology. Im Jahre 1999 haben Tsonis and Elsner in einem Artikel mit dem Titel The Autocorrelation Function and Human Influences on Climate (etwa: Die Autokorrelations-Funktion und menschliche Einflüsse auf das Klima) Wigleys Versuch kommentiert zu beweisen, dass ein menschlicher Einfluss nicht aufgrund von Autokorrelation zu verzeichnen ist. Sie schrieben:

Dieses Ergebnis von Wigley ist beeindruckend, und es könnte tatsächlich einen menschlichen Einfluss auf das Klima geben. Allerdings ist die Verwendung der Autokorrelations-Funktion für solche Bestimmungen problematisch. Klimamodelle konstituieren dynamische Systeme, egal ob erzwungen oder nicht. Falls diese Modelle wirklichkeitsgetreu die Dynamik des Klimasystems repräsentieren, dann sollte ein Vergleich zwischen einer Beobachtung/Messung und einer Modellsimulation zeigen, ob diese beiden Ergebnisse die gleiche dynamische Grundlage haben.

In dem Beitrag Quantitative approaches in climate change ecology haben Brown et al. das Problem identifiziert:

Wir präsentieren eine Liste mit Themen, die angesprochen werden müssen, um Rückschlüsse auf eine sicherere Grundlage zu stellen, einschließlich (1) Berücksichtigung von Datenberschränkungen und der Vergleichbarkeit von Datensätzen, (2) alternative Mechanismen, die eine Änderung auslösen, (3) geeignete Variablen, (4) ein passendes Modell für diesen untersuchten Prozess, (5) zeitliche Autokorrelation, (6) räumliche Autokorrelation und Verteilungen und (7) die Überwachung der Änderungsraten. Während maritime Studien bei unserer Übersicht im Vordergrund standen, können diese Grundlagen aber auch für Studien auf dem Festland angewendet werden. Die Berücksichtigung dieser Vorschläge wird helfen, das Wissen um die globalen Klimaauswirkungen und das Verständnis für die Prozesse, die ökologische Änderungen treiben, voranzubringen.

Die zwei ersten Bedingungen in der Liste von Brown et al. zur Lösung von Autokorrelations-Problemen stehen auch im Mittelpunkt, um die Korruption und die Irreführung des IPCC zu verstehen.

(1) Datenbeschränkungen

Wie schon Lamb erkannt hat, waren und sind fehlende Daten die ernsteste Begrenzung. Die Lage ist vollständig ungeeignet für die Temperatur, vermeintlich die am stärksten gemessene Variable. Wie kann es sein, dass zwei so große Agenturen wie HadCRUT und GISS zu so unterschiedlichen Ergebnissen kommen, und das vermutlich aus dem gleichen Datensatz? Paul Homewood erstellte die folgende Tabelle, in der Ergebnisse von vier Datenquellen der Periode 2002 bis 2011 verglichen werden:

Es zeigt sich eine Differenz zwischen GISS und UAH von 0,36°C, was für einen neun-Jahres-Zeitraum enorm ist. Man vergleiche das mit der Erwärmung um 0,6°C seit 140 Jahren, eine Änderung, von der das IPCC im Jahre 2001 behauptet hat, dass sie dramatisch und unnatürlich sei.

Die Datengrundlage ist räumlich und zeitlich sogar noch viel schlechter, wenn es um Wasser in all seinen Formen geht, vor allem Niederschlag. In einer klassischen Untertreibung heißt es im IPCC-Bericht aus dem Jahr 2007:

Unterschiede bei der Messung des Niederschlags verbleiben als Sorgenkind bei der Quantifizierung des Ausmaßes, mit dem sich Niederschläge im globalen und regionalen Bereich verändert haben.

Weiter stellen sie fest:

Wenn Modelle akkurat die sich mit der Jahreszeit verändernde Verteilung von Niederschlägen simulieren sollen, müssen sie eine Reihe von Prozessen korrekt simulieren (z. B. Verdunstung, Kondensation, Transport), die im globalen Maßstab schwierig zu evaluieren sind.

Das Fehlen von Daten ist schlimmer als Temperatur und Niederschlag für alle andere Wetter-Variablen. Es gibt nur unzureichend Daten, um die Interferenzen von Autokorrelationen zu bestimmen.

(2)Alternative Mechanismen von Änderungen

Die Fähigkeit, Mechanismen und deren Implikationen zu bestimmen ist ohne adäquate Daten unmöglich. Abgesehen davon, wir verstehen die meisten Mechanismen gar nicht, so dass die Berücksichtigung von Alternativen schwierig ist. Viele Mechanismen sind erkannt, aber viele andere sind nach wie vor unbekannt. Eine Äußerung von Donald Rumsfeld bringt es auf den Punkt:

„…Es gibt bekannte Bekannte; das sind Dinge, von denen wir wissen, was wir wissen. Es gibt aber auch unbekannte Bekannte; das heißt, es gibt Dinge, von denen wir wissen, dass wir nichts wissen. Außerdem gibt es aber auch noch unbekannte Unbekannte – das sind Dinge, von denen wir nicht wissen, dass wir nichts wissen“.

Der Widerspruch in den Ergebnissen verschiedener Behörden wie z. B. bei den Temperaturdaten beweist diesen Punkt. Das IPCC hat dieses Problem mit einer begrenzten Definition umgangen, die es ihm gestattete, die meisten Mechanismen zu ignorieren. Oftmals waren die Entschuldigungen ziemlich bizarr, so wie diese aus dem Kapitel 8 des Berichtes aus dem Jahr 2007:

Infolge der unberechenbaren Kosten im Zusammenhang mit der Notwendigkeit einer gut aufgelösten Stratosphäre enthalten die zur Abschätzung des jetzigen Zustands verwendeten Modelle nicht die QBO.

Das IPCC hat genau das getan, wovor Einstein einst gewarnt hatte: „Alles sollte so einfach wie möglich gemacht werden, aber nicht noch einfacher“.

Jenseits von Autokorrelation?

Autokorrelation ist in der Klimatologie eine Gefahr, aber was beim IPCC passiert ist, geht weit darüber hinaus. In den grundlegenden Rekonstruktionen des Klimas in der Vergangenheit wurden Temperaturreihen aus Daten und Prozessen erstellt, die primär infolge von Niederschlägen aufgetreten waren.

Baumringe-Klimatologie [Dendroclimatology]

Viele dieser Temperaturreihen begannen als chronologische Rekonstruktionen. Baumringe begannen als Baumring-Chronologie; eine absolute Datierungsmethode geht davon aus, dass in jedem Jahr ein neuer Baumring entsteht. Das Alter von Borstenkiefern ermöglichte dies wenigstens. A. E. Douglass begründete die Disziplin der Jahresringchronologie im Jahre 1894 und verwendete später Baumringe zur Rekonstruktion solarer Zyklen und von Niederschlägen; Letzteres war das Ziel aller frühen Klima-Rekonstruktionen.

Die verfügbare Feuchtigkeit erklärt zum größten Teil das Wachstum von Pflanzen, wie Landwirte und Gärtner wissen. Köppen hat dies bei seiner Klima-Klassifizierung erkannt, die sich zuallererst auf den Niederschlag bezog (B-Klimata) und erst in zweiter Linie auf die Temperatur (A- und C-Klimata).

Der groß angelegte Missbrauch von Baumringen, um die Mittelalterliche Warmzeit (MWP) zu eliminieren kam ans Tageslicht durch unsaubere statistische Manipulationen. Die Schlussfolgerung im IPCC-Bericht 2001 behauptete, dass die Baumringe (der Effekt) keine Zunahme der Temperatur zeigen (die Ursache). In Wirklichkeit gehen mit der Klimaänderung auch Änderungen aller Variablen des Wetters einher, wodurch es zu dem Autokorrelations-Problem kommt.

Das Ausmaß der Änderung jeder Variablen ist eine Funktion der geographischen Breite, wandern doch wesentliche Wettermechanismen pol- oder äquatorwärts. Zum Beispiel hat sich während der Eiszeiten die polare Klimaregion hauptsächlich in die Klimazonen mittlerer und niedriger Breiten ausgedehnt, vor allem in den Wüstengürtel, etwa zwischen 15° und 30° Breite. Die Wüsten in niedrigen Breiten wurden zu feuchten Gebieten, was man traditionell pluvial nennt. Zu Anfang hatte man gedacht, dass es in mit der Hadley-Zirkulation zusammenhängenden tropischen Gebieten keine Beweise einer Eiszeit geben würde.

Feuchtigkeit ist ein grundlegender Faktor selbst unter harten Temperaturbedingungen an der Baumgrenze. Forschungen bei Churchill in [der kanadischen Provinz] Manitoba zeigten die wesentlichen Prädiktoren des Wachstums im Herbst des voran gegangenen Jahres und die winterliche Schneedecke.

Die Fichte in der Abbildung oben rechts befindet sich an der Baumgrenze bei Churchill. Sie ist etwa 100 Jahre alt. Die unteren Äste sind größer und befinden sich auf allen Seiten, weil sie von den beißenden Winterwinden durch Schnee geschützt sind. Über der Schneedecke hat der starke und persistente aride Nordwestwind verhindert, dass die Zweige wachsen. Lokal wird gewitzelt, dass man drei Bäume gefällt und sie dann zu einem vollständigen Weihnachtsbaum zusammen gebunden hat.

Das Wachstum von Bäumen, vor allem im jährlichen Maßstab, hängt primär von Feuchtigkeit ab, nicht von der Temperatur. Die von der Pflanze benötigte Feuchtigkeitsmenge und die verfügbare Menge an Feuchtigkeit variieren beide mit der Windgeschwindigkeit. An der Baumgrenze ist die Fähigkeit, Schnee an sich zu binden, für das Überleben kritisch. Schmale Ansammlungen oder Einzelbäume können jenseits der Baumgrenze nur überleben, solange sie Schnee festhalten können. Genauso wird eine offene Fläche diesseits der Baumgrenze baumfrei bleiben, solange der Schnee vom Wind fortwährend verblasen wird.

Speläologie (Höhlenforschung; Stalaktiten/Stalagmiten)

Stalaktiten (an der Decke) und Stalagmiten (am Boden) sind ein weiteres Beispiel für von Niederschlägen beeinflusste Features, von denen behauptet wird, dass sie die Temperatur repräsentieren. Sie entstehen durch Regenwasser, das durch Absorption von CO2 beim Fallen durch die Luft leicht sauer ist. Beim Sickern durch Kalkstein wird dieser ein wenig gelöst, und wenn der Tropfen an der Decke hängt, verdunstet ein winziger Bruchteil davon und lässt den gelösten Kalk zurück. Das Gleiche passiert, wenn der Tropfen auf den Boden fällt. Das Wachstum von beiden ist eine direkte Folge von Änderungen des Niederschlags an der Oberfläche.

Glaziale Schichtenfolge und Eisbohrkerne

Jahreszeitliche oder jährliche Schichtfolgen bilden ein Kollektiv, das unter der Bezeichnung rhythmites bekannt ist. Im Anfangsstadium von Klimarekonstruktionen war die Verwendung von Rhytmites eine spezifische Form, Varves genannt, und bezogen auf jährliche Sedimentschichten in voreiszeitlichen Seen. Im Jahre 1910 hat der schwedische Wissenschaftler Gerard de Geer eine wichtige Chronologie für glaziale Sequenzen im Holozän erarbeitet. Die Dicke der Sedimentschicht ist eine Folge der Temperatur, aber auch eine Folge der Regenmenge während des Sommers, die die Schmelzraten von Schnee und Eis beeinflusste.

Jahreszeitliche Schichten in einem Gletscher spiegeln oftmals Temperaturänderungen, werden aber auch durch Niederschläge modifiziert. Die Bewegung der Gletscher wird als Indikator für Temperaturänderungen angesehen, ist aber auch ein Indikator für Änderungen der Niederschlagsmenge. Die Dicke der Schicht variiert mit der Schneefallmenge (ja, auch im Winter gibt es Dürren [wie z. B. in Bayern im Dezember 2013! A. d. Übers.]). Mit einer Dicke von etwa 50 m wird Eis unter Druck plastisch und beginnt zu fließen. Eis fließt immer in Richtung der Gletscherzunge innerhalb des Gletschers. Die Distanz zwischen Vordringen und Zurückweichen der Gletscherzunge hat genauso viel mit der Akkumulation von Schnee über der Grenze ewigen Schnees zu tun wie mit Temperaturänderungen.

Schmelzwasser eines Gletschers ist genauso eine Funktion der Temperatur wie des Niederschlags. Wenn es auf den Gletscher regnet, nimmt die Schmelzrate von Schnee und Eis dramatisch zu. Dies ist wahrscheinlich eine Haupterklärung für die rapide Schmelze und die rasante Ausbreitung eiszeitlicher Seen, während des Optimums des Holozäns. Die Dynamik eines kontinentalen Gletschers ist eine allmähliche Akkumulation von Schneeschichten, der ein relativ rasches Abschmelzen folgt, wenn der Schnee in Regen übergeht.

Die Menge des CO2 in den Eiskristallen variiert mit der Temperatur des Wassertröpfchens genauso wie die CO2-Kapazität des Meerwassers variiert. Dies bedeutet, dass Schmelzwasser von Gletschern eine höhere CO2-Konzentration aufweist, und wenn es durch die Eisschichten sickert, werden die Eisbläschen modifiziert. Jaworowski hat dies in seiner Präsentation vor dem US-Senatskomitee im März 2004 erläutert.

Dies ist so, weil die Eisbohrkerne nicht das essentielle Kriterium eines abgeschlossenen Systems erfüllen. Eines davon ist das Fehlen flüssigen Wassers im Eis, was die chemische Zusammensetzung der zwischen den Eiskristallen eingeschlossenen Luftbläschen dramatisch verändern kann. Dieses Kriterium ist nicht erfüllt, da selbst die kältesten Stellen im antarktischen Eis (bis zu -73°C) flüssiges Wasser enthalten. Mehr als 20 physikalisch-chemische Prozesse, meistens bezogen auf das Vorhandensein flüssigen Wassers, tragen zur Veränderung der ursprünglichen chemischen Zusammensetzung der Lufteinschlüsse im polaren Eis bei.

Das IPCC hat sich auf den Kohlenstoffkreislauf konzentriert, aber der Wasserkreislauf ist viel wichtiger, vor allem, weil er mit der Dynamik der Veränderung in Beziehung steht. Man lege einen dehydrierten Stein in eine Kammer und verändere die Temperatur so viel wie möglich – und es wird kaum etwas geschehen. Jetzt füge man ein paar Tropfen Wasser hinzu, und der Zusammenbruch (Verwitterung) des Steines ist dramatisch. Jedes Klimaexperiment oder jede Klimaforschung, die Wasser ausschließt, wie etwa eine Liste von Treibhausgasen in trockener Luft, ist bedeutungslos. Wasser existiert überall auf dem Planeten.

Niederschlag fällt auch über den Ozeanen, aber wir haben nahezu keinerlei Messmöglichkeiten. Daher können wir auch keine Aussagen zu den Verdünnungseffekten des Niederschlags auf den Salzgehalt machen und den Bestand von Gasen in der kritischen Oberflächenschicht. Wie stark beeinflusst Niederschlag als eine 10 prozentige Lösung von Kohlensäure die CO2-Messungen dieser Schicht? Schneeschmelze hat einen höheren CO2-Prozentanteil.

Windrichtung und –geschwindigkeit bestimmen grundlegend die Verteilung von Wasser in der Atmosphäre und damit auf der ganzen Welt. Sie verändern die Auswirkungen der Temperatur, wie wir aus dem Windchill-Faktor oder Messungen des Heizgrades wissen. Welche Auswirkungen hat eine geringe Zunahme der Windgeschwindigkeit in regionalem, hemisphärischen oder globalen Maßstab auf Wetter und Klima?

Der atmosphärische Luftdruck variiert mit der Temperatur, die das Gewicht und den Druck der Atmosphäre auf den Boden bestimmt. Wie stark verändert sich durch diese Effekte der Meeresspiegel? Durch Flutwellen im Zuge intensiver Tiefdrucksysteme wissen wir, dass er erheblich sein muss.

Die Liste der offiziell vom IPCC ausgeschlossenen ungemessenen und unbekannten Variablen für seine Wissenschaft macht ihre Modelle und ihre Behauptungen bedeutungslos und ungültig. Sie illustriert auch das Ausmaß der Autokorrelation, mit der die Klimaforschung konfrontiert ist. Es scheint, dass Wigley und damit auch das IPCC diese Probleme kennen. Aber sie haben beschlossen, sie zu umgehen, indem die Aufmerksamkeit sorgfältig in eine bestimmte Richtung gelenkt wird – eine wissenschaftliche Fingerfertigkeit.  

Link: http://wattsupwiththat.com/2013/12/27/many-climate-reconstructions-incorrectly-attributed-to-temperature-change/#more-99965

Übersetzt von Chris Frey EIKE




Wie und warum das IPCC das CO2 mittels falscher Informationen dämonisiert hat

Man vergleiche die industrialisierte Nation mit einer internen Verbrennungsmaschine auf Basis fossiler Treibstoffe. Man kann die Maschine auf zwei Arten anhalten: Die Treibstoffzufuhr unterbinden oder den Auspuff stopfen. Die Treibstoffzufuhr zu unterbrechen ist ein politisches Mienenfeld. Die Menschen merken sofort, wenn alle Preise steigen, vor allem für Nahrungsmittel. Es ist einfacher zu zeigen, dass die Auspuffgase zu irreparablen Umweltschäden führen. Das ist der Grund, dass CO2 zum alleinigen Brennpunkt des IPCC geworden ist. Verfahren und Methoden wurden aufeinander abgestimmt, CO2 zu isolieren und zu zeigen, dass dieses Gas zu einer globalen Runaway-Erwärmung führt.

In den achtziger Jahren habe ich Henry Hengeveld, Mitarbeiter bei Environment Canada davor gewarnt, dass es ein Problem ist, einen Politiker von einem Gedanken zu überzeugen. Das Propagieren von CO2 als ein Problem war Teil von Henrys Karriere. Ich erklärte ihm, dass das größere Problem auftaucht, wenn man ihn überzeugt und dann die Behauptung als falsch überführt wird. Entweder räumt man den Fehler ein, oder man verschweigt die Wahrheit. Environment Canada und die Mitgliedsstaaten des IPCC haben sich dafür entschieden, die Wahrheit zu verschleiern.

1        Die IPCC-Definition des Begriffes Klimaänderung war der erste große Betrug

Die Menschen sind betrogen worden, als das IPCC gegründet wurde. Die meisten glauben, dass es sich um einen regierungsamtlichen Untersuchungsausschuss handelt, der alles zur Klimaänderung untersuchen soll. Die aktuelle Definition vom United Nations Environment Program [Umweltprogramm der UN] (Artikel 1) des UNFCCC begrenzt diesen ausschließlich auf menschliche Ursachen.

„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

In einem anderen Betrug haben sie die in den ersten drei Berichten (1990, 1995, 2001) verwendete Definition im Bericht 2007 geändert. In der Summary for Policymakers ist das eine Fußnote.

„Klimaänderung nach Lesart des IPCC bezieht sich auf jedwede Änderung des Klimas mit der Zeit, erfolge diese nun aufgrund natürlicher Variabilität oder als Folge menschlicher Aktivitäten. Diese Definition unterscheidet sich von der des UNFCCC, in der eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, die die Zusammensetzung der Erdatmosphäre verändern und die zusätzlich zur natürlichen Klimavariabilität über längere Zeiträume beobachtet werden kann“.

Diese Definition fand aber keine Anwendung, weil die Zustandsberichte aufeinander aufbauen. Eine Einbeziehung der natürlichen Variabilität hätte einen völligen Neustart erforderlich gemacht.

Es ist unmöglich, den menschlichen Beitrag zur Klimaänderung zu bestimmen, wenn man die natürlichen (nicht-menschlichen) Klimaänderungen nicht kennt oder nicht versteht. Professor Murray Salby zeigte, wie der menschliche Anteil des CO2 bedeutungslos ist, und dass Variationen bei den natürlichen CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigte, dass eine Änderung um 5% aus diesen Quellen mehr ist als die gesamte menschliche Erzeugung.

2        Das IPCC zieht Rückschlüsse und will eine Hypothese unbedingt beweisen

Um dieses Verfahren wissenschaftlich aussehen zu lassen, wurde eine Hypothese konstruiert, die auf folgenden Annahmen basierte:

● CO2 ist ein Treibhausgas (GHG), das die Rückstrahlung von Wärme von der Erde behindert.

● die Wärme wurde auf die Erde zurück gestrahlt und hat die globale Temperatur steigen lassen.

● Nimmt das CO2 zu, steigt die globale Temperatur.

● Der CO2-Gehalt nimmt zu aufgrund der sich immer mehr erweiternden industriellen Aktivitäten.

● Der globale Temperaturanstieg war unvermeidlich.

Um noch sicherer zu machen, dass auch das gewünschte Ergebnis herauskommt, hat sich das IPCC daran gemacht, diese Hypothese zu untermauern, anstatt zu versuchen, sie zu widerlegen, wie es die wissenschaftliche Methode erfordert. Wie Karl Popper gesagt hat:

„Die Regel gibt vor, dass die anderen Regeln wissenschaftlicher Verfahren so gestaltet sein müssen, dass sie nicht irgendein Statement der Wissenschaft vor der Falsifikation schützen“.

Das beständige und unermessliche Verhalten des IPCC enthüllt falsche Interpretationen bzgl. CO2. Sobald ein Umstand von Wissenschaftler auftauchte, die ihrer Rolle als Skeptiker gerecht geworden waren, hat das IPCC nicht etwa die Gültigkeit und Wirksamkeit dieser Dinge in Betracht gezogen und getestet, sondern es arbeitete daran, diese Dinge zu zerstreuen, selbst mittels einiger falscher Erklärungen. Diese falschen Antworten waren erfolgreich, weil die meisten Menschen gar nicht wussten, dass sie falsch waren.

3 Fakten über CO2 sind den meisten unbekannt, aber problematisch für das IPCC

Einige grundlegende Fakten über CO2 sind den meisten Menschen unbekannt und illustrieren die Diskrepanzen und Unterschiede zwischen den Behauptungen des IPCC und dem, was die Wissenschaft weiß.

● Der Anteil des natürlichen CO2-Niveaus in der Atmosphäre liegt derzeit unter 0,04% und bei 0,4% aller Treibhausgase. Es ist nicht das bedeutendste Treibhausgas.

● Wasserdampf macht durch Volumen 95% aller Treibhausgase aus. Es ist bei Weitem das bedeutendste Treibhausgas.

● Methan (CH4) ist ein anderes natürliches Treibhausgas, das vom IPCC dämonisiert wurde. Es hat nur einen Anteil von 0,000175% an der ganzen Atmosphäre und 0,036% an den Treibhausgasen.

● Abbildung 1 von ABC News zeigt die falsche Information. Diese Darstellung gilt nur für eine trockene Atmosphäre.

Abbildung 1

● Diese Prozentanteile machten dem IPCC Sorgen. Also hat es die Bedeutung des CO2 vergrößert, indem ein „Beitrag“ pro Einheit geschätzt wurde (Abbildung 2). Die Bandbreite der Schätzungen macht die Messungen effektiv bedeutungslos, es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen genauen Prozentanteil am Treibhauseffekt hat“.

Abbildung 2 (Quelle: Wikipedia)

4 Die menschliche Produktion von CO2 ist kritisch für die IPCC-Objektive. Daher kontrolliert es die Informationen.

Die Erklärung lautet:

Welche Rolle spielt das IPCC bei der Bestandsaufnahme von Treibhausgasen und bei den Berichten an das UNFCCC?

A: Das IPCC hat eine Reihe von Verfahrensberichten zur Bestandsaufnahme nationaler Treibhausgas-Emissionen erzeugt mit der Absicht, international akzeptable Methoden für diese Bestandsaufnahme zur Verfügung zu stellen. Das IPCC übernimmt die Verantwortung, wissenschaftliche und technische Ratschläge zu speziellen Fragen zu erteilen, die mit diesen Methoden der Bestandsaufnahme zusammen hängen oder auf Anforderung des UNFCCC in Übereinstimmung mit etablierten IPCC-Verfahren. Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) [etwa: Programm zur Bestandsaufnahme von Treibhausgasen] zu betreiben, um diese Ratschläge zum Verfahren zu geben. Die Parteien im UNFCCC stimmen überein, die IPCC-Richtlinien bei den Berichten an die Convention zu verwenden.

Wie erstellt das IPCC seine Richtlinien für die Bestandsaufnahme? Unter Verwendung von Methoden des IPCC entwerfen benannte Experten aus der ganzen Welt die Berichte, die dann zweimal extensiv begutachtet werden, bevor sie das IPCC absegnet. Dieses Verfahren stellt sicher, dass die größtmögliche Vielfalt von Meinungen in die Dokumente einfließen.

Es kontrolliert den gesamten Prozess, die Verfahrensweise, die Benennung technischer Ratschläge, die Etablierung von Arbeitsgruppen, Richtlinien für die Berichterstattung, Benennung der Experten, die die Berichte erzeugen bis zur schließlichen Absegnung der Endfassung. Die Zahlen, die sie erzeugen, sind eine Hochrechnung, aber man schätzt, dass Menschen von dieser Zahl 50% entfernen.

Wie auch immer, wenn man die natürlichen Quellen und die Variabilität von CO2 nicht kennt, kann man den menschlichen Anteil nicht ermessen. Man hat behauptet, dass der Anteil in der Atmosphäre durch Verbrennung fossiler Treibstoffe bekannt sei aus dem Verhältnis der Kohlenstoff-Isotope C13/C12. Roy Spencer hat gezeigt, dass dies nicht der Fall war. Außerdem wird die natürliche Verbrennung fossiler Treibstoffe ignoriert, als da wären Waldbrände oder langlebige Kohle- und Torfbrände. Hans Erren zufolge ist fossile Kohle in der Erde begrabenes Holz. Spencer kam zu dem Ergebnis:

Wenn das Verhältnis C13/C12 durch der NATÜRLICHEN Variabilität von Jahr zu Jahr geschuldet ist, wie können dann welche behaupten, dass das Trendsignal VOM MENSCHEN VERURSACHT ist?

Antwort: Um die Hypothese zu beweisen und den Betrug fortzuführen.

5 Druck für dringende politische Maßnahmen

In früheren IPCC-Berichten wurde behauptet, dass die Zeit des Verbleibens von CO2 in der Atmosphäre sehr lang sei. Dies implizierte, dass es weiterhin ein Problem sein würde, selbst bei sofortiger Einstellung aller CO2-Emissionen. Allerdings hat Segalstad geschrieben:

Essenhigh (2009) weist darauf hin, dass das IPCC in seinem ersten Bericht (Houghton et al. 1990) eine CO2-Verweildauer von 50 bis 200 Jahren angegeben hatte (als eine „grobe Schätzung“). Diese Schätzung wird verwirrend als eine Anpassungszeit für ein Szenario mit einem gegebenen menschlichen CO2-Input genannt und ignoriert natürliche CO2-Flussraten (durch Ozean und Vegetation). Solche Schätzungen sind analytisch unsinnig und stehen in Konflikt mit einer korrekteren Erklärung an einer anderen Stelle im gleichen IPCC-Bericht: „Dies bedeutet, dass es im Mittel nur wenige Jahre dauert, bis ein CO2-Molekül in der Atmosphäre durch Pflanzen aufgenommen oder im Ozean gelöst wird“.

6 Verfahren, um Probleme mittels IPCC-Wissenschaft zu verschleiern und den Alarmismus zu erhöhen

IPCC-Verfahren wurden zum Zwecke des Betrugs entwickelt. Das IPCC hat drei Arbeitsgruppen (WG). WG 1 erstellt den Physical Science Basis Report, in welchem bewiesen wird, dass CO2 die Ursache ist. WG 2 erstellt den Impacts, Adaptation and Vulnerability Report [Auswirkungen, Anpassung und Verwundbarkeit]. Er basiert auf dem Bericht von WG 1. WG 3 erstellt den Bericht zur Abschwächung des Klimawandels. Die Arbeitsgruppen 1 und 2 akzeptieren die Behauptung der WG 1, dass die Erwärmung unvermeidlich ist. Sie stellen fest:

Es werden fünf Kriterien für Klimaszenarien gelistet, falls sie für Folgenforscher und Politiker für Entscheidungen nützlich sind: Kriterium 1: Konsistenz mit den globalen Projektionen. Sie sollten konsistent sein mit einer großen Bandbreite von Projektionen der globalen Erwärmung aufgrund zunehmender Konzentrationen von Treibhausgasen. Diese Bandbreite wird in verschiedenen Quellen angegeben mit 1,4°C bis 5,8°C bis zum Jahr 2100 oder 1,5°C bis 4,5°C bei einer Verdoppelung der atmosphärischen CO2-Konzentration (anderswo bekannt als die „Gleichgewichts-Klimasensitivität“).

Sie wussten, dass nur Wenige den wissenschaftlichen Bericht mit seinen eingeräumten ernsten Grenzen lesen oder verstehen würden. Sie haben dessen Veröffentlichung absichtlich verzögert bis nach dem Erscheinen der Summary for Policymakers. David Wojick erklärt:

Unübersehbare Auslassungen sind nur für Experten unübersehbar. Daher werden die „Politiker“ – einschließlich der Medien und der Öffentlichkeit –, die den SPM lesen, nicht erkennen, dass man ihnen nur die eine Seite der Medaille nahebringt. Aber die Wissenschaftler, die den Bericht entworfen haben, kennen die Wahrheit, wie die mitunter sehr kunstvollen Versuche ihrerseits belegen, diese Wahrheit zu verschleiern.

Was systematisch in dem SPM  ausgelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die die Theorie der anthropogenen Einmischung widerlegen könnten. Anstatt diesen Einwänden nachzugehen, stehen in der Summary nur jene Ergebnisse, die die Theorie stützen. Kurz gesagt, dass ist Ideologie, keine Wissenschaft.

Ein Beispiel für diesen Betrug in der SPM liefert der Bericht aus dem Jahr 1995. Im Bericht 1990 und dem Entwurf 1995 hieß es, dass es keine Beweise für einen menschlichen Einfluss gibt. Benjamin Santer hat als Leitautor von Kapitel 8 den Entwurf 1995 seiner Mitautoren ohne deren Wissen verändert. Sie hatten gesagt:

„Während einige der hier diskutierten Dinge die Entdeckung einer signifikanten Klimaänderung behauptet haben, konnte bislang noch keine Studie positiv nachweisen, dass die gesamte Klimaänderung oder ein Teil davon anthropogenen Ursachen zugeordnet werden kann“.

Ben Santer machte daraus:

„Die Masse der statistischen Beweise in Kapitel 8 deuten jetzt auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin, wenn man diese Beweise im Zusammenhang unseres physikalischen Verständnisses des Klimasystems untersucht“.

Die Phrase „erkennbarer menschlicher Einfluss” machte es wie geplant in die Schlagzeilen.

Mit dem AR 5 verschlimmerten sie den Betrug durch die Veröffentlichung einer SPM, der sie eine Korrektur folgen ließen. Sie bekamen die gewollte Schlagzeile. Es ist das gleiche Spiel wie der Unterschied zwischen der Bloßstellung der Probleme im Wissenschaftsreport der WG 1 und der SPM. Die Medien haben nicht über die Korrekturen berichtet, aber das IPCC konnte jetzt behaupten, dass es die Unzulänglichkeiten ihres Berichtes aufgelistet hat. Es ist nicht ihre Schuld, dass die Leute das nicht verstehen.

7 Klimasensitivität

Ursprünglich hatte man angenommen, dass ein konstant steigender atmosphärischer CO2-Gehalt zu einer konstant steigenden Temperatur führen würde. Dann wurde berechnet, dass die ersten paar ppm die Treibhausgas-Kapazität von CO2 bereits erreicht haben. Eschenbach hat die Wirklichkeit dargestellt:

Abbildung 3

Es ist wie schwarze Farbe auf einem Fenster. Um durch ein Fenster fallendes Sonnenlicht abzuschirmen, wird die erste Schicht schwarzer Farbe dazu den Löwenanteil beitragen. Folgeschichten reduzieren das Sonnenlicht nur noch wenig.

Es gab sofort Uneinigkeit über die Höhe der Klimasensitivität durch eine Verdoppelung oder Verdreifachung des atmosphärischen CO2-Gehaltes. Milloy hat eine Graphik konstruiert, der die drei unterschiedlichen Sensitivitäts-Schätzungen miteinander vergleicht (Abbildung 4):

Abbildung 4.

Das IPCC erzeugte eine positive Rückkopplung, um die Temperaturen weiter steigen zu lassen. Es behauptet, dass CO2 zu einer Temperaturzunahme führt, was zu vermehrter Verdunstung führt, und Wasserdampf verstärkt den Temperaturtrend. Lindzen und Choi haben dies in ihrer Studie aus dem Jahr 2011 widerlegt und kamen zu dem Ergebnis, dass „die Ergebnisse zeigen, dass die Modelle die Klimasensitivität übertreiben“.

Die Klimasensitivität hat seitdem immer weiter abgenommen und nähert sich allmählich Null. In einer kürzlichen Studie von Spencer wird behauptet, dass „…das Klimasystem nur halb so sensitiv auf CO2 reagiert wie ursprünglich angenommen“.

8 Die Eisbohrkerne waren grundlegend, aber voller ernster Fehler

Die wesentliche Annahme der abgeleiteten IPCC-Hypothese sagt, dass eine CO2-Zunahme eine Temperaturzunahme bedingt. Nach der Veröffentlichung von Petit et al. (1999) erschienen die Eisbohrkerne aus der Antarktis als Beweis im Bericht 2001 (Abbildung 5):

Abbildung 5. Antarktischer Eisbohrkern

Vier Jahre später ergaben Forschungen das Gegenteil – eine Temperaturzunahme war einer CO2-Zunahme stets vorausgegangen, was ein klarer Widerspruch zur Hypothese war. Dies wurde beiseite geschoben mit der ablenkenden Behauptung, dass der Zeitverzug 80 bis 800 Jahre betrug und damit nicht signifikant sei. Das war so verstörend, dass Al Gore in seinem Film ein betrügerisches Bild erzeugte. Nur wenige Experten haben das bemerkt.

Tatsächlich ändert sich die Temperatur vor einer Änderung des CO2-Gehaltes in jeder Aufzeichnung für jede Periode oder jeden Zeitraum. Abbildung 6 zeigt einen kürzeren Zeitraum (1958 bis 2009) dieses Verhältnisses. Falls eine CO2-Änderung in jeder Aufzeichnung einer Temperaturänderung nachfolgt, warum sind dann alle Computermodelle mit der gegenteiligen Beziehung programmiert worden?

Abbildung 6: Verzögerung für einen kurzen Zeitraum, 1958 bis 2009.

Das IPCC brauchte niedrige vorindustrielle CO2-Niveaus

Ein präindustrielles CO2-Niveau, niedriger als heute, war unabdingbar für die IPCC-Hypothese. Es war genauso nötig wie die Eliminierung der Mittelalterlichen Warmzeit, weil diese gezeigt hat, dass es heute eben nicht wärmer als jemals zuvor war.

Eisbohrkerne sind nicht die einzigen Quellen, die Aufschluss über den präindustriellen CO2-Gehalt geben. Es gibt Tausende direkte Messungen des atmosphärischen CO2-Gehaltes schon im 19. Jahrhundert, genauer seit dem Jahr 1812. Wissenschaftler haben genaue Messungen mit kalibrierten Instrumenten durchgeführt, wie Ernst Beck sorgfältig dokumentiert hat.

In einer an das US Senate Committee on Commerce, Science, and Transportation Hearing übermittelten Studie hat Professor Zbigniew Jaworowski festgestellt:

“Die Basis der meisten IPCC-Ergebnisse bzgl. anthropogener Gründe und Projektionen der Klimaänderung ist die Annahme eines niedrigen CO2-Gehaltes in der präindustriellen Atmosphäre. Diese Annahme ist glaziologischen Studien zufolge falsch“. [1]

Gleichermaßen bedeutsam ist Jaworowskis weitere Feststellung:

Die Auffassung eines niedrigen vorindustriellen CO2-Niveaus, die auf so wenig Wissen beruht, wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise direkter Messungen von CO2 in der Luft, die zeigen, dass die mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (11), Abbildung 2. In Abbildung 2 zeigen die eingekreisten Werte eine verzerrte Auswahl von Daten, die verwendet worden sind um zu zeigen, dass das atmosphärische CO2-Niveau im 19. Jahrhundert 292 ppmv betragen hatte (12). Eine Studie von Stomata in fossilen Blättern aus dem Holozän in Ablagerungen in einem See in Dänemark zeigen, dass der CO2-Gehalt der Atmosphäre vor 9400 Jahren 330 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept eines stabilen und niedrigen CO2-Gehaltes der Luft bis zum Einsetzen der industriellen Revolution (13).

Es gibt noch andere Probleme bei den Aufzeichnungen in Eisbohrkernen. Es braucht Jahre, um Luft im Eis einzuschließen. Was also wurde tatsächlich eingefangen und gemessen? Schmelzwasser, das sich durch das Eis gearbeitet hat, vor allem im oberflächennahen Eis kann die Luftblasen kontaminieren. Bakterien innerhalb des Eises setzen sogar Gase in 500.000 Jahre altem Eis in größeren Tiefen frei. (Dissertation von Brent C. Christner 2002 mit dem Titel [übersetzt]: „Auffinden, Bergung, Isolation und Charakterisierung von Bakterien in Gletschereis und Eis aus dem Wostok-See“). Der Druck des darüber liegenden Eises verursacht eine Änderung in Tiefen unter 50 m, und brüchiges Eis wird plastisch und beginnt zu fließen. Die Schichten, die sich jedes Jahr mit dem Schneefall gebildet haben, verschwinden mit zunehmendem Druck. Man benötigt eine beträchtliche Dicke des Eises über einen langen Zeitraum, um eine einzelne Ablesung in der Tiefe durchführen zu können.

Jaworowski identifizierte die Probleme durch Kontamination und Verlusten während des Bohrungs- und Bergungsprozesses des Eiskerns.

Jaworowskis Behauptung, dass die Modellierer die Messungen des 19. Jahrhunderts ignoriert haben, ist nicht richtig. Sie wussten es, weil T. R. Wigley die Informationen über die Messungen im 19. Jahrhundert schon 1983 zur Verfügung stellte. (Wigley, T.M.L., 1983 “The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Allerdings hat er Werte willkürlich au seiner großen Bandbreite herausgepickt, durchweg hohe Messwerte eliminiert und das vorindustrielle CO2-Niveau von etwa 270 ppm ‘erzeugt’. Ich nehme an, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen zusammen gearbeitet hat als Direktor der Climatic Research Unit CRU in East Anglia. Er war der Vorgänger von Phil Jones und war die Schlüsselfigur, der die durch die Klimagate-E-Mails enthüllten Machenschaften dirigiert hatte.

Wigley war nicht der erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat sie erneut in die Klimagemeinschaft eingeführt. Guy Stewart Callendar, ein britischer Dampftechnik-Ingenieur, brachte die These voran, dass zunehmendes CO2 zu Erwärmung führt. Er tat das, was Wigley getan hat, nämlich nur die Daten auszuwählen, die die Hypothese stützen.

Es gibt 90.000 Messwerte aus dem 19. Jahrhundert, und die Graphik zeigt die sorgfältig von G. S. Callendar ausgewählten Werte, um seine Schätzung zu stützen. Es ist eindeutig, dass er ausschließlich niedrige Werte ausgewählt hat.

Abbildung 7 (nach Jaworowski, Trendlinien hinzugefügt)

Man kann die Änderungen der Neigung und des Trends erkennen, wenn man die ausgewählten Daten mit der Gesamtzahl der Daten vergleicht.

Ernst-Georg Beck bestätigte Jaworowskis Forschungen. In einem Artikel in Energy and Environment wurden die Messwerte sehr detailliert untersucht und die Ergebnisse validiert. Beck kommt zu dem Ergebnis:

Die moderne Treibhaushypothese basiert auf den Arbeiten von G. S. Callendar und C. D. Keeling. Sie folgen damit S. Arrhenius, der vom IPCC popularisiert worden ist. Die Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Anzahl technischer Studien aussortiert und ältere Bestimmungen des atmosphärischen CO2-Gehaltes verworfen haben, weil diese nicht zu ihrer Hypothese passten. Offensichtlich haben sie nur ein paar sorgfältig ausgesuchte Werte aus der älteren Literatur verwendet und ausnahmslos Ergebnisse gewählt, die mit der Hypothese eines CO2-Anstiegs infolge Verbrennung fossiler Treibstoffe konsistent sind.

Das vorindustrielle Niveau liegt um etwa 50 ppm höher als behauptet.

Beck weiter:

„Seit 1812 hat die CO2-Konzentration der Luft in der Nordhemisphäre fluktuiert mit drei Maxima um die Jahre 1825, 1857 und 1942, wobei im letzteren Jahr 400 ppm vorhanden waren“.

Die Herausforderung für das IPCC bestand darin, einen gleitenden Übergang zu erzeugen vom CO2-Niveau in den Eisbohrkernen zu dem auf dem Mauna Loa gemessenen Niveau. Beck zeigte, wie man das gemacht hat, und auch, wie die Messungen des des 19. Jahrhunderts willkürlich ausgewählt werden mussten, um zu den Eisbohrkern- und den Mauna Loa-Daten zu passen (Abbildung 8).

Abbildung 8

Die Variabilität ist extrem wichtig, weil der Eisbohrkern einen außerordentlich glatten Verlauf zeigt, der mittels einer Mittelung über 70 Jahre erreicht worden ist. Selektion und Glättung wurde auch auf die Mauna Loa-Daten angewendet sowie auf alle atmosphärischen Messungen in jüngster Zeit, die auf natürliche Weise im Verlauf eines Tages bis zu 600 ppm variieren. Die Glättung im Maßstab wie bei dem Eisbohrkern eliminiert eine große Menge an Information. Man betrachte die Variabilität der Temperatur der letzten 70 Jahre. Der Statistiker William Brigg sagt, dass man niemals, niemals eine Zeitreihe glätten darf. Die Eliminierung hoher Werte vor der Glättung bringt noch größere Verluste. Beck erklärt, wie Charles Keeling die Mauna Loa-Daten bearbeitet hat, indem er die niedrigsten Messwerte des Nachmittags verwendete und natürliche Quellen ignoriert hat. Beck vermutet, dass Keeling beschlossen hat, diese natürlichen Quellen zu vermeiden, indem er den Messpunkt 4000 m hoch auf dem Vulkan errichtet hat. Beck:

Der Mauna Loa repräsentiert nicht den typischen atmosphärischen CO2-Gehalt in verschiedenen globalen Gebieten, sondern die Werte sind nur typisch für diesen Vulkan in einem Meeresgebiet in einer Höhe von 4000 m in dieser geographischen Breite“. (Beck 2008, „50 Years of Continuous Measurement of CO2on Mauna Loa” Energy and Environment, Vol. 19, No.7.)

Keelings Sohn betreibt jetzt die Messungen am Mauna Loa und, wie Beck anmerkt, „er besitzt das globale Monopol bei der Kalibrierung aller CO2-Messungen“. Er ist Mitautor der IPCC-Berichte, und das IPCC betrachtet alle Messungen am Mauna Loa als repräsentativ im globalen Maßstab.

Als Klimatologe weiß ich um die Notwendigkeit, so viele unabhängige Verifikationen der Daten wie möglich zu erhalten. Stomata sind kleine Öffnungen an Blättern, deren Größe direkt mit der Menge des atmosphärischen CO2 variiert. Sie unterstreichen die Auswirkungen von Glättung und der künstlich niedrigen Ablesungen in den Eisbohrkernen. Ein Vergleich der Stomata mit einem Eisbohrkern über einen Zeitraum von 2000 Jahren (9000 bis 7000 v. Chr.) illustriert dies (Abbildung 9):

Abbildung 9.

Daten aus Stomata zeigen höhere Werte und Variabilität als der exzessiv geglättete Eisbohrkern. Sie passen quantitativ zu den Messungen des 19. Jahrhunderts, wie Jaworowski und Beck zeigen. Das mittlere Niveau des Eisbohrkerns zeigt etwa 265 ppm, während die Stomata etwa 300 ppm nahe legen.

Das vorindustrielle CO2-Niveau war marginal geringer als jetzt und liegt wahrscheinlich innerhalb der Fehlergrenze. Weder diese Werte noch der gegenwärtige Wert von 400 ppm ist hoch im Vergleich mit der geologischen Vergangenheit. Der gesamte Output der Computer-Klimamodelle beginnt mit der Vermutung, dass das vorindustrielle Niveau messbar geringer ist. Die Eliminierung dieser Hypothese unterminiert die Behauptung noch weiter, dass die Erwärmung während der Periode der Industrialisierung Folge einer Freisetzung anthropogenen CO2 in die Atmosphäre war. Man kombiniere dies mit der IPCC-Behauptung, dass CO2 eine Temperaturzunahme bewirkt, wenn alle Aufzeichnungen das Gegenteil zeigen, dann ist es keine Überraschung, dass die IPCC-Vorhersagen steigender Temperaturen konsistent falsch sind.

Der IPCC-Betrug ist vorsätzlich geplant worden, und zwar unter Maurice Strongs Anleitung, um zu beweisen, dass CO2 eine globale Erwärmung hervorruft, was als Begründung für die Schließung industrieller Nationen herhalten muss. Sie haben ihr Ziel teilweise erreicht, wie alternative Energien und grüne Arbeitsplätze belegen. All dies passiert vor dem Hintergrund immer weiter zunehmender Beweise gegen die Hypothese, weil sich die Natur mitzuspielen weigert. CO2 steigt, während die Temperatur fällt, was dem IPCC zufolge nicht sein kann. Politiker müssen nach den Fakten handeln und alle politischen Maßnahmen zurückweisen, die auf der Behauptung basieren, dass CO2 ein Problem ist; vor allem die Maßnahmen, die schon jetzt große Schäden verursachen.

Quelle: The Global Warming Policy Foundation: CCNet 14/10/13

1. [1] “Climate Change: Incorrect information on pre-industrial CO2” Statement written for the Hearing before the US Senate Committee on Commerce, Science, and Transportation by Professor Zbigniew Jaworowski March 19, 2004

Link: http://wattsupwiththat.com/2013/11/13/why-and-how-the-ipcc-demonized-co2-with-manufactured-information/#more-97390

Übersetzt von Chris Frey EIKE