1

Der Mann, der den Weg bereitete für den gesamten Betrug der vom Menschen verursachten globalen Erwärmung: Stephen Schneider.

Der Schub hinter diesem Betrug ist erstaunlich und im Moment nicht aufzuhalten. Er wird getrieben durch eine Sicherheit, die gestützt wird durch zusammengestümperte Beweise aus vorprogrammierten, vorbestimmten Ergebnissen von Computermodellen. Es gibt keine empirischen Beweise – also wie und warum ist dieser Glaube so beständig? Woraus speist sich der Gedanken dahinter, und woher kommt die Macht dieses Glaubens? Ich denke, dass es eine Person gibt, die man dafür verantwortlich machen kann, weil sie den Tenor vorgibt und das Mantra erschuf, dass Fakten unerheblich sind; er ermöglichte, dass die Illusion von AGW erhalten blieb, zu welchen Kosten auch immer. Das war so effektiv, dass man nicht einmal Fragen stellen kann, ohne gleich gesellschaftlich ins Abseits geschoben zu werden. Man wird einer jener „Leugner“.

Ich war sehr verärgert, als ich die Eloge auf Stephen Schneider im AR5 des IPCC lesen musste. Darin heißt es (Auszüge):

Der Synthese-Report des AR 5 ist dem Andenken an Stephen H. Schneider gewidmet, einem der führendsten Klimawissenschaftler unserer Zeit.

Steve Schneider, in New York geboren, durchlief eine Ausbildung als Plasma-Physiker, erhielt ein Stipendium im Bereich Klimawissenschaft vor fast 40 Jahren und bemühte sich unermüdlich um Wissenserweiterung in diesem Bereich und um Informationen für Politiker und der Öffentlichkeit zum großen und zunehmenden Problem Klimawandel und Lösungen, diesem zu begegnen. Zu jeder Zeit blieb Steve Schneider mutig und direkt beim Vertreten seiner Standpunkte. Seine Überzeugungen waren getrieben von der Stärke seiner außerordentlichen wissenschaftlichen Erfahrung … Seine Zusammenarbeit mit dem IPCC begann mit dem AR 1 1990, welcher eine bedeutende Rolle spielte bei der Gründung des UNFCCC. Sein Leben und seine Leistungen haben die Autoren dieses Reports inspiriert und motiviert.

Der letzte Satz sagt alles, aber nur, wenn man um die vollständige Verwicklung von Schneider in den größten Betrug aller Zeiten weiß.

Das Dilemma all dieser frühen Verfechter von AGW war Folgendes: falls sie um die Klimatologie wussten, wussten sie auch, dass die Arbeit des IPCC korrumpierte Wissenschaft war. Falls sie sich nicht dazu äußerten, wurden sie zu Komplizen dieses Betrugs. Falls sie es nicht besser wussten – und bemerkenswert Viele wussten es nicht – waren sie inkompetent. Oftmals wurde mancher nur auf die betrügerische Wissenschaft durch unpassende Umstände aufmerksam wie etwa den Kontakt mit einem bekannten Skeptiker.

Schneider wusste das alles, hatte er doch im Jahre 1976 ein Buch über globale Abkühlung veröffentlicht mit dem Titel „The Genesis Strategy“. Damals war die Abkühlung Konsens. Er schrieb:

Es gibt kaum noch gespeicherte Nahrungsmittel, um den Schock der Wetterprobleme abzumildern, welcher so plötzlich und unerwartet die Ernteerträge der Jahre 1972, 1974 und 1975 dezimierte, und es gibt immer mehr Beweise, dass derartig schädliches Wetter im nächsten Jahrzehnt häufiger vorkommen könnten als im vorigen Jahrzehnt. Die unmittelbarste und weit reichende Gefahr ist die Möglichkeit einer Nahrungsmittel-Klimakrise, welches die wohlhabenden Länder mit beispiellosen Preissteigerungen für Nahrungsmittel belasten würde, während in der nicht industrialisierten Welt (sic) Hunger und politische Instabilität um sich greifen würde.

Der Autor des Artikels in der NYT fasste Schneiders Arbeit mit den Worten zusammen: „… spiegelt den Konsens der klimatologischen Gemeinschaft in seinem neuen Buch „The Genesis Strategy“.

Zu jener Zeit gehörte auch ich der Klima-Gemeinschaft an, wusste aber aus historischen Aufzeichnungen und mit dem Verständnis der zugrunde liegenden Prozesse, dass es sich lediglich um einen weiteren Klimazyklus handelte. Zu viele Menschen beuteten den Schub aus, der sich aus der Finanzierung, aus Karriereschüben oder politischer Überzeugung ergab. Niemand betrachtete die Wissenschaft, oder noch schlimmer, sie suchten sich nur die Wissenschaft heraus, die ihre Haltung zu bestätigen schien. Sie sprangen auf einen Zug auf, den ich den Trend-Zug nenne, und argumentierten, dass dieser Zug immer weiterfahren würde. Es war falsch, zynisch, missbräuchlich und hatte nichts zu tun mit den wertfreien und apolitischen Positionen und Arbeiten zu tun, welche in der Wissenschaft unabdingbar sind.

Stephen Schneider gab den Tenor für das vor, was dann folgte. Seine verlogene, manipulative Philosophie fand Eingang in die Arena der Öffentlichkeit in seinem Interview im Magazin Discover im Jahre 1989. Darin sagte er unter Anderem:

Einerseits sind wir ethisch der Wissenschaftlichen Methode verpflichtet, also dem Versprechen, die Wahrheit zu sagen, die ganze Wahrheit und nichts als die Wahrheit. Das bedeutet, dass wir alle Zweifel, Schwächen und Möglichkeiten ansprechen müssen. Andererseits sind wir nicht einfach nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen wollen wir die Welt verbessern, was in diesem Zusammenhang heißt, daran zu arbeiten, das Risiko eines potentiell gefährlichen Klimawandels zu reduzieren. Um das zu tun, brauchen wir breit gefächerte Unterstützung, um die Vorstellung der Menschen anzusprechen. Das bedeutet natürlich umfangreichste Berichterstattung in den Medien. Also müssen wir ängstigende Szenarien entwerfen, vereinfachende dramatische Aussagen machen und wenig Aufhebens um irgendwelche Zweifel machen, die wir vielleicht noch haben. Diese doppelte ethische Bindung, in der wir uns häufig wiederfinden, kann nicht mittels irgendeiner Formel gelöst werden. Jeder von uns muss für sich entscheiden, was die richtige Ausgewogenheit ist zwischen effektiv und ehrlich zu sein. Ich hoffe, dass dies beides bedeutet.

Tut mir leid, Stephen, es gibt keine Entscheidung zwischen Effektivität und Ehrlichkeit. Tatsache war, dass er die korrupte Denkweise unterstrich und bloßstellte, welche den massiven Betrug erzeugte und vorantrieb. Das Problem ist, dass Menschen wie Schneider teuflische Genies sind. Es ist eine Sache, derartige Gedanken zu haben, aber eine ganz andere Sache, diese auch zu implementieren. Es ist das Gleiche wie die Implementation des Gedankens „die industrialisierten Nationen loswerden“ von Maurice Strong.

Im Jahre 1996 war Schneider Vizevorsitzender einer Konferenz, auf der sein Gedanke des Effektivseins ohne ehrlich zu sein angewendet wurde. Es war zwar eine Konferenz außerhalb des IPCC, doch waren alle in die IPCC-Korruption verwickelte Schlüsselpersonen involviert, die auch bei den durchgesickerten E-Mails der CRU maßgeblich benannt worden sind. Tatsächlich war die Konferenz ein Manifest, wie man vorangehen und wie man Wissenschaft und die Wahrheit auf jede Art und Weise an die Wand fahren könnte. Die Konferenz war betitelt mit „Characterizing and Communicating Scientific Uncertainty“. Ich empfehle, sich dieses Dokument vorzunehmen und zu beklagen, aber auch um zu erfahren, was Schneider angerichtet hat. Der Einleitungsabschnitt lautete:

All the names are here, Santer, Schlesinger, Tol, Karl, MacCracken, and Trenberth with his first probability table (Figure1). It is an attempt to confuse by pretending to clarify.

Unsicherheiten, oder allgemeiner Debatten über das Niveau der Unsicherheit, welche notwendig sind für eine „solide“ Schlussfolgerung ist ein ewiges Thema in der Wissenschaft. Die Schwierigkeiten, Unsicherheiten zu erklären, wurden zunehmend dringlicher, trachtete doch die Öffentlichkeit nach politischen Vorgaben, wie man mit der globalen Umweltveränderung umgehen sollte. Wie kann Wissenschaft für die Gesellschaft am nützlichsten sein, wenn die Beweise unvollständig oder mehrdeutig sind, die subjektiven Beurteilungen der Experten bzgl. der Wahrscheinlichkeit des Eintretens der Ergebnisse variieren und Politiker nach Anleitung und Rechtfertigung suchen für Maßnahmen, die bedeutende gesellschaftliche Veränderungen nach sich ziehen dürften? Wie können Wissenschaftler ihre Charakterisierung der Unsicherheiten verbessern, so dass Bereiche mit geringer Uneinigkeit nicht gleichgesetzt werden mit rein spekulativen Bedenken, und wie können individuelle subjektive Beurteilungen zur Haltung ganzer Gruppen werden? Und außerdem, wie können Politiker und die Öffentlichkeit diese Ergebnisse verstehen und für angemessene Entscheidungen anwenden? Kurz gesagt, wie können wissenschaftliche Ergebnisse in öffentlichen politischen Debatten fair und offen angesprochen werden?“

Alle üblichen Verdächtigen tauchen hier auf: Santer, Schlesinger, Tol, Karl, McCracken und Trenberth mit ihrer ersten Wahrscheinlichkeitstabelle (Abbildung). Es ist der Versuch der Verwirrung unter dem Deckmantel der Klarstellung:

Abbildung 1

Die Einbeziehung der Eloge über Schneider und die darin enthaltene Rührseligkeit hinsichtlich seines Einflusses auf sie und den gesamten IPCC-Prozess sind der absolute Beweis meiner These. Mehr als jeder andere erzeugte er den größten Betrug der Geschichte und trieb ihn voran. Er intellektualisierte auf das Perverseste das Konzept von Unsicherheit in Sicherheit und gab das Verfahren vor, mit welchem man unzureichende und falsche Beweise in eine Form umwandeln konnte, die stark genug war, um zur Grundlage einer die Welt verändernden Philosophie und Politik zu werden.

Link: https://wattsupwiththat.com/2019/04/11/the-person-who-set-the-stage-for-entire-deception-of-human-caused-global-warming-agw-stephen-schneider/

Übersetzt von Chris Frey EIKE




Kritik an einer neuen Studie von Santer et al. (2019)

Abbildung 1: aus Santer et al. (2019)

Die Ergebnisse ihrer Studie zeigt Abbildung 1. Es ist keine Graphik der Temperatur, sondern eines geschätzten Verhältnisses zwischen „Signal und Rauschen“. Die horizontale Linie repräsentiert Sigma-Einheiten, die man – falls das zugrunde liegende statistische Modell korrekt ist – interpretieren kann als die Punkte, an welchen der Schweif der Verteilung sehr klein wird. Wenn also die Linie ein Sigma-Niveau passiert, ist das „Signal“ anthropogener Erwärmung aus dem „Rauschen“ der natürlichen Variabilität im passenden Umfang hervorgetreten. Sie berichten, dass die 3-Sigma-Grenze einen p-Wert von 1/741 aufweist, während die 5-Sigma-Grenze einen p-Wert von 1/3,5 Millionen hat. Da alle Linien die 5-Sigma-Marke bis 2015 überqueren, folgern sie, dass die anthropogene Auswirkung auf das Klima definitiv gefunden ist.

Ich möchte hier vier Aspekte dieser Studie ansprechen, welche die Schlussfolgerungen erheblich schwächen: (a) die Differenz zwischen der Existenz eines Signals und der Größenordnung der Auswirkung, (b) die verwirrende Natur ihres experimentellen Designs, (c) das invalide Design ihres Nur-Natur-Vergleichsparameters und (d) Probleme bei der Relation von „Sigma“-Grenzen und Wahrscheinlichkeiten.

(a) Existenz eines Signals vs. Größenordnung der Auswirkung

Nehmen wir einmal an, wir stellen einen alten Analog-Radioempfänger auf ein schwaches Signal einer weit entfernten Radiostation ein. Mittels Verschieben des Senderknopfes bekommt man vielleicht ein Signal, das gut genug ist um zu erkennen, dass eine Komposition von Bach gespielt wird. Aber die Stärke des Signals sagt nichts über das Tempo der Musik; das ist eine andere Berechnung.

In gleicher Weise sagt uns obiges Diagramm nichts über die Größenordnung der Auswirkung von Treibhausgasen auf die Temperatur und das Klima. Es zeigt nur zweierlei: Eine Maßzahl der Rate, wie sich die Korrelation zwischen Beobachtungen und Modellergebnissen, getrieben durch natürliche und anthropogene Antriebe mit der Zeit, verbessert, dividiert durch eine Maßzahl der Standardabweichung der gleichen Maßzahl unter einer „Null-Hypothese“ einer (vermeintlich) rein natürlichen Variabilität. In dieser Hinsicht ist es wie eine t-Statistik [?], die ebenfalls in Sigma-Einheiten gemessen wird. Da es keine Verbesserung mit der Zeit geben kann im Fit zwischen den Beobachtungen und dem natural-only comparator*, führt jede Verbesserung des Signals zu einer Erhöhung des Sigma-Niveaus.

[*Eine passende Übersetzung ist schwer. Weiter unten ist der Terminus übersetzt worden mit „nur-natürlich-Komparator“. Bessere Vorschläge seitens der Leserschaft sind willkommen. Anm. d. Übers.]

Selbst falls man Abbildung 1 als Nominalbeitrag akzeptiert, ist sie konsistent mit einer sehr hohen oder sehr geringen Sensitivität bzgl. Treibhausgasen – oder irgendwo dazwischen. Sie ist beispielsweise konsistent mit den Ergebnissen von Christy and McNider, welche ebenfalls auf Satellitendaten basieren, dass nämlich die Sensitivität bei Verdoppelung der Treibhausgase viel geringer ist als typischerweise von den Modellen simuliert.

(b) Verwirrtes Signal-Design

Der Begleitinformation zufolge zogen Santer et al. jährlich gemittelte Klimamodell-Daten auf der Grundlage historischer Antriebe und auf dem (RCP8.5)-Szenario basierende natürliche und anthropogene Antriebe heran und konstruierten daraus eine Temperatur-Zeitreihe der mittleren Troposphäre. Diese enthielt auch eine Adjustierung für stratosphärische Abkühlung (d. h. eine „Korrektur“). Sie mittelten alle Modelle und Modellläufe, vernetzten die Daten in 10 Grad X 10 Grad-Gitterboxen (insgesamt 576, wobei die Polargebiete außen vor blieben) und extrahierten daraus 40 jährliche Temperatur-Anomalien für jede Gitterbox im Zeitraum 1979 bis 2018. Aus diesen extrahierten sie einen räumlichen „Fingerabdruck“ des vom Modell erzeugten Klima-Musters unter Anwendung einer wesentlichen Komponenten-Analyse aka empirischer Orthogonal-Funktionen. Man kann es sich vorstellen als ein gewichtetes zeitliches Mittel der Anomaliewerte für jede Gitterbox. Obwohl es in der Studie oder in der Begleitinformation nicht gezeigt wird, sieht das Muster so aus (die Graphik stammt aus einer separaten Studie):

Abbildung 2: Räumliches Muster eines Fingerabdrucks

Die grauen Bereiche in Abbildung 2 über den Polen repräsentieren außen vor gelassene Gitterboxen, da nicht alle Satelliten-Reihen auch die Pole abdecken. Die Farben markieren PC „loadings“ [?] und nicht Temperaturen, aber da das erste PC etwa 98% der Varianz erklärt, kann man sie als mittlere Temperaturanomalien betrachten, ohne zu weit abzuschweifen. Folglich ist das Fingerabdruck-Muster ein solches von verstärkter Erwärmung in den Tropen mit lokalen Abweichungen hier und dort.

Dies ist das Muster, mit dem sie die Beobachtungen korrelieren wollen als ein Verfahren, um den anthropogenen „Fingerabdruck“ aufzuspüren. Aber in den Modellen ist es verbunden mit sowohl natürlichen als auch anthropogenen Antrieben zusammen im Zeitraum 1979 bis 2018. Sie bezeichnen dies als HIST+8.5-Daten, was heißt, dass die Modellläufe bis 2006 mit historischen Antrieben (sowohl natürlich als auch anthropogen) liefen und danach nur noch mit Antrieben gemäß dem RCP8.5-Szenario. Die Schlussfolgerung der Studie lautet, dass die Beobachtungen jetzt den in obiger Abbildung dargestellten Verhältnissen ähneln als eine Null-Hypothese („Nur natürliche Antriebe“) – ergo: anthropogener Fingerabdruck entdeckt. Aber HIST8.5 ist ein kombinierter Fingerabdruck, und tatsächlich haben sie den anthropogenen Anteil nicht herausgefiltert.

Sie haben also keineswegs einen eindeutigen anthropogenen Fingerabdruck identifiziert. Was sie entdeckt haben ist, dass Beobachtungen besser zu Modellen passen, wenn sie ein Erwärmungsmuster wie in Abbildung 2 enthalten, unabhängig von den Gründen, als jene, die das nicht enthalten. Es kann sein, dass ein Graph, welcher das ausschließlich anthropogene Signal darstellt, so aussehen würde wie in Abbildung 1, aber aus ihrer Analyse geht das in keiner Weise hervor.

(c) Invalider nur-natürlicher Komparator

Obiges Argument würde eine geringere Rolle spielen, falls der „nur-natürliche“ Komparator als Treiber der Erwärmung durch natürliche Antriebe fungieren würde. Aber das ist konstruktionsbedingt nicht der Fall.

Das Fingerabdruck-Verfahren beginnt damit, die beobachtete räumliche Verteilung von Temperaturanomalien heranzuziehen und diese mit dem Muster in Abbildung 2 oben zu korrelieren, wobei sich ein Korrelations-Koeffizient für jedes Jahr ergibt. Dann betrachten sie den Trend jener Korrelations-Koeffizienten als Maßzahl dafür, wie gut der Fit mit der Zeit wird. Die Korrelationen selbst werden weder in der Studie noch in den Begleitinformationen angesprochen.

Danach konstruieren die Autoren ein „Rauschen“-Muster, welches als „nur-natürlich“ dienen soll, entgegen den Fakten in obigem Diagramm. Sie beginnen mit der Auswahl von 200-Jahre-Kontrollläufen von 36 Modellen und teilen sie in das gleiche 10 X 10-Format ein. Vielleicht werden sie über alles mitteln, aber erst wird jede Gitterbox in jedem Modell trendbereinigt, was ich als fehlerhaften Schritt betrachte.

Alles hängt davon ab, wie valide der Komparator der natürlichen Variabilität ist. Man gibt uns keine Erklärung, warum die Autoren glauben, dass es eine glaubwürdige Analogie ist zu natürlichen Temperatur-Mustern, die assoziiert sind mit nicht-anthropogenen Antrieben nach 1979. Das ist fast mit Sicherheit nicht der Fall. Die Summe der Vulkan- und Solar-Reihe nach 1979 im AR 5 des IPCC sieht so aus:

Abbildung 3: Natürliche Antriebe laut IPCC von 1979 bis 2017

Dies impliziert eindeutig, dass natürliche Antriebe eine insgesamte Erwärmung induziert hätten über das Stichproben-Intervall, und da die tropische Verstärkung unabhängig von der Art des Antriebs erfolgt, würde eine räumliche „nur-natürlich“-Verteilung wahrscheinlich so aussehen wie Abbildung 2. Aber mit der Trendbereinigung jeder Gitterbox haben Santer et al. derartige Muster eliminiert und den geschätzten natürlichen Komparator nach 1979 künstlich verschlechtert.

Die Schlussfolgerungen der Autoren hängen entscheidend von der Hypothese ab, dass ihre Schätzung aufgrund der „natürlichen“ Modell-Variabilität plausibel repräsentiert, wie es von 1979 bis 2018 ohne Treibhausgase ausgesehen hätte. Die Autoren betonen die Bedeutung dieser Hypothese in ihren Begleitinformationen (Seite 10):

Unsere Hypothese hinsichtlich der Angemessenheit unserer Schätzungen bzgl. der Modell-Variabilität ist entscheidend. Beobachtete Temperaturaufzeichnungen sind simultan beeinflusst sowohl von interner Variabilität als auch von multiplen externen Antrieben. Wir verfolgen nicht die „reine“ interne Variabilität, so dass es immer etwas nicht reduzierbare Unsicherheit bei der Unterteilung der beobachteten Temperaturaufzeichnungen in intern und extern getriebene Komponenten geben wird. Alle Vergleiche der beobachteten Variabilität mit derjenigen in den Modellen sind beeinflusst durch diese Unsicherheit, vor allem in weniger gut aufgezeichneten Zeitmaßstäben vieler Jahrzehnte“.

Wie sie sagen, jede Studie zur Erkennung von Fingerabdruck und Signalen ist abhängig von der Qualität des „nur-natürlich“-Komparators. Unglücklicherweise haben sie durch die Trendbereinigung ihrer Kontrollläufe Gitterbox für Gitterbox so ziemlich sichergestellt, dass das Muster der natürlichen Variabilität als ein Komparator künstlich degradiert wird.

Das ist so, als ob man von einem Bankräuber wüsste, dass er ein 1,80 Meter großer Mann ist und die Polizei ihre bevorzugten Verdächtigen in eine Linie mit kleinen Frauen stellen würde. Man könnte eine vertrauenswürdige Zeugen-Identifikation bekommen, aber man wüsste nicht, ob diese valide ist.

Was alles noch viel schlimmer macht, die Treibhausgas-beeinflusste Erwärmung stammt aus Modellen, welche so frisiert worden sind, dass sie zu grundlegenden Aspekten der beobachteten Erwärmungstrends des 20. Jahrhunderts passen. Während dies in der mittleren Troposphäre weniger eine Rolle spielen würde als an der Oberfläche, gäbe es dennoch die teilweise Verstärkung der Gleichheit zwischen Modellsimulationen und Beobachtung infolge nachträglicher Manipulation.

[Anmerkung des Übersetzers: Es folgen noch mehrere detaillierte Darstellungen und Vergleiche zwischen den Parametern, die nur für Fachleute klar durchschaubar sind. Dazu beschreibt der Autor die Entwicklung eines eigenen Modells. Alles läuft darauf hinaus, dass Santers Studie wieder einmal viel verschleiert und nichts enthüllt. Dies geht auch aus der Bewertung des Autors am Ende des Beitrags hervor:]

Schlussfolgerungen

Die Tatsache, dass die t-Statistik von anthro in meinem Beispiel auf ein tiefes Niveau fällt, „beweist“ nicht, dass anthropogene Antriebe keine Auswirkungen auf die Temperatur haben. Sie zeigt aber, dass im Rahmen meines Modells die Auswirkungen nicht signifikant sind. …

Und das liegt in der Natur der Sache statistischer Modellierungen: sie beruhen auf Spezifikationen und Hypothesen. …

Weil ich also genug Gründe habe, die Validität des Modells von Santer et al. zu bezweifeln, akzeptiere ich auch nicht ihre Schlussfolgerungen. Sie haben nicht das gezeigt, was sie sagen gezeigt zu haben. Im Einzelnen haben sie keinen eindeutigen anthropogenen Fingerabdruck identifiziert oder eine glaubwürdige Berücksichtigung der natürlichen Variabilität vorgelegt. Auch haben sie nicht den Gebrauch von Gauss’schen p-Werten gerechtfertigt. Ihre Behauptung, einen „goldenen Standard“ von Beweisen erhalten zu haben, ist unberechtigt, teils schon deswegen, weil statistische Modellierung das niemals ergeben kann, und teils wegen der spezifischen Probleme in ihrem Modell.

Link: https://judithcurry.com/2019/03/01/critique-of-the-new-santer-et-al-2019-paper/

Übersetzt von Chris Frey EIKE




AGW: Ein verwor­renes Netz strangu­liert seine Schöpfer und Befür­worter

Die Herausgeber des Journals Nature haben das Journal ins Leben gerufen. Jenes Journal veröffentlichte alles, was es in die Finger bekam, um die betrügerische Wissenschaft zu verbreiten, welche die Grundlage der nicht überprüften AGW-Hypothese ist. Allerdings war man auch dort den Regeln und Verfahren unterworfen, welche für akademische Forschung und Veröffentlichungen verpflichtend waren. Das ist kein Problem, falls das Thema globale Erwärmung ein rein wissenschaftliches Thema wäre, aber das war es ja niemals. Es war von Anfang an eine politische Inanspruchnahme der Wissenschaft für eine politische Agenda. Der ursprüngliche Artikel stammte von einer Gruppe unter Leitung von Ben Santer, also von jemandem mit einer langen Historie inmitten des AGW-Betrugs.

Ein Artikel unter der Überschrift „Evidence that humans are responsible for global warming hits ‘gold standard’ certainty level“ gibt darüber Aufschluss, enthält aber auch den Kommentar von Santer, dass „das Narrativ, dass Wissenschaftler die Ursache des Klimawandels nicht kennen, falsch ist. Wir kennen die Ursache“. Es ist eine Fortsetzung seiner Arbeit, den Betrug immer weiterzutreiben. Er stellte seinen Kommentar auf die Grundlage, dass wir den Grund für Klimawandel kennen, und zwar aufgrund der Arbeit des IPCC. Dort betrachtete man ausschließlich menschliche Ursachen, und es ist unmöglich, das zu bestimmen, solange man den natürlichen Klimawandel nebst dessen Ursachen nicht kennt und versteht. Falls das der Fall wäre, wären Vorhersagen immer korrekt. Falls das der Fall wäre, bräuchte man Santer und all die anderen Forscher sowie Millionen Dollar nicht mehr

Warum also stellt Santer eine solche Behauptung auf? Aus dem gleichen Grunde wie alle Aktionen im AGW-Betrug: um einen Ansturm zu treiben, erzeugt durch die Dringlichkeit, die politische Agenda zu übernehmen. Es ist der klassische „Der Himmel fällt uns auf den Kopf“-Alarmismus. Santers Arbeit folgt dem jüngsten „Notfall“-Report des IPCC, welcher bei der COP 24 in Polen vorgestellt worden ist und dem zufolge uns noch 12 Jahre bleiben.

Eines der ersten Beispiele dieser Schöpfung einer ungenauen Wissenschaft zur verstärkten Betonung der Dringlichkeit war die Verweildauer von CO2 in der Atmosphäre. In einer Reaktion auf die Behauptung der Erfordernis dringender Maßnahmen haben viele Forscher darauf hingewiesen, dass das Niveau und die Steigerung desselben nicht hinreichend sei, um dringende Maßnahmen zu ergreifen. Mit anderen Worten, man lasse sich nicht vorschnell zu etwas hinreißen. Das IPCC reagierte darauf mit der Behauptung, dass selbst wenn jede Erzeugung von CO2 aufhören würde, das Problem noch Jahrzehnte lang bestehen würde wegen der Verweildauer von 100 Jahren von CO2 in der Atmosphäre. Aus einer von Lawrence Solomon erstellten Graphik geht jedoch hervor, dass die Verweildauer in Wirklichkeit 4 bis 6 Jahre betragen würde (Abbildung 1).

Abbildung 1

Dieses Muster der Betonung der Dringlichkeit durchzieht die gesamte Historie des AGW-Betrugs.

Lord Walter Scott sagte: „What a tangled web we weave when first we practice to deceive“ [etwa: „Was für ein verworrenes Netz wir weben, wenn wir zum ersten Mal Betrug praktizieren“]. Ein anderer großer Autor baute auf diesem Gedanken auf, jedoch aus einem anderen Blickwinkel. Mark Twain sagte: „Falls man die Wahrheit sagt, braucht man sich nicht zu erinnern“. In eigenartiger Weise widersprechen sie oder erklären zumindest, wie sich der Betrug ausbreiten, bestehen bleiben und sein verheerendes Ziel erreichen konnte. Das Netz wurde inzwischen so verworren und die Verbindungen der Netzfäden so kompliziert, dass die Menschen nie mehr sehen können, was passiert. Dies gilt besonders, wenn es bei dem Betrug um ein geheimnisvolles Thema geht, von dem die meisten Menschen gar nichts verstehen.

All diese Beobachtungen sind auf den größten Betrug aller Zeiten anwendbar, nämlich der Behauptung, dass menschlich erzeugtes CO2 globale Erwärmung verursacht. Das Ganze ist den meisten Menschen selbst heute noch unbekannt, und das ist ein Garant für den Erfolg des Betrugs. Das wirkliche Ziel war es zu beweisen, dass Überbevölkerung in Kombination mit industrieller Entwicklung die Ressourcen auf nicht nachhaltige Weise ausschöpfen würde. Maurice Strong erklärte, dass das Problem für den Planeten die industrialisierten Nationen sind, und warf die Frage auf, ob es nicht in unserer Verantwortung liege, diese loszuwerden. Die zugrundeliegende Hypothese war, dass CO2, ein Abfallprodukt bei der Verbrennung fossiler Treibstoffe, globae Erwärmung verursacht und die Erde zerstört. Sie mussten diese Verteufelung des CO2 unbedingt aufrecht erhalten, koste es, was es wolle, und hier beginnt das Weben des verworrenen Netzes.

Zu Beginn kontrollierten das IPCC und angeschlossene Agenturen die zwei maßgeblichen Variablen, nämlich Temperatur und CO2. Phil Jones verlieh dem Ausmaß der Kontrolle über die Temperatur Ausdruck in einer Antwort auf eine Anfrage von Warwick Hughes, welche Stationen herangezogen und wie diese in seiner Graphik adjustiert worden waren. Am 21. Februar 2005 erhielt er folgende Antwort:

„Wir haben rund 25 Jahre in die Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn es doch Ihr Ziel ist herauszufinden, ob mit den Daten etwas nicht stimmt?“

Die Kontrolle über die globalen Temperaturdaten setzte sich fort bis zum Eintreffen der ersten Satellitendaten im Jahre 1978. Trotz aller Limitierungen ergab sich damit eine viel vollständigere Abdeckung, nämlich etwa 97% bis 98%. Dies steht im Vergleich zu den etwa 15% Abdeckung von Oberflächen-Daten.

Unabhängig von der Abdeckung mussten die Oberflächen-Daten zu den Satellitendaten passen, wie Abbildung 2 zeigt:

Abbildung 2

Dies verhinderte jedoch nur die Veränderung der letzten 41 Jahre der Aufzeichnung, nicht jedoch die Veränderung historischer Aufzeichnungen. Der Artikel von Dr. Marohasy ist lediglich eine weitere Illustration des Musters. Tony Heller führte die vollständigste Analyse der zugefügten Adjustierungen durch. Jene, welche die Veränderungen vorgenommen haben behaupten, wie sie es auch auf die Herausforderung von Marohasy getan haben, dass die Korrekturen notwendig und Instrumentenfehlern, Aufstellungsorten und Änderungen der Umgebung geschuldet waren wie etwa dem UHI-Effekt. Das Problem ist jedoch, dass diese Änderungen ausnahmslos nur in eine Richtung gingen, nämlich die historischen Aufzeichnungen niedriger darzustellen. Dies verändert den zeitlichen Gradienten der Temperaturänderung dahingehend, dass die Stärke und die Rate der Erwärmung verstärkt wird. Eines der ersten Beispiele derartiger Adjustierungen ist die Aufzeichnung von Auckland in Neuseeland (Abbildung 3). Man beachte die Überlappung während der letzten Jahrzehnte:

Abbildung 3

Das IPCC übte die Kontrolle auf die CO2-Aufzeichnungen von Anfang an aus, und das ist auch heute noch so. Sie ziehen die Aufzeichnung vom Mauna Loa heran sowie Daten von anderen Messpunkten mit ähnlicher Instrumentierung und Verfahren als Grundlage für ihre Behauptungen. Charles Keeling, einer der frühesten Befürworter von AGW, wurde von Roger Revelle entdeckt und an das Scripps-Institut berufen. Jawohl, das ist das gleiche Heiligtum, welches Al Gore in seinem Film An Inconvenient Truth glorifiziert hat. Keeling etablierte eine CO2-Messstation, welcher der Standard für das IPCC ist. Das Problem ist, dass der Mauna Loa ein Vulkan aus ozeanischer Kruste ist, dass die Lava nicht so zähflüssig und gasreicher ist als bei kontinentalen Vulkanen wie etwa dem Ätna. Eine Dokumentation mit dem Titel Future Frontiers: Mission Galapagos erinnerte mich an Studien vom Ätna vor Jahren, welche zeigten, wie sehr CO2 aus dem Boden stieg – Hunderte von Kilometern rund um den Krater. Die Dokumentation ist zwar der übliche „Die Menschen zerstören den Planeten“-Unsinn. Aber an einer Stelle tauchen sie in das Wasser rund um eine massive Vulkaninsel und waren erstaunt, wie deutlich sichtbar CO2 von überall aus dem Ozeangrund drang.

Charles Keeling ließ sich seine Instrumente und die angewendeten Verfahren patentieren. Sein Sohn Ralph setzte seine Arbeit am Scripps Institute fort und ist Mitglied im IPCC. Sein jüngster Auftritt in den Medien involvierte eine alarmistische Studie mit einem kapitalen Fehler – einer Überschätzung um 60%. Abbildung 4 zeigt ihn mit der PR-Meisterin des IPCC-Narrativs Naomi Oreskes:

Abbildung 4

Abbildung 5 zeigt das gegenwärtige CO2-Niveau am Mauna Loa. Es zeigt sich eine stetige Zunahme seit 1958 mit der jahreszeitlichen Variation:

Abbildung 5

Diese Zunahme erfolgt kontinuierlich 41 Jahre lang, was bemerkenswert ist, wenn man längerfristigere Aufzeichnungen betrachtet. Zum Beispiel zeigt der Eisbohrkern aus der Antarktis eine bemerkenswerte Variabilität (Abbildung 6):

Abbildung 6

Die Eisbohrkern-Aufzeichnung stammt aus Bläschen, deren Entstehung mindestens 70 Jahre dauert. Dann wird ein geglättetes 70-Jahre-Mittel angebracht. Die Kombination entfernt den größten Teil der Variabilität, und das eliminiert jede Chance, das Ergebnis zu verstehen und einzuordnen.

Abbildung 7 zeigt das Ausmaß der Glättung. Sie enthält einen Vergleich über 2000 Jahre Messungen von CO2 mittels zwei unterschiedlichen Messverfahren. Man erkennt den Unterschied in der Variabilität, aber auch den Unterschied des Gesamtniveaus in der Atmosphäre, der zwischen etwa 260 und 320 ppm schwankt:

Abbildung 7

Allerdings gibt es auch eine Aufzeichnung aus jüngerer Zeit, welche ähnliche Differenzen zeigt hinsichtlich Variation und Gesamtmenge (Abbildung 8). Daraus geht klar hervor, dass das IPCC die Aufzeichnung so geglättet hat, dass es die CO2-Aufzeichnung kontrolliert. Die gepunktete Linie zeigt die Eisbohrkern-Aufzeichnung aus der Antarktis und wie die Mauna-Loa-Kurve erzeugt worden war, um den geglätteten, aber ungenauen Verlauf fortzusetzen. Zbigniew Jaworowski, ein Atmosphären-Chemiker und Eisbohrkern-Spezialist erklärt, was mit den CO2-Messungen in Eisbohrkernen nicht stimmt. Sein entsprechender Artikel ist betitelt mit „CO2: The Greatest Scientific Scandal of Our Time“. Natürlich griff man ihn an, aber dennoch hielten die UN seine Qualifikationen und Fähigkeiten für so gut, dass sie ihn zum Leiter der Untersuchungsgruppe beriefen, welche die Tschernobyl-Katastrophe untersuchen sollte.

Überlagert ist in der Abbildung die Graphik von über 90.000 Atmosphären-Messungen von CO2, welche im Jahre 1812 begonnen hatten. Die Veröffentlichung des Sauerstoffniveaus in der Atmosphäre löste die Sammlung von CO2-Daten aus. Die Wissenschaft wollte den prozentualen Anteil aller Gase in der Atmosphäre erfassen. Man war nicht interessiert an globaler Erwärmung oder irgendwelcher anderen Auswirkungen jener Gase – man wollte einfach genaue Daten haben, was das IPCC niemals vorhatte.

Abbildung 8

[Anmerkung von Blogbetreiber Anthony Watts: Ich ordne der Arbeit von Ernst Georg Beck in Abbildung 8 keine Genauigkeit zu, weil das chemische Verfahren fehleranfällig ist und die Messpunkte der Datengewinnung (zumeist im Bodenniveau von Städten) hoch variable CO2-Gehalte aufweisen. Man beachte die hohe Variabilität der Daten. – Anthony Watts.

Bemerkung des Übersetzers dazu: Diese Graphik von E. G. Beck hat er selbst später als fehlerhaft im Sinne von zu lokal beurteilt. Anm. d. Übers.]

Man wusste um diese Aufzeichnungen schon vor Jahrzehnten. Es war der Eisenbahn-Ingenieur Guy Callendar, der diese Aufzeichnung in Zusammenarbeit mit bekannten Namen der wissenschaftlichen Gemeinschaft vorgestellt hatte. Ernst-Georg Beck schrieb dazu:

„Die moderne Treibhausgas-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie später vom IPCC popularisiert“.

Callendar wählte willkürlich einen einheitlichen Datensatz aus, um zu behaupten, dass das mittlere Niveau bei 270 ppm lag. Er änderte die Steigung des Graphen von einer Zunahme in eine Abnahme (Abbildung 9). Jaworowski kreiste die von ihm gewählten Daten ein, aber ich habe die Trendlinien für alle Daten (rot) und Callendars Datenauswahl (blau) hinzugefügt:

Abbildung 9

Tom Wigley, Direktor der Climatic Research Unit (CRU) und einer der Väter von AGW, führte die Aufzeichnung 1983 in die Klima-Gemeinschaft ein, und zwar mit einem Beitrag in der Zeitschrift Climate Change mit dem Titel „The Pre-Industrial Carbon Dioxide Level“. Er behauptete auch, dass die Aufzeichnung ein vorindustrielles CO2-Niveau von 270 ppm ergeben. Man betrachte die Daten!

Das IPCC und dessen Unterstützer etablierten das vorindustrielle CO2-Niveau mittels Rosinenpickerei und Manipulation. Sie halten weiterhin den Finger auf die Angaben zum atmosphärischen Niveau mittels Kontrolle der Mauna Loa-Aufzeichnung, und sie kontrollieren die Daten der jährlichen menschlichen Erzeugung. Sie erklären das so:

Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) zu betreiben, welches diese Verfahren entwickeln soll. Die Parteien im UNFCCC sind überein gekommen, die IPCC-Leitlinien anzuwenden bei der Berichterstattung vor der Konvention.

Wie entwickelt das IPCC seine inventarisierten Leitlinien? Ernannte Experten aus der ganzen Welt entwerfen die Berichte unter Anwendung der IPCC-Verfahren, die dann zweimal extensiv begutachtet werden, bevor sie vom IPCC genehmigt werden. Dieses Verfahren stellt sicher, dass die größtmögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten, sie behalten sich die letztendliche Entscheidung vor, welche Daten für ihre Berichte und als Input für ihre Computermodelle verwendet werden.

Das hat alles lange Zeit funktioniert. Allerdings, wie es mit allen Betrügereien der Fall ist, enthüllt selbst das verworrenste Netz irgendwann seine wahre Natur. Sie fahren fort, dass atmosphärische CO2-Niveau zunehmen zu lassen und dieses dann der Welt vorzuführen als bestätigt durch die Messungen am Mauna Loa. Allerdings ist ihnen durch die Ankunft von Satellitenmessungen die Kontrolle über die jüngsten Temperaturdaten entglitten. Sie können die CO2-Daten jetzt nicht mehr niedriger machen, weil dies ihren gesamten Betrug offensichtlich machen würde, und sie sind dazu verdammt, alles, was noch übrig ist von ihrem Betrug und ihren Manipulationen zu verewigen. Alles, was ihnen blieb, ist u. A. die Abwärts-Korrektur historischer Aufzeichnungen, die Bezeichnung globale Erwärmung in Klimawandel zu ändern und immer schärfere Bedrohungs-Szenarien zu erzeugen wie etwa die genannten 12 Jahre bis zum von Santer prophezeiten sicheren Untergang.*

[*Ross McKittrick hat die entsprechende Studie von Santer in einem eigenen Beitrag widerlegt. Dieser folgt demnächst hier beim EIKE in deutscher Übersetzung. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2019/03/03/anthropogenic-global-warming-agw-a-tangled-web-strangling-its-creators-and-proponents/

Übersetzt von Chris Frey EIKE




Methoden und Tricks, um den Betrug der vom Menschen verursachten globalen Erwärmung zu verewigen

Dieser Beitrag ist eine Reaktion auf eine interessante Erfahrung, welche ich mit einem Beitrag gemacht habe, den ich für WUWT geschrieben hatte. Wie die meisten Leser wissen, antworte ich selten auf Kommentare und lese fast niemals meine ehemaligen Beiträge noch einmal. Bei der Abfassung eines weiteren Artikels brauchte ich eine Bestätigung für etwas, das ich in einem dieser Artikel beschrieben hatte. Ich war erstaunt zu lesen, dass als Reaktion auf Klagen von zwei Forschern Anthony dem Artikel ein Vorwort hinzugefügt hatte.

Es ist Anthonys Website, und er ist berechtigt, diese nach seinem Gutdünken zu betreuen. … Aber ich habe Bedenken hinsichtlich des Hinzufügens seines Vorwortes. Ich habe sofort die Methodik der Übeltäter erkannt und glaube, dass jeder verstehen sollte, was gemacht worden ist. Probleme sind nur dann Probleme, wenn man sich ihrer nicht bewusst ist. Das gilt auch für Verzerrungen.

Ich habe 40 Jahre Erfahrung mit allen Arten von Medien und Menschen auf beiden Seiten einer Debatte. … Dabei stellten sich klare Strukturen heraus, von denen ich hier ein paar anspreche, aber alles in allem kann man sagen, dass sich Mainstream-Medien seit 236 Jahren nicht verändert haben. Sie waren und sind ein Sprachrohr für die Machtelite, wie schon William Cowper im Jahre 1782 erkannte:

[Das Gedicht ist unübersetzbar. Es wird auf das Original verwiesen. Anm. d. Übers.]

Was sich geändert hat war das Aufkommen des Internets. Es überholte die Mainstream-Medien und verschaffte dem Normalbürger Zugang zu mehr Informationen als sie Regierungen in der Vergangenheit hatten. Das bedeutet, dass das Internet gebrauchende Menschen die Methoden und Tricks der Mainstream-Medien entwickelt haben.

Im November 2015 nahm ich an einer Versammlung in Washington teil, wo über die Politik bzgl. Klima und der Environmental Protection Agency EPA während einer Präsidentschaft von Trump gesprochen wurde. Es bestand Konsens, dass er keine Entscheidungen auf der Grundlage schlechter Wissenschaft treffen sollte. Das hier ist schlechte Wissenschaft, aber mindestens 80% der Öffentlichkeit verstehen überhaupt keine Wissenschaft, weshalb sie auch schlechte Wissenschaft nicht erkennen können. Außerdem: egal wie gut man sich vorbereitet, irgendjemand stellt eine Frage, die man nicht beantworten kann, und es braucht nur eine einzige.

Mit dem Verlust der Kontrolle der Mainstream-Medien über Informationen, zu denen die Öffentlichkeit am meisten Zugang hat, gingen sie dazu über, aggressiv, unzivilisiert, hinterhältig und verzerrt zu berichten. Ich habe diese Änderung selbst erfahren. Es ist vielsagend, dass der Nachrichten-Slogan von Fox News lautet „fair und ausgeglichen“. Das taten sie, weil der Wettbewerb nicht mehr fair und ausgeglichen war. …

Die Methodik von Interviews in Mainstream-Medien ist in dem Stahl-Interview in aller Klarheit zutage getreten. Der Interviewer beginnt mit der Aufstellung einer falschen Prämisse, einer falschen Tatsache oder einem Zitat von jemandem, der sich bei dem Thema gar nicht auskennt. Bei Stahl war das die Information, dass vom Grönland-Eis Stücke abbrechen und den Meeresspiegel steigen lassen. Es ist eine Methodik, die in der gesamten Umwelt- und menschengemachten Globale-Erwärmung-Hysterie angewendet wird.

Zum Beispiel hat Paul Ehrlich bereits die falsche Prämisse in seinem Buch aus dem Jahr 1968 etabliert The Population Bomb. Im Jahre 1977 ließ er ein weiteres Buch folgen „Ecoscience“. Ko-Autor war John Holdren, seinerzeit Obamas Wissenschaftsberater mit Vorschlägen, gegen dieses gar nicht existierende Problem vorzugehen. In einem Vorschlag heißt es:

Tatsächlich kamen wir zu dem Ergebnis, dass obligatorische Gesetze zur Bevölkerungskontrolle, darunter sogar solche, die obligatorisch Abtreibungen vorschreiben, im Rahmen der bestehenden Verfassung rechtmäßig sind, falls die Krise so ernst wird, dass die Gesellschaft gefährdet ist.

Oberflächlich betrachtet scheint das vernünftig. Der Betrug wird jedoch offensichtlich, wenn man Fragen stellt, welche diese Methode bloßstellen:

Wer entscheidet, dass derartige Gesetze nachhaltig sind?

Wer entscheidet, ob es eine Bevölkerungs-Krise gibt?

Wer entscheidet, wann die Gesellschaft gefährdet ist?

Die Antwort lautet in jedem Falle: Sie selbst!

Maurice Strong und die Erfinder der Agenda 21 bedienten sich einer ähnlichen Methodik, als sie die Prinzipien für jenes Dokument globaler Politik listeten. Darin wurde die populärste Rechtfertigung für Maßnahmen von Umweltschützern erfasst, nämlich das Vorsorgeprinzip. Falls Fakten nicht verfügbar sind, dann argumentiere man ,nur für den Fall‘. Das liest sich als Prinzip 15 so:

Um die Umwelt zu schützen, sollte das Vorsorgeprinzip von allen Staaten im Rahmen ihrer Möglichkeiten angewendet werden. Wo es das Risiko ernster oder irreparabler Schäden gibt, sollte das Fehlen einer vollen wissenschaftlichen Gewissheit nicht als ein Grund genannt werden, entsprechende kosteneffektive Maßnahmen auf die lange Bank zu schieben, um Umweltschäden zu verhindern.

Auch das klingt auf den ersten Blick vernünftig, vor allem für den Gelegenheits-Leser. Folgende Fragen erheben sich:

Wer entscheidet, dass die Umwelt ,geschützt‘ werden muss?

Wer entscheidet, wie man die Umwelt schützt?

Wer entscheidet, welche Staaten dazu in der Lage sind?

Wer entscheidet über das Niveau der Möglichkeiten?

Wer entscheidet, was „ernste Bedrohungen“ sind?

Wer entscheidet, wann der Schaden rückgängig gemacht werden muss?

Wer entscheidet, wann das Niveau der „wissenschaftlichen Gewissheit“ erreicht wird?

Wer entscheidet, was „kosteneffektive“ Maßnahmen sind?

Auch hier in allen Fällen: Sie selbst!

Ich habe schnell erkannt, dass man als Erstes die falsche Prämisse in Frage stellen muss. Das bringt mich zum Anlass, diesen Beitrag zu schreiben. Ich habe mich noch einmal einem Artikel zugewandt, in welchem über die Motivation zum AGW-Betrug nachgedacht wurde. Ich argumentierte, dass wenn man es erst einmal geschafft hat, dass die Öffentlichkeit akzeptiert, dass Wissenschaft korrumpiert worden ist, um zu einem vorbestimmten Ergebnis zu kommen.* Dies verlangte nach einer Einengung der Wissenschaft mittels Definitionen und Grenzen von Variablen auf einen Mittelpunkt, hier CO2. Nachdem diese Gedanken akzeptiert worden sind, lautet die nächste logische Frage: welche Motive stecken dahinter? Ich habe in dem Artikel darauf hingewiesen, dass dies in vielen Medien-Interviews der letzten Zeit eine der ersten Fragen war.

[*Original: I argued that once you get the public accepting that the idea that science was corrupted to produce a predetermined outcome. Das ist kein vollständiger Satz, und mir war unklar, was der Autor da ausdrücken wollte. Anm. d. Übers.]

Jeder, der die Kommentare bei WUWT liest, kennt die Vielfalt der Antworten. Ich kenne schon die Kommentare, welche Themen auslösen. Am vorhersagbarsten sind die Antworten immer dann, wenn die Frage nach der Motivation auftaucht. Die Täter und Unterstützer des AGW-Betrugs nutzen sie, um eine sozialistische Agenda voranzutreiben.

Die Klage der beiden Menschen erfolgte in Gestalt eines Artikels mit dem Titel „A big goose-step backward” und wurde von Anthony zu Beginn meines Original-Artikels erwähnt. Ich werde deren Namen hier nicht wiederholen, geschweige denn, über den offenkundigen Bias zu sprechen wegen ihrer Stellung und ihrer Finanzierung. Das wurde bereits von Vielen in Kommentaren angesprochen. Von Upton Sinclair stammt die Erkenntnis:

Es ist schwierig, jemanden dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht“

In ihrer Klage ging es um den Gebrauchs des Wortes Leugner als Bezeichnung für all jene, welche die IPCC-Wissenschaft hinterfragten. Das war im Zusammenhang des Übergangs von [den Bezeichnungen] Skeptiker der globalen Erwärmung zu Klimawandel-Leugner. Sie begannen ihre Klage mit einer falschen und emotionalen Prämisse, um all jene zu marginalisieren, die ihren Vorwurf in Frage stellen könnten. Sie führten das Wort „Nazi“ ein, gefolgt von dem Vorwurf, ich würde die ganze Debatte herabwürdigen. Ich habe niemals das Wort „Nazi“ verwendet. Ich bezog mich auf die Verwendung dieses Terminus‘, weil ich die Evolution des Wortes Leugner in der Klima-Debatte erleben musste. Der Terminus wurde absichtlich und sorgfältig gewählt, um genau den Beiklang herzustellen, den ich angesprochen hatte.

Um den Tenor dessen zu verstehen, was vor sich ging, muss man einmal auf den Kommentar von Michael Mann schauen, den dieser in einer E-Mail zur RealClimate-Website geschrieben hat:

… es ist wichtig sicherzustellen, dass sie den Kampf an der PR-Front verlieren (sic) darum geht es auf der Website“.

Auf jener Website wird am 16. Dezember 2004 gefragt:

Gibt es wirklich einen ,Konsens‘ unter den Wissenschaftlern bzgl. der Realität eines anthropogen verursachten Klimawandels?“

Am 22. Dezember 2004 kam die Antwort:

Wir haben hier den Terminus „Konsens“ eingeführt, ohne jemals zu definieren, was wir darunter verstehen. Normalerweise besteht keine große Notwendigkeit der Definition dieses Begriffes – Kein Wissenschaftsbereich hängt davon ab. Aber es ist nützlich, das zu etablieren, wo sich die meisten Wissenschaftler einig sind, und dies der Öffentlichkeit zu präsentieren. Der bestehende Konsens bezieht sich auf die IPCC-Berichte und hier im besonderen auf die Berichte der Arbeitsgruppe [WG] 1. Die Menschen neigen dazu, unter „IPCC“ die WG 1 zu meinen.

Der zweite Satz ist der Schlüssel zu ihren betrügerischen Praktiken. Sie räumen ein, dass Konsens nicht auf Wissenschaft anwendbar ist, doch gebrauchen sie den Begriff dennoch, weil man damit die Öffentlichkeit hintergehen will. Und wie sieht der Konsens aus, dem sie zustimmen? Die Wissenschaftler beim IPCC stimmen überein, also gibt es da einen Konsens.

Im gleichen Jahr 2004 wurde aus E-Mails zwischen „Nick“ und dem Minns/Tyndall Centre ihr Dilemma deutlich. (bei dem Minns/Tyndall Centre handelt es sich um die Gruppe, die sich um die PR an der Climatic Research Unit CRU kümmern soll). Er schrieb:

Nach meiner Erfahrung ist der Stillstand der globalen Erwärmung [original: global warming freezing] schon jetzt ein gewisses Problem der PR mit den Medien“.

Der schwedische Alarmist und Klimaexperte beim IPCC Bo Kjellen erwiderte:

Ich stimme Nick zu, dass Klimawandel eine bessere Bezeichnung wäre als globale Erwärmung“.

Noch im gleichen Jahr wurde der Terminus globale Erwärmung in allen Medien durch den Terminus Klimawandel ersetzt, wenn es um die Arbeit des IPCC ging und die Bedrohung der Welt. Allerdings ließen sie es dabei nicht bewenden. Skeptiker der globalen Erwärmung wurden plötzlich zu Klimawandel-Leugnern. Warum diese Änderung? Die Änderung des Begriffes globale Erwärmung war notwendig, um die Tatsache zu verschleiern, dass ihre Theorie immer mehr im Widerspruch zu den Beobachtungen stand. Es wäre vernünftig gewesen, einfach all diejenigen zur Diskussion zu bitten welche die Wissenschaft in Frage stellen, also die Skeptiker der globalen Erwärmung. Aber man entschloss sich, das nicht zu tun.

Die Antwort auf jene Frage involviert die Natur einer anderen Debatte auf den Titelseiten jener Zeit, nämlich die Kämpfe mit David Irving, einem renommierten Holocaust-Leugner. Er wurde im Jahre 2001 vor Gericht gestellt und im Jahre 2006 verurteilt und ins Gefängnis gesteckt (hier). Falls jemand Interesse hat, der Ablauf der Ereignisse und das gesamte Gerichtsverfahren waren Thema in einem Film mit dem Titel „Denial.”.

Das Motiv hinter dem gesamten Missbrauch des Themas Klima für eine politische Agenda war es, eine Weltregierung zu erschaffen. Maurice Strong machte das Elaine Dewar klar, die zuvor fünf Tage mit ihm an einer Anhörung bei den UN teilgenommen und dort gehört hatte, wie er seine Ziele erläuterte. Sie schrieb:

Strong gebrauchte die UN als eine Plattform, um eine globale Umweltkrise unter das Volk zu streuen und für eine Agenda einer globalen Führung“.

Falls man jetzt immer noch nicht davon überzeugt ist, dass die Mitarbeiter an der CRU sowohl die Wissenschaft als auch die Bevölkerung manipulieren, dann lese man die durchgesickerten E-Mails. Auf der Rückseite ihres Buches Crutapes [= CRU-Tapes] haben Mosher und Fuller diese zusammengefasst:

Sie arbeiteten aktiv daran, die Anfragen im Rahmen des Informationsfreiheits-Gesetzes von Steve McIntyre zu umgehen. Dazu löschten sie E-Mails, Dokumente und sogar Klimadaten.

Sie versuchten, die Prinzipien von Peer Review zu korrumpieren, welche das Haupt-Standbein moderner Wissenschaft sind. Sie begutachteten ihre Arbeiten untereinander und sabotierten alle Versuche ihrer Gegner, eigene Arbeiten zu veröffentlichen. Außerdem bedrohten sie alle Herausgeber von Journalen, welche sich nicht ihren Forderungen beugen wollten.

Sie änderten das Aussehen ihrer Daten in dem Material, das sie Politikern vorlegten und gaben vor, dass sie das Aussehen unserer Welt veränderten. Dazu gehörte auch ,hiding the decline‘, weil dieser Stillstand zeigte, dass man ihren Daten nicht trauen konnte.

Falls Sie jetzt immer noch nicht glauben, dass es sich durch und durch um einen politischen Kampf handelt mit allen Hässlichkeiten, Lügen und Betrug, dann fragen Sie sich, ob sie freiheitlich denken und informiert sind, falls Sie die AGW-Theorie akzeptieren. Falls Sie jedoch überhaupt irgendetwas hinterfragen, sind Sie konservativ und uninformiert, unabhängig von Ihren tatsächlichen politischen Ansichten. Es liegt in der Natur der Linken, das Individuum auf höchstmöglich widerliche Art und Weise sowie ohne jeden Beweis anzugreifen.Es liegt in ihrer Natur, all jene zu isolieren, welche es wagen, ihre Orthodoxie auf den Prüfstand zu stellen.

Nein, ich werde mich nicht jenen mit einer politischen Agenda und Eigeninteresse beugen. Ich stehe zu meinem Kommentar über den Beiklang der Phrase Klimawandel-Leugner/Holocaust-Leugner. Außerdem lebte ich während des Krieges in England und weiß, wie die Deutschen vorgegangen sind.

Link: https://wattsupwiththat.com/2018/10/20/methods-and-tricks-used-to-create-and-perpetuate-the-human-caused-global-warming-deception/

Übersetzt von Chris Frey EIKE




Der größte Betrug beim Betrug der vom Menschen verursachten globalen Erwärmung

Ein Grund für die Fortdauer des Betrugs ist der Umstand, dass die Skeptiker es nicht vermögen, der Öffentlichkeit die wissenschaftlichen Probleme hinter der AGW-Behauptung auf eine Art und Weise zu erklären, welche die Menschen verstehen können. Ich habe früher schon einmal erwähnt, dass die meisten Menschen, das sind die 85% ohne wissenschaftliches Hintergrundwissen, die wissenschaftlichen Argumente der meisten Skeptiker zu obskur empfinden.

Allerdings gibt es auf beiden Seiten der Debatte Probleme, welche die Möglichkeiten eindeutigen Verständnisses und Erklärungen verhindern oder zumindest ernsthaft begrenzen. Da sind einmal fehlende Daten. Es gibt so viel Spekulation ohne jedwede Fakten, dass es an der Zeit ist, einmal zu schauen, wie man anderswo mit Problemen umgeht. Ein gutes Beispiel hierfür liefert Sir Arthur Conan Doyle mittels seines Detektivs Sherlock Holmes.

Es ist ein kapitaler Fehler zu theoretisieren, bevor man Daten hat. Unmerklich beginnt man, Fakten umzudeuten, damit sie zu den Theorien passen, anstatt die Theorien so umzuformulieren, dass sie zu den Daten passen“

Es ist wichtig, eine fiktive Quelle für diese Erinnerung heranzuziehen, weil in der realen Welt Fakten und Daten keine Voraussetzungen mehr sind. Es gibt praktisch keine realen Wetter- oder Klimadaten, aber dennoch entwickeln Menschen auf beiden Seiten der Debatte Computermodelle oder spekulieren endlos. Sie kommen genau zu dem Punkt, den Holmes vorhergesagt hat. Es ist beängstigend, wie viele Menschen, die so überzeugt sind von AGW, praktisch nichts wissen.

Ein anderes Beispiel von Holmes verdeutlicht zwei weitere Probleme durch fehlende Daten und Spekulation. Das erste Problem ist es, Variable zu ignorieren.

Gregory (Detektiv von Scotland Yard): „Gibt es noch einen weiteren Punkt, auf den Sie meine Aufmerksamkeit lenken wollen?“

Sherlock Holmes: „Ja, und zwar auf den komischen Vorfall mit dem Hund in der Nacht“.

Gregory: „Der Hund hat doch in der Nacht gar nichts gemacht“.

Holmes: „Eben! Das war der komische Vorfall“.

Warum ignorieren das IPCC und AGW-Befürworter wesentliche Variablen oder blenden diese aus, welche in der Komplexität von Wetter und Klima enthalten sind? Wie können sie die Validität ihrer Prophezeiungen so laut hinaus posaunen, wenn praktisch alles ausgelassen wird?

Das zweite Problem ist, dass man von der Komplexität so eingefangen ist, dass man das Offensichtliche ignoriert. Für dieses Beispiel ist nicht Conan Doyle der Urheber, doch wird ein Verfahren beschrieben, um ruhig zu bleiben und nicht den Überblick zu verlieren.

Sherlock Holmes und Dr. Watson sind auf einer Camping-Tour. Nach einer guten Mahlzeit und einer Flasche Wein ziehen sie sich zur Nachtruhe zurück. Einige Stunden später wacht Holmes auf und stieß seinen treuen Freund an. „Watson, wach auf, schau an den Himmel und sage mir, was du siehst!“

Ich sehe Abermillionen Sterne, Holmes“, erwidert Watson.

Und was schließt du daraus?“

Watson überlegt einen Moment. „Nun, astronomisch sagt es mir, dass es Millionen Galaxien und potentiell Milliarden Planeten gibt. Astrologisch sehe ich, dass sich Saturn im Sternbild Löwe befindet. Chronologisch sehe ich, dass es etwa Viertel nach drei Uhr ist. Meteorologisch denke ich, dass morgen ein wunderbarer Tag wird. Theologisch sehe ich die Allmacht Gottes und dass wir ein kleiner und unbedeutender Teil des Universums sind.

Was schließt du daraus, Holmes?“

Holmes antwortet nicht gleich. Dann: „Watson, du Idiot! Jemand hat unser Zelt gestohlen!“

Es gibt eine Vielfalt von Variablen, die übersehen oder ignoriert werden. Fast alle sind nicht oder kaum gemessen. Es gibt so viele synthetische, von Modellen erzeugte Daten, die dann als reale Daten in ein anderes Modell eingehen. Die Ergebnisse der Modelle zeigen die Inzucht. Betrachtet man selbst die extremsten Behauptungen bzgl. des Effektes der globalen Erwärmung durch menschliches CO2, liegen selbst diese noch innerhalb der Fehlerbandbreite fast jeder einzelnen Variablen. Das Niveau der Reflektivität (Albedo) variiert mehr von Jahr zu Jahr und erzeugt damit eine Energie-Variation, die wahrscheinlich über den geschätzten Einfluss von menschlichem CO2 hinausgeht. Man betrachte die Arbeit von Kukla und Kukla, die hierauf schon früh aufmerksam machten. Die Arbeit ging weiter mit der natürlichen Variabilität der Albedo durch Schneebedeckung. Jüngst haben wir erfahren:

Wegen seiner großen jahreszeitlichen Variabilität und seiner ausgeprägten physikalischen Eigenschaften spielt Schnee eine Hauptrolle im Klimasystem mittels starker positiver Rückkopplungen mit Bezug zur Albedo und anderen, schwächeren Rückkopplungen aufgrund der Speicherung von Feuchtigkeit, latenter Wärme und Isolierung der Erdoberfläche unter dem Schnee.

Das IPCC beschreibt diese Abschätzung der Lage in seinem AR 5 (S. 359):

Zusätzlich zur Reduktion der Schneebedeckung, welche die mittlere Reflektivität bestimmter Regionen reduziert, kann sich die Reflektivität des Schnees selbst ebenfalls ändern als Reaktion auf menschliche Aktivitäten.

Woher weiß das IPCC das? Es ist reine Spekulation. Dann liefern sie eine sehr konfuse Erklärung:

Allerdings zeigen räumlich ausgedehnte Beobachtungen von Fremdstoffen im Schnee der Arktis zum Ende des vorigen Jahrzehnts und Mitte der achtziger Jahre, dass der Gehalt an Fremdstoffen zwischen diesen beiden Perioden abgenommen hat, so dass Änderungen der Albedo möglicherweise keinen bedeutenden Beitrag zur jüngsten Abnahme von Schnee und Eis in der Arktis geleistet haben.

Die Ausgewogenheit des Eintrags diskutiert allgemeine Bedingungen unter dem Titel [übersetzt] „Wechselwirkungen von Schnee innerhalb der Cryosphäre“. Im Kapitel Klimamodelle schreibt man dazu:

Es gibt in den Modellen auf der Nordhemisphäre eine starke lineare Korrelation zwischen der Ausdehnung der Schneedecke im Frühjahr und der jährlichen mittleren Lufttemperatur. Das ist konsistent mit den verfügbaren Beobachtungen. Der jüngst negative Trend der Frühjahrs-Schneebedeckung wird von den CMIP5- (und CMIP3)-Modellen unterschätzt, was assoziiert ist mit einer Unterschätzung der Erwärmung borealer Landgebiete.

Sie wissen es nicht, und was sie heranziehen unterschätzt die Realität, welche sie ebenfalls nicht kennen. Das hindert sie aber nicht daran, im AR5 festzustellen:

Es gibt sehr hohes Vertrauen darin, dass die Ausdehnung der nordhemisphärischen Schneebedeckung seit Mitte des 20. Jahrhunderts während der Monate März und April um 1,6 (0,8 bis 2,4)% pro Jahrzehnt abgenommen hat sowie um 11,7% im Juni; alles im Zeitraum 1967 bis 2012.

Sie sagen uns nicht, wie viel dieser Abnahme der vom Menschen verursachten Erwärmung geschuldet ist. Das können sie auch nicht, weil sie die natürliche Variabilität nicht kennen aus der Zeit vor den Satellitendaten, aber sogar auch danach nicht, weil – wie sie selbst einräumen – die vollständigen und genauen Daten nicht verfügbar sind. Man vergesse nicht, hierbei handelt es sich nur um eine aus der Myriade aller Variablen.

Ich werde mich hier auf den Wasserdampf konzentrieren, weil diese Variable die am wenigsten vermessene und am wenigsten verstandene ist. Und doch ist sie entscheidend für die gesamte Grundlage der Erwärmung aufgrund menschlicher Interferenz in die Treibhausgas-Theorie. Das IPCC hat es fertig gebracht, den Wasserdampf als Erwärmungsquelle vollständig zu ignorieren, und zwar mittels Definition des Klimawandels, welche ausschließlich menschliche Einflüsse umfasst. Ironischerweise verwenden und manipulieren sie aber den Wasserdampf, um ihren Betrug abzustützen.

Seitens der Politik wurde die Ziele erzwungen, CO2 aus menschlichen Quellen als Ursache der globalen Erwärmung zu isolieren und zu dämonisieren. Primär wurde dies erreicht mittels der kontrollierten Gruppe unzähliger Menschen, hauptsächlich Bürokraten, die ausschließlich menschliche Ursachen des Klimawandels zu untersuchen hatten. Das eliminiert die Sonne, weil es Dinge gibt, die kein Mensch kontrollieren kann, und sei er auch noch so mächtig.

Aber trotzdem bezog das IPCC eine Kategorie „Sonne“ in ihre Liste mit „antreibenden“ Variablen ein. Warum? Menschen beeinflussen nicht die solare Einstrahlung und können das auch gar nicht. Das IPCC kann einzig argumentieren, dass Menschen der Atmosphäre Partikel beifügen, welche die Einstrahlung filtern. Das Problem dabei ist, dass wir keine Ahnung haben, wie groß die Masse an Partikeln in der Atmosphäre ist oder wie die Partikel räumlich und zeitlich variieren. Ein diesbezügliches Beispiel zeigte sich, als die AGW-Befürworter behaupteten, die Abkühlung von 1940 bis 1980 gehe auf das Konto eines gestiegenen Sulfat-Niveaus, verursacht durch die Menschen. Woher wissen sie das? Sie haben einfach genügend den Modellen hinzugefügt, bis diese die Abkühlung approximieren. Das Problem hierbei war jedoch, dass nach 1980 Erwärmung einsetzte, ohne dass sich das Sulfat-Niveau verändert hat.

Alles war noch schwieriger hinsichtlich der Treibhausgase (GHG), weil die Menschen diese in variierender Menge erzeugen. Noch schlimmer war, dass das GHG, welches sie dämonisieren wollten, zu Beginn in den achtziger Jahren nur 4% aller GHG ausmachte. Der Wasserdampf- Anteil betrug 95%, und Menschen haben ihn der Atmosphäre beigefügt. Das IPCC räumte die menschliche Erzeugung ein, beeilte sich aber dann zu sagen, dass die Menge relativ zum Gesamtvolumen so gering war, dass sie es bei ihren Berechnungen nicht berücksichtigt haben. Sie machten das, was frühere Computermodelle mit der Verdunstung aus den Ozeanen gemacht haben. Es gab keine Messungen, also hypothetisierten sie etwas, dass man Sumpf-Annäherung bezeichnete, dass also die Verdunstung durchweg 100% ausmachte.

Hinsichtlich des CO2 schätzten sie, dass es gleichmäßig in der Atmosphäre verteilt sei – was sich später durch Daten des Satelliten OCO2 als falsch erwies. Wasserdampf variiert hinsichtlich Volumen und Verteilung in der gesamten Atmosphäre viel mehr als jedes andere Gas. Darum hat man in der Meteorologie vier verschiedene Maßzahlen entwickelt, nämlich Mischungsverhältnis, spezifische Feuchtigkeit, absolute und relative Feuchtigkeit, um die Rolle des Wasserdampfes in der Atmosphäre besser zu verstehen. Letztere ist die am besten bekannte Größe, aber aus wissenschaftlicher Sicht auch die bedeutungsloseste. Die Menge an Wasserdampf in der Luft kann variieren von fast Null bis etwa 4%. Damit erhebt sich die Frage, wie viel Wasser sich in der Atmosphäre befindet und wie dieses mit der Zeit variiert.

Der United States Geological Survey (USGS) hat eine Water Science School. Darin heißt es:

Eine Schätzung des Wasservolumens in der Luft zu irgendeiner Zeit beläuft sich auf 12.900 km³. Das klingt viel, aber es sind nur 0,0001 Prozent des gesamten Wasservolumens der Erde von etwa 1.385.000.000 km³. Falls der gesamte Wasservorrat in der Luft auf einen Schlag ausregnen würde, würde dieses Wasser den Globus nur mit einem Wasserfilm mit einer Dicke von 2,5 cm bedecken.

Man beachte, wie sie die atmosphärische Bedeutung des Wasserdampfes herunterspielen, indem sie ihn mit der Gesamt-Wassermenge auf dem Planeten vergleichen. Sie sprechen über Wasser in der flüssigen Phase, aber Wasserdampf ist als Gas bedeutend und aus Perspektive des Wetters ein zentraler Faktor. Welche Prozentanteile des Wassers befindet sich gerade in einem der drei Aggregatzustände, und wie variiert dieses Verhältnis mit der Zeit? Antwort: das weiß niemand, und es gibt nicht einmal eine grobe Schätzung, wie das Scheitern der Modelle bei der Simulation von Wolken nebst deren Auswirkungen belegt. Nicht nur das, sondern Änderungen des Aggregatzustandes können in großem Umfang innerhalb weniger Sekunden erfolgen.

Das IPCC ließ Wasserdampf außen vor als eine GHG-Variable, weil man annahm, dass er konstant war. Sie mussten das tun, weil sie nicht wussten, wie sehr er mit der Zeit variiert. Sie haben sich auf CO2 konzentriert, aber schon bald entdeckt, dass es bzgl. einer CO2-Zunahme eine obere Grenze der Erwärmung gibt. Ich nenne das das ,Schwarze-Farbe-Problem‘. Falls man durch das Fenster fallende Licht abschirmen will, streiche man das Fenster mit einer Farbschicht. Der größte Teil des Lichtes wird dann blockiert. Ein zweiter Anstrich reduziert das Licht nur noch zu einem Bruchteil. Das gegenwärtige CO2-Niveau entspricht einem Anstrich. Eine Verdoppelung hätte nur den Bruchteil einer Auswirkung. Eine Maßzahl dafür, wie wenig dieser Effekt verstanden ist, wird reflektiert durch verschiedene Schätzungen dieses Effektes (Abbildung 1). Das Problem besteht weiter, wie der fortgesetzt immer niedriger geschätzte Wert der CO2-Klimasensitivität belegt.

Abbildung 1

Die Reaktion auf dieses Problem war die Erzeugung einer positiven Rückkopplung. Darunter versteht man die Behauptung, dass eine CO2-Zunahme eine Temperaturzunahme verursacht, welche wiederum die Verdunstung steigert und mehr Wasserdampf in die Atmosphäre bringt. Dies lässt die Temperatur weiter steigen, über die Fähigkeit von CO2 hinaus. Ich akzeptiere das Argument, weil es theoretisch begründet scheint, aber es gibt dafür keine empirischen Beweise. Es berücksichtigt nicht eine negative Rückkopplung, weil sich beispielsweise auch mehr Wolken bilden, was wiederum die Albedo verändert. Wie auch immer, es gibt keine empirischen Daten, und die einzigen Daten, die sie haben, stammen aus einem Computermodell. Das Ergebnis wird bestimmt durch die verwendeten Daten, um das Modell zu konstruieren, aber es gibt keine bedeutsamen Daten oder auch nur gute Schätzungen. Daten werden also mittels Modellen erzeugt, für die es keine realen Daten gibt, und die Ergebnisse gehen dann in andere Modelle ein, für die es ebenfalls keine realen Daten gibt. Die Stärke der Wasserdampf-Zunahme wird in ihrem Narrativ plötzlich wichtig. Aber wie viel gesteigerte Verdunstung ist erforderlich, um eine positive Rückkopplung zu erhalten? Wie können sie diese Menge bestimmen, wenn man das ursprüngliche Volumen gar nicht kennt oder wie dieses sich mit der Zeit ändert? Ich möchte mit einer Zahl zu meiner einleitenden Behauptung aufwarten. Es ist möglich, dass selbst eine Variation um 1% des atmosphärischen Wasserdampfes alle Auswirkungen von menschlich erzeugtem CO2 ausgleicht oder übertrifft.

Holmes und Watson haben also nicht nur ihr Zelt verloren, sondern sie sind jetzt auch den Niederschlägen ausgesetzt. Unglücklicherweise wissen das IPCC und dessen Modelle nicht, welches Ausmaß das annimmt. Holmes würde wissen warum. Es liegt daran, dass sie keine Daten haben und nur theoretisieren und spekulieren.

Link: https://wattsupwiththat.com/2018/05/05/the-biggest-deception-in-the-human-caused-global-warming-deception/

Übersetzt von Chris Frey EIKE




Enthüllt: Ein Jahrzehnte alter Report der Regierung mit Klima­daten war völlig unge­eignet für den Zweck

Darin hieß es über diese Daten:

Es gibt darin Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen“, welche „dem in die Forschungsergebnisse gesetzten Vertrauen enge Grenzen ziehen“.

Die Personen, welche zu diesen Schlussfolgerungen gekommen waren, und deren Zugehörigkeit sind hier gelistet:

  • THOMAS R. KARL (Chair), National Climatic Data Center, Asheville, North Carolina
  • ROBERT E. DICKINSON,University of Arizona, Tucson
  • MAURICE BLACKMON,National Center for Atmospheric Research, Boulder, Colorado
  • BERT BOLIN,University of Stockholm, Sweden
  • JEFF DOZIER,University of California, Santa Barbara
  • WILLIAM P. ELLIOTT, NOAA/Air Resources Laboratory, Silver Spring, Maryland
  • JAMES GIRAYTYS, Certified Consulting Meteorologist,Winchester, Virginia
  • RICHARD E. HALLGREN,American Meteorological Society, Washington, D.C.
  • JAMES E. HANSEN, NASA/Goddard Institute for Space Studies, New York, New York
  • SYDNEY LEVITUS, NOAA/National Oceanic Data Center, Silver Spring, Maryland
  • GORDON MCBEAN, Environment Canada, Downsview, Ontario
  • GERALD MEEHL, National Center for Atmospheric Research, Boulder, Colorado
  • PHILIP E. MERILEES, Naval Research Laboratory, Monterey, California
  • ROBERTA BALSTAD MILLER, CIESIN, Columbia University, Palisades, New York
  • ROBERT G. QUAYLE, NOAA/National Climatic Data Center, Asheville, North Carolina
  • S. ICHTIAQUE RASOOL, University of New Hampshire, Durham
  • STEVEN W. RUNNING, University of Montana, Missoula
  • EDWARD S. SARACHIK, University of Washington, Seattle
  • WILLIAM H. SCHLESINGER, Duke University, Durham, North Carolina
  • KARL E. TAYLOR, Lawrence Livermore National Laboratory, Livermore, California
  • ANNE M. THOMPSON, NASA/Goddard Space Flight Center, Greenbelt, Maryland
  • Ex Officio Members
  • W. LAWRENCE GATES, Lawrence Livermore National Laboratory, Livermore, California
  • DOUGLAS G. MARTINSON, Lamont-Doherty Earth Observatory, Columbia University, Palisades, New York
  • SOROOSH SOROOSHIAN, University of Arizona, Tucson
  • PETER J. WEBSTER, University of Colorado, Boulder

Das sind prominente Namen. Viele dieser Personen hatten bedeutende Positionen im IPCC inne sowie bei der Ausbreitung von deren Verlautbarungen. Zum Beispiel war Gordon McBean der Vorsitzende des Informations-Treffens des IPCC in Villach in Österreich im Jahre 1985. Bert Brolin wurde zusammen mit Sir John Houghton zu den ersten stellvertretenden Vorsitzenden des IPCC berufen. Thomas Karl und James Hansen waren zwei dominante Persönlichkeiten hinsichtlich Datenkontrolle und Datenmanipulation bis zu ihrem gerade erfolgten Abgang.

Karl leitete die Studie und wusste daher besser als jeder andere, dass das Erreichen der gewünschten Ergebnisse, nämlich eine stetig steigende Temperatur während der über 120 Jahre instrumenteller Aufzeichnungen, durch die Unzulänglichkeit der Daten wesentlich vereinfacht wird. Sie ignorierten die Tatsache, dass die Unzulänglichkeit der Daten die von ihnen geplanten und durchgeführten Arbeiten völlig wertlos machte. Beispiel: Ausmaß, Dichte und Kontinuität der Daten sind vollkommen ungeeignet als Grundlage für ein mathematisches Computermodell des globalen Klimas. Kurz gesagt, sie wussten, dass sie Daten erzeugen, frisieren oder modifizieren mussten, um auch nur ein ungefähres Ergebnis zu erhalten. Die Schwierigkeit bestand darin, dass die Daten so schlecht waren, dass selbst nach deren Bearbeitung die Ergebnisse der Realität nicht nahegekommen waren.

Trotzdem blieb das IPCC diesen Daten verhaftet, obwohl an anderer Stelle entschieden worden war, die Anzahl der Stationen zu reduzieren und damit die Abdeckung noch weiter zu begrenzen. Es gab zwei Hauptgründe für diese Reduktion, nämlich die zunehmende Umleitung von Geldern zugunsten der Forschung bzgl. globaler Erwärmung und extensiver Computermodelle sowie die Vorgriffe auf Satelliten-Wetterdaten. NASA GISS erzeugte eine Graphik (Abbildung 1), um zu zeigen, was vor sich ging. Ich habe jede Graphik erweitert, um die wichtigen Details zu zeigen (Abbildungen 2, 3 und 4).

Abbildung 1

Löblicherweise haben sie die Daten aufbereitet, aber alles, was sich daraus ergab, war eine Betonung der Anomalien.

Abbildung 2

Wichtige Punkte:

Es gibt keine Station mit Aufzeichnungen über 130 Jahre hinaus

Es gibt etwa 300 Stationen mit Aufzeichnungen über 120 Jahre

Nahezu alle Stationen mit einer Länge der Reihen über 100 Jahre liegen im Ostteil der USA oder in Westeuropa

Abbildung 3

Wichtige Punkte:

Erste signifikante Abnahme nach dem Jahr 1960 in Erwartung von Satellitendaten.

Zweite Abnahme um 1995 in Verbindung mit einer Änderung der Finanzierung weg von Datensammeln und hin zu globaler Erwärmung sowie Reduktion der herangezogenen Stationen

Abbildung 2 zeigt ein Maximum der Stationsanzahl von etwa 7200, aber Abbildung 3 zeigt nur etwa 5500.

Abbildung 4

Wichtige Punkte:

Trotz der Reduktion der Anzahl der Stationen verringert sich die Abdeckung nur geringfügig. Wissenschaftlich ist das unmöglich.

Gegenwärtig sind 20% der Nordhemisphäre und 25% der Südhemisphäre nicht mit Daten abgedeckt.

Die Qualität der Abdeckung ist entscheidend, jedoch sehr variabel, wie Thomas Karl anmerkt: „Anders als in anderen Wissenschaftsdisziplinen, wo strikte Laborkontrollen die Regel sind, müssen sich Klimaforscher auf Beobachtungen verlassen, welche in verschiedenen Ländern mit unterschiedlichen Instrumenten durchgeführt werden“. Man erinnere sich, die Abdeckung in den USA ist bislang die beste, aber nur 7% ihrer Stationen sind genau bis auf weniger als 1°C. Hier folgt ein Beispiel aus dem Vorwort zu den ,Canadian Climate Normals‘, von denen Karl spricht. „Im digitalen Archiv gibt es vor dem Jahr 1953 keine Daten, und die Mittelwerte dieser Ausgabe wurden aus allen ,stündlichen‘ Beobachtungen zu ausgewählten Stunden für den Zeitraum 1953 bis 1980 abgeleitet. Dabei sollte man beachten, dass viele Stationen weniger als 28 Jahre lange Reihen haben bei der vollständigen Mittelung“.

Obwohl er nichts zu der Studie beigetragen hatte, kommentierte Kevin Trenberth deren Veröffentlichung so:

Es ist ganz klar, wir haben kein Klima-Beobachtungssystem … dies mag für viele Menschen ein Schock sein, welche davon ausgehen, dass wir angemessen wissen, was mit dem Klima vor sich geht, aber das wissen wir nicht“.

Dennoch erzeugte Trenberth ein Energiebilanzmodell, dass im Mittelpunkt sämtlicher Behauptungen bzgl. des Treibhauseffektes auf das Klima steht.

Die Studie des National Research Councils konzentrierte sich auf die Unzulänglichkeiten der instrumentellen Aufzeichnungen. Die Studie erschien kurz nachdem H. H. Lamb seine Autobiographie veröffentlichte (1997), in welcher er sich über die breiteren Begrenzungen für die Klimaforschung ausließ. Er schrieb, dass er die Climatic Research Unit ins Leben gerufen hatte, weil

…es eindeutig klar war, dass die erste und größte Notwendigkeit die Etablierung der Fakten der Aufzeichnungen bzgl. des natürlichen Klimas aus der Vergangenheit war, und zwar zu Zeiten, bevor irgendwelche Nebeneffekte durch menschliche Aktivitäten von Bedeutung geworden sein könnten“.

Folglich wussten die Personen, welche das IPCC geschaffen und kontrolliert haben, bereits im Jahre 1999 um die Unzulänglichkeit der Daten während der 120 Jahre menschlicher Aktivitäten. Das hat sie nicht aufgehalten, aber es bedeutet, dass sie genau wussten, dass sie Daten, die sie brauchten, selbst erzeugen mussten, und sie wussten, wie man das macht.

Das IPCC konnte die Story sowie die Daten, welche seine Behauptungen einer vom Menschen verursachten globalen Erwärmung (CAGW) nur am Leben halten, falls sie Kontrolle über alle Datenquellen hatten. All dies begann sich nach dem Jahr 2000 herauszuschälen.

1.Die von Ballonmessungen bestätigten Satellitendaten erreichten eine Länge, die sie nicht länger ignorieren konnten. Im Jahre 2007 schrieb das IPCC folgenden Kommentar in ihren 4. Zustandsbericht:

Neue Analysen von Ballon- und Satellitenmessungen der Temperatur in der unteren und mittleren Troposphäre zeigen Erwärmungsraten ähnlich denen der Temperaturmessungen an der Oberfläche und sind konsistent innerhalb ihrer jeweiligen Unsicherheiten, was eine im TAR [AR3] aufgetretene Diskrepanz weitgehend beilegte“.

2.Sehr kalte Winter und verstärkter Schneefall errangen öffentliche Aufmerksamkeit, wie viele Cartoons belegen:

[Im Original ist an dieser Stelle ein solcher Cartoon gezeigt, der aus urheberrechtlichen Gründen hier aber nicht reproduziert werden darf. Hier kann man sich diesen im Original anschauen, was ich dringend empfehle. Anm. d. Übers.]

3.Der Stillstand ging über die 17 Jahre hinaus, welche Ben Santer für erforderlich hielt, bevor er überhaupt über das Ganze neu nachdachte.

4.Die Lücke zwischen dem zunehmenden atmosphärischen CO2-Niveau und der tatsächlichen Temperatur wurde fortwährend immer größer.

Aber nichts davon konnte die Suche nach Stützung aufhalten. Thomas Karl erzeugte eine Datenreihe und schrieb zusammen mit Tom Peterson eine Studie, in der behauptet wurde, dass der Stillstand nicht auftritt, wenn man Daten und Verfahren mit ernsthaften Begrenzungen heranzieht. Nach der Bloßstellung des Missbrauchs lehnten es die Ko-Autoren ab, einer Vorladung des Kongresses zu folgen und die Daten und angewandten Verfahren öffentlich zu machen.

Karl und andere, welche in den AGW genannten Betrug verwickelt sind, wussten von Anfang an und besser als jeder andere um die bedeutenden Begrenzungen des instrumentellen Datensatzes. Wahrscheinlich wussten sie durch die Arbeiten von Lamb auch um die Begrenzungen der historischen Aufzeichnung. Trotzdem, oder vielmehr gerade deswegen, überwachten sie die Konstruktion von Computermodellen, schrieben Studien, erzeugten ,offizielle‘ Berichte und überzeugten die Welt, dass sie vor dem drohenden Untergang steht durch eine Runaway-globale Erwärmung. Ihre Arbeiten auf der Grundlage von etwas, von dem sie von Anfang an wussten, wie unzulänglich es war, erlangte universelle Akzeptanz. Natürlich wussten sie auch besser als alle anderen, wie man Daten auswählt und manipuliert, um Argumente zu finden, welche ihre falsche Hypothese stützen; zumindest bis Satellitendaten wissenschaftlichen Status erreichten. Aber selbst dann noch machten sie mit ihrem Betrug weiter. Sie beweisen, dass sie Gründungsmitglieder der postfaktischen Gesellschaft sind. Das jüngste Beispiel wurde ausgelöst durch die Panik wegen Trumps Rückzug aus dem Paris-Abkommen und analysiert durch Tony Heller.

Link: https://wattsupwiththat.com/2017/08/12/uncovered-decades-old-report-showing-climate-data-was-bad/

Übersetzt von Chris Frey EIKE