1

Der Kampf mit der Bürokratie: Die Haupt-Protagonisten des Globale-Erwärmung-Betrugs

Hinsichtlich des Globale-Erwärmung-/Klimawandel-Betrugs gibt es zwei hauptsächliche Komponenten, nämlich die Beteiligung der Bürokraten jeder nationalen Wetteragentur und das Fehlen empirischer Daten. Unter Letzterem sind ungeeignete Daten zur Erstellung der Klimamodelle und das Fehlen empirischer Beweise zur Stützung der Behauptungen und Prophezeiungen des IPCC.

Maurice Strong hat deren Inklusion garantiert ebenso wie die Kontrolle durch Bürokraten mittels der Inanspruchnahme der WMO, um es dem IPCC zur Verfügung zu stellen. Dieses bestimmte, dass es durch die nationalen Wetterämter kontrolliert werden sollte. Diese wiederum wurden zur einzigen Informationsquelle für die Politiker in jeder Nation. Das Ganze entwickelte sich zu einem Beweis für die Definition von Mary McCarthy, der zufolge eine Bürokratie das Gesetz für niemanden ist, der modernen Form von Despotismus.

Diese nationalen Wetter-Bürokratien [ist der DWD nicht ein Musterbeispiel dafür? Anm. d. Übers.] werden auf Beweise festgenagelt, oder das Fehlen von solchen, und unterminieren konstant die Story, die sie ihren politischen Bossen verkaufen. Ich schrieb bei WUWT in einem Beitrag etwas über das Dilemma, bürokratische Klimawissenschaftler zu haben. Viele dieser Klima-Bürokraten haben mich immer wieder darauf angesprochen und gesagt, sie kennen die Probleme, brauchen aber ihren Job.

Mit den Jahren begannen viele Personen, die Wissenschaft hinter den IPCC-Behauptungen näher zu betrachten, die die Politik ihrer Regierungen unterstütze. Viele dieser Personen bildeten Gruppen, weil die meisten Informationen brauchten – und sie konnten nicht glauben, was sie sahen. Sie konnten dem Niveau von Korruption, Verzerrung und Missbrauch der Wissenschaft nicht glauben, auf das sie stießen. Ich hatte die Ehre, einigen dieser Gruppen dabei zu helfen, sich zu informieren, oder zumindest ihre Fragen zu beantworten. Friends of Science war eine der ersten und erfolgreichsten Gruppen. In jüngerer Zeit war ich in der australischen Galileo Movement involviert unter Federführung von Malcolm Roberts.

Senator Roberts forderte die für Klimawandel verantwortliche CSIRO auf, empirische Beweise dafür vorzulegen, dass menschliches CO2 eine Erwärmung oder Klimawandel verursache. Sie lieferten einen Bericht, der diese Beweise nicht lieferte. Sie haben kurz den britischen Gelehrten Brian Cox angesprochen, der die NASA GISS-Temperaturgraphik herangezogen hatte. Das konnte von Steve Goddard leicht widerlegt werden, zeigte er doch, dass die Graphik ungeeignet modifizierte Daten zur Grundlage hatte, um die Erwärmung zu betonen. Es waren ,adjustierte‘ und keine realen Daten. Man kann auf einem YouTube-Video Goddards Bloßstellung aller ,Adjustierungen‘ der US-Daten seitens NOAA und NASA GISS zur Betonung der Erwärmung ansehen.

Heute habe ich zusammen mit Malcolm und Steve an einer Pressekonferenz vor dem australischen Parlament teilgenommen, um über dem CSIRO-Bericht zu sprechen und – wenn auch nur kurz – über den historischen Kontext des Betruges, der die Manipulation der Daten erforderlich machte, um diesen Betrug aufrecht zu erhalten.

Wenn man einen wissenschaftlichen Zusammenhang auf der Grundlage einer ungeprüften Hypothese erstellt, besteht das sehr reale Risiko, dass Beweise auftauchen, die dieser Hypothese widersprechen. Weil Maurice Strong die wissenschaftlichen Bürokraten in jedem nationalen Wetteramt dazu benutzte, das IPCC populär zu machen, präsentierten sie die falsche Story den Politikern, dass nämlich die globale Erwärmung oder später der Klimawandel infolge des menschlichen CO2-Beitrages eine unbestreitbare Tatsache sei. Sie befanden sich auf einem Laufband, auf dem sie ständig Daten entgegenwirken oder diese absichtlich verändern mussten, um ihre Story aufrecht zu erhalten. Sie waren gezwungen, sich an all der Korruption zu beteiligen oder diese zumindest zu billigen. Dank der Maßnahmen von Senator Roberts sind sie in Australien jetzt verpflichtet, die Beweise für ihre Behauptungen vorzulegen.

CSIRO erstellte einen Bericht, den Roberts und sein Team vollständig zerpflückten. All dies kann auf seiner australischen Senats-Website eingesehen werden. Sinn der Pressekonferenz war es, Medien und Öffentlichkeit auf den neuesten Stand dessen zu bringen, was vor sich ging. Auch wurde betont und erklärt, wie die CSIRO-Informationen als Grundlage herangezogen wird für alle politischen Maßnahmen der Regierung und der politischen Parteien, egal welcher politischen Farbe diese zuzuordnen sind.

Hoffentlich werden diese Maßnahmen und Ereignisse andere Politiker ermutigen, den größten Betrug der Geschichte anzusprechen und bloßzustellen. Ein Betrug, der zu einer schlimmen Politik führte, die Menschenleben gefordert und Billionen Dollar verschwendet hat.

Demnächst werde ich noch die Ehre haben, einen Vortrag auf der ersten jährlichen Bob-Carter-Konferenz zu Klima und Klimawandel in Brisbane zu halten. Wie vielen bekannt ist, war Bob ein effektiver und unermüdlicher Krieger für wissenschaftliche Genauigkeit und der Wahrheit über das globale Klima. Er hat große Risiken auf sich genommen und war von zwei Seiten schweren Angriffen ausgesetzt, nämlich den Befürwortern von AGW und von Leuten in seiner eigenen Disziplin.

Ich weiß nach vielen Stunden der Unterhaltung mit Bob, dass dieser stolz auf Senator Malcolm Roberts und seine Aktionen gewesen wäre und diese unterstützt hätte. Bob wurde niemals in von seinen Bemühungen abgeschreckt, die akkurate Wissenschaft der Öffentlichkeit und den Politikern vorzustellen, unabhängig vom Preis, den er zu zahlen hatte. Senator Roberts ist genauso bestimmt bei der Präsentation genauer Wissenschaft vor den Politikern, so dass Politik auf die geeignetste Weise auf die Grundlage realer Beweise gestellt werden kann. Ich habe den Verdacht, dass es viele bürokratische Wissenschaftler gibt, die die Gelegenheit willkommen heißen würden, ihrer Wissenschaft nachzugehen, ohne hinsichtlich ihrer politischen Nützlichkeit beeinflusst oder beurteilt zu werden. Diesem meinem Verdacht liegt zum Teil die Tatsache zugrunde, dass die CSIRO ein kleines Hintertürchen in ihren Report eingebaut hat, und zwar in Gestalt der Aussage, dass diese Arbeit nicht als Grundlage für Politik geeignet ist. Das befreit sie aber nicht von ihrem Scheitern, mit den Daten des BoM und von NASA GISS mit der angemessenen Sorgfalt umgegangen zu sein. Ebenso wird auch keine andere Agentur davon befreit, diese Daten ohne Nachfrage herangezogen zu haben. Falls Sie das tun, sind Sie genauso Teil des Problems und verantwortlich für die Schäden als deren Verursacher.

Link: https://wattsupwiththat.com/2016/11/07/the-battle-with-bureaucracies-the-main-promoters-of-the-global-warming-deception/

Übersetzt von Chris Frey EIKE




Ist das IPCC absichtlich blind bzgl. Wasserdampf, um einen wissenschaftlichen Aspekt für eine politische Agenda zu beweisen?

Im IPCC-Bericht 2007 wird erklärt, warum die anthropogene Erzeugung von Wasserdampf für dessen Arbeit unwichtig ist:

Wasserdampf ist das am meisten vorhandene und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge des atmosphärischen Wasserdampfes.

Man beachte die Schwammigkeit. Sie können „gering“ im direkten menschlichen Verhältnis oder sogar dessen tatsächliches Volumen nicht definieren. Sie können es nicht einmal vergleichen mit der natürlichen Variabilität der Gesamtmenge des atmosphärischen Wasserdampfes. In einem Beitrag der NOAA aus dem Jahr 2002 heißt es:

Die Gesamtmenge des Wasserdampfes in der Atmosphäre beträgt etwa 13 X 10↑15 kg.

Was heißt „etwa“?. Die natürliche Variation des Gesamt-WV-Gehaltes in der Atmosphäre ist im Vergleich zu allen anderen Gasen und vor allem im Vergleich zu anderen Treibhausgasen die weitaus größte. Der Gehalt variiert zwischen fast Null in Polargebieten bis zu vier Prozent in den Tropen. Er ist auch extrem schwierig zu messen. Ist eine WV-Variation von zwei Prozent gleich der Auswirkungen anthropogen erzeugten CO2? Historisch begannen die einzigen bedeutsamen Messungen mit den Mikrowellen-Messungen mittels Satelliten, mit denen sich der absolute Gehalt in einer Luftsäule bestimmen lässt.

Interessanterweise scheint eine im Jahre 2007, also zwei Jahre vor Klimagate, erschienene Studie mit dem Titel „Identification of human-induced changes in atmospheric moisture content” [etwa: „Erkennung vom Menschen verursachter Änderungen des atmosphärischen Feuchtegehaltes“] diese Art von Messung zu behandeln. Im Artikel erscheint wiederholt die berüchtigte Phrase von Ben Santer, die er als Leitautor dem Kapitel 8 des IPCC-Berichtes 1995 hinzufügte, als er Teile des Textes seines Komitees umschrieb. Der beschlossene Satz lautete:

Während einige der hier diskutierten Grundlagen die Entdeckung eines bedeutenden Klimawandels kolportieren, hat bis heute keine einzige Studie den gesamten oder den teilweisen Klimawandel anthropogenen Ursachen zugeordnet.

Santer machte daraus:

Wenn man sie im Zusammenhang mit unserem physikalischen Verständnis des Klimasystems untersucht, zeigt die Gesamtheit der statistischen Beweise in Kapitel 8 jetzt einen erkennbaren menschlichen Einfluss (Hervorhebung von mir) auf das globale Klima“.

In dem Bericht 2007 wurde diese (fett gezeigte) Phrase wiederholt. Sie wurde wie von S. Fred Singer vorhergesagt von den Medien übernommen:

Fingerabdruck“-Studien, welche die Gründe des jüngsten Klimawandels ergründen sollen, involvieren statistische Vergleiche von modellierten und beobachteten Verteilungen des Klimawandels. Derartige Arbeiten hatten großen Einfluss, die Schlussfolgerungen des „erkennbaren menschlichen Einflusses“ in nationalen und internationalen wissenschaftlichen Zustandsbeschreibungen zu teilen.

Siehe Bild oben rechts

Die Schlussfolgerung des Artikels aus dem Jahr 2007 steht im Widerspruch zum jüngsten IPCC-Bericht ,Technical Summary of Working Group I‘:

Die Größenordnung der beobachteten globalen Änderung des troposphärischen Wasserdampfes von etwa 3,5% während der letzten 40 Jahre ist konsistent mit der gemessenen Temperaturänderung von etwa 0,5°C im gleichen Zeitraum, und die Relative Feuchtigkeit ist in etwa konstant geblieben. Die Änderung des Wasserdampfes kann menschlichen Einflüssen mit mittlerem Vertrauen zugeordnet werden. (Hervorhebung von mir: Die IPCC-Definition lautet “About 5 out of 10 chance”).

Wie stellt sich die natürliche Variation der globalen Änderung des troposphärischen Wasserdampfes im Vergleich mit den Auswirkungen von anthropogen erzeugtem CO2 oder dem Gesamt-CO2-Gehalt dar? Sie wissen es nicht. Sie können keine einzige dieser Fragen beantworten, weil geeignete Daten nicht existieren.

Die Größenordnung des Wasserdampf-Treibhauseffektes ist erheblich. Ken Gregory schreibt, dass eine Analyse der NASA-Satellitendaten zeigt, dass Wasserdampf, das wichtigste Treibhausgas, in der oberen Atmosphäre abgenommen hat, was zu einem um das 16-fache größeren Abkühlungseffekt geführt hat als der Erwärmungseffekt durch anthropogen erzeugte Treibhausgase während des Zeitraumes 1990 bis 2001.

Dies zeigt, dass die Frage hinsichtlich des Erwärmungseffektes von CO2 mehr als kompensiert wird durch etwas, das man als Verdunstungskühlung der oberen Atmosphäre durch Wasserdampf beschreiben kann.

Das IPCC entschloss sich, seine Behauptungen bzgl. CO2 zu schützen. Die diesbezüglichen Bemühungen wurden verstärkt, weil den Beweisen zufolge eine obere Grenze des Erwärmungseffektes von CO2 deren Hypothese einer anthropogen verursachten globalen Erwärmung entgegen stand.

Abbildung 1

Es gab unterschiedliche Ansichten über die Größe, aber die Differenzen waren gering. Eine der ersten Graphiken, die dies zeigten, erschien bei Junkscience im Jahre 2006 (Abbildung 1). Das IPCC beschloss, dass Wasserdampf die Erklärung war. Es ist genauso wie der häufige Gebrauch von Aerosolen, um Widersprüche zu verdecken (hier).

Sie folgten der Studie von Santer et al. 2007 mit einer weiteren Rechtfertigung. In einem Beitrag der NASA aus dem Jahr 2008 mit dem Titel „Water Vapor Confirmed a Major Player in Climate Change“ heißt es:

Wasserdampf ist bekanntlich das am meisten auf der Erde vorhandene Treibhausgas, aber die Größenordnung von dessen Beitrag zur globalen Erwärmung war Gegenstand von Diskussionen. Unter Verwendung jüngster NASA-Satellitendaten haben die Forscher den Wärme zurückhaltenden Effekt von Wasser in der Luft präziser als jemals zuvor geschätzt, was die Rolle des Gases als kritische Komponente des Klimawandels validierte.

Tatsächlich wurde gar nichts diskutiert. Der Artikel klingt wie eine vielversprechende Annäherung an die notwendigen Fragen zur globalen Erwärmung und die genaue Bestimmung der Rolle des Wasserdampfes dabei. Aber das ist nicht der Fall. Der Artikel bestätigt dies in einem schlecht informierten PR-Artikel:

Klimamodelle haben die Stärke der Wasserdampf-Rückkopplung abgeschätzt, aber bis jetzt war die Reihe der Wasserdampf-Daten nicht genug aufgearbeitet, um eine umfassende Ansicht darüber zu liefern, wie Wasserdampf auf Änderungen der Temperaturen auf der Erde reagiert. Ursache hierfür ist, dass die Instrumente am Boden und zuvor im Weltraum nicht den Wasserdampf in allen Höhen der Troposphäre messen konnten – also in der Schicht der Atmosphäre, die sich von der Erdoberfläche bis zu einer Höhe von etwa 14 km erstreckt.

Der Artikel versucht, die IPCC-Hypothese zu rechtfertigen, der zufolge ein positiver Rückkopplungs-Mechanismus existiert, der CO2 als ein Erwärmungs-Artefakt effektiver macht als Wasserdampf.

Dies führte zu der andauernden Debatte über die Klimasensitivität, deren Schätzungen abgenommen haben (Abbildung 2)

Dies lenkt von der Frage ab, wie stark eine Variation des atmosphärischen Wasserdampfes die globalen Temperaturen beeinflusst und wie dies im Vergleich zum CO2-Effekt aussieht. Das ist kritisch, wie das IPCC erklärt:

Die im Wasserdampf enthaltene latente Wärme ist kritisch für die Steuerung der Zirkulation der Atmosphäre in Größenordnungen, die von individuellen Gewittern bis zur globalen Zirkulation der Atmosphäre reichen.

Man erinnere sich, dass wegen der Abstände der Gitterpunkte die IPCC-Computermodelle die etwa 10.000 Gewitter zu jedem Zeitpunkt nicht erfassen können. Sie können nicht einmal den Stratocumulus in Abbildung 4 erfassen, der Wärme transferiert.

Abbildung 3 zeigt die Sensitivität von Wasserdampf relativ zur Temperatur, wobei sich Wolken bilden durch Verdunstung und Kondensation über Wäldern, aber nicht über den relativ kühleren Flüssen.

Aber diese Art vager, gehaltloser Behauptungen entwerten die IPCC-Berichte und sorgen dafür, dass ihnen Logik und gesunder Menschenverstand fehlen. Eine kurze Analyse offenbart die Unlogik ihrer Behauptungen. Im jüngsten Synthesebericht Summary for Policymakers (2014) heißt es:

Ein menschlicher Einfluss auf das Klimasystem ist eindeutig, und jüngste anthropogene Emissionen von Treibhausgasen sind die höchsten jemals. Jüngere Klimaänderungen hatten weit verbreitete Auswirkungen auf menschliche und natürliche Systeme.

Die höchsten jemals? Das hängt davon ab, wie man ,jemals‘ definiert. Jeder Klimawandel hatte weit verbreitete Auswirkungen, nicht nur der jüngste.

Die Erwärmung des Klimasystems ist eindeutig, und seit den fünfziger Jahren sind viele der beobachteten Änderungen über Jahrzehnte bis zu Jahrtausenden beispiellos. Die Atmosphäre und die Ozeane haben sich erwärmt, die Menge an Schnee und Eis hat sich verringert, und der Meeresspiegel ist gestiegen.

Dies ist eindeutig falsch [also eine glatte Lüge! Anm. d. Übers.]. Die beobachteten Änderungen sind keineswegs beispiellos.

Anthropogene Treibhausgas-Emissionen haben seit der vorindustriellen Ära zugenommen, hauptsächlich infolge Wirtschafts- und Bevölkerungswachstum. Sie sind jetzt höher denn je.

Es gibt keinerlei Beweise zur Stützung dieser Behauptungen. Außerdem ist die Zunahme eine falsche Zunahme, weil die Treiber „Wirtschafts- und Bevölkerungswachstum“ vom IPCC kreiert worden waren mit seinen Representative Concentration Pathways (RCP). Die physikalischen Daten existieren nicht oder haben eine große Fehler-Bandbreite, was derartige Statements unhaltbar macht. Dies zeigen andere Absätze der IPCC-Berichte, die kaum jemand liest.

In einem Abschnitt behauptet das IPCC, dass infolge menschlicher Aktivitäten die Änderung nach 1950 erwiesen ist. In einem anderen Abschnitt wird erwähnt, dass es vor 1950 praktisch keine Daten gibt. Die Unzulänglichkeit der Daten bzgl. Wasserdampf allein zeigt schon, dass diese Behauptung falsch ist.

Zum Beispiel heißt es in der Technical Summary of Working Group I (Hervorhebung von mir):

Das Vertrauen in global gemittelte Änderungen des Niederschlags über Landmassen ist vor 1951 gering (etwa 2 zu 10) und danach mäßig infolge unzureichender Daten, vor allem in der ersten Hälfte der Zeitreihe.

Substantielle Unklarheiten und damit geringes Vertrauen verbleiben bei der Beobachtung der Variabilität von Wolken sowie deren Trends im globalen Maßstab.

Die räumliche Verteilung der Trends des Salzgehaltes, der mittlere Salzgehalt und die mittlere Verteilung von Verdunstung minus Niederschlag sind alle ähnlich. Diese Ähnlichkeiten sind ein indirekter Beweis, dass sich die Verteilung von Verdunstung minus Niederschlag über den Ozeanen seit den fünfziger Jahren verstärkt hat (mittleres Vertrauen). Unsicherheiten bei den derzeit verfügbaren Flüssen an der Oberfläche verhindern, dass die Fluss-Produkte zuverlässig sind, mit deren Hilfe man Trends auffinden will bei der regionalen oder globalen Verteilung von Verdunstung minus Niederschlag über den Ozeanen in der gleichen zeitlichen Größenordnung wie die Änderungen des Salzgehaltes seit den fünfziger Jahren.

Die jüngste und umfassendste Analyse der Abflussmengen von Füssen stützt nicht die Schlussfolgerung aus dem AR 4 des IPCC, dass die globale Abflussmenge während des 20. Jahrhunderts zugenommen hat. Neue Ergebnisse zeigen außerdem, dass die AR 4-Schlussfolgerungen hinsichtlich global zunehmender Trends von Dürren seit den siebziger Jahren nicht mehr gestützt werden.

Es besteht nur geringes Vertrauen in einen global beobachteten Trend von Dürre oder Trockenheit (fehlender Regen). Dies ist dem Fehlen direkter Messungen geschuldet sowie den Abhängigkeiten von abgeleiteten Trends aus ausgesuchten Indizes und geographischer Inkonsistenzen in den Trends.

In vielen durch einen hohen atmosphärischen CO2-Gehalt charakterisierten Perioden besteht ein mittleres Vertrauen (50%), dass die globale mittlere Temperatur signifikant über dem vorindustriellen Niveau lag.

Anthropogene Emissionen haben die Änderungen gut durchmischter Treibhausgas-Konzentrationen (WMGHG) während der industriellen Ära gesteuert. Da historische WMGHG-Konzentrationen seit der präindustriellen Ära auf der Grundlage direkter Messungen ebenso bekannt sind wie aus Eisbohrkernen, und da man auch die Strahlungseigenschaften von WMGHG kennt, liefert die Berechnung der Relativen Feuchtigkeit aus Änderungen der Konzentration belastbare Werte.

Das Problem ist, dass CO2 nicht so gut durchmischt [well-mixed] ist wie die OCO2-Satellitendaten zeigen.

Bevor man also sagt „es ist die Sonne, Dummkopf!“ kann man sagen „es ist der Wasserdampf, Dummkopf!“.

Zwei Kommentare zeigen den Hintergrund der Tunnelvision des IPCC bzgl. Wasserdampf:

Fakten hören nicht auf zu existieren, nur weil man sie ignoriert. Aldous Huxley (1894-1963).

Einige wenige Beobachtungen und viel Gerede darum führen zu Fehlern; viele Beobachtungen und wenig Gerede zur Wahrheit. – Alexis Carrel (Chirurg, Biologe, 1873-1944).

Link: https://wattsupwiththat.com/2016/07/16/does-ipcc-practice-willful-blindness-of-water-vapor-to-prove-a-scientific-point-for-a-political-agenda/

Übersetzt von Chris Frey EIKE




Das verwirrende Netz vom Globale-Erwärmung-Aktivismus

[*Übersetzung etwa: „Oh, was für ein verwirrendes Netz wir weben, wenn wir zum ersten Mal betrügen“]

Ihr Problem war die allumfassende Notwendigkeit der wissenschaftlichen Rechtfertigung, weil Wissenschaft, falls sie ordnungsgemäß durchgeführt wird, inhärent Kontrolle ausschließt. Ordnungsgemäß heißt, dass man dorthin geht, wohin einen die Wissenschaft bringt, indem man eine Hypothese widerlegt. Bevor jedoch die Planer zur Wissenschaft vordringen konnten, mussten sie erst einmal den politischen Rahmen etablieren.

Der Rahmen wurde um die Notwendigkeit herum errichtet, die Hypothese der anthropogenen globalen Erwärmung (AGW) zu beweisen dergestalt, dass die globale Erwärmung unvermeidlich sei. Die Hypothesen waren:

● CO2 ist ein Treibhausgas, dass die Rate des Wärmeverlustes der Atmosphäre verringert.

● Eine Zunahme des CO2-Gehaltes würde einen globalen Temperaturanstieg zur Folge haben.

● Der atmosphärische CO2-Gehalt wird infolge menschlicher Aktivitäten zunehmen.

● Die industrielle Entwicklung mittels Verbrennen fossiler Treibstoffe war die Hauptquelle der anthropogenen CO2-Erzeugung.

● Die industrielle Entwicklung wird sich verstärken.

● Der Temperaturanstieg ist in einer ,Business-As-Usual‘-Welt unvermeidlich.

Die Politik

Maurice Strong orchestrierte die meisten der Erstmaßnahmen, weil er wusste, wie man die bürokratischen Strukturen aufbauen musste, die für die Kontrolle von Politik und Wissenschaft erforderlich waren. Neil Hrab schrieb im Jahre 2001, wie Strong das erreicht hatte:

Video des BBC Interview mit Maurice Strong von 1972 in dem er mit klaren Worten den Beginn der Umwelt- und Klimamaßnahmen skizziert sowie die Notwendigkeit derselben begründet. Obwohl in Englisch, lohnt der Aufwand sich das Interview in voller Länge anzuhören. Mit Dank an Spürnase Jürgen Uhlemann

Hauptsächlich mittels seiner profunden Erfahrungen beim Aufbau von vernetzten Strukturen. Sein ganzes Leben lang vermischte er den Erfolg seiner Karriere im privaten Sektor mit Arbeitsperioden in der Regierung und in internationalen Vereinigungen…

Er begann mit der UN-Konferenz 1972 in Stockholm [the Human Environment Conference]. Hrab erklärte:

Die drei spezifischen Ziele, die vom Generalsekretär der Konferenz Maurice F. Strong bei der ersten Plenarsitzung ausgegeben worden waren, wurden alle von der Konferenz durchgewunken. Die drei Ziele waren: eine Deklaration zur menschlichen Umwelt, ein Aktionsplan und eine organisatorische Struktur, die von einem Welt-Umweltfonds gestützt werden würde“.

Ausgehend von dort kreierte Strong das UN-Umweltprogramm (United Nations Environment Program UNEP) mit zwei Hauptströmungen, die jeweils den politischen bzw. den wissenschaftlichen Klüngel bediente (Abbildung oben rechts!)

Bild oben rechts: die Gesamt-Ziele der Agenda 21 (Details dazu hier) sind maskiert unter Plattitüden und der moralisch unantastbaren Notwendigkeit, den Planeten zu retten, aber die Realität ist, die Umwelt allgemein als Grundlage für eine politische Agenda heranzuziehen. Elaine Dewar erklärt in ihrem Buch Cloak of Green:

Strong gebrauchte die UN als Plattform, um das Volk von einer globalen Umweltkrise und der Globalen Herrschafts-Agenda zu überzeugen.

Es ist Bestandteil der Bewegung hin zur totalen Regierungskontrolle, gegen die die Menschen in UK beim Brexit gestimmt haben.

Auf der politischen Ebene erkannten sie die Notwendigkeit einer umfassenden Politik, auf die sie Einfluss nehmen können. Zum Beispiel ist das Vorsorgeprinzip die Standard-Floskel aller Umweltaktivisten – wir sollten auf jeden Fall etwas tun, egal was und mit welchen Folgen. Dies ist in der Agenda 21 als Prinzip 15 festgeschrieben:

Um die Umwelt zu schützen, sollte das Vorsorgeprinzip von allen Staaten je nach ihren Möglichkeiten angewendet werden. Wo es die Bedrohung ernster oder irreversibler Schäden gibt, sollte das Fehlen voller wissenschaftlicher Sicherheit bestimmt nicht als Grund angeführt werden, kosteneffektive Maßnahmen zu verschieben, um die Umweltschädigung zu verhindern.

Quelle: http://www.un.org/documents/ga/conf151/aconf15126-1annex1.htm

Sie treffen alle Entscheidungen. Sie bestimmen…:

●… welche Staaten fähig sind.

●… wann eine Bedrohung ernst ist

●… wann eine Bedrohung irreversibel ist

●… was „volle wissenschaftliche Sicherheit“ ist

●… wann sie als Begründung für Maßnahmen herangezogen wird

●… wann sie als Begründung herangezogen wird, nichts zu tun.

Wissenschaft

Das nächste politische Ziel war es, die Wissenschaft auf das CO2 zu konzentrieren und zu begrenzen. Dies erreichte man mittels Begrenzung des wissenschaftlichen Zieles durch eine Definition von Klimawandel, den die UNFCCC erzeugt hatte. Mit dieser Definition wurden fast alle natürlichen Ursachen von Klima und Klimawandel eliminiert, um ein vorbestimmtes Ergebnis zu erhalten:

…eine Änderung des Klimas, welche direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, welche die Zusammensetzung der globalen Atmosphäre verändern und welche sich zu der natürlichen Klimavariabilität addiert, die über lange Zeiträume beobachtet worden ist“.

Diese Definition erlaubte es dem IPCC, 100 Prozent der so genannten Treibhausgase auf die 0,04 Prozent CO2 zu begrenzen.

Dass IPCC sagt den Menschen, dass sie keine Forschungen durchführen: man trage lediglich Fakten zusammen. Allerdings ist dies Bestandteil des Betruges an der Öffentlichkeit, weil es die Leute glauben macht, dass man alle Fakten untersucht und Forschung betreibt – warum sonst würde man Prophezeiungen abgeben. Stattdessen sammelt das IPCC jedoch nur einige bestimmte ausgewählte Fakten und füttert diese in ein Computermodell, welches so programmiert ist, dass es ein vorbestimmtes Ergebnis zeigt. Henri Poincaré sagte:

Wissenschaft wird errichtet aus Fakten, so wie ein Haus aus Mauersteinen errichtet wird. Eine Akkumulation von Fakten ist jedoch genauso wenig Wissenschaft wie ein Haufen Mauersteine“.

Man ist nicht dem Rat von Thomas Huxley gefolgt:

Man setze sich vor die Tatsachen wie ein kleines Kind; man gebe jede im Voraus gefasste Ansicht auf; man folge demütig dem, wohin und zu welchen Abgründen die Natur führt – oder man lernt nichts!“

Das IPCC sitzt vor den Fakten mit absolut vorbestimmten, nicht veränderbaren Ansichten, die durch die Definition von Klimawandel und der politischen Agenda festgesetzt werden. Das IPCC ist in Arbeitsgruppen aufgeteilt. Dabei erzeugt die Arbeitsgruppe 1 (WG1) die wissenschaftlichen Beweise, die zum vorbestimmten Ergebnis führen. Steve McIntyre wies darauf hin, dass die ,Hockeyschläger‘-Formel, die zur Erzeugung eines Paläoklimas erforderlich war, selbst dann einen ,Hockeyschläger‘ ergibt, wenn man zufällige Zahlenfolgen eingibt. Die Computermodelle sind der einzige Ort auf der ganzen Welt, wo ein CO2-Anstieg einen Temperaturanstieg verursacht.

Der ,Beweis‘ der WG1, dass eine Zunahme von menschlichem CO2 fast ohne jeden Zweifel einen Temperaturanstieg bewirkt, wurde zur einzigen Basis für Studien zu Auswirkung, Anpassung und Verwundbarkeit seitens der Arbeitsgruppe 2 (WG2). Auch hier gab es eine Vorgabe, ein vorbestimmtes Ergebnis zu erzeugen, das dann implantiert wurde. Man untersuchte ausschließlich die Kosten, aber nie die Vorteile. Die Britische Regierung gab den Stern-Bericht in Auftrag, der dazu gedacht war, die negativen Folgen herauszustellen und zu übertreiben. Das haben sie mit der Aussage getan, dass es keine Hoffnung gibt, wenn man nicht die gesamte Wissenschaft akzeptiert und sofort und extensiv zur Tat schreitet.

Die Ergebnisse der WG2 wurden zur Grundlage der Empfehlungen im Mitigation Report der Arbeitsgruppe 3 (WG3). Ottmar Edenhofer, Vize-Vorsitzender der WG3 von 2008 bis 2015 hat die wirkliche Objektive benannt:

Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. … Tatsächlich machen wir nichts anderes als den Wohlstand der Welt mittels Klimapolitik umzuverteilen“.

Und dies erforderte die ständige Konzentration auf das CO2.

Ökonomie

Die IPCC-Prophezeiungen waren von Anfang an, also seit dem 1. Zustandsbericht 1990, durchweg falsch. Dies brachte die Ziele des CO2 als Verantwortlichen rasch in Gefahr und machte eine anderes, kontrollierteres Verfahren erforderlich. Die Reaktion bestand darin, die Prophezeiungen nicht mehr auf der Grundlage von Klimavariablen, sondern ausschließlich auf Projektionen zu erstellen, bei denen CO2 im Mittelpunkt stand. Der Ökonom David Henderson erstellte die früheste und beste Analyse der IPCC-Ökonomie. Er erklärte:

Zunächst einmal basieren die Projektionen der globalen Erwärmung zum allergrößten Teil auf Projektionen der atmosphärischen CO2-Konzentration, die wiederum auf den Projektionen von CO2-Emissionen basierten, die sich aus dem SRES ergeben; und die Emissionszahlen selbst sind verbunden mit SRES-Projektionen des Welt-Outputs, des Weltenergieverbrauchs und der Kohlenstoff-Intensität verschiedener Energiequellen. In diesen letzten Projektionen stehen ökonomische Faktoren im Mittelpunkt.

Im Jahr 2003 veröffentlichte er zusammen mit Ian Castles einen Artikel mit der Überschrift Economics, Emissions Scenarios and the work of the IPCC. Darin schrieben sie:

Dass sich das IPCC bisher aus der Ökonomie herausgehalten und die Behandlung ökonomischer Dinge Anderen überlassen hat, ist ebenso überraschend wie unglücklich. In einem Artikel des Economist vom 15. Februar 2003, die unsere Kritik kommentierte, wurde angesprochen, dass in Bezug auf Klimawandel-Politik „gewaltige Summen auf dem Spiel stehen“. Und trotzdem ist die fragwürdige Behandlung ökonomischer Themen im 3. IPCC-Bericht, auf die wir als Außenstehende in diesem und in früheren Artikeln die Aufmerksamkeit gelenkt haben, von keinem einzigen Funktionär in keinem einzigen Finanz- oder Wirtschaftsminsiterium in keinem einzigen Land zur Kenntnis genommen worden.

Dieser Kommentar zeigt, dass das IPCC sehr wohl erkannt hatte, dass Wissenschaftler und Forscher außerhalb von Klimastudien Fragen hinsichtlich der Validität von dessen Arbeit gestellt haben. Es scheint, dass man die Ökonomen umgangen hatte, weil sie wussten, dass sie nicht die Ergebnisse erzeugen würden, die sie haben wollten. Dies ist eine Parallele zur Kritik des Wegman Reports hinsichtlich der Mitarbeit von Statistikern:

In klinischen Verfahren für Medikamente und Mittel, die für den menschlichen Gebrauch von der FDA genehmigt werden, erwartet man die Begutachtung und Beratung von Statistikern. Tatsächlich ist es Standardpraxis, Statistiker in das Verfahren zum Antrag auf Zulassung einzubinden. Wir beurteilen es als gute Politik, wenn die öffentliche Gesundheit und auch, wenn substantielle Gelder involviert sind, beispielsweise wenn große politische Entscheidungen anstehen, die aufgrund statistischer Überlegungen getroffen werden. In diesen Fällen sollte die Evaluierung durch Statistiker zum Standard werden. Diese Evaluierungs-Phase sollte für alle Anträge vorgeschrieben und angemessen finanziert werden.

Das IPCC hat entschieden, dass SRES problematisch war, aber nur, weil es von Ökonomen herausgestellt wurde. Man akzeptierte das Problem und brachte einen Ersatz ins Spiel mit der Bezeichnung Representative Concentration Pathways (RCPs). Damit hat sich gar nichts geändert, weil damit das garantiert wurde, was man haben wollte, nämlich dass die menschliche CO2-Produktion zunehmen werde. Ein kürzlich erschienener Artikel von David Middleton mit dem Titel Part Deux: The stuff nightmares are made from bezieht sich auch auf frühere Studien von Judith Curry und Anderen über die Oberflächlichkeit des gesamten Projektes. Ein Kommentator erklärte:

Diese RCPs werden von Politikern für Entscheidungen herangezogen, welche Maßnahmen erforderlich sind, um ein sicheres Klima zu erhalten für uns und für zukünftige Generationen. Die IPCC-Informationen, die sie verwenden, sind nichts weiter als Science Fiction“.

Jedes Jahr nimmt die Menge des anthropogen erzeugten CO2 zu, und während das stimmen könnte, wird die Menge vom IPCC kontrolliert. Sie fabulieren ihre jährlichen Schätzungen des anthropogenen CO2 mittels eigens erdachter Richtlinien. Sie beschreiben ihre eigens erdachten Richtlinien einschließlich der menschlichen CO2-Produktion folgendermaßen:

Wie kommt das IPCC zu seinen selbst erdachten Richtlinien?

Unter Anwendung der IPCC-Methoden entwerfen offiziell benannte Experten aus der ganzen Welt die Berichte, die danach ausführlich zweimal begutachtet werden, bevor sie dem IPCC zur Genehmigung vorgelegt werden. Dieses Verfahren stellt sicher, dass die größtmögliche Bandbreite aller Standpunkte Eingang in die Dokumente findet. Details siehe hier.

Alles, was hier sicher gestellt wird ist, dass das IPCC den Prozess von der Benennung der die Berichte entwerfenden Experten bis zur letztendlichen Genehmigung kontrolliert, was in den Berichten steht.

Schlussbericht

Die abschließende Kontrolle sorgt dann dafür, dass man sich in der ,Summary for Policymakers SPM‘ fast ausschließlich auf das CO2 konzentriert. Hierbei handelt es sich um eine Kurzversion des Synthese-Reports für Medien und Politiker.

Die SPM wird von einer separaten Gruppe einiger weniger sorgfältig ausgesuchter ,Experten‘ geschrieben, um ein Narrativ zu erzeugen, das durch die wissenschaftliche Analyse im WG1 nicht gestützt wird. Auch hier warnt der Wegman-Report vor diesem Teil des Problems:

Vor allem, wenn massive öffentliche Gelder und Menschenleben auf dem Spiel stehen, sollte akademische Arbeit ein noch intensiveres Niveau von Überprüfung und Begutachtung aufweisen. Vor allem sollte darauf geachtet werden, dass Autoren der mit der Politik in Verbindung stehenden Dokumente wie dem IPCC-Bericht ,Klimawandel 2001: Die wissenschaftliche Grundlage‘ nicht die gleichen Personen sein sollten, welche die akademischen Studien konstruiert haben.

Dies schließt all jene ein, die die akademischen Studien geschrieben haben, aber auch diejenigen, die den Schlussbericht erstellt haben einschließlich der SPM. David Wojick schrieb dazu:

Ins Auge stechende Auslassungen stechen nur Experten ins Auge. Daher werden die „policymakers“ – sowie auch Presse und Öffentlichkeit – mit der Lektüre der SPM nicht erkennen, dass man ihnen nur die eine Seite der Medaille präsentiert. Aber die Wissenschaftler, die die SPM entworfen haben, kennen die Wahrheit, wie die mitunter kunstvolle Art und Weise enthüllt, mit der sie genau diese Wahrheit verborgen halten.

Was systematisch in den SPM außen vor bleibt, sind genau die Unsicherheiten und Gegenbeweise, die der Theorie der menschlichen Interferenz widersprechen. Anstatt diese Einwände zu berücksichtigen, befasst sich die Summary ausschließlich mit denjenigen Ergebnissen die ihre Sache stützen. Kurz gesagt, dies ist Propaganda, keine Abschätzung.

Zusammenfassung

Die Kontrolle der gesamten Prozedur bzgl. CO2 vom Anfang bis zum Ende gestattete es dem IPCC, zu den Schlussfolgerungen zu kommen, die sie für den Zustandsbericht 5 (AR5) haben wollten:

Der menschliche Einfluss auf das Klimasystem ist eindeutig, und jüngste anthropogene Emissionen von Treibhausgasen sind die höchsten in der Geschichte. Jüngste Klimaänderungen haben verbreitete Auswirkungen auf die Menschen und die Natur gehabt.

Dies klingt unmissverständlich, aber es handelt sich um die aalglatten, sorgfältig gewählten Worte eines Schönredners. Der menschliche Einfluss ist nur eindeutig, weil das IPCC das so gemacht hat. Jüngste Klimaänderungen hatten verbreitete Auswirkungen auf Mensch und Natur, aber das war schon immer so. Man kläre mich auf, was ich hier übersehe!

Die Erwärmung des Klimas ist eindeutig, und seit den fünfziger Jahren sind einige der beobachteten Änderungen über Jahrzehnte und Jahrtausende beispiellos. Die Atmosphäre und die Ozeane haben sich erwärmt, die Menge an Schnee und Eis hat sich verringert, und der Meeresspiegel ist gestiegen.

Niemand hat hat bestritten, dass sich das Klimasystem seit den fünfziger Jahren erwärmt hat, aber dies ist nur ein Teil der Erwärmung, seit die Erde etwa ab 1680 aus der Kleinen Eiszeit gekommen ist. Aber das ist nicht das Problem, weil die Erzeuger dieser kontrollierten Pseudo-Wissenschaft wissen, dass der weit überwiegende Teil der Öffentlichkeit nichts weiß. Sie webten ein verwirrendes Netz, welches ihre Betrügereien auf ein höheres und lächerlicheres Niveau hebt. An einem bestimmten Punkt wurde eine Mehrheit aufmerksam, was zusammen mit dem Gefühl, das etwas nicht stimmte, zu Reaktionen führte. Die anthropogene globale Erwärmung war angeblich konstruiert worden, um den Planeten zu retten, ist aber nur Teil des Betrugs, um die Globalisierung nach den Plänen von Maurice Strong voranzutreiben. Eine Mehrheit der britischen Bevölkerung hat nicht notwendigerweise die Globalisierung verstanden, wohl aber erkannt, dass sie die Kontrolle über ihr Leben verlieren und mit Nein gestimmt.

Link: https://wattsupwiththat.com/2016/06/26/the-tangled-web-of-global-warming-activism/

Übersetzt von Chris Frey EIKE




Der Hype um AGW bemühte Wetter-Mythen

Bild rechts: Ein Bericht von Daniel Defoe aus dem Jahr 1703! (Siehe unten im Beitrag)

Ständig wird die Verwirrung in den Klimadebatten neu geschürt, weil die Befürworter permanent je nach Belieben die Begriffe ,natürlich‘ und ,normal‘ verwenden. Dies ist eine Reflektion der philosophischen und intellektuellen Verwirrung und Widersprüche, die aus der Irreführung resultieren. Möglicherweise wird auch die im Hintergrund liegende Anti-Humanität vieler Extrem-Umweltaktivisten reflektiert. So heißt es beispielsweise im Global Warming: The Greenpeace Report aus dem Jahre 1990, herausgegeben von Jeremy Leggett, dass CO2 der Atmosphäre auf natürliche und unnatürliche Weise hinzugefügt wird. Mit ,unnatürlich‘ ist der anthropogene Anteil gemeint. Ist es da vernünftig anzunehmen, dass – falls das, was wir als Tiere tun, unnatürlich ist – wir selbst unnatürlich sind? Goethe hat dieses Dilemma auf den Punkt gebracht mit seinen Worten:

Das Unnatürliche – das ist auch natürlich“.

Ironischerweise hat der Markt über den Report von Legget geurteilt. Eine Paperback-Ausgabe ist erhältlich für einen Cent (1 Cent!) unter der Voraussetzung, dass man für die Lieferung 3,99 Dollar zahlt. Zum Vergleich: Eine zweite Ausgabe einer wirklichen wissenschaftlichen Arbeit, nämlich The Little Ice Age von Jean Grove, Erstveröffentlichung im Jahre 1988, ist in Hardcover erhältlich für 657,82 Dollar – Lieferung frei Haus.

Man kombiniere diese Verwirrungen des Natürlichen und des Unnatürlichen, des Normalen und des Anomalen mit falscher Wissenschaft – und man erzeugt Mythen wie etwa die Behauptung, dass mit der globalen Erwärmung Stürme* in Zukunft häufiger und heftiger werden.

[*Der englische/amerikanische Terminus ,storm‘ ist viel umfassender als die direkte Übersetzung ,Sturm‘. Als ,Storm‘ bezeichnet man im angelsächsischen Sprachraum alle signifikanten Wettervorgänge, darunter natürlich auch Sturm, aber auch starken Regen/Schnee usw. ohne Sturmwinde. Ein ,thunderstorm‘ ist einfach ein Gewitter, egal ob dabei Sturm auftritt oder nicht. – Der Einfachheit halber bleibe ich hier bei der Übersetzung ,Sturm‘. Anm. d. Übers.]

Der häufigste Sturmtypus, welcher möglicherweise für mehr Todesfälle mit der Zeit verantwortlich ist als Hurrikane und andere Wetterextreme sind Tiefdruckgebiete der Mittleren Breiten. Abbildung 1 zeigt eine [schematisierte] Karte eines solchen Tiefdruckgebietes sowie die Art und Weise, mit der sich kalt- und Warmfronten bilden:

Abbildung 1

Die Tiefdruckgebiete der Mittleren Breiten bilden sich an der Polarfront und verlagern sich meist von West nach Ost. Diesen Prozess nennt man Zyklogenese.

Abbildung 2

Das kritische Phänomen ist nicht die Kaltluft als solche, sondern das, was sie bei der Verlagerung anrichtet. Dass das IPCC für dessen politische Agenda den Schwerpunkt auf die Warmluft legt bedeutet, dass die meisten Menschen nicht wissen, dass es die Kaltluft ist, die vorgibt, was in der Atmosphäre passiert. Bei der weiteren Verstärkung des Tiefdruckgebietes dringt die Kaltluft mit der Kaltfront an ihrer Vorderseite immer weiter vor. Dieses Vorankommen macht die vorgelagerte feuchtwarme Luft instabil, was das Potential für Tornados erzeugt. Dringt auf der Vorderseite des Tiefdruckgebietes die Warmluft vor, bildet sich die Warmfront.

Das IPCC prophezeit, dass die Tiefdruckgebiete der Mittleren Breiten im Zuge der globalen Erwärmung an Häufigkeit und Stärke zunehmen. Das Problem dabei: Das ist wissenschaftlich falsch [was man jedes Jahr nachvollziehen kann, wenn man sich vor Augen führt, wann diese Tiefdruckgebiete am stärksten sind: im Winter nämlich. Im Sommer gibt es sie {fast} überhaupt nicht! Anm. v. Hans-Dieter Schmidt]. Dies bedeutet automatisch, dass man dort inkompetent ist oder absichtlich betrügen will: In jedem Falle handelt es sich um verwerfliches Verhalten.

Abbildung 3

Abbildung 3 ist eine einfache schematische Darstellung der zwei Hauptluftmassen, die die Atmosphäre teilen. Auf der Südhemisphäre ist es fast genauso, außer dass die wesentlichen Vorgänge auf einer anderen Breite und infolge des Verhältnisses zwischen Ozean und Festland intensiver ablaufen. Die Polarfront fällt zusammen mit der Linie der Null-Strahlungsbilanz [Zero Energy Balance (ZEB)], die Abbildung 4 zeigt:

Abbildung 4

Abbildung 4 zeigt die mittlere Position der ZEB und damit die Polarfront. Abbildung 5 zeigt die mittlere Lage im Sommer bzw. im Winter:

Abbildung 5

Die Zugbahnen der Stürme variieren mit der Jahreszeit, folgt doch die ZEB/Polarfront der saisonalen Verschiebung. Ein zweiter, die Zugbahnen der Stürme beeinflussender Faktor sind die Rossby-Wellen, die die Polarfront mäandrieren lassen. [Wer zu Rossby-Wellen Näheres wissen möchte, der klicke hier. Da gibt es eine gute und sehr anschauliche Erklärung. Anm. v. Hans-Dieter Schmidt]. Dabei gibt es zwei grundlegende Strömungsmuster: zonale (Abbildung 6) und meridionale (Abbildung 7) Strömung:

Abbildungen 6 und 7

Die Stärke der zirkumpolaren Strömung (Jet Stream) und die Intensität der sich in ihrem Bereich entwickelnden Stürme sind eine Funktion des Temperaturgegensatzes über die Polarfront, bekannt unter der Bezeichnung ,zonaler Grundstrom‘. Er wird definiert als:

Eine Maßzahl der Stärke der Westwinde in den Mittleren Breiten, dargestellt als die horizontale Luftdruck-Differenz zwischen 35°N und 55°N; oder als der korrespondierende geostrophische Wind.

Die Druckdifferenz ist also eine Funktion des Temperaturgegensatzes – je größer der Temperaturgegensatz, umso größer die Druckdifferenz und umso stärker die Strömung und das Potential für stärkere Stürme. Dem IPCC zufolge soll die Erwärmung in polaren Luftmassen stärker zu Buche schlagen als in tropischen Luftmassen. Als Folge hiervon müsste sich der zonale Grundstrom abschwächen und damit auch das Potential für Zyklonen der Gemäßigten Breiten.

Jedermann weiß, dass eine kaputte Uhr zweimal pro Tag die genaue Zeit anzeigt. Genauso ist die Lage hinsichtlich der Behauptungen der AGW-Befürworter über zunehmende Tiefdrucktätigkeit, zu der es kommen wird, aber nicht wegen Erwärmung, sondern wegen Abkühlung. Die gegenwärtige Lage ist problematisch, weil die Erde im Begriff ist sich abzukühlen, wie all die Beweise der sich ändernden Sonnenaktivität zeigen. Historisch gut belegt ist der Umstand, dass die Sturmaktivität bei Abkühlung zunimmt. Lamb identifizierte die Perioden signifikanter Abkühlung aus dem allgemeinen Abkühlungstrend vom Höhepunkt der Mittelalterlichen Warmzeit MWP zum Tiefpunkt der Kleinen Eiszeit LIA. Er machte diesbezüglich neun markante Phasen aus, was er auf Seite 452 in seinem Werk Climate: Present, Past, and Future beschreibt. In Kapitel sechs schreibt er:

Es kam zu zunehmender Stärke von Sturmereignissen und damit einher gehend zu Sturmfluten und Katastrophen durch Treibsand in Breiten von 50°N bis 60°N, vor allem im 13. Jahrhundert; sowie zwischen 1400 und 1450 sowie zwischen 1530 und 1700 (darunter fallen die großen Nordsee-Stürme von 1530, 1570, 1634 und 1694, der Hebriden-Sturm 1697 und der von Daniel Defoe beschriebene Sturm, der im Dezember 1703 über Südengland hinweg fegte). Es gibt Beweise, dass all diese Stürme stärker waren als in anderen Zeiten außer zwischen 1212 und 1362.

Defoe reiste durch England und untersuchte die Natur und der Stärke des Sturmes, den Verlust von Menschenleben und das Ausmaß der Schäden. Er veröffentlichte seine Ergebnisse (Abbildung 8):

Abbildung 8

Speziell die Kältewelle, die die ZEB/Polarfront zu jener Zeit weit nach Süden in Richtung des Äquators verschob, verursachte erhebliche Schwierigkeiten. Im Jahre 1695 veröffentlichte Reverend John Shower eine Predigt mit dem Titel [übersetzt] Winter-Meditationen: Eine Predigt über Frost und Schnee und Winde“. Die Kältewelle erreichte ihren Höhepunkt in dem außerordentlich kalten Jahr 1709. In den Philosophical Transactions der Royal Society wurde berichtet:

Die Menschen in ganz Europa wachten am 6. Januar auf und sahen, dass die Temperatur stark gefallen war. Einer dreiwöchigen Frostperiode folgte ein kurzes Tauwetter – bevor die Temperatur erneut stark fiel und auf dem niedrigen Niveau verharrte. Von Skandinavien im Norden bis nach Italien im Süden sowie von Russland im Osten und der Westküste von Frankreich verwandelte sich alles zu Eis. Das Meer fror zu, Seen und Flüsse froren zu, und die Erde gefror bis zu einer Tiefe von einem Meter oder sogar noch tiefer. Das Vieh starb vor Kälte in seinen Ställen, Bäume platzten und Reisende erfroren auf den Straßen. Es war der kälteste Winter seit 500 Jahren.

Man braucht kleinere Mythen, um einen großen Mythos zu stützen. Genau das ist die Historie des Betruges der globalen Erwärmung. Einstein hat einmal für die Wissenschaft gesagt:

Keine noch so große Anzahl von Experimenten kann beweisen, dass ich recht habe; aber ein einziges Experiment reicht aus für den Beweis, dass ich total unrecht habe.

Das Problem ist, dass wenn man es mit Mythen zu tun hat genau das Gegenteil der Fall ist:

Keine noch so große Anzahl von Experimenten kann jemals beweisen, dass ich unrecht habe; aber ein einziges Experiment reicht aus für den Beweis, dass ich recht habe.

Die Tatsache, dass Stürme im Zuge einer globalen Abkühlung häufiger werden, wird höchstwahrscheinlich den Mythos befeuern, dass globale Erwärmung dafür die Ursache ist. Traurigerweise braucht man nur einen vermeintlich fundierten Mythos, um die gesamte Mythologie am Leben zu halten.

Link: https://wattsupwiththat.com/2016/06/12/the-hyping-of-anthropogenic-global-warming-agw-required-weather-myths/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei seinem Freund Dipl.-Met. Hans-Dieter Schmidt für die fachliche Überarbeitung dieses Beitrags.




Umweltaktivismus der Linken ist religiöser Sozialismus

Im Gegensatz zu dem, was die meisten Leute glauben, wird Umweltaktivismus als politische Agenda nur durch extrem wohlhabende und mächtige Linksgruppen getrieben, die ihr Geld mit der Ausbeutung der Umwelt machten. Die Psychologie dahinter ist nicht Thema dieses Beitrags, aber man betrachte die Scheinheiligkeit von George Soros, Maurice Strong, Bill Gates, der Rockefellers, Leonardo DiCaprio, Ted Turner und vielen anderen. Die Verwirrung ist ähnlich wie in Bezug auf eine andere Person, von dem die meisten Menschen glauben, dass er ein Rechtsaußen-Faschist war, der aber hinsichtlich Umweltaktivismus ein Sozialist war – Adolf Hitler.

Die meisten dieser Leute agierten mittels ihrer privilegierten Gruppe, genannt der Club of Rome. Das Gründungstreffen dieses Clubs fand im Jahre 1968 auf dem Anwesen von David Rockefeller in Bellagio, Italien, statt. In ihrem im Jahre 1994 erschienenen Buch „The First Global Revolution“ schreiben sie:

Der gemeinsame Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen Feind, der uns vereinigen kann, kamen wir auf den Gedanken, dass Verschmutzung, die Bedrohung durch die globale Erwärmung, Wasserknappheit, Hunger und dergleichen dafür gute Dienste leisten können. Alle diese Gefahren sind menschlichen Eingriffen geschuldet, und nur mit verändertem Verhalten können sie überwunden werden. Der wirkliche Feind ist also die Menschheit selbst“.

[Es fällt mir wirklich schwer, einen solchen Quatsch zu übersetzen! Anm. d. Übers.]

Sie behaupten, dass die Liste der Feinde erschaffen worden ist, um die Menschen zu vereinen. Tatsächlich besteht die Notwendigkeit, das zu überwinden, was sie als die Teilung in Nationalstaaten ansehen, und die Rechtfertigung einer Eine-Welt-Regierung oder globaler Sozialismus. Die globale Erwärmung ist ein globales Problem, das nationale Regierungen für sich allein nicht lösen können.

Schließlich einigten sie sich auf die globale Erwärmung als das Umweltthema, das ihrem Ziel am dienlichsten ist. Natürlich ist dieser Plan nur der Anfang. Einer meiner Lieblings-Cartoons aus dem New Yorker zeigte Moses auf dem Berg mit den Zehn Geboten. In der Legende heißt es: „Großartige Idee, wer wird es finanzieren?“ Globale Erwärmung und die Identifizierung des anthropogen erzeugten CO2 als das Problem passte zu sämtlichen politischen, finanziellen und religiösen Kontrollmechanismen, die sich eine sozialistische Gruppe nur wünschen kann.

Das Kyoto-Protokoll wurde als eine Lösung des Problems der vom Menschen verursachten globalen Erwärmung präsentiert. Aber jene, die das Protokoll erzeugt haben, haben auch das Problem erzeugt. Via das IPCC erzeugten sie die zur Stützung ihrer Behauptung erforderliche Wissenschaft. Es ist ein gut durchdachter und gut geplanter, klassischer Zirkelschluss: Erzeuge das Problem, fabriziere den Beweis für das Problem, dann biete die Lösung an. Sie sagten irrigerweise, dass eine Zunahme des CO2-Gehaltes eine Temperaturzunahme verursacht. Sie boten Beweise. Sie programmierten ihre Computermodelle so, dass eine CO2-Zunahme eine Temperaturzunahme zur Folge hatte. Sie ließen ihre Modelle laufen, wobei sie alles andere gleichbleibend hielten, was man in der Wissenschaft ,Alles Andere bleibt gleich‘ [ceteris paribus] nennt. Natürlich zeigten die Modelle denn auch die Temperaturzunahme, welche sie dann flugs als Beweise für ihre Behauptung anführten.

CO2 wurde schließlich zur religiösen Grundlage für die sozialistische Agenda. Nationen, deren Ökonomien aufblühten und die mittels CO2 wohlhabend wurden, sollten für ihre Sünden bezahlen, indem sie Geld an diejenigen Nationen überweisen, die leiden. Es war eine Buße. Katholiken zahlten Bußgelder für ihre Sünden, was auch eine Verzögerung bei ihrem Eintritt in den Himmel [heaven] bewirkte. In der mittelalterlichen katholischen Kirche konnte man Ablassbriefe kaufen, um diese Bestrafung zu umgehen. Kohlenstoff-Zertifikate sind das moderne Pendant dazu, und Al Gore war das Pendant zum Ablassprediger (hier), der Ablassbriefe verkaufte und in den Canterbury Tales von Geoffrey Chaucer gefeiert wurde.

CO2 via Kyoto stellte schließlich die politische Grundlage für die sozialistische Agenda. Es war eine Umverteilung des Wohlstands, wobei man den erfolgreich entwickelten Nationen Geld wegnahm und es an die weniger erfolgreich entwickelten Länder gab. Diese Operation erforderte eine Eine-Welt-Regierung und eine Welt-Bankagentur.

CO2 via Kyoto bot auch die Grundlage für die finanzielle sozialistische Agenda. Das für die Finanzierung der sozialistischen Regierung erforderliche Geld sollte in Form einer globalen Kohlenstoff-Steuer hereinkommen. Auf der COP15-Klimakonferenz in Kopenhagen im Jahre 2009 ging es auch um die Festlegung der finalen Details einer Kohlenstoffsteuer, die vom International Monetary Fund erhoben werden sollte. Mancher wusste, dass die politische Agenda auf der falschen Wissenschaft beruhte, wie die durchgesickerten Klimagate-E-Mails der CRU bewiesen hatten. Die maßgeblichen, das IPCC kontrollierenden Wissenschaftler arbeiteten an der CRU. Die Enthüllungen verzögerten effektiv den politischen Prozess, weil die COP nur auf Grundlage der Wissenschaft agieren kann, die vom IPCC vorgegeben wird. Die Verzögerung war nur vorübergehend, weil die meisten die Wissenschaft nicht verstanden hatten oder um die Implikationen der durchgesickerten E-Mails wussten. Im Jahre 2010 schuf man auf der COP 16 in Durban das als Ersatz fungierende sozialistische Programm unter der Bezeichnung Green Climate Fund (GCF). Auf der COP21 in Paris im Dezember 2015 wurde dieser Prozess autorisiert.

[Leugnen die Alarmisten nicht bis heute die Klimagate-E-Mails? Anm. d. Übers.]

Vaclav Klaus, vormals Präsident der Tschechischen Republik, war der einzige Führer der Welt, der klar benannte, was da vor sich ging. Ich hörte ihn sprechen auf der Heartland Klimakonferenz 2004 in New York. In seinem Eröffnungskommentar führte er aus, dass die Welt durch 70 Jahre Kommunismus gegangen war, und stellte die Frage, warum zum Teufel man dahin zurückkehren wolle. Noch deutlicher wurde er in seinem Buch Blue Planet in Green Shackles [Blauer Planet in grünen Fesseln]. Dort schrieb er:

Inzwischen sollte allgemein jedem klar sein, dass Umweltaktivismus zu einer allgemeinen Ideologie über die Menschen wird, über ihre Freiheit, über ihre Beziehung untereinander und gegenüber dem Staat und über die Manipulation der Menschen im Mäntelchen eines „noblen“ Gedankens. Es ist weder ein ehrliches Verfolgen „nachhaltiger Entwicklung“ noch elementarer Umweltschutz noch Suche nach rationalen Verfahren, um eine gesunde Umwelt zu erhalten. Nein, vielmehr gehen Dinge vor sich, die Kopfschütteln auslösen, wird man doch daran erinnert, dass man nicht mehr in der kommunistischen Stalin-Ära und auch nicht mehr in der Orwell’schen Utopie von 1984 lebt“.

Bild oben rechts: Der Präsident Boliviens Evo Morales übergibt Papst Franziskus eine Bronzeplastik mit Christus, gekreuzigt auf Hammer und Sichel.

Link: http://drtimball.com/2016/environmentalism-of-the-left-is-religious-socialism/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn H. R. Vogt für den Hinweis auf diesen Beitrag. Er kommentierte hier.




Politische Verzerrungen in der Klimatologie

Eine der strategischen juristischen Klagen gegen die öffentliche Teilnahme (SLAPP) gegen mich entwickelte sich aus einem Artikel mit dem zentralen Thema, durch das das IPCC die Klimaforschung um 30 Jahre zurück setzte. Dies war unvermeidlich angesichts der Definition von ,Klimawandel‘ in Artikel 1 des United Nations Framework Convention on Climate Change (UNFCCC). Wie beabsichtigt standen durch die Definition die Ergebnisse schon vorher fest:

Eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet ist, die die Zusammensetzung der globalen Atmosphäre verändern und welche sich zusätzlich zur natürlichen Klimavariabilität ereignet, beobachtet über angemessene Zeiträume“.

Zur Zeit des IPCC-Zustandsberichtes 4 (AR 4) im Jahre 2007 fügten sie eine weiter gefasste Definition ein:

Klimawandel nach Lesart des IPCC bezieht sich auf jedwede Änderung des Klimas mit der Zeit, sei sie nun verursacht durch natürliche Variabilität oder durch menschliche Aktivitäten“.

Es erschien als Fußnote in der Summary for Policymakers (SPM) des AR 4. Das Ziel ist es offensichtlich, dass sie auf Nachfrage antworten können, dass sie die Definition verändert hätten. Das Problem dabei ist, dass sie das eben nicht getan haben, weil die Berichte kumulativ sind. Dies macht es erforderlich, noch einmal von vorne anzufangen.

Die Definition lenkte die Aufmerksamkeit der Welt auf CO2 und Temperatur, genau wie es von denjenigen geplant war, die die politische Agenda der anthropogenen globalen Erwärmung (AGW) kontrollieren. Das Problem dabei ist, dass bereits bestehende Verzerrungen und Ungereimtheiten dadurch verstärkt wurden. Das Hauptelement, das übersehen, ignoriert oder falsch zugeordnet worden ist, ist Wasser. Dies ist nicht überraschend, wenn man an fehlende Proxydaten und moderne instrumentelle Messungen von Wasser in all seinen Formen denkt.

Eine schwere Irreführung war die Nutzung von Baumringen als Proxy der Temperatur in der infamen ,Hockeyschläger-Graphik‘ im IPCC-Bericht aus dem Jahr 2001 (AR 3). Traurig daran ist, dass Baumringe durchaus eine wertvolle Proxy sind, die die Grenze zwischen instrumentellen Daten und Proxydaten von etwa 6000 Jahren überschreitet. Inzwischen erzeugt man zunehmend langzeitliche Niederschlags-Aufzeichnungen aus Baumringen. Eine Studie aus dem Jahr 2014 mit dem Titel [übersetzt] „eine 3500 Jahre lange Baumring-Aufzeichnung des jährlichen Niederschlags auf dem nordöstlichen Tibetanischen Plateau“ (hier) wird bezeichnet als…

…die Erstellung und klimatische Interpretation einer Baumring-Chronologie, welche gegenwärtig die längste und absolut datierte Reihe ist, die für das Nordöstliche Tibetanische Plateau erstellt worden ist, und eine der längsten Reihen der Welt“.

Schlussfolgerung:

Der Niederschlag in dieser Region war während der letzten 50 Jahre historisch hoch – wahrscheinlich höher als für jede andere Periode vergleichbarer Länge seit mindestens 3500 Jahren. Dies selbst dann, wenn man die Unsicherheiten der Chronologie und der Interpretation berücksichtigt. Deutlich erkennbare Trockenperioden gab es im 4. Jahrhundert v. Chr. sowie in der zweiten Hälfte des 15. Jahrhunderts“.

Stellt man diese Reihe anderen Proxyreihen gegenüber wie etwa Paläoböden, kann sich eine wertvolle Historie ergeben, von der ausgehend man klimaändernde Mechanismen bestimmen kann. Abbildung 2 zeigt Sanddünen in der Carberry-Wüste oder Brandon Sand Hills in Südwest-Manitoba:

Abbildung 2

Die Abbildungen 3a, b und c zeigen drei unterschiedliche Paläoböden in einem Querschnitt durch eine Düne:

Abbildung 3a

Die Paläo-Ablagerungen sieht man oben auf der Düne.

Man beachte das Mikroklima mit Bäumen auf dem Nordhang, wo die Verdunstung geringer ist als auf dem Südhang, was ausreichend Feuchtigkeit für Bäume hinterlässt (Fotos vom Autor).

Abbildung 3b: Dies ist der tiefste und am besten entwickelte Aufschluss.

Abbildung 3c: Die jetzige oberste Bodenschicht sowie zwei unterschiedliche Paläosole in Beziehung zu Witterungsperioden.

Die Autoren folgern:

Die bemerkenswerteste Bildung von Paläosolen fand statt von etwa 2300 bis 2000, 1400 bis 1000 und 600 bis 500 cal-Jahre vor heute, wobei es vor und nach jeder Periode zu äolischen Aktivitäten [eolian activity ?] gekommen war. Episoden mit äolischen Aktivitäten können korrespondieren mit Perioden regionaler Dürren, während Paläosole Perioden verstärkter und stabilisierter Feuchtigkeit durch Vegetation kennzeichnen.

Diese Aufzeichnungen zeigen, wie viel Klimainformationen in Niederschlagsdaten enthalten sind, die grundlegend sind zum Verständnis von Klimawandel.

Vereisung ist ein anderer Bereich während des Lebenszyklus‘, in dem die Temperatur die Rolle von Niederschlag übertrumpft hat. Ein Gletscher bildet sich, wenn Schneefelder viele Jahre lang das sommerliche Abschmelzen überstehen. Man vermutet, dass dafür ein Temperaturrückgang die Voraussetzung ist. Allerdings kann es sein, dass die Schneemenge zunimmt, so dass er das sommerliche Schmelzen auch ohne Abkühlung überdauert. Überdauert der Schnee erst einmal, ändert sich auch die Albedo, was die Chance zum Überleben ebenfalls ohne Temperaturänderung erhöht. Akkumuliert sich die Schneedecke immer weiter und wird das Eis plastisch, beginnt das Eis zu fließen. Es entwickelt sich ein Gleichgewicht zwischen der Akkumulation und dem Abschmelzen (Abbildung 4):

Abbildung 4

Der Gletscher dringt durchweg intern vorwärts, solange das Eis plastisch ist. Die Gletscherzunge auf der rechten Seite des Diagramms stößt vor oder zieht sich zurück: Manchmal wegen der Temperaturen, aber auch dann, falls der Schneefall in der Akkumulations-Zone zu- oder abnimmt.

Eines der interessantesten Ereignisse zum Ende des Pleistozän-Eisschildes war die Rate, mit der das Abschmelzen vor sich ging. Das Abschmelzen erfolgte schnell, wie die Karte mit der Änderung des Meeresspiegels zeigt (Abbildung 5). Die Schmelzwasser-Phase 1A ereignete sich von vor 14.700 bis 13.500 Jahren. Es gibt keinen Zweifel daran, dass die grundlegende Ursache des Abschmelzens eine Erwärmung war, aber der rapide Anstieg des Meeresspiegels ist wahrscheinlicher einer deutlichen Zunahme der Regenmenge geschuldet. Packt man einen Eiswürfel in ein Becken, wird er langsam vor sich hin schmelzen. Lässt man aber Wasser darüber laufen, beschleunigt sich das Schmelzen erheblich. Außerdem hat Alteis an der Oberfläche eine geringere Albedo als Schnee oder pures Eis.

Da ist aber noch mehr, beispielsweise die in der Atmosphäre durch Wassertröpfchen und Regentropfen absorbierte Menge an CO2. Wir wissen nicht wie viel, weil tatsächliche Messungen der Wassermenge in der Atmosphäre sowie dessen Variation mit der Zeit nicht verfügbar sind.

Abbildung 5

Kann es sein, dass Variationen des Wassergehaltes in der Atmosphäre sowie des davon absorbierten CO2 gleich ist der Menge, die die Menschen hinzufügen?

In einem kürzlich erschienenen Artikel habe ich mich mit dem Thema Aerosole befasst sowie deren Rolle in der atmosphärischen Physik. Alle Aerosole fallen zu Boden als Funktion ihrer Größe und ihres Gewichtes. Die Schwerkraft ist die größte Kraft, die Aerosole aus der Atmosphäre entfernt. Allerdings ist bei zwei wesentlichen Mechanismen Wasser involviert. Aerosole bilden Kondensationskerne, um die der Wasserdampf kondensiert, und Regen wäscht sie dann aus. Man betrachte eine Oberfläche, nachdem die Regentropfen verdunstet sind, und die Residuen darauf. All diese Faktoren involvieren Wasser, welches die Durchlässigkeit der Atmosphäre verändert. Wie stark beeinflussen sie globale Klimamechanismen während Witterungsperioden?

Das IPCC hat die Variablen absichtlich limitiert. Es behauptet, dass das 5000-Teile-Puzzle effektiv zusammengesetzt ist, wenn die Wissenschaft nicht die vier Eckteile oder die meisten der Randteile identifiziert hat. Die Anzahl und Komplexität jener weggelassenen Teile sind riesig, und die meisten gehen über die IPCC-Behauptungen bzgl. des anthropogen erzeugten CO2 hinaus. Aber trotzdem zieht es fast definitive Schlussfolgerungen, die als Rechtfertigung dienen für eine verheerende Klima- und Energiepolitik. Dessen Aktionen gehen noch weit über Pseudowissenschaft hinaus. Diese ist definiert als

eine Sammlung von Glaubenssätzen und Praktiken, die irrigerweise als auf wissenschaftlichen Verfahren beruhend betrachtet werden“.

Das Schlüsselwort hier ist „irrigerweise“. Es gibt nichts, was man hinsichtlich der absichtlichen, vorsätzlichen Aktionen des IPCC missverstehen kann. Und falls doch, wäre es höchlichst inkompetent.

Link: https://wattsupwiththat.com/2016/05/01/political-distortions-in-climatology/

Übersetzt von Chris Frey EIKE




Aber stimmt es auch? – Die Forschungen von Aaron Wildavsky 20 Jahre später

Das Verlangen nach Sicherheit ist dem Menschen angeboren, ist aber nichtsdestotrotz ein intellektuelles Laster. Solange die Menschen nicht geübt darin sind, von Urteilen über etwas ohne Beweise Abstand zu nehmen, werden sie durch sich todsicher gerierende Propheten in die Irre geführt, und es ist wahrscheinlich, dass ihre Führer entweder ignorante Fanatiker oder unehrliche Scharlatane sind. Unsicherheit zu ertragen ist schwierig, aber das gilt auch für die meisten anderen Tugenden“.

Die sich todsicher gerierenden Propheten sind Umweltaktivisten und Befürworter der globalen Erwärmung, die die Behauptung vor sich her tragen, dass sie die Einzigen Wissenden sind und die Einzigen, die sich um die Umwelt kümmern. Sie sind säkulare Missionare des neuen Paradigmas des Umweltaktivismus‘, welches sie zu einer Religion von Umweltaktivismus machten. 20 Jahre Doom-and-Gloom-Prophezeiungen von ihnen zusammen mit den von ihnen aufgerührten Ängsten erwiesen sich als unrichtig, während sich jene, die unrecht zu haben beschuldigt worden sind, als recht habend herausstellten.

Eine Verschiebung eines Paradigmas ist eine wichtige Änderung des Vorgehens oder der Hypothesen einer Gesellschaft, die alles in unterschiedliche Richtungen trägt; es kam mit der Verschiebung hin zu Umweltaktivismus. Die meisten Menschen akzeptieren ein neues Paradigma nur sehr zögerlich, weil sie die Änderung fürchten. Sie wissen, wenn es zu einer Änderung kommt, werden Einige geschädigt, und einige werden profitieren, aber die Furcht davor, geschädigt zu werden, steht im Vordergrund. Allerdings gibt es immer eine kleine Gruppe, die die Paradigma-Verschiebung aufschnappen und für ihre Agenda ausschlachten, entweder in finanzieller oder in politischer Hinsicht oder beidem. Sie werden zu „sich todsicher gerierenden Propheten“.

Wir alle sind Umweltaktivisten, aber einige Wenige griffen danach und behaupteten, dass nur sie sich um die Umwelt kümmern. Sie predigten uns dies aus moralisch hoher Perspektive. Globale Erwärmung wurde zum Zugpferd für ihre politischen Angriffe auf entwickelte Gesellschaften, weil sie nationale Grenzen überschritt und nach einer Eine-Welt-Lösung verlangte. Sie erzeugten und verbreiteten eine Vielfalt von Angst erzeugenden Stories über verschiedene Aspekte der Umwelt, um die Lüge am Leben zu halten. H. L.Mencken erklärte diese Objektive kurz und bündig mit zwei Aussagen:

Das ganze Ziel praktischer Politik ist es, die breite Masse im Alarmzustand zu halten (und ihnen daher lärmend vorzumachen, dass man sie in Sicherheit führen werde) mittels einer endlosen Folge von Kobolden und Geistern – die allesamt imaginär sind (hier).

Die Dringlichkeit, die Menschheit zu retten, ist fast immer die Maske für die Dringlichkeit, sie zu führen. Macht ist alles, was jeder Messias in Wirklichkeit anstrebt: nicht die Möglichkeit zu dienen. Das gilt selbst für die Pius-Brüder, die ihre Prinzipien nach außen tragen.

Die Stories bestehen aus einer Mischung von Makro- und Mikro-Dingen, die sich allesamt um die Behauptung ranken, dass sie eine direkte oder indirekte Folge der menschlichen Existenz sind, verschlimmert durch industriellen Fortschritt. Auf der Liste der Makros finden sich u. A. Wüstenbildung, Entwaldung, Aussterben von Spezies, Verlust von Habitaten, steigender Meeresspiegel, Zerstörung der Ozonschicht, gigantische Mülldeponien, Asbest-Kontamination, saurer Regen und Ozeanversauerung uvm. Die Liste der Mikros ist sogar noch länger und enthält u. A. die Erblindung von Schafen in Chile, deformiert geborene Frösche, geringere Spermazahlen beim Menschen, zerstörte Korallenriffe, eine Vielzahl von sinkenden Tierpopulationen, und so weiter und so fort, bis zum Erbrechen.

Ich weiß durch meine Mitarbeit in vielen Untersuchungsausschüssen, dass schon limitierte Ermittlungen sehr unterschiedliche Wahrheiten ans Licht bringen. Unter diesen Erfahrungen ist auch der Vorsitz in Anhörungen, um vermeintlichen Umwelt-Herausforderungen zu begegnen einschließlich der Bedrohungen für Luft, Boden, Wasser und Wälder. Ich war Vorsitzender des Hazardous Waste Committee [etwa: Komitee gegen übermäßigen Müll] der Stadt Winnipeg und habe Beweise erbracht für Verfahren, in denen es um Wetter, Klima und Umweltthemen ging. Der Unterschied zwischen der Berichterstattung in den Medien, dem öffentlichen Verständnis und den Fakten war riesig und erschütternd, aber trotzdem treiben diese Stories die öffentliche Politik. Nur wenige Politiker wagen es, sie in Frage zu stellen, und so erzeugen sie unnötige, ungeeignete und oftmals schädliche Politik. Wie moderne Kreuzfahrer streifen sie sich das grüne Mäntelchen über, nicht um sich den Fakten zu stellen, sondern um Vorwürfen zu begegnen, dass es ihnen egal ist.

Die Medien berichten diese Stories, weil Sensationalismus sich gut verkauft, und sie akzeptieren ohne Nachfrage die Behauptungen des Ausmaßes unserer Beeinflussung der Umwelt. In den USA haben die Medien bei der Ausfüllung der Rolle versagt, die Rolle auszufüllen, die ihnen von den Gründungsvätern des Kongresses im Jahre 1776 zugedacht worden war.

Das letzte Recht, das wir erwähnen sollten, betrifft die Pressefreiheit. Die Wichtigkeit hiervon besteht neben dem Voranbringen von Wahrheit in Wissenschaft, Moral und Kunst allgemein in seiner Ausbreitung liberaler Gefühle auf die Regierungs-Administration, in seiner angemessenen Kommunikation von Gedanken zwischen den Themen und in der konsequenten Verfolgung von Einheit unter ihnen, während unterdrückende Funktionäre beschämt oder getrieben werden, ehrbareres Verhalten zu übernehmen sowie eine bessere Art, mit Skandalen umzugehen.

Sie haben die Rolle der Akademiker nicht definiert, wahrscheinlich aufgrund der Annahme, dass sie nach der Wahrheit streben. Tatsächlich manifestieren sich in den Akademikern die sich ergebenden Probleme, wenn man Sozialhilfe bezieht. Henry Canby drückte es so aus:

Arroganz, Pedanterie und Dogmatismus sind berufliche Krankheiten von denjenigen, die ihr Leben danach ausrichten, das Intellekt der Jugend zu dirigieren.

Einige wenige Akademiker stellen die vorherrschende Weisheit in Frage, absichtlich oder zufällig, und sind sofort Ziel von Angriffen, darunter sogar Ausweisung oder Isolation. Judith Curry ist sich jetzt nur zu bewusst, was passiert.

Aaron Wildavsky war ein politischer Wissenschaftler, spezialisiert auf öffentliche Politik, Budgetierung der Regierung und Risikomanagement (hier). Wildavsky stellte sich dem entgegen, was Michael Crichton als die größte Herausforderung identifizierte, vor der die Menschheit derzeit steht. In einer Rede vor dem Commonwealth Club in San Francisco sagte er im Jahre 2003:

Man hat mich aufgefordert, darüber zu sprechen, was ich als die wichtigste Herausforderung ansehe, vor der die Menschheit steht, und ich habe die fundamentale Antwort. Die größte derzeitige Herausforderung für die Menschheit ist die Herausforderung zu unterscheiden zwischen Realität und Phantasie, Wahrheit und Propaganda Das Erkennen der Wahrheit war immer eine Herausforderung für die Menschheit, aber im Informationszeitalter (oder, wie ich es sehe, dem Desinformationszeitalter), wird es zu einer speziellen Notwendigkeit und Wichtigkeit.

Wildavsky machte sich auf, die Wahrheit zu erkennen bzgl. Umweltbedrohungen mittels Anwendung der angemessenen wissenschaftlichen Methoden beim Stellen einer Frage oder mit Experimenten. Er stellte die einfache Frage „aber stimmt das auch?“ (hier). Sie wurde später zu seinem posthum veröffentlichten Buch (1995). In das Experiment waren graduierende Studenten ohne wissenschaftliche Titel involviert, die der Frage nachgingen und nach Ursprung und Gültigkeit der verschiedenen Umweltstories forschten.

In einem Artikel aus dem Jahr 1995 wurden einige der Ergebnisse zusammengefasst:

•„Das DDT-Verbot, einer der ersten großen Triumphe der modernen Umweltbewegung (und ein Tribut an Silent Spring von Rachel Carson) hat „mehr Schaden als Nutzen“ gebracht.

Trotz der hysterischen Ängste von Eltern stellt Asbest in Schulen keine erkennbare Gefahr für Kinder dar.

Es gibt keine Beweise dafür, dass saurer Regen für die Umwelt eine außerordentliche Gefahr darstellt, außer an einigen wenigen isolierten Stellen (wie in paar Wälder in Hochlagen).

Die meisten gefährlichen Mülldeponien (darunter so notorische Deponien wie in Love Canal in New York State und Times Beach in Missouri) sind keine signifikante Gefahr für Anwohner. Das außerordentlich teure Superfonds-Programm der Regierung zur Beseitigung dieser Deponien ist alles in allem Geldverschwendung.

Es gibt keine glaubwürdigen Beweise, die die Angst vor der globalen Erwärmung stützen.

•„Es gibt keine glaubwürdigen Beweise für die Ozon-Zerstörung“, und es gibt gute Gründe für die Annahme, dass welche Zerstörung auch immer aufgetreten war, dies nichts mit FCKWs zu tun hat und dass es „starke Hinweise gibt, dass der Schaden durch Ozonzerstörung zwischen gering oder gar nicht schwankt“.

Heute, über 20 Jahre später, ist die Validität dieser Ergebnisse bestätigt. Sie sind alle Opfer von etwas, das Wildavsky als den grundlegenden Betrug des Absolutismus bei der Umweltbewegung identifiziert hatte. Er fragte:

Welche Norm legt fest, dass Gesundheit der einzige Wert oder auch nur der dominante Wert ist?“ – Was ist mit den anderen Werten? Was bedeutet eine marginal bessere Gesundheit im Vergleich zu Verlusten bei anderen Werten wie Freiheit, Gerechtigkeit und Vorzüglichkeit?“

In einem Beitrag für The Concise Encyclopedia of Economics hat Wildavsky das Aufkommen von Regierungs-Bürokratie geahnt, weil Politiker keine Fragen gestellt und sich selbst das grüne Mäntelchen umgehängt hatten.

Seit Ende der fünfziger Jahre ist die Regulierung von Risiken für Gesundheit und Sicherheit in politischen Debatten immer wichtiger geworden – und Maßnahmen. In seinen Bemühungen, die Bürger vor schwierig zu erkennenden Gefahren zu schützen wie industrielle Chemikalien und gegen offensichtliche Gefahren am Arbeitsplatz und anderswo, hat der Kongress die Autorität der Food and Drug Administration, der Environmental Protection Agency, der Occupational Health and Safety Administration, das Federal Trade Commission’s Bureau of Consumer Protection und andere administrative grüne Agenturen erzeugt oder verstärkt.

Bei meinem Auftritt vor der kanadischen parlamentarischen Anhörung zum Thema Ozon habe ich meinen vorbereiteten Vortrag nicht gehalten. Ich habe nämlich schnell erkannt, dass die Politiker beim Zuhören der Beweise und den Fragen von Anderen die wissenschaftliche Methode nicht verstanden. Sie erkannten nicht, dass eine wissenschaftliche Hypothese wissenschaftliche Spekulation ist, sondern betrachteten dies als Tatsache. Ich bot eine wissenschaftliche Spekulation auf der Grundlage von Beweisen an.

•Die Rotationsgeschwindigkeit der Erde verlangsamt sich.

•Das Magnetfeld schwächt sich seit 1000 Jahren ab.

•Falls das mit der derzeitigen Rate so weitergeht, wird das Feld in etwa 120 Jahren verschwunden sein.

•Einige Beweise zeigen Massen-Aussterben in Verbindung mit früheren Zusammenbrüchen.

•Der Schutz vor einigen schädlichen Strahlen der Sonne ist verschwunden.

•Einige behaupten, dass DNA besonders verwundbar ist, wenn sie ultravioletter Strahlung ausgesetzt ist.

Ich fragte, was meine Regierung plant, um diese Bedrohungen zu verhindern. Ich sagte ihnen, dass ich Dutzende solcher spekulativen Bedrohungen erzeugen könnte. Ihre Aufgabe und Herausforderung bestand darin herauszufinden, welche gültig waren, und dem Setzen von Prioritäten, weil sie nicht alles auf einmal angehen konnten. Wildavsky zeigt eine exzellente Synoptik von Risiken und Prioritäten in seinem in der Encyclopedia of Economics erschienenen Artikel mit dem Titel „Risk and Safety.

Die globale Erwärmung war eine weitere ungeprüfte Hypothese, genau wie alle anderen auch. Sie stellten niemals die in der wissenschaftlichen Methode fundamentale Frage: „Aber stimmt das auch?“. Stattdessen wurden alle jene attackiert, die zu fragen versucht haben. Die globale Erwärmung war größer als alle anderen falschen Bedrohungen, wie die Pariser Klimakonferenz 2015 gezeigt hat. Sie war verpackt in dem größeren Umwelt-Umschlag durch mächtige Personen, die annahmen, dass die Spekulationen Tatsachen waren. Die beste Anschauung zum Erkennen der schlimmsten Konfusion und der Zurschaustellung größten Unverständnisses, zu denen es durch die Akzeptanz der Spekulation als Tatsache gekommen war, ist die Enzyklika „Laudato Si“ von Papst Franziskus. Es ist ein Paper, dass bereits im ersten Semester an Hochschulen durchfallen sollte. Es fehlen darin Beweise, es fehlen Erklärungen der Mechanismen, es fehlt Objektivität, und es ignoriert Entwicklung und Fortschritt als Teil der natürlichen menschlichen Evolution. Traurigerweise wurde es von sich todsicher gerierenden Propheten, von Medien, Akademikern und Lehrern hochgelobt, welche die Forderung der Gesellschaft nach Sicherheit repräsentieren und sicherstellen.

Link: http://wattsupwiththat.com/2016/03/26/but-is-it-true-the-research-of-aaron-wildavsky-twenty-years-later/

Übersetzt von Chris Frey EIKE




Die Komplizenschaft von Journalen und Magazinen bei der Propagierung der betrügerischen IPCC-Klimawissenschaft

Es gab eine Zeit, als der Scientific American (SA*) eine Einzelnische bei den Zeitungs-Kiosken besetzte. Es war ein Magazin der Wissenschaft für die Öffentlichkeit. Beschrieben wurde darin authentische Wissenschaft, normalerweise verfasst von Wissenschaftlern, und es war kein pseudowissenschaftliches Magazin wie all die anderen. Das war interessant, weil die meisten Leute nicht viel von dem Geschriebenen verstanden haben. Personen, die etwas über das Thema wussten erkannten, dass es sich um eine sehr grobe Übersicht handelte, erkannten aber auch, dass es für den Verbraucher gedacht war. Man publizierte faszinierende Artikel, in denen die Öffentlichkeit auf Themen aufmerksam gemacht wurde ohne politischen Bias. Ich habe drei Artikel in Erinnerung, die in der Klimadebatte sehr wertvoll waren: John Eddys Artikel über die fehlenden Sonnenflecken; Der Beitrag von Stommel und Stommel über das Jahr 1816, dem Jahr ohne Sommer; und ein früher Artikel über den Einfluss auf die Messung der Ozean-Wassertemperatur, nachdem man von Leder- auf Metalleimer übergegangen war, gefolgt von Messungen im Kühlwasser von Schiffsmotoren.

[*Im Original wird im Folgenden nur noch diese Abkürzung SA verwendet. Aus vermutlich nachvollziehbaren Gründen werde ich dem aber nicht folgen. Anm. d. Übers.]

Inzwischen ist der Scientific American zu einem sensationalistischen Verteidigungs-Outlet für die IPCC-Wissenschaft von der globalen Erwärmung verkommen. Es scheint, als ob diese Verwandlung erzwungen worden wäre, unterscheidet sich doch der Scientific American nicht mehr von irgendeinem der andere pseudowissenschaftlichen, sensationalistischen Magazine. Parallel mit dieser Verschiebung gab es eine Abnahme der Beiträge von Wissenschaftlern und eine Zunahme von Artikeln von professionellen (?) Journalisten. Hinsichtlich Artikeln zum Thema Klima kam die Mehrheit der Beiträge von Wissenschaftlern, die direkt in der IPCC-Schwindelei involviert waren. Untergang und Verderben und Sensationalismus verkaufen sich eben besser, vor allem, wenn es zu dem politischen Bias derjenigen passt, die das Magazin produzieren.

Das Gleiche widerfuhr den beiden einst bedeutenden Journalen Science und Nature. Es gab einmal eine Zeit, als Akademiker dafür zahlten, Artikel zu veröffentlichen und auch zahlten für den Erhalt einer Ausgabe nach der Veröffentlichung eines Beitrags. Es gab einmal eine Periode, als Universitäten für Abonnements zahlten und einige wenige Wissenschaftler die Zeitschrift für sich selbst kauften. Mit den steigenden Kosten für die Herstellung des Magazins wurden die Kosten für ein Abonnement untragbar. Dies fiel zusammen mit zurückgehenden Zuwendungen von der Regierung und von privat an Forscher und Universitäten. Einige Verlagshäuser wie etwa Elsevier erkannten eine Gelegenheit für Geschäfte und übernahm. Wir alle kennen inzwischen die ,Zahlschranke‘. Wir erleben auch die Verkaufsförderung, die mit dem Kauf eines Artikels einhergeht, führt es doch zu einer fortgesetzten Zusendung von E-Mails unter dem Motto „articles that might be of interest“ [etwa: „diese Beiträge könnten Sie auch interessieren:…“] sowie zu Werbung von Amazon.

Nachdem die globale Erwärmung zu einem immer größeren politischen Thema geworden war, begannen einige Medienmitarbeiter, nach sensationslüsternen wissenschaftlichen Spekulations-Artikeln zu suchen. Sie alle wurden in den Schlagzeilen eingeleitet mit „Wissenschaftler sagen: …“. Dann folgt ein Artikel mit einigen der im Konjunktiv gehaltenen Phrasen, die Akademiker verwenden, um ihre Argumente glaubwürdiger zu machen. Ein großes Problem ist, dass nur wenige Journalisten in wissenschaftlichen Dingen geübt oder darin ausgebildet sind. Dies bedeutet, dass sie nur nach der Wissenschaft suchen, die ihrer sensationalistischen „Die-Story-ist-alles!“-Objektive dient.

Einige Journale erzeugten unterschiedliche Zugpferde, um die Verbreitung und Ausbeutung von Sensationalismus zu verbreitern. Nature begann mit Nature Climate Change im Jahre 2007. Ich wurde auf dessen Existenz und Bias auf der Heartland-Klimakonferenz im Jahre 2009 aufmerksam gemacht, als ein Reporter jener Publikation mich um ein Interview bat. Ich merkte sofort, dass er keineswegs an Objektivität oder Aufklärung interessiert war, so das ich das Interview ablehnte.

Die Politik von dessen Herausgebern wird auf ihrer Homepage so beschrieben:

Reading science

Wissenschaftlern wird oft vorgeworfen, dass sie ihre Ergebnisse nur schlecht vermitteln, aber die Verbesserung der wissenschaftlichen Bildung liegt in der Verantwortung von allen.

Richtig – aber nur, wenn diese Bildung ausgewogen und objektiv daherkommt.

Nature Climate Change gehört der Nature Publishing Group, die eine Abteilung von Macmillan Publishers Limited ist. Dies ist interessant, weil sie diejenigen Verleger waren, die in der Velikovsky-Schande involviert waren, eines der ungeheuerlichsten Beispiele der Konflikte, die zwischen Verlegern und einer Suche nach Wahrheit aufbrechen können. Man kann Velikovskys Seite der Story in seinem Buch Stargazers and Gravediggers [etwa: Sterndeuter und Totengräber] nachlesen, welches Amazon wie folgt beschreibt:

In einem der schwersten Fälle von Zensur in der Geschichte Amerikas hat eine mächtige Lobby von Wissenschaftlern des Establishments Macmillan gezwungen, eine Veröffentlichung von Immanuel Velikovsky’s „Worlds in Collision” zu suspendieren – das war der erste Schuss, der auf Velikovskys „häretische“ Standpunkte abgeschossen worden war. Hier erzählt uns Velikovsky selbst mit enormer Würde und Intelligenz die ganze Geschichte von einer der beschämendsten Buchverbrennungs-Episoden unserer Zeit. Dies ist Velikovskys Schlusswort in dieser Sache und bietet eine wichtige Einsicht in einen Skandal, der die Welt der Wissenschaft und der Presse gleichermaßen erschütterte.

Velikovsky wurde zum Ziel von Carl Sagan, einem frühen Befürworter der von anthropogenem CO2 verursachten globalen Erwärmung. Die Behauptung rückte in den Mittelpunkt der Argumentation über die Bedrohung eines höheren CO2-Niveaus. Sagan fühlte sich dermaßen bedroht, dass er ein Buch veröffentlichte mit dem Titel Scientists Confront Velikovsky [siehe Bild oben rechts!] Darin geht es um alle seine Behauptungen mit kollektiv dem Einschluss von CO2 auf der Venus. Man darf ihm kein Wort glauben.

Die Wechselwirkungen zwischen Verlegern und Wissenschaftlern an der Climatic Research Unit (CRU) wurden durch die durchgesickerten E-Mails im Zuge des Klimagate-Skandals enthüllt. Auf der Website Reason erschien im Jahre 2009 ein Artikel mit dem Titel [übersetzt] Klimagate und Schikanierung wissenschaftlicher Journale (Climategate and Scientific Journal Chicanery) von Ronald Bailey, der darin von den Erfahrungen berichtet, die Eduardo Zorita gemacht hatte:

Mit dem Schreiben dieser Zeilen werde ich vermutlich erreichen, dass einige meiner zukünftigen Studien wieder einmal wohl nie ins Licht von Veröffentlichungen kommen. Mein Forschungsgebiet ist zufällig das Klima der vergangenen Jahrtausende, wobei ich denke, dass ich von anderen Klimaforschungs-,Soldaten‘ anerkannt bin…

Ich könnte bestätigen, was an anderer Stelle geschrieben worden ist: die Forschung in einigen Bereichen der Klimawissenschaft war und ist voller Intrigen, Konspiration und betrügerischer Absprachen, wie jeder leicht den CRU-Dateien entnehmen kann. Sie zeichnen ein realistisches, ich würde sogar sagen harmloses Bild, wie die wirkliche Forschung im Bereich Klima im vorigen Jahrtausend während der letzten Jahre ausgesehen hat. Die wissenschaftliche Debatte ist in vielen Fällen zugunsten anderer Agenden gekapert worden.

Dies bedeutet nicht, dass ich denke, dass der anthropogene Klimawandel ein Schwindel ist. Im Gegenteil, es handelt sich um eine Frage, der wir sehr wohl nachgehen müssen. Aber mir ist auch klar, dass ich in dieser dicken Luft im Moment nicht von Treibhausgasen spreche – sondern über Herausgeber, Begutachter und Autoren alternativer Studien, Analysen und Interpretationen, die auf den gleichen Daten basieren, die wir zur Verfügung haben, die allesamt drangsaliert und subtil betrogen worden sind. In dieser dicken Luft sind promovierende Studenten oftmals versucht, ihre Daten zu verzerren, damit sie in das ,politisch korrekte Bild‘ passen. Einige, nein viele Zusammenhänge bzgl. des Klimawandels sind immer noch nicht bekannt. Politiker sollten sich den Versuchungen bewusst sein, diese Unsicherheiten unter einem vereinfachten Bild zu verstecken. Ich hatte das ,Vergnügen‘, all dies in meinem Forschungsbereich zu erleben.

Der wichtige Punkt hier ist, dass Zorita von den Begutachtern und Herausgebern Vergeltung erwartet, was sie zur Staffage vor und nach den Fakten macht. [Original: The important point here is that Zorita expects retribution from the reviewers and editors thus making them accessories before and after the fact.]

Eine andere Art der Kontrolle wäre es, sowohl Begutachter als auch Herausgeber zu sein. Dies scheint bei der Dominanz von IPCC- und CRU-Wissenschaftlern als Herausgeber des Journal of Climate der Fall zu sein. Donna Laframboise stellt die Frage:

Wir sollen den Schlussfolgerungen des IPCC vertrauen, weil viele der Forschungen, die als Grundlage dieser Schlussfolgerungen dienen in begutachteten wissenschaftlichen Journalen veröffentlicht worden sind.

Aber was passiert, wenn die Personen, die für diese Journale verantwortlich sind, die gleichen sind, die die IPCC-Berichte schreiben?

Nach einer Auflistung aller Personen – 13, wenn ich richtig gezählt habe – die als Herausgeber oder redaktionelle Kapazitäten des Journals fungieren, fragt Laframboise:

Macht sich denn niemand Gedanken darüber, dass es dabei keine irgendwie geartete Distanz gibt – geschweige denn irgendetwas, das einer Firewall gleicht – zwischen den Menschen, die entscheiden, ob eine Studie es wert ist, in den Heiligenschein einer Veröffentlichung in der begutachteten Literatur zu gelangen – und den Menschen, die dann IPCC-Berichte schreiben, in denen uns erklärt wird, was uns diese begutachtete Literatur über den Klimawandel sagt?

Dabei geht es nicht einmal nur darum, welche Prozentzahl der veröffentlichten Studien von einigen der oben genannten Personen als Autoren, die ihren Begutachtet-Status via des Journals of Climate verdient haben.Das ist eine andere Geschichte für einen anderen Tag.

In einem kurz nach dem Bekanntwerden der durchgesickerten E-Mails Artikel schrieb Robert Tracinski:

Noch nicht damit zufrieden, alle Wissenschaftler mit abweichenden Meinungen zu blockieren, konspirierten die CRU-Wissenschaftler auch, um ihnen freundlich gesonnene Begutachter abzusichern, auf die die sich verlassen konnten, ihre eigene Arbeit abzusegnen. Phil Jones übergab eine solche Liste an Kevin Trenberth, zusammen mit der Zusicherung, dass „alle von ihnen genau wissen, was sie sagen müssen … ohne irgendwelches Soufflieren“.

Traurigerweise waren Viele aus verschiedenen Gründen willens, dabei mitzumachen. Die Zusammenfassung von Tracinski ist sehr aufschlussreich:

Das sich hier ergebende Bild ist einfach. In jedweder Diskussion über globale Erwärmung, sei es in wissenschaftlichen Journalen oder in den Mainstream-Medien, ist das Ergebnis jedes Mal genau vorherbestimmt. Genauso wie die Temperatur-Graphiken bei der CRU immer verbogen werden, um einen aufwärts gerichteten „Hockeyschläger“ zu zeigen, muss jede Diskussion über globale Erwärmung zeigen, dass sie stattfindet und dass die Menschen dafür verantwortlich sind. Und jedwede Daten oder jedwede Studien, die diese Schlussfolgerungen widerlegten, wurde als „unwissenschaftlich“ verunglimpft, nur aus genau dem einen Grund, dass sie das etablierte Dogma bedrohen.

Ein wesentlicher Faktor, Journale und Magazine anfällig zu machen für Beeinflussungen seitens der Menschen an der CRU war, das Geschäftsmodell und die Erfordernis eines profitablen Betriebs in den Mittelpunkt zu rücken. Es war das Geschäftsumfeld, dass entweder die Wissenschaft ignorierte, wie ich in einem früheren Beitrag beschrieben habe, oder das Gelder jenen zukommen ließ, die kritische Beiträger aus dem Markt drängten. Beweis hierfür ist die Tatsache, dass ein sich wehrendes Unternehmen Schlagzeilen machte – Exxon Stands Up to the green Bullies. [Etwa: Exxon wehrt sich gegen die grünen Tyrannen].

Der wirkliche Durchbruch wird kommen, wenn diese Schlagzeile in den Mainstream-Medien auftaucht, aber man warte nicht unmittelbar darauf: Es ist noch viel mehr Geld verfügbar, solange die Finanzierung seitens der Regierung weitergeht.

Link: http://wattsupwiththat.com/2016/02/28/the-complicity-of-journals-and-magazines-in-pushing-flawed-ipcc-climate-science/

Übersetzt von Chris Frey EIKE




Langfristiger Klimawandel: Was ist eine angemessene Datenmenge?

Die Irreführung basiert auf der falschen Hypothese, dass nur wenige Variable und Prozesse beim Klimawandel eine wichtige Rolle spielen und dass diese während jener 4,54 Milliarden Jahre konstant geblieben seien. Es begann mit der Hypothese der Solarkonstante, die Astronomen definieren als einen Stern mittlerer Variabilität. Die AGW-Befürworter haben es erfolgreich geschafft, die Aufmerksamkeit der Welt nur auf das CO2 zu lenken, welches gerade mal 0,04% aller atmosphärischen Gase ausmacht und deutlich zeitlich und räumlich variiert. Ich ziehe gerne den Vergleich, dass dies so ist, als ob man Charakter, Aufbau und Verhalten eines Menschen lediglich durch die Messung einer Warze am linken Arm festlegen kann. Tatsächlich schauen sie nur auf eine Zelle dieser Warze für ihre Berechnung.

Der Grad, bis zu dem Promoter der AGW-Hypothese des IPCC ablenken und täuschen wollen, wurde erneut in einem Artikel von Quang M. Nguyen unterstrichen. Nahezu sämtliche Aktivitäten der Promoter involvieren den Beweis, dass alles während des Zeitraumes instrumenteller Aufzeichnungen Rekorde bricht. Dies umfasst auch die Veränderung von Paläo-Aufzeichnungen, wie sie es bei dem ,Hockeyschläger‘ und mit der Adjustierung der Neigung des Gradienten in der instrumentellen Aufzeichnung gemacht haben. Wenn man die 120-jährige Periode instrumenteller Aufzeichnungen als repräsentativ für irgendwas ansieht, ist das lächerlich. In dem unsäglichen IPCC-Bericht 2001 erfuhren wir von Phil Jones, dass der Temperaturanstieg in den instrumentellen Aufzeichnungen, der zum Blatt des ,Hockeyschlägers‘ geworden war, 0,6°C betrug mit einer Fehler-Bandbreite von ±0.2°C oder ±33%. Aber das ist nur die Spitze des Eisbergs.

Zwei Hauptthemen der AGW-Behauptungen sind, dass die Temperaturänderung größer und schneller vor sich geht als zu irgendeiner Zeit in der Vergangenheit. Dies ist Unsinn, wie schon ein flüchtiger Blick auf jedwede längere Aufzeichnung zeigt. Falls das nicht der Fall ist, sind alle Maßnahmen, die zu einer Veränderung der Aufzeichnung führen sollen, unnötig. Sowohl der antarktische als auch der grönländische Eisbohrkern illustrieren das Ausmaß von Temperaturänderungen während kurzfristiger Zeiträume. Abbildung 1 zeigt eine modifizierte antarktische Eisbohrkern-Aufzeichnung.

Abbildung 1

Die gesamte Bandbreite der Temperatur beträgt etwa 12°C (-9°C bis +3°C). Die Variabilität ist dramatisch, selbst wenn man eine 70-jährige Glättung anwendet. Das Diagramm vergleicht die Spitzen-Temperaturwerte der gegenwärtigen Zwischeneiszeit mit jenen während der vier Zwischeneiszeiten zuvor. Der horizontale Maßstab auf der X-Achse ist zu klein, um die Periode mit instrumentellen Aufzeichnungen überhaupt zu erkennen.

Steve Goreham zeigt, wie gering dieser Abschnitt ist im folgenden Diagramm der letzten 10.000 Jahre (Abbildung 2):

Abbildung 2

Eine weitere Graphik zeigt den gleichen Zeitraum, das Optimum des Holozäns, in unterschiedlicher Form (Abbildung 3):

Abbildung 3

Die Bandbreite der Temperatur während dieses Zeitraumes beträgt etwa 3,75°C (von 28,75°C bis 32,5°C), liegt jedoch während des größten Teils der letzten 10.000 Jahre über der gegenwärtigen globalen mittleren Temperatur. Man verlege einfach gedanklich die 120 Jahre der instrumentellen Aufzeichnungen in irgendeinen Abschnitt der Graphik, und man erkennt, um wieviel es derzeit kühler ist als im größten Teil des Zeitraumes, und dass die Werte mitten innerhalb der natürlichen Variabilität liegen.

Das IPCC behauptet, dass der Strahlungsantrieb (RF) vor 1750 relativ stabil war. Seitdem, so behauptet es, gab es einen stetigen Anstieg hauptsächlich infolge der Hinzufügung von menschlichem CO2 (Abbildung 4). Die NOAA erklärt dazu:

Seit 1750 haben anthropogen verursachte Klimatreiber zugenommen, und deren Auswirkungen dominieren alle natürlichen Klimatreiber.

Abbildung 4

Die Behauptung lautet also, dass eine Zunahme des Strahlungsantriebs um 2,29 W/m² fast die gesamte Temperaturänderung seit 1750 erklärt. Man vergleiche diese Zunahme mit der Variation des RF von ein paar natürlichen Klimatreibern, die in den IPCC-Modellen gar nicht berücksichtigt werden. Wie zuverlässig sind diese Daten? Wie groß sind die Fehlerbandbreiten? Wir wissen, dass die Klimasensitivität, das ist der RF-Einfluss auf die Temperatur, signifikant abgenommen hat (Abbildung 5).Man beachte dass das IPCC einen Ausreißer in dieser Bandbreite von Schätzungen der Klimasensitivität ausmacht. Diese Schätzungen liegen innerhalb oder sehr nahe bei dem Fehler der Schätzung. Eine Definition des RF lautet:

Der Strahlungsantrieb durch eine Klimavariable ist eine Änderung der Energiebilanz zwischen einfallender Solarstrahlung und ausgehender thermischen IR-Strahlung, wenn diese Variable sich ändert und alle anderen Faktoren konstant gehalten werden.

Abbildung 5

Die Phrase „alle anderen Faktoren werden konstant gehalten“ wird traditionell abgedeckt durch den lateinischen Terminus ceteris paribus. Unglücklicherweise ist dies in der Realität niemals der Fall und kann niemals auf ein dynamisches System wie Klimawandel angewendet werden, kommen doch dabei nur bedeutungslose Ergebnisse zustande. Das ist genauso wie die Phrase ,rein akademisch‘, was bedeutet, dass es in der realen Welt keinerlei Relevanz hat. Die Neigung in Abbildung 5 zeigt einen Trend, der jene stützt, die argumentieren, dass CO2 keine Klimasensitivität besitzt. Unabhängig davon ist die Stärke der Sensitivität viel zu gering, um signifikant zu sein.

Das Problem sind die Schätzungen von nur einer Seite jenes Gleichgewichtes, die „einfallende Solarstrahlung“, die deutlich variiert. Abbildung 6 zeigt die Variation der geschätzten Einstrahlungswerte aus verschiedenen Computermodellen. In einer Studie aus dem Jahr 2005 mit dem Titel [übersetzt] „wie gut können wir die Einstrahlung an der Obergrenze der Atmosphäre TOA in der Strahlungs-Klimatologie und in den GCMs berechnen?“ schreibt Ehrhard Raschke:

Der in 20 Modellen des Atmospheric Model Intercomparison Project (AMIP-2) verwendete solare Antrieb wurde verglichen mit der gleichen Quantität, die für das ISCCP [?] berechnet worden ist, und die Klimatologie sollte zumindest in dieser Quantität übereinstimmen. Allerdings zeigt die Abbildung auf Seite 1 unten (Abbildung 6 in diesem Beitrag) eine große Nicht-Übereinstimmung.

Man kann darüber spekulieren, dass derartige unterschiedlichen meridionalen Profile des solaren Strahlungsantriebs an der TOA auch einen Einfluss auf die berechnete Verteilung der atmosphärischen Zirkulation haben sollte, vor allem, wenn Simulationen über Zeiträume von mehreren Jahrzehnten bis mehreren Jahrhunderten durchgeführt werden. Daher sollten damit in Verbindung stehende Projekte innerhalb des World Climate Research Program angemessene Schritte unternehmen, um systematische Diskrepanzen wie oben gezeigt zu vermeiden und deren mögliche Auswirkung auf die resultierenden Klima- und Zirkulationsänderungen zu schätzen“.

Abbildung 6

Die mittlere Variation ist am Äquator gering, aber in höheren Breiten merklich größer. Die Vermutung liegt nahe, dass ein Gesamtfehler von mindestens 5 W/m² anzunehmen, was die vom IPCC behauptete Sensitivität von CO2 mehr als überschreitet.

Eine größere Frage ist, welche das Klima treibende Variablen ignoriert worden sind, vor allem in den IPCC-Modellen. Dazu gibt es eine große Vielfalt von Antworten. Dabei gilt, dass der größte Teil der Variabilität und die Fehler bei den Schätzungen den behaupteten RF komplett ertränken.

Der Milankovitch-Effekt ist in den IPCC-Computermodellen nicht enthalten mit der Begründung, dass die Änderungen zu langsam erfolgen und zu gering sind, um in einem Zeitraum von 120 Jahren Auswirkungen zu zeigen.

Abbildung 7 zeigt die Variation des RF auf 40°N während eines Zeitraumes von 1 Million Jahren.

Abbildung 7

Willis Eschenbach untersuchte die Beziehung zwischen dem Verlauf der Einstrahlung und dem 100.000 Jahre langen Milankovitch-Zyklus. Er fand keinen Zusammenhang mit der Temperaturanomalie im EPICA-Eisbohrkern aus der Antarktis. Darum geht es mir hier nicht, sondern um die Schwingung der Einstrahlung von 100 W/m² im Vergleich zur IPCC-Behauptung von 2,29 W/m².

Eschenbach verglich Milankovitch mit Schwingungen zwischen Eiszeit und Zwischeneiszeit während des Pleistozäns. Viele Menschen wissen nicht, dass es vor dem Pleistozän mindestens vier Vereisungen gegeben hatte, zusammen mit Spekulationen über deren Ursache, jedoch ohne diesbezügliche Übereinstimmung. Die verbreitetste Spekulation involviert den Orbit der Sonne um das Zentrum der Milchstraße und Wechselwirkungen mit galaktischem Staub auf dieser Reise. Wie wirkt sich dies auf den RF aus?

Die Liste von Variablen und Prozessen, die verantwortlich sind für kurz- und langfristige Variationen des RF und weit über die behaupteten anthropogen 2,29 W/m² hinausgehen, ist extensiv. Lamb zeigte im 2. Band von Climate Present, Past and Future die hier mit Abbildung 8 bezeichnete Graphik:

Abbildung 8

Dann ist da noch die Wasserdampf-Frage. Jeder sagt, dass es bei weitem das wichtigste Treibhausgas ist, man streitet nur darüber, wie wichtig. Wasserdampf ist 95% und CO2 4% durch Volumen. Darum haben AGWler behauptet, dass CO2 „effektiver“ hinsichtlich seiner Fähigkeit war, ausgehende thermische Strahlung zu blockieren. Die große Bandbreite aller Schätzungen dieses Effektes ist ein Beweis, dass es niemand weiß. Schlimmer noch, es gibt einen Widerspruch zwischen der NASA-Behauptung und dem IPCC. In der Studie wollte die NASA zu beweisen versuchen, dass die Rückkopplung von Wasserdampf positiv ist und Konsequenzen hat.

Diese Studie bestätigt, dass das, was von den Modellen prophezeit worden ist, in der Atmosphäre tatsächlich passiert“, sagte Eric Fetzer, ein Atmosphärenwissenschaftler, der mit AIRS-Daten arbeitet, am Jet Propulsion Laboratory der NASA in Pasadena. „Wasserdampf ist der große Player in der Atmosphäre, soweit es das Klima betrifft“.

Also bestimmt die Zunahme des anthropogenen CO2 in der Atmosphäre die Menge atmosphärischen Wasserdampfes. Der IPCC-Bericht 2007 belehrte uns:

Wasserdampf ist das häufigste und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge atmosphärischen Wasserdampfes“.

Es gibt kaum Zweifel daran, dass die Variation des atmosphärischen Wasserdampfes und der Fehler in den Schätzungen allein über die 2,29 W/m² hinausgeht, die dem menschlichen CO2 zugeordnet werden. Das gilt auch für die meisten Variablen, vor allem für jene, die das IPCC ausgelassen hat.

Es ist der Missbrauch der Wissenschaft, der die Irreführung erzeugt hat, die die AGW-Behauptung zu Ablenkung, Übertreibung und selektive Wahrheiten zwang. Aldous Huxley jedoch sagte mal: „Fakten sind durch Ignorieren nicht aus der Welt zu schaffen“. [Das habe ich auch gesagt, ohne von Huxley zu wissen, und zwar hier. Anm. d. Übers.]

Link: http://wattsupwiththat.com/2016/02/07/long-term-climate-change-what-is-a-reasonable-sample-size/

Übersetzt von Chris Frey EIKE




Globale Erwärmung: Eine große Herausforderung für Wissenschaft und Gesellschaft wurde von Friends of Science (FOS) effektiv angegriffen

Ich bin nicht sicher, ob verständlich fair ist, weil viele verstehen, aber oftmals nicht die Zeit oder die Neigung dazu haben. Der andere Grund ist, dass das Gehalt Vieler zu einem Teil aus dem dämonisierten Energie-Sektor stammt, was bedeutet, dass sie zwar verstehen, aber nicht zu sprechen in der Lage sind.

Am Nächsten kommen sie der direkten oder indirekten Äußerung ihrer Meinung gewöhnlich ohne dass sie davon wissen oder ohne Genehmigung seitens der von ihrer wissenschaftlichen Gesellschaft ausgegebenen Statements. Diese Organisationen, wie etwa die nationalen wissenschaftlichen Gesellschaften wurden vorsätzlich vereinnahmt durch die British Royal Society, um die betrügerische und im besten Falle unzureichende Klimawissenschaft des IPCC voranzutreiben. Die Schlacht um die Stimme wissenschaftlicher Gesellschaften geht weiter, wie Judith Curry für die American Meteorological Society AMS erklärt. Führer der AMS haben gezeigt, dass sie sich nicht von ihrer Position hinweg überreden lassen, weil sie an der George Mason University gelistet sind, um eine einseitig ausgerichtete Umfrage durchzuführen.

Einige Wissenschaftler erkennen nur zu genau, was da vor sich geht, und fordern die Verbreitung von Erkenntnissen ausschließlich auf wissenschaftlicher Grundlage. Dies war der Fall beim Professor Emeritus of Physics Hal Lewis von der University of California und der Aktionen seitens der American Physical Society APS. Er wusste um die Herausforderungen bzgl. des Gleichgewichtes zwischen Wissenschaft und Gesellschaft, wie er in seinem Brief anlässlich seines Austritts aus der APS erklärt:

Erst vor 35 Jahren, als ich der ersten APS-Studie eines umstrittenen sozialen/wissenschaftlichen Themas vorsaß, nämlich der ,Reactor Safety Study‘, gab es trotz zahlreicher Zeloten außerhalb der Universität keinen Hinweis auf übermäßigen Druck auf uns Physiker.

Er weist darauf hin, dass das heutzutage sehr anders ist, besonders beim Thema Klima. Er schrieb:

Es ist natürlich der Betrug um die globale Erwärmung und die buchstäblich Billionen Dollar, die hinter diesem stehen, der so viele Wissenschaftler korrumpiert hat. Er hat die APS nach Art einer Flutwelle vor sich her getrieben. Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich in einem langen Leben als Physiker erlebt habe. Jeder, der auch nur den leisesten Zweifel daran hat, sollte sich zwingen, die Klimagate-Dokumente zu lesen, die das alles offenlegen. (Montfords Buch bringt die Fakten sehr gut). Ich glaube nicht, dass irgendein echter Physiker, nein Wissenschaftler, dieses Zeug ohne Ekelgefühle lesen kann. Vielmehr würde ich diese Ekelgefühle als Definition des Wortes Wissenschaftler festlegen.

Prof. Lewis hat klar verstanden, aber in seiner Erklärung benennt er auch indirekt die Herausforderung. Er sagt irgendein echter Physiker, nein Wissenschaftler, aber das betrifft nur etwa 20 Prozent der Gesellschaft und nur wenige davon, die – selbst wenn sie gelesen haben, was los war – darüber sprechen würden oder können. Die Herausforderung besteht darin, Änderungen am Bildungssystem vorzunehmen, so dass alle verstehen können, wie die Wissenschaft korrumpiert ist ohne die Erfordernis eines akademischen Grades.

Die Herausforderung im Zusammenhang

Seit 25 Jahren hielt ich eine Wissenschafts-Vorlesung für Kunststudenten, welche für ihre akademische Ausbildung vorgeschrieben war. Der Grund für die Erfordernis derselben war Teil der fortwährenden Diskussion darüber, was ein traditioneller ausgeglichener Grad liberaler Kunst war. Wissenschaftsstudenten mussten zwei Vorlesungen zum Thema Geisteswissenschaft absolvieren. Es war ein Versuch, eine Person zu bilden mit einem weit gefassten Verständnis über Wissen und Gesellschaft. Die Abnahme dieser Objektive ist Teil der Verschiebung von Allgemeinwissen zu Spezialisierung, ein Trend, der meiner Ansicht nach im Zentrum der Herausforderung steht, vor der die Gesellschaft bzgl. der globalen Erwärmung steht. Klimatologie ist eine Allgemeindisziplin; Klimawissenschaft ist eine Mischung von Spezialisten, die jeder ein kleines Segment eines großen komplexen Systems studieren. Wir sahen die Probleme kürzlich bei den Cruz Senate Hearings mit Menschen, die gesprochen, aber nichts verstanden haben. Dies erzeugte ein Vakuum, das wie geschaffen war für die Demagogie von Senator Markey.

Einige Fakultäten an der Universität beklagten sich über diese Pflichtvorlesungen. Beispielsweise wollte ein Physikprofessor, dass alle seine Studenten alle 15 Zeugnisse in Physik vorlegen sollten bis zu einem Studienabschluss. Die Universität zog es vor, die Klagen abzuwiegeln, indem sie Vorlesungen einrichtete, die die Betonung auf Wissenschaft herunterspielte. Ich bin in zwei derartigen Vorlesungen involviert worden, die als Wissenschaftliche Zeugnisse gelistet waren. Ich hielt die Vorlesung ab und lehrte die Studenten, wie die Erde für Studenten arbeitet, welche die zukünftigen Bewohner der Welt waren. Ich erklärte ihnen, wie sie politische Entscheidungen in einer Welt treffen könnten, die einem Umweltaktivismus folgt, der eine Grundkenntnis der Wissenschaft voraussetzt. Ich fungierte auch als Gastdozent und hielt später Gastvorlesungen ab in einer Historie der Wissenschafts-Vorlesungen. Jeder, der eine solche Vorlesung besuchte, würde besser verstehen, was bzgl. des Betruges um die globale Erwärmung vor sich geht, selbst wenn sie die Wissenschaft nicht verstanden. Im Falle der globalen Erwärmung war alles, was sie wissen mussten, wie die wissenschaftliche Methode aussah und wie diese umgangen wurde, um ein vorbestimmtes Ergebnis zu erreichen. Ich denke, dass die Historie der Wissenschaft eine Pflichtvorlesung in allen Hochschulen werden sollte.

Falls die Öffentlichkeit die wissenschaftliche Methode verstehen würde, würde die Herausforderung, vor der die Skeptiker heute stehen, nicht existieren. Es gäbe keine Notwendigkeit für den Auftritt von Spezialisten der Klimawissenschaft wie Prof. Judith Curry, Prof. John Christy und Prof. William Happer vor dem CRUZ-Komitee. Alles, was man brauchen würde, wäre eine Person, die erklärt, auf welche Weise das IPCC die AGW-Hypothese beweisen und nicht widerlegen wollte. Douglas Yates drückte es so aus, was aber nur Wenige verstehen:

Keine wissenschaftliche Theorie erreicht die Akzeptanz in der Öffentlichkeit, solange sie nicht gründlich diskreditiert ist“.

Der Kommentar von Richard Lindzen vor vielen Jahren, dem zufolge der Konsens schon erreicht worden war, bevor die Forschung überhaupt angefangen hatte, wäre unnötig gewesen. Es ist eine Maßzahl dafür, wie wenig die Öffentlichkeit weiß über die wissenschaftliche Methode, von der nur wenige verstanden und verstehen, was er meinte.

Einige Menschen arbeiteten an der Überbrückung des Grabens: FOS ist ein effektives Beispiel

Fehlendes wissenschaftliches Wissen war eines von vielen Problemen, mit denen eine Gruppe von zumeist im Ruhestand befindlichen Wissenschaftlern in Calgary stand. Sie waren besorgt hinsichtlich der Wissenschaft hinter dem propagierten Kyoto-Protokoll. Sie beschlossen, eine Organisation zu gründen, die die Öffentlichkeit über die unzureichende wissenschaftliche Methode dahinter informiert, ebenso wie über die unzulängliche und ungenaue Wissenschaft. Sie riefen mich an, und ich habe mich mit ihnen am Flughafen von Calgary getroffen, um mit ihnen über ihre Pläne zu diskutieren. Das oberste Problem dort, wo die meisten von ihnen lebten war, dass die Orte als synonym mit der teuflischen Energieindustrie galten. Sogar noch problematischer war, dass viele von ihnen auch noch nach ihrem Eintritt in den Ruhestand im „Oil Patch“ arbeiteten. Dort war der Startpunkt für etwas, das zu einer Historie der Herausforderungen wurde, vor denen die Skeptiker der globalen Erwärmung und Klimawandel-Leugner überall standen.

Das Treffen begann mit Fragen über das Klima, um sicher zu sein, dass ihre Standpunkte in Ordnung und des Nachgehens würdig waren. Dann diskutierten wir über die Probleme der Kommunikation, die geteilt ist zwischen 80% Kulturdenken und 20% wissenschaftlichem Denken. Die Gruppe gehörte zu fast 100% in die Wissenschafts-Kategorie, die an das Ideal glaubt, dass saubere Wissenschaft amoralisch und unpolitisch ist. Die Realität war, dass das Kyoto-Protokoll eine politische Antwort war auf ein künstlich fabriziertes Anliegen auf der Grundlage schlechter Wissenschaft.

Man entschied sich, strikt der wissenschaftlichen Linie zu folgen. Ich warnte sie vor persönlichen Angriffen und besonders vor Auswirkungen auf Karriere und Einkommen. Ich drängte sie, für einen unabhängigen Fundraising-Prozess zu sorgen. Sie arrangierten dies mittels eines politischen Wissenschaftlers, Barry Cooper, an der University of Calgary. Auf vorbildliche Weise glaubte und lehrte dieser, dass alle Seiten einer öffentlichen Debatte die Offenlegung erfordern. In der Folge formierte sich die Gruppe zu Friends of Science (FOS).

Die Gruppe hatte einige Mühe, konnte aber mittels des Einsatzes einiger Einzelpersonen wie Albert Jacobs (immer noch aktiv) und Len Maier (kürzlich verstorben) überleben. Die Gruppe wurde unterminiert durch eine Spende in Höhe von 12.000 Dollar von einem Energieunternehmen – wovon die allermeisten Mitglieder jedoch keine Ahnung hatten. Dies wurde zum Kernpunkt von Angriffen und wurde von der Universität zum Anlass genommen, sie aus dem Campus zu werfen. Man findet eine kleine Schwäche und bläht diese zu einer Rechtfertigung auf, eine ganze Agenda über Bord zu werfen. Darum ist das Gesetz fundamental täuschend. Die Prämisse lautet „nobody is perfect“, aber das Gesetz verlangt genau diese perfekte Performance. Verteidiger finden leicht einen wirklichen Betrug, oder – wie es derzeit oftmals der Fall ist – spekulieren über einen solchen, um Zweifel zu säen. Sie glauben, dass dies clever ist, aber es ist der Unterschied zwischen Recht und Gerechtigkeit. Schlimmer noch, der Betrug ist abhängig von Vorurteilen in der Gesellschaft. Ein Betrug ist für die eine Gruppe verheerend, für die andere aber ohne Konsequenzen. Die grundlegenden wissenschaftlichen Fehler in dem Film von Al Gore ,Eine Unbequeme Wahrheit‘ leben unkorrigiert oder sogar als Vorurteil seiner politischen Standpunkte fort. Hingegen wird der kleinste identifizierte Fehler in anderen Dokumentationen aufgebläht und führt zu der Forderung der vollständigen Ablehnung. Ein ähnlicher Doppelstandard existiert hinsichtlich der Finanzierung. Zuwendungen der Regierung sind neutral und ohne Zweckbindung wie Geld von einer Umweltgruppe. Geld von Energieunternehmen ist sogar noch verwirrender. Falls diese eine Umweltgruppe finanzieren, ist es ,sauberes Geld‘, aber wenn Geld an eine Skeptiker-Gruppe wie FOS fließt, ist das gelenkt und kontrollierend. Nichts davon ist neu, aber die Widersprüche und die Hysterie sind gewaltig.

Trotz all dieser Attacken überlebte FOS und leistete grundlegende Beiträge. Sie hielten sich an die Wissenschaft und erbrachten selbst einige interessante Arbeiten. Ich erinnere mich mit Hochachtung an die Arbeit von Ken Gregory über die „Schwäche der kanadischen Klimamodelle“ (weakness of Canadian Climate models) oder seinen Beitrag auf WUWT zur Klimasensitivität. Im Jahre 2006 nahmen sie Madhav Khandekar in ihre Gruppe auf, um eine Liste begutachteter Anti-AGW-Artikel vorzubereiten, mit der Al Gore widersprochen werden und das Posaunen von Naomi Oreskes widerlegt werden sollte, dass es solche Artikel gar nicht gebe.

Sie leisteten auch sehr effektive Medienarbeit. Beispiel: Ich schrieb mehrere Radiokommentare, die allein aus sachlichen Fragen bestanden wie „Wussten Sie, dass CO2 nur etwa 4% Anteil an der Gesamtmenge der Treibhausgase hat?“. Diese Kommentare wurden in Ontario gesendet und waren so effektiv, dass sie Vorwürfe mittels der Canadian Radio and Television Commission (CRTC) hervorriefen, dass es sich um politische Werbung handele. Überraschenderweise hat die CRTC die Vorwürfe zurückgewiesen.

Über die Jahre haben die FOS vieles von ihrem Geld dazu verwendet, Vollzeit-Assistenten einzustellen, um Kontinuität sicherzustellen und die Grundarbeiten für die im Ruhestand befindlichen Mitglieder zu leisten. Bei der Erreichung des Zieles, direkt der Linie der Wissenschaft zu folgen, half es auch, eine Persönlichkeit mit Medien- und Politikerfahrungen einzustellen. Derzeit haben sie eine solche Persönlichkeit in Gestalt von Michelle Stirling, die exzellente Presseerklärungen verfasst, eine informative Website betreibt und eine sehr effektive Billboard-Werbekampagne im ganzen Land durchführt. Diese sind effektiv, weil die Attacken von Leuten kommen, die die falsche Wissenschaft für eine politische Agenda nutzen.

Ich bin sehr stolz auf meine Verbindung mit der Gruppe und dass ich ihnen helfen konnte, in die Gänge zu kommen. Über die Jahre habe ich viele Beiträge geliefert, bin in ihrem Namen aufgetreten wie z. B. bei der Anhörung der Regierung von Alberta zum Thema Kohlenstoff-Abscheidung. Außerdem wurde ich dreimal geehrt als Chefsprecher auf ihrer AGM [etwa: Jahreshauptversammlung]. Die Wahrheit ist, dass die meisten der Beitragenden sich in einen friedlichen Ruhestand hätten zurückziehen und den Missbrauch durch politische Operationen vermeiden können. Stattdessen zogen sie es vor, ihre Erfahrung und ihr Wissen dazu zu verwenden, die Menschen zu informieren.

Diese Gruppe befasst sich mit der Herausforderung der kommunikativen Wissenschaft in einer vorherrschend von Gefühlen und bequemer Wissenschaft geleiteten Gesellschaft. Sie sind effektiv, wie die hässliche Natur der Angriffe zeigt. Anders als ihre Angreifer, die nur danach trachten, ruhig zu stellen und zu zerstören, liefern sie wertvolle Informationen für Menschen, die zu ihren eigenen Schlussfolgerungen kommen. Sie tun dies mit einem minimalen Budget, unterstützt von Profis, die leidenschaftlich sind hinsichtlich Wissenschaft und der Wahrheit. Damit bieten sie auch der großen Gruppe „arbeitender Wissenschaftler“ ein Vehikel, die im Wesentlichen sonst keine Stimme haben.

Link: http://wattsupwiththat.com/2016/01/08/global-warming-a-major-challenge-for-science-and-society-effectively-tackled-by-friends-of-science-fos/

Übersetzt von Chris Frey EIKE




Wladimir Putin: Politik- und Klima-Realist?

Erfahrungen

Ich habe während des Kalten Krieges mit vielen sowjetischen Klimatologen gearbeitet. Alles fing damit an, dass ich ein Kapitel in einem Buch mit dem Titel Climate Science AD 1500 geschrieben hatte. Der Herausgeber hat Autoren von Kapiteln andere Kapitel begutachten lassen. Ein Kapitel, das mir zur Begutachtung vorgelegt wurde, trug die Überschrift „Documentary evidence from the USSR“ von E. P. Borisenkov. Darin ging es um den Wert russischer Chroniken. Ich wurde sehr vertraut mit der Arbeit von Mikhail Budyko, der einen grundlegenden Übergang vollzog von synoptischer Klimatologie zu einer Energiebilanz-Klimatologie. Sein Werk beeinflusste die gegenwärtige Klimawissenschaft. Ironischerweise war dieser Herausgeber Phil Jones, in dessen Klimagate-E-Mails zum einzigen Mal mein Name auftauchte. Im Mai 2008 schrieb er:

PPS Unser Web-Server hat dieses Stück Müll gefunden – so falsch, dass es unglaublich ist, dass Tim Ball ein vernünftiges Kapitel in Climate Science AD 1500 geschrieben hat.

Michael Mann schrieb dazu:

p.s. Was Tim Ball betrifft – er ist so vollständig diskreditiert (auch weil er ein Gerichtsverfahren verloren hat, indem er der Lüge hinsichtlich seiner wissenschaftlichen Laufbahn überführt wurde), dass niemand außer den wirklichen Leugnern sich auch nur mit dem Gedanken trägt, seinen Erguss zu lesen. Siehe z. B. hier:

http://www.desmogblog.com/node/1272

Ich finde, es ist eine erheiternde Kuriosität, dass er tatsächlich ein Kapitel hat bei Bradley und Jones.

Am besten geheim halten!

Das Problem: Ich habe kein Gerichtsverfahren verloren, und es gibt auch keine Veröffentlichung mit falschen Angaben zu meiner Laufbahn. Der Calgary Herald veröffentlichte eine Korrektur zusammen mit einer Entschuldigung. Man beachte die Informationsquelle von Mann. Und außerdem, wissen wir nicht inzwischen, wer den wirklichen Müll veröffentlicht hat?

Unterschiedliche Verfahren und Konflikte

Während des Kalten Krieges waren die meisten wissenschaftlichen Veröffentlichungen der Sowjetunion nicht verfügbar, bis es zu einer bedeutenden Änderung kam, als jüdische Wissenschaftler, die aus der Sowjetunion geflohen waren, in Israel einen Übersetzungsservice ins Leben riefen. Etwa im Jahre 1990 ergab sich eine Divergenz im Bereich Klimawissenschaft zwischen den Ländern des Ostblocks und des Westens. Die Sowjets glauben, das Klima sei zyklisch, die Summe einer Vielfalt von Zyklen. Die Herausforderung bestand darin, diese Zyklen zu identifizieren und die Wechselwirkungen zwischen ihnen herauszufinden. [Die zyklische Natur von] Klimaereignissen begann die russische Denkweise zu durchdringen besonders nach der Veröffentlichung des Artikels „Long Waves in Economic Life“ von Nikolai Kondratieff im Jahre 1926. Das Konzept von Klimazyklen hat seitdem in der Ökonomie und Vorhersagen des Aktienmarktes eine Blüte erreicht. Das Buch von Michael Zahorack „Climate: The Key to Understanding Business Cycles“ ist ein gutes Beispiel. Die westliche Denkweise entfaltete sich um die Chaos-Theorie, der zufolge das Wetter nach ein paar Tagen unvorhersagbar war wegen Rauschens; Lorenz und der Schmetterling. Dies führte zu einem nach wie vor andauernden Widerspruch zu AGW-Befürwortern. Falls man keine genaue Vorhersagen mehr als ein paar Tage im Voraus machen kann, wie kann man sich dann so sicher sein hinsichtlich Vorhersagen für 50 und 100 Jahre?

Das Faszinierende an diesem wissenschaftlichen, intellektuellen und philosophischen Unterschied zwischen West und Ost war der Umstand, dass er ausschließlich politisch und ideologisch interpretiert worden ist. Das war er nicht, und Putins Position ist eine Manifestation dieses Unterschieds. Faszinierend ist auch seine Erkenntnis, dass das IPCC und Kyoto eine politische Agenda war, um Entwicklung zu unterdrücken, außer dass er glaubt, dies sei nur auf Entwicklungsländer anwendbar. Tatsächlich lief die Agenda darauf hinaus, gleiche und begrenzte Entwicklung voranzubringen, indem entwickelte Länder geschwächt und Entwicklungsländer minimal gestärkt werden. All dies soll kommen, nachdem die entwickelten Länder für ihre Sünden bezahlt haben und das Geld an die leidenden Entwicklungsländer geflossen ist. Es braucht einen Kommunisten, um den Versuch der Installation einer Eine-Welt-Regierung zu erkennen. Putin hat nichts gegen eine solche, solange nur Russland alles unter Kontrolle hat.

Zu einer weiteren Illustration der russischen Position kam es, als Lord May wissenschaftliche Gesellschaften zur Promotion der globalen Agenda des IPCC benutzte. Er begann mit der UK Royal Society und nutzte deren Prestige, andere nationale Gesellschaften zu überreden, die öffentliche Wahrnehmung mit öffentlichen Erklärungen zu manipulieren. Die meisten Gesellschaften machten da mit. Was immer noch ein Zankapfel für Viele ist, wie der Rückzug von Professor Emeritus Hal Lewis aus der American Physical Society illustrierte [auch das EIKE berichtete ausführlich darüber. Anm. d. Übers.] Eine Gruppe jedoch, nämlich die Russische Academy, widerstand dieser Propaganda unter der Leitung des Klimatologen Prof. Yuri Izrael. Auf einer Konferenz des UK Met.-Office an der Exeter University unter dem Motto „Avoiding Dangerous Climate Change“ zahlten Prof. Izrael und Andrej Illarionov den Preis für ihre Aktionen. Benny Peiser berichtete:

Nach zwei Tagen ununterbrochener Untergangs-Prophezeiungen [doom and gloom predictions] auf der Konferenz des Met.-Office „Avoiding Dangerous Climate Change“ reichte es mir. Genug ist genug. Die ungemilderte Zur-Schau-Stellung unmittelbar bevorstehender Eiszeiten, Höllenfeuer, Massen-Hungersnöte, Mega-Dürren, globalen Epidemien und Massen-Aussterben ist eine Erfahrung, die ich niemandem empfehlen kann, der dünnhäutig veranlagt ist (obwohl die Nachrichtenmedien gar nicht genug davon bekommen können). Aber das Spektakel drohender Katastrophen war derart, dass jeder, der es gewagt hat – oder dem es erlaubt worden ist – zu hinterfragen, ob der Himmel wirklich drauf und dran ist, auf uns herabzufallen (und es waren mindestens ein halbes Dutzend gemäßigter Anti-Alarmisten zugegen) wurde gebrandmarkt als der „übliche Verdächtige“. Gegen Andrei Illarionov (Putins Wirtschaftsberater) wurde eine üble Verleumdungskampagne durch Martin Perry vom IPCC losgetreten.

Peiser berichtete, was nach der Präsentation von Prof. Izrael geschehen war:

Der russische Wissenschaftler bekam augenblicklich despektierlich einen Verweis des Vorsitzenden, dem früheren IPCC-Chef Sir John Houghton, weil er viel zu optimistisch sei. Solch ein moderater Vorschlag sei lächerlich, da er „mit der Politik des IPCC nicht kompatibel“ sei. Eindeutig gab das Treffen am Met.-Office den Ton an für den nächsten IPCC-Bericht.

Es war zutiefst empörend, die ungezogene und unhöfliche Art und Weise zu erleben, mit der über Prof. Izrael und Dr. Illarionov gleichermaßen hergezogen worden ist – von vielen Delegierten und IPCC-Funktionären.

This is the same UKMO that get weather and climate forecasts wrong so often they lost their contract to the fellow public agency the British Broadcasting Corporation (BBC).

Es handelt sich hier um das gleiche UKMO, das bei Wetter- und Klimavorhersagen schon so oft falsch lag, dass sein größter Kunde, die öffentliche Agentur BBC, den Vertrag mit dem UKMO gekündigt hat.

Putins Klima-Repräsentant

Putin war immer gegen Kyoto und der so genannten Wissenschaft dahinter eingestellt. Er sandte seinen Wirtschaftsberater Andrej Illarionov auf eine Weltreise, um zu erklären, was mit der Wissenschaft nicht stimmte. Eine Kopie seiner Präsentation in Washington im Jahre 2004 ist hier verfügbar. Nach der Tour änderte sich Putins politische Lage.

Das Kyoto-Protokoll benötigte die Ratifizierung durch eine ausreichende Anzahl von Ländern, die für 55% des CO2-Ausstoßes verantwortlich waren. Als die USA es ablehnten mitzumachen, war Russland zu jener Zeit das einzige Land, dass genug CO2 erzeugte, um Kyoto am Laufen zu halten. Illarionov beendete seine Weltreise und kehrte nach Russland zurück. Einen Monat später ließ Putin verlauten, dass er Kyoto ratifizieren werde. Illarionov trat zurück. Einige argumentierten, dass Putin größere Vorteile mit dem Verkauf von Emissions-Zertifikaten erzielen würde. Er erklärte die Realitäten hinter seinem Vorgehen. Sein Ziel war es, dass russische BIP zu verdoppeln, und seiner Ansicht nach war dies leichter zu erreichen durch eine Mitgliedschaft in der Welthandelsorganisation WTO.

Tatsache war, dass viele Nationen hauptsächlich in Europa Putin effektiv hintergangen haben, indem sie ihm sagten, dass sie definitiv seinen Antrag auf Mitgliedschaft Russlands in der WTO nicht unterstützen werden. Illarionov erzählte, was vor seinem Abgang von der Bühne los gewesen war. Putin betrachtete eine Mitgliedschaft als wertvoller als das Kyoto-Abkommen zu jener Zeit. Dieser Punkt wurde treffend von einem Polnischen Kommentator beschrieben:

Es gibt eine andere populäre Hypothese, die Ratifizierung mit der Unterstützung der EU für Russlands WTO-Beitritt zu verknüpfen. Obwohl hochrangige Funktionäre wie Außenminister Igor Ivanov und Energieminister Igor Iusofov diesen Vorwurf zurückwiesen, gab Präsident Putin höchstselbst einen Hinweis darauf, als er sagte: „Die EU ist uns auf halbem Wege in den Gesprächen über die WTO entgegen gekommen, und das kann nichts anderes tun als unsere Position hinsichtlich des Kyoto-Protokolls positiv zu beeinflussen“. Allerdings ist unklar, ob Russlands Zögern Teil einer Strategie des Verhandelns mit der EU war oder ob der Kreml „einfach“ nur seine Spezialposition zu seinem Vorteil ausnutzte, um der WTO-Mitgliedschaft näher zu kommen – was eines der Hauptziele von Putins Präsidentschaft war.

Inzwischen ist es ein Vorteil für Putin, gegen den Green Climate Fund GCF zu sein, der Kyoto ersetzen soll.

Wird Putin in den GCF einzahlen?

Auf der Konferenz COP16 wurde der Green Climate Fund ins Leben gerufen, mit der Weltbank als zwischenzeitlicher Sachwalter. Im September 2015 beschlossen die EU und Südkorea, den GCF zu einem Hauptthema auf der COP in Paris zu machen.

SONGDO, 17. September 2015 – Auf dem Achten Bilateralen Treffen haben die Führer der Republik Korea und der EU die Notwendigkeit betont, gegen den Klimawandel vorzugehen, und ihre Entschlossenheit bekräftigt, ihren Teil zu einem erfolgreichen universellen Klimaabkommen in Paris beizutragen.

Die drei Führer unterstrichen ihren Willen, den „GCF voll operationell zu machen mitsamt den hauptsächlichen Unternehmungen für das finanzielle Verfahren“ unter dem UNFCCC für das Klima-Regime nach 2020.

Dennoch, viele zahlen nicht:

Friends of the Earth International forderten heute, dass entwickelte Länder den GCF mit den im Jahre 2014 versprochenen Mitteln endlich ausstatten, und warnten, dass die bislang eingegangenen Beiträge alarmierend niedrig seien.

Tausende werden nach Paris pilgern, über die Hälfte davon Personen von NGOs. Sie werden eine Agenda vorantreiben, von der Putin weiß, dass sie komplett überflüssig ist. Wie die französische mathematische Gesellschaft ocietedeCalculMathematiqueSA in einer Studie aus jüngster Zeit schrieb, von der Putin Kenntnis hat, und die den Titel trägt [übersetzt] „Die Schlacht gegen globale Erwärmung: ein absurder, kostspieliger und sinnloser Kreuzzug“:

Es gibt nicht eine einzige Tatsache, Graphik oder Beobachtung, die uns folgern lässt, dass das Klima der Welt in irgendeiner Weise ,gestört‘ ist. Es ist variabel, wie es schon immer war, aber derzeit um Einiges geringer als während gewisser Perioden oder geologischer Zeiträume. Moderne Verfahren sind selbst heute noch weit davon entfernt, die globale Temperatur genau zu vermessen. Darum sind Messungen vor 50 oder 100 Jahren sogar noch unzuverlässiger.

Die CO2-Konzentrationen variieren, wie das schon immer der Fall war; die hierzu veröffentlichten Graphiken sind verzerrt und unehrlich. Ein steigender Meeresspiegel ist ein normales Phänomen, verbunden mit upthrust buoyancy [wie kann man das übersetzen? Anm. d. Übers.]; er hat nichts zu tun mit der so genannten globalen Erwärmung. Hinsichtlich von Extremwetterereignissen – sie sind derzeit nicht zahlreicher als sie es in der Vergangenheit waren.

Die Unterstützung der politischen Objektive der Agenda 21 gründet sich auf falsche Wissenschaft, die vom IPCC geschaffen worden ist. Der deutsche Physiker und Meteorologe Klaus-Eckart Puls erklärte hier, warum viel zu viele Wissenschaftler das nicht verstehen. Einfach deshalb, weil sie nie gelesen haben, was das IPCC sagt:

Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was das IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was der IPCC und die Medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten und Messungen gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen "nach-erzählt“ habe, dafür schäme ich mich heute. – Naturwissenschaftlich ist es schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben „ein schön angenehmes stabiles Klima“ festhalten zu wollen.

[Originalzitat – keine Rückübersetzung! Ball verlinkt einen Artikel bei Notrickszone, aber dieser bezieht sich auf den von mir eingefügten Hyperlink. Anm. d. Übers.]

Russische Wissenschaftler wissen genau, was das IPCC gesagt hat. Daher weiß Putin, dass die Klimawissenschaft des IPCC völlig falsch ist. Er weiß es, weil sowjetische und jetzt russische Klimatologen transparente, offene Wissenschaft betreiben, was eine Ironie angesichts des Umstandes ist, dass dies in einem System so ist, das alles kontrolliert. Er weiß auch, dass das IPCC erschaffen worden ist, das Klima für politische Ziele einzusetzen, weil er das besser kann als fast alle anderen. Wie man so sagt, man braucht einen Dieb, um einen Dieb zu fangen. Wie viel Geld wird Putin in den GCF einzahlen?

Link: http://wattsupwiththat.com/2015/10/30/vladimir-putin-climate-and-political-realist/

Übersetzt von Chris Frey EIKE




Rückbau der AGW-Hypothese

Ich weiß, Einiges dieses Materials ist nicht neu, habe ich doch selbst etwas davon entdeckt. Allerdings ist es an der Zeit, alles noch einmal zusammenzustellen, weil immer mehr Menschen sich dessen bewusst werden, was da vor sich geht, und die jetzt am Schauplatz des Crashs sind.

Das IPCC und seine Befürworter zeichneten eine Karte, bauten die Straßen und gestalteten die Verkehrszeichen, aber sie gestalteten, bauten und fuhren auch das Auto. Sie haben keinen Crash eingeplant und alles getan, um ihr Ziel zu erreichen. Das Problem entstand infolge der Hypothesen, die sie aufgestellt hatten, und infolge der Manipulation der Daten, die sie brauchten, um das Ergebnis der Expedition vorwegzunehmen; ein Crash war unvermeidlich.

Welche Bedingungen haben sie als notwendig angesehen, um ihr Ziel zu erreichen? Es gibt zwei unterschiedliche Listen. Die erste ist eine Liste der Hypothesen, die für den wissenschaftlichen Teil der AGW-Hypothese aufgestellt worden sind. Die zweite ist eine Liste mit Ausgangsbedingungen, die für den politischen Teil der AGW-Objektive gebraucht wurden.

Wissenschaftliche Hypothesen

1. CO2 ist ein Gas mit effektiv lediglich Einbahnstraßen-Eigenschaften, das es dem Sonnenlicht erlaubt, in die Erde einzudringen, dann aber verhindert, dass die Strahlung wieder entweicht.

2. Falls der atmosphärische CO2-Gehalt steigt, wird die globale Temperatur steigen.

3. Der atmosphärische CO2-Gehalt wird zunehmen, weil die Menschen jedes Jahr mehr CO2 freisetzen.

Politische Hypothesen

1. Die globalen Temperaturen sind die höchsten jemals.

2. Die globalen Temperaturen stiegen entsprechend dem Beginn der Industriellen Revolution

3. Das CO2-Niveau ist das höchste jemals.

4. Das CO2-Niveau lag vor der industriellen Revolution viel niedriger.

5. Das CO2-Niveau steigt weiterhin mit einer stetigen Rate infolge des jährlichen Beitrags der Menschen.

Datenquellen

Die wesentlichen Objektiven mussten mit einem niedrigen vorindustriellen Niveau atmosphärischen CO2′ beginnen und während der letzten 150 Jahre stetig ansteigen. Unter den Datenquellen waren Folgende:

1. Luftbläschen aus Eisbohrkernen, aber primär nur aus der Antarktis

2. Pflanzen-Stomata in Blättern, durch die die Pflanzen Gase mit der Atmosphäre austauschen. Deren Anzahl variiert mit dem atmosphärischen CO2-Gehalt.

3. Etwa 90.000 instrumentelle Messungen aus dem 19. Jahrhundert. Die Messungen begannen 1812 als die Wissenschaft die Chemie der Atmosphäre bestimmte.

4. Neuzeitliche instrumentelle Messungen konzentrierten sich primär auf den Mauna Loa, die im Jahre 1958 begannen als Teil des Internationalen Geophysikalischen Jahres.

5. Der jüngst gestartete NASA-Satellit Orbiting Carbon Observatory OCO2 mit den ersten veröffentlichten Daten der CO2-Konzentration vom 1. Oktober bis zum 11. November 2014.

6. IPCC-Schätzungen der menschlichen Erzeugung von CO2, derzeit bekannt unter der Bezeichnung Representative Concentration Pathways (RCP).

Die erste Frage lautet, was die nicht menschlichen Quellen und Senken von CO2 sind. Die Antwort lautet, wir wissen es nicht. Alles was wir haben sind sehr grobe Schätzungen von einigen davon, aber keine aktuellen brauchbaren Messungen. Man erinnere sich, was das IPCC in Box 2.1 Uncertainty in Observational Records sagte:

Unter den Unsicherheiten gemessener Aufzeichnungen sind Messfehler, Effekte der Repräsentation (z. B. Darstellung, Beobachtungshäufigkeit oder Timing), ebenso wie Effekte aufgrund physikalischer Änderungen der Instrumentation (Stationsverlagerungen oder neue Satelliten). Alle weiteren Schritte (Übertragung, Speicherung, Interpolation, Mittelbildung, Gridding) haben ebenfalls ihre eigenen speziellen Unsicherheiten. Weil es keinen einheitlichen und überzeugenden Weg gibt, den nicht-klimatischen Artefakten (sic) in der großen Mehrheit der Aufzeichnungen Rechnung zu tragen, muss es einen Grad der Unsicherheit geben hinsichtlich der Frage, wie sich das Klimasystem verändert hat.

Es ist wichtig festzuhalten, dass sie eine Ausnahme identifizieren, weil diese wichtig ist für ihr Narrativ, aber auch für die Nachbildung des IPCC-Wracks:

Die einzige Ausnahme hiervon sind bestimmte Messungen der atmosphärischen Zusammensetzung und der Flüsse, deren Messungen und Unsicherheiten fest verbunden sind mit einer ununterbrochenen Kette von international anerkannten absoluten Mess-Standards (z. B. die CO2-Messung am Mauna Loa; Keeling et al., 1976a)

Das IPCC erstellt dann ein bizarres und verwirrendes Diagramm (Abbildung 1, im Original Abbildung 6.1), in dem es eher um das zugrunde liegende Szenario für ihr Narrativ geht als um eine Klarstellung oder Erläuterung:

Abbildung 1

Normalerweise füge ich nicht die Legende einer Graphik oder eines Diagramms bei, aber in diesem Falle ist sie sehr informativ. Nicht, dass sie der Klarstellung dient, sondern weil sie illustriert, wie wenig man weiß und wie wichtig es ist, die menschliche CO2-Erzeugung während der Industriellen Revolution in den Mittelpunkt zu stellen. Dies kommt nicht überraschend, ist dies doch die Definition des Klimawandels, festgelegt in Artikel 1 des UNFCCC. Falls man so vorgeht, ist ein Crash unvermeidlich:

Abbildung 6.1: Vereinfachtes Schema des globalen Kohlenstoff-Kreislaufes. Die Zahlen repräsentieren die Menge im Reservoir, auch ,Kohlenstoff-Speicher‘ in PgC (1 PgC = 1015 gC) sowie jährliche Kohlenstoff-Austausch-Flüsse (in PgC pro Jahr). Schwarze Zahlen und Pfeile stehen für die Menge im Reservoir und Austausch-Flüsse, geschätzt für die Zeit vor der Industriellen Ära, etwa um das Jahr 1750. Die Reserven fossiler Treibstoffe stammen aus GEA (2006) und sind konsistent mit Zahlen der WG III des IPCC für zukünftige Szenarien. Die Sediment-Speicherung ist eine Summe von 150 PgC des organischen Kohlenstoffes in der Grenzschicht [mixed layer] (Emerson und Hedges 1988) sowie von 1600 PgC der verfügbaren CaCO3-Sedimente in der Tiefsee, um das CO2 aus fossilen Treibstoffen zu neutralisieren (Archer et al. 1998). Rote Pfeile und Zahlen zeigen jährliche ,anthropogene‘ Flüsse, gemittelt über den Zeitraum 2000 bis 2009. Diese Flüsse durchdringen den Kohlenstoff-Kreislauf während der industriellen Ära nach 1750. Diese Flüsse (rote Pfeile) sind: CO2-Emissionen aus fossilen Treibstoffen und der Zement-Herstellung, Gesamt-Änderung der Landnutzung, und die mittlere atmosphärische Zunahme von CO2, auch CO2-Wachstumsrate genannt. Die Aufnahme anthropogenen CO2′ durch Ozeane und terrestrische Ökosysteme, oftmals ,Kohlenstoff-Senken‘ genannt, sind der Anteil der roten Pfeile des Gesamten Festland-Flusses und des gesamten Ozean-Flusses. Die roten Zahlen in den Reservoiren zeigen kumulative Änderungen anthropogenen Kohlenstoffes während der Industriellen Periode (1750 bis 2011). Per Konvention bedeutet eine positive kumulative Änderung, dass ein Reservoir seit 1750 Kohlenstoff aufgenommen hat. Die kumulative Änderung anthropogenen Kohlenstoffes im terrestrischen Reservoir ist die Summe des kumulativ verloren gegangenen Kohlenstoffes durch Änderungen des Landverbrauchs und des akkumulierten Kohlenstoffes seit 1750 in anderen Ökosystemen. Man beachte, dass die Massenbilanz der beiden ozeanischen Kohlenstoffspeicher an der Oberfläche, den mittleren Tiefen und der Tiefsee eine jährliche Akkumulation anthropogenen Kohlenstoffes enthält (nicht gezeigt). Unsicherheiten werden in 90%-Vertrauens-Intervallen angegeben. Emissionsschätzungen sowie Festlands- und Ozean-Senken (rot) stammen aus einem späteren Abschnitt. Die Änderung der großen terrestrischen Flüsse (rote Pfeile der Photosynthese) wurden aus CMIP5-Modellergebnissen geschätzt. Die Änderung der Austauschflüsse zwischen Luft und Meer (rote Pfeile des Ozean-Atmosphäre-Gasaustausches) wurden geschätzt aus der Differenz des atmosphärischen Partialdrucks seit 1750 (Sarmiento und Gruber 2006). Individuelle Gesamtflüsse und deren Änderungen seit Beginn der Industriellen Ära weisen typische Unsicherheiten von über 20% auf, während deren Differenzen (Gesamt-Festlands- und Gesamt Ozean-Fluss in der Abbildung) aus unabhängigen Messungen mit einer viel höheren Genauigkeit bestimmt wurden. Um eine Alles-in-Allem-Bilanz zu erstellen, wurden daher die Werte der unsichereren Gesamtflüsse adjustiert, so dass deren Differenzen passen zu den Schätzungen des Gesamt-Festlands- und des Gesamt-Ozean-Flusses. Flüsse durch vulkanische Eruptionen, Verwitterung von Felsen (was zu einer geringen CO2-Aufnahme aus der Atmosphäre führt), der Transfer von Kohlenstoff aus der Erde in Flüssen zum Ozean werden alle als präindustrielle Flüsse vermutet, das heißt sie sind von 1750 bis 2011 unverändert. Einige Studien aus jüngerer Zeit zeigen, dass diese Hypothese wahrscheinlich nicht verifiziert ist, aber globale Schätzungen der Durchdringung all dieser Flüsse während der Industriellen Ära waren aus der begutachteten Literatur nicht verfügbar. Der atmosphärische Vorrat wurde berechnet mittels eines Konversionsfaktors von 2,12 PgC pro ppm (Prather et al. 2012)

Dies ist vermutlich eines der bemerkenswertesten Beispiele wissenschaftlicher Verschleierung in der Geschichte. Jede Zahl ist eine grobe Schätzung. Der Kommentar sagt, dass wir überhaupt nichts wissen, uns aber völlig sicher sind hinsichtlich der menschlichen CO2-Erzeugung während der industriellen Ära. Meines Wissens nach gibt es keinerlei systematische, umfassende Messungen von CO2-Austausch mit den meisten Landschaftsformen, bedeckt von verschiedenen Wäldern, aber vor allem Grasland. Das Grasland illustriert das Problem, weil – abhängig von der Definition – die Ausdehnung variiert zwischen 15 und 40 Prozent. Der wichtige Punkt hier ist, dass wir kaum Ahnung haben über Volumina oder der Art der Änderung mit der Zeit. Eine Gruppe, die das vermeintlich wissen müsste, die American Chemical Society, bestätigt diesen Punkt. Natürlich wissen wir, wie professionelle Gesellschaften auf die Linie des IPCC getrimmt worden sind. In einem Artikel unter der Überschrift [übersetzt] „Treibhausgas-Quellen und _Senken“ (Greenhouse Gas Sources and Sinks) präsentieren sie ein Diagramm des IPCC (Abbildung 2):

Abbildung 2

Der Text der American Chemical Society, der vermeintlich um die atmosphärische Chemie weiß, sagt:

Die in diesen kurzen Zusammenfassungen genannten Quellen der Gase sind die Wichtigsten, aber es gibt auch andere Quellen geringerer Bedeutung. Die Details der Senken, durch welche die Gase aus der Atmosphäre entfernt werden, sind nicht enthalten. Die Graphik für jedes Gas (oder Gas-Klasse) stammt aus Abbildung 1, FAQ 7.1, IPCC, AR 4 (2007), Kapitel 7. Menschliche Quellen werden in orange und natürliche Quellen und Senken in blaugrün gezeigt. Die Einheiten sind Gramm (g) oder metrische Tonnen. Vielfache hiervon in den Abbildungen sind: Gt (gigatonne) = 109 t = 1015 g; Tg (teragram) = 1012 g = 106 t; and Gg (gigagram) = 109 g = 103 t.

Als eine professionelle Gesellschaft sollten sie wissen, dass über Gase in der Atmosphäre nichts bekannt ist, und doch stützen sie die IPCC-Illusionen als Fakten. Es gibt kaum Hinweise auf Schwächen oder Warnungen der wissenschaftlichen Grenzen, die sogar das IPCC selbst benennt – in Kasten 2.1.

Erzeugung einer geglätteten CO2-Kurve

Ein grundlegender Fehler beim ,Hockeyschläger‘ ist es, eine Baumring-Aufzeichnung, den Stiel, mit einer instrumentellen Temperaturaufzeichnung, dem Blatt, zu verbinden. Dies wurde getan, weil die Baumring-Aufzeichnung abnehmende Temperaturen zeigte, was deren Hypothese und ihrer politischen Agenda widersprach. Ironischerweise ist es eine wesentliche Herausforderung in der Klimatologie, eine kontinuierliche Aufzeichnung zu erzeugen mit Daten aus verschiedenen Quellen. H. H. Lamb widmet den ersten Teil seines epischen Werkes Climate, Present, Past and Future (1977) diesen Problemen. Auch zeigt er eine Graphik mit der Länge der möglichen Klima-Zeitreihen und dem Überlappungs-Problem (Abbildung 3). Da gibt es drei Gebiete: instrumental oder säkular, die Historie sowie Biologie und Geologie.

Abbildung 3

Daten aus verschiedenen Quellen müssen zueinander passen, um vom vorindustriellen Niveau bis heute die kontinuierliche geglättete Kurve von CO2 zu erzeugen. Dies involvierte drei Datensätze: Eisbohrkerne, instrumentelle Messungen aus dem 19. Jahrhundert und die Aufzeichnung vom Mauna Loa. Abbildung 4 zeigt die Rekonstruktion aus diesen drei Quellen von Ernst-Georg Beck. Falls man die Daten aus dem 19. Jahrhundert entfernt, zeigt sich ein weiteres Beispiel eines ,Hockeyschlägers‘. Die Daten aus den Eisbohrkernen sind der Griff aus einer einzigen Quelle, einem Bohrkern aus der Antarktis. Das Blatt ist die Instrumenten-Aufzeichnung vom Mauna Loa. Die Arbeitsgruppe 1 zum IPCC-Bericht 2001 schreibt dazu:

Die CO2-Konzentration in der Atmosphäre stieg von etwa 280 ppm im Jahre 1880 zunächst langsam, dann immer schneller auf den Wert von 367 ppm im Jahre 1999. Dies spiegelt das Tempo der landwirtschaftlichen und industriellen Entwicklung. Dies ist bekannt aus zahlreichen, gut nachgebildeten Messungen der Zusammensetzung von Luftbläschen im antarktischen Eis. Atmosphärische CO2-Konzentrationen wurden seit 1957 mit hoher Präzision direkt gemessen. Diese Messungen stimmen mit den Ergebnissen aus den Eisbohrkernen überein und zeigen einen fortgesetzten zunehmenden Trend bis zur Gegenwart.

Diese Messungen sind nicht gut erfasst und haben viele ernste Begrenzungen. Darunter sind:

1. Es dauert Jahre, bis ein solches Bläschen im Eis gefangen ist. Welches Jahr repräsentiert das Bläschen?

2. Mit dem dicker werdenden Eis wird es unmöglich, die Schichten zu bestimmen, und daher die Datierung der jeweiligen Sequenz schwieriger. Einige sagen, dass man bei einer Tiefe von 2000 m im Eis 245 cm Eis braucht, um eine einzige Stichprobe zu erhalten, aber unter dem Druck und dem Vermischen kann ein einzelnes Bläschen mehrere tausend Jahre repräsentieren.

3. Schmelzwasser an der Oberfläche, welches sich in jedem Sommer bildet, dringt in das Eis ein und verunreinigt die Bläschen. Zbigniew Jaworowski sagte in seiner Anhörung vor dem US-Senat:

Über 20 physikalisch-chemische Prozesse, meistens in Verbindung mit flüssigem Wasser, tragen zur Veränderung der ursprünglichen chemischen Zusammensetzung der Lufteinschlüsse im polaren Eis bei.

4. Einer Studie von Christner (2002) mit dem Titel [übersetzt] Auffinden, Isolierung und Charakterisierung von Bakterien in Gletschereis und dem Eiswachstum im Wostok-See. Zufolge setzen gefundene Bakterien selbst noch in 500.000 Jahre altem Eis Gase frei.

Abbildung 4

Eine Rekonstruktion dieser Teile des Crashs enthüllt, wie dieser erreicht wurde.

Prof. Zbigniew Jaworowski wurde wüst beschimpft während seiner letzten Lebensjahre wegen seinen Ansichten zu Klimawandel und Eisbohrkern-Daten. Wie bei allen, die derartig attackiert werden und wurden, ist dies ein sicheres Anzeichen, dass sie die vorsätzlichen Täuschungen der politischen Agenda der globalen Erwärmung bloß stellen. Hier folgen Auszüge aus Jaworowskis Karriere, die seine Präsentation vor dem US-Komitee für Handel, Wissenschaft und Transportwesen begleiteten:

Ich bin Professor am Central Laboratory for Radiological Protection (CLOR) in Warschau, einer Regierungs-Institution, die sich mit Umweltstudien befasst. CLOR hat eine „spezielle Verbindung“ mit dem US National Council on Radiological Protection and Measurements (NCRP). Einst kooperierte das CLOR etwa zehn Jahre lang sehr eng mit der EPA in den USA bei Forschungen bzgl. des Einflusses von Industrie und atomaren Explosionen auf die Verschmutzung der globalen Umwelt und der Bevölkerung. Ich habe etwa 280 wissenschaftliche Studien veröffentlicht, darunter 20, die sich mit klimatischen Problemen befassen. Ich bin Repräsentant von Polen im United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR),und von 1980 bis 1982 war ich der Vorsitzende dieses Komitees.

Während der letzten 40 Jahre war ich in Gletscherstudien involviert, wobei ich Schnee und Eis als Matrix benutzt habe, um die Historie der vom Menschen verursachten Verschmutzung der globalen Atmosphäre zu rekonstruieren. Ein Teil dieser Studien befasste sich mit Klimathemen. Eisbohrkerne und die Auswertung derselben wurden verbreitet als Beweis angeführt, dass infolge der menschlichen Aktivitäten das gegenwärtige CO2-Niveau der Atmosphäre etwa 25% höher ist als in der vorindustriellen Periode. Diese Aufzeichnungen wurden zu den grundlegenden Eingangs-Parametern in die Modelle des globalen Kohlenstoff-Kreislaufes und ein Eckpfeiler der Hypothese von der vom Menschen verursachten klimatischen Erwärmung. Diese Aufzeichnungen repräsentieren nicht die atmosphärische Realität, wie ich im Folgenden belegen möchte.

Niemand war qualifizierter, etwas zu den Aufzeichnungen aus Eisbohrkernen etwas zu sagen, und hier folgt das, was er vor dem Komitee sagte:

Die Grundlage der meisten IPCC-Schlussfolgerungen zu anthropogenen Gründen und zu Projektionen des Klimawandels ist die Hypothese eines niedrigen Niveaus von CO2 in der vorindustriellen Atmosphäre. Diese Hypothese ist auf der Grundlage glaziologischer Studien falsch“.

Genauso wichtig ist Jaworowskis Aussage:

Die Vorstellung eines geringen vorindustriellen CO2-Niveaus in der Atmosphäre auf der Grundlage so geringen Wissens wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise aus direkten Messungen von CO2 in der Luft, die zeigen, dass dessen mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (Abbildung 2).Die eingekreisten Werte in Abbildung 2 zeigen eine verzerrte Auswahl von Daten um zu zeigen, dass das CO2-Niveau im 19. Jahrhundert nur 292 ppmv betragen hatte. Eine Untersuchung von Stomata-Häufigkeiten in fossilem Laub aus Ablagerungen in einem holozänen See in Dänemark zeigen, dass das atmosphärische CO2-Niveau vor 9400 Jahren 333 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept einer stabilen und geringen CO2-Konzentration bis zum Aufkommen der industriellen Revolution.

Abbildung 5 zeigt die Beweise aus den Stomata bzgl. des CO2-Niveaus im Vergleich mit den Daten aus Eisbohrkernen, auf die sich Jaworowski bezieht:

Abbildung 5

Unabhängig vom alles in allem höheren Mittel beachte man den glatten Verlauf der Eisbohrkern-Kurve, der in Teilen erreicht wurde durch ein Glättungs-Mittelwert über 70 Jahre. Bei diesem Verfahren gehen große Mengen an Informationen verloren, vor allem hinsichtlich der Variabilität, wie die Aufzeichnungen aus den Stomata zeigen.

Die andere Referenz Jaworowskis ist eine Graphik (Abbildung 6), die erstellt worden ist durch den Ingenieur bei British Steam Guy Stewart Callendar, der auch ein früher Unterstützer von AGW war.

Abbildung 6 (Trendlinien hinzugefügt vom Autor).

Die Punkte repräsentieren die Messungen des atmosphärischen CO2′ während des 19.Jahrhunderts durch Wissenschaftler mittels rigider Verfahren und gut dokumentierter Instrumentation. Die Objektive der Messungen, begonnen im Jahre 1812, hatte nichts mit Klima zu tun. Vielmehr wollte man die einzelnen Gase der Atmosphäre bestimmen. Damit wurde die Arbeit von Joseph Priestly fortgesetzt, der – obgleich nicht der Erste, der den Sauerstoff entdeckt hatte – der Erste mit veröffentlichten Studien war (1774): Abbildung 6 zeigt die Testmengen, die Callendar ausgewählt hatte (cherry picked), um sein geringes vorindustrielles CO2-Niveau zu behaupten. Was genauso bedeutend ist: Er änderte die Neigung von einem abnehmenden hin zu einem zunehmenden Trend. Abbildung 4 zeigt die gleichen Daten des 19. Jahrhunderts im Vergleich zum Eisbohrkern und den Verläufen am Mauna Loa.

Vorbehalt: Ernst-Georg Beck übermittelte mir seine vorläufigen Arbeiten bzgl. der Daten, und wir haben oft darüber kommuniziert bis zu seinem viel zu frühen Ableben. Ich warnte ihn vor den Angriffen, die dann noch weit über das hinausgingen, was er erwartet hatte. Die Angriffe gehen immer noch weiter, obwohl seine Arbeit akribisch von seinem Freund Edgar Gärtner bei seiner Beerdigung erklärt wurde:

Aufgrund seines immensen Fachwissens und seiner methodischen Strenge fielen Ernst sehr frühzeitig zahlreiche Ungereimtheiten in den Aussagen des „Weltklimarates" IPCC auf. [Originalzitat, da Tim Ball den Link {hier} genannt hat. Keine Rückübersetzung! Anm. d. Übers.]

Das Problem bei der Arbeit von Beck war, dass darin identifiziert wurde, warum Callendar so mit den Daten umgegangen ist, wie er es getan hatte. In der Klima-Gemeinschaft wurde die Bedrohung erkannt und in einer Studie im Jahre 1983 behandelt mit dem Titel „The pre-industrial carbon dioxide level” von Tom Wigley, damals Direktor der CRU. Ich erinnere mich daran, weil ich zu der Zeit Seminare abgehalten hatte zur Bedeutung der Studie.

Die Kritik an den Aufzeichnungen aus dem 19.Jahrhundert wurde in einem einzigen Kommentar zusammengefasst: sie waren Zufall. Ja, in den meisten Studien ist das zufällige Herausgreifen von Stichproben wünschenswerter und repräsentativer hinsichtlich der Realität als willkürlich vorbestimmte Stichproben, von denen man weiß, dass sie das Narrativ stützen, wie es gegenwärtig der Fall ist. Das funktioniert nur unter der Annahme, dass das Gas gut durchmischt ist. Eine Kritik lautet, dass Becks Aufzeichnungen ein hohes Niveau um das Jahr 1942 zeigen im Vergleich mit der Aufzeichnung aus der Antarktis. Der Grund hierfür war wahrscheinlich, dass CO2 nicht gut durchmischt ist, wie es OCO2 und andere Aufzeichnungen zeigen; und auch, dass die meisten dieser Aufzeichnungen in Europa während des Krieges erfolgten. Nebenbei, mit der Periode von 70 Jahren, die es dauert, ein Gasbläschen im antarktischen Eis einzuschließen, würde sich dieses Bläschen erst im Jahre 2012 zeigen. Die Wahrheit ist, dass es keine anderen genauen Messungen von CO2 im Jahre 1942 gibt als die von Beck Verwendeten.

Eine andere Kritik lautet, dass die Stellen einschließlich der Höhe, in der die Messungen durchgeführt worden sind, deutlich variierten. Natürlich ist das genau der Punkt. Sie wurden nicht verengt und manipuliert wie die gegenwärtigen Aufzeichnungen vom Mauna Loa und Ähnlichem. Darum stellen sie nur Messungen an einigen wenigen Punkten dar, die essentiell alle natürlichen Einflüsse eliminieren. Dies ist offensichtlich aus den vorläufigen OCO2, den Stomata und Becks Aufzeichnung, in denen die große Variabilität von Tag zu Tag und von Region zu Region die Norm ist. Weitere Beweise dafür, dass dies die Norm ist: sie haben versucht, all diese natürliche Variabilität aus den Eisbohrkernen und den Mauna-Loa-Messungen zu eliminieren. Wenn die langwellige Ausstrahlung die Oberfläche verlässt, muss sie die gesamte Atmosphäre durchlaufen. Der CO2-Effekt ist überall vorhanden, nicht nur an bestimmten Stellen einer engen Auswahl in bestimmten Höhen wie die Mauna-Loa-Messungen. Beck schreibt dazu:

Die Mauna-Loa-Messungen repräsentieren nicht das typische atmosphärische CO2 an verschiedenen globalen Stellen, sondern sind typisch ausschließlich für diesen Vulkan an einer maritimen Stelle in einer Höhe von etwa 4000 m ü. NN auf jenem Breitengrad.

Charles Keeling stattete die Station am Mauna Loa mit von ihm patentierten Instrumenten aus. Wie Beck schrieb, gehört der Familie das globale Monopol aller CO2-Messungen. Keeling wird als der Erste genannt, der die Welt bzgl. AGW alarmiert hat. Wie es dazu in einem zweifellos bearbeiteten Eintrag bei Wikipedia heißt:

Charles David Keeling (1928 bis 2005) war ein amerikanischer Wissenschaftler, dessen CO2-Aufzeichnungen am Mauna-Loa-Observatorium die Welt zum ersten Mal alarmierten hinsichtlich der Möglichkeit eines menschlichen Beitrags zum Treibhauseffekt und einer globalen Erwärmung.

Keelings Sohn, ein Mitautor der IPCC-Berichte, kontrolliert weiterhin die Einrichtungen am Mauna Loa. Der stetige Anstieg der Keeling-Kurve ist bekanntlich besorglich, vor allem, wenn man die Variabilität betrachtet, die für die IPCC-Story als nicht zuträglich angesehen wird. Wie lange wird sich dieser Trend fortsetzen? Wir wissen, dass die globalen Temperaturen gestiegen sind, bis die Satelliten-Ära Daten erbrachte, die unabhängig vom IPCC sind.

Es gibt keine unabhängige CO2-Aufzeichnungen, die Keelings haben das Monopol und sind die offizielle Aufzeichnung für das IPCC.

Beck erklärte:

Die moderne Treibhaus-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie jüngst vom IPCC popularisiert. Eine Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Zahl valider technischer Studien und älterer CO2-Bestimmungen ausgesondert haben, weil die nicht zu ihrer Hypothese passen. Es ist offensichtlich, dass sie lediglich einige wenige sorgfältig ausgewählte Werte aus der älteren Literatur herangezogen haben, die ausnahmslos Ergebnisse brachten, die mit der Hypothese eines induzierten CO2-Anstiegs in der Luft durch die Verbrennung fossiler Treibstoffe konsistent war.

Jetzt stecken sie in dem Dilemma fest, dass die Temperatur seit über 19 Jahren nicht mehr gestiegen ist, während der CO2-Gehalt den Mauna-Loa-Messungen zufolge seinen stetigen Anstieg fortsetzt. Wie lange wird es dauern, bis wir eine bekannt gemachte Abnahme dieser Aufzeichnungen sehen, um die Daten auf Linie mit der politischen Mission zu bringen? Glücklicherweise ist es dank der Arbeiten von Jaworowski und Beck zu spät, den Schaden kleinzureden, den der Zeitlupen-Crash verursacht, der sich unvermeidlich entwickelt. Die Hockeyschläger des gesamten Teams sind in dem Crash zerbrochen [nur dass der Öffentlichkeit dies geflissentlich verschwiegen wird! Anm. d. Übers.]

Anmerkung von Anthony Watts (1.11.159:

Einige Passagen dieses Beitrags beziehen sich auf eine Reihe chemischer Analysen von Luft-Stichproben bzgl. CO2 an der Erdoberfläche von Georg Beck. Ich denke, dass die Luft-Stichproben nur geringe Qualitätskontrollen durchlaufen haben und nicht notwendigerweise repräsentativ sind für das globale CO2-Niveau zu jener Zeit und an jenen Orten. Ich glaube, dass die Messungen von einem Bias durch den Ort der Messung verzerrt sind und unter atmosphärischen Bedingungen erfolgt sind, die nicht sehr gut durchmischt waren. Daher sollte man sie mit Vorsicht betrachten. Ich bringe diesen Beitrag einfach zur Diskussion, was nicht heißen soll, dass ich uneingeschränkt hinter den Beck-Daten stehe. – Anthony Watts

Link: http://wattsupwiththat.com/2015/10/17/deconstruction-of-the-anthropogenic-global-warming-agw-hypothesis-2/

Übersetzt von Chris Frey EIKE




Hat James Hansen unabsichtlich die AGW-Null-Hypothese bewiesen?

Bild rechts: © Alan Caruba †

Hintergrund

Der erste IPCC-Bericht war im Jahre 1990 erschienen, aber einen mehr konzertierten Schub der AGW-Hypothese gab es erst im Bericht 1995. Vier Jahre später wurde die Auswertung eines Eisbohrkerns aus der Antarktis von Petit et al. in Nature veröffentlicht. Der Artikel enthielt auch eine Graphik, in der Temperatur, CO2, Methan und Einstrahlung miteinander verglichen werden (Abbildung 1)

Abbildung 1

Die Graphik scheint die AGW-Hypothese zu stützen. Es sieht so aus, als ob eine Temperaturzunahme einer CO2-Zunahme vorausgegangen war [It looked like temperature increase preceded CO2 increase. Das passt nicht zum Satz davor. Hat der Autor hier vielleicht etwas verwechselt? Anm. d. Übers.] Ich kontaktierte einen der Autoren, Jean Jouzel, und warnte ihn davor, in einem Interview zu einer Beurteilung zu kommen. Er merkte an, dass 420.000 Jahre in einer 10 cm langen Graphik geplottet waren, kompliziert durch ein über 70 Jahre geglättetes Mittel, das viele Details maskiert hatte. Er war vorausschauend. AGW-Befürworter ignorierten die Warnung und nutzten die Graphik als Unterstützung für ihre Hypothese. Im Endeffekt wurde sie zum Vorläufer des ,Hockeyschlägers‘, der so viel Aufmerksamkeit in den Medien und der Öffentlichkeit erregt hatte.

Allerdings hat schon Hubertus Fischer von der Scripps Institution of Oceanography in guter wissenschaftlicher Tradition die Beziehung zwischen Ursache und Wirkung in einer Studie aus dem Jahr 1999 in Frage gestellt. Im Jahre 2001 hat Manfred Mudelsee im Quaternary Science Review eine andere Studie veröffentlicht, in welcher er diese Beziehung ebenfalls in Frage stellt.

Lowell Stott wartete im Jahre 2007 mit einer Studie auf, veröffentlicht in Science, mit dem Titel Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming [etwa: Erwärmung auf der Südhalbkugel und in der Tiefsee führte zu einem CO2-Anstieg und einer Erwärmung in den Tropen]. Sherwood und Craig Idso betreiben die beste Website hinsichtlich aller mit CO2 zusammenhängenden Themen. Dort findet sich auch eine Liste mit Studien und weiteren Beweisen, dass die Beziehung umgekehrt zur IPCC-Hypothese ist. Keine einzige dieser Studien hat jemals die Aufmerksamkeit der Mainstream-Medien erregt.

Gescheiterte Prognosen, welche schon im IPCC-Bericht 1990 aufgetaucht waren, waren eines der ersten Anzeichen des Problems. Anstatt die Hypothese zu überdenken und die Wissenschaft hinter ihr zu überprüfen, vollführte es die erste politische Adjustierung mit der Erzeugung von Projektionen anstatt Prophezeiungen. Dabei ließen sie es bewusst zu, dass Medien und Öffentlichkeit glaubte, es handele sich um Vorhersagen. Hansen et al. erzeugten einen Vorläufer der Projektions-Szenarien im Jahre 1988, also im gleichen Jahr, in dem er vor dem Komitee des US-Senats den gesamten AGW-Betrug losgetreten hatte. Abbildung 2 zeigt die Originalgraphik aus jenem Artikel.

Abbildung 2

In einem prägnanten Beitrag über Hansens Modell erstellte Anthony Watts* eine modifizierte Version der Abbildung 2 und fügte aktuelle Temperaturen hinzu (Abbildung 3)

[*Das ist etwas vereinfacht. Watts bezieht sich darin ausdrücklich auf Arbeiten von Sebastian Lüning und Fritz Vahrenholt vom Blog „Die Kalte Sonne“ sowie auf einen Beitrag von Pierre Gosselin auf seinem Blog NoTricksZone. Nur der Vollständigkeit halber. Anm. d. Übers.]

Abbildung 3

Hansen et al.postulierten drei Szenarien:

A: Zunahme der CO2- Emissionen um 1,5% pro Jahr

B: konstante Zunahme der CO2-Emissionen nach dem Jahr 2000

C: Keine Zunahme der CO2-Emissionen nach dem Jahr 2000

Natürlich haben sich die Mainstream-Medien sofort auf die Temperaturprojektionen von Szenario A gestürzt. Einige von uns wussten, dass die Szenarien A und B unrealistisch waren, und wir wussten, wie falsch sie lagen. Ich hatte in den neunziger Jahren viele Diskussionen mit dem kanadischen Experten für Eisbohrkerne Fritz Koerner über seine Bohrkerne von den Arktischen Inseln. Er sagte mir, dass die Bohrkerne eine Temperaturzunahme vor einer CO2-Zunahme zeigten. Im Rückblick ist Szenario C interessanter und aussagekräftiger.

Hansen präsentiert es als das ideale Szenario. Er sagt Politikern und Medien, was geschehen würde, falls die Menschen aufhören, CO2 in die Atmosphäre freizusetzen. Heissa! Die Temperaturen werden aufhören zu steigen. Ironischerweise ist dies äquivalent zu Modellläufen, als ob CO2 keine Erwärmung verursacht. Damit wird im Endeffekt die Null-Hypothese der AGW-Hypothese präsentiert. Es zeigt, was geschehen würde, falls CO2 nicht die Ursache der Erwärmung wäre. Es nähert sich der Realität an.

Abbildung 4 zeigt ähnliche Szenario-Projektionen aus dem AR 4 des IPCC im Jahre 2007, überlagert mit der tatsächlichen CO2-Zunahme. Der Unterschied zu Hansen liegt im niedrigen Szenario. Im AR 4 des IPCC heißt es:

Modellexperimente zeigen, dass selbst wenn wir alle Strahlungsantriebe konstant auf dem Niveau des Jahres 2000 halten würden, ein weiterer Erwärmungstrend während der nächsten beiden Jahrzehnte auftreten würde von etwa 0,1°C pro Dekade, hauptsächlich infolge der Trägheit der Ozeane.

Abbildung 4

Abbildung 4 scheint zu zeigen, dass die Projektionen für „Best“ und „Hoch“ primär eine Funktion der Zunahme des atmosphärischen CO2-Niveaus sind. Selbst die Projektion „Niedrig“ weicht vom tatsächlichen Temperaturtrend ab, wie die Aufzeichnungen am Boden (HadCRUT) und vom Satelliten (UAH) belegen. Außer dass sie die Null-Hypothese bestätigen zeigen die Ergebnisse auch, dass die IPCC-Behauptung des fortgesetzten Anstiegs infolge der Trägheit der Ozeane ebenfalls falsch ist.

Hansen begrenzte seine Forschung und seine Klimamodelle auf menschliche Ursachen des Klimawandels. Er erzeugte zwei Projektionen mit der Grundlage, dass CO2 weiterhin zunehmen werde. Damit hat er das Ergebnis im Voraus festgelegt. Er bestätigte seine Hypothese, der zufolge eine fortgesetzte menschliche Erzeugung eine globale Erwärmung verursachen werde, aber nur in den Modellen. Allerdings musste er, offensichtlich getrieben von seiner politischen Agenda, Politiker davon überzeugen, dass eine Reduktion der CO2-Emissionen das Problem lösen werde. Um dies zu unterstreichen, ließ er sein Modell ohne CO2-Zunahme laufen, um zu sehen, was dann passieren würde. Es erzeugte eine Kurve, die zum tatsächlichen Temperaturtrend der inzwischen vergangenen 27 Jahre passt. Dieses Ergebnis würde man erwarten, falls man die Null-Hypothese akzeptiert, dass CO2 aus jedweder Quelle keine globale Erwärmung verursacht. Danke, Jim, genießen Sie ihren Ruhestand.

Link: http://wattsupwiththat.com/2015/10/03/did-james-hansen-unwittingly-prove-the-null-hypothesis-of-agw/

Übersetzt von Chris Frey EIKE




Sind „Klimaleugner“ wirklich Leugner?

[*Für den Terminus „Denialism“ bietet kein Wörterbuch eine genaue Übersetzung an. Ich denke aber, dass jeder weiß, was gemeint ist. Anm. d. Übers.]

Sogar der Papst leugnete die Leugner, indem er sie von seinem Klima-Konklave ausschloss, während er Priester anwies, Abtreibung zu vergeben. Offensichtlich gibt es Grenzen der päpstlichen Vergebung. Traurigerweise weiß er nicht genug um zu erkennen, wer die wirklichen Leugner sind, was gut und gern seine Unfehlbarkeit beeinträchtigen kann. Es gibt eine lange Liste, auf der auch der Präsident der USA und sein Kabinett, die meisten Führer der Welt, eine Mehrheit der Politiker der Welt, alle Umweltgruppen und deren Jünger stehen, die meisten davon mit einer linken politischen Einstellung. Traurigerweise haben die meisten davon kein Verständnis für Wissenschaft, aber typischerweise haben sie sehr definitive Positionen, die sich durch emotional und politisch getriebene Ignoranz auszeichnen.

Kürzlich hat Lord Monckton Details der anhaltenden Periode von 18 Jahren und 8 Monaten ohne globale Erwärmung zusammengestellt (Abbildung 1). Ross McKitrick setzt den Stillstand bei 19 Jahren an der Erdoberfläche und 16 bis 26 Jahren in der unteren Troposphäre an. Wie auch immer, das widerspricht der grundlegenden Hypothese der anthropogenen globalen Erwärmung AGW, weil der CO2-Gehalt der Luft kontinuierlich weiter gestiegen ist. Die AGW-Befürworter tragen dem einzig dadurch Rechnung, dass sie jetzt vom Klimawandel und nicht von der globalen Erwärmung reden.

Abbildung 1

Dann kamen die Befürworter mit 52 Entschuldigungen daher für die Fakten, die nicht zur Hypothese passen. Dies sind ähnliche Versuche, widersprechende oder in Konflikt stehende Beweise hinweg zu erklären. AGW-Befürworter richten sogar Websites ein, um zu verschleiern, abzulenken und zu leugnen. Die erste dieser Sites war RealClimate, ansässig an der Climatic Research Unit (CRU). In einer E-Mail vom Dezember 2004 erklärte Gavin Schmidt:

Kollegen, zweifellos teilen einige von euch unsere Frustration hinsichtlich der gegenwärtigen Art und Weise, mit der Medien mit dem Thema Klimawandel umgehen. Viel zu oft sehen wir Agenda-getriebene ,Kommentare‘ im Internet und in den Meinungsspalten der Zeitungen, die sorgfältige Analysen verdrängen. Viele von uns arbeiten hart daran, die Öffentlichkeit und Journalisten aufzuklären in Gestalt von Vorträgen, Interviews und Briefen an die Herausgeber, aber das ist oft eine undankbare Aufgabe. Um ein wenig pro-aktiver zu sein, hat sich eine Gruppe von uns (siehe unten) kürzlich zusammengetan, um eine neue Klimablog-Website einzurichten: RealClimate.org, die demnächst geschaltet wird.

ScepticalScience ist eine andere Website, die dazu dient, Beweisen zu widersprechen oder diese zu leugnen, die zeigen, dass die AGW-Hypothese falsch ist. Joanne Nova und Lubos Motl wiesen zwei eklatante Schwächen bei John Cook und seiner Website nach. Eine Frau, die sich mit Gavin Schmidt nach einem Vortrag an der University of Victoria unterhalten hat, schrieb mir am 26. Juli 2015 und stellte Fragen. Sie merkte an, dass

er (Schmidt) mich auch auf die Website http://www.scepticalscience.com verwies, um eigene Forschungen durchzuführen“.

Dieses Ansinnen ist keine Überraschung, weil John Cook Schmidt für die Idee mit der Website dankbar ist (hier).

Ein anonymes Sprichwort sagt:

Wenn man mit dem Finger auf jemanden zeigt, zeigen drei Finger auch auf einen selbst“.

Fingerzeige enthalten selten Fakten, vor allem in der Klimadebatte nicht. Der erste Finger wurde den Skeptikern der globalen Erwärmung gezeigt, die echte Wissenschaft betreiben wollten in Gestalt der Hinterfragung der AGW-Hypothese. Die Verunglimpfung wurde abgewendet, als die Fakten nicht zur AGW-Story der globalen Erwärmung passten. Inzwischen wurde daraus Anthropogenic Global Climate Change (AGCC), und der zweite Finger deutete auf die Leugner des Klimawandels. Dieser Vorwurf wurde zurückgewiesen, weil genügend viele Leute wussten, dass der Klimawandel natürlichen Ursprungs war. Und nebenbei, das Gegenteil ist der Fall: Die AGCC-Gegner klären die Öffentlichkeit auf über Ausmaß und Tempo natürlicher Klimaänderungen.

Mit dem Näherkommen der Konferenz in Paris wird immer offensichtlicher, dass es kein Abkommen geben wird, und Alarmismus und Rhetorik nehmen überhand. Das Zeigen mit Fingern hat eine neue Form. Ein Leugner zu sein ist jetzt eine Krankheit wie etwa Lepra. George Monbiot hat Leugnung als eine Krankheit identifiziert.

Es hat keinen Sinn, es zu leugnen: wir verlieren. Leugnung des Klimawandels breitet sich aus wie eine ansteckende Krankheit. Es existiert in einer Sphäre, die nicht durch Beweise oder vernünftige Argumente erreicht werden kann; jeder Versuch, die Aufmerksamkeit auf wissenschaftliche Ergebnisse zu lenken, wird mit wilden Beschimpfungen begrüßt. Diese Sphäre breitet sich mit erstaunlicher Geschwindigkeit aus“.

Papst Franziskus limitierte sein Willkommen auf seinem jüngsten Klima-Konklave, indem er Krankheitsträger nicht eingeladen hat. Das hätte Jesus wohl kaum für gut befunden. Mit diesem Tun hat Franziskus zwei Gruppen erschaffen. Jene, die wissentlich das Scheitern der Hypothese leugnen einerseits und jene, die nicht wissen oder nicht wahrhaben wollen, dass die Hypothese gescheitert ist. Beide Gruppen sind die wirklichen Leugner.

Monbiot ignorierte alle Fakten, die ich aufgezählt habe, als er mit dem Finger auf mich gezeigt hatte. Das Ignorieren von Fakten macht es einfach zu behaupten, dass die Leugner unrecht haben. Die Fakten sind der Grund für die Ausbreitung der Sphäre. Hier kommen ein paar, wenige zwar nur, aber ausreichend, um die wirklichen Leugner bloßzustellen.

● Wie Monckton nachgewiesen hat, ist die globale mittlere Temperatur seit 19 Jahren nicht mehr gestiegen.

● Im gleichen Zeitraum ist der CO2-Gehalt kontinuierlich weiter gestiegen.

● Jede einzelne IPCC-Temperaturprojektion des IPCC war falsch.

● Die Temperatur steigt, bevor der CO2-Gehalt zugenommen hat, in jeder einzelnen Aufzeichnung, für welche Periode auch immer. Die einzige Stelle auf der Welt, wo eine CO2-Zunahme einem Temperaturanstieg vorangeht, sind die Computer-Modelle des IPCC.

● CO2 macht nur 4 Prozent aller Treibhausgase aus, und der menschliche Anteil beträgt lediglich 3,4 Prozent dieser Gesamtmenge.

● Prophezeiungen bzgl. mehr Extremwetter haben sich als falsch erwiesen.

● Das fortgesetzte Scheitern mittelfristiger Vorhersagen wie etwa das jüngste Debakel in UK, außerdem der schon jetzt hohe Skeptizismus hinsichtlich Wettervorhersagen.

Das ultimative Anzeichen der Leugnung

Das schlimmste Niveau des Leugnens wird von der Öffentlichkeit am wenigsten wahrgenommen. Dabei handelt es sich um die Adjustierung von Daten und Aufzeichnungen um sicherzustellen, dass die Täuschung nicht auffliegt. Wir wussten von der Adjustierung der Aufzeichnungen von Neuseeland durch die NIWA (Abbildung 2) und den Behauptungen gegen das australische Wetterbüro von Jennifer Marohasy und Anderen (Abbildung 3)

Abbildung 2

Abbildung 3

Chris Booker verweist darauf, dass nur Wenige das Ausmaß der Manipulationen bloßgestellt haben, vor allem in den USA und hier auf der Website von Stephen Goddard Real Science. In einem Beitrag mit dem Titel Hansen – The Climate Chiropractor fragt Goddard: „Müssen Sie Ihr Klima adjustieren? Dann rufen Sie Dr. James Hansen am GISS an!“ Abbildung 4 zeigt, was Goddard beschreibt als „…Hansens bemerkenswerte Änderungen der Temperaturdaten vor 1975. Er entfernte einfach diese ärgerliche Warmzeit von 1890 bis 1940“.

Abbildung 4

Die jüngsten und ungeheuerlichsten Adjustierungen von Daten wurden von Thomas Karl vom United States Historical Climate Network (USHCN) der NOAA vorgenommen. Karl hat sich schon sehr lange durch Adjustierungen von Aufzeichnungen hervorgetan, wie Steve McIntyre im Jahre 2007 nachgewiesen hat. In einem offenen Brief an Karl hinterfragte Bob Tisdale das Verfahren und die Objektive der jüngsten Adjustierungen. Der Terminus „Cherry-Picking“ ist all jenen nur allzu vertraut, die sich mit der Historie der wirklichen Leugner befassen. Allerdings befand es Judith Curry für angemessen zu beschreiben, was Karl gemacht hat.

Diese neue Studie ist besonders interessant im Zusammenhang mit der Studie von Karl et al., die den Stillstand verschwinden lässt. Ich habe den Verdacht, dass die Hauptbotschaft an die Öffentlichkeit (allerdings nur jene, die dem Thema Aufmerksamkeit zollen) lautet, dass die Daten wirklich unsicher sind und dass es für Wissenschaftler viele Gelegenheiten gibt, das richtige Verfahren herauszupicken, um die gewünschten Ergebnisse zu bekommen.

Offensichtlich um feststellen zu können, dass die Jahre 2014 und 2015 die wärmsten Jahre jemals waren und zu beweisen, dass der von Lord Monckton nachgewiesene Stillstand nicht existiert, entwickelte er eine mehr als fragwürdige Methode. Diese Dinge sind grundlegend für die Unterstützung und Fortsetzung der Leugnung im Vorfeld der Paris-Konferenz (COP 21). Es ist genauso wichtig als Täuschung, um Politiker zu überzeugen, wie es die durchgesickerten E-Mails als Bloßstellung von COP 15 in Kopenhagen waren.

Die gute Nachricht für Karl lautet indessen jetzt, dass er Unterstützung für sein Tun von Michael Mann hat.

Tom Karl und seine Kollegen haben hier solide Arbeit geleistet, aber sie haben lediglich bestätigt, was wir schon wussten“, sagte Michael Mann. „Es gibt keinen wirklichen ,Stillstand‘ der Erwärmung“.

Manns Glaubwürdigkeit bei den Wissenschaftlern ist eindeutig in Mark Steyn’s jüngstem Buch dargelegt.

Wer hat das politische Vorurteil zu leugnen?

Der Logik zufolge sind jene, die die Debatte abwürgen wollen, die Einzelpersonen und Gruppen zum Schweigen bringen wollen, die wirklichen Leugner. Präsident Obama sagte in seiner Rede zur Lage der Nation: „Unglücklicherweise gibt es innerhalb Washingtons immer noch einige Klimaleugner, die laut schreien, aber diese verschwenden die Zeit von Allen in einer ,settled‘ Debatte“ und „Der Klimawandel ist eine Tatsache“. [Ach nee! Anm. d. Übers.]

Ja, Mr. Präsident, er ist eine Tatsache, aber wenn Sie dies betonen, betreiben Sie Cherry-Picking hinsichtlich der richtigen und vollständigen Feststellung, dass „Der Klimawandel eine Tatsache ist, der anthropogene Klimawandel aber nicht“. Es scheint, als ob der Präsident der Ober-Leugner ist. Ein weiterer Beweis dafür, wer die wirklichen Leugner sind, findet sich in der anonymen Beobachtung, dass falls ein ehrlicher Mann unrecht hat, nachdem gezeigt worden war, dass er unrecht hat, hört er entweder auf, unrecht zu haben, oder er hört auf, ehrlich zu sein.

Im Falle der wirklichen Klima-Leugner ignorieren diese belegbare Fakten und betonen ihr Leugnen, indem sie die Aufzeichnungen manipulieren.

Link: http://wattsupwiththat.com/2015/09/06/an-update-on-the-real-deniers/

Übersetzt von Chris Frey EIKE




Ist es nicht endlich an der Zeit, den Irrsinn der Verschwendung von Zeit und Geld für mehr Klimamodelle zu stoppen?

Kurz-, mittel- und langfristige Klimavorhersagen sind über 50% der Zeit falsch, so dass eine richtige Vorhersage nicht besser ist als ein Zufallsereignis. Globale und regionale Vorhersagen sind oftmals genauso falsch. Falls es ein Klimamodell geben würde, dessen Vorhersagen zu 60% zutreffend sind, würde jedermann dieses benutzen. Da es aber keine einzige genaue Klimavorhersage gibt, geht das IPCC dazu über, alle Modellvorhersagen zu mitteln, als ob sich die Fehler dadurch irgendwie gegenseitig aufheben würden und das Mittel der Vorhersagen repräsentativ wäre. Klimamodelle und deren Vorhersagen haben eklatante Schwächen, die in anderen Unternehmungen ihre sofortige Aussortierung zur Folge hätte. Es sei denn, natürlich, dass es sich um ein von der Regierung finanziertes Fiasko handelt. Tägliche Wettervorhersagen sind seit der Entwicklung moderner Vorhersagemethoden seit dem 1. Weltkrieg immer besser geworden. Dagegen scheinen allerdings selbst kurzfristige Klimavorhersagen nicht besser zu sein als der Old Farmers Almanac aus dem Jahr 1792, bei dem als Vorhersagegrundlage Mond, Sonne und andere astronomische und terrestrische Indikatoren herangezogen worden waren.

Ich habe viel gesagt und geschrieben über die Schlüsselrolle von Modellen bei der Erzeugung und Fortführung der Katastrophen-AGW-Mythologie. Menschen waren erschrocken über die durchgesickerten E-Mails der CRU, aber die meisten wissen nicht, dass die tatsächlichen Instruktionen zum „Verstecken des Stillstands“ [hide the decline] im Anteil der Baumringe der Hockeyschläger-Graphik in den Computercode Eingang gefunden haben. Dies ist ein Grund, warum Menschen vom Akronym GIGO (Garbage in, Garbage out) sprechen, wenn von Klimamodellen die Rede ist.

Ich bin es leid, dass immer weiter so getan wird, als könnten die Klimamodelle akkurate Vorhersagen in einem chaotischen System erzeugen. Die Wirklichkeit ist, dass die Modelle nicht funktionieren und nicht funktionieren können, und zwar aus vielen Gründen einschließlich sehr fundamentaler: Fehlende Daten, fehlendes Wissen der wesentlichen Mechanismen, fehlendes Wissen über grundlegende physikalische Prozesse, fehlende Fähigkeit, physikalische Phänomene wie Turbulenz in mathematischer Form präsentieren zu können und fehlende Computer-Kapazität. Bob Tisdale hat die Probleme in seinem 2013 erschienenen Buch Climate Models Fail zusammengefasst. Es ist an der Zeit aufzuhören, weiterhin Geld und Zeit zu verschwenden und Menschen und Computer wichtigeren Dingen zu widmen.

Das Einzige, was die Leute weiter an den Modellen arbeiten lässt, sind finanzielle Zuwendungen der Regierung, entweder an Wetterbüros oder an Akademien. Ohne diese Finanzierung würden die Computermodellierer nicht das Studium des Klimas dominieren. Ohne diese Finanzierung könnte das IPCC nicht existieren. Viele in die Klimamodellierung involvierte Personen kennen sich in Klimatologie oder Klimawissenschaft nicht aus bzw. haben keinerlei Erfahrung damit. Sie waren Absolventen von Programmen zur Modellierung mittels Computer auf der Suche nach einer herausfordernden Gelegenheit, Zugang zu großen Computern zu haben und exzessiv bezahlt zu werden. Die Atmosphäre und später auch die Ozeane boten diese Gelegenheiten. Jetzt werden beide Bereiche zusammengeschustert, um das Fiasko fortzusetzen. Unglücklicherweise ist all dies für die Gesellschaft extrem teuer. Jene Ausgaben enthalten Kosten für die Computer und die Modellierungszeit, aber viel schlimmer ist, dass die falschen Ergebnisse im globalen Energie- und Umweltbereich angewendet werden.

Hört auf mit dem Theater sowie Geld und Zeit zu verschwenden! Streicht die Finanzierung, und niemand würde privates Geld für die Arbeit an Klimavorhersage-Modellen ausgeben!

Gewöhnlich argumentiere ich, dass es ein wenig bringen könnte, im Labor mit Klimamodellen zu spielen, mit wissenschaftlicher Verantwortung hinsichtlich Genauigkeit, Durchführbarkeit und Anwendbarkeit. Es ist eindeutig, dass sie diesen Verantwortlichkeiten nicht genügen. Jetzt erkenne ich, dass diese Haltung falsch ist. Wenn Modellergebnisse als die einzige Basis für Regierungspolitik herhalten muss, haben sie keinerlei Wert. Sie sind ein massiver Kostenfaktor und ein großer Schaden für die Gesellschaft, aber genau das zu tun war der Auftrag an das IPCC.

Das IPCC hat einen kleinen Wert. Es illustriert all die Probleme, die in vorherigen Kommentaren angesprochen worden waren. Im Labor erzeugte Klimamodelle werden manipuliert sogar weit über wissenschaftliche Präzision hinaus in regierungsamtlichen Wetterämtern oder Akademien. Dann werden sie zur Grundlage öffentlicher Politik in Gestalt der Summary for Policymakers SPM.

Ein weiterer Wert der IPCC-Berichte ist, dass sie eine detaillierte Auflistung der Gründe bieten, warum die Modelle nicht funktionieren und nicht funktionieren können. Zu blöde, dass nur Wenige diese Berichte lesen oder verstehen. Falls das der Fall wäre, würden sie erkennen, dass die Grenzen so hoch liegen, dass sie jede Erfolgschance zunichte machen. Nur eine einzige Teiluntersuchung illustriert diesen Punkt.

Daten

Die IPCC-Mitarbeiter wussten von Anfang an um die Grenzen der Daten, doch hat sie dies nicht daran gehindert, Modelle zu konstruieren.

Im Jahre 1993 hat Stephen Schneider, an einer der vordersten Plätze der AGW-Hypothese stehend, hinsichtlich des Gebrauchs von Klimamodellen gesagt:

Ungewissheit über wichtige Rückkopplungs-Mechanismen sind ein Grund, warum das ultimative Ziel der Klimamodellierung, also die zuverlässige Vorhersage der Zukunft grundlegender Variablen wie Temperatur und Niederschlagsmenge, nicht realisierbar ist“.

In einem Bericht des US National Research Council vom 3. Februar 1999 heißt es:

Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen stellen ernste Begrenzungen hinsichtlich des Vertrauens dar, das man den Forschungsergebnissen entgegen bringen kann.

Darauf erwiderte Kevin Trenberth:

Es ist sehr eindeutig, dass wir kein Klima-Beobachtungssystem haben … dies könnte für Viele ein Schock sein, die davon ausgehen, dass wir genau wissen, was mit dem Klima passiert, aber wir wissen es nicht.

Zwei Direktoren der CRU, Tom Wigley und Phil Jones, sagten:

Viele Unsicherheiten bzgl. der Gründe des Klimawandels werden niemals gelöst werden können, weil die dafür notwendigen Daten fehlen.

70% der Welt werden von Ozeanen überdeckt, von denen es praktisch keine Messungen gibt. Die Pole sind von grundlegender Bedeutung hinsichtlich der Dynamik des atmosphärischen Antriebs und des Klimas, und dennoch gibt es im 15 Millionen km² großen Gebiet des Arktischen Ozeans oder dem 14 Millionen km² großen antarktischen Kontinent praktisch keine Messstationen. Von etwa 85% der Erdoberfläche liegen keine Wetterdaten vor. Das IPCC räumt diese Begrenzungen ein und behauptet, dass die Daten einer einzelnen Station repräsentativ sind für die Bedingungen in einem Umkreis mit einem Radius von 1200 km. Ist das eine zulässige Annahme? Ich glaube nicht.

Aber es sind nicht nur die fehlenden Daten von der Erdoberfläche. Tatsächlich fehlen nicht nur die Daten von der Oberfläche, sondern auch aus diversen Höhenschichten über der Oberfläche zwischen 1,25 und 2 m. Und wie Forscher (Climate Near the Ground) zeigen, unterscheiden sich diese Höhenschichten markant von tatsächlichen Oberflächen-Temperaturen, wie sie an den wenigen Mikroklima-Stationen gemessen werden, die es gibt. Angeblich sind die US-Stationen die besten, aber wie Anthony Watts akribische Studie zeigt, messen lediglich 7,9% dieser Stationen mit einer Genauigkeit von weniger als 1°C (Abbildung 1). Ins Verhältnis gesetzt: im IPCC-Bericht aus dem Jahr 2001 behauptet Jones, dass die Zunahme um 0,6°C über 120 Jahre jenseits einer natürlichen Zunahme liege. Dies unterstreicht auch die Tatsache, dass die meisten der instrumentell gemessenen Temperaturen auf 0,5°C genau gemessen worden sind.

Abbildung 1

Bei anderen grundlegenden Daten einschließlich Niederschlag, Luftdruck, Windgeschwindigkeit und -richtung sieht es noch schlechter aus als bei den Temperaturdaten. Zum Beispiel gibt es in Afrika nur 1152 Wetterbeobachtungsstationen, welche ein Achtel der von der WMO geforderten minimalen Dichte ausmachen. Wie ich bereits in einem früheren Beitrag betont habe, reichen fehlende Daten für alle Aggregatzustände von Wasser (hier) allein aus, um das Scheitern der IPCC-Projektionen zu garantieren.

Die Modelle versuchen, eine dreidimensionale Atmosphäre zu simulieren, aber es gibt über der Oberfläche praktisch keine Daten. Die Modellierer glauben, dass wir dumm genug sind zu glauben, dass mehr Ebenen in den Modellen dieses Problem lösen, aber falls man keine Daten hat, spielt die Anzahl der Ebenen keine Rolle.

Wesentliche Mechanismen

Während meiner Laufbahn als Klimatologe wurden viele Phänomene von Wetter und Klima entweder gefunden oder gemessen, angeblich mit hinreichender Genauigkeit, um Eingang in ein Modell zu finden. Unter diesen Phänomenen sind ENSO, Pacific Decadal Oscillation (PDO), the Atlantic Multidecadal Oscillation (AMO), the Antarctic Oscillation (AAO), the North Atlantic Oscillation (NAO), Dansgaard-Oeschger Oscillation (D-O), Madden-Julian Oscillation (MJO), Indian Ocean Dipole (IOD) und andere.

Abgesehen davon wissen wir immer noch wenig über Phänomene, die mit der Hadley-Zelle und der Innertropischen Konvergenzzone ITC zusammenhängen, welche im Wesentlichen die gesamten tropischen Klima-Mechanismen sind. Der Milankovitch-Effekt bleibt umstritten und geht nicht in die IPCC-Modelle ein. Die Theorie kosmischer Strahlen scheint eine Antwort zu geben auf die Beziehung zwischen Sonnenflecken, globaler Temperatur und Niederschlag, aber auch diese wird gleichermaßen vom IPCC ignoriert. Auch das Phänomen Monsun wird kaum berücksichtigt, wenn es heißt:

Kurz gesagt, die meisten AOGCM-Modelle simulieren nicht genau die räumliche oder jahreszeitliche Variation der Monsun-Niederschläge.

Es gibt nur sehr begrenzt Wissen über die großen ozeanischen Zirkulationen an der Oberfläche und in den Tiefen. Es gibt praktisch keine Messungen des transferierten Wärmevolumens oder wie sich dieses mit der Zeit ändert, einschließlich Messungen der geothermischen Wärme.

Das IPCC räumt ein, dass:

wir bei der Klimaforschung und -modellierung erkennen sollten, dass wir es mit einem gekoppelten, nicht linearen chaotischen System zu tun haben, und dass daher die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist.

Dieser Kommentar reicht schon aus, um mit dem Verschwenden von Zeit und Geld aufzuhören. Man füge das zweite und damit verbundene Problem hinzu, das von Essex und McKitrick in dem Beitrag Taken By Storm identifiziert worden ist, und man findet dick unterstrichen aufzuhören.

Klimaforschung ist alles andere als eine routinemäßige Anwendung klassischer Theorien wie Strömungslehre, obwohl manch einer versucht sein könnte, genau das zu glauben. Es muss in der „exotischen“ Kategorie wissenschaftlicher Probleme betrachtet werden, teilweise weil wir versuchen, eine wissenschaftlich bedeutende Struktur zu finden, die niemand sehen kann oder jemals gesehen worden ist und die vielleicht nicht einmal existiert.

In dieser Hinsicht muss man unabdingbar im Hinterkopf behalten, dass es keine Experimentier-Anordnung für das globale Klima gibt, so dass alles, was wir haben, jene ersten Prinzipien sind. Man kann alle Messungen heranziehen, die man heute will; man kann Terabyte Plattenspeicher füllen, falls man will, aber das kann nicht als experimenteller Apparat dienen. Apparate können kontrolliert werden, und deren Betreiber können Messungen eigener Variablen durchführen über eine Bandbreite kontrollierter, physikalisch relevanter Bedingungen. Im Gegensatz dazu haben wir nur das heutige Klima als direkte Stichprobe, vorausgesetzt wir sind klug genug, sogar zu wissen wie man streuende Daten auf physikalisch bedeutsame Weise mitteln kann, um das Klima zu repräsentieren. Kurz gesagt, das globale Klima ist durch keinerlei konventionelle Mittel zu erfassen.

Computer-Kapazität

Modellierer behaupten, dass die Computer immer besser werden und dass alles, was sie brauchen, größere und schnellere Computer wären. Das macht mit Sicherheit keinen Unterschied, und die Geldverschwendung geht weiter. Im Jahre 2012 stellte Cray den Supercomputer mit der Bezeichnung Gaea vor (Abbildung 2). Er hat eine Kapazität von 1,1 Petaflops. Die Abkürzung FLOP bedeutet Floating-Point Operations per Second, und Peta sind um 1000 Millionen Floating-Point Operations per Second. Jagadish Shukla sagt, die Herausforderung bestehe darin,

dass wir in der Lage sein müssen, Klimamodelle mit der gleichen Auflösung laufen zu lassen wie die Wettervorhersagemodelle, die während der nächsten 5 Jahre eine horizontale Auflösung von 3 bis 5 km erreichen können. Dies wird Computer mit einer Spitzenfähigkeit von etwa 100 Petaflops erfordern.

Unabhängig von der Computer-Kapazität ist das alles bedeutungslos, wenn die Daten für das Modell fehlen.

Abbildung 2: Der Gaea-Computer von Cray mit dem umweltlichen Image.

Gescheiterte Vorhersagen (Prophezeiungen, Projektionen)

Abbildung 3 zeigt die gescheiterte Vorhersage des IPCC. Dort wird so etwas Projektion genannt, aber die Öffentlichkeit glaubt, dass es Vorhersagen sind. Wie auch immer, sie sind konsistent falsch. Man beachte die Beschriftungen, die Haydens Graphik aus der Summary for Policymakers SPM hinzugefügt worden sind. Während die Fehlerbandbreite bei den aktuellen Daten immer größer wird, behauptet die Summary stur, dass sie sich verbessern. Eines der vom IPCC herangezogenen Computermodelle gehört Environment Canada. Dessen Prophezeiungen sind die schlechtesten von all jenen, die für die Mittelung der Ergebnisse durch das IPCC Eingang fanden (Abbildung 4).

Abbildung 3

Abbildung 4. Quelle: Ken Gregory

Das kanadische Desaster ist keine Überraschung, wie deren Abschätzung der Vorhersageleistung über ein Jahr zeigt. Sie machen eine Vorhersage über ein Jahr und bieten eine Karte an, die die Verteilung der Eintreff-Genauigkeit in Prozent zeigt, verglichen mit dem Mittel des Zeitraumes 1981 bis 2010 (Abbildung 5).

Abbildung 5

Die kanadische mittlere prozentuale Genauigkeitsverteilung ist unten links mit 41,5 Prozent angegeben. Das ist das beste, was sie erreichen konnten nach etwa dreißig Jahren Modellentwicklung. Ergebnisse in anderen Ländern sind auch nicht besser.

In einem Bericht im New Scientist sagte Tim Palmer, ein führender Klimamodellierer am EZMW in Reading:

Ich möchte das IPCC nicht unterminieren, aber die Vorhersagen, vor allem für regionale Klimaänderungen, sind in großem Umfang unsicher.

Die Kosten

Joanna Nova hat die umfangreichsten Forschungen hinsichtlich der Kosten der Klimaforschung durchgeführt, die der US-Regierung entstehen (hier):

Insgesamt wird die US-Regierung während der letzten 20 Jahre bis zum Ende des Finanzjahres 2009 32 Milliarden Dollar für die Klimaforschung ausgegeben haben – und weitere 36 Milliarden Dollar für die Entwicklung klimabezogener Technologien. Das sind tatsächliche Dollars, ersichtlich aus Berichten der Regierung, und nicht inflationsbereinigt. Finanzielle Zuwendungen anderer Regierungen sind nicht berücksichtigt. Die wirkliche Summe kann nur weiter steigen.

Es gibt keinen Zweifel daran, dass diese Summe wuchs, und die Welt als Ganzes wird wahrscheinlich die US-Ausgaben verdoppeln, wie dieser Kommentator behauptet:

Allerdings kann ich mindestens eine zuverlässige halbe Milliarde Pfund zu Joanne Novas 79 Milliarden-Dollar-Rechnung hinzufügen – plus: wir wissen jetzt schon, dass das Framework 7-Programm der EU 1,9 Milliarden Euro für die direkte Klimaforschung enthält. Framework 6 beläuft sich auf 769 Millionen Euro. Falls man alle Anhang-1-Länder zusammenfasst, muss die ausgegebene Summe deutlich über 100 Milliarden liegen.

Das sind lediglich die Kosten für die Computer-Modellierung. Die ökonomischen und sozialen Kosten sind noch viel höher und praktisch unmöglich zu berechnen. Paul Driessen sagt dazu:

Wie die entsprechenden polaren Gebilde sind 90% des titanischen Eisberges der Klimaförderung für die meisten Bürger unsichtbar, Geschäftsleute und Politiker gleichermaßen.

Es ist kein Wunder, wenn Larry Bell sagen kann:

Das Government Accounting Office (GAO) der USA ist nicht in der Lage herauszufinden, welche Vorteile der Steuerzahler von den vielen Milliarden Dollars hat, die jedes Jahr für eine Politik ausgegeben werden, die angeblich dem Kampf gegen den Klimawandel gewidmet ist.

Falls es wirklich einer vermeintlich hoch entwickelten Agentur wie dem GAO der USA nicht möglich ist, die Kosten zu berechnen, dann gibt es keine Chance für eine globale Abschätzung. Es gibt kaum Zweifel daran, dass die direkten Kosten in Billionen Dollar gemessen werden. Darin sind nicht enthalten die verpassten Gelegenheiten für Entwicklung und das Leben derer in Armut zu verbessern. Und all das nur wegen der als falsch nachgewiesenen Ergebnisse von vollständig gescheiterten Computermodell-Prophezeiungen, Projektionen oder wie immer man das nennen kann.

Es ist an der Zeit, diesen Wahnsinn zu beenden, welcher in der Klimawissenschaft in der Erzeugung immer neuer Computermodelle besteht, die nicht funktionieren und nicht funktionieren können!

Jene, die Wissen haben, prophezeien nichts. Jene, die prophezeien, haben kein Wissen“. Tzu Lao im 6. Jhd. vor Christus.

Link: http://wattsupwiththat.com/2015/09/14/is-it-time-to-stop-the-insanity-of-wasting-time-and-money-on-more-climate-models/

Übersetzt von Chris Frey EIKE.

Anmerkung des Übersetzers: Wie bloß kann man all diese Dinge der deutschen Zipfelmütze vermitteln?!