1

Die wahren Gläubigen oder Zahlenterror gegen Kernkraftwerke!

Im Herbst 2009 produzierte die deutsche politische Partei "Bündnis 90/Grüne "  in den deutschen Medien kurzzeitig Aufsehen mit der Behauptung der endgültige Beweis sei erbracht, dass Kernkraftwerke Leukämie bei Kindern hervorrufen. "AKW erhöhen das Leukämierisiko (Kernkraftwerke erhöhen das Risiko von Leukämie)" war die Überschrift einer Pressemitteilung. Während nicht einmal die Meta-Analyse von Greiser (2009), die die Grundlage dieser Pressemitteilung gebildet hat, einen solchen Anspruch erhob (da Greiser sich des Unterschiedes zwischen Korrelation und Kausalität wohl bewusst war) hat die Pressemitteilung stark zur Überzeugung vieler Deutscher beigetragen, die Atomkraft ist schlecht für euch.

Die vorliegende Arbeit zeigt, dass vermutlich nicht einmal eine Korrelation, wie von Greiser behauptet (2009), existiert. Wir verwenden seine Studie um verschiedene beispielhafte Fehler aufzuzeigen, die oft gemacht werden, wenn statistische Analysen gemacht werden , die durch starke a priori Überzeugungen, die so typisch für die Leukämie vs Kernkraft Debatte ist, existieren. Die erste und wichtigste Fehlerquelle ist eine Untertreibung der wahren Größe des Tests von Signifikanz, die von den bekannten Publikations Vorurteilen herrührt. Wir geben dann einen kurzen Überblick über die Literatur und zeigen, dass es Grund genug gibt zu glauben, dass dieses Vorurteil auch in der Leukämie Debatte vorherrscht. 

In technischen Begriffen: die wahre Bedeutung des Signifikanz-Niveaus solcher Tests ist sehr viel größer als die nominelle, über die in den jeweiligen Zeitungen berichtet wird. 

Andere Fehler sind die Missachtung von wichtigen Kovariablen und die starken Abhängigkeit von Ausreißern, die, wenn man sie nicht entfernt, die beobachteten Muster umkehren können. Dann gibt es noch das bekannte Phänomen namens HARking ("Hypothetiseren, nachdem die Ergebnisse sind bekannt"), wo Tests der Signifikanz erst gemacht werden, nachdem einige anomale Daten beobachtet wurden. Dies scheint insbesondere für die Leukämie Debatte zu gelten, wo viele Studien erst dann durchgeführt wurden, nachdem die Medien die Aufmerksamkeit auf eine ungewöhnliche Häufung und Mortalität in der Nähe von kerntechnischen Anlagen verschiedener Typen gelenkt hatten. Zusammengenommen scheinen diese Mängel die "Beweise" zu entkräften, dass die Kernenergie mit Leukämie im Kindesalter korreliert, geschweige denn, das sie für sie verantwortlich sei. Obwohl es noch wahr sein könnte, dass ein solcher Zusammenhang besteht, kann es sicherlich nicht aus den Beweisen, die bisher verfügbar sind, abgeleitet werden. Selbst wenn man nicht die bekannte Taubes (1995) These  unterschreibt -, dass epidemiologische Hinweise jeglicher Art nur ernst genommen werden sollten, wenn es mindestens eine Verdopplung des Risikos beobachtet, muss man viel mehr und in  insbesondere viel überzeugendere Daten vorbringen bevor man  diese Art Alarm loslässt, wie er so beliebt ist bei den Gläubigen in der Wissenschaft und den Medien sind gleichermaßen. 

Mit freundlicher Genehmigung 

von Walter Krämer Fakultät Statistik, TU Dortmund, D-44221 Dortmund, Germany, walterk@statistik.uni-dortmund.de und Gerhard Arminger2 Schumpeter School of Business and Economics Bergische Universität Wuppertal, D- 42119 Wuppertal, Germany arminger@statistik.uni-wuppertal.de

Die ganze Arbeit finden Sie als pdf im Anhang

Related Files




Die Widerlegung des Solareinflusses? Der Exodus der sogenannten Klimaskeptiker!

Der Exodus der sogenannten Klimaskeptiker

An dieser Aussage sind gleich mehrere Sachen bemerkenswert.

1. Herr Rahmstorf, der Klimagroßinquisitor, beerdigt nicht eine ihm missliebige Theorie,

    nein, sondern gleich deren Vertreter.

2. Eine einzige Publikation, wir werden gleich darauf zurückkommen, ist ursächlich dafür.

3. Die (noch) angesehene wissenschaftliche Zeitschrift, “Nature“, ist sich nicht zu Schade, so

    einen ungeheuerlichen Satz zu publizieren.

Was ruft nun den Enthusiasmus von Herrn Rahmstorf hervor. Eine Arbeit von M. Lockwood und C. Fröhlich erschienen in Proc. R. Soc. A (2007) 463, 2447–2460.

In der Arbeit vergleichen die Autoren den Trend der Sonnenflecken, des interplanetaren Magnetfeldes und die Häufigkeit von 10Be mit der Temperaturanomalie. Sie finden dabei folgendes Verhalten:

 

 

 

 

Aus dem Verhalten schlussfolgern sie, dass bis 1985 die Sonnenaktivität die Temperatur triggert, dass aber danach die Abnahme der Aktivität im Kontrast zur Zunahme der Temperatur steht und somit das globale Erwärmen nicht durch die Sonne verursacht sein kann. Dies klänge plausible, wenn es da nicht ein Problem gäbe. Für die Temperaturanomalie haben sie die Daten von GISS und von CRU (Phil Jones) verwendet, die fast identisch sind. Die Daten von GISS sind in der folgenden Graphik zu sehen.

 

Was ist daran auszusetzen? Erstens zeigen diese Daten wenig Übereinstimmung mit den Satellitenmessungen (nächste Graphik). Zweitens ist vielfach gezeigt worden, dass die Temperaturen „nachjustiert“ worden. 

 

Ein typisches Resultat für die so genannte Homogenisierung kann der nächsten Abbildung entnommen werden. In den allermeisten Fällen, wurde die Temperatur in der Vergangenheit nach unten in der jüngeren Zeit nach oben angepasst. Naiv würde man in Folge der Urbanisierung eher das Gegenteil erwarten. Der Verdacht, dass hier ein Trend hineinkorrigiert wurde, ist nicht von der Hand zu weisen. Mehr Informationen und Details können den Bericht „Das Temperaturdilemma“ entnommen werden. Aber nicht nur die Temperaturen sondern auch die Stationen wurden massiv manipuliert.

Programmer E.M. Smith’s analysis of NOAA’s GHCN found they systematically eliminated 75% of the world’s stations with a clear bias towards removing higher latitude, high altitude and rural locations, all of which had a tendency to be cooler. The thermometers in a sense marched towards the tropics, the sea and to airport tarmacs.

http://icecap.us/images/uploads/NOAAroleinclimategate.pdf

 

Aus den angeführten Gründen ist das Bestattungsunternehmen Rahmstorf zu früh agil geworden und die an sich lobenswerte Arbeit der Autoren geht ins Leere.

 

Ein anderer umfassender Überblick über die Temperaturmanipulationen stammt von Joseph D’Aleo und Anthony Watts: “SURFACE TEMPERATURE RECORDS: POLICY DRIVEN DECEPTION?“ und kann hier

http://www.google.com/search?q=site%3Awww.sepp.org+D%E2%80%99Aleo+Watts&qfront=D%E2%80%99Aleo+Watts

heruntergeladen werden.

Die Vorfreude von Rahmstorf ist sicher auch dadurch begründet, weil er zusammen mit Feulner kürzlich „bewiesen“ hat, dass selbst bei einem bevorstehenden Maunder-Minimum nur 0.3°C von der prognostizierten Erhöhung von 3.7-4.5°C abzuziehen sind. (GEOPHYSICAL RESEARCH LETTERS, VOL. 37, L05707, 2010)

Hierzu wurde ein gekoppeltes Klimamodell, Climber-3?, mit mittlerer Komplexität verwendet. Dieses Modell taucht im letzten Bericht des IPCC namentlich nicht auf, aber ECHAM5, welches auch sehr gern vom PIK gepriesen wird.

Die folgende Abbildung ist die Kernaussage der Publikation. Dargestellt ist die Temperaturdifferenz zwischen den möglichen zukünftigen und den realen vergangenen Maunder-Minimum.

 

Man erkennt, dass sich vor allem die polaren Gebiete stark erwärmen sollen. Schaut man vergleichend auf die Differenz der gemessenen Temperatur (Daten von CRU!) minus der mit ECHAM5 berechneten, dann ergibt sich für 2003:

Quelle: IPCC4 chapter 8S

ECHAM5 hat also für die Antarktis schon 2003 nahezu das Soll erfüllt. ECHAM5 ist dabei keineswegs die Ausnahme. Die nächste Graphik zeigt den typischen Fehler gemittelt über alle IPCC-Modelle.Das ist nicht ganz neu, denn im Report „Wie verlässlich sind Klimamodelle“ konnte man schon sehen, dass in einigen Modellen die Antarktis eisfrei war. Zur Erinnerung:

Quelle: The Coupled Model Intercomparison Project (CMIP)

 

Den Einfluss der Sonne erfassen die Autoren durch eine Variierung der totalen solaren Strahlung (TSI). Die beste Übereinstimmung zwischen Modell und Temperaturrekonstruktion erhalten sie,  wenn die TSI um 0.08% reduziert wird. Bei einem verwendeten Wert von 1366W/m2 entspricht dies -1W/m2 zur Maunderzeit. Dieser Wert ist rund viermal kleiner, als

der von Solanki et al. (GRL 26 (1999) 2465, siehe Report „Die neue Klimadoktrin“?) angegebene (obige Abbildung) und entspricht ungefähr der Abnahme in den letzten zehn Jahren, wie die Satellitenmessungen in der nächste Graphik zeigen.

 

 

http://www.acrim.com/

Der IPCC sagt, dass die Variation der totalen solaren Strahlung von 1‰ während eines Sonnenzyklus irrelevant für das Klima ist. Bei Rahmstorf und Co. genügen dagegen 0.8‰ um das Maunderminimum zu reproduzieren. Da staunt man. Wenn dem so wäre, dann müsste man einen starken elfjährigen Zyklus in der Temperaturkurve sehen. Der ist aber nicht bekannt. 

Fazit:Herr Rahmstorf sollte eher sein Modell an Stelle der Skeptiker beerdigen.

 Dr. Bend Hüttner für EIKE 

Den Aufsatz können Sie auch als pdf im Anhang herunterladen

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


[1]  Hervorhebungen von mir, wenn nicht anders angegeben. 

Related Files




Eisige Winter in Europa könnten zur Norm werden

„Seit Neuestem beobachten wir eine Änderung der (Wetter-)situationen zurück zu Bedingungen wie in den fünfziger und sechziger Jahren des vorigen Jahrhunderts in Europa… Es gab in Großbritannien drei kalte Winter hintereinander“, erklärte der leitende Meteorologe Todd Crawford.

 „Wir glauben, dass es sehr wahrscheinlich ist, dass dies auch während der nächsten 20 bis 40 Jahre so bleibt”.

Wenn das stimmt, dürften diese Ergebnisse weitreichende Implikationen für die europäischen Energiemärkte haben, wo die Nachfrage nach Energie im Winter wegen erhöhter Heizleistung und Beleuchtung üblicherweise zunimmt.

Die Nachfrage nach Energie erreichte Anfang Dezember einen absoluten neuen Rekord in Frankreich, während in Großbritannien dieser Rekord nur knapp verfehlt wurde. Und dies bei Temperaturen, die um mehr als 10°C unter den jahreszeitlich üblichen Werten lagen.

Die Nachfrage nach Erdgas und Erdöl stieg ebenfalls rasant. Hinter den kalten Temperaturen steckt die Nordatlantische Oszillation NAO, ein Klimaphänomen, das normalerweise Luftmassen von Westeuropa weit nach Osten transportiert, so dass arktische Luftmassen auf Distanz bleiben. Aber im Dezember hatte sich diese Strömung ungekehrt, so dass kalte arktische Luftmassen nach Westeuropa wehten, was zu dem explodierenden Energieverbrauch geführt hatte.

 „Während der letzten 30 bis 40 Jahre war die NAO vorherrschend positiv, was zu milderen und feuchteren Wintern führte”, erklärte Crawford. „Seit dem Jahr 2008 hat sich die NAO jedoch abrupt umgekehrt in einen negativen Status, und das Resultat in Gestalt von drei sehr kalten Wintern war ziemlich gut zu merken.“

Schwache Sonnenaktivität

Der WSI erklärte weiter, dass zu der Umkehrung der NAO drei Faktoren beigetragen haben könnten: Jüngste zyklische Änderungen der Wassertemperatur im Nordatlantik; eine Klimaänderung, die zu einer Erwärmung der Arktis und korrespondierenden Kaltluftausbrüchen in Richtung Europa führt; und ein „schwacher“ solaren Zyklus.

Crawford sagte, dass potentiell alle drei Faktoren eine Rolle spielen, aber dass sich die geringere Solaraktivität als Hauptursache herausstellen könnte. „Der gegenwärtige Sonnenzyklus ist der ruhigste der letzten 70 Jahre, und es gibt die begründete Besorgnis, dass daraus eine signifikante Abkühlung resultiert“, meinte er.

“Wir haben den Eindruck, dass die NAO in eine zyklische negative Phase getreten ist, und dass dies überwiegend in den nächsten 20 bis 40 Jahren so bleibt. Das heißt nicht, dass die NAO in allen Wintern negativ ist, aber sicher in den meisten“, fügte er hinzu.

Der nationale Wetterdienst in Großbritannien, the „Met Office”, erklärte in einem Gespräch mit Platts am Dienstag: „die NAO zeigt eine sehr hohe Variabilität … jede Langfristvorhersage über das Verhalten der NAO ist spekulativ. Auf verschiedenen Wegen wird derzeit daran geforscht, um das Verständnis und die Möglichkeit, in Zukunft solche Vorhersagen zu machen, zu verbessern.“

Der Elektrohandel erklärte am Dienstag, dass die ungewöhnlich kalten Temperaturen des vergangenen Dezembers durch den Markt immer noch als Anomalie betrachtet werden, und dass es unwahrscheinlich sei, dass es zu höheren Preisen im nächsten Winter kommen wird.

 „Das ist interessant… aber mit Sicherheit kann man eine solche Information nicht einfach beiseite wischen”, erklärte ein großes Energieunternehmen. „Sie muss für die Zukunft sehr wohl in Betracht gezogen werden“, assistierte ein zweiter Händler. „Aber das Problem in der Vergangenheit bestand darin, dass viele Leute von sich behauptet haben, Experten in Bezug auf Wetter zu sein, und dass die Unterscheidung zwischen den wirklichen und den Möchtegern-Experten ziemlich schwierig sein kann.“

Der WSI gehört NBC Universal sowie zu gleichen Teilen den Firmen Blackstone und Bain Capital.

©? copyright Platts, 20 January 2011

Link zum Original: http://thegwpf.org/the-climate-record/2269-freezing-winters-in-europe-could-be-the-norm.html 

Übersetzt von Chris Frey für EIKE




Weitere Mess-Unsicherheit (Fehler) von Oberflächentemperaturdaten quantifiziert! Deutlich größer als bisher angenommen!

Zusammenfassung

Die Unsicherheit der instrumentallen Messungen ist in früheren Schätzungen des globalen Oberflächen-Temperaturmittels noch nie vollständig behandelt worden. Der geschätzte durchschnittliche Messstationsfehler von ±0.2 C wurde fälschlicherweise als zufällig betrachtet und der systematische Fehler aus freien Variablen ist ständig vernachlässigt worden. Die systematischen Messfehler von drei ideal positionierten und gewarteten Temperatursensoren werden hier berechnet. Kombiniert mit dem durchschnittlichen Messstationsfehler von ±0.2 C wurde eine repräsentative untere Unsicherheitsgrenze von ±0.46 C für jede globale jährliche Oberflächentemperatur-Anomalie gefunden. Diese ±0.46 C zeigen, dass der Trend der globalen jährlichen Oberflächentemperatur-Anomalie von 1880 bis einschließlich 2000 statistisch nicht von 0 C unterschieden werden kann, er stellt daher eine untere Grenze der Kalibrierungs-Unsicherheit für Klimamodelle dar und für jede voraussichtliche physikalisch gerechtfertigte Proxy-Rekonstruktion von Paläo-Temperaturen. Die Rate und das Ausmaß der Erwärmung im 20. Jh.  sind daher nicht bestimmbar. Behauptungen eines noch nie dagewesenen Trends in der globalen Termperatur im 20. Jh. können nicht aufrecht erhalten werden.

Einführung

Die Rate und das Ausmaß der Klimaerwärmung im vergangenen Jahrhundert geben zu erheblicher internationaler Besorgnis und Forschung Anlaß [1, 2]. Die veröffentlichten Auswertungen der Quellen der Unsicherheit in den Aufzeichnungen der globalen jährlichen Oberflächentemperaturen sind bisher auf Ortsveränderungen der Messstationen gerichtet gewesen, auf räumliche Inhomogeneität der Messstationen, auf Instrumentenaustausch und auf Veränderungen in der Landnutzung und auf die Verstädterung.

Überprüfungen der Datenqualität von Landmessstationen und Anpassungen der Zeitreihen, die zur Unterstützung eine geschätzten Unsicherheit von etwa ±0.2 C bei einer globalen  Anomalie im Jahrhundertdurchschnitt von etwa +0,7 C angewendet worden sind, haben das Messungsrauschen nicht richtig beachtet und sie haben noch nie die unabhängigen Umweltvariablen beachtet, die die Auflösungsgenauigkeit der Sensoren im Feld beeinflussen. Die Auflösungsgenauigkeit im Feld bezieht sich auf die Fähigkeit eines Sensors zwischen ähnlichen Temperaturen, dem wirksamen Einfluß der Umwelt und den verschiedenen Quellen von Instrumentenfehlern zu unterscheiden.

In einer neuen Abschätzung globaler jährlicher Oberflächentemperaturen und deren Unsicherheiten haben Brohan et al. [11], hier folgend mit B06 zitiert, das Messgeräterauschen als vernachlässigbar beurteilt. Sie schreiben: „Der zufällig Fehler bei einer einzigen Thermometer-Ablesung beträgt etwa 0.2 C (1Standardabweichung) [Folland,et al., 2001] ([12]); der Monatsdurchschnitt beruht auf mindestens zwei Ablesungen pro Tag während der gesamten Monatsdauer, wodurch 60 oder mehr Werte gewonnen werden, die zur Durchschnittsbildung herangezogen werden. Daher beträgt der Fehler im Monatsdurchschnitt höchstens 0.2 /Quadratwurzel 60 = 0.03 C und dieser Wert wird nicht mit dem Wert einer anderen Station oder mit dem Wert für einen anderen Monat korreliert.

Ziffer [29] von B06 begründet diesen statistischen Ansatz damit, dass die monatlichen Temperatur-Aufzeichnungen der Bodenmessstationen als Summe aus einem konstanten Mittelwert plus Wetter-Rauschen verstanden werden. “Die Messstationstemperatur jedes Monats während der Normalperiode kann als die Summe zweier Komponenten betrachtet werden: einem konstanten Stationsnormalwert (C) und einem zufälligen Wetterwert (w, mit der Standardabweichung ?i).“ Diese Beschreibung und der Ansatz einer Reduktion von 1 / Quadratwurzel 60 als Messungsrauschen zusammen bedeuten, dass hier statistisch eine Mittelwertbildung des Signals der monatlichen Temperaturen vorgenommen wird.…

..Die „Freiwilligen“ und ich werden erwähnt (Anm. d. Ü.: Es handelte sich um ein Freiwilligen- Team, das unter Anthony Watts Anleitung die meisten U.S.-amerikanischen Bodenwetterstationen auf mögliche verfälschende Umwelteinflüsse untersuchte):

Die Güte einzelner Bodenmessstationen wird für die Vereinigten Staaten vielleicht am besten durch die empfehlenswerten und ausgezeichneten unabhängigen Auswertungen durch Anthony Watts und sein Freiwilligenkorps untersucht. Die Ergebnisse sind öffentlich zugänglich unter: http://www.surfacestations.org/. Ihr Ausmaß umfaßt das gesamte Netz der USHCN Bodenmessstationen. Danach verdienten 69% der USHCN Stationen eine Stationsbewertung von “schlecht” (poor) und weitere 20% nur ein “ausreichend” (fair) [26]. Aus dieser und begrenzteren veröffentlichten Untersuchungen von Stationsmängeln [24, 27-30] geht hervor, wie weit entfernt von „ideal“ die Güte der Stationsmessungen in den Vereinigten Staaten sind. In Europa hat eine kürzliche weitflächige Analyse der Güte von Stationsdatenreihen im Rahmen des European Climate Assessment [31] überhaupt keine Untersuchung der individuellen Stations-Sensorabweichungen erwähnt und ausgesagt: “es kann nicht garantiert werden, dass jede Temperatur- und Niederschlagsserie für Dezember 2001 genügend homogen ist in Bezug auf die tägliche Mittelwertbildung und Abweichung.“

Also, es hat offensichtlich nie eine Auswertung weder der Abweichung des Temperatursensor-Rauschens noch der stationsbezogenen Abweichungen stattgefunden für diejenigen Messstationen stattgefunden, deren Messungen in die globale Mittelwertbildung eingehen. Schlechte Stationsgüte wurde größtenteils denjenigen Stationen bescheinigt, die unabhängig untersucht worden sind. Schließlich haben Lin und Hubbard nachgewiesen [35], dass variable Bedingungen im Feld eine nicht-lineare systematische Auswirkung auf das Messverhalten der Sensorelektronik ausüben. Das deutet auf wahrscheinliche nicht-stationsbezogene Rauschvarianzen in den Zeitreihen der Temperaturmessungen der jeweiligen Bodenstationen hin.

4. Zusammenfassung und Ergebnisse

Die Annahme eines globalen stationseigentümlichen Sensor-Rauschens ist empirisch noch nicht überprüft worden und noch nicht bestätigt. Die geschätzte Unsicherheit im Rauschens setzt sich eher mit fort als mit . Die Unsicherheit in den monatlichen Mittelwerten würde außerordentlich vermindert, wenn die Positionierung der Bodenmessstationen verbessert würde und die Varianzen des Sensor-Rauschens bekannt, überwacht und empirisch als stationseigentümlich verifiziert würden.

Die Untergrenze der Unsicherheit von ±0.46 C zeigt, dass der Trend der gemittelten globalen Temperatur-Anomalien zwischen 1880 und 2000 statistisch nicht von 0 C auf der 1? – Ebene unterschieden werden kann. Daher ist die Schlussfolgerung unabweisbar, dass es derzeit unmöglich ist, einen globalen Erwärmungstrend des Klimas seit 1880 zu quantifizieren.

Das Papier kann vom Verlag Multi-Science bezogen werden: 

Ich bitte jeden, der diese Arbeit schätzt und mehr wissen will, den Verlag durch den Kauf einer Kopie des Papiers über die oben angegebene Adresse zu unterstützen.

Glückwünsche an Herrn Frank für sein schwere Arbeit und die erfolgreiche Publikation. Ich bin sicher, dass seine Arbeit noch zitiert werden wird.

Bei Jeff Id bei Air Vent gibt es eine technische Diskussion darüber, die einen Besuch wert ist.

Antony Watts

Zu einer vergleichbaren Aussage kommt R. Lindzen bei seiner Aussage vor dem Senatsausschuss 2007: (Seiten 10,11 & 12)

Die Übersetzung besorgte Helmut Jäger




Die Niederlande steigen aus der Förderung von Offshore Windrädern aus und fördert stattdessen die Kernkraft!

Die neue rechtsgerichtete niederländische Regierung hat eine radikale Überarbeitung der niederländischen Energiepolitik angekündigt. Sie baut die Subventionen für die meisten erneuerbaren Energien drastisch ab und setzt sogar allen Subventionen für Offshore-Windkraft, Solarenergie und große Energieerzeugung aus Biomasse ein Ende. Sie befürwortet auch  neue Kernkraftwerke – zum ersten Mal seit der Katastrophe von Tschernobyl 1986 hat eine holländische Regierung so etwas getan. Aber nicht alles ist für den Sektor der erneuerbaren Energien verloren: das Kabinett ist noch am Nachdenken über eine langfristige Strategie und einen "Grünen Deal", der die Niederlande vielleicht doch noch auf eine "grünere" Schiene setzen könnte. 

Sonnenuntergang für holländische grüne Subventionen

Vermutlich war es die große Subventionierung eines 600 MW-Offshore-Windparks durch die  vorherige Regierung, welche das neue niederländische Kabinett veranlasste, einige drastische Änderungen an der bestehenden Unterstützung für erneuerbare Energien zu machen. Im Mai 2010 hatte die vorherige Regierung angekündigt, dass der deutsche Windenergie-Investor BARD ENGINEERING eine Zuschuss bis zu maximal 4,5 vom niederländischen Steuerzahler für den Bau von zwei 300-MW-Offshore-Windparks vor der nordfriesischen Küste erhalten sollte. Die neue rechte Regierung, eine Koalition der liberalen VVD und der christlich-demokratischen CDA, unterstützt von der Anti-Islam Partei PVV, entschied, sie würden nicht den gleichen Fehler machen. Während des Wahlkampfes hatte der neue Premierminister, Mark Rutte von den Liberalen, die staatliche Unterstützung für große Windkraftanlagen mit den Worten verspottet: "Die Zuschüsse drehen die Windmühlen". 

Das am 30. November vom schwergewichtigen Maxime Verhagen, Christdemokrat und neuer Minister für Wirtschaft, Landwirtschaft und Innovation, vorgestellte Konzept für die erneuerbare Energie stellte mit seinen großen Kürzungen der grünen Zuschüsse von 4 Mrd. pro Jahr auf 1,5 Mrd. keine Überraschung dar. Die neue Regelung ist mehr als eine Kürzung – sie zielt auch auf eine radikale Überarbeitung der bestehenden Verfahren zur Vergabe von Subventionen ab. Man will "effiziente" (billige) Formen der erneuerbaren Energieerzeugung belohnen, so z. B. die Windenergieerzeugung an Land, und nicht die relativ ineffiziente (teure) Offshore-Windenergieerzeugung.

Defizit

Im vorherigen Verfahren (bekannt unter der holländischen Abkürzung SDE) flossen die Subventionen für verschiedene Formen der erneuerbaren Energien für einen festgelegte Zeitraum (normalerweise 15 Jahre). Die Höhe der Subvention wurde aus der Differenz zwischen den Kosten der jeweiligen Energieerzeugungstechnik und den Kosten der Energieerzeugung aus fossilen Quellen ermittelt. Dieses sogenannte "Defizit" wird jährlich vom holländischen Energieforschungsinstitut ECN berechnet.

Nach neuen Regel wird die holländische Regierung die Subventionen ganz anders zuweisen.

So erhielt z. B. die Offshore-Windenergie im vergangenen Jahr 9,7 ct pro kWh, die landerzeugte 4 ct, solarerzeugte 43 ct, usw. – das alles aufgrund des vom ECN festgesetzten “Defizits”. Diese System unterstützt relativ uneffiziente (teuere) und effiziente (billige) Formen der erneuerbaren Energien gleichermaßen, weil sie alle mit dem Ziel unterstützt werden, sie im Vergleich mit gas- oder kohleerzeugter Energie wettbewerbsfähig zu machen.

Im neuen Reglement (ein wenig irreführend SDE-plus genannt), das Mitte 2011 in Kraft treten soll, wird die Regierung die Mittel auf völlig unterschiedliche Weise verteilen, und das ist sehr komplex. Im Windhund-Verfahren werden die Subventionen in vier Stufen zugewiesen.

1) In der ersten Stufe wird eine Subvention von 9 ct pro kWh (oder 79 ct pro Kubikmeter Gas) angeboten, aber nur Für Erzeuger mit Techniken, die "Defizite" von unter 9 ct haben. Aufgrund der Zahlen vom ECN sind das: Biogas, Wasserkraft, Müll-Energieerzeugung, Gas aus Fermentierungsprozessen.

2) Wenn dann noch Geld übrig ist, geht es in die zweite Stufe, wo eine Subvention von 11 ct pro kWh (oder 97 ct pro Kubikmeter Gas) angeboten wird. Diese Stufe steht für die Erzeuger von landgestützter Windkraft und Gaserzeugern aus Dünger offen.

3) Wenn immer noch Geld übrig ist, wird in der dritten Stufe mit 13 ct pro kWh oder 114 ct pro Kubikmeter Gas unterstützt. Diese Stufe ist für die Energieerzeuger aus Wasserkraft und kleiner Biomasse offen.

4) Die vierte und letzte Stufe (15 ct pro kWh oder 132 ct pro Kubikmeter Gas) steht den Energieerzeugern als aller Art von Fermentierungsprozessen offen.

Nicht eingeschlossen in allen vier Kategorien sind Solarkraft, Biomasse in großem Umfang und offshore Windkraftwerke weil sie allesamt zu teuer sind.

Es gibt aber auch einen Vorteil. Die Regierung hat eine "freie Kategorie" von Antragstellern definiert. Die können sich um Subventionen in allen vier Kategorien bewerben. Wer kann sich für diese "freie Kategorie" qualifizieren? Zu allererst alle diejenigen, die in einer der in den vier Stufen genannten Energieerzeugung tätig sind. Zweitens die Erzeuger einer begrenzten Anzahl von erneuerbaren Energieformen mit Defiziten über 15 ct pro kWh, vor allem thermische Umwandlung von Biomasse (< 10 MW), Solarenergie (> 15 kWp), Osmose und Geothermie.

Die neue holländische Energiepolitik für offshore Windenergie steht in starkem Gegensatz zu den Nachbarländern.

So können sich z. B. Firmen aus dem landgestützten Windenergiegeschäft (eine Technik aus der zweiten Stufe) für Subventionen von 9 ct. pro kWh in der ersten Stufe bewerben. Oder, um ein anderes Beispiel zu nennen, Solarenergieerzeuger können sich für Subventionen in allen vier Stufen bewerben, aber im Falle der Gewährung müssen sie sich mit einer deutlich geringeren Unterstützung abfinden als unter dem von der ECN definierten Defizit-Regime.

Große Biomasse- und Offshore-Windkraft-Erzeuger befinden sich noch nicht einmal in der "freien Kategorie". Anders gesagt, sie werden überhaupt keine Subventionen erhalten. Die Großbiomassenerzeuger werden laut Ministerium deswegen ausgeschlossen, weil sie danach tendierten, ein großes Stück der Subventionen in der Vergangenheit abzugreifen. Dennoch hat die Regierung den Energieerzeugern versprochen, noch "einen alternativen" Weg zu finden, um diese Form der erneuerbaren Energie zu fördern.
Das wird wahrscheinlich ein Art von Regierungsauflage zur Verbrennung eines Anteils von Biomasse in Kohlekraftwerken sein. Für die Offshore-Winderzeuger sieht die Zukunft sehr düster aus: sie werden nirgendwo im neuen Konzept erwähnt. Hier zeigt sich eine scharfe Kehrtwendung zur Politik der vergangenen Regierungen, die ein Ziel von 6.000 MW Offshore-Windkrafterzeugung für 2020 gesetzt hatten. Bislang sind nur 220 MW Offshore-Windkraftkapazität im holländischen Teil der Nordsee installiert worden. Jetzt sieht es so aus, dass die beiden hochsubventionierten 300 MW Parks von BARD ENGINEERING die einzigen sind, die in absehbarer Zukunft hinzukommen, mit der Ausnahme eines etwa 100 MW Parks, der noch nach den Regeln des auslaufenden Regimes gefördert wird.

Die neue niederländische Energiepolitik für Offshore-Windparks steht in scharfem Kontrast zu den Nachbarländern. Deutschland, England, Dänemark und Irland sind immer noch fest entschlossen, die Windenergieerzeugung in ihren territorialen Gewässern auszubauen. Die Meinungen der Regierung in Den Hag scheint mehr im Einklang mit der Zentrale von SHELL zu stehen, die sich nur in geringer Entfernung vom niederländischen Parlament befindet. Im Oktober 2010 hat der Vorstandsvorsitzende von SHELL, Peter Voser, die große Subventionierung von BARD ENGINEERING offen kritisiert. SHELL hat sich 2008 aus dem Windenergiegeschäft wegen der damit verbundenen hohen Kosten zurückgezogen.

Grüner Deal

Hauptgrund für die neuen Subventionierungspolitik ist laut Aussagen des Ministers, dass "die Niederlande das europäische Ziel für erneuerbare Energien auf die kostenwirksamste Weise erreichen wollen". Anders gesagt, Kosten werden gesenkt. Das SDE-plus Regime wird für den holländischen Haushalt sehr "kostenwirksam" werden, weil die Verbraucher für die Energie in Form von Aufschlägen auf ihre Elektrizitäts- und Gasrechnung bezahlen müssen. Das alte SDE-Regime beruhte auf Zahlungen aus dem Haushalt. Etwa eine Hälfte der neuen Aufschläge wird auf das Konto der Privathaushalte entfallen, die andere Hälfte auf Industrie und Gewerbe. Zusätzlich erwägt die Regierung eine gesonderte "Kohle- und Gas-Steuer" zu erheben.

Maxime Verhagen, Ministe für Wirtschaft, Landwirtschaft und Innovation: ‚Massive EU-Finanzierung der Energie-Infrastruktur wird die Märkte zerstören‘

Heißt das, die Niederlande gäben ihre offshore Windenergieerzeugung und andere "teure" Formen der erneuerbaren Energie völlig auf? Dieser Schluss wäre etwas verfrüht. Auf einer vom renommierten Clingendael International Energy Programme (CIEP) veranstalteten Konferenz in Den Hag am 11. Januar, betonte Minister Verhagen, dass die Regierung zwei Linien verfolge: eine kurzfristige und eine langfristige. Das neue Subventionierungsschema soll als kurzfristige Maßnahme gesehen werden. Als Bestandteil der längerfristigen Strategie möchte die Regierung die Investitionen, Innovationen, Forschung und Entwicklung von offshore Windenergie und anderer "teurer" Formen der "Erneuerbaren" verstärken.

Auf derselben Konferenz erklärte der Generaldirektor für Energie, Telekommunikation und Märkte in Verhagens Ministerium, Hans Vijlbrief, dass die vergangene Politik auf einem Missverständnis beruht hätte. Er sagte: "Wir haben versucht, die Förderung der Innovation und Produktion gleichermaßen zu vermischen. Das funktioniert nicht." Im neuen Konzept sind die beiden Anreizsysteme getrennt. Die Regierung wird ihre Anstrengungen darauf richten, die offshore Windenergie, vielleicht auch auf die Solarenergie und großvolumige Biomassenenergie billiger zu machen, bevor sie die Produktion fördert.

Im April will die Regierung ein neues Energiekonzept vorlegen, das die langfristigen Pläne in größerem Detail enthält. Gleichzeitig versprach Verhagen, mit einem Fächer von politischen Initiativen unter dem Namen "Grüner Deal" herauszukommen. Ziel dieses noch in Bearbeitung befindlichen Plans ist, die Initiativen für Energieeffizienz und lokale nachhaltige Energieprojekte zu fördern. Als Bestandteil des "Grünen Deals" betrachtet die Regierung die Möglichkeit, einen Finanzierungstopf zu schaffen, um beispielsweise Hauseigentümer zu fördern, die in Energiesparmaßnahmen investieren wollen.

Kernkraft

Ein zweiter Gezeitenwechsel in der holländischen Energiepolitik der rechten Regierung ist die bewusste Hinwendung zur Kernkraft.

Das Kabinett fordert zu Anträgen für den Bau neuer KKW auf

Die Niederlande haben nur ein einziges kleines KKW namens Borssele in Zeeland. Es hat eine Kapazität von nur 485 MW. Spätestens seit Tschernobyl hat eine starke Opposition der Sozialdemokraten und anderer Linker Kernkraftprojekte undenkbar gemacht. 1994 hat die Regierung beschlossen, Borssele 2004 zu schließen. 2002 ist das Schließungsdaten auf 2013 verschoben worden. Dann wurde entschieden, das Kraftwerk bis 2033 zu betreiben. Neue Kernkraftprojekte waren aber von den verschiedenen vergangenen Koalitionsregierungen abgelehnt worden.

Damit ist nun seit der Machtübernahme durch die neue rechte Koalition Schluss. Das neue Kabinett hat klargestellt, dass es Anträge auf neue Kernkraftwerke befürwortet. In der Koalitionsvereinbarung vom 30. September steht, dass " … mehr Kernkraft nötig ist, um CO2-Verminderungsziele und geringere Abhängigkeit in der Energieversorgung zu erreichen. Anträge auf Genehmigungen für den Bau eines oder mehrerer neuen Kernkraftwerke, die die Auflagen erfüllen, werden genehmigt werden." Die Regierung hat aber keine Subventionierung versprochen. Auf parlamentarische Anfragen antwortete Verhagen, dass die interessierten Firmen selber die Kosten decken müssten.

In Reaktion auf die neue Politik haben einige Firmen angedeutet, dass sie am Bau neuer KKWs in den Niederlanden interessiert sind. Der Energieversorger DELTA, im Eigentum der Provinzregierung von Zeeland und 50%-iger Eigentümer von Borssele, steht bereits in Verhandlungen mit dem französischen Energieriesen EDF. Beide Firmen befinden sich im fortgeschrittenen Stadium der Vorbereitungen der Beantragung einer Baugenehmigung. Im kommenden Jahr wird der Antrag erwartet.

Borssele ist das einzige holländische KKW

DELTA hat eine Hauptwettbewerber in Energy Resources Holding (ERH), dem anderen 50%-Eigentümer des KKW Borssele. ERH hat ebenfalls die Absicht zum Bau eines neuen KKW in Borssele angekündigt. Die deutliche Rivalität zwischen den beiden Joint-Venture-Partnern von Borssele hat ihre eigene Geschichte. Borssele war als Joint-Venture von DELTA und ESSENT gebaut worden, beide im Eigentum der Provinz- und lokalen Behörden zur damaligen Zeit. Als aber ESSENT 2009 vom deutschen Energieversorger RWE übernommen worden war, hat DELTA mit Erfolg den Verkauf der ESSENT-Anteile an RWE verhindert mit der Begründung, dass die Statuten von Borssele eine Privatisierung verböten. Die früheren ESSENT-Eigner behielten ihre Borssele-Anteile, die sie in eine getrennte Holding einbrachten, die ERH. Eine gerichtliche Klärung ist im Gange, in der festgestellt werden soll, ob das Privatisierungsverbot aufgehoben und ERH an RWE verkauft werden könnte. Im Erfolgsfalle hätte die deutsche Firma die Möglichkeit in den Kernkraftsektor in den Niederlanden einzusteigen. Eine Ironie ist, das Borssele mit RWE-Technologie gebaut worden ist.

Zusätzlich zu DELTA (EDF) und ERH (RWE) haben zwei weitere Kandidaten ihr Interesse am Ausbau der Kernkraft in den Niederlanden gezeigt: ELECTRABEL, Tochter der französischen GDF-SUEZ, des größten Energieerzeugers in den Niederlanden, und die schwedische VATTENFALL, die den holländischen Energieerzeuger NUON 2009 übernommen hat.

Garantien

Der Erfolg eines neuen Kernkraftprojekts in den Niederlanden ist aber keineswegs sicher. Auf der CIEP-Konferenz sagte Verhagen, er erwarte den Antrag von DELTA 2012. Dann würde die Regierung alles in ihrer Macht Stehende tun, um die Genehmigung noch innerhalb der vierjährigen Legislaturperiode zu erteilen, d. h. vor 2015. Das beträfe auch alle anderen Projekte. Es ist aber noch unklar, ob der Minister sein Versprechen wird einhalten können. Die Bearbeitung eines Antrags für ein Kernkraftprojekt ist eine höchst komplexe Angelegenheit. Experten zweifeln, ob die holländische Regierung überhaupt genügend Sachverstand hat, um so etwas zügig zu erledigen.

Für Firmen, die einen Antrag stellen wollen, ist es ebenfalls nicht leicht. Peter Terium, Vorstand von ESSENT sagte, dass 2012 ein "sehr ambitionierter" Abgabetermin für jede Firma wäre. 

Solide gesetzliche Grundlagen und Regeln sind nötig, die nicht nach den nächsten Wahlen über Bord geworfen werden können

Er merkte an, dass allein die Angebotsbearbeitung 10 Mio. Euro für jede Firma kosten könnte, vielleicht auch mehr. Auch sagte er, dass die Energieversorger vor dem Eingehen größerer Investitionen weit bessere Regierungsgarantien brauchten als die reine Absichtserklärung, einen Antrag zu genehmigen. In seinen Worten: "Es muss eine solide gesetzliche Grundlage her, die nach den nächsten Wahlen nicht mehr abgeschafft werden kann."

Ein Regierungssprecher sagte, dass Verhagen einen Entwurf für eine gesetzliche Regelung vorbereite. Der könnte binnen einiger Wochen fertig sein.
Dennoch, wenn es um das Erreichen des CO2-Emissions-Ziels für 2020 geht, wäre die holländische Regierung wohl besser beraten, nicht auf die Kernkraft als Teil der Lösung zu setzen.

Autoren Karel Beckman and Alexander Haje  Hier in Europena Energy Review kann der Artikel im Original gelesen werden. The Dutch lose faith in windmills

Die Übersetzung besorgte Helmut Jäger EIKE

 




Neues Papier: Kosmische Strahlung trägt 40% zur globalen Erwärmung bei!

Tatsächlich beträgt die Auswirkung der abnehmenden kosmischen Strahlung auf den Klimawandel fast 40 Prozent, behauptet Dr. Rao in einem Papier, das vom führenden indischen Wissenschaftsjournal Current Science zur Veröffentlichen angenommen worden ist. Das IPCC Modell dagegen behauptet, das die Wirkung von Kohlenstoffemissionen über 90 Prozent betrüge.

‘Der Einfluss der kosmischen Strahlung wird ignoriert’

Umweltminister Jairam Ramesh sagte bei der Veröffentlichung von Dr. Raos Forschungsergebnissen als Diskussionsbeitrag am vergangenen Donnerstag, dass “die Auswirkung der Intensität der kosmischen Strahlung auf den Klimawandel bislang weitgehend vom vorherrschenden wissenschaftlichen Konsens ignoriert worden wäre.” Er fügte hinzu, dass die “eindimensionale Konzentration” auf Kohlenstoffemissionen durch die meisten westlichen Staaten zusätzlichen Druck auf Länder wie Indien ausüben würde.

Die zunehmende Intensität der Sonnenaktivität hat eine 9 prozentige Abnahme der Intensität der kosmischen Strahlung in den vergangenen 150 Jahren bewirkt. Das führt zu weniger Bewölkung, daraus resultiert weniger Albedo-Abstrahlung ins All und damit eine Zunahme der Erdtemperatur.

Obwohl der Einfluss der kosmischen Strahlung schon untersucht worden ist, quantifiziert Dr. Raos Papier deren Beitrag zum Klimawandel und zieht den Schluss, dass “die vom IPCC im 4. Auswertungsbericht (AR4) getroffene Vorhersage des Klimawandels eine Überprüfung nötig mache, um die langfristigen Veränderungen in der galaktischen Intensität der kosmischen Strahlungsintensität zu berücksichtigen.”

Politische Implikationen

Das könnte ernste politische Implikationen haben. Wenn der Mensch eine so signifikante Ursache des Klimawandels wie die kosmischen Strahlung nicht beeinflussen kann, würde sich der auf die Länder ausgeübte Druck zur Kohlenstoffemissionsminderung verändern. 

Mr. Ramesh betonte, das Dr. Raos Forschungsergebnisse nicht die indischen Bemühungen in Klimawandelfragen vermindern würden, aber er gab auch zu, dass sie die Atmosphäre der internationalen Verhandlungen verändern könnten.

“Internationale Klimaverhandlungen betreffen die Klimapolitik. Aber die Wissenschaft wird immer mehr zum Handlanger der Politik”, sagte er.

Mr. Ramesh hatte im November 2009 einen Bericht des Glaziologen V.K. Raina veröffentlicht, indem behauptet worden war, die Himalaya-Gletscher würden sich überhaupt nicht in alarmierendem Tempo zurückziehen. Viele westliche Wissenschaftler hatten das bezweifelt, der IPCC-Vorsitzende R.K. Pachauri qualifizierte das sogar als “Voodoo-Wissenschaft“ ab. Aber Dr. Raina wurde später rehabilitiert durch die vom IPCC selbst veranlasste Zurücknahme der Behauptung vom Abschmelzen der Himalaya-Gletscher bis 2035.

“Seitdem haben die westlichen Minister mir gegenüber weniger über die Gletscher geredet,  sie haben damit aufgehört, mir häufig damit zu kommen und Druck auf Indien auszuüben, mitzumachen”, sagte Mr. Ramesh.

Anlässlich der Übersendung des Rao-Papiers an Dr. Pachauri, teilte ihm Mr. Ramesh mit, dass der nächste IPCC Auswertungsbericht besondere Aufmerksamkeit auf den Einfluss der Bewölkung auf den Klimawandel legen sollte. Der Minister drückte die Hoffnung aus, dass  Dr. Raos Forschungen ernsthaft von den Klimaforschern zur Kenntnis genommen werden möchten.

“Es gibt heute in der Klimatologie eine Gruppendenke. Wer alternative Klimatheorien ins Gespräch bringt wird sofort bei den Klima-Evangelisten als Klima-Atheist gebrandmarkt”, sagte er. “Die Klimatologie ist viel komplexer als die Unterhändler der [entwickelten Industriestaaten] glauben machen wollen. Die Westler sollten die Klimatologie nicht anführen. Wir dürfen uns nicht immer von Berichten von außen abhängig machen“.

Anfechtung der IPCC-Behauptungen

Den jüngsten Berichten des IPCC zufolge trägt der Mensch mit seinen Aktivitäten, Kohlenstoffemissionen eingeschlossen mit 1.6 Watt/qm zum Klimawandel bei. Andere Faktoren, wie z. B. die Sonneneinstrahlung tragen gerade mal 0.12 Watt/qm bei.

Dr. Raos Papier aber berechnet die Wirkung der kosmischen Strahlung mit 1.1 Watt/qm. Mit allen nicht-menschlichen Faktoren zusammengenommen beträgt die Größe aller Faktoren aus nicht-humanen Aktivitäten 1.22 Watt/qm.

Das bedeutet, dass erhöhte Kohlenstoffemissionen in die Atmosphäre nicht so bedeutsam sind, wie das IPCC behauptet. Von der gesamten Klimaerwärmung von 0,75 Grad Celsius wären nur 0,42 Grad auf erhöhte CO2 – Werte zurückzuführen.  Das übrige wäre eine Folge der langzeitlichen Verminderung der Intensität der primären kosmischen Strahlung und deren Auswirkung auf die niedrige Bewölkung.

Es bedeutet auch, dass die Vorhersage der globalen Erwärmung und des Meeresspiegelanstiegs nicht so einfach ist, wie das IPCC vorgibt. Beide hängen nicht nur von menschlicher Tätigkeit her sondern auch deutlich von der unvorhersagbaren Intensität der kosmischen Strahlung.

“Wir folgern, dass der Beitrag aus der galaktischen Intensität der kosmischen Strahlung sehr erheblich ist und in die Vorhersagen über die globale Erwärmung und deren Auswirkung auf den Anstieg des Meeresspiegels in die Rechnung eingehen muss“, sagt das Papier.

Autor Anthony Watts vom 21.1.11 Die Original Version finden Sie hier

Übersetzt von Helmut Jäger EIKE

Einen weiteren Aufsatz: "Cosmic rays linked to rapid mid-latitude cloud changes" mit messtechnisch untermauerten Belegen von Laken et 2010 al zum Thema finden Sie hier

Hier der vollständige Artikel bei the Hindu 

Hier finden Sie das Rao Paper 




Wie die NASA die Arktis warmrechnet und die Globaltemperatur zum Steigen bringt

Den Temperaturkarten der NASA (GISTEMP) zufolge zeigt sich in der Arktis und im Nordpolarmeer über die letzten Jahrzehnte hinweg ein kontinuierlicher Temperaturanstieg. Jedenfalls den Bodenmessungen der Wetterstationen nach.

Schaut man sich die Daten von Messbojen aus den Nordpolarmeer an, die nicht im Datenbestand der NASA zu finden sind, so ergibt sich ein anderes Bild. Die folgende Abbildung zeigt den direkten Vergleich zwischen Messwerten aus Stations- und Bojendaten (oben) und Berechnungen der NASA (unten).

Gezeigt wird der Temperaturtrend im Zeitraum 1979-1997 in der Arktis. Eine Periode der stärksten Erderwärmung der letzten 160 Jahre. Den Daten der NASA zufolge (unterer Teil der Abbildung) hat in diesem Zeitraum ein starker Temperaturanstieg in der Arktis und im gesamten Nordpolarmeer stattgefunden. Betrachtet man die Messdaten aus Bojen-Messungen im selben Zeitraum (oberer Teil der Abbildung, entnommen aus “Variations in Surface Air Temperature Observations in the Arctic, 1979–97?), so fallen grundlegende Unterschiede zu den Berechnungen der NASA auf.

Die Messdaten zeigen ein dreigeteiltes Nordpolarmeer. In Teilen der Ostarktis (vor der Küste Russlands) zeigt sich ein Trend zu einer Erwärmung, in Teilen der Westarktis (Kanada-Becken, vor der Küste von Kanada und Alaska) zeigt sich hingegen ein Trend zu einer Abkühlung. In weiten Teilen des zentralen Nordpolarmeers zeigt sich weder ein Trend zu einer Erwärmung noch zu einer Abkühlung.

Vergleicht man die Trends, so kommt man zu folgenden Ergebnis für die Region 70°N-90°N

Den Messdaten (oberer Teil der Abbildung) zufolge ergibt sich folgende Dreiteilung:

  • Ca. 68% der Fläche zeigen weder einen Trend zu einer Erwärmung noch zu einer Abkühlung.
  • Ca. 27% der Fläche zeigen eine Erwärmung von 0,5 – 1,5°C pro Dekade.
  • Ca. 3% der Fläche zeigen eine Erwärmung von 1,5 – 2,5°C pro Dekade.
  • Ca. 2% der Fläche zeigen eine Abkühlung von -0,5 bis -1,5°C pro Dekade.

Als Gebietsmittel ergibt sich eine Erwärmung von ca. 0,3°C pro Dekade, oder ca. 0,6°C im Zeitraum 1979-1997 für die Region 70°N-90°N.

Den Berechnungen der NASA zufolge (unterer Teil der Abbildung, bzw. dem zonalen Mittel nach) ergibt sich eine Erwärmung von ca. 0,8°C im Zeitraum 1979-1997 für die Region 70°N-90°N. Die Berechnungen der NASA zeigen also eine deutlich größere Erwärmung für die Arktis, als aus den Messwerten/ Stations- und Bojendaten hervorgeht.

Damit wäre geklärt, die Berechnungen der NASA entsprechen nicht den real gemessenen Temperaturen im Nordpolarmeer und weisen entscheidende Diskrepanzen zu diesen auf. Offensichtlich wurden die Berechnungen der NASA auch nicht nachträglich mit den Bojendaten abgeglichen (validiert). Anders sind die Unterschiede nicht zu erklären.

Es stellt sich die Frage, warum die NASA die Temperatur des Nordpolarmeers aus Land-Stationen, die einige hundert Kilometer entfernt liegen errechnet und nicht direkt auf die Bojendaten zurückgreift. Zumal die NASA an dem NASA EOS program Polar Exchange at the Sea Surface (POLES) direkt beteiligt war und auch Zugriff auf die Daten des International Arctic Buoy Programme (IABP) hat?

Vielleicht kann einer der Leser diese Frage beantworten?

Als Nebenprodukt einer sich stark erwärmenden Arktis fällt eine schneller ansteigende Globaltemperatur ab. Zudem würde damit den Vorhersagen der Klimamodelle genüge getan.

*Hier finden Sie die  NASA Stationen auf dem Land. Im Nordpolarmeer, also gerade dort, wo die Erwärmung am stärksten sein soll, gibt es ein großes Datenloch.

Gastautor Michael Krueger, Der Artikel erschien zuerst bei Science Sceptical

Quellen

Variations in Surface Air Temperature Observations in the Arctic, 1979–97

Überarbeitete Abbildung der Messdaten/ Bojendaten nach IABP

Das Datenloch in der Arktis, oder wie die NASA die Temperaturen konstruiert

Bolivianische Temperaturrekorde – ein Rechenkonstrukt

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):




La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld

La Niña, was übersetzt „das Mädchen“ bedeutet und El Niño („der Knabe“), basieren auf einer Änderung der Passatwinde im pazifischen Tropengürtel. Während bei einem El Niño die Passatwinde abflauen und dadurch die Wind- und Wasserzirkulation zusammenbricht, verstärken sich bei einem La Niña die Passatwinde und treiben sozusagen pazifisches Oberflächenwasser vor sich her, wodurch das warme Wasser vor die Küste Indonesiens getrieben wird und kaltes Wasser von der Küste Perus nachströmt. Dieses Wasser ist bis zu 3°C kälter als der Durchschnitt (Langfristmittel). Dies führt zu mehr Niederschlägen im Westpazifik, so auch in Australien. Abbildung 1 zeigt die durch La Niña betroffenen Gebiete.

 

Abbildung 1 zeigt die Einflüsse eines La Niña-Ereignisses und wo dieser Einfluss auftritt, Quelle: (http://www.weatherimages.org/lanina.html). Sehr transparent zu sehen, dass in Brasilien und Australien verstärkte Regenfälle auftreten.

Die Anzahl der La Niña-Ereignisse nahm während der Erwärmungsphase zwischen 1980 und 2000 ab und nimmt seit der eintretenden Kaltphase ab ca. 2005 wieder zu, was, wie noch gezeigt wird, auf die Sonnenaktivität zurückzuführen ist.

 

Abbildung 2 zeigt anhand von Satellitenaufnahmen zwischen dem 14. und 16. Dezember 2010 (http://earthobservatory.nasa.gov/IOTD/view.php?id=48141) die Temperaturanomalien im Pazifik (links) und dazu die Änderungen in der Meeresspiegelhöhe, die der gegenwärtige La Niña verursacht (rechts).

In den Medien werden solche Ereignisse schnell aufgegriffen, um durch Extremdarstellungen Leser/Zuschauer zu binden. Dass Niederschläge für die Natur kein Menetekel, sondern bereichernd sind, zeigt denn die folgende Darstellung der NASA, die ebenfalls unter dem vorherigen Link zu finden ist. Die NASA betitelt ihre Abbildung mit den Worten “Australia Greens After Record Rains“. Das trockene Australien (Australien ist der trockenste Kontinent der Erde) ergrünt also nach den Rekordregenfällen (Abbildung 3).

 

Abbildung 3 zeigt die Vegetationsveränderung laut NASA im australischen Regengebiet. Deutlich ist zu sehen, dass die Natur durch die starken Regenfälle förmlich auflebt.

Die Ursachen für die Hochwasserschäden liegen denn auch weniger in den Naturereignissen selbst, sondern in politischen Versäumnissen vor Ort, wie die Pressemitteilung “Brisbane forgets the lessons of 1974“ (http://www.stuff.co.nz/the-press/news/4540164/Brisbane-forgets-the-lessons-of-1974) zeigt. Der Titel deutet darüber hinaus daraufhin, dass die gegenwärtige Flut kein Einzelfall, oder gar Jahrhundertereignis ist und in der Tat wird dies durch die offizielle Hochwasserstatistik bestätigt (Abbildung 4).

 

Abbildung 4 zeigt die Hochwassersituation in Brisbane von 1840 – Ende 2009. Dazu hat der Autor die Hochwassermarke für die Flutwelle vom Januar 2011 eingezeichnet (rote Linie). Deutlich ist erkennbar, dass in der Vergangenheit deutlich stärkere Hochwasser auftraten. Auch das Hochwasser von 1974 lag höher. Von einem Jahrhunderthochwasser kann also keine Rede sein. Abbildung 5 zeigt den Beleg für die Richtigkeit der roten Linie. Die Hochwassermarke lag bei maximal +4,4m.

 

Abbildung 5 zeigt die Hochwasserwelle in Brisbane mit Maximum am 13. Januar 2011, Quelle: Australian Gouverment Bureau of Meteorology).

In den Medien war weiter zu lesen, dass die heutige La Niña-Phase die stärkste seit 1917 war (http://www.faz.net/s/Rub…). Die Lösung, warum dem so sein könnte, zeigt die Abbildung 6.

 

Abbildung 6 zeigt den Schwabe-Zyklus der Sonne von 1813 – 2010 (Quelle: http://www.vukcevic.co.uk/AmEn.gif) und dazu dessen Hüllkurve, was prinzipiell nichts anderes als der Gleißberg-Zyklus der Sonne ist. Wird auf dieser Hüllkurve der Wert für Ende 2010 (rechte senkrechte, gestrichelte Linie) gesucht und mit dem Wert für 1917 verglichen, so ist festzustellen, dass beide denselben Wert, also dieselbe Sonnenaktivität im Gleißberg-Zyklus haben (grüne waagerechte Linie). Inwieweit dies nun Zufall oder Beleg für den Einfluss der Sonne ist, soll daher näher untersucht werden. Hierzu betrachten wir als erstes den irdischen El Niño/La Niña-Parameter, die ENSO (El Niño und die Southern Oscillation), die eine Schwingung der Meeresoberflächentemperatur im betroffenen pazifischen Gebiet darstellt.

 

Abbildung 7 zeigt die ENSO von 1950 – 2010. Die roten Werte zeigen El Niño-Jahre und die blauen La Niña-Jahre an. Es ist zu sehen, dass sich El Niño und La Niña-Ereignisse ablösen (es sich quasi um Schwingvorgänge handelt) und dass ab 1977 (grüne gestrichelte Linie) El Niño-Ereignisse dominieren, sowie La Niña-Phasen ab ca. 2007 an Stärke wieder zunehmen (wie eingangs beschrieben). In der Kaltphase bis 1977, als Politik und Wissenschaft eine drohende Eiszeit befürchteten, dominierte dagegen La Niña.

Nun gibt es eine Reihe von Untersuchungen, die versuchen, El Niño, bzw. La Niña mit der Sonnenaktivität zu koppeln (um eine bessere Vorhersage zu erzielen), bzw. dem CO2-Anstieg zuzuordnen, um einen anthropogenen Einfluss zu beweisen. Das letztere erspare ich zu widerlegen, da die Zeit dafür zu Schade ist und die Datenreihe der Abbildung 7 bereits anschaulich genug zeigt, dass sie mit einem CO2-Anstieg keine Korrelation aufweist. Wie aber sieht es mit der solaren Aktivität aus.

Meist wird zur Bewertung der Sonnenaktivität die Sonnenfleckenzahl herangezogen. Dies ist besonders dann angebracht, wenn Vergleiche zu früheren Jahrhunderten angestellt werden, da ab dem 17 Jahrhundert verlässliche Beobachtungsdaten vorliegen. Die Sonnenfleckenzahl gibt jedoch nur annähernd die reale Sonnenaktivität wieder. Ein weiterer Parameter ist der sog. TSI (Total Solare Irradiance). Dieser deckt jedoch nur einen eingeschränkten Teilbereich des solaren Energiespektrums ab, den Bereich zwischen 200nm und 2.000nm, von „Total“ kann also keine Rede sein. Besser zur Bewertung der solaren Aktivität eignet sich die direkte magnetische Aktivität der Sonne, siehe hierzu beispielsweise die Arbeit des NASA-Sonnenforschers David Hathaway “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”.

Seit dem Satellitenzeitalter stehen noch weitere Parameter zur Verfügung, die von der Erde aus nicht beobachtbar sind. Ein bedeutsamer Parameter ist die Korona der Sonne, die von der Erde unter natürlichen Bedingungen nur bei einer totalen Sonnenfinsternis zu beobachten ist und die die Atmosphäre der Sonne darstellt. Die Korona, ihr Plasma, ist dabei viel heißer als die mit ca. 5.800 Kelvin heiße Sonnenoberfläche und ihre Daten, lassen sich daher nur aus dem Weltall aufnehmen.

 

Abbildung 8 (Quelle: http://rst.gsfc.nasa.gov/Sect20/A5a.html) zeigt die Korona-Temperatur im Zeitraum von 1991 – 2007. Im solaren Minimum fällt die Koronatemperatur auf „nur“ 1 Million Kelvin, während sie zu Beginn des solaren Maximum plötzlich auf den fast doppelten Wert „eingeschaltet“ wird und diesen bis zum nächsten Minimum beibehält. Was diese plötzliche Zuschaltung, sozusagen den „Turbo“ in der Koronaheizung einschaltet und warum die Sonne im Minimum den Turbo kurz einschaltet (linker roter Pfeil) und im Maximum (rechter roter Pfeil) kurz abschaltet, erkläre und beweise ich Ihnen in meinem nächsten Beitrag. Hier geht es vorrangig darum, wodurch auf der Erde ein El Niño/La Niña-Ereignis ausgelöst wird. Der Autor geht darüber hinaus davon aus, dass es sich beim Verhältnis, welches durch das blaue Quadrat (kurzes Zwischenmaximum bis Anstieg neues Maximum) und dem roten Rechteck (Anstieg neues Maximum und kurzes Zwischenminimum) um eine feste Beziehung handelt, die eine Bewertung des Zyklus hinsichtlich Dauer und Stärke erlaubt. Weiter dürften beide, sowohl kurzes Zwischenmaximum und kurzes Zwischenminimum den exakten Startpunkt des neuen Sonnenzyklus wiedergeben, bzw. das kurze Zwischenminimum, das tatsächliche Sonnenmaximum zeigen. Die letzte Aussage, hinsichtlich des tatsächlichen Zyklusmaximums bestätigt übrigens die vorgenannte Arbeit von David Hathaway, wenn Sie sich dort die Zeitreihen der magnetischen Aktivität ansehen (Abbildungen 1b und 3), wann diese ihr Maximum haben (http://solarscience.msfc.nasa.gov/papers/wilsorm/WilsonHathaway2008a.pdf).

Hat dieses Zuschalten der Koronaturboheizung, die Verdopplung der Koronatemperaturen von 1 Million Kelvin auf 2 Millionen Kelvin Auswirkungen auf das irdische Wetter und hier insbesondere auf El Niño/La Niña-Ereignisse? Hierzu werden die El Niño-Ereignisse in Relation zur Abbildung 8 gesetzt.

 

Abbildung 9. Die Zeitreihe oben zeigt den El Niño 3.4*, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird. Die mittlere Zeitreihe die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Abbildung 8. Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den Sprung der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum.

*El-Niño 3.4-Gebiet

 

Abbildung 10 zeigt die El Niño-Gebiete

Nun lässt sich anhand einer Datenbeziehung kein Korrelationsbeweis führen. Daher sollen alle El Niño-Ereignisse in der Datenreihe El Niño 3.4 aus Abbildung 9 auf Korrelation zur solaren Aktivität überprüft werden. Der Zeitpunkt ab 1981 ist daher so interessant, da von den Vertretern der CO2-basierten Erwärmung um das IPCC die Aussage gemacht wird, dass bis ca. 1980 Sonnenaktivität und Temperatur (weitgehend) synchron laufen, ab 1980 sich die Temperatur aber von der solaren Aktivität abkoppelt. Dass dies, bei allem Respekt, blanker Unsinn ist, zeigt bereits Abbildung 11 und wird in den folgenden Zeilen nachgewiesen.

Abbildung 11 zeigt die sich ändernde Strahlungsabgabe (Variabilität, TOP = Top Of Atmosphere) der Erde im Zeitraum 1984 – 2005. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen, wie sie jüngst wieder medienwirksam veröffentlicht wurden und das Jahr 2010 als wärmstes ausweisen wollen, gefälscht sind, weil die Temperaturreihen nicht zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde, die sich aus ihrer Temperatur ergeben, passen.  Siehe hierzu (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1). Übrigens fordert das Treibhauspostulat, dass durch vermehrtes CO2 in der Atmosphäre, die Durchlässigkeit für infrarote Strahlung vermindert wird und es dadurch zu einer Erwärmung der Erde kommt, sowie (daraus abgeleitet), dass die Erde bei konstanter Abstrahlung, ihre Temperatur erhöhen kann (weil die Transmission durch sog. Treibhausgase verringert wird). Da die gemessene Kurve zum einen, keine Beziehung zum atmosphärischen CO2-Anstieg hat und zum anderen, genau das Gegenteil zeigt, dass die Abstrahlung infraroter Strahlung nicht vermindert, sondern im Betrachtungszeitraum erhöht ist, braucht sich anhand der gemessenen Daten nicht weiter über den sog. Treibhauseffekt unterhalten zu werden – es gibt ihn nicht oder, wissenschaftlich korrekter, er ist nicht nachweisbar, wie die Satellitenmessungen eindeutig belegen. Unter der Abbildung ist die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität aufgetragen, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“. Es ist deutlich das gleiche Muster (Fingerabdruck) zu erkennen, was zeigt, dass die Erdtemperatur einzig durch die Sonnenaktivität gesteuert ist.

Da, wie bereits weiter oben geschildert, Beobachtungsdaten über die Korona nur vom Weltraum aus möglich sind und Daten nur für den Zeitraum 1991 – 2007 vorliegen, wird die weitere Datenreihe rekonstruiert, wobei die in Abbildung 9 genannten Zeitabstände eingehalten werden und dann geprüft wird, inwieweit eine El-Niño-Beziehung zur Korona besteht.

 

Abbildung 12 zeigt, dass nach jedem Einschalten der Koronazusatzheizung ein El Niño ausgelöst wird und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Jedoch zeigt die El Niño 3.4-Reihe, dass im betrachteten Zeitraum, in dem laut IPCC-Anhängern, die Erdtemperaturen von der solaren Aktivität abgekoppelt sein sollen, noch mehr El Niño-Ereignisse stattfanden. Es muss demnach noch eine weitere solare Aktivität geben, die auf der Erde einen El Niño auslöst. Die Antwort, um welche solare Aktivität es sich handelt gibt die Abbildung 13. Es ist die unmittelbare magnetische Aktivität der Sonne. Ihr solares Maximum.

 

Abbildung 13 zeigt nochmals die Abbildung 12. Darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El-Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“(http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm)

Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Ich möchte Ihnen dieses anhand der Sonnenwindaktivität weiter belegen (Abbildung 14).

 

Abbildung 14 (Quelle: http://www.leif.org/research/files.htm) zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von 1880 – 2009, nach Leif Svalgaard. Blau, aus dem IHV (Inter-Hour Variability-Index) und IDV (Inter Diurnal Variability) rekonstruiert, rot sind direkt gemessene Werte. Nun muss man wissen, dass der schnelle Sonnenwind entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. Koronalen Massenauswürfe, Coronal Mass Ejections (CME)) oder aus den polaren Löchern der Sonne stammt. Deren Aktivität wird durch das Polarfeld der Sonne (grüne Datenreihe von der Max Planck Gesellschaft) bestimmt. Darunter ist die Ausschnittvergrößerung für den Zeitraum 1980 – 2009 gezeigt. Werden nun die dort umrundeten Spitzen (starke magnetische Aktivität des Polarfeldes der Sonne) mit den grün-umrundeten Spitzen in der El-Niño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt dies Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“) .Abbildung 15.

 

Abbildung 15 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Abschließend ist festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Das Polarfeld der Sonne (schwache El-Niño)

Bereits in meinem EIKE-Artikel “Wärmstes Jahr 2010 – Flugverkehr in Europa festgefroren! Lebt die UN-Organisation WMO auf einem anderen Planeten?“ (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1) habe ich nachgewiesen, dass die globale Erwärmung der letzten 30 Jahre, die laut IPCC von der Sonne abgekoppelt wäre, El Niño-basiert ist (Abbildung 16).

 

Abbildung 16 oben, Quelle: (http://www.climate4you.com/GlobalTemperatures.htm) zeigt die Temperatur-Messergebnisse der NOAA-Satelliten (UAH, University of Alabama, Huntsville) von Januar 1979 bis Dezember 2010 – Globale Monats- und 3-Jahres (37-Monate-Durchschnitt). Die kleine Abbildung oben links zeigt die El-Niño-SST-Anomalien im pazifischen Tropengürtel Anfang Februar 2010 und oben rechts die globale CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Es fällt auf, dass jede globale Temperaturspitze in den letzten 30 Jahren mit einem El-Niño-Ereignis exakt zusammenfällt und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil).

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies rein gar nichts zu tun.

Bleibt noch die Frage zu klären, wie die gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt. Hier geben die Antwort, die eingangs erwähnten Passatwinde, also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird.

 

Abbildung 17 (http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark ist bekannt, wie die solare Aktivität die Bewölkung beeinflusst. In meinem nächsten Beitrag werde ich Ihnen zeigen, wie die Sonne über den Svensmark-Effekt hinaus, die Wolkenbedeckung auf der Erde über ihre Aktivität steuert.

Abschließend ist noch zu erwähnen, dass die heutigen El Niño-/La Niña-Ereignisse nichts Außergewöhnliches darstellen und schon gar nicht verstärkt auftreten, bzw. dies auf einen (anthropogenen) Klimawandel zurückzuführen sei, wie dies z.B. von Herrn Dr. Tiersch medienwirksam am 13.01.2011 in der Heute-Sendung des ZDF verbreitet wurde. Dies belegt die folgende Datenreihe.

 

Abbildung 18, Quelle: Nature 420, 162-165 (14. November 2002) | doi:10.1038/nature01194; Received 15 May 2002; Accepted 8 October 2002 Variability of El Niño/Southern Oscillation activity at millennial timescales during the Holocene epoch Christopher M. Moy, Geoffrey O. Seltzer, Donald T. Rodbell & David M. Anderson, zeigt die El Niño-Ereignisse der vergangenen 10.000 Jahre. Er ist ersichtlich, dass es gegenüber heute, in der Vergangenheit weit mehr, bzw. stärkere Ereignisse gab. Das gleiche Bild zeigt das Geoforschungsinstitut der Universität von Arizona (http://www.geo.arizona.edu/palynology/geos462/elninolagupall.gif)

Mit dem vorliegenden Nachweis, dass alle El Niño-Ereignisse im Betrachtungszeitraum durch die solare Aktivität unmittelbar ausgelöst werden, ist der wissenschaftliche Beweis erbracht, dass die Erwärmung (und Abkühlung seit Beginn dieses Jahrhunderts) einzig auf die Sonne zurückzuführen ist. Es ist daher für die Politik und Medien an der Zeit, dieses zur Kenntnis zu nehmen und das Wissenschaftsmärchen der anthropogenen Erwärmung dort hin zu verfrachten, wo es hingehört und damit aufzuhören, den Bürgern weiter Geld für Dinge aus der Tasche zu ziehen, die es nachweislich nicht gibt – eine anthropogene Erderwärmung und einen Einfluss sog. Treibhausgase auf das Klima.

  

Raimund Leistenschneider – EIKE




Eindeutige Mehrdeutigkeit – ein offener Brief an IPCC Leitautor Autor Dr. Kevin Trenberth

Ich möchte folgendes Zitat aus dem jüngsten Papier von Dr. Kevin Trenberth als Aufhänger für meinen Beitrag benutzen (auch hier):

„Gesetzt den Fall, die globale Erwärmung ist „eindeutig“, um den Bericht des IPCC von 2007 zu zitieren, sollte die Null-Hypothese jetzt  umgekehrt werden, das heißt die Beweislast sollte bei denen liegen, die sagen, dass es keinen Einfluss des Menschen (auf das Klima) gibt.“

Die “Null-Hypothese” ist in der Wissenschaft die Bezeichnung dafür, etwas zu etablieren, was nicht wahr ist. Zum Beispiel, falls Ihre Hypothese lautet, dass der Luftdruck das Pflanzenwachstum beeinflusst, lautet die Null-Hypothese, dass der Luftdruck keine Auswirkung auf das Pflanzenwachstum hat. Wenn man einmal beide Hypothesen hat, kann man erkennen, welche Hypothese sich durch Beweise erhärtet.

In der Klimawissenschaft lautet die AGW-Hypothese, dass die menschlichen Treibhausgasemissionen signifikante Auswirkungen auf das Klima haben. Als solche lautet die Null-Hypothese, dass diese Emissionen nicht signifikant das Klima beeinflussen, dass also die Klimavariationen das Ergebnis natürlicher Prozesse sind. Diese Null-Hypothese möchte Doktor T gerne umkehren.

Wie Steve McIntyre oft bemerkt hatte, muss man bei diesen Leuten wirklich darauf achten, unter welchem der drei Hütchen das Kügelchen liegt. Haben Sie bemerkt, wie das Kügelchen in obigem Zitat von Dr. T  von einem Hütchen unter ein anderes gerollt wurde? Schauen wir noch einmal genau!

Der erste Teil von Trenberths Feststellung stimmt. Es gibt eine allgemeine Übereinstimmung, dass der Globus sich während der letzten drei Jahrhunderte oder so erwärmt hat. Da also die Erwärmung mehrere Jahrhunderte lang dauerte, lautet die offensichtliche Null-Hypothese hier, dass das halbe Grad Erwärmung im 20. Jahrhundert die Fortsetzung irgendeines langzeitlichen Trends ist.

Aber das macht Dr. Trenberth hier nicht. Achten Sie auf das Kügelchen. Er hat sanft die richtige Aussage des IPCC, „die globale Erwärmung ist eindeutig“, auf clevere Weise auf einen anderen Gedanken aufgepfropft, indem er sagt, dass „daraus also folgt, dass die Menschen das Klima beeinflussen“, und zwar so, dass man nicht einmal die Nahtstelle erkennt.

Das Kügelchen befindet sich bereits unter dem anderen Hütchen. Er hat implizit gemeint, dass das IPCC gesagt hätte, dass die Wissenschaftler „eindeutig“ gezeigt haben, dass die Menschen der Grund für schlechtes Wetter sind, und falls ich das nicht als Glaube akzeptiere, ist es mein Job zu beweisen, dass wir nicht schuld an den Überschwemmungen in Brisbane sind.

Also, damit Sie jetzt nicht glauben, dass das IPCC eigentlich gemeint hat, dass „die Menschen der Grund sind”, als es sagte, die globale Erwärmung sei „eindeutig“, folgt hier die vollständige Aussage aus dem vierten Zustandsbericht des IPCC Summary For Policymakers (2007):

Die Erwärmung des Klimasystems ist eindeutig und inzwischen bewiesen durch Messungen der Zunahme der globalen Luft- und Wassertemperatur, verbreitetem Schmelzen von Schnee und Eis und einem steigenden globalen Meeresspiegel.

Neben der Ungenauigkeit wegen des Fehlens eines Zeitrahmens ist das im Allgemeinen wahr, aber es sagt nichts darüber, dass die Menschen dafür verantwortlich sind. Also missinterpretiert er die Ergebnisse des IPCC total (obwohl er selbst geholfen hat, sie zu schreiben, also kann es kein Missverständnis sein), um seiner Argumentation Vorschub zu leisten. Das IPCC hat nichts von dem gesagt, was er meint.

Man muss den Stil lieben, einfach durch einen kategorischen Imperativ zu proklamieren, dass seine Sicht der Dinge die einzig Richtige der längsten wissenschaftlichen Debatte in modernen Zeiten ist. Und was ist der einzige „Beweis“ für diese Behauptung? Es ist die eindeutige Tatsache, dass Phil Jones und Michael Mann und Caspar Amman und Gene Wahl und all die anderen guten Kerle des IPCC ihm zustimmen. Das heißt, Dr. Ts Rechtfertigung dafür, die Null-Hypothese umzukehren liegt darin, dass der IPCC-Bericht, den Dr. T zu schreiben geholfen hat, mit Dr. T übereinstimmt. Das ist rekursiv genug, um den Wurm Ouroboros neidisch werden zu lassen… [Der Wurm Ouroboros: ein sich selbst in den Schwanz beißender Wurm als  philosophisches Sinnbild des ewigen Werdens und Vergehens. Näheres kann man googeln, gehört hier aber absolut nicht zum Thema. A. d. Übers.]

Und das IPCC sagt nicht nur einfach, es ist wahr, sondern “eindeutig”. Ich glaube, nur die einfache Wahrheit wäre für diese Knaben (guys) nicht wissenschaftlich genug. Statt dessen ist es eine „eindeutige“ Wahrheit. Hier folgt, was „eindeutig“ meint (Hervorhebung vom Autor):

eindeutig: Adjektiv: erlaubt keinerlei Zweifel oder Missverständnisse; es gibt nur eine Bedeutung oder Interpretation, und diese führt nur zu einer einzigen Schlussfolgerung („Eindeutiger Berweis“).

Beachten Sie, wie geschickt Dr. T seinen Satz formuliert hat. Nach dem Terminus „globale Erwärmung“ führt er das Wort „eindeutig“ ein, was bedeutet, dass wir nur eine Schlussfolgerung ziehen können. Dann, in der zweiten Hälfte des Satzes, ordnet er die „eindeutige“ Gewissheit der Schlussfolgerung seiner eigenen merkwürdigen Schlussfolgerung zu, dass nämlich die normalen Regeln der Wissenschaft umgekehrt werden sollten zugunsten von… nun, wir wollen keine Haarspalterei betreiben. Er behauptet, dass die normalen wissenschaftlichen Regeln umgekehrt werden sollten zugunsten von Dr. Kevin Trenberth, dem IPCC und jene, die ihn und das IPCC unterstützen. Vielleicht aber auch nur ein Zufall.

Die Aussage von Dr. Trenberth, die gewöhnliche Null-Hypothese (die da bekanntlich lautet, das alles, was wir in der Natur beobachten, natürlich ist) umzukehren ist ebenso Unsinn wie die Anführung des IPCC-Berichtes, dass die Erde sich erwärmt, als Beweis. Allerdings ist es kein bedeutungsloser Unsinn. Es ist schädlicher, heimtückischer und gefährlicher Unsinn. Er möchte, dass wir basierend auf seiner Denkweise Milliarden von Dollar ausgeben, und er hat clever zwei Aussagen verknüpft, um seinem Ziel näher zu kommen.

Ich sehe ein, dass Dr. T eine wissenschaftliche Hypothese hat. Diese Hypothese, allgemein die „AGW-Hypothese“ genannt, lautet, wenn [der Anteil von] Treibhausgasen zunimmt, folgt die Temperatur, und nichts anderes ist von Belang. Die Hypothese sagt, dass die Treibhausgase der Hauptthermostat des Globus‘ sind; alles andere mittelt sich mit der Zeit heraus; nichts kann das langzeitliche Klima mehr beeinflussen als die Treibhausgase, nichts anderes ist erkennbar, und darum, Leute, folgt mir! Die Regel der Treibhausgase, OK?

Welches eine interessante Hypothese ist, aber es mangelt schmerzhaft an Beweisen, sowohl theoretisch als auch nach tatsächlichen Beobachtungen. Teilweise liegt dies natürlich daran, dass die AGW-Hypothese fast keine Angriffsfläche für Feststellungen oder Vorhersagen bietet, die sie falsifizieren können. Diese Schwierigkeit der Falsifikation der Hypothese, so nützlich dies für die Befürworter vielleicht auch ist, schließt unvermeidlich auch die Schwierigkeit ein, die Hypothese zu beweisen oder zu stützen.

Außerdem gibt es inzwischen eine ganze Reihe von stichhaltigen und mit Sicherheit plausiblen wissenschaftlichen Einwänden gegen zahlreiche Teile der Hypothese. Sie reichen von der Natur und den Anzeichen der Antriebskräfte, die man berücksichtigt oder nicht berücksichtigt hatte, bis zur Existenz natürlicher thermostatischer Mechanismen.

Schließlich müssen wir auch noch das generelle Scheitern hinzufügen, wie wenig gehaltvoll die Vorhersagen der Modelltricksereien zugunsten der AGW-Hypothese sind. Es gab keinerlei Beschleunigung des Meeresspiegelanstiegs. Es gibt keinerlei Klimaflüchtlinge. Die Vorhersage des Klimamodells mit der Berücksichtigung des Ausbruchs des Pinatubo lag meilenweit daneben. Anzahl und Stärke der Hurrikane hat nicht wie vorhergesagt zugenommen. Und, Dr. T, erinnern Sie sich an die Korallenatolle und Bangladesh, die durch das bevorstehende Thermageddon hinweggeschwemmt werden sollen und wovor Sie und das IPCC uns gewarnt haben? Bangladesh und die Atolle vergrößern sich beide, anstatt sich zu verkleinern. Man versprach uns eine Erwärmung um zwei, vielleicht drei Zehntelgrad pro Jahrzehnt in diesem Jahrhundert, wenn wir unsere teuflische, kohlenstoffverliebte Lebensweise nicht ändern. Bisher haben wir nicht eine einzige Sache geändert, und wir haben … nun … null Zehntel eines Grades im ersten Jahrzehnt dieses Jahrhunderts gesehen.

Daraus folgt, dass die Zählkarte mit den Beweisen für die AGW-Hypothese wirklich schlecht aussieht. Ich sage nicht, dass das Spiel aus ist, dass AGW Unsinn ist; das überlasse ich Dr. T. Ich sage lediglich Folgendes: nach einem Vierteljahrhundert unbegrenzter Subventionen, Teraflops von Computerleistung, hunderttausenden Stunden, die graduierte Studenten und Wissenschaftler aufgewendet haben, mit voller Unterstützung durch die Medien und Universitätsfachbereichen, die Hypothese zu unterstützen, haben die Befürworter der AGW immer noch nicht mit vielen Beweisen aufgrund von Beobachtungen aufwarten können, jedenfalls im Verhältnis zu der investierten Zeit und dem Geld. Dies sollte Ihnen einen Hinweis geben, warum sich Dr. T mit den Spielregeln befasst. Wie ein altes Gesetz der Anwälte sagt, wenn man die Fakten nicht bestreiten kann, bestreite man das Gesetz (die Spielregeln), und wenn auch das nicht geht, schlage man auf den Tisch und proklamiere seine Unschuld…

Indem Dr. T in seinem Papier zwei Aussagen zu einer zusammenheftet, beteuert er seine Unschuld und schlägt vor, dass wir die Regeln des gesamten Spiels umschreiben … ich lache mich über meiner Tastatur kaputt über die Unverfrorenheit dieses Mannes. Wenn er und seine Ideen nicht so gefährlich wären, wäre es wirklich lustig.

Sehen Sie, Dr. T, es tut mir so leid, dass ich Ihnen diese schlechte Nachricht überbringen muss, aber das Spiel ist schon viel zu weit fortgeschritten, als dass Sie die Regeln noch ändern können. Hier sind die Regeln von 2011, die ulkigerweise denen von 1811 ähneln:

Erstens müssen Sie beweisen, dass ein Aspekt des gegenwärtigen Klimas historisch anomal oder ungewöhnlich ist. Soweit ich weiß hat das bisher niemand gekonnt, einschließlich Sie selbst. Daher ist das Spiel in ernster Gefahr, noch bevor es richtig begonnen hat. Wenn Sie mir nicht zeigen können, wo sich das Klima aus seiner natürlichen Bahn entfernt hat; wenn Sie mir den Punkt nicht nennen können, wo sich das Klima gegenwärtig anomal oder ungewöhnlich verhält, was nützen da Ihre Erklärungen, warum sich vermutlich das Klima in irgendeine mysteriöse Ecke manövriert hat, die Sie nicht identifizieren können?

 (Dies ist natürlich genau das, was Dr. T durch eine Änderung der Regeln gewinnen würde, und es kann mit seinem Wunsch nach dieser Änderung zusammenhängen. Mit so wenigen Beispielen, die seine Position stützen, nachdem ein Vierteljahrhundert nach solchen Beispielen gesucht worden war, ist es sicherlich eine Versuchung, die Regeln zu ändern… aber ich schweife ab).

Aber vielleicht, Dr. T, haben Sie ja schon eine solche Anomalie des Klimas gefunden, die nicht mit einer natürlichen Variation erklärt werden kann und dies lediglich noch nicht öffentlich gemacht.

Falls Sie doch Beweise für ungewöhnliches Verhalten des Klimas haben, müssen Sie zweitens beweisen, dass diese Anomalie mit menschlichen Aktionen erklärt werden kann. Und, Dr. T, Sie können nicht einfach so etwas sagen wie

„Willis, das IPCC sagt, Sie müssen beweisen, dass das, was viele Generationen als ‚natürlich‘ bezeichnet haben, auch wirklich natürlich ist“.

Es gibt auch einen verborgenen technischen wissenschaftlichen Begriff dafür. Man nennt das „schummeln“, Dr. T, und in besseren wissenschaftlichen Kreisen runzelt man die Stirn darüber…

 (Nebenbei – das Herausziehen von Variablen aus einem frisierten Computermodell und die dann folgende stolze Verkündigung, dass das Modell ohne die fehlenden Variablen nicht funktioniert, heißt nicht, dass man den menschlichen Einfluss auf das Klima bewiesen hat. Es bedeutet einfach nur, dass man das Modell einfach nur so getrimmt hat, dass es historische Aufzeichnungen mit allen Variablen reproduziert, mit dem unvermeidlichen Ergebnis, dass dies nicht funktioniert, wenn man nur einen Teil der Variablen hernimmt. Also keine Bestätigung für diese Behauptung.)

Drittens müssen Sie Ihre Arbeit verteidigen, und zwar nicht nur durch die weichen Fragen der von Ihnen speziell ausgewählten Begutachter, die „wissen, was sie sagen müssen“, um Ihre Arbeit in wissenschaftlichen Zeitschriften zu veröffentlichen. 2011 sind wir komischerweise zu den Regeln des 19. Jahrhunderts zurück gegangen, dem öffentlichen Marktplatz für Ideen – mit dem einzigen Unterschied, dass der heutige Marktplatz der Ideen elektronischer Natur ist und Menschen nicht mehr von Podien herab oder in den Hallen der Royal Society in London sprechen. Wenn Sie Ihre Arbeit nicht öffentlich verteidigen, wird es einfach – man wird Ihnen nicht glauben. Und nicht nur von mir. Andere Wissenschaftler beobachten, überlegen und bewerten.

Dies bedeutet nicht, dass Sie nun jedem Idioten antworten müssen. Aber es bedeutet sehr wohl, falls Sie es ablehnen, ernste wissenschaftliche Fragen zu beantworten, dass die Leute diese Ablehnung bemerken. Sie müssen bemerkt haben, wie eine solche Ablehnung, wissenschaftliche Fragen zu beantworten, die wissenschaftliche Glaubwürdigkeit der Website RealClimate vollständig zerstört hat. Nun, sie sind Ihre Freunde, also haben Sie es vielleicht nicht bemerkt. Falls das so ist, sollten Sie es aber bemerken, hier ist ein Beispiel (PDF, 147K). Das Weglaufen vor ernsthaften wissenschaftlichen Fragen, wie es auf RealClimate praktiziert wird, lässt Sie blass aussehen, egal ob sie blass sind oder nicht.

Und immer müssen Sie Ihre Arbeit zeigen. Sie müssen Ihre Daten archivieren. Sie müssen Ihre Computeralgorithmen offenlegen. Sie müssen alles, was Ihre Behauptungen und Annahmen stützt, dem brutalen Scheinwerferlicht einer öffentlichen Untersuchung unterziehen.

Dr. T, ich fürchte, Sie müssen sich an die Gezeitenwende gewöhnen, dies ist nicht die Klimawissenschaft Ihres Vaters. Unter dem Strich steht, dass wir nicht länger gewillt sind, Ihnen zu vertrauen. Sie können in den Akashic Records [*] publizieren, und ich würde Ihnen kein Wort glauben, bis ich selbst alle Texte und Graphiken schlüssig nachvollziehen kann. Es tut mir leid, das sagen zu müssen, aber mit den Tätigkeiten von Ihnen und Ihren Kollegen haben Sie das Vertrauen der Öffentlichkeit verwirkt. Sie haben Ihre Glaubwürdigkeit verspielt, Dr. T, und Sie haben sie bisher nicht wieder erlangt.

Weitere Aktivitäten, wie Ihr jüngster Versuch, die Regeln der Wissenschaft umzuschreiben, helfen überhaupt nicht. Das gilt auch für Ihren Versuch, uns zu überzeugen, wie gut Sie aussehen, nur weil Sie mit einem Mäntelchen feinster englischer Weißwaschungen durch die „Untersuchungen“ von Climategate eingekleidet sind. Haben Sie nie die Lektion aus der Watergate-Affäre gelernt, dass das Vertuschen viel mehr Schaden anrichtet als das Vergehen selbst?

Dr. T, Sie hatten eine gute Zeit, Sie wurden gefeiert und geehrt, aber der Tag der Abrechnung ist gekommen und vorbei. Wie es in einem gewissen Buch heißt, Sie und die anderen, nicht angeklagten Verschwörer wurden gewogen und für zu leicht befunden. An dieser Stelle haben Sie zwei Möglichkeiten – entweder Sie akzeptieren das alles und machen dort weiter, oder Sie machen sich nur darüber lustig. Ich würde Ihnen wärmstens Ersteres empfehlen, aber alles, was ich sehe, ist, dass Sie Letzterem folgen.

Sie wollen das Vertrauen der Öffentlichkeit zurückgewinnen, für sich selbst und für die Klimawissenschaft? Das wird nicht einfach sein, aber es kann gelingen. Hier folgt meine Kurzliste mit den dafür notwendigen Schritten für Sie und den anderen Klimawissenschaftler des Mainstream.

·         Hören Sie damit auf, der Öffentlichkeit den Unsinn von der völligen Übereinstimmung in der Wissenschaft zu verkaufen! Die Klimawissenschaft ist eine neue Wissenschaft; es gibt nicht einmal Übereinstimmung darüber, ob die Wolken erwärmend oder abkühlend wirken; wir wissen nicht, ob es Wechselwirkungen wie bei einem Thermostat gibt, die bestimmte Temperaturen vorzugsweise vor anderen erhalten. Oder, Dr. T, wie Sie an Tom Wigley schrieben:

„Wie kommt es, dass Sie nicht übereinstimmen mit einer Feststellung, die besagt, dass wir nicht einmal entfernt wissen, wo die Energie verschwindet oder ob die Wolken sich verändern und den Planeten heller machen. Wir sind nicht einmal nahe daran, den Energiehaushalt auszubalancieren. Die Tatsache, dass wir nicht erklären können, was im Klimasystem passiert, macht jeden Gedanken an Geo-engeneering ziemlich hoffnungslos, da wir niemals in der Lage sein werden, zu sagen, ob das Erfolg hat oder nicht! Es ist eine Schande!“

Quelle: email 1255550975

Merkwürdig! Ihrem Freund schreiben Sie nachdrücklich, dass wir nicht einmal entfernt wissen, wohin die Energie verschwindet oder wie man den Energiehaushalt ausbalanciert. Und doch sagen Sie in der Öffentlichkeit, dass wir genug wissen, den höchst außerordentlichen Schritt zu tun, die Null-Hypothese umzukehren… noch einmal, wie passt das zusammen?

An diesem Punkt gibt es nicht viel in der Klimawissenschaft, das „eindeutig“ ist, außer, dass sich das Klima immer ändert.

·         Versuchen Sie nicht, die Spielregeln mitten im Spiel zu verändern! Es lässt Sie verzweifelt aussehen, ob Sie das nun sind oder nicht.

·         Hören Sie auf, Leute „Leugner” zu nennen! Meine Güte, nach den vielen Fragen wäre das nichts als reine Höflichkeit und Freundlichkeit; wo sind Ihre Manieren? Es lässt Sie mürrisch und unzivilisiert aussehen, ob Sie das nun sind oder nicht.

·         Hören Sie auf, der öffentlichen Diskussion Ihrer Arbeit aus dem Weg zu gehen! Sie fordern uns auf, Milliarden von Dollar auf der Basis Ihrer Schlussfolgerungen auszugeben. Wenn Sie sich nicht die Mühe machen, diese Schlussfolgerungen zu verteidigen, belästigen Sie uns nicht damit. Die öffentliche Ablehnung Ihrer Milliarden-Dollar-Behauptungen lässt es so aussehen, als ob Sie sie nicht verteidigen können, egal ob das nun so ist oder nicht.

·         Hören Sie auf, das Kügelchen unter den Hütchen zu verschieben! Sie glauben offensichtlich, dass wir blind sind, und Sie glauben ganz klar, dass wir uns nicht an Ihre Äußerung erinnern, dass wir vom Klimasystem nur sehr wenig verstehen. Machen Sie sich frei von dem Gedanken, dass Sie es mit Narren oder Idioten zu tun haben, und machen Sie es sofort! Wie ich auf meine Kosten herausgefunden habe, meine wissenschaftlichen Behauptungen in das grausam grelle Licht des Internets zu stellen ist wie Schach spielen mit [dem Schachcomputer] Deep Blue… individuelle Prozessoren haben unterschiedliche Möglichkeiten, aber mit Sicherheit wird man jeden Fehler in meinen Gedanken bloß stellen. Zu viele Leute schauen von zu vielen Seiten auf meine Gedanken, als da etwas durch die Lappen gehen könnte. Alles andere als absolute Ehrlichkeit gegenüber dem gesamten Gedächtnis und dem gesamten Wissen des Internets lässt sie aussehen wie einen Dummkopf oder einen Hochstapler, ob Sie das nun sind oder nicht.

·         Schreiben Sie wissenschaftliche Studien, die nicht um Wörter wie „möglicherweise“ oder „denkbar“ oder „könnte“ kreisen. Ja, möglicherweise können alle Wassermoleküle in meinem Glas Wasser zur gleichen Zeit nach oben steigen, und es ist denkbar, dass ich einen Megagewinn in der Lotterie bekomme, und ich könnte immer noch Third Base für die New York Yankees [eine Baseballmannschaft; ‚Third Base’ siehe die Spielregeln im Internet, gehört hier aber auch absolut nicht zum Thema. A. d. Übers.], aber all das sind müßige Spekulationen, die keinen Platz in wissenschaftlichen Untersuchungen haben. Nennen Sie uns Tatsachen, nennen Sie uns Ungewissheiten, aber verschonen Sie uns mit Zeug wie „dies erhöht die Möglichkeit, dass dies bis 2050 zur totalen Auflösung aller Bindungen zwischen den Atomen kommen könnte…“ Ja, vielleicht könnte es das. Was soll das, soll ich jetzt ein Lotterielos kaufen?

·         Hören Sie auf, die pathetischen Lieferanten falscher Prophezeihungen zu belobigen! Vielleicht habt ihr Klimafritzen es nicht bemerkt, aber Paul Ehrlich war kein visionäres Genie. Er war ein Gescheiterter, dessen einziges außerordentliches Talent darin bestand, apokalyptische Vorhersagen zu machen, die niemals eingetroffen sind. In keinem Berufsfeld hätte er seinen Job länger als eine Minute nach dem Kollaps seiner ersten lächerlichen Vorhersage gehabt, in der er in den achtziger Jahren von weit verbreiteten Hungerrevolten und weltweiten Todesopfern einer globalen Hungersnot sprach… aber in den Akademien ist er trotz der Wiederholung seiner ursprünglichen „wir-werden-alle-verbrennen-und–zugrunde-gehen, das-Ende-der-Welt-ist-nahe“-Vorhersagen, ohne dass diese auch nur annähernd eingetroffen sind, immer noch Professor in Stanford. Nun ist das nach dem Reglement verständlich, denn man kann ihn nicht feuern, nur weil er ein erfolgloser Untergangsprophet ist. Aber er tritt auch als führender Denker der AGW und öffentlicher Repräsentant in Erscheinung, was mir vollkommen schleierhaft ist.

Seine Serie vorhergesagter globaler Katastrophen, die niemals auch nur ansatzweise eintrafen, wird nur von den unnachahmbaren Zusammenbrüchen der Prophezeihungen seiner Frau Anne sowie von seinen Kohorten John Holdren und Stephen Schneider übertroffen. Ich fürchte, ich werde so etwas nie noch einmal erleben. Hören Sie auf, diese als Ihre Sprecher zu benutzen, es steigert nicht das Vertrauen in Ihre Behauptungen.

·         Genug der Angst erzeugenden Szenarien, jetzt schon! Sie lassen Sie sowohl als Ewiggestrigen und als hysterisch erscheinen, ob Sie das nun sind oder nicht.

·         Prangern Sie wissenschaftliche Vergehen an, wo und wann immer Sie sie sehen! Dies ist kritisch für die Wiederherstellung des Vertrauens. Ich kann Klimawissenschaftler, die alle möglichen Ausflüchte suchen, nicht mehr sehen. Die überwältigende Stille der AGW-Wissenschaftler zu diesen Dingen ist einer der (leider sehr zahlreichen) Gründe, warum die Öffentlichkeit den Klimawissenschaftlern zu Recht nicht vertraut. Sie müssen Ihr eigenes Haus absolut aufräumen, um das öffentliche Vertrauen zu gewinnen, keiner kann Ihnen das abnehmen. Und sprechen Sie laut! Wir können Sie nicht hören!

·         Hören Sie auf, immer wieder Ihre Unschuld und die Ihrer Freunde zu beschwören! Es lässt sie alle schuldig aussehen, ob Sie das nun sind oder nicht… und seit die Klimagate-e-mails eindeutig mehr für „schuldig“ sprechen, macht es Sie ebenso unversöhnlich wie schuldig. Ob Sie das nun sind oder nicht.

·         HÖREN SIE AUF, DINGE ZU VERSTECKEN!!! Übergeben Sie ihre höchst privaten Daten und Ihren geheimsten Geheimcomputer direkt ihren ärgsten Feinden, und warten Sie ab, ob diese Löcher in Ihre Gedanken bohren können. Wenn sie es nicht können, gehen Sie als freier Mann nach hause. Das ist echte Wissenschaft, und nicht das Verstecken von Daten und das Verbiegen der Regeln des IPCC zu Ihrem Vorteil.

·         Bekennen Sie die wirklichen Ungewissheiten! Die Fehlbehandlung der Ungewissheiten in den Berichten des IPCC und das Unterschätzen echter Ungewissheiten in der Klimawissenschaft im Allgemeinen ist ein Skandal!

·         Verschrotten Sie das IPCC! Es ist seinen Weg gegangen! Glauben Sie wirklich, dass es nach Veröffentlichung des nächsten Berichtes des IPCC auch nur die geringste Veränderung in der Debatte geben wird, egal was darin steht? Es gab vier IPCC-Berichte hintereinander, jeder einzelne alarmistischer als der vorige. Sie haben die Unterstützung jeder Umweltorganisation gehabt. Sie hatten Milliarden von Dollar zur Verfügung; Al Gore allein gab 300 Millionen Dollar aus für die Werbung und die Befürwortung. Sie hatten 25 Jahre lang Zeit, ihr Anliegen zu vertreten, mit riesigen Ressourcen und Supercomputern und ganzen Regierungen auf Ihrer Seite, und Sie verlieren dennoch die öffentliche Debatte… nach all dem, glauben Sie wirklich, dass ein neuer IPCC-Bericht daran irgendetwas ändern wird?

Falls es ein weiteres, politisch motiviertes Fest der Irrtümer wie der letzte ist, glaube ich das nicht. Und was hat das mit einer ehrlichen Arbeit im Bereich der Wissenschaft zu tun? In keinem Falle wird der nächste Bericht des IPCC auch nur eine einzige Diskussion auslösen, selbst wenn es ehrliche Wissenschaft wäre. Auch hier, Dr. T, gibt es nur Sie selbst und Ihre Freunde, die Sie dafür verantwortlich machen können! Sie haben das IPCC benutzt, um schlechte Wissenschaft wie den Hockeyschläger durchzupeitschen, Ihre Freunde haben das IPCC missbraucht, um Arbeiten zu verändern, die vorher bereits abgesegnet worden waren, und um Arbeiten zurückzuhalten, die sie nicht mochten. Sie haben nicht Ihre Quellen kontrolliert, so dass dumme Irrtümer als alleinige Wahrheit proklamiert wurden, es ist alles eine Sache der Aufzeichnungen.

Nach Climategate, nach den Enthüllungen, dass das IPCC Propaganda-Pamphlete des WWF wie echte wissenschaftliche Studien behandelte, und nach Pachauris aberwitziger Behauptung, dass die Aufdeckung des Irrtums bzgl. der Gletscher des Himalaya „Voodoo-Wissenschaft“ sei – nach all dem, glauben Sie wirklich, dass jemand selbst mit nur einer funktionierenden Gehirnhälfte immer noch glaubt, dass das IPCC irgendeine neutrale Institution der Klimawissenschaft ist, auf deren Stehgreif-Verkündigungen man sich verlassen kann?

Wenn Sie wirklich davon ausgehen, dass die Leute all das noch glauben, sollten Sie mehr hinausgehen. An diesem Punkt vertrauen die Leute dem IPCC nicht mehr als Ihnen und Ihren Freunden. Ein weiterer IPCC-Bericht wird von der einen Seite glatt ignoriert, von der anderen Seite als unfehlbare Wahrheit behandelt werden. Wie soll das irgendjemandem helfen? Vergessen Sie das IPCC, es ist eine bedeutungslose Einrichtung, und kehren Sie zur Wissenschaft zurück!

Das sind meine kostenlosen Ratschläge an Sie, Dr. T, und ich bin sicher, dass es jeden Penny wert ist, den Sie dafür bezahlen würden. Sehen Sie, ich denke nicht, dass sie ein böser Mensch sind. Bedauerlich für Sie, aber glücklich für uns – Sie wurden von den bösen Buben, die ihre Hände in den Honigtöpfen hatten, eingefangen. Und, für uns alle tragischerweise – Sie wurden verführt durch die „Korruption aus noblen Gründen“. Hallo, das ist nichts, wofür Sie sich schämen müssten, es ist mir auch passiert; Sie sind nicht der Erste, der glaubt, dass die Ehrenhaftigkeit der Gründe unsaubere Machenschaften rechtfertigt.

Aber nach all dem beteuern Sie Ihre Unschuld und sagen, dass Sie und Ihre Freunde nichts Falsches getan haben? Es tut mir leid, Dr. T, die Jury befasst sich bereits damit, und sie wurde weder durch die Ehrenhaftigkeit Ihres Falles abgelenkt, noch durch die eindeutige Tatsache, dass Sie und Ihre Freunde durch andere Freunde von Ihnen so weiß wie frischer Schnee gewaschen wurden… Statt dessen bewerteten sie Ihre e-mails, in denen Sie Dinge wie diese sagen:

 „In dieser Hinsicht glaube ich nicht, dass man das alles ignorieren kann, wie es Mike (Mann) als Option vorgeschlagen hat, aber eine Antwort sollte versuchen, diese Kerle als faul und inkompetent sowie als unfähig hinzustellen, eine so große Datenbasis zu konstruieren.

Tatsächlich haben sich die Technologie und die Möglichkeiten der Datenbearbeitung weiter entwickelt, und nicht alles wurde gespeichert. Daher lautet mein kleiner Vorschlag, ihre Motive tatsächlich als verleumderisch darzustellen und ein wenig Gegenrhetorik einzubringen. Sie als faul hinzustellen, und dass sie nichts Besseres zu tun haben, scheint mir eine gute Sache zu sein.

Quelle: email 1177158252

Ja, das ist die Fahrkarte, das ist es, wie ein echter Wissenschaftler seine wissenschaftlichen Behauptungen verteidigt…

Link: http://wattsupwiththat.com/2011/01/15/unequivocal-equivocation/

Willis Eschenbach; Übersetzt von Chris Frey für EIKE

Bemerkung des Übersetzers: Alle der zahlreichen Hervorhebungen in diesem Text finden sich auch im Original, mit der einzigen Ausnahme der Bemerkungen des Übersetzers in [eckigen] Klammern.

Akasha-Chronik bezeichnet in Teilen der Esoterik, vor allem in der „modernen“ (anglo-indischen) Theosophie und in der Anthroposophie, die Vorstellung eines übersinnlichen „Buchs des Lebens“, das in immaterieller Form ein allumfassendes Weltgedächtnis enthält. Es existieren auch ältere Vorstellungen eines solchen „Weltgedächtnisses“ (so im Neuplatonismus, in der christlichen Überlieferung[1] und in der vor-modernen Esoterik), der Begriff „Akasha-Chronik“ (engl. akashic records) ist in dieser Form jedoch modern-theosophischen Ursprungs. Im deutschen Sprachraum wurde er vor allem durchRudolf Steiner geläufig. Esoteriker wie Steiner und neuerdings auch Wahrsager nahmen bzw. nehmen für sich in Anspruch, in der Akasha-Chronik „lesen“ zu können. 

Reaktion von Trenberth: er bearbeitet seine Rede und lässt das Wort „Leugner“ aus

Geposted am 16. January 2011 von Anthony Watts

Also, dies passiert, weil ich heute Mittagsruhe gehalten habe. Ich bin regelmäßig durch Dr. Trenberths Manuskript auf der Website der AMS gegangen, und natürlich, während ich mich der Ruhe hingab, hat er (oder irgendjemand) das Mauskript geändert. Natürlich hat Steve McIntyre aufgepasst und stellt die Änderungen heraus. Gut für ihn.

Für jene, die wünschen, das Original zu untersuchen, habe ich es hier gespeichert.

Und hier folgen nun einige der Änderungen, die Steve McIntyre gefunden hat:

==============================================================

Steve schreibt:

Dieser Beitrag wurde Trenberth und/oder der AMS offensichtlich zugespielt, und sie haben daraufhin die Originalversion von Trenberths Präsentation gelöscht und sie durch eine veränderte Version ersetzt, ohne die Änderung bekannt zu geben.

Die veränderte Version nimmt sich der meisten Probleme an, die sich in dem ursprünglichen Beitrag auf CA [Climate Audit] ergeben haben. Hier folgen diese Probleme und Trenberths Änderungen:

Ursprünglich hatte Trenberth festgestellt:

Wissenschaftler machen Fehler und oft Näherungen, die die Gültigkeit ihrer Ergebnisse begrenzen. Sie diskutieren regelmäßig mit Kollegen, die zu anderen Ergebnissen kommen. Diese Diskussionen folgen den normalen Prozeduren wissenschaftlicher Untersuchungen.

Die korrigierte Version:

Hasselmann (2010) stellt des Weiteren fest, dass Wissenschaftler Fehler machen und oftmals Näherungen vornehmen, die die Gültigkeit ihrer Ergebnisse begrenzen. Sie diskutieren regelmäßig mit Kollegen, die zu anderen Ergebnissen kommen. Diese Diskussionen folgen den normalen Prozeduren wissenschaftlicher Untersuchungen.

Trenberth über die Taktiken im Umgang mit den „Leugnern” im Original:

Es ist wichtig, dass Klimawissenschaftler lernen, wie man den Strategien der Leugner begegnet, die einen aus dem Konzept bringen wollen.

Die korrigierte Version:

Es ist wichtig, dass Klimawissenschaftler lernen, wie man den Strategien der Leugner begegnet, die einen aus dem Konzept bringen sollen (Hasselmann 2010). Mit Ihnen über die Wissenschaft zu diskutieren ist eine Herangehensweise, die nicht zu empfehlen ist.

Er bleibt bei den Dingen, die ihn wahrscheinlich in Schwierigkeiten bringen, aber er lässt die Beleidigungen fallen.

Steve schreibt:

Trenberth sandte keinen Kommentar an Climate Audit, in dem er uns dankte dafür, dass wir ihm ermöglicht haben, das Problem vor seiner aktuellen Präsentation zu entschärfen, oder in dem er sich anderweitig auf der Website der AMS bedankte, wo die Änderungen vorgenommen wurden.

=================================================================

Sind Sie ehrlich genug, jemandem zu danken, der Ihnen geholfen hat, Dr. Trenberth?

Lesen Sie alles darüber hier auf  Climate Audit.

Stellen Sie sicher, sich bei Steve McIntyre zu bedanken! Ich sage es hier zuerst:

Dr. Trenberth schuldet Herrn McIntyre großen Dank [a dept of gratitude] dafür, dass er eine peinliche und möglicherweise lästige akademische Untersuchung abgewendet hat. Das Allermindeste, was er tun könnte, wäre einen Kommentar auf Climate Audit zu hinterlassen.

Falls Dr. Trenberth die öffentliche Interpretation seiner Integrität ernst nimmt, sollte er nach meiner Meinung den aggressiven Ausdruck „Leugner“ durch das Wort „Skeptiker“ ersetzen. Es ist in Microsoft Word ganz einfach mit der „Suchen-und-Ersetzen-Funktion“. Es dauert 10 Sekunden:

Dr. Trenberth, sehen Sie unten, wie einfach es in Word geht:

Da Dr. Trenberth im Original seine eigene e-mail-Adresse auf der Website der AMS öffentlich gemacht hat…

ClimategateThoughts4AMS_v2 (PDF)

*Briefe an den Autor: Kevin E. Trenberth, NCAR, PO Box 3000, Boulder, CO 80303.
Email: trenbert@ucar.edu

…und weil er ein mit Steuergeldern bezahlter Beamter der USA ist, fordere ich alle Amerikaner, die sich durch den fortgesetzten Gebrauch dieses Wortes angegriffen fühlen, auf, ihm an die angegebene Adresse zu mailen und ihn höflich zu bitten, diese einfache Änderung vorzunehmen.

IMHO [IMHO, „In My Humble/Honest Opinion“, „Meiner unmaßgeblichen/bescheidenen/ ehrlichen Meinung nach“] gehört es nicht zur Freiheit der Wissenschaft, Schimpfworte zu benutzen. Er weiß, was man in diesem Falle tun muss, wir wollen nur sicherstellen, dass er auf sich selbst hört.

– Anthony Watts

Link hierzu: http://wattsupwiththat.com/2011/01/16/trenberth-reacts-edits-speech-to-fix-copying-leaves-deniers/

Ebenfalls übersetzt von Chris Frey




E10: Für den Klimaschutz unwirksam, für die Autofahrer teurer! Preistreiber Staat mit noch mehr „Bio-Ethanol“ im Sprit

Das billigere Benzin künstlich verteuert, das teurere künstlich verbilligt

Allerdings lässt sich der vermutete Trick derzeit leicht mit den (in der Tat) gestiegenen Rohölpreisen kaschieren. Und würde der Euro gegenüber dem Dollar wieder schwächer werden, könnte man den Preisanstieg zusätzlich auch mit der Euro-Schwäche begründen, denn Erdöl wird international in Dollar fakturiert. Widerlegt sein würde die Vermutung erst dann, wenn der E10-Treibstoff tatsächlich und dauerhaft teurer verkauft würde als Normal- und Superbenzin. Aber dann wäre der Sprit durch die höhere Zwangsmischung noch teurer geworden als ohnehin schon, und zwar künstlich, ohne Not, begründet vor allem mit der Einsparung von CO2 zum vorgeblichen Klimaschutz. Doch müssten die Autofahrer für E10 wirklich mehr bezahlen, würden sie es meiden und weiterhin das billigere Super kaufen. Um das zu verhindern, werden die Spritverkäufer gesetzlich gezwungen, eine „Bio“-Beimischung von 6,25 Prozent zu erreichen, sonst droht hohes Strafgeld. Also werden sie wohl genötigt sein, den „Bio-Sprit“ billiger als das Super zu verkaufen, um es überhaupt loszuwerden. Wirklich verrückt: Der billigere Treibstoff wird künstlich verteuert, der teurere künstlich verbilligt.

Ermöglicht wird eine noch undurchsichtigere Preispolitik

Mit ihrem E10 geben die unbelehrbaren, fanatischen „Klimaschützer“ den großen Mineralölfirmen eine tolle Steilvorlage für eine noch undurchsichtigere Preispolitik gegen alle Bürger, die Auto fahren (müssen). Und diese Firmen werden ihre Mal-rauf-mal-runter-Preise als sichtbar hartes Ringen im Wettbewerb ausgeben. Man kann sich auch schon wieder das aufgeregte Flügelschlagen im Bundeskartellamt vorstellen, das seine markigen Sprüche klopft von Marktmacht, vom Verdacht auf Machtmissbrauch, von strenger Preiskontrolle – und zwangsläufig nichts erreicht. Erstens sollte es Preiskommissar ohnehin nicht spielen, und zweitens ist der wirkliche Machtmissbrauch am Benzinmarkt dem Staat und seinen Politikern anzulasten; die nämlich treiben den Spritpreis erst richtig hoch. Aber gegen die ist das Kartellamt machtlos, denn auf sie ist das Gesetz gegen Wettbewerbsbeschränkungen nicht anwendbar.

Warum kaufen auch Finanzinvestoren Rohöl?

Interessant ist, dass der Rohölpreisanstieg nicht nur mit höherer amerikanischer Nachfrage begründet wird (der zweite große Schneesturm im Nordosten, Rückgang der Rohölvorräte),* sondern auch mit einem größeren Interesse von Finanzinvestoren. Ist deren Interesse ein Zeichen dafür, dass jetzt zumindest ein Teil der Riesenmengen an Zentralbankgeld, mit dem die Finanzmärkte wegen der Schulden- und Finanzkrise geflutet werden, in die sogenannte Realwirtschaft strömt und nach Anlage sucht auf Gütermärkten wie den Markt für Rohöl? Solange eine Zentralbank wie vor allem die amerikanische Fed dieses per Kreditvergabe frei geschöpfte Buchgeld nicht wieder einsammelt und die Finanzmarktakteure das Geld nicht wirklich oder nicht mehr zur Gläubigerbefriedigung benötigen, werden sie es kaum von sich aus schon wieder hergeben, sondern zum Erwerb von Sachwerten nutzen; dafür ist es bei einem Leitzins von höchstens 1 Prozent einfach zu billig. Vor der Gefahr, dass die unglaubliche Geldmengenausweitung letztlich auf die Gütermärkte durchsickert und dort einen Preisauftrieb bewirkt, weil die Gütermenge mit dieser Geldmenge nicht mitgewachsen ist, also ihr im wahrsten Sinn des Wortes nicht gewachsen ist, haben Kritiker schon gewarnt, als Regierungen und Zentralbanken mit den gewaltigen Bankenrettungsaktionen begonnen haben. Wie wir wissen, ohne Erfolg.

Gegründet auf einen groß angelegten Betrug

Der Zwang zur Beimischung von 10 Prozent „Bio-Ethanol“ geht von der EU-Richtlinie 2009/30/EG aus. Die Autos sollen weniger CO2 ausstoßen. Dahinter steht die Behauptung, das technische CO2 menschlichen Ursprungs heize das Erdklima auf. Das trifft, wie schon oft dargelegt, nachweislich nicht zu. Damit gründet der Beimischungszwang auf einen groß angelegten Betrug und wird selbst zum Betrug. Aber selbst dann, wenn die Behauptung zuträfe, ist höchst zweifelhaft, ob die erklärte CO2-Einsparung gelingt und überhaupt möglich ist. Nach einer Studie des Londoner Instituts für europäische Umweltpolitik würden beim Verwenden von Bio-Sprit 56 Millionen Tonnen CO2 zusätzlich erzeugt. Das sei deutlich mehr, als das Autofahren mit diesem Benzin einsparen würde. Sogar Umweltschutzorganisationen, die sich für die unsinnige Klimaschutzpolitik sonst ebenfalls immer so stark machen, lehnen Bio-Sprit grundsätzlich ab. Tatsächlich bewirkt die Beimischung von „Bio-Ethanol mit Sicherheit nur eines: Für die Autofahrer wird das Benzin noch teurer. Aber für den Klimaschutz bewirkt sie nichts, und dies mit ebenso großer Sicherheit.

Von Dr. Klaus Peter Krause am 18. Januar 2011, Der Artikel erschien zuerst in der libertären Zeitscrift Eigentümlich frei




Ist das westliche Klima-Establishment korrupt? Die Öffentlichkeit kennt vielleicht die Wissenschaft nicht, aber sie erkennt einen Schwindel

Das westliche Klimaestablishment lügt uns an:

• Offizielle Thermometer stehen vorwiegend an warmen Orten nahe von Auslässen von Klimaanlagen, Gebäuden, Beton, Flugzeugpisten oder Asphalt.

• Beamte verbergen die Daten der Argo-Bojen, welche die sich abkühlenden Temperaturen der Weltmeere zeigen.

• Sie ignorieren die Ergebnisse von Hunderttausenden Wetterballonen, die zeigen, dass die Klimamodelle die projizierte Erderwärmung um mindestens 300% überbewerten.

• Klimawissenschaftler weisen häufig auf die letzten 130 Jahre globaler Erwärmung hin, erzählen aber die volle Geschichte nicht: der Planet fing vor dem Jahr 1700 an, sich zu erwärmen: Mehr als ein Jahrhundert bevor Menschen anfingen, nennenswerte Mengen CO2 auszustoßen.

• Führende Autoren veröffentlichen eine berüchtigte Grafik in täuschender Farbgebung, welche die gewünschten Ergebnisse vorspiegelt. Warum publiziert eine füh- rende Zeitschrift nur ein derart durchsichtiges und kindisches Täuschungsmanöver?

• Die russischen, chinesischen und indischen Klimaorganisationen, vom westlichen Klimaestablishment finanziell unabhängig, zeigen sich alle skeptisch. Genauso wie viele Wissenschaftler aus anderen Zweigen der Wissenschaft, aber auch viele pensionierte Klimawissenschaftler (welche ohne negative Konsequenzen für ihre Karriere offen sprechen können).

Nur ein Narr sieht das Muster nicht

Wenn nur ein paar größere Zeitungen die Photos der neben Hitzequellen stationier- ten Messstationen veröffentlichen würden, wären unsere Volksvertreter gezwungen, ihre Treibjagd gegen die globale Erwärmung aufzugeben. Denn niemand will mit Halbwahrheiten und schamlosem Betrug in Verbindung gebracht werden. Wer will schon leichtgläubig aussehen, weil er offensichtliche Fragen nicht stellte?

 

Abb. 1: Ein offizielles Thermometer in einer Abwasserkläranlage. Es misst die zusätzliche Wärme, die aus Klimaanlage, Kühleinrichtung, umgebendem Beton, einer Backsteinmauer und anderer Technik resultiert, mit. Es liegt zudem im Windschatten, und die Abluft, die im Winter aus den Gitterscha?chten entweicht, liegt deutlich über dem Gefrierpunkt. (Die roten Linien zeigen mögliche Hitzepfade; offensichtlich gelangt nur ein Teil der Hitze von jeder Quelle zum Thermometer.) Photo: Anthony Watts, www.surfacestations.org und Steve Tiemeier.

Jene, die Aussagen unterstützen, die auf korruptem Verhalten basieren, werden nachlässig erscheinen, da sie die vorliegenden Beweise nicht in Erwägung gezogen haben.

Dr. Evans ist ein Wissenschaftler, der einst im Klima-Finanzzirkus tätig war und schockiert war von dem, was er sah. Er sprach sich zuerst 2008 in höflicher Weise dagegen aus. Da zu viele Politiker dieser Welt noch nicht aufgewacht sind, zeigt er ihnen jetzt in deutlicher und für jeden Politiker verständlicher Sprache, wie es um den Klimamumpitz steht.

Diese Bilder sprechen für sich. Die Korruption der Klimawissenschaft ist so eklatant, so offensichtlich geworden, dass sogar Nichtwissenschaftler nicht mehr blauäugig behaupten können, dass sie „davon nicht wussten.“ Niemand braucht einen Doktortitel um zu merken, dass es Betrug ist, Thermometer in der Nähe künstlicher Hitzequellen aufzustellen und es dann „Treibhauseffekt" zu nennen

Warum messen sie Temperaturen auf diese Weise?

Abb. 2: Es gibt für das Thermometer sicher einen besseren Standort auf der anderen Seite des Parkplatzes, als in der Nähe der Klimaanlage, von Automotoren, Asphalt und neben Windbrechern! Photo: Anthony Watts, www.surfacestations.org und Joel McDade.

Die globale Erwärmung liegt in der Größenordnung von Zehntelgraden pro Jahrhundert, deshalb fällt jeder noch so leichte künstliche Messfehler spürbar ins Gewicht.

Um dies zu vermeiden, fordern die offiziellen Bestimmungen, dass ein Thermometer mindestens 100 Fuß (30 Meter) von gepflasterten oder betonierten Oberflächen, in offener Umgebung und gebietstypischer Bodenbedeckung aufgestellt werden muss.(1)

Anthony Watts (2), ein Meteorologe mit 25 Jahren Medienerfahrung, warb 650 Freiwillige an, um die 1.221 landbasierten, von der NOAA (Nationale Ozeanische und Atmo- sphärische Verwaltung) der USA beaufsichtigten Thermometer zu inspizieren und zu dokumentieren. (3) Von 860 Thermometern, die Anfangs 2009 inspiziert wurden, entsprachen ganze 89% nicht den offiziellen Anforderungen, weil sie zu nahe an künstlichen Wärmequellen (mit aktiver Ausstrahlung oder Hitzereflektion) aufgestellt sind.(4)

Warum fährt das Klimaestablishment fort, die offizielle Temperaturaufzeichnung von Thermometern zu beziehen, die fast alle zu nahe an künstlichen Wärmequellen liegen?

Was könnte das Motiv sein außer die offiziellen Temperaturen hochzumogeln? Warum wurde dies nur deshalb publik, weil Freiwillige die Sache anpackten und die offiziellen Thermometer fotografierten?…

von…Joanne Nova, David Evans. Übersetzung EIKE

Lesen Sie den ganzen Bericht mit 47 Seiten. Sie können ihn in Deutsch oder Englisch als pdf Datei herunterladen

Related Files




Globale Erwärmung für Dummies – Klimathesen kurz & bündig!

Übersetzung C. Frey, Deutsche Untertitel von R. Hoffmann

Update: Man kann die Untertitel aktvieren, in dem man über das Dreieck unten rechts fährt (unten, zweites Icon von rechts) und dann "Untertitel aktivieren" auswählt.

Update 2: aber erst nachdem da Video läuft.

Und hier die deutsche Fassung. Die schlechte Bildqualität bitten wir zu entschuldigen




US Klimaaktivist Hansen sagt, die US-Demokratie sei nicht in der Lage, mit der Globalen Erwärmung umzugehen, und ruft das kommunistische China auf, die „Menschheit zu retten”

In diesem op ed piece für die chinesische Zeitung, den er mit dem Titel „Die chinesische Führung wird gebraucht, um die Menschheit zu retten“ versehen hat (veröffentlicht unter der Rubrik der Preis der Änderung) gab er die Schuld für den Ausstoß des allermeisten CO2, das vermutlich die Globale Erwärmung auslöst, seinem Heimatland USA; und er appellierte an China, nicht den gleichen Weg zu gehen. Hansen sagte, dass China die „letzte Hoffnung“ der Welt sei und forderte China auf, „die Welt durch die gefährlichste Krise zu führen, die die Menschheit und die Natur je erlebt haben“.

In einem darauf folgenden Artikel auf seiner Website nennt Hansen die Amerikaner „Barbaren” und verdammte die amerikanische Demokratie, indem er China aufforderte, Steuern auf in Amerika hergestellte Produkte zu erheben, bis Amerika endlich den Vorgaben folgt.

Er erinnerte mit Bitterkeit daran, wie seine Erkenntnisse über die Effizienz von Treibstoffen, die er und sein „A-Team” (wie er es nannte) gewonnen hatten, jahrelang durch den demokratischen und juristischen Prozess in den USA aufgehalten worden war:

[„The A-Team“: eine amerikanische Fernsehserie mit George Peppart und Dirk Benedict in den Hauptrollen, voller Gewalt, Schießereien und Schlägereien. A. d. Übers.]

 „Wir haben den Prozess ‚gewonnen‘, doch hat der gesamte Vorgang die Zeit für Taten um Jahre verzögert. Ich habe daraus die Lehre gezogen, dass es nicht nur fast unmöglich ist, eine effektive Gesetzgebung durch den Kongress zu bekommen, sondern auch, dass spezielle Interessen die Anwendung entsprechender Gesetzte auf fast unbegrenzte Zeit verhindern können.“

James Hansen, China and the Barbarians.

Die Erklärung, dass die amerikanische ‚Demokratie’ (auf die er sich sarkastisch bezog) nicht mit der Klimaänderung fertig wird, und dass die Welt auf die chinesische kommunistische Diktatur sehen sollte, dürfte zu Kontroversen führen.

Potentiell sogar noch kontroverser ist, dass Hansen fortfährt, das gegenwärtige demokratische System in den USA als „dysfunktional“ zu verdammen, weil sich in ihm nicht die Kohlenstoffsteuern einführen lassen, nach denen er verlangt hatte. Noch ist jedoch nicht alles verloren, gibt er doch in einer wirklich unglaublichen Passage in seinem Brief der chinesischen Regierung Ratschläge, wie sie mit dem Kongress umgehen solle:

 „Jedoch gibt es eine Möglichkeit, dies zu umgehen, und zwar mit der Verwirklichung einer zunächst moderaten Kohlenstoffsteuer, die in Chinas eigenem Interesse sei. Nach einer Abstimmung mit anderen Nationen, wie z. B. der EU, könnten China und diese anderen Nationen steigende interne Kohlenstoffsteuern einführen. Die bestehenden Regeln der Welthandelsorganisation WTO würden es danach zulassen, Zölle auf die Produkte aller Länder zu erheben, die nicht eine ähnliche interne Kohlenstoffsteuer oder –abgabe eingeführt haben.

Die USA würden dann gezwungen, eine Wahl zu treffen. Entweder können sie ihre Abhängigkeit von fossilen Treibstoffen und nationale Investitionen in dieser Hinsicht mit einer steigenden Kohlenstoffsteuer belegen, oder sie könnten einen kontinuierlichen Abstieg akzeptieren in eine zweit- oder drittrangige Wirtschaft.“

Meine Lesart dieses Schriftstücks ist, dass Hansen einer auswärtigen kommunistischen Diktatur Ratschläge erteilt, wie man die amerikanische Demokratie aushebeln und Amerika „gezwungen“ (seine Worte) sein könnte, entweder Kohlenstoffsteuern einzuführen oder „einen kontinuierlichen [wirtschaftlichen] Abstieg zu akzeptieren“. Es ist wirklich atemberaubend, dass es einem öffentlich beschäftigten hohen Beamten zu gelingen scheint, mit derartig unpatriotischen Aktivitäten ohne jede Rüge oder ein Disziplinarverfahren davonzukommen.

Hansen schließt seine bemerkenswerten persönlichen Ratschläge, indem er seiner Hoffnung Ausdruck verleiht, dass China in der Lage sein wird, „gute Barbaren”(d. h. willfährige Westler) zu finden, die China helfen, „an einer effektiven Politik mitzuwirken“. Er merkt an, dass das Größte an China ist, dass die Regierung nicht durch die unbequemen Regeln der Demokratie wie Wahlen oder Rechenschaft vor dem Volk gebunden sind, und dass sie einfach ihre Beschlüsse durchsetzen können.

Ich habe den Eindruck, dass die chinesische Führung einen langen Blick darauf werfen wird, vielleicht wegen der langen Geschichte ihrer Kultur im Gegensatz zum Westen mit seinen kurzen Wahlzyklen. Gleichzeitig hat China die Kapazität, politische Beschlüsse rasch umzusetzen.

Hansen hat auch behauptet, dass der Meeresspiegel um 75 Meter steigen wird, wenn alle fossilen Treibstoffe verbrannt sind und keine Aktionen dagegen unternommen werden.

 Weiterführender Link (Kommentar der Washington Times) hier 

Zusätzlich:

Bishop Hill hat darauf hingewiesen, dass Hansens Anbetung der chinesischen kommunistischen Diktatur eine zunehmende Modeerscheinung unter den Klimaalarmisten ist.

Auf dem populären Blog Treehugger findet sich ein Artikel, in dem die stolzen Ankündigungen der Volksrepublik China ehrfürchtig wiederholt werden, dass ihr grandioser Fünfjahresplan, die Energieeffizienz zu steigern, mit Hilfe von Stromausfällen und der Schließung von Institutionen einhergeht, um die Ziele zu erfüllen.

Wie die Kameraden bei Treehugger betonen, ist eine ruchlose kommunistische Diktatur einfach viel effektiver in diesen Dingen als eine Demokratie:

„Es ist interessant zu sehen, mit welchem Engagement China diese Ziele zu erreichen versucht – durch das Schließen ganzer Unternehmungen und durch Stromsperren. Mit Sicherheit hätte es einige Kritik an China auf der Weltbühne gegeben, wenn es diese Ziele verfehlt hätte, aber dass wäre wahrscheinlich nicht so schlimm gewesen. Man sollte sich den Unterschied der politischen Kulturen vor Augen führen: Was glauben Sie wäre geschehen, wenn die USA auf ähnliche Weise versucht hätten, die Ziele zur Reduzierung des Energieverbrauchs durchzusetzen, mit dem Nebeneffekt einer Wirtschaft, die den Bach hinuntergeht?“

Ich kann es Ihnen mit einiger Gewissheit sagen: Wir hätten dies gar nicht bemerkt.

Sie sind sicher gut im „Durchsetzen” von Dingen. Falls Sie wirklich beschließen, auf der Site von ‚Treehugger‘ einen Kommentar zu schreiben, bleiben Sie bitte höflich und denken Sie daran, sie respektvoll als „Kameraden“ anzureden!

Man lese auch meinen kürzlich erschienenen Beitrag hier , wie die neue grüne Regierung von Großbritannien ernsthaft nach einer „stärkeren Zusammenarbeit“ mit den Chinesen strebt – er enthält auch ein Video von dem französischen Nachrichtenkanal News 24 darüber, wie die chinesischen Bürger als Teil der „Umerziehung“ zum Arbeitsdienst gezwungen werden, etwa 2 Millionen, dem Bericht zufolge.

Die Revolution wird kohlenstoffneutral sein.

Vollständiger Link: http://hauntingthelibrary.wordpress.com/2011/01/12/hansen-us-democracy-not-competent-to-deal-with-global-warming-calls-on-communist-china-to-save-humanity/

Übersetzt von Chris Frey für EIKE




Keine „Klimakatastrophe“ durch CO2-Emissionen!

Die wissenschaftliche Grundlage des angeblichen Einflusses der CO2-Konzentration auf das globale Klima ist der so genannte Treibhauseffekt, der für das Spurengas CO2 nach  dem international anerkannten MODTRAN-Programm  bei Verdoppelung eine Temperaturerhöhung von ca. 0,6°C bewirken würde.  Dies ist sehr wenig und kein Anlass zu Befürchtungen. Die obengenannten hohen Temperaturerhöhungen ergeben sich aus der Annahme des IPCC-Berichtes, dass der geringe CO2-Effekt wesentlich verstärkt würde durch einen dadurch verursachten Wasserdampf-Anstieg (das eigentliche "Treibhausgas" in der Atmosphäre). Allerdings gibt es für diese Annahme immer noch keinen Nachweis.

Die IPCC-Annahme einer Klimasensitivität von 3°C steht  auf schwachen Füßen und basiert trotz umfangreicher Forschungs-Investitionen bisher nur auf Modell-Annahmen, nicht aber auf Messungen, was auch durch die immer noch bestehende große Unsicherheit von  +/- 1,5°C bestätigt wird.

Aber machen wir einmal mit den umstrittenen hohen Annahmen des IPCC eine kleine, für jedermann verständliche Rechnung auf:

Der gegenwärtige jährliche Anstieg der CO2-Konzentration schwankt zwischen 1,5 und 2,5 ppm mit einem recht stabilen Mittelwert von ca. 2 ppm/Jahr. Der heutige Stand liegt bei 390 ppm und die Verdoppelung auf 780 ppm würde damit nicht weniger als 195 Jahre dauern (!).  Mit der "Klimasensitivität"  des IPCC-Berichtes, d.h. bei einem globalen Temperaturanstieg von 3°C bei Verdoppelung des CO2-Gehaltes, ergibt sich bis zum immer zitierten Jahr 2100, d.h. in 90 Jahren, ein Temperaturanstieg von 1,38° C (90/195 x 3°).

Eine neue Analyse des NASA Earth Science Team vom Dezember 2010, die erstmalig auch den Kühlungseffekt  der durch den CO2-Anstieg verursachten Wachstumsförderung der Vegetation berücksichtigte, kam zu einer CO2-Klimasensitivität von nur 1,64 ° bei Verdoppelung*. In diesem Fall wäre der zu erwartende Temperatureffekt bis zum Jahr 2100 nur 0,76°C – und das ohne jede Reduktion der gegenwärtigen Emissionen !

Nun kann man einwenden, die CO2-Konzentration könnte künftig schneller steigen als mit derzeit 2 ppm/Jahr, aber genauso kann man argumentieren, dass dieser Anstieg auch geringer werden kann durch die Bemühungen, fossile Brennstoffe zu ersetzen und  auch durch den zu erwartenden natürlichen Rückgang der Öl- und Gasförderung in den nächsten 50 Jahren

In Anbetracht dieser Tatsachen stellt sich die kritische Frage: Wozu gab es bisher 16 internationale UN-Klimakonferenzen mit bis zu 15 000 Teilnehmern (!)  zur Diskussion der Frage der Begrenzung von CO2-Emissionen ?  Ein gewaltiger Finanz-Aufwand und jedes Jahr viele Millionen Tonnen zusätzlicher CO2-Emissionen durch die Reisen der Teilnehmer aus 194 Ländern.  Davon sollte eigentlich jeder imstande sein, die obige Rechnung selbst durchzuführen.

Oder könnte es sein, dass es einen ganz anderen Grund für diese endlose Zahl gewaltiger Konferenzen gibt ?  Wer einmal daran teilgenommen hat, will offenbar auf diesen kostenlosen zweiwöchigen Aufenthalt in den attraktiveren Orten der Erde (Kyoto – Bali – Nairobi – Rio de Janeiro – Genf – New Delhi – Marrakesch – Buenos Aires – Kopenhagen – Cancun, und nächstes Jahr Durban/Südafrika) nicht mehr verzichten. Der wichtigste Beschluss jeder Konferenz war, sich nächstes Jahr wieder zu treffen. Alleine schon deshalb muss wohl eine angebliche "Klimakatastrophe" unbedingt erhalten bleiben.

Dr. D. E.Koelle EIKE

*) http://www.nasa.gov/topics/earth/features/cooling-plant-growth.html

 Hier die NASA Presseinformation im Wortlaut:

New NASA Study on CO2 Warming  with consideration of the vegetation cooling effect

The cooling effect would be -0.3 degrees Celsius globally and -0.6 degrees C  over land, compared to simulations where the feedback was not included, said Lahouari Bounoua, of Goddard Space Flight Center, Greenbelt, Md. Bounoua is lead author on a paper detailing the results that has been published Dec. 7,  2010 in the journal Geophysical Research Letters.

With the negative feedback included, the model found a warming of 1.64 degrees C globally when carbon dioxide was doubled.

Patrick Lynch

NASA’s Earth Science News Team

7. Dez.2010

 

From NASA Earth Science news: A new NASA computer modeling effort has found that additional growth of plants and trees in a world with doubled atmospheric carbon dioxide levels would create a new negative feedback – a cooling effect – in the Earth’s climate system that could work to reduce future global warming.

The cooling effect would be -0.3 degrees Celsius (C) (-0.5 Fahrenheit (F)) globally and -0.6 degrees C (-1.1 F) over land, compared to simulations where the feedback was not included, said Lahouari Bounoua, of Goddard Space Flight Center, Greenbelt, Md. Bounoua is lead author on a paper detailing the results that will be published Dec. 7 in the journal Geophysical Research Letters.

Without the negative feedback included, the model found a warming of 1.94 degrees C globally when carbon dioxide was doubled.

Bounoua stressed that while the model’s results showed a negative feedback, it is not a strong enough response to alter the global warming trend that is expected. In fact, the present work is an example of how, over time, scientists will create more sophisticated models that will chip away at the uncertainty range of climate change and allow more accurate projections of future climate.

“This feedback slows but does not alleviate the projected warming,” Bounoua said.

To date, only some models that predict how the planet would respond to a doubling of carbon dioxide have allowed for vegetation to grow as a response to higher carbon dioxide levels and associated increases in temperatures and precipitation.

Of those that have attempted to model this feedback, this new effort differs in that it incorporates a specific response in plants to higher atmospheric carbon dioxide levels. When there is more carbon dioxide available, plants are able to use less water yet maintain previous levels of photosynthesis. The process is called “down-regulation.” This more efficient use of water and nutrients has been observed in experimental studies and can ultimately lead to increased leaf growth. The ability to increase leaf growth due to changes in photosynthetic activity was also included in the model. The authors postulate that the greater leaf growth would increase evapotranspiration on a global scale and create an additional cooling effect.

“This is what is completely new,” said Bounoua, referring to the incorporation of down-regulation and changed leaf growth into the model. “What we did is improve plants’ physiological response in the model by including down-regulation. The end result is a stronger feedback than previously thought.”

The modeling approach also investigated how stimulation of plant growth in a world with doubled carbon dioxide levels would be fueled by warmer temperatures, increased precipitation in some regions and plants’ more efficient use of water due to carbon dioxide being more readily available in the atmosphere. Previous climate models have included these aspects but not down-regulation. The models without down-regulation projected little to no cooling from vegetative growth.

Scientists agree that in a world where carbon dioxide has doubled – a standard basis for many global warming modeling simulations – temperature would increase from 2 to 4.5 degrees C (3.5 to 8.0 F). (The model used in this study found warming – without incorporating the plant feedback – on the low end of this range.) The uncertainty in that range is mostly due to uncertainty about “feedbacks” – how different aspects of the Earth system will react to a warming world, and then how those changes will either amplify (positive feedback) or dampen (negative feedback) the overall warming.

An example of a positive feedback would be if warming temperatures caused forests to grow in the place of Arctic tundra. The darker surface of a forest canopy would absorb more solar radiation than the snowy tundra, which reflects more solar radiation. The greater absorption would amplify warming. The vegetative feedback modeled in this research, in which increased plant growth would exert a cooling effect, is an example of a negative feedback. The feedback quantified in this study is a result of an interaction between all these aspects: carbon dioxide enrichment, a warming and moistening climate, plants’ more efficient use of water, down-regulation and the ability for leaf growth.

This new paper is one of many steps toward gradually improving overall future climate projections, a process that involves better modeling of both warming and cooling feedbacks.

“As we learn more about how these systems react, we can learn more about how the climate will change,” said co-author Forrest Hall, of the University of Maryland-Baltimore County and Goddard Space Flight Center. “Each year we get better and better. It’s important to get these things right just as it’s important to get the track of a hurricane right. We’ve got to get these models right, and improve our projections, so we’ll know where to most effectively concentrate mitigation efforts.”

The results presented here indicate that changes in the state of vegetation may already be playing a role in the continental water, energy and carbon budgets as atmospheric carbon dioxide increases, said Piers Sellers, a co-author from NASA’s Johnson Space Center, Houston, Texas.

“We’re learning more and more about how our planet really works,” Sellers said. “We have suspected for some time that the connection between vegetation photosynthesis and the surface energy balance could be a significant player in future climate. This study gives us an indication of the strength and sign of one of these biosphere-atmosphere feedbacks.”

Patrick Lynch?NASA’s Earth Science News Team




Monckton „spießt“ australischen Klima-Alarmisten Steketee auf!

1. Nach vorläufigen Daten bis zum 30. November waren die Wassertemperaturen rund um Australien im vorigen Jahr die höchsten jemals gemessenen, ebenso wie für die gesamte letzte Dekade.

Die Aufzeichnungen selbst begannen vor zehn Dekaden. Für die Wassertemperaturen gilt, dass sie für die Analyse der „globalen Erwärmung“ weniger signifikant sind als für die Abschätzung des Wärmegehalts der Ozeane. In einer kürzlich veröffentlichten Studie haben die Professoren David Douglas und Robert Knox von der Rochester University in New York – entgegen der Behauptung zahlreicher Klimaextremisten – festgestellt, dass es keine Ansammlung der „fehlenden Energie“ [missing energy] in Form von Wärme in den Ozeanen weltweit gegeben hat, seit dieser Wärmegehalt erstmals im Jahre 2003 verlässlich durch 3000 automatische Bathythermographen [Erklärung in Wikipedia hier ] gemessen wurde. Dieses Ergebnis bedeutet, dass der Grad der Erwärmung, den man selbst bei einer starken Zunahme des CO2-Gehaltes bekommt, viel kleiner ist, als das IPCC und andere Gruppen von Klimaextremisten behaupten.

2. Die Weltorganisation der Meteorologie WMO sagt, dass das Jahr bis Ende Oktober das wärmste Jahr war seit dem Beginn von instrumentellen Klimaaufzeichnungen im Jahre 1850 – 0,55°C über dem Mittel der Jahre 1961 bis 1990 von 14°C.

Es ist einfach, eine Periode herauszupicken, die kürzer ist als ein Kalenderjahr und dann zu behaupten, es hätte einen neuen Rekord gegeben. Das Herauspicken der ersten neun Monate 2010 ist besonders inakzeptabel, weil diese Periode von einem starken El Niño-Ereignis dominiert wurde, einer plötzlichen Änderung der Meeresströme weltweit, die ebenso weltweit wärmeres Wetter zur Folge hatte. Die letzten paar Monate des vorigen Jahres, die sorgfältig aus der Feststellung von Mr. Steketee herausgehalten worden waren, zeigten den Beginn eines La Niña-Ereignisses, was zu einer weltweiten Abkühlung führt. Tatsächlich war das Kalenderjahr von Januar bis Dezember 2010 den zuverlässigen Satellitendaten von RSS und UAH zufolge nicht das wärmste. Davon abgesehen, was zählt, ist nur, wie schnell sich die Erde erwärmt. Die Erwärmungsrate lag von 1975 bis 2001 etwa bei 0,16°C pro Dekade. Dies war die höchste Rate für mehr als ein Jahrzehnt in der 160 Jahre langen Aufzeichnung – und genau die gleiche Rate wie von 1860 bis 1880 und dann wieder von 1910 bis 1940, zu einer Zeit also, bei der wir mit Sicherheit damit nichts zu tun haben können. Seit 2001 hat es praktisch überhaupt keine „globale Erwärmung“ mehr gegeben.

3. Die letzte Dekade war ebenfalls die wärmste seit Beginn der Aufzeichnungen.

Nach 300 Jahren globaler Erwärmung, in denen wir fast durchweg in keiner Hinsicht das Klima in messbarem Ausmaß beeinflusst haben können, ist es kaum überraschend, dass jüngere Dekaden wärmer ausfallen als frühere. Dies ist zu erwarten. Wenn jemand lange Zeit steil bergauf gegangen ist, wird er auch nicht überrascht sein, sich am Ende dieser Klettertour in einer höheren Position zu befinden als zu Beginn.

4. Die Welt ist nicht kühler, verglichen mit 1998.

Tatsächlich ist es kühler. Es gab 1998 eine bemerkenswerte Wärmespitze der globalen Temperatur, aber nicht durch anthropogene „globale Erwärmung“, sondern durch ein gewaltiges El Niño-Ereignis – ein Wechsel in der Verteilung der Meeresströme, die im äquatorialen Ostpazifik beginnt und rings um den Globus läuft und die ein paar Monate anhält. In den ersten neun Monaten 2010 gab es ein weiteres substantielles El Niño-Ereignis, aber selbst auf dem Höhepunkt wurde nicht die Wärmespitze des Großereignisses von 1998 erreicht.

5. Die Trends folgen ziemlich genau den Vorhersagen des Temperaturanstiegs der letzten 40 Jahre, verursacht durch die zunehmende Emission von Treibhausgasen.

In den 40 Jahren seit 1970 hat die globale Temperatur linear in einer Rate um 1,3°C pro Jahrhundert zugenommen. Die CO2-Konzentration nimmt in einer geraden Linie um 2 ppmv pro Jahr zu, und selbst wenn wir eine exponentielle Zunahme bekämen, kann eine damit korrespondierende Temperaturzunahme in einer geraden Linie erwartet werden. Wie auch immer, eine weitere „globale Erwärmung“ um 1,3°C in diesem Jahrhundert wäre harmlos. Das IPCC sagt 3,4°C voraus, aber seit der Jahrtausendwende am 1. Januar 2001 hat die globale Temperatur  (im Mittel von  zwei Datensätzen von Satelliten) mit einer Rate äquivalent zu 0,6°C pro Jahrhundert zugenommen, also viel geringer als im gesamten 20. Jahrhundert. In diesen Zahlen steckt nichts, worüber man sich Sorgen machen müsste – außer über die Tendenz mancher Journalisten, dies zu verheimlichen.

6. Die meisten Wissenschaftler stimmen darin überein, dass eine Verdoppelung des CO2-Gehaltes der Atmosphäre zu einer Erwärmung um 2 bis 3°C führen würde.

Es ist zu bezweifeln, dass Mr Steketee „die meisten Wissenschaftler“ konsultiert hat. Die meisten Wissenschaftler, die keine Klimawissenschaftler sind, nehmen an der Klimadebatte gar nicht teil. Die meisten Klimawissenschaftler haben nie untersucht, welche Erwärmung eine gegebene CO2-Zunahme hervorrufen würde: das heißt, welche Meinung auch immer sie vertreten, sie wäre nicht viel mehr wert als die eines Laien. Die meisten der wenige Dutzend Wissenschaftler weltweit, schätzt Prof. Richard Lindzen vom MIT, haben tatsächlich die Klimasensitivität bis zu einem Stadium untersucht, in dem man sie in einer Fachzeitschrift veröffentlichen kann. Sie haben ihre Ergebnisse aber nicht durch Messungen und Beobachtungen gewonnen, sondern durch bloßes Modellieren. Die Modelle simulieren eine Erwärmung in der Größenordnung, wie Mr. Steketee sie nennt, aber in den Modellen stecken zahlreiche Knackpunkte, von denen man weiß, dass sie die Klimawirklichkeit nicht genau wiedergeben. Im Einzelnen nehmen die Modelle an, dass, falls der Mensch und nur der Mensch der Grund für die Erwärmung ist, sich die höheren Atmosphärenschichten über den Tropen in etwa 7 bis 10 km Höhe dreimal so schnell erwärmen wie die Erdoberfläche, aber dieser tropische hochtroposphärische „Hot Spot“ wurde in 50 Jahren mit Messungen durch Radiosonden, Fallsonden aus hoch fliegenden Flugzeugen oder Satelliten nie entdeckt. [Auch ohne Messungen: ein solcher Vorgang hätte den totalen Zusammenbruch der gesamten tropischen Gewitterkonvektion zur Folge – ein Vorgang, der noch nie beobachtet wurde und auch gar nicht vorstellbar ist. Herr Puls von EIKE weiß sicher mehr darüber. A. d. Übers. nach einem Hinweis von einem Meteorologen]. Die Modelle simulieren auch, dass jedes Grad Erwärmung die Verdunstung auf der Erdoberfläche um 1 bis 3% zunehmen lassen würde, aber die tatsächlich beobachtete Zunahme liegt mehr bei 6%. Daraus lässt sich einfach folgern, dass das IPCC die Erwärmung, die durch den zusätzlichen Eintrag von Treibhausgasen verursacht wird,  um das Vierfache überschätzt hat. Wenn man diese wunderbare Übertreibung, die wiederholt in wissenschaftlichen Studien belegt wurde, worüber aber von Journalisten eines Schlages wie Mr. Steketee niemals berichtet wurde, einfach wegnimmt, würde die Klima„krise“ verschwinden.

7. Bei einer Erwärmung um 2 bis 3°C besteht das Risiko signifikanter Umwelt- und wirtschaftlicher Schäden.

Tatsächlich vertritt das IPCC gegenwärtig die Ansicht, dass eine Erwärmung um bis zu 2°C harmlos wäre und eher positive Auswirkungen hätte. Angesichts der Tatsache, dass  während der letzten 600 Millionen Jahre viel höhere Temperaturen als heute die Regel waren, gibt es keine wissenschaftliche Basis für die Behauptung, dass eine so geringe Erwärmung zu signifikanten Umwelt- und wirtschaftlichen Schäden führen würde. Allerdings ist ein signifikanter wirtschaftlicher Schaden schon jetzt zu verzeichnen, und zwar durch die teuren, aber nutzlosen Versuche der Regierungen, die „globale Erwärmung“ aufzuhalten.

8. Die Konzentration von Treibhausgasen hat von 1990 bis 2009 um 27,5% zugenommen.

Da die anthropogenen Effekte auf das Klima mit Ausnahme des CO2 zu vernachlässigen sind, braucht man sich nur mit der CO2-Konzentration zu befassen. Sie betrug 353 ppmv im Jahre 1990 und 390 ppmv heute. Dies ist eine Zunahme nicht um 27,5%, sondern um 10,5%.

9. Das arktische Meereis schrumpfte bis auf die drittkleinste Fläche seit Beginn von Satellitenbeobachtungen, kompensiert lediglich ein wenig durch die Zunahme des antarktischen Meereises.

Tatsächlich zeigt die globale Meereisbedeckung praktisch keine Änderung während der letzten 30 Jahre, weil der ziemlich rapide Eisverlust in der Arktis seit der Überwachung durch Satelliten durch ein fast genauso rapides Wachstums des Eises um die Antarktis kompensiert wurde. Als die sommerliche Eisausdehnung im September 2007 ihre geringste jemals beobachtete Ausdehnung aufwies, kam es nur drei Wochen später in der Antarktis zu einem 30-Jahres-Rekord der Eisausdehnung. Über das Rekordminimum wurde lang und breit berichtet, während über das Maximum kaum ein Wort verloren wurde.

10. Die globale Schneebedeckung geht zurück, vermutlich wegen des menschlichen Einflusses.

Tatsächlich gab es im Winter 2008/2009 einen neuen Rekord der Schneebedeckung, und die Chancen stehen gut, dass es in diesem Winter einen weiteren Rekord geben wird.

11. Der globale Meeresspiegel steigt, vermutlich wegen des menschlichen Einflusses.

Tatsächlich hat sich das Ausmaß des Meeresspiegelanstiegs nicht verändert, seit die Satelliten 1993 begannen, den Meeresspiegel verlässlich zu messen. Es ist der verstörende Anstieg um 1 Fuß[ ca. 30 cm] pro Jahrhundert – nicht viel größer als die 8 inches [ca. 20 cm] pro Jahrhundert durch den Tidenhub. Eine neue Studie hat bestätigt, was Meeresbiologen schon lange vermutet hatten: Korallenatolle wachsen einfach dem Licht entgegen, und einige davon haben einem soeben veröffentlichten Papier zufolge sogar an Landmasse hinzugewonnen. Professor Niklas Mörner [Nils Axel Mörner?], der den Meeresspiegel ein Drittel Jahrhundert lang studiert hat, sagt, dass es physikalisch gar nicht möglich ist, dass der Meeresspiegel noch stärker als mit der gegenwärtigen Rate steigt. Er rechnet in diesem Jahrhundert mit einem Anstieg um 4 bis 8 Inches [10 bis 20 cm], also weniger als im vorigen Jahrhundert. Seit dem Ende der letzten Eiszeit vor 11 400 Jahren ist der Meeresspiegel mit einer Rate um 4 Fuß [ca. 122 cm] pro Jahrhundert gestiegen. Inzwischen hat sich der Anstieg sehr verlangsamt, weil nahezu alles Festlandseis, das es damals bis in niedrige Breiten gegeben hatte, längst verschwunden ist.

12. Der Versicherung Munich Re zufolge gab es 2010 die zweithöchste Zahl von Naturkatastrophen seit 1980. 90% davon hängen mit Wetterereignissen zusammen.

Tatsächlich gibt es nur drei Gruppen versicherbarer Naturkatastrophen – meteorologische, epidemische und seismische (Vulkanismus, Erdbeben, Tsunamis usw.) Katastrophen. Außer beim Eintreten schwerer seismischer Katastrophen (wie z. B. der durch ein gewaltiges Erdbeben ausgelöste Tsunami im Jahre 2000) oder wenn große Pandemien große Verluste an Menschenleben fordern (dies war 2010 überhaupt nicht der Fall) verursachen extreme Wettervorgänge rund 90% dieser Katastrophen. Weil es sich beim Klima um ein mathematisch-chaotisches System handelt, variiert das Auftreten von Wetterkatastrophen stark von Jahr zu Jahr, und es gibt keinen vernünftigen Grund, die Ereignisse von 2010 der anthropogenen „globalen Erwärmung“ in die Schuhe zu schieben.

13. Die 2010 in Melbourne an einem Sonnabend gemessene Temperatur von 46,4°C lag um mehr als 3°C über dem bisherigen Rekord für den Monat Februar.

Der Februar ist in Melbourne der Hochsommermonat. Da sich der Planet seit 300 Jahren erwärmt hat, ist es keine Überraschung, dass Wärmerekorde der Temperatur von Zeit zu Zeit gebrochen werden. Allerdings wurden auch einige sehr spektakuläre Kälterekorde in 2010 gebrochen, und zwar Anfang 2010, als alle 49 zusammenhängenden Bundesstaaten der zentralen USA [= also außer Bundesstaaten wie Hawaii und Alaska] unter einer geschlossenen Schneedecke lagen, was seit Beginn regelmäßiger Satellitenaufzeichnungen vor 30 Jahren noch nie der Fall war, sowie im Dezember, der in Zentralengland der kälteste Dezember seit Beginn von Aufzeichnungen vor 352 Jahren war. Allerdings haben weder die extreme Hitze noch die extreme Kälte des Jahres 2010 irgendetwas mit der anthropogen verursachten „globalen Erwärmung“ zu tun; wie auch die Hitzewelle 2003 in Europa, der dem Vernehmen nach 35 000 Menschen zum Opfer fielen. Sie wurde bekanntermaßen durch eine ungewöhnliche Wetterkonstellation verursacht, die die Meteorologen „Blockierung“ nennen – also vergleichsweise seltene und stabile Hochdruckgebiete [über nördlichen Breiten],  die die Jetstreams aus ihrer normalen Position verdrängen und bestimmte Wettersysteme für Tage oder sogar einen Monat lang an Ort und Stelle festhalten. Es konnte bisher keine Verbindung zwischen Häufigkeit, Intensität und Dauer solcher Blockierungen und der anthropogenen „globalen Erwärmung“ gefunden werden.

14. In Moskau lag die Mitteltemperatur im Juli 2010 mehr als 2°C über dem bisherigen Rekord, und am 29. Juli war die Temperatur bis 38,2°C gestiegen.

Und die jemals gemessenen tiefsten Temperaturen wurden während der letzten 12 Monate an zahlreichen Stationen in den USA und Großbritannien registriert. Das Herauspicken einzelner Extremwetterereignisse, das nur in eine Richtung zielt, wenn es gleichzeitig tausend andere Ereignisse gibt, die in die andere Richtung gehen, ist weder seriöse Wissenschaft noch seriöser Journalismus.

15. Die Hitzewelle und die Waldbrände in Zentralrussland forderten mindestens 56 000 Todesopfer. Damit war es die schlimmste Naturkatastrophe der russischen Geschichte.

Noch mehr des Herauspickens, und die Bemerkung, dass die Waldbrände, die schlimmste Katastrophe in der Geschichte Russlands waren, ist fragwürdig. Intensive Kältewellen – wie z. B. General Januar und General Februar, die Korporal Hitler 1941 vor den Toren Stalingrads in die Knie zwangen – haben viele Male Hunderttausende Opfer in Russland gefordert.

16. In Pakistan kamen 1769 in den jemals beobachteten schwersten Überschwemmungen des Landes ums Leben.

Tatsächlich waren die Überschwemmungen nicht die schlimmsten jemals beobachteten: es war die schlimmste Überschwemmung seit 1980. Die Region war schon lange anfällig für Überschwemmungen. Katastrophale Überschwemmungen gab es in seltenen Intervallen, wenn ein blockierendes Hochdruckgebiet zusammen mit einem ungewöhnlich starken Abfluss von Schmelzwasser aus dem Himalaya zusammen fiel. Dann schwellen die zahlreichen Flüsse des Gebietes rasch an (Punjab, oder panj-aub, bedeutet „fünf Flüsse“). Die Überschwemmung trat also nicht infolge einer anthropogenen „globalen Erwärmung“, sondern infolge eines blockierenden Hochdruckgebietes auf.

17. Die Hurrikan-Saison im Nordatlantik war eine der stärksten im vorigen Jahrhundert.

Tatsächlich sagt Dr. Ryan Maue von der Florida State University, der den Accumulated Cyclone Energy Index, eine gleitende Zusammenzählung über 24 Monate von Häufigkeit, Intensität und Dauer aller tropischen Zyklone weltweit, dass dieser Index auf seinem niedrigsten Wert seit 30 Jahren und nahe dem absoluten Minimum der letzten 50 Jahre liegt. Seit 150 Jahren zeigt die Anzahl der Hurrikane, die auf das amerikanische Festland treffen, überhaupt keinen Trend: dies ist eine lange und zuverlässige Reihe, weil man natürlich keine komplexen Instrumente braucht, um ein solches Auftreffen zu dokumentieren.

18. Sogar zurückhaltende Wissenschaftler tendieren zu der Aussage, dass die anthropogen verursachte Klimaänderung dafür verantwortlich ist.

Zurückhaltende Wissenschaftler sagen nichts dergleichen. Selbst das zu Übertreibungen neigende IPCC hat wiederholt festgestellt, dass einzelne Extremwetterereignisse nicht mit der anthropogenen „globalen Erwärmung“ in Verbindung gebracht werden können. Insbesondere wäre es unvorsichtig von jedem Wissenschaftler, wenn er den Menschen die Schuld an den blockierenden Hochdruckgebieten, die für fast alle auf das Wetter zurückgehende Schäden 2010 verantwortlich waren, in die Schuhe schieben würde, obwohl diese Gebilde seit langem bekannte natürliche Phänomene sind.

19. Die Klimaänderung hat zu der Verringerung der Regenmenge um 20% in Teilen Südaustraliens während der letzten 40 Jahre beigetragen.

Klimaänderung begann vor 4567 Millionen Jahren, an jenem Donnerstag, an dem sich die Erde zum ersten Mal formiert hatte (wie es Prof. Plimer ausdrückt). Die Frage ist, ob eine anthropogene Klimaänderung zu der Dürre beigetragen hat. Interessanterweise hatte es in  jedem der letzten zwei Jahre schwere Regenfälle in zuvor von Dürre heimgesuchten Gebieten in Südaustralien gegeben. In Australien herrscht Wüstenklima: daher ist es keine Überraschung, dass es zu Dürreperioden kommt – manchmal auch für längere Zeit. Eine der längsten Aufzeichnungen über Dürre und Überschwemmungen, die wir haben, ist das Nilometer, das bis 5000 Jahre zurück reicht. Dürreperioden mit Ausmaßen weit jenseits dessen, was wir in der heutigen Zeit je gesehen haben, kamen häufig vor, und ganze Regionen in Ägypten wurden als Folge davon unbewohnbar. Ein Rückgang der Regenmenge um 20% in einer einzelnen Region kann daher nicht gut durch etwas anderes als die natürliche Variabilität des Klimas hervorgerufen worden sein.

20. Es gibt starke Beweise dafür, dass die „globale Erwärmung” die Buschfeuer rund um Melbourne verschlimmert hat.

Es gibt keinen solchen Beweis. Wie das IPCC wiederholt gesagt hat, ist die Zuordnung individueller, lokaler Extremwetterereignisse zur „globalen Erwärmung“ unzulässig.

21. Es gab eine ganze Reige außerordentlicher Hitzewellen mit großen Sprüngen zu neuen Extremwerten der Temperatur. Das begann 2003 in Europa und setzte sich rund um die Welt fort bis zum Höhepunkt in Russland im vorigen Jahr. In mehr als 17 Ländern wurden 2010 Temperaturrekorde gebrochen, und „man muss schon seine Glaubwürdigkeit aufs Spiel setzen, wenn man sagt, dass dies nichts mit der Klimaänderung zu tun hat“.

Die Hitzewelle 2003 in Europa wurde bekanntlich durch ein blockierendes Hochdruckgebiet verursacht, ähnlich dem, das zu der Hitzewelle mit den Rekordtemperaturen 2010 in Russland führte. Dieses hielt den Monsun in Pakistan lang genug in Position, so dass es dort zu den Überschwemmungen gekommen war. Man muss wirklich seine Glaubwürdigkeit aufs Spiel setzen, wenn man sagt, dass dies irgendetwas mit der anthropogenen „globalen Erwärmung“ zu tun hat. Zwar könnte diese Hitzewelle europaweit 35 000 Opfer gefordert haben, aber eine dreitägige Kältewelle in Großbritannien forderte 2009 allein in einem einzigen Land 21 000 Opfer. Die Auswirkungen von weltweit wärmerem Wetter dürfte also die Anzahl der Todesopfer reduzieren und nicht ansteigen lassen. Dies ist auch der Grund dafür, warum bestimmte Perioden wie das Klimaoptimum des Holozän vor 8000 bis 6000 Jahren, als es rund 3°C wärmer war als heute, als „Optima“ bezeichnet werden: Wärmeres Wetter ist für die meisten Lebensformen – einschließlich der Menschen –  besser als kälteres Wetter.

22. Seit 20 Jahren gab es mehr Wärme- als Kälterekorde.

Dies ist ein anderer Weg zu behaupten, dass die Temperaturen heute generell höher sind als vor 20 Jahren. Da es tatsächlich eine kleine Erwärmung gegeben hat, gab es mehr Wärme- als Kälterekorde. Nicht sehr überraschend, aber auch nicht sehr alarmierend: die bloße Tatsache der Erwärmung besagt nichts über den Grund für diese Erwärmung, vor allem, wenn man sich vor Augen führt, dass der Grad der Erwärmung der letzten Dekaden nicht größer war als während zwei früherer Perioden über 25 Jahre während der letzten 160 Jahre.

Selbst wenn die Emissionen von Treibhausgasen auf wenig mehr als dem heutigen Stand stabilisiert werden können, wird es eine weitere Erwärmung um 2°C geben – viermal so viel wie die Zunahme während der letzten 30 Jahre.

Dieser Wert von 2°C scheint – wie viel zu viele andere in diesem bedauernswert fiktiven Artikel – aus sehr dünner Luft gegriffen worden zu sein. Lassen Sie uns die Mathematik durchführen. Wir können alle Einflüsse des Menschen mit Ausnahme des CO2 ignorieren, weil sie sich gegenseitig bisher aufgehoben haben, wie die Tabelle der „Strahlungsantriebskräfte“ im jüngsten, alle fünf Jahre erscheinenden Zustandsbericht des IPCC zeigt. Im Jahre 1750, vor der industriellen Revolution, lag die CO2-Konzentration bei 278 ppmv. Heute liegt sie bei 390 ppmv. Nimmt man die Hauptschätzung aus dem Kasten 10.2 auf Seite 798 des Zustandsberichtes von 2007, und addiert/subtrahiert man eine Standardabweichung, kann man die folgende einfache Gleichung für die gesamten in 2000 Jahren zu erwartende Erwärmung herleiten, nachdem das Klima in vollem Umfang das Gleichgewicht erreicht hat, nachdem es sich an die Menge unserer Kohlenstoffemissionen angepasst hat:

?Tequ = (4.7 ± 1) ln(390/278) F°

Lassen Sie uns nun allgemein eine Standardabweichung dazu addieren: dann kommt als die vom IPCC erwartete Erwärmung als Ergebnis unserer CO2-Emissionen, die seit 1750 5,7 mal der natürliche Logarithmus der proportionalen Zunahme der CO2-Emissionen während einer Periode von 260 Jahren is, ein Wert von 1,9°C heraus. Selbst diese gesamte Erwärmung von 1750 bis heute liegt noch unter den 2°C, die nach den Behauptungen von Mr. Stetekee auf der Lauer liegen. [Hinweis: Im Original lautet dieser Absatz:

Let us generously go one standard deviation above the central estimate: thus, a high-end estimate of the total equilibrium warming the IPCC would expect as a result of our CO2 emissions since 1750 is 5.7 times the natural logarithm of the proportionate increase in CO2 concentration in the 260-year period: i.e. 1.9 C°. Even this total since 1750 to the present is below the 2 C° Mr. Stetekee says is lurking in the pipeline.

 Mangels ausreichender Fachkenntnisse kann ich keine Garantie übernehmen, diesen Absatz dem Sinn nach korrekt übersetzt zu haben. A. d. Übers.]

Weiter: falls die anthropogene “globale Erwärmung” wirklich ein so großes Problem sein sollte wie vom IPCC behauptet, müssen wir folgern, dass die gesamte beobachtete Erwärmung seit 1750 – also etwa 1,2°C – unsere Schuld ist. Also müssen wir diese 1,2°C von der Erwärmung um 1,9°C beim Gleichgewicht abziehen. Ergebnis: Lediglich eine weitere Erwärmung um 0,7°C wird bis zum Gleichgewicht noch erfolgen.

Allerdings haben viele Klimaextremisten Studien veröffentlicht, die besagen, dass dieses Gleichgewicht der Erwärmung in 1000 Jahren noch nicht erreicht sein wird (oder sogar, in einem besonders fatalen Papier, für 3000 Jahre). Das IPCC selbst erwartet bis zum Jahr 2100, dass das Gleichgewicht lediglich 57% erreicht hat: der Rest wird so lange dauern, dass nicht einmal die Kinder unserer Kinder noch da sein werden, um dies festzustellen, und die restliche Erwärmung wird sich so allmählich abspielen, dass alles und jeder Zeit hat, sich anzupassen.

Unter dem Strich: bis zum Jahr 2100 kann man also nicht von 2°C weiterer „globaler Erwärmung” ausgehen, sondern höchstens um 0,4°C. Die Wahrheit ist, wie üblich in der Klimadebatte, wesentlich weniger aufregend als die Lüge.

24. Die Anpassung an die Konsequenzen der “globalen Erwärmung” wird umso schwieriger, je länger wir warten.

Auch diese Behauptung hat keinerlei wissenschaftliche Grundlage. Die Kosten der Anpassung sind hauptsächlich mehr eine ökonomische als eine klimatologische Frage. Jede seriöse ökonomische Analyse (hier schließe ich die diskreditierte Propaganda von Stern aus, und zwar wegen seiner absurden Behauptungen einer „globalen Erwärmung“, die die extremsten Positionen des IPCC noch weit übersteigen) zeigt, dass die Kosten für Abwarten und Anpassung an jedwede widrigen Konsequenzen, die sich aus der „globalen Erwärmung“ ergeben könnten, selbst bei der vom IPCC angenommenen, aber bisher durch Messungen nicht bestätigten Rate, um ganze Größenordnungen niedriger und kosteneffektiver ausfallen würden als alle Versuche, die weitere „globale Erwärmung“ durch die Besteuerung und Regulierung von CO2-Emissionen verhindern zu wollen. Daraus folgt, dass die Anpassung an die Konsequenzen der „globalen Erwärmung“ desto einfacher und billiger wird, je länger wir warten: weil wir uns dann nämlich nur an die wenigen und harmloseren Konsequenzen anpassen müssen, so diese überhaupt auftreten, und nicht vorher, und auch nur dort, wo und wann sie auftreten.

Link: http://wattsupwiththat.com/2011/01/09/monckton-skewers-steketee/

Übersetzt von Chris Frey für EIKE

Die ganze Arbeit können Sie als pdf Datei herunterladen

Related Files