1

Ich war mal eine Grüne, die an die vom Menschen verursachte globale Erwärmung geglaubt hat!

Dann entdeckte ich all das, was man uns nicht gesagt hat [weren’t being told] (wie this und this), und wie viel Geld dabei im Spiel war [money was involved], und ich war geschockt!

Es gibt unter den Grünen viele gute Menschen, die sehr wütend werden dürften, wenn sie bemerken, wie sehr sie missbraucht wurden und noch werden.

Die meisten egoistischen Ziele werden und wurden immer als “gute Absichten” verkauft

Einige Grüne glauben wirklich daran, dass ein marktbasiertes Handelssystem der beste Weg ist, um mit Verschmutzung umzugehen. Aber diese Verschmutzung ist kein Verschmutzer, und dieser „freie Markt“ ist nicht frei. Im vergangenen Jahr erzielte der Kohlenstoffmarkt [einen Umsatz von] 130 Milliarden Dollar [$130 billion dollars]. Man zielt auf einen solchen von 2 Billionen Dollar [$2 Trillion], und man kann sicher sein, dass auch ein “sub-prime” carbon [?] kommen wird. Der Markt hängt komplett vom Mandat der Regierung ab; er ist von Anfang bis Ende „fixiert“. Wer würde ein Kohlenstoffzertifikat kaufen, wenn er nicht dazu gezwungen wird? In einem freien Markt niemand.

Schlimmer noch, Geld durch Schwindelmärkte [fake markets] aufzuwirbeln öffnet der Korruption Tür und Tor.

Es ist einfach, in einem Schwindelmarkt zu betrügen. Bei echten Konsumgütern (und nicht einem Zertifikat der Regierung) wird der Betrug rasch offensichtlich. Falls Ihnen jemand einen Supertanker voller Kohle verkauft, der aber leer ist, werden Sie das bemerken. Falls Ihnen jemand einen Schrank voller falscher Zertifikate verkauft, wie können Sie das herausfinden? Das Europäische System steckt voller Korruption. Die beiden Hauptbetreiber wurden beide während der vergangenen 18 Monate suspendiert [both suspended in the last 18 months]. Luftbuchungen und Tricks haben Milliarden von Dollar vernichtet [have been wasted] – vieles davon verschwand bei Bankiers, und der meiste Rest bei Mafiosi in der Dritten Welt.

Die Bankiers waschen ihre Hände in Unschuld [wash their hands in glee]. Sie sind die Broker in diesem Großen Neuen Markt (der auf dünner Luft basiert). Sie stehen dafür, Geld aus jedem Handel zu machen [make money on every trade] – unabhängig davon, ob man kauft oder verkauft (und Sie werden gezwungen zu kaufen, wenn auch nur indirekt), Sie bezahlen den Bankier. Kein Wunder, dass diese Bankiers es immer weiter treiben [ they are pushing it].

Die Grünen werden von den Bankiers, die nur Profite wollen, und durch Bürokraten, die ihre bequemen Jobs und Pfründe, ihre Vergnügungsreisen [ their junkets] und ihre Anerkennungen behalten wollen, zum Narren gehalten.

Echte Wurzelgrüne sollten fuchsteufelswild darüber sein, dass echte Umweltprobleme ignoriert werden (zumindest bin ich das). Wir sollten besorgt sein über Dinge wie die Bodenerosion, Überfischung, die Zerstörung alter Urwälder oder die weit verbreitete Fehlernährung. Das Problem liegt darin, dass die grünen Gruppen zu den Multimillionen schweren Organisationen geworden sind, die sie vorgeben zu bekämpfen. Die Manager von Greenpeace, WWF et al usw. (allesamt Hundert-Millionen-Dollar-Organisationen) lieben es, mit den Großen Versuchungen der Zeit zu spielen, sie lieben ihren Status, sie lieben die Extraspenden, und, meine Güte, sie fühlen sich wichtig. Und sie bekommen aus der globalen Erwärmung viel mehr Geld als von Straßensammlungen (der WWF rafft aus den Kohlenstoffzertifikaten wg. Amazonien 60 Milliarden Dollar [$60 billion] zusammen; die Sammler mit den klingenden Büchsen an der Straßenecke sind nur Staffage).

Wie immer geht es nur um’s Geld

Die Labor Party [in Australien] glaubt immer noch, dass für Kohlenstoff ein Preis gezahlt werden muss, und dass ein Komitee in jeder Gemeinde irgendwie den Rest von uns einfordern kann. Aber deswegen wählen wir doch die Mitglieder des Parlaments, oder? Wir hoffen, Leute zu wählen, die einen profitschweren Betrug kommen sehen und nicht mit beiden Beinen in einen solchen hinein springen.

Das Gegenteil von skeptisch ist leichtgläubig

Sollte sich nicht irgendeine unserer wichtigsten Parteien erheben und einen Spaten einen Spaten nennen?

Die US–Regierung gibt 79 Milliarden Dollar [$79 billion dollars] aus, um wegen des Kohlenstoffs eine Krise zu kreieren. Sie konnten jedoch keine guten Beweise
[ good evidence,] finden, also schufen sie einen „Konsens“. Das IPCC wurde gegründet, um „die Gefahr“ zu benennen. Sie werden sich niemals hinstellen und behaupten, dass es keine Gefahr gibt, und dass es vorbei ist mit ihren Komitees, ihren Auszeichnungen und ihren Vergnügungsreisen. Ihre geldgetränkten Systeme [money-soaked systems] sind verdorben.

Kohlenstoffzertifikate sind lediglich eine andere korrupte Währung [another corrupt fiat currency]

Ein Schmutzstoff? Sie müssen scherzen!

 [CO2 is an aerial fertilizer,] CO2 ist ein Dünger in der Luft. Er sorgt für zunehmende Ernten rund um die Welt um etwa 15% während des letzten Jahrhunderts. In Gärtnereien wird es in die Gewächshäuser gepumpt. Die Ironie liegt darin, dass die Grünen versuchen, den Schlüsselgrundstoff allen Lebens auf der Erde zu begrenzen – Kohlenstoff. Wir sind Formen des Kohlenstoffs. Satellitenbilder zeigen eine Zunahme der Biomasse um etwa 3% pro Jahrzehnt, seit die Erde sich erwärmt und der CO2–Anteil zugenommen hat. Pflanzen lieben CO2!

Der empirische Beweis sagt uns immer wieder, dass Kohlenstoff nur etwa 1/6 der Erwärmung ausmacht [only does about 1/6th of the warming], die das IPCC behauptet. (Siehe auch meine Debatte mit einem Doktor der Paläoklimatologie für Details: Teil 1, 2, 3&4, and especially 5). Tausende von Wissenschaftlern [Thousands of scientists] (darunter einige wirklich große [some giants] erheben sich in der größten, jemals erlebten Bewegung [largest grassroots movement], um uns zu warnen, dass der Markenname Wissenschaft gegen uns verwendet wird.

Diese Angelegenheit wird Führer nach Führer fallen lassen, weil sie auf Unwahrheiten beruht und durch Terrorisierung am Leben gehalten wird.

Um rasch den Anschluss zu finden, lese man diese kurzen Booklets: The Skeptics Handbook (in Deutsch), Climate Money and Global Bullies Want Your Money.

Link: http://joannenova.com.au/2010/08/i-was-once-a-green-who-believed-in-man-made-global-warming/

Übersetzt von Chris Frey. Originallinks sowie Einschübe des Übersetzers in eckigen Klammern, alle anderen Hervorhebungen, auch alle verschiedenen Schrifttypen, im Original.




Wissenschaftlich begutachtete Studie erschüttert erneut offizielle Klimadoktrin! ‘Die Natur, nicht der Mensch, ist für die jüngste globale Erwärmung verantwortlich!

 „Der Anstieg der globalen Temperatur seit 1977 kann einer Klimaverschiebung im Pazifik im Jahre 1976 zugeordnet werden, die wärmende El Niño–Bedingungen wahrscheinlicher sein ließ als während der voran gegangenen 30 Jahre bzw. kühlende La Niña–Bedingungen weniger wahrscheinlich“

sagt Mitautor de Freitas.

“Wir haben gezeigt, dass die innere Variabilität im globalen Klimasystem für mindestens 80% der beobachteten Klimavariation in der zweiten Hälfte des vorigen Jahrhunderts verantwortlich war.

Es könnte sogar noch mehr sein, [was sich aber nur sicher sagen lässt], falls der Einfluss großer Vulkan[ausbrüche] klar identifiziert und die daraus folgenden Einflüsse auf die Daten aus der Analyse entfernt werden könnten.“

Klimaforscher wussten schon lange um den Einfluss von ENSO auf die globale Temperatur, zum Beispiel die Wärmespitze 1998 und die nachfolgende Abkühlung, als die Bedingungen in ein La Niña übergingen. Wohlbekannt ist auch der kühlende Einfluss von Vulkanaktivitäten, was gut durch die Effekte des Ausbruchs des Mount Pinatubo 1991 belegt ist.

Die neue Arbeit stellt eine Verbindung zwischen diesen beiden klimabestimmenden Faktoren her und zeigt einen starkem Zusammenhang zwischen der Southern Oszillation und der niedertroposphärischen Temperatur, und dass die ENSO–Phase einen Hautpteinfluss auf die Temperatur hatte, seit 1958 die regelmäßige und ununterbrochene Messung der niedertroposphärischen Temperatur begonnen hatte.

Den drei Forschern zufolge wird die mit der ENSO–Phase verbundene Erwärmung unter El Niño–Bedingungen durch eine stärkere Hadley–Zirkulation verursacht, die warme tropische Luft in die Mittleren Breiten transportiert. Unter
La Niña–Bedingungen ist der pazifische Ozean kühler und die Walker–Zirkulation, eine Strömung von West nach Ost in der höheren Atmosphäre [= Troposphäre?] über dem Äquator, dominiert.

“Als die Klimamodelle nicht vermochten, den Temperaturverlauf seit 1950 im Nachhinein abzubilden, fügten die Modellierer einige geschätzte Einflüsse von Kohlendioxid hinzu, um dieses Versagen auszugleichen”,

sagt McLean.

 „Das IPCC bekennt in seinem 4. Zustandbericht (4th Assessment Report), dass ENSO–Bedingungen nicht mehr als 12 Monate im Voraus vorhergesagt werden können. Dies bedeutet: Die Ergebnisse von Klimamodellen konnten keine
ENSO–Bedingungen simulieren, obwohl die Temperatur im Wesentlichen durch diese Bedingungen beeinflusst worden war. Es ist daher kein Wunder, dass die Modellergebnisse so ungenau waren, und es ist klar, dass die Simulation zukünftiger Entwicklungen die ENSO–Effekte unbedingt berücksichtigen muss, falls diese Simulationen irgendwie bedeutsam werden sollen“.

Bob Carter, einer von vier Wissenschaftlern, der vor Kurzem die Rechtfertigung für den vorgeschlagenen Emissionshandel in Australien in Frage gestellt hat, sagt, dass dieses Papier signifikante Konsequenzen für die offizielle Klimapolitik hat.

 „Der enge Zusammenhang zwischen ENSO und der globalen Temperatur, wie er in dem Papier beschrieben wird, lässt wenig Raum für die Erwärmung durch anthropogenes Kohlendioxid. Die verfügbaren Daten deuten darauf hin, dass sich die globale Temperatur auch künftig hauptsächlich als Reaktion auf die ENSO–Phasen, vulkanische Aktivitäten und solare Vorgänge ändern wird“.

 „Unsere Arbeit bestätigt, was vielen Wissenschaftlern schon bekannt ist: nämlich dass es keine wissenschaftlich begründete Rechtfertigung für Regulationen der Emissionen gibt, und dass, unabhängig von den ernsten Konsequenzen, ETS (emission trading scheme, der Emissions–/Zertifikatehandel) keinen messbaren Effekt auf das Klima in naher Zukunft haben wird.

Diese Arbeit (1) von McLean et al (2009) zeigt, dass die mittlere globale Temperatur (MSU GTTA) generell mit dem Southern Oscillation Index SOI [googeln!] sieben Monate zuvor korrespondiert. Der SOI ist ein grober Indikator der generellen atmosphärischen Zirkulation und damit von Klimaänderungen. Der mögliche Einfluss eines Vulkanausbruchs auf [der Insel?] Rabaul [im Pazifik] wird gezeigt.

Auszüge aus dem Abstrakt des Papiers, erschienen im Journal of Geophysical Research:

Die zeitliche Abfolge für den Southern Oscillation Index SOI und die globalen troposphärischen Temperaturanomalien (Global Tropospheric Temperatur Anomalies, GTTA) wurden verglichen im Zeitraum 1958 bis 2008. GTTA–Daten stammen von Mikrowellensensoren (Microwave Sensing Units MSU) in Satelliten während des Zeitraums 1980 bis 2008 und von Radiosonden (RATPAC) von 1958 bis 2008. Nach dem Herausfiltern des Datensatzes der Temperaturbeeinflussung durch äquatornahe Vulkanausbrüche nutzten wir Ableitungen (derivatives), um eine enge Verbindung zwischen SOI und GTTA mit einer Verzögerung von 5 bis 7 Monaten zu präsentieren. Änderungen des SOI zeigten in 72% aller Fälle Änderungen der GTTA für die 29 Jahre lange MSU–Reihe und in 68% aller Fälle derartige Änderungen aus den RATPAC–Ergebnissen. Weil bekanntermaßen die El Niño–Southern Oscillation einen starken Einfluss in den Tropen ausübt, haben wir den SOI auch mit den Temperaturanomalien in den Tropen zwischen 20°N und 20°S verglichen. Die Ergebnisse zeigen, dass der SOI für 81% der Varianz der troposphärischen Temperaturanomalien in den Tropen verantwortlich ist. Allgemein legen die Ergebnisse nahe, dass die Southern Oscillation einen fortwährenden dominanten Einfluss auf die mittlere globale Temperatur ausübt, der in den Tropen maximal ist, außer in Perioden, wenn äquatornahe Vulkantätigkeiten für eine kurzfristige Kühlung sorgen. Dass die mittlere globale troposphärische Temperatur in engem Zusammenhang mit dem SOI 5 bis 7 Monate zuvor zumindest während der letzten 50 Jahre gestiegen und gefallen ist, zeigt das Potential von natürlichen Vorgängen auf die meisten Veränderungen der Temperatur.

Eingegangen am 16. Dezember 2008; angenommen am 14. Mai 2009; veröffentlicht am 23. Juli 2009. Ende des Abstrakts

Technische Mitteilung der Ko–Autoren der Studie – 29. Juli 2009

Nicht überraschend hat das Ergebnis, dass nicht die menschlichen Aktivitäten zum größten Teil hinter der Klimaänderung stehen, einen Sturm ausgelöst. In einem Versuch, diese Arbeit zu verunglimpfen, wurde behauptet, dass sie es versäumt, effektiv Trends in der MGT [Mean Global Temperature] zu finden. Dies führt in die Irre und könnte vor allem bei Leuten, die dieses Papier nicht gelesen haben, zu Verwirrung führen. 

In dem Papier von McLean et al werden keine Trends der MGT analysiert; vielmehr untersucht es das Ausmaß, in dem die ENSO für die Variation der MGT verantwortlich ist. Die Forschungen kommen zu dem Ergebnis, dass die MGT während der letzten 50 Jahre in enger Korrelation mit dem SOI 5 bis 7 Monate zuvor gestiegen und gefallen ist. Sie zeigen das Potential natürlicher Mechanismen auf die meisten Veränderungen der Temperatur.

Aus diesem Papier geht eindeutig hervor, dass ENSO (der Wärmeaustausch zwischen Ozean und Atmosphäre) der hauptsächliche Treiber der MGT ist (i. e. El Niños bringen globale Erwärmung, La Niñas globale Abkühlung). Im Vergleich dazu zeigen alle anderen Mechanismen geringe Auswirkungen. Der Grund könnten [Veränderungen der] Hadley–Zirkulation sein, die selbst wiederum mit Änderungen der Wassertemperatur (Wärmebeitrag der Ozeane) verbunden sind;  und der Walker–Zirkulation, d. h. ENSO. Die Hadley–Zirkulation ist der Hauptmechanismus, der dafür sorgt, dass der Wärmeüberschuss aus äquatornahen Gebieten in höhere Breiten transportiert wird, und spielt in der generellen Zirkulation der Atmosphäre eine Schlüsselrolle. Änderungen der Hadley–Zirkulation beeinflussen die Konvektion und damit den Feuchtegehalt der Atmosphäre sowie die Bewölkung, die wiederum Einfluss auf die Sonneneinstrahlung und den Transport von Wärme von der Erde in den Weltraum hat.

Jene, die behaupten, dass [die Bestimmung einer] Korrelation mit Hilfe von Derivaten (Unterschieden) einen linearen Trend herausfiltern, verfehlen den Punkt. McLean et al verwenden diese Methode zur Konstruktion der Abbildungen 4 und 5. Man sollte beachten, dass trendbereinigte Daten ausschließlich dazu benutzt wurden, die Zeitverschiebung zwischen dem Southern Oscillation Index (SOI) und der MGT in den Abbildungen 5 und 6 abzuschätzen. Diese Zeitverschiebung wurde dann in Abbildung 7 benutzt, um die Abhängigkeit der Temperatur von Änderungen des SOI sieben Monate zuvor zu belegen. Abbildung 7 zeigt die Daten in ihrer Originalform; das bedeutet nicht trendbereinigt, aber mit der Zeitverschiebung gewonnen aus trendbereinigten Daten [original: namely, data that is not detrended, but with the time shift in SOI obtained from the detrended data]. Falls ein darunter liegender Trend existieren würde, würde er in Abbildung 7 deutlich werden. Man würde erkennen, dass sich der Verlauf der Temperatur vom Verlauf des SOI entfernt, falls beispielsweise der steigende atmosphärische Kohlendioxidanteil einen signifikanten Einfluss hätte. Es gibt nur wenige oder gar keine Anzeichen dafür.

Die Ergebnisse in Abbildung 7 zeigen eindeutig den engen Zusammenhang zwischen Änderungen der MGT und des SOI zu allen Trends, die es geben könnte, obwohl die Studie von McLean et al danach gar nicht gesucht hat. Die Schlüsselfolgerung der Studie liegt darin, dass die MGT in weiten Teilen durch atmosphärische Prozesse bestimmt wird, die mit der Southern Oscillation zusammenhängen.

Weiteres zu Trends beleuchtet eine vor kurzem abgeschlossene Studie von Compo und Sardeshmukh (Climate Dynamics, 32:33-342, 2009). Das Abstrakt enthält u. a. die Feststellung: „Hiermit wird der Beweis erbracht, dass die jüngste weltweite Erwärmung an Land großenteils einer weltweiten Erwärmung der Ozeane folgte, und nicht in Reaktion auf zunehmende Treibhausgase“.

Mittwoch, 22. Juli  2009 von Marc Morano  –  Climate Depot

aktualisiert: siehe die technische Note von den Co-Autoren vom 29.7.2009 oben

Update 1.9.10: Verlängerung der ENSO Beobachtung bis 2010. Mit Dank an Leser Lüning

Übersetzt von Chris Frey EIKE.

Anmerkung des Übersetzers: Die im Original folgende lange Liste mit Links wurde nicht übersetzt, da es sich überwiegend um Originaltitel handelt.

Alle Einschübe in eckigen Klammern vom Übersetzer, alle anderen Hervorhebungen im Original!

(1) McLean, J. D., C. R. de Freitas, und R. M. Carter (2009), Influence of the Southern Oscillation on tropospheric temperature, (Einfluss der Southern Oscillation auf die troposphärische Temperatur), Journal of Geophysical Research, 114, D14104, doi:10.1029/2008JD011637.

Related Links:

Climate Depot: G8 Leaders embrace ‚climate astrology‘ – Trying to control Earth’s thermostat is ‚madness of our age‘ – July 10, 2009

More Than 700 International Scientists Dissent Over Man-Made Global Warming Claims

Obama’s ‚Climate Astrologer‘: Energy Sec. Chu claims he knows ‚what the future will be 100 years from now‘ — ‚Shouldn’t Chu be touting these scary predictions of the year 2100 on a boardwalk with a full deck of Tarot Cards?‘ – June 28, 2009

Canadian Prime Minister Harper: ‚There Is Going To Have To Be Some Semblance of Global Governance‘ – July 10, 2009

NASA Warming Scientist Hansen Blasts Obama’s ‚Counterfeit‘ Climate Bill – Calls it ‚a monstrous absurdity…less than worthless!‘ – July 9, 2009

Gore’s claim of 10 year climate ‚tipping point‘ was already made by the UN — in 1989!

Earth’s ‚Fever‘ Breaks! Global temperatures ‚have plunged .74°F since Gore released An Inconvenient Truth‘ – July 5, 2009

Another Moonwalker Defies Gore: NASA Astronaut Dr. Buzz Aldrin rejects global warming fears: ‚Climate has been changing for billions of years‘

Climate Depot Report: Gore’s path to become the first ‚Carbon Billionaire‘ – May 2, 2009

Climate Depot Factsheet on the ‚Gore Effect‘ Phenomenon – July 9, 2009

Aussie Geologist: Climate fear is ’new religion for urban populations which have lost their faith in Christianity‘ Gore a ‚prophet‘

Princeton Physicist: ‚The idea that Congress can stop climate change is just hilarious‘ – Warns of ‚climate change cult‘ – July 8, 2009

Climate Depot Editorial: Climate bill offers (costly) non-solutions to problems that don’t even exist – June 30, 2009

Study shakes foundation of climate theory! Reveals UN models ‚fundamentally wrong‘ – Blames ‚Unknown Processes‘ — not CO2 for ancient global warming




Bei Medien und der „Münchner Rück“ nehmen Naturkatastrophen deutlich zu. In der Wirklichkeit ist das anders!

In dem Interview werden die alt-bekannten Katastrophen- und Angstmuster propagiert : gefährlicher Klimawandel, beschleunigter Temperaturanstieg auch im Meer, mehr und stärkere Stürme und Sturmfluten, mehr Überschwemmungen …und so fort ! Nur zwei Dinge – die Entscheidenden – werden den Lesern nicht mitgeteilt :

(1)            Selbst nach 150 Jahren Erderwärmung, deren Ursache keineswegs geklärt oder gar bewiesen ist, finden weder die Wetterdienste dieser Welt noch das stets dafür bemühte IPCC (Weltklimarat) Signale in dieser Hinsicht (vgl.w.u.) ;

(2)            Alle im Interview behaupteten Veränderungen sind keine statistisch signifikanten Beobachtungen, sondern Zukunfts-Projektionen. Jedoch – die  Klimamodelle rechnen noch nicht einmal Prognosen, die schon unsicher genug wären/sind, sondern die Klimamodelle rechnen sgn. Szenarien, die für wirtschaftliche und politische Schlußfolgerungen in gefährlicher Art unbrauchbar sind.

Zu den Interview-Äußerungen von Peter Höppe (PH) im Einzelnen:

(1) PH: Die Häufigkeit und die Intensität von wetterbedingten Naturkatastrophen nehmen weltweit gesehen drastisch zu.“

Anmerkung EIKE: Die Wetterdienste dieser Welt und selbst das IPCC sehen das ganz anders:

(a) IPCC[1] : "Das IPCC konnte auf globalem Niveau keinen Trend bei den Extremwetter-Ereignissen erkennen und zuordnen"

(b) Übereinstimmend damit ist auch die Aussage der Meteorologie-Professoren H.Kraus

und U.Ebel[2]: "Es gibt keine Beweise dafür, daß die extremen Wetterereignisse  –  global betrachtet  –  im 20. Jahrhundert zugenommen haben"

(c) Zum gleichen weltweiten Ergebnis kamen 5 Extremwetter-Kongresse[3] 2006-2010 in Hamburg und Bremerhaven! Dort wurden zwar im Rahmen der Vorträge allerlei Spekulationen zu Klima-Trends geäußert, aber keinerlei signifikante Daten und Beweise für einen nachgewiesenen Trend von Extrem-Ereignissen vorgelegt.

(d) Prof. Dr. Schönwiese auf einem dieser Kongresse[4]:

“Die Aussage, das Klima in Europa sei generell extremer geworden, läßt sich allerdings nicht halten“

(e) Das Nongovernmental IPCC[5] :

 “ Entgegen ständig anders lautenden Behauptungen der Medien sowie einiger Institute zeigen die Wetteraufzeichnungen des letzten Jahrhunderts: Es gibt weltweit keine Zunahme an Zahl und/oder Intensität bei Hurrikanen, Stürmen, Tornados, Unwettern aller Art; der seit Jahrtausenden (letzte Eiszeit) andauernde Meeresspiegel-Anstieg hat sich von Jahrhundert zu Jahrhundert verlangsamt, auf mittlerweile ca. 18 cm im 20. Jahrhundert  –  Tendenz weiter abschwächend!“

(2) PH: Sturmschäden ereignen sich zwei- bis dreimal häufiger.“

Anmerkung EIKE: Wenn es denn mehr Schäden bei Stürmen gibt, so hat das jedenfalls nichts mit zunehmenden Stürmen zu tun, denn einen solchen Trend gibt es weder in Deutschland noch weltweit:

(a)            DWD  (Seewetteramt)[6]:

„Es lässt sich für Mittel- und Westeuropa jedoch bisher keine langzeitliche Zunahme von Stürmen  –  an Stärke und/oder Häufigkeit  –  nachweisen“

(b)            BSH (Hamburg)[7]>: “Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren. Ein generell steigender Trend bei der Häufigkeit und Intensität von Sturmfluten als Vorbote des globalen Klimawandels ist gegenwärtig nicht erkennbar. Schon jetzt sind Küstenschutz und Deiche so ausgelegt, dass sie auch höheren Sturmfluten Stand halten als den bisher eingetretenen"

(c)            Max-Planck-Instituts[8]>(Hamburg): "In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen".

(d)            Das Nongovernmental IPCC[9] :

 “Es gibt weltweit keine Zunahme an Zahl und/oder Intensität bei Hurrikanen, Stürmen, Tornados, Unwettern aller Art…“

(e)            Landesregierung Niedersachsen[10] :

"Klimawandel nicht bemerkbar

Für einen steigenden Meeresspiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen.  Auch ein Trend zu höherer Sturmfluthäufigkeit sei nicht erkennbar, teilte Umweltminister Hans-Heinrich Sander (FDP) im Landtag mit. Danach liegt der Trend des Anstieges bei unverändert 25 cm je Jahrhundert. Ein schnellerer Anstieg sei nicht zu beobachten."

(3) PH: “Der Klimawandel ist auf jeden Fall ein Hauptverdächtiger. Das ist zwar nur ein Indizienbeweis, und den hundertprozentigen Beweis wird man auch nie führen können.“

Anmerkung EIKE: Zumindest vor Gericht  gilt der alte Grundsatz: “Ein Verdächtigter ist solange unschuldig, bis er überführt ist“ ! Dieser Grundsatz gilt nicht für die Münchner Rück ? Und das, obwohl zugestanden wird, daß ’…man den Beweis nie wird führen können’ ?? Auf welcher Basis werden denn da Policen kalkuliert ? Auf allerlei Vermutungen ?

(4) PH: Aber die Extreme, die wir jetzt überall erleben …  passen genau zu den Mustern, die wir nach den Klima-Modellen erwarten. Auch der Bericht des Weltklimarats kommt zu diesen Ergebnissen.“

Anmerkung EIKE: Der Weltklimarat kommt zu keinerlei solchen Ergebnissen, sondern rechnet SZENARIEN für eine virtuelle Zukunft von 100 Jahren ! Was sind die wert ? Einige Belege:

(a) Selbst das IPCC[11] weiß natürlich, daß Klima auf mathematisch-chaotischen Prozessen beruht, deren Differentialgleichungen bisher nur unvollständig bekannt und grundsätzlich nicht nach einfachen Ursache-Wirkungs-Ketten lösbar sind:

IPCC : "In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible".

"In der Klimaforschung und -modellierung sollten wir beachten, daß wir es mit gekoppelten nichtlinearen chaotischen Systemen zu tun haben, und deswegen sind Langzeitprognosen von zukünftigen Klimazuständen nicht möglich"> 

(b)  Hans von Storch[12] (GKSS-Forschungs-Zentrum HH): "Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen"

(c)  MPI HH[13]

Noch weitergehend ist die Aussage der Direktors vom Hamburger Max-Planck-Institut Prof. Jochem Marotzke auf dem kürzlich in Bremerhaven abgehaltenen Wetter-Kongreß: “Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann“

(d)  Gerard Roe und Marcia Baker[14] (Univ. of Washington, Seattle) stellen in einer Studie zur Prognosegüte der Klimamodelle fest, daß man die Computermodelle so viel erweitern mag wie man will, nie wird man zu brauchbaren Ergebnissen kommen: „Kleine Unsicherheiten in vielen einzelnen physikalischen Parametern verstärken sich zu großen Unsicherheiten, und es gibt nichts, was wir dagegen tun können".

Anmerkung EIKE: Diese kleine Auswahl mag genügen, um die Belastbarkeit der Modell-gläubigen Aussagen  von Herrn Höppe zu beleuchten.

 (5) PH:  “In Folge der Erwärmung der Weltmeere um etwa ein halbes Grad in den letzten 30 Jahren vergrößert sich die Verdunstung. Die wärmere Luft kann mehr Wasserdampf aufnehmen und zu den Kontinenten transportieren, wo sie dann als Starkniederschläge abregnen.“

Anmerkung EIKE:  Die Meßdaten belegen das Gegenteil:

(a) Soeben ist eine Arbeit des NASA-Forschers K. TRENBERTH[15] erschienen, die ganz eindeutig die Behauptung von Herrn Höppe widerlegt: Eine Meeres-Erwärmung findet seit mehr als 10 Jahren nicht statt, in den letzten 5 Jahren eher eine Abkühlung.

(b) Eine Übersichts-Studie[16] zum Wasserdampf-Gehalt in der Atmosphäre anhand neuer Literatur kommt ebenfalls zum ganzen Gegenteil dessen, was Herr Höppe behauptet, nämlich:

“… dass der (gemessene) Wasserdampfgehalt der Luft abgenommen hatte während das CO2 zugenommen hatte…“. Dabei wurden u.a. Auswertungen von 35 Jahren Radiosonden-Messungen berücksichtigt.

 (6) PH: “Eine ähnliche Lage hatten wir auch beim Hochwasser im August 2002, der bislang teuersten Naturkatastrophe in Deutschland. Es gibt Hinweise, dass solche Wetterlagen bereits häufiger geworden sind.“

Anmerkung EIKE:  Dazu sagt der Deutsche Wetterdienst[17] ganz was anderes(!):

"Bei extremen Wetterereignissen sind in Deutschland hingegen bisher keine signifikanten Trends zu beobachten gewesen. Auch solche Ereignisse wie die Hochwassersituation 2002 gehören zum normalen Repertoire unseres Klimas."

(7) PH: … dass die Anzahl der jährlichen wetterbedingten Naturkatastrophen stark zunimmt und ebenso die Höhe der volkswirtschaftlichen wie der versicherten Schäden.“

 

Anmerkung EIKE:

(a)             Dabei hat Herr Höppe möglicherweise vergessen, daß sein Kollege T. Grimm auf dem Extremwetterkongreß in Hamburg[18] etwas ganz anderes verlauten ließ:

"… der Hauptgrund für die markant steigenden Schadensummen durch Naturkatastrophen (ist) in den sozio-ökonomischen Bedingungen (Wertekonzentration und Besiedlung exponierter Regionen, Bevölkerungszunahme, höhere Schadenanfälligkeit) zu suchen."

(b)            Mindestens genau so interessant ist es, daß Herr Höppe in einem zum LVZ-Interview parallelen Interview mit der FINANCIAL TIMES DEUTSCHLAND[19] den Klimawandel nur am Rande erwähnt, und statt dessen ganz andere Schwerpunkte für die Schadens-Statistiken setzt:

            “Daß das Ausmaß der Katastrophen immer drastischer wird, ist eindeutig zu erklären: Die Bevölkerung ist gewachsen, die Menschen leben zunehmend in Risikogebieten, zudem sind die betroffenen Sachwerte heute höher als früher“, sagte Höppe. Und weiter im Text FTD: “ … In den Entwicklungsländern ist die Bevölkerungszahl in den letzten Jahrzehnten explodiert. Die Menschen zieht es in die fruchtbaren Küstenregionen, wo sie als Bauern oder Fischer ihren Unterhalt verdienen können – aber auch alles verlieren, wenn die Flut kommt. In den entwickelten Ländern dreht es sich schlicht um höhere Sachvermögen, wie der Hurrikan KATRINA zeigte, der die US-Küste 2005 heimsuchte.“  …und weiter Höppe a.a.O.: “Die Schäden müssen nicht zwangsläufig zunehmen, wenn man Präventionsmaßnahmen ergreift“, sagte Höppe. “Vielleicht wird die Zukunft nicht so teuer wie 2010,“ … meint die FTD.

(c)            Der Schweizer Rückversicherer SWISS-RE kommt ebenfalls zu einem ganz anderen Ergebnis[20] als Herr Höppe im LVZ-Interview:

“Die Katastrophen-Schäden unterliegen starken Schwankungen, wobei der jährliche Aufwärts-Trend bei den weltweiten Versicherungs-Schäden in US-Dollar zehn Prozent beträgt. Gründe dafür sind nach Angaben von Swiss Re höhere Einkommen, steigender Wohlstand, die zunehmende Wert- und Wohlstands-Konzentration in gefährdeten Regionen sowie ein Trend zu einem stärkeren Versicherungs-Schutz. (Anm.: Und kein Wort zum Klima !)

(d)            Daß es manchen Rückversicherern nicht um das Klima, sondern möglicherweise mehr um ihre Policen geht, formuliert der GKSS-Professor Hans von STORCH[21] so:

“Ein recht bekanntes Bild zeigt … zunehmende Schadenskosten aufgrund extremer Wetterereignisse. Der größte Anteil steht mit Stürmen in Verbindung. Beim ersten Betrachten könnte man versucht sein, dieses als Beweis zu akzeptieren, daß es immer häufigere oder heftigere extreme Wetterlagen gäbe.  Aber dieses ist nicht der Fall … Ein unverändertes Sturmklima geht einher mit deutlich höheren Schäden als früher. Es  ist also zuallererst eine Darstellung des zunehmenden Wohlstandes … Derartige Diagrame stammen aus der Versicherungsindustrie, die natürlich keine Einwände gegen den Eindruck eines erhöhten Wetterrisikos haben kann, verbessert dies doch die Marksituation.“

(e)            Auch die Medien werden zunehmend mißtrauischer gegenüber Klima-Katastrophen-Aussagen, die aus der Versicherungs-Wirtschaft kommen, wie hier jüngst die FAZ[22]:

“Leichter war es in den vergangenen Tagen, wie Kleber im Nachrichtenjournal einen einschlägigen Klimawandelspezialisten, in dem Fall dummerweise einen aus der größten Rückversicherung, die logischerweise gern vor dem Klimawandel warnt, weil sie gerne Klimaschutzpolicen verkauft, zu befragen (Anm.: zu den Katastrophen im Sommer 2010) und sich die auf den ersten Blick plausibelste Antwort abzuholen: Die von Treibhausgasen beschleunigte Erwärmung der Luft …“

F A Z I T :

Das Versicherungs-Klima des Herrn Höppe unterscheidet sich diametral vom Klima+Wetter der Natur ! 

Dipl.-Meteorologe Klaus-Eckart Puls,  EIKE

Mehr dazu von Klaus Puls hier "Viel Wind um nichts" oder "Der Klimawandel; Katastrophe ohne Wettersignale" als pdf im Anhang


[1] Beising, R.: Klimawandel und Energiewirtschaft, VGB PowerTech Service GmbH, Essen, 2006, S.137

[2] Kraus H.; Ebel U.: Risiko Wetter, Springer Berlin, 2003, S.8

[3] (1) WETTERmagazin, 04/2006; (2) DMG-Mitt. 2/2007, S.2-3; (3)3.ExtremWetterKongreß, Das Programm, Vortr.-Zusammenfassungen, März 2008, HH; (4) 4.ExtremWetterKongreß, Programm u. Vortrags-Kurzf., B’hv 19.-21.02.2009, (5) B’hv 4.-6.3.2010

[4] Prof. Dr. Chr. Schönwiese, Klima-Trend-Atlas, Extremwetterkongreß HH 2008, nachzitiert SZ 27.03.2008, Wissen

[5] Nature, Not Human Activity, Rules the Climate (pdf), http://www.heartland.org/Article.cfm?artId=22835

[6] G. Rosenhagen, Zur Entwicklung der Sturmaktivität in Mittel- und Westeuropa, promet, H.1/2, 2008, S.60 

[7] PreMt BSH, 26.09.2007, http://www.bsh.de/de/Das%20BSH/Presse/Pressearchiv/Pressemitteilungen2007/28-2007.jsp

[8]Jochem Marotzke, Direktor MPI HH, in DER SPIEGEL, 7.5.2007, Abschied vom Weltuntergang,  S.145

[9] Nature, Not Human Activity, Rules the Climate (pdf), http://www.heartland.org/Article.cfm?artId=22835

[10] NZ, 04.02.2010, S.4

[11] (IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774)

[12] DER SPIEGEL, 11/2007, S.56

[13] J. MAROTZKE, in: 4. ExtremWetterKongreß, Programm u. Vortrags-Kurzfassungen, 51, “Wenn die Erde zum Eisball wird“

[14] Science, Bd.318, S.629, 2007

[15] TRENBERTH, K.E. and FASULLO, J.T.:  Tracking Earth’s Energy, SCIENCE, Vol.328, 16.04.2010, S.316-317

[16] Prof. Dr. C.O. Weiß: “Die Klimasensitivität von CO2“, http://www.eike-klima-energie.eu/news-anzeige/die-klimasensitivitaet-von-co2/

[17] Mitteilungen der Deutschen Meteorologischen Gesellschaft, 3/2002, S. 2

[18] T.Grimm, Münchener Rückversicherung, ‚Starke Zunahme der Schäden durch Hurrikane‘; in: WETTERmagazin 04/2006, S.31.

[19] Eine Welt voller Katastrophen, FTD, 20.08.2010, S.13

[20] dpa in: ; NordseeZtg., 17.03.2010, S.8, “…Katastrophen in 2009“ ;

[21] Prof. Dr. Hans von Storch, Veränderliches Küstenklima, Mitt. OVR 61, 6 (2006), S.227-240

[22] FAZ, 12.08.10, S.27, Feuilleton, JOACHIM MÜLLER-JUNG : “Die Katastrophe hat sich festgefressen“

 

Related Files




Der letzte Nagel im Sarg der Hockeyschlägerkurve!

Bei der berühmten Website Watts up with that liest man dazu:

"Dieses Papier ist eine unmittelbare und ernsthafte Widerlegung der Proxy-Rekonstruktionen von Mann. Es scheint auf den ersten Blick wasserdicht zu sein,  denn anstatt die Datenqualität der Proxydaten anzugreifen, nimmt man darin an, die Proxy-Daten seien für diese Zwecke genau genug und erzeugt dann eine Rückschau nach der Bayes-Methode. Dann, indem sie (die Autoren) eben diese Proxydaten einsetzten, zeigten sie, dass es es nicht gelang den scharfen Anstieg des 20. Jahrhunderts zu reproduzieren." 
Der Originaltext:

“This paper is a direct and serious rebuttal to the proxy reconstructions of Mann. It seems watertight on the surface, because instead of trying to attack the proxy data quality issues, they assumed the proxy data was accurate for their purpose, then created a bayesian backcast method. Then, using the proxy data, they demonstrate it fails to reproduce the sharp 20th century uptick.” 

Mit Dank an Dirk Maxeiner von ACHGUT, ausführlicher Bericht in Englisch hier




Zur Bestimmung der Seewassertemperaturen: Ein Schiff wird kommen…

Ja, das ist tatsächlich so. Man mag es sich kaum vorstellen, aber auf diese Weise entstand und entsteht ein Großteil der Daten, auf denen die Idee von der Klimakatastrophe beruht.

Die „mittlere globale Temperaturanomalie“ ist seit längerem eines meiner Lieblingsthemen (“Drei Anmerkungen zu zwei Grad“, “Diagnose Klimafieber”, Novo Argumente Nr. 103, 11/12-2009). Ich bezweifle, kurz gesagt, die Validität ihrer Bestimmung. Anders ausgedrückt sehe ich klare Indizien, daß sie genau das nicht repräsentiert, was sie eigentlich repräsentieren soll: Die mittlere Temperatur der bodennahen Luftschichten, die sich einstellen würde, wäre die Erdatmosphäre im thermodynamischen Gleichgewicht.

Es gibt dafür physikalische Argumente, aber auch die Fragestellungen des Verfahrens (Messung und Modellierung) sind von großer Bedeutung.

Eine sehr gelungene Darstellung der Ungereimtheiten in den Verfahrensfragen liefert nun Ross McKitrick in einem aktuellen Report. Er hat darin so ziemlich alles zusammengestellt, was der Öffentlichkeit über die Bestimmung der mittleren globalen Temperaturanomalie bekannt ist. Sowohl hinsichtlich der Durchführung der Messungen, als auch hinsichtlich deren Homogenisierung und Anpassung.

Letztere sind erforderlich, da man aus den Messungen ein Klimasignal, einen langjährigen Trend ableiten möchte. Die Daten der Wetterstationen (und der Eimer) sind  daher von Kontaminierungen durch Änderungen der Meßinstrumente, des Standortes, der Bebauung und Besiedelung, der Landnutzung und lokaler Emissionen (bspw. Staub) zu befreien (u.a.). Erstens sind diese für eigentlich alle Standorte nicht ausreichend dokumentiert (Eimer aus Holz? – oder aus Metall?) und zweitens wüßte man wahrscheinlich auch im gegenteiligen Falle nicht wirklich, damit umzugehen. Also behilft man sich mit statistischen Verfahren. Schlußendlich, und das ist immer wieder zu betonen, stellen die bekannten Datenreihen der Temperaturanomalie keine Messungen dar, sondern Berechnungen anhand entsprechender Modellannahmen.

McKitrick faßt die Essenz seiner Untersuchung wie folgt zusammen (in meiner freien deutschen Übersetzung):

Es existieren ernstzunehmende Qualitätsprobleme in den Datensätzen der Oberflächentemperaturen, die deren Kontinuität und Genauigkeit in Frage stellen. Nutzer sollten sich dieser Beschränkungen, vor allem hinsichtlich politischer Schlußfolgerungen, bewußt sein.

Ich kann den Report nur zur Lektüre empfehlen. Und es ist immer wieder interessant zu sehen, wie die Climategate-Mails helfen können, offene Fragestellungen genauer zu charakterisieren. Diese Hilfestellung war von den beteiligten Wissenschaftlern wohl eher nicht intendiert.   Außerdem legt McKitrick dar, daß die Dekontaminierung der Messungen von den oben genannten lokalen Effekten wohl doch nicht ganz so perfekt ist, wie immer behauptet.

Da sind noch ein paar Löcher im Eimer.

Dr. Peter Heller; mit freundlicher Genehmigung; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (BETA):




Focus Online, 05.02.08, 08:25 Klimawandel Forscher benennen neun Schlüsselstellen

Eisschild, Meereis, Wälder – über 80 weltweit führende Klimaexperten(!!!???) haben sich auf neun Elemente geeinigt(?), die unser Klima zum Kippen bringen können (1.Konjunktiv).

Das Grönlandeis gehört zu den neun Kippelementen für das Klima. Der Grönländische Eisschild und der Amazonas-Regenwald gehören nach Ansicht führender Klimaforscher zu den neun Schlüsselstellen des Klimawandels. In diesen Bereichen könnten (2.Konjunktiv!) schon kleine Veränderungen riesige Auswirkungen haben – die Systeme könnten  (3.Konjunktiv!)  leicht kippen, schreiben der Leiter des Potsdam-Instituts für Klimafolgenforschung, Hans Joachim Schellnhuber, sein Mitarbeiter Stefan Rahmstorf und britische Wissenschaftler in den "Proceedings" der US-Akademie der Wissenschaften (PNAS, online vorab veröffentlicht).

In ihrem Artikel berücksichtigten die Wissenschaftler die Ergebnisse eines Workshops mit 36 führenden Klimaforschern sowie eine Befragung von 52 Experten. Zudem werteten sie die bestehende wissenschaftliche Literatur aus. Sie einigten sich auf neun sogenannte “Kipp-Elemente“, die ihrer Ansicht nach in der Klimapolitik besonders berücksichtigt werden sollten (4.Konjunktiv!). Als besonders anfällige Kippelemente benannten die Forscher den Grönländischen Eisschild und das arktische Meereis. Wenn (1. Konditional-Konstruktion des Ortes und der Zeit!) das arktische Meereis schmilzt, kommt darunter die dunklere Wasseroberfläche hervor. Da sie den Forschern zufolge mehr Sonnenstrahlen aufnehmen würde (5.Konjunktiv!)  als weiße Eisflächen, würde (6.Konjunktiv!) die Erwärmung dadurch verstärkt. Das übrige Eis schmölze  (6.Konjunktiv!)  dann schneller. Die kritische Grenze liegt bei 0,5 bis zwei Grad (…dürfen es auch ein paar Grad mehr oder weniger sein?) Celsius Erwärmung, sodass die Arktis bereits in wenigen Jahrzehnten im Sommer eisfrei sein könnte  (7.Konjunktiv!).

Meeresanstieg um sieben Meter möglich (8.Konjunktiv!) (dürfen es auch ein paar Meter mehr oder weniger sein?).

Die Klimaforscher glauben (…bisher dachte ich immer, Religion "glauben"  und Wissenschaft "wissen" seien unterschiedliche Dinge??),  dass schmelzende Gletscher beim Grönländischen Eisschild zunächst den Rand des Schildes abtragen, was zu weiterer Erwärmung und Eisverlust führen würde (9.Konjunktiv!).  Wenn (2. Konditional-Konstruktion des Ortes und der Zeit!) die Temperatur dort um mehr als drei Grad Celsius anstiege (10.Konjunktiv!), könnte (11.Konjunktiv!) der Eisschild bereits innerhalb von 300 Jahren abschmelzen und der Meeresspiegel um sieben Meter steigen. Auch der Westantarktische Eisschild könnte  (12.Konjunktiv!)  in dieser Zeit abtauen, dessen Kipppunkt liege (13.Konjunktiv!)  bei einer Erwärmung der Region von fünf bis acht (!!!) Grad, heißt es in dem Artikel der Klimaexperten(!!!).

Zu den neun Schlüsselstellen des Klimawandels zählen auch die Borealwälder, die sich direkt südlich des Polarkreises vor allem auf russischem und kanadischem Gebiet als grüner Gürtel um die nördliche Hemisphäre legen. Sie werden nach Forscheransicht bei drei bis fünf Grad Erwärmung durch Trockenheit und Hitze im Sommer sowie Krankheiten innerhalb von 50 Jahren zu einem großen Teil absterben. Sie machen rund ein Drittel des weltweiten Waldbestandes aus. Gefährdet ist auch der Amazonas-Regenwald. Er werde durch Abholzung und Erwärmung derart geschädigt, dass er nach Modellaussagen in dieser Zeitspanne ebenfalls großflächig zerstört sein könnte (14. Konjunktiv!). Für die Sahara, die Sahelzone und die Region südlich davon sei noch unklar (erstaunlich, daß bei solchen Experten noch etwas unklar ist!!??) , ob sie infolge der Klimaverschiebungen trockener oder feuchter werden als bisher.

Als weitere Kippelemente benannten Schellnhuber und seine Kollegen das Klimaphänomen El Niño, den indischen Sommermonsun und den großen Wasserkreislauf im Atlantik, die sogenannte thermohaline Atlantikzirkulation.

Kursive Anmerkungen von K.E. Puls Dipl. Meteorologe EIKE




Globaltemperatur zu hoch? ( (II)) Weltbekannte Klimawissenschaftler äußern sich zum ‚Satelliten-Gate’ Skandal!

In dem in Anlehnung an frühere Begriffe einer immer mehr eskalierenden Reihe ‚Satellite-Gate’ genannten Skandal gibt es immer mehr Beweise, dass NOAA über diese Fehler seit Jahren Bescheid wusste. Weltbekannte Klimawissenschaftler und sogar frühere Berichte der Regierung nennen Unterfinanzierung und Misswirtschaft als Auslöser für die immer steiler werdende Spirale der katastrophal schlechten Satellitendaten. Grundlegende Fehler bei fünf Satelliten unterminieren die globalen Daten.

Am meisten verstört die Tatsache, dass erst die Veröffentlichung meines Artikels in der vergangenen Woche die Behörden dazu gebracht hat, den fehlerhaften Satelliten NOAA-16 außer Betrieb zu nehmen. Aber worauf Dr. John Christy hinweist, das reale ‚Satelliten-Gate’ gilt nicht nur für einen Satelliten. Der Skandal ist viel verbreiteter mit vergleichbaren Fehlern im gesamten Netzwerk; der Skandal besteht auch darin, dass es eines Tipps aus der Öffentlichkeit und der weithin ausgestrahlten Sendung meines Artikels bedurfte, bevor eine der herausfordernden Müllbehälter, NOAA-16, abgeschaltet wurde.

Leser, die die Details verpasst haben, als die sensationelle Geschichte zum ersten Mal ruchbar wurde, können hier nachlesen: Climatedepot.com.

Der oberste Programmadministrator bei NOAA, Chuck Pistis, versuchte zunächst unaufrichtig, meinen Bericht zu diskreditieren und die Angelegenheit mit Desinformationen reinzuwaschen. Tatsächlich könnten wir einen rauchenden Colt haben, wenn wir die jüngsten Verlautbarungen mit den falschen Daten des satellite’s AVHRR Subsystem Summary [etwa: Zusammenstellung der AVHRR–Daten des Satelliten] vergleichen. [AVHRR = Advanced Very High Resolution Radiometer = hochauflösende Fernerkundung mittels Radar].

Die offizielle Zusammenstellung enthält keinerlei Hinweise über irgendeine ‚Sensorverschlechterung’ (‘sensor degradation’) seit dem Start des Satelliten im September 2000. Und doch, wie ich von Spitzenklimawissenschaftlern zuverlässig informiert wurde, wurden NOAA diese Fehler schon vor Jahren mitgeteilt.

Trotzdem ließ die US–Agentur weiterhin die fehlerhaften Daten zahlreichen internationalen Institutionen zukommen, ohne darauf hinzuweisen, dass die Satellitensensoren “verschlechtert” worden waren und deren Daten unzuverlässig waren, um die Klimaänderung zu untersuchen.

NOAA-16 wurde als ein Satellit im Polarorbit mit Instrumenten und Sensoren für AMSU [siehe Link], AVHRR und High Resolution Infrared Radiation Sounder (HIRS) ausgerüstet. Letzte Woche hat jemand aus der Öffentlichkeit das katastrophale Scheitern dieser Instrumente entdeckt. Dr. John Christy lenkte meine Aufmerksamkeit auf spezielle begleitende Fehler, die er entdeckt und vor Jahren dem AMSU mitgeteilt hatte.

Befürchtet NOAA jetzt eine Flut internationaler juristischer Klagen?

Der ausrangierte Satellit war ununterbrochen in Betrieb, bis er kurz nach Erscheinen meines Artikels (am 10. August 2010) vom Netz genommen wurde. In dem Artikel habe ich in vollem Umfang dargelegt, wie ernsthaft fehlerhaft die Sensoren waren. Die automatischen Messungen waren durchsetzt mit Hunderten, wenn nicht Tausenden falscher und absurd hohen Temperaturmessungen, einige davon so hoch wie 612°F (der Siedepunkt des Wassers liegt bei 212°F). Wir wissen jetzt, dass NOAA mindestens seit 2006 über diese hanebüchenen Anomalien im Bilde war, aber nie darauf hingewiesen hat (siehe unten).

Besorglicherweise wurde von NOAA nicht bekannt gemacht, wie viele Nutzer der Daten (hauptsächlich international tätige Meteorologen und Klimaforscher) von den falschen Daten betroffen waren. Aber wir wissen, dass die automatischen Messwerte weltweit verbreitet worden waren und dass deren Werte der Land- und Wassertemperatur von Klimawissenschaftlern in ihren Modellen verwendet wurden, seit der Satellit im September 2000 gestartet wurde. Als Konsequenz und ohne volle Offenlegung durch NOAA muss befürchtet werden, dass unzählige wissenschaftliche Studien über global steigende Temperaturen jetzt nur noch Makulatur sind.

Man kann darüber spekulieren, warum NOAA so zögerlich war und so gravierende Fehler so lange nicht zugegeben hat. Vielleicht aus Furcht vor einer Fülle juristischer Klagen von den Nutzern der Daten, hauptsächlich nationale Regierungen und Forschungsinstitute an Universitäten. Nur aufgrund dieser Daten stimmen die meisten Wissenschaftler darin überein, dass sich unser Planet während des zwanzigsten Jahrhunderts um 0,6 K erwärmt hat (mit einer Fehlergrenze von 0,5 K – aber diese Fehlergrenze sieht jetzt völlig bedeutungslos aus).

Aus der Analyse der schwindlerischen Temperaturwerte, bevor NOAA diese aus dem Netz nahm, könnte sich ergeben, dass fast alle falschen Messungen der Temperatur weit außerhalb der erwarteten Mittelwerte liegen – viele durch einen Faktor vier oder fünf – fast keiner dieser Werte lag niedriger als das Mittel.

Die US–Regierung hat das zunehmende Scheitern im Rahmen von Satellite-Gate vorausgesehen.

Aber es war nicht nur eine Handvoll skeptischer Klimatologen, die Alarm geschlagen haben. Die National Academy of Sciences ist in ihrem 2007 erschienenen, 455 Seiten starken Bericht zu dem Schluss gekommen, dass wegen der Verschlechterung (degradation) im Satellitennetzwerk der USA die Möglichkeiten der Nation, Klima und Unwetter zu überwachen, in „großer Gefahr“ sind.

Zufällig in der gleichen Woche, in der mein Artikel zur Abschaltung von NOAA-16 geführt hatte, hat Susan Bohan ihren exzellenten Artikel hier veröffentlicht, in dem sie die breiter angelegten Systemfehler in größerem Rahmen innerhalb des Satellitennetzwerkes bloß stellte. Neben vielen anderen katastrophalen Fehlern berichtet Bohan: „Der Satellit Landsat 7 ist defekt. Und das ist symptomatisch für das angeschlagene Programm der Nation zur satellitengestützten Überwachung der Umwelt“.

Die Bezeichnung ‚Satelligate’ wurde von dem Blog CO2insanity.com geprägt, nachdem man auf das Problem aufmerksam gemacht worden war.

Mindestens fünf Satelliten zu Messungen des Klimas sind betroffen

Dummerweise basierte Bohans Artikel nicht auf irgendwelchen unbegründeten, von ‚big oil’ finanzierten Desinformationen von Seiten der Skeptiker, sowieso ein immer mehr verblassender Mythos, sondern auf einem Bericht des Accountability Office der
US–Regierung (GAO). GAO räumte ein, dass neun neue Klimamessinstrumente in der jüngsten Satellitengeneration bereits 2006 außer Betrieb genommen oder ihre Kapazitäten begrenzt wurden. GAO ist die ausführende Institution des US–Kongresses.

Als Konsequenz wurden mindestens fünf dieser Satellitenprogramme als entweder abgeschaltet oder als ernsthaft betroffen identifiziert:

  • Landsat 7 (Gegenwärtig im Orbit) ist defekt mit der Folge von Datenlücken. Wissenschaftler bekommen nicht alle Informationen, die sie bekommen sollten.
  • NPOESS (National Polar-orbiting Operational Environment Satellite) wird keine Sensoren haben, die den Energieausstoß der Sonne auf den 2. und 4. Satelliten misst.
  • Bei dem GOES-R (Geostationary Operational Environmental Satellite-R Series) wurden 14 Sensoren abgeschaltet. Daten über die Höhe der Wolkenuntergrenze, die Ozonschicht, die Farbe und Turbulenz des Ozeans, Wolkenbildung, Schneebedeckung etc. wurden effektiv neutralisiert.
  • Kein Sensor [zu Messungen] der Bewegung von Treibhausgasen und Verschmutzungen. Kein Sensor, um Änderungen der Temperatur auf der Erde mit der Zeit zu erfassen. (NOAA hat sich nicht einmal dazu herabgelassen zu versuchen, Zuwendungen dafür zu erhalten, um die eliminierten Sensoren zu halten!).
  • Der Sensor, der messen sollte, wie die Temperatur der Erde auf Änderungen der Solarstrahlung reagiert, wurde im Juni 2010 von der Regierung Obama abgeschaltet.

Vielleicht ist es kein Zufall, dass die gegenwärtige Vorsitzende von NOAA, Dr. Jane Lubchenco, handverlesen von Präsident Obama, erklärt hat, ihre Agentur würde ihre Rolle bei der Entwicklung einer grünen Wirtschaft spielen.

Ungeachtet der Ausgaben der US–Regierung in Höhe von über 80 Milliarden Dollar für die Klimaforschung hat daher das Scheitern der Zuteilung ausreichender Mittel für das Satellitenprogramm zu einer ernsthaften Vertrauenskrise des gesamten Datensatzes geführt (Hinweis: Die Kosten für einen typischen NOAA–Satelliten belaufen sich auf etwa 11 Millionen Dollar,  und das Netzwerk holt diese Millionen durch den weltweiten Verkauf der Daten für die US–Regierung wieder herein).

Beweise von Klimaexperten deuten auf Verschwörung zum Betrug

Dr. Roy Spencer kommentierte: „Was auch immer mit NOAA-16 (oder der Software) passiert ist – offensichtlich waren GEWALTIGE Fehler enthalten. Wir hatten immer Probleme mit AMSU von NOAA-16 und haben [dessen Daten] vor langer Zeit fallen gelassen. Sie hatten solche Verzerrungen, dass sie für die Klimaüberwachung unbrauchbar waren“.

Dr. Christy benannte Fehler ausschließlich für die AMSU–Instrumentierung und nicht Probleme mit dem AVHRR–System. Er riet mir: „Wir haben 2006 eine Menge Zeit verbracht, um zu versuchen, mit den Daten von NOAA-16 zu arbeiten, aber die Fehler waren so unberechenbar, dass wir am Ende nicht anders konnten, als sie als eine unserer Grundlagen unseres Datensatzes zu eliminieren“.

Wie viele Analysten schon seit Langem angemerkt hatten, gehen diese Fehler noch weit über die schockierend absurden Messwerte von 604°F, gemessen in Egg Harbor im  US–Bundesstaat Wisconsin, hinaus.

Dr. Timothy Ball, Klimaberater des Militärs und Hauptautor eines neuen Buches, in dem die Treibhausgastheorie verworfen wird, meint: „Bestenfalls deutet der gesamte Vorgang auf große Inkompetenz, schlimmstenfalls auf einen absichtlichen Versuch, eine Temperaturaufzeichnung zu konstruieren, der zum politischen Tagesgeschäft passt“.

Die Mainstream–Medien sind blind für einen neuen ‘Gate’–Skandal

2006 haben Christy und Spencer versucht, eine technische Analyse der NOAA-16 AMSU zu vervollständigen, aber Christy legte offen, dass es „sehr ermüdend war, und dass wir eine Menge Wege verfolgten, die sich alle als Sackgassen herausstellten“.

Solche erschreckenden Fakten erscheinen einfach nicht in den Nachrichten der
Mainstream–Medien, und während der ganzen Zeit ringen die Forscher vergeblich darum, Schritt zu halten mit den immer größer werdenden Datenlücken wegen der fortgesetzten Abschaltung von Sensoren. Zum Beispiel, jeden Monat arbeitet Dr. Christy mit Dr. Spencer daran, das sich ständig ändernde Patchwork der Datensätze der globalen Temperatur zusammen zu stückeln, das von ganzen elf Instrumenten auf elf verschiedenen Satelliten seit 1979 geliefert wird.

Bei einem so langen Zeitraum war vermutet worden, dass kosmische Strahlen oder Partikel die hoch empfindlichen Geräte an Bord der Satelliten [in ihrer Funktion] beeinträchtigt haben könnten.

Spencer veröffentlicht seine Ergebnisse auf seinem Blog, während Christy seinen umfassenderen Bericht der Satellitenprobleme hier veröffentlicht.

Werden systematische Messfehler sogar noch mehr Leben kosten?

Der wegen seiner in der Welt führenden Wettervorhersagen international respektierte Piers Corbyn der Website Weatheraction.com ist ein anderer Experte, der sich über die skandalösen Ausfälle im Satellitennetzwerk beklagt.

Piers tobte im Blog der Climate Realists: „Diese Enthüllung bestätigt einmal mehr, was ich und Tom Harris dem Fernsehsender Russia Today am 5. Februar 2010 gesagt haben, nämlich dass WIR EINFACH NICHT verlässlich WISSEN, wie die Temperaturen der Welt sind und wie sie sich im letzten Jahrzehnt oder Jahrhundert verändert haben“.

Corbyn hat die westrussische Hitzewelle dieses Sommers korrekt vorhergesagt, ebenso wie eine generelle Zunahme SEHR extremer Ereignisse (bestätigt durch die horrenden Überschwemmungen in Pakistan und China sowie die „Superkälte“ in Teilen der Südhalbkugel), und zwar Wochen und Monate im Voraus.

Eine wachsende Liste von Ausfällen der satellitengestützten Erfassung der globalen Erwärmung

Satelligate weist auf noch eine andere, wütend machende Praxis der Regierung hin, frisierte Zahlen der globalen Erwärmung zu verbreiten. Trotz der jahrelangen drängenden Forderungen von Wissenschaftlern auf allen Seiten der Debatte zur globalen Erwärmung  nach mehr Transparenz und besserem Zugang zu den Daten, haben eifrige Erfüllungsgehilfen innerhalb der NASA und der CRU in Britannien solche Anfragen stets abgelehnt und ungesetzlicherweise Forderungen des Freedom of Information Act FOIA [etwa: Gesetz zum freien Zugang zu Informationen] verletzt.

Wie schon bei WattsupWithThat erwähnt, sind solche Fehler und Defizite zusammen mit glattem Datenbetrug lange Zeit unter den Teppich gekehrt worden. Damit wurden noch mehr Leben in Gefahr gebracht.

Tatsächlich hat sich das öffentliche Vertrauen in die Verlässlichkeit offizieller Warnungen vor der Apokalypse durch die Lieferanten der von NOAA hinausposaunten gefälschten Daten in zunehmenden Zynismus gewandelt. Eine wachsende Zahl von Steuerzahlern verleiht ihrer Opposition zu der eilfertigen Einführung immer höherer Steuern Ausdruck, die den Lebensstandard der Ersten Welt beeinträchtigen, vor allem, weil sie eingeführt werden sollen, bevor die wirklichen Tatsachen feststehen.

Fragen, auf die NOAA die Antworten verweigert

Angesichts der Tatsache, dass NOAA offiziell lediglich zugegeben hat, “Bilder” aus ihren Archiven nur zurückgezogen zu haben, ohne all die falschen Daten zu erwähnen, die ebenfalls auf den Müll geworfen wurden, habe ich die folgenden und immer noch unbeantworteten Fragen an Dr. Jane Lubchenco von NOAA gestellt:

  • Welche Schritte haben Sie unternommen, um Umfang und Ausmaß dieser Datenfehler zu ermitteln, und was wird unternommen, dass sich so etwas in Zukunft nicht noch einmal ereignet?
  • Haben Sie herausgefunden, ob diese Temperaturfehler andere Daten und Ergebnisse beeinträchtigen; im Besonderen, unterminieren diese Vorkommnisse in irgendeiner Weise die Glaubwürdigkeit offizieller Verlautbarungen der Regierung, die schon über Klimaänderungen gemacht wurden, und falls ja, wie stark?

Bis Lubchenco darauf eindeutige Antworten gibt, fürchte ich, dass hier ein neuer ‘Phil Jones’ erzeugt wird. Ohne volle Transparenz und eindeutige Antworten wird der endlose Medienhype über die Gefahren der sogenannten ‚Treibhausgastheorie’ das bleiben was er ist – ein Hype.

 John O´Sullivan; Montag, 16. August 2010 Original in Canada Free Press hier

Übersetzt von Chris Frey. Alle Einschübe in eckigen Klammern vom Übersetzer. Fett Hervorhebungen EIKE Redaktion; Sämtliche anderen Hervorhebungen im Original.




Globaltemperatur zu hoch? (I) NOAA (amerik. Wetterbehörde) bestätigt:Globale Erwärmung der Dekade wg. defektem Satelliten zweifelhaft!

Der Fehler wurde nach einem Hinweis eines anonymen Teilnehmers am klimaskeptischen Blog Climate Change Fraud (siehe Originalartikel) entdeckt (am 9. August 2010).

Mitten im Zentrum dieser Kontroverse steht die vom Steuerzahler finanzierte National Oceanic and Atmospheric Administration (NOAA, [der amerikanische Wetterdienst, A. d. Übers]). Der Koordinator von NOAA Chuck Pistis hat jetzt bestätigt, dass die sich rasch herum sprechende Geschichte auf dem angesehenen klimaskeptischen Blog wahr ist.

Jedoch hat Chuck Pistis, der auch als Sprecher von NOAA fungiert, es abgelehnt zu sagen, wie lange dieser Fehler unentdeckt wirken konnte. Auch würde sich der gebeutelte Sprecher nicht in Spekulationen darüber verlieren, wie groß der Schaden für die Glaubwürdigkeit einer ganzen Dekade von Temperaturmessungen des problematischen Satelliten ‚NOAA-16‘ sei.

‚NOAA-16‘ wurde im September 2000 gestartet und wird derzeit operationell genutzt. Sein sonnensynchroner Orbit verläuft 849 km über der Erde und dauert 102 Minuten. Dabei ermittelt er automatisch Temperaturdaten der Erdoberfläche, die genauso automatisch in Klimamodelle einfließen.

NOAA hat von einer ganzen Folge rekordwarmer Temperaturen während der letzten Jahre berichtet, die auf Satellitenmessungen beruhten, aber diese könnten jetzt alle Makulatur sein.

Der weltbekannte kanadische Klimatologe Dr. Timothy Ball erklärte nach einem Expertenblick auf die schockierenden Ergebnisse: „Bestenfalls deutet dieser ganze Vorfall auf große Inkompetenz, im schlimmsten Fall auf einen verzweifelten Versuch, Temperaturrekorde zu konstruieren, die zum politischen Tagesgeschäft passen“.

Die großen, physikalisch nicht möglichen Fluktuationen der Temperatur der Großen Seen [Die Seenplatte zwischen USA und Kanada um Chicago, A. d. Übers.]

Wissenschaftler, die die Satellitendaten der Großen Seen auswerteten, waren die ersten, die Alarm schlugen, nachdem ihnen die völlig verzerrten Daten durch eine ganze Reihe unmöglich hoher Temperaturwerte aufgefallen waren. NOAA räumt ein, dass die maschinell aufbereiteten Daten nicht ununterbrochen aufgezeichnet worden waren, so dass die Unstimmigkeiten in der Masse der anderen automatisierten Daten verborgen geblieben waren.

In einem Beispiel, dass nach meinem Artikel rasch von NOAA entfernt wurde, zeigten die Daten von Juni und Juli für den Michigan–See völlig absurde Temperaturwerte, die niedrige bis mittlere Hunderterwerte Fahrenheit [ca. 35 bis 40°C] zeigten – und einige Gebiete des [US-Bundesstaates] Wisconsin mit Werten bis 612 F [weit über 100°C]. Mit der jetzt ans Licht kommenden immer größeren Anzahl solcher Fehler hat die diskreditierte NOAA den gesamten Datensatz der öffentlichen Einsicht entzogen. Aber dieses Entfernen ist nicht das Gleiche wie die Bewertung der Implikationen dieses gewaltigen statistischen Debakels.

Die Reinwaschung der NOAA scheitert an einem Tag

Noaa–Sprecher Chuck Pistis begann sofort mit der Reinwaschung, nachdem er erstmals von der Geschichte in der am schwersten betroffenen Region, Egg Harbor, gehört hatte, in der sämtliche Instrumente schnell zum Kochen kommen sollten  Dienstag Vormittag erklärte Pistis hochnäsig:

„Ich habe in den Archiven geschaut und habe kein Abbild zu diesem Zeitpunkt gefunden. Außerdem posten wir normalerweise nicht Bilder mit viel Bewölkung, geschweige denn mit Temperaturen. Dieses Abbild scheint durch jemanden zur allgemeinen Unterhaltung bearbeitet worden zu sein“.

Aber später am gleichen Tag warfen Pistis und seine bemitleidenswerten Kollegen das Handtuch und stellten sich dem übermächtigen Fauxpas. Pistis gab zu:

„Ich habe eben noch einmal (sic) das Abbild betrachtet. UND ES IST in meinem Archiv. Ich weiß nicht, warum die Temperaturwerte so falsch (sic) sind. Es scheint eine Fehlfunktion des Satelliten zu sein. WIR haben Tausende Bilder gepostet (sic) seit der Einführung unseres Coatwatch service (sic) [vermutl. so etwas wie ein ‚umfassender Überblick‘. A. d. Übers.] im Jahre 1994. Ich habe noch nie ein Bild wie dieses gesehen“.

Aber der Sprecher der Michigan Sea Grant Extension, einem Partner von ‚Coatwatch’, der zusammen mit NOAA durch die herausfordernden Daten ging, gestand danach ein, dass die hastig entfernten Webseiten tatsächlich Dutzende von Temperaturaufzeichnungen gezeigt hatten, die drei bis vier Mal höher lagen als nach der Jahreszeit üblich. NOAA lehnte es ab, irgendeinen Kommentar dazu abzugeben, ob eine solche Panne die Mittelwerte im gesamten Nordosten der USA um etwa 10 bis 15 Fahrenheit [5 bis 8 K] nach oben getrieben haben könnte, weil der Fehler über längere Zeiträume unentdeckt geblieben war.

Um einiges zerknirschter machte sich Pistis später an die Schadensbegrenzung und versuchte es mit Entschuldigungen: 

„Wir müssen bessere Arbeit bei der Kontrolle leisten, was in den Archiven landet oder gepostet wird. ‚Coastwatch‘ ist komplett automatisiert, so dass man leicht einsehen kann, dass so etwas durchrutschen konnte“.

In seiner Verlautbarung stimmte Pistis zu, die Satellitendaten von NOAA “herabzustufen”. Und weiter, dass die Regierung „noch mehr in dieses Desaster schauen“ muss. Tatsächlich findet man auf der Michigan Sea Grant Site die folgende offizielle Mitteilung:

“BEMERKUNG”: Wegen eines fehlerhaften Sensors im Satelliten, dessen Werte für diese Kartendarstellung genutzt wurden, haben einige Bilder extrem hohe und niedrige Temperaturdaten gezeigt. Bitte betrachten Sie diese Daten als nicht realistisch. Künftige Bilder werden diese Daten nicht mehr enthalten, und Bilder, die mit Daten des fehlerhaften Sensors erstellt wurden, wurden und werden aus dem Bilderarchiv entfernt“.

Schieb es auf die Wolken, nicht auf uns, meint NOAA

NOAA erklärte weiter, dass die Bewölkung die Satellitendaten beeinflussen und sie anfällig für Falschmessungen machen könnte. Aber Pistis konnte nicht erklären, wie viel Bewölkung signifikant wäre oder an welchem Punkt die Messungen für die Klimamodellierung unbrauchbar werden.

Wie es ein verärgerter Beobachter ausdrückt:

 „Was ist mit dunstigen Tagen? Was an Tagen mit dünner Bewölkung? Was an Tagen mit teilweise bewölktem Himmel? Selbst an heißen, klaren Tagen sorgt die Verdunstung für eine substantielle Menge Wasserdampf in der Atmosphäre, besonders über Gewässern. Wie können diese Satellitendaten nur halbwegs brauchbar sein, wenn der Satellit nicht durch die Wolken ‚sehen‘ kann?“

Ein führender Klimatologe verurteilt den Mangel von echter Sorgfalt

Die ernsten Konsequenzen dieser Vorkommnisse waren für Dr. Ball nicht von ungefähr. Er erklärte, dass diese Zahlen mit ungewöhnlich hohen oder niedrigen Werten von der Regierung für politische Zwecke ausgebeutet wurden, bereits jetzt unter den Rekorden gelistet werden und in Reportagen durch den gesamten medialen Blätterwald der Mainstream–Medien gingen, was ein weithin gewünschtes Ziel war.

Der Klimatologe, der das Militär in Klimafragen berät, bedauerte, dass solche fehlerhaften Datensätze „ausnahmslos unbereinigt bleiben. Der gescheiterte Versuch zu belegen, wie oft die Temperatur an der Wolkenoberfläche ‚sehr nahe‘ den Werten der Wassertemperatur lag, ist unakzeptabel. Wenn die Genauigkeit der Daten fraglich ist, sollten sie nicht genutzt werden. Ich würde sagen, dass das nach meinem Wissen über Inversionen sehr selten ist, besonders über Wasser“.

Wie viele andere Wettersatelliten wurden ebenfalls „herabgestuft”?

Eine Schlüsselangelegenheit für die Regierung war, dass sie es ablehnte zu sagen, wie viele andere Satelliten ebenfalls herabgestuft werden könnten. ‚NOAA-16‘ ist kein alter Satellit – also warum braucht es jemanden aus der Öffentlichkeit, um eine so große Fehlerhaftigkeit zu finden?

Klimaprofessor Tim Ball wies darauf hin, dass er dieses systematische Scheitern vorhergesehen hat und warnt die Öffentlichkeit, dass sie keinen Rückzug und auch kein Ende der düsteren, den Untergang beschreienden Klimaprognosen erwarten sollte: 

„Seit McIntyre Hansen und NASA GISS mit den falschen Daten aus den USA erwischte, habe ich noch nie gesehen, dass irgendeine Bereinigung der Daten der Welt stattgefunden hat, die aber nach den Änderungen der Aufzeichnungen in den USA unabdingbar sind. Die Aufzeichnungen aus den USA dominieren diejenigen speziell in den kritischen Mittleren Breiten. Sie so zu verändern, dass es von den neun wärmsten Jahren in den Neunziger Jahren zu vier davon in den Dreißiger Jahren des vorigen Jahrhunderts kommt, ist eine sehr signifikante Veränderung und muss die globalen Mittelwerte [der Temperatur] beeinflussen“. 

An jedem Tag gibt es neue Entdeckungen von großen Fehlern und Auslassungen. Ein kluger Kommentator auf www.climatechangefraud.com stellte fest: „Es ist allgemein bekannt, dass sich das Land schneller erwärmt als das Wasser, das sich auch langsamer abkühlt. Jedoch haben wir in den Zahlen von NOAA mindestens zwei Datensätze gefunden , die das Gegenteil dieser bekannten physikalischen Tatsache aussagen.“

Der geschickte Kommentator fügte hinzu: „Zwei Punkte, deren Daten fraglich sind, liegen in Charlevoix, wo die Temperatur bei 43,5° [F? C? Im Original stehen nur diese und die folgenden Zahlen. A. d. Übers.] liegen soll – während in der Umgebung (± 30 Meilen) 59,2° herrschen sollen; und in der Bucht östlich der Halbinsel von Leland, die mit 37,2° gelistet wird. Diese Werte wurden vermutlich um 18:38 Ortszeit gewonnen. Beide stammen aus Gebieten mit größeren Lücken in der Bewölkung.

Fehlende weitere präzise Angaben von NOAA über diese sensationelle Geschichte überlassen es der Öffentlichkeit, weiter zu spekulieren und ‚bürgerlichen Wissenschaftlern‘ [‚citizen scientists‘], zu bestimmen, ob Datensätze über zehn oder mehr Jahre von Satelliten wie NOAA-16 unzuverässig und wertlos sind. 

John O´Sullivan für Climate Fraud 11 August 2010 Originalartikel:

John O’Sullivan ist erfahrener Analyst, Autor und Journalist. Als akkreditierter Akademiker lehrte er über zwanzig Jahre lang an Schulen und Universitäten in Ostengland, bevor er in die USA übersiedelte. Als analytischer Kommentator hat er über 100 grundlegende Artikel weltweit verfasst.

Übersetzt von Chris Frey. Alle Einschübe in eckigen Klammern vom Übersetzer.  Fett Hervorhebungen EIKE Redaktion; Alle anderen Hervorhebungen einschl. runder Klammern im Original!




Die große russische Hitzewelle von 2010!

Update:

It’s Official: Russische Hitzewelle unabhängig vom Klimawandel

Die treibende Kraft hinter der Hitzewelle des Jahres 2010 war ein stationäres Wettersystem, dass seit Mitte Juni mehr oder weniger fest über Westrussland  lag. Wenn solche Systeme längere Zeit über einem bestimmten Gebiet festliegen, anstatt sich von West nach Ost zu verlagern, nennt man dies eine „Blockierung“. Die lange Schnee- und Kälteperiode in der Osthälfte der USA im letzten Winter wurde durch eine solche Blockierung verursacht [d. h. ein Hochdruckgebiet über den zentralen und westlichen Gebieten der USA, A. d. Übers.], so dass arktische Luft weit nach Süden wehen konnte und die Tiefdruckgebiete [in Verbindung mit milder Meeresluft] vor der Ostküste nach Norden zogen. Die Hitze in Russland  ergab sich aus einem blockierenden Hochdruckgebiet über den Gebieten östlich von Moskau, was zu einer südlichen (warmen) Luftströmung, viel Sonnenschein und wenig Regen führte.

Solche Blockierungen beschränken sich nicht auf das heutige Klima, sondern es gab sie schon immer. Sie sind eingebunden in die hemisphärischen mäandrierenden Höhenströmungen, wie sie im Climate Prediction Center CPC) des nationalen Wetterdienstes [der USA] folgendermaßen beschrieben werden: „Es handelt sich um großräumige Luftdruck- und Zirkulationsanomalien, die weite geographische Gebiete überdecken.“ Die Beschreibung des CPC führt weiter aus:

Solche Strömungsmuster zeichnen sich häufig durch wenige oder nur in sehr langen Zeiträumen erfolgende Änderungen aus. Obwohl diese Muster üblicherweise mehrere Wochen oder Monate dauern, können sie manchmal während mehrerer aufeinanderfolgender Jahre vorhanden sein. Auf diese Weise spielen sie eine bedeutende Rolle sowohl in der jährlichen als auch der dekadischen Variabilität der atmosphärischen Zirkulation…

Alle Strömungsmuster sind ein natürlicherweise vorkommender Aspekt unseres chaotischen atmosphärischen Systems und reflektieren hauptsächlich [Vorgänge in] der inneren atmosphärischen Dynamik…

Strömungsmuster reflektieren außerdem großräumige Änderungen hemisphärischer Wellen und Jet–Streams; sie beeinflussen die Temperatur, Regenmengen, die Zugbahn von Tiefdruckgebieten sowie Lage und Intensität von Jet-Streams über weiten Gebieten. Daher sind sie oft verantwortlich für gleichzeitige anomale Wetterbedingungen über scheinbar große Distanzen.

Das CPC nennt und bearbeitet etwa 10 verschiedene Lagen dieser Art mit Indizes, die jeweils verschiedene Muster der atmosphärischen Zirkulation bezeichnen, und beschreibt damit den Einfluss auf die Temperatur und Niederschlag am Boden. Das CPC hat eine historische Abfolge dieser Blockierungsindizes seit Januar 1950 erstellt und diese bis heute weitergeführt.

Mehrere dieser Strömungsmuster beschreiben die Temperatur[verhältnisse] im Großraum des westlichen Russlands und werden als „West Pacific Pattern“ (WP), „Polar/Eurasia Pattern“ (POL) und „East Atlantic/Western Russia Pattern“ (EA/WR) bezeichnet.

Abbildung 1 zeigt das Muster für Juli, wenn sich alle drei genannten Muster in ihrem positiven Status befinden. Haben sie dagegen ihren negativen Status, sind die Anomalien der Temperatur entgegengesetzt. Man beachte, dass sie alle drei „heiße Punkte“ (hot spots) in und um Westrussland haben. Die [Index]werte von WP, POL und EA/WR speziell für Juli betrugen -2,93, 1,7 und -1,55. Dies bedeutet, dass die Konfiguration jedes dieser Muster zu Temperaturwerten über den Normalwerten in Westrussland führt.

Abbildung 1. Verteilung der Temperaturanomalien in Verbindung mit dem positiven Status von drei Blockierungslagen, die Westrussland beeinflussen (Bilder des Climate Prdiction Center CDC).

Abbildung 2 zeigt die beobachteten Anomalien der Temperatur am Boden im Juli einschließlich des großen roten Flecks sehr hoher Temperaturabweichungen über dem westlichen Russland – ein Ergebnis, das bei der Kombination dieser drei Lagen zu erwarten war.

Abbildung 2: Temperaturanomalien für Juli 2010

Abbildung 3. Die Kombination der Indexwerte vom Typ WP, POL und EA/WR für den Monat Juli der Jahre 1950 bis 2010 (Daten vom CDC).

Hierzu ist verschiedenes zu bemerken:

1) Der kombinierte Indexwert im Juli 2010 ist der höchste seit 1950 – fast 50% höher als der zweithöchste Wert im Jahre 1952.

2) Der kombinierte Index war seit 1981 überwiegend positiv und meist negativ von 1955 bis 1980. Dies zeigt einen allgemeinen positiven Trend seit 1950.

3) Der Wert von 2010 ist etwa dreimal höher als der zu erwartende Wert, der nur auf dem Trend basiert.

Steckt die anthropogene globale Erwärmung hinter diesem Verlauf?

Es ist schwer, das sicher zu sagen, aber eines ist gewiss: falls die globale Erwärmung hier eine Rolle spielt (vielleicht durch den Trendverlauf), so ist der Einfluss ziemlich schwach.

Abbildung 4 zeigt eine Karte mit den Anomalien der Temperatur im Juli 1936 – einem anderen sehr heißen Monat im westlichen Russland. Man beachte, wie sehr dieses Muster der Abweichungen denen in diesem Juli 2010 gleicht (Abbildung 2). Dies legt die Vermutung nahe, dass der kombinierte Indexwert damals ähnlich hoch lag wie in diesem Jahr – wir wissen nicht, wie hoch, weil die Reihe des CPC nur bis 1950 zurückreicht. Klar ist aber, dass es in Moskau und Westrussland auch ohne unsere Hilfe sehr heiß werden kann.

Abbildung 4. Anomalien der Temperatur am Boden (°C) im Juli 1936 (Bild vom Goddard Institute for Space Studies).

Das Fehlen von Daten vor 1950 begrenzt die Möglichkeit, die Verhältnisse im Jahre 2010 in einen längeren historischen Zusammenhang zu bringen. Würde der zunehmende Trend in Abbildung 3 genauso aussehen, falls wir die bekannte Warmperiode der Dreißiger Jahre mit einbeziehen könnten? Wie hoch war der Indexwert im Juli 1936?

Man weiß es nicht. Weil das so ist, ist es schwierig zu bestimmen, welche Rolle andere Faktoren [in diesem Jahr] gespielt haben, wie z. B. Urbanisation, Rauch oder die globale Erwärmung, die diesen Sommer zu einem Rekordsommer in Westrussland gemacht haben.

Für sich genommen würde der Sommer 2010 in die Annalen als ein extrem heißer Sommer in Moskau eingegangen sein, mit oder ohne irgendeinen Einfluss durch zunehmende Konzentrationen von Treibhausgasen.

Haben unsere [vom Menschen vorgenommene] Veränderungen der Umwelt, lokal, regional oder global einen Beitrag geleistet zusätzlich zu dem, was die Natur bereit hält?

Möglicherweise? Wahrscheinlich?

Die Beurteilung davon liegt noch weit in der Zukunft.

Weiterführende Links: http://www.worldclimatereport.com/index.php/2010/08/12/the-great-russian-heat-wave-of-2010/

Häufig wird sie mit der anthropogenen globalen Erwärmung in Verbindung gebracht.

 UrbanisationRaubbau in den Wäldern 

Autoren: Redaktion World Climate Report; Staff Chief Editor: Patrick J. Michaels Contributing Editor: Robert C. Balling, Jr. Contributing Editor: Robert E. Davis

Übersetzt von Chris Frey EIKE.

Kommentierende Bemerkungen des Übersetzers: Er ist beim Surfen auf die Tatsache gestoßen, dass die diesjährige Hitzewelle offenbar keineswegs ohne Präzedenzfall im vorigen Jahrhundert gewesen ist. Um dies zu verdeutlichen, wurde dieser Beitrag übersetzt!

Schon die Herren Puls und Freuer hatten ja in entsprechenden Beiträgen darauf hingewiesen, wie gewöhnlich solche Wettervorgänge sind, wenngleich sie auch nicht in jedem Jahr und in dieser Ausprägung auftreten.




Paradigmen in der Klimaforschung!

Während der letzten Jahrzehnte wurde die sozialwissenschaftliche Infrastruktur der Klimatologie von Wissenschaftlern unter einem von den UN gesponserten Banner dominiert, dem Internationalen Weltklimarat [Intergovernmental Panel on Climatic Change IPCC]. Diese Wissenschaftler – und noch mehr ihre Regierungen – verkündeten als ‚wissenschaftlichen’ Konsens, dass der zunehmende Anteil von CO2 in der Atmosphäre erheblichen Einfluss auf das globale, das heißt mittlere Klima hat. Dies war eine unveränderliche Wahrheit. Bei der Präsentation der letzten ‚Summary for Policymakers’ des IPCC (2007) wurde verkündet: „Die Wissenschaft ist vorbei [The Science is settled]“.

Die Stimmen sehr bekannter Wissenschaftler, die diesem dominanten Paradigma aufgrund ihrer eigenen Forschungsergebnisse widersprachen (z. B. Lindzen, Spencer, Singer, Christy, McIntyre, Pielke, Khandakar), waren dagegen nicht so deutlich zu hören. Am wenigsten wurden sie von Regierungen gehört, die erwägen, den Gebrauch fossiler Brennstoffe zu reduzieren – was für viele von ihnen ein lobenswertes Ziel war.

Zweifel am CO2–Paradigma des main stream erheben sich, weil es kaum einen Beweis aus direkten Beobachtungen gibt, die den von Computermodellen/ Experimenten konstruierten Rahmen bestätigen. Dies allein sollte in der wissenschaftlichen Welt ein ausreichender Grund sein, über andere Paradigmen nachzudenken. Das in diesem Papier beschriebene Paradigma könnte man das Wetter/Wasser–Paradigma nennen. Es hat seinen Ursprung in seit langem gültigen Erkenntnissen in der klassischen Klimatologie und Meteorologie.

Es muss hervorgehoben werden, dass die beiden sich gegenüber stehenden Theorien [frameworks]: das CO2–Paradigma und das Wetterparadigma, zu völlig unterschiedlichen Entwicklungen der Variabilität des Klimas führen. Dies würde bedeuten, dass die Annäherung durch Reduktion der numerischen Modellannäherung in einen fundamentalen methodischen Irrtum münden könnte. Das Nachdenken über Alternativen zum vorherrschenden CO2–Paradigma ist daher für den wissenschaftlichen Fortschritt im Gebiet Klimatologie unabdingbar.

Jedoch kann man bisher kein Anzeichen erkennen, dass die Protagonisten der vom  IPCC erwarteten Gefährlichen Anthropogenen Globalen Erwärmung (AGW) gewillt sind, irgendeine Alternative zum CO2–Paradigma zu berücksichtigen. Weltweite wissenschaftliche Diskussionen zwischen Protagonisten und Antagonisten waren sehr begrenzt. Kein Kritiker des IPCC wird zur Teilnahme an offiziellen internationalen Tagungen eingeladen, obwohl sie ihre eigenen großen Konferenzen organisiert haben und Unterstützer des IPCC dazu eingeladen haben. Mit wenigen Ausnahmen wurden diese Einladungen nicht angenommen. Nichtsdestotrotz finden jedoch auf informativer Ebene, z. B. im Austausch von e-mails, weiterhin intensive Diskussionen über gegensätzliche Gedanken über die Grundprinzipien des Treibhauseffektes der Erde statt. Dies gilt besonders für Gegner der offiziell sanktionierten AGW–Hypothese.  

Die Autoren dieser Ausgabe nahmen an solchen Diskussionen teil – zusammen mit anderen in verschiedenen Wissensgebieten. Ich war bei diesen Debatten dabei, aber in den meisten Fällen mehr als Moderator denn als Experte. Diese Aktivitäten bemerkte der Herausgeber [der Zeitschrift] Energie & Umwelt [Energy & Environment], und das war der Grund für seine Einladung an mich, in dieser speziellen Ausgabe einen Gastbeitrag abzugeben.

Die Bereiche, die ich für Überlegungen der wissenschaftlichen Gemeinschaft ausgesucht habe, werden weiter unten in Umrissen dargelegt, mit einem Vorwort zum generellen Konzept von Paradigmen.

Das erste Papier von R. Clark präsentiert die Argumente, die dagegen sprechen, dass eine weitere Zunahme des CO2 zu einem verstärkten Treibhauseffekt führt. Besonders die Prozesse des Strahlungstransportes in der Atmosphäre sowie der Massen– und Wärmeaustausch an Boden werden neu bewertet. 

Das nächste Papier von W. Eschenbach befasst sich mit der Thermostat–Hypothese, die eine regulierende Funktion bei Wetterereignissen hat.

N. van Andel quantifiziert den Effekt der Windgeschwindigkeit auf den Massentransport von Wasserdampf und Wärme durch Verdunstung. 

Im vierten Papier stellt W. Kininmonth fest, dass gegenwärtige Computermodelle anscheinend den Zusammenhang zwischen steigender Temperatur und zunehmender Verdunstung (sowie dem Austausch latenter Wärme) unterschätzen – was zu einer erheblichen Übertreibung der Reaktion der Temperatur auf den Strahlungsantrieb führt.

D. Thoenes befasst sich anschließend mit dem stabilisierenden Effekt der Ozeane auf das Klima, einem Thema höchster Wichtigkeit, das auf Berechnungen aus Experimenten mit der Verdunstung von Salzwasser in Verdunstungsbecken [auf der Insel] Bonaire basiert.

Die Kurzkommentare von P. Siegmund zu den Arbeiten von Thoenes und N. van Andel sind hier ebenfalls beigefügt. Das Papier von F. Miskolczi erklärt grundlegende physikalische Gesetze und könnte die Unterüberschrift „Eine neue Interpretation der Beobachtungen von Wetterballonen“ tragen.

Der Autor leitet darin neue Beziehungen her zwischen den Energieflüssen in die Atmosphäre hinein und heraus, was als ‚Miskolczi–Theorie’ bekannt geworden ist.
W. Gilbert erforscht die Beziehung zwischen der Temperatur am Boden und der Wasserdampfkonzentration und erweitert die Arbeit von Miskolczi mit Rücksicht auf die thermodynamischen Kräfte, die den hydrologischen Zyklus antreiben. Die Überschrift des letzten Papiers von van Andel erläutert die Konsequenzen der Miskolczi–Theorie.

Die Manuskripte wurden an viele Teilnehmer der Diskussionsgruppen zur kritischen Bewertung gesandt, von denen sie gekommen waren, obwohl ein Konsens nicht immer erreicht werden konnte unter jenen, die an diesem internen System der wissenschaftlichen Begutachtung teilnahmen. Als nächstes wurde jedes Papier zur kritischen Begutachtung an zwei externe Gutachter übermittelt. Falls einer von ihnen glaubte, das Papier zurückweisen zu müssen, wurde ein dritter Gutachter hinzugezogen. Falls diese dritte Bewertung positiv ausfiel, wurde es dem Autor selbst überlassen, die Kritik abzuwägen. Daher liegen die Schlussfolgerungen in jedem Papier ausschließlich bei den Autoren. Nach Meinung des Autors dieses Gastbeitrages ist dies ein sauberer Weg der ‚wissenschaftlichen Begutachtung’. Jedoch behauptet er nicht, dass die präsentierten Arbeiten die AGW–Hypothese als falsch entlarven. Im Geiste des Mottos dieser Zeitschrift „Treibstoff für die Gedanken“ beweisen sie aber sehr stark, dass der Aufschrei „The Science is Settled“ zumindest verfrüht erscheint.

Gastredakteur Prof. Dr. Arthur Rörsch

Ehemaliger Vizepräsident des Board of Management of the

Netherlands Organisation for Applied Research. (TNO)

Leiden, The Netherland.,

ii Energy & Environment · Vol. 21, No. 4, 2010

E & E Beiträge siehe pdf Anlage

Die Übersetzung besorgte dankenswerterweise Chris Frey EIKE

Related Files




Klimamodelle des Glaubens! Oder warum 2+2=5 sein könnte!

Mindestens seit dem 1995 erschienenen Zweiten Zustandsbericht hat das IPCC immer sicherer klingend festgestellt, dass anthropogenes Kohlendioxid (CO2) das Klima beeinflusst, und dass dies der Hauptgrund für den nachgewiesenen Erwärmungstrend seit 1900 ist. Der gegenwärtige Anteil des atmosphärischen CO2 beträgt 390 parts per million (ppm) oder 0,039% des Gasgemisches der Atmosphäre. Im Jahre 1900 waren es etwa 295 ppm. Falls sich der Trend des 20. Jahrhunderts unvermindert fortsetzt, wird sich der Anteil von CO2 in der Atmosphäre etwa verdoppelt haben bis 600 ppm. Dies ist die Basis für das gewöhnlich „CO2–Verdoppelung“ genannte Szenario.

Die CO2–Verdoppelung ist eine Wegmarke der Klimawissenschaftler für die Abschätzung des Treibhauseffektes. Die Erde empfängt etwa 342 Watt pro Quadratmeter (W/m2) einkommender Strahlung von der Sonne, und alle diese Strahlung wird letztendlich wieder in den Weltraum abgestrahlt. Allerdings absorbieren CO2 und andere Treibhausgase, am meisten Wasserdampf, einiges dieser ausgestrahlten Energie und wärmen so die Atmosphäre. Dies nennt man den Treibhauseffekt. Ohne diesen Effekt läge die mittlere Temperatur der Erde bei frostigen -19°C. Der Treibhauseffekt erwärmt die Erde bis etwa 14°C und macht sie so überhaupt erst bewohnbar9. 

Mit steigendem CO2 wird noch mehr der ausgestrahlten Energie absorbiert, was die Thermodynamik der Atmosphäre verändert. Alle zusätzlichen Treibhausgase einschließlich CO2, die seit 1900 in die Atmosphäre gelangt sind, kommen einer zusätzlichen Absorption von etwa 2,7 W/m2 in der Atmosphäre gleich10. Dies ist der besorgliche Treibhauseffekt.

Am 2. Februar 2007 veröffentlichte die Arbeitsgruppe 1 (WG1) des IPCC die „Zusammenfassung für Politiker (Summary for Policymakers SPM)  über den Zustand des Erdklimas“11. Er enthält eine umfassende Zusammenfassung der Wissenschaft, die die oben gemachte Vorhersage stützt. Der ganze „Vierte Sachstandsbericht“ (Fourth Assessment Report, 4AR) wurde 2007 nach und nach veröffentlicht.

Abbildung 1 zeigt eine Schwarz-weiß-Version des „Sonderberichtes für Emissionsszenarien“ (Special Report on Emission Scenarios SRES) in SPM-5 der WG1 des IPCC, der die Zukunft der globalen Mitteltemperatur projiziert. Diese Projektionen11 wurden mit Hilfe von generellen Zirkulationsmodellen (General Circulation Models GCMs) durchgeführt. GCMs, das sind Computerprogramme, die die physikalischen Auswirkungen des Klimas berechnen; Auswirkungen u. A. auf die Ozeane, die polaren Eiskappen und die dynamische Antwort der Atmosphäre zu verschiedenen Antriebskräften. Antriebe und Feedbacks sind diejenigen Elemente, die den Energiefluss im Klimasystem steuern. Sie schließen das Sonnenlicht, Meeresströme, Stürme und Wolken, die Albedo (die Reflektivität der Erde) sowie die Treibhausgase Wasserdampf, CO2, Methan, Nitrooxide und Fluorchlorkohlenstoffe ein.

In der Abbildung 1 nimmt das B1–Szenario einen CO2–Anstieg auf 600 ppm, A1B bis 850 ppm und A2 einen solchen auf pessimistische 1250 ppm an. Das „Jahr 2000 Szenario“ bildet den optimistischen Fall ab, den CO2–Gehalt stabil bei 390 ppm zu halten.

Die Bildunterschrift unter der Abbildung SPM-5 lautet (in Auszügen): „Durchgezogenen Linien zeigen die Erwärmung der Erdoberfläche im globalen Mittel (im Vergleich zum Zeitraum 1980 – 1999) für die Szenarien A2, A1B und B1, dargestellt als Fortsetzung der Simulationen des 20. Jahrhunderts. Die Schattierungen zeigen die Standartabweichung der individuellen Modelle“.

Gut und schön! Wir schauen uns die Projektionen an und sehen, dass die Fehlergrenzen nicht sehr unterschiedlich sind. Egal was passiert, es wird angenommen, dass die globale Temperatur im 21. Jahrhundert signifikant steigen wird. Eine kleine Woge der Verzweiflung taucht auf, dass es unter keinen Umständen gelingen wird, den CO2–Gehalt auf dem heutigen Stand zu halten. Das Jahr 2000 Szenario wird nur als Kontrast gezeigt. Die Wissenschaft ist hier in Ordnung, und wir können uns gefasst machen auf eine anthropogen verursachte Erwärmung im 21 Jahrhundert, mit all den daraus resultierenden Gefahren. Fühlen Sie sich schon schuldig?

Aber vielleicht ist ja das alles nicht so eindeutig! Im Jahre 2001 wurden in der Zeitschrift Climate Research13 offen die Unsicherheiten der Physik diskutiert, die in die GCMs einfließen. Dieses Papier war sehr kontrovers und verursachte eine [intensive] Debatte14. Aber über alle Kontroversen hinweg wurde nicht über die grundlegenden physikalischen Unsicherheiten gesprochen. Es stellte sich heraus, dass die Unsicherheiten der energetischen Reaktion des Klimasystems der Erde über 10 mal größer sind als der gesamte Effekt zunehmenden CO2–Gehaltes15. Wenn die Unsicherheit größer ist als die [angenommene] Auswirkung, wird die Auswirkung selbst irrelevant. Wenn aber die Auswirkung selbst strittig ist, über was hat das IPCC dann geredet? Und woher nimmt es die Gewissheit des großen Einflusses des CO2 auf die Atmosphäre?

Mit diesen Fragen im Hinterkopf schaue man noch einmal auf die Legende der Abbildung SPM-5. Dort heißt es „Die Schattierungen zeigen die Standardabweichung der individuellen Modelle“. Die Linien in der Abbildung repräsentieren die vom GCM projizierte jährliche Mitteltemperatur. Die Legende besagt, dass während 68% der Zeit (eine Standardabweichung) die Modellprojektionen in den schattierten Bereichen liegen werden. Sie sagt nicht, dass die schattierten Bereiche die physikalische Verlässlichkeit der Projektionen angeben. Die schattierten Bereiche zeigen nichts über die physikalische Ungewissheit der Temperaturprojektionen. Sie zeigen die numerische Instabilität der Modelle. Die Botschaft der Legende lautet, dass Klimamodelle nicht zweimal den gleichen Trend ergeben werden. Sie garantieren nur, dass dies in den schattierten 68% der Zeit der Fall ist16.

Dieser Punkt ist so wichtig, dass er mit einem einfachen Beispiel verdeutlicht werden soll. Nehmen wir an, ich hätte ein Computermodell allgemeiner Arithmetik, das behauptet,

2 + 2 = 5 ± 0,1.

Jedes Mal, wenn ich das Modell rechne, gibt es eine Chance von 68%, dass das Ergebnis innerhalb des Bereiches 0,1 Einheiten um die 5 liegen wird. Meine schattierte Region wäre 0,1 Einheiten breit. Wenn 40 verschiedene Forschergruppen 40 leicht unterschiedliche arithmetische Modelle hätten, die ähnliche Ergebnisse bringen würden, könnten wir uns alle zu einem Konsens gratulieren. Nehmen wir jetzt weiter an, wir könnten die Modelle soweit verbessern, dass das Ergebnis jetzt lauten würde: 2 + 2 = 5 ± 0,01. Dann könnten wir behaupten, wir hätten unsere Modelle so weit verbessert, dass sie jetzt 10 Mal genauer wären als zuvor. Aber natürlich wären sie alle genauso falsch wie vorher, weil die exakte Arithmetik nun einmal ergibt, das 2 + 2 = 4. Dieses Beispiel zeigt den kritischen Unterschied zwischen Präzision und Genauigkeit.

In der Abbildung 1 sind die schattierten Bereiche die rechnerischen Ungenauigkeiten der Computermodelle. Sie zeigen nicht die physikalische Genauigkeit der Projektionen. Sie sagen uns gar nichts über die physikalische Genauigkeit. Aber physikalische Genauigkeit – Verlässlichkeit – war immer das, wonach wir in den Vorhersage über künftige Ereignisse in der realen Welt gesucht haben. Es ist dieser Punkt – die physikalische Genauigkeit von globalen Zirkulationsmodellen GCM – mit dem sich dieser Artikel befassen wird.

Die erste Annäherung an physikalische Präzision in den GCMs ist es, zu ermitteln, was sie projizieren. Der am meisten propagierte Trend – den, den wir immer sehen – ist die globale mittlere Temperatur. 

Abbildung 2a zeigt die Trends der Temperatur von 10 GCMs, die in dem Projekt „Coupled Model Intercomparison Project“ (GMIP) [etwa: gekoppeltes Modellvergleichsprojekt] im „Lawrence Livermore National Laboratory“17 berechnet wurden. Sie zeigen, was passieren würde, wenn das atmosphärische CO2 stetig um 1% pro Jahr (etwa doppelt so viel wie gegenwärtig) innerhalb  der  nächsten  80  Jahre steigen würde. Die Klimamodelle schlossen andere „äußere Antriebe“ aus, wie z. B. Vulkanausbrüche, anthropogenes Aerosol sowie Änderungen der Solarstrahlung. Andererseits berücksichtigten sie interne Feedbacks wie beispielsweise den Wärmeaustausch zwischen Ozean und Atmosphäre, Änderungen des Schneefalls, Schmelzen der Eiskappen und so weiter. Diese GCMs sind entweder identisch oder sehr ähnlich den GCMs, die das IPCC für die Vorhersage der künftigen Temperatur des Erdklimas in Abbildung 1 (SPM-5) zeigt.

Zusammen mit den GCM–Projektionen zeigt Abbildung 2a den Trend eines sehr einfachen Modells, in dem alles, was passiert, nur in einer passiven Erwärmung durch Treibhausgase mit keinerlei Klimafeedbacks besteht. Trotz dieser ihm innewohnenden Einfachheit geht der Graph der passiven Erwärmung genau durch die Mitte der Trendlinien des GCM.

Dieses Resultat bedeutet, dass sich irgendwie die Quintillionen Watt an Feedback von den Ozeanen, der Atmosphäre, der Albedo und den Wolken in den generellen Zirkulationsmodellen zusammen zu null mitteln. Neben den geringen Spielräumen der Intensität simulieren alle GCMs wenig mehr als passive globale Erwärmung.

Alle Berechnungen, die die hier gezeigten Schlussfolgerungen stützen, werden in der unterstützenden Information (Supporting Information SI) präsentiert, die man auf der Site www.skeptic.com einsehen kann. Hier folgt das vereinfachte Treibhausmodell insgesamt:

Global Warming=0,36x(33°C)x[(Total Forcing ÷ (Base Forcing)]

Sehr kompliziert! “33°C” ist die Basis-Treibhaustemperatur der Erde, wie sie im Jahre 1900 definiert wurde19. „0,36“ ist der Teil der Treibhauserwärmung, von dem gesagt wird, dass es durch das CO2 plus „das erweiterte Wasserdampf-Feedback“ geliefert wird20. Die erweiterte Idee dahinter ist, wenn CO2 die Atmosphäre erwärmt, wird auch mehr Wasserdampf produziert. Dieser zusätzliche Wasserdampf beschleunigt die Erwärmung durch das CO221. All dies wird detailliert zur kritischen Durchsicht in Sektion 1 bei der SI ersichtlich.

Die vom IPCC anerkannten Gleichungen10 wurden zur Berechnung der Auswirkungen der Treibhausgase CO2, Methan und Stickstoffoxide [nitrous oxide] benutzt – die hauptsächlichen Treibhausgase derzeit. Das ist alles. Nichts, was komplizierter ist als Algebra, wurde hinzugezogen.

Die Mittellinie des GCM in Abbildung 2a (die schwarze Linie mit der weißen Mitte) ist das „Ensemble Mittel“ aller 10 GCM–Projektionen; das heißt ihre Summe geteilt durch 10. Ensembles werden typischerweise als genauer angesehen als jede einzelne individuelle GCM–Projektion22. Unter diesem Kriterium ist das Modell der passiven Erwärmung physikalisch akkurater als irgendeines der multimillionen teuren GCMs, weil es näher am Ensemblemittel liegt als jedes der 10 Klimamodelle (SI Sektion 2). Abbildung 2b zeigt einen ähnlichen Vergleich mit Projektionen von zwei hochauflösenden GCMs vom Geophysical Fluid Dynamics Laboratory der NOAA18, die Feedbacks von allen bekannten Klimaprozessen auf der Erde enthalten. Das einfache Modell zeigt die Temperaturprojektion näher [am Mittelwert] als viele der anderen komplexen GCMs zusammen.

Abbildung 2a zeigt, dass das physikalische Modell des Erdklimas in den GCMs im Falle einer Zunahme von CO2 simuliert, dass die Temperatur kaum etwas anderes macht außer einer passiven Reaktion in linearer Weise auf den Antrieb der Treibhausgase. Die gleiche Schlussfolgerung ergibt sich beim Betrachten von Kontrollläufen der GCMs, die die Temperaturentwicklung bei konstantem CO2–Gehalt simulieren. Eine davon zeigt Abbildung 1 – das „Jahr-2000-Szenario“. Die Kurve ist beinahe eben.

Besonders seit der Ära der Satelliten konnten spezielle Aspekte des Klimas, wie Bewölkung oder die Oberflächentemperatur um den ganzen Globus aufgezeichnet werden. Man kann GCM mit der Rückwärtsmethode testen, indem man sie das bekannte Klimageschehen der Vergangenheit simulieren lässt anstelle der erwarteten Entwicklung in der Zukunft. Physikalische Fehler in den GCMs bzgl. der simulierten Vergangenheit können dann mit der realen Vergangenheit verglichen werden.

Abbildung 3 zeigt die vom Satelliten beobachtete Bewölkung im Zeitraum Dezember – Januar – Februar, gemittelt über die Jahre 1983 bis 1990. Sie zeigt auch die globale mittlere Bewölkung über die ähnliche Periode von 1979 bis 198823 durch 10 begutachtete GCMs24. Die GCMs wurden benutzt, um zu versuchen, die beobachtete  Bewölkung  zu reproduzieren und wurden dann überarbeitet und erneut getestet. Diese Studie wurde 1999 veröffentlicht, aber die Genauigkeit zwischen den Rekonstruktionen der GCMs und den Beobachtungen hat sich während der letzten 9 Jahre kaum verbessert25.

Betrachtet man Abbildung 3, zeigen die GCMs ziemlich genau die Form eines W bei der Bewölkung der Erde, aber es zeigen sich signifikante Verluste durch alle Modelle in allen Breiten einschließlich der Tropen, wo die Wolken einen großen Einfluss auf das Klima haben26. Also, wie falsch sind die GCMs?

Eine Methode, den Fehler abzuschätzen, besteht darin, dass man über die Gesamtbewölkung, die von jedem Modell in der Rückschau simuliert wurde, integriert und dies mit der tatsächlich beobachteten Gesamtbewölkung vergleicht (SI Sektion 3). Den Fehler auf diese Weise zu ermitteln ist ein wenig vereinfachend, weil eine positive Abweichung in einer Breite durch eine negative Abweichung in einer anderen Breite kompensiert werden kann. Dieses Verfahren ergab eine mittlere Fehlerquote der Bewölkung von ±10,1%. Dieser Wert ist etwa halb so groß wie die offiziell festgelegte Fehlerquote bei den GCMs. Nennen wir diese ±10,1% den minimalen Fehler bzgl. der Bewölkung bei den GCMs.

Die mittlere Energiezufuhr der Wolken zum Erdklima lässt sich mit einem Wert von etwa -27,6 W/m2  27 beziffern.  Das  bedeutet, dass ein Fehler von ±10,1% eine Unsicherheit von ±2,8 W/m2 in den GCM–Projektionen hat. Diese Unsicherheit liegt bei etwa 100% des gegenwärtigen Treibhausantriebs durch alle anthropogen erzeugten Treibhausgase, die sich gegenwärtig in der Atmosphäre befinden10. Wenn man dies berücksichtigt, ergibt sich eine wahre, jedoch unvollständige Abschätzung der physikalischen Verlässlichkeit eines GCM–Temperaturtrends.

Was passiert also, wenn man diese ±2,8 W/m2 durch die SRES Temperaturtrends laufen lässt, die vom IPCC in Abbildung 1 angeboten werden? Bei der Berechnung einer Temperaturprojektion von Jahr zu Jahr wird jeder neue Temperaturwert plus dessen physikalischer Fehlergrenze in die Berechnung der Temperatur plus dessen Fehlergrenze eingegeben. Diese Art der Unsicherheit akkumuliert sich in jedem Jahr, weil jede vorhergesagte Temperatur die gesamte ±(physikalische Unsicherheit) enthält (SI Sektion 4).

Abbildung 4 zeigt die A2 SRES–Projektion, wie sie ausgesehen haben könnte, wenn das IPCC sich entschieden hätte, den Minimalfehler ±10,1% bzgl. der Wolken als ein Maß der Genauigkeit ihrer Temperaturprojektionen für das 21. Jahrhundert einzuführen. Dieses Resultat ist etwas ärgerlich. Die physikalische Ungewissheit akkumuliert rapide und ist in 100 Jahren so groß, dass sie bei einer Anpassung die steile SRES A2–Projektion in Abbildung 1 beinahe eingeebnet hätte. Die Ungewissheit von ±4,4°C im 4. Jahr übersteigt sogar schon die gesamte Temperaturzunahme von 3,7°C in 100 Jahren. In 50 Jahren liegt die simulierte Unsicherheit schon bei ±55°C. In 100 Jahren liegt dieser Wert bei ±111°C. Man erinnere sich, diese riesige Unsicherheit ergibt sich aus einem minimalen Fehler bei der Abschätzung der Bewölkung!

Hinsichtlich der aktuellen Entwicklung der Erdklimas besagt diese Unsicherheit nicht, dass die GCMs simulieren, in 100 Jahren sei es möglicherweise 100 K wärmer oder kälter als heute. Sie besagt, dass die Grenzen der Auflösung der GCMs – ihre Pixelgröße – gewaltig ist verglichen mit dem, was sie projizieren sollen. In jedem neuen Projektionsjahr einer Berechnung in der Größenordnung eines Jahrhunderts wird die Ungewissheit darüber, wie sehr die Wolken das Klima beeinflussen, größer und das Betrachten eines GCM zunehmend verwirrender.

Es ist, als ob man jedes Mal, wenn man sich umdreht, eine stärker und stärker streuende Linse vor unsere Augen hält. Erst verschwinden die Blumen, dann die Leute, dann die Autos die Häuser und schließlich sogar große Wolkenkratzer. Alles verwischt sich und lässt nur unbestimmte Farbkleckse zurück, und sogar großräumige Bewegungen können nicht mehr erkannt werden. Die Behauptung, dass die GCMs ein verlässliches Bild des zukünftigen Klimas liefern, ist etwa so stimmig wie wenn man beim Sichten eines undefinierbaren Farbkleckses darauf besteht, dass es sich um ein Haus mit einer Katze im Fenster handelt.

Die starke Schattierung in Abbildung 4 zeigt den Fehler, der sich aus den Unsicherheiten des Einflusses der Treibhausgase selbst (~1% für CO2, ~10% für Methan, ~5% für Nitrooxide)10, und wie sehr sich diese kleinen Unsicherheiten über einen Vorhersagezeitraum von 100 Jahren aufschaukeln. Nach einem Jahrhundert beträgt die Unsicherheit der vorhergesagten globalen Mitteltemperatur ±17 K, nur aus der Akkumulation des kleinsten Fehlers beim Antrieb allein.

Die Schwierigkeit ist sogar über kurze Zeiträume ernst. Das kleine Bild in der Abbildung 4 zeigt, dass nach nur 20 Jahren die Unsicherheit bzgl. der Wolken schon ±22 K beträgt und ±3 K bzgl. des Antriebs durch die Gase. Der Effekt der ±1%–Unsicherheit allein zeigt, dass zu 99% akkurate GCMs nicht erkennen können, ob wir in nicht einmal 20 Jahren eine neue Eiszeit oder aber eine tropische Warmzeit haben werden. Diese physikalischen Unsicherheiten sind nicht nur erheblich größer als vom IPCC in Abbildung 1 zugelassenen, sondern die tatsächlich zugelassenen Fehlergrenzen des IPCC sind nicht einmal physikalisch16.

Wenn man eine Akkumulation der Unsicherheiten bzgl. der Wolken und es Antriebs der Gase zusammen zulässt, ergibt sich nach dem A2–Szenario nach 5 Jahren eine um 0,34 K wärmere Erde mit einer Fehlergrenze von ±8,8 K. In 10 Jahren wird daraus 0,44 ± 15 K und in 20 Jahren 0,6 ± 27,7 K. Im Jahre 2100 läge diese Projektion bei 3,7 ± 130 K. Nur aus der Unsicherheit der Bewölkungsmenge ergibt sich, dass die Fehlergrenze sehr viel größer ist als die simulierte Temperaturzunahme. Was ist glaubwürdig an einer Vorhersage, deren Fehlergrenze 20 bis 40 mal größer ist als die Vorhersage selbst? Nach nur wenigen Jahren ist die Simulation der globalen Temperatur durch ein GCM nicht verlässlicher als bloßes raten. Dies bedeutet, dass die Wirkung der Treibhausgase auf die Erdatmosphäre nicht vorhersagbar und damit nicht bestimmbar ist. Und damit irrelevant.

Das rasante Anwachsen der Fehlergrenzen bedeutet, dass die GCMs nach 5 Jahren nicht mehr unterscheiden könne, ob wir eine Eiszeit oder eine Hitzehölle haben werden; geschweige denn nach 100 Jahren. So weit es die GCMs betrifft, kann die Erde im Jahre 2100 ein Winterwunderland sein oder ein tropisches Paradies. Niemand weiß das.Direkte Tests von Klimamodellen zeigen das Gleiche. Im Jahre 2002 hat Matthew Collins vom UK Hadley Centre das GCM HadCM3 benutzt, um ein künstliches Klima zu erschaffen, und hat dann berechnet, wie sich das gleiche Klima entwickelt, dass er selbst erschaffen hat. Es verhielt sich ärmlich, obwohl es sich um das perfekte Modell handelte. Das Problem lag darin, dass kleine Unsicherheiten bei den Eingaben – den Startbedingungen – rapide zunahmen und das GCM sehr schnell in die Belanglosigkeit trieb. Sogar mit dem perfekten Modell, berichtet Collins, „scheint es so, dass die jährliche globale Mitteltemperatur potentiell 1 Jahr im voraus  vorhergesagt  werden  kann, und eine Vorhersage für 5 oder 10 Jahre allenfalls marginal möglich ist.“ Also, mit einem perfekten Klimamodell und fast perfekten Anfangsbedingungen könnte man eines Tages potentiell oder marginal vorhersagen, aber man kann noch nicht 1 Jahr im Voraus Vorhersagen machen. Und mit diesen mangelhaften Modellen macht das IPCC Vorhersagen für 100 Jahre im Voraus!

In einem ähnlichen Test auf Zuverlässigkeit hat William Merryfield 2006 15 GCMs rechnen lassen, um künftige El-Niño Southern Oscillations (ENSO) in einem treibhausgewärmten Klima zu simulieren29. Er fand: „Bei einer Verdoppelung des CO2–Gehaltes zeigen 8 der 15 Modelle Änderungen mit einer signifikant (p<0,1) größeren Streuung als die Änderung der Amplitude selbst. Jedoch nimmt die Amplitude der ENSO in 5 dieser Modelle ab, während sie in 3 zunimmt. Fazit: Es gibt keinen Konsens über Art und Umfang der Änderung.“ Also, von 15 GCMs nahmen sieben keine signifikanten Änderungen an, 5 simulierten einen schwächeren, 3 einen stärkeren ENSO. Dieses Resultat ist gleichbedeutend mit ‚wir wissen es nicht’. Die 15 GCMs, die Merryfield benutzt hat, sind die gleichen, die dem Vierten Assessment Report des IPCC zugrunde lagen.

Wenn man all dies betrachtet, warum ist das IPCC so sicher, dass anthropogen erzeugtes CO2 für die jüngste globale Erwärmung verantwortlich ist? Wie kommt die US National Academy of Science (NAS) in einer kürzlich veröffentlichten Broschüre zu der Aussage, dass „…die Erwärmung der Erde in den letzten Dekaden primär von menschlichen Aktivitäten verursacht wurde, die den Anteil der Treibhausgase in der Atmosphäre haben zunehmen lassen“30? Diese Broschüre zeigt eine sehr aussagekräftige Abbildung 4 (SI Sektion 5), die die Inputs zu einer Projektion der globalen Temperatur aus einem GCM darlegt. Nur wenn die Auswirkungen der anthropogenen Treibhausgase in die normale Temperaturvariation mit einbezogen werden, sagt man uns, passt der Trend des GCM zu dem tatsächlich beobachteten Trend.

Aber ihre Abbildung 4 zeigt noch eine andere Charakteristik, die fast allgegenwärtig in Temperaturprojektionen von GCMs ist. Sie zeigen keinerlei physikalische Fehlergrenzen. Uns wird ein simulierter Temperaturtrend als perfekt genau präsentiert. Die Abbildung 4 der NAS wäre wesentlich glaubwürdiger, wenn die Akademie es zusammen mit der ±100 K Fehlergrenze gezeigt hätte. Dann würde offensichtlich werden, dass der Gleichlauf zwischen der beobachteten und der simulierten Trendlinie nichts als Zufall ist. Oder das GCM wurde künstlich so getrimmt, dass der Temperaturverlauf passt. Es würde auch offensichtlich werden, dass es vollkommen bedeutungslos ist zu behaupten, dass dieser erklärte Gleichlauf ohne die Zufuhr von CO2 nicht möglich ist, wenn tatsächlich ein erklärter Gleichlauf unmöglich ist. Punkt.

Unter Klimatologen ist gut bekannt, dass große Bereiche der Physik in den GCMs nicht gut verstanden werden31. Wo die Unsicherheit signifikant ist, haben die GCMs „Parameter“, die am besten darüber urteilen, wie sicher Klimaprozesse ablaufen. GCMs haben Dutzende von Parametern und eventuell Millionen Variable32, und alle davon haben einige Arten des Irrtums oder der Ungewissheit.

Eine saubere Darstellung ihrer physikalischen Zuverlässigkeit würde die Darstellung aller Unsicherheiten sämtlicher Parameter durch die GCMs einschließen und daraus resultierend eine Darstellung der gesamten Unsicherheit33. Ich habe vergeblich nach einer solchen Studie gesucht. Es scheint, dass niemand jemals die gesamte physikalische Unsicherheit eines GCM betrachtet hat. In der physikalischen Wissenschaft ist eine solche Überprüfung in der Praxis aber unabdingbar und routinemäßig erforderlich. Aber offensichtlich nicht in der Wissenschaft der GCMs. Ergo: Die gleichen Leute, die den Alarm über die künftige Erderwärmung hinaus posaunen, missachten ihre eigene ausgeprägte Unwissenheit.

Unter dem Strich ergibt sich also Folgendes: Wenn es um das zukünftige Klima geht, weiß niemand, wovon überhaupt die Rede ist. Niemand. Nicht das IPCC noch deren Wissenschaftler, nicht der US–Kongress, weder Sie noch ich und schon gar nicht Herr Al Gore. Das Erdklima erwärmt sich, und kein Mensch weiß, warum. Aber es gibt keine belastbare wissenschaftliche Basis, dass diese Erwärmung durch anthropogene Treibhausgase verursacht wird, weil die gegenwärtig zur Verfügung stehenden physikalischen Theorien gänzlich ungeeignet sind, überhaupt irgendeinen Grund zu finden.

Nichtsdestotrotz, jene, die extreme politische Maßnahmen ergreifen, um die
CO2–Emissionen zu reduzieren, beziehen sich ausschließlich auf die Ergebnisse der GCMs, die irgendwie zu realen Vorhersagen in der Öffentlichkeit werden. Aber selbst wenn diese Politiker die Unsicherheit der Modellergebnisse einräumen, werden sie immer noch das Vorsorgeprinzip bemühen und nach extremer Reduzierung rufen, „um auf der sicheren Seite“ zu sein. Dieses Prinzip besagt: „Wenn es Bedrohungen durch ernste oder irreversible Gefahren gibt, sollte das Fehlen genauer wissenschaftlicher Erkenntnisse nicht als Begründung dienen, kostenintensive Maßnahmen zu verschieben, um Umweltschäden zu verhindern“34. Dies bedeutet, selbst wenn wir nicht vollständig wissen, dass das CO2 das Erdklima gefährlich erwärmt, sollten wir doch dessen Emissionen kappen, für alle Fälle. Jedoch, wenn die gegenwärtige Fehlergrenze in den GCMs mindestens bei ±100 K pro Jahrhundert liegt, werden wir in totaler Unkenntnis über die Effekte des CO2 auf die Temperatur gelassen. Es ist nicht „… das Fehlen genauer wissenschaftlicher Erkenntnisse“, sondern es müsste heißen: „…es gibt überhaupt keine wissenschaftlichen Erkenntnisse“. Wir wissen buchstäblich gar nichts darüber, ob eine Verdoppelung des CO2–Gehaltes überhaupt irgendeinen signifikanten Effekt auf das Klima hat.

Solange unser Wissen über das künftige Klima gegen Null tendiert, kann es also sein, dass [in der Vorhersage] sowohl eine Reduzierung als auch eine Zunahme des CO2 das Klima verbessert, verschlechtert oder gar nicht verändert. Die Alternativen sind unangemessen, aber in unserem Stadium der Unwissenheit hat jede Wahl zwei von drei Chancen, den geringsten Schaden anzurichten35. Komplette Unwissenheit macht das Vorsorgeprinzip komplett unbrauchbar. Es gibt gute Gründe, den Verbrauch fossiler Energieträger zu reduzieren, aber die Klimaerwärmung ist dafür kein Grund.

Einige könnten nun beschließen, trotzdem daran zu glauben. „Wir können es nicht beweisen“, könnten sie sagen, „aber die Korrelation zwischen CO2 und der Temperatur ist real (sie nehmen beide zu)36 und so ist die Notwendigkeit da, auch wenn wir es nicht beweisen können“. Aber Korrelation bedeutet nicht Ursache37, und ein Grund kann nicht bei kompletter Unwissenheit herhalten. Die richtige Antwort auf den hartnäckigen Anspruch auf Gewissheit bei kompletter Unwissenheit ist gesunder Skeptizismus. Und ist es nicht viel besser für uns, Ressourcen für dringende aktuelle Dinge zu nutzen, anstatt diese Ressourcen für ungewisse Gefahren aufzuheben?

Also, was hat es denn nun mit schmelzenden Eiskappen, dem Anstieg des Meeresspiegels, dem Aussterben der Eisbären und anderen Wetterextremen auf sich? Was ist, wenn ungewöhnlich intensive Hurrikansaisons wirklich verbreitete Katastrophen auslösen? Es ist kritisch, den Finger auf Gründe und Rationalität zu legen, besonders wenn soziale Einladungen zum gesellschaftlichen Durchdrehen so allgegenwärtig sind. GCMs sind so schrecklich unzuverlässig, dass es keinen objektiven, belastbaren Grund gibt für die Annahme, dass der gegenwärtige Erwärmungstrend durch anthropogenes CO2 erfolgt, oder dass dieses CO2 das Klima überhaupt messbar erwärmt. Daher, selbst falls extreme Ereignisse wegen des sich erwärmenden Klimas vorkommen, gibt es keinen wissenschaftlichen Grund, die Ursache für diese Ereignisse im anthropogenen CO2 zu suchen.  Im chaotischen Erdklima könnte es gar keinen Grund für eine Erwärmung geben39. Viele hervorragende Wissenschaftler haben all das in grundlegenden Arbeiten immer wieder geschrieben, um die CO2–Panik zu dämpfen40, aber der Chor singt verführerisch, und einige rechtschaffene Gläubige scheinen sich an Widerlegungen zu weiden.

Patrick Frank,

Die Übersetzung erledigte dankenswerterweise Chris Frey EIKE

Im Original folgen noch Danksagungen

Literatur

1. McCarthy, J. 2005. “The Sustainability of Human Progress.” www.formal.stanford.edu/jmc/progress/ Last accessed on: 14 September 2007.
2. Anon. 2006. “Consequences of Global Warming” National Resources Defense Council. www.nrdc.org/globalWarming/fcons.asp Last accessed on: 14 September 2007.
3. Anon. 2007. “The Hard Facts of Global Warming.” The Sierra Club www.sierraclub.org/globalwarming/overview/overview4.asp Last accessed on: 14 September 2007.
4. Anon. 2007. “Learning About the Science of Climate Change.” Greenpeace. www.greenpeace.org/international/campaigns/climatechange/science Last accessed on: 14 September 2007.
5. Appenzeller, T. and D. R. Dimick. 2007. “Signs from Earth” National Geographic. http://magma.nationalgeographic.com/ngm/0409/feature1/ Last accessed on: 14 September 2007.
6. Cicerone, R., E. J. Barron, R. E. Dickenson, I. Y. Fung, J. E. Hansen, et al. 2006. “Climate Change Science: An Analysis of Some Key Questions” The National Academy of Sciences, Washington, D.C. See also the 2006 report downloadable here: http://dels.nas.edu/basc/. Last accessed on: 14 September 2007.
7. Pelosi, N. 2007. “We Will Work Together to Tackle Global Warming, One of Humanity’s Greatest Challenges.” www.speaker.gov/newsroom/speeches?id=0013 Last accessed on: 14 September 2007.
8. Shermer. M. 2006. “The Flipping Point.” Scientific American 294, 28.
9. Anon. Report FS-1999-06-025-GSFC: Earth’s Energy Balance, NASA: Goddard Space Flight Center Greenbelt, MD.
10. Myhre, G., E. J. Highwood, K. P. Shine and F. Stordal. 1998. “New Estimates of Radiative Forcing Due to Well Mixed Greenhouse Gases.” Geophysical Research Letters 25, 2715–2718.
11. Alley, R., T. Berntsen, N. L. Bindoff, Z. Chen, A. Chidthaisong, et al. “IPCC 2007: Summary for Policymakers.” In: Climate Change 2007: The Physical Science Basis. Cambridge University. http://ipcc-wg1.ucar.edu/wg1/wg1-report.html Last accessed on: 14 September, 2007. See under “WG1 Release”.
12. The IPCC is careful to use “projection” rather than “prediction” to describe what GCMs produce. I.e., the words “predict” or “prediction” do not appear in the SPM of the 4AR. However, “projection” appears 20 times, “scenario” appears 50 times, and the peculiarly apt “storyline” is used 7 times. “Prediction” seems to be the default message for most readers, however.
13. Soon, W., S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier. 2001. “Modeling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties” Climate Resear ch. 18, 259–275.
14. Risbey, J. 2002. “Comment on Soon et al. (2001)” Climate Research 22, 185–186; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2002). Reply to Risbey (2002) Climate Research 22, 187–188; D. J. Karoly, J. f. B. Mitchell, M. Allen, G. Hegerl, J. Marengo, et al. (2003) Comment on Soon et al. (2001) Climate Research 24, 91–92; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2003). Reply to Karoly et al. (2003) Climate Research. 24, 93–94.
15. One must go into Chapter 8 and especially Ch 8 Supplementary Material in the recently released IPCC 4AR to find GCM errors graphically displayed in W m-2. Figure S8.5, for example, shows that GCM errors in “mean shortwave radiation reflected to space” range across 25 W m-2. The errors in outgoing longwave radiation, Figure S8.7, are similarly large, and the ocean surface heat flux errors, Figure S8.14, minimally range across 10 W m-2. Such forthright displays do not appear in the SPM or in the Technical Summary; i.e., where public bodies are more likely to see them.
16. The Legend of “The Physical Science Basis, Global Climate Projections” WGI analogous Figure 10.4 more cautiously advises that, “uncertainty across scenarios should not be interpreted from this figure (see Section 10.5.4.6 for uncertainty estimates).” However, in 10.5.4.6, it is not reassuring to read that, “*Uncertainty in future temperatures+ results from an expert judgement of the multiple lines of evidence presented in Figure 10.29, and assumes that the models approximately capture the range of uncertainties in
the carbon cycle.” And in WGI Chapter 8 Section 8.1.2.2: “What does the accuracy of a climate model’s simulation of past or contemporary climate say about the accuracy of its projections of climate change? This question is just beginning to be addressed … [T]he development of robust metrics is still at an early stage, [so] the model evaluations presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past. (italics added)” That is, there is no validly calculated physical uncertainty limit available for any projection of future global climate.
17. Covey, C., K. M. AchutaRao, U. Cubasch, P. Jones, S. J. Lambert, et al. 2003. “An overview of results from the Coupled Model Intercomparison Project” Global and Planetary Change, 37, 103–133; C. Covey, K. M. AchutaRao, S. J. Lambert and K. E. Taylor. “Intercomparison of Present and Future Climates Simulated by Coupled Ocean-Atmosphere GCMs” PCMDI Report No. 66 Lawrence Livermore National Laboratory 2001 http://www-pcmdi.llnl.gov/publications/pdf/report66/ Last accessed on: 14 September 2007.
18. Dixon, K. R., T. L. Delworth, T. R. Knutson, M. J. Spelman and R. J. Stouffer. 2003. “A Comparison of Climate Change Simulations Produced by Two GFDL Coupled Climate Models.” Global and Planetary Change, 37, 81–102.
19. Houghton, J. T., Y. Ding, D. J. Griggs, M. Noguer, P. J. van der Linden, et al. Climate Change 2001: The Scientific Basis. Chapter 1. The Climate System: An Overview. Section 1.2 Natural Climate Systems, Subsection 1.2.1 Natural Forcing of the Climate System: The Sun and the global energy balance. 2001 http://www.grida.no/climate/ipcc_tar/wg1/041.htm Last accessed on: 14 September 2007 “For the Earth to radiate 235 W m-2, it should radiate at an effective emission temperature of -19° C with typical wavelengths in the infrared part of the spectrum. This is 33° C lower than the average temperature of 14° C at the Earth’s surface.”
20. Inamdar, A. K. and V. Ramanathan. 1998. “Tropical and Global Scale Interactions Among Water Vapor, Atmospheric Greenhouse Effect, and Surface Temperature.” Journal of Geophysical Research 103, 32,177–32,194.
21. Manabe, S. and R. T. Wetherald. 1967. “Thermal Equilibrium of the Atmosphere with a given Distribution of Relative Humidity.” Journal of the Atmospheric Sciences 24, 241–259.
22. Lambert, S. J. and G. J. Boer. 2001. “CMIP1 Evaluation and Intercomparison of Coupled Climate Models.” Climate Dynamics 17, 83–106.
23. Rossow, W. B. and R. A. Schiffer. 1991. “ISCCP Cloud Data Products.” Bulletin of the American Meteorological Society 72, 2–20. Global average cloudiness does not change much from year-toyear. I.e., “Table 3 and Fig. 12 also illustrate how small the interannual variations of global mean values are. … All *the+ complex regional variability appears to nearly cancel in global averages and produces slightly different seasonal cycles in different years.”
24. Gates, W. L., J. S. Boyle, C. Covey, C. G. Dease, C. M. Doutriaux, et al. 1999. “An Overview of the Results of the Atmospheric Model Intercomparison Project.” (AMIP I) Bulletin of the American Meteorological Society 80, 29–55.
25. AchutaRao, K., C. Covey, C. Doutriaux, M. Fiorino, P. Gleckler, et al. 2005. “Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations Lawrence Livermore
National Laboratory.” See Figures 4.11 and 4.12. Especially compare Figure 4.11 with text Figure 3; M. H. Zhang, W. Y. Lin, S. A. Klein, J. T. Bacmeister, S. Bony, et al. 2005. “Comparing Clouds and Their Seasonal Variations in 10 Atmospheric General Circulation Models with Satellite Measurements.” Journal of Geophysical Research 110, D15S02 11–18.
26. Hartmann, D. L. 2002. “Tropical Surprises.” Science, 295, 811–812.
27. Hartmann, D. L., M. E. Ockert-Bell and M. L. Michelsen. 1992. “The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis.” Journal of Climate 5, 1281–1304.
28. Collins, M. 2002. “Climate Predictability on Interannual to Decadal Time Scales: The Initial Value Problem.” Climate Dynamics 19, 671–692.
29. Merryfield, W. J. 2006. “Changes to ENSO under CO2 Doubling in a Multimodel Ensemble.” Journal of Climate 19, 4009–4027.
30. Staudt, A., N. Huddleston and S. Rudenstein. 2006. “Understanding and Responding to Climate Change.” The National Academy of Sciences. http://dels.nas.edu/basc/ Last accessed on: 14 September 2007. The “low-res pdf” is a convenient download.
31. Phillips, T. J., G. L. Potter, D. L. Williamson, R. T. Cederwall, J. S. Boyle, et al. 2004. “Evaluating Parameterizations in General Circulation Models.” Bulletin of the American Meteorological Society 85, 1903–1915.
32. Allen M. R. and D. A. Stainforth. 2002. “Towards Objective Probabilistic Climate Forecasting.” Nature 419, 228; L. A. Smith. 2002. “What Might We Learn from Climate Forecasts?” Proceedings of the National Academy of Science, 99, 2487–2492.
33. This is not the same as a sensitivity analysis in which the effects that variations in GCM parameters or inputs have on climate predictions are compared to observations. In contrast to this, propagating the errors through a GCM means the known or estimated errors and uncertainties in the parameters themselves are totaled up in a manner that quantitatively reflects their transmission through the mathematical structure of the physical theory expressed in the GCM. The total error would then represent the physical uncertainty in each and every prediction made by a GCM.
34. Kriebel, D. J. Tickner, P. Epstein, J. Lemons, R. Levins, et al. 2001. “The Precautionary Principle in Environmental Science.” Environmental Health Perspectives 109, 871–876.
35. Of course, reducing CO2 would likely stop the global greening that has been in progress since at least 1980. The Amazon rainforest alone accounted for 42% of the net global increase in vegetation: R. R. Nemani, C. D. Keeling, H. Hashimoto, W. M. Jolly, S. C. Piper, et al. 2003. “Climate-Driven Increases in Global Terrestrial Net Primary Production from 1982 to 1999.” Science 300, 1560–1563; S. Piao, P. Friedlingstein, C. P., L. Zhou and A. Chen. 2006. “Effect of Climate and CO2 Changes on the Greening of the Northern Hemisphere Over the Past Two Decades.” Geophysical Research Letters 33, L23402 23401–23406.
36. Rising CO2 correlates strongly (r2=0.71) with the greening of the Sahel since 1980, too. SI Section 6.
37. Aldrich, J. 1995. “Correlations Genuine and Spurious in Pearson and Yule.” Statistical Science 10, 364–376. In 1926 G. Udny Yule famously reported a 0.95 correlation between mortality rates and Church of England marriages.
38. On the other hand, the history of Earth includes atmospheric CO2 lagging both glaciations and deglaciations, and large rapid spontaneous jumps in global temperatures without any important changes in atmospheric CO2 and without tipping Earth off into runaway catastrophes. See references for the Dansgaard-Oeschger events, for example: Adams, J. M. Maslin and E. Thomas. 1999. “Sudden Climate Transitions During the Quaternary.” Progress in Physical Geography 23, 1–36; G. G. Bianchi and I. N. McCave. 1999. “Holocene Periodicity in North Atlantic Climate and Deep Ocean Flow South of Iceland.” Nature 397, 515–517; M. McCaffrey, D. Anderson, B. Bauer, M. Eakin, E. Gille, et al. 2003. “Variability During the Last Ice Age: Dansgaard-Oeschger Events.” NOAA Satellites and Information. http://www.ncdc.noaa.gov/paleo/abrupt/data_glacial2.html Last accessed on: 14 September 2007; L. C. Gerhard. 2004. “Climate change: Conflict of Observational Science, Theory, and Politics.” AAPC Bulletin 88, 1211–1220.
39. J. M. Mitchell Jr. 1976 “An overview of climatic variability and its causal mechanisms” Quaternary Research 6, 481–493. Shao, Y. 2002. C. Wunsch 2003 “The spectral description of climate change including the 100 ky energy” Climate Dynamics 20, 253–263. “Chaos of a Simple Coupled System Generated by Interaction and External Forcing.” Meteorology and Atmospheric Physics 81, 191–205; J. A. Rial 2004. “Abrupt Climate Change: Chaos and Order at Orbital and Millennial Scales.” Global and Planetary Change 41, 95–109.
40. Lindzen, R. S. 1997. “Can Increasing Carbon Dioxide Cause Climate Change?” Proceedings of the National Academy of Science, 94, 8335–8342; W. Soon, S. L. Baliunas, A. B. Robinson and Z. W. Robinson. 1999. “Environmental Effects of Increased Carbon Dioxide.” Climate Research 13, 149–164; C. R. de Freitas. 2002. “Are Observed Changes in the Concentration of Carbon Dioxide in the Atmosphere Really Dangerous?” Bulletin of Canadian Petroleum Geology 50, 297–327; C. Essex and R. McKitrick. 2003. “Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming” Key Porter Books: Toronto; W. Kininmonth. 2003. “Climate Change: A Natural Hazard.” Energy & Environment 14, 215–232; M. Leroux. 2005. “Global Warming — Myth or Reality?: The Erring Ways of Climatology”. Springer: Berlin; R. S. Lindzen. 2006. “Is There a Basis for Global Warming Alarm?” In Global Warming: Looking Beyond Kyoto Ed. Yale University: New Haven, in press. The full text is available at: http://www.ycsg.yale.edu/climate/forms/LindzenYaleMtg.pdf Last accessed: 14 September 2007.
Quelle: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html


Related Files




ARD Politmagazin Panorama: Klimawandel ist ein Verliererthema!

Im Ankündungstext wurde noch tapfer geschrieben:

"An immer größeren Katastrophen mangelt es in diesem Jahr nicht. In Pakistan sind 1400 Menschen im Hochwasser ertrunken, am Nordpol ist ein riesiges Gletscherstück abgebrochen, in Russland brennen nach einer enormen Hitzewelle riesige Waldflächen und Moskau liegt unter einer dicken Rauchwolke. Und dann noch diese Meldung: 2010 ist das heißeste Jahr seit Beginn der Wetteraufzeichnung vor 130 Jahren – weltweit! 

"Und jetzt holt sie uns wieder ein, die Klimakatastrophe!" behauptete dann, ungetrübt von jeder Sachkenntnis, Moderatorin Anja Reschke*.

Und weiter im Text:

"Worüber hätten wir jetzt normalerweise diskutiert? So wie in all den anderen Jahren? Über die Klimakatastrophe! Doch das Thema ist ziemlich out, die Deutschen sind offenbar klimamüde."

Aber es kam noch schlimmer: "Kiimawandel ist ein Verliererthema!" befand treffend Dagmar Dehmer, ebenso klimaangstbesessene Redakteurin beim linksliberalen Berliner "Tagesspiegel". Die Öffentlichkeit hätte nach dem Scheitern des Klimagipfels in Kopenhagen die "Nase so was von voll", dass sie keine Beiträge zum Thema mehr auf die Vorderseiten brächte. Und von Klimakanzlerin Merkel glaubt sie, dass diese nicht mit dem Klimathema "untergehen" wolle. Das wäre aus unserer Sicht verständlich! 

Und der sonst um keine Aussage zu den schlimmen Folgen eines von seinen Modellen herbeigerechneten Klimawandels verlegene Chef des Potsdam Institutes für Klimafolgenforschung Schellnhuber befand resignierend, Klimawandel sei in der veröffentlichten Meinung gar "ein Tabuthema" geworden. Doch der im Beitrag ebenfalls zu Worte kommende junge Mann aus dem Volke sagt es drastischer: "Es interessiert doch eh´ keinen". 

Nur Umweltminister Röttgen gab sich tapfer, die Kanzlerin -lt. Kommentator- immer  noch "an seiner Seite wähnend" und befand: "Der Kimapolitk ist ein zentrales Zukunftsthema" Wessen Zukunft meinte der Minister? Evtl. seine?

Hier finden Sie den Originalbeitrag bis zum 20.8.10 ARD Mediathek

Ähnlich frustriert ist wohl der Oberpriester der Alarmisten –  Al Gore:

‚Der Krieg ist verloren!‘ declares confused, angry, trembly-handed Al Gore in bunker conference call

So beschreibt der Journalist James Dellingpole vom Telegraph die resignierende Rede des Gurus.

* Anja Reschke: Studium der Politikwissenschaft, Geschichte und Sozialpsychologie in München. 1993 freie Reporterin bei Antenne Bayern. 1998 Volontariat beim NDR. Seit 2000 freie Autorin bei Panorama, seit Juli 2001 Moderatorin bei Panorama.

Michael Limburg EIKE




Die australische Temperaturgeschichte – ein Gesamtüberblick!

Mit diesem Ruf steht er nicht allein! In einem empfehlenswerten Versuch zur Verbesserung des Datenzustands hat der australische Wetterdienst (BOM) das australische Hochqualitäts-Klima-Netzwerk geschaffen. Der Ergebnis war aber, dass dabei eine vorurteilsverzerrte Wärmeverschiebung von 41,67 % eingeführt worden ist. Und die darauf beruhenden Klimaanalysen scheinen noch einmal etwa 66,67 % draufgepackt zu haben.

Dieser Beitrag hier ist die Zusammenfassung der meines Erachtens ersten unabhängigen Überprüfung des amtlichen Klimaberichts von Australien. Es ist damit auch die erste unabhängige Überprüfung eines amtlichen Klimaberichts für einen ganzen Kontinent. Ich werde mich um Einfachheit bemühen.

Hier ist die amtliche Version der “Klimatrends und Veränderungen in der australischen Messdatenaufzeichnung“ zu finden, die für die australische Öffentlichkeit, die Regierung und die ganze Welt herausgegeben wird. http://www.bom.gov.au/climate/change/aus_cvac.shtml

Trendkarte, 1910-2009:

Zeitreihengrafik über die Zeit, erzeugt mit deren handlichem Trendwerkzeug:

0,1 Grad C / Dekade, oder 1 Grad für ein Jahrhundert.

Auf der Webseite des australischen Wetterdienstes BOM steht diese Erklärung:

 Die Temperaturhistorien sind aus homogenen oder „hoch-qualitativen“ Temperaturdaten errechnet. Letztere wurden für die Überwachung langzeitlicher Temperaturtrends und Veränderungen entwickelt … Wo immer möglich, wurde jede Messstationshistorie um Daten-“Sprünge“ oder künstliche Unstetigkeiten korrigiert, herrührend aus Veränderungen der Stationsposition, Aufstellung, Instrumentierung oder Beobachtungsverfahren. Darin eingeschlossen sind die Erkennung und die Korrektur von Datenproblemen mit statistischen Techniken, Sichtprüfungen, historischen Informationen über die Stationen oder „Metadaten“.

und

Die australische Klimadaten „Hoher Qualität“ wurden entwickelt, bei denen Homogenitätsprobleme reduziert oder beseitigt wurden.

Über dieses Verfahren habe ich eine kurze Zusammenfassung veröffentlicht in:
http://kenskingdom.wordpress.com/2010/05/12/the-australian-temperature-record-part-1-queensland/

(Ich muss erwähnen, dass dieses Verfahren um einiges von Della-Marta et al. (2004) verändert worden ist, die auch eine Entfernungsgewichtungsmethode benutzten und einige Stadtstationen und Stationen mit viel kürzeren Messdatenhistorien benutzten.)

Torok und Nicholls (1996), Autoren der ersten (veröffentlichten) Homogenisierung bemerken völlig richtig:

“Ein hoch-qualitativer, langzeitlicher Datensatz mit Bodentemperaturen ist wesentlich für die verlässliche Untersuchung des Klimawandels und der Veränderlichkeit. 

Hier ist die Karte mit den 100 derzeit benutzten Stationen hoher Qualität, die vermutlich diese Forderung erfüllen:

Vor meinem ersten Beitrag hatte ich den Wetterdienst gebeten, mir einige merkwürdige Dinge zu erklären, die ich bei den Daten aus Queensland bemerkt hatte. Unter anderen fiel mir in einer E-Mail vom 25. 4. 2010 diese Aussage von Dr. David Jones, Leiter der Climate Monitoring and Prediction, National Climate Centre, Bureau of Meteorology, auf:

“Zur Frage der Anpassungen wird man feststellen, dass diese nahezu null Einfluss auf alle australischen Temperaturen haben, weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren (wie auch zu erwarten ist, weil es Anpassungen für zufällige Stationsänderungen sind). 

Diese Aussage ist die Messlatte für meine Studie.

Der Normalbürger wird die veröffentlichten Resultate so nehmen, wie sie sind, weil er keinen Zugang zur Stationsliste, den Metadaten, der benutzen Software oder zur Expertise des Wetterdienstes hat. Ich aber wollte mal genauer hinschauen. Die Resultate jeglicher Anpassungen sollten leicht mit der vorhergehenden Aufzeichnung vergleichbar sein. 

Ich habe jährliche mittlere Maxima und Minima für jede Station aus „BOM Climate Data Online“ heruntergeladen, die jährlichen Mittelwerte berechnet und geplottet.  Häufig wurden zwei oder drei Stationen (einige bereits geschlossen) für die gesamte Historie von 1910-2009 gebraucht, und sogar dann gab es Lücken, z. B. von 1957 bis 1964 wurden viele Stationsdaten nicht digitalisiert. (8 Jahre fehlende Daten ist noch gar nichts, viele Stationen zeigen für viele Jahre Schätzdaten, die „nachgetragen“ wurden, um die hoch-qualitative Datenhistorie zu erzeugen.) Ich habe auch die jährlichen Mittelwerte von der Hochqualitätsseite heruntergeladen und geplottet. Dann habe ich lineare Trends für jede hinzugefügt. 

Ich habe die Daten und die Berechnungen für alle 100 Stationen ausgiebig überprüft bevor ich diese Zusammenfassung gemacht habe. Nur bei einer, Bowen, habe ich mich für Verbesserungen entschieden, indem ich einige frühe Daten reduziert und  einige weggelassen habe, so dass der Trend mit HQ übereinstimmt. Das geschah nach dem Grundsatz der Nicht-Überlappung und führte dazu, dass der Plot grob übereinstimmt. Das ist ungenügend, Bowen sollte man auslassen. Die Netto-Auswirkung auf Queensland und die australischen Trends kann vernachlässigt werden. (0,01 C.) 

Jetzt schauen wir uns Dr. Jones‘ Behauptung für ganz Australien an.

“… null Einfluss auf alle australischen Temperaturen …”

Falsch.

Wir können uns die Aufzeichnung auf verschiedene Art anschauen – hier ist die Grafik mit den durchschnittlichen Rohdaten und mit den angepassten Daten für alle 100 Stationen. Der Unterschied sticht ins Auge. 

Er beträgt 0.6 Grad C / 100 Jahre bei den Rohdaten. Bei den angepassten beträgt der Trend 0.85 Grad.

Bevor nun jemand sich beschwert, dass die Abweichungen ein genaueres Bild bei den Trends für eine große Region ergäben, habe ich auch die Abweichungen für den Zeitraum von 1961 – 1990 für alle australischen Mittelwerte berechnet ( 0,6 bei den Rohdaten bis 0,85 HQ Zunahme)

und für alle 100 Stationen (leicht abweichendes Ergebnis : 0,6 bei den Rohdaten bis 0,9- 50%)

Aber die vom BOM veröffentlichte Zahl ist 1.0 C. Das sind zwei Drittel mehr!

Wir können uns auch die durchschnittliche Anpassung für jede Station anschauen:
+ 0.23 Grad C. (Die Tabelle mit allen 100 Stations ist zu groß zum Einfügen).

Oder wir können uns die mittlere Anpassung (+ 0.275 C) ansehen, und das Ausmaß der Anpassungen.

So viel zum Gerede vom “weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren”.

Wir können uns auch “Qualität” der Stationen anschauen.

"Urban" im Vergleich zu "nicht-urban":

“Bitte beachten: Stationen mit der Einordnung als "urban" sind aus der australischen jährlichen Temperaturreihe und den Trendkarten-Analysen ausgeschlossen. Urbane Stationen haben einen gewissen urbanen Einfluss auf einen Teil oder auf den gesamten Verlauf ihrer Datenreihe. (http://www.bom.gov.au/cgi-bin/climate/hqsites/site_networks.cgi?variable=meanT&period=annual&state=aus)

Im vorhergehenden Teil 1 habe ich gezeigt, wie 3 Stationen aus Queensland von Torok and Nicholls (1996) als urban eingestuft worden sind, die nun nicht-urban sind. Della-Marta et al haben einige weitere in anderen australischen Bundesstaaten wiederauferstehen lassen.
Hier ist die volle Liste: Cairns AMO, Rockhampton AMO, Gladstone MO, Port Hedland AMO, Roebourne, Geraldton AMO, Albany AMO, Alice Springs AMO, Strathalbyn, Mount Gambier AMO, Richmond AMO, Mildura AMO, East Sale AMO, Cashmore Airport, Launceston Airport.

15% des Netzwerks besteht aus Stationen, wo BOM Schwierigkeiten hat, uns zu versichern, dass diese nicht für die Klimahistorie benutzt würden.

Langzeithistorien

“… die Anzahl der Stationen ist viel kleiner wenn man nur Stationen betrachtet, die derzeit in Betrieb sind und mit wenigstens 80jähriger Datenhistorie. Um die Gesamtzahl der Langzeitstationen zu vergrößern wurden vorher unbenutzte Daten digitalisiert und eine Anzahl von Stationen wurde zusammengeworfen, um zusammengefasste Historien zu erzeugen … alle Stationen in der Historie (waren) in Betrieb im Jahre 1915.” (Torok and Nicholls)

Torok wollte Daten für 80 Jahre: Della-Marta et al und BOM geben sich mit viel weniger zufrieden Bei sechs Stationen gibt es vor 1930 (das ist 80 Jahre her) keine Daten, dennoch hat BOM diese Stationen drin.  Einige wieder sind wirklich schrecklich: Woomera- 1950; Giles- 1957; Newman- 1966.

Auch haben viel Stationen große Lücken durch fehlende Daten, da zeigt die HQ Historie einfach “Schätzwerte”, um die fehlenden Jahre zu füllen.

Hier ist eine Grafik mit der Anzahl von Stationen mit vollständiger Datenhistorie.

Man beachte: Nur 70% Rohdaten sind verfügbar bis 1910; 90% bis 1930; ein Abfall von 1945 to 1960; und dann der große Abfall bei den HQ data in diesem Jahrzehnt!

Datenvergleich:

“Im Allgemeinen haben Vergleichsbetrachtungen über mehr als fünf Jahre ausgezeichnete Vergleichsstatistiken zwischen den alten und den neuen Stationen geliefert, … Vergleiche über Zeiträume größer 2 Jahre und manchmal zwischen einem und zwei Jahren haben sich auch als nützlich erwiesen, wenn sie vollständig und von guter Qualität waren … Vergleiche schlechter Qualität über Zeiträume kleiner 2 Jahre haben sich im allgemeinen als nur begrenzt nützlich erwiesen.” (Della-Marta et al, 2004)

Würde man nicht “hervorragende Vergleichsstatistiken” für ganz wesentlich zu solch wichtigem Zweck halten? Anscheinend nicht. Da gibt es viele Stationen mit weniger als 5jähriger Datenüberlappung von nahegelegenen Stationen (bis zu 20 km entfernt). Eine Anzahl von Stationen hat überhaupt keine Überlappung.

Daher gibt es riesige Lücken in der Temperaturhistorie. Hier ist die Karte mit dem Hochqualitäts-Netzwerk, wo diejenigen Stationen gelöscht worden sind, die
(a) im Jahre 1996 als urban klassifiziert wurden,
(b) weniger als eine 80jährige Beobachtungshistorie hatten,
(c) weniger als eine 5jährige Überlappung mit vergleichbaren Daten hatten, manchmal trafen auch alle der genannten Kriterien zu. 

Die verbliebenen Stationen sind auf Ost- und Südwest-Australien konzentriert. In der Mitte klafft eine riesige Lücke. (Beachten Sie bitte den zugegebenermaßen sehr grob angenäherten Maßstab).

Und zum Schluss:…

Behauptungen aus dem Klimazustandsbericht (State of the Climate) von BOM und CSIRO vom März 2010.

Seit 1960 hat sich die Durchschnittstemperatur in Australien um etwa 0.7 °C erhöht. Der Langzeittrend bei der Temperatur ist klar…

WAHR. Aber die Rohdaten zeigen, dass sich die Durchschnittstemperatur seit 1910 nur um 0,6 Grad C erhöht hat.

Für die australischen Durchschnittstemperaturen wird ein Anstieg um 0,6 bis 1,5 º C bis 2030 vorhergesagt.

WIRKLICH? Dazu wäre eine 5 bis 12fache höhere Erwärmungsrate notwendig, als bei den Rohdaten sichtbar, oder eine zwischen 3 bis 7,5 mal so hohe im Vergleich zu den veröffentlichten Zahlen von BOM.

Große Teile Australiens werden trockener in den kommenden Jahrzehnten sein.

VIELLEICHT AUCH NICHT. Schauen Sie hier nach: http://kenskingdom.wordpress.com/2010/03/20/political-science-101/

Unsere Beobachtungen zeigen klar, dass der Klimawandel real ist. 

WAHR- so ist halt das Klima.

CSIRO und das Bureau of Meteorology werden fortfahren und die Beobachtungen und Forschungen veröffentlichen, so dass Australiens Reaktionen durch wissenschaftliche Erkenntnisse höchster Güte untermauert werden.

“Von höchster Güte”? WIRKLICH ?

Ergebnisse

Diese Studie zeigt eine Anzahl von Problemen beim australischen Netzwerk der Hochqualitäts-Temperaturmessstationen, auf dem die amtlichen Temperaturanalysen beruhen. Die Probleme bei den Hochqualitätsdaten schließen ein:

  • subjektive und manuelle Anpassungen.

Diese Verfahrensweise wird nicht gleichmäßig befolgt, manchmal ist sie auch anders als beschrieben.

Urbane Stationen, Stationen mit schlechten Vergleichsdaten, Stationen mit kurzzeitigen Historien wurden eingeschlossen.

Große Mengen von Daten sind nicht verfügbar, stattdessen sind Schätzdaten eingespeist worden. 

Die Anpassungen heben sich nicht positiv gegen negativ auf, sie haben eine große Auswirkung auf die australische Temperaturhistorie.

Die Anpassungen erzeugen einen um rund ein Viertelgrad höheren Durchschnittstemperaturtrend im Vergleich zu dem aus den Rohdaten.

Die Vorurteilsverzerrung beim Erwärmungstrend beträgt 41.67% beim Anomalietrend 50%.

Der vom BOM veröffentlichte Trend ist 66.67% größer als der aus den Rohdaten.

Die Hochqualitätsdaten zeigen NICHT die richtige australische Temperaturhistorie der vergangenen 100 Jahre.

BOM hat einen Klimabericht produziert, der bestenfalls eine „Einschätzung“ genannt werden kann.

Das Beste, was wir über die australischen Temperaturtrends der vergangenen 100 Jahre sagen können, ist: “Da, wo wir genug gute Historien haben, ist die Temperatur rauf und runter gegangen, aber wir wissen noch zu wenig.”

Warum die Übertreibung, wenn die anthropogene Klimawandel so sicher ist?

Es ist äußerst dringlich und wichtig, dass eine vollständige wissenschaftliche Überprüfung des amtlichen australischen Klimaberichts durchgeführt wird, völlig unabhängig vom BOM, CSIRO oder dem Klimawandelministerium (Department of Climate Change).

Mal sehen, was Dr David Jones [vom BOM] darauf antwortet.

(Mein Dank an Lance für die Hilfen beim Herunterladen der Daten und an janama für seine Arbeit zu NSW. Auch an Jo Nova, die mich ermutigt hat)

Gastbeitrag von Ken Stewart, July 2010 bei Watts Up With That

 * Der unter der Abkürzung Harry (mit bürgerlichem Namen  Ian "Harry" Harris) bekannt gewordene Programmierer arbeit(ete?) bei der CRU als Klimatologe und CRU Programmierer

Zusammenfassung der vorhergehenden Teile 1-7. Zu finden hier:
http://kenskingdom.wordpress.com/




Rückkopplung im Klimasystem der Erde!

Die vom IPCC um Größenordnungen höher vorausgesagten Anstiege der Erdtemperatur basieren auf  Annahmen über die „Rückkopplung“ mit dem atmosphärischen Wasserdampf.

Positive Rückkopplung verstärkt  Temperaturänderungen (z.B. Temperaturerhöhungen durch CO2;  aber natürlich auch durch jede andere Ursache ). Negative Rückkopplung schwächt Temperaturänderungen ab.

Rückkopplungen sind ein typisches Thema für Regeltechnik. In der Physik werden Rückkopplungen betrachtet im Hinblick auf  Stabilität oder Instabilität eines Systems.

Es scheint, dass in der Klimadiskussion (nicht nur bei den Verfechtern einer Klimakatastrophe) kein klares Bild über Rückkoppelmechanismen herrscht. Deshalb hier eine Darstellung des Verhaltens bei verschiedenen Rückkopplungsarten. Mit dem Verständnis der Rückkopplungen wird auch klar dass zentrale Angaben der Klimaforschung in sich widersprüchlich sind, also nicht zutreffend sein können .

1) LINEARE positive oder negative Rückkopplung.

Bei positiver Rückkopplung wird  jede Temperaturänderung (nicht etwa nur die durch Treibhausgase bewirkte) explosionsartig über alle Grenzen verstärkt. Je nachdem ob die Anfangstemperaturschwankung positiv oder negativ war, steigt die Temperatur an, bis alles Wasser der Ozeane verdampft ist, oder fällt soweit, bis die  Erde tiefgefroren ist.

Negative Rückkopplung, dagegen, stabilisiert das System, d.h. alle Temperaturschwankungen werden „weggeregelt“ (Thermostat).

2) NICHTLINEARE positive oder negative Rückkopplung.

Hier nimmt die Stärke der Rückkopplung mit wachsender oder fallender Temperatur ab (grob gesagt verschwindet der Rückkoppeleffekt für größere Temperaturänderungen).

In diesem Falle muss das System nicht explodieren, da bei größeren Änderungen sich die Rückkopplung „selbst ausschaltet“. Nichtlineare Rückkopplung kann zu stabiler Verstärkung  (positiv) oder stabiler Abschwächung (negativ) führen. (in der Elektrotechnik ist dies als  „Regenerativverstärker“ bekannt)

Schließlich ist die Schnelligkeit der Rückkoppelreaktion wichtig.  Beispielsweise ist die Verdampfung aus den Ozeanen oder Wolkenbildung eine “schnelle“ Reaktion auf Temperaturerhöhung. Die Verwitterung von CO2 (also die erhöhte Kalkbildung bei Temperaturanstieg) ist dagegen eine langsame Reaktion.

Solche Reaktionszeiten haben Auswirkungen auf die REGELDYNAMIK. (Mathematisch wird die Stabilität und Instabilität von Systemen durch das so genannte  „Nyquist-Diagramm“ beschrieben, welches  diese Fälle zusammenfasst.)

Die  Modellrechnungen, auf die der UN-IPCC seine Voraussagen gründet, sagen, von Modell zu Modell unterschiedliche,  hohe Verstärkungen aus, aber keine „Explosion“.  Die Modelle müssen also positive NICHTLINEARE Rückkopplung enthalten.

Während der Rückkoppelmechanismus offiziell erklärt wird, bleibt im Dunklen wie die Nichtlinearität zustande kommen soll  

 Die endlichen Verstärkungen  erlauben einen Test:  Nach  Angabe der offiziellen Klimaforschung gelten folgende Zahlen: der „natürliche Treibhauseffekt“: 33 °C. 29% davon entfallen auf CO2 (der wesentliche Rest auf Wasserdampf ). Erhöhung der Erdtemperatur seit Beginn industrieller CO2 Emission 0,7 °C. Zunahme der CO2-Konzentration in diesem Zeitraum 35%. 29% von 33°C sind 9,6 °C.  Mit Erhöhung der CO2-Konzentration um 35% hat sich aber die Temperatur nicht um (35% von 9,6 °C =) 3,3 °C erhöht, sondern nur um 0,7 °C.

Führte man diese 0,7 °C auf den Einfluss von CO2 zurück wie vom IPCC behauptet, dann würde dies  Nichtlinearität des Einflusses von CO2 zeigen. Die Reaktion ist  (0,7/3,3 =) 0,21. Also fast 5 mal kleiner als (offiziell) bei der CO2-Konzentration zu Beginn der Industrialisierung.. Damit kann man weiter rechnen: Erhöhen wir die CO2 Konzentration um weitere 35% wird die Reaktion abermals auf 1/5 verringert sein, usw.  Es folgt, dass für sehr große CO2 Konzentrationen  die Erdtemperatur einem Grenzwert von +0,9 °C zustrebt.

0,7 °C davon  haben wir schon hinter uns. Maximal wäre, glaubt man den Angaben der offiziellen Klimaforschung , also nur noch 0,2 °C Temperaturerhöhung möglich.

Wie vertragen sich also die offiziellen Angaben mit den dramatischen vorausgesagten Temperaturerhöhungen von bis zu 6 °C bis 2100?

Antwort: verträgt sich nicht.  Irgendwas stimmt nicht in den „offiziellen“ Rechnungen.

Zweiter Test: Der schwächer werdende Einfluss von CO2 bei zunehmender CO2-Konzentration müsste sich in einem zeitlichen Abflachen des Erdtemperaturanstieges mit der Zeit widerspiegeln. Tatsächlich nimmt aber die Steigung der Temperaturen nach den offiziellen Angaben seit dem Beginn der Industrialisierung ZU. Und dies ist ebenso der Fall für die offiziellen Temperaturvoraussagen des UN-IPCCes bis zum Jahr 2100.  

Wie vertragen sich also die angeblichen Modelle mit den angeblichen Ergebnissen?

Antwort: verträgt sich ebenfalls nicht. Wiederum ein Zeichen dass in den Rechnungen irgendwas nicht stimmt..

Offiziell wird das Rückkopplungsmodell von CO2 mit dem Wasserdampf folgendermaßen beschrieben:

Eine minimale Temperaturerhöhung durch CO2 führt zur Verdampfung von Wasser aus den Ozeanen, welches wiederum, wie oben beschrieben, zur Temperaturerhöhung führt, welches wiederum zu erhöhter Verdampfung von Wasser führt… usw. ad infinitum; also positive, lineare Rückkopplung. Dies steht im Widerspruch zur niemals eingetretenen „Explosion“, UND steht auch im Widerspruch zur Aussage, wir könnten durch Verringerung der CO2-Emissionen den Temperaturanstieg (auf +2 °C) begrenzen. Dies System reagiert  ja explosiv auf JEDE kleinste Temperaturschwankung.

Man muss auch immer wieder darauf hinweisen, dass nach diesem offiziellen Modell JEDE Temperaturerhöhung  (nicht etwa nur die Temperaturerhöhung durch CO2, sondern viel eher die durch Schwankungen der Wasserdampfkonzentration bewirkte) verstärkt würde.

CO2 spielte also als nur einer von vielen möglichen  „Auslösern“ eine unwichtige Nebenrolle. Das „gefährliche Treibhausgas“ dagegen ist nach diesem offiziellen  Modell des UN-IPCCes der Wasserdampf. Dass Maßnahmen geplant sind, den Wasserdampfgehalt der Atmosphäre zu reduzieren oder handelbare „Wasserdampfzertifikate“ auszugeben, ist allerdings bisher nicht bekannt geworden.

Endlich darf man auch nicht vergessen, dass nach diesem Modell auch die Abkühlungen  explosionsartig verstärkt werden.  Auch dies findet man nicht in den Voraussagen des IPCC.

Man sieht, hier passen die zentralen Aussagen nicht zusammen. Ein klares Zeichen, dass in den Rechnungen weitere Annahmen gemacht sind, über die man nicht spricht.

Wie lösen sich nun alle diese Widersprüche?

1) Es gibt theoretische Argumente dafür, dass NEGATIVE LINEARE RÜCKKOPPLUNG aus einem Grundprinzip der Physik  (Prinzip der „maximalen Entropie-Erzeugung“, Clausius 1860) folgt /1/.

Damit  wäre das Klima stabil gegen INTERNE Störungen wie Klimagas-Emission. Der Wasserdampf wirkt wie ein Thermostat.

ÄUSSERE Störungen, wie Änderung der Keimbildung für Wolken werden NICHT weggeregelt. Diese bewirken die historisch beobachteten Klimavariationen.

2) Das theoretische Ergebnis 1) ist mit zwei unabhängigen Methoden durch Messung von Wasserdampf /1/ bzw. durch Strahlungsmessungen mittels Satelliten /2/ bestätigt worden.

Entsprechende Überprüfung der Rechnungen und der in ihnen gemachten Annahmen, auf denen die Voraussagen des IPCC basieren, anhand von Messungen, gibt es nicht.

Kurz, die einzigen Arbeiten, die auf der Realität von Messungen basieren, falsifizieren die Voraussagen des IPCC.

Wenn sich zeigt, dass  prophezeite Katastrophen nicht eintreten können, reagiert der Katastrophenprophet gewöhnlich mit „Nachlegen“: Es wird mit noch schlimmeren Katastrophen gedroht, um von der logischen Unhaltbarkeit der Prophezeiungen abzulenken.

So auch hier:

Während sich die Prophezeiungen des UN-IPCCes  zunehmend als unhaltbar herausstellten, wurde der „runaway“, das Ende des Lebens auf der Erde durch Hitzetod, entsprechend linearer positiver Rückkopplung, wieder hervorgekramt /3/.

Die Rechnungen in /3/, die zeigen sollen, wie der in Jahrmillionen nie eingetretene Fall jetzt plötzlich doch eintreten soll, lassen sich nur mit „Kraut und Rüben“ charakterisieren: Variable werden als konstant angesetzt, Konstanten als Variablen. Zu guter Letzt wird die „Verbrennungsgeschwindigkeit“ mit der Gesamtenergie durcheinander geworfen.

Zugegebenermaßen ist dieser Autor auch sonst schon so berüchtigt, dass sich sogar unsere eigenen Katastrophenpropheten von ihm in der Vergangenheit distanziert haben. Trotzdem übt er einen enormen politischen Einfluss aus.

UND immerhin bekommt man auf Anfrage beim Umweltbundesamt nach der Physik des Klima-„runaway“ diesen Vortrag /3/ als Information…

Als vernünftiger Wissenschaftler wird man also davon ausgehen, dass die Erde mit dem Wasserdampf einen Thermostaten besitzt, der die Erdtemperatur gegen Störungen konstant hält. Dafür spricht ein physikalisches Grundprinzip und entsprechende Ergebnisse von Messungen. Weiterhin lässt sich damit die erstaunliche Klimakonstanz der Erde über Jahrmillionen verstehen. Und NUR mit diesem Ergebnis lassen sich die Widersprüche in den Angaben der offiziellen Klimaforschung lösen.

Schließlich kann eingewendet werden, die Stabilisierung durch Rückkopplung habe doch  Grenzen, jenseits derer doch Katastrophen auftreten können (in der Regeltechnik nennt man dies den „Haltebereich“). Tatsächlich kann das Wasser nicht den Einfluss beliebig großer Mengen an CO2 „wegregeln“. Dieser Thermostat funktioniert nur so weit wie Wasser alles dominiert; der Einfluss z.B. von CO2 klein ist gegen den von Wasserdampf..  Wasserdampf liegt in der Atmosphäre im Prozentbereich vor. Unter Einbeziehung der spektroskopischen Eigenschaften kann man daher vermuten, dass der Regelmechanismus z.B. ab einer CO2-Konzentration von vielleicht 10%  nicht mehr greifen würde. Das wären dann tatsächlich die vielgenannten „Kipp-Punkte“ und Katastrophen. Die wären tatsächlich denkbar … wenn, ja wenn… die CO2- Konzentration in der Atmosphäre ca. 300 mal höher wäre als sie heute ist.

Nun ist die Vorstellung unbestritten, dass die Verbrennung aller Kohlenstoff-Vorräte der Erde die CO2-Konzentration kaum verdoppeln könnte. Wir sind also im derzeitigen Erdalter beruhigend weit weg von solchen Kipp-Punkten. Wir dürfen unter allen anderen Segnungen von CO2 auch die Förderung des Pflanzenwuchses, damit dessen enormen Beitrag zur Welternährung, genießen.

CO2 wird erst dann gefährlich, wenn man es, wie geplant, unter enormen Konzentrationen, und Drücken von 250 atm, unterirdisch endlagern will. Dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.  

Prof. Dr. C.O. Weiss Dipl. Physiker für EIKE

 /!/ http://jennifermarohasy.com/blog/2009/05/the-climatically-saturated-greenhouse-effect/

 /2/ http://wattsupwiththat.com/2010/06/27/spencer-on-pinatubo-and-climate-sensitivity/

 /3/ http://www.scienceblogs.de/primaklima/2008712/jim-hansen-spricht-auf-der-agu-von-einem-runaway-greenhouse-effect.php




Linker Umweltwissenschaftler erklärt Austritt aus Bewegung der globalen Erwärmung: bezeichnet sie als ein „korruptes soziales Phänomen… ausschließlich ein imaginäres Problem der Mittelklasse der 1. Welt

In einem exklusiven neuen Video, das gerade von Climate Depot veröffentlicht wurde, erklärt Dr. Rancourt, dass die gesamte Bewegung zur anthropogen verursachten globalen Erwärmung nichts weiter ist als ein „korruptes soziales Phänomen“. „Es ist genauso ein psychologisches und soziales Phänomen wie irgendwas sonst“, erklärte Rancourt, der einige wissenschaftlich begutachtete Forschungsergebnisse veröffentlicht hat, in einem Essay vom 8. Juni . (Rancourts
e-mail: claude.cde@gmail.com .

Das Rancourt Video gibt es hier.

“Ich sage, dass die bei weitem destruktivste Kraft des Planeten machtbesessene Finanziers und profitbesessene Körperschaften samt ihren Kartellen sind, die durch militärische Macht gestützt werden; und dass der Mythos der globalen Erwärmung ein roter Hering [red herring] ist, der dazu beiträgt, die Wahrheit zu verstecken. Nach meiner Meinung wurden Aktivisten, die den Mythos der globalen Erwärmung aus irgendwelchen erfundenen Gründen unterstützen, effektiv ausgewählt oder bestenfalls neutralisiert“, sagte Rancourt.

 „Die globale Erwärmung ist ausschließlich ein imaginäres Problem der Mittelklasse in der 1. Welt“, stellte er fest.

Umweltpolitische Zensur

Rancourts Vorstoß kam bei vielen seiner grünen Freunde gar nicht gut an. „Wenn ich den anderen Umweltaktivisten erkläre, dass man sich wegen der globalen Erwärmung keine Sorgen machen müsste, greifen sie mich an – sie meiden mich und erlauben mir nicht, meine Erkenntnisse in ihren Magazinen zu veröffentlichen“, erklärte Rancourt [explained to Climate Depot].

Rancourt erklärt gerade heraus, warum seine Gefährten der Umweltbewegung den Klimaalarm so voran treiben. (Beachte: Rancourt macht sich auch lustig über die Umweltsorgen des sauren Regens und des Ozonlochs. Siehe unten)

“Sie suchen nach komfortablen Lügen, in die sie sich flüchten können, um sich von der Schuld freizukaufen, die sie darüber empfinden, im privilegierten Teil des Planeten zu leben – eine Art Schuld des Überlebenden. Viele dieser Umweltexperten sind mit Schuld beladene Individuen, die sich von der Schuld freimachen wollen, ohne Risiken einzugehen“, sagte er. „Sie sind Wochenendaktivisten… auf der Suche nach Lügen, hinter denen sie sich verstecken können.“

 „Die moderne Umweltbewegung hat sich selbst ins Abseits geschossen, indem sie nach einer Entschuldigung suchte, um es weiterhin bequem zu haben und sich von Schlachten fernzuhalten. Ward Churchill hat diesen Pazifismus als Pathologie bezeichnet“, erklärte er. „Falls Sie sich wirklich Sorgen machen, die Wälder der Erde zu retten oder die Umweltzerstörung zu verhindern, dann kämpfen Sie gegen die Umweltzerstörung, verrennen Sie sich nicht in die dünne Konzentration von CO2 in der Atmosphäre. Stellen Sie diese Frage, denn anderenfalls schwächen Sie Ihren Einfluss als Aktivist“.

Gores Film macht ihn ‘krank’

Rancourt erklärt offen seine Feindschaft zum früheren Vizepräsidenten Al Gore und seinem Film “eine unbequeme Wahrheit”. 

 „Ich fühlte mich so unwohl, dass ich aus dem Kino flüchten wollte. Er ist schrecklich. Er respektiert nicht die Intelligenz des Zuschauers.  Der Film erkennt überhaupt nicht an, dass die Leute selbst denken können“, sagte Rancourt.

Rancourt beklagte sich darüber, wie sehr “die Umweltleute das einfach schlucken und mit Gores Film kritiklos übereinstimmen konnten“.

Gore „kommt mir vor wie jemand, der für jemanden arbeitet – als jemand, der davon finanziell profitieren möchte. Er vermittelt mir nicht den Eindruck als einer, der sich wirklich um die Umwelt oder soziale Gerechtigkeit kümmert.“

Rancourt geht auch gnadenlos mit dem umstrittenen IPCC ins Gericht. Die Wissenschaftler sind „ernannt von Regierungen, es sind Wissenschaftler, die akzeptieren, eine politische Rolle zu spielen. Ihre Mission ist es, einen Bericht zu schreiben“, der „von den Regierungen genutzt werden soll. Ihr Ziel ist es, eine Schlussfolgerung zu finden… es ist ein politischer Prozess“. 

[Anmerkung des Herausgebers: Climate Depot’s führender Editor Marc Morano trat in Dr. Denis Rancourt’s Radiosendung eine Stunde lang im Mai 2010 auf: Morano: Das Märchen der globalen Erwärmung…war totaler Quatsch, es war ein übler Job…ein wissenschaftlicher Skandal höchster Ordnung‘]

Der Kohlenstoffhandel ist „ein gigantischer Betrug”

Rancourt steht auch dem Kohlenstoffhandel sowie dem Handel mit Emissionsrechten sehr kritisch gegenüber.

“Irgendjemand wird damit eine Menge Geld verdienen. Ich bin da sehr misstrauisch. Dahinter stecken keine Motive echter Sorge um soziale Gerechtigkeit und der Umwelt. Es kann nur um mächtige Finanziers gehen. Ich sehe es als ein horrenden Betrug“, sagte Rancourt und fügte hinzu, dass er „völlig übereinstimme“ mit dem Umweltguru James Lovelock in UK, der den Kohlenstoffhandel als “auf einen gigantischen Betrug hinauslaufend” bezeichnete.

Aber es sind seine Professorenkollegen, mit denen Rancourt am härtesten ins Gericht geht.

 „Sie sind alle, fast alle dienende Intellektuelle. Sie werden keine wirkliche Kritik äußern auf eine Art und Weise, die die Interessen der Mächtigen bedrohen könnten, die sie in ihren Jobs halten. Die Dauer der Beschäftigung ist ein Prozess, der aus ihnen fügsame und gehorsame Intellektuelle macht, die dann andere Intellektuelle lehren sollen“, sagte Rancourt.

 „Man hat diese Armee von Universitätswissenschaftlern, und sie müssen so tun, als ob sie wichtige Forschungen betreiben, ohne jemals die Interessen der Mächtigen wirklich zu kritisieren. Also was suchen sie? Sie suchen nach trügerisch sauberen Dingen wie sauren Regen, globale Erwärmung“, fügte er hinzu. Dieser gesamte Prozess „hilft, jede Art von Abweichung zu neutralisieren”, so Rancourt.

“Wenn einer von ihnen wirklich etwas Schlimmes herausfindet, wird er schnell lernen und gesagt bekommen, dass er besser auf Linie bleibt – seine Karriere würde davon abhängen“, sagte Rancourt.

Einige Kernauszüge von Denis Rancourt: 

Linker Umweltaktivist & Physiker Dr. Denis Rancourt: Einige große Lügen der Wissenschaft – Juni 2010 

Ein Auszug: Umweltwissenschaftler arbeiten naiv und wissentlich Hand in Hand mit Winkeladvokaten aus der Finanzwelt, Mainstream-Medien, Politikern und staatlichen sowie internationalen Bürokraten, um reale Probleme zu maskieren und Profitmöglichkeiten zu erschließen für ausgewählte Machteliten… Ich habe den Betrug der globalen Erwärmung in einem Essay bloß gestellt, dass der Kolumnist der Zeitung ‚The Nation’ „einen der besten Essays zum Thema Treibhausmythos aus einer linken Perspektive“ nannte. (…)

Mein Essay brachte David F. Noble dazu, der Frage nachzugehen und den Artikel ‚Der Gesellschaftliche Klimacoup’ zu schreiben, in dem er offen legt, wie die Medien umfassend den Möglichkeiten des Finanzsektors folgten und dem beispiellosen Potential der Einkünfte, die das Schwenken zu grün bieten konnte. (…) Ich sage, dass die bei weitem destruktivste Kraft des Planeten machtbesessene Finanziers und profitbesessene Körperschaften samt ihren Kartellen sind, die durch militärische Macht gestützt werden; und dass der Mythos der globalen Erwärmung ein roter Hering [red herring] ist, der dazu beiträgt, die Wahrheit zu verstecken. Nach meiner Meinung wurden Aktivisten, die den Mythos der globalen Erwärmung aus irgendwelchen erfundenen Gründen unterstützen, effektiv ausgewählt oder bestenfalls neutralisiert“.

 „Die globale Erwärmung ist ausschließlich ein imaginäres Problem der Mittelklasse in der 1. Welt“.

Rancourt verhöhnt die Behauptungen über das Ozonloch: ,Kennen Sie jemanden, der durch das Ozonloch ums Leben kam?’

Rancourt macht die Behauptungen über den sauren Regen lächerlich: Als Physiker, der vom Umwelt- zum Erdwissenschaftler [Earth scientist] geworden ist, konnte ich kein einziges Beispiel finden, die negative Auswirkungen des sauren Regens in Seen oder Wäldern zu demonstrieren. Nach meiner Ansicht und im Gegensatz zu den Behauptungen der wissenschaftlichen Autoren zeigt die Forschung zum sauren Regen, dass er unmöglich ein Problem gewesen sein konnte – Ich schlussfolgerte, dass es ein Scheinproblem war. (…) Saurer Regen [ist] sehr, sehr ähnlich der globalen Erwärmung. Ein gewaschenes Problem. Ich fand durch Forschungen seit den Fünfziger Jahren heraus, dass es ein Scheinproblem war. Auswirkungen wie die Versauerung von Seen durch den sauren Regen waren so unterschwellig, so schwierig zu messen – eigentlich unmöglich zu messen in einer Zeit, in der Wälder durch reale Dinge zerstört wurden.

Rancourt steht unter den eher linken Wissenschaftlern und Aktivisten mit seiner abweichenden Meinung über die anthropogene globale Erwärmung nicht allein da. (Auszüge aus einer Rede von Senator James Inhofe, einem hohen Mitglied des Environment & Public Works Komitee)

Senator Inhofe: Es wird immer klarer, dass der Skeptizismus bzgl. der Furcht vor der anthropogenen globalen Erwärmung nicht ein Partisanenkampf zwischen Linken und Rechten ist. Tatsächlich glauben viele Wissenschaftler und Aktivisten, die ebenfalls fortschrittliche Umweltexperten sind, dass die Bewegung der Klimaangst die grüne Bewegung „übernommen“ oder „entführt“ hat.

Im August 2009 war die Wissenschaft von der globalen Erwärmung so dünn, dass selbst Aktivisten auf grünen Festivals ihren Zweifeln Ausdruck gegeben haben über die Ängste der anthropogenen globalen Erwärmung. Ein College–Professor hat mir in einer privaten Unterhaltung anvertraut, dass er ‚nicht sicher ist, ob dieser Klimawandel real ist’. So hieß es in einem Bericht über ein grünes Festival in New York.

Der linksliberale Blog [der Zeitung] Huffington Post überraschte viele mit der Veröffentlichung eines Artikels vom 3. Januar 2009 von Harold Ambler, der eine Entschuldigung von Gore fordert wegen des Schürens unbegründeter Ängste vor der globalen Erwärmung. In dem Artikel in der Huffington Post wurde Gore vorgeworfen, „der Öffentlichkeit den größten Whopper in der Geschichte der Menschheit verkauft zu haben“, weil er behauptet hatte, dass sich die Wissenschaft einig sei in der Beurteilung der globalen Erwärmung. Zu dem mit der Überschrift „Mr. Gore: Entschuldigung akzeptiert“ versehenen Artikel fügte die Zeitung hinzu, dass „es Mr. Gore und seine Brüder seien, die die Erde als Scheibe betrachten, nicht die Skeptiker.

In dem Artikel heißt es weiter: “lassen wir es niemals zu, dass unsere eigene Wirtschaft verkrüppelt wird durch die Bezeichnung von Kohlendioxid als Giftstoff oder dadurch die Entwicklung in der Dritten Welt verhindert wird, wo sich das Leiden ungebremst fortsetzt, Tag für Tag“.

Der britische Atmosphärenwissenschaftler Richard Courtney, ein links des Zentrums stehender Sozialist, ist ein weiterer Abweichler von den Klimaängsten durch den Menschen. Courtney, ein Begutachter des IPCC und Berater der Klima- und Atmosphärenwissenschaft in Großbritannien, beschreibt sich selbst als Sozialist, der die AGW-Ängste zurückweist. Courtney erklärte im Jahre 2008, dass es “keine Korrelation zwischen den anthropogenen Emissionen von Treibhausgasen und der globalen Temperatur gibt”.

Viele andere fortschrittliche Umweltexperten stimmen Courtney zu:

Das ehemalige Mitglied von Greenpeace, der finnische Wissenschaftler Dr. Jarl R. Ahlbeck, ein Dozent für Umwelttechnologie und chemischer Ingenieur an der Abo Akademi University in Finnland, der 200 wissenschaftliche Publikationen verfasst hat, ist ebenfalls skeptisch hinsichtlich der menschengemachten Klimadämmerung. Ahlbeck schrieb 2008: „Im Gegensatz zum allgemeinen Glauben gab es seit 1995 nur eine sehr geringe oder gar keine globale Erwärmung mehr, und dies wird absolut unabhängig voneinander durch zwei verschiedene Datensätze belegt. Und bis jetzt gibt es aus realen Messungen keinen Grund für Sorgen, dass es in Zukunft zu einer katastrophalen globalen Erwärmung kommen könnte“. (LINK)

Wissenschaftler und Zeit seines Lebens liberaler Demokrat weist Klimaängste zurück.

Der Zeit seines Lebens liberale Demokrat Dr. Martin Hertzberg, ein
Navy–Meteorologe im Ruhestand mit einem Ph. D. in physischer Chemie, erklärte 2008 ebenfalls seine abweichende Meinung zu den Ängsten vor der Erwärmung. „Als Wissenschaftler und lebenslanger liberaler Demokrat finde ich, dass die ständige Wiederholung der anekdotischen, Angst erzeugenden Panikmache über das AGW ein großer Schaden für die Wissenschaft ist“, schrieb Hertzberg. „Die Alarmisten scheren sich nicht einmal um Daten! Alles, was sie haben, sind halbgare Computermodelle, die total fern der Wirklichkeit liegen und sich längst als völlig falsch herausgestellt haben“, fügte Hertzberg hinzu. (LINK)

Der Geologe Dr. Robert Giegengack, der ehemalige Vorsitzende im Fachbereich Erd- und Umweltwissenschaft an der University of Pennsylvania, verkündete öffentlich, dass er im Jahre 2000 für Al Gore gestimmt hat und das wieder tun würde. Aber Giegengack stimmt Gores Ansichten zur Wissenschaft überhaupt nicht zu  und stellt fest, dass die globale Erwärmung nicht einmal unter den ‚Top Ten‘ der Umweltprobleme rangiert, denen die Welt gegenüber steht, und schon gar nicht als Top Thema geeignet ist. „Hinsichtlich des Potentials (der globalen Erwärmung), der Menschheit Schaden zuzufügen, denke ich nicht, dass es dieses Thema bis in die ‚Top Ten’ schaffen wird“, sagte Giegengack in einem Interview in der Ausgabe Mai/Juni der Pennsylvania Gazette. (LINK)

 ‘Intellektuelle Blasphemie‘

Andere lieberale Umweltwissenschaftler und Aktivisten folgen Giegengack inzwischen.

Alexander Cockburn, ein Journalist und Außenseiter, der bei den meisten Themen links orientiert ist, kritisierte scharf den angeblichen Konsens zur globalen Erwärmung auf der politischen Website CounterPunch.org. Er argumentiert, dass es noch keinen Beweis dafür gibt, dass Menschen für den Anstieg der globalen Temperatur verantwortlich sind. Nachdem er sich öffentlich gegen die Befürchtungen der Alarmisten ausgesprochen hatte, schrieb Cockburn am 22. Februar 2008: „Ich wurde behandelt, als hätte ich eine intellektuelle Blasphemie begangen“. Cockburn kritisierte die politische Linke harsch dafür, dass sie sich vom Klimaalarmismus vereinnahmen ließen. „Diese Hinwendung zum Klimakatastrophismus hängt mit der abnehmenden Zustimmung zu den Linken zusammen sowie mit der Ablehnung der optimistischen Vision der Linken, die ökonomische Natur der Dinge durch ein politisches Programm zu verändern. Die Linke hat sich an den Umweltkatastrophismus gehängt, weil sie glaubt, die Welt überreden zu können, dass dort wirklich eine Katastrophe ist. Dann wird das Ergebnis davon, der Notfall nämlich, irgendwie zu positiven Entwicklungen hinsichtlich sozialer und umweltfreundlicher Gerechtigkeit führen“, schrieb Cockburn. (Siehe auch: Berichte vom Juli 2007 und März 2008, die detailliert zeigen, wie sehr skeptische Wissenschaftler bedroht und eingeschüchtert wurden – LINK & LINK )

Bei CNN – nicht gerade eine Bastion der Konservativen – hatte sich einer ihrer Meteorologen von den Erwärmungsängsten distanziert. Chad Myers, seit 22 Jahren Meteorologe und zertifiziert von der Amerikanischen Meteorologischen Gesellschaft (American Meteorological Society), wandte sich im Dezember auf CNN gegen die anthropogenen Klimabehauptungen. „Wissen Sie, der Gedanke, dass wir das Wetter in diesem Ausmaß beeinflussen können, ist ziemlich arrogant“, sagte Myers in der Sendung "Lou Dobbs Tonight" am 18. Dezember 2008 “Mutter Natur ist so groß, die Welt ist so groß, die Ozeane sind so groß – ich glaube, dass wir am Frischwassermangel sterben oder an der Versauerung der Ozeane, bevor wir durch die globale Erwärmung sterben, mit Sicherheit“, erklärte Myers.

Der vielleicht größte Schock in der Debatte um die globale Erwärmung war der kürzliche Wechsel des berühmten französischen Geophysikers Dr. Claude Allegre von einem Befürworter der gefährlichen anthropogenen Erwärmung zu einem Skeptiker. Allegre, früher einmal Vorsitzender der Sozialistischen Partei in Frankreich und Mitglied sowohl in der französischen als auch in der US-amerikanischen Akademie der Wissenschaften, war einer der ersten Wissenschaftler, der die Ängste vor der globalen Erwärmung vor 20 Jahren ansprach. Aber heute sagt er, dass der Grund für Klimaänderungen „unbekannt“ ist. Er machte sich in einem Artikel im September 2006 (LINK) lustig über die, wie er es nannte, „Propheten des Untergangs durch die globale Erwärmung“. Allegre hat über 100 wissenschaftliche Aufsätze verfasst, 11 Bücher geschrieben und zahlreiche wissenschaftliche Orden erhalten, einschließlich der Goldschmidt–Medaille der Geochemischen Gesellschaft der USA. Er glaubt heute, dass die Hysterie um die globale Erwärmung finanzielle Gründe hat. „Die Ökologie hilfloser Proteste ist zu einem sehr lukrativen Geschäft für einige Leute geworden!“ erklärte er.

Die ‘entführte’ politische Linke 

Der linksorientierte Professor David Noble der York University in Kanada hat sich inzwischen in die wachsende Schar desillusionierter liberaler Aktivisten eingereiht. Noble glaubt jetzt, dass die Bewegung „den Hype um das globale Klima in eine Besessenheit erhoben hat“. Noble schrieb am 8. Mai 2007 ein Essay mit dem Titel „Der gesellschaftliche Klimacoup“, in dem er viele Details beschreibt, wie die globale Erwärmung die politische Linke „vereinnahmt“ und eine „gesellschaftliche Klimakampagne“ erschaffen hat“, „die von der Aufmerksamkeit für die radikalen Änderungen der globalen Gerechtigkeitsbewegung ablenken soll“. (LINK)

Der Botaniker Dr. David Bellamy, ein berühmter Umweltaktivist in Großbritannien, ehemaliger Dozent an der Durham University und Moderator einer populären
TV–Serie über die Wildnis, wandelte sich von einem Gläubigen zu einem Skeptiker der globalen Erwärmung. Bellamy, ein überzeugter Umweltexperte, sagt jetzt, dass ihn diese Wandlung seine Karriere beim BBC gekostet hat. Bellamy sagte 2008: „Es ist meine Meinung, dass es absolut keinen Beweis dafür gibt, dass das Kohlendioxid irgendetwas mit irgendeiner bevorstehenden Katastrophe zu tun hat. Die Wissenschaft ist ganz einfach schief gegangen. Tatsächlich ist es nicht einmal mehr Wissenschaft, es ist Anti–Wissenschaft. Es gibt keinen Beweis, sondern nur Projektionen, und wenn man auf die Modelle schaut, so wie es Gore tut, kann man leicht erkennen, dass sie sich daraus nur diejenigen Erkenntnisse herauspicken, die zu ihren Behauptungen passen“. (LINK)

Der Geologe Peter Sciaky fasst diesen zunehmenden Rückzug linker Umweltaktivisten bzgl. der globalen Erwärmung zusammen. Sciaky, der sich selbst als ein „Linker und Liberaler“ sieht, schrieb am 9. Juni 2007: „Ich kenne keinen einzigen Geologen, der glaubt, dass die globale Erwärmung ein menschengemachtes Problem ist“.

Der Ökologe Dr. Patrick Moore, ein Gründungsmitglied von Greenpeace, hat sich ebenfalls den Reihen der Abweichler angeschlossen. „Es ist klar, die Behauptung, dass anthropogenes CO2 und der steigende CO2–Anteil in der Atmosphäre der Grund für die gegenwärtige globale Erwärmung sind, ist eine Hypothese, die bis jetzt noch nicht den Grad einer wissenschaftlich nachgewiesenen Theorie erreicht hat. Diese Ursache wurde nie in aufschlussreicher Weise gezeigt“, schrieb Moore, der Chefwissenschaftler bei Greenspirit, im Jahre 2006. (Ende der Auszüge der Rede von Senator Inhofe)

Weitere Links:

SCHOCK: James Lovelock, ein Guru der Grünen in Großbritannien hat seine Meinung geändert!: Lovelock: Anthropogene Kohlenstoffemissionen ‚haben uns vor einer neuen Eiszeit bewahrt‘ (March 2010)

Marc Morano, Haupteditor auf ClimateDepot, über Dr. Denis Rancourt’s Radio Show im Mai 2010: Morano: Das Märchen von der globalen Erwärmung … war total quatschig, es war ein betrügerischer job… ein wissenschaftlicher Skandal erster Güte‘

Link dieses Textes: http://www.climatedepot.com/a/7477/Leftwing-Env-Scientist-Bails-Out-Of-Global-Warming-Movement-Declares-it-a-corrupt-social-phenomenonstrictly-an-imaginary-problem-of-the-1st-World-middleclass 

Übersetzt von Chris Frey