1

180 Jahre atmosphärischer CO2-Gasanalyse mittels chemischer Methoden

Related Files




In Erwartung eines US-amerikanischen „Temperatur-Gate“?

Unsere Studie über das Frisieren von Daten durch die U.S.-Regierungsbehörde, die mit der Sammlung von Temperatur-Informationen beauftragt ist, ruft unangenehme Fragen hervor.
Man hat uns zwanzig Jahre lang immer wieder gesagt (vielleicht ist „eingetrichtert“ das bessere Wort), dass eine globale Erwärmung stattfindet. Durch Climategate mit nachfolgenden Geständnisse und der Distanzierung von Wissenschaftlern des CRU [Climate Research Unit der brit. East Anglia Universität], der Penn-Staatsuniversität, der Arizona-Staatsuniversität, des IPCC und anderer Stellen erfahren wir nun, dass ganz wenig von den sachlichen Inhalten ihrer „fachbegutachteten“ Veröffentlichungen stimmt. Die mittelalterliche Warmperiode hat es gegeben, es war wärmer als heute, die Meere haben nicht die Tiefebenen überflutet und das Eismeer wird sich vermutlich nicht in ein Sommermeer verwandeln. Natürlich haben die vorherrschenden Massenmedien nur wenig davon berichtet, vor allem in den USA, und Präsident Obama scheint kaum informiert zu sein. Aber jetzt wird die Geschichte vom Klimawandel interessanter, weil Amerika ein eigenes kleines „Gate“ hat. Ich möchte es ATG nennen für „Amerikanisches Temperatur-Gate“.

Das Nationale Klimadatenzentrum (NCDC) des U.S. Wetterdienstes teilt auf der Grundlage seiner „justierten Daten“ mit, dass für den Zeitraum vom letzten Jahrzehnt des 19. Jh. bis 2006 die Temperaturen in den kontinentalen USA mit einer Rate von 0.69 °C/Jh. angestiegen sind (hier zu sehen). Das Klimadatenzentrum kommt zu dieser Schlussfolgerung aufgrund des Frisierens der Rohdaten einer Teilmenge von Wetterstationen auf dem Kontinent, ausgewählt aus einem Gitternetz bestehend aus Zellen mit Kantenlängen von 2,5 Grad Breite und 3,5 Grad Länge. (Näheres hier und hier). Am meisten wird hinterfragt, gerade erst von D’Aleo and Watts, ob der vom Klimadatenzentrum gemeldete Anstieg korrekt ist. Vielleicht ist dieser Wert auf die bevorzugte Verwendung (Über-Selektion) von Wetterstationen in städtischem Umfeld zurückzuführen oder aufgrund anderer Kriterien, z. B. das Auslassen von Stationen in höheren Lagen für die jüngere Vergangenheit bei gleichzeitigem Einbezug für die ältere Vergangenheit.
Wir beschäftigen uns hier nun mit einem Aspekt, dem Wärme-Insel-Effekt, [engl.] abgekürzt UHI-E [Urban Heat Island Effect].

Wir haben zwei Teilmengen von Wetterstationen aus der Klimadaten-Hauptliste ausgewählt (48 pro Teilmenge mit je einer Station aus den südlicheren 48 Staaten). Die Stationen in der ersten Teilmenge waren in ländlichen (rurale) Umgebungen gelegen, das ist die ländliche Datenserie. Die Stationen der anderen Teilmenge waren in städtischen (urbane) Umgebungen, das ist die städtische Datenserie. Die Längen- und Breiten-Koordinaten aus der NCDC-Liste wurden benutzt, um mit dem Computer „über die Stationen zu fliegen“ und mit Hilfe einer GPS-Kartensoftware die ländliche und städtische Charakteristik zu bestätigen. Die Rohdaten und die „justierten“ Temperaturdaten wurden in eine Tabellenkalkulationsliste eingetragen und untersucht. Die Rohdaten sind die jährlichen gemessenen Durchschnittstemperaturen. Die „justierten“ Daten sind die jährlichen Durchschnittstemperaturen des NCDC, die aus den Rohdaten abgeleitet wurden, indem „korrigierende“ Annahmen in Bezug auf die Tageszeit, die Art der Messgeräte usw. angesetzt wurden, und indem für Stationen ohne Daten die Temperaturdaten geschätzt wurden, auf der Basis von vorliegenden Messungen anderer Stationen mit der gleichen geographischen Breite und/oder aus der gleichen Region. (Für ein tiefer gehendes Verständnis der Protokolle des NCDC bei der Konversion von Rohdaten in justierte Daten siehe hier.)  Die Ergebnisse sind in der folgenden Tabelle zusammengefasst. Die Tabellenwerte zeigen, dass der vom NCDC angegebene Temperaturanstieg von 0.65 °C/Jh. auf einer Über-Selektion von Stationen aus städtischer Umgebung beruht.

 

Station Set

 

°C/Century, 11-Year Average Based on the Use of

 

Raw Data

 

Adjusted Data

 

Rural (48)

 

0.11

 

0.58

 

Urban (48)

 

0.72

 

0.72

 

Rural + Urban (96)

 

0.47

 

0.65

 

 

Die Tabellenwerte erlauben vier wichtige Aussagen:

1) Die Anstiegsrate bei den gemessenen Rohdaten ist  in ländlichen Gebieten klein, (wenn überhaupt vorhanden, dann tatsächlich sind es nur 0.11°C/Jh!)

2) Es gibt in der Tat einen Wärmeinsel-Effekt bei den Rohdaten aus den städtischen Gebieten mit einer Zunahme von 0,72 °C/Jh. Das bedeutet, dass der Mensch die Erwärmung in den städtischen Gebieten verursacht hat. Das sollte aber niemanden überraschen. Weil aber der ländliche Wert nur 15 % des städtischen Wertes beträgt, kann der Wärmeinsel-Effekt keine Erwärmung in den ländlichen Gegenden verursacht haben und kann keineswegs für eine  globale Erwärmung stehen, , außer dass die zusammengefassten städtischen und ländlichen Werte einen höheren durchschnittlichen Anstieg ergeben, als die ländlichen Werte für sich allein.

3) Die Summe aus ländlichen und städtischen Werten bei den justierten Daten ist 0.65 °C/Jh. Das ist immer noch weniger als die vom NCDC veröffentlichen 0.69 °C/Jh. Daher benutzt die NCDC vermutlich mehr städtische als ländliche Stationen.

4) Und das ergibt den „Temperatur-Gate-Effekt“: Das Frisieren der Daten durch das NCDC – „Justierung“ genannt – hat einen Anstieg in den ländlichen Gebieten erzeugt. Aus einem Rohwert von 0.11°C/Jh. wurde ein "justierter" Wert von 0.58 °C/Jh. Bei den städtischen Werten ergibt das hingegen keine Änderung. Das heißt, durch die Art der Behandlung der ländlichen Daten durch das NCDS erzwingt diese, dass der ländliche Wert dem städtischen ähnlicher wird. Das ist das genaue Gegenteil von jeglicher vernünftigen Beurteilung, angesichts der Zunahme an Ausdehnung und Aktivität in städtischen Gebieten. Es sei denn man will täuschen.

Die Kritik an der Behandlung der historischen Daten für die kontinentalen Vereinigten Staaten durch das NCDC ist die gleiche, wie in einem kürzlich veröffentlichten russischen Papier über die Behandlung der historischen Daten aus Russland im HadCRUT [Hadley Climate Research Unit Temperature, UK]. Eine Zusammenfassung der Argumente kann man hier lesen.

Die vollständige Studie finden Sie im Anhang bzw. können Sie hier abrufen

UPDATE von Anthony Watts: Ein Leser fragte, warum die Divergence 1960 beginnt. Stadtwachstum könnte eine Ursache sein. Aber weil das Paper die NCDC Anpassungen zum Thema hat, ist die untere Grafik von NOAA vergleichbar passend. 

http://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_urb-raw_pg.gif

Edward R. Long ist promovierter Physiker. Er ist pensionierte NASA-Wissenschaftler und Berater für Raumfahrt-Strahlungsphysik und für Energie- und Klimafragen beim Commonwealth of Virginia. [Offizielle Informationsstelle des U.S. Bundesstaates Virgina]

 

Der Artikel erschien im "American Thinker" und wurde dankenswerter Weise von Helmut Jäger für EIKE übersetzt. 

weitere Details siehe auch hier

Related Files




Star-TV-Journalist Ederer schreibt offenen Brief an FDP MdB Kauch zur Klimapolitk der FDP!

Während in bedeutenden Publikationen in aller Welt (New York Times, Londoner Times, Die Welt) von Climategate geschrieben wird, der Institutsleiter des CRU, Phil Jones zurücktreten muss, höre ich von Ihnen gar nichts. Die Manipulation der Hockeystick-Kurve durch falsche Berechnungen der Baumrinden ist für mich dabei zwar ein signifikanter aber nicht der entscheidende Skandal. Die Weigerung des CRU, dem Freedom of Information Act folge zu leisten, ist politisch viel schwerwiegender. Dadurch wird deutlich, dass sich hier eine Organisation das Recht nimmt, jenseits von Gesetzen und gebotener Transparenz politische Entscheidungen zu provozieren, die dann als UN- Beschluss völkerrechtlich verbindlich erklärt werden sollen. Gott sei Dank ist das in Kopenhagen schief gegangen.

Ich habe von Ihnen noch nicht einmal einen Nebensatz gehört, dass die Versuche in Kopenhagen, die Staaten zu CO2-Emmissionen zu verpflichten, die international überwacht werden sollen und die das Recht beinhaltenden in die nationale Wirtschafts-, Finanz- und Umweltpolitik einzugreifen, massive Bedrohung der freiheitlichen Wirtschafts- und Gesellschaftsordnung darstellt. Dies kann doch eine liberale, der Freiheit verpflichtende Partei nicht akzeptieren.

Was auffällt ist, dass Sie bei Veranstaltungen von Wissenschaftlern, die zu anderen Ergebnissen als die IPCC und PIK- Gruppe kommen, nie anwesend sind- im Gegensatz von anderen FDP-Abgeordneten. Selbst wenn die Friedrich Naumann-Stiftung solche Seminare mitgestaltet, sind Sie nie dabei. Das bedeutet doch, dass Sie darauf verzichten, sich umfassend zu informieren. Sie betonen in Ihren Stellungnahmen, dass Sie von Bali bis Kopenhagen an den Klimakonferenzen teilnehmen, was aber nichts anderes bedeutet, als dass Sie sich zufrieden damit geben, sich einseitig zu informieren.

Abgesehen davon, dass Sie damit zu den vielen parteipolitisch einäugigen Abgeordneten zählen, die mir im Laufe meiner Berichterstattung begegnet sind, und die durch Anpassung an eine allgemein gültige Linie es bis in Ministerien geschafft haben, ist es in Ihrem Falle auch noch taktisch voll daneben.

Angenommen, die Geschichte mit den Treibhausgasen stimmt und die Beschränkung der Erderwärmung um 2 Grad wäre wirklich zum Überleben der Menschheit entscheidend: Dann gibt es doch nur eine Partei, die man wählen muss: Die Grünen. Sie haben das schon immer gesagt. Sie richten Ihre ganze Politik danach aus- kompromisslos. Und das ist auch richtig: Wenn es um die Rettung der Welt geht, kann man keine Kompromisse machen- dann geht es um alles oder nichts- Lebensstandart der westlichen Welt hin, Arbeitsplätze her. Warum soll ich dann irgendeine Nachahmerpartei wählen. So was Rotgrünes wie die SPD, oder wie der Schöpfungserhaltungspartei Schwarzgrün? Die Grüngelben oder Gelbgrünen braucht dann ganz bestimmt niemand. Wo ist übrigens deren Wählerpotential?

In Internetforen und bei Veranstaltungen treffe ich aber auf sehr viel FDP Mitglieder und Sympathisanten, die nicht an den „Weltklimarat“ glauben. Es sind dies eigenständig denkende Menschen. Sie gehören nicht unbedingt zu den Besserverdienenden, aber zu den besser Gebildeten-  und dieser Bevölkerungskreis ist entsetzt über die Klimapolitik der FDP. Bei der letzten Wahl haben sich schon einige enthalten- aber da ging es um die Verhinderung der schwarzroten Regierung, das war wichtiger als das Klima. Sie können sicher sein: Jetzt wo die FDP mitregiert und Herr Röttgen die selben Reden hält, wie einst Trittin und Sie dann im Parlament auch die CO2-Reduktion um 40% predigen- werden Sie diese Wähler verlieren, sogar wenn sie FDP-Mitglied sind. Sie bleiben einfach zu Hause oder warten auf eine Partei der Vernunft.

Was mich mindestens so irritiert, wie Ihr bedenkenloses Mitläufertum bei der CO2-Debatte und den daraus konstruierten Katastrophenszenarien, ist die von Ihnen und von Horst Meierhofer auf dem letzten Parteitag durchgesetzte Unterstützung des EEG. Wie kann eine Partei der Marktwirtschaft einen solchen massiven Eingriff in den Markt mittragen? Hier wird auf brutale Art und Weise umverteilt: Von den Massen der mittleren und kleinen Einkommen auf die Besserverdienenden, die sich Solardächer und Windkraftanlagen leisten können.

Natürlich brauchen wir eine Energiepolitik, die uns unabhängiger macht von den Gasfeldern Russlands und den Ölfeldern im Nahen Osten. Natürlich ist Energieeffizienz ein Wettbewerbsvorteil und selbstverständlich brauchen wir mehr  Markt und Deregulierung in unserer Stromversorgung: Das EEG aber erfüllt davon nicht eine einzige Bedingung. Es hat zu Subventionsorgien in der Solarindustrie geführt und zu erheblichen Verwerfungen im ländlichen Raum, wo die Interessen der Windkraftbesitzer mit den Opfern der Windkraftanlagen brutal aufeinanderprallen. Aber alles was Ihnen dazu einfällt, ist den Subventionswahnsinn, der mit den Windkraftparks in der Nordsee und Desertec verbunden ist, als zukunftsträchtig anzupreisen.

Der Verdacht liegt nahe, dass Sie hier Interessen der Versicherungswirtschaft und der großen Konzerne, wie Siemens vertreten. Die Münchner Rück hat überall Ihre Finger mit dabei und manipuliert mit unsauberen Daten die öffentliche Diskussion. Haben Sie nicht mitbekommen, dass sich der Sprecher Al Gore`s für die falschen Katastrophenszenarien entschuldigt (New York Times) die leider von der Münchner Rück übernommen wurden und wissenschaftlich nicht haltbar sind? Haben Sie nicht verfolgt, wie die Münchner Rück und der von Ihr subventionierte Gutmenschenverein „German watch“ sich umgekehrt wieder auf genau diese Daten beruft und als Quelle Al Gore angibt?

Wessen Geschäft also betreiben Sie und Horst Meierhofer. Als Prof. Fred Singer in Huckelrieden einen Vortrag hielt, ist Herr Meierhofer vorher abgereist. Ich habe nicht feststellen können, dass er sich später für die Inhalte dieses Vortrages interessiert hätte. Am 4. Dezember wäre in Berlin wieder dazu Gelegenheit gewesen. Also…

Fazit:

1. Aus rein taktischen Gründen ist Ihre Klimapolitik für die FDP schädlich. 

Eine wissenschaftliche Untersuchung über das Wählerklientel der FDP und seine Haltung zur menschengemachten Klimakatastrophe könnte hier Aufschluss geben.  Meiner Beobachtung nach verschrecken Sie diese Wähler. Die Wahl in Nordrhein-Westfalen wird Rückschlüsse zulassen, ob die heute geführte Klimadebatte den Grünen oder der FDP zu Gute kommt. Wir werden ja sehen, ob es im Mai nicht doch zu einer schwarzgrünen Koalition kommt.

2. Ihre Folgerungen aus der Klimahysterie widersprechen diamentral einer freiheitlichen marktwirtschaftlich organisierten Gesellschaft. Ihre Vorschläge und die von Ihnen mit initiierten Parteitagsbeschlüsse strotzen von Dirigismus, Subventionen, Bevormundung der Bürger und Vorteilsgewährung der Mächtigen.

Da ich keine Alternative zur westlichen freiheitlichen Industriegesellschaft und ihrer Erhaltung und Weiterentwicklung sehe, werde ich, wo immer ich kann, auf diese Widersprüche Ihrer Politik aufmerksam machen.

Diesen Brief stelle ich jedem zur Verfügung, der sich dafür interessiert.

 

Hochachtungsvoll

Günter Ederer 

17.2.2010




Januar 2010 zu warm? Merkwürdige Berechnungsmethoden des GISS (Goddard Institute of Space Sciences) für die Durchschnittstemperaturen der Welt im Januar 10

Wie kommt das?

Schauen wir uns die beiden Graphiken doch einmal genauer an. Wir sehen in der "wärmeren" Graphik, dass es dort fast keine grauen Flächen gibt. Zu grauen Flächen heißt es in der Erläuterung zur Graphik:
Note: Gray areas signify missing data.
Hier also gibt es keine Daten!

Man beachte: wählt man den kleineren Gültigkeitsradius für gemessene Temperaturen von 1200 KM auf 250 KM, dann werden die vielen Flächen sichtbar, die grau sind, also ohne jede Messstation. Und, fatal, sofort verändern sich die durchschnittlichen Temperaturen gravierend – und zwar: nach unten!!

Warum ist das so?
Bedeutet dies nicht, dass ganz erhebliche Flächen, wo überhaupt nicht gemessen wurde, mit einer "angenommenen" Temperatur versehen werden? Also z.B. Gebiete in Alaska oder der Antarktis werden durch die Wahl des Gültigkeitsradiuses für Temperaturen aus einer (weit abgelegenen – Radius 1200 KM!!) Messstation pauschal abgedeckt, obwohl dort nie gemessen wurde?

Wer legt die Legitimation für die Festlegung eines Radiuses fest oder erfolgt diese Festlegung willkürlich?

Wie würden die Daten aussehen, wenn der Radius nur noch 1, 10, 30 oder 50 KM betragen würde? Diese Wahl hat man nämlich nicht. Voreingestellt ist der Radius 1200 KM und zur Auswahl wurde nur noch 250 KM zugelassen. Eine Messstation, die Gültigkeit für 250 KM Umfeld hat, kann ich mir kaum vorstellen.

Fazit: Wenn ich hier nun "zufällig" Messstationen mit wärmeren oder kälteren Temperaturen in die Auswahl für den Radius genommen habe, dann würden sich für sehr grosse Regionen Temperaturen ergeben, die in der Realität so nicht abzubilden wären. Dazu muss man wissen, dass massgeblicher Faktor für die Berechnung der globalen Temperatur die Fläche (KM²) ist. Fläche ist erstmal neutral. Bekommt aber durch das "Überstülpen" einer "angenommenen" Temperatur die entscheidende Bedeutung. Das "Glätten" (smoothing) oder Gleichmachen von Flächen, die ohne jede reale Messung einfach nur grau wäre (also ohne Berücksichtigung bleiben müsste), ist aus mathematischer Sicht schlicht und einfach das Verfälschen von Daten und damit Ergebnissen, um eine vermutete Aussage visuell und statistisch belegen zu können. Wäre das nicht gewollt, gäbe es die Auswahl eines beliebigen Radiuses. Dieser Radius ist ein klassisch variabler Faktor, der nicht nur butterweich ist, sondern sogar fiktiv und reine Spekulation, da er nichts, aber auch gar nichts mit der Realität und den Echtdaten zu tun hat.

Anhand dieser einfachen Analyse wird deutlich, wie wesentlich es ist, die wissenschaftlich neutralen und korrekten Messstationen als Datenquelle zu nutzen, da Daten jeder "akzeptierten" Messstation für einige tausend "grauen" KM² zur Gültigkeit erklärt werden. So kommt jeglicher Auswahl von Messstationen eine ganz besondere Bedeutung zu.

Ein Übrigens habe ich dann auch noch:
In der Antarktis sehen wir selbst in der 2. Graphik, erstaulich viele eingefärbte Flächen. Bei einem Radius von 250 KM, den ich gewählt habe, müssten also in der Antarktis zig Messstationen Echtdaten liefern, immer gleichwarme übrigens, wie man sehen kann (siehe "Bodensockel"). Hat jemand eine Vermutung, wieviele Messstationen in der gesamten Antarktis real vorhanden sind? Das Alfred Wegener Institut hat EINE. Wer noch? Keiner? Tatsächlich niemand?
Dann wäre diese eine gemessene Temperatur für wieviel Fläche der Erde gültig? Mag jemand rechnen?

Ich lasse mich gern eines Besseren belehren. Gern stelle ich einen weiteren solcher Graphik-Vergleiche hier in das Forum, wenn es gewünscht wird.

Analytische Grüsse,
Blogger KlimaAutist  

Quelle: Wetter Online




2. internationale Klimakonferenz in Berlin. Vorträge als Video abrufbar!

Prof. Patzelt 1. Teil

Prof. Patzelt 2. Teil

Prof. Singer 1. Teil

Prof. Singer 2. Teil

Dr. Svensmark 1.Teil

Dr. Svensmark 2.Teil

Dr. Svensmark 3.Teil

Prof. Lüdecke 1. Teil

Prof. Lüdecke 2. Teil

Prof. Lüdecke 3. Teil

Dr. Motl 1. Teil

Dr. Motl 2. Teil

Dr. Motl 3. Teil

Prof. Mörner 1. Teil

Prof. Mörner 2. Teil

Lord Monckton 1. Teil

Lord Monckton 2. Teil

Lord Monckton 3. Teil

Prof. Kerber 1. Teil

Prof. Kerber 2. Teil

Prof. Kerber 3. Teil

Dr. Holger Thuß EIKE Präsident

 Sehen Sie auch die Vorträge als pdf Dokumente im Anhang

Related Files




Messungen der Oberflächentemperaturen: Eine politisch betriebene Täuschung?

Video: Hier sehen Sie Teil 1 des von John Coleman mit Joe Dáleo geführten 15 minütigen Interviews. Klicken Sie in das Bild (oder hier) werden Sie zu Teil 2 geführt. 

Die von den Autoren durchgeführten Untersuchungen beweisen, dass der Vorwurf der Datenmanipulation berechtigt ist. Joseph D’Aleo & Anthony Watts haben ihre Beweise gründlich recherchiert und in der Darstellung mit Grafiken dokumentiert. Der Bericht enthält viele Links zu einschlägigen Datensätzen und Grafiken. Die Links müssen im Original der Publikation geöffnet werden; falls gewünscht, kann die vollständige Publikation per e-Mail zugesandt werden. Beispiel für ein Link: ‚here’ auf Seite 14 öffnet das Portal GISS Surface Temperature Analysis, Station Data, in der eine Weltkarte erscheint. Beim Klick auf ein Land erscheint eine Tabelle, in der die dort eingetragenen Stationen aufgelistet sind; beim Anklicken einer Station öffnet sich ihre Temperaturganglinie.  

Die Manipulation wurde auf unterschiedliche Weise vorgenommen, beispielsweise bei der Berechnung der Durchschnittstemperatur einer Region durch das Weglassen der Daten von Stationen auf ‚kalten Standorten’ oder das unsachgemäße Einrichten von Stationen auf ‚warmen Standorten’. Beide Arten der Manipulation täuschen eine wärmere Temperatur vor. 

Von den ca. 6000 Stationen wurden ab den späten 1980er und in den frühen 1990er Jahren die Daten von ca. 4500 Stationen bei der Berechnung der Durchschnittstemperaturen nicht mehr berücksichtigt – sie wurden ‚ausgesondert’. Stationen, die in ländlichen Gegenden, höheren geographischen Breiten und größerer Höhe liegen, wurde als ‚kältere Stationen’, zu Gunsten ‚wärmerer Stationen’ ‚ausgesondert’. Heute sind es sogar nur knapp 1100! Die Autoren sprechen auch vom ‚verschwinden’. Aus dieser ‚Aussonderung’ ergeben sich wärmere Mittelwerte. Aus der Studie geht nicht hervor, ob die Stationen still gelegt wurden, oder ob die Messungen andauerten und die Daten geliefert wurden, dann aber später von den Bearbeitern nicht berücksichtigt worden sind.  

Stationen in den Städten und Vorstädten wurden oft nicht so eingerichtet, wie es nach WMO-Standard vorgeschrieben ist. Dieser sieht vor, dass die Stationen auf Grasland und mindestens 100 m von jeder Bebauung und Bepflanzung von Bäumen und Büschen einzurichten sind. Bei der Auswahl der Standorte wurden diese Standards oft nicht eingehalten, so dass Stationen beispielsweise an Hauswänden neben hohen Büschen und Bäumen eingerichtet, also in einer wärmeren Umgebung. 

In diesem Auszug beschränkt sich die Behandlung aus Platz- und Zeitgründen vorrangig auf die überproportionale Aussonderung der Daten von kalten Stationen. Die Auswirkungen von unsachgemäß eingerichteten Stationen wird nur kurz behandelt, die unbeeinflussten Datensätze anderer Institutionen werden mit Grafiken zusammengefasst dokumentiert. Die Komplexe ‚Homogenisierung der Daten’ und ‚Fallstudien’, die zum Beweis der Hauptthese dieser Studie erörtert werden, werden nicht behandelt. Soweit der Bearbeiter eigene Ergebnisse einbringt oder Folgerungen ableitet, sind sie kursiv geschrieben. Dies geschieht in den Kapiteln 

2.9 und 5: Vergleich mit Ergebnissen des Bearbeiters und Schlussbemerkung. 

Wegen Zeitmangels ist nur eine sinngemäße Übersetzung des Textes möglich. Das Titelblatt, das Inhaltsverzeichnis, die Zusammenfassung für Politiker und die Lebensläufe der Autoren wurden im englischsprachigen Original übernommen, letztere wurden in das Titelblatt hineinkopiert. Die Zusammenfassung für Politiker wird ebenfalls sinngemäß übersetzt und beigefügt. 

Die Autoren verzichten im Inhaltsverzeichnis und im Text auf eine Nummerierung der Kapitel. Wegen einer besseren Übersichtlichkeit werden die für diesen Extrakt ausgewählten Komplexe nummeriert, und zwar wie folgt: 

1. Aussonderung von Stationen 

2. Einfluss der Aussonderung auf die Durchschnittstemperaturen 

2.1 USA 

2.2 Russland 

2.3 Kanada 

2.4 China 

2.5 Europa 

2.6 Afrika 

2.7 Südamerika 

2.8 Australien und Neuseeland 

2.9 Vergleich mit Ergebnissen des Bearbeiters 

3. Regelwidrig angelegte Stationen 

4. Unbeeinflusste Temperaturganglinien 

4.1 USA 

4.2 Australien 

4.3 England  

5. Schlußbemerkung 

Im Text werden Originalabbildungen aus der Studie verwendet (Bild 1 bis 21); außerdem werden 2 Anlagen mit insgesamt 29 Temperaturganglinien aus Berichten des Bearbeiters beigefügt.

Text auszugweise:

Zusammenfassung für Politiker 

1. Temperaturmessungen der Vor-Satelliten-Zeit (1850-1980) wurden so weitgehend, systematisch und gleichgerichtet gefälscht, dass nicht glaubwürdig behauptet werden kann, es habe im 20. Jahrhundert eine deutliche globale Erwärmung gegeben. 

2. Alle mittels Temperaturmessungen an der Oberfläche erhaltenen Datensätze offenbaren sehr ernste Probleme, die sie für die Bestimmung genauer Langzeittrends der Temperatur nutzlos machen. 

3. Alle Probleme verursachen eine Unsymmetrie der Daten, die beobachtete Erwärmung wird dadurch sowohl regional als auch global stark übertrieben. 

4. Die mittels Temperaturmessungen an der Oberfläche erhaltenen Daten sind bedenklich beeinträchtigt, denn mehr als drei Viertel der ursprünglich existierenden 6000 Stationen werden nicht mehr berücksichtigt (wörtlich: berichten nicht mehr). 

5. Es hat eine schlimme Verzerrung statt gefunden, höher und nördlicher und ländlich gelegene Stationen auszusondern, was zu einer weiteren ernsten Übertreibung der Erwärmung führt.  

6. Die Belastung infolge Verstädterung, Änderungen der Landbenutzung, Auswahl untauglicher Standorte und unzureichende Eichung der Instrumente verstärkt außerdem die Erwärmung. 

7. Zahlreiche erfolgreich begutachtete Veröffentlichungen haben in den letzten Jahren gezeigt, dass die beobachtete Langzeit-Erwärmung allein zu 30-50% durch solche Belastungen verursacht wird. 

8. ‚Kirschen-pflücken’ bei der Auswahl der Beobachtungsstandorte kombiniert mit der Interpolation von Daten für fehlende Netzzellen mögen die Erwärmung im 20. Jahrhundert um mehr als 50 – 20 % verzerren. 

9. Für die Ozeane fehlen Daten, und die Unsicherheiten sind beträchtlich. Eine umfassende Erfassung ist erst seit 2003 verfügbar, sie zeigt keine Erwärmung. 

10. Satellitenmessungen sind eine Alternative zu den Erdstationen um weltweit Berichte zur Temperatur der unteren Troposphäre zu erhalten. Ihre Resultate weichen zunehmend von denen der Erdstationen ab. Sie bestätigen die in den Berichten zum Ausdruck kommende Warm-Verschiebung der Oberflächentemperaturen.  

11. NOA und NASA, zusammen mit CRU, waren die treibenden Kräfte hinter dem systematischen Hochjubeln der weltweiten Erwärmung im 20. Jahrhundert.  

12. Mittels Korrekturen wurden alte Berichte modifiziert, um zyklische Veränderungen so zu verschleiern, dass sie ohne weiteres als natürlich verursacht erscheinen, beispielsweise durch mehrdekadige Wechsel der Ozeane oder der Sonne. 

13. Weltweit sind die terrestrisch gewonnenen Datensätze ernsthaft beschädigt; sie sind nicht mehr vertrauenswürdig, um Klimatrends zu beurteilen Modellprognosen rechtswirksam zu bestätigen. 

14. Eine gründliche Bewertung der terrestrischen Temperaturdaten von CRU, GISS und NCDC ist erforderlich. Sie muss durch Klimawissenschaftler erfolgen, die unabhängig sind und kein eigenes Interesse am Ergebnis der Auswertungen haben.  

15. Für das Vertrauen in die weltweiten Daten durch das UNIPCC und das US GCRP/CCSP ist eine vollständige Untersuchung und Rechenschaftslegung erforderlich.  

Prof. Dr. Friedrich Karl Ewert EIKE

Lesen Sie den ganzen Text siehe Anlage. Die Originaldatei finden Sie hier

Dazu ausführliche Interviews (in Englisch) hier und hier und hier

Related Files




Klimadebatte: Taktischer Rückzug nach Debakel!

Jahrelang hatten Skeptiker diese Daten zu sehen verlangt, und nun entpuppt sich der Wissenschaftler im Zentrum dieser Kontroverse als zerstreuter Professor. Es ist wie in einem schlechten Science-fiction Film: Die Welt droht unterzugehen, und der Forscher, der sie retten könnte, verschludert die entscheidenden Unterlagen, mit denen er die bösen Skeptiker im Dienste finsterer Kapitalisten hätte ruhigstellen können. Gespannt wartet das Publikum jetzt darauf, was der etwas in die Jahre gekommene jugendliche Held Al Gore tun wird, um den Untergang doch noch abzuwenden. Ein weiterer Oscar ist ihm dabei bestimmt sicher.

Die Skeptiker haben in diesen Tagen gut lachen. Sie haben jedoch allenfalls eine Schlacht gewonnen – den Krieg jedoch längst noch nicht. Manche Alarmisten schwenken derzeit eine weiße Flagge – nicht jedoch, um zu kapitulieren, sondern um einen „Waffenstillstand“ zu fordern. Exakt dieses Wort taucht im Titel eines aktuellen Beitrags von Roger Harrabin auf, Umweltanalyst der „BBC“. Der Redakteur meint darin, dass beide Seiten „Gemeinsamkeiten“ finden könnten und stellt außerdem fest, dass es „beim Klimathema immer um Risiko und Unwägbarkeiten geht – nicht um unumstößliche Fakten“. Politiker sollten daher ihre Argumente „im Rahmen von Risiko und Unsicherheit formulieren“. 

Doch genau hier liegt der Hund der Debatte begraben. Denn wenn in Sachen Klima die Risiken und Unwägbarkeiten groß sind, dann ist Demokratie das denkbar falscheste Vehikel, um Entscheidungen über die angemessenen Maßnahmen zu treffen. Risiken abzuwägen ist eine individuelle Entscheidung. Wenn jemand erkannt zu haben meint, dass die Welt einer baldigen Katastrophe entgegensteuert, und eine Möglichkeit zu sehen meint, diese abzuwenden, dann kann er nicht warten, bis sich demokratische Mehrheiten dafür finden. Er sieht sich dann moralisch verpflichtet, Diktator zu werden und für die Folgen seiner Handlungen die Gesamtverantwortung zu übernehmen. Dies ist die unter Alarmisten seit dem Scheitern der Kopenhagen-Konferenz mehr oder weniger offen diskutierte Handlungsvariante.

Es gibt aber noch eine andere Möglichkeit, Risiken auf der Basis von Individualentscheidungen zu begegnen. Diese Variante ist weder demokratisch noch diktatorisch, sondern marktwirtschaftlich. Und sie ist genau richtig für Situationen wie diese, wo Veränderungen größtenteils relativ langsam, teilweise jedoch auch sprunghaft und in den allermeisten Fällen in völlig unvorhersehbaren Richtungen verlaufen – können. Im marktwirtschaftlichen Szenario würden Individuen Versicherungen gegen Klimarisiken abschließen – oder auch nicht, je nachdem, wie sie ihre Lage persönlich einschätzen. Oder wie die Versicherungen die Lage einschätzen. Diese können auch genossenschaftlich organisiert sein. Wenn Individuen dort, wo sie sind, keine ausreichende Versicherung bekommen, die sie sich leisten können, dann können sie entweder auf Glück setzen oder wegziehen. In einer Welt eines realen Klimawandels werden manche Landstriche vorübergehend unbewohnbar, andere dagegen werden erstmals überhaupt bewohn- und bewirtschaftbar.

Solches Ansinnen ist für die allermeisten Klima-Alarmisten jedoch ein Sakrileg. Ihr Ziel ist eine global gesteuerte Wirtschaft und Menschheit. Wobei hier nicht die Wissenschaftler gemeint sind, sondern die Politiker und Funktionäre. Ein herbeigeredeter Klimawandel ist nur ihr Vorwand für Machtausweitung und für den zweiten Versuch eines real existierenden Sozialismus, diesmal weltweit. Ein deutlicher Indikator dafür ist die argumentative Rückzugslinie der Fußtruppen. In etlichen Diskussionen taucht immer wieder dieses eine Mem auf: Es gibt zu viele Menschen auf der Welt. In höflichen Kreisen wird das nicht erwähnt, aber die Häufigkeit, mit der dieses Argument derzeit in den Foren auftaucht, zeigt, dass diese Überzeugung weit verbreitet ist. Das ist auch nicht weiter überraschend, denn sie stimmt – unter einer entscheidenden Bedingung: Dass Sozialismus herrscht. Die gegenwärtige Verwirrung im Alarmistenlager bringt die wahren Beweggründe an den Tag. Wer offen über Bevölkerungsreduzierung redet, ist zwar schlau genug, die versteckte Agenda hinter dem Klimathema zu erkennen, aber nicht schlau genug, sie zu verschweigen. So wie Fußtruppen nun mal sind.

Eine sozialistische Welt wäre ganz gewiss nicht in der Lage, auch nur eine einzige Milliarde Menschen zu ernähren, zu behausen und zu bekleiden. Eine kapitalistische Welt hingegen wäre – man beachte den Konjunktiv – in der Lage, weit mehr als die heutigen sechs oder sieben Milliarden zu versorgen. Wieviel genau kann keiner sagen – das hängt vom Stand der wissenschaftlichen und technischen Entwicklung ab – und die nur im Kapitalismus gedeihen. Der Markt würde die Preissignale setzen, die die jeweils gegenwärtigen Grenzen des Wachstums markieren würden. Keine Zentralkommission wäre nötig. Knappheiten würden ganz von alleine durch die Preise widergespiegelt. Diese würden den Menschen als Wegweiser dafür dienen, was sie tun müssen, um diese Knappheiten zu vermeiden – zum Beispiel durch niedrigere Geburtenraten oder Wegzug aus unwirtlichen Gegenden. Oder zu überwinden – zum Beispiel durch Erschließung neuer Rohstoffquellen oder die Erfindung neuer Prozesse der Müllverarbeitung oder -nutzung.

Doch das kommt den Alarmisten nicht in den Sinn. Nicht weil sie etwas gegen den Kapitalismus haben – das haben sie dank ihrer Lehrer und den Massenmedien ohnehin – sondern weil ihre Einstellung auf einem Glaubenskonstrukt fußt, das mit dem Kapitalismus schlicht unvereinbar ist. Es ist der Glaube daran, dass die Realität heute, und wie sie in Zukunft sein wird, in ihrer objektiven Ganzheit erfassbar ist. Dieser prinzipielle Glaube ist die Grundlage für die Überzeugung, dass es den Menschen möglich ist, die für sie perfekte, fehlerfreie, makellos gerechte Welt zu gestalten. Man muss nur das richtige Bewusstsein haben. Wer es nicht hat, stört nur und muss aus dem Weg geschafft werden.

Kapitalismus fußt auf dem gegenteiligen Glauben, nämlich dass die Welt in ihrer Gänze nicht objektiv erfassbar ist, schon gar nicht, wie sie in Zukunft aussehen wird. Auf dieser Grundlage ist der einzige Weg zum Glück nicht die Gestaltung nach dem, und individuelle Anpassung an den, Masterplan, sondern ein riesiges Entdeckungsverfahren nach dem Prinzip von Versuch und Irrtum. Im Kapitalismus nutzen Individuen das Preissystem, um in all dieser Unübersichtlichkeit mit dem Rest der Welt zu kommunizieren. Und je mehr Menschen es im Kapitalismus gibt, desto mehr Arbeitsteilung ist möglich, desto mehr Information wird kommuniziert, desto leichter wird es, Knappheiten zu vermeiden oder sie zu überwinden. Im Sozialismus wird diese – wie auch andere – Kommunikation unterdrückt, damit der Masterplan zur Herstellung der angeblich besten aller Welten ungestört verwirklicht werden kann.

Die gegenwärtige Frontverschiebung in der Klimadebatte hat die hässliche ideologische Grundlage, die wahre Natur der Alarmisten sichtbarer gemacht. Damit ist schon viel gewonnen. Aber ihre Bataillone sind noch immer sehr stark, sowohl personell als auch finanziell und vor allem in den Medien. Ihre Moral ist zwar angeschlagen, aber noch lange nicht gebrochen. Ihr Glaubenskonstrukt ist noch vollständig intakt. Und das Klimathema ist zu wertvoll für sie, zu praktisch im Hinblick auf das Ziel eines weltweiten Sozialismus, als dass sie es leichtfertig aufgeben werden. Langfristig können die Skeptiker in diesem Kampf also nur dann siegen, wenn sie den Krieg um die Köpfe und Herzen der Menschen gewinnen, was im Streit um das richtige Messen und die richtige Interpretation wissenschaftlicher Fakten schnell mal übersehen werden kann.

Was werden die nächsten Schritte der Alarmisten sein? Vermutlich werden sie zunächst einmal abwarten, ob es in nächster Zeit wieder ein paar ungewöhnlich warme Jahre gibt. Dann können die medialen Kanonen wieder fröhlich Untergangsstimmung verbreiten – in der Hoffnung, dass bis dahin das jetzige Debakel in der Bevölkerung vergessen sein wird und die neuen Medien des Internet entweder nicht an Bedeutung gewonnen haben oder wirksam zensiert werden können. Falls die Natur nicht mitspielt, können sie eine taktische Konzession vornehmen und das „Hockey-Team“ in Gänze opfern, sie also der fehlerhaften Arbeit bezichtigen. Es wäre nicht das erste Mal, dass Sozialisten ihre Helfershelfer ihrem Schicksal überließen oder gar ans Messer lieferten, um die Gesamtbewegung zu schützen. Dann wäre die menschengemachte Klimakatastrophe nicht mehr „unmittelbar bevorstehend“, sondern nur noch „unabwendbar, wenn nichts geschieht“. Wenn das nicht hilft, bleibt eigentlich nur noch das Fallenlassen jeglicher Vorwände und der offene Schritt in die diktatorische Weltregierung, wie Brian Micklethwait in einer Analyse feststellt. „Wie im Fall der EU werden sie schlicht verkünden, dass ihre Herrschaft unvermeidlich ist, und dass nur Dummköpfe darauf beharren würden, sie in Frage zu stellen.“ Dies wäre jedoch, schließt Micklethwait seine Überlegungen ab, eine hochriskante Taktik, denn: „Diese Leute wollen nicht wirklich verkünden, dass sie die unanfechtbare Weltherrschaft besitzen, solange und bis das nicht tatsächlich der Fall ist.“

Solange zumindest gibt es noch eine Chance für die Freiheit.

mit Dank an Robert Grözinger von eigentümlich frei

Sie auch den neuen Artikel von Edgar Gärtner ebenfalls in eigentümlich frei

Internet:

„BBC“-Interview mit Professor Phil Jones

Roger Harrabin: Climate ‚Armistice‘

Brian Micklethwait: Climategate and the retreat from Immeditate




Offizielle Aussage, dass die wissenschaftliche Basis im IPCC Report korrekt sei, ist nicht haltbar!

Die Verteidiger (und hier) des IPCC führen ins Feld, dass die meisten dieser Fehler von geringer Bedeutung wären und auf den Bericht der 2. Arbeitsgruppe (WG II, impacts, adaptation and vulnerability) begrenzt wären, welcher von Vertretern verschiedener regionaler Interessen verfasst wurde, und dass er nicht so viel harte Fakten (hard science) enthielte, wie der Report der Arbeitsgruppe 1 (WG I, The Physical Science Basis). Weiter sagen die IPCC Verteidiger, dass keine (oder praktisch keine) Probleme solcher Art mit dem Report der Arbeitsgruppe 1, der wissenschaftlichen Basis des Klimawandels, aufgetaucht wären.

An dieser Stelle ist ein bescheidener Einspruch fällig

Tatsächlich basiert der Bericht der Arbeitsgruppe 1 auf einem Prozess der, wie die Klimagate E-Mails eindrucksvoll beweisen, eben verhindert, dass eine umfassende Übersicht über den Stand der Klimaforschung entsteht. Stattdessen ist es mehr eine Art “Beurteilung” über den Zustand der Klimaforschung, eine Beurteilung die hauptsächlich die vorgefasste Meinung des IPCC widerspiegelt, welche dann von einigen ausgewählten Elite-Autoren in den jeweiligen Kapiteln verkündet wird. Das Endergebnis dieser “Beurteilung” ist dann, dass Beweise hervorgehoben werden, welche die vorgefasste Meinung unterstützen, und solche die dieser widersprechen ignoriert oder sogar verunglimpft werden.

Prominenteste Beispiele für ein solches Vorgehen waren dieUnstimmigkeiten bei den Klimarekostruktionen aus Baumringen , das Verschweigen von Widersprüchen zwischen Rekonstruktionen und aktuellen Messungen (“Hide the Decline“) oder die Affäre um die CRU Daten zur Globaltemperatur, die einfach verschwunden sind. Eine gute Übersicht über diese und zahlreiche weitere Beispiele hat vor kurzem das Science & Public Policy Institute (SPPI) in einem Bericht für die amerikanischen Umweltschutzbehörde (EPA) zusammengefasst.

Zweifelhafte Quelle sollte Entwicklung in der Antarktis kleinreden

Und jetzt wurde noch ein weiterer Fall bekannt, bei dem das IPCC bei der Auswahl von Quellen offensichtlich nur nach einem Kriterium vorgegangen ist. Und dieses Kriterium war nicht saubere wissenschaftliche Arbeit, sondern die Unterstützung der hauseigenen Agenda, die aktuelle Erwärmung in einem möglichst dramatischen Licht dastehen zu lassen. Und zwar in diesem Fall bei der Beurteilung der Eisentwicklung in der Antarktis.

Während in der Presse hauptsächlich von dem Rückgang der Eisbedeckung der Arktis, welcher in den letzten 30 Jahren beobachtet wurde, berichtet wird, findet die Tatsache, dass die Eisbedeckung in der Antarktis im gleichen Zeitraum zugenommen hat, nur wenig bis gar keine Beachtung. Und ohne Zweifel ist der Mangel an Presseberichten auch Resultat dessen, wie das IPCC dieses Thema behandelt.

Im IPCC AR4 wird die Situation in Kapitel 4 (WGI, “Observations: Changes in Snow, Ice, and Frozen Ground” (S. 351)) folgendermaßen beschrieben:

Als Beispiel wird eine aktualisierte Version der Analyse von Comiso (2003), die den Zeitraum von November 1978 bis Dezember 2005 umfasst, in Abbildung 4.8. gezeigt. Gezeigt werden die Anomalien der Jährlichen Eisausdehnung. Man sieht einen signifikant abnehmenden Trend beim arktischen Seeeis von –33 ± 7,4 × 103 km2 Jahr–1 (entsprechend –2,7 ± 0,6% pro Dekade), wohingegen die Ergebnisse der Antarktis einen leicht positiven Trend von 5,6 ± 9,2 × 103 km2 Jahr–1 (0,47 ± 0,8% pro Dekade) zeigen, welcher statistisch nicht signifikant ist.

As an example, an updated version of the analysis done by Comiso (2003), spanning the period from November 1978 through December 2005, is shown in Figure 4.8. The annual mean ice extent anomalies are shown. There is a significant decreasing trend in arctic sea ice extent of –33 ± 7.4 × 103 km2 yr–1(equivalent to –2.7 ± 0.6% per decade), whereas the Antarctic results show a small positive trend of 5.6 ± 9.2 × 103 km2 yr–1 (0.47 ± 0.8% per decade), which is not statistically significant.

Nur das IPCC sieht keinen statistisch signifikanten Anstieg

Man beachte, dass das IPCC die Zunahme der Eisfläche in der Antarktis als statistisch nicht signifikant ansieht, womit ein guter Grund vorhanden ist, diesen Anstieg herunterzuspielen. Und so schreibt das IPCC auch dann in der Zusammenfassung con Kapitel 4 (Executive Summary S. 339):

Satellitendaten zeigen eine Fortführung der Abnahme von 2,7 ± 0,6% pro Dekade bei der arktischen Eisausdehnung seit 1978 an. Der Rückgang der Sommerausdehnung ist stärker als im Winter, mit einem Sommerminimum, dass mit  7,4 ± 2,4% pro Dekade seit 1979 zurückgeht. Andere Daten zeigen an, dass der Rückgang im Sommer um 1970 begann. Ähnliche Untersuchungen für die Antarktis zeigen stärkere unterjährige Schwankungen aber keinen beständigen Trend.

Satellite data indicate a continuation of the 2.7 ± 0.6% per decade decline in annual mean arctic sea ice extent since 1978. The decline for summer extent is larger than for winter, with the summer minimum declining at a rate of 7.4 ± 2.4% per decade since 1979. Other data indicate that the summer decline began around 1970. Similar observations in the Antarctic reveal larger interannual variability but no consistent trends.

In der “Zusammenfassung für politische Entscheidungsträger” (Summary For Policymakers) werden daraus zwei gesonderte Punkte:

Satellitendaten seit 1978 zeigen, dass die die jährliche arktische Eisausdehnung um 2,7 [2,1 bis 3,3]% pro Dekade geschrumpft ist, mit einem stärkerem dekadischen Rückgang im Sommer von 7,4 [5.bis 9,8]%. Diese Werte sind konsistent mit denen im 3. Zustandsbericht (TAR {4.4}).

Satellite data since 1978 show that annual average arctic sea ice extent has shrunk by 2.7 [2.1 to 3.3]% per decade, with larger decreases in summer of 7.4 [5.0 to 9.8]% per decade. These values are consistent with those reported in the TAR. {4.4}

und

Die Eisausdehnung in der Antarktis zeigt weiterhin unterjährige Schwankungen und lokale Veränderungen, aber keine statistisch signifikanten Durchschnittstrends, konsistent mit dem Fehlen einer Erwärmung, welche sich in den atmosphärischen Temperaturen in der Region widerspiegelt {3.2, 4.4}

Antarctic sea ice extent continues to show interannual variability and localised changes but no statistically significant average trends, consistent with the lack of warming reflected in atmospheric temperatures averaged across the region. {3.2, 4.4}

“Zeigt weiterhin…keine statistisch signifikanten Durchschnittstrends”? Weiterhin?

Lesen Sie hier, was im dritten Zustandsbericht des IPCC (TAR, 2001) zu der Eisentwicklung in der Antarktis stand (Kapitel 2, S. 125):

Über den Zeitraum von 1979 bis 1996, zeigte die Antarktis (Cavalieri et al., 1997; Parkinson et al., 1999) einen schwachen Anstieg von 1,3 ± 0,2%/Dekade.

Over the period 1979 to 1996, the Antarctic (Cavalieri et al., 1997; Parkinson et al., 1999) shows a weak increase of 1.3 ± 0.2%/decade.

Beachten Sie hierbei, dass dies ein statistisch signifikanter Anstieg ist. In der Zusammenfasung des IPCC TAR, Kapitel 3 findet sich folgende Beurteilung:

…Satellitendaten zeigen an, dass die Eisausdehnung in der Antarktis, nach einem möglichen Rückgang Mitte der 1970er Jahre, seit 1978 stabil war oder sogar zugenommen hat

…Satellite data indicate that after a possible initial decrease in the mid-1970s, Antarctic sea-ice extent has stayed almost stable or even increased since 1978.

IPCC 2007 widerspricht IPCC 2001

Fassen wir also zusammen: Die Behauptung im 4. Zustandsbericht (IPCC AR4), dass die Trends der Eisentwicklung in der Antarktis “weiterhin…keine statistisch signifikanten Durchschnittstrends” zeigen, steht in direktem Widerspruch zu den Aussagen im 3. Zustandsbericht (TAR).

Interessanterweise enthielt der AR4 keine Quellenangaben zu früheren Studien, die gezeigt haben, dass das Eis in der Antarktis statistisch signifikant zugenommen hatte. Im AR4 gab es keinen Bezug auf die TAR-Quellen, weder Cavalieri et al., 1997, oder Parkinson et al., 1999, noch enthielt der AR4 einen Hinweis auf Zwally et al., 2002, in dem gefunden wurde:

Der abgeleitete 20jährige Trend der Seeeis-Ausdehnung ist 11,18 ± 4,19 x 103 km2Jahr-1 oder 0,98 ± 0,37% pro Dekade für die gesamte antarktische Eisbedeckung, und somit signifikant positiv.

The derived 20 year trend in sea ice extent from the monthly deviations is 11.18 ± 4.19 x 103 km2yr-1 or 0.98 ± 0.37% (decade)-1 for the entire Antarctic sea ice cover, which is significantly positive.

Die Autoren zitieren in ihrem Artikel eine weitere Studie, welche ebenfalls einen statistisch signifikanten Anstieg der antarktischen Eisbedeckung, für den Zeitraum von 1978 bis 1996, gefunden hatte:

Eine aktuelle Analyse des Trends beim Antarktischen Seeeis von 1978–1996 von Watkins und Simmonds [2000] fans einen signifikanten Anstieg bei der Eisausdehnung und Eisfläche, ähnlich den Ergebnissen dieser Studie.

Also, a recent analysis of Antarctic sea ice trends for 1978–1996 by Watkins and Simmonds [2000] foundsignificant increases in both Antarctic sea ice extent and ice area, similar to the results in this paper.

Auch die Arbeit von Watkins und Simmonds tauchte nirgends im 4. Sachstandsbericht des IPCC auf.

“Überarbeitete” Lehrbücher statt wissenschaftlicher Studien

Welche wissenschaftlichen Ergebnisse wurden also von den Autoren des IPCC AR4 zitiert, um ihre “Abschätzung” zu belegen, dass sich das Eis in der Antarktis eben nicht statistisch signifikant ausgedehnt hatte? Die Antwort ist “eine aktualisierte Version der Analyse von Comiso (2003)”. Nur ist “Comiso (2003)” keine begutachtete wissenschaftliche Studie, sondern ein Kapitel in einem Lehrbuch.

Comiso, J.C., 2003: Large scale characteristics and variability of the global sea ice cover. In: Sea Ice – An Introduction to its Physics, Biology, Chemistry, and Geology [Thomas, D. and G.S. Dieckmann (eds.)]. Blackwell Science, Oxford, UK, pp. 112–142.

Und das IPCC zitierte nicht einmal, was in diesem Kapitel steht, sondern stattdessen eine “aktualisierte Version der Analyse”, die in diesem Kapitel gezeigt wurde.

Anhand dieser “aktualisierten Version” berichtete das IPCC nun, dass die Zunahme der Eisbedeckung der Antarktis nur halb so groß ist, wie in der wissenschaftlich begutachteten Literatur beschrieben.

Und noch weitere Punkte verdienen es, beachtet zu werden

1.) Josef Comiso (der Autor des oben erwähnten Buch-Kapitels) war beisteuernder Autor (Contributing Author) von Kapitel 4 im 4. Sachstandbericht des IPCC. Wahrscheinlich haben sich die Hauptautoren des Kapitels einfach direkt an Comiso gewandt, welcher dann eine (nicht wissenschaftlich begutachtete) “aktualisierte Version” des Kapitels zur Verfügung gestellt hat (wie praktisch…).

und 2.) Comiso hat im Jahr 2008 eine Folgestudie veröffentlicht. In dieser Arbeit wird die Betrachtung im Vergleich zum IPCC-Report um nur ein Jahr erweitert (2006 anstatt 2005). Und wie schon im IPCC-TAR wird auch in dieser Arbeit ein signifikanter Anstieg der Eisbedeckung in der Antarktis gefunden, mit ganz ähnlichen Zuwachsraten wie im TAR:

Mit dem Update auf das Jahr 2006 ist ein leichter Anstieg von Eisfläche und Ausdehnung zu sehen von 0,9 ± 0,2 und 1,7 ± 0,3% pro Dekade.

When updated to 2006, the trends in ice extent and area …in the Antarctic remains slight but positive at 0.9 ± 0.2 and 1.7 ± 0.3% per decade.

Trend der arktischen Eisausdehnung von November 1978 bis Dezember 2006 nach Comiso und Nishio 2008

Und nur für den Fall, dass es noch weiterer Belege bedarf, in einer aktuellen Arbeit von Turner et al. (bei der Comiso als Co-Autor fungierte) wird geschlossen:

Basierend auf einer neuen Analyse der Satellitendaten konnten wir zeigen, dass die jährliche durchschnittliche Ausdehnung des Seeeises in der Antarktis seit den späten 1970ern statistisch signifikant mit einer Rate von 0,97% pro Dekade zugenommen hat.

Based on a new analysis of passive microwave satellite data, we demonstrate that the annual mean extent of Antarctic sea ice has increased at a statistically significant rate of 0.97% dec-1 since the late 1970s.

Diese Anstiegsrate war also annähernd zweimal so groß wie der Wert, den das IPCC (aus der nicht wissenschaftlich begutachteten Quelle) in seinen 4. Sachstandbericht aufgenommen hat.

Einzig das IPCC sieht keinen statistisch signifikanten Anstieg

Es hat sich also gezeigt, dass die wissenschaftliche Literatur, sowohl jene, die zum Zeitpunkt der Publikation des 4. Sachstandberichtes bekannt war, als auch solche, die seitdem veröffentlicht wurde, einen signifikanten Anstieg der Eisbedeckung des Meeres um die Antarktis gefunden hat. Nur im AR4 des IPCC wurde irgendwie “befunden”, dass dieser Anstieg nicht nur halb so groß, wie in der wissenschaftlichen Literatur beschrieben war, sondern zudem noch statistisch nicht signifikant. Das ermöglichte es dem IPCC, die Zunahme des Eises in der Antarktis sowohl in der wissenschaftlichen Zusammenfassung, als auch in der “Zusammenfassung für politische Entscheidungsträger” herunterzuspielen.

Warum dies gemacht wurde muss einen nicht weiter wundern. Schließlich schreibt das IPCC in seiner “Summary for Policymakers” doch selbst:

Das Seeeis wird nach den Vorhersagen sämtlicher SRES Szenarien schrumpfen, sowohl in der Arktis, als auch in der Antarktis

Sea ice is projected to shrink in both the Arctic and Antarctic under all SRES scenarios

Und wenn sich die Natur nun partout nicht an die Vorhersagen halten will, dann muss eben die Realität an die Szenarien angepasst werden.

Rudolf Kipp EIKE (der Artikel erschien zuerst auf ScienceSceptical)

Quelle: World Climate Report – Another IPCC Error: Antarctic Sea Ice Increase Underestimated by 50%

ÄHNLICHE BEITRÄGE (BETA):




Status der Klimaforschung 2010? Der Hochschullehrer em. Arthur Rörsch bittet den niederländischen KNAW-Präsidenten Robbert Dijkgraaf um eine gründliche Qualitätsbeurteilung !

Bei der öffentlichen Debatte und auch bei der darauf folgenden Meinungsänderung in der Politik geht es aber am Kern der Problematik vorbei, die durch Climagate schärfer in das Scheinwerferlicht gerückt worden ist : Die Klimauntersuchungen, die im vergangenen Vierteljahrhundert unter der Flagge des IPCC gemacht wurden, sind in hohem Maße von der Politik gesteuert worden (advocacy research). Daher kann von ihrem ersten Auftreten an die IPCC nicht als wissenschaftlich zusammenarbeitender Verband angesehen werden.

Vor allem Arthur Rörsch hat wiederholt auf den Umstand hingewiesen, dass es sich um ein vermeintlich mit wissenschaftlichen Aussagen operierendes UN-Organ handelt, dem auf nationalem Niveau durch die Behördenorganisationen (in den Niederlanden durch das PCCC gekoppelt) nahtlos gefolgt wird.

Rörsch hat deswegen im Januar zusammen mit Bas van Geel und Noor van Andel den KNAW-Präsidenten Robbert Dijkgraaf gebeten, eine unabhängige Kommission ins Leben zu rufen, die sich mit dieser Problematik befassen sollte.

Rörsch wiederholt nun (in dem angehängten Brief) diese Bitte und fügt weitere ausgearbeitete Argumente in der ausführlichen Nota: "The state of climate research 2010. A general view on the social infrastructure of climatology research"hinzu. Den kompletten Text finden Sie auf der Seite Actueel Document auf der Webseite der Zeitschrift Spil: http://www.platteland-in-perspectief.nl.

Arthur Rörsch weiß, wovon er spricht und schreibt:

Schon seit 2003 arbeitet er an einer kritischen Analyse der Berichte zu Klimaveränderungen. Ende des vorigen Jahres publizierte er seinen soundsovielten außergewöhnlich erhellenden Artikel in Spil 263-264 / 2009 – Nummer 5. Darin präsentierte er eine Alternative zu der AGW-Annahme, die davon ausgeht, dass der Anstieg der CO2-Konzentration in der Atmosphäre einen signifikanten Effekt auf den irdischen Treibhauseffekt hat. 
Die alternative Vision von Rörsch basiert auf den klassischen klimatologischen Erkenntnissen, die davon ausgehen, dass normale Wettererscheinungen eine regulierende Funktion bei der Handhabung der weltweit registrierten Mitteltemperatur ausüben. Untersuchungen dazu und eine sorgfältige Wertung der Wahrnehmungen werden mit aller Wahrscheinlichkeit zu besseren Einsichten führen.

Qualitätsprobleme, international und national

In einem folgenden in Spil 265-266 / 2010 – Nummer 1 erschienenen Artikel argumentiert Arthur Rörsch noch schärfer: Er beurteilt die heutigen Kenntnisse über die Funktionen des irdischen Treibhauseffekts wissenschaftlich als unter dem Niveau. Essentielle naturwissenschaftliche und meteorologische Erkenntnisse wurden unter den Teppich gekehrt, um an dem in den achtziger Jahren begonnenen Weg einer politisch gesteuerten Wissenschaft festhalten zu können. Diese Feststellung trifft nicht nur auf die international mächtige IPCC zu, sondern auch auf die folgsamen national aktiven „Klimaexperten“, bei denen eine unzureichende wissenschaftliche Qualität zu kritisieren ist.

Auf der Basis seiner heutigen Erkenntnisse kommt Rörsch zu dem Schluss, dass die Evaluationstudien, auf deren Grundlage die CO2-Hypothese des Intergovernmental Panel on Climate Change (IPCC) bis heute die Richtung der Beschlüsse der politischen Entscheidungsorgane vorgibt, höchstwahrscheinlich unrichtig sind.

Neue unabhängig ausgeführte Analysen stehen bereit, nun nachdem mit dem Climagate die ersten Zweifel an der Qualität der Evalutionsuntersuchungen auf internationalem Niveau gekommen sind.

Wieder auf dem Weg zur Wahrheitsfindung

Die Wahrheitsfindung ist ein wesentlicher Aspekt der wissenschaftlichen Untersuchungen

Die Anwendung von Resultaten der wissenschaftlichen Untersuchungen hat für das Zusammenleben unverkennbar eine große Bedeutung. Aber die beiden Aspekte sollten nicht untereinander in Streit liegen. In der Vergangenheit haben sich verstärkt Zweifel an der Unabhängigkeit der klimatologischen Untersuchungen herausgestellt. Es ist daher nötig geworden, das Ausgangsmaterial für die Alarm-Botschaften des IPCC kritisch zu überprüfen.

Problematisch ist die Erscheinung, dass viele ein blindes Vertrauen in die Veröffentlichungen von bekannten Untersuchern in wissenschaftlichen Zeitschriften setzen. Dieses Vertrauen steht im Gegensatz zu der westlichen wissenschaftlichen Arbeit , die dem Spruch im Wappen der British Royal Society folgt: Nullius addictus jurare in verba magistra, frei übersetzt: Glaube nicht alles,was der Große Meister sagt!

Der Streit um die Wissenschaft in der Soziobiologie

Die Politisierung der Wissenschaft und das Verfahren von advocacy research sind auch in anderen Disziplinen der heutigen Klimatologie wahrzunehmen.

Vor einem Jahrzehnt beschrieb Ullica Segerstrale diese Erscheinung bezogen auf die Soziobiologie in ihrem Buch: Defenders of the Truth: The battle for Science in the Sociobiology (Oxford University Press, 2000). Auch dort verdrängte die advocacy research  die objektive Ausübung der Wissenschaft. 

Segerstrale behandelt die Spannung zwischen wissenschaftlicher Wahrheit und der gesellschaftlichen Einstellung. Hier geht es mehr um die Spannung zwischen bisherigen Paradigmen und der Ideologie, die heutzutage als ‚politische Korrektheit’ beschrieben wird, Der Schluss daraus ist, dass die Macht in wesentlichem Umfang bestimmt, wer der Gewinner in einer wissenschaftlichen Debatte wird.
Kein Mittel wird gescheut, um den Gewinn sicherzustellen: Hexenjagd, Fehlen einer kritischen Einstellung, unerwünschte Unterbrechungen bei Vorträgen, Verkündigung von Halbwahrheiten durch ‚Experten’, vorsätzliche Fehlinterpretationen, beleidigender Sprachgebrauch, Schmähungen, Furcht vor Tatsachen und Unterdrückung der Wahrheitsfindung,

Bestellung einer unabhängigen Beurteilungskommission

In der so genannten Klimadebatte sind solche Vorgänge festzustellen. Es ist daher von großer wissenschaftlicher und gesellschaftlicher Bedeutung, dass jetzt eine tief greifende Untersuchung zur Qualität der Evaluationstudien zu den Klimaveränderungen vorgenommen und anschliessend publiziert wird. Mit Eile sollte eine unabhängige Beurteilungskommission tätig werden und untersuchen, wie Teile der Klimatologie auf Abwege geraten konnte, Eine Institution wie die Koninklijke Akademie van Wetenschappen (KNAW) sollte die Verantwortung dafür übernehmen.

Vor allem zwei Fragen sollten dabei beantwortet werden:

Zuerst sollten die Verkünder der IPCC-Doktrin gefragt werden, wie Qualität ihrer Einsichten zum irdischen Treibhauseffekt ist.

Zum zweiten sollte festgestellt werden, wie in wissenschaftlichen Kreisen über den advocacy research geurteilt wird und hier vor allem darüber, warum nur ein einziges Paradignum eine Rolle bei den wissenschaftlichen Untersuchungen gespielt hat.
Rörsch sagt es noch nicht so deutlich, aber er lässt durchblicken, dass er vom allgemeinen wissenschaftlichen Gesichtspunkt wenig Respekt vor denen hat, die sich auf nationalem Niveau als ‚Klimaexperten’ profiliert haben.

Dokumentation

Diverse Artikel von Prof. Arthur Rörsch, unter denen sich der erwähnte Bericht befindet, finden Sie unter Actueel Document auf der Webseite:

http://www.platteland-in-perspectief.nl.
Sie finden dort auch kritische Artikel von anderen Autoren zur Klimaveränderung, so von Bas van Geel, Dick Thoenes und Marcel Crok.

Dankenswerterweise übersetzt von Dipl.Ing. Eike Barthels, Dresden für EIKE




Schule-Bildung-Klimawandel-CO2: Der Mensch zerstört das CO2-Gleichgewicht der Erde!

und weiter:

 

Ganz ähnlich sieht es hier aus:
http://www.igfsek2.de/klima/vers1.htm
http://www.espere.net/Germany/water/dewatexpgreenhde.htm
http://www.ikp.uni-koeln.de/students/praktikumb/versuchsbeschreibung/11/Anleitung%201.1.pdf
http://klimakatastrophe.wordpress.com/2009/02/26/co2-absorption-im-selbstversuch/
http://www.comune.bolzano.it/UploadDocs/1813_Spiel_11_CO2_Treibhauseffekt.pdf
http://lernen.geocarbo.com/node/136
http://riecken.de/index.php/2009/01/versuch-zum-treibhauseffekt/
http://www.ps-chemieunterricht.de/chemiefachseminare/chemiemobil/thema7/experiment_treibh.pdf
http://www.hamburger-bildungsserver.de/klima/experimente/colab/experimente.pdf
http://www.agenda21-treffpunkt.de/daten/treibhausgase.htm

http://www.zukunft-der-energie.de/nc/veranstaltungen/suchen.html?tx_kbwjxmlrpc_pi4[view]=single&tx_kbwjxmlrpc_pi4[recordUID]=60

Gefunden und zusammengestellt von CS EIKE




Klimawandel Statement von William Happer – Cyrus Fogg Bracket Professor für Physik an der Princeton University!

Frau Vorsitzende und Mitglieder, ich danke für die Gelegenheit, vor dem Ausschuss für Umwelt und Öffentliche Bauvorhaben zum Klimawandel auszusagen. Mein Name ist William Happer, und ich bin der Cyrus Fogg Bracket Professor für Physik an der Princeton University. Ich bin kein Klimatologe, aber ich glaube nicht, dass irgendwer der anderen Zeugen dies ist. Ich arbeite in den verwandten Feldern der Atom-, Molekular- und optischen Physik. Ich habe mein Arbeitsleben dem Studium der Wechselwirkung von sichtbarer und infraroter Strahlung mit Gasen gewidmet, – eines der wichtigsten physikalischen Phänomene des Treibhauseffekts. Ich habe über 200 Beiträge – überprüft von anderen Wissenschaftlern – in wissenschaftlichen Zeitschriften veröffentlicht. Ich bin Mitglied in einer Anzahl von professionellen Organisationen, die amerikanische Physikalische Gesellschaft und die Nationale Akademie der Wissenschaften eingeschlossen. Ich habe eine umfangreiche Beratertätigkeit für die US- Regierung und Industrie ausgeübt. Ich war von 1990 bis 1993 Direktor des Forschungsinstituts für Energie (DOE). Dort habe ich auch alle Arbeiten von DOE zum Klimawandel überwacht. Ich bin hierher gekommen als besorgter Bürger, um meine persönlichen Ansichten und solche vieler, wie ich, zur US-Politik des Klimawandels zu äußern. Dies sind weder offizielle Ansichten  meines Hauptarbeitgebers, der Princeton University, noch von irgendeiner anderen Organisation, mit der ich verbunden bin.

    Lassen sie mich klar feststellen, wo ich wahrscheinlich mit den anderen Zeugen übereinstimme. Über die vergangenen 200 Jahre hatten wir eine Periode genereller globaler Erwärmung. Zwischendurch gab jedoch Perioden ohne Erwärmung, wie z.B. in den vergangenen 10 Jahren. Es gab sogar Perioden mit deutlicher Abkühlung, wie von 1940 bis 1970. Die atmosphärische Konzentration von Kohlendioxid (CO2) stieg von 280 auf 380 ppm (Anteile pro Million) in den letzten hundert Jahren. Die Verbrennung von fossilen Brennstoffen – wie Kohle, Öl und Naturgas – hat zu dem Anstieg von CO2 in der Atmosphäre beigetragen. Und ansteigende Konzentrationen von CO2 in der Atmosphäre werden letztendlich eine Erwärmung der Erdoberfläche bewirken. Die entscheidende Frage ist: Werden die summarische Wirkung der Erwärmung und sonstige Wirkungen des CO2 gut oder schlecht für die Menschheit sein?

          Ich glaube, dass die Zunahme von CO2 kein Grund für Alarm ist und sogar gut sein wird für die Menschheit. Ich sage voraus, dass zukünftige Historiker auf diese Periode zurückblicken werden, ähnlich wie wir jetzt auf die Zeit vor der Verabschiedung der 18. Berichtigung der US-Verfassung, um „die Fertigung, den Verkauf und den Transport von berauschenden Flüssigkeiten“ zu verhindern. Zu dieser Zeit schien die 18. Berichtigung genau das richtige zu sein, was man tun konnte, – wer wollte schon im Bund mit dem dämonischen Rum sein? Dies war die 1917er Version, den Planet zu retten. Mehr als die Hälfte der Staaten verabschiedete Verbotsgesetze, bevor die 18. Berichtigung ratifiziert wurde. Nur ein Staat, Rhode Island, stimmte gegen die 18. Berichtigung. Zwei Staaten, Illinois und Indiana, kamen nicht zur Abstimmung und der Rest stimmte zu. Es gab viele nachdenkliche Leute, einschließlich die Mehrheit der Rhode-Isländer, die dachten, dass das Verbot mehr Schaden als Gutes anrichten würde. Aber sie wurden durch die Enthaltsamkeits-Bewegung vollständig ausgeschaltet, deren Motive und Methoden vieles gemeinsam hatte mit der Bewegung, den Klimawandel zu stoppen. Tief aufrichtige Leute dachten, sie würden die Menschheit von dem Übel des Alkohols retten, ähnlich wie viele Leute jetzt ernsthaft denken, sie retten die Menschheit vor dem Übel des CO2. Das Verbot war ein Fehler und unser Land hat sich noch nicht voll von dem Schaden erholt, der angerichtet wurde. Institutionen, wie die organisierte Kriminalität, entwickelten sich in dieser Zeit. Drastische Begrenzungen des CO2 werden in ähnlicher Weise Schaden für unser Land bringen.

     Aber wie steht es mit den erschreckenden Auswirkungen der ansteigenden CO2-Konzentration, von der wir hören? Mit einem Satz: Diese sind wild übertrieben, gerade wie die vorgegebenen Vorteile des Alkoholverbots wild übertrieben waren. Lassen Sie mich nun der Wissenschaft zuwenden und versuchen, zu erklären, warum ich und viele Wissenschaftler  wie ich von der zunehmenden CO2 Konzentration nicht alarmiert sind.

     Das Klima der Erde ist wirklich stark vom Treibhauseffekt beeinflusst, obwohl die Physik nicht dieselbe ist wie die, die sich in wirklich verglasten Treibhäusern abspielt. Ohne Treibhauserwärmung würde die Erde viel zu kalt sein, um die gegenwärtige Fülle des Lebens aufrecht zu erhalten. Jedoch geht mindestens 90 % der Treibhauserwärmung  auf Wasserdampf und Wolken zurück. Kohlendioxid ist eine geringe Einflussgröße. In der wissenschaftlichen Gemeinschaft wird der direkten Auswirkung einer Verdoppelung der CO2-Konzentration nur untergeordnete Bedeutung beigemessen, da sie maximal zu einem Anstieg der Erdtemperatur in der Größenordnung von einem Grad führen kann. Eine weitere Zunahme von CO2 wird weniger direkte Erwärmung verursachen, weil wir bereits so viel CO2 in der Atmosphäre haben, dass dieses bereits den größten Teil der Infrarotstrahlung zurückhält. Es ist ähnlich, wie wenn man eine zusätzliche Skimütze auf den Kopf setzt, wenn bereits eine schöne warme darunter ist, man aber stattdessen nur einen Windschutz trägt. Um wirklich wärmer zu werden, muss man eine wärmere Jacke haben. Das IPCC denkt, dass diese zusätzliche Jacke Wasserdampf und Wolken sind.

     Da der Großteil des Treibhauseffekts für die Erde auf Wasserdampf und Wolken zurückgeht, müsste zusätzliches CO2 die Wasserkonzentration entscheidend ansteigen lassen, um zu den erschreckenden Szenarien zu führen, die als Gerüchte im Umlauf sind. Der geläufige Ausdruck hierfür ist „positive Rückkopplung“ . Mit jedem weiteren Jahr untergraben die experimentellen Beobachtungen die Behauptung einer großen positiven Rückkopplung durch Wasserdampf. Stattdessen legen die Beobachtungen nahe, dass die Rückkopplung um Null liegt oder sogar negativ ist. Das bedeutet, Wasserdampf und Wolken dürften in Wirklichkeit den geringen globalen Erwärmungseffekt, der von CO2 ausgeht, weiter verringern und nicht vergrößern. Der Beweis kommt von Satellitenmessungen der Infrarotstrahlung, die von der Erde in den Weltraum geht, von Messungen des Sonnenlichts, das von Wolken reflektiert wird und von Messungen der Erdoberflächentemperatur oder der Troposphäre, der etwa 10 km dicken Schicht der Atmosphäre über der Erdoberfläche, die mit bewegter Luft und Wolken gefüllt ist, von unten erwärmt von der Erdoberfläche und von oben durch die Strahlung in den Weltraum gekühlt.

      Aber das Klima erwärmt sich doch und das CO2 steigt an. Beweist dies nicht, dass CO2 die Erwärmung infolge des Treibhauseffekts verursacht? Nein! Die gegenwärtige warme Periode begann ungefähr 1800 am Ende der Kleinen Eiszeit, lange vor einem nennenswerten Anstieg des CO2. Während der 10.000 Jahre seit dem Ende der letzten Eiszeit gab es einige Male ähnliche und sogar stärkere Erwärmungen. Diese früheren Erwärmungen haben eindeutig nichts mit der Verbrennung von fossilen Brennstoffen zu tun. Die gegenwärtige Erwärmung scheint weitgehend auf natürliche Ursachen zurückzugehen und nicht auf die zunehmende Konzentration des Kohlendioxids. Während der vergangenen 10 Jahre fand keine globale Erwärmung statt, tatsächlich sogar eine leichte Abkühlung. Dies entspricht überhaupt nicht dem, was von den IPCC-Modellen vorhergesagt wurde.

      Das Klima hat sich in der Vergangenheit vielmals geändert ohne menschlichen Einfluss. Es sei daran erinnert, dass die Römer um das Jahr 100 in England Weintrauben anbauten. Die Wikinger Siedler waren mit  kleinen Farmen in Grönland für einige Jahrhunderte während des mittelalterlichen Klima-Optimums um 1100 erfolgreich. In der Vergangenheit haben die Menschen immer einen Drang gehabt, das Klima zu kontrollieren, so ist es keine Überraschung, dass wir heutzutage wieder dabei sind. Z.B. führte der Bischof von Genf im Juni 1644 eine Schar von Gläubigen zur Frontseite eines Gletschers, der sich jeden Tag „um mehr als einen Musketenschuss“ bewegte. Der Gletscher würde bald einen Ort zerstören. Der Bischof und seine Schar beteten zum Gletscher und es wird gesagt, der Gletscher wurde gestoppt. Die armen Wikinger hatten lange davor Grönland aufgegeben, wo die vordringenden Gletscher und das kalte Klima sich weniger empfänglich für Gebete erwiesen. Manchmal geriet die Besessenheit, das Klima zu kontrollieren, ein wenig außer Kontrolle, wie in dem Azteken-Staat. Dort haben die lokalen, wissenschaftlich/religiösen herrschenden Kreise des Jahres 1500 lang zuvor angekündigt, dass die Debatte vorüber sei und dass mindestens 20.000 Opfer pro Jahr notwendig seien, damit sich die Sonne weiterhin bewegt, der Regen fällt und der Klimawandel gestoppt wird. Die weit verbreitete Unzufriedenheit der Menschen, aus deren Reihen leider die Opfer stammten, spielte eine wichtige Rolle zum Erfolg der Eroberung von Mexiko durch die Spanier.

      Das Auftreten von Klimavariationen in der Vergangenheit war lange eine Schwierigkeit für die, die behaupten, dass jeder Klimawandel auf die Menschheit zurückgehe und durch sie selbst kontrollierbar sei. Als ich ein Schuljunge war, zeigten meine Bücher zur Erdwissenschaft eine bedeutende „Mittelalterliche Warmperiode“ zu der Zeit, als die Wikinger Grönland besiedelten, gefolgt von einer widrigen „Kleinen Eiszeit“, die sie vertrieben. So war ich überrascht, als ich in dem dritten Weltklimabericht des IPCC die berühmte „Hockey Schläger Kurve“ sah. Ich wollte kaum meinen Augen trauen. Beide, die Kleine Eiszeit und die Mittelalterliche Warmperiode, waren verschwunden, und die kürzlich überprüfte Temperatur der Welt seit dem Jahr 1000 verlief absolut flach bis auf die letzten 100 Jahre, als sie wie das Blatt eines Hockey-Schlägers hochschoss. Die Hockey-Schläger-Kurve war keinesfalls ein verstecktes Detail, sondern wurde in die Welt hinausposaunt als Beweis, dass das Ende nahe sei. Wir wissen heute, dass diese Hockey-Schläger –Kurve nichts mit der Realität zu tun hat. Sie war das Ergebnis einer inkorrekten Handhabung von Temperatur-Proxies und einer inkorrekten statistischen Analyse. Es gab wirklich eine Kleine Eiszeit und es gab wirklich eine Mittelalterliche Warmperiode, in der es so warm oder wärmer war als heute. Ich erwähne den Hockey-Schläger als ein besonders klares Beispiel, dass die IPCC-Zusammenfassungen für Politiker keine unparteilichen Aussagen zu Tatsachen des Klimawandels sind. Es ist eine Schande, da viele der IPCC-Kapitel recht gut sind. Die ganze Hockey-Schläger-Episode erinnert mich an das Motto von Orwells Informationsministerium in der Novelle „1984“: „Der, der die Gegenwart kontrolliert, kontrolliert das Vergangene. Der, der das Vergangene kontrolliert, kontrolliert die Zukunft“. Das IPCC hat keinen ernsten Versuch unternommen, die natürlichen Variationen der Erdtemperatur der Vergangenheit zu modellieren. Was auch immer diese großen vergangenen Variationen verursachte, sie gehen nicht auf Menschen zurück, die Kohle und Öl verbrannten. Wenn man die Vergangenheit nicht modellieren kann, deren Realitäten man ja kennt, wie will man die Zukunft modellieren können?

      Vielen von uns ist bewusst, dass wir in einer relativ kurzen Zwischeneiszeit leben, zwischen Zeitintervallen von  etwa hunderttausend Jahren mit großen kontinentalen Gletscherausdehnungen über einen Grossteil der Landoberfläche der nördlichen Hemisphäre. Wir betrachten Eiskerne von Grönland und dem antarktischen Eispanzer. Man kann daraus die Temperaturen in der Vergangenheit und die atmosphärische Konzentration von CO2 abschätzen. Al Gore zeigt gern Temperaturkurven und CO2-Konzentrationen der zurückliegenden huntertausenden von Jahren, und dass, sobald CO2 ansteigt die Temperatur ebenfalls ansteigt. Beweist dies nicht, dass die Temperatur vom CO2 bestimmt wird? Absolut nicht! Wenn man diese Aufzeichnungen genau ansieht, findet man, dass zuerst die Temperatur ansteigt und dann die CO2-Konzentration in der Atmosphäre ansteigt. Es gibt einen Verzug zwischen dem Temperaturanstieg und dem CO2-Anstieg von ungefähr 800 Jahren. Dieses wirft ernste Zweifel auf das CO2 als den Klimatreiber wegen des fundamentalen Konzepts der Kausalität. Eine Ursache muss der Wirkung vorangehen. Zum Beispiel: Ich höre, dass mein Ofen am Morgen um 6.00 Uhr anspringt.  Etwa um 7 Uhr bemerke ich, dass mein Haus warm ist und ich zu viele Decken auf meinem Bett habe. Es ist Zeit, aufzustehen. Es wird mir niemals einfallen, anzunehmen, dass der Ofen um 6.00 Uhr Gas zu verbrennen beginnt, weil das Haus um 7.00 Uhr warm wurde. Temperatur und das Verbrennen von Gas hängen zusammen, gerade wie die Temperatur und die Konzentration vom CO2 in der Atmosphäre. Aber dasjenige, das sich zuerst ändert, ist die Ursache. Im Falle der Eiskerne ist die Ursache des ansteigenden CO2 mit Sicherheit die Erwärmung der Ozeane. Die Ozeane geben, wenn sie sich aufwärmen, gelöstes CO2 frei, gerade wie ein Glas Bier, dessen Schaumkrone in einem warmen Raum schnell flach wird. Wenn nicht CO2, was verursacht dann die Erwärmung am Ende der kalten Periode der Eiszeiten? Dies ist eine wichtige Frage und einer der Gründe, dass ich die Klimaforschung stark unterstütze.

      Ich höre dauernd  über die „Verschmutzung durch CO2“ oder über „Vergiftung der Atmosphäre“ mit CO2 oder über die Minimierung unseres „Kohlenstoff-Fußabdrucks“. Dies erinnert mich an eine andere Erklärung von Orwell, die es wert ist, zu erwähnen: „Aber wenn Gedanken die Sprache korrumpieren, kann die Sprache auch die Gedanken korrumpieren“. CO2 ist kein Schadstoff und kein Gift und wir sollten die Sprache nicht korrumpieren, indem wir in Zusammenhang mit CO2 von „Schadstoff“ und „Gift“ sprechen, sondern diese Begriffe nur in ihrer ursprünglichen Bedeutung verwenden. Unser ausgestoßener Atem enthält ungefähr 4 % CO2. Dies sind 40.000 Teile pro Million oder ungefähr 100mal mehr als die gegenwärtige atmosphärische Konzentration. CO2 ist absolut entscheidend für das Leben auf der Erde. Kommerzielle Treibhausbetreiber benutzen CO2 oft als Dünger, um die Gesundheit und die Wachstumsrate ihrer Pflanzen zu verbessern. Pflanzen und unsere eigenen Primaten-Vorfahren entwickelten sich, als die atmosphärische CO2-Konzentration ungefähr 1.000 ppm betrug, eine Höhe, die wir wahrscheinlich durch Verbrennen fossiler Brennstoffe nicht erreichen, und die weit über unserer gegenwärtigen Konzentration von ungefähr 380 ppm liegt. Wir versuchen, die CO2-Konzentration in unseren  (US-) Unterseebooten auf 8.000 ppm zu begrenzen. Dies ist 20mal so hoch wie die gegenwärtige atmosphärische Konzentration. Wenige ungünstige Auswirkungen werden selbst bei höherer Konzentration nicht beobachtet.

      Wir sind uns im Klaren, dass die „Grüne Revolution“ den Getreide-Ertrag weltweit gesteigert hat. Ein Teil dieser wundervollen Entwicklung geht auf verbesserte Getreidearten, besseren Gebrauch von Mineraldüngern, Herbiziden usw. zurück, aber ein nicht geringer Teil des gesteigerten Ertrags geht auf den Anstieg des CO2 in der Atmosphäre zurück. Die Pflanzen bilden durch Photosynthese mehr Kohlehydrate, wenn sie mehr CO2 haben. Die Pflanzen sind auch toleranter gegenüber Trockenheit, wenn mehr CO2 vorhanden ist, weil sie nicht so viel Luft „inhalieren“ (und dabei Wasser abgeben) müssen, um das CO2 für die Photosynthese zu bekommen. Die Pflanzen verringern die Zahl von Luftporen in ihren Blatt-Oberflächen als Antwort auf die ansteigende Konzentration des CO2 in der Atmosphäre. Sie sind an wechselnde Werte angepasst und bevorzugen höhere als die, die wir gegenwärtig haben. Wenn wir wirklich unsere heutigen CO2-Konzentrationen von ungefähr 400 ppm auf  270 ppm absenken, was der Wert wenige Jahrhunderte zuvor war, würden wir einige der Vergünstigungen der „Grünen Revolution“ verlieren. Die Getreide-Erträge werden mit zunehmender CO2-Konzentration ansteigen, da wir von der optimalen Konzentration für das Pflanzenwachstum weit entfernt sind. Kommerziellen Treibhausbetreibern wird geraten, genug CO2 zuzufügen, um etwa 1000 ppm im Umfeld der Pflanzen zu halten. In der Tat, Wirtschaftlichkeitsstudien, wie die von Robert Mendelsohn von der Yale-Universität, sagen voraus, dass eine moderate Erwärmung einen generellen Nutzen für die Menschheit hat wegen der höheren landwirtschaftlichen Erträge und vieler anderer Gründe.

  Ich erinnere mich  daran, dass ich als Junge gezwungen war, Voltaires Novelle „Candide“ zu lesen. Rufen Sie sich ins Gedächtnis, dass Dr. Pangloss wiederholt dem jungen Candide versicherte, er lebe in der „besten aller möglichen Welten“, vermutlich auch mit den besten aller möglichen CO2-Konzentrationen. Dass wir lebten oder leben mit der besten aller CO2- Konzentrationen scheint eine stillschweigende Annahme in der IPCC-Zusammenfassung für Politiker zu sein. Enorme Anstrengungen und Phantasie sollen zeigen, dass ansteigende Konzentrationen von CO2  katastrophal sind. Städte werden erst geflutet durch einen Anstieg des Meeresspiegels, der 10 oder mehr mal größer sein müsste, als selbst IPCC vorhersagt. Es komme zu einer Massenauslöschung von Arten, Milliarden von Menschen werden sterben, auf dem Kipppunkt werde der Planet zur Wüste werden, wird behauptet. Vor einigen Monaten las ich, dass die globale Erwärmung zu einer verheerenden Epidemie von Nierensteinen führen werde. Wenn man all die Krankheiten, die der globalen Erwärmung zugeschrieben werden, aufschreibt, füllt man ein sehr dickes Buch.

      Große Aufmerksamkeit wird tropischen Krankheiten gewidmet. Malaria und Gelbfieber vernichten die Bevölkerung in den gemäßigten Klimazonen wegen des Verbrennens von fossilen Brennstoffen und der nachfolgenden Erwärmung der Erde. Viele Menschen, die aktuell an tropischen Krankheiten arbeiten, und ganz besonders Dr. Paul Reiter, ein Spezialist für Tropenkrankheiten (am Institut Pasteur in Paris), haben betont, wie dummlich diese Behauptungen sind. Vielleicht kann ich einige wenige Details aus der Geschichte hinzufügen, um diesen Punkt zu erläutern. Eine der ersten militärischen Ausgaben des „Continental Congress“ im Jahr 1775 waren $ 300,–, um Chinin für die Armee zu kaufen und damit die Auswirkungen der Malaria zu lindern. Der „Continental Congress“ zog von der Hauptstadt der Vereinigten Staaten, Philadelphia, in meine Heimatstadt Princeton/New Jersey im Sommer 1783 aus 2 Gründen um. Der erste Grund war, dass der „Congress“ vielen Soldaten aus dem revolutionären Krieg ihre versprochenen Gehälter nicht bezahlt hat und verdrossene Veteranen die Straßen von Philadelphia auf und ab wanderten. Zweitens gab es Ausbrüche von Malaria in den Städten so weit nördlich wie Boston. Der „Congress“ wusste, dass man weniger wahrscheinlich Malaria in Princeton als in Philadelphia bekam. 1793 war es nicht nur Malaria sondern ein schrecklicher Ausbruch von Gelbfieber in Philadelphia. Viele tausend Menschen starben in der Stadt mit einer Bevölkerung von 50.000. Und ich sollte darauf hinweisen, dass Philadelphia ein wenig kälter war als heute, denn die Kleine Eiszeit kam gerade zum Ende. Die tropischen Krankheiten und andere Krankheiten zu kontrollieren, hat weniger mit der Temperatur zu tun, sondern alles mit den Faktoren, die die Ausbreitung verursachen, – ganz besonders mit den Moskitos im Fall von Malaria und Gelbfieber.

      Viele der erschreckenden Szenarien zur globalen Erwärmung kommen von ausgedehnten Computer-Rechnungen: „Allgemeine[DrAG1]  Zirkulationsmodelle“, die versuchen, das Verhalten des Erdklimas darzustellen, wenn mehr CO2 der Atmosphäre zugefügt wird. Es ist wahr, dass die Klima-Modelle zunehmend fähigere und teurere Computer benutzen. Aber ihre Vorhersagen waren nicht sehr gut. Z.B. hat keiner von diesen die fehlende Erwärmung, die wir in den letzten 10 Jahren hatten, vorhergesagt. Alle Modelle nehmen an, dass die Wasserdampf-Rückkopplung positiv ist, während die Satelliten-Beobachtungen andeuten, dass die Rückkopplung (auf eine erhöhte CO2-Konzentration) null oder negativ ist.

      Modellierer lagen schon früher falsch. Eine der berühmtesten Streitigkeiten schlossen den Physiker William Thompson ein, den späteren Lord Kelvin, und den Naturforscher Charles Darwin. Lord Kelvin glaubte stark an Modelle und Differentialgleichungen. Charles Darwin war nicht so beschlagen in Mathematik, aber er nahm Beobachtungen sehr ernst. Zur Evolution der Vielfalt des Lebens und der fossilen Arten, die Darwin beobachtet hatte, benötigte die Erde hunderte von Millionen Jahre unter Bedingungen, die nicht sehr unterschiedlich von heutigen sind. Mit seinen mathematischen Modellen demonstrierte Kelvin ziemlich hochtrabend, dass die Erde nur wenige 10 Millionen Jahre zuvor ein höllischer Ball von geschmolzenem Stein gewesen sein muss und die Sonne nicht mehr als ungefähr 30 Millionen Jahre geschienen haben kann. Kelvin hat tatsächlich modelliert, was er sich dachte, was globale und solare Kühlung war. Ich bedauere, sagen zu müssen, dass die Mehrheit seiner Physiker-Kollegen Kelvin unterstützten. Der arme Darwin entfernte jeden Bezug zum Alter der Erde in späteren Ausgaben seines Buches „Ursprung der Arten“ (Original: „Origin of the Species“). Darwin hatte Recht und Kelvin lag falsch. Kelvin dachte, dass er alles wisse, aber er wusste nichts über Atomkern, Radioaktivität und Kernreaktionen, all dies machte seine eleganten Modellrechnungen ungültig.

      Häufig wird behauptet, dass es einen Konsens darüber gebe, eine Katastrophe drohe durch den Klimawandel und dass es möglicherweise schon zu spät sei, diese abzuwenden, – ja sogar, wenn wir die Verbrennung von fossilen Brennstoffen ganz einstellen. Uns wird erzählt, dass nur wenige Erdbewohner noch irgendwelche Zweifel an den katastrophalen Wirkungen der fortwährenden CO2-Emissionen haben. Es gibt eine Reihe von Antworten zu dieser Behauptung.

      Erstens, was in der Wissenschaft richtig ist, wird nicht vom (einem mehrheitlichen) Konsens bestimmt, sondern von Experiment und Beobachtung. Historisch gesehen war ein Konsens oft falsch. Ich habe zuvor den falschen Konsens der Modellierer zum Alter der Erde und der Sonne erwähnt. Während der Gelbfieber-Epidemie 1793 in Philadelphia war es medizinischer Konsens, dass man nahezu alles durch Aderlassen der Patienten heilen konnte. Benjamin Rush, Georg Washingtons  oberster Stabsarzt während des Unabhängigkeitskriegs, ein tapferer Mann, verblieb während der Gelbfieber-Epidemie in Philadelphia. Er arbeitete unermüdlich, die Befallenen durch Aderlassen zu retten, dem damals herrschenden Konsens zur „richtigen“ Behandlung. Einige vorsichtige Beobachter stellten fest, dass diejenigen ohne die Dienste des berühmten Mannes das Gelbfieber eher überlebten. Aber Dr. Rush hatte viele hochrangige Freunde und er wurde gestützt durch den offensichtlichen Konsens, so fuhr er fort mit seinen Diensten. Zusammenfassend, ein Konsens ist oft falsch.

      Zweitens, ich glaube nicht, dass es einen Konsens zu einer bevorstehenden Klimakrise gibt. Ich persönlich glaube sicherlich nicht, dass wir einer Krise entgegengehen, es sei denn, wir erzeugen sie selbst, wie Benjamin Rush dies tat, durch Aderlassen der Patienten. Viele andere, klüger als ich, teilen meine Sicht. Die Anzahl derer, die den Mut haben, dies auszusprechen, wächst. Es mag eine Illusion des Konsenses geben. Wie die „Enthaltsamkeit (von Alkohol)- Bewegung“ vor hundert Jahren hat die Klimakatastrophen-Bewegung heute für ihre Sache die Massenmedien gewonnen, die Führerschaft wissenschaftlicher Vereinigungen, die Treuhänder von karitativen Stiftungen und viele andere einflussreiche Leute. Gerade wie Schreiber gern über den schlüpfrigen Pfad zur Hölle hinter der Kneipentür wettern, belehren sie uns heute über das bevorstehende Ende des Planeten und die Notwendigkeit, den Klimawandel mit kühnen, politischen Aktionen zu stoppen. Viele angesehene wissenschaftliche Zeitschriften haben jetzt Herausgeber, die die Agenda des Klimawandel-Alarms fördern. Forschungsberichte mit wissenschaftlichen Erkenntnissen entgegengesetzt dem Dogma der Klima-Katastrophe, werden dagegen von den Rezensenten zurückgewiesen. Viele von diesen fürchten, dass ihr Forschungsbudget gekürzt wird, wenn irgendein Zweifel zu der kommenden Klima-Katastrophe aufkommt. Von den Römern, die Schottland im Jahr 83 einnahmen, soll der schottische Anführer Calgacus gesagt haben: „Sie machen eine Wüste und nennen es Frieden.“  Wenn man die Macht hat, abweichende Meinungen zu unterdrücken, kann man in der Tat die Illusion von Frieden und Konsens erzeugen. Es gibt eindrucksvolle Parallelen zwischen Römern und Klima-Wissenschaft. In diesem Zusammenhang ist es ziemlich entnervend, die Feststellungen von Dr. James Hansen in dem Kongressbericht zu lesen, dass Klima-Skeptiker schuldig an „grossen Verbrechen gegen die Menschheit und Natur“ seien.

     Sogar Elementarschullehrer und Autoren von Kinderbüchern werden gewonnen, unseren Kindern Angst zu machen und die Vorstellung des bevorstehenden Klima-Verhängnisses zu unterstützen. Wenn man die Erziehung vieler Kinder beobachtet – meine eigenen eingeschlossen –, bin ich nicht sicher, wie wirkungsvoll diese Anstrengung sein wird. Viele Kinder scheinen genau das Gegenteil zu tun von dem, was man sie lehrt. Nichtsdestoweniger sollten Kinder nicht einer erzwungenen Propaganda ausgesetzt sein, die als Wissenschaft getarnt ist. Viele von Ihnen wissen, dass ein englischer Gerichtshof 2007 geurteilt hat,  sofern Al Gore’s Film „Eine unbequeme Wahrheit“ in öffentlichen Schulen benutzt wird, die Kinder auf die elf besonders schwerwiegenden Unrichtigkeiten hingewiesen werden müssen. Sie können leicht die Liste der Unrichtigkeiten im Internet einsehen. Ich will eine erwähnen: Der Gerichtshof entschied, dass es unmöglich war, den Wirbelsturm (Hurrikan) Kathrina dem CO2 anzulasten. In der Tat, hätten wir einige der vielen Milliarden Dollar, die wir für die Erforschung und die Propaganda des Klimawandels ausgegeben haben, für die Deiche und Pumpen um New Orleans verwendet, wäre der größte Schaden des Wirbelsturms Kathrina vermieden worden.

     Der Meeresspiegel steigt in der Tat an, wie er es getan hat in den vergangenen 20.000 Jahren seit dem Ende der letzten Eiszeit. Recht genaue Messungen des Meeresspiegels sind seit 1800 verfügbar. Diese Messungen zeigen keine Anzeichen einer Beschleunigung. Das Ansteigen der Meereshöhe kann ein ernstes lokales Problem für dicht besiedelte, niedrig liegende Gebiete wie New Orleans sein, wo Landsenkungen sich mit dem Problem verbinden. Aber zu glauben, dass begrenzte CO2-Emissionen den Meeresanstieg stoppen, ist eine gefährliche Illusion. Es ist auch möglich, dass die erwärmten Meere um die Antarktis mehr Schneefall über dem Kontinent verursachen und dem Meeresspiegelanstieg entgegenwirken. In jedem Fall ist der ansteigende Meeresspiegel ein Problem, das eine schnelle lokale Aktion  für Orte wie New Orleans erfordert, viel eher als eine langsame globale Aktion.

     Zum Schluss lassen Sie mich nochmals sagen, dass wir eine angemessene Unterstützung für viele ausgezeichnete Wissenschaftler vorsehen sollten, einige in meiner eigenen Institution, der Princeton University. Diese versuchen, das Erdklima besser zu verstehen, – jetzt, in der Vergangenheit und wie es in der Zukunft sein könnte. Ich bedauere, dass das Klimawandel-Thema mit ernsten Problemen verknüpft wurde, wie die sichere Energie-Versorgung, den Schutz unserer Umwelt und die Vorstellungen, wie zukünftige Generationen ihre Energie-Versorgung sicherstellen, nachdem wir alle fossilen Brennstoffe, die wir finden können, verbrannt haben. Wir sollten diese lobenswerten Ziele nicht mit Hysterie über den Kohlenstoff-Fußabdruck verwirren, z.B. wenn das Für und Wider eines gleichbleibenden oder ansteigenden Gebrauchs von Kohle gegeneinander abgewogen wird. Als negatives Ergebnis sollte nicht der ansteigende atmosphärische CO2-Gehalt gewertet werden, der höchstwahrscheinlich gut für die Menschheit ist. Wir sollten uns auf wirkliche Probleme konzentrieren, wie die Zerstörung der Land- und Wasserwege durch Abbau in ganzen Landstrichen, unvollkommene Wiederherstellung der Natur, Risikos für Minenarbeiter, die Freisetzung von echten Schmutz- und Schadstoffen wie Quecksilber und andere Schwermetalle, organische und krebserregende Stoffe usw.. Leben trifft Entscheidungen und Entscheidungen haben Auswirkungen. Der „Congress“ kann wählen, Technologien zu fördern, die wirkliche Probleme betreffen und eine wissenschaftliche Forschung, die uns mit realen Problemen wirkungsvoller umgehen lassen. Oder sie können aus unbegründeter Furcht handeln und einen vernünftigen Energiegebrauch, wirtschaftliches Wachstum und den Nutzen, der sich aus der Entwicklung des nationalen Wohlstands ergibt, unterdrücken.

 

Vom Englischen ins Deutsche für EIKE übertragen durch Dr. F. W.  Peppler ,             75335 Dobel im Januar 2010. Überarbeitung durch I. Peppler




Das IPCC:Eine internationale Truppe von Klimaschwindlern?

In einfachen Worten: Wir sind belogen worden. Wir sind zum Ziel einer Bande von opportunistischen Betrügern gemacht geworden, welche die naiven altruistischen Absichten der Umweltbewegung in dem Bemühen ausgebeutet haben, den internationalen Energieverbrauch zu steuern und dabei den Reichtum auf der Welt umzuverteilen und sich (vielfach) auch gierig die eigenen Taschen zu füllen.

Vielleicht verstehen mehr Leute, was viele schon seit Jahren wussten: der menschengemachte Klimawandel war niemals wirklich ein Problem – stattdessen aber eine Lösung.

Denn gerade als die Wissenschaft des IPCC als betrügerisch entlarvt wurde, sind auch seine augenscheinlichen Motive ans Licht gekommen. Sie wurden bestürzend sichtbar, als der Textentwurf für die „letztmögliche Gelegenheit zur Rettung der Erde“, für das Internationale Klimaabkommen [PDF], im vergangenen Dezember in Kopenhagen vorgelegt wurde. Darin stehen genau so viele Paragrafen zur Begleichung von „Klimaschulden“ durch die westlichen Nationen unter dem wachsamen Auge einer UNO-geführten Globalsteuerung, wie er Regelungen zur Emissions-Verminderung enthält.

Doch diese Kriegslist kam für die Aufmerksamen nicht überraschend. Hier finden Sie eine Zusammenfassung für die Aufmerksamen, und einen längst überfälligen Weckruf für alle Unaufmerksamen. [siehe auch The CFC Ban: Global Warming’s Pilot Episode]

Das perfekte Problem für die weniger perfekte Lösung

Die UNO zeigte ihre Absicht zur Politisierung der Wissenschaft bereits 1972 auf ihrer Stockholmer Konferenz zur „Menschlichen Umwelt“ [Human Environment (UNCHE)]. Dort vernahm eine unwahrscheinliche Mischung von legitimierten Umweltaktivisten, in der Wolle eingefärbten Marxisten und allerlei übrig gebliebenen 68ern mit Freude nicht nur die üblichen Klagen über Umweltprobleme durch Industrialisierung, sondern auch eine lange Liste internationaler Ungerechtigkeiten. Unter den zu verurteilenden Verantwortlichkeiten des Menschen war die Überbevölkerung, der Missbrauch von Rohstoffen und Technik, unausgewogene Entwicklung und das weltweite Dilemma der Verstädterung. Und aus dieser Ehe von globalen, umweltbezogenen und sozialen Sorgen ging die Mutterorganisation des IPCC hervor, das UNO-Umweltprogramm (UNEP), und die Glückskeks-artige Prosa seines sozialistischen Umweltmanifests, der „Stockholmer Erklärung“ (Stockholm Declaration).

Sieben Jahre später präsentierte man der UNEP den idealen Schurken, damit sie ihren geheimen Kreuzzug vorantreiben konnte. Das war 1979, als James Hansens NASA-Gruppe von Klima-Modellierern einen Ausschuss der amerikanischen Akademie der Wissenschaften (NAS) überzeugte [PDF], dass eine Verdoppelung des atmosphärischen CO2 – das von 280 ppm in den vorindustriellen 1800er Jahren auf über 335 ppm angestiegen war – eine globale Erwärmung von nahezu 3 Grad verursachen würde. Und obwohl diese Zahl eine wilde Spekulation war, griffen viele Drittmittel-orientierten Wissenschaftler plötzlich die Treibhausgas-Theorie von der unvermeidlichen globalen Erwärmung auf. Darunter waren auch solche, die vorher prognostiziert hatten, dass Aerosole und Veränderungen des Erdumlaufs zu katastrophaler globaler Abkühlung führen würde.

In diesem Moment wurde klar, dass die seit langem gehegte wissenschaftliche Position einer  vom Ökosystem der Erde im Gleichgewicht gehaltenen CO2-Balance leicht durch ein besser ausbeutbares Glaubenssystem ersetzt werden könnte. Und die UNEP hatte für ihre Lösung jetzt das perfekt passende Problem: menschengemachter Klimawandel (Anthropogenic Global Warming, abgek. AGW).

Schließlich erfordern die Bekämpfung und die Anpassung daran eine große Ausweitung von Regierungsherrschaft und Besteuerung. Außerdem sehen die Industrie und der Kapitalismus schlecht aus, wenn endlose Bilder von Tieren und Drittwelt-Menschen gezeigt werden, die durch reiche Westler leiden. Und ganz wichtig ist, dass durch aufhetzerische Anklagen gegen „reiche“ Länder, die die Menschenrechte von Hunderten von Millionen der Ärmsten der Welt verletzt hätten, weil sie selbstsüchtig den Klimawandel herbeiführten und dadurch weltweites Leiden verursachten, die Verheißung auf Verteilung internationalen Wohlstands propagiert wird, um den weniger glücklichen Nationen bei der Anpassung an die Folgen zu helfen.

Am besten aber ist, dass dies zu einem fortwährenden Selbstläufer zu werden versprach, weil es von einer Schrott-Wissenschaft angetrieben wurde, die sich nach Bedarf anpassen kann.

Allerdings musste das verpackt werden, um es für weite Kreise genießbar zu machen. Und so geschah es. Hier folgt ein frühes klassisches Bespiel:

Wir schreiben 1988. Der Senator von Colorado, Tim Wirth, hatte veranlasst, dass Hansen in dieser Angelegenheit vor dem Senatskomitee für Energie und natürliche Ressourcen aussagen sollte, um die grässliche Notwendigkeit zu verkaufen, dass die Umweltgesetzgebung auf Bundesebene in Kraft zu setzen sei. [Anm. d. Ü.: in den USA ist die Umweltgesetzgebung Angelegenheit der Bundesstaaten, nicht der Bundesregierung.]
Wie Wirth nun zugegeben hat, terminierte er Hansens Auftritt auf den vorhergesagten heißesten Tag im Anhörungszeitraum. Mit einem glänzend hinterlistigen Marketing-Trick haben er und seine Anhänger am Vorabend sich tatsächlich in den Anhörungsraum geschlichen und die Fenster geöffnet, um die Klimatisierung völlig wirkungslos zu machen.

Man stelle sich die verschlagene Schönheit der Szene vor, die sich am Folgetag vor den Kameras abspielte – ein NASA-Wissenschaftler predigte Feuer und Schwefel und warnte vor „nie da gewesener Erderwärmung“ und einem möglichen „aus der Kontrolle laufenden Treibhaus-Effekt“, während er sich ständig die Schweißtropfen von den Augenbrauen wischte. Kein Wunder, dass die nachfolgende Schlagzeile der New York Times plärrte, „die Erderwärmung hat begonnen, das sagt ein Experte dem Senat.“

Auf diese Art und Weise, meine Damen und Herren, wurde die Klima-Hysterie geboren, und zwei ihrer Glanzlichter entzündet. Denn im gleichen Jahr wurde das IPCC von der UNO etabliert. Dessen Auftrag lautete: „die wissenschaftlichen, technischen und sozioökonomischen Informationen zum Verständnis der Risiken des menschengemachten Klimawandels zu beurteilen.“ 

Das war gekonnt: eine Organisation war geschaffen worden, nicht etwa, um den menschengemachten Klimawandel zu beweisen oder zu widerlegen, nein, nur zur Beurteilung der Risiken und für Empfehlungen auf angemessene Antworten.

Jetzt konnte man wirklich an die Arbeit gehen.

Die These vom „Klimawandel als sozialer Ungerechtigkeit“ wird getestet

Das IPCC gab seinen “First Assessment Report” 1990 heraus und warnte vor einem natürlichen Treibhauseffekt, der vom Menschen verstärkt werden würde. Weil man sich aber offensichtlich noch nicht hinter die Karten schauen lassen wollte, gab das IPCC sogar zu, dass viele Unsicherheiten verblieben wegen der noch wenig verstandenen Wirkungen von beispielsweise Kohlenstoff-Senken, Meeresströmungen und der Bewölkung in Bezug auf den zeitlichen und größenordnungsmäßigen Verlauf.

Inzwischen trieben es die Politiker ernsthaft weiter. Auf der 1992er UNO-Konferenz in Rio de Janeiro über „Umwelt und Entwicklung“ (auch „Erdgipfel“ genannt), erzählte der Sekretär des Gipfels auf der Eröffnungssitzung, Maurice Strong, dass die Industriestaaten „aus den nicht mehr aufrecht zu erhaltenden Mustern der von ihnen entwickelten Produktions- und Konsumweisen Nutzen gezogen hätten, die unser gegenwärtiges Dilemma verursacht hätten.“ Der alte UNO-Puppenspieler prangerte die „Lebensweise und das Konsumverhalten der wohlhabenden Mittelklasse“ als Erzübel der Welt an, eingeschlossen deren hohen Fleischverbrauch und großer Mengen von Gefrier- und Fertignahrung, deren Verbrauch von fossilen Treibstoffen, ihre elektrischen Haushaltsmaschinen, ihre Heim- und Arbeitsplatz-Klimaanlagen und ihr Leben in den Vorstädten. Seine Lösung: „weitreichende Stärkung des multilateralen Systems unter Einbezug der UNO“.

Jenem Treffen entspross der Vertrag über eine UNO-Rahmenkonvention zum Klimawandel [U.N. Framework Convention on Climate Change (UNFCCC)]. Obwohl es noch keine speziellen Zahlen gab, versprach der stimmenfängerische Kyoto-Vorläufer dennoch die Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre, um eine „gefährliche anthropogene Einwirkung auf das Klimasystem zu verhindern“. Doch viel weniger Fanfarenstöße begleiteten die wesentliche gleichzeitige Einigung auf die Agenda 21: einem globalen Vertrag, der die Welt auf einen UNO-Plan verpflichtete, durch den die Art und Weise verändert werden sollte, wie die Menschen „leben, essen, lernen und kommunizieren“, und das alles im Namen der „Rettung der Erde“ vor den Fehlern der Menschheit, besonders vor dem Klimawandel.

Hier wiederum kann man ein UNO-fabriziertes Zusammenbringen von Klima-„Wissenschaft“ und sozialer „Gerechtigkeit“ erblicken. Während die Unterzeichnung der UNFCCC als schrittweiser Prozess gesehen wurde, nahmen 178 Staaten die Agenda 21 sofort an. Das war ein großer Sieg, besonders in Anbetracht dessen, dass dadurch die IPCC-Kontrolle über die beste Verwirklichung der Erdrettung realisiert wurde. 

Und der 1995er Second Assessment Report (SAR) setzte noch eins drauf, indem er behauptete, dass „die Abwägung der Beweislage eine deutliche menschliche Einwirkung auf das globale Klima nahe legte.“ Seltsamerweise verminderte der SAR leicht die früheren Projektionen der zukünftigen Erwärmung und des Meeresspiegel-Anstiegs aufgrund neu bewerteter Abkühlungseffekte durch menschenerzeugte Aerosole – diesen Schritt sollten die UNO-Großkopferten zwei Jahre später noch bedauern.

Im Jahre 1997 wurde die UNFCC durch ein Protokoll ergänzt, das versuchte, nationale gesetzliche Verpflichtungen zur Verminderung von Emissionen auf der Grundlage der SAR-Empfehlungen in Gang zu bringen. Ganze 160 Staaten stimmten dem legal bindenden Kyoto-Protokoll zu, unter dem die Industriestaaten ihre gesamten Emissionen um 5,2 % vermindern sollten. Allerdings verhinderten die Vereinigten Staaten im gleichen Jahr – obgleich sie Unterzeichnerstaat waren – dessen Ratifizierung durch einen einstimmigen Senatsbeschluss eines Verbots der Teilnahme der U.S.A, an „allen Protokollen, die keine verbindlichen Ziele und Zeitrahmen für die Entwicklungsländer wie für die Industrieländer enthielten“.

Es schien an der Zeit zu sein, die Rhetorik zu verschärfen – auf Kosten der Wahrheit.

Der unverhohlene Klima-Betrug dämmert herauf

Damals, 1989, enthüllte Stephen Schneider, nachmaliger Leitautor der Arbeitsgruppe 2 für den Fourth Assessment Report (AR4) mehrere Kniffe im Magazin Discover:

Zum Gewinnen der öffentlichem Aufmerksamkeit müssen wir schreckliche Darstellungen anbieten, vereinfachende dramatische Aussagen machen und Zweifeln kaum Raum geben. Wir müssen für uns selbst die richtige Ausgewogenheit finden zwischen Wirksamkeit und Ehrlichkeit. 

Und so bezeugte es Richard Lindzen vom MIT in seiner Aussage vor einem Unterausschuss des Senats im Jahre 2001 in Bezug auf seine Tätigkeit als Leitautor für den Third Assessment Report (TAR). Teil der Enthüllungen der Atmosphären-Physiker war die Tatsache, dass beitragende TAR-Wissenschaftler die gestrichene Finanzierung und die Beschimpfung als Industrie-Knechte fürchten mussten, und dass sie auch noch mit persönlichen Verunglimpfungen von Seiten der IPCC-Koordinatoren konfrontiert wurden, falls sie ihre Kritik an fehlerhaften Klima-Modellen oder am AGW-Dogma nicht zurückhalten würden.
Ich vermute, auch auf diese Weise kam der „Konsens“ zustande, dessen sich das IPCC so lauthals rühmt. 

Wie bereits dargestellt (hier und hier), wurde im TAR von 2001 vom IPCC die lang vertretene Meinung aufgegeben, dass die globalen Temperaturen während des vergangenen Jahrtausends drastisch geschwankt hätten. Nun wurde eine Grafik gezeigt, die einen relativ flachen Temperaturverlauf zeigte, bis ein steiler Anstieg im Jahre 1900 anfing. So wurden die im Vergleich zu heute ärgerlich höheren Temperaturen der Mittelalterlichen Warmperiode (900 – 1300 n Chr.) beseitigt, deren Existenz den schrillen Schrei von der noch nie da gewesenen Erwärmung abgedämpft hatte.

Um es klar zu sagen, dieses bisschen Hokuspokus hätte eigentlich das Ende der wissenschaftlichen Glaubwürdigkeit des Klimarats bedeuten können, besonders nachdem Steve McIntyre und Ross McKitrick den dahinter liegenden Betrug offen legten. Wegen einer großen und erfolgreichen Kampagne der Dämonisierung aller Kritiker als Helfer der Ölindustrie überlebte die auch als MBH98 bekannte „Hockeyschläger-Kurve“ nicht nur, sie wurde sogar zu einer Ikone des Klimawandels. Dies auch, weil sie eine prominente Rolle in Al Gores stark übertriebenem und von Schreckensszenarien strotzendem Science-Fiction Film bekam. Und noch nicht einmal, nachdem McIntyre im vergangenen September die Daten eines der Wissenschaftler zu Gesicht bekam und mit ihnen bewies, dass Keith Briffa die Daten passend für seinen MBH98-Kurvenverlauf handverlesen hatte, zeigten die Mainstream-Medien kein Interesse an McIntyre und Anderen, die den Betrug aufgedeckt hatten.

Als Konsequenz wird die TAR-Erklärung vom 20. Jh. als des wärmsten im Jahrtausend weithin als Faktum akzeptiert, wie auch die Verlautbarung von den 1990er Jahren als heißester Dekade und von 1998 als heißestem Jahr seit Beginn der Temperatur-Aufzeichnungen 1861. So wurde auch der Satz von der „erkennbaren menschlichen Einwirkung“ aus dem Bericht von vor 6 Jahren durch die Behauptung ersetzt, es gäbe „neue und stärkere Beweise dafür, dass der Löwenanteil der beobachteten Erwärmung der vergangenen 50 Jahre auf den Menschen zurückgeführt werden könnte.“

Als der AR4 im Jahre 2007 herauskam, in dem die Bedrohung erhöht und mit ihm der Grad der Aussagesicherheit der menschlichen Verursachung (auf 90%), war das Wort des IPCC an die Mainstream-Medien, linke Politiker und einen immer größer werdenden Teil der Bevölkerung reine Predigt. Mit wem man auch immer sprach, man hörte nur noch „das IPCC hat dies oder jenes gesagt“. Die Notwendigkeit, etwas gegen den Klimawandel zu tun, wurde ganz schnell in der öffentlichen Meinung zu einer ausgemachten Sache, über die meist nicht mehr zu diskutieren war.

In dieser Zeit schien Kyoto II so unausweichlich wie die nächste unerträgliche NBC-Woche mit dem Thema „Grün ist universell“, und damit auch die Rolle der UNO als Hüterin der Erde, die sicher auf der bevorstehenden 2009er Klimakonferenz in Kopenhagen bestätigt werden würde.

Bis das unglaubliche Ausmaß des AR4-Betrugs ans Licht kam.

Erwischt mit dem grünen Daumen auf der Waagschale

Die meisten Leser wissen wahrscheinlich, dass im vergangenen November ein Datenbestand mit Dokumenten, Daten, Emails, Programm-Quellcode des Klimaforschungsinstituts der East Anglia Universität widerrechtlich veröffentlicht wurde. Jene sogenannten „Klimagate“-Emails enthüllten eine arrogante Verhöhnung des Begutachtungsverfahrens [für Fachveröffentlichungen] wie auch eine weitverbreitete Komplizenschaft von Klimaforschern beim Verschweigen und Manipulieren von Daten, die nicht zur Geschäftsordnung von der globalen Erwärmung passten. Der Modell-Quellcode – wie hier berichtet – enthielt Routinen mit einer Anzahl von Faktoren zum Frisieren der Ergebnisse der Datenreihen, um die gewünschten Ergebnisse zu erzeugen. Dies und die Enthüllung der Email von Jones [Leiter des Instituts] zum Verstecken des Temperaturrückgangs („hide the decline“) lieferten einmal mehr den Beweis, dass MBH98 ein Betrug ist, und damit auch die einmalige Erwärmung im 20. Jh. 

Im Folgemonat veröffentlichte das Moskauer Institut für Wirtschaftliche Analysen (IEA) einen Bericht mit der Behauptung, dass das Hadley Center for Climate Change russische Klimadaten gefälscht hätte. Hadley hatte erkennbar die gemeldeten Daten von 75 % der russischen Wetterstationen ignoriert und damit tatsächlich über 40% des russischen Staatsgebiets aus den Berechnungen der Welttemperatur ausgeschlossen, und nicht ganz zufällig jene Gebiete, welche im ausgehenden 20. Jh. und im beginnenden 21. Jh. überhaupt keine substantielle Erwärmung zeigten.

Klimagate war nur die Spitze des Eisbergs. Eine AR4-Warnung, dass ungebremster Klimawandel die meisten der Himalaya-Gletscher bis zum Jahr 2035 abschmelzen würde, wurde als Falschmeldung aus einem Bericht der World Wildlife Federation enttarnt, sie war zudem noch als „fachbegutachtetes“ (peer reviewed) Wissen bezeichnet worden. Der IPCC-Vorsitzende Rajendra Pachauri wollte diesen Fehler parieren, indem er die Ankläger aus dem indischen Umweltministerium der Arroganz und der Ausübung von Voodoo-Wissenschaft bezichtigte, weil sie einen Bericht herausgaben, in dem sie sich mit dem IPCC auseinandersetzten. Aber einer aus seinen eigenen Reihen, Dr. Murari Lal, koordinierender Leitautor des Kapitels mit der Behauptung vom Gletscherschwund, zeigte erstaunlich schlechtes Benehmen, weil der zugab, dass er seit geraumer Zeit wusste, dass das Papier nicht auf fachbegutachtetem Wissen beruhte. Das hatte auch Pachauri gewusst, der monatelang weiter log, um nicht den übertriebenen AR4 kurz vor Kopenhagen zu besudeln.

Gletschergate hat die Fluttore für andere ernste Falschdarstellungen im AR4 geöffnet, einschließlich eines Haufens weiterer Vorhersagen ohne Fachbegutachtung, die direkt aus WWF-Berichten abgeschrieben wurden. Eingeschlossen Darstellungen über die Folgen schmelzender Gletscher in Form von Muren und Lawinen, über die bedeutenden Schäden des Klimawandels auf ausgewählte Seefische und den Schellfisch, ja sogar Beurteilungen von globalen Durchschnittswerten für „ökologische Pro/Kopf-Fußabdrücke“. An dieser Stelle ist anzumerken, dass die IPCC–Regeln ausdrücklich alle Quellen ohne Fach-Begutachtung ausschließen.

Dessen ungeachtet wird im Kapitel 13 des Berichts der Arbeitsgruppe 2 (WG2) behauptet, dass 40 % des Amazonas-Regenwaldes vom Klimawandel bedroht wären. Und wieder war ein WWF-Papier die Quelle. Diesmal von zwei sogenannten Experten, die zufälligerweise Umwelt-Aktivisten sind. Aber die WWF-Studie hat sich mit von Menschen verursachten Waldbränden befasst, nicht mit dem Klimawandel, und hat den Amazonas-Regenwald kaum erwähnt. Darüber hinaus stammten die WWF-Zahlen aus einem Papier in Nature, wo es weder um Klimawandel, noch um Waldbrände, sondern nur um die Folgen des Holzeinschlags auf den Regenwald ging. Dennoch prognostizierte das IPCC 40 % Waldvernichtung aufgrund des Klimawandels, beruhend auf einem Bericht um zwei Ecken, in dem gefolgert worden war, dass „die Holzfirmen in Amazonia durch ihren Holzeinschlag 10-40% der lebenden Biomasse vernichten oder schädigen.“  

Genauso dumm sahen die AR4-Autoren aus mit ihrer Behauptung, dass die beobachteten Rückgänge des Eises in den Anden, den Alpen und in Afrika durch den Klimawandel verursacht würden. Es stellte sich heraus, dass eine der zwei zitierten Quellen in Wahrheit ein Bergsteiger-Magazin war. Das aber ist eine noch relativ zuverlässige Quelle im Vergleich mit der anderen, einer Dissertation eines Schweizer Studenten, die auf dessen Interviews mit Bergführern in den Alpen beruhte.

Die 2007er grüne Bibel enthält auch eine starke Übertreibung beim Zitieren der Muir-Wood et al. Studie (2006) über den Klimawandel und Naturkatastrophen. Im Original heißt es, dass „seit 1970 ein kleiner statistisch signifikanter Trend gefunden wurde für eine Zunahme der jährlichen Schäden in Höhe von 2 % pro Jahr.“ Aber die AR4-Zusammenfassung (AR4 Synthesis) behauptete, dass mehr „schwere Regenfälle“ sehr wahrscheinlich seien, und dass eine „Zunahme der Stärke tropischer Wirbelstürme mit ansteigender Temperatur wahrscheinlich“ ist.

Das vielleicht dümmlichste AR4-Zitat (bisher) wurde kürzlich von Climatequotes.com entdeckt. Es sieht so aus, als ob eine WG2-Warnung über „die vielfachen Belastungen durch den Klimawandel und die zunehmende menschliche Tätigkeit auf der Antarktischen Halbinsel eine klare Verletzlichkeit darstellen, und es erforderlich machten, strenge Bekleidungs-Dekontaminierungs-Richtlinien für Touristen in Kraft zu setzen, die auf der Antarktischen Halbinsel landen,“ aus einem Reiseführer von Antarktis-Tourismus-Veranstaltern stammten. Wirklich.

Und das haben Sie vermutlich noch gar nicht erfahren. Ein Papier vom vergangenen Dezember von Lockart, Kavetski und Franks widerlegt die AR4 WG1-Behauptung, dass CO2-verursachte höhere Temperaturen zu höherer Verdunstung führten und damit Dürren auslösten. Die Studie behauptet, dass es umgekehrt ist, weil höhere Lufttemperaturen tatsächlich von mangelnder Verdunstung verursacht werden (wie dies bei Dürren stattfindet). Angesichts dieser Studie erschnüffle ich schon weitere „-gates“.  

Der bislang größte Angriff auf die IPCC-Integrität kommt aus einer neuen Studie, die ich hier zusammengefasst habe. Sie zweifelt an den gemeldeten globalen Temperatur-Daten der beiden wichtigsten amerikanischen IPCC-Verbündeten, der NASA und der National Oceanic and Atmospheric-Administration (NOAA). Das sind die Messungen, die von den meisten Klimaforschungsinstituten benutzt werden, das IPCC eingeschlossen. Die Entdeckung des Meteorologen Joe D’Aleo und des Computer-Experten E.M. Smith ist, dass die Daten absichtlich seit 1990 in Richtung zu mehr Wärme verfälscht wurden. Das stellt jeden temperaturbezogenen Klima-Bericht seitdem in Frage.

Natürlich auch jede politische Entscheidung, die darauf beruht.

Es ist an der Zeit für eine wahre Klima-Justiz

In den USA haben linkslastige Politiker und ihre Gefolgschaft in den Mainstream-Medien bisher alles getan, um die Wahrheit und die Implikationen des Betrugs zu ignorieren, der durch Klimagate, Gletschergate, Amazonasgate aufgedeckt worden ist, dazu die Unmengen von anderen AGW-Übertreibungen, die anscheinend täglich ans Licht kommen. Bemerkenswerterweise fahren die meisten fort damit, über „Klimaverschmutzung“, „Kohlenstoff-Fingerabdrücke“ und die „Tragödie des Scheiterns von Kopenhagen“ zu diskutieren, sogar jetzt noch, da ihr selbstinfiziertes Klimawandel-Fieber rasch verschwindet. Der Präsident scheint gleichermaßen geblendet zu sein, weil das Durchbringen eines umfassenden Energie- und Klimagesetzes eines seiner vielen Ziele ist, die er in seiner kürzlichen Botschaft zur Lage der Nation angekündigt hat. (Als ob das Klima von Parlamentsentscheidungen gesteuert werden könnte.)

Ihr Ableugnen wird nur kurzlebig sein und unter der Hitze der Scheinwerfer verdampfen, die auf sie gerichtet sind, wie auch die letzten Reste der grünen Lüge, an die sie sich klammern.

Außerhalb der Vereinigten Staaten verstehen das viele Nachrichten-Agenturen und Politiker bereits. Einige fordern Pachauris Rücktritt, andere eine vollständige Aufklärung seiner möglichen finanziellen Interessenkonflikte. Es gab auch schon Forderungen auf eine umfassende Neubewertung aller IPCC-Berichte, und angesichts der zentralen Rolle des IPCC in der Klimawissenschaft den Vorschlag der Financial Times  zur Beauftragung eines unabhängigen Prüfers, der alle Behauptungen aus dem 2007er Bericht entfernen sollte, die nicht auf sicheren Grundlagen beruhten. 

Wenigstens ein Amerikaner, der AGW-Anhänger Walter Russell Mead von American Interest Online stimmt zu: „Ein weithin publiziertes Bemühen unter Einbezug ernsthafter Skeptiker und mit Unterstützung beider Parteien ist der einzige Weg, die amerikanische Öffentlichkeit zurück auf den Klimawandelzug zu bringen.“ Und Chinas Chef-Klimaunterhändler, Xie Zhenhua, schlug vor, dass „abweichende Meinungen“ in den 2014er AR5 aufgenommen werden sollten.

Doch als der Australian plötzlich empfahl „eine gesunde Skepsis denjenigen wissenschaftlichen Behauptungen entgegen zu bringen, die die Politik antreiben“, sagte mir der Paläoklimatologe Bob Carter, er hätte lachen müssen, als er dem Herausgeber einen Willkommensgruß zum Beitritt zur Riege der Mehrheit der Wissenschaftler schrieb, weil diese genau das täten, was er nun verspätet empfehlen würde“. 

Der abrupte Schwenk beim Infragestellen ihres eigenen „Konsens“-Mantras, das sie über Jahre der Öffentlichkeit eingetrichtert haben, klingt ausgesprochen hohl. Jene „ernsthaften Skeptiker“ und Vertreter der „entgegengesetzten Meinungen“ sind doch genau die Wissenschaftler, welche das IPCC mit Absicht und ungestraft von seiner Arbeit ausgeschlossen hat. Das sind die gleichen Leute, welche die Medien jahrelang ignoriert oder ausgelacht haben, auch deren Tagungen – z. B. Heartlands ICCC 1, 2, und 3 – und unzählige entgegengesetzte Berichte. Eine hervorragende Widerlegung des AR4, das Papier Climate Change Reconsidered: The 2009 Report of the Nongovernmental International Panel on Climate Change (NIPCC) – von Dr. S. Fred Singer, Dr. Craig Idso und dreißig anderen Fachwissenschaftlern – wurde von keinem Mainstream-Medium beachtet, obschon es seit vergangenem Juni hier verfügbar ist.

Die Zeit für eine Wende zu  mehr Glaubwürdigkeit ist schon lange vertan. So bemerkte der englische Professor Phillip Stott kürzlich

Der Kapitalismus hat wie üblich seine Hausaufgaben gemacht. Die Emissionshandels-Posten werden bereits in aller Stille abgeschafft, die „grünen“ Jobs an den Rand gedrängt und sogar große Versicherungsgesellschaften rückversichern ihre eigenen Wetten auf die Legende vom zukünftigen großen Klimawandel. Diese Ratten verlassen das sinkende Schiff schneller als alle Politiker, von denen viele ihrer Anhängerschaft verlustig gehen werden. Sie halten sich immer noch an den Masten fest, während das gute Schiff namens „Klimawandel“ an titanischen Eisbergen inmitten eines tobenden Meers voll von Zweifel und Täuschung zu Grunde geht.

Stott verglich den Untergang des IPCC mit der Berliner Mauer. Und er liegt genau richtig. Denn so wie der Mauerfall den Untergang des Europäischen Kommunismus symbolisierte, so läutet der IPCC-Untergang den Tod der globalen sozialistischen Umweltbewegung ein.

Zurück zu Wirklichkeit. Angesichts des gewaltigen Ausmaßes der Beute, welche diese Profiteure aus der gesamten entwickelten Welt herausschlagen wollten, mal abgesehen von der Verstiegenheit ihrer Hybris, ist nicht Rehabilitation erforderlich sondern rasche Justiz. Im Jahre 2006 erhielt der Jubelschreiber des Magazins Grist, David Roberts, Beifall für seine Forderung, diesen „Bastarden“ aus der globalen Klimawandel-Leugner-Industrie einen Kriegsverbrecherprozess à la Nürnberg anzuhängen. Jetzt ist klar, dass die Mitglieder der Klimawandel-Betrugs-Industrie die wahren „Bastarde“ sind, die vor ein internationales Gericht wegen Verbrechen gegen die Menschlichkeit gestellt werden sollten. Vor jedes mögliche Gericht, nur nicht vor den UNO-eigenen Internationalen Gerichtshof in Den Haag.

Wir werden uns noch zur rechten Zeit mit ihren Helfershelfern im Kongreß, im Weißen Haus und konsequenterweise auch im U.S.-Umweltbundesamt beschäftigen.

Eine erste diesbezügliche Beurteilung steht schon auf dem Plan – im November. 

von Marc Sheppard: Umweltredakteur im Online Journal „American Thinker“ und Herausgeber des demnächst herauskommenden „Environment Thinker“.

Die deutsche Übersetzung besorgte dankenswerterweise Helmut Jäger für EIKE

Mehr Infos hier




Kipp-Punkte, Kipp-Elemente im Klimasystem; Pseudowissenschaft mit einem irrealen Modell unter falschen Voraussetzungen

1. Einführung

 2007 erschien in PNAS eine Arbeit von H. S. Schellnhuber und S. Rahmstorf (PIK) mit dem Titel: „Tipping elements in the Earth’s climate system“ [1]. Darin definieren sie „Kipppunkte“ (=Tipping Points) als einen Begriff, der eine kritische Schwelle benennt, ab der eine kleine Änderung den Zustand eines Systems qualitativ ändert. Sie führen weiterhin “Kipp-Elemente” ein, die umfangreiche Prozesse des Systems Erde beschreiben, die Kipppunkte erfahren können. Dabei beziehen Sie sich nur auf Kipp-Elemente mit anthropogener Ursache.

Schellnhuber hat das Konzept der Kippelemente vor etwa zehn Jahren in den wissenschaftlichen Diskurs eingebracht. Es beschreibt, wie menschliche Aktivitäten Bestandteile des Klimasystems über kritische Grenzen hinaus belasten könnten, sodass wichtige Prozesse im Gesamtgefüge „kippen“ und von da an grundsätzlich anders ablaufen.

Das erwähnte Papier [1] wurde als Ergebnis eines Workshops ‘‘Tipping Points in the Earth System’’ in der Britischen Botschaft in Berlin erarbeitet, an der 36 führende Experten und 52 internationale Wissenschaftler beteiligt waren.

Sie definieren Tipping Elemente mit Tipping points breiter als bisher in der Wissenschaft, wo nicht nur abrupte sondern auch langsame Übergänge stattfinden können mit reversiblen und irreversiblen Übergängen. Ihre mathematische Ableitung bezieht sich auf Systeme als Fall von of Bifurcation, d.h. man bezieht sich auf Gleichgewichte, die einen bestimmten Grad an Irreversibilität haben.

Mathematisch formuliert der Mitautor H. Held das wie folgt:

dS/dF (F = F*) >> dS/dF (F < F*)

S = state variable (= sub-continental scale)
F = forcing (linked to climate change)
F* = critical forcing strength
For an “imagined slow” forcing, F(t):

 

 

Abb. 1 Definition von Tipping Points [3]

Das System erreicht Bifurcation als bistabiles System. Sie möchten auch menschliche und politische Faktoren einbeziehen und beschäftigen sich schnell mit politisch relevanten Tipping Elementen. Dabei gehen Sie von einer globalen Temperaturänderung und einer Klimavariabilität von nicht mehr als 0.1–0.2°C innerhalb tausenden von Jahren aus.

Tipping Elemente können in kontrollierte und unkontrollierte Zustände übergehen.

 

Abb. 2 Zustände von Tipping Elementen, links kontrolliert, rechts unkontrolliert.[6]

2. Beispiele für Kipp-Punkte und Kipp-Elemente

Als politisch relevante Kipp- Elemente werden insbesondere 9 Systeme/Prozesse benannt:

  1.     1. Das Arktische Seeeis;
  2.     2. Die Eismasse Grönlands
  3.     3. Die Westantarktische Eismasse
  4.     4. Die Thermohaline Ozeanströmung (THC)
  5.     5. Die El Niño–Southern Oscillation (ENSO).
  6.     6. Der Indian Summer Monsoon (ISM).
  7.     7. Sahara/Sahel and West African Monsoon (WAM).
  8.     8. Der Regenwald des Amazonas
  9.     9. Die nördlichen Wälder in Canada und Russland (Boreal Forest)

 

Abb. 3 Wichtige Kipp-Elemente des Klimasystems der Erde [nach 1]

Da die Autoren nur von Systemen mit menschlicher Beeinflussung ausgehen (z.B.: CO2) und diese sich derzeit andauernd vergrößern, schlußfolgern sie daraus die Gefahr, die Tipping-Elemente gehen in einen unkontrollierten Zustand bzw. haben den kritischen Wert schon überschritten (siehe Abb. 2).

Das Bundesumweltamt nennt auf Grund dieser Veröffentlichung als Kipp-Elemente:

Zitat [2]:

         * abrupte Klimaänderungen

         * unumkehrbare (irreversible) Prozesse

  •          * langfristige, starke Klimaänderungen

Zu den 9 Kipp-Elementen fügt das UBA weiter hinzu:

  •        *Auftauen des Permafrostbodens unter Freisetzung von Methan und                    Kohlendioxid
  •        *Schmelzen der Gletscher und Abnahme der Albedo im Himalaja
  •        *Versauerung der Ozeane und Abnahme der Aufnahmekapazität für                     Kohlendioxid
  •        *Freisetzung von Methan aus Meeresböden.

Tabelle1 Liste wichtiger Kipp-Elemente im Klimasystem [nach 1]

3. Diskussion und Schlußfolgerungen

Die oben kurz dargelegten Definitionen und Modelle sind ein gutes Beispiel für selektive Wissenschaft im Fachbereich Klimatologie. Dabei wird ein altbekanntes Modell mathematisch etwas erweitert, mit hypothetischen Annahmen versehen und auf einen kleinen Anwendungsbereich eingeschränkt um daraus umfassende Schlussfolgerungen zu ziehen. Einige Kritiker bezeichnen diese Vorgehensweise auch als Pseudowissenschaft.

Richtig ist, dass nahezu alle klimatischen Prozesse zyklisch sind, also regelmäßig Kipp-Punkte zeigen.

Zyklische Prozesse sind ein Charakteristikum aller geophysikalischen Zeitreihen. Selbst in Millionen von Jahren gab es regelmäßige (Temperatur) und unregelmäßige  (z. B. CO2) dynamische Verläufe wie z.B. die Satelliten gemessenen Temperaturen. Auch kennen wir 4 globale Kaltzeiten, die sich alle ca. 150 Millionen Jahre abwechselten.

 

Abb. 4 Neun geophysikalische Zeitreihen (ca. 100-150 Jahre) mit dynamisch, zyklischem Verlauf, Hyperzyklen (in rot als best harmonic fit) und Kipppunkten. Links oben Satelliten gemessene Temperaturen (7 Jahre) alle anderen multidekadaler Verlauf, [Icecap, KNMI 2009]. Zusammenstellung: Beck 2010.

Die Autoren betrachten also nur einen Umschlagspunkt und mutmaßen daraus mögliche Verläufe. Geophysikalische Zeitreihen zeigen jedoch einen dynamischen Verlauf mit Hyperzyklen. Deshalb ist die Kipppunkt-Methode nicht zur Analyse geeignet. Seit Jahren sind spektralanalytische Verfahren wie MEM, MTM und Wavelet SA bekannt, die verborgene Zyklen sichtbar machen und deshalb geeignet sind, auch auf künftige Verläufe zu schließen.

Eine grundlegend falsche Voraussetzung ist die Einschränkung auf nur anthropogene Einwirkungen und damit die Ausblendung natürlicher Variablen. Dabei wird insbesondere die Gefahr eines unkontrollierten Verlaufs der Klimaentwicklung beschworen. Mit dem Begriff Kipp-Punkt wird suggeriert, der Mensch könne per Kippschalter das Wettergeschehen ändern (Klima= Wetter/Zeit). Außer der Verwendung von Silberjodid zum Abregnen oder Abschneien ist bisher nahezu nichts bekannt.

Fatal ist, dass alle genannten Beispiele an Kipp-Elementen (siehe unten) genau das Gegenteil beweisen und den rein hypothetischen und unrealistischen Charakter des verwendeten Modells bestätigen. Keines der genannten Systeme ist je in der Klimavergangenheit in einen unkontrollierten Zustand übergegangen, sondern es fanden immer zyklische, dynamische Vorgänge statt, die im Wesentlichen astrophysikalisch kontrolliert sind (Hyperzyklen).

Hier einige unrealistische Annahmen denen die Autoren unterliegen:

Die anthropogene Einwirkung auf das globale Klima ist hypothetisch, die größtenteils nur durch die Betrachtung des Klimageschehens der Nachkriegszeit zustande kam unter Verwendung gefälschter Temperaturdaten. (Climategate), die scheinbar mit den ansteigenden CO2-Werten parallel liefen. Weiterhin werden unrealistische Annahmen wie eine minimale natürliche globale Temperaturvariabilität von 0,1-0,2 Grad gemacht. Allein im Holozän (die letzten 10 000 Jahre) zeigen alle Rekonstruktionen und historischen Berichte eine Variabilität innerhalb 2-4 °C. Dazu wird eine wärmende Einwirkung von CO2 auf das globale Klima vorausgesetzt, die ebenfalls nicht nachgewiesen ist und nicht gemessen werden kann. Seit 50 Jahren steigt CO2 seit 10 Jahren fällt die Temperatur vergleichbar mit 1940 -1950. Die Klimaberichte des politischen Meinungsgebers IPCC halten keiner seriösen Überprüfung stand, sind voll von Spekulationen, beruhen auf gefälschten Temperaturdaten und fehlerhaften, politisch und lobbyistisch motivierten Zitaten und Referenzen. 

Nachfolgend sollen einige wichtige Beispiele an postulierten Kipp-Elementen überprüft werden.

Der Mitautor H. Held, charakterisiert in einer Präsentation des PIK [3] Tipping Points durch

abrupte künftige Effekte, die vornehmlich durch anthropogenen Klimawandel hervorgerufen wurden, nicht durch natürliche Variabilität wie zum Beispiel:

        • Umschlagspunkte in der ENSO-Statistik

        • Nicht: Auslösen einzelner ENSO Events

        • Sprünge mindestens im Bereich von Subkontinenten

Kommentar:
Der ENSO Index (ENSO= El Niño/Southern Oscillation) ist das wichtigste Phänomen der Kopplung Ozean-Atmosphäre und ist für die mehrjährige Variation des Klimas verantwortlich. Dazu beobachtet die NOAA [4] 6 Parameter: sea-level pressure (P), zonal (U) and meridional (V) components of the surface wind, sea surface temperature (S), surface air temperature (A), and total cloudiness fraction of the sky (C). Abbildung 1 zeigt den ENSO Index seit 1950 mit den mehrjährigen Schwankungen.

Die ENSO Variabilität ist eine natürliche Klimaschwankung.

 

Abb. 5 ENSO Index, NOAA seit 1950

Als weitere Beispiele nennt er abrupte Klimaänderungen in Grönland (Dansgaard Öschger Zyklen, die auf der ganzen Nordhalbkugel beobachtbar sind) mit ca. 17 abrupten Änderungen in den letzten 65 Tausend Jahren

Abb. 6 a) Dansgaard-Oeschger-Schwankungen in den letzten 100 000 Jahren, MTM-Spektralanalyse der D/O-Zyklen mit signifikantem1800 Jahre-Zyklus im Mittel. [3]

Kommentar:
Die Industrialisierung des Menschen begann vor ca. 180 Jahren.>

Als derzeit favorisierte Ursache der Dansgaard-Öschger-Zyklen werden Schwankungen der Thermohalinen Strömung (THC) angenommen, eine natürliche Ursache.

Weiteres Beispiel für ein Kipp-Element: Das Abschmelzen des Grönlandeises.

 

Abb. 7 Kipp-Element „Abschmelzen des Grönlandeises“. Oben die Erläuterung von H. Held mit Schmelzphasen durch 2x, 4x und 8x so hohe CO2 Konzentration wie 1990 und den erwarteten Anstieg des Meeresspiegels. Unten der Temperaturverlauf im Arktischen Zirkel seit 1880. [3, Jones et al]

Die Annahme dass CO2 für das Abschmelzen verantwortlich ist, ist real widerlegt, denn CO2 soll ja seit dem 19. Jahrhundert exponentiell ansteigen. Die Temperaturkurve zeigt dagegen eine abrupte Klimaänderung seit 1900, einen radikalen Anstieg um 4 °C seit 1918 mit einem Maximum um 1942, höher als heute, eine Abkühlung bis 1965, dann wieder einen Anstieg. Eine Parallelität zu CO2 ist nicht zu erkennen.
Weiterhin ist nachgewiesen, dass oberhalb 1500 m die Temperaturen auf Grönland seit Jahrzehnten fallen und ein Abschmelzen des Eisschildes vom Rand her erfolgt also unter 1500 m, wo die Temperaturen leicht ansteigen und die Eismassen abnehmen [9]. Dies erfolgt durch eine zyklische multidekadale Zufuhr von warmem Wasser über die Ausläufer des Golfstroms und nicht durch einen Temperaturanstieg der Luft [8]. Dies wäre bei mittleren Jahrestemperaturen von weniger als -20 °C auch unmöglich. Dazu belegen Eisbohrungen in Grönland wie GRIP mit über 3 km Tiefe und 200 000 Jahren, dass in dieser Zeit keine Abschmelzung vonstatten ging.

Alle genannten Beispiele für Tipping-Elemente unterliegen multidekadalen Schwankungen (siehe Abb.4-6) , die durch astrophysikalische Faktoren über gravitative Resonanzeffekte (solare Aktivitäten mit 11,7 Jahren und deren Harmonische) und den Lunar Nodal Cycle (Mondknotenzyklus mit 18,6 Jahren und deren Harmonische) gesteuert werden. Das Tipping-Point-Modell ist nicht in der Lage, Aussagen über solche übergeordnete Eigenschaften des Klimasystems zu machen. Mit Spektralanalyse aber ist das möglich und da Mond und Sonne noch über Jahrmillionen existieren sind Aussagen über künftige Entwicklungen mit hoher Signifikanz möglich. Dies soll an  Beispielen gezeigt werden.

Das 8,2 K Event im Vergleich mit anderen Temperaturereignissen im Holozän

Michael Ghil [Ghil 2002] hat verschiedene Methoden der Signalanalyse entwickelt, um verborgene Frequenzen (f) (Periode= 1/f) und Phasen abhängige Informationen in geophysikalischen Zeitreihen zu finden. Die Abbildung 8 listet einige wichtige Perioden als Fingerprints der relevanten geophysikalischen Prozesse auf, bei denen ENSO relevante Phänomene im Niederfrequenzbereich dominant sind. Der Sonnenfleckenzyklus und der Mondknotenzyklus mit ihren typischen Perioden von 11,7 Jahren und 18,6 Jahren dominieren die höherfrequenten Perioden.

Spektren klimatischer Zeitreihen zeigen meist die Eigenschaften eines Roten Rauschen-Signals, d.h. hohe Signalamplitude  (Power) im Niederfrequenzbereich. Diese kann man mit einem autoregressiven AR1-Prozess (mathematische Methode zur Analyse von Störgrößen in Zeitreihen) hinreichend erklären.

Jahre

Wichtige Perioden

2-2,5 Interannual QBO
5,2 ENSO bezogen
6,2 Mondknotenzyklus 18,6/3
7,7 AMO und Golfstrom Variabilität
9,3 Mondnotenzyklus 18,6/2, Arktisches Klima
10-11,3 Sonnenfleckenzyklus/Geomagnetismus aa
14 AMO, thermohaline Zirculation
18,6 Mondnotenzyklus 18,6/2, Arktisches Klima
22> Hale Zyklus (2x sunspot)
25 AMO, thermohaline Zirculation
55 Lunar nodal cycle; Arktisches Klima, Nordatlantische Biomasse (3×18,6)
64 LOD (Tageslänge, 6×10,65))
74 Lunar nodal cycle; Arktisches Klima, (4x 18,6)

Abb. 8 Power spectrum der Klima Variabilität als Kompositspektrum über die letzten  10 Millionen Jahre (1Myr= 106 years) [Ghil 2002]

Das 8,2 K Event gilt als ein bedeutendes Klimaereignis im Holozän, bei dem eine plötzliche Abkühlung vor ca. 8200 Jahren im Nordatlantik stattfand. Diese begann abrupt vor ca. 8250 Jahren und endete genau so abrupt ca. 150 Jahre später mit einer extremen Erwärmung innerhalb weniger Jahre [10]. Die Bandbreite der Temperaturänderung wird mit ca. 5 +/- 2°C angegeben [11]. Auch die kleine Eiszeit um 1650 und die Völkerwanderungszeit um 500 nach Christus waren solche abrupten Abkühlungsphasen.

 

Abb. 9 Temperaturverlauf im Holozän auf der Nordhemisphäre (links) und rechts die aus dem GRIP Eisbohrkern rekonstruierte Temperatur seit 8458 Jahren bis vor 7929 Jahren (530 Jahre) [10, Beck 2010].

Die Abbildung 9 zeigt die Analyse der Temperaturzeitreihe aus dem grönländischen GRIP-Eisbohrkern. Der rasche Temperaturabfall vor ca. 8200 Jahren um im Mittel ca. 2 Grad Celsius ist auch in Sedimenten des Nordatlantik oder Seen gefunden worden und korreliert mit den Dansgaard-Öschgerzyklen und Bondzyklen [5].

Abb. 10 Wavelet Spektralanalyse des 8,2 K Events. Links die spektrale Kreuzkorrelation eines 530 Jahre langen Temperaturverlaufs des 8,2 K Events mit der Comnispa-Zeitreihe. Rechts das CWT (continuous Wavelet Transform, Waveletspektrum) des 8,2 K_Events. Die weißen Pfeile deuten den jeweiligen Temperatureinbruch an.die Spektralfarben bedeuten die Spektralenergie in den Perioden. Dunkelblau: keine spektrale Energie, rot maximale Energie. Die fett umrandeten Bereiche sind 95 % signifikant. Der Konus symbolisiert den aussagkräftigen Bereich ohne Randeffekte. Die Pfeile in der spektralen Kreuzkorrelation bedeuten den Phasengang der Signale. [Beck 2010]

Die Temperaturkurve besteht wie üblich aus unzähligen Tipping-Points mit einem Hyperzyklus von 371,83 Jahren.

Ähnliche Hyperzyklen findet man in anderen Temperaturzeitreihen wie z.B. der Comnispa aus Stalagmiten [12] mit 330,7 Jahren und 408 Jahre aus der Temperaturrekonstruktion von Loehle [13], beide unter Betrachtung eines 530 Jahren Zeitabschnittes der kleinen Eiszeit im 17. Jahrhundert oder der Rekonstruktion von Mohberg [14] mit 314 Jahren während der Temperaturminimums im in der Völkerwanderungszeit. Der Mittelwert aller 4 genannten Hyperzyklus-Wellenlängen ist 355, 75 Jahre was ca. das 20 fache des Lunar Nodal cycle und das 30-fache des Sonnenfleckenzyklus repräsentiert. [Alle Hyperzyklen nach Beck 2010]

Die Wavelet-Spektralanalyse des 8,2 K Events und anderer Zeitreihen mit ähnlichen starken Temperaturminima zeigen deutliche Gemeinsamkeiten und bestätigt die Aussage. Beide Spektren zeigen eine nahezu durchgehende signifikante Signalstärke im 18 -.20 Jahre Bereich (18,6 Jahre Mondknotenzyklus). Das Kreuzkorrelations-Waveletspektrum links (findet im Zeit/Frequenzbereich Gebiete in denen beide Zeitreihen gemeinsame, hohe spektrale Energie haben.) zeigt im Bereich des Temperaturminimums eine Phasenumkehr (Pfeile „kreisen“). Dieses Ergebnis deutet stark auf eine Steuerung des Temperaturverlaufs durch den Mondknotenzyklus hin, wie er für das Arktische Klima nachgewiesen wurde [16]. Der Mond wechselt alle 18,6 Jahre die Neigung der Umlaufbahn um die Erde. Dies löst kontinuierliche starke Gravitationswellen und Harmonische aus, die im Niederfrequenzbereich das Klima in Wechselwirkung mit den solaren Gravitationskräften steuern.

 

Abb. 11 Lunar nodal Tiden nach H. Yndestad verantwortlich für das Arktische Klima mit Perioden von 9,3 und 18,6 Jahren. Die Amplitude betragt nur 2-5 cm, die spektrale Energie ist jedoch groß da Power= Amplitude* Zeit. [17]

Die ursächliche Steuerung klimatischer Ereignisse durch Sonne und Mond ist nicht neu und hat auch nichts mit Esoterik zu tun. Hunderte wissenschaftlicher Arbeiten finden in den Gezeiten, dem Temperaturverlauf, der Veränderung der marinen Biomasse, dem Meeresspiegel und der Eisbedeckung der Nordhemisphäre, dem Elektrischen Feld der Atmosphäre oder Niederschlägen Hinweise auf lunare oder solare Zyklen. Balling [19] hat während Neumond und Vollmond (ca. 29 Tage), wenn sich der Einfluß der lunaren Gravitation verstärkt eine Temperaturerhöhung von im Mittel 0,2 °C festgestellt.

Der Einfluß des Mondknotenzyklus auf das Klima wird seit G. H. Darwin (1880) und O. Pettersson (1915) diskutiert. Russische Wissenschaftler untersuchten diesen Zusammenhang bis in die 60er Jahre (Maksimov and Smirnov 1965, 1967). Curric (1987) identifizierte den lunaren Zyklus in einigen Zeitreihen und Keeling and Worf (1997) stellten einen Zusammenhang mit den Oberflächentemperaturen fest. (Yndestad et al. 2002- 2006) wiesen den Einfluß auf das Arktische Klima nach. Dabei spielen verschiedene Harmonische des Mondknotenzyklus eine Rolle wie z.B. 18.6/3 = 6.2, 18.6/2= 9,3, 18,6 and 3 x 18.6 = 55.8 Jahre.

Der Mondknotenzyklus repräsentiert nur 5 % des täglichen Gezeitenwechsels durch den Mond. Eine kleine Tide des Mondes hat jedoch eine Menge Power wenn man diese über Zeit und Raum in einer 9 jährigen Periode integriert. Ein möglicher Wirkungsmechanismus der lunaren Langzeittiden wird über die Thermohaline Zirkulation diskutiert (Munk und Wunsch, 1998; Wunsch und Ferrari, 2004).

Damit haben wir klare natürliche Ursachen und keine menschliche Beeinflussung.

Zusammenfassung

Das Tipping-Point Modell ist ein gutes Beispiel für selektive Wissenschaft im Fachbereich Klimatologie. Dabei wird ein altbekanntes Modell mathematisch etwas erweitert, mit hypothetischen Annahmen versehen und auf einen kleinen Anwendungsbereich eingeschränkt um daraus umfassende Schlussfolgerungen zu ziehen. Kritiker bezeichnen diese Vorgehensweise auch als Pseudowissenschaft.
Richtig ist, dass nahezu alle klimatischen Prozesse zyklisch sind, also regelmäßig Kipp-Punkte zeigen und meist in viel größeren Zeiträumen als eine menschliche Generation ablaufen.
Mit dem Begriff Kipp-Punkt wird suggeriert, der Mensch könne per Kippschalter das Wettergeschehen ändern (Klima= Wetter/Zeit). Dem ist nicht so.

Dagegen kann man mit der Spektralanalyse künftige Temperaturmaxima und Minima recht zuverlässig prognostizieren. Deshalb sprechen russische Experten auch von einer neuen kleinen Eiszeit in den nächsten 70 Jahren mit einen Minimum um ca. 2030. Das heutige Temperaturmaximum ähnelt dem vor ca. 70 Jahren( 74 Jahre = 4 x 18,6 Jahre)  und geht nach den Beobachtungen gerade zu Ende. Man findet dieselben Merkmale pazifischer und nordatlantischer Abkühlung der Meere als Vorboten einer neuen Abkühlung. Mit einer Steuerung durch CO2 oder der Abwärme aus der Industrie hat das absolut nichts zu tun.

Seit ca. dem Jahr 2000 findet kein Global Warming mehr statt. Wir müssen uns deshalb eher auf eine neue kalte Klimaphase vorbereiten. Die alarmistische Hysterie eines irdischen Hitzetodes aus untauglichen Klimamodellen führen in die völlig falsche Richtung und die menschliche Zivilisation unvorbereitet in die wirtschaftliche und ökologische Katastrophe.

Ernst-Georg Beck, EIKE, Februar 2010

Literatur:

1. Timothy M. Lenton, Hermann Held, Elmar Kriegler, Jim W. Hall, Wolfgang Lucht, Stefan Rahmstorf, and Hans Joachim Schellnhuber; Tipping elements in the Earth’s climate system; PNAS February 12, 2008 vol. 105 no. 6 1786-1793
http://www.pnas.org/content/105/6/1786.full.pdf+html>

2. BMU 2009, KIPP-PUNKTE IM KLIMASYSTEM
http://www.umweltbundesamt.de/uba-info-presse/hintergrund/kipp-punkte.pdf

3. H. Held, Tipping Points in the Earth System, PIK , 2008
http://www.diw.de/documents/dokumentenarchiv/17/44226/held_diw_06_web.pdf

4. NOAA 2010; Multivariate ENSO Index (MEI)
http://www.esrl.noaa.gov/psd/people/klaus.wolter/MEI/mei.html

>5.Gerard Bond et al., “The North Atlantic’s l-2 kyr climate Rhythm:Relation to Heinrich Events, Dansgaard/oeschger cycles and the Little Ice Age” in Mechanisms of global climate change at millennial time scales;  Peter U. Clark, Robert S. Webb, Lloyd D. Keigwin ; Atlantic Books 1999; p. 35

6. Powerpoint Präsentation des PIK: Lenton et al. Tipping elements in the Earth’s climate system http://www.igsd.org/climate/documents/Poznanppt_HermannHeld_000.pdf

7. KNMI 2009; http://climexp.knmi.nl/start.cgi?someone@somewhere

8. I. Polyakov et al. Variability of the Intermediate Atlantic Water of the Arctic Ocean over the Last 100 Years; 23
J O U R N A L O F C L I M A T E, VOL. 17, NO. 1 DECEMBER 2004
http://people.iarc.uaf.edu/~igor/research/pdf/polyakov.etal.2004.pdf

9. Cliff Ollier; Why the Greenland and Antarctic Ice Sheets are Not Collapsing; AIG NEWS No 97, August 2009 http://icecap.us/images/uploads/OllierPaine-NoIceSheetCollapse-AIGNewsAug.2009.pdf

10. Thomas, E.R., et al. The 8.2 ka event from Greenland ice cores Quaternary Science Reviews, Vol. 26, 1-2, pp. 70-81, January 2007. http://www.ncdc.noaa.gov/paleo/icecore/greenland/greenland.html

11. Kobashi,T et al.; Speed and Magnitude of Abrupt Climate Change at 8,200 yrs B.P. from the Greenland Ice Core (GISP2); American Geophysical Union, Fall Meeting 2003, abstract #PP41D-0
http://adsabs.harvard.edu/abs/2003AGUFMPP41D..04K

12. Volweiler, N., Mangini, A.;  Stalagmiten zeugen vom Klima der letzten Jahrtausende; Universität Heidelberg
http://www.uni-heidelberg.de/presse/ruca/ruca07-3/klima.html

13. Loehle, C. 2007. A 2000-year global temperature reconstruction based on non-treering proxies. Energy & Environment 18(7-8): 1049-1058.
http://www.ncasi.org/publications/Detail.aspx?id=3025

14. Mohberg, A. Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data;  Nature, Vol. 433, No. 7026, pp. 613 – 617, 10 February 2005.
http://www.ncdc.noaa.gov/paleo/pubs/moberg2005/moberg2005.html

15. M. Ghil, "Natural climate variability", in Encyclopedia of Global Environmental Change,
Vol. 1 (M. MacCracken & J. Perry, eds.), Wiley & Sons, Chichester/New York, pp. 544-549. http://www.atmos.ucla.edu/tcd/PREPRINTS/MGEGEC.pdf

16. H. Yndestad, The influence of the lunar nodal cycle on Arctic climate; ICES Journal of Marine Science: Journal du Conseil 2006 63(3):401-420;
http://icesjms.oxfordjournals.org/cgi/content/short/63/3/401

17. H. Yndestad. Long tides influence on the climate dynamics and the ecosystem
http://ansatte.hials.no/hy/climate/preEcoSysTroms%C3%B8_070314.pdf

18. Keeling C.D. and Whorf T.P. (1997) Possible forcing global temperature by oceanic tides.
Proceedings of the National Academy of Sciences of the United States 94:8321–8328.

19. R. Balling et al. Influence of Lunar Phase on Daily Global Temperatures; Science 10 March 1995:
Vol. 267. no. 5203, pp. 1481 – 1483
http://www.sciencemag.org/cgi/content/abstract/267/5203/1481

Dank an die Herren Leistenschneider, Limburg und Puls.




Öl und Erdgas ohne Ende? Forscher findet Hinweise für abiotische Entstehung von Erdöl und Erdgas!

Update vom 16.3.10: Hier sehen Sie das 3 Sat Hitec Video zum Thema: http://www.3sat.de/hitec/

Forscher am schwedischen Königlichen Institut für Technologie (KTH) haben nachgewiesen, dass Fossilien von Tieren oder Pflanzen nicht nötig sind, um Rohöl oder Erdgas zu erzeugen. Das ist ein höchst einschneidendes Ergebnis. Es bedeutet, dass diese Energiequellen viel leichter gefunden werden und dass sie über die ganze Welt verteilt sein können.

„Dank unserer Forschung wissen wir sogar, wo Öl in Schweden gefunden werden könnte!“ sagt Vladimir Kutcherov, Professor an der Abteilung für Energietechnik beim KTH in Stockholm.

Zusammen mit zwei Forscherkollegen hat Professor Kutcherov den Prozess von Druck und Hitze simuliert, der auf natürliche Weise in den inneren Schichten der Erdkruste stattfindet. Dieser Prozess erzeugt Kohlenwasserstoffe, die primären Elemente von Öl und Erdgas.

Vladimir Kucherov zufolge sind die Ergebnisse ein klarer Hinweis darauf, dass uns die Ölreserven nicht ausgehen werden, was seit langem von Forschern und Experten befürchtet wird.

Er fügt hinzu, dass fossiles Öl durch Schwerkraft oder andere Kräfte nicht tiefer als 10,5 km, beispielsweise unter dem Golf von Mexiko, absinken kann. Das ist ein weiterer Beweis für Vladimir Kutcherov und seine eigenen Forschungsergebnisse, dass diese Energiequellen auch anders als in fossiler Form vorkommen können – das wird für längere Zeit eine lebhafte Diskussion unter den Forschern auslösen.

„Ohne Zweifel hat unsere Forschung gezeigt, dass Rohöl und Erdgas auch ohne Fossilieneinschluß vorkommen. Alle Arten von Felsformationen können Speicher für Öllager sein,“ behauptet Vladimir und setzt hinzu, dass dies sich auf Gebiete bezieht, welche noch unerforscht als mögliche Quellen für diese Art von Energie sind.

Die Entdeckung hat mehrere positive Aspekte. Die Erfolgsrate der Konzerne für das Auffinden von Öl steigt dramatisch an – von 20 auf 70 Prozent. Weil die Kosten für das Bohren nach Öl und Erdgas extrem teuer sind, werden sich die Kosten radikal für die Ölfirmen ändern und schließlich auch für den Verbraucher.

„Da werden Milliarden von Kronen eingespart,“ sagt Vladimir.

Um zu erkennen, wo es sich lohnt, nach Erdgas oder Öl zu bohren, hat Professor Kutcherov bei seinen Forschungen eine neue Methode entwickelt. Die Erde wird in ein fein vermaschtes Gitternetz eingeteilt. Dieses Gitternetz entspricht den Spalten, die als Wanderungskanäle [migration channels] die Erdschichten unter der Kruste durchziehen. Gute Stellen zum Bohren sind dort, wo diese Spalten sich treffen.

Professor Kutcherov zufolge, sind die Forschungsergebnisse äußerst wichtig, schon deswegen, weil 61 Prozent des Weltenergieverbrauchs derzeit auf Rohöl und Erdgas beruhen. Die nächste Stufe dieser Forschungen enthält mehr Experimente, besonders um die Methode zu verfeinern, mit der die Bohrstellen für Öl und Erdgas leichter aufgefunden werden können.

Die Forschungsergebnisse von Vladimir Kutcherov, Anton Kolesnikov und Alexander Goncharov wurden kürzlich im Wissenschaftsjournal Nature Geoscience, Vol. 2, August veröffentlicht.

Weitere Informationen: vladimir.kutcherov@indek.KTH.se  oder tel.: +46 8790 85 07. bzw. hier:

Peter Larsson

Lesen Sie dazu auch das folgende Interview

Interview mit Professor Vladimir Kutcherov

Als Fortsetzung meines Artikels über die Resultate seiner Forschung über die Entstehung des Erdöls, habe ich ein Interview mit Professor Vladimir Kutcherov geführt, damit wir näheres über seine Arbeit und These erfahren.

Freeman: Vielen Dank Professor Kutscherov, dass sie mir die Gelegenheit geben ein Interview mit ihnen zu führen. Können sie bitte meinen Lesern erzählen, was ist ihr Hintergrund und was veranlasst sie zu erforschen, wo Petroleum herkommt?

Kutcherov: Ich war Student an der russischen Staatsuniversität für Öl und Gas und verfasste meine erste Dissertation dort im Jahre 1987. Und dann im Jahre 2005 schrieb ich meine Doktor Habilitus Dissertation in Moskau. Ich arbeitete an der Umeå Universität in Schweden für einige Jahre und jetzt bin ich Professor an der Königlichen Technischen Hochschule hier in Schweden. Ich halte auch den Lehrstuhl an meiner Heimatuniversität für Öl und Gas und ich bin Professor an der Staatsakademie für feinchemische Technologie in Moskau. Das ist meine Ausbildung und mein Hintergrund und während der letzten 20 Jahre habe ich die Eigenschaften und das Verhalten von komplexen Kohlenwasserstoff-Systeme studiert. Für mich war der Ursprung von Petroleum die interessanteste Frage schon in der Zeit als Student in Russland.

Seit Anfang des letzten Jahrzehnts bin ich der Initiator des Projekts „Tiefenöl“ in Russland und ich habe experimentelle Untersuchungen darüber durchgeführt. Das Hauptziel ist es zu prüfen, gibt es die Möglichkeit, dass Kohlenwasserstoffe unter bestimmten Bedingungen im oberen Erdmantel entstehen, in dem man Temperatur, Druck und den Inhalt des Mantels berücksichtigt. Und im Jahre 2002, nach sehr intensiver Forschung, veröffentlichten wir eine Reihe von Artikeln, wo diese Frage beantwortet wurde; … ja, sie sind abiotisch. Es ist eine Realität, dass komplexe Kohlenwasserstoff-Verbindungen natürlich entstehen. Diese Forschungsergebnisse wurden an der Akademie der Wissenschaft in den Vereinigten Staaten von Amerika, in Russland und der Ukraine veröffentlicht.

Freeman: Ich habe ihre Forschungsergebnisse, die sie im August vergangen Jahres veröffentlicht haben, gelesen. Wie war die Reaktion darauf?

Kutcherov: Die moderne Ansicht über den Inhalt des oberen Erdmantels ist wie folgt. Es gibt fast keine Zweifel darüber, die einfachste Formen von Kohlenwasserstoffe, Methan oder CH4, ist im Erdmantel vorhanden, in der Tiefe unseres Planeten. Und unser Experiment war sehr einfach, wir wollten herausfinden, kann Methan unter den Bedingungen wie sie im oberen Erdmantel herrschen, in einer Tiefe von ca. 150 Kilometer, sich in schwerere Kohlenwasserstoffe verwandeln.

Was ist Erdgas? Um es einfach auszudrücken, eine Mischung aus vier gesättigten Kohlenwasserstoffe, Methan bis zu 99%, dann Ethan, einige Prozent an Propan und Butan. Dann haben wir Methan in einer Hochdruckkammer eingeschlossen und die Bedingungen wie sie im oberen Erdmantel sind reproduziert. Die Temperatur war zwischen 1’000 und 2’000 °K und der Druck zwischen 20’000 und 70’000 Atmosphären. Das sind die Bedingungen wie in einer Tiefe von 150 Kilometer.

Wir machten diese Experimente mit einen meiner Doktoranden, Anton Kolesnikov und einen führenden Forscher des Geophysischen Instituts an der Carnegie Universität in Washington DC, Alexander Goncharov. Und unser Ergebnis lautet: Ja, Methan kann man umwandeln, man kann schwerere Kohlenwasserstoffe produzieren. Wir erhielten eine Mischung in ähnlicher Zusammensetzung wie das natürliche Erdgas, was überall auf unserem Planeten gefunden wird. Es gibt definitiv keine Zweifel, Methan kann unter bestimmten Bedingungen in Erdgas umgewandelt werden.

Freeman: Und kann es auch in Petroleum umgewandelt werden?

Kutcherov: Einige Sätze zu Petroleum. Mit Petroleum meint man alle Formen von Kohlenwasserstoffe, von Gas bis zu Feststoffe, von Erdgas bis zu Teer, welche aus Gestein entstehen.

(Anmerkung: das Wort Petroleum stammt aus dem Griechischen und bedeutet Öl aus Gestein. pétra = Fels, Stein und lat. oleum = Öl. Wörter haben eine Bedeutung. Wussten die Griechen schon wo es herstammt?)

Petroleum ist eine generelle Bezeichnung. Wenn sie mich über Rohöl fragen, also Erdöl welches zum Beispiel in Saudi Arabien gefördert wird, dann ist meine Antwort, nein, noch nicht. Aber in unseren Experimenten erhielten wir eine Mischung aus Kohlenwasserstoffe, das wie Gaskondensat aussieht, also leichte Kohlenwasserstoffe, so etwa wie Benzin. Im Labor in Washington kam Erdgas heraus. Bei unseren weiteren Experimenten, dessen Resultate wir in den nächsten Monaten veröffentlichen werden, sind viel komplexere Verbindungen hervorgegangen. Nicht Erdöl, jedenfalls noch nicht!

Freeman: Das ist eine ziemlich revolutionäre Aussage. Sagen sie damit, es könnte möglich sein, dass das gesamte Öl auf der Welt nur durch einen chemischen abiotischen Prozess entstanden ist? Oder sagen sie, Erdöl ist durch beide, einer abiotischen und einer biotischen fossilen Methode, entstanden?

Kutcherov: Das ist eine Standardfrage. Ich bin kein Geologe, sondern ein Experimentalphysiker. Ich vertraue nur den Experimenten. Wir bestätigen einfach, komplexe Petroleumprodukte können unter Bedingungen wie sie im oberen Erdmantel herrschen entstehen. Es hat noch nie Experimente gegeben, welche die ganze Kette der Entstehung von Erdöl oder Erdgas durch Fossilien beweisen. Es gab nur Zwischenstufen, die nachgeahmt wurden. Aber niemand auf der Welt hat je eine Forschungsarbeit veröffentlicht, welche den ganze Prozess bestätigt, von Fossilien bis zu Rohöl.

Freeman: Das ist noch nie bewiesen worden?

Kutcherov: Durch ein Experiment noch nie!

Freeman: Das ist ja interessant. Dann beruht die ganze bisherige Lehrmeinung über die Entstehung von Erdöl nur auf einer Behauptung?

Kutcherov: Einzelne Zwischenschritte wurden modelliert, aber der ganze Prozess von Plankton bis Rohöl noch nie.

Freeman: Einer der Argumente für die abiotische Entstehung des Rohöl ist, man findet es sehr tief, bis zu 13 Kilometer. Ist das ein Argument gegen fossile Brennstoffe?

Klick drauf um zu vergrössern …

Kutcherov: Was wir sagen ist, verschiedene Petroleumprodukte können in einer Tiefe von 40, 50 oder 70 Kilometern entstehen. Was die Entdeckungen betrifft, der letzte Ölfund den BP gemacht hat war im Golf von Mexiko. Sie bohrten ein sehr sehr tiefes Loch, bis auf 10,5 Kilometer und fanden dort Rohöl-Lagerstätten. Ich möchte daran erinnern, dass die biotische Entstehungstheorie nur eine maximale Tiefe von 5, oder sagen wir 7 Kilometer erlaubt. Hier haben wir aber 10,5 Kilometer. Wie Rohöl deshalb auf 10,5 Kilometer Tiefe gefunden werden kann, hat noch niemand erklären können. Aber wenn wir annehmen, das Öl kommt aus grosser Tiefe, dann ist alles erklärbar.

Freeman: Da Rohöl leichter ist als das umgebende Gestein, bewegt es sich ja nach oben und sinkt nicht.

Kutcherov: Absolut richtig. Ich sage ja nicht, die biotische Theorie ist völlig falsch. Was ich sage ist, lasst uns Experimente durchführen. Lasst uns den ganzen Mechanismus verstehen, den gesamten Entstehungsprozess nachvollziehen. Wir möchten einfach die Wahrheit herausfinden.

Freeman: Selbstverständlich, das ist ja der ganze Sinn der Wissenschaft und nicht an unbewiesenen Behauptungen sich festzuhalten.

Kutcherov: Ja genau, es geht nicht um Spekulation, sondern um pure Experimente. Das ist der Anfang und hier ist das Resultat. Dann kann jeder seine Schlüsse daraus ziehen. Was wir jedenfalls beweisen können, die Produktion von Kohlenwasserstoffe in grosser Tiefe ist möglich.

Freeman: Stimmt es, dass in Russland gewisse Ölfelder sich wieder aufgefüllt haben?

Kutcherov: Selbstverständlich und es sind nicht nur gewisse. Die neuesten Untersuchungen im Romashkino-Ölfeld, einer der grössten Ölfelder im europäischen Teil von Russland, zeigen, es kommt neues Öl dazu. Und es gibt nur eine Quelle dafür, aus grosser Tiefe. Es ist nicht möglich diese Tatsache durch eine sogenannte „horizontale Migration“ zu erklären. Es gibt auch keine organische Quelle dafür. Es ist nicht zu bestreiten, es kommt neues Rohöl ins Romashkino-Ölfeld und es stammt aus der Tiefe.

(Anmerkung: Das Ölfeld in Romashkino in der Republik Tatarstan ging 1948 in Betrieb und sollte schon längst ausgeschöpft sein, aber es liefert immer noch Öl.)

Wir können noch nicht sagen aus welcher Tiefe es kommt, jedenfalls noch nicht, aber es handelt sich definitiv um neues tiefes Öl.

Freeman: Heisst das, wenn man den Ausgleich zwischen Förderung und Nachfluss erreichen würde, also die Förderung auf ein Niveau reduziert, dass sich die Gesamtmenge im Gleichgewicht hält, würde dann ein Ölfeld nie ausgehen?

Kutcherov: Das ist eine sehr gute Frage. Unsere Experimente zeigen, alle gigantischen Ölfelder haben diese tiefe Quelle, um sie zu füllen und wenn wir ausrechnen könnten, wie viel Öl jedes Jahr nachfliesst, könnten wir ganz neue Strategien entwickeln, wie die gigantischen Ölfelder ausgeschöpft werden. Wir müssten nur so viel Öl entnehmen wie nachkommt. In diesem Fall müsste man nicht mit Wasserinjektion nachhelfen. Wir könnten die Ölfelder für alle Ewigkeit nutzen, jedenfalls hunderttausende Jahre.

Freeman: Wow, das ist ein sehr interessanter Aspekt.

Kutcherov: Ja und die ganze Ölförderung muss wegen dieser langen Lebensdauer neu überdacht werden. Wir benötigen Stahlhüllen in den Bohrlöchern, die viele hunderte Jahre halten und nicht 40 wie jetzt. Wir benötigen völlig neues Gerät, welches länger in Betrieb bleiben kann. Wir müssen demnach nicht nur die Strategie der Förderung der Ölfelder neu überdenken, sondern die gesamte Lebensdauer der Infrastruktur neu entwickeln. Die gesamte Öl- und Gasindustrie muss in dieser Hinsicht neue beleuchtet werden.

Freeman: Können sie bestätigen, dass das Öl hauptsächlich dort vorkommt, wo es Spalten in der Erde gibt? So wie der grosse Afrikanische Grabenbruch, der von Mosambik über Uganda, Sudan, Roten Meer, bis in den Irak führt. Entlang dieser Linie gibt es die grössten Ölvorkommen der Welt. Steigt das Öl durch die Spalten nach oben?

Kutcherov: Öl und Gas, wie ich sagte, wird in sehr grosser Tiefe produziert. Wie soll es in die Nähe der Oberfläche kommen? Nur durch sogenannte Migrationskanäle, also wie Strassen die in die Höhe führen. Das ist ganz klar. Das sind tiefe Spalten wie sie erwähnten. Diese tiefen Spalten und die Gegend rund herum sind ja auch die neuen Orte wo man nach Öl sucht. Denn das Öl kommt aus der Tiefe, sucht sich den Weg durch die Spalten nach oben und verteilt sich dann in die Breite. Deshalb muss man nicht überall nach Öl suchen, sondern in der Nähe dieser Gräben.

Wie findet man diese tiefen Spalten? Durch Tiefenseismik, die wohl sehr teuer aber aufschlussreich ist. Aber eine andere Methode ist, man sucht nach Öl dort wo Meteoriten eingeschlagen haben, also grosse Meteoritenkrater, die vor langer Zeit entstanden sind. Und bei einem dieser Krater, der sehr bekannt ist, handelt es sich um den Siljan Krater in Schweden.

(Anmerkung: der Siljan Krater hat einen Durchmesser von 55 km und ist die grösste Einschlagstruktur in Europa.)

Jetzt hat eine Privatfirma im Siljan-Krater angefangen zu bohren und sie haben Erdgas an hunderten Orten in kleineren Mengen gefunden. Sie haben mich gefragt, ob ich als Berater für dieses Projekt tätig sein kann. Jetzt analysieren wir die Eigenschaften dieses Gases und auch der Erdschichten. Unser Ziel ist es, eine grosse Gaslagerstätte zu finden, die dann industriell genutzt werden kann.

Freeman: Bedeutet das, wenn ein grosser Meteor die Erde trifft, öffnet der gewaltige Aufschlag die Erdkruste?

Kutcherov: Das ist richtig. Dieser Meteorit verursacht tiefe Falten und Spalten durch die Explosion, die bis zu 40 oder 50 Kilometer in die Tiefe gehen. Und die Kohlenwasserstoffe, welche im Erdmantel ruhen, kommen dann durch die Spalten hoch.

(Anemerkung: Der Golf von Mexiko, der eine kreisrunde Form hat, ist wahrscheinlich durch einen gigantischen Meteroeinschlag entstanden. Dort wird sehr viel Öl und Gas gefördert und es gibt am Meeresgrund sogenannte Asphaltvulkane und Unmegen an Methanhydrat.)

Freeman: Das bedeutet, es gibt viel mehr Öl- und Gasvorkommen als man bisher angenommen hat. Man kann diese Energieträger praktisch überall finden, oder?

Kutchjerov: Ich würde nicht überall sagen, weil tiefe Spalten sind das Resultat der Plattentektonik und Einschlagkrater sind nur eine kleine Ursache für Spalten. Nur, diese Subduktionszonen sind ein guter Ort nach Öl und Gas zu suchen.

Freeman: Ich weis, sie wollen nicht auf eine politische Diskussion eingehen und bei den wissenschaftlichen Fakten bleiben, aber das wird riesige Konsequenzen haben, was die Diskussion über eine angebliche Energiekrise betrifft, meinen Sie nicht?

Kutcherov: Ja, das wird es. Meine Meinung ist folgende, es spielt keine Rolle was die endgültige Lösung dafür sein wird. Der einfachste Weg wäre so weiter zu machen wie bisher und sagen wir mal Erdgas als Hauptenergielieferant auf unserem Planeten zu nutzen. Der schwerer Weg ist, eine neue Quelle für Energie zu entwickeln, wie Windmühlen oder eine Art von Fusion, Wasserkraft usw. Meiner Meinung nach hat die Lösung mit Erdgas die beste Perspektive und bietet Sicherheit. Aber egal wie, in jedem Szenarium sollte die wichtigste Frage der Umweltschutz sein.

Ein kleines Beispiel, in den USA sind mehr als 600 Millionen Fahrzeuge unterwegs und sie verbrennen Petroleum. Das ist verrückt. Zweidrittel des Rohöls wird für den Transport verwendet. Warum greift die Politik nicht ein und besteuert zum Beispiel die Verwendung eines zweiten, dritten oder sogar vierten Autos die ein Haushalt hat? Die Hauptfrage die ich betonen will lautet, egal welche Strategie man fährt, wie wird der Umweltschutz gelöst?

Freeman: Für mich sind das aber zwei getrennte Fragen, wo kommt das Öl her und welche politischen Konsequenzen zieht man daraus.

Kutcherov: Das ist völlig korrekt. Laut unseren Untersuchungen, müssen wir uns keine Sorgen über die Menge an Kohlenwasserstoffe auf unseren Planeten machen, es gibt mehr als genug für eine Million Jahre und ich werde das gleich beweisen. Die Frage lautet, wie man diese Menge nutzt, das macht mir eher Sorgen.

Es liegen Informationen von amerikanischen Geologen und ihren Studien vor, die sagen, die Gesamtmenge an Methan als Gashydrat auf unseren Planeten ist X Millionen Kubikmeter. Es ist eine bekannte Grösse, die man aus dem Internet holen kann. Wie viel Erdgas nutzen wir pro Jahr? Das ist auch bekannt. Wenn man die beiden Werte dividiert, dann sieht man, diese Lagerstätten reichen für mehrere Millionen Jahre.

Freeman: Wow, meinen sie damit das Methanhydrat, welches am Meeresboden lagert und aus Methangas bei hohem Druck und tiefer Temperatur entstanden ist?

Kutcherov: Ja, genau darum gehts. Im Moment wissen wir nicht, wie wir es fördern sollen. Ein Kubikmeter Methanhydrat liefert ca. 170 Kubikmeter Methan. Aber es ist nur eine Frage der Zeit, bis man eine rentable Förderung entwickelt. Jedenfalls ist es einfacher diese Technologie zu entwickeln, als eine komplett Alternative zum jetzigen System.

Freeman: Wenn das sich bestätigt, dann wäre ja die Notwendigkeit Kriege wegen Öl zu führen wegfallen. Darum gehts doch dabei, oder?

Kutcherov: Völlig richtig. Es gibt ein Buch, welches mein Freund Bill Engdahl geschrieben hat, über die neue Weltordnung der Angloamerikaner. Was darin steht ist absolut korrekt (Mit der Ölwaffe zur Weltmacht).

Freeman: In welche Richtung werden sie in Zukunft gehen?

Kutcherov: Ich werde das Petroleum-Szenario, das unsere Welt erwartet, in den nächsten Monaten präsentieren. Es findet ein grosser Energiekongress in Europa statt, wo sich Minister, Experten und Journalisten treffen werden und ich wurde gebeten eine Ansprache zu halten. Dort werde ich auf ganz einfache Weise den Ausblick auf die Petroleumentwicklung darlegen, bezogen auf den Energieverbrauch auf unseren Planeten, einschliesslich die Lösung zu Umweltfragen, die zuerst angegangen werden müssen.

Meiner Meinung nach ist Erdgas und Erdöl die Lösung für die Energieproduktion, mindestens für die nächsten hundert Jahre. Denn aktuell werden 61 Prozent der Energie daraus gewonnen.

Freeman: Gibt es etwas was sie noch an Botschaft meinen Lesern mitteilen wollen? Wie sie sich verhalten sollen, zum Beispiel?

Kutcherov: Wir leben am Ende des Anfangs der Petroleumära. Wir sind nicht mal in der Mitte angelangt.

Freeman: Das heisst, nicht bereits in einer Periode von „Peak-Oil“?

Kutcherov: Das ist völliger Blödsinn.

Freeman: Was sie sagen ist, einerseits müssen wir uns um die Umwelt kümmern, aber uns über das Ende von Öl und Gas keine Sorgen machen.

Kutcherov: Ja, wir haben genug Öl und Gas. Lasst uns überlegen, wie wir diesen Stoff richtig verwenden, zum Nutzen der ganzen Menschheit, aber gleichzeitig müssen wir unseren Planeten schützen.

Freeman: Vielen Dank für das Interview.

© Copyright 2010: Freeman – Alles Schall und Rauch Blog
Nachtrag (Mit dank an Leser Ch. Bartsch): die Vermutung, daß Erdgas und Erdöl nicht aus Fossilien stammt sondern in der „heißen Tiefe“ gebildet wird, wurde bereits in den 50er Jahren von russischen Erdölexperten geäußert, möglicherweise aber auch schon viel früher. Wer mehr über diese Theorie lesen will, sollte sich das Buch von Thomas Gold beschaffen „Biosphäre der heißen Tiefe“, das als Übersetzung aus dem Englischen im Jahr 2000 bei der „Edition Steinherz“ in Wiesbaden erschien. Die Übersetzung stammt von Dr. Helmut Böttiger. Thomas Gold vertritt diese Theorie bereits seit 1977 und hat auch nach seinen Überlegungen die erste Bohrung am Siljan- Krater in Schweden durchführen lassen.

Related Files




Was ist dran am globalen Anstieg des Meeresspiegels?

Einige Verfechter der Hypothese der anthropogenen (von Menschen verursachten) Erwärmung des Erdklimas sagen einen signifikanten Anstieg des globalen Meeresspiegels im Laufe des 21sten Jahrhunderts voraus. Erst jüngst haben Prognosen für Schlagzeilen gesorgt, nach denen der globale Meeresspiegel in einigen Jahrzehnten gar um mehrere Meter höher liegen soll als heute. Konkret ist von bis zu sechs Metern die Rede. Das würde bedeuten, dass Inselstaaten wie zum Beispiel die Malediven oder Tuvalu sowie weite Küstenregionen in aller Welt überflutet würden. Kräftig Öl ins Feuer der Debatte schütten unter anderem verschiedene Klimaforschungsinstitute, Umweltverbände und die vermeintlich betroffenen Inselstaaten. Insbesondere rund um die internationale Klimakonferenz im Dezember 2009 in Kopenhagen haben sie alle Register gezogen, ihre Prognosen von der großen Sintflut in die Medien zu tragen. Wer hat nicht die dramatischen Bilder der Kabinettssitzung der Regierung eines dieser Inselstaaten gesehen?

Wie real ist die Gefahr? Steigt der globale Meeresspiegel tatsächlich? Womit müssen wir in Zukunft rechnen? Glasshouse sprach mit dem schwedischen Ozeanografen Prof. em. Dr. Nils-Axel Mörner, einem der weltweit führenden Experten auf diesem Gebiet. Prof. Mörner war Dekan der Fakultät für Paläogeophysik und Geodynamik an der Universität Stockholm. Zudem war er von 1999 bis 2003 Präsident der INQUA-Kommission (International Union for Quaternary Research) zur Meeresspiegelveränderung und Küstenentwicklung, von 2000 bis 2009 Leiter des ‚Maledives Sea Level Project’ und von 1997 bis 2003 Koordinator des INTAS-Projekts (International Association for the promotion of cooperation with scientists from the New Independent States of the former Soviet Union) ‚Geomagnetism and Climate’. Seit 2005 leitet Prof. Mörner sein eigenes, unabhängiges Forschungsinstitut für Palegeophysik und Geodynamik in Torekov in Südschweden.

Weltweit ist seit etwa 30 Jahren kein Anstieg des Meeresspiegels erkennbar. Die Grafik oben zeigt die Pegelstände des Inselstaates Vanuatu der letzten knapp zwanzig Jahre.

Glasshouse: Was sagen Sie zu den in der Öffentlichkeit diskutierten Überflutungsszenarien?

Nils-Axel Mörner: Diese Prognosen sind blanker Unsinn! Allein aus wissenschaftlicher Sicht wäre ein Anstieg um maximal einen Meter pro Jahrhundert möglich. Um diesen Wert ist der Meeresspiegel im Mittel nach der letzten Eiszeit angestiegen. Die Messergebnisse zeigen heute aber keinen Anstieg des Meeresspiegels, der zur Sorge Anlass geben könnte.

Glasshouse: Wie sah die Entwicklung des globalen Meeresspiegels in der jüngeren Vergangenheit aus?

Nils-Axel Mörner: Von etwa 1840 bis 1940 ist der Meeresspiegel im Mittel um 1,1 mm pro Jahr und damit insgesamt um etwa 11 cm gestiegen. Dieser Anstieg stimmt gut mit der Rotationsgeschwindigkeit der Erde überein. Seit etwa 1940 war der Meeresspiegel stabil oder ist sogar gesunken. In den vergangenen 30 bis 40 Jahren ist er praktisch stabil geblieben. Wir verfügen hierzu über zuverlässige Daten.[1]

Glasshouse: Entgegen der öffentlichen Diskussion ist derzeit also global kein Anstieg des Meeresspiegels feststellbar?

Nils-Axel Mörner: Ja, sowohl die Messdaten von den Malediven, Tuvalu und Vanuatu als auch von Bangladesch und Indien lassen daran keinen Zweifel. Würde der globale Meeresspiegel steigen, müsste die Rotationsgeschwindigkeit der Erde abnehmen. Das ist nicht der Fall. Im Gegenteil: Sie beschleunigt sich.

Ufer des Queen´s Bath (Hithadhoo Island, Addu Atoll). Die 4 markiert das Uferniveau im Jahr 400 vor Christus (+ 60 cm), die 3 den Hochwasserstand von 1790 bis 1970 (+ 20 – 30 cm), die 2 den heutigen Hochwasserstand und die 1 den heutigen Normalpegel.

Glasshouse: War der Meeresspiegel in der Erdgeschichte jemals wesentlich höher als heute?

Nils-Axel Mörner: Nicht wirklich. Er war aber zur letzten Eiszeit wesentlich tiefer, und dann stieg in mehreren Schüben auf um ca. 120 m an. Danach gab es Schwankungen um einige Dezimeter um den heutigen Stand. Mehr nicht.

Glasshouse: Was verursacht die Schwankungen des Meeresspiegels?

Nils-Axel Mörner: Bis etwa 6000 vor Christus wurden die Veränderungen im Wesentlichen von einem generellen, eiszeitlich eustatischen[2] Anstieg bestimmt. Während der vergangenen 6.000 Jahre wurden die Schwankungen des Meeresspiegels vorwiegend von der Umverteilung der Wassermassen der Ozeane geprägt.

Glasshouse: Welche Rolle spielt die thermische Ausdehnung, der viele Veröffentlichungen im Zusammenhang mit dem Klimawandel große Bedeutung zuschreiben?

Nils-Axel Mörner: Eine geringe bis unbedeutende. Die Expansion ist auf die etwa oberen 300 m des Meerwassers begrenzt, was in den tiefen Ozeanen einen Anstieg des Meeresspiegels um etwa 10 cm verursachen könnte. In seichteren Gewässern ist der Effekt gering bis unbedeutend. An den Küsten ist der Effekt gar Null, da es hier ganz einfach nicht genug Wasser gibt, das sich ausdehnen könnte.

  Veränderungen des Meeresspiegels auf den Malediven von 1500 bis 2100.

Glasshouse: Wie wird sich der globale Meeresspiegel aus Ihrer Sicht in den folgenden Jahrzehnten entwickeln?

Nils-Axel Mörner: Zu meinen Zeiten als Präsident der INQUA-Kommission ‚Sea Level Changes and Coastal Evolution’ schätzte unsere Kommission übereinstimmend, dass es bis zum Jahr 2100 eine Veränderung in einer Größenordnung von ±10 cm geben kann. Ich habe später vorgeschlagen, den Schätzwert auf ±15 cm zu erhöhen. Der Grund hierfür ist, dass wir bis gegen 2050 wahrscheinlich ein neues solares Minimum erleben werden, das zu einer neuen kleinen Eiszeit führen dürfte.

Glasshouse: Woher können wir das heute wissen?

Nils-Axel Mörner: In der Vergangenheit sind die Sonnenzyklen einem ziemlich strikten Rhythmus gefolgt. Die Hochrechnung der künftigen Entwicklung dieser Zyklen ergibt für die Zeit um 2040 bis 2050 ein neues solares Minimum. Den genauen Zeitpunkt können wir heute vielleicht nicht vorhersagen. Aber wir können ein neues solares Minimum wohl kaum vermeiden.

Die Küste von Bangladesch erodiert – was aber nicht von einem steigenden Meeresspiegel verursacht wird. Man kann die Erosion deutlich an den sich horizontal ausbreitenden Wurzeln der Bäume erkennen, die sich auf dem gleichen Höhenniveau wie bei dem höher gelegenen Wald befinden.

Glasshouse: Gibt es einen Zusammenhang zwischen der Entwicklung des globalen Meeresspiegels und der CO2-Konzentration in der Erdatmosphäre?

Nils-Axel Mörner: Nein, nicht wirklich.

Glasshouse: Also wäre auch ein weiterer Anstieg der CO2-Konzentration in der Erdatmosphäre aus Ihrer Sicht nicht alarmierend?

Nils-Axel Mörner: Nein.

Glasshouse: Sind diese Fakten den Regierungen der Inselstaaten wie beispielsweise der Malediven und Polynesiens bekannt?

Nils-Axel Mörner: Ja. Ich habe zwei Briefe inklusive einschlägiger Veröffentlichungen an den Präsidenten der Malediven geschickt. Darüber hinaus habe ich zwei offene Briefe an ihn adressiert (s.Anlage unten). Folglich müsste die Botschaft in Tuvalu und Vanuatu angekommen sein.

Glasshouse: Warum haben diese Länder dann so große Angst vor einem globalen Anstieg des Meeresspiegels?

Nils-Axel Mörner: In Wahrheit haben sie keine Angst vor einer künftigen Überflutung. Vielmehr haben sie Angst davor, die finanziellen Mittel zu verlieren, die sie als Entschädigung für die vorhergesagte Überflutung bekommen können.

Glasshouse: Oder werden hier Küstenerosion und der Anstieg des Meeresspiegels verwechselt?

Nils-Axel Mörner: In der Tat gibt es viele, die beides miteinander verwechseln. Die gerade genannte Gruppe bringt allerdings persönliche Vorteile und wissenschaftliche Fakten durcheinander.

Dieser Baum steht seit mindestens den 40er Jahren des vergangenen Jahrhunderts an einer sehr exponierten Stelle der Küste der Malediven. Schon der kleinste Anstieg des Meeresspiegels hätte ihn zerstört. Ein Beleg dafür, dass der Meeresspiegel seit 50 Jahren nicht gestiegen ist.

Glasshouse: Ist es denkbar, dass das gesamte Eis auf allen Gletschern, auf Grönland und an den Polen schmilzt? Was würde das für den globalen Meeresspiegel bedeuten?

 Nils-Axel Mörner: Das ist ganz sicher nicht vorstellbar. In Zeiten solarer Maxima mag ein Teil der Gletscher in den Alpen schmelzen, andere bleiben erhalten. Die meisten Gletscher reagieren viel empfindlicher auf lokale Faktoren wie die Abholzung seitens der Menschen. Die Eisabdeckung der Arktis mag schwanken – was aber nicht den Meeresspiegel beeinflusst, da das Eis bereits im Ozean treibt. Grönland ist eine große Unbekannte. Das Eis dort ist aber selbst während des Temperaturoptimums im Holozän[1] nicht in nennenswertem Umfang geschmolzen. Damals war die Temperatur etwa 2,50 C wärmer als heute. Der Disko Bay-Gletscher schrumpft seit 200 Jahren, seit 50 Jahren allerdings mit abnehmender, nicht zunehmender Geschwindigkeit. Das Abschmelzen des gesamten Pols würde wenigstens etwa 10.000 Jahre dauern. Das Eis der Antarktis ist schon sehr lange vorhanden und würde vermutlich kaum von einem Klimawandel auf Holozän-Niveau beeinträchtigt. Ein theoretisches Schmelzen des Eises der Antarktis würde eine starke Erwärmung für 100.000 Jahre oder mehr voraussetzen.

In den vergangenen etwa 6.000 Jahren gab es kleine Schwankungen des Meeresspiegels. Sie vollziehen sich aber nicht synchron über den gesamten Globus hinweg. Entsprechend scheinen sie eher das Ergebnis von Umverteilungen der Wassermassen als von eiszeitlich eustatischen Schwankungen zu sein. Das dürfte auch bei Schwankungen in der näheren Zukunft der Fall sein. Allerdings wird früher oder später die nächste Eiszeit beginnen und den Meeresspiegel auf ein neues Eiszeittief fallen lassen. Das allerdings wird einige Jahrtausende dauern. Fazit: Die Bedrohung einer eiszeitlich eustatischen Überflutung ist nicht real.

Glasshouse: Eine abschließende Frage: Wie lässt sich der globale Meeresspiegel messen?

Nils-Axel Mörner: Ich nehme Synthesen der Messdaten vor. Darüber hinaus untersuche ich eine Vielzahl besonders kritischer Standorte wie derzeit auf den Malediven, Tuvalu und Vanuatu in Venedig und in Bangladesch, die einen wichtigen Beitrag leisten. Ich mache hier Tests und untersuche die Aufzeichnungen von unter anderem Venedig und Indien. Zudem beobachte ich die Rotation der Erde. Gäbe es einen globalen Anstieg des Meeresspiegels, müsste die Rotationsgeschwindigkeit der Erde abnehmen – und umgekehrt. Auch die mit Satelliten vorgenommenen Höhenmessungen bieten sehr gute neue Möglichkeiten, die Umverteilung der Wassermassen über den gesamten Globus hinweg aufzuzeichnen.

Mit Dank an Glasshouse Center for Studie on a Free Economy

53343 Wachtberg / Germany

Phone +49-228-858261

Mail to j.maruschzik@netcologne.de

* Details zum "Irrtum" über die Niederlande hier


[1] Das Holozän begann vor etwa 11.700 Jahren.

Related Files