1

Lord Monckton: In Cancun hat der Westen abgedankt!

Die 33-seitige Note (FCCC/AWGLCA/2010/CRP.2) der “Ad-Hoc Working Group on Long-Term Cooperative Action under the Convention” mit dem Titel Possible elements of the outcome – Note by the Chair (Mögliche Ergebniselemente – Note des/der Vorsitzenden) sagt alles. Oder nichts, wenn man nicht den komplexen, obskuren Jargon versteht.  Alle UNFCCC-Dokumente der Cancuner Konferenz und besonders die Note „Possible elements of the outcome“ sind in der sogenannten “transparenten Unverständlichkeit” entworfen. Die Dokumente sollen  unverständlich sein, damit uns nachher gesagt werden kann, dass sie die ganze Zeit öffentlich zugänglich gewesen sind – worüber wollen wir uns also beschweren?

Die Note ist nicht sehr lang, ich will die Hauptpunkte zusammenfassen:

Finanzen:

Der Westen wird gemeinsam $100 Milliarden pro Jahr bis 2020 in einen namenlosen neuen UNO-Fonds einzahlen. Um diese Summe an die Zunahme des BSP zu koppeln, darf sich der Westen verpflichten, 1,5 % des BSP jährlich an die UNO zu zahlen. Das ist mehr als doppelt so viel wie die 0,7 % des BSP, welche die UNO dem Westen als Enwicklungshilfe für das vergangene halbe Jahrhundert empfahl. Mehrere hundert Klauseln in der Note des/der Vorsitzenden werden den Staaten des Westens riesige finanzielle Kosten auferlegen.

Das Sekretariat der Welt-Regierung:

Nicht dem Namen nach, aber ansonsten wird das Sekretariat der UNO-Konvention zu einer Weltregierung werden, die Hunderte von globalen, übernationalen, regionalen, nationalen und sub-nationalen Bürokratien direkt steuern wird. Es wird die große Summe des Geldes der Steuerzahler erhalten, die deutlich erkennbar nur vom Westen an die Dritte Welt bezahlt werden soll, damit sie sich an die widrigen Folgen eines eingebildeten (und imaginären) „Klimawandels“ anpassen kann.

Bürokratie:

Hunderte  neuer sich überschneidender Bürokratien, die an das Weltregierungs-Sekretariat berichten, werden dessen Macht und Möglichkeiten stark ausweiten. So wie es die Europäische Union mit ihrer Methode macht, bei der Durchsetzung des Willens eines nicht gewählten Kommissars  gegen die ächzenden Völker des verdunkelten europäischen Festlandes, werden sich die Beamten als Diener eines Großreiches des Sekretariats fühlen und dessen Ukasse und Diktate durchziehen, ohne Rücksicht auf den politischen Willen der Nationalstaaten.

Viele der neuen Bürokratien sind als “Aufbauhilfe für Entwicklungsländer” getarnt. Das hat nichts mit den sich entwickelnden Volkswirtschaften oder Industrien der ärmeren Staaten zu tun. Es bedeutet in Wahrheit die Einrichtung von Hunderten von Büros in vielen Staaten der Erde, die nur dem Sekretariat verantwortlich sind. Wer das bezahlt?
Sie natürlich, lieber Steuerzahler.

Babylon, Byzanz, das spätere Osmanische Reich, die schreckliche Bürokratie Nazi-Deutschlands, das riesige Reich der 27.000 Papierschieber bei der Europäischen Union: das muss man alles zusammenaddieren und mit 100 multiplizieren, um dann immer noch nicht auf die schiere Größe, die Kosten, die Macht und die Wirkmöglichkeit der neuen Ableger des Sekretariats zu kommen.

Zusätzlich zu den neuen Bürokratien in jedem der 193 Mitgliedstaaten der Konvention wird es

ein Anpassungsrahmengremium geben, ein Anpassungsgremium für die am wenigsten entwickelten Länder, ein Anpassungskomitee, Regionale Netzwerkzentren, ein Internationales Zentrum zur Verbesserung der Anpassungsforschung, nationale Anpassungsinstitutionen, ein Gremium zur Klärung von Annahmen und Bedingungen für Ansprüche aus Verminderungen nationaler Treibhausgasemissionen, ein Verhandlungsgremium für die Zielwerte zusammengefasster Emissionsverminderungen und nationaler Ziele, ein Büro zur Überarbeitung der Richtlinien für nationale Mitteilungen, eine Multilaterales Büro für den Mitteilungsprozess, ein Gremium für Fortschritte bei der Entwicklung von Modalitäten und Richtlinien für das Erfüllungsverfahren, eine Registratur angemessener nationaler Schadensminderungsaktionen in entwickelten Ländern, ein Gremium für die Überwachung des Verständnisses für die Verschiedenartigkeit von eingereichten Schadensminderungszielen und benötigter Hilfe, ein Gremium zur Entwicklung von Modalitäten für die Registrierung von geeigneten nationalen Modalitäten von Schadensminderungsaktionen, ein Büro für Internationale Konsultation und Analyse; ein Büro zur Leitung eines Arbeitsprogramms für die Entwicklung von unterschiedlichen Modalitäten und Empfehlungen; ein Netzwerk von Büros der Entwicklungsländer für nationale strategische Waldaktionspläne; ein Netzwerk nationaler Wald-Referenz-Emissionsmengen und/oder Wald-Referenzemissionsgremien; ein Netzwerk nationaler Waldüberwachungssysteme; ein Büro für das Ackerbau-Arbeitsprogramm zur Verbesserung der Umsetzung von Artikel 4, Para. 1c der Konvention zur Berücksichtigung des Paragrafen 31; einen oder mehrere Mechanismen zur Einrichtung eines auf dem Markt beruhenden Ansatzes zur Verbesserung und Beförderung der Kostenwirksamkeit der Schadensminderungsaktionen; ein Forum zur Auswirkung der Durchführung von Antwortmaßnahmen; ein Arbeitsprogramm zur Untersuchung der Auswirkung des Umsetzungsmechanismus der Antwortmaßnahmen; ein Gremium zur Überprüfung des finanziellen Hilfsbedarfs der Entwicklungsländer bei der Bekämpfung des Klimawandels und der Auswahl von Optionen zur Mobilisierung dieser finanziellen Hilfen; ein Fonds zusätzlich zum Kopenhagen „Green Fond“; ein Interim-Sekretariat für die Entwurfsphase des neuen Fonds; ein neues Gremium zur Unterstützung der Mitgliederkonferenz beim Ausüben ihrer Funktionen in Bezug auf den Finanziellen Mechanismus; ein Gremium zum Starten eines Prozesses zur weiteren Definition der Rollen und Funktionen dieses neuen Gremiums zur Unterstützung der Mitgliederkonferenz beim Ausüben seiner Funktionen in Bezug auf den Finanziellen Mechanismus; ein Leitendes Technologiekomitee; ein Klimatechnologiezentrum und Netzwerk; ein Netzwerk von nationalen, sektoralen und Internationalen Technologiezentren, Netzwerken, Organisationen und Initiativen; Partnerschaftszentren für das Vorwärtsbringen von Nord-Süd, Süd-Süd und trilateralen Partnerschaften mit der Aussicht zur Ermutigung kooperativer Forschung und Entwicklung; einen Expertenworkshop für die Durchführungsmodalitäten des Technologiemechanismus; eine internationale Versicherungseinrichtung; ein Arbeitsprogramm-Gremium für Strategien und positive Anreize in Fragen der Reduzierung von Emissionen infolge der Entwaldung und der Waldschäden in Entwicklungsländern; ein Gremium zur Umsetzung eines Arbeitsprogramms über die Auswirkung der Umsetzung von Antwort-Maßnahmen; und ein Gremium zur Entwicklung von Modalitäten für die Operationalisierung des Arbeitsprogramms über die Auswirkung der Umsetzung von Antwort-Maßnahmen.

Die Machtbefugnis der Weltregierung:

Das Sekretariat soll die Nationalstaaten nicht nur einladen dürfen, sondern sie auch zur Einhaltung ihrer Pflichten aus der Klimawandel-Konvention zwingen können. Die Nationalstaaten müssen angewiesen werden können, große Mengen von Informationen zu erheben, zusammenzustellen und zu übermitteln, in der Art und Weise, wie es das Sekretariat und seine waschsende Zahl von untergeordneten Gremien vorgeben. Sie werden neue Befugnisse erhalten, um Informationen zu verifizieren, zu überprüfen und auf der Grundlage dieser Überprüfung den Nationalstaaten zu sagen, was sie dürfen und was nicht. 

Ständiges Wachstum:

Das Verb “verbessern” (enhance) wird mindestens 28 Mal in seinen verschiedenen Formen in der Note des/der Vorsitzenden gebraucht. Ähnliche Verben, z. B.  „verstärken“ (strengthen) und “ausweiten” (extend), sowie Adjektive wie “vergrößert” (scaled-up), “neu” (new) und “zusätzlich” (additional) werden ebenso häufig benutzt, besonders in Bezug auf die finanzielle Ausstattung zu Lasten der westlichen Steuerzahler. Wenn alle in der Note vorgeschlagenen “Verbesserungen” durchgeführt würden, erreichten die Kosten leicht ein Jahresbudget von über $100 Milliarden (oder die zu diesem Zwecke genannten 1.5% des BSP), die die Note für den Westen für das nächste Jahrzehnt erwähnt.

Schutzrechte für Erfindungen:

Patentinhaber, besonders auf dem Gebiet der Klimawandels und seiner Abmilderung, sollen verpflichtet werden, die Gewinne aus ihrer Erfindungskraft den Entwicklungsländern zu übergeben, ohne dass sie Lizenzeinnahmen erhalten. Das wird nirgendwo explizit in der Note des/der Vorsitzenden gesagt, doch Technologietransfer wird etwa 20 Mal im Entwurf genannt, was nahelegt, dass diese ausdrückliche Regelung aus dem gescheiterten Kopenhagener Vertrag vom 15. 9. 2009 übernommen werden soll.

Versicherung:

Das Sekretariat schlägt eine so starke Einmischung in die Geschäfte des weltweiten Versicherungsmarktes vor, dass der freie Markt dort aufhört mit den üblichen negativen Konsequenzen für jeden auf diesem Markt Tätigen.

Der freie Markt:

Der gescheiterte Kopenhagener Vertragsentwurf wollte die neue “Steuerung” so einrichten, dass sie die Macht gehabt hätte, die Regeln aller vormals freier Märkte zu bestimmen. Es würde keine freien Märkte mehr geben. In Cancun sagt die Note des/der Vorsitzenden nur, dass verschiedene “Marktmechanismen“ vom Sekretariat und den Mitgliedern der Konvention genutzt werden könnten: die Verweise auf diese “Marktmechanismen“ sind so häufig, dass man den Eindruck einer weiterbestehenden Absicht zur Auslöschung der freien Märkte gewinnt.

Wissen ist Macht:

Die Note des/der Vorsitzenden enthält viele Verweise auf eine Vielzahl von neuen wie bereits existierenden Verpflichtungen der Nationalstaaten, das Sekretariat mit Informationen in einer von diesem diktierten Art und Weise zu versorgen. Da erkennt man die Handschrift der EU.

Sie hat die Mitgliedstaaten in vier Stufen um deren Macht gebracht: anfänglich als reines Sekretariat zur Sicherung der Kohle- und Stahlversorgung für den Wiederaufbau Europas nach dem 2. Weltkrieg; dann als eine Registratur, die von den Mitgliedstaaten immer mehr Informationen einforderte; dann als Überprüfungsgremium, das den Mitgliedstaaten aufgrund der von ihnen übermittelten Informationen mitteilte, ob sie ihre Verpflichtungen aus den immer längeren und komplexeren Texten der Europäischen Verträge erfüllten; schließlich und letztendlich als oberste Gesetzgebungsautorität, der alle gewählten Parlamente einschließlich des Europa-„Parlamentes“ unterworfen sind.
Unter dem Cancun-Vorschlag folgt das Sekretariat dem Pfad, den ihm die Pest der EU-Vertreter zweifellos eifrig anempfohlen hat. Es maßt sich nun vielerlei Rechte an, nicht nur beim Einfordern von Informationen von den Nationalstaaten, es will sie auch aufgrund der von ihnen pflichtgemäß übermittelten Informationen zur Verantwortung ziehen, damit sie ihre internationalen Verpflichtungen unter der Klimawandelkonvention einhalten.

Propaganda:

Die Note des/der Vorsitzenden enthält an vielen Stellen die Vorstellung, dass die Völker der Welt mehr über den Klimawandel erfahren müssten. Auch das ist eine Parallele zur EU, die einen Propaganda-Fonds von etwa $250 Million pro Jahr verwaltet, nur um einem immer skeptischer werdenden Volk nahe zu bringen, wie wunderbar sie doch sei. Auch das IPCC gibt alljährlich Millionen für PR-Agenturen aus mit dem Auftrag, seine grauenerregende  Botschaft über neue Wege weiter zu verbreiten, so dass jedermann sie versteht und sich ängstigt. Das Sekretariat erfreut sich schon einer unkritischen, ergebenen, wissenschaftlich unbedarften, in wirtschaftlichen Dingen rechenschwachen, oder einfach nur dummen Medienresonanz. Jetzt soll es auch noch einen Fonds erhalten, um das Spiel weiter zu treiben.

Der vom Prozess angerichtete Schaden:

Weil empfindsamere Nationalstaaten wie die USA, die Tschechische Republik, Japan, Kanada und Italien darauf bestanden haben, steht im  Cancun-Ergebnis, dass der Prozess beträchtlichen wirtschaftlichen Schaden anrichtet. Das nennt die Note des/der Vorsitzenden feinsinnig “unerwünschte Nebenwirkungen der Einführung von klimasteuernden Maßnahmen“. Wie soll die Lösung aussehen? Die Behandlung der katastrophalen wirtschaftlichen Konsequenzen der heldenhaft wahnsinnigen Entscheidungen des Sekretariats soll in die Zuständigkeit des – ja, sie lesen richtig – des Sekretariats selbst fallen. Eine schon bewundernswürdige Unverfrorenheit!

Schaden für den Welthandel:

In dem Maße, wie das Vermögen und die Wirkungsreichweite des Sekretariats wachsen werden, reibt es sich selber an den anderen supranationalen Organisationen. Ganz besonders wird die Welthandelsorganisation WTO immer nervöser über die zahlreichen Vorschläge des Sekretariats, welche Beschränkungen des internationalen Handels darstellen. In mehreren Punkten drückt die Note des/der Vorsitzenden den “Entschluss” aus, dass die Politik des Sekretariats keine Handelsbeschränkungen erzeugen soll. Das ist aber nur eine Ansicht und noch dazu eine bezweifelbare.

Die Canute-Vorschrift:

Die Konferenz hält die Entscheidung ihrer Vorgängerkonferenz von Kopenhagen 2009 aufrecht, “die Zunahme der globalen Durchschnittstemperatur unter 2 C Grad im Vergleich zur vorindustriellen Höhe zu halten“. Einfach so! Tatsächlich hat sich die Temperatur in Mittel-England, implizit damit auch weltweit, um 2,2 C Grad binnen 40 Jahren von 1695-1735 erhöht, als die Sonne aus ihrem 11.400-jährigen Aktivitätsminimum herauskam. Im 20. Jh. wurden noch einmal 0,74 C Grad zugelegt. Im 21. Jh. hat es keine Erwärmung mehr gegeben, wir stehen aber schon bei gut 2 C Grad über dem vorindustriellen Niveau.

Die Canute-Vorschrift [den Temperaturanstieg auf 2 C Grad begrenzen] demonstriert die Trennung zwischen dem Prozess und der Wirklichkeit. Sie wurde scherzhaft von einigen Delegierten so getauft, weil einst der gleichnamige dänische König im alten England schmerzhaft die Grenzen seiner und auch seiner Höflinge Macht erleben musste, als er beim Aufstellen seines Thrones am Strand dem Meer befahl, nicht mehr zu steigen. Doch die Flut kam wie gewöhnlich und machte die königlichen Beine nass.

Auslassungen:

Es gibt einige hochbedeutsame Auslassungen, die zusammengenommen die zentrale Absicht bestätigen, dass “der Prozess” nichts mehr mit dem Klima zu tun hat, selbst wenn das jemals so gewesen wäre. Das Ziel ist die Verstärkung der Macht und noch stärker die Bereicherung der internationalen politischen Klasse zum Schaden der Völker des Westens. „Klima” wird als Vorwand benutzt, um die Europäischen Union zu kopieren und dauerhaft das einzurichten, was einige Delegierte einen “transnationalen Perma-Sozialismus” nennen, der nicht mehr der Wählerzustimmung unterworfen ist. Hier folgen die bezeichnenden Auslassungen:

Wissenschaft:

Die Frage, ob diese weite Ausdehnung supranationaler Macht wissenschaftlich zu rechtfertigen ist, wird nicht mehr gestellt. Stattdessen gibt es eine frömmelnde Zustimmung zum abergläubischem Vertrauen in das IPCC an den Stellen, wo die Konferenz “anerkennt, dass tiefe Einschnitte bei den globalen [Treibhausgas-] Emissionen nötig sind, wie die Wissenschaft fordert und wie im Vierten Auswertebericht (AR4 IPCC) dokumentiert ist.

Wirtschaft:

Es findet keine Beurteilung des Ausmaßes statt, wie kostenwirksam auch nur eine der vorgeschlagenen Aktionen zur Steurung der “globalen Erwärmung” durch die Verminderung von CO2-Emissionen oder zur Anpassung der Welt an den Klimawandel ist. Kein Wort wird auch bezeichnenderweise darüber verloren, wie die Kostenwirksamkeit beim Vergleich zwischen „Verminderung“ (mitigation) oder „Anpassung“ (adaptation) aussähe: schon bei der Strukturierung  des IPCC war ja sorgfältig darauf geachtet worden, „Verminderung“ und „Anpassung“ in zwei gänzlich getrennten Bürokratien anzusiedeln, damit voneinander verschiedene Berichte erstellt würden, die aussagekräftige Vergleiche erschwerten. Obgleich jede ökonomische Analyse dieser Hauptfrage nach der Wirtschaftlichkeit – im Gegensatz zu der des inzwischen verrufenen Lord Stern – enthüllt, ist Vermeidung eine nutzlose Dummheit, und gezielte Anpassung an die Folgen eines vielleicht einmal stattfindenden „Klimawandels” ist um Größenordnungen billiger und kostenwirksamer. Trotzdem hält das Ergebnis der Cancun-Konferenz daran fest, dass Vermeidung wirtschaftlich ebenso nützlich ist wie Anpassung.

Kündigung:

Verträge haben Kündigungsklauseln, die bestimmen, was geschieht, wenn ein Vertrag endet. Nichts illustriert die Absicht zur Schaffung einer dauerhaften Weltregierung besser, als das Fehlen jeglicher Kündigungsregelungen im Cancun-Ergebnis. Der Prozess soll ewig sein, wie ein Diamant.

Demokratie:

Mit der Volkssouveränität wird es vorbei sein. Das Prinzip „keine Besteuerung ohne Volksvertretung“, das zur Gründung der Vereinigten Staaten führte, kann man vergessen. Die Vorkehrungen einer demokratischen Wahl durch die Völker der Welt dieses neuen allmächtigen, gesetzgebenden, Steuern erhebenden Weltregierungs-Sekretariats können in einem einzigen Wörtchen genannt werden: Keine.

Wie konnte dieser monströse Machttransfer von den einst stolzen, souveränen, demokratischen Nationen auf das korrupte, nicht gewählte Sekretariat geschehen? Die Geschichte beginnt bei Sir Maurice Strong, einem schwerreichen UNO-Bürokraten aus Kanada, der vor einem Vierteljahrhundert das IPCC nicht als wissenschaftlichen Ausschuss, sondern als intergouvernmentales politisches Gremium schuf, das dahin gebracht werden konnte, das langfristige UNO-Ziel der Auslöschung der nationalen Unabhängigkeiten und der Schaffung einer Weltregierung zu unterstützen. So haben es im vergangenen Mai auf einem UNO-Gipfel hohe UNO-Offizielle unter Ban Ki-Moons Leitung selbst wieder bestätigt.

Ernsthaft hat dieser Prozess 1988 begonnen, als das IPCC aufgestellt wurde. Kurz darauf erschien an einem besonders heißen, von Al Gore deswegen absichtlich ausgesuchten Junitag, James Hansen vor einem Kongress-Ausschuss in Washington und zeigte eine wild übertriebene Grafik mit einer vorhergesagten globalen Erwärmung für die künftigen 20 bis 30 Jahre. Hansen war einer von Al Gores politischen Weggefährten und finanziell von ihm begünstigt. Im Juni 2008 jedoch, dem 20. Jahrestag der Anhörung, war es global kühler als im Juni 1988. Die globale Erwärmung gab es nur halb so stark wie vorhergesagt.

Beim Rio-Erdgipfel 1992 durften Umweltaktivisten und Weltpolitiker ihre Schau abziehen. Aus jenem Gipfel kam die UN Framework Convention on Climate Change, UNFCCC, die von da an jährliche Konferenzen zum “Klimalwandel” abhielt.

Das Kyoto-Protokoll von 1997 verpflichtete seine Unterzeichner, die nationalen CO2-Emissionen auf die 1990er Höhen bis 2012 zurückzufahren. Die meisten werden das nicht schaffen. Der US-Senat unter dem Vorsitz von Al Gore stimmte mit 95:0 dafür, jeglichen Vertrag von der Kyoto-Art abzulehnen, der nur den Westen binden und den Entwicklungsländern wie z. B. China erlauben würde, CO2 ohne Begrenzung zu emittieren.

Bis zur Bali-Konferenz 2007 gab es ganz geringe Fortschritte: auf jener Konferenz aber wurde eine “road-map” gebastelt, die zu einem bindenden Vertrag auf der Kopenhagen-Konferenz 2009 führen sollte.

Hier ist ein Problem zu nennen. Die Verfassung der USA sieht vor, dass selbst die Präsidentenunterschrift unter einem Vertrag nicht gilt, solange über den Vertrag nicht im Senat debattiert, und zumindest eine Mehrheit von 67 von 100 Senatoren ihn ratifiziert hat.
Jedermann weiß inzwischen, dass nach dem Scheitern der Obama-Regierung mit dem Waxman/Markey-Emissionshandelsgesetz, wo 60 Senatoren mit Schmeicheleien und Drohungen zur Zustimmung gebracht werden sollten, kein Klimaschutzgesetz den Senat passieren wird.

Umso schlimmer, dass sich das Sekretariat nun mächtig übernommen hat. Es glaubt an seine eigene Propaganda, abgesehen von dem kleinen Ärgernis, dass nur ganz wenige öl- und kohlenstoffindustrie-finanzierte Skeptiker mit der Behauptung widersprechen, der „Klimawandel“ wäre gering und harmlos. So hatte das Sekretariat auf seiner eigenen Webseite einen 186-seitigen Entwurf für einen Kopenhagener Vertrag ins Netz gestellt mit dem Vorschlag, dass es sich in eine nicht gewählte Regierung verwandeln wollte mit der unbeschränkten Macht, den Signatarstaaten direkte Steuern aufzuerlegen, ohne parlamentarisches Mandat, ohne Möglichkeit, sich dagegen zu verwahren. Weiterhin, sich direkt in die Umweltpolitik der einzelnen Staaten einzumischen, alle freien Märkte weltweit wegzufegen, und sich selbst als alleinige Steuerungsbehörde für alle Märkte einzusetzen (Kopenhagener Vertragsentwurf, Annex 1, Artikel 36-38). Einige Zitate aus dem Entwurf machen klar, was die UNO anstrebt:

 “Das Konzept der neuen vertragsgemäßen Einrichtung ruht auf drei Grundpfeilern: 

Steuerung;

Fördermechanismus, Finanzmechanismus. … Die Steuerung wird von der Konferenz der Mitgliedstaaten der UNO Framework Convention on Climate Change (FCCC) bestimmt, dazu kommt die Unterstützung eines neuen Hilfsgremiums zur Anpassung, und eines Leitenden Ausschusses, der für die Verwaltung der neuen Gelder und der zugehörigen Vergabeprozesse und Vergabegremien verantwortlich ist. (Kopenhagener Vertragsentwurf v. 15. September 2009, Zi. 38).

Die drei zentralen Machtbefugnisse, die sich die UNO unter dem Deckmäntelchen der „Rettung der Erde“ anzumaßen hoffte, lauteten wie folgt:

“Steuerung” (orig. government):

Dieser Gebrauch des Wortes steht an erster Stelle, um eine Art Weltregierung in jedwedem internationalen Vertrag zu bezeichnen.

“Finanzmechanismus” (orig. financial mechanism):

Der “Finanzmechanismus” ist ein feinsinniger Ausdruck zur Umschreibung einer neue Machtbefugnis der UNO, nämlich den Signatarstaaten unbegrenzte Besteuerungen aufzuerlegen: Besteuerung ohne Volksvertretung, und das in globalem Umfang.

“Vergabemechanismus”(orig. facilitative mechanism):

Dieser Mechanismus hätte zum ersten Mal der UNO die Befugnis übertragen, die Vertragserfüllung direkt und notfalls mit Gewalt bei den Signatarstaaten zu erzwingen. 

Der Vertragsentwurf beschreibt das so: 

“… ein fazilitativer Mechanismus ist als Mittel der Wahl gedacht, um das Konzept, die Akzeptanz und Durchführung der Strategie zu ermöglichen, welcher die Marktgesetze und Regeln und diesbezüglichen Marktkräfte gehorchen sollen.”

In Kürze, es wäre eine neue Weltordnung geworden, mit einer “Regierung”, die über einen “Finanzmechanismus” in Form von unbegrenzten Rechten zur direkten Besteuerung aller Bürger der Welt verfügt hätte, und mit einem “Durchsetzungsmechanismus”, der die Regeln aller vormals freier Märkte unter die direkte Kontrolle der neuen UNO-“Steuerung” gebracht hätte, unterstützt von einer schon jetzt wuchernden Bürokratie.

An keiner einzigen Stelle auf den 186 Seiten des Vertragsentwurfs fanden sich die Worte “Demokratie”, “Wahlen”, “Abstimmung”.

Wie die EU schon gezeigt hat, beendet der Machttransfer von souveränen Demokratien auf supranationale Einheiten die Demokratie selbst. Auf supranationaler Ebene, in der UNO, der EU und in der vorgeschlagenen Weltregierung werden die Entscheidungen von Personen getroffen, die von uns Wählern nicht dafür bestimmt worden sind.

Die Offenlegung des Vertragsentwurfes in den internationalen Leitmedien führte zur Panik in der UNO. Sie gab den Vertragsentwurf auf, noch bevor die Kopenhagener Konferenz  begonnen hatte. Stattdessen bewegt sich die UNO nun gesetzgeberisch in kleinen Schritten, ganz so wie die Europäische Union, mit einer Reihe von aufeinanderfolgenden jährlichen Vereinbarungen. Die letzte davon war das Kopenhagener Einverständnis (Copenhagen Accord). Jede dieser Vereinbarungen transferiert ein bisschen mehr Macht und Wohlstand von den einzelnen Staaten auf eine supranationale Bürokratie. Die vorläufig jüngste wurde in Cancun zum Abschluss gebracht.

Die Europäische Union, die selbst klammheimlich die Demokratie während des vergangenen halben Jh. durch eine Reihe von Verträgen ausgelöscht hat, indem sie in kleinen Schritten immer mehr Macht und Wohlstand von den Händen der gewählten Volksvertreter in die Hände von nicht Gewählten transferiert hat, hat dem Sekretariat geraten, so etwas auch auf globaler Ebene zu machen.

Nachdem sich das Sekretariat in Kopenhagen eine blutige Nase geholt hatte, legte es großen Wert darauf, dies in Cancun nicht noch einmal zu erleben. Deshalb erhielt es die Zustimmung der Deutschen Bundesregierung, 2010 in Bonn eine Reihe von Zusammentreffen abzuhalten, von denen einige für außenstehende Beobachter zugänglich waren, andere fanden in einem komfortablen Landschloss hinter verschlossenen Türen statt. Dort wurde die neue Art der Weltgesetzgebung heimlich zuerst ans Laufen gebracht.

Die chinesische Regierung gierte danach, mitzumischen, und sie stimmte vor einigen Wochen einer weiteren Sitzung in Tientsin zu. Der Zweck dieser fast ständigen internationalen Vergnügungsreisen (die nationale Delegierten amüsieren sich großartig auf unsere Kosten) war, sicherzustellen, dass fast alle Elemente der Cancuner Vereinbarung und vorher abgestimmt und unter Dach und Fach waren. Damit sollte das von vielen Journalisten unermüdlich vorhergesagte Mexikanische Patt verhindert werden.

Genau wegen dieser massiven und teuren Vorbereitung kann die Note des/der Vorsitzenden widerspiegeln, was schlussendlich herauskam und binnen weniger Tage ankündigt werden konnte. Das ist kein Versuchsballon: diese Note drückt aus, was das Sekretariat nun zu erreichen hofft.

Nach dem Kopenhagener Unfall gehen unsere zukünftigen grimmigen Herrscher keine Risiken mehr ein. Sie haben ihre Freunde in den Leitmedien überzeugt, die nun nicht mehr aus ihrem leichtfertigen Glaubensbekenntnis für die Kirche des Klimawandels herauskommen, dass sie die Geschichte vom geringen Erfolg von Cancun und vom nächsten Jahr in Durban herumtönen müssen. Sie müssen wie das Sekretariat darauf achten, ihr Gesicht nicht zu verlieren.

Noch zwei internationale Klimakonferenzen sind beabsichtigt, die letzte 2012 zum 20. Jahrestag des Erdgipfels, wieder in Rio, wo alles anfing. Man will das Sekretariat so mächtig  machen, dass niemand – auch nicht der US-Senat – es wagen wird, den Vertrag von Rio nicht zu ratifizieren. Der beerdigt die Demokratie weltweit und bestätigt Lord Mandelsons jüngste Aussage, dass wir heute in einem post-demokratischen Zeitalter leben. 

Nur über meine Leiche! Das Volk weiß am besten, was ihm nützt. Die Regierenden wissen auch, was gut für sie ist, sie wissen aber nicht immer, was für das Volk gut ist. Und sie müssen immer an den Wahlurnen in Schach gehalten werden.

Wenn es schon eine Weltregierung geben sollte (und mit dem Zusammenbruch der „Wissenschaft vom Klimawandel“ schwinden auch die Voraussetzungen für eine kleine privilegierte Minderheit, die Weltherrschaft zu erringen), dann wird es wesentlich sein, dass die Weltregierung eine gewählte ist, und dass, wie der Artikel 1, Abschnitt 1, der US-Verfassung fordert, „ALLE GESETZGEBENDE GEWALT“ beim gewählten Kongreß und dem Senat liegt, dass niemand Besteuerungsgesetze für die Welt machen darf oder der Welt Steuern auferlegen darf über das hinaus, was eine universell und geheim gewählte Weltregierung beschlossen hätte. [Vgl. Artikel 20, Deutsches Grundgesetz]

Wie können wir, das Volk, das Sekretariat besiegen und die geliebte Demokratie behalten? Ganz einfach, indem wir unsere gewählten Volksvertreter im Einzelnen über den Umfang, die Tragweite und Absichten der Cancun-Vereinbarung informieren.

Die Vereinbarung kann in den USA kein Vertrag werden, weil der US-Senat sie nun nach den Halbzeitwahlen nicht passieren lassen wird. Aber sie kann den Amerikanern immer noch auferlegt werden durch den schwer linkslastigen Obersten Gerichtshof, der überhaupt keine Anstalten mehr macht, juristisch unparteiisch zu sein, und der sehr wohl entscheiden könnten, dass die Cancun-Vereinbarung entgegen dem Willen des Kongresses Bestandteil des US-Rechts wird, weil sie internationales „Gewohnheitsrecht“ wäre.  

Was kann man tun? Senden Sie diese Informationen an Ihre Volksvertreter. Es ist deren  Macht, wie auch Ihre, die beschnitten werden soll; Ihre gemeinsame Demokratie, die untergehen wird, es sei denn, dieser blühende Unsinn würde gestoppt.

Viscount Monckton of Brenchley

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE

Den Originalartikel finden Sie hier. The Abdiction Of The West




Die Klima-Klempner:Geo-Engineering

In der letzten Ausgabe des LAUFPASS[1] („Abdruck hier mit freundlicher Genehmigung der LAUFPASS-Redaktion; Die Original-Arbeit ist erschienen im CUXLAND- Kultur-Magazin LAUFPASS, Bremerhaven, Heft 26 (2010), S. 6-9, hier der Link: wurden erste gesellschaftliche und politische Aspekte von Geo-Engineering aufgezeigt. Ergänzend werden in Folgendem nun die naturwissenschaftlichen Gesichtspunkte der einzelnen Geo-Projekte dargestellt und bewertet.

Definition WIKIPEDIA[2]: “Der Begriff  Geo-Engineering bezeichnet technische Eingriffe in geochemische oder biogeochemische Kreisläufe, etwa um die Klimaerwärmung oder die Versauerung der Meere zu bremsen.“

Mittlerweile gibt es eine umfangreiche Literatur zu dem Thema, mit einem genau so umfangreichen Katalog vorgeschlagener Maßnahmen, von denen die wesentlichen hier vorgestellt und bewertet werden sollen.

Der Heiz-Strahler Sonne …

… erwärmt unsere Erde. Der weit überwiegende Teil der Sonnen-Strahlung erreicht auf direktem und indirektem Wege (Streuung) die Erdoberfläche. Diese erwärmt sich, und gibt fühlbare Wärme (Wärmeleitung) an die bodennahen Schichten der Troposphäre ab. Die Abkühlung erfolgt auf dem gleichen Wege  – durch Wärme-Leitung und auch Abstrahlung.

Nun hat die Natur einige Möglichkeiten auf Lager, die an der Erdoberfläche ankommende Strahlungs-Energie zu verändern: Variationen der Sonnen-Aktivität, Staubeintrag in die Atmosphäre durch Vulkane und Sandstürme, in selteneren Fällen Staub- und Wassereintrag durch Meteor-Einschläge, langzeitige Veränderungen der globalen Bewölkung, ….

Was die Natur vormacht, das glaubt nun auch der Mensch mit Geo-Engineering zu beherrschen, um aktiv in die Gestaltung unseres Klimas einzugreifen. Das Motto dazu lautet neuerdings :  “Wir müssen durch Geo-Egineering unser Klima retten, um der anthropogenen CO2-Erderwärmung gegen zu steuern!“

Schwefel+Staub in die Atmosphäre

Aus der älteren und jüngeren Klima-Geschichte[3] ist bekannt, daß von Vulkanen in die Stratosphäre geblasene Aerosole und Gase dort zu Veränderungen des Strahlungs- und Energiehaushaltes führen. Eine wesentliche Rolle spielt dabei auch Schwefeldioxid, das durch Oxidation in Aerosole, nämlich Sulfate[4] umgewandelt wird. Ein Teil der eingestrahlten Sonnenenergie wird durch diese stratosphärischen Aerosole reflektiert, ein anderer Teil wird absorbiert. Letzteres führt zu einer Erwärmung der Stratosphäre, beides zusammen zu einer Abkühlung der bodennahen Luftschichten (Troposphäre) aufgrund dort erfolgender Strahlungs-Minderung.

Wahrscheinlich war es der Chemiker Paul Crutzen[5], der als erster einen ausführlichen Ansatz für entsprechende menschliche Eingriffe publizierte: Schwefel-Dioxid oder Sulfate in die hohe Atmosphäre einbringen. Dort sollen sich –  analog zum Vulkanismus  – zusammen mit Wassermolekülen viele feine Tröpfchen und letztlich ein dünne globale Wolke bilden, die Sonnen-Strahlung abfängt (Reflektion und Absorption).

Daraus entwickelte die US-Firma Intellectual Ventures[6] neuerdings die Idee, mit Hilfe eines 25 km langen, ballon-getragenen Schlauches Schwefel nach oben zu pumpen, oder Schornsteine von schwefel-emittierenden Fabriken unmittelbar mit Schläuchen in die Stratosphäre zu verlängern.

Noch weiter gehende Ideen entwickelte der Meteorologe Alan Robock[7] von der amerikanischen Rutgers University:

„Wir haben noch keine solche Technologie, aber die Leute denken über eine Flugzeug-Flotte nach, die regelmäßig in die untere Stratosphäre fliegt, um dort das Gas auszusprühen. Eine andere Idee wären Ballons, die mit Helium und Schwefeldioxid gefüllt sind und die man dann oben einfach platzen lässt. Möglich wäre vielleicht auch Artillerie: also Geschosse, die Projektile in die Stratosphäre jagen. Oder man baut einen Turm am Äquator, 20 Kilometer hoch, von dem aus man das Gas hinaussprüht.“??

Doch selbst Robock bleibt kritisch (a.a.O.) : “

Wenn man eine Stratosphären-Wolke geschaffen hat, weiß man noch lange nicht, wie sich diese Maßnahme wirklich auswirkt…“ und weiter “… Diese Maßnahme ist also sehr gefährlich, denn man kann sie nur prüfen, wenn man sie schon zur Anwendung gebracht hat.“??

Das allerdings sehen auch andere Wissenschaftler[8] so: „Der Plan ist beängstigend, weil er unerwartete Folgen haben kann.“

Schirme + Spiegel im All …

…  sind eine andere Variante, in der oberen Atmosphäre Strahlung abzufangen.

So will der Astronom Roger Angel von der University of Arizona im Weltall einen Sonnenschirm aufspannen, genauer gesagt eigentlich 16 Billionen Sonnenschirm’chen. Sein Plan sieht vor, daß an genau dem Punkt zwischen Sonne und Erde, an dem sich die Anziehungskraft der beiden Himmelskörper gegenseitig aufhebt (dem so genannten Lagrange-Punkt), eine Armada von hauchdünnen Siliziumscheiben schwebt (Abbildung1). Die 60 Zentimeter breiten Plättchen sollen in Päckchen zu je einer Million mit zwei Kilometer langen Spezialkanonen ins All geschossen werden. Um die beabsichtigte Schattenwirkung zu erzielen, müssten 20 solcher Kanonen im Abstand von fünf Minuten zehn Jahre lang solche Platten-Container ins All feuern. Auch der verstorbene Physiker Edward Teller, der „Vater der Wasserstoffbombe“, hatte schon die Idee[9], Millionen kleiner Aluminiumballons in der Stratosphäre schweben zu lassen, um Sonnenstrahlung zu reflektieren und abzuschirmen.

Kritiker sind entsetzt[10]: “Mit etwas so entscheidendem und wenig erforschten wie der Sonnenstrahlung herumzuspielen, könnte dramatische und unvorhergesehene Konsequenzen für das Klima auf der Erde haben, warnen sie“.

 

Abbildung 1:  Spiegel im Weltraum

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Reflektorbälle im Meer

Was oben gehen soll, das kann man vielleicht auch unten machen:

Andere Forscher[11] schlugen analog zu den stratosphärischen Experimenten schon Mitte der 1960-er Jahre vor, die tropischen Ozeane mit High-Tech-Müll zu pflastern: Milliarden von reflektierenden Objekten, Tischtennisbällen vergleichbar, sollten die Energie der Sonnenstrahlen von der Wasseroberfläche ins All zurückschicken.

Vielerlei Problemen treten dabei auf, denn auch Kunststoffe altern und veralgen[12]: “Schwimmende Plastikteile werden von den unterschiedlichsten Meeresorganismen besiedelt, die auf diese Weise über weite Strecken in neue Habitate einwandern und unter Umständen als Neozoen bzw. Neophyten erheblichen Schaden anrichten können.“ Von besonderem Interesse bei der hier erörterten Geo-Egineering-Variante ist ein physikalischer Effekt: Die sich derart verändernden Plastik-Oberflächen werden physikalisch schwarz, reflektieren weniger und absorbieren mehr Strahlung. Dann tritt nach einiger Zeit das Gegenteil von dem ein, was beabsichtig ist: Erderwärmung statt Abkühlung!

Versprühen von Meerwasser in die Atmosphäre

Eine große Flotte von Glasfaserbooten[13] soll auf den Ozeanen mit Hilfe von wind-getriebenen Turbinen kontinuierlich Meereswasser in die Atmosphäre sprühen (Abbildung 2). Ziel dabei: Es werden für die Beschleunigung und Verstärkung von Wolkenbildung Milliarden von Kondensations-Kernen (Salz) sowie Wasser und damit potentiell auch Wasserdampf in die Troposphäre geblasen. Wolken in der unteren Atmosphäre wirken abkühlend auf die unteren Luftschichten , im Wesentlichen aufgrund der Reflektion von Sonnenstrahlung an der Wolken-Oberfläche. Auch so soll einer weiteren Erderwärmung entgegen gewirkt werden.

Unbekannt und damit auch unkalkulierbar sind dabei die Auswirkungen auf das Wetter. Die Methode erinnert an die jahrzehnte-langen Versuche der Wetter-Beeinflussung, insbesondere der “Regenmacher“. Alle diese Versuche wurden allerdings wegen weitgehender Erfolglosigkeit weltweit eingestellt. Einer der letzten Versuche dieser Art wurde von den Chinesen anläßlich der Olympischen Spiele 2008 durchgeführt  – ohne erkennbare Wirkung.

Wenn nun jedoch in einem solchen wie oben geplanten “Groß-Versuch“ über riesige Flächen der Ozeane derart in den atmosphärischen Wasserhaushalt eingegriffen wird, so erscheinen unkalkulierbare Folgen für das Wetter möglich.

 

Abbildung 2 : Meerwasser-Versprühung

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Ozean-Oberfläche aufwirbeln

Konzept und Ziel eines solchen globalen Experimentes werden im Wissenschaftsteil der BZ[14] anhand einer Publikation im Fachmagazin Nature so beschrieben:

“Der Chemiker James Lovelock von der University of Oxford und der Astrophysiker Christopher Rapley, Direktor des Londoner Science Museum, wollen das Klima retten, indem sie die Ozeane dazu anregen, mehr CO2 aufzunehmen. Ihr Konzept erläutern sie im Fachmagazin Nature. Lovelock und Rapley planen, zehn Meter dicke Röhren im Ozean zu installieren, die von Schwimmkörpern an der Oberfläche gehalten werden und hundert bis zweihundert Meter senkrecht in die Tiefe reichen. Am oberen Ende jeder Röhre pumpt ein Klappventil, das von der Wellenenergie des Meeres angetrieben wird, das Wasser heraus. Auf diese Weise soll nährstoffreiches Wasser aus der Tiefe an die Oberfläche gepumpt werden. Tiefere Wasserschichten enthalten nämlich Phosphate, Nitrate und Silikate – alles Substanzen, die an der Oberfläche fehlen. Das nach oben gepumpte Wasser löst dort wie ein Dünger eine Algenblüte aus, hoffen die Forscher. Algen verbrauchen beim Wachsen das Kohlendioxid der Luft. Wenn sie absterben, sinkt auch der von ihnen aufgenommene Kohlenstoff mit in die Tiefe. Auf diese Weise könnten der Atmosphäre schon bald große Mengen CO2 entzogen werden, schreiben Lovelock und Rapley.“

Aber es gibt auch Kritik (a.a.O.):

“Andere Wissenschaftler bezweifeln allerdings, dass die Methode tatsächlich funktionieren würde. Zu ihnen gehört der Meeresbiologe Ulf Riebesell vom Kieler Leibniz-Institut für Meeresforschung IFM-Geomar. Zwar räumt er ein, dass die tieferen Wasserschichten jene Nährstoffe enthielten, die an der Oberfläche zu einer Algenblüte führen könnten. Aber in dem Wasser, das nach oben gepumpt wird, befindet sich auch gelöstes Kohlendioxid, erläutert er. Gelangt das Wasser an die Oberfläche, dann entweicht das Klimagas in die Luft. Nach Ansicht Riebesells würde die Methode von Lovelock und Rapley allerdings den natürlichen Kohlenstoff-Kreislauf nicht durchbrechen, sondern ihn nur beschleunigen: Die absterbenden Algen bringen den Kohlenstoff in die Tiefe, dort werden die Organismen zersetzt, das entstehende CO2 löst sich, wird nach oben gepumpt und so weiter. ’Das ist ein Nullsummenspiel’, sagt der Biologe.“

Gedanklich ein ähnlicher Ansatz ist die

Meeres-Düngung zwecks Algen-Wachstum

An der Grenzfläche zwischen Atmosphäre und Ozeanen (“Meeres-Oberfläche“) wird u.a. ständig CO2 ausgetauscht  – in beiden Richtungen. Schiffe streuen nun Mineralien in die oberen Schichten der Meere, zum Beispiel Eisen-Sulfat. Diese regen das Algenwachstum an, was zu einem Entzug von CO2 aus dem Wasser und letztlich auch aus der Atmosphäre führt.

Nach bio-chemische Umsetzungen nehmen die Algen das CO2 als Sediment mit auf den Meeresgrund, und sollen auf diesem Wege CO2 dem natürlichen Kreislauf entziehen, um den Treibhaus-Effekt zu vermindern.

Ein solches Experiment namens “LOHAFEX“ wurde vom Alfred-Wegener-Institut (AWI) durchgeführt. Dazu berichtet das AWI[15] :

“Das LOHAFEX-Team … war von Januar bis März 2009 auf dem Forschungsschiff POLARSTERN unterwegs und verwendete zehn Tonnen gelöstes Eisensulfat, um eine Fläche von 300 km2 im Zentrum eines Ozeanwirbels zu düngen. Binnen zwei Wochen entstand eine Phytoplanktonblüte im eisenreichen Wasser, die danach  –  trotz einer weiteren Düngung  – nicht mehr zunahm.“ … und weiter a.a.O.: “Die Biomassen von anderen großen Phytoplanktonarten, die in Küstengewässern häufig Blüten erzeugen,  wurden durch den Wegfraß der großen Zooplanktonbestände, vor allem der Ruderfußkrebse, in Schach gehalten. … Daher kann angenommen werden, daß die Eisendüngung unter den angegebenen Bedingungen nicht zur erhöhten Einlagerung von Kohlenstoff im Ozean führt.“

Die Nordseezeitung[16] brachte es auf den Punkt: “Als Waffe im Kampf gegen den Klimawandel dürfte der Eisendünger damit wohl ausgedient haben.“

Ohnehin hatte es im Vorfeld des LOHAFEX-Experimente erhebliche Proteste von Umwelt-Organisationen gegeben, die dazu führten, daß das Bundes-Umwelt-Ministerium[17] in einer Presse-Mitteilung noch während des laufenden Experimentes die Genehmigung durch das BMBF massiv kritisierte:

International ist der Ansatz der Meeresdüngung höchst umstritten, da die Wirksamkeit der Methode fraglich ist. So weisen sowohl der Interstaatliche Rat zum Klimawandel (IPCC) als auch der Wissenschaftliche Beirat für Globale Umweltveränderungen (WBGU), das gemeinsame wissenschaftliche Beratungsgremium des BMBF und des BMU, in ihren Gutachten wiederholt darauf hin, dass die Risiken der Meeresdüngung im Hinblick auf die mittelbaren Folgen für die Meeresökosysteme schwer abzuschätzen sind und lehnen diese daher ab. Entgegen den Angaben des BMBF, dass das Projekt reine Grundlagenforschung darstelle, wurde der Projektleiter des AWI in einem „Spiegel“-Interview damit zitiert, dass die Einwände gegen die Eisendüngung “weggefegt“ würden, wenn die Ohnmacht gegenüber dem Klimawandel sichtbar würde.

Damit setzt sich der verantwortliche Projektleiter des AWI für dieses Experiment in einen klaren Widerspruch zum Bundesforschungsministerium. Das Plädoyer des AWI-Projektleiters zur Meeresdüngung hat maßgeblich zu der kritischen internationalen Reaktion beigetragen. Auch in indischen Medien wird das Projekt teilweise als Einstieg in einen lukrativen Milliardenmarkt gesehen. Für das BMU ist es ein fataler Ansatz, den Klimawandel durch ein Herumdoktern an unseren Meeresökosystemen aufhalten zu wollen. Dieses unwissenschaftliche Denken hat unmittelbar in die Klimakrise geführt und taugt nicht zu ihrer Lösung. Einig sind sich BMU und BMBF, daß Eisendüngung kein Instrument der Klimapolitik werden darf. Hier gilt es nun, diese Grundhaltung auch dem AWI zu vermitteln und nicht in Indien oder anderswo auf der Welt die Vision eines Zukunftsmarktes „Meeresdüngung“ aufkommen zu lassen“… das war’s dann wohl mit ’Kohlenstoff gab ich für Eisen’.

Kalkung der Meere

Neuerdings gibt es eine neue Variante der Klimahysterie: Die “Versauerung der Meere“.

Der Säuregrad von Wasser wird mit dem pH-Wert definiert, wobei es sich um den negativen Exponenten der Wasserstoff-Ionen-Konzentration handelt: pH 6,9 und weniger ist “sauer“, 7 ist neutral und ab 7,1 basisch. Nun heißt es neuerdings in der wissenschaftlichen Literatur[18] und auch in allen Medien : “Die Ozeane werden immer sauerer …. So ist der pH-Wert im Oberflächen(!)-Ozean seit Beginn der industriellen Revolution um 0,1 Einheiten gefallen …“ –  und zwar angeblich von 8.2 auf 8.1 (Abb.2 a.a.O.).

Dazu muß man wissen:

(1)  Von einem ganzzahligen pH-Wert zum nächsten ändert sich die H-Ionen-Konzentration um eine Zehnerpotenz, eine Zehntel Einheit ist also keine dramatische Änderung,

(2)  Ob pH 8,2 oder 8,1  –  von “sauer“ kann unter chemischen Aspekten überhaupt keine Rede sein, denn wir liegen in jedem Falle um mehr als eine Zehnerpotenz oberhalb von “neutral“ (pH7) im basischen Bereich,

(3)  Es ist meist ausdrücklich von den Ozean-Oberflächen die Rede, was sich in Tiefen von mehreren Kilometern ändert, das ist nahezu unbekannt,

(4)  Die Ozeane überdecken rund 350 Mill. km2 der Erde, und sind im Mittel ca. 4 km tief. So war es früher wie heute sowohl an der Oberfläche als auch in der Tiefe nur stichprobenartig möglich, diesen pH-Wert zu messen. Da mutet es schon mehr als fragwürdig an, wenn nun neuerdings pauschal über eine “Ozean-Versauerung“ spekuliert wird.

(5)  Der pH-Wert der Meere differierte schon immer je nach Breitengrad ganz erheblich, und zwar zwischen 7,8 und 8,2[19]. In den Nordmeeren ist der pH-Wert am höchsten, dort wird CO2 absorbiert: hohe Löslichkeit im kalten Wasser. Am Äquator ist er am niedrigsten, dort wird CO2 emittiert: geringere Löslichkeit im warmen Wasser. Die Meeresströme tragen ebenfalls zur Ungleichverteilung bei.

Zusammenfassend darf man den Physik-Professor Horst-Joachim Lüdecke[20] zitieren:

“Die Werte <7 kennzeichnen den saueren und die Werte >7 den basischen Bereich. Meerwasser ist mit seinem Wert von 7.9-8,25 basisch, von ’Versauerung’ zu reden ist daher blanker Unsinn.“

Trotzalledem:  Eine neue Variante von Klima-Ängsten wird geschürt.

D a z u  “muß“ angeblich sofort gehandelt werden. Und das will man auch unverzüglich, indem man die Ozeane kalkt:

Kalk (Kalzium-Oxid) soll in die Ozeane eingebracht werden, wo daraus in Verbindung mit Wasser Kalziumhydroxid (Löschkalk) entsteht. Dieser wiederum verbindet sich mit dem im Wasser gelösten Kohlendioxid und bildet Karbonatsalze, die letztendlich als Sediment zum Meeresgrund absinken. Wie sich das alles auf die angeblich bedrohte Fauna und Flora in den Meeren auswirkt, das ist allenfalls hypothetisch bedacht. Möglicherweise fängt mit der Kalkung die Bedrohung erst an.

Dazu schreibt der FOCUS[21] :

“So zeigten Berechnungen einiger US-Forscher, welche Anstrengungen die Kalkung der Ozeane erfordern würde, die der Londoner Tim Kruger vorschlägt. Dafür würden 1000 bis 1500 Kubikkilometer Kalkstein benötigt, was ungefähr dem Volumen des Mars-Mondes Deimos entspricht oder auf der Erde den Dolomiten. Um diese Menge abzubauen, müßten 333 000 mittelgroße Kalksteinbrüche ein Jahr lang arbeiten. Blieben 50 Jahre Zeit, um die Aufgabe zu vollenden, brauche es immer noch 6700 Steinbrüche. Dies sei nicht im Entferntesten möglich, schlußfolgern sie, zumal viel Kalkstein auch für andere Zwecke gebraucht werde.“

 

CO2 unter die Erde : CCS

Die meisten Geo-Klima-Experimente sind noch Theorie, aber eines wird bereit erprobt: CO2 abscheiden, komprimieren, verflüssigen und in die Erde zu verpressen. Dieses Verfahren wird als “Carbon Capture and Storage  – CCS“ bezeichnet. Dazu werden geeignete geologische Schichten (“Formationen“) unter der Erde gesucht  –  für  sogenannte “CO2-Endlager“. Der Übergang zwischen gasförmigem und flüssigem CO2 (“kritischer Punkt“)[22] liegt bei rund 30°C + 74bar. Um auf der sicheren Seite zu ein, soll bei einem Druck von bis zu 250 bar verpreßt werden. Das birgt Risiken:

Durch den hohen Druck kann es über dem CO2-Lager zu Verwerfungen, Rissen, Sickerungen, Ausgasungen … kommen. Bei Ausgasungen  gibt es erhebliche Gefahren. Zunächst: Bei Konzentrationen unter 0,1% (1000 ppm) und folglich auch dem derzeitigen atmosphärischen Wert von knapp 400 ppm (0,04%) gibt es keinerlei gesundheitlich Gefahren. Das traf auch in den vergangenen 800.000 Jahren zu, als die CO2-Konzentration zwischen 180 und 280 ppm schwankte, wobei im Auf+Ab der Eis- und Warmzeiten CO2 der Temperatur folgte[23], und nicht – wie oft behauptet  –  umgekehrt.

Die ausgeatmete Luft enthält übrigens 4000 ppm (0,4%) CO2[24], folglich die 10-fache CO2-Konzentration der eingeatmeten Luft! Gesundheitliche Probleme entstehen erst bei dem etwa 100- bis 1000-fachen der eingeatmeten atmosphärischen CO2-Konzentration:

“ Eine Anreicherung in der Luft von 5 % führt zur Bewußtlosigkeit, ein Anteil von 8 % innerhalb kurzer Zeit zum Tode.“[25] Es gibt andererseits Hinweise[26], daß bei langzeitiger Einwirkung bereits unter 10.000 ppm (unter 1%) Probleme für Lebewesen eintreten können.

An anderer Stelle in der Fachliteratur[27] heißt es dagegen: Kohlendioxid ist ein nicht brennbares und nicht explosives Gas, das schwerer als Luft ist (Anm.: ca. 1,5-mal), in höheren Konzentrationen die menschliche Gesundheit gefährdet und erst bei Luft-Gehalten von 20% und mehr zum Tode führt“. Letztlich geht es darum: Alle diese Konzentrationen können erreicht werden, wenn CO2 aus Endlagern unkontrolliert an die Erdoberfläche austritt und sich bei wind-schwachen Wetterlagen in Tälern und Mulden sammelt:“… dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.“[28] Ein solches Ereignis trat m August 1986 am Nyos-See in Kamerun auf: Etwa 1700 Menschen und viele Tiere kamen zu Tode[29].

Die Gefahr der Fehleinschätzung selbst bei gutachterlich zunächst als unbedenklich eingestuften CO2-Lagerstätten ist jedoch mittelfristig noch viel größer[30]: “Zu den Gefahren einer Technologie addieren sich Risiken durch fehlerhaftes Vorgehen, menschliches Versagen oder gewinnorientierte Risiko-Abschätzung. Man sollte aus dem ’Fall Asse’ schlußfolgern, daß Vorhersagen über potentielle Gefahren sich nach Jahrzehnten oft als falsch erweisen können.“

 

Abb. 3

Demo in Südtondern (Schleswig-Holstein)

http://www.shz.de/nachrichten/top-thema/article//ccs-entwarnung-in-schleswig-holstein-1.html

Daher gibt es zunehmend Widerstand gegen derartige Endlager[31]: “Im vergangenen Jahr hat er (Anm.: Reinhard Hassa/VATTENFALL) zunehmend Gegenwind gespürt. Nachdem RWE angekündigt hatte, Speicher in Schleswig-Holstein errichten zu wollen, formierte sich zunächst der Bürgerprotest, dann entzog die CSU im Bundestag dem fertigen Gesetzentwurf ihre Zustimmung … Ministerpräsident Harry Carstensen (CDU) warnte davor, das kostenlose CO2-Klo der Republik zu werden.“

Auch an anderen geplanten CCS-Standorten scheiterte die Planung von CO2-Endlagern am gemeinsamen Widerstand von Bevölkerung und Kommunalpolitikern, so in Brandenburg (FAZ a.a.O.) und im Cuxland[32].

Auch die bisherigen Erfahrungen in anderen Ländern[33] mit CCS lassen nichts Gutes ahnen:

“Erfahrungen vermittelt das Sleipner-Ölfeld in der Nordsee. Seit 1996 werden jährlich eine Million Tonnen CO2 hineingepumpt. Seither breitet sich die Gaslache unterirdisch aus und wandert mit einem Meter pro Tag seitwärts … Der Druck im Boden hat sich über die Injektionsstelle hinaus deutlich erhöht. Dadurch können … haarfeine Risse im Erddeckel entstehen. Es gibt keinen unterirdischen Speicher, der zu hundert Prozent dicht ist. Man muß sich mit möglichen Leckagen auseinander setzen.“

Projekt schwarze Erde

Zunächst ein Zitat aus dem FOCUS-Magazin[34]: “Die Kritik am Machbarkeitswahn hindert die Forscher nicht, immer wieder neue Ideen zur Planetengestaltung zu entwickeln. Der neueste Vorschlag lautet ’Terra preta’ (portugiesisch = „schwarze Erde“) …“. Im weiteren berichtet der FOCUS darüber, daß die Briten Craig Sams und Dan Morrell weltweit auf 2,5% der Ackerflächen schnell wachsende Hölzer anbauen wollen, um diese dann zu verschwelen und die Holzkohle in den Boden einzubringen. Dadurch soll ein erheblicher Teil des bei der Fotosynthese gebundenen CO2 im Boden gebunden werden. Dieses Verfahren wollen die beiden genannten Initiatoren sowohl in der Grafschaft Sussex als auch im südamerikanischen Belize erproben. Für diese Idee hatte auch bereits der NASA-Forscher Jim Hansen bei Präsident Obama geworben.

Der FOCUS (a.a.O.) zieht folgendes Resumè: “Daß Plantagenhölzer wie Eukalyptus einen enormen Wasserverbrauch haben, die lokalen Ökosysteme verändern, heimische Arten verdrängen und die Plantagen biologisch verarmen, ficht die Erdingenieure nicht an – vom Erhalt der Primärwalder ganz zu schweigen. Wiederum wird der Irrsinn solcher Ideen deutlich.“

Physikalisch gibt es für das Projekt noch weitere kontra-produktive Effekte:

(1) Wälder wirken wegen erhöhter Strahlungs-Absorption “erwärmend“,

(2) Beim Verbrennen der Wälder wird (neben CO2) Wärme erzeugt,

(3) Eine “Schwarze Erde“ vermindert die Strahlungs-Reflektion der Erde (Albedo), mit der Folge: “Global Warming“ !

Luft-CO2 in Zement binden

Diese Idee entwickelte der Chemiker Brent Contstantz[35] von der kalifornischen Stanford University. Dabei soll CO2 aus Kraftwerks-Abgasen durch Meerwasser geleitet werden, wo nach chemischen Umsetzungen Karbonate entstehen. Nach Abschätzungen von Brent Constantz wird pro Tonne Karbonat eine halbe Tonne CO2 gebunden. Dann wird der Karbonat-Schlamm getrocknet und zu Zement verarbeitet. Bis 2010 soll die erste Anlage dieser Art in Betrieb gehen. Schon die derzeitige konventionellen Zement-Produktion erfordert bekanntermaßen einen aberwitzigen Energieverbrauch. So darf man gespannt in, wie die Energie-Bilanz und damit die wahre CO2-Bilanz bei dem neuen Verfahren ausfällt.

Kontroverse Debatte

Die Erde ist kein Labor, sondern unser unersetzbarer Lebensraum. GEO-Experimente können zuvor nicht im Labor ausprobiert werden, sondern stets wird unmittelbar der “Ernstfall“ geprobt  – bei negativem Ausgang gibt es kein “ZURÜCK“ !!

So sieht das z.B. auch Prof. Gerhard Schulze[36]:

“Im Klimadiskurs betrachten einige Diskurs-Teilnehmer die Erde als reparaturbedürftige Maschine, die sie durch Geo-Engineering wieder in Ordnung bringen wollen: von allen guten Geistern verlassene Klimaklempner, die Vulkanausbrüche simulieren und Partikel in die Atmosphäre schleudern würden, um die Temperatur zu senken.“

Oder der Physik-Professor Knut Löschke[37]:

“Anstatt … Milliarden und Abermilliarden zu verschwenden, um CO2-Abgase in Bergbaustollen zu vergraben … braucht es etwas anderes: Eine Rückkehr zur wissenschaftlichen und … politischen Vernunft. … Denn eines ist sicher: Es wird herauskommen, daß die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind, und daß alle darauf bauenden Argumente und Folgerungen falsch sind.“

Und die Süddeutsche Zeitung[38]: “ … befindet sich Geoengineering auf dem besten Weg, um Spielball einzelner Staaten oder finanzkräftiger Organisationen zu werden.“

Das alles hindert Prof. Schellnhuber[39] (PIK),  einen der Haupt-Alarmisten der Klima-Debatte nicht, den STAR-WARE zu propagieren:

“…darüber debattieren, ob man nicht eine Art Star-Ware gegen den Klimawandel führen muß , also massives Geo-Engineering betreiben … Einbringen von Schwefelladungen in die Stratosphäre, massive Eisendüngung der Ozeane und vieles mehr … am Krieg gegen den Klimawandel wird bereits gearbeitet.“

F a z i t  :

Hier genügt es, eine zusammenfassende Wertung des FOCUS[40] anzuführen :

“Weiter drohen politische Verwerfungen … Wer soll die Hände am Thermostaten der Erde haben? Es ist unwahrscheinlich, daß sich die Welt auf ein optimales Klima einigen kann. Was geschieht, wenn es Russland ein wenig wärmer haben will, Indien aber ein paar Grad kühler? Ganz zu schweigen von den zusätzlichen Treibhausgas-Emissionen durch die massenhaften Flugzeugstarts, die auch an den Erdölreserven der Welt zehren. Andere Forscher lassen an solchen Projektideen kein gutes Haar. Die Pläne, das Erdklima nach eigenem Gutdünken zu gestalten, seien größenwahnsinnig und vermutlich gar nicht durchführbar. Zudem wisse niemand, wie sich solche Eingriffe auf die Ökosysteme des Planeten auswirken.“


[1] Hack the Planet; LAUFPASS Nr.25 (2010), S.6-7

[2] Wikipedia: Geo-Engineering

[3] Bengtsson, L.: promet, H.4 (2004), S.191

[4] P. Bissolli, Natw.Rdsch., H.9 (1997), S.343

[5] CRUTZEN, P.: Albedo Enhancement by Stratospheric Sulfur Injections, Zschr. Climatic Change, 2006

[6] Wikipedia

[7] http://www.dradio.de/dlf/sendungen/forschak/1115602/

[8] http://www.spiegel.de/spiegel/0,1518,425979,00.html

[9] http://www.geo.de/GEO/technik/60186.html

[10] http://sciencev1.orf.at/science/news/109319

[11] http://www.geo.de/GEO/technik/60186.html

[12] Plastikmüll in den Weltmeeren, Natw.Rdsch. H.8 (2010), S.425, Abb.2

[13] Steven Levitt, Stephen Dubner: Superfreakonomics. Harper Collins, New York 2009

[14] http://www.berlinonline.de/berliner-zeitung/archiv/.bin/dump.fcgi/2007/0927/wissenschaft/0020/index.html

[15] Das Eisendügungsexperiment LOHAFEX, AWI-Report 2008/2009, S. 46-50

[16]  NZ, 23.03.09, S.20, Polarstern kehrt aus Antarktis zurück

[17] http://www.bmu.bund.de/pressearchiv/16_legislaturperiode/pm/42974.php

[18] Naturw.Rdsch., H.11 (2008), S. 597-580

[19] CD Römpp Chemie Lexikon, Version 1.0, Stuttgart/New York, Georg Thieme Verlag, 1995

[20] Prof.Dr.H.-J.Lüdecke: CO2 und Klimaschutz, Bouvier (2010), S.126

[21] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[22] (http://de.wikipedia.org/wiki/Kritischer_Punkt_Thermodynamik)

[23]  http://www.geocraft.com/WVFossils/stomata.html

[24] A. Nitsch: Klimawandel, CO2-Ausstoß und die öffentliche Meinung, Neue Landwirtsch., 5/2009, S.56

[25] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[26] Dr. Albrecht Nitsch, Bremervörde, pers.Mitt., 2010

[27] Natw.Rdsch., H.8 (2010), S.417

[28] Prof. Dr. C.O. Weiß:>Rückkopplung im Klimasystem der Erde; http://www.eike-klima-energie.eu/news-anzeige/rueckkopplung-im-klimasystem-der-erde/

[29] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[30] Im Untergrund herrscht keine Sicherheit, Umwelt-Magazin WATERKANT, Sandstedt, H.1 (2009), S. 8-10

[31] FAZ, 01.04.2010, S.12, “Alles unter die Erde“

[32] SoJourn. 24.01.2010, S.15: CO2-Lager abgewendet, EON darf im Cuxland nicht suchen

[33] S. Haszeldine, Univ. Edinburgh, sowie GFZ Potsdam in Handelsblatt: Unterirdische Klimaretter, 18.02.2010, S.20,

[34] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[35] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[36] G. Schulze, Schriftenreihe VONTOBEL-Stiftung, Nr. 1920, Krisen, Zürich, 2010, S.41

[37] Gefährliches Nichtwissen, FTD, 02.07.2010

[38]  SZ, 5./6.06.2010, Wer verstellt den globalen Thermostaten?

[39] “Manchmal könnte ich schreien“ ; DIE ZEIT, Nr.14, 26.03.09, Dossier S.17

[40] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

Dipl. Meteorologe K.E. Puls EIKE Pressesprecher

Der Artikel aus der Zeitschrift Laufpass kann als pdf-Anhang heruntergeladen werden.

Related Files




Bericht aus Cançun: Nein, wir haben keine Bananen!

Dr. Roy Spencer und ich aßen gemeinsam, während die Wellen des Atlantiks dem langen und sandigen Strand hier in Cancún entgegenrauschten. Es gab Camarones im Kokosnussmantel. Passenderweise sind die Krabben im Spanischen nach dem britischen Premierminister benannt worden, dem wahrhaftigsten Gläubigen der New-Age Religion der -Kirche.

Cameron, oder  "Dave", wie er gerne genannt werden möchte, war außerordentlich vorsichtig, seinen blinden Glauben an die hitzigen Einfältigkeiten der Prognostiker des modernen Fatalismus gegenüber seinen Anhängern in der Nicht-Konservativen Partei solange zu verheimlichen, bis sie ihn als ihren Führer wählten. In seiner ersten Rede als Oberste Krabbe machte er gegenüber den kriecherischen Medien jedoch unmissverständlich klar, dass die Rettung des Planeten bei ihm in der Tat allerhöchste Priorität genieße.

Ich hatte eher darauf gehofft, zu den gerösteten "Daves" eine Flasche Château Cameron Sauternes zu bekommen, die sicherlich sehr gut zum Essen gepasst hätte. Mein nobler Freund und einzigartiger Hochland-Nachbar Lord Pearson of Rannoch – bis vor kurzem noch der beliebte Führer der United Kingdom Independence Party, die Großbritannien gerade von denselben Tentakeln nicht gewählter, supranationaler Bürokratie befreit, mit denen der Klimaausschuss der Vereinten Nationen gerne die ganze Welt vereinnahmen würde – reicht diesen wohlschmeckenden Dessertwein immer zum Essen, und murmelt beim Einschenken die Worte "“A taste of Château Pointless?” (in etwa "ein sinnloser Hauch von Chateau")

Château Sinnlos steht jedoch nicht auf der Weinliste, hier, in diesen grauenvollen und maroden Betonbunkern, die dann amüsanterweise auch noch  genannt werden, bei denen es sich jedoch vielmehr um einen der abstoßenderen Aspekte handelt, welcher den wunderbaren Strand von Cancún auf Meilen ruiniert.

Die stalinistische Grausamkeit der Architektur erinnert eher an einen Witz, der unter britischen Auswanderern die Runde macht, wenn sie an der griechischen Küste ihren Mastika schlürfen:“I say, I say, I say, old boy, remind me of the Cypriot Greek for ‘concrete box’.” “Can’t say I remember that one, Carruthers.” (Dieses Wortspieö ist für den Übersetzer nicht adäquat übersetzbar)

"Ich sage, ich sage, ich, ich sage, alter Junge, sie erinnern mich an das zypriotische Griechisch für" Beton-Schachtel ‚. "
"Kann ich nicht sagen, dass mich ich daran erinnere, Carruthers."

 [Im übertriebenen Bauern- Akzent] "LagShooree veellaa!"

Also verzeihen Sie Señor: Kein Château Cameron. Ja kein Château irgendwas. Dr. Spencer und ich entschieden uns deshalb den Bananen-Daiquiri zu probieren. Nach gut 20 Minuten –das ist ja hier die Manaña-Republik – kam der Chefkellner an unserem Tisch vorbei und erklärte, unsere Daiquiris wären in einer Minute da. Kaum hatte er sein ehrgeiziges Versprechen abgegeben, kam bereits der Weinkellner vorbeigesaust und erklärte, dass es keine Bananen-Daiquiris gäbe, weil – Sie haben es sicherlich schon erraten – . "Wir haben keine Bananen!"

Ach ja, das sind Leiden, die wir Ihretwillen, werter Leser, erdulden, während wir den Planten vor jenen retten, die beabsichtigen den Planeten zu retten. Wir mussten uns stattdessen mit eisigen Margaritas begnügen. „Mmmh.“ – wie Malcom Pearson sagen würde, wäre er nicht so schlau gewesen, lieber in Davos aufzuschlagen.

Dr. Spencer, mein kultivierter Essbegleiter, gehört zu einer kleinen, couragierten Gruppe angesehener Wissenschaftler, die vor der neuen Religion nicht katzbuckelten, und aufgrund ihrer Unbotmäßigkeit auch noch nicht gefeuert worden sind. Mit großer Ruhe trägt er sein tiefgründiges Wissen nach außen, und es stört ihn überhaupt nicht, ein Jahr lang an komplexen, schwierigen Forschungen für eine einzige wissenschaftliche Abhandlung zu arbeiten, von der er weiß, dass sie sich am Ende als umstritten herausstellen wird.

Seine letzte Forschungsarbeit veranschaulichte, dass die Temperaturreaktionen, von denen der Zwischenstaatliche Ausschuss über Klimaänderungen (IPCC) annimmt, sie würden die ursprünglich durch CO2 verursachte Erwärmung verstärken, quasi bei jeder Rate negativ sind, was die Erwärmung abmildert, die dadurch angeblich verursacht werden soll.

Im besten Falle, so die Schätzung von Dr. Spencer, dürfte es bei einer Verdopplung der CO2-Konzentration – die in diesem Jahrhundert auftreten kann, außer die üblichen Verdächtigen kommen damit durch, die Ökonomien der westlichen Länder herunterzufahren – zu einer harmlosen Erwärmung von 1 Grad Fahrenheit (ca. 0,5 °C) kommen, und nicht von 6 Grad Fahrenheit, wie seitens des IPCC vorhergesagt wurde.

Dr. Spencers Ergebnisse wurden vor ein paar Monaten veröffentlicht, von den Massenmedien jedoch völlig ignoriert. In den Medien wurde stattdessen über eine Neuformulierung der IPCC-Position durch einen Wissenschaftler berichtet, der die Auswirkungen des El Niño für die verzerrten Temperaturaufzeichnungen verantwortlich machte, und sorgsam in einem Satz um die Ergebnisse Spencers herummanövrierte.

Vergangenes Jahr veröffentlichte der herausragende Wissenschaftler Professor Richard Lindzen – den ich  nenne, da er über die Jahre hinweg so viele meiner im Nebel umherstochernden, ungenügenden Fragen über die Klimawissenschaft beantwortete – eine außerordentliche wissenschaftliche Arbeit, in der gezeigt wird, dass der Anteil der die Atmosphäre verlassenden Strahlung, welcher die Satelliten erreicht und in den Weltraum entweicht, mehr oder weniger genauso hoch ist wie seit jeher.

Alles in allem werden die Treibhausgase nicht in der Atmosphäre eingeschlossen – zumindest keineswegs in dem Ausmaß, wie uns dies der IPCC glauben machen möchte.

Da die Strahlung in den Weltraum entweicht, genauso, wie dies auch in der Vergangenheit immer der Fall gewesen ist, kommt es auch nicht zu einer derart starken Erwärmung, wie vom IPCC angenommen wird. Professor Lindzen geht bei seiner Schätzung davon aus, dass eine Verdopplung der CO2-Konzentration eine Erwärmung von rund 1,3 Grad Fahrenheit mit sich brächte, was auch der Einschätzung von Dr. Spencer nahe kommt.

Daraufhin kam es innerhalb von wenigen Monaten zu einer wild formulierten und vorsätzlich verletzenden Gegenschrift, die von einem der berühmten Klimagate-E-Mail-Autoren verfasst wurde. Es handelte sich hierbei um eines dieser langweiligen Papiere, in denen auf ein oder zwei Mängel in Professor Lindzens Analyse hingewiesen wird, ohne dass der Autor ehrlich genug ist, um zu dem Schluss zu kommen, dass diese Fehler an der Schlussfolgerung von Professor Lindzen überhaupt nichts ändern. Die Diskrepanz zwischen den Voraussagen des IPCC und dem, was die Satellitendaten zeigen, war so massiv, dass die pedantischen Forderungen der Klimagate-E-Mail-Autoren nach mehr Genauigkeit völlig unnötig sind.

Nichtsdestotrotz fand Professor Lindzens ursprüngliche Forschungsarbeit in den Medien genausowenig Erwähnung wie die Arbeit von Dr. Spencer, wohingegen über den Versuch der Widerlegung berichtet wurde.

Ein weiteres Beispiel: Ich traf Dr. David Douglass, einen Physikprofessor an der Rochester University im US-Bundesstaat New York. Diese sehr ruhige Seele – einer der charmantesten Wissenschaftler, die heutzutage im Bereich Klima aktiv sind – verfasste vor zwei Jahren eine Arbeit, in der seine zuvor veröffentlichten Forschungsergebnisse bestätigt wurden. In diesem Papier wies er auf eine weitere Diskrepanz hin, die es zwischen den computermodellbasierten Vorhersagen des IPCC und den unbequemen Wahrheiten der beobachtbaren Realität gibt.

Laut einer Abhandlung eines der Klimagate-E-Mail-Autoren, die vom IPCC zustimmend im Vierten Sachstandsbericht herangezogen wurde, sagten die jämmerlichen Klimamodelle voraus, dass ausschließlich die durch den Menschen verursachten Treibhausgasemissionen für die  verantwortlich zu machen seien, und es zu einer Erwärmung der oberen Luftmassen in den Tropen käme, welche die bodennahe tropische Erwärmung um das Zwei- bis Dreifache übersteigen würde.

Zum Leidwesen der IPCC-Theorie hatten die realen Beobachtungen hier wieder einmal die Unrichtigkeit dieser Annahmen veranschaulicht. 50 Jahre an Messungen in der oberen Atmosphäre mithilfe von Radiosonden, Wetterballons und in jüngerer Zeit auch durch Satelliten zeigten überhaupt keine Unterschiede bei der Erwärmungsrate zwischen bodennahen und höheren Bereichen. In dem Forschungspapier von Professor Douglass wurde darauf hingewiesen, dass der Mensch für den überwiegenden Teil der Erwärmung, die in den vergangenen 50 Jahren beobachtet werden konnte, aufgrund dieser Beweise gar nicht verantwortlich sein kann.

Innerhalb von wenigen Monaten wurde die Arbeit von Professor Douglass durch genau jenen Klimagate-E-Mail-Autor angefochten, der ursprünglich die Existenz der nicht vorhandenen Erwärmung in  der oberen Troposphäre der Tropen behauptet hatte. Da jedoch keines der Dutzenden von Temperaturdatensätze aufzeigen konnte, dass es  in den oberen Luftmassen der Tropen gibt, war das Klimagate-Team gezwungen, einen neuen Temperaturdatensatz zu kreieren.

Die Klimagate-E-Mails zeigten, dass Professor Douglass, auf den in den Korrespondenzen 71 Mal Bezug genommen wird, von , wie sie sich selbst nennen, abgrundtief gehasst wurde. Die E-Mail-Schreiber hatten auf den Redakteur des Fachmagazins, an das Douglass seine Arbeit zur Veröffentlichung übermittelt hatte, massiv eingewirkt, und übten Druck auf ihn aus, um die Veröffentlichung solange hinauszuzögern, bis sie ihren Versuch eines Widerspruchs zusammengefrickelt hatten.

Wieder einmal wurde die Forschungsarbeit von Professor Douglass seitens der Massenmedien ignoriert, die stattdessen lieber über die Gegenschrift berichteten.

Hier offenbart sich auch eine der zentralen Boshaftigkeiten des Modus Operandi des IPCC. Jedesmal, wenn ein Wissenschaftler eine Forschungsarbeit veröffentlicht, die den Kern der klimaextremistischen Anschauung des IPCC bloßstellt – und diese Art der für den IPCC verheerenden Forschungsarbeiten werden in weitaus höherer Zahl veröffentlicht, als gemeinhin angenommen wird – kommt rasch einer aus der kleinen und verderbten Gruppe der wahrhaft gläubigen Wissenschaftler daher, deren Identitäten so überraschend durch die Klimagate-E-Mails enthüllt wurden, und veröffentlicht eine Widerlegung.

"Aber welche Boshaftigkeit denn?", könnten Sie jetzt vielleicht fragen. 

Die Boshaftigkeit liegt hier in der Art, wie der IPCC vorgeht. Der IPCC führt überhaupt keine eigenen wissenschaftlichen Untersuchungen durch. Das einzige, was bei den IPCC-Berichten gemacht wird, ist, dass ein gigantischer Sachstands- und Überprüfungsbericht erstellt wird, bei dem die vom IPCC gefundenen Daten veröffentlichter wissenschaftlicher Berichte und Literatur aufgegriffen werden.

Dieser Ansatz verlangt es vom IPCC jedoch nicht nur über die wissenschaftlichen Arbeiten zu berichten, welche die politische Anschauung des IPCC stützen, sondern auch über einige der Arbeiten, die dies nicht tun – ansonsten wäre ihre klimaextremistische Panikmache dann doch ein wenig zu offenkundig.

Für die Extremisten ist es daher von entscheidender Bedeutung, jede ausreichend verheerende wissenschaftliche Arbeit zu bestreiten, welche die Fehlerhaftigkeit der Computermodelle des IPCC aufzeigt, damit der nachfolgende Sachstandsbericht diese kritischen Arbeiten neutralisieren kann, indem festgehalten wird, dass diese widerlegt wurden.

Dass die Gegenschrift voller Fehler ist und auf schlechter wissenschaftlicher Arbeit beruht, spielt hierbei überhaupt keine Rolle. Der Autor des jeweiligen Kapitels braucht lediglich ihre Existenz zu erwähnen, muss jedoch nicht einräumen, dass es sich dabei bloß um einen Haufen Unsinn handelt.

Danach sind auch die Massenmedien in der Lage zu berichten, dass die ursprüngliche Arbeit widerlegt worden ist (deren Existenz zuvor noch nicht einmal Erwähnung fand), und diese Widerlegung durch die achtbare Heilige Schrift des IPCC selig gesprochen wurde.

Es gibt einen aufschlussreichen Vorfall, der zeigt, was passiert, wenn ein Wissenschaftler eine Arbeit verfasst, die der offiziellen Position kritisch gegenübersteht und genau vor der Abschlussfrist veröffentlicht wird, bis zu der Forschungsarbeiten von den IPCC-Arbeitsgruppen im neuen Sachstandsbericht noch berücksichtigt werden.

Professor Ross McKitrick, der das absurde Hockeyschläger Diagramm zerlegte, mit dem man vorgibt aufzuzeigen, dass es die Mittelalterliche Warmzeit gar nicht gab, veröffentlichte eine weitere Arbeit, in der die Fehler in den offiziellen Temperaturaufzeichnungen vernichtend als unrichtig bloßgestellt wurden.

Seine von ihm dabei angewandte Methode war außerordentlich genial. Er zeigte einen statistisch signifikanten Zusammenhang zwischen den Veränderungen der Temperaturdaten von Bodenmessstationen und dem wirtschaftlichen Wachstum der Regionen, in denen sich diese befinden.

Wäre der urbane Wärem-Insel-Effekt von den für das Zusammentragen dieser Temperaturdaten Verantwortlichen ausreichend berücksichtigt worden, hätte es einen derartigen Zusammenhang jedoch gar nicht geben dürfen.

Die zwangsläufige Schlussfolgerung musste daher lauten, dass das Wachstum der industriellen Aktivität in der Nähe zahlreicher Temperaturbeobachtungsstationen nicht ausreichend mitberücksichtigt wurde und die wirkliche Erwärmungsrate am Boden in den vergangenen 50 Jahren gerade einmal ein wenig über der Hälfte von dem lag, was die offiziellen Daten zeigten.

Professor McKitrick veröffentlichte seine Arbeit kurz vor Ablauf der Frist für die Erstellung des Vierten IPCC-Sachstandberichts 2007. Keiner der Climategate-E-Mail-Autoren hatte noch genügend Zeit, die Arbeit anzufechten. Der IPCC erwähnte die Forschungsarbeit zähneknirschend und fügte hinzu, dass man der Aussage des Papiers nicht zustimme. Der IPCC war jedoch nicht in der Lage, auch nur einen einzigen wissenschaftlichen Grund anzuführen, warum man sich gegen die Aussagen des Papiers aussprach.

Hätte man ein nette und passende Gegenschrift parat gehabt, dann wäre der IPCC auch in die Lage gewesen, seine Voreingenommenheit zu vertuschen, und die neue Religion wäre aufgrund des Umstandes, dass man auf eine (keine Anerkennung verdienende) Anfechtung hätte verweisen können, wieder einmal bestätigt worden und unbefleckt geblieben.

Hier in Cancún beginnen jetzt zahlreiche Jünger aus der Kirche zu begreifen, dass das Spiel aus ist. Die Wissenschaft verschafft sich gerade Geltung, die Wahrheit ist raus, und der Schrecken hat nun ein Ende. Für diese frommen Gläubigen wird es nun immer wichtiger, behaupten zu können, niemand wäre in der Lage gewesen zu wissen, dass der IPCC so viele fundamentale Fehler gemacht hat, von denen hier nur einige wenige Erwähnung fanden.

Die Stimmung ist gedämpft, ja sogar trauervoll. Der nazifizierte Kopenhagener Triumphalismus grüner Banner und politischer Slogans – zum Beispiel  – mit dem jedes öffentliche Gebäude behangen war, und die kommunistischen Aufmärsche entlang des jetzt überflüssig gewordenen dänischen Parlaments, bei denen erstmals seit dem Fall der Berliner Mauer wieder rote Flaggen mit den marxistischen Symbolen Hammer und Sichel getragen wurden, fehlen hier in Cancún völlig.

Unter den weniger dummen Delegierten beginnt sich langsam die verdrießliche und düstere Erkenntnis breit zu machen, dass sie vielleicht, aber nur vielleicht, völlig daneben liegen. Also wird gerade im Stillen und in aller Eile an einer Ausstiegsstrategie gebastelt.

Ungeachtet dessen wird der Fluchtplan natürlich auch das Element der fortwährenden und zunehmenden Verunglimpfung des kleinen Jungen beinhalten, der es wagte, mit dem Finger auf den Herrscher zu zeigen, und zu erklären, dass dieser nackt sei.

Dr. Spencer und ich werden hier in ein paar Tagen eine Pressekonferenz abhalten. Ich wette darauf, dass einer dieser Typen von den Massenmedien eine Frage stellen wird, die darauf abzielt, uns beide in einem schlechten Licht darzustellen (man sehe bspw. hier in "Die Zeit Online" -Anmerkung der Redaktion):

Es ist immer traurig, wenn eine Religion stirbt. Und es ist eine Religion – oder vielmehr ein Aberglaube der allerkindischsten Art. Die Präsidentin der Konferenz, Frau Figueres aus Costa Rica, gab dem Klimagipfel die unwissenschaftliche Note, als sie das Treffen mit einem Gebet an den Mondgott der Mayas eröffnete. Frau Figueres dachte zweifelsohne, dass dies für die wahren Gläubigen eine nette Art sei, sich bei den mexikanischen Gastgebern zu bedanken.

Wie dem auch sei, ich muss mich um Wichtigeres kümmern. Ich muss auf den Markt und dem Hotel ein paar Bananen besorgen

 den Originalbeitrag finden Sie hier: Christopher Monckton, SPPI-Blog, 07.12.2010

Mit Dank an den Blog Propagandafront für die Übersetzung




Phoenix Runde Teil III: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Fak­tencheck!

So wurde jedes Thema angesprochen und jede Menge Heilsversprechen abgegeben. Auf die Idee, dass die Armen durch eigene Anstrengung reich werden könnten, wie es uns nicht nur die BRIC Staaten oder die asiatischen Tiger seit Jahrzehnten vormachen, kam kaum einer in der Runde.  Mittel zum Zweck, um die Umverteilung zu erzwingen, ist die Angst vor dem Klimawandel, induziert durch CO2, einem Klimawandel, wie er nur in den Klimamodellen vorkommt. Daher schauen wir uns jetzt die Klimamodelle an.

Zuvor noch der Einfachheit halber der Einblick in die Sendung, die wir hier mit freundlicher Genehmigung von PHOENIX zeigen. Zur Erinnerung: Bei den Originalzitaten sind die Minuten in Klammern angegeben, in denen man diese Zitate (nicht immer wortgetreu) hören kann.

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

7. Wie gut sind die Klimamodelle?

Ausschließlich auf Computer gestützte Klimamodelle werden eingesetzt, um damit Prognosen  über die zukünftige Klimaentwicklung zu errechnen. Wie gut sind nun die Ergebnisse dieser Prognosen? Halt sagt da Prof. Bott (13:16) „Niemand prognostiziert, man entwickelt Scenarien! Es wird nichts vorhergesagt!“. Nichts vorhergesagt, Projektionen? Was denn dann?

Unter den anderen Teilnehmern im Studio, so der allgemeine Eindruck, konnte niemand so recht den Unterschied zwischen den beiden Begriffen erkennen. Wenn das IPCC aber, bestätigt durch Prof. Bott, sagt, dass bei weiterem CO2 Ausstoß die Erde mächtig warm wird, dann soll das keine Prognose sein?  Schauen wir nach:

Was sind Prognosen, was sind Szenarien?

Prognose (aus dem griech. „das Vorwissen) ist definiert als eine Vorhersage, also eine Aussage über Ereignisse, Zustände oder Entwicklung in der Zukunft! So schreibt es das in dieser Hinsicht unverdächtige Wikipedia.

Über Szenario steht dort:

Szenario (Plural Szenarios) oder Szenarium (Plural Szenarien) steht übertragen im Allgemeinen für den ausgedachten oder ausgerechneten Entwurf einer Situation oder eines Ablaufes, spezieller für:

* den szenisch gegliederten Entwurf eines Erzählwerks, siehe Handlung (Erzählkunst)

* eine Stufe der Verfilmungsvorbereitung in der Filmkunst: Filmszenario

* die Planung eines möglichen Zustands in der Zukunft, siehe Szenariotechnik

*  die Bewertung einer Softwarearchitektur nach einem bestimmten Verfahren.

„Ausgedacht“ oder „ausgerechnet“ steht da. Doch leider passt keines der obigen Beispiele so richtig auf die IPCC-Szenarien, so wie sie uns präsentiert werden. Wenn es sich also wirklich um Szenarien statt Prognosen handelt, dann passt noch am Besten das erste Beispiel des ..szenisch gegliederten Entwurf eines Erzählwerks.. oder evtl. besser …die Planung eines möglichen Zustands in der Zukunft..“ Was hier stört ist das Wort „Planung“. Evtl. könnte man sagen: „Berechnung eines möglichen Zustands in der Zukunft“.

Nun, falls es das wirklich ist, dann kann man – ohne zuviel Phantasie einzusetzen – schnell eine schier unendliche Zahl von möglichen Zuständen in der Zukunft = Szenarien berechnen: Z.B, ob wir von einem Meteor getroffen werden, im Lotto gewinnen, vom Auto überfahren werden, eine glücklich oder unglückliche Ehe führen werden, etc. etc. (Einen klugen Beitrag zu dieser Frage hat der Physiker Peter Heller geschrieben, sie finden ihn hier, mit Dank an Leser Bombosch)

Oder auch, ob und wie sich die Mitteltemperatur der Erde durch CO2 Emissionen erhöht! Das setzt voraus, dass ich in mein Modell einbaue, dass z.B. das CO2 der große Treiber dieser Erhöhung ist und zusätzlich, dass eine geschlossene Theorie des Klimas zur Hand ist. Die erste Voraussetzung, in Gestalt der Wasserdampfrückkopplung, ist in alle Klimamodelle eingebaut, sie ist sozusagen der Motor, obwohl kein Nachweis für die hier wirkenden Rückkoppelungsmechanismen erbracht wurde (eine Reihe von Autoren haben auf Grund von Messungen das Gegenteil hergeleitet, z.B. Lindzen, Choi, Spenccer, Paltridge, Arking). Und eine in sich geschlossene Theorie des Klimas existiert ebenfalls nicht, dafür sind u.a. die Ungewissheiten und die sich daraus ergebenden Ungenauigkeiten noch immer viel zu groß.

Nicht ohne Grund schreibt daher das IPCC im 3. Bericht TAR:

“ In der Kli­ma­for­schung und -Mo­del­lie­rung soll­ten wir be­ach­ten, daß wir es mit ge­kop­pel­ten nicht­li­ne­a­ren cha­o­ti­schen Sys­te­men zu tun ha­ben und des­we­gen sind Lang­zeit­prog­no­sen von zu­künf­ti­gen Kli­ma­zustän­den nicht mög­lich“ (Third As­sess­ment Re­port, Sec­tion 14.2.2.2)”

Dabei wurde noch nicht mal der Mangel einer geschlossenen Theorie des Klimas erwähnt. Wie gut also sind die Klimamodelle? Hier herrschte große Uneinigkeit unter den Experten:

Bott (11:56) (Limburg hat sich) …lustig gemacht über Modelle: (sie) sind aus strikten und logischen Gleichungssystemen entwickelt, die absolut korrekt sind. 12:44; aus mathematischen Gesetzmäßigkeiten heraus. …sind (jedoch) hochgradig nichtlinear 13:03; deswegen nicht vorhersagbar. Ist aber nicht schlimm. 13:16 Niemand prognostiziert, man entwickelt Szenarien! Es wird nichts vorhergesagt!

Limburg: 11:56 ausführlicher Widerspruch bis 15:25

Bott übersieht, dass die mathematische-logische Korrektheit eines numerischen Modells überhaupt nichts darüber aussagt, ob es in der Realität zutrifft. Sie ist lediglich eine der Voraussetzungen, die unabdingbar erfüllt sein müssen, mehr nicht. Als stellvertretendes Gegenbeispiel seien die unzähligen – mathematisch-formal vollständig korrekten – volkswirtschaftlichen Modelle genannt, die es noch niemals fertig gebracht haben, die komplexen volkswirtschaftlichen Mechanismen befiriedigend zu beschreiben (die Pleite des LTCC-Hedgefond lässt grüßen). Beim Klima ist es nicht anders. Uns ist kein Modell bekannt, das ohne massive Manipulationen die Klimavergangenheit wiedergeben konnte. Selbst mit so „einfachen“ Phänomenen, wie dem El Nino oder der NAO sind Klimamodelle bereits hoffnungslos überfordert. Kein Modell hat es bis heute geschafft, diese Oszillationen genau zu beschreiben oder gar ihren Eintritt vorherzusagen. Und diese Fähigkeit ist sozusagen als die „leichtere Übung“ unter vielen anderen anzusehen. Mit den Wolken, den klimawirksamsten Gebilden überhaupt, sind Modelle hoffnungslos überfordert. Modelle sind für klimatologische Detailprobleme wertvolle Hilfsmittel, für Weitergehendes kann man sie aber nicht ernst nehmen.

Ein Vergleich der Realität mit den „Szenarien“ erlaubt eine einfache Überprüfung der Qualität dieser Modelle. Für Prognosen wie Szenarien sollte gelten, dass je kürzer die Zeit nach der „Vorhersage, desto sicherer die Aussage ist.

Aus dem IPCC AR4 (4. Abschätzungsbericht von 2007) stammt die folgende Grafik.

Abbildung 9 zeigt verschiedene Szenarien (Prognosen?) A“ bis „Constant“ aus dem AR4 von 2007. Der rote Kringel zeigt die letzten 10 Jahre.

Dazu der Klimamodellierer Mojib Latif vom Geomar in Kiel in der Bild-Zeitung vom 20.09.07 Seite 13:

„Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen „

Gemäß unsreren o.g. Ausführungen ist dies eine Übertreibung (um das Wort „Lüge“ zu vermeiden). Modelle haben definitiv noch nie die Klimavergangenheit befriedigend wiedergeben können!

Abbildung 10. Hier wird der errechnete Verlauf (als Durchschnitt der beiden Satellitenmessungen UAH und RSH ) der globalen Mitteltemperatur seit 9 ½ Jahren ab der Jahrtausendwende gezeigt. Dieser Anstieg über grob 10 Jahre, auf das gesamte Jahrhundert hochgerechnet, beträgt 0,1 K pro Jahrhundert. Das IPCC veröffentlicht in seinen „Szenarien“ dagegen einen Jahrhundertanstieg zwischen 2,4 bis 5,3 K pro Jahrhunder [1]. Also das 24 bis 53 fache! Es muss also noch eine Menge passieren, um die IPCC-Prognosen Wirklichkeit werden zu lassen, wir sind gespannt. Damit wäre auch gleich die Frage mitentschieden, ob es nun immer wärmer wird, oder nicht. Einen netten Artikel dazu finden Sie auch hier!

In der Sendung sagte

Professor Bott dazu (25:10) es ist nicht richtig, dass sich die Erde nicht mehr erwärmt hat in den letzten…10-15 Jahren. Das ist einfach absolut falsch: Einwurf Limburg:-…sagt Phil Jones (25:13)…Bott ..wer das sagt, weiß ich nicht.. Limburg: der  IPCC Chef Hauptautor. Keinerlei Erwärmung seit 1995. (sagt Phil Jones) Modelle haben versagt: CO2 steigt an. (18:3) Bott (25:31) WMO sagt 2010 ist das 3. wärmste Jahr seit Aufzeichnung der Wetterdaten. Limburg: (Das sind).. zwei paar Schuhe!

Eine kurze Anmerkung zu der immer wieder verbreiteten Behauptung von den soundso vielen wärmsten Jahren über (beispielsweise) 100 Jahre in den soundsovielten letzten Jahren: in der Tat ergibt die einfache Kombinatorikberechnung eine extrem geringe Wahrscheinlichkeit für diese Häufung – ist also etwas Schreckliches passiert? Keineswegs: Man muss nur ein wenig weiter in der Zeit zurückgehen und sich z.B. die zuverlässige Hohenpeißenberg-Temperaturkurve ansehen. Hier findet man, wenn etwa die 100 Jahre von 1790 bis 1890 betrachtet werden, eine ebenso unwahrscheinliche Häufung von kalten Jahren am Ende dieses Zeitraums. Woran diese Häufungen liegen, kann mit Hilfe der Persistenz von Temperaturreihen erklärt werden (s. beispielsweise Vortrag von Prof. Lüdecke auf der 3. Berliner Klimakonferenz). Wir wollen aber diesen recht technischen und keineswegs einfachen Punkt hier nicht weiter vertiefen.

Der IPCC Leitautor und bekannte Modellierer Kevin Trenberth schrieb im Oktober 11, 2009: email 1255352257 an den Hockeystick Erfinder Michael Mann:

“The fact is that we cannot account for the lack of warming at the moment and it’s a travesty that we can’t.”

„Fakt ist, dass wir für die fehlende Erwärmung (s. Grafik Abb 10)  keine Erklärung haben und es ist ein Hohn das wir sie nicht haben“

Man beachte das Datum. Es war vor einem Jahr im Oktober. Wie gut sind also die Szenarien bzw. Prognosen ohne Vorhersage? Der Leser möge selbst entscheiden.

8. Schuld und Sühne

Die anderen Diskutanten waren sich trotzdem weitgehend einig, dass

(1) eine massive Klimabedrohung existiere,

(2) diese vom Menschen verursacht sei und

(3) dazu noch der Westen die Schuld an dem drohenden Desaster trüge wegen seines erfolgreichen kapitalistischen Wirtschaftsmodells.

Dazu sagten:

Frau Henneberger (15:55) Historische Klimaschuld, THG Ausstoss massiv senken, und Gelder bereitstellen. Herr Fischer: (24:16) Vorbild: Müssen beweisen das Wirtschaftswachstum und CO2 Ausstoß korrelieren; nicht miteinander zusammenhängen.

Herr Limburg: ( 21:10 Schuld und Sühne?), (21:25)   Es geht ums Geld; Edenhofer Zitat, Modelle zeigen Anstieg, in der Realität zeige sich kein Anstieg.

Wie der bisherige Faktencheck Teil I und Teil II erkennen ließ, lässt sich keiner der von den Diskutanten Henneberger, Fischer und Bott erhobenen Vorwürfe bestätigen. Eine „Schuld“ der westlichen Staaten an irgendeinem Klimawandel, festgemacht an der vermuteten Temperatursteigerung durch anthropogenes CO2, lässt sich nicht erkennen. Dann sollte der Richterspruch lauten: Wo keine Schuld, da keine Sühne. Doch darauf wollte sich bisher keiner einlassen, obwohl Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [2]( Neue Zürcher Zeitung) Interview ganz deutlich erklärte was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Und direkt oder indirekt stimmten ihm alle Gäste zu. Klingt deutlich nach einer Art neuem kommunistischem Manifest. Früher wurde der Mensch ausgebeutet. Als das nicht mehr klappte, weil das Proletariat nach Mallorca flog, anstatt den Herren Marx und Engels endlich den Gefallen zu tun zu verelenden, musste ein neues Opfer her. Nun wird vom Menschen eben die Natur ausgebeutet (wobei wir hier sogar in vielen Teilen zustimmen, denn was die Menschheit mit dem Fischbestand der Weltmeere und dem Gebrauch dieser Meere als Müllkippe macht, kann man schon als „Ausbeutung“ bezeichnen. Leider scheren sich die Klima-Aktivisten keinen Deut um diese realen Ausbeutungsverbrechen, (wie leicht dies derzeit, ist zeigt der Milliarden Dollar Betrug in Dänemark) sie halten es lieber mit imaginären Klimaschädigungen). Am unverblümtesten stimmte die Aktivistin Henneberger zu, verhaltener die Herren Bott und Fischer.

Alle bejahten die Notwendigkeit der unmittelbaren starken Absenkung der weltweiten CO2 Emissionen mit einer starken Vorreiterrolle Deutschlands, wie sie im Energiekonzept der Bundesregierung festgeschrieben worden ist.

Prof.Bott: (36:15) Man redet von 80 % Reduktion um das 2 °C Ziel zu erreichen. An dem Ziel sollten wir wirklich festhalten…(36:29) Limburg : das bringt 2/1000 Grad weniger Erwärmung rechnerisch. Die 80 % Reduktion: Bott: Da ist sooo nicht meine Meinung! Limburg: Wir haben es gerechnet..“

Die Frage war also nicht mehr, ob das CO2 überhaupt etwas bewirkt, sondern, dass wir in jedem Falle absenken müssen, um 80 % oder sogar mehr, wie die Befürworter forderten.

Was bringt dann die deutsche Vorreiterrolle? Limburg behauptet, ca. 2/1000 °C  weniger Erwärmung: Stimmt das?

Wir haben bei EIKE diese Frage mehrfach untersucht. Und je nachdem, ob man den nackten THE ohne Wasserdampfverstärkung berechnet oder mit massiver Wasserdampfverstärkung, wie es das IPCC in allen seinen „Szenarien“ vornimmt, ergeben sich die folgenden Werte .

Tabelle

CO2 Absenkung bezogen auf 1990 in Deutschland

80 % 95 %
Mit IPCC Verstärkung 0,0072 °C 0,0086 °C
Ohne IPCC Verstärkung 0,0017 °C 0,0020 °C

Der vereinfachte Rechenweg dazu kann hier eingesehen werden : „Klassenarbeit für die undefinedObertertia“. Auch wenn man – wie Prof. Bott – von der nicht nachzuweisenden Wasserdampfverstärkung ausgeht, bleiben läppische acht tausendstel Grad oder knapp neun tausendstel Grad Celsius. Wahrlich ein großer Unterschied !

Viel Zeit wurde den Fragen zu den „Erneuerbaren“ gewidmet, sowie der wiederum künstlich erzeugten Angst vor dem Ende der fossilen Energien. Moderator Kähler (30:00) Stichwort regenerative Energien.

Zu den „Erneuerbaren“ haben wir schon viel bei EIKE veröffentlicht. Hier finden Sie die jüngsten Veröffentlichungen im Brief an Bundesumweltminister Röttgen, oder in der Stellungnahme von EIKE zum Energiekonzept hier und hier.

Nicht neu und immer wieder gern gebracht, ist die Annahme, dass die fossilen Energien nicht mehr lange zur Verfügung stehen. Die folgende Auswahl kennzeichnet die Stimmung:

(32:48) Henneberger-sehr viele Studien belegen 100 % Erneuerbare sind möglich. (33:07) Uran ist endliche Ressource (Limburg ..5000 Jahre); Kohle ist endliche Ressource; (Limburg 4000 jahre) Henneberger  (33:13) innerhalb der nächsten 100 Jahre.. Peakoil rückt immer näher.. (Limburg 150 Jahre)….Henneberger  33:26 …Was sie behaupten ist eine komplette Lüge 34:26 Wir in den Indsutrieländern haben die Verantortung für … wir haben den Klimawandel verursacht..

Es ist hier nicht der Platz, auf den von Frau Henneberger verzapften Unsinn im Detail einzugehen. Stellvertretend sei nur die Ressourcenfrage der Kernbrennstoffe genannt, die in den EIKE-News „Die Renaissance der Kernenergie I und II“ detailliert behandelt wude. Hier zeigt sich, dass sogar ohne auf Uran im Meerwasser zuzugreifen, mit den Kernkraftwerken der kommenden Generationen und mit der Transmutationstechnik Kernbrennstoff für mehrere 10.000 Jahre zur Verfügung steht.

Die Kernaussage aller Teilnehmer mit Ausnahme von Limburg lautete dagegen: Weil die fossilen und kerntechnischen Energieressourcen so begrenzt sind, müssen wir schon heute (gezwungen werden) auf diese zu verzichten und voll auf „Erneuerbare“ setzen. Also schon wieder wird eine unbewiesene Behauptung eingesetzt, um damit Angst und mit der Angst Willfährigkeit zu erzeugen. Eine uralte Taktik, wie sie seit Urzeiten angewendet wird, und wie sie leider immer noch funktioniert.

Sicherheitshalber nutzt man dazu gleich drei Ängste,

* einmal die Angst vor der Kernkraft, mit dem schönen Nebeneffekt des Abschaltens von intakten sicheren Kernkraftwerken, die billigen Strom erzeugen, wenn wir ihn brauchen und nicht dann, wenn es dem Wind oder der Sonne passt.

* die Angst vor dem Klimakiller CO2, die genutzt wird, um Kohlekraftwerke – von denen allein China derzeit etwa jede zweite Woche eines eröffnet – als schmutzig zu verteufeln und als Klimakiller dazu, die uns erfolgreich daran hindert, preiswerte und hocheffiziente Kohlekraftwerke zu bauen, welche die in riesigen Mengen vorhandene Kohle billig verstromen. Wer immer noch von „schmutzigen“ Kohlekraftwerken redet, dem sei eine Exkursion ins Kohlekraftwerk Lippendorf bei Leizig empfohlen, um sich kundig zu machen.

* Und dann die Angst vor der mit dem Begriff „Peakoil“ umschriebenen – sehr kurzfristigen – (behaupteten) Erschöpfung von Gas und Ölvorräten (der Club of Rome lässt grüßen), die uns erfolgreich dazu veranlasst, über den indirekten Zwang des unsozialen EEG das ebenso unbrauchbare wie maßlos überteuerte und völlig konkurrenzunfähige Produkt „Ökostrom“ zu kaufen.

Was hat es nun mit den Reichweiten der dieser Ressourcen auf sich.  Die folgende Grafik gibt darüber Auskunft.

Abbildung 11. Reichweite verschiedener Energieträger in Jahren.

Die Abbildung 11 spricht für sich selbst. Deutlich erkennbar die lange Reichweite aller dieser Energieträger, auch wenn hier eine statische Betrachtung angesetzt wurde. Hinzu kommt, dass mit der Suche nach weitere Lagerstätten noch gar nicht so richtig begonnen wurde, wie ständig neue riesige Funde onshore (shale gas) und offshore Öl  & Gas fast im 3 bis 4 Wochentakt beweisen.

Den Teilnehmern der Phönix-Diskussion sei eine wichtige Erkenntnis ins Stammbuch geschrieben, die den meisten Menschen völlig unbekannt zu sein scheint. Wie lange eine Ressource (Energie, wertvolle Metalle usw.) der Menschheit zur Verfügung steht, hängt nicht vom realen Vorkommen dieser Ressource, sondern vom technischen Wissen der Menschheit ab. Die Steinzeit endete nicht damit, dass es keine Steine mehr gab, sondern dass Metalle an ihre Stelle traten.

Bleibt uns Autoren daher nur noch der weihnachtliche Wunsch:

Fürchtet Euch nicht!

Michael Limburg

Prof. Dr. Horst-Joachim Lüdecke


[1] Quelle: SPPI Monthly CO2 Report July 2010 Volume 2 Issue 7

[2] NZZ «Klimapolitik verteilt das Weltvermögen neu»




Der 7-Milliarden-CO2-Betrug

Er wurde möglich, nachdem die Dänische Institution zur Regelung des Emissionshandels die Forderung fallen gelassen hat, die Kohlenstoffhändler zu registrieren. Für den Kohlenstoffhandel wurde kurzfristig eine für-alle-umsonst-Regelung zugelassen, indem man scheinbar das Interesse an Kohlenstoff als Ware aufblähte. Dieser Schuss ging jedoch sofort nach hinten los, als sich der ganze Handel als Schwindel herausstellte.

Mit Unterstützung laxer Regeln wurde die dänische Registratur zur größten der Welt, mit 1256 registrierten Händlern, von denen die meisten gar nicht existierten. So gab beispielsweise ein registrierter Händler als seine Adresse einen Parkplatz in London an. Nach der Entdeckung des Schwindels wurden 1100 dieser Pseudohändler aus der Liste der registrierten Händler entfernt, so dass auf dem dänischen Markt kaum noch Händler übrig blieben.

Die dänische Ministerin für Klima und Energie Connie Hedegaard, die das illusorische Wachstum des Kohlenstoffmarktes übersehen hatte, wurde seitdem auf den Posten eines EU-Klima-Kommissars berufen. Sie weilt derzeit in Cancun, um dort die Interessen der EU zu vertreten und für Schritte zu werben, die die internationale Gemeinschaft unternehmen sollte, um die Glaubwürdigkeit des Kohlenstoffhandels wiederherzustellen.

Auf diesen Vorgang, von dem fast nichts berichtet wurde, wies mich ein norwegischer Leser, Geir Hasnes, hin, der einen der raren Berichte in der Presse in Norwegen übersetzt hat. Seine Übersetzung findet man hier.

LawrenceSolomon@nextcity.com
Lawrence Solomon ist geschäftsführender Direktor von Energy Probe und Autor von The Deniers.

Mehr: http://opinion.financialpost.com/2010/12/05/lawrence-solomon-the-7-billion-carbon-scam/#ixzz17YCm7dpo

Übersetzt von Chris Frey für EIKE

Ergänzender Link: Telepolis 

Der CO2-Emissionshandel ist tot



Phoenix-Runde Teil II: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck!

Zum besseren Vergleich der Argumente finden Sie hier nochmals das Video (mit freundlicher Genehmigung von PHOENIX)

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

4. Der Glaube an statistisch gesicherte historische Wetteraufzeichnungen.

Moderator  Kähler sprach es aus: (Wir haben) …seit Ende des 19. Jh. statistisch gesicherte Wetteraufzeichnungen.(4:52). Bott ging sogar noch einen Schritt weiter und sprach von Proxydaten, die noch frühere Aussagen zur (Welt)-Temperatur zulassen würden.

Wie ist der Sachstand?

Basis jeder Naturwissenschaft ist die Messung, dann folgt die Klassifizierung, dann die Zuordnung, dann die Hypothese – die wird dann zur Theorie, wenn genügende Beweise vorliegen -, dann die Vorhersage, gemäß dieser Theorie. Wir sind in Phase 1, der Messung der Temperatur in der Luft. Seit über 300 Jahren wird in Europa die Lufttemperatur gemessen. Anfangs aus Neugier, kurze Zeit später schon aus dem wissenschaftlichen Erkenntnisdrang heraus, zu finden, wie sich denn das Wetter entwickelt, das alle Lebensumstände von Mensch und Tier von Anbeginn der Zeit an stark beeinflusst. Oder auch, um zu ermitteln, ob sich hinter den gemessenen Zeitreihen Gesetzmäßigkeiten verbergen, die es u.U. erlauben würden, Wettervorhersagen zu machen. Schönwiese [Schönwiese, 2000] datiert die Thermometererfindung auf 1611 und schreibt sie – bewusst vage – Galileo zu. Zur damaligen Erfassung schreibt er: Die ersten regelmäßigen Messungen [1] und Aufzeichnungen der Lufttemperatur erfolgten in Florenz und Pisa von 1653 bis 1670 durch die Academia del Cimiento. Deren Messungen waren für ihre Zeit schon sehr fortgeschritten…. Im 18. Jahrhundert und weitestgehend auch im 19. Jh. waren die Thermometer sehr ungenau, ihre Aufstellbedingungen unheitlich (wie auch heute) und die Messergebnisse mit hohen Unsicherheiten behaftet. Für meteorologische Zwecke bedingt brauchbar, für klimatologische Zwecke unbrauchbar. Mit der Einführung des Assmanschen Aspirationsthermometers 1892 war wenigstens ein hinreichend genaues Messinstrument geschaffen, das unter gleichen Umständen Vergleichbares lieferte. Es wurde daraufhin weltweit eingesetzt, allerdings erst an wenigen Stellen.

Abbildung 6 nach Peterson et. al [Peterson, 1997]: Die Zeitreihe zeigt die Zahl von Mess-Stationen, deren Daten nach verschiedenen Mittelwertalgorithmen zur Temperaturbestimmung in die GHCN Datenbank einbezogen wurden (schwarze Line) und, darin enthalten, solchen (gestrichelte Linie) Stationen mit Max/Min Ablesung.

Die Abbildung 6 zeigt die Anzahl der Stationen, die vom IPCC (hier aus  Peterson et. al  1997) in seine Durchschnittsberechnung der Welttemperatur einbezogen wurden. Allein schon aus der absoluten Zahl der Stationen ist  zu erkennen, dass eine weltweite Abdeckung nicht gegeben sein kann. Noch nicht einmal der Landmasse allein, die nur 29 % der Eroberfläche ausmacht. 40 % der Landmasse befinden sich auf der Nordhalbkugel, nur 20 % auf der Südhalbkugel. Diese ist also messtechnisch, von wenigen Orten abgesehen, ziemlich unbekannt.

Allein damit ist noch nichts über die Qualität der Messungen gesagt. Die war trotz des Assmann-Thermometers mäßig bis sehr mäßig. Am Besten charakterisiert diese Qualität  der Meteorologe und CRU Programmierer Ian (Harry) Harris. Sie sind in der Datei „HARRY_READ_Me.txt.“ der Cimategate Emails enthalten. Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009 [2].

Harry ist der Spitzname, mit dem der Klimatologe Ian Harris seine Arbeit zeichnete. Ian Harris, ein Gläubiger der Erwärmungshypothese und Anhänger der Grünen, wurde in der CRU als Programmierer eingesetzt, der die vielen Datensätze aus den weltweiten Messstationen zur statistischen Auswertung und Zusammenfassung aufbereiten sollte. Da es sich um Millionen, zum guten Teil nur verstümmelt vorliegende Daten handelt, ist das nur per Computer und geduldigem Zusammentragen von allerlei Zusatzdaten möglich. Hierzu gehört dazu eine gehörige Portion Spürsinn und wie wir sehen werden, auch „Kreativität“:

„Aber was sind dies alles für monatliche Dateien? Ich weiß nichts, alles undokumentiert, wohin ich auch schau, da sind Dateien, keine Infos darüber, was sie sind, anders als ihre Namen. Und das ist sinnlos …“ (Seite 17)

– „Es ist Pfusch über Pfusch über Pfusch.“ (18)

– „Oh, Gott, wenn ich dieses Projekt erneut starten und tatsächlich über diesen  Fall mit der geerbten Müll-Programm-Suite streiten könnte.“ (37)

– „Bin ich der erste Mensch, der den Versuch macht, die CRU-Datenbanken in Ordnung zu bekommen?!“ (47)

– „Soweit ich sehen kann, macht dies die (Wetter-) Stations Zählung völlig sinnlos.“ (57

– „Cobar AIRPORT AWS (Daten aus einer australischen Wetterstation) können nicht im Jahr 1962 begonnen haben, sie sind erst seit 1993 in Betrieb!“ (71)

– „Was zur Hölle soll hier passieren? Oh yeah – es gibt kein „angenommenes ich kann es machen“. Also tat ich es: -)“ (98)

– „Du kannst dir nicht vorstellen, was mich dies kostete – tatsächlich dem Operator zu erlauben, auf falsche WMO (World Meteorological Organization)-Codes zu verweisen. Aber was soll man sonst  in solchen Situationen machen? Gerade im Umgang mit einer „Master“-Datenbank zweifelhafter Herkunft … “ (98)

– „Also, mit einem leicht zynischen Achselzucken habe ich noch die atomare Option – jedem möglichen WMO Treffer zuzuordnen, und den Rest einfach auf neue Stationen zu verteilen… mit anderen Worten, was man bei der CRU sonst auch tut. Dies erlaubt es, schlechten Datenbanken unerkannt zu bleiben und guten Datenbanken zu schlecht zu werden … “ (98-9)

– „Ach F — das. Es ist Sonntag Abend, ich habe das ganze Wochenende gearbeitet, und gerade als ich dachte, es fertig zu haben, treffe ich noch auf ein weiteres Problem, auf dem der hoffnungslos  Zustand unserer Datenbanken basiert.“ (241).

– „Das ganze Projekt ist so ein Durcheinander …“ (266)

Und auf Sachen wie diese wollen die Politiker unsere Wirtschaft die Luft sprengen und  unseren Lebensstandard abzusenken, um „das Klima“ zu reparieren?

Sind die verrückt?

Soweit die Kommentare des leicht überfordert wirkenden Harry. Selbstverständlich sind das noch keine Beweise dafür, dass die gemeldeten Temperaturdaten alle unbrauchbar waren. Das sind sie wahrscheinlich nicht. Auf jeden Fall sind diese Seufzer und Flüche aber ein klarer Hinweis darauf, dass die vermeintlich gesicherten, weltweit oft nur spärlich verfügbaren Temperaturdaten, mit sehr viel größeren Unsicherheiten (sprich Fehlermargen) behaftet sind, als es uns die nur scheingenaue  Temperaturkurve des IPCC (erstellt aus eben diesen Daten, wie oben beprochen) glauben machen will. Wer nähere Auskünfte dazu haben will, wende sich an den Autor dieser Zeilen.

5. Ist die Mehrzahl der Klimaforscher wirklich von der anthropogenen Erwärmung überzeugt?

Dieser Überzeugung waren alle Teilnehmer der Runde – mit Ausnahme des Autors:

Fischer: (Limburg vertritt) Splittermeinung (9:37) (sie ist) nicht repräsentativ, von div. Gremien überprüft 1000-ende Wissenschaftler seien überzeugt. Bott: (11:38) man spricht von 97%, die hinter dem IPCC Bericht stehen.

Dagegen Limburg: Widerspruch (10:22) In WGI sind nur ca. 40 bis 60 Autoren der harte Kern. Als Beleg wurde Prof. Mike Hulme zitiert: 1000 Wissenschafter votierten jüngst wieder dagegen (11:19)

Schauen wir uns die Fakten der Reihe nach an.

1. Mehrheit der Wissenschaftler dafür?

Behauptet wird: „Die überwältigende Mehrheit der Wissenschaftler seien dieser Ansicht, es herrsche gar Konsens“. Vorab darf nüchtern festgestellt werden, dass Konsens in der Politik – besonders in einer Demokratie – eine gute Sache sein kann, die politische Handlungen legitimiert. In der Wissenschaft mag Konsens ein nützlicher Nebeneffekt sein, kann aber keinesfalls als Ersatz für fehlende Beweise dienen. Ja, Konsens ist oft sogar äußerst gefährlich und verhindert wirksam die Erkenntnis der wahren Zusammenhänge. Das ist wohl auch der Hauptgrund warum – voran der Demagoge Al Gore und seine Apologeten -, aber auch fast alle Politiker das Wort Konsens in Sachen Klima so lieben. Oft wurde schon Konsens behauptet. Erinnern wir uns doch nur: Die Erde sei eine Scheibe, die Sonne bewege sich um die Erde, an die Phlogiston-Theorie (Flammen bestünden aus einem besonderen Stoff, dem Phlogiston), an die Äthertheorie, an die Zurückweisung der Kontinentalverschiebungstheorie, an die Zurückweisung der Relativitätstheorie, an die Zurückweisung der Theorie über Bakterien als Ursache von Magengeschwüren und, und, und..-

Die Liste der Konsensthesen, die sich als falsch erwiesen haben, ist schier endlos. Konsens ist kein Ersatz für wissenschaftliche überprüfbare Beweise: Von Albert Einstein ist folgender Ausspruch überliefert, als er mit der Behauptung konfrontiert wurde, dass 200 arische Wissenschaftler seine Relativitätstheorie widerlegt hätten. Seine kurze Antwort darauf: Wenn sie recht hätten, genügte einer!

Tatsache ist aber außerdem, dass sich nicht einmal die Mehrheit der Wissenschaftler (Klimaforscher im engen Sinne gibt es nicht) aus klimarelevanten Disziplinen der AGW-Katastrophenhypothese des IPCC anschließen. Mehr noch, sehr, sehr viel sind dagegen. Eike hat über das brisante Thema „Konsens“ bereits ausführlich berichtet. Konsens gibt es im hier besprochenen Zusammenhang nicht!

Dies bestätigt auch Prof. Mike Hulme, Meteorologe und Direktor des Gründungs Direktor des Tyndall Centers in England, zudem an der Universität von East Anglia beschäftigt, außerdem Leitautor des IPCC. Er hat dazu kürzlich folgendes gesagt (veröffentlicht in der National Post ) und zusätzlich in einem Aufsatz – zusammen mit seinem Studenten Martin Mahony – für die Fachzeitschrift „Progress in Physical Geography“ geschrieben:

„Das UN-Intergovernmental Panel on Climate Change führte die Presse und Öffentlichkeit mit der Behauptung in die Irre, dass Tausende von Wissenschaftlern seine Ansprüche auf die vom Menschen verursachte globale Erwärmung unterstützen. Die tatsächliche Zahl der Wissenschaftler, die diese Behauptung unterstützen, seien nur ein paar Dutzend Experten“

„Behauptungen, wie 2500 der weltweit führenden Wissenschaftler seien im Konsens darüber, dass menschliche Aktivitäten einen signifikanten Einfluss auf das Klima haben, sind unaufrichtig. Das macht das IPCC anfällig für Kritik von außen.“

Woher kommt die Zahl 97 % ?

Die Zahl geht wohl auf einen vor kurzem veröffentlichten Beitrag von Frau Cordula Meyer im ehemaligen Nachrichtenmagazin der Spiegel zurück (http://www.spiegel.de/spiegel/0,1518,721168,00.html9 , die darin wörtlich schrieb:

„Nach einer US-Studie gehen 97 Prozent aller Klimatologen weltweit davon aus, dass sich die Erde durch von Menschen produzierte Treibhausgase erwärmt.“

Sie hatte sie wahrscheinlich von Stefan Rahmstorf. Der hatte die Zahl 97 % im März 09 im Artikel (Klimaforscher-Konsens 97%) auf wissenlog.de in die Welt gesetzt.

Rekapitulieren wir doch einmal, wie Stefan Rahmstorf zu diesen 97 Prozent kommt: Er beruft sich dabei auf eine EOS-Umfrage – EOS Volume 90, Number 3, 20 January 2009 – nach der 10.257 Wissenschaftlern angeschrieben wurden. Sie sollten die Fragen beantworten:

1.     Verglichen mit dem Pegel vor 1800, glauben Sie dass die globale Mitteltemperatur eher gestiegen, gefallen oder relativ gleich geblieben ist?

2.     Glauben Sie, dass der menschliche Anteil eine signifikanten Anteil an der Änderung der globalen Mitteltemperatur hat?

Insgesamt beantworteten 3146 Personen diese allgemein gehaltenen Fragen, das sind 30,7 %.

96 % der Antwortenden stammten aus den USA und Kanada, der Rest verteilt sich auf 21 Nationen. Ungefähr 5 % der Antwortenden wurden von den Verfassernder Umfrage als Klimaforscher eingestuft.

90 % der Antwortenden  glauben, dass die Mitteltemperatur gestiegen ist, (wie wir auch) und 82 % bejahten die Frage 2.

Eine Gruppe von 79 Personen (oder 0.77%, der Befragten, bzw. 2,5 % der Antwortenden) stuften sich selbst als Spezialisten auf dem Gebiet des Klimawandels ein, weil sich 50 % oder mehr ihrer (peer- reviewed) Veröffentlichungen in irgendeiner Weise mit dem Thema Klimawandel befassten. Von diesen bejahten die Frage 2 76 Personen, das sind 97,4 %. 

Da also kommen die 97 % her!

Aber 7.111 angeschriebenen Forscher haben keine Antwort gegeben !!!

(Mit Dank an Leser: Ralph Bombosch).

Wie aus den Fragen überhaupt eine 97 % ige Zustimmung zum „überwiegend“ anthopogen verursachten Klimawandel gemacht werden kann bedarf schon einer gehörigen Dehnung der Aussage der Studie. Weltweit war die Zustimmung auch nicht, wenn 96 % der Antwortenden aus nur 2 Ländern stammten. Und erst recht stimmt die Aussage nicht von 97 % aller Klimaforscher weltweit, wenn tatsächlich nur 76 der 3146 Personen – das sind 2,4 % – aller Antwortenden- sich selbst als Spezialisten auf dem Gebiet des Klimawandels einstuften.

Ist aber die Mehrheit der Wissenschaftler dagegen?

Diese Frage ist sehr schwer zu beantworten, da keiner weiß, wie viele Wissenschaftler sich heute in der Querschnittsdisziplin Klimaforschung betätigen. Man kann aber die Zahl derer angeben, die sich früher oder heute gegen diese These ausgeprochen haben. Das haben wir in diesem Beitrag „SPIEGEL vs. EIKE: Häme und Verleumdungen anstatt „Schreiben was ist“ (hier) ausführlich getan.  Danach sind es zigtausende. Jüngst haben sich wieder tausend geäußert wie man hier nachlesen kann. More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims – Challenge UN IPCC & Gore.

6. Treibt CO2 die Temperatur oder ist es umgekehrt? Was taugen Klimamodelle? Teil I

Bei allen anderen Teilnehmern der Runde herrschte unbedingte Einigkeit darüber, dass eine vom Menschen verursachte Erhöhung der CO2-Konzentration in der Atmosphäre höchst klimaschädlich sei und deshalb dringend seine starke Reduzierung geboten sei. Hier manifestierte sich der immer wieder zu hörende Irrtum über die Wirkung des CO2. Nach der gängigen Treibhausthese ist CO2 vielleicht das (nach dem Wasserdampf) stärkste Treibhausgas, aber hierauf kommt es nicht an. Es kommt darauf an, welche globale Temperatursteigerung möglicherweise erfolgen würde – so die These stimmt-, wenn sich seine Konzentration in der Erdatmosphäre erhöht. Und diese potentielle Temperatursteigerung wäre praktisch verschwindend gering, denn die Infrarotabsorption von CO2 ist bereits gesättigt. Vergleicht man seine potentiell erwärmende Wirkung populär mit einer sehr gut isolierenden Pudelmütze, so wärmen zwei Pudelmützen übereinander auch nicht wesentlich besser als eine. Viele klimafachnahen Naturwissenschaftler – Gegner und Befürworter der AGW-Hypothese gleichermaßen – nennen grob 1 °C globale Erwärmung bei CO2-Verdoppelung (man bezeichnet diese Größe als „Klimasensitivität des CO2“). Sie wäre daher völlig unbedenklich und keiner Rede oder gar weiteren Auseinandersetzung wert, denn sie wäre vernachlässigbar. Man könnte dann mit Fug und Recht auch von einem „Nulleffekt“ sprechen. Die Menschheit müsste schon alle fossilen Reserven verbrennen, um CO2-Verdoppelung zu erreichen, wozu es nicht kommen wird. Die vom IPCC und seinen Anhängern beschworenen, viel größeren Erwärmungswerte basieren auf fiktiven Rückkoppelungen in noch fiktiveren Modellen, die inzwischen durch Messungen weitgehend widerlegt sind. EIKE hat über das Thema des potentiellen Treibhauseffekts und die mögliche Wirkung des CO2 bereits ausführlich berichtet.

Bevor wir uns also den Modellen zuwenden, welche einen vermuteten Katastrophalzusammenhang als Tatsache unterstellen und ihre Gleichungssysteme darauf aufbauen, wollen wir uns erst einmal die Vergangenheit anschauen, ob sich dort in den Beoabachtungsdaten eine Abhängigkeit zwischen CO2-Konzentrationen und Temperaturen erkennen lässt.

Tatsache ist, dass aus den Beobachtungen der jüngsten, der jüngeren und der ganz langen Zeit zwischen Temperatur und CO2 keinerlei Ursache-Wirkungsbeziehung festgestellt werden kann. Eine Ausnahme bilden die Temperaturproxies aus den Eisbohrkernen, dort aber läuft die CO2 Konzentration  der Temperatur im Schnitt 800 Jahre nach. Dahinter steht ein wohlbekannter Prozess, nämlich, dass kaltes Wasser mehr CO2  lösen kann als warmes Wasser und das Weltmeer etwa die Zeit von grob 800 Jahren benötigt, um sich vollständig umzuwälzen.

Abbildung 7: Verlauf von Proxydaten der Temperatur und der CO2 Konzentrationen aus Eisbohrkernmessungen für letzten 400.000 Jahre. Darin eingezeichnet die höher aufgelöste Graphik der letzen 8000 bis 22.000 Jahre. Deutlich ist die Nach-Eilung der CO2 Konzentration im Vergleich zu den Temperaturen zu erkennen.

Da mit den temperaturabhängigen Lösungseigenschaften des CO2 in Wasser die Proxy-Befunde bestens erklärt sind, müssen alle Versuche neuer Hypothesen als Verstoß gegen das Ockham-Prinzip angesehen werden. Es besagt, dass zur Erklärung eines physikalischen Phänomens, falls  schon vorhandene, bekannte Gesetzmäßigkeiten völlig ausreichen, keine neuen Hypothesen aufgestellt werden dürfen (Entia non sunt multiplicanda präter necessitatem).

Abbildung 7 zeigt einen solchen Fall für die letzten 400.000 Jahre. Proxydaten aus Eisbohrkernen lassen die sehr grobe Bestimmung der am Bohrloch früher herrschenden Temperatur- und CO2 Konzentrationen zu. Sie reichen heute bis ca. 800.000 Jahre zurück. Al Gore benutzte eine derartige Grafik in seinem mit Unwahrheiten und Propagandatricks vollgestopften Film „Eine unbequeme Wahrheit“.

Leider vergass der den Zuschauern und mit ihnen allen Medienschaffenden mitzuteilen, dass darin die Ursache-Wirkungskette genau anders herum  zu erkennen ist. Erst kommt die Temperatur, dann das CO2. Aber selbst diesen Zusammenhang zeigen die jüngsten Temperatur- und CO2 Verläufe nicht. Wie die folgende Abbildung beweist.

Abbildung 8: Hier wird die offizielle IPCC Temperaturkurve (blaue Linie) mit der ebenso offiziellen CO2-Konzentration (bis 1955 aus Eisbohrkernen, danach vom Mauna Loa direkt gemessen) überlagert. (dicke rote Kurve). Die dicken lila Balken, sollen die Richtung des Temperaturtrends verdeutlichen.

Man erkennt in Abb. 8, dass es zumindest seit 1850 keine ausreichende Korrelation zwischen beiden Größen gibt. Laut THE (Treibhauseffekt)-These, machmal auch als AGW-Hypothese (anthropogenic global warming hypothesis) bezeichnet, müsste es eine gute positive Korrelation beider Größen geben. Mehr CO2 ergibt höhere Temperatur. Oder wie Rahmstorf es beschrieb:

Wir Kli­ma­for­scher kön­nen nur nach dem Wenn-dann-Prin­zip sa­gen: Wenn so und so viel CO2 aus­ges­to­ßen wird, dann wird das Kli­ma sich so und so stark er­wär­men.“[3]

Vom Rahmstorfschen „Wenn-Dann“ keine Spur! Die Korrelation CO2-Temperatur ist miserabel. Inzwischen wissen wir, dass der Anstieg der Temperatur ab 1990 beendet war und bis zum heutigen Tage einem Plateau und leichten Abstieg Platz machte. Auch Phil Jones, der „Held“ der ClimateGate Affaire, Direktor der CRU (Climate research Unit), IPCC Leitautor und Haupttreiber der Idee von der anthopogenen induzierten globalen Erwärmung, sprach von keiner signifikanten Erwärmung mehr seit 1995 [4]. Zum selben Ergebnis kommen auch Prof. Richard Lindzen und mit einigen Abstrichen Prof. Mojib Latif vom Geomar, um nur zwei weitere prominente Forscher zu nennen.

Was also ist das für ein merkwürdiger Prozess, der stetig sein soll, aber ständig seine Befürworter narrt?

Angesichts dieser Sachlage wird umso deutlicher erkennbar, warum der Chef der britischen Wetterbehörde Met Office, Sir John Mitchell (dem deutschen DWD vergleichbar) 2007 feststellte:

It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.[5]

So ist es! In der messtechnischen Realität ist dieser Prozess nicht zu beobachten.


Wird fortgesetzt.

Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke


[1] Aus : http://www.freunde-alter-wetterinstrumente.de/21theein01.htm#in%20Deutschland

[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN

[3] Zitat aus „Die Welt“ vom 3.2.2007

[4] Quelle hier http://news.bbc.co.uk/2/hi/science/nature/8511670.stm Bewertung hier: http://wattsupwiththat.com/2010/02/14/phil-jones-momentous-qa-with-bbc-reopens-the-science-is-settled-issues/

[5] John Mit chell, Ju lia Slin go, Da vid S. Lee, Ja son Lowe & Vicky Pope: ‘CLI MA TE CHANGE Re spon se to Car te r et al.’, World Eco no mics, 8 (1): 221228.




Phoenix-Runde: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck! Teil I

Illustre Namen von Leuten – die sonst kein Mikrophon ohne Statement zum Thema Klima an sich vorbeigehen lassen – waren kontaktiert worden. Es hagelte reihenweise Absagen. So auch die vom bereits fest gebuchten Dr. Oliver Geden von der Stiftung Politik & Wissenschaft. Die Redakteure telefonierten sich die Finger wund, bis schließlich drei Freiwillige gefunden waren. Nun sollten Prof. Dr. Andreas Bott (Meteorologe, Uni Bonn), Severin Fischer (Klimaexperte am Institut für Europäische Politik), sowie  Stefan Krug, ein Aktivist von Greenpeace die Runde vervollständigen. Die Moderation der Sendung hatte Alexander Kähler von Phoenix.

Kurz vor der vorgesehenen Aufzeichnung platzte der Betreuer der Sendung mit der Hiobsbotschaft herein, jetzt hätte auch der Aktivist des Medienkonzerns Greenpeace abgesagt. Guter Rat war teuer, man hätte alle NGO´s abtelefoniert, WWF, Greenpeace, BUND, etc. – dann endlich, wenige Minuten vor Aufzeichnung, erwischte man die attac Aktivistin Kathrin – „ich bin die Kathrin- Henneberger“ -. nach eigener Bekundung freie Klimaschützerin und als Aktivistin und Frau schon zwei mal bei Frau Illner zu Gast. Die sagte spontan zu. Eine illustre Runde.

Die Sendung kann man sich hier anschauen. Wir danken Phoenix für die Genehmigung sie auf unserem Blog zu zeigen. In dieser Sendung wurden viele Behauptungen aufgestellt, die wichtigsten werden einem Faktencheck unterzogen.


Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

Lüge ist  viel­leicht nicht das rich­ti­ge Wort…..

Die Run­de sprang schnell von The­ma zu The­ma. Mit­un­ter wur­de auch schon mal der EIKE Ver­tre­ter als Lüg­ner be­zeich­net, und der Mo­de­ra­tor hielt mä­ßig – aber im­mer­hin – da­ge­gen, als er mein­te „Lüge ist  viel­leicht nicht das rich­ti­ge Wort, wenn man ge­gen­sätz­li­cher Mei­nung ist“. Doch zu­ge­ge­ben, bei so­viel kon­tro­ver­sen The­men und Be­haup­tun­gen ist es für nie­man­den leicht den Über­blick zu be­hal­ten, oder sich gar ein Ur­teil zu bil­den. Wir ha­ben uns des­halb zu ei­nem aus­führ­li­chen Fak­ten­check ent­schlos­sen. Zur leich­te­ren Über­prü­fung ha­ben wir die Mi­nu­ten (die Zah­len in Klam­mern) auf­ge­führt, in de­ren Nähe die Be­haup­tung (nicht im­mer wört­lich wie­der­ge­ge­ben) ge­äu­ßert wur­de.

1. Be­haup­tung: Käh­ler (0:53) „Das Eis an den Po­len schmilzt den­noch. „

Die­se Be­haup­tung ist schlicht falsch.

Beispiel Arktis: Das Eis in der Ark­tis schrumpft und wächst rythmisch, z.Zt. wächst es wie­der, im na­tür­li­chen Rythmus der Jah­reszeiten. Ge­gen­über ei­nem lang­jäh­ri­gen Tief­stand im Sommer 2007 – wie er ähn­lich zuvor auch schon in den 50er und 30 Jah­ren des vorigen Jh. vorhanden war –  hat die Eis­be­de­ckung in der Ark­tis um fast die dop­pel­te Flä­che der Bun­des­re­pub­lik zu­ge­nom­men. Im November 2010 erreichte die arktische Eisbedeckung sogar den höchsten Stand seit Ende der siebziger Jahre. Ein Umstand der weder vom Moderator noch von den Qualitätsmedien zur Kenntnis genommen noch über den berichtet wurde.

Die Ab­bil­dung 1 zeigt – über­ei­nan­der ge­legt – die jähr­li­chen sai­so­na­len Schwan­kun­gen der Eis­be­de­ckun­gen der Ark­tis aus der  AMSR Da­ten­bank. Man erkennt die Zunahme gegenüber 2007 um ca. 500.000 km2

Beispiel Antarktis: Schaut man sich die Ant­ark­tis an, ist dort sogar von irgendeiner Schmel­ze über­haupt kei­ne Rede. Bei ei­ner Durch­schnitts­tem­pe­ra­tur von -35°C auch schlecht mög­lich. Das Eis der Ant­ark­tis wächst, weil die Ant­ark­tis (in ih­rem Win­ter) noch nie so kalt war [1]. Die auf Stelzen erbaute neue Neumeyerstation musst deswegen schon mal angehoben werden.

(Meldung Faktum hier 19. Juli 2010/fa.)

– Zum ersten Mal seit dem Bestehen der deutschen Antarktisstation Neumayer fiel die Temperatur am 8. Juli 2010 unter die -50°C-Marke. Es ist die extremste Winterkälte in der Region seit mindestens 29 Jahren. Eine solche Kälte erlebten die elf Wissenschaftler vom „Alfred-Wegener-Institut für Polarforschung“ in Bremen auf ihrer Forschungsstation „Neumayer III“ in der Antarktis noch nie. Minus 50,2 Grad Celsius unter Null erschweren die Arbeiten auf der Forschungsstation. Solche Extremereignise sind eine Herausforderung an Mannschaft und Material. So lassen sich bei dieser Kälte Motoren kaum mehr betreiben. Bereits im Jahr 2008 erlebten die elf Forscher eine vergleichbare Extremkälte. Die Minus-50-Grad-Grenze wurde damals aber nicht erreicht, der tiefste Kältepunkt lag bei Minus 48,8 Grad Celsius. Der bisherige Kälterekord vom Juni 2008 wurde jetzt um 1.4°C unterschritten.“

Mit Dank an Leser T. Lutz

2. Waren die Änderungen der (Anomalien der) globalen  Mitteltemperatur ungewöhnlich, oder gar dramatisch?

O-Ton Bott : Die Zei­chen gro­ße Kli­ma­än­de­run­gen sind er­kenn­bar. Dies wird seit Jah­ren von Klima-Wissenschaftlern „pro­phe­zeit“ (1:43)  …. ihn „ängstigt“ ein dramatischer Anstieg … in den letzten 20 – 30 Jahren definitiv ein anthropogener Effekt. (5:40) … eine rasante Zunahmen (6:15)

Dagegen Limburg (6:40): der Mittelwert der globalen Welttemperatur (7:19) zeigt 3 Anstiege, (alle) gleich hoch und gleich (steil) in den vergangenen 150 Jahren.

Will man überhaupt auf die Aussagekraft eines globalen Mittelwertes mit Änderungen im zehntel Grad Bereich bauen – bei Extremwerten auf eben dieser Erde von -89 ° C in der Antarktis, bis zu + 70 °C in der iranischen Wüste, mit Durchschnittswerten von ca. 30 ° C in manchen Tropen- und Subtropengebieten -, dann sollte man sich zumindest den gesamten Verlauf ansehen.

 

Abbildung 2: offizielle IPCC Grafik AR4 des Verlaufs des Temperaturanomalie, bezogen auf 1961-1990 der globalen Mitteltemperatur. Man sieht deutlich gleich steile Anstiege von 1860 – 1880, von 1910-1940 und von 1975-1998. Letzterer ist überaus strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) wurden.

Die globale Mitteltemperatur ist in Abbildung 2 gezeigt. Die eingezeichneten Graden sprechen für sich.

Period Length Trend
(Degrees C per decade)
Significance
1860-1880 21 0.163 Yes
1910-1940 31 0.15 Yes
1975-1998 24 0.166 Yes
1975-2009 35 0.161 Yes

Die Tabelle (aus Watts up with that hier) zeigt die Werte nochmals als Trends errechnet.

Der Anstieg von 1975-1998 ist strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) (Eine ausführliche Untersuchung von A. Watts & J. Dá leo darüber – Surface Temperature Records: Policy Driven Deception?- finden Sie hier)  wurden. Diese Ansicht stützen auch die Arbeiten des Geologen undefinedProf. F.K. Ewert (EIKE), der über 800 weltweite Temperaturganglinien auf ihren absoluten Temperaturtrend hin untersucht hat, und dabei nur klärte: a) ist ein Trend vorhanden? Wenn ja? b) War er positiv oder negativ? Sein Ergebnis: Von 1990-2010 zeigten 50% aller Stationen weltweit keine Erwärmung oder Abkühlung, 28.8 % eine Erwärmung (ohne Stadterwärmungseffekt) und 16,4% eine Abkühlung. Die Arbeit betrachtete auch den gesamten Trend. Sein Ergebnis: Von 1880-2010 zeigten 74% aller Stationen weltweit keine Erwärmung oder Abkühlung, 5,1 % eine Erwärmung (ohne Stadterwärmungseffekt) und 3,8% eine Abkühlung [2].

Limburg weiter: (7:40) Den letzten Anstieg zeigen Satelliten nicht. Terrestrische Daten zeigen ihn, die Aus­wahl der Sta­ti­o­nen war sehr se­lek­tiv.

Abbildung 3 zeigt den Temperaturverlauf der UAH Satelliten in der mittleren Troposphäre zusammen mit dem Anstieg der CO2 Konzentration. Man sieht im Mittel einen geraden Verlauf bis 1998, dann 1198 sowie 2010 die El Niño Anstiege.

Die Abbildung 3 spricht für sich. Nach 1998 geht es sprunghaft auf leicht höherem Niveau ohne Trend* weiter Warum terrestrische Stationen trotzdem einen Anstieg zeigen, der nicht nur Prof. Bott so ängstigt, beantwortet die nächste Grafik. Sie zeigt die Zahl der weltweiten Stationen des Global Historical Network (GHCN) die – und das ist wichtig – von den ausführenden Instituten CRU, GISS und NOAA in die Auswahl genommen und dann zur Berechnung des statistischen Konstruktes Globaltemperatur herangezogen wurden (werden)

Abbildung  4: Anzahl und globaler Mittelwert (man beachte auch die Werte der linken Achse) der GHCN Stationen (von über 8000 Stationen, die Daten liefern), deren Daten in die Berechnung des globalen Mittelwertes der Temperatur einfließen. Deutlich zu sehen der starke Abfall der Zahl der Stationen ab 1990 (Zusammenbruch der Sowjetunion), bei zeitgleichem sprunghaften Anstieg der globalen Mitteltemperatur (Quelle, siehe Bild).

Wie in Abbildung 4 zu sehen, steigt die globale Mitteltemperatur ab 1990 sprunghaft an. Zeitgleich sinkt die Zahl der ausgewerteten Stationen ebenso sprunghaft. Die Ursache liegt einerseits in einer (aus wirtschaftlichen Gründen) erfolgte Aufgabe ländlicher (ruraler) Stationen, zum anderen in einer bevorzugten Auswahl von Stationen in wärmeren Gebieten und dort überwiegend in Städten und/oder Flughäfen. Diese Selektion wurde bis heute fortgesetzt, so dass heute nur noch ca. 1100 Stationen weltweit  beitragen. Davon stehen über 40 % auf Flughäfen unter dem Einfluss der Erwärmung durch die Turbinen startender Fluszeuge. Man hat also in erster Linie die Zunahme des weltweiten Flugverkehrs seit 1960 gemessen. Mit Klimaerwärmung hat das nichts zu tun.

3. Wenn es die NGO´s nicht gegeben hätte dann wäre es noch schrecklicher

O-Ton Henneberger: Wenn es die NGO´s nicht gegeben hätte, dann wäre es noch schrecklicher (4:07).

Kähler (43:35): Wann haben wir einen echten Klimaschutz? (43: 48)

Bott: Es werden viele große Schäden angerichtet, viele Menschenleben, die es kosten wird, weil zu wenig getan wird.

Fischer: (44:23) Das Risiko ist viel zu groß, wenn wir Herrn Limburg und seinen Kollegen trauen…

Hier wird in beredten Worten von überstandenen Katastrophen (wäre alles noch viel schrecklicher…)  bzw. der großen Gefahr zukünftiger Katastrophen das Wort geredet. Diese gilt es unter allen Umständen zu vermeiden, so der gemeinsame Nenner von Bott, Henneberger, Fischer.

Gemeint sind vermutlich Wetterextreme, wie Stürme, Überschwemmungen und/oder Sturmfluten, Dürren (auch mit Waldbränden), wie wir sie  immer wieder – auch in jüngster Zeit – erlebt haben. Keine Frage: Extreme Wetter sind für die Betroffenen immer schlimm. Und mit zunehmender Zahl der Menschen, sowie rasanter Zunahme ihres Wohlstandes, werden diese auch immer teurer, sowohl was die Zahl der Betroffenen angeht, als auch in der Höhe der Schäden. Die Frage muss aber lauten: Werden sie auf Grund des postulierten Klimawandels mehr und/oder  stärker, oder ist eher das Gegenteil der Fall? Niemand, schon gar nicht Prof. Bott, hat hierzu die Sachstandsberichte des IPCC konsultiert, die von jedermann aus dem Internet heruntergeladen werden können (www.ipcc.ch). Im Sachstandsbericht vom Jahre 2001 ist ein sehr umfangreiches Kapitel 2.7 genau der hier diskutierten Problematik gewidmet, Ergebnis: „Nichts!“. Es gibt die von Prof. Bott beschworenen Znahmen nicht, was im Übrigen die gesamte meteorologische Literatur bestätigt. Und bis heute hat sich daran nichts geändert, 7 Jahre sind ohnehin bezogen auf Klimazeiträume (30 Jahre mindestens) zu kurz für neue Aussagen über die des IPCC-Berichts von 2001 hinaus.

Auch der Meteorologe und Physiker K.E. Puls (EIKE Pressesprecher) forscht seit langem über das Thema: Gibt es eine anthropogen bedingte Zunahme von Extremwettern? Gibt es überhaupt eine Zunahme?

Die Antwort wurde u.a. auf dem III. Internationalen Klima- und Energiekongress in Berlin gegeben. Schade nur, dass keiner der andern Gäste von Phoenix dort anwesend war. Die Antwort ist unmissverständlich. Es gibt keine Zunahme, weder anthropogen, noch generell. In vielen Fällen ist sogar eine Abnahme zu verzeichnen. Dies ganz im Gegensatz zu immer wiederkehrenden Medienberichten. Abbildung 5 zeigt einen Auszug aus diesem Vortrag.

Abbildung 5 : Auszug aus dem Vortrag von K. E. Puls über den Verlauf von Stürmen in der deutschen Bucht, dem Winter NAO Index des Lufdruck Gradienten etc. Überall sind Abnahmen erkennbar. Wer den Vortrag liest, wird erkennen, dass dies für alle Teile der Welt, also auch für Tornados, Hurricanes und anderes gleichermaßen gilt. Den gesamten Vortrag von K.E. Puls mit dem treffenden Titel:

„Klimawandel  : Katastrophe ohne Wetter-Signale ?“

finden Sie hier: undefinedPuls

Auch Jochem Marotzke, Direktor MPI HH Max-Planck-Instituts[8] (Hamburg):, befand in DER SPIEGEL, 7.5.2007, „Abschied vom Weltuntergang“,  S.145  „In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen„.

Wird fortgesetzt:

Michael Limburg EIKE

* Einige Leser werfen mir vor, nicht die „Lower Troposphere Grafik“ gezeigt zu haben. Darin ist der Sprung ab 1998  höher (0,2K statt ca. 0,04 K) Es kam mir jedoch darauf an, zu zeigen, dass kein Trend vor und nach 1998 zu verzeichnen ist. Durch den sehr starken El Niño 1998, sorgte die Trägheit der Ozeane für das höhere Niveau für die Zeit danach.


[1] Man sehe hier: http://www.focus.de/wissen/wissenschaft/natur/neumayer-station-kaelterekord-in-der-antarktis_aid_530799.html

[2] Sie finden diese Arbeit als .ppt Datei (ganz nach unten scrollen Hier: http://www.eike-klima-energie.eu/news-anzeige/klima-realismus-in-berlin-die-3-internationale-klima-und-energiekonferenz-erfolgreich-beendet/




Ertappt in Darwin Australien!

Fangen wir mit dem zweiten Argument an. Die Erde ist seit der Kleinen Eiszeit um 1850 wärmer geworden. Darüber herrscht generelles Einverständnis. Siehe hierzu z. B.  Akasofu. Damit hat Climategate nichts zu tun.

Beim zweiten Argument, der Datenintegrität, liegen die Dinge anders.
„Ja“, gab man zu, “diese Burschen haben E-mails gelöscht und verhindert, dass in Wahrnehmung der Rechte aus dem Informationsfreiheitsgesetz zugegriffen werden konnte. Sie haben Proxy-Daten durcheinander gebracht, sie haben die Veröffentlichung anderer Wissenschaftler-Papiere unterdrückt … das hat aber alles mit den Daten nichts zu tun. Die stimmen immer noch.“ Klingt doch vernünftig?

Es gibt drei globale Datenbestände. Einer davon liegt bei der CRU (Climate Research Unit of the University of East Anglia). Ein anderer liegt bei NOAA/GHCN (Global Historical Climate Network), den dritten führt die NASA/GISS (Goddard Institute for Space Studies). Alle drei nehmen die Rohdaten und „homogenisieren“ sie, um zu berücksichtigen, wenn z. B. eine Messstation in eine wärmere Umgebung versetzt wird und dann ein 2 C Grad-Sprung stattfindet. Die drei globalen Temperaturdatenbestände werden gemeinhin CRU, GISS, GHCN genannt. Sowohl GISS als auch CRU erhalten fast alle ihre Rohdaten vom GHCN. Alle drei Datenbestände erzeugen aus den Rohdaten sehr ähnliche Temperaturverläufe.

Ich bin noch mit meinem mehrjährigen Versuch beschäftigt, die Klimadaten zu verstehen. Man weiß nie, wohin das führt. Dieses mal bin ich in Australien gelandet und habe dabei an Professor Wibjorn Karlens Aussage über Australien gedacht, die ich hier zitiert habe:

Noch ein Beispiel ist Australien. NASA [GHCN] präsentieren nur 3 Stationen, die die gesamte Zeitspanne von 1897 – 1992 abdecken. Auf welcher Art von Daten beruht also das IPCC-Australien-Diagramm?

Falls da überhaupt ein Trend ist, dann eine leichte Abkühlung. Falls man eine kürzere Periode wählt (1949-2005), dann steigt die Temperatur beachtlich an. Die Australier haben viele Messstationen und haben mehr detaillierte Karten und Trends über Veränderungen veröffentlicht.

Die CRU-ler haben Wibjorn gesagt, dass er einfach völlig daneben läge. Hier kann man sehen, was sie für richtig erklärten. Es ist die Datenreihe 9.12 aus dem 4. Auswertebericht des IPCC (AR4) , die Wibjorn meinte. Sie zeigt Nord Australien:

Abb. 1. Temperatur-Trends und Modellrechnungs-Ergebnisse für Nord-Australien. Die schwarze Line sind die Messungen (Aus Fig. 9.12 des UN IPCC AR4). Betrifft das Gebiet von 110 Grad Ost bis 155 Grad Ost und von 30 Grad Süd bis 11 Grad Süd. Beruht auf den Landdaten von der CRU.

Aus den veröffentlichten CRU E-Mails kam ans Licht, dass die CRU als Eingangs-Rohdaten den Datenbestand des Global Historical Climate Network (GHCN) benutzt. Also habe ich mir den GHCN-Datenbestand mal angesehen. Da gibt es drei Stationen für Nord Australien, ganz so wie Wibjorn gesagt hat und überhaupt nur neun Stationen für ganz Australien für den Zeitraum von 1900 – 2000. Hier sind die unveränderten Daten von diesen drei nördlichen Messstationen (Quelle: AIS)

Abb. 2. GHCN Rohdaten, Alle Messstationen über 100 Jahre für das vorher genannte IPCC-Gebiet.

Und wieder hat Wibjorn recht, das sieht dem IPCC-Temperaturverlauf für Nord Australien gar nicht ähnlich. Dazu kann man aber noch nichts sagen. Wibjorn zeigte nur 3 Messstationen. Drei sind nicht viel, ist aber alles, was wir im IPCC Jahrhundertbericht für das bezeichnete Gebiet haben. Nun werfen wir mal mehr Daten in diesen längsten Messstationsbericht ein. Dies sind die Daten für das vom IPCC benannten Gebiet von jeder Messstation bis zum Jahr 2000, ohne Rücksicht darauf, wann die Aufzeichnungen begannen. Es sind 30 an der Zahl.

Abb. 3. GHCN Rohdaten. Alle Stationen bis 2000 im IPCC Gebiet.

Immer noch keine Ähnlichkeit mit dem IPCC. Deshalb habe ich mir jede Station im Gebiet einzeln angeschaut. Es waren 222. Hier ist das Ergebnis:

Abb. 4. GHCN Rohdaten. Alle Stationen bis 2000 im IPCC Gebiet.

Jetzt sieht man, warum Wibjorn Bedenken hatte. Es sieht wirklich nicht nach den IPCC-Daten aus, die von der CRU stammen, die wiederum auf den GHCN-Daten beruhen. Wo liegt der Unterschied?

Nun, alle diese Grafiken benutzen die rohen GHCN Daten. Das IPCC aber benutzt “justierte” (adjusted) Daten. Das GHCN justiert die Daten, um sogenannte “Inhomogenitäten” zu beseitigen. Daher habe ich mir gleich die erste Station auf der Liste angesehen, Flughafen DARWIN. Ich wollte wissen, wie so eine Inhomogenität vor Ort aussieht. Und ich habe herausbekommen, wie hoch die GHCN-Justierung für DARWIN war.

Zuvor aber: was ist eine Inhomogenität? Besser als GHCN kann man es nicht sagen:

Die meisten Langzeit-Messstationen waren Veränderungen ausgesetzt, die deren Messdatenreihen inhomogen machten. Es gibt viele Ursachen dafür, u.a. Änderungen der Messinstrumente, der Gehäuse, der Umgebung der Gehäuse, des Aufstellungsorts zur Zeit der Aufzeichnung und auch bei den Verfahren zur Ermittlung der Durchschnittstemperaturen. Oft kommen die Änderungen zur gleichen Zeit gehäuft vor, z. B., wenn automatisierte Wetterstationen eingeführt warden, wie es in vielen Weltteilen vorkommt. Wenn man derartige Klimadaten verlässlich für Langzeitanalysen der Klimaveränderung nutzen will, müssen Justierungen vorgenommen werden, um die nicht-klimatischen Unregelmäßigkeiten zu berücksichtigen.

Das macht Sinn. Die Rohdaten werden Sprünge aufweisen, wenn die Station umzieht. Wir wollen doch nicht auf eine Erwärmung schließen, nur weil das Thermometer in einer wärmeren Umgebung steht. Das mag zwar unangenehm sein, aber wir müssen es berücksichtigen.

Ich pflege immer mit den allerrohesten Daten anzufangen, um „Justierungen“ zu erkennen. Für DARWIN gibt es fünf getrennte Stationsaufzeichnungen, die zu einer einzigen DARWIN-Aufzeichnung zusammengefasst wurden. Hier sind die Einzelaufzeichnungen der Stationen von dort, von Station Record zero bis Rec. 4 durchnummeriert.

Quelle: http://data.giss.nasa.gov/cgi-bin/gistemp/findstation.py?datatype=gistemp&data_set=0&name=darwin

 

Abb. 5. Fünf einzelne Temperaturaufzeichnungen von DARWIN, dazu in grün die Stationszählung. Diese Rohdaten sind vom GISS heruntergeladen. GISS benutzt die GHCN Rohdaten als Ausgangsbestand für deren Analyse.

Für DARWIN gibt es einige Vorzüge gemessen an anderen Stationen mit Mehrfachaufzeichnungen. Es gibt eine durchlaufende Aufzeichnung seit 1941 bis zur Gegenwart (Station 1). Es gibt auch eine durchlaufende Aufzeichnung für ein ganzes Jahrhundert. Die Stationen stehen in enger Übereinstimmung über die gesamte Aufzeichnungsperiode. Man kann das tatsächlich daran erkennen, dass die Linien mehrerer Stationsdaten so eng beieinander liegen, dass sie hinter der Linie von Station Zero verborgen sind.

Das ist eine ideale Station, weil man daran viele Probleme veranschaulichen kann, die bei den rohen Stationsdaten existieren.

  • • Keine einzige Aufzeichnung überdeckt die gesamte Periode.
  • • Die kürzeste Aufzeichnung ist nur neun Jahre lang.
  • • In nahezu allen Aufzeichnungen sind Lücken von einem Monat und mehr.
  • • Um 1941 herum scheint es Probleme bei den Daten gegeben zu haben.
  • • Bei den meisten Datenreihen fehlen einige Monate.
  • • Für die gesamte Zeitdauer gibt es wenig Nachbarstationen.
  • • Für kein einziges Jahr gibt es Aufzeichnungen aller fünf Stationen zugleich.
  • • Die Temperatur ist über einen Sechsjahreszeitraum gefallen, von einem Höchstwert 1936 bis auf einen Niedrigwert 1941. Die Station zog 1941 um, was aber war in den sechs Jahren zuvor?

Wenn man Stationsaufzeichnungen auswertet, kommt die persönliche Beurteilung ins Spiel. Zuerst einmal ist zu entscheiden, ob überhaupt etwas verändert werden muss. Das wird bei DARWIN eng. Der Datenreihe scheint um 1941 herum durcheinandergebracht worden zu sein, nicht aber im Jahr des Umzugs.

Obschon der 1941er Temperatursprung groß zu sein scheint, sehe ich einen ähnlichen Sprung zwischen 1992 und 1999. Betrachtet man das Gesamtbild, so sollte man alles so lassen, wie es ist. Das ist das Beste, wenn man keine anderen Hinweise hat.
Oberstes Prinzip: nichts verändern!

Aber es gibt eine Begründung, warum man etwas ändern sollte, vor allem wegen des 1941er Umzugs. Wenn ich mich für eine „Justierung“ entscheide sollte, dann sähe das so aus: 

Abb. 6. Eine mögliche „Justierung“ für DARWIN. Die schwarze Linie (rechts skaliert) zeigt den Gesamtbetrag der Justierung an. Darunter die Zeitskala.

Ich habe die vor-1941-Daten um etwa 0.6 C vermindert. Beim Verlauf vom Anfang bis zum Ende erhalten wir eine kleine Änderung bei meinen „justierten“ Daten (rote Linie). Es gibt weder Erwärmung noch Abkühlung. Die offensichtliche Abkühlung in den Rohdaten nach 1941 aber wird abgeschwächt. Wo die anderen Linien sich überdecken, liegen die Aufzeichnungsdaten dicht beieinander. Daran ändere ich überhaupt nichts. Warum sollten wir das tun, wenn sie alle genau das Gleiche anzeigen?

So also würde ich die Daten homogenisieren, wenn ich müsste. Aber ich bin überhaupt dagegen, weil damit nur eine Stationsreihe (DARWIN Zero) geändert würde, und die übrigen im Urzustand blieben.

Anschließend habe ich mich damit beschäftigt, was passiert, wenn das GHCN die “Inhomogenitäten” beseitigt und die Daten “justiert”. Von den fünf Rohdatensätzen wirft das GHCN zwei weg, vermutlich wegen deren kurzer Zeitspanne und weil sie Daten aus längeren Reihen nur duplizieren. Die drei verbleibenden werden zuerst „homogenisiert“, dann die Durchschnitte errechnet, um die „GHCN-justierten“ Temperaturdatenreihe für DARWIN zu erzeugen.

Das ergab eine Überraschung. Um die volle Tragweite zu veranschaulichen, zeige ich sie mit beiden Datenreihen am gleichen Ausgangspunkt beginnend – nicht am Endpunkt, wie es oft geschieht.

 

Abb. 7. GHCN Homogenitäts-Justierungen an der zusammen gefassten DARWIN Datenreihe.

Pfui Teufel! Vor der Homogenisierung fallen die Temperaturen mit 0,7 C Grad pro Jahrhundert … aber nach der  Homogenisierung steigen sie mit 1,2 C Grad pro Jahrhundert. Die „Justierung“ beträgt also mehr als zwei Grad pro Jahrhundert … Wenn diese Burschen „justieren“, gehen richtig ran. Und dann sieht die “Justierung” noch komisch aus. Zuerst geht sie schrittweise hoch, dann bleibt sie bei 2,4 C Grad.

Deswegen habe ich genau hingeschaut, wie das GHCN die Temperaturdaten “justiert”. Das steht in An Overview of the GHCN Database:

GHCN Temperaturdaten enthalten zwei verschiedene Datensätze: die Originaldaten und einen  „homogenitäts-justierten“ Datensatz. Die gesamte Überprüfung der Homogenisierung wurde auf jährlichen Datensätzen durchgeführt. Das Homogenitäts-Justierungsverfahren geschieht in zwei Schritten:

Im ersten Schritt wird eine homogenisierte Referenzserie für jede Station erzeugt (Peterson and Easterling 1994). Eine vollständige homogenisierte Referenzserie unter Benutzung unbekannter Inhomogenitäten zu erzeugen, kann unmöglich sein, aber wir haben verschiedene Methoden angewandt um mögliche Inhomogenitäten in den Referenzserien zu minimieren.

Beim Erzeugen der ersten jährlichen Differenz-Referenzserie haben wir die fünf höchstkorrelierten Nachbarstationen benutzt, die ausreichend Daten hergaben, um die Kandidaten-Station zu modellieren.

Beim abschließenden Verfahren zum Minimieren der Inhomogenitäten bei den Referenzserien wurde der Durchschnitt der drei Hauptwerte benutzt (aus den fünf Nachbarstationen), um die erste Differenzserie zu erzeugen.

Man muss fair bleiben, das alles klingt gut. Sie nehmen fünf Nachbarstationen und bilden die Mittelwerte. Dann vergleichen sie diese Mittelwerte mit den Werten der untersuchten Station. Wenn die zweifelhaft aussehen im Vergleich mit dem Mittelwert der fünf Referenzstationen, dann überprüfen sie alle historischen Aufzeichnungen auf Änderungen, und dann homogenisieren sie die armen Daten gnadenlos.
Ich habe einige Probleme mit dem, was sie beim Homogenisieren machen. Aber auf diese Weise identifizieren sie die inhomogenen Stationen.

Schauen wir mal …  wir wissen, dass die Stationen in Australien spärlich sind. Wie konnte man für 1941 fünf „benachbarte“ Stationen finden?

Ich habe es mir angesehen. Die nächste Station aus dem Jahr 1941 liegt 500 km von DARWIN entfernt. Sie ist nicht nur 500 km weg, sie ist auch die einzige innerhalb 750 km um DARWIN für die 1941er Zeitspanne. (Es ist auch noch eine Kneipe, Daly Waters Pub, um genau zu sein, so ist es halt in Australien.) Es existieren also keine fünf  Stationen für die Bildung einer “Referenzserie”, um die Abnahme von 1936-1941 in DARWIN zu überprüfen.

Ich war verwirrt von der merkwürdigen Form der gemittelten homogenisierten DARWIN-Serien. Ich machte mich nun daran, die Art und Weise der Homogenisierung für jede der einzelnen Stationsdatenserien zu erkennen. Wie ist dieser komische Mittelwert in Abb. 7 entstanden? Ich begann mit DARWIN Zero und der frühesten Aufzeichnung. Hier ist das Ergebnis mit den Rohdaten und den homogenisierten.

 

Abb. 8. DARWIN Zero. Homogenisierung-, Justierung. Schwarze Line: Betrag und Zeit.

Pfui und nochmals Pfui! Was um Himmels Willen rechtfertigt so etwas! Wie kommen die darauf? Seit 1941 haben wir fünf verschiedene Aufzeichnungen für DARWIN. Sie stimmen fast genau überein. Warum also „Justierung“? Man hat einfach einen großen völlig imaginären Trend auf die letzte Hälfte der Rohdaten gesetzt! Jetzt sieht es so aus, wie in der IPCC-Grafik in Abb. 1 – na ja … aber ein Trend von 6 Grad pro Jahrhundert? Und das noch in Form einer gleichmäßig steigenden Stufenpyramide bis zum Himmel? Was ist denn da los?

Das liebe Freunde, sind die plumpen Fingerabdrücke einer Datenverfälschung auf ägyptische Art … Es ist der unwiderlegbare Beweis, dass „homogenisierte“ Daten verändert werden, damit sie in das Vorurteil von der Erderwärmung passen.

Eins ergibt sich daraus ganz klar. Wer sagt, dass „Climategate“ nur eine Angelegenheit von Wissenschaftlern mit schlechtem Benehmen sei, die Daten aber in Ordnung wären, der irrt! Mindestens eine Sorte von Daten ist auch falsch. Der Beweis dafür ist DARWIN Zero.

Und weiter: Ich habe eine ungelöstes Rätsel. Wie und Warum hat GHCN DARWINs historische Datenreihe „justiert“ um eine radikale Erwärmung zu zeigen? Warum haben sie stufenweise „justiert“? Benützen Phil Jones und die CRU-Kollegen die „justierten“ oder die rohen Daten von GHCN? Ich vermute die „justierten“, weil sie die Erwärmung zeigen.

Eine weitere Merkwürdigkeit ist, dass GHCN die Station 1 “justiert” hat, damit sie mit der seltsamen DARWIN  Zero “Justierung” übereinstimmt. Station 2 wurde völlig im übergangen (die deckt in etwa die gleiche Zeitperiode ab und ist in perfekter Übereinstimmung mit Station Zero und Station 1). Nur zwei der drei wurden homogenisiert. Dann erfolgte die Mittelwertbildung.

Auf diese Art erhält man einen Durchschnitt, der einigermaßen reell aussieht. Vermutlich zum Verstecken der Temperaturabnahme (hide the decline).

Wie auch immer, schauen Sie sich mal an, wie GISS damit umgeht. Die benutzen nämlich die Daten von DARWIN erst ab 1963. Eine saubere Art, um das Problem zu umschiffen … und auch um alle unbequem kälteren Daten vor 1941 wegzuwerfen. 

Das ist wahrscheinlich besser als die GHCN Ungeheuerlichkeit. Aber auch schwerlich zu rechtfertigen.

Ohne Wenn und Aber: Die unverfrorene Schwindeljustierung des GHCN bei dieser einzigen Station bedeutet nicht, dass sich die Erde nicht erwärmen würde. Sie bedeutet auch nicht, dass die drei Datenbestände (CRU, GISS, GHCN) generell falsch seien. Es kann sich um einen Einzelfall handeln, wir wissen es nicht. Aber jedes Mal, wenn Daten überprüft und homogenisiert werden, nehmen die Trends zu. Jetzt macht das GISS seine eigenen „Justierungen“. Sie kommen aber zum gleichen Ergebnis wie GHCN, wie sie immer wieder verkünden. Das stellt die GHCN–Daten auch unter Verdacht. 

Was wir daraus lernen ist, dass es wenigstens eine Temperaturmessstation gibt, wo der Trend künstlich nach oben erhöht worden ist, um einen falschen Alarm auszulösen, während die Rohdaten eine Abkühlung zeigen. Zusätzlich sind die Durchschnittsdaten für Nord Australien ganz verschieden von den „justierten“. Es muss also eine Anzahl von … sagen wir mal für uns interessanten „Justierungen“ in Nord Australien zusätzlich zu DARWIN geben.

Im Einklang mit dem lateinischen Sprichwort  “Falsus in unum, falsus in omNis” (Eines falsch – Alles falsch) misstrauen wir jedem, der homogenisierte Daten benutzt. Solange, bis alle Stations-Justierungen überprüft sind (CRU, GHCN, GISS einbegriffen).

Gruß an Alle, kämpft weiter für die gute Sache.

Willis Eschenbach

Die Übersetzung besorgte Helmut Jäger EIKE

Den Originalartikel (vom 8.12.2009) finden Sie hier.

Mit Dank an Spürnase Meister am 7.12.10 

NOTE: Figures 7 and 8 updated to fix a typo in the titles. 8:30PM PST 12/8 – Anthony




Globale Temperatur – CRU-Daten zeigen keine statistisch signifikante Erwärmung!

Summa summarum: Mit Hilfe von zwei Signifikanztests der globalen Temperaturdaten von der CRU habe ich herausgefunden:

In 75% aller Gebiete der Welt gab es keine signifikante Änderung der Erwärmungs- bzw. Abkühlungsrate in der Periode vor 1960 und nach der Jahrtausendwende, der über einen Betrag von 0,5°C hinausgeht, was gut innerhalb der von der CRU selbst festgelegten Fehlergrenze von ±1°C oder schlechter liegt.

Eine angenommene Änderung von Maximum zu Maximum (im Vergleich der Periode vor 1960 und nach 2000) sollte eine Änderung zeigen, die über 20% der gemessenen Temperaturspanne liegt (i. e. falls die gemessene Temperaturspanne 10° beträgt, wird eine Änderung von Maximum zu Maximum größer als 2° als ‚signifikant’ angesehen).  In 87% der Erde gab es keine solche signifikante Temperaturänderung zwischen der Periode vor 1960 und nach 2000.

Wie bin ich zu dieser Schlussfolgerung gekommen?

Ich habe an diesem Beitrag jetzt über eine Woche lang gearbeitet, um eine Hypothese zu testen, die ich durch Betrachtung der Temperaturrohdaten im Vergleich mit den über und über bearbeiteten Werten von CRU, GISS, NCDC und IPCC gewonnen habe (die bearbeiteten Daten zeigen eine dramatische globale Erwärmung im vorigen Jahrhundert). Ich war der Ansicht, dass die Rohdaten eine ganz andere, kältere Geschichte erzählen als die bearbeiteten Daten. Meine Theorie lautet, dass die Ergebnisse der Alarmisten nicht zu den Rohdaten passen, und dass diese Ergebnisse und die daraus resultierenden Trendlinien durch eine Verquickung von unbewiesenen und extrem ungenauen Proxy-Daten dazu gebracht wurden, das gewünschte Ergebnis zu zeigen. Es gibt ein eindeutiges Beispiel dafür aus Neuseeland, wo die Daten und Zeitfenster so ausgewählt wurden, dass sich ein lächerliches ‚Datensammelsurium’ ergab, das die Rohdaten komplett ignorierte.

Um diesen Betrug in einen globalen Maßstab zu heben, wie ich zuvor erwähnt habe, müssen sich die Alarmisten mit zwei unbequemen Wahrheiten auseinandersetzen:

1.       Die Warmzeiten in den dreißiger und vierziger Jahren wiesen etwa die gleiche Temperatur wie heute auf.

2.      Die gegenwärtige Abnahme der Temperatur erfolgt ausgerechnet dann, wenn die Alarmisten eine dramatische Zunahme behaupten, damit sie zum steigenden CO2-Gehalt passt.

Was die Alarmisten am Ende dieses Prozesses brauchen, ist eine Graphik, wie sie vom NCDC erstellt worden ist, in der die dreißiger und vierziger Jahre auf kälter und die heutigen Temperaturwerte auf wärmer getrimmt wurden.

Man hat den aktuellen Code der CRU gefunden, mit dem dies bewerkstelligt wird, und zwar indem man gute Temperaturdaten mit ungenauen Proxy-Daten (in diesem Falle Baumringdaten) zusammenwirft und andere willkürliche Anpassungen vornimmt. Die zweite Methode der Alarmisten besteht darin, einfach die unbequemen aktuellen Temperaturen, die eine globale Abkühlung zeigen, fallen zu lassen, was ebenfalls eindeutig aus dem Datenmüll der CRU hervorging.

Ich habe versucht, das Fehlen von Rohdaten der Temperatur durch the country-by-country graphs [man klicke auf diesen Link, um zu sehen, was gemeint ist! A. d. Übers.] zu ersetzen, welche mit den Daten der Universität von East Anglia versenkt wurden. Der file lautet: idl_cruts3_2005_vs_2008b.pdf. Er zeigt, dass dies die jüngste Version der Aufzeichnung von Temperaturrohdaten ist, in Vorbereitung auf eine neue Veröffentlichung der jüngsten Daten (der PDF-file wurde im Juli 2009 erzeugt).

Ich bin ziemlich sicher, dass diese Daten aus der Zeit vor den massiven Korrekturen stammen, die von der CRU und Kohorten vorgenommen wurden. Tatsächlich kann man in den Graphiken eine Menge interessanter und aussagekräftiger Details erkennen. Viele der Daten vom Pazifik sind seit 2005 aussortiert worden in dem Versuch, frühere Fehler zu korrigieren, und man erkennt, dass der Trend in den meisten Graphen seit 2008 abwärts geht. Außerdem wurden die Warmperioden der dreißiger und vierziger Jahre noch nicht ausgewertet. Die Alarmisten hatten noch keine Gelegenheit, die Daten vor der Veröffentlichung hiervon zu ‚säubern’ (was als einen Grund betrachte, warum die Daten versenkt wurden).

In dieser Graphik erkennt man die Primärdaten, die von der CRU noch verfügbar sind. Sie zeigt einen Vergleich der Daten im Jahre 2005 (schwarz) und 2008 (violett). Von der CRU wurden diese Daten vierteljährlich aufgeteilt. Diese Graphik stammt aus den Monaten März – April – Mai (MAM) aus Chile.

Die Liebe zu Trendlinien und deren Veränderung durch die CRU sowie andere Alarmisten kommt hier klar zum Ausdruck. Es sind die sehr variablen Linien, aus denen die (viel weniger akkuraten) Trendlinien gewonnen werden. Ich weise so deutlich darauf hin, damit man die Tatsache erkennt, dass die Rohdaten eines Zeitabschnitts für einen Staat in einem gegebenen Jahr schon jetzt unter einem Berg von Anpassungen verschwunden sind. Tages- und Nachttemperaturen müssen zu Vierteljahreswerten zusammengefasst und dann in ein landesweites Schema gepresst werden. Selbst mit all diesen hinzugefügten Ungenauigkeiten sind die ‚Rohdaten’ noch ziemlich dynamisch, was mich fragen lässt, wie dynamisch der Datenfühler eigentlich ist. CRU und andere glauben, dass die Trendlinien etwas Signifikantes bedeuten – aber tatsächlich ist alles, was sie tun, die Dynamik der Natur zu verschleiern.

Wie auch immer, lassen Sie mich jetzt erklären, wie ich (durch Augenschein – uff!) die beiden Datensätze benutzt habe, um meine Hypothese zu testen, die da lautet, dass die Jahre nach 2000 nicht signifikant wärmer waren als die Jahre vor 1960 (als der CO2-Gehalt viel niedriger lag). Hier sieht man, wie ich die Änderungen von Maximum zu Maximum in jedem einzelnen Graph ermittelt habe:

Ich habe einfach das Maximum vor 1960 und das Maximum der Jahre nach 2000 herausgelesen und voneinander subtrahiert. Ich weiß, dass dies subjektiv und fehleranfällig ist, aber es reicht für einen ‚vernünftigen Test’. Ich hätte es vorgezogen, die aktuellen Rohdaten zu nutzen und die Minimum/Maximum-Punkte für jeden Zeitraum selbst zu definieren und sie danach miteinander zu vergleichen. Aber wenn man eben keinen Zugang zu den Rohdaten hat, wie es echte Wissenschaft erfordert…

Man beachte, dass ich die Trendlinie von 2005 benutze. Ich habe viele Graphen aus dem Jahre 2008 bemerkt, die meine Hypothese viel besser stützen würden, und vielleicht untersuche ich diese Version eines Tages. Ich weiß auch, dass es höhere Maxima vor dem Jahr 2000 gab (besonders um das Jahr 1998). Tatsächlich habe ich mich dabei ertappt, dieses Maximum von 1998 in die Periode nach 2000 hinein zu mitteln. Ich versuchte, der alarmistischen Seite den Irrtum nachzuweisen (und meine Hypothese zu beweisen). Man beachte auch, dass die jährlichen ‚Rohdaten’ teils deutlich außerhalb alle Spitzen der Trendlinie lagen – daher mache ich mir nicht allzu viele Sorgen, weil einige Spitzen weggefallen sind. Die nächste Berechnung wird erklären, warum.

Die P2P-Daten in meinen Resultaten sehen so aus:

 

Beachte: Ich versuche, einen Weg zu finden, eine saubere Tabelle zu erstellen, die sich dann kopieren lässt.

Wie auch immer, ich berechnete den P2P-Wert für jedes Quartal für jedes Land und mittelte diese über ein ganzes ‘Jahr’. Dann führte ich drei Signifikanztests durch um herauszufinden, ob der P2P-Wert (1) unter -0,5°C lag, (2) innerhalb des Bereiches
± 0,5°C oder über 0,5°C.

Ich habe mich entschlossen, diesen Signifikanztest durchzuführen, weil ein anderer File, der mit den CRU-Daten vernichtet wurde, klar gezeigt hat, wo genau CRU die Genauigkeit der Messungen typischerweise mit 1°C oder höher angegeben hat. Man betrachte den CRU report aus dem Jahre 2005, der diesen Anspruch der Genauigkeit zusammen mit ihrem eigenen Verlauf der Messgenauigkeit enthält.

In meinem Originalbeitrag über diese Files ging ich sehr ins Detail bzgl. der Messgenauigkeit (oder Irrtumsgrenzen) im Hinblick auf die Behauptungen der Alarmisten. Ich werde dies hier nicht wiederholen, aber ich denke, dass es ziemlich großzügig von mir ist, eine Fehlergrenze von ± 0,5°C an der Trendlinie zuzulassen (die zahlreiche potentielle Irrtümer durch die Mittelungen enthält). Die meisten Daten der CRU, die die Ungewissheit beschreiben, wie auf der Karte weltweit dargestellt, liegen oberhalb der Fehlergrenze von ± 1°C.

Dies bedeutet, dass das Entdecken eines Erwärmungstrends von 0,8°C statistisch unmöglich ist. Wenn ich die Zahlen von CRU benutzt hätte, wäre kein einziger der Rohdaten signifikant gewesen. Deswegen werden ja diese Tests durchgeführt, um herauszufinden, ob wir hinreichend genaue Daten haben, um unsere Hypothesen und Schlussfolgerungen zu überprüfen.

===========

Die Schlussfolgerung steht hier: CRU Raw Temp Data Shows No Significant Warming Over Most Of The World

Mit Dank an Joe D’Aleo

Veröffentlicht von A.J.Strata auf StrataSphere 

Übersetzt von Chris Frey für EIKE

Anmerkung der Redaktion: Diese Ergebnisse bestätigen in eindrucksvollerweise die Befunde der Arbeiten von Prof. Ewert EIKE, der anhand der qualitativen Analyse der Temperaturganglinien von anfang > 40 später knapp 800 weltweiten Messtationen herausfand, dass 74 % davon keinen Anstieg, die mesten sogar einen Abfall der Temperatur zeigte. Wird in Kürze veröffentlicht (Vorinfo hier)!




Das ZDF- der Klimawandel- und die Wahrheit: Mit dem Zweiten diffamiert man besser!

Und mit dieser Grundhaltung nahm man sich die "Klimaskeptiker" von EIKE vor. (Hier finden Sie den Beitrag) In der Anmoderation von Frau Petersen – im allgemeinen einen von ihrem Chef vorgeschriebenen Text ablesend- wurde der Kurs schon mal festgelegt. Maliziös lächeln durfte sie allerdings noch selber.

Die  allermeisten Klimafoscher weltweit -so ihre schon irreführende Ansage- ringen in Cancun darum, zu retten was zu retten ist. Schließlich drohe doch der Meeresspiegel zu steigen, die Globaltemperatur ebenso, allerdings sähen die "Leugner" – Originalton Petersen- dies völlig anders.  Dann ging der Beitrag los und der Sprecher bemühte sich jede Menge Häme und Diffamierung zu verbreiten. Es wurden -die "überwiegend älteren Herren" gezeigt, der Geologe Ewert wurde ohne jeden Zusammenhang  über das Mittelalter zitiert, um dann übergangslos auf den Starklimafolgenforscher Stefan Rahmstorf umzuschalten. Der durfte dann mehrmals über die ungeliebten Klimarealisten herziehen. Diese wichen einer wissenschaftlichen Diskussion immer aus, jedwede Einladung an sie bliebe unbeantwortet, sie bedienten nur die Laien mit plausiblen aber falschen Argumenten, und sie würden ihre Arbeiten nicht in anerkannten Journalen veröffentlichen. 

Nun, Herr Rahmstorf scheint nicht auf dem Laufenden zu sein. Die Filmemacher hätten ihn z.B. nach wenigen Recherchen oder Telefonaten korrigieren können mit  der Mitteilung, dass Rahmstorf und Kollegen bisher jeder kontroversen Diskussionrunde ausgewichen sind. Wie auch jetzt wieder bei einer geplanten Sendung von Phoenix. Sein Kollege Schelllnhuber tut es ihm gleich und verglich sich dazu schon mal mit Albert Einstein, der seiner Meinung nach auch nicht bei Frau Illner auftreten würde. Auch blieb Rahmstorf verborgen, dass jedes Jahr wissenschaftliche Klimakongresse der Realisten, vorwiegend in den USA, stattfinden. Sie werden von hunderten internationaler Top-Wissenschaftler besucht. Der letzte fand im Mai d.J. in Chicago statt. Man zählte um die 700 Teilnehmer. Wissenschaftler aus der Alarmistenscene werden grundsätzlich eingeladen. Manchmal kommen auch einige. Nur Schellnhuber, Rahmstorf oder Edenhofer wurden bisher nicht gesichtet.

Aber, weil die Verweigerung offensichtlich nicht mehr geht, hat nun PIK Chef Schellnhuber, die Wissenschaftler von EIKE offiziell zu einem wissenschaftlichen Workshop eingeladen, der jetzt für den März kommenden Jahres terminiert wurde. Gut möglich, dass Rahmstorf darüber nicht informiert wurde. Auch seine Aussage, dass die Klimarealisten (im Originalton "Skeptiker") ihre Arbeiten nicht in anerkannten Fachjournalen veröffentlichen würden, ist schlicht falsch. Es kann aber gut sein, dass Kronzeuge Rahmstorf diese Fachaufsätze einfach nicht zur Kenntnnis nimmt, sie daher nicht kennt. Im Standardwerk des NIPCC " Climate Change Reconsidered"(http://www.nipccreport.org/), einer Zusammenfassung des derzeitigen Stands der Klimaforschung aus realistischer Sicht, sind viele tausend Literaturangaben enthalten. Die Website "Popular Technology Net" listet über 800 solcher Studien auf. (http://www.populartechnology.net/2009/10/peer-reviewed-papers-supporting.html)

"Ri ra rum – wer nicht liest bleibt dumm" könnte man in Anlehnung an das berühmte Liedchen in der Sesamstraße singen. So betrifft es diesmal den Klimaforscher Rahmstorf und die gläubigen Filmemacher.

Der Beitrag arbeitet sich dann an der Tatsache ab, dass der Sitz von EIKE in Jena nur ein Postfach ausweist. So als ob 30 Jahre Entwicklung der Kommunikationstechnik spurlos an den Autoren vorbeigegangen ist. Wo steht denn geschrieben, dass ein vollwertiges Institut immer in einem vornehmen Glasgebäude sein muss? Sicher, da haben es die mit Staats- und Firmengeldern finanzierten Institute der Alarmisten einfach besser. Da kann EIKE nicht mithalten. Wir arbeiten alle – der Präsident eingeschlossen-  von unseren Homeoffices aus. Schade nur, dass der vermeintliche Geldsegen, den der Thinktank Cfact im Jahre 1998 bis 2000 von Exxon erhalten haben soll, an EIKE spurlos vorüber ging. EIKE verwendet seine knappen Mittel eben nicht für aufwendige Büros, sondern lieber zur Organisation von Kongressen und Vorträgen. Und das mit jedem Tag erfolgreicher. Not macht eben erfinderisch.

Bleibt zum Schluss noch die immerwiederkehrende Litanei von den 97 % der Klimaforscher weltweit, die die Katastrophe unvermeidlich kommen sehen. Sie geht zurück auf Zitate im ehemaligen Nachrichtmagazin "Der Spiegel", der sich seinerseits auf die Literaturwissenschaftlerin und Klimaktivistin Naomi Oreskes beruft, von der man inzwischen weiß, dass sie die von ihr untersuchte wissenschaftliche Literatur nicht einmal ansatzweise gesichtet, sondern lediglich eine unvollständige Datenbankabfrage der Paper-Abstracts vorgenommen hat. Das Ergebnis war unbrauchbar, wie es z.B. der englische Anthropologe Dr. Benny Peiser detailliert nachwies. Oreskes suchte für Ihre Studie in wissenschaftlichen Netzwerken (ISI database) nur mit den drei Schüsselwörtern  "global climate change" nach. Dies lieferte ihr ungefähr nur 1/10 der Literatur, die zum allgemeineren Schlüssel "climate change" passt, so dass 9/10 außen vor blieb. Dr. B. Peiser, Anthropologe in Liverpool, untersuchte die Studie und befand sie auf Grund der vielen Fehler als unbrauchbar. 

Peiser merkt an: "Oreskes behauptet, 928 Abstracts analysiert zu haben, die sie auf der ISI-Datenbank mit dem Stichwort „climate change“ für die Jahre 1993 "- 2003 gefunden hat. Doch eine Suche auf der ISI-Datenbank unter voller Verwendung dieser Schlüsselwörter zeigt, dass fast 12.000 Arbeiten in den fraglichen zehn Jahren dort veröffentlicht (2) wurden. Zahllose Forschungsarbeiten über die folgenden Themen blieben beispielsweise unberücksichtugt: Ähnliche oder sogar höhere globale Temperaturen während des Holozäns und des Klimaoptimums der Mittelalterlichen Warmzeit  mit niedrigeren atmosphärischen CO2-Gehalten als heute / Variabilität der Sonne als wesentlichem Treiber des jüngsten Klimawandels / Ungewissheiten der Klimamodellierung usw.“

Entsprechende Einwände wurden an Oreskes auch vom Wissenschaftsjournalisten David Appell gerichtet, und am 15. Dezember 2004 gab schließlich Oreskes zu, dass ihr Science Essay voller Fehler war. In einer betreffenden E-Mail von Dr. Peiser (link s.o.) an die Fachzeitschrift Science heißt es: „Da ich die Ergebnisse der Studie von Oreskes als fraglich ansah, beschloss ich, sie zu wiederholen.“ Bei seinem Versuch diese Wiederholung in Science als Korrektur zu veröffentlichen, stieß Peiser jedoch auf eiserne Ablehnung.  Der Telegraph UK hat sich der Geschichte unter der Überschrift  "Leading Scientific Journals are "Censoring Debate About Global Warming" angenommen. (Peiser nahm daraufhin Stellung zu Versuchen seine Ergebnisse umzuinterpretieren). Der Redaktion des SPIEGEL ist dieser Sachverhalt übrigens seit unserem Schreiben vom Februar 2009 bekannt (Realitätsverlust beim SPIEGEL ONLINE).

Darüberhinaus berichteten die Autoren der "Dokumentation" mit keiner Silbe über die vielen, vielen Beiträge von internationalen Top-Wissenschaftlern auf der 3. internationalen Klima- und Energiekonferenz.  Denn hätte man dies getan, dann hätte man sich ja sofort ad absurdum geführt. Das durfte nicht sein. Also diffamierte man was das Zeug hielt und nennt es dann Dokumentation.

Fazit: Mit diesem Beitrag hat das ZDF seine per Rundfunkgesetz zwingend vorgeschriebene Pflicht zur ausgewogenen, neutralen und objektiven Berichterstattung auf das Gröbste verletzt. Ob es damit den Zuschauerschwund aufhalten kann, ist fraglich. Eine Gegendarstellung wäre das Mindeste was die Verantortlichen bringen müssen. 

Wer sich beim ZDF zu Sendung äußern will, kann dies hier tun

Die Emails der Verantwortlichen lauten: Dr. Claus Richter: richter.c@zdf.de, Hilke Petersen: petersen.h@zdf.de

Die Sendung kann hier  gesehen werden: Und hier eine ergänzte Version, wo die gröbsten Schnitzer fernsehkommentatorisch widerlegt werden (Als Anhang zur Sendung). Mit Dank an Rainer Hoffmann

Michael Limburg EIKE




Klima-Realismus in Berlin! Die 3. Internationale Klima- und Energiekonferenz erfolgreich beendet.

Prof. Vincent Courtillot, der Chef des Institut de Physique du Globe in Paris, erklärte in seinem einleitenden Übersichtsvortrag, warum der von UN-Bürokraten und dem „Weltklimarat“ IPCC angestrebte „Konsens“ auf einen Holzweg führt. Courtillot erinnerte an das Schicksal der vor dem Ersten Weltkrieg aufgestellten Kontinentaldrift-Theorie des deutschen Meteorologen Alfred Wegener. Hätte ein Gremium wie der IPCC darüber befunden, wäre die inzwischen unter der Bezeichnung „Plattentektonik“ allenthalben akzeptierte Theorie für die Erklärung von Erdbeben und Gebirgs-Auffaltungen bis in die 60er oder gar die 70er Jahre des vergangenen Jahrhunderts beinahe einstimmig verworfen worden. Ein einzelner unbeirrter Wissenschaftler kann also gegenüber einer erdrückenden Mehrheit konventionell denkender Kollegen recht behalten. Wissenschaftliche Kontroversen können deshalb nie als endgültig beigelegt erklärt werden.

Das gilt umso mehr für Disziplinen, die sich mit so einem komplexen Gegenstand wie der Entwicklung der klimatischen Bedingungen des Planeten Erde beschäftigen. Der israelische Astrophysiker Prof. Nir Shaviv wies darauf hin, dass die vom IPCC favorisierten Computermodelle die kühlende Wirkung der Wolken vernachlässigen. Stattdessen rechneten die „Klimaretter“ ausschließlich mit einer positiven Rückkopplung von CO2 und Wasserdampf in der Atmosphäre und gelangten dabei zu einer unrealistisch hohen „Klimasensivität“ von CO2. Wegen der kühlenden Wirkung der Wolken sei das Netto-Feedback aber wahrscheinlich Null. Die Veränderung der Wolkenbedeckung allein könne während der so genannten Madden-Julian-Oszillation Schwankungen der Sonneneinstrahlung von 8 Watt je Quadratmeter bewirken, während der von den IPCC-Autoren angenommene „Treibhauseffekt“ allenfalls Schwankungen in der Größenordnung von einem Watt je Quadratmeter Erdoberfläche erklären könne, schätzte Courtillot. Entscheidend für die Entwicklung des Wettergeschehens und der Temperatur sei aber nicht die Globalstrahlung, sondern die UV-Strahlung. Die Erwärmung habe sich in Westeuropa nicht, wie der ansteigende CO2-Gehalt der Luft, allmählich vollzogen. Vielmehr zeigten alle Mess-Stationen zwischen 1986 und 1989 einen sprunghaften Anstieg. In Nordamerika folgt die Temperaturentwicklung einem ganz anderen Muster.

Damit bestätigte er, was dem deutschen Physiker Dr. Horst Borchert (Mainz) nach jahrzehntelangen Messungen aufgefallen ist. Borchert sieht einen Zusammenhang mit dem starken Rückgang der Schwefeldioxid-Belastung der Luft infolge der Umsetzung der deutschen Großfeuerungsanlagen-Verordnung und mit dem starken Sonnenwind (gemessen als Protonen-Höhenstrahlung) während des überaus aktiven 22. Sonnenfleckenzyklus. Da der aktuelle 24. Solarzyklus besonders schwach ausfällt, erwartet Borchert, dass der verstorbene Amateur-Astronom Dr. Theodor Landscheidt mit seiner Prognose einer schmerzhaften Abkühlung der Erde in den kommenden Jahrzehnten recht behält.

Wir sollten aber sowohl auf eine Abkühlung als auch auf eine weitere Erwärmung der Erde vorbereitet sein und in Bezug auf CO2 den Mut haben, nichts zu tun, meint der australische Geophysiker Prof. Bob Carter. Es bleibe den Menschen nichts anderes übrig, als sich an Klimaveränderungen anzupassen. Manchmal erfolgten diese in der Geschichte (wie zum Beispiel im jüngeren Trias) auch ohne menschliches Zutun allerdings so abrupt, dass nur die Flucht als Ausweg bleibe.

Carters Kollege der Geologe Prof. Ian Plimer, ein international renommierter Fachmann für Vulkanismus, beschäftigte sich mit der vom IPCC und einschlägigen Massenmedien hochgespielten Gefahr einer Versauerung der Meere durch den Eintrag von CO2. Der mit Abstand bedeutendste Eintrag von Kohlensäure in den Ozean stamme nicht von den Menschen, sondern von unterseeischen Vulkanen, stellte Plimer klar. Mit den Basalt-Eruptionen gelange aber auch gleichzeitig viel Kalk in die Meere, der die Säure neutralisiert. CO2 aus diesen Vulkanen trage die gleiche Isotopenhandschrift wie CO2 aus der Verbrennung von Kohle, Öl und Gas. Es würden aber mindestens zehnfach höhere Mengen emittiert. Genaueres wüsste aber bisher niemand, da diese Vulkane unterseeisch und dort in großer Zahl (Millionen!) tätig wären. Es könnte auch viel mehr sein. Deshalb sei die Behauptung, der Anstieg der CO2-Konzentration in der Atmosphäre gehe in der Hauptsache auf die Industrialisierung zurück, mit großer Vorsicht zu genießen.

Ohnehin sei der Kreislauf des Kohlenstoffs vom globalen Wasserkreislauf abhängig. Und dieser werde von der Sonne angetrieben, betonte der in Ottawa und ehemals in Bochum lehrende Geologe Prof. Jan Veizer. Die Computermodelle des IPCC stellten die Welt schlicht auf den Kopf, da sie dem CO2 die Rolle des Hauptantriebs der Klimaentwicklung zuschreiben. Dem konnte der in Leipzig lehrende Geoinformatiker Prof. Werner Kirstein nur beipflichten. Die in den IPCC-Modellen angenommene Beschleunigung des Meeresspiegel-Anstiegs entbehre jeglicher Datengrundlage. Kirstein zitierte den Oberdeichrichter der Deichacht Krummhörn,  Giesbert Wiltfang, der kürzlich verlauten ließ, der Meeresspiegel steige zurzeit überhaupt nicht. Auch das prognostizierte weitere Abschmelzen des Arktis-Eises sei nicht eingetroffen, betonte Prof. Kirstein. Die Eisdecke hat sich in den letzten Jahren wieder ausgedehnt. Das auf 3.000 Mess-Bojen fußende neue ARGO-Netz weist übrigens aus, dass sich der Ozean in der gleichen Zeit leicht abgekühlt hat.

EIKE-Mitglied Prof. em. Horst-Joachim Lüdecke konnte an Hand des Skalengesetzes von Hurst demonstrieren, dass die Temperaturentwicklung seit dem 19. Jahrhundert nicht zufällig fluktuierte, sondern einem Trend folgt, der auf Schwankungen der Sonnenaktivität als Antrieb hinweist. Prof. em. Friedrich-Karl Ewert (Paderborn) konnte an Hand einer Analyse der Rohdaten über 800 ausgewählter Mess-Stationen überdies zeigen, dass es auf der Welt überhaupt keinen einheitlichen Temperaturtrend zur Erwärmung gibt. Im Gegenteil, wenn etwas einheitlich sei, dann, dass 74 % der Stationen keinen Trend, bzw. sogar einen negativen Trend zeigten. Er bestätigte damit die Aussagen von Courtillot und Borchert. Phil Jones und andere dem IPCC zuarbeitende Forscher konnten nur deshalb eine Temperaturzunahme ausmachen, weil sie die Daten von Mess-Stationen, die eine Abkühlung zeigten, nicht berücksichtigten. EIKE-Pressesprecher Diplom-Meteorologe Klaus-Eckart Puls wies darauf hin, dass auch die vom IPCC an die Wand gemalte Zunahme schwerer Stürme nicht eingetreten ist. Im Gegenteil: Der Windkraft-Index ist in den letzten 15 Jahren um 20 Prozent gesunken. Das erklärt so manche Pleite in der Windkraft-Branche.

Warum diese in Mainstream-Medien dennoch als „Job-Motor“ gerühmt wird, untersuchte der bekannte Fernseh-Journalist Günter Ederer. Er stellte dar, wie es einer gut organisierten und eng mit der Politik verflochtenen grünen Lobby gelungen ist, die egoistische Durchsetzung völlig unwirtschaftlicher Formen der Energieerzeugung als „nachhaltige Entwicklung“ zu verkaufen. Prof. Dieter Ameling, der ehemalige Präsident der Wirtschaftsvereinigung Stahl, berichtete, der vom Bundesumweltministerium eingesetzte Rat von Sachverständigen für Umweltfragen habe schon in seinem Gutachten von 2001 die Meinung vertreten, „energieintensive Altindustrien“ hätten in Deutschland keinen Platz mehr. Doch diese „Altindustrien“ wie Bergbau, Stahl, Papier, Chemie, und Keramik besorgten in Deutschland 20 Prozent der Bruttowertschöpfung. In der aktuellen Finanzkrise zeige es sich, wie gut die Deutschen daran getan haben, ihr Land als weltweit bedeutenden Industriestandort zu erhalten. Werde der Ausbau der unwirtschaftlichen „erneuerbaren“ Energien jedoch fortgesetzt, müssten energieintensive Industrien abwandern. Im kommenden Jahr werde die Stromeinspeisevergütung nach dem Erneuerbare Energien Gesetz (EEG) bereits 32 Prozent des Industriestrompreisers ausmachen. Er könne deshalb seinen ehemaligen Arbeitgeber Thyssen-Krupp gut verstehen, wenn er jetzt massiv in Brasilien investiert und deutsche Standorte mittelfristig zur Disposition stellt.

Edgar L. Gärtner, EIKE  

Lesen Sie hier einige Berichte und Kommentare zur Konferenz:

Science Sceptical Peter Heller,  TAZ, Heise Online, Klimaretter, ZDF Frontal 21, Diffamierend wie üblich ZDF Frontal 21 und WDR 2 (ganz nach unten scrollen) s. auch Anlage.

Die folgenden Vorträge können als .ppt  Datei hier aufgerufen werden:

undefinedAmeling, undefinedCarter , undefinedLimburg, undefinedPuls, undefinedEwert, undefinedLüdecke  undefinedCourtillot, undefinedHaas, undefinedHaas Manuskript, undefinedPeters,  undefinedKirstein undefinedEderer,  undefinedPlimer , undefinedVeizer undefinedBorchert weitere werden folgen




Jetzt bewiesen? Es gibt einen klaren Zusammenhang zwischen kosmischer Strahlung und direkter Änderung der Bewölkung in mittleren Breiten!

Eine neue Studie, die jüngst in [der Zeitschrift]Atmospheric Chemistry and Physics veröffentlicht wurde, scheint zu beweisen, dass diese Beziehung nachgewiesen wurde.

Vereinfachte Darstellung der Beziehung zwischen GCR und Wolkenbildung auf der Erde. Bild: Jo Nova

Abbildung 2 unten zeigt eine Beziehung. Man kombiniere beim Betrachten vertical die obere und die untere Kurve.

Abb. 2. (A) Kurzfristige Änderungen der GCR (Die Markierungen deuten die Signifikanz an) und (B) anomale Änderungen der Bewölkung (Signifikanz hier markiert durch die durchgezogenen Linien), zusammengefasst über die ganze Periode. Die GCR-Daten wurden mit multiplen Neutronendetektoren gewonnen, die Variationen wurden im Vergleich zu Änderungen während eines Schwabe-Zyklus‘ vereinheitlicht. Die Änderung der Bewölkung wurde über die Troposphäre (30 – 1000 hPa) gemittelt aus Daten [des Satellitensensors] ISCCP D1 im infraroten Bereich.

Die Autoren schreiben in der  Übersicht:

Dr. Roy Spencer hat darauf hingewiesen, dass schon geringe Änderungen der Bewölkung ausreichen, das beobachtete “Signal der globalen Erwärmung” zu verursachen. Er schreibt in The Great Global Warming Blunder [etwa: "Die grandiose Fehlleistung mit der globalen Erwärmung"]:

Die offensichtlichste Art und Weise, mit der eine Erwärmung auf natürliche Weise stattfindet, sind kleine, natürliche Fluktuationen in Strömungsmustern von Atmosphäre und Ozeanen, die zu einer Abnahme der globalen Bewölkung von etwa 1 bis 2% führen. Wolken beschatten die Erde, und wenn sich die Bewölkungsmenge aus irgendwelchen Gründen ändert, bekommt man globale Erwärmung – oder globale Abkühlung.

Nun, es sieht so aus, als ob Laken, Kniveton und Frogley genau einen solchen kleinen Effekt gefunden haben. Hier folgen die Zusammenfassung und einige ausgewählte Passagen aus dieser Studie:

Atmos. Chem. Phys., 10, 10941-10948, 2010

doi:10.5194/acp-10-10941-2010

B. A. Laken , D. R. Kniveton, and M. R. Frogley

Die Auswirkungen der galaktischen kosmischen Strahlung GCR auf die Erde sind höchst unsicher. Hier wurde eine empirische Annäherung vorgenommen, die  auf einer signifikanten Änderung der Bewölkung basiert. Damit wurde eine statistisch robuste Beziehung zwischen kurzfristigen Änderungen der GCR und der raschen Bewölkungsabnahme in mittleren Breiten (60° bis 30° N/S) von Tag zu Tag gefunden. Dieses Signal wird verifiziert durch Analysen der Lufttemperatur in Bodennähe (Surface Level Air Temperatures SLAT). Ein Allgemeines Zirkulationsmodell (GCM) wird benutzt, um den ursächlichen Zusammenhang zwischen den beobachteten Änderungen der Bewölkung und den gemessenen SLAT – Anomalien zu testen. Die Ergebnisse deuten darauf hin, dass die außergewöhnlichen Änderungen der Bewölkung die Änderungen der SLAT-Werte verursacht haben. Dies bedeutet, wenn es eine kausale Beziehung zwischen einer signifikanten Abnahme der GCR (~0,79 GU, wobei GU eine Änderung um 1% in einem 11-Jahres-Zyklus‘ innerhalb von vier Tagen bezeichnet) und abnehmender Bewölkung gibt (~1,9 CU, wobei hier CU eine Änderung der Bewölkungsmenge um 1% innerhalb von vier Tagen bezeichnet), kann man eine Zunahme der SLAT-Werte (~0,05 KU, wobei KU eine Temperaturänderung um 1 K innerhalb von vier Tagen bedeutet) erwarten. Der Einfluss der GCR ist eindeutig von Änderungen der Solarstrahlung und dem interplanetarischen Magnetfeld zu unterscheiden. Allerdings stellte sich heraus, dass die Ergebnisse des Experimentes mit dem GCM durch die Grenzen des Modells bei der Simulation der tatsächlich beobachteten Bewölkung limitiert werden. Aus diesen Ergebnissen schließen wir, dass die Beziehung zwischen GCR und Klima durch kurzfristige Änderungen der GCR und interne atmosphärische wegbereitende Bedingungen bestimmt wird.

In Bezug auf die obige Abbildung fand ich diese Passage sehr interessant:

Die in Abbildung 2 zusammengefassten Beispiele zeigen eine positive Korrelation zwischen statistisch signifikanten Änderungen der Bewölkung und Variationen der kurzfristigen GCR: Eine Zunahme der GCR etwa 5 Tage vor dem Zeitpunkt der Abbildung korrelieren signifikant mit einer Zunahme der Bewölkung in mittleren Breiten. Nach dieser Zeit nimmt die GCR signifikant ab (um 1,2 GU), am meisten um den Zeitpunkt des Komposits in der Abbildung; diese Änderungen korrelieren mit einer verbreiteten, statistisch signifikanten Abnahme der Bewölkung (3,5 CU, 1,9 CU im globalen Mittel) in mittleren Breiten.

…und diese:

Der starke und statistisch robuste Zusammenhang zwischen einer raschen Abnahme der Bewölkung und kurzfristigen Änderungen der GCR, der hier zutage tritt, unterscheidet sich klar von den Effekten der Solarstrahlung und IMF-Variationen. [IMF = Interplanetary Magnetic Field] Die beobachteten anomalen Änderungen zeigen eine starke breitenkreisbezogene Symmetrie rund um den Äquator; und dieser Vorgang allein ist ein starker Hinweis eines externen Antriebs, weil es keinen bekannten Mechanismus gibt, der im Zeitrahmen dieser Analyse eine solche markante Klimavariabilität erklären könnte. Wichtig ist auch der Hinweis, dass diese ungewöhnlichen Änderungen über Gebieten stattfanden, bei denen die Wolkenbeobachtungen durch Satelliten sehr zuverlässig sind. In früheren Studien über ungewöhnliche Änderungen der Bewölkung in hohen Breiten war die Beobachtung schwieriger und daher unsicherer (Laken und Kniveton 2010, Todd und Kniveton 2001).

Obwohl die Wolkenbeobachtung in mittleren Breiten eindeutiger ist als in hohen Breiten, haben Sun und Bradley (2002) eine ausgeprägte statistische Signifikanz zwischen der GCR und dem Datensatz des Satellitensensors ISCCP über dem atlantischen Ozean identifiziert, der ansatzweise auch bei METEOSAT erkennbar war. Es scheint, dass diese Verzerrung keinen Einfluss auf die Ergebnisse hat, die in dieser Studie präsentiert werden. Abbildung 6 [im Original der Studie] zeigt die Größenordnung der mit Infrarotbeobachtungen gewonnenen Änderungen der Bewölkung über dem Atlantik, dem Pazifik und Landgebieten der mittleren Breiten während der hier betrachteten Zeitspanne, und eine vergleichbare Änderung kann in allen Gebieten beobachtet werden, was zeigt, dass kein signifikanter Bias vorhanden ist.

Diese Studie hat gezeigt, dass ein kleiner, aber statistisch signifikanter Einfluss der GCR auf die Atmosphäre über mittleren Breiten existiert. Dieser Effekt zeigt sich sowohl in den ISCCP-Daten als auch in der NCEP/NCAR-Analyse während mindestens der letzten 20 Jahre. Dies legt nahe, dass kleine Änderungen der solaren Aktivität mit Änderungen in der Erdatmosphäre zusammenhängen könnten, und zwar durch eine Beziehung zwischen dem GCR und der Bewölkung. Dieser Zusammenhang könnte kleine Änderungen der Sonnenaktivität verstärken. Außerdem kann diese Beziehung zwischen GCR und Bewölkung mit anderen wahrscheinlichen Beziehungen zwischen solaren und irdischen Vorgängen zusammenwirken, wenn man an Änderungen des solaren UV-Lichtes (Haigh 1996) und der Solarstrahlung (Meehl et al. 2009) denkt. Diese Antriebskräfte des Klimas könnten eine signifikante Auswirkung auf das Klima vor dem Aufkommen der anthropogenen Erwärmung gehabt haben, was die paläoklimatischen Änderungen im Zusammenhang mit den verschiedenen solaren Zyklen erklären könnte (Bond et al. 2001; Neff et al. 2001; Mauas et al. 2008).

Weitere detailliertere Forschung ist für das noch bessere Verständnis der Beziehung zwischen der GCR und der Erdatmosphäre erforderlich. Vor allem die Verwendung sowohl von Bodenbeobachtungen als auch von Satellitenmessungen über hoch aufgelöste ausgedehntere Zeiträume ist wichtig. Zusätzlich müssen potentiell wichtige weitere mikrophysikalische Phänomene in Betracht gezogen werden, wie z. B. Aerosole, Größe der Wolkentröpfchen und atmosphärische Elektrizität. Durch solches Monitoring, zusammen sowohl mit Computersimulationen (z. B. Zhou und Tinsley 2010) als auch mit experimentellen Versuchen (z. B.  Duplissy et al. 2010) hoffen wir die hier beschriebenen Effekte noch besser zu verstehen.

– – –

Es sieht so aus, als hätten sie das Signal gefunden. Dies ist ein überzeugendes Ergebnis, weil man jetzt weiß, wo und wie man schauen muss. Hier ist mehr zu erwarten.

Die ganze Studie sieht man hier: Final Revised Paper (PDF, 2.2 MB)

Mit Dank an The Hockey Schtick

Link: http://wattsupwiththat.com/2010/11/25/something-to-be-thankful-for-at-last-cosmic-rays-linked-to-rapid-mid-latitude-cloud-changes/

Übersetzt von Chris Frey für EIKE




Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen

Realer Temperaturverlauf für Deutschland

Nicht nur Großflughäfen und Städte haben einen Wärmeinseleffekt, der die Temperaturdaten in die Höhe treibt und damit verfälscht. Der WI steht für Einflüsse des Menschen auf seine Umgebung, die nicht temperaturneutral sind, da sie entweder direkt Wärme ausbringen oder indirekt das Wärmeverhalten der Landschaft und damit dessen Wärmespeicherung und/oder Abstrahlung ändert, einwirken. Hierzu zählen beispielsweise Flächenversiegelung/-umwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt,…

Für die tägliche Temperaturerfassung eines Ortes ist der WI nicht von Bedeutung. Denn die ortsgebundene Temperaturmessung soll ja dazu dienen, den Temperaturwert vor Ort aktuell zu bestimmen. Der WI ist aber von immenser Bedeutung, werden Vergleiche zu anderen Messstationen oder gar Vergleiche zu früheren Epochen, in denen es z.B. keine Jets gab oder das Landschaftsbild ein ganz anderes war, erstellt. Werden hier keine WI-Korrekturen vorgenommen, werden die berühmten Äpfel mit Birnen verglichen und genau dies ist in der/den Datenreihen des DWD, die die Deutschlandtemperaturen von 1881 – 2009 zeigen, der Fall.

Auf Anfrage konnte uns der DWD keine Aussage über den WI seiner Messstationen machen. Er teilte lediglich mit, dass dieser in der Fläche in Deutschland nicht über 0,1°C läge und damit unbedeutend sei. Nun, wir wollten dies genauer wissen und untersuchten, wie der WI-Anteil aus den DWD-Deutschlandwerten herauszurechnen ist. Hierzu ist es notwendig, eine Referenzstation zu finden, die eine lange Temperaturaufzeichnung vorweisen kann, weitab von Zivilisationseinflüssen liegt und die sich über die Jahre überschaubar änderte (es gibt keine Messstation, die sich über 100 Jahre nicht ändert). Eine solche Referenzstation, die auch der DWD als Referenzstation benennt, ist die Station Hohenpeißenberg (HPB).

Abbildung 1 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Diese stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Folgende Abbildung zeigt beispielsweise seinen Einfluss auf die arktische Eisbedeckung.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 2, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Es gilt nun, die Deutschlandtemperaturwerte mit der Referenzstation HPB in Relation zu setzen. Dabei ist anzumerken, dass beide Datenreihen vom DWD stammen und somit offiziellen Charakter besitzen. Die Relation der Daten ergibt folgende Reihe.

Abbildung 3 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt (die Zahlen 1 – 126 dienen zum Vergleich mit der Excel-Liste der Anlage), dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen (warum? – weiter im Text). Es lassen sich drei Bereiche erkennen, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln.

In der obigen Relationskurve ist der WI „verborgen“ und nicht in der Referenzkurve (die als Referenz nur einen kleinen WI hat – 0 kann er nicht sein, weil, wie gesagt, keine Station über 100 Jahre unverändert bleibt), sondern in der Deutschlandkurve des DWD. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-D-Daten relativ weniger steigen. Die durch den WI höheren Temperaturen dämpfen dort den Erwärmungstrend, weil sie ihn quasi bereits vorweg genommen haben.

Um den WI in den drei in Abbildung 3 zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wurde folgendermaßen vorgegangen:

·         Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009)

·         Ermittlung der jeweiligen %-Änderung des Folgezeitraums zum Vorgängerzeitraum

·         Unterschied ermittelt HPB zu D

·         WI im 2. und 3. Zeitraum berechnet

·         WI im 1. Zeitraum wurde mit 0,2°C sehr konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschaftsveränderung, …

·         WI HPB von 1881 – 2009 mit 0,3°C bestimmt.

Dass auch HPB nicht WI-los sein kann, wurde bereits geschildert. Der Grund für die 0,3°C ist wie folgt: Etwa 1940 ist die Klimastation auf dem HPB umgezogen. Der Leiter hat damals gefordert, Parallelmessungen durchzuführen, was aber nicht geschah. Die alte Wetterstation wurde den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das ständig erweitert und beheizt wurde. Heute stehen dort Gebäudekomplexe. Im Kloster zuvor wurde nur ein Aufwärmraum beheizt. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos. Daraus folgt: Bis 1940 hatte der HPB keinen WI. Dann hat er einen entwickelt, mit zunehmender Bebauung. Der Berg ist also nicht WI-frei, wie er allgemein in der Literatur und vom DWD dargestellt wird.

Für die drei Zeiträume ergibt sich ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = 0,2°C

Zeitraum 2: 1953 – 1982 = 0,3°C

Zeitraum 3: 1983 – 2009 = 0,7°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI über alle drei betrachteten Zeiträume von 1881 – 2009 = 1,2°C

Die Berechnung ist in der Excel-Liste mit den Quelldaten im Anhang zu sehen. Mit den von uns ermittelten dynamischen WI-Werten ergibt sich die für Deutschland korrekte Vergleichskurve der Temperaturdaten von 1881 – 2009 (Abbildung 4).

Abbildung 4 zeigt den Temperaturverlauf für Deutschland nach Daten des DWD (rosa), ohne Berücksichtigung der sich veränderten Rahmenbedingungen für Deutschland von 1881 – 2009. Die blaue Kurve zeigt die von uns ermittelte reale, WI-bereinigte Temperaturvergleichsreihe für Deutschland im selben Zeitraum. Der grüne Trendverlauf zeigt den dynamischen WI, der für die drei Zeiträume ermittelt wurde.

Die realen Vergleichswerte (blaue Kurve) zeigen keine nennenswerte Temperaturerhöhung für Deutschland im Betrachtungszeitraum. Die Maximaltemperatur wurde in den 1930-Jahren erreicht, was i.ü. mit den Temperaturdaten in den USA übereinstimmt. Dort lagen die höchsten Temperaturen ebenfalls in den 1930-Jahren (Abbildung 5).

Die Berechnung ergab, dass der WI dynamisch ansteigt, was auch einleuchtend ist, da der WI bekanntlich auf Flächenversiegelung, Flächenumwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt, eben human-influences basiert und diese werden und wurden von Jahr zu Jahr größer, und folglich der WI ebenfalls größer.

Abbildung 5 zeigt den Temperaturverlauf in den USA nach Daten der amerikanischen Wetterbehörde NOAA (National Oceanic and Atmospheric Administration). Die höchsten Temperaturen lagen auch dort Mitte der 1930-Jahre.

In unserem Vergleich der Abbildung 4 beginnt die Datenreihe ab 1881, weil ab diesem Jahr beim DWD durchgängige und verlässliche Temperaturdaten für Deutschland vorliegen, die uns der DWD übermittelte. Der DWD selbst lässt seine Datenreihe indes erst ab 1891 beginnen (Abbildung 6). Darum in Abbildung 7 der direkte Vergleich zu den DWD-Daten von 1891 – 2009.

Abbildung 6 (Quelle DWD) zeigt die mittlere Jahrestemperatur in Deutschland von 1891 – 2009. Für den Betrachter ergibt sich der Eindruck, dass Ende des 20. Jahrhunderts und zu Beginn des 21. Jahrhunderts die Temperaturen außerordentlich hoch ausfallen und auch in den „Kältejahren“ 2008 und 2009 die Temperaturen immer noch über dem Durchschnitt liegen und damit zu warm wären. Unsere Berechnung der realen Vergleichstemperaturen ergab, dass seit 10 Jahren die mittleren Temperaturen in Deutschland unter dem Trend(gestrichelte Trendkurve) liegen und damit zu kalt sind.

Abbildung 7 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und EIKE von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, haben wir, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (grüner Bereich). Auch bei der Datenreihe ab 1891, wieder der Quervergleich mit dem Temperaturniveau der USA aus Abbildung 5. Die EIKE-Deutschlandtemperaturkurve zeigt exakt das gleiche Bild: Die höchsten Temperaturen im Betrachtungszeitraum lagen Mitte der 1930-Jahre. Um 1950 lagen die Temperaturen ebenfalls über denen der letzten 30 Jahre und das Temperaturniveau von heute ähnelt dem zu Beginn des 20. Jahrhunderts. Allerdings sind solche Meldungen natürlich nicht geeignet, die Theorie einer menschen-gemachten Erwärmung, die auf sog. Treibhausgasen basiert, zu unterstützen oder gar zu beweisen. Zur Temperaturentwicklung, siehe auch den aktuellen Bericht von Antony Watts  vom 26.11.2010 (http://wattsupwiththat.com/2010/11/26/examination-of-cru-data-suggests-no-statistically-significant-warming/).

Die Basisüberlegung zum Berechnen des WI liegt darin (siehe oben), dass bei Erwärmung sich die Daten zur Referenzstation mehr und mehr angleichen, folglich muss auch der Umkehrschluss gelten, dass sich bei Abkühlung, die Temperaturen relativ mehr und mehr wieder voneinander entfernen. Da wir in Deutschland seit mehreren Jahren eine Abkühlung zu verzeichnen haben, kann dies überprüft werden. Dabei wurde nach zwei Kriterien vorgegangen:

1.   Beginn der Erwärmungsphase, anhand der diversen national (siehe DWD-Kurve in Abbildung 6) und internationalen Temperaturreihen, ab 1980. Dies ist somit das erste Betrachtungsjahr zur Überprüfung der Aussage, dass sich auf Grund des WI in einer Erwärmungsphase die Werte zur Referenzstation angleichen und damit das Verhältnis abnimmt.

2.   Ende der sonnenbasierten Erwärmungsphase in 2003. Hier hatte der Hauptsonnenzyklus sein (im Mittel) 208-jähriges Maximum und die NASA-Satellitenwerte der gemessenen und somit realen Sonnenaktivität, hatten um diesen Zeitraum ihr Maximum, wie die folgende Abbildung belegt:

Abbildung 8 zeigt die rekonstruierte Sonnenaktivitätskurve (blau, PMOD = Physikalisch-Meteorologisches Observatorium Davos) und die von NASA-Satelliten direkt gemessene Sonnenaktivitätskurve (rot, ACRIM = Active Cavity Radiometer Irradiance Monitor), Quelle: (http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html). Deutlich zeigen die direkten Satellitenmessungen, dass die solare Aktivität ab 1980, als global die Temperaturen (moderat) zu steigen beginnen, deutlich anzieht und unmittelbar nach der Jahrtausendwende, mit dem de Vries/Suess-Hauptsonnenzyklus ihr Maximum erreichen und anschließend, wieder parallel zu den Temperaturen, deutlich fallen.

Unter Anwendung beider Punkte ergeben sich fünf 6-Jahresblöcke. Die Überprüfung ergibt folgende Tabelle:

Dazu der Verlauf:

Abbildung 9 zeigt ganz deutlich, dass bis 2003, also in der gesamten sonnenbasierten Erwärmungsphase, das Verhältnis Deutschlandtemperatur zur Referenzstation (D/HPB) fällt und seit Beginn der Abkühlungsphase wieder ansteigt. Die Trendkurve bestätigt in eindrucksvoller Weise, den seit Beginn des 21. Jahrhunderts beobachteten Temperaturrückgang. Die Kurve steigt dabei viel schneller (doppelt so schnell), als sie vorher abfiel, d.h. nichts anderes, als dass wir derzeit einen schnellen Temperaturrückgang erleben, der durch den WI der Städte und Landschaftsveränderung gemindert wird und sich daher in den diversen Temperaturkurven des DWD nicht wiederfindet, aber von uns allen bereits erlebt  wird – der letzte kalte und lange Winter und das insgesamt sehr kalte Jahr 2010. Die Kurve passt auch zu den Aussagen der NASA, russischer Forscherteams (http://de.rian.ru/science/20100423/126040500.html) und des SSRC (Space and Science Research Center)>zur erwartenden Sonnenaktivität und der daraus resultierenden Kälteepoche, die uns bevorsteht.

Fazit – Die Erwärmung ist vorbei

Mit einem dynamischen WI von derzeit +1,2°C liegen die heutigen Temperaturen auf dem Niveau zu Beginn der Messaufzeichnungen in den 80-Jahren des 19. Jahrhunderts, also auf einem Niveau, welches kurz nach den letzten Kälteepoche, die in der Wissenschaft als die “Kleine Eiszeit“ bekannt ist und bis ca. 1850 andauerte, erreicht wurde. Dies deckt sich übrigens mit der Aussage des Leiters der Wetterstation Ostalbwetterwarte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren“.>

Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF), und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren!

Es ist daher dringend geboten, dass der DWD seine Temperaturdaten der Realität anpasst und Politik, Medien und insbesondere der Bevölkerung das wahre Temperaturniveau mitteilt. Und zwar das, was wohl jeder bereits wahrgenommen hat, dass es kälter geworden und die Zeit der Warmperiode vorbei ist und wir für die nächsten Jahrzehnte, wegen dem beobachteten starken Rückgang in der Sonnenaktivität (Abbildung 8) deutlich fallende Temperaturen bekommen.

Für die Politik ist es an der Zeit, das Gespenst der anthropogenen CO2-basierten Klimaerwärmung dorthin zu verfrachten, wo es hingehört, auf den Müllhaufen falscher (vermeintlich) wissenschaftlicher Theorien – da abgekoppelt von jeglicher beobachteter Realität und sich wieder den Themen zuwendet, die für unser Land und für unsere Gesellschaft essenziell sind. Bildung und Wissen sind hiervon nur zwei Begriffe. Eine Klimakönigin braucht unser Land nicht. Die Zeiten der Monarchie sind schon lange vorbei, wie die globale Erwärmung.

 

Der schleichende WI beim DWD, Zusammenfassung unserer beiden ersten Beiträge

Als Anhang für den eiligen Betrachter, eine kurze Zusammenfassung unserer ersten Beiträge, aus denen ersichtlich wird, warum der DWD in seinen Messreihen und damit Messstationen einen gemittelten WI von derzeit 1,2°C hat, der seine ganze Messreihe verfälscht.

Nach Angeben des DWD vom 10.06.2010 besteht sein Hauptamtliches Netz aus 182 Wetterwarten und an 531 Stationen werden nach unseren Informationen Lufttemperatur und- feuchte gemessen. Wir hatten 130 Messstationen des DWD an dessen eigenen Vorgaben für die Aufstellung und Betrieb solcher Stationen gespiegelt und dabei festgestellt, dass allein nach diesen Kriterien ca. 40% ungeeignet sind. Anbei einige Beispiele:

 

 

Eingangs hatten wir erwähnt, dass vermehrt Flughafenstationen in die Datenreihen einfließen. So lag allein 2009 der Anteil der „Flughafenmessstationen“ im globalen Temperaturnetzwerk des GHCN (Global History Climate Network), welches die globalen Temperaturreihen generiert, bei 41%! Somit sind deren Daten über globale Temperaturtrends ungeeignet. Bei näherer Betrachtung ist es logisch, dass Temperaturmessstationen auf Flughäfen, mit ihren vielen heißen Triebwerksabgasen für Messwerterfassungen im Zehntel-°C-Bereich ungeeignet sind. Kein Hausbesitzer käme auf die Idee, die Temperatur eines Wohnraumes unmittelbar an den Heizkörpern abzugreifen! Der DWD aber tut dies bei seinen Flughafenmessstationen.

WI auf Großflughäfen

Zur Qualifizierung und Quantifizierung ist zu beachten, wo sich die Temperaturmessstation auf dem Flughafengelände befindet, wie groß der Flugbetrieb, also die Flugbewegungen sind und welche Luftturbolenzen durch den Flugbetrieb auftreten. Die Höhe des Flugbetriebes bestimmt das Maß für den Wärmeeintrag der rund 600°C heißen Strahltriebwerksabgase in die Umgebungsluft. Die Luftturbolenzen zeigen, wie sich diese heißen Luftschichten verteilen und wie groß ihr Einzugsgebiet ist und der Aufstellort bestimmt, inwieweit die Messstation von diesen Turbolenzen oder sogar direkt von den heißen Abgasstrahlen der Jets beaufschlagt wird, wodurch sich in allen Fällen, der Messwert erhöht, also verfälscht.

Zur Bewertung der Luftturbolenz werden die in der Luftfahrt gefürchteten Wirbelschleppen herangezogen. Diese werden an den Tragflächenenden von Flugzeugen infolge des unterschiedlichen Drucks an Flügelunter- und Flügeloberkante erzeugt. Die Höhe der Druckdifferenz hängt von der Flugzeugeigengeschwindigkeit, dem Tragflächenprofil und dem Anstellwinkel ab. Die Stärke der Wirbel vom Flugzeuggewicht. Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören und es so zu einem Strömungsabriss kommen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten.

 

 

Wo liegt die DWD-Temperaturmessstation auf dem Flughafen Frankfurt?

 

Auch auf Berlin-Tegel oder London-Heathrow ergibt sich prinzipiell das gleiche Bild.

Abbildung 18 links zeigt die Temperaturmessstation auf Berlin-Tegel (roter Pfeil). Gut erkennbar, dass die Station unter 100m vom Rollfeld entfernt liegt und ca. 270m von der Start- und Landebahn. Abbildung rechts zeigt die Temperaturmessstation auf London Heathrow (roter Pfeil). Mit einem Abstand von knapp 200m ist die Wetterstation zwar grundsätzlich besser platziert, als in Frankfurt Rhein-Main, jedoch ist auch hier der Abstand zu den heißen Luftturbulenzen auf Grund der Wirbelschleppen viel zu gering. Es ist festzuhalten, dass die Wetterstation deutlich zu hohe Werte liefert (die Mitteltemperatur lag 2009 in Heathrow bei 11,9°C, gegenüber 9,17°C der Jahresmitteltemperatur von Großbritannien). Ein Unterschied von gut 2,5°C, was dem WI-Wert von Frankfurt Rhein-Main sehr nahe kommt.

Darüber hinaus hat der DWD zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Datenreihe zeigt die Temperaturabweichung (nach oben) der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Methode.

Nicht nur, dass der DWD offensichtlich mit Taschenspielertricks die Temperaturen künstlich in die Höhe treibt, seine eigenen Vorgaben für die Aufstellung und den Betrieb von Wetterstationen missachtet und nicht einmal den WI seiner eigenen Stationen kennt, scheint er nicht einmal wahrzunehmen, was er eigentlich misst und was er womit vergleicht.

Links zu den WI-Artikeln Teil 1 und Teil 2

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=2

und

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

 

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Anlage

In der Dateianlage finden Sie die Excel-Liste der Jahreswerte und der WI-Berechnung

Related Files




Cancuner Klimakonferenz: Japan verlängert Kyoto-Protokoll nicht

Das Kyoto-Protokoll wurde 1997 von den Ländern mit den meisten Emissionen angenommen. Sie haben sich verpflichtet, ihre Emissionen um durchschnittlich 5 % bis 2012 abzusenken, bezogen auf die 1990er Mengen.

Der US-Kongress hat das Protokoll aber nicht ratifiziert und bleibt außen vor.

Jun Arima, Beamter aus dem japanischen Wirtschafts- und Industrieministerium, machte die kurze Ankündigung in einer öffentlichen Sitzung. Das war die entschiedenste Stellungnahme, die je gegen das Protokoll von einem Land gemacht wurde, das zu den Ländern mit den höchsten Emissionen von Treibhausgasen gehört.

Er sagte: "Japan wird seine Minderungsziele aus dem Kyoto-Protokoll unter gar keinen Umständen oder Bedingungen fortschreiben."
Die anderen Delegationen wurden davon völlig überrascht.

"Wenn Japan mit solch einer Ankündigung bereits zu Anfang der Gespräche herauskommt, dann bedeutet das schon etwas", sagte ein britischer Offizieller. "Die Direktheit der Ankündigung hat alle überrascht."
Wenn das eine neue formelle Position ist und keine Verhandlungstaktik, könnte es die Abreise des einen oder anderen Entwicklungslandes provozieren und den Zusammenbruch der Gespräche bedeuten. Am Mittwoch Abend haben sich die Diplomaten mit Dringlichkeit um eine Klärung bemüht.

Die japanische Stellungnahme hat die G77 alarmiert; das ist die Gruppe der Entwicklungsländer, die das Kyoto-Protokoll für die einzige weltweit gültige Klimawandel-Vereinbarung hält.

Japan gab keine Begründung für seine kurze Ankündigung am zweiten Tag der Gespräche. Diplomaten aber sagten am Mittwoch Abend, dass sie eine Verhärtung der Position bedeutete. "Japan hat schon zuvor verkündet, dass es ein einziges gesetzliches Instrument wünsche und dass es daher nicht angemessen wäre, das Protokoll fortzuschreiben", sagte ein Offizieller, der nicht namentlich genannt werden will.

Japan hat am Mittwoch seine Position nicht klarstellen wollen. In der Vergangenheit aber hat es verlautbart, dass es eine neue gesetzlich verpflichtende Vereinbarung nicht ablehnen wollte, dass es aber eine Benachteiligung befürchte, wenn es sich zu Verminderungen verpflichte, während andere Länder wie Indien oder China vertraglich nicht zu derartigen Verminderungen verpflichtet wären.

"Das ist ein ganz schlimmer Anfang für die Verhandlungen. Die Gefahr besteht, dass andere Länder Japans Beispiel folgen werden und keine bindenden Verpflichtungen zur Emissionsverminderungen eingehen werden", sagte Poul Erik Laurisden, Sprecher der Hilfsorganisation CARE INTERNATIONAL.

übernommen von Watts up with that vom Guardian 1. Dezember 2010

Übersetzt von Helmut Jäger

Weiterführende links : http://ktwop.wordpress.com/2010/12/02/some-good-news-from-cancun-japan-refuses-to-extend-kyoto-protocol/




Dr. Ray Bradleys erstaunliches Photo! Wie man Kurven manipuliert!

Hier findet man die Website von Dr. Raymond S. Bradley, der wie folgt beschrieben wird:

Herausragender Universitätsprofessor im Fachbereich Geowissenschaften und Direktor des Climate System Research Center (http://www.paleoclimate.org).

Leser können sich vielleicht auch an Dr. Bradley erinnern, war er doch Ko-Autor von Dr. Michael Mann in der berühmten MBH98-Studie, in der der umstrittene „Hockeyschläger“ erzeugt wurde.

Dr. Bradley wurde auch vor Kurzem bekannt durch seine Plagiatsvorwürfe (accusations of plagiarism) hinsichtlich des Wegman-Berichtes an den Kongress von Dr. Edward Wegman von der George Mason Universität, in dem die statistischen Methoden der Studie MBH98 kritisiert wurden.

Rechts sehen Sie Dr. Bradleys Photo von seiner UMass-Website:

Bemerken Sie darin etwas Interessantes? Hier sind einige Hinweise:

 

 

Seine Graphik des CO2-Verlaufs mit dem Titel “Treibhausgasaufzeichnungen aus dem Eisbohrkern von Wostok“ zeigt einen Wert von etwa 360 ppm für das CO2 am „Zeitpunkt 0“ der Gegenwart. Das Photo muss alt sein, da der gegenwärtige Wert in der Atmosphäre gemessen auf dem Mauna Loa etwa bei 390 ppm liegt.

Gut, es ist also ein altes Photo, aber wo liegt das Problem?

Diejenigen, denen die CO2-Daten aus dem Eisbohrkern von Wostok nicht bekannt sind, können die offiziellen Daten auf den FTP-Servern der NOAA hier finden:

CDIAC (Carbon Dioxide Information and Analysis Center)
ftp://cdiac.ornl.gov/pub/trends/co2/vostok.icecore.co2

NCDC (National Climatic Data Center)
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/vostok/co2nat.txt

NASA Goddard bietet ebenfalls Zugang zu den offiziellen Wostok-Daten: http://gcmd.nasa.gov/records/GCMD_CDIAC_CO2_VOSTOK_ICECORE.html

…und sie zeigen diesen hilfreichen Graphen mit der umgekehrten Zeitachse der Graphik von Dr. Bradley. Der heutige Tag findet sich also links:

Das ist merkwürdig, die CO2-Daten von Wostok zum gegenwärtigen Zeitpunkt werden mit 280 ppm angegeben, also deutlich niedriger als die 360 ppm in Dr. Bradleys Graphik. Seltsam, aber jene Website der NASA zum Eiskern aus Wostok zeigt das jüngste Update bei:

Also muss das ganz neu sein, oder?

Also lassen Sie uns ein paar andere Quellen studieren, mit Werten, die vielleicht näher an den Werten von Dr. Bradley liegen. Sicherlich gibt es irgendwo einige Updates zu den Wostok-Daten, die ich übersehen habe.

Wie sieht es bei Wikipedia aus, wo alles immer auf den neuesten Stand gebracht wird? Selbst wenn William Connelly da nicht mehr seine Finger im Spiel hat, wurden die Daten im vergangenen Jahr oder so aktualisiert? Hier sieht man den Graphen aus Wikipedia:

Der Verlauf des CO2 (grün), der Temperatur (blau) und der Staubkonzentration (rot), abgeleitet aus dem Wostok-Eisbohrkern, wie er bei Petit et al. 1999 gezeigt wird. Höhere Werte der Staubkonzentration werden trockenen, kalten Perioden zugeordnet.

Quelle: http://en.wikipedia.org/wiki/File:Vostok_Petit_data.svg

Das ist komisch, die CO2-Daten zeigen hier etwas über 280 ppm CO2 in dem Eiskern. Aber sie beziehen sich auf jener Site auf Petit et al. 1999. Hmmm, ich machte mich daran, diese Studie zu suchen, und tatsächlich fand ich sie als PDF hier: http://www.daycreek.com/dc/images/1999.pdf und habe das Papier hier abgelegt  Vostok_nature_1999, um zu verhindern, die Website mit Downloads zu überladen. Der Titel dieser Studie von 1999 lautet [der Zeitschrift] Nature zufolge:

Klimatische und atmosphärische Geschichte der letzten 420 000 Jahre aus dem Wostok-Eisbohrkern, Antarktis
J. R. Petit*, J. Jouzel†, D. Raynaud*, N. I. Barkov‡, J.-M. Barnola*, I. Basile*,M. Bender§, J. Chappellaz*,M. Davisk, G. Delaygue†, M. Delmotte*, V. M. Kotlyakov¶, M. Legrand*, V. Y. Lipenkov‡, C. Lorius*, L. Pe´ pin*, C. Ritz*, E. Saltzmank & M. Stievenard†

Oh, o.k., dies erklärt, dass der Anteil des CO2 im Jahre 1999 bei 360 ppm gelegen haben muss und dass der Wert von Dr. Bradley daher stammt. Man betrachte nun die Daten vom Mauna Loa aus dem Jahre 1999 hier: ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_mm_mlo.txt.

Die Werte für 1999 lauten folgendermaßen:

1999   3    1999.208      369.46      369.46      367.90     26

1999   4    1999.292      370.77      370.77      368.19     30

1999   5    1999.375      370.66      370.66      367.84     29

1999   6    1999.458      370.10      370.10      367.87     30

1999   7    1999.542      369.10      369.10      368.42     30

1999   8    1999.625      366.70      366.70      368.21     30

1999   9    1999.708      364.61      364.61      367.95     29

1999  10    1999.792      365.17      365.17      368.41     31

1999  11    1999.875      366.51      366.51      368.58     29

1999  12    1999.958      367.85      367.85      368.58     29

Also erklärt das alles? Der Anteil des CO2 in der Atmosphäre lag 1999 um 360 ppm, so wie es in dem alten Photo von Dr. Bradley zu erkennen ist. Also müsste die Studie von Petit et al. den gleichen Wert zeigen, oder? Hier folgt die Graphik:

Oh, ist das seltsam! Sie zeigt nur etwa 280 ppm CO2 zum “gegenwärtigen” Zeitpunkt 1999, dem Zeitpunkt also, zu dem die Graphik veröffentlicht wurde.

Nun ja, die archivierten NOAA-Daten auf ihrem FTP-Server müssen aktualisiert sein und etwa 360 ppm irgendwo in dem Datensatz zeigen, oder? Also suchte ich auch danach, um sicher zu sein. Die jüngsten Daten findet man hier: ftp://cdiac.ornl.gov/pub/trends/co2/vostok.icecore.co2

Hmmm, die jüngsten Daten stammen von vor 2342 Jahren und zeigen 284,7 ppm. Das kann aber nicht stimmen, weil der renommierte Dr. Bradley Daten um 360 ppm zeigt. Außerdem sind die Namen der Ko-Autoren des Beitrages über die Analyse der Daten aus dem Wostok-Eisbohrkern von 1999 in Nature aufgeführt. Sicher gibt es doch dazu ein Update, oder?

Vielleicht ist es ein anderer Datensatz von NOAA, den er benutzt hat? Zu finden hier: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/vostok/co2nat.txt

Nun, das passt zu den CDIAC-Daten, aber es zeigt sich immer noch kein Wert um 360 ppm CO2 in den jüngsten Daten.

 

Nun ja, wie kann das sein?

Die Antwort scheint zu sein, dass es keine neuen Daten aus dem Wostok-Eisbohrkern gibt. Er hat geendet, und in den offiziellen Datenspeichern gibt es keine neuen Daten. Der letzte Wert des CO2-Anteils aus dem Eiskern zeigt 284,7 ppm.

Wie kommt dann Dr. Bradley zu einem Wert um 360 ppm? Ganz einfach, ich denke, er benutzt den gleichen Trick, den er und seine Ko-Autoren bei der Erstellung des berüchtigten MBH98-Papiers entwickelt hatten und mit dem sie die Hockeyschlägerkurve aus Instrumentenablesungen und paläoklimatischen Daten zusammen setzten:

Die Graphik oben stammt aus Fred Pearce’s Feb 2010 article in the Guardian und zeigt die mit Instrumenten ermittelten Daten, wie sie den Daten des Eisbohrkerns einfach angefügt wurden.

Und hier sieht man eine spätere Version aus dem Jahre 2003 mit der gleichen Aufspaltung zwischen Instrumenten- und Paläodaten (Abbildung 1 aus Mann et al., EOS forum 2003):

Quelle: http://www.ncdc.noaa.gov/paleo/pubs/mann2003b/mann2003b.html

Es ist also ziemlich offensichtlich, dass Dr. Bradley (oder wer auch immer diese Graphik entwarf) einfach die Daten aus dem Eisbohrkern am Ende entfernt und durch Instrumentendaten ersetzt hat. Oder, wie es Joe Romm ausdrückt, er hat das Ganze „aufgepeppt“.

Das einzige Problem, dass sich jedoch ergibt, wenn er die Graphik unter dem Titel: Treibhausgaskonzentrationen aus dem Wostok-Eisbohrkern wie unten gezeigt präsentiert…:

 

…ist, dass sie meiner Ansich nach falsch ist! Dies gilt auch für die rote Linie des Methans, aber das steht auf einem anderen Blatt.

Das Problem: Wenn man Bodendaten der Temperatur aus der Antarktis nimmt und sie mit den Bodendaten der Temperatur von Hawaii verbindet und dieses Konstrukt dann als die gesamte historische Aufzeichnung aus Antarktika präsentiert, würden unsere Freunde einen echten „Knüller“ landen.

Oder, wenn man die Wirtschaftsdaten einer schlecht gehenden Firma „A” mit den viel besseren Daten einer Firma „B“ verbindet und daraus einen Gesamtverlauf der Firma „A“ konstruiert und diesen den Aktionären vorlegt, würde die Securities and Exchange Commission (SEC) einen echten Knüller haben, wenn sie das herausfinden, oder nicht? Manch einer wandert für so etwas ins Gefängnis.

Aber was wollen Sie, das ist Klimawissenschaft!

Ein riesiges Dankeschön an den Leser Brian M. der mich per e-mail auf diesen Vorgang hingewiesen hatte.

Zusatz: Ich sollte erwähnen, dass ich keinen Beweis habe, ob diese Graphik irgendwo in irgendeiner wissenschaftlichen Veröffentlichung oder Präsentation von Dr. Bradley gezeigt wurde. Ich weise lediglich darauf hin, dass dieses Photo, das gestellt erscheint, nicht zu den aktuellen Daten aus Wostok passt. Man sollte nichts über diesen Vorgang hinaus extrapolieren, bis die nächsten Beweise präsentiert werden.

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE