1

Lobbyismus vom Feinsten, die Krakenarme der Lobby für „Erneuerbare“: Vortrag des Fernsehjournalisten G. Ederer auf der 3. Int. Klima- und Energiekonferenz in Berlin

Vortrag über die "Erneuerbaren" Lobby des ökoindustriellen Komplexes gehalten von Günter Ederer am 4.12.10 in Berlin. Zu deren parlamentarischen Lobbyarbeit sehen Sie bitte auch diesen Beitrag (hier)

Und unten sehen Sie als aktuellen Beweis einen weiteren hochrangigen Lobbyisten für "Erneuerbare", der ungeniert und von höchster Stelle vor dem Europa Parlament die Klimaleugnerkeule schwingt, um die durch Angstmache erzeugte zwanghafte Umverteilung zugunsten der Ökolobby zu steigern.

Allerdings muss man wohl beim Oberlobbyisten Prinz Charles davon ausgehen, dass er – mangels angeborener Einsichtsfähigkeit – es nicht besser weiß.

Jedoch Charles´eigener Lebensstil schafft einen CO2–Fussstapfen, der 100 Mal grösser als der jeder anderen Person im Vereinigten Königreich. Präs. Barroso will vor 2050 die Treibhausgase um bis zu 95% mindern – bedauert jedoch, dass die “Bekämpfung des Klimawandels” in den Hintergrund getreten sei,und zwar wegen schwacher nationaler Etats und Arbeitslosigkeit!

Mit Dank an den Honigmann für diese ergänzenden Informationen

Related Files




Björn Lomborg: “Grüne Jobs” könnten sich als Bumerang erweisen !

Keine ökonomischen Vorteile

Dr. Gülen fand in seiner Untersuchung, dass es keine Grundlage gibt,  die Erschaffung neuer Jobs als “einen weiteren Vorteil” von gut gemeinter grüner Politik zu verteidigen. Tatsächlich ist es so, dass die Zahl der Arbeitsplätze die durch grüne Politik vernichtet werden zumindest gleich groß ist wie die Zahl der neuen Arbeitsplätze die dadurch erschaffen werden.

Ein weiteres Ergebnis war, dass in einigen Untersuchungen in denen die Vorteile der neu geschaffenen Arbeitsplätze herausgestellt werden sollten, keine Unterscheidung vorgenommen wurde zwischen befristeten Aufträgen (wie etwa dem Bau von Windturbinen) und den langfristig erzeugten Arbeitsplätzen (wie etwa dem Betrieb und der Wartung der Windräder). Manche der untersuchten Studien gingen so weit, ohne weitere  Begründung einfach anzunehmen, dass diese neuen Arbeitsplätze pauschal zu einer besseren Bezahlung führen würden, als  solche in der konventionellen Energieerzeugung.

Schwammige Definition von “grünen Arbeitsplätzen”

In anderen Fällen war die Definition der “grünen Arbeitsplätze” so schwammig, dass sie für eine vernünftige Einordnung völlig untauglich war. Falls etwa ein Beauftragter für Nachhaltigkeit seine Anstellung bei einer Zementfabrik kündigte und stattdessen für eine Firma arbeitete, die ihr Geld mit erneuerbaren Energien verdient, wurde das von einigen Studien als die Schaffung eines “neuen” Arbeitsplatzes angesehen.

Auch beruhten viele Abschätzungen über die Neuerschaffung von grünen Jobs auf Annahmen zur Produktion von “grüner Energie”, welche belastbare seriöse Schätzungen bei weitem übertrafen.

Höhere Kosten kaum beachtet

Ein weiterer Punkt der in vielen Studien zu den “Erneuerbaren Energien” ebenfalls kaum Beachtung fand, waren die höheren Kosten für die Erschaffung von Arbeitsplätzen und die Verluste von Jobs in anderen Bereichen durch die Umsetzung grüner Politik. So führen steigende Kosten für Elektrizität, Heizenergie und Kraftstoffe zu steigenden Produktionskosten und reduzieren die Zahl der konventionellen Arbeitsplätze. Diese Effekte führen insgesamt betrachtet sogar zu einer Reduzierung des verfügbaren Einkommens.

Sobald man diese Effekte mit in Betracht zieht stellt sich heraus, dass die angeblich neu geschaffenen Stellen durch grüne Energien zumindest ebenso viele “alte Jobs” vernichten. Einige ökonomische Modelle zeigen sogar insgesamt einen Rückgang der Beschäftigung. Das bedeutet also, dass trotz des erheblichen finanziellen Aufwandes für die Anstrengungen der Regierungen zur Erschaffung von grünen Jobs insgesamt die Zahl der Arbeitsplätze sogar verringert wird.

Oft ließe sich das Geld sinnvoller einsetzen

Wenn man noch in Betracht zieht, dass es andere Bereiche gibt in denen die gleichen Summen zu mehr Stellen führen, als ein Beispiel wird der Gesundheitssektor genannt, stehen die “umweltfreundlichen Arbeitsplätze” in einem noch schlechteren Licht da.

Auch weitere Behauptungen darüber, was die grünen Jobs alles für unsere Gesellschaft leisten können, wie etwa eine erhöhte Produktivität, ein höheres verfügbares Einkommen und verringerte betriebliche Aufwendungen, wurden genauer unter die Lupe genommen. Und auch hier kam Dr. Gülen zu dem Ergebnis, dass solche Aussagen “keine beweisbare Grundlage haben und völlig inkonsistent mit den Realitäten der grünen Energien und der Energiemärkte” sind.

Insgesamt lässt sich aus der Studie folgern: Sogenannte Grüne Jobs sind vor allem teuer, für die Zahl der Arbeitsplätze zumindest nutzlos und im Gesamtergebnis wahrscheinlich sogar kontraproduktiv.

Quellen und weiterführende Links:

Die komplette Studie (PDF) – Defining, Measuring and Predicting Green Jobs

Reuters – “Green” job creation risks backfiring

Copenhagen Consensus Center – Economic Analysis of the Promise of ‘Green Jobs’

Richard Tol – The Costs and Benefits of EU Climate Policy for 2020

Copenhagen Consensus Center und Buchautor. Auf deutsch erhältlich sind von ihm Apocalypse No!, eine faktenreiche Abrechnung mit der Litanei der Umweltbewegung und Cool it!: Warum wir trotz Klimawandels einen kühlen Kopf bewahren sollten.

Man sehe auch hier: Die Staganaro Studie zur Jobvernichtung durch "grüne Jobs" in Italien, bzw. hier die Calzada Studie zur Jobvernichtung durch "grüne Jobs" in Spanien.

Von Rudolf Kipp EIKE; Der Beitrag erschien zuerst auf Science Sceptical 

Ähnliche Beiträge (Automatisch generiert):




Pakistanflut: Neues fachbegutachtetes Papier der University of Washington über die Pakistan-Flut von 2010 – sie hatte nichts mit “Klimawandel” zu tun!

„Man kann nicht auf eine Katastrophe verweisen und sagen, “das war von … verursacht”, denn wir verändern das Weltklima,“ sagte sie. Und weiter, dass die russischen Waldbrände ein weiteres Beispiel seien, über das Pakistan-Hochwasser hinaus. Zwar gäbe es ihrer Meinung nach keine “direkte Verbindung” zwischen den Katastrophen in Pakistan und in Russland, aber “wenn es diese Klimaveränderung gibt, welche das derzeitige Wetter beeinflusst …“, dann hielte sie die Vorhersagen von mehr Naturkatastrophen für immer zutreffender.“

Nun, Leute, seht Euch das mal an: Da gibt es ein neues fachbegutachtetes Papier – kommt demnächst im Bulletin der American Meteorological Society heraus – und in der Presseankündigung des Papiers wird nicht einmal das Wort “Klima” erwähnt. Einfach gesagt, ein bösartiges Sturmsystem, Bestandteil der normalen chaotischen Wetterentwicklung, war die Ursache. Nichts weiter. Jeder, der behauptet, das sei ein Teil des Klimawandels liegt ganz einfach falsch, Hillary eingeschlossen.

Das Papier wurde kürzlich auf einer Sitzung der American Meteorological Society in Seattle präsentiert.

Von Eurekalert:

Bösartiges Sturmsystem verursachte das Pakistan-Hochwasser, das Millionen obdachlos machte.

 

Dieses Foto, das lange nach den ersten Hochwasser im vergangenen Juli 2010 gemacht wurde, zeigt die deutliche Wirkung des Monsuns auf den Straßen des Distrikts Muzaffargarrh in Zentralpakistan. Mit freundlicher Genehmigung: World Vision

Die katastrophalen Hochwasser des vergangenen Sommers, die mehr als 2.000 Menschen das Leben kosteten und mehr als 20 Millionen verletzten oder obdachlos machten, sind von einem bösartigen Wettersystem verursacht worden, das hundert Meilen weiter westwärts zog als derartige Systeme es normalerweise tun, wie neuere Forschungen zeigen.

Sturmsysteme mit weitverbreitetem Dauerregen über Ostindien und Bangladesh bilden sich über dem Golf von Bengalen, am Ostteil von Indien, sagte Robert Houze, Professor für Atmosphärenwissenschaft an der University of Washington. Pakistan aber, am Arabischen Meer im Westen von Indien gelegen, ist deutlich trockener und die Stürme dort erzeugen typischerweise nur lokale schwere Regenfälle.

Die Überschwemmungen hatten im Juli begonnen und führten sogar dazu, dass schätzungsweise mehr als 20 Prozent von ganz Pakistan unter Wasser standen. Die Schäden an Bauten sind auf mehr als $4 Mrd. geschätzt worden, und die Weltgesundheitsorganisation hat geschätzt, dass bis zu 10 Millionen Menschen verschmutztes Wasser trinken mussten.

Houze und seine Kollegen haben auch die Radardaten des Tropical Rainfall Measuring Mission Satelliten ausgewertet und konnten so feststellen, dass die Regenfälle, die den Indus über seine Ufer in Pakistan treten ließen, über dem Himalaja ausgelöst worden waren, verursacht von einem Sturmsystem aus dem Golf von Bengalen, das sich Ende Juli gebildet hatte und ungewöhnlich weit nach Westen vorstieß.  Weil sich die Regenwolken innerhalb des feuchtigkeitsgesättigten Sturms aus dem Osten befanden, konnten sie außergewöhnlich viel Regen auf die öden Berghänge abladen, der wiederum in den Indus abfloss.

Die Entwicklung des Sturms trat in den Satellitendaten klar zutage, sagte Houze.

“Wir haben uns Satellitendaten von 10 Jahren angesehen und nichts dergleichen zuvor gesehen,“ sagte er, “Der Satellit kommt mehrmals täglich über dieses Gebiet, aber dieses System wurde zufälligerweise erst entdeckt, als es schon voll entwickelt war.“

Houze ist Leitautor eines Papiers, das diese Erkenntnisse zur Veröffentlichung im Bulletin of the American Meteorological Society darlegt.  Koautoren sind Kristen Rasmussen, Socorro Medina und Stacy Brodzik von der University of Washington und Ulrike Romatschke von der Universität Wien.

Houze hat über diese Erkenntnisse auch in einer Sitzung des jährlichen Treffens der  American Meteorological Society in Seattle berichtet (25. Januar).

Die Stürme waren in ein Windrichtungssystem eingebunden, das in den Satellitendaten bis zu seinem Ursprung über dem Golf von Bengalen zurückverfolgt werden kann, sagte Houze. Da man die Signatur des Sturmsystems in den Satellitendaten gefunden hat, kann man diese Information in Wettervorhersagemodelle einbringen. Damit könnten die Meteorologen in die Lage versetzt werden, Vorhersagen zu machen und rechtzeitig Warnungen herauszugeben, wenn die Bedingungen für derartige Ereignisse wieder vorliegen.

“Ich denke, das war ein seltenes Ereignis, aber man muss an so etwas denken,” sagte Houze. “Das Verständnis des Geschehens könnte zukünftig zu besserer Vorwarnung vor derartigen Katastrophen führen.“

Weitere Informationen bei Houze, Tel.: USA 206-543-6922 oder houze@uw.edu.

Anmerkung: Das Projekt Tropical Rainfall Measuring Mission wird gemeinsam von der NASA und der Japan Aerospace Exploration Agency durchgeführt.

Anthony Watts

Den Originalartikel finden Sie hier

Die Übersetzung besorgte H. Jäger EIKE




Bündnis 90/ Die Grünen „Fachgespräch“ am 18.3.11: „Das Interesse am Zweifel – Die Strategien der sog. Klimaskeptiker und wer dahintersteht

Stattdessen wurde ein kleines Panel mit bekannten Vertretern der Katastrophen-Wissenschaft sei es vom PIK oder von anderen  bekannten grünen Lobbyisten zusammengestellt, als da sind:

MdB Bärbel Höhn,

Prof. Stefan Rahmstorf;  und

MdB Dr. Hermann Ott,

die Licht in das Dunkel bringen sollen. Gespannt sind wir zudem auf NN vom weltbekannten CAN Europe (Climate Action Network ) und den selbsternannten Lobbykontrolleur und Politikwissenschaftler Dr. phil. Dieter Plehwe.

Zur Einführung ins Thema heißt es in der Einladung (hier) (leider ist hier mal wieder das schöne deutsche Wort „worum“ verzichtet worden und durch das verballhornende „Um was“ ersetzt worden):

Um was es geht

Klimaskepsis ist kein neues Phänomen innerhalb der Debatte um den anthropogen verursachten Klimawandel. Zur Verhinderung einer ambitionierten Klimaschutzpolitik und zur Verhinderung der Energiewende hat das Sähen von Zweifeln an den Erkenntnissen der Klimawissenschaft insbesondere in den USA eine lange Tradition und hat dort eine neue Dimension erreicht. Neben der Verbreitung von Lügen und Unwahrheiten gehören auch die Diffamierung von Klimapolitikern und verdeckte Operationen inzwischen zum Repertoire der Verhinderer von Klimapolitik*. Auch in Deutschland intensivieren sich die Aktivitäten der Klimaskeptiker und Klimaleugner. Die anfangs auf Internet-Foren und Blogs beschränkte Tätigkeit hat mittlerweile auch den Bundestag erreicht. Politiker von CDU/CSU und FDP empfangen bekannte Klimaskeptiker öffentlich und geben deren unseriösen und unwissenschaftlichen Thesen so ein Forum.

In unserem Fachgespräch wollen wir die Hintergründe der derzeitigen Aktivitäten der Klimaskeptiker beleuchten. Was ist der Anlass für die aktuellen klimaskeptischen Aktivitäten und die mediale Aufmerksamkeit? Was sind die Strategien der sog. Klimaskeptiker, wer steht dahinter und wer finanziert sie?

Wir laden Sie herzlich ein mit uns zu diskutieren.

* Hervorhebungen vom Autor

Update 14.2.11 

Hier dazu eine Spenderliste (evtl. nicht vollständig) gem. einer Anfrage des Manhatteninstitus in Berlin an den Parteivorstand der Grünen: " Wie stehen die Grünen zu dem Umstand, dass ihre Politik der extremen Subventionierung von Solar- und Windenergie einhergeht mit Parteispenden unter anderem der,

IBC Solar AG /SMA Solar Technology AG /Ostwind-Verwaltungsgesellschaft mbH /Umweltkontor Renewable Energy /EWO Energietechnologie GmbH /Conergy AG /Pro Vento /Nordex AG /Windpark G.W. Meerhof GmbH &Co.KG / Ersol AG /Windpark wohlbedachtGmbH & Co. KG /Wind Projekt Development GmbH /Solarworld AG /SMA Technologie AG /Solon AG für Solartechnik /AGU Energie- und Elektrotechnik GmbH………………………………………………………………….

Das Programm der besorgten Grünen liest sich dann so:

Wir laden Sie herzlich ein mit uns zu diskutieren.

Programm

13.30

Begrüßungskaffee

14.00

Einführung

Bärbel Höhn MdB?Stellvertretende Fraktionsvorsitzende

14.20

Lobbyaktivitäten der Industrie: Wie der Zweifel am Klimawandel geschürt wird

Dr. Dieter Plehwe?LobbyControl/ Wissenschaftszentrum Berlin (WZB)

14.40

Der Einfluss der fossilen Energiewirtschaft in den USA, Strategien und erfolgreiche Gegenstrategien

N.N.? CAN Europe

15.00

Zweifel ohne Nahrung: Methoden und Strukturen der Klimaskeptiker 

Prof. Dr. Stefan Rahmsdorf?Potsdam Institute for Climate Impact Research (PIK)

15.20

Podiumsdiskussion

*    Dr. Dieter Plehwe

*    N.N.? CAN Europe

*    Prof. Dr. Stefan Rahmsdorf?PIK

*    Moderation: Dr. Hermann Ott MdB?Sprecher für Klimapolitik

16.45

Zusammenfassung und Schlusswort

Dr. Hermann Ott MdB

17.00

Get together

EIKE hat sich die Freiheit genommen und mit Mail vom 10.2.11 die Einladenden -Wir laden Sie herzlich ein mit uns zu diskutieren- beim Wort genommen und seine aktive Mithilfe bei der Aufklärung dieser behaupteten schweren Vergehen angeboten:

Sehr geehrter Herr Dr. Ott,

dem Internet entnehmen wir, dass Sie am 18.3.11 ein Fachgespräch über die Strategien der sog. Klimaskeptiker im Deutschen Bundestag führen wollen. Ich biete Ihnen dazu gerne Informationen aus erster Hand an und würde bei einer Einladung zu Vortrag und Diskussion auf dem Podium selbstverständlich kommen. Ebenso wie andere EIKE Mitglieder und Unterstützer. Unsere Teilnahme würde natürlich auch der umfassenden und fairen Information des Publikums dienen, wobei wir davon ausgehen, dass Sie und dass Publikum daran interessiert sind. Gern erwarte ich Ihre Zusage und 

verbleibe mit freundlichen Grüßen

Ihr 

Michael Limburg

Vizepräsident EIKE (Europäisches Institut für Klima und Energie)

http://www.eike-klima-energie.eu/

Eine Antwort wurde heute (11.2.11) per Mail wie folgt gegeben:

Am 11.02.2011 um 13:20 schrieb Ott Hermann:

Sehr geehrter Herr Limburg,
 
selbstverständlich können Sie oder andere Mitglieder von EIKE an unserem öffentlichen Fachgespräch teilnehmen und sich in der Diskussion zu Wort melden. Melden Sie sich dazu einfach unter http://www.gruene-bundestag.de/cms/termine/dok/370/370093.das_interesse_am_zweifel_die_strategien.html an.
 
Mit freundlichen Grüßen
 
Büro Hermann Ott

Unsere Antwort vom 11.2.11 ist diese:

Sehr geehrtes Büro Hermann Ott,
danke für diese Bestätigung, dass wir uns anmelden dürfen. Das hatten wir an sich schon auf Grund der Formulierung Ihrer Einladung erwartet, Darum geht es aber nicht. Es geht darum – wie auch schon zuvor geschrieben- Ihnen und Ihren Zuhörern Informationen aus erster Hand zu liefern, über die wahren Motive und deren faktenmäßigen Begründung, der von Ihnen zu Unrecht geschmähten "Klimaskepitker". Nur dann – also mit unserem Vortrag und auf dem Podium-  ist es für Ihr Publikum sinnvoll und auch fair, dass wir teilnehmen. Über Ihre Zusage würden wir uns daher freuen. Auch wenn Sie Ihnen aus verständlichen Gründen vielleicht schwerfällt. Falls Sie aus -welchen Gründen immer- absagen, müssen wir und alle anderen davon ausgehen, dass sie an einer fairen Aufklärung und Sach-Diskussion nicht interessiert sind.
 
Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
http://www.eike-klima-energie.eu/

Michael Limburg EIKE

Antwort diesmal von Dr. Ott selber, mit Kopie an Fraktionsvorsitzende Bärbel Höhn, sie spricht für sich:

Sehr geehrter Herr Limburg,

Es gibt keinen Grund für Unterstellungen. In unserem Fachgespräch soll es in der Hauptsache nicht um die Frage gehen, ob die Klimawandelskeptiker falsch liegen oder nicht. Die Frage nach den Ursachen des Klimawandels ist nicht strittig. Es ist Ihr gutes Recht, unsere Meinung nicht zu teilen. Es soll auch heute noch Menschen geben die die Erde für eine Scheibe halten. Auch die werde ich nicht versuchen zu überzeugen.

Allerdings würde ich sehr wohl gegen diese Ansicht argumentieren wenn deren Vertreter andere davon abhalten wollten lebenswichtige Zukunftsinvestitionen zu machen und eine grosse Gefahr für das Leben der Menschen auf diesem Planeten abzuwenden.

Ähnlich sehe ich es in diesem Fall. Es gibt interessierte Kreise die verhindern wollen dass unser Energiesystem oder unsere Landwirtschaft umgestaltet und zukunftsfähig gemacht werden. Diese Hintergründe wollen wir in diesem Fachgespräch beleuchten und uns von Fachleuten informieren lassen.

Sie können also gerne an unserer Veranstaltung teilnehmen und sich in der Diskussion zu Wort melden.

 

MIt freundlichen Grüßen

 

Hermann Ott

Unsere Antwort: 11.2. 11 1):52

Hallo Herr Ott,

wie schon vermutet, sind Sie und Ihre Kollegen nicht an Informationen aus erster Hand interessiert. Was sie sehen oder nicht sehen, ist wirklich nicht so interessant. Mit Scheuklappen sieht es sich auch nicht so gut.
Es lässt sich ja auch viel leichter verunglimpfen, wenn die Betroffenen nicht adäquat zu Worte kommen dürfen. Ein Anschauungsunterricht über grüne Meinungssbildungsarbeit erster Güte. Das wird die Öffentlichkeit interessieren.
Ich verbleibe mit freundlichen Grüßen
Ihr 
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
http://www.eike-klima-energie.eu/




Klima-Kipp-Punke : Spekulationen am Ende ?

Eine recht ausführliche Reflektion dieser Thesen erschien im FOCUS [3] unter dem Titel "Klimawandel  –  Forscher benennen neun Schlüsselstellen". Offensichtlich konnte auch der FOCUS in seinem Bericht über die Forscher-Verlautbarungen keine Fakten finden, denn der FOCUS-Artikel ist eine einzige Auflistung von Konjunktiven, wie : "Grönlandeis … Amazonas-Regenwald könnten leicht kippen…" – "Wenn das arktische Meereis schmilzt, … würde die Erwärmung … verstärkt." – "Das übrige Eis schmölze(!)  dann schneller." – "Meeresanstieg um sieben Meter möglich" –  "Arktis … im Sommer eisfrei sein könnte" – "Amazonas-Regenwald…  großflächig zerstört sein könnte" – "Westantarktische Eisschild könnte  … abtauen" …usw. und so fort ….   14 Konjunktive dieser Art gibt es zu bewundern, etliche Konditional-Konstruktionen dazu; Fakten oder Beweise fehlen, im Original wie auch im FOCUS !

Zu all derartigen Thesen von Klima-Kollapsen und angeblich anthropogen angestoßenen Klima-Katastrophen gab es stets auch kritische Stimmen von namhaften Wissenschaftlern. So berichtet und zitiert z.B. DIE ZEIT den Vizedirektor des Alfred-Wegener-Instituts in Bremerhaven, Prof. Dr. Heinz Miller [6] :

Wer von Klimaschutz redet, weckt Illusionen“, mahnt Miller zu Bescheidenheit;

"Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert.“ Schlagworte wie Klimakollaps oder -katastrophe hält er für irreführend. "Das Klima kann nicht kollabieren, Natur kennt keine Katastrophen.“ Was wir Menschen als Naturkatastrophen bezeichneten, seien in Wahrheit Kulturkatastrophen, weil unser vermeintlicher Schutz vor äußeren Unbilden versage. "Wer Häuser dicht am Strand, am Fluss oder in Lawinengebieten baut, muss mit Schäden rechnen“,

meint Miller."

Nun gibt es Hoffnung, daß die Spekulationen über allerlei "mensch-gemachte Klima-Kipp-Punkte" dahin kommen, wo sie hingehören: In den Papierkorb der Wissenschaft. Denn –  das Max-Planck-Institut für Meteorologie in Hamburg hat eine Studie zur Arktis publiziert [4], wozu das MPI eine Presse-Mitteilung [5]  herausgegeben hat mit der Überschrift: "Hoffnung für das Arktische Meereis". Dort wird u.a. ausgeführt:

"Der starke Rückgang des Meereises in der Arktis ließ in den letzten Jahren die Sorge aufkommen, dass die Eisbedeckung sich einem sogenannten Kipp-Punkt nähern könnte. Bei Überschreiten des Kipp-Punktes wäre der Verlust des verbleibenden Meereises nicht mehr zu stoppen. Aktuelle Forschungsergebnisse des Hamburger Max-Planck-Instituts für Meteorologie deuten jetzt jedoch darauf hin, dass es keinen solchen Kipp-Punkt für den Verlust des Sommereises in der Arktis gibt. Stattdessen reagiert die Eisbedeckung relativ direkt auf die jeweiligen klimatischen Bedingungen. Der fortschreitende Verlust des Arktischen Meereises könnte also verlangsamt oder sogar gestoppt werden, wenn die globale Erwärmung verlangsamt oder gestoppt würde."

Die Forscher vom MPI untersuchten in einem Modell insbesondere auch den Strahlungs-Haushalt des arktischen Meeres, und zwar mit und ohne Eisbedeckung. Das Ergebnis war erstaunlich, wie die Forscher meinten: 

“Wir erwarteten eigentlich, dass der Ozean nach der künstlichen Eisschmelze eisfrei bleiben würde, weil das offene Wasser im Sommer deutlich mehr Wärme aufnimmt”, sagte Tietsche. "Unerwarteterweise erholte sich jedoch in den Modellsimulationen die Eisbedeckung stets innerhalb von etwa drei Jahren, sodass dann wieder Bedingungen wie vor der künstlichen Eisschmelze herrschten. Dieses Ergebnis deutet darauf hin, dass der Zustand des Meereises jederzeit eng an die vorherrschenden Klimabedingungen gebunden ist, was die Existenz eines Kipp-Punktes unwahrscheinlich macht."

Möglicherweise haben auch die aktuellen Fakten der arktischen Eis-Entwicklung zu der MPI-Untersuchung [4] und  Verlautbarung [5] beigetragen. Das heißt: Seit dem Jahre 2007, also seit nahezu vier Jahren, gibt es in der Arktis keine weitere Eis-Abnahme mehr, sondern im Gegenteil eine mäßige Erholung; siehe Abbildung.

 

Klaus-Eckart Puls, EIKE, Dipl.-Meteorloge

Hinweis der Redaktion (mit Dank an Leser Dr. Schwarz): Unter der Überschrift "Dünnes Eis" macht sich die FAZ in einer Glosse am 9.2.11 über die eifrigen Klimaforscher lustig, die keine Gelegenheit auslassen den Weltuntergang zu beschwören: Der Artikel endet mit dem einsichtigen Satz: 

"Und so schwimmen die Klimamodellierer weiter von einer Scholle der Einsicht zur nächsten – immer auf der Suche nach frischer Nahrung. Zu verhungern drohen sie dabei bislang nicht." jom 

 Quellen:

[1] Ernst-Georg Beck, EIKE, Februar 2010

"Kipp-Punkte, Kipp-Elemente im Klimasystem; Pseudowissenschaft mit einem irrealen Modell unter falschen Voraussetzungen"

http://www.eike-klima-energie.eu/news-anzeige/kipp-punkte-kipp-elemente-im-klimasystem-pseudowissenschaft-mit-einem-irrealen-modell-unter-falschen-voraussetzungen/

[2] Timothy M. Lenton, Hermann Held, Elmar Kriegler, Jim W. Hall, Wolfgang Lucht, Stefan Rahmstorf, and Hans Joachim Schellnhuber; Tipping elements in the Earth’s climate system; <cite>PNAS</cite> February 12, 2008 vol. 105 no. 6 1786-1793

http://www.pnas.org/content/105/6/1786.full.pdf+html>

[3] Klimawandel , Forscher benennen neun Schlüsselstellen , Focus Online, 05.02.08, http://www.focus.de/wissen/wissenschaft/klima/klimawandel_aid_236472.html

[4] Tietsche, S., D. Notz, J. H. Jungclaus, and J. Marotzke (2011), Recovery mechanisms of Arctic summer sea ice, Geophys. Res. Lett., 38, L02707, doi:10.1029/2010GL045698

[5] MPI HH, Presse-Mitteilung, 4. Februar 2011,

 http://www.mpimet.mpg.de/aktuelles/single-news/article/hoffnung-fuer-arktisches-meereis.html

[6] Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40




Über den solaren Anteil am kurz- und langfristigen Temperaturverhalten nach 1880 auf der regionalen und globalen Klimaskala

Wie in früheren Beiträgen zur BWK ausgeführt, wird das Klimasystem der Erde sowohl von kurz- als auch von langfristigen Prozessen permanent beeinflusst (angetrieben). Der resultierende Antriebsvektor bestimmt in jeder Klimaphase Richtung und Ausmaß des Klimaverhaltens. Zu den kurzzeitigen Einflussfaktoren zählen u. a. die Auswirkungen von Vulkanausbrüchen auf die solare Einstrahlung, die regelmäßigen atmosphärischen Auswirkungen der ENSO-Kaltphasen (La Niña) bzw. ENSO-Warmphasen (El Niño), aber auch Fluktuationen des solaren Energieflusses.

Zu den langfristigen Klimaprozessen zählte in allen Klimaepochen unseres Planeten der solare Klimaantrieb, d.h. die langfristige Änderung des solaren Energieflusses zur Erde. Der Wechsel von Warm- und Kalt-/Eiszeiten während der letzten rund 2 Mio. Jahre ist ein Beleg für den solaren Effekt. Auch wenn der solare Effekt im Glazial bzw. Interglazial andere zeitliche Dimensionen hatte, so ändert das nichts an der Tatsache, dass unser Klima auf allen Zeitskalen von der Sonne fortlaufend beeinflusst wird. 

Bei der folgenden Analyse geht es zum einen um die Frage, welchen Anteil der integrale (direkte und  indirekte) solare Effekt auf der kurzfristigen, quasi-dekadischen Klimasubskala hat, die durch Überlagerung vielfältiger Prozesse eine große Variabilität aufweist. Zum anderen gilt es zu untersuchen, wie hoch der Anteil des solaren Effekts am wahren, langfristigen Klimawandel ist. Die Antwort auf diese Frage wird zugleich klären, wie sicher die Behauptung von der Dominanz des menschlichen (CO2-) Klimaeinflusses auf die Erwärmung im 20.Jahrhundert ist.

Lange und zuverlässige Klimareihen wie in Europa liegen außerhalb von Europa nur begrenzt vor. Viele Klimastationen sind erst im letzten Drittel des 19. Jahrhunderts eingerichtet worden. Aus diesem Grund beginnt die vorliegende Analyse mit dem Sonnenfleckenzyklus ab 1883. Sie erfasst dabei den Zeitraum der globalen Erwärmung bis zum Ende des 20. Jahrhunderts. Seither fehlt nach den offiziellen Daten ein weiterer globaler Temperaturanstieg. Die Jahresmitteltemperaturen pendeln im letzten Jahrzehnt lediglich im El Niño-/La Niña- Rhythmus leicht auf und ab (Korrelation zu ENSO-Phasen: +0,95).

Lesen Sie den ganzen Beitrag in den Publikationen.

Horst Malberg, Univ.Prof. (A.D.) für Meteorologie und Klimatologie




Über den solaren Anteil am kurz- und langfristigen Temperaturverhalten nach 1880 auf der regionalen und globalen Klimaskala

Wie in früheren Beiträgen zur BWK ausgeführt, wird das Klimasystem der Erde sowohl von kurz- als auch von langfristigen Prozessen permanent beeinflusst (angetrieben). Der resultierende Antriebsvektor bestimmt in jeder Klimaphase Richtung und Ausmaß des Klimaverhaltens. Zu den kurzzeitigen Einflussfaktoren zählen u. a. die Auswirkungen von Vulkanausbrüchen auf die solare Einstrahlung, die regelmäßigen atmosphärischen Auswirkungen der ENSO-Kaltphasen (La Niña) bzw. ENSO-Warmphasen (El Niño), aber auch Fluktuationen des solaren Energieflusses.

Zu den langfristigen Klimaprozessen zählte in allen Klimaepochen unseres Planeten der solare Klimaantrieb, d.h. die langfristige Änderung des solaren Energieflusses zur Erde. Der Wechsel von Warm- und Kalt-/Eiszeiten während der letzten rund 2 Mio. Jahre ist ein Beleg für den solaren Effekt. Auch wenn der solare Effekt im Glazial bzw. Interglazial andere zeitliche Dimensionen hatte, so ändert das nichts an der Tatsache, dass unser Klima auf allen Zeitskalen von der Sonne fortlaufend beeinflusst wird. 

Bei der folgenden Analyse geht es zum einen um die Frage, welchen Anteil der integrale (direkte und  indirekte) solare Effekt auf der kurzfristigen, quasi-dekadischen Klimasubskala hat, die durch Überlagerung vielfältiger Prozesse eine große Variabilität aufweist. Zum anderen gilt es zu untersuchen, wie hoch der Anteil des solaren Effekts am wahren, langfristigen Klimawandel ist. Die Antwort auf diese Frage wird zugleich klären, wie sicher die Behauptung von der Dominanz des menschlichen (CO2-) Klimaeinflusses auf die Erwärmung im 20.Jahrhundert ist.

Das regionale Klimaverhalten

Lange und zuverlässige Klimareihen wie in Europa liegen außerhalb von Europa nur begrenzt vor. Viele Klimastationen sind erst im letzten Drittel des 19. Jahrhunderts eingerichtet worden. Aus diesem Grund beginnt die vorliegende Analyse mit dem Sonnenfleckenzyklus ab 1883. Sie erfasst dabei den Sie erfasst dabei den Zeitraum der globalen Erwärmung bis zum Ende des 20. Jahrhunderts. Seither fehlt nach den offiziellen Daten ein weiterer globaler Temperaturanstieg. Die Jahresmitteltemperaturen pendeln im letzten Jahrzehnt lediglich im El Niño-/La Niña- Rhythmus leicht auf und ab (Korrelation zu ENSO-Phasen: +0,95).

Lesen Sie den ganzen Beitrag als pdf Anhang

Horst Malberg, Univ.Prof. (A.D.) für Meteorologie und Klimatologie

Related Files




Texas: Wir haben Milliarden in Windenergie investiert – und bekommen Stromausfälle!

Trotz des gewaltigen Ausbaus an installierter Windkraft-Nennleistung waren diese Anlagen nicht imstande, oft mangels Wind, den Ausfall von zwei konventionellen Kraftwerken auszugleichen. Eine Zeit lang prahlte Texas damit die Nr. 1 für Windenergie zu sein, (was es ist) und wir wurden mit TV-Werbespots und Zeitungsartikelln zugemüllt, die für den  "Pickens Plan"warben, der für massive Ausgaben für Windenergie stand. Pickens selbst plante den Bau riesiger Windparks im Nordwesten von Texas. Er hat jetzt alle Aufträge dazu storniert und den Weiterbau gestoppt. 

Natürlich haben auch andere Länder wie Großbritannien bei kaltem Wetter und leichten Winden Wind-Stromausfälle erlebt (und rollende Blackouts)  So auch im vergangenen Winter der US Bundesstaat Minnesota. Ich denke, wir sollten von ihnen lernen. 

Wenn Texas dieselbe Dollar Investitionen in neue Kohle-und / oder Atomkraftwerkn gemacht hätte, sie würden es jetzt wahrscheinlich mollig warm haben. Müssen wir wirklich während extremer Kälte unsere Familien und deren Sicherheit zusammen mit der Produktivität aus Gründen der politischen Korrektheit, opfern ?

Kommentar: 

„Erneuerbaren Energien” auszubauen und damit andere Energieerzeugung zu ersetzen? Texas hat diese Idee jetzt unfreiwillig in die Tat umgesetzt – und schweren Schiffbruch erlitten. Die unzuverlässige Windenergie kann konventionelle Kraftwerke (einschließlich Wasserkraft) nicht ersetzen. Darauf ausgerichtete Planungen sind Phantasiegebilde, die die Gesellschaft großen Gefahren für die Versorgungssicherheit (mit allen daran anschließenden Problemen) aussetzen.

Unter Verwendung von Texten von W. Kreuzmann auf Klimaskeptikerinfo

Englisches Original hier




Wie falsch sind die IPCC Temperaturberechnungen? Gleicht die Bildung von Differenzen (Anomalien) systematische Fehler aus?

aktualisiert am 23.10.18

Die Quelle der ursprünglichen Grafik (hier wird die aktualisierte Version von Juli 2010 gezeigt) ist ein Aufsatz der IPCC Leitautoren Brohan und Jones[1] (hier mit Brohan et al 2006 genannt) indem detailliert beschrieben wird, wie man die unterschiedlichsten Temperaturdaten weltweit zusammenfasst und wie man dabei versucht allfällige Fehler, die diese Daten haben, zu kompensieren. Besonders schwierig ist das mit sog. systematischen Fehlern. Geht eine Uhr z.B. ständig 5 Minuten nach, dann nützt auch ein häufigeres Ablesen der Uhrzeit nicht weiter, die abgelesene Zeit ist immer um 5 Minuten falsch. Erst ein Vergleich mit einer genauen Referenzuhr erlaubt den Fehler zu erkennen und dann – als Korrrektur- von der abgelesenen Zeit einfach 5 Minuten hinzuzählen. Damit wäre der Fehler korrigiert. Diese einfache Methode ist natürlich bei den Temperaturdaten der Vergangenheit so gut wie nie anwendbar. Deswegen versucht man es dort u.a. mit der Bildung von Differenztemperaturen, in der Hoffnung dass sich dadurch die systematischen Fehler gegenseitig zum Verschwinden bringen.

Viele Klimatologen weltweit glauben nämlich fest daran [2], dass, wenn sie für die Trendbestimmung von Temperaturen, Differenzen aus bestimmten Temperatur-Variablen bilden würden, diese Differenzen (Anomalien) von allen systematische Fehlern befreit seien. Ein bekannter IPCC Leitautor gab mir auf Anfrage (wie man denn Seewassertemperaturen mit Lufttemperaturen mischen könne, wo doch beide Medien völlig unterschiedlich auf Wärme reagieren) vor einiger Zeit dazu diesen guten Rat:: „…… Think in ANOMALIES and not absolute temperatures.“ Diesen Rat befolgend, denke ich nun in Anomalien und schaue mir deren Verhalten in den offiziellen Temperaturganglinien an.

Anomalienbildung und Fehlerkorrektur

Das Verfahren der Differenzen- oder Anomalienbildung wird von allen Klimatologen umfassend eingesetzt, um die Trendverläufe stark unterschiedlicher Temperaturgänge vom Äquator bis zu den Polen vergleichbar machen zu können. Nun sind die gemessenen absoluten Temperaturen immer mit zahllosen Fehlern behaftet. Auch die daraus gebildeten  Tages- Monats- oder Jahresmittelwerte enthalten diese Fehler. Und es kommen neue Fehler hinzu, die durch den verwendeten Algorithmus der zur Durchschnittsbildung verwendet wird, entstehen. Näheres dazu hier. Nach der Fehlertheorie unterscheidet man dabei zwischen zufälligen,  groben, und systematischen Fehlern. Für diese Betrachtung sollen uns nur die systematischen Fehler interessieren.

In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahrsmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.

Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[3] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.

Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?

Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast gradlinig, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.

Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!

Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier http://www.anenglishmanscastle.com/HARRY_READ_ME.txt. Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[4])

Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von sehr vielen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht überall bekannt. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.

Michael Limburg EIKE


[1] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[2] Brohan et. al 2006 geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a di?erence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this di?erence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error. Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzwerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter

[3] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[4] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN




An der Tankstelle gibt es jetzt Bio!

Die durch Brüssler Ökodiktatoren befohlene "Bio-"Verunreinigung des Sprits

– erhöht den Kraftstoffverbrauch
– senkt die Leistung (geringere Energiedichte des Bioethanols)
– erhöht den CO2-Ausstoss (diese Information ist natürlich nur für die relevant, die noch immer dran glauben, CO2 und Klima hätten dolle was miteinander zu tun …)
– gefährdet Motoren (Zerstörung oder mindestens Senkung der Lebensdauer durch Beschädigung von Leitungen und Dichtungen) und damit Milliardenwerte
– senkt gerade angesichts der sich global abkühlenden Winter ( http://notrickszone.com/2010/12/28/global-cooling-consensus-is-heating-up-cooling-over-the-next-1-to-3-decades/ – auf Deutsch hier) die Betriebssicherheit der Fahrzeuge (Ethanol enthaltendes Benzin nimmt mehr Wasser auf. Dieses kann bei entsprechenden Kältegraden als Eis ausfrieren und Leitungen verstopfen.)

Bis 2007 fuhr ich einen Audi A4 (Baujahr 2004), der bereits die damalige 5%-Verunreinigung mit Biosprit nicht vertrug (fing an, sehr peinlich schwarz zu qualmen) und ostwärts in Länder mit (noch) sauberem Spritangebot verschickt werden mußte. Auch Fahrzeuge vom Baujahr 2009 können durch einmaligen Tanken von E10 zerstört werden. Zuweilen sind es (bis in Produktionsjahr 2009!) nur einzelne Baumonate von Motoren wie bei Toyota (der Lieblingsmarke von Frau R. Künast). Kein Tankwart kann da sichere Auskunft geben.

Die Produktion des Biosprits
– zerstört Umwelt
– verknappt und verteuert Lebensmittel weltweit (http://www.n-tv.de/politik/Biosprit-verursacht-Hunger-article12373.html) Man könte ausrechnen, wieviel Hungertote die Lebensmittelverknappung so bringt – es gibt Schätzungen zwischen 10.000 und 500.000 pro Jahr.
– macht die ach so "grünen" Investoren noch reicher

Ich spar mir mal die seriösen Quellen, sondern zitiere den Medienkonzern Greenpeace (wo sie Recht haben, haben sie Recht!):

"… Wald, Weide- oder Brachland in Ackerland umzuwandeln, kann dazu führen, dass noch mehr Kohlendioxid (CO2) freigesetzt wird. E10 kann also nicht nur Autos ruinieren, sondern auch unsere Umwelt."
http://tinyurl.com/e10-ist-mist

"Die Treibhausgasbilanzen der Agrokraftstoffe sind damit nach Berechnungen des IEEP im Schnitt um 81 bis 167 Prozent schlechter als fossile Kraftstoffe. "
http://tinyurl.com/e10-ist-grosser-mist

Siehe auch:
http://www.spiegel.de/spiegel/vorab/0,1518,727639,00.html
http://www.handelsblatt.com/auto/technik/neue-benzinsorte-e10-der-oeko-wahnsinn;2720221
http://www.youtube.com/watch?v=nKWOwIHduBo&feature=related

Kein Mensch würde E10 in sein Auto tanken, wenn man die Kosten der Biospritherstellung bezahlen müsste. Deshalb werden die Mineralölgesellschaften zum Mindestanteil E10 im Verkauf gezwungen. Das sichern sie, in dem sie die anderen Sorten teurer machen. Politisch gewollt. Die gleiche fiese Nummer wie bei Solar- oder Windstrom. Die Hersteller werden mit steuerähnlich abgezockten Geld garantiert vergütet, die Kosten werden umverteilt auf Alle, Geringverdiener trifft es überproportional.

Unterm Strich auch hier eine Vermögensumverteilung von unten nach oben (zu den parteinahen Ökoinvestoren), befördert insbesondere durch sich als links darstellende Parteien. Dabei geht es nicht nur um die Verteuerung des Tankens, sondern um die Verteuerung aller Güter, da Spritkosten in den Preis aller Waren und Dienstleitungen eingehen.

Der jüngste (nicht gesundheitsrelevante) Dioxinverunreinigung in Futtermitteln war übrigens eine Nebenwirkung der Biospritproduktion. http://www.tagesschau.de/inland/dioxin112.html

Abschließend könnte die Ökosekte nun mit dem Argument kommen, dass Biosprit zur Einsparung von "Fossilen Brennstoffen" nötig sei. Zutreffend ist, dass wir eigentlich am Beginn des Erdölzeitalters stehen (aber das ist ein extra Thema):

Mein Vorschlag für den nächsten G20-Gipfel: Man möge zum "KLIMASCHUTZ" beschließen, die Globaltemperatur an den Dollarkurs zu koppeln.

Die E10-Einführung schlägt in ihrer Unsinnigkeit sogar das Glühlampenverbot. Wär schön, wenn mal ein paar mehr Leute aufwachen.

So sieht ein tropischer Wald in Indonesien nach der Produktion (hier Abholzung) von Biosprit aus:

Übrigens werden zur Produktion eines Liters Biosprit nicht selten etwa 4000 Liter Wasser verbraucht.

Und zum Schluß mal was Optimistisches: http://www.focus.de/wissen/wissenschaft/psychologie/tid-21092/wahrnehmung-die-welt-ist-besser-als-sie-denken_aid_586515.html

Hier ein frischer Artikel zum Überfluss an Gas:
http://www.manager-magazin.de/politik/artikel/0,2828,743545,00.html:
der entscheidende darin Satz lautet :
…..Geologen der Texas A&M University schätzen, dass die in Amerika entwickelten Bohr- und Förderungstechnologien die weltweit erschließbaren Gasreserven verneunfachen. "Es gibt heute Reichweiten von mehreren Hundert Jahren", sagt Auer. Dies wirke sich auch auf den Energiemix aus. "Es entwertet zum Beispiel die geplanten Pipelineprojekte." Man müsse sich fragen, was mit dem vielen Gas geschehen solle.

Gastautor O.K:

Lesen Sie dazu auch die treffende Kolumne von G. undefinedEderer




Wir wurden betrogen – eine unabhängige Begutachtung des Intergovernmental Panel on Climate Change

Das IPCC wurde auf der Basis alarmistischer Behauptungen gegründet und erhielt so eine politische Dimension von Organisationen, die nach besseren Beweisen für diese Behauptungen als die Ergebnisse primitiver Klimamodellrechnungen verlangt hätten, falls sie je irgendeine Integrität gehabt hätten. (Kapitel 1)

Die Schlüsselprodukte des IPCC, die verschiedenen Zustandsberichte, spiegeln die persönlichen Meinungen von einem Kader ausgewählter Autoren, und im Gegensatz zu ihrer Ankündigung stellt jede einzelne Textpassage einen Konsens von knapp einer Handvoll Leute dar, von denen viele aus ihren eigenen Studien zitieren oder selektiv Informationen weglassen, die gegen ihre willkürlichen Verzerrungen sprechen. In einem Fall gab es überhaupt keine Informationen zur Stützung der Behauptungen. Also haben die Autoren des IPCC mit Hilfe von ein paar weiteren ein Papier geschrieben, aus dem das IPCC zitieren konnte, obwohl dieses Papier lediglich einem Journal zugespielt wurde, anstelle es selbst zu veröffentlichen (Kapitel 2).

Das vom IPCC praktizierte System der Begutachtung ist eine Schande, weil es nichts mit einer normalen Begutachtung vor der Veröffentlichung einer wissenschaftlichen Studie zu tun hat, sondern lediglich dazu dient, dringend nach die Behauptung unterstützenden Informationen zu verlangen. Sämtliche Vorschläge, dass weiterführendes Material eingeführt werden sollte, werden zurückgewiesen, selbst wenn dies bedeutet, dass man sich auf ein unveröffentlichtes Papier eines IPCC-Autors bezieht Kapitel 3).

Das IPCC lässt Informationen weg oder verzerrt diese, um seiner Agenda Genüge zu tun. Zum Beispiel sagt man uns nicht, dass es auf der Erde gegenwärtig recht kühl ist, verglichen mit der mittleren Temperatur der letzten 10 000 Jahre, und dass die 650 Jahre lange Kaltphase, die um das Jahr 1850 zu Ende gegangen war, möglicherweise die längste ununterbrochene Kältephase in 10 Jahrtausenden war. Das IPCC versteckt tief in einem langen Paragraphen die kritische Tatsache, dass der Grad der Erwärmung infolge des zunehmenden CO2-Gehaltes der Atmosphäre logarithmisch erfolgt (d. h. dass die Erwärmung sich mit weiter zunehmendem CO2 immer mehr verlangsamt). Im jüngsten Bericht des IPCC ist die Diskussion über die europäische Hitzewelle im Jahre 2003 widersprüchlich und alarmistisch, weil in Kapitel 3 eine klare meteorologische Erklärung geliefert wird, aber in Kapitel 9 auf der Basis einer Modellierung von einem der Autoren behauptet wird, dass menschliche Aktivitäten die Auswirkung dieser Hitzewelle verschlimmert hätten. Danach beruft sich das IPCC auf dieses Modell, als ob es akkurat und glaubwürdig wäre, obwohl es keins von beiden ist (Kapitel 4).

Die Temperaturdaten, auf die sich das IPCC bezieht, basieren auf Thermometerablesungen unmittelbar über der Erdoberfläche oder gerade unterhalb der Wasseroberfläche der Ozeane. Die Daten sind fehlerhaft und inkonsistent, weil die Umstände, unter denen sie gewonnen werden, so dynamisch sind, dass man sie verwerfen sollte. Man fragt sich, ob das IPCC diese Daten vor der Verwendung überhaupt überprüft hat, aber, unter dem Umstand, dass die Institutionen, die diese Daten ermittelt haben, Unterstützer des IPCC sind, hat das IPCC vielleicht geglaubt, dass dies nicht notwendig ist (Kapitel 5).

Der größte Trugschluss des IPCC liegt in der Nutzung von Klimamodellen, auf die es sich beruft. Die Zustandsberichte zeigen eindeutig, dass kaum Kenntnisse über viele Klimafaktoren vorhanden sind. Dies bedeutet, dass akkurate Modelle gar nicht erst erzeugt werden können. In späteren Kapiteln des Berichtes werden diese Defizite ignoriert, und die Modellergebnisse werden als unveränderlich behandelt. Schlimmer noch, die gleichen Modelle werden benutzt, um die Schuld von Klimavariationen bestimmten Faktoren zuzuordnen, unter der zweifelhaften Erkenntnis, falls die Beobachtungen mit den Modellen, die einen bestimmten Faktor enthalten, übereinstimmen, dies aber nicht mehr der Fall ist, wenn dieser Faktor weggelassen wird, wird dieser Umstand als Beweis heran gezogen, dass dieser Faktor der Grund für die Klimavariation gewesen ist. Diese Art der Argumentation ist nicht nur eine bloße Zurückweisung des gesunden Menschenverstandes, sondern eine eklatante Unehrlichkeit. Mehr noch, der dahinter steckende Gedanke bedeutet, dass Klimavariationen nur von den Faktoren verursacht werden, die auch modelliert werden; und das IPCC betrachtet lediglich einen einzigen Faktor in dieser Hinsicht – nämlich die anthropogenen Emissionen von Kohlendioxid (Kapitel 6).

Der sogenannte Beweis des IPCC für die anthropogen verursachte Erwärmung stand von Anfang an auf schwachen Füßen, aber inzwischen ist er vollständig unterminiert durch die kompromittierte Integrität des IPCC, seinen zweifelhaften Temperaturdaten und seinen Klimamodellen, deren Ungenauigkeit allgemein bekannt ist (Kapitel 7).

Das IPCC hat keine Integrität und damit keine Glaubwürdigkeit mehr. Es sollte aufgelöst werden, und zwar zusammen mit der UNFCC; und alle Zuständigkeit für Klimaangelegenheiten sollten der Weltorganisation für Meteorologie WMO übergeben werden. Obwohl es durch das Sponsoring für das IPCC mit einem Makel behaftet ist, hat es doch Erfahrung in meteorologischen Dingen. Außerdem hat die WMO ihre Bereitschaft bekundet, eine größere Vielfalt von Klimafaktoren zu berücksichtigen als das IPCC (Kapitel 8).

Diese Übersicht stellt die Fakten hauptsächlich aus Quellen des IPCC selbst dar und liefert Beispiele für die relevanten Gegebenheiten. Dadurch wird gezeigt, dass die Bestätigung der Behauptungen des IPCC vollständig ungerechtfertigt ist und mit Sicherheit keine Grundlage dafür sein kann, Versuche der Kontrolle von Emissionen von Kohlendioxid oder andere Gesetze mit Bezug auf das Klima einzuführen.

John McLean

Das Original finden Sie hier

Übersetzt von Chris Frey für EIKE




Die kalten Gleichungen

Ich habe diesen Beitrag schon viele Male geschrieben. Ich versuche es nochmals. Mit den Ergebnissen meiner früheren Arbeiten war ich nicht zufrieden. Den Titel habe ich nach der 1954 erschienenen gleichnamigen Science Fiction Story gewählt, die ich mit zehn oder elf Jahren gelesen habe. Der Inhalt ist etwa Folgender:

Ein Mädchen reist als blinder Passagier an Bord eines Rettungsschiffes, um eine bestimmte Arznei zu irgendwelchen planetarischen Kolonisten zu bringen. Sie wird entdeckt, sobald das Mutterschiff weg ist. Unglücklicherweise ergeben die kalten Gleichungen, dass das Rettungsschiff nicht genügend Treibstoff hat, um mit ihrem zusätzlichen Gewicht an Bord zu landen; aber wenn sie die Arznei über Bord werfen, um das Schiff zu erleichtern, würde die ganze Kolonie sterben… also musste das Mädchen durch die Luftschleuse katapultiert werden, um im All zu sterben.

Ich war höchst beeindruckt von dieser Geschichte. Ich mochte Mathematik schon immer, und hier habe ich zum ersten Mal gesehen, wie Gleichungen uns mit unbestreitbaren und unumstößlichen Ergebnissen versorgen können. Und ich sah, dass diese Gleichungen über den zur Verfügung stehenden Treibstoff und das Gewicht in keiner Weise von menschlichen Emotionen beeinflusst waren; entweder waren sie richtig oder falsch, ganz gleich, welche Gefühle ich oder irgendjemand sonst dabei hatte.

Vor kurzem habe ich mir die Gleichungen der AGW-Wissenschaftler angesehen, die sie in ihren Modellen benutzen. Abbildung 1 zeigt die fundamentalste Klimagleichung, die fast immer stimmt:


Abbildung 1. Die grundlegendste Klimagleichung besagt, dass die einfallende Energie gleich der ausgestrahlten Energie plus der in den Ozean gehenden Energie ist. Q ist die Menge der Energie, die in das System in einem bestimmten Zeitraum eingestrahlt wird. dH/dt ist die Veränderung der Wärmespeicherung in den Ozeanen von Anfang bis Ende dieses Zeitraumes. Die Einheit ist in allen Fällen Zettajoules (ZJ, oder 1021 Joule) pro Jahr.

Dies ist die gleiche Beziehung wie in der Wirtschaft, wo das, was ich innerhalb eines Jahres mache (in unserem Beispiel Q), gleich ist damit, was ich in jenem Jahr ausgebe plus die Änderungen meiner Ersparnisse von Jahr zu Jahr (dH/dt).

Jedoch, von hier starten wir in unbekannte Gewässer…

Ich werde meinen Text nehmen aus HEAT CAPACITY, TIME CONSTANT, AND SENSITIVITY OF EARTH’S CLIMATE SYSTEM , Stephen E. Schwartz, Juni 2007 (im Folgenden als S2007 bezeichnet). Die Studie ist weithin akzeptiert und wurde 49 mal in drei kurzen Jahren zitiert. Die Studie besagt unter Anderem Folgendes (Hervorhebung im Original):

Das Klimasystem der Erde enthält eine sehr empfindliche Balance zwischen der absorbierten kurzwelligen (solaren) Strahlung Q und der langwelligen Ausstrahlung (im thermischen Infrarot) an der Obergrenze der Atmosphäre E.

Q "fast gleich" E    *                                                                   (1)

Die globale und jährliche mittlere absorbierte kurzwellige Strahlung Q = gamma*J, wobei gamma für die mittlere planetarische Ko-Albedo (Komplement der Albedo) steht und J für die mittlere solare Strahlung an der Obergrenze der Atmosphäre (¼ der Solarkonstante) fast gleich 343 W/m2. Satellitenmessungen ergeben einen Wert Q fast gleich 237 W/m2 (Ramanthan 1987; Kiehl und Trenberth 1997), womit sich ein gamma von 0,69 ergibt. Die globale und jährliche mittlere langwellige Ausstrahlung kann mit der globalen und jährlichen mittleren Oberflächentemperatur GMST Ts in Beziehung gesetzt werden: E = epsilon x sigma x Ts^4, wobei epsilon für das effektive langwellige planetarische Emissionsvermögen (effective planetary longwave emissivity) steht, das definiert ist als das Verhältnis zwischen der globalen mittleren langwelligen Strahlung (flux), emittiert an der Obergrenze der Atmosphäre und jener durch die Stefan-Boltzmann-Gleichung berechnete der globalen mittleren Oberflächentemperatur; sigma  ist die Stefan-Boltzmann-Konstante.

Innerhalb dieses Einschichten-Energiebilanzmodells (North et al. 1981; Dickinson, 1982; Hansen et al., 1985; Harvey, 2000; Andreae et al., 2005, Boer et al., 2007) führt ein Ungleichgewicht Q – E durch eine einfache Störung in Q oder E zu einer Änderungsrate des globalen Wärmegehalts, die beschrieben wird durch 

dH/dt = Q – E                                                               (2)

wobei dH/dt für die Änderung des Wärmegehalts des Klimasystems steht.

Hmmm… Ich werde immer nervös, wenn jemand versucht, eine nicht nummerierte Gleichung in eine Studie einzuführen… aber ich schweife ab. Ihre Gleichung (2) ist die gleiche wie in meiner Abbildung 1 oben. Dies war ermutigend, weil ich die Abbildung 1 erstellt habe, bevor ich S2007 gelesen habe. In S2007 heißt es weiter (Hervorhebung von mir):

Der Ansatz des Energiebilanzmodells ist, dass dH/dt mit der Änderung der GMST (globale mittlere Oberflächentemperatur) in Beziehung stehen könnte, und zwar so:

dH/dt = C dTs/dt                          (3)

Hier steht C für die entsprechende Wärmekapazität. Es muss hier betont werden, dass C eine effektive Wärmekapazität ist, die nur den Teil der globalen Wärmekapazität reflektiert, der an die Störung im Zeitmaßstab der Störung gekoppelt ist [?]. Im gegenwärtigen Zusammenhang, der durch Änderungen der atmosphärischen Gasmischung im Zeitscale von Jahrzehnten und Jahrhunderten induzierten globalen Klimaänderung ist es das, was Gegenstand der Änderung in solchen Zeitscalen ist. Messungen des Wärmegehalts in den Ozeanen während der letzten 50 Jahre deuten darauf hin, dass diese Wärmekapazität von den oberen Schichten der Weltmeere dominiert wird.

[Im Original lautet dieser Absatz: „where C is the pertinent heat capacity. Here it must be stressed that C is an effective heat capacity that reflects only that portion of the global heat capacity that is coupled to the perturbation on the time scale of the perturbation. In the present context of global climate change induced by changes in atmospheric composition on the decade to century time scale the pertinent heat capacity is that which is subject to change in heat content on such time scales. Measurements of ocean heat content over the past 50 years indicate that this heat capacity is dominated by the heat capacity of the upper layers of the world ocean (Levitus et al., 2005).

Mit anderen Worten (unter Vernachlässigung der Ko-Albedo), sie schlagen zwei Einsetzungen in die Gleichung der Abbildung 1 vor. Sie sagen, dass

E = epsilon x sigma x Ts^4

und dass

dH/dt = C dTs/dt

was zu den Ergebnis führt

Q = epsilon x sigma x Ts^4 + C dTs/dt                     (4)

Abbildung 2 zeigt diese beiden Einsetzungen:


Abbildung 2. Eine graphische Darstellung der beiden zugrunde gelegten Einsetzungen in das „einschichtige Energiebilanzmodell“ der theoretischen Klimaerklärung. Die Originalgleichung vor der Einsetzung steht in hellbraun links unten, mit der Gleichung nach der Substitution darunter.

Warum sind diese Substitutionen wichtig? Man beachte, dass es in der Gleichung (4), wie in Abbildung 2 gezeigt, nur zwei Variablen gibt – Strahlung und Oberflächentemperatur. Sollten ihre Substitutionen gültig sein, bedeutet das, dass ein Strahlungsungleichgewicht nur durch eine Temperaturzunahme ausgeglichen wird. Oder wie es Dr. Andrew Lacis von NASA GISS ausdrückt (Hervorhebung von mir):

 „Wie ich schon früher gesagt habe, die globale Erwärmung ist in der Physik ein Problem von Ursache und Wirkung, dass stark auf akkuraten Messungen und wohlbekannten physikalischen Prozessen basiert. Im Besonderen ist das Klima der Erde das Ergebnis der Energiebilanz zwischen einfallender Solarstrahlung und thermischer Ausstrahlung, gemessen an der Obergrenze der Atmosphäre, also strikt ein Problem der Strahlungsenergiebalance. Da der Strahlungsfluss ein wohlbekannter und gut verstandener physikalischer Prozess ist, haben wir genaue Kenntnisse darüber, was mit der globalen Energiebalance der Erde passiert. Und wie ich früher schon bemerkte, die Konservierung von Energie lässt als Reaktion auf das zunehmende atmosphärische CO2 zum Erreichen des globalen Gleichgewichts der Temperatur nichts anderes als eine Erwärmung zu.

Die Kommentare von Dr. Lacis sind nichts anderes al seine englischsprachige Erklärung der Gleichung (4) aus S2007. Wenn Gleichung (4) falsch ist, ist auch seine Behauptung falsch. Und seine Behauptung, dass die zunehmende Konzentration von Treibhausgasen nur durch einen Temperaturanstieg kompensiert werden kann, steht im Zentrum der AGW-Klimawissenschaft.

Außerdem gibt es noch einen zweiten Grund, warum ihre Substitutionen wichtig sind. In der Originalgleichung gibt es drei Variable – Q, E und H. Aber da es in der Version in S2007 nur zwei Variable gibt (Ts und Q), kann man die eine Gleichung mit den Termen der anderen lösen. Dies gestattet es ihnen, die Entwicklung der Oberflächentemperatur zu berechnen, mit gegebenen Schätzungen von Antriebskräften in der Zukunft… oder, in anderen Worten, das zukünftige Klima zu modellieren.

Da ich nun von Natur au seiner bin, der immer misstrauisch ist, war ich sehr neugierig über diese beiden Substitutionen. Dies vor allem deshalb, weil ihr gesamtes Kartenhaus in sich zusammenfallen würde, falls nur eine der beiden Substitutionen falsch ist. Ihre Behauptung, dass ein Ungleichgewicht der Strahlung nur durch zunehmende Temperatur ausgeglichen wird, kann so nicht stehen bleiben, wenn nicht beide Substitutionen gültig sind.

SUBSTITUTION 1

Lassen Sie mich beginnen mit der Substitution, die in Gleichung (3) beschrieben wird:

dH/dt = C dTs/dt                          (3)

Das erste, was mir auffiel, waren die Worte „der Ansatz des Energiebilanzmodells“ [Im Original steht wirklich das deutsche Wort ‚ Ansatz’.]

Und was”, sagte ich, „ist ein ‚Ansatz’, wenn er zu hause ist?” Ich war ursprünglich ein Cowboy, der sich selbst gebildet hat, das ist wahr, aber ein sehr belesener und reformierter Cowboy. Und ich habe nie etwas von einem ‚Ansatz’ gehört.

Also schaute ich im Internet bei Wolframs Mathe-Welt, die beste Quelle für Mathematik, und fand dies:

Ansatz

Ein Ansatz ist eine angenommene Formel für eine mathematische Feststellung, die nicht auf irgendeinem zugrunde liegenden Prinzip oder einer Theorie basiert.

Nun, das sollte Ihnen ein warmes, sicheres Gefühl geben. Diese kritische Gleichung, diese Substitution durch die Temperaturänderung als Proxie der Änderung im Wärmegehalt der Ozeane, auf der die gesamte Multimilliarden schwere Behauptung basiert, dass eine zunehmende Konzentration von Treibhausgasen unvermeidlich und unerbittlich zu einem Temperaturanstieg führt, wird von enthusiastischen AGW-Anhängern als „nicht basierend auf irgendeine zugrunde liegende Theorie oder ein Prinzip“ beschrieben. Man erinnere sich, wenn nur eine Substitution falsch ist, ist auch die ganze „wenn-sich-der-Antrieb-durch-Treibhausgase-ändert-folgt-dem-die-Temperatur“ – Behauptung hinfällig… und dafür bieten sie nicht einmal eine Rechtfertigung oder einen Bezug an, es ist lediglich ein Ansatz.

Das ist gut zu wissen und hätte eine viel weiter verbreitete Bekanntmachung verdient…

Dies erinnert mich an einen alten Witz: „Wie viele Beine hat eine Kuh, wenn man den Schwanz ein Bein nennt?“

„Vier, weil ein Schwanz kein Bein ist, auch wenn man ihn so nennt.“

Genauso: Wenn man die Änderung des Wärmegehalts der Ozeane eine lineare Transformation der Änderung der Oberflächentemperatur (C dTs/dt) nennt, heißt das noch lange nicht, dass das auch so ist.

Tatsächlich ist die Korrelation zwischen der jährlichen dH/dt und dTs/dt nicht statistisch signifikant (r^2=0.04, p=0.13). Zusätzlich sind die Verteilungen von dH/dt und dTs/dt ziemlich unterschiedlich, sowohl im vierteljährlichen als auch im jährlichen Niveau. In den Anhängen 1 und 4 findet man Details. Das bedeutet: nein, wir haben keinerlei beobachtete Beweise, dass ihre Substitution gültig ist. Viel eher ist das Gegenteil richtig, es gibt kaum eine Korrelation zwischen dH/dt und dTs/dt.

Es gibt noch ein drittes und subtileres Problem, wenn man dH/dt und dTs/dt miteinander vergleicht. Es besteht darin, dass H (der Wärmegehalt der Ozeane) etwas ganz anderes ist als die anderen drei Variablen, als da wären Q (Einstrahlung), E (Ausstrahlung) und Ts (globale mittlere Lufttemperatur am Boden). Der Unterschied besteht darin, dass H eine Quantität ist, während es sich bei Q, E und Ts um Strahlungsflüsse handelt.

Da Ts ein Fluss ist, kann es von der Einheit Kelvin (oder Grad Celsius) zu den Einheiten Watt pro Quadratmeter (W/m2) umgerechnet werden, und zwar unter Verwendung der Schwarzkörperbeziehung sigma x Ts^4.

Und da die zeitliche Ableitung der festen Größe H ein Fluss ist, nämlich dH/dt, kann man (zum Beispiel) E + dH/dt mit Q vergleichen, siehe Abbildung 1. Das kann man machen, weil wir Flüsse mit Flüssen vergleichen. Aber sie wollen einen Fluss (dH/dt) durch eine Änderung eines Flusses (dT/dt) ersetzen. Dies ist jedoch nur unter speziellen Umständen möglich.

Die Änderung des Wärmegehalts kann in einer einzigen speziellen Situation in Relation zur Temperaturänderung gesetzt werden. Und zwar wenn durch eine Temperaturdifferenz zwischen dem Objekt und der umgebenden Luft etwas erwärmt oder gekühlt wird. Zum Beispiel, wenn man etwas in den Kühlschrank legt, kühlt es sich durch den Unterschied der Temperatur zwischen dem Objekt und der Luft im Kühlschrank ab. Irgendwann hat das Objekt im Kühlschrank die allgemein dort herrschende Temperatur angenommen. Ergebnis: Die Temperaturänderung des Objektes ist eine Funktion des Temperaturunterschieds zwischen dem Objekt und der umgebenden Luft. Falls sich die Lufttemperatur im Kühlschrank ändert, hängt in diesem Fall dH/dt mit dT/dt zusammen.

Aber gilt das auch für unsere Situation? Wer der Meinung ist, dass, ähnlich wie im Kühlschrank, die Lufttemperatur über dem Ozean der Treiber des Wärmegehalts der Ozeane ist, der hebe die Hand… weil ich das mit Sicherheit nicht glaube. Ich glaube, dass es zu 100% umgekehrt ist. Allerdings scheint Schwartz das zu glauben, wenn er in einer Diskussion über die Zeitkonstante sagt:

 „…wenn C die Wärmekapazität der Ozeane ist, dann ist dH/dt die Rate, mit der der Wärmegehalt in diesem Reservoir zunimmt, und ?T ist die Temperaturzunahme, die diesen Transfer antreibt.“

Zusätzlich zu dem Umstand, dass es sehr unwahrscheinlich ist, dass Änderungen der Lufttemperatur zu Änderungen des Wärmegehalts der Ozeane führen, spricht auch der Umfang der Änderung dieses Wärmegehaltes dagegen. Von 1955 bis 2005 änderte sich der Wärmegehalt der Ozeane um etwa 90 Zettajoule. Eine gleich große Änderung um 90 Zettajoule ereignete sich aber auch von einem Vierteljahr zum nächsten im Jahre 1983… Daher erscheint der Gedanke, dass Temperaturänderungen (dT/dt) die Änderungen des Wärmegehalts der Ozeane antreiben (und damit begrenzen) als sehr unwahrscheinlich.

Zusammenfassung der Ergebnisse von Substitution 1: dH/dt = C dT/dt

  1. 1. Die Leute, die diese Theorie vertreten, liefern keine theoretische oder praktische Grundlage für die Substitution.
  2. 2. Die jährliche Korrelation von dH/dt und dT/dt ist sehr klein und statistisch nicht signifikant.
  3. 3. Da H für die Quantität und T für einen Fluss steht, gibt es a priori keinen Grund, einen linearen Zusammenhang zwischen den beiden Größen zu vermuten.
  4. 4. Der Unterschied in der Verteilung der beiden Datensätze dH/dt and dT/dt (siehe Appendix 1 und 4) zeigt, dass weder die Erwärmung noch die Abkühlung der Ozeane mit dT/dt zusammenhängen.
  5. 5. Die Substitution schließt ein, dass die Lufttemperatur „diesen Wärmetransport treibt”, nach Schwartz’ Worten. Es scheint unwahrscheinlich, dass die kleine Masse der Atmosphäre [the wisp of atmospheric mass] die gewaltigen ozeanischen Wärmetransporte antreibt.
  6. 6. Die riesige Größe vierteljährlicher Änderungen deutet darauf hin, dass Änderungen des Wärmegehaltes der Ozeane durch korrespondierende Temperaturänderungen begrenzt werden.  

Meine Schlussfolgerungen aus dieser Zusammenfassung? Die Substitution von dH/dt durch C dT/dt ist weder durch Beobachtungen noch durch die Theorie gerechtfertigt. Obwohl man sehr in  Versuchung kommt, es trotzdem zu tun, weil es damit möglich ist, eine Gleichung für die Temperatur zu lösen, kann man diese Substitution allein aus dem Grund, eine Gleichung lösen zu wollen, nicht vornehmen.

SUBSTITUTION 2: E = epsilon x sigma x  Ts^4

Dies ist die Untersubstitution [original: the sub rosa substitution], also diejenige ohne eine Nummer. In diesem Zusammenhang sagt Schwartz:

 „Die globale jährliche langwellige Ausstrahlung kann zu der mittleren globalen Lufttemperatur über der Erdoberfläche GMST Ts in Beziehung gesetzt werden, und zwar durch:

E = epsilon x sigma x Ts^4

wobei  epsilon für das planetarische effektive Emissionsvermögen der langwelligen Ausstrahlung steht, definiert als das Verhältnis zwischen dem globalen mittleren langwelligen Strahlungsfluss an der Obergrenze der Atmosphäre (TOA) und jener berechnet durch die Stefan-Boltzmann-Gleichung zur globalen mittleren Oberflächentemperatur; sigma ist die Stefan-Boltzmann-Konstante.

Das wollen wir einmal näher betrachten und sehen, was sie hier getan haben. Es ist eine verführerische Idee, weil es teilweise aussieht wie eine normale Stefan-Boltzmann-Gleichung… mit Ausnahme davon, dass sie epsilon umdefiniert haben zum „effektiven planetarischen Emissionsvermögen“. Folgen wir mal dieser Logik.

Erstens, in ihrer Gleichung steht E für den langwelligen [Strahlungs]fluss an der Obergrenze der Amtosphäre (TOA), welchen ich mal als Etoa bezeichnen möchte, um es vom Fluss an der Oberfläche Esurf zu unterscheiden. Als nächstens sagen sie, dass epsilon das langzeitliche Mittel dieses Strahlungsflusses an der TAO ist (was ich Avg(Etoa) nennen möchte) dividiert durch die langzeitliche mittlere langwellige Schwarzkörperstrahlung (Avg(Esurf) genannt). Mit anderen Worten:

epsilon = Avg(Etoa) /Avg(Esurf)

Schließlich ergibt der langwellige Fluss der Schwarzkörperstrahlung Esurf nach Stefan-Boltzmann:

Esurf = sigma x Ts^4.

Setzt man dies in ihre unnumerierte Gleichung (?) ein, erhält man

Etoa = Avg(Etoa) / Avg(Esurf) x Esurf

Allerdings führt dies zu

Etoa / Esurf = Avg(Etoa) / Avg(Esurf)

was ganz klar allgemein nicht stimmt für irgendein vorgegebenes Jahr, und was nur für langzeitliche Mittel gilt. Aber für diese langzeitlichen Mittel reduziert sich das zu der bedeutungslosen Gleichung Mittel(x) / Mittel(irgendwas) = Mittel(x) / Mittel(irgendwas).

Zusammenfassung von Substitution 2: E = epsilon x sigma x  Ts^4

Diese Substitution ist nachweislich entweder mathematisch falsch oder bedeutungslos richtig wie eine Identität. Die kalten Gleichungen gestatten diese Art der Substitution nicht, selbst nicht dazu, um das Mädchen davor zu bewahren, hinaus katapultiert zu werden. Die Ausstrahlung an der Obergrenze der Atmosphäre hängt nicht auf die Art und Weise mit den Oberflächentemperaturen zusammen, wie sie behaupten.

Meine Schlussfolgerungen, ohne spezielle Reihenfolge:

  • * Ich denke gezeigt zu haben, dass keine der beiden Substitutionen gerechtfertigt ist, weder durch die Theorie, noch durch die Mathematik noch durch Beobachtungen.  
  • * Die Falsifizierung jeder der beiden Substitutionen in der Originalgleichung hat weitreichende Implikationen.
  • * Zumindest bedeutet die Falsifizierung jeder Substitution, dass zusätzlich zu Q und Ts mindestens eine weitere Variable in der Gleichung steckt. Dies bedeutet, dass die Gleichung für Ts nicht direkt gelöst werden kann. Und dies bedeutet natürlich, dass die künftige Entwicklung der planetarischen Temperatur nicht durch das bloße Forcing berechnet werden kann.
  • * Als Antwort auf meinen Beitrag über die Linearität des Modells von GISS hat Paul K auf die Studie S2007 von Schwartz verwiesen. Er zeigte auch, dass das Klimamodell von GISS sklavisch den einfachen Gleichungen in der Studie S2007 folgt. Daher bedeutet die Falsifizierung der Substitutionen, dass das Klimamodell von GISS (und die Gleichungen in S2007) als Übungen betrachtet werden müssen, die Parameter anzupassen. Ja, sie können eine Approximation der Realität vermitteln… aber nur durch optimierte Anpassung der Parameter und nicht durch eine saubere theoretische Begründung.
  • * Die Falsifizierung jeder der beiden Substitutionen bedeutet, dass die Wiederherstellung der Strahlungsbalance nicht nur eine einfache Funktion der Oberflächentemperatur Ts ist. Dies bedeutet, dass es mehr Möglichkeiten gibt, um die Strahlungsbalance im Himmel und auf Erden wiederherzustellen, als sich manche Schulweisheit dies träumen lässt, Dr. Lacis…

Wie immer lege ich das hier offen vor dem unbestechlichen Auge des Internets, um alle Leute zu ermutigen, mir meine Fehler aufzuzeigen. Das ist Wissenschaft. Bitte tragen Sie mir die Fehler mit Freundlichkeit und Anstand zu  mir und anderen vor, und vermeiden Sie es, über meine und anderer Motive zu spekulieren. Das ist auch Wissenschaft!

Link zum Original: http://wattsupwiththat.com/2011/01/28/the-cold-equations/

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE

Im Original folgen noch vier Anhänge, die das hier Gesagte noch näher ausführen. Zusätzliche Aspekte stehen dort jedoch nicht, daher werden diese Anhänge hier aus Zeitgründen nicht mit übersetzt. Man bedenke, dass ich zusätzlich zu diesen ehrenamtlichen Übersetzungen einen Vollzeitjob habe und außerdem auch anderweitig noch ehrenamtlich engagiert bin, nämlich in der Kinderbetreuung.

C. F.

* Das "fast gleich" Zeichen (Doppelwelle), dass im Original steht, bildet dieser Editor nicht ab




Anzeichen für eine sich verstärkende globale Abkühlung

Anzeichen der globalen Abkühlung

Seit etwa 2 Dekaden wird uns dringend nahe gelegt, gegen die beispiellose globale Erwärmung vorzugehen, anderenfalls es zu einem heißen und feurigen Ende der Welt kommt. Und doch, das Gegenteil scheint der Fall zu sein.

Der gesamte Planet hat seit 1998 aufgehört, sich zu erwärmen und, noch signifikanter, begann sich seit 2003 abzukühlen. Anstatt die Menschen vor kälterem Wetter während der nächsten 30 Jahre zu warnen, wird immer noch das Märchen hochgehalten, dass man eine beispiellose Erwärmung erwarten müsse. Völker und Regierungen werden gedrängt, total in die falsche Richtung aus den falschen Gründen zu gehen – und zu einem potentiell horrenden Preis.

Man schaue sich nur an, was in Großbritannien los war. Vor zehn Jahren erzählte man den Briten, dass sie ausschließlich mit einer globalen Erwärmung rechnen müssten und Schnee ein Ding der Vergangenheit wäre. Tatsächlich passierte genau das Gegenteil, und zwar gleich während drei aufeinanderfolgenden Wintern. Dieser Winter hat die gesamte Nation für einen ganzen Monat, nämlich Dezember 2010, in seinem eisigen Klammergriff gehalten.

Perioden mit Erwärmung und Abkühlung in der Vergangenheit.

Alternierende Perioden mit wärmerem und kälterem Wetter haben uns seit Beginn von Klimaaufzeichnungen begleitet. Einige der vergangenen kälteren Perioden waren schlimmer als andere, wie das Sporer-, Maunder- und Dalton-Minimum. Professor Don Easterbrook hat das hier dargestellt, siehe Abbildung 1:


Abbildung 1

Easterbrook sagte auch:

  • „Klimaänderungen in geologischen Zeiträumen zeigten während der letzten 500 Jahre eine regelmäßige Verteilung alternierender Erwärmung und Abkühlung mit einer Periode von 25 bis 30 Jahren“.
  • „Es gibt eine starke Korrelation zwischen solaren Veränderungen, der PDO, Gletschervorstößen und –rückzügen, und das globale Klima gestattet uns, eine damit konsistente Verteilung in die Zukunft zu projizieren“.
  • Man erwarte eine globale Abkühlung während der nächsten 2 bis 3 Dekaden, die sich viel schlimmer auswirken wird als jede Erwärmung.“

Abbildung 2 zeigt die Art der Abkühlung, die Professor Easterbrook in Zukunft erwartet:

Abbildung 2

Quelle: http://www.iceagenow.com/Looming_Threat_of_Global_Cooling.htm

oder in Deutsch hier.

Also, warum sind IPCC und AGW so still hinsichtlich der Möglichkeit einer globalen Abkühlung? Weil das IPCC niemals den Auftrag hatte, alle Gründe der Erwärmung zu untersuchen – sondern ausschließlich die anthropogene Komponente davon. Inzwischen kommen andere Wissenschaftler zu dem Ergebnis, dass der anthropogene Anteil an der Erwärmung verschwindend gering im Vergleich zu natürlichen planetarischen Faktoren ist. Das IPCC sagt Folgendes über das in Europa zu erwartende Klima:

 „Die jährlichen Mitteltemperaturen in Europa werden wahrscheinlich schneller steigen als das globale Mittel. Am stärksten wird die Erwärmung in Nordeuropa im Winter, im Mittelmeergebiet im Sommer ausfallen. Die niedrigsten Wintertemperaturen in Nordeuropa werden wahrscheinlich rascher steigen als die Mitteltemperatur des Winters, und die höchsten Sommertemperaturen werden wahrscheinlich schneller steigen als die Mitteltemperatur im Sommer in Zentral- und Südeuropa.“

Die letzten Winter haben gezeigt, dass das Gegenteil zutrifft. Lassen Sie uns einen Blick auf die letzte Periode (von 26 Jahren) kälteren Wetters in Europa werfen (Jahre 1962 bis 1987) sowie auf die häufigsten Klimavariablen während dieser Periode:

Welches waren die allgemeinen Klimafaktoren in der letzten Kaltperiode in Großbritannien und Europa?

Eine Analyse der Temperatur im Winter der letzten Kälteperiode in Zentralengland zeigt, dass die Temperatur in 20 der 26 Winter unter dem Mittelwert von 4,8°C lag. Während dieser 20 Jahre war die AO (Arktische Oszillation) in 90% aller Fälle negativ (18 Jahre), die AMO war negativ in 85% (17 Jahre), die NAO zu 65% (13 Jahre) und die PDO in 45% der Zeit (9 Jahre).

Hieraus kann man folgern, dass das Auftreten negativer oder kalter AO, AMO und NAO signifikant kältere Winter zur Folge hat, und das diese kälteren Winter gehäuft auftreten – etwa in 2 von 3 Fällen während der Kaltperiode. Das Signal der ENSO war ähnlich gut verteilt: 5 Jahre mit La Nina, 8 Jahre mit El Nino und 7 neutrale Jahre. Es scheint, dass Jahre mit einem El Nino häufiger mit einer negativen AO korreliert, was dazu führt, dass kalte Arktikluft südwärts vorstoßen kann (wie im Winter 2009/2010).

Was sagt das Met Office über die globale Abkühlung?

Das Met Office sagt, das seine Dekade der Abkühlung möglich ist, aber nur einmal alle 8 Jahrzehnte. Und so hat es seine Karten bereits verspielt, weil die jüngste Dekade 2001 bis 2010 keinen Temperaturtrend mehr zeigte. Daraus folgt, dass es nach seiner Prognose keine weitere Periode der Abkühlung oder auch nur trendfreie Perioden während der nächsten 8 Jahrzehnte geben wird. Um die vom Met Office prognostizierte Erwärmung um 4°C bis 2060 zu bekommen, müsste die gegenwärtige Erwärmungsrate 18 mal höher sein als heute (unter Nutzung der Daten aus WOOD FOR TREES.)

Was hat es mit dem warmen Jahr 2010 auf sich?

Es ist trivial, dass es während eines starken El Nino wie im Jahr 2010 besonders warm ist. Das Jahr 1998 war ebenfalls ein solches warmes El Nino-Jahr. Es sind natürliche Ursachen, die Temperatur in El Nino-Jahren nach oben treiben. Und doch hat es statistisch keine Erwärmung seit 1995 mehr gegeben. Auch gab es 4 El Nino-Ereignisse während der letzten 9 Jahre. Dies ist häufiger als in der Vergangenheit, als diese Ereignisse nur alle 4 bis 7 Jahre aufgetreten waren. Acht der 10 letzten Jahre wurden durch das natürliche Phänomen El Nino beeinflusst. Daraus folgt, dass der Hauptgrund für die warme Dekade und den milden Winter 2010 in Kanada bei El Nino und der PDO liegt. Dies hat nur sehr wenig mit der globalen Erwärmung oder der Zunahme der Emissionen von Treibhausgasen zu tun.

Für Kanada gilt: wenn man die El Nino-Winter der Jahre 2003, 2005, 2007 und 2010 ausschließt, hat die Temperatur im Winter tatsächlich während der letzten 10 Jahre abgenommen, verglichen  mit dem Mittelwert der Periode 1948 bis 2010, und zwar von 2,5°C im Jahre 2000 bis 0,3°C im Jahre 2009, dem letzten sehr kalten Winter. In einigen Gebieten wie den Prärieprovinzen und den Nordwest-Territorien gab es sogar einen Rückgang der Wintertemperatur von 2006 bis 2009 um 7,1°C.

Was steckt hinter unserem sich ändernden Klima?

Die Antwort scheint in der natürlichen Variabilität der ENSO-Ereignisse zu liegen, ebenso wie in den regelmäßigen Änderungen im Pazifischen Ozean und der Oberflächentemperatur im Nordatlantik, wie sie sich aus PDO und AMO ergeben, Änderungen der Arktischen Oszillation AO, vulkanischer Aktivität und solaren Zyklen. Lassen Sie uns auf die jüngere Geschichte dieser tatsächlichen Klimamacher zurück blicken.


Tabelle 1

Welchen Einfluss haben die ENSO-, PDO- und AMO-Zyklen?

Während der negativen bzw. kalten Phasen von PDO und AMO gibt es mehr La Nina-Ereignisse als während der positiven Phasen. Dies trägt zu mehr kalten Wintern und kälteren Jahren während einer negativen PDO bei.

Während positiver oder warmer Phase von PDO und AMO treten signifikant häufiger El Nino-Ereignisse auf. Dies ist der Grund für eine stärkere Erwärmung, wenn die PDO positiv ist.

Die globale Erwärmung war das Ergebnis eines nahezu simultanen Auftretens der warmen bzw. positiven Phase der PDO und der AMO. Die PDO ist eine Folge von ENSO-Ereignissen im Pazifik. Beide Effekte können ihre Ursache teilweise oder ganz in Zyklen der Wassertemperatur und einer Zirkulation in den Ozeanen haben, die man MOC oder Meridional Overturning Circulation [etwa: Meridionale Umwälzung] nennt und die durch alle großen Ozeane fließt.

Die gegenwärtige negative oder kalte Phase der PDO und das La Nina-Ereignis sind der Grund für all das kalte Wetter in jüngster Zeit. Die La Nina-Ereignisse könnten direkt zu der Überschwemmung am Red River [in den USA] im Jahre 2009 sowie zu den jüngsten Überschwemmungen in Australien und Brasilien beigetragen haben. Die typischen Auswirkungen von AMO und PDO auf das Klima in Nordamerika zeigt diese Studie: http://www.pnas.org/content/101/12/4136.full.pdf+html.

Ein anderer Schlüsselfaktor, der demnächst (in 1 bis 4 Jahren) zur globalen Abkühlung an der kanadischen und US-Ostküste, der Westküste Europas und der Arktis beitragen wird, ist die Abkühlung des Nordatlantik im Zuge der Atlantischen Multidekadischen Oszillation AMO. Diese Abkühlung begann nach dem Jahr 2005. Aber die AMO wird durch ENSO-Zyklen beeinflusst, vor allem El Nino-Ereignissen. Daher kam es zu einer kurzen Warmphase der AMO im Jahr 2010. Die Klimageschichte zeigt, dass die globale Abkühlung am stärksten war, wenn sich sowohl die PDO als auch die AMO beide in ihrer negativen oder kalten Phase befanden, wie von 1964 bis 1976 und dann  wieder von 1916 bis 1923. Die AMO befand sich in ihrer positiven oder warmen Phase seit 1994. Deren Zyklus lässt sich nicht so gut vorhersagen wie der 60-jährige Zyklus der PDO, aber in jüngerer Zeit folgte die AMO der PDO mit einer Verzögerung von etwa 20 Jahren.

Deren Zyklen waren ziemlich variabel. Während des letzten Zyklus‘ befand sie sich für 30 Jahre (von 1964 bis 1994) in ihrer negativen oder kalten Phase, und ihr Zyklus scheint mit der MOC und den Änderungen der Atlantischen Thermohalinen Zirkulation (THC) [?] zusammen zu hängen. Es gibt eine ganze Reihe von Abschätzungen, wann sie wieder negativ wird. Meine beste Schätzung ist etwa das Jahr 2015, basierend auf den am häufigsten in der Vergangenheit aufgetretenen Intervallen von 20 Jahren und dem kälteren Wasser, das die MOC aus den Südlichen Ozeanen unterstützt [?]. Sobald sie tatsächlich negativ wird, dürfte die globale Temperatur bis etwa zum Jahr 2030 weiter zurückgehen, die Arktis wird sich weiter abkühlen und das arktische Meereis sollte wieder zunehmen.

Welches sind die jüngsten Beweise für globale Abkühlung?

·         Die PDO trat im September 2007 in ihre negative und abkühlende Phase (möglicherweise noch für die nächsten 20 bis 30 Jahre)

·         Die AMO hat ihren Höhepunkt überschritten und begann im Juli 2010 abzunehmen. Es wird vermutet, dass diese Abkühlung bis 2015 andauern wird.

·         Der SOI war sehr positiv (um +20) seit dem Juli (was 5 bis 7 Monate später zu kaltem Wetter führt)

·         AO und NAO befinden sich immer häufiger im stark negativen Bereich (die AO hat einen rekordverdächtigen negativen Wert von -4,266 im Februar 2010 und fast -5 im Dezember 2010 erreicht)

·         Die solare Aktivität verharrt nahe dem minimalen Niveau

·         Die meisten globalen Anomalien der Temperatur zeigten 2010 eine Abkühlung

·         Die Wassertemperatur der Ozeane (SST) geht zurück

·         Der Anstieg des Wärmegehalts der Ozeane ist in den letzten 6 Jahren zum Stillstand gekommen (mit einer signifikanten Abnahme des Wärmegehalts im Nordatlantik)

Abkühlung des Weltklimas

·         In Europa und Asien gab es drei kalte Winter hintereinander (neue Kälterekorde gab es 2010 in vielen Gebieten)

·         Die jährlichen Mitteltemperaturen in Europa (Festland) sind seit 2007 zurückgegangen.

·         In Großbritannien sind die Mitteltemperaturen seit 2006 zurückgegangen, also seit 4 Jahren.

·          2010 war das kälteste Jahr in Zentralengland (8,83°C) seit 1986 oder seit 14 Jahren (8,74°C)

·         Die Wintertemperaturen in Großbritannien gingen seit 2007 zurück (4 Jahre). Während der letzten beiden Winter kam es dort zu  einer Rekordkälte. 

·          Die Mitteltemperaturen in Nordamerika begannen seit 2006 abzukühlen.

·         Die Winter in Kanada wurden seit 2001 immer kälter (ausgenommen Jahre mit einem El Nino).

·         In den USA gab es 2010 einen der schlimmsten Winter (an 15. Stelle seit 1895), trotz eines El Nino

·         Rekordschneemengen und neue Kälterekorde gab es im Dezember 2010

·         In Schweden war der kälteste Dezember seit 110 Jahren aufgetreten.

·          In Großbritannien war der Dezember 2010 der kälteste seit 120 Jahren

·         In Deutschland war es der kälteste Dezember seit 41 Jahren

·          In Irland war es der kälteste Dezember seit 129 Jahren, also seit 1881

Ähnliche Kälterekorde gab es im Mittleren Osten, auf der koreanischen Halbinsel, in der Karibik, den USA sowie in Nordwestkanada, China und Indien.

Ausdehnung der Schneedecke

  • Im Jahr 2010 gab es auf der Nordhemisphäre die größte Fläche winterlicher Schneebedeckung seit dem Winter 1978/79 (2008 war es die dritthöchste seit 1967).
  • 2010 gab es die größte winterliche Schneedeckenausdehnung seit 1967, und die Ausdehnung nahm seit 2006 immer mehr zu
  • 5 der 11 ausgedehntesten Schneebedeckungen in Eurasien traten seit 2003 auf (2003 war es die zweithöchste seit 1967) 

Was passiert mit den Abweichungen der globalen Mitteltemperatur?

Betrachten wir einige Fakten zur gegenwärtigen Anomalie der globalen Mitteltemperatur.


Abbildung 3

Die globale Temperaturanomalie nach HADCRUT 3GL GLOBAL in Abbildung 3 ist seit nunmehr zehn Jahren gleich geblieben und hat tatsächlich im letzten Quadrant um 0,0026°C pro Jahr abgenommen [Original: is actually decreasing at least square trend slope of -0.0026 C per year. [Ohne Gewähr, dass diese Übersetzung korrekt ist! A. d. Übers.] Das IPCC prognostizierte eine Zunahme um 0,21°C pro Jahrzehnt (+0,0021°C pro Jahr) für jedes der beiden nächsten Jahrzehnte (seit 2000). Es prognostizierte eine Anomalie von 0,6°C bis 2010. Der tatsächliche Wert liegt bei 0,392°C und zeigt fallende Tendenz.

Irgendetwas scheint in der Wissenschaft des IPCC fundamental falsch zu sein. Seine Prognosen und die tatsächlichen Temperaturen verlaufen entgegen gesetzt, trotz der Änderungen des CO2-Gehaltes, und das schon nach der ersten Dekade dieser seiner Vorhersage.

Hier folgen die globalen Mitteltemperaturen aus 4 verschiedenen Datensätzen (von Januar 2001 bis Oktober 2010, also die letzten 118 Monate – Wood for trees):

HADCRUT 3GL – 0.0026 C pro Jahr
RSS: + 0.0034 C pro Jahr
GISS: + 0.0080 C pro Jahr
UAH: +0.0093 C pro Jahr
Mittel + 0.0044 C pro Jahr

Kann irgendein geistig gesunder Mensch eine Temperaturänderung von vier Tausendstel Grad feststellen und dies auf dem ganzen Globus messen? Dies zeigt, wie absurd der Alarmismus der globalen Erwärmung inzwischen geworden ist! [Hervorhebung dieses Satzes vom Übersetzer!]

Die historische Globale mittlere Temperaturanomalie (GMTA) lässt sich am besten mit einer linearen Komponente eines Anstiegs mit einer mittleren Rate von 0,0059°C pro Jahr seit 1880 oder einer solchen von 0,0045°C pro Jahr, wenn man 150 Jahre zurück geht, verdeutlichen, und zwar nach den Darstellungen des IPCC plus einer OSZILLIERENDEN Komponente, die einen sinusartigen Effekt mit einer Amplitude von 0,3°C hat. Diese beiden Anomalien addieren sich und erzeugen gemeinsam einen Zyklus von 60 Jahren, und zwar alternierend mit einer Abkühlung von 0,42°C und einer Erwärmung um 0,77°C, beides jeweils innerhalb von 30 Jahren.

Diese Verteilung wird verschiedentlich modifiziert durch kurzfristige Temperaturzu- und -abnahmen infolge von ENSO-Zyklen (El Nino wirkt erwärmend und La Nina abkühlend), großen Vulkanausbrüchen (VE 4+) plus jedweder Änderungen der Solaraktivität. Diese kurzfristigen Störungen können signifikant sein (bis zu +/-0,4 bis 0,5°C außerhalb des Gleichungsmodells [?]).

Wie lauten die Vorhersagen der AGW für die Zukunft?

Vorhersage des IPCC: 2,4 bis 6°C bis zum Jahr 2100, oder 0,02 bis 0,6°C pro Jahr, also 4 bis 13 mal so hoch wie die gegenwärtige beobachtete Rate des Anstiegs.

Vorhersage des Met Office: 4°C bis 2060 oder 0,08°C pro Jahr (18 mal so hoch wie die gegenwärtige beobachtete Rate des Anstiegs).

Was projizieren die nicht der AGW-Bewegung angehörenden Wissenschaftler?

Es gibt eine wachsende Zahl von über 30 verschiedenen internationalen Klimawissenschaftlern, Akademikern, Meteorologen, Klimaforschern und Ingenieuren, die auf diesem Gebiet geforscht haben und die nicht den Vorhersagen einer noch nie da gewesenen Erwärmung von AGW und IPCC zustimmen, und die für die nächsten 1 bis 3 Dekaden kälteres Wetter annehmen. Einige sind sogar Unterstützer von AGW, stimmen aber nicht der projizierten Erwärmung für die nächste Dekade zu (siehe http://notrickszone.com/2010/12/28/global-cooling-consensus-is-heating-up-cooling-over-the-next-1-to-3-decades/  – auf Deutsch hier). Jeder Autor begründet hier, warum er von einer bevor stehenden globalen Abkühlung während der nächsten 10 bis 30 Jahre ausgeht. Diese Autoren beschreiben die natürlichen Faktoren, die das zukünftige Klima beeinflussen können, vor allem die Auswirkungen möglicher reduzierter Sonnenzyklen. Damit befasst sich der Autor dieses Beitrags jedoch nicht, weil der Beitrag sonst viel zu lang ausfallen würde.

Welche Schlüsse lassen sich aus planetarischen Zyklen der Vergangenheit ziehen?

Der Höhepunkt der jüngsten Warmphase lag zu Anfang dieses Jahrzehnts. Inzwischen könnte ein 30 Jahre dauernder kalter Zyklus begonnen haben, der zu einer Temperaturabnahme um 0,42°C bis zum Jahre 2030 führen wird. Es wird sicher noch einige warme El Nino-Jahre geben, aber der allgemeine Trend wird kälter sein als während der letzten 30 Jahre. Basierend auf der kälteren Anomalie von 0,06°C bis 2030 werden die Temperaturen ähnlich wie in den späten siebziger und frühen achtziger Jahren des 20. Jahrhunderts sein. Die Temperaturanomalie von Hadcrut3 betrug im September 2010 0,391°C und könnte noch auf 0,16°C bis 2020 zurückgehen bis zu einem Wert von etwa 0,06°C bis 2030. Die Projektion des IPCC lautet dagegen, dass die Temperaturanomalie bis 2020 auf etwa 0,8°C steigen soll. Diese beiden unterschiedlichen Projektionen, also die Vorhersage aufgrund natürlicher planetarer Zyklen und die Vorhersagen des IPCC, laufen rapide immer weiter auseinander.

Abbildung 4 zeigt eine Graphik der globalen Temperaturanomalie sowohl in der Vergangenheit als auch projiziert in die Zukunft. Sie wird präsentiert von Syun-Ichi-Akasofu (Gründungsdirektor und Physikprofessor am International Arctic Research Center, University of Alaska):


Abbildung 4

Die Abbildung 5 unten stammt aus einer Studie mit dem Titel Predictions of Global Man Temperatures & IPCC Projections (etwa: Vorhersagen der globalen mittleren Temperaturen & Projektionen des IPCC) [Achtung! Der Titel scheint im Original einen Schreibfehler zu enthalten! Gemeint ist vermutlich nicht Global Man Temperature, sondern Global Mean Temperature! A. d. Übers.] von Girma Orssengo, die zuvor auf WUWT gepostet worden war. Dabei handelt es sich um ein simples mathematisches Modell, das auf der Global Mean Temperature Anomaly (GMTA) von Hadcrut3 basiert. Die Gleichung oder das Modell ist aus keinen anderen messbaren Parametern abgeleitet als den aktuellen globalen Temperaturanomalien der Vergangenheit. Obwohl es nicht aus irgendeiner Physik abgeleitet worden war und ihr weder Energiemechanismen noch physikalische Gegebenheiten zugrunde liegen, ist es in gewisser Weise doch ein recht informativer Graph. Er basiert auf aktuellen empirischen Daten der Vergangenheit (hadcrut3) seit 1880.

Es gibt keine Garantie, dass irgendeine Zukunftsprojektion dieses Graphen je wirklich eintreten wird (es gibt aber auch keinen Beweis dafür, dass die gegenwärtigen Computermodelle von AGW noch irgendwie glaubwürdig sind). Jedoch kann der unten stehende Graph trotzdem nützlich sein. Er ähnelt dem “poor man’s “global temperature model [?] und besagt Folgendes:

  • Der Graph ist ein allgemeiner Indikator des Klimatrends in der Vergangenheit (geht der Zyklus demnächst abwärts oder aufwärts?)
  • Es gibt einen 60-jährigen Klimazyklus mit jeweils 30 Jahren Erwärmung, der 30 Jahre der Abkühlung folgen, und der sich regelmäßig alle 60 Jahre wiederholt.
  • Vor dem Jahr 2100 könnte es demnach noch zwei Zyklen mit Abkühlung geben, die die Erwärmung durch Treibhausgase marginal erscheinen lassen und deutlich überkompensieren.
  • Wahrscheinlich ist der Graph im Kurzfristzeitraum (die nächsten 10 bis 30 Jahre) nützlicher und genauer.
  • http://noconsensus.files.wordpress.com/2010/04/image2.jpg


Abbildung  5

Abbildung 6 zeigt  einen Graphen mit den möglichen zukünftigen Anomalien der GMTA pro Jahr, indem er die HISTORISCHEN NATÜRLICHEN PLANETARISCHEN ZYKLEN zeigt [Hervorhebung im Original] und das mittlere, vom IPCC projizierte Szenario einer Erwärmung um 3,0°C bis 2100. Einige andere Szenarien des IPCC zeigen einen Temperaturanstieg in der Größenordnung zwischen 2,4 und 5,3°C bis 2100, was eine sogar noch steilere Rate des Temperaturanstiegs [pro Jahr] bedeuten würde.


Abbildung 6

Siehe die Studie von Girma Orssengo für mehr Details des VORHERSAGEMODELLS von GMTA und der zugrunde liegenden Gleichung, und auch besonders die Abbildung 3 auf Seite 4, die den Verlauf der GMTA während der Jahre 1880 bis 2100 zeigt. Viele der Informationen zum GMTA stammen aus dieser Studie, die auf WUWT gepostet wurde: http://wattsupwiththat.files.wordpress.com/2010/04/predictions-of-gmt.pdf.

Warum es im 21. Jahrhundert eine geringere Erwärmung als im vergangenen 20. Jahrhundert geben könnte (Zitat aus dem oben erwähnten Papier von Girma Orssengo)

…das 20. Jahrhundert begann, als sich die oszillierende Anomalie gerade 1910 in ihrem Minimum befand mit einer GMTA von -0,64°C, und endete mit dem Maximum um das Jahr 2000 mit einer GMTA von 0,48°C. Das ergibt eine große globale Erwärmung von 0,48 + 0,64 = 1,12°C. Diese große Erwärmung resultierte aus dem seltenen Vorkommen von zwei Erwärmungsphasen von jeweils 0,77°C, aber nur einer Abkühlungsphase von 0,44°C. Daraus ergibt sich eine globale Erwärmung um 2*0,77-0,42=1,12°C.

Im Gegensatz zum 20. Jahrhundert wird es laut Abbildung 3 nahezu keine Änderung der GMTA im 21. Jahrhundert geben. Der Grund hierfür liegt darin, dass das Jahrhundert zu der Zeit begann, als sich die oszillierende Anomalie gerade im Maximum befand, und zwar um das Jahr 2000 mit einer GMTA von 0,48°C. Es wird im Minimum enden, also um das Jahr 2090 mit einer GMTA von 0,41°C. daraus resultiert eine vernachlässigbare Größenordnung von -0,07°C. Diese vernachlässigbare Änderung ergibt sich aus dem seltenen Ereignis, dass es zwei Abkühlungsphasen mit jeweils 0,42°C und nur einer Erwärmungsphase mit 0,77°C gibt.

Erwähnenswert ist, dass keine der auf planetarischen Zyklen basierenden Vorhersagen eine Temperaturzunahme von 2 bis 4 oder gar 6°C simuliert, wie es die Vorhersagen des Met Office und des IPCC tun. Diese auf planetarischen Zyklen basierenden Vorhersagen von Prof. Easterbrook und Prof. Syun-Ichi Akasofu gehen von einer Erwärmung von weniger als 1°C bis 2100 aus, ähnlich dem, was im vergangenen Jahrhundert geschehen war.

Auch Dr. Roy Spencer von der University of Alabama und Professor R. Lindzen vom MIT [Massachusetts Institute of Technology] glauben, dass der Temperaturanstieg bis zum Ende dieses Jahrhunderts lediglich etwa 1°C ausmacht.

Zusammenfassung

Während der nächsten 10 bis 30 Jahre wird es eher zu kälterem Wetter kommen als zu einer nie da gewesenen Erwärmung. Dies heißt nicht, dass es in allen der nächsten 10 bis 30 Jahre kälter ist, da es nach wie vor einige warme El Nino-Jahre geben wird, aber der generelle Trend der nächsten 2 bis 3 Dekaden dürfte kälter ausfallen und nicht eine nie da gewesene Erwärmung zeigen, wie es AGW behauptet.

Es gibt niemandem auf diesen Planeten, der genau sagen kann, wie das Klima in einem Jahr oder in einem Jahrzehnt und schon gar nicht in 100 Jahren aussehen wird. Dieser Artikel sollte zeigen, dass es andere Möglichkeiten der Entwicklung des Klimas gibt, die nicht notwendigerweise eine größere Reduktion der CO2-Emissionen erforderlich machen. Eine andere Version der Klimavorhersage, die auf natürlichen planetarischen Zyklen basiert, scheint viel wahrscheinlicher, wird die Erde viel mehr betreffen und viel schneller kommen als eine noch nie da gewesene Erwärmung. Einige Winter könnten sehr streng sein, so wie in den späten siebziger Jahren. Die tatsächlich beobachteten Anzeichen aus der realen Welt zeigen, dass die Option der Abkühlung in vielen Teilen der Welt bereits begonnen hat.

 Matt Vooro, P. Eng

Die Option der globalen Abkühlung ist auch Thema dieser Beiträge:

http://www.iceagenow.com/
http://www.appinsys.com/GlobalWarming/GW_TemperatureProjections.htm
http://isthereglobalcooling.com/
http://notrickszone.com/category/cooling/
http://wattsupwiththat.com/

http://thegwpf.org/the-climate-record/2269-freezing-winters-in-europe-could-be-the-norm.html

 von Matt Vooro 

Link: http://notrickszone.com/2011/01/22/signs-of-strengthening-global-cooling/

Übersetzt von Chris Frey für EIKE

Anmerkung des Übersetzers: Einige wenige [gekennzeichnete] Passagen dieses Textes habe ich inhaltlich nicht verstanden und quasi im ‚Blindflug‘ übersetzt. Ich bitte um Nachsicht! Vermutlich haben diese Passagen aber keinen Einfluss auf den Gesamtzusammenhang dieses Beitrags.

Unabhängig davon – selten habe ich einen Text gesehen, der so anschaulich die gesamte Faktenlage auf den Punkt bringt wie dieser Beitrag von Matt Voroo!  Das leuchtet selbst Laien ein!

An zwei Stellen bezieht sich der Beitrag auf Arbeiten von Prof.  Easterbrook, dessen Arbeiten eventuell umstritten sind. Bevor aber sich die Diskussion darauf einschießt, sei hier angemerkt, dass seine Arbeiten hier bestenfalls am Rande eine Rolle spielen und als eine von vielen zitiert werden.





NASA Klima (GISS) Institut findet heraus: Flughäfen werden deutlich wärmer als der Rest der Welt.

Wie im vorherigen Beitrag bemerkt, hat das GISS seine monatliche globale Temperaturzusammenfassung für den Juni 2009 veröffentlicht. Die kolossale Anomalie dieses Monats von 0.63C ist einmal mehr viel höher als die von RSS, UAH, und sogar NOAA, der Quelle der GISS-Temperatur Daten. Nicht nur ist die Anomalie höher als die andere Quellen, sondern sie verläuft entgegengesetzt.

Temperaturdaten von 1079 Stationen trugen weltweit zur Analyse bei, 134 davon in den 50 amerikanischen Staaten angesiedelt. Daten von im Grunde den gleichen wenigen Stationen sind für die vergangenen vierundzwanzig Monate benutzt worden. Viele, viele Hunderte von Stationen, die historisch in die Aufzeichnung einbezogen worden sind, und immer noch Daten sammeln, werden heute weiterhin von GISS bei den globalen Temperaturberechnungen ignoriert.

Und wieder kommt der Großteil der  Temperaturen, der den heutigen weltweiten GISS-Durchschnitt umfaßt, von Flughäfen. In diesem Fall von 554 Flughäfen, laut den NOAA Daten von der V2-Station Bestandsliste. In den U.S. steigt das Verhältnis von Flughäfen zu Stationen insgesamt weiter stark an, mit 121 Flughafen-Stationen von den 134 berichtenden US Stationen.

Wareum müssen wir uns um die Flughafenstationen kümmern? Neben den jüngsten Posts auf der Seite von WWUT, welche die Probleme mit Flughafen-ASOS-Ausrüstung in den U.S. dokumentieren, hat WUWT auch eine Anzahl von Stationen dokumentiert, die problematisch gelegen sind. Besonders auffallend ist die Nähe der Stationen zu beheizten Pisten. Flughäfen können eine Mini-WI (Wäreminseleffekt) Wirkung dort ausüben, wo man sie ansonsten nicht erwartet.

Der NOAA Daten sind nicht völlig aussagekräftig, und mehrere bei Flughäfen gefundene Stationen werden nicht als solche bezeichnet. Einige Beispiele: Londrina und Brasilia in Brasilien, Ely / Yelland in Nevada und Broome in Austrailia. Jene Stationen waren leicht zu finden, weil sie im Stationsnamen den Begriff "Flughafen" oder ähnliches hatten. Ein Scheck der Koordinaten bei Google Earth bestätigte die Flughafenlagen.

Untersuchen wir die Daten über die Stationen etwas näher, sollen wir?

NOAA sagt, dass 345 der Stationen, die sie an GISS weitergeben, ländlich sind, und daher vermutlich frei von UHI-Einfluss. Fünfzehn dieser Stationen befinden sich in den U.S. Aber nur 201 dieser ländlichen Stationen befinden sich nicht bei einem Flughafen, und deshalb vermutlich frei von UHI-Wirkungen (einschließlich Pistenheizung). In den U.S. wird nur eine der fünfzehn Stationen als ländlich und gleichzeitig  nicht bei einem Flughafen gelegen, genannt: Ely / Yelland in Nevada.

So so!!! Wie oben gesagt, liegt diese Station bei einem Flughafen – das bestätigte nicht nur Google Earth, sondern auch die NOAA NCDC-Webseite! Dies bedeutet, dass all die amerikanischen Temperaturen – einschließlich Alaska und Hawaii. – entweder von einem Flughafen (der Großteil der Daten) oder einer städtischen Lage stammt.

Wie für der Rest der Welt wird bei einigen, der als ländlich und nicht bei einem Flughafen liegend angegebenen Stationen, in der Beschreibung vermerkt, dass sie in einem Gebiet mit „gedämpfter“ oder "heller" Beleuchtung liegen. Wenn wir diese herausnehmen, bleibt eine Gesamtsumme von nur 128 Stationen, die ländlich sind, nicht bei einem Flughafen liegen, und "dunkel" sind.

Warum ist "dunkel" so wichtig? Erinnern Sie sich, dass GISS dunkle Stationen verwendet, um den WI-Effekt der städtischen Stationen zu justieren. Bei nur 128 dunklen Stationen, keine davon in den U.S., scheint dies eine unmögliche Aufgabe zu sein.

Glücklicherweise erlauben es die GISS-Justierungs-Regeln, alte Daten zum Justieren von neuen Daten zu verwenden. Die Älteren "nicht-meldenden“ ländlichen Wetterstationen dienen weiter dazu, städtische Stationen zu justieren, obwohl die letzten zwei Jahre Überschneidung fehlen.

Zum Glück sind die Algorithmen robust genug, um Justierungen im Bereich von 100´stel Graden zu berechnen, selbst wenn Daten fehlen.

John Goetz im Juli 2009 den Originalartikel finden Sie hier

Die Übersetzung besorgte CS.

Weiterführende Links: http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/




Wärmstes Jahr 2010, aber nicht in Deutschland, auch nicht in Europa, nicht auf den Weltmeeren, …, wo denn eigentlich?

“2010 ist das wärmste Jahr in der Geschichte“, so die WMO am 20.01.2011 in Genf. Welcher Geschichte? Die Geschichte der manipulierten Temperaturreihen, wie sie Ende 2009 der Welt durch Climategate bekannt und karikativ wie folgt aufgegriffen wurde (Abbildung 1).

 

Abbildung 1 zeigt, wie der Erwärmungstrend aus Sicht des Karikaturisten zustande kommt. Wir wollen uns jedoch nach wissenschaftlichen Belegen ausrichten.

Bereits in meinem EIKE-Artikel http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1 hatte ich aufgezeigt, dass es für die Aussage der WMO keine belastbaren Belege gibt und durch Vergleiche mit dem Hadley-Center und der Satellitenwerte (UAH), die WMO und die GISS-Datenreihe, ich drücke es einmal so aus, erklärungsbedürftig sind. Daher nochmals, die auf Satellitenmessungen basierte globale Temperaturdatenreihe, aus der eindeutig hervorgeht, dass 2010 nicht das wärmste Jahr war.

 

Abbildung 2 zeigt die Globaltemperaturen im Zeitraum 1979 – 2010 (Stand 05. Januar 2011, Quelle: http://www.climate4you.com/GlobalTemperatures.htm). Beide Temperaturspitzen, die zum Jahreswechsel 2009/2010 und 1997/1998 sind El Niño-basiert, wie ich in meinem o.g. Artikel bereits nachwies. In meinem EIKE-Artikel “La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld“ weise ich darüber hinaus nach, durch was sie wann ausgelöst werden.

Das etwas mit der Aussage vom wärmsten Jahr 2010 nicht stimmen kann, wurde uns allen bereits zu Beginn des Jahres klar, als die gesamte nördliche Halbkugel, bis nach Spanien, von einer weithin geschlossenen Schneedecke bedeckt war. Weiter lag die Maitemperatur um 3°C niedriger als der Durchschnitt der letzten 10 Jahre, zumindest in Deutschland. Die Vegetation hinkte um Wochen hinterher, wie Abbildung 3 zeigt.

 

Abbildung 3: In der freien Fläche Deutschlands waren Ende Mai 2010 noch viele Bäume ohne vollen Blattaustrieb. Die Abbildung zeigt die ländliche Gegend um Ellwangen im Ostalbkreis, Ende Mai 2010.  Der Mai 2010 war einer der kältesten in den letzten 100 Jahren, wie Abbildung 4 zeigt.

 

Abbildung 4 zeigt die Maitemperatur in Deutschland von 1881 – 2010 nach Daten des DWD. Die Datenreihe zeigt übrigens auch, dass es in den 1930 und 1940-Jahren wärmer war als zum Ausgang des 20. Jahrhunderts. Der Mai 2010 war einer der kältesten im Betrachtungszeitraum und liegt deutlich unter dem Durchschnitt. Nach Auswertung des DWD (er lieferte uns in den Datenreihen die Temperaturabweichungen gleich mit) war der Mai um 1,7°C im Vergleich zum Mittel zu kalt! Der Mittelwert der Maitemperatur lag in diesem Zeitraum bei 12,1°C, rote, waagerechte Linie. Nur wenige Maimonate waren kälter, als 2010.

Der DWD hat jüngst bestätigt, dass das Jahr 2010 in Deutschland mit einer Mitteltemperatur von 7,9°C kälter war, als im Langzeitmittel, dem sog. Klimatologischen Referenzzeitraum. Wird dazu noch der in unserem EIKE-Beitrag http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/ berechnete Wärmeinseleffekt berücksichtigt, der die heutigen Vergleichsmesswerte zu wärmeren Temperaturen beeinflusst, ist es gegenwärtig so kalt, wie seit 150 Jahren nicht mehr, dem Ende der “Kleinen Eiszeit“, der kältesten Epoche der letzten 2.000 Jahre, oder wie sich der Leiter der Wetterstation Ostalbwetterwarte ausdrückte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren.“ Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF

Das Ergebnis der WI-bereinigten und damit korrekten Vergleichsmesswerte zeigt Abbildung 5.

 

Abbildung 5 (rote Zeitreihe) zeigt die WI-unbereinigte Temperaturreihe für Deutschland von 1891 – 2010, wie sie vom DWD veröffentlicht wurde und die WI-bereinigte EIKE-Vergleichszeitreihe, die die tatsächlichen Temperaturvergleichswerte angibt (blaue Datenreihe). Die grüne Trendkurve zeigt den ermittelten Wärmeinseleffekt und den möglichen Fehlerbereich. 2010 war im Betrachtungszeitraum eines der vier-kältesten Jahre und der polynomische Trend (blaue Trendlinie) liegt derzeit bei Werten, wie zu Beginn der Temperaturaufzeichnungen, so dass zusammengefasst gesagt werden kann:

Eine Temperaturerhöhung über die letzten 130 Jahre ist in Deutschland nicht nachweisbar. Der (leichte) Erwärmungstrend bis zum Ende des 20. Jahrhunderts ist aufgebraucht. Es wird (leider) wieder kälter.

Wie sieht es mit den letzten 10 Jahren aus, da die WMO in ihrer eingangs erwähnten Mitteilung weiter ausführte, die 10 wärmsten Jahre lägen alle im Zeitraum seit 1998. Hierzu die Datenreihe für Deutschland, nach Daten des DWD, also WI-unbereinigt.

 

Abbildung 6. Anhand der blauen Trendkurve wird deutlich: Wir haben in Deutschland eine Klimaabkühlung seit dem Jahr 2000.

Auch in Europa kann von einem wärmsten Jahr 2010 keine Rede sein, wie Abbildung 7 belegt.

 

Abbildung 7 (http://planetsave.com/2010/12/15/why-is-it-so-cold-in-europe-does-this-mean-global-warming-isnt-real/) zeigt die Temperaturanomalien für Europa in den Jahren von 1950 – 2010. Die Abbildung spricht für sich.

Da auf die Erde die Meersflächen mit über 70% der Fläche dominieren, geben sie einen Hinweis, ob die Meldung der WMO plausibel ist oder ob nicht.

 

Abbildung 8, Quelle: TRENBERTH, K.E. and FASULLO, J.T.:  Tracking Earth’s Energy, SCIENCE, Vol.328, 16.04.2010, S.316-317 zeigt nach ARGO-Daten die Oberflächentemperaturen (ARGO ist Teil des globalen Ozeanüberwachungssystems und wurde nach der griechische Argo-Sage, dem gleichnamigen Schiff der Argonauten benannt). In der Arbeit von Trenberth ist bestenfalls von einem gleichbleibendem Niveau der Meerestemperaturen, unter dem von 1998 zu sprechen. Im Spiegel vom 20. Mai 2010 (http://www.spiegel.de/wissenschaft/natur/0,1518,694719,00.html) rätseln die Forscher über die Meereskälte. Auch hier also von einem Rekordjahr weit und breit nichts in Sicht.

Wie kommt nun die WMO zu ihrer Aussage? Die Lösung liegt in dem bereits genannten WI, der die Temperaturen künstlich in die Höhe treibt und der Tatsache, dass mittlerweile 51% aller globalen Temperaturmesswerte von Flughäfen stammen. Siehe hierzu unser EIKE-Artikel http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1) oder http://wattsupwiththat.com/2009/07/15/giss-worlds-airports-continue-to-run-warmer-than-row/ . Weiter befinden sich gegenwärtig 80% aller Messstationen in städtischen Gebieten, die aber nur 3% der Landfläche ausmachen. Von einer objektiven und halbwegs gleichmäßigen Verteilung und Gewichtung der Messstationen kann demnach keine Rede sein. Die folgende Abbildung zeigt, wie sich durch geeignete Auswahl von städtischen Messstationen die Temperaturmittelwerte angehoben wurden, obwohl sich in der Realität nichts änderte.

Abbildung 9 (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf) zeigt, wie parallel durch Auswahl (Weglassen von ländlichen Messstationen) der Stationen die Temperaturen plötzlich zu steigen beginnen.

In 2009 wurde die Anzahl der Messstationen nochmals reduziert, wie die Abbildung 10 am Beispiel der USA zeigt.

 

Abbildung 10, Quelle: Surface Temperature Records: Policy Driven Deception? Joseph D’Aleo and Anthony Watts, zeigt, wie sich die Anzahl der US-Messstationen in 2009 drastisch verringerte, hin zu städtischen Stationen.

Am Beispiel Kanadas, welches in 2010 Rekordtemperaturen verzeichnen haben soll, wird denn deutlich, wie Reduzierung und Gewichtung die Temperaturen in die gewünschte Richtung lenken.

 

Abbildung 11 zeigt die Erde mit den Temperaturabweichungen nach NOAA für 2010. Man beachte, dass Kanada besonders stark hervorgehoben wird und dort besonders stark in den Polargebieten die Temperatur gestiegen sein soll.

Diese Daten, ihre Plausibilität, werden nun mit den vorhandenen Messstationen verglichen. Hier die Liste der WMO-Temperaturmessstationen in Kanada, aufgelistet nach Ländern.

 

Abbildung 12 oben zeigt die Anzahl der Temperaturmessstationen und welches Gebiet diese abdecken und darunter, Kanada mit seinen Ländern und darin eingezeichnet, dass weite Gebiete (grün) mit Messstationen gar nicht erst erfasst werden, Quelle: Surface Temperature Records: Policy Driven Deception? Joseph D’Aleo and Anthony Watts. Werden diese Gebiete mit den Angaben der NOAA für 2010 in Abbildung 11 verglichen, muss festgestellt werden, dass Temperaturen für große Gebiete ausgewiesen werden, obwohl sich dort überhaupt keine Messstation befindet und, wie sollte es anders sein, Rekordtemperaturen dabei herauskommen. Es werden also Temperaturen sozusagen aus der Glaskugel angegeben. Da verwundert es denn nicht, dass 2010 ein Rekordjahr war, fragt sich denn nur, auf was sich der Rekord bezieht (siehe Anfang unseres Artikels in Bezug zu Climategate). Es erübrigt sich fast zu sagen, dass nach Angaben von D’Aleo und Watts die Anzahl der WMO-Messstationen in Kanada 1088 betrug, anhand der obigen Liste aber nur noch 466 vorhanden sind.

Darüber hinaus haben der DWD und die WMO zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde in Deutschland am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Tabelle zeigt die Temperaturabweichung (nach oben) am Beispiel der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Erfassungsmethode.

 

Allein diese 0,1°C reichen aus, die WMO-Aussage als Falschaussage zu überführen, da der Rechenwert (bei Temperaturmittelwerten handelt es sich grundsätzlich niemals um gemessene, sondern immer um mathematisch behandelte, also gewichtete Werte und es gibt eine Vielzahl verschiedener Rechenmethoden – Algorithmen) zwischen dem angeblich wärmsten Jahr 2010 und dem Drittplatzierten lediglich 0,05°C beträgt.

Bei einem Zusammentreffen solch ungeeigneter Messumgebungen und statistischer Taschenspielertricks, kann es denn nicht verwundern, dass die Temperaturen WI-bedingt immer mehr steigen, obwohl wir doch längst alle bemerkten, dass es deutlich kälter wird.

Zum Abschluss möchten wir Ihnen die aus Eisbohrkerndaten rekonstruierte Temperaturreihe der letzten 10.000 Jahre zeigen, da die WMO nicht versäumte zu melden, dass das arktische Eis (wieder einmal) einer Rekordschmelze entgegen geht.

 

Abbildung 13 (http://joannenova.com.au/2010/02/the-big-picture-65-million-years-of-temperature-swings/) zeigt den Temperaturgang der letzten 10.000 Jahre. Von einem wärmsten Jahr 2010 oder wenigsten einer wärmsten Epoche der letzten 10 Jahre ist dort nichts zu sehen. In der Vergangenheit gab es deutlich wärmere Jahre mit daraus resultierender geringerer Eisbedeckung.

Insgesamt ist das Resümee zu ziehen, dass es sich bei der Aussage der WMO um eine Falschaussage handelt, die anhand ungeeigneter, weil stark WI-belasteter Messstationen zustande kommt, sowie geänderter statistischer Erfassungsmethoden und statistisch geänderter Gewichtung von Messstationen.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Weitere Links zum Thema:

http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/