1

Und wieder verlängert sich der Stillstand

Bild rechts: Die lineare Regression kleinster Quadrate des Trends der globalen monatlichen Temperaturanomalie nach RSS zeigt keine globale Erwärmung seit 18 Jahren und 8 Monaten, also seit Januar 1997, obwohl ein Drittel aller anthropogenen Antriebe während der Periode des Stillstands Eingang fand.

Wie immer aber eine Warnung hinsichtlich des gegenwärtigen El Niño. Wahrscheinlich wird die Temperaturzunahme, die normalerweise mit einem El Niño einhergeht, den Stillstand irgendwie unterbrechen, gerade pünktlich zum Klimagipfel in Paris, obwohl ein nachfolgendes La Niña den Stillstand wiederherstellen und verlängern dürfte.

Zu einer globalen Temperaturspitze aufgrund der thermohalinen Zirkulation, der die warmen Wasser des tropischen Pazifiks um die ganze Welt transportiert, kommt es in einem El Niño-Jahr gewöhnlicherweise im nordhemisphärischen Winter.

Allerdings entwickelt sich ein oder zwei Jahre nach einem El Niño normalerweise – aber nicht immer – eine La Niña, wobei sich zuerst die Oberfläche des Ozeans abkühlt und danach die Lufttemperatur, was die globale Temperatur wieder auf ihre Normalwerte bringt.

Abbildung 1a: Wassertemperatur-Index für die Nino 3.4-Region des tropischen Ostpazifiks. Er zeigt einen Anstieg in Richtung einer Spitze, zu der es normalerweise im nordhemisphärischen Winter kommt. Vorerst verlängert sich der Stillstand noch weiter, aber nicht mehr lange, und das wärmere Wasser im Pazifik wird durch die thermohaline Zirkulation auf der ganzen Welt verbreitet, was zu einer vorübergehenden Wärmespitze der globalen Temperaturen führt.

Die Stillstandsperiode von 18 Jahren und 8 Monaten ist der am weitesten zurück reichende Zeitraum in den Satelliten-Temperaturaufzeichnungen, den man betrachten kann und der immer noch einen Null-Trend zeigt. Das Anfangsdatum ist nicht cherry picked, es ist berechnet. Und die Graphik bedeutet nicht, dass es so etwas wie eine globale Erwärmung nicht gibt. Geht man noch weiter zurück, zeigt sich eine geringe Erwärmungsrate.

Der UAH-Datensatz zeigt den Stillstand fast genauso lang wie der RSS-Datensatz. Allerdings zeigen die vielfach veränderten Temperatur-Datensätze am Boden eine geringe Erwärmungsrate.

Abbildung 1b: Der lineare Regressionstrend kleinster Quadrate in der mittleren monatlichen Temperaturanomalie nach GISS, HadCRUT4 und NCDC zeigt eine globale Erwärmung mit einer Rate äquivalent zu etwas über 1°C pro Jahrhundert im Zeitraum des Stillstands von Januar 1997 bis Juli 2015.

Wenn man bedenkt, dass ein Drittel des Strahlungsantriebs von 2,4 W/m² aus allen anthropogenen Quellen während des Stillstands-Zeitraumes stammt, ist eine Erwärmungsrate von etwas mehr als 1°C pro Jahrhundert nicht wirklich alarmierend. Allerdings hat es die Studie, die das vermeintliche Fehlen des Stillstands zeigte, sorgfältig vermieden zu erwähnen, wie gering die Erwärmung in den terrestrischen Datensätzen tatsächlich ist – selbst nach all den zahlreichen Manipulationen.

Wie immer muss man hier aber aufpassen: Nur weil es während der letzten Jahrzehnte keine oder nur eine geringe Erwärmung gegeben hat, kann man daraus nicht folgern, dass die Erwärmung für immer zum Stillstand gekommen ist. Die Trendlinien messen nur das, was geschehen ist; sie sagen nicht voraus, was geschehen wird.

Der Stillstand – so politisch nützlich er auch für alle sein kann die wünschen, dass die „offizielle“ wissenschaftliche Gemeinschaft seiner Pflicht zum Hinterfragen nachkommt – weit weniger wichtig ist als die immer größer werdende Diskrepanz zwischen den Prophezeiungen der globalen Zirkulationsmodelle und der beobachteten Realität.

Die Diskrepanz zwischen den Modellprophezeiungen im Jahre 1990 (Abbildung 2) und 2005 (Abbildung 3) einerseits und die tatsächlichen Messungen andererseits vergrößert sich immer weiter. Falls sich der Stillstand noch ein wenig weiter fortsetzt, wird die Erwärmungsrate in dem Vierteljahrhundert seit dem ersten IPCC-Zustandsbericht aus dem Jahr 1990 unter ein Äquivalent von 1°C pro Jahrhundert absinken.

Abbildung 2: Echtzeit-Projektionen der Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC im Jahre 1990 für die 307 Monate von Januar 1990 bis Juli 2015 (orangefarbener Bereich und rote Trendlinie) im Vergleich zu gemessenen Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von nur 1 K pro Jahrhundert, gemittelt aus den Satelliten-Datensätzen von RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis Juli 2015 mit einer Rate äquivalent zu 1,7 (1,0; 2,3) K pro Jahrhundert (orangefarbener Bereich mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten, nahe Null liegenden Anomalien (dunkelblau) und Trend (hellblau) der realen Welt, gebildet aus dem Mittel der Temperaturanomalien in der unteren Troposphäre nach RSS und UAH.

Die Liste der Kernfakten über die globale Temperatur (unten) sollte man jedem vorlegen, der weiter daran glaubt, dass – um es mit den Worten von Mr. Obamas Twitterei auszurücken – „die globale Erwärmung real, vom Menschen verursacht und gefährlich“ ist.

In Hintergründe werden die Quellen der IPCC-Vorhersagen aus den Jahren 1990 und 2005 erläutert. Auch wird gezeigt, dass sich die Ozeane den ARGO-Daten zufolge mit einer Rate äquivalent zu weniger als 0,25°C pro Jahrhundert erwärmen.

Kernfakten zur globalen Temperatur

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 223 Monaten von Januar 1997 bis Juli 2015 – also während über der Hälfte der 439 Monate langen Satelliten-Aufzeichnungen.

● Es gab keine Erwärmung, obwohl ein Drittel aller anthropogenen Antriebe seit 1750 erst nach Januar 1997 freigesetzt wurden, also während des Stillstands der globalen Erwärmung.

● Der gesamte RSS-Datensatz von Januar 1979 bis heute zeigt eine globale Erwärmung mit einer wirklich nicht alarmierenden Rate von lediglich 1,2°C pro Jahrhundert.

● Seit 1950, also seit dem Zeitpunkt, an dem ein menschlicher Einfluss auf das Klima zum ersten Mal theoretisch möglich ist, lag der Trend der globalen Erwärmung unter einem Äquivalent von 1,2°C pro Jahrhundert.

● Der globale Erwärmungstrend seit dem Jahr 1900 ist äquivalent zu 0,75°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

● Zur höchsten Erwärmungsrate über 15 Jahre oder mehr seit 1950 kam es während der 33 Jahre von 1974 bis 2006. Die Rate lag äquivalent zu 2,0°C pro Jahrhundert.

● Zum Vergleich, die Erwärmung im Temperatur-Datensatz aus Mittelengland während der 40 Jahre von 1694 bis 1733, also lange vor der industriellen Revolution, erreichte ein Äquivalent zu 4,33°C pro Jahrhundert.

● Im Jahre 1990 lag die Mittelfrist-Prognose des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als seine jüngste Prognose von 1,7°C pro Jahrhundert.

● Der Erwärmungstrend seit 1990, dem Jahr des 1. IPCC-Zustandsberichtes, ist äquivalent zu 1°C pro Jahrhundert. Das IPCC hat eine zweieinhalb mal so hohe Rate prophezeit.

● Damit die zentrale Prognose des IPCC von einer Erwärmung um 1°C von 1990 bis 2025 doch noch eintrifft, müsste es im nächsten Jahrzehnt zu einer Erwärmung von 0,75°C kommen, also einem Äquivalent zu 7,5°C pro Jahrhundert.

● Obwohl das IPCC seine Erwärmungsprognose im Kurzfristzeitraum zurückgefahren hat, sagt es langfristig bis zum Jahr 2100 bei Business as Usual immer noch eine Erwärmung um 4,8°C voraus.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 liegt deutlich mehr als zweimal so hoch wie die höchste Erwärmungsrate über mehr als 15 Jahre, die seit dem Jahr 1950 gemessen worden ist.

● Die IPCC-Vorhersage von 4,8°C bis 2100 liegt viermal so hoch wie der gemessene globale Erwärmungstrend, seit wir diesen theoretisch hätten beeinflussen können, also seit 1950.

● Die Ozeane erwärmen sich den ARGO-Bojen zufolge mit einer Rate von lediglich 0,02°C pro Jahrzehnt, äquivalent zu 0,23°C pro Jahrhundert oder 1°C in 430 Jahren.

Hintergründe

Unsere jüngste Graphik zeigt die lineare Regression kleinster Quadrate des Trends der monatlichen globalen mittleren Temperaturen, der so weit zurückreicht, wie es möglich ist und immer noch einen Null-Trend findet. Das Anfangsdatum ist nicht cherry picked, um mit der Temperaturspitze des El Niño des Jahres 1998 zusammenzufallen. Stattdessen ist er berechnet, um den längsten Zeitraum mit einem Null-Trend zu finden.

Die Tatsache des langen Stillstands ist ein Hinweis auf die sich stetig vergrößernde Diskrepanz zwischen Prophezeiung und Wirklichkeit bei den Temperaturmessungen.

Die Satelliten-Datensätze sind allgemein deutlich weniger unzuverlässig als andere Datensätze, zeigen sie doch den Großen El Niño klarer als alle anderen Datensätze. Dieses Ereignis verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche, was eine unabhängige Verifikation erlaubte, dass Satelliten-Datensätze mehr als alle anderen in der Lage sind, derartige Fluktuationen ohne künstliches Herausfiltern abzubilden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer abseits von menschlichen Wärmequellen zeigen Erwärmungsraten, die unter jenen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Referenzmessungen mittels der genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, welche eine unabhängige Verifikation der Temperaturmessungen ermöglichen, indem man mittels ins Weltall gerichteter Spiegel die kosmische Hintergrundstrahlung heranzieht, die etwa 1% des Gefrierpunktes von Wasser beträgt oder einfach 2,73 Grad über dem Absoluten Nullpunkt liegt. Es waren Messungen von minimalen Variationen dieser kosmischen Hintergrundstrahlung, die es der NASA ermöglichten, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik (Abbildung oben rechts) ist akkurat. Die Daten wurden monatlich direkt von der RSS-Website heruntergeladen. Ein Computer-Algorithmus liest sie aus dem File heraus und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten der Klarheit halber im maximal möglichen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue, über die gezackte dunkelblaue Linie gelegte Trendlinie zeigt die Daten nach der linearen Regression kleinster Quadrate sowie die den Schnittpunkt mit der Y-Achse und die Neigung der Linie.

Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Das Verfahren ist angemessen, weil die globalen Temperaturaufzeichnungen nur wenig Autoregression zeigen, werden doch die Sommertemperaturen auf der einen Hemisphäre durch die Wintertemperaturen auf der anderen Hemisphäre kompensiert. Daher würde ein AR(n)-Modell Ergebnisse erzeugen, die sich ein wenig vom Trend der kleinsten Quadrate unterscheiden.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelationskoeffizient berechnet werden. Dieser ist sehr klein, und obwohl die Daten hoch variabel sind, verläuft der Trend flach.

Bei RSS selbst ist jetzt ernsthaftes Interesse an der Länge des Großen Stillstands aufgekommen. Dr. Carl Mears, der leitende Forschungswissenschaftler bei RSS, diskutiert dieses hier.

Die Ergebnisse von Dr. Mears werden in Abbildung T1 zusammengefasst:

Abbildung T1: Output von 33 IPCC-Modellen (türkis) im Vergleich mit der globalen Temperaturänderung nach RSS (schwarz) von1979 bis 2014. Die vorübergehenden Abkühlungen durch die Vulkanausbrüche des El Chichon (1983) und des Pinatubo (1991) zeichnen sich ab, ebenso wie die Wärmespitze des Großen El Nino von 1998.

Dr. Mears schreibt:

Die Leugner mögen es zu vermuten, dass der Grund für die Diskrepanz zwischen Modellen und Beobachtungen eine Art Problem mit der zugrunde liegenden Modellphysik ist, und sie weisen alle anderen Formen der Erklärung zurück. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich irrig, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen RSS-Daten und den Modellen ein, führt diese allerdings auf Rosinenpickerei des Anfangsdatums der Graphik der globalen Temperatur zurück:

Jüngst war in einer Anzahl von Artikeln der Mainstream-Presse zu lesen, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben zu haben scheint. Deswegen stellt man uns viele Fragen mit dem Tenor ;Ich habe diese Graphik auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während einige dieser Berichte den Endzeitpunkt ,cherry-picked‘ haben, um ihre Beweise noch stärker aussehen zu lassen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen des historischen Klimas im AR 5 vorhergesagt. … Die Leugner mögen es wirklich, die Trends im Jahre 1997 beginnen zulassen, so dass das gewaltige ENSO-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

Tatsächlich wird die vom Großen El Niño 1998 verursachte Temperaturspitze aus zwei Gründen fast vollständig bei der Berechnung des linearen Trends ausgeglichen: dem Fehlen einer ähnlichen Spitze beim El Niño 2010 und der schieren Länge des Stillstands selbst.

[Was ist das für ein „Wissenschaftler“, der alle anderen als „Leugner“ bezeichnet, die lediglich zu anderen Erkenntnissen gekommen sind als er selbst? Anm. d. Übers.]

Komischerweise bevorzugt Dr. Mears die terrestrischen Datensätze vor den Satelliten-Datensätzen. Das UK Met.-Office jedoch verwendet die Satellitendaten, um seine eigenen terrestrischen Daten zu kalibrieren.

Die Länge des Stillstands der globalen Erwärmung, so signifikant sie auch daherkommt, ist weit weniger wichtig als die stetig und rasch weiter zunehmende Diskrepanz zwischen den von den Modellen prophezeiten Temperaturtrends und der weit weniger ausgeprägten Temperaturänderung der realen Welt. Der El Niño dieses Jahres kann sich durchaus noch in diesem Jahr verstärken, was die Länge des Großen Stillstands reduziert. Allerdings setzt sich die Verbreiterung des Grabens zwischen Prophezeiung und Beobachtung weiter fort.

Quellen der IPCC-Projektionen in den Abbildungen 2 und 3.

Im Ersten Zustandsbericht des IPCC wurde prophezeit, dass die Temperatur bis zum Jahr 2025 um 1,0 °C (0,7; 1,5°C) steigen würde, was äquivalent ist zu einer Rate von 2,8°C (1,9; 4.2°C) pro Jahrhundert. In der Executive Summary wurde die rhetorische Frage gestellt: „Wie viel Vertrauen haben wir in unsere Prophezeiungen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber dennoch zu dem Ergebnis:

Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen Ergebnissen der gekoppelten Modelle mittels einfacher Repräsentationen des Ozeans und jenen komplizierteren Beschreibungen, und unser Verständnis der Differenzen, die es auch gibt, bestärkt uns in dem Vertrauen in unsere Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantielles Über-Vertrauen. Und zwar weil die Rate der globalen Erwärmung seit 1990 – die wichtigsten „groben Umrisse des Klimawandels“, die die Modelle vermeintlich prophezeien sollten – inzwischen weniger als halb so groß ist wie vom IPCC damals prophezeit.

Im Jahre 1990 schrieb das IPCC Folgendes:

Auf der Grundlage der gegenwärtigen Modelle prophezeien wir:

Bei Treibhausgas-Emissionen unter dem Szenario A (Business as Usual) gibt es eine Rate der Zunahme der globalen mittleren Temperatur während des nächsten Jahrhunderts um etwa 0,3°C pro Jahrzehnt (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Jahrzehnt). Dies ist größer als während der letzten 10.000 Jahre aufgetreten. Dies wird zu einer wahrscheinlichen Erwärmung um etwa 1°C über dem jetzigen Wert bis zum Jahr 2025 und um 3°C vor dem Ende des nächsten Jahrhunderts führen. Der Anstieg wird nicht gleichmäßig verlaufen infolge des Einwirkens anderer Faktoren (S. Xii).

Später hieß es vom IPCC:

Die Zahlen unten basieren auf hoch auflösenden Modellen, skaliert, um mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 konsistent zu sein. Für Werte, die konsistent mit anderen Schätzungen des globalen Temperaturanstiegs sind, sollten die Zahlen unten um 30% reduziert werden für die niedrige Schätzung oder um 50% erhöht werden für die hohe Schätzung (S. xxiv).

Der orangefarbene Bereich in Abbildung 2 repräsentiert die mittelfristige IPCC-Schätzung unter Szenario A einer kurzfristigen Erwärmung, d. h. 1,0°C (0,7; 1,5) bis zum Jahr 2025.

Die vom IPCC prophezeite globale Erwärmung während der 25 Jahre ab 1990 bis zur Gegenwart differiert wenig um eine gerade Linie (Abbildung T2)

Abbildung T2: Historische Erwärmung von 1850 bis 1990 sowie prophezeite Erwärmung von 1990 bis 2100 unter dem IPCC-Szenario A (IPCC 1990, S. xxii)

Weil diese Differenz zwischen einer geraden Linie und dem leichten Sprung aufwärts der von IPCC im Zeitraum 1990 bis 2025 prophezeiten Erwärmungsrate so klein ist, kann man das noch in anderer Weise betrachten. Um die zentrale Schätzung von 1 K seit 1990 bis 2025 zu erreichen, müsste es eine doppelt so starke Erwärmung während der nächsten zehn Jahre geben, als es während der letzten 25 Jahre der Fall war. Das ist unwahrscheinlich.

Aber ist der Stillstand vielleicht der Tatsache geschuldet, dass CO2-Emissionen nicht annähernd so stark gestiegen sind wie die IPCC-Prophezeiung unter Szenario A im Jahre 1990 benannt? Nein: Die CO2-Emissionen sind ziemlich deutlich über die unter Szenario A prophezeite Menge gestiegen (Abbildung T3)

Abbildung T3: CO2-Emissionen durch fossile Treibstoffe usw. im Jahre 2012 aus Le Quéré et al. (2014) im Vergleich zur Karte der „anthropogenen Kohlendioxid-Emissionen“ in Milliarden Tonnen Kohlenstoff pro Jahr. Quelle: IPCC 1990

Daher haben sich die CO2-Emissionen seit 1990 als viel näher Szenario A entsprechend erwiesen als an jedes andere Szenario, weil trotz all des Geredes um Reduktionen von CO2-Emissionen die Tatsache besteht, dass die Rate der Ausweitung des Verbrennens fossiler Treibstoffe in China, Indonesien, Indien, Brasilien usw. die geringen Reduktionen in westlichen Ländern bis heute weit in den Schatten stellen.

Es stimmt schon, die Methankonzentration ist nicht so gestiegen wie im Jahre 1990 prophezeit, weil die Methan-Emissionen, obwohl weitgehend ungesteuert, einfach nicht so steigen, wie die Modelle prophezeit hatten. Auch hier war also die Grundlage aller Prophezeiungen abwegig.

Das Gesamtbild ist klar. Szenario A ist das Emissions-Szenario aus dem Jahr 1990, dass der Menge der beobachteten CO2-Emissionen am Nächsten liegt.

Abbildung T4: Methan-Konzentration wie in vier IPCC-Zustandsberichten prophezeit, zusammen mit der beobachteten Konzentration, welche sich entlang der unteren Grenze der Geringst-Prophezeiung bewegt. Diese Graphik erschien in der vorläufig-endgültigen Version von IPCC (2013), wurde jedoch auf mysteriöse Weise aus der veröffentlichten Endversion entfernt, vermutlich weil das IPCC einen solchen direkten Vergleich zwischen absurd übertriebenen Prophezeiungen und der wenig aufregenden Wirklichkeit nicht zeigen wollte.

Um genau zu sein, ein Vierteljahrhundert nach 1990 beträgt die globale Erwärmung bis jetzt 0,27°C, was äquivalent zu etwa über 1°C pro Jahrhundert ist – wenn man es ausdrückt als linearer Regressionstrend kleinster Quadrate des Mittels von RSS und UAH der monatlichen mittleren globalen Temperaturanomalien. Die zentrale Schätzung des IPCC von 0,71°C, also äquivalent zu 2,8°C pro Jahrhundert, welche unter Szenario A im Jahre 1990 mit „substantiellem Vertrauen“ prophezeit worden war, war dreimal zu hoch gegriffen. Tatsächlich liegt die tatsächliche Rate sichtlich deutlich unter selbst der kleinsten Schätzung.

Im Jahre 1990 war die zentrale Prophezeiung der kurzfristigen Erwärmungsrate des IPCC um zwei Drittel höher als dessen heutige Prophezeiung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert, heute ist es ein solches von 1,7°C pro Jahrhundert – und wie Abbildung T5 zeigt, hat sich selbst das als eine substantielle Übertreibung erwiesen.

Erwärmt sich der Ozean?

Eine oft herangezogene Erklärung des Großen Stillstands lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen prophezeiten Rate, aber das die Wärme während der letzten Jahrzehnte durch die Ozeane aus der Atmosphäre herausgefiltert worden ist. Und man hypothetisiert angesichts des Umstands, das die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen prophezeit, dass das, was man die „fehlende Wärme“ nennt, irgendwie in die kaum vermessenen Tiefen unter 2000 m diffundiert ist, von wo sie irgendwann in Zukunft wieder freigesetzt wird.

Tatsächlich ist unbekannt, ob sich der Ozean erwärmt: jede der automatisierten ARGO-Bojen führt nur drei Messungen pro Monat durch für eine Wassermenge von 200.000 km³ – grob etwa ein 100.000 Quadratmeilen [ca. 259.000 km²] großes Gitterquadrat mit einer Kantenlänge von 316 km und einer Tiefe von 2000 m. Im Klartext, die Ergebnisse einer so geringen Auflösung sind nicht viel besser als Raten. (Willis Eschenbach drückt es so aus: es ist etwa das Äquivalent zu versuchen, eine einzelnes Temperatur- und Salzgehalts-Profil an einem einzigen Punkt im Oberen See einmal pro Jahr zu erstellen).

Unglücklicherweise scheint es, als ob ARGO den Ozean-Datensatz seit Dezember 2014 nicht mehr aktualisiert hat. Allerdings haben wir 11 ganze Jahre mit Daten. Die Ergebnisse zeigt Abbildung T5. Falls die ARGO-Messungen richtig sind, ist die Erwärmung der Ozeane äquivalent zu 0,2°C pro Jahrhundert.

Abbildung T5: Der gesamte, fast globale ARGO-Datensatz der Wassertemperatur der Ozeane in den oberen 2000 m von Januar 2004 bis Dezember 2014 (schwarze gezackte Kurve), zusammen mit dem linearen Regressionstrend kleinster Quadrate, berechnet aus den Daten vom Autor (grüner Pfeil).

Und schließlich, obwohl die ARG-Bojen die Temperaturänderung in den Ozeanen direkt messen, ändert die NOAA die Temperaturänderung künstlich in Zetajoule der Änderung des ozeanischen Wärmegehaltes, wodurch die Änderung viel größer aussieht.

Die erschreckend klingende Änderung des Wärmegehaltes von 260 ZJ im Zeitraum 1970 bis 2014 (Abbildung T6) ist äquivalent zu lediglich 0,2 K pro Jahrhundert globaler Erwärmung. All jene „Hiroshima-Bomben von Wärme“, von denen die extremistischen Klima-Websites reden, sind in Wirklichkeit ein kaum wahrnehmbarer Nadelstich. Der Ozean und dessen Wärmekapazität sind viel größer als so Mancher wahrhaben will.

Abbildung T6: Änderung des ozeanischen Wärmegehaltes von 1957 bis 2013 in Zetajoules vom NODC Ocean Climate Lab der NOAA: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT, wobei die Werte des Wärmegehaltes zurück konvertiert wurden zu den Änderungen der Wassertemperatur in den Ozeanen in Kelvin, wie sie ursprünglich gemessen worden sind. Die Konversion der NOAA der minimalen Erwärmungszahlen in Zetajoule, kombiniert mit einer übertriebenen vertikalen Achse der Graphik, hat die Auswirkung, dass eine sehr kleine Änderung der Wassertemperatur viel signifikanter aussieht als sie ist.

Die Rück-Konversion der Änderung des ozeanischen Wärmegehaltes in Temperaturänderungen enthüllt eine interessante Diskrepanz zwischen den NOAA-Daten und denen des ARGO-Systems. Während des Zeitraumes der ARGO-Daten von 2004 bis 2014 implizieren die NOAA-Daten eine Erwärmung der Ozeane um 0,05°C pro Jahrzehnt, äquivalent zu 0,5°C pro Jahrhundert – oder eine fast doppelt so hohe Rate wie von ARGO gemessen.

Zwar hat ARGO den besser aufgelösten Datensatz, aber da die Auflösung aller Ozean-Datensätze sehr gering ist, muss man all diese Ergebnisse mit Vorsicht betrachten. Was man sagen kann ist, dass aufgrund solcher Beweise, wie sie diese Datensätze erbringen können, die Differenz zwischen dem zugrunde liegenden Erwärmungstrend des Ozeans und dem der Atmosphäre nicht statistisch signifikant ist. Dies zeigt, dass falls sich die „fehlende Wärme“ wirklich in den Ozeanen versteckt, sie auf magische Weise den Weg in tiefe Schichten gefunden hat, ohne die oberen Schichten auf ihrem Weg zu erwärmen. Ebenfalls aufgrund dieser Daten gibt es keine Beweise für eine rapide oder katastrophale Erwärmung der Ozeane.

Außerdem gibt es bis heute keine empirische, theoretische oder numerische Methode, komplex oder einfach, die erfolgreich mechanistisch spezifiziert hat, wie entweder die durch die anthropogene Anreicherung der Atmosphäre mit Treibhausgasen verursachte Erwärmung die Tiefsee erreicht hat, ohne den Wärmegehalt der durchdrungenen oberen Ozeanschichten wesentlich zu verändern, oder wie die Wärme vom Grund der Ozeane eventuell irgendwie wieder die Klimabedingungen nahe der Oberfläche beeinflussen kann, die für das Leben auf dem Festland der Erde relevant sind.

Die meisten Ozean-Modelle, die zur Berechnung der gekoppelten allgemeinen Modell-Sensitivität herangezogen worden sind, können die meisten der physikalischen Prozesse nicht auflösen, die für die Wärmeaufnahme durch die Ozeane relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass sich jedwede in der Tiefsee akkumulierte Wärme via verschiedener Diffusionsprozesse auflösen muss. Es ist nicht plausibel, dass irgendwelche durch die Tiefsee aufgenommenen Wärmemengen plötzlich die oberen Ozeanschichten erwärmen und damit auch die Atmosphäre.

Falls die „Tiefsee“-Erklärung für den Stillstand korrekt wäre (und diese ist lediglich eine von Dutzenden Anderen, die präsentiert worden sind), haben die komplexen Modelle dabei versagt, dies korrekt abzubilden: anderenfalls wäre die wachsende Diskrepanz zwischen den prophezeiten und beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall ist.

Warum waren die Modell-Prophezeiungen übertrieben?

Im Jahre 1990 prophezeite das IPCC – unter seinem Szenario A (Business as Usual) – dass es vom Beginn der industriellen Revolution an bis zur Gegenwart einen Strahlungsantrieb von 4 Watt pro Quadratmeter geben würde, der durch den Menschen verursacht ist (Abbildung T7):

Abbildung T7: prophezeite, vom Menschen verursachte Strahlungsantriebe (IPCC 1990).

Allerdings hat sich das IPCC von 1995 an entschlossen, aufgrund dürftiger Beweise zu vermuten, dass anthropogene Aerosole – meist Ruß durch Verbrennung – die Erde abschattet, und zwar stark genug, um einen starken negativen Strahlungsantrieb auszulösen. Auch hat es inzwischen verspätet erkannt, dass seine projizierten Zunahmen der Methan-Konzentration wilde Übertreibungen waren. Als Folge dieser und anderer Änderungen schätzt es jetzt, dass der gesamt-anthropogene Antrieb der industriellen Ära lediglich 2,3 W/m² beträgt oder etwas weniger als halb so groß ist wie laut dessen Prophezeiung im Jahre 1990.

Abbildung T8: Gesamt-anthropogene Antriebe von 1750 bis 1950, 1980 und 2012 (IPCC 2013).

Allerdings könnte selbst das noch eine erhebliche Übertreibung sein, beträgt doch die Best Estimate des tatsächlichen gegenwärtigen Strahlungs-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) lediglich 0,6 W/m² (gesamter natürlicher und anthropogener Antrieb); Abbildung T9:

Abbildung T9: Energiebudget-Diagramm für die Erde nach Stephens et al. (2012).

Kurz gesagt, der größte Anteil des vom IPCC prophezeiten Antriebs ist entweder eine Übertreibung oder hat bereits zu der Temperaturänderung geführt, welcher auch immer, die er verursachen sollte. Es gibt nur wenig globale Erwärmung in der Pipeline als Folge unserer Emissionssünden in Vergangenheit und Gegenwart.

Es kann auch sein, dass das IPCC und die Modelle unablässig die Klimasensitivität übertrieben haben. Eine jüngst erschienene Studie zu dieser Frage von Monckton of Brenchley et al. (2015), kam auf eine Klimasensitivität im Bereich von 1°C pro Verdoppelung des CO2-Gehaltes (man gehe zu www.scibull.com und klicke dort auf „Most Read Articles“). Die Studie identifizierte Fehler in der Art und Weise, wie die Modelle mit Temperatur-Rückkopplungen umgegangen waren, sowie deren Verstärkung, welche für zwei Drittel der Gleichgewichts-Erwärmung verantwortlich waren, die das IPCC prophezeit hatte.

Prof. Ray Bates hat jüngst in Moskau eine Studie veröffentlicht, in der er auf der Grundlage der Analyse von Lindzen & Choi (2009, 2011) zu dem Ergebnis gekommen war (Abbildung T10), dass Temperatur-Rückkopplungen insgesamt negativ sind. Demzufolge hat er die Schlussfolgerungen sowohl von Lindzen & Choi (1990) als auch von Spencer & Braswell (2010, 2011) bestätigt, denen zufolge die Klimasensitivität unter – und vielleicht beträchtlich unter – 1°C pro CO2-Verdoppelung liegt.

Abbildung T10: Realität (Mitte) im Vergleich zu 11 Modellen. Aus Lindzen & Choi (2009).

Eine zunehmende Anzahl begutachteter Studien kommt zu dem Ergebnis, dass die Klimasensitivität deutlich unter den 3°C (1,5; 4,5) pro CO2-Verdoppelung liegt, die zum ersten Mal im Charney-Report aus dem Jahr 1979 für die Academy of Sciences in den USA kolportiert worden war. Hierbei handelt es sich bis heute um die Best Estimate des IPCC.

Auf der Grundlage der bis heute vorliegenden Beweise gibt es daher keine wissenschaftliche Basis, überhaupt irgendwelche Maßnahmen zu ergreifen, um die CO2-Emissionen abzuschwächen.

Und zum Schluss: Wie lange wird es dauern, bevor die Freiheits-Uhr 20 Jahre ohne jede globale Erwärmung erreicht? Falls das geschieht, wird die Klimaangst unhaltbar werden.

Übersetzt von Chris Frey EIKE

Link: http://wattsupwiththat.com/2015/09/04/the-pause-lengthens-yet-again/




Lomborg zum Klimaschutz: Kosten 298 Milliarden € jährlich, Nutzen 7.1 Milliarden = 3 ct Nutzen pro aufgewendetem €!

 Das Zitat des Tages: Freitag, September 04, 2015

Deutschland hat 2013 rund 2 Milliarden Euro für Klimaprojekte im Ausland zugesagt. Entsprechend einem Standard-Klimamodell würde dies die Temperaturen bis zum Jahr 2100 in so unbedeutendem Maße senken, dass es zu einer Hinauszögerung der Erderwärmung um 80 Minuten am Ende des Jahrhunderts entspricht

Das Zitat des Tages: Samstag, September 05, 2015

Die Ärmsten der Welt wollen die von Deutschland für Klimaprojekte zugesagten 2 Milliarden Euro lieber für Medizin, Nahrungsmittel und Wasser, nicht für die Senkung der CO2-Emissionen. Das kann man ihnen nicht übel nehmen

Das Zitat des Tages: Sonntag, September 06, 2015

Subventionen schaffen keine Innovationen im Bereich der erneuerbaren Energien, denn für Unternehmer ist es viel sicherer, weiterhin auf stark subventionierte Windräder, Solar- und Biogasanlagen zu setzen, als bestehende Technologien weiterzuentwickeln und neue, praktikable Alternativen zu fossilen Brennstoffen zu erfinden

Das Zitat des Tages: Montag, September 07, 2015

Ein aus mehreren makroökonomischen Modellen berechneter Durchschnitt zeigt, dass die Kosten der EU-Klimapolitik bis zum Ende des Jahrhunderts 208 Milliarden Euro jährlich betragen werden, um durch den Klimawandel verursachte Kosten von jährlich 7,1 Milliarden Euro zu vermeiden. Damit hat jeder ausgegebene Euro gerade einmal drei Cent Nutzen.

Gesammelt von der Pharmafirma Curatis hier


Mit Dank an Spürnase G. Stehlik




Grüne Schwarzseher

Auf Panik machen bringt Stimmen: Die Grünen lernten es im Hitzesommer 2003, die Grünen aller Parteien in der Energiewende-Erregung nach der Naturkatastrophe von Fukushima 2011. Die Grüne Partei buhlte deshalb um die Stimmen der Schweizer, indem sie ihnen den schönen Sommer vermieste. Die Glace, die der Wissenschaftler Bastien Girod «kurzfristig gegen die Klima-
erwärmung» anbot, brachte allerdings kaum Erfolg, auch nicht die Kampagne mit einer Glace, auf der die Welt als Schoggiüberzug schmilzt. Deshalb dreht die Partei die Wahlwerbung in den schrillen Bereich: Sie nötigt das Parlament, sich in der Session ab nächster Woche «dringend mit dem Klima zu befassen».
 Und sie fordert vom Bundesrat «eine Zusammenstellung der volkswirtschaftlichen Kosten der Klimaerwärmung und der Wetterextreme». Wie immer, wenn es um Panikmache geht, leugnen die Grünen dabei die Fakten.

Findet die Erderwärmung statt?

«Der Sommer 2015 bricht voraussichtlich alle Rekorde», behaupten die Grünen – mit einem bemerkenswert eng gefassten Horizont. Ihre Behauptung gilt nicht einmal für die Schweiz: In diesem heis­sen Sommer fielen kaum Hitzerekorde, insgesamt schlug das Thermometer nicht stärker aus als 2003.

Und rund um die Arktis herrschte eine Kälte wie seit zwanzig Jahren nicht mehr.

Das Dänische Meteorologische Institut stellt denn auch fest, das Eis über Grönland habe 
innert einem Jahr um 200 Kubikkilometer zugelegt. Weltweit schrauben die Meteorologen zwar an ihren Daten, um 2015 zum wärmsten Jahr zu erklären. Die Satellitenmessungen, die sich schwerer manipulieren lassen, zeigen aber: Seit mehr als achtzehn Jahren erwärmt sich die Erde nicht mehr.

Droht aufgrund des Klimawandels Unheil?

Die «weltweit katastrophalen Folgen», vor denen die Grünen warnen, zeigten sich in diesem Sommer vermeintlich auch in der Schweiz bereits: Einerseits litten vor allem ­Ältere unter der Hitze und starben in Einzelfällen deswegen, andererseits richteten Unwetter und Dürren Millionenschäden an. ­Eine weitere «Zusammenstellung», wie sie die Grünen fordern, braucht es jedoch nicht. Allein aus der Bundesverwaltung liegen schon Tausende von Studienseiten vor, die weissagen, dass in Zukunft aufgrund der Klimaerwärmung Stürme, Dürren oder auch Zecken wüten werden.

Die wenigen Studien zur Vergangenheit zeigen dagegen: Bei den Schäden aufgrund von Naturereignissen gibt es keinerlei Trend –

obwohl sich die Schweiz seit dem 19. Jahrhundert um 1,5 Grad erwärmt hat. Und eine Studie in der führenden Medizinzeitschrift The Lancet stellte kürzlich fest: Bei den untersuchten 74 Millionen Todesfällen starben die Menschen zu 7,3 Prozent aufgrund von Kälte – und zu 0,4 Prozent wegen der Hitze.

Tut die Schweiz in der Klimapolitik zu ­wenig?

Der Beitrag unseres Landes sei 
«schlicht ungenügend», schimpfen die Grünen. Ihr Messias ist Präsident Barack Obama, der die USA am Parlament vorbei dazu zwingen will, ­ihren CO2-Ausstoss bis 2025 um 28 Prozent zu senken. Das würde gemäss den Modellen seines Umwelt­amtes die Erderwärmung bis 2100 um 0,03 Grad verringern. Die Schweizer stossen pro Kopf ein Drittel so viel CO2 aus wie die Amerikaner, insgesamt ein Promille des globalen Ausstosses – sie zahlen schon jetzt die mit Abstand höchsten CO2-Steuern der Welt.

Die Klimaerwärmung findet also nicht mehr statt. Die Klimakatastrophe zeigt sich nicht. Und die Klimapolitik bringt nichts.

Kein Wunder, dass die Grünen sicherheitshalber noch ein anderes Wahlkampfthema suchen: Sie warnen vor Panikmache wegen des real existierenden Asylchaos.

=================================================================

)*  Anmerkung der EIKE-Redaktion : Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich: Grüne Schwarzseher | Die Weltwoche, Ausgabe 36/2015 | Mittwoch, 2. September 2015http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung des ungekürzten Nachdrucks.

==================================================================

Übersicht über WELTWOCHE – Artikel zur "Klima-Skepsis"  seit 2002 : 

http://vademecum.brandenberger.eu/themen/klima-1/presse.php#weltwoche

==================================================================




Ein weiteres „Clean Coal Power Projekt“ an der Schwelle des Scheiterns

Für Southern Company, den Eigentümer von Mississippi Power, sowie für die [US-]Bundesregierung und den Staat Mississippi sollte die Ergieerzeugungs-Einrichtung in Kemper County eigentlich zum Vorzeigeprojekt für den Jahrzehnte langen Traum von „sauberer Kohle“ werden, wobei die Kohle mit neuer Technologie vergast werden sollte, um sauberer zu verbrennen und dessen Emissionen aufzufangen für die Verwendung zu anderen Zwecken oder für die Speicherung im Untergrund. Falls das Kemper-Kraftwerk eröffnet wird, wird es tatsächlich nichts Vergleichbares in der Welt geben: Die Kohle wird aus einer benachbarten Mine kommen, was die Transportkosten drastisch verringert; und anstatt Millionen Tonnen Kohlendioxid in die Atmosphäre freizusetzen, werden 65% dieses Treibhausgases aufgefangen werden und per Pipeline in ein alterndes Ölfeld gepumpt, was die Ölförderung dort um bis zu 2 Millionen Barrel pro Jahr steigern soll.

Unglücklicherweise für Southern Company, Steuerzahler, Hausbesitzer in Mississippi und die Einpeitscher für saubere Kohle sowohl bei den Republikanern (die Präsdienten Reagan und Bush haben beide die Förderung sauberer Kohle vorangetrieben) als auch bei den Demokraten muss die erste Kilowattstunde Strom im Kemper Clean Coal-Kraftwerk erst noch erzeugt werden, trotz der Überzeugungen, im Jahre 2013 mit der Erzeugung beginnen zu können. Außerdem ist der veranschlagte Kostenrahmen drastisch überschritten.

Verstrichene Ultimaten, explodierende Kosten

Als man nämlich mit dem Bau des Kraftwerkes begonnen hatte, war geplant, ab 2013 die Stromerzeugung aufnehmen zu können. Wegen Verzögerungen beim Genehmigungsprozess wurde dieser Termin erst auf 2014 verschoben und dann während des Baus auf Mai 2015. Auch dieses Ultimatum ist inzwischen verstrichen, und Mississippi Power sagt jetzt, dass das Kraftwerk nicht vor der ersten Hälfte des nächsten Jahres frühestens den Betrieb aufnehmen kann.

Das Kemper-Kraftwerk wirbelt jedoch durch die Kosten noch schneller als durch die Ultimaten. Der ursprünglich geplante Preisrahmen von 1,8 Milliarden Dollar liegt inzwischen bei 6,2 Milliarden Dollar. Weil auch der Termin 2014 nicht eingehalten werden konnte, wurde Southern Company dazu verurteilt, 130 Millionen Dollar Steuervorteile zurückzuzahlen. In noch jüngerer Zeit hat der Aktivist und Geschäftsmann Tommy Blanton ein Urteil des Obersten Gerichts von Mississippi mit 5 zu 4 für sich entscheiden können, dem zufolge Southern Company dazu verurteilt wurde, weitere über 257 Millionen Dollar an Tariferhöhungen zu erstatten, die gesammelt worden waren, um die Konstruktion des Kraftwerkes zu fördern.

Dem Magazin Politico zufolge hat Blanton im Mai 2015 gesagt: „Hier haben wir einige der ärmsten Menschen in unserer gesamten Nation, die aufgefordert wurden, für ein experimentelles Wissenschaftsprojekt zu zahlen. Ethisch ist das völlig unhaltbar“.

Jeder weitere Monat Verzögerung fügt den Kosten des Projektes zwischen 25 und 30 Millionen Dollar hinzu, geht aus dem Finanzbericht von Southern Company an SEC* hervor.

[*SEC = Securities and Exchange Commission = US-Behörde zur Börsenaufsicht. Anm. d. Übers.]

Teilweise sind die Verzögerungen von Kemper Gerichtsprozessen geschuldet. Southern wurde gezwungen, gegen Umweltgruppen zu kämpfen, die die staatlichen Genehmigungen für das Projekt in Frage stellten. Der Sierra Club gewann in einem einstimmig gefällten Urteil des Obersten Gerichtshofes von Mississippi im Jahre 2012, dem zufolge die staatliche Genehmigung des Baus zurückgewiesen wurde. Eine folgende, zwei Jahre lange Auseinandersetzung endete im August dieses Jahres, wonach Southern Company gezwungen wurde, den Kohleverbrauch an zwei anderen großen Kraftwerken im südlichen Mississippi sowie in der Greene County in Alabama einzustellen.

Außerdem verlor Kemper in diesem Sommer wegen der Bauverzögerungen und viel höheren Kosten der Stromerzeugung als erwartet einen seiner größten Partner, als eine Gruppe von Stromerzeugungs-Kooperativen in Mississippi Pläne aufgegeben hat, einen Anteil von 15 Prozent am Kemper-Kraftwerk zu kaufen. Als Folge hiervon warnte Fitch Ratings vor „stark steigendem Druck“ auf das finanzielle Rating von Mississippi Power und stellte eine Herabstufung um ein bis zwei Grade in Aussicht wegen der fortgesetzten Unsicherheit bzgl. des Kraftwerkes. Mississippi Power für seinen Teil sagte, dass man „enttäuscht“ sei, dass die South Mississippi Electric Power Association sich aus dem Kemper-Projekt zurückgezogen hatte, und versprach, die 275 Millionen Dollar Anzahlung nebst Zinsen zurückzuzahlen, während man gleichzeitig die zukünftigen Finanzoptionen erkundet.

In dem Bemühen, das Projekt zu retten, genehmigte der staatliche Gesetzgeber Mitte August zusätzliche Notfall-Finanzierungen für Mississippi Power, um das Unternehmen zahlungsfähig zu halten bei der Fertigstellung des immer teurer werdenden Kemper-Kraftwerkes. Die Kunden von Mississippi Power werden eine vorübergehende Steigerung der Rate um 18 Prozent hinnehmen müssen. Diese Steigerung könnte dauerhaft werden, abhängig von der finanziellen Gesundheit der Einrichtung.

Kemper – ein Symbol für die Schwierigkeiten bei Kohle

Die Schwierigkeiten von Kemper, selbst dessen Scheitern, wäre nichts weiter als ein regionales, wenngleich auch sehr teures Problem aus der Geschäftswelt, wäre da nicht das, was dieses Projekt zeigen sollte: Vielleicht die letzte Hoffnung eines Saubere-Kohle-Kraftwerkes mit CO2 Abscheidung in den USA. Unter enormem Druck und bedrängt von zahlreichen Vorschriften bzgl. Bergbau und Kohlekraftwerke allgemein seitens der Obama-Administration in deren Bemühen, den Klimawandel zu bekämpfen, sehen Viele Kemper als die beste Überlebensstrategie für Kohle. Das Kemper-Kraftwerk und jedes zukünftige Kohlekraftwerk, dass deren Spur folgt, wäre in der Lage, auch unter den neuen EPA-Vorschriften zu bestehen. Im Jahre 2013 hat Energieminister Ernest Moniz zusammen mit zahlreichen auswärtigen Würdenträgern Kemper besucht, um die Technologie der sauberen Kohle voranzubringen. Nach dem Besuch schrieb Moniz auf Facebook, dass Kraftwerke wie Kemper „die Zukunft fossiler Energie repräsentieren“.

Die Frage lautet, ob es jemals ans Netz gehen und falls ja, ordnungsgemäß laufen wird. Und ob andere Unternehmen aus den Fehlern von Southern lernen können, die Kosten ausreichend genug zu reduzieren, um einen angemessenen Profit zu erwirtschaften. Das alles sind gewaltige, unbeantwortete Fragen.

Politico merkt an, dass Saubere-Kohle-Projekte wie Kemper – selbst mit allen Verzögerungen und Kostensteigerungen – praktisch als Erfolgsstory gilt. Der Bau begann niemals als Saubere-Kohle-Projekt von American Electric in Ohio, trotz amtlicher Genehmigung im Jahre 2007, weil das Unternehmen nicht in der Lage war, die geschätzten 2 Milliarden Dollar aufzubringen, die für den Bau des 600-Megawatt-Kraftwerkes gebraucht wurden. Das von Excelsior Energy geplante Mesaba Energy Project in Minnesota kam auch niemals zustande wegen geschätzter Kosten über 2 Milliarden Dollar. In jüngerer Zeit, genauer im Februar entzog die [US-]Bundesregierung dem Saubere-Kohle-Projekt FutureGen 2.0 in Illinois die Unterstützung, und das Projekt wurde beerdigt.

Außer Spesen nichts gewesen

Trotz Milliarden Dollar aus allen möglichen politischen Ebenen, die während der letzten drei Jahrzehnte in die Forschung bzgl. sauberer Kohle und in entsprechende Technologien geflossen sind, gab es keinerlei Gegenwert hinsichtlich erzeugten Stromes oder Reduktionen von Kohlendioxid.

In einem Kommentar zu dieser Tatsache zitiert Politico Senator Tom Carper (Demokraten), leitendes Mitglied des Environment and Public Works Committee, mit den Worten: „Falls mir damals jemand gesagt hätte, dass wir so viele Jahre später und nach all der Ausgabe dieser Dollars keinen Schritt weitergekommen sind als wir damals waren, hätte ich es nicht geglaubt. Das ist kaum zu verstehen“. Carper sieht das Fehlen jeden Fortschritts als „hart zu verstehen“ und als „riesige Enttäuschung“.

Trotz der fortgesetzten Rückschläge klingen die Sprecher der Southern Comapny und des Energieministeriums immer noch positiv hinsichtlich der Aussichten von Kemper.

Southern sagt, dass Kemper zu 98 Prozent oder so fertig gestellt ist, obwohl es noch etwa ein weitere Jahr des Testens und restlicher Arbeiten bedarf, bis sichergestellt ist, dass es sicher, zuverlässig und effizient laufen kann.

„Man baut kein Kraftwerk, das man danach einfach anschaltet, und es läuft“, sagte Tim Pinkston, ein Veteran bei Southern Company, der über ein Jahrzehnt daran gearbeitet hat, eine spezielle Art von CO2-Abscheidungs-Technologie zu entwickeln, die bei Kemper zur Anwendung kommen soll. „Es gibt immer Dinge, die man anpassen muss“, sagte er.

Der geschäftsführende Direktor der Southern Company Tom Fanning pries Kemper in einem Vortrag vor dem Atlantic Council kürzlich als Modell für neue Kraftwerke weltweit wegen seiner Abhängigkeit von Braunkohle, einer Art Kohle, die die Hälfte aller Weltreserven ausmacht, und wegen seines CO2 Abscheidungsprozesses, welcher seinen Worten nach weitere Einkommen nach sich ziehen wird durch den Verkauf von Ammoniak und Schwefelsäure als in dem Kraftwerk anfallende Nebenprodukte; und weil man die CO2-Emissionen dazu nutzen kann, geschätzt bis zu 2 Millionen Barrel Öl pro Jahr zu erzeugen. „Nicht schlecht“, sagte Fanning, „das könnte in einer sich entwickelnden Ökonomie sehr sinnvoll sein“.

Politico zufolge sieht das Energieministerium dies langfristig auch so. Es ist Kemper treu geblieben trotz aller Verzögerungen und Kostensteigerungen, und in einem Interview hat Christopher Smith, zuständig für fossile Energie in dem Ministerium, gesagt, dass „außer Frage steht“, dass das Kraftwerk in Mississippi demnächst ans Netz geht.

Smith weiter: „Wenn man etwas zum ersten Mal macht, ist es ein großes Unternehmen. Um diese Technologien zur Anwendung zu bringen, muss man Unternehmen finden, die damit vorangehen wollen. Southern war ein wirklich guter, gewillter und vorausschauender Partner in dieser Hinsicht“.

Weder Fanning noch Kemper sprachen die langfristige Realisierbarkeit des Kemper-Projektes an hinsichtlich der damit verbundenen zunehmenden Schulden und der Tatsache, dass viele Käufer des von diesem Kraftwerk erzeugten Stromes ihre Verträge kündigen – weil der Preis wahrscheinlich höher sein wird als für Strom aus anderen Quellen und die Zuverlässigkeit des Kraftwerkes fraglich ist hinsichtlich anderer Pilotprojekte an anderen Orten. Außerdem, falls und wenn Kemper in Betrieb geht, würde die Stromerzeugung dort und daraus folgend die Energieverkäufe immer noch limitiert sein, weil etwa ein Viertel des erzeugten Stromes dazu verbraucht wird, die Kohlenstoff-Emissionen aufzufangen.

Diese Faktoren lassen einige Analysten die Zukunft von Kemper in Frage stellen. Bud Albright, der unter Präsident Bush das Clean-Coal-Program des Energieministeriums geleitet hatte, merkte an, dass das Ministerium Ende 2007 erkannt hatte, dass sich Saubere-Kohle-Projekte nicht rechnen würden, die man seinerzeit verfolgte, was drohte, die Steuerzahler auf einem Berg von Milliarden Dollar an verfallenden Krediten sitzen zu lassen.

Obwohl Albright nicht sagen wollte, ob seiner Ansicht nach die Milliarden Dollar der Regierung und aus dem privaten Bereich, die Jahrzehnte lang in die Clean-Coal-Technologie geflossen waren, verschwendet worden sind, sagt er, dass es keinen kommerziellen Erfolg gegeben hätte hinsichtlich der Bemühungen zur CO2 Abscheidung ohne substantielle und fortgesetzte Unterstützung seitens der Regierung.

Albright weiter: „Ich stehe der CO2 Abscheidung nicht negativ gegenüber, ich habe sie lediglich noch nicht funktionieren sehen. Jeder spricht davon, dass es in zwei Jahren, in fünf Jahren so weit sei. Es ist immer morgen. Es ist niemals heute“.

H. Sterling Burnett, Ph.D., (hsburnett@heartland.org) is the managing editor of Environment & Climate News.

Link: http://news.heartland.org/newspaper-article/2015/09/03/another-clean-coal-power-project-brink-failure

Übersetzt von Chris Frey EIKE




Wahr oder Unwahr – Analyse eines Katastrophenpredigers

Zur Ehrenrettung des HB merke ich gerne an, dass sich die Anzahl der Beiträge zu Klima und Energie bzgl. Alarmismus und Realität etwa die Waage halten. Die Redakteure /innen haben eben auch ihre Zielgruppen, inzwischen weiß ich, wer was-und-wie schreibt. Hier mal ein Versuch, wie ich Ihnen, unseren Lesern Kommentar – siehe pdf im Anhang – und Gegenkommentar nahebringen kann. Quellenangaben für die Gegendarstellungen im Anhang.

Handelsblatt vom 7.August, 2015, Seite 64 

 

Hinweis: Alle Ausschnitts-Kopien in diesem Beitrag stammen von der Druckausgabe des HB, dessen Abonnent ich bin. Auf alle im Text von Lester Brown aufgeführte Behauptungen einzugehen, würde den Umfang eines Leserbriefes sprechen. Müßig zu erwähnen, dass ich keine Reaktion bekommen habe.

Ich denke, es ist nicht überraschend, dass Lester Brown nun auch den „katastrophalen Klimawandel“ beklagt, obwohl die Realität keinerlei Anzeichen dazu erkennen lässt und als Gegenmittel die „erneuerbaren Energien“ beschwört. Ist beides so falsch wie seine fast 40 Jahre apokalyptischen Voraussagen über die globale Lebensmittelknappheit und den Zusammenbruchs der Landwirtschaft? Was erstaunlich für mich ist, dass respektable Zeitschriften wie das Handelsblatt so einem wie ihm auch noch die beste Druckseite opfert. Sein Earth-Policy-Institut ist vergleichbar mit dem Club-of-Rome, Vorhersage von Katastrophen und Angstmache sind ihre Geschäftsmodelle.

In USA ist die Energiewende mit gerade mal 4% Anteil der Erneuerbaren bei weitem kein Erfolgskonzept. Der einsame Beschluss von Präsident Obama deren Anteil auf 28% bis 2030 zu steigern, bedeutet, dass noch fast 7-mal so viele Wind- und Photovoltaikanlagen gebaut werden müssten. In einem hat Lester Brown Recht, es stehen knallharte Kapitalinteressen dahinter – und keinerlei „menschenfreundliches Handeln“.

 Amerikanische Großanleger wie z.B. Elon Musk und seine Tesla und Solarcity Unternehmen haben bereits 4,9 Mrd.$ an Steuerzahler finanzierten Subventionen [1]eingesteckt und sogar die langfristige Profitabilität hat die Almosen noch nicht beendet. [2]

 Elon Musk hält zahlreiche persönliche Kontakte zu Amtsstuben der Legislative, um mehr solcher Systeme zu fördern und stimmt seine Bemühungen ab mit denen von Eric Schmidt, Nat Simons, Tom Steyer, Al Gore und den Mitgliedern des Clean Tech Syndicate [3]: elf geheimnisvolle Familien mit einem Gesamtvermögen von über 60 Milliarden US-Dollar, die durch Steuerzahler und Verbraucher noch reicher werden wollen.

Sie gehen davon aus, dass gefälschte Klima Katastrophen ihnen weiterhin Milliarden von Klima-Geld-Subventionen aus Washington und den Landeshauptstädten bringt, zusammen mit mehr Ausnahmen bei vom Aussterben bedrohten Arten [4] und den Umweltschutzgesetzen [5] [6] und Verordnungen, die bei fossilen Brennstoff Projekten mit aller Macht angewendet werden.

Googles Wissenschaftler [7] haben eingestanden, dass die bestehenden und kurzfristigen verfügbaren erneuerbaren Energietechnologien einfach nicht wie beworben funktionieren und ihre politischen oder Klima Versprechungen nicht erfüllen können. Die Technologien sind "all hat, no cattle“ [Phrase, „Windei“ erscheint mir treffend]. Für das erwähnte Vorzeigeprojekt in Kalifornien wollen Google und NRG [Großer Energieversorger, EE] jetzt einen 539-Millionen$ Zuschuss des Bundes [8], um das 1,6 Milliarden US-Dollar Darlehen der Steuerzahler abzulösen, für die Vogel-Röstanlage [8] , genannt Ivanpah Concentrated Solar Power, weil es nicht funktioniert und viel Erdgas braucht, um seinen Wasserspeicher heiß zu halten. Die staatlichen Standards für erneuerbare Energien werden nicht erfüllt.

Auch andere Obama Energie "Investitionen" sind in roter Tinte ertrunken, die Steuerzahler bleiben zurück, um die Rechnung zu bezahlen: Solyndra, Abound Solar, Solar Trust, Ener1, Beacon Power, et cetera, et cetera, et cetera.

Deutschland, mit der höchsten Umsetzung von erneuerbaren Energien als jedes andere Land, fand heraus, dass es die Kohle- und Erdgaskraftwerke braucht, um die Netzstabilität zu erhalten. Als Ergebnis der Politik, die „Erneuerbaren“ wie Sonne und Wind zu begünstigen, muss Deutschland seine fossil befeuerten Kraftwerke mit Zwang im unwirtschaftlichen Betrieb halten oder sie zu subventionieren, um eine planbare Energieversorgung zu erhalten.

Letztlich erhöhen wir tatsächlich die Kosten, denn wir müssen für redundante Netzteile zahlen – die, die kein Geld für Investitionen haben, müssen auch die Profite der Anleger von erneuerbaren Energien decken.

Das in USA bereits vier Bundesstaaten bereits mehr als die Hälfte ihres Strombedarfs aus Windenergie decken, gehört ins Reich der Mythen, ohne back-up Kraftwerke kann auch dort nicht ein einziger Haushalt seinen Strombedarf zuverlässig decken.

Für erneuerbare Energien, die genauso kostenlos zu finden sind wie alle Rohstoffe die uns die Erde so verschwenderisch anbietet, ist die geringe Energiedichte der Pferdefuß, dass die Industrieanlagen so überaus teuer und letztlich auch umweltzerstörend sind. Nischenanwendungen lassen sich finden, aber für eine zuverlässige und planbare Energieversorgung von modernen Industrien und Lebensstandards bleiben sie ohne Zwangssubventionen chancenlos.

Und dann der – temperaturneutrale – Klimawandel, den es schon immer gegeben hat.

Es sind nun mehr als 18 Jahre, das die globale Temperatur sogar gesunken ist und das bei gestiegenem CO2 Gehalt. Die Pflanzen freuen sich darüber, wie jeder Gärtner weis. Geschützt werden soll das Wetter gestern, den Klima ist nur die Bezeichnung für vergangene Wetterdaten. 

Dipl.-Ing. Andreas Demmig

Die angefügte PDF zeigt die Seite des Handelsblattes, zusammengefügt aus "kleineren" scans (Ich habe nur ein DIN A4 Scanner)

Quellen:

[1] http://powerrfuture.com/elon-musks-growing-empire-is-fueled-by-4-9-billion-in-government-subsidies/

[2] http://www.usnews.com/opinion/blogs/economic-intelligence/2013/12/30/teslas-profitability-hasnt-stopped-the-government-handouts

[3] http://fortune.com/2015/04/25/billionaires-versus-big-oil/

[4] https://www.masterresource.org/cuisinarts-of-the-air/wind-power-bats-double-standard/

[5] http://wattsupwiththat.com/2015/07/10/the-green-mirage-and-con-job/

[6] http://news.heartland.org/newspaper-article/2014/09/10/california-considering-environmental-law-waiver-lure-tesla

[7] http://powerrfuture.com/what-it-would-really-take-to-reverse-climate-change/

[8] http://www.foxnews.com/politics/2014/11/08/world-largest-solar-plant-applying-for-federal-grant-to-pay-off-its-federal/

[9] http://news.heartland.org/newspaper-article/2014/09/15/california-solar-towers-blamed-massive-bird-kills

Related Files




EIKE und die Klimaforscher – SPON gibt „neutralen“ Schiedsrichter

Von Rudolf Augstein, dem Gründer und langjährigem Herausgebers des Nachrichtenmagazins „Der Spiegel“, stammt das Motto, das die immerwährende Aufgabe eines jeden Journalisten kurz und bündig beschreibt:

„Schreiben was ist“. 

 

Dieser Satz sollte eigentlich ständig mahnend über dem Arbeitsplatz eines jeden Journalisten stehen. 

Nun hat sich der Spiegel in seiner langen Kariere als „Sturmgeschütz der Demokratie“ (Augstein) in etwa so lange an diese Vorgabe gehalten, wie es eine Elster tun würde, wenn man ihr das Befolgen des „Du sollst nicht stehlen“ Gebotes abverlangen würde.

Oft genug und immer wieder haben er und seine Kollegen es zu einem der schrillen Ultrakurzwitze (UKW) verkümmern lassen, so wie den, den Wolfgang Röhl vor kurzem auf ACHGUT so treffend zitierte: „Gehen zwei Journalisten an einer Kneipe vorbei“ [1].

Man denke dabie nur an das berühmt berüchtigte Titelbild von 1986 vom Kölner Dom, der bis zur Mitte im Wasser steht und mit der dazugehörigen Titelstory der Spiegel in Deutschland, und nicht nur dort, die Mär von der drohenden Klimakatastrophe hoffähig machte.

 

Bild 1 Spiegel Titel vom 11.8.1986  „Die Klima-Katastrophe“

 

Einschub:

Zitat von Helmut Bachmann über sein Gespräch mit Rudolf Augstein am 2.9.1986

Vor über 27 Jahren, am 11. August 1986 ließ Rudolf Augstein von DER SPIEGEL den Kölner Dom im Nordseewasser ersaufen. Grund: Die Klimakatastrophe.

Kissimmee, 02. September 1986: Ich ließ eine Telefonverbindung nach Hamburg herstellen, um Rudolf Augstein zu suchen. Endlich hatte ich ihn an der Strippe und fragte ohne große Einleitung:

„Was hast du dir denn dabei gedacht?“
„Wobei gedacht?“
„Na beim Ersäufen des Kölner Doms.“
„Aufwecken, munter machen.“
„Und Angst machen“ antwortete ich.
„Ohne Angst der Massen gibt es keine Bewegung der Massen.“
Ich antwortete:
„Deine Aktion wird Folgen haben.“
Augstein: „Hoffentlich. Wenn du was für mich hast, ruf durch.

Doch all das kann offensichtlich gelegentlich einen Anflug von Ehrlichkeit nicht verhindern.  So geschehen beim SPON Wissenschaftsautor Axel Bojanowski, der häufiger – Ehre wem Ehre gebührt- auch schon mal kritische  wenn auch keine skeptischen  Töne zum Klimakatastrophenmärchen geäußert hat. Und damit so ziemlich allein beim Spiegel, aber auch den anderen Noch-Mainstream Medien stand.

Axel Bojanowski hat es nun in einem SPON Artikel gewagt, die fast nie öffentlich zugegebenen Wissenslücken der Klimaforscher wenigstens ansatzweise zu dokumentieren. (Hier)

Es ist ganz amüsant zu lesen, wie er da, betont neutral, einige der gröbsten Irreführungen des IPCC und der mit ihm verbandelten Forscher und Journalistenkollegen aufzählt. EIKE Leser wissen das alles längst. Und Axel Bojanowski auch. Auch von uns! Sagt und schreibt es allerdings erst jetzt.

Denn anders ist nicht zu erklären, warum er zwar EIKE als Medium der Aufklärung über „die Unsicherheiten zum Klimawandel“ in seine Aufzählung der Informanten über die Wissenslücken der Klimaforscher einbezieht, aber – um wohl von sich und vor allem seiner Kollegen Tun beim  Spiegels abzulenken- EIKE nicht nur als Verein bezeichnet – was wir sind, ebenso wie das Potsdam Institut für Klimaforschungsfolgen (PIK) oder andere Institute- sondern auch noch das abwertende Beiwort „ideologisch“ glaubt verpassen zu müssen.  Bei anderen – weit weniger häufig gelesenen- Blogs ist er da netter. Spricht er doch bei denen von „renommierten Wissenschaftlern“.  Offensichtlich hat Bojanowski eine sehr eigene Vorstellung davon, wem er das aufwertende Beiwort „renommiert“ verpasst und wem nicht.  Und hat wohl auch noch nie einen Blick in unsere Publikationen geworfen.

Auch deshalb sind der Spiegel, SPON und damit auch Axel Bojanowski die Letzten zu dem das Beiwort „ideologisch“ nicht passen würde. Zu EIKE passt es nur dann, wenn man unter Ideologie in der Klimawissenschaft das Aufdecken von Tatsachen oder das Aufdecken der Verheimlichung derselben versteht.

George Orwell hat diese Art der Begriffsverdrehung in seinem Roman 1984 gründlich analysiert und als „Neusprech“ bezeichnet.  Eine Kunst, die besonders der Spiegel, aber bei weitem nicht nur dort, besonders hoch entwickelt hat.

Mal sieht man uns als Atomlobby, mal als Lobby von Big Coal oder wahlweise Big Oil, und nun als ideologischen Klimaskeptiker Verein. Doch wir sind weder das eine noch das andere, und nicht nur weil ein Lobbyist eigentlich fürstlich bezahlt wird für sein böses Tun,  was bei uns leider nicht der Fall ist, sondern auch, weil wir ohne ideologische („wir müssen die Leute dazu erziehen die Welt zu retten“)  oder materielle Interessenskonflikte („wes Brot ich ess´ des Lied ich sing“) einfach den aktuellen Wissensstand zum Klima aber auch zu Energiewende öffentlich machen und unsere Schlussfolgerungen daraus ziehen. Gründend auf dem alten Wissenschaftsgedanken, das nur die Realität und die daraus ermittelten Daten zählen. Das mag man gut finden oder nicht, das mag richtig sein oder falsch, ideologisch ist es in keinem Fall

So sind wir nur eine sehr kompetente und auch sehr fleißige Truppe von ehrlichen Wissenschaftlern, die es leid sind, das faule  aber hohe Lied von der tollen Energiewende und der drohenden Klimakastastrophe nachzusingen. Und das passt bei weitem nicht jedem.

Wenn das also heute von Spiegels Bojanowski „ideologisch“ genannt wird, sind wir gern  „ideologisch“.

Abschließend sei noch ein klitzekleiner Hinweis an Sie Herr Axel Bojanowski gestattet:

Ihnen ist vielleicht noch nicht aufgefallen, dass rd. 50 % unserer Newsbeiträge von der vorzüglichen Website „Watts Up With That“ (WUWT) stammen. Um so richtig deutsch konsequent zu sein: Bitte ehren Sie doch auch die mit dem Beiwort „ideologisch“.

Sei es wie es sei: EIKE dankt für Ihre Aufmerksamkeit und wird auch in Zukunft für einwandfreie im Sinne des Spiegel „ideologische“ Informationen zu Klimakatastrophen- und Energiewendeschwachsinn sorgen. Sie können sie dann gerne und kostenlos bei uns nachlesen.


[1] Das ist ein Witz. Denn Journalisten alten Schlages gingen nie an einer Kneipe vorbei sondern immer direkt hinein




Der Sommer geht (leider) – kommt das Eis der Arktis wieder?

Die Arktis ist bis 2013 eisfrei[1]. Für diese Vorhersage bekommt man den Nobelpreis[1], sofern man ausreichend bekannt ist. Leider muss man ihn nicht zurückgeben, auch wenn man vollkommen daneben lag, sondern gilt als Messias und darf vor honorigerem Publikum immer wieder das Gleiche (falsche) verkünden, wie im Januar diesen Jahres auf dem World Economic Forum in Davos[3].

Nun war Al Gore mit der Vorhersage natürlich nicht alleine. Kompetente Klimawissenschaftler hatten ihn darin bestätigt.  Die folgenden Bilder hat Herr Puls von EIKE hat dazu freundlicher Weise  zur Verfügung gestellt.

Wie immer fehlt auch Greenpeace nicht, wenn Apokalypsen zu verkünden sind

[6]Das arktische Meereis

Der Nordpol eisfrei? Noch vor wenigen Jahren schien das unvorstellbar. Doch die Durchschnittstemperaturen sind in der Arktis in den vergangenen 100 Jahren fast doppelt so schnell gestiegen wie im Rest der Welt. Das Eis des Nordpolarmeers schmilzt zusehends und gibt das Wasser frei. Dieses erwärmt sich und beschleunigt wiederum die Schmelze. Der Klimawandel entfaltet seine eigene Dynamik. Klimaforscher fürchten, dass in der Arktis der kritische Punkt bereits überschritten ist.

Doch nun ist etwas passiert, was nach allen klima-alarm-wissenschaftlichen Vorhersagen nie passieren  durfte: Eine ausgerechnet zum Studium der globalen Erwärmung gestartete Forschungsmission musste sogar im arktischen Sommer wegen zu viel Eis abgebrochen werden. Von deutschen Medien ist bis auf ganz wenige[2]  darüber gar nichts zu lesen, im angelsächsischen Raum dafür schon.

 

Bild2 Info über den Abbruch der diesjährigen Arktismission

Gut, abgezeichnet hat sich so etwas schon länger. 2013, also genau in dem Jahr, zu dem die Arktis im Sommer eisfrei sein sollte, war die Nordwestpassage vom Atlantik zum Pazifik das ganze Jahr über von Packeis blockiert. Mehr als 20 Yachten, die schon auf die Durchfahrt gewartet hatten, fanden sich vom Eis eingeschlossen wieder, und ein Kreuzfahrtschiff, das ebenfalls die Passage durchfahren wollte, musste umkehren [4]. 

Und dass etwas mit dem stetigen Polarschmelzen nicht stimmt, konnte man auch auf offiziellen Darstellungen sehen, sofern man wollte.

Die NASA bringt z.B. auf ihrer Homepage die folgende Darstellung:

 

Bild3[5]  NASA Bild des Arktis-Eiszustandes

Das sieht dramatisch aus. Aber nicht mehr im richtigen Maßstab.

Setzt man die 0-Achse dazu, zeigt sich das folgende Bild (Screenshot des Autors am 30.08.2015 von der NSDIC-Homepage).  Nach dem Minimum im Sommer 2013 zeigen sich Erholungstendenzen.

Hinweis: die Datenangaben sind nur orientierend zu betrachten. Sie schwanken zwischen verschiedenen Publizierungen beträchtlich. Eine der Ursachen sind verschiedene Messmethoden, andere Festlegungen  (ab wie viel % ist Brucheis z.B. keine Eisbedeckung).  Oft sind die Anomalien auch nur in %-Werten ohne Angabe geeigneter Absolutwerte gelistet.

 

Bild4 Verlauf der arktischen Eisausdehnung von 1979 bis 2015 lt. NSDIC mit vom Autor ergänzter 0-Linie und zugefügten Datenangaben.

Und für die Antarktis ist der Verlauf wie folgt:

 

Bild5 Verlauf der Antarktischen Eisausdehnung von 1960 bis 2014 lt. NASA-Homepage 

Über den Zustand wird wie folgt berichtet

·       Die österreichische Kronenzeitung am 14.09.2014:

Entgegen Prognose

Eiszuwachs an den Polen überrascht Klimaforscher

Ein gewaltiger Eiszuwachs an den Polen überrascht Klimaforscher und wirft Fragen auf. Macht die Erderwärmung Pause? Auch die Sonnenaktivität hat empfindlich abgenommen. Für die Klimawandel- Propheten werfen die neuen Zahlen Fragen auf: Denn an den Polen von Mutter Erde herrscht ganz entgegen der Prognosen einer kompletten Polschmelze plötzlich ganz im Gegenteil sogar ein Eiszuwachs wie seit Jahrzehnten nicht 

·       Das Max Plank Institut für Meteorologie listet aktuell auf ihrer Homepage unter dem Titel:

Schmelzen die Gletscher und die Polkappen?

Die meisten Simulationen zeigen eine leichte Zunahme der Eismasse der Antarktis und eine schwache Abnahme des Grönlandeises in den nächsten 50 bis 100 Jahren und somit auch keine wesentliche Veränderung des Meeresspiegels aufgrund des Abschmelzens von Inlandeis.

·      Greenpeace

 

Bild6 Screenshot des Autors von der Greenpeace-Homepage, Stand 24.5.2015

Das kann man beliebig weiterführen – sofern man zurück in die Vergangenheit geht. Denn das für Greenpeace heute Unvorstellbare gab es vor 100 Jahren schon – und auch damals waren die Überschriften ähnlich[16]:

1907
The New York Times berichtet über einen arktischen Hitzerekord. Quelle: Real Science

1922
The Pittsburgh Press: Ungewöhnliche Wärme in der Arktis. Wird das arktische Meereis bald komplett verschwinden? Quelle: Real Science, The Mail

1923
Fischer, Robbenjäger und Abenteurer berichten von ungewöhnlich hohen Temperaturen um Spitzbergen und dem östlichen Arktischen Ozean. Die Daily News aus Perth spekuliert darüber, ob das Meereis des Arktischen Ozeans im Zuge eine „radikalen Klimawandels“ nicht schon bald komplett verschwindet. Quelle: Real Science.

Ende der 30er Jahre stellten sowjetische Forscher an ihren arktischen Küsten fest, dass es damals dort sogar für längere Zeit sechs Grad wärmer gewesen sei als zu Zeiten von Nansens Eisdrift, mithin um einiges wärmer als heute. Quelle: Donner + Doria

1940
Das arktische Meereis war im Februar 1940 laut Berichten lediglich 2m dick, was in etwa der Mächtigkeit aus dem Februar 2012 entspricht. Quelle: Real Science

1947
Der Geophysiker Hans Ahlmann schlägt Alarm: Der Klimawandel in der Arktis ist so dramatisch, dass sich dringend eine internationale Agentur der Sache annehmen sollte. Quelle: Real Science, the reference frame

1958
Bei einer Fahrt unter dem arktischen Eis im Sommer 1958 tauchte das amerikanische U-Boot „Skate“ insgesamt neun Mal im offenen Wasser auf – unter anderem direkt am Nordpol selbst. Quelle: Donner + Doria

Information zur Historie der arktischen Eisausdehnung

Der Autor hat zur Arktis ein paar Daten recherchiert und mit Daten und Verlaufsmarken ergänzt. Daraus möge sich jeder Leser ein Bild machen, wie er die Dramatik des Klimawandels auf das Arktiseis einschätzt.

 

Bild7[7]  Sea Ice Extent Satellitenbild der Arktis Stand Juli 2015 mit 8,8 million km2  (Anm.: 2014:8,2 million km2)

 

Bild8[7]  Sea Ice Extent Satellitenbild der Arktis Stand Juli 1980 mit 10,4 million km2  (Anm.: 2014:8,2 million km2)

Die Abnahme von 1980 – 2015 beträgt 1,6 million km2 ca. -18%. Wem der Leser würde aber beim Vergleich der um 35 Jahre auseinender liegenden Bilder ohne den Hinweis ein großer Unterschied auffallen.  

Bild9 Grafik der NSIDC mit Verlauf  der Arktis-Meereisbedeckung: Maximum, Mittelwert, Minimal-Werte und Trendangaben. Mit Ergänzungen durch den Autor.

Bild10 [8] Verlauf der arktischen Meereisbedeckung in Monatsauflösung. Grenzlinien durch den Autor ergänzt.

 

Bild11 [8] Verlauf der antarktischen Meereisbedeckung in Monatsauflösung. Grenzlinien durch den Autor ergänzt. Anm.: In der Antarktis ist es das Schelfeis um den Festlandskern, der in der Arktis fehlt.

Aktualisierung: Der Stand am 7.9.2015 beträgt:

Stand Aug. 2015 mit 5,6 million km2 

Stand Aug. 1990 mit 6,8 million km2

Die Abnahme von 1990 bis 2015 beträgt für den September 1,2 million km2 bzw.  ca. -18%. Von einem „eisfreien Zustand“, wie er seit 2013 im Sommer herrschen soll,  ist wenig zu sehen.

Historische Arktisdaten

Wenn man die Zukunft genau simulieren kann,  weiß man die Vergangenheit bestimmt ganz genau.

 Das englischsprachige WIKIPEDIA  zeigt, wie es wirklich ist: 

[9] 1870-2000 Northern hemisphere sea ice extent in million square kilometers. Blue shading indicates the pre-satellite era; data then is less reliable. In particular, the near-constant level extent in Autumn up to 1940 reflects lack of data rather than a real lack of variation.

Die Daten vor Beginn der Satellitenmessungen (ca. 1980) sind ganz einfach vollkommen unbrauchbar. Daraus aber abzuleiten, die Daten ab 1970 würden den mehr-tausendjährigen Verlauf repräsentieren und „belegen“, dass es früher niemals weniger Eisbedeckung geben konnte, ist einfach anmaßend.  Auch die Ableitung, ab 1980 ist die Abnahme „Menschen.gemacht“

 

Bild12 [9] Langfrist-Verlauf der arktischen Meereisbedeckung nach WIKIBPEDIA. Das Ende des blauen Bereiches kennzeichne den Beginn der Satellitenmessungen.

 

Bild12.1  Verlauf der anthropogenen CO2-Konzentration laut WIKIPEDIA

Vergleicht man die Meereisbedeckungen in Bild 1 mit dem schwarzen CO2-Verlauf von Bild 12.1, erscheint es nicht glaubhaft, dass  das arktische Meereis erst genau zu Beginn der Satellitenmessungen wegen dem anthropogenen CO2 anfing, massiv abzunehmen. Das hätte es schon ab ca. 1950 und dann beschleunigt machen müssen.

Zum Glück kann man die Besiedlung Grönlands im Mittelalter nicht mehr vertuschen. Wenn es aber in Klimakurven weiterhin geschieht, stört das keinen Klimaexperten (sofern die Richtung alarmistisch weist)deren .

Zuerst eine Info über die vielleicht erste Durchsegelung der Arktis durch chinesische Seefahrer während der mittelalterlichen Warmzeit [14] [15]. Anm.: Die Chinesen waren damals mit ihren Navigationskenntnissen den Europäern und Arabern weit voraus. Allerdings ist diese Fahrt nicht eindeutig belegt [18].

 

Bild12.2 [14]  Text: 1380-1460: Minimales Seeeis um Island; 1421 umfahren chinesische Seefahrer Grönland und die Nordmeere (Sibieren).(26) Dies ist heute unmöglich.

Bei WIKIPEDIA findet sich von der mittelalterlichen Warmzeit nur IPCC-konform „Glattgebügeltes“.

Bild13 [10] Grafik aus WIKIPEDIA zum mittelalterlichen Verlauf der arktischen Eisausdehnung

Dass mit den Datenangaben öfters etwas nicht stimmt, ist auch anderen aufgefallen. Dazu ein  Blick in eine das Thema behandelne Publizierung auf kaltesonne[11]. Wie das Bild 14 zeigt, entspricht der Stand des Arktiseises aktuell dem um 1970. Und die Daten stammen aus einem IPCC-Bericht.

 

Bild14 [11]  Darstellung der arktischen Meereisbedeckung basierend auf Satellitendaten ab 1979, ergänzt durch NOAA-Daten, die im ersten Klimabericht des IPCC gezeigt wurden (1971-1979). Quelle: WUWT

Dazu passt die Information zur Nordwestpassage im deutschsprachigen WIKIPEDIA

[10] Infolge der Eisabschmelzung meldete die Europäische Weltraumorganisation ESA am 14. September 2007, dass erstmals seit Beginn der Satellitenbeobachtungen die Nordwestpassage eisfrei war.[59] 2008 waren dann zum ersten Mal sowohl die Nordwest- als auch die Nordostpassage prinzipiell beschiffbar.[60]

Wie lauten die wirklichen Daten dazu (diese stammen ebenfalls aus WIKIPEDIA):

Durchquerungen der Nordwest-Passage[12]:

o   Die erste komplette seemännische Durchfahrt gelang Roald Amundsen 1903−1906 über die von John Rae entdeckte Route durch die James-Ross-Straße, Rae-Straße und Simpson-Straße auf dem kleinen Schiff Gjøa.

o   1944 durchquerte Henry Larsen im Schoner St. Roch den Seeweg erstmals in West-Ost-Richtung mit einer Überwinterung auf Boothia.[1]

o   Als erster Tanker bewältigte das zum Eisbrecher umgebaute US-amerikanische Schiff SS Manhattan die Nordwestpassage von West nach Ost in wenig mehr als vier Wochen. Die Fahrt, die am 15. September 1969 erfolgreich endete, sollte die Wirtschaftlichkeit von Öltransporten durch das nördliche Eismeer demonstrieren.

o   Das erste Kreuzfahrtschiff, das die Nordwestpassage mit Passagieren an Bord bewältigte, war die World Discoverer im Jahr 1985.

o   Arved Fuchs durchsegelte 1993 mit seinem Expeditionsschiff, der Dagmar Aaen, die Nordwestpassage in Ost-West-Richtung und 2003/2004 noch einmal in West-Ost-Richtung.[2]

Zum Abschluss noch Temperatur-Verlaufsdaten von Grönland

Wer sieht einen anthropogenen Einfluß?

 

Bild16 Langzeitverlauf der Temperatur auf Grönland (orientierend, da keine genaueren Angaben  zur Fundquelle dazu vorhanden)

Fazit

Die „Klimawissenschaft“ ist verblüffend einfach: Der Mensch ist schuld daran, dass es immer wärmer wird . Deshalb muss alles Eis schmelzen. Mit Simulationsprogrammen lässt sich sogar der genaue Zeitraum  berechnen.

Schaut man sich die Daten der  realen Welt an, kommt man auf die Idee an allen drei  Aussagen und an der angeblichen Wissenschaft zu zweifeln.

Man kann aus den Daten aber auch das Gegenteil herauslesen. Dann ist  man anstelle bei EIKE auf Klimaretter.Info besser aufgehoben. Dort wird gerade der Aufstand geprobt. Man beachte die Klimaausbildung der „zeitgenössischen Denker“.

Klimaretter.Info Homepage, Mittwoch, 26. August 2015

Beschreibung: Achtung, öffnet in einem neuen Fenster.

Vordenker rufen zu Klima-Aufstand auf

Eine Gruppe prominenter Intellektueller appelliert in Sachen Klimaschutz an die Bürger: "Sklaverei und die Apartheid haben nicht geendet, weil sich Staaten einfach so dazu entschieden haben, sondern weil Massenbewegungen der politischen Elite keine andere Wahl ließen", schreiben die zeitgenössischen Denker in ihrem Manifest, [13]…

 ….darunter der Linguist Noam Chomsky, die Autorin Naomi Klein (Klimaaktivistin mit abgebrochenem Lehrerstudium), der Theologe und Friedensnobelpreisträger Desmond Tutu sowie die Modeschöpferin Vivienne Westwood (Professorin für Mode).

 

Bild17

Das erinnert an den EIKE Artikel vom 21.08.2015: Die Ökokirche beginnt zuzuschlagen Eine Klimastiftung verklagt den Staat wegen zu wenig Klimaschutz – und gewinnt.

Quellen

[1]

Al Gore in seiner Rede bei der Nobelpreisverleihung: 2007 „ … die Arktis ist bis 2013 eisfrei“.

[2]

KOPP ONLINE 24.07.2015. Artikel:  Auf Eis gelegt: Forschungsmission zur Klima-Erwärmung

[3]

EIKE 22.01.2015. Blogartikel: Deja Vu auf dem World Economic Forum – Katastrophen Al (Gore) darf wieder Katastrophen predigen und die Erlösung gleich mitliefern.

http://www.eike-klima-energie.eu/news-cache/deja-vu-auf-dem-world-economic-forum-katastrophen-al-gore-darf-wieder-katastrophen-predigen-und-die-erloesung-gleich-mitliefern/

[4]

EIKE 12.09.2013: Erholung des arktischen Eises: Spitzenwissenschaftler sagen Periode globaler Abkühlung vorher

http://www.eike-klima-energie.eu/klima-anzeige/erholung-des-arktischen-eises-spitzenwissenschaftler-sagen-periode-globaler-abkuehlung-vorher/

[5]

Ausschnitt aus einem Video der NASA über die Polareisschmelze

https://www.facebook.com/climatecouncil/videos/vb.345960425540557/588398287963435/?type=2&theater

[6]

Greenpeace: Das arktische Meereis

https://www.greenpeace.de/themen/arktis/das-arktische-meereis

Greenpeace: Wenn das ewige Eis schmilzt

https://www.greenpeace.de/themen/arktis

[7]

NSIDC Compare Data

http://nsidc.org/cgi-bin/bist/bist.pl?annot=1&legend=1&scale=50&tab_cols=2&tab_rows=2&config=seaice_index&submit=Refresh&mo0=07&hemis0=N&img0=extn&mo1=03&hemis1=N&img1=extn&year0=1983&year1=2015

[8]

meteo.plus Meereisbedeckung Arktis

http://www.tempsvrai.de/meereisbedeckung.php

[9]

WIKIPEDIA, Kapitel Measurement of sea ice

https://en.wikipedia.org/wiki/Measurement_of_sea_ice

https://en.wikipedia.org/wiki/Measurement_of_sea_ice#/media/File:Seaice-1870-part-2009.png

[10]

WIKIPEDIA: Schrumpfendes arktisches Meereis

https://de.wikipedia.org/wiki/Folgen_der_globalen_Erw%C3%A4rmung_in_der_Arktis

[11]

kaltesonne 12. Mai 2012: 12. Mai 2012: Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis

http://www.kaltesonne.de/hamburger-max-planck-institut-mit-fragwurdiger-beweisfuhrung-zum-arktischen-meereis/

[12]

WIKIPEDIA: Nordwestpassage

https://de.wikipedia.org/w/index.php?title=Nordwestpassage&action=edit&section=4

[13]

Freeze fossil fuel extraction to stop climate crimes

http://350.org/climate-crimes/

[14]

Homepage Wer steuert das Klima. Rubrik: Die Arktis

http://www.zum.de/Faecher/Materialien/beck/wplanet/wp/meers1.htm

[15]

Institut für Geschichte der Arabisch-Islamischen Wissenschaften an der Johann Wolfgang Goethe-Universität Frankfurt am Main. Fuat Setzgin 2006: D I E   E N T D E C K U N G   D E S   A M E R I K A N I S C H E N   K O N T I N E N T S   D U R C H  M  U S L I M I S C H E  S E E F A H R E R  V O R  K O L U M B US

0 0 1 71 451 Management Consult 3 1 521 14.0 Normal 0 21 false false false DE JA X-NONE




Die Epistemologie [= Erkenntnistheorie], die Vorhersage des Klimas so zu erklären, dass auch 8-jährige das verstehen

2. Enkelin Ava fragt: „Wird die Welt verbrennen und woher können wir das wissen?“

Ava – denken wir an wärmere oder kältere Temperaturen draußen. Es ist wärmer, wenn die Sonne tagsüber scheint und nachts kälter, wenn sich unser Teil der Welt von der Sonne abgewandt hat. Du weißt doch schon, dass die Erde 24 Stunden für eine Umdrehung braucht, also für etwas, das wir einen Zyklus nennen von warm zu kalt und wieder zurück.

Du weißt auch, dass es im Sommer viel heißer ist als im Winter und kennst auch den Grund dafür: im Sommer scheint die Sonne länger und steht viel höher am Himmel als im Winter. Jedes Jahr gibt es einen Zyklus von warm zu kalt und wieder zurück – dieser Zyklus dauert 365 Tage. Wissenschaftler haben auf vielfältige Weise gemessen oder geschätzt, wie die Temperatur der Erde hunderte und tausende Jahre in der Vergangenheit war – und haben dabei erkannt, dass es weitere Warm-Kalt-Zyklen gibt. Zwei der bedeutendsten Zyklen haben eine Länge von 60 bzw. 1000 Jahren. Hier ist ein Bild, das einige der 1000-Jahres-Zyklen zeigt:

Abbildung 1. Quelle: http://www.climate4you.com/

Um zu wissen, was in Zukunft passieren könnte, müssen wir als Erstes wissen, wo sich die Erde relativ zu dem 1000-Jahre-Zyklus befindet. Hier folgt eine weitere Graphik, die den Temperaturverlauf der Nordhemisphäre während der letzten 2000 Jahre zeigt. Man beachte besonders, was während der letzten 1000 Jahre passiert ist.

Abbildung 2. Quelle: http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf

Man beachte die Wärmespitze um das Jahr 1000 – dann schaue man darauf, wo wir uns augenblicklich befinden, am rechten Rand der Graphik. Man erkennt deutlich, dass die Erde vor kurzem eine weitere Wärmespitze des 1000-Jahre-Zyklus durchlaufen hat.

Was bedeutet das? Wir wissen, dass die Menge der unseren Teil der Erde erreichenden Sonnenstrahlung oftmals zu Temperaturänderungen um Zehnergrade führt zwischen Tag und Nacht sowie bis zu 100 Grad Temperaturunterschied zwischen den kältesten Winter- und den heißesten Sommertagen. Wir wissen auch, dass die Sonne selbst während der Maxima ihrer zahlreichen Zyklen mehr Energie ausstößt und ein stärkeres Magnetfeld aufweist.

Was macht die Sonne derzeit? Hier folgt eine Graphik, die uns dies zeigt. Man erkennt, dass die Sonne selbst Aktivitätszyklen mit einer Dauer von 11 bis 12 Jahren durchläuft. Je näher die rote Linie dem unteren Rand der Graphik kommt, umso aktiver ist die Sonne, umso stärker ist ihr magnetisches Feld und umso weniger kosmische Strahlung trifft auf die Erde.

Abbildung 3. Quelle: http://cosmicrays.oulu.fi/

Man erkennt, dass die Sonnenaktivität zugenommen hat, das heißt, die rote Linie näherte sich immer mehr dem unteren Rand der Graphik, und zwar in jedem Zyklus bis etwa zum Jahr 1991. Danach liegen die Maxima und Minima näher an der oberen Kante der Graphik, was eine Abnahme der Sonnenaktivität bedeutet. Dies zeigt, dass der Höhepunkt des 1000-Jahre-Zyklus‘ der Sonnenaktivität im Jahre 1991 erreicht worden ist und jetzt eben hinter uns liegt.

Weil es einige Zeit dauert, bis sich die Ozeane erwärmen bzw. abkühlen, gibt es eine zeitliche Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und der Temperatur auf der Erde. Die besten Messungen der globalen Temperatur, die wir haben, stammen von Satelliten. Hier folgt eine Graphik, die die Temperaturänderungen während des Satelliten-Zeitalters zeigt:

Abbildung 4. Quelle: www.woodForTrees.org

Man erkennt, wie sich der Höhepunkt der Sonnenaktivität im Jahre 1991 in einer Wärmespitze der mittleren globalen Temperatur (die grüne steigende und die blaue fallende Linie) etwa 12 Jahre später im Jahre 2003 spiegelt, und dass sich die Erde seitdem leicht abgekühlt hat, was genau zu der abnehmenden Sonnenaktivität seit 1991 bis heute passt.

Aber was ist nun mit der Zukunft?

Nun, die einfachste und wahrscheinlichste Aussage für Anfänger lautet, dass der 1000-Jahre-Zyklus von 2003 bis 3003 einen Temperaturverlauf zeigen wird, der im Allgemeinen ähnlich dem während des Zyklus‘ von 1000 bis 2003 ist – siehe Abbildung 2.

Betrachtet man diese Graphik noch einmal, erkennt man, dass die mittlere Temperatur der Nordhemisphäre um etwas unter 2°C von 1000 bis 1635 zurück gegangen ist, so dass wir eine ähnliche Abkühlung erwarten können von 2003 bis 2638 – natürlich mit zahlreichen Höhen und Tiefen während des Verlaufs.

Die Wärmespitze um das Jahr 1000 war eine gute Zeit für die Menschen. Die Wikinger waren in der Lage, in Grönland zu siedeln. Die Ernten waren gut, und die Menschen in Europa hatten Zeit und Mittel, um mit dem Bau von Kathedralen zu beginnen. Die Kaltzeit der Jahre von 1635 bis 1700 wird das ,Maunder-Minimum‘ genannt. Damals war die Sonne so ruhig, dass die Sonnenflecken verschwanden. In jener Zeit folgten einige besonders kalte Jahre nacheinander, und Millionen Menschen verhungerten, weil die Ernten vernichtet wurden.

Das vom Menschen ausgestoßene CO2 hatte keinerlei Auswirkungen auf diese Temperaturänderungen. Tatsächlich liegt Präsident Obama absolut falsch, wenn er CO2 einen Verschmutzer nennt. Vielmehr ist es das unabdingbar notwendige Nahrungsmittel für Pflanzen. Ohne dieses Gas könnte das Leben, so wie wir es kennen, nicht existieren. Pflanzen wachsen umso besser, je mehr der CO2-Gehalt in der Luft zunimmt. Etwa 25% der Zunahme der Erzeugung von Nahrungsmitteln im 20. Jahrhundert geht einfach auf die Zunahme des CO2-Gehaltes während jener Jahre zurück – ein großer Vorteil für die Menschheit.

Ava fragt: Die blaue Linie verläuft nahezu waagerecht. Wann werden wir sicher wissen, dass wir uns auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden und uns in Richtung einer neuen Kleinen Eiszeit bewegen?

Großvater antwortet: Ich freue mich zu sehen, dass du ein frühes Interesse an Epistemologie entwickelt hast.

Erinnere dich mal, ich habe den 60-Jahre-Zyklus erwähnt. Nun, die Daten zeigen, dass die Wärmespitze des Jahres 2003 nahe eines Maximums sowohl des 60- als auch des 1000-Jahre-Zyklus‘ lag. Falls wir uns jetzt auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden, dürfte das nächste Maximum des 60-Jahre-Zyklus‘ etwa im Jahre 2063 erneut schwächer ausfallen, so dass wir dann in jener Zeit sagen können, dass wir ziemlich sicher auf die nächste Kleine Eiszeit zusteuern.

Das ist jedoch noch lange hin, aber wir werden eine Reihe sehr nützlicher Hinweise schon lange vorher bekommen. Schau noch einmal die rote Kurve in Abbildung 3 – man erkennt darin, dass von Anfang 2007 bis Ende 2009 die Sonnenaktivität auf ihren niedrigsten Stand seit sehr langer Zeit fiel. Erinnerst du dich an die Verzögerung von 12 Jahren zwischen dem Maximum der Sonnenaktivität 1991 und der Wärmespitze 2003? Falls es eine ähnliche Verzögerung als Reaktion auf die geringere Sonnenaktivität gibt, sollte die Erde von 2019 bis 2021 eine Kaltphase durchlaufen.

Es dürfte auch deutlich kühler sein als während der kältesten Zeit des 60-Jahre-Zyklus‘ – auf halbem Weg durch den gegenwärtigen 60-Jahre-Zyklus um das Jahr 2033.

Wir können abwarten, dass diese Dinge geschehen, aber inzwischen behalte im Hinterkopf, dass zyklischen Trends insgesamt zeitweise einige Jahre lang gestört werden können durch El Nino-Ereignisse im Pazifik und die damit verbundenen hohen Temperaturen der Jahre 1998 und 2010 (Abbildung 2) und die wir vor Ende dieses Jahres 2015 sehen könnten.

3. Ava fragt: Es sieht so aus, als würde es kälter werden auf der Erde – warum sagen dann mein Lehrer und Präsident Obama, dass es auf der Erde sehr heiß werden wird und dass die Eisbären alle aussterben werden, wenn ich nicht mehr zur Schule gehe?

Nun, Ava – ich müsste ein Buch schreiben um zu erklären, warum so viele unterschiedliche Menschen so falsch liegen können über so lange Zeit – manchmal mit den besten Absichten. Lass mich dir kurz erzählen, wie das kam.

Im Jahre 1968 hat ein Mann namens Ehrlich ein Buch veröffentlicht mit dem Titel The Population Bomb. Er glaubte, dass die Anzahl der Menschen auf der Welt so stark zunehme, dass es schon bald nicht mehr genug Nahrungsmittel geben würde, um jeden satt zu bekommen. Er schrieb in seinem Buch:

In den siebziger Jahren werden Millionen Menschen den Hungertod sterben trotz einiger Notfallprogramme, die jetzt beginnen. Zu diesem späten Zeitpunkt kann niemand mehr eine substantielle Zunahme der Todesrate in der Welt verhindern“.

Einige Menschen zu jener Zeit wurden sehr besorgt und wollten derartige Dinge abschätzen wie etwa das zukünftige Bevölkerungswachstum, die Erzeugung von Nahrungsmitteln, die Ölversorgung, Industrieproduktion und Mineralreserven. Dazu benutzten sie ein Computerprogramm. Sie wollten mögliche Probleme in der Zukunft erkennen und auch die Möglichkeit erkunden, dass die Völker und Regierungen der Welt sich auf einen Weg einigen können, die Weltwirtschaft so zu betreiben, dass sie nachhaltig ist, das heißt für längere Zeit laufen kann. All das steckten sie in ein Buch mit dem Titel Die Grenzen des Wachstums, das im Jahre 1972 veröffentlicht worden ist.

Ein sehr agiler Geschäftsmann namens Maurice Strong, der eine Menge einflussreicher Leute kannte, überzeugte die UN von dem, was er selbst glaubte und tatsächlich immer noch sehr stark glaubt, dass nämlich dieses Nachhaltigkeits-Problem sehr ernst war. Die UN und Schweden organisierten im Jahre 1972 ein Treffen in Stockholm, um die Wechselwirkungen der Menschen mit der Umwelt zu diskutieren. Strong ist von Natur aus sehr bestimmend, und er und die Konferenz erstellten einen unglaublich detaillierten 109-Punkte-Plan als Information für die UN und als Werkzeug, um sogar Kontrolle über die individuelle Umweltpolitik von Regierungen weltweit zu erlangen. Als eine der Maßnahmen wurde das United Nations Environmental Program ( UNEP) ins Leben gerufen mit Mr. Strong höchstselbst als geschäftsführendem Direktor. Zehn Jahre später war offensichtlich, dass die Prophezeiungen bzgl. bevorstehender Todesfälle und Katastrophen falsch waren. Die Leute bei beim UNEP trachteten aber immer noch danach, Kontrolle über die Weltwirtschaft zu erlangen. Sie erkannten, dass falls sie zeigen könnten, dass Kohlendioxid aus der Verbrennung von Kohle und Öl zur Stromerzeugung und für Autofahrten zu einer gefährlichen Erwärmung der Erde führen könnte, sie in der Lage sein würden, Regierungen und Völker so stark zu ängstigen, dass sie sich unter den Kontrollschirm der UN begeben könnten und zulassen würden, dass diese mittels Kontrolle der Art des Energieverbrauchs und der Preise die Kontrolle über die Wirtschaft erlangen könnten.

Das UNEP organisierte ein Treffen von Wissenschaftlern in der Ortschaft Villach in Österreich im Jahre 1985, um auszuloten, wie sie zeigen könnten, dass CO2 gefährlich ist. Die Wissenschaftler sagten: „Obwohl die beobachtete großräumige Erwärmung der letzten rund 100 Jahre kompatibel ist mit den Modellschätzungen der Größenordnung des Treibhauseffektes, ist eine eindeutige und statistisch überzeugende Erkennung der Effekte eines sich ändernden CO2-Gehaltes auf das Klima noch nicht möglich. Ein bedeutendes Problem hinsichtlich der positiven Identifikation eines Treibhausgaseffektes auf das Klima ist es, die mittel- und langfristigen (Jahrzehnte oder mehr) Fluktuationen in der Vergangenheit zu erklären. Versuche, derartige Änderungen zu modellieren, weisen bis heute eine Anzahl von Schwächen auf“.

Liebe Ava – mit anderen Worten, sie können keinerlei Auswirkungen des menschlichen CO2 auf das Klima beweisen.

Aber wer auch immer das offizielle Statement der Summary und der Empfehlungen geschrieben hat sagte:

„Man glaubt jetzt, dass es als Folge der zunehmenden Konzentration von Treibhausgasen während der ersten Hälfte des nächsten Jahrhunderts zu einem Anstieg der globalen mittleren Temperatur kommen könnte, der stärker ist als alles, was es bisher in der Geschichte der Menschheit gab“.

Der Bericht gab zwei wichtige Empfehlungen. Als Folge der einen davon wurde das IPCC ins Leben gerufen, das die Beweise auswählen und von Zeit zu Zeit Berichte erstellen sollte, die zeigen würden, dass CO2 der Haupttreiber eines gefährlichen Klimawandels sei. Die zweite Empfehlung führte zu einem Treffen in Rio im Jahre 1992 unter Vorsitz von Maurice Strong selbst. Auf diesem Treffen wurde das United Nations Framework Convention on Climate Change (UNFCCC) erstellt, das danach von 196 Regierungen unterzeichnet worden ist.

Sinn und Zweck des Vertrages ist es, die Konzentrationen von Treibhausgasen in der Atmosphäre auf einem Niveau zu halten, das ihrer Ansicht nach eine gefährliche Einmischung des Menschen in das Klimasystem verhindern würde. Dieser Vertrag ist wirklich ein umfassender, politisch getriebener politischer Aktionsplan mit der Bezeichnung ,Agenda 21′. Er soll zu einer zentral gesteuerten globalen Gesellschaft führen, die jeden Aspekt des Lebens eines jeden Einzelnen auf diesem Planeten kontrollieren soll.

Es heißt in diesem Vertrag: „Die Unterzeichneten sollten Vorsichtsmaßnahmen ergreifen, um die Ursachen des Klimawandels zu erfassen, zu verhindern oder zu minimieren und dessen nachteilige Effekte abzuschwächen. Wo ernste oder irreversible Schäden drohen, sollte das Fehlen einer vollen wissenschaftlichen Gewissheit nicht als Grund herangezogen werden, diese Maßnahmen zu verschieben“.

Mit anderen Worten, falls die Modelle zeigen, dass es auch nur eine sehr geringe Wahrscheinlichkeit dafür gibt, dass sehr schlimme Dinge passieren, sollten die Unterzeichneten aber trotzdem agieren, um diese zu stoppen. Aber wie gut sind die Computermodelle?

Die fünf ersten aufeinanderfolgenden Berichte des IPCC in den Summaries for Policymakers, geschrieben von Repräsentanten der Regierungen, machen eine zunehmende Gewissheit ihrer modellbasierten Projektionen geltend hinsichtlich zukünftiger Temperaturen, die in den wissenschaftlichen Abschnitten der Berichte oder von den aktuellen Daten nicht gestützt werden.

Noch einmal zurück zum Treffen in Villach. Von dort hieß es: „in der ersten Hälfte des kommenden Jahrhunderts könnte es zu einem Anstieg der globalen mittleren Temperatur kommen, der stärker ist als alles, was es in der Menschheitsgeschichte bisher gegeben hat“.

Alle Modelle und Projektionen seit 1985 beruhten auf der Hypothese, dass CO2 der Hauptklimatreiber war – aus diesem Grunde und auch aus vielen anderen Gründen sind diese Modelle nutzlos für die Vorhersage zukünftiger Temperaturen.

Hier folgt eine Graphik, was wirklich geschah, als der CO2-Gehalt im 21. Jahrhundert rapide gestiegen war:

Wie man sieht, gab es seit etwa dem Jahr 1997 keinerlei globale Erwärmung mehr.

Die Klimamodelle, auf denen die gesamte Wahnvorstellung der katastrophalen globalen Erwärmung beruhen, wurden ohne Rücksicht auf die natürlichen 60-Jahre- und noch wichtiger auf die 1000-Jahre-Zyklen erstellt, die so deutlich in den Temperaturaufzeichnungen hervortreten. Die Vorgehensweise der Modellierer ist einfach eine wissenschaftliche Katastrophe, der sogar jeder normale gesunde Menschenverstand fehlt. Es ist genauso, als ob man den Temperaturtrend von Februar bis Juli heranzieht und diesen linear auf die kommenden 20 Jahre oder so projiziert. Sie frisieren ihre Modelle so, dass sie weniger als 100 Jahre in die Vergangenheit reichen, obwohl sich der relevante Zeitrahmen über Jahrtausende erstreckt. Dies ist wissenschaftswidriges Verhalten in großräumigem Maßstab.

Die Temperaturprojektionen der Modelle des IPCC und des UKMO sowie sämtliche Studien über die Folgen aus diesen Projektionen haben keine solide Grundlage in der empirischen Wissenschaft, die abgeleitet ist aus durchweg nutzlosen und speziell strukturell betrügerischen Modellen. Sie bilden keine Basis für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Man erkennt schon jetzt, dass deren Prophezeiungen als Fundament für eine regierungsamtliche Klima- und Energiepolitik vollkommen falsch und daher noch schlimmer als nutzlos sind.

Hier folgt eine Graphik, die zeigt, was geschieht, wenn man einen zyklischen Trend in eine gerade Linie projiziert, wie sie es gemacht haben:

Ein neues Vorhersageverfahren muss übernommen werden. Für Vorhersagen von Timing und Ausmaß der auf natürlichen solaren Zyklen beruhenden kommenden Abkühlung – am Wichtigsten ist dabei der Zeitrahmen von Jahrtausenden – siehe meinen Beitrag hier. Dessen Abschnitt 1 enthält eine vollständige Diskussion der Nutzlosigkeit der Klimamodelle.

Im ,Novum Organum‘ (das neue Instrumentarium zur Aneignung von Wissen) klassifizierte Francis Bacon die intellektuellen Trugschlüsse seiner Zeit in vier Bereiche, die er Idole [idols] nannte. Der vierte davon wurde beschrieben als:

Idols des Theaters sind jene, die auf Spitzfindigkeiten und falsches Lernen beruhen. Diese Idols bestehen in den Bereichen Theologie, Philosophie und Wissenschaft; und weil sie durch gelehrte Gruppen vertreten werden, werden sie ohne Nachfrage von den Massen akzeptiert. Wenn falsche Philosophien kultiviert worden sind und eine große Dominanz in der Welt des Intellekts erreicht haben, werden sie nicht mehr in Frage gestellt. Falsche Über-Strukturen werden auf der Grundlage falscher Fundamente erhoben, und am Ende zeigen Systeme ohne jeden Wert ihre Pracht auf der Weltbühne.

Die Klimawissenschaft ist Opfer dieser vierten Art von Idols geworden. (Zu den 4 Idols mehr hier)

Link: http://wattsupwiththat.com/2015/08/31/the-epistemology-of-explaining-climate-forecasting-so-an-8-year-old-can-understand-it/

Übersetzt von Chris Frey EIKE




Fossile Treibstoffe sind DIE Haupt-Energiequelle der Welt

Beweis

Um meine Aussage zu beweisen, möchte ich ein paar Fakten bzgl. Energie und Treibstoff beleuchten. Auf dem Bild rechts sieht man die Anteile der Welt-Energieerzeugung im Jahre 2013 (Quelle: Manhattan Inst.)

Wie man erkennt, tragen fossile Treibstoffe zu etwa 85% des gesamten Weltenergieverbrauchs bei. Fügt man dem noch die fossile Energie zum Bau und dem Betrieb von Windmühlen hinzu und zum „Vorheizen“ von Erneuerbaren auf Solarbasis machen diese Treibstoffe über 90% aller verbrauchten Energie aus. Selbst die Energiekomponente „Biomasse“ braucht viel Strom oder andere Energie, die wiederum durch fossile Ressourcen zur Verfügung gestellt wird. In den meisten Fällen tauchen diese Arten fossilen Energieverbrauchs in den meisten Produktionszahlen von „Erneuerbaren“ gar nicht auf.

Alles in allem ist der Gedanke, dass es mit den fossilen Treibstoffen zu Ende geht, einfach absurd. Die Fakten widersprechen dieser Behauptung diametral, und die Nachfrage nach fossilen Treibstoffen ist höher denn je. In absoluten Zahlen: [Der Verbrauch von] Kohleenergie allein steigt mit einer Rate, die etwa dreimal so hoch ist wie bei erneuerbarer Energie, und Öl und Erdgas liegen dicht hinter der Kohle. Aber nicht nur die Nachfrage nimmt stetig zu, sondern ebenso die verfügbaren und bekannten Ressourcen.

Gehen uns die Kohlenwasserstoffe aus?

Ob man es nun glaubt oder nicht, ich erinnere mich an einen speziellen Auftrag während meiner Grundschulzeit (vor über 60 Jahren), eine Liste von Punkten zusammenzustellen, was aus der Welt werden würde, wenn die Sonne nicht mehr scheinen würde. Zu jener Zeit war das eine ernste Herausforderung für mich, die mir aber gleichzeitig auch Spaß gemacht hat.

Die Frage „Was würde aus der Welt ohne Kohlen-/Kohlenwasserstoff-Energieressourcen?“ ist ähnlich gelagert, zumindest meiner Meinung nach. Die Graphik oben zeigt, dass fossile Energie der mit Abstand größte und auch zuverlässigste Weg zur Energieerzeugung ist. Ob man nun ein Auto fährt, in einem Flugzeug fliegt, sich an einer Schiffsreise erfreut, das Licht anknipst oder einfach nur etwas essen möchte – fast alles der dafür erforderlichen Energie stammt aus fossilen Treibstoffen. Selbst ein großer Teil der „Gratis“-Energie (wie es die Befürworter von Wind und Solar behaupten) beruht auf fossilen Ressourcen.

Vielleicht gehen ja der Welt wirklich zu irgendeinem Zeitpunkt die fossilen Energiereserven aus. Allerdings verschiebt sich dieser Zeitpunkt kontinuierlich immer weiter in die Zukunft. Nicht nur, dass der gegenwärtige Verbrauch durch neue Funde gewährleistet ist, sondern auch, dass die zukünftige Reserve zwischen neuen Technologien und neuen Funden stetig zunimmt. Zum Beispiel gab es vor wenigen Tagen Nachrichten über ein riesiges neu entdecktes Gasfeld im Mittelmeer vor der Küste Ägyptens (hier).

Viele Entdeckungen ähnlicher Art gibt es auch in anderen Regionen, auf dem Festland und in den Ozeanen, auf der ganzen Welt. Daher ist es unglaublich naiv und falsch zu behaupten, dass fossile Treibstoffe zur Neige gehen. Nichts dergleichen passiert, weder hinsichtlich verfügbarer Reserven noch hinsichtlich des Verbrauchs.

Ein weiterer Punkt

Ich möchte noch einen weiteren Punkt erwähnen. Dabei geht es um den relativ breiten Raum der Berichterstattung durch einige Suchmaschinen hinsichtlich Nachrichten. Zum Beispiel findet sich auf Gildings eigener Homepage bei www.goodreads.com nicht ein einziger Kommentar zu seinem Beitrag und zeigt ein Grand Total von „4 Followern“.

Sucht man jedoch nach den folgenden Begriffen, würde man denken, dass deren Arbeiten groß nachgefragt werden; man schaue selbst einmal. Die Haupt-Suchmaschine ergab auf Nachfragen der Begriffe „Gilding“ + „fossile Treibstoffe sind zu Ende“ folgende Ergebnisse:

Eindeutig zeigt sich eine Diskrepanz zwischen den von diesen drei Suchmaschinen gezeigten Treffern. Ich vermag nicht zu sagen, welche besser ist, aber ich frage mich nach den Ursachen für diesen deutlichen Unterschied. Könnte der Grund ein Bias in der Richtung eines bestimmten Standpunktes sein? Das möge jeder für sich selbst beurteilen, aber über eines bin ich mir sehr sicher:

Gildings Klagen über zu Ende gehende fossile Treibstoffe sind absoluter Blödsinn!

Link: http://canadafreepress.com/article/74926

Übersetzt von Chris Frey EIKE




US Gouverneure und Milliardäre befördern die die Wirtschaft zerstörende Energie-Agenda von Obama

Verborgene E-Mails enthüllen ein geheimes Anti-Fossile-Treibstoffe-Netzwerk, in das das Weiße Haus, Gouverneure, wohlhabende Spender und Stiftungen sowie Aktivistengruppen verwickelt sind.

Die meisten von uns haben das Gefühl, dass die Zeit mit zunehmendem Alter schneller vergeht. Dem ist so. Im Alter von 5 Jahren repräsentiert ein Jahr 20% unseres Lebens. Im Alter von 50 Jahren jedoch repräsentiert ein Jahr lediglich 2% des Lebens – was diesen speziellen Zeitrahmen viel kleiner macht. Jene von uns, die gegen die verheerende Energiepolitik aus Washington kämpfen, haben ein ähnliches Gefühl: Obamas zweite Amtszeit scheint uns viel mehr zuzumuten mit einem solchen Tempo, dass wir kaum noch mitkommen.

Wir wussten, dass Präsident Obama plante Amerika fundamental zu transformieren (hier), aber sogar viele seiner ehemaligen Unterstützer waren erschrocken, als seine wirklichen Absichten zutage traten. Nach seiner Wiederwahl im November 2012 hatte seine Administration jeden Anspruch, die Mehrheit der Amerikaner zu repräsentieren auf gegeben, und er hat seine ideologische Agenda mit wilder Hemmungslosigkeit verfolgt – was viele von uns mit dem Gefühl zurückließ, unfähig zu sein; an die Kandare genommen worden zu sein.

Das Vermächtnis seiner Klimawandel-Agenda sitzt im Zentrum der in rascher Folge auf uns abgefeuerten Vorschriften und wird ohne Rücksicht auf irgendwelche das Tempo verlangsamen Hindernisse in Form von Klagen vor Gericht an vorderster Front der Administration verfolgt. Als der Oberste Gerichtshof es für nichtig erklärt hatte, weil nicht die wirtschaftlichen Auswirkungen für Kraftwerke betrachtet worden waren, reagierte die EPA mit einem Schulterzucken (hier), hatte sie doch ihre Ziele im Wesentlichen schon erreicht. Am 27. August hat ein Bundesrichter eine Vorläufige Verfügung erlassen, welche die EPA und die Armee der Ingenieure stoppte, Vorschriften bzgl. Wasser in 13 US-Staaten umzusetzen, welche diese Verfügung eingeklagt hatten. Die Reaktion? The Hill berichtet: „Die Obama-Administration sagt, dass sie die Umsetzung der Vorschriften mit aller Kraft wie geplant betreiben wird“.

Nachdem die unpopuläre Politik durch den Kongress zu bringen gescheitert war, hat die Administration Zuflucht gesucht in Über-Regulierung – und eine Kampagne losgetreten, um freundlich gesonnene Gouverneure und Büros von Staatsanwälten in Zusammenarbeit mit Interessengruppen und ideologisch ausgerichteten Wohltätern dazu zu bringen, ihm bei dem Vorantreiben der Agenda zu helfen.

Das Weiße Haus weiß, dass die Öffentlichkeit nicht hinter ihm steht. Während Umfragen zeigen, dass nur etwas mehr als die Hälfte (hier) der amerikanischen Öffentlichkeit glaubt, dass die „Auswirkungen der globalen Erwärmung bereits zu spüren sind“, rangiert das Thema immer wieder mit großem Abstand an letzter Stelle der Prioritäten (hier), auf die sich Obama und der Kongress konzentrieren sollten. Die Lieblingsstrategie des Präsidenten schneidet sogar noch schlechter ab, wenn die Fragesteller fragen, ob die Amerikaner zustimmen: „Sollte die Regierung mehr gegen den Klimawandel tun, selbst um den Preis, dass das wirtschaftliche Wachstum abgewürgt wird?“ Nur 12% stimmen dem vorbehaltlos zu. Außerdem ist eine ganz spezielle Altersgruppe, nämlich die jungen Wähler, die maßgeblich dazu beigetragen hatten, Präsident Obama ins Amt zu hieven, die am wenigsten davon überzeugte Gruppe, dass der Klimawandel eine Realität ist und am wenigsten dazu bereit ist, „die Regierung bei der Finanzierung von Klimawandel-Lösungen zu unterstützen“.

Vermutlich aus diesem Grunde hat sich ein Schema gebildet, dessen Initiator der von dem inzwischen in Ungnade gefallenen ehemaligen Gouverneur von Oregon John Kitzhaber höchst bezahlten Erfüllungsgehilfen Dan Carol ist – „ein ehemaliger Opositions-Forscher der Demokraten“, der dem Oregonian zufolge „im Namen von Bill Clinton und Barack Obama gearbeitet hatte“. Dieses Schema erntete eine enthusiastische Reaktion des Weißen Hauses und dessen Alliierter. Man erinnere sich, Kitzhaber war am 13. Februar 2015 zurückgetreten, nachdem Vorwürfe gegen ihn laut geworden waren, denen zufolge er seine Verlobte Cylvia Hayes widerrechtlich in seinem Büro beschäftigt hatte und ob sie diese Rolle dazu missbraucht hat, private Lobbyarbeit zur Unterstützung der Klimaagenda zu betreiben. Carol, der fast so gut bezahlt worden war wie Kitzhaber, hat sich einem neuen Bericht vom Energy & Environment Legal Institute [E&E Legal] zufolge aus seiner öffentliche Position verabschiedet, „nachdem er sich offenbar zu eng mit der Regierung und der vom Steuerzahler abhängigen ,Clean Energy Industry‘ verflochten und für diese Lobbyarbeit betrieben hatte“.

Das Ziel dessen, was ursprünglich „Dans Konzept“ genannt worden war,war es, eine „Koalition privater finanzieller und ideologischer Interessen mit Inhabern öffentlicher Ämter“ zuwege zu bringen, um „die Agenda der Amtsinhaber und deren politisches Bestreben voranzutreiben“ – oder genauer: „um die Pläne der Obama-Administration umzusetzen helfen und sie zu schützen“.

Dies geschah dutzender E-Mails zufolge mittels Gesetzen [open record laws] seitens der US-Bundesregierung und der Staaten, „um eine koordinierte Kampagne zu einer engen Koordinierung öffentlicher Büros voranzubringen“ unter Einbeziehung einer „politischen Operation mit Dritten, finanziert durch einige der größten Namen der linksliberalen Stiftungsgeber“. Darunter waren auch den E-Mails zufolge Tom Steyer, Michael Bloomberg, die Rockefeller Brothers und die Hewlett-Foundation. Die ersten E-Mails zu diesem Skandal tauchten Mitte 2013 auf.

Kitzhaber war nicht der einzige involvierte Gouverneur, sondern lediglich der einzige, der bislang zurückgetreten ist. Viele Gouverneure der Demokraten un deren Mitarbeiter unterstützten dieses Schema. Man konnte erwarten, dass der Gouverneur von Kalifornien Jerry Brown oder der von Virginia Terry McAuliffe Teil des Planes sind – eine Gruppe, die neben anderen Bezeichnungen die ,Governors Climate Compact‘ genannt wurde – sind diese doch begeisterte Anhänger der Klimawandel-Initiativen von Präsident Obama. Überraschend ist das stille Engagement des Gouverneurs von Kentucky Steve Beshear (Photo oben).

Beshear prangerte Obamas Clean Power Plan an als „desaströs“ für Kentucky. In einem Statement zu dem Plan sagte er: „Ich bin hinsichtlich der für Kentucky wichtigen Kohle- und produzierenden Industrie standhaft geblieben, um die preiswerte Energie und deren gute Arbeitsplätze für den Commonwealth und die Nation nicht zu geährden“. Und doch opponiert er nicht gegen das Gesetz, und E-Mails zeigen, dass er Teil der „Kerngruppe von Gouverneuren ist, die im Stillen arbeiten, um die Klimaagenda voranzutreiben“.

Als Erwiderung „beteuerte Beshears Büro, dass ,keine Aufzeichnungen‘ in seinen Files enthalten sind, die irgendetwas mit der Steyer-Kampagne zu tun haben“. Im E&E Legal heißt es weiter: „Zahlreiche E-Mails von anderen Gouverneuren, die einen leitenden Helfer von Beshear kopiert hatten, zeigen, dass Beshears Büro diese E-Mails aber auf jeden Fall haben musste, es sei denn, man hatte inzwischen politisch schädliche E-Mails gelöscht“. Eine E-Mail, die den Namen der Helferin nannte, Rebecca Byers zeigt Kentucky als einen der Staaten, die „sich derzeit nicht zu GCC (Governors Climate Compact) bekennen können, dass sie aber ein Engagement im Stillen begrüßen würden“.

Andere in den E-Mails genannte Staaten waren u. A. Minnesota, Rhode Island, Illinois, Connecticut, California, Oregon, Washington, Massachusetts, Tennessee, Delaware, Maryland, Colorado, New York, Vermont und Virginia.. Drei gerade gewählte Gouverneure der Republikaner waren Ziel der Kampagne – Larry Hogan (MD), Charlie Baker (MA), and Bruce Rauner (IL). Der wiedergewählte republikanische Gouverneur von Minnesota ist offensichtlich der Kerngruppe beigetreten.

Ich habe den gesamten Bericht gelesen – wobei ich den Atem angehalten hatte, als ob ich einen Spionage-Thriller gelesen hätte – und habe die E-Mails begutachtet.

Der Umfang der Koordination bei diesem multi-staatlichen Plan ist erschreckend. Die Menge des involvierten Geldes ist atemberaubend – ein 6-Monats-Budget in Höhe von 1.030.000 Dollar für die Koordinierer und 180.000 Dollar an eine Gruppe wurde gezahlt, um eine Studie zu erstellen, deren Ergebnisse die Behauptungen des Planes stützen. Und wie der 55 Seiten starke Report zeigt, ist diese Sammlung von E-Mails keineswegs vollständig. Aus der Schlussfolgerung der Executive Summary: „Zusammenhang und gesunder Menschenverstand zeigen, dass die E-Mails, die E&E Legal erhalten hatte und in diesem Bericht detailliert vorgestellt wurden, nicht die gesamte relevante Korrespondenz repräsentieren, mit der das beschriebene Schema zusammengefügt worden ist. Öffentliche Gesetze erstrecken sich auf diejenigen Aufzeichnungen, die durch öffentlich Bedienstete erzeugt, gesendet oder empfangen wurden; Korrespondenz im privaten Bereich wird nur erfasst, wenn Kopien aus öffentlichen Büros angefertigt werden, mit der Schwachstelle, dass der größte Teil des Weißen Hauses davon ausgenommen ist. Allerdings zeigen schon die uns zugespielten Aufzeichnungen mehr als die Zeit und andere Parameter unserer Anfragen; [original: Further, however, the records we have obtained reflect more than the time and other parameters of our requests]; sie sind außerdem eine Funktion der Gründlichkeit der Antworten aus den Büros, die Bereitschaft ehemaliger und aktueller Mitarbeiter, nichtoffizielle Aufzeichnungen [accounts] zu durchsuchen und sogar viele Sperren, wie auf den folgenden Seiten beschrieben wird“.

Der Bericht in E&E Legal war für mich von besonderem Interesse, weil er der These meiner ausführlichen Beschreibung des Skandals um Vetternwirtschaft bzgl. grüner Energie von Obama [Obama’s green-energy crony-corruption scandal] folgte. Viele der gleichen Namen, die mir inzwischen nur zu bekannt waren, tauchten wieder und immer wieder auf: Terry McAuliffe – der von der Regierung gefördert wurde für sein gescheitertes Elektroauto-Unternehmen; Cathy Zoe – die für das Energieministerium gearbeitet hatte; und natürlich John Podesta – der das Center for American Progress leitete und der mitgeholfen hat, das Stimulus Bill [Stimulus-Gesetz?] im Jahre 2009 zu formulieren und der anschließend zu einem „leitenden Berater“ für Präsident Obama und jetzt für den Kampagnen-Manager von Hillary Clinton wurde.

Der Bericht erregte auch deshalb meine Aufmerksamkeit, weil vor etwas mehr als einem Monat – vielleicht mit einem Hinweis, dass dieser Bericht kommen würde – die HuffPost eine Story brachte mit der Behauptung, dass Gruppen wie die meine Teil eines „geheimen Netzwerkes der Industrie fossiler Treibstoffe seien, die daran arbeiten, saubere Energie zu stoppen“. Unter Nennung meines und anderer Namen schreibt der Autor: „Die Strategie der Bildung und Förderung vieler unterschiedlicher Organisationen und Lobbygruppen bildet einen künstlichen Chor von Stimmen, die sich hinter der Eliminierung oder Abschwächung der Gesetze zu erneuerbarer Energie vereinen“. Er folgert daraus, dass die Angriffe „die Folge koordinierter nationaler Kampagnen sind, die von Unternehmen fossiler Treibstoffe orchestriert worden sind mittels deren Handelsgesellschaften und Lobbygruppen“.

Oh, wie sehr ich mir wünschte, dass wir gut koordiniert und üppig finanziert wären. Falls das der Fall wäre, hätte ich diese Kolumne vorige Woche geschrieben, als der Bericht bei E&E Legal erschienen war. Anstatt die Informationen von der Quelle zu bekommen, bekam ich sie von einem Journalisten in New York City.

Ja, ich bin Teil eines lsoe zusammenhängenden Netzwerkes von Menschen, die ähnliche Bedenken hegen. Einmal pro Jahr treffe ich mich mit einer Gruppe privater Bürger und Aktivisten, um über Dinge zu sprechen, die mit Eigentumsrechten zusammenhängen. Ich stehe auf der E-Mail-Liste individueller Gruppen, die gegen Windturbinen mobil machen – oftmals aus unterschiedlichen Gründen. Ich habe einen Grundstock von Wissenschaftlern auf verschiedenen Tagungen getroffen, die ich wegen ihrer vielfältigen Expertise befrage. Privatpersonen mailen mir immer wieder und geben mir Tipps und neue Nachrichten. Es stimmt, die meisten der Menschen in meinem fast 5000 Personen starken E-Mail-Verteiler sind Teil der Energieindustrie – obwohl sich da auch viele besorgte Bürger befinden. Im Jahre 2014 lag die mittlere Spendensumme an meine Organisation unter 500 Dollar.

Man stelle sich vor, was mir mit der Summe tun könnten, die der Bericht in E&E Legal enthüllt hatte – schließlich haben wir die Öffentlichkeit auf unserer Seite – normale Bürger, deren Energierechnungen zweistellig steigen infolge der von Präsident Obama und seiner politisch mit ihm verbundenen Erfüllungsgehilfen durchgepeitschten Politik, die von den amerikanischen Steuergeldern leben.

Ich hoffe, Sie treten unserer Gruppe bei – man kann sich einschreiben und/oder meinen Bemühungen helfen. Wir arbeiten nicht im Verborgenen und sind tatsächlich stolz auf unsere Bemühungen im Namen aller Amerikaner, ihrer Arbeitsplätze sowie Energie, die effektiv, effizient und wirtschaftlich ist.

Wenn man diesen kleinen – aber gut organisierten und üppig finanzierten – Gruppen, die Präsident Obamas Agenda vorantreiben, erlauben würde, um sich zu greifen, ohne die kleinen Sperren der Opposition (wie meine Gruppe), die Unterrichtung der Öffentlichkeit und Bloßstellung der Fakten (wie im E&E Legal-Bericht), ist es angsteinflößend sich vorzustellen, wo Amerika heute wäre. Erinnern Sie sich, Sie sind entweder Teil des Problems oder Lösung des Problems.

Link: http://www.cfact.org/2015/08/31/governors-billionaires-secretly-promote-obamas-crippling-energy-agenda/

Übersetzt von Chris Frey EIKE




Die Klimaalarm-Industrie ist wissenschaftlich bankrott

Die Klimawissenschaft ist zu einem politisch korrumpierten, von Agenden getriebenen und öffentlich gehätschelten wissenschafts-industriellen Komplex verkommen; zusammen mit einem militärisch-industriellen Komplex, vor dem Präsident Eisenhower (Bild rechts) schon im Jahre 1961 gewarnt hatte.

Dabei hatte er ausgeführt: „Der Umstand, dass die Gelehrten einer Nation von der Regierung und und deren Zuteilung abhängig sind sowie die Macht des Geldes sind immer präsent – und müssen ganz stark beachtet werden. Und dennoch, bei wissenschaftlicher Forschung und damit verbundenen Entdeckungen müssen wir auch auf die genauso große und entgegen gesetzte Gefahr achten, dass nämlich die öffentliche Politik selbst nicht zum Gefangenen einer wissenschaftlich-technologischen Elite wird“.

Wenn man schätzt, dass bis zu einer Hälfte aller Medizinstudenten falsch liegen, hat der Chef-Herausgeber von The Lancet, einem führenden begutachteten internationalen Medizin-Journal Richard Horton angemerkt, dass die „Medizinwissenschaft eine Drehung vollzogen hat in Richtung Dunkelheit“.

Er ordnet diesen Umstand Forschungs-„Bedrängnissen“ zu, also Mängeln, wie sie auch viele Berichte der USA und des IPCC anhaften.

Darin enthalten sind geringe Beispielfälle, minimale Auswirkungen, ungültige erklärende Analysen und flagrante Interessenkonflikte, zusammen mit einer Besessenheit, Modetrends zweifelhafter Bedeutung zu folgen.

Wie im Falle der sensationalisierten IPCC-Berichte räumt Dr. Horton ein, dass die Herausgeber wissenschaftlicher Journale „schlimmstes Verhalten begünstigen“, um einen maximalen „Auswirkungs-Faktor“ zu erlangen.

Er wirft den Wissenschaftlern vor: „In ihrem Eifer, eine überzeugende Story zu präsentieren, formen Wissenschaftler zu oft Daten so um, bis sie zu ihrer Theorie der Welt passen“.

Ein Artikel in der New York Times vom 22. Mai mit der Schlagzeile [übersetzt] „Was steckt hinter großen Wissenschafts-Betrügereien?“ stimmt dem zu. Die Autoren Adam Marcus und Ivan Oransky diskutieren, wie führende wissenschaftliche Journale zur Veröffentlichung betrügerischer Studien gebracht worden sind, die sich auf nicht existente Daten beziehen.

Und auch hier ist dies eine Folge des Drucks, jenen „Auswirkungs-Faktoren“ zu huldigen, deren Einfluss bestimmt wird durch die Wahrscheinlichkeits-Studien, auf die sich Folgeartikel beziehen.

Angesichts des Umstands, dass die meiste finanzielle Förderung der Klimaforschung von öffentlichen, von einer vom Alarm abhängigen Agenda getriebenen Regierungs-Sponsoren und ihre grün-aktivistischen Erfüllungsgehilfen stammt, ist es keine Überraschung, dass so viele Wissenschaftler ihre Objektivität und Wissenschaft aufgeben, um den Geldgebern gegenüber gehorsam zu sein.

Stephen Schneider (Photo unten), der wichtige Teile von drei IPCC-Berichten geschrieben hatte, hat erklärt: „Wie die meisten Menschen wollen wir die Welt zu einem besseren Ort machen, was in diesem Zusammenhang für unsere Arbeit bedeutet, das Risiko eines potentiell desaströsen Klimawandels zu reduzieren“.

Schneider argumentierte: „Um das zu erreichen, müssen wir einige Unterstützung auf breiter Grundlage bekommen, um die Vorstellungskraft der Öffentlichkeit zu erregen. Dies bedeutet natürlich sehr viel Berichterstattung in den Medien. Also müssen wir Angst erzeugende Szenarien anbieten, vereinfachte, dramatische Statements abgeben und die Zweifel verschweigen, die uns kommen könnten. Jeder von uns muss für sich selbst entscheiden, ob er lieber effektiv oder lieber ehrlich sein will“.

Jüngster Beweis für diese von einer Agenda getriebene „Verzerrung“ sind – was kürzlich ans Tageslicht gekommen ist – die Bemühungen von Wissenschaftlern bei der NOAA, Temperaturaufzeichnungen vor Ende der neunziger Jahre umzuschreiben und einen künstlichen Temperaturanstieg vorzutäuschen, um der Alarm-Story der Erwärmung das Gewicht zu verleihen, das sie haben möchte.

Viel genauere Satellitendaten aus der Atmosphäre zeigen jedoch, dass es seit über 18 Jahren keine statistisch signifikante Erwärmung mehr gegeben hat, Tendenz weiter steigend.

Nachdem man die globale Erwärmung (die es nicht mehr gegeben hat, seit die heutigen Studenten geboren worden sind) umetikettiert hatte zu „Klimawandel“ (welcher immer stattfindet), haben die Alarm-Trompeter der Obama-Administration uns jetzt vor einem „Extremwetter-Trend“ gewarnt, der menschlichen CO2-Emissionen geschuldet ist.

Dabei würde schon ein einfacher Faktencheck ausreichen um zu erkennen, dass es fast ein Jahrzehnt her ist, seit der letzte starke Hurrikan namens Wilma auf das US-Festland im Jahre 2005 übergetreten ist. Tornados, Dürren, Buschbrände – zusammen mit dem polaren Eis und dem Meeresspiegel – entsprechen ziemlich genau historischen Trends oder zeigen sogar eine Tendenz zum Besseren.

Der prominente emeritierte Professor für chemische Thermodynamik an der University of Manchester und Mitglied der Royal Society of Chemistry Leslie Woodcock macht mächtige grüne Lobbys verantwortlich für eine „Tue Gutes“-Industrie auf der Grundlage eines ungerechtfertigten Klimaalarms.

In einem Interview mit der Yorkshire Evening Post in UK sagte der prominente Wissenschaftler: „falls man sich mit echten Wissenschaftlern unterhält, die keine politischen Interessen haben, werden diese einem sagen, dass nichts hinter der globalen Erwärmung steckt. Es handelt sich vielmehr um eine Industrie, die einigen Menschen riesige Summen Geldes zukommen lässt“.

Mein Freund, der ehemalige EPA-Analyst Alan Carlin, der über die Müllwissenschaft des IPCC zur Förderung von Vorschriften-Agenden bzgl. fossiler Treibstoffe geplaudert hatte, beobachtet: „Die Globale-Erwärmungs-Angst ist ein Lehrbuchbeispiel dafür, was passieren kann, wenn Politik und Ideologie die Leitung der Umweltpolitik übernehmen anstatt der Wissenschaft“.

Bedeutende, von Agenden getriebene Wissenschaftler und Politiker haben offensichtlich Einiges gemeinsam.

Winston Churchill sagte einmal: „Politik ist die Fähigkeit vorherzusagen, was morgen, nächste Woche, nächsten Monat und nächstes Jahr passiert. Und die Fähigkeit, danach zu erklären, warum das nicht passiert ist“.

————————————
CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of "Climate of Corruption: Politics and Power Behind the Global Warming Hoax."

Link: http://www.cfact.org/2015/08/31/the-climate-alarm-industry-is-scientifically-bankrupt/

Übersetzt von Chris Frey EIKE




In eigener Sache – Montäglicher Newsversand blockiert




Sommer 2015 – Die Sonne ist an allem schuld!

Quelle: http://de.sott.net

Heiß, trocken und extrem.

So haben wohl die meisten von uns den gerade zu Ende gegangenen meteorologischen Sommer in Erinnerung. Nur Schleswig-Holstein machte da eine Ausnahme. Wie nicht anders zu erwarten, wird dies von Menschen, die weniger der Wissenschaft, also dem Realen zugetan sind, sondern vielmehr der Sensationsmache oder gar von eigenen Interessen geleitet sind, als Beweis für einen menschengemachten Klimawandel angeführt. Dass dies nichts mit dem Realen, also der Wissenschaft zu tun hat, sondern bestenfalls mit (irregeleitetem) Glauben, zeigen die Autoren.

Trocken

Dass der Sommer so zu erwarten war und die Trockenheit auf die derzeit hohe Aktivität im Röntgenbereich zurückzuführen ist, die sozusagen die kosmische Strahlung (Stichwort Svensmark-Effekt) aus unserem Sonnensystem hinaus ‚bläst‘ und somit von der Erde fernhielt, hat Leistenschneider in seinem EIKE-Artikel "Sommerhitze 2015 – Klimawandel oder ’normales‘ Wettergeschehen" anhand von Untersuchungen der Stanford-University (Abb.1) gezeigt.

Abb.1 zeigt den Rückgang bei Regen während einem Forbush-Ereignis (During Forbush GCR decrease). Deutlich zeigt sich, dass die Niederschlagsmenge stark zurückgeht, was darauf zurückzuführen ist, dass weniger elektrisch geladene Aerosole für Wolkenbildung zur Verfügung stehen. Quelle: http://www.slac.stanford.edu/cgi-wrap/getdoc/slac-wp-020-ch11g-Kirkby.pdf

Um fast 20% geht die Regenmenge zurück. Dabei ist ein Forbush-Ereignis ein plötzlicher Abfall in der hochenergetischen kosmischen Strahlung nach einem solaren Ausbruch. Solare Ausbrüche sind dabei Flares oder sog. CMEs. Grundsätzlich verringert sich die kosmische Strahlung, die auf die Erde trifft, wodurch weniger geladene Aerosolpartikel entstehen, die als Ausgangsbasis für die Bildung von Wolkentröpfchen zur Verfügung stehen (=Svensmark-Effekt).

Heiß

Gleich zweimal purzelten in Deutschland die Allzeitrekorde der Tageshöchsttemperatur und 40,3°C wurden gemessen. Was es mit solchen Vergleichsmessungen auf sich hat, haben die Autoren in ihren Berichten zum Wärmeinseleffekt (WI) bereits mehrfach aufgezeigt. Da die Zeit den Raum verändert und somit alle seine Eigenschaften und eine seiner Eigenschaft ist seine Temperatur, muss für Vergleichsbetrachtungen grundsätzlich der WI heraus gerechnet werden, sonst werden Äpfel mit Birnen verglichen und der WI beträgt für Deutschland derzeit +0,02°C/Jahr. Also +0,2°C in 10 Jahren, wobei er im Sommer infolge der Sonneneinstrahlung etwas höher liegt als im Winter. (Abb.2).

Abb.2 zeigt im Vergleich zu den DWD-Temperaturvergleichsdaten, die um die WI-Effekte bereinigte und damit korrekte Temperaturvergleichsmessung. Seit Beginn der DWD-Temperaturreihe ist eine Verfälschung in den Temperaturjahresvergleichsmessungen durch den WI um gut +1°C nach oben zu verzeichnen. So teilt sich die vom DWD ausgewiesene Erwärmung für Deutschland im Betrachtungszeitraum von ca. 2°C auf etwa 1 Grad auf den zunehmenden Wärmeinseleffekt und 1 Grad auf die Sonne. Seit der Jahrtausendwende haben wir eine leichte Abkühlung, weil der WI zwar weiter steigt, aber die Abkühlung durch den Einfluss der Sonne überwiegt.

Doch mit der Verfälschung der Vergleichstemperaturen durch den WI ist es nicht genug. Noch gravierender wirkt sich der Fehler durch die Verwendung anderer Messmethoden und anderem Messequipment aus, wie beides mittlerweile bei den Temperaturmessungen, gegenüber von z.B. vor 15 Jahren, Einzug gehalten hat. Das Institut für Meteorologie der Freien Universität Berlin sagt zu Temperaturvergleichsmessungen in seiner Zeitschrift “Berliner Wetterkarte“ (“Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen“): “Mangelnde Vergleichbarkeit der Messwerte alter mit neuer Sensorik … birgt aber in der Klimatologie erhebliche Nachteile bei der Vergleichbarkeit alter Messreihen mit denen mit neuer Sensorik gewonnenen Werte – ein „Äpfel und Birnen Vergleich“ liegt nahe.“ (Abb.3)

 

Abb.3 links zeigt, dass Temperaurabweichungen von +5°C und mehr in den Maximaltemperaturen keine Seltenheit sind. Originaltext: “Unterschiedliche tägliche Messwerte bedingt durch alte und neue Sensoren für die Temperaturmessung … An den 3144 Tagen ergab sich eine mittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfasste Tagesdifferenz betrug gar 6,4 Grad ! Auch im Tagestemperaturgang (rechts) zeigt sich eine deutliche Abweichung von +3°C bei den heutigen Messungen zu denen vor z.B. 15 Jahren.

Soviel zu den sog. Allzeithöchstständen der Temperaturen, wie sie lautstark von Presse und Medien verkündet wurden.

Wie war der Sommer 2015 nun wirklich. Ohne unsere Gefühle (‚heiß‘) zu bemühen oder auf das dumme Geschwätz der selbst ernannten Qualitätsmedien zu hören? Hierzu betrachtete Kowatsch anhand der original DWD-Messreihen die Sommertemperaturen der letzten 15 Jahre (Abb.4).

Abb. 4: Seit dem Jahr 2001 haben die drei Sommermonate in Deutschland einen deutlich fallenden Trend. Die Grafik ist nach den Originalangaben des Deutschen Wetterdienstes (DWD) in Offenbach gezeichnet. Die Daten sind nicht WI-bereinigt, sonst wäre der fallende Trend noch stärker.

Seit Mitte August häuften sich die Sensationsmeldungen und düsteren Prophezeiungen in den deutschen Medien über die angebliche (anthropogene) Erwärmung, die besonders in den letzten 10 bis 15 Jahren besonders ausgeprägt gewesen sein sollte. Die Abb.4 umfasst genau den Zeitraum von 15 Jahren und zeigt eindeutig eine abnehmende Tendenz. Sie zeigt aber auch, dass 2015 der zweitwärmste Sommer im Betrachtungszeitraum war, aber nicht die hohen Werte von 2003 (Stichwort: ‚Hitzesommer‘) erreicht. Insbesondere der Sommermonat Juni war 2015 vergleichsweise kühl.

Andererseits war der August 2015 vergleichsweise warm. Er lag deutlich über seiner eigenen fallenden Trendlinie, und er war somit ausschlaggebend für den schönen, warmen und langen Sommer.

Abb.5: Der August 2015 war der zweitwärmste in den letzten 19 Jahren, die Trendlinie ist indes fallend. Mit seinen 19,9°C lag er deutlich über der fallenden Trendlinie und über den Augusttemperaturen der letzten 10 Jahre. (Der DWD-Wert für 2015 ist noch vorläufig, oftmals werden diese Werte leicht nach unten korrigiert.)

CO2 kann diesen warmen August nicht bewirkt haben, denn wie die kleine eingeblendete Grafik zeigt, sind die Kohlendioxidkonzentrationen der Atmosphäre kontinuierlich steigend. Die beiden Trendlinien in der Abb.5 sind sogar gegenläufig und somit kann Kohlendioxid gar keinen oder keinen nennenswerten Einfluss auf die Temperaturen haben. Wir haben über die letzten 19 Jahre sogar eine negative Korrelation der beiden Größen, was für Treibhausgläubige eigentlich bedeuten müsste: Kohlendioxid kühlt die Luft.

Extrem

Sehr heißes und vergleichsweise kühles Sommerwetter wechselten sich in rascher Folge ab. So ging der Sommer 2015 auch mit diesem „extremen“ Wechsel zu Ende: Gestern noch +35°C, tags darauf nur noch +20°C. Wie ist dies zu erklären? Um es vorweg zu nehmen, mit CO2 oder einem menschengemachten Klimawandel wie z.B. auch dem Wärmeinseleffekthat hat dieses ‚Extremwetter‘ rein gar nichts zu tun, sondern einzig, mit ’normalem‘ Wettergeschehen, wie es sich nach jedem Maximum im Hauptsonnenzyklus einstellt. Nach dem Ende des Hauptsonnenzyklus häufen sich meridionale, zu Extremen neigende Großwetterlagen (Nord- Ost- und Südlagen) auf Kosten der meist gemäßigten zonalen Wetterlagen (Westlagen). Das war in diesem „Schaukelsommer 2015“ eindrucksvoll zu beobachten: Mal knallheißes Südwetter, dann windig- kaltes Nordwestwetter mit Bodenfrösten.

In seinem EIKE-Artikel "Sommerhitze 2015 – Klimawandel oder ’normales‘ Wettergeschehen" hat Leistenschneider dargelegt, dass für unser Wetter in Mitteleuropa der Polar Front Jet (PFJ) eine maßgebliche Rolle spielt. Er steuert die “planetarische Frontalzone“ der gemäßigten Breiten. Hier treffen tropische und polare Luftmassen aufeinander, was sich in einem unruhigen Wettergeschehen widerspiegelt. Der PFJ mäandriert mal mehr, mal weniger stark und weist Wellen mit unterschiedlichen Wellenlängen auf, die so genannten Rossby-Wellen und verläuft um den ganzen Globus. Er bildet die barokline Übergangszone zwischen Warm- und Kaltluft. Die Luftmassen können nicht einfach quer über diesen Jetstream hinweg strömen. Eine Vermischung der Luftmassen findet nicht statt. Er hält also die kalte Polarluft von uns fern (Abb.6).

Abb.6 zeigt eine Momentaufnahme des PFJ und der Verteilung von Kalt und Warmluft, sowie die jeweiligen Windrichtungen, Quelle: John Mason. Er steuert primär die Hoch- und Tiefdruckgebiete. Hochdruckkeile kennzeichnen warme, Tröge kalte Luftmassen. Je stärker die Amplitude dieser Wellen ist, umso meridionaler fallen die Luftströmungen aus, und umso stärker sind die Temperaturextreme, weil der ausgleichende Einfluss der von Westen einströmenden maritimen Luftmassen fehlt. Manchmal wird eine solche Konfiguration längere Zeit stabil gehalten (anhaltende Hitze-/Kältewellen), häufiger sorgt jedoch eine mehr oder weniger rasche Ostverlagerung für die bei uns typischen Wetterwechsel. Daher fallen die Temperaturunterschiede jeweils deutlich aus, da sich im Sommer heiße Mittelmeerluft (oder gar aus der Sahara), mit kühler Luft aus nördlichen Breiten abwechselt. (Siehe hierzu auch den Beitrag von Hans-Dieter Schmidt bei EIKE http://www.eike-klima-energie.eu/klima-anzeige/bemerkungen-zu-den-hitzewellen-2015-in-mitteleuropa/)

Der Jetstream bildet sich aufgrund von Druckunterschieden zwischen hohen und niedrigen Breiten. Generell gilt: Je stärker die horizontalen Temperaturgegensätze ausgeprägt sind, desto stärker bläst der Jetstream durch die Atmosphäre. Angetrieben wird er durch die Sonne. Seine Wellenform entsteht durch die unterschiedliche Land-Meer-Verteilung (auch durch hohe Gebirge) und die differentielle Erwärmung der Erdoberfläche. Hinzu kommt die Corioliskraft (ablenkende Kraft durch Erdrotation) und die rücktreibende Kraft (fachlich: Beta-Effekt = Änderung der Corioliskraft in Abhängigkeit der geographischen Breite). Angetrieben wird der PFJ (Welle) durch den zonalen Grundstrom.

Der zonale Grundstrom ist das Mittel der zonalen Windgeschwindigkeit der Westwindströmung. Er ist bedingt durch das Temperaturgefälle zwischen Äquator und Pol. D.h. je größer die Temperaturunterschiede, umso stärker ist der zonale Grundstrom.

Nach diesem Ausflug in die Theorie, zurück zur Praxis. Abbildung 6 zeigt anschaulich, dass die Wellenausprägung des PFJ entscheidend für die Zugbahnen der Luftmassen ist.

Die Wellenausprägung ist indes vom zonalen Grundstrom abhängig. Ist der zonale Grundstrom, der den PFJ antreibt, schwach (geringere Temperaturunterschiede zwischen Nord und Süd), dann mäandriert der PFJ stark (Abb.8). Und bei großen Druck (=Temperatur)-Unterschieden ist seine Amplitude und damit seine Wellenform weniger ausgeprägt (flach, Abb.7).

 

Abb.7 zeigt einen PFJ mit starkem zonalem Grundstrom (vgl.weise hohe mittlere Windgeschwindigkeit) und entsprechend flacher Wellenform. Dies hat zur Folge, dass bei einem Hoch, gemäßigte Warmluft aus Mitteleuropa zu uns gelangt und, wenn die Welle weiterzieht, gemäßigte Kaltluft, die über dem Atlantik erwärmt wurde. Die kleine Abbildung zeigt dazu das Satellitenbild, in dem dieser PFJ-Verlauf gut zu sehen ist, Quelle: www.netweather.tv

Ganz anders bei einem stark mäandrierenden PFJ, aufgrund geringerer Temperaturunterschiede zwischen Nord/Süd (=schwacher zonaler Grundstrom).

Abb.8 zeigt einen über Europa ausgebildeten breitgefächerten PFJ. An seinem Verlauf wird die warme Sahara-Luft direkt nach Deutschland geführt und, sobald der PFJ (=Rossby-Welle) weiter gezogen ist, kalte Luft direkt aus Island, bzw. Nordskandinavien auf direktem Wege nach Deutschland strömt. Quelle: www.wetterzentrale.de

Im Sommer 2015 war genau dies zu beobachten: Ein stark mäandrierender PFJ, der abwechselnd sehr warme Luft aus dem Mittelmeerraum, bzw. der Sahara zu uns führte und dann, sobald die Welle weitergezogen ist und Deutschland im Bereich der Kaltluft liegt, tags darauf, bis zu 20°C kühlere Luft zu uns führte. Dies ist der Grund, für die schnellen und ‚extremen‘ Wetterwechsel, was die Presse dazu veranlasste, ihre Kassandrarufe eines anthropogenen Klimawandels anzustimmen. Wie Sie sehen, hat dies nichts anthropogenem mit Klimawandel, sondern einzig mit normalem Wettergeschehen etwas zu tun!

Wie kommt es nun zu solchen Wetterlagen?

Wie beschrieben, wird der PFJ durch Druckunterschiede zwischen hohen und niedrigen Breiten und durch die Corioliskraft, sowie dem zonalen Grundstrom angetrieben. Die Corioliskraft beruht auf der Erdrotation und ist somit konstant. Anders jedoch die Druckunterschiede.

In einer Erwärmungsphase erwärmen sich die polaren Gebiete vergleichsweise schneller als die Äquatorgegend. Dies sagen auch IPCC und Co. Jedoch hat dies nichts mit irgend welchen (beliebigen) Klimamodellen zu tun, sondern basiert auf zwei fundamentalen physikalischen Gesetzen:

– Strahlungsgesetz nach Planck

– Abkühlungsgesetz nach Newton

Jeder Körper gibt in einer kühleren Umgebung (die Erde befindet sich im kalten Weltall) Energie in Form von Wärme, bzw. Wärmestrahlung ab. Um einen Körper zu erwärmen, muss demnach zuerst seine Ist-Temperatur (Eist) gehalten werden und anschließend muss er erwärmt werden (Eerw). Für beides ist Energie notwendig. Sie lässt sich aussplitten ist Eist + Eerw (Eist = Halten der Temperatur und Eerw = Erwärmen auf höhere Temperatur).

Sowohl nach Planck (Strahlung), als auch nach Newton (Massen) geben wärmere Körper in gleichen Zeiten mehr Energie ab (verlieren Energie), als kühlere Körper. Um einen wärmeren Körper auf seiner Ist-Temperatur zu halten, ist demnach mehr Energie notwendig, als einen kühleren Körper auf seiner kühleren Temperatur zu halten. Um beide z.B. 1°C zu erwärmen, ist indes die gleiche Energie notwendig. Insgesamt jedoch muss für den wärmeren (wegen Eist) mehr Energie aufgewendet werden.

Dieses mehr an Energie steht jedoch nicht zur Verfügung, weil die Sonne für beide (Polgebiete = kalt und Äquatorzone = warm) immer dieselbe Energie abgibt. Infolge dessen, muss es zwangsläufig in einer Erwärmungsphase zu einer schnelleren Erwärmung der Polgebiete und damit zu geringeren Temperaturunterschieden zwischen hohen und niedrigen Breitenkommen.

Wie Leistenschneider in seiner 8-teiligen EIKE-Dokumentation "Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels" zeigte, basiert die Erwärmung des ausgehenden 20.Jahrhunderts auf der dynamischen Sonne. Solanki et al. konnten nachweisen, dass das Klimasystem der Nordhalbkugel der solaren Aktivität um ca. 11 Jahre nacheilt. In dieser Max-Phase (der Hauptsonnenzyklus, der im Mittel 208-jährige des Vries-Suess-Zyklus und der 35-jährige Brückner-Zyklus hatten 2003, bzw. 2005 ihr Maximum), befinden wir uns temperaturmäßig, so dass der Sommer 2015, mit all seinen Facetten auf die dynamische Sonne zurück zu führen ist.

Wie das schweizerische Fernsehen in seiner Sendung SRF Meteo – Wie der Jetstream das Wetter beeinflusst trefflich darlegte, verursachen schwächere Temperaturunterschiede im Winter für unser Wetter genau das Gegenteil: Die Winter sind kühler und ggf. länger (Abb.9).

 

Abb.9 zeigt im Vergleich, wie geringere Druckunterschiede (wärmerer Norden) für direkte Kaltluftvorstöße nach Mitteleuropa sorgen (rechts). Wogen ein starker Jet (hohe Temperaturunterschiede) gemäßigte Atlantikluft zu uns führt. Vgl. mit Abb.7.Wie beschrieben, hat dies jedoch nichts mit "weniger Eis" (völliger Unsinn), sondern mit dem geringeren zonalen Grundstrom zu tun.

Fazit:

Ob einer solchen Überschrift Sommer 2015 – Die Sonne ist an allem schuld! hätten nicht nur die Großen der Physik, sondern auch unsere Väter und Großväter gefragt, was eine solch banale Aussage soll? Natürlich ist die Sonne an allem schuld, denn sie allein spendet die Energie, die direkt oder indirekt (z.B.: Svensmark-Effekt) unser Wettergeschehen bestimmt. In unserer heutigen Zeit, muss indes Grundwissen wieder neu vermittelt und aufgefrischt werden, da dieses vielerorts einer Glaubenstheorie gewichen ist.

Nein, CO2 hat keinen Einfluss auf unser Wetter- und damit Klimageschehen, dem statistischen Mittelwert des Wetters. Die Sonne bestimmt dies allein. Das, was einige Institute und mit ihr die Qualitätspresse in Bezug anthropogener Klimawandel von sich geben, entpuppt sich alles als Traumbild. Göttliche Eingebungen, die jedoch weniger mit Gott, als vielmehr mit der persönlichen Phantasie der Renegaten zu tun haben: Fernab jeder Realität. Wie die Realität aussieht, zeigt unser Artikel:

Trocken

Verursacher: Die Sonne

Heiß

Verursacher: Die Sonne

Extrem

Verursacher: Die Sonne

Unser heutiges Wettergeschehen fügt sich nahtlos ein in das Wettergeschehen von vor 200 Jahren. Es ist typisch für die klimatischen Bedingungen nach einem Maximum im Hauptsonnenzyklus, der eine mittlere Länge von 208 Jahren hat, d.h. sein letztes Maximum lag gegen Ende des 18.Jhrdts. vor, wie Abb.10 zeigt.

Abb.10 zeigt oben den Temperaturverlauf von Berlin Dahlem und darunter den von München seit dem 18.Jhdt, Quelle, Prof. Ewert. Nach dem Max. im Hauptsonnenzyklus (ca.1797, rote Linie) schwanken die Temperaturen sehr stark und liegen auf vgl. hohem Niveau (rotes Viereck). Genau wie heute. Anschließend ‚beruhigt‘ sich das Wetter und die Temperaturen und die Schwankungsbreite gehen (wegen der nachlassenden solaren Aktivität, blaue Rechtecke) zurück. Genau, wie die Autoren und die NASA* dies auch für die kommenden Jahre erwarten. Das Wetter (Klimageschehen) damals, wie heute, hat nichts mit irgendwelchen sog. Treibhausgasen, wie CO2, zu tun, sondern folgt allein der solaren Aktivität und der sich daraus ergebenen physikalisch-/meteorologischen Prozessen.

* EIKE berichtete darüber: http://www.eike-klima-energie.eu/climategate-anzeige/die-nasa-warnt-die-erde-koennte-in-eine-periode-globaler-abkuehlung-eintreten/

Dass CO2 keinen erkennbaren Einfluss auf Wetter, Klima und Temperaturen hat, sondern die Sonne dies allein beeinflusst, zeigt weiter Abb.11.

Abb.11 schafft Klarheit- auch hier ist die Sonne, über die längere Sonnenscheindauer, der wesentliche Temperaturtreiber 1: Der monotone CO2- Anstieg (obere, grüne Kurve) beeinflusst den Gang der Sommertemperaturen (violett) überhaupt nicht. Das Auf und Ab stimmt indes mit den Schwankungen der sommerlichen Sonnenscheindauer (unterste, gelbe Kurve; enge Verzahnung mit der violetten Kurve) überein. Mehr Sonnenscheindauer bedeutet mehr Wärme. Eine durchschnittliche Wolkenbedeckung von ca. 40% ergibt beispielsweise am Tag eine Kühlung von ca. 17 – 35 W/m2. Dies ist ein vielfaches dessen, was nach Angaben des IPCC CO2 als Strahlungsantrieb (von 1750 – 2005 = 1,6 W/m2) verursachen soll! Und was die Wolkenbedeckung signifikant beeinflusst zeigt Abb.1. Somit schließt sich der Kreis.

Zum Abschluss möchten die Autoren unseren Lesern zeigen, wie die Sonne die Häufigkeit der Nord und Nordwestwetterlagen, also kühleres Wetter bestimmt (Abb.12).

Abb.12: Für langfristige Untersuchungen, ob die Sonnenaktivität die Häufigkeitsverhältnisse der Großwetterlagen beeinflusst, stehen nur die beobachteten Sonnenfleckenzahlen zur Verfügung, welche die solare Aktivität nur sehr grob abbilden. Es deutet sich aber an, dass bei geringerer Sonnenfleckenzahl häufiger die im Sommer sehr kühlen Nordwest- und Nordlagen auftreten (negative Korrelation) Weitere Untersuchungen in diese Richtung sind notwendig.

 

Raimund Leistenschneider – EIKE

Josef Kowatsch – unabhängiger Natur- und Klimaforscher

Stefan Kämpfe – unabhängiger Natur- und Klimaforscher

 

 




Zunehmender atmosphärischer CO2-Gehalt ist der Schlüssel zur Verhinderung von Hungersnöten

Viele hegen Bedenken angesichts der weiter zunehmenden Weltbevölkerung. Sie sagen, dass der Menschheit Wachstum die Ressourcen der Erde erschöpfen wird, was Myriaden von Gefahren heraufbeschwören soll. Wieder erhebt sich die malthusianische Frage: Haben wir die Grenzen unseres Wachstums erreicht?

Bezüglich des Pflanzenlebens lautet die Antwort eindeutig nein. Buchstäblich tausende Experimente haben gezeigt, dass mit steigendem CO2-Gehalt in der Atmosphäre auch die Wachstumsraten fast aller Pflanzen zunehmen, was zu einer großen „Ergrünung der Erde“ führt, welche keinerlei Anzeichen der Abschwächung oder gar des Stillstands zeigt.

Wenn wir den Pflanzen helfen, helfen wir uns

Etwa zur Jahrtausendwende entwickelten und analysierten wir ein Angebot-und-Nachfrage-Szenario für Nahrungsmittel im Jahre 2050 und identifizierten auch die Bedürfnisse von Pflanzen, die Grundlage von 95% aller Nahrungsmittel der Welt sind, und projizierten historische Trends der Produktivität dieser Ernten 50 Jahre in die Zukunft. Unsere Evaluierung schloss auch die wachstumsfördernden Auswirkungen der CO2-Anreicherung auf diese Pflanzen ein, ebenso wie die projizierten Aussichten auf der Grundlage der erwarteten CO2-Konzentrationen in der Zukunft.

Diese Arbeit zeigte, dass die Weltbevölkerung im Jahre 2050 wahrscheinlich um 51 Prozent über der des Jahres 1998 liegen und über 9 Milliarden Menschen wachsen wird, während die weltweite Nahrungsmittelproduktion nur um 37 Prozent größer sein wird, falls wir uns allein auf vermutete Verbesserungen der Agrartechnologie verlassen. Es besteht allerdings kein Grund zur Furcht: Die Verknappung der landwirtschaftlichen Produktion kann überwunden werden durch den Effekt der Luftdüngung gestiegener atmosphärischer CO2-Konzentrationen.

Um die schlimmen Konsequenzen verbreiteten Hungers und früher Todesfälle während der nächsten Jahrzehnte zu verhindern, wäre es absolut notwendig, wenn man es der CO2-Konzentration gestatten würde, weiter zuzunehmen. Bemühungen, diesen Anstieg durch Verminderung von Emissionen zu verhindern, sind schädlich für zukünftige Gesundheit und Wohlstand der Menschheit.

Wasserprobleme

In Agriculture, Ecosystems & Environment von J.S. Wallace schrieb der Autor: „die fortgesetzte massive und unaufhaltsame Zunahme der Anzahl der Menschen in der Welt sollte als das gesehen werden, was es ist – nämlich die wichtigste globale Änderung, vor der die Menschheit steht“.

Und warum ist das so? Erstens, die projizierte Zunahme der Anzahl der Menschen, die es im Jahre 2050 geben wird, ist gewisser als jede andere derzeit vor sich gehende umweltliche Änderung. Zweitens, diese zusätzlichen Menschen werden großen Mengen zusätzlicher Nahrungsmittel brauchen. Drittens, man wird auch eine entsprechend große Menge zusätzlichen Wassers brauchen, um diese zusätzliche Nahrung anzubauen. Viertens, es gibt kein zusätzliches Wasser.

„Weltweit könnten erstaunliche 67 Prozent der zukünftigen Bevölkerung vor Spannungen bzgl. der Wasserversorgung stehen“, sagte Wallace.

Dies könnte sich in einem unzureichenden Angebot von Nahrungsmitteln niederschlagen. Wallace kommt zu dem Ergebnis, dass wir mehr Nahrungsmittel pro Einheit verfügbaren Wassers erzeugen müssen, falls wir mit der Nachfrage Schritt halten wollen.

Glücklicherweise führen erhöhte Konzentrationen von CO2 in der Atmosphäre zur Reduktion der Wasserverluste von Pflanzen durch deren Transpiration, während gleichzeitig die Pflanzen ihre Photosynthese und die Erzeugung von Biomasse verstärken. Damit wird es der irdischen Vegetation ermöglicht, deutlich mehr Nahrungsmittel pro Einheit Wasser zu erzeugen. Buchstäblich tausende Labor- und Feldexperimente haben genau dies gezeigt.

Jenseits der CO2-Anreicherung

Eine zweite Voraussetzung zur Deckung der Nachfrage nach Nahrungsmitteln zukünftiger Generationen wird es sein, Pflanzen mit effizienteren Photosynthese-Prozessen zu entwickeln. Dies erfordert die ganze Palette an notwendigen Tools, als da wären Züchtung, Genübertragung und synthetische Biologie. Unglücklicherweise erzeugt politische Opposition gegen biotechnisierte Ernten ein schwer zu überwindendes Hindernis für diese erforderlichen Strategien.

Eine dritte notwendige Bedingung, die zunehmende menschliche Population satt zu bekommen, wurde von David Tillman et al. in einem Beitrag im Journal Science aufgezeigt. Tillmann sagt, dass die Umwandlung von Nahrungsmitteln in Biotreibstoffe aufhören muss. Mit begrenzten Wasservorräten und begrenzten Ernten ist die Konversion potentieller Nahrungsmittel in Treibstoff unverschämt und skrupellos, solange gleichzeitig viele Menschen Hunger leiden und eine weitere Zunahme der Bevölkerung anzunehmen ist. Wertvolle Land- und Wasserressourcen werden derzeit in großer Menge zur Erzeugung von Biotreibstoffen verbraucht, was unsere Fähigkeit verringert, die enormen Mengen zusätzlicher Nahrungsmittel zu erzeugen, die wir heute und erst recht in Zukunft für die Menschheit brauchen. Dies treibt die Kosten für unsere Nahrung nach oben und schädigt die ärmsten Menschen der Welt.

Anstatt sich auf ineffiziente Biotreibstoffe und andere sog. Erneuerbare zu verlassen, sollten wir uns darauf konzentrieren, unsere großen Lager von Kohle, Gas und Öl für unseren zukünftigen Treibstoffbedarf zu nutzen. Diese Substanzen sind die am wenigsten teuren Energiequellen, die wir gegenwärtig haben, und deren Verbrauch wird die Kosten erniedrigen für nahezu alles, was gegenwärtig und vor allem in der Zukunft gebraucht wird, Produkte und Dienstleistungen. Der Verbrauch dieser Ressourcen erzeugt das Kohlendioxid, das notwendig ist, um Ernteerträge sowie die Effizienz des Wasserverbrauchs von Pflanzen zu verbessern.

Die Auswirkungen der Anreicherung der Atmosphäre mit CO2 sind absolut notwendig, um unser Ziel zu erreichen, die gegenwärtige und zukünftige Weltbevölkerung nicht hungern zu lassen. Und dies ist ein wirklich moralischer Weg, dem wir alle folgen sollten.

Sherwood B. Idso

Editor’s Note: Sherwood Idso is president of the Center for the Study of Carbon Dioxide and Global Change. Idso received the 2014 Frederick Seitz Memorial Award at the Ninth International Conference on Climate Change, held in July 2014 in Las Vegas. Craig Idso co-authored this paper and is the chairman of the Center for the Study of Carbon Dioxide.

Link: http://news.heartland.org/newspaper-article/2015/08/28/increasing-atmospheric-carbon-dioxide-key-preventing-mass-starvation

Übersetzt von Chris Frey EIKE




Der Mythos der Klima-Kipp-Punkte

Zum Beispiel hat der in Ungnade gefallene Vorsitzende des IPCC R. Pachauri im Jahre 2007 verkündet, dass der Erde nur noch etwa vier Jahre verbleiben, sich selbst zu retten. Die Gefahr: Eine Runaway-globale Erwärmung (Überschreiten von Kipp-Punkten), zu der es seiner Behauptung nach kommen würde durch das beim Verbrennen fossiler Treibstoffe frei werdende CO2. Im folgenden Jahr 2008 hat einer der Hohepriester des Klima-Untergangs, nämlich Stefan Rahmstorf vom PIK eine Graphik erstellt, die den damals beobachteten sommerlichen Eisschwund in der Arktis zeigte (hier). Siehe Abbildung 1:

Abbildung 1: „Beobachtungen“ im Vergleich zu IPCC-Modellen der sommerlichen arktischen Eisbedeckung. Aus: Rahmstorf 2008

Dann im Jahre 2011 hat Rahmstorf öffentlich über einen noch größeren Eisverlust in der Arktis gegrübelt sowie über „zwei Arten von Kipp-Punkten“ (hier). Das IPCC definiert einen Kipp-Punkt als „den Punkt, an dem eine abrupte und irreversible Änderung eintritt“ (hier). Um seine Theorie zu erklären zeigte er eine konzeptionelle Graphik, in der initial ein zunehmender Rückgang des arktischen Eisminimums einen Punkt erreicht, bei dessen Überschreitung der weitere Rückgang zwar langsamer vonstatten geht, aber immer noch zu eisfreien Bedingungen nicht viel später führen wird. Dies ist hier in Abbildung 2 reproduziert:

Abbildung 2: „Kipp-Punkte“ nach Rahmstorf 2011.

Um auch wirklich sicherzustellen, dass seine Leser auch verstehen, von was er sie überzeugen will, behauptete er [Rückübersetzung aus dem Englischen]: „Es gibt keinen Grund, auf irgendein ,eindeutiges‘ Signal zu warten (hinsichtlich des arktischen Meereises)“.

Dann im Jahre 2012 zeigte er anhand der in Abbildung 3 gezeigten Graphik, dass das Eis im Vergleich zu 2008 sogar noch weiter abgenommen hatte, und ließ sich lang und breit darüber aus (rote Linie in Abbildung 3). Der Rückgang schien rapide und unaufhaltsam. Mit Sicherheit sei der Wendepunkt in den Modellen (schwarze Linie) deutlich überschritten. Rahmstorf stellte erneut sicher, dass seine Zuhörerschaft diese Aussage verinnerlichte, indem er sie mit Statements würzte wie [Rückübersetzung aus dem Englischen] „Im vorigen Monat war die Eisbedeckung der Arktis nur etwa halb so groß wie jene im Jahre 1979“ und „die derzeitige Entwicklung zeigt, dass die Eisschmelze viel schneller vor sich geht, als die Modelle prophezeit haben“ und „leider ist das Problem der Eisschmelze bisher völlig unterschätzt worden; und das Eis wird weiterhin immer dünner“. Der gesamte Vortrag findet sich hier: https://vimeo.com/56007848.

Abbildung 3: Screenshot von Rahmstorfs Vortrag im Jahre 2012, bei dem er den weiteren Rückzug des arktischen Meereises zeigte und feststellte: „…die Eisschmelze geht viel schneller vor sich, als die Modelle prophezeit haben“.

Und jetzt in die reale Welt

Im Folgenden möchte ich einen Blick auf ein paar wenige Beispiele jener Kipp-Punkt-Theorie werfen und sehen, was inzwischen daraus geworden ist.

1. Globale Erwärmung & arktisches Meereis

Vor zehn Jahren oder so waren das IPCC und viele „Klima-Modellierer“ in höchster Aufregung: Sie behaupteten, dass sich die Welt in einer Runaway-Überhitzungs-Lage befindet. Sie behaupteten auch den Grund dafür zu kennen: steigende CO2-Konzentrationen in der Atmosphäre.

Trotz des seitdem stetig steigenden CO2-Gehaltes ist der Erwärmungstrend seit über 18 Jahren zum Stehen gekommen. Offensichtlich hat sich die Natur geweigert, Lehren aus Rahmstorfs Vortrag und den IPCC-Prophezeiungen zu ziehen, wären wir doch anderenfalls jetzt schon gebraten worden.

Dieser „Klima-Kipp-Punkt“ war den PIK-Modellen zufolge besonders offensichtlich im dafür „empfindlichsten Gebiet“, nämlich der Arktis. Falls man Rahmstorfs Graphik aus dem Jahr 2008 (Abbildung 1) mit seiner aktualisierten Version aus dem Jahr 2012 (Abbildung 3) vergleicht, könnte man wirklich dieser Theorie verfallen. Tatsächlich hat Rahmstorf sogar behauptet, dass „die Eisausdehnung viel rascher abnimmt als von den (damals aktuellen) Klimamodellen prophezeit“. Um den drohenden Zeigefinger noch stärker wackeln zu lassen, fügte er noch hinzu: „Und es wird dünner“. Falls dieses Statement nicht allen klar machte, dass man sich bereits jenseits eines Kipp-Punktes befand, dann weiß ich nicht, wie man das noch machen sollte.

Aber wieder einmal hat die Natur nicht darauf gehört. Während der letzten Winter und Sommer näherte sich die Eisausdehnung im Norden wieder immer mehr den Normalwerten an (Abbildung 4):

Abbildung 4: Meereisausdehnung auf der Nordhemisphäre 2005 bis 2015. Quelle: Danish Met. Inst.

Vielleicht sollten wir jetzt einmal in „der Arktis“ etwas weiter nach Süden schauen, um ein besseres Bild zu erhalten, zum Beispiel auf die Großen Seen in Nordamerika.

2. Die Großen Seen

Nun, ich persönlich glaube nicht, dass die Süßwasser enthaltenden Großen Seen Teil der Arktis sind, obwohl es dort im Winter ziemlich kalt werden kann (und manchmal sogar im Sommer). Betrachtet man jedoch die Definition für arktisches Meereis, liegt die geographische Breite der oberen Großen Seen (Oberer See, Huron- und Michigan-See) sicherlich innerhalb der Breitengrade von Messungen des arktischen Meereises.

Wie auch immer, der Wasserspiegel der Großen Seen wurde seit über 150 Jahren aufgezeichnet, und solche Aufzeichnungen sind verbreitet verfügbar.

Beginnend um das Jahr 1980 war der Pegel des Huron- und des Michigan-Sees immer weiter gestiegen, bis er im Jahre 1986 einen neuen Höchststand während dieser 150-jährigen Aufzeichnungen erreichte (Abbildung 5). Viele Grundbesitzer an den Ufern der Seen fürchteten damals, dass ein „Kipp-Punkt“ gebrochen worden war und forderten die Regierung(en) auf, „etwas zu tun“.

Abbildung 5: Höchstwasserstand des Huron-Sees im Jahre 1986 und das nahe dem Rekord liegende Minimum des Jahres 2001.

Natürlich brauchen Regierungen eine Weile, um auf neue Situationen zu reagieren, und so taten sie eine Anzahl von Jahren lang überhaupt nichts, um dieser Krise zu begegnen. Aber schließlich brauchten sie auch nichts zu tun; die Natur hatte ihre Meinung geändert und sich entschlossen, den Wasserstand selbst zu erniedrigen. Bis zum Jahr 2000 hatte der Wasserstand drastisch abgenommen und lag um fast zwei Meter unter dem Niveau des Jahres 1986. Dort verharrte er auch für rund ein Dutzend Jahre. Tatsächlich wurde im Jahr 2012 ein neues 150-jähriges Allzeit-Rekordminimum erreicht.

Unnötig zu sagen, dass all die Menschen, die von der Regierung gefordert hatten „etwas zu tun“ gegen den vermeintlichen „Anstieg für immer“, Mitte der achtziger Jahre die Platte umgedreht hatten und von da an für entgegen gesetzte Maßnahmen der Regierung eintraten, nämlich den Rückgang zu stoppen [„Stop the Drop“]. Große „Stop the Drop“-Banner konnte man an allen möglichen Orten rund um den ganzen See sehen. War jetzt etwa ein anderer „Kipp-Punkt“ erreicht oder gar überschritten worden? Für Viele sah es so aus.

Und gerade als alle davon überzeugt waren, dass die Pegelstände der Seen aus den siebziger Jahren nie wieder erreicht werden würden, hat Mutter Natur ihre Meinung erneut geändert. Zwischen 2013 und diesem Jahr 2015 sind die Pegel beider Seen ruckartig um 1 m hoch geschossen und liegen derzeit 1,2 m über dem Rekord-Minimum. Tatsächlich liegen sie jetzt wieder viel näher am Rekord-Höchststand der achtziger Jahre als am Rekord-Tiefststand des Jahres 2012 (Abbildung 6):

Abbildung 6: Pegel des Huron-Sees im Jahre 2015, wieder einmal deutlich über dem vieljährigen Mittel.

Alles, was die Natur liefern musste, war die reguläre Menge Regen und Schnee sowie ein paar kalte Winter hintereinander ohne viel Wind. Falls Sie sich fragen, wie davon der Pegel in den beiden Seen abhängt, siehe den folgenden Abschnitt 3. Falls Sie da sicher sind, können Sie gleich zu Abschnitt 4 springen.

3. Eiswürfel

Eiswürfel im Gefrierfach gefrieren von außen nach innen, nicht umgekehrt. Die Luft im Tiefkühlgerät muss unter dem Gefrierpunkt des Wassers liegen, wenn das passieren soll. Mit Seen ist es das Gleiche. Liegt die Temperatur unter dem Gefrierpunkt, besteht die Tendenz, dass sie zufrieren – es sei denn, dass wärmere Tiefenwasser (4°C) durchmischt sich mit dem Oberflächenwasser und verhindert das Gefrieren. Bei tiefen Seen wie dem Oberen und dem Huron See (maximale Tiefe jeweils 406 bzw. 229 m) ist eine enorme Menge latenter Wärme in jenem relativ warmen, aber dennoch recht kalten Wasser gespeichert. Eine schwache Brise reicht schon aus, um die Wasseroberfläche genug zu durchmischen, so dass sie nicht gefriert.

Ist es jedoch windstill UND kalt, bildet sich über Nacht eine Eisschicht. Noch ein paar Tage und Nächte mit diesen Bedingungen, und es passiert. Der gesamte See friert zu und bleibt auch zugefroren während der nächsten Wochen oder Monate. Ohne schweren Sturm oder das Eis brechenden Schiffsverkehr (wie es im arktischen Sommer der Fall ist, siehe meinen Beitrag zuvor hier), verringert diese Eisschicht die Verdunstung auf einen Bruchteil des Normalen.

Grund hierfür ist die große Differenz zwischen dem Dampfdruck der Wassermoleküle an der (nicht gefrorenen) Wasseroberfläche und kaltem Eis. Im Winter ist der Feuchtegehalt der Luft nur sehr gering. Aus diesem Grunde müssen die Menschen ihre Wohnungen befeuchten, um nicht gesundheitliche Schäden zu erleiden. Ohne diese Luftbefeuchtung wäre man das Ziel elektrostatischer Entladungen bei jedem Schritt; das kann ziemlich lästig werden.

Aber zurück zu Wasser und Eis. Zur Verdunstung von Wassermolekülen von jeder Oberfläche muss Verdunstungsenergie zugeführt werden. Über einer offenen Wasserfläche wird das sehr leicht bewerkstelligt (bei 0°C) durch das wärmere Wasser in tieferen Schichten. Im Gegensatz dazu kann ein schlechter Wärmeleiter wie Eis diese Energie nur aus dem Eis unmittelbar unter der Oberfläche beziehen und nur mit einer deutlichen Verspätung aus dem Wasser unter dem Eis. Zusammen mit dem viel geringeren Dampfdruck über kaltem Eis führt dies zu deutlich weniger Verdunstung aus dem See in einem kalten Winter mit einer Eisdecke. Die Größenordnung dieser Differenz kann erstaunlich sein und bis zu 0,5 m betragen. Um diesen Betrag kann der Pegel in einem milden Winter ohne Eisbedeckung unter demjenigen eines kalten Winters mit vollständiger Eisbedeckung liegen.

Ich gebe zu, das ist nicht besonders eingängig, aber nichtsdestotrotz wahr. Natürlich können Menschen, die die Eskapaden der Natur in einem lauschigen „Klimabüro“ modellieren, es schwierig finden, dies ihrem Super-Computer klar zu machen; vielleicht würde eine (permanente) Verlagerung in die reale Arktis dem abhelfen.

4. Kipp-Punkte – Theorie und Praxis

Die Gurus, die uns vor den Klima-Kipp-Punkten gewarnt und eine Runaway-Erwärmung vorhergesagt hatten sowie vor schmelzendem Eis, steigendem Meeresspiegel und so weiter einschließlich der Idee vom Kipp-Punkt waren alle ziemlich zurückhaltend bei der Frage, welche numerischen Werte sie genau als die Kipp-Punkte hinsichtlich dieser oder jener Messungen betrachteten. Tatsächlich habe ich den Verdacht, dass sie es selbst nicht wussten – und dies aus gutem Grund – da es bei Dingen wie Temperatur, Eisausdehnung usw. keine Kipp-Punkte gibt. Dabei handelt es sich um physische Messungen auf der Erde in großer Vielfalt, die sich erheblich an jedem gegebenen Ort und in kurzer Zeit ändern können. Es gibt keine Punkte ohne Wiederkehr bei derartigen natürlichen Variationen, von denen viele große Amplituden und längere Zyklen aufweisen können.

Beispiel: zur gleichen Jahreszeit (Ende August) änderten sich im Laufe der Jahre die Bedingungen am Wohnort eines Freundes weiter nördlich von nahe dem Gefrierpunkt bis über 30°C, von absoluter Windstille zu heftigen Stürmen, von üppig grünen Pflanzen bis zu schweren Dürren, in denen die Ahornbäume infolge Wassermangels ihr Laub abwarfen und sich die Blätter von Eichen am Stamm einrollten, obwohl sie noch grün waren – und einer Änderung des Pegels von einem 150-jährigen Höchststand zu einem 150-jährigen Tiefststand . Bei all jenen Extremen über viele Dekaden habe ich kein einziges Mal einen Kipp-Punkt ausmachen können, von dem ab keine Rückkehr zu längerfristigen Normalwerten oder gar der entgegengesetzten Extreme mehr möglich war.

Wie schnell die Natur ihren Kurs ändern kann, zeigte sich vor nicht allzu langer Zeit auch in Australien. Nach Jahren mit einer Niederschlagsmenge unter den Normalwerten hatte das Great Artesian Basin Grundwasser-Becken den größten Teil seines Grundwassers verloren. Dann gab es während der Jahre 2011 und 2012 so viel Regen, dass das Reservoir vollständig wieder aufgefüllt wurde und für viele weitere Jahre reicht*. Natürlich war jenes Wasser zuvor aus den Ozeanen verdunstet, und es gab Behauptungen, wonach dadurch der Meeresspiegel um 7 mm gesunken war. Man kann auch auf ältere historische Ereignisse zurückblicken, zum Beispiel die Jahrzehnte langen Dürren im Südwesten der USA, die viele der Pueblo-Kulturen zwang, ihre lange bewohnten Bauwerke aufzugeben. Seitdem gab es in diesen Gebieten wiederholte Zyklen nasser und trockener Bedingungen.

Mit anderen Worten, die gesamte Kipp-Punkt-Theorie ist absoluter Blödsinn.

[*Gleiches geschah im Jahre 1976 in Mittel- und Westeuropa. Namentlich in Südengland ist „The Draught of ’76“ in unguter Erinnerung. Von Mai bis Ende August war buchstäblich kein Tropfen Regen gefallen, was in England, wo das Wasser gleich über die Klippen ins Meer fließt, ziemlich dramatische Auswirkungen hatte. Der sprichwörtliche englische Rasen war gelb (mit grünen Flecken irgendwelcher Unkräuter. Die russische Botschaft hatte trotz Verbotes den Rasen im Garten der Botschaft gewässert und ist prompt zu einer Strafzahlung verurteilt worden – die man dem Vernehmen nach auch bezahlt hat. Dann – von September bis Jahresende gab es dort mehr als die dreifache Regenmenge wie üblich. Häuserwände wurden durchnässt, und allgemein betete man in der Vorweihnachtszeit, dass der Regen doch bitte endlich aufhören möchte. In der Stadt Brighton ist die gesamte Trockenheit des Sommers in diesen vier Monaten noch überkompensiert worden, so dass das ganze Jahr 1976 noch zu nass ausgefallen war. Anm. d. Übers.]

Link: http://canadafreepress.com/article/74862

Übersetzt von Chris Frey EIKE