1

Pinocchiopresse? Lügenpresse? Die deutschen Medien und ihre „Klimakatastrophen“

Der Klimarat IPCC wird von allen Medien und der Politik als verbindliches Sprachrohr der Klimaforschung angesehen. Das IPCC gibt im Abstand von 5-7 Jahren Berichte heraus, in welchen es den neueste Stand der Klimaforschung zu dokumentieren sucht (hier, hier, hier, hier) – zuletzt 2013/14 (AR5).

Darüber hinaus wird auf einer abschließenden IPCC-Konferenz ein Summary for Policymakers (SPM) zusammen geschrieben. Diese Texte werden nicht mehr von den IPCC-Wisenschaftlern der ausführlichen Einzelteile der Assessment-Reports (ca. 3000 Seiten) geschrieben, sondern im Wesentlichen von Regierungsvertretern, NGO’s und einigen auf dem poltischen Mainstream eingeschwenkten Wissenschaftlern. 

Dabei bemerkenswert:

Die sachlichen und zum Teil sehr vernüchternden und einem Alarmismus gegenüber kritischen IPCC-Original-Aussagen werden im SPM bis zur Unkenntlichkeit verändert, verstümmelt oder ganz weg gelassen!

Dazu ist jüngst eine aktuelle Kurz-Gegenüberstellung publiziert worden:

IPCC 2014 : "Synthese" kontra Messungen und Fakten

(http://tinyurl.com/pjosarx + http://tinyurl.com/okd6mzu u. PDF-Anlage)

Die grundlegenden Fragestellungen zu alledem sind:

(1) Nehmen in jüngster Zeit Extremwetterereignisse (in Klimazeiträumen) zu ?

(2) Hat der Mensch einen Einfluss auf Extremwetterereignisse ?

Zu (1) Mehr Extremwetter ?

Dazu ist in den IPCC-Original-Brichten zu lesen:

Über tropische Stürme und Hurrikane

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Über tropische Zyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

“Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

Über außer-tropischeZyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

“Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Über Dürren

[IPCC 2013, AR5, WGI, Technical Summery, Seite 50]:

”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

“Es besteht ein geringes Vertrauen im globalen Maßstab beobachteten Trend an Dürre oder Trockenheit (Mangel an Niederschlag), aus Mangel an direkten Beobachtungen, Abhängigkeiten von abgeleiteten Trends auf der Indexauswahl und wegen geographischer Unstimmigkeiten in den Trends.“

sowie

in [IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

"Zusammenfassend kommt die aktuelle Bewertung zu dem Schluß, daß es zur Zeit nicht genug Hinweise und [nur] ein geringes Vertrauen in einen beobachteten globalen Trend an Dürre oder Trockenheit (Mangel an Niederschlägen) gibt, aus Mangel an direkten Beobachtungen in der Mitte des 20. Jahrhunderts, geographischen Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends auf der Indexauswahl. Auf Basis aktualisierter Studien waren die AR4-Schlußfolgerungen bezüglich global zunehmender Trends an Dürre seit den 1970er Jahren wahrscheinlich übertrieben. Es ist jedoch wahrscheinlich, daß die Häufigkeit und Intensität von Dürre im Mittelmeerraum und Westafrika sich erhöhen könnte und im Zentrum von Nordamerika und Nordwest-Australien seit 1950 abnehmen könnte."

Zu Überflutungen

[IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

“Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“

Über Hagel und Gewitter

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

"Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung."

Und schließlich fasst das IPCC zusammen

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers (hier) fehlen!

Damit ist anhand der wissenschaftlich gehaltenen und damit allein maßgebenden IPCC-Aussagen absolut klar:

Extremwetterzunahmen im jüngsten Klimazeitraum sind nicht auffindbar von den Wetterdiensten.

Zum gleichen Ergebnis kommen zwei deutsche Hochschullehrer, die dazu ein ganzes Buch geschrieben haben:

H. Krauss* u. U. Ebel: Risiko Wetter, Springer (2003); 250 S., zahlr. Abbildungen

)* Professor Helmut Kraus war weltweit anerkannter Ordinarius für Meteorologie an der Universität Bonn.

Zu (2): Anthropogenen Einfluss auf Klima-Ereignisse?

Für die in den Klima-Modellen prognostizierte Erwärmung ist die so genannte Klima-Sensitivität des CO2 entscheidend. Sie beschreibt die hypothetische Erwärmungsrate (global gemittelt) in Grad bei CO2-Verdoppelung. Ist sie groß, besteht evtl. Gefährdung, ist sie klein, dann nicht. Interessanterweise ist der Wert dieser Klimasensitivität aber bis heute der Wissenschaft unbekannt bzw. umstritten. Genau das steht sogar im jüngsten IPCC-Bericht (2013/14), Summary for Policymakers, SPM auf S.16 als Fußnote (hier): "No best estimate for equilibrum climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies".

Für die Klimasensitivität kann keine Abschätzung angegeben werden, weil keine wissenschaftliche Übereinstimmung über ihren Wert an Hand von Evidenz und Studien vorliegt.

Daraus folgt zwingend, dass alle diskutierten "Klimaschutzmaßnahmen", die aktuell in Paris für Wirbel sorgen, auf einem unbekannten Zahlenwert  beruhen. Absurder geht’s nimmer. Die Welt hat wahrlich andere Probleme als sich mit einem fiktiven Problem zu beschäftigen, dessen Stärke unbekannt ist.

Dennoch fabulieren hierzulande Professoren als wissenschaftliche Clowns über ein 2-Grad-Ziel (http://tinyurl.com/nvkyft7) . Man befragt sie in den deutschen "Qualitätsmedien" fast im Wochentakt zu ihrem sachlichen Quatsch. Einer dieser Clowns steht wohl schon kurz vor der Seligsprechung durch den Papst.

Wenn uns ein Energieberater erzählen würde, dass unser Wohnhaus brennt, nur weil sich die Lufttemperatur auf Grund der anthropogenen Erwärmung um 1 Grad °C erhöht hat, dann würde man ihn unsanft vor die Tür setzen. Ein WGBU-Mitglied als Berater der Bundesregierung (Prof. Hans-Joachim Schellnhuber) darf dagegen von Selbstverbrennung faseln, nur weil seit Beginn der Industrialisierung die global gemittelte Lufttempertaur um 0,7 °C angestiegen ist.

Bei alledem ist noch zu berücksichtigen, dass der Klimarat IPCC in seinem jüngsten Bericht darauf hinweist, dass  es – seit mittlerweile mehr als 15 Jahren – keine Erwärmung mehr gibt [IPCC 2013/14, IPCC, AR5, Climate Change 2013: Technical Summary, p.61]:

"… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series".

"… 15 Jahre Hiatus in den beiden Zeitreihen CMIP5 und GMST ist allgemein bekannt" (Wir lassen "Hiatus = Pause" stehen, weil mit dieser Wortwahl das IPCC suggerieren möchte, die vorangegangene Erwärmung gehe irgendwann weiter, es handele sich also nur um eine Lücke.)

Man kann natürlich die vorstehend aufgeführten Fakten und Messungen durch "Glauben" ersetzen, indem man sich den meisten Journalisten und Politikern anschließt, deren natürlicher Feind die naturwissenschaftliche Wahrheit anhand von Messungen ist (Im deutschen Journalismus gibt es auch löbliche Ausnahmen, stellvertretend hier). Musterbeispiele für Ausblendung der Fakten sind die Bundesumweltministerin Barbara Hendricks (gem. ihrer Promotion Sachverständige für "Margarinefragen am Niederrhein") sowie auch die  Bundeskanzlerin Angela Merkel, die ihre naturwissenschaftliche Vorbildung anscheinend komplett über Bord geworfen hat und mit niemandem, der anderer Klimameinung als sie ist, zu diskutieren wünscht (hier): Dieses kann man durchaus als ein zusätzliches Musterbeispiel gegen Bürgernähe und gelebte Demokratie anzusehen.

CO2-Einsparungen verursachen in Wirtschaft und Industrie Kosten von hunderten Milliarden Euro. Die Klimawirksamkeit solcher CO2-Einsparungen beträgt sogar in den ungünstigsten IPCC-Szenarien nur unmessbare Temperatur-Minderungen im Hundertstel Grad-Bereich bis zum Ende unseres Jahrhunderts. Darf eine souveräne deutsche Regierung das unter billigender Schädigung der deutschen Wirtschaft und des gesunden Menschenverstandes propagieren ? Jedenfalls – genau das tut sie.

=====================================================

Eine zusammenfassende Übersicht zu "Extremwetter-Trends – JA oder NEIN ?" mit zahlreichen Graphiken findet sich in der PDF-Anlage 1; eine Gegenüberstellung SPM vs. gemessene Realität in Anlage 2.

======================================================

Related Files




Nur noch schnell die Welt retten

Also Finger weg und lieber an ein weniger anspruchsvolles Ziel gehen, zum Beispiel an die Eurorettung (erinnert man sich noch? Da war doch irgendetwas mit Griechenland, lange nicht mehr drüber geredet…). Oder an die Rettung der Menschheit, die ist in Arbeit, scheitert aber derzeit an den vorhandenen Kapazitäten.

Was bleibt? Die Klimarettung.

Und so sitzen sie wieder einmal zu Tausenden beisammen, die „Entscheider“ aus aller Welt, hinterlassen in und auf dem Weg nach Paris einen deftigen ökologischen Fußabdruck dank allerhand klimaschädliche Gase absondernden Verkehrsmitteln und der massenhaften Verdauung edler Speisen und produzieren vor allem viel heiße Luft.

Hybris, denkt da der religiös inspirierte oder auch nur naturwissenschaftlich bewanderte Mensch: das Klima ist dem Einfluss des Menschen entzogen, es macht, was es will. Grandiose Selbstüberschätzung, denkt der Geizhals, auch diese Laberkonferenz hätten sie sich sparen können. Klimalügner, denkt manch Skeptiker und sagt es besser nicht laut, denn so ein „Klimaleugner“ ist nicht gern gesehen, schon der Eisbären wegen.

Dabei gibt es so viele Fragen, und über die Antworten sind sich die Wissenschaftler durchaus nicht einig.  Erwärmt sich das Klima auf der Erde wirklich, obwohl das seit fünfzehn Jahren nicht nachweisbar ist? Wurden Daten gefälscht, um zum erwünschten Ergebnis zu kommen?  Wenn es aber wirklich eine globale Erwärmung gäbe – wäre das gut oder schlecht? „Klimawandel“ gab es immer schon, und während des mittelalterlichen Klimaoptimum (ca. 900 bis 1350) ging es den Menschen entschieden besser als während der kleinen Eiszeit (ca. 1600 bis 1700). Hieße „Klimapolitik“ nicht recht eigentlich, sich auf den Wandel des Klimas einzustellen?

Woher stammt überhaupt die These, dass es höchstens eine durchschnittliche Erwärmung von zwei Grad geben dürfe, sonst – was? Der deutsche Klimapapst Hans Joachim Schellnhuber, Direktor des Potsdamer Instituts für Klimafolgenforschung, rühmt sich, „Vater des Zwei-Grad-Ziels“ zu sein – wie kommt er auf die Zahl? Hat er sie ausgependelt? 

Schließlich, und das ist natürlich die wichtigste Frage: Gibt es einen für die mögliche Erwärmung ursächlichen Faktor? Kandidaten sind die Sonnenaktivität und El Nino, ein Wetterphänomen, das mit starken Niederschlägen und Stürmen einhergeht. Der Favorit aber ist und bleibt – der Mensch in seiner ganzen Unersättlichkeit, der die Vorräte an fossilen Energieträgern plündert und damit ein eher harmloses Spurengas produziert, das zu etwa 0,04 % zur Luft beiträgt und das Pflanzen zum wachsen brauchen – „Klimakiller“ Kohlendioxid (CO2).

Die Wissenschaftler sind sich da ganz und gar nicht einig. Für Politiker aber ist die Antwort klar, weil es ihnen auf die Botschaft ankommt, und die lautet: Gefahr droht, Abhilfe muss her, hier kann man „gestalten“ und auf „die Menschen“ einwirken – Mensch, bescheide dich! Schon fühlen sich die idealistische Jugend und der rechtschaffene Bürger an ihrem protestantischen Ethos und dem immerwährenden Schuldgefühl gepackt und rufen zur Einkehr auf.

Das tut man hierzulande gewohnheitsmäßig und gern. Klaglos nehmen die Bürger eine Energie“wende“ hin, die dank einer raffinierten Subventionspolitik zugunsten des ökologisch-industriellen Komplexes unfassbar teuer wird, aber kaum etwas bringt. Der Jubel über den „Ökostrom“ übersieht den Primärenergieverbrauch eines Landes, zu dem sämtliche (fossilen) Treibstoffe gehören. Alles in allem decken die deutschen Windkraftanlagen gerade mal 1,5 Prozent des gesamten Energieverbrauchs ab. 

Ist die Rettung des Klimas also womöglich doch ein wenig komplizierter als eine vernünftige Steuerreform? Und ist es überhaupt Aufgabe einer demokratisch gewählten deutschen Regierung, die Welt zu retten?

Nein, wir wollen der Kanzlerin nicht unterstellen, dass es ihr allein um einen wohlwollenden Eintrag ins Geschichtsbuch geht: „Klimakanzlerin“. Denn Retten ist die Lieblingsbeschäftigung fast aller Politiker. Die Rettung der Menschheit hat ein paar unschätzbare Vorteile: Gattungsfragen sind nicht verhandelbar, unterliegen also nicht der Konkurrenz unterschiedlicher Interessen. Wer auf der Seite der Umwelt/Natur/Frauen/Menschheit steht, muss sich der Parteienkonkurrenz nicht stellen und macht sich unangreifbar. Auch winkt bei Gefahr der übergesetzliche Notstand – nur einer „ethischen Elite“, postulierte Klimapapst Schellnhuber einst, könne man Menschheitsfragen anvertrauen, denn bei „Kernfragen“ müsse man eben auch mal gegen die Mehrheit entscheiden.

In Paris, verkündet Francois Hollande, wird das „Schicksal der Menschheit“ verhandelt. Darüber sind sich alle Anwesenden offenbar einig, ganz egal, ob sie einer Diktatur oder einer anderen Regierungsform vorstehen. Es handelt sich also recht eigentlich nicht um eine Klimakonferenz, sondern um ein systemübergreifendes Versöhnungsprojekt. Denn wenn es um die Rettung der Menschheit geht, muss man auch mal gegen die Menschen handeln.

 ACHGUT http://www.achgut.com/dadgdx/index.php/dadgd/article/nur_noch_schnell_die_welt_retten




Präsident Obamas Vortrag in Paris steckt voller Unwahrheiten

Obamas Rede ist gespickt mit Unwahrheiten.

Im Gegensatz zu dem, was Präsident Obama in seiner überlangen Rede in Paris von sich gegeben hatte, verschluckt das Meer keine Dörfer, geschweige denn ganze Inseln; Gletscher schrumpfen in keiner Weise schneller als vor dem Jahr 1970; und nur sehr wenige Menschen siedeln sich in höher gelegenem Gelände an, um dem durch die globale Erwärmung steigenden Meeresspiegel zu entkommen. Der Klimawandel ist in keiner Weise auch nur ansatzweise eine weltweite Bedrohung – sehr wohl sind es aber Klimawandel-Konferenzen.

Paris, die Stadt des Lichts – diesen Spitznamen hat sich die Stadt erworben mit dem frühen Übergang zu Gas als Energiequelle für die Straßenbeleuchtung. Die Stadt richtet gegenwärtig die COP21 aus – oftmals als die UN-Klimawandel-Konferenz bezeichnet – die auf das Ende des Verbrauchs fossiler Treibstoffe abzielt. Über 150 Führer der Welt versammelten sich, um die vermeintliche Erwärmung des Planeten zu verlangsamen.

Man frage irgendjemanden auf der Straße: „Worum geht es bei der großen internationalen Konferenz zum Klimawandel, die derzeit in Paris stattfindet?“ Falls man überhaupt jemanden findet der weiß, dass diese Konferenz stattfindet, wird dieser sagen, dass es darum geht, die globale Erwärmung zu stoppen. Allerdings hat Christiana Figueires, die oberste UN-Klimafunktionärin, am 4. Dezember, also fünf Tage nach Beginn der Konferenz, klargestellt, dass es bei dem Treffen „nicht um Temperatur“ geht – was sie lediglich als ein „Proxy“ bezeichnete. Stattdessen enthüllte sie, worum es wirklich geht: um die „Dekarbonisierung der Wirtschaft“ – womit das Ende des Verbrauchs fossiler Treibstoffe gemeint ist wie Erdgas, Öl und Kohle.

Da ist es kein Wunder, dass die Führer der Welt sich bereits am Eröffnungstag der Konferenz äußern wollten – bevor deren Botschaft durch Bemerkungen wie die von Figueires im Schlamm untergeht. Zu Beginn der Show konnten sie sich eloquent ergehen, anstatt sich wegen des möglichen Scheiterns des Treffens verärgern zu lassen, den viel gerühmten Deal zustande zu bringen. Jedem Weltführer wurden 3 Minuten Redezeit eingeräumt. Alle folgten dieser Vorgabe und hielten sich an diesen Zeitrahmen – außer Präsident Obama. Mit einer unglaublichen Hybris sprach er mindestens fünf mal so lange und ignorierte alle der häufigen Signale, die ihm bedeuten sollten, dass seine Redezeit abgelaufen ist.

Was hatte er so Bedeutendes zu sagen, dass er für seine vorbereiteten Bemerkungen 14 Minuten brauchte?

Es ist doch offensichtlich: Wenn er ehrlich wäre in punkto „Dekarbonisierung“, würde er die gewünschte Kooperation von Ländern wie China und Indien nicht bekommen – die unverändert mit alarmierender Rate neue Kohlekraftwerke bauen (hier) und welche beabsichtigen, sich auch in absehbarer Zukunft auf fossile Treibstoffe zu verlassen. Stattdessen war Obamas Rede gespickt mit Übertreibungen und Verzerrungen wie diese:

Das Meer verschluckt schon jetzt ganze Dörfer

Dieses Statement bezieht sich auf seinen kürzlich erfolgten Trip nach Alaska und beschreibt wahrscheinlich Kivalina – ein Dorf mit Ureinwohnern, das er mit Air Force One überflog. Das Dorf befindet sich auf einer kleinen Sandbank-Insel und kann auf dem Landweg nicht erreicht werden. Von Natur aus ändern sich Sandstrände, Inseln und andere kurzlebige Strukturen fortwährend. Zum Beispiel musste der National Park Service den kultigen Hatteras-Leuchtturm umlagern, weil die Insel sich vom Ozean entfernte. Diese Migration außen gelegener Sandbänke ist seit den letzten 10.000 Jahren im Gange – also schon lange bevor irgendwelches Gerede vom „Klimawandel“ aktuell war.

Trotz des zunehmenden CO2-Niveaus hat sich an der am nächsten gelegene Tidenmeßstation der NOAA in Nome, Alaska, kein Anstieg des Meeresspiegels gezeigt.

Kivalina könnte Schauplatz von Änderungen natürlichen Ursprungs sein, aber nicht wegen fossiler Treibstoffe.

Gletscher schmelzen mit einer in moderner Zeit noch nie da gewesenen Geschwindigkeit

Während seines Alaska-Ausflugs hat Obama den Exit-Gletscher nahe der Ortschaft Seward besucht. Historiker, Geologen, Parkwächter und Glaziologen haben die Entwicklung dieses Gletschers hunderte Jahre lang verfolgt, und das derzeitige Verhalten des Gletschers stellt keine Ausnahme dar. Die Aufzeichnungen belegen, dass sich der Gletscher seit über 100 Jahren zurückzieht. Jedoch lag die maximale Rückzugsrate im Jahre 1918 mit 300 Fuß pro Jahr [ca. 91 m]. Im vorigen Jahr lag diese Rate gerade mal bei 187 Fuß [ca. 57 m]. In der Umgebung des Exit Gletschers, nämlich bei Seward in Alaska gibt es eine Tidenmeßstation, die zeigt, dass der Meeresspiegel gegenwärtig sinkt.

Ganz ähnlich war es in Glacier Bay – welche Obama nicht, Kreuzfahrtschiffe hingegen andauernd besuchen – wo sich der Rückzug vom Spitzenwert um das Jahr 1860 deutlich verlangsamt hat.

Überspülte Gegenden. Aufgegebene Städte. Felder, auf denen nichts mehr wächst

Hier können wir auf der Grundlage späterer Bemerkungen vermuten, dass er sich auf die Koralleninseln im Pazifik bezieht. Allerdings haben J. R. Houston und R. G. Dean 57 Tidenmessungen untersucht: an der Ost- und Westküste [der USA], im Golf von Mexiko, Alaska, den Aleuten und Island. Alle diese verfügen über 100 Jahre lange Aufzeichnungen und zeigen allesamt keine Beschleunigung des Meeresspiegel-Anstiegs zum Ende des vorigen Jahrhunderts. Außerdem bestätigen neue Forschungen eine Beobachtung von Charles Darwin vom Forschungsschiff HMS Beagle aus dem Jahr 1830: Die Korallen wachsen mit steigendem Meeresspiegel einfach mit (hier). Im Juli 2014 erschien im Science Magazine ein Report mit dem Titel „Warming may not swamp islands.” Darin heißt es: „Studien zeigen, dass Atolle gleichlaufend mit steigendem Meeresspiegel wachsen“.

Was seine Bemerkung über „Felder, auf denen nichts mehr wächst“ betrifft – wir haben historische Aufzeichnungen sich ändernder Küstenlinien und aufgegebener Inseln. Ein solches Beispiel findet sich im National Geographic Magazine aus dem Jahr 1897. Daraus geht eindeutig hervor, dass vor dem Bau des Mississippi-Kanals und der Bildung von Deichen und infolge des natürlichen Absinkens des Deltas dieser Fluss in jedem Frühjahr über die Ufer getreten war, was frische Sedimente auf das Land spülte. Der Bau von Deichen beendete diesen Vorgang. Es wird festgestellt: „Es ist den Bewohnern des Mississippi-Deltas gut bekannt, dass große Landgebiete schon vor langer Zeit aufgegeben worden waren als Konsequenz aus Überflutungen mit Wasser aus dem Golf infolge Absinken des Landes“.

Diese drei Beispiele sind lediglich eine kleine Stichprobe der extremen Aussagen, die Obama während seiner 14-minütigen Rede von sich gegeben hat. Sie war angefüllt mit gewaltigen rhetorischen und ängstigenden Statements. Hätte er sich an seinen 3-Minuten-Zeitrahmen gehalten, hätte er vielleicht einräumen müssen, dass Temperatur lediglich ein Proxy ist. Worum es aber wirklich geht, hat Figueires bereits bei COP18 enthüllt: „Es geht um eine vollständige Transformation der ökonomischen Strukturen der Welt“. Anfang diesen Jahres hat sie das Gleiche mit anderen Worten noch einmal gesagt (hier): „Dies ist das erste Mal in der Geschichte der Menschheit, dass wir uns selbst der Aufgabe stellen, bewusst innerhalb eines festgelegten Zeitraumes das Modell der ökonomischen Entwicklung zu ändern, das während mindestens der letzten 150 Jahre vorherrschend war, seit der industriellen Revolution“.

Aber das wäre ziemlich hart den Menschen zu verkaufen, vielleicht nicht beim Treffen in der Stadt des Lichts, sondern dem durchschnittlichen Amerikaner, die nicht nach einer kompletten Transformation der Weltstrukturen trachten – was sehr wie die Ziele des ISIS und deren terroristischer Erfüllungsgehilfen klingt.

Vielleicht ist der Klimawandel, oder genauer die vorgeschlagene Behandlung desselben die größte Bedrohung, vor der die Welt heute steht.

Link: http://www.cfact.org/2015/12/08/fault-found-with-the-facts-in-the-presidents-presentation-in-paris/

Übersetzt von Chris Frey EIKE




Petitessen der Energiewende – „Intelligente Netze“

Wie es ausschaut sind die Pläne zur Einführung intelligenter Netze schon recht weit gediehen: Von Probeläufen und ähnlichen Dingen ist in Vorträgen usw. schon ziemlich konkret die Rede gewesen. Ein solcher Probelauf wird in einer Region zu veranstalten sein, deren Infrastruktur durch eine Vielzahl an Gewerbe und Industrie, nebst Kraftwerksparks und Verteilnetzen mit einer Vielzahl an regenerativen Erzeugungsanlagen geprägt ist, damit ein derartiger Test auch unter guten bis optimalen Rahmenbedingungen durchgeführt werden kann.

Die Kernaufgaben, die Knackpunkte des intelligenten Netzes werden im Verteilnetz zu bündeln, zu regeln und zu kommunizieren sein. Die Stromverteilnetze werden eine komplett neue und eine völlig andere Qualität erhalten, gerade mit Blick auf die sog. „Energiewende“ und die sog. „regenerativen Energien“.

Derzeit speist z. B. eine herkömmliche Solaranlage nur Strom ins Netz ein, d. h., die Tätigkeit der Anlage ist nur auf eine Richtung ausgelegt. Deswegen können und werden sich mehrere Anlagen – z. B. zwei Anlagen in ein und derselben Straße –gegenseitig beeinflussen, stören oder gar blockieren; so etwas wirkt natürlich auch störend auf das Stromnetz zurück.

Dies soll sich mit einer neuen Generation der EEG-Anlagen ändern. Zukünftig werden die Anlagen so konstruiert sein müssen, dass diese Anlagen in der Lage sind Systemdienstleistungen im Verteilnetz zu übernehmen, also nicht nur für das Einspeisen des Stroms bereit zu sein haben, sondern auch Dienste zur Netzstabilität übernehmen müssen. Daraus folgt, dass in Zukunft jede Anlage (ob gewerblich oder privat – dies ist gleich) zum Verteilnetz gehören wird, und Systemdienstleistungen des Verteilnetzes übernehmen soll. Falls dies ein privater Haushalt nicht leisten kann oder will – egal aus welchen Gründen –, so wird dieser Haushalt die nicht geleisteten Dienstleistungen zu bezahlen haben, z. B. dem Netzbetreiber. Anlagenbetreiber, die die Systemdienstleistung erbringen, werden dafür vom Netzbetreiber entlohnt werden. Dies wird auch für einen Haushalt gelten, der vollkommen autark dasteht. Autark in der Beziehung, dass dieser Haushalt nicht nur eine EEG-Anlage betreibt, sondern darüber hinaus auch noch über einen Stromspeicher (Akku) verfügt, so dass der Haushalt tatsächlich zu einer autarken Insel umgewandelt werden kann, aber trotzdem eine Netzverbindung besteht. Auch solche autarken Haushalte werden zumindest die Dienstleistung der „Netzstabilität“ zu berappen haben.

Die EEG-Anlagen in das Verteilnetz zu integrieren wird nur der erste Schritt sein. Peu à peu wird das Procedere ausgeweitet. Die Vielzahl von EEG-Erzeugungsanlagen sollen so zu virtuellen Flächenkraftwerke zusammengefügt werden und sich wie ein konventionelles Großkraftwerk am Netz verhalten. Die Pläne und Gedankenspiele gehen dahin, dass zukünftig jedes moderne Haushaltsgerät ab 800 Watt Teil des Verteilnetzes werden muss und Systemdienstleistungen anzubieten hat – d. h. intelligente Haushaltsgeräte sollen zum Einsatz kommen.

Auch hier gilt dann: Kann dies ein privater Haushalt nicht – unbeschadet der Gründe des Nicht-Könnens –, so muss dieser Haushalt diese Systemdienstleistungen bezahlen. Das Endziel ist es demnach, dass alle privaten Haushalte – nicht nur Handel, Industrie und Gewerbe – in das Verteilnetz integriert werden und nur noch technische Anlagen und technische Geräte (auch in privaten Haushalten) zum Einsatz kommen, die dem Ziel der Netzstabilität dienlich sind. 

Die Rolle des großen Dirigenten wird die „Bundesnetzagentur“ zu spielen haben. Dieser Dirigent wird alle Haushalte – egal ob privat oder gewerblich – zum Verteilnetz einer Region zusammenpressen müssen, damit die vielen und teilweise dann eben auch ziemlich kleinen Mitglieder des Verteilnetzes zielführend miteinander kommunizieren können. 

Mit Blick auf einen künftigen Probelauf folgt daraus, dass alle Netze – vom kleinen Firmennetz bis hin zu großen Flächennetz – in ein regionales Verteilnetz einzubinden sind. Folglich wird es in der endgültigen Praxisphase eine große Anzahl an regionalen Netz-Cluster geben; deren Summe das Stromnetz des Staates sein wird.

Auf den ersten Blick sieht es dann m. E. nur so aus, als ob sich in einem solchen Cluster viele kleine Netze, die miteinander kommunizieren, tummeln werden. Für mich wirkt dies eher so, als ob dann die kleinen und mittleren Netze alle mit der Zeit in diesen großen regionalen Clustern aufgehen werden. Wie viele von den heute ca. 900 kleineren, mittleren und großen Netzen werden dann noch übrigbleiben? Viele sicher nicht; denn die großen Netzbetreiber werden die kleineren – da kein Wettbewerb in den Netzen im eigentlichen Sinne stattfinden kann – so nach und nach einsacken. 

Weiter gesponnen heißt dies mit Blick auf ganz Deutschland, dass von den derzeit gut 900 „Netzbetreibern“ nur höchstens zwei bis drei Dutzend übrigbleiben werden, wenn überhaupt so viele – die vielen kleinen und mittleren Betreiber sind also in einem der Cluster einzudampfen, zu eliminieren. „Wettbewerb“, nach Franz Böhm – einem der Väter der „sozialen Marktwirtschaft“ – das genialste Entmachtungsinstrument der Geschichte, stört sowieso nur. Welcher Politiker möchte – außer in Sonntagsreden – tatsächlichen und funktionstüchtigen Wettbewerb? Im eigentlichen Sinne keiner, deshalb erklärt man den „Wettbewerb zu einer staatlichen Veranstaltung“ und regelt den Wettbewerb zu Tode.

Realisierung

Will eine Regierung dieses Ziel – „intelligente Netze“ – realisieren, so haben die Politiker die Menschen dazu zu bringen, dass diese ihre Privatwohnungen auf moderne Haushaltsgeräte und EEG-Anlagen umrüsten, die systemdienstleistungsfähig sind.

Der einfachste Weg, der m. E. auch wahrscheinlich umgesetzt werden wird, erfolgt über die Kosten. Müssen diese Dienstleistungen richtig teuer durch private Haushalte bezahlt werden, dann werden die Privaten zügig auf moderne Geräte umrüsten – zumindest jene, die sich dies leisten können. Die „reiche Sozialrentnerin“ wird dies finanziell kaum leisten können, also wird diese sicherlich mit vor Begeisterung glühenden Augen die „Systemdienstleistungen“ einkaufen und von einem Leben im „Wohlstand für ALLE“ weiter nur träumen. Schon jetzt mehren sich die Meldungen, dass der Strom für immer mehr Haushalte zum „Luxusgut“ mutiert – z. B. war kürzlich bezüglich einer ziemlich kleinen Dorfgemeinde zu lesen, dass dort mehr als ein Dutzend Haushalte zwangsweise von der Stromversorgung ausgeschlossen wurden. Mitleidige Nachbarn, die einen solchen Haushalt mittels Verlängerungskabel wenigstens mit einem Minimum an Strom versorgen wollten, lernten selbstverständlich die ganze Härte eines deutschen Ordnungsamtes kennen –   Bußgelder waren fällig. Jene subversiven Elemente, welche die Dreistigkeit an den Tag legten und tätiges Mitleid praktizierten, lernten die ganze „Wehrhaftigkeit“ und „Stärke“ des „deutschen Rechtsstats“ kennen – in einem solchen „Rechtsstaat“ kann sich wahrlich jedermann geborgen fühlen. Es ist m. E. davon auszugehen, dass die Einkaufspflicht teurer Systemdienstleistungen aus dem Verteilnetz ein ungeheures Mehr an Berichten einer solchen Art des wohligen Behagens für diesen „Rechtsstaat“ erzeugen wird.

Es ist naheliegend zu vermuten, dass die Stromrechnung eines Endverbrauchers um die Punkte „Systemdienstleistungen“ erweitert werden wird, und zwar in gestaffelter Form, nach der Art der einzelnen Dienstleistungen.

Wird die Stromrechnung dadurch nicht verkompliziert werden? Nein, nur noch etwas komplizierter als die Stromrechnung heutzutage sowieso schon ist, welche ein Stromversorger anhand peinlich genauer Vorschriften des Gesetzgebers seinem Kunden ins Haus zu schicken hat. Heute bereits wimmelt es auf der Rechnung von Umlagen, Abgaben, Steuern und Gebühren, durch die „Otto Normalverbraucher“ oder „Lieschen Müller“ kaum noch durchblicken: EEG-Umlage, Offshore-Haftungsumlage, KWK-Gebühr, Konzessionsabgabe usw. – der Phantasie bei der Auflistung zum Zwecke der „Gebühren für Systemdienste“ sind sicherlich keinerlei Grenzen gesetzt.

Außerdem hat so etwas für die Politiker, die solche Vorschriften erlassen, einen schönen Nebeneffekt. Der Verbraucher schimpft in der Regel über den Kassierer, es wird normalerweise nicht über den Verursacher – für den der Stromlieferant zu kassieren hat – geschimpft. Der „Caissier“ ist der Böse, „l’État“ wird für den Bezahl-Michel nie und nimmer der Böse sein können.

Also kann die Regierung ohne große Umstände auch die Kosten jener Systemdienste per Stromrechnung einziehen lassen. Und ich gehe davon aus, dass dies so kommen wird und der Strompreis für die kWh dann sicherlich, wenn alle Systemdienstleistungen bezahlt werden müssen, bei weit über 50 Eurocent liegen wird

Ergo, diejenigen Stromverbraucher, die das nötige Kleingeld flüssig haben, werden schnellstens auf moderne Anlagen und Haushaltsgeräte umrüsten, um einer solchen Verpflichtung, alle Dienste einkaufen zu müssen, auszuweichen. Die restlichen Verbraucher werden natürlich auch versuchen sich der Dienstleistungs-Umklammerung zu entziehen; dies aber nur eben in der Art, wie sie sich peu à peu eine Umrüstung, eine Erneuerung ihres Haushalts leisten können. Und eine Vielzahl der sog. „sozial Schwachen“ wird aufgrund der finanziellen Lebenslage dem Schwitzkasten der Bezahlung des Großteils jener Dienstleistungen sicherlich kaum entrinnen können. 

Gesetzesnormen – Kommunikation – Sicherheit

Weiter sollte es jedem klar sein, dass schon für einen solchen Probelauf umfangreiche Änderungen der relevanten Energiegesetzes (EEG, EnWG, StromStG etc.) erforderlich sind – erst recht sind diese notwendig, wenn aus dem Probelauf eine Praxisphase werden wird, die dann auch nicht aufzuhalten ist. Alleine das EEG wird sehr komplex zu überarbeiten sein, weil einerseits die „alten Anlagen“ vertragsgemäß noch ungefähr zwei Jahrzehnte laufen und die „neuen, intelligenten Anlagen“ nur peu à peu hinzukommen werden. Und diese neuen Anlagen sind dann im EEG-Gesetz nicht als „nur-einspeisende“ Anlagen zu definieren, sondern als Teil des Verteilnetzes.

Einsichtig sollte es für jedermann sein, dass das ganze Regelwerk eines solchen Procedere ein komplexes Problemfeld umfassen wird, welches von der Politik, nebst ihrer Bürokratie gelöst werden muss. Doch das Agieren der deutschen Politiker und Bürokraten in Sachen „komplexer Probleme“ erinnert mich an eine Rede, die Kurt Biedenkopf zum 100. Geburtstag Franz Böhms gehalten hatte. Biedenkopf sagte damals, dass komplexe Probleme einfache Lösungen verlangen; doch leider würden Politik und öffentliche Verwaltung komplexe Probleme gleichsetzen mit kompliziert, und er (Biedenkopf) habe dann oft den Eindruck, als würde grundsätzlich Komplexität mit Kompliziertheit – auch und gerade bei den Lösungswegen – verwechselt.

Eine Realisierung des „komplexen“ Generalthemas der „intelligenten Netze“ lässt – folgt man Biedenkopf – schlimme Dingen befürchten! Das neue, notwendige gesetzliche Regelwerk für die „intelligenten Netze“ wird derart kompliziert gestaltet werden, dass die Praxis der „intelligenten Netze“ für die zwangsweise Beteiligten – die üblichen „Mitesser“ einmal ausgeblendet – nur furchtbar teuer werden kann.

Außerdem stellt sich vehement die Frage nach der Sicherheit der Kommunikation in solchen komplexen Systemen. Alle Anlagen – und dies wird eine ungeheure Anzahl sein – des intelligenten Netzes müssen miteinander kommunizieren. Wie soll dies erfolgen? Die Kommunikation zwischen den Anlagen kann nur mit Hilfe modernster Informationstechnik erfolgen, sprich; Mittels einer totalen Digitalisierung. Und wie wird die Sicherheit der Kommunikation technisch gewährleistet sein? Eine totale Digitalisierung heißt m. E. aber auch, dass sich die Gefahr von Hacker-Angriffen enorm verschärfen wird. Dabei fallen mir, der ich sicher dv-technisch eine Niete bin, schon allerhand Möglichkeiten an hässlichen Spielereien ein; Spielchen in der Art und Weise, die z. B. damit vergleichbar sind, dass das Navigationsgerät den Kölner Autofahrer nicht heimwärts nach Köln leitet, sondern nach Düsseldorf. Was den professionellen Hackern alles einfallen kann und wird, dies möchte ich mir gar nicht vorstellen. Richtig zu Berge stehen mir die Haare, wenn ich – siehe oben das Stichwort Biedenkopf – noch dazu davon ausgehe, dass die erforderliche elektronische Infrastruktur der intelligenten Netze in Deutschland, aufgrund der komplizierten Vorgaben durch die Politik, sicherlich noch weitaus anfälliger für Hacker-Angriffe sein wird.

Fazit:

Die Wahrscheinlichkeiten von Störungen, Ausfällen usw. im Netz werden m. E. durch die Einführung intelligenter Netze nicht abnehmen, sondern eher höher sein. Die erhöhte Verwundbarkeit durch Hacker-Attacken kann z. B. dazu führen, dass es bei Ausfall irgendwelcher Komponenten und nicht vorhandener Redundanzen (Reserven kosten Geld, es wird schon alles gut gehen) zu einer Kettenreaktion, zu einem Dominoeffekt an Ausfällen mit Chaos etc. kommen kann.

Ein weiterer Nebeneffekt für „Big Brother“ ergibt sich natürlich noch nebenher. Sobald alle Haushalte – oder doch deren übergroßer Teil – ins total digitalisierte Verteilnetz eingegliedert sind, werden die Haushalte noch gläserner werden als bisher sowieso schon.

Anmerkung der Redaktion: Derzeit ist ein Gesetzeswerk in der Beschlussrunde welches vorsieht, dass ab 2017 alle Verbraucher über 6000 kWh per Jahr gezwungen werden auf "intelligente Zähler" umzurüsten. Ab 2020 gilt das dann für alle Verbraucher. George Orwell hat es schon früh gewusst!

Quelle des Biedenkopf-Zitats:

Biedenkopf, Kurt et. al.: Wirtschaftsordnung als Aufgabe: Zum 100. Geburtstag von Franz Böhm. Krefeld 1995, S. 25. Biedenkopf dort auf S. 24.

Related Files




CO2 Konzentration- Neue NASA Mission beweist: Alle Modelle sind falsch!

Ganz im Sinne der allgemeinen Kritik an der Nutzung fossiler Rohstoffe wie Kohle, Erdöl und Erdgas wurde die CO2 Verteilung in der globalen Atmosphäre so modelliert, dass der CO2 Gehalt der industriereichen Nordhemisphäre immer höher war als der CO2 Gehalt der Südhemisphäre mit ihren vielen Regenwäldern. 2006 veröffentlichte die kompetenteste Wissenschaftsorganisation der Welt, die NASA, ein Video[1] über die weltweite CO2 Verteilung in der Atmosphäre. Die rote Farbe bedeutet einen hohen CO2 – Gehalt von 385 ppm, die blaue einen geringen von 379 ppm.

Bild 1 rechts (Diese Supercomputermodellierung erweist sich nun als falsch.)

Vorausgegangen war, dass die erste CO2 Mission der NASA 2006 infolge eines Fehlstarts gescheitert war. Statt gemessener Daten über den CO2 Gehalt der Luft lieferte die NASA als Ersatz eine Supercomputermodellierung eines berechneten Ganzjahreszyklus mit dynamischen Veränderungen des CO2 Gehaltes. Bild 1 zeigt die Werte, die für den 5. April 2006 berechnet wurden.

2014 startete nun die neue Mission der NASA erfolgreich und lieferte erstmals präzise und punktgenaue Analysen des CO2 Gehaltes in der gesamten atmosphärischen Säule von der Erdoberfläche bis in Satellitenhöhe. Im Dezember 2014 wurden die ersten Ergebnisse in einer gemeinsamen Pressekonferenz der NASA und der American Geophysical Union (AGU) der Öffentlichkeit vorgestellt. Die Pressekonferenz, einschließlich der Fragen der Journalisten, sind als Video im Internet verfügbar.

Während in Deutschland über die Ergebnisse praktisch nicht gesprochen wird, werden die Ergebnisse dieser NASA Mission in USA offen diskutiert. Die global wichtigsten Quellen für CO2 Emissionen wurden mit unvorstellbarer Genauigkeit gesucht und gefunden. Entgegen aller rund 40 Super-Computer-Klimamodelle, welche Regenwälder (Amazonas, Kongo) bisher als CO2 Verbraucher betrachtet haben, zu deren Erhaltung weltweit Milliarden-Beträge bereit gestellt werden, sind diese Regenwälder in Wirklichkeit die wichtigsten Emittenten von CO2. Die Industrieländer der Nordhemisphäre mit Ausnahme Chinas fallen dem gegenüber kaum ins Gewicht.

Offensichtlich lehren die neuen Analysendaten nun die Menschheit erneut, dass die Temperatur dem CO2 Anstieg vorauseilt wie im Fall der Datenarchive der Eisbohrkerne. Auch hier ergab die genaue Analyse, dass erst die Temperatur anstieg und erst Hunderte Jahre später der CO2 Gehalt.

Das heutige CO2 stammt also nicht von den Industrieländern, sondern von den tropischen Regenwäldern (rot mit 402 ppm, Westwinddrift beachten). Es ist ganz einfach davon auszugehen, dass die Pflanzen – genau wie die Tiere auch – über 24 Stunden am Tag zur permanenten Aufrechterhaltung des Lebensprozesses mit Hilfe der Energie der Verbrennung mehr CO2 ausatmen, als sie an CO2 verbrauchen, um im Licht der Sonnenstunden ihre Pflanzenmasse aufzubauen.

Folgende Grafik der NASA (Bild 2) stammt aus dem Video[2], welches in der Pressekonferenz gezeigt wurde. Es entlastet die Industrieländer und belastet die Regenwälder. Das ist ein sensationeller Paradigmenwechsel. Die Bäume nehmen die benötigte Kohlensäure mit dem Bodenwasser auf. Der pH – Wert im Regenwaldboden liegt bei 4,5 – 5,5. Der schwach saure pH Wert des Bodens ist bekanntlich überwiegend auf Kohlensäure und auf Huminsäuren zurückzuführen. Die Atmung der Bäume sorgt dann dafür, dass der Kohlensäuregehalt der Waldluft unter 162 Fällen 108 mal größer, 41 mal kleiner und 13  mal ebenso groß ist wie im Freien[3] und dass der Kohlensäuregehalt der Luft 2 cm über der Bodenoberfläche im Mittel stets um das Doppelte, oft fast um das Dreifache höher ist als in einer Höhe von 2 m[4].

Bild 2: (Diese Ergebnisse liefen eine sensationelle, neue Sicht auf die CO2 Emittenten.)

Fazit: Die CO2 Hypothese stimmt weder im Fall der Erwärmung, weil CO2 das wichtigste Kühlmittel der Erde ist, noch stimmt sie bei der Verteufelung der Industrieländer. Kritisches Hinterfragen globaler Behauptungen ist wichtiger denn je!

Hartmut Hüne, Gerhard Stehlik und Theo Eichten

Literatur:


[1] https://www.youtube.com/watch?v=x1SgmFa0r04    
Video Präsentation des „Supercomputer Model der NASA“ von 2006

[2] https://www.youtube.com/watch?v=UYbrSDhTvRU   
Video der Pressekonferenz 2014 von NASA und AGU          
(„First results from NASA’s Orbiting Carbon Observatory OCO 2 Press Conference“

[3] E. Blanck (Herausgeber): Handbuch der Bodenlehre, 6. Band, Springer-Verlag Berlin Heidelberg, Erstausgabe 1930 (ISBN 978-3-662-01877-4), Seite 258, Fußnote 12

[4] Ebenda, Seite 257, Fußnote 12




Auch für den Pariser Klimagipfel gilt: Vorsicht vor Weltrettern -Auf dem Weg in eine weltumspannende Bürokratie

Es folgen drei Radioberichte. Zwei sind wahr. Sie stammen aus der Umweltredaktion von SWR 4, dem Sender, den ich morgens höre und der mir neuerdings sofort die Laune verdirbt. Eine Geschichte ist allerdings von mir erfunden. Raten Sie selbst, welche das sein könnte. Sie alle handeln von der Rettung der Welt, indem wir unser Leben so verändern, dass wir weniger CO2 verbrauchen, jenem Gas, das ausgesucht wurde, um die ganze Welt in Angst und Schecken zu versetzen.

Erster Bericht:  Wir können unsere persönliche CO2-Bilanz wesentlich verbessern, indem wir auf Restaurantbesuche verzichten und stattdessen zu Hause essen. Zu einer Gaststätte müssen wir fahren, was meistens mit dem eigenen Auto geschieht. Das ist unnütze Kohlendioxid (CO2) Erzeugung. Wenn schon in ein Restaurant, dann bitte mit dem Fahrrad oder zu Fuß. Aber auch das ist nicht gut. Ein Restaurant muss geheizt werden, zu Hause dagegen ist es schon warm. Der Gastronom muss zum Markt fahren und die Ware einkaufen. Ein Weg der entfällt, wenn wir selbst kochen. Gaststätten, vor allem gehobene Restaurants können nicht genau einschätzen, wieviel sie verkaufen, so dass sie Lebensmittel, die nicht verzehrt werden, wegwerfen müssen. Eine ganz schlimme unnötiger CO2-Belastung. Einigermaßen akzeptabel sind dagegen Großküchen für Kantinen. Fazit: Restaurantbesuche beschleunigen in unnötiger Weise die Klimaerwärmung.

Zweiter Bericht: Durch sein persönliches Verhalten kann der Mensch beachtliche Mengen CO2 einsparen. Die Ablehnung von Olympischen Spielen in München und Hamburg zeigen, dass die Deutschen die Schädlichkeit des Leistungssportes für das Weltklima erkannt haben. Kohlendioxid ist Bestandteil der Luft. Bei jeder Kalorie, die unser Körper verbrennt, entsteht Kohlendioxid, das wir schlicht ausatmen. Pflanzen nehmen umgekehrt Kohlendioxid auf und brauchen es für die Photosynthese. Ohne CO2 gäbe es weder Pflanzen noch Menschen. Aber: Je nach Aktivität vergrößern wir die CO2-Bilanz, diesem, wie wir täglich hören, giftigem Gas.

Dicke Menschen mit viel Fett haben eine bessere Bilanz als Muskelmenschen. Unsportliche Typen auf dem Sofa haben deshalb die beste Klimabilanz (solange sie nicht den Fernsehapparat einschalten). Selbst bei absoluter Ruhe erzeugt ein Muskelmensch mehr CO2 als eine Couch-Potato. Wie gefährlich die Sportaktivisten für das Klima sind, zeigen zwei Zahlen: Der trainierende Sportler produziert 2040 Kilogramm CO2 pro Jahr, der bewusste bewegungsarme Klimaschoner nur 168 Kilo. Einen, das Gewissen entlasteten Ausgleich können die Sportler schaffen, indem sie weniger Auto fahren. Angaben aus „Zeit online“ (2014), einem dem Klimawandelgläubigen nahestehendes Organ, rechnen vor, dass 100 Gramm CO2 beim Verbrennen von 4,3 Liter Benzin oder 3,8 Liter Diesel entstehen.
Hochgerechnet heißt das: Die 82 Millionen in Deutschland lebenden Menschen produzieren rund 30 Millionen Tonnen CO2 pro Jahr, das sind 10 Prozent, die bei der Industrieproduktion entstehen. Das heißt auch, dass eine Millionen Flüchtlinge, den CO2 Ausstoß in Deutschland deutlich erhöhen. Das heißt wiederum, dass bei einer kontinuierlichen Zunahme der Weltbevölkerung der industrielle CO2-Ausstoss um 10 Prozent gesenkt werden muss, um den Status quo zu erhalten.

Dritter Bericht: Welche Äpfel darf ich zu welcher Jahreszeit essen? Die beste Klimabilanz haben Äpfel zur Erntezeit, wenn ich sie im eigenen Garten oder wenigstens in der engeren Nachbarschaft pflücke. Die Regionalität spielt für die Winterzeit auch noch eine große Rolle. Äpfel schneiden dann besser ab, als Ananas oder Orangen, deren CO2-Bilanz wegen der Transportwege schlechter ist. Aber ab März wird es für die deutschen Äpfel problematisch. Damit sie noch frisch aussehen, müssen sie in gekühlten Hallen gelagert werden – das ist sehr energieintensiv. Auch fallen doppelte Transportwege an. Sie müssen zu und von der Hallen gefahren werden. Dann sind sogar die Äpfel aus Neuseeland, Südafrika oder Chile CO2-wettbewerbsfähig. Wobei ich mich schon wundere, dass der doppelt solange Weg von Neuseeland im Vergleich zu Südafrika keine Rolle mehr spielen soll.

Wie gesagt, eine der drei Nachrichten stammt nicht vom SWR 4. Aber ich könnte noch über ein weiteres Dutzend solcher Horrormeldungen schreiben, mit denen die Radiohörer täglich traktiert werden, und zwar nicht nur vom SWR. Die öffentlich-rechtlichen Anbeter des durch Treibhausgase verursachten Klimawandels laufen gerade zur Hochform auf. Der Pariser Klimagipfel versetzt sie regelrecht in Trance – jedenfalls vergessen sie die Pflicht zur kritischen Distanz, die den Beruf des Journalisten auszeichnen sollte.

Zugegeben: Da treffen sich mehr als 150 Staatsoberhäupter in Paris und alle huldigen den Erkenntnissen der IPCC, jenem „International Panel of Climate Change“, der in Deutschland ehrerbietig als „Weltklimarat“ bezeichnet wird. Staatschefs, wie US-Präsiden Barack Obama, reden von der letzten Chance, die Welt zu retten, der allmächtige Chinese Xi Jinping verspricht CO2-Reduzierungen ab 2030,  der Franzose Francois Hollande überschlägt sich bei den Versprechungen von Aktivitäten, kleine und kleinste Staaten beklagen ihren nahenden Untergang und kein Staatschef bietet mehr als die mächtigste Frau der Welt, unsere Kanzlerin, die Physikerin Angela Merkel.

Wer will da noch eine kritische Frage stellen, ohne Gefahr zu laufen, ein Ignorant, ein Querulant ja ein gefährlicher Akzeptant des drohenden Weltuntergangs zu sein. Er wird mindestens als Lobbyist der Kohle- und Ölindustrie entlarvt oder ganz einfach als Irrer abqualifiziert. Wer kann sich das erlauben? Ein Politiker der Fragen stellt, ob das, was bei uns als Energiewende gefeierte wird, nicht vielleicht ein gewaltiger Schlammassel und pure Planwirtschaft ist? Ein Journalist, der die Widersprüche zwischen den Voraussagen des Potsdamer Instituts für Klimafolgeforschung aufdeckt, das sich jeder öffentlichen Auseinandersetzung verweigert? Als Wissenschaftler, der auf Zuwendungen aus dem von Klimawandel besessenen Behörden und Ministerien angewiesen ist?

Sie halten diese Fragen für übertrieben? Kurz vor Konferenzbeginn in Paris habe ich hier eine Fleißarbeit von Prof. Dr. Friedrich Karl Ewertvorgestellt. In jahrelanger Arbeit hat er herausgefunden, dass eines der beiden Institute, die den IPCC mit Wettertemperaturen beliefert, seine Daten ab 2012 so verändert hat, dass sich ein deutlicher Tempertaturanstieg für den Zeitraum von 1880 bis heute ergibt. Es geht nicht darum, dass Journalisten, Politiker und Wissenschaftler die Erkenntnisse von Ewert ungeprüft übernehmen – aber kein einziger Bundestagsabgeordneter, der Deutschland die Energiewende beschert, hat überhaupt nachgefragt, was an dieser Manipulation dran sein könnte. Keine einzige Zeitung hat ihre Paris-Propaganda unterbrochen und die Ewert-Studie zumindest hinterfragt. Dabei wäre es äußerst lohnenswert und sehr spannend, die Aussagen der Staatschefs und Hintergründe der Allianzen auf dem Klimagipfel von Paris kritisch zu überprüfen.

Angefangen mit dem Friedensnobelpreisträger Barack Obama. Vor ein paar Wochen erlaubte er dem Shell-Konzern in der Arktis nach Öl zu suchen. Die US-Umweltschützer waren entsetzt. Aber Shell will gar nicht mehr bohren. Da oben in Alaska ist das bei den heutigen Ölpreisen zu teuer. Jetzt tritt Obama als oberster Klimaschützer auf und verspricht, dass sich die USA ihrer Verantwortung bewusst seien. Dabei ist eines ganz sicher: Was immer in Paris ausgehandelt wird, werden die Vereinigten Staaten nicht umsetzen, weil es dafür weder im Senat noch im Kongress eine Mehrheit gibt. Erinnerungen an das Kyoto-Protokoll werden wach. Damals wurde der Vertrag vom amerikanischen Vizepräsidenten Al Gore ausgehandelt. In den USA wurde er mit 98 zu Null Stimmen abgelehnt und nie ratifiziert. Das wird jetzt Obama auch erleben.

Xi Jinping, der mächtige Chinese will ab 2030 den CO2-Ausstoß reduzieren. Unklar bleibt: Durch bessere Kraftwerke? Pro Kopf – der Bevölkerung? Durch bis dahin neu entwickelte Nuklearkraftwerke? Die Realität: 2400 Kohlekraftwerke sind weltweit im Bau und in Planung. Davon 368 in China im Bau und 803 in Planung. 297 in Indien und 159 in Planung. Was die im Sozialismus groß gewordene Kanzlerin Merkel offensichtlich nicht begreift: Die erneuerbaren Energien haben erst dann eine Chance, wenn sie ohne Subventionen wettbewerbsfähig sind. Sie glaubt an Staatseingriffe, die Chinesen und Inder in diesem Falle nicht.

Völlig negiert von den deutschen Klimawandel-Aposteln werden die Intentionen der Franzosen, Briten, Russen, Japanern und zum Teil der Amerikaner. Sie singen mit im Kanon der von Menschen gemachten Klimaerwärmung, um den Bau neuer Kernkraftwerke zu rechtfertigen. Was die deutschen Grünen nicht wahrhaben wollen ist die Tatsache, dass es vor allem die Nuklearindustrie ist, die den Menschen gemachten Klimawandel propagiert, unterstützt von der Versicherungs- und Finanzindustrie. Beim G7-Treffen dachten mindestens vier von sieben Staatschefs, als sie sich auf das (lächerliche) 2 Grad Ziel festgelegt haben, an den Bau neuer Nuklearkraftwerke. Angela Merkel bezeichnete das Gipfel-Ergebnis als Erfolg, verschwieg aber wie es zustande kommt. Vor allem der Brite David Cameron will so erreichen, dass er für die neuen britischen Atommeiler Preisgarantien vom bis zum dreifachen des Marktpreises genehmigt bekommt. Und das geht nur mit der Begründung: Nuklearkraft ist CO2 neutral.

Für die Versicherungswirtschaft können über die angeblich zunehmenden Naturkatstrophen gar nicht genug gejammert und berichtet werden. Sie haben dann die Chance umso ungenierter die Prämien zu erhöhen oder einen Ablasshandel anbieten. Wer viel fliegt, beruflich oder als Urlauber, kann dann Versicherungen für arme Drittweltstaaten-Dörfer abschließen. Wie das funktioniert war vor kurzem anhand eines Artikels in der FAZ zu erfahren.

„Peruaner verklagt RWE wegen Klimaschaden“, war die Überschrift – leider auch noch im Wirtschaftsteil. Saùl Luciano Lliuya, ein Kleinbauer in der Stadt Huarez, die zirka 3000 Meter hoch in den Anden liegt, hat entdeckt, dass der deutsche Energiekonzern in Deutschland CO2-schädliche Braunkohlekraftwerke betreibt. Dadurch sieht er seine Existenz bedroht.

Oberhalb der Stadt Huarez schmilzt ein Gletscher, der einen See speist, der wiederum einen Damm zu überfluten droht, was zu einer gewaltigen Katastrophe führen würde. Und genau dafür macht Lliuya jetzt den deutschen Energiekonzern verantwortlich, weil der einen weltweiten Anteil am CO2-Ausstoss von 0,45% habe. Die Klage wird unterstützt von „Germanwatch“.

Nun hätte ich von einer Qualitätszeitung wie die FAZ erwartet, dass sie etwas über die Hintergründe dieser skurrilen Klage erklärt. Ein Kleinbauer aus den Hochanden liest in einer Zeitung, dass es in Deutschland einen Energiekonzern gibt, der auch Kohle verbrennt. Daraufhin entscheidet er sich, dieses Unternehmen haftbar zu machen. Sollen wir das wirklich glauben?

Wahrscheinlich ist der Kleinbauer aus dem abgelegen Huarez Analphabet, oder wenn er Glück hat, spricht er spanisch neben seinem Indiodialekt. Eine deutsche Zeitung hat er sicher noch nie gesehen, von RWE und CO2 ganz sicher noch nie etwas gehört. Da uns die FAZ hier dumm lässt, muss ich spekulieren. Eine der international gut vernetzten Klimakämpfer hat den Bauern aufgetrieben und missbraucht ihn jetzt für einem sinnlosen, aber Publicity-wirkungsvollen Prozess, der es auch prompt in die FAZ schafft. Mit dabei ist „Germanwatch,“ eine Organisation, die vor Jahren schon viel Geld von der Münchner Rückversicherung erhielt und brav die Zunahme der Weltkatastrophen propagiert. Was die Kultusminister der Münchner Rück nie erlaubt hätten, erlaubten sie aber „Germanwatch.“ Die durften in einigen Bundesländern ihre verlogene Klimapropaganda in Schulen abspulen. Ich bin im Besitz solcher Vorträge, die identisch sind mit den Präsentationen der Münchner Rück, die ich auch einmal erleben durfte.

Indem man darauf verzichtet, selbst naheliegende Fragen auch nur zu erwähnen, steigerte sich die Berichterstattung rund um diese Mammutveranstaltung von Paris zu einer einzigen Gehirnwäsche, die in einer regelrechten CO2-Hysterie mündet. 1971 ist der Gletschersee oberhalb von Huarez schon einmal geborsten und hat mit seiner Flutwelle 7000 Menschen begraben. Statt alles daran zu setzen, dass sich diese Katastrophe nicht wiederholen kann, die mit dem Weltklima überhaupt nichts zu tun hatte, wird jetzt selbst diese abgelegene Weltecke in den Anden in Deutschland für den Propagandafeldzug der Klimaerwärmungsprofiteure missbraucht.

Auch die Rolle der Entwicklungsländer auf den Klimakongressen wird nicht hinterfragt. Es stimmt, sie erzeugen pro Kopf weniger Kohlendioxid als die Industriestaaten. Aber die Armut und das politische Chaos hängt nicht mit Klimakatastrophen zusammen, wie es uns eingeredet wird.

Den peinlichsten Vergleich hat sicher unsere derzeitige Umweltministerin Barbara Hendricks benutzt, als sie selbst den Exodus aus den Kriegsgebieten des Mittleren Osten als Folge des Klimawandels umdeuten wollte. Die Armut der Welt ist nur durch die Bekämpfung der Korruption und der Unterdrückung der Menschen zu beseitigen. An Geld mangelt es nie. Wenn zum Beispiel ein afrikanischer Staat nur halbwegs stabile Verhältnisse und eine einigermaßen akzeptable Menschenrechtssituation nachweist, wird er mit Geld und Projekten überhäuft. Statt den Staaten Hilfe bei der Bekämpfung der vorgeblichen Treibhausgas-Erwärmung zu geben, sollten ihnen marktwirtschaftliche Lösungen finanziert werden, die ihre Energiearmut überwindet. Seit den siebziger Jahren habe ich solche Projekte in Filmen vorgestellt. Sie alle scheiterten entweder am Größenwahn der Staaten ( Brasilien, Iran) oder an brutaler Korruption. Jetzt wurde ein neues Vehikel erfunden: Kompensation der Klimaschäden durch die Industriestaaten.

Sollen wir etwa an Indonesien zahlen, weil sie Borneo verbrennen, um Palmölplantagen anzulegen? Dort verursachen die Brände soviel CO2 an einem Tag, wie Deutschland im Jahr einsparen kann. Oder ann Simbabwe, wo ein Machthaber die Ernährungsbasis der Bevölkerung mutwillig zerstört? Oder an Bangladesch, wo eine zunehmend islamische korrupte Regierung jede kontinuierliche wirtschaftliche Entwicklung verhindert? Die Liste ließe sich endlos fortführen.

Ein Beispiel aber will ich noch beschreiben, weil dies zeigt, wie der Klimawandel missbraucht wird. Die letzte Spendensammlung der katholischen Hilfsorganisation Misereor hat den Schwerpunkt: Hilfe für die armen Fischer in den Philippinen. Seit meiner Kindheit habe ich für Misereor gespendet, dies auch meinen Kindern dann weiter vermittelt. Im Jahr 2015 habe ich das beendet. In seiner Broschüre und im Internet zeigte Misereor, dass sich das Meer durch den Klimawandel erwärmt, dadurch die Korallen absterben und so die Fischer keine Fische mehr fangen und sie hungern müssen.

Was stimmt, ist, dass es den philippinischen Fischern vor allem auf den abgelegenen Inseln sehr schlecht geht. Aber mit dem Klimawandel hat das nun überhaupt nichts zu tun. 1986 habe ich für das ZDF einen Film über das Elend der Fischer gedreht. Die Ursache ihrer mickrigen Fangergebnisse war die verheerende Tatsache, dass sie unter Beteiligung des Militärs unter dem Diktator Ferdinand Marcos 92% der Korallenriffe zerstört hatten: mit Dynamit- und Zyanidfischerei. Was fehlte, waren Berater, die ihnen erklärten, was zu tun ist, damit wieder Korallen entstehen, dass sie nicht zu kleinmaschige Netze benutzen dürfen und vor allem, dass Kühlketten gebaut werden müssen, damit der Fisch nicht verrottet, bevor der Fang in die Städte kommt.  Warum braucht selbst die katholische Kirche den Popanz vom Menschen verursachten Klimawandel, um unwissenden und verarmten Fischern zu helfen. Glauben sie dadurch mehr Spenden zu generieren?

Die Klimapolitik des Vatikans ist abgeschrieben vom IPCC und den Klimapropagandisten. Es ist die Übernahme deren Interpretationen von Physik, Chemie, Biologie und Meteorologie. Sie haben keine eignen Wissenschaftler. Nächstes Jahr jährt es der 400sten Gedenktag, als sich der Vatikan das letzte Mal in die Naturwissenschaften einmischte und Galileo Galilei´s Erkenntnisse von der Sonne und der Erde verdammte. Das ist der Kirche nicht gut bekommen. Jetzt hat die Kurie wieder Schwierigkeiten mit der Sonne. Sie glaubt dass der Mensch das Klima verändert, nicht die Sonne. Ob es wieder 400 Jahre dauert, bis sie ihre Meinung ändert? Nur Lügen sollte sie in der Zwischenzeit nicht.

Je länger ich mich mit dem Thema beschäftige, je mehr fallen die Widersprüche auf, entdecke ich glatte Lügen, primitive Panikmache und nackte Geldmacherei – aber keine Antwort auf die Frage: Wird unser Klima global mehr von Treibausgasen oder von der Sonne beeinflusst? Warum wird das Buch der kanadischen Journalisten Donna Laframboise von unseren Abgeordneten nicht gelesen, in dem sie nachweist, wie das IPCC das Märchen von den angeblich 18.000 besten Wissenschaftlern der Welt konstruiert hat. Ist es Faulheit? Verantwortungslosigkeit? Oder ist die Mär vom Menschen gemachten Klima einfach zu verlockend?

Nigel Calder der britische Wissenschaftsjournalist und Ex Herausgeber von New Scientist hat mir vor 17 Jahren gesagt: „Günter, Du wirst sehen, alle Parteien von links bis rechts in allen Industriestaaten werden dieser Manipulation folgen. Zum ersten Mal erhalten sie die Erlaubnis, die Luft zum Atmen zu besteuern und werden dafür auch noch gelobt, weil sie die Welt retten. Diese Chance werden sie sich nicht entgehen lassen.“ Und in der Tat erleben wir seither einen staatlichen Eingriff nach dem anderen in unser persönliches Leben via Verordnungen und Steuern mit der Begründung: Wir müssen die Welt retten.

Abschließend zwei Zitate, die das Spannungsfeld beschreiben, um das es in der Klimadebatte geht.

Der Kanadier Maurice Strong, Initiator des Weltklimarates und erster Chef der UNEP und damit Vorgänger des CDU-Politikers Klaus Töpfer:

„Ist es nicht die einzige Hoffnung des Planeten, dass die industrielle Zivilisation zusammenbricht? Ist es nicht unsere Pflicht, das umzusetzen?“

Dagegen der ehemalige tschechische Präsident Vaclav Klaus 2013 im sächsischen Landtag von Dresden:

„Was ist eigentlich mehr bedroht, das Klima oder die Freiheit? Wir sind Zeugen der Entstehung einer neuen linken Ideologie, die der freien Gesellschaft neue Fesseln anlegt.“

Zuerst erschienen auf achgut.com




Klimakonferenz in Paris – Auf dem Weg in die Weltregierung?

Damals hatte Premier Abbott die ungewöhnliche Entscheidung getroffen, seine Außenministerin Julie Bishop nur gemeinsam mit einem weiteren Minister zur UN-Klimakonferenz von Lima reisen zu lassen, um deren „Umfallen“ zu verhindern. Dann wurde jedoch innerhalb Abbotts Liberaler Partei eine Gegenfraktion unter Malcolm Turnbull aktiv, deren Ziel es war, den eigenen Parteivorsitzenden und Premier noch vor der Pariser Klimakonferenz zu stürzen. Und so geschah es auch: Nach einigen vergeblichen Anläufen kam es 15. September 2015 zu einer fraktionsinternen Abstimmung, bei der der klimaskeptische Abbott mit 54 zu 44 Stimmen unterlag. Entscheidend dafür war die UN-Einflußnahme auf die Medien, was für niedrige Umfragewerte sorgte. Das wiederum löste bei einigen Abgeordneten Ängste vor vorzeitigen Neuwahlen aus, die sie ihren Sitz gekostet hätten. Damit war Abbott Geschichte und Australien folgte wieder der Parteilinie der Sozialistischen Internationale, die alle wichtigen Positionen bei den Vereinten Nationen besetzt hält.

Video nicht mehr verfügbar

 Video der Rede von Lord Monckton in Brisbane in welchem er Sir David King zitiert 

Ganz offensichtlich gehört der britische „Klimabotschafter“ zu den Eingeweihten, denn

am 19. Oktober traf auch der erste Teil seiner Ankündigung ein: Stephen Harper, der ausgesprochen klimaskeptische Premierminister Kanadas, wurde abgewählt. Mit Justin Trudeau, dem Sohn des früheren Premiers Pierre Trudeau, kam einer der Lieblinge des internationalen Klima-JetSets ins Amt, der vom ersten Tag seiner Kampagne an keinen Zweifel an seinem Klima-Alarmismus gelassen hatte. Damit steht er in der Tradition jenes kanadischen Pseudo-Liberalismus, der einst von seinem Vater, einem ehemaligen Maoisten, Ende der 60er Jahre begründet wurde. Es darf daran erinnert werden, daß es gerade kanadische Politiker wie Maurice Strong, David Suzuki oder Trudeau senior waren, die dabei mithalfen, die globalistische Öko-Agenda zu installieren. Auch bei dem neuen kanadischen Außenminister Stephane Dion handelt es sich um einen ehemaligen Umweltminister, der schon die UN-Klimakonferenz von 2005 in Montreal leitete und als fanatischer Klima-Aktivist gilt. Ihm zur Seite stellte Trudeau noch eine Ministerin „für Umwelt und Klimaschutz“. Diese Catherine McKenna stammt zum einen aus jener unübersehbaren Szene von UN-Fußsoldaten, die sich zunächst als unbezahlte Praktikanten bewähren müssen, bevor sie sich auf Schlüsselpositionen austoben dürfen. Zudem war die Juristin an einer UN-Friedensmission beteiligt und vertritt im übrigen genau jene globalistisch-ökologistische Gutmenschen-Agenda, mit der man heute sehr weit kommt. Sie bietet daher einen bemerkenswerten Kontrast zu ihrer konservativen Vorgängerin Leona Aglukkaq, eine Inuit, die in der subpolaren Landschaft des nördlichen Kanada aufwuchs und genau weiß, wie sich echte Naturnähe anfühlt oder wie man eine frisch erlegte Robbe ausnimmt.

Lord Monckton ist nicht der einzige, der glaubt, daß sich hinter dem vorgeblichen Schutz des Weltklimas ein weiterer verdeckter „Vorstoß zur Errichtung einer grün-sozialistischen Weltregierung“ verbirgt. Das sei besonders seit der UN-Klimakonferenz von Kopenhagen (2009) deutlich erkennbar, als ein erster Versuch am Widerstand Chinas scheiterte, dem sich die USA und andere anschlossen. Noch im Vertragsentwurf des UNFCCC für Kopenhagen vom 15. September 2009 hieß es, „der Plan für die neue institutionelle Struktur auf der Grundlage der Konvention basiert auf drei Hauptpfeilern: Regierung, Durchführungsmechanismus; und Finanzierungmechanismus“ (im Original: „The scheme for the new institutional arrangement under the Convention will be based on three basic pillars: government; facilitative mechanism; and financial mechanism”, UNFCCC-Entwurf, Annex 1, Paragraph 38).

Lord Monckton gebührt zudem das Verdienst, als erster noch auf eine andere Gefahr hingewiesen zu haben: „Es besteht die Gefahr, daß sich die Nationen der Welt an etwas binden, aus dem sich nicht mehr herauskommen, was fast alle schnell bitter bereuen würden.“ Denn während der Kioto-Vertrag eine Klausel enthielt, nach der jeder Staat frühestens drei Jahre nach seinem Inkrafttreten durch einfache Mitteilung aus ihm wieder austreten konnte, sei in Paris ein Vertragswerk geplant, in dem eine solche Austrittsklausel fehlt.

Was das UNFCCC (United Nations Framework Conference on Climate Change, die UN-Klimaorganisation) unter „facilitative mechanism“ und „financial mechanism“ versteht, hängt zwar ebenfalls davon ab, was am Ende in Paris beschlossen wird. Bisher sieht es aber so aus, als wären das ebenfalls nur Tarnbezeichnungen für die gerade entstehenden Institutionen und Organisation unter UN-Kontrolle, deren eigentliches Ziel die Zerstörung der privatwirtschaftlich organisierten wirtschaftlichen Basis der westlichen Industriestaaten ist. Wobei sie sich stets auf ihre überall amtierenden willigen Helfer verlassen können: Während „Klimaschutz-“ Maßnahmen von Staaten wie China oder Pakistan darauf hinauslaufen, durch Willenserklärungen das eigene Image zu polieren, planen Obama, Merkel und ihre Geschwister im Geiste unter Zuhilfenahme ihrer Umweltbehörden und des EU-Umweltkommissariates ganz klar die De-Industrialisierung, die euphemistisch als „Dekarbonisierung“ bezeichnet wird. Denn eine Industrieproduktion ohne Verarbeitungsprozesse mit CO2-Freisetzung ist aus physikalischen Gründen nicht einmal denkbar. Bemüht werden daneben auch ideologisch aufgeladene Bezeichnungen wie „Krieg gegen den Kohlenstoff“ und „nachhaltige Wirtschaftspolitik“, die auf das gleiche hinauslaufen. Dazu ließ z. B. die deutsche Bundesregierung eine dubiose „Zukunftscharta“ unter Umgehung der gewählten Parlamente erarbeiten, in der diese und andere Ziele festgeschrieben wurden. Daß es tatsächlich gar nicht um Klima- oder Umwelt-„Schutz“ geht, beweist zudem das peinliche Geständnis amerikanischer wie europäischer Behörden, nach dem die Umsetzung der entsprechenden CO2-Reduktionspläne nur 0,02 Grad weniger globale Erwärmung brächte – eine Größenordnung, die im statistischen Rauschen untergehen würde.

Für besonders schlau hält sich sicher auch der Umweltminister Indiens, Prakash Javadekar, der mehrmals erklärte, die Industriestaaten seien für die angebliche Klimakatastrophe „historisch verantwortlich“. Die im Klimavertrag von Paris vorgesehenen 100 Milliarden (!) Dollar jährlich für Entwicklungsländer – er meinte damit auch die gar nicht so unterentwickelten BRIC-Staaten – reichten daher nicht aus. „Gerechtigkeit“ bedeute hingegen, daß die Industriestaaten den beschlossenen „Green Climate Fund“ zur Förderung des Klimaschutzes vollständig selbst finanzieren müßten. Allein für Indien forderte der Minister Zahlungen in Höhe von 2,5 Billionen Dollar jährlich für die angeblich wegen des Klimawandels erforderlich gewordenen Anpassungs- und Ausgleichsmaßnahmen. Außerdem wurden noch ein „fairer“ Zugang zu westlichen Technologien, Weiterbildungsmaßnahmen und Reparationszahlungen für Klimaschäden gefordert. Zur Erinnerung: Der gesamte deutsche Staatshaushalt beträgt nur etwa 1,3 Billionen Dollar.

Während es also für westliche Industriestaaten darauf hinausläuft, die Industrieproduktion zu drosseln und Milliardenzahlungen an korrupte und nicht demokratisch legitimierte Drittwelt-Regime zu leisten, denkt auf der anderen Seite des Verhandlungstisches absolut niemand an irgendwelche „Grenzen des Wachstums“. So baut China zwar Solarpanele und Windturbinen in die Wüste Gobi, um sie dann westlichen Besuchern vorzuführen. Fast die gesamte chinesische Produktion von Solarpanelen ist bekanntlich für Länder wie Deutschland bestimmt. Was dort aber wirklich zählt, sind die 363 geplanten Kohlekraftwerke. Dieser Kraftwerkstyp liefert nach wie vor 75 Prozent des chinesischen Stroms. Indien wiederum hantiert mit dem Begriff „Emissionsintensität“: Ziel sei angeblich, den CO2-Ausstoß im Verhältnis zum Wirtschaftswachstum zu senken, aber keineswegs die Emissionen insgesamt, denn allein die Kohleproduktion soll bis 2020 verdoppelt werden. Das gleiche findet sich in Pakistan, Vietnam, auf den Philippinen, Japan und anderen asiatischen Staaten. Überall steht der Auf- und Ausbau konventioneller Kraftwerkstypen im Vordergrund. „Grüne“ Technologien finden sich bestenfalls in abgelegenen Regionen, die noch für längere Zeit nicht an die öffentlichen Netze angeschlossen werden können. Dazu paßt, daß es China, Rußland und Indien vor ein paar Monaten sogar ablehnten, eine von der Obama-Administration vorgelegte, nicht bindende Resolution zu unterzeichnen, in der zu besserer internationaler Zusammenarbeit gegen die hypothetische globale Erwärmung aufgerufen wurde.

Daß die Klimakatastrophe nur Vorwand für die politische und wirtschaftliche (Selbst-) Kastration des (halbwegs) freien Westens ist, dürfte schon wegen der schwindelerregenden Höhe der Zahlungen, die unter dem Regime des geplanten Pariser Klimaabkommens vom deutschen Steuerzahler geleistet werden müßten, jedem einleuchten. Doch ausgerechnet die nackten Zahlen der Wetteraufzeichnungen beweisen immer wieder, daß die angekündigte Katastrophe tatsächlich nur in den Computern und Köpfen der klimamodellierenden Besetzer entsprechend gewidmeter staatlicher Planstellen stattfindet. So steigt die durchschnittliche Globaltemperatur – eigentlich ein durch Meßmanipulationen zustande gekommenes Konstrukt ohne jede Bedeutung – seit mehr als 18 Jahren nicht mehr an.

Bezieht man noch sorgfältig ausgeblendete und herausgerechnete Faktoren mit ein, etwa die Zusatzerwärmung durch urbane Wärmeinseln, die Änderung der Meßergebnisse beim Wechsel zu elektronischen Meßmethoden, die Veränderungen auch bei Meßstationen im Freiland oder die selektive Auswahl der einbezogenen Stationen, ergibt sich sogar ein (geringer) Abkühlungstrend, der so überhaupt nicht zu den Computermodellen gewisser Institute passen will. Auch der Anstieg des Meeresspiegels ist weiterhin kaum meßbar und verläuft extrem langsam. Die Anzahl der Stürme und anderer Extremwetterereignisse nahm in den letzten 15 Jahren ab. Unvergessen auch die im letzten antarktischen Sommer geretteten Klimaschützer, deren Schiff von Eismassen eingeschlossen worden war, die ihrer Meinung nach gar nicht existieren durften. Hintergrund sind Rekordeisbedeckungen an den Polen, die einfach nicht schmelzen wollen.

Aufgrund der vielen Gegensätze und Widersprüche häufen sich jetzt die Stimmen, die erklären, die Pariser Veranstaltung werde sowieso scheitern. Selbst der Chef des Potsdam Instituts für Klimafolgenforschung, Hans-Joachim Schellnhuber, glaubt, daß es mit einer Wahrscheinlichkeit von 81 Prozent (!) keinen internationalen Klimavertrag geben wird, während die Chefin des UNFCCC, Cristiana Figueras, weiterhin Optimismus verbreitet. Mag sein. Doch wenn es, wie von Lord Monckton befürchtet, in Wirklichkeit gar nicht um einen Klimavertrag geht? Wäre nicht ein gescheitertes Klimaabkommen eine noch bessere Begründung für ein weltweites Umverteilungsprogramm und eine „Große Transformation“ in kleinen Schritten? Zumal dann auch die Ausgaben für die sich jetzt wieder wie zufällig häufenden Katastrophen-„Studien“ nicht umsonst zum Fenster hinausgeworfen worden wären? Denn es hat sich ja bereits gezeigt, daß sich mit dem Handel von Emissionszertifikaten und anderem mehr sehr viel Geld verdienen und sehr viel Schaden anrichten lassen kann, ohne das auf der Weltebene jede Frage abschließend geklärt worden wäre. Sicher nicht zufällig ist der eingangs genannte und bestens informierte Berufsklimaschützer Sir David King „Wissenschaftsberater“ der Schweizer Investmentbank UBS, während der frühere UNFCCC-Chef Yvo de Boer jahrelang für das Wirtschaftsberatungsunternehmen KPMG „arbeitete“ (um nur zwei Beispiele zu nennen). Zum anderen zeigen schon die Langfristigkeit der globalen umweltpolitischen Agenda mindestens seit dem Bericht des „Club of Rome“ (1972) und die Hartnäckigkeit der nationalen Umweltbürokratien, aus deren Budgets zudem bekanntermaßen der Löwenanteil des Etats der meisten großen Umweltverbände stammt, daß ein Scheitern der Pariser Klimakonferenz keineswegs zu einem globalen Politikwechsel führen würde.

Video nicht mehr verfügbar

Jetzt ist in Paris Halbzeit und sieht danach aus, als wäre die globale Klimaschutz-Lobby gut vorangekommen. So wurde verlautbart, die Industrieländer würden künftig mehr als 400 Millionen US-Dollar an eine so genannte „Klimaschutzversicherung“ einzahlen. Das wird jene Versicherungsgesellschaften freuen, die sich schon im Rahmen der ominösen deutschen „Zukunftscharta“ für ein solches Ziel eingesetzt hatten. Diese stellten am 5. Dezember gemeinsam mit Vertretern der G7-Staaten und grünen Lobby-Organisationen in Paris eine entsprechende „Risikoversicherung“ vor.

Zum anderen wurden anscheinend bereits jetzt Finanzzusagen in Höhe von 100 Milliarden Dollar an „arme Länder“ gemacht, nach dem Motto „viel hilft viel“. Begründet wird das als Kompensationsleistungen der Industriestaaten für Klimaschäden in den Entwicklungsländern. Nur bei den Zusagen für Emissionsminderungen scheint sich wenig zu bewegen. Denn jedes Mal, wenn Regierungen solche Ziele ankündigen, behaupten Öko-Organisationen und Drittwelt-Regierungen, das alles reiche noch immer nicht aus. Zu diesem Poker gehört auch, daß jetzt nicht mehr nur von einem Zweigrad-Ziel die Rede ist, sondern Forderungen nach einem 1,5-Grad-Ziel immer lauter werden. Sämtliche Übereinkünfte sollen zudem nach wie vor von allerlei zu schaffenden „Mechanismen“ – ohne Zweifel global tätige Bürokratien als Vorstufe einer Weltregierung – überwacht und umgesetzt werden. So findet sich etwa im vorläufigen Artikel 7 des Pariser Vertragsentwurfes der verräterische Satz: „Institutionelle Vereinbarungen im Rahmen der Konvention müssen nach Bedarf erweitert werden, um den Ausbau der Fähigkeiten zu fördern, diese Vereinbarung umzusetzen“ („Institutional arrangements under the Convention shall be enhanced, as appropriate, in support of capacity-building for the implementation of this Agreement.“).

Daß es der internationalen Klimaschutz-Lobby ernst mit ihrem Plan eines Weltklimadiktats ist, zeigt sich nicht zuletzt daran, daß selbst der alarmistische Klimaretter-Blog von „brutalen“ Verhandlungen und einer „strengen“ Verhandlungsführung durch den sozialistischen französischen Außenminister Laurent Fabius berichtet. Das konnten auch die sentimentalen wie substanzlosen Auftritte solcher Hollywood-Größen wie Leonardo DiCaprio, Sean Penn oder Robert Redford in Paris nicht verdecken. Läuft tatsächlich alles nach Plan, werden sämtliche Staats- und Regierungschefs der Welt am 22. April 2016, dem „Tag der Erde“, während einer UN-Sitzung in New York ein sogenanntes „Paris Protokoll“ unterzeichnen.




Ausser Sicht: Ozeanographie für Seereisende – eine Buchbesprechung

Den Autor der Buchbesprechung erinnert „Außer Sicht“ an das „Buch der sieben Meere“ von Peter Freuchten (Knaur Verlag), das ihn seine gesamte Jugend begleitet hat und auch später immer wieder einmal erneutes Lesevergnügen lieferte (leider sind derartige wirklich gute Bücher aus den Verlagssortimenten heute verschwunden und nur noch antiquarisch erhältlich). Dammschneiders „Außer Sicht“ kann man vielleicht als das Pendant des Buchs der sieben Meere für Erwachsene mit wesentlich detaillierterer und mehr wissenschaftlicher Behandlung des Stoffs ansehen.

Geschichtliche Fakten wie die großen Seeschlachten, großen Reisen und seltsame Geschichten wie im „Buch der sieben Meere“ sind in Dammschneiders Werk natürlich nicht zu finden, weil sie den noch zumutbaren Buchumfang von „Außer Sicht“ völlig gesprengt hätten und es eben kein Jugendbuch ist. Vielleicht kann Dammschneider ja später einmal eine Version seines „Ausser Sicht“ für Jugendliche schreiben. Es wäre wünschenswert und pädagogisch wertvoll.

Trotz „fehlender Piraten“ werden aber die erwachsenen Leser von „Außer Sicht“ in gelungen unterhaltsamer Weise über den umfangreichen, vielfältigen und zum Teil recht komplexen Stoff unterrichtet, der sich über Geographie, Ozeanographie, Ozeanchemie, Ozeanphysik (ARGO Programm), Wassertemperaturen, Oberflächenströmungen, Tiefenströmungen, unterseeischen Vulkanismus, Rohstoffe, Meereis, Gezeiten bis hin zur Klimarelevanz der Weltmeere erstreckt (Aufzählung nicht vollständig).

All dies erfolgt an Hand einer Kreuzfahrt, die als Themenlieferant dient. Die stets spürbare Bemühung, auch komplexe Themen möglichst anschaulich zu vermitteln, ist gelungen. Anschaulichkeit erfährt natürlich unvermeidbare Einschränkungen, wenn sehr komplexe Themen zur Sprache kommen, wie bespielsweise die Erläuterung all der astronomischen und terrestrischen Prozesse sowie der zahlreichen Randbedingungen, welche die Gezeiten steuern.

Das Buch „Ausser Sicht“ kann der vielen Details wegen in einem Zug wohl nur mit kühnem Übergehen von Einzelheiten gelesen werden, die dann bei Bedarf später nachgeholt werden. „Ausser Sicht“ ist daher sehr wohl auch als Nachschlagewerk geeignet, wenn man sich über ein bestimmtes Gebiet der Ozeankunde vor dem endgültigen Eintauchen in die Fachliteratur näher unterrichten möchte.

Man bekommt beim Lesen Lust, einmal die beschriebene Seereise selber mitzumachen. Über einzelne Kapitel näher zu berichten verbietet sich aus Platzgründen, daher nur stellvertretend zwei Beispiele: Wer außer Fachleuten (zumindest wer südlich der Mainlinie) weiß schon, dass große Teile der Nordsee noch bis vor etwa 8000 Jahren trocken lagen, von Menschen besiedelt wurden und dieses Gebiet, die „Doggerbank“, etwa die halbe Fläche der heutigen Niederlande umfasste? Hunderte Funde von Steinwerkzeugen, Harpunen und menschlichen Knochen belegen die Geschichte am Nordseegrund.  

Als zweites Beispiel wird das Thema „Klimawandel“ EIKE Leser sicher besonders interessieren. Hier betont Dammschneider die maßgebende Rolle der Ozeane. Auch zur Rolle des Menschen auf irgend ein Klima der Erde nimmt Dammschneider in unaufgeregt wissenschaftlicher Sichtweise Stellung, wenn er schreibt:

Auch wenn es nicht der originäre Part des Buches sein kann, muss an dieser Stelle doch auf das Thema Klimawandel eingegangen werden. Es ist schlicht und einfach unvermeidlich, zumindest die grundsätzlichen Hintergründe kurz darzustellen. Denn „Klimawandel“ ist, mit seinen tendenziellen Veränderungen der atmosphärischen Zirkulation und vor allem der zu erwartenden globalen und auch regionalen Temperaturentwicklung, die mit Abstand mächtigste potentielle Einflussgrösse auf die „Physik der Ozeane“ … nicht zuletzt und logischerweise für jene der Wassertemperaturen. Und die wiederum spielen eine entscheidende Rolle bei der zukünftigen Entwicklung der weltweiten Wasserstände an den Küsten der Meere. Dass es Klimawandel im Verlauf der Erdgeschichte gab, ist keine Sekunde zu bezweifeln. Und dass es auch zukünftig Änderungen im Klima geben wird, kann niemand ernsthaft in Frage stellen. Und dass es selbst in den letzten 2.000 Jahren schon mal wärmer oder zumindest so warm war wie heute, kann auch niemand ignorieren … obwohl zu der Zeit mit Sicherheit nicht der Mensch dafür verantwortlich war.

Was hingegen zu diskutieren ist: Welche Rolle spielt nun die Menschheit? Ist sie „nur“ Konsument oder vielmehr ein Destruent? In welchem Masse hat der Mensch in den letzten industriell geprägten Jahrzehnten mit Nutzung fossiler Energiequellen Einfluss auf klimarelevante Faktoren genommen? Darüber gibt es Streit. Genauer gesagt, ist es jedoch weniger ein Streit darüber, ob der Mensch eine Einflussgrösse darstellt, als vielmehr wieviel davon der Menschheit zuzuordnen ist. Der grössere Teil der Medien und der sogenannten Verantwortungsträger der Gesellschaft nimmt hierzu bereits seit Jahren eindeutig Stellung: Die Menschheit stelle eine Gefahr im Klimawandel der Jetztzeit dar bzw. der Mensch sei es, den man als Hauptverantwortlichen an den Pranger stellen müsse. Mit zunehmender Erkenntnis über die globalen Zusammenhänge im Wetter- und damit Klima-System werden allerdings auch immer mehr Stimmen laut, die fragen, ob man es sich bisher nicht zu einfach gemacht hat, indem man das CO2 als „den“ Klimafaktor in den Mittelpunkt gestellt hat und dessen Mitverursacher, nämlich den Menschen anklagt.

Das Buch von Dammschneider ist bei Amazon erhältlich. Es darf als bezeichnend für die heutige Situation von Buchveröffentlichungen gelten, dass solch exzellente Werke wie das von Dammschneider offenbar nur noch im Selbstverlag (hier books on demand) herausgegeben werden können. Neben den wirtschaftlichen sind dafür in einigen Fällen auch politische Gründe verantwortlich. So sind beispielsweise – wirtschaftlich nicht nachvollziehbar – die „Klimafakten“ von Berner und Streif offenbar mit einem politischen „Neuverlegungsverbot“ belegt, obwohl sie heute antiquarisch bereits mit 100 € gehandelt werden.

Wir wünschen dem Buch von Dammschneider viele Leser.

Horst-Joachim Lüdecke

EIKE-Pressesprecher




Den Stillstand zerschlagende SST-Daten: Hat die NOAA eine Beziehung zwischen NMAT und SST hinweg adjustiert, die laut Konsens der CMIP5-Klimamodelle existieren sollte?

Bild rechts: © Chris Frey 2015

Hintergrund

Die NOAA hat ihr globales Temperatur-Erzeugnis Anfang dieses Jahres überarbeitet, um eine größere globale Erwärmung zu zeigen im Zeitraum nach 1998. Diese Datenmanipulationen haben vermeintlich die Verlangsamung der globalen Erwärmung in jenem Zeitraum beendet. Die von der NOAA durchgeführten Änderungen der globalen Temperatur wurden in drei Studien präsentiert. Die größten Änderungen wurden im Anteil der Wassertemperatur vorgenommen, und diese Änderungen waren Thema in den Studien von Huang et al. (2015) und Liu et al. (2015). Diese beiden Studien waren im Februar 2015 veröffentlicht worden – und von den Mainstream-Medien nicht zur Kenntnis genommen worden. Die Alarmisten jedoch haben nicht die Studie von Karl et al. (2015) übersehen Possible Artifacts of Data Biases in the Recent Global Warming Hiatus (Zahlschranke; gesamte Studie hier). Während sich die Überarbeitung auf den gesamten Zeitraum der globalen NOAA-Temperaturen seit dessen Beginn in den 1850-er Jahren erstreckte, haben sich Karl et al. (2015) auf die Zeiträume 1998 bis 2014 und 2000 bis 2014… konzentriert, während derer die NOAA den Anteil der Wassertemperatur bis zu einem Ausmaß adjustiert hatte, dass sie behaupten konnten, die Verlangsamung der globalen Erwärmung hatte es nie gegeben.

Natürlich waren diese Behauptungen irreführend. Grund: Selbst mit den NOAA-Änderungen an den Temperaturaufzeichnungen gibt es immer noch die sich unverändert erweiternde Diskrepanz zwischen Beobachtungen und der aufgrund von Klimamodellen prophezeiten globalen Erwärmung. Mit anderen Worten, die Manipulationen der NOAA an den globalen Temperaturaufzeichnungen haben diese Diskrepanz zwischen Modellen und Daten etwas kleiner gemacht, sie aber nicht eliminiert.

Der US-Kongress-Abgeordnete Lamar Smith ist Vorsitzender des Committee on Science, Space and Technology des Repräsentantenhauses. Wie viele andere Menschen auch hat Repräsentant Smith die NOAA-Änderungen bzgl. ihrer Temperaturaufzeichnung hinterfragt. Kürzlich hat Repräsentant Smith formell die NOAA-E-Mails angefordert, in denen es um die Änderungen der globalen Temperaturaufzeichnungen geht, und bis jetzt ist Dr. Kathryn Sullivan von der NOAA dieser Anforderung nicht gefolgt. Es gibt eine Fülle von Nachrichten-Artikeln über den Streit zwischen Smith und der NOAA, aber dieser ist nicht Gegenstand dieses Beitrags.

In diesem Beitrag geht es um die primäre Adjustierung, die die größte Auswirkung hat auf die den Stillstand zerschlagende [„pause busting“] Natur der neuen NOAA-Rekonstruktion der globalen Wassertemperatur an der Ozeanoberfläche. Ich komme zu dem Ergebnis, dass die NOAA einen Unterschied zwischen Messungen der Wassertemperatur durch Schiffe und der nächtlichen Lufttemperatur über Ozeanen hinweg adjustiert haben könnte. Diesen sollte es jedoch dem Konsens der im jüngsten IPCC-Bericht 5 verwendeten Klimamodelle zufolge geben. Wieder einmal legt dies die Vermutung nahe, dass eine weitere NOAA-Hypothese korrekt ist.

Zusätzlicher Hintergrund: Korrekturen eines Bias‘ der Wassertemperatur der Ozeane

Verschiedene Verfahren waren zur Anwendung gekommen, um Wassertemperaturen zu erhalten seit dem Beginn von Temperaturaufzeichnungen Mitte des 19. Jahrhunderts: Eimer aus unterschiedlichen Materialien (Holz, Segeltuch, isoliert); in Maschinen einströmendes Kühlwasser und Bojen (fest und treibend). Zusätzlich wurde die Lufttemperatur über der Wasseroberfläche von Schiffen gemessen … eine Größe, die maritime Lufttemperatur genannt wird. Jedes Verfahren enthält ihre eigenen Messfehler, Unsicherheiten und Verzerrungen. (Für Neulinge auf diesem Gebiet: Kent et al. (2010) Effects of instrumentation changes on ocean surface temperature measured in situ. Darin findet sich eine detaillierte und leicht verständliche Übersicht. Oder Kennedy (2014) A review of uncertainty in in situ measurements and data sets of sea-surface temperature. Eine Kopie der eingereichten Studie findet sich hier).

Mit Beginn Mitte des 20. Jahrhunderts haben die Datensammler den Verzerrungen Rechnung getragen, die sich aus den unterschiedlichen Eimer-Typen ergeben sowie durch den Übergang von Eimern zu einströmendem Wasser in Schiffsmotoren. Zusätzlich wurde der Bias zwischen Schiffs- und Bojenmessungen in der Studie seit Anfang dieses Jahrhunderts diskutiert. Die im einströmenden Kühlwasser gemessenen Wassertemperaturen (ERI) sind etwas wärmer als die von Bojen gemessenen Temperaturen. Aber die Datensammler haben bis vor Kurzem nicht versucht, dem Schiffs-Bojen-Bias Rechnung zu tragen infolge der großen Unsicherheit der Messungen im einströmenden Wasser bzw. von Bojen und infolge der massiven Unsicherheiten bzgl. des Schiffs-Bojen-Bias‘. (Siehe Reynolds et al. 2002. Also see Kennedy et al. (2011) Part 1 und Part 2 als Dokumentation jener Unsicherheiten).

Für ihre neuen, den „Stillstand zerschlagenden“ Daten hat die NOAA:

● die Schiffsdaten adjustiert mittels der HadNMAT2-Daten der nächtlichen Lufttemperatur vom UKMO als Referenz. Dies setzt natürlich die Hypothese voraus, dass sich die nächtlichen maritimen Lufttemperatur-Daten mit der gleichen Rate ändern wie die Wassertemperatur (sowohl tagsüber als auch nachts),

● die Bojen-Daten adjustiert, um der Temperaturdifferenz Rechnung zu tragen zwischen in Schiffen einströmendem Wasser und Bojen in Gebieten, in denen es beides gibt. Die Auswirkungen hiervon würden über die letzten Jahrzehnte hinweg variieren, weil sich das Verhältnis von Bojen zu Schiffsmessungen mit der Zeit verändert hat. Es gab zunehmende Bojen-Messungen und abnehmende Schiffsmessungen,

● die Bojendaten stärker gewichtet als die Schiffsdaten in Perioden, in denen es sowohl Schiffs- als auch Bojendaten gibt. Dies wurde gemacht, um den unterschiedlichen Genauigkeiten der Schiffs- und Bojen-Temperaturmessungen Rechnung zu tragen … Bojendaten haben sich als genauer erwiesen als Schiffsdaten.

Karl et al. (2015) zufolge hatten die Adjustierungen der Schiffsdaten die größte Auswirkung auf die Trends von 2000 bis 2014:

Von den 11 Verbesserungen in der ERSST-Version 4 (13) hatte die Fortsetzung der Schiffs-Korrekturen die größte Auswirkung auf die Trends des Zeitraumes 2000 bis 2014. Sie machte 0,030°C der Trenddifferenz von 0,064°C zu Version 3b aus. (Die Korrektur der Bojenwerte trug 0,014°C pro Dekade zum Unterschied bei, und das zusätzliche Gewicht, das man den Bojendaten wegen deren größerer Genauigkeit zugewiesen hat, macht 0,012°C pro Dekade aus).

In diesem Beitrag werden wir die Adjustierungen des Bias‘ zwischen Schiffen und Bojen umreißen sowie die Wichtung der Daten von Bojen und dem in Schiffe einströmendem Wasser. Dies wurde schon in zahlreichen anderen Blogbeiträgen diskutiert. Wir hier wollen aus konzentrieren auf…

Die Hypothesen der NOAA bei der Verwendung von NMAT-Daten*, um schiffsbasierte Messungen der Wassertemperatur zu adjustieren

[*Wie oben erwähnt: NMAT = Night Marine Air Temperature. Ich weiß nicht, ob das ein fester Begriff ist, der etwas anderes meint als die direkte Übersetzung aussagt. Im Folgenden gehe ich aber von der direkten Übersetzung als dem aus, was gemeint ist. Anm. d. Übers.]

Die NOAA hat zahlreiche Annahmen gemacht, um die Verwendung von NMAT-Daten zur Adjustierung der schiffsbasierten Messungen der Wassertemperatur zu rechtfertigen. Sie sind gelistet in der Studie von Huang et al. (2015) mit dem Titel Extended Reconstructed Sea Surface Temperature Version 4 (ERSST.v4) – Part I: Upgrades and Intercomparisons. Dort schreiben sie auf Seite 919:

Die Bias-Adjustierung von Wassertemperaturdaten von Schiffen wurde ursprünglich von Smith und Reynolds (2002) ins Spiel gebracht, was die NMAT-Daten als Referenz involvierte. NMAT wurde gewählt, weil die Differenzen der Wassertemperatur stabiler sind als maritime Lufttemperaturen tagsüber, die eine große Bandbreite haben können infolge der solaren Aufheizung der Schiffsdecks und der Instrumente selbst. Um die Bias-Adjustierung vorzunehmen ist es jedoch notwendig anzunehmen, dass

1) die Differenzen zwischen SST und NMAT nahezu konstant sind während des klimatologischen Zeitraumes (1971 bis 2000);

2) die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist;

3) die NMAT-Daten einen geringeren Bias aufweisen (homogener sind) als die SST-Daten, mit denen sie verglichen werden;

4) der Mix verschiedener SST-Messmethoden (Eimer oder ERI) invariant ist über alle globalen Ozeane, und die räumliche Verteilung von Verzerrungen folgt der klimatologischen Differenz zwischen SST und NMAT in neuer Zeit (1971 bis 2000); und

5) der Bias relativ langsam und gleichmäßig mit der Zeit variiert.

Wir brauchen nur die ersten beiden NOAA-Hypothesen zu untersuchen.

NOAA fuhr dann fort mit der Beschreibung, wie sie ihre ersten beiden Hypothesen getestet hatte:

Um die ersten beiden Hypothesen zu testen, welche eine grobe physikalische Kohärenz zwischen zwei stark korrelierenden, aber physisch unterschiedlichen Messgrößen nahelegen, wurde die mittlere Differenz zwischen SST- und Lufttemperatur-Daten bei Tag und Nacht (SAT) in 2 m Höhe berechnet durch Untermengen der monatlichen Outputs der GFDL CM2.1-Modelle mit monatlichen Beobachtungs-Masken von 1875 bis 2000 (Abbildung 4). Die Modell-SAT wird herangezogen, weil der Modellbias hypothetisch tagsüber und nachts gleich ist. Es zeigt sich, dass die ersten beiden Hypothesen gültig sind, da die Modellsimulationen zeigen, dass die Differenz zwischen SAT und SST nahezu konstant ist und dessen lineare Trends in allen vier unterschiedlichen Zonen geographischer Breite schwach sind.

Huang et al. führen nicht näher aus, was sie mit „monatlichen Beobachtungs-Masken“ meinen. Meinen sie, dass die NOAA alle Gitterpunkte maskiert hat, die keine Schiffsdaten enthalten? Ich habe den Verdacht, dass genau das der Fall ist.

Wichtiger Hinweis: Im Folgenden habe ich nicht den Schritt unternommen, die Gitternetze ohne Schiffsdaten zu maskieren, weil ich versuche, die globale (ohne polare Ozeane), von den Klimamodellen erwartete Beziehung zwischen der maritimen Lufttemperatur und der Wassertemperatur zu illustrieren. (Ende Hinweis).

Komischerweise geht die NOAA davon aus, dass die modellierte Beziehung zwischen Wassertemperatur und der Lufttemperatur darüber (sowohl tagsüber als auch nachts) die gleiche ist wie die Beziehung zwischen NMAT und Wassertemperatur, wobei Letztere Tages- und Nachtwerte enthält. Das heißt, dass die NOAA nächtliche maritime Lufttemperaturen (und nicht maritime Lufttemperaturen tagsüber und nachts) heranzieht, um die Wassertemperatur zu adjustieren. Trotzdem aber präsentieren sie modellierte Wassertemperaturen und maritime Lufttemperaturen (tagsüber und nachts) als Rechtfertigung. Ist das gemeint, wenn es heißt „Die Modell-SAT wird verwendet, da der Modellbias vermutlich der Gleiche ist tagsüber und nachts“? Genau so scheint es zu sein.

Meine Abbildung 1 ist Abbildung 4 bei Huang et al. (2015)

Abbildung 1

Erstens, man beachte, dass der auf Klimamodellen basierende Graph in ihrer Abbildung 1 im Jahre 2000 endet. Das ist komisch, sind wir doch am Zeitraum 2000 bis 2014 interessiert. Zweitens, sie haben die Trends von 1875 bis 2000 gelistet in der Bildunterschrift zu Abbildung 4, aber sie haben es versäumt, den Trend zu zeigen für ihre klimatologische Periode von 1971 bis 2014 (siehe deren Hypothese 1 oben).

Drittens, und sehr wichtig: Das gekoppelte Ozean-Atmosphäre-GFDL CM2.1-Klimamodell aus dem NOAA Geophysical Fluid Dynamics Laboratory (GFDL) ist eine seltsame Wahl als Verwendung in einer Studie des Jahres 2015. Zu Beginn der GFDL-Website über das neue und verbesserte GFDL CM3 model heißt es:

Das erfolgreiche Modell von GFDL, CM2.1 (Delworth et al. 2006) wurde als Startzeitpunkt gewählt, um die nächste Generation der gekoppelten CM3-Modelle zu entwickeln.

Mit anderen Worten, das 10 Jahre alte GFDL CM2.1-Klimamodell kann man als obsolet ansehen, soweit es durch das GFDL CM3-Modell ersetzt worden ist. Das GFDL CM2.1-Modell wurde von Delworth et al. (2006) unterstützt GFDL’s CM2 Global Coupled Climate Models. Part I: Formulation and Simulation Characteristics. Im Abstract wird angegeben, dass es für den 4. IPCC-Zustandsbericht 2007 aktuell war.

Wir wissen aus Erfahrungen der Vergangenheit, dass es weite Bandbreiten geben kann bei den absoluten Werten der Temperatur von Modell zu Modell ebenso wie eine große Bandbreite von Trends. Die Verwendung eines Klimamodells einer früheren Generation seitens der NOAA könnte jeden dazu führen zu glauben, dass die NOAA genau jenes GFDL CM2.1-Modell aus früherer Generation gewählt hat (nach Art von Rosinenpickerei), weil es genau das Ergebnis lieferte, das man sich gewünscht hatte.

Schauen wir also mal auf das Multimodell-Mittel aller neuen und verbesserten Klimamodelle, die im IPCC-Bericht #5 (2013) herangezogen worden waren. Diese Modelle sind gespeichert im CMIP5 archive, und deren Multimodell-Mittel (zusammen mit den Ergebnissen der individuellen Modelle) sind verfügbar im KNMI Climate Explorer. Das Multimodell-Mittel (das Mittel aller Modelle) repräsentiert im Grunde den Konsens (das Gruppendenken) der Klimamodellierungs-Gruppen, wie die Wassertemperatur und die maritime Lufttemperatur (in diesem Beispiel) auf die Klima-Antriebe reagieren, die man als Antrieb für die Modelle verwendet hat. Infolge der großen Bandbreite der Klimamodell-Ergebnisse stellt die Verwendung des Mittelwertes aller Modelle im CMIP5-Archiv sicher, dass man uns keine Rosinenpickerei vorwerfen kann dergestalt, dass wir ein bestimmtes Modell herausgreifen, das eine Agenda unterstützt. Und wir brauchen nur die Klimamodell-Ergebnisse für die globalen Ozeane untersuchen mit Ausnahme der polaren Ozeane (60°S bis 60°N); das heißt wir brauchen nicht die zusätzlichen Unterabteilungen untersuchen, wie sie in Abbildung 4 von Huang et al. (2015) zum Ausdruck kamen (= meine Abbildung 1).

Wir beginnen mit dem Zeitraum von 1875 bis 2000, der in Abbildung 4 von Huang gezeigt wird. Die obere Graphik in Abbildung 2 zeigt die Modelldifferenz zwischen den simulierten globalen Wassertemperaturen (60°S bis 60°N) und den maritimen Lufttemperaturen während der von der NOAA gewählten Periode von 1875 bis 2000, wobei die maritime Lufttemperatur (TAS, Landoberflächen maskiert) von den Wassertemperaturen subtrahiert werden. Während dieses Zeitraumes wurden nur die historischen Klimaantriebe von den Modellierungsgruppen verwendet. Für den von der NOAA gewählten Zeitraum von 1875 bis 2000 zeigt der Konsens der jüngsten Generation die modellierte Differenz zwischen der globalen Wasser- und maritimen Lufttemperaturen, die mit einer Rate von -0,008°C pro Dekade abnimmt … also mit genau der gleichen Rate wie die -0,008°C pro Dekade, die die NOAA für den Zeitraum 1875 bis 2000 geltend macht. Auf den ersten Blick scheint dies die Ergebnisse von Huang et al. (2015) zu bestätigen. Die untere Graphik in Abbildung 2 illustriert im gleichen Zeitrahmen das Multimodell-Mittel der simulierten Wassertemperaturen und der maritimen Lufttemperaturen, die für die Grundlagen der oberen Graphik stehen. Ich habe die Modellergebnisse des Zeitraumes 2000 bis 2014 hinzugefügt (gestrichelte Kurven) in beiden Graphiken als Referenz.

Abbildung 2

Man beachte jedoch, dass sich in der oberen Graphik der Abbildung 2 eine deutliche Trendänderung zeigt, die etwa Mitte der siebziger Jahre begonnen hat und von einem nachfolgenden starken Rückgang gefolgt wurde.

Untersuchen wir also den Trend der von der NOAA herangezogenen klimatologischen Periode von 1971 bis 2010. Siehe Abbildung 3. Für diese NOAA-Periode zeigt der Konsens der jüngsten Klimamodell-Generation die modellierte Differenz zwischen der globalen Wasser- und der maritimen Lufttemperatur, die mit einer stärkeren Rate von -0,021°C pro Dekade abnimmtn … weit größer als die -0,008°C pro Dekade, die von der NOAA für den Zeitraum 1875 bis 2000 propagiert wird.

Abbildung 3

Was die untere Graphik der Abbildung 3 betrifft: die modellierte maritime Lufttemperatur steigt etwas rascher als die modellierte Wassertemperatur während des klimatologischen NOAA-Zeitraumes. Mit anderen Worten, der Konsens der neuen und verbesserten Klimamodelle widerspricht dem NOAA-Ergebnis (Huang et al.) hinsichtlich ihrer ersten Hypothese zur Verwendung maritimer Lufttemperaturen, um die Verzerrungen der mit Schiffen gemessenen Wassertemperaturen zu adjustieren … oder irgendwelche Daten der Wassertemperatur.

Aber am Zeitraum 1971 bis 2000 sind wir nun wirklich nicht interessiert. Interessanter für uns ist der Zeitraum 2000 bis 2014, weil es genau der Zeitraum war, den die NOAA (Karl et al. 2015) für die Behauptung herangezogen hatte, dass die „Fortsetzung der Schiffsdaten-Korrekturen den größte Auswirkung auf die Trends von 2000 bis 2014 hatte; verantwortlich für 0,030°C pro Jahrzehnt der 0,064°C-Trenddifferenz zu Version 3b“.

Abbildung 4 gleicht den Abbildungen 2 und 3, außer dass wir in Abbildung 4 die Modellergebnisse illustrieren für den Zeitraum 2000 bis 2014. Der einzige Unterschied ist, dass Modelle jetzt auch die projizierten Antriebe enthalten, zusätzlich zu den historischen Antrieben. Der Übergang von historischen zu projizierten Antrieben erfolgt laut den meisten Modelle 2005/2006. Es ist kein von mir ausgesuchtes Feature. Aber ich habe das RCP6.0-Antriebsszenario gewählt, weil ich mich nicht dem Vorwurf aussetzen wollte, das Worst-Case-RCP8.5-Szenario herauszupicken.

Es ist keine große Überraschung, dass das Multimodell-Mittel in der oberen Graphik der Abbildung 4 einen Rückgang der Temperaturdifferenz zeigen zwischen den Wasser- und den maritimen Lufttemperaturen. Tatsächlich ist der Trend von -0,027°C pro Dekade der modellierten Temperaturdifferenz vergleichbar mit der Adjustierung der Schiffsdaten von 0,030°C pro Dekade seitens der NOAA (die nächtliche maritime Lufttemperaturdaten verwendet hatte) für den Zeitraum 2000 bis 2014.

Abbildung 4

Das heißt, mit Verwendung der neueren Modelle ist es Konsens unter den Modellierer-Gruppen zu erwarten, dass sich maritime Luft im Zeitraum 2000 bis 2014 rascher erwärmt als die Oberflächen der Ozeane … mit einer Rate, die vergleichbar ist mit der „Korrektur“, die man mittels der nächtlichen maritimen Lufttemperatur an die Schiffsdaten angebracht hatte. Dies widerspricht der zweiten der NASA-Hypothesen, der zufolge „die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist“. Das ist eindeutig nicht der Fall.

Einfach gesagt, die NASA scheint eine Differenz zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur hinweg adjustiert zu haben. Diese Differenz sollte es dem Konsens der neueren Klimamodelle zufolge jedoch geben. Dies legt die Vermutung nahe, dass die andere Große Hypothese der NOAA, nämlich dass „die Modell-SAT verwendet wird, da der Modell-Bias vermutlich tagsüber und nachts gleich ist“ korrekt ist.

Stellen wir das mal in einen größeren Zusammenhang. Die NOAA scheint anzunehmen, dass sich die NMAT mit der gleichen Rate erwärmt wie die MAT sowohl tagsüber als auch nachts. Sie hat maritime Lufttemperaturen anstatt die nächtlichen maritimen Lufttemperaturen herangezogen, um ihre ersten beiden Hypothesen zu verifizieren. Man beachte auch, dass der Konsens der jüngsten Generation von Klimamodellen zeigt, dass sich die maritimen Lufttemperaturen mit einer höheren Rate erwärmen sollten als die Wassertemperaturen seit etwa Mitte der siebziger Jahre. Und doch, zieht man diese Überlegungen in Betracht, zeigt das Enderzeugnis der NOAA, also ihr neuer „Stillstands-Vernichter“, nämlich die ERSST.v4-Daten, die gegenteilige Beziehung. Ihre neuen Wassertemperatur-Daten zeigen eine merklich höhere Erwärmungsrate als die nächtlichen maritimen Lufttemperaturen (HadNMAT2), die man als Referenz herangezogen hatte. Siehe Abbildung 5, welches Abbildung 1 im Beitrag Open Letter to Tom Karl of NOAA/NCEI Regarding “Hiatus Busting” Paper ist.

Abbildung 5

Bemerkung: Diese Graphik endet im Jahre 2010, weil da die HadNMAT2-Daten aufhören. Dies wirft natürlich folgende Frage auf: Wie adjustiert die NOAA (ungerechtfertigterweise) die Schiffsdaten nach dem Jahr 2010?

Unter dem Strich: Der jüngsten Generation von Klimamodellen zufolge sollte sich die maritime Lufttemperatur schneller erwärmen als die Wassertemperaturen, aber nicht in der NOAA-Welt, an der so viel herumgedoktert wurde.

Zum Schluss

Noch einmal, meine Illustrationen zeigen die erwartete globale Beziehung zwischen maritimen Lufttemperaturen (tagsüber und nachts) und der Wassertemperaturen, weil die NOAA diese heranzieht, um eine Beziehung zu verifizieren zwischen der nächtlichen maritimen Lufttemperatur und der Wassertemperatur.

Auch habe ich die Modellergebnisse nicht maskiert, so dass sie nur das Netz mit schiffsbasierten Wassertemperaturen enthalten, wie es die NOAA getan zu haben scheint. Aber dem Konsens der im IPCC-Bericht 5 verwendeten Klimamodelle zufolge ist die Beziehung global (60°S – 60°N) dergestalt, dass sich die maritime Lufttemperatur seit Mitte der siebziger Jahre rascher erwärmt hat als die Wassertemperatur.

Ich habe folgenden Verdacht: Wenn die Whistleblower von Kongressmann Lamar Smith besorgt sind hinsichtlich des Hypes um die Studie von Karl et al. (2015) „vor einer angemessenen Begutachtung der zugrunde liegenden Wissenschaft und der angewandten neuen Verfahren“, diskutieren sie über:

● Die Unsicherheiten der Bias-Adjustierungen,

● Die Unsicherheiten in den Daten,

● natürlich über die grundlegenden Verfahren einschließlich der Art und Weise, mit der die NOAA jene Adjustierungen über die Ozeane verteilt hatte, und

● am wichtigsten bzgl. der „zugrunde liegenden Wissenschaft“: wie die NOAA eine Differenz hinweg adjustiert zu haben scheint zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur, die es dem Konsens der neuen Klimamodelle zufolge geben sollte.

Vielleicht wird Dr. Sullivan von der NOAA die von Repräsentant Smith angeforderten E-Mails noch rechtzeitig zur Verfügung stellen, so dass wir meinen Verdacht sowie den Verdacht auch vieler Anderer bestätigt sehen können.

Link: http://wattsupwiththat.com/2015/11/30/pause-buster-sst-data-has-noaa-adjusted-away-a-relationship-between-nmat-and-sst-that-the-consensus-of-cmip5-climate-models-indicate-should-exist/

Übersetzt von Chris Frey EIKE




Bjørn Lomborg: Glauben Sie an den Osterhasen und die Zahnfee? Teil 2 Hier seine Aussagen zu Kosten und Nutzen der Erneuerbaren

Teil 1 brachte die Einleitung dieses Beitrags von STT zu Lomborgs Ansichten – zu finden auf Eike

Wir werden die globale Erwärmung bekommen, wenn wir eine Energiequelle billiger als Kohle haben.

Die nächsten Klimagipfel in Paris nähern sich und die Erwartungen sind wieder hoch – obwohl es das 21. seiner Art ist, nach 20 Gipfeln die fast nichts erreicht haben.

In Wirklichkeit, Paris – wie Kopenhagen, Lima, Warschau, Doha und all die anderen – ist sehr unwahrscheinlich, dass signifikante Fortschritte zu erzielen sind.

Dies ist das Dilemma: Wir wissen, Klimawandel ist ein Problem, aber leider versuchen wir es immer wieder mit einer Lösung, die immer wieder gescheitert ist. Wie das Sprichwort sagt, „Wahnsinn ist es, die gleiche Sache immer und immer wieder zu tun und ein anderes Ergebnis zu erwarten“.

Die CO2-Emissionen werden weiter steigen, denn es gibt eine sehr enge Verbindung zwischen Energieverbrauch und Bruttoinlandsprodukt. Denken Sie daran, wir verbrennen keine fossilen Energieträger um die Umweltschützer zu ärgern, sondern weil sie alles antreiben, was wir an der modernen Zivilisation so lieben, von Licht, Hitze und Kälte bis zur Mobilität, Strom und Nahrung.

Das Wachstum des BIP in den letzten 20 Jahren ging einher mit dem CO2-Wachstum, und es gibt fast eine Eins-zu-Eins-Übereinstimmung.

Die Erkenntnisse aus der Weltbank über zwei Jahrzehnte ist klar: Wachstum um 1 Prozent des BIP im Jahr, und die CO2-Emissionen bleiben konstant – wie in Italien. Wachstum von 3 Prozent und die CO2-Emissionen wachsen um 1,5 Prozent – wie Neuseeland. Oder das Wachstum Ihrer Wirtschaft beträgt 10 Prozent wie China, und Sie steigern Ihre Emissionen um 6,3 Prozent.

Ja, ist es möglich, Emissionen zu reduzieren und die die Wirtschaft wächst noch immer – aber sie wird weniger wachsen, was bedeutet, es sind echte Kosten. Einige Nationen wie Deutschland sind in der Lage, den Trend einzudämmen – wachsende Wirtschaft um 1,3 Prozent, während die Emissionen um 1,2 Prozent abnehmen [D hat eher erhöhte CO2 Emissionen, seit die KKW abgeschaltet werden; AD] – eine ähnliche Anzahl von Nationen haben ihre Emissionen aber noch weiter erhöht. Indien ist 6,5 Prozent gewachsen und steigerte seinen Ausstoß um fast eben so viel. Australien ist ein wenig unterhalb der Kurve mit 3,2 Prozent Wirtschaftswachstum und nur 1,3 Prozent CO2 Wachstum.

Die traditionelle Klima Ansatz ist das Versprechen der Politik CO2 zu reduzieren. Natürlich, nur wenige werden für Politiker stimmen, die das Wirtschaftswachstum absichtlich beschneiden, anstelle von Politikern, die üppige Subventionen für erneuerbare Energien wie Solar-und Wind versprechen. Doch die Montagekosten für erneuerbare Energien sind schließlich eine Belastung für die Wirtschaft geworden. Und sie lösen wenig, da diese neuen Technologien für erneuerbare Energien noch nicht ausgereift sind.

Entgegen dem, was viele Menschen glauben, werden erneuerbare Energien uns in absehbarer Zeit nicht von fossilen Brennstoffen unabhängig machen.

Gemäß den Daten der International Energy Agency, kamen im Jahr 1971  13,1 Prozent der weltweiten Energie aus „Erneuerbaren“; im Jahr 2012 war der Anteil mit 13,2 Prozent nahezu unverändert. Die überwiegende Mehrheit dieser Energie kam aus Biomasse oder Holz und Pflanzenmaterial, die älteste Energiequelle der Menschheit. Während Biomasse erneuerbar ist, ist es oft weder gut noch nachhaltig.

Das Verbrennen von Holz im vorindustriellen Westeuropa verursachte massive Entwaldung, wie es in weiten Teilen der Dritten Welt von heute auch ist. Die Raumluftverschmutzung, die Biomasse produziert tötet 4,3 Millionen Menschen pro Jahr. Und moderne Energiepflanzen erhöhen die Entwaldung, verdrängen die Landwirtschaft und treiben die Nahrungsmittelpreise hoch.

Trotz des Hypes, ist der Beitrag von Sonne und Wind im Wesentlichen trivial. Heute, nach endlosen Klimagipfeln, guten Absichten und großzügigen Subventionen, bekommt die Welt nur 0,4 Prozent ihrer Energie aus Sonne und Wind, nach Angaben der IEA. Es wird auch in einem Vierteljahrhundert noch immer unbedeutend sein, ab jetzt gerechnet. Im optimistischen, grünen IEA Szenario werden Solar- und Wind nur 2,2 Prozent der weltweiten Energie bis 2040 beitragen.

Trotz des allgegenwärtigen Kulturverständnisses, dass Sonne und Wind nur am Rande zur Lösung des Klimawandels beitragen – sogar auch Klima-Panikmacher, wie Jim Hansen, Al Gores-Klima-Berater, weiß, dass dies falsch ist: „Unterstellend, dass erneuerbare Energien uns schnell von fossilen Brennstoffen unabhängig machen in den Vereinigten Staaten, in China, in Indien oder in der Welt als Ganzes,  ist das fast das Äquivalent von Glauben an den Osterhase und die Zahnfee“.

Die einfache, aber unbequeme Wahrheit ist, Sonne und Wind sind nicht ausgereift – sie sind zu teuer und erfordern teures Back-up, wenn der Wind nicht weht oder die Sonne nicht scheint.

Wenig Einfluss, hohe Kosten

Was bedeutet das für Paris? Auch in dem Szenario, auf das Aktivisten hoffen, in dem die Regierungen einen Vertrag unterzeichnen, um jeden zu den Kohlensenkungs-Versprechungen zu zwingen, die sie bisher gemacht haben, wird der Gipfel sehr wenig bringen.

In einem neuen peer-reviewed Forschungs-Paper, finde ich, dass, wenn alle Nationen  ihre Kohlenstoff-Reduzierungsversprechen alle halten, für die sie sich im Vorfeld des Gipfels verpflichtet haben, werden die Temperaturen bis 2100 nur um 0,05°C reduziert. Und sogar, wenn jede Regierung der Welt nicht nur die Versprechen von Paris einhalten und alle die Emissionen bis zum Jahr 2030 reduzieren, keine Emissionen in andere Länder verschieben, sondern diese Emissionsreduktionen für den Rest des Jahrhunderts beibehalten, werden die Temperaturen nur um 0,17°C bis 2100 reduziert werden.

Doch die UN-Klima-Chefin Christiana Figueres ist zuversichtlich, dass die Pariser Zusagen den Temperaturanstieg auf über 2,7°C bis zum Jahr 2100 begrenzen könnten. Das ist nichts als Wunschdenken und eine falsche Darstellung von weltweiten Optionen. Die 2,7°C kommt von der Internationalen Energieagentur und geht davon aus, dass, wenn die Regierungen in Paris wenig tun und dann aber gleich nach 2030 mit unglaublich ehrgeizigen Klimasenkungen anfangen, könnten wir 2,7°C erhalten. Figueres eigene Organisation schätzt, die Paris Versprechungen werden die Emissionen um 33Gt CO2 insgesamt zu reduzieren. Um den Anstieg auf 2,7°C zu begrenzen, müssten etwa 3000 Gt CO2 reduziert werden – oder etwa 100-mal mehr als die Pariser Verpflichtungen.

Und die immer noch armseligen Senkungen, die versprochen werden, sind nur mit erheblichen Kosten erreicht. Nehmen Sie die EU 20-20-20 Klimapolitik, die Temperaturen nur um 0,007°C reduziert hätte. Selbst wenn man das auf das gesamte Jahrhundert erweitert, würde die Reduzierung 0,026°C bis zum Ende dieses Jahrhunderts betragen, nach einem der IPCC eigenen Klimamodelle.

Das Stanford Energie Modelling Forum, der Goldstandard für die Ökonomie von Klima und Energie, hat mehrere Studien über Kosten gemacht, die uns zwei Dinge zeigen.

Erstens, und vielleicht nicht überraschend, sind die offiziellen Kostenvoranschläge oft viel niedriger als die Realität. Die EU schätzt die Gesamtkosten ihrer 2020 Politik könnte so wenig wie ein jährlicher 0,4 Prozent BIP Verlust oder 64 Mrd. € pro Jahr sein. Die peer-reviewed‘ten Kosten betrugen 1,3 Prozent oder 209 Mrd. € pro Jahr, mehr als dreimal so viel.

Zweitens Politiker nehmen selten die intelligenteste Klimapolitik [Variante], die CO2 effektiv reduzieren könnte. Dadurch verdoppeln sich in der Regel die Kosten. Die EU könnte ihre Emissionen durch die Umstellung auf Gas und der Verbesserung der Effizienz für einen BIP Verlust von 0,7 Prozent reduziert haben. Allerdings, die phänomenal ineffiziente Solarförderung und Bio-Kraftstoffe sind zu verlockende Duftstoffe für Politiker, weshalb die tatsächlichen EU Kosten fast auf 1,3 Prozent des BIP verdoppelt sind. Die EU plant nun, seine Emissionen um 40 Prozent gegenüber 1990 im Jahr 2030 zu beschneiden.

Zwar gibt es keine direkte Schätzungen der Kosten dieser Politik – außergewöhnlich an sich – das neueste peer-reviewed Stanford Energie Modelling Forum für die EU betrachtet die Kosten für eine Reduzierung auf 80 Prozent im Jahr 2050, was eine Reduzierung von 41 Prozent im Jahr 2030 ergibt. Diese Reduzierung würde das BIP der EU um 1,6 Prozent im Jahr 2030 beschneiden oder € 287 Mrd. nach 2010er Kaufkraft des Euros. Dies setzt voraus, dass Kohlenstoff so effektiv wie möglich reduziert wird.

Ohne diese Annahme, werden die Kosten wahrscheinlich näher an 860 Mrd. Euro sein. Und es wird zu Temperaturen bis zum Ende des Jahrhunderts insgesamt nur um 0,053°C reduzieren.

Die Entwicklungsländer

Jedes Gespräch um Klima muss auf China schauen. In den neun Jahren von 2004 bis 2013 haben sich Chinas Emissionen verdoppelt und im Jahr 2013 hat China fast ein Drittel aller CO2 Emissionen produziert. China emittiert doppelt so viel wie die USA und drei Mal der EU-Emissionen.

Wir hören verführerische Reden von China als den „grünen Riesen“ und wie es den „weltweit größten Schub für Windenergie“ erzeugt. Doch die Fakten der IEA zeigen, dass China nur unbedeutende 0,28 Prozent seiner Energie aus Wind und eine nahezu unermessliche 0,02 Prozent aus Solar bekommt.

Bis 2040, geht die IEA optimistisch davon aus, dass China noch triviale 2,6 Prozent seiner Energie aus Sonne und Wind bekommt. China hat für das Jahr 2030 versprochen, seinen Energieverbrauch um mindestens 60 Prozent gegenüber 2005 zu reduzieren.

Diese Klimapolitik, die nur unter den optimistischsten Umständen vollständig erreicht und im Laufe des Jahrhunderts eingehalten werden kann, wird die globale Temperatur nur um 0,048°C reduzieren bis 2100.

Indien hat klargestellt, dass sie ihre Emissionen nicht reduzieren werden. Trotz anhaltender Behauptungen, dass es „grün“ wird, ist das ein dünnes Brett. Heute, erhält Indien 0,31 Prozent seiner Energie aus Wind und 0,02 Prozent aus Solar und Solar-und Wind werden sogar bis 2040 wahrscheinlich weniger als 2 Prozent beitragen.

Afrika ist der weltweit am meisten „erneuerbare“ Kontinent. Es erhält 50 Prozent seiner Energie aus Erneuerbaren verglichen mit nur 12 Prozent in der EU. Aber das liegt daran, Afrika ist arm und hat wenig Zugang zu moderner Energie.

Die knapp 900 Millionen Menschen die in Afrika südlich der Sahara leben (ohne Südafrika) brauchen nur 185kWh pro Jahr, weniger als ein typischer Kühlschrank. Fünfunddreißig Afrikaner verbrauchen weniger Energie als der durchschnittliche Deutsche. Nicht überraschend wollen Afrikaner viel mehr Energie verwenden, überwiegend aus fossilen Brennstoffen. Solar- und Windenergie machen triviale 0,03 Prozent Energie jetzt aus und weniger als 1 Prozent bis 2040.

Die Obama-Regierung plant, Milliarden von Dollar ausgeben, um Afrika zu elektrifizieren. Die Overseas Private Investment Corporation, die wichtigste US-Entwicklungs-Finanzierungsinstitution, zieht es vor allem vor, in Solar-, Wind- und andere emissionsarme Energieprojekte zu investieren. In den vergangenen fünf Jahren hat OPIC in mehr als 40 neue Energieprojekte investiert und alle bis auf zwei waren in erneuerbare Energien.

Eine Untersuchung von Todd Moss und Ben Leo vom Zentrum für globale Entwicklung hat gezeigt, dass, wenn die US die nächsten 10 Mrd. Dollar für die Elektrifizierung durch Gaskraftwerke spendiert, könnte es helfen, 90 Millionen Menschen aus der Armut zu heben. Wenn es nur erneuerbare Energien nutzt, können die gleichen 10 Mrd. Dollar nur 20 – 27 Millionen Menschen helfen.

Verständlicherweise ist Wirtschaftswachstum um Millionen aus der Armut zu befreien viel wichtiger als CO2 in China, Indien und Afrika zu reduzieren. In den vergangenen 30 Jahren hat China 680 Millionen Menschen aus extremer Armut befreit, mit billiger, wenn auch umweltschädlicher Kohle. China zu erzählen, diesen Prozess mit unreifen und teuren erneuerbaren Energien zu verlangsamen, ist wahrscheinlich nicht erfolgreich. Bei 800 Millionen extrem Armen in Indien und Afrika, zu erwarten, dass Indien und Afrika auf Erneuerbare gehen, ist offenbar Wunschdenken.

Das Klima der Entwicklung

Der Klimawandel ist nicht unsere einzige Herausforderung und die Armen der Welt sehen sich vor wichtigeren Problemen.

Die Weltgesundheitsorganisation schätzt, dass die globale Erwärmung etwa 141.000 Todesfälle pro Jahr verursacht und es erwartet, wenn die globale Erwärmung fortschreitet, wird es zu 250.000 jährlichen Todesfälle bis zum Jahr 2050 führen. Dies unterstreicht auf jeden Fall die Tatsache, dass die globale Erwärmung ein Problem ist. Doch es verblasst auch im Vergleich zu jetzt sieben Millionen Todesfälle pro Jahr durch Luftverschmutzung, 800 Millionen hungernden und 2,5 Milliarden in Armut lebenden Menschen ohne sauberes Wasser und sanitäre Einrichtungen.

Doch im Einklang mit der Mitteilung von Klimagipfel, bestehen die meisten Führer der Ersten Welt immer darauf, dass ihre Hilfsgelder für das Klima gespendet werden sollten. Die OECD schätzt, dass etwa einer von vier Dollar aller gemessenen, bilateralen Entwicklungshilfe, heute auf klimabezogene Beihilfen wie die Reduzierung von Treibhausgase wie CO2 verwandt wird. Dies ist jedoch nicht das, was die Entwicklungsländer wollen.

Die Vereinten Nationen haben mehr als 8,5 Millionen Menschen aus der ganzen Welt nach ihren Top-Prioritäten befragt. Nicht überraschend, sie wollen bessere Bildung und Gesundheitsversorgung, weniger Korruption, mehr Arbeitsplätze und erschwingliche Lebensmittel. Sie stellen die globale Erwärmung an den letzten Platz, als Priorität Nr. 16 von 16.

Das Problem mit der globalen Erwärmung als übergreifendes politisches Gespräch ist, dass die Führer der reichen Länder, von Barack Obama und Angela Merkel zu Justin Trudeau oder John Key, immer scheinen sie den weltweit 2,5 Milliarden Armen und Hungernden zu sagen: hier ist Geld, um euer CO2 zu reduzieren. Während es zweifellos gut gemeint ist, ist es moralisch unvertretbar.

Innovation ist der Schlüssel

Klima-Aktivisten argumentieren oft, dass der Einsatz von erneuerbaren Energien auch grüne Innovation anstößt. Durch den Aufbau von vielen Windkraftanlagen, sollten wir mehr Innovation bei Wind erhalten.

Allerdings ging eine deutsche parlamentarische Kommission der Frage nach und hat eindeutig festgestellt, dass die Subventionen keine grüne Innovationen schaffen, weil es viel sicherer für Unternehmen ist, sich an die stark subventionierten Windkraftanlagen, Solaranlagen und Biomasse zu halten, anstelle der Weiterentwicklung bestehender Technologien und der Entwicklung neuer, tragfähiger Alternativen zu fossilen Brennstoffen.

Die Subventionen erzeugen einfach die falschen Anreize und der Kommission ist es „nicht gelungen, signifikante positive und innovative Auswirkungen zu zeigen“. Subventionierte Verwendung ist eindeutig nicht der richtige Weg, die benötigte Innovation zu schaffen.

Eine Lektion auf Innovation kann bei Computern gefunden werden. Wir haben die Computer von heute nicht durch Massenproduktion in den 1950er Jahren erhalten, um billigere Vakuumröhren zu bekommen. Wir haben keinerlei hohe Subventionen gezahlt, so dass jeder Westler in seinem Haus des Jahres 1960 einen haben könnte. Noch haben wir auch Alternativen wie Schreibmaschinen nicht besteuert. Die Durchbrüche wurden ein dramatisches Hochfahren von Forschung und Entwicklung erreicht, was zu mehreren Innovationen führte, die Unternehmen wie IBM und Apple schließlich aktiviert haben, um Computer zu produzieren, die die Verbraucher auch kaufen wollten. [Elektroautos!?, AD]

Und wir haben jetzt ein großartiges Beispiel dafür, wie Innovation CO2 reduzieren kann. Die Schiefergasrevolution in den USA wurde durch die Ausgabe von 14 Mrd. Dollar für Forschung und Entwicklung in den vergangenen drei Jahrzehnten durch die US-Regierung möglich. Fracking hat die Gaspreise nach unten gedrückt, ersetzt schmutzige Kohle durch weniger umweltschädliches Gas und reduziert die CO2-Emissionen um rund 300 Millionen Tonnen im Jahr 2012.

Das ist mehr als dreimal so viel wie teure Windkraftanlagen und Solarzellen in der EU jedes Jahr erreichen. Und während die EU etwa 53 Mrd. Euro an Subventionen für Solar-und Wind jedes Jahr zahlt, erzielt die USA 390 Mrd. Dollar pro Jahr durch den Schiefergas Durchbruch. Dies zeigt das Potenzial für „Klima-Durchbrüche“ wenn die Politik die Notwendigkeit für Innovation entdeckt.

Während des Kopenhagener Konzils für Klima-Projekte, fanden 28 Klimaökonomen und eine Fachjury, darunter drei Nobelpreisträger, dass es die beste langfristige Klimastrategie ist, Investitionen in grüne F & E drastisch zu erhöhen. Dieses macht letztlich grüne Energie billiger, damit sich jeder umstellt. Die Schätzungen zeigen, dass jeder Dollar für grüne F & E aufgewendet, ihnen helfen wird Klimaschäden im Wert von $ 11 zu vermeiden. Das ist 100-mal besser als die Investition in die heutigen ineffizienten Solar- und Windenergie-Technologie.

Die vorliegende Klimapolitik hat seit 20 Jahren versagt und wird wahrscheinlich weiter scheitern. Wir würden gerne glauben, dass grüne Energie gerade dabei ist zu übernehmen, aber auch 25 Jahre weiter sind Sonne und Wind nur winzige Spieler. Wir würden gerne glauben, dass Erneuerbare gerade dabei sind, konkurrenzfähig zu werden. Aber die eigentliche Rechnung wird nur immer größer. Im vergangenen Jahr zahlte die Welt 184 Mrd. Dollar für Subventionen in Erneuerbare. Im Jahr 2040, werden diese voraussichtlich noch mehr kosten, etwa 297 Mrd. Dollar.

Die gegenwärtige Klimapolitik basiert auf Wunschdenken, dass sich nur sehr reiche Länder wie Deutschland leisten können. Für die Entwicklungsländer zählt es mehr, sich aus der Armut zu lösen, um Malaria und Hunger zu stoppen.

Anstatt auf die Welt zu zählen, sich plötzlich für eine Politik zu entscheiden, die sich direkt gegen die wirtschaftlichen Interessen jedes Landes richtet, sollte der Pariser Klimagipfel den Schwerpunkt auf eine drastisch erhöhte Finanzierung von grünen F & E fokussieren, um die nächsten, billigeren Generationen von grüner Energie zu entwickeln.

Wenn wir den Preis der grünen Energie unter den Preis für fossile Brennstoffe innovieren, werden wir endlich mit der Bekämpfung der globalen Erwärmung anfangen.

Bjørn Lomborg ist ein außerordentlicher Professor an der Copenhagen Business School und leitet das Copenhagen Consensus Center.

Gefunden auf STT vom 19. November 2015

Lomborgs Beitrag wurde duch STT übernommen vom The Australian vom 14.Nov. 2015

Übersetzt von Andreas Demmig

http://stopthesethings.com/2015/11/19/bjorn-lomborg-believe-in-the-easter-bunny-and-tooth-fairy-then-youll-probably-believe-wind-power-replaces-fossil-fuels-too/




Offener Brief an die bayerische Umweltministerin Ulrike Scharf zu ihren Aussagen über Klimakatastrophen

Frau

Staatsministerin Ulrike Scharf 

  p e r s ö n l i c h 

Staatsministerium für Umwelt und Verbraucherschutz

Rosenkavalierplatz 2

81925 München

 

Sehr geehrte Frau Scharf,

als Ministerin im bayerischen Kabinett sind Sie neben Verbraucherschutz auch für Umweltfragen zuständig. Ihre öffentlichen Äußerungen, die den Klimawandel betreffen, werden dabei geprägt durch Behauptungen wie "Schließlich drohe der Klimawandel das Gesicht der Welt zu verändern" oder "Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu" oder "Es gibt Prognosen wonach sich bis zu 100 Millionen Menschen weiter auf den Weg machen werden, weil sie durch den Klimawandel ihre Lebensgrundlagen verlieren. Und für uns ist klar – Klimaschutz ist auch Flüchtlingspolitik" [1]. Wir möchten Ihnen nun gerne einige Anmerkungen und Fragen zur Kenntnis bringen.

Zunächst möchten wir als wissenschaftlich unstrittig festhalten: Klimawandel ist naturgesetzlich, konstantes Klima gab es noch nie und kann es nie geben.

Zu Ihren Ausführungen:

Sie meinen offenbar, dass anthropogene Einflüsse für den aktuellen, sehr gemäßigten und im natürlichen Bereich der Klimavergangenheit liegenden Klimawandel verantwortlich seien. Ferner sprechen Sie von zunehmenden Extremwetterereignissen. Wir dürfen daher Ihre Aussagen unterteilen in

(a) "Extremwetterereignisse nehmen generell zu"

(b)"diese Zunahme wird durch anthropogene Einflüsse, z.B. CO2 Emissionen verursacht". 

 

Zu Punkt (a) "Extremwetterereignisse nehmen generell zu":

Als für die Umwelt zuständige Politikerin ist Ihnen bekannt, dass die Politik den Klimarat IPCC als Sprachrohr der Klimaforschung ansieht. Dabei scheinen Ihnen aber die weit über die "Summary forPolicymakers SPM" hinausgehenden, allein maßgebenden, detaillierten und sehr umfangreichen Berichte dieser Institution unbekannt zu sein [2]. In diesen finden sich nämlich sehr präzise Aussagen, die im krassen Gegensatz zu Ihren oben zitierten Bemerkungen stehen. Wir zitieren in Folgendem direkt aus diesen IPCC-Berichten 2001, 2013 und 2014 wörtlich (es gibt leider keine deutschen Versionen dieser Berichte):

Tropische Stürme und HurrikaneIPCC 2013, AR5, WGI, Kapitel 2, Seite 216No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

TropischeZyklone IPCC 2013, AR5, WGI, Kapitel 2, Seite 216 “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone IPCC 2013, AR5, WGI, Kapitel 2, Seite 220“In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren ]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in IPCC 2013, AR5, WGI, Kapitel 2, Seite 215:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen : ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter IPCC 2013, AR5, WGI, Kapitel 2, Seite 216“In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers [3] fehlen! Alle wissenschaftlichen und damit allein maßgebenden IPCC-Aussagen sind dagegen absolut klar: Extremwetterzunahmen im jüngsten Klimazeitraum sind nicht auffindbar von den Wetterdiensten. Der Vollständigkeit halber fügen wir noch hinzu, dass sich die entwarnenden IPCC-Aussagen mit denen der Fachwissenschaft decken. Hier empfehlen wir insbesondere das Buch von Krauss und Ebel: Risiko Wetter. Professor H. Kraus war weltweit anerkannter Ordinarius für Meteorologie an der Universität Bonn.

 

Zu Punkt (b) "….. diese Zunahme wird durch anthropogene Einflüsse, z.B. CO2 Emissionen verursacht"(Zitat Frau Scharf):

Für die in den Klima-Modellen prognostizierte Erwärmung ist die so genannte Klima-Sensitivität des CO2 entscheidend. Sie beschreibt die hypothetische Erwärmungsrate in Grad bei CO2-Verdoppelung. Ist sie groß, besteht evtl. Gefährdung, ist sie klein, dann nicht. Interessanterweise ist der Wert dieser Klimasensitivität aber bis heute der Wissenschaft unbekannt. Genau das steht sogar im jüngsten IPCC-Bericht (2013/14), Summary for Policymakers, SPM auf S.16 als Fußnote [4]: "No best estimate for equilibrum climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies".

Daraus folgt zwingend, dass alle "Klimaschutzmaßnahmen" auf einem unbekannten Zahlenwert  beruhen.

Bei alledem ist noch zu berücksichtigen, dass der Klimarat IPCC in seinem jüngsten Bericht darauf hinweist, dass  es – seit mittlerweile mehr als 15 Jahren – keine Erwärmung mehr gibt [IPCC 2013/14, IPCC, AR5, Climate Change 2013: Technical Summary, p.61]:

"… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series".

Sehr geehrte Frau Scharf, wir können uns kaum vorstellen, dass Ihnen alle diese vorstehend zitierten konkreten IPCC-Aussagen unbekannt sind. Wenn doch, so möchten wir gerne mit diesem Schreiben zur Erweiterung Ihres Informationsstandes beitragen. Möglicherweise führt das ja auch dazu, daß Sie es künftig vermeiden, Ihre von uns w.o. zitierten Aussagen zu wiederholen, denn sie sind peinlich, weil sie den wissenschaftlich gesicherten Fakten widersprechen.

Als Pressesprecher des Europäischen Instituts für Klima und Energie mit einem Blog, der täglich viele Tausend Internet-Besucher zählt [5], erlauben wir uns dieses Schreiben öffentlich zu machen. Unsere Leser möchten nämlich gerne mehr über Ihre Motivation zu Ihren oben angeführten, sachlich unzutreffenden Aussagen sowie insbesondere über die wissenschaftlichen Quellen wissen, mit denen Sie diese Aussagen begründen. Wir bitten Sie daher hiermit, diese wissenschaftlichen Quellen zu nennen.

Bitte machen Sie sich nicht die Mühe, mediale Aussagen von Advokaten-Forschern wie etwa Prof. Hans-Joachim Schellnhuber oder Prof. Mojib Latif als Quellen zu nennen, da diese Wissenschaftler ihre Position in unzulässiger Weise zur Propagierung ideologischer Ziele missbrauchen. Von Mojib Latif wurde beispielsweise im Spiegel Online vom 1.4.2000 die Aussage veröffentlicht, es werde in Deutschland keine Winter mit Schnee mehr geben [6]. Dieser Unsinn bedarf keines weiteren Kommentars. Unter Quellen verstehen wir die wissenschaftliche Fachliteratur, meteorologische Fachbücher oder eben die wissenschaftlichen Berichte des IPCC (nicht die Zusammenfassungen für Politiker).

Schließlich: Wir werden auch Ihre Antwort auf dem EIKE Blog veröffentlichen und weiter für die Verbreitung in Foren wie Facebook etc. sorgen.

Mit freundlichen Grüßen

Horst-Joachim Lüdecke, Klaus-Eckart Puls





Was ist dran an der „Meeresversauerung“- Märchen, Übertreibungen und Schummeleien

Meteorologen und Klimaforscher haben das Thema längst weltweit als hervorragende Möglichkeit der wundersamen Forschungsgeldvermehrung entdeckt und durch ständig schrillere Horrorvisionen fest in den Köpfen der Medienvertreter und der Politik etablieren können. Auf diesen Zug angeblich nachteiliger Folgen des CO2-Anstiegs ist 2008 auch ein Teil der Zunft der Meeresforscher aufgesprungen.

Bild rechts: Sind ihre Tage gezählt? Die farbenprächtige Paua ist in den flachen Küstengewässern vor Neuseeland zu finden

Zu den Segnungen der heutigen technischen Zivilisation gehören Erfindungen wie das Internet, die sehr mächtigen sogenannten Suchmaschinen sowie enzyklopädische Dienste wie Wikipedia. Auch wenn man gerade bezüglich der beiden letzteren berechtigte Einwände haben darf, so stellen sie andererseits doch Rechercheinstrumente von einer Mächtigkeit zur Verfügung, für die mancher Wissenschaftler noch vor wenigen Jahrzehnten seine rechte Hand gegeben hätte. Wenn also davon die Rede ist, dass eine weitere Erhöhung des CO2 über das jetzige Niveau von 400 ppm unser Klima in Richtung einer katastrophalen Erwärmung verändern würde, dann empfiehlt sich eine kurze Recherche bezüglich der Verhältnisse in der Vergangenheit, sagen wir mal der letzten 550 Mio. Jahre. Das ist der Zeitraum, in dem das Leben bereits Formen angenommen hatte, die uns auch heute noch vertraut anmuten. Eine kurze Recherche bei Wikipedia liefert hierzu Angaben sowohl zum CO2-Gehalt der jeweiligen Atmosphäre als auch der durchschnittlichen Temperaturen. Beginnend beispielsweise beim Kambrium [ERDZ] kann man sich mit wenigen Klicks bis zur Neuzeit durcharbeiten. Die entsprechenden Werte sind in Tabelle 1 aufgeführt.

CO2 ppm              T °C
Kambrium 4500 21
Ordovizium 4200 16
Silur 4500 17
Devon 2200 20
Karbon 800 14
Perm 900 16
Trias 1750 17
Jura 1950 16,5
Kreide 1700 23
Paläogen 500 18
Neogen 280 14

Tabelle 1. Durchschnittliche atmosphärische CO2-Gehalte und Temperaturen vom Kambrium bis zur Neuzeit, Daten aus [ERDZ]

Zunächst fällt auf, dass die CO2-Gehalte der Atmosphäre über den größten Teil dieses rund 550 Mio. Jahre umfassenden Zeitraums um ein Vielfaches über den Werten lagen, die von der heutigen Klimawissenschaft als „normal“ bezeichnet werden. Prof Schellnhuber vom Potsdam-Institut für Klimafolgenforschung (PIK) und seine Mitstreiter behaupten, dass der Anstieg von den etwa 280 ppm CO2, die als Normalwert der vorindustriellen Zeit angegeben werden, auf die heutigen 400 ppm uns bereits an den Rand der Klimakatastrophe geführt habe und wir dringendst die Weltwirtschaft „dekarbonisieren“ müssten, indem die CO2-Emissionen weitestgehend wieder auf ein vorindustrielles Niveau zurückgefahren werden. Anderenfalls, so Schellnhuber, drohe der Planet „zumindest abseits der Pole“ unbewohnbar zu werden [SCHE].

An den Daten fällt sofort auf, dass zwischen den teils hohen, teils mittleren und in einem Fall sogar sehr tiefen CO2-Werten und der jeweiligen Temperatur kein eindeutiger Zusammenhang besteht. Bei grafischer Auftragung (Bild 1) wird dies sofort erkennbar.

Bild 1. Die grafische Darstellung der Daten aus Tabelle 1 zeigt deutlich, dass zwischen Temperatur und CO2-Gehalt der Atmosphäre kein eindeutiger Zusammenhang besteht

Ergänzend ist hierzu noch anzumerken, dass andere Quellen sogar von noch höheren CO2-Gehalten von bis zu mehr als 6.000 ppm ausgehen [CALU]. Aus diesen Fakten kann man den Schluss ziehen, dass die Erde für den weitaus größten Teil dieses Zeitraums ein wärmeres Klima als heute aufgewiesen hat. Die Pole dürften über einen Großteil der 550 Mio. Jahre eisfrei gewesen sein. Und dass der Planet damals ein regelrechtes Paradies war, beweist der überreiche Schatz an paläontologischen Funden von Lebewesen mit Kalkschalen, die überall auf dem Globus zu finden sind. Das hohe CO2 hat ihnen überhaupt nicht geschadet, und der Planet ist auch nicht verbrannt. Angesichts dieser von jedermann selbst ohne akademischem Hintergrund leicht überprüfbaren Fakten ist es umso erstaunlicher, dass die Presse und die sonstigen Medien die ständigen schrillen Warnungen von Prof. Schellnhuber weiterhin so unkritisch nachplappern.

Bild 2. Fossile Muscheln aus einer Zeit, als der CO2-Gehalt der Atmosphäre um ein Mehrfaches über den heutigen Werten lag

Das Schreckgespenst „Ozeanversauerung“…

Nach dem Vorbild der Verlautbarungen des PIK zu den angeblich klimaschädlichen Folgen steigender CO2-Gehalte in der Atmosphäre lenkten im Oktober 2008 auch rund 150 „Top-Meeresforscher“ anlässlich einer Tagung in Monaco die Aufmerksamkeit der Weltöffentlichkeit auf vorgebliche Gefahren, die den Ozeanen durch verstärkte CO2-Aufnahme aus der Atmosphäre drohen sollen. In dieser „Monaco Declaration“ wurde behauptet, dass die Ozeane aufgrund der Bildung von Kohlensäure durch Reaktion des Wassers mit dem aufgenommenen CO2 aus dem Gleichgewicht gebracht würden, weil sie „versauerten“ [MONA]. Dabei wurde insbesondere hervorgehoben, dass diese pH-Änderung 100 Mal schneller ablaufe als die natürliche Variabilität. Als Konsequenz sei bei marinen Lebewesen von Muscheln über Korallen bis zu winzigen Schnecken die Bildung der Kalkschalen gestört. Das führe zu ihrer Gefährdung und möglicherweise sogar zum Aussterben. Seitdem ist um dieses Thema ein regelrechter Hype entstanden.

ist beim besten Willen nicht ernst zu nehmen

Der Kern der Theorie von der „Ozeanversauerung“ ist folgender: Der CO2-Gehalt der Atmosphäre ist in den letzten ca. 150 Jahren von etwa 280 ppm auf heute 400 ppm angestiegen. Das ist ein Anstieg von rund 43 %. Er lag in der Vergangenheit aber auch schon bei rund 6.000 ppm, das sind mehr als 2.000 % über den 280 ppm von 1750. Unser heutiger CO2-Gehalt ist erdgeschichtlich gesehen eher eine Art Betriebsunfall, der Normalzustand lag über hunderte Millionen Jahre um etliche hundert bis 2.000 % darüber [CALU]. In dieser langen Zeit ging es den Lebewesen in den Meeren so prächtig, dass sie uns entsprechende Beweise in Form von Billiarden Tonnen Schalen hinterlassen haben, die heute als Kalkstein überall auf der Welt zu finden sind.

Bild 3. Das im Kalk der Insel Gotland eingebettete Fossil lässt erkennen, dass die Kalkschalenbildung mariner Lebewesen auch in Zeiten extrem hoher CO2-Konzentrationen nicht beeinträchtigt war

Wir haben aktuell also, ausgehend von einem geradezu extrem niedrigen Niveau, einen Anstieg des atmosphärischen CO2-Gehalts um 43 %. Dies soll angeblich das Leben in den Ozeanen gefährden. Wir hatten andererseits Gehalte, die bis zu 2.000 % darüber lagen, und dem Leben ging es prächtig. Schon der gesunde Menschenverstand sagt einem sofort, dass hier jemand nicht die Wahrheit sagt. Der Verdacht liegt nahe, dass hier manche Forscher ganz dringend Geld für die Finanzierung ihrer Institute brauchen und bereit sind, dies auf eine Weise zu begründen, die – noch sehr höflich ausgedrückt – nur als ziemlich „kreativer“ Umgang mit der Wahrheit gewertet werden kann.

Verquere Wissenschaft

Wie anders wäre sonst zu erklären, dass sich Wissenschaftler bereitgefunden haben, einen Zusammenhang zwischen dem minimalen Anstieg des CO2-Gehalts in der Atmosphäre und der angeblich damit einhergehenden Meeresversauerung zu konstruieren. Beispiel für eine solche verquere Wissenschaft ist die Grafik von Richard A. Feely (Bild 4), einem Mitarbeiter der US-Amerikanischen National Oceanic and Atmospheric Administration (NOAA). Diese Behörde untersteht einem Staat, dessen oberster Befehlsgeber erkennbar und mit eiserner Entschlossenheit drauf hinarbeitet, sich zum Ende seiner Präsidentschaft noch schnell einen extragroßen Heiligenschein als „GröKliReAZ“ (größter Klimaretter aller Zeiten) aufzusetzen. Mit dieser Grafik und dem entsprechenden Bericht hat Mr. Feely zwar seinen wissenschaftlichen Ruf erheblich lädiert, ganz bestimmt jedoch nicht seine Karriere in Gefahr gebracht. Denn wie das halt so ist, wenn man dem Chef nach dem Mund redet: Feely erhielt im Jahre 2010 für seine „maßgebenden Arbeiten zur Meeresversauerung“ einen mit 100.000 US-$ dotierten Preis der Heinz Family Foundation („Heinz-Ketchup“). Diese Stiftung wurde von Theresa Heinz, der heutigen Ehefrau des US-Außenministers John Kerry, gegründet.

Bild 4 soll den Zusammenhang  von steigenden CO2-Pegeln in der Atmosphäre (Mauna-Loa-Pegel) mit steigenden CO2-Werten des Ozeans in der nahegelegenen Messstation Aloha sowie das gleichzeitige Versauern (=Absinken des pH-Wertes) belegen (Grafik: Feely [FEEL])

Diese Grafik und die damit suggerierten Zusammenhänge stellen die Tatsachen derart auf den Kopf, dass sich seither zahlreiche Wissenschaftler zu Wort meldeten, welche dem damit angeblich bewiesenen Zusammenhang von CO2 und „Ozeanversauerung“ energisch widersprachen. Besonders anschaulich ist die folgende Darstellung des renommierten Hydrologen Mike Wallace, über die Anthony Watts in einem Artikel berichtete [PHRA].

Bild 5. Der Langzeit-Verlauf und sowie die Streuungen von zahlreichen pH-Messungen des NOAA im Verlauf des 20. Jahrhunderts (Grafik: Wallace [WALL])

Das Bemerkenswerte an beiden Bildern ist zunächst die Tatsache, dass sich beide auf die gleiche Datenbasis beziehen, nämlich auf vom NOAA durchgeführte Messungen. Der Trick von Feely besteht darin, dass er eine willkürliche Verkürzung der Zeitachse auf den Zeitraum nach 1988 vorgenommen hat, weil die sich dann ergebende Kurve das von ihm gewünschte Ergebnis eines sinkenden pH-Werts zu beweisen scheint. Dazu schreibt A. Watts: „Feely’s Arbeit basiert auf Computermodellen, die nicht der durch Messwerte belegten Realität entsprechen….Feely und sein Coautor Dr. Christopher L. Sabine….haben über 80 Jahre ermittelte Daten ausgeblendet, die mehr als 2 Millionen Messungen von ozeanischen pH-Werten beinhalten“.

Weiterer Punkt, der hier hervorgehoben werden sollte, ist die in Bild 5 dokumentierte natürliche Variabilität ozeanischer pH-Werte. Diese können den Daten zufolge zwischen 7,75 und 8,35 liegen. Die Ozeane und die in ihnen lebenden kalkbildenden Organismen sind demnach imstande, mit dieser Bandbreite zurechtzukommen.

Zu ähnlichen Schlüssen wie Wallace kommen darüber hinaus mehr als 20 weitere wissenschaftliche Veröffentlichungen, die in einer Übersicht mit dem Titel „Ocean Acidification (The Phenomenon) – Summary“ vorgestellt werden [CO2V].

Sehr deutlich ins Gericht mit den Darstellungen von Feely und anderen Anhängern der Theorie der Meeresversauerung geht auch Dr. Ulrich Steiner [STEI], Bild 6.

Bild 6. Die pH-Skala mit Angaben zur natürlichen Variabilität von Mineralwasser und Meerwasser (Grafik: Steiner [STEI])

Er gibt für die natürliche Variabilität des pH-Werts von Meerwasser mit 7,5 bis 8,4 sogar einen noch etwas breiteren Bereich als Wallace an. Zugleich verweist er auf deutliche Temperaturabhängigkeiten des pH-Werts von Meerwasser sowie auf eine Satellitendarstellung von Columbia’s Lamont-Doherty Earth Observatory, welche für verschiedene Meeresregionen pH-Werte zwischen 7,74 und 8,40 ausweist. Angesichts dieser Tatsachen drängt sich der Eindruck geradezu auf, dass es sich bei Feely’s Darstellung um eine plumpe und unwissenschaftliche Manipulation handelt.

Die angeblichen Leiden der jungen Koralle…

Gravierendste Auswirkung der behaupteten „Versauerung“ der Ozeane ist, wie bereits erwähnt, die angebliche Behinderung der Kalkschalenbildung bei marinen Lebewesen. Zu den lautstärksten Warnern gehört beispielsweise auch der britische Chefwissenschaftler, Sir Mark Walport, der in der BBC „erheblichen Risiken für komplexe marine Nahrungssysteme und Ökosysteme“ beklagt und behauptet, die derzeitige Versauerungsrate sei höher als jemals zuvor in den letzten 65 Millionen Jahren. Zudem warnt er vor künftigen Auswirkungen auf die Fischerei [COPP].

Ins gleiche Horn stößt auch Richard Bellerby vom Norwegian Institute for Water Research, der mit Blick auf die „Versauerung“ der arktischen Ozeane behauptete, man habe die kritischen Grenzwerte bereits überschritten. Selbst wenn man jetzt mit den CO2-Emissionen aufhöre, werde die Versauerung noch zehntausende Jahre anhalten [SABB]. Noch alarmierender äußern sich Meeresforscher beispielsweise in einem Bericht des International Programm on the State of the Ocean (IPSO). Dort wird behauptet: „Die Gesundheit der Ozeane bewegt sich viel schneller auf einer Abwärtsspirale als wir gedacht haben. Wir sehen größere Veränderungen, die schneller passieren und deren Folgen unmittelbar bevorstehen“ [SAWA].

sind wohl eher Schauermärchen

Zum Glück für die Öffentlichkeit sind die CO2-Katastrophenprediger im Bereich der Meereswissenschaften erst viel später aufgewacht als bei den Meteorologen. Deshalb gibt es noch unverfälschte Datenbasen und eine erfreulich große Zahl gestandener Wissenschaftler, welche nicht bereit sind, ihren wissenschaftlichen Ruf auf’s Spiel zu setzen.

Beispiel hierfür sind Untersuchungen von Q. Shi et al. zu den Bildungsraten von Korallen-Kalkschalen im südchinesischen Meer über einen Zeitraum von 300 Jahren[SHIQ]. Hierbei wurde festgestellt, dass diese im Zeitraum von etwa 1710 bis etwa 1760 – also eindeutig in vorindustrieller Zeit mit deutlich niedrigerem CO2-Gehalt als heute – tiefer lagen als heute und zunächst bis etwa 1810 deutlich anstiegen, um ab 1920 wieder abzusinken, Bild 7. Im Zeitraum ab ca. 1985 – der sich in etwa mit dem von Bild 4 deckt – kam es sogar trotz markant steigender CO2-Gehalte bzw. sinkender pH-Werte zu einem ausgeprägten Wiederanstieg des Schalenwachstums.

Bild 7. Die von Shi et al. für das Meiji-Riff im südchinesischen Meer ermittelten Kalkschalen-Wachstumsraten im Zeitraum von 1710 bis 2010 (Grafik: Shi et al., [SHIQ])

In die gleiche Richtung weisen auch von Dr. Ulrich Steiner vorgestellte Studien, welche sich mit der Reaktion von Korallen auf erhöhte CO2 Werte befassten [STEI]. Bei der ersten wurde festgestellt, dass bei Coccolithophoren – die für ein Drittel der marinen Kalksteinproduktion verantwortlich sind – Kalkbildung und Produktivität bei höherer CO2 Konzentration signifikant höher waren. Bei der zweiten Studie zeigte sich, dass die Koralle Lophelia pertusa sich in einigen Monaten an saurere Bedingungen anpasste und dann ebenfalls erhöhte Kalkbildung zeigte.

Willis Eschenbach [ESCH] stellte die Ergebnisse einer Untersuchung von Yeakel et al. [YEAK] vor, die entlang eines Korallenriffs vor den Bermudas über fünf Jahre die Korallenaktivität mithilfe von Sensoren aufzeichneten. Dabei wurde festgestellt, dass die Korallen auf ein erhöhtes Nahrungsangebot aufgrund von Algenblüten mehr alkalische Karbonate aus dem umgebenden Wasser zogen, so dass dieses saurer wurde, und zugleich mehr CO2 ins Wasser emittierten. Die Folge war eine starke Zunahme der „Versauerung“ – auf Niveaus, die höher lagen als die prophezeiten Niveaus der Zukunft infolge menschlicher Emissionen – und doch wuchsen die Korallen immer weiter.

Und Forscher der Woods Hole Oceanographic Institution stellten bei der Beaufschlagung der Atmosphäre über marinen Versuchsbecken mit bis zu 2660 ppm (!) CO2 fest, dass zwar bei einigen Arten die Schalen dünner wurden, dass jedoch sieben der 18 untersuchten Arten zur Überraschung der Wissenschaftler auf die steigende Beaufschlagung nicht mit dünneren, sondern mit dickeren Schalen reagierten [WOOD]. Zu diesen Profiteuren gehörten neben dem Hummer unter anderen rote und grüne schalentragende Algen, Napfschnecken und Seeigel der gemäßigten Breiten

Effekthascherei auf Kosten der Wissenschaftlichkeit…

Zu den schlimmsten Begleiterscheinungen des Hypes um die angebliche Versauerung der Ozeane gehört der teils bedenkenlose Verzicht mancher Akademiker auf wissenschaftlich korrektes Vorgehen. Dies entspringt offensichtlich der Absicht, mithilfe des Medien „Stimmung zu machen“. Klipp und klar ausgedrückt hat dies beispielsweise Dr. Ceri Lewis von der Universität Exeter. Sie hat sich zum Ziel gesetzt, speziell Kinder bezüglich des Themas „Ozeanversauerung“ „aufzuklären“, und zu diesem Zweck von den Schulbehörden die Einrichtung eines Bildungsprogramm gefordert [COPP]. Daraus entwickelte sich unter gütiger Mithilfe von Greenpeace und Co. eine weltweite Kampagne. In ihrem Verlauf wurden unzählige Experimente konzipiert, um Schülern, Journalisten und Laien gleichermaßen durch eindrucksvoll blubbernde Säureexperimente mit Kalk die angebliche Gefährdung der Meere zu demonstrieren. Zurzeit gibt es auf Bildungsservern eine regelrechte Inflation an Anleitungen speziell für Lehrer, welche Schülern zeigen sollen, welch negative Auswirkungen CO2 hat, wenn es sich in Wasser löst [EXPE].

Dabei wird häufig munter Desinformation betrieben, beispielsweise indem man ein Stück Kreide in kohlensäurehaltiges Mineralwasser wirft, wo es dann aufgelöst wird. Dass dies schon vom pH-Bereich her nichts mit den Verhältnissen in Meerwasser zu tun hat, zeigt schon ein Blick auf Bild 6. Das hält jedoch selbst Wissenschaftler des eigentlich renommierten Alfred-Wegener-Instituts nicht davon ab, diesen billigen Taschenspielertrick zur Beeindruckung von z.B. Journalisten anzuwenden [VERS2]. Andere Experimente, welche jedem, der eine Vorstellung von den fein austarierten Gleichgewichten des stark gepufferten chemischen Milieus in den Meeren hat, die Zornesröte ins Gesicht treiben dürften, befassen sich mit dem Einsetzen von Trockeneis in Wasser (Resultat ist ein 3.000facher CO2-Gehalt im Vergleich zur Atmosphäre) oder der Verwendung von Säure zur Kalkauflösung [BURN].

Das hinterlistige an solchen Experimenten ist, dass eine Säurezugabe zu Muschelkalk tatsächlich zur Schaumbildung aufgrund von ausgasendem CO2 führt. Das hat jedoch nichts mit dem komplexen mit dem System Kohlensäure/Karbonat im Meerwasser zu tun. Analogien zu solchen Versuchen bekäme man, wenn man sich vorstellt, jemand wolle eine Kettensäge als Werkzeug für Gehirnchirurgie einsetzen oder eine Uhr mit dem Vorschlaghammer „reparieren“.

und Unsauberkeiten selbst bei wissenschaftlichen Arbeiten

Ebenso bedenklich stimmt, dass selbst bei vielen wissenschaftlichen Arbeiten zum Thema Ozeanversauerung inzwischen die üblichen Standards nicht mehr in zufriedenstellendem Umfang eingehalten werden. So erschien im August 2015 in „Nature“ eine Zusammenstellung von Berichten, die z.T. erhebliche Mängel bei der Konzeption von Experimenten zur „Ozenaversauerung“ beklagten [CRES]. Erwähnt wird beispielsweise eine Arbeit von C.E. Cornwall und C.L. Hurd, wonach die meisten Autoren von Berichten über entsprechende Laborversuche entweder ungeeignete Methoden verwendeten oder ihre Methode nicht in geeigneter Form darlegten. Cornwall und Hurd stellten beispielsweise fest, dass nur in 27 Fällen ein angemessenes Design der Experimente zweifelsfrei festgestellt werden konnte. In 278 (!) Fällen sei das Versuchsdesign offensichtlich ungeeignet gewesen. Die übrigen Studien hätten keine ausreichenden Informationen über den experimentellen Aufbau enthalten – was nach Ansicht der Verfasser für sich selbst bereits ein Problem darstelle. Unglücklicherweise seien wirklich konsequent konzipierte Versuche logistisch sehr komplex und auch teuer, sowohl was den Versuchsaufbau als auch was die laufenden Wartungsaufwendungen angehe. Kombiniere man dies mit dem zunehmenden Druck, schnell und noch dazu in Top-Journalen zu publizieren, dann komme es dazu, dass manche Forscher oder Forscherteams versuchten, Arbeiten zu publizieren, die nicht den erforderlichen Standards entsprechen. In einem weiteren Papier stellt auch Bayden Russell von der Hong Kong University fest, dass manche Forscher beim Design ihrer Experimente die Komplexität des Themas „Ozeanversauerung“ nicht ausreichend berücksichtigen.

Fred F. Mueller

Quellen

[BURN] http://www.eike-klima-energie.eu/news-cache/ozean-versauerung-welche-ozean-versauerung/

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml    abgerufen 21.4.2013

[CO2V] http://www.co2science.org/subject/o/summaries/acidificationphenom.php

[COPP] http://www.bbc.com/news/science-environment-29746880

[CRES] http://www.nature.com/news/crucial-ocean-acidification-models-come-up-short-1.18124

[ERDZ] https://de.wikipedia.org/wiki/Kambrium

[ESCH] http://www.eike-klima-energie.eu/news-cache/tiefenrausch-warum-korallen-die-versauerung-gut-ueberleben/

[EXPE] http://www.cisanctuary.org/ocean-acidification/hands_on_activities.php

[FEEL] http://pmel.noaa.gov/co2/files/co2_time_series_12-17-2014_with_text.jpg

[MONA] http://news.bbc.co.uk/2/hi/science/nature/7860350.stm

[PHRA] http://wattsupwiththat.com/2014/12/23/touchy-feely-science-one-chart-suggests-theres-a-phraud-in-omitting-ocean-acidification-data-in-congressional-testimony/

[SCHE] http://www.eike-klima-energie.eu/climategate-anzeige/maschinenstuermerei-in-der-heutigen-zeit-die-hoellenvisionen-des-potsdam-propheten/

[SHIQ] http://www.nipccreport.org/articles/2012/may/22may2012a1.html

[SABB] http://www.bbc.co.uk/news/science-environment-22408341  6.5.2013

[SAWA] http://www.spiegel.de/wissenschaft/natur/erwaermung-klimawandel-macht-meere-weltweit-saurer-und-waermer-a-928096.html

[STEI] http://www.eike-klima-energie.eu/news-cache/versauern-die-ozeane-die-phaelschung/

[VERS2] http://www.spiegel.de/wissenschaft/natur/c02-emissionen-saure-ozeane-gefaehrden-polarmeere-a-654034.html

[WALL] http://www.abeqas.com/wp-content/uploads/2014/01/MWAcompilationOfGlobalOcean_pHJan82014.jpg

[WOOD] http://www.scinexx.de/wissen-aktuell-10898-2009-12-03.html

[YEAK] http://www.marine-geo.org/portals/gmrt/




Widerpart zur „Klimakonferenz“: Ein Loblied auf das CO2! Die Erde hat nicht zu viel, sondern zu wenig CO2

Seit 1991 liegen für das junge Bundesland Thüringen Ertragsstatistiken vor. Wir betrachteten den Winterweizen, unsere wichtigste Getreideart. Der Untersuchungszeitraum (1991 bis 2015; die 2015er Werte sind vorläufig) weist sowohl sehr nasse, trockene, kalte und warme Jahre auf. Zunächst wollten wir wissen, ob es einen merklichen Zusammenhang zwischen Lufttemperaturen und Winterweizenertrag (in Dezitonnen je Hektar) während der Vegetationsperiode gibt. Diese dauert beim Winterweizen von Oktober (Aussaat) bis zum Reifebeginn Ende Juni/Mitte Juli. Erstaunlicherweise war der gefundene Zusammenhang sowohl über den Gesamtzeitraum nur gering, aber positiv (Bestimmtheitsmaß 2,6%; nicht signifikant). Auch die Betrachtung der wichtigsten, ertragsbestimmenden Wachstumsphase, die in den Zeitraum April bis Mai fällt, erbrachte nur einen geringen, positiven, nicht signifikanten Zusammenhang) (erste Abbildung):

Grafik 1: Temperaturen seit 1991 in Thüringen in den Wachstumsmonaten April und Mai.

Während die Lufttemperaturen im April und Mai (Zwei- Monatsmittel) leicht gestiegen sind, gab es einen kräftigen Ertragszuwachs von gut 0,5dt/Jahr und Hektar. Von „alarmierend sinkenden Erträgen“ also keine Spur- im Gegenteil! Doch welchem Faktor verdanken wir diesen enormen Zuwachs, pro Hektar werden heuer etwa 12dt mehr geerntet, als noch zu Beginn der 1990er Jahre, als in Thüringen auch schon kräftig gedüngt wurde. Gab es vielleicht reichlichere Niederschläge, speziell in der entscheidenden Wachstumsphase (April und Mai, zweite Abbildung):

Grafik 2: Niederschläge in Thüringen in den Wachstumsmonaten April und Mai.

Auch bei der Niederschlagsentwicklung in der wichtigsten Wachstumsphase zeigt sich bislang kein besorgniserregender Trend; der geringe Anstieg kann die stark positive Ertragsentwicklung nicht erklären (Bestimmtheitsmaß 10%; nicht signifikant). Und im Dürrejahr 2015 hätte es eigentlich eine katastrophale Missernte geben müssen, denn von Februar bis Juni fielen nur um die 50 Prozent der normalen Regenmengen; in der für den Ertrag besonders entscheidenden Zeitspanne (April/Mai) sogar großflächig deutlich unter 50 Prozent. Doch mit etwa 72dt/ha fiel die 2015er Ernte überraschend gut aus, und das bei einer hervorragenden Qualität. Offenbar gibt es da noch einen Faktor, der die Erträge langfristig steigert und stabilisiert. Es ist der angebliche „Bösewicht“ CO2. In der folgenden Abbildung erkennt man den Gleichklang zwischen steigenden CO2- Konzentrationen und den Erträgen:

Grafik 3: Zusammenhang Kohlendioxidkonzentration und Ertragssteigerung

Und dass der Winterweizen keinen Einzelfall darstellt, zeigt ein Blick auf die Ertragsentwicklung aller Getreidearten inklusive Körnermais und Corn- Cob- Mix (sichere Werte liegen momentan nur bis 2014 vor):

Grafik 4: CO2 bewirkt Ertragssteigerung bei Nahrungspflanzen.

Um Missverständnissen vorzubeugen: Nicht die gesamte Ertragssteigerung seit 1991 geht auf das Konto des CO2. Bessere Anbaumethoden und leistungsstärkere Sorten dürften ebenfalls beteiligt gewesen sein. Allerdings zeigen zahlreiche, langjährige Feldversuche ebenfalls den engen Zusammenhang von CO2- Konzentration und Ertrag bei verschiedenen Kulturpflanzen (Quelle http://www.eike-klima-energie.eu/climategate-anzeige/mehr-co2-bedeutet-ertragsteigerung-in-der-landwirtschaft/ ):

In Abb.5 sind die Erträge von W-Weizen und Z-Rüben in Abhängigkeit zum CO2-Gehalt gesetzt. Sie ergeben für den Untersuchungszeitraum lineare, hoch signifikante Relationen.

Wie ist dieser Zusammenhang zu erklären? CO2 ist der wichtigste Pflanzennährstoff- ohne CO2 funktioniert keine Fotosynthese! Allerdings liegt die momentane CO2- Konzentration weit unterhalb der für Pflanzen optimalen Werte. Jegliche CO2- Konzentrationssteigerung bewirkt nach den Ertragsgesetzen daher einen überproportional hohen Ertragszuwachs. Das CO2 wird von den Pflanzen durch mikroskopisch kleine Spaltöffnungen an der Blattunterseite eingeatmet; diese ähneln kleinen Mündern. Beim Atmen verliert das Blatt jedoch Wasser- genau wie wir auch. Steigt nun die CO2- Konzentration, so muss das Blatt weniger atmen, es verliert weniger Wasser. Somit hat CO2 auch eine wesentliche ertragsstabilisierende Wirkung bei Dürren.

Irdisches Leben ist auf Kohlenstoff und Kohlendioxid aufgebaut

Wir Menschen und die Tiere liefern auch durch Ausatmen den Pflanzen das C02 zum Leben und diese zerlegen CO2 und geben uns den Sauerstoff wieder zurück. Aus dem Kohlenstoff bauen sie dann hochwertige Stoffe, unsere Nährstoffe und Nahrungsmittel auf. So funktioniert der Kreislauf des Lebens. Kohlendioxid ist somit neben Wasser, Wärme und Sauerstoff die Voraussetzung für das Leben auf der Erde. Ohne CO2 wäre die Erde kahl wie der Mond. Das Grundelement aller organischen Verbindungen und allen Lebens ist Kohlenstoff. Das Gas CO2 ist das Transportmittel für das Kohlenstoffatom, um von einer organischen Verbindung zur anderen zu gelangen. Ohne CO2 wäre die Erde lebensfeindlich und tot. Kohlendioxid ist der Lebensmotor. CO2 ist das Gegenteil von rauchenden stinkenden Schornsteinen. Als Spurengas ist es von außerordentlicher Wichtigkeit für den Erhalt und die Weiterentwicklung organischen Lebens auf unserer Erde. Mit einer Konzentration von derzeit 0,04% = 400 ppm haben wir zu wenig Kohlendioxid auf der Erde. Aus diesem Grunde erhöhen Großgärtnereien auch den CO2-gehalt in den Gewächshäusern, siehe hier: http://www.gewerbegas-online.de/index.php?id=573 Aus diesem Fachartikel für Gärtnereien wollen wir folgende Faustregel weitergeben: „Liegen keine Erkenntnisse über die optimale CO2-Konzentration bei einer Pflanze vor, dann sollte der Gärtner zunächst eine CO2-Dosierung von 600 ppm wählen“. Die optimale Konzentration für Pflanzen wird nach den bisherigen Erfahrungen zwischen 600 und 1600 ppm angegeben.

Die Wachstumsergebnisse mit höheren CO2-Konzentrationen sind eindeutig. Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen bei einer Kiefer dargestellt.

Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf

Abb.6: Pflanzen wachsen mit mehr Kohlendioxid viel besser. Auf dem linken Bild wuchs der Nadelbaum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er vor 10 Jahren auf dem Mauna Loa noch gemessen wurde. Bereits bei einer Zunahme um weitere 150 ppm auf 535 ppm ist ein deutlicher Zuwachs zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem Ausgangswert, was dem Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm.

Der Kohlendioxidgehalt der Atmosphäre war in früheren Zeitaltern der Erdgeschichte weitaus höher. Aufgrund dessen, dass organische Stoffe zunehmend im Erdreich in Form von Torf, Kohle und Erdöl eingelagert wurden, hat der CO2-gehalt der Atmosphäre immer weiter abgenommen. Außerdem wurde CO2 zunehmend durch Schalentiere gebunden, das als Kalk abgelagert wurde. Die Folge war eine zunehmende Verknappung dieses lebensnotwendigen Gases in der Luft bis der Mensch begann, C02 wieder freizusetzen. Hätte der Mensch nicht eingegriffen und den Prozess der Konzentrationsabnahme gestoppt, dann wäre das Wachstum auf der Erde irgendwann zum Stillstand gekommen, mangels CO2 für die Photosynthese. Der kritische Wert dürfte bei 100 ppm liegen. Kurz gesagt: Ohne Mensch, grüne Erde, ade. Insofern hat der Mensch sogar einen Schöpfungsauftrag, nämlich durch erneutes Freisetzen von CO2 aus eingebunkerten Kohlenstoffverbindungen die Photosynthese und das Leben zu erhalten. Ergänzende Literatur durch den Greenpeace Gründer Patrick Moore, hier: http://www.eike-klima-energie.eu/news-cache/greenpeace-gruender-haelt-eine-grosse-rede-und-lobt-kohlendioxid/

Diese Verunglimpfung des Gases Kohlendioxid ist keine Wissenschaft, sondern sie trägt Züge einer lebensfeindlichen Pseudoreligion. Der Hauptsatz dieses Glaubens ist, dass Kohlendioxid der Hauptfaktor für die Erderwärmung seit 1850 ist. Mit teuren Computern wird dann hochgerechnet wie warm es im Jahre 2100 dann sein könnte. Und wie immer bei einer Religion werden die naturwissenschaftlichen Fakten ignoriert, in diesem Falle sind es gleich zwei: Nämlich, dass wir seit 19 Jahren einen Temperaturstillstand haben, und dass bislang kein einziger Versuch eine CO2-Erwärmung beweisen konnte. Was keine Wirkung hat, bewirkt logischerweise auch nichts. Um trotzdem Angst verbreiten zu können, wählt man in den Medien oft folgende Falschdarstellung:

Abb. 7: Bei diesen Rauchfahnen handelt es sich in der Hauptsache um Ruß und Wasserdampf. Kohlendioxid ist unsichtbar und geruchlos.

Beim Lesen dieses Aufsatzes hat der Leser das ungiftige und farblose, aber für das irdische Leben und Pflanzenwachstum unbedingt notwendige Kohlendioxid ausgeatmet, ohne irgendwelche Schäden anzurichten. Dieses anthropogene und absolut saubere CO2 hat noch nie zur Erderwärmung beigetragen und wird es auch weiter nicht tun.

Stefan Kämpfe, Diplom- Agrar- Ingenieur und unabhängiger Klimaforscher

Josef Kowatsch, aktiver Naturschützer und unabhängiger Klimaforscher




Wie man den Stillstand der Erwärmung los werden will – wieder einmal

Das Gleichbleiben („Stillstand“) der globalen mittleren Temperatur existiert nicht und hat nie existiert. Es handelt sich um einen von Klimaskeptikern erzeugten Mythos, wie in einer neuen Studie behauptet wird. Mehr noch, dessen bloße Bezeichnung als ein „Stillstand“ (hiatus oder pause) ist gefährlich, weil es sowohl Wissenschaftler als auch die Öffentlichkeit in die Irre führt.

Die Studie, in der diese Aussage enthalten ist, wurde in dem Journal Scientific Reports veröffentlicht. Die Autoren sind Stephan Lewandowsky, James Risbey und Naomi Oreskes. Man betrachte den ersten Satz im Abstract: „In jüngster Zeit wurde oftmals ein ,Stillstand‘ bzgl. der globalen Erwärmung in öffentlichen Debatten und der wissenschaftlichen Literatur erwähnt. Jedoch zeigen viele Beweisquellen, dass sich der Klimawandel unabgeschwächt fortsetzt, was Fragen hinsichtlich des Status‘ dieses ,Stillstands‘ aufwirft“.

Es ist ein wissenschaftlich verschachtelter Satz. Der Stillstand bezieht sich auf die globale jährliche mittlere Temperatur, bei der genau das Gesagte der Fall ist. Außerdem wird der Stillstand durch Satelliten-Messungen der unteren Troposphäre bestätigt. Zusammen ergibt sich daraus eine interessante Perspektive hinsichtlich der Probleme bei der Datengewinnung, vor allem bei Datenlücken und dem Auffüllen von Daten bei fehlenden Messungen. Man kann mit Fug und Recht sagen, dass niemand einen Zeitraum von etwa 15 Jahren erwartet hatte ohne eine Zunahme bei diesen Messungen, und darum ist es zulässig, Fragen aufzuwerfen bzgl. der Vergleiche zwischen Modellen und Messungen. Einige sagen, dass die globale Erwärmung aufgehört hat, aber dies unterscheidet sich von der Existenz eines Stillstands. Man sollte vorsichtig mit der Hypothese sein, dass ein Stillstand in den Datensätzen gleichbedeutend ist mit einem ähnlichen Stillstand der „globalen Erwärmung“. Man muss also hinsichtlich der Sprache sorgfältiger vorgehen. Mein Eindruck ist, dass sprachliche Nachlässigkeit in dieser Studie tatsächlich einige von dessen Schlussfolgerungen bestimmt.

In der Studie heißt es weiter: „Im Bereich Öffentlichkeit war die Behauptung, dass die globale Erwärmung „aufgehört“ hat, seit Langem ein konträrer Standpunkt. Nachdem dieser konträre Rahmen einige Zeit auf die Medien und Internet-Blogs beschränkt geblieben war, fand er jetzt Eingang in die wissenschaftliche Literatur. Der Terminus ,Stillstand‘ hatte seinen Ursprung demonstrativ außerhalb der wissenschaftlichen Gemeinschaft, und vermutlich war es die permanente Herausforderung gegensätzlicher Stimmen, von denen bekannt ist, dass sie die wissenschaftliche Kommunikation und Vorgehensweise beeinflussen“.

Dies ist eine Fehlinterpretation dessen, was tatsächlich geschehen war. Zum ersten Mal war im Jahre 2006 von einem Stillstand die Rede, und ab dem Jahr 2008 wurde darüber in der begutachteten wissenschaftlichen Literatur diskutiert. Allerdings, wer die Klimagate-E-Mails gelesen hat, wird sich bewusst sein, dass einem Wissenschaftler zufolge die wissenschaftliche Gemeinschaft bereits gut darüber Bescheid wusste und innerhalb dieser in privatem Rahmen darüber diskutiert wurde oder man irgendwie besorgt war. Der Stillstand fand Eingang in die begutachtete Literatur unabhängig von dem, was in den Blogs vor sich ging. Der Terminus wurde kreiert von Robert Carter, einst Professor für Erdwissenschaften an der James Cook University in Australien. Stand er zu jener Zeit außerhalb der wissenschaftlichen Gemeinschaft?

Die in der Studie proklamierte Behauptung, dass der Stillstand „unvermeidlich verbunden ist mit der konträren Behauptung, dass die globale Erwärmung aufgehört hat“, ist ebenfalls falsch. Die Autoren wollen nicht erkennen, dass die Motivation der meisten Skeptiker, ebenso wie der Wissenschaftler, darin besteht herauszufinden, was wirklich los ist und was mit den atmosphärischen Temperaturen am Boden und in der unteren Troposphäre passiert. Man kann argumentieren, dass dies gute Wissenschaft ist, haben wir doch heute eine sehr unterschiedliche Sichtweise auf dekadische Klimavariationen verglichen mit vor einem Jahrzehnt. Man erinnere sich, man hatte uns gesagt, dass das anthropogene Temperatursignal dominant war. Heute sagt man uns, dass die dekadischen Variationen dominant sind und dass wir noch eine Weile warten müssen, bis das anthropogene Signal wieder auftaucht. Für die Klimawissenschaft ist dies ein fundamentaler Wendepunkt.

Als Beweis für die Schlussfolgerung in der Studie werden 40 begutachtete Studien analysiert, die den Stillstand erwähnen. In der Studie heißt es dazu: „Die Artikel wurden von den Autoren bis zu den Quellen zurück verfolgt mit Hilfe einer Anzahl anderer Forscher und Klimaexperten, die mit der gegenwärtigen Literatur vertraut sind“. Dabei handelt es sich um einen mit seltsamen Methoden selektierten Korpus. Zum Beispiel haben dreizehn von ihnen weder HadCRUT4-, NASA-GISS- oder NSDC-Datensätze verwendet. Die Studie extrahiert die Dauer ebenso wie Beginn und Ende des Stillstands daraus.

Die Linien auf der Karte haben sich von einer Seite zur anderen bewegt

Die Studie stellt fest: „Es gibt keinen allgemein anerkannten ,Stillstand‘ in der wissenschaftlichen Literatur. Punkt!“ Als ob das angesichts der Datenstatistik eine Rolle spielt oder wirklich plausibel ist. Ein oder zwei Jahre ist die beste Genauigkeit, die man bekommen kann, und oft weichen Studien hinsichtlich ihrer Start- und Endpunkte voneinander ab. Fehlende Übereinstimmung für ein bestimmtes Jahr beseitigt die Existenz des Stillstands. Wann begann der Stillstand? Zwei Studien zufolge 1997, zehn nannten 1998, eine sprach von 1999, elf von 2000 und sieben vom Jahr 2001 an. Über die Hälfte der Studien pflegen einen Zeitpunkt zwischen 1998 und 2000 als den Beginn des Stillstands.

Nun ist es sehr interessant zu untersuchen, warum die Autoren gerade jene Daten ausgewählt haben, aber dies sagt uns wenig über die Wissenschaft des Stillstands, wenn man nicht mit den Daten vertraut ist. Lange war anerkannt, dass der Startpunkt 1998 unklug ist, weil 1998 ein Jahr mit einem sehr starken El Nino war. 1999 und 2000 waren La-Nina-Jahre, was einen Startzeitpunkt in diesen Jahren ebenfalls unklug macht. Etwa die Hälfte der für die Studie herangezogenen Arbeiten sind unsicher hinsichtlich Berechnung sowie Dauer und Trends des Stillstands. Bzgl. der anderen Arbeiten legt die Studie zu viel Gewicht auf die vagen Schätzungen hinsichtlich des Start- und Endpunktes des Stillstands.

Die Autoren verglichen die Verteilung von Erwärmungstrends während des Stillstands, wie sie in den von ihnen untersuchten Arbeiten definiert werden, mit der Verteilung aller möglichen Trends, die beobachtet worden waren während der von ihnen so genannten „modernen“ globalen Erwärmung. Sie zeigen jene Trends mit drei verschiedenen Startzeitpunkten. Man beachte, dass keine Fehlergrenzen der Trends angegeben werden, was beachtlich ist, und man beachte auch, dass die Trends gewichtet sind nach ihrer Popularität in der ausgewählten Literatur. Das Hinzufügen angemessener Fehlergrenzen zu den Trends würde diese Graphiken verschmiert haben.

Ihre Graphik zeigt eine graphische Repräsentation der Erwärmungstrends, die aus den verfügbaren Daten zu jener Zeit ersichtlich waren für jeden Blickwinkel zwischen 1984 und 2014. Sie sagen, dass für jeden Blickwinkel die vorhergehenden 17 Jahre immer einen Erwärmungstrend zeigten. Jeder, der die Daten betrachtet, erkennt sofort, dass dies eine triviale Aussage ist. Sie behaupten, dass man vom Jahr 2014 aus 14 Jahren zurückgehen kann ohne einen signifikanten Trend, so dass man zu der Schlussfolgerung kommen könnte, dass diese Studie den Stillstand gefunden hat, obwohl dieser nicht als signifikant eingestuft worden ist. Die Studie sagt: „der Stillstand ist keine außergewöhnliche Fluktuation“ und fügt hinzu: „Der Stillstand war immer da, selbst wenn die Datenbasis gering ist“. Der zweite Punkt ist falsch. Was man zuverlässig aus kleinen Datenmengen ablesen kann, wird bestimmt durch die Fehler darin, die groß sind.

Was mir größere Sorgen macht hinsichtlich dieser Studie ist das Hin- und Herschieben von Beweisen. Zum Beispiel wird festgestellt, dass Zeiträume von mindestens 17 Jahren bekanntermaßen notwendig sind zur Reduktion von Rauschen und zum Auffinden eines Signals. Eine derartig kühne Behauptung zeigt, dass irgendetwas mit der DNA in dieser Studie nicht stimmt. Sie ist eine Referenz an eine sehr bekannte Studie von Santer et al (2011), welche eine Behauptung und keine Tatsache ist, die aber dennoch so behandelt wird, als ob deren Ergebnisse sicher sind. Eine auf einer Behauptung basierende Schlussfolgerung ist nicht das Gleiche wie eine auf Sicherheit basierende Schlussfolgerung.

Habt ihr nicht gehört, dass es eine Schlacht der Worte ist

Tatsächlich hatte ich das Gefühl, dass im Zentrum der Studie eine Haltung steht wie „wir und sie“. Der Stillstand wird absichtlich mit den Skeptikern [contrarians] in Verbindung gebracht, und es wird behauptet, dass dieser Punkt von außerhalb der wissenschaftlichen Gemeinschaft gekommen und sich fast wie eine Infektion verbreitet hat. Meiner Ansicht nach war die Entdeckung und Abschätzung des Stillstands einer der größten Triumphe moderner Wissenschaft, und dessen Auftauchen reflektiert, dass sich das wissenschaftliche Verfahren selbst ändert. Dieses „wir und sie“ ändert sich. Die Welt ist voller sehr cleverer Menschen, die oftmals genauso gebildet und erfahren sind wie „professionelle“ Wissenschaftler. Außerdem sind sie häufig in Bereichen bewandert, in denen es viele Klimawissenschaftler nicht sind. Zum ersten Mal haben sie Zugang zu den Journalen und manchmal sogar zu den Rohdaten sowie zu statistischen Methoden und schließlich zur Fähigkeit, ihre Ergebnisse zu verbreiten. Die Wissenschaft ist breiter geworden und steht unter intensiverer Beobachtung als jemals zuvor, und das ist eine historische, wunderbare Sache. Die Entdeckung des Stillstands ist Teil dieser neuen Entwicklung.

Trotz dieser verlogenen Studie ist der Stillstand heute eines der großen Forschungsgebiete im Bereich Klimawandel. Während der letzten paar Monate allein wurden hierzu Studien veröffentlicht in den Journalen American Journal of Climate Change, Geophysical Research Letters, Nature, Nature Climate Change und Climate Dynamics.

Naomi Oreskes wird im Guardian mit einer Aussage zu dieser Studie zitiert. Allerdings unterläuft ihr da ein fundamentaler Fehler. „Lange Zeit haben Klimaskeptiker und Leugner darauf bestanden, dass die globale Erwärmung pausiert, aufgehört oder eine Auszeit genommen hat. Dies könnte man als die normale Skeptiker-Rosinenpickerei abtun – basiert doch vieles davon auf der willkürlichen Wahl des Jahres 1998 als Startpunkt – einem ungewöhnlich warmen Jahr“. Der Effekt von 1998 ist hinsichtlich des Stillstands völlig irrelevant, war es immer, aber es wird weiterhin behauptet.

Und darin liegt die Gefahr, vielleicht unabsichtlich, die durch diese Stillstands-Mythos-Studie beispielhaft gezeigt wird. Es ist die Schlagzeile „Den Stillstand gab es niemals“, die wiederholt werden wird, und Einige werden dies als Faktum akzeptieren, und früher oder später wird irgendjemand sagen, dass diese Studie beweist, dass es den Stillstand nie gegeben hat. Den Rahmen um die Debatte über den Klimawandel stammt oft von Gehorsam gegenüber den Schlagworten, Titeln und Haltungen ohne Nachfrage, dass der Stillstand fraglos widerlegt ist, oder jene Zahl von 97%.

Die Hauptschlussfolgerung, die ich ziehe ist, dass falls man den Stillstand untersuchen will, man auf die Daten selbst schauen muss und nicht auf die Verschwommenheit einer willkürlichen Auswahl von Forschern, mit denen man ein großes Hühnchen zu rupfen hat. Und was die Widerlegung des Stillstands betrifft – hier folgt eine Graphik davon minus des jüngsten starken El Nino. Das Jahr 1998 wird nicht erwähnt:

Link: http://www.thegwpf.com/how-to-get-rid-of-the-warming-pause-again/

Übersetzt von Chris Frey EIKE




Die Wahrheit über China – 2400 neue Kohlekraftwerke werden jedwede COP21-Schwüre durchkreuzen

Global Warming Policy Foundation, 2 December 2015

Über 2400 neue Kohlekraftwerke sind weltweit im Bau oder in der Planung. Dies enthüllte eine Studie, die zwei Wochen nach dem Versprechen von UK veröffentlicht worden ist, mit der Kohleverbrennung aufzuhören.

Die neuen Kraftwerke werden 6,5 Milliarden Tonnen Kohlendioxid pro Jahr emittieren und die Bemühungen auf der Pariser Klimakonferenz unterminieren, die globale Erwärmung auf 2°C zu begrenzen. China errichtet 368 Kraftwerke und plant weitere 803 davon. Auch dies geht aus der Studie von vier Klimaforschungs-Institutionen hervor, einschließlich Ecofys und dem PIK. Indien baut 297 und plant weitere 149 Kraftwerke. Auch reiche Länder planen neue Kohlekraftwerke. Das nukleare Desaster in Fukushima hat Japan zurück zur Kohle gebracht, mit 40 Kraftwerken in der Pipeline und fünf bereits im Bau Befindlichen. – Ben Webster, The Times, 2. Dezember 2015

 

Der Report von Adams ist der vollständigen Lektüre wert, nicht nur wegen des faszinierenden Lichtes, das er auf die Chinesen wirft, deren Ökonomie, deren Korruption, deren politischer Denkweise und deren Spannungen zwischen der Bevölkerung und der Kommunistischen Partei, sondern auch wegen der sehr grundlegenden Tatsache, die hierdurch bzgl. Paris unterstrichen wird – und bzgl. aller zukünftigen COP-Verhandlungen. Selbst falls China glaubt, sich an Emissionsziele halten zu können, was es nicht tut, sind deren Funktionäre so korrupt, desinteressiert und auf Wachstum fixiert, dass sie so etwas nie politisch umsetzen würden. Also wird sich gar nichts tun. Jedwedes Abkommen, das in Paris erreicht wird, wird bedeutungs- und zahnlos sein. Und dafür sei Gott Dank! Oder vielmehr, China sei Dank! – James Delingpole, Breitbart London, 2. Dezember 2015

Neuer GWPF-Report: Die Wahrheit über China

Global Warming Policy Foundation, 2 December 2015

„Die höchste Priorität für die kommunistische Partei Chinas ist die eigene Selbsterhaltung, und diese Selbsterhaltung ist überwältigend stark abhängig vom weiteren Anheben des Lebensstandards seiner Bürger“, stellt die Ökonomin Patricia Adams fest, die Autorin der Studie und geschäftsführende Direktorin der in Toronto ansässigen Probe International, einer Organisation, die seit Jahrzehnten eng mit chinesischen NGOs zusammenarbeitet.

„Mit der Stagnation des chinesischen Wirtschaftswachstums ist das Letzte, was die Kommunistische Partei will, seine Wirtschaft noch weiter zu schädigen mittels Beschneidung des Verbrauchs fossiler Treibstoffe, von der deren Wirtschaft abhängig ist. Eine wesentliche Reduktion des Verbrauchs fossiler Treibstoffe repräsentiert eine existenzielle Bedrohung für das Regime der Kommunistischen Partei. Es wird einfach nicht geschehen.“

Adams Report enthält noch ein anderes wichtiges Ergebnis: Der Kampf gegen CO2-Emissionen würde kaum etwas bewirken – falls überhaupt, würde er die schwere Luftverschmutzung etwas verringern, die chinesische Städte plagt – bezeichnet als „Airpokalypse“. Im Gegenteil, die notwendigen Maßnahmen zur Verringerung der lebensbedrohenden Smog-Verschmutzer wie Stickstoff und Schwefeloxide – Filter auf Kraftwerken beispielsweise – würden die CO2-Emissionen tatsächlich steigen lassen.

„Ein Programm zur rapiden Reduktion von die menschliche Gesundheit schädigenden Verschmutzern wäre nicht in Übereinstimmung zu bringen mit einem Programm zur CO2-Reduktion“, stellt Adams fest und merkt an, dass CO2 keinerlei Einfluss auf die menschliche Gesundheit hat. Neben der Notwendigkeit, seine Wirtschaft am Laufen zu halten, ist die Notwendigkeit der Smog-Reduktion für die Kommunistische Führung die größte Herausforderung. „Ich habe noch nie von öffentlichen Protesten gegen CO2-Emissionen in China gehört“, schreibt Adams. CO2 ist ein Hauptthema für NGOs aus westlichen Ländern mit Büros in Peking, aber es ist ein absolutes Null-Thema für chinesische Bürger und Umweltaktivisten an der Basis“.

Alles, wozu sich China verpflichten wird ist damit fortzufahren, gleichlaufend mit dem wirtschaftlichen Wachstum die Energieeffizienz der Wirtschaft zu verbessern – ein Ziel, das man schon lange verfolgt, unabhängig von Bedenken hinsichtlich der globalen Erwärmung. Hierfür zielt China darauf ab, sein BIP zu erhöhen zusammen mit seinem Verbrauch fossiler Treibstoffe, und bis zum Jahr 2030 oder so wird der Energieverbrauch zu 80% von fossilen Treibstoffen abhängen; heute sind es 90%. Wenn es tatsächlich in 15 Jahren 80% erreicht, wird dieses Energie-Make-Up dem heutigen Amerika gleichen.

Full report (pdf)

Link: http://wattsupwiththat.com/2015/12/02/the-truth-about-china-2400-new-coal-plants-will-thwart-any-paris-cop21-pledges/

Übersetzt von Chris Frey EIKE