1

Der Mathe-Student, der nie rechnen konnte – Die surreale Welt des Boris Palmer

Aber lassen wir ihn doch einmal selbst zu Wort kommen:

„Im Mathematikstudium (Anmerkung des Autors: auf Lehramt, eine Abschlussnote habe ich nirgendwo gefunden) habe ich mir angewöhnt, immer den exakten Beweis zu führen. Wenn der gefunden wurde, habe ich keinen Widerspruch mehr zugelassen. Das ist in der Mathematik der einzige Weg zur Erkenntnis. Aber in der Politik führt er nicht zum Ziel. Denn da geht es auch um die Frage, wie ich mein Argument so erkläre, dass mein Gegenüber es annehmen kann. Darüber habe ich mir viele Jahre zu wenig Gedanken gemacht.“[1]

Bild rechts: Boris Palmer, Bündnis 90/Die Grünen in 2006 auf einem Grünen Parteitag in Köln; Lizenz über Wikipedia Hochgeladen von Flickr upload bot Link hier 

Zwei Punkte wollen wir festhalten. Erstens, wenn ein Beweis vorliegt, dann gilt dieser widerspruchslos. Zweitens, Argumente (dies sind keine Beweise) muss man so erklären, dass sie der Gegenüber annehmen kann.

Am 13.8.14 (der Tag des Mauerbaus) veröffentlichte Boris P. in der Welt einen Artikel mit dem Titel Wir kommen an Windrädern nicht mehr vorbei“.

Das Credo des Artikels lautet:

„Es ist nicht statthaft, zweifelhafte und wandelbare ästhetische Gegenwartsbedürfnisse über die Lebensbedürfnisse künftiger Generationen zu stellen. Wer heute nicht auf Strom und Wärme verzichten will, muss den Anblick von Wärmedämmungen und Windrädern ertragen.“

In was für einer Welt leben wir, wenn außer in Deutschland die Lebensbedürfnisse zukünftiger Generationen missachtet werden. Es tröstet etwas, dass dafür die meisten Menschen in Europa im Kalten und im Dunklen sitzen müssen, da sie auf den Anblick von Dämmplatten und Windmühlen verzichten. Aber wie sagte Siegmar Gabriel so treffend:

“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte”.  Vielleicht sind wir aber nicht nur bekloppt, sondern sogar wahnsinnig. Zumindest Boris P. nannte sich selbst auf einer Konferenz in Düsseldorf 2010, auf der es um das „Einpacken“ von Häusern und ganzen Städten, um Sinn und Unsinn des „Dämmwahns“ ging, einen „Dämmwahnsinnigen“. Er weiß vermutlich gar nicht wie recht er damit hat.

Während Gabriel in einem kurzen Augenblick der Erkenntnis gesteht:

Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht”, aber dies nicht konsequent zu Ende denkt, kommt der OB zu einer ganz anderen Schlussfolgerung:

Die Energiewende kann nur funktionieren, wenn wir auch schöne Landschaften mit Windrädern verändern. Die Auswirkungen von Windparks auf die Natur sind jedoch von wenigen Vogelarten abgesehen nahezu null. Jeder Kilometer Autobahn richtet mehr Schaden an der Umwelt an als ein Windpark. Die einzige relevante Beeinträchtigung der Windkraft bleibt die optische.“ „Die Zahl von derzeit rund 25.000 (onshore)-Windkraftstandorten in Deutschland müssen wir verdoppeln, um Deutschland erneuerbar zu versorgen.“

Etwaige Andersdenkende werden von ihm mit seiner Feststellung abgekanzelt:

„Wer sich intensiver mit den Initiativen auseinandersetzt, die im Namen des Naturschutzes gegen Windräder mobilisieren, stellt fest, dass dies häufig gerade die Menschen sind, die Bioprodukte für Firlefanz halten, große Autos in der Garage haben, nie Grün wählen würden und Umgehungsstraßen in freier Landschaft für einen Segen halten, kurz die Ökologie erst dann entdecken, wenn ihnen ein Windrad ins Blickfeld gerät.“

Lassen wir einen der Andersdenkenden zu Wort kommen. Enoch von Guttenberg, der vor 37 Jahren den BUND mitgegründet hat, diesen aber kürzlich aus Protest gegen die derzeitige Führung, die er wegen ihrer Zusammenarbeit mit der Windlobby als verantwortungslose und korrumpierte Technokraten bezeichnet, wieder verließ, sagt über die Windkraftanlagen:

„Windkraftanlagen sind nicht nur Geländefresser. Sie erfordern nicht nur die Erschließung, also die Entwaldung ganzer Höhenzüge. Sie sind zudem hocheffiziente Geräte zur Vernichtung von Vögeln und Fledermäusen. Die „Hinweise zur Planung und Genehmigung von Windkraftanlagen“ der Bayerischen Staatsregierung vom 20. Dezember 2011 benennen als besonders gefährdet unter anderen den Schwarzstorch, den Weißstorch, die Wiesen- und die Rohrweihe, den Schwarz- und den Rotmilan, den Baum- und den Wanderfalken, den Wespenbussard, den Uhu, den Graureiher – all dies ohnehin bedrohte Vogelarten, die vom Sog der Windräder eingezogen und buchstäblich zerhäckselt werden. Den Fledermäusen lässt bereits der Druckunterschied im Umkreis der Rotoren ihre Lungen platzen.“

Quantifiziert und dokumentiert wurde dies von Clive Hambler von der Oxford Universität. Demnach „werden in jedem Jahr zwischen 6 und 18 Millionen Vögel und Fledermäuse in Spanien allein durch Windräder getötet, einschließlich seltener Gänsegeier, von denen in einem Jahr 400 Exemplare getötet worden sind, ….. In Tasmanien sind die Keilschwanzadler wegen der Windturbinen vom Aussterben bedroht. Norwegische Windparks töten jedes Jahr zehn Seeadler. Deutsche Windturbinen töten 200 000 Fledermäuse pro Jahr“.[2]

Mehrere Millionen Opfer pro Jahr sind also für den ökologischen OB „nahezu null“. Irgendwie muss der Mathematiker bei der Zahlentheorie geschlafen haben.

Mit den Zahlen scheint er eh ein Problem zu haben, denn was soll es bringen noch einmal 25 000 Windanlagen aufzustellen, wenn „gut 70 % aller deutschen Windräder unwirtschaftlich sind und die meisten investierenden Bürger kaltblütig betrogen und über die Tische gezogen werden.“ Im Übrigen konnten diese Zahlen von den Windrad-Bauern und -Betreibern bis jetzt nicht dementiert werden, da dies das Zahlenmaterial des eigenen Dachverbandes ist und ungewollt an die Öffentlichkeit gelangte.“ [3]

In Deutschland werden an einem „normalen Tag“ 65 GW Leistung benötigt. An einem Spitzenlasttag im Winter können es für wenige Stunden auch rd. 82 GW sein. Derzeit sind rd. je 32 GW Windleistung und 34 GW Photovoltaikleistung installiert. Wenn wir also nach Boris P. die Windenergie verdoppeln, dann sind wir bei knapp 100GW angelangt, was wohl immer ausreichen sollte. Dies impliziert zumindest sein Gedanke, wenn da nicht die vertrackte Natur wäre. Die folgende Graphik zeigt einen typischen Verlauf der real eingespeisten Energie.

Bei einer verdoppelten Windenergie kommen wir im Mittel auf knapp 11.5GW, was weniger als 18% der benötigten Leistung ist, aber im Minimum sind es nur rund 0,5%!

Dies ist ein klarer empirischer Beweis über den Unsinn von 100% „erneuerbarer“ Energie. Nehmen Sie sich beim Wort Herr Palmer, machen Sie eine 180° Wende und dulden Sie dann keinen Widerspruch.

In der Mathematik genügt ein Beweis um eine These zu falsifizieren. Aber vielleicht brauchen Sie noch einen? 

Und trotzdem geht es, wie Prof. Endres von der TU Clausthal gezeigt hat.

„Man muss die „erneuerbare“ Erzeugungskapazität bei einem Flächenverbrauch von ca. 20 % „nur“ auf ca. 500 – 600 GW erweitern und für die Speicherung von 40 TWh Strom (mehrwöchige Flaute) ein paar Milliarden Batterien installieren. Gehe ich von einem Preis von 100 EUR/kWh aus (sehr sehr sportlich), kostet der Spaß wohl rund 4 Billionen Euro nur für die Batterien, und das bitte alle spätestens 6 Jahre noch mal. Dazu kommt dann noch die Ladeelektronik usw.. Kurz und gut, der ganze Spaß würde Installationskosten von ca. 10 Billionen EUR erfordern, mit wiederkehrenden Kosten von ca. 5 Billionen EUR alle 6 Jahre und ca. 1 Billion EUR alle 10 – 15 Jahre für die WKA´s – ja, wenn das keine Perspektive ist.“

Zum Vergleich, der Bundeshaushalt von 2014 betrug knapp 0.3 Billionen Euro, Selbst wenn eine heilige Fee die Installationskosten übernehmen würde, überstiegen die jährlichen Wartungskosten den kompletten Haushalt.

Dies wird schwierig zu erwirtschaften sein, da die Windanlagen selber einen jährlichen Verlust zwischen 300- bis 500-tausend Euro verursachen. Konkret für den Windpark Münsterwald mit 7 WKA’s beträgt der Wert rund 3.2 Millionen Euro pro Jahr. Die Rechnung hierzu findet man im Anhang als pdf. Hochgerechnet auf die Wunschzahl des OB aus Tübingen ergibt dies weitere 20 Milliarden Kosten pro Jahr.

Sie können die Zahlen drehen, wie Sie wollen. Es ist nicht machbar. Beweis Nr. 2.

Langsam schwant mir, warum ich keine Abschlussnote gefunden habe.

Soviel zu den Beweisen. Kommen wir zu den Argumenten. Wie erklären Sie, dass der Pfälzerwald, der für die Grünen vor drei Jahren oberste Priorität als zusammenhängendes Waldgebiet hatte, nun den Windkraftanlagen geopfert werden soll? Ist Waldschutz der Firlefanz von gestern?

Sie bejahen auf der einen Seite die Vermaisung der Landschaft und fordern auf der anderen den Vorrang der Ökologie ein. Die größte Biogasanlage im Land benötigt 1000 Tonnen Mais pro Tag. 7000 Anla­gen stehen bereits, pro Jahr kommen im Durchschnitt etwa 1000 hinzu. Um diesen Widerspruch zu erklären muss man schon tief in die Kiste des dialektischen Materialismus greifen. Kampf und Einheit der Widersprüche wäre da das Stichwort. Der Segen dieser Philosophie ging, wenn auch vermutlich nur temporär, vor 25 Jahren unter.

Zwischenzeitlich hat man sich aber für eine neue Ideologie entschieden –
den Klimaschutz.

Als Experte dient Al Gore. Schon Al Gore hat in seiner „unbequemen Wahrheit“ darauf hingewiesen, dass in 99 Prozent aller wissenschaftlichen Publikationen die Erderwärmung als menschengemachte Tatsache akzeptiert ist.“

Al Gore, der Experte, der auf die Frage nach der Temperatur in zwei Kilometer Tiefe von ein paar Millionen Grad faselte, wobei es um die Erde(!) ging, Diese Temperatur gibt es nicht einmal in dieser Tiefe auf der Sonne. Al Gore der Ursache und Wirkung tauscht, damit die Ideologie stimmt.

Das obige Bild präsentiert er in dem Film „An inconvenient truth“. Und so sieht die Wahrheit aus, erst steigt die Temperatur und dann das CO2. Dies ist eine Folge der Temperaturabhängigkeit der Löslichkeit von CO2 in Wasser (Henry Gesetz). Aber was stören Naturgesetze den Experten.

So unglaubwürdig Al Gores „wissenschaftliche“ Aussagen sind, so unglaubwürdig sind auch die 99%. Die neueste und größte Studie besagt folgendes:

„We analyze the evolution of the scientific consensus on anthropogenic global warming (AGW) in the peer-reviewed scientific literature, examining 11 944 climate abstracts from 1991–2011 matching the topics ‘global climate change’ or ‘global warming’. We find that 66.4% of abstracts expressed no position on AGW, 32.6% endorsed AGW, 0.7% rejected AGW and 0.3% were uncertain about the cause of global warming.”[4] 

Womit die 99% auf ein Drittel geschrumpft sind. Bedenkt man noch, dass es viel schwieriger ist so genannte skeptische Artikel zu publizieren, wie climategate gezeigt hat, dann schrumpft die Konsensuszahl weiter.

[Climategate: From: Phil Jones <p.jones@xxxx>
To: "Michael E. Mann" <mann@xxxx> Der Erfinder der Hockeyschlägerkurve.
Subject: HIGHLY CONFIDENTIAL
Date: Thu Jul  8 16:30:16 2004
The other paper by MM (McIntyre und McKitrick, die den Erfinder überführten) is just garbage - as you knew. Pielke is also losing all credibility.
I can't see either of these papers being in the next IPCC report. Kevin and I will keep them out somehow - even if we have to redefine what the peer-review literature is!]

Dies ficht aber Boris P. nicht an. Er behauptet und nennt dies Argumentieren:

Klimaskeptiker sind Leute, die an die Stelle dieser Erkenntnis obskure Alternativerklärungen setzen, um die menschliche Sucht nach fossiler Energie zu rechtfertigen.“ 

Wo sind Ihre Argumente, die die Windkraftgegner annehmen können? Leider habe ich keine gefunden. Dafür gibt es Plattitüden, wie „große Autos in der Garage“ und das wohl Schlimmste in Ihrer Vorstellung „Menschen die nie Grün wählen“. Bitten Sie doch Herrn Kretschmann, dass per Gesetz nur noch Grün gewählt werden darf.


[1] Welt 26.10.14

[2] http://www.spectator.co.uk/features/8807761/wind-farms-vs-wildlife/

[3]http://www.deutscherarbeitgeberverband.de/aktuelles/2014_11_16_dav_aktuelles_BUND_Technokraten.html

[4] Cook et al. – Environ. Res. Lett. 8 (2013) 024024 (7pp)




2014- nur nach den offiziellen Messwerten ein neues Rekordjahr – Kein Beweis für eine sich fortsetzende Klimaerwärmung

Bild rechts: Kein gutes Weinjahr 2014 in Thüringen: Spätfröste und ein verregneter Spätsommer verdarben die Trauben. Foto: Stefan Kämpfe

Eine Schwalbe macht noch keinen Sommer oder das Rekordjahr beweist noch keine sich verstärkende Erwärmung.

Genauso wie bei der Volksweisheit verhält es auch mit dem Erwärmungsmärchen, der sich in den letzten Jahren angeblich verstärkenden Klimaerwärmung. Trotz dieses warmen Jahres, auf die Gründe gehen wir im nächsten Kapitel ein, ist in diesem neuen Jahrtausend kein sich verstärkender Erwärmungseffekt erkennbar, schon gar nicht in den letzten Jahren. Die Trendlinie zeigt in diesem neuen Jahrtausend immer noch leicht nach unten, was nichts anderes bedeutet, als dass es in den letzten 17 Jahren überhaupt keine weitere Erwärmung gab. Das Wärmejahr 2014 gleicht lediglich das Kältejahr 2010 aus, die Stagnation der Temperaturen bleibt bestehen. Die noch im letzten Jahr fallende Trendlinie ging lediglich in eine unmerkliche fallende Trendlinie der letzten 17 Jahre über. Fazit: Trotz des neuen Rekordjahres fallen die Temperaturen in Deutschland immer noch leicht. Die Medienmeldungen von einer sich verstärkenden Klimaerwärmung, insbesondere der letzten Jahre, entsprechen keinesfalls der Realität.

Die modernen Klima-Kreuzritter werden in den Medien nun verstärkt zum Kampf gegen die Klimaerwärmung aufrufen! Welche Erwärmung soll überhaupt bekämpft werden? Antwort: Genau die, die man selbst erfindet und dann als Unwahrheit den Menschen indoktriniert, so z.B. hier im Schweizer Fernsehen:  http://youtu.be/KHsQReMS7r8 .
In dem 2-Minuten Beitrag lügt M. Jarraud, der Präsident der Weltorganisation Meteorologie, indem er mehrmals wiederholt: „ Die Tendenz der globalen Erwärmung hält weiter an" und "wir müssen die Erwärmung auf 2 Grad begrenzen. Richtig ist: Auch mit diesem warmen Jahr 2014 gibt es seit 1998 keinerlei Tendenz zu einer globalen Erwärmung. Die Trendlinie ist sogar leicht fallend, obwohl diese Trendlinie noch nicht Wärmeinsel-bereinigt ist. Das wäre die Wahrheit der Tagesschaumeldung des SF gewesen.

Das Jahr 2014 war nur in Mittel- und Westeuropa warm und hat in Deutschland den bisherigen Rekord von 2000 überboten. Weltweit jedoch war 2014 eher ein Durchschnittsjahr, siehe RSS-Satellitendaten der nächsten Grafik. Weltweit bleibt 1998 weiterhin das wärmste Jahr. (siehe nächste Grafik)
Nur eine Aussage der Erwärmungspanikmacher ist richtig: der Kohlendioxidgehalt der Erdatmosphäre steigt weiter, siehe kleines ins Diagramm der Abb.1 eingezeichnete Graphik. Die beiden Trendlinienverläufe beweisen in aller Deutlichkeit, dass die Trendlinien von C02 und Temperaturen gegenläufig sind, und damit nichts, aber auch gar nichts miteinander zu tun haben. Das zukünftige Wetter, Klima ist 30 Jahre Wetter, wird von vielen anderen Ursachen und Faktoren bestimmt, oftmals im Zusammenwirken mehrerer Elemente und auch noch mit wechselnden Korrelationen. Und ob es zukünftig wärmer oder kälter wird, das weiß niemand. Wer das Wetter nicht auf vier Wochen vorhersagen kann, der kann auch nicht 30 Jahre in die Zukunft blicken. Klimawandel gibt es immer, das ist eine Tatsache, die niemand von uns leugnet, und dieser ständige Wandel braucht nicht bekämpft zu werden. In Russland fürchtet man sich weitaus mehr vor einer zukünftigen Abkühlung als vor einer Erwärmung. (Googeln: Abkühlung durch C02 in Russland)

Die ständig hinausposaunte Botschaft, nur das menschliche C02 allein würde die Temperaturen bestimmen, eine Zunahme von CO2 würde automatisch auch zu einer Temperaturzunahme führen, ist wissenschaftlicher Blödsinn im Stile einer Pseudoreligion, die wir hier climatetology nennen, und sie schadet dem Ansehen der Wissenschaften, aber auch dem Ansehen des Natur- und Umweltschutzes. Auch bei dieser Grafik von RSS sieht man im Hintergrund die steigende C02-Kurve, während die Temperaturen seit über 18 Jahren weltweit stagnieren.

Kohlendioxid spielt für das Leben auf der Erde eine herausragende Rolle, die Pflanzen brauchen eher mehr und nicht weniger CO2. Mehr CO2 führt zum besseren Wachstum unserer Ernährungspflanzen und ist ein wichtiger Helfer gegen den Hunger in der Welt.

(Siehe jüngster Artikel von K.H. Puls: http://www.eike-klima-energie.eu/news-cache/kirche-im-klimawahn-nicht-mehr-als-ja-und-amen/)

Trotz dieses warmen Jahres 2014 in Mittel- und Westeuropa als Ausgleich auf das relativ kalte Jahr 2010 bleibt die Grundaussage bestehen: Im letzten Vierteljahrhundert hat sich neben der bekannten Abwechslung von wärmeren und kälteren Jahren nicht viel Außergewöhnliches ereignet.

Die vom DWD gemessenen Temperaturdaten zeigen mit 2014 eine leicht steigende Trendlinie seit 1989, ohne 2014 war sie noch ausgeglichen. Bereinigt man diese Daten jedoch um den Faktor des Wärmeinseleffektes (WI), der in Deutschland immer noch zunehmend ist, dann bleibt 2014 zwar das wärmste Jahr in diesem Zeitraum, aber die Trendlinie der bereinigten Temperaturwerte zeigt immer noch eine leichte Abkühlung für die letzten 26 Jahre. (siehe Abb. 3) Sollten wir jedoch –nehmen wir mal an- die nächsten Jahre nur noch Jahresmitteltemperaturen oberhalb von 10 Grad haben, dann erst könnte man von einer Fortsetzung eines Erwärmungstrends reden, der dann etwa ab 1985 eingesetzt hätte. Allerdings wäre damit nicht automatisch bewiesen, dass dieser mögliche Erwärmungstrend auf CO2 zurückzuführen wäre. Die Autoren würden dies in erster Linie als eine Fortsetzung des zunehmenden Wärmeinsel-Effektes deuten. Noch immer werden in Deutschland täglich etwa 110 ha überbaut und Messstationen in wärmere Gebiete verlegt, bzw. die Wärmeumgebung der Messstationen verändert sich schleichend.

Siehe: http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

Fazit: Insgesamt war das letzte Vierteljahrhundert neben dem üblichen Auf und Ab sehr ausgeglichen. Das Wetter und das Klima der letzten 26 Jahre richtet sich eben nicht nach dem Geschrei der Pseudoreligion Klimaerwärmung und deren Anhängern, auch wenn das nun mit dem Rekordjahr 2014 ständig behauptet wird.

2014- die meteorologischen Hintergründe des Rekords: Noch nie seit Erfassung gab es so viel „Südwetter“

Die Lufttemperaturen werden durch zahlreiche überregionale Einflussfaktoren gesteuert, allerdings spielen auch regionale Bedingungen eine wichtige Rolle. Die erste Abbildung zeigt, dass die jährliche Sonnenscheindauer dem Verlauf der Jahresdurchschnittstemperaturen ähnelt (mehr Sonnenschein wirkt erwärmend), während die CO2- Konzentration einfach nur fast gleichförmig angestiegen ist:

Auswertbare CO2- Konzentrationen sind erst seit Ende der 1950er Jahre und die jährliche Sonnenscheindauer für Deutschland erst ab 1951 verfügbar. Deutlicher zeigt sich der Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen in Potsdam:

Die Sonnenscheindauer wirkt vor allem im Sommerhalbjahr erwärmend; sie kann daher das Verhalten der Jahresmitteltemperaturen nur teilweise erklären. Mindestens genauso wichtig ist die Häufigkeitsverteilung der in Deutschland überwiegend im Jahresmittel erwärmend wirkenden Großwetterlagen beziehungsweise Großwettertypen West (Winterhalbjahr), Süd (März bis November) sowie Südost- und Zentralhochlagen (März bis Oktober). Man erkennt eine deutliche Ähnlichkeit zwischen der Häufigkeit dieser Lagen und dem Deutschland- Mittel der Lufttemperatur (mit gewissen Abstrichen ließen sich die Daten bis 1871 ermitteln):

Im Rekordjahr 2014 gab es neben einer überdurchschnittlichen Sonnenscheindauer mit mindestens 126 Tagen (Stand: 30.11.) doppelt so viele Großwetterlagen mit südlichem Strömungsanteil, wie im Langjährigen Mittel! Das ist ebenfalls neuer Rekord. Hinzu kam eine leicht übernormale Anzahl von Westlagen in den Monaten Januar, Februar und Dezember, während Ostwetterlagen, welche besonders in den Wintermonaten stark kühlend wirken, in diesen zu selten auftraten. Weiterhin war im Frühling eine etwas überdurchschnittliche Anzahl der erwärmend wirkenden Zentralhochlagen zu verzeichnen.

Und der Großwettertyp Südwest, welcher im Oktober am stärksten erwärmend wirkt, wurde just in diesem Monat an 16 (!) Tagen beobachtet- fast sechsmal so häufig, wie im langjährigen Oktobermittel! Damit ist klar erwiesen, dass wir das Rekordjahr 2014 einer glücklichen, äußerst seltenen Kombination aus relativ hoher Sonnenscheindauer und einer äußerst günstigen zeitlichen und quantitativen Häufung bestimmter Wetterlagen verdanken- das Richtige stets zur richtigen Zeit!

Wer Näheres über die sehr interessanten Zusammenhänge von Großwetterlagen und Temperaturen und über mögliche Ursachen der Häufung südlicher bis südwestlicher Lagen wissen möchte, kann sich in dem dreiteiligen EIKE- Beitrag von Stefan Kämpfe „Im Takt der AMO und der NAO (1 bis 3): Das Häufigkeitsverhalten der Großwetterlagen und dessen Auswirkungen auf die Deutschland- Temperaturen“ unter http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-1-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/

und http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/

sowie http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/

informieren.

Ein weiterer, langfristig nicht zu unterschätzender Treiber der Temperaturen ist der Wärmeinsel-Effekt, der weltweit zunimmt, vor allem auch in Deutschland, da täglich 108 ha der Natur entzogen werden. Bestimmte, durch lokale Erwärmungseffekte wie Bebauung oder Abwärme stark beeinflusste Stationen fließen mit ihren Werten in die Berechnung des Deutschland-Mittels ein und überhöhen dieses.

Beispielsweise in Frankfurt/Main, das in weniger als 40 Jahren die ursprünglich wärmeren Stationen Karlsruhe und Mannheim eingeholt hat (massiver Flughafenausbau). Das Thermometer der Messstation misst die 600° C warmen Abgase des zunehmenden Flugverkehrs und der bebauten Flächen einfach mit. Dazu führt in unmittelbarer Nähe eine zehnspurige Autobahn vorbei. Ein von Menschenhand geschaffenes Band der Wärme durchzieht als Wirbelschleppe die Landschaft.

Der Leser möge bedenken, dass in den Trendlinien der beiden Städte Karlsruhe und Mannheim (Abbildung 7), auch bereits ein verborgener WI- Effekt die Trendlinie seit 1982 nach oben treibt. Aber der WI- Effekt des Frankfurter Flughafens, der beim DWD sogar als ländliche Station eingestuft ist, ist eben stärker, was anschaulich gezeigt wird.

Außerdem können auch Stationsverlagerungen zur Erwärmung beigetragen haben. So in Bocholt, wo die DWD- Station Bocholt- Liedern 2006 aufgegeben und ins wärmere, etwa 40km entfernte Ahaus- Wessum verlegt wurde, aber immer noch unter dem Namen Bocholt geführt wird. Die ursprünglich im Vergleich zum wärmeren Düsseldorf bestehende Differenz der Jahresmitteltemperaturen von 0,4 bis 1K verringerte sich mit der Stationsverlegung plötzlich auf 0,2 bis 0K ! Zwar sind für derartige Fälle eigentlich vor der Verlegung Parallelmessungen zur Kalibrierung vorgesehen, doch nicht immer wird das korrekt durchgeführt, und so hat sich die Station Bocholt mit dem Zeitpunkt der Verlagerung um fast 0,5K erwärmt, was die nächste Abbildung anschaulich zeigt:

Trotz des Rekordjahres 2014 mehren sich die Anzeichen für eine Abkühlungsphase. Das zeigt sich unter anderem an der neuerdings wieder zunehmenden Zahl der Tage mit Nebel in Potsdam (Nebel tritt vermehrt in kühleren Klimaperioden auf):

Man erkennt den gegenläufigen Verlauf von Jahresmitteltemperaturen (schwarz) und der Häufigkeit der Nebeltage pro Jahr (grau), wobei aber zu beachten ist, dass das Nebelverhalten im 20. Jahrhundert auch stark von der bis etwa 1980 wachsenden und danach rapide sinkenden Luftverschmutzung beeinflusst wurde; umso erstaunlicher ist der beginnende erneute Anstieg ab 2010. Das folgende Streudiagramm (letzte Abbildung) verdeutlicht nochmals, dass Nebel kühlend wirkt:

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher

Nachtrag zu diesem Artikel von Dipl.-Met. Hans-Dieter Schmidt:

Zunächst einmal vielen Dank den Autoren für diesen detaillierten Bericht! Dazu lassen sich aus synoptischer Sicht ein paar Bemerkungen machen.

Frage: „Ist dieser Winter durch den Klimawandel so mild?“

Antwort: „Blödsinn! Dieser Winter ist so mild, weil sehr häufig Südwestwind weht – also aus Richtung des subtropischen Atlantiks!“

Frage: „Werden die Winter jetzt allesamt so mild oder immer milder?“

Antwort: „Quatsch! Mild wird es immer bei West- und Südwestwind. Glauben Sie wirklich, dass wir im Winter ab sofort und für alle Zeiten nur noch Südwestwind haben?“

Das bringt m. E. auf den Punkt, worum es mir geht. Wetter und Witterung bei uns werden bestimmt durch die advehierten Luftmassen. Werden sehr häufig milde/warme Luftmassen herangeführt, ist es wärmer als normal (wobei es jetzt keine Rolle spielt, was hier ,normal‘ heißt). Das gilt sowohl tage-als auch monats- oder jahresweise. Der Vergleich bzgl. der Temperatur von Jahr zu Jahr ist also ein Vergleich von Äpfeln und Birnen (wenn nicht sogar von Äpfeln und Stachelbeeren): Es werden beim Vergleich zu warm/zu kalt warme mit kalten Luftmassen in einen Topf geworfen. Das ist wissenschaftlich und statistisch Unsinn, auch wenn es sehr attraktiv ist und immer wieder gemacht wird.

Insofern ist die Statistik der Autoren über alle ersten Jahre dieses Jahrhunderts viel aussagekräftiger. Je mehr Jahre man hat, desto eher sollte sich das Vorherrschen von milden/warmen und kühlen/kalten Luftmassen über die Jahre ausgleichen. Das macht man mit Hilfe der von den Autoren errechneten geglätteten Kurve. Sie zeigt eine leicht negative Tendenz. Daran dürfte das Jahr 2014 kaum etwas ändern. Und eine ähnliche Häufung von Südlagen im Jahr 2015 ist statistisch recht unwahrscheinlich.

Sinnvoll wäre ein Vergleich von warmen Luftmassen mit warmen Luftmassen oder von kalten Luftmassen mit kalten Luftmassen. Und auch das nicht am Boden, sondern im 850-hPa-Niveau oberhalb der bodennahen Reibungsschicht. Ich weiß aber von keiner solchen Arbeit, darum bleibt mir nur folgende Feststellung:

Die Autoren machen im Subheader völlig zu recht auf die außerordentliche Häufung von Süd- und Südostlagen in diesem Jahr 2014 aufmerksam. Dies ist auch mir als Synoptiker aufgefallen. Im bislang wärmsten Jahr 2000 gab es diese Häufung jedenfalls nicht. Wir halten also fest:

Trotz häufigerer Südlagen in diesem Jahr 2014 war dieses kaum wärmer als das Jahr 2000 mit deutlich weniger Südlagen!

Dipl.-Met. Hans-Dieter Schmidt




Ein Weihnachtsgeschenk von Bill Gray

Stopp der Erzeugung von Klimaangst! – CO2-Zunahme kann höchstens zu minimaler Erwärmung führen

William M. Gray

Professor Emeritus

Colorado State University

Zum Autor siehe hier

Abstract

Die exorbitant geförderte internationale Bewegung zur globalen Erwärmung hat die Bedrohung durch die Zunahme des CO2 in der Atmosphäre drastisch übertrieben. Diese Erwärmungsangst wurde angetrieben durch eine Verschwörung internationaler Politiker und Umweltgruppen, die irrige Erwärmungsvorhersagen von Klimamodellen dazu nutzten, eine uninformierte globale Öffentlichkeit einer Gehirnwäsche zu unterziehen. Ihr Ziel war es, die Öffentlichkeit dazu zu bringen, aus Angst eine globale Regierung zu akzeptieren ebenso wie Restriktionen ihrer Freiheit und ihres Lebensstils, um eine vermeintlich drohende Klimakatastrophe zu verhindern. Es war für sie völlig unwichtig, ob ihre Annahmen bzgl. CO2 richtig waren oder nicht. Das einzige, was zählte, war das Ausmaß, bis zu dem die Öffentlichkeit indoktriniert werden konnte, um an die Bedrohung zu glauben. Die vielen großen Projektionen zur globalen Erwärmung sind bislang nicht eingetreten und werden auch während der kommenden Jahre nicht eintreten. Die Wissenschaft hinter dieser CO2-induzierten globalen Erwärmung ist ein sehr schwerer Betrug an der Öffentlichkeit, über den diese informiert werden muss. Wir werden während der nächsten Jahrzehnte höchstens eine vernachlässigbare globale Erwärmung durch CO2 erleben. Die zukünftigen Temperaturänderungen, zu denen es kommen wird, werden natürlichen Ursprungs sein als Folge von Änderungen der globalen Zirkulation in der Tiefsee, deren hauptsächlicher Treiber Variationen der Salinität sind. Wir können und sollten nichts hinsichtlich der natürlichen Klimaänderung unternehmen, sondern uns daran anpassen.

Ökonomischer Fortschritt diktiert, dass die USA und die Welt damit fortfahren werden, fossile Treibstoffe zu verbrennen und dies auch noch auszuweiten. Jede signifikante Hinwendung zu den viel teureren Energieformen Wind und Solar sollten nicht weiter vorangetrieben werden. Eine solche Hinwendung würde den Lebensstandard in den USA und in der Welt erheblich vermindern und nichts zur globalen Klimaentwicklung beitragen. Diese Scharade der globalen Erwärmung kann nicht mehr lange weitergehen. Zeit und Wahrheit sind auf der Seite der Erwärmungs-Skeptiker [bleibt nur zu hoffen, dass die Schäden für uns alle nicht übermäßig werden, bis sich die Wahrheit durchsetzt! Anm. d. Übers.].

1. Gegenwärtige Bedingungen

Eine zunehmende Anreicherung von CO2 in der Atmosphäre während der letzten 18 Jahre hat keinerlei Zunahme der mittleren globalen Temperaturen bewirkt. Trotz umfangreicher Behauptungen des Gegenteils seitens der Medien und von Wissenschaftlern zeigen die globale Temperatur, die globale Eismenge, Extremwetter, Überschwemmungen, Dürren, Tropenstürme, Tornados usw. keine einzige der Änderungen, die von den Alarmisten der globalen Erwärmung und den vielen numerischen Modellsimulationen vorhergesagt worden sind und auf deren Grundlage die meisten dieser Erwärmungs-Behauptungen aufgestellt worden waren. Ich bin sicher, dass die kommenden Jahre mit Beobachtungen diese Hypothese der CO2-getriebenen globalen Erwärmung diskreditieren werden [sofern diese Beobachtungen nicht gefälscht werden! Anm. d. Übers.]

Ich fordere mit größtem Nachdruck, dass die Leser den Blog Real Science von Steven Goddard konsultieren, um umfangreiche weitere Dokumentationen des immer offensichtlicher werdenden Zusammenbruchs der globalen Erwärmungsprojektionen durch CO2 zu bekommen [dazu gibt es natürlich in D den Blog des EIKE! Anm. d. Übers.] Goddard zeigt auch zahlreiche Beispiele, wie unsere und andere Regierungs-Klima/Wetteragenturen künstlich ältere Temperaturmessungen nach unten korrigiert haben, um scheinbar größere Erwärmungen bis heute zu suggerieren, die es in Wirklichkeit gar nicht gegeben hat. Diese offensichtliche Datenfälscherei richtet sich gegen jedwede wissenschaftliche Methodik; sie muss durch eine externe unabhängige Untersuchung bloßgestellt und korrigiert werden.

Die allgemeine Öffentlichkeit ohne das Hintergrundwissen zur Beurteilung der wissenschaftlichen Zuverlässigkeit dieser vielen und weiter erfolgenden Verkündigungen der alarmistischen Erwärmung ist einer Gehirnwäsche unterzogen worden. Eine unheilige Allianz hat sich zwischen Regierungen und Klima-/Wetterwissenschaftlern gebildet. Das offensichtlich extrem brüchige wissenschaftliche Fundament der CO2-Erwärmungs-Hypothese wurde errichtet mittels regierungsamtlicher Finanzzuwendungen an jene Wissenschaftler, die willens waren, solche dubiosen, politisch motivierten Behauptungen zur globalen Erwärmung zu untermauern (und nicht, diese zu kritisieren).

Wir alle wollen unserer Regierung vertrauen und glauben, dass uns die Medien objektiv informieren. Aber angesichts der fortgesetzten alarmistischen Behauptungen unserer Regierung und in den Medien bzgl. einer gefährlichen zukünftigen globalen Erwärmung müssen wir alle skeptisch werden. Die Öffentlichkeit wurde betrogen, indem man ihr die andere Seite der Debatte um die globale Erwärmung vorenthalten hat. Die zahlreichen wissenschaftlichen Argumente gegen die Hypothese der vom Menschen verursachten globalen Erwärmung wurden absichtlich in den Medien nie erwähnt oder in der Regierung diskutiert. Kommen solche gegen die Erwärmung sprechenden Argumente doch einmal an das Tageslicht, werden sie sofort harsch kritisiert durch Umweltaktivisten, Prominente und Regierungsfunktionäre, die so gut wie gar nichts darüber wissen, wie das globale Klimasystem funktioniert. Ein offener und ehrlicher Dialog zum Thema globale Erwärmung steht immer noch aus. Die Feststellung, dass die Wissenschaft hinsichtlich einer gewaltigen globalen, CO2-induzierten Erwärmung bereits ,settled‘ ist, ist eine absolute Erfindung.

2. Die Crux betrügerischer Wissenschaft (Wasserdampf-Rückkopplung und oberflächennahe Abkühlung durch Verdunstung)

Es gibt viel Falsches in den globalen Klimamodellen. Aber der größte Fehler ist die Unfähigkeit der Modelle, realistisch mit den kleinen (und vom Modell nicht auflösbaren) Änderungen im horizontalen Maßstab durch die Tausende Cumulonimbus-Wolkenelemente (Cb; Abbildung 1) umzugehen. Eine Zunahme der Gesamtzahl dieser konvektiven Cb-Einheiten führt zur Austrocknung der oberen Troposphäre (Abbildung 2). Dies steht im Gegensatz zu den Hypothesen in den Simulationen Allgemeiner Klimamodelle (GCMs), die den hochtroposphärischen Wasserdampf zunehmen lassen als Folge verstärkter Regenfälle und Cb-Konvektion, die mit steigenden CO2-Niveaus assoziiert sind.

Abbildung 1: Illustration, wie die GCMs mit ihrem groben Gitterpunktsnetz individuelle konvektive Wolkenelemente und all die lokalen Auf- und Abwärtsbewegungen zwischen den Gitterpunkten nicht auflösen können. Diese Konvektion in kleinerem Maßstab als das Gitternetz kann zu verstärkten IR-Verlusten in den Weltraum und geringerer Erwärmung führen als die gröberen GCMs vorgeben.

Abbildung 2: Idealisiertes Porträt globaler Wolken- und Regengebiete bei hoch reichender Konvektion [deep convection]. Das linke Diagramm illustriert die absinkende Luft in der oberen Troposphäre aus der regnenden Cb-Wolke. Dieses Absinken sorgt für Austrocknung und Erwärmung der oberen Troposphäre. Das rechte Diagramm zeigt Wasserdampf und Wolkenpartikel, die aus den gleichen hoch reichenden Regengebieten advehiert werden. Beobachtungen zeigen, dass das austrocknende Absinken in der oberen Troposphäre größer ist als der Ersatz durch Wasserdampf und Wolkenwasser durch die ausströmende Feuchtigkeit und Verdunstung. Verstärkte Cb-Konvektion führt zu hochtroposphärischer Austrocknung und zusätzlicher IR-Abstrahlung in den Weltraum.

Die Modellsimulationen folgten den unrealistischen physikalischen Grundlagen, die die National Academy of Sciences (NAS) im Jahre 1979 ausgegeben hatte (der Charney-Report). In diesem Bericht wurde spekuliert, dass – da sich die Atmosphäre bei CO2-Zunahme erwärmt – dies (der Clausius-Clapeyron’schen Beziehung zwischen Temperatur und Feuchtigkeit folgend) durch eine Zunahme der Feuchtigkeit begleitet wird dergestalt, dass die Relative Feuchtigkeit (RH) der Luft nahezu konstant bleiben würde mit zunehmender Temperatur. Diese NAS-Hypothese der CO2-induzierten globalen Erwärmung enthielt implizit die Folgerung, dass die zunehmende Feuchtigkeit zusätzlich die IR-Strahlung in den Weltraum blockieren würde, und zwar noch über das Ausmaß hinaus, dass CO2 selbst blockieren würde. Die Gesamt-Blockierung der IR-Ausstrahlung in das Weltall durch zunehmendes CO2 würde also nicht nur durch das CO2 selbst, sondern auch noch durch den zusätzlichen Wasserdampf bewirkt, der gebraucht wird, um die RH bei steigender Temperatur nahezu konstant zu halten. Die Modelle zeigten, dass dieser zusätzliche Gewinn an Wasserdampf einen doppelt so großen Einfluss auf die Blockierung der IR-Ausstrahlung hat als die CO2-Zunahme selbst. Folglich würde die CO2-Zunahme, die eine Einheit IR-Abstrahlung blockiert, gleichzeitig zwei Einheiten IR-Ausstrahlung durch den zusätzlichen Wasserdampf blockieren. Diese mit zunehmender Feuchtigkeit verbundene Blockierung der IR-Ausstrahlung in das Weltall (assoziiert mit einer CO2-induzierten Erwärmung) wurde als ,positive Wasserdampf-Rückkopplung‘ bezeichnet. Alle CO2-Klimamodelle enthalten sehr starke positive Wasserdampf-Rückkopplungen.

Es ist dieser große und direkte Zusammenhang zwischen der Zunahme des Wasserdampfes gleichlaufend mit dem CO2-induzierten Temperaturanstieg, der der primäre physikalische Fehler in allen GCMs bei der Simulation einer Verdoppelung des CO2-Gehaltes ist. Aus diesem Grunde haben alle GCMs das Ausmaß der globalen Erwärmung so schwer übertrieben bei einer solchen Verdoppelung.

Beobachtungen zeigen, dass Erwärmung oder Abkühlung in der oberen Troposphäre nicht mit nahezu konstanter Relativer Feuchtigkeit ablaufen. Temperatur und RH tendieren dazu, sich gegenläufig zu ändern und nicht gleichlaufend, wie die Modelle annehmen. Meine viele Jahrzehnte langen Studien zur Cumulus-Konvektion und zur Bildung tropischer Zyklone haben mich gelehrt, dass die NAS-Hypothese aus dem Jahre 1979 (Charney-Report), dass nämlich steigende CO2-Gehalte mit einer Zunahme des Wasserdampfes einher gehen, keine realistische Zustandsbeschreibung ist, wie diese Parameter sich in der oberen Troposphäre ändern.

Die CO2-Simulationen der GCMs sind auch so konstruiert, als ob sie ihre Feuchtigkeits-Simulationen dergestalt durchführen, dass Änderungen des Wasserdampfes einheitlich sowohl in oberen als auch unteren Schichten der Troposphäre stattfinden. Im Gegensatz dazu zeigen Beobachtungen, dass diese Änderungen in verschiedenen Höhen der Troposphäre weitgehend unabhängig voneinander sind (Abbildung 3).

Abbildung 3: Korrelation von Feuchtigkeits-Änderungen in der oberen und der unteren Troposphäre. Die GCMs simulieren übereinstimmend die gleichen Feuchtigkeits-Änderungen sowohl in oberen als auch in unteren troposphärischen Schichten – also hohe Korrelation. Die Beobachtungen jedoch zeigen nur eine sehr geringe Korrelation solcher Änderungen, wenn überhaupt eine.

Unsere Analyse der Beobachtungen kommt zu dem Ergebnis, dass verstärkte Cb-Intensität und -Häufigkeit zu einer Abnahme des obertroposphärischen Wasserdampfes führt und nicht zu einem zusätzlichen Feuchteeintrag, wie ihn die Modelle zeigen.

Je höher oder intensiver die Cb-Wolken werden, umso höher ist ihre Effizienz hinsichtlich der Regenmenge. Cb-Wolken regnen den größten Teil ihrer Feuchtigkeit aus, wenn sie über ihre positive Auftriebsschicht nahe 300 hPa (~ 10 km) hinaus schießen und höher steigen in die stabilisierende obere Troposphäre, wo ihre Aufwärtsbewegung schwächer wird. Die sich abschwächende vertikale Bewegung in diesen hohen Schichten hinterlassen wenig Feuchtigkeit dort oben, wenn sich die Wolken auflösen. Ihre Hebung lagert ihre gesättigte, aber nur wenig Feuchtigkeit enthaltende Luft in hochtroposphärischen Cirrus-Wolken ab. Dies sind die Höhen, in der die vertikalen Gradienten der Feuchtesättigung prozentual gesehen sehr groß sind. Jedwedes Absinken dieser kalten hochtroposphärischen Luftpakete in niedrigere und wärmere Schichten verursacht eine besonders starke Abnahme der RH in der absinkenden Luft.

Beispiel: Ein gesättigtes Luftpaket [RH = 100%] in einer Höhe von 200 hPa (12 km) bei einer Temperatur von -53°C wird kaum Feuchtigkeit enthalten, obwohl es gesättigt ist. Falls dieses Luftpaket dann ohne Durchmischung auf 300 hPa (10 km) absinkt und die in dieser Schicht herrschende Temperatur annimmt, wird sich die RH von 100% auf nur 14% verringern (Abbildung 4). Solche Cb-induzierten Absinkbewegungen in niedrigere Schichten induzieren ein Austrocknen der oberen Schichten und damit eine verstärkte IR-Abstrahlung in den Weltraum. Den Kontrast zwischen diesen beiden Prozessen zeigt Abbildung 5. Die grundlegende Unfähigkeit der Modelle liegt darin, dass sie keine angemessene Auf- und Abwärts-Massenbilanz der vertikalen Luftbewegungen in der oberen Troposphäre abbilden, die der hohen Regenmengen-Effizienz der Cb-Wolken Rechnung trägt, die über 300 hPa hoch aufschießen, und das sehr austrocknende Absinken danach.

Abbildung 4: Illustration des extremen hochtroposphärischen Gradienten feuchtegesättigter Luft in den Tropen. Diese Tabelle zeigt die Stärke der RH-Abnahme, wenn gesättigte Luft um 100 hPa absinkt zwischen verschiedenen Druckniveaus und die Temperatur der tieferen Schicht annimmt. Die resultierende RH in der niedrigeren Schicht ist rechts aufgetragen. Beispiel: gesättigte Luft, die ohne Durchmischung und unter Beibehaltung ihrer absoluten Feuchtemenge von 200 hPa auf 300 hPa absinkt, hätte – nachdem sie die Temperatur der tieferen Schicht angenommen hat – nur noch eine RH von 14 Prozent (grüner Rahmen).

Abbildung 5: Zwei kontrastierende Ansichten der Effekte hoch reichender Cumulus-Konvektion. Das obere Diagramm betont die zusätzliche Austrocknung durch Absinken in Verbindung mit der hoch reichenden Konvektion. Zusätzlicher IR-Energiefluss entweicht in den Weltraum. Im Gegensatz dazu zeigt das untere Diagramm, wie die typischen GCMs den Massen-Ausfluss aus der Cb-Wolke als Hinzufügen von Wasserdampf zur oberen Troposphäre interpretieren und die zusätzliche IR-Abstrahlung blockieren. Das untere Diagramm ist hinsichtlich der Art und Weise, wie die Cb-Konvektion in der Atmosphäre abläuft, völlig unrealistisch.

Beispiel: Um den Einfluss einer Verdoppelung des CO2-Gehaltes allein durch Strahlung auszugleichen, wäre es erforderlich, dass die Temperatur des Globus‘ um 1°C steigt. Die Modelle nehmen dann an, dass diese CO2-induzierte Erwärmung um 1°C (jedenfalls den Hypothesen im Charney-Report zufolge) eine Feuchtezunahme auslösen, die die IR-Abstrahlung in den Weltraum noch weiter behindert. Darum kommt es zu einer weiteren hochtroposphärischen Erwärmung um 2°C zusätzlich zu der erforderlichen Erwärmung um 1°C durch das CO2 selbst. Die Kombination dieser beiden Prozesse soll der Hypothese zufolge eine Erwärmung der oberen Troposphäre über den Tropen um 3°C auslösen. Von diesen 3°C werden 2°C der Erwärmung durch positive Wasserdampf-Rückkopplung zugeordnet. Eine solcher erwarteter Vorgang ist sehr unrealistisch [und auch noch nie beobachtet worden, Anm. d. Übers.].

Viele Jahre der Analyse und Beobachtungen in unserem Satellite Cloud Climatology Project (ISCCP) bzgl. der IR-Verluste in den Weltraum in Verbindung mit verstärkter Cb-Konvektion und Regenfällen zeigen nicht eine verringerte IR-Abstrahlung in den Weltraum (wie es die Modelle gezeigt haben), sondern eher eine Verstärkung dieser IR-Abstrahlung. Unsere Daten belegen im Gegensatz zu den Modellen eine negative Wasserdampf-Rückkopplung – je größer die Rate der Regenmenge, umso niedriger der hochtroposphärische Wasserdampfgehalt und umso größer der IR-Verlust in das Weltall (Abbildung 6).

Abbildung 6: Änderungen der Temperatur im 300 hPa-Niveau, spezifische Feuchtigkeit (q – gm/kg) und Relative Feuchtigkeit RH nach Gebiet zwischen zwei unterschiedlichen Datensätzen zur Regenmenge in den Tropen. Die Unterschiede der Regenmenge betragen im Mittel 3,9 Prozent für die 10 höchsten minus der 10 niedrigsten monatlichen Differenzen und 1,9 Prozent für die Unterschiede in den Datensätzen 1995 bis 2004 bzw. 1984 bis 1994). Negative Werte sind rot dargestellt. Alle Feuchteparameter im 300-hPa-Niveau zeigten eine Abnahme sowohl des Wasserdampfes als auch der RH mit verstärktem Regen.

Die zu erwartende reale globale Erwärmung: Ohne hochtroposphärische Änderungen des Wasserdampfgehaltes und ohne verstärkte Abkühlung an der Erdoberfläche durch Verdunstung infolge verstärkter Regenfälle zeigt die reine Strahlungsreaktion auf eine Verdoppelung des CO2-Gehaltes eine globale Erwärmung um 1,0°C. Aber selbst ohne jede angenommene Änderung des Wasserdampfgehaltes ist diese 1°C-Erwärmung immer noch zwei bis drei mal größer als das, was vermutlich stattfinden wird. Grund hierfür ist, dass etwa 60 Prozent der IR-Blockierung von 3,7 W/m² durch eine CO2-Verdoppelung kompensiert wird durch eine Verstärkung der Verdunstung an der Erdoberfläche und eine Zunahme des globalen hydrologischen Kreislaufes um etwa 2½ Prozent. Eine Null-Wasserdampf-Rückkopplung würde also folglich lediglich eine Erwärmung um 0,4°C bei einer CO2-Verdoppelung ergeben.

Wir zeigen, dass es einen sehr geringen Grad negativer Wasserdampf-Rückkopplung von 0,1°C bis 0,2°C gibt. Hiermit sollten wir erwarten, dass die wirkliche Größenordnung der globalen Erwärmung aufgrund einer CO2-Verdoppelung höchstens 0,2°C bis 0,3°C betragen muss, das sind 5 bis 10 Prozent der Erwärmung, die von vielen globalen Modellen mit 2°C bis 4°C simuliert worden ist. Die AGW-Bedrohung und vor allem die katastrophale AGW (CAGW) kann keine realistische Abbildung dessen sein, wie das Klimasystem des Planeten funktioniert.

3. Weiteres ökonomisches Wachstum: Falls diese Evaluierung korrekt ist, sollte sich die Weltbevölkerung keine Sorgen hinsichtlich steigender CO2-Niveaus machen. Verstärkter Verbrauch fossiler Treibstoffe und ein steigendes Niveau wirtschaftlicher Fortschritte sollten weitergehen. Es ist für die Welt unabdingbar, von der hinaus posaunten Bedrohung durch die globale Erwärmung infolge CO2-Anreicherung völlig wegzukommen. Wir müssen uns auf die vielen legitimen und ernsten Probleme der Welt kümmern, die vor uns liegen.

Wir alle sollten dankbar sein für die enormen Fortschritte hinsichtlich Lebensstandard, Gesundheit und allgemeinem Wohlergehen, was der Verbrauch fossiler Treibstoffe erst möglich gemacht hat. Energie aus fossilen Treibstoffen war eine der größten Segnungen der Menschheit.

Höhere Niveaus des fossilen Energieverbrauchs werden zu noch größeren wirtschaftlichen und gesellschaftlichen Vorteilen führen. Ein zunehmender CO2-Gehalt wird auch das Vegetations-Wachstum anregen, zu einer geringen Erhöhung der Regenmenge und zu einem sehr leichten globalen Temperaturanstieg führen – das sind alles für die Menschheit positive Änderungen.

Viele Menschen, die glauben, dass die Menschen die Umwelt degradieren, verwechseln lokale Umweltprobleme mit einer CO2-induzierten globalen Erwärmung. Dabei sind das zwei völlig verschiedene Dinge. Wir alle müssen daran arbeiten, lokale Verschmutzung und Gesundheitsgefahren zu reduzieren oder zu eliminieren, anstatt den falschen Moralpredigten zu folgen, die eine Rettung der Welt vor der hinausposaunten, aber imaginären CO2-induzierten Gefahr propagieren.

Das weiseste Maßnahmenpaket für unser Land und die ganze Welt sollte derzeit sein, die Voraussicht und den Mut zu haben, ,nichts zu tun‘ hinsichtlich des steigenden CO2-Gehaltes und anderer Treibhausgase. Die kommenden Generationen werden in einer besseren Lage sein zu entscheiden, ob irgendeine menschliche Reaktion auf den steigenden CO2-Gehalt gerechtfertigt war.

4. Hintergrund des Autors: Der Autor hat einen MS in Meteorologie und einen Ph.D. in geophysikalischen Wissenschaften von der University of Chicago. Er war 60 Jahre lang Wetter-Klima-Prognostiker, Forscher und graduierter Hochschulprofessor. Er hat 70 MS und PhD.-Studenten begleitet. Er war die letzten 31 Jahre mit der saisonalen Hurrikan-Vorhersage im Atlantik befasst.

Gray hat niemals irgendwelche Forschungszuwendungen von irgendwelchen fossile Energie erzeugenden Quellen erhalten. Seine Haltung zum Thema globale Erwärmung hat während der letzten Jahrzehnte zum Verlust jedweder öffentlicher Förderung geführt. Seine Forschungen zu diesem Thema finanziert er ausschließlich selbst. Gray und seine Kollegen beim Forschungsprojekt an der Colorado State University haben viele Jahre lang viele Studien veröffentlicht und viele Projektberichte geschrieben zu Cumulus-Konvektion und atmosphärischen Feuchtigkeits-Prozessen. Aus diesen Berichten geht hervor, wie sehr den Klimamodellen Realismus fehlt und was der primäre Grund für ihre erheblich unrealistischen Erwärmungs-Projektionen ist. Diese Studien und Berichte können hier eingesehen werden: (http://tropical.atmos.colostate.edu/).

Link: http://stevengoddard.wordpress.com/2014/12/24/a-christmas-gift-from-dr-bill-gray/

Übersetzt von Chris Frey EIKE




Wind und Solar – nichts als Vergeudung von Energie und Ressourcen

In der Biologie gibt es schon lange den Begriff „Energieerntefaktor“. Damit beschrieb der amerikanische Forscher Charles Hall das Verhältnis zwischen dem energetischen Aufwand, den ein Raubtier treiben muss, um seine Beute zu fangen und zu töten, und dem Nutzen in Form von Energie, die es aus dem Verzehr dieser Beute ziehen kann. Ist die Beute zu klein oder der Jagdaufwand zu groß, dann wird dieser Erntefaktor negativ, d.h. der Räuber muss bei dieser Aktion einen Teil seiner im Körper gespeicherten Energiereserven zuschießen und erleidet einen entsprechenden Substanzverlust. Bei einem oder zwei Jagdversuchen mag das noch gut gehen, doch wenn es nicht gelingt, im Durchschnitt aller Jagden mehr Energie zu „erbeuten“ als verbraucht wurde, dann gehen die Reserven über kurz oder lang zu Ende und das Tier wird sterben. Für den Erntefaktor wird häufig auch der englische Fachbegriff EROEI (Energy Returned On Energy Invested) verwendet.

Nachdem Hall dieses Konzept erstmals auch für die Beurteilung von Kraftwerken verwendete, wird es inzwischen umfassend zur Charakterisierung der unterschiedlichsten Kraftwerkstypen angewandt [FEST, MERK]. Man bilanziert damit faktisch die in Bau, Betrieb und Rückbau sowie in die Beschaffung des Brennstoffs investierte Energiemenge einerseits und die in Form von Strom zur Verfügung gestellte Energiemenge andererseits, Bild 1.

Bild 1. Der Erntefaktor eines Kraftwerks. Die Brennstoffbereitstellung (Förderung, Aufbereitung, usw.) findet normalerweise außerhalb des eigentlichen Kraftwerks statt, wird aber fairerweise zur investierten Energie hinzugerechnet (Grafik: [FEST])

Konventionelle Kraftwerke im Plus

Die hier aus einer Publikation des Instituts für Festkörper-Kernphysik in Berlin übernommenen Daten basieren auf einer begutachteten internationalen Publikation von Weissbach et al. im Fachmagazin Energy (Band 52, April 2013, Seite 210-221) [WEISS]. Die Autoren fanden sowohl für fossile Kraftwerke als auch für Kernkraftwerke hohe positive Erntefaktoren zwischen 28 und 107, Bild 2. Die einzige Ausnahme betrifft den Einsatz von Biogas zum Betrieb eines Gas-und-Dampf-Kombikraftwerks. Hier wird aufgrund der hohen Aufwendungen zur Bereitstellung des Brennstoffs lediglich ein Erntefaktor von 3,9 erreicht. Obwohl dies vordergründig positiv erscheint, ist es dennoch bei weitem nicht ausreichend. Die Begründung hierfür folgt weiter unten.

Bild 2. Vergleich der Energieerntefaktoren verschiedener konventioneller Kraftwerke (Daten: [FEST])

Kraftwerke mit Speicherbedarf

Kraftwerke, deren Leistungsabgabe nicht exakt dem jeweiligen Bedarf angepasst werden kann, gehören in eine gesonderte Gruppe, da ihre momentan nicht benötigte Produktion in irgendeiner Form gespeichert werden muss. Neben den „klassischen“ EE-Kraftwerkstechnologien wie Wind- und Solarkraftwerke zählen hierzu auch Laufwasserkraftwerke, deren Produktion vom aktuellen Wasserangebot im Fluss abhängt und entsprechenden Schwankungen unterliegt. In jedem Fall müssen bei der Betrachtung des Erntefaktors der Aufwand für die Errichtung und den Betrieb der Speichereinrichtungen sowie die bei der Speicherung auftretenden Verluste mit berücksichtigt werden. Eine Aufstellung der Erntefaktoren bei Kraftwerkstypen, die Speicherung erfordern, zeigt Bild 3.

Bild 3. Erntefaktoren verschiedener wetterabhängiger Kraftwerkstechnologien sowie die Auswirkungen einer Speicherung (Daten: [FEST])

Bezüglich der durch die Speicherung zu überbrückenden Zeiträume unterscheidet man zwischen Speicherung über kurze Zeiträume – typischerweise im Tagesrhythmus wie beispielsweise bei Solarkraftwerken, die nachts keinen Strom liefern – und längerfristigem Speicherbedarf, wenn saisonale Schwankungen beispielsweise aufgrund unterschiedlicher Wasserzuflüsse z.B. im Hochgebirge berücksichtigt werden müssen. Letzteres geht fast nur beim Betrieb von Talsperren, deren großes Volumen als Speicher genutzt werden kann. Dieser Aufwand ist bereits in den Baukosten berücksichtigt. Eine saisonale Speicherung z.B. von Solarenergie über Monate hinweg ist aufgrund des schwachen Aufkommens im Winter weder technisch noch ökonomisch realisierbar, nicht zuletzt auch deshalb, weil es weder in Deutschland noch in den unmittelbaren Nachbarländern die topologischen Voraussetzungen für die Errichtung solch riesiger Speichervolumen gibt. Für alle anderen von EE-Befürwortern häufig vorgeschlagenen Speichertechnologien wie Druckluftspeicherung, Wasserstoffproduktion bzw. Methangassynthese („Windgas“) oder Batteriespeicherung gilt, dass sie aufgrund hoher Anlagenkosten sowie geringer Wirkungsgrade den Erntefaktor nochmals erheblich reduzieren.

Erntefaktor 1: Dahinvegetieren am Existenzminimum

Bei der Betrachtung der hier ermittelten Zahlen für die verschiedenen Arten der Gewinnung „erneuerbarer“ Energien könnte vordergründig der Eindruck entstehen, dass die Ergebnisse zwar nicht berauschend, aber dennoch positiv sind und es demnach nur eine Frage der Installation genügend großer Kapazitäten ist, um letztlich den Energiebedarf unserer Gesellschaft mithilfe von z.B. Sonne- und Windkraftwerken zu decken. Dies ist jedoch ein Trugschluss, denn für einen tatsächlich positiven Beitrag zur Energiebilanz bedarf es in unserer modernen Gesellschaft eines sehr viel höheren Erntefaktors als 1. Warum das so ist, kann man leicht anhand des Raubtier-Beispiels nachvollziehen. Ein Erntefaktor von 1 würde bedeuten, dass dieses Tier ständig am Rande des Hungertodes entlang vegetiert und keine Möglichkeit hat, seine Reserven für Notzeiten aufzustocken. Für Tiere, die beispielsweise Winterschlaf halten müssen, wäre dies das Todesurteil. Ein wesentlich höherer Erntefaktor als 1 wird auch benötigt, um Junge zeugen und aufziehen zu können. Ohne dies wäre die Art innerhalb kürzester Zeit zum Aussterben verurteilt.

Unsere Zivilisation erfordert Erntefaktoren von mindestens 14

Beim Menschen mit seiner komplexen und energieintensiven technischen Zivilisation sowie der außerordentlich hohen Aufwendungen, die wir beispielsweise in die Ausbildung unseres Nachwuchses investieren, sind entsprechend höhere Erntefaktoren zu berücksichtigen [MERK]. Deshalb muss ein Energiesystem einen Überschuss erzeugen, der groß genug ist, um damit Nahrung sowie alle Dinge des täglichen Bedarfs produzieren zu können. Darüber hinaus müssen auch die Ressourcen für die Errichtung von Gebäuden und Infrastruktur sowie den Betrieb von Spitälern und Universitäten bereitgestellt werden, und letztlich ist auch noch der Aufwand für die kulturellen Bedürfnisse der Bevölkerung zu decken. Technologisch hochstehende Zivilisationen wie die in Europa, Japan, China oder in den USA erfordern einen minimalen Erntefaktor von 14, Bild 4 und Tabelle 1.

Bild 4. Je komplexer und technologisch hochstehender eine Gesellschaft ist, desto höher muss der Erntefaktor EROEI der zur Energiegewinnung eingesetzten Technologien sein. Blaue Werte sind veröffentlicht, gelbe sind zunehmend spekulativ (Grafik: [MERK])

Tabelle 1. Minimal erforderliche Erntefaktoren EROEI bei der Gewinnung von konventionellem „süßem“ Rohöl zur Aufrechterhaltung bestimmter Zivilisationsstufen (Daten: [MERK])

Aktivität                                                                Minimaler EROEI

Förderung des Öls                                                 1,1/1
Raffineriebetrieb                                                    1,2/1
Transport                                                                  3/1
Nahrungsmittelproduktion                                      5/1
Unterhalt von Familien der Mitarbeiter                7-8/1
Ausbildung                                                         9-10/1
Gesundheitswesen                                                 12/1
Kulturangebot                                                        14/1

Die heute verfügbaren Wind- und Solarenergieanlagen sind demnach energetische „schwarze Löcher“, in denen vorhandene fossile Ressourcen sinnlos vergeudet werden. Je mehr man davon errichtet, desto grösser der Schaden.

 

Quellen

[FEST] http://festkoerper-kernphysik.de/erntefaktor

[MERK] http://www.windland.ch/wordpress/

[WEISS] http://dx.doi.org/10.1016/j.energy.2013.01.029




Keine Spur vom angeblichen Hitzejahr 2014 in den globalen Satellitendaten

Es gab Zeiten, da hat man solche Spitzenwerte etwas kühler aufgenommen, weil noch jedes zweite Jahr einen spektakulären Wärmerekord mit sich brachte und man sich an den Anstieg gewöhnt hatte. Seit 2007 jedoch wurden keine neuen Höchstmarken mehr aufgestellt. Der letzte Spitzenwert für einen Oktober stammt sogar aus dem Jahr 2001 – noch vor dem diesjährigen. Die Tendenz zur Erwärmung in Deutschland hat – wie im globalen Durchschnitt – seit Beginn des Jahrtausends an Fahrt verloren. Wie es in den nächsten Jahren weitergehen wird, kann niemand vorhersehen. Allerdings: Trotz ausbleibenden Anstiegs sind die Temperaturen auch in den letzten 15 Jahren durchaus auf einem hohen Plateau verblieben. Und so war es beim Auf und Ab der Jahreskurven nur eine Frage der Zeit, wann wieder ein etwas deutlicherer Ausschlag nach oben erfolgen würde.

Weiterlesen auf welt.de.

Auch beim Deutschen Klimakonsortium (DKK) ist man vorsichtiger geworden und gibt zu bedenken, dass Regionalrekorde wie in Deutschland wenig über den globalen Klimawandel aussagen. Am 18. Dezember 2014 hieß es in einer “Stellungnahme des Deutschen Klima-Konsortiums zum Temperaturrekord 2014“:

Allerdings ist nur die globale Mitteltemperatur ein zuverlässigerer Indikator für die Erderwärmung. Nimmt man für diese die vorläufigen Daten für die Monate Januar bis November 2014 als Anhaltspunkt, dann fallen jetzt vierzehn der insgesamt fünfzehn wärmsten Jahre seit Beginn der systematischen Aufzeichnungen in das 21. Jahrhundert.

Dennoch ist es zu früh, bereits sicher von dem Ende der seit etwa 15 Jahren anhaltenden „Erwärmungspause“ und einer beschleunigten Erwärmung während der kommenden Jahre auszugehen. Denn die globale Erdoberflächentemperatur unterliegt Schwankungen von Jahr zu Jahr und von Jahrzehnt von Jahrzehnt. Erst mit den Folgejahren wird sich beurteilen lassen, in wieweit die globale Erwärmung der Erdoberfläche wieder Fahrt aufgenommen hat.

Neben Sonneneinstrahlung und Vulkanaktivität sind die Ozeane ein wesentlicher Klimafaktor. Aktuellen Forschungsergebnissen zufolge haben die Weltmeere während der letzten 40 Jahre gut 90 Prozent der Energie gespeichert, die aufgrund der erhöhten Treibhausgaskonzentrationen zusätzlich im Klimasystem verblieben ist. Phasen vermehrter ozeanischer Wärmeaufnahme wechseln sich dabei mit Phasen schwächerer Aufnahme ab. Damit verbunden kommt es auch zu Schwankungen der Meeresoberflächentemperaturen. Prominentes Beispiel ist das Klimaphänomen El Niño im tropischen Pazifik mit einer mittleren Periode von etwa vier Jahren. Während eines El Niño-Ereignisses erwärmt sich das Oberflächenwasser in weiten Teilen des tropischen Pazifiks, was auch die über den Globus gemittelte Erdoberflächentemperatur mitbestimmt.

Das Wechselspiel zwischen dem Ozean und der Atmosphäre ist ein wichtiger Grund für den etwa seit der Jahrtausendwende verlangsamten Anstieg der globalen Erdoberflächentemperatur. Obwohl sich 2014 bisher noch kein vollständig ausgeprägtes El Niño-Ereignis entwickelt hat, lagen die globalen Oberflächentemperaturen laut der Weltorganisation für Meteorologie (WMO) im Zeitraum Januar bis Oktober 2014 knapp 0,6°C über dem Durchschnitt der Jahre 1961-1990 und damit sogar oberhalb des Wertes von 2010, dem global bislang wärmsten Jahr. El Niño-Ereignisse zeigen sich in der globalen Erdoberflächentemperatur in der Regel erst ein Jahr später. So war die Rekordtemperatur des Jahres 2010 vom El Niño der Jahre 2009/2010 beeinflusst. Sollte sich in den nächsten Wochen das bislang noch schwach ausgeprägte El Niño-Ereignis verstärken, wird dieser Effekt voraussichtlich erst 2015 vollständig zu sehen sein.

Es ist ermutigend zu sehen, dass das Klimakonsortium nun endlich auch offiziell die systematische Beteiligung der Ozeanzyklen und Sonnenaktivitätsschwankungen am Klimageschehen einräumt. Das DKK erklärt die Erwärmungspause mit einem kühlenden Ozeanzyklus. Nichts anderes haben wir in unserem Buch “Die kalte Sonne” getan, das das DKK am 6. Februar 2012 in einer anderen Stellungnahme voreilig verdammt hatte. Damals hatte das DKK und der Autor der Stellungnahme, Jochem Marotzke, offensichtlich noch die Wirkung der Ozeanzyklen unterschätzt. In der DKK-Stellungnahme zum Buch hieß es damals:

Rein natürliche Schwankungen ­- wie etwa Änderungen der Sonnenaktivität – können hingegen nicht hauptsächlich für die globale Erwärmung in den letzten Jahrzehnten verantwortlich sein, auch wenn das kürzlich erschienene Buch von Vahrenholt und Lüning dies behauptet. Für ihre Behauptung liefern die Autoren keinen wissenschaftlich belegten Nachweis.

Pierre Gosselin dokumentierte den Sinneswandel des DKK am 19. Dezember 2014 in seinem Blog Notrickszone.com und wundert sich, dass sich das Klimakonsortium noch immer nicht den Mut besaß, seine damals verbreitete Einschätzug zum Buch zu revidieren. Gosselin schreibt:

Does anyone think they will do the honorable thing and admit that Die kalte Sonne authors Prof. Vahrenholt and Sebastian Lüning claims had merit after all? Professional and honorable scientists would certainly do so. 

Bei dem ganzen Gerede über neue mögliche globale oder regionale Temperaturrekorde 2014 sollte man den Blick in die harten Daten nicht ganz vergessen. Zunächst schauen wir uns zwei globale Satelliten-Temperaturdatensätze an, nämlich den von RSS (Abbildung 1) und UAH (Abbildung 2). Die Charts wurden am 21. Dezember 2014 auf woodfortrees.org generiert. Die Überraschung ist groß: Das Jahr 2014 gehört laut den vorläufigen Daten eher zu den durchschnittlichen Jahren des seit 1998 anhaltenden Temperaturplateaus, wenig rekordverdächtig.

Abbildung 1: Temperaturentwicklung von 1979 bis Mitte Dezember 2014 gemäß Satellitendatensatz RSS.

Abbildung 2: Temperaturentwicklung von 1979 bis Mitte Dezember 2014 gemäß Satellitendatensatz UAH.

Der in den Medien behauptete Rekord bezieht sich auf einzelne Oberflächentemperaturdaten, die im großen Maßstab nach undurchsichtigen Methoden “korrigiert” werden. Christopher Booker erläuterte am 6. Dezember 2014 in The Telegraph:

It is true that the temperature records compiled by the avid warmists of the Met Office and the Goddard Institute for Space Studies (the one formerly run by climate activist James Hansen) have managed to show this year squeaking just ahead of 2010 as “the hottest year since records began”. But the much more comprehensive and reliable satellite records agree that 2014 is way down the list, with six of the past 16 years ahead of it.

Matt Ridley fragte sich am 8. Dezember 2014 in The Times, weshalb die WMO bereits deutlich vor Jahresende mit einer Pressemitteilung über einen angeblich bevorstehenden Temperaturrekord an die Öffentlichkeit trat. Es handelt sich um eine leicht durchschaubare Strategie: Man wollte die Klimatagung in Lima mit schaurigen Nachrichten unterfüttern. Zudem geht es bei dem Rekord um Steigerungsbeträge von wenigen hundertstel Grad im Vergleich zu warmen Vorjahren. Ridley schreibt:

last week, the World Meteorological Organization (WMO), a supposedly scientific body, issued a press release stating that this is likely to be the warmest year in a century or more, based on surface temperatures. Yet this predicted record would be only one hundredth of a degree above 2010 and two hundredths of a degree above 2005 — with an error range of one tenth of a degree. True scientists would have said: this year is unlikely to be significantly warmer than 2010 or 2005 and left it at that.

Judith Curry schlug daher in ihrem Blog am 9. Dezember 2014 eine sehr viel pragmatischere Sichtweise vor:

We won’t really have a good assessment on the temperatures for 2014 until about March 2015, when all of the observations have been assembled and quality controlled. The different temperature datasets and analyses give different results, which reflects the uncertainties in the data and analysis methods. Even if one or several data sets do find 2014 to be the hottest year, given the uncertainties one can only conclude that this is one of the top 5 or so warmest years. The real issue that is of concern to me is the growing divergence between the the observed global temperature anomalies and what was predicted by climate models. Even if 2014 is somehow unambiguously the warmest year on record, this won’t do much to alleviate the growing discrepancy between climate model predictions and the observations.

Dem Deutschlandfunk (DLF) sind solch komplizierte Differenzierungen lästig. Hier wird vielmehr mit der unwissenschaftlichen Holzhammermethode gearbeitet. Das Triumphgeheul des DLF zum Pseudo-Rekord wurde am 3. Dezember 2014 weltweit über den Äther geschickt. Nun, gönnen wir ihnen ihre kindliche Freude und Begeisterungsfähigkeit, bevor die sibirische Kälte demnächst vielleicht wieder nach Europa schwappt und für eine gewisse Ernüchterung sorgen könnte. Interessant sind aber diese zwei Zitate aus der genannten DLF-Berichterstattung:

Nord-Meere im Sommer unerklärlich warm
2014 hielt dabei eine Überraschung bereit: Zwischen Juni und Oktober waren Nordatlantik und Nordpazifik ungewöhnlich warm, ja sogar unerklärlich warm: “Das ist auch der Grund dafür, dass der Ozean in diesem Jahr insgesamt besonders warm ist. Warum die Meerestemperaturen auf der Nordhalbkugel derzeit so hoch sind – diese Frage versuchen Forscher jetzt zu beantworten. Im Moment wissen wir es noch nicht.”

und

Antarktis-Eis gibt Rätsel auf
Ein Rätsel für Klimaforscher wie Baddour ist auch 2014 geblieben: Warum nimmt die Meereisbedeckung in der Antarktis tief im Süden nicht ab, sondern weiter zu? “Das ist eine sehr wichtige Frage! Und wir stellen sie uns schon seit drei Jahren. Es gibt Belege dafür, dass die Winde stärker geworden sind, die um die Antarktis herum wehen. Dadurch wird es kälter, und Wasser kann leichter zu Eis gefrieren. Aber ob es wirklich daran liegt, steht noch nicht fest.”

Da soll noch einer behaupten “The science is settled”…

Der Beitrag erschien zuerst auf Die Kalte Sonne.de




Gesundheitsgefahr durch Großwindradanlagen: Ärzte erheben ihre Stimmen

Die Webseite des Arbeitskreises AEFIS hier. Wir bringen ihren Beitrag unverändert als angehängtes pdf, bei dem wir lediglich auf S. 16 die Namen die Unterzeichner herausgeschnitten haben, weil einige von ihnen handschriftlich signiert waren (Datenschutz). Im so geänderten pdf-Dokument fehlen auf S. 16 somit die Unterzeichnernamen, und die Seitenzahl ist mitabgeschnitten. Die Unterzeichner (ohne handschriftliche Unterschrift) sind nachfolgend aufgeführt als

Prof. Dr. med. Heyo Eckel, Dr. med. Rolf Sammeck, Dr. med. Thoams Carl Stiller, Dr. med. Anita Schmidt-Jochheim, Dr. med.habil. Eberhard Franz, Dr. med. Ulrike Diehl, Dr. med. Martina Ohlmer,  Dr. med. Michael Jäkel, Dr. med. Herbert Klengel, Dr. med. Stephan Bartels.

Die bisherigen EIKE-News zum Thema „Infraschall durch Großwindkraftanlagen“ hier, hier, hier,hier, hier, hier.

Related Files




Die Ökonomie des Irrenhauses

Jetzt kommen die Ablenkungsmanöver [red herrings] nach hause, um geröstet zu werden. Die horrenden Kosten des fast einmaligen wissenschaftlichen Analphabetentums, zu dem während eines halben Jahrhunderts marxistischer Bildung selbst die regierende Klasse mutiert ist, werden jetzt nur zu schmerzhaft offensichtlich.

„Ed“ Davey, der bescheuert „Klimawandel-Minister“ genannt wird, ein „Liberal“-„Demokrat (d. h. ein Verrückt-Linker) Minister im Kabinett der Koalition der Kindischen – zu einem nicht geringen Teil wegen deren selbstmörderischer Klimapolitik – hat innerhalb von fünf Jahren mehr Schulden angehäuft als alle Britischen Regierungen zusammen zuvor. Soeben hat er die jüngste politische Maßnahme der Kindischen verkündet.

Das mehr als bankrotte UK – einst wirtschaftliches Machtzentrum der Welt – wurde zum ökonomischen Irrenhaus der Welt, weil „Ed“ dabei ist, den Verbrauch von Erdgas in Industrie und Wohnhäusern zu verbieten. Einfach so.

Das Ziel der Vollendung dieser jüngsten Verrücktheit liegt in weniger als zwei Jahrzehnten von heute an gerechnet. Etwa die Hälfte der Nation kocht oder heizt ihre Wohnungen mit Gas. Durch den Erlass der Regierung werden jene Haushalte bald gezwungen sein, zu deutlich teurerem und deutlich weniger effizientem elektrischen Kochen und Heizen zu wechseln, ob sie das nun stemmen können oder nicht.

Natürlich wird es auch gewaltige Kapitalkosten für ausgequetschte Steuerzahler geben, da das extensive und teure Gasnetz [unübersetzbares Wortspiel: extensive and expensive] sinnlos zerschlagen wird, da die Gaskraftwerke, die erst kürzlich einen großen Teil unserer Erzeugungskapazität mittels Kohle ersetzt haben, heruntergefahren werden und unser Land mit nutzlosen Vögel und Fledermäuse tötenden Windmühlen zugepflastert wird. Schon jetzt verschandeln Windmühlen etwa 60% der Landschaft in Schottland.

Die kleinen Strampler sind dabei, das Netzwerk bedrückender, instabiler und Verluste machender Windmühlen massiv auszudehnen. Um das zu finanzieren, wird der normale Haushalt zusätzlich mit 400 Pfund pro Jahr belastet, zusätzlich zu den massiven Energiepreissteigerungen, die sie bereits zu stemmen hatten.

Sie sind auch dabei, 1,2 GW neuer Kernkraftkapazität pro Jahr zu installieren (das Äquivalent zu zwei nuklear getriebenen U-Booten). Aber – Geisteskrankheit über Geisteskrankheit – die gering spezifizierten [low-spec], Reaktoren geringer Güteklasse [civilian-grade], die sie von Hitachi kaufen werden, kosten sechs mal so viel wie die hoch spezifizierten Rolls-Royce-Reaktoren hoher Güteklasse in unseren Trident-U-Booten.

Als ich Rolls Royce fragte, ob sie unter diesen Umständen planten, dem umwälzenden [thrusting] neuen UK-Markt für zivile Kernkraft-Stromerzeugung beizutreten, erhielt ich zur Antwort ein barsches – und verständliches – Nein. Die mit Nadelstreifen-Anzügen bekleidete Stimme im Telefon zeugte von verdeckter Ungeduld mit dem zunehmend bizarrer werdenden Verhalten der Koalition der Kindischen.

Was aber noch schlimmer ist: nicht nur Gas, sondern auch Benzin wird verbannt. Alle Autos sollen bis zu den vierziger Jahren dieses Jahrhunderts elektrisch sein. Einfach nur so.

Eigentlich hatte ich etwas höchstens halb so Irrsinniges wie dies hier erwartet. In der September-Ausgabe von Energy and Environment bin ich in einer Studie, die die vielen Fehler des IPCC aufdeckte, auch kurz auf die „Ökonomie“ der Subventionen der Krabbelkinder [toddler] bzgl. Elektroautos eingegangen. Es wurde vielfach erwähnt, obwohl ich dem Augenschein nach nicht annehme, dass irgendjemand im Kleinkinderzimmer im Ministerium der Klimaverrücktheit schon lesen gelernt hatte, so dass sie das nicht gesehen haben. Hier folgt es:

Verschiebung des Datums der Gesamt-Wohlstandsvernichtung

Es gab in diesem Jahrhundert keine globale Erwärmung. Falls die Erwärmung mit der während der letzten 30 Jahre beobachteten mittleren Rate von 0,14 K/Jahrzehnt sofort wieder einsetzen sollte, würde es bis zum Jahr 2035 eine Erwärmung von 0,28 K geben. Sollte sich die Erwärmungsrate danach verdoppeln und auf dieser Höhe während des gesamten restlichen Jahrhunderts verbleiben, würde die Erwärmung bis zum Jahr 2100 kaum mehr als 1,1 K betragen.

Da es seit 1750 (Temperaturaufzeichnung aus Zentralengland) zu einer Erwärmung um 0,9 K gekommen war, dürfte die 2°C-Grenze, jenseits derer alles zusammenbrechen soll, kaum vor Ende dieses Jahrhunderts erreicht werden. Eine geringe Erwärmungsrate ist weniger schädlich als eine rapide Rate, so dass selbst nach dem Jahr 2100 die Nachteile der Erwärmung nicht signifikant sein würden.

Sollte man Vorsichtsmaßnahmen in jedem Falle treffen?

Ob Abschwächungsmaßnahmen in jedem Falle durchgeführt werden, ist eine ökonomische Frage, die beantwortet wird durch Investitions-Abschätzungen. Die 8333 Pfund in UK-Subvention für Elektroautos würde als Beispiel dienen. Die beiden Faktoren für die Abschätzung sind der Anteil der globalen CO2-Emissionen, die eine Abschwächungs-Maßnahme vermeiden soll und die Kosten dieser Maßnahme.

Typische Benzinautos sind etwa zu 27% effektiv. Typische fossil getriebene Erzeugerstationen sind zu 50% effizient, die Zuleitung an den Endverbraucher zu 67%, das Aufladen der Batterie ist zu 90% effizient und der Elektromotor des Autos zu 90%, so dass die Treibstoff-Effizienz eines Elektroautos ebenfalls 27% beträgt. Allerdings braucht das Elektroauto 30% mehr Energie pro gefahrene Meile, um die Masse der Batterien zu transportieren.

CO2-Emissionen aus heimischen Transporten tragen zu etwa 24% zu den CO2-Emissionen in UK bei, und Autos, Lieferwagen und Taxis repräsentieren 90% des Transportwesens auf Straßen (DfT, 2013). Nimmt man einen Treibstoffverbrauch von 80% durch diese Autos an, tragen sie zu etwa 19,2% der UK-CO2-Emissionen bei. Die Konversion zu elektrischem Antrieb von dem 61% mit fossilen Treibstoffen in UK erzeugt wird, würden diese 19,2% um etwa 39% verringern (d. h. 7,5%).

Allerdings würde das Gewicht der Batterien zusätzlich zu Buche schlagen, und zwar 30% von 19,2% von 61%: d. h. 3,5% der UK-CO2-Emissionen. Die Gesamt-Einsparung bei der Umrüstung aller Autos, Lieferwagen und Taxis auf Elektro würde also 4% der UK-CO2-Emissionen ausmachen, was 1,72% der globalen CO2-Emissionen entspricht… und weiter im Original: abating 0.07% of global CO2 emissions of 2 ppmv yr–1, or 0.00138 ppmv. Assuming 400 μatm concentration at year end on business as usual, forcing abated by the subsidy for converting all UK cars to electricity would be 5.35 ln[400/(400-0.00138)], or 0.00002 W m–2, which, multiplied by the Planck parameter λ0 = 0.31 K W–1 m2, gives 0.000006 K warming abated by the subsidy.*

[*Ich hoffe, die Berechnungen sind richtig. Ich habe nicht nachgerechnet! Und bevor ich durch die Übersetzung Zahlendreher erzeuge, lasse ich hier lieber das Original stehen. Die Zahlen sprechen ohnehin für sich. Anm. d. Übers.]

Die Kosten für den UK-Steuerzahler der Subventionen für die im Jahre 2012 gekauften 30.000 Elektroautos, -lieferwagen und -taxis sind eine Einheits-Subvention von 8333 Dollar oder 5000 Pfund für jedes Fahrzeug sowie eine weitere Subvention von etwa 350 Dollar oder 210 Pfund pro Jahr als Steuernachlass für jedes Auto, insgesamt also 260,5 Millionen Dollar. Auf dieser Grundlage belaufen sich die Kosten der Subventionen aller 2.250.000 neuen Autos, die jedes Jahr verkauft werden (SMMT, 2013) auf 19,54 Milliarden Dollar.

Obwohl die Lebensdauer von Elektroautos 50% höher ist als die von Autos mit Verbrennungsmotoren, wird der Vorteil mehr als kompensiert durch die horrenden Kosten des Austausches aller Batterien, der alle paar Jahre erfolgen muss. Diese Zusatzkosten tauchen nirgendwo auf. Genauso nicht berücksichtigt werden die erheblichen Kosten der Nutzung erneuerbarer Energie, um den fossil erzeugten Anteil vom globalen Mittel bei 67% auf 61% zu verringern, obwohl streng genommen ein angemessener Anteil der Kosten „erneuerbarer“ Stromerzeugung zugerechnet werden müsste.

Teilt man diese jährlichen Kosten von 19 Milliarden Dollar durch die vermiedene Erwärmung, ergeben sich Abschwächungskosten von 3400 Billionen Dollar pro Grad Kelvin. Eine Abschwächung der projizierten Erwärmung um 0,013 K während des Untersuchungszeitraumes durch globale Methoden äquivalenter Kosten pro Einheit würde demnach 45 Billionen Dollar kosten oder sich der 6500-Dollar-Marke pro Kopf der globalen Bevölkerung nähern oder fast zwei Drittel der 71 Billionen Dollar globalen jährlichen BIP.

Stern (2006) schrieb, dass die Kosten der damals projizierten Erwärmung um 3 K während des 21.Jahrhunderts etwa bis 3% des globalen BIP betragen. Das IPCC (2013, WG II) legt die Kosten mit 0,2% bis 2% des BIP fest.

Unter der Annahme, dass 1 K Erwärmung im 20.Jahrhundert Kosten bis zu 0,5% des BIP ausmachen würden (tatsächlich würde eine so geringe Erwärmung gar nichts kosten), wäre die beabsichtigte globale Abschwächung mit Methoden des UK-Subventionsprogramms für Elektroautos 128 mal kostspieliger als Anpassung. …*

[*Im Original lautet dieser Absatz: Assuming that 1 K 20th-century global warming would cost as much as 0.5% of GDP (in fact so small a warming would cost nothing), global mitigation by methods of equivalent unit cost to the UK’s subsidy program for electric vehicles would be 128 times costlier than adaptation.]

Alles in allem wären die Kosten für Abschwächung 1 bis 2 Größenordnungen größer als diejenigen für Anpassung (Monckton of Brenchley 2013). Bezahlbare Maßnahmen sind ineffektiv; effektive Maßnahmen sind unbezahlbar. Zu wenig Abschwächung wird mit viel zu hohen Kosten erreicht. Da die Prämie 10 bis 100 mal die Kosten des versicherten Risiken übersteigen, sind Vorsichtsmaßnahmen als Versicherung gegen die vom Menschen verursachte globale Erwärmung nicht zu empfehlen.

Fußnote: Als ich das Ministerium für Klimawandel 2010 besuchte, um den Minister im House of Lords Lord Marland zu treffen, fragte ich ihn und seinen Chef-Zahlenverdreher Prof. David Mackay, ob ich deren Berechnungen sehen dürfte, die zeigten, wie viel globale Erwärmung die geisteskranke Politik während der kommenden Jahrzehnte verhindert würden, und welche Kosten pro vermiedenem Grad Kelvin Anstieg anfallen würden.

Plötzlich war da nur noch bestürztes Schweigen. Der Permanent Secretary schaute auf seine Armbanduhr und fummelte dann an seinem Schlips herum. Der Minister tippte einen Cricket-Ball auf und ab in planloser Sprachlosigkeit. Prof. Mackay sagte: … das kommt im Original viel besser: „Er, ah, mphm …” [I’d never heard that 19th-century Scottish playing-for-time interjection before] “… mphm, er, that is, well, we, ah, ugh, mphm – um, oof, we’ve never done any such calculation.”

Ich wandte mich an den Minister und sagte: „Darf ich daraus schließen, Minister, dass ihre Politik allein auf blindem Glauben basiert?“ Es scheint, als ob genau dies immer noch der Fall ist.

Link: http://wattsupwiththat.com/2014/12/22/the-economics-of-the-madhouse/

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers: Hier hat der unübertroffene Wortkünstler Monckton sich tatsächlich noch selbst übertroffen. Einige Passagen konnte ich nur recht frei übersetzen, bei anderen habe ich das Original eingefügt. Was Monckton hier anprangert, dürfte aber in jedem Falle herüberkommen.

C. F.




Lassen Sie uns die Klimaalarm-Industrie besteuern!

Ja, sehr viel Geld! Jene vielen Milliarden finanzieren das Wachstum von Vorschriften verhängenden Regierungsagenturen, die von der öffentlichen Angst abhängig sind; von Universitätsabteilungen, die die Objektivität verbiegen, um Zuwendungen von Forschungsgeldern sicherzustellen; Gruppen von Umweltaktivisten, die von Spenden aus Angst vor der Krise abhängig sind, um Lobbyarbeit und Medienprogramme zu unterstützen; und eine große Bandbreite von Politikern, Propheten und Profiteuren, die den Cash einsacken, um den Welt-Hype am Leben zu halten und um Kampagnen-Koffer sowie persönliche Bankkonten zu füllen.

Vielleicht nicht überraschend fällt einem als Beispiel sofort Al Gore ein.

Man bedenke, dass nur ein Dutzend Jahre nach drei Jahrzehnten mit globaler Abkühlung vergangen waren und prominente Wissenschaftler die Ankunft der nächsten Eiszeit vorhersagten, als der damalige Senator Gore im Jahre 1988 sein berühmtes Senatskomitee zu Wissenschaft, Technologie und Weltraum-Anhörungen ins Leben gerufen hat, welches einen Medienzirkus bzgl. einer vom Menschen verursachten globalen Erwärmung erzeugte.

Sein Kollege Senator Timothy Wirth, der die Treffen organisieren half, stellte später in einem PBS-Interview fest: „Wir riefen im Wetteramt an und erfuhren, welcher Tag im Sommer historisch der heißeste sei … also haben wir die Anhörung für jenen Tag anberaumt, und – Bingo! Es war der heißeste Tag jemals in Washington, oder zumindest beinahe… in der Nacht zuvor gingen wir in den Raum und haben alle Fenster geöffnet, so dass die Air Condition innerhalb des Raumes nicht ging“.

Bis 2004 begann der gleiche Al Gore ein riesiges Vermögen zusammenzuraffen in Gestalt von Holdings in Unternehmen, welche grün wurden. Bis 2008 war er in der Lage, 35 Millionen Dollar zusammenzulegen in Hedgefonds und privaten Partnerschaften durch die Capricorn Investment Group – gegründet von seinem kanadischen Milliardärs-Kumpel Jeffrey Skoll, dem ersten Präsidenten von E-Bay.

Der Klima-Kreuzzügler Gore war auch in der Lage, Zufallsprofite mit Verkäufen von CO2-Zertifikaten zu erzielen mittels seiner Beteiligung an der Klimabörse in Chicago, falls und als der Kongress die Cap And Trade-Gesetzgebung durchwinkte, die Gore befürwortet hatte.

In einer Rede im Jahre 2007 vor dem Energy Science Committee sagte Gore den Mitgliedern: „Sobald Kohlenstoff einen preis hat, werden sie eine Investitionswelle in Kohlenstoff erleben … es wird ungezügelte Investitionen geben“.

Eine Hausreinigung der Republikaner schwemmte jene Cap And Trade-Gesetzeshoffnungen im Jahre 2010 davon.

Während sich der frühere Präsidentschaftskandidat Gore für eine grüne Plattform stark machte, die Äthanol-Steuern enthielt, räumte er danach ein, dass es vielleicht nicht nur um die Rettung des Planeten ging. Auf einer Konferenz grüner Industrie in Athen sagte er: „Es ist keine gute Politik, diese massiven Subventionen für Äthanol aus der Ersterzeugung zu haben“.

Später erklärte er Reuters: „Einer der Gründe, warum ich diesen Fehler gemacht habe war, dass ich den Farmern in meinem Heimatstaat Tennessee besondere Aufmerksamkeit schenkte, und ich hatte eine gewisse Vorliebe für die Farmer in Iowa (dem ersten Staat mit Präsidentschafts-Vorwahlen), weil ich mich um das Präsidentenamt bewerben wollte“.

Nobelpreisträger Dr. Ivar Giaever hat die Ideologie der globalen Erwärmung als „Pseudowissenschaft“ bezeichnet, die mit einer an Emotionen appellierenden Hypothese anfängt und „dann nur noch nach Themen sucht, die diese Hypothese zu stützen scheinen“, während zahlreiche Beweise des Gegenteils ignoriert werden.

Tragischerweise stellt diese Pseudowissenschaft die größte Ungerechtigkeit für all jene dar, die sich das am wenigsten leisten können. Jene Strafen kommen in Gestalt von Subventionen für grüne Energie, Behinderungen der Entwicklung heimischer fossiler Energieträger und einer ausufernden Vorschriftenflut der EPA, die die Preise für Treibstoff und Strom, Nahrungsmittel und auch öffentliche Schulden in die Höhe treiben und für monetäre Inflation sorgen.

Und warum sind diese Betrügerbanden so erfolgreich?

Leslie Woodcock erklärt: „Man kann die Schuld nicht Menschen ohne wissenschaftliche Ausbildung in die Schuhe schieben, die danach trachten, gute Bürger zu sein, die sich um die Zukunft ihrer Enkel und die Umwelt kümmern“.

Industrielle der Klimawissenschaft sowie Ökologie-elitäre Zeloten, die argumentieren, dass wirtschaftliches Wachstum auf der Grundlage fossiler Treibstoffe der Feind der Umwelt ist, missachten einen grundlegenden Punkt. Sie übersehen die Tatsache, dass dieses Wachstum zu technologischer Innovation und zu Wohlstand führt, was unabdingbar ist, um ein Ressourcen schonendes, saubereres und gesünderes Leben zu führen.

Obwohl die globalen mittleren Temperaturen seit nunmehr 18 Jahren flach verlaufen waren trotz eines gestiegenen atmosphärischen CO2-Niveaus, fahren das IPCC der UN und die EPA der USA fort, dieses winzige Bisschen Treibhausgas als eine das Klima zerstörende Bedrohung zu brandmarken. Unter Ignoranz der enormen Vorteile dieses wichtigen Pflanzendüngers und mit der keine Rolle mehr spielenden Cap And Trade-Gesetzgebung ist es die jüngste Strategie der grünen Lobby, diese Vorteile zu besteuern.

Also folgt hier eine alternative Idee. Anstatt weiterhin Haushalte und Industrien zu bestrafen mit einer nutzlosen und schmerzhaften Kohlenstoffsteuer – warum macht man nicht einfach das Gegenteil?

Lassen Sie uns die profitierenden Propheten der Klimaalarm-Industrie mit einer Anti-Kohlenstoffsteuer belegen. Dies würde ihnen etwas in die Hand geben, um das sie sich wirklich Sorgen machen müssten.

Dieser Artikel erschien erstmals bei: Newsmax.com

Link: http://www.cfact.org/2014/09/02/lets-tax-the-climate-alarm-industry/

Übersetzt von Chris Frey EIKE




Die Klimadebatte braucht unverzerrte Einsichten von Philosophen

Leider ist genau das Gegenteil der Fall. Die Debatte ist durchsetzt mit Zensur, logischen Trugschlüssen, Verunglimpfungen und sogar Todesdrohungen. Als Folge davon wollen viele der weltführenden Experten sich nicht öffentlich dazu äußern. Falls das heutige Gerede zur globalen Erwärmung ein Hinweis ist auf den Zustand auf Wissenschaft basierender Politik, steckt die Welt in großen Schwierigkeiten.

Bild rechts: Tom Harris, leitendem Direktor der International Climate Science Coalition, wurde am 8. Juli in Las Vegas der Preis 2014 Excellence in Climate Science Communications Award auf der 9. Interntaionalen Konferenz zum Klimawandel des Heartland Institutes überreicht. Mitteilung des Herausgebers.

Idealerweise rufen Führer der Regierung, Akademien und die Presse nach einer offenen Debatte zum Thema Klima, wobei Meinungen von gut informierten Spezialisten zu allen Facetten dieses Themas gehört werden; und würden jeden verdammen, der versucht, diesen Austausch zu blockieren. Unglücklicherweise haben Präsident Obama, die meisten Sprecher von Universitäten und die Mainstream-Medien stattdessen die Flammen der Intoleranz geschürt, absichtlich oder aus anderen Gründen. Sie haben Unterdrückung, wenn nicht sogar direkte Aggression ermutigt, und zwar gegen jeden, der mit dem politisch korrekten Klimadogma nicht übereinstimmt.

Wir brauchen dringend Gelehrte, die sich auf rationale Argumentation spezialisiert haben und die auf die Trugschlüsse hinweisen, die die Diskussion sabotieren.

Philosophen zur Rettung

Schon die antiken griechischen Philosophen haben die Studenten gelehrt, rational zu denken und zu argumentieren. Sokrates, Plato und Aristoteles sowie deren intellektuelle Jünger glaubten, dass die Gesellschaften leiden würden, falls logisches Denken unterdrückt wird. Das ist heute genauso. Wir brauchen Philosophen, um die Klimadebatte wieder in vernünftige Bahnen zu lenken, bevor diese zu irreparablen Schäden führt [wenn diese nicht schon eingetreten sind. Anm. d. Übers.]

Wenn Menschen, die die offiziellen Gründe des Klimawandels in Frage stellen, als „rechte, von Big Oil bezahlte Lobbyisten“ geschmäht werden, sollten Philosophen antworten: „Das ist irrelevant. Alles, was zählt ist, ob das, was die Skeptiker sagen, korrekt ist oder nicht“.

Philosophen müssen erklären, dass es ein fundamentaler Fehler ist, jemandes Argumente zu verwerfen, weil sie vermeintlich berechtigte Interessen haben. Es ist der logische Trugschluss ,motivierter Absicht‘ [motive intent].

Populäre Argumente, allgemeine Trugschlüsse

Genauso sollten Philosophen eingreifen, wenn Skeptiker als Leugner diffamiert werden, und sagen „Sie leugnen nicht. Sie fragen, was alle Menschen mit wissenschaftlichem Verstand tun sollten, wenn es sich um ein komplexes, sich rasch entwickelndes Fachgebiet handelt. Die ,Leugner‘-Etikettierung ist ein Versuch, die zum Klimawandel Fragen Stellenden in die Nähe von Holocaust-Leugnern zu rücken. Es ist ein ,ad hominem‘-Trugschluss – gegen den Menschen anstatt Behandlung des Gedankens“.

,Motivierte Absicht‘ und Ad Hominem-Trugschlüsse sind nur zwei der vielen logischen Fehler, die die Klimadebatte vergiften. Das sollten Philosophen erklären. Campaigners gebrauchen regelmäßig Schuldzuweisungen durch Assoziation, Strohmann-Auseinandersetzungen und Appelle an Emotionen, Autoritäten und Konsens, um die Öffentlichkeit von der Betrachtung skeptischer Argumente abzulenken.

Besonders irreführend ist der Trugschluss „Bestätigung des Konsequenten“. Das geht so: „Falls meine Theorie richtig ist, lautet die logische Konsequenz, dass X rot werden sollte. Darum ist meine Theorie richtig“. Das ist ein logischer Trugschluss. Etwas, das gar keine Beziehung zu deiner Theorie hatte, könnte X rot gemacht haben.

Wenn Klima-Campaigner argumentieren, dass ein steigender CO2-Gehalt zusammenfällt mit steigender Temperatur und dies als Beweis für eine CO2-induzierte globale Erwärmung anführen, sollten Philosophen erklären, dass sie dem Trugschluss ,Bestätigung des Konsequenten‘ anheim fallen. Die Tatsache, dass wissenschaftliche Theorien zu korrekten experimentellen Vorhersagen führen, bedeutet nicht, dass die Theorien stimmen. Newton, Galilei und ihre Epigonen wussten all das, aber viele der heutigen Klimawissenschaftler scheinen das vergessen zu haben. Philosophen müssen auf diesen Betrug Licht werfen.

Universelle Wahrheit ist trügerisch

Schließlich sollten Philosophen den Gedanken zurückweisen, dass Wissenschaftler universelle, notwendige und sichere Wahrheiten entdecken. Wahrheit erreichen Mathematik und Spiele, weil wir die Regeln festlegen, was wir aber niemals mit unseren Erkenntnissen über die Natur machen, sind sie doch gelehrte Meinungen auf der Grundlage der Interpretation von Beobachtungen seitens Wissenschaftlern. Da empirische Beweise lange als bestimmt, kontingent* und eine gewisse Wahrscheinlichkeit enthaltend anerkannt worden sind, können Beobachtungen nicht herangezogen werden, um irgendetwas zu beweisen.

[*Das englische Wort ,contingent‘ hat laut LEO-Übersetzer so viele Bedeutungen, dass ich nicht weiß, welche der Autor hier gemeint hat. Anm. d. Übers.]

Dies hindert das IPCC aber nicht daran, mit beobachtete Fakten angenommene Theorien zu beweisen. Zum Beispiel fängt schon der allererste Satz im Synthese-Bericht zum 4. Zustandsbericht an mit „Die Erwärmung des Klimasystems ist eindeutig, wie jetzt aus Beobachtungen von… hervorgeht“.

Der Professor der Philosophie Steven Goldman von der Lehigh University, der die AGW-Hypothese teilt, sagte (in einem persönlichen Gespräch), dies sei „ein Versuch, extralogisch zu überreden“. Dr. David Wojick, der die AGW-Hypothese nicht teilt, stimmt dem zu und stellt fest: „Argumentation aus Beweisen ist induktive Logik. Was den Begriff ,eindeutig‘ betrifft, das ist bei induktiver Logik niemals der Fall“.

Wohlmeinende Motive?

Warum machen nicht noch mehr Philosophen die Öffentlichkeit auf diese schweren Denkfehler aufmerksam?

Teilweise könnte die Antwort darin liegen, dass die große Mehrheit der Philosophie-Professoren politisch links von der Mitte steht, und ,Stopp dem Klimawandel‘ ist ein Grund, bei dem man von Liberalen Unterstützung erwartet. ,Gruppendenken‘, also die Angst, mit ihren intellektuellen Mitstreitern nicht Schritt halten zu können, kann ein wesentlicher Treiber für Konformität sein.

Akademiker könnten auch denken, dass die weit verbreitete Akzeptanz von Klimaängsten der Reduktion von Verschmutzung förderlich sein könnte sowie der alternativen Energie, Erhaltung, gesteigerte Hilfe von auswärts, soziale Gerechtigkeit und eine Weltregierung – also Dinge, die viele als vorteilhaft ansehen. Sie behalten ihre Zweifel für sich, um progressive Politik zu unterstützen.

Was immer die Gründe für ihr Schweigen sein mögen, Philosophen haben die moralische Verpflichtung, dies laut auszusprechen. Die Hindernisse für die Bevölkerung, selbst darauf zu kommen, sind zu hoch, als dass sie irgendetwas darunter tun dürfen.

Tom Harris (tom.harris@climatescienceinternational.net) is executive director of the Ottawa, Canada-based International Climate Science Coalition (www.ClimateScienceInternational.org).

Link: http://news.heartland.org/newspaper-article/2014/12/09/climate-debate-needs-philosophers-unbiased-insights

Übersetzt von Chris Frey EIKE




Unbequemes über das ENERTRAG Wasserstoff-Hybridkraftwerk in Dauerthal bei Prenzlau

Das Konzept

Die Anlage ist als zweifach Hybridkraftwerk konzipiert, das auf der Primärseite sowohl (überschüssigen Wind)-Strom, als auch Biogas als Energieträger bezieht und daraus wiederum Strom und Wärme mittels zweier Blockheizkraftwerke (BHKW) produziert. Der Windstrom wird von 3 ENERTRAG WEA (gleich daneben) mit je 2,3 MW Nennleistung zugeliefert. (Es kann im Prinzip aber auch Strom aus der Leitung sein) Da nur der Strom, der später wieder aus der Verstromung des überschüssigen Windstromes die hohe EEG Vergütung bekommt (3), (Stand April 2013) wie  natürlich auch die Biogas Verstromung, lohnt sich seine Verstromung im Prinzip nicht. Denn der Aufwand ist hoch und muss zu den Kosten des Windstromes aufgeschlagen werden. Aber trotzdem ist ein Überschuss-Angebot da, das in die Anlage eingespeist werden kann.

Die genaue Größe des pot. Windstrom-Überschusses ist unbekannt. Wegen der Lage im platten und daher vermutlich windhöffigen Norden Brandenburgs kann man vielleicht zugunsten der Erzeuger annehmen, dass max. 50 % des per WKA erzeugten Stromes zur Wasserstoffproduktion verwendet wird. Aber das ist eigentlich zu viel! Denn soviel kann es aus praktischen Erwägungen eigentlich nicht sein. Doch rechnen wir trotzdem damit.

Das Verfahren

Aus dem Windstrom wird Wasserstoff per (Alkali-)Elektrolyse erzeugt, dieser dann auf 40 bar verdichtet, zwischen gespeichert und anschließend direkt in den beiden BHKW verstromt, oder als reiner Wasserstoff an H2 Tankstellen verkauft wird. Wie viel von der H2 Produktion wohin geht, war nicht zu erfahren. Es ist jedoch geplant mindestens 400 kg monatlich für diese Zwecke abzuzweigen. Das entspräche lt. ENERTRAG der Produktion zweier Tage. Da aber schon die Produktion aus Überschusswindstrom deutlich unterhalb der Nennleistung beider BHKW bleibt, ist die Wasserstoffproduktion für den Direktverkauf, bestenfalls als Nebenprodukt anzusehen.  Daher wird – auch aus Vereinfachungs- und Nutzungsgradgründen (der finale Nutzungsgrad für Windstrom zur Wasserstoffproduktion ist mit realen 9 % der Nennleistung der WKA ziemlich mickrig) nur die Strom- und Heizwärmeproduktion betrachtet.

Die Leistung, wenn alles nach Plan geht

Die Nenn-Leistung des Elektrolyseurs (das ist die Einheit die per Elektrolyse aus Wasser Sauerstoff und Wasserstoff erzeugt) dessen Wasserstoff die beiden Blockheizkraftwerke (BHKW)  speist, wird mit 500 kW angegeben. Nach normalen Maßstäben für Kraftwerke sind daher die beiden angeschlossenen BHKW Winzlinge. Trotzdem freut sich ein Autor des Lokalblattes Nordkurier noch im Oktober 2013, dass deren Wasserstoff-Produktion nun für ganz Deutschland eingespeist werden soll. Diese Darstellung erinnert den Autor in ihrem Wunderglauben doch sehr stark an die Speisung der fünftausend durch Jesus. Ein Wunder eben. Und ist deshalb ein weiteres Beispiel für den Niedergang des Journalismus hierzulande.

Aber zurück zur Wasserstoffverstromung. Lt. ENERTRAG (1) sollen die beiden BKHW eine elektrische Energie von jährlich  5,52 GWh und an Wärmenergie 4,5 GWh liefern. Letztere dürfte aber nur in der kalten Jahreszeit abgerufen werden, d.h. für maximal 6 – 8 Monate. Damit dürfte die Wärmeproduktionskapazität nur zur etwa zur guten Hälfte der Kapazität nutzbar sein.

Sollte die Angabe der Elektroleistung stimmen, (da gibt es unterschiedliche Angaben von ENERTRAG (1)) und wenn man den Nutzungsgrad der WEA´s für den Quellstrom mit 17 % (d.h. 17% der Zeit des Jahres liefern die WEA ihre Nennleistung ab. Das ist eher die obere Grenze in guten Windjahren) annimmt, dann werden daraus netto – über die Wasserstofferzeugung- Druckspeicherung – Verstromung- und bei 50 % Überschussstrom- jährlich nur etwa 1,95 GWh erzeugt. Für die Wasserstoff (H2) Lieferung an Dritte bliebe dann allerdings nichts mehr übrig.

Die Verteilung

Die geplante Elektroenergieerzeugung beläuft sich, wie in den FAQ von ENERTRAG erwähnt , auf 5,52 GWH. Stimmt diese Angabe, dann würden also bestenfalls 35 % der geplanten Energiemenge von 5,52 GWh dieser BHKW aus Windstrom erzeugt. Die restlichen 65 % müssen dann also aus der Biogasverstromung kommen. 

Das ist für dessen Rentabilität auch besser, denn dieser Strom wird derzeit mit rd. 18 ct pro kWh vergütet, während es beim Windstrom nur 9 ct/kWh sind, die zudem als Rohstoffkosten zuvor bezahlt werden müssen. Im vorliegenden Fall betriebswirtschaftlich aber als durchlaufender Posten anzusehen sind.

Die Kostenrechnung – schicken Wind und Sonne keine Rechnung?

Rechnet man die Betriebskosten (nach Schnurbein (2) ohne Rohstoffkosten) aus den Kapitaldaten aus, dann liegen diese bei normaler kaufmännischer Betrachtung bei rd. 4 Mio € p.a. Für die 16 Arbeitsplätzen sind das dann rd. 250.000 € p.a.. Die Kosten pro erzeugter kWh allein daraus (und zwar für jede kWh, egal ob als Strom oder als Wärme erzeugt und verkauft, man kann sie anhand der vorliegenden Angaben nicht trennen) liegen dann bei ca. 0,40 €/kWh.

Dieser Strom bleibt damit ohne weitere gesetzliche Zwänge oder Zuschüsse unverkäuflich!

Hinzu kommt noch der Kostenanteil der Rohstoffe – also WEA Strom und Biogas aus einer Biogasanlage, die vorgeschaltet sind. (Dass sie demselben Betreiber gehören, ändert nichts an der Entstehung der Kosten.) Beim WKA Strom sind 9 ct/kWh zu zahlen, und nur die werden beim Verkauf wieder erlöst, da sie zwangsweise vergütet werden. Die Kosten für die zuvor erfolgte Biogasproduktion sind unbekannt. Der damit erzeugte Strom aus Biogas wird jedenfalls bei dieser Anlagenkonstellation mit rd. 18 ct/kWh vergütet.

Damit entsteht eine Unterdeckung von 0,4 €/kWh für den auf diese Weise erzeugten Windstrom und von ca. 0,32 €/kWh für den so erzeugten Biogasstrom. (Die eingespeiste Biogas-kWh-Äquivalent vor dem BHKW mit 10 ct/kWh angenommen).

Die Erlöse sowie direkte wie indirekte Subventionen für Fernwärme-Erzeugung durch BHKW liegen derzeit nicht vor. Doch sicher ist, die erzeuge Wärme-kWh dürfte noch verlustreicher sein.

Zusammenfassung:

Mein Verdacht hat sich bestätigt, es handelt sich hierbei um ein reines Subventionsabgreif-Modell, dass der dummen Politik, als Forschungsprojekt zur Sicherung der Energiewende, verkauft wurde.

Das ergibt sich zwar schon aus den Investitionen bzw. aus deren Verteilung. Nach den Angaben in den FAQ der ENERTRAG zum Projekt(1) wurden mehr als 21 Mio € investiert (Die Investition für Wasserstoffproduktion lag bei 10 Mio €). Davon trug ENERTRAG 2 Mio € und Bahn, Total & Vattenfall zusammen 1,5 Mio. Das Land Brandenburg zahlte also die restlichen + 17,5 Mio €.

Wer die hohen Betriebskosten von ca. 4 Mio (2) p.a. (für nur 16 Arbeitsplätze!!) trägt, ist nicht angegeben, vermutlich ist es auch das Land Brandenburg. Also der Steuerzahler. Denn weder der  Strom- noch der  Wärmeverkauf – selbst bei unseren hohen Einspeisevergütungen- reicht zur Deckung der Betriebskosten aus.

Nun wird auch klarer warum die ENERTRAG ihren Anleihekäufern einen festen Zinsertrag von 5,5 % über die gesamte Laufzeit bis 2022 garantiert.

All diese Angaben sind unter dem Vorbehalt der  Richtigkeit der Angaben in der genannten Literatur errechnet worden. Sollte ich mich nicht  verrechnet haben, dann wird nur einer daran Geld verdienen. Die ENERTRAG AG.! Sie wird es brauchen.

Literaturquellen

(1) https://www.enertrag.com/download/praesent/FAQ_Hybridkraftwerk_11122012.pdf

(2) Meine Berechnung nach den Angaben von v. Schnurbein hier http://www.et-energie-online.de/Portals/0/PDF/zukunftsfragen_2012_09_schnurbein.pdf

(3) http://www.dbi-gut.de/fileadmin/downloads/3_Veroeffentlichungen/Tagungen_Workshops/2013_Innoforum_PGP/10_Fischer_UniCottbus.pdf




Schummeleien überall: Jetzt zur Versauerung der Ozeane

Der „Ozean-Versauerung“ (Ocean Acidation OA) wird immer mehr Aufmerksamkeit zuteil. Während jemand, der nicht der Wissenschaft vom Klimawandel folgt, denken könnte, dass OA Bauchschmerzen hervorrufen könnte infolge des Verzehrs verdorbenen Seafoods, wird sonst von OA behauptet, dass es ein Phänomen sei, dass das Leben in den Ozeanen zerstören wird – und das nur wegen der Verbrennung fossiler Treibstoffe durch den Menschen. Es ist die Grundlagen-Theorie, auf dem das Narrativ der globalen Erwärmung/des Klimawandels gebaut ist.

Auf der Wissenschafts- und Ingenieurs-Site Quest erschien kürzlich ein Beitrag mit folgendem Absatz: „Seit der Industriellen Revolution Ende des 18. Jahrhunderts haben wir Kohle, Öl und Erdgas aus den Bergen geholt und verbrannt zum Zwecke der Energiegewinnung und für das Transportwesen. Diese Prozesse lassen CO2 in die Atmosphäre entweichen. Stark etabliert ist, dass der steigende CO2-Gehalt in unserer Atmosphäre ein Hauptgrund für die globale Erwärmung ist. Allerdings verursacht die CO2-Zunahme auch Änderungen in der Chemie der Ozeane. Der Ozean absorbiert einen Teil des überschüssigen CO2, was zu dem führt, das die Wissenschaftler Ozean-Versauerung nennen. Und die Ozeanversauerung könnte massive Auswirkungen auf das Leben darin haben“.

Innerhalb des Textes bei Quest findet sich der Link zu einer Graphik von Dr. Richard A. Feely, einem leitenden Wissenschaftler am Pacific Marine Environmental Laboratory (PMEL) – welches Teil der NOAA ist. Feelys Ansichten zur Klimakrise werden weithin als Unterstützung für das Narrativ herangezogen.

Feelys vierseitiger Bericht mit dem Titel [übersetzt] ,Kohlendioxid und unser ozeanisches Erbe‘ auf der NOAA-Website enthält eine ähnliche Graphik. Diese Graphik mit dem Titel „Historical & Projected pH & Dissolved CO2“ beginnt im Jahre 1850. Feely stand im Jahre 2010 dem US-Kongress Rede und Antwort (hier) – und verwendete die gleichen Daten, die eine Abnahme des pH-Wertes im Ozeanwasser zeigten (was dieses Wasser saurer macht). Dies scheint parallel zur atmosphärischen Zunahme des CO2-Gehaltes abzulaufen.

Bildunterschrift: Diese Graphik zeigt die Korrelation zwischen dem steigenden CO2-Niveau in der Atmosphäre am Mauna Loa mit steigendem CO2-Gehalt im benachbarten Ozean an der Station Aloha. Mit der zunehmenden CO2-Akkumulation im Ozean nimmt dessen pH-Wert ab (Modifiziert nach R. A. Feely, Bulletin of the American Meteorological Society, Juli 2008)

Die Dezember-Ausgabe des Wissenschaftsmagazins Nature Climate Change bringt dazu einen Kommentar mit dem Titel [übersetzt] ,Lektionen aus der Forschung zur Ozeanversauerung‘.

Allerdings stellte mir ein wissbegieriger Doktorand eine sehr davon abweichende „Lektion“ zur OA-Forschung vor.

Mike Wallace ist Hydrologe mit fast 30 Jahren Erfahrung. Derzeit arbeitet er an seinem Ph.D. in Nanowissenschaften an der University of New Mexico. Im Verlauf seiner Studien entdeckte er eine erschreckende Auslassung von Daten, die nach seinen Worten „sogar noch Klimagate in den Schatten stellt“. Feelys Arbeit basiert auf Computermodellen, die mit den Daten der realen Welt nichts gemein haben – was Feely in E-Mails mit Wallace auch einräumt (ich habe diese E-Mails gelesen). Und, wie Wallace nachwies, gibt es Daten aus der realen Welt. Feely und sein Mitautor Dr. Christopher L. Sabine, Direktor am PMEL, hat 80 Jahre mit Daten ausgelassen, welche über 2 Millionen Aufzeichnungen des ozeanischen pH-Niveaus enthalten.

Feelys Graphik beginnt wie bereits erwähnt im Jahre 1988 – was überraschend ist, wurden doch schon seit über 100 Jahren pH-Daten im Ozean gemessen seit der Erfindung des Glas-Elektroden-pH-Meters (GEPH). Als Hydrologe wusste Wallace um die Historie von GEPH und fand es seltsam, dass diese Daten in der Arbeit von Feely/Sabine weggelassen worden waren. Er wandte sich an die Quelle. Die NOAA-Studie mit der im Jahre 1850 beginnenden Graphik benennt David Bard vom Pew Cheritable Trust als Kontaktperson.

Wallace schrieb eine E-Mail an Bard: „Tatsächlich suche ich nach den Quellen für die rote Kurve in ihrem Plot mit der Bezeichnung ,Historical & Projected pH & Dissolved CO2′. Dieser Plot findet sich oben auf der zweiten Seite. Er überdeckt den mich interessierenden Zeitraum“. Bard antwortete und schlug vor, dass Wallace mit Feely und Sabine kommunizieren sollte – was er ein paar Monate lang auch getan hat. Wallace fragte dabei erneut nach den „Zeitreihen-Daten (NICHT MODELLIERTE DATEN!) des ozeanischen pH-Wertes im 20.Jahrhundert“. Sabine antwortete, dass es Wallace nicht zustehe, die „Motive oder Qualität ihrer Wissenschaft“ in Frage zu stellen. Er fügte hinzu, falls Wallace auf diese Weise weitermache, „werden Sie nicht lange Karriere machen“. Er fügte dann ein paar Links zu Websites an, die Wallace nach stundenlanger Überprüfung „Sackgassen“ nannte. Sabine schloss seine E-Mail mit den Worten: „Ich hoffe, dass Sie künftig davon Abstand nehmen werden, mich noch einmal zu kontaktieren“. Aber die Kommunikation ging dann doch noch über zahlreiche weitere ausgetauschte E-Mails.

In seinem Bemühen, Zugang zu den Aufzeichnungen von Feely/Sabine zu bekommen, die diese nicht zur Verfügung stellen wollten, stellte Wallace eine Anforderung im Rahmen des Freedom of Information Act (FOIA, = Gesetz zur Informationsfreiheit, das die Veröffentlichung von Daten vorschreibt).

In einer E-Mail vom 25. Mai 2013 führte Wallace ein paar Statements auf, die zu bestätigen er Feely/Sabine aufforderte: „…es ist möglich, dass Dr. Sabine teilweise TATSÄCHLICH ansprechbar auf meine Anforderung war. Das jedoch könnte nur möglich sein, falls nur Daten von 1989 oder später benutzt worden sind, um den Teil der Kurve im 20. Jahrhundert zu entwickeln“.

…es ist möglich, dass Dr. Feely EBENFALLS teilweise ansprechbar war hinsichtlich meiner Anforderung. Und wieder, dies wäre nicht möglich ohne gemessene Daten zur Definition des pH-Werte im 20.Jahrhundert für ihre Kurve zu verwenden. Diese Daten stammen ausschließlich aus 1989 oder später (und haben daher 80 vorhergehende Jahre mit gemessenen Daten zum ozeanischen pH-Wert weggelassen, die ich so sehr zu finden gehofft hatte)“.

Sabine schreibt: „Ihre kursiv geschriebenen Feststelllungen sind im Wesentlichen korrekt“. Er fügt hinzu: „Die restliche Kurve, die Sie zu reproduzieren versuchen, stammt aus einer Modellierungs-Studie, die Dr. Feely bereits veröffentlicht und beschrieben hat“.

In seinem letzten E-Mail-Austausch bietet Wallace an, den FOIA außen vor zu lassen, weil der E-Mail-Verkehr „klargestellt hat, dass die Studie, um die es hier geht (und besonders das ,Historien‘-Segment der assoziierten pH-kurve) sich weder auf Daten verlässt noch auf andere zeitweilige Repräsentationen globaler ozeanischer pH-Werte während des Zeitraumes zwischen dem ersten Jahrzehnt im 20. Jahrhundert (als die pH-Metrik zum ersten Mal ersonnen worden ist und ozeanische pH-Werte wahrscheinlich zum ersten Mal instrumental gemessen und aufgezeichnet worden sind) bis kurz vor dem Jahr 1988“. Wallace bekam keine Antwort, aber der FOIA wurde im Juli 2013 abgeschlossen mit dem Vermerk „No document found“.

Interessanterweise hat die NOAA in diesem gleichen zeitlichen Rahmen seine World Ocean Database neu aufgelegt. Wallace konnte danach die instrumentellen Aufzeichnungen daraus extrahieren, nach denen er gesucht hatte. Er übertrug die GEPH-Daten in eine bedeutsame Zeitreihen-Graphik, die enthüllt, dass die Ozeane nicht versauern. (Nebenbei fand Wallace dabei heraus, dass das Niveau parallel mit der Pazifischen Dekadischen Oszillation lief). Wallace betont ausdrücklich: „Es gibt keinen globalen Versauerungstrend!“

Hinsichtlich der fraglichen Graphik kommt Wallace zu dem Ergebnis: „Ozeanversauerung kann Einigen wie eine Nebensache vorkommen, aber abgesehen davon, dass es keine Versauerung gibt, wäre diese ein unabdingbares Standbein des gesamten Narrativs des ,vom Menschen beeinflussten Klimawandels‘. Wenn man unsere Führer in Wissenschaft und Politik drängt, diese Auslassungen endlich bekannt zu machen und bisherige Aussagen zu korrigieren, wird dies sehr hilfreich sein, um Ehrlichkeit, Transparenz und Zuverlässigkeit dahin zurück zu bringen, wo sie am dringendsten gebraucht wird“.

„In wessen professioneller Welt“, fragt Wallace, „ist es akzeptabel, die Mehrheit der Daten unter den Tisch fallen zu lassen und diese Auslassung irgendeiner Seele unseres Kongresses nicht mitzuteilen?“

Full story here: http://energymakesamericagreat.org/current-energy-commentary

There’s a petition: http://www.ipetitions.com/petition/restore-the-worlds-ocean-ph-measurements

Link: http://wattsupwiththat.com/2014/12/23/touchy-feely-science-one-chart-suggests-theres-a-phraud-in-omitting-ocean-acidification-data-in-congressional-testimony/

Übersetzt von Chris Frey EIKE

Aktualisierung vom 26. Dezember 2014:

Die fragwürdige Praxis, eine große Datenmenge einfach wegfallen zu lassen, schlägt offenbar so hohe Wellen, dass bei Anthony Watts von WUWT ein Nachtrag dazu erschienen ist.

Randbemerkung: die Frage, die ein Leser hier stellt, müsste viel öfter auch von deutschen Steuerzahlern kommen.

Chris Frey, Übersetzer

Sabines Rechtfertigung für den Gebrauch modellierter anstatt real gemessener Daten? – Frühere Daten seien „nicht von ausreichender Qualität“.

WUWT-Leser Peter Gadiel schreibt:

Nach der Kritik an Sabines Ausschluss der historischen Daten zur Ozeanversauerung habe ich Sabine eine E-Mail geschrieben. Er hat sogar geantwortet, und ich dachte mir, dass seine Antwort für Leser bei WUWT von Interesse sein könnte. Er sagt im Wesentlichen, dass die früheren Daten nicht „von ausreichender Qualität“ seien.

Meine Frage an ihn lautete:

Als Steuerzahler, der dazu beiträgt, Ihr Gehalt zu zahlen, würde ich gerne wissen, warum Sie es ablehnen, alle verfügbaren Daten zur Ozeanversauerung zu betrachten.

Sabines Antwort:

Chris Sabine – NOAA federal

Als öffentlich Bediensteter muss ich mich an die strengen Vorgaben der wissenschaftlichen Methode halten und kann nur Daten präsentieren, die von ausreichender Qualität sind, um die Frage zu beantworten; ich bin verpflichtet, die beste Evaluierung der Änderungen der Chemie der Ozeane darzustellen. Das ist es, wofür Sie mich bezahlen, und ich arbeite hart daran, Ihnen den besten Gegenwert für Ihre Steuergelder jeden Tag zu geben. Ich hoffe, Sie kommen gut durch die Feiertage.

Die Frage, die einen hierzu sofort einfällt, lautet:

Wer bestimmte, dass die direkt gemessenen ozeanischen pH-Werte nicht von „ausreichender Qualität“ waren, und falls das so ist, warum hat die NOAA dann die Daten auf ihrer Website gepostet als Teil anderer Ozean-Daten in ihrer World Ocean Database ohne jeden Vorbehalt?

Meine Durchsicht der NODC-Datenbasis der NOAA bzgl. ozeanischer pH-Werte zeigte massenhaft Daten und keine Vorbehalte dagegen, diese auch zu verwenden:

War also Sabines Entscheidung willkürlich und tatsächlich ohne jede Grundlage? Das würden forschende Geister gerne wissen.

Link: http://wattsupwiththat.com/2014/12/25/sabines-excuse-for-using-modeled-data-over-real-data-earlier-data-is-not-of-sufficient-quality/

Übersetzt ebenfalls von Chris frey EIKE




Mit dem Verschwinden von Emissionen verschwinden auch Arbeitsplätze

Der Artikel wurde veröffentlicht:

● Auf der website von Frontier

● In der Financial PostDer Wirtschaftssektion der kanadischen National Post

Bei NEWZ4U.net

Er wurde verlinkt zu Republic of Mining.com

Dies ist der schwierige Teil, wenn man erwachsen ist. Wir müssen Märchen beiseite schieben und uns mit der Realität auseinandersetzen. Politik, die die Realität ignoriert, ist Verschwendung – und daher das genaue Gegenteil von Nachhaltigkeit.

Im Zuge meiner Recherchen für diese Kolumne habe ich obige Graphik via Excel erstellt (Die Zahlen wurden kopiert von CO2 Highlights 2014 – Excel tables. Der Link erschien auf dieser Website der International Energy Agency).

Die rote Linie zeigt die Zunahme der weltweiten CO2-Emissionen während der 21 Jahre vor Unterzeichnung des UN-Klimaabkommens von 1992, dem UNFCCC. Die blaue Linie repräsentiert die Zunahme während der folgenden 21 Jahre. In beiden Fällen stiegen die Emissionen um 50%.

Mit anderen Worten, trotz der teuren UN-Bürokratie, den überdrehten Klimagipfeln, der Nonstop-Forderungen nach Emissionsreduktionen, des Glück verheißenden Geredes über wettbewerbsfähig werdende erneuerbare Energie zertreten wir Wasser. Die Emissionen gehen nicht zurück, sie steigen weiter. Und sie steigen mit der gleichen Rate wie zu der Zeit, bevor politische Führer ein Abkommen unterzeichnet hatten, dessen Ziel es war, diese Emissionen zu beschneiden.

Hier folgt eine Nichtgraphische Weise, diese Zahlen auszudrücken:1

971 emissions: 14,085 million tonnes
1991 emissions: 21,129 million
rate of increase: 50.01%

1992 worldwide emissions: 21,064 million tonnes
2012 emissions: 31,734
rate of increase: 50.65%

Während der letzten 42 Jahre gab es nur einmal einen merklichen Rückgang – nämlich in der Zeit des Elends, die als die Finanzkrise 2009 bekannt ist. Jeder, der sich selbst für Anteil nehmend hält; jeder, der sich um die Unglücklichsten dieser Welt Gedanken macht, muss unbedingt lange und intensiv über jene Daten nachdenken.

Es spielt keine Rolle, wie löblich Ihre Absichten sind. Falls wir Maßnahmen unterstützen, die der Verarmung Vorschub leisten, machen wir die Welt nicht zu einer besseren Welt.

———————————————–

Hier folgt eine verlinkte Version meiner Kolumne:

Nach Präsident Obamas China-Besuch veröffentlichte das Weiße Haus eine gemeinsame Klima-Ankündigung von China und den USA (hier), in der es heißt: „China beabsichtigt, den Höhepunkt seiner CO2-Emissionen um das Jahr 2030 zu erreichen“. Aber das ist nichts Neues.

In einem vor dreieinhalb Jahren veröffentlichten und vom US-Department of Energy finanzierten Bericht war das bereits vorhergesagt worden. Der Bericht trug den Titel China’s Energy and Carbon Emissions Outlook to 2050. Es geht darin um Bevölkerungswachstum, Verstädterung und andere Faktoren, von denen man allesamt erwartet, dass sie um 2030 in China ihren Höhepunkt erreichen. Daher wird dies auch hinsichtlich der Emissionen der Fall sein.

Willkommen in der Schall-und-Rauch-Welt der Klimaverhandlungen. Erstens, Mr. Obamas „historische“ Übereinkunft bezieht sich auf Kräfte, die bereits in einem anderen Land aktiv sind. Zweitens, trotz aller Beweise des Gegenteils tut man so, als sei Amerika in der Lage, seine eigenen Emissionen im nächsten Jahrzehnt dramatisch zu reduzieren.

Als das UNFCCC im Jahre 1992 ins Leben gerufen worden war, emittierte die Menschheit insgesamt 21 Milliarden Tonnen CO2 pro Jahr. Bis 2012 hat sich diese Zahl um 50% erhöht auf 31 Milliarden Tonnen. Wie hoch lag die Rate der Zunahme zwischen 1971 und 1991 vor dem Vertrag? Ulkigerweise ebenfalls bei 50%.

Danach trachtend, sich als Retter des Planeten zu gerieren, haben Politiker aller Richtungen zwei Jahrzehnte damit zugebracht, von den UN vorgegebene Emissionsziele zu verkünden, die zu erreichen niemand wirklich glaubt. Bei der Diskussion zu diesen Dingen benutzte Roger Pielke Jr., ein Professor von Umweltstudien an der University of Colorado in Boulder die Phrasen „fantasy island” und “emissions impossible.”

Im Jahre 2011 nannte er das Emissionsreduktionsziel von Australien bis 2020 „im besten Falle phantasievoll“. Ein großer Teil des Stromes für Australien wird aus Kohle erzeugt. Ausreichender Ersatz dieser Strommenge würde den Bau von 56 Kernkraftwerken erfordern oder 12.000 Solarparks in weniger als einem Jahrzehnt.

Erst vor Kurzem hat Pielke beobachtet, dass sich die Wirtschaft der Nation nach dem Climate Change Act in UK mit einer Rate von 1 Prozent pro Jahr dekarbonisiert hat. Aber wenn die Emissionsziele 2022 noch erreicht werden sollen, also bloß sieben Jahre, impliziert dies eine Rate, die vier bis fünfmal so hoch ist.

Am 16. November berichtete Der Spiegel, dass Deutschland ebenfalls sein Emissionsziel bis 2020 verfehlen wird. Neue Kohlekraftwerke werden gegenwärtig gebaut, nicht weil die deutsche Öffentlichkeit Wind und Solar nicht bevorzugen würde, sondern weil jene Technologien genug preiswerte, zuverlässige Energie liefern können, ohne die eine fortschrittliche Industrienation nicht bestehen kann.

Selbst die Herausgeber des MIT Technology Review, die glauben, dass der Klimawandel Präsident Obamas oberste Priorität sein sollte, haben öffentlich eingeräumt, dass „erneuerbare Energiequellen wie Solar und fortschrittliche Biotreibstoffe einfach noch nicht in der Lage sind, mit fossilen Treibstoffen mitzuhalten“.

Während der letzten 40 Jahre sind die weltweiten CO2-Emissionen nur einmal deutlich zurückgegangen: nämlich während der Finanzkrise des Jahres 2009. Die New York Times sagt, dass vier Millioenen Amerikaner zusätzlich unter die Armutsgrenze gefallen sind in jenem Jahr und dass die mittleren Familieneinkommen „um 5% unter denen von 1999 lagen“.

Der Weltbank zufolge wurde 2009 „praktisch jedes Entwicklungsland“ schwer getroffen; 50.000 afrikanische Kinder könnten zusätzlich gestorben sein an Mangelernährung in jenem Jahr, und schätzungsweise „64 Millionen Menschen mehr auf der ganzen Welt“ sind in elende Armut abgerutscht.

Dies ist das schmutzige kleine Geheimnis, das hinter jedem Emissions-Abkommen lauert: Wenn Emissionen schwinden, dann auch Arbeitsplätze, wirtschaftliche Möglichkeiten und menschliches Wohlergehen.

Die produzierenden Arbeitsplätze in Fabriken und in der Autoindustrie brauchen bezahlbare Energie – nicht die flatterhafte, überwältigend teure, durch Windturbinen erzeugte Energie. Kohlebergbau füttert Familien. Ölbohrungen stellen Nahrungsmittel auf den Tisch.

Wir waren die Würde gewohnt, die eine bezahlte Arbeit als wichtige soziale Errungenschaft begleitet. Wir waren es gewohnt zu verstehen, dass Familien aus der Arbeiterklasse verwundbar sind. Wir waren es gewohnt, uns darum Sorgen zu machen, dass Arbeitslosigkeit, Drogenmissbrauch und zerbrechende Familien in enger Beziehung zueinander stehen.

Heutzutage haben wir uns selbst davon überzeugt, dass es smart ist, CO2-emittierende Fabriken in den Bankrott zu treiben. Dass es sinnvoll ist, den Menschen die Arbeitsplätze wegzunehmen. Dass es der Weg zu ruhmreicher Glorie ist, Familien in die Krise zu stürzen.

Was haben wir nur für eine seltsame neue Religion übernommen – alles im Namen, um den Planeten zu retten.

Link: http://nofrakkingconsensus.com/2014/12/04/when-emissions-disappear-so-do-jobs/

Übersetzt von Chris Frey EIKE




Ertappt: Geomar verschweigt in Pressemitteilung bedeutende Schmelzphase des arktischen Meereises in den 1960er Jahren

Bild rechts: Offiziell lieber Gras über die Sache wachsen lassen! Bild: Denise / pixelio.de

Damals kam die Welt gerade aus der Kleinen Eiszeit heraus. Man freute sich über die Wiedererwärmung. Warm war gut. Noch gab es keinen IPCC. So konnte man in der neuseeländischen Zeitung „The Press“ am 8. November 1887 auf Seite 6 doch tatsächlich über die Wikingerfahrten und das stark geschrumpfte Meereis lesen, heute unvorstellbar (mit Dank an Spürfuchs Steve Goddard):

Übersetzung des Textes: Im Gegenteil, die Eisbildung nimmt jährlich zu, falls die Winter streng, lang und dunkel sind.Die Umkehrung dieses Zustandes wurde gefunden durch Berechnungen für das Jahr 1122, und genau zu dieser Zeit fuhren, wie wir wissen, Dänen und andere Skandinavier durch die offenen Gewässer des Arktischen Ozeans.

Sie haben Kolonien gebaut in den nördlichsten Gebieten von Grönland und dem nördlichen Teil Nordamerikas, und zwar lange, bevor Christoph Columbus einen südlicher gelegenen Teil des gleichen Kontinents erreicht hatte. Aber diese Kolonien waren dem Untergang geweiht infolge der wieder zunehmenden Kälte. Im 14. Jahrhundert fand man die Gewässer wieder geschlossen vor, selbst im Sommer. Das Große Nördliche Eisfeld (banquise) nimmt täglich zu, die arktischen Kolonisten sind gezwungen, sich weiter nach Süden zurückzuziehen, und die Kälte nahm wieder Besitz von Gebieten, die einige Jahre lang im 12. Jahrhundert frei waren. Die Überreste jener arktischen Dörfer tauchen jetzt auf bei – wie ich sagen möchte – jeder Arktis-Expedition. Das immer kälter werdende Klima von Island beweist, dass der Zustand der Erde im Verlauf von Jahrhunderten variiert, regelmäßig obiger Theorie folgend.

Aber man muss gar nicht so weit zurückgehen. Auch zwischen 1920 und 1940 ereignete sich eine starke Schmelzphase im Nordpolarmeer. Der ehemalige Hamburger Max-Planck-Direktor Lennart Bengtsson fasste 2004 im Journal of Climate das Wissen über die Warmphase zusammen. Schon damals stellte er den Zusammenhang mit Ozeanzyklen her, die im 60-Jahres-Takt das Klimageschehen beeinflussen. Im Folgenden die Kurzfassung der Arbeit:

Die Erwärmung der Arktis Anfang des 20.Jahrhunderts – ein möglicher Mechanismus

Die gewaltige Erwärmung der Arktis, die Anfang der zwanziger Jahre begonnen hatte und fast zwei Jahrzehnte dauerte, ist eines der spektakulärsten Klimaereignisse des 20.Jahrhunderts. Während der Spitzenperiode 1930-40 stieg die Anomalie der jährlich gemittelten Temperatur zwischen 60°N und 90°N auf etwa 1,7°C. Ob dieses Ereignis ein Beispiel interner Klimaverschiebungen oder extern getrieben ist wie etwa verstärkter solarer Effekte, wird gegenwärtig debattiert. Diese Studie zeigt, dass die natürliche Variabilität ein wahrscheinlicher Grund ist, wobei eine verringerte Meereisbedeckung für die Erwärmung ausschlaggebend war. Eine belastbare Beziehung zwischen Lufttemperatur und Meereis wurde durch einen Satz von vier Simulationen gezeigt mit dem atmosphärischen ECHAM-Modell, berechnet mit gemessenen Wassertemperaturdaten und Meereis-Konzentrationen. Eine Analyse der räumlichen Charakteristika der beobachteten Lufttemperatur Anfang des 20. Jahrhunderts enthüllte, dass diese mit ähnlichen Meereis-Variationen assoziiert war. Weitere Untersuchungen der Variabilität der Lufttemperatur in der Arktis und der Meereisbedeckung wurden durchgeführt mittels Analysen der Daten aus einem gekoppelten Ozean-Atmosphäre-Modell. Durch Analysen von Klimaanomalien in dem Modell, die ähnlich jenen sind, die Anfang des 20.Jahrhunderts auftraten, ergab sich, dass die simulierte Temperaturzunahme in der Arktis verbunden war mit einem verstärkten, durch Wind getriebenen Eindringen von Meerwasser in die Barents-See und einem daran gekoppelten Rückzug des Meereises. Die Größenordnung des Eindringens ist abhängig von der Stärke der Westwindströmung in die Barents-See. Diese Studie zeigt einen Mechanismus, der die verstärkten Westwinde durch eine zyklonale atmosphärische Zirkulation in der Barents-See aufrecht erhält. Auslöser für diese Zirkulation war ein starker oberflächennaher Wärmefluss über den eisfreien Gebieten. Messdaten zeigen eine ähnliche Abfolge von Ereignissen während der Erwärmung der Arktis Anfang des 20. Jahrhunderts, einschließlich verstärkter Westwinde zwischen Spitzbergen und Norwegen, reduzierter Meereisbedeckung und verstärkter zyklonaler Aktivität über der Barents-See. Gleichzeitig hatte sich die nordatlantische Oszillation abgeschwächt.

In der Presse liest man über diese Schmelzphase heute recht wenig. IPCC-nahe Wissenschaftler wollen uns glauben lassen, dass es in den letzten 150 Jahren angeblich nur einen einzigen Trend gibt, nämlich den stetig-schleichenden Tod des arktischen Meereises. So erschien im Dezember 2013 im Fachmagazin PNAS eine Rekonstruktion der arktischen Meereisbedeckung für die vergangenen 650 Jahre mithilfe von arktischen Algen. Die Studie wurde angeführt von Jochen Halfar von der University of Toronto. Auch das Kieler Geomar war in Person von Steffen Hetzinger an der Arbeit mit beteiligt. Bereits am 19. November 2013 gab daher das Geomar im Rahmen einer Pressemitteilung bekannt:

Seit dem Ende der Eiszeit um 1850 herum zeigt das Archiv der Rotalge einen kontinuierlichen Rückgang der Eisschicht, der bis heute andauert. Dieser Rückgang ist stärker, als wir jemals zuvor in der 650 Jahre langen Rotalgen-Zeit beobachten konnten.“

Der österreichische Standard fing den Klimaalarm-Ball sogleich auf und informierte seine Leser:

Ein Team von internationalen Forschern hat erstmals die Entwicklung des Meereises in der Arktis bis ins Mittelalter zurück verfolgt. Dabei fanden die Wissenschafter von der Universität Göttingen unter anderem heraus, dass die Eisdecke seit Mitte des 19. Jahrhunderts kontinuierlich schmilzt. Geholfen haben ihnen dabei Rotalgen, die die Klimageschichte der letzten Jahrhunderte gleichsam konservierten. Bislang reichten die Daten von Satelliten über die Arktis nur bis in die späten 1970er-Jahre zurück.

Unter dem Wort „kontinuierlich“ stellt man sich vor, dass das Eis immer weiter abschmilzt, ohne größere zwischengeschaltete Wachstumsphasen des Eises. Nun werden sich die wenigsten Leser die Mühe gemacht haben, die Originalarbeit durchzulesen. Die Autoren werden in ihrer Pressemitteilung doch sicher nur die Wahrheit und nichts als die Wahrheit berichtet haben, oder? Der Blick in die Publikation bringt dann jedoch eine bittere Enttäuschung. In Abbildung 2b der Arbeit ist nämlich die Entwicklung der Meereiskurve für Neufundland für die vergangenen 150 Jahre detailliert dargestellt (Abbildung 1). Das Ergebnis: In den 1960er Jahren in der Vor-Satellitenzeit war das Meereis schon einmal so stark geschrumpft war wie heute. In der Pressemitteilung wird dieser unbequeme Umstand doch glatt verschwiegen.

Abbildung 1: Die blaue Kurve gibt die Entwicklung des Meereises vor Neufundland für die vergangenen 150 Jahre wieder. Ausschlag nach oben markiert Schrumpfen, Ausschlag nach unten Zuwachs. Quelle: Halfar et al 2013.

In der Arbeit selber erklären die Autoren die Entwicklung sogar korrekterweise mit dem Einfluss der atlantischen Ozeanzyklen:

Modellstudien haben gezeigt, dass die NAO einen Einfluss auf die räumliche Verteilung winterlichen Meereises ausübt mittels windgetriebener Anomalien der Meereis-Geschwindigkeit, vertikalem Wärmefluss von der Oberfläche und möglicherweise einem horizontalen ozeanischen Wärmefluss. Es gibt starke Beweise aus Beobachtungen, dass die Meereisverteilung in der Arktis verbunden ist mit dem positiven NAO-Trend von den sechziger bis Anfang der neunziger Jahre.

In der Geomar-Pressemitteilung wird die zyklische Natur des Meereises ebenfalls mit keinem Wort erwähnt. Eine bewusste Irreführung der Öffentlichkeit. Weder schrumpfte das Eis „kontinuierlich“, noch spielt CO2 die einzige Rolle, wie die Forscher uns weismachen wollen. Ob Steffen Hetzinger weiß, was er da tut? Er ist ein junger Kerl, der vermutlich noch eine Dauerstelle benötigt und daher das Klimapanik-Spiel mitspielen muss. Hat ihm das Geomar diese Pressemitteilung aufgezwungen oder war es seine eigene Idee, mit dem Klimaalarm kräftig zu punkten? Mit sauberer Wissenschaft hat dies nichts mehr zu tun. Kein guter Start in das Arbeitsleben.

Wie würde die Meereisdiskussion heute aussehen, wenn schon um 1960 mit der systematischen satellitengestützten Vermessung der Meereisdecken begonnen wurde? Bekanntlich starteten die Messungen erst im Jahr 1979. Im ersten IPCC-Bericht von 1990 war man noch naiv-ehrlich und verriet doch glatt, das kurz vor Beginn der Satellitenmessära offenbar deutlich weniger arktisches Meereis existierte als während der späteren Messphase ab 1979 (Abbildung 2). In den späteren IPCC-Berichten ließ man den Beginn der Graphik dann geschmeidig unter den Tisch gleiten.

Abbildung 2: Entwicklung des arktischen Meereises von 1973-1990. Quelle: 1. IPCC-Klimabericht (1990).

Angesichts der oben angeführten Schmelzphase in den 1960er/70er Jahren wundert es doch sehr, dass das Umweltbundesamt mit einer fragwürdigen IPCC-Graphik den Klimaalarm bewirbt, in dem die Schmelze kaum erkennbar ist (Abbildung 3).

Abbildung 3: IPCC-Graphik, die das Umweltbundesamt auf seiner Webseite zur Illustration der arktischen Meereisentwicklung verwendet. Dargestellt ist angeblich die „beobachtete mittlere Ausdehnung des arktischen Sommer-Meereises (Juli-September)“. Originalquelle: IPCC.

Sehr unrecht muss dem Umweltbundesamt sicher die Wiederentdeckung von alten Nimbus-Satellitenbildern gewesen sein, die für die 1960er Jahre große Löcher im arktischen Meereis dokumentieren. Spiegel Online meldete am 4. November 2014:

Bereits am 21. Oktober 2014 hatte Mashable über die unerwarteten Löcher im Nordpolarmeereis berichtet:

Die NIMBUS-Daten bieten die früheste bekannte Sicht auf das Meereis um die Antarktis, was jüngst Schlagzeilen gemacht hat bzgl. eines neuen Rekords hinsichtlich der Eisausdehnung. Gleichzeitig wurden große Brüche im Meereis der Arktis entdeckt an Stellen, an denen man zuvor deren Auftreten nicht erwartet hätte. Die moderne Satellitenaufzeichnung der Eisverhältnisse in Arktis und Antarktis beginnt im Jahre 1979, so dass die hinzugefügten Daten den Wissenschaftlern längerfristige Übersichten vermittelte, die für das Verständnis der derzeitigen Vorgänge wichtig sind … Die Meereisausdehnung in der Arktis war in den sechziger Jahren viel größer als heute, sagte Gallaher, was konsistent ist mit der durch die globale Erwärmung ausgelösten Abnahme des arktischen Meereises. Und doch, selbst in Jahren mit größeren Eisvolumina ortete der Satellit eisfreie Gebiete nahe dem Nordpol mit einem Durchmesser von 200 bis 300 Meilen [ca. 320 bis 480 km]. „Wir fanden Löcher im Eis des Nordpols, die zu finden wir nicht erwartet hatten“, sagte er. „Es ist ein großes Loch“, sagte Garrett Campbell, der auch am NIMBUS-Projekt des NSIDC arbeitet.

Artikel zuerst erschienen bei der „Kalten Sonne“ hier. Übersetzung der englischen Passagen von Chris Frey EIKE




EIKE wünscht allen Leserinnen und Lesern ein frohes Weihnachtsfest..

Über die Feiertage wollen wir unsere Gedanken und Taten anderen, schöneren Dingen zuwenden und deswegen weniger hier veröffentlichen. Ab dem 27.12. geht´s dann weiter wie bisher.

Ihre EIKE Redaktion samt allen Mitarbeitern




Weihnachtsbescherung nach Alarmistenart: Juristen wollen Kohle- und Ölindustrie für angebliche Klimaschäden haftbar machen.

Industriekonzerne halten sich in der Diskussion noch immer auffällig zurück. Zu groß ist offenbar die Angst, die politischen Machthaber durch eine unbequeme wissenschaftliche Diskussion zu verärgern. Gequält wird das IPCC-Lied mitgesungen um Probleme zu vermeiden, auch wenn dies in der allmählichen Aushöhlung und Zerstörung der Konzerne endet, wie das kürzliche Beispiel E.On zeigt. In den USA zieht die Rockefeller Stiftung ihr Kapital aus Öl- und Kohleunternehmungen zurück. Rentenfonds werden gewarnt, ihre Beteiligungen an Firmen der fossilen Brennstoffe würden als nicht nachhaltig gelten und müssten daher reduziert werden. Und am 11. Dezember 2014 meldete nun die taz, dass auf Öl- und Kohlekonzerne eine Klagewelle im Zusammenhang mit Extremwetterschäden zurollt:

Klimakiller vor Gericht

Juristen wollen Kohle- und Ölindustrie für Klimaschäden zur Verantwortung ziehen. 90 Konzerne verursachen die Hälfte aller Treibhausgase. Anfang November 2013 verwüstete der Taifun „Haijan“ die Philippinen. Nach offiziellen Angaben starben 6.300 Menschen, 28.000 wurden verletzt, der Sachschaden betrug über zwei Milliarden Dollar. Wer kommt dafür auf? Bisher der philippinische Staat und internationale Hilfsorganisationen. Aber das könnte sich ändern. Im nächsten Frühjahr wollen Rechtsanwälte und Klimaaktivisten des „Climate Justice Networks“ vor Gericht ziehen und die Schäden durch Haiyan bei der Öl- und Kohleindustrie einklagen. Wenn sie auch nur einen Teilerfolg erringen, könnte es die Industrie der fossilen Energien weltweit erschüttern.

Die Welt spielt verrückt. Das Beispiel des philippinischen Wirbelsturms ist hierfür ein gutes Beispiel: Aus wissenschaftlicher Sicht kann ausgeschlossen werden, dass Haijan ein Resultat des Klimawandels war (siehe unseren Blogbeitrag “Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität“). Trotzdem sollen die Konzerne zahlen.

Noch immer klammern sich viele Unternehmen an die wenig erfolgreiche “Duck-and-Cover”-Methode, in der Hoffnung, der klimawissenschaftliche Irrweg würde bald ein natürliches Ende finden. Die Realität sieht leider anders aus. Trotz der mittlerweile seit 16 Jahren anhaltenden Erwärmungspause, hält sich der Klimaalarmismus hartnäckig. Allmählich beginnt sich die Wartetaktik der Unternehmen böse zu rächen. Unvorbereitet lässt man sich mit wissenschaftlichen Scheinargumenten auskontern und schweigt selbst zu den schlimmsten Klimatricksereien. Würde es nicht doch langsam Sinn machen, dass sich betroffene Konzerne zusammentun, ein unabhängiges Forschungsnetzwerk zu gründen, um den wilden Vorwürfen mit sachlichen, wissenschaftlichen Argumenten aktiv zu begegnen?

Für die betroffene Wirtschaft ist es in der Tat nun höchste Zeit zu reagieren. Es müsste eine KlimaForschungsInitiative (KFI) ins Leben gerufen werden, die gezielt die strittigen Fragen der Klimawissenschaften untersucht – und dies in unabhängiger und ergebnisoffener Weise: Wie hoch ist die Klimakraft des CO2 eigentlich wirklich? Welche Rolle spielten die Ozeanzyklen bei der letzten Erwärmungsphase 1977-1998? Ist der Parallellauf von Sonnenaktivität und Temperaturentwicklung in den letzten 10.000 Jahre nur Zufall, wie es die Klimamodelle suggerieren? Welche Extremwetterarten haben den Bereich der natürlichen Variabilität wirklich verlassen? Es werden insbesondere klimahistorische Untersuchungen benötigt, die die natürliche Klimavariabilität der letzten Jahrzehnte, Jahrhunderte und Jahrtausende dokumentieren. Welche Trends und Zyklen sind erkennbar, könnten uns  bei der Klimavorhersage vielleicht nützlich sein?

Die KlimaForschungsInitiative sollte sich über Zuwendungen von verantwortungsvollen Unternehmen finanzieren, denen die solide Diskussion und Klärung der offenen Klimafragen am Herzen liegt, bevor weitreichende wirtschaftspolitische Entscheidungen getroffen werden. Die sechs Hauptaufgaben einer solchen KlimaForschungsInitiative lauten:

1) Identifikation von offenen, strittigen Klimaforschungsthemen

2) Gezielte Förderung von Forschungsprojekten, Publikation der Ergebnisse in begutachteten Fachjournalen

3) Systematische Auswertung der Klimaliteratur zur natürlichen Klimavariabilität, thematische Kompilation der Faktenlage

4) Intensiver Dialog mit Fachinstituten und Medien zu Projektergebnissen und Pressebeiträgen, systematische Dokumentation dieser Kommunikation im Internet

5) Teilnahme an deutschprachigen und internationalen Fachkonferenzen, Ausrichtung von Workshops für Fachwissenschaftler

6) Trainingsseminare für Nicht-Klimawissenschaftler, Beratungsangebote

Die Erfüllung dieser wichtigen Aufgaben geht weit über ehrenamtlich zu leistende Arbeit hinaus. Eine strukturierte Zusammenarbeit eines unabhängigen Expertenteams mit einer soliden Finanzausstattung bildet die Vorrausetzung für einen nachhaltigen, klimarealistischen Fortschritt in der Debatte. Was sind berechtigte Ängste und Sorgen, und welche Szenarien sind nach neuester Forschungslage eher unwahrscheinlich? Die seriöse und realistische Eingrenzung der Klimagefahr sollte uns alle angehen.

Bitte melden Sie sich, falls Sie Interesse an einer Mitarbeit oder Förderung einer solchen KlimaForschungsInitiative haben.
Kontakt: Sebastian.Luening@kaltesonne.de