1

Grüne Energiepolitik: Eine “einmalige Schweinerei”

von Benny Peiser auf ACHGUT

Dazu ein Merkelwort* „Energie ist heute zu billig… Es müssen aus meiner Sicht gezielt die Steuern auf Energie angehoben werden, sei es über Mineralöl, Heizgas oder Strom.“


*Quelle „Frankfurter Rundschau“ 17. Juni 1997 




100 Jahre Kälte

Die Vorhersage stammt vom Astrophysiker Dr. Habibullo Abdussamatov, Chef der russischen Abteilung der „International Space Station“.

Dr. Abdussamatov ist zugleich Chef der Weltraumforschung in der Abteilung für die Sonne am Pulkovo Observatorium der Russischen Akademie der Wissenschaften.

Es begann damit, dass die russischen Wissenschaftler ein Papier von J. A. Eddy (1976) studierten, welches eine Korrelation zwischen der Sonnenflecken-Aktivität und großen, zerstörerischen Klimaveränderungen auf der Erde dokumentiert. Zerstörerisch, weil die Veränderungen häufig zu wirtschaftlichen und demographischen Krisen führten, die sich auf die Existenz ganzer Völker auswirkten.

Der russische Forscher Eugene Borisenkov ging bei seiner Forschung ähnlich wie Eddy vor und entdeckte einen nahezu 200-jährigen Zyklus globaler Abkühlung während der vergangenen 7.500 Jahre, der mit Zeiten von Maunder-Minimum artigen Sonnenflecken-Minima korreliert. In den damaligen Zeiten gab es überhaupt keinen industriellen Einfluss, betonte Abdussamatov.

Beobachtungen der Veränderungen im 11-jährigen Zyklus der Sonnen-Aktivität (durchgezogene dünne Kurve) und im 200-jährigen Zyklus der Sonnen-Aktivität (durchgezogene dicke Kurve) und die Vorhersage für den Zeitraum von 2009 bis 2042 (gestrichelte Linien) (Abdussamatov H. I. KPhCB, 2007. 23, 97).

Die Wissenschaftler fanden heraus: Unsere Erde erwärmt und kühlt sich ab in einem 200-Jahres-Zyklus entsprechend den 200-jährigen zyklischen Veränderungen in Stärke und Leuchtkraft der Sonne. Auf vorherige globale Erwärmungen – und davon hat es viele gegeben – sind immer tiefe Abkühlungen gefolgt.

Die 200-jährigen Zyklen in der Sonnenflecken-Aktivität und Gesamtstrahlung der Sonne (Total Solar Irradiance – TSI) sind der überwiegende Grund für den Klimawandel, sagte Abdussamatov. “Insgesamt gesehen sind die Sonnen-Zyklen der Schlüssel für unsere Kenntnis unterschiedlicher zyklischer Variationen in der Natur und der menschlichen Gesellschaft.“

TSI Variationen und Sonnenflecken-Aktivität seit 1611 und die Vorhersage (gestrichelte Linien) (Abdussamatov H. I.: The Sun Dictates the Climate of the Earth. 2009, St. Petersburg, “Logos”, – 197 p.; The Sun Dictates the Climate. 4th International Conference on Climate Change in Chicago, May 2010.)

Die Existenz der 11-jährigen und 200-jährigen Sonnen-Zyklen mit identischen und synchronen Veränderungen in Leuchtkraft, Sonnenflecken-Tätigkeit und dem Durchmesser der Sonne ist einer der am besten gesicherten Fakten in der Sonnenphysik, sagte Abdussamatov.

“Die Erforschung physikalischer Vorgänge auf der Sonne tragen nicht nur zum Verständnis einer großen Zahl von astrophysikalischen Fragen bei, sie helfen auch bei der Klärung von Fragen aus der Geophysik, der Meteorologie, Biologie und Medizin. Alle von der Menschheit genutzten Energiequellen kommen von der Sonne. Die Wärme und das Licht der Sonne haben die Entwicklung des Lebens auf der Erde gesichert und die Lagerstätten von Kohle, Öl und Gas gebildet. Alles Leben auf der Erde und dessen Zukunft hängt direkt und fast zur Gänze von der gesamten Sonnenstrahlung ab.”

Das vollständige Papier finden Sie hier:
http://www.gao.spb.ru/english/astrometr/index1_eng.html

Übersetzung: Helmut Jäger, EIKE




Von einem Warmisten zu einem Skeptiker – meine ganz private Reise

Die Wissenschaftler sagten, dass CO2-Emissionen die Erde aufheizen, mit schrecklichen, sogar katastrophalen Folgen: Eiskappen schmelzen, der Meeresspiegel steigt, Küsten verschwinden, massive und sehr häufige Hurrikane, Hitzewellen mit tödlichen tropischen, sich in bislang gemäßigte Temperaturzonen ausbreitenden Krankheiten, Missernten infolge Hitze und Wüstenausbreitung, Pandemien gegen die menschliche Gesundheit, Verschwinden des Schnees auf der Sierra Nevada in Kalifornien, Trinkwasserknappheit – die Liste ist lang und länger.

Die Lösung, sagten die Wissenschaftler, bestehe darin, keine fossilen Treibstoffe mehr zu verbrennen, d. h. Erdgas, Kohle und Öl. Stattdessen sollen wir Strom sparen und lernen, mit weniger Strom auszukommen, Elektroautos fahren, Benzin aus Mais-Ethanol sowie Diesel aus recycelten tierischen Fetten und Ölsamen herstellen, all unseren Müll in Verbrennungskraftwerken recyceln, Wind- und Solarparks zur Stromerzeugung errichten, Methan sammeln aus Jauchegruben und Müllhalden, um dieses Methan dann in Kraftwerken zur Stromerzeugung zu verbrennen. Aber bis solche Technologien zum Tragen kommen, müssen wir das CO2 aus Kraftwerken und Hochöfen einfangen und es irgendwo für immer vergraben. Dieser Vorgang wurde „Abscheidung (Sequestration)“ genannt.

Mein Interesse wurde zumindest angestachelt. Die Erde soll unbewohnbar werden? Millionen Klimaflüchtlinge würden anderswo Platz zum Leben suchen? Kriege würden um Nahrung und Frischwasser geführt werden? Küstenlinien sollen überschwemmt und für immer verschwunden sein? Und das alles soll wegen unseres Verbrauchs fossiler Treibstoffe passieren? Meine Industrie? Die Öl- und Gasindustrie?

Ich wusste, dass chemische Ingenieure involviert sein würden, und zwar mittendrin. Chemische Ingenieure sind diejenigen, die Substitute für Öl und Diesel zur Verfügung stellen können und die wissen, wie man aus Mais oder Zellulose Ethanol herstellt. Sie sind auch diejenigen die wissen, wie man Kraftwerke plant, baut und betreibt, die das CO2 einfangen, und sie finden Wege, das gefährliche CO2 entweder zu binden oder es permanent im Untergrund zu speichern als Teil der Sequestration.

Also begann ich mal zu eruieren, was die chemischen Ingenieure tun können, um das Problem zu lösen und nach Wegen zu suchen, von meinem eigenen Hintergrund als chemischer Ingenieur zu profitieren und eine Expertise als Anwalt zu erstellen. Sicher würde es doch einige Gelegenheiten für einen Mann mit meinen Erfahrungen in all dem geben. Ich musste meine Pflicht tun und die wissenschaftlichen Behauptungen verifizieren. Zunächst, auf welche Art und Weise verursacht das CO2 diese ganze Erwärmung? Ich habe Jahrzehnte lang mit CO2 gearbeitet, in vielen Formen und an vielen Orten. CO2 ist ein Verbrennungsprodukt (zusammen mit Wasserdampf) aus der Verbrennung von Erdgas, anderen leichten Hydrokarbonaten, Benzin, Diesel, Heizöl, Erdölkoks, Holz, Kohle, sogar Torf und getrocknetem Tierdung. Ich wusste mehr als die meisten, dachte ich. Ich habe flüssige CO2-Tanks entworfen, installiert und betrieben, ebenso wie Ausrüstungen, um flüssiges CO2 zu vergasen, es zu pressen und das gepresste Gas wieder zu verflüssigen. Ich hatte auch Verarbeitungsanlagen entworfen und betrieben, um das CO2 aus Abgasen von Brennöfen herauszuholen; und ich habe andere Anlagen entworfen und betrieben, die aus CO2 feste Partikel machen. Ich dachte mir, dass es eine Menge Möglichkeiten für mich geben müsste.

Herauszufinden, wie viel CO2 entfernt werden muss, schien mir ein guter Startpunkt zu sein. Ich begann mit der Lektüre von Blog Posts auf einer Website, die sich RealClimate.org nennt und wo behauptet wurde, dass „echte Klimawissenschaft von echten Klimawissenschaftlern“ geschrieben wird. Das hörte sich gut an, die Informationen direkt von den Experten zu bekommen. Ich habe dort einige Karten und Graphen gesehen, und ich verstehe Karten und Graphen. Chemische Ingenieure kennen alles darüber. Einer dieser Graphen zeigte die globale Mitteltemperatur der Erde von etwa 1880 bis 2005. Da zeigte sich ein dramatischer und bemerkenswerter Aufwärtstrend seit 1975 bis heute. Dieser Trend würde, wenn er sich fortsetzte, mit Sicherheit die Welt heißer machen, und vielleicht würden die Eiskappen tatsächlich alle schmelzen.

 

Da ich ein guter Ingenieur bin und ausgebildet, alle Seiten einer Angelegenheit zu betrachten, schaute ich mir den Rest der Graphik an. Sie kam mir etwas komisch aussehend vor. Da gab es einen ziemlich flachen Verlauf von etwa 1940 bis 1975, oder sogar einen leichten Abwärtstrend in diesen 35 Jahren. Hmmm… ich frage mich, was war der Grund dafür? Hat sich der CO2-Gehalt in diesem Zeitraum vielleicht verringert? Ich machte mir einen Vermerk, dies später genauer zu untersuchen.

Dann sprang mir die Zeit vor 1940 ins Auge. Von etwa 1900 bis 1940 zeigte der Graph einen bemerkenswert ähnlichen Aufwärtstrend, fast genau wie von 1975 bis 2005. Hmmm schon wieder… wie war es zu diesem Erwärmungstrend gekommen? Hat das CO2 in jenen Tagen zugenommen? Und falls ja, warum hörte das um 1940 auf? Die Welt befand sich Ende der dreißiger bis Mitte der vierziger Jahre im Krieg… haben wir während dieser Zeit keine Kohle, Erdgas oder Öl verbraucht? Irgendwas schien da nicht zu stimmen, konnte ich mich doch entfernt daran erinnern, wie ich aus meinem Studium der Ölindustrie gelernt hatte, dass die Ölproduktion während des 2. Weltkriegs dramatisch zugenommen hatte, wegen all der militärischen Maschinen, die Benzin und Diesel benötigten, und der Schiffe, die Heizöl benötigt hatten. Ich wusste, dass die Atomkraft bis lange nach dem Krieg keine Rolle gespielt hatte, so dass all diese Schiffe mit Schweröl betrieben wurden, welches wir Bunker-C-Öl nennen. Auch produzierten Fabriken rund um die Welt mit voller Kapazität Munition, Stahl, Aluminium, Kriegsmaschinen, Panzer, Jeeps, Schiffe und all die anderen Kriegsgerätschaften. Damals gab es nicht viel Einsparung, dachte ich. Eine Menge CO2 wurde auch emittiert. Niemand scherte sich um Effizienz oder sparsamen Verbrauch, nicht einmal um Verschmutzung; der einzige Gedanke war gewesen, so schnell und so viel wie möglich noch mehr zu produzieren. Schließlich herrschte Krieg!

Dann besah ich mir den CO2-Anteil in der Atmosphäre, wobei ich eine große Prozentzahl vermutete, vielleicht 3 oder 4 oder sogar 5 Prozent. Die Graphen, die ich fand, sahen auf den ersten Blick falsch aus. Der CO2-Gehalt lag nicht einmal annähernd bei 5 Prozent. Nicht einmal 1 Prozent. Er lag so niedrig, dass er in Parts per Million gemessen wurde! Etwa 365 ppm habe ich gefunden, und eine Zunahme um etwa 2 ppm pro Jahr. Die Messungen reichten zurück bis zum Jahr 1959, und was mich noch mehr erstaunte – diese 365 ppm wurden auf knochentrockener Basis gemessen. Dies bedeutet, dass das als Beispiel dienende Luftpaket gedörrt oder sehr sorgfältig getrocknet worden ist, um allen Wasserdampf zu entfernen bevor der CO2-Gehalt quantifiziert wurde. Das ist tatsächlich ein gutes Verfahren, weil es alle Variationen infolge Änderung der Luftfeuchtigkeit eliminiert. Aber in der Praxis, falls die Atmosphäre sehr viel Wasserdampf enthält, wird die aktuelle CO2-Konzentration um Einiges geringer sein. Ich habe das mal ausgearbeitet, und gefunden, dass eine tropische Luftmasse mit einer Temperatur von 80°F [ca. 27°C] und einer Relativen Luftfeuchtigkeit von 90 Prozent etwa 0,2 Pfund Wasser pro Pfund trockener Luft enthält. Grob geschätzt besteht die Luft, die wir einatmen, zu 17 Prozent aus Wasserdampf. Damit würde sich die CO2-Konzentration ebenfalls um 17 Prozent reduzieren, so dass aus den 365 ppm tatsächlich 310 ppm werden. Wow! Kann ein CO2-Gehalt von 310 ppm all diese Probleme hervorrufen? Ich musste herausfinden, wie das gehen sollte!

 

Ich brauchte nicht lange im Internet zu suchen, bis ich Behauptungen von Wissenschaftlern gefunden hatte, dass das CO2 die Wärme von der Erdoberfläche absorbiert und etwa die Hälfte davon wieder zur Erde zurückstrahlt. Der Effekt wurde der „Treibhaus“-Effekt genannt, und CO2 wurde als „Treibhausgas“ bezeichnet. Hmmm… so funktionierten Treibhäuser nicht, wie ich wusste, weil wir selbst auch Treibhäuser entworfen und gebaut hatten. Die Sonnenwärme dringt durch das Glas, wird von den dunkelgrünen Pflanzen absorbiert und wärmt die Luft innerhalb des Treibhauses. Winde können die Warmluft wegen der Glasdecke und –wände nicht davon blasen. In der Sprache der Ingenieure ausgedrückt, es gibt dabei keinen konvektiven Wärmeaustausch. Nun, dieses „Treibhausgas“ könnte ein Kunstausdruck sein, und ich bin sicherlich vielen solcher Kunstbegriffe im Ingenieurswesen und in Gesetzen begegnet. Eindeutig waren weitere Untersuchungen erforderlich.

So stieß ich schließlich auf das Kyoto-Protokoll, das eine Menge über Treibhausgase zu sagen hatte. Wie sich heraus stellte, gab es sechs davon, nicht nur CO2. Die sechs waren natürlich das CO2, dann aber auch Methan, Stickstoffoxid, Schwefelhexafluorid, Hydrofluorkarbonate und Fluorkohlenwasserstoffe.

Aber wie genau geht das vor sich, dass das CO2 und die anderen Wärme absorbieren und sie zur Erde zurück strahlen? Und wie erzeugte das eine Erwärmung? Einiges passte da nicht zusammen, wie zum Beispiel der zunehmende CO2-Gehalt seit 1959 und die Abkühlung von 1940 bis 1975. Mehr dazu später.

Weitere Untersuchungen führten mich zum Blog von Anthony Watts, Watts Up With That. Das schien eine Stelle zu sein, an der Artikel gepostet wurden, die die Orthodoxie der anthropogenen, auf CO2 basierenden globalen Erwärmung in Frage stellen. Also las ich darin und las über Al Gore und seinen Film „Eine Unbequeme Wahrheit“, von Dr. James Hansen von der NASA, der eine Welttemperaturkarte erzeugt hatte, und viele andere Gestalten. Da gab es etwas, das „das Team“ genannt wurde, und ich wusste nicht, wer zu diesem Team gehörte und welches Spiel es spielte. Aus dem Zusammenhang jedoch ergab sich, dass es keine gute Sache war, Mitglied des Teams zu sein, da es irgendwie geringschätzig behandelt wurde.

Aber zurück zum CO2 und dem Aufheizen der Erde. Ich las über das CO2 und wie es Wärme absorbierte. Einige kleine Bruchstücke wanderten tief in mein Gedächtnis. Davon hatte ich schon mal gehört, vor sehr langer Zeit. Ich kramte mein altes Handbuch über chemisches Ingenieurwesen hervor, bekannt als Perry’s Handbook. Dieses Buch steckt voller felsenfester Wissenschaft, die immer zutrifft, sowie Fakten zum Ingenieurswesen. Wenn es in Perrys Buch stand, war es eine Tatsache. Darauf konnte man sich verlassen. Chemische Ingenieure rund um die Welt richteten sich nach den Dingen, die dort standen, jeden Tag. Also schlug ich dort nach. Und wurde fündig. Und zwar unter den Stichworten Wärmetransport, Transfer von Strahlungsenergie, Design von Hochöfen. In Hochöfen werden normalerweise einige Sorten fossiler Treibstoffe verbrannt, vielleicht Kohle oder Öl oder Erdgas oder eine Mischung leichter Hydrokarbonate, falls der Hochofen eine Ölraffinerie ist. Öfen für die Heizung von Haushalten verbrennen ein Öl ähnlich Diesel, und davon gibt es Millionen auf der ganzen Welt. Es gibt eine ähnlich große Zahl großer Industrieöfen in Kraftwerken, Fabriken Stahlwerken, Raffinerien und Chemiewerken. Der Bau von Öfen ist eine sehr ausgereifte Kunst, die nicht nur Jahrzehnte, sondern bereits Jahrhunderte lang ausgeübt worden ist. Selbst Lokomotiven verbrannten Holz oder Kohle, und auch das für Jahrhunderte. Und sicher muss beim Ofenbau auch der Faktor CO2 in den Verbrennungsabgasen berücksichtigt werden. Wasserdampf spielt ebenfalls eine Rolle, und seine Auswirkungen sind sogar noch größer als die vom CO2.

Etwas ist hier in gewisser Weise in Ordnung. Wenn ein fossiler Treibstoff verbrannt wird, findet eine chemische Reaktion statt, bei der eine Menge Wärme freigesetzt wird. Ein fossiler Treibstoff ist ein Hydrokarbon, was bedeutet, dass die meisten Moleküle entweder Wasserstoff oder Kohlenstoff sind. Also Hydrokarbon. Chemiker sind nicht sehr innovativ, wenn es um Namen geht, manchmal zumindest. Luft wird hinzugefügt und Wärme, und der Sauerstoff in der Luft reagiert chemisch mit dem Kohlenstoff und mit dem Wasserstoff. Ein Kohlenstoffatom kombiniert mit zwei Sauerstoffatomen in der Luft bilden CO2, Kohlendioxid – ein Kohlenstoff- und zwei Sauerstoffatome. Und wieder keine besonders kreative Namensgebung. Genauso reagieren zwei Wasserstoffatome mit einem Sauerstoffatom und bilden H2O, Dihydrogenmonoxid, bekannter unter der Bezeichnung Wasser. Das Wasser befindet sich im gasförmigen Zustand, ist also Wasserdampf. Dies ist beim Ofenbau wichtig, weil das, was aus dem Abgasschacht entweicht, zumeist Stickstoff aus der Luft ist, die in den Ofen einströmt, sehr wenig Sauerstoff, weil dieser zum größten Teil chemisch reagiert hat, und der Rest ist Wasserdampf und CO2. Wie viel CO2, und wie viel Wasserdampf? Ist das CO2 sehr gering konzentriert, wie in der Atmosphäre? Es sieht so aus, als sei die Antwort nein, denn CO2 hat jetzt eine Größenordnung von 19 Prozent und Wasserdampf von 29 Prozent. Dies unterscheidet sich erheblich von dem Gehalt in der Atmosphäre. Anders ausgedrückt, ist 19 Prozent das Gleiche wie 190000 ppm. Also ist die CO2-Konzengtration in einem Ofen viel, viel größer. Was ist noch unterschiedlich? Einmal ist die Temperatur sehr unterschiedlich. CO2 in einem Ofen ist glühend heiß, mit einer Temperatur um 1800°F [ca. 982°C]. In der Atmosphäre reicht die Spanne von 90°F bis -40°F [ca. +32°C bis -40°C]. Ich fragte mich, ob das etwas ausmacht, und wenn ja, wie viel? Die grundlegende Antwort war ja, CO2 und Wasserdampf absorbieren jeweils Strahlungswärme und geben sie wieder ab. Also schien es eine gewisse Basis für die Behauptung der Wissenschaftler zu geben, dass CO2 Wärme absorbiert. Aber immer noch stellte ich Fragen.

Ich stöberte noch weiter in der wissenschaftlichen Literatur und fand heraus, dass das CO2 nur einen kleinen Teil der Strahlungswärme absorbiert, die von der Erdoberfläche abgestrahlt wird. Ein sehr, sehr kleiner Teil. Nicht nur das, der Effekt beim Hinzufügen von weiterem CO2 in die Atmosphäre hat eine verringernde Auswirkung darauf, wie viel Strahlungsenergie absorbiert wird. Im Grunde ist die Strahlungsabsorption die gleiche, ob CO2 nun dabei ist oder nicht. Der Effekt wird noch weiter abgeschwächt, weil auch Wasserdampf Strahlungsenergie absorbiert, und zwar in der gleichen Wellenlänge wie das CO2. Wasserdampf absorbiert zwar auch in anderen Wellenlängen, aber es gibt eine Überlappung mit dem CO2.

Also lehnte ich mich zurück, wog das alles gegeneinander ab und überdachte alles sehr intensiv. Ich wusste, dass sich die Erde rasch und nachhaltig in klaren Wüstennächten abkühlte, selbst in der Hitze des Sommers. Dies liegt an der sehr trockenen Luft, die fast keinen Wasserdampf enthält. Dieser Effekt ist ziemlich faszinierend, und man kann tatsächlich manchmal sehen, wie sich in kleinen Senken Eis bildet, selbst wenn die Temperatur der umgebenden Luft über dem Gefrierpunkt liegt. Dies ist ein bevorzugtes Ereignis für Scouts, die in der Wüste zelten. Man nimmt eine kleine Pfanne, gießt ein wenig frisches Wasser hinein und stellt die Pfanne auf isolierendes Material wie Styroporschaum. Man wickelt auch ein trockenes Handtuch darum, um die Luft daran zu hindern, die Pfanne zu wärmen. Gerade vor Sonnenaufgang sahen wir nach und fanden eine Eisschicht auf dem Wasser. Genug Wärme war durch Strahlung in den schwarzen Himmel darüber entwichen, ungehindert durch CO2 oder Wasserdampf, wodurch sich das Wasser abkühlte bis zur Eisbildung. Das eisige Wasser war großartig geeignet, es in Feldflaschen zu füllen.

Niemand kann so etwas in den Nächten in einem feuchten Klima machen, wie es in Houston, Texas herrscht, wo ich aufgewachsen war und auch ein wenig gezeltet habe. Der Wasserdampf in der Luft verhindert dies selbst in klaren Nächten.

Also wälzte ich das gesamte Problem der Wärmeabsorption von CO2 im Kopf herum. Zunächst wurde in Perrys Handbuch ein sehr wichtiger Parameter erwähnt, die „mittlere Strahlungslänge“ [mean beam length MBL]. Dieser bezieht sich auf die Entfernung der heißen Gase CO2 und Wasserdampf zu den Behältern im Ofen, die das zu erwärmende Wasser enthalten. Je größer die Entfernung, umso weniger wirkt die Strahlungsenergie. Dies ist durch die alltägliche Erfahrung ziemlich offensichtlich und ist auch bei Lagerfeuern und einer Kerze so. Näher an der Quelle ist es wärmer, weiter entfernt davon kälter. Dies ist Allgemeinwissen, außer bei sehr kleinen Kindern. Dies ist auch von den Planeten im Sonnensystem bekannt, mit dem sonnennächsten, sehr heißen Planeten Merkur und den anderen, die immer kälter sind, je weiter sie von der Sonne entfernt sind. Die Temperatur an der Sonnenoberfläche ist immer die gleiche. Klarer Fall, die Entfernung hat etwas zu tun mit der absorbierten Menge Strahlungsenergie. Ich fragte mich, wie viel Wärme das CO2 in einer Höhe von ca. 3000 m, 6000 m, 9000 m oder noch höher absorbieren kann. Auch frage ich mich angesichts des Umstands, dass die Atmosphäre mit zunehmender Höhe immer dünner wird, wie viele CO2-Moleküle in jeder Höhe vorhanden sind, um jedwede durchlaufende Energie zu absorbieren.

Es war ziemlich offensichtlich, dass selbst unsere Urvorfahren etwas von diesen grundlegenden Dingen gewusst haben, da man sich immer wieder auf „die kalten Sterne“ in der Literatur bezog. Heute wissen wir, dass Sterne in Wirklichkeit Sonnen sind, einige davon viel größer und heißer als unsere Sonne. Wir können die Wärme der Sterne wegen der riesigen Entfernungen nicht fühlen, Milliarden von Meilen, wenn nicht Billionen. Weit weg heißt sehr kalt. Nah dran heißt sehr warm.

Noch war ich nicht zu einer Schlussfolgerung gekommen, einer festen Meinung bzgl. der Behauptung, dass das CO2 zu einer Erwärmung der Erde führt, aber es sah für mich ziemlich wacklig aus. Dann dachte ich an mein Hintergrundwissen als Ingenieur bei der Prozesskontrolle und dachte weiter an Lagerfeuer. Das Gesetz der Lagerfeuer ist einfach und wurde oben schon kurz erwähnt: Wenn es zu heiß wird, entferne man sich. Wenn es zu kalt ist, gehe näher ran. Näher dran ist immer wärmer, denn ein Lagerfeuer hat immer die gleiche Wärmeabstrahlung.

Und doch, ich habe die Graphik gesehen, die einen langsamen Anstieg des CO2-Gehaltes zeigte, eine schöne, glatte Kurve. Gleichzeitig erreichte die Mitteltemperatur der gesamten Erde ein Maximum um 1940 und ging dann 35 Jahre lang zurück. Dann kehrte sich der Trend um, und es wurde wieder wärmer. Falls das CO2 erst eine 35 Jahre lange Abkühlung und danach eine 35 Jahre lange Erwärmung verursacht haben soll, verletzt dies die Grundlagen der Prozesskontrolle. Ein bekannter chemischer Ingenieur mit einem PhD, Dr. Pierre Latour, schrieb hierzu etwas in einer bekannten Zeitschrift, Hydrocarbon Processing. Damals hatte ich meinen eigenen Blog und schrieb dazu einen Aufsatz, in dem ich die Ergebnisse von Dr. Latour diskutierte (hier). Wenn das CO2 erst die Abkühlung und dann die Erwärmung zulässt, wäre das genauso, wenn man sich näher an das Lagerfeuer begibt, um sich bei manchen Gelegenheiten abzukühlen, und sich davon zu entfernen, um sich bei anderen Gelegenheiten abzukühlen. Da wusste ich ganz genau, dass das CO2 nicht das tun konnte, was die Wissenschaftler behauptet hatten. Nicht bei diesen geringen Konzentrationen in der Atmosphäre und nicht bei diesen niedrigen Temperaturen. Aber ich wollte noch mehr wissen, also las und fragte ich weiter.

Etwa um  diese Zeit, November 2009, brach der Climategate-Skandal aus, als Tausende e-mails und Computerdateien in das Internet gelangt waren. Die Dateien waren unglaublich empörend und verheerend für das Anliegen der Warmisten, weil hier unsaubere Aktionen mancher Wissenschaftler im Herzen der Klimadebatte enthüllt worden waren. Um den Schaden zu begrenzen, haben sich die Wissenschaftler am Hadley Center’s Climate Research Unit der University of East Anglia, UK, entschlossen, einige ihrer Dateien zu veröffentlichen, und zwar mit Temperaturaufzeichnungen von etwa 1000 Orten in der Welt. Die Absicht war es zu zeigen, dass es nichts zu verbergen gab, und hier konnte die ganze Welt Einsicht in die Rohdaten nehmen. Ich kopierte die Dateien auf meinen Computer und untersuchte sie.

Zunächst fiel auf, dass die sog. Rohdaten alles andere als roh waren. Ich kannte Rohdaten, habe ich mir doch als chemischer Ingenieurspraktikant Reihen auf Reihen von Rohdaten angeeignet, und zwar 20 Jahre lang in Chemiewerken und Raffinerien auf der ganzen Welt. Was die HdCRU veröffentlicht hat, waren bearbeitete Daten. Sie zeigten die mittlere monatliche Temperatur über einen Zeitraum von mehreren Jahrzehnten für die gewählten Städte. Das Monatsmittel wurde aus der täglichen Mitteltemperatur gebildet. Die tägliche Mitteltemperatur wurde aus dem Mittel zwischen Höchst- und Tiefsttemperatur eines jeden Tages gebildet. Die Höchst- und Tiefsttemperatur war manchmal adjustiert oder auch frisiert worden durch die Auswahl des Zeitpunktes der Temperaturablesung. Es gab auch keine Hinweise darauf, wie fehlende Daten ergänzt oder erzeugt worden waren. Instrumente sind nicht zu 100% zuverlässig und brauchen manchmal Wartung. Sie müssen gesäubert werden, brauchen Kalibrierungen, müssen manchmal ausgetauscht werden und so weiter. Sie können für eine Weile außer Betrieb sein, während jemand bemerkt, dass die Daten fehlen und das Instrument repariert wird.

Und doch lag hier ein Datensatz von  monatlichen Mittelwerten von etwa 1000 Städten vor. Ich beschloss, einmal zu schauen, was da aus den USA war. Da gab es 87 Aufzeichnungen, alle im Kernland. Die Daten stammten aus Städten in den gesamten USA, nicht in jedem [US-Bundes-]Staat, aber in fast jedem, und waren ziemlich gleichmäßig verteilt. Einige befanden sich in großen Städten wie New York, Los Angeles, San Francisco, Miami, einige in mittelgroßen Städten wie St. Louis, Spokane und Fresno. Andere befanden sich in kleinen Städten oder größeren Orten, wie Abilene, Texas und Meridian, Mississippi. Ich lud die Daten für jede Stadt in eine gängige Tabelle [vermutlich excel, A. d. Übers.] und erstellte Graphen der monatlichen Temperatur in Abhängigkeit von der Zeit. Ich fügte ein gleitendes Mittel hinzu, um zu sehen, welche Trends sich abzeichneten, wenn überhaupt, und danach noch eine lineare Trendlinie [a linear best-fit trend line]. Die Ergebnisse waren so faszinierend, dass ich alle Graphen in meinem Blog postete (hier) zusammen mit einigen Kommentaren. Was ich fand, bestätigte meinen von Anfang an gehegten Verdacht. CO2 kann nicht das tun, was die Wissenschaftler behaupten.

Die Graphen zeigten eine schlimme Inkonsistenz bei der Erwärmung von Städten in den USA. Einige Städte zeigten in der Tat einen ausgeprägten Erwärmungstrend während einer ungefähr 100-jährigen Periode von 1900 bis 2009. Nicht aus allen Städten lagen so weit zurückreichende Daten vor, und nur 62 hatten langzeitliche Aufzeichnungen. Und doch zeigten andere Städte unter diesen 62 Abkühlungs- oder neutrale Trends. Das schien eigenartig zu sein, denn falls das CO2 wirklich die Erde erwärmt, dann muss das für alle Gebiete gelten und nicht selektiv zu suchen, welche Stelle erwärmt werden muss und welche man ignorieren kann. Dies gilt insbesondere für benachbarte Städte oder solche, die in Nord-Süd-Richtung nicht allzu weit voneinander entfernt liegen. Vermutlich würde es Unterschiede geben zwischen Städten im hohen Norden und solchen in der Nähe des Äquators. Das Kernland der USA weist aber nur einen Nord-Süd-Durchmesser von 1500 Meilen [ca. 2400 km] auf. Verglichen mit der gesamten Entfernung von Pol zu Pol von etwa 12000 Meilen [fast 20000 km] ist das kaum mehr als 10%. Für Städte, die lediglich 100 oder 200 Meilen voneinander entfernt liegen, kam es mir sehr komisch vor, dass CO2 einige Städte ignoriert hatte und andere in den Brennpunkt der Erwärmung stellte. So funktioniert Physik nicht! Falls ein Phänomen wirklich auf einem physikalischen Effekt beruht, gilt dieser konsequent und gleichmäßig überall und in allen Zeiten. Die Schwerkraft beispielsweise hat in Houston, Texas, genau den gleichen Wert wie in Mumbai, Indien, oder Bora Bora. Man kann sich die Konfusion vorstellen, wenn sich Reisende an unterschiedliche Schwerkraft anpassen müssten, abhängig von der Stadt, in der sie gelandet waren. Nein, die Physik treibt keine solchen neckischen Spielchen.

Oder, man kann sich das Chaos in der Welt vorstellen, wenn die Eigenschaften von Stahl so unberechenbar wären wie das CO2. Ingenieure könnten eine Brücke in Kairo, Ägypten, bauen und mächtige Stahlträger mit einer Breite von 12 inches [ca. 30 cm] und 24 inches tief. Aber eine baugleiche Brücke über das Mittelmeer bei Rom würde leichtere Träger erfordern mit einer Breite von lediglich 4 inches [ca. 10 cm] und einer Tiefe von 12 inches. Ingenieure würden darüber lachen, weil das einfach so nicht ist. Eine gegebene Qualität von Stahl wird überall das gleiche Gewicht tragen, ganz egal wo in der Welt er verbaut wird. Puristen werden anmerken, dass dies nicht strikt gilt, da Stahl durch die Temperatur beeinflusst wird. Aber in den meisten Fällen erhitzen sich Brücken nicht stark genug, um den Stahl merklich zu schwächen.

An diesem Punkt schaute ich auf benachbarte Städte und fand, dass einige davon, wie ich oben schrieb, einen abkühlenden oder neutralen Trend zeigten. Abilene, Texas, und Shreveport, Louisiana, sind zwei davon. In Abilene zeigt sich eine Abkühlung von 0,19°C pro Jahrhundert, während Shreveport eine solche von  0,01°C pro Jahrhundert, also fast gar keine Änderung, zeigt. Diese beiden Städte liegen etwa 250 Meilen [ca. 402 km] in Ost-West-Richtung voneinander entfernt. Sie liegen etwa auf gleicher geographischer Breite.  Gleichzeitig zeigt sich in St. Louis, Missouri, eine Erwärmung von etwa 1°C pro Jahrhundert. St. Louis liegt nur etwa 300 Meilen [ca. 480 km] nördlich und ein wenig östlich von Shreveport und etwa 400 Meilen [ca. 640 km] von Abilene entfernt. Klarer Fall, bei der CO2-verursacht-globale-Erwärmung-Wissenschaft stimmt hier irgendetwas nicht. Woher weiß das CO2, dass es Shreveport außen vor lässt und seine Erwärmungswirkung auf St. Louis konzentriert?

 

 

Ein anderes Beispiel sprang mir ins Auge: San Francisco, Kalifornien, sowie deren Nachbarstadt Sacramento. Diese Städte liegen nur 50 Meilen [ca. 80 km] voneinander entfernt und auf etwa der gleichen geographischen Breite. Und doch verzeichnete San Francisco eine Erwärmung von 1,5°C pro Jahrhundert, während sich Sacramento um 0,3°C abkühlte.

Eine Möglichkeit, diese Diskrepanz zu erklären, besteht darin, den Wärmeinseleffekt von Städten UHI dafür verantwortlich zu machen. Hier dachte ich zuerst, die Abkürzung bezöge sich auf die University of Hawaii, bis ich herausfand, für was sie wirklich steht. UHI ist ein Phänomen, bei dem Städte oder größere urbane Gebiete Tag und Nacht wärmer sind als die ländliche Umgebung. Der UHI-Effekt ist für kleine Städte gering und wird mit der Größe der Städte immer größer. Er setzt sich aus vielen verschiedenen Faktoren zusammen, einschließlich der Ausdehnung asphaltierter oder betonierter Flächen, Gebäude aus Stein, Ziegeln oder Stahl und Glas, ein großer Stromverbrauch zum Heizen oder Kühlen, Abwärme großer Industrien sowie die große Anzahl von Autos, Lastwagen, Bussen und Flugzeugen, die große Mengen fossiler Treibstoffe verbrauchen.

Aber selbst dabei gibt es Probleme. Zum Beispiel in Meridian, Mississippi. Das ist eine kleine Stadt und erwärmt sich mit der gleichen Rate wie die Großstadt San Antonio, Texas. Beide zeigen eine Rate von +0,26°C pro Jahrhundert. Wie kann das sein, wenn der UHI eine Rolle spielt?

Andere kleine Städte zeigen eine substantielle Erwärmung, wie Helena, Montana und Duluth, Minnesota, mit einer Rate von 2°C pro Jahrhundert. Die Bevölkerungszahl von Duluth in Höhe von etwa 80000 hat sich seit 1930 kaum verändert. Im Jahre 1960 wohnten dort 107000 Menschen, doch hat die Bevölkerung seitdem wider abgenommen. In Helena dagegen wuchs die Bevölkerung von 12 000 im Jahre 1910 bis 2010 auf 28 000.

Ich möchte mich kurz zu der faszinierend kleinen Stadt Eureka in Kalifornien zuwenden. Ich war niemals dort, und es liegt an der Pazifikküste zwischen San Francisco und der Grenze zum [US-Bundesstaat] Oregon. Sollten dort 2075 olympische Winterspiele stattfinden, sollte das Städtchen im Angebot verlorener Städte stehen. Schon bald sollte dort nämlich das ganze Jahr über Schnee liegen und eine lokale Eiszeit ausbrechen, wenn sich der gegenwärtige Abkühlungstrend nicht umkehrt. Seit 1990 gab es nämlich dort eine Abkühlung mit einer Rate von 15°C pro Jahrhundert. Die Mitteltemperatur liegt gegenwärtig bei etwa 10°C und wird in 65 Jahren bei 0°C liegen. Man kann sich nur wundern, warum das CO2 die Kleinstadt Eureka übersehen hat. Falls irgendeine Stadt dringend eine globale Erwärmung braucht, wäre es Eureka.

 

Scließlich wurde mein Augenmerk auf eine veröffentlichte Studie von Dr. James Goodbridge gelenkt, dem früheren staatlichen Klimatologen für Kalifornien, inzwischen im Ruhestand. Seine Arbeit zeigte, dass die Landkreise Kaliforniens in drei Gruppen hinsichtlich der Bevölkerungsdichte eingeteilt werden können. Dann hat er für jede der drei Gruppen den mittleren Temperaturtrend errechnet. Er zeigt, dass Landkreise mit großer Bevölkerungszahl deutlich zunehmende Temperaturen über 80 Jahre aufweisen, während jene mit geringer Bevölkerung überhaupt keine wesentliche Erwärmung zeigen. In Landkreisen mit mittlerer Bevölkerungszahl lag die Erwärmungsrate etwa in der Mitte. Man muss sich ernsthaft fragen, wie das CO2 das bewerkstelligen konnte. Typischerweise liegen die großen Städte alle an der Küste, z. B. San Diego, Los Angeles und San Francisco. Landkreise mit kleiner Bevölkerungszahl sind über den ganzen Staat verteilt, einschließlich in den küstennahen Gebieten ohne große Städte. Es ist höchst unwahrscheinlich, dass das CO2 schlau genug ist, um sich die Landkreise für seine Wärmestrahlung auszusuchen und andere zu ignorieren.

 

Zusammenfassend bis zu diesem Punkt kann ich über meine Reise Folgendes sagen: Ich habe herausgefunden, dass die Wissenschaftler eine Erwärmung der Erde in einer alarmierenden Größenordnung behaupteten. Doch gab es eine frühere Erwärmung ähnlicher Größenordnung von 1910 bis 1940 während einer Periode mit geringer CO2-Konzentration. Dann hörte diese Erwärmung auf und ging von 1940 bis 1975 in eine leichte Abkühlung über, bevor wieder Erwärmung einsetzte. Es ist unmöglich, dass das CO2 erst für eine Erwärmung, dann für eine Abkühlung und dann wieder für eine Erwärmung gesorgt haben könnte. Es verletzt nicht nur fundamentale physikalische Gesetze, sondern auch die Regeln der Prozesskontrolle. Und schließlich ignoriert das CO2 einige Städte in den USA und tatsächlich auch ganze Landkreise in Kalifornien vollständig, während benachbarte Städte und Landkreise mit großer Bevölkerungszahl eine alarmierende Erwärmungsrate aufweisen. CO2 ist ein einfaches Molekül mit einem Kohlenstoff- und zwei Sauerstoffatomen und kann unmöglich so smart sein.

Alles oben Gesagte war mehr als genug, um mich davon zu überzeugen, dass die Bedrohung durch eine menschengemachte globale Erwärmung falsch ist, dass sie eine leere Drohung ist, ohne jeden Gehalt. Und doch, wenn man die Zusammenfassungen für Politiker sowie die wissenschaftlichen Studien liest, lautet die Prämisse, dass das CO2 Erwärmung verursacht und mehr CO2 noch mehr und schnellere Erwärmung. Alles Weitere folgt aus dieser gescheiterten Prämisse.

Aber es steckt immer noch mehr in dieser Geschichte. Ich möchte beschreiben, was ich beim Betrachten der Temperaturaufzeichnung selbst herausgefunden habe, derjenigen, die von 1910 bis 1940 eine Erwärmung, dann bis 1975 eine Abkühlung und dann wieder eine Erwärmung bis etwa zum Jahr 2000 zeigte. Hierbei ist es wichtig zu wissen, dass es bei der Sammlung und Analyse von Ingenieursdaten, tatsächlich auch in jeder wissenschaftlichen Datensammlung und –analyse, nur selten angebracht ist, zurückliegende Daten zu verändern. Es ist extrem unangebracht, diese Daten wieder und immer wieder zu verändern. Dies erfordert einige Erklärungen.

Die Frage lautet: wie akkurat sind Daten überhaupt? Die Daten hier für Klimazwecke und ob die Welt sich erwärmt oder abkühlt, sind Temperaturdaten. Temperaturdaten kann man heutzutage sehr genau und sehr präzise ermitteln mit moderner Technologie. Nicht, dass ich hier zu technisch werden will, aber Akkuratesse und Präzision sind nicht das Gleiche. Akkuratesse bedeutet zu überlegen, wie nah an der Wahrheit die Messung ist, während Präzision die Frage danach stellt, auf wie viele Stellen nach dem Komma die Messung noch glaubhaft sind. In den Anfängen der Thermometermessungen war es schwierig, diese zu kalibrieren, und es war auch schwierig, Daten auf ein halbes Grad genau abzulesen. So kann es also durchaus sein, dass man an einem sonnigen Tag 80°F gemessen hat, die Temperatur aber tatsächlich nur 78°F betragen hatte [26,7°C bzw. 25,6°C]. Unbekannt ist, wie oft ein Thermometer kaputt gegangen und ersetzt worden ist. Unbekannt ist auch, ob dieses neue Thermometer in der gleichen Weise kalibriert war wie das vorherige. Und schließlich kommt es vor, dass verschiedene Ableser zu unterschiedlichen Messwerten kommen, so dass der eine 70,5°F, der andere aber nur 70°F abliest. Dies hört sich nach nur geringen Unterschieden an, und das sind sie auch. Jedoch heißt es, dass die gesamte Erwärmung im vergangenen Jahrhundert 0,7°C oder etwa 1,2°F betragen hätte.

Schließlich erregte eine interessante Arbeit von E. M. (Michael) Smith meine Aufmerksamkeit. Er betreibt einen Blog mit dem Titel chiefio.wordpress.com. Die einschlägigen Teile seines Blogs sind als „der Marsch der Thermometer“ (hier) bekannt. Michael ist ein ziemliches Genie bei der Programmierung von Computern und der Datenanalyse. Er konnte auf den öffentlich verfügbaren Daten- und Computercode zugreifen, der in der NASA von Dr. James Hansen verwendet wurde und als GISS-Code bekannt ist. Ich glaube, GISS steht für Goddard Institute for Space Studies. Michael entschlüsselte den Code und schrieb in vielen Beiträgen über seine Ergebnisse. Das Schlüsselergebnis war, dass der Code die Daten der Vergangenheit bei jedem Rechenlauf erneut schreibt. Auch gibt es darin fragwürdige Methoden, wie mit fehlenden Daten umgegangen wird, und wie Diskontinuitäten in den Daten eliminiert werden. Ein weiteres und, wie ich finde, sehr wesentliches Ergebnis war, dass Hansen große Teile der Stationen mit Temperaturmessungen in den letzten Jahren entfernt hat. Das sah nicht einmal wahllos aus, sondern vielleicht (wahrscheinlich?) wurden die weggelassenen Stationen so gewählt, dass die Erwärmung der letzten Jahre überbetont wird. Das bedeutet, dass der Temperaturtrend, der aus den Daten von NASA GISS folgt, falsch ist. Ich fordere jeden, der neugierig auf die Temperaturgeschichte der letzten 120 Jahre ist, nachdrücklich auf zu lesen, was E. M. Smith darüber geschrieben hat. Die vergangenen Daten wurden nicht nur verändert, sondern sie wurden oft verändert. Falls Datenlücken entdeckt werden, sucht sich der Computer einfach eine benachbarte Station aus, die bis zu 1200 km entfernt liegen kann (!!!) und benutzt deren Daten.

Dann spuckt das System eine globale mittlere Temperatur aus, die auf Anomalien tausender Temperaturmessstationen rund um die Welt beruht. Anomalien sind ein anderes Feld, in dem man sehr viel Unheil anrichten kann. Das Problem besteht darin, dass einige Städte an kalten Standorten messen und andere an wärmeren Standorten. Was die Klimawissenschaftler tun ist, dass sie jedem Monat eine mittlere Temperatur zuordnen, die auf einer vorbestimmten Periode von etwa 30 Jahren beruht. Einige benutzen jedoch 50 Jahre aus mir unbekannten Gründen. Außerdem ist die Bezugsperiode nicht immer die Gleiche, sondern wird alle 10 Jahre oder so erneuert. Und wieder haben wir bewegliche Ergebnisse mit Daten, die immer wieder neu angepasst werden. Das erinnert mich an das uralte Hütchenspiel mit der Erbse, bei dem unter einem von drei Hütchen eine Erbse liegt. Das Augenmerk versucht, auf dem Hütchen mit der Erbse darunter zu verbleiben, während einer die Hütchen wild hin und her schiebt.

Der Gebrauch von Anomalien ermöglicht es, Temperaturtrends aus verschiedenen Regionen übereinander zu legen, egal ob die absolute Mitteltemperatur 5 Grad (Alaska) oder 25 Grad (Bora Bora) beträgt. Und doch ist es ziemlich beunruhigend, eine andere Möglichkeit der Datenmanipulation zu erkennen. Eine bessere Methode ist meiner Ansicht nach, den Datentrend für jede Dekade und jede Station zu ermitteln. Sollte die Station einen Erwärmungstrend um 0,1 Grad pro Dekade zeigen, gehen diese 0,1 Grad in die Bildung des Gesamtmittels ein. Dabei würde es keine Anomalien geben, keine Bezugsperioden, keine Änderungen der Vergleichsbasis alle 10 Jahre, sondern einfach eine einmalige Berechnung eines Dekadentrends. Dieser Dekadentrend wäre dann fest und nicht Gegen­stand von Änderungen.

Eine weitere sehr verstörende Enthüllung ist der exzellenten Arbeit von Anthony Watts zu verdanken, der schon früher hier in Zusammenhang mit seinem Blog erwähnt worden war. Anthony hat auch eine historische Leistung vollbracht, indem er die große Mehrheit der Klimamessstationen in den USA begutachtet hat (hier). Seine Untersuchung konzentrierte sich auf die Frage, wie gut oder schlecht die Stationen relativ zur Umgebung im Vergleich mit den Vorschriften aufgestellt waren. Beispielsweise muss eine gut positionierte Messstelle bestimmte Entfernungen von Bäumen, Gebäuden oder anderen Strukturen einhalten, sie muss in der korrekten Höhe über grasbewachsenem Boden messen und darf nicht von künstlichem Heizen oder Kühlen betroffen werden wie der Abluft von Air Condition. Was Athony fand, war erschreckend (hier). Er schrieb seine Ergebnisse zusammen mit vielen Mitautoren nieder und veröffentlichte seine Studie 2011 (Zusammenfassung hier). Viele Stationen wurden als sehr schlecht bewertet, und nur wenige waren gut positioniert. Einige Stationen standen tatsächlich an Mauern, auf asphaltierten Parkplätzen, nahe bei Entlüftungsanlagen oder Grillplätzen, auf asphaltierten Dächern und in der Nähe von Rollbahnen auf Flughäfen und den Abgasen der Düsenjets sowie an vielen anderen inakzeptablen Orten. Hier liegen die Quellen für die Temperaturrekorde in den USA, von welchen angenommen wird, dass es die besten und genauesten der ganzen Welt sind. Eine ländliche Umgebung würde in früheren Jahren vermutlich niedrigere Werte ergeben haben, aber wärmer und wärmer werden, wenn immer mehr Gebäude errichtet werden, Straßen und Parkplätze gebaut werden, sowie viele andere Dinge. Folglich bestand ein Teil der Arbeit von Anthony darin zu bestimmen, wie viel eines jeden gezeigten Erwärmungstrends auf die Positionierung der Stationen zurückzuführen war.

Es gibt noch einige weitere Punkte, und mit denen möchte ich schließen.

Zunächst einmal, der Meeresspiegel steigt nicht, und die Ozeane werden nicht wärmer. Dies allein widerlegt bereits den gesamten CO2-Erwärmungsunsinn. Dem Glauben der Warmisten zufolge müssten die Ozeane wärmer werden und der Meeresspiegel mit zunehmendem CO2-Niveau steigen. Nichts davon passiert. Die Daten von NASA und NOAA selbst zeigen das ganz klar. Die Graphik unten stammt von U. Colorado und basiert auf Satellitenmessungen des Meeresspiegels der Nasa. Man beachte den stark abnehmenden Trend seit 2005 und die plötzliche Abnahme Anfang 2010.

Die nächste Abbildung zeigt, dass sich die Schneebedeckung der Sierra Nevada und das Schnee-Wasser-Äquivalent während der letzten 100 Jahre nicht signifikant verändert hat. Dr. John Christy von der University of Alabama, Huntsville, hat 2010 hierzu eine Studie veröffentlicht. Seine Daten enden 2009. Seitdem hat es rekordverdächtige Schneefälle  in den Sierras gegeben. Sein grundlegender Graph ist unten zu erkennen, geglättet, um die Abweichung der Schneebedeckung vom Mittel zu zeigen. Diese Studie bezieht sich auf die zentrale Schneemessstation am Huntington Lake HL. Die Studie gibt es hier.

 

Zweitens zeigt eine vor Kurzem erschienene, wissenschaftlich begutachtete Studie vom CERN, dass Wolken und Sonnenflecken zusammen hängen, und zwar dergestalt, dass es im 20. Jahrhundert eine hohe Sonnenfleckenaktivität gegeben hatte, während sich in der Kleinen Eiszeit nur wenige oder gar keine Flecken zeigten. Während der letzten 4 Jahre oder so, ist es auf der Sonne plötzlich wieder sehr, sehr ruhig geworden, und es wir kühler. Das Fehlen von Sonnenflecken kam als vollkommene Überraschung für Wissenschaftler weltweit. Die Beziehung besteht darin, dass mehr Sonnenflecken gleichbedeutend sind mit einem wärmeren Klima. Der Mechanismus dahinter: das Magnetfeld der Sonne ist immens und wird größer und intensiver, wenn die Aktivität von Sonnenflecken zunimmt. Das Magnetfeld schützt die Erde vor der kosmischen Hintergrundstrahlung GCR. Wenn jedoch die GCR auf die Atmosphäre trifft, erzeugen sie Kondensationskerne für Wolken, und es bilden sich mehr davon. Mehr Wolken reflektieren mehr Sonnenlicht, so dass es auf der Erde kälter wird. Ein weiteres Beweisstück dafür, dass die Wissenschaft alles andere als einig [settled] ist. Sie können ja nicht einmal die Anzahl der Sonnenflecken vorhersagen noch die Zeit, wann sie auftreten. Das CERN-Experiment und die veröffentlichte Studie erfolgten erst vor wenigen Wochen.

Drittens stimmen die Klimamodelle nicht überein, und deren Projektionen passen nicht zu den Satellitenmessungen. Dies zeigt, dass die Wissenschaft weit davon entfernt ist, sich einig zu sein, und wenn die Modelle die gemessenen Daten nicht abbilden können, sind sie falsch und müssen entweder verworfen oder verbessert werden, sofern das möglich ist. Eine eben erst erschienene Studie von Spencer and Braswell hat zu einem Aufruhr in der Klimaszene geführt, weil sie sehr klar zeigt, dass die Modelle mit ihren Prognosen weit von der Wirklichkeit entfernt sind. Die Satellitendaten passen nicht zu den Modellen.

Viertens, Hurrikane werden nicht immer häufiger und stärker. Tatsächlich war die derzeitige Hurrikanaktivität seit Beginn von Satellitenbeobachtungen noch nie so gering. Inzwischen steigt der CO2-Gehalt immer weiter. Eine weitere Fehlvorhersage, die beweist, dass ihre Gedanken kompletter Unsinn sind. Die Karte unten stammt von Dr. Ryan Maue von der Florida State University und zeigt den gegenwärtigen Status der Tropischen Zyklone weltweit, gemessen als Accumulated Cyclone Energy von 1972 bis heute. Die obere Linie steht für die ganze Welt, die untere für die Nordhemisphäre. Die Gesamtenergie liegt jetzt wieder auf einem Niveau wie Mitte der siebziger Jahre, und der CO2-Gehalt steigt immer weiter.

 

Fünftens und letztens, die einzige zutreffende Prognose der Warmisten ist die fortgesetzte Abnahme der arktischen Eiskappe. Allerdings haben sie dabei Ursache und Wirkung aus folgenden Gründen komplett falsch angesetzt. Erstens behaupten die Warmisten, dass eine schrumpfende Eiskappe ein starker Beweis für eine Erwärmung der Arktis wäre und dass diese Erwärmung durch die Rückstrahlung des CO2 in der Atmosphäre kommt. In Wirklichkeit bildet Eis einen Isolator und verhindert die Abgabe der Wärme aus den Ozeanen in die Atmosphäre. In gleicher Weise wirkt das Eis auf Seen und verhindert, dass die Seen komplett zufrieren, solange sie nicht zu klein sind. Die wachsende und schrumpfende Eisbedeckung in der Arktis agiert als negative Rückkopplung auf den Wärmegehalt der Ozeane. Wenn sich die Ozeane erwärmen, schmilzt das Eis an den Rändern. So gibt es dann mehr offenes Wasser, das Strahlung aussendet. Normalerweise wird das Minimum der Eisbedeckung Mitte September erreicht, was in den langen Polarnächten die Ausstrahlung großer Wärmemengen zur Folge hat. Dadurch kühlen sich die Ozeane wieder ab, danach die Luft, so dass sich wieder mehr Eis bildet. Das System oszilliert dann zwischen mehr oder weniger Eis mit der Folge, dass auch Temperatur und Wärmegehalt der Ozeane oszillieren mit einer leicht verschobenen Phase.

Schlussfolgernd lässt sich also sagen, falls irgendjemand noch daran glaubt, dass das CO2 das macht, was die Wissenschaftler behaupten, schlage ich vor, dass Sie das nächste Mal daran denken, wenn Sie am Lagerfeuer sitzen oder neben einer Kerze oder jeder anderen stabilen Energiequelle. Bewegen Sie sich hin zu ihr, dann wieder zurück. Suchen Sie auch nach einer soliden Mauer, die von der Sonne beschienen worden ist. Legen Sie ihre Hand nach Sonnenuntergang an die Mauer und fühlen Sie deren Wärme. Entfernen Sie sich dann von der Mauer und beobachten, wie lange die Wärme noch fühlbar ist. Denken Sie dann an das kleine CO2-Molekül, das auch die Wärme fühlen muss, die Wärme absorbiert und sie dann wieder ausstrahlt. Man erinnere sich, dass die Wissenschaftler darauf bestehen, dass sich die Erde von 1910 bis 1940 erwärmt hat – obwohl der CO2-Gehalt sehr, sehr niedrig gelegen hatte.

Schauen Sie auch auf die Blogs von Anthony Watts und E. M. Smith. Überdenken Sie Folgendes: wenn sich die Wissenschaft einig ist und wir jetzt etwas tun müssen, wenn wir die Zukunft der Erde nicht an eine Wärmehölle verlieren wollen oder an steigende Ozeane oder an Monsterhurrikane und all die anderen Katastrophen, warum hat dann das CERN-Experiment gezeigt, dass die Wolken erheblich wichtiger sind als das CO2? Warum zeigen die Satellitenmessungen, dass die Modellvorhersagen alle falsch sind? Warum hat sich nie etwas zugunsten der Warmisten gezeigt? Das einzige, worauf die Warmisten zeigen können, ist das abnehmende Meereis in der Arktis, aber wie oben schon angesprochen, liegen sie damit völlig falsch.

Sehen Sie selbst, dass viele, viele Städte keine Erwärmung oder gar leichte Abkühlung zeigen. Dann fragen Sie sich, wie kann das sein? Wie kann das CO2 so schlau sein, dass es selektiv einige Städte außen vor lassen kann?

CO2 ist unschuldig. Das war es immer und wird es immer sein.

Roger E. Sowell, Esq.  

Link: http://sowellslawblog.blogspot.com/2011/09/from-man-made-global-warmist-to-skeptic.html

Übersetzt von Chris Frey für EIKE




Die neue spanische Regierung könnte Energiesubventionen kippen

MADRID, 15. November (Reuters) – Die vermutliche neue Mitte-Rechts-Regierung in Spanien plant eine massive Revision des Energiesektors, wobei möglicherweise Subventionen für Wind- und Solarenergie ganz gestrichen werden. Die Schuldenkrise der Eurozone macht diese Zuwendungen nämlich sehr teuer.

Es wird erwartet, dass die Mitte-Rechts-Volkspartei die Wahlen vom 20. November mit großer Mehrheit gewinnen und Kontrolle über das Unterhaus erlangen wird.* Parteichef Mariano Rajoy hat wiederholt signalisiert, dass er den Energiesektor reformieren will, allerdings ohne Details zu nennen.

Der umfangreiche Ausbau der erneuerbaren Energie machte Spanien zu einem Weltführer in diesem Bereich und reduzierte dessen Abhängigkeit von Ölimporten, aber das Ergebnis sind mit Schulden überhäufte Einrichtungen, und die Verbraucher stehen vor schmerzhaften Preissteigerungen für Kraftwerke, die sie kaum nutzen.

„Wir können uns die hohen Energiekosten nicht leisten, und die Regierung kann nicht weiterhin auf extrem teure Energiequellen für spanische Haushalte setzen“, sagte Jaime Legaz, Vorsitzender der FAES-Denkfabrik der Volkspartei.

Das Kappen der Subventionen für Kraftwerke aus erneuerbaren Energien würde das weitere Anwachsen des Schuldenberges verhindern, und die Verbraucher müssten sich an allmähliche und nicht plötzliche Preissteigerungen gewöhnen. Die Anpassung an die wirklichen Stromkosten wäre so einfacher.

Niedrigere Subventionen für Erneuerbare würden auch Mittel für das Lieblingsprojekt der Volkspartei frei machen, nämlich Investitionen in Verbindungen mit Kraftwerken im übrigen Europa. Dies würde helfen, die Überkapazitäten im Energiebereich abzubauen und zu Investment ermuntern.

Mächtige Volksbewegungen haben vor Kurzem Schritte unternommen, um Druck auf die neue Regierung auszuüben, das Defizit in Höhe von über 20 Milliarden Euro anzugehen. Dieses Defizit hat sich angehäuft, weil Strom zu regulierten Tarifen verkauft worden ist, die zu niedrig lagen, um die Kosten von 10 Jahren zu decken.

Anders als Deutschland, wo die Kosten der Erneuerbaren direkt an den Verbraucher weiter gegeben werden, hat Spanien diese Zahlungen immer weiter hinaus geschoben, indem es die Einrichtungen verpflichtete, diese Kosten aus ihren Bilanzen als vom Staat gestützte Schulden herauszuhalten, was als „Tarifdefizit“ bekannt ist. Es wurde versprochen, dass der Verbraucher diese Schulden durch eine graduelle Erhöhung der Strompreise zurückzahlen werde.

Die sozialistische Regierung, von der erwartet wird, dass sie nach sieben Jahren an der Macht bei den Wahlen herbe Verluste hinnehmen muss, hat im vorigen Jahr ein Übereinkommen mit den Einrichtungen getroffen, wonach das Tarifdefizit eliminiert werden sollte.

Unter diesem Übereinkommen hat die Regierung nach und nach Milliarden von Euro durch den Kauf von Staatsanleihen ausgegeben, aber die Schuldenkrise der Eurozone hat die Aufwendungen Spaniens für Zinsen erheblich steigen lassen, was die Anleihen stark verteuert hat.

„Am Ende kann es eine dauerhafte Lösung des Tarifdefizits bei der Energie nur durch unpopuläre Maßnahmen geben, sei es, dass der Verbraucher mehr zahlen muss, oder dass Erlöse der Industrie beschnitten werden“, sagte Alvaro Navarro von der Brokergesellschaft Intermoney.

„Man kann es auch mit dem öffentlichen Defizit zusammen führen, aber angesichts der spanischen Ziele, das Defizit zu verringern und der Schuldenkrise in der Eurozone sieht das extrem schwierig aus“.

Sonne und Wind

Es wird erwartet, dass sich eine Regierung der Volkspartei auf die Kürzung von Subventionen für diese Energiequellen konzentrieren wird, die relativ wenig zur Stromerzeugung im Vergleich zu den Kosten für die Verbraucher beigetragen haben, wie z. B. Photovoltaikpaneele (PV) und konzentrierte solare Energie (CSP), welche Spiegel zur Erzeugung thermischer Energie verwendet.

Aber selbst die kosteneffektivere Windenergie könnte betroffen sein.

Eine neue Regierung würde eine Blockierung zwischen der gegenwärtigen Regierung und der Windkraftindustrie erben, und zwar über Subventionen für neue Kraftwerke nach 2012, nachdem diese Industrien das letzte Angebot der Regierung als unzureichend abgelehnt hatten.

Obwohl die großen Drei der spanischen Versorgungseinrichtungen – Iberdrola, Gas Natural und Endesa – groß an dem Boom der Erneuerbaren verdient haben, machen sie sich über das Ende der Subventionierung künftiger Kapazitäten nicht allzu viele Gedanken, sofern die bestehenden Kapazitäten nicht angetastet werden.

Der Chef von Iberdrola, Ignacio Sanchez Galan hat kürzlich die Subventionspolitik verdammt.

„Wir haben hinsichtlich der solaren PV-Energie unvernünftige Entscheidungen getroffen, lassen Sie uns diese nicht bei der thermischen Solarenergie wiederholen!“ sagte er auf einer Veranstaltung der Industrie.

Die Einrichtungen haben wenig in den spanischen PV-Boom investiert, der von kleinen Kompanien übernommen worden ist. Ein führender Mitspieler bei der CSP ist die spanische mittelständische Firma Abengoa, die sich für die Unterstützung der Regierung mit dem Argument stark macht, diese schaffe Arbeitsplätze und treibe die Entwicklung der Technologie voran.

Der Hersteller von Windturbinen Gamesa könnte mit einem Einfrieren der Kapazität infolge einer erheblichen Verlangsamung beim Bau neuer Windfarmen und Verkäufen anderswo leben, obwohl sich Fabriken in Spanien der Schließung gegenüber sehen könnten, wenn die Subventionen für Windenergie eingestellt werden.

Kleinere Hersteller sowie Entwickler von Wind- und Solarparks, die davon abhängen, könnten auch betroffen werden, was Arbeitsplätze im Bereich der Erneuerbaren kosten könnte, wo derzeit über 100 000 Arbeiter beschäftigt sind, und das in einem Land, in dem ein Fünftel aller Arbeitsfähigen Arbeitslosengeld beziehen.

Eine Forderung der Stromindustrie an die Volkspartei lautet, dass Smart Grids und Smart Meters entwickelt werden müssen, um die unterschiedliche Nachfrage von Strom an die sich rasch verändernde Stromerzeugung der Erneuerbaren anzupassen. Dies sollte im politischen Programm der Volkspartei enthalten sein.

Darin heißt es, dass man den Betrieb von Kernkraftwerken erlauben sollte, solange der CSN-Regulator das für sicher erachtet, und Rajoy, der Vorsitzende der Volkspartei, hat schon lange gesagt, dass er die Entscheidung der Sozialisten, das alternde Garona-Kraftwerk zu schließen, rückgängig machen werde.

Analysten schließen nicht aus, dass eine Steuer auf die billige Kernkraft erhoben wird, die in die Förderung der Windenergie fließen soll, was das Tarifdefizit, das die Verbraucher den Einrichtungen schulden, lindern könnte, und zwar im Austausch für den Weiterbetrieb von Kraftwerken.

 „Eine Steuer auf Kernkraftwerke könnte man sich überlegen, um die Systemkosten zu reduzieren”, sagte Espirito Santo Investment in einer Note.

Dem Programm der Volkspartei zufolge soll bei der Europäischen Union Lobbyarbeit betrieben werden, um Spaniens geringe Stromverbindungen mit dem Rest des Kontinents zu verstärken. Außerdem will man die Politik der gegenwärtigen Regierung weiterführen, Spanien zu einem Einfallstor von nordafrikanischem Gas für Europa machen.

Pläne, die zwischenstaatlichen Verbindungen mit Frankreich zu erweitern, bis sie ein Drittel des spanischen Gasbedarfs bis 2014 decken können, wurden von französischen Energieplanern verzögert.

Jonathan Gleave

Link: http://www.reuters.com/article/2011/11/15/spain-election-energy-idUSL5E7M24AP20111115

*Dieser Text war vor diesen Wahlen erschienen – siehe Datum! Bei Erscheinen kann man gleich prüfen, ob die Einschätzung von Gleave richtig war. A. d. Übers.

Übersetzt von Chris Frey für EIKE




Verfolgung der Windkraftkriminalität -Erläuterung kriminalistisch bedeutsamer Tatsachen

…..Eine Folge der Attraktivität ist es, dass Anlagen auch an Standorten vorgesehen werden, an denen sich der Anlagenbau kaum anders als mittels betrügerischer Vorgehensweisen finanzieren lässt. Davon abgesehen verbieten sich Windkraftanlagen an zahlreichen Standorten auch deshalb, weil durch sie in strafbarer Weise streng geschützte Vögel und Fledermäuse zu Tode kommen. Indessen gibt es Anhaltspunkte dafür, als würden die Ermittlungsaufgaben, die sich insofern der Staatsanwaltschaft und der Kriminalpolizei stellen, nur mit verhaltenem Interesse wahrgenommen. Ein Grund hierfür dürfte in einer unterschwelligen Sympathie für eine emissionsfreie Stromversorgung liegen, ein anderer in der vom Verfasser wiederholt gemachten Beobachtung, dass den ermittelnden Beamten oftmals wichtige Grundinformationen in tatsächlicher Hinsicht fehlen. Zur Schließung dieser Lücke sollen die nachfolgenden Ausführungen beitragen….

I. Ausgangssituation für Kriminalisten

Die Erzeugung von Windstrom dient in Deutschland der Abschöpfung und Um-verteilung von jährlich etwa drei Mrd. Euro. Die rechtliche Grundlage hierfür bil­det das Erneuerbare-Energien-Gesetz (EEG). Die Umverteilung der Mittel wird über den Strompreis ermöglicht und ist von der Allgemeinheit wie eine Steuer aufzubringen. (Die darin liegende verfas­sungsrechtliche Problematik1 soll hier nicht diskutiert werden.) Inwieweit eine Teilhabe an der vom EEG veranlassten Zwangssubventionierung möglich ist, hängt davon ab, wie viel Strom die Anla­gen erzeugen können. Diese Vorausset­zung ist wiederum maßgeblich abhängig vom jeweiligen Windaufkommen…

Lesen Sie den gesamten umfassenden Beitrag in der pdf Anlage

Related Files




Ein extremer und damit klimawirksamer Niederschlagseffekt durch Sonne und Galaxis wird durch eine periodische Störung durch den Mond belegt

Fett leitet seinen Aufsatz über die astronomischen Einflüsse auf Starkregenereignisse mit folgenden Worten ein:

In einem eigenartigen Spiel des Kreisens von Erde, Mond und Sonne im galaktischen Raum beschreiben ihre Bewegungen das Auftreten starker Regenfälle weltweit geordnet und in überraschendem Ausmaß. Die mondperiodische Niederschlagsverstärkung verweist auf Sonne und Galaxis als eigentlichen Ursachenhintergrund. Auch wenn es an physikalischer Begründung immer noch mangelt, ist dennoch dieses extraterrestrische Wirken auch in klimatischer Hinsicht schon jetzt unbedingt in Betracht zu ziehen. Ein Vorrecht auf anthropogene Vorherrschaft in der Klimawandeldiskussion ist schon aufgrund  quantitativer Vergleiche als obsolet anzusehen.

Der sehr lesenswerte und vollständige Artikel ist als pdf beigefügt.

Michael Limburg

Related Files




„Ich will 100 % Kernkraftstrom“: Wer macht mit?

Allerdings sollten sich unsere Leser keine allzu großen Hoffnungen machen, bald sehr viel billigeren Kernkraftstrom beziehen zu können. Denn neben den möglicherweise bestehenden rechtlichen Hürden, die es zu überwinden gälte, hat der eigentliche Erzeugerpreis fast den kleinsten Anteil an den gesamten  Stromkosten.

Aus Wikipedia z.B. kann man unter http://de.wikipedia.org/wiki/Strompreis die folgende Tabelle entnehmen:

Jahr

Stromerzeugung,
-transport,
und -vertrieb

Konzessions-
abgabe

KWK-Umlage

Stromsteuer

EEG-Umlage

Umsatzsteuer

Strompreis
Brutto

Anteil
Steuern, Abgaben und Umlagen [%]

1998

0,1289

0,0179

0,0000

0,0000

0,0008

0,0237

0,1713

24,7 %

1999

0,1159

0,0179

0,0000

0,0077

0,0010

0,0228

0,1653

29,9 %

2000

0,0862

0,0179

0,0013

0,0128

0,0020

0,0192

0,1394

38,1 %

2001

0,0860

0,0179

0,0020

0,0153

0,0023

0,0197

0,1432

39,9 %

2002

0,0971

0,0179

0,0025

0,0179

0,0035

0,0222

0,1611

39,7 %

2003

0,1023

0,0179

0,0033

0,0205

0,0042

0,0237

0,1719

40,5 %

2004

0,1082

0,0179

0,0031

0,0205

0,0051

0,0248

0,1796

39,7 %

2005

0,1122

0,0179

0,0034

0,0205

0,0069

0,0257

0,1866

39,9 %

2006

0,1175

0,0179

0,0031

0,0205

0,0088

0,0268

0,1946

39,6 %

2007

0,1219

0,0179

0,0029

0,0205

0,0103

0,0329

0,2064

40,9 %

2008

0,1301

0,0179

0,0019

0,0205

0,0116

0,0346

0,2165

39,9 %

2009

0,1412

0,0179

0,0024

0,0205

0,0131

0,0371

0,2321

39,2 %

2010

0,1390

0,0179

0,0013

0,0205

0,0205

0,0378

0,2369

41,3 %

2011

0,1357

0,0179

0,0003

0,0205

0,0353

0,0398

0,2495

45,6 %

Sie sagt zwar viel über den ständig steigenden Staatsanteil samt EEG Umlage aus , aber wenig bis nichts über die eigentlichen Gestehungskosten . Diese sind – man glaubt es kaum- sehr schwer zu ermitteln. Aus verschiedenen Quellen kenne ich einen Gestehungspreis für Kernstrom um 2,5 ct/kWh.  Vergleichbar dem aus Braunkohle. Das macht gerade mal 10 % des heutigen Gesamtpreises aus.  Unterstellt, dass in den 13,57 ct/kWh, die uns im bisherigen Mix in Rechnung gestellt wird – ohne die zwangsweise und immer zu zahlende EEG Umlage mit gut 3,5 ct/kWh – ein Gestehungs-Preis von 5 ct/kWh enthalten ist, dann wäre reiner Kernkraftstrom – wo immer er herkäme- um ca. 10 % oder 2,5 ct/kWh  billiger. Für einen normalen Haushalt mit ca. 3500 kWh pro jahr wäre das eine Einsparung von knapp 90 € pro Jahr. Nicht sehr viel, aber ich würde es trotzdem machen. Sie auch?

Hier noch einmal der Link zur Registration

Michael Limburg EIKE

PS. Übrigens verbraucht ein abgeschaltetes Kernkraftwerk immer noch und auf Dauer eine erhebliche Kühlleistung. Beim Kernkraftwerk Unterweser sind das 6 MW Leistung rund um die Uhr. Und das Land Niedersachsen muss gleichzeitig auf einen "Kühlwassercent" für das Weserwasser in Höhe mehrerer Millionen Euro verzichten. (Mit Dank an Hinweisgeber Prof. Dr. Appel)




Zusammenhang zwischen Polarlichtern und Temperaturzyklen auf der Erde

Dr. Roger Pielke Sr. schreibt über eine neue Studie von Nicola Scafetta.:

Foto rechts: Nordlicht über dem Malmesjaur-See in Moskosel, Lappland, Schweden. Bild: Wikipedia

Eine neue Studie von Nicola Scafetta ist gerade erschienen. Diese Studie wird mit Sicherheit die Debatte um die Rolle der natürlichen Klimavariabilität und langfristigen Änderungen erweitern.

Das Abstract lautet (Hervorhebung von Pielke):

Hiermit zeigen wir, dass die historischen Aufzeichnungen von Nordlichtern* in mittleren Breiten von 1700 bis 1966 Oszillationen mit einer Dauer von 9, 10 bis 11, 20 bis 21, 30 bis 60 Jahren spiegeln. Die gleichen Häufigkeiten finden sich in Proxies und instrumentellen Aufzeichnungen der globalen Temperatur seit 1650 und 1850 sowie in vielen planetarischen und solaren Aufzeichnungen. Wir argumentieren, dass die Aufzeichnungen bzgl. der Nordlichter einen physikalischen Zusammenhang zwischen Klimaänderung und astronomischen Oszillationen enthüllen.  Wahrscheinlich zusätzlich zu einem soli-lunaren Tideneffekt [vermutlich Spring- und Nippflut, A. d. Übers.] existiert eine planetarische Modulation der Heliosphäre bzgl. kosmischer Strahlen, die die Erde erreichen, und/oder elektrischer Eigenschaften der Ionosphäre. Letztere haben das Potential, die globale Wolkenbedeckung zu modulieren, die direkt die klimatischen Oszillationen durch unterschiedliche Albedo beeinflussen. Im Besonderen zeichnet sich seit 1650 in allen hier untersuchten klimatologischen und astronomischen Aufzeichnungen ziemlich deutlich ein 60 Jahre langer Zyklus ab, der auch historische Aufzeichnungen über Meteoritenfälle in China von 619 bis 1943 enthält. Diese Ergebnisse unterstützen die These, dass Klimaoszillationen einen astronomischen Ursprung haben. Wir zeigen, dass ein harmonisches Teilmodell auf Basis der hauptsächlichen astronomischen Häufigkeiten, die durch die Aufzeichnungen über Nordlichter und abgeleitet aus natürlichen Gravitationsoszillationen des Sonnensystems in der Lage ist, mit hinreichender Genauigkeit die dekadischen und multidekadischen Temperaturoszillationen von 1950 bis 2010 abzubilden, wenn man die Temperaturdaten vor 1950 eingibt, und umgekehrt. Die Existenz einer natürlichen, 60-jährigen zyklischen Modulation der globalen Temperatur induziert durch astronomische Mechanismen, würde für sich allein schon implizieren, dass mindestens 60% bis 70% der beobachteten Erwärmung seit 1970 natürliche Ursachen hat. Mehr noch, das Klima könnte auch während der nächsten Dekaden in etwa stabil bleiben, da der 60-Jahres-Zyklus derzeit in seine Abkühlungsphase getreten ist.

[*Mit ‚Nordlichtern’ sind hier natürlich immer Polarlichter gemeint. Da es aber von der Südhalbkugel keine Aufzeichnungen über Südlichter gibt, wird hier immer der Begriff Nordlicht verwendet. A. d. Übers.]

Die Höhepunkte, die bei Bekanntgabe der Studie aufgelistet worden sind, lauten:

► Die Studie beleuchtet, dass Aufzeichnungen des globalen Klimas und von Polarlichtern eine gemeinsame Häufigkeitsverteilung aufweisen.

►Diese Häufigkeiten können benutzt werden, um Klimaoszillationen während einer Zeitskala von 9 bis 100 Jahren zu rekonstruieren.

►Ein empirisches Modell, das auf diesen Zyklen basiert, kann Klimaoszillationen rekonstruieren und vorhersagen.

►Zyklische astronomisch-physikalische Phänomene regulieren die Klimaänderung durch Elektrifizierung der oberen Atmosphäre.

►Klimazyklen haben einen astronomischen Ursprung und werden durch Oszillationen der Wolkenbedeckung reguliert.

========================================================

Dr. Sacfetta schreibt in einer e-mail an Anthony Watts Folgendes (und der ganzen Studie als Anhang):

Ich kann das Klima mit guter Näherung vorhersagen, siehe Abbildung 11. In dieser Studie wird der physikalische Zusammenhang zwischen astronomischen Oszillationen und dem Klima weiter untermauert.

Die Studie zeigt, dass die Aufzeichnungen über Nordlichter in mittleren Breiten die gleichen Oszillationen aufweist wie das Klimasystem und gut identifizierbare astronomische Zyklen.  Folglich ist der Ursprung von Klimavariationen astronomischen Ursprungs, welche Mechanismen auch immer dahinter stecken.

In der Studie lege ich dar, dass Aufzeichnungen dieser Art von Nordlichtern als Proxy angesehen werden können für die elektrischen Eigenschaften der Atmosphäre, die dann wiederum die Wolkenbedeckung und die Albedo und damit konsequenterweise auch ähnliche Zyklen der Temperatur beeinflussen.

Man beachte, dass sich Nordlichter in mittleren Breiten bilden können oder wenn die Magnetosphäre schwach ist. Daher ist es nicht nötig, den Sonnenwind genau zu bestimmen oder ob die Sonnenexplosionen (Flares usw.) besonders energiereich sind, so dass sie mit Gewalt in die Atmosphäre eindringen.

Während der Maxima solarer Zyklen wird die Magnetosphäre stärker, so dass die Nordlichter sich in Richtung der Pole verschieben sollten. Jedoch ereignen sich während der solaren Maxima viele Flares und hochenergetische solare Explosionen. Als Folge sieht man eine erhöhte Zahl von Nordlichtern in mittleren Breiten, obwohl die Magnetosphäre stärker ist und die Nordlichter in Richtung der Pole verschiebt.

Wenn im Gegensatz dazu die Magnetosphäre in multidekadischen Zeiträumen schwächer wird, ist das Erscheinen von Nordlichtern in mittleren Breiten wahrscheinlicher, und man kann sogar während solarer Minima hier solche Nordlichter sehen, wie Abbildung 2 zeigt.

In der Studie zeige ich, dass es nicht die Nordlichter selbst sind, die das Klima beeinflussen, sondern die Stärke der Magnetosphäre, die die einfallende kosmische Strahlung reguliert, die wiederum Einfluss auf die Bewölkungsmenge hat.

Die Stärke der Magnetosphäre wird durch die Sonne bestimmt (deren Aktivität synchron mit den Planeten schwankt), aber vielleicht wird die Stärke der irdischen Magnetosphäre auch direkt durch Gravitations- oder magnetische Kräfte von Jupiter, Saturn und den anderen Planeten beeinflusst, deren Schwere-/magnetischen Felder die irdische Magnetosphäre irgendwie deformieren oder zusammen drücken, so dass es für diese einfacher oder schwieriger wird, die kosmischen Strahlen abzulenken.

Wenn also Jupiter und Saturn sonnennäher liegen, können sie die folgenden Dinge verursachen: 1) sie verstärken die Sonnenaktivität, 2) die aktivere Sonne sorgt für eine Verstärkung des irdischen Magnetfeldes, 3) Jupiter und Saturn tragen mit ihren Magnetfeldern dazu bei, das Magnetfeld des inneren Sonnensystems zu verstärken, 4) das irdische Magnetfeld wird stärker und größer, und zwar sowohl durch die erhöhte solare Aktivität als auch durch die Gravitations- bzw. magnetischen Einflüsse durch Jupiter und Saturn. Als Konsequenz erreicht weniger kosmische Strahlung die Erde mit verringerter Wolkenbildung und damit einer Erwärmung des Klimas.

Allerdings ist es nicht Gegenstand dieser Studie, Details der oben genannten Mechanismen zu erklären, sondern es soll lediglich dargestellt werden, dass solche Mechanismen existieren und durch das Verhalten der Nordlichter angezeigt werden.

Die gute Nachricht ist, dass wir selbst bei Unkenntnis der physikalischen Natur dieser Phänomene das Klima teilweise auf die gleiche Weise vorhersagen können, wie wir geometrische und astronomische Überlegungen anstellen, wie ich in Abbildung 11 zeige.

Der eben genannte Punkt ist sehr wichtig. Bei dem Versuch, diese Gravitationswellen vorherzusagen, betonen die Leute die Notwendigkeit, die Newton’sche Gleichung von Schwerewellen und den anderen Gleichungen von der Dynamik in Flüssigkeiten zu lösen. Natürlich war niemand in der Lage, das wegen der enormen numerischen und theoretischen Schwierigkeiten zu tun. Heute träumt niemand davon, globale Klimamodelle GCMs zu nutzen, um die Schwerewellen exakt vorherzusagen. Um dies zu bewältigen, ist es Lord Kelvin zufolge nutzlos, die Newton’sche Mechanik oder irgendwelche anderen physikalischen Gesetze zu nehmen, um das Problem zu lösen. Alles, was zählt, ist die Kenntnis, dass es irgendeine Verbindung gibt, selbst wenn sie in den Details noch nicht verstanden ist. Auf dieser Basis hat Lord Kelvin vorgeschlagen, eine harmonische Komponente einzuführen, um eine Vorhersage aufgrund astronomischer Zyklen zu erstellen. Und Kelvins Methode ist derzeit die einzige, mit der die Vorhersage dieser Zyklen funktioniert, wie man hier sieht:

http://en.wikipedia.org/wiki/Tide-predicting_machine

Die Abbildung 11 ist wichtig, weil sie zum ersten Mal zeigt, dass man Klima anhand astronomischer Schwingungen mit guter Genauigkeit vorhersagen kann. Ich benutzte eine Methode ähnlich wie Kelvin und kalibriere das Modell von 1850 bis 1950, und ich zeige, dass das Modell die Klimaoszillationen von 1950 bis 2010 vorhersagt, und ich zeige auch, dass das auch umgekehrt funktioniert.

Natürlich kann dieses Modell mit zusätzlichen harmonischen Schwingungen noch erheblich verbessert werden. Im Vergleich dazu werden die ozeanischen Gezeiten mit 35 bis 40 harmonischen Schwingungen berechnet.

Aber dies ändert nichts an den Aussagen dieser Studie, die da lauten: 1) es gibt einen deutlichen Beweis, dass es einen physikalischen Zusammenhang zwischen Oszillationen des Sonnensystems und dem Klima gibt, wie es durch das Verhalten des Nordlichts angezeigt wird, 2) dieses Ergebnis rechtfertigt die harmonische Modellierung und Vorhersage des Klimas aufgrund astronomischer Zyklen in Verbindung mit der Sonne, dem Mond und der Planeten.

Also ist es auch wichtig, Kelvins Argumentation zu verstehen, um meine Studie zu verstehen.

Abbildung 11: Astronomisches harmonisches Einzelmodell mit der Rekonstruktion und Vorhersage der globalen Temperatur.

Hinweis des Übersetzers: Man schaue in die Originalstudie, um eine ausführliche Bildunterschrift zu sehen!

Diese Studie ist die natürliche Fortsetzung meiner früheren Arbeiten zu diesem Thema.

Nicola Scafetta. Empirical evidence for a celestial origin of the climate
oscillations and its implications. Journal of Atmospheric and Solar-Terrestrial Physics Volume 72, Issue 13, August 2010, Pages 951-970

http://www.sciencedirect.com/science/article/pii/S1364682610001495

=======================================================

Diese Behauptungen hier sind ziemlich mutig, und ich sage ganz offen, dass ich sehr wohl den Unterschied kenne zwischen dieser Arbeit und einigen Studien mit wilden Kalkulationen über irgendwelche Zyklen, die mir während der letzten Jahre zugesandt worden sind. Basil Copeland und ich haben hier auf WUWT schon früher einige Auswirkungen luni-solarer Vorgänge auf die globale Temperatur untersucht (hier)

Während das Ganze in der Rückschau recht eindrucksvoll aussieht, wäre ein echter Test sinnvoll mit einer Reihe wiederholter und verifizierter kurzfristiger Vorhersagen. Die Zeit wird es zeigen.

Link: http://wattsupwiththat.com/2011/11/10/aurora-borealis-and-surface-temperature-cycles-linked/#more-50962

Link zur Studie von Scafetta, der auch die Bildunterschrift entnommen ist:

Nicola Scafetta 2011: A shared frequency set between the historical mid-latitude aurora records and the global surface temperature. Journal of Atmospheric and Solar-Terrestrial Physics In Press doi:10.1016/j.jastp.2011.10.013

Übersetzt von Chris Frey für EIKE




Der DWD und seine Klimaprognosen oder warum in München im Oktober 2011 Polarlichter zu sehen waren und Weltklimagipfel: Sind unsere Politiker noch zu retten?

Ernährt sie doch eine Vielzahl von sog. Wissenschaftlern, Politikern, Bürokraten, Pressevertretern, Aktivisten, Lobbyisten, Glücksrittern u.v.m. Nun, in einem dürften die Anwesenden sicher sein, die zwei Wochen werden in angenehmer Umgebung verlaufen, liegt Durban doch am warmen indischen Ozean. Der Dezember ist der dortige Wonnemonat, in dem der Sommer beginnt. Das alles auf vergleichbarem Breitengrad wie die Karibik. Nur ein Schelm der dabei denkt, dass unsere Volksvertreter und deren Abgesandten etwas anderes im Sinn haben, als nur unser Bestes. Nein, nicht unser Geld zu kassieren, sondern unser Klima zu retten.

Werfen wir daher zuerst einen Blick, in welcher Umgebung solch schwierige Themen 2 Wochen lang „behandelt“ werden.

 

Abbildung 1 zeigt eine Hotelanlage in Durban. Wohl nicht typisch, jedoch auch nicht außergewöhnlich, da alle Hotelanlagen vor Ort benötigt werden, den riesigen Ansturm vom Besuchern, Delegierten, Aktivisten und Lobbyisten aufzunehmen und dazu, Durban´s  malerische Strandkulisse am indischen Ozean.

Da in Durban unser Klima und dessen Rettung auf der Tagesordnung stehen, soll der zweite Blick dem örtlichen Klima gelten.

Abbildung 2 gibt einen Überblick über die Temperaturen in Durban, die, da ebenfalls zugehörig zu den Erdtemperaturen, natürlich auch gerettet werden sollen und dazu eingerahmt, die Min-Max-Temperaturen für Dezember, denen die Delegierten des Weltklimagipfels ausgesetzt sind. Wohl jedem verständlich, dass solch angenehme Temperaturen rettungswürdig sind.

Nach diesem kleinen Exkurs zum anstehenden Weltklimagipfel, nun zu den Klimarettern selbst, hier insbesondere zum DWD, die den Weltklimagipfel mit ihren Meldungen, sozusagen den argumentativen Background geben, damit der Gipfel vor der Bevölkerung den Anschein der Notwendigkeit erhält. Dieser Bericht wird jedoch zeigen, dass der Klimagipfel und dessen Begleitmusik zur Erhaltung oder gar Schützung des Klimas so notwendig sind, wie die vierte Geige in einem Streichorchester, bzw. der Klimagipfel, der „Gipfel“ ist. Eine Begleitmusik kam im Jahr 2011 vom DWD und soll hier näher betrachtet werden.

Auszüge aus der Klima-Pressekonferenz des Deutschen Wetterdienstes (DWD) am 26. Juli 2011 in Berlin, von Herrn Müller-Westermeier (DWD). Die DWD-Oberen und mit ihnen der DWD stehen, wie bekannt, in völliger Eintracht zu den IPCC-Szenarien und den vermeintlichen Auswirkungen eines anthropogenen Global Warming. So veranstaltet der DWD einmal jährlich eine Pressekonferenz über die Klimadaten des abgelaufenen Jahres, in diesem Jahr wäre dies das Jahr 2010. Der Vortrag von Herrn Müller-Westermeier beschäftigte sich (nach eigenen Worten) indes hauptsächlich mit dem warmen und trockenen Frühjahr und streift das Jahr 2010, vor allem, wenn Extremwetterverhältnisse vorlagen.

„…möchte ich Ihnen heute das erste Halbjahr 2011 vorstellen und nur knapp das Jahr 2010 in seiner klimatologischen Bedeutung einordnen.“

„Markant war 2010 die Zahl der Tage mit starkem Niederschlag – also mindestens 30 l/m2 in 24 Stunden. Sie lag im Gebietsmittel von Deutschland mit 1,9 Tagen deutlich über dem lang-jährigen Durchschnitt von 1,4. Das mag sich für Sie nicht viel anhören, ist aber für uns Klima-Statistiker eine erhebliche Steigerung.“

„Durch den bei weitem nassesten August seit 1881 blieb uns der Sommer in Deutschland trotz heißer, sonniger Perioden im Juni und Juli als recht unfreundlich in Erinnerung – obwohl er der 9.wämste Sommer seit 1881 war.“

Nun passt das Jahr 2010 in Deutschland so gar nicht zu den Vorstellungen der IPCC und deren hörigen Institutionen. Mit einer Durchschnitttemperatur von 7,8°C lag diese um über 2°C unter den tiefsten Temperaturen der letzten 10 Jahre. Verständlich, dass der DWD nicht näher auf die Fakten eingehen möchte und im Jahresbericht nur lapidar feststellt „Unter dem Strich blieb der Winter 2010/2011 aber recht kalt“. Wie die Klassifizierung „recht kalt“ oder „unter dem Strich“ messtechnisch einzuordnen ist, entzieht sich der Kenntnis des Autors.

Abbildung 3 zeigt die Temperaturjahresmittelwerte in Deutschland seit 1999 und dazu, den linearen und den polynomischen Trend. Die Temperaturen fallen deutlich.

Umso präziser wird der DWD, gilt es, die vergleichsweise hohen Frühjahrstemperaturen und Wetterverhältnisse 2011 zu präzisieren:

·         „Der April war extrem warm, sonnenscheinreich und trocken – wie schon zweimal zuvor in den vergangenen fünf Jahren (2007 und 2009). Die Mitteltemperatur für Deutschland betrug 11,6 Grad Celsius (°C) und lag damit um enorme 4,2 Grad über dem Durchschnitt.“

·         „Mit einer Sonnenscheindauer von im Mittel 242 Stunden erreichte der Monat den dritten Platz der sonnenscheinreichsten Aprilmonate seit Beginn flächendeckender Sonnenscheinmessungen im Jahr 1951.“

·         „Da die Mitteltemperatur in Deutschland in allen drei Frühlingsmonaten klar über dem Referenzwert lag, war der Frühling insgesamt deutlich zu warm. Er lag, das zeigt ein Blick ins nationale Klimaarchiv des Deutschen Wetterdienstes, mit 10,1 °C auf dem 2. Rang seit 1881.“

·         „Alle Frühlingsmonate waren sehr trocken, so dass im Frühling insgesamt nur knapp 89 Liter pro Quadratmeter Niederschlag fielen – 52 Prozent weniger als im langjährigen Mittel. Damit war der Frühling 2011 der zweittrockenste seit Beginn der Messungen im Jahr 1881 – nur noch übertroffen vom Frühling 1893.“

·         „Und es gab sogar einen Rekord: Aufgrund der großen Sonnenscheinüberschüsse im März, April und Mai wurde die Jahreszeit mit 705 Stunden Sonne die sonnenscheinreichste seit 1951 – vor 2007 und 1953.“

Sogar ein Rekord 2010! Da haben die DWD-Oberen sicherlich lang suchen lassen, damit ein vermeintlicher Rekord zu melden ist. Wie solche „Rekorde“ einzustufen sind, hat EIKE in ihrem Artikel „Jedes Jahr mehrere „hundertjährige“ Wetterereignisse und das soll noch normal sein?“ anschaulich dargelegt. Sehen Sie hier:

http://www.eike-klima-energie.eu/news-anzeige/jedes-jahr-mehrere-hundertjaehrige-wetterereignisse-und-das-soll-noch-normal-sein/

Gegen Ende seines Berichts wird Herr Müller-Westermeier vom DWD endlich präziser, was das Jahr 2010, also der übliche Inhalt des Klimaberichts betrifft:

„Im Jahr 2010 war es in Deutschland 0,4 Grad kühler als im langjährigen Mittel, das bei 8,2°C liegt.“

Wie nicht anderes im Suchjahr des Kyotofolgeabkommens zu erwarten, findet der DWD schnell wieder die erforderliche Linie dazu:

„Leider können wir keine Entwarnung geben. Die globale Klimaerwärmung ging auch 2010 weiter. Weltweit war das Jahr 2010 sogar eines der drei wärmsten seit Mitte des 19. Jahrhunderts. Deutschland macht weniger als ein Tausendstel der Erdoberfläche aus. Es können sich damit immer wieder vom globalen Trend abweichende Mitteltemperaturen ergeben, ohne dass globale Trends in Frage gestellt werden.“

Da kommt es für den Betrachter gleich mehrfach knüppeldick: „keine Entwarnung“, „globale Erwärmung ging weiter“, „sogar drittwärmste Jahr“ und „weniger als ein Tausendstel der Erdoberfläche“. Daher sollen die vier Kernaussagen einer näheren Betrachtung unterzogen werden.

1. „weniger als ein Tausendstel der Erdoberfläche“

Ein Blick zu Wikipedia und die Beherrschung der Grundrechenarten (liegen beim DWD demnach vor) zeigt, dass diese Aussage geometrisch korrekt ist. Doch besteht überhaupt ein Zusammenhang des Flächenverhältnisses zu der Messabdeckung, auf die es bekanntlich ankommt?

Abbildung 4 zeigt das Netzwerk der meteorologischen Bodenstationen von denen unter anderem die von den Klimatologen verwendeten Messreihen der Lufttemperaturen stammen.

Abbildung 4 zeigt anschaulich, dass die größten Flächen der Erde, die Ozeane, kaum messtechnisch herangezogen werden, wie die Wüsten, Regenwaldgebiete, Steppen und Tundren, wogegen sich in Nordamerika und Europa die Mehrzahl von Stationen befindet. Durch die Größe der Einzelpunkte, die übrigens die Fläche Bayerns ausfüllen, wird zum einen, nicht ersichtlich, dass der DWD nach den Informationen des Autors, die Daten von 15 seiner Stationen des GHCN (Global History Climate Network – erstellt die globalen Temperaturreihen) meldet. Weiter befinden sich gegenwärtig 80% aller Messstationen in städtischen Gebieten, die aber nur 3% der Landfläche ausmachen. D.h. nichts anderes, als dass 97% der Fläche nicht oder nur unzureichend in die globale Temperaturbetrachtung einfließen. Da in Deutschland die Abdeckung der Temperaturmessungen als gut angenommen werden darf und die Fläche Deutschlands mit den verbliebenen 3% der Erdoberfläche in Relation gesetzt wird, ergibt sich ein Verhältnis von 1 zu 40, klingt etwas anders als 1 zu 1.000. Die Aussage des DWD ist demnach irreführend und nicht relevant für die Gewichtung von Temperaturerfassungen.

2. „sogar drittwärmste Jahr“

Über das vermeintlich so warme Jahr 2010 ging der Autor auf EIKE in seinem Bericht „Wärmstes Jahr 2010, aber nicht in Deutschland, auch nicht in Europa, nicht auf den Weltmeeren, wo denn eigentlich“ eingehend ein:

http://www.eike-klima-energie.eu/news-anzeige/waermstes-jahr-2010-aber-nicht-in-deutschland-auch-nicht-in-europa-nicht-auf-den-weltmeeren-wo-denn-eigentlich/

Dieser Artikel belegt, dass die Aussage „drittwärmste Jahr“ ein Artefakt ist und auf Tuning der Messwerte, insbesondere durch die geschickte Auswahl von „warmen“ Messstationen beruht, wie die Autoren d´Aleo und Watts darlegten (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf). Darüber hinaus auf dem Wärmeinseleffekt, der jeden Vergleich mit historischen Werten sinnlos macht, wird er nicht berücksichtigt. Hier sind zwei EIKE-Artikel, die dies belegen:

http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/

http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/

Insbesondere Großflughäfen haben einen künstlichen Temperaturanstieg von +2,5°C, wie am Beispiel von Frankfurt und London belegt wird. Unter Berücksichtigung, dass sich derzeit 52% aller Messstationen des GHCN auf solchen Großflughäfen befinden, sagt die Aussage, wie sie z.B. von der WMO oder des DWD zu vernehmen ist, dass die Erwärmung von Jahr zu Jahr fortschreitet, denn nichts anderes aus, als dass sich der Flugverkehr von Jahr zu Jahr vergrößert, da der WI von Großflughäfen direkt abhängig ist, vom Flugverkehr, der Anzahl der Starts und Landungen, bei denen die Jets die Messstationen mit ihren bis zu 600°C heißen Abgasen direkt oder indirekt beaufschlagen (indem sie die Luftmassen erwärmen), wie das Beispiel des Frankfurter Flughafens zeigt.

 

Abbildung 5a zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie rechts zu sehen.

 

Abbildung 5b zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände Frankfurt (roter Pfeil).

Der Autor empfiehlt dem DWD einen weiteren Artikel zur globalen Temperaturentwicklung „Wenn sich Blinde an Blinden orientieren – die Messreihen der GISS et al. – Oder Hütchenspieler unter sich!“

http://www.eike-klima-energie.eu/news-anzeige/wenn-sich-blinde-an-blinden-orientieren-die-messreihen-der-giss-et-al-oder-huetchenspieler-unter-sich/

In diesem Artikel wird minutiös gezeigt, wie solche Meldungen, wärmer und wärmer, wie sie vom DWD auf dessen Pressekonferenz wieder einmal verbreitet wurden, einzustufen sind.

Einen realistischen Temperaturvergleich zeigt die von EIKE WI-bereinigte Vergleichstemperaturreihe für Deutschland nach Quelldaten des DWD. Sie zeigt nichts dramatisches.

Abbildung 6 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass 2010 kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich).

Die EIKE-Untersuchung zeigt, dass nach Abzug des WI kein nennenswerter Temperaturanstieg mehr übrigbleibt. Die obige DWD-Reihe ohne WI-Betrachtung (rote geglättete Zeitreihe) zeigt für die letzten 30 Jahre einen Temperaturanstieg für Deutschland von ca. 1,2°C. Der WI beträgt im gleichen Zeitraum etwa 0,9°C, was eine reale Temperaturerhöhung von ca. 0,3°C ergibt. Dieser Wert ist deckungsgleich mit den Satellitenbeobachtungen der globalen Temperatur, die für diesen Zeitraum eine Temperaturerhöhung von ca. 0,3°C ausweisen (Abbildung 7).

Abbildung 7 (http://www.climate4you.com/GlobalTemperatures.htm) zeigt die Temperaturentwicklung seit 1979 aus Satellitenbeobachtungen. Die dicke Linie zeigt den 37-Monatstrend. Die beiden starken Temperaturanstiege in 1998 und 2010 sind auf die damaligen starken El Niños zurückzuführen, also natürlichen Ursprungs. Der globale Temperaturanstieg im Betrachtungszeitraum der letzten 30 Jahre beträgt ca. 0,3°C. Was daran dramatisch sein soll, müsste der DWD erläutern. Wir warten auf EIKE gespannt darauf, ob dem DWD dazu etwas einfällt.

3. „Globale Erwärmung geht weiter“

Bereits Abbildung 7 zeigt, was es mit dieser Aussage von Herrn Müller-Westermeier vom DWD auf sich hat. Im 30-Jahrestrend ist eine moderate Steigung zu sehen, wogegen im 21. Jahrhundert, also den letzten 11 Jahren keine Steigung zu erkennen ist. Der Autor hat in seiner Berichtsreihe „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ gezeigt, worauf die moderate Temperaturerwärmung und die Temperaturzyklen, die in Abbildung 7 zu sehen sind, beruhen.

http://www.eike-klima-energie.eu/klima-anzeige/teil-1-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/

Auszug:

Abbildung 8 oben zeigt die Temperaturdatenreihe UAH (Satellitendaten). Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa, die übrigens keinerlei Übereinstimmung mit dem Temperaturgang aufweist. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El-Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

Abbildung 9 zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird (ganz oben). Die mittlere Zeitreihe die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur der Sonne (http://rst.gsfc.nasa.gov/Sect20/A5a.html). Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den „Sprung“ der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum. Zu sehen ist, dass nach jedem Einschalten der Koronazusatzheizung (untere Datenreihe) ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Darüber hinaus zeigt Abbildung 9 die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Die beiden Abbildungen belegen, dass die Erdtemperaturen El-Niño-gesteuert sind (Abbildung 8) und jeder El Niño wiederum, durch die unterschiedlichen Sonnenparameter gesteuert wird. Die Sonne bestimmt demnach ganz allein den Temperaturgang auf der Erde, oder wie Herr Dr. Gunter Tiersch am 09.11.2011 in seiner Wettervorhersage so trefflich bemerkte: „Ohne die Sonne geht gar nichts“. Irgendwelche Treibhausgase spielen erkennbar keine Rolle, so dass anhand der solaren Aktivität auch eine Aussage getroffen werden kann, wohin sich die Erdtemperaturen bewegen werden. An dieser Stelle sind wir bei den Polarlichtern in München angelangt, die Ende Oktober zu sehen waren.

Polarlichter werden bekanntlich durch den Sonnenwind ausgelöst, wenn dieser auf die oberen Schichten der Erdatmosphäre trifft und dessen geladene Teilchen vom Magnetfeld der Erde entlang deren Bahnen beschleunigt werden und dadurch die dortigen Teilchen der Atmosphäre ionisiert werden. So beruht die grüne Farbe von Polarlichtern vom ionisierten Sauerstoff der Atmosphärenschichten. In unseren Breiten sind Polarlichter äußerst selten und ausschließlich bei starker solarer Aktivität sichtbar. Die Meldung zeigt also, dass die Sonne gegenwärtig äußerst aktiv sein muss. D.h. erhöhte Energiemengen zur Erde gelangen, was nicht ohne direkten und indirekten Einfluss auf unser Wetter bleibt. Wie stark die indirekten Einflüsse der Sonne sind, wurde jüngst am CERN in einer aufwendigen Versuchsreihe bestätigt. Der Einfluss basiert auf dem Svensmark-Effekt und hat unmittelbar Auswirkungen auf die Wolkenbildung. Kurz zusammengefasst:

Bei starker solarer Aktivität – geringe Wolkenbildung (viel Sonneschein) und bei

schwacher solarer Aktivität – starke Wolkenbildung.

Abbildung 10 zeigt die solare Aktivität im 23. und im gegenwärtigen 24. Aktivitätszyklus der Sonne, fachlich, Schwabe-Zyklus. Abbildung links den Stand Oktober 2011 und Abbildung rechts, November 2011. Im April 2011 stieg beispielsweise der 10,7 cm radio flux, der direkt die solare Aktivität, gemessen von der Erde aus, wieder gibt, um 25%. Zwischen August und September gar um 33% (Abbildung 11). Wie den obigen Abbildungen (Quelle: NASA) zu sehen, steigt seit etwa September 2011 die solare Aktivität stark an (jeweils linker Pfeil). In den vorherigen beiden Jahren, als weite Teile unseres Planeten unter einem strengen und schneereichen Winter ächzten, hatte die solare Aktivität ihren Tiefpunkt. Da die NASA ihre Trendkurven (weiße, durchgezogene Linien) der jeweiligen, tatsächlichen solaren Aktivität anpasst, sieht es so aus, dass sich die solare Aktivität zum Vormonat nicht änderte (rechter Pfeil jeweils auf gleicher Höhe zur aktuellen Aktivität). Dies ist jedoch nicht so, wie der Vergleich mit der Ordinate zeigt.

Abbildung 11 zeigt den 10,7 cm radio flux der Sonne, gemessen auf der Erde von Januar 2000 – Anfang November 2011, Quelle: (http://www.solarcycle24.com/). Im April 2011 stieg er um 25% und im September gar um 33%. In Verbindung des Einflusses der magnetischen Aktivität der Sonne (Sonnenwind) auf die Wolkenbedeckung, ist hier eine „heiße“ Erklärung zu finden, warum die Sonnenscheindauer im Frühjahr so hoch war und dann wieder im sog. „Altweibersommer“. Da die Wellenlänge des 10,7 cm radio flux der Sonne zwar in direkterem Zusammenhang mit der Sonnenaktivität als die Sonnenfleckenzahl steht, aber aufgrund der langen Wellenlänge in diesem Bereich nicht in der Lage ist, direkten oder indirekten Einfluss auf die Atmosphäre zu nehmen, muss zusätzlich der Röntgenfluss der Sonne betrachtet werden, wie dieser sich ändert. Hier ist erstaunliches festzustellen (Abbildung 12).

Abbildung 12, Quelle: (http://sidstation.loudet.org/solar-activity-en.xhtml) zeigt den Röntgenfluss von Januar 1994 – November 2011. Obwohl die Sonnenfleckenzahl, als auch der 10,7cm radio flux im Vergleich zum Vorgängerzyklus (Abbildung 10 und 11) deutlich niedriger sind, ist die Sonne im Röntgenbereich derzeit fast so aktiv wie im Maximum des 23. Sonnenzyklusses, d.h. nichts anderes, als dass die Sonne derzeit die Erde fast so stark vor der kosmischen Strahlung abschirmt (Röntgenfluss steht wiederum im direkten Zusammenhang mit dem Partikelstrom der Sonne*)), wie in den Hochzeiten des 23. Sonnenzyklusses. Nach Svensmark und CERN bedeutet dies wiederum nichts anderes, als dass derzeit signifikant (das CERN spricht in Verbindung zum Svensmark-Effekt von einem Faktor bis zu 10) weniger Kondensationskeime für Wassertropfen und damit Wolken entstehen, als z.B. vor 1 Jahr, womit sich der Beantwortung der Frage genähert wird, warum 2011 zu den Vorjahren so sonnenreich ausfällt.

*) Abbildung 12 b zeigt die heliosphärische Stromschicht (Quelle: Stanford University, siehe http://www.eike-klima-energie.eu/news-anzeige/teil-4b-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/), die ein direktes Maß für die Aktivität der Heliosphäre und damit der Sonne und ihres Sonnenwindes ist.

Abbildung 13 zeigt die (optische) Ursache, sowohl für die stark ansteigende magnetische solare Aktivität im 24. Sonnenzyklus, als auch für die Polarlichter über München. Rechts ist die Sonnefleckengruppe zu sehen, in deren Zusammenhang die starke magnetische Aktivität der Sonne auftrat, die dann die Polarlichter über München verursachte. Dazu im Größenvergleich die Erde (Pfeil). Mitte und rechts sind zwei Vergleichsonnenfleckengruppen zu sehen, die auftraten, als die Sonne in ihrem Vorgängerzyklus (23. Sonnenzyklus) ihr Aktivitätsmaximum hatte. 2003 hatte darüber hinaus der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries-Suess-Zyklus sein 200-jähriges Maximum. Er wird deshalb Hauptsonnenzyklus genannt, weil die Datenanalyse (Fourier-Analyse) der Wolf-Zahl (Sonnenfleckenzahl) dort die stärkste Periode ergibt.

Anfang November 2003 war in der Weltpresse zu lesen, dass die Sonnenaktivität der ver-gangenen Tage bereits rekordverdächtig war und die neue Eruption (basierend auf der Fleckengruppe, Abbildung oben Mitte) alle bisherigen noch übertrifft. Sie hatte einen Wert von größer X 20 (Mega-Flares werden mit einem “X“ bezeichnet und die Stärke der Eruption mit einer Zahl angegeben) und ging von der Region 10486 (Sonnenfleck) aus. Eine X20-Flare hatten die Astronomen bislang nur am 04. April 2001 (basierend auf der Fleckengruppe, Abbildung oben links) beobachten können. Dies zeigt deutlich den Zusammenhang des de Vries/Suess-Zyklus und der Sonnenaktivität. Die NASA sagt hierzu 2003, dass die jetzige Aktivität der Sonne alle Eruptionen des vergangenen Jahrtausends übertrifft (siehe auch Abbildung 15).

Abbildung 14: Anhand der Fourier-Analyse, Quelle: Orgutschov et al., werden in der Sonnenfleckenzahl verschieden Perioden sichtbar. Die dominanteste ist die 205-Jahres-Periode, was dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus entspricht. Darüber hinaus eine 85-Jahres-Periode, der Gleißberg-Zyklus, eine 60-Jahres-Periode (Landscheidt-Zyklus) und die 1.020-Jahres-Periode.

4. „keine Entwarnung“

Der Hauptsonnenzyklus hat in 2003 sein Aktivitätsmaximum erreicht, übrigens stieg er parallel zu den Globaltemperaturen der Erde und seitdem fällt er, wie auch die Erdtemperaturen, bis er in etwa 100 Jahren sein Minimum erreichen wird. Da alle solaren Zyklen periodisch auftreten (warum dies so ist, hat der Autor in seiner vorgenannten Reihe zur Sonne dargelegt) und jedes Mal ihren unverkennbaren Fingerabdruck (Abbildung 15) in den Erdtemperaturen hinterlassen, lässt sich daraus unmittelbar auf die Temperaturentwicklung der Erde schließen.

Abbildung 15 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus. Nach jedem Hauptsonnenzyklus fallen zudem die Temperaturen deutlich.

In Deutschland interessiert natürlich die heutige und die zukünftige Wetter-, bzw. Klimaentwicklung. Leben wir wirklich in einer Zeit der Wetterextreme, wie Herr Müller-Westermeier und der DWD uns glauben machen wollen. Hierzu soll ein Blick auf Langzeittemperaturreihen geworfen werden, die wenig WI-behaftet und damit als Vergleichsaussage geeignet sind. Der Autor hat sich in seinem EIKE-Beitrag „Dynamisches Sonnensystem – Die wahren Hintergründe des Klimawandels, Teil 8“ (http://www.eike-klima-energie.eu/news-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/) anhand der solaren Aktivitätszyklen, historischer Vergleiche und durch Heranziehen sonnenähnlicher Sterne, der Beantwortung der Frage genähert, wohin die zukünftige Klimaentwicklung geht, Auszug:

Abbildung 16, Quelle: (http://www.lanuv.nrw.de/luft/wirkungen/klima_grundlagen.htm) zeigt den Temperaturgang des Hohenpeißenberg von 1781-1995 nach Fricke 1997. Die rote Linie markiert den Zeitpunkt, an dem der Hauptsonnenzyklus sein Maximum hatte.  Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen noch stark zwischen warm und kalt (rote Fläche). Bis zu dessen Minimum sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein Minimum und steigen dann kontinuierlich an (schwarze Balken).

Abbildung 17: Temperaturgangreihe Zentralenglands von 1659 – 2000 (alle nicht eigens angegebene Zeitreihen, Prof. Ewert, EIKE). Mit seinem ausgeglichenen Seeklima zwischen Atlantik und Nordsee nimmt England sicherlich eine Sonderstellung ein. Dies zeigt sich, dass hier die „grüne“ Phase von der „roten“ Phase nicht so stark differiert, wie in Mitteleuropa. Aber auch hier ist das Muster, trotz der Moderation durch den Ozean, vorhanden. Die Temperaturgangreihe ist interessant, weil sie bis 1659 zurückreicht und damit an einem weiteren Hauptsonnenzyklus gespiegelt werden kann (Maximum um 1590). Während der Epoche der Kleinen Eiszeit zeigt sich auch hier deutlich das typische Temperaturgangmuster.

Sogar in unseren Großstädten, deren Messstation, je nach Lage, stärkeren WI-Einflüssen des Menschen unterliegen, zeigt sich das markante Temperaturgangmuster nach einem Hauptsonnenzyklus.

Abbildung 18: Temperaturgangreihe von Berlin-Dahlem von 1701 – 2008 mit den gleichen Merkmalen.

Abbildung 19: Ebenfalls das gleiche Bild bei der Temperaturgangreihe München im Zeitraum von 1781 – 1991.

Fazit

Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungsbreiten zwischen warm und kalt, wie wir es übrigens auch gegenwärtig wieder erleben, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert. Im eingeschwungenen Zustand (z.B. Kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau.

Obwohl die Untersuchung anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering ist, um eine abschließende Aussage treffen zu können, sie zeigt jedoch, dass starke Temperaturschwankungen, was der DWD Extremereignisse nennt, zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen.

Anhand des derzeit ansteigenden 24. Sonnenzyklus (in den beiden Vorjahren war die Sonne sehr inaktiv) sollten die damit verbundenen direkten und indirekten Einflüsse der Sonne dafür „sorgen“, dass der kommende Winter nicht so kalt werden wird, wie die beiden Vorgänger. Der Autor wagt diese Prognose, weil er „tiefstes Vertrauen“ in unsere Sonne und deren Einfluss auf unser Wetter/Klima hat.

Da auch der DWD in seinem Bericht wieder die Angsttrommel („keine Entwarnung“) schlägt, möchte der Autor nicht versäumen, unseren Lesern einen Überblick zu geben, wie und wo das derzeitige Temperaturniveau einzuordnen ist.

Abbildung 20 (http://joannenova.com.au/2010/02/the-big-picture-65-million-years-of-temperature-swings/) zeigt den Temperaturgang der letzten 10.000 Jahre. In der Vergangenheit gab es deutlich wärmere Jahre, mit z.B. daraus resultierender geringerer Eisbedeckung, als wir dies gegenwärtig erleben.

Insgesamt lässt der von Herrn Müller-Westermeier vorgetragene Klimabericht darauf schließen, dass der DWD bemüht ist, die von Politik und IPCC vorgegebene Mainstreamlinie nicht zu verlassen. Zu wissenschaftlicher Erkenntnis ist so nur schwer zu gelangen. Der DWD hat sich damit ein weiteres Mal als seriöse, der Wissenschaft verpflichtete Institution verabschiedet. Dies wird besonders in folgendem Satz deutlich: „Wir konnten dort 2010 Häufigkeiten extremer Niederschläge erleben, wie sie Mitte oder Ende des Jahrhunderts durch den Klimawandel in Deutschland zur Regel werden könnten.“ Dies hat nichts mit einer seriösen Prognose zu tun, sondern einzig mit einer nicht begründeten und nicht belegten Vermutung, die beim Zuhörer Ängste auslösen, der Presse eine reißerische Schlagzeile verschaffen und die Politik in Zugzwang (oder Argumente liefern soll) setzen soll. Ohne wissenschaftlichen Kontext zu Aktuatoren, die unser Wetter beeinflussen (Sonne), können heutige Wetterereignisse nicht einfach in die Zukunft übertragen werden, dann könnte man den DWD gleich abschaffen und das heutige Wetter am 11.11.2011, auf das Wetter am 11.11.2012 übertragen. Jeder erkennt sofort, dass dies nur ein Faschingswitz ist, wie auch die obige Aussage von Herrn Müller-Westermeier.

Herr Müller-Westermeier hat sich und den DWD mit seiner Aussage in die Reihe der Vermutungswissenschaftler gestellt, wie die Welt sie bisher vom PIK oder dem IPCC kennt. Um wieder auf den Pfad der Seriosität zu gelangen, empfiehlt der Autor den DWD-Verantwortlichen, ein Benchmark dort vorzunehmen, wo Wissenschaft nicht einem Mainstream untergeordnet wurde und damit ihren Charakter von Wahrheitsfindung, Objektivität und Realitätsnähe bewahren konnte. Ein solcher Wissenschaftszweig ist z.B. die Mutter aller Wissenschaften, wenn der Autor sie einmal so nennen darf, die Astronomie und als Teilgebiet der Astronomie und der Astrophysik, insbesondere die Sonnenforschung. Herr Müller-Westermeier und der DWD werden überrascht sein, wie viel praktische Anwendung sich daraus für das Verständnis unseres Wetters und Klimas auf der Erde ergeben…

In Durban werden einmal mehr unsere Steuergelder verschleudert. Dieser Gipfel wird das Klima auf der Erde nicht schützen können, schon allein deshalb nicht, weil es nicht geschützt zu werden braucht. Aber vielleicht hilft das gezeigte angenehme Ambiente, das Klima unserer Politiker und Bürokraten zu verbessern und was tut der Bürger nicht alles, um seine Politiker und Bürokraten bei Laune zu halten, ist er beiden doch allzu oft hilflos ausgeliefert, wenn auch der ersten Gruppe nur für vier Jahre. Allerdings ist in unserem Land zu befürchten, dass es dann nur noch schlimmer kommen kann. So bleibt einzig, sich aufzuschlauen, das gewonnene Wissen weiter zu vermitteln und in unserer Bevölkerung für Aufklärung zu sorgen. Dass dies ein langer, aber letztendlich erfolgreicher Weg ist, muss klar sein. Auch Martin Luther konnte unsere Bevölkerung nicht über Nacht von den kirchlichen Irrlehren seiner Zeit befreien. Da von unseren Bürokraten und Politikern kein Wissen zu erwarten ist, ist EIKE hierzu in unserm Land die erste Adresse.

Raimund Leistenschneider – EIKE

Related Files




Verschwendung: Anstatt Unsummen für den ‚Klimawandel’ auszugeben hätte man damit lieber Leben retten sollen

Aber die meisten Regierungen und Wohltätigkeitsorganisationen von heute tun genau das Gegenteil. Sie versuchen mit allen Kräften, die Klimaaktivisten zu besänftigen – die sich anscheinend mehr Sorgen über die möglichen Nöte von Menschen machen, die erst noch geboren werden müssen als über jene, die heute schon leiden – obwohl Millionen Menschen in den ärmsten Gebieten der Welt schon heutzutage zu einem Leben in Armut und einem frühen Tod verdammt sind.

Die kanadische Regierung stellt eine generös erscheinende Summe von 142 Millionen Dollar für Opfer von Dürre und Hunger in Ostafrika zur Verfügung. Australien hat für diese Zwecke über 103 Millionen Dollar ausgegeben. Das ist mit Sicherheit mehr Geld als China oder Saudi-Arabien dazu beitragen – letztere gerade am Roten Meer gegenüber des Katastrophengebietes. Aber diese Summen verblassen im Vergleich zu den Summen, die Kanada und Australien aufbringen, um das durch und durch freiwillige Engagement bzgl. des Klimawandels nach der Konferenz in Kopenhagen zu erfüllen. Australien wandte 599 Millionen Dollar und Kanada 1,2 Milliarden Dollar zwischen 2010 und 2012 auf.

Beide Nationen haben bereits das erste Drittel dieser Verpflichtung gespendet, eine Summe, die fast genau dem Defizit entspricht, dass dem Fonds zur Dürrehilfe am Horn von Afrika fehlt, einem Defizit, das zum Tod von Hunderttausenden Menschen führen kann, wenn es nicht behoben wird.

Das Abkommen von Kopenhagen hatte festgelegt, dass die Beiträge 50 zu 50 aufgeteilt werden sollten zwischen Hilfen für die Menschen, sich an den Klimawandel anzupassen und dem Stoppen (oder ‚Abschwächen’) des Klimawandels. Australien folgt im Allgemeinen dieser Formel, aber Kanada hat 90% der ersten 400 Millionen Dollar ganz der Abschwächung gewidmet.

Diese unangemessene Konzentration auf die Abschwächung einer hypothetischen, vom Menschen verursachten gefährlichen Erwärmung, die sogar erst noch gemessen werden muss, geht auf Kosten dringend benötigter Hilfe für die verletzbarsten Menschen der Welt. Zum Beispiel hat die ClimateWorks Foundation – eine amerikanische Gruppe von Klimaaktivisten, die der Allianz von Al Gores Klimakreuzzug Millionen gespendet hatte – über 500 Millionen Dollar von Wohltätigkeitsorganisationen empfangen, als sie sich 2008 formierte. Dies war zweimal so viel wie die Beiträge zur Weltgesundheitsorganisation und über siebenmal mehr, als sie an UNICEF in jenem Jahr gespendet hatten.

Während der letzten beiden Jahrzehnte bis 2009 hat die US-Regierung insgesamt 68 Milliarden Dollar für die Klimaforschung und die Entwicklung klimabezogener Technologien ausgegeben. Weltweit wird geschätzt, dass die westlichen Länder allein mindestens 10 Milliarden Dollar jährlich (2009) in Forschungen und politische Maßnahmen mit Bezug zur globalen Erwärmung gesteckt haben.

Es wurden nicht bekannte Summen von Körperschaften für Maßnahmen zur Reduktion von Treibhausgasen ausgegeben; Kosten, die fast vollständig auf den Verbraucher umgelegt worden sind.

Am 27. Oktober veröffentlichte die Climate Poliy Initiative einen Bericht (hier), der zeigt, dass mindestens 97 Milliarden Dollar pro Jahr für die „Klimafinanzen“ aufgewendet werden. Tragischerweise werden nur 4,4 Milliarden davon – etwa 5% – dafür ausgegeben, Ländern und Gemeinden zu helfen, sich an den Klimawandel anzupassen.

Während all dem bleiben Hilfsorganisationen drastisch unterfinanziert, selbst inmitten der schlimmsten Hungersnot in Ostafrika seit Jahrzehnten. Entwicklungsländer sind dem Druck durch Umweltaktivisten ausgesetzt, durch Medien und die UN, um unpraktikable „klimafreundliche“ Energiepolitik zu machen, die sich selbst entwickelte Länder gar nicht leisten können. Gleichzeitig haben Millionen Menschen in der Welt keinen Zugang zu Strom, Frischwasser und grundlegenden sanitären Anlagen.

Und was bekommt die Welt als Belohnung für dieses Opfer?  Falls die Wissenschaft, auf die sich die Regierungen und die UN berufen, korrekt wäre und alle Länder der Welt ihren Verpflichtungen aus dem Kyoto-Protokoll nachgekommen wären, könnte bis 2050 eine Erwärmung um etwa 0,05°C verhindert werden. Mit anderen Worten, Billionen Dollar Ausgaben werden für eine Auswirkung auf das Klima verschwendet, die noch nicht einmal messbar ist.

Klarer Fall, es ist viel Zeit vergangen, um einen gänzlich unterschiedlichen Weg zur Begegnung der Klimabedrohung zu gehen. Wir müssen den Pfeil herausziehen, die wirkliche Wunde behandeln und mehr über den vermeintlichen Angreifer zu einem späteren Zeitpunkt lernen.

Trotz des gezeigten Scheiterns der Hypothese von der gefährlichen anthropogenen globalen Erwärmung gibt es ein sehr reales Klimaproblem, das wirklich existiert. Es ist das fortgesetzte Risiko, dass sich aus den natürlichen Klimavariationen ergibt. Dies schließt kurzzeitige Ereignisse wie Überschwemmungen und Zyklone ein, mittelfristige Ereignisse wie Dürren und langfristige Ereignisse wie Erwärmung und Abkühlung. 

Dass solche Klimaänderungen natürlichen Ursprungs sind, bedeutet natürlich nicht, dass sie gutartig oder freundlich sind. Seit dem Ende der letzten großen Eiszeit, als der Meeresspiegel über 100 Meter tiefer lag als heute und kilometerdicke Eisschilde Kanada, die nördlichen USA und Nord-Eurasien unbewohnbar gemacht hatten, erfolgten Erwärmungs- und Abkühlungsphasen viele Male schneller als unsere Änderungen während des 20. Jahrhunderts. Selbst wenn erst in den zwanziger Jahren des vorigen Jahrhunderts die „mittlere jährliche Temperatur“ zwischen 2 und 4°C gestiegen war (und bis zu 6°C im Winter) in weniger als 10 Jahren – an Wetterstationen in Grönland.

Solche natürlichen Änderungen haben ernste Auswirkungen auf die menschliche Gesellschaft. Vom Untergang der robusten Wikinger auf Grönland bis zum plötzlichen Verschwinden der Moche- und Tiwanaku-Zivilisationen im Peru der Vor-Inka-Zeit ist die Geschichte übersät mit Beispielen, was passiert, wenn Gesellschaften unvorbereitet auf Klimaänderungen sind oder sich nicht anzupassen vermögen.

Selbst wenn Zivilisationen nicht infolge extremen Wetters und Klimas völlig zusammenbrechen, folgen doch oft große Schwierigkeiten. Man betrachte die Härten und den Hunger in Europa während der extremsten Phasen der Kleinen Eiszeit von 1250 bis 1875 sowie das ähnlich gelagerte Staubschüsselereignis in Amerika. Oder was ist mit dem verheerenden Eissturm von 1998, der weite Gebiete Ostkanadas und der nordöstlichen USA paralysierte?

Wir müssen uns auf solche Ereignisse vorbereiten, indem wir die Infrastruktur einer Gesellschaft verbessern, und zwar durch Aktivitäten wie dem Vergraben von Überlandleitungen unter der Erde. Wäre das die Norm gewesen, hätte der heftige Schneesturm vom Oktober dieses Jahres nicht zu den großräumigen Stromausfällen geführt.

Genauso müsste der Südosten von Australien „wasserdicht“ gemacht werden, wo zukünftig aus natürlichen Gründen ungewöhnliche Dürreperioden erwartet werden – weitgehend unabhängig von irgendwelchen  menschlichen Ursachen. Dies könnte bewerkstelligt werden, indem man Frischwasser in das Murray-Darling-Becken aus nördlichen Flüssen pumpt, durch das Recycling von Abwasser, durch den Bau neuer Rückhaltedämme oder Entsalzungswerke und durch Prävention der Wasserverschwendung durch Verdunstung und Lecks in den Bewässerungssystemen.

Keine Frage, Maßnahmen zur Anpassung an Klimaänderungen können teuer sein. Aber anders als die heutigen vollständig nutz- und sinnlosen sowie sogar noch teureren Versuche, das Weltklima daran zu hindern, sich zu ändern, werden nur Ausgaben zur Vorbereitung auf und Anpassung an Klimaereignisse die Gesellschaft auf einen sichereren Weg hin zu einer wohlhabenden Gesellschaft für zukünftige Generationen führen.

Und vielleicht können einige der Milliarden Dollar, die wir nicht auf zukünftige Abschwächung verschwenden, stattdessen aufgewendet werden, um Bevölkerungen zu helfen, die schon jetzt am Rande des Überlebens stehen.

Für die hieb- und stichfeste Wirklichkeit brauchen alle Länder finanzielle Ressourcen, um mit den natürlichen Bedrohungen durch Klimagefahren umzugehen, die die Natur unvermeidlich weiterhin für uns bereithält.

Tom Harris ist geschäftsführender Direktor der International Climate Science Coalition (ICSC).

Dr. Robert M. Carter ist außerordentliches Forschungsmitglied  an dert James Cook University, Australien, und ein Leitautor des Zustandsberichtes  2011 des Nongovernmental International Panel on Climate Change (NIPCC). Zudem ist Carter seit langem Mitglied des EIKE Fachbeirates.

Link: http://pjmedia.com/blog/wasted-%E2%80%98climate-change%E2%80%99-cash-could-save-lives-instead/?singlepage=true

Übersetzt von Chris Frey für EIKE




Anscheinend kein Nutzen von Windparks

Anscheinend kein Nutzen von Windparks

Die EU-Staaten haben im Juni 2010 nationale Aktionspläne verabschiedet, sind aber die Beantwortung von zwei Fragen schuldig geblieben:
1. Wie viel Treibhausgasemissionen- werden im Einklang mit dem EU-Ziel einer 20-prozentigen Verminderung im Jahre 2020 eingespart?
2. Was werden die Bürger für die Umsetzung dieser Politik zu zahlen haben? [1]

Die Plattform vermutet einen Verstoß gegen die Aarhus-Konvention für Menschen- und Umweltrechte, die von der Wirtschaftskommission der UN für Europa abgeschlossen wurde und Bestandteil des geltenden Europäischen Rechts ist. [2]

EPAW meint, dass es politisch völlig unverantwortlich ist, Milliarden und Abermilliarden von Steuerzahler-EUROs in “Grüne Investitionen” zu pumpen, ohne dass zuvor durch Machbarkeitsstudien die erwarteten eingesparten CO2-Emissionen nachgewiesen worden sind.

“Schließlich ist das Ziel dieser gigantischen Investitionen doch, weniger fossile Primärenergieträger einzusetzen,” sagte der Geschäftsführer von EPAW, Mark Duchamp. "Dabei stehen auf der Negativ-Seite 3 bis 5 verlorene Arbeitsplätze jedem neu geschaffenen gegenüber [3]. Die wirtschaftliche Erholung in der EU wird abgebremst, der EURO wird gefährdet, das touristische Potential unzähliger Natur- und Kulturdenkmäler wird zerstört, Eigentum im Wert von Milliarden von EUROs wird entwertet, die Gesundheit der in der Nachbarschaft von Windfarmen wohnenden Bevölkerung wird gefährdet (Lärm und Infraschall), Vogel- und Fledermausarten werden ausgerottet, usw.“

EPAW bemerkt derzeit ein Aufwachen des Volkes, dem langsam dämmert, dass die Windfarmen vielleicht überhaupt keine Einsparungen bei den verbrannten fossilen Primärenergieträgern und dem ausgestoßenen CO2 leisten. Die Windfarmen mit ihrer sporadischen Stromerzeugung erzwingen das Vorhalten von fossil befeuerten Reservekraftwerken für Zeiten, wo der Wind nicht richtig bläst. Im stop-and-go Betrieb verbrauchen sie viel mehr Brennstoff – genauso, wie ein Auto im Stadtverkehr mehr verbraucht als auf der Autobahn. Duchamp erinnert daran, dass  "die spanische Regierung doch tatsächlich 2010 über eine Milliarde Euro an die Kraftwerksbetreiber auszahlte, um sie für den entgangenen Umsatz infolge der Wind- und Sonnenenergieeinspeisung zu entschädigen."

Die Plattform empfiehlt den "Bentek Report" zu Lektüre [4]. Dieser zeigt, dass Windparks viel weniger CO2 einsparen, als von der Wind-Industrie, den Regierungen und grünen Aktivisten behauptet wird,  wenn die erhöhten Emissionen aus dem Ergänzungsbetrieb der Reservekraftwerke einbezogen werden.

Zsätzlich zu den durch den fossilen Reservebetrieb verminderten Einsparungen wirken noch folgende CO2-Emissionen negativ: Emissionen aus fossil befeuerten Kraftwerken für Herstellung, Transport und Wartung der Windturbinen und ihrer Stromübertragungsnetze; Verlust der Oxidationsgewinne aus Torf in Ländern wie UK und Irland, Verlust von CO2-Senken und CO2-Speicher in Form von Mooren, Wäldern, sonstiger Vegetation, die vom großen Fußabdruck der Windparks zerstört werden; Transportverluste durch die längeren Strom-Übertragungswege zum Verbraucher. Wenn man all das von den mageren Einsparungen abzieht, dann könnte sich zeigen, dass die Gesamteinsparung von CO2 und anderen Gasen tatsächlich negativ ist – d.h. Windparks führen zu stärkerem Einsatz von fossilen Brennstoffen und erhöhen die CO2-Emissionen um einige Prozent-Punkte.
Auch eine europäische Studie von Dr. Udo kommt zu diesen Schlussfolgerungen. [5]

EPAW betont, dass der massive Ausbau von Windparks in Ländern wie Dänemark und Deutschland zu keiner messbaren Verminderung der CO2-Emissionen oder des Einsatzes von fossilen Brennstoffen geführt hat.

Der irische Stromnetzbetreiber EIRGRID zeigt auf seiner Webseite echte Daten zur Wind- und Energieerzeugung und den CO2-Emissionen in Europa. Daraus lassen sich ähnliche Schlüsse ziehen.

Der im Ruhestand lebende Dr. Fred Udo, ehemals verdienter Ingenieur am CERN in Genf, hat eine Studie zu den EIRGRID – Daten durchgeführt. Auch seine Schlussfolgerungen setzen ein Fragezeichen hinter den angeblich großen Nutzen der Windenergie. [5]

Die North American Platform Against Windpower (NA-PAW) schließt sich dem an. Ihr Geschäftsführer Sherri Lange sagte: "In Nordamerika vermißt man bezeichnenderweise in politischen Strategiepapieren Studien über den Nutzen dieser Energieform. Wie auch in anderen Angelegenheiten folgt die US-Regierung blind den einflußreichen Lobbyisten, den Grünen Aktivisten und den Interessenvertretern der Wind-Industrie. Das ist nicht der richtige Weg für eine saubere Politik."

Kontakte:
Mark Duchamp     +34 693 643 736   (Spain)   Skype: mark.duchamp 
CEO, EPAW     www.epaw.org

save.the.eagles@gmail.com

Sherri Lange       +1 416 567 5115 (Canada) 

CEO, NA-PAW   www.na-paw.org

kodaisl@rogers.com

Referenzen: Anm. d. Ü.: die Referenzen wurden im Originaltext belassen, weil der ins Detail gehende Leser ohnehin Englisch lesen muss.

[1] – EU National Renewable Energy Action Plans: 19 of the 27 countries have left in blank the assessment of estimated costs and benefits of their renewable energy policy support measures, including expected GHG reduction and job creation (Article 5.3). The others have been fudging the issue.

http://ec.europa.eu/energy/renewables/doc/nreap__adoptedversion__30_june_en.pdf

Here is the case of Belgium: No such assessment was carried out in the framework of this plan."

http://ec.europa.eu/energy/renewables/transparency_platform/doc/national_renewable_energy_action_plan_belgium_en.pdf

And the case of Scotland:" Table 4.1 lists those environmental topics for which data has not been practical to obtain and provides a summary of the approach taken to address the issue.

Box 4.1 SEA Objectives

– Biodiversity, fauna and flora: Avoids damage to, and seek to enhance, designated sites and protected species?

– Conserves and enhances Scotland’s natural heritage?

– Population: Safeguards or enhances the living environments of communities?

– Protects the noise environment of communities?

– Human health: Has no adverse impact on human health?

– Soil: Protects or enhances the quality of soils?

– Water: Protects the water environment?

– Air: Reduces pollution or emissions to air generated by the energy sector and protects air quality?

– Climate factors: Reduces emissions of greenhouse gases, including CO2?

– Material assets: Reduces the proportion of wastes disposed of to landfill?

– Protects Scotland’s assets of economic and recreational value, including those of importance for the tourism industry?

– Reduces/minimises the use of natural resources in the energy sector?

– Cultural heritage: Protects, conserves and enhances, where appropriate, Scotland’s historic environment (including the setting of listed buildings and Scheduled Ancient Monuments)?

– Landscape: Respects and protects the character, diversity and special qualities of Scotland’s landscape?"

http://scotland.gov.uk/Publications/2006/08/14102833/9

In the words of Pat Swords, Fellow of the Institution of Chemical Engineers and a Chartered Environmentalist: "All that expenditure and impact on the landscape and biodiversity for a question mark!"

[2] – Pat Swords takes the EU energy plan to the UNECE Compliance Committee for violations under the Aarhus Convention http://live.unece.org/fileadmin/DAM/env/pp/compliance/C2010-54/Correspondence%20with%20communicant/toCommC54_invitation2discussion.pdf

[3] – Green jobs destroy other jobs: http://brunoleonimedia.servingfreedom.net/WP/WP-Green_Jobs-May2010.pdf

http://www.juandemariana.org/pdf/090327-employment-public-aid-renewable.pdf

http://www.thegwpf.org/press-releases/3773-top-economist-warns-green-jobs-creation-will-undermine-recovery.htm l

[4] – The Bentek Report: "The research in this report, however, suggests that wind energy, as it has so far been developed by PSCO in Colorado and by numerous utilities in ERCOT, has had minimal, if any, impact on CO2, yet has lead to a significant increase in SO2 and NOX". http://www.bentekenergy.com/documents/bentek_how_less_became_more_100420-319.pdf

[5] – The (Dr) Fred Udo study: "The consequence is that an investment of billions of Euros in wind turbines produces not more than a few per cent reduction in CO2 output.

This analysis does not take into account the energy necessary to ramp the conventional generators up and down nor the energy to build wind turbines nor the extra transmission lines with their additional losses.

It is highly probable, that taking all these effects into account will show, that the few per cent gain in CO2 will revert to a loss (i.e. an increase in CO2)."

http://www.epaw.org/documents.php?lang=es&article=backup11

Übersetzung: Helmut Jäger, EIKE




Was die BEST-Daten tatsächlich sagen

Nachdem die BEST-Leute ihre 15 Minuten Ruhm eingefordert und auch bekommen haben, bevor ihre Ergebnisse begutachtet worden waren; nachdem sie erfolgreich viele Leute davon überzeugt haben, dass Muller ein Skeptiker ist und BEST irgendwie ‚bewiesen hat, dass die Skeptiker unrecht haben’; nachdem sie zu ihrer Wildnis der natürlichen wissenschaftlichen Umgebung zurückgefunden haben, weit entfernt von der Reichweite der Photographen von National Geographic und Leuten, die wirkliche Fragen stellen; nach all dem dachte ich mir, dass ich mir selbst mal die Daten ansehen sollte. Medienenten sind immer vorhersagbar und langweilig, aber Daten sind immer für Überraschungen gut. Sie können hier heruntergeladen werden, aber bitte übersehen Sie nicht, dass sie nicht die aktuellen Daten dort zeigen, sondern geglättete Daten. Ihre nicht geglätteten monatlichen Daten sehen so aus:

Abbildung 1 (rechts): Schätzungen der globalen Temperatur durch BEST. Graue Balken zeigen die 95%-Bandbreite für jeden Datenpunkt.

Ich weiß nicht, wie es Ihnen geht, aber Abbildung 1 ließ mich sofort an die wiederholten Behauptungen von Michael Mann denken, wonach die Temperaturen der neunziger Jahre die wärmsten seit eintausend Jahren waren.

Was ich aus den BEST-Daten herauslese

Ungewissheit

Ich stimme William Briggs und Doug Keenan zu, dass die “Unsicherheitsgrenzen zu klein sind”. Lesen Sie hierzu, was die beiden geschrieben haben (hier, auf Deutsch bei EIKE hier)

Mir kamen Manns Behauptungen in den Sinn, weil ihre Ergebnisse selbst mit der engen Unsicherheitsgrenze zeigen, dass wir nur sehr wenig wissen über relative Temperaturen während der letzten zwei Jahrhunderte. Zum Beispiel können wir mit Sicherheit nicht sagen, dass die gegenwärtigen Temperaturen höher liegen als je vor 1945. Die Unsicherheitsgrenzen überlappen sich, daher wissen wir nicht, ob beispielsweise das Jahr 2010 wärmer war als 1910. Es scheint so zu sein, aber um sicher zu gehen… aber wir haben keine Beweise, um das zu stützen.

Und das bedeutet natürlich, dass Manns Behauptungen über ‚das Wärmste seit Millionen Jahren’ oder was auch immer, bis heute in keiner Weise stichhaltig sind. Wir können mit Hilfe von Thermometeraufzeichnungen nicht sagen, ob es jetzt wärmer ist als ein Jahrhundert zuvor. Wie können ein paar Bäume und Muschelschalen uns mehr sagen als Dutzende von Thermometern?

Diskrepanzen mit Satellitenbeobachtungen

Die BEST-Leute sagen, dass in ihrer Analyse kein städtischer Wärmeinseleffekt (UHI) erkennbar ist. Ihre tatsächliche Behauptung lautet: „städtische Erwärmung verzerrt die Schätzungen über kürzliche globale Temperaturänderungen nicht“. Hier folgt ein Kommentar von der NASA, der darauf hindeutet, dass es sehr wohl eine Verzerrung gibt. Hervorhebung von Eschenbach.

Die eng bebaute Stadt Providence zum Beispiel weist Temperaturen auf, die um 12,2°C höher liegen als in der ländlichen Umgebung, während die ähnlich große, aber wesentlich aufgelockerter bebaute Stadt Buffalo lediglich eine Wärmeinsel von etwa 7,2°C erzeugt, jedenfalls nach Satellitenbeobachtungen (QUELLE).

Eine 12°C-Erwärmung in Providence, und BEST sagt, es gäbe keinen UHI-Effekt… und das ist lediglich eine Stadt.

Sollte es keinen UHI-Effekt geben, dann würde sich die Atmosphäre (allen gängigen akzeptierten Theorien zufolge) mehr erwärmen als der Untergrund. Sollte es den UHI doch geben, hätten die Bodenstationen einen aufwärts gerichteten Bias und würden sogar auf noch mehr Erwärmung hinweisen als die Atmosphäre.

Nach einer Anzahl von Anpassungen sind die beiden Satellitenaufzeichnungen von RSS und UAH ziemlich ähnlich. Abbildung 2 zeigt diese Aufzeichnungen für Temperaturen der unteren Troposphäre nur über Festland:

Abbildung 2: UAH und RSS-Temperaturaufzeichnungen aus Satellitenmessungen. Die Anomalieperiode 1979 bis 1984 = 0.

Da sie sich so ähnlich sind, habe ich sie zusammen in Abbildung 3 gemittelt, um Diskussionen zu vermeiden. Sie können die eine mit der anderen substituieren, falls gewünscht. Abbildung 3 zeigt eine Gauss-Mittellung der Daten um drei Jahre. Die letzten beiden Jahre wurden abgeflacht, um Randeffekte zu vermeiden.

Man erinnere sich, was wir zu finden erwarten würden, wenn alle Bodenmessungen korrekt wären. Sie würden alle auf oder nahe der gleichen Linie liegen, und die Temperaturdaten der Satelliten würden schneller steigen als die gemessenen Temperaturen. Hier folgen die tatsächlichen Ergebnisse, und zwar nach BEST, Satelliten, GISS, CRUTEM und GHCN:

Abbildung 3: Schätzungen der globalen Temperatur über dem Festland nach BEST, mittleren Satellitendaten und anderen Schätzungen während der Satelliten-Ära. Die Anomalieperiode von 1979 bis 1984 = 0.

In Abbildung 3 zeigt sich das Gegenteil dessen, was wir erwartet hatten. Die Landtemperaturen steigen schneller als die Temperaturen in der Atmosphäre, was im Gegensatz zur Theorie steht. Außerdem sind die BEST-Daten die schlechtesten in dieser Hinsicht.

Diskrepanzen mit anderen auf Messungen basierenden Aufzeichnungen

Die nicht vorhandene Übereinstimmung zwischen den vier Ergebnissen verlangt auch nach einer Erklärung. Man beachte, dass die Aufzeichnungen mit einer Rate von etwa 0,2°C innerhalb von dreißig Jahren divergieren, d. h. 0,7°C pro Jahrhundert. Angesichts dessen, dass dies die geschätzte Größenordnung der Erwärmung im letzten Jahrhundert ist, ist diese Differenz keineswegs trivial.

Meine Schlussfolgerung? Wir haben immer noch nicht das UHI-Problem gelöst, und zwar in keinem der Datensätze vom Festland. Ich bin froh, alternative Erklärungen der Ergebnisse aus Abbildung 3 diskutieren zu können. Sehr viele fallen mir nicht ein. Bezüglich der Bodenaufzeichnungen hat niemand die Analyse des jeweils anderen kritisch und aggressiv unter die Lupe genommen. Sie sind alle ihrem eigenen Weg gefolgt, und sie haben nicht viel miteinander geredet. Die Algorithmen der Satellitendaten jedoch wurden genauestens untersucht durch zwei sehr kompetente Arbeitsgruppen, UAH und RSS, und zwar in stark wissenschaftsfeindlicher Manier. Wie es in der Wissenschaft üblich ist, haben beide in den Arbeiten der jeweils anderen Gruppe Fehler gefunden, und nach der Korrektur derselben ähnelten sich die beiden Aufzeichnungen ziemlich genau. Es ist möglich, dass beide falsch sind, aber das erscheint unwahrscheinlich. Wenn die Leute, die sich mit den Bodenmessungen befasst hatten, das getan hätten, könnten wir noch bessere Übereinstimmung erzielen. Aber wie das mit Klimamodellen und Klimamodellierern so ist, sind sie alle zu gut erzogen, um die Arbeit der jeweils anderen in ernsthafter Weise zu untersuchen. Aber was soll’s, wenn sie das den Anderen antun würden, könnten ja die anderen Fehler in der eigenen Arbeit monieren; diese Hässlichkeiten mögen wir gar nicht – kollegiale Beziehungen – können wir nicht einfach Freunde sein und nicht zu genau hinschauen? …

P.S. – Ich erinnere noch einmal daran, dass der Hype um BEST, das zeigt, dass die Skeptiker falsch liegen, genau das ist: ein Hype. Die meisten Leute wissen schon, dass es auf der Welt seit hunderten von Jahren allgemein wärmer wird, und dass die BEST-Ergebnisse in dieser Hinsicht keine Überraschung sind. BEST zeigte nichts darüber, ob die Menschen das Klima beeinflussen und könnte das auch nie tun. Es gibt nach wie vor große ungelöste Fragen, die BEST nicht geklärt oder gelöst hat. Die Jury befasst sich mit den BEST-Ergebnissen, und das auch nur teilweise, weil sie noch nicht begutachtet worden sind.

PPS. – Oh, und noch etwas: Ganz oben beim BEST-Datensatz steht eine Note mit folgendem Inhalt:

Geschätzte absolute Temperatur von 1950 bis 1980: 7,11°C +/- 0.50.

Sieben Grad Celsius? Die Leute beim GISS geben nicht einmal ein Mittel, sie sagen nur dass es global um 14°C sind.

Die Daten von HadCRUT zeigen in etwa die gleiche Temperatur, 13,9°C, und zwar mit einem Datensatz absoluter Temperaturen im Flächenraster. Schließlich zeigt die globale Bilanz nach Kiehl/Trenberth eine Schwarzkörperstrahlung von 390 W/m², was übertragen 14,8°C ausmacht. Also dachte ich, dass dies geklärt sei, dass die mittlere Temperatur der Erde (sicher ein schwer fassbares Modell) um 14 oder 15°C liegt.

Ohne dass ein  einziges kommentierendes Wort von BEST darüber, dass BEST lediglich einen Wert von 7,1°C zeigt… was soll das? Hat irgendeiner eine Erklärung dafür? Ich weiß, dass die BEST-Temperaturen nur für das Festland gelten. Aber wenn der Globus eine Mitteltemperatur von etwa 14°C aufweist und das Land 7°C, dann bedeutet dies, dass die Temperatur über den Ozeanen um 17°C liegen muss.

Und das nehme ich nicht ab, dass der Ozean im globalen Mittel zehn Grad Celsius wärmer ist als das Festland. Da fangen meine Alarmglocken zu läuten an.

Willis Eschenbach

Den Originalbeitrag finden Sie hier

Übersetzt von Chris Frey für EIKE




Wann wird es schwarz über Deutschland?

Hier die Übersicht:

·       Vor dem Moratorium war Deutschland ein Netto-Exporteur von Strom, denn bei Starkwindzeiten – und zunehmend auch bei hoher Photovoltaikeinspeisung – floss ein hoher Anteil des EEG-Stroms ins benachbarte Ausland. Dieses hat sich durch das Moratorium gewandelt, Deutschland wurde zu einem Netto-Importeur von Strom. Die Änderung entspricht etwa einer Dauerleistung von rd. 5.400 MW und damit etwa ¾ der abgeschalteten Kernenergie-Leistung. Der Wegfall der Stromerzeugung aus Kernkraftwerken in Deutschland wird somit überwiegend durch Stromimporte gedeckt (siehe dazu Abb. 19 auf Seite 29 des Berichtes).

·       Insbesondere hat sich der Stromimport aus Frankreich durch die Abschaltungen erhöht, im Mittel um ca. 58%. Das entspricht im zeitlichen Mittel rund 1000 MW Leistung und im Maximum 4000 MW. Dieser Stromimport bedeutet, dass ein bis vier französische Kernkraftwerke die Stromversorgung Deutschlands sicherstellen.

·       Die Stromexporte in die Schweiz, Österreich und Niederlande haben sich verringert, der Stromexport aus Tschechien hat sich erhöht. Der Stromaustausch mit den übrigen Nachbarn hat sich nur unwesentlich verändert.

·       Gleichzeitig mit den Abschaltungen sind die Strompreise an der Strombörse um etwa 0,6 bis 1,2 ct/kWh angestiegen. Die Preise für CO2-Emissionsrechte sind um ca. 10% gestiegen.

·       Die Probleme werden sich in Zukunft verstärken, besonders durch die zeitlich stark schwankenden Einspeisungen von Wind- und Solarstrom (siehe dazu Abb. 28 auf Seite 36 des Berichtes). Diese Einspeisungen erreichen im Maximum 30 000 MW, wenn die Spitzen von Wind- und Solarstrom zusammenfallen. Im Minimum tragen Wind- und Solarstrom nur weniger als 1000 MW zur Versorgung bei, so dass zu diesen Zeiten der Strom vollständig von konventionellen Kraftwerken geliefert werden muß.

Was ist in Zukunft zu erwarten?

Da ist insbesondere der Stromverbund mit Frankreich wichtig, über diese Grenze fließt der meiste Strom. Schon bisher floß viel Windstrom nach Frankreich und half dort im Winter bei der Versorgung, denn die Franzosen verwenden sehr viel Strom für Heizzwecke. Frankreich wird bei Kälte seinen Kernkraftstrom selber benötigen, fehlender Windstrom kann das Problem verschärfen. Dann ist auch in Deutschland mit ernsten Engpässen zu rechnen, besonders in den frühen Abendstunden, in denen die Stromspitzen bisher schon von ausländischen Kraftwerken abgedeckt wurden.

Wind- und Solarstrom können kein stabiles Netz gewährleisten, das hat technische Gründe: Sie können den Lastfolgebetrieb des Netzes nicht stützen, denn sie müssen der von Netz vorgegebenen Frequenz von 50Hz folgen. Fehlt diese Vorgabe, greift die Schutztechnik in den Schaltanlagen und es kann zu lawinenartig sich fortsetzenden Abschaltungen von Netzabschnitten kommen. So war es am 4.11.2006, als durch die Schiffsüberführung auf der Ems bei Papenburg Deutschland zur Hälfte dunkel wurde. Weitreichende Stromausfälle machen große Probleme beim wieder einschalten durch hohe Einschaltspitzen in der Stromstärke. Die Gefahr von Netzausfällen besteht im kommenden Winter erhöht, für Deutschland und auch für seine Nachbarn.

Frau Hildegard Müller vom BDEW sagt zu der Absicht der deutschen Politik nach einer „Energiewende“ in der Einleitung im oben zitierten Bericht: „Die Unternehmen der Energiewirtschaft wollen den Umbau der Energieversorgung. Sie sehen deutlicher als viele andere Akteure die Notwendigkeit aber auch die Chancen und Herausforderungen dieses Umbaus.“ – Es ist unbegreiflich, diese Äußerung von einer Fachfrau zu hören. Die politisch gewollte „Energiewende“, nämlich der Ersatz der Grundlastversorgung durch Kernkraft mit Hilfe von fluktuierende Quellen wird niemals möglich sein, denn die Sonne geht abends unter, der Wind hat meistens Flaute, und Stromspeicherung in größerem Umfang ist unmöglich.

Es ist inzwischen das eingetreten, was Realisten schon immer klar war: Deutschland bekommt jetzt seinen Ersatzstrom von Kraftwerken seiner Nachbarn, und zwar fossilen, wie auch Kernkraftwerken – schließlich geht es nicht anders. Und es wird teurer. Die Aussage der Kanzlerin, dass die Abschaltung deutscher Kernkraftwerke nicht durch den Bezug von ausländischem Kernkraftstrom führen solle, ist durch die Wirklichkeit widerlegt worden.

Deutschland hat die sichersten Kernkraftwerke, darin waren sich bisher alle einig, und diese Tatsache wurde auch von der IAEA in Wien (International Atomic Energy Agency) bestätigt. Diese Kernkraftwerke werden abgeschaltet, und Deutschland bezieht den Ersatzstrom aus nicht ganz so sicheren Kernkraftwerken jenseits seiner Grenzen – das ist ein nicht zu übertreffender Schildbürgerstreich, genau das Gegenteil von intelligenter Energiepolitik.

Dr. Lutz Niemann, unter Verwendung von Hinweisen von Heinz Eng




Der angebliche CO2-Rekordanstieg von 2010 – Recherchen zu einer Kampagne

Was (angeblich) passiert war: „Im Jahre 2010 hat der Kohlendioxid-Ausstoß auf der Welt um mehr als sechs Prozent zugenommen – trotz Wirtschaftskrise. Das übertrifft selbst die pessimistischsten Prognosen des Weltklimarates“, so das SZ-Orakel Christopher Schrader, der dann aber weiter unten relativierte, der „bei sechs Prozent liegende“ Anstieg sei Ergebnis „vorläufiger Schätzungen“ des „Carbon Dioxide Information Analysis Centers [sic!] am [sic!] amerikanischen Oak-Ridge-Nationallabor.“ Das Hamburger Abendblatt berichtete von einer „aktuellen Hochrechnung“, korrigierte dann aber ebenfalls, es handele sich „lediglich um eine Schätzung“.

Joachim Wille von der FR wußte hingegen, der „CO2-Zuwachs“ sei „festgestellt“ worden. Auch der „Spiegel“ raunte von „düsteren Fakten“ auf der Basis von „neuesten Berechnungen des US-Energieministeriums“. In der FAZ-Meldung vier Tage später waren es hingegen nurmehr 5,9 Prozent zusätzliches Kohlendioxid. Dort hatte man anscheinend noch die offizielle Zahlen von Kain und Abel, der Sumerer, antiken Griechen, Römer, Inkas und aller anderen versunkenen Reiche parat und konnte daher ergänzen, dass 2010 „so viel Kohlendioxid ausgestoßen worden [ist] wie nie zuvor.“

Was jedoch nichts daran ändert, dass für 2010 überhaupt nichts gemessen, also „festgestellt“ (FR) worden war. Eine ältere Prognose des wenig kompetenten IPCC war von einer jüngeren Schätzung einer bisher wenig aufgefallenen Projektgruppe eines ultragrünen Ministeriums übertroffen worden, weiter nichts. Kenner der Debatte waren und sind schon allein deshalb nicht wirklich überrascht, da sie die Studie der kanadischen Autorin Donna Laframboise kennen („The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert – IPCC Expose“ – „Der kriminelle Teenager, der mit dem besten Klimaexperten der Welt verwechselt wurde – das IPCC-Exposé“), die sehr gut herausgearbeitet hat, wer beim IPCC recherchiert: sehr oft Doktoranden, die mit Mitte Zwanzig auf der Suche nach ihrer ersten Festanstellung sehr gerne das aufschreiben, was der Weltklimazirkus von ihnen erwartet.

Befasst man sich intensiver mit diesem Nicht-Ereignis, entwickelt sich die Causa zu einem Lehrstück über die Funktionsweise deutscher Medien. So gelten als Informationsquelle je nach Blatt „Forscher“ und „die US-Regierung“ (Hamburger Abendblatt), das US-Energieministerium und der „US-Professor“ Gregg Marland (FR, Die Welt), das bereits genannte CDIAC des amerikanischen Energieministeriums (FAZ, die kryptisch ergänzt: „Noch fehlen allerdings wichtige Dokumente.“) oder sogar „der oberste deutsche Klimaforscher“ Jochem Marotzke („Spiegel“).

Der vielbeschäftigte Professor sei „Atmosphärenforscher“, „Vorsitzender des Deutschen Klimakonsortiums“ und „Direktor am Max-Planck-Institut für Meteorologie in Hamburg“ und habe seinen „Zuhörer[n] aus Politik und Ministerien“ erklärt, warum „sich seine Zunft überhaupt so sicher ist, dass es den Klimawandel gibt“ – so die Herren Traufetter und Schwägerl im „Spiegel“, die zu wissen scheinen, dass man in Deutschland mit einem argumentum ad verecundiam nicht nur dann weiterkommt, wenn man der Hauptmann von Köpenick ist.

In Wirklichkeit hat fast die gesamte deutsche Presse bei dem für seinen extrem einseitige Kampagnenjournalismus bekannten Seth Borenstein (Associated Press) abgeschrieben, der seinen Beitrag „Biggest jump ever seen in global warming gases“ bereits am 3. November um 19.05 Uhr (US-Ostküstenzeit) abgesetzt hatte. Marc Morano von climatedepot.com berichtet seit Jahren regelmäßig über dessen Fehlleistungen in Sachen Klima. Demnach „half“ der bereits genannte Professor Marland „dem Energieministerium in der Vergangenheit beim Rechnen“. Tom Boden war anscheinend der, der beim Kohlendioxid-Informations- und Analyse-Zentrum (CDIAC) die Fäden in der Hand hielt.

Macht man sich im Internet auf die Suche nach den beiden Herren und ihrer Studie, fallen mehrere Fakten auf, die den deutschen Journalisten und damit ihren Lesern entgangen sind. Marland ist Professor an einer Universität, die nicht gerade zur Spitzengruppe Ivy League gehört. Die Appalachian State University (ASU) in North Carolina mag ihre Vorzüge haben, aber im Forbes-Ranking aller US-Universitäten kommt sie 2011 auf Platz 438. 2009 lag sie noch auf Platz 378, 2010 auf 392. In anderen Rankings kommt sie nicht wesentlich besser weg. In dem von „US News“ gilt die ASU sogar nicht einmal als Volluniversität. Mit Berkeley, der Heimatuniversität des verantwortlichen Energieministers Prof. Steven Chu, verbindet sie, dass sie sich in den Rankings der letzten Jahre immer weiter verschlechtert hat.

Tom Boden wird auf der Webseite seines Instituts, das aus nur 13 Mitarbeitern einschließlich Webmaster zu bestehen scheint (und damit sogar kleiner als EIKE wäre) und dem US-Energieministerium zugeordnet ist, als „AmeriFlux data manager, CDIAC Director“ bezeichnet. Sein eigentlicher Job scheint in der Auswertung von CO2-Daten aus einem landesweiten Meßnetz zu bestehen. Als ein weiterer Beiträger, der in den Medien nicht vorkam, erscheint dort T. J. Blasing, Fachgebiet „Atmospheric levels of greenhouse gases, fine-resolution U.S. fossil-fuel CO2 emissions“.

Das CDIAC liegt im ländlichen Oak Ridge in Tennessee (30.000 Einwohner), am Ort des gleichnamigen Nationallabors, zwischen den westlichen Ausläufern des Appalachen-Gebirges, etwa 250 Kilometer entfernt von Prof. Marlands Arbeitsstelle, der ASU am Osthang des Gebirges. Boden, Blasing und Marland macht es also sicher nichts aus, mit einer wenig aufwändigen Datensammlung ein paar Prominenzpunkte einzusammeln. Allerdings haben ihre Erkenntnisse im übergeordneten Energieministerium einen so geringen Stellenwert, dass man sie auf der Ministeriums-Website nicht findet.

Das ist umso erstaunlicher, da Energieminister Chu einer der prominentesten Erderwärmungsapostel der Welt ist und seine Website mehr an die von Greenpeace als an die einer seriösen Behörde erinnert. Chu hat im übrigen derzeit mit ein paar handfesteren Problemen zu kämpfen, da er dem Kongress erklären musste, warum er der bankrotten, aber mit der Demokratischen Partei aufgrund üppiger Parteispenden eng verbundenen insolventen Solar-Bude Solyndra kurz vor Toresschluss noch ein staatliches Darlehen von „nur“ 535 Millionen Dollar besorgt hat.

Die angebliche CO2-Studie selbst besteht bisher aus einer halbseitigen Erläuterung der Methodologie und einer sechsseitigen Tabelle mit dem länderweise geschätzten/erkannten/berechneten CO2-Ausstoß der Jahre 2008 bis 2010. Auf der CDIAC-Website findet sich zudem die Zusammenfassung eines Berichts, „der bereits für eine Peer Review eingereicht wurde“ und vermutlich wie der letzte Bericht dieser Art in der der Wärme-Fraktion äußerst geneigten, da zum Holtzbrinck-Konzern gehörenden Zeitschrift Nature Geoscience erscheinen wird.

Selbst, wenn wir in Betracht ziehen, wie mitunter Peer-Review-Prozesse gehandhabt werden, man denke an den ClimateGate-Skandal und das berüchtigte „Team“ um Michael Mann, wer hätte gedacht, dass Klima-Alarmisten eine Studie anpreisen, die es noch nicht einmal durch den akademischen Begutachtungsprozeß geschafft hat? Einige Alarmistenblogs „verwechselten“ daher das Jahr und gaben den begutachteten Bericht des Vorjahres als diesjährigen Fachaufsatz aus.

Außerdem gibt es eine Art Presserklärung des CDIAC vom Oktober 2011 (ohne genaues Datum) über die „vorläufigen globalen und nationalen Schätzungen [!] der Kohlendioxid-Emissionen aus der Verbrennung fossiler Treibstoffe und der Zementproduktion“. Demnach nehmen die Wissenschaftler für diesen Teilbereich der globalen anthropogenen CO2-Emissionen (und nur für diesen!) einen Anstieg von 5,9 Prozent für 2010 im Vergleich zu 2010 an. Zur Erinnerung: In der Überschrift der „Süddeutschen“ waren es „mehr als sechs Prozent“.

Während die Emissionen Chinas in diesem Zeitraum um 10 Prozent angestiegen seien, betrage der Anstieg in den USA nur 4 Prozent. Der US-Gesamtausstoß liege noch immer unter dem Wert von 2007. Wie die dazugehörige Tabelle zeigt, ähnelt der US-Trend der Entwicklung in Deutschland. Hier sank der CO2-Ausstoß 2009 aufgrund der Wirtschaftskrise im Vergleich zum Vorjahr um 7 Prozent und stieg im Jahr darauf wieder um 4 Prozent an. Vorausgesetzt natürlich, alle Beteiligten haben richtig gerechnet, geschätzt bzw. festgestellt.

Zu den Datenquellen ihrer CO2-Tabelle führen die Autoren aus, dass sie sich nicht (wie das IPCC) auf die Statistikabteilung der UNO beziehen, da diese ihre Zahlen stets erst nach jeweils zwei bis drei Jahren veröffentlicht. Vor allem wegen dieser den komplizierten Umständen der Erhebung geschuldeten Verzögerung habe die CDIAC eine „vorläufige Emissionsschätzung“ (!) vorgenommen. UN-Statistik hin oder her (dieses Thema muss hier außen vor bleiben): Es steht damit fest, dass es sich bei der CDIAC-Tabelle eben nicht um abschließende, ultimative Berechnungen des CO2-Ausstoßes handelt. Diese werden erst für 2012 oder 2013 erwartet! Außerdem sollte man über die Emissionswerte, die angeblich so hoch wie nie zuvor „sprangen“ (Seth Borenstein, AP), wissen, dass die CDIAC-Abschätzungen mit vergleichbarer Methodologie nur „fast 25 Jahre“ zurückreichen. Für die Zeit davor wird auf die UN und die US-Geobehörde verwiesen, für die Zeit vor 1950 auf Rekonstruktionen auf der Basis „einer Vielfalt von Quellen“.

Aber es wird noch besser: „Die Schätzungen für 2009 und 2010 basieren auf Energiedaten des Energieunternehmens BP.“ Das von den deutschen Medien heraus posaunte Nicht-Ereignis ist also in Wirklichkeit eine Rechenübung auf der Basis der jährlichen und altbekannten „Statistical Review of World Energy“ von BP, wer hätte das gedacht! Und zum CO2-Ausstoß durch Erdgasverbrennung heißt es sogar, man „vermutet, die Emissionen sind zu den Werten von 2008 unverändert“ – hierfür hat man also überhaupt keinen neuen Daten herangezogen! Nachvollziehbar sind lediglich die Angaben für die Zementproduktion, bei denen man sich auf die allgemein anerkannte US Geological Survey bezieht. Damit verschwindet der angebliche Anstieg im statistischen Rauschen. Wie so oft muss man festhalten, dass man auch beim CDIAC nichts Genaues weiß.

Dass die Datensammlung aus Tennessee nicht viel hergibt, könnte auch den Kampagne-Helfern in den Medien klar gewesen sein. Denn die aus ihr gestrickten Artikel bestehen zu großen Teilen aus Zitaten von Unbeteiligten, die die Tabelle mit Sicherheit nicht studiert haben, aber offenbar bei jeder sich bietenden Gelegenheit ihre sehr vorhersehbare Meinung zur Klimakatastrophe absondern müssen. In der AP-Meldung sind das vier hierzulande wenig bekannte Professoren mit Verbindungen zur CO2-Forschung, darunter ein Arbeitsgruppenleiter des IPCC. Auch ein Seitenhieb auf die bösen Klimaskeptiker darf hier nicht fehlen.

In den deutschen Medien werden daraus die unvermeidliche Obergrüne Claudia Roth und Fatih Birol von der Internationalen Energie-Agentur (SZ), der besagte Hamburger Professor Marotzke, der laut „Spiegel“ bei seinem Vortrag sogar „stöhnt“, Professor Ottmar Edenhofer, Vizepräsident einer Organisation, die in Fachkreisen als „Potsdam Institut für Kreative Mittelbeschaffung“ bekannt ist, die Grünen-Fraktionsvorsitzende Bärbel Höhn (Welt) oder Ulrike Höfken, ebenfalls Grüne und Umweltministerin von Rheinland-Pfalz. Am 5. November kam dann noch Jochen Flasbarth, Nabu-Aktivist und Chef des Bundesumweltamtes, in einem ausführlichen Interview in der „Welt“ zu Wort, in der er gottgleich davor warnte, „dass uns die Natur das Ruder aus der Hand reißt.“ Man müsse jetzt „alles tun, um die Treibhausgasemissionen zu senken.“ Alles?

Die Auswahl der Politiker belegt im übrigen einmal mehr die Parteipräferenzen deutscher Journalisten, denn sicher hätte auch der eine oder andere Funktionsträger der anderen vier Bundestagsparteien gerne seine große „Betroffenheit“ bekannt gegeben. Erneut wird deutlich, dass weder SPD, noch CDU, CSU und FDP in den Medien von ihrem „grünen“ Opportunismus profitieren.

Am 8. November berichtete schließlich der „Welt“-Autor Wolfgang W. Merkel über die Ergebnisse einer Rostocker Studie, die im Kommentarbereich für wütende Reaktionen sorgte. Überschrift: „Rentner sind mit Abstand die größten Klima-Killer“. Es seien die Mitsechziger, die durch ihren Konsum am meisten „Klimagas“ produzieren. Doch auch diese These kann nicht ernst genommen werden: Der private Konsum von Menschen außerhalb des Berufslebens muss schon allein aufgrund der anders strukturierten Alltagsorganisation anders aussehen, als der von Arbeitnehmern, die die einen Großteil ihrer Zeit am Arbeitsplatz verbringen. Fragwürdig auch, warum sich ein Max-Planck-Institut für demographische Forschungen mit Klimaforschung befasst.

Die genannten Beispiele und der Verlauf der Medienkampagne vom 4. bis 8. November zeigen eindrucksvoll, wie nervös die Wärme-Fraktion geworden ist. Wie in den Vorjahren steht die Kampagne in Zusammenhang mit der nächsten, vermutlich erneut ergebnislosen UNFCCC-Klimakonferenz in Durban, wie in einigen der hier zitierten Beiträge auch unmissverständlich klar gemacht wurde. Allerdings war der jährliche November-Beweis für den globalen Klimakollaps in diesem Jahr so lachhaft und durchschaubar wie nie zu vor. Das sprichwörtliche Eis, auf dem sich die Alarmisten bewegen, wird immer dünner. Denn eine immer größere werdende Schar freiheitlich motivierter und an Wissenschaftsethik interessierter Autoren, Wissenschaftler und Aktivisten ist dabei, den ökologisch-industriellen Komplex auf der Basis unwiderlegbarer Fakten zu entzaubern. Erste Absetzbewegungen unter Politikern sind die Folge.

Es ist zudem sehr verräterisch, wenn UBA-Chef Flaßbarth diesen Vorfall nutzt, um vor dem Hintergrund des 2012 auslaufenden Kyoto-Abkommens eine Aufrechterhaltung des äußerst lukrativen Emissionshandels zu fordern. Dessen Kosten sollen weiterhin beim deutschen bzw. europäischen Steuerzahler abgeladen werden. Mit einer (weiteren) dreisten Angstkampagne, diesmal der Umdeutung harmloser Schätzwerte aus Tennessee zum Klima-GAU und der „Verlegung“ dieses Nicht-Ereignisses vom Oktober in den November, sollte anscheinend dazu beigetragen werden, die Bevölkerung gefügig zu machen und auf weitere Belastungen im Namen einer guten Sache vorzubereiten und damit die Macht der grünen Eliten abzusichern. Ähnliche Beispiele kennt Deutschlands Geschichte leider zuhauf. Das überwältigend negative Echo in den Kommentarspalten aller Zeitungen zeigt, dass das immer weniger gelingt.

Dr. Holger Thuss,

Präsident EIKE




Zwei Wissenschaftspublikationen der EIKE Autoren Lüdecke, Link und Ewert auf dem Blog der bekannten US Klimaprofessorin Judith Curry

Frau Curry, der die beiden EIKE paper bekannt wurden, schlug daraufhin den Autoren einen Gast-Beitrag auf ihrem Blog von etwa 1000 bis 2000 Worten und mit Abbildungen vor. Dieser Beitrag mit dem Titel „Two new papers vs. BEST“ wurde am 7. Nov. veröffentlicht und bis heute mit 526 Leserkommentaren bedacht. Frau Curry wurde allerdings dieser Veröffentlichung wegen von der AGW-Fraktion – viele Kommentarautoren sprechen hier nur vom „team“ – heftig angegriffen, worauf sie einen eigenen Artikel „Disinformation and pseudo critical thinking“ einstellte, der 734 Leserkommentare nach sich zog. Der Aktivist und Ökonom/Soziologe Prof. Richard S. Tol sah sich daraufhin veranlasst die Replik „Tol’s Kritik of the Ludecke et al. Papers“ auf die beiden Arbeiten von Lüdecke, Link und Ewert zu verfassen, Ergebnis: weitere 612 Leserkommentare.

Da die Replik von R.S. Tol, um es höflich auszudrücken, erhebliche sachliche Mängel aufwies – entschuldbar, denn ein Ökonom/Soziologe sollte gemäß dem Sprichwort "Schuster bleib bei deinen Leisten" mit der technischen Kritik einer physikalisch-statistischen Arbeit vorsichtiger umgehen als erfolgt, überließ Frau Curry konsequenterweise auch den EIKE Autoren Platz für eine Richtigstellung von Tol’s Kritik, die unter dem Titel „Ludecke et al. Respond“ dann auch auf ihrem Blog erschien– weitere 295 Kommentare.

Schlussendlich sah sich Frau Curry angesichts der ungewöhnlich zahlreichen Leserkommentare sowie der Vermengung von sachlichen mit emotionalen und politischen Leserzuschriften noch einmal veranlasst zu schreiben. „Disinformation vs. fraud in the climate debate“ lautet dieser Beitrag, dem weitere 523 Leserkommentare folgten.

Damit und, falls richtig addiert, mit insgesamt nunmehr knapp 2700 Leserkommentaren ist das Thema "BEST vs. Lüdecke, Link, Ewert" auf dem Blog von Judith Curry noch nicht beendet. Die EIKE Autoren haben aus Zeitgründen darauf verzichtet, auf einzelne Kommentare zu antworten. Dies insbesondere auch deswegen, weil die Diskussion meist von Unkenntnis über die Details der vorgestellten Arbeiten geprägt ist – wobei den Kommentatoren der mathematischen Komplexität der beiden EIKE-Publikationen wegen kein Vorwurf zu machen ist. Auf solche Kommentare zu antworten, ist dann wenig zielstellend. Dennoch bleiben einge sehr interessante Einwände übrig, die in wenigen Tagen – von Frau J. Curry bereits zugesagt – von den EIKE Autoren in einem zusammengefassten „follow-up“ besprochen werden.

Es erscheint bemerkenswert, dass die großen deutschen Medien die Vorgänge um die BEST Kurve, die EIKE-Veröffentlichungen von Lüdecke, Link und Ewert und den sich daraus auf den US-Blogspären ergebenden Auseinandersetzungen bis heute komplett verschlafen haben. Nur das Internet ist voll davon.

Michael Limburg

Ergänzung:

Inzwischen ist das abschließende follow-up von Lüdecke, Link und Ewert auf Judith Curry’s Blog erschienen.

M.L.