1

Rekordwärmejahr 2014 – Nicht für die Natur, sondern einzig für Alarmisten

In seinem Beitrag „Rekordwärmejahr 2014 – Haben IPCC und CO. doch Recht?“ (hier) konnte der Autor belegen, dass das „Rekordwärmejahr“ 2014 zu erwarten war und Folge des in 2003 vorliegenden Maximums im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus, ist. Das Jahr, in dem Deutschland und weite Teile Europas einen „Jahrhundertsommer“ (Abb.2) erlebten. Eben, wegen dem Maximum in der solaren Aktivität. Nach Prof. Solanki (Direktor Max Planck Institut für Sonnenforschung) konnten er und weitere Wissenschaftler, anhand von Temperaturuntersuchungen für den Zeitraum von 200 nChr. bis 1980 nChr., belegen, dass die Temperaturen der Nordhalbkugel der solaren Aktivität um 11 Jahre nacheilen (Abb.1).

 

Abb.1, Solanki et al ("Solar Activity Over The Last 1150 Years: Does It Correlate With Climate"), zeigt den zeitlichen Versatz zwischen Sonnenaktivität und Jahrestemperatur. Die Forscher geben an: "The best correlation between sunspot number and the temperature data are consistently obtained for a time lag of 10 years in the sense that solar data lead temperature data." Schaut man sich das time lag genauer an, so beträgt die zeitliche Differenz exakt 11 Jahre!

„Rekordwärmejahr“ 2014 und Rekordsonnenaktivität 2003 (Abb.2) liegen exakt 11 Jahre auseinander, was die Untersuchungen von Solanki et al. eindrucksvoll bestätigt.

 

Abb.2, Quelle Hadley Center, zeigt den Hitzesommer 2003. Unter dem Maximum des Hauptsonnenzyklus erlebte Europa einen Hitzesommer.

Zur Erhärtung hatte der Autor in seinem EIKE-Bericht , anhand der Untersuchungen von United States Geological Survey, Solanki und der Temperaturreihe der DWD-Temperaturreferenzstation Hohenpeißenberg (HPB) das Maximum im vorletzten Hauptsonnenzyklus auf das Jahr 1797 datiert und die Jahre danach mit den heutigen Temperaturen verglichen und Gleichheit im Temperaturgang festgestellt.

Unser Leser, Herr Wichmann, hatte in seinem Kommentar #24 (http://www.eike-klima-energie.eu/climategate-anzeige/rekordwaermejahr-2014-haben-ipcc-und-co-doch-recht/#comment_24) Kritik geltend gemacht und darauf hingewiesen, dass nach seinen Daten, die ihm vom HPB vorliegen, die Jahrestemperaturen (z.B. von 1808) andere Jahreswerte ausweisen. Der Autor hat diesen Einwand eingehend geprüft und festgestellt, dass Herr Wichmann mit seinem Einwand Recht hat. Was war geschehen?

Die Datenreihe HPB, die der Autor in 2010 vom DWD erhielt, war die nach Herrn Dr. Winkler (Bericht des Deutschen Wetterdienstes Nr. 233: “Wissenschaftshistorische Untersuchungen zur Geschichte und insbesondere zur Datenqualität der langen meteorologischen Reihen des Observatoriums Hohenpeißenberg“) nachträglich korrigierte Temperaturdatenreihe, in der der DWD die Temperaturen bis 1850 einfach um 0,5°C absenkte. Der Autor hatte diesen Wert wieder berichtigt. Dabei aber übersehen, dass in der vom DWD übermittelten Datenreihe das Jahr 1799 fehlt, Abb.2. Dies hatte dann zur Folge, dass ab dem Jahr 1800, die Zeitreihe um 1 Jahr versetzt dargestelt wurde, was unserem Leser, Herrn Wichmann, auffiel.

 

Abb.3 Ausschnitt aus HPB-Datenreihe vom DWD ohne das Jahr 1799.

Anhand der DWD-Daten ist in Abb.4 der Vergleich, heutiger Temperaturgang (nach dem letzten Maximum im Hauptsonnenzyklus), mit dem Temperaturgang, nach dem vorletzten Maximum im Hauptsonnenzyklus dargestellt.

Abb.4 zeigt den Jahresgang der Temperaturen nach dem letzten Maximum im Hauptsonnenzyklus 2003 (rot) zum Jahresgang nach dem vorletzten Maximum im Hauptsonnenzyklus 1797 (blau). Während sich das Maximum der Temperatur heute, exakt nach 11 Jahren (2014) einstellt, liegt das Maximum der Temperatur in 1809, also 12 Jahre nach solarem Maximum. Der Gang der Temperaturen (ihr Wechselspiel) ist bei beiden identisch.

11 Jahre danach, bzw. 12 Jahre danach – ist deshalb die Aussage, dass das „Rekordwärmejahr“ 2014 zu erwarten war und immer in dieser Zeit nach einem Maximum im Hauptsonnenzyklus auftritt, falsch oder gar die Untersuchungen von Solanki et al., die als Basis dienten?

Nein! Solanki et al. verwendeten für Ihre Untersuchung den Multiproxy-Datensatz der Nordhalbkugel (MJ03 = NH temperatures from multiproxy data for AD 200 to AD 1980, Mann and Jones, 2003), der den Zeitraum von 200nChr. bis 1980nChr. beinhaltet. Sie stellten dabei fest, dass die Temperaturen der solaren Aktivität um genau 11 Jahre nachlaufen. Diese 11 Jahre sind demnach der Mittelwert der betrachteten Zeitspanne von 1800 Jahren.

Das letzte Maximum im Hauptsonnenzyklus war 2003. 2014 hatten wir in Deutschland das Rekordwärmejahr. Mit 11 Jahren Abstand liegt die Zeitspanne genau auf dem Mittelwert, der von Solanki et al. betrachteten 1800 Jahre. Beim vorletzten Maximum in 1797 liegt der Nachlauf der Temperaturen bei 12 Jahren. Ebenso im Zeitraum der Untersuchungen von Solanki et al. Das Muster des Temperaturganges ist von diesem Jahresversatz unberührt und somit für beide Hauptsonnenzyklen gleich. Der Temperaturgang ist nach jedem Hauptsonnenzyklus gleich. Das Maximum der Temperaturen stellt sich in dem Zeitraum ein, den auch Solanki et al. in ihrer Untersuchung herausfanden. 

Der Autor bedankt sich ausdrücklich bei unserem engagierten Leser, Herrn Wichmann. Durch seinen Einwand konnten nicht nur die Untersuchungen von Solanki et al. weiter bestätigt werden, sondern auch der erneute Beweis geführt werden, dass der Temperaturgang nach einem Hauptsonnenzyklus jeweils identisch ist. Als „Lerneffekt“ nimmt der Autor mit: Man kann sich auch bei kleinen Dingen, nicht auf den DWD verlassen und muss alles, was vom DWD kommt, selbst überprüfen.

So funktioniert Wissenschaft: Im Dialog miteinander und der Berücksichtigung anderer Auffassungen und Einwände und nicht durch Diktat und Diskussionsverweigerung. Der Vorgehensweise, die IPCC und Co. für Ihre „Wissenschaft“ gewählt haben. Einer „Wissenschaft“, die Angst vor Erkenntnis hat

Raimund Leistenschneider – EIKE




Die Lektion von Fukushima – Kernenergie ist sicher

Wir hören und lesen oft die Phrase „Die Lektionen von Fukushima“.

Die Phrase wird häufig in düsterem Ton ausgesprochen, begleitet von wissenden Blicken und Kopfschütteln. Aber welche Lektionen kann man denn nun von Fukushima lernen? Ziemlich einfach: Kernenergie hat sich als wesentlich sicherer erwiesen als sich irgendjemand zuvor vorstellen konnte.

Die nukleare Bruderschaft weltweit hätte nach dem Fukushima-Drama feiern sollen. Die Welt beobachtete die gesamte Saga, Sekunde für Sekunde … und mit welchem Ergebnis?

Antwort: Gesamtzahl der durch Strahlung gestorbenen Menschen: Null! Verletzte: Null! Durch Strahlung zerstörtes Privateigentum: Null! Erwartete Langzeit-Effekte auf Menschen: Null!

Falls Wissenschaftler ein absichtliches ,Crash-Experiment‘ entworfen hätten wie mit Autos in Crash-Laboren, könnte es keine bessere Versuchsanordnung geben als die Realität, die sich bei Fukushima entfaltet hat. Ein vierzig Jahre altes Kernkraftwerk, für 60 Jahre Betriebsdauer geplant, wurde vom stärksten Erdbeben jemals getroffen. Die Reaktoren haben das problemlos überlebt. Sie haben sich wie gewünscht heruntergefahren. Dann, 55 Minuten später, traf der größte Tsunami jemals auf die Küste. Die gigantische Wasserwand sprang über über die Schutzmauer und ergoss sich über das Kernkraftwerk. Das Kraftwerk hat auch dies überstanden … ursprünglich jedenfalls. Doch dann kamen schlechte Management-Entscheidungen zuvor ins Spiel, wie Geister aus der Vergangenheit.

Jahre zuvor wurde beschlossen, die Back-Up-Diesel-Treibstofftanks außerhalb zu platzieren. Was für eine schlechte Wahl!

Diese Tanks enthielten den Reserve-Treibstoff für die Notfallpumpen zur Abkühlung, die benutzt werden sollten, falls und wenn die primären elektrischen Pumpen ausfallen würden. Der Tsunami hat die Stromleitungen für den Strom der primären Elektropumpen zerstört … man brauchte also die Diesel-Pumpen – und zwar schnell.

Aber der Diesel war weg – hinweggeschwemmt mit all den anderen Trümmern der zerstörten Häuser, Schulen, Polizeireviere, dem Flughafen, Geschäften, Büros, dem Hafen … was auch immer. Die Straßen waren weg oder mit Trümmern blockiert, und keine Polizei, Feuerwehr, die Armee konnten zu Hilfe kommen.

Alle Reaktoren haben sich korrekt heruntergefahren, ohne Probleme. Aber der heiße Reaktortreibstoff muss mit Wasser gekühlt werden, und zwar noch zwei bis fünf Tage lang nach einer Notfall-Abschaltung, um die Restwärme abzuführen. Also begannen die Reaktor-Ingenieure mit ihrer Arbeit, mit dem Rücken zur Wand, ohne Pumpen und ohne Hilfe; die Welt sah zu; und das Top-Management schrie nach schnellen Antworten. Das gesamte Szenario hätte nicht schlimmer sein können, wie in einem Theaterdrama.

Wie ich sagte: Falls ein Wissenschaftler-Team absichtlich einen Labor-Crash-Test für ein Kernkraftwerk geplant hätte, hätte es keinen besseren geben können als die Realtät von Fukushima-Daiichi.

Trotz dieses ganzen theatralischen Dramas war die Folge – keine Toten oder Verletzten und kein Hinweis auf langfristige Strahlenauswirkungen auf die Menschen. Die Lektion von Fukushima lautet also, dass Kernkraft viel sicherer ist als man gedacht hatte.

Im April 2014 hat es die japanische Regierung der Zivilbevölkerung erlaubt, in den Bezirk Miyakoji bei Fukushima zurückzukehren. Bereits Anfang 2013 war das Gebiet für sicher erklärt worden, in strahlungstechnischer Hinsicht, aber die durch den Tsunami angerichteten Schäden mussten natürlich noch beseitigt werden. Dazu zählten Wasserversorgung, Kanalisation, Straßen und so weiter.

Mitte 2013 begann der Wiederaufbau der Infrastruktur. Im Mai 2013 wurde Reis angepflanzt.

Die Menschen begannen schubweise zurückzukehren und machten ihre eigenen Häuser wieder bewohnbar. Im April öffneten lokale Geschäfte, die Müllabfuhr kam in Gang, ein Krankenhaus wurde gebaut und ein Kinderspielzentrum eröffnet. Eine Touristenattraktion, der Tokiwa Sky Palace, öffnete für den normalen Betrieb. Offensichtlich muss es eine sehr emotionale Erfahrung gewesen sein, in sein Haus zurückzukehren, nach dem ein Tsunami darüber hinweg geschwappt war. Die Fernsehbilder des strömenden Wassers waren erschreckend, Teile einer erhöht gelegenen Autobahn nahe Miyakoji brachen als Folge des Tsunami zusammen, und der japanische Premierminister Shinzo Abe hat gesagt, dass es wohl noch einige Jahre dauern wird, die Straße zu reparieren. Die Bewohner müssten sich bis dahin also Alternativen ausdenken.

Die Welt betrachtet Fukushima immer noch mit morbider Faszination. Seltsamerweise schien es den Medien ziemlich egal zu sein, dass durch den Tsunami über 15.000 Menschen ums Leben gekommen waren und dass der Tsunami massiv privates und industrielles Eigentum pulverisiert hatte wie eine Armada von Bulldozern aus Wasser.

Stattdessen haben die Medien die Arbeiter des Kraftwerkes Fukushima verfolgt, wie diese hunderte große Wassertanks mit Regenwasser-Abfluss und anderen Abwässern aus dem Kraftwerk gefüllt haben. Das Wasser wurde als ,radioaktiv‘ geschmäht.

In Wirklichkeit war dieses Wasser so schwach radioaktiv, dass eine Person, die drei Monate lang nur dieses Wasser getrunken hätte, genauso viel Strahlung aufgenommen hätte wie beim Verzehr einer Portion Thunfisch in einem Restaurant.

Viele Menschen scheinen nicht zu erkennen, dass Strahlung um alle Menschen zu jeder Zeit ist. Natürliche Strahlung von Sternen strömt fortwährend auf den Planeten Erde. Die Sterne sind allesamt gigantische Kernreaktoren. Strahlung kommt auch fortwährend aus dem Boden. Diese stammt von der Reststrahlung in der Erde, die eingelagert worden ist, als sich die Erde aus einem Ball geschmolzener Materie abgekühlt hat, wobei viele radioaktive Elemente eingeschlossen worden waren.

Inspektion der UN

Im Januar 2013 wurde das United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR) vom Generalsekretariat aufgefordert, eine umfassende Studie durchzuführen zur ,vollständigen Erfassung des Niveaus der Strahlungsexposition und der Strahlungsrisiken der Menschen rund um Fukushima‘.

Nach zwei Jahren der Untersuchungen veröffentlichte das UNSCEAR seinen Bericht, in dem festgestellt wird, dass ein Anstieg der Krebsraten oder von Erbkrankheiten wahrscheinlich in den betroffenen Gebieten nicht wahrnehmbar sein wird, weil die Strahlendosen, denen Menschen ausgesetzt waren, einfach zu niedrig sind.

Im Allgemeinen wird erwartet, dass in der Umgebung von Fukushima lebende Menschen eine zusätzliche Dosis während ihrer Lebenszeit von weniger als 10 mSv abbekommen, im Vergleich zu einer Lebensdauer-Dosis von 170 mSv für den normalen japanischen Bürger aus ausschließlich natürlichen Quellen.

UNSCEAR stellte auch fest: „kein wahrnehmbar gestiegenes Vorkommen von strahlungsbedingten Gesundheitsschäden wird erwartet unter den der Strahlung ausgesetzten Mitgliedern der Öffentlichkeit oder deren Nachkommen“.

Die Leiterin der World Nuclear Association Agneta Rising sagte, dass der UNSCEAR-Bericht „jene beruhigen dürfte, die darüber nachdenken, in die evakuierten Gebiete zurückzukehren“.

Sie fügte hinzu: „Die Erfahrung hat uns gelehrt, dass einige Maßnahmen zur Vermeidung einer Strahlendosis schädlicher sein können als die vermiedene Dosis selbst. Diese Maßnahmen verschlimmern auch die Ängste, was zu sozialen und ökonomischen Leiden führt. Wir brauchen praktikable Maßnahmen zum Schutz der Menschen, die ihnen gleichzeitig helfen, ihr Leben weiter zu leben, wenn der Notfall vorüber ist“.

Das UNSCEAR sagte auch, dass das Potential für Strahlungseffekte im Pazifik ,nicht signifikant‘ sei. Die Angsterzeuger andererseits haben Behauptungen über Fischsterben auf der anderen Seite des Pazifiks aufgestellt und sogar Behauptungen, dass US-Marines krank geworden seien durch die Strahlung auf einem Flugzeugträger. Ein Videoclip im Internet zeigt Soldaten, die eine dicke Schicht Seifenschaum vom Flugdeck entfernen, während der anti-nukleare Kommentar die radioaktive Asche erwähnt, als ob der sichtbare Seifenschaum tatsächlich radioaktive Asche sei.

Das andere Fukushima

Es ist auch instruktiv anzumerken, dass es zwei Kernkraftwerke bei Fukushima gibt: Fukushima Daiichi und Fukushima Daini. Daiichi bedeutet ,Nummer zwei‘ und war dasjenige, auf das die Welt geschaut hat. Daini, ,Nummer eins‘, kämpfte seinen eigenen Kampf, praktisch unbemerkt.

Fukushima Daini liegt 10 km südlich von Daiichi und wurde ebenfalls vom Tsunami getroffen, der viel größer war, als Daini ausgelegt war. Daini widerstand dem Ansturm mit einer funktionierenden Stromleitung und einem intakten Dieselgenerator. Das war der gesamte Unterschied! Die Daini-Betreiber kämpften auch mit gewaltigen Schwierigkeiten, weil drei ihrer vier Reaktoren ausreichende Abkühlung fehlte. Aber nach ein paar Tagen waren die erfahrenen Betreiber in der Lage, alle Reaktoren in den Status einer kalten Abschaltung zu bringen, ohne Freisetzung von Strahlung und ohne die massiven Schäden wie in Daiichi.

Folglich war die Daini-Saga ein sehr interessanter ,Kontrollvergleich‘, der sich parallel zum Hauptdrama entfaltete, das sich nur 10 km entfernt abspielte.

Die Dosis macht’s

Während des vergangenen Jahrhunderts von Nukleartechnologie weltweit wurden niemals Schäden welcher Art auch immer bei einer Person gefunden, die einer Strahlendosis von weniger als 100 mSv in einem sehr kurzen Zeitraum ausgesetzt war.

Tatsächlich wurde auch bei einer über doppelt so hohen Dosis keinerlei Schaden gefunden. Weil nukleare Strahlung selbst eine Energiequelle ist, ist sie extrem einfach zu entdecken in extrem geringen Mengen, so dass geringe Strahlung rund um Fukushima leicht zu entdecken ist. Sie hat keinerlei gesundheitliche Konsequenzen, für niemanden. Den einzigen realen Schaden hat das PR-Image der japanischen Regierung und das Management von TEPCO erlitten, die ihre Zeit damit zugebracht haben, sich zu entschuldigen und über ihre eigenen Füße zu stolpern anstatt wissenschaftlich realistisch zu sein.

Die Menschen machen sich Gedanken hinsichtlich des ,Eindringens in den Boden‘ und in das Grundwasser oder das Meer vordringende Strahlung. Diese mentalen Bilder klingen mysteriös und ängstigend, aber die Realität sieht ganz anders aus.

Interessanterweise stehen die ältesten Kernkraftwerke der Welt in Afrika. Sie sind über 1,5 Milliarden Jahre alt. Es handelt sich dabei um natürliche Reaktoren an einer Stelle in Gabun, die man Oklo nennt. Sie wurden im Jahre 1972 entdeckt. In geologisch weit zurück liegenden Zeiten reagierten Bakterien in einigen sumpfigen Tümpeln mit Metallen im Untergrund, was zu einer Konzentration von natürlichem Uran in den Tümpeln führte. Das Verhältnis der Uranisotope damals machte es möglich, eine natürliche nukleare Reaktion im Untergrund in Gang zu setzen bei Vorhandensein von Wasser.

Die laufenden natürlichen Reaktoren würden sich erhitzt und nuklearen Abfall erzeugt haben. Dabei ist das Wasser wahrscheinlich während eines bestimmten Zeitraumes verdampft, und die Reaktion kam zum Stillstand, bis wieder Wasser vorhanden war. Dieser Zyklus würde so lange andauern, bis das spaltbare Uran aufgebraucht wäre.

Die Franzosen erlebten eine große Überraschung, als sie dort mit dem Uranabbau in den siebziger Jahren begannen. Sie sandten proben nach Frankreich, und bei der Analyse fand man, dass das Uran in spaltbaren Isotopen abgelagert worden war – also den Isotopen, die man zum Betrieb von Kernkraftwerken braucht. Sie waren begeistert. Das war als unmöglich angesehen worden.

Es sah so aus, als ob das Oklo-Uran konventionell abgereichertes Uran war, das direkt aus einem laufenden Kernkraftwerk stammt. Weitere Untersuchungen ergaben, dass genau das der Fall war. Die Oklo-Reaktoren waren als natürliche Reaktoren im Untergrund sehr viele Jahre lang gelaufen.

Es gibt keinerlei Anzeichen irgendwelcher Schäden durch nukleare Strahlung auf irgendeine Art der Flora und Fauna in dem Gebiet, trotz sehr vieler Jahre ungehindertem Entweichens radioaktiver Isotope.

Strahlungs-Realität

Wir müssen uns jetzt einen Moment Zeit nehmen, um darüber nachzudenken, was Strahlung eigentlich ist und wann und wie sie gefährlich sein könnte.

Man stelle sich vor, man befinde sich in einem Raum, und auf einem Tisch auf der anderen Seite des Raumes läge ein radioaktiver Mauerstein. Falls die Gesamtdosis aus diesem Stein, nur weil man in dem Raum ist, unter etwa 100 mSv liegt, macht es nicht das Geringste, wenn man in dem Raum mit dem radioaktiven Stein sitzt. Tatsächlich kann man dabei bedenkenlos frühstücken.

Wenn man dann nach Hause geht, den Raum verlässt und die Türe schließt, ist die Strahlung, der man ausgesetzt war, vollständig verschwunden. Auf dem Weg nach Hause trägt man keinerlei Strahlung irgendwelcher Art in sich, und man ist zu 100% sicher.

Je weiter man sich von einer Strahlungsquelle entfernt, umso schwächer wird die Strahlung, und zwar sehr schnell. Wenn man sich von einer brennenden Lampe entfernt, nimmt die auf jemanden fallende Lichtmenge schnell ab. Genauso ist es mit Strahlung aus einer einzigen Quelle.

Wenden wir uns jetzt dem Terminus ,radioaktive Verseuchung‘ zu. Die Kreation dieses Terminus‘ war historisch gesehen eine schlechte Wahl, aber jetzt müssen wir damit leben. Falls der mythische radioaktive Mauerstein in feines Pulver zermahlen werden und dann in einer Schüssel zusammen mit einem elektrischen Ventilator in einen Raum gestellt würde, dann würde radioaktiver Staub herumfliegen und sich auf allem festsetzen, einschließlich einem selbst und seinem Frühstück.

Von Stuhl, Tisch, Teppich, Stullentasche wird dann gemeinsam gesagt, sie seien mit radioaktivem Staub ,verseucht‘. ,Verseuchung‘ ist feines radioaktives Material, das herumfliegt wie Staub.

Wenn sich der Staub auf der Kleidung festsetzt, würde man es nicht gestatten, dass einer mit seiner Kleidung nach Hause geht. Man würde alle Kleidung ablegen müssen und sich nachfolgend duschen und schrubben. Ein Geigerzähler würde dann eingesetzt um zu bestimmen, ob aller Staub entfernt worden ist.

Wenn der Strahlungsinspekteur zu der Überzeugung kommt, dass man ,clean‘ ist, würde man ihm erlauben, nach Hause zu gehen … mit anderer Kleidung, weil die mit Staub belastete Kleidung in einem Lager für nuklearen Abfall eingelagert werden würde, einem legal bindenden Protokoll für nukleare Abfälle folgend. Man könnte nach Hause gehen, ohne Angst und absolut sicher.

Falls jedoch der radioaktive Staub auf dem Frühstück landet und man dieses verzehren würde, würde man einem potentiellen Problem gegenüber stehen, weil das radioaktive Material in seinem Innern nicht so einfach ,abgewaschen‘ werden könnte.

Noch schlimmer wäre, falls man überraschend entdeckt, dass man all den herumwehenden radioaktiven Staub eingeatmet hätte, was diesen in die Lungen geführt hätte.

Der Staub im Magen würde auf natürliche Weise durch den Verdauungstrakt wandern und innerhalb weniger Tage wieder ausgeschieden. Das Risiko wäre also minimal. Radioaktiver Staub in den Lungen unterscheidet sich aber davon.

Selbst Staub in den Lungen würde zumeist innerhalb weniger Tage wieder aus dem Körper austreten, aber eine sehr kleine Menge könnte in den Lungen jahrelang verweilen. Es ist dieser Staub, an einer Stelle abgelagert, der mit den Jahren auf diese Stelle einwirkt, was der Grundstein für einen Krebs sein könnte.

Die mit Abstand größte Gefahr für die Menschen ist mobile Strahlung, zumeist Staub, der aus irgendeiner Freisetzung infolge eines Unfalls wie in Fukushima freigesetzt wird und der als Kontamination bekannt ist. Das Einatmen radioaktiver Kontamination ist viel schlimmer als ihn zu essen.

Falls jemand mit radioaktivem Staub auf seiner Kleidung heimgehen und dann sein Kind umarmen würde, könnte das Kind den Staub einatmen. Darum machen sich die Behörden so viele Gedanken über Kontamination und sperren große Gebiete. Sie sorgen sich wegen der Windrichtung oder Fahrzeugen, die das Gebiet verlassen und Staub mit sich tragen könnten.

Darum tragen Arbeiter im Kernkraftwerk diese Raumfahrern ähnlich sehenden Anzüge. Diese sollen den Staub von ihnen fernhalten und nicht die Strahlung stoppen.

Gammastrahlen gehen aber ungehindert durch jene Anzüge. Die Anzüge bleiben zurück, wenn der Arbeiter nach Hause geht.

Angst und Druck

Wenn jetzt die Bewohner von Fukushima in ihre Häuser zurückkehren, muss man sich wirklich fragen: Welche Lektionen wurden gelernt?

Eine ist, dass sich die Kernkraft als extrem sicher erwiesen hat. Aber eine andere Lektion lautet, dass noch sehr viel mehr getan werden muss, um die Menschen und die Behörden aufzuklären über die wahre Natur von Kernkraft und radioaktiver Strahlung. [Na, ob das gegen die Ideologen an der Macht zu machen ist? Anm. d. Übers.]

Die japanischen Behörden haben extrem überreagiert, als sie so viele Menschen rund um Fukushima aus ihren Häusern vertrieben haben. Die Bewohner erlitten große Traumata als Folge der erzwungenen Evakuierungen. Sie wären viel sicherer gewesen, wenn sie einfach zu hause geblieben wären. Es besteht kein Zweifel daran, dass der Druck der Medien und die dadurch erzeugte Angst der Weltöffentlichkeit eine wesentliche Rolle dabei gespielt haben, dass die japanischen Behörden so reagiert haben, wie es der Fall war.

Der Druck spielt immer noch eine Rolle, bringt er doch die japanischen Behörden weiterhin dazu, so zu agieren wie sie es tun. Sie sollten viel eher Wissenschaft anwenden und nicht Aberglauben folgen.

Hoffentlich wird irgendwann mit der Zeit die echte Wahrheit von Fukushima berichtet und nicht die reflexartigen Ängste, die derzeit in die Mitte des Geschehens gerückt sind.

Link: http://www.cfact.org/2015/02/16/the-lesson-of-fukushima-is-that-nuclear-energy-is-safe/

Übersetzt von Chris Frey EIKE




Verunglimpfung der Realen Wissenschaft – Wissenschaftler und ultrareiche Grüne Umweltaktivisten greifen Klimawissenschaftler an, die die „vom Menschen verursachte Klimakatastrophe “ in Frage stellen

Die Dinge laufen nicht gut für die Klima Chaos, Inc. Die Umweltbundesbehörde feilt an der Umsetzung ihrer Kohlendioxid-Vorschriften, und Präsident Obama will die Möglichkeiten auf mehr Öl und Gas aus Alaska zu einem Tabu machen. Aber auch sonst ist die Klima-Alarm-Industrie unter Belagerung – und das zu Recht.

Kurz nachdem Obama ihn vor dem bevorstehendem Klimauntergang warnte, kündigte Premierminister Modi an, dass Indien die Kohleproduktion verdoppeln wird (hier) [1], um Strom für 300 Millionen mehr Menschen zu erzeugen. Fracking hat eine neue Ära des Erdölreichtums ins Leben gerufen, so dass es schwieriger wird, Subventionen in erneuerbare Energien zu rechtfertigen.

Textgrafik, Auszug aus dem Bericht im Science Bulletin. Übersetzung:

In dem Teil des (IPCC-) Berichts, in dem die Missverhältnisse der Modelle zu den Beobachtungen in den Tropen diskutiert werden, wird eingestanden, dass die Modelle die Erwärmung in den Tropen (mit hoher Wahrscheinlichkeit) zu hoch bewerten. Dann wird mit einem Achselzucken abgetan, dass die Ursache für diese Voreingenommenheit schwer zu fassen ist, und unverzüglich fällt das Thema „unter den Tisch“.

Was ist mit den Konsequenzen dieser Voreingenommenheit? Das IPCC wird nicht nur auffällig still in diesem Punkt, es kommt weiter zu dem Schluss, trotz aller gegenteiligen Beweise, dass es „sehr hohe Zuversicht“ hat, dass die Klimamodelle die atmosphärischen Auswirkungen bei Änderung des CO2 Niveaus korrekt beschreiben.

Die Vorhersagen einer Globalen Erwärmung werden immer amüsanter (hier) [2], bizarrer (hier)[3] und realitätsfremder (hier) [4] gegenüber dem Weltklima und des Wetters. Das IPCC hat eingestanden, dass sein wahres Ziel die Umwandlung der Weltwirtschaft ist (hier) [5] und die Umverteilung des Reichtums (hier) [6]. Immer mehr Menschen erkennen, dass das eigentliche Problem nicht der Klimawandel ist, der schon immer im Laufe der Geschichte stattfindet. Es ist die Politik, die im Namen der Verhinderung von Klimaänderung den Menschen teure Maßnahmen auferlegt die allzu oft Arbeitsplätze vernichten, Armut verewigt und Menschen tötet.

Diese Wahrnehmungen werden durch neuere Studien verstärkt. Man hat belegt, dass Klimaforscher die tatsächlich gemessenen Temperaturen systematisch nach oben revidiert haben, um eine globale Erwärmung für Australien, Paraguay, der Arktis und an anderer Stelle behaupten zu können.

Eine weitere Studie untersucht: "Warum zeigen die Modelle Erwärmung?

Dieses sind die Ergebnisse von reduzierten und einfachen Klimamodellen. Werden die Diskrepanzen der IPCC-Computermodelle berücksichtigt, so ergibt sich, dass die Auswirkungen der CO2-getriebenen, künstlichen globalen Erwärmung in diesem Jahrhundert (und darüber hinaus) wahrscheinlich „nicht mehr als ein Drittel bis die Hälfte der aktuellen Prognosen des IPCC betragen" – das heißt, nur 1º-2º C bis zum Jahr 2100! Das ist vergleichbar mit den römischen und mittelalterlichen Warmzeiten und wäre von Vorteil, nicht schädlich.

Geschrieben durch Christopher Monckton, Willie Soon, David Legates, und William Briggs, die Studie wurde veröffentlich im Januar 2015 im ScienceBulletin der Chinesischen Akademie der Wissenschaften. Unglaublich, es hat inzwischen mehr als zehntausend Aufrufe erhalten, mehr als jemals andere wissenschaftlichen Arbeiten.

Anstatt diese Veröffentlichung (das paper) zu kritisieren, greifen Klima-Panikmacher die Autoren an. Der geschäftsführende Direktor des Klima-Untersuchungs-Zentrums (und ehemaliger Greenpeace- Spitzenfunktionär) Kert Davies, sagte dem Boston Globe, es kann „einfach nicht wahr sein", dass die Autoren keinen Interessenkonflikt mit ihrer Studie haben in Anbetracht ihrer mutmaßlichen industriellen Finanzierungsquellen und externen Beratungsaufträgen. Davies griff Dr. Soon heraus und unterstellte, dass der Harvard-Forscher mehr als 1 Million Dollar von Unternehmen erhielte, die kritische Studien zu dem von Menschen verursachten Klimawandel unterstützen. Eine verwandte Gruppe startete eine Petition, dass Dr. Soon entlassen werden sollte.

Dr. Willie Soon

Kert Davies‘ verleumderische Behauptungen haben keine Grundlage. Nicht einer dieser vier Autoren erhielt einen Cent in Form von Zuschüssen oder sonstigen Zahlungen (hier) [7] für die Recherche und das Schreiben ihrer Ausarbeitungen zu Klimamodellen. Jeder von ihnen arbeitete daran in seiner Freizeit. Das einzige an das Science Bulletin wegen dessen Bemühungen geflossene Geld wurde für den freien Zugang der Öffentlichkeit zu der genannten Studie ausgegeben, so dass die Leute diese ohne Zahlschranke lesen konnten.

Ich weiß, dass diese Männer und ihre Arbeit, ihre Integrität und Hingabe an die wissenschaftliche Methode über jeden Zweifel erhaben sind. Sie gehen dorthin, wo ihre Forschung sie hinführt. Sie weigern sich, ihre Wissenschaft oder Schlussfolgerungen zu verbiegen, um sich Zuschüsse zu sichern, eine bestimmte Linie auf die globale Erwärmung zu ziehen oder ihre Sichtweisen der Industrie, der Regierung oder Anderen anzupassen.

In Bezug auf Dr. Soon’s unterstellten "Aufzeichnungen der Annahmen von Zuschüssen der Energieindustrie ", gingen $1 Mio über einen Zeitraum von Jahren an das Harvard-Smithsonian Center for Astrophysics, die rund 40% davon für Verwaltungsaufwand kassierte. Die Details sind alle offen in den öffentlichen Aufzeichnungen zu finden. Nicht ein Cent wurde für Ihre Abhandlung verwendet.

Aber da Kert Davies die Fragen zu Geld, Interessenkonflikten und Offenlegung der Finanzierung aufbrachte und wie das Geld angeblich die Wissenschaft beeinflusst – Lassen Sie uns diese Themen von der anderen Seite des Zauns erkunden.

Die Industrie der Klimapanik hat ein riesiges Interesse am Klimaalarmismus – nicht nur am Teil der $1 Mio über einen Zehn-Jahres-Zeitraum, aber an Hunderten Milliarden Dollar aus Politik, Wirtschaft, Stiftungen und andere Quellen während der letzten paar Jahrzehnte. Einiges davon ist offen und transparent, aber viel ist verborgen und verdächtig.

Zwischen 2003 und 2010 hat die US-Regierung allein für Klima und erneuerbare Energieprojekte mehr als 105 Milliarden US-Dollar Steuergelder (hier) [8] ausgegeben. Die Europäische Union und andere Unternehmen spendierten weitere Milliarden. Das meiste Geld ging an Klimamodellierer, Wissenschaftler und andere Forscher und deren Agenturen und Hochschulen; Subventionen für Unternehmen für erneuerbare Energien und für Kreditbürgschaften auf Projekte, für Ausnahmegenehmigungen bedrohter Arten und menschlicher Gesundheitsgesetze und Strafen für Unternehmen die fossile Brennstoffe nutzen. Und sogar an Umweltschutzorganisationen [environmental pressure groups : englisch ist manchmal sehr deutlich, der Übersetzer], die diese Aktionen applaudieren. Diese Umweltaktivisten verlangen nach mehr und treiben die öffentliche Politik.

Weitere Milliarden gingen an staatliche Aufsichtsbehörden, die viele dieser Aktivitäten koordinieren und Vorschriften erlassen, die oft auf geheimnisvoller, trügerischer und vorherbestimmter "Wissenschaft" basieren, Anklagen, ausgedacht von Abzocker John Beale (hier) [9] und anderer Taktierer und dann „prozessieren-und-kassieren“. Politiker erhalten Millionen in Bargeld für ihre Kampagnen und Sachleistungen dieser Organisationen und ihrer Gewerkschaften, um sie im Amt und den Selbstbedienungsladen auf Kurs zu halten.

Die American Lung Association (hier)[10] (ALA amerikanischer Lungenschutzverein) unterstützt die Klimapolitik der US-Umweltbehörde EPA – ALA erwähnte die $25 Mio Zuwendungen von der EPA in den letzten 15 Jahren aber nie. Insgesamt erhielt der ALA in dieser Zeit 591 Zuschüsse der Regierung in Höhe von $ 43Mio., finanzierte Big Green Stiftungen mit zusätzlichen $76Mio und das EPA zahlte $181 Mio an 15 seiner Mitglieder im Clean Air Scientific Advisory (Wissenschaftlicher Beirat für saubere Luft), die regelmäßig mit ihm abstimmen.

Linksaußen-Sponsoren wie die David und Lucille Packard Foundation (Computer), Schmidt Family Foundation (Google), Rockefeller Brothers Fund (Öl), Marisla Foundation (Öl) und Wallace Global Fund II (Anbau) unterstützen Greenpeace und andere Gruppen, um Klimawandel zu Rechtfertigung von Anti-Energie und Anti-Personen Politik zu verwenden. Der Leitende Direktor eines Gas-Unternehmens und ein New Yorker Bürgermeister gab dem Sierra Club $76 Mio für seine Anti-Kohle-Kampagne.

Seit Jahren nutzt Greenpeace (hier) [11] Webseiten von DeSmogBlog, ExxonSecrets, Polluterwatch und anderen Frontgruppen, um Wissenschaftler und andere anzugreifen, die ihre Taktik und Politik herausfordern. Greenpeace USA allein hatte Erträge in Höhe von $ 32.791.149 im Jahr 2012, wie Ron Arnold und ich in Cracking Big Green (hier) [12] feststellten.

Geben Sie Text oder eine Website-Adresse ein oder lassen Sie ein Dokument übersetzen.

Ausgangssprache: Englisch

HINWEIS: DeSmogBlog Geldgeber John Lefebvre bekannte sich schuldig wegen Verschwörung zur Durchführung illegaler Internet-Glücksspiel-Transaktionen und erklärte sich bereit, mit der Staatsanwaltschaft zusammenarbeiten und als Kronzeuge aufzutreten, wenn nötig. Das Gericht verurteilte ihn zur Rückzahlung von $185Mio.)

Andere US-Umweltschutzorganisationen, die Anti-Job-, Anti-Personen-Klimapolitik betreiben, hatten auch in 2012 fette Einkommen: Environmental Defense Fund ($ 111.915.138); Natural Resources Defense Council ($ 98.701.707 ); Sierra Club ($ 97.757.678); National Audubon Society ($ 96.206.883) ; Wilderness Society ($ 24.862.909); und Al Gores Allianzen für Klimaschutz ($ 19.150.215). Insgesamt mehr als 16.000 amerikanische Umweltgruppen sammeln jährlich mehr als $ 13.4Mrd. ein (Zahlen für 2009). Nur ein kleiner Teil davon stammt aus Mitgliedsbeiträgen und Einzelbeiträgen.

Richard Rahn (hier) [13] und Ron Arnold (hier ) [14] wiesen darauf hin, dass eine weitere wichtige Quelle für ihr Geld Wladimir Putins Russland ist . Ein gut dokumentierter aktueller Bericht (hier) [15] zu Allianzen in der Umweltpolitik zeigt, wie mehrere zehn Millionen Dollar von russischen Interessenten offenbar über Wakefield Quinn, Bermuda [führende Kanzlei für Rechtsdienstleistungen, internationale Kundenbasis und wirkt für Firmen und Institutionen, vermögende Privatkunden und Investmentgesellschaften] an Umweltbünde floss, einschließlich der Sea Foundation, an große Öko-Interessengruppen wie der Sierra Club, der NRDC und die Liga der Wählerschützer. Auch das Amerikanische Fortschrittscenter von John Podesta, ehemaliger Berater des Weißen Hauses, nahm Millionen von Sea Change.

Es kommt noch viel empörender. Eine der Websites, die Dr. Soon angreifen, wird von George Soros (hier ) [16] finanziert; es wird hart gearbeitet, um die Meteorologen, die mit Klima-Panikmache nicht einverstanden sind, zu knebeln. Und um das Ganze abzurunden, reichte Kert Davies eine FOIA-Anfrage gegen Dr. Soon und sechs andere Klimawissenschaftler ein und verlangte, dass sie alle ihre E-Mails und Finanzierungsunterlagen veröffentlichen. Aber währenddessen hält er die Finanzierung seines Klima-Untersuchungs-Zentrum top secret (die Website ist bei Greenpeace registriert und das Zentrum ist als Rainbow Warriors front group (hier) [17] bekannt). Und die Wissenschaftler, die immer alle unsere Steuergelder bekommen, behaupten dagegen, ihre Rohdaten, Computercodes, und die CO2–treibenden Algorithmen wären Privateigentum und von FOIA und sogar US-Kongress-Anfragen ausgenommen.

Lassen Sie uns auf jeden Fall Ehrlichkeit, Integrität, Transparenz und Rechenschaftspflicht in unserer Klima-Wissenschaft und den regulatorischen Prozessen der Politik fordern. Beenden Sie die Interessenkonflikte, führen Sie lebhafte Debatten, und stellen Sie sicher, dass solide Wissenschaft unsere öffentlichen Gesetze und Richtlinien bestimmt (und nicht die Regierung, Stiftungen oder Russisches Bargeld).

Und lassen Sie uns dort beginnen, wo das große Geld und die Macht zu finden sind.

Erschienen auf cfact am 12. Februar 2015

Übersetzt durch Andreas Demmig für das EIKE

Link: http://www.cfact.org/2015/02/12/vilifying-realist-science-and-scientists/

Im Originaltext vorhandene Verlinkungen der Quellenangaben

[1] http://articles.economictimes.indiatimes.com/2015-01-29/news/58586736_1_coal-output-plan-generation-renewable-portfolio

Das Versprechen Indiens zum Klimawandel behindert nicht den Plan seiner Kohleförderung

NEU-DELHI: Indien ehrgeizige Pläne, die Kohlenförderung zur Stromerzeugung um mehr als das Doppelte zu erhöhen wird die Erwärmung nicht antreiben, so die Aussagen von Ministerpräsident Narendra Modi zur Bekämpfung des Klimawandels. Ironischerweise hat die Kohlenstoff emittierende Energieform Schutz vor den Plänen der Regierung ihre Solarstromkapazität zu verfünffachen. Um Kohle wurde einen großen Bogen gemacht in der Obama Klima- und Energie Abmachung..

[2] http://www.numberwatch.co.uk/warmlist.htm

Eine komplette Liste der durch die globale Erwärmung hervor gerufenen Dinge
Unzählige Links weisen auf viele, viele Webseiten hin, komplett kann das m.e. nie werden– lohnt sich für lange Abende.

Hier nur ein kleiner Auszug mit grober Übersetzung:

AIDS, Wetterkapriolen zerstört afghanischen Mohn, afrikanischer Brandopfer, Alte Menschen von mehr Todesfällen bedroht, Mohnpflanzen werden fruchtbarer, Afrika’s Wüsten wachsen, Afrika in Konflikt, wucherndem Unkraut, Air France Absturz, Luftblasen, Luftdruckänderungen, Flughafen Malaria, Agulhas Strom , Alaska Städte langsam zerstört, al-Qaida und Taliban geholfen, Allergie Anstieg, Allergie-Saison länger, Alligatoren in der Themse, Alpen schmelzen, Amazon eine Wüste, amerikanischen Traum am Ende, Amphibien Brut schlüpft früher (oder auch nicht), anaphylaktische Reaktionen auf Bienenstiche, Urwälder dramatisch verändert, Tiere gehen in die Berge, Tiere schrumpfen, Antarktis Gras gedeiht, Antarktis wächst, Antarktis schrumpft, antarktisches Meeresleben in Gefahr, Angst Behandlungen nehmen zu, Algenblüten, archäologische Stätten bedroht, Arktis schmilzt, Arktis in voller Blüte, Arktis eisfrei, Eis der Arktis schmilzt schneller, Arktische Seen verschwinden, arktische Tundra verloren, Erwärmung der Arktis findet nicht statt, eine Rose riecht nach nichts, Asteroiden Treffer Risiko, Asthma, Atlantic weniger salzig, Atlantic salziger, atmosphärische Zirkulation modifiziert, Angriff der Killer-Quallen, Lawinengefahr reduziert, Lawinengefahr erhöht,

[3] http://wattsupwiththat.com/climate-fail-files/

Datei der Klimafehler

Diese Seite führt die Klimawissenschaft und die Klimafolgen-Behauptungen auf, die entweder nicht bewiesen oder geändert, verschoben oder erweitert wurden um den Autor davor zu schützen, zuzugeben, dass die ursprüngliche Aussage falsch war. – Beispiele werden weiter fortgesetzt

https://www.cfact.org/wp-content/uploads/2014/09/Climate-Hype-Exposed.pdf

Klima Übertreibungen offengelegt

UNO und Obama-Regierung fördern Pseudo-Wissenschaft um eine Politik zu rechtfertigen, die Energie, Arbeit, Freiheit verletzt – und die Menschen

[5] http://thehill.com/blogs/pundits-blog/energy-environment/232229-the-climate-comintern-speaks

Weiterer Bericht über “UN Offizielle enthüllt den wahren Grund der Erwärmungs-Panikmache“, siehe auch http://tinyurl.com/o5azqkf

[6] http://wattsupwiththat.com/2010/11/18/ipcc-official-%E2%80%9Cclimate-policy-is-redistributing-the-worlds-wealth%E2%80%9D/

Thema wie [5] jedoch schon vom 18.Nov. 2010: IPCC-Beamter: "Die Klimapolitik ist das Neuverteilen des Reichtums der Welt"

[7] http://www.climatedepot.com/2015/01/29/monckton-ridicules-allegations-of-conflict-of-interest-against-dr-willie-soon/

Monckton spottete über die Behauptung, es gäbe einen Interessenkonflikt bei Dr. Soon,
ein offener Brief an den Herausgeber des Science Bulletin, Dr Zhang Li
Im Text weiter unten: Es scheint, wir haben jetzt eine neue Mafia am Werk, mit Namen Greenpeace. Und die Regierungen und die unehrlichen Geschäftsführer arbeiten gemeinsam mit Greenpeace, wie ein organisiertes Verbrechersyndikat.

[8] http://www.forbes.com/sites/larrybell/2011/08/23/the-alarming-cost-of-climate-change-hysteria/

Die alarmierenden Kosten der Klimawandelhysterie

Der oberste US Rechnungshof (GAO) kann keine Vorteile angeben, die Steuerzahler bekommen haben, für die Milliarden von Dollar die jedes Jahr durch die Politik ausgegeben werden, angeblich zur Bekämpfung des Klimawandels.

[9] http://junkscience.com/?s=beale

Eine Zusammenstellung mehrerer Vorkommnisse, wie das EPA mit den Aufgaben seinen Mitarbeitern schwindelt, diese für wenig Arbeit geschmiert werden. Mr. Beale war jedoch auch für andere grüne Organisationen tätig. Die Machenschaften flogen auf, Beale muss für 36 Monate in Gefängnis und rd. $1 Mio zurückzahlen. Er wird jedoch weich fallen, so wie andere vor ihm.

[10] http://www.globalwarming.org/2014/06/15/american-lung-association-manipulates-maternal-instinct-to-sell-epa-power-grab/

Die American Lung Association (ALA) manipuliert in einer TV und Anzeigenkampagne den "Mutterinstinkt „ um für den EPA Clean Power-Plan zu werden, der die Kohlenstoff "Verschmutzung" für bestehende Kraftwerke einschränkt..

[11] http://townhall.com/columnists/pauldriessen/2014/07/15/greenpeace-showcases-its-antihuman-side-n1862066

Greanpeace zeigt seine unmenschliche Seite

Interview, eher jedoch ein Verhör, von Paul Driessen durch Greenpeace Aktivist Connor Gibson . Nach anfänglichem Geplänkel über Fakten der Realität und deren Ignorierung durch Gibson kam das Gespräch auf die Finanzierung von cfact. Driessen konterte jedoch mit Wissen über die hohen Summen die Greenpeace und andere NGO’s bekommen. „In der Tat, Gibson wollte die zerstörerischen und auch tödlichen Wirkungen der Politik und Kampagnen von Greenpeace nicht wirklich diskutieren.“

[12] http://www.amazon.com/Cracking-Big-Green-Save-Earth-ebook/dp/B00O4F3F22

Link zu einem Buch von Ron Arnold und Paul Driessen: Knackt die Big Green: Rettet die Welt vor der Rettet-die-Erde Geldmaschine.

[13] http://www.washingtontimes.com/news/2015/feb/2/richard-rahn-vladimir-putin-funding-opposition-to-/

Die russische Geld-Pipeline

Welches Land hat das größte Interesse die Expansion der Öl- und Gasindustrie in Europa und Nordamerika zu stoppen? Antwort: Die Russische Föderation in hohem Maße – in der Höhe von mehreren hundert Milliarden Dollar.

[14] http://dailysignal.com/2015/02/04/obama-rejects-arctic-oil-gas-drilling-putin-preparing-come-take/

Obama lehnt Arktische Öl- und Gasbohrungen ab. Ist Putin bereit, das zu übernehmen?

[15] https://www.biggreenradicals.com/wp-content/uploads/2015/01/Klein_Report.pdf

PDF, Klein Report: Am 30. Juli 2014 stellte US Senat-Ausschuss für Umwelt und öffentliche Arbeiten ein Minderheitsbericht mit dem Titel vor: "Die Kette der Umwelt Befehle: Wie ein Club der Milliardäre und Ihre Stiftungen die Umweltbewegung und Obamas EPA kontrollieren. " Der 92-seitige Bericht detailliert ein Lügennetz des "dunklen Geldes" von ausländischen Investitionen in die amerikanische Umweltbewegung über eine Stiftung namens Sea Foundation.

[16] http://wattsupwiththat.com/2012/01/22/ForecastTheFacts-org-political-activists-gagging-our-tv-meteorologists-on-climate-issues/

Politische Aktivisten knebeln unsere TV-Moderatoren bei Klimathemen

Jemand oder eine Organisation versucht, die bevorstehenden Jahrestagung der Amerikanischen Meteorologischen Gesellschaft (AMS) zu beeinflussen.

"Dies ist ein wichtiger Moment in der Geschichte des AMS", sagte Daniel Souweine, Direktor der Kampagne. "Es ist allgemein bekannt, dass eine große Zahl von Meteorologen Klimawandel-Leugner sind. Es ist wichtig, dass das AMS Council dem Druck dieser Leugner widersteht und eine starkes Statement übergeben, welches derzeit geprüft wird. "

[17] http://www.greenpeace.org/canada/en/About-us/The-new-Rainbow-Warrior-is-coming-home/

Web Seite von Greenpeace, Werbung und Aktivitäten der Regenbogen-Krieger




Jim Hansens 99%-Sicherheit zur globalen Erwärmung ist nicht haltbar

Der Hintergrund ist wohlbekannt. Senator Tim Wirth hat die Zusammenkunft des Komitees so arrangiert, dass sie auf den statistisch heißesten Tag des Sommers fiel. Und die Rekordtemperatur von 98° F [ca. 37°C] an jenem Tag hat seine Hoffnungen voll erfüllt. Senator Wirth hat auch dafür gesorgt, dass die Fenster des Tagungsraumes während der Nacht zuvor offen geblieben waren, so dass die Air Condition wirkungslos war. Der Raum kochte. Jim Hansen war ein Hit. Es war ein glatter Sieg von Zynismus und äußerer Umstände über Zweifel und Wissenschaft.

1. Die 99%-Lösung: Der Gehalt von Jim Hansens Anhörung an jenem Tag ist in dem kleinen Anhang am Ende dieses Beitrags erhalten [wird aber hier nur im Original übernommen, da es bei der Übersetzung dieses Beitrags um den Tatbestand als Solchen geht. Anm. d. Übers.]; siehe (1) mit der gesamten Aufzeichnung. Aber die Essenz von 99% befindet sich in der nächsten Graphik, der GISS-Temperaturaufzeichnung 1987+, zusammen mit lächerlich geringen Fehlerbalken (1sigma = ±0.035°C oder ±0.025°C).

Original-Bildunterschrift: Änderung der globalen Lufttemperatur im vergangenen Jahrhundert, wobei der Nullpunkt definiert ist als der Mittelwert der Jahre 1951 bis 1980 (95% Vertrauensgrenze)… Dies ist die Folge der unvollständigen räumlichen Verteilung der Messstationen, vor allem über den Ozeanen. Der Punkt für das Jahr 1988 vergleicht die Temperatur von Januar bis Mai mit dem Mittelwert der gleichen 5 Monate von 1951 bis 1980“.

Dies entspricht ziemlich genau Jim Hansens Abbildung 1, die er dem Senatskomitee präsentierte. Ich habe den grünen Kasten hinzugefügt, der die ±0.13°C 1sigma-Schwankungen der globalen Temperatur zeigt während der Referenzperiode von 1951 bis 1980.

Die Aufzeichnung von 1987 war Abbildung 1 in Hansen und Lebedeff (April 1988), etwa drei Monate vor seiner Anhörung (2) und Abbildung 6 in Hansen und Lebedeff (1987) (3)

In seinen Ausführungen hat Jim Hansen impliziert, dass diese Schwankungsbreite von 1sigma = ±0.13°C die Gesamtsumme der natürlichen Klimavariabilität war. Der Anstieg der Lufttemperatur bis Mitte 1988 von fast 0,4°C lag dann 3 sigma jenseits des Natürlichen. Offensichtlich machte dies den Trend zu 99% unnatürlich.

Das ist eine ganze Menge Schaum. Glauben Sie nicht? Schauen sie auf seine Aussagen im Anhang.

Irgendwie wurde der Trend der Jahre 1884 und 1937 sowohl von Hansen als auch den Senatoren übersehen. Genau vor ihren Augen lag eine Zunahme der globalen Lufttemperatur von 0,84°C. Das wäre mehr als 6 sigma jenseits des Natürlichen. In Jim Hansens Welt macht dies den Trend zu über 99,99966% unnatürlich. Hmmm … was könnte der Grund dafür sein?

Was ist mit der wahrscheinlichen Zunahme der globalen Lufttemperatur von ~1°C, unnatürliches 7,7 sigma, zwischen der Kleinen Eiszeit um 1650 und dem Jahr 1900? (4) Das können die Menschen nicht gewesen sein. Klima-Gremlins vielleicht?

Und jene Dansgaard-Oeschger und Heinrich-Ereignisse mit ihren Trends einer Änderung von mehreren Grad Celsius pro Jahrzehnt. Auch unnatürlich?

Oder sind diese vielleicht niemals aufgetreten? Das wäre doch eine begeisternde neue Herausforderung für die AGW-Stallburschen: ,wir müssen die Dansgaard-Oeschger und Heinrich-Ereignisse loswerden!‘

2. Eintritt der physikalischen Kausalität: Aber die Anhörung war hier nicht zu Ende. Als Nächstes präsentierte Jim Hansen die Szenarien A, B und C der globalen Erwärmung nach seinem GISS-Modell II, um zu beweisen, dass die jüngsten 99% unnatürlicher Erwärmung durch CO2-Emissionen verursacht worden ist. Schließlich bietet die Physik Kausalität. Die nächste Abbildung zeigt, was die Senatoren gesehen haben und was das JGR [= Journal of Geophysical Research] veröffentlicht hat, nach der Begutachtung und so weiter.

Das Komitee sah und das begutachtete JGR veröffentlichte Vorhersagen ohne Fehlerbalken. Ohne dem JGR zu nahe treten zu wollen – aber das macht die Vorhersagen physikalisch bedeutungslos. Sie können keinerlei physikalische Kausalität andeuten und tun es auch nicht; überhaupt keine.

Falls man aber weitergeht und wissenschaftliche Glaubwürdigkeit einführt, indem man physikalisch gültige Fehlerbalken einzeichnet (± 8,9°C im Jahre 1988), zeigen sich die Szenarien selbst – nun – physikalisch bedeutungslos (6). Auch hier gibt es also keine Rettung.

Aus der Legende der Anhörung: Jährliche mittlere globale Lufttemperatur, berechnet für Spurengas-Szenarien A, B und C, beschrieben in Referenz 1 (Referenz (5) unten) … der schattierte Bereich ist eine Schätzung der globalen Temperatur während der Höhepunkte der gegenwärtigen und früherer Zwischeneiszeit-Perioden, jeweils vor etwa 6000 und 120.000 Jahren. …

Das also ist Jim Hansens 99%-Sicherheit: Für seine Zwecke ist die gesamte 1 sigma-Bandbreite der natürlichen globalen Variabilität der Lufttemperatur ±0,13°C. Die Tatsache, dass es keinerlei physikalische Rechtfertigung für seine Wahl gibt, schien niemanden gestört zu haben, einschließlich eines Ph.D.-Astrophysikers. Allerdings ist es eine sehr zupass kommende Statistik.

Jim Hansens physikalische Kausalität? Sie beruht auf Erwärmungs-Szenarien mit nicht genannter Genauigkeit, nicht ausgeführten Begründungen und fast mit Sicherheit auf einer nicht berechneten Genauigkeit. Sie sind berechnet mittels eines Modells, dass keiner einzigen veröffentlichten kritischen physikalischen Analyse standhält – bis auf den heutigen Tag.

Meiner Ansicht nach ist seine Analyse schrecklich inkompetent. Aber sie setzte den Standard der Konsens-Klimatologie, der man bis auf den heutigen Tag folgt.

Bis hier übersetzt von Chris Frey EIKE

Anhang [hier nur im Original, Begründung siehe oben! Erstens gibt es derzeit immer mehr interessante Beiträge, die übersetzenswert sind, und zweitens fällt es meinen Fingern schwer, den Sermon von Hansen zu übersetzen. Anm. d. Übers.]

Jim Hansen’s oral proof testimony to the committee: “[The] global temperature … is the highest of the period of record (then about 100 years). The rate of warming over the past 25 years … is the highest on record. 1988 will be the warmest year on the record.

Causal association requires first that the warming be larger than natural climate variability and, second, that the magnitude and naturel of the warming be consistent with the greenhouse mechanism.

The warming is almost 0.4 degrees Centigrade by 1987 relative to climatology, which is defined as the 30 year mean, 1950 to 1980 and, in fact, the warming is more than 0.4 degrees Centigrade in 1988. The probability of a chance warming of that magnitude is about 1 percent. So, with 99 percent confidence we can state that the warming during this time period is a real warming trend.

The main point to be made here is that the expected global warming [Jim Hansen’s Model II Scenarios A, B, and C – P] is of the same magnitude as the observed warming. Since there is only a 1 percent chance of an accidental warming of this magnitude, the agreement with the expected greenhouse effect is of considerable significance.” [1]

Jim Hansen’s written proof testimony to the committee: “The present observed global warming is close to 0.4 oC, relative to … the thirty year (1951-1980) mean. A warming of 0.4 oC is three times larger than the standard deviation of annual mean temperature in the 30-year climatology. The standard deviation of 0.13 oC is a typical amount by which the global temperature fluctuates annually about its 30 year mean; the probability of a chance warming of three standard deviation is about 1%. Thus we can state with about 99% confidence that current temperatures represent a real warming trend rather than a chance fluctuation of the 30 year period.” [1]

And, just to lock it in, here’s what the GRL authoritatively peer-reviewed Hansen and Lebedeff say about the trend: “What is the significance of recent global warming? The standard deviation of annual-mean global-mean temperature about the 30-year mean is 0.13 oC for the period 1951-1980. Thus the 1987 global temperature of 0.33 oC, relative to the 1951-1980 climatology, is a warming of between 2s and 3s. If a warming of 3s is reached, it will represent a trend significant at the 99% confidence level. However, causal connection of the warming with the greenhouse effect requires examination of the expected climate system response to a slowly evolving climate forcing, a subject beyond the scope of this paper.” [2]

The “expected climate response” was Hansen’s Model II A, B, and C scenarios, both published, [5] and presented before the committee, [1] without any error bars.

From the testimony scenario Figure legend: “[Scenario A assumes continued growth rates of trace gas emission rates typical of the past 20 years, i.e., about 1.5 % yr-1 emission growth; scenario B has emission rates approximately fixed at current rate; scenario C drastically reduces trace gas emissions between 1990 and 2000].”

[1s, (2s, 3s, etc) changed to 1sigma for clarity.  ]

References:

1. Hansen, J. Statement of Dr. James Hansen, Director, NASA Goddard Institute for Space Studies. 1988 [Last accessed: 11 August 2014; Testimony before the US Senate Committee on Energy and Natural Resources: The Greenhouse Effect: Impacts on Current Global Temperature and Regional Heat Waves]. Available from: http://image.guardian.co.uk/sys-files/Environment/documents/2008/06/23/ClimateChangeHearing1988.pdf.

2. Hansen, J. and S. Lebedeff, Global Surface Air Temperatures: Update through 1987. Geophys. Res. Lett., 1988. 15(4): p. 323-326.

3. Hansen, J. and S. Lebedeff, Global Trends of Measured Surface Air Temperature. J. Geophys. Res., 1987. 92(D11): p. 13345-13372.

4. Keigwin, L. Bermuda Rise Box Core Data. IGBP PAGES/World Data Center-A for Paleoclimatology Data Contribution Series # 96-030. 1996 [Last accessed: 14 September 2007; Available from: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.

5. Hansen, J., et al., Global Climate Changes as Forecast by Goddard Institute for Space Studies Three‐Dimensional Model. J. Geophys. Res., 1988. 93(D8): p. 9341-9364.

6. Frank, P., Propagation of Error and the Reliability of Global Air Temperature Projections; Invited Poster, in American Geophysical Union Fall Meeting. 2013: San Francisco, CA; Available from: http://meteo.lcd.lu/globalwarming/Frank/propagation_of_error_poster_AGU2013.pdf (2.9 MB pdf).

Link: http://wattsupwiththat.com/2015/02/18/jim-hansens-99-surety-on-global-warming-doesnt-hold-up/




Wie man Menschen einen besseren Lebensstandard vorenthält

Erst vor 200 Jahren war der allergrößte Teil der Menschheit arm, krank und unterernährt. Die Lebenserwartung lag im Jahre 1810 unter 40 Jahren, und selbst königliche Familien lebten ohne sanitäre Anlagen unter weit schlechteren Bedingungen als heute wohlhabende amerikanische Familien. Dann kam es zu einer veritablen Revolution.

Die Welt begann sich zu erfreuen an einer Schatztruhe des Wohlstands, der Technologie, von Lebensstandards und der Lebenserwartung. Innerhalb von nur zwei Jahrhunderten ist das mittlere Einkommen der Welt um das Elffache gestiegen, die Krankheitsraten gingen rapide zurück, und die Lebenserwartung hat sich mehr als verdoppelt. Unglücklicherweise hat nicht jeder gleichermaßen davon profitiert, und selbst heute noch leben Milliarden Menschen unter Bedingungen, die nur wenig besser sind als diejenigen im Jahre 1810. Sie aus Elend, Krankheit und früher Sterblichkeit in die Moderne zu bringen könnte derzeit unsere wichtigste wirtschaftliche, technologische und moralische Herausforderung sein.

Viele Faktoren spielten bei diesem phänomenalen Fortschritt eine Rolle. Wie jedoch Julian Simon, Indur Goklany, Alex Epstein und die Autoren dieses Artikels dokumentiert haben, wurden alle diese Prozesse durch fossile Treibstoffe erst möglich, die die Energie zur Verfügung gestellt haben für Verbesserungen in Industrie, Transportwesen, Wohnen, Gesundheit und Umweltqualität sowie für eine starke Abnahme von Unwetteropfern, seien das nun Stürme, Dürren, Hitze oder Kälte. Die moderne Zivilisation lebt unbestreitbar von hohem Energieverbrauch – und 85% der heute verbrauchten Energie weltweit stammt immer noch aus Kohle, Öl und Erdgas. Diese Treibstoffe sorgen für ein globales BIP von 70 Billionen Dollar pro Jahr, um uns praktisch alles zu ermöglichen, was wir machen, wachsen lassen, verschiffen, transportieren, essen und tun. Der Rest der Welt verdient das auch.

Forderungen nach der Eliminierung von Kohlenwasserstoff-Vorräten und an die Gesellschaft aufzuhören, fossile Treibstoffe zu verbrauchen, würde diesen Prozess umkehren, die Gesundheit der Menschen und den Lebensstandard zerschlagen. Außerdem würde dadurch Milliarden von immer noch unterernährten Menschen weltweit der Lebensstandard dauerhaft verwehrt, den viele von uns als gegeben hinnehmen.

Züge und Autos würden nicht fahren. Flugzeuge würden nicht fliegen. Kühlung, sichere Versorgung mit Nahrung und Wasser, Zentralheizung und Air Condition, Plastik und Pharmazeutika würden verschwinden oder höchstens von wohlhabenden Eliten bezahlt werden können. Wir würden im Sommer schwitzen und im Winter frieren. Uns würde Strom nur zur Verfügung stehen, wenn er gerade da ist und nicht, wenn wir ihn brauchen – um Fließbänder am Laufen zu halten, Bildung und Forschung durchzuführen, lebensrettende Operationen vorzunehmen sowie Computer, Smart Phones und soziale Medien zu gebrauchen.

Die Verbannung von Portfolios fossiler Treibstoffe ist auch finanziell unüberlegt. Aktien von fossilen Treibstoffen sind unter den Besten für solide, risikoresistente Renditen. Einer Analyse zufolge erbrachte ein Anteil von 2,1% an Unternehmen im Bereich fossile Treibstoffe durch Kollegen und Universitäten 5,7% aller Stiftungsgewinne während der Jahre 2010 und 2011. Damit wurden Wissenschafts-, Bildungs- und andere Programme finanziert.

Gegenwärtig existieren keine gleichwertigen alternativen Treibstoffe, um fossile Treibstoffe zu ersetzen. Um ökonomische, soziale und umweltliche Katastrophen sowie solche bzgl. der menschlichen Gesundheit zu vermeiden, die unvermeidlich mit der Eliminierung von Kohlenwasserstoffen einher gehen würden, würden wir bezahlbare, zuverlässige Optionen benötigen in einem Ausmaß, das ausreicht, die Treibstoffe zu ersetzen, auf die wir uns heute stützen. Die Entsagungs-Bewegung ignoriert die enorme Größenordnung des gegenwärtigen und des zukünftigen Energiebedarfs sowie die Tatsache, dass bestehende „erneuerbare“ Technologien diese Erfordernis nicht einmal ansatzweise decken können.

Fossile Treibstoffe erzeugen weit mehr Energie pro Acre als Biotreibstoffe, sagt der Analyst Howard Hayden. Die Verwendung von Biogas – anstelle von Kohle oder Erdgas – um Strom für eine Stadt in den USA mit 700.000 Einwohnern zu erzeugen, würde es erfordern, Bäume in einem Gebiet von der Größe von Rhode Island zu fällen – jedes Jahr. Die Herstellung von maisbasiertem Äthanol, um das Benzin in den Autos der USA zu ersetzen, würde erfordern, jedes einzelne Acre in den US-Staaten Iowa, Illinois, Indiana, Kansas, Michigan, Minnesota, North und South Dakota sowie Wisconsin mit Mais zur Treibstoffherstellung zu bepflanzen. Wind und Solar machen derzeit lediglich 3% des globalen Energieverbrauchs aus; das berichtet die EIA in den USA. Deren Vorhersage zufolge werden Wasserkraft, Wind, Solar, Biomasse und geothermische Energie zusammen bis zum Jahr 2040 trotz stetig weiter wachsender Bevölkerung immer noch lediglich 15% des Gesamt-Energieverbrauchs ausmachen.

Fossile Treibstoffe zu verbannen wäre gleichbedeutend mit keine Energie verbrauchen. Das ist ökonomischer Selbstmord und ökologischer Völkermord.

Während der letzten drei Jahrzehnte haben es fossile Treibstoffe etwa 1,3 Milliarden Menschen ermöglicht, lähmender Energiearmut zu entkommen – über 830 Millionen dank der Kohle allein – und China hat 99% seiner Bevölkerung mit dem Netz verbunden sowie seine Stahlerzeugung verachtfacht, ebenfalls hauptsächlich mit Kohleenergie. Allerdings warten immer noch 1,3 Milliarden Menschen verzweifelt auf Strom und modernen Lebensstandard. Allein in Indien haben über 300 Millionen Menschen (das entspricht der Bevölkerung der gesamten USA) keinen Zugang zu elektrischem Strom.

In Afrika südlich der Sahara fehlen etwa 615 Millionen Menschen (100 Millionen mehr als in den USA, Kanada und Mexiko zusammen) immer noch lebensrettende Technologien, und 730 Millionen Menschen (die Bevölkerungszahl von Europa) kochen und heizen immer noch mit Holz, Holzkohle und Tierdung. Jedes Jahr sterben Millionen Menschen an Lungen- und Darmkrankheiten infolge des Einatmens von Rauch von offenen Feuern oder dem Fehlen sicherer Nahrungsmittel und Wasser, die nur mit Strom sichergestellt werden können.

Diesen tödlichen Energiemangel zu beenden erfordert reichliche, zuverlässige, bezahlbare Energie in bislang unbekannten Ausmaßen, und mehr als 80% davon werden aus fossilen Treibstoffen kommen müssen. Kohle deckt derzeit 40% des Weltstromes, in einigen Ländern ist der Anteil noch sehr viel größer. Es ist unwahrscheinlich, dass sich das in nächster Zeit ändern wird.

Wir können noch nicht einmal Windturbinen und Solarpaneele ohne Kohle und Petroleum herstellen: Die Rohstoffe für Turbinen, Paneele und Transportwege müssen abgebaut, eingeschmolzen, hergestellt und transportiert werden. Zum Bau und Betrieb müssen dann Backup-Einheiten zur Verfügung stehen, die ebenfalls in riesigem Umfang Land, Zement, Stahl, Kupfer, seltene Erden und andere Materialien erfordern.

Kohlekraftwerke in China, Indien und anderen Entwicklungsländern emittieren große Mengen realer Verschmutzung: Sulfate, Stickoxide, Quecksilber und Ruß, was zu Atemproblemen und Todesfällen führen kann. Allerdings dürften moderne Verschmutzungs-Kontrollsysteme die meisten Herausforderungen dieser Art eliminieren.

Entsagungs-Aktivisten versuchen, diesen Fakten zu begegnen mit Behauptungen, dass die Klimawissenschaft ,settled‘ ist und die Welt vor einem vom Menschen verursachten Kataklysmus der globalen Erwärmung steht. Auf dieser Grundlage verlangen sie, dass Colleges und Universitäten auf sämtliche Debatten verzichten und zügig daran arbeiten sollen, Kohlenwasserstoffe zu eliminieren. Wie wir jedoch hier und anderswo gezeigt haben, ist der vermeintliche „97%-Konsens“ eine Fiktion; keine vom Menschen verursachte Klimakrise dämmert herauf, und es gibt vielfältige Beweise von massivem “pHraud” in der viel zu chaotischen Klima-„Forschung“.

Daher fragen wir: Mit welchem Recht verweigern die Entsagungs-Aktivisten und die Klima-Alarmisten den notleidendsten Menschen den Zugang zu Strom und Treibstoff für Motoren, zu Arbeitsplätzen und einem besseren Leben? Mit welchem Recht schreiben sie den Menschen vor, welches Niveau der wirtschaftlichen Entwicklung, der Gesundheit und des Lebensstandards „erlaubt“ ist? Mit welchem Recht setzen sie Menschen einer Politik aus, die Familien vor hypothetischen, übertriebenen, künstlich erzeugten und illusorischen Klimawandel-Gefahren in 50 bis 100 Jahren von heute an „bewahren“ soll? Mit welchem Recht wollen sie den Entzug von Energie, ökonomischer und gesundheitlicher Vorsorge durchsetzen, die Krankheiten vordringen lässt, die sie morgen töten könnten?

Das ist nicht ethisch. Es ist intolerant und totalitär. Es ist arrogant, unmoralisch, tödlich und rassistisch.

Wir sagen diesen Aktivisten: „Ihr kommt zuerst! Enthaltet euch selbst zuerst! Verbannt fossile Treibstoffe aus eurem Leben! Alle! Geht nach Afrika in die Gebiete südlich der Sahara und lebt ein paar Monate lang wie die Eingeborenen dort, trinkt ihr von Parasiten durchsetztes Wasser, atmet ihre verschmutzte Luft, erduldet ihre Krankheiten übertragenden Fliegen und Mücken – ohne von modernen Medikamenten oder Malariaimpfungen zu profitieren … und wandert 20 Meilen zu einer Klinik, wenn ihr mit Fieber zusammenbrecht!“

Kollegen, Universitäten und Finanzierern sagen wir: „Verlangt nach einer offenen, robusten Debatte zu all diesen Themen und stellt deren Abhaltung sicher, bevor ihr über Entzug entscheidet! Erlaubt keine lärmenden Unterbrechungen, Streiks oder falsche Behauptungen bzgl. eines Konsens‘. Überzeugt Entzugs-Befürworter davon, ihre Position respektvoll und auf Tatsachen beruhend zu vertreten! Schützt die Rechte und Bemühungen von Menschen überall um zuverlässigen, bezahlbaren Strom, besseren Lebensstandard und verbesserter Gesundheit. Und anstatt einem „globalen Entzugs-Tag“ zu huldigen solltet ihr einen „Kohlenwasserstoff-Begrüßungs-Tag“ propagieren und abhalten.

Link: http://www.cfact.org/2015/02/07/divesting-people-of-better-living-standards/

Übersetzt von Chris Frey EIKE




Theorie über den Stillstand – Klimawissenschaft hat ,Adjustierungs-Potentiale“ ausgeschöpft‘

Abbildung 1: Vergleich der Variationen der Maximumtemperatur – Rohdaten vs. adjustierte Daten

Abbildung 1 reproduziert den Effekt der globalen Erwärmung mittels adjustierter Tmax-Daten des US Historical Climatology Network (US HCN). Adjustierte Tmax-Daten können direkt verglichen werden mit den nicht adjustierten Rohdaten aus Messungen im Feld. Während nach 1975 ein ausgeprägter Erwärmungseffekt offensichtlich ist, zeigt sich kein solcher Trend in den Rohdaten. Tatsächlich ist die Variation der Tmax-Rohdaten überhaupt nicht bemerkenswert und zeigt lediglich kleinere Variationen um die Null-Achse der Temperaturänderung.

Wie aus Abbildung 1 eindeutig hervorgeht, sind Adjustierungen der dominante Faktor des globalen Erwärmungstrends.

{Adj(Stn,Yr)} = {Tmax(Stn,Yr)_adj} – {Tmax(Stn,Yr)_raw}

Stn steht für die Stationskennung, und Yr steht für das Jahr.

Abbildung 2 illustriert den Bias, den die Adjustierungen im Mittel in die Daten einbringen. Das Erwärmungsmuster geht aus dem Muster der Adjustierungen eindeutig hervor:

Abbildung 2: Adjustierungs-Bias der USHCN-Tmax-Daten

Die Adjustierungen verleihen den Temperaturen der Vergangenheit einen abkühlenden Bias. Die Adjustierungen werden mit Beginn in den siebziger Jahren allmählich zurückgefahren. Offensichtliche Absicht der Adjustierungen ist es, die Illusion einer dramatischen globalen Erwärmung zu erzeugen. Die plötzliche Erwärmung fällt zusammen mit dem öffentlichen Alarm bzgl. des steigenden CO2-Niveaus. Abbildung 2 zeigt den Gesamteffekt das Adjustierungs-Prozesses, welcher bewirkt, die gemessenen Daten mit dem Alarm der globalen Erwärmung in Konformität zu bringen. Statistische Profile der dreißiger und der neunziger Jahre in Abbildung 3 zeigen, dass die Gesamtverzerrung das Ergebnis eines ausgeklügelten Algorithmus‘ ist, dazu geschaffen, systematische Verzerrungen als natürliche Phänomene zu präsentieren. Der Gesamteffekt ist eine nicht zufällige Formung des Temperaturverlaufs, der nunmehr einen starken globalen Erwärmungstrend zeigt.

Abbildung 3: Beispiel statistischer Adjustierungs-Verteilungen.

Das „Stillstands“-Dilemma

Wir auf der skeptischen und nicht offiziellen Seite der wissenschaftlichen Gemeinschaft haben immer vermutet, dass die Adjustierungen irreführend und wissenschaftlich nicht haltbar waren. Aber wir haben niemals absichtliche Bemühungen vermutet, eine globale Erwärmung zu fabrizieren mittels geschickter Anwendung von Adjustierungs-Algorithmen. Nichtsdestotrotz wissen wir, dass die globale Erwärmung tatsächlich vom Menschen verursacht ist durch den Kohlenstoff in Bleistiftminen – im übertragenen Sinne natürlich. Er basiert auf ausgeklügelten Algorithmen, die die Datensätze künstlich so verändern, dass sie zur Theorie passen. Wie hier eindeutig belegt, ist die Bestätigung der globalen Erwärmung seitens der USHCN-Daten ausschließlich ein Effekt der Adjustierungs-Algorithmen.

Dies ist natürlich kein Beweis dafür, dass alle anderen offiziellen Datensätze ebenfalls so schamlos gefälscht worden sind. Allerdings sind die USHCN-Daten ausreichend und glaubwürdig genug, um zu zeigen, dass die globale Erwärmung auf dem US-Kontinent nicht evident ist. Es wäre schwierig, ein stichhaltiges wissenschaftliches Argument für die globale Erwärmung aufrecht zu erhalten, wenn einer der großen Kontinente keinerlei Anzeichen dafür zeigt.

Das Problem mit dem Trick der Adjustierung ist, dass ein realer globaler Erwärmungstrend nicht auftreten könnte. Das bedeutet, dass das Entfernen der künstlichen Adjustierungen zu einem Dilemma in der Zukunft führt. Falls Tmax-Rohdaten weiterhin flach verlaufen, dann resultiert aus dem Aufhören des Bias‘ ein Stillstand der globalen Erwärmung. Wird dagegen die Verzerrung fortgesetzt, würde sich die Lücke zwischen adjustierten und realen Daten so weit vergrößern, dass allmählich auch die breite Öffentlichkeit darauf aufmerksam wird.

Stillstands-Theorie

Die am besten zum „Stillstand“ passende Theorie lautet also, dass die Klimawissenschaft vorübergehend die Adjustierungs-Rationale ausgereizt hat. Angesichts des Erfolges bisher beim Überzeugen der Öffentlichkeit ist es ziemlich wahrscheinlich, dass die offizielle Wissenschaft den Adjustierungs-Prozess einfach fortsetzen wird.

Link: http://wattsupwiththat.com/2015/02/15/theory-on-the-pause-climate-science-has-exhausted-adjustment-rationales/

Übersetzt von Chris Frey EIKE




Seltsame Verbündete im Krieg gegen Fossile Brennstoffe

Nein, der Kreuzzug, der sie alle verbindet, ist der Krieg gegen Fossile-Brennstoffe, konzentriert vor allem auf das am meisten verunglimpfte Ziel: Kohle.

Die größte Gruppe und die Generäle in diesem Krieg gegen Kohle haben kein wirkliches Interesse an der Realität oder der Wissenschaft des globalen Klimawandels – sie sehen Klimaalarmismus als eine große Chance, um ihr Ziel einer nicht gewählten Weltregierung zu erreichen. Sie haben ihre Pläne sogar in einem Dokument mit dem Titel Agenda 21 hinterlegt.

Zu dieser Gruppe gehören natürlich auch die Vereinten Nationen und alle Tochtergesellschaften, die EU und linke Politiker und Medien überall. Auf einer Pressekonferenz in Brüssel vor kurzem, räumte Christiana Figueres ein, Funktionärin der UN-Rahmenkonvention zum Klimawandel, das Ziel der Umweltaktivisten sei nicht, die Welt aus der ökologischen Katastrophe zu retten, aber "das Modell der wirtschaftlichen Entwicklung zu ändern", das heißt, zu zerstören, was von freier Marktwirtschaft und Privateigentum geblieben ist. Siehe unten: [1]; [2]

Der nächste große Gruppe von Kohlenstoff-Kriegern sind die antiwestlichen Versagerstaaten, die dies als große Chance sehen, ihre herrschenden Klassen zu bereichern und mit "Klima-Wiedergutmachung" zu festigen. Dann gibt es die Umwelt-Unternehmer, die nach immer neuen Kreuzzügen suchen, um ihre Anhänger zu aktivieren und die Spenden weiter fließen zu lassen – Greenpeace, WWF, Get Up usw…

In der dunklen Ecke sind die Anti-Human Malthusianer und die Deep Greens, die die meisten von uns anderen Menschen loswerden wollen – personifiziert durch die Reichen und Mächtigen, wie Prinz Charles und Maurice Strong. Sie wissen, dass fossile Brennstoffe Millionen von Menschen unterstützen, durch den Anbau, Ernte, Transport, Verarbeitung und Speicherung der meisten Nahrungsmittel, um die Städte der Welt am Leben zu halten. Das Abwürgen der Verwendung von fossilen Brennstoffen wird sicherlich ihr Ziel erreichen: Die Reduzierung der Weltbevölkerung. Siehe: [3]

Selbstverständlich spielen Regierungsmedien in der Regel eine größere Rolle für die Unterstützung der Regierung, und wie alle Medien mögen sie eine Schreckensgeschichte. Wahrheit oder Logik sind nicht wesentlich und den meisten von ihnen egal – so lange, wie sie jemandem eine drohende Katastrophengeschichte entlocken können. Die tägliche Nahrung an Naturkatastrophen erhöht schnell die Klimaangst, die dann Politiker motiviert, "etwas zu tun".

Und dann gibt es die, die sehen, dass der Kampf gegen fossile Brennstoffe auch ihre Tasche füllt. Wie mal jemand sagte: "Wird eine Wette platziert, ist das beste Pferd, auf das zu setzen sich lohnt, das sogenannte" Eigeninteresse "- zumindest wenn Sie wissen er versucht es".

Zum Beispiel Shell mit seinen massiven Gas Interessen wurde einer Kampagne gegen Kohlekraft, überführt, dem Hauptkonkurrenten bei Gas für die Stromerzeugung. Siehe: [4]

Die Arabischen Ölinteressenten sind bei der Finanzierung eines Films zum Angriff der Konkurrenz ertappt worden – Schieferöl Fracking in Amerika. Siehe:[5]

Und eine russische Ölfirma wurde entdeckt, die grüne US Anti-Carbon Gruppen finanziert. Siehe: [6]

Die Chinesen sind natürlich große Anhänger der grünen Energie, solange die woanders installiert ist – d. h. sie liefern die Maschinen und Sonnenkollektoren und begrüßen, dass die Fabriken im Gastland von steigenden Strompreisen betroffen sind.

Gas, Kernenergie und Wasserkraft werden die größten langfristigen Nutznießer des Krieges gegen Kohle sein. Zunächst werden sie benötigt, um die Grundlast zu liefern und als Absicherung für intermittierenden Ökostrom wie Wind und Sonne. Dann, wenn grüne Subventionen abgezogen sind, um verärgerte Steuerzahler zu beruhigen, werden die grünen Spielzeuge scheitern und ausgereifte Generatoren leicht in die Vollzeit-Stromerzeugung eintreten.

Schließlich werden die Regierungsbürokratie und die Forschungsgelder-Industrie ihre Existenz rechtfertigen mit der "Lösung von Kommunalen Krisen". Sie lieben "die Klimakrise", da diese für jedes Wetterereignis jederzeit und überall verantwortlich gemacht werden kann. Es ist unwahrscheinlich, dass die Klimakrise gelöst werden kann, egal, wie viele Dollar dafür herausgeworfen werden – ein Problem, das nicht existiert kann auch nie "gelöst" werden. Und der finstere "Treibhauseffekt", wie jeder gute Geist in seinem Wirken unsichtbar, geheimnisvoll und umstritten, erlaubt es jedem, seine eigene Schreckensgeschichte zu produzieren.

Die Opposition gegen diese Koalition von Klima-Panikmachern und Opportunisten ist eine bunt zusammengewürfelte Armee aus Steuerzahlern und Stromverbrauchern sowie verstreute skeptische Wissenschaftler und Medienforscher.

Aber das imposante alarmierende Reich hat einen morschen Kern – die Welt weigert sich, sich zu erwärmen, die Panikmache-„Wissenschaft" bröckelt, ihre Klimamodelle sind diskreditiert. Einige Forscher wurden erwischt, Aufzeichnungen und Ergebnisse zu manipulieren, und die Kosten für grünen Ökostrom sind offensichtlich und bedrückend.

Die Unruhe in der Öffentlichkeit nimmt zu, die Regierungen werden den Kuckuck der Klima-Industrie kaum noch im öffentlichen Nest halten können und die Reihen der Skeptiker werden wachsen. Gruppen wie UKIP in Großbritannien und die Tea Party in US haben den Krieg gegen Kohle aufgegeben.

Der Klimaaufstand breitet sich aus.

Hinweis: Viv Forbes ist Gesellschafter und Aufsichtsratsmitglied eines kleinen australischen Kohleexplorationsunternehmens. Seine Ansichten werden von den meisten leitenden Direktoren der großen Kohleindustrien nicht geteilt oder unterstützt.

Erschienen auf WUWT am 12. Februar 2015

Link: http://wattsupwiththat.com/2015/02/17/strange-allies-in-the-war-on-carbon-fuels/

Übersetzt durch Andreas Demmig für das EIKE

Im Originaltext vorhandene Verlinkungen der Quellenangaben

[1] http://news.investors.com/ibd-editorials/021015-738779-climate-change-scare-tool-to-destroy-capitalism.htm

[2] http://www.breitbart.com/london/2014/10/10/shell-oil-lego-greenpeace-and-the-environmental-movement-s-war-on-capitalism/

[3] http://explosivereports.com/2013/01/12/prince-charles-openly-endorses-draconian-conclusions-of-new-population-study/

[4] http://www.theaustralian.com.au/innovationchallenge/shell-admits-campaigning-against-coal-fired-power-plants/story-fn9dkrp5-1226770855004

[5] http://dailysignal.com/2012/09/28/matt-damons-anti-fracking-movie-financed-by-oil-rich-arab-nation/

[6] http://freebeacon.com/issues/foreign-firm-funding-u-s-green-groups-tied-to-state-owned-russian-oil-company/




PIK Vizechef Edenhofer: Die Besitzer von Kohle, Öl und Gasvorkommen müssen enteignet werden.

Die altehrwürdige Berliner URANIA will den Berlinern Zugang zur Wissenschaft verschaffen. Ihnen wissenschaftliche Bildung vermitteln. Das tut sie mit einigem Erfolg seit 1888. Viele illustre Menschen durften bei Ihr vortragen, u.a. so herausragende Wissenschaftler wie Albert Einstein oder Christiane Nüsslein-Volhard. Aber auch angesehene Schriftsteller wie Thomas Mann, Heinrich Böll oder Max Frisch. Doch auch Staatsmänner oder solche, die vom Mainstream dafür gehalten werden sprachen dort, wie  Michail Sergejewitsch Gorbatschow und Helmut Kohl, ja auch das ewige SPD Irrlicht und Beinahe-Bundespräsidentin Gesine Schwan durften schon mal dort reden.

Daher sei  es der passende Ort, so dachte es sich wohl der dort Verantwortliche Herr Dr. Ulrich Bleyer , dass mal wieder jemand Bedeutendes vom „Weltklimarat“, vulgo IPCC, vorträgt. Geht es doch bei denen um nichts anderes als um die Weltrettung. So wurde Prof. Dr. Ottmar Edenhofer,
Stellvertretender Direktor und Chefökonom am Potsdam Institut für Klimafolgenforschung (PIK), einem Institut der Leibniz-Gemeinschaft und Vorsitzender der Arbeitsgruppe III des Weltklimarats IPCC eingeladen seine Sicht der Dinge, nämlich zur „Erforschung von Lösungswegen für den Klimawandel“ vorzutragen. Und das tat der dann auch. Eingeladen wurde mit dem schlichten Text

Der 5. Sachstandsbericht des Weltklimarats IPCC zeigt, dass menschliche Aktivitäten für den Anstieg der globalen Mitteltemperatur verantwortlich sind: die Verbrennung von Kohle, Öl und Gas und Entwaldung. Weitere Erwärmung birgt das Risiko irreversibler Folgen. Der Klimawandel kann jedoch nicht mehr vollständig vermieden werden. Daher sind Anpassung und Klimaschutz komplementäre Strategien zum Umgang mit und zur Verringerung dieser Risiken; vor allem die substantielle Reduzierung der Treibhausgas-Emissionen in den kommenden Jahrzehnten können die Risiken des gefährlichen Klimawandels verringern. Das Zwei-Grad-Ziel ist noch erreichbar, wenn es zu einer Entkopplung von Emissionen und Wirtschafts- und Bevölkerungswachstum kommt. Diese Entkopplung erfordert aber international koordinierte Klimapolitik.

Er enthält in Kurzform das Credo des Herrn Edenhofer und seiner Kollegen und es störte keinen, weder die Einladenden noch viele Gäste, welches Aufgebot von Binsenweisheiten bzw. Banalitäten, zum Teil sogar stupende Leerformeln schon die Einladung enthält. Da ist die Rede von … Der Klimawandel kann jedoch nicht mehr vollständig vermieden werden… und das religiöse aber völlig unbewiesene Mantra wird wiederholt… vor allem die substantielle Reduzierung der Treibhausgas-Emissionen in den kommenden Jahrzehnten können die Risiken des gefährlichen Klimawandels verringern.

Abb. 1 Täuschen und Tarnen bei der Darstellung der Realität in der Summary for Policymakers 2013 

Ja ist denn wirklich niemandem aus dem Hause URANIA aufgefallen, dass es eine schier endlose Klimageschichte auf diesem Planeten gibt, mit vielen Klimata, die sich vor allem durch ständigen immerwährenden Wandel auszeichnen? Was also soll dieses nichtssagende Gerede, dass „der Klimawandel“ nicht „mehr vollständig“ aufzuhalten sei? Wann war er das jemals?  Oder die nicht minder gebetsmühlenartige  vorgetragene Schein-Weisheit .. dass die substantielle Reduzierung der Treibhausgas-Emissionen in den kommenden Jahrzehnten die Risiken des gefährlichen Klimawandels verringern (können). Auch dafür wurde bisher nirgendwo in den tausenden von Seiten aller 5 Sachstandsberichte irgendein Beweis, irgendeine Beobachtung vorgelegt. Und so blieb es auch während des Vortrages.

Abb 2 & 3: es gibt auch lt IPCC Bericht keinerlei Anzeichen für erhöhte Extremwetteraktivitäten, noch für Schäden, die zu Klimaflüchtlingen führen würden 

Die Einführung gab der Hausherr Programmdirektor und Geschäftsführer Dr. habil Ulrich Bleyer. Er wies daraufhin, dass der Vortragende Edenhofer nicht nur ein vorzüglicher Ökonom sei, der nun die Wissenschaftslandschaft über das Potsdam Institut für Klimafolgenforschung (PIK) mit über 300 Mitarbeitern bereichere, sondern auch Vorsitzender (Chair) der Arbeitsgruppe III des IPCC sei, und dort entscheidend an der Verbesserung der Transparenz dieser Organisation mitgewirkt habe, wozu ihm u.a. auch seine über siebenjährige Zugehörigkeit zu den Jesuiten gedient hätte. Dem Orden, der von seinen Mitgliedern unbedingten „Kadavergehorsam“ gegenüber der Kirche (Papst) fordert und dessen Gründer Ignacio von Loyola verlangte

„Wir müssen, um in allem das Rechte zu treffen, immer festhalten: ich glaube, dass das Weiße, das ich sehe, schwarz ist, wenn die Hierarchische Kirche es so definiert."[1]

Und damit sei er vorzüglich gerüstet auch die schwierigen  Lösungen zu suchen und zu finden, die der allgegenwärtige gefährliche Klimawandel mit sich bringe. Solcherart eingeführt begann Herr Otmar Edenhofer seinen Vortrag. Eloquent, sachkundig und keinen Zweifel am Gesagten zulassend.

Gleich zu Beginn wies der darauf hin, dass er davon ausgehe, dass das CO2 die Globaltemperatur gefährlich aufheize, das sei schließlich im Bericht der Arbeitsgruppe I so festgehalten worden  (… Der 5. Sachstandsbericht des Weltklimarats IPCC zeigt, dass menschliche Aktivitäten für den Anstieg der globalen Mitteltemperatur verantwortlich sind: die Verbrennung von Kohle, Öl und Gas und Entwaldung.), leider seien weder er noch seine Kollegen in der Lage mitzuteilen ob und wann und wo diese gefährliche Erwärmung, leider auch nicht bis zu welcher Höhe sie eintreten würde, aber dass es irgendwie, irgendwann, irgendwo dazu käme sei höchst wahrscheinlich. Deswegen sei es so notwendig schon jetzt und weltweit die notwendigen Gegen-Maßnahmen zu treffen, von denen er einige aufzeigen wolle. Diese seien zwar die private Meinung des O. Edenhofer aber würden trotzdem mit vielen Verantwortlichen in dieser Welt genauso diskutiert.

Abb. 4 Aktueller Stand der Entwicklung der globalen Mitteltemperatur nach Satellitenbeobachtungen ausgewertet durch RSS. Kein Anstieg seit 18 Jahren und 3 Monaten. Zur Erinnerung, das IPCC wurde 1988  also bereits 12 Jahre nach Beginn der Minierwärmung im vorigen Jhh gegründet. Diese war 1996 wieder vorbei

Dann widmete er sich unter Verwendung jeder Menge Folien dem 2 ° Ziel, großzügig meinend, dass es nicht wichtig sei, ob es 1,8 oder 2,2 ° würden, denn dass sei für die Gesellschaft schließlich gerade noch so auszuhalten. Aber mehr nicht! Doch leider, leider würden Kohle, Öl und Gas immer billiger und würden deshalb immer mehr zur Energieerzeugung eingesetzt. Dank der Entwicklung neuer Technologien hätte sich auch das Märchen vom Peaköl irgendwohin (Anm. des Autors: auf den Müllplatz der Geschichte) verflüchtigt, so dass der CO2 Anstieg in der Atmosphäre sich sogar beschleunigt hätte. Schlimme 2,2 % pro Dekade seien das jetzt. Das sei nun wirklich besorgniserregend, denn damit würde das uns verbleibende CO2 Budget, dass wir noch gerade so in die Atmosphäre eintragen dürften, um das 2 ° Ziel nicht zu gefährden, umso früher erschöpft. Insgesamt bezifferte er dieses Budget auf rd. 1000 Gt CO2 [2] , Davon sei aber schon ein erheblicher Teil verbraucht und nur durch gewaltige Anstrengungen sei die notwendige Decarbonisierung zu erreichen, indem wir lieber früher als später die Verwendung fossiler Energieträger völlig einstellten. Das heißt aber, den weitaus größten Teil dieser Ressourcen  im Boden zu belassen.

Andernfalls würde die Temperatur um bis zu 4 ° C oder mehr steigen, mit schrecklichen Folgen. Das aber sagten dem IPCC und ihm seine Modelle. Wenn sich auch nicht sagen ließe wo, wann und um wie viel diese eintreten.

Abb 5: Vergleich IPCC Prognosen/Projektionen oder wie sie noch heißen gegenüber der Realität. Alle falssch!

Und wir alle wüssten doch welche verheerenden Folgen die Extremwetter bereits hätten, und die daraus ausgelösten Schäden seien nun mal unausweichliche Folgen des Klimawandels. Leider fand sich im ganzen über einstündigem Vortrag mit rd 40 Folien nicht eine einzige, die darstellte, wie viele und wie starke „Extremwetter“ sich vor dem ganzen Klimawandel so ereignet haben, noch wie viele und wie starke es seit der Entdeckung des Klimawandels durch das IPCC und seine Gründer und Unterstützer ereignete. Nicht eine! Das – so hieß die Botschaft- weiß man eben. (Details dazu siehe pdf Anlage)

Dann widmete er sich den „Lösungswegen“ aus diesem Weltdilemma und wiederholte dazu sein Mantra, das er zuvor auch schon der NZZ am 14.11-2010 in die Feder diktierte:

„Zu­nächst mal ha­ben wir In­dust­rie­län­der die At­mo­sphä­re der Welt­ge­mein­schaft qua­si ent­eig­net. Aber man muss klar sa­gen: Wir ver­tei­len durch die Kli­ma­po­li­tik de fac­to das Welt­ver­mö­gen um. Dass die Be­sit­zer von Koh­le und Öl da­von nicht be­geis­tert sind, liegt auf der Hand. Man muss sich von der Il­lu­si­on frei­ma­chen, dass in­ter­na­ti­o­na­le Kli­ma­po­li­tik Um­welt­po­li­tik ist. Das hat mit Um­welt­po­li­tik, mit Prob­le­men wie Wald­ster­ben oder Ozon­loch, fast nichts mehr zu tun.“

Und für Edenhofer ist demnach die Enteignung der Besitzer der fossilen Ressourcen der Schlüssel zur erfolgreichen Decarboniserierung. Und hier brach dann wieder der alte Marxist durch, der Edenhofer schon seit früher Jugend ist. Denn diese Ressourcen gehörten ja nicht den „Besitzern“ – so Edenhofer- sondern allen Menschen.  Deswegen sei deren Enteignung der Besitzer höchst moralisch und damit auch richtig. Und noch eine gute Botschaft hätte er: Die gesamten Aufwendungen für die Decarbonisierung würden das Wachstum des globalen Bruttosozialproduktes GDP nur um 0,06 % dämpfen.

Aber beim Wie täte man sich schwer. Und deswegen führe der Weg dahin über (Anmerkung des Verfassers: die Gier der) jeweiligen Finanzminister. Diese müssten überzeugt werden, so wie in der EU ja schon erfolgreich geschehen, das Verbrennen von fossilen Brennstoffen mittels des Zertifikatehandels kräftig zu besteuern. Mit dem so eingezogenen Geld könnten sie unglaublich und unendlich Gutes tun, die „Erneuerbaren“ wundervoll subventionieren und ähnlich Edles mehr. Er und seine Kollegen arbeiteten intensiv daran, dass dies in Paris auch so beschlossen würde.

Doch spätestens an dieser Stelle kam Unglaube im sonst andächtig folgendem Publikum auf, wohl auch eingedenk der nackten Tatsache, dass in den meisten Ländern der OPEC, aber auch in Russland, China und andernorts der Staat bereits heute der Besitzer all dieser Schätze ist, und die Verbraucherländer durch ihre Finanzminister den Verbrauch fossiler Brennstoffe hoch besteuerten. Allerdings häufig ohne dass diese Gelder der örtlichen Infrastruktur und den Menschen zur Verfügung gestellt worden. Die Frage drängt sich auf: Wie will man die enteignen? Schickt man ganze schwer armierte Klimaretter-Divisionen nach Saudi-Arabien oder Russland oder Venezuela. Oder wie sollte man sich das vorstellen?

So blieb nicht nur bei denen ein schaler Geschmack über ob der dürftigen, wenn auch Hochglanz- Un„wissenschaftlichkeit“ diese Vortrages, die sich die ganze Zeit darüber wunderten, dass Edenhofer mit keiner Silbe auf die nunmehr seit 18 Jahren veränderte Klimarealität einging, in der die globale Mitteltemperatur nicht mehr ansteigt,  nicht erwähnte, dass weder die Zahl der Stürme, noch Überschwemmungen noch Dürren und andere Unbill zugenommen haben, der Meeressspiegel so wenig wie eh und je ansteigt und weder Arktis noch Antarktis noch Grönland an übermäßiger Eisschmelze leiden, sondern immer wieder darauf beharrte, dass seine Modelle genau solch schreckliches Ungemach zeigten, und seine Wirtschaftsmodelle diese Lösungswege wiesen, sondern auch bei denjenigen, und das war wohl die übergroße Mehrheit im Saal, die ihm bis dahin gebannt gefolgt waren.

Auch bei diesen ergab sich Unglauben, wie man denn wohl die OPEC Potentaten zwingen könne, ihr Öl oder Gas in der Erde zu lassen, auch wenn man sie  mit großen Summen – aus Emissionshandelsgeldern- zu überzeugen versuchte. „Traumtänzer“ war einer der Ausdrücke, der gelegentlich aus dem Publikum zu hören war.

Bezeichnend für den Zustand der Wissenschaft hierzulande, dass solche Leute wie der Vortragende, sich anmaßen den Schlüssel für unsere Zukunft in der Hand zu halten und das mit Steuergeldern finanzierte Institutionen wie die URANIA und die Leibnitz Institute ihnen Wirkmöglichkeiten und internationale Plattformen an vorderster Front ermöglichen, um ihre wirren Ideologien vorzutragen.

Aufgrund der Überlänge des Vortrages wurden kaum Fragen und schon gar keine Statements zugelassen. Das Einladungsversprechen „Vortrag mit anschließender Diskussion“ wurde einmal mehr nicht eingehalten.


1.    [1] Quelle Wikipedia  Ignatius von LoyolaDie Exerzitien. 13. Auflage. Johannes Verlag Einsiedeln, Freiburg 2005, ISBN 3-89411-028-7, Randziffer 365.

[2] An dieser Stelle ist es angebracht meiner Verwunderung über das fast göttliche Wirken der Modellierer Ausdruck zu geben, die es irgendwie schaffen, immer ganz runde Zahlen, sozusagen als Quintessenz ihrer Berechnungen, zu erfinden. Zwei Grad Ziel, 1000 Gigatonnen CO2 und viele andere – immer schön rund. Ist da evtl. göttlicher Wille am Werk, dass die Natur auf unsere politische Kampagnenfähigkeit Rücksicht nimmt?

Related Files




NASA-GISS ändert rückwirkend die Temperaturdaten – warum ?

Dass NASA-GISS die Temperaturdaten rückwirkend ändert, war nach dem EIKE-Bericht von Ste­ven Goddard (26.01.2012) zu vermuten, denn wie berichtet wurde, hatte NASA-GISS die Tempe­raturgangli­nien von Reykjavik und Godthab Nuuk rückwirkend geändert, und danach sollte es in der Arktis wärmer wer­den.

Temperaturdaten sind Dokumente. Der Verdacht rückwirkend geänderter Temperaturdaten erfor­derte eine Untersuchung, um den Verdacht entweder zu widerlegen oder zu bestätigen. Eine Ana­lyse war mög­lich, weil die 2010 von NASA-GISS angebotenen Temperaturdaten damals archiviert worden waren und nun mit den 2012 von NASA-GISS angebotenen Daten verglichen werden konnten.  Da eine Verände­rung von Temperaturdaten im Sinne der Initia­toren nur dann zweckmä­ßig war, wenn sie nicht nur die Arktis sondern die ganze Welt be­träfe, musste die Untersuchung die 2010- und 2012-Daten von mög­lichst vielen Stationen miteinander vergleichen. Dafür wurden nach dem Zufallsprinzip 120 Stationen weltweit fest­gelegt. Der Vergleich hat den Goddard-Bericht bes­tätigt und zeigt, dass diese Veränderungen in allen 120 Stationen vorgenommen worden sind. Sie täuschen eine größere Erwärmung vor. Auch wenn der Nachweis jetzt nur für 120 Stationen er­bracht werden konnte, ist anzunehmen, dass die rückwirken­den Änderungen auch alle anderen Sta­tionen weltweit betreffen.  Das Er­gebnis der Analyse wird in [1] behandelt. Eine Kopie der Arbeit ist im Anhang beigefügt, hier werden die wesentlichen Ergebnisse zu­sammengefasst:

Die Analyse hat ergeben, dass man bei den Veränderungen fallweise eine unterschiedliche Metho­dik an­gewendet hat. Um den Ein­druck von einer erheblichen und fortschreitenden Er­wärmung zu erzielen, wur­den mehrere Methoden angewendet, nämlich:

·      eine Absenkung der Jahresmittelwerte in der Anfangsphase,

·      eine Verringerung einzelner höherer Werte in der ersten Warmphase,

·      eine Erhöhung einzelner Werte in der zweiten Warmphase,

·      eine Unterdrückung der um 1995 beginnenden zweiten Abkühlungsphase,

·      eine Änderung der Temperaturskala je nach ausgewählter Methode, und

·      eine Verkürzung der Datenreihe um die frühen Jahrzehnte.

·      Bei den Langzeitrei­hen wurden Datenreihen sogar um die frühen Jahrhunderte gekürzt. .

Infolge der individuellen Gegebenheiten und Änderungsmethoden ergeben sich für die Klassi­fizie­rung der Ganglinien-Paare der 2010- und 2012-Daten 10 unterschiedliche Gruppen. Da in [1] aus Platzgründen nur die Ganglinien-Paare der Gruppen 1, 3, 4 und 7 mit jeweils nur ei­nem Beispiel dargestellt werden konnten, werden hier in einer separaten Datei die Ganglinien-Paare aller 120 Stationen beigefügt [2].

Die 2010-Daten ergaben 91 Erwärmungen und 29 Abkühlungen mit einer durchschnittlichen Er­wärmung von 0,0051°C/a, die 2012-Daten täuschen mit 108 Erwärmungen  und 12 Ab­kühlungen eine durch­schnittliche Erwärmung von 0,0093°C/a vor. Die Änderungen der 2012-Daten haben die durchschnittli­che Erwärmung der 120 Stationen also fast verdoppelt.

Während der Auswertung der Daten und der Erarbeitung des Manuskriptes wurden bis März 2013 aus dem Internetportal von NASA-GISS wiederholt die Daten und Ganglinien einzelner Stationen abgefragt. Es zeigte sich, dass auch später weitere Änderungen vorgenommen wur­den. Das in [1] Abb. 19 benutzte Beispiel der Station Alice Springs wurde hier um die heute von NASA-GISS an­gebotene Ver­sion ergänzt (hier Abb.1). Um zu erkennen, dass – und wie sehr – sie sich auch wieder von den Vorgängerversionen unterscheidet, wurden die Eckpunkte der Temperaturskala mit roten Pfeilen versehen.  Es ist wahr­schein­lich, dass Änderungen im­mer noch und auch mit den Datensät­zen anderer Stationen vorgenommen wer­den. 

“The GISS analysis uses only GISS homogeneity adjusted data” [1]. Es ist hier nicht zu dis­kutieren, ob und wie weit ‚Homogeni­sierung’ als zweckgerichtete Anpassung von Tempera­turmessungen wissen­schaftlich vertretbar ist. Es sollte gelten, dass die Bot­schaft der Daten nicht verän­dert werden darf. Jedoch genau das bewirken die hier behan­delten Änderungen. Es ist nicht akzeptabel, dass Ganglinien  

·      durch das Verkleinern oder Vergrößern der gemessenen Temperaturen in ihr Gegenteil umge­wandelt werden, um damit statt der gemessenen Abkühlung eine Erwärmung oder statt der ge­messenen Er­wärmung eine Abkühlung zu erhalten,

·      durch das Löschen von Daten in ihr Gegenteil verkehrt werden, um eine noch stärkere Ab­küh­lung oder Erwärmung zu erhalten,

·      durch das Verkleinern oder Vergrößern der gemessenen Temperaturen ausgewählter Ab­schnitte eine größere Erwärmung oder eine größere Abkühlung erhalten,

·      durch Löschen von Daten unterbrochen werden, um „passende“ Übergänge zu verstecken.

Zum Schluss bleibt die Frage „Warum werden Dokumente verändert“?  Dem Autor bleibt als Ant­wort nur eine Vermutung: Nach dem offiziellen Klimapos­tu­lat soll die Erwärmung durch die anthropogenen CO2-Emissi­onen verursacht werden. Die wirkliche Temperaturent­wick­lung wider­legt dieses Annahme: Im 20. Jh. gab es zwei Warmphasen. Die erste zwischen 1920 und 1950 war die deutlich stärkere, kann aber nicht durch die CO2-Emissionen verur­sacht worden sein, denn die begannen erst nach 1950 (siehe Abb. 20 und 21 in [1]),. Die zweite Warmphase zwischen 1980 und 1995 war erheblich schwächer. Indem man nun mit den Änderungen die erste Warmphase ab­schwächt und die zweite Warmphase verstärkt, ver­rin­gert man den Gegensatz zwischen der vorge­täuschten Temperaturentwicklung und dem offiziellen Kli­mapostulat. Vermutlich hat man die praktische Bedeutung dieses Gegensatzes nicht früh genug realisiert und versucht nun, ihn mit den Änderungen zu verschleiern. Es er­schien wohl unwahrscheinlich, dass dies entdeckt wer­den könnte, denn dies setzte voraus, dass je­mand die 2010-Daten archiviert hatte und zwei Jahre später auch noch den Gegensatz zu den 2012-Daten erkannte. Warum werden dann aber immer noch Verände­rungen vorge­nommen? Vielleicht soll ein automatisches Programm auch dafür sorgen, das die von NASA-GISS angebotenen Daten im Falle abweichender Messwerte immer die gewünschte Er­wär­mung anzeigen.

Nachtrag 

                                                                         :  http://data.giss.nasa.gov/gistemp/updates_v3/   bzw.  http://data.giss.nasa.gov/gistemp                               

Am 15. und 16.2. publizierte NASA-GISS die mit den Links erreichbaren Berichte. Sie sollen begründen  dass, wann, wie und warum Änderungen, Löschungen und Homogenisierungen vorgenommen wurden – bzw. werden. Vielleicht ist man durch den Beitrag von Christopher Booker im The Telegraph (07.02.2015) aufmerksam geworden und liefert jetzt Erklärungen nach. EIKE übernahm den Beitrag in deutscher Übersetzung am 12.2.

Aber:  Alle ‚Begrün­dungen’ entschuldigen nicht, warum alte, jahrzehntelange Datenreihen eliminiert oder geän­dert wurden, ja, dass sogar Abkühlungen in Erwärmungen  umfunktioniert worden sind. Wären tatsächlich nur ‚Homogenisierungen’ beabsichtigt, müssten sich Erwärmungen und Abküh­lungen ungefähr ausgleichen. Das Gegenteil ist der Fall – siehe oben.  In der Eile wird über­sehen, dass solche Erklärungen  eine Bankrott-Erklärung für das Mess-System und die Ver­waltung der Daten  sind. 

 Als Anlagen beigefügt:

[1]   Ewert F-K: „NASA-GISS ändern rückwirkend Temperaturdaten – warum ?“.  Mitteilun­gen der Wilhelm-Ostwald-Gesellschaft, 19 Jg., 2014, Heft 2,  S, 10-41, 17 Abb.,  7, Tab.  2 Ta­feln. 

[2]  zitiert in [1] als Anlage 2: „Vergleich Temperaturganglinien aller 120 Beispiele nach der Art ihrer Veränderungen klassifiziert in Gruppen“

Related Files




Das Rätsel der Eiszeiten: Teil XV – Roe vs. Huybers

February 2, 2014 by scienceofdoom

Einige Leser haben nach der faszinierenden Studie von Gerard Roe 2006 gefragt, die als Verteidigung von Milankovitch gelten kann.

Die Studie von Roe scheint eine exzellente Übereinstimmung zwischen der Änderungsrate des Eisvolumens und der Einstrahlung bei 65° im Juni zu zeigen. Eine Zeitlang war ich durch die Studie verwirrt, denn falls dieser Wert der Einstrahlung wirklich erfolgreich Änderungen des Eisvolumens vorhersagen kann, wäre der Fall erledigt gewesen. Außer wir strampeln uns ab, glaziale Terminationen mit der Einstrahlung in Übereinstimmung zu bringen (siehe frühere Beiträge, die Teile XIII, XII und XI – Ende der letzten Eiszeit). Und wir sollten auch erwarten, eine Periode von 100.000 Jahren im Einstrahlungsspektrum bei 65°N zu finden. Das ist aber nicht der Fall. Um Roe gerecht zu werden – er stellt fest: Die Milankovitch-Hypothese, so wie sie hier formuliert ist, erklärt nicht die starken rapiden Deglaziationen, zu denen es am Ende einiger Eiszeit-Zyklen gekommen war. Um genau zu sein: Niemand scheint in Frage zu stellen, dass das Wachstum und das Schrumpfen von Eisschilden zumindest zu einem geringen Teil den Zyklen von 40.000 Jahren (Schiefe) und 20.000 Jahren (Präzession) folgen. Was genau also versucht die Studie als neu zu zeigen? Das fehlende Steinchen dieses Puzzles ist die Frage, warum Eiszeiten beginnen und enden. Auf der Haben-Seite führt Roe aus: Überraschenderweise verbleibt die Milankovitch-Hypothese nicht klar definiert.

Das ist genau der gleiche Punkt, den ich in Teil VI angesprochen habe: “Teil VI-Hypotheses Abound”. Einer der Gründe, warum ich einige Zeit damit zugebracht habe, Datensätze zu sammeln und zu verstehen, – siehe Teil XIV, Concepts & HD Data – ist diese Art von Problemen. Roes Abbildung 2 geht über eine halbe Seite, deckt aber 800.000 Jahre ab. Mit den eingezeichneten dicken Linien kann ich eigentlich nicht sagen, ob es eine Übereinstimmung gibt, und da ich über reale Statistik kein Fachmann bin, möchte ich lieber die Daten sehen als lediglich eine Korrelation zu akzeptieren.

Es ist nicht sehr sinnvoll, SPECMAP (oder LR4) mit der Einstrahlung zu vergleichen, weil beide Datensätze auf die Einstrahlung im Sommer bei 65°N „getrimmt“ sind. Falls wir das als Erfolg ansehen, akzeptieren wir, dass die Erzeuger des Datensatzes in ihrem Vorhaben kompetent vorgegangen sind. Falls wir keinen Erfolg finden, müssten wir ihnen ungern diese schlechte Nachrichten mitteilen.

Glücklicherweise haben wir einen interessanten Datensatz von Peter Huybers (2007). Dies ist eine Aktualisierung von HW04 (Huybers & Wunsch 2004), die einen Proxy für das globale Eisvolumen aus Tiefsee-Bohrkernen ohne „orbitales Tuning“ erstellt haben. Er basiert auf einem autokorrelierten Sedimentations-Modell und setzt voraus, dass Schlüssel-Wendepunkte aus vielen verschiedenen Bohrkernen alle zur gleichen Zeit stattfanden sowie ein grundlegendes, datierbares Ereignis vor etwa 800.000 Jahren, das sich in den meisten Bohrkernen zeigt.

Einige Leser fragen sich nun: Warum benutzt man nicht die Eisbohrkerne, von denen hier schon die Rede war? Gute Frage. Das Sauerstoffisotop (δ18O) oder Deuteriumisotop (δD) in dem Eisbohrkern ist mehr eine Maßzahl der lokalen Temperatur als irgend etwas anderes (und die Analyse ist außerdem kompliziert) Die Eisbohrkerne aus Grönland und der Antarktis bieten viele nützliche Daten, aber leider nicht die des globalen Eisvolumens. Dafür müssen wir das in den Tiefsee-Sedimenten gespeicherte δ18O heranziehen. Das δ18O in den Tiefsee-Bohrkernen scheint in erster Ordnung eine Maßzahl der Wassermenge zu sein, die in globalen Eisschilden gebunden ist. Allerdings gibt es keinen einfachen Weg, die Ozean-Sedimente  objektiv zu datieren, so dass einige Annahmen gemacht werden müssen. Glücklicherweise hat Roe seine Theorie mit zwei Datensätzen verglichen, dem berühmten SPECMAP (Warnung: orbitales Tuning wurde bei der Erstellung dieses Datensatzes benutzt) und HW04:


Bildinschrift: Abbildung 2: Wie Abbildung 1, aber hier der Vergleich der Einstrahlungs-Anomalie im Juni bei 65° mit der zeitlichen Änderungsrate des globalen Eisvolumens (dV/dt). Die SPECIMAP-Aufzeichnung hat keine Verzögerung, die HW04-Aufzeichnung nur eine von 1000 Jahren. Damit soll die maximale Kreuz-Korrelation mit der Zeitreihe der Einstrahlung von jeweils -0,8 und 0,4 gezeigt werden. Autokorrelations-Schätzungen zeigen, dass die SPECIMAP- und HW04-Zeitreihen von dV/dt jeweils 106 bzw. 123 Freiheisgrade aufweisen (Anm. der EIKE-Redaktion: wir wissen nicht, was mit diesen Freiheitsgraden gemeint ist). Daher sind die Korrelationen in beiden Fällen signifikant deutlich über dem 99%-Niveau. Falls die HW04-Aufzeichnung genauso wie SPECIMAP geglättet wird (mittels eines neun-Punkte-Gauss-Filters (Imbrie et al. 1984)), nimmt die maximale Kreuz-Korrelation nicht zu. Einheiten wie in Abbildung 1.

Abbildung 1

Ich habe den aktualisierten Datensatz Huybers 2007 heruntergeladen. Er liegt in 1000-Jahres-Intervallen vor. Ich habe die Einstrahlung auf allen Breiten und für alle Tage der letzten 500.000 Jahre mittels des MATLAB-Programms von Jonathan Levine berechnet. Auch diese liegt somit in 1000-Jahres-Intervallen vor. Ich habe die Werte bei 65°N und vom 21. Juni benutzt (Tag 172-dank Climater). Ich habe dann die Änderung des Eisvolumens in einer sehr einfachen Weise berechnet – Wert bei t +1 minus Wert bei t), dividiert durch die Zeitänderung. Den daraus resultierenden Datensatz habe ich mit der gleichen Bandbreite skaliert wie die Einstrahlungs-Anomalien, so dass sich alles leicht plotten lässt. Und ich plottete die Einstrahlungs-Anomalie = mittlere (Einstrahlung) minus Einstrahlung:


Abbildung 2 – Click to Expand (nur im Originalaufsatz möglich)

Die beiden Datensätze sehen während der letzten 500.000 Jahre sehr ähnlich aus. Ich vermute, dass irgendwelche kleineren Änderungen, z. B. um 370.000 Jahre, der Aktualisierung der Datensätze geschuldet sind. Man beachte, dass die Einstrahlungs-Anomalie effektiv invertiert ist, um die Trends augenscheinlicher zu machen – hohe Einstrahlung sollte zu einer negativen Änderung des Eisvolumens führen und umgekehrt.

 


Abbildung 3 – Click to Expand  (nur im Originalaufsatz möglich)

Ich habe die Pearson-Korrelation zwischen den beiden Datensätzen berechnet und nur 0,08 erhalten. Das ist extrem wenig. Es sagt uns lediglich, was wir durch Betrachten des Graphen erkennen können – die beiden Schlüsselwerte sind anfangs in Phase, laufen dann auseinander und sind am Ende erneut in Phase. Im Detail

Correlation between 0-100 kyrs:   0.66 (groß)
Correlation between 101-200 kyrs:  0.51 (groß)
Correlation between 201-300 kyrs:  -0.72 (Anti-Korrelation)
Correlation between 301-400 kyrs  -0.27 (Anti-Korrelation)
Correlation between 401-500 kyrs:  0.18 (so ungefähr)

Ich habe auch eine Spearman rank correlation durchgeführt. (Sie korreliert die Rangfolge der beiden Datensätze, um sie widerstandsfähig gegen Ausreißer zu machen) = 0,09, und nur weil ich konnte, auch eine Kendall correlation = 0,07. Ich bin ein Amateur in Sachen Statistik, so dass ein Vergleich von Datensätzen außer durch Betrachten derselben nicht mein Ding ist. Vielleicht liegt irgendwo auch ein Anfänger-Fehler vor.

Dann untersuchte ich Kreuz-Korrelationen. Physikalischer Hintergrund ist, dass die Konzentration von  18O in der Tiefsee mindestens einige tausend Jahre braucht, um auf Änderungen des Eisvolumens zu reagieren, einfach wegen der langsamen Zirkulation der großen Meeresströme. Die Ergebnisse zeigen, dass es eine bessere Korrelation mit einer Verzögerung von 35.000 Jahren gibt, doch gibt es hierfür keine physikalische Begründung. Es ist möglicherweise lediglich eine bessere Anpassung eines Datensatzes mit einer offenbar langsamen Phasenverschiebung während des Aufzeichnungs-Zeitraumes. Bei einer bedeutsamen großen Meeresströmungs-Verzögerung von einigen tausend Jahren ist die Korrelation schlechter (anti-korreliert):

 


Abbildung 4

Auf der Plus-Seite sehen (nächste Abbildung) die ersten 200.000 Jahre ziemlich eindrucksvoll aus einschließlich Terminationen:


Figure 5


Abbildung 6

Das erstaunte mich. Was erkennen wir aus den Daten der ersten 200.000 Jahre (Abbildung 6)? Nun, die letzten beiden Terminationen (siehe die letzten beiden Beiträge) sind leicht zu identifizieren, weil die Änderungsrate des Eisvolumens im Verhältnis zu Einstrahlung etwa vier mal so groß ist, wenn keine Termination stattfindet.

Schiebt man das kleine Problem beiseite, dass die Südhemisphäre bei der letzten Deglaziation (Part Eleven – End of the Last Ice age) führend war, geht hier etwas Interessantes vor. Fast wie bei einer Theorie, bei der lediglich ein leicht zu identifizierender Link fehlt; ein kleines Teil eines Puzzles, das lediglich noch eingepasst werden muss – und die Nature-Studie wartet.

Schauen wir auf einige Details. Es scheint, dass T-II, falls markiert durch die verschiedenen radiometrischen Werte, die wir in Part Thirteen – Terminator II gesehen haben, die Ursache wäre für das Aus-Der-Phase-Laufen der 100k – 200k-Werte (der große schwarze Dip bei 125.000 Jahren würde sich um 15.000 Jahre nach links bewegen). Also ist meine nächste Objektive (siehe Sixteen – Roe vs Huybers II ) das Setzen einer Zeitmarkierung für Termination II aus den radiometrischen Datierungswerten und dann den Datensatz von Huybers 2007 dahin zu „verschieben“ und der jüngsten T1-Datierung. Auch müssen die Eisbohrkern-Proxys aus den Tiefsee-Bohrkernen realen Änderungen des Eisvolumens hinterherlaufen mit einer Periode von, sagen wir, 1000 bis 3000 Jahren (siehe Anmerkung 1). Das stützt die Roe-Hypothese, weil sich die schwarze Kurve nach links bewegt. Schauen wir, was nach diesen Änderungen passiert. Und hoffentlich werden scharfsichtige Leser Gelegenheiten für Verbesserungen in diesem Artikel ausmachen und auch das fehlende Puzzle-Teilchen finden, das dann zu der begehrten Nature-Studie führt.

 

References

In defense of Milankovitch, Gerard Roe, Geophysical Research Letters (2006) – free paper

Glacial variability over the last two million years: an extended depth-derived agemodel, continuous obliquity pacing, and the Pleistocene progression, Peter Huybers, Quaternary Science Reviews (2007) – free paper

How long to oceanic tracer and proxy equilibrium?, C Wunsch & P Heimbach, Quaternary Science Reviews (2008) – free paper

Datasets for Huybers 2007 are here:
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/huybers2006/
and
http://www.people.fas.harvard.edu/~phuybers/Progression/

Insolation data calculated from Jonathan Levine’s MATLAB program (just ask for this data in Excel or MATLAB format)

Notes (im Original belassen)

Note 1: See, for example, Wunsch & Heimbach 2008:

The various time scales for distribution of tracers and proxies in the global ocean are critical to the interpretation of data from deep- sea cores. To obtain some basic physical insight into their behavior, a global ocean circulation model, forced to least-square consistency with modern data, is used to find lower bounds for the time taken by surface-injected passive tracers to reach equilibrium. Depending upon the geographical scope of the injection, major gradients exist, laterally, between the abyssal North Atlantic and North Pacific, and vertically over much of the ocean, persisting for periods longer than 2000 years and with magnitudes bearing little or no relation to radiocarbon ages. The relative vigor of the North Atlantic convective process means that tracer events originating far from that location at the sea surface will tend to display abyssal signatures there first, possibly leading to misinterpretation of the event location. Ice volume (glacio-eustatic) corrections to deep-sea d18O values, involving fresh water addition or subtraction, regionally at the sea surface, cannot be assumed to be close to instantaneous in the global ocean, and must be determined quantitatively by modelling the flow and by including numerous more complex dynamical interactions.

Link: http://scienceofdoom.com/2014/02/02/ghosts-of-climates-past-fifteen-roe-vs-huybers/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/

Teil XIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiii-terminator-ii/

Teil XV: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiv-konzepte-und-daten/




Militärische Spannungen zwischen Russland und dem Westen greifen auf Klimapolitik über

Die Organisatoren des Klimagipfels in New York im September letzten Jahres versuchten, die Führer der Welt zu überreden, verbindliche Zusagen zur Beschneidung von Treibhausgas-Emissionen zu geben. Viele Führer der Welt einschließlich Wladimir Putin nahmen an dem Rummel nicht teil, was nichts Gutes verheißt für die Übernahme eines Klimaabkommens beim nächsten UN-Klimatreffen ab dem 30. November in Paris.

Auf der Klimakonferenz in Lima im Dezember hat die russische Nachrichtenagentur Itar-Tass dann berichtet, dass Putins Klimabotschafter Alexander Bedritsky Diplomaten gesagt hat: „Das Hindernis, dass ein Abkommen blockiert, ist der grüne Klimafonds mit seinen jährlichen Einzahlungen in Höhe von 100 Milliarden Dollar.

Russland hat nichts dagegen, in den Grünen Klimafonds zu investieren, sondern ist bereit, diesen zu unterstützen“, sagte Bedritsky und legte den USA und der EU nahe, ihre Sanktionen wegen der Ukraine-Krise aufzuheben als Gegenleistung für Russlands Unterstützung.

Russland belagert

Die Sanktionen sind schwerwiegend: Ein Waffenembargo, bedeutende Restriktionen des Zugangs zu europäischen Kapitalmärkten für russische Energie- und Verteidigungs-Unternehmen sowie staatliche Banken plus Verbot von Exporten von Schlüsseltechnologien und Dienstleistungen für die Erkundung von Energiereserven in Russland.

Eine gewaltige Menge von Energieerzeugung steht auf dem Spiel. Einem Bericht von Reuters zufolge halten Exxon/Mobil und Shell nach wie vor Joint Ventures jeweils mit Rozneft bzw. Gazprom, um Öl- und Gasressourcen im westsibirischen Becken durch hydraulisches Brechen zu erschließen, dem größten Feld weltweit. Es enthält Dutzende von supergroßen und großen Ölfeldern einschließlich Samotlor (28 Millionen Barrel Öl) und Urengoy (über 350 Billionen Kubikfuss an Gasreserven). Putin hat diesen und anderen großen Feldern Steuernachlässe gewährt.

Inzwischen sind Gerüchte aufgetaucht, dass Russland insgeheim Ant-Fracking-Umweltgruppen in den USA finanziert mittels Zwischenhändlern auf Bermuda mit dem Ziel, den von Schiefer abhängigen Öl- und Gasboom in Amerika zu sabotieren.

Nachdem der Westen jedoch seine Sanktionen erst einmal in Kraft gesetzt hatte, wandte sich Russland der Militarisierung zu. Die russische Zeitung Rossiiskie Nedra berichtete Ende 2013, dass Putin ein Gesetz unterzeichnet habe, das „die Ölförderung auf dem Meer von Produktionssteuern freigestellt wird, und Mehrwertsteuern müssen für die Verkäufe, den Transport und die Nutzung nicht gezahlt werden“.

Arktisches Öl, Gas im Hintergrund

Das von Putin angesprochene Schelf war der Schlüssel für Moskaus schon sehr lange gehegten Ambitionen in der Arktis und war begleitet von einer großen und stetigen Aufrüstung. Im Januar dieses Jahres berichtete die Informations-Institution Stratfor über „Russlands Pläne, in der Arktis die Überlegenheit zu erreichen“ und schrieb: „Die geplante Militarisierung der Arktis ist bereits im Gange, und die Finanzierung ist gesichert bis Ende 2015 (das Verteidigungsministerium war das einzige Kreml-Ministerium, das nicht Opfer jüngster Kürzungen des Budgets war). Angesichts des russischen Ziels, seine Stärke bis zum Ende dieses Jahres zu konsolidieren, überdenken die umgebenden Länder bereits ihre jeweilige Position im Angesicht einer übermächtigen regionalen Macht“.

Schmelzendes Eis könnte bislang unzugängliche Öl- und Mineral-Lagerstätten in der Arktis zugänglich machen. Die EIA in den USA schätzt, dass in der Arktis 30 Prozent der unentdeckten Welt-Gasvorkommen liegen und 13 Prozent der bislang unentdeckten Ölreserven. Russland betrachtet dies als kritische Quelle für ausländische Investitionen für seine wirtschaftliche Erholung.

Arktis im Brennpunkt

Angesichts der erweiterten Sanktionen wegen der Ukraine-Krise wurde die Dominanz im Arktischen Becken zur obersten Priorität für Moskau. Folglich wird die rohstoffreiche Arktis ein Brennpunkt der Debatte um fossile Treibstoffe und sogar Schauplatz möglicher Klimakriege in naher Zukunft werden.

Der Arktische Ozean wird von acht Nationen umgrenzt, die sich zum „Arktischen Rat“ zusammengeschlossen haben, „einem internationalen Forum für die arktischen Regierungen und Völker“. Mitglieder sind Kanada, Dänemark, Finnland, Island Norwegen, Russland, Schweden und die USA. Von diesen acht Ländern sind fünf Mitglieder der Nato, was der russischen Überzeugung Auftrieb verleiht, belagert zu werden von oppositionellen Kräften, die mit allen Mitteln versuchen, die russische Dominanz in der Arktis zu verhindern, „einschließlich der Anwendung militärischen Drucks“, heißt es in dem Stratfor-Bericht.

Grenzstreitigkeiten scheinen Teil der zukünftigen Debatte um fossile Treibstoffe zu werden, da Russland seine Pläne zu Dominanz in der Arktis nach Kräften vorantreibt, während sich die USA mit internen klima-alarmistischen Gegnern der Öl- und Gaserschließung herumärgern müssen.

[Diese Gespräche laufen ja schon viele Jahre lang. Ich denke, man weiß dort auf allen Seiten ganz genau, dass das mit der Eisschmelze in der Arktis wohl nichts werden wird. Anderenfalls hätte es bestimmt längst handfeste Auseinandersetzungen bis hin zu Militäreinsätzen um die Arktis gegeben, über die auch berichtet worden wäre. Schließlich steht dort viel mehr auf dem Spiel als für Russland in der Ukraine. Anm. d. Übers.]

Weitere Bemerkung: Für eine Biographie des Autors Ron Arnold klicke man oben auf seinen Namen.

Link: http://news.heartland.org/newspaper-article/2015/02/16/military-tensions-between-russia-and-west-spill-climate-policy

Übersetzt von Chris Frey EIKE




Einladung zum Essener Klimagespräch

Da es bei diesem rechtlich bindenden Abkommen in erster Linie um die Reduzierung von CO2 Emissionen gehen wird, ist es zwingend die Grundlagen dieses Abkommens kritisch zu hinterfragen. Denn entgegen der Aussagen von Klimaschützern, stellt die Forschung zum CO2 Anstiegs während des 20. Jahrhunderts die These vom menschengemachten Klimawandel in Frage. 

Neue Untersuchungen von Prof. Murry Salby benutzen Klimaänderungen und atmosphärische Spurengase um den CO2 Kreislauf zu klären, welcher die Änderungen des CO2 Gehalts der Atmosphäre bestimmt. Seine Untersuchungen erhellen die Hauptmechanismen für die Änderungen, speziell für den Anstieg während des 20. Jahrhunderts.               

Die Analyse ergibt eine obere Grenze für die Emissionen aus der Verbrennung fossiler Brennstoffe. Obwohl feststellbar, ist dieser menschliche Beitrag gering. Entsprechend gering ist der menschliche Einfluss auf das Klima. Der Hauptanstieg des atmosphärischen CO2 rührt von natürlichen Quellen her. Auf diesen hat der Mensch keinen Einfluss. Eine unabhängige Untersuchung bestätigt das Verhältnis von natürlicher zu menschlich verursachter Emission.

Prof. Carl-Otto Weiss zeigt in seinem Vortrag, dass Spektralanalyse und Rekonstruktion historischer Temperaturen aus Proxy-Temperaturdaten der letzten 2500 Jahre nur periodische Komponenten zeigen. Das schließt insbesondere einen wesentlichen Einfluss des (nichtperiodischen) CO2 Anstiegs in der Atmosphäre seit Beginn der Industrialisierung aus.                

Prof. Weiss belegt auch, wie die Temperatur der letzten 300 Jahre von nur 2 Zyklen bestimmt wird. Langfristig dominierend ist der ~200 Jahre Zyklus als der bekannte De Vries Zyklus der Sonnenaktivität. Diesem überlagert ist die bekannte, kurzfristigere irdische AMO/PDO- Oszillation mit ~65 Jahren Periode.  Der zyklische Charakter des Klimas erlaubt als Voraussage Abkühlung bis ca. 2080

Programm

Freitag – 13. März 2015

17.45 Uhr Registrierung

18.30 Uhr  Begrüßung 

                 Dr. Holger Thuß

Präsident, Europäisches Institut für Klima und Energie (EIKE)

18:35 Uhr Stopp für die Energiewende!

Kann die De-Industrialisierung noch verhindert werden?

Prof. Dr.-Ing. Dieter Ameling früher Präsident der Wirtschaftsvereinigung Stahl und Vorsitzender des Stahlinstituts VDEh, Düsseldorf

18.50 Uhr  Neue Forschungsergebnisse zum Ursprung atmosphärischen CO2        

Prof. Dr. Murry Salby
bis 2013 Inhaber des Lehrstuhls für Klimaforschung an der Macquarie Universität von Sydney und vorher Professor an der University of Colorado, Boulder     

Der Vortrag wird simultan übersetzt auch die anschließende Diskussion

anschließend Fragen und Diskussion

20.00 Uhr  Die bestimmenden Faktoren der Erdtemperatur

Prof. Dr. Carl-Otto Weiss
EIKE Fachbeirat und ehem. Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig                

anschließend Fragen und Diskussion

21.00 Uhr  Empfang – Es werden Fingerfood und Getränke serviert

Über die Referenten 

Prof. Dr. Murry Salby ist Autor der Standardwerke “Physics of the Atmosphere and Climate” (Cambridge University Press) sowie “Fundamentals of Atmospheric Physics” (Academic Press) und ist weltweit als Atmosphärenphysiker anerkannt. Er hat Aufsehen mit den Ergebnissen seiner Forschung erregt über das Verhältnis der Isotopen 12C- und 13C und der Entwicklung der CO2-Konzentrationen rund um den Globus. Er ist dabei zu dem Schluss gekommen, dass die anthropogenen Emissionen nur geringe Auswirkungen auf die globale CO2-Konzentration haben. Sie seien überwiegend Folge der Temperaturveränderung. Dieser Zusammenhang ist bislang lediglich aus den Erwärmungsphasen nach den letzten Eiszeiten bekannt. Prof. Salby erweitert diesen Zusammenhang auf unsere gegenwärtige Klimaentwicklung.

Prof. Dr. Carl-Otto Weiss war Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig und forscht seit Jahren über die Temperaturentwicklung der letzten Jahrtausende. Er veröffentlichte zusammen mit Prof. Horst-Joachim Lüdecke und Alexander Hempelmann vom Institut für Astronomie und Astrophysik der Universität Hamburg die Forschungsarbeit „Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records“.

Kartendaten © 2015 GeoBasis-DE/BKG (©2009), Google

Veranstaltungsort 

Haus der Technik Hollestraße 1,

45127 Essen

genau gegenüber dem Hauptbahnhof

Das Haus der Technik bietet einen Service für Hotelreservierung und andere Dientleistungen an, siehe pdf Anhänge

Eine Online Anmeldung können Sie hier vornehmen. Anmeldeformulare für Fax und Postanmeldung sowie das Programm selbst finden Sie als pdf im Anhang. In Kürze wird auch die Onlineanmeldung freigeschaltet.

Anmeldung

Mit vollem Namen, Anschrift und Institution formlos per Internet hier, Email, Brief oder Fax an EIKE e.V.

Email: info@eike-klima-energie.eu

Fax: 03641 – 3279 8589    

Brief: EIKE Registrierung, Postfach 110111, 07722 Jena

Tagungsgebühren

                                                                                          

Privatpersonen   20 €

Firmenvertreter 50 €

Zahlung an: EIKE e.V., Volksbank Saaletal Rudolstadt Konto Nr.: 42 42 92 01, BLZ: 830 944 54

IBAN: DE34 8309 4454 0042 4292 01      BIC: GENODEF1RUJ   oder via PayPal auf der EIKE Website

Spenden an das Europäisches Institut für Klima und Energie (EIKE) sind steuerbegünstigt.

Spenden für EIKE bitte auf das oben angegebene Konto oder via PayPal auf der EIKE Website.

Related Files




Hubert Lamb, ein Bericht über sein Leben und Wirken, und was man daraus über den Stand der heutigen Klimaforschung lernt

Das CRU, gegründet zur Untersuchung von historischen Aufzeichnungen und Messungen, mit der Hoffnung, hierin regelmäßige Muster zu finden, die Voraussagen ermöglichen würden, änderte aber seine Forschungsrichtung unter seinen Nachfolgern. Die Arbeiten konzentrieren sich bis heute auf  den Versuch, den angeblichen Einfluss von CO2 auf das Erdklima nachzuweisen. Diese Änderung der Forschungsrichtung ist nachvollziehbar. Während unter Lamb die Finanzierung der Einrichtung auf Dauer problematisch war, ergab sich mit dem Schwenk eine stabile komfortable Finanzsituation. Das CRU wurde als eine von zwei Zentralstellen ausersehen, welche  die weltweiten Klimadaten sammeln und zur Verfügung stellen ( Die andere Zentralstelle ist das GISS ).  Diese beiden liefern auch dem IPCC ( Klimarat ) die Daten. Negative Schlagzeilen ergaben sich für das CRU 2009 als nach Aufdeckung des Emailverkehrs des Institutes das ganze Maß an Datenfälschungen, Zensur und Kontrolle der wissenschaftlichen Zeitschriften des Faches, sowie die Absprachen der Fälschungen unter den relevanten Instituten öffentlich wurde.

Der Bericht über Lamb’s Wirken ist wesentlich eine Beleuchtung der allgemeinen Entwicklung der Klimatologie nach 1950 bis zum Tode Lamb’s. Er gibt einen interessanten Einblick in die innere Entwicklung des Gebiets und die jeweils vorherrschenden Vorstellungen und Paradigmata. Historisch stellte sich die Haupttätigkeit der Klimatologie als möglichst breite Sammlung von weltweiten Klimadaten dar. Die Wissenschaft blieb dabei aber weitgehend deskriptiv, zum Ziel einer Vorhersage auf der Basis verlässlicher historischer Messungen und Daten gab es kaum Fortschritte

Mit dem Aufkommen der Informationstechnik löste sich die Arbeit mehr und mehr von realen Messungen.  Es bildete sich die Vorstellung, mittels großer Rechenleistung ließe sich die Gesamtheit der Klimavorgänge abbilden, und das Klima sich sozusagen „ab initio“ berechnen und voraussagen, auch ohne Bezug zu Messdaten. Diese Vorstellung gewann in naiver Fehleinschätzung von Computerleistungen viele Anhänger,  so dass die Untersuchung von historischen Klimadaten verdrängt wurde.

 Warnen hätte sollen das historische Beispiel von Laplace. Dieser vertrat ja die Vorstellung, das gesamte Universum lasse sich, zumindest prinzipiell, mittels ausreichend hoher Rechenleistung in seiner gesamten Entwicklung berechnen ( die Einsicht „chaotischen“ ( d.h. zufallsgesteuerten ) Verhaltens vieler Systeme widerlegte ihn dann bekanntlich ) . Auch die ähnlichen Modellrechnungen des Club of Rome, die sich als kompletter Reinfall erwiesen, hätten nachdenklich stimmen sollen.

In der Folge wurde und wird der aussichtslose Versuch unternommen, durch immer größere Systeme von Differentialgleichungen das gesamte Klimageschehen von Atmosphäre, Ozeanen und Kontinenten zu simulieren. Die Ergebnisse der Versuche werden  mit Hilfe einflussreicher Gruppen / 1 / als zuverlässige Voraussage verkauft ,  aus geopolitischen Gründen mit ihr zerstörerische planwirtschaftliche Maßnahmen begründet, und die Öffentlichkeit auf den Transfer von 10000 ( in Worten:  zehntausend )  Milliarden Euro zu diesen Gruppen eingestimmt.

 Das Grundparadigma dieser Versuche ist die Vorstellung eines an sich konstanten Weltklimas, welches nur durch Zufallsereignisse, etwa Vulkanismus oder eben menschliche CO2 Emission „gestört“ wird. In Wirklichkeit hat das Klimasystem Eigendynamik, bewirkt  durch den Energieeintrag seitens der Sonne.

 Dies Paradigma wird offiziell vom IPCC als Tatsache verkündet: „Alle natürlichen Einflüsse sind kleine Störungen, die gegen den menschlichen Einfluss vernachlässigbar sind.“

Die Misserfolge dieser Aktivitäten offenbaren sich täglich in immer neuen Befunden, dass die Modellrechnungen in keiner Weise mit den Messungen übereinstimmen oder je übereingestimmt haben.

Als Physiker stockt einem der Atem ob dieses aberwitzigen Vorhabens und der Naivität, das ganze Klimageschehen der Welt in allen Einzelheiten modellieren zu wollen. Man weiß doch dass nur Modelle von bis zu 3, 4  partiellen Differentialgleichungen vernünftiges mathematisches Verhalten zeigen. Darüber hinaus sind sie gewöhnlich „chaotisch“, d.h. bei jedem Wiederholen der Rechnung bekommt man ein anderes Ergebnis.  Wie sollen dann wohl  Klimamodelle mit vielen tausend gekoppelten Differentialgleichungen verlässliche Ergebnisse liefern?

 Dies von allen guten Geistern verlassene, naive Unterfangen sowie auch die völlig blauäugigen Parametrisierungen nicht verstandener Prozesse erschienen mir zunächst als Propaganda: die Öffentlichkeit sollte mittels riesiger Gleichungssysteme sowie mit „Klima-Supercomputern“ beeindruckt werden und die Ergebnisse dadurch glaubwürdig erscheinen.

 Nach dem Bericht über Lamb’s Leben und Wirken erscheint der Sachverhalt aber auch anders. Die Klimatologie ist eben unterteilt in den datensammelnden Teil, der aus den beschriebenen Gründen deskriptiv geblieben ist, und dem jetzt völlig dominierenden ( von jungen Wissenschaftlern sicher auch als lieber bearbeiteten ) Bereich der Computermodelle, in welchem, offenbar mit Grundprinzipien der Physik und der Mathematik Unvertraute, ihren Computerspielereien nachgehen.

Kurz, der Stand ist, dass offenbar die Klimaforschung mit ihren Methoden und Einsichten derzeit weit entfernt davon ist, eine exakte Naturwissenschaft zu sein, welche verlässliche Voraussagen machen kann.

Es würde hilfreich sein, wenn sich dieses Bereichs, mit Modellierung erfahrene Wissenschaftler, annehmen würden. Daneben ist die Arbeit mit verlässlichen Daten statt luftiger „Computermodelle“ heute sicher ergiebiger als noch zu Lamb’s Zeiten.

 /1/  United States Senate Committee on Environment and Public Works Report:

“The Chain of Environmental Command: How a Club of Billionaires and their  Foundations Control the Environmental Movement and Obama’s EPA“

 30. Juli 2014

Prof. Dr. Carl-Otto Weiß ist Physiker mit dem Schwerpunkt Spektralphysik, Autor vieler Fachartikel auch zum Klima und pensionierter Abteilungsdirektor der PTB in Braunschweig




Umweltpolitik: nicht so sehr Umwelt, sondern viel mehr übergeschnappt

[*Mit „Children’s Coalition“ meint Monckton immer die gegenwärtige Regierungskoalition in UK. Natürlich will er damit zum Ausdruck bringen, was er von ihr hält. Er verwendet noch zahlreiche weitere Male ähnliche Bezeichnung für seine Regierenden, die alle mit einem * gekennzeichnet werden ohne nochmalige Erklärung. Anm. d. Übers.]

Während jener Zeit des vermeintlichen „Sparkurses“ haben sich die nationalen Schulden verdoppelt.

Ein nicht geringer Teil des rapiden Schuldenwachstums ist den gewaltigen Summen geschuldet, die die Kinder* für grandiose Dummheiten zum Fenster hinaus geworfen haben wie die Konversion von Drax, dem größten, saubersten und thermisch effizientesten Kohlekraftwerk der Welt von der Verbrennung von Kohle hin zu kleinen, aus Amerika importierten Holzchips.

Die kleinen Knirpse* hatten nicht verstanden, dass die Energiedichte von Kohle viele Male größer ist als die von Brennholz. Selbst wenn Birnam Wood nach Dunsinane kommen würde, gibt es in ganz Europa nicht genug Bäume, um Drax am Laufen zu halten.

Dann gab es da das Londoner „Rent-A-Bike-Schema“, das mit läppischen 26.000 Dollar pro Bike daherkam – und niemand nahm Anstoß daran, weil dies der Rettung des Planeten diente.

Dann gab es die jüngsten Entscheidungen seitens sowohl der schottischen Exekutive als auch der UK-Regierung, dass Fracking nicht erlaubt werden sollte. Seit über einem Jahrzehnt haben Russland und andere entsprechende Interessengruppen Geld in „grüne“ Gruppen gepumpt, die gegen Fracking mit den fadenscheinigen Begründungen protestiert haben, dass es Erdbeben auslöst, das Trinkwasser vergiftet und die Zehn Biblischen Plagen heraufbeschwört, die jeden betreffen werden, der es befürwortet.

Und genau zur gleichen Zeit – man glaubt es kaum – haben schottische und britische Minister Programme subventioniert, um CO2 aus Kraftwerken durch Rohre mit sehr hohem Druck tief in den Untergrund zu pressen. Hallo, hallo – ist da jemand zu Hause?

Dann gibt es da die nutzlosen Windmühlen. Diese Fledermäuse und Vögel schreddernden Schandflecken überschatten jetzt grimmig fast zwei Drittel der einst wunderschönen Landschaft in Schottland. Die Touristenzahlen in den einst schönen Landschaften, die jetzt durch diese sinnlose Industrialisierung dieser Landschaft zernarbt sind, sind regelrecht eingebrochen.

Die riesigen Summen, die von verschiedenen, vom Steuerzahler finanzierten und sich überall einmischenden Agenturen ausgegeben worden sind, um die seltenen Greif- und andere Vögel zu schützen – die Kornweihe, den Weißkopfadler, den Fischadler, den Auerhahn, das Birkhuhn, um nur einige zu nennen – sind allesamt verschwendet worden. Die Subventionsfarmen machen täglich Hackfleisch aus den Vögeln. Schon bald werden viele dieser edlen, aber fragilen Spezies in Schottlands Umwelt ausgestorben sein. Und warum? Um – nun – die Umwelt in Schottland zu retten.

Nicht mehr lange, und während die letzten Adler in ihren blutigen Tod fliegen am Fuße dieser grausamen Türme aus Stahl, wird über 100% von Schottlands Strom aus Wind erzeugt werden – bei jenen seltenen Gelegenheiten, wenn der Wind weder zu stark noch zu schwach weht.

Aus geographischen Gründen ist die einzige Anbindung an ein Netz in einem anderen Land nur mit England möglich. England wird also zum Nachfrage-Monopolisten für Schottlands flatterhaften Stromüberschuss – und darf dafür so wenig bezahlen wie es mag.

Die meiste Zeit jedoch drehen sich die Turbinen nicht – oder falls doch, werden sie vom Netz mit Strom versorgt, um sich bei zu viel Wind abzuregeln. Dann wird Schottland den größten Teil des Stromes – und eventuell den gesamten Strom – aus England importieren müssen. England wird dann zum Monopol-Versorger an Energie für Schottland – und kann dafür einen so hohen Preis fordern wie es mag.

Niemals zuvor in der Wirtschaftsgeschichte hat sich eine Nation so krass daneben verhalten und sich selbst an das falsche Ende eines Monopol-Versorgers und eines Monopol-Abnehmers gesetzt – gleichzeitig! Das ist ökonomische Idiotie an erster Stelle in der ganzen Welt.

Idiotien wie diese sind der politische Kontext, in dem das Umweltkomitee des Unterhauses agiert. Beispiel: Der Climate Change Act 2008, kürzlich beschrieben als das teuerste und nutzloseste Gesetz, das jemals von der Mutter aller Parlamente durchgewinkt worden ist. Zum Zeitpunkt der Absegnung durch das Parlament fielen im Parlamentsviertel mehrere Inches [4 Inches = 10 cm] der globalen Erwärmung – also der erste Schnee, der dort seit 74 Jahren liegen geblieben ist.

„Tim“, der ignorant und höhnisch lächelnd den sehr wenigen Skeptikern gegenüber tritt, denen man erlaubt hatte, vor ihn zu treten, und der vor den wirklich Gläubigen katzbuckelt, die ihn so reich gemacht haben, fragte King, wie viele Länder hinter dem bedrückenden Weltregierungs-Vertrag von Paris stehen würden, der im kommenden Dezember unterzeichnet werden soll. Kings Antwort war ebenso alarmierend wie entlarvend. Alle außer zwei Nationen würden ohne zu zögern unterschreiben, sagte er.

Eine dieser beiden Nationen ist Kanada, dessen Premierminister Stephen Harper die meisten halbamtlichen Pseudoumweltgruppen abgewickelt hat, die einst sein Land heimgesucht hatten. Allerdings, sagte King mit einem einfältigen Lächeln, wird in Kanada in diesem Frühjahr gewählt. Man hat den Eindruck, dass die UN alles tun würde – egal mit welchen Kosten – um Harper unter keinen Umständen zu erlauben, diese Wahl zu gewinnen.

Die zweite Nation ist Australien, dessen gerade gewählte Nicht-Links-Regierung ebenfalls sofort viele der von seiner sozialistischen Vorgänger-Regierung eingeführten kostspieligen Absurditäten der Umweltpolitik abgeschafft hat (im Folgenden einfach „übergeschnappte Politik“ genannt).

Allerdings wird der Wähler dort erst lange nach der Klimakonferenz in Paris im Dezember in der Lage sein, den gegenwärtigen Premierminister Tony Abbott aus seinem Amt zu entfernen. Und aus Sicht der UN ist es besonders wichtig und notwendig sicherzustellen, dass auch nicht eine einzige Nation dem Weltregierungs-Vertrag fernbleibt.

Der Grund hierfür ist, dass – was auch immer die Bürokraten und „Wissenschaftler“ öffentlich verlauten lassen – sie privat in Panik sind*, weil sie die Wissenschaft so dramatisch in den Dreck gefahren haben, dass sie öffentlich geächtet werden würden, wenn dies allgemein bekannt wird – wie es offensichtlich schon jetzt allen bekannt ist, die regelmäßig die WUWT-Temperatur-Aktualisierungen anschauen. Daraus geht nämlich hervor, dass die Rate der globalen Erwärmung ein geringer und immer weiter schwindender Bruchteil der alarmierenden Raten ist, die einst mit „substantiellem Vertrauen“ vorhergesagt worden sind.

[*Ob das auch für die EIKE-Forentrolle gilt? Ich frage mich schon länger, ob sie wirklich glauben, was sie da von sich geben. Anm. d. Übers.]

Die selbsternannten „Weltführer“, die uns einst weismachten wie sicher Sie sich waren, dass Sie recht hatten, können jetzt einfach nicht zugeben, dass Sie unrecht hatten. Das wäre eine Erniedrigung, von der die regierende Klasse kollektiv beschlossen hat, sie nicht durchzumachen. Daher ist für diese Kreaturen die einstimmige Zustimmung zu dem Weltregierungs-Vertrag unabdingbar wichtig.

Der Grund: Nur falls die CO2-Emissionen auf nahezu nichts zurückgefahren werden können, werden Sie in der Lage sein vorzugeben, dass der wirkliche Grund für das empörende und fortgesetzte Verhalten der globalen Temperaturen, nicht einmal annähernd mit den vorhergesagten Raten zu steigen, die harten Maßnahmen sind, die Sie eingeführt haben und die zu der fast totalen Eliminierung von CO2-Emissionen geführt haben.

Es folgt jetzt noch eine längere E-Mail an Monckton von einer mutigen australischen Politikerin an Monckton, die dieser hier zitiert. Darin kommt der ganze hasserfüllte Trieb der Linken gegen Tony Abbott zum Ausdruck. Monckton will damit seinen Punkt unterlegen, was ihm auch gelingt. Ich habe hier aber darauf verzichtet, diese E-Mail auch noch zu übersetzen. Anm. d. Übers.

Link: http://wattsupwiththat.com/2015/02/10/environmental-policy-not-so-much-enviro-as-mental/

Übersetzt von Chris Frey EIKE




Kohlendioxid verdient Dankbarkeit, nicht Geringschätzung

Selten hören wir etwas über die vorteilhaften Auswirkungen, wenn man mehr dieses Spurengases in die Atmosphäre einbringt – von dem 97% aus natürlichen und nicht anthropogenen Quellen stammt.

Ist CO2 ein Treibhausgas? Sicher, man frage die meisten Betreiber von Treibhäusern, die es zur Verstärkung der Photosynthese nutzen, was zu stärkerem und schnellerem Pflanzenwachstum führt. Mehr CO2 ist eindeutig besser als weniger CO2.

Studien zufolge hört das biologische Wachstum zwischen 180 und 110 ppm auf. Man beachte, dass die heutige atmosphärische Konzentration, etwa 400 ppm, tatsächlich sehr niedrig ist im Vergleich mit prähistorischen Zeiten mit einem Niveau zwischen 1000 und 2000 ppm oder sogar noch viel höher – Bedingungen, unter denen das Grünzeug wucherte und das Tierleben aufblühte.

Ja, das Klima ändert sich wirklich. Das hat schon begonnen lange bevor die industrielle Revolution Schornsteine und Verbrennungsmaschinen mit sich brachte. Tatsächlich können wir uns ziemlich glücklich schätzen, in einer warmen und wahrscheinlich kurzen, 12.000 bis 15.000 Jahre langen Zwischeneiszeit zu leben, eingeklammert in 90.000 Jahre langen Eiszeiten.

Es stimmt also, dass es gegenwärtig „anomal warm“ ist; das heißt, verglichen mit jenen Eiszeiten die einen großen Teil des Planeten mit gewaltigen, kilometerdicken Gletschern überzogen hatten.

Es ist auch deutlich wärmer als während der jüngsten „Kleinen Eiszeit“, die Mitte des 19. Jahrhunderts zu Ende ging. Aber es war höchstens genauso warm wie vor 2000 Jahren, als die Römer gute Gründe hatten, kühlende Togas zu tragen. Ähnliche Bedingungen herrschten etwa 1000 Jahre später während der Mittelalterlichen Warmzeit.

Und zufälligerweise zeigen die Aufzeichnungen, dass Erwärmungsperioden ursächlich waren für einen steigenden CO2-Gehalt der Atmosphäre – und nicht umgekehrt. Grund hierfür sind die Ozeane, die gewaltige CO2-Senken sind, wenn sie kalt sind, genauso wie gekühltes Mineralwasser. Das Gas wird bei steigender Temperatur freigesetzt. Keinerlei Überraschung also.

Auch hinsichtlich von Extremwetter gibt es nichts Neues. Die Island-Wikinger Erik des Roten betrieben Viehzucht auf üppigen Weiden im Südosten von Grönland, und zwar noch bis vor 1000 Jahren. Diese nordischen Siedlungen wurden etwa um das Jahr 1350 aufgegeben, nachdem die Temperaturen zurückgegangen waren. Verkürzte Wachstumsperioden und Extremwetter einschließlich starker Regenfälle führten zu der „Großen Hungersnot“ in Nordeuropa von 1315 bis 1317.

Mitte des 16. Jahrhunderts gab es erneut einen starken Temperaturrückgang. Hunger tötete Millionen weitere Menschen in Europa von 1690 bis 1700, gefolgt von weiteren Hungersnöten in den Jahren 1725 und 1816. Zum Ende dieser Zeit erlebten Washingtons Truppen bei Valley Forge in den Jahren 1777 und 1778 brutale Winterkälte. 1812 musste sich Napoleon einem bitterkalten Rückzug aus Russland stellen.

 

Obwohl die Temperaturen und die Wetterbedingungen allgemein mild waren während der letzten 150 Jahre, sollten wir uns daran erinnern, dass große Fluktuationen normal sind. Im vergangenen Jahrhundert gab es zwei Perioden mit Erwärmung. Die erste zwischen 1900 und 1945, als der CO2-Gehalt verglichen mit heute relativ niedrig war. Die zweite, einer leichten Abkühlungsphase folgende Erwärmung begann 1975 und setzte sich mit einer ziemlich konstanten Rate bis 1998 fort, einem Jahr mit einem starken pazifischen El Niño-Jahr.

Etwa die Hälfte der gesamten geschätzten Erwärmung seit 1900 ereignete sich vor Mitte der vierziger Jahre, obwohl das CO2-Niveau erst danach kontinuierlich gestiegen ist. Warum wird dann diese jüngere Erwärmung einem gesteigerten atmosphärischen CO2-Gehalt zugeordnet?

Erinnert man sich noch daran, dass jene wirklich ängstigende „Hockeyschläger“-Graphik endlos durchgekaut wurde von den UN und den Erfüllungsgehilfen von Al Gore, um zu zeigen, dass Emissionen aus der Verbrennung fossiler Treibstoffe die Welt an den Rand eines kritischen Kipp-Punktes gebracht haben? Und doch zeigen Satellitenbeobachtungen, dass die globalen Temperaturen trotz des steigenden CO2-Niveaus nunmehr seit 18 Jahren nicht mehr gestiegen sind, also seit einer Zeit, bevor die meisten der heutigen Hochschüler geboren waren.

Prominente Sonnenphysiker aus Russland und den USA sagen voraus, dass dieser Erwärmungs-„Stillstand“ das Vorspiel zu einer sehr langen Abkühlungsperiode sein könnte, die mit geringer Sonnenflecken-Aktivität korreliert. Dr. Habibullo Abdussamatov, Leiter des angesehenen Pulkovo-Observatoriums in St. Petersburg glaubt, dass eine große Kälteperiode bis zum Ende dieses Jahrhunderts dauern wird, „egal ob industrialisierte Länder ihre Treibhausgas-Emissionen deckeln oder nicht“.

Nichtsdestotrotz zielt ein „Clean Power Plan“ des Weißen Hauses genau darauf, der „Kohlenstoff-Verschmutzung“ einen solchen Deckel zu verpassen. Die Schließung von Kohlekraftwerken im Zuge drakonischer Vorschriften der EPA wird zu erheblichen Strompreis-Spitzen führen. Schwerste Belastungen werden die ökonomisch benachteiligten Bewohner der kalten nördlichen US-Staaten mitmachen müssen.

An einem solchen Plan ist überhaupt nichts ,clean‘. Die Dämonisierung eines natürlichen Pflanzendüngers als Verschmutzer, nur um die Öffentlichkeit komplett in die Irre zu führen, ist eine schmutzige Schandtat.

Link: http://www.cfact.org/2015/02/09/carbon-dioxide-deserves-gratitude-not-disdain/

Übersetzt von Chris Frey EIKE