1

Energiepolitisches Manifest Argumente für die Beendigung der Energiewende (2)

von Günter Keil, Michael Limburg und Burkard Reimer

Hinweis zur Einordnung dieses Papiers

Die Autoren wirken in einer Gruppe von Fachleuten mit, die Bewertungen und Vorschläge zur Energiepolitik für die Partei „Alternative für Deutschland “ (AfD) erarbeitet. Es handelt sich dabei um den Bundesfachausschuss Energiepolitik (BFAE) der AfD.Der Inhalt des vorliegenden Papiers ist zum Teil in die Programm-Arbeit der AfD eingeflossen, es gibt jedoch ausschließlich die Meinung der Autoren wieder und ist kein Programm-Papier der AfD. Politische Grundsätze und Ziele dieser Partei werden auf einem in Vorbereitung befindlicher Programmparteitag nach eingehender Beteiligung ihrer Landesverbände beschlossen – dieser Prozess und seine Ergebnisse bezüglich der künftigen Energiepolitik der AfD sind abzuwarten.

Fortsetzung des ersten Teiles (den finden Sie hier)

2.3    Ein weiteres Milliarden-Grab – die Energie-Einspar-Verordnung EnEV und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG 

Wesentliche Komponenten der Energiewende sind die Energie-Einspar-Verordnung EnEV (47), die auf dem Energie-Einsparungs-Gesetz EnEG beruht, und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG (48). Wie bei dem EEG und der Energiewende werden die erforderlichen Kosten zur Umsetzung von der Regierung und den Profiteure klein geredet oder verschwiegen. Beide Maßnahmen sollen den Verbrauch von vorwiegend fossilen Energieträgern für das Heizen privater und öffentlicher Gebäude vermindern und damit der geplanten Absenkung der CO2-Emissionen dienen.  Die EnEV wurde 2002 erlassen. Zwischenzeitlich wurde sie mehrfach mit dem Ziel novelliert, zuletzt 2013, insbesondere die Forderungen an die Wärmedämmung und die Heizsysteme der Gebäude, weiter zu verschärfen .

Beide gesetzlichen Maßnahmen stehen deutlich seltener als das EEG im öffentlichen Fokus. Obwohl die erhofften Wirkungen der Verbrauchsminderung nachweislich nur bei wenigen Gebäude-Konstruktionen mit schlechter Wärmedämmung, wie z.B. bei dünnen Wänden mit geringer Masse, die in den 50er und 60er Jahren errichtet worden sind,  eintreten. Dagegen verursachen sie häufig massive Schäden z.B. durch mangelhaften Luftaustausch in den Innenräumen, aber auch durch Durchfeuchtung, Algen- und Pilzbefall der Außenwände. Zudem sind insbesondere Styropor-Dämmmaterialen gute Brandbeschleuniger, so dass im Brandfall die Feuerwehr einen kontrollierten Abbrand bevorzugt, statt zu löschen.

Eine messbare Verminderung des Energie-Verbrauchs wird hingegen nur selten erreicht, oft tritt das Gegenteil ein, da die Dämmmaterialien das Eindringen der durch die Sonnenstrahlung erzeugten Wärme in die Außenwände weitgehend verhindern.

Da die EnEV seit Jahren großräumig in allen Teilen des Landes angewendet werden muss, führt sie in großem Umfang zu einer Zerstörung der verbauten Materialien und damit der Bausubstanz bei gleichzeitig extrem aufwendiger und damit kostspieliger Umhüllung der Fassadenflächen. Die Kosten, die der Vermieter ggf. auf die Mieter abwälzen kann, sind erheblich, und werden bis zum Ende des Programms 2050 ca. 3 Billionen € allein durch die Fassadendämmung erreichen. Da die Dämmung oft mit einer ohnehin notwendigen Renovierung der Fassade einhergeht, werden die für die EnEV aufzuwendenden Beträge in der Regel weniger sichtbar. Kaum einer der Auftraggeber der Dämmmaßnahmen macht sich die Mühe diese Kosten herauszurechnen. So fehlt die Transparenz. Die Kosten belaufen sich pro m3 umbauten Raumes auf derzeit ca. 200 €, amortisieren sich aber nur selten. In so gut wie in keinem Fall geschieht das innerhalb der in der EnEV vorgegebenen Amortisationszeit von 10 Jahren.

In der Studie von Prof. Simons, Forschungsinstitut empirica, Berlin, „Energetische Sanierung von Ein- und Zweifamilienhäusern“ (49)  wurden zur Beurteilung des energetischen Zustands der Gebäude in die Berechnungen die Heizungsanlage,  Fenster, Außenwanddämmung, obere Geschossdecke/Dach und Fußboden/Kellerdecke einbezogen. Zusammengefasst kommt die Studie zum Ergebnis, dass eine energetische Sanierung im Regelfall unwirtschaftlich ist, da die eingesparten Energiekosten nicht die Kosten dieser Sanierung decken. Der mittlere Energieverbrauch von nicht wesentlich modernisierten Ein- und Zweifamilienhäusern beträgt 167 kWh/(m²a). Bei Energiekosten von 0,08 €/kWh belaufen sich die Energiekosten vor Sanierung auf 13,36 €/(m²a). Unterstellt, durch eine energetische Sanierung ließen sich tatsächlich 60 % der Energie einsparen – ein ambitioniertes Einsparziel, das in der Realität nur selten erreicht wird – so sinken die Energiekosten um 8,01 €/(m²a). Innerhalb von 15 Jahren summieren sich die eingesparten Energiekosten entsprechend auf 120 €/m² und damit bei Weitem nicht auf die Sanierungskosten, die bereits bei einfachen Fällen zwischen 300 und 500 €/m² liegen.

Auf einer Fachtagung zur Gebäudesanierung stellte Prof. Simons fest (41):

„Eine Sanierung trotz noch relativ gutem Zustand der Bauteile macht wenig Sinn“. Und weiter: „Besonders die Materialkosten der energetisch relevanten Bauprodukte sind in den Jahren 2000-2011 zwischen 10 und 50% angestiegen“. Auch eine aktuelle Studie der Kreditanstalt für Wiederaufbau KfW beleuchtete das Dilemma steigender Bauproduktpreise und deren Auswirkung auf die dadurch weiter sinkende  Wirtschaftlichkeit energetischer Modernisierungs-Maßnahmen (42). Hierzu M. Kleemann, Jülich: „Neben der oftmals sehr knappen Wirtschaftlichkeit energetischer Sanierungsmaßnahmen mit Amortisationszeiten von über 25 Jahren (!) ist auch das „Dilemma der mittleren Qualität“ ein Problem. Das Anforderungsniveau … wird nur zu 69% umgesetzt“.

Zweck des am 01.01.2009 in Kraft getretenen EEWärmeG ist 1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen (Ist 2011: 10,2%). Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor  und weitere  Maßnahmen voranzutreiben.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g.  Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird. Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens  zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU (40): „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkessel – bestehen können.

Auch von E. Gawel et al (39) wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen  Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die  gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG auf alle Bestandsgebäude  bedeuten. Die wirksamste und wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Der Bundesrat hat – wie auch die geea – die Bundesregierung aufgefordert, das Ordnungsrecht zur Energieeffizienz von Gebäuden zu vereinfachen, indem die EnEV und das EEWärmeG zusammengelegt werden. Das bildet dann auch die Gelegenheit, endlich alle Bestandsgebäude diesen Regelungen zu unterwerfen.

(Anm.: Die dena gehört zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Die geea wurde von der dena gegründet und versteht sich als „Plattform der Akteure (Anm.: Profiteure) in den Branchen Bauen und Energie“; sie wird von der dena koordiniert.)

Der Wärmesektor ist jedoch der einzige Bereich, in dem in Deutschland die Energie der Sonnenstrahlung – und zwar auch ihr beträchtlicher Rot- und Infrarotanteil – wirtschaftlich genutzt werden kann. Ferner bietet auch die Nutzbarmachung der Umwelt- oder Erdwärme zu Heizungszwecken – z.B. mittels der Wärmepumpen-Technik – eine weitere sinnvolle Anwendung für die regenerativen Energien in Deutschland.

Bei einer konsequenten Förderung der betreffenden Forschung und Entwicklung (F&E) mit Fokus auf eine Senkung ihrer Investitions- und Betriebskosten stellt dies eine große Chance für eine importunabhängige und kostengünstige Klimatisierung der Gebäude dar. Kostenintensive

Markteinführungsmaßnahmen hingegen bringen keine qualitativen Verbesserungen und sollten niemals vom Staat gefördert werden. Die Fokussierung der Regierungen auf die Stromerzeugung mit „Erneuerbaren“ war und ist ein grundsätzlicher und sehr teurer politischer Fehler. Der verspätete Versuch auch im Gebäudebereich die „Erneuerbaren“  für Techniken zur Erzeugung von Wärme und Kälte zu erschließen, beruht abermals auf Zwang und bevorzugt wiederum die unwirtschaftlichen, aber politisch-ideologisch gewollten EE-Technologien (siehe Kapitel 2.3). 

Im Kapitel 2.13 sind die notwendigen F&E-Maßnahmen zusammengestellt worden.

Vorschlag:

Die EnEV und das EEWärmeG sind ersatzlos abzuschaffen. Es muss den Bauherren oder Gebäudebesitzern überlassen bleiben, ob und wieviel Geld er/sie in die Wärmdämmung, die Heizungsanlage, die Pflege  und den Erhalt der Gebäude stecken.

2.4  Das Speicher-Dilemma

Die Regierung hat seit Einführung des EEG mit ihrer massiven Förderung der vom Tageslicht und vom Wind abhängigen Stromerzeugung von Anfang an ignoriert, dass dieser „Flatterstrom“ ohne die Möglichkeit seiner großtechnischen Speicherung für einen hochentwickelten Industriestaat weitgehend  wertlos, stattdessen aber sogar für die Netzstabilität problematisch ist. Zum Ausgleich der systembedingten kurzzeitigen starken Schwankungen des Wind- und Solarstroms sind riesige Speicher erforderlich, die es aber weder damals gab noch heute oder in absehbarer Zukunft geben wird.

Die Aufgabe solcher Speicher wäre es, nicht nur die kurzzeitigen Schwankungen der instabilen Stromquellen Wind und Sonne zu glätten sondern insbesondere im Winter längere Hochdruck-Wetterlagen mit Hochnebel und daher ohne Wind und mit stark verringerter Sonneneinstrahlung für mindestens 12 Tage zu überbrücken.

Hier bieten sich allein Pumpspeicher-Kraftwerke mit einem Wirkungsgrad von 75% an (8).  Die z.Z. vorhandene Speicher-Kapazität aller Pumpspeicher in Deutschland beträgt 40 GWh (Gigawatt-Stunden), womit Deutschland 40 min lang mit Strom versorgt werden könnte (9).

Um für 12 Tage die erforderliche Strommenge von 17.280 GWh über diese Speicherkraftwerke  sicherzustellen, müssten 2038 Pumpspeicher-Kraftwerke von der Größe Goldisthal neu errichtet werden. Goldisthal in Thüringen ist das größte Pumpspeicher-Kraftwerk Deutschlands und kann maximal 8,480 GWh speichern (Berechnung siehe Nr.1 der Anlage).

  • Auch Prof. Sinn ging in seinem Vortrag auf das Problem der fehlenden Speicherkraftwerke ein (38).  Um den Flatterstrom aus Wind und Sonne bedarfsgerecht aus eigener Kraft anbieten zu können, kann er am effektivsten mit Hilfe von Pumpspeicher-Kraftwerken „geglättet“ werden. Das heißt aber auch: Solange das nicht realisiert ist,  muss  die installierte Leistung der herkömmlichen fossil-gefeuerten und Kern-Kraftwerke zu 100%  betriebsbereit vorgehalten werden. Nur so kann gegenwärtig der volatile Strom verstetigt  und in der Nacht bei Windstille aber oft auch über Tage nahezu vollständig ersetzt werden.
  • Bei seinem Modell geht Prof. Sinn von der 2011 installierten Leistung an volatilem Wind- und Sonnenstrom und der in diesem Jahr gelieferten Strommenge aus. Er rechnet vor, wie viel Pumpspeicher nötig wären, um diese vergleichsweise kleine Strommenge von 68.500 GWh, das sind 11,2% des produzierten Bruttostroms (4) kontinuierlich liefern zu können.
  • Für den Ausgleich der Windkraft-Fluktuationen ergibt sich folgende Rechnung (38, Video ab min. 43): Eine über das Jahr kontinuierliche Windstrom-Leistung von 5,1 GW, wovon insgesamt 0,9 GW ständig gesichert am Netz sind und 4,2 GW der Volatilität unterliegen, erfordert eine Speicherkapazität von 6600 GWh. Dafür müssten 6097 neue Pumpspeicher gebaut werden. Tatsächlich habe Deutschland aber nur 35 dieser Anlagen und selbst die wenigen neu geplanten Anlagen würden stärksten Bürgerprotest hervorrufen – siehe das Jochberg-Projekt am Walchensee in den Bayerischen Voralpen. Selbst wenn man mit 3,0 GW kontinuierlicher Windstrom-Leistung vorliebnimmt und den Strom aus der Leistungs-Differenz von 2,1 GW (5,1 GW – 3,0 GW), d.h. die Leistungsspitzen „verwirft“ –  benötigte man dennoch 456 neue Anlagen für das Speichern des volatilen Anteils aus der Leistung von 2,1 GW (3,0 GW – 0,9 GW).
  • Wegen der Nacht gibt es überhaupt keine gesicherte Sonnenstrom-Leistung. Der volle Ausgleich der Sonnenstrom-Votalität von 2,2 GW mittlerer Jahresleistung würde noch einmal 3918 Pumpspeicher-Kraftwerke erfordern (38, Video ab min. 46). Da sich der Windstrom und der Sonnenstrom in gewisser Weise ergänzen – im Winter gibt es mehr Wind und im Sommer mehr Sonne – brauchte man für die Speicherung der Summe des Stroms aus 7,3 GW Wind- und Sonnenstrom-Leistung  „nur“ 3544 Speicher-Kraftwerke. Reduziert man das wieder auf 4,1 GW und verwirft die Leistungsspitzen von Wind- und Sonnenstrom bis 7,3 GW braucht man dann „nur“ 385 Speicher. Da noch der Wirkungsgrad der Pumpspeicher-Kraftwerke von 75% berücksichtigt werden muss, werden zur Glättung des volatilen Stroms aus einer Leistung von 3,2 GW (4.1 GW – 0,9 GW gesicherte Windstrom-Leistung) 437 Speicher gebraucht.
  • Unter diesen Bedingungen würde man durch den 2011 produzierten Wind- und Sonnenstrom gerade einmal 4 Kernkraftwerke oder Kohlekraftwerke mit einer Leistung von 4,1 GW dauerhaft ersetzen können, davon knapp 1 Kraftwerk durch den kontinuierlich zur Verfügung stehenden Windstrom von 0,9 GW und gut 3 Kraftwerke durch den Bau von 437 Speicher-Kraftwerken. Somit kann nur 1 Kraftwerk bzw. eine Leistung von 0,9 GW endgültig still gelegt werden. Das dauerhafte Abschalten weiteren 3 herkömmlichen Kraftwerken bzw. Herausnehmen von 3,2 GW – d.h. von 4% – aus der aus Sicherheitsgründen vorzuhaltenden Leistung  von ca. 80 GW ist technisch und ökonomisch nicht lösbar. An diesem Beispiel sieht man noch einmal sehr deutlich, wie weit entfernt von leicht überprüfbaren mathematischen, naturwissenschaftlichen und ökonomischen Fakten sich alle Verfechter  der Energiewende bewegen und zur großen Volksverdummung über die Energiewende beitragen.
  • Nach Prof Sinn ist sei auch die Idee unsinnig, die Batterien von Elektroautos als Speicher für das Stromnetz zu verwenden. Die von der Regierung bis 2020 erhoffte Zahl von 1 Million E-Autos würde – falls sie überhaupt als Speicher für das Netz zur Verfügung stehen würden –,6% der erforderlichen Speicherkapazität bringen. Für eine 100%ige Speicherung würde man 164 Millionen E-Autos brauchen, die ca. 254 Milliarden Euro kosten würden (38).

Die eignen Berechnungen für die immer wieder propagierte mögliche Versorgung mit 100% volatilem EE-Strom (siehe Anhang) ergeben folgende, sehr ähnliche  Resultate:

Um die o.g. 2038 Pump-Speicher-Anlagen mit ausreichend volatilem EE-Strom zu versorgen, müsste die Leistung der erneuerbaren Stromerzeuger von 62 GW im Jahre 2012 auf das  11-fache  ausgebaut werden. Beides ist illusorisch, denn  nicht einmal der hundertste Teil der erforderlichen Pumpspeicher-Kraftwerke könnte noch in Deutschland errichtet werden: Es fehlt der Platz; vom Widerstand der lokalen Bevölkerung ganz abgesehen, wie kürzlich am Beispiel der gescheiterten Rursee-Anlage in der Nordeifel zu sehen war. Und ein 11-facher Ausbau der volatilen EE-Stromer-Anlagen ist ebenso abwegig. Es kann niemals in Deutschland die notwendige Langzeit-Speicherkapazität errichtet werden, die für den geplanten Ausbau der Stromversorgung mit weitaus höherem Anteil an Wind- und Solarstrom unter der Bedingung einer ausreichenden Netzstabilität erforderlich wäre.

Deshalb kommen für die notwendige Stabilisierung des Stromnetzes gegen den fluktuierenden Wind- und Solarstrom fast ausschließlich konventionelle Kraftwerke in Frage – das sind Gas- und Kohlekraftwerke – die somit unverzichtbar bleiben. Allerdings sind gerade diese durch das zu bestimmten Zeiten erzwungene Überangebot des an der Strombörse gehandelten billigen EE-Stroms, der anschließend von den Verbrauchern über die EEG-Umlage teuer bezahlt werden muss, in ihrer Wirtschaftlichkeit und damit von Stilllegung bedroht – siehe Kapitel 2.6.

Damit ist die Absurdität der Energiewende-Planung mit ihren inneren Widersprüchen offensichtlich.  Deren Ziele sind ungeachtet der zu ihrem Erreichen verschwendeten Milliarden an € niemals auch nur im Entferntesten realisierbar.

Die Aussichten heute: Die Stabilität des Netzes nimmt weiter ab, aber dennoch wird der auf Kosten der Verbraucher verfolgte Ausbau der unberechenbaren Wind- und Solarstromanlagen – nach wie vor ohne Absicherung durch Speicher – sehr wahrscheinlich weiter fortgesetzt. Damit ist der Weg in die doppelte Katastrophe – eine unsichere Stromversorgung und die extrem hohen Stromkosten – vorgezeichnet, wenn nicht sehr bald ein radikaler Kurswechsel erfolgt.

2.5  Neue Speichertechniken ohne Chance zur Rettung der Energiewende

Da auch die Politik und die Verfechter der volatilen „Erneuerbaren“ die Unmöglichkeit für dieErrichtung der riesigen, zwingend benötigten Pumpspeicher-Kapazitäten in Deutschland stillschweigend akzeptieren, greifen nun die politischen Verteidiger der Energiewende zu der bewährten Methode der Herausstellung angeblicher technischer Alternativen sowie der Finanzierung von angeblich die Lösung bringenden  Entwicklungsprojekten – in diesem Fall also Stromspeichertechniken bzw. Techniken, die man so nennt, obwohl sie nur auf die Produktion von Gas oder Wärme aus EE-Strom hinauslaufen.

Wie meistens gibt es in der Technik verschiedene Lösungen für technische Probleme; das Deutsche Patentamt ist voll davon. Der immer über die Brauchbarkeit entscheidende Knackpunkt ist aber jeweils die Antwort auf die Fragen nach den Kosten, nach der Praktikabilität und – selbst bei den Techniken, die dafür eine positive Antwort versprechen – die Frage nach dem realistischen Zeitpunkt nicht nur der Entwicklungsarbeiten, sondern des Erreichens von Marktreife und Marktdurchdringung. Technische Laien können sich nur schwer vorstellen, dass die Zeit vom Beginn der Entwicklungsarbeiten bis zur Marktreife sehr oft 30 bis 40 Jahre dauert, wobei 20 Jahre bereits die erfreuliche Ausnahme bildet.

Ein Beispiel  ist die Brennstoffzelle. Diese Anlage vermag aus Wasserstoff und Sauerstoff durch „kalte Verbrennung“ Gleichstrom mit Wirkungsgraden von 50 – 60% zu erzeugen.  Seit 1970 hat der Staat  viele Millionen DM in die Entwicklung investiert. Leider ist diese Technik bis heute immer noch nicht ausgereift; es gibt nur wenige sog. Pilotanwendungen. Der Grund: Immer noch zu hohe Kosten und zu geringe Lebensdauer. Aus diesem Grund wird die Anwendung dieser nicht verfügbaren Technik in den unten beschriebenen Prozessen auch nicht berücksichtigt.

Das Dilemma der fehlenden großen Stromspeicher führt nun dazu, dass die Regierung damit begonnen hat, verschiedene Entwicklungen von neuen Speichertechniken zu fördern, die man zumindest der Öffentlichkeit als Hoffnungsvision darstellen kann. Dabei wird darauf vertraut, dass vor allem die Medien diese Aktivitäten als sog. Zukunftstechnologien lobend darstellen – und dass die Bürger einerseits die Schwächen dieser Systeme nicht durchschauen und andererseits annehmen, dass der Einsatz dieser Techniken in nächster Zukunft stattfinden kann und wird.

Man kann durchaus von einer Täuschung sprechen, denn wie unten gezeigt wird, besteht in keinem der Fälle eine Chance dazu.

In den folgenden Darstellungen wird wiederholt auf eine wichtige Kenngröße aller Anlagen der  Energieumwandlung und -Übertragung hingewiesen: Der Wirkungsgrad.

Das ist ein Maß für die Effizienz, mit der eine Anlage arbeiten kann. Er beschreibt das Verhältnis der abgegebenen Nutzleistung zur zugeführten Leistung und wird deshalb in Prozent angegeben.

Ein Pumpspeicherkraftwerk, das einen Wirkungsgrad von 70 % hat, vermag also von einer aufgenommenen Strommenge (z.B. 100 Megawattstunden, MWh) 70 Prozent wieder als Strom abzugeben – also 70 MWh Strom. Der Rest von 30 MWh elektrischer Energie geht als Verlustwärme verloren.

Bei einer Kette von hintereinander liegenden Anlagen erhält man den Gesamtwirkungsgrad durch einfache Multiplikation der Einzel-Wirkungsgrade.

Bei allen offiziellen Angaben zu Wirkungsgraden ist Vorsicht geboten, weil man damit die Effizienz einer Anlagentechnik erheblich auf dem Papier schönen kann – was auch gerade zu Gunsten politisch erwünschter Technologien oft und gerne geschieht.

Im Folgenden werden die als neue Speichertechnologien ins Rampenlicht gestellten Verfahren beschrieben und bewertet. Sie alle sollen den überflüssigen und nur das Netz störenden  Wind- oder Solarstrom nutzen und daraus Wasserstoff, synthetisches Erdgas oder auch wieder Strom erzeugen.

Die meisten nützlichen Zahlenangaben lieferte die Fa. ENERTRAG, die die Anlage in Prenzlau betreibt (51,54); s. auch die Lit. (55) und (56). Daten zu diesem Projekt in Anlage 2.

A.) Die Power-to-Gas-Technik  

Dieses Verfahren beginnt in allen seinen Varianten mit der Anwendung eines elektrochemischen Prozesses: Die Elektrolyse von Wasser mit Strom – woraus man Wasserstoff, Sauerstoff und Verlustwärme erhält.  Wollte man tatsächlich eine Speicherung des eingesetzten Stroms wie bei einem Pumpspeicherwerk, liegt hier bereits ein entscheidender Nachteil vor, denn aus der hochwertigen Elektroenergie wird unter Inkaufnahme hoher Verluste ein im Vergleich zur elektrischen Energie minderwertigerer Energieträger, ein Brenngas, erzeugt. Bei einem Pumpspeicherwerk erfolgt die Zwischenspeicherung jedoch in der Form von hochwertiger potenzieller Energie (die Höhe der Wassersäule), die direkt wieder über eine Turbinen-Generator-Kombination mit einem hohen Wirkungsgrad als Strom abgegeben wird.(6)

A 1) Die Erzeugung von Wasserstoff aus EE-Strom

Der aus dem Netz entnommene Wechselstrom muss gleichgerichtet werden, um dann in einer Elektrolyse-Anlage Wasser in Wasserstoff H2 Sauerstoff zu spalten. Ziel ist es, den Wasserstoff dem landesweiten Erdgasnetz zuzuführen. In diesem ist eine Wasserstoffkonzentration von 5% erlaubt.

Wirkungsgrad „EE-Strom zu H2“: – Gleichrichtung 94 %,   – Elektrolyse 80 %,  – Gesamt 75 %.

Probleme: a) Man hat keinen Strom gespeichert. Es wurde mit 25% Verlusten ein Brenngas erzeugt.

                 b) Es ist zunächst der Nachweis zu erbringen, dass Elektrolyseure, die unter Praxisbedingungen intermittierend bzw. fluktuierend im Zusammenspiel mit EE-Erzeugern eingesetzt werden, tatsächlich ein zufriedenstellendes Betriebsergebnis zeigen

                 c) Man muss große Mengen an H2 zwischenspeichern. Dessen Kompression erzeugt weitere Verluste zwischen 5 und 15 % (6).

 Kosten:     Die Kosten des so erzeugten Wasserstoffs werden vom Preis des EE-Stroms (bei direkter  Lieferung Windpark-zu-Anlage), von den o.g. Verlusten und von den Kapital- und Betriebskosten der Anlage und den Steuern bestimmt. 

Folgendes kann gut abgeschätzt werden:

–        Windstromkosten nach EEG: Land: 4,87 – 8,93 (Anfangsvergütung) Cent/kWh

                                                    Offshore: 19 Cent/kWh („Stauchungsmodell“)

–        mal Faktor 1,48 wegen der Verluste bis zur Elektrolyse (75%) und durch die folgende Verdichtung zur Gasnetz-Einspeisung (10 %); =    7,21 Cent/kWh für alte Land WKA                                                                                                         = 28,05 Cent/kWh für Offshore-WKA

–        Kapital- und Betriebskosten: Marktübliche jährliche Größen sind 7% für Verzinsung, 5% für eine 20-jährige Abschreibungsdauer und 7% für Betriebskosten – zusammen 19% p.a. von der Investition. Aus den Daten der Anlage in Prenzlau (Elektrolyseurkosten 10 Mio Euro, weitere Anlagen (geschätzt) 4 Mio Euro, Stromerzeugung 16.000 MW/a) ergeben sich  Kapital- und Betriebskosten von 16,6 Cent/kWh.

–        Damit Erzeugungskosten des ins Erdgasnetz eingespeisten H2:

= 23,7  bis 44,65 Cent/kWh 

–        Dazu Netzkosten, Erdgassteuer, Umsatzsteuer, Konzessionsabgabe: zus. 47%

–        Endpreis bei Bezug des Wind-Wasserstoffs über das Erdgasnetz:

=  34,8  bis 65,6 Cent/kWh, je nach Alter und Ort der Windräder.

–        Im Vergleich: Haushalts-Gaspreis: 7,1 Cent/kWh (Rhenag, Siegburg).

Je höher der Anteil an Offshore-Windstrom wird, umso teurer wird der Wind-Wasserstoff – d.h. bis zum 9-fachen des normalen Erdgaspreises.

Der so erzeugte Wasserstoff kann jedoch nur in beschränkten Mengen ins Erdgasnetz eingespeist

werden. Das verhindert einen flächendeckenden Einsatz dieser Technik. Bei größeren Anlagen wird diese Grenze rasch erreicht, weshalb dieses nur bis zur Wasserstofferzeugung reichende Verfahren relativ bedeutungslos bleiben wird. Deshalb hat man notgedrungen einen weiteren Schritt mit der Erweiterung dieser verlustreichen Verfahrenskette getan, um das Erdgasnetz voll als Endabnehmer nutzen zu können. Mit der Nachschaltung einer Methanisierungs-Stufe wird Synthetisches Erdgas SNG erzeugt (siehe A 3).  

A 2)  Die Erzeugung von Strom – über den Zwischenschritt Wasserstoff – mit Rückverstromung.

Zumindest mutet eine so aufgebaute Anlage wie ein Stromspeicher an, denn Strom geht hinein und wird wieder abgegeben. Dafür muss der Wasserstoff – nach Speicherung – in einem Wasserstoffmotor oder einer Gasturbine plus Stromgenerator verbrannt werden. Erhebliche Zusatzverluste sind der Preis.

Wirkungsgrad „EE-Strom zu H2 zu Strom“:

–        In A 1) ergab sich für die H2-Erzeugung 75 %.

–        Ein Gasmotor kann 40 % erreichen.

–        Eine 100 MW-Gasturbine bis 40 %; eine 10 MW-Gasturbine 35 %. Es wird hier

–        38 % angenommen.

Diese Anlage erreicht somit einen Wirkungsgrad von 0,75×0,38 = 28,5 %. Mit einem Stromspeicher hat das nichts mehr zu tun. Vielmehr handelt es sich bei einem Verlust von 71,5 Prozent um eine recht teure Energievernichtungs-Anlage.

                 

Probleme: a) Weil Überschuß-Windstrom im Netz nicht gebraucht wird, muss der erzeugte Wasserstoff erst einmal gespeichert werden, bis wieder Bedarf im Stromnetz entseht. Das führt zu einem erheblichen Speicherproblem.

                 b) Zwar nimmt die Anlage Strom auf, speichert den erzeugten Wasserstoff und erzeugt mit diesem wieder Strom, der abgegeben wird, aber die nochmals erhöhten Verluste sowie die ebenfalls höheren Kapitalkosten treiben diesen Strompreis weit über das Niveau der ohnehin schon hohen Kosten für den „gespeicherten“ Wind- oder Solarstrom. Der Gesamtwirkungsgrad von 30 % – also 70 % Verluste – ist nichts anderes als eine Katastrophe. Da hilft es nichts, einen Teil der Verlustwärme noch irgendwie zu nutzen.

 Kosten:     –  Wie in A 1) ergibt sich für die Wasserstofferzeugung

                     =    7,21 Cent/kWh für Strom aus alten Land-WKA                                                    =  28,05 Cent/kWh für Strom von Offshore-WKA

                  –  Die folgende Verstromung kann in Wasserstoff-Motoren oder Gasturbinen – jeweils mit  nachgeschalteten Stromgeneratoren – erfolgen. Deren Wirkungsgrad ist in beiden Fällen

                     ca. 38 %.

                  –  Bei großen Gaskraftwerken wird oft das sog. GuD-Verfahren eingesetzt, bei dem einer Gasturbine noch eine zweite Stufe – eine Dampfturbine – zur Abwärmenutzung nachgeschaltet wird, was Wirkungsgrade bis zu 60 % ermöglicht. Aufgrund der höheren Investitionskosten für GuD-Anlagen und der sehr wahrscheinlich geringen zeitlichen Auslastung in einem von EE-Stromerzeugern

dominierten System wird man vermutlich auf die teure Dampf-Zusatzstufe verzichten. Das bedeutet: Nur eine Gasturbine ohne Abwärmenutzung erledigt die Rückverstromung – mit dem o.g. Wirkungsgrad. Entsprechend sinkt der Gesamtwirkungsgrad der Anlage auf 25,6 %.

                   –  Zwischenergebnis:  18,96 bis 73,77 Cent/kWh

                   –  Hinzuzufügen: Kapital- und  Wartungskosten (bei 21 Mio Investitionskosten (54))

                      von 25  Cent/kWh:

                   –  Die Stromerzeugungskosten betragen dann:

                       =   44,0  bis 98,8 Cent/kWh.

                      Weil das EEG derartige Vergütungen nicht vorsieht, wird eine solche Anlage nur Verluste einfahren, Es sei denn, die Regierung ändert das EEG und stellt die o.g. enormen Einspeisevergütungen bereit. Das ist im Moment nicht vorstellbar, aber noch vor wenigen Jahren war auch die heutige Situation in der Energiewirtschaft nicht vorstellbar.

                   –  Für die Privatkunden beträgt 2014 die Belastung des Strompreises durch Steuern und Abgaben 55 %. (56).

                      Ergebnis: Eine derartige Power-to-Gas-Anlage verursacht einen Strompreis von 68,2 Cent/kWh bis  1,53 Euro/kWh – je nach aufgenommenem „EE-Strom-Mix“.

A 3)  Die Erzeugung von Strom – über die Zwischenschritte Wasserstoff, Methan und Rückverstromung

Weil die nur bis zum Wasserstoff reichende Verfahrenskette bald zu Schwierigkeiten bei der Einspeisung dieses Gases in das Erdgasnetz führt (s.o.), hat man beschlossen, der Elektrolyse eine Methanisierung nachzuschalten. Damit nimmt man weitere Verluste in Kauf.

Für die Umwandlung von Wasserstoff in synthetisches Naturgas SNG nach dem Sabatier-Verfahren wird Kohlenstoffdioxid CO2 eingesetzt. Anschließend erfolgt wieder die Rückverstromung – wie oben beschrieben.

Probleme: a)  Die Umwandlung in SNG erfordert einen weiteren erheblichen Ausbau der Anlage; deutlich höhere Kapitalkosten und Wartungskosten entstehen.

b)     Der Wirkungsgrad der Methanisierung beträgt 80 bis 85 %; hier angenommen: 83 %.

Damit folgt für den Gesamtwirkungsgrad der Anlage:

0,75 x 0,9 x 0,83 x 0,38 = 0,213. Also klägliche 21,5 Prozent.

V. v. Schnurbein, der die zwei Szenarien einer optimistischen und einer skeptischen Abschätzung der einzelnen Prozeßwirkungsgrade betrachtete, kam  hier bei der skeptischen – und möglicherweise realitätsnäheren – Variante auf einen Gesamtwirkungsgrad von nur noch 14 %. (6)

c)  Woher sollen aber die großen Mengen an CO2 kommen ? Es ist umstritten, ob überhaupt

     genügend CO2 aus biogenen und industriellen Prozessen für eine großflächige

     Anwendung der Methanisierungs-Technologie zur Verfügung steht.(55).

Kosten: Nach Anwendung der obigen Rechnungen ergibt sich mit Methanisierung und Rückverstromung sowie mit 33,3 Cent/kWh für die Kapital- und Betriebskosten (wegen der zusätzlichen Methanisierungs-Stufe wird die Investition um 33% höher als bei  Verfahren A 2) geschätzt):

             Stromerzeugungskosten:  =  56,2 bis 122,2 Cent/kWh

             Für Privatkunden beträgt dann der Strompreis nach Aufschlag der Steuern und Abgaben:

             =  1,07  bis  1,89  Euro/kWh.

                

Bei diesem angeblich der Stromspeicherung dienenden Verfahren sind die Verluste so extrem, dass eher von einem Stromvernichtungs-Verfahren gesprochen werden kann. Entsprechend hoch fällt dann der Preis des verbleibenden  Rest-Stroms bei der Rück-Einspeisung aus, wie das Zitat aus einem Fachartikel zeigt: „Dieses System als Langzeitspeicher für überschüssigen EE-Strom (Wind und Solar) würde bei einer Anlagenkapazität von 44 GW(el) und einem Stromoutput zwischen 12,3 und 31,7 TW (1 Terawatt  = 1 Million Megawatt) – das wären 2 bis 5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. Euro verursachen (6).

Es wird schnell klar, dass zur vollständigen Stromversorgung über die volatilen „Erneuerbaren“ unter Verwendung dieser höchst ineffizienten Speicher noch eine viel größere Anzahl von Wind- und Solarstromanlagen  als schon beim  Bau von 2038 neuen Pumpspeicherkraftwerken erforderlich wäre.  Bei dem Power-to-Gas-Verfahren  Strom – Wasser -Wasserstoff – Methan – Strom  wären sogar Wind- und Solarstromanlagen mit einer ca. 58-fachen Leistung im Vergleich zur installierten Leistung von 2012 zu errichten.

Damit wären alle Pläne bezüglich der Nutzung von  grünem Überschussstrom mittels elektrochemischer und chemischer Umwandlung als Erdgas-Ersatz, als KFZ-Antrieb und erst recht als Stromspeichermethode wegen unakzeptabler Ineffizienz und untragbarer Kosten sinnlos.

Alle Unternehmen, die sich an Power-to-Gas-Projekten beteiligen, besitzen selbstverständlich den Sachverstand, um die geschilderten Probleme, die sich ganz einfach aus einem Ignorieren physikalischer Gesetzmäßigkeiten ergeben, klar zu erkennen.

Es stellt sich daher die Frage, weshalb aus der Industrie und insbesondere aus ihren Verbänden keine Kritik an der Energiewende-Politik zu hören ist. Im Gegenteil: In allen Reden, Artikeln und Pressemitteilungen von Unternehmensvertretern wird in einer bemerkenswert gleichlautenden Sprachregelung immer von „ehrgeizigen“, „ambitionierten“ und „anspruchsvollen“ Zielen der Regierung gesprochen. Das sind heute die Synonyme für die Adjektive „sinnlos“, „unbezahlbar“ und „realitätsfern“.

Durchweg wird betont, dass man selbstverständlich die gleichen Ziele hätte. Nur ein paar kleine Änderungen wären doch schön.

Es erinnert an das Märchen von des Kaisers neuen Kleidern. Die Motive jedoch, die heute die Höflinge der Regierung für ihre Bewunderung der Energiewende haben, sind von handfesterer Art: Man rechnet damit, dass die gegenwärtige Energiepolitik noch einige Jahre andauert und man möchte die durch die verschiedenen Schwierigkeiten und Fehler entstandene Notsituation der Regierung für lukrative Geschäfte nutzen. Die Situation ist deshalb dafür besonders günstig, weil jetzt der Staat durch Gesetze und Verordnungen dafür sorgt, dass alle politisch gewünschten Projekte – seien sie auch noch so sinnlos wie die Power-to-Gas-Fabriken – mit Sicherheit bezahlt werden. Deshalb schaltet der Energieversorger E.ON derzeit TV-Spots mit der Präsentation der Power-to-Gas-Anlagen “ als „Stromakku“ für Windkraftstrom. Die Bürger werden es schon nicht durchschauen.

Es besteht eine staatliche Abnahme- und Gewinngarantie. Auch neue Absatzmärkte winken, wie die nur durch Zwang vielen und demnächst vermutlich allen  Haushalten vorgeschriebenen „Smart Meter“. Es ist ein vorübergehend existierendes, planwirtschaftliches Paradies.

Aus der Sicht dieser Unternehmen wäre es sehr unvernünftig, die Zeitspanne bis zum Zusammenbruch der Energiewende-Politik nicht für gute Geschäfte zu nutzen.

Das Power-to-Gas-Thema wurde hier so eingehend dargestellt, weil es sich dabei um die dreisteste Irreführung in der gesamten Energiewende handelt. Die Kosten sind derart extrem, die Verluste dermaßen krass, dass jegliche Hoffnung auf das spätere Erreichen eines erträglichen Niveaus vergeblich ist. Man kann die Physik nun einmal nicht betrügen.

Die finanzielle Förderung etlicher Projekte durch Bundes- und Länderministerien zeigt deutlich, dass es dort als politisch wichtig angesehen wird, mit diesen Potemkinschen Dörfern den Bürgern eine Hoffnung auf künftige Besserung der offensichtlich prekären, an den Strompreisen ablesbaren Situation vorzugaukeln. Es geht nur um Zeitgewinn, nicht um Energie…

Fortsetzung folgt

Den gesamten Text können Sie sich als pdf datei im Anhang herunterladen

Related Files




Exit

Bei den Medien sicherlich. Hier ist, wie in der deutschen Medienlandschaft schon so oft, der SPIEGEL einer der wichtigsten Vorreiter. Noch nicht lange her auf Linie des IPCC, übt sich der SPIEGEL inzwischen in Klimakritik (hier, hier, hier, hier, hier, hier, hier). Weiter ist die Schweizer Weltwoche zu nennen (hier, hier). Die übrige „anspruchsvolle" Zeitungslandschaft wie FAZ, Süddeutsche Zeitung, die WELT usw. verharren aber immer noch im Irgendwo. Man zögert und hält sich alle Optionen offen, ausgenommen die ideologiefeste Süddeutschen Zeitung und die öffentlich-rechtlichen TV- und Radio-Sender mit ihren grün-roten Redaktionen. Diese üben  sich bunkermental im Durchhalten nach dem Motto „was kümmern uns Fakten, wir verbreiten Klimakatastrophen“.

In den Zeitungsredaktionen weiß man dagegen immer noch nicht, woher der Wind einmal blasen wird und legt sich daher nicht fest. Klimakritische Artikel wechseln sich mit Klimaklamauk zunehmend rascher ab. So war sich sogar die FAZ nicht zu schade, den Asyl-Antrag eines „Klimawandel-Opfers“ der Pazifik-Insel Kiribati an Neuseeland zu kolportieren und damit dem Leser wieder einmal einen gefährlichen Meeresspiegelanstieg zu verkaufen (hier) – oder war es vielleicht schon Ironiel? Im Gegensatz zum Klima machen freilich fast alle Zeitungen massiv gegen den volkswirtschaftlichen und technischen Wahnsinn der Energiewende Front. Die einfache logische Konsequenz, nämlich deren komplette Abschaffung, ist aber leider immer noch ein Tabu. Das Anzeigengeschäft mit Unternehmen, die von der Energiewende profitieren, ist für die finanziell bedrohten Blätter zu wichtig, um frei und objektiv berichten zu können. Eine Fortsetzung der Energiewende wie bisher, die mit der kommenden Regierungskoalition wenig wahrscheinlich ist, würde dann aber wohl doch alle noch vorhandnen Kritik-Dämme der Printmedien brechen lassen.

Der Exit der deutschen Wirtschaft ist dagegen schon traurige, komplette Realität. Stromintensive Industrien verabschieden sich ins Ausland, Arbeitsplätze gehen verloren. Es wird nicht viel Getöse gemacht. Zwischen Politik und den verschwindenden Firmen bestehen nämlich Absprachen einer gefälligen Abwicklung des Exit unter folgenden leicht zu erkennenden Bedingungen: Keine öffentlichwirksamen, lauten Klagen der abziehenden Unternehmen über die Energiewende! Dann geht der Exit nachsichtig glatt vonstatten – dies der Deal.

Der Verband der deutschen Chemie protestiert inzwischen gegen die gestiegenen Strompreise, ohne die hierfür verantwortliche Energiewende klar als Unsinn zu bezeichnen. Es ist leider nicht nur Höflichkeit, was sie daran hindert. Man fühlt sich unübersehbar unbequem und windet sich. Man ist natürlich "für" die Energiewende, nur eben nicht für solch eine usw. usw…. ja, aber für welche dann? „Nur eine wettbewerbsfähige Energiewende kann auch Wachstum und Arbeitsplätze fördern“ heißt es in der aktuellen VCI-Schrift (hier). Gut gebrüllt Löwe! Nun aber bitte im Ernst! Wie soll denn die deutsche Energiewende, ein Musterbeispiel längst vergangen geglaubter DDR-Planwirtschaft, jemals wettbewerbsfähig werden? Einzige unabdingbare Lösung ist, sie komplett in der Mülltonne der Geschichte zu entsorgen. Zugegeben, die Chemie hat ohnehin schon gegen einen unberechtigt schlechten Ruf zu kämpfen. Es gibt Leute, die vermuten, dass große Chemieunternehmen Greenpeace und weiteren NGO-Konsorten Schutzgelder zahlen (Pardon, natürlich Spenden zukommen lassen), damit diese nicht vor den Werkstoren randalieren. Wir wissen nicht, ob dies zutrifft, abwegig ist es aber nicht. Man kann in diesem Zusammenhang nur den Wunsch aussprechen, dass wenigstens die russische Regierung hart bleibt und die Besatzung des widerrechtlich operierenden Greepeace-Schiffs konsequent hinter Gitter setzt.

Was waren es dagegen noch für Zeiten, als sich Greenpeace japanischen Walfängern entgegenstellte, Aktionen, für die wohl nicht nur der Autor immer noch sehr viel Sympathie aufbringt. Heute singt Greenpeace das Lied von Rockefeller und betreibt das grüne Geschäft der Vernichtung deutscher Kernkraftwirtschaft. Das ist finanziell lukrativer als Wale zu schützen. Auf diese Weise hat es dieser fragwürdige Verein von einer kalifornischen Klitsche bis zu einem weltweit agierenden Unternehmen gebracht, dessen Führung im sonnigen US-Weststaat sich sogar des Besitzes einer Großyacht erfreut [2]. Es darf als Skandal bezeichnet werden, wie Verlautbarungen von Greenpeace in den deutschen Medien fast schon den Rang offizieller deutscher Regierungserklärungen einnehmen.

Aprospos "hinter Gittern". Wir kommen damit zum Exit der weltweit agierenden Großbanken, Versicherungen und Rückversicherungen. Es gibt kluge Leute, die sehen das IPCC, den Club of Rome und NGO’s wie WWF, Greenpeace etc. als verlängerte Arme der US-Großfinanz an. Allen voran steht wohl das Bankimperium Goldman Sachs (hier, hier, hier). Die US-Großfinanz hat die politischen Welteliten auf Klimakatastrophen eingeschworen und belohnt dafür die Protagonisten, die oft aus prominenten, abgehalfterten Politikern bestehen. Wem dies zu sehr nach "Verschwörungstheorie" riecht, schaue sich nur als Beispiel von vielen die Vita unseres ehemaligen Außenministers Joschka Fischer an, insbesondere seine Aktivitäten nach Ausscheiden aus dem Amt (hier, hier). Die Anzahl von einflussreichen Politikern, die einmal auf der Gehaltsliste von Goldman Sachs standen, ist Legion (hier, hier). Lukrative Geschäftsfelder lassen sich mit Hilfe einer fremdgesteuerten Agenda unauffällig und wirkungsvoll installieren.

Die Verästelungen reichen heute bis hinunter in die deutsche Provinz. So lassen sich deutsche Bürgermeister, die sich dem glorreichen Vorhaben verschrieben haben, ihre Städte CO2-frei zu machen (hier), von fragwürdigen Institutionen beraten. Wie zum Beispiel in Heidelberg von einem IFEU-Istitut (hier). Derartige Grün-Unternehmen treiben ihr Unwesen inzwischen bundesweit. Sie beschäftigen Mitarbeiter, die in ordentlichen Firmen vermutlich keinen Arbeitsplatz finden konnten. Immerhin könnte man diese Entwicklung euphemistisch als Arbeitsbeschaffungsmaßnahmen bezeichnen – auf Kosten der Kommunen bzw. des Steuerzahlers natürlich.

Zurück zur großen Bühne! Hier stehen große Exit-Probleme an. Die Glaubwürdigkeit des IPCC hat durch seine undurchsichtige und unglaubwürdige Politik, aber am meisten wohl durch das widerspenstige Verhalten der Natur irreparablen Schaden erlitten (hier, hier) und [1]. Eine knapp 30-jährige globale Erwärmung, deren Ursprung von naturunkundigen Zeitgenossen (die von der Klimavergangenheit mit ihren wesentlich heftigeren Fluktuationen nichts wissen) sowie von Advokatenwissenschaftlern dem anthropogenen CO2 zugeschrieben wird, will sich partout nicht fortsetzen. Den großen Banken und Versicherungen droht dadurch der Boden unter dem so schön eingefädelten Klimageschäft wegzubrechen. Wir brauchen diese Unternehmen nicht zu bedauern, sie werden rasch andere Geschäftsfelder zur Rupfung ihrer Opfer finden. Unglücklicherweise ist die von Großbanken gesteuerte US-Administration nicht in der Lage, die großen Banken zu zerschlagen (Trennbankensystem durch Auslagerung der Zocker-Abteilungen in eigene Unternehmen, um die Steuerzahler von den irrsinnig hohen bail-out-Kosten zu befreien). Immerhin scheint dies der EU zu gelingen, wenn auch leider noch nicht ganz konsequent (hier) – ein erster Hoffnungsschimmer! Die US-Administration ist freilich so stark im Griff der Großfinanz – Demokraten und Republikaner gleichermaßen, hier spielt es keine Rolle, wer das Sagen hat – ,dass jede Hoffnung auf Bankenzerschlagung und Neuordnung von Währung und Schulden vergeblich ist.

Wieder zurück zum Klima! Der Autor freut sich über den nun 15 Jahre andauernden Temperaturstillstand überhaupt nicht, denn die Erwärmung der 90-er Jahre war wohltuend und für die Menschheit überdies günstig. Er wagt auf der anderen Seite aber gar nicht daran zu denken, was bei weiterer Erderwärmung passiert wäre. Mit Sicherheit wären heute alle EIKE-Mitglieder von Klimagerichten wegen Volksverhetzung abgeurteilt, wenn sie nicht schon vorher widerrufen hätten. Klimagerichte wurden von grüner Politik tatsächlich schon vorgeschlagen und sind kein Phantasieprodukt [2]. Sie wären bei weiterer Erwärmung installiert worden (alternativlos, Zitat Merkel). Den Klimakonsens aller deutschen Parteien erleben wir ja bereits seit vielen Jahren. Eine solche "überparteiliche" Übereinstimmung ohne jedwede Sachkritik seitens der Politik (von Splitterparteien abgesehen) ist zweifellos der Existenzbeweis einer bereits realen bundesdeutschen Ökodiktatur. Eine weiter fortgesetzte Erwärmung hätte Massendemonstrationen für noch mehr Klimaschutz initiiert, und es hätten sich noch weit schlimmere Dinge entwickelt. Jeder mit ein wenig Vorstellungsvermögen, Geschichtskenntnissen und Menschenerfahrung kann es sich ausmalen. Wozu Menschen fähig sind, haben vergangene Diktaturen bewiesen. Die aktuelle deutsche Ökodiktatur ist glücklicherweise noch milde, sie ist erst bis zur medialen Meinungsunterdrückung sowie dem stillen Herausdrängen unliebsamer Fachwissenschaftler aus Schlüsselpositionen und ihrem Ersatz durch linientreue Ökoaktivisten gelangt (Beispiel WGBU, zu den Mitgliedern dieses Beirats erübrigt sich jeder Kommentar). Ferner ist heute schon jeder in einschlägigen Ministerien oder Unternehmern Beschäftigte im Interesse seiner beruflichen Karriere gut beraten, keine Klimakritik zu äußern.

Ein stellvertretendes Beispiel von fragwürdigen Vorkommnissen in diesem Zusammenhang unter vielen: Man muss sich angesichts des fast unglaublichen sachlichen Dummschwätzens einer bundesweit medienbekannten Volkswirtin, die sich als ökopolitische Kassandra mit Unterstützung grüner Medien-Seilschaften in den Vordergrund spielte, ersthaft fragen, wie diese Dame zu einer Universitätsprofessur gelangte. Kurzum, ohne Abbruch der globalen Kurz-Erwärmung Ende des 20. Jh. hätte die aktuelle Ökodiktatur Deutschlands ohne Zweifel einen weit gefährlicheren Weg eingeschlagen. Insofern begrüßt der Autor den Erwärmungsstillstand, wenn auch ungern.

Verbleibt nun noch der Exit der Politik. Wie kommt die Politik vom hohen Ross "Klima und Energie" wieder herunter? Der Autor kann sich den Ablauf nur schlecht vorstellen. Dies aus dem einfachen Grund, weil Politiker über ein Wandlungsvermögen verfügen, gegen das Chamäleons Stümper sind. Einen Exit wird es geben, denn sowohl der Bevölkerung als auch der Industrie sind die steigenden Kosten der Energiewende inzwischen bewusst geworden, ihr Duck wird stärker. Die Medien werden entsprechend den Druck erhöhen, so dass Frau Merkel sich irgendwann erneut zu „Alternativlosigkeit“ bemüßigt fühlen wird. Wie dann der Koalitionspartner (SPD) wohl reagiert? Spannend wird es auch, ob die politische Hoffnung AfD endlich zur Energiewende Farbe bekennt und deren komplette Abschaffung zusammen mit der Abschaffung aller Klimaschutzmaßnahmen fordert. Bei den ersten Sitzungen im Europaparlament, in welches diese Partei einziehen wird, muss sich ihre bisher unklare Linie verdeutlichen. Erst mit kopromissloser Ablehnung von Energiewende und Klimaschutz (neben Ablehnung jedes Euro Bail-Out) wird die AfD zu einer echten Alternative. Bei der FDP unter dem neuen Vorsitzenden Lindner ist Hoffnung wohl vergeblich. Ob es ihm gelingt diese Partei, die im Zuge von Außenminister Westerwelle von gleichgeschlechtlich orientierten Protagonisten majorisiert wird, wieder zu ordentlichem Funktionieren zu bringen, ist fraglich. Bis jetzt hört man nur von Personengeschacher, nichts über die vorrangigen Sachfragen einer liberalen Partei. Weiß die FDP überhaupt noch, was liberal bedeutet? 

Um bei der unübersehbaren Haltung des Autors zu Energiewende und Klimaschutz keine Missverständnisse aufkommen zu lassen: Selbstverständlich ist nicht die Aufgabe des Naturschutzes gemeint! Klimaschutz und Energiewende haben mit Naturschutz nichts zu tun, sie sind diametral dessen Gegenteil! Insbesondere die echten „Grünen“ (nicht die Wassermelonen dieser Partei – innen rot, außen grün) könnten vielleicht einmal aufwachen, indem sie das Schleifen der Windräder zum Schutz der Fledermäuse und Greifvögel fordern und sich damit wieder auf ihre ehemalige Agenda "Naturschutz" und nicht Gesellschaftsveränderung und -bevormundung besinnen. Das Bauen von Fledermaustunneln ist sicher ein ehrenwertes, wenn auch etwas teures Unterfangen. Es scheint aber nicht ganz passend, wenn diese nützlichen Tiere infolge ihres vorzeitigen Ablebens gar nicht mehr zur Benutzung dieser Passierhilfen kommen. Sie sind nämlich längst mit geplatzten Lungen infolge der Einwirkung von Windmühlenflügeln abgestürzt und zum Zubrot von Krähen und Füchsen geworden.

Nicht verlinkte Quellen

[1] Die Bücher von Donna Lafromboise über das IPCC und dessen Verbindungen mit NGO’s wie Greenpeace

[2] Vom Fraktionschef der Niedersächsischen Grünen, NWZ vom 10.03.2008

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Sie sind von der EIKE-Webseite unter http://www.eike-klima-energie.eu/publikationen/ herunterladbar.




Fukushima- „Und ewig grüßt das Tanklager“

So sind sie halt, die profitgierigen Kapitalisten von Tepco. Was ist aber mit den schönen Photos von dem Besuch des japanischen Handelsministers Toshimitsu Motegi inmitten einer solchen Gruppe? Hat man je von einem „Herrschenden“ gehört, der sich freiwillig und unnötig „verstrahlt“? Man muß also gar nichts von Strahlenschutz verstehen, um diese Berichte kritisch zu hinterfragen. Etwas gesunder Menschenverstand würde ausreichen — oder man hat halt etwas ganz anderes im Sinn.

Die Crux mit den verschiedenen Formen der Strahlung

Man unterscheidet Alpha- (Heliumkerne) Beta- (Elektronen) und Gammastrahlung (elektromagnetische). Jede, dieser ionisierenden Strahlungen hat eine charakteristische biologische Wirkung und „Durchdringungsfähigkeit“. Für Alphastrahlung reicht ein Stück Papier oder ein Zentimeter Luft als Abschirmung aus. Völlig anders ist die Situation, wenn Alphastrahlung erst im Körper freigesetzt wird. Für den gleichen Energiegehalt wird deshalb eine 20fache Schadenswirkung angenommen. Ganz ähnlich verhält es sich mit der anderen Teilchenstrahlung, der Betastrahlung. Sie dringt nur oberflächlich in Stoffe ein. Eine Abschirmung von ein bis zwei Metern Luft reicht aus. Genau hier, liegt das Mißverständnis begründet. Im Sinne des Strahlenschutzes spielt nur die Gammastrahlung für einen „Tanklagerbesucher“ eine Rolle: Man muß durch einen Schutzanzug mit Atemmaske verhindern, daß radioaktive Partikel in den Körper oder auf die Haut gelangen. Ist dies gewährleistet, kann man im Sinne des Arbeitsschutzes Alpha- und Betastrahlung vergessen. Für die Bestimmung der zulässigen Aufenthaltszeit z. B. ist nur die laufende Messung (Dosimeter) der Gammastrahlung von Interesse. Die Gammastrahlung hat in all den berichteten Fällen etwa 1,5 mSv/h (an den „heißen Stellen“, nicht etwa im gesamten Tanklager) betragen. Eigentlich, nicht der Rede wert — jedenfalls kein Grund für ein meßbar zusätzliches Krebsrisiko.

Warum also die plötzliche Aufregung über ständig steigende und gar „tödliche Strahlung“? Wahrscheinlich eine Kombination aus Unwissenheit und Sensationsgier. Das zweite dürfte überwiegen, denn man hätte ja mal jemanden fragen oder googeln können. Tepco veröffentlicht täglich die Meßwerte an verschiedenen Kontrollstellen. Da das Internet nicht vergisst, kann man die Entwicklung gut nachvollziehen. Fukushima ist eben nicht Tschernobyl! Die Meßwerte haben sich nicht verändert. In letzter Zeit ist lediglich eine Interpretation durch Laien hinzugekommen.

Tepco hat neben der Nuklidzusammensetzung der Wässer und der (Gamma-)strahlenbelastung auch einen Wert für die Betastrahlung angegeben. Wie schon weiter oben gesagt, wird Betastrahlung durch Luft sehr stark abgeschirmt. Die Meßwerte werden von Tepco in einem Abstand von 70 Mikrometer gemessen. Das Abwasser in den Tanks hat Betawerte von 1,8 bis 2,2 Sv/h. Solch hohe Werte bedeuten für einen Fachmann nur eins: Paß auf, daß du diese Brühe nicht ins Auge kriegst, sonst könntest du dein Augenlicht (Linsentrübung) verlieren! Mehr aber auch nicht. Selbst bei längerer Einwirkung auf der Haut, würde sich lediglich eine Hautrötung ergeben. Solange man die Pfütze nicht austrinkt, besteht keine Gefahr. Noch einmal in aller Deutlichkeit: Es gibt keine tödliche Dosis für eine äußerlich wirkende Betastrahlung. Schon der Schmerz durch den „Sonnenbrand“ würde jeden Menschen genug Zeit lassen, sich zu entfernen.

Das Tanklager

Bei dem betreffenden Tanklager handelt es sich um „mobile“ Tanks, die eiligst aufgestellt und teilweise sogar umgesetzt wurden. Sie sind aus einzelnen, gebogenen Segmenten zusammengeschraubt. Um sie überhaupt wasserdicht zu bekommen, sind in die Fugen Gummidichtungen eingelegt. Eine solche Konstruktion, in so hoher Stückzahl, bei den lokalen Wetterverhältnissen (große Temperaturschwankungen, Taifune, Erdbeben etc.) kann nicht über längere Zeit dicht bleiben. Ständige Leckagen waren vorhersehbar.

Die in den Medien angegebene Menge von 300 Kubikmetern, die ausgelaufen sein sollen, ist mit Vorsicht zu genießen. Geht man in die Originalangaben von Tepco, handelt es sich eher um eine Abschätzung. Es wurde in einem Tank eine Absenkung des Flüssigkeitsspiegels um etwa 3 m gegenüber seinen Nachbartanks festgestellt. Keiner weiß genau, ob er jemals ganz voll war, wieviel verdunstet ist usw. Es wurde Wasser aus der Auffangwanne um den Tank abgepumpt, aber nicht so viel. Nach Tepco etwa 4 Kubikmeter (!) bis zum 20. August. Der Rest „könnte“ im Boden versickert sein. Die in den Medien gemachte Aussage, es seien 300 Kubikmeter verseuchtes Wasser in den Ozean gelangt, ist so nicht haltbar und eher durch Meßwerte entkräftet. Erst recht nicht, daß die in dem Wasser enthaltene Radioaktivität dorthin gelangt ist. Der Boden wirkt in jedem Fall als Filter und Ionentauscher.

Als Gegenmaßnahmen wurden jetzt (!!) alle Ablaufventile in den Auffangwannen geschlossen. Es wurden unter alle Leckstellen Absorptionsmatten ausgelegt, um zukünftig besser kontrollieren zu können, wieviel Wasser ausgelaufen ist und ob etwas versickert ist. Nach dem Umpumpen des schadhaften Tanks soll die Wanne mit einem Hochdruckreiniger gereinigt werden und eine 50 cm Bodenschicht am Auslaufventil abgetragen werden. Der verseuchte Bodenbereich wurde mit Gummimatten und Sandsackbarrieren gesichert, damit kein verseuchtes Wasser (Regen) in die Entwässerungssysteme gelangen kann.

Als die wirksamste Gegenmaßnahme erscheint der gute alte Nachtwächter: Zukünftig geht alle drei Stunden eine Fußstreife kontrollieren.

Woher kommt das Wasser in den Tanks?

Nach wie vor müssen alle drei Reaktoren gekühlt werden. Dazu wird ständig Wasser in die Reaktorgefässe gepumpt. Durch die Leckagen in den Steuerstabführungen etc. fließt das Wasser in einem offenen Kreislauf in die Kellerbereiche des Kraftwerks. Dort vermischt es sich mit eindringendem Grundwasser und wird abgepumpt und einer Aufbereitung zugeführt. Das Grundwasser ist Brackwasser, wodurch der Salzgehalt im Rücklauf größer wird. Die Aufbereitung erfolgt zur Zeit in zwei Schritten: Dem SARRY-Verfahren und einer Umkehrosmose. In der SARRY-Stufe wird durch Adsorption (vor allem) Cäsium und weitere 60 Spaltprodukte (teilweise) abgeschieden. Die Umkehrosmose entspricht einer Meerwasserentsalzungsanlage: Es entsteht ein Wasserstrom „reines“ Wasser, welches wieder zur Kühlung in die Reaktoren eingespeist wird und ein „Konzentrat“, welches ins Tanklager geht. Ein typisches Meßprotokoll vom 9. 8. 2013 zeigt folgenden Verlauf: Das Wasser kommt beispielsweise mit 56000 Bq/cm^3  Cäsium-137 aus dem Keller in die Anlage rein. Dort wird soviel Cäsium abgeschieden, daß es die SARRY-Stufe im Mittel mit 1,3 Bq/cm^3 verläßt. Nach der Umkehrosmose ergibt sich ein Reinwasserstrom mit einem Gehalt unter der Nachweisgrenze, aber ein Konzentrat mit 2,7 Bq/cm^3 Cäsium-137 für die Tankanlage. Am Rande bemerkt sei, daß der Wert für Cäsium-137 für Trinkwasser nach internationalem Standard 10 Bq/Liter maximal betragen soll. Man könnte jetzt also mit fug und recht sagen, daß das Wasser im Tanklager 270 mal den Grenzwert für Trinkwasser übersteigt. Hört sich doch gleich viel gefährlicher an, nicht wahr?

Die Brennelemente sind durch das Unglück zerstört worden und teilweise wahrscheinlich aufgeschmolzen und wieder erstarrt. Sie haben jedenfalls keine Schutzhülle mehr und befinden sich auch nicht mehr in ihrem ursprünglichen (sehr widerstandsfähigen) chemischen Zustand. Das „Reinwasser“ zur Kühlung wird sie deshalb beständig weiter auslaugen. Es kann auch kein Gleichgewichtszustand angestrebt werden, solange das Wasser immer noch über die zerstörten Keller abfließen muß. Solange es nicht gelingt einen geschlossenen Kühlkreislauf zu bauen, hat man eine „ständige Quelle“ für verseuchtes Wasser. Ziel muß es daher sein, so schnell wie möglich, den alten Brennstoff aus den Reaktoren zu entfernen. Das ist aber leichter gesagt, als getan. Insofern ist es folgerichtig, mit Hochdruck eine stationäre Wasseraufbereitung zu bauen. Es wird noch eine erhebliche Menge mittelaktiven Abfalls anfallen, denn mit der Entfernung aus dem Wasser ist es nicht getan.

Einfach ins Meer kippen?

Manche Kritiker von Tepco schlagen nun eine radikale Lösung vor: Anstatt immer mehr Tankanlagen zu bauen, einen Tanker chartern und das radioaktive Wasser auf hoher See verklappen.

Radioaktive Materialien sind keine Bakterien oder Viren. Eine Vermehrung ist ausgeschlossen. Sie werden  einfach nur weniger. Ferner bestimmt immer die Dosis das Gift. Je stärker man die radioaktive Lösung verdünnt, um so ungefährlicher wird sie. Setzt man sie weit genug draußen frei, ist eine Anreicherung über die Nahrungskette, auf für den Menschen schädliche Konzentrationen, ausgeschlossen. Übrigens genau die Lösung, die die Sowjetunion für die Entsorgung ihrer Atom-U-Boote gewählt hatte.

Ob man nun das Meer als Müllkippe nutzen sollte, ist eher eine ethisch-moralische oder juristische Frage. Die Naturwissenschaft kann allenfalls bei der Beantwortung helfen. Das Meer ist ist mit einem Volumen von über 1,5 Milliarden Kubikkilometern gigantisch groß. Zwar gibt es bedeutende regionale Unterschiede (z. B. Mittelmeer und offener Atlantik) und insbesondere sehr unterschiedliche Lebenswelten (Korallenriff bis Tiefseewüste), trotzdem ist es in seiner chemischen Zusammensetzung erstaunlich homogen. So enthält jeder Kubikmeter Meerwasser rund 433 Milligramm Uran, was eine Gesamtmenge von 5 Milliarden Tonnen gelösten Urans ergibt. Einschließlich der natürlich entstehenden Spaltprodukte, eine Menge Radioaktivität. Allein die Menge des gelösten radioaktiven Kalium-40 (hat auch jeder Mensch in seinen Knochen) beträgt 530 Milliarden Curie (1 Cu ist die Aktivität von einem Gramm Radium-226 oder 37 GBq). Das ist für sich eine gewaltige Menge Radioaktivität — aber eben fein verteilt. Es gibt aber durchaus auch Unterschiede: Die Konzentration im Golf von Mexiko ist höher — eine Folge der Zahlreichen Öl- und Gasbohrungen dort.

Nach Schätzungen verschiedener unabhängiger Institutionen (Tokyo University of Marine Science, Woods Hole Oceanographic Institution, National Oceanography Centre in Southampton etc.) werden etwa 0,3 TBq monatlich durch Fukushima ins Meer abgegeben. Die auf Messungen und Ausbreitungsrechnungen beruhenden Werte, bewegen sich in einer Bandbreite von 0,1 bis 0,6 TBq. Ist das nun sehr viel? Allein durch die Wasserstoffbombentests in den 1960er Jahren wurden im nördlichen Pazifik mehr als 100.000 TBq Cäsium-137 eingetragen. Die Wiederaufbereitungsanlage in Sellafield hat in 40 Jahren 39.000 TBq in die Nordsee abgegeben.

Die bisher höchsten Werte im Seegebiet zwischen 30 und 600 Kilometer vor Fukushima wurden 3 Monate nach dem Unglück gemessen. Es ergaben sich 3 Bq/Liter Cäsium-137. Im gleichen Zeitraum wurde ein natürlicher Eintrag von 10 Bq/Liter Kalium-40 gemessen. Schön, daß uns die Meßtechnik erlaubt, notfalls auch noch einzelne Kerne festzustellen.

Anreicherung über die Nahrungskette

Ist seit Beginn der „Anti-Atomkraft-Bewegung“ immer das schärfste Schwert in jeder Diskussion. Leider ist es nur sehr eingeschränkt und mit Vorsicht zu gebrauchen. In der Wissenschaft wird sie über das Verhältnis der Konzentration in der Umgebung zu der im Lebewesen bestimmt. Plankton reichert z. B. die Radioaktivität rund 40-fach an. Aber schon in den nächsten Schritten der Nahrungskette wird die Konzentration wesentlich geringer. Sie ist keinesfalls additiv. Biologie ist halt komplizierter. Zudem ist jedes Lebewesen für unterschiedliche Nuklide auch unterschiedlich selektiv. Wir erinnern uns noch an die Empfehlung nach Tschernobyl, nicht zu viel Pilze zu essen. Nebenbei gesagt, haben wir durch den „Praxistest“ Tschernobyl eine Menge über solche Ketten lernen können.

Wie schön, daß nun auch schon eine Auswirkung von Fukushima über den Pazifik bis nach Kalifornien festzustellen ist. Es ist nichts so schlecht, daß es nicht zu irgendetwas nützlich ist. Der „Nuklidcocktail“ von Fukushima dient nun dazu, die Wanderwege des von der Ausrottung bedrohten blauen Thunfisch zu erforschen. Nach Veröffentlichung erster Ergebnisse, waren sofort die Panikmacher zur Stelle und sahen sich in ihren schlimmsten Befürchtungen bestätigt. Die Ergänzung der Wissenschaftler ging natürlich bei den Medien verloren: Ein Erwachsener müßte 2,5 bis 4 Tonnen pro Jahr von diesem Thunfisch essen, um überhaupt auf den zulässigen Grenzwert zu kommen. Dieser ist aber noch weit von jeglicher Schädigung entfernt, sonst wäre es ja kein Grenzwert. Feststellbar, ist eben noch lange nicht schädlich.

Wer Angst vor „von Fukushima verseuchtem Tunfisch “ hat, sollte besser gar keinen Fisch essen. In jedem Fisch kann man unter anderem Polonium-210 mit einer zigfach höheren „Strahlenbelastung“ nachweisen. Es stammt aus der natürlichen Zerfallskette des im Meerwasser gelösten Urans. Es ist nur etwas schwieriger nachweisbar, da es sich um einen Alphastrahler handelt. Deshalb wurde 2006 auch der Putingegner Alexander Litwinenko damit in London ermordet.

Dr. Ing. Klaus Dieter Humpich ..zuerst am 8.9.13 erschienen bei NUKEKLAUS




Kommentare zum UKMO-Bericht über „die gegenwärtige Pause bei der globalen Erwärmung“ – 2. Teil

Beginnen möchte ich mit ihrer ersten Abbildung im 2. Teil:

 

[Die Übersetzung der Bildunterschrift lautet:

Abbildung 1: Beobachtungen des gegenwärtigen Stillstands der Erwärmung. Die oberste Graphik zeigt Zeitreihen mittlerer jährlicher Temperaturanomalien (relativ zur Periode 1961 bis 1990) gemittelt über den ganzen Globus von HadCRUT4 (schwarz), Festland von CRUTEM4 (rot) und Ozeane von HadSST3 (blau). Die zweite Graphik zeigt den Wärmegehalt der obersten 800 Meter der Ozeane (aus Analysen des Met. Office, Anomalien relativ zur Periode 1951 bis 2006, aktualisiert von Smith und Murphy 2007). Die dritte Graphik zeigt den mittleren jährlichen Meeresspiegel, ermittelt aus Pegelmessungen (Church und White 2011). Die unterste Graphik zeigt gleitende neun-Jahres-Trends der Erwärmung und der Wärmeaufnahme der oberen Ozeanschichten. Dies ist aufgeteilt in einsetzende (dunkel) und andauernde Perioden (hell) […split into onset (dark) and continuation (light) periods]. Dabei nahm die Wärmeaufnahme der oberen Schichten während der Onset-Perioden zu, verlief dagegen relatriv flach in continuation-Perioden. Vertikale Linien zeigen große Vulkanausbrüche an.]

Meine Abbildung 1 ist auch Abbildung 1 im 2. Teil des UKMO-Berichtes zum gegenwärtigen Stillstand der globalen Erwärmung. Aus einer ganzen Reihe von Gründen ist sie kurios. Erstens hat das UKMO einen weiteren Datensatz des ozeanischen Wärmegehaltes präsentiert. Im 1. Teil des Berichtes hat UKMO den ozeanischen Wärmegehalt von 0 bis 700 m Tiefe in zwei Abbildungen dargestellt: In Kasten W der Abbildung 1 und in ihrer Abbildung 18. Der Vergleich der beiden Graphiken aus dem ersten Teil steht hier. In diesem 2. Teil ihres Berichtes hat UKMO jetzt den Wärmegehalt von 0 bis 800 m Tiefe gezeigt. Auch dieser Datensatz zeigt nach dem Jahr 2000 einen flachen Verlauf, enthält aber auch einen merkwürdigen Knick nach oben im Jahr 2012. Das UKMO beruft sich auf Smith und Murphy (2007) als Quelle der Daten zum ozeanischen Wärmegehalt in der jüngsten Graphik, aber jene Studie trägt den Titel „An objective ocean temperature and salinity analysis using covariances from a global climate model” (paywalled). [Etwa: Eine objektive Temperatur- und Salzgehalts-Analyse mit Hilfe von Kovarianzen aus einem globalen Klimamodell]. Auf ihrer  EN-3 Ocean Heat Content data webpage beruft sich das UKMO nicht auf Smith und Murphy (2007). Also scheint es so, als seien die „Daten“ des ozeanischen Wärmegehaltes, die UKMO in Abbildung 1 des zweiten Teiles präsentiert, lediglich eine Reanalyse und nicht Daten. Wie auch immer, es scheint, als ob UKMO Datensätze des ozeanischen Wärmegehaltes gezielt danach aussucht, um einen bestimmten Standpunkt zu stützen, den sie versuchen geltend zu machen.

Zweitens, der Meeresspiegel: Der dritte Plot in Abbildung 1 von UKMO zeigt einen mit einer fast monotonen Rate steigenden Meeresspiegel. Der offensichtliche Grund dafür, den Meeresspiegel in Abbildung 1 mit zu zeigen, besteht wohl darin zu belegen, dass der Meeresspiegel weiterhin steigt, obwohl der Temperaturverlauf seit dem Jahr 1997 flach verlaufen war (es war das Jahr, dass UKMO als Anfang der Abflachung festgelegt hat). Tatsächlich stellt das UKMO weiter unten in der Studie fest:

Wie Abbildung 1 zeigt und wie besprochen im 1. Teil dieser Reihe ist der Meeresspiegel während des gesamten derzeitigen Stillstands weiterhin gestiegen.

Was sie nicht erwähnen ist die Tatsache, dass der Meeresspiegel eine lausige Proxy für die globalen Temperaturen ist. Aus den Plots der globalen Temperatur im oberen Teil ihrer Abbildung 1 geht hervor, dass sich die globale Temperatur von 1880 bis etwa 1917 abgekühlt hat, gefolgt von einer Erwärmung von 1917 bis 1944. Als ob sich dieser Zyklus wiederholt hätte, hat sich die globale Temperatur danach von 1944 bis 1976 abgekühlt und von 1976 bis 1998/2000 wieder erwärmt. Der Anstieg des Meeresspiegels jedoch hat sich während der zwei Abkühlungsperioden nicht verlangsamt.

Meine Abbildung 2 zeigt die 30-jährigen linearen Trends der Temperatur und des Meeresspiegels von 1880 bis 2012. Jeder Datenpunkt in der Graphik repräsentiert die 30-Jahres-Trends in mm pro Jahrzehnt für den Meeresspiegel und Grad Celsius pro Dekade für die Temperatur, und zwar für den in jenem Jahr endenden Zeitraum. Die Temperaturdaten stammen aus den jährlichen UKMO HADCRUT4-Daten, die hier verfügbar sind. Man beachte, dass die Temperaturdaten willkürlich skaliert worden sind, indem man sie mit einem Faktor 100 multipliziert hat. Und der rekonstruierte globale Meeresspiegel von 1880 bis 2009, wie er durch Church und White (2011) beschrieben worden ist, stammt von der Website vom CSIRO hier. (CSIRO ist die australische nationale Wissenschaftsagentur). So erhalten wir die Daten der globalen Temperatur und des Meeresspiegels, wie sie vom UKMO präsentiert werden. Wie Abbildung 2 zeigt, gibt es in den 30-jährigen linearen Trends keine Übereinstimmung. Die 30-Jahres-Trends des globalen Meeresspiegels haben während der 1940 zu Ende gegangenen 30-Jahres-Perioden zugenommen, der 30-Jahres-Trend der globalen Temperatur hat jedoch von 1945 bis 1960 abgenommen.

Kurz gesagt, auf Basis der 30-Jahres-Trends gibt es keine Übereinstimmung zwischen den Raten der Erwärmung/Abkühlung hinsichtlich der Temperatur und der Raten des globalen Anstiegs des Meeresspiegels. Also gibt es auf Grundlage der Abkühlungstrends seit 1880 keinen Grund für die Annahme, dass sich der Anstieg des Meeresspiegels während eines Stillstands der globalen Temperatur verlangsamen würde. Dies könnte dazu führen, jemanden glauben zu machen, dass UKMO die Graphik des Meeresspiegels nur als Ablenkung in die Abbildung eingefügt hatte. Der globale Meeresspiegel ist seit dem Ende der letzten Eiszeit gestiegen, und aufgrund der von UKMO präsentierten Daten gibt es keinen Zusammenhang zwischen den Raten des mittels Instrumenten gemessenen Anstieg des Meeresspiegels und der Rate, mit der sich die globale Temperatur erwärmt oder abkühlt.

Der dritte Punkt hinsichtlich der Abbildung 1 im 2. Teil des UKMO-Berichtes bzgl. des Stillstands bei der globalen Erwärmung: In der untersten Darstellung zeigen sie 9-Jahres-Trends innerhalb der 3 Datensätze der globalen Temperatur und des ozeanischen Wärmegehaltes (Reanalyse?) Woher kommen diese 9 Jahre? Das UKMO ist sehr genau hinsichtlich der Diskussion über den Startzeitpunkt des Stillstands. Sie schreiben:

Es ist schwierig, den Beginn des gegenwärtigen Stillstands genau zu terminieren. Zwar wird oftmals das Jahr 1998 als Beginn genannt, doch war dies ein außerordentlich warmes Jahr wegen des stärksten El Niño seit Beginn instrumenteller Messungen. Diesem folgte ein starkes La Niña-Ereignis und ein Rückgang der globalen Temperatur um etwa 0,2°C (Abbildung 1). Das ist hinsichtlich der Größenordnung äquivalent zum mittleren dekadischen Erwärmungstrend der letzten Jahrzehnte. Tatsächlich ist der Anstieg der globalen Temperatur erst im Jahr 2000 zum Stillstand gekommen.

Die jährlichen Daten von 2000 bis 2012 überdecken einen Zeitraum von 13 Jahren, nicht 9 Jahre. Und die Jahre von 1998 bis 2012 überdecken 15 und nicht 9 Jahre. Es scheint, dass das UKMO 9 Jahre gewählt hat, um die Behauptung zu stützen, dass es hinsichtlich eines 9-jährigen Stillstands der globalen Erwärmung nichts Ungewöhnliches gibt. Aber um die 9 Jahre geht es ja gar nicht. Es geht um 13 Jahre und 15 Jahre. Es ist nur zu offensichtlich, warum das UKMO 9 anstatt 13 oder 15 Jahre gewählt hat. Man betrachte meine Abbildung 3. Hätte man beim UKMO 13 oder 15 Jahre als Periode gewählt, würde der gegenwärtige Stillstand ungewöhnlich aussehen; das heißt, seit Ende der siebziger Jahre haben wir keinen so geringen Erwärmungstrend mehr erlebt.

Es sieht ganz danach aus, als ob die meisten Inhalte der Abbildung 1 bei UKMO die Öffentlichkeit in die Irre führen sollten; sie von der Tatsache abzulenken, dass der jüngste Stillstand der globalen Erwärmung in seiner langen Dauer ungewöhnlich ist, wenn Klimamodelle Erwärmung nur simulieren können, wenn sie mit vom Menschen stammenden Treibhausgasen gefüttert werden.

Das UKMO widerspricht sich selbst

Die Atlantische multidekadische Oszillation (AMO) ist Gegenstand des nächsten Abschnitts. Für weitere Informationen bzgl. dieses Phänomens siehe hier, hier und hier.

In ihrer Besprechung ihrer Abbildung 1 bezieht sich das UKMO auf multidekadische Änderungen der globalen Temperatur. Es schreibt (Fettdruck von mir):

Eindeutig gab es auch schon zu anderen Zeiten Perioden mit einer geringen oder mit gar keiner Erwärmung in der relativ kurzfristigen Vergangenheit. Ein gutes Beispiel hierfür ist der Zeitraum zwischen den vierziger und den siebziger Jahren des vorigen Jahrhunderts (Abbildung 1). Der Erwärmungstrend während dieser Zeit ist gut verstanden und hängt zusammen mit einer substantiellen Zunahme von Aerosolen in der Atmosphäre.

Das UKMO erweckt hier die Aerosol-Vermutung erneut zum Leben und behauptet, dass diese „gut verstanden“ ist. Allerdings widersprechen sie sich weiter unten in dem Bericht selbst. Unter der Überschrift „2.2 Redistribution of energy within the climate system – Storing the heat below the surface” und als ein Vorwort zu ihrer Besprechung der Auswirkungen der AMO auf die globalen Temperaturen schreibt das UKMO:

Es ist immer noch unklar, wie diese multidekadischen Variationen der Temperaturen im Nordatlantik angetrieben werden, und es ist eine Debatte im Gange über die Rolle anthropogener Aerosole als Antrieb der AMO (Booth et al 2012, Zhang et al. 2013).

Wenn das UKMO feststellt, dass eine Debatte im Gange ist über die Auswirkungen anthropogener Aerosole auf die AMO und dass diese der dominante Faktor bzgl. der multidekadischen Variationen der Temperaturen sind, wie kann das UKMO dann von „gut verstanden“ reden und davon, dass der Stillstand der Erwärmung von den vierziger bis zu den siebziger Jahren „mit einer substantiellen Zunahme der Aerosol-Menge in der Atmosphäre verbunden ist“?

Booth et al. (2012) und Zhang et al. (2013) habe ich in meinem Blogbeitrag vom März 2013 besprochen. Er trägt den Titel Blog Memo to Lead Authors of NCADAC Climate Assessment Report. Darin habe ich geschrieben:

Booth et al (2012) – eine Studie auf Basis von Klimamodellen – behaupten im Abstract, dass ein „Zustand-der-Erde-Klimamodell…“ verwendet worden ist, „…um zu zeigen, dass Emissionen von Aerosolen und Perioden vulkanischer Aktivität 76 Prozent der simulierten multidekadischen Varianz der trendbereinigten Temperaturen im Nordatlantik von 1860 bis 2005 erklären können“. Andererseits haben Zhang et al (2013) die begrenzte Datenmenge genutzt, um diese Behauptungen in Frage zu stellen. Offensichtlich ist ein „Zustand-der-Erde-Klimamodell“ immer noch ungeeignet für Studien dieser Art der Zuordnung. Wissen wir auf Basis von Computermodellen und sehr begrenzter Daten, was die multidekadischen Variationen der Wassertemperatur im Nordatlantik auslöst? Die realistische Antwort lautet nein.

Dann gibt es da die kürzlich erschienene Studie, in der die vielen Fehler der Klimamodell-Simulationen bzgl. der AMO behandelt werden. Die Studie stammt von Ruiz-Barradas et al. (2013) und trägt den Titel The Atlantic Multidecadal Oscillation in twentieth century climate simulations: uneven progress from CMIP3 to CMIP5. Die gesamte Studie steht hier. In den „abschließenden Bemerkungen” findet sich zu Beginn eine Erklärung, warum es für die Klimamodelle so wichtig ist, in der Lage zu sein, die AMO angemessen zu simulieren. Sie schreiben (Fettdruck von mir):

Die dekadische Variabilität im Klimasystem durch die AMO ist eine der wichtigsten Quellen der Variabilität in diesem temporären Rahmen, und die Klimamodelle müssen zum Ziel haben, dies angemessen zu dokumentieren, und zwar wegen des Einflusses dieses Phänomens auf das Klima der angrenzenden Kontinente. Diese Angelegenheit hat besondere Bedeutung für die gegenwärtigen Bemühungen hinsichtlich dekadischer Klimavorhersage-Experimente, die in Vorbereitung des fünften IPCC-Zustandsberichtes analysiert worden sind. Die gegenwärtige Analyse beabsichtigt nicht, die Mechanismen hinter der Abbildung der AMO in Modellsimulationen zu untersuchen, sondern Beweise für Verbesserungen der Modellrechnungen zu liefern oder das Fehlen derselben. Falls die Klimamodelle die mit der Erzeugung der AMO (oder andere Quellen dekadischer Variabilität wie die PDO) verbundenen Mechanismen nicht angemessen spiegeln und stattdessen die Variabilität mit anderen Häufigkeiten zeigen oder verstärken, dann ist die Fähigkeit der Modelle, im Zeitrahmen von Jahrzehnten zu simulieren und vorherzusagen in Frage gestellt und damit auch die Art und Weise, mit der sie diese Variabilität des Klimas und deren Auswirkungen auf menschliche Gesellschaften übertragen.

Die einzige Möglichkeit, wie sich Ruiz-Barradas et al. noch klarer hätten ausdrücken können wäre es, wenn sie klar sagen, dass Klimamodelle nur dann einen Sinn haben, falls und wenn sie jemals die dekadischen und multidekadischen Charakteristika natürlicher ozeanischer Prozesse simulieren können. Die Autoren beschreiben dann die vielen Probleme im Zusammenhang mit den Klimamodell-Simulationen hinsichtlich der AMO. Die Studie endet mit den Worten (Fettdruck von mir):

Die hier vorliegende Analyse präsentiert keine Beweise, warum die Modelle so agieren, wie sie agieren, sondern zeigt, dass die ungerechtfertigte Zunahme der hohen 10 bis 20-jährigen Variabilität von den Modellen CMIP3 zu CMIP5 hinter dem unbefriedigenden Fortschritt stehen könnte, die räumlich-zeitlichen Erscheinungen der AMO darzustellen. Dieses Problem gekoppelt mit der Unfähigkeit der Modelle, die regionale Low-Level-Zirkulation einzubeziehen, den Treiber der Feuchtigkeits-Flüsse, scheint im Mittelpunkt der ärmlichen Repräsentation der hydroklimatischen Einflüsse der AMO zu stehen.

Falls die Klimamodelle die AMO nicht angemessen simulieren können, dann ist es sehr offensichtlich, dass der Stillstand der globalen Temperaturen von den vierziger bis zu den siebziger Jahren eben nicht „gut verstanden“ ist, wie das UKMO behauptet.

ANMERKUNG: Die Abbildungen 2 und 3 oben zeigten Variationen der Trends. Im Folgenden zeigen die Abbildungen 4 bis 7 Variationen von Temperaturanomalien.

Das UKMO zeigt dann den falschen Datensatz für eine Diskussion multidekadischer Temperaturvariationen

Weiter zur Pazifischen Dekadischen Oszillation PDO: Das UKMO stellt zu Beginn richtig fest, dass es hinsichtlich der Wassertemperaturen im Nordpazifik multidekadische Variationen gibt. Aber dann weicht es tangential von der Linie ab, wenn es die PDO und andere abstrakte Erscheinungen hinsichtlich der Wassertemperatur des Pazifiks behandelt, als ob diese abstrakten Erscheinungen die multidekadischen Variationen der Wassertemperatur im Pazifik nördlich von 20°N oder im Pazifischen Ozean repräsentieren:

Der Pazifische Ozean zeigt auch längerfristige Variationen (Abbildung 5), die verschiedentlich als die Pazifische Dekadische Oszillation PDO bezeichnet werden (Mantua et al. (1997)) oder als Pazifische Dekadische Variabilität PDV (Deser et al. (2012)) oder als Interdekadische Pazifische Oszillation IPO (Power et al. (1999)).

Dann macht das UKMO ein ziemlich überraschendes Zugeständnis (Fettdruck von mir):

Die Charakteristika und die Mechanismen der PDO sind viel weniger gut verstanden als bei der AMO, und es gibt einige Diskussionen darüber, ob die PDO lediglich das niederfrequente Verhalten der ENSO und deren Einfluss auf atmosphärische Zirkulationen der mittleren Breiten und Oberflächen-Flüsse zeigt (Deser et al. 2012), oder ob die Dynamik der Ozeane ebenfalls eine Rolle spielt.

Hier wollen wir einen Moment innehalten. Die gegenwärtige Generation der Klimamodelle kann die AMO nicht simulieren, außerdem gibt es eine Debatte darüber, ob menschliche Aerosole in der AMO eine Rolle spielen oder nicht. Und jetzt stellt das UKMO fest, dass die multidekadischen Variationen im Nordpazifik (und dem Pazifik als Ganzem) sogar noch weniger verstanden sind! Und das UKMO möchte uns glauben machen, dass „der Erwärmungstrend während jener Periode gut verstanden ist und mit einer substantiellen Zunahme von Aerosolen in der Atmosphäre zusammenhängt“.

Das ist wirklich lächerlich. (Und ich lache nicht mit ihnen, sondern über sie). Was für eine Frechheit!

Zurück zur PDO: Das UKMO macht dann weiter mit der Besprechung des PDO-Index‘ und illustriert dies mit seiner Abbildung 4. Aber sie ignorieren (absichtlich? unwissend?) die Tatsache, dass der PDO-Index nicht die Wassertemperaturen des Nordpazifik repräsentiert – dass der PDO-Index eine abstrakte Form der Wassertemperatur des Nordpazifiks repräsentiert.

Kurze Beschreibung des PDO-Index’: El Niño- und La Niña-Ereignisse erzeugen eine spezifische räumliche Verteilung der Wassertemperatur im Nordpazifik nördlich von 20°N. Zum Beispiel sind die Wassertemperaturen während eines starken El Niño im Ostteil des Nordpazifik warm und in den westlichen und zentralen Teilen kalt. Der PDO-Index zeigt im Wesentlichen, wie eng die räumliche Verteilung im Nordpazifik und deren Intensität zur räumlichen Verteilung von El Niño und La Niña-Ereignissen passt. Der PDO-Index bezieht sich nicht auf die Wassertemperatur im Nordpazifik, 1), weil die räumliche Verteilung bei jedweder Wassertemperatur existieren könnte und 2), weil der Bodenluftdruck und damit zusammenhängende Windverhältnisse) ebenfalls die räumliche Verteilung und damit wiederum den PDO-Index beeinflussen.

Und das UKMO ignoriert die Tatsache, dass die Wassertemperaturen des Nordpazifiks multidekadische Variationen aufweisen, die vergleichbar sind mit jenen im Nordatlantik. Das kann man leicht erkennen, wenn man die Anomalien der Wassertemperatur im Nordpazifik nördlich von 20°N trendbereinigt, und zwar auf die gleiche Weise, wie es NOAA ESRL mit dem Atlantic Multidecadal Oscillation Index macht. Meine Abbildung 4 vergleicht trendbereinigte Anomalien der Wassertemperatur im Nordatlantik (0° bis 70°N, 80°W bis 0) und im Nordpazifik (0 bis 65°N, 100°E bis 90°W). In dieser Graphik wird der UKMO HADSST3-Datensatz verwendet. Beide Unter-Datensätze wurden auch mit 61-Monate-Filtern geglättet, um monatliche und jährliche Fluktuationen zu reduzieren. (Anmerkung: Normalerweise präsentiere ich die trendbereinigten Anomalien der Wassertemperatur im außertropischen Nordpazifik {20N-65N, 100E-100W} in diesen Vergleichen, weil die PDO daraus abgeleitet ist, aber in diesem Falle habe ich den gesamten Nordpazifik {0-65N, 100E-90W} betrachtet).

Es ist wirklich schwierig, die multidekadischen Variationen der Wassertemperatur im Nordpazifik zu übersehen. Sie können synchron oder asynchron mit dem Nordatlantik variieren. Aber wir wollen einmal auf die Anomalien der Wassertemperatur im Nordatlantik und Nordpazifik ohne die Trendbereinigung schauen, Abbildung 5. Die Wassertemperaturen im Nordatlantik mögen einen Spitzenwert erreicht haben, aber das Plateau ist sehr kurz. Andererseits hat sich der Nordpazifik seit dem Jahr 2003 ziemlich drastisch abgekühlt.

Von den beiden Ozeanbecken trägt der Nordpazifik am meisten zum Stillstand der Erwärmung bei, aber dem UKMO zufolge sind die Variationen der Oberflächentemperaturen dort sogar noch weniger verstanden als im Nordatlantik, die auch nicht verstanden sind. Aber Moment, da ist noch mehr.

Die Abkühlung im Nordpazifik erstreckt sich auf das gesamte pazifische Becken, aber die Abflachung der Wassertemperatur-Anomalien im Nordatlantik erstreckt sich nicht auf den gesamten Atlantischen Ozean. Man betrachte Abbildung 6, welche die Wassertemperatur-Anomalien im Pazifik von Pol zu Pol (90S-90N, 120E-80W) und im Atlantik von Pol zu Pol (90S-90N, 70W-20E) repräsentiert.

Diese beiden beckenweiten Datensätze wurden in Abbildung 7 trendbereinigt, um zu zeigen, dass die multidekadische Variabilität in beiden Fällen auf das gesamte Becken übergreift.

Auf Grundlage der Statements vom UKMO selbst verstehen sie und die klimawissenschaftliche Gemeinschaft allgemein nicht die Gründe der multidekadischen Variationen der Wassertemperatur im Atlantischen und Pazifischen Ozean. Dies zeigt, dass sie auch nicht verstehen, was die globale Erwärmung von Mitte der siebziger Jahre bis zum Jahr 2000 ausgelöst hat. Wenn sie den Stillstand nicht erklären können, dann können sie mit Sicherheit auch nicht die Erwärmung erklären.

Es ist für die Gemeinschaft der Klimawissenschaftler sehr wichtig, die natürlichen Prozesse modellieren zu können, die zur Erwärmung und zur Abkühlung der globalen Ozeane beitragen. Die Temperaturen auf dem Festland folgen den jährlichen, dekadischen und multidekadischen Variationen der Wassertemperatur mit größerer Amplitude. Dies wurde von Compo und Sardesmukh (2009) in ihrer Studie Oceanic influences on recent continental warming gezeigt. Das Abstract beginnt mit den Worten:

Beweise werden präsentiert, dass die jüngste weltweite Erwärmung auf dem Festland zum großen Teil auf eine weltweite Erwärmung der Ozeane zurückzuführen ist und nicht eine direkte Reaktion auf zunehmende Treibhausgase an Land.

Wir können auch Karten der Korrelation benutzen, um den Einfluss der Wassertemperatur in Nordatlantik und Nordpazifik auf die Festlands-Temperaturen in der Nordhemisphäre zu illustrieren. Ich habe die Berkeley Earth Surface Temperature (BEST)-Daten in Abbildung 8 verwendet, weil CRUTEM4 räumlich nicht vollständig ist, und ich habe die Reynolds OI.v2-Daten anstatt der HADSST3-Daten aus dem gleichen Grund verwendet. Die Daten erstrecken sich von 1982 (dem Beginn der auf Satellitenmessungen basierenden Reynolds OI.v2-Daten) bis 2011 (dem letzten Jahr mit vollständigen BEST-Daten). Die obere Karte zeigt die Korrelationen der Festlands-Temperaturanomalien mit denen der Wassertemperatur im Nordatlantik, und die untere Karte das Gleiche mit dem Nordpazifik. Man kann leicht erkennen, warum Forscher glauben, dass der Nordatlantik einen starken Einfluss auf die Temperaturen in der Nordhemisphäre hat. Aber man kann den Pazifik nicht ignorieren, weil er ebenfalls Auswirkungen zeitigt.

Das UKMO ist kurz auf die möglichen Gründe für multidekadische Variationen der Wassertemperatur der Kuroshio Extension eingegangen, bekannt auch unter der Bezeichnung Kuroshio-Oyashio Extension oder KOE:

Es gibt einige Beweise, dass Änderungen der Wärmetransporte in den Ozeanen in Zusammenhang mit dem Gebiet der Kuroshio Extension (einer ostwärts gerichteten Meeresströmung im Nordpazifik) und die Erzeugung interner Ozean-Zirkulationen durch oberflächennahe Winde, Rossby-Wellen genannt, beitragende Faktoren sein können (z. B. Alexander 2010).

Wir haben die Prozesse besprochen, durch die das durch starke El Niño-Ereignisse zurück gebliebene Restwarmwasser in die Kuroshio-Oyashio Extension gelangt während nachfolgender La Niñas, und dass diese einem starken El Niño folgenden Erwärmungen die Auswirkungen der nachfolgenden La Niña-Ereignisse auf die Luft- und Wassertemperaturen kompensieren. Siehe diesen Beitrag hier.

Wie schon zuvor erwähnt repräsentiert der PDO-Index nicht die Wassertemperaturen des Nordpazifiks. Wir haben dies in zahlreichen Beiträgen während der letzten Jahre behandelt; siehe hier, hier und hier. Wie in jenen Beiträgen dargestellt, ist der PDO-Index umgekehrt verbunden mit den Wassertemperaturen im Nordpazifik. Und wie in Abbildung 9 dargestellt ist der PDO-Index auch mit Variationen der Temperaturen an Land in vielen Gebieten der Nordhemisphäre anti-korreliert. Das heißt, wenn der PDO-Index steigt, kühlen sich die Temperaturen an Land in vielen Gebieten des Globus‘ ab – und umgekehrt, wenn der PDO-Index sinkt. Andererseits sind die Anomalien der Wassertemperatur der Kuroshio-Oyashio Extension ein Maß für die Wassertemperatur, und sie sind positiv korreliert mit den Temperaturen an Land in ähnlichen Gebieten der Nordhemisphäre.

Zusammenfassend zu diesem Abschnitt: die PDO ist eine abstrakte Repräsentation der Wassertemperatur im Nordpazifik und als solche der falsche Datensatz zur Verwendung in den Diskussionen zur globalen Erwärmung – oder zu dem Fehlen derselben.

Repräsentationen der dekadischen Variabilität in Klimamodellen

Danach folgt beim UKMO eine Besprechung ihrer Simulationen der Wassertemperaturen des Pazifischen Ozeans mit verschiedenen Versionen ihrer Klimamodelle, und sie zeigten ein paar Karten der Simulationen, um das Übergewicht einer La Niña-Verteilung während der modellierten, ein Jahrzehnt langen Stillstandsperioden zu belegen:

Die Bedeutung der dekadischen Variabilität im Pazifischen Ozean als Antrieb für verlängerte Perioden der Abkühlung wurde auch in Multi-Jahrhundert-Simulationen mit festgesetzten Strahlungsantrieben identifiziert. Abbildung 6 zeigt die räumliche Verteilung des Temperaturtrends, gemittelt über Perioden mit extremer Abkühlung aus einer Reihe von Klimamodellen des Met. Office Hadley Centre, einschließlich des jüngsten Modells (HadGEM2), das auch Eingang in den 5. IPCC-Zustandsbericht gefunden hat. Sie sehen alle in bemerkenswerter Weise aus wie die beobachtete Verteilung während der letzten Dekade (Abbildung 6, Graphik rechts unten) und stellen einen ziemlich robusten Beweis dar für die Bedeutung des Verständnisses der Rolle des Pazifischen Ozeans hinsichtlich der gegenwärtigen Pause der mittleren globalen Erwärmung.

„Festgesetzte Strahlungsantriebe” bedeutet, dass infrarote Strahlung durch vom Menschen emittierte Treibhausgase in den Modellen nicht zunimmt, es gibt keine vorübergehenden Abnahmen des Sonnenlichts durch vulkanische Eruptionen, es gibt keine Variationen der Strahlung von der Sonne usw. Mit anderen Worten, das ist nicht die reale Welt. Es ist irrelevant.

Ich bin immer wieder erstaunt darüber, dass Gruppen von Modellierern die Fehlschläge ihrer Modelle herausstellen. Die UKMO-Präsentation von Modellergebnissen mit „festgesetzten Strahlungsantrieben“ zeigt nachhaltig, dass die Klimamodelle vom UKMO den Stillstand nicht simulieren können, falls die Modelle mit Bedingungen der realen Welt gefüttert werden. Oder vielleicht besteht die einzige Möglichkeit für die UKMO-Klimamodelle, die Jahrzehnte lange Pause der Wassertemperatur-[Änderungen] zu simulieren darin, die Auswirkungen der Treibhausgase zu entfernen. Man denke darüber mal eine Weile nach.

Das UKMO bezieht sich dann auf eine Studie von Meehl et al. 2011 mit dem Titel „Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods“. Diese Studie basiert auf dem NCAR CCSM4 Klimamodell. Meehl et al. haben im Wesentlichen die Zukunfts-Projektionen des CCSM4-Modells hinsichtlich Jahrzehnte langer Stillstands-Perioden untersucht. Während dieser Zeiten haben die Modelle La Niña-artige Bedingungen simuliert. Aber wir wissen, dass Klimamodelle die El Niño und La Niña-Ereignisse nicht angemessen abbilden. Ich habe Guilyardi et al (2009) als Referenz für dieses Scheitern in früheren Beiträgen benutzt. Die folgende Studie ist eine jüngere Bestätigung, wie schlecht die Klimamodelle die ENSO simulieren. Die Studie: Bellenger et al. 2013: ENSO representation in climate models: from CMIP3 to CMIP5. Ein Vorabdruck findet sich hier. Der Abschnitt mit der Überschrift „Discussions and Perspectives“ beginnt mit den Worten:

Die Modellierer müssen noch viel Arbeit aufwenden, um die ENSO korrekt zu repräsentieren, seine grundlegenden Charakteristika (Amplitude, Entwicklung, Zeiträume, jahreszeitliche Abläufe…) und fundamentale Prozesse wie die Bjerkness-Rückkopplungen und andere.

Außerdem zeigen und diskutieren wir in diesem Beitrag, wie das NCAR CCSM4-Klimamodell nicht in der Lage war, die beobachtete Erwärmung im Pazifischen Ozean während der letzten 31 Jahre zu simulieren. Siehe Abbildung 10, in der modellierte und beobachtete Trends der Wassertemperatur im Pazifischen Ozean seit November 1981 dargestellt sind, und zwar auf einer breitenabhängigen Basis (zonale Mittel). Die Tatsache, dass jene Modelle gelegentlich Jahre lange Stillstandsperioden simulieren können, ist daher unerheblich.

Änderungen im Wärmehaushalt der Ozeane

In ihrer Besprechung der Abbildung 1 schreibt das UKMO (Fettdruck von mir):

Außerdem hat der ozeanische Wärmegehalt in den oberen Schichten noch ein paar Jahre nach 1998 weiter zugenommen (Abbildung 1). Nichtsdestotrotz ist aber klar, dass die Erwärmungsrate sowohl an der Oberfläche als auch in den oberen Ozeanschichten in jüngster Zeit abgenommen hat (Abbildung 1, untere Darstellung). Und dies trotz eines fortgesetzten Anstiegs der atmosphärischen Kohlendioxid-Konzentrationen, die innerhalb des Systems Erde als Fallen für Strahlung agieren.

Die Daten (vielleicht eine Reanalyse?) für den oberen Ozean in ihrer Abbildung 1 gelten für die oberen 800 m. Das UKMO fährt dann fort, über die Daten des ozeanischen Wärmegehaltes zu sprechen unter der Überschrift „2.3 What do we know about changes in the ocean heat budget?” Sie schreiben (Fettdruck von mir):

Falls die Ozeane wirklich Wärme unter ihrer Oberfläche verborgen hätten, muss man sich fragen, ob Änderungen des Wärmegehaltes vor allem im tieferen Ozean überhaupt entdeckt werden können. Es gab bedeutende Fortschritte hinsichtlich der Abschätzung des ozeanischen Wärmespeichers während des vergangenen Jahrzehnts, und zwar wegen der Korrektur von Verzerrungen bei konventionellen Erkundungen und der Entwicklung der ARGO-Bojen.

Das ist ein gewaltiges FALLS, mit dem dieser Absatz beginnt, vor allem wenn sie einräumen, dass die Daten modifiziert werden müssen, und zwar natürlich auf eine Art und Weise, dass die Daten eine Erwärmung zeigen. Sie fahren fort (Fettdruck von mir):

Die ARGO-Messungen zeigen eine rapide Zunahme des Wärmegehaltes bis zu einer Tiefe von 700 m, und zwar von 1999 bis 2004 (Guemas et al. 2013). Das zeigt auch Abbildung 1, aber die Rate der Zunahme ist danach geringer. Diese Periode fällt jedoch zeitlich zusammen mit substantiellen Änderungen im Beobachtungssystem infolge der raschen Einführung der ARGO-Bojen. Obwohl ARGO-Bojen zunehmend robuste globale Messungen der oberen Ozeanschichten zur Verfügung stellen, müssen Schlussfolgerungen aus Perioden mit großen Änderungen in einem Beobachtungssystem mit großer Vorsicht behandelt werden.

Man sollte dem UKMO gratulieren für die Anmerkung, dass „…Schlussfolgerungen aus Perioden mit großen Änderungen in einem Beobachtungssystem mit großer Vorsicht behandelt werden müssen“. Aber dabei war es um den oberen Ozean gegangen. Weiter heißt es dort (Fettdruck von mir):

Messungen des Wärmegehaltes in tieferen Ozeanschichten sind viel weiter gestreut und daher weniger gewiss. Mittels einer Kombination von Satelliten- und Ozeanmessungen bis zu einer Tiefe von 1800 m schätzen Loeb et al. 2012, dass das System Erde von 2001 bis 2010 Energie mit einer Rate von 0,5±0,4W/m² akkumuliert hat, ähnlich den 0,4 W/m² von 2005 bis 2010 bis zu einer Tiefe von 1500 m durch ARGO-Bojen allein (von Schuckman und Le Traon 2011). Reanalysen3 der Ozeandaten zeigen im Zeitraum von 2000 bis 2010 eine mittlere Erwärmungsrate um 0,9 W/m² gemittelt über den Globus, wobei 30% der Zunahme unter 700 m stattfand (Balmaseda et al. 2013). Wir folgern daraus, dass das System Erde weiterhin eine substantielle Menge an Wärme während der letzten 15 Jahre angesammelt hat, trotz des Stillstands der Erwärmung.

Die Fehler bei Balmaseda et al. 2013 haben wir bereits in zahlreichen Beiträgen während der letzten Monate angesprochen. Siehe hier, hier, hier, hier und zuletzt hier unter der Überschrift Balmaseda et al. 2013.

Fußnote 3 beim UKMO lautet:

Ozeananalysen verwenden ein globales Ozeanmodell angetrieben durch historische Schätzungen der Winde, Wärme und Frischwasser-Flüsse, um historische Beobachtungen des Ozeans zu synthetisieren mit einer ganzen Reihe von Methoden wie Datenassimilationen, um historische Änderungen des Zustands der Ozeane zu rekonstruieren.

Und die von Balmaseda et al. 2013 verwendete Reanalyse war das ORAS4 durch das Europäische Zentrum für Mittelfristige Wettervorhersage ECMWF. Auf der Website des ECMWF gibt es zu ORAS4 mehr Informationen. Es enthält die folgende Gegenerklärung (Fettdruck von mir):

Es gibt große Unsicherheiten in den Produkten ozeanischer Reanalysen (vor allem bei den Transporten), die schwierig zu quantifizieren sind. Zielgruppe dieser Websites ist die Forschungsgemeinschaft. Jedes außergewöhnliche Klimaereignis sollte weiter gehend untersucht (sic) und nicht als Wahrheit angesehen werden.

Diese einfache Tatsache findet in der UKMO-Studie keinerlei Beachtung, als ob Balmaseda et al. 2013 lediglich ein Evangelium verkünden.

Oben habe ich dem UKMO zum Einräumen von Problemen gratuliert, die bei großen Änderungen des Beobachtungssystems auftreten, als der ozeanische Wärmegehalt für die oberen Schichten der Ozeane besprochen worden ist. Jetzt scheint es so, als hätten sie das vergessen, wenn sie die Daten bis zu einer Tiefe von 2000 Metern übernehmen. In diesem Beitrag haben wir vor Kurzem gezeigt, wie die Temperaturen unterhalb der Oberfläche in Tiefen zwischen 700 und 2000 Metern kaum einen langzeitlichen Trend von 1955 bis 2002 zeigen. Siehe Abbildung 11. Dann, kaum waren die ARGO-Bojen installiert, sind die Temperaturen dort in die Höhe geschossen. Man erinnere sich auch daran, dass die ARGO-Daten adjustiert werden mussten, um Erwärmung zu zeigen.

Die Änderung im Beobachtungssystem scheint einen sehr starken Einfluss auf die Messungen der Temperaturen in Tiefen zwischen 700 und 2000 m gehabt zu haben, aber es scheint, dass das UKMO diesen Einfluss übersehen will, weil die Daten ihre Mutmaßungen stützen.

Dann stellt das UKMO das Ungleichgewicht von Strahlung zur Diskussion:

Der Meeresspiegel kann ebenfalls benutzt werden, um den ozeanischen Wärmegehalt zu belegen. Wie früher schon besprochen erfordert der Stillstand der mittleren globalen Erwärmung entweder eine Reduktion des Energie-Inputs auf den Planeten um etwa 0,6 W/m² oder die Speicherung dieser Energiemenge innerhalb des Ozeans. Falls eine zusätzliche Erwärmung von 0,6 W/m² tatsächlich im Ozean gespeichert wird, würde dies thermosterisch (thermische Ausdehnung) den Meeresspiegel um 1,2 mm/Jahr steigen lassen unter der Voraussetzung, dass sich die gesamte Wärmemenge in den oberen 700 m sammelt. Diese Zahl wäre kleiner, falls ein Teil dieser Wärme in Tiefen unter 700 m herunter gemischt wird, wo der Ausdehnungskoeffizient kleiner ist.

Das vermutete Strahlungs-Ungleichgewicht an der Oberfläche war jüngst auch Gegenstand einer Studie von Stephens et al. 2013 mit dem Titel An update on Earth’s energy balance in light of the latest global observations. Siehe ihre Abbildung 1. Sie illustrieren ein Ungleichgewicht von 0,6 W/m² an der Oberfläche mit einer geschätzten Fehlerbreite von ± 17 W/m². Hier wird klar, warum das UKMO diese Unsicherheit nicht angesprochen hat.

Das UKMO kommt dann zu einer erstaunlichen Schlussfolgerung aus diesem Abschnitt. Mit unglaublicher Selbstsicherheit stellen sie fest:

Zusammengefasst zeigen Beobachtungen des ozeanischen Wärmegehaltes und des Anstiegs des Meeresspiegels, dass die Erde weiterhin Wärmenergie während der letzten 15 Jahre absorbiert hat und dass diese zusätzliche Wärme in den Ozeanen absorbiert worden ist.

Sie haben jedoch nichts präsentiert, was ihre Sicherheit stützen würde.

UKMO hält den Mythos am Leben

Alles in allem pflegt das UKMO weiter den Mythos, dass nur ein vermutetes Energie-Ungleichgewicht, verursacht durch anthropogene Treibhausgase, die Erwärmung der globalen Ozeane erklären kann, während die Daten aufgeteilt in logische Untergruppen darauf hindeuten, dass menschliche Treibhausgase keine sichtlichen Auswirkungen auf die Erwärmung der globalen Ozeane  hatten. Wenn das für Sie neu ist, schauen Sie hier: „The Manmade Global Warming Challenge” (42MB).

Schlussbemerkungen

Allgemein gesagt hat das UKMO zahlreiche Datensätze gezeigt in dem Bemühen zu belegen, dass die globale Erwärmung theoretisch weitergeht, selbst wenn sich die Temperaturen nicht mehr erwärmen. Kümmert sich die allgemeine Öffentlichkeit um die Temperatur in den globalen Ozeanen unter 2000 m? Nein. Kümmert sie sich um Strahlungs-Ungleichgewichte? Nein. Die Leute kümmern sich um die Temperaturen und den Niederschlag in ihren Wohngebieten. Und wenn diese Leute an den Küsten leben, kümmern sie sich um den Meeresspiegel. Und der ist vielleicht die größte Sorge. Aber der Meeresspiegel wird weiterhin steigen, egal was wir hinsichtlich von Treibhausgasen unternehmen. Spricht das UKMO dies an? Nein. Dann haben sie die Leute um die Steuergelder betrogen, die sie zur Durchführung dieser Forschungen erhalten haben.

Im letzten Absatz im 2. Teil des UKMO-Berichtes zum Stillstand der Erwärmung heißt es (Fettdruck von mir):

Die wissenschaftlichen Frage, die durch den gegenwärtigen Stillstand der globalen Erwärmung aufgeworfen werden, verlangen von uns, die Energieflüsse zur Erde und von der Erde weg sowie um die Erde herum viel besser zu verstehen. Gegenwärtige Beobachtungen sind nicht detailliert oder lang genug, um definitive Antworten hinsichtlich der Gründe des jüngsten Stillstands zu liefern. Darum können wir den Energiehaushalt der Erde nicht schließen. Es gibt wesentliche wissenschaftliche Herausforderungen, die die Forschungsgemeinschaft derzeit verfolgt. Dabei wird mittels einer Kombination von Theorie, Modellen und Beobachtungen erkundet und experimentiert.

Mit anderen Worten, auf der Basis der begrenzt verfügbaren Daten versteht das UKMO nicht den Grund (oder die Gründe) für den Stillstand der globalen Erwärmung, und das zeigt sehr deutlich, dass sie den Grund der Erwärmung von Mitte der siebziger Jahre bis zum Jahr 2000 nicht verstehen – während einer Zeit also, als die Datenlage noch unsicherer war.

Link: http://wattsupwiththat.com/2013/07/30/part-2-comments-on-the-ukmo-report-the-recent-pause-in-global-warming/

Übersetzt von Chris Frey EIKE




Alarmismus wider die Natur! Interview in der „Welt der Fertigung“ mit Klaus Eckart Puls

Sehr geehrter Herr Puls, das Wort ›EIKE ‹ haben schon viele Leute einmal gehört, wissen jedoch nicht, wer oder was sich dahinter verbirgt. Bitte erläutern Sie kurz, was EIKE ist, wann und warum es gegründet wurde und welche Ziele es hat.

Puls:  EIKE steht für „Europäisches Institut für Klima & Energie e.V.“. EIKE wurde 2007 gegründet, von beruflich und ideologisch unabhängigen Naturwissenschaftlern und Ingenieuren. Im wissenschaftlichen Fachbeirat von EIKE sind zahlreiche renommierte Hochschullehrer. Die Eintragung als gemeinnütziger Verein ist beim Amtsgericht Jena erfolgt. EIKE finanziert sich aus freiwilligen Beiträgen seiner Mitglieder sowie Spenden. Der Beweggrund war, ein Institut zu schaffen, das sich der kritischen Auseinandersetzung mit einer insbesondere in Deutschland und der EU stark ausgeprägten Ideologisierung der Klima- und Energie-Wissenschaften widmet. Instrumente sind jährliche Kongresse, wissenschaftliche Arbeiten und deren Publikation sowie eine WEB-Seite (http://www.eike-klima-energie.eu/). Dazu steht als Leitsatz auf der EIKE-homepage: „Nicht das Klima ist bedroht, sondern unsere Freiheit! Umweltschutz: Ja! Klimaschutz: Nein.“

Sie haben also erkannt, dass das Klima von interessierter Seite als Instrument entdeckt wurde, um neue Steuern und Abgaben zu begründen. Warum muss da erst ein privat finanziertes Institut, wie es EIKE ist, kommen, um Wahrheiten auszusprechen?

Puls:  Die anthropogene Emission von Treibhausgasen ist nicht völlig ohne Klima-Wirkung. Diese Wirkung ist jedoch aufgrund der physikalischen Gesetze außerordentlich gering, und  beträgt bei CO2-Verdoppelung gegenüber heute nur etwa ½ Grad. Frühzeitig – etwa ab Mitte der 1980ger Jahre – hat sich die Politik einer Pseudo-Wissenschaft namens „Klima-Schutz“ bemächtigt. Die politischen Beweggründe sind einerseits Ideologische "Weltrettungs-Philosophien“, andererseits handfeste fiskalische Interessen über vielfältige Öko-Steuern.

Haben Wissenschaftler in öffentlich finanzierten Instituten keinen Mut, um die offizielle Klimadoktrin als Schwindel zu entlarven?

Puls:  Seit etwa 30 Jahren gibt es einen – mittlerweile dramatisch zunehmenden – Trend bei immer mehr Instituten und Institutionen, wie zum Beispiel auch den NGO’s, über eine ständig weiter angefachte "Klima-Hysterie“ Forschungs- und Förder-Mittel aus Steuergeldern zu erhalten – mittlerweile in Milliardenhöhe. Es hat sich ein Geflecht aus ideologischen "grünen“ Organisationen, fiskalisch abhängigen Wissenschafts-Instituten und leider zum Teil auch ideologisierten Wissenschaftlern gebildet.  Diese alle profitieren davon, sichern damit ihre Existenz und ihre Daseinsberechtigung. Viele Forschungs-Ergebnisse sind die Folge einer gewissen "Auftrags-Forschung“ : "wes’ Brot ich eß, des’ Lied ich sing“, sagt der Volksmund. So ist zum Beispiel der "Weltklimarat“ IPCC eine politisch gegründete Organisation, wie der Name ja schon sagt: Intergovernmental Panel on Climate Change.

Wie lässt es sich erklären, dass selbst Organisationen die den Arbeitgebern nahestehen, die offizielle Klimaaussage ohne kritische Prüfung übernehmen? Schließlich müssen Unternehmen teure CO2-Zertifikate kaufen, wenn sie in Europa produzieren möchten, was zum einen hier erzeugte Produkte unnötig verteuert und zudem Arbeitsplätze gefährdet, da sich eine CO2-lastige Produktion sehr schnell nicht mehr rechnet.

Puls:  Industrie und Wirtschaft sind m.E. gespalten: Einerseits gibt es Industrie- und Wirtschafts-Zweige, die "auf den Klima-Zug aufgesprungen sind“, weil sie auf diesem Wege bequem an Subventionen und Steuergelder kommen. Andererseits gibt es Verlierer, zu denen m.E. insbesondere energie-intensive Firmen und somit ínsbesondere auch der handwerkliche Mittelstand gehören. Ich bin Naturwissenschaftler, und kein Wirtschafts-Fachmann; jedoch: Ich wundere mich über den geringen Widerstand aus letzteren Bereichen.

Sechs europäische Fluggesellschaften haben sich mit dem Luftfahrtkonzern Airbus zusammengeschlossen, um gegen die unsinnige EU-Emissionsabgabe vorzugehen, die ihr Geschäftsfeld bedroht. Die chinesische Regierung hat gar mit der Stornierung von Milliardenaufträgen gedroht, wenn chinesische Airlines CO2-Rechte kaufen müssen, um europäische Ziele anfliegen zu können. Eine Götterdämmerung?

Puls:  Es wird kein internationales Klima-Abkommen geben. Dabei wird stets unterstellt, daß die außer-europäischen Industrie-Staaten nur deshalb nicht mit machen, weil sie ihre Wirtschaft nicht schwächen wollen. Das spielt eine Rolle. Ein darüber hinaus gehender Aspekt ist jedoch, daß in den großen Wissenschafts-Nationen wie USA, China, Japan, Indien, Russland, Kanada auch Wissenschaftler mit einer klima-realistischen skeptischen Meinung Zugang als Regierungs-Berater haben.

Seriöse Wissenschaftler haben schon längst festgestellt, dass CO2 kein klimaschädliches Gas ist. CO2 macht nur 0,4 Promille aller Gase in der Luft aus. Zudem liegt die Klimasensivität des CO2 unter einem Grad Celsius. Würde man in utopischer Weise sämtliche fossilen Brennstoffe der Erde verfeuern, wäre kein Temperaturanstieg über 1 Grad Celsius zu verzeichnen. Was ist also der Grund für die unglaubliche Panikmache in Sachen CO2?

Puls:  Die Fakten haben Sie in Ihrer Frage schon treffend dargelegt. Schon diese Tatsachen sind in der Öffentlichkeit kaum bekannt. Nun propagieren einige Klima-Institute und das IPCC eine Erderwärmung von 2…5…8  Grad für eine CO2-Verdoppelung. Was jedoch in der Öffentlichkeit nahezu unbekannt ist: Das kann CO2 aus physikalischen Gründen gar nicht leisten, was genau so auch in den Berichten des Weltklima-Rates zu lesen ist. Dort steht, dass CO2-Verdoppelung nur ein Grad Erwärmung ermöglicht. Darüber Hinausgehendes wird mit Rückkopplungs-Effekten berechnet. Der IPCC-Bericht spricht von "angenommenen Werten". Es handelt sich folglich um Hypothesen!

Nachdem von Hackern E-Mails des IPCC veröffentlicht wurden, kann davon ausgegangen werden, dass diese Organisation ihre Statistikdaten manipuliert hat, um die offizielle Aussage zum Klimawandel zu untermauern. Haben wir es hier mit mafiösen Netzwerken zu tun, die sich des Stichwortes "Klimawandel" bemächtigt haben, um sich zu bereichern?

Puls:  Mir persönlich geht „mafiös“ etwas zu weit;  das von Ihnen angesprochene unwissenschaftliche Verhalten ist möglicherweise viel naheliegender und vielleicht sogar "menschlicher“ zu erklären: Es handelt sich m.E. um eine Interessen-Gemeinschaft. Die finanziellen Abhängigkeits- und Profit-Aspekte haben wir schon angesprochen. Darüber hinaus müssen wir sehen: Viele dieser etablierten Klima-Forscher haben sich schon vor Jahren festgelegt, und fürchten nicht nur um ihre Pfründe, sondern auch um ihre Reputation, ihren "guten Ruf“ als Wissenschaftler, wenn sich nun heraus stellt, daß sie sich geirrt haben. Dazu schreibt zum Beispiel die Züricher Weltwoche: "Hoffen auf die Apokalypse: Sicher ist, daß diejenigen Kräfte, die politisch mit dem Klimawandel agieren, ihre apokalyptischen Szenarien mit Zähnen und Klauen verteidigen werden … Sie haben sich in eine Zwangssituation hineinmanövriert: Die Warnungen vor dem Klimawandel sind jetzt ein politisches Erfolgsrezept … Sollte der Klimawandel als Bedrohung wegfallen, fiele das politische Konzept von Links-Grün in sich zusammen wie ein Kartenhaus … Insofern ist der Streit um die Wahrheit beim Klimawandel die Mutter aller Ökoschlachten. Die Klimaschützer kämpfen nicht nur gegen die Erderwärmung, sondern auch um ihre politische Existenz.“

Nachdem nun in großen Stil Windparks entstehen, ist nun selbst der NABU auf den Geschmack gekommen und erpresst Windkraftbetreiber mit Verweis auf bestimmte Vögel, die auf der Jagd nach Beute durch die Windräder gefährdet sind. Um einer drohenden Stilllegung zu entgehen, zahlen die Betreiber sechsstellige Summen, die dann angeblich dem Schutz der bedrohten Vogelart dienen. Regelt mittlerweile das Faustrecht den Energiemarkt?

Puls:  Der NABU wie auch andere NGO’s haben ihre grüne und ursprünglich in vielen guten Ansätzen auf wirklichen Naturschutz abzielende Agenda längst verlassen, und sich zu den Profiteuren der von ihnen mit angeheizten Klima-Hysterie gesellt. Das zeigte zum Beispiel in 2012 der Austritt des Mitbegründers des Bundes für Umwelt und Naturschutz Deutschland, Freiherr Enoch zu Guttenberg, aus dem BUND. In seinem Schreiben an den BUND-Vorsitzenden Prof. Hubert Weiger begründete er seinen Schritt mit der aktiven Duldung und Unterstützung des BUND zur weitgehenden Zerstörung der deutschen Landschaftsschutzgebiete und Naturparks durch riesige Windkraft- und auch Photovoltaik-Anlagen.

Wie EIKE auf seiner Homepage darlegt, sind die Temperaturen in den letzten Jahren nicht mehr gestiegen. Woher kommen die Daten ?

Puls:  Die IPCC-nahen Institute ermitteln aus den Daten der welt-weiten Wetterdienste eine so genannte Global-Temperatur. Diese zeigt auch im 20. Jahrhundert ein ständiges Auf+Ab, wie schon in früheren Jahrhunderten. In den Jahren 1975-1998 hat es einen Temperatur-Anstieg von etwa ½ Grad gegeben, seit 1998 zeigt die Temperatur wieder einen leichten Rückgang, allenfalls kann man von einem Temperatur-Plateau sprechen. In den englisch-sprachigen Medien wird das schon seit einigen Jahren offen ausgesprochen, z.B.: „Global warming nonsense gets a true cold shoulder“ schreibt The Daily Telegraph. Nun hat die skeptische Debatte auch die Medien in Deutschland erreicht, z.B. schreibt DER SPIEGEL: "…. Doch längst hat sich herumgesprochen, dass sich das Klima zuletzt anders entwickelt hat als vorhergesagt: Seit 15 Jahren stockt die Erwärmung, der Aufwärtstrend der globalen Durchschnittstemperatur hat sich seit 1998 nicht fortgesetzt." Die nunmehr seit 15 Jahren andauernde Phase des Erwärmungs-Stops liegt außerhalb des "Rauschens“ von Klima und  Klimamodellen, sie ist statistisch signifikant. Damit wird zugleich die immer wieder propagierte Korrelation mit dem anhaltenden CO2-Anstieg und damit letztlich ein maßgeblicher Anteil durch den Menschen an der säkularen Erwärmung des 20. Jahrhunderts in Frage gestellt.

Dies würde klar bedeuten, dass dann nicht der Mensch, sondern andere Kräfte am Werk sind, die für das Klima relevant sind. Welche sind das?

Puls:  Das Klima-System der Erde besteht aus Atmosphäre, Hydrosphäre (Ozeane), Kryosphäre (Eis), Biosphäre und Lithosphäre (Gesteine). Bei den Umsetzungen von Energie und Gas im Klimasystem gibt es stets eine Fülle von physikalischen und chemischen Prozessen und Rückkopplungen, die im Detail unüberschaubar und allenfalls in Ansätzen verstanden sind. Genau  d a s  ist das Problem der Klima-Modelle, die sich folglich mit einer Vielzahl von Annahmen, Näherungs-Lösungen (Aproximationen), Parametrisierungen etc. behelfen müssen. Schon aus diesem Grunde ist es naturwissenschaftlich schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben ‚ein schön angenehmes stabiles Klima’ festhalten zu wollen. So ist auch das propagierte "2-Grad-Ziel“ ist ein politisches Ziel. Dazu schreibt der SPIGEL: "Gipfel in L’Aquila (2009) : … Die Staats- und Regierungschefs der acht größten Wirtschaftsmächte haben sich darauf verständigt, dass die Erderwärmung auf zwei Grad Celsius begrenzt werden soll.“ Fällt es eigentlich niemandem auf? Politiker beschließen, was das Klima zu tun hat! Dazu sagt der Mathematiker und Klimaforscher Prof. Hans von Storch in DIE ZEIT: “Zwei Grad ist eine politische, eine sinnlose Zahl. Ich halte das für Verarschung“.

Selbst der 93 Jahre alte „Vater“ der Klimawandel-Theorie, der britische Biophysiker James Lovelock, gibt heute zu, dass er sich geirrt hat. Er hat zusammen mit der amerikanischen Mikrobiologin Lynn Margulis im Jahre 1979 die Gaia-Theorie aufgestellt, nach der die Erde wie ein Lebewesen funktioniert, das sich durch Selbstorganisation im Gleichgewicht hält. Er stellt die Frage, wie man eine Eiszeit als Normalzustand und Warmzeiten als krankhafte Entgleisung deuten kann. Hochkulturen sind schließlich nur in Warmzeiten möglich. Wie erklärt es sich, dass alle Welt den unglaublichen Irrtum blind hin nimmt?

Puls:  Das kann ich nicht beantworten, denn – damit beschäftigen sich mittlerweile die Psychologen und Soziologen: Wissenschaftsdebatten um die Klimakatastrophe, erklärte Prof. Dr. Norbert Bolz, seien nichts anderes als ’civil religion’, als der aus den Kirchen ausgezogene Glaube der Massengesellschaft. In ihr walte moderner Priesterbetrug. Sie erlaube gute Geschäfte für politische Ablaßverkäufer, wie die Fundraiser von Greenpeace und fülle nicht zuletzt den Opferstock Al Gores. Soviel allerdings ist gewiß: Stets sind es die Kaltzeiten gewesen, welche die Menschheit in Bedrängnis gebracht haben; mit Missernten, Hungersnöte, Energie-Knappheit, Anstieg der Sterberate, Völker-Wanderungen et cetera !  Auch unter diesem Aspekt ist die CO2-Verteufelung in einer derzeitigen mäßigen Warmzeit – unabhängig von der Ursache  – nahezu hirnrissig.

In der Öffentlichkeit wird der Meeres-Spiegel-Anstieg als dramatisch und beängstigend dargestellt. Was hat es damit auf sich ?

Puls:  Der Meeres-Spiegel steigt global seit mehr als Zehntausend Jahren, seit der letzten Eiszeit. Dabei ist eine ständige Verlangsamung zu beobachten, die bis heute andauert.Wenn sich dieser Trend fortsetzt – was wegen der zahlreichen Einfluß-Faktoren niemand weiß –  dann haben wir in 100 Jahren einen Anstieg von ca. 25 cm, was keinerlei Problem darstellt. Das  haben auch die deutschen Behörden erkannt; so sagt z.B. die Landesregierung Niedersachsen: "Klimawandel nicht bemerkbar: Für einen steigenden Meeresspiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen."  Das BSH Hamburg zu Stürmen und Sturmfluten: "Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren. Ein generell steigender Trend bei der Häufigkeit und Intensität von Sturmfluten als Vorbote des globalen Klimawandels ist gegenwärtig nicht erkennbar."

In jüngerer Zeit hören wir immer wieder von einer dramatischen Eisschmelze in der Arktis. Wie ist das zu beurteilen ?

Puls:  In der Klima-Geschichte hat es stets Eis-Schwankungen bei den Polen und den Gletschern gegeben, weit über das heutige Ausmaß hinaus. Schon aus der jüngeren Klima-Geschichte der letzten 150 Jahre wissen wir, daß es auch in der Arktis zyklische und sogar periodische Schwingungen von ca. 60 Jahren gibt, offenbar im Zusammenhang mit natürlichen Schwingungen von Meeres-Strömen (PDO). Was jedoch von den IPCC-Klima-Instituten und den Medien kaum erwähnt wird: Die Antarktis legt an Fläche und Masse ständig zu, und hat nach Aussage des Alfred-Wegener-Instituts derzeit die größte Eisausdehnung seit 40 Jahren! Also: Die Arktis schmilzt, die Antarktis legt zu  –  eine Katastrophe ist weder das Eine noch das Andere.

Die extreme Kälte in den letzten Wintern wird nun auch mit der angeblichen Klimaerwärmung in Verbindung gebracht. Eine weitere Irreführung?

Puls:  Meteorologisch ist das schier absurd. Wir wissen seit mehr als 100 Jahren, daß die atmosphärische Zirkulation unvorhersagbare zyklische Schwankungen aufweist. Einfach ausgedrückt: Der Luftdruckgradient zwischen den Azoren und Island verändert sich über die Jahre chaotisch, was in Europa immer wieder zu einer Reihe milder bzw. kalter Winter führt. Mit einer polaren Eisschmelze hat das nichts zu tun, mit einem Klimawandel oder gar CO2 schon gar nicht. "Es wird kälter, weil es wärmer wird“ !? Wieso fallen den Klima-Katastrophikern eigentlich solcherart Erklärungen immer erst hinterher ein, wo sie doch angeblich Klima+Wetter für 100 Jahre im voraus prognostizieren können !?

Große CO2-Umwandlungsgebiete, wie etwa die Urwälder in Brasilien, werden mit einem unglaublichen Tempo abgeholzt werden. Gibt es eine Statistik, aus der man ablesen könnte, dass das Verschwinden dieser Wälder mit dem Anstieg von CO2 zusammenfällt?

Puls:  Für mich gibt es keinen Zweifel, daß ein wesentlicher Teil des atmosphärischen CO2- Anstiegs seit Beginn der Industrialisierung anthropogen verursacht ist. Allerdings – die zahlreichen chemischen und physikalischen Umsetzungen von CO2 in der Natur sind bis heute unüberschaubar. Einfach gesagt: Die Details des natürlichen CO2-Haushaltes in der Natur sind ungeklärt.

Wäre es nicht sinnvoll, den Ländern dieser Urwälder einen finanziellen Ausgleich zukommen zu lassen, wenn dadurch die Urwälder nicht weiter abgeholzt werden?

Puls:  Nicht alles in der Welt kann man mit Geld regeln, was ja meist auch mit neuen Schulden verbunden ist. Nein  –  man muß m.E. andere Wege gehen, zum Beispiel den genannten Ländern den Anreiz nehmen, Wälder abzuholzen, um anschließend Bio-Sprit zu produzieren –  nur damit die Menschen in Europa "billig und  CO2-weltrettend“ Auto fahren können.

Ist es richtig, dass ein höherer CO2-Gehalt in der Luft den Pflanzen eher zugutekommt? Schließlich haben in Zeiten großer CO2-Konzentrationen besonders große Pflanzen die Erde bedeckt, wie Versteinerungen zeigen.

Puls:  CO2 ist  über die Photosynthese  d a s   Lebens-Elixier schlechthin: Ohne CO2 kein Getreide,  kein Grünland, keine Tiere und auch keine Menschen, denn die Photosynthese erzeugt auch den Sauerstoff in der Luft zum Atmen.  Die Verteufelung von CO2 als Gift, Schadstoff, Klima-Killer …. ist hahnebüchener Unfug, naturwissenschaftlich absurd! Hinzu kommt: Das Optimum für Pflanzen-Wachstum und Ernte-Erträge liegt bei dem Dreifachen der heutigen CO2-Konzentration. Unter dem Gesichtspunkt des Welternährung und einer Milliarde hungernder Menschen müssten wir folglich die „CO2-Produktion“ intensivieren

Welchen Einfluss haben Vulkane auf den CO2-Gehalt der Luft? Ist es richtig, dass die weltweit aktiven Vulkane wesentlich mehr CO2 in die Luft pusten, als der Mensch mit seinen Aktivitäten?

Puls:  Auch Vulkanismus bringt CO2 in die Atmosphäre, die Bilanzen sind unklar. Die wesentliche Klima-Wirkung der Vulkane liegt jedoch bei den gewaltigen Mengen an Schwebstoffen (Aerosolen), die in die höhere Atmosphäre geblasen werden, und die wirken auf Wetter+Klima über den Strahlungs-Haushalt abkühlend!

Wie steht es mit dem Einfluss der Sonne? Welche Rolle spielt unser Lebensspender für das Klima auf der Erde? Ist hier nicht die eigentliche Ursache für unterschiedliche Klimaperioden zu suchen?

Puls:  Ja, vieles spricht dafür. In der Klima-Debatte gewinnen seit einigen Jahren die Solar-Forscher mehr und mehr die Oberhand, und verdrängen die mono-kausale CO2-Debatte. Die neuere Literatur dazu ist sehr umfangreich. Genannt sei hier exemplarisch das Buch "Die Kalte Sonne“, das zu nahezu hysterischen Abwehr-Reaktionen bei den CO2-Klima-Alarmisten geführt hat. Die zunehmende Plausibilität der Klima-Steuerung durch die Sonnen-Variationen erschüttert die auf CO2 fixierten etablierten Klima-Institute.

Wie wird sich das Klima ihrer Meinung nach weiterentwickeln? Es gibt nicht wenige Stimmen, die eine neue Abkühlung vorhersagen.

Puls:  Damit sind wir wieder bei der aktuellen Solar-Forschung: Seit einigen Jahren deutet die aktuelle Entwicklung der Sonnen-Aktivität auf ein bevorstehendes, alle 200 Jahre eintretendes Minimum hin. Die letzten Ereignisse dieser Art liegen 200 bzw. 400 Jahre zurück. In diesen Jahrhunderten gab es die „Kleine Eiszeit“.  Unabhängig davon, ob es erneut so kommt: Wir sollten die derzeitige mäßige Warmzeit genießen, anstatt sie als "CO2-Katastrophe“ zu verteufeln.

Kann man das Klima schützen ?

Puls:  Wie anmaßend muß man eigentlich sein, um zu behaupten, man könne das hoch komplizierte und unüberschaubare Klima-System "schützen“. Dazu sagt der Klima-Forscher und AWI-Vizedirektor Prof. Heinrich Miller: “Wer von Klimaschutz redet, weckt Illusionen …  Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert." Schlagworte wie Klimakollaps oder -katastrophe hält er für irreführend. "Das Klima kann nicht kollabieren, Natur kennt keine Katastrophen.“

Was also hat Klima-Schutz mit Umwelt-Schutz zu tun ?

Puls:  Gar Nichts !  Mit dieser These werden die Menschen gefügig gemacht, unsinnige Klima- und CO2-Steuern zu zahlen, weil man ihnen suggeriert, sie würden damit auch Umwelt-Schutz betreiben und finanzieren. Der ehemalige Direktor des Meteorologischen Instituts Berlin, Prof. Horst Malberg, bringst es auf den Punkt : "Saubere Luft zu atmen, sauberes Wasser zu trinken, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu.“

Menschen, die sich nicht von der Klimahysterie anstecken lassen und nüchtern ihre Sichtweise mit Fakten untermauert darlegen, ausgegrenzt und angefeindet werden. In Diktaturen werden Menschen weggesperrt die gegen die offizielle Meinung Einspruch einlegten. Besteht die Gefahr, dass sich in Deutschland unter grüner Ideologie die schlimme deutsche Geschichte wiederholt?

Puls:  Dafür gibt es leider Anzeichen. Hinzu kommt:  Auf eine irrationale Klima-Debatte wird eine ideologisierte und für die Bürger extrem teuere Energie-Debatte drauf gesattelt. Beide Debatten werden m.E. nicht rational, nicht naturwissenschaftlich und nicht betriebswirtschaftlich geführt, sondern sind ideologisch und kommerziell geprägt. Es hat sich eine Interessen-Gemeinschaft von Profiteuren vernetzt: Die Politiker „…wir retten die Welt für Euch und Euere Kinder“ gehen damit auf Wähler-Fang, etliche Institute und Firmen scheffeln Steuer-Gelder, und die Medien verfahren nach dem uralten Verkaufs-Rezept „only bad News are good News“ !

Herr Puls, vielen Dank für das Interview

Das Interview erschien zuerst in der Ausgabe 3/2013 der Fachzeitschrift: Welt der Fertigung    siehe Anlage                    

Related Files




Zustimmung des VDI zur Energiewende gefährdet zehntausende von Arbeitsplätzen von VDI MItgliedern

Der nachfolgende Briefwechsel, der auf einem Interview des Vorsitzenden der VDI-Gesellschaft für Energie und Umwelt, Prof. Dr.-Ing. H.-J. Wagner (hier), beruht, verdeutlicht die Misere unter den deutschen Ingenieuren. Wenn schon innerhalb des VDI grundsätzliche Debatten nicht initiiert oder sogar behindert werden, so will EIKE mit nachfolgenden Papieren einen weiteren Anstoß zu dieser längst überfälligen Debatte – im VDI und darüber hinaus – geben.

Dr. Dietmar Ufer

Sehr geehrter Herr Professor Wagner,

als langjähriges VDI-Mitglied und als Energiewirtschaftler mit mehr als einem halben Jahrhundert Berufserfahrung habe ich sehr aufmerksam Ihr Interview „Energiewende: Die Entscheidung ist ehrgeizig, verfolgt aber einen richtigen Weg“ in den VDI nachrichten vom 31. Mai 2013 gelesen. Ich gestehe Ihnen: Ich war maßlos enttäuscht von dem, was Sie als Vorsitzender der VDI-Gesellschaft für Energie und Umwelt zur Energiewende zu sagen hatten.

Im Interview weisen Sie mehrfach darauf hin, was getan werden muss, um die „Energiewende“ durchzusetzen: Beispielsweise verweisen Sie auf die Notwendigkeit, Energie einzusparen (die Erhöhung der energetischen Effizienz wird seit mindestens hundert Jahren erfolgreich praktiziert, ist aber nur sinnvoll, wenn sie mit ökonomischer Effizienz verbunden ist), im Verkehrsbereich den Energiebedarf um 40 Prozent zu senken oder etwa 2  Prozent der deutschen Gebäude pro Jahr energetisch zu sanieren. Sie möchten die Genehmigungsdauer für 2800 km neue und 1000 km auszubauende Hochspannungstrassen reduzieren, indem Sie unliebsame „Einzelklagen“ besorgter Bürger verhindern wollen.

Als Ziel betrachten Sie es, „erneuerbare Energien zu bevorzugen“. Als Erfolg auf diesem Wege sehen Sie, dass „Windenergie und Sonnenenergie … heute in Deutschland über das Jahr gesehen 15 % des Stromverbrauchs“ decken und „derzeit schon 32 GW Windanlagen und 34 GW Photovoltaikanlagen installiert“ sind. Ich gestehe, dass ich sehr nachdenklich wurde, als ich in Ihrem Interview lesen musste, dass wir in zwei oder drei Jahren an „einem wind- und sonnenreichen Wochenende mittags … 100 % unseres Stromverbrauchs mit Wind- und Sonnenenergiestrom decken können.“ Meinen Sie wirklich, dass das irgendeine energiewirtschaftliche Relevanz besitzt? Es handelt sich hier um maximal ein bis zwei Stunden unter außerordentlich günstigen und relativ seltenen meteorologischen Bedingungen. In dieser Zeit müssten alle konventionellen Kraftwerke ihre Leistung auf Null zurückfahren, um eventuell 10 Minuten später, wenn eine Windflaute eintritt oder sich die Sonne hinter Wolken versteckt, wieder am Netz zu sein? Wollen Sie damit etwa ausdrücken, dass das einige Jahre später auch fünf, sechs oder gar 24 Stunden und vielleicht noch später nicht nur als Wochenenden, sondern sogar ganzjährig, auch in windstillen Winternächten, möglich sein könnte? Sie wissen sehr genau, dass der Gedanke an eine derartige Entwicklung utopisch – besser: unsinnig – ist! Zwar verweisen Sie auf die Absicht der Bundesregierung, die Energiespeicherung zu fördern, wissen aber darüber nicht mehr zu sagen, als dass es sich hier um eine nicht finanzierbare Technik handelt. Ich muss Sie nicht darauf hinweisen, dass die Speicherung ohnehin schon überteuerter Energie aus alternativen Quellen die Stromkosten für Durchschnittsbürger und sehr viele Unternehmen praktisch unbezahlbar machen würde.

Recht weltfremd erscheint mir Ihre Vorstellung, man könne auch in Zukunft überschüssigen Strom aus deutschen Wind- und Solaranlagen exportieren. Die daraus entspringenden Export-Erlöse, die bekanntlich zeitweise auch negativ sind, lassen Sie vorsichtshalber völlig unberücksichtigt! Und wenn andere Länder, von denen Sie annehmen, dass auch die größere Wind- und Photovoltaikkapazitäten aufbauen, ihrerseits überschüssigen Strom nach Deutschland liefern wollen? Hat die VDI-Gesellschaft für Energie und Umwelt eine Antwort darauf?

Es ließ sich im Interview wohl nicht vermeiden, auf die Kosten der „Energiewende“ hinzuweisen. Sie konstatierten – sinngemäß identisch mit der inzwischen sattsam bekannte Politiker-Phrase „Die Energiewende ist nicht zum Nulltarif zu haben“: „Die Energiewende kostet Geld“. Auch Sie stellten fest, dass es „politische Forderungen gibt, die Energiekosten zukünftig nicht mehr ansteigen zu lassen“. Von ebenfalls laut geäußerten Forderungen, die Energiekosten zu senken, war bei Ihnen nichts zu lesen. Ihr „Lösungsvorschlag“: „Die neue Bundesregierung wird erhebliche Anstrengungen unternehmen müssen, um die Strompreiserhöhungen in Grenzen zu halten“. Weiß der VDI, welche „Anstrengungen“ das sein sollen? Und wo sind die „Grenzen“ einer – Ihrer Meinung nach nicht zu vemeidenden – Strompreis-Erhöhung?

Sie bringen zusätzliche Belastungen der Industrie durch höhere Strompreise (Abschaffung der EEG-Kostenbefreiung) ins Spiel, obwohl sehr gut bekannt ist, dass das für die Stromrechnung der Bevölkerung kaum Entlastungen bringen dürfte. Es ist sehr interessant, dass auf der gleichen Seite der VDI nachrichten, auf der Ihr Interview erschien, der Hauptgeschäftsführer der Vereinigung der hessischen Unternehmerverbände (VhU), Volker Fasbender, erklärte: „Industriearbeitsplätze zu sichern ist wichtiger als private Stromrechnungen zu schonen.“ – Wie sieht das die VDI-Gesellschaft für Energie und Umwelt?

Sie haben aber auch ein „konkretes“ Rezept zur Finanzierung der „Energiewende“ zu bieten: „Um auch Energieeinsparungen im Gebäudesektor voranzubringen, wird man mehr Anreizprogramme schaffen müssen.“ Sie wissen, wer diese Anreizprogramme finanziert: Der Steuerzahler, der als Energieverbraucher zugleich der Finanzier der „Energiewende“ ist! Oder kennen Sie angesichts der gegenwärtigen Finanzkrise andere Geldquellen?

Wie Pfeifen im Wald hört sich Ihre Beteuerung an, dass die „Energiewende“ Deutschland „viel Nutzen“ bringen würde, weil wir die – in Deutschland schon nicht bezahlbare – „Energiewende“-Technik exportieren könnten. Sie setzen dabei voraus, dass andere Industrieländer die gleichen energiepolitischen Geisterfahrten unternehmen wie Deutschland.

Insgesamt enthält Ihr Interview eine Menge ungelöster technischer, ökonomischer und politischer Probleme der „Energiewende“ (Umwelt-Probleme haben Sie gar nicht angesprochen). Lösungsvorschläge, die zu einer wirtschaftlichen, zuverlässigen und umweltfreundlichen Energieversorgung führen („Strategisches Zieldreieck der Energiepolitik“), waren an keiner Stelle Ihrer Ausführungen zu erkennen. Das alles hielt Sie aber nicht davon ab, die politische Entscheidung für die „Energiewende“ als „richtig“ zu bewerten.

Sie erklärten: „Die angestrebten Ziele – Energieeinsparung, langfristig weg von fossilen Energieträgern und Kernenergie hin zu erneuerbaren Energien – sind, vor dem Hintergrund der angespannten weltweiten Energiemärkte und der Notwendigkeit Klimaschutz zu betreiben, richtig.“ Wenn das Begründungen für die Notwendigkeit der völligen Umgestaltung der deutschen Energiewirtschaft sein sollen, so halte ich sie für extrem dürftig, sogar für falsch!

Welche „angespannten weltweiten Energiemärkte“ haben Sie denn im Auge? Es gibt keinen Energiemangel – nicht heute und auch nicht in 50 oder 100 Jahren, folglich auch keine „angespannten Energiemärkte“! Ich muss Sie wohl nicht auf die Tatsache hinweisen, dass sich die USA auf dem Wege vom Energieimporteur zum Energieexporteur befinden, dass insgesamt Kohle-, Erdöl- und Erdgas-Vorräte für mehrere Jahrhunderte verfügbar sind, dass immense Vorkommen von Uran und Thorium bekannt sind, die für Millionen Jahre reichen, und dass die Menschheit an der Erforschung der Kernfusion arbeitet. Welche weiteren Ideen unseren Nachkommen zur Deckung des ständig wachsenden (!) Energiebedarfs  noch einfallen werden, können weder Sie noch ich absehen. Welchen Energiemangel soll denn die deutsche „Energiewende“ beheben? Warum wohl wollen Sie „weg von fossilen Energieträgern und Kernenergie“, wenn doch beide nahezu unbegrenzt verfügbar sind?

Woraus leiten Sie die „Notwendigkeit Klimaschutz zu betreiben“ ab? Wovor soll denn das Klima eigentlich geschützt werden? Wenn Sie unter „Klimaschutz“ verstehen, weniger von dem lebensnotwendigen Spurengas CO2 zu emittieren, um die Temperaturen nicht steigen zu lassen, dann möchte ich Sie darauf aufmerksam machen, dass trotz weiter steigender Emissionen die Durchschnittstemperaturen weltweit in den letzen 15 Jahren nicht – wie vorhergesagt – gestiegen, sondern gefallen sind. Diese Tatsache beweist, dass mathematische Modelle keine Klimaprognosen ermöglichen, was übrigens schon 2001 vom IPCC festgestellt wurde: „In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible“. (Third Assessment Report,  Section 14.2.2.2,  S.774). Bekannt sein dürfte Ihnen auch, dass es bisher nicht einen einzigen wissenschaftlichen, d. h. messtechnisch belegten, Nachweis für Temperaturerhöhungen als Folge eines steigenden CO2-Gehalts der Atmosphäre gibt. Wenn der VDI über einen solchen Nachweis verfügen würde – der Nobelpreis (und zwar der für Physik!) wäre ihm sicher!

Und warum wollen der VDI und Sie persönlich auf die Kernenergienutzung verzichten? Glauben etwa auch Sie an die Unbeherrschbarkeit, an die unermessliche Gefährlichkeit dieser Technik? Nicht einmal Forschungen auf diesem Gebiet oder gar den Ersatz heutiger Kernkraftwerke durch modernere (andere Länder praktizieren das!) wollen Sie zulassen? Brütertechnologie und Transmutation, über die in Deutschland noch nicht einmal gesprochen wird, werden alle Debatten über die „Endlagerung“ gegenstandlos machen. Es ist in der modernen Technikgeschichte ein wohl einmaliger Akt, dass durch die Politik die Forschung auf einem technisch höchst wichtigen Gebiet untersagt wird! Und der VDI findet kein Wort der Erwiderung, sondern unterwirft sich demütig grün-ideologischen Forderungen!

Ich hätte erwartet, dass Sie angesichts der vielen technischen Probleme, für die zum großen Teil noch nicht einmal Lösungsansätze erkennbar sind, und der riesigen Kosten, die auf uns zukommen werden – sogar Bundesumweltminister Peter Altmaier sprach von einer Billion Euro, einer m. E. sehr geschönten Zahl – die Frage aufwerfen, ob die „Energiewende“ überhaupt notwendig ist. Warum fragen Sie nicht, warum wir eine gut funktionierende, wirtschaftliche und umweltfreundliche Energieversorgung durch eine in jeder Beziehung unsicheres unbezahlbares und umweltschädliches System ersetzen müssen? Warum wollen wir plötzlich die Wettbewerbsfähigkeit unserer Wirtschaft, den Wohlstand der Bürger und die Umwelt in Gefahr bringen? Können Sie und der VDI verantworten, dass durch die Abwanderung großer Teile der Grundstoffindustrie infolge überhöhter Energiepreise hunderttausende Arbeitsplätze in Deutschland vernichtet werden?

Vom VDI, dem ich seit vielen Jahren angehöre, hätte ich solche Fragestellungen erwartet! Die Wiederholung von Glaubenssätzen und die damit verbundene bedingungslose Unterwerfung unter das „Primat der Politik“, wie sie im Interview zu finden sind, hilft möglicherweise bestimmten politischen Kräften, nicht aber Bürgern, der Wirtschaft, der Technik oder gar der Wissenschaft!

Eine ehrliche Antwort auf die Frage nach der Notwendigkeit der „Energiewende“ kann nur lauten: Die Entscheidung war falsch! Ich weiß: Diese Antwort ist nicht „politisch korrekt“, aber sie ist technisch, ökonomisch, sozial und – nicht zuletzt! – wissenschaftlich korrekt!

Wenn nicht einmal der VDI mit seinem großen Fachpotenzial den Mut aufbringt, sachlich über Sinn und Unsinn der „Energiewende“ zu sprechen, dann dürfen Sie sich nicht wundern, wenn immer mehr Fachleute resignieren und den VDI verlassen! Noch schlimmer: Mit Ihrem Verhalten stoßen Sie begabte junge Menschen von der Beschäftigung mit bedeutenden traditionsreichen Zweigen der Energietechnik ab. Nicht nur Ihr Interview, sondern das gesamte opportunistische Verhalten des VDI (einschließlich VDI nachrichten)  führt dazu, offenen Debatten zu energiepolitischen Grundsatzfragen völlig zu unterbinden! Will das der VDI wirklich?

Ich bin mir völlig darüber im Klaren, dass ich von Ihnen keine Antwort auf diese mich – und viele andere Fachkollegen – bewegenden Fragen erhalten werde. Daher erlaube ich mir, diesen Brief einem weiten Kreis von Fachleuten zur Kenntnis zu geben – mit der Absicht, auf diese Weise eine offene Diskussion zur „Energiewende“ in Deutschland in Gang zu setzen.

Mit freundlichen Grüßen

Dr. Dietmar Ufer EIKE

Antwort von Prof Dr. H.J. Wagnwer

RUHR-Universität Bochum Lehrstuhl Energiesysteme und Energiewirtschaft

Prof. Dr.-Ing. H.-J. Wagner FAKULTÄT FÜR MASCHINENBAU, Institut für Energietechnik Lehrstuhl Energiesysteme und Energiewirtschaft Gebäude IB 4/125

Universitätsstraße 150, 44801 Bochum

PROF. DR.-ING. H.-J. WAGNER

13. Juni 2013

Ihr Schreiben vom 10. Juni 2013

Sehr geehrter Herr Dr. Ufer,

zunächst einmal möchte ich Ihnen dafür, dass Sie auf meinen Artikel in den VDI-Nachrichten geschrieben haben, danken.

Wir kennen ja unsere gegenseitigen beruflichen Aktivitäten schon seit einiger Zeit. Ihre Ausführungen habe ich mit Interesse gelesen, viele davon waren mir allerdings nicht neu, da Sie dies bereits mehrfach geäußert haben, auch unter Widerspruch. Beim Beantworten der Fragen der VDI-Nachrichten habe ich insbesondere auch daran gedacht, dass die weit überwiegende Mehrzahl der Leser der VDI-Nachrichten nicht das spezifische Energiefachwissen hat, was die Energieingenieure mit sich bringen. Man kann nicht davon ausgehen, dass den Lesern a priori klar ist, was 32 und 34 GW installierte Leistung an Photovoltaik- und Windenergieanlagen bedeutet. Deshalb habe ich das Beispiel gebracht, das damit Mittagsspitzen in einigen Zeiten abgedeckt werden können, was auch eintreten wird. Ich habe nicht damit die These vertreten, das dann die Energieversorgung Deutschlands gesichert sei und wir keine konventionellen Kraftwerke mehr benötigen würden. Ich bitte Sie, dies zu berücksichtigen. 

Des Weiteren habe ich mit einer Reihe von Aspekten zu verstehen gegeben, welche Fragestellungen in der nächsten Legislaturperiode anliegen werden und in geeigneter Weise gelöst werden müssen. Dazu zählt auch die Frage, wer bei zunehmenden erneuerbaren Energien die Einspeisevergütung zahlen soll. Berücksichtigen müssen Sie auch, dass in letzter Zeit die Politik bereits erklärt hat, dass die Einspeisevergütung für private Verbraucher trotz Zunahme der Photovoltaikleistung nicht mehr steigen soll. Wie bitte erwarten Sie, dass dann diese Mehrausgaben gedeckt werden?

In Bezug auf die von Ihnen intensiv in der Öffentlichkeit – und auch gegenüber dem VDI – vertretende Meinung, dass die CO2-Problematik nicht existiere, möchte ich darauf hinweisen, dass es viele andere Einschätzungen gibt. Selbst, wenn vielleicht manche Meinungen bzgl. des Temperaturanstiegs infolge von CO2 auf der pessimistischen Seite liegen, wird der grundsätzliche Einfluss von CO2 auf die weltweite Klimabildung aber nicht von den Wissenschaftlern infrage gestellt. Außerdem wissen Sie sehr gut, dass sich gerade VDI-GEU bemüht hat, zu einem wissenschaftlichen Diskussionsgespräch in Form einer kleinen Veranstaltung zu kommen, um die unterschiedlichen Meinungen gegenüberzustellen und zu diskutieren. An dieser Stelle spreche ich dem VDI ein großes Kompliment aus dafür, dass er versucht hat, diesen Weg zu gehen.

Insgesamt gesehen finde ich es gut, dass Sie sich intensiv mit der Thematik auseinandersetzen. Ich teile jedoch in vielen Punkten Ihre Meinung nicht und halte auch die teilweise von Ihnen vorgenommene Darstellung als nicht ausreichend breit für die Beschreibung der vorhandenen Thematik. 

Trotzdem herzlichen Dank, dass Sie meinen Artikel gelesen haben.

Mit freundlichen Grüßen

Prof. Dr.-Ing. H.-J. Wagner

Antwort D. Ufer

Dr. Dietmar Ufer

04103 Leipzig, 18. Juni 2013

Herrn Prof. Dr.-Ing. Hermann-Josef Wagner

Ruhr-Universität Bochum

Lehrstuhl für Energiesysteme und Energiewirtschaft

Universitätsstraße 150

44780 Bochum

 

Sehr geehrter Herr Professor Wagner,

auch ich möchte mich herzlich bei Ihnen bedanken, nämlich für Ihre rasche Antwort auf meinen kritischen und recht umfangreichen Brief! Auch aus Ihrem Schreiben vom 13. Juni 2013 erkenne ich, dass wir teilweise recht unterschiedlicher Meinung sind. Kann ich aber der Tatsache, dass Sie in Ihrer Antwort einige Probleme offen lassen (z. B. die Kernenergie-Nutzung), eine vorsichtig-zurückhaltende Annäherung oder Nähe entnehmen?

Gestatten Sie mir einige Anmerkungen zu unserem aktuellen Briefwechsel, weil die möglicherweise nicht nur zur Klärung von Widersprüchen, sondern vielleicht auch zur allgemeinen Debatte über die „Energiewende“ innerhalb des VDI beitragen könnten. 

Zur Rolle von Photovoltaik- und Windenergieanlagen: Im Interview wollten Sie Rücksicht auf das ungenügende Fachwissen von Lesern der VDI nachrichten nehmen. Das führt mich allerdings zu der Frage, ob es sich hier nicht vorwiegend um technisch gebildete Menschen, z. B. Ingenieure, handelt, die durchaus den Unterschied zwischen Arbeit und Leistung kennen. In Ihren Ausführungen wollten Sie diese beiden Technologien als „Erfolgsgeschichte“ darstellten und weckten damit ausgerechnet in der Zielgruppe, die „nicht das spezifische Energiefachwissen“ besitzt, Illusionen. Sie wissen selbst genau: Nie wird es in Deutschland oder in Europa möglich sein (auch nicht stundenweise!), dass wir – wie Sie schrieben – „100 % unseres Stromverbrauchs mit Wind- und Sonnenenergiestrom decken können.“ Es gibt sicher Politiker, die über eine solche Feststellung jubeln – sie ist aber trotzdem falsch. Und es ist bedauerlich, dass sie von einem profilierten Energietechniker und Vorsitzenden der VDI-Gesellschaft für Energie und Umwelt kommt!

Sie stellen mir die Frage, wie die Mehrausgaben bei zunehmenden alternativen Energien gedeckt werden sollen. Meine Antwort ist sehr einfach: Gar nicht! Ich lehne den weiteren Ausbau dieser nur mit Hilfe von Subventionen lebensfähigen Energieanlagen strikt ab, plädiere für die sofortige und ersatzlose Streichung des „Erneuerbare-Energien-Gesetzes“. Ausnahmslos alle Energien, egal woher sie stammen, sollten – ab sofort! – den Regeln des Marktes unterworfen werden, auch unter Verzicht auf den Bestandsschutz bei schon existierenden Anlagen. Es ist nicht möglich – auch das wissen Sie sehr genau – Sonnen-, Wind-, Biomasseenergie etc. unter ökonomischen Bedingungen zu erzeugen, die den Strom „bezahlbar“ machen. Alle Versuche in dieser Richtung, z. B. Altmaiers „Strompreisbremse“ oder eine „Reformierung“ des EEG, sind nichts anderes als ein hilfloser Versuch der Quadratur des Kreises. – Ist diese einfache Wahrheit, sehr geehrter Herr Professor Wagner, wirklich so kompliziert, dass sie nicht auch vom VDI ausgesprochen und der Politik vorgelegt werden kann? Zehntausende Ingenieure in Deutschland – mit Ausnahme derjenigen, die vom EEG profitieren – würden dem zustimmen! Warum hat kein VDI-Gremium den Mut, das auszusprechen?

Zum CO2-Einfluss auf die Klimaentwicklung nur so viel: Wenn es überhaupt einen Einfluss geben sollte, dann ist er so gering, dass er messtechnisch nicht nachweisbar ist. Halten Sie diese Feststellung für falsch? Und für diesen nicht nachweisbaren Effekt sollen wir Billionen Euro ausgeben, die wir wirklich dringend woanders brauchen? Folgt man Ihren Vorstellungen über die Bedeutung des CO2 als „Klimagas“, dann müssten zur „Rettung“ des Klimas (nochmals: Was ist das?) nicht nur Billionen Euro in Deutschland, sondern Billiarden Euro auf der Erde ausgegeben werden! Der Erfolg dürfte aber – so zeigen die Fakten – gegen Null gehen! Übrigens: Ihre Auffassung, der „grundsätzliche Einfluss“ des CO2 auf die Klimaentwicklung werde „nicht von den Wissenschaftlern infrage gestellt“, ist schlicht falsch. Oder wollen Sie etwa Klima-Fachleute mit gegenteiliger Meinung als „Nicht-Wissenschaftler“ diskriminieren? Solchen ans Mittelalter erinnernden Denkweisen sollten wir keinen Raum geben, weder im VDI noch in Deutschland insgesamt!

So viel zu den in Ihrem Antwortschreiben angesprochenen Fragen. Bei anderen, wie der schon erwähnten Kernenergie, aber auch beim Windstrom-Export, bei der Verfügbarkeit von Energieressourcen und beim angeblichen volkswirtschaftlichen Nutzen aus den Export von Alternativenergie-Techniken u. ä., verzichten Sie auf eine Erwiderung, was ich als Zustimmung zu meinen kritischen Bemerkungen auffassen könnte.

Seltsamerweise taucht in Ihrem Brief das Wort „Energiewende“ überhaupt nicht auf. Distanzieren Sie sich etwa von diesem Begriff und seinem Inhalt? Ich kenne nicht einen einzigen ökonomischen, technischen oder ökologischen Vorteil, der sich aus der Durchsetzung der „Energiewende“ ergeben könnte, jedoch schon sehr viele Nachteile, sogar gewaltige Schäden (erkennbar z. B. in meiner aktuellen Stromrechnung). In Ihren Ausführungen habe nichts Positives dazu gefunden, obwohl Sie im Interview sogar versuchen, diesen verhängnisvollen Schritt der Bundesregierung zu rechtfertigen!

Warum besitzen Sie nicht den Mut, offen die Frage aufzuwerfen, wofür wir diese energiepolitische Fehlentscheidung überhaupt benötigen? Ich habe Ihnen in meinem Brief genau das sehr deutlich nahegelegt und von Ihnen dazu kein Wort lesen können! Es handelt sich m. E. um die gegenwärtig wichtigste energiepolitische Frage in Deutschland! Leider hat bisher noch kein Politiker, Wirtschaftspraktiker oder Journalist (von ganz wenigen Ausnahmen abgesehen) diese Frage gestellt und nach einer Antwort gesucht!

Offen sollte die Frage nach Sinn und Unsinn der Energiewende gestellt und darüber im VDI und in der medialen Öffentlichkeit diskutiert werden. Die sich daraus ergebenden Schlussfolgerungen sind konsequent politisch und ökonomisch umzusetzen. Das ist der einzige Weg, der uns vor der Zerstörung unserer über Jahrzehnte gewachsenen, einstmals erfolgreichen Energiewirtschaft und schließlich vorm Absturz der Volkswirtschaft ins Bodenlose (Verlust der Wettbewerbsfähigkeit, Deindustrialisierung, Massenarbeitslosigkeit, Wohlstandsverlust) bewahrt!

Bitte, sehr geehrter Herr Professor Wagner, nutzen Sie Ihr hohes Ansehen als Wissenschaftler und setzen sich an die Spitze einer Bewegung, die die angeblich alternativlose „Energiewende“ um 180 Grad „wendet“ und zur energiepolitischen Vernunft zurückführt: Wettbewerbsfähigkeit, Zuverlässigkeit und Umweltverträglichkeit! Veranlassen Sie als erstes eine Debatte in den VDI nachrichten darüber, nicht zuletzt als Alternative zu den sich dort immer mehr ausbreitenden grün eingefärbten Artikeln!

Nochmals besten Dank für Ihr Antwortschreiben! Ihr Brief und meine Antwort betrachte ich nicht als Schlusspunkt einer „Vier-Augen-Debatte“, sondern als Anfang einer grundsätzlichen Diskussion über die Zukunft der deutschen Energiewirtschaft. Deshalb werde ich auch dieses Schreiben einer größeren Zahl von Fachleuten zur Kenntnis geben.

Mit freundlichen Grüßen 

Ihr

D. Ufer

0 0 1 1446 9115 Management Consult 75 21 10540 14.0 96 800×600 Normal 0 21 false false false DE JA X-NONE




Treibhausgas-Konfusion vervielfacht durch Missbrauch von Infrarot-Thermometern

Carl Brehmer

Von Radiometern genannten Instrumenten glaubt man, dass sie sowohl die einfallende als auch die ausgehende langwellige Strahlung messen, aber was messen Radiometer eigentlich wirklich, und was bedeuten ihre Messergebnisse eigentlich? Der innere Bereich eines Radiometers besteht aus einer Kette von Thermoelementen in einem Vakuum unter einer Haube, deren eines Ende mit einer Dose verbunden ist, in der die „Referenztemperatur“ eingehalten wird. Abhängig vom Messziel wird eine positive oder negative Ladung von den Thermoelementen erzeugt, die an eine Schaltkreis-Karte geleitet wird. Falls das Ziel wärmer ist als die Referenztemperatur in der Dose (der Boden zum Beispiel) werden sich die Thermoelemente strahlungsbedingt erwärmen, und eine positive Ladung wird erzeugt. Ist das Ziel kälter als die Dose (der offene Himmel zum Beispiel) wird es zu strahlungsbedingter Kühlung kommen und eine negative Ladung wird induziert. Zusammen mit dem elektrischen Signal, erzeugt durch die Thermosäule, werden noch zwei weitere Temperatursignale an die Schaltkreis-Karte gesendet: 1) Die Temperatur der Büchse und 2) die Temperatur unter der Haube. Die elektrischen Spannungen dieser drei Signale werden dann mathematisch in einen Messwert konvertiert mit der Einheit W/m².

„Das Epply PIR hat 3 ausgehende Signale: von der Strahlungsthermo(elemente)säule (mV), von der Temperatur in der Dose (V) und der Temperatur in der Hülle (V). Die 3 Signale werden über die Pyrgeometer-Gleichung kombiniert, die die thermische Balance des Instruments und damit die Verteilung der einfallenden langwelligen Strahlung (LW)“ PIR = Precision Infrared Radiometer auf Kilo Moana von Frank Bradley.

„Der mV-Output aus den Thermosäulen wird in W/m² konvertiert, dann korrigiert für die Temperatur-Auswirkungen auf die PIR-Dose“. Epply PIR (Precision Infrared Radiometer) ® CAMPBELL SCIENTIFIC, INC. Copyright © 2001-2007 Campbell Scientific, Inc.

Hier folgt ein Beispiel einer solchen Epply-PIR-Berechnung von Downward-long wave radiation (DLWR) aus der Studie „PIR – Precision Infrared Radiometer on Kilo Moana“ von Frank Bradley. Was das Epply PIR tatsächlich bei der Ausrichtung zum Himmel gemessen hat, war die strahlungsbedingte Kühlung der Thermosäule. Diese Strahlungs-Kühlung induzierte eine kleine negative Spannung in den Output-Leitungen, und das wurde mathematisch konvertiert in negatives W/m²: in diesem Beispiel -66,6 W/m².

Das Radiometer berechnete dann mittels der S-B-Formeln die potentielle IR-Emission der Thermosäule selbst, basierend auf der Referenztemperatur der Dose und deren angenommener Emissivität (das Ergebnis dieser Berechnung war 460,9 W/m². Diese beiden Zahlen wurden dann addiert (-66.6 + 460.9 = 394.3). Schließlich schätzte das Epply PIR den Einfluss der Temperatur in der Haube auf diese Zahl, welche -10,9 W/m² betrug. Danach wurde diese Zahl zu der zuvor ermittelten Summe addiert:

(-10.9 + 394.3 = 383.4)

So wurde aus einem gemessenen ausgehenden IR-Strahlungsenergiefluss von -66,6 W/m² ein einfallender IR-Strahlungsenergiefluss von 383,4 W/m². Obwohl also die Thermosäule einen ausgehenden Strahlungsfluss von -66,6 W/m² ermittelt hat, besagte das Ergebnis vom Epply PIR, dass es einen einfallenden Strahlungsfluss von 383,4 W/m² gegeben hat. In Wirklichkeit ist das Ergebnis des Epply PIR eine Berechnung dessen, was der einfallende Strahlungsenergie-Fluss aus der Atmosphäre sein würde, wenn dieser nicht durch eine destruktive Interferenz mit ausgehender IR-Strahlung eliminiert werden würde. Als solche ist die Existenz eines atmosphärischen einfallenden Strahlungsenergie-Flusses eine mathematische Plauderei; es ist eine hypothetische und keine gemessene Realität.

Richtet man den Epply PIR in Richtung Erdboden, erfährt die Thermosäule eine strahlungsinduzierte Erwärmung, und die gleichen Berechnungen werden durchgeführt, um eine Zahl der ausgehenden IR-Strahlung zu erzeugen. Das Ergebnis ist wieder eher hypothetisch als tatsächlich gemessen. Ein ordentliches Radiometer würde einem lediglich den tatsächlichen Strahlungsenergie-Fluss zeigen und in welche Richtung dieser geht. In diesem Falle wäre die „Gesamt“-ausgehende IR-Strahlung der gesamte ausgehende IR-Strahlungsenergie-Fluss sein, und der einfallende IR Strahlungsenergie-Fluss wäre Null.

Ich glaube, dass man an dieser Stelle einmal erklären sollte, was die Einheit W/m² wirklich bedeutet.

Ein Watt pro Quadratmeter (W/m²) ist eine abgeleitete Größe der Dichte von Strahlungsflüssen im internationalen Einheiten-System SI. Per Definition ist Watt pro Quadratmeter die Rate der Wärmeenergie von 1 Watt, transportiert durch eine Fläche von 1 Quadratmeter, welche senkrecht zur Richtung des Wärmeflusses steht.

„Wärmefluss“ ist „die Menge der transportierten Wärme über einer bestimmten Fläche während einer bestimmten Zeit. Auch bekannt unter thermischer Fluss“.

„Fluss“ (n) die Fließrate von etwas über oder auf eine gegebene Fläche, z. B. Energie, Partikel oder eine Flüssigkeitsmenge. Encarta® World English Dictionary © 1999 Microsoft Corporation.

Die Einheit W/m² ist also die Messung der Rate, mit der thermische Energie tatsächlich von einer Stelle zu einer anderen fließt. Es ist keine Messung des Flusses potentieller Energie. Der tatsächliche Fluss thermischer Energie verläuft immer an einem Temperaturgradienten abwärts. Man denke an die Einheit, mit der die Wasser-Durchflussmenge in einem Strom angegeben wird: Litern/Minute. Dies ist eine Messung, wie viel Wasser an einem bestimmten Punkt während einer bestimmten Zeitspanne fließt. Es ist keine Messung dessen, wie viel Wasser wirklich fließen würde, wenn das Flussbett infinitesimal steil wäre. Und doch ist es das, was die upward longwave radiation ULWR- und DLWR-Zahlen auf der K-T Erdenergiebudget-Karte sind; sie sind potentielle thermische Energieflüsse und nicht tatsächliche Energieflüsse. Radiometer messen in Wirklichkeit nur den Fluss der strahlungsbedingten thermischen Energie in einer Richtung, aber die Ergebnisse der Radiometer sind nicht eine tatsächlich gemessen, sondern eine Berechnung, wie der Wärmefluss wäre, wenn die strahlende Materie aus einem Vakuum in Richtung eines perfekten Schwarzkörpers strahlen würde bei einer Temperatur von 0°K.

Also nimmt sich ein Radiometer etwas, das physikalisch gemessen wird (entweder die radiative Abkühlung oder radiative Erwärmung, die eine kleine negative oder positive Spannung in der Thermosäule induziert) und konvertiert es in eine hypothetische Zahl.

Wir können aus deren Design ablesen, dass Ingenieure von IR-Radiometern Anhänger des zwei-Wege-Energieaustausch-Paradigmas sind und diese Instrumente so bauen, dass sie dieses Paradigma manifestieren. Zum Beispiel: Wenn man eines dieser Instrumente in einen Weinkeller bringt und ihm ermöglichte, die Raumtemperatur abzuschätzen würde es zeigen, dass etwa 300 W/m² von jeder Oberfläche kommen würde. In Wirklichkeit ist die „Dichte des tatsächlichen Wärmeflusses“ innerhalb des Weinkellers in W/m² gleich 0,00, weil sich der gesamte Raum im thermischen Gleichgewicht befindet und kein Wärmefluss (Anmerkung der Redaktion: wohl aber eine Strahlung) von irgendwoher nach irgendwohin stattfindet.

Woher kommt dann aber der vom Radiometer angegebene Wert von etwa 300 W/m²? Er ist die berechnete Menge der IR-Strahlung, die die Thermosäule emittieren würde, wenn sie sich in einem Vakuum gegenüber einem Schwarzkörper bei 0°K befinden würde. In Wirklichkeit sollte ein Radiometer in einem Weinkeller, dessen Temperatur im Gleichgewicht mit der Umgebung liegt, 0,00 W/m² anzeigen, weil der Wärmefluss von einer Wand des Weinkellers zu einer anderen Null ist.

Gehen wir nun nach draußen. Wieder sind weder die DLWR-Zahl 333 W/m² noch die ULWR-Zahl 396 W/m², die man auf der K-T-Karte des Erdenergie-Haushalts sieht, Messungen der tatsächlichen Strahlungsenergie-Flüsse. Stattdessen sind sie mathematische Schätzungen, welche Größe der auf- oder abwärts gerichtete Fluss annehmen würde, wenn der jeweils andere fehlen würde. Das ist so, als wenn man die Windgeschwindigkeit mit 10 mph aus West misst und gleichzeitig annimmt, dass tatsächlich ein mit 20 mph aus Ost wehender Wind existiert, der sich durch Vektoraddition zu einer Windgeschwindigkeit von 10 mph aus West berechnet. Genauso wie der Wind nur in eine Richtung weht, fließt auch thermische Energie nur in eine Richtung. Noch einmal, den empirische Beweis, dass DLWR von ULWR vollständig ausgelöscht wird, liefert das gleiche Radiometer, dass vorgibt, deren Gegenwart zu messen. Diese Radiometer detektieren einen abwärts gerichteten Wärmefluss von 0,00 W/m²; was sie wirklich messen, ist ein aufwärts gerichteter Energiestrom, von dem sie dann berechnen, wie der DLWR ausgesehen hätte, wenn er nicht ausgelöscht worden wäre.

Und das ist der Korken: Das IPCC wird in seinem demnächst erscheinenden AR 5 erneut bekräftigen, dass es DLWR als substantiell identisch mit der Sonneneinstrahlung ansehen, indem sie einfach die hypothetischen Zahlen der IR-Radiometer zu den tatsächlich gemessenen kurzwelligen Strahlungsenergieflüssen addieren, die von der Sonne kommen.

„Der momentane radiative Antrieb (RF) bezieht sich auf eine momentane Änderung des Gesamt-Strahlungsflusses (auf- oder abwärts gerichtet) (solar- und langwellig in W/m²) infolge einer aufgezwungenen Änderung“. AR 5, Entwurf Kapitel 8.

Dies führt zu der Perspektive, dass die Atmosphäre tatsächlich die Oberfläche der primären Wärmequelle der Erde ist, da die Messungen der Radiometer nahe legen, dass der einfallende langwellige Strahlungsfluss aus der Atmosphäre zweimal so groß ist wie der des direkten Sonnenlichts! In Wirklichkeit ist er Null.

Carl Brehmer

Schlussbemerkung: In einem Teil meiner Karriere erhielt ich einen Grad in elektronischer Technologie, und aus diesem Wissen heraus habe ich obige Analyse der internen Operation des Epply PIR durchgeführt, wobei ich Epplys Beschreibung ihres eigenen Instrumentes im Owners Manual gefunden habe. Ich fordere jeden heraus, der im Owners Manual irgendeines Radiometers die Behauptung findet, dass sie tatsächlich die einfallende IR-Strahlung messen. Bei näherer Betrachtung wird man finden dass diese Owners Manuals enthüllen, dass DLWR-Zahlen immer eine berechnete hypothetische Zahl ist, basierend auf dem strahlungsbedingten Wärmetransport-Paradigmas in beide Richtungen, und nicht eine tatsächliche direkte Messung von DLWR.

Link: http://principia-scientific.org/supportnews/latest-news/114-greenhouse-gas-confusion-magnified-by-misuse-of-infrared-thermometers.html

Übersetzt von Chris Frey EIKE

(1)Details dazu hier http://www.eol.ucar.edu/rtf/facilities/isff/sensors/kippzonen/manual_cg4.pdf




Der Emissionshandel – ein System ohne jede Wirkung, nur um Geld zu schröpfen

Der Kyoto-Vertrag legte für insgesamt 190 Staaten Verpflichtungen zur Reduzierung von Treibhausgasen, vor allem CO2, fest. Die großen Emittenten fehlen aber dabei,  China und die USA sowie die sogenannten Schwellenländer Indien, Brasilien u.a.. Russland, Kanada, Japan und Neuseeland sind an der 2. Verpflichtungsperiode des Kyoto-Protokolls (von 2013 – 2020) nicht mehr beteiligt. Übrig bleiben die 27 EU-Staaten, einige weitere europäische Länder und Australien.

Weniger als 13 % der weltweiten Emissionen sind damit noch betroffen.

Mindestens hundert Milliarden Dollar pro Jahr sollen ab 2020 aus öffentlichen, privaten und sonstigen Mitteln fließen, um Entwicklungsländer bei Klimaschutz und der Bewältigung von Klimafolgen zu unterstützen. Dies wurde im Dez. 2012 in Doha auf dem letzten Klimagipfel so bekräftigt. Für die Zeit bis 2020 sollen die bisherigen Mittel aufgestockt werden. Eine konkrete Vereinbarung woher das Geld kommen soll, wurde aber nicht erreicht. Bislang haben nur einige europäische Staaten freiwillige Zusagen gegeben. Für 2013 sind dies 7 Milliarden Euro, davon allein aus Deutschland 1,8 Milliarden Euro.

Wie funktioniert der Emissionshandel ?

Wer CO2 in die Luft bläst, braucht dafür ein Zertifikat, das zum Ausstoß einer bestimmten Menge Kohlendioxyd (CO2) berechtigt. Dies wird in grotesker Verballhornung der Tatsachen von den Medien „Verschmutzungsrecht“ genannt.  Diese Zertifikate werden von einer EU-Behörde ausgegeben, anfangs kostenlos, ab 2013 jedoch vom potentiellen CO2 Erzeuger zu bezahlen. Nicht benötigte Papiere können vom Erwerber zum Marktpreis wieder verkauft werden. (z.B. hier) Wer mehr CO2 ausstößt, als er Zertifikate besitzt, muß Papiere dazu kaufen. Doch nun ist der Handel mit den „Verschmutzungsrechten“ ist wirkungslos geworden, denn der Preis dafür ist am 24. Januar 2013 auf unter 3 Euro gefallen. Grund ist vermutlich die europaweit eingetretene Wirtschaftskrise. Inzwischen ist er wieder dank der anvisierten Verknappungspolitik auf etwas über 5 € gestiegen (siehe Erläuterung am Ende)

Die Einnahmen aus diesem Emissionshandel speisen den Energie- und Klimafond (EKF) und sind durch den niedrigen Preis um mehr als 2/3 = 2,3 Milliarden Euro  zurückgegangen. Damit fehlen sie unserem Umweltminister Altmaier bei der Finanzierung der Energiewende. Die fehlenden Mittel durch den schlappen Emissionshandel werden notfalls durch Kredite ergänzt, da wird eben in einen anderen Topf gegriffen, denn es geht ja um die Verhinderung der Klimakatastrophe. Außerdem ist der Handel mit den Emissionsrechten umsatzsteuerpflichtig und bringt daher zusätzliches Geld in die Staatskasse.

Wer bezahlt nun das Ganze ?

Die Industrie und andere Verursacher von CO2 müssen für die "Verschmutzungsrechte"  bezahlen. Dies erhöht deren Produktionskosten sowie die Verkaufspreise und am Ende der Kette steht der Verbraucher. Es ist genau so wie bei dem EEG (Erneuerbare Energien Gesetz), wo alle staatlich festgelegten Vergütungen (Einspeisungsgarantien  m i t  V o r r a n g  und festgesetzten Preisen) des erzeugten Stromes aus regenerativen Quellen, zwar am Staat (bis auf die Mehrwertsteuer) vorbei, per gesetzlichem Zwang in jeder Menge und zu festgelegten überhöhten Preisen vom Netzbetreiber zu bezahlen aber komplett auf den Endverbraucher umgelegt wird.

Unser Staat hat sich damit ein doppeltes Instrumentarium mit einer gewaltigen zusätzlichen Bürokratie ausgedacht, um jeden Bürger an die Hand zu nehmen und dabei kräftig zu schröpfen. Es wird in gigantischem Maßstab Kaufkraft abgeschöpft, die allein dem Staat und wenigen Investoren zugute kommt. Damit ist das ganze System eine riesige Umverteilung von unten nach oben. Beim Emissionshandel funktioniert das jedoch nicht mehr, der Preis ist im Keller doch in Brüssel werden tausend Pläne geschmiedet, wie man doch noch an das bereits verplante Geld der Erzeuger – und damit uns allen- kommt. Zum Beispiel indem man das Angebot künstlich verknappt. () Ein Verhalten, das man sonst von gewalttätigen oft staatlichen Monopolen wie z.B. der OPEC kennt, und das zu Recht insbesondere von den Poltikern, als „unfaires“ Marktverhalten gegeißelt wird. Nun, wo man selber dem Verbraucher in die Taschen greifen will, wird es ungeniert praktiziert.

Damit ist das Ende der freien Marktwirtschaft erreicht, mit der die normalen Bürger in unserem Land  einen bescheidenen Wohlstand erreicht haben.

Heinz Hofmann EIKE

Ergänzung

Manager Magazin 

KLIMASCHUTZ BIZARR

Der total verrückte CO2-Markt

Von Arvid Kaiser

Auszüge:

Dem Bund fehlen wegen des Preisverfalls Milliardeneinnahmen für seinen Klimafonds, der allein aus der Versteigerung der Zertifikate gespeist wird. Ursprünglich sollte der Fonds in diesem Jahr 3,3 Milliarden Euro einnehmen, aktuell geplant sind zwei Milliarden, doch bei einem Zertifikatepreis von fünf Euro reicht es noch nicht einmal für eine Milliarde. Am Freitag, wie bereits einmal im Januar, platzte gar eine Auktion mangels Nachfrage…..EU-Klimakommissarin Connie Hedegaard hat durchaus Ideen, wie der Emissionshandel zu reparieren wäre. So könnten Zertifikate nicht nur zurückgehalten sondern ganz gestrichen werden. Eine andere Variante wäre, den Zertifikatepreis zentral zu Steuern – ähnlich wie die Notenbanken die Zinsen. Die systemkonformste Lösung wäre, die Nachfrage zu steigern, indem mehr Branchen und private Autofahrer oder Hausbesitzer einbezogen werden. Doch schon an den Fluglinien beißt sich die EU die Zähne aus.

Mehrere EU-Staaten haben sich bereits darauf eingestellt, dass eine Reform des Systems scheitert. Weil sie an ihren eigenen Klimaschutzzielen festhalten wollen, ergreifen sie aber eigene Schritte. Großbritannien führt ab April einen Mindestpreis für CO2-Zertifikate ein, der über die Jahre steigen soll. Ähnlich handeln Belgien und die Niederlande. Dänemark und Finnland haben den Ausstieg aus der Kohleenergie per Gesetz beschlossen. China und die USA planen jetzt CO2-Steuern, keine Kopie des europäischen Marktanreizsytems.

So kommt die Regulierung wieder auf die altmodische Art: mit Steuern und Strafen, mit Ge- und Verboten. Und gar nicht europäisch koordiniert.

oder

Die deutschen Wirtschaftsnachrichten berichten wie folgt (mit Dank an Spürnase R. Sibiller):

Handel kostete Europäer 300 Milliarden Dollar

Deutsche Wirtschafts Nachrichten  |  Veröffentlicht: 18.02.13, 17:36  |  Aktualisiert: 19.02.13, 11:28  |  43 Kommentare

Der Handel mit CO2-Emissionszertifikaten in der EU steht vor dem Aus. Das Projekt war ein milliardenschwerer Flop der EU. Wegen des extremen Preisverfalls der CO2-Zertifikate können keine Investitionen finanziert werden. Die europäischen Steuerzahler zahlen auch für dieses Debakel.

Der Handel mit CO2-Emissionszertifikaten in der EU habe die Stromkunden ohne jeden Effekt für das Klima circa 300 Milliarden Dollar gekostet, sagte UBS bereits im Jahr 2011. Doch nun steht das gesamte Projekt vor dem Aus, berichtet Euractiv. Denn da es keine Erfolge vorweisen könne, würden immer mehr EU-Mitgliedsstaaten ihre eigenen Wege gehen….

Eine Abstimmung im EU-Parlament am Dienstag über die Fortsetzung des Projekts steht auf der Kippe. Und selbst wenn das Parlament eine Fortsetzung beschlösse, würden die Preise der Emissionszertifikate in den kommenden Jahren nicht auf die nötigen 40 Euro pro Tonne steigen, um Investitionen in CO2-arme Energien finanzieren zu können (mehr hier). Derzeit liegt der Preis bei 4 Euro… Die EU-Kommission machte 2012 den Vorschlag, vorübergehend das Überangebot an CO2-Zertifikaten zu reduzieren, um die Preise wieder zu erhöhen. Doch der Vorschlag scheiterte am Widerstand Deutschlands und Polens. Vor allem das kohle-abhängige Polen war strikt gegen den erneuten Markteingriff…

Die deutsche Regierung strebt eigentlich auch höhere Preise für die Zertifikate an, um damit Investitionen finanzieren zu können. Doch Kanzlerin Angela Merkel kann erhöhte Stromkosten im Wahlkampf nicht gebrauchen. Die Wähler sind schon unzufrieden genug mit dem massiven Preisanstieg bei Kraftstoffen und beim Heizöl (mehr hier)

Erläuterung zur vorgesehenen Verknappung der Emissionsrechte Quelle CO2 Handel.de :

EU-Umweltausschuss stimmt Reform des Emissionshandels zu (19.02.2013)

Heute (19.02.2013) hat der Umweltausschuss des Europäischen Parlaments (EP) in einer wegweisenden Entscheidung mit deutlicher Mehrheit für die Reform des Emissionshandels gestimmt. In den vergangenen Wochen hatten Unternehmen, Gewerkschaften, Experten und Umweltorganisationen immer wieder auf die verheerenden Folgen einer verschleppten Reparatur des CO2-Handels aufmerksam gemacht.

In der EU wurde schon länger über eine Reform des Emissionshandels gestritten. Durch den geringen Preis der Verschmutzungsrechte kann das System seiner Funktion, Investitionen in EU-Flagge Bild: pixelio / Victor MildenbergerKlimaschutzmaßnahmen anzuregen, nicht mehr gerecht werden. Die EU-Kommission will das System nun stabilisieren, indem sie überschüssige Emissionszertifikate vorübergehend vom Markt nimmt, das sogenannte Backloading.

Insgesamt gefährde ein gewaltiger Überschuss von rund 1,9 Milliarden Emissionszertifikaten das Vertrauen in die Funktionsfähigkeit des Instruments, so die Umweltschutzorganisation WWF. Entgegen der aktuellen Diskussion sei nicht nur die kriselnde europäische Wirtschaft ab dem Jahr 2009 für diesen Überschuss verantwortlich. Falsche Rahmenbedingungen wie beispielsweise die großzügige kostenlose Zuteilung und Nutzung von flexiblen Mechanismen – außerhalb von Europa erbrachte Emissionsreduktion, die angerechnet werden dürfen – hätten die Funktionsfähigkeit des Systems von Anfang an belastet.

Marktknappheit muss wiederhergestellt werden
Der aktuelle Vorschlag der EU-Kommission nur kurzfristig 900 Mio. Zertifikate aus dem Markt zu nehmen, reiche absolut nicht aus. Aus Sicht von Germanwatch, des Verbandes kommunaler Unternehmen (VKU) und des WWF müsse der kurzfristige Eingriff durch langfristige Maßnahmen ergänzt werden. Die jetzt zur Entscheidung anstehende zeitliche Verschiebung der Auktion von Emissionszertifikaten allein hätten keine langfristigen und vor allem nachhaltigen Auswirkungen. Um Knappheit im Markt wieder herzustellen, bedürfe es dringend weiterer Maßnahmen, wie die Verschärfung des sogenannten linearen Reduktionsfaktors und die überfällige Erhöhung des EU Klimaschutzziels auf 30 Prozent bis 2020. Durch die niedrigen Zertifikatserlöse fehlen der Bundesrepublik nun auch fest eingeplante Gelder für Projekte zur Unterstützung der Energiewende. 

Deutsche Unterstützung als Rückhalt der Reform nötig
Nach dem heutigen positiven Beschluss des Umweltausschusses folgt nun bis Ende April eine Abstimmung im Europaparlament sowie im Europäischen Rat. Dafür braucht der Rat dringend Rückendeckung aus Deutschland, damit der Reform-Prozess an Fahrt gewinnt.




Paradigmenwechsel: Klima als Emergenzsystem betrachtet

Langsame Verschiebungen in thermoregulierten Emergenzsystemen

Willis Eschenbach

In meinem letzten Beitrag über “Emergente Klima-Phänomene“ habe ich ein neues Paradigma für das Klima benutzt. Nach dem aktuellen Paradigma ist „Klima“ ein System, in dem die Temperatur sklavisch den Änderungen der „Inputs“ folgt. In meinem Paradigma dagegen lassen natürliche temperaturgeregelte Systeme die Temperatur innerhalb enger Grenzen schwanken. Im letzen Jahrhundert schwankte die Temperatur beispielsweise nur um etwa ± 0.3°C, eine Temperaturvariation von nur einem Zehntel eines Prozents.
Ich meine, dass diese erstaunliche Stabilität in einem System, dessen Temperatur von so etwas veränderlichem und launischem wie Wolken und Wind gesteuert wird, ein klares Anzeichen dafür ist, dass hier ein starker thermostatischer Mechanismus wirkt. Genauer: ein Bündel von ineinandergreifenden thermostatischen Mechanismen im Zusammenwirken beim Regeln der Temperatur. 

Abbildung oben rechts.: Das Verhalten von Vogel- oder von Fischschwärmen ist ein Emergenz-Phänomen. [Definition am Schluss; zu Emergenzsystemen mehr hier]

So erhebt sich also eine Frage: Obwohl die Temperaturänderung recht klein ist – mit Verschiebungen von nur einigen wenigen Zehnteln eines Prozentes pro Jahrhundert – also weniger als einem Grad – steigt zuweilen die durchschnittliche Globaltemperatur, manchmal aber fällt sie.

Was also könnte diese langsamen, Jahrhunderte oder Jahrtausende andauernden Temperaturverschiebungen verursachen? Sind es Veränderungen der Sonne?
Die Erklärung sollte nicht bei der Sonne gesucht werden, sondern nach meiner Auffassung hier:

Das oben erwähnte und von der Temperatur geregelte System beruht auf dem Beginnzeitpunkt und der Dauer von emergenten Temperatur-Phänomenen. Es beruht nicht auf der Stärke von Antrieben (einfallende Sonnen- oder Treibhaus-Strahlung).

Ich meine also, dass das Regelungssystem anspringt, wenn die lokale Temperatur über die kritische Grenze für die Wolkenbildung ansteigt. Im Ergebnis bleibt die globale Durchschnittstemperatur der Erde eigentlich relativ unbeeinflusst von den Veränderungen der Stärke der Antriebe, ob sie nun von der Sonne kommen, vom CO2, von Vulkanen oder sonstwoher. Weil das so ist, verläuft die Temperatur weiter wie bisher, trotz der Vulkanausbrüche oder den Meteoren. Man bedenke, dass das System bei der gegenwärtigen Temperatur ständig variierend etwa ein Viertel der einfallenden Sonnenenergie über die Wolkenreflexion zurückwirft. Es könnte viel wärmer sein, als es tatsächlich ist, das ist aber nicht der Fall.

Das System regelt also die Menge der einfallenden Sonnenenergie so ab, dass die Temperatur innerhalb gewisser Grenzen gehalten wird. Dem Regelungssystem macht es nichts aus, dass der Sonnenantrieb ständig aus vielerlei Gründen schwankt: wegen des Staubs, wegen der Vulkane, wegen der 11- oder 22-jährigen Solarzyklen. Das Thermoregulationssystem beruht nicht darauf, wieviel Energie von der Sonne oder vom CO2 kommt. Die Temperatur beruht nicht auf den tatsächlichen Antrieben: wir wissen, dass es mehr als genug Antriebe gibt, die uns braten könnten. Die Temperatur wird stattdessen von den ewigen Gesetzen der Physik des Windes, der Wellen, des Drucks geregelt, und vor allem durch die Wolkenbildung. Wenn die Sonne hochsteigt, steigen die Wolken mit hoch, die Balance wird gehalten.

Und hier ist meine Erklärung, warum es so schwer ist, ein starkes und klares solares Signal in den Temperaturganglinien zu finden.  Ja, ja, man kann Anzeichen finden, kleine Fetzchen, schwache Korrelationen hie und da, doch insgesamt sind kaum Sonne-Klima-Korrelationen zu finden, die dem gegenwärtigen Paradigma zufolge sichtbare Wirkungen zeigen müssten. Ich halte dies für den Beweis, dass ingesamt die globale Durchschnittstemperatur keine Funktion des Antriebs ist. Die Sonne wird schwächer und stärker, Vulkane sind seit Jahrhunderten ausgebrochen, Meteore haben die Erde getroffen … die Wolken passen sich ganz einfach an und bescheren uns eine gleichbleibende Wärme. Diese schwache Abhängigkeit des Outputs vom Input ist genau das, was man in jedem sehr komplexen System zu erwarten hat.

Wenn die Sonne nicht die Ursache des über Jahrhunderte andauernden langsamen Anstiegs oder Absinkens der globalen Durchschnittstemperatur an der Erdoberfläche ist, welche möglichen anderen Beschuldigten können wir dann vor Gericht zitieren?

Die üblichen Verdächtigen würden im Bereich von Faktoren zu finden sein, welche mit dem Anfang und der Dauer der Wolkenbildung und deren Beständigkeit zu tun hat, oder auch mit ihrer Albedo (Färbung). Unglücklicherweise ist die Wolkenbildung ein komplexer und noch kaum verstandener Vorgang. Wassertröpfchen in Wolken bilden sich um einen “Nukleus”, eine Art von Partikel. Das kann Meersalz sein, Staub, organisches Material, Aerosole, verschiedene Typen und Arten von Mikro-Organismen, schwarzer Ruß; es gibt eine ganze Menge von bekannten Faktoren, aber keine klaren Beweise, wie oder warum es so oder anders ist, oder wie die Faktoren wirken, wenn sie sich verändern. Hier ist ein Zitat aus dem Abstract eines wissenschaftlichen Papiers von 2013. (Hervorhebung vom Autor):

Die Zusammensetzung und das Vorkommen von Mikroorganismen in der mittleren bis oberen Troposphäre (8–15 km Höhe) und deren Rolle bei der Interaktion zwischen dem Aerosol-Wolken-Niederschlag stellt wichtige und ungelöste Fragen an die Biologie und die Atmosphärenwissenschaft. Insbesondere kennen wir die Mikroorganismen in der Luft über den Meeren nicht, da bis jetzt die meiste Arbeit auf Proben beschränkt ist, die nahe der Erdoberfläche genommen worden sind. (Quelle)

Noch ein Beispiel:

Cumulus-Wolken bilden sich durch den Aufstieg feuchter Luftpakete. Eine  ungelöste Frage der Wolkenphysik ist, warum beobachtete Tröpfchenspektren aus Cumuluswolken, sogar aus deren Mitte, breiter sind, als die Spektren, die aus der Tröpfchen-Nukleation und der Kondensationszunahme in adiabatisch aufsteigenden Luftpaketen zu erwarten sind. (Pruppacher and Klett, 1997). (Quelle)

Cumulus-Wolken sind eine der am weitesten verbreiteten Arten und noch nicht einmal deren Wolken-Nukleation haben wir verstanden. Das Problem liegt darin, dass so viele Faktoren Einfluss auf die Entstehung und Dauer der Wolkenbildung und des Niederschlags haben: Größe und Zusammensetzung der atmosphärischen Aerosole, die komplexe Interaktion zwischen den Aerosolen und den verschiedenen organischen und anorganischen atmosphärischen Chemikalien, Ionen, freien Radikalen, natürlichen und menschengemachten Partikeln, dazu die verschiedenen Typen und Mengen von Mikrobenpopulationen in der Atmosphäre, dazu die Fähigkeit einer Chemikalie, sich mit einer anderen zu verbinden und dadurch die Oberflächeneigenschaften einer anderen Substanz völlig zu verändern. Das alles hat das Potential, die Entstehung und Dauer des Niederschlags und der Wolkenbildung zu beeinflussen, dazu noch deren optische Eigenschaften. Weil das so ist, mischen sie alle kräftig mit, wenn es um Temperaturverschiebungen im Jahrhundert-Maßstab geht (vielleicht auch über kürzere Zeiträume).

Eine weitere Ursache für die langsame Verschiebung könnte in einem vermuteten Zusammenhang mit der kosmischen Strahlung liegen, in der Kette

solares Magnetfeld –> Veränderung der kosmischen Strahlung –> Änderungen in der Wolken-Nukleationsrate.

Ich sehe keinen theoretischen Grund, warum das nach den bestehenden Gesetzen der Physik unmöglich sein sollte.
Als Kind habe ich eine “Nebelkammer” gebastelt, um die aus einer Armbanduhr kommende Radioaktivität zu sehen. Ein Problem bei der Frage nach der kosmischen Strahlung besteht aber darin, dass keine starken Korrelationen zwischen der Sonne und dem Klima gefunden worden sind, trotz des ausgiebigen Durchkämmens der Temperatur-Ganglinien auf Hinweise für eine Sonne/Klima-Verbindung. Es gibt schwache Korrelationen, aber nichts Auffälliges. Das heißt nicht, dass es sie nicht gäbe, es könnten aber Anzeichen für deren Schwäche sein … oder auch Anzeichen für unsere Unkenntnis …

Ein weiterer Grund könnte in den Auswirkung der allmählichen Veränderung im Erdmagnetfeld auf die Gewitter liegen. Gewitter haben ein riesiges und ein noch kaum verstandenes elektromagnetisches Komplement (man denke nur an die Blitzschläge). Sie bewirken einen unglaublich komplexen elektromagnetischen Austausch, der die Atmosphäre mit der Erdoberfläche verbindet. Das elektromagnetische Komplement verbindet sie elektromagnetisch von den „Kobolden“ [Näheres hier], die sich in den Gewittertürmen hoch über der umgebenden Tropopause bilden, bis hinunter auf die Erde, wo über flüchtige mattleuchtende Kanäle elektromagnetische Ströme auf und nieder laufen.

Gewitter sind zudem unabhängige natürliche elektrische Van-de-Graaf-Maschinen, sie strippen Elektronen in einem Bereich des Gewitters, transportieren sie meilenweit weg und fügen sie wieder in einem elektrischen Donnerbogen an. Wir wissen überhaupt nicht, welche Erscheinungen welche Wirkungen wie lange auf Gewitter ausüben, wie z. B. die langsame Veränderung der Magnetpole wirkt, wie die Veränderungen der Magnetosphäre oder des Sonnenwindes. Wir müssen also die langsamen Veränderungen der globalen magnetischen und elektrischen Felder in unsere Liste der Wirkmöglichkeiten aufnehmen, allein schon deshalb, weil wir so wenig darüber wissen.

Die nächste Möglichkeit für langsame Veränderungen hat mit der Idee der Scheidepunkte zu tun (bifurcation points). Nehmen wir als Beispiel den Wechsel zwischen den zwei Zuständen der Pazifischen Dekadischen Oszillation (PDO). In jedem Zustand der PDO gibt es eine quasi-stabile (jahrzehntelange) Konfiguration der Meeresströmungen. Zu gewissen Zeitpunkten – wir wissen nicht, warum – ändert sich diese Konfiguration der Meeresströmungen und sie wird ersetzt durch einen völlig neuen und anderen quasi-stabilen (jahrzehntelangen) Zustand. Anders gesagt: da gibt es irgendwo drin einen Scheidepunkt im jährlichen Anschwellen und Abnehmen der Strömungen und irgendwann nehmen die Strömungen einen anderen Verlauf als bislang. Schließlich wechselt der gesamte Nordpazifik in einen anderen Zustand.

Allein schon theoretisch muss einer dieser beiden Zustände wirksamer als der andere sein in der großen Wärmemaschine, die wir “Klima” nennen. Mit viel  Arbeit wird Energie vom Äquator zu den Polen bewegt. Und es gibt tatsächlich einen deutlichen Unterschied. Einer der beiden Zustände heißt „warm“, der andere „kalt“.

Auf den ersten Blick müsste man denken:

FALLS die Pazifische Dekadische Oszillation ständig im gleichen Zustand verbliebe – aus welchen Gründen auch immer – würde die Welt insgesamt wärmer oder kälter sein.

Aber nun möchte ich erklären, warum meiner Meinung nach PDO oder El Nino/La Nina, oder die Nordatlantischen Oszillationen nichts mit den langsamen Temperaturverschiebungen im Temperaturregelsystem zu tun haben.

Der Grund ist, dass hier überall Emergenzsystem-Phänomene vorliegen, wie bei den Gewittern. Nehmen wir die PDO als Beispiel: In Bezug auf den Pazifik würden wir niemals sagen: “Ich wette, dass der Nordpazifik für viele Jahrzehnte warm bleibt, dann kommt es eine große Wende, das gesamte Leben im Meer wird anders, die Winde verändern sich, auch alle Strömungen, und dann wird es viele Jahrzehnte lang kalt sein.“
Eine derartige Vermutung ist überhaupt nicht zulässig. Es liegt nämlich Emergenz vor.

Und ich meine, was für Emergenzsysteme gilt, gilt auch für Bestandteile des verbundenen interkontinentalen Temperaturregelsystems sind. Es enthält meines Erachtens kurzlebige Emergenzsysteme (tägliche Gewitter), mittelfristige (mehrmonatige Madden-Julian-Oszillationen), längerfristige (Wolken, im Sommer kühlend, im Winter wärmend), langfristige (3 bis 5-jährige El Nino/La Nina-Phasen), und sehr langfristige (multidekadische PDO, AMO). Es sind Emergenzsysteme unterschiedlicher Arten, die bei der Aufrechterhaltung einer konstanten Temperatur zusammenwirken. Es gibt davon noch viel mehr, die hier nicht aufgeführt sind.

Schließlich meine ich, dass keines dieser Emergenzsysteme ursächlich für eine langsame Verschiebung ist. Ganz im Gegenteil, ich meine, sie wirken anders herum gegen die langsame Verschiebung und verhindern eine Überhitzung.

Setzen wir hier an, so finden wir direkt Möglichkeiten für menschlich verursachte Veränderungen – Öl auf den Weltmeeren. Es braucht nur eine ganz dünne, fast mono-molekulare Ölschicht auf dem Wasser – und davon haben wir eine Menge erzeugt -, um die Oberflächenspannung zu verändern. Dadurch wird die Verdampfung auf zweierlei Weise reduziert: Einmal direkt durch die Wassermenge, die in unmittelbarem Kontakt zur Luft steht, und zum Anderen durch das Unterbinden der Bildung von Brechern, Versprühungen und Gischt.

Versprühung jedweder Art erhöht die für die Verdampfung zur Verfügung stehende Wasseroberfläche erheblich, je nach Windgeschwindigkeit. Erinnert sei daran, dass die Verdampfung durch den Wind die Ursache für die Selbsterhaltung der Gewitter ist. Wenn also die Ausdehnung der Verdampfungsfläche wegen des Fehlens von Versprühungen um zehn oder zwanzig Prozent vermindert wird, wird gleichermaßen die Verdampfung vermindert und so Entstehungszeitpunkt und Dauer der Gewitter beeinflußt.

Das möchte ich Ihnen nicht vorenthalten: Gerade hatte ich beim Schreiben des letzten Absatzes gedacht  “Man braucht Zeit für mehr Forschung”, da stoße ich auf das hier:

Seeleute, die traditionell Fässer voller Öl auf das Meer gossen, um stürmische Wasser zu glätten, waren damit ganz einfallsreich, wie eine neue Studie meint. Einem neuen mathematischen „Sandwich-Modell“ zufolge vermindert dieses altbekannte Vorgehen die Windgeschwindigkeit in tropischen Wirbelstürmen, indem es die Gischt unterdrückt.

Wenn die Hurrikan-Winde die Meereswogen aufpeitschen, geraten große Wassertropfen in die Luft und verbleiben dort. Diese Gischtwolke kann mathematisch wie eine dritte Flüssigkeitsschicht zwischen der Luft und dem Meer behandelt werden. “Unsere Rechnungen beweisen, dass die Tropfen in der Gischt die Turbulenz und Reibung vermindern und dadurch höhere Windgeschwindigkeiten erlauben – zuweilen bis zu achtmal,“ meint der Forscher Alexandre Chorin von der University of California in Berkeley, US.

Er glaubt, dass diese Erkenntnis ein altes Meeresritual erklärt. „Die alten Seebären gossen Öl auf die tobenden Wogen, um sie zu glätten – daher die Redensart – aber man wusste nie so genau, warum das so war,” sagt Chorin. Er meint, weil Öl die Tropfenbildung verhindert, verstärkt es die Reibung in der Luft und vermindert daher die Stärke der Böen. (Quelle)

Hmmm …  Gute Wissenschaftler, weniger gute Seeleute!
Ich glaube, sie haben als Wissenschaftler nur einen Teil der Erklärung. Sie sollten mal ausrechnen, wie sich die Verdampfungsfläche in der Gischt durch das Versprühen erhöht und dann daran denken, dass ein Hurrikan aus der Verdampfung seine Kraft bezieht. Deswegen sterben Hurrikane über Land: es fehlt die Feuchtigkeit.
Verhinderung der Gischt durch auf die Wogen gegossenes Öl stoppt die Verdampfung! Die Kraft des Sturms ist gebrochen. So wie es einem heißer und schwitziger wird, wenn ein feuchter Tag die Verdampfung verhindert, so ergeht es auch dem Meer. Wenn man die Verdampfung abstellt, wird es wärmer.

Das Gegenargument gegen die Hypothese vom „Öl-auf-die-Wogen verhindert die Verdampfung und erwärmt das Meer“ kommt aus dem 2. Weltkrieg. Während des Krieges wurde mehr Öl ins Meer gegossen als je zuvor und nachher, aber während des Krieges war es generell recht kühl …
Verflixt nochmal! die Tatsachen stehen doch immer im Weg!

Also, ich kenne mich auf der hohen See aus und ich kann Ihnen versichern, dass die Autoren jener Studie keine Seeleute sind. Seeleute kippen nicht Öl ins Meer, um die Windgeschwindigkeit zu vermindern, das gehört ins Reich der Phantasie der Landratten. Sie tun es, weil es die Wogen am Brechen hindert und die Tropfen und Gischtbildung unterbindet. Auf diese Weise hilft es in rauher See.
Man braucht nicht viel dazu, Sie würden sich über die Wirkung wundern: Tränken Sie einen Lumpen in Motoröl und ziehen Sie ihn ein Stück hinter dem Boot her, wenn Sie vor dem Wind treiben. Wenn die Küstenwache Sie dabei erwischt, kriegen Sie mit Recht einen Strafzettel wegen Ihres Ölfilms auf dem Wasser, aber wenn es Ihr Lebensretter ist, ist es das wert. Pech, wenn Sie in einem dicken ablandigen Sturm sitzen. Aber wenn es einen Beruhigungseffekt hat und Ihren persönlichen Angstfaktor reduziert, ist es trotzdem den Versuch wert … Aber ich schweife ab.

Eins allerdings muss klar sein. Das Klima ist in einer langsamen Auf- und Abwärtsverschiebung: warm zur Römerzeit, kalt im Dunklen Mittelalter, warm im Hohen Mittelalter, kalt während der Kleinen Eiszeit, jetzt wieder warm …
Die Menschen könnten tatsächlich eine Rolle während der Verschiebung in den Nach-1940ern spielen (erst runter, dann hoch, heute geradeaus). Wahrscheinlich spielt es keine große Rolle, sonst hätten wir es sicher bemerkt. Falls wir aber trotzdem etwas damit zu tun haben, wissen wir immer noch nicht, wie und warum.

Ich schließe mit dem Hinweis auf die Suggestivwirkung des Paradigmas. Wenn das Paradigma sagt, dass Treibhausgase die wahrscheinliche Ursache für die langsame Klimaverschiebung sind, weil man behauptet (kurioserweise und zudem falsch), dass die Temperatur dem Antrieb sklavisch folgt, dann wird man auch nach allen Veränderungen suchen, die Auswirkungen auf die Treibhausgase haben.

Wenn sich das Paradigma aber wandeln würde und wir das Klima als eine Zusammensetzung von interagierenden aktiven temperaturgeregelten Mechanismen begriffen, würden wir eine ganze Reihe von völlig anderen und glaubwürdigeren Kandidaten für die langsame Verschiebung finden, die noch nicht beachtet wurden und unerforscht sind. Es kann etwas sein, wie oben beschrieben, oder auch etwas, was ich überhaupt nicht bedacht habe, wie z. B. die Einwirkung des Planktons auf die Veränderung der Wolken, oder so ähnlich.

Deshalb klingt die Behauptung so hohl, wir hätten die “großen Antriebe” erkannt, also CO2 und Methangase. Dies sind nur die hauptsächlichen Spieler im aktuell gültigen Paradigma. Das Problem dabei ist, dass Paradigmen kein System erklären können, das in engen Grenzen so thermoreguliert ist, dass während des vergangenen Jahrhunderts die globale Durchschnittstemperatur an der Erdoberfläche nur um etwa ± ein Zehntel Prozent geschwankt hat …
Die Ingenieure mögen mich bitte korrigieren, wenn ich falsch liege, aber angesichts der Vulkane und Aerosole und alle dem Übrigen ist das ein Ergebnis, worüber ein Ingenieur von Steuerungssystemen stolz wäre. Und das Ergebnis wird mit so flüchtigen Dingen wie den Wolken erzeugt. Für mich stellt diese Tatsache allein den Beweis dar, dass die Erde einen Thermostaten hat, und der ist verdammt genau für diesen Zweck. Wir haben wirklich eine Welt voller Wunder.

In Freundschaft und angesichts der oben beschriebenen Wunder

w.[illis]

##########################

Übersetzung: Helmut Jäger, EIKE

Original hier

Hier sind weitere Artikel von Willis Eschenbach.

#############

Beispiel für eine Definition von „Emergenz“

Ein wesentliches Kennzeichen komplexer Systeme ist … Emergenz, worunter man sich vorstellt, „[…] daß in einem weitgehend kausalen Ablauf durch das Zusammentreten von Bauteilen völlig neue, und zwar unvorhersehbar neue, nie dagewesene Eigenschaften zutage kommen“. (RIEDL 2000, 11)

zit. n. Koch, Andreas:
Modellierung und Simulation komplexer geographischer Systeme.
Eine systemtheoretische Betrachtung zur Komplexität sozialer und räumlicher Systeme.
Aus: Salzburger Geographische Arbeiten, Band 43, S. 9 – 31. Salzburg 2008

##########################

Siehe auch hier in WIKIPEDIA




Ein amerikanischer Ölfund, der mehr Öl als die gesamte OPEC enthält

Bild rechts: Eine Anfangserkundung 40 Meilen [ca. 64 km] nordwestlich der Stadt Rifle in Colorado von der American Shale Oil LLC. Sie befindet sich über der Green-River-Schieferformation, die Schätzungen zufolge 3 Billionen Barrel Öl enthalten soll.

Ein vor Kurzem erschienener Bericht des Government Accountability Office (GAO) in den USA schätzte, dass wenn auch nur die Hälfte des gefundenen Öls abgebaut werden könnte, dies „äquivalent mit den nachgewiesenen Ölreserven der ganzen Welt“ wäre.

Sowohl das GAO als auch die Privatindustrie schätzen die förderbare Menge auf 3 Billionen Barrel.

„Während der letzten 100 Jahre haben wir 1 Billion Barrel Öl verbraucht. Hier liegt viele Male diese Menge“, sagt Roger Day, Vizepräsident der für Operationen zuständigen Abteilung bei der American Shale Oil (AMSO).

Die Bohrung in Green River erfolgt, während der Schieferbergbau in den USA boomt, und in einem Bericht sagt die International Energy Agency IEA voraus, dass die USA bis zum Jahr 2020 zum größten Ölerzeuger der Welt werden würden. Diese Ölschwemme kann massive Auswirkungen sowohl für die US-Wirtschaft als auch für die auf der zunehmenden Verknappung von Öl basierende Außenpolitik haben.

Der IEA-Bericht nennt keine Details, woher das amerikanische Öl kommen soll, aber die größte Lagerstätte ist die Green-River-Formation, die in irgendeiner signifikanten Weise ausgebeutet werden muss.

Diese äußerst verlockende Bonanza verbleibt jedoch zumindest derzeit noch außer Reichweite. Die Kosten der Förderung des Öls von Green River wären momentan noch höher als der erzielbare Verkaufserlös. Außerdem gibt es wichtige umweltliche Hindernisse.

Die Operation könnte einen so hohen Wasserverbrauch erfordern, dass es mit Denver und landwirtschaftlichen Belangen in Konkurrenz stehen würde. Außerdem könnten Warnungen der GAO zufolge unterirdische Wasserströme verschmutzt werden mit Auswirkungen auf die Fisch- und andere Wildbestände. Und es könnte so viel Schmutz aufgewirbelt werden, dass es nationale Monumente hinter einer Staubwolke verschwinden lassen könnte.

Nichtsdestotrotz hat die Bundesregierung [der USA] sechs Lizenzen für experimentelle Bohrungen auf öffentlichem Land genehmigt, um einen Weg zu finden, an die Reichtümer der Green-River-Formation doch noch heranzukommen.

Die American Shale von Day besitzt eine Lizenz über 160 Acres [ca. 64 ha] etwa 40 Meilen [ca. 64 km] nordwestlich von Rifle, Colorado. Es hat bereits in einem Pilotprojekt Öl erzeugt und steht jetzt in den Startlöchern, sobald die notwendigen Genehmigungen der Regierung kommen, um in größerem Maßstab zu produzieren.

Die Ölförderung aus dem Green-River-Schiefer ist etwas Anderes als die Öl- und Gasförderung aus anderen Lagerstätten. Sie muss hier mit der kontrovers gesehenen „Fracking“-Methode erfolgen, mit der der Fels im Untergrund mit unter hohem Druck stehendem und mit ein paar Chemikalien versetztem Wasser gebrochen wird.

Die Kohlenwasserstoffe im Green-River-Schiefer sind viel stärker mit dem Fels verbunden, so dass man sie mit Fracking nicht einfach freisetzen kann. Der Schiefer muss auf 5000 Grad Fahrenheit [ca. 800°C] erhitzt werden, bevor er sein Öl freigibt.

Die Erzeuger haben versucht, dies auf zweierlei Weise zu bewerkstelligen: Entweder man fördert den Schiefer zutage und erhitzt es, oder man versenkt eine tiefe Röhre und packt einen Ofen auf den Grund. Dieser Prozess wird in-situ genannt. Bei AMSO hat man in-situ mit unterschiedlichem Erfolg getestet.

„Wir haben einen 600-Kilowatt-Ofen 2100 Fuß [ca. 640 m] unter der Erdoberfläche installiert“, sagte Day. „Der Gedanke dahinter war, dass dies den Schiefer erhitzen und das wiederum zur Verflüssigung der festen Kohlenwasserstoffe in flüssiges Öl und Gas führen würde. Dieses könnte dann nach oben befördert werden“.

Es ging nicht so ganz glatt [1000 feet = ca. 300 m].

„Wir haben ihn Anfang Januar installiert”, erklärt Day hinsichtlich des Ofens, „aber er brannte aus wie Ihr Toaster, nur dass die Reparatur dieses Toasters viele Millionen Dollar kostet. Gerade im vorigen Monat haben wir herausgefunden, was da schief gegangen ist. Wir erwarten, den Ofen im Dezember erneut installieren zu können. Wenn wir Glück haben, können wir den Untergrund noch vor Ende dieses Jahres wieder erhitzen“.

Wenn alles glatt läuft und AMSO von der Regierung grünes Licht bekommt, könnte das halbe Dutzend Bohrlöcher der Firma von Anfang an etwa 1000 Barrel pro Tag fördern. Später, auf dem Höhepunkt der Förderung, schätzt Day, dass es „30 Jahre lang etwa 100 000 Barrel pro Tag sein könnten“.

Enefit, ein Ölproduzent mit Hauptquartier in Estland, hat in Europa der Direktorin des Tochterunternehmens Enefit Amarican Oil zufolge bereits seit mehr als 30 Jahren Öl aus Schiefer gefördert. Rikki Hrenko erläutert, dass Enefit den Schiefer zutage fördert und ihn dann in Retorten erhitzt.

„Es ist arbeitsintensiver, den Schiefer abzubauen“, sagte Hrenko. „Aber wirtschaftlich ist das Verfahren sehr brauchbar“. Sie taxiert den Erzeugerpreis auf etwa 65 Dollar pro Barrel. Die Kosten der Erzeugung in Utah werden ihrer Meinung nach nur wenig höher liegen als in Estland.

Enefit least seine Tochter in Utah nicht von der US-Regierung, sondern sie gehört ihr. „Wir haben sie im März 2011 gekauft“, sagte Hrenko. Ziel der Firma ist es, alle erforderlichen Genehmigungen bis Ende 2016 zu haben. Danach wolle man mit dem Bau beginnen. Die kommerzielle Ölförderung soll dann bis zum Jahr 2020 mit 25 000 Barrel pro Tag in Gang kommen.

Unter den Hindernissen, denen sich die Möchtegern-Produzenten von Green River gegenüber sehen, befinden sich dem GAO-Bericht zufolge Umweltkosten, an erster Stelle der Wasserverbrauch. Gegenwärtige Schätzungen, wie viel Wasser man brauchen würde, um das Potential von Green River zu erschließen, „variieren erheblich“, wird in dem Bericht eingeräumt. Aber Wasser ist im ariden Westen ohnehin schon knapp, und Landwirte sowie Umweltaktivisten beäugen aufmerksam den potentiellen Durst der Ölindustrie.

Ölvorräte von Green River sind größer als die der OPEC

Wasser bräuchte man nicht nur für das Fracking, sondern auch als Gleitmittel beim Bohren. Frank Rusco, GAO-Direktor für Energie und Wissenschaft, erklärte ABC News, dass das Wasser auch als Dampf benutzt würde, „um den Ölfluss zu stimulieren“. Wasser braucht man auch an jeder Bohrstelle zur Neutralisierung von Staub und zum Kühlen.

Day erwartet, dass die in-situ-Bohrungen der AMSO wasserneutral sein werden. Bisherige Experimente zeigen, dass die Firma pro extrahiertem Barrel Öl ein Barrel Wasser aus dem Fels erhalten könne. AMSO plant, zur Kühlung nicht Wasser, sondern Radiatoren zu verwenden.

Rusco bezweifelt, dass schon bald substantielle Mengen Öl aus Green River gefördert werden können, weil die Produktion noch nicht ökonomisch ist. Die Erzeugung eines Barrels Öl kostet mehr als der Preis beim Verkauf auf dem Weltmarkt einbringt. In dem GAO-Bericht heißt es, dass die kommerzielle Ölförderung „mindestens noch 15 bis 20 Jahre in der Zukunft liegt“.

Glenn Vawter, geschäftsführender Direktor der National Oil Shale Association in Glenwood Springs, ist sich da nicht so sicher. Derzeit kostet es ihre Mitglieder irgendetwas zwischen 40 und 80 Dollar, ein Barrel Öl aus Schiefer zu erzeugen, je nachdem, welche Technologie sie verwenden. Der Ölpreis, der gegenwärtig bei 86 Dollar pro Barrel liegt, war schon einmal über 100 Dollar gestiegen und wird weiterhin fluktuieren. Auch weist er darauf hin, dass sich die Technologie weiter entwickelt.

Ein kanadischer Ölproduzent hat mit Radiowellen experimentiert, um den Fels zu erhitzen.

„Das Ökonomische bleibt erst einmal noch etwas spekulativ”, sagte Vawter, aber er glaubt, dass die „Big Production“ höchstens noch 10 Jahre auf sich warten lassen wird.

Es ist keine Frage, sagt Rusco, dass sich da unten tatsächlich das Öl befindet, alle 3 Billionen davon.

„Die Technologie zum Erreichen der Ölreserven ist ziemlich gut“, sagte Rusco, „ich sage nicht, dass es nicht große Fehlergrenzen gibt, aber man kann sicher sein, dass dort unten eine sehr, sehr große Menge Öl gebunden ist, das gefördert werden kann. Bislang jedoch kann es lediglich noch nicht profitabel gefördert werden“.

Alan Farnham, ABC News

see also: 3 Trillion Barrels of Oil Equivalent from Green River Kerogens: What Does It Mean?

Link: http://www.thegwpf.org/american-oil-find-holds-opec/

Übersetzt von Chris Frey EIKE




Klimaforscher Hansens Hütchenspiel

Abbildung 1 rechts: Der Taschenspieler von Hieronymus Bosch, gemalt 1475 bis 1480. Man nimmt an, dass die Art von Tricks des Taschenspielers unter den Ursprüngen des Hütchenspiels sind.

Ich bringe das hier, weil unser bevorzugter Spieler, James Hansen, wieder seine alten Tricks vorführt. Es gibt eine neue Studie von ihm unter dem Titel Paleoclimate Implications for Human-Made Climate Change (etwa: Paläoklimatische Auswirkungen auf die menschengemachte Klimaänderung). Und wie immer muss man herausfinden, unter welcher Muschel sich die Erbse versteckt.

Hier folgt sein Geldgraph, der in der Blogosphäre sehr viel Aufmerksamkeit bekommt. Die wesentliche Beobachtung der Leute, die ich gesehen habe, ist die, dass Hansen nach den bisher gescheiterten Prognosen sich jetzt der bewährten Nostradamus-Route zuwendet und einen Meeresspiegelanstieg für die Zeit vorhersagt, wenn er 137 Jahre oder so alt ist…

 

Abbildung 2: Hansens Abbildung 7 – ORIGINAL-BILDUNTERSCHRIFT: „Änderung des Meeresspiegels um 5 Meter unter der Annahme linearer und exponentieller Änderung (Hansen 2007), letzteres mit einer Verdoppelungszeit von 10 Jahren“.

Die Leute sagen, dass die schlechte Nachricht lautet, es sieht so aus, als ob wir vor 2040 nicht in der Lage sein werden zu prüfen, ob Hansens Behauptung zutrifft. Aber darum geht es überhaupt nicht. Diese Leute beobachten die Erbse nicht genau genug.

In der Studie von Hansen heißt es:

Das IPCC (2007) projizierte einen Anstieg des Meeresspiegels bis zum Ende dieses Jahrhunderts um 29 cm (im Mittel 20 bis 43 cm, in voller Bandbreite 18 bis 59 cm). In diesen Projektionen sind jedoch nicht die Beiträge der Dynamik der Eisschilde enthalten, weil die Physik dieser Eisschilde nicht gut genug verstanden ist.

Rahmstorf (2007) trug mit einem wichtigen Hinweis zur Diskussion um den Meeresspiegel bei, indem er darauf hinwies, dass selbst eine lineare Beziehung zwischen der globalen Temperatur und der Rate des Meeresspiegelanstiegs, kalibriert mit den Daten aus dem 20. Jahrhundert, einen solchen Anstieg um einen Meter impliziert unter der Voraussetzung der globalen Erwärmung durch BAU Treibhausgasemissionen. …

… Hansen (2005, 2007) argumentiert, dass sich verstärkende Rückkopplungen die Auflösung der Eisschilde notwendigerweise hochgradig nicht linear machen, und dass der BAU-Antrieb [BAU = Business As Usual]  des IPCC so gewaltig ist, dass schwierig zu erkennen ist, wie die Eisschilde das überstehen könnten. Mit der zunehmenden Erwärmung wird die Anzahl der zum Massenverlust beitragenden Eisströme zunehmen und so zu einer nichtlinearen Reaktion beitragen, der man sich besser durch eine exponentielle als eine lineare Approximation annähert. Hansen (2007) schlug vor, dass eine zeitliche Verdoppelung von 10 Jahren plausibel wäre, und wies darauf hin, dass eine solche Verdoppelung bei einem angenommenen Anstieg von 1 mm pro Jahr in der Dekade von 2005 bis 2015 zu einem kumulativen Anstieg um 5 m bis 2095 führen würde.

Die Kurzversion hiervon lautet:

  • Das IPCC prognostiziert einen Meeresspiegelanstieg um 30 cm, aber sie berücksichtigen das Eis nicht.

  • Rahmstorf sagt, dass eine lineare Projektion einen Anstieg des Meeresspiegels um etwa einen Meter ergibt.

  • Hansen 2007 sagt, dass in Rahmstorfs Arbeit ein exponentieller Term fehlt, weil das Eis mit jedem Jahr schneller schmilzt.

OK, Hansen ruht sich also auf den Behauptungen aus, die er 2007 aufgestellt hat, die sich als  Scientific reticence and sea level rise (etwa: Wissenschaftliche Zurückhaltung und Anstieg des Meeresspiegels) herausgestellt haben. Am Ende von Abschnitt 4 sagt Hansen, dass Rahmstorf einen Anstieg um 1 Meter schätzt, aber dass der Term des nichtlinearen Abschmelzen des Eises zu dem von Rahmstorf angenommenen Anstieg addiert werden sollte.

Unter dem BAU-Antrieb im 21, Jahrhundert wird der Meeresspiegelanstieg sicher von einem dritten Term dominiert werden: (3) die Auflösung der Eisschilde. Dieser Term war während der letzten paar Jahre klein, aber er hat sich im vergangenen Jahrzehnt zumindest verdoppelt und liegt momentan bei etwa 1 mm pro Jahr, basierend auf den oben diskutierten Satellitenmessungen. … Nehmen wir als ein quantitatives Beispiel an, dass der Beitrag der [schmelzenden] Eisschilde im Jahrzehnt von 2005 bis 2015 1 cm betrage und dass er sich mit jedem Jahrzehnt verdoppelt, bis der westantarktische Eisschild weitgehend verschwunden ist. Mit dieser Zeitkonstante ergibt sich ein Meeresspiegelanstieg in der Größenordnung von 5 m in diesem Jahrhundert.

Um also zu der letztendlichen Projektion von Hansen zu kommen, müssen wir uns anschauen, was Rahmstorf in seiner Studie A Semi-Empirical Approach to Projecting Future Sea-Level Rise an die Wand malt. Darin finden wir diese Graphik des projizierten Meeresspiegelanstiegs:

 

Abbildung 3: Die Rahmstorf’sche Schätzung des Meeresspiegelanstiegs, von der Hansen sagt, dass man einen exponentiell zunehmenden Eisterm addieren sollte.

ORIGINAL-BILDUNTERSCHRIFT: Der Meeresspiegel in der Vergangenheit und projiziert in die Zukunft von 1990 bis 2100, basierend auf den Projektionen der globalen Mitteltemperatur des dritten IPCC-Zustandsberichtes. Die graue Spannbreite der Unsicherheit umfasst die Bandbreite der Temperaturänderung von 1,4°C bis 5,8°C und wurde mit der statistischen Ausgleichskurve in Abbildung 2 kombiniert. Die gestrichelten grauen Linien zeigen die zusätzliche Unsicherheit aufgrund der statistischen Fehler der Anpassung in Abbildung 2. Bunte gestrichelte Linien repräsentieren die individuellen Szenarien in (1). {Referenz 1 ist die 3. IPCC-Klimabibel, ohne eine Seitenangabe}; die hellblaue Linie folgt dem A1FI-Szenario und die gelbe Linie dem B1-Szenario.

(Nebenbei möchte ich dagegen protestieren, dass lediglich der gesamte Dritte Zustandsbericht des IPCC genannt wird, Tausende von Seiten, ohne Angabe von Kapitel und Seitenzahl. Mein Hochschullehrer hätte mir dafür was auf die Finger gegeben; es ist ein Witz.)

Die obere blaue Linie ist diejenige, die uns etwa einen Meter Anstieg des Meeresspiegels zeigt. Also habe ich sie als Rahmstorfs 1-Meter-Prognose angesehen. Dazu habe ich Hansens Aussage zufolge, dass wir das tun sollten, einen Anstieg addiert, der bei 0,5 cm im Jahr 2000 beginnt und sich alle zehn Jahre verdoppelt. Dies entspricht Hansens Behauptung, dass das nichtlineare Verschwinden des Eises ein Extraterm ist, der klein anfängt, dann aber im Laufe des Jahrhunderts „den Meeresspiegelanstieg dominieren“ wird. Dieses Ergebnis zeigt Abbildung 4.


Abbildung 4: Rahmstorfs vorhergesagter Anstieg (blau), Hansens projizierter zusätzlicher Anstieg aus dem „nichtlinearen Verschwinden des Eises“ (dunkelrot) und der Gesamtanstieg (grün), vorhergesagt von Hansen 2011. Ich habe noch den Anstieg des vorigen Jahrhunderts um 16 cm hinzugefügt, wie er von Rahmstorf in der unteren rechten Ecke zu Vergleichszwecken berechnet worden ist. BILDQUELLE

OK, was Hansen also vorhersagt, repräsentiert die grüne Linie. Allerdings ist seine tatsächliche Vorhersage in Wirklichkeit viel schlimmer. Noch einmal Hansen, Hervorhebung durch mich:

Der mögliche Anstieg des Meeresspiegels aufgrund der erwarteten globalen Erwärmung unter den genannten Treibhausgasszenarien beträgt mehrere zehn Meter, wie zu Beginn dieses Abschnitts dargelegt.

Ich gehe davon aus, dass mit „mehreren zehn“ mehr als zwei gemeint sind, so dass er eine Vorhersage von 30 Metern Meeresspiegelanstieg!!! macht … Ich glaube, dass er davon ausging, dass niemand aufmerksam werden würde, als Al Gore uns mit seiner Bedrohung durch einen Anstieg um 20 Meter gekommen war. Also hat er alle Register gezogen und wirklich Angst eingejagt hat, die uns in unseren Grundfesten erschüttern soll.

Es gibt jedoch ein paar gute Nachrichten. Sowohl Rahmstorfs als auch Hansens Vorhersage liegen schon jetzt weit jenseits der Realität. Seit 1993, als Satelliten damit begonnen haben, den Meeresspiegel zu vermessen, gab es einen Anstieg von 4,6 cm (1993 bis 2011). Rahmstorfs Projektion geht in diesem Zeitraum von einem Anstieg um 6,4 cm aus, schon jetzt 40% zu hoch. Hansens Projektion eines noch stärkeren Anstiegs geht von 7,2 cm in diesem Zeitraum aus, was um 55% zu hoch ist.

Der jährliche Anstieg ist auch unterhaltsam. Den Satelliten zufolge lag der Trend von 1993 bis 2011 bei 3,2 mm pro Jahr und ist in jüngster Zeit zurückgegangen. Die Änderung 2009-2010 lag unter 1 mm bei 0,9 mm pro Jahr. Und 2010-2011 wies er gar keine Steigung mehr auf.

Rahmstorf projizierte für 2010-2011 schon jetzt einen Anstieg um 4,5 mm pro Jahr, etwa 50% größer als die tatsächliche Rate während der letzten 18 Jahre. Und Hansens Projektion des jährlichen Anstiegs ist sogar noch schlechter, beträgt er doch 5,3 mm pro Jahr.

Sowohl hinsichtlich des Anstiegs 1993-2011 als auch des gegenwärtigen jährlichen Anstiegs liegen sowohl Rahmstorf als auch Hansen weit jenseits der Beobachtungen. Aber Moment, da ist noch mehr.

Hansens Rate des Meeresspiegelanstiegs soll sich beschleunigen, ebenso wie die von Rahmstorf. Hansen sagt, dass die Rate bis 2020 auf 6,3 mm pro Jahr steigen und sich danach immer weiter erhöhen wird. Aber tatsächlich liegen wir schon jetzt weit hinter diesen angenommenen Anstiegsraten zurück, und die beobachtete Anstiegsrate nimmt ab…

Wie kommt Hansen zu diesen unsinnigen Zahlen? Nun, er hat in den Beobachtungen etwas bemerkt.

Dieser dritte Term (schmelzendes Eis) war bis zu den letzten paar Jahren klein, aber er hat sich während des letzten Jahrzehnts mindestens verdoppelt…

Meine Hochschullehrerin Mrs. Henniger, Gott segne sie, hat die Verlängerung eines linearen Trends in die Zukunft als ein Verbrechen gegen die Natur angesehen, und ich würde zögern, ihre Meinung kund zu tun, wenn Hansen unbekümmert eine Zunahme um etwa 7% für 100 Jahre in die Zukunft ausweitet. Diese Art Zinseszinsrechnung verwandelt einen Zentimeter in 5 Meter. Falls Dr. Hansen ihr diesen Unsinn eingereicht hätte, würde man das Ganze bei der Rückgabe wegen der zahlreichen, mit dem Rotstift vorgenommenen Verbesserungen gar nicht mehr lesen können.

Das könnt ihr nicht machen, Leute! Ihr könnt nicht aus der Beobachtung, dass sich irgendetwas während der letzten Dekade verdoppelt hat, schließen, dass dieses Wachstum exponentiell ein ganzes Jahrhundert lang weitergeht. Das ist nicht mehr Wunschdenken. Das ist magisches Denken.

Zwei letzte Punkte. Erstens, die Erbse unter den Walnussschalen. Man schaue sorgfältig, was Hansen getan hat. Er hat behauptet, dass der Meeresspiegel „um mehrere zehn Meter” steigen werde. Dies sind mindestens dreißig Meter Anstieg.

Er scheint diese Behauptung zumindest ansatzweise mit seiner Abbildung 7 (meiner Abbildung 2) zu stützen. Aber schaut man auf die Beschriftung, ist das keine Vorhersage, keine Projektion oder Szenario irgendeiner Art. Stattdessen ist es lediglich eine „Approximation“, wie ein linearer Anstieg des Meeresspiegels aussehen könnte und wie ein exponentieller Anstieg aussehen könnte. Falls Sie nicht verstanden haben, was „linear“ und „exponentiell“ ist – seine tatsächliche Vorhersage liegt unter einer Walnussschale irgendwo anders. Wir wissen, dass seine „Approximation“ keine reale Projektion sein kann, weil sich gegenwärtig oder für einige Jahre fast kein Anstieg zeigt.

Zweitens, nicht einmal das beginnt die Fehler, die Täuschungen, den Alarmismus und die Betrügereien in Hansens Arbeit zu entwirren. Erkennen Sie den Herrn mit dunkler Weste und weißen Hosen auf der linken Seite von Hieronymus‘ Gemälde [oben rechts]? Sehen Sie, was er in der Hand hält, während er mit Unschuldsmiene an den Himmel schaut? Sehen Sie, wo es lang geht? Hansen ist nicht der Hütchenspieler, das ist lediglich ein Hampelmann, der verdient nicht viel Geld mit seinem Spielchen.

Hansen ist der Bursche in der dunklen Weste mit seiner Hand an Ihrer Taschenbörse…

Aktualisierung

Joel Shore hat richtig beobachtet, dass Hansens Schätzung eines gewaltigen Anstiegs des Meeresspiegels auf paläoklimatischen Daten basiert. Er hat recht, wenn er sagt, dass Hansen behauptet, paläoklimatische Daten zeigten einen Anstieg von 20 Metern für jeden 1°C-Temperaturanstieg. Deswegen sagt Hansen, dass ein Anstieg von 2°C in Zukunft einen Anstieg des Meeresspiegels um 40 Metern bringen würde.

Schauen wir mal in Ruhe auf das, was wir wissen. Wir wissen, dass sich während einer Eiszeit eine Masse Ozeanwasser schlecht verhält. Es verlagert sich auf das Festland in Gestalt von Schnee und Eis und Gletschern, hauptsächlich auf der Nordhalbkugel. In der Folge fällt der Meeresspiegel um hundert Meter oder so. Die Gletscher bleiben bis zum Ende der Eiszeit. Dann schmelzen sie, und der Meeresspiegel steigt wieder. Da wir uns derzeit in einer Zwischeneiszeit befinden, sind die meisten Gletscher geschmolzen.

Daher würde ich mit Sicherheit nicht erwarten, dass eine weitere Erwärmung großen Einfluss auf weiteres Abschmelzen oder den Meeresspiegel hat. Das einfache Eis ist komplett geschmolzen, die riesigen Kilometer dicken Gletscher der Nordhemisphäre sind fast alle zurück in den Ozean geflossen. Der Rest versteckt sich hauptsächlich an Nordhängen der nördlichen Klimazonen. Also woher soll das Schmelzwasser kommen?

Und komischerweise, was ich durch Joels Frage herausgefunden habe: wenn man weiß, wo man schauen muss, kann man sehen, dass die Graphiken in Hansens eigener Studie mich stützen. Sie sagen, dass der Ozean nicht steigen wird. Ich glaube Hansens Ergebnissen nicht, aber unter der Vermutung, dass sie korrekt sind, um der Diskussion willen, wollen wir uns mal diese Graphiken ansehen.

Betrachten wir zunächst den Meeresspiegel während der vergangenen vier Perioden von Zwischeneiszeiten. Ich habe ein Lineal eingefügt, um klar zu machen, was ich meine.

Wie man an der detaillierten Auflösung seines Graphen sieht, lag der Meeresspiegel nie höher als heute.

Betrachten wir jetzt ihre Temperaturbeobachtungen und die Rekosntruktion:

Hansen zufolge lagen die Temperaturen bis zu 2,5°C über den heutigen Werten … aber der Meeresspiegel war nie höher als heute.

Falls Hansens Behauptung wahr wäre, dass ein Temperaturanstieg um 1°C zu einem Anstieg des Meeresspiegels um 20 Meter führen würde, müssten aus Hansens Graphik hervorgehen, dass der Meeresspiegel 40 Meter oder mehr über dem heutigen Niveau liegt (b). Man schaue auf die Skala links (b); das wäre außerhalb des Kartenausschnitts.

Stattdessen sehen wir nichts dergleichen. Wir erkennen viel wärmere Perioden in der Vergangenheit, aber die Höhe des Meeresspiegels unterscheidet sich nicht vom heutigen Niveau. Hansens eigene Graphiken zeigen, dass er unrecht hat. Es sieht also so aus, als ob Hansen das Gleiche macht, er extrapoliert einen linearen Trend über alle Grenzen hinaus.

Er hatte bemerkt, dass am Ende der Eiszeit die steigenden Temperaturen zu einem Abschmelzen der riesigen Gletscher bei Chicago geführt haben, was in einem raschen Anstieg des Meeresspiegels resultiert hatte. Unglücklicherweise hat er diesen Trend immer weiter ausgedehnt, bis weit jenseits der Zeit, wo es gar keine Gletscher bei Chicago mehr gab, die noch schmelzen könnten.

Willis Eschenbach

Link: http://wattsupwiththat.com/2012/01/29/hansens-sea-shell-game/#more-55615

Übersetzt von Chris Frey




IPCC Klimakonferenz 2011 in Durban – war da was? Eine Pressenachlese!

FAZ, 12.12.2011, S. 1; "Farce von Durban" ;

"Es darf nämlich bezweifelt werden, ob es (Anm.: DURBAN) das Prädikat "historisch" verdient, denn das Ergebnis von Durban fällt mager aus. Es hält den schleppenden Verhandlungsprozeß zwar in Gang – das war es aber auch."

"Von einem ‚rechtlich bindenden Abkommen‘, wie es die Europäer gerne gesehen hätten, ist in dem Beschluß nicht mehr die Rede. Jetzt redet man bestenfalls über ein ‚vereinbartes Ergebnis mit Rechtskraft‘ ".

"Wenig besser steht es um das Kyoto-Protokoll" … "Die EU will das Kyoto-Protokoll weiter als Faustpfand in den Verhandlungen nutzen. Doch der Vertrag leidet an Schwindsucht: Japan, Russland und Kanada haben ihren Ausstieg angekündigt, die USA waren von Anfang an nicht dabei. Damit emittieren die verbliebenen Industrie-Staaten unter den Kyoto-Mitgliedern, vor allem die EU, am Ende gerade 15% der global ausgestoßenen Treibhausgase."

"Das zeigt: Wer seine klimapolitischen Hoffnungen vor allem auf "Kyoto" setzt, hat schon verloren."

"Die Weltklimakonferenz ist am Ende, der Ertrag ist mager…".

"Auf der Seite der Blockierer saßen auch in Durban die USA, China, Indien. Alles wie gehabt also. So werden die Klimakonferenzen zur Farce. … Ein Brummkreisel, der sich schneller dreht, kommt trotzdem nicht vom Fleck."

 

FAZ, 12.12.2011, S. 2; "Die Ergebnisse der Weltklimakonferenz" ;

"Weltklimafonds wird eingerichtet."er soll dazu beitragen, daß ab dem Jahr 2020 jährlich 100 Milliarden Dollar zur Verfügung stehen. Woher das Geld kommt, ist offen."

 

FTD, 14.12.2011, S. 9; "Kanada prellt die Klima-Zeche" ;

"Ein Kyoto-Nachfolger soll ab 2020 erstmals Industrie- und Schwellenländern Emissionsziele auferlegen. Christoph Görg, Klimapolitikexperte am Helmholz-Zentrum für Umweltforschung, glaubt, daß Kanadas Kyoto-Ausstieg die Verhandlungen dazu erschweren könnte: Nach Durban haben wir weder konkrete Emissionsziele, noch sind wir sicher, inwieweit die Vereinbarung rechtlich verbindlich ist. Wenn dann beim einzig verbindlichen Vertrag die Schlupflöcher genutzt erden, macht es das noch einmal schwieriger."

 

DER SPIEGEL, 17.12.2011, S. 38-39;  "Riskante Wette" ;

"Nach dem UNO-Gipfel von Durban steht die EU mit ihren CO2-Zielen allein da. Die anderen Volkswirtschaften setzen auf fossile Energie."

 "Hedegaard will im Ergebnis von Durban festschreiben lassen, daß auch Indien, China und die USA bis 2015 einem verbindlichen Weltklimavertrag beitreten. … Die Gegenwehr ist groß. ‚Wir wollen diese Frage offen lassen‘, zischt die Beraterin der indischen Ministerin."

"Anschließend feiert Europa das Ergebnis von Durban als Durchbruch. Bundesumweltminister Norbert Röttgen sieht alle Länder an Bord für einen Weltklimavertrag, der 2020 in Kraft treten soll. Doch das ist eher eine vage Hoffnung."

"…Klimapolitik der USA … im Kongreß würde ein Weltklimavertrag in tausend Stücke zerrissen werden, weil die Mehrheit der US-Politiker Eingriffe von außen in ihre Energiepolitik grundsätzlich ablehnt. Republikaner bezeichnen den Klimawandel als einen Schwindel…"

"China hält sich alle Optionen offen. Kurz nachdem die Konferenz zu Ende war, attackierte die kanadische Regierung den globalen Klimaschutz frontal. Sie erklärte, daß sie aus dem Kyoto-Protokoll aussteigt…". "Japan und Russland sind zudem nicht bereit, im Rahmen des Kyoto-Protokolls neue Reduktionsziele zu akzeptieren."

"Europa steht nach dem UNO-Klimagipfel in Wahrheit ziemlich allein da. Was von Durban bleibt, ist vor allem die Zusage der EU, als einzige Wirtschaftsmacht in den kommenden Jahren neue Reduktionsverpflichtungen im Rahmen des Kyoto-Protokolls einzugehen. Der Rest der Welt kann ungebremst Kohle, Öl und Erdgas verbrennen. Hat die EU in Südafrika zu hoch gepokert und verloren?"

"Ökonomisch ist die Wette der EU durchaus riskant: an eigenen Klimazielen festzuhalten, während andere ihre Wirtschaft mit billigem Kohle- und Atomstrom wachsen lassen."

Zusammengetragen von Klaus E. Puls EIKE




Von einem Warmisten zu einem Skeptiker – meine ganz private Reise

Die Wissenschaftler sagten, dass CO2-Emissionen die Erde aufheizen, mit schrecklichen, sogar katastrophalen Folgen: Eiskappen schmelzen, der Meeresspiegel steigt, Küsten verschwinden, massive und sehr häufige Hurrikane, Hitzewellen mit tödlichen tropischen, sich in bislang gemäßigte Temperaturzonen ausbreitenden Krankheiten, Missernten infolge Hitze und Wüstenausbreitung, Pandemien gegen die menschliche Gesundheit, Verschwinden des Schnees auf der Sierra Nevada in Kalifornien, Trinkwasserknappheit – die Liste ist lang und länger.

Die Lösung, sagten die Wissenschaftler, bestehe darin, keine fossilen Treibstoffe mehr zu verbrennen, d. h. Erdgas, Kohle und Öl. Stattdessen sollen wir Strom sparen und lernen, mit weniger Strom auszukommen, Elektroautos fahren, Benzin aus Mais-Ethanol sowie Diesel aus recycelten tierischen Fetten und Ölsamen herstellen, all unseren Müll in Verbrennungskraftwerken recyceln, Wind- und Solarparks zur Stromerzeugung errichten, Methan sammeln aus Jauchegruben und Müllhalden, um dieses Methan dann in Kraftwerken zur Stromerzeugung zu verbrennen. Aber bis solche Technologien zum Tragen kommen, müssen wir das CO2 aus Kraftwerken und Hochöfen einfangen und es irgendwo für immer vergraben. Dieser Vorgang wurde „Abscheidung (Sequestration)“ genannt.

Mein Interesse wurde zumindest angestachelt. Die Erde soll unbewohnbar werden? Millionen Klimaflüchtlinge würden anderswo Platz zum Leben suchen? Kriege würden um Nahrung und Frischwasser geführt werden? Küstenlinien sollen überschwemmt und für immer verschwunden sein? Und das alles soll wegen unseres Verbrauchs fossiler Treibstoffe passieren? Meine Industrie? Die Öl- und Gasindustrie?

Ich wusste, dass chemische Ingenieure involviert sein würden, und zwar mittendrin. Chemische Ingenieure sind diejenigen, die Substitute für Öl und Diesel zur Verfügung stellen können und die wissen, wie man aus Mais oder Zellulose Ethanol herstellt. Sie sind auch diejenigen die wissen, wie man Kraftwerke plant, baut und betreibt, die das CO2 einfangen, und sie finden Wege, das gefährliche CO2 entweder zu binden oder es permanent im Untergrund zu speichern als Teil der Sequestration.

Also begann ich mal zu eruieren, was die chemischen Ingenieure tun können, um das Problem zu lösen und nach Wegen zu suchen, von meinem eigenen Hintergrund als chemischer Ingenieur zu profitieren und eine Expertise als Anwalt zu erstellen. Sicher würde es doch einige Gelegenheiten für einen Mann mit meinen Erfahrungen in all dem geben. Ich musste meine Pflicht tun und die wissenschaftlichen Behauptungen verifizieren. Zunächst, auf welche Art und Weise verursacht das CO2 diese ganze Erwärmung? Ich habe Jahrzehnte lang mit CO2 gearbeitet, in vielen Formen und an vielen Orten. CO2 ist ein Verbrennungsprodukt (zusammen mit Wasserdampf) aus der Verbrennung von Erdgas, anderen leichten Hydrokarbonaten, Benzin, Diesel, Heizöl, Erdölkoks, Holz, Kohle, sogar Torf und getrocknetem Tierdung. Ich wusste mehr als die meisten, dachte ich. Ich habe flüssige CO2-Tanks entworfen, installiert und betrieben, ebenso wie Ausrüstungen, um flüssiges CO2 zu vergasen, es zu pressen und das gepresste Gas wieder zu verflüssigen. Ich hatte auch Verarbeitungsanlagen entworfen und betrieben, um das CO2 aus Abgasen von Brennöfen herauszuholen; und ich habe andere Anlagen entworfen und betrieben, die aus CO2 feste Partikel machen. Ich dachte mir, dass es eine Menge Möglichkeiten für mich geben müsste.

Herauszufinden, wie viel CO2 entfernt werden muss, schien mir ein guter Startpunkt zu sein. Ich begann mit der Lektüre von Blog Posts auf einer Website, die sich RealClimate.org nennt und wo behauptet wurde, dass „echte Klimawissenschaft von echten Klimawissenschaftlern“ geschrieben wird. Das hörte sich gut an, die Informationen direkt von den Experten zu bekommen. Ich habe dort einige Karten und Graphen gesehen, und ich verstehe Karten und Graphen. Chemische Ingenieure kennen alles darüber. Einer dieser Graphen zeigte die globale Mitteltemperatur der Erde von etwa 1880 bis 2005. Da zeigte sich ein dramatischer und bemerkenswerter Aufwärtstrend seit 1975 bis heute. Dieser Trend würde, wenn er sich fortsetzte, mit Sicherheit die Welt heißer machen, und vielleicht würden die Eiskappen tatsächlich alle schmelzen.

 

Da ich ein guter Ingenieur bin und ausgebildet, alle Seiten einer Angelegenheit zu betrachten, schaute ich mir den Rest der Graphik an. Sie kam mir etwas komisch aussehend vor. Da gab es einen ziemlich flachen Verlauf von etwa 1940 bis 1975, oder sogar einen leichten Abwärtstrend in diesen 35 Jahren. Hmmm… ich frage mich, was war der Grund dafür? Hat sich der CO2-Gehalt in diesem Zeitraum vielleicht verringert? Ich machte mir einen Vermerk, dies später genauer zu untersuchen.

Dann sprang mir die Zeit vor 1940 ins Auge. Von etwa 1900 bis 1940 zeigte der Graph einen bemerkenswert ähnlichen Aufwärtstrend, fast genau wie von 1975 bis 2005. Hmmm schon wieder… wie war es zu diesem Erwärmungstrend gekommen? Hat das CO2 in jenen Tagen zugenommen? Und falls ja, warum hörte das um 1940 auf? Die Welt befand sich Ende der dreißiger bis Mitte der vierziger Jahre im Krieg… haben wir während dieser Zeit keine Kohle, Erdgas oder Öl verbraucht? Irgendwas schien da nicht zu stimmen, konnte ich mich doch entfernt daran erinnern, wie ich aus meinem Studium der Ölindustrie gelernt hatte, dass die Ölproduktion während des 2. Weltkriegs dramatisch zugenommen hatte, wegen all der militärischen Maschinen, die Benzin und Diesel benötigten, und der Schiffe, die Heizöl benötigt hatten. Ich wusste, dass die Atomkraft bis lange nach dem Krieg keine Rolle gespielt hatte, so dass all diese Schiffe mit Schweröl betrieben wurden, welches wir Bunker-C-Öl nennen. Auch produzierten Fabriken rund um die Welt mit voller Kapazität Munition, Stahl, Aluminium, Kriegsmaschinen, Panzer, Jeeps, Schiffe und all die anderen Kriegsgerätschaften. Damals gab es nicht viel Einsparung, dachte ich. Eine Menge CO2 wurde auch emittiert. Niemand scherte sich um Effizienz oder sparsamen Verbrauch, nicht einmal um Verschmutzung; der einzige Gedanke war gewesen, so schnell und so viel wie möglich noch mehr zu produzieren. Schließlich herrschte Krieg!

Dann besah ich mir den CO2-Anteil in der Atmosphäre, wobei ich eine große Prozentzahl vermutete, vielleicht 3 oder 4 oder sogar 5 Prozent. Die Graphen, die ich fand, sahen auf den ersten Blick falsch aus. Der CO2-Gehalt lag nicht einmal annähernd bei 5 Prozent. Nicht einmal 1 Prozent. Er lag so niedrig, dass er in Parts per Million gemessen wurde! Etwa 365 ppm habe ich gefunden, und eine Zunahme um etwa 2 ppm pro Jahr. Die Messungen reichten zurück bis zum Jahr 1959, und was mich noch mehr erstaunte – diese 365 ppm wurden auf knochentrockener Basis gemessen. Dies bedeutet, dass das als Beispiel dienende Luftpaket gedörrt oder sehr sorgfältig getrocknet worden ist, um allen Wasserdampf zu entfernen bevor der CO2-Gehalt quantifiziert wurde. Das ist tatsächlich ein gutes Verfahren, weil es alle Variationen infolge Änderung der Luftfeuchtigkeit eliminiert. Aber in der Praxis, falls die Atmosphäre sehr viel Wasserdampf enthält, wird die aktuelle CO2-Konzentration um Einiges geringer sein. Ich habe das mal ausgearbeitet, und gefunden, dass eine tropische Luftmasse mit einer Temperatur von 80°F [ca. 27°C] und einer Relativen Luftfeuchtigkeit von 90 Prozent etwa 0,2 Pfund Wasser pro Pfund trockener Luft enthält. Grob geschätzt besteht die Luft, die wir einatmen, zu 17 Prozent aus Wasserdampf. Damit würde sich die CO2-Konzentration ebenfalls um 17 Prozent reduzieren, so dass aus den 365 ppm tatsächlich 310 ppm werden. Wow! Kann ein CO2-Gehalt von 310 ppm all diese Probleme hervorrufen? Ich musste herausfinden, wie das gehen sollte!

 

Ich brauchte nicht lange im Internet zu suchen, bis ich Behauptungen von Wissenschaftlern gefunden hatte, dass das CO2 die Wärme von der Erdoberfläche absorbiert und etwa die Hälfte davon wieder zur Erde zurückstrahlt. Der Effekt wurde der „Treibhaus“-Effekt genannt, und CO2 wurde als „Treibhausgas“ bezeichnet. Hmmm… so funktionierten Treibhäuser nicht, wie ich wusste, weil wir selbst auch Treibhäuser entworfen und gebaut hatten. Die Sonnenwärme dringt durch das Glas, wird von den dunkelgrünen Pflanzen absorbiert und wärmt die Luft innerhalb des Treibhauses. Winde können die Warmluft wegen der Glasdecke und –wände nicht davon blasen. In der Sprache der Ingenieure ausgedrückt, es gibt dabei keinen konvektiven Wärmeaustausch. Nun, dieses „Treibhausgas“ könnte ein Kunstausdruck sein, und ich bin sicherlich vielen solcher Kunstbegriffe im Ingenieurswesen und in Gesetzen begegnet. Eindeutig waren weitere Untersuchungen erforderlich.

So stieß ich schließlich auf das Kyoto-Protokoll, das eine Menge über Treibhausgase zu sagen hatte. Wie sich heraus stellte, gab es sechs davon, nicht nur CO2. Die sechs waren natürlich das CO2, dann aber auch Methan, Stickstoffoxid, Schwefelhexafluorid, Hydrofluorkarbonate und Fluorkohlenwasserstoffe.

Aber wie genau geht das vor sich, dass das CO2 und die anderen Wärme absorbieren und sie zur Erde zurück strahlen? Und wie erzeugte das eine Erwärmung? Einiges passte da nicht zusammen, wie zum Beispiel der zunehmende CO2-Gehalt seit 1959 und die Abkühlung von 1940 bis 1975. Mehr dazu später.

Weitere Untersuchungen führten mich zum Blog von Anthony Watts, Watts Up With That. Das schien eine Stelle zu sein, an der Artikel gepostet wurden, die die Orthodoxie der anthropogenen, auf CO2 basierenden globalen Erwärmung in Frage stellen. Also las ich darin und las über Al Gore und seinen Film „Eine Unbequeme Wahrheit“, von Dr. James Hansen von der NASA, der eine Welttemperaturkarte erzeugt hatte, und viele andere Gestalten. Da gab es etwas, das „das Team“ genannt wurde, und ich wusste nicht, wer zu diesem Team gehörte und welches Spiel es spielte. Aus dem Zusammenhang jedoch ergab sich, dass es keine gute Sache war, Mitglied des Teams zu sein, da es irgendwie geringschätzig behandelt wurde.

Aber zurück zum CO2 und dem Aufheizen der Erde. Ich las über das CO2 und wie es Wärme absorbierte. Einige kleine Bruchstücke wanderten tief in mein Gedächtnis. Davon hatte ich schon mal gehört, vor sehr langer Zeit. Ich kramte mein altes Handbuch über chemisches Ingenieurwesen hervor, bekannt als Perry’s Handbook. Dieses Buch steckt voller felsenfester Wissenschaft, die immer zutrifft, sowie Fakten zum Ingenieurswesen. Wenn es in Perrys Buch stand, war es eine Tatsache. Darauf konnte man sich verlassen. Chemische Ingenieure rund um die Welt richteten sich nach den Dingen, die dort standen, jeden Tag. Also schlug ich dort nach. Und wurde fündig. Und zwar unter den Stichworten Wärmetransport, Transfer von Strahlungsenergie, Design von Hochöfen. In Hochöfen werden normalerweise einige Sorten fossiler Treibstoffe verbrannt, vielleicht Kohle oder Öl oder Erdgas oder eine Mischung leichter Hydrokarbonate, falls der Hochofen eine Ölraffinerie ist. Öfen für die Heizung von Haushalten verbrennen ein Öl ähnlich Diesel, und davon gibt es Millionen auf der ganzen Welt. Es gibt eine ähnlich große Zahl großer Industrieöfen in Kraftwerken, Fabriken Stahlwerken, Raffinerien und Chemiewerken. Der Bau von Öfen ist eine sehr ausgereifte Kunst, die nicht nur Jahrzehnte, sondern bereits Jahrhunderte lang ausgeübt worden ist. Selbst Lokomotiven verbrannten Holz oder Kohle, und auch das für Jahrhunderte. Und sicher muss beim Ofenbau auch der Faktor CO2 in den Verbrennungsabgasen berücksichtigt werden. Wasserdampf spielt ebenfalls eine Rolle, und seine Auswirkungen sind sogar noch größer als die vom CO2.

Etwas ist hier in gewisser Weise in Ordnung. Wenn ein fossiler Treibstoff verbrannt wird, findet eine chemische Reaktion statt, bei der eine Menge Wärme freigesetzt wird. Ein fossiler Treibstoff ist ein Hydrokarbon, was bedeutet, dass die meisten Moleküle entweder Wasserstoff oder Kohlenstoff sind. Also Hydrokarbon. Chemiker sind nicht sehr innovativ, wenn es um Namen geht, manchmal zumindest. Luft wird hinzugefügt und Wärme, und der Sauerstoff in der Luft reagiert chemisch mit dem Kohlenstoff und mit dem Wasserstoff. Ein Kohlenstoffatom kombiniert mit zwei Sauerstoffatomen in der Luft bilden CO2, Kohlendioxid – ein Kohlenstoff- und zwei Sauerstoffatome. Und wieder keine besonders kreative Namensgebung. Genauso reagieren zwei Wasserstoffatome mit einem Sauerstoffatom und bilden H2O, Dihydrogenmonoxid, bekannter unter der Bezeichnung Wasser. Das Wasser befindet sich im gasförmigen Zustand, ist also Wasserdampf. Dies ist beim Ofenbau wichtig, weil das, was aus dem Abgasschacht entweicht, zumeist Stickstoff aus der Luft ist, die in den Ofen einströmt, sehr wenig Sauerstoff, weil dieser zum größten Teil chemisch reagiert hat, und der Rest ist Wasserdampf und CO2. Wie viel CO2, und wie viel Wasserdampf? Ist das CO2 sehr gering konzentriert, wie in der Atmosphäre? Es sieht so aus, als sei die Antwort nein, denn CO2 hat jetzt eine Größenordnung von 19 Prozent und Wasserdampf von 29 Prozent. Dies unterscheidet sich erheblich von dem Gehalt in der Atmosphäre. Anders ausgedrückt, ist 19 Prozent das Gleiche wie 190000 ppm. Also ist die CO2-Konzengtration in einem Ofen viel, viel größer. Was ist noch unterschiedlich? Einmal ist die Temperatur sehr unterschiedlich. CO2 in einem Ofen ist glühend heiß, mit einer Temperatur um 1800°F [ca. 982°C]. In der Atmosphäre reicht die Spanne von 90°F bis -40°F [ca. +32°C bis -40°C]. Ich fragte mich, ob das etwas ausmacht, und wenn ja, wie viel? Die grundlegende Antwort war ja, CO2 und Wasserdampf absorbieren jeweils Strahlungswärme und geben sie wieder ab. Also schien es eine gewisse Basis für die Behauptung der Wissenschaftler zu geben, dass CO2 Wärme absorbiert. Aber immer noch stellte ich Fragen.

Ich stöberte noch weiter in der wissenschaftlichen Literatur und fand heraus, dass das CO2 nur einen kleinen Teil der Strahlungswärme absorbiert, die von der Erdoberfläche abgestrahlt wird. Ein sehr, sehr kleiner Teil. Nicht nur das, der Effekt beim Hinzufügen von weiterem CO2 in die Atmosphäre hat eine verringernde Auswirkung darauf, wie viel Strahlungsenergie absorbiert wird. Im Grunde ist die Strahlungsabsorption die gleiche, ob CO2 nun dabei ist oder nicht. Der Effekt wird noch weiter abgeschwächt, weil auch Wasserdampf Strahlungsenergie absorbiert, und zwar in der gleichen Wellenlänge wie das CO2. Wasserdampf absorbiert zwar auch in anderen Wellenlängen, aber es gibt eine Überlappung mit dem CO2.

Also lehnte ich mich zurück, wog das alles gegeneinander ab und überdachte alles sehr intensiv. Ich wusste, dass sich die Erde rasch und nachhaltig in klaren Wüstennächten abkühlte, selbst in der Hitze des Sommers. Dies liegt an der sehr trockenen Luft, die fast keinen Wasserdampf enthält. Dieser Effekt ist ziemlich faszinierend, und man kann tatsächlich manchmal sehen, wie sich in kleinen Senken Eis bildet, selbst wenn die Temperatur der umgebenden Luft über dem Gefrierpunkt liegt. Dies ist ein bevorzugtes Ereignis für Scouts, die in der Wüste zelten. Man nimmt eine kleine Pfanne, gießt ein wenig frisches Wasser hinein und stellt die Pfanne auf isolierendes Material wie Styroporschaum. Man wickelt auch ein trockenes Handtuch darum, um die Luft daran zu hindern, die Pfanne zu wärmen. Gerade vor Sonnenaufgang sahen wir nach und fanden eine Eisschicht auf dem Wasser. Genug Wärme war durch Strahlung in den schwarzen Himmel darüber entwichen, ungehindert durch CO2 oder Wasserdampf, wodurch sich das Wasser abkühlte bis zur Eisbildung. Das eisige Wasser war großartig geeignet, es in Feldflaschen zu füllen.

Niemand kann so etwas in den Nächten in einem feuchten Klima machen, wie es in Houston, Texas herrscht, wo ich aufgewachsen war und auch ein wenig gezeltet habe. Der Wasserdampf in der Luft verhindert dies selbst in klaren Nächten.

Also wälzte ich das gesamte Problem der Wärmeabsorption von CO2 im Kopf herum. Zunächst wurde in Perrys Handbuch ein sehr wichtiger Parameter erwähnt, die „mittlere Strahlungslänge“ [mean beam length MBL]. Dieser bezieht sich auf die Entfernung der heißen Gase CO2 und Wasserdampf zu den Behältern im Ofen, die das zu erwärmende Wasser enthalten. Je größer die Entfernung, umso weniger wirkt die Strahlungsenergie. Dies ist durch die alltägliche Erfahrung ziemlich offensichtlich und ist auch bei Lagerfeuern und einer Kerze so. Näher an der Quelle ist es wärmer, weiter entfernt davon kälter. Dies ist Allgemeinwissen, außer bei sehr kleinen Kindern. Dies ist auch von den Planeten im Sonnensystem bekannt, mit dem sonnennächsten, sehr heißen Planeten Merkur und den anderen, die immer kälter sind, je weiter sie von der Sonne entfernt sind. Die Temperatur an der Sonnenoberfläche ist immer die gleiche. Klarer Fall, die Entfernung hat etwas zu tun mit der absorbierten Menge Strahlungsenergie. Ich fragte mich, wie viel Wärme das CO2 in einer Höhe von ca. 3000 m, 6000 m, 9000 m oder noch höher absorbieren kann. Auch frage ich mich angesichts des Umstands, dass die Atmosphäre mit zunehmender Höhe immer dünner wird, wie viele CO2-Moleküle in jeder Höhe vorhanden sind, um jedwede durchlaufende Energie zu absorbieren.

Es war ziemlich offensichtlich, dass selbst unsere Urvorfahren etwas von diesen grundlegenden Dingen gewusst haben, da man sich immer wieder auf „die kalten Sterne“ in der Literatur bezog. Heute wissen wir, dass Sterne in Wirklichkeit Sonnen sind, einige davon viel größer und heißer als unsere Sonne. Wir können die Wärme der Sterne wegen der riesigen Entfernungen nicht fühlen, Milliarden von Meilen, wenn nicht Billionen. Weit weg heißt sehr kalt. Nah dran heißt sehr warm.

Noch war ich nicht zu einer Schlussfolgerung gekommen, einer festen Meinung bzgl. der Behauptung, dass das CO2 zu einer Erwärmung der Erde führt, aber es sah für mich ziemlich wacklig aus. Dann dachte ich an mein Hintergrundwissen als Ingenieur bei der Prozesskontrolle und dachte weiter an Lagerfeuer. Das Gesetz der Lagerfeuer ist einfach und wurde oben schon kurz erwähnt: Wenn es zu heiß wird, entferne man sich. Wenn es zu kalt ist, gehe näher ran. Näher dran ist immer wärmer, denn ein Lagerfeuer hat immer die gleiche Wärmeabstrahlung.

Und doch, ich habe die Graphik gesehen, die einen langsamen Anstieg des CO2-Gehaltes zeigte, eine schöne, glatte Kurve. Gleichzeitig erreichte die Mitteltemperatur der gesamten Erde ein Maximum um 1940 und ging dann 35 Jahre lang zurück. Dann kehrte sich der Trend um, und es wurde wieder wärmer. Falls das CO2 erst eine 35 Jahre lange Abkühlung und danach eine 35 Jahre lange Erwärmung verursacht haben soll, verletzt dies die Grundlagen der Prozesskontrolle. Ein bekannter chemischer Ingenieur mit einem PhD, Dr. Pierre Latour, schrieb hierzu etwas in einer bekannten Zeitschrift, Hydrocarbon Processing. Damals hatte ich meinen eigenen Blog und schrieb dazu einen Aufsatz, in dem ich die Ergebnisse von Dr. Latour diskutierte (hier). Wenn das CO2 erst die Abkühlung und dann die Erwärmung zulässt, wäre das genauso, wenn man sich näher an das Lagerfeuer begibt, um sich bei manchen Gelegenheiten abzukühlen, und sich davon zu entfernen, um sich bei anderen Gelegenheiten abzukühlen. Da wusste ich ganz genau, dass das CO2 nicht das tun konnte, was die Wissenschaftler behauptet hatten. Nicht bei diesen geringen Konzentrationen in der Atmosphäre und nicht bei diesen niedrigen Temperaturen. Aber ich wollte noch mehr wissen, also las und fragte ich weiter.

Etwa um  diese Zeit, November 2009, brach der Climategate-Skandal aus, als Tausende e-mails und Computerdateien in das Internet gelangt waren. Die Dateien waren unglaublich empörend und verheerend für das Anliegen der Warmisten, weil hier unsaubere Aktionen mancher Wissenschaftler im Herzen der Klimadebatte enthüllt worden waren. Um den Schaden zu begrenzen, haben sich die Wissenschaftler am Hadley Center’s Climate Research Unit der University of East Anglia, UK, entschlossen, einige ihrer Dateien zu veröffentlichen, und zwar mit Temperaturaufzeichnungen von etwa 1000 Orten in der Welt. Die Absicht war es zu zeigen, dass es nichts zu verbergen gab, und hier konnte die ganze Welt Einsicht in die Rohdaten nehmen. Ich kopierte die Dateien auf meinen Computer und untersuchte sie.

Zunächst fiel auf, dass die sog. Rohdaten alles andere als roh waren. Ich kannte Rohdaten, habe ich mir doch als chemischer Ingenieurspraktikant Reihen auf Reihen von Rohdaten angeeignet, und zwar 20 Jahre lang in Chemiewerken und Raffinerien auf der ganzen Welt. Was die HdCRU veröffentlicht hat, waren bearbeitete Daten. Sie zeigten die mittlere monatliche Temperatur über einen Zeitraum von mehreren Jahrzehnten für die gewählten Städte. Das Monatsmittel wurde aus der täglichen Mitteltemperatur gebildet. Die tägliche Mitteltemperatur wurde aus dem Mittel zwischen Höchst- und Tiefsttemperatur eines jeden Tages gebildet. Die Höchst- und Tiefsttemperatur war manchmal adjustiert oder auch frisiert worden durch die Auswahl des Zeitpunktes der Temperaturablesung. Es gab auch keine Hinweise darauf, wie fehlende Daten ergänzt oder erzeugt worden waren. Instrumente sind nicht zu 100% zuverlässig und brauchen manchmal Wartung. Sie müssen gesäubert werden, brauchen Kalibrierungen, müssen manchmal ausgetauscht werden und so weiter. Sie können für eine Weile außer Betrieb sein, während jemand bemerkt, dass die Daten fehlen und das Instrument repariert wird.

Und doch lag hier ein Datensatz von  monatlichen Mittelwerten von etwa 1000 Städten vor. Ich beschloss, einmal zu schauen, was da aus den USA war. Da gab es 87 Aufzeichnungen, alle im Kernland. Die Daten stammten aus Städten in den gesamten USA, nicht in jedem [US-Bundes-]Staat, aber in fast jedem, und waren ziemlich gleichmäßig verteilt. Einige befanden sich in großen Städten wie New York, Los Angeles, San Francisco, Miami, einige in mittelgroßen Städten wie St. Louis, Spokane und Fresno. Andere befanden sich in kleinen Städten oder größeren Orten, wie Abilene, Texas und Meridian, Mississippi. Ich lud die Daten für jede Stadt in eine gängige Tabelle [vermutlich excel, A. d. Übers.] und erstellte Graphen der monatlichen Temperatur in Abhängigkeit von der Zeit. Ich fügte ein gleitendes Mittel hinzu, um zu sehen, welche Trends sich abzeichneten, wenn überhaupt, und danach noch eine lineare Trendlinie [a linear best-fit trend line]. Die Ergebnisse waren so faszinierend, dass ich alle Graphen in meinem Blog postete (hier) zusammen mit einigen Kommentaren. Was ich fand, bestätigte meinen von Anfang an gehegten Verdacht. CO2 kann nicht das tun, was die Wissenschaftler behaupten.

Die Graphen zeigten eine schlimme Inkonsistenz bei der Erwärmung von Städten in den USA. Einige Städte zeigten in der Tat einen ausgeprägten Erwärmungstrend während einer ungefähr 100-jährigen Periode von 1900 bis 2009. Nicht aus allen Städten lagen so weit zurückreichende Daten vor, und nur 62 hatten langzeitliche Aufzeichnungen. Und doch zeigten andere Städte unter diesen 62 Abkühlungs- oder neutrale Trends. Das schien eigenartig zu sein, denn falls das CO2 wirklich die Erde erwärmt, dann muss das für alle Gebiete gelten und nicht selektiv zu suchen, welche Stelle erwärmt werden muss und welche man ignorieren kann. Dies gilt insbesondere für benachbarte Städte oder solche, die in Nord-Süd-Richtung nicht allzu weit voneinander entfernt liegen. Vermutlich würde es Unterschiede geben zwischen Städten im hohen Norden und solchen in der Nähe des Äquators. Das Kernland der USA weist aber nur einen Nord-Süd-Durchmesser von 1500 Meilen [ca. 2400 km] auf. Verglichen mit der gesamten Entfernung von Pol zu Pol von etwa 12000 Meilen [fast 20000 km] ist das kaum mehr als 10%. Für Städte, die lediglich 100 oder 200 Meilen voneinander entfernt liegen, kam es mir sehr komisch vor, dass CO2 einige Städte ignoriert hatte und andere in den Brennpunkt der Erwärmung stellte. So funktioniert Physik nicht! Falls ein Phänomen wirklich auf einem physikalischen Effekt beruht, gilt dieser konsequent und gleichmäßig überall und in allen Zeiten. Die Schwerkraft beispielsweise hat in Houston, Texas, genau den gleichen Wert wie in Mumbai, Indien, oder Bora Bora. Man kann sich die Konfusion vorstellen, wenn sich Reisende an unterschiedliche Schwerkraft anpassen müssten, abhängig von der Stadt, in der sie gelandet waren. Nein, die Physik treibt keine solchen neckischen Spielchen.

Oder, man kann sich das Chaos in der Welt vorstellen, wenn die Eigenschaften von Stahl so unberechenbar wären wie das CO2. Ingenieure könnten eine Brücke in Kairo, Ägypten, bauen und mächtige Stahlträger mit einer Breite von 12 inches [ca. 30 cm] und 24 inches tief. Aber eine baugleiche Brücke über das Mittelmeer bei Rom würde leichtere Träger erfordern mit einer Breite von lediglich 4 inches [ca. 10 cm] und einer Tiefe von 12 inches. Ingenieure würden darüber lachen, weil das einfach so nicht ist. Eine gegebene Qualität von Stahl wird überall das gleiche Gewicht tragen, ganz egal wo in der Welt er verbaut wird. Puristen werden anmerken, dass dies nicht strikt gilt, da Stahl durch die Temperatur beeinflusst wird. Aber in den meisten Fällen erhitzen sich Brücken nicht stark genug, um den Stahl merklich zu schwächen.

An diesem Punkt schaute ich auf benachbarte Städte und fand, dass einige davon, wie ich oben schrieb, einen abkühlenden oder neutralen Trend zeigten. Abilene, Texas, und Shreveport, Louisiana, sind zwei davon. In Abilene zeigt sich eine Abkühlung von 0,19°C pro Jahrhundert, während Shreveport eine solche von  0,01°C pro Jahrhundert, also fast gar keine Änderung, zeigt. Diese beiden Städte liegen etwa 250 Meilen [ca. 402 km] in Ost-West-Richtung voneinander entfernt. Sie liegen etwa auf gleicher geographischer Breite.  Gleichzeitig zeigt sich in St. Louis, Missouri, eine Erwärmung von etwa 1°C pro Jahrhundert. St. Louis liegt nur etwa 300 Meilen [ca. 480 km] nördlich und ein wenig östlich von Shreveport und etwa 400 Meilen [ca. 640 km] von Abilene entfernt. Klarer Fall, bei der CO2-verursacht-globale-Erwärmung-Wissenschaft stimmt hier irgendetwas nicht. Woher weiß das CO2, dass es Shreveport außen vor lässt und seine Erwärmungswirkung auf St. Louis konzentriert?

 

 

Ein anderes Beispiel sprang mir ins Auge: San Francisco, Kalifornien, sowie deren Nachbarstadt Sacramento. Diese Städte liegen nur 50 Meilen [ca. 80 km] voneinander entfernt und auf etwa der gleichen geographischen Breite. Und doch verzeichnete San Francisco eine Erwärmung von 1,5°C pro Jahrhundert, während sich Sacramento um 0,3°C abkühlte.

Eine Möglichkeit, diese Diskrepanz zu erklären, besteht darin, den Wärmeinseleffekt von Städten UHI dafür verantwortlich zu machen. Hier dachte ich zuerst, die Abkürzung bezöge sich auf die University of Hawaii, bis ich herausfand, für was sie wirklich steht. UHI ist ein Phänomen, bei dem Städte oder größere urbane Gebiete Tag und Nacht wärmer sind als die ländliche Umgebung. Der UHI-Effekt ist für kleine Städte gering und wird mit der Größe der Städte immer größer. Er setzt sich aus vielen verschiedenen Faktoren zusammen, einschließlich der Ausdehnung asphaltierter oder betonierter Flächen, Gebäude aus Stein, Ziegeln oder Stahl und Glas, ein großer Stromverbrauch zum Heizen oder Kühlen, Abwärme großer Industrien sowie die große Anzahl von Autos, Lastwagen, Bussen und Flugzeugen, die große Mengen fossiler Treibstoffe verbrauchen.

Aber selbst dabei gibt es Probleme. Zum Beispiel in Meridian, Mississippi. Das ist eine kleine Stadt und erwärmt sich mit der gleichen Rate wie die Großstadt San Antonio, Texas. Beide zeigen eine Rate von +0,26°C pro Jahrhundert. Wie kann das sein, wenn der UHI eine Rolle spielt?

Andere kleine Städte zeigen eine substantielle Erwärmung, wie Helena, Montana und Duluth, Minnesota, mit einer Rate von 2°C pro Jahrhundert. Die Bevölkerungszahl von Duluth in Höhe von etwa 80000 hat sich seit 1930 kaum verändert. Im Jahre 1960 wohnten dort 107000 Menschen, doch hat die Bevölkerung seitdem wider abgenommen. In Helena dagegen wuchs die Bevölkerung von 12 000 im Jahre 1910 bis 2010 auf 28 000.

Ich möchte mich kurz zu der faszinierend kleinen Stadt Eureka in Kalifornien zuwenden. Ich war niemals dort, und es liegt an der Pazifikküste zwischen San Francisco und der Grenze zum [US-Bundesstaat] Oregon. Sollten dort 2075 olympische Winterspiele stattfinden, sollte das Städtchen im Angebot verlorener Städte stehen. Schon bald sollte dort nämlich das ganze Jahr über Schnee liegen und eine lokale Eiszeit ausbrechen, wenn sich der gegenwärtige Abkühlungstrend nicht umkehrt. Seit 1990 gab es nämlich dort eine Abkühlung mit einer Rate von 15°C pro Jahrhundert. Die Mitteltemperatur liegt gegenwärtig bei etwa 10°C und wird in 65 Jahren bei 0°C liegen. Man kann sich nur wundern, warum das CO2 die Kleinstadt Eureka übersehen hat. Falls irgendeine Stadt dringend eine globale Erwärmung braucht, wäre es Eureka.

 

Scließlich wurde mein Augenmerk auf eine veröffentlichte Studie von Dr. James Goodbridge gelenkt, dem früheren staatlichen Klimatologen für Kalifornien, inzwischen im Ruhestand. Seine Arbeit zeigte, dass die Landkreise Kaliforniens in drei Gruppen hinsichtlich der Bevölkerungsdichte eingeteilt werden können. Dann hat er für jede der drei Gruppen den mittleren Temperaturtrend errechnet. Er zeigt, dass Landkreise mit großer Bevölkerungszahl deutlich zunehmende Temperaturen über 80 Jahre aufweisen, während jene mit geringer Bevölkerung überhaupt keine wesentliche Erwärmung zeigen. In Landkreisen mit mittlerer Bevölkerungszahl lag die Erwärmungsrate etwa in der Mitte. Man muss sich ernsthaft fragen, wie das CO2 das bewerkstelligen konnte. Typischerweise liegen die großen Städte alle an der Küste, z. B. San Diego, Los Angeles und San Francisco. Landkreise mit kleiner Bevölkerungszahl sind über den ganzen Staat verteilt, einschließlich in den küstennahen Gebieten ohne große Städte. Es ist höchst unwahrscheinlich, dass das CO2 schlau genug ist, um sich die Landkreise für seine Wärmestrahlung auszusuchen und andere zu ignorieren.

 

Zusammenfassend bis zu diesem Punkt kann ich über meine Reise Folgendes sagen: Ich habe herausgefunden, dass die Wissenschaftler eine Erwärmung der Erde in einer alarmierenden Größenordnung behaupteten. Doch gab es eine frühere Erwärmung ähnlicher Größenordnung von 1910 bis 1940 während einer Periode mit geringer CO2-Konzentration. Dann hörte diese Erwärmung auf und ging von 1940 bis 1975 in eine leichte Abkühlung über, bevor wieder Erwärmung einsetzte. Es ist unmöglich, dass das CO2 erst für eine Erwärmung, dann für eine Abkühlung und dann wieder für eine Erwärmung gesorgt haben könnte. Es verletzt nicht nur fundamentale physikalische Gesetze, sondern auch die Regeln der Prozesskontrolle. Und schließlich ignoriert das CO2 einige Städte in den USA und tatsächlich auch ganze Landkreise in Kalifornien vollständig, während benachbarte Städte und Landkreise mit großer Bevölkerungszahl eine alarmierende Erwärmungsrate aufweisen. CO2 ist ein einfaches Molekül mit einem Kohlenstoff- und zwei Sauerstoffatomen und kann unmöglich so smart sein.

Alles oben Gesagte war mehr als genug, um mich davon zu überzeugen, dass die Bedrohung durch eine menschengemachte globale Erwärmung falsch ist, dass sie eine leere Drohung ist, ohne jeden Gehalt. Und doch, wenn man die Zusammenfassungen für Politiker sowie die wissenschaftlichen Studien liest, lautet die Prämisse, dass das CO2 Erwärmung verursacht und mehr CO2 noch mehr und schnellere Erwärmung. Alles Weitere folgt aus dieser gescheiterten Prämisse.

Aber es steckt immer noch mehr in dieser Geschichte. Ich möchte beschreiben, was ich beim Betrachten der Temperaturaufzeichnung selbst herausgefunden habe, derjenigen, die von 1910 bis 1940 eine Erwärmung, dann bis 1975 eine Abkühlung und dann wieder eine Erwärmung bis etwa zum Jahr 2000 zeigte. Hierbei ist es wichtig zu wissen, dass es bei der Sammlung und Analyse von Ingenieursdaten, tatsächlich auch in jeder wissenschaftlichen Datensammlung und –analyse, nur selten angebracht ist, zurückliegende Daten zu verändern. Es ist extrem unangebracht, diese Daten wieder und immer wieder zu verändern. Dies erfordert einige Erklärungen.

Die Frage lautet: wie akkurat sind Daten überhaupt? Die Daten hier für Klimazwecke und ob die Welt sich erwärmt oder abkühlt, sind Temperaturdaten. Temperaturdaten kann man heutzutage sehr genau und sehr präzise ermitteln mit moderner Technologie. Nicht, dass ich hier zu technisch werden will, aber Akkuratesse und Präzision sind nicht das Gleiche. Akkuratesse bedeutet zu überlegen, wie nah an der Wahrheit die Messung ist, während Präzision die Frage danach stellt, auf wie viele Stellen nach dem Komma die Messung noch glaubhaft sind. In den Anfängen der Thermometermessungen war es schwierig, diese zu kalibrieren, und es war auch schwierig, Daten auf ein halbes Grad genau abzulesen. So kann es also durchaus sein, dass man an einem sonnigen Tag 80°F gemessen hat, die Temperatur aber tatsächlich nur 78°F betragen hatte [26,7°C bzw. 25,6°C]. Unbekannt ist, wie oft ein Thermometer kaputt gegangen und ersetzt worden ist. Unbekannt ist auch, ob dieses neue Thermometer in der gleichen Weise kalibriert war wie das vorherige. Und schließlich kommt es vor, dass verschiedene Ableser zu unterschiedlichen Messwerten kommen, so dass der eine 70,5°F, der andere aber nur 70°F abliest. Dies hört sich nach nur geringen Unterschieden an, und das sind sie auch. Jedoch heißt es, dass die gesamte Erwärmung im vergangenen Jahrhundert 0,7°C oder etwa 1,2°F betragen hätte.

Schließlich erregte eine interessante Arbeit von E. M. (Michael) Smith meine Aufmerksamkeit. Er betreibt einen Blog mit dem Titel chiefio.wordpress.com. Die einschlägigen Teile seines Blogs sind als „der Marsch der Thermometer“ (hier) bekannt. Michael ist ein ziemliches Genie bei der Programmierung von Computern und der Datenanalyse. Er konnte auf den öffentlich verfügbaren Daten- und Computercode zugreifen, der in der NASA von Dr. James Hansen verwendet wurde und als GISS-Code bekannt ist. Ich glaube, GISS steht für Goddard Institute for Space Studies. Michael entschlüsselte den Code und schrieb in vielen Beiträgen über seine Ergebnisse. Das Schlüsselergebnis war, dass der Code die Daten der Vergangenheit bei jedem Rechenlauf erneut schreibt. Auch gibt es darin fragwürdige Methoden, wie mit fehlenden Daten umgegangen wird, und wie Diskontinuitäten in den Daten eliminiert werden. Ein weiteres und, wie ich finde, sehr wesentliches Ergebnis war, dass Hansen große Teile der Stationen mit Temperaturmessungen in den letzten Jahren entfernt hat. Das sah nicht einmal wahllos aus, sondern vielleicht (wahrscheinlich?) wurden die weggelassenen Stationen so gewählt, dass die Erwärmung der letzten Jahre überbetont wird. Das bedeutet, dass der Temperaturtrend, der aus den Daten von NASA GISS folgt, falsch ist. Ich fordere jeden, der neugierig auf die Temperaturgeschichte der letzten 120 Jahre ist, nachdrücklich auf zu lesen, was E. M. Smith darüber geschrieben hat. Die vergangenen Daten wurden nicht nur verändert, sondern sie wurden oft verändert. Falls Datenlücken entdeckt werden, sucht sich der Computer einfach eine benachbarte Station aus, die bis zu 1200 km entfernt liegen kann (!!!) und benutzt deren Daten.

Dann spuckt das System eine globale mittlere Temperatur aus, die auf Anomalien tausender Temperaturmessstationen rund um die Welt beruht. Anomalien sind ein anderes Feld, in dem man sehr viel Unheil anrichten kann. Das Problem besteht darin, dass einige Städte an kalten Standorten messen und andere an wärmeren Standorten. Was die Klimawissenschaftler tun ist, dass sie jedem Monat eine mittlere Temperatur zuordnen, die auf einer vorbestimmten Periode von etwa 30 Jahren beruht. Einige benutzen jedoch 50 Jahre aus mir unbekannten Gründen. Außerdem ist die Bezugsperiode nicht immer die Gleiche, sondern wird alle 10 Jahre oder so erneuert. Und wieder haben wir bewegliche Ergebnisse mit Daten, die immer wieder neu angepasst werden. Das erinnert mich an das uralte Hütchenspiel mit der Erbse, bei dem unter einem von drei Hütchen eine Erbse liegt. Das Augenmerk versucht, auf dem Hütchen mit der Erbse darunter zu verbleiben, während einer die Hütchen wild hin und her schiebt.

Der Gebrauch von Anomalien ermöglicht es, Temperaturtrends aus verschiedenen Regionen übereinander zu legen, egal ob die absolute Mitteltemperatur 5 Grad (Alaska) oder 25 Grad (Bora Bora) beträgt. Und doch ist es ziemlich beunruhigend, eine andere Möglichkeit der Datenmanipulation zu erkennen. Eine bessere Methode ist meiner Ansicht nach, den Datentrend für jede Dekade und jede Station zu ermitteln. Sollte die Station einen Erwärmungstrend um 0,1 Grad pro Dekade zeigen, gehen diese 0,1 Grad in die Bildung des Gesamtmittels ein. Dabei würde es keine Anomalien geben, keine Bezugsperioden, keine Änderungen der Vergleichsbasis alle 10 Jahre, sondern einfach eine einmalige Berechnung eines Dekadentrends. Dieser Dekadentrend wäre dann fest und nicht Gegen­stand von Änderungen.

Eine weitere sehr verstörende Enthüllung ist der exzellenten Arbeit von Anthony Watts zu verdanken, der schon früher hier in Zusammenhang mit seinem Blog erwähnt worden war. Anthony hat auch eine historische Leistung vollbracht, indem er die große Mehrheit der Klimamessstationen in den USA begutachtet hat (hier). Seine Untersuchung konzentrierte sich auf die Frage, wie gut oder schlecht die Stationen relativ zur Umgebung im Vergleich mit den Vorschriften aufgestellt waren. Beispielsweise muss eine gut positionierte Messstelle bestimmte Entfernungen von Bäumen, Gebäuden oder anderen Strukturen einhalten, sie muss in der korrekten Höhe über grasbewachsenem Boden messen und darf nicht von künstlichem Heizen oder Kühlen betroffen werden wie der Abluft von Air Condition. Was Athony fand, war erschreckend (hier). Er schrieb seine Ergebnisse zusammen mit vielen Mitautoren nieder und veröffentlichte seine Studie 2011 (Zusammenfassung hier). Viele Stationen wurden als sehr schlecht bewertet, und nur wenige waren gut positioniert. Einige Stationen standen tatsächlich an Mauern, auf asphaltierten Parkplätzen, nahe bei Entlüftungsanlagen oder Grillplätzen, auf asphaltierten Dächern und in der Nähe von Rollbahnen auf Flughäfen und den Abgasen der Düsenjets sowie an vielen anderen inakzeptablen Orten. Hier liegen die Quellen für die Temperaturrekorde in den USA, von welchen angenommen wird, dass es die besten und genauesten der ganzen Welt sind. Eine ländliche Umgebung würde in früheren Jahren vermutlich niedrigere Werte ergeben haben, aber wärmer und wärmer werden, wenn immer mehr Gebäude errichtet werden, Straßen und Parkplätze gebaut werden, sowie viele andere Dinge. Folglich bestand ein Teil der Arbeit von Anthony darin zu bestimmen, wie viel eines jeden gezeigten Erwärmungstrends auf die Positionierung der Stationen zurückzuführen war.

Es gibt noch einige weitere Punkte, und mit denen möchte ich schließen.

Zunächst einmal, der Meeresspiegel steigt nicht, und die Ozeane werden nicht wärmer. Dies allein widerlegt bereits den gesamten CO2-Erwärmungsunsinn. Dem Glauben der Warmisten zufolge müssten die Ozeane wärmer werden und der Meeresspiegel mit zunehmendem CO2-Niveau steigen. Nichts davon passiert. Die Daten von NASA und NOAA selbst zeigen das ganz klar. Die Graphik unten stammt von U. Colorado und basiert auf Satellitenmessungen des Meeresspiegels der Nasa. Man beachte den stark abnehmenden Trend seit 2005 und die plötzliche Abnahme Anfang 2010.

Die nächste Abbildung zeigt, dass sich die Schneebedeckung der Sierra Nevada und das Schnee-Wasser-Äquivalent während der letzten 100 Jahre nicht signifikant verändert hat. Dr. John Christy von der University of Alabama, Huntsville, hat 2010 hierzu eine Studie veröffentlicht. Seine Daten enden 2009. Seitdem hat es rekordverdächtige Schneefälle  in den Sierras gegeben. Sein grundlegender Graph ist unten zu erkennen, geglättet, um die Abweichung der Schneebedeckung vom Mittel zu zeigen. Diese Studie bezieht sich auf die zentrale Schneemessstation am Huntington Lake HL. Die Studie gibt es hier.

 

Zweitens zeigt eine vor Kurzem erschienene, wissenschaftlich begutachtete Studie vom CERN, dass Wolken und Sonnenflecken zusammen hängen, und zwar dergestalt, dass es im 20. Jahrhundert eine hohe Sonnenfleckenaktivität gegeben hatte, während sich in der Kleinen Eiszeit nur wenige oder gar keine Flecken zeigten. Während der letzten 4 Jahre oder so, ist es auf der Sonne plötzlich wieder sehr, sehr ruhig geworden, und es wir kühler. Das Fehlen von Sonnenflecken kam als vollkommene Überraschung für Wissenschaftler weltweit. Die Beziehung besteht darin, dass mehr Sonnenflecken gleichbedeutend sind mit einem wärmeren Klima. Der Mechanismus dahinter: das Magnetfeld der Sonne ist immens und wird größer und intensiver, wenn die Aktivität von Sonnenflecken zunimmt. Das Magnetfeld schützt die Erde vor der kosmischen Hintergrundstrahlung GCR. Wenn jedoch die GCR auf die Atmosphäre trifft, erzeugen sie Kondensationskerne für Wolken, und es bilden sich mehr davon. Mehr Wolken reflektieren mehr Sonnenlicht, so dass es auf der Erde kälter wird. Ein weiteres Beweisstück dafür, dass die Wissenschaft alles andere als einig [settled] ist. Sie können ja nicht einmal die Anzahl der Sonnenflecken vorhersagen noch die Zeit, wann sie auftreten. Das CERN-Experiment und die veröffentlichte Studie erfolgten erst vor wenigen Wochen.

Drittens stimmen die Klimamodelle nicht überein, und deren Projektionen passen nicht zu den Satellitenmessungen. Dies zeigt, dass die Wissenschaft weit davon entfernt ist, sich einig zu sein, und wenn die Modelle die gemessenen Daten nicht abbilden können, sind sie falsch und müssen entweder verworfen oder verbessert werden, sofern das möglich ist. Eine eben erst erschienene Studie von Spencer and Braswell hat zu einem Aufruhr in der Klimaszene geführt, weil sie sehr klar zeigt, dass die Modelle mit ihren Prognosen weit von der Wirklichkeit entfernt sind. Die Satellitendaten passen nicht zu den Modellen.

Viertens, Hurrikane werden nicht immer häufiger und stärker. Tatsächlich war die derzeitige Hurrikanaktivität seit Beginn von Satellitenbeobachtungen noch nie so gering. Inzwischen steigt der CO2-Gehalt immer weiter. Eine weitere Fehlvorhersage, die beweist, dass ihre Gedanken kompletter Unsinn sind. Die Karte unten stammt von Dr. Ryan Maue von der Florida State University und zeigt den gegenwärtigen Status der Tropischen Zyklone weltweit, gemessen als Accumulated Cyclone Energy von 1972 bis heute. Die obere Linie steht für die ganze Welt, die untere für die Nordhemisphäre. Die Gesamtenergie liegt jetzt wieder auf einem Niveau wie Mitte der siebziger Jahre, und der CO2-Gehalt steigt immer weiter.

 

Fünftens und letztens, die einzige zutreffende Prognose der Warmisten ist die fortgesetzte Abnahme der arktischen Eiskappe. Allerdings haben sie dabei Ursache und Wirkung aus folgenden Gründen komplett falsch angesetzt. Erstens behaupten die Warmisten, dass eine schrumpfende Eiskappe ein starker Beweis für eine Erwärmung der Arktis wäre und dass diese Erwärmung durch die Rückstrahlung des CO2 in der Atmosphäre kommt. In Wirklichkeit bildet Eis einen Isolator und verhindert die Abgabe der Wärme aus den Ozeanen in die Atmosphäre. In gleicher Weise wirkt das Eis auf Seen und verhindert, dass die Seen komplett zufrieren, solange sie nicht zu klein sind. Die wachsende und schrumpfende Eisbedeckung in der Arktis agiert als negative Rückkopplung auf den Wärmegehalt der Ozeane. Wenn sich die Ozeane erwärmen, schmilzt das Eis an den Rändern. So gibt es dann mehr offenes Wasser, das Strahlung aussendet. Normalerweise wird das Minimum der Eisbedeckung Mitte September erreicht, was in den langen Polarnächten die Ausstrahlung großer Wärmemengen zur Folge hat. Dadurch kühlen sich die Ozeane wieder ab, danach die Luft, so dass sich wieder mehr Eis bildet. Das System oszilliert dann zwischen mehr oder weniger Eis mit der Folge, dass auch Temperatur und Wärmegehalt der Ozeane oszillieren mit einer leicht verschobenen Phase.

Schlussfolgernd lässt sich also sagen, falls irgendjemand noch daran glaubt, dass das CO2 das macht, was die Wissenschaftler behaupten, schlage ich vor, dass Sie das nächste Mal daran denken, wenn Sie am Lagerfeuer sitzen oder neben einer Kerze oder jeder anderen stabilen Energiequelle. Bewegen Sie sich hin zu ihr, dann wieder zurück. Suchen Sie auch nach einer soliden Mauer, die von der Sonne beschienen worden ist. Legen Sie ihre Hand nach Sonnenuntergang an die Mauer und fühlen Sie deren Wärme. Entfernen Sie sich dann von der Mauer und beobachten, wie lange die Wärme noch fühlbar ist. Denken Sie dann an das kleine CO2-Molekül, das auch die Wärme fühlen muss, die Wärme absorbiert und sie dann wieder ausstrahlt. Man erinnere sich, dass die Wissenschaftler darauf bestehen, dass sich die Erde von 1910 bis 1940 erwärmt hat – obwohl der CO2-Gehalt sehr, sehr niedrig gelegen hatte.

Schauen Sie auch auf die Blogs von Anthony Watts und E. M. Smith. Überdenken Sie Folgendes: wenn sich die Wissenschaft einig ist und wir jetzt etwas tun müssen, wenn wir die Zukunft der Erde nicht an eine Wärmehölle verlieren wollen oder an steigende Ozeane oder an Monsterhurrikane und all die anderen Katastrophen, warum hat dann das CERN-Experiment gezeigt, dass die Wolken erheblich wichtiger sind als das CO2? Warum zeigen die Satellitenmessungen, dass die Modellvorhersagen alle falsch sind? Warum hat sich nie etwas zugunsten der Warmisten gezeigt? Das einzige, worauf die Warmisten zeigen können, ist das abnehmende Meereis in der Arktis, aber wie oben schon angesprochen, liegen sie damit völlig falsch.

Sehen Sie selbst, dass viele, viele Städte keine Erwärmung oder gar leichte Abkühlung zeigen. Dann fragen Sie sich, wie kann das sein? Wie kann das CO2 so schlau sein, dass es selektiv einige Städte außen vor lassen kann?

CO2 ist unschuldig. Das war es immer und wird es immer sein.

Roger E. Sowell, Esq.  

Link: http://sowellslawblog.blogspot.com/2011/09/from-man-made-global-warmist-to-skeptic.html

Übersetzt von Chris Frey für EIKE




Die Ausflüchte der Klimakatastrophen-Wissenschaftler

Provoked scientists try to explain lag in global warming

Es gibt einige interessante Aussagen von Klimawissenschaftlern in dem Artikel, die einen großen Grad an Unsicherheit hinsichtlich des Klimasystems zeigen, sowie der menschlichen Rolle dabei, selbst unter den Klimawissenschaftlern, die eng mit dem IPCC verflochten sind. Der lange Artikel konzentriert sich auf die Frage:

 „Warum ist der Temperaturanstieg des Planeten während des letzten Jahrzehnts trotz stetig steigenden CO2-Gehaltes zum Stillstand gekommen?”

Interessante Zitate und Texte (neu arrangiert, um die zitierten Personen in eine Reihe zu beklommen; man sollte den ganzen Artikel lesen [hier nicht übersetzt]) schließen ein (Hervorhebungen von Paul Voosen):

Von John Barnes

(Sein Spezialgebiet ist die Messung des stratosphärischen Aerosols):

Schaut man auf das vergangene Jahrzehnt und die globale Temperatur, so ist diese nicht gestiegen, sagte Barnes. „Es gibt eine große Streuung dabei. Aber die (Klima-)Modelle gehen nach oben. Und das muss erklärt werden! Warum ist es nicht wärmer geworden?

Barnes hat 20 Jahre lang einsame Wache geschoben (am Mauna Loa-Observatorium in Hawaii). Er fuhr Abend für Abend die kurvenreiche, mit Schlaglöchern übersäte Straße hinauf in sein von der Regierung betriebenes Büro und wartete auf das große Ereignis [the big one]. Seine Spezialität sind Messungen des stratosphärischen Aerosols, reflektierende Partikel aus Vulkanausbrüchen, von denen man weiß, dass sie den Planeten kurzzeitig abkühlen. Nur die gewaltigsten Vulkanausbrüche sind imstande, Emissionen über die Wolken hinaus zu blasen, dachten die Wissenschaftler, und so wartete Barnes auf seine Zeit, nachdem er den Laser errichtet hatte.

Bis auf den heutigen Tag hat es seit 1991 keinen großen Vulkanausbruch mehr gegeben! 1991 erfolgte der Ausbruch des Pinatubo auf den Philippinen, was zu einer Abkühlung der Erde um ein halbes Grad während einiger Jahre führte. Doch Barnes dokumentierte diese Ruhe unablässig und konnte so das Hintergrundniveau der Partikel in der Stratosphäre identifizieren. Und dann, als er vor vier Jahren in seinem Labor saß, nicht weit von dem Ort entfernt, wo Charles Keeling zuerst Messungen des steigenden atmosphärischen CO2-Gehaltes durchführte, fand Barnes etwas Komisches in seinen Aufzeichnungen zum Aerosol.

Barnes beklagt sich über die verwirrende Komplexität, all die kleinen Antriebe des Klimas voneinander zu trennen. Es machte Carles Keelings sorgfältige Arbeit, den steigenden CO2-Gehalt zu identifizieren, vergleichsweise zu einer sehr einfachen Angelegenheit.

 „Es ist wirklich subtil”, sagte er. „Es ist schwierig zu bestimmen, wie viel von den Ozeanen aufgenommen wird, weil die Ozeane Einiges von der Wärme aufsaugen. Und an vielen Orten sind die Messungen einfach nicht genau genug. Wir haben Satelliten, die den Energiehaushalt messen können, und doch gibt es hier noch Hypothesen. Es gibt Hypothesen über die Ozeane, weil wir keine Vielfalt von Messungen von den Ozeanen haben“.

Von Jean-Paul  Vernier

Vor fünf Jahren veränderte ein Ballonaufstieg über dem Sand der Sahara das Leben von Jean-Paul Vernier.

Der Ballon stieg über dem in der Hitze gebackenen Sand von Niger auf, ausgerüstet um Aerosole einzufangen, das Gemisch aus natürlichen und anthropogenen Partikeln, die in die Atmosphäre entwichen waren. Der Ballon stieg über die Wolken und in die Stratosphäre. Dort erwartete Vernier klaren Himmel zu finden; schließlich hatte es seit mehr als einem Jahrzehnt keine Eruption wie vom Pinatubo mehr gegeben. Aber er lag falsch. In einer Höhe von 12 Meilen [ ca. 19 km] fand der Ballon eine Ladung [a lode = im Bergbau eine Ader oder ein Flöz. Eine andere Übersetzung konnte ich nicht finden. A. d. Übers.] von Aerosolen.

Vernier hatte eine Scheibe des Trends gefunden, den Barnes auf dem Mauna Loa in Hawaii entdeckt hatte. Es war erstaunlich. Woher könnten diese Wärme reflektierenden Aerosole stammen? Vernier war sich nicht sicher, aber Barnes und sein Team wagten eine Vermutung, als sie ihr Ergebnis verkündeten. Es war ihrem Vorschlag zufolge die rapide zunehmende Industrialisierung in China, die sie so hatte zunehmen lassen.

Ein französischer Wissenschaftler, der am Langley Research Center der NASA in Virginia arbeitete, um Aerosole zu studieren, nämlich Vernier, bediente sich wie Barnes eines Lasers, um die Existenz dieser blöden Aerosole zu verstehen. Aber er verwendete keinen auf dem Erdboden installierten Laser, sondern einen aus dem Weltraum.

Im gleichen Jahr wie die Ballon-Messkampagne in Niger hat die NASA einen mit Laser ausgestatteten Satelliten gestartet mit dem Ziel, Aerosole über den Wolken zu messen. Vernier und seine Kollegen vermuteten mit einer Portion Scharfsinn, dass sie den Laser mit der Bezeichnung CALYPSO dazu bringen könnten, auch klare Angaben zur Stratosphäre zu liefern. Die Datenlawine des Satelliten war chaotisch – zu viel Rauschen nach Barnes’ Geschmack, als er sich das ansah – aber viele Jahre später konnte Vernier sie deuten. Er hatte eine Antwort gefunden.

Zuallermeist schienen die Aerosole nicht aus China zu kommen!

Von Kevin Trenberth

Die Lücke (in der Erwärmung) kam nicht unerwartet. Variabilität beim Klima kann steigende Temperaturen vorübergehend unterdrücken, wobei jedoch vor dieser Dekade die Wissenschaftler nicht genau wussten, wie lange solche Pausen dauern könnten. In jedem Fall ist eine Dekade ein zu kurzer Zeitraum, um etwas über menschliche Auswirkungen auf das Klima zu sagen. In einem demnächst veröffentlichten Papier sind 17 Jahre das Mindeste.

Einigen Wissenschaftlern reichte es, die Lücke der natürlichen Variabilität des Planeten zuzuschreiben. Die Temperatur wird bald wieder steigen. Getrieben durch das immer dicker werdende Tuch, das durch die Treibhausgase über die Erde geworfen wird. Die Leute werden das vergessen.

Aber für andere war diese einfache Antwort ein Fehlschlag. Falls die Wissenschaftler den Stillstand auf die natürliche Variabilität zurückführen, stehen sie vor dem Problem, präzise zu erklären, wie diese Variationen funktionieren. Ohne Beweise sind ihre Statements nicht besser als die unbegründeten Theorien der Skeptiker im Internet.

 „Das hat mich immer bewegt“, sagte Kevin Trenberth, Leiter der Abteilung Klimaanalyse am National Center for Atmospheric Research. „Natürliche Variabilität ist kein Grund. Man muss sagen, welcher Aspekt der natürlichen Variabilität“.

Bis zum Jahre 2003 gab es unter den Wissenschaftlern ein tragbares Verständnis darüber, wohin die gefangene Wärme der Sonne ging; sie wurde reflektiert durch steigende Meeresspiegel und steigende Temperaturen. Seitdem hat die Wärme in den oberen Schichten der Ozeane jedoch kaum zugenommen, und der Meeresspiegelanstieg hat sich verlangsamt, während Satellitendaten über Ein- und Ausstrahlung – dem Energiehaushalt der Erde – ergaben, dass jede zunehmende Menge an Energie von außen auf dem Planeten eingefangen werden müsste. (Einige Wissenschaftler stellen in Frage, sich zu sehr auf die Satellitendaten zu verlassen, seit die beobachtete Energie drastisch nach unten korrigiert werden muss, vorgegeben durch die Klimamodelle). Unter der Voraussetzung, dass dieser Haushalt angeblich solare Zyklen und Aerosole berücksichtigt, fehlte etwas.

Wohin war die Wärme gegangen? Trenberth hat diese Frage immer wieder wiederholt.

Vor kurzem, in Zusammenarbeit mit Gerald Meehl und anderen, schlug Trenberth eine Antwort vor. In einer im September veröffentlichten Studie stellten sie ein Klimamodell vor, das Jahrzehnte lange Pausen beim Temperaturanstieg simulierte, und die damit verbundene fehlende Energie könnte damit zusammenhängen, dass die Wärme in die tiefen, kalten Ozeane sinkt, bis über eine Tiefe von 2000 Fuß [ca. 600 m] hinaus. Das Team verwendete ein neues Modell, das für den nächsten UN-Bericht zum Klima erstellt worden ist. Anders als die Modelle in der Vergangenheit kommt die Variabilität im Pazifik gut zum Ausdruck, was „wichtig zu sein scheint“, sagte Trenberth.

Während eines La Niña-Ereignisses bedeuten die kälteren Wassertemperaturen im Pazifik geringere konvektive Aktivität – weniger tropische Stürme usw., weniger Wolken und damit mehr Sonne“, sagte er. „Die Wärme verschwindet im Ozean, wird aber durch die Meeresströmungen weilweit verteilt. Damit tragen ironischerweise kältere Bedingungen zu größerer Wärmeabscheidung bei“.

Es ist eine überzeugende Illustration, wie die natürliche Variabilität, zumindest in diesem Modell, den Einfluss der zunehmenden Treibhausgase für ein Jahrzehnt oder länger überkompensieren kann, sagen mehrere Wissenschaftler. Jedoch ist die Suche nach einer Antwort einem prominenten Forscher zufolge – Hansen von der NASA – überflüssig.

Und zwar weil es nach Hansen keine fehlende Energie gibt.

Trenberth stellt in Frage, ob die ARGO-Messungen stabil genug sind, um definitiv zu bestätigen, was Hansen entwirft. Er hatte viele Diskrepanzen unter den Datenanalysen gesehen, und es gibt immer noch „fehlende und irrige Daten und Anpassungen“, sagte er. Die ARGO-Messungen sind wertvoll, fügte er hinzu, aber sie sind noch nicht da.

Von Susan Solomon 

co-chairs der Working Group 1 of the Intergovernmental Panel on Climate Change.[2

„Das Faszinierendste für mich an dieser vergangenen Zehn-Jahres-Periode war, dass es die Leute nachdenklich gemacht hat hinsichtlich der dekadischen Variabilität, und zwar viel mehr als vorher”, sagte Susan Solomon, eine Atmosphärenchemikerin und frühere Leitautorin eines Berichtes der UN zum Klima während einem kürzliche Besuch am MIT. „Und das kann nur gut sein. Es gibt keine silberne Kugel. In diesem Falle sind es vier oder fünf Stückchen einer Silber-Schrotladung“.

Solomon hat gezeigt, dass die Menge an Wasserdampf in der Stratosphäre zwischen 2000 und 2009 um 10 Prozent abgenommen hat. Dieser Rückgang, entweder hervorgerufen durch natürliche Variabilität – möglicherweise im Zusammenhang mit El Niño – oder als Rückkopplung der Klimaänderung, hielt vermutlich 25% der Erwärmung durch Treibhausgase zurück, die es sonst gegeben hätte. (Einige Wissenschaftler haben angemerkt, dass diese Schätzung sehr hoch ist). Jetzt scheint eine andere Dynamik die Hauptrolle über den Wolken zu übernehmen.

In einer in diesem Sommer veröffentlichten Studie haben Solomon, Vernier und andere aus diesen unterschiedlichen Fakten gefolgert, dass diese Aerosole einen Abkühlungstrend um 0,07°C während der letzten Dekade gebracht haben. Ähnlich wie beim Wasserdampf gibt es keine einzelne Antwort, sondern es war nur ein kleiner Mitspieler. Dies ist die Art von geringen Einflüssen, die in künftigen Klimamodellen mit berechnet werden muss, sagt Santer von Livermore.

Solomon war überrascht, Verniers Arbeit zu sehen. Sie erinnerte sich an den Ausbruch des Soufrière und dachte bei sich, „dass dieser es niemals bis in die Stratosphäre schaffen würde“. Mit dem neuen Wissen änderte sich diese Erkenntnis rasch. „Man kann sehen, das all diese kleinen Eruptionen, von denen wir angenommen hatten, dass sie keine Rolle spielen, eben doch von Bedeutung sind“, sagte sie.

Von Jim Hansen

Diese Entdeckungen sorgen dafür, dass die größten Namen unter den Wissenschaftlern ihre Meinung ändern.

"Tatsächlich könnte die größte Ausbeute der Jagd nach der Energie darin bestehen, dass die Forscher den reflektiven Effekt der Luftverschmutzung chronisch unterschätzen, sagte Jim Hansen von der NASA, Leiter des GISS.

Jüngste Daten haben ihn gezwungen, seine Ansichten über die Menge der von der Sonne kommenden, in den Ozeanen gespeicherten Energie zu ändern, die den Planeten erwärmt. Stattdessen, sagt er, hat die Luftverschmutzung aus der Verbrennung fossiler Treibstoffe direkt und indirekt die Treibhauserwärmung maskiert, und zwar mehr, als jeder gedacht hatte.

Es war in „keiner Weise beeinflusst durch die unsinnigen Behauptungen der Gegner”, sagte Hansen. „Dies sind fundamentale Dinge, auf die sich die Wissenschaft immer konzentriert hat. Das Problem bestand im Fehlen (wissenschaftlicher) Beobachtungen“.

Hansen von der NASA bestreitet, dass die Einwände der Skeptiker die Klimawissenschaftler dazu gebracht hat, den Einfluss der Sonne auf das Klima zu ignorieren. Sein Team, sagt er, „hat immer den solaren Antrieb basierend auf Beobachtungen und Judiths Schätzungen für die Zeit vor genauen Messungen mit einbezogen“.

 „Dies hier macht die Sonne noch etwas wichtiger, weil die solare Variabilität das Ungleichgewicht in der planetarischen Wärmebilanz moduliert”, sagte Hansen. „Aber der solare Antrieb ist zu schwach, das Ungleichgewicht negativ zu machen, d. h. solare Variationen werden keine globale Abkühlung verursachen“.

„Unglücklicherweise ändern sich der solare Antrieb und der stratosphärische Wasserdampfgehalt, wenn wir uns auf das vulkanische Aerosol konzentrieren, es handelt sich um einen Fall, einen Schlüssel im Licht von Straßenlampen zu suchen“, sagte Hansen. „Was wir tun müssen ist, auf den Antrieb des troposphärischen Aerosols zu schauen, aber das liegt nicht unter der Straßenbeleuchtung.“

 „Ich habe den Verdacht, dass es eine Zunahme des Aerosols im Zuge eines rasch steigenden Kohleverbrauchs während der letzten 5 Jahre oder so gegeben hat”, sagte er. „In den Gebieten, wo man das erwartet, gibt es semi-quantitative Beweise dafür. Unglücklicherweise besteht das Problem darin, dass wir das Aerosol nicht genau genug messen können um zu bestimmen, wie es wirkt und wie es sich verändert.“

Noch grundlegender, die ARGO-Daten haben Hansen veranlasst, sein Verständnis darüber, wie das Klima funktioniert, auf grundlegende Weise zu ändern, eine Änderung, die er in einer bestimmt kontrovers aufgenommenen Studie ausführt, die später in diesem Jahr veröffentlicht werden soll.

Seit Jahrzehnten ist den Wissenschaftlern bekannt, dass der größte Anteil der durch die Treibhausgase zurück gehaltenen Wärme in die Ozean geht, nicht in die Atmosphäre. Als Ergebnis, sagen sie, würde sich die Erde selbst dann erwärmen, wenn die Emissionen morgen gestoppt werden könnten, weil die Atmosphäre danach trachtet, den Ausgleich mit der Wärme im Ozean zu suchen. Oder, wie Hansen einwarf, diese Extraerwärmung würde „in der Pipeline“ stecken mit Auswirkungen, die Jahre über Jahre auf der Lauer liegen. Aber wie viel Wärme genau in der Pipeline ist, hängt davon ab, wie effektiv die Wärme in den Ozeanen durchmischt wird.

Hansen glaubt, jetzt eine Antwort zu haben: Im Vergleich zu den ARGO-Daten und einer Studie zu den Spuren, die demnächst durch mehrere NASA-Wissenschaftler veröffentlicht werden wird, haben alle diese Klimamodelle übertrieben, wie effizient die Ozeane die Wärme verteilen. Diese Einhelligkeit dieser effizienten Durchmischung könnte aufgrund verschiedener Abstammungen in ihrem Code herrühren. Wie auch immer, es bedeutet, dass die Klimamodelle die Energiemenge beim Klima überschätzt haben, und zwar in ihrem Trachten danach, die stattfindende Erwärmung mit effizienten Ozeanen passend zu machen. Sie haben ein Problem gelöst, das gar nicht existiert.

Auf den ersten Blick kann dies leicht wie eine gute Nachricht klingen, aber das ist es nicht.

Eine weniger effiziente Durchmischung würde unter gleichen Bedingungen bedeuten, dass weniger Wärme ‚in der Pipeline’ steckt“, sagte Hansen. „Aber es impliziert auch, dass der negative Antrieb durch das Aerosol möglicherweise größer ist, als viele Modelle annehmen. Also ist der faustische Aerosolhandel möglicherweise ein größeres Problem als ursprünglich angenommen.“

Von John Daniel

(ein Forscher am Earth System Research Lab der NOAA)

Als der Rekord 1998 aufgetreten war, kamen die Wissenschaftler ins Stocken. Das passiert oft angesichts hoher Temperaturen. Sie interpretieren zu viel da hinein, sagte John Daniel, ein Forscher am Earth System Research Lab der NOAA.

„Wir machen einen Fehler, jedes Mal, wenn die Temperatur steigt, implizieren wir, dass es an der globalen Erwärmung liegt”, sagte er. „Wenn man jedes Mal dabei eine große Sache daraus macht, sollte man auch jedes Mal eine große Sache daraus machen, wenn die Temperatur zurück geht.“

Von Ben Santer

Seit einer Dekade ist es genau das, was passiert. Skeptiker machen übertriebene Behauptungen über die „globale Abkühlung“ und meinen seit 1998. (Als ein repräsentatives Beispiel, vor zwei Jahren nannte der Kolumnist George Will 1998 den „Gipfel“ der Erwärmung). Wissenschaftler mussten die Verteidiger spielen, sagte Ben Santer, ein Klimamodellierer am Lawrence Livermore National Laboratory.

"Diese Diskussion über die Nicht-Erwärmung seit 1998 hat die Leute denken lassen, über das warum nachzudenken und das warum zu verstehen“, sagte Santer. „Aber es brachte die Leute auch dazu, diese falschen Behauptungen zu korrigieren“.

Susans Zeug ist besonders wichtig”, sagte Santer. „selbst wenn man das hypothetisch perfekte Modell hat, wenn man die falschen Antriebe eingibt, wird man eine falsche Antwort bekommen!“

Von Judith Lean

Die Antwort auf die Lücke liegt Judith Lean zufolge komplett in den Sternen. Oder besser, in einem Stern.

Erst vor Kurzem haben sich Klimamodellierer gefragt, wie die 0,1 Prozent das Weltklima über Dekaden lange Zeiträume beeinflussen kann. (Den besten Schätzungen zufolge führt das zu Temperaturänderungen von 0,1°C). Davor, um den Komiker Rodney Dangerfield zu zitieren, hat Lean zufolge die Sonne keinerlei Aufmerksamkeit erfahren. …

Klimamodelle haben bei der Abbildung des zyklischen Einflusses der Sonne auf das Klima versagt, und das „hat zu dem Gefühl geführt, dass die Sonne außen vor ist“, sagte Lean. „Und sie müssen absolut beweisen, dass sie außen vor ist“.

Lean zufolge ist die Kombination von vielen La Niñas und dem solaren Minimum, das ausgehend von einem Maximum 2001 im Jahre 2008 ungewöhnlich lange dauerte, alles, was gebraucht wird, um die zunehmende Erwärmung durch steigende Treibhausgaskonzentrationen zu kompensieren. Da die Sonne inzwischen aber wieder aktiver geworden ist, nimmt Lean an, dass die Temperaturen parallel zur Sonnenaktivität steigen mit einem Maximum 2014.

Dieser konsistente Trend hat Lean veranlasst, einen für einen Klimawissenschaftler seltenen Schritt zu tun: Sie machte eine Kurzfristvorhersage. Bis 2014 nimmt sie einen Anstieg der globalen Temperatur um 0,14°C an, getrieben durch den menschlichen Einfluss und die Sonne.

Von Graeme Stephens

Während der vergangenen Dekade hatten Wissenschaftler zum ersten Mal Zugang zu verlässlichen Messungen der ozeanischen Tiefenwärme, bis hinab zu 5000 Fuß [ca. 1500 m] unter dem Meeresspiegel, und zwar durch das ARGO-Beobachtungsnetz, einer Sammlung tausender automatischer Bojen, die alle paar Tage in der Wassersäule auf und ab schwimmen. Dies brachte Hansen zu der Schlussfolgerung, dass die Energiebilanz, um kurz technisch zu werden, 0,6 Watt pro Quadratmeter betragen würde und nicht 1 Watt pro Quadratmeter, wie einige angeführt haben.

 (Vor kurzem hat die Satellitengruppe, die die Energiebilanz misst, das Bild revidiert zu jetzt 0,6 Watt, was Graeme zufolge mit Hansens Schätzung übereinstimmt.) Graeme ist Leiter der Cloudsat-Mission bei der NASA. Es legt nahe, dass es keine fehlende Energie gibt. Trenberth widerspricht dieser Analyse, und es ist wahrscheinlich eine Frage der im Gange befindlichen Debatte).

Von Robert Kaufmann

Im vergangenen Sommer hat Robert Kaufmann, ein BU-Geograph, Wellen geschlagen, als er eine Modellstudie veröffentlicht hat, in der es hieß, dass die fehlende Erwärmung vollständig auf El Niño und den zunehmenden Ausstoß von Sulfaten durch Kohleverbrennung in China zurückgeführt werden kann. Während die von Kaufmann benutzten Graphiken auf der Kohleverbrennung des Landes basieren und nicht auf aktuellen Emissionen – ein großer Punkt der Ungewissheit – erkannten viele Wissenschaftler einen gewissen Wahrheitsgehalt in seinen Hypothesen.

Von Martin Wild

Während der achtziger und neunziger Jahre dominierte die rasche Abnahme der Luftverschmutzung in den USA und Europa die Trends der weltweiten Aerosole. Während diese Emissionen im Westen weiter abnehmen, hat die Kohleverbrennung in Asien stark zugenommen. Die Welt wird dadurch nicht dunkler, sondern es ist so, dass sie nicht noch heller wird.

„Es ist kein allgemeiner Trend mehr”, sagt Martin Wild, ein leitender Autor der nächsten UN-Beschreibung des Klimazustands am Swiss Federal Institute of Technology, Zürich. Aber, fügt er hinzu, „es passt sehr gut zu der Energieerzeugung mit Kohle. Für mich ist es ziemlich erhellend, dass es so gut passt. Aber es kann immer noch Zufall sein“.

Von Daniel Jacobs

Die Ergebnisse von Kaufmann könnten nicht mehr lange relevant sein. Seit 2006 hat China begonnen, Filter in seine Kohlekraftwerke einzubauen, obwohl es jedoch unsicher ist, wie oft diese Filter  funktionieren, selbst nachdem sie installiert worden sind. Aber die Veränderung kommt, sagte Daniel Wild, ein Atmosphärenchemiker an der Harvard University.

„Die Sulfatquellen haben sich eingependelt, weil sie begonnen haben, ernstzunehmende Emissionskontrollen in ihren Kraftwerken einzuführen“, sagte Jacob. „Das ist interessant! Schaut man auf künftige Emissionsszenarien des (nächsten UN-Klimaberichtes), sieht man die So2-Emissionen fallen wie ein Stein, selbst in den kommenden Jahrzehnten. Hauptsächlich deshalb, weil China etwas gegen das Problem der beeinträchtigten öffentlichen Gesundheit unternehmen muss“.

Am Ende des Artikels wird die sich entwickelnde Debatte selbst unter diesen Wissenschaftlern beleuchtet.

…Viele der Wissenschaftler, die sich mit der Erwärmungslücke befassen, haben gegensätzliche Ansichten – und tauschen sie in einer kameradschaftlichen und gelehrten Art und Weise aus. Judith Lean, die Solarwissenschaftlerin, findet Kaufmanns Arbeit nicht überzeugend und missbilligt die unnötige Kritik an China. Kaufmann moniert in Solomons Studien zur Stratosphäre fehlende Beweise. Hansen und Trenberth können sich nicht über einen Haushalt einigen.

Es erscheint atemberaubend, dass in einigen Jahren ein neuer Konsens für den nächsten UN-Bericht zur Klimaänderung zustande kommt. Aber er wird zustande kommen, und unter der Oberfläche werden wie immer die aufwühlenden Theorien und Rivalitäten lauern, die Fragen, das Wasser auf die Mühlen des wissenschaftlichen Lebens.

Kann also am Ende irgendjemand explizit benennen, was zu der Erwärmungspause geführt hat?

 „Alle diese Dinge tragen zu der relativ gedämpften Erwärmung bei“, sagt Santer in Livermore. „Die Schwierigkeit besteht darin, den Anteil der verschiedenen Beiträge herauszufinden. Das kann man nicht ohne systematisches Modellieren und Experimentieren tun. Ich hoffe, dass jemand das macht“.

Barnes für seinen Teil würde es gefallen herauszufinden, ob einige der Aerosole, die er in der Stratosphäre gefunden hatte, tatsächlich von der chinesischen Kohleverbrennung stammen. Es ist schwierig, das herauszufinden, aber er hofft, dass es geschehen könnte.

“Vielleicht, können wir es herausfinden, wenn sich die Kohleverbrennung verdreifacht”.

Autor Paul Voosen:

Link zum ausführlichen Artikel: http://www.eenews.net/public/Greenwire/2011/10/25/1

Link zu diesem Artikel im Original: http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=1987

Übersetzt von Chris Frey für EIKE




Brandneu! – CERN-Experiment bestätigt: kosmische Strahlen beeinflussen die Wolkenbildung!

Sogar das IPCC hat dies im letzten Bericht (2007) bestätigt:

 „Das Feedback der Wolken ist die wichtigste Quelle von Unterschieden zwischen den einzelnen Modellen beim Gleichgewicht der Klimasensitivität, mit den tiefen Wolken als dem größten Beitrag.“

Aktualisierung: Im Artikel in Nature klingt es bei Kirkby noch etwas gedämpfter als bei der GWPF:

Frühere Ergebnisse scheinen darauf hinzuweisen, dass kosmische Strahlen Grund für eine Änderung sind. Die hochenergetischen Protonen scheinen die Bildung von Nanometer großen Partikeln in der gasförmigen Atmosphäre mit einem Faktor zehn zu begünstigen. Aber, fügt Kirkby hinzu, diese Partikel sind viel zu klein, um als Kondensationskerne für Wolken zu dienen. „Im Moment sagt das nichts über eine mögliche Auswirkung kosmischer Strahlen auf Wolken und Klima, aber es ist ein erster sehr wichtiger Schritt“, sagt er.

Aktualisierung: Bizarrerweise kommt das Magazin New Scientist mit dieser Schlagzeile daher: Cloud-making: Another human effect on the climate [etwa: Wolkenmachen: Eine weitere menschliche Auswirkung auf das Klima]

==========================================================

Experiment am CERN bestätigt den Einfluss kosmischer Strahlen auf Klimaänderung

von Nigel Calder

Lang erwartete Ergebnisse des CLOUD-Experiments am CERN in Genf erscheinen in der jüngsten Ausgabe der Zeitschrift Nature (25. August). Der Generaldirektor des CERN erregte im vorigen Monat Kontroversen mit seinen Worten, dass der Bericht des CLOUD-Teams politisch korrekt über die Klimaänderung sein sollte (siehe den Link zu meinem früheren Beitrag vom 17. Juli unten). Die Absicht war, auf keinen Fall die dänische Häresie abzusegnen – Henry Svensmarks Hypothese, dass der größte Teil der globalen Erwärmung des 20. Jahrhunderts durch die Reduzierung kosmischer Strahlen infolge einer aktiveren Sonne erklärt werden kann, was zu weniger Bewölkung und damit höheren Temperaturen an der Erdoberfläche führt.

Wohl oder übel sprechen die Ergebnisse für sich, und es ist kein Wunder, dass der Generaldirektor unruhig geworden ist.

Jasper Kirkby am CERN und seine 62 Mitautoren von 17 Instituten in Europa und den USA verkünden große Auswirkungen von Pionen aus einem Beschleuniger, der die kosmischen Strahlen simuliert und die Luft in einem Experimentierkasten ionisiert. Die Pionen sorgen in erheblichem Umfang dafür, dass sich Cluster von Schwefelsäure- und Wassermolekülen bilden – Aerosole von der Art, die zu Kondensationskernen für Wolken anwachsen können, um die sich dann Tröpfchen bilden. Mehr noch, es ergab sich auch eine sehr wichtige Klärung der beteiligten Chemie.

Ein Bruch der Etikette

Mein Interesse am CLOUD-Experiment reicht fast 14 Jahre zurück, und zwar bis zu einem Vortrag, den ich am CERN über Svensmarks Entdeckung über den Zusammenhang zwischen kosmischen Strahlen und Bewölkung gehalten habe.  Dies erregte Kirkbys Neugier, und wir beide, Svensmark und ich waren unter jenen, die ihm halfen, seinen Vorschlag für CLOUD auf den Weg zu bringen.

Es ist eine unfreundliche Ironie, dass der einzige Svensmark-Beitrag, der im Nature-Bericht bestätigt worden ist, die Studie von 1997 (Svensmark und Friis-Christensen) ist, auf die ich mich bei meinem CERN-Vortrag bezogen hatte. Die erfolgreichen Experimente in der Ionenchemie und der Bildung molekularer Cluster durch das dänische Team in Kopenhagen, Boulby und zuletzt in Aarhus, bei denen die ersten Resultate von CLOUD mit Hilfe eines Partikelstrahlers (an Stelle von Gammastrahlen und natürlichen kosmischen Strahlen) zur Ionisierung der Luft in einer Experimentierkammer gewonnen worden sind, werden nicht erwähnt – siehe hier.

Was werden Wissenschaftshistoriker einst zu diesem Bruch der wissenschaftlichen Etikette sagen? Dass Kirkby ärgerlich war, weil Svensmark, der wegen der langen Verspätung der Finanzierung und die Genehmigung des CLOUD-Experimentes die Geduld verloren hatte, die Sache nun selbst in die Hand nahm? Oder weil Svensmarks Offenheit hinsichtlich der kosmischen Strahlung Zweifel an der katastrophalen, anthropogen verursachten Klimaerwärmung säte, die die nationalen geldgebenden Institutionen ängstigte? Oder tat Kirkby lediglich sein bestes (trotz der Ergebnisse), um seinem Generaldirektor zu gehorchen, in dem er alles Dänische ignorierte?

Abgesehen von den persönlichen Rivalitäten: Die wichtige Frage lautet, was die neue CERN-Studie für die Svensmark-Hypothese bedeutet. Sucht man seinen Weg durch die zurückhaltende Prosa, findet man Folgendes:

Ionen induzierte Keimbildung (Wirkung der kosmischen Strahlen) wird sich selbst als eine ständige Produktionsstätte neuer Partikel (molekulare Cluster) manifestieren. Es ist schwierig, dies in atmosphärischen Beobachtungen wegen anderer Quellen von Variabilität zu isolieren, aber sie findet nichtsdestotrotz statt und kann ziemlich groß werden, wenn man es global über die Troposphäre mittelt“.

Das ist so durchsichtig im Sinne dessen, was die Dänen schon die ganze Zeit gesagt haben, dass ich überrascht war, dass ein Warmistenmagazin wie Nature das veröffentlichen konnte, wobei jedoch die Bände sprechende Graphik (s. unten) weggelassen wurde. Zusätzlich zu den vorher schon positiven experimentellen Ergebnissen der Dänen ist das Ergebnis des detaillierteren CERN-Experiment exzellent. Tausend Dank, Jasper!

Eine Graphik, bei der sie gerne sehen würden, dass Sie sie nicht bemerken. Versteckt am Ende des online verfügbaren unterstützenden Materials und beim Abdruck in Nature ausgelassen, zeigt sie eindeutig, wie kosmische Strahlen die Bildung molekularer Cluster („Teilchen“) anregen, die in der realen Atmosphäre wachsen können und zur Wolkenbildung führen. In einem experimentellen Durchlauf am CERN, der um 03.45 Uhr begann, erzeugte ultraviolettes Licht Schwefelsäuremoleküle in der Kammer, während ein starkes elektrisches Feld die Luft ionenfrei machte. Es tendierte auch dahin, molekulare Cluster, die sich in einer neutralen Umgebung (n) gebildet hatten, zu entfernen, aber einige von diesen akkumulierten sich mit einer niedrigen Rate. Sobald das elektrische Feld um 04.33 Uhr ausgeschaltet wurde, halfen natürliche kosmische Strahlen (gcr), die durch das Dach der Experimentierhalle in Genf einfielen, dass sich Cluster mit einer höheren Rate bildeten. Woher wissen wir, dass sie den Beitrag geleistet haben? Daher: als um 04.58 Uhr im Rahmen von CLOUD stärkere kosmische Strahlen mit einem Strahl geladener Pionen (ch) aus dem Beschleuniger simuliert wurden, verstärkte sich die Rate der Clusterbildung noch mehr. Die verschiedenen Farben stehen für Cluster unterschiedlicher Durchmesser (in Nanometern), wie sie durch zahlreiche Instrumente aufgezeichnet worden sind. Die Teilchen mit dem größten Durchmesser (schwarz) brauchten am längsten zum Wachsen, beim kleinsten Durchmesser (blau) ging es am schnellsten. Dies ist Abbildung S2c aus dem unterstützenden Online-Material für J. Kirkby et al., Nature 476, S429 bis 433, © Nature 2011.

 

Erläuterung der Chemie

Und in besseren Zeiten würden wir an der Kampagne einer wunderbaren Entdeckung mit CLOUD teilnehmen, dass Spuren von Ammoniak die Produktion von schwefligen Clustern tausendfach verstärken kann. Dies wird in der Überschrift auf den Punkt gebracht: „Die Rolle von Schwefelsäure, Ammoniak und galaktischer kosmischer Strahlen bei der Bildung atmosphärischer Aerosole“. Möglich wurde dies durch aufwändige chemische Analysen in großem Rahmen in Genf. Im Zentrum steht, dass Ammoniak hilft, molekulare Cluster zu stabilisieren.

Obwohl es das nicht offen sagt, impliziert das CLOUD-Team eine Herabsetzung für die Dänen mit diesen Ergebnissen, indem sie wiederholt erklärten, dass es ohne Ammoniak kaum Clusterbildungen in niedrigen Breiten geben würde. Aber obwohl die Experimentierer in Aarhus tatsächlich die einfachere Reaktionsgleichung (H2SO4 + H2O) übernehmen, bekamen sie durch abweichende Ergebnisse in nachfolgenden Experimenten den Verdacht, dass sich variierende Mengen von Spurenbestandteilen in ihren Luftzylindern befanden, um die Kammer zu füllen. Jetzt sieht es so aus, als ob der Schlüsselbestandteil Ammoniak gewesen sein könnte. Aber einige Mitglieder des CLOUD-Konsortiums bevorzugten auch (H2SO4 + H2O), und in früheren Durchläufen in Genf wurde kein Ammoniak mit Absicht benutzt. Also haben sie wenig Grund, sich darüber lustig zu machen.

In jedem Falle ist es lediglich von akademischem, aber nicht von praktischem Interesse, ob nun (H2SO4 + H2O) oder (H2SO4 + H2O + NH3) die zugrunde liegende Chemie ist. Es gibt immer Spuren von Ammoniak in der realen Luft, und dem CLOUD-Bericht zufolge braucht man nur ein Molekül in 30 Milliarden anderen. Falls das hilft, Svensmarks klimatischen Motor zu ölen, ist das gut zu wissen, aber es braucht keine Entschuldigungen und verändert die Implikationen auf das Klima kein bisschen.

Das Logo des Experiments, das Akronym „Cosmic Leaving Outdoor Droplets” implizierte immer ein starkes Interesse an Svensmarks Hypothese. Und die Rolle der Galaxie und der Sonne werden berücksichtigt.

Technisch ist CLOUD ein willkommener Fortschritt für die dänischen Experimente. Die Chemie ist nicht nur viel umfangreicher, sondern man kann auch molekulare Cluster bis zu dem geringen Durchmesser von 1,7 Nanometer aufspüren, verglichen mit den 4 nm in Dänemark. Und der Versuchsaufbau ermöglicht es den Wissenschaftlern, die Ionenchemie bei niedrigen Temperaturen zu untersuchen, korrespondierend mit zunehmender Höhe in der Atmosphäre. Die Clusterproduktion steigt rapide, wenn die Temperatur zurückgeht, bis „fast jedes negative Ion ein neues Partikel wachsen lässt“ (d. h. molekulares Cluster). Die niedrigste Temperatur, von der in der Studie berichtet wird, beträgt -25°C. Dies entspricht einer Höhe von 6000 Metern. Solange man nicht einen Regen von wolkenbildenden Aerosolen sichtbar machen will, ist das nicht sehr relevant für Svensmarks Interesse an den untersten 3000 Metern.

Wie die Warmisten ihren Damm gebildet haben

Gehe ich nun aus meiner Insider-Perspektive des CLOUD-Experiments hinaus und betrachte das Ganze im Umfeld einer politisierten Klimawissenschaft des frühen 21. Jahrhunderts, wird die stärkste Reaktion ein müder Seufzer der Erleichterung sein. Obwohl sie das niemals gesagt haben, wussten die Hohepriester der unbequemen Wahrheit – in Tempeln wie NASA-GISS, Penn State [University] und der University of East Anglia – immer, dass Svensmarks Hypothese der kosmischen Strahlen die Hauptbedrohung ihres skizzenhaften und ärmlich modellierten Gedankens der sich selbst verstärkenden Auswirkungen von Treibhausgasen war.

Mit der Erklärung des offensichtlich großen Einflusses der Sonne in früheren Jahrhunderten und Millenien und bei der Anwendung des gleichen Mechanismus‘ auf die Erwärmung im 20. Jahrhundert stellte Svensmark die Vorhersagen der Alarmisten in Frage – und mit ihnen die Milliarden von Dollar, die von ängstlichen Regierungen in das Geschäft der globalen Erwärmung gepumpt worden waren.

Für den Damm, der dazu gedacht war, einen wachsenden Strom von Entdeckungen aus dem Kopenhagener Frühling abzuwehren, wurde der erste Grundstein am Tag nach der ersten Bekanntmachung der Dänen über die Verbindung zwischen kosmischen Strahlen und Wolken auf einer Weltraumkonferenz in Birmingham, England, im Jahre 1996 gelegt. „Wissenschaftlich extrem naiv und unverantwortlich“ erklärte Bert Brolin als Vorsitzender des IPCC.

Da viele Journalisten sich daneben benahmen, indem sie über die Geschichte aus Birmingham berichteten, lag die oberste Priorität darin, die Medien zu zähmen. Die ersten Maurerarbeiten stellten sicher, dass alles, was Svensmark und seine Kollegen sagen könnten, ignoriert oder, falls das nicht gelingt, sofort durch einen warmistischen Wissenschaftler beseitigt wird. Seriöse Zeitungen wie The Times in London und die New York Times [und vielleicht auch die Süddeutsche Zeitung? A. d. Übers.] sowie seriöse Fernsehanstalten wie BBC reihten sich sofort ein. Enthusiastisch warmistische Magazine wie New Scientist und Scientific American brauchten kein Training in dieser Hinsicht.

Ganz ähnlich stellten die Zeitschriften Nature und Science, die in meiner Jugend sich selbst dafür priesen, vorherrschende Paradigmen herauszufordern, sehr gerne Zement für ein höheres Bauwerk zur Verfügung, um die verzwickte Hypothese auf dem wissenschaftlichen Niveau in Schach zu halten. Man streiche Svensmark die Förderung. Man weise seine wissenschaftlichen Studien zurück, aber man öffne jedem die Tür, der ihn kritisiert. Man trivialisiere seine Ergebnisse in Gestalt eines heiligen Erlasses des IPCC. Nichts davon ist für meinen Teil Paranoia, sondern eine Sache enger persönlicher Überwachung seit 1996.

„Es ist die Sonne, Dummkopf!” Die Geschichte handelt nicht wirklich von ein paar ungezogenen dänischen Physikern. Sie waren lediglich Sprecher für die brillantesten Ermittler der Klimaänderung. Da es die Sonne war, welche die Warmisten wirklich mit ihrem Damm abwehren wollten, konnten sie das nicht tun. Und was die Hilfe der Dänen betrifft, indem sie kurzerhand viele kosmische Strahlen mit großen Ausstößen von Gas davon bliesen, ermöglichte es die Sonne dem Team, detailliert der konsequenten Reduktion von Kondensationskernen und flüssigem Wasser in den Wolken auf die Spur zu kommen. Siehe hierzu auch meinen Beitrag hier. Übrigens, diese Forschungen entsorgten auch ein Häppchen Zweifel an der neuen CLOUD-Studie, dass nämlich die kleinen Speckstückchen der kosmischen Strahlen wirklich ausreichten, um Wolkentröpfchen zu bilden.

Mit dem zunehmenden Wissen hinter ihrem Damm, dass diesen zu überfluten drohte, stand den Warmisten noch eine letzte Möglichkeit zur Verfügung. Paradoxerweise war es CLOUD. Lange Verspätungen dieses Experiments, um den mikrochemischen Mechanismus des Svensmark-Effektes zu erforschen, wurden zur Hauptentschuldigung, keine Neubewertung der Rolle der Sonne bei der Klimaänderung vorzunehmen. Als der mikrochemische Mechanismus vorher durch das SKY-Experiment in Kopenhagen entdeckt und 2006 veröffentlicht wurde, sagten die Warmisten „Kein Teilchenbeschleuniger? Das bringt nichts! Wartet auf CLOUD!“ Als das Experiment in Aarhus den Mechanismus mit Hilfe eines Partikelbeschleunigers bestätigte, sagten sie “Oh, wieder diese Dänen! Wartet auf CLOUD!“

Nun, sie haben gewartet, und ihr Damm wurde gebrochen.

Hall of Shame

Was ist, wenn in der Rückschau dieser 14 Jahre die Physik so funktioniert hat, wie sie das sollte? Was wäre geschehen, wenn CLOUD, rasch angenommen und finanziert, mit all der Autorität des CERN bereits zu Anfang dieses Jahrhunderts durchgeführt worden wäre? Was wäre, wenn das IPCC hinsichtlich der Klimaänderung verantwortlich gearbeitet hätte; wenn  es die Rolle der Sonne berücksichtigt hätte und die Prophezeiungen der katastrophalen Erwärmung gedrosselt hätte?

Zunächst würde es keine Überraschung der „Schande [travesty]“ sein, dass die globale Erwärmung Mitte der neunziger Jahre mit der sich abschwächenden Sonne zum Stillstand gekommen ist. Riesige Summen für fehlgeleitete Forschung und Technologie sowie für Veranstaltungen zur Klimaänderung hätten gespart werden können. Die Armen der Welt und ihre fragile Umgebung hätten viel wichtigere Hilfe haben können als die für Vorkehrungen gegen die Erwärmung.

Und es wäre weniger Zeit für die vielen hervorragenden Leute aus Wissenschaft, Politik, Industrie, Finanzsektor, den Medien und den Künsten verblieben, sich in die menschengemachte Klimakatastrophe einzureihen. (In London beispielsweise von der Royal Society zum National Theatre). Traurig für sie, dass sie sich während der letzten zehn Jahre mit ihren warmistischen Einlassungen in die Hall of Shame gedrängt haben, wie die Bankiers vor dem Crash.

Weitere Links: Calders Aktualisierungen, 24 August 2011

Weitere Informationen zum Thema hier:

Vorbericht am 14. Mai 2011:  Update on the CERN CLOUD experiment:

Aus Physics World Head in a CLOUD [hier folgt ein Video, das das oben Gesagte in Worte fasst]

Kosmische Strahlen kommen voran in CLOUD:

Wolkenbildung könnte mit kosmischen Strahlen zusammenhängen

Studien zur Wolkenbildung werfen einen Schatten auf  bestimmte Klimamodelle:

Von der GWPF

Link zum CLOUD experiment am CERN.

Link zu diesem Artikel auf Wattsup: hier

Übersetzt von Chris Frey für EIKE