1

Skandal um GreeenTecAward- Gewinner inherent sicheres Kernkraft-Konzept unerwünscht!

Zitat:

“Der Name Fukushima wurde zum Inbegriff für mehr als 19.000 Tote, für verstrahlte und verwaiste Landstriche. Dies können, wollen und werden wir nicht ignorieren! Atomkraft in jeder Form lehnen wir und unsere Jury kategorisch ab! Eine weitere Diskussion wird es nicht geben!”

Die komplette Stellungnahme im Wortlaut:

Stellungnahme der Veranstalter der GreenTec Awards zum Ausschluss der Bewerbung „Dual Fluid Reaktor“ aus dem diesjährigen Wettbewerb durch die Jury

Aufgrund der öffentlich geführten Diskussion der vermeintlich unsachgerechten Behandlung der Einreichung „Dual Fluid Reaktor“ (kurz DFR) des Instituts für Festkörper-Kernphysik gGmbH möchten wir an dieser Stelle die Entscheidung der Jury verteidigen und unsere inhaltliche Meinung zum Projekt als Veranstalter darlegen (und damit eine objektive Diskussion ermöglichen).

Unseren Ausführungen möchten wir voranstellen, dass wir vor nunmehr 6 Jahren die GreenTec Awards ins Leben gerufen haben, um insbesondere technologischem Umweltengagement eine mediale Plattform zu schaffen. Ziel der Awards ist es gemeinsam mit unserer Jury, unseren Unterstützern und Botschaftern herausragende Beispiele zu prämieren und aufzuzeigen, dass durch Engagement und kluge Entscheidungen schon heute viel im Sinne eines Klima- und Ressourcenschutzes erreicht werden kann.

Um die Awards glaubhaft durchführen zu können, haben wir uns einem transparenten Regelwerk unterworfen und entwickeln dieses den Anforderungen entsprechend auch kontinuierlich weiter. Ein zentrales Element der Awards ist die sehr prominent besetzte Jury mit 54 Mitgliedern. Diese hohe Zahl vereint unterschiedlichste Kompetenzen und gewährleistet ein geringes Gewicht einer einzelnen Stimme. Wir als Veranstalter der Awards sind ausdrücklich nicht Mitglieder der Jury und in keiner Weise in die Auswahl der Nominierten oder Preisträger eingebunden. Die Aufgabe der Jury ist es, einerseits die Nominierten und Gewinner zu bestimmen und andererseits aber auch sich für die oben genannten Ziele des Awards einzusetzen und diesbezüglich Verantwortung zu übernehmen.

Am 04. Juni hat die diesjährige Jurysitzung in Berlin stattgefunden. Neben der Festlegung der Gewinner der Awards hat sich die Jury fast einstimmig entschieden, diese Bewerbung in Abwägung der eingangs erläuterten Prämissen aus dem Wettbewerb auszuschließen. Als Beobachter der sehr intensiven, sehr tiefgängigen und teilweise kontrovers geführten Diskussion stehen wir zu 100 Prozent zu diesen Entscheidungen!

Nach unserer Auffassung ist das Projekt DFR inhaltlich nicht mit den Zielen der Awards vereinbar. Es liefert entgegen der Darstellung keinen Umweltbeitrag sondern erhöht nukleare Entsorgungsrisiken unkontrollierbar. Das Projekt propagiert die Abkehr von einem zentralen Endlager in dezentrale „Kernkraftwerke“ – also radioaktiver Abfall wird dezentral bei Betriebstemperaturen über 1.000 Grad Celsius und flüssigem Metall zur Kühlung energetisch in seinem Abklingverhalten genutzt. In der Darstellung in der Bewerbung wurde allerdings unterschlagen, dass die verwendeten Materialien hoch giftig sind und ihre Umgebung radioaktiv kontaminieren. Da entsprechende Anlagen unmöglich Standzeiten von hunderten von Jahren haben werden, produzieren wir neuen radioaktiven Müll. Wir gehen davon aus, dass das Problem damit größer als die Endlagerung heutzutage und der radioaktive Müll schlechter zu kontrollieren ist. Es erscheint unmöglich, bei mehreren hundert Anlagen sicherzustellen, dass keine Unfälle passieren oder vorsätzliche Anschläge zum Erfolg führen.

Wir möchten eine derartige Anlagen nicht in unserer Stadt haben und sie auch niemand anderem zumuten.
All das ist unsere persönliche Meinung.

Als Diplomingenieure unterstützen wir allerdings auch die Wissenschaft, die sich Gedanken zu diesen Themen macht und Alternativen zur Endlagerung erforscht. Wir begrüßen damit ausdrücklich auch dieses Projekt und seinen Beitrag zur Forschung.

Allerdings gehört dieses Projekt nicht in einen Umweltpreis. Die GreenTec Awards werden keinesfalls Bühne für Kernkraftexperimente sein.

Sven Krüger & Marco Voigt (Initiatoren)

Übernommen von Science Sceptical. Wir bitten die schlecht lesbare Schrift der Screenshots zu entschuldigen.




Erdgas für immer und ewig?

Aber es gibt zunehmende Zweifel daran, ob all das Erdgas (das zu 90% Methan ist) wirklich aus fermentierten fossilen Mikroben stammt. Einiges davon könnte aus chemischen Prozessen tief im Inneren der Erde kommen. Falls das so wäre, könnten die Implikationen für die Klima- und Energie-Diskussionen erheblich sein.

Während der Entstehung der Erde bestanden die auf die Oberfläche prallenden Meteoriten gewichtsmäßig zu 3% aus Kohlenstoff. Einiges von diesem Kohlenstoff lag in Gestalt einfacher Kohlenwasserstoffe vor. Gase wie Methan hätten sich aus den Felsen verflüchtigt, als sich der Erdkern aufheizte. Dieses „Ausgasen“ ist auf Planeten immer noch im Gange. Das erklärt möglicherweise, warum es Seen aus flüssigem Methan und Äthan auf der Oberfläche des Saturnmondes Titan gibt.

Als Geologen damit begonnen haben, nach Öl und Gas zu bohren, begannen sie darüber zu spekulieren, woher diese kommen könnten. Allgemein gesagt, die Amerikaner stützten die Fossil-Theorie, während die Häresie des Ausgasens von einigen Russen vertreten worden ist, geführt von dem großen Chemiker Dmitri Mendeleev. Dieser Gedanke ist später von dem Astrophysiker Tommy Gold wiederbelebt worden. Bis heute hat die Fossil-Theorie gut funktioniert bei der Vorhersage von Öl- und Gasvorkommen dort, wo historisches Meeresplankton in der dünnen Schale eingeschlossen worden ist.

Im Gegensatz dazu erwies sich eine Reihe von Bohrungen bis zu einer Tiefe über 20000 Fuß [über 6000 m] in den achtziger Jahren in Schweden an einer Stelle, an der ein Meteorit die Granitkruste durchbrochen hatte und Methan aus dem geschmolzenen Mantel aus der Tiefe hätte aufsteigen lassen können, als ein teurer Fehlschlag. Die Russen haben Mendeleev jedoch am Leben gehalten, und auf einer kürzlichen Konferenz in Kazan in Russland erhielt der Gedanke, dass einige Gasfelder chemischen und nicht fossilen Ursprungs sind, einige Unterstützung.

Auf der Konferenz wurde auch über ein anderes Thema gesprochen: Das viel Erdgas chemischer Natur ist, aber dass das Leben als eine der Zutaten auch eine Rolle spielt. Der Grund des Ozeans akkumuliert nicht nur die Weichteile des Planktons, sondern auch deren Schalen und Skelette, im Endeffekt aus gelöstem Kohlendioxid entstanden, die sich zu dicken Schichten von Karbonat-Felsen aufgebaut haben (wie die weißen Klippen bei Dover in England).

Wenn der Ozeanboden in den sog. Subduktionszonen tief in den geschmolzenen Mantel gedrückt wird, wo die Kontinente sich ihren Weg über die ozeanische Kruste bahnen, wird dieses Karbonat aufgeheizt und unter hohen Druck gesetzt. Im Jahr 2004 hat Henry Scott mit seinen Kollegen an der Indiana University entdeckt, dass es dabei ideale Bedingungen dafür gibt, dass das Karbonat seinen Sauerstoff verliert und sich stattdessen Wasserstoff anreichert, was zur Methanbildung in großem Umfang führt.

Im Endeffekt würde dieser Vorgang das Kohlendioxid der Erde recyceln, indem es in den Treibstoff zurück verwandelt wird, aus dem es bei der Verbrennung oder durch das Atmen entstanden ist. Vielleicht erklärt dies, warum so viel Methan durch hydrothermische Schlote am Ozeanboden ausgast. Mehr noch, in einer neuen Studie von Vladimir Kutcherov vom Royal  Institute of Technology in Stockholm zeigt er, dass dies auch erklären kann, warum große Mengen von Methanhydraten (bekannt als brennendes Eis) unter dem Meeresboden an den Rändern der Kontinente gefunden worden sind: Vielleicht sind sie aus dem Erdmantel aufgestiegen. Vor Kurzem haben die Japaner bekannt gegeben, dass ein Pilotprojekt zur Extrahierung einiges dieses Methans als Energiequelle erfolgreich verlaufen ist.

Dr. Kutcherov glaubt, dass die Beweise „die Existenz riesiger, unerschöpflicher Ressourcen von Kohlenwasserstoffen in unserem Planeten bestätigen“. Wenn er recht hat – und das neue Deep Carbon Observatory in Amerika hat sich zum Ziel gesetzt, diese Frage während der nächsten Jahre zu beantworten – könnte es sein, dass Erdgas im Endeffekt niemals zur Neige geht.

By: Matt Ridley | Tagged: rational-optimist, wall-street-journal

Link: http://www.rationaloptimist.com/blog/is-gas-made-in-the-earth%27s-mantle.aspx

Übersetzt von Chris Frey EIKE




Stefan Rahmstorfs Klage „Droh- und Schmähbriefe gehören leider zum Alltag von Klimaforschern“

In dem Blog-Artikel von Stefan Rahmstorf geht es zunächst um Prof. Michael Mann, der von weiten Teilen der Klimafachwelt als ehemaliger wissenschaftlicher Betrüger angesehen wird. Wie zumindest die Statistiker Steve McIntyre und Ross McKitrick an Hand detaillierter Untersuchungen und Belege in begutachteten Fachzeitschriften nachwiesen (ihre beiden Arbeiten sind hier als pdf angehängt), hat M. Mann bei der Erstellung seiner Kurve nicht die wissenschaftlich verbindlichen Regeln eingehalten. Zur Herausgabe seiner Daten war gemäß A.W. Montford (s. weiter unten) sogar ein Gerichtsbeschluss erforderlich.

Wer sich über die "Akte M. Mann" detailliert informieren möchte, dem sei das Buch von  A.W. Montford „The Hockeystick Illusion“ empfohlen. Eine ausführliche Übersicht über den Vorgang in etwas kürzerer Form ist bei Anthony Watts mit zahlreichen Beiträgen auf seinem Blog WUWT zu finden (hier). Die Zahl der WUWT-Artikel zur M.Mann-Affaire ist zu groß, um sie hier alle zu zitieren: Wir bitten daher interessierte Leser, in der Suchfunktion von WUWT den Suchbegriff „M. Mann inquiry“ einzugeben und dann selber die ihnen am interessantesten erscheinenden Artikel herauszugreifen.

All dies ist inzwischen Vergangenheit, denn M. Mann hat seine im IPCC-Bericht von 2001 veröffentlichte Hockeystick-Kurve inzwischen zahlreichen, nur noch schwer überschaubaren Revisionen unterzogen und damit dem heutigen Stand bzw. der Realität Tribut gezollt (grüne Kurve in Bild 1). Entschuldigt hat er sich nach Kenntnis des Autors freilich nicht. Ob hier von Läuterung und Rückkehr zur wissenschaftlichen Ehrlichkeit gesprochen werden darf, kann nicht entschieden werden. Wir wollen es zu seinen Gunsten einfach einmal annehmen.

Für Rahmstorf ist dagegen M. Mann ein „hochrespektierter“ Klimaforscher ohne jedweden Tadel und mit fast beliebig vielen Verdiensten und Ehrungen, kurz, ein lupenreines Unschuldslamm. Hiermit werden angesichts der oben angeführten fragwürdigen Vorgänge viele seiner Fachkollegen nicht ganz einverstanden sein. Der Autor möchte die etwas ungewöhnliche Sicht von Rahmstorf in Sachen M. Mann nicht weiter kommentieren. Immerhin hat sein prominenter Fachkollege Prof. Hans von Storch im SPIEGEL über die ursprüngliche, im IPCC-Bericht von 2001 instrumentalisierte Mann’sche Hockeystickkurve knapp und zutreffend gesagt: „Die Kurve ist Quatsch“ (hier).

Mächtig überrascht dann Rahmstorfs Behauptung, eine jüngste Fachveröffentlichung des PAGES 2k Konsortiums (hier) würde den Hockeystick von M. Mann BESTÄTIGEN. Dies können wir nicht nachvollziehen. Die vom PAGES 2k Konsortium gelieferten Proxy-Daten zeigen nämlich zumindest in der heute wohl besten Temperaturrekonstruktion der Nordhemisphäre von Christiansen und Ljungqvist (die Kurve ist aus 91 Proxy-Datensätzen erstellt), dass das mittelalterliche Klimaoptimum dem aktuellen Optimum gegen Ende des 20. Jh. in etwa gleichkam oder es sogar übertraf. Die rote Kurve in Bild 1 ist aus solchen und weiteren in der PAGES 2k Arbeit angegebenen Rekonstruktionen, an denen der Autor Ljungqvist beteiligt war, erstellt. Alle in Bild 1 veröffentlichten Temperaturganglinien, inklusive einer von M. Mann angepassten neuen Kurve (grün), bezeugen, dass von einer Bestätigung der ursprüglichen Kurve von M. Mann (Bild 2) wohl nicht gesprochen werden kann.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/PAGES.jpg

Bild 1:Bildausschnittt aus Fig. 4 der Publikation des PAGES 2k Konsortiums

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Hockeystick.jpg

Bild 2: Die ursprüngliche Hockey Stick Kurve von M. Mann. Quelle: IPCC-Bericht des Jahres 2001

In der ursprünglichen Hockeystickkurve von M. Mann, die Rahmstorf in seinem Blog-Artikel gleich in Abb. 1 zeigt und um die es ihm daher offensichtlich geht, ist die Sonderstellung des mittelalterlichen Klimaoptimums nicht zu erkennen, auch nicht das tiefe Minimum der kleinen Eiszeit. Der lange Griff des Hockeysticks ist bemerkenswert gerade und unstrukturiert, nur das Schlägerblatt zeigt dann steil nach oben. Allenfalls der meist übersehene, blau schattierte Unsicherheitsbereich erscheint m.E. realistisch. Die beiden Darstellungen in Bild1 und Bild 2 lassen wenig Ähnlichkeit zwischen der ursprünglichen Hockeystickkurve von M. Mann und den Ergebnissen des PAGES 2k Konsortiums erkennen.

Bei den Schmähungen Rahmstorfs (das Wort "Schmähungen" sei hier als Erinnerung an seinen eigenen Vorwurf gewählt), sind zunächst Prof. Hans von Storch und Dr. Eduard Zorita an der Reihe. Rahmstorf zitiert als Beleg für deren angeblich wissenschaftlichen Unzulänglichkeiten eine Internet-Blog Realclimate. In diesem Blog wird begutachtete Fachliteratur salopp mit technischen Kommentaren (technical comments, hier) durcheinandergeworfen, was durch die Betonung "important comment" noch skurriler wird. Vielleicht schwingt bei "Realclimate" ja ein wenig die Hoffnung mit, der Leser als Laie schaue sich ohnehin die so zahlreich-imponierend zitierten Quellen nicht an und falls doch, dann sei er beispielsweise von „Science“ so beeindruckt, dass er den dort veröffentlichten technischen Kommentar mit einer peer review Publikation verwechselt. Einen technischen Kommentar kann jeder schreiben, mit Peer Review hat dies nichts zu tun. Falls man die kuriosen Belege und Ausführungen von Rahmstorf überhaupt ernst nimmt, sollte man die angegebenen Quellen näher ansehen. 

Die weiteren Abschnitte des Blog-Artikels von Rahmstorf sind mit „Politischer Druck auf Forscher“, „Griff in die Mottenkiste“ und "PAGEAS 2k im SPIEGEL" getitelt. Insbesondere der „Griff in die Mottenkiste“ trifft Rahmstorfs eigenen Artikel erstaunlich genau, wenn er die von allen AGW-Polemikern regelmäßig bemühte Nähe von Forscherkollegen zur Erdölindustrie hervorholt. Man kann hier übrigens umgekehrt auch einmal nach der Nähe von Rahmstorf zur Versicherungswirtschaft fragen. Eine im Ton peinlichen Fachkollegenschelte und ein abschließender Verriss derjenigen deutschen Medien, die die von Rahmstorf angedienten Fragwürdigkeiten durchschaut haben, rundet seine Philippika ab.

In „Ergänzende Anmerkungen“ bekommt schließlich auch noch der Autor sein "Fett weg". Seine und seiner Mitautoren Publikation (hier) in „climate of the past“ wird von Rahmstorf als „methodisch unsinnig“ bezeichnet. Zum Beleg dieser Beurteilung heißt es, die Darstellung einer Kurve mittels Fourier-Transformation sei mit jeder Kurve möglich. Dies ist jedem Physikanfänger geläufig und zweifellos völlig korrekt, aber als Sachkritik ebenso wertvoll wie die ebenfalls korrekte Anmerkung „Die Anwendung des Satzes von Pythagoras ist mit jedem rechtwinkligen Dreieck möglich“. Trivialaussagen verhindern bekanntlich nicht die sinnvolle Anwendung mathematischer Werkzeuge oder machen diese gar wertlos. Mit der in Rede stehenden Publikation hat die daneben liegende Anmerkung von Rahmstorf nichts zu tun. Es darf infolgedessen vermutet werden, dass Rahmstorf die Arbeit überhaupt nicht gelesen hat.

Als weitergehenden Beleg seiner Kritik führt Rahmstorf einen "Science Blog" an, der von dem AGW-Aktivisten Georg Hoffmann mit bewundernswert unterhaltsamer Polemik betrieben wird (hier). Man lese selber, Entertainment ist garantiert, denn der Blog ist buchstäblich filmreif. Jedem Wissenschaftshistoriker sei seine Lektüre empfohlen und dies leider nicht nur zum Amüsement. Es gibt kaum eine bessere Dokumentation, wie AGW-Alarmisten ticken (unter den Kommentatoren sind sogar mehrere Autoren von peer review Publikationen aufzufinden), welche Methoden sie Wissenschaftlern anderer Auffassung gegenüber anwenden und welche Querverbindungen zwischen Teilen der Klimaforschung und den fragwürdigen Betreibern solcher Blogs bestehen.

Bedenklich ist dann der von Rahmstorf in seinem Artikel veröffentlichte Kommentar von Dr. M. Mudelsee

„One may speculate about (I exaggerate for clarity) the hijacking of CP for promoting ‘skeptical’ climate views.“

Eine wissenschaftliche Arbeit, deren Themensetzung das anthropogene CO2 nicht einmal berührt, deren Ergebnisse aber zufällig und unübersehbar keinen oder zumindest einen lediglich vernachlässigbaren Einfluss des anthropogenen CO2 nahelegen (nicht beweisen), wird als hijacking = Piraterie einer Wissenschaftszeitschrift bezeichnet. Offenbar verwechselt Mudelsee den wissenschaftlichen Betrieb in der Europäischen geophysikalischen Union mit dem des piratenverseuchten Somalia.

Die im Hoffmann-Blog zahlreich vertretenen Kommentatoren der AGW-Fraktion mit wissenschaftlichem Hintergrund haben mit Kräften versucht, die Publikation des Autors im Vorfeld der „open discussion“ des cp zu verhindern, man sehe sich dazu ihre Kommentare an (hier). Dies ist natürlich ihr gutes Recht und wird hier ausdrücklich nicht kritisiert. Schließlich hat die bei cp vorgeschriebene öffentliche peer review Phase ihren guten Grund. Zahlreiche, fachlich einschlägige Kritiker sehen mehr als zwei oder drei Peer Reviewer und erlauben es daher, die Qualität einer bei cp eingereichten Arbeit zu verbessern. Dies war auch hier der Fall. Nicht zuletzt deswegen hat cp einen so hohen "citation index".

Freilich waren die Sachargumente der Teilnehmer am Science Blog offensichtlich nicht ausreichend, um die neutralen wissenschaftlichen Kritiker und die Peer Reviewer zu überzeugen. Warum nicht auch Rahmstorf selber eine vernünftige Fachkritik bei cp äußerte, ist angesichts seiner abwertenden Beurteilung unverständlich und bedauerlich. Er dürfte seitens G. Hoffmann über die Veröffentlichung in der cp Diskussionsphase informiert worden sein.

Der letzte Abschnitt der Blog-Arbeit von Rahmstorf darf als implizite Drohung (die Bezeichnung "Drohung" wieder in Erinnerung an den Vorwurf von Rahmstorf) aufgefasst werden, die gegen die Wissenschaftszeitschrift cp der Europäischen geophysikalischen Union und ihren verantwortlichen Editor, Dr. Eduardo Zorita zielt. Der betreffende Passus aus dem Blog-Artikel von Rahmstorf sei seiner Unverschämtheit gegen eine renommierten Fachzeitschrift und deren Editor wegen wörtlich zitiert:

Lüdecke ist Pressesprecher des Klimaskeptiker-Vereins EIKE. Der für die Publikation seines kuriosen Artikels verantwortliche Editor ist Eduardo Zorita. Man kann nur hoffen, dass dies bei dem an sich reputierten Journal ein Einzelfall bleibt.

"Man kann nur hoffen" und "Einzelfall" drückt den Wunsch aus, jeden zukünftig bei cp eingereichten Artikel des Autors ungeprüft abzulehnen und den verantwortlichen Editor E. Zorita abzulösen. Rahmstorf unterstellt implizit, dass das peer review Verfahren bei cp nicht ordentlich abläuft. Öffentlich publizierte Anmerkungen dieser Art sind nicht hinnehmbar und einem Professor einer deutschen Universität sind sie schon gar nicht angemessen.

Es soll schlussendlich daran erinnert werden, dass jede wissenschaftliche Arbeit, die nicht nur Bekanntes bestätigt, Neuland betritt. SACHLICHE Kritik ist hier unabdingbar und stets willkommen. Diese erfolgte hier nicht nur in der öffentlichen Diskussionsphase von cp, sondern mit weltweiter Resonanz auch im australischen Blog von Joanne Nova (hier) und im Blog WUWT von Anthony Watts (hier). In diesen Blogs wurde das gesamte Meinungsspektrum thematisiert, angefangen von Zustimmung, über Missverständnisse wegen nicht ausreichenden Lesens und Unverständnisses der Arbeit, bis hin zu sehr interessanter, substantieller Fachkritik. Grundlegende Mängel der Arbeit stellten sich nicht heraus. Der Autor wird in Kürze auf den sachlichen Inhalt seiner und seiner Mitautoren Arbeit unter Berücksichtigung der wichtigsten Einwände in einer separaten EIKE-News eingehen. Sachliche Kritik, auch seitens von Rahmstorf ist dabei immer willkommen.

Wissenschaftliche Meinungsverschiedenheiten müssen ausschließlich sachbezogen ausgetragen werden. Sie dürfen nicht in Diffamierungen gegen Fachkollegen ausarten, deren Forschungsergebnisse den verschrobenen Weltbildern der Diffamierenden widersprechen.

Related Files




Klimawandel durch Sonne und FCKW, nicht durch CO2?

WATERLOO, Ont. (30. Mai 2013) – Dass FCKW (engl.: CFCs) das Ozon umwandeln ist schon länger bekannt, aber nun zeigt eine detaillierte statistische Analyse, dass FCKW auch der Schlüsselantrieb im Klimawandel sind, und nicht die Kohlendioxid-Emissionen.

"Nach bisherigem Verständnis haben die Emission von menschengemachten Nicht-FCKW-Gasen, wie es das Kohlendioxid ist, hauptsächlich zur Klimaeerwärmung beigetragen. Aber wir haben die Daten bis zurück in die Zeit der Industriellen Revolution ausgewertet, und die zeigen überzeugend, dass wir bisher falsch gedacht haben,” sagte Qing-Bin Lu, Professor für Physik und Astronomie, Biologie und Chemie an der Naturwissenschaftlichen Fakultät von Waterloo. “Die Daten zeigen tatsächlich, dass die FCKW zusammen mit Kosmischer Strahlung sowohl das polare Ozonloch als auch die Klimaerwärmung verursachen.”

"Die meisten herkömmlichen Theorien erwarten, dass die globalen Temperaturen mit dem Anstieg des CO2-Pegels weiter steigen, wie das seit 1850 geschah. Dabei fällt aber auf, dass die globalen Temperaturen seit 2002 tatsächlich gefallen sind – und das gleichzeitig mit einem Rückgang der Fluorchlorkohlenwasserstoffe in der Atmosphäre,” sagte Professor Lu. “Meine Berechnungen eines FCKW-Treibhauseffekts zeigen, dass es eine globale Erwärmung von um die 0,6 °C von 1950 bis 2002 gab, dass sich die Erde seit 2002 dann aber tatsächlich abgekühlt hat. Der Abkühlungstrend wird sich in den kommenden 50-70 Jahren fortsetzen, da der Anteil der FCKW (engl.: CFC) in der Atmosphäre weiter abnimmt.”

Die Ergebnisse beruhen auf tiefgehenden statistischen Analysen von Beobachtungsdaten über einen Zeitraum von 1850 bis heute unter Anwendung von Professor Lus Theorie des Ozonverlusts durch eine von kosmischer Strahlung angestoßene Elektronenreaktion (Cosmic-Ray-Driven Electron-Reaction – CRE). Zusätzlich hat der Professor seine vorhergehenden Forschungen zum Zusammenhang von antarktischem Ozonverlust und den globalen erdoberflächennahen Temperaturen benutzt.

“Mehr als zwei Jahrzehnte lang war allgemeines Verständnis, dass die Verminderung der Ozonschicht der Erde vom Zerfall der FCKW in der Atmosphäre angestoßen würde, der selbst wieder vom ultravioletten Sonnenlicht angestoßen würde”, sagte er. “Aber im Gegensatz dazu – so sagt die CRE Theorie – spielt die Kosmische Strahlung – energiereiche Partikel aus dem Weltraum – die Hauptrolle beim Zerfall der ozon-vermindernden Moleküle und nachfolgend beim Ozonverlust.”

Lus Theorie wurde durch laufende Beobachtungen bestätigt, die über viele solare 11-Jahreszyklen der Kosmischen Strahlung, der FCKW, des Ozon und der Stratospärentemperatur liefen. Professor Lu sagte dazu: “CRE ist die einzige Theorie, die eine exzellente Reproduktion der 11-jährigen zyklischen Variationen liefert, sowohl für den Ozonverlust als auch für die stratosphärische Abkühlung. Wenn man den natürlichen Effekt der Kosmischen Strahlung außer acht läßt, zeigt das neue Papier eine deutliche Erholung um ~20% beim antarktischen Ozonloch, und das ist konsistent mit der Abnahme der FCKW in der polaren Stratosphäre.” 

Durch den Nachweis einer Verbindung zwischen FCKWs, der Ozon-Abnahme und den Temperaturänderungen in der Antarktis konnte Professor Lu eine nahezu perfekte Korrelation zwischen den steigenden globalen erdoberflächennahen Temperaturen und den FCKW in der Atmosphäre nachweisen.

“Das Klima in the antarktischen Stratosphäre wird komplett von den FCKW und der Kosmischen Strahlung gesteuert, da gibt es keinen CO2-Einfluss. Der Wandel in der globalen erdoberflächennahen Temperatur nach der Entfernung des solaren Effekts zeigt eine Null- Korrelation mit dem CO2, aber eine nahezu perfekte lineare Korrelation mit FCKW – der Korrelations-Koeffizient hat den hohen Wert von 0,97.”

Aufgezeichnete Daten aus dem Zeitraum von 1850-1970, noch bevor erhebliche FCKW-Emissionen stattfanden, zeigen, dass die CO2-Pegel deutlich hochgingen als Ergebnis der Industriellen Revolution. Aber die globale Temperatur blieb nahezu konstant, wenn man den Solar-Effekt ausschließt. Das herkömmliche CO2-Erwärmungsmodell fordert, dass die Temperaturen um 0,6°C in jener Zeitperiode hätten hochgehen müssen, wie auch in der Periode von 1970-2002.

Aus den Analysen ergibt sich die Überlegenheit von Lus CRE-Theorie. Sie erklären auch den Erfolg des Montreal-Protokolls betreffend Stoffe, die die Ozonschicht zerstören.

“Wir wissen schon seit einiger Zeit, dass FCKW einen wirklich zerstörerischen Effekt auf unsere Atmosphäre ausüben, und wir haben Maßnahmen ergriffen, um deren Emission zu vermindern,” sagte Professor Lu. “Wir wissen heute, dass internationale Bemühungen, wie das Montreal-Protokoll, auch einen tiefgreifenden Einfluss auf die globale Erwärmung hatten, aber solche [politischen] Bemühungen müssen auf eine solidere wissenschaftliche Basis gestellt werden.”

“Die Studie unterstreicht, wie wichtig das Verständnis für grundlegende Prozesse ist, die mit dem Ozonverlust und dem globalen Klimawandel zu tun haben,” sagte Terry McMahon, Dekan der Naturwissenschaftlichen Fakultät. “Diese Forschungen sind von besonderer Bedeutung, sowohl für die Forschung selbst, als auch für die politischen Entscheidungsträger und die Öffentlichkeit, wenn wir uns mit der Zukunft unseres Klimas beschäftigen.”

Professor Lus Papier über die Kosmische Strahlung, über die von Kosmischen Strahlungen angetriebene Reaktion und über den Treibhauseffekt von halogenisierten Molekülen, über die Verursacher der Verminderung des Ozons in der Atmosphäre und des globalen Klimawandels also – sagt auch voraus, dass der globale Meeresspiegel noch einige Jahre weiter steigen wird, weil das Ozonloch zu vermehrter Eisschmelze in den Polargebieten führen würde.

“Nur wenn die Auswirkung einer globalen Erholung der Temperatur stärker wird als die Erholung des Ozonlochs, werden Temperatur und polare Eisschmelze gleichzeitig wieder sinken,” meint Lu.

Das fachbegutachtete Papier bietet nicht nur ein neues fundamentales Verständnis für das Ozonloch und den globalen Klimawandel, es hat auch eine deutlich überlegene Vorhersagefähigkeit im Vergleich mit den herkömmlichen Modellen eines vom Sonnenlicht angetriebenen Ozonverlusts und einer vom CO2 verursachten Erwärmung.

Übersetzung: Helmut Jäger, EIKE

Verweis auf Originalquelle: siehe unten

—————————————-

Journal Referenz

Cosmic-Ray-Driven Reaction and Treibhaus Effect of Halogenated Molecules: Culprits for Atmospheric Ozone Depletion and Global Climate Change, Qing-Bin Lu, University of Waterloo

Published on May 30 in International Journal of Modern Physics B Vol. 27 (2013) 1350073 (38 pages).

Das Papier ist “online” verfügbar auf WorldScientific.com

About the University of Waterloo:
In just half a century, the University of Waterloo, located at the heart of Canada’s technology hub, has become one of Canada’s leading comprehensive universities with 35,000 full- and part-time students in undergraduate and graduate programs. Waterloo, as home to the world’s largest post-secondary co-operative education program, embraces its connections to the world and encourages enterprising partnerships in learning, research and discovery. In the next decade, the university is committed to building a better future for Canada and the world by championing innovation and collaboration to create solutions relevant to the needs of today and tomorrow. For more information about Waterloo, please visit www.uwaterloo.ca.

OriginalURL https://uwaterloo.ca/news/news/global-Erwärmung-caused-cfcs-not-carbon-dioxide-study-says

Media Contact: Nick Manning
University of Waterloo
519.888.4451
nmanning@uwaterloo.ca
www.uwaterloo.ca/news
@uWaterlooNews




Energiewende wirkt: Regierung treibt die Stromkosten auf Rekordwert

Die Energiewende-Politik der Bundesregierung belastet die deutschen Verbraucher immer stärker. Nach der jüngsten Strompreisanalyse des Bundesverbandes der Energie- und Wasserwirtschaft (BDEW) steigen die staatlichen Steuern und Abgaben auf den Stromverbrauch in diesem Jahr um rund 25 Prozent auf den Rekordwert von 31,6 Milliarden Euro…

Lesen Sie den ganzen Artikel von Daniel Wetzel in Die Welt




Wie man eine wirklich schlechte Kriegs-Desinformations-Kampagne betreibt

Die Alarmisten können wie alle zwanghaften Fanatiker einfach keine Opposition irgendeiner Art ertragen, egal wie gering, wissenschaftlich oder obskur sie war; und wir wollen hier ganz offen sein, diese drei Adjektive beschreiben die skeptische Gemeinschaft ziemlich genau. So harmlos diese daherkam – die Alarmisten konnten sie nicht ertragen und verfolgten sie, weil dies der elementaren Natur von Fanatikern entspricht.

Obwohl sie ein einsamer Rufer in der Wüste war, war sie dennoch Opposition und musste daher zum Schweigen gebracht werden. Sie fühlten sich verpflichtet, auch noch den letzten Prozentpunkt des Widerstands zu brechen. Aber beim Verfolgen dieses Zieles verpassten sie ihr ein schärferes Profil, das sie anderenfalls wohl nie bekommen hätte. Jeder Angriff führte Dissidenten auf skeptische Sites, und heutzutage sind die skeptischen Seiten gewachsen und gereift; kommen stärker und leuchtender daher als die alarmistischen Sites, die – obwohl sie verzweifelt versuchen, ihre fallenden Anklickzahlen schön zu reden – allmählich auf die Größe ausgebrannter brauner Zwerge schrumpfen.

Auf der einen Seite stehen die Alarmisten; auf ihrer Seite alle Politiker, ein massives PR-Budget, das für gewöhnlich und nach wie vor durch Zuwendungen der Regierungen aufgefüllt wird, alle Mainstream-Medien einschließlich der Staaten gleichenden Fernsehkanäle wie ABC, CBC, PBS und BBC [alle deutschen TV-Kanäle gehören natürlich auch dazu, A. d. Übers.], so ziemlich das gesamte Journalisten-Establishment, die gesamte aktivistische Prominenz der Klimawissenschaft, die EU, NASA, NOAA, BOM EPA, IPCC, praktisch alles, was ein Akronym hat, die düstere [seamier] Seite der Investment-Industrie, alle Umweltorganisationen bis hinunter zu kleinsten Gruppen, alle wesentlichen wissenschaftlichen Journale, Präsidenten, Premierminister, [Bundeskanzlerin], die Welt und selbst alle Verwandten, nicht zu vergessen deren Haustiere.

Auf der anderen Seite stehen wir, und wir hatten, äh… nun, tatsächlich sind wir über die Maßen herumgedümpelt, um die klitzekleinen Risse, um nicht zu sagen gähnenden Abgründe in Wissenschaft und Politik aufzudecken und die Alarmglocke zu läuten über die Art Armageddon, den der hysterische Ökozug vor sich her trieb.

Wenn man das so gegenüber gestellt sieht, lautet die offensichtliche Frage: wie in aller Welt haben sie es fertig gebracht zu verlieren, während ihre einst in den Himmel schießende Ambitionen jetzt nur noch rauchende Ruinen sind?

Ich musste einige Jahre zurückblättern, um zu erklären, warum eine Kombination von Dingen und sie selbst den Fall des Klimaalarmismus’ zustande gebracht haben. Im vorigen Jahr habe ich diese Gründe hier und noch einmal hier mit anderen Worten bekräftigt. Wir sind jetzt gut in der Zeit, und wenn wir uns umsehen, wie sich die Ereignisse entwickeln, sehe ich keine Ursache, diese Gründe in irgendeiner substantiellen Weise in Frage zu stellen. Die gesamte alarmistische Bewegung fällt spiralig in sich zusammen und verschwindet allmählich hinter dem Ereignishorizont des Schwarzen Loches politischen Vergessens. Die Skeptiker hatten sicherlich einen Anteil daran, was bemerkenswert ist angesichts der Tatsache, dass das einzige Medium, das sich ihnen nicht bedingungslos angeschlossen hat, das Internet war, das wohl kaum bereits zur Massenmeinung bildend beiträgt.

Was ich hier untersuchen möchte ist, warum es den Alarmisten angesichts ihrer Übermacht in nahezu jeder Kategorie niemals gelungen ist, den skeptischen Widerstand gegen sie in der Blogosphäre zum Schweigen zu bringen oder diesen Widerstand auch nur vom Anwachsen abgehalten zu haben. Sie haben das mit Sicherheit versucht, aber ihre Strategie, mit dem skeptischen Lager umzugehen, war eine dreifache Katastrophe.

Die erste dieser drei Katastrophen bestand darin, dass sie über das skeptische Lager nur höhnisch gelächelt haben, ohne jemals geruht zu haben, in eine direkte Debatte mit diesem Lager einzutreten. Der Opposition wurde immer jedwede Plattform, sich zu äußern, verweigert – eine Standard-Informationskriegs-Prozedur. Man gießt aus der Höhe Verachtung herab, während man selbst Schutz hinter den Festungsmauern der etablierten Autoritäten sucht. Durch die Ablehnung, sich mit dem skeptischen Lager auseinanderzusetzen, haben sie jedoch effektiv dafür gesorgt, dass dieses Lager allmählich die Manny Mouse-Wissenschaft [?] in Stücke reißt, und zwar mit zunehmender Fachkompetenz.

Was noch mehr zählt ist, dass die Skeptiker sich ihre Ziele frei aussuchen konnten, während die Alarmisten gezwungen waren, alles zu verteidigen, und zwar wegen der Zwangsneurose, das Die-Wissenschaft-ist-sich-einig-Dogma zu stützen. Wie Friedrich der Große sagte, man kann nicht überall stark sein, oder um es mit den Worten des asymmetrischen Kriegswesens auszudrücken, eine kleine Guerilla-Armee hat die Wahl, irgendwo zuzuschlagen, was bedeutet, dass sich jeder gegen sie verteidigen muss, vor allem dann, wenn man nicht darauf vorbereitet ist, Opfer bringen zu müssen.

Diese Mentalität, alles bis zum letzten Atemzug zu verteidigen, hat sie zu oftmals lächerlichen Entschuldigungen getrieben, warum selbst die unhaltbarsten Studien irgendwie eigentlich gute Wissenschaft waren. Die wachsende Diskrepanz zwischen ihren Vorhersagen und der täglichen Realität zieht sie tiefer und tiefer in ihre eigene, nach innen gerichtete Welt, die eine verrückte innere Logik für sich selbst hat. Gegenwärtig durchlaufen wir eine Phase der Propaganda, in der uns gesagt wird, dass eisige Winter und kalte Frühjahre ebenso wie laue Sommer allesamt durch die globale Erwärmung verursacht werden, was in gleichem Maße den Bach herunter geht, wie die allgemeine Öffentlichkeit ungläubiger wird. Mit spektakulär dummen Aktionen wie diesen übersteigt der Schaden, den sie ihrer eigenen Glaubwürdigkeit zufügen, bei Weitem den, den unsere gemäßigteren Auswirkungen anrichten.

Dieses weite, offene Feld der Blogosphäre ist mittlerweile übersät mit den verrottenden Hüllen der wissenschaftlichen Reputation von Leuten wie Hansen, Mann, Shakun, Marcott, Lewandowsky, Gergis, Cook und vielen anderen. Einige sehr wenige von ihnen haben inzwischen das Purple Heart von Retraction Watch erhalten.*

[*Das Purple Heart (dt. „violettes Herz“) ist die einzige Verwundetenauszeichnung der Streitkräfte der Vereinigten Staaten und gleichzeitig der weltweit älteste heute noch verwendete militärische Orden. Es wird an Soldaten verliehen, die im Kampf durch gegnerische Kräfte verwundet wurden, ebenso posthum an gefallene Soldaten. Quelle: wikipedia.

Retraction Watch ist ein Blog, der über das Zurückziehen  wissenschaftlicher Studien[1]  berichtet. Quelle: wikipedia]

In den frühen Jahren der skeptischen Blogosphäre war der Schwerpunkt der Attacken auf den Klimaalarmismus ausschließlich auf die Wissenschaft gerichtet. In den folgenden Jahren und auch bei ihrer Reifung hinsichtlich sowohl Diversität als auch Erfahrung, hat sie jetzt eine viel breitere demographische Basis und hält vielfältige Bedrohungen an einer ganzen Palette von Fronten bereit.

Es ist ein Zeichen der Zeit, dass die Politik ohne Engagement an den Rändern auszufransen beginnt. Heutzutage gibt es einige Anfangsbewegungen von einigen Alarmisten, die es mit ein wenig Engagement versuchen wollen, aber das scheint lediglich einfach eine Art zu sein, mit uns ein Übereinkommen zu erzielen. Ob sie es nun in ihrem Gewissen einsehen oder nicht, es ist tatsächlich Phase drei im Zerfall ihres Glaubenssystems. Sie suchen nach einer Möglichkeit, noch etwas zu retten, irgendetwas aus dem Wrack. Sie verlieren an Boden und sie wissen es.

So weit ich das beurteilen kann, gibt es für die Skeptiker hier keinen vorteilhaften Handel abzuschließen, und überhaupt, unabhängig von jeder Debatte, ist es viel zu spät, selbst wenn sie zufällig eine solche Debatte gewinnen sollten. Heutzutage würden nur sehr wenige durchschnittliche Menschen sich die Mühe machen, sich in eine solche Debatte einzuklinken, weil es politisch irrelevant wäre, das heißt völlig irrelevant. Sie sind jetzt wie eine Eierschale vor einer Dampfwalze, die von einem zum großen Teil indifferenten populären Gefühl gesteuert wird.

Die logische Konsequenz, skeptischen Artikeln keine Plattform zu bieten in Gestalt verschlossener Türen dafür in den Mainstream-Medien, wie es die BBC praktiziert hat [und die „Süddeutsche Zeitung“, A. d. Übers.] war es, dass normale Mitmenschen peinliche Fragen aufwarfen. Menschen, die keine Antworten auf ihre Fragen bekamen [wie der Übersetzer bis auf den heutigen Tag!] oder deren Meinungen unterdrückt wurden, ohne brutal zensiert zu werden, rutschten einfach auf die skeptischen Sites, die ihnen natürlich halfen zu wachsen.

Der zweite, ebenso große Teil der Katastrophe war es, das skeptische Lager als einen einfachen monolithischen Block anzusehen, gelenkt und finanziert von dunklen Schattenkräften hinter den Kulissen. Auch das war eine Standard-Informationskriegs-Prozedur, eine Art Isolierung, Marginalisierung oder Entfremdung der Opposition als Hassobjekte. Es war das Äquivalent des Informationskrieges, in dem gelbe Davidssterne auf die Kleidung eines kleinen Teils der Bevölkerung genäht worden ist. Im Wesentlichen hat man den Klimarealisten vorgeworfen, Teil einer massiven teuflischen, verdeckten Verschwörung zu sein, um die rechtschaffenen Menschen von ihrem Weg ins grüne Utopia abzubringen. Ich kann mich irren, aber ich glaube, dass dies zu einer Verschwörungstheorie bei den pseudo-akademischen Prostituierten einer alarmistischen Glaubensrichtung geworden ist.

Noch einmal, diese Politik half den skeptischen Sites zu wachsen, da normale Menschen nichts weiter tun als einige vernünftige Fragen zu stellen und sich darüber ärgern, von solchen hässlichen und bisweilen bösartigen Karikaturen porträtiert zu werden.

Übrigens glauben sie von uns Skeptikern, und nur von uns Skeptikern, dass wir der Urgrund dafür sind, dass Viele von dem populären Glauben in ihrem Kult abfallen. Es sieht also so aus, als wäre unsere große Verschwörung schließlich erfolgreich gewesen. All ihr ungezogenen Jungen und Mädchen da draußen, es ist alles eure Schuld. Ihr habt etwas sehr, sehr Schlimmes getan…

Der dritte, subtilere, aber nach meiner Ansicht schlimmste Teil der Katastrophe war die direkte Folge davon, dass man der Propaganda-Repräsentation der Skeptiker erlaubt hat, zur Basis der Veränderung von Plänen zu werden, um sie zu neutralisieren. Während es in Ordnung und in mancher Hinsicht wünschenswert ist für die nicht mitdenkenden Fußtruppen, an grob vereinfachte Stereotypen des Feindes zu glauben, sollten es die politischen Führer besser wissen. Sie haben tatsächlich angefangen, an ihre eigenen Karikaturen von uns zu glauben. Sie ließen es zu, dass etwas, was ganz klar der Hass auf uns ist, ihr Urteilsvermögen umnebelt hat. Wer die Kontrolle verliert, verliert.

Bei der Durchführung von Gegenmaßnahmen, aus dem Pappkarton Stereotypen von Skeptikern herauszuschneiden, haben sie auf illusorische Phantome geschossen und sind offensichtlich damit gescheitert, wirkliche Schäden anzurichten. Dies wiederum hat es dem skeptischen Lager erlaubt, ungehindert immer weiter zu wachsen. Es ist schwierig, eine gigantische Verschwörung aufzudecken, wenn einfach keine existiert, was ein weiterer Bumerang des Informations-Krieges war. Es hat sie zunehmend wie paranoide Verschwörungstheoretiker aussehen lassen.

Indem sie die wachsende Vielfalt und die zunehmende Stärke der Bedrohung, der sie gegenüber stehen, nicht erkennen, haben sie über Allem unverdrossen die gleiche Strategie angewendet, um alle Richtungen der Opposition zu neutralisieren, und das konnte niemals funktionieren. Ich verglich das skeptische Lager mit einer Guerilla-Einheit zu einer Gelegenheit zuvor, und tatsächlich ist das ein sehr geeigneter Vergleich. Sie alle kämpfen auf die ihnen eigene Weise und arbeiten selten, wenn überhaupt, zusammen, obwohl sie eine viel wirksamere Kraft wären, wenn sie das täten.

Interessanterweise wurde diese Verwundbarkeit durch Uneinigkeit niemals von den Alarmisten ausgeschlachtet, was den Skeptikern gleichzeitig, militärisch ausgedrückt, zu mehr als einer Angriffsrichtung verhalf; als da wären die politische, wissenschaftliche, ökonomische, kybernetische, statistische und die Ingenieurs-Richtung, um nur einige zu nennen. Wenn man einige bemerkenswertere Aktionen der Skeptiker genauer betrachtet, bestanden diese in nichts weiter als darin, das man die Arroganz derjenigen bloß stellte, die keine ihrer Verkündigungen von ihren ergebenen Jüngern in Frage stellen ließ und die ebenso definitiven wie sehr dummen Statements weit außerhalb ihres eigenen Erfahrungsbereiches.

Schon der oberflächlichste Blick auf die Kommentare unter einigen skeptischen Artikeln weist eine Vielfalt von Spezialisten-Wissen im skeptischen Lager auf, der alles das weit übersteigt, was man dazu im alarmistischen Lager findet.

Selbst bei sich zu Hause innerhalb ihrer eigenen vermeintlichen Expertise waren die Alarmisten nicht sicher. Die solide statistische Arbeit von Ross McKitrick und Steve McIntyre zur Widerlegung der Studie von Mann mit dem plakativen Hockeyschläger war ein solider Punkt. Mit nichts weiter als statistischer Numerik und einer bewundernswerter Ausdauer sahen sie sehr genau auf das, was ein Eckpfeiler von Studie sein sollte. Es endete damit, dass Mann seinen eigenen Hockeyschläger zurückziehen musste. Wann immer es irgendwie um Hockey geht und zwei Kanadier gegen einen leicht rundlichen kleinen Kerl aus Massachusetts spielen, setze ich auf die beiden Kandier.

Die groben Fehler im Informationskrieg mit der skeptischen Blogosphäre waren vielfältiger Art. Man brachte es nicht fertig, diese Blogosphäre zum Schweigen zu bringen, bevor sie immer größer wurde. Man befeuerte noch deren Existenz mit der Absicht, sie abzuwürgen. Man übergab ihr die Initiative durch die Ablehnung, sich mit ihr zu befassen. Und es gab ein unglaublich massives Scheitern, das skeptische Lager anders zu beschreiben als in kindischen Ausdrücken. Der große Irrtum war es dann, mit der Bekämpfung einer solchen imaginären Chimäre fortzufahren.

Diese Strategien sind nicht nur gescheitert, sondern haben der skeptischen Gemeinschaft auch noch geholfen zu wachsen, indem sie dazu geführt haben, dass die verstreute Opposition rings um den Globus zu den obskuren skeptischen Sites fand und sich dort konzentrieren konnte. Dieser Trend wurde hilfreich begleitet durch ein komplettes und heilloses Scheitern, eine inhaltsschwere alternative Blogosphäre zur Verfügung zu stellen, in der die Wissenschaft ehrlich diskutiert würde. Stattdessen hat man sich wie ein unterwürfiges Sprachrohr der Wissenschaft betätigt in Gestalt von propagandistischen Presseerklärungen. All das war zu sehr Wissenschaft leicht, also haben sie die nicht einbezogene professionelle wissenschaftliche Demographie verloren.

Was war das Ergebnis davon, die skeptische Blogosphäre im Anfangsstadium nicht unterdrückt und ihr dann beim Wachsen geholfen zu haben?

Das erste Ergebnis war, dass sie unbestreitbar einen wesentlichen Einfluss in der Welt der Klimawissenschaft erhalten hat. Angesichts dessen, wie wirklich unbrauchbar der Begutachtungsprozess auf diesem Gebiet geworden ist, ist es jetzt die skeptische Blogosphäre, die diese Aufgabe übernimmt, und sie tut es öffentlich. Gaia helfe jedem Aktivisten, der dabei erwischt wird zu versuchen, mit der Art schludrigem Müll durchzukommen, der im Kumpel-Begutachtungsprozess noch vor einigen Jahren einfach durchgewunken worden wäre. Heutzutage sind sie wie kleine Schulkinder, die ängstlich auf einen strengen Lehrer starren, von dem sie wissen, dass er ihre Hausarbeiten sehr genau korrigieren wird. Das ist alles ein wenig Angst erzeugend für die armen kleinen Lieblinge.

In jedem Jahr wird es beinahe schon zur Routine skeptischer Sites, einen „Bloggie Award“ in der Kategorie Wissenschaft zu verleihen. In diesem Jahr besteht die eine alarmistische „Wissenschaft“, die in dieser Hinsicht im Gespräch ist, darauf, dass deren Nominierung zurück gezogen wird, in tiefer Sorge um den Ruf, den diese Wissenschaft beim Abstimmungsergebnis in der wissenschaftlichen Gemeinde online haben würde.

Ein zweites zunehmendes Phänomen ist, dass Widerstand gegen den Klimaalarmismus jetzt auch in den Mainstream-Medien auftaucht. Viele der von den Online-Skeptikern vorgebrachten Argumente bilden die intellektuelle Basis für politische, ökonomische und wissenschaftliche Einwände gegen die Klima-Orthodoxie. Dieser Trend wird zunehmen, und obwohl der Klimaskeptizismus möglicherweise den Klimaalarmismus bis zum politischen Rand der Mainstream-Medien zurück drängen sollte, liegt die Zukunft des Skeptizismus’ wie für alle Informationskriege im Internet.

Während der kommenden Jahre werden die Organe der Altmedien an den Reben vertrocknen, und Bewegungen wie die skeptische Blogosphäre werden zunehmend einen direkten Einfluss auf die breite Masse der öffentlichen Meinung haben. Wenn Sie zweifeln, ob dieser Trend wirklich so ist, dann fragen Sie sich, wie viele Menschen noch regelmäßig Zeitungen kaufen oder Fernsehnachrichten schauen. Diese jungen Leute sind die Zukunft, und schon jetzt ist ihre bevorzugte Informationsquelle das Internet.

Die dritte und noch viel fundamentalere Auswirkung ist das Lernen einer Lektion, die so alt ist wie politisch abweichende Meinungen selbst; jede kleine Gruppe von Menschen, die den ihrer Ansicht nach schlimmen Dingen widerstehen, können den Unterschied ausmachen. Sie brauchen keine politische Repräsentanz oder eine Stimme in den Medien oder irgendjemanden, der für sie spricht, aber heutzutage können sie in die Blogosphäre springen und es selbst tun.

Ja, sie werden einige technische Details lernen müssen. Sie werden herausfinden müssen, wie man ihre Ansichten effektiv präsentiert; sie müssen damit fertig werden, verleumdet und beleidigt zu werden, und sie müssen darauf vorbereitet sein, einige Schläge einzustecken. Aber wenn ihre Sache stimmig und über alle Zweifel erhaben ist, können sie sehen, dass sie vielleicht gewinnen werden, weil sie das schon mal gesehen haben.

Die klimaskeptische Gemeinschaft war die erste, die diesen Online-Pfad beschritten hat.

©Pointman

Related articles by Pointman:

I’m not a scientist but …

The Climate Wars.

The death of the AGW belief system.

Some thoughts on fanatics and how to fight them.

Click for a list of other articles.

Link: http://thepointman.wordpress.com/2013/06/07/how-to-run-a-really-bad-infowar-campaign/

Übersetzt von Chris Frey EIKE




Klimakonferenz in Bonn: Keine Ahnung aber ein fester Wille!

Video von CFact über die Antworten von Delgierten an der UN-Klimakonferenz in Bonn.

 

Eine Untertitelung in deutscher Sprache war leider nicht möglich.

Kommentar: Komplett ahnungslos, aber mit fester Überzeugung. Diese Leute bestimmen mit, welche Steuern und Abgaben zur Rettung des Weltklimas wir zu zahlen haben.

Die EIKE – Redaktion




Ausstieg aus Kernenergie: Technologie-Transfer mit Dampferzeugern aus China

Eine Nation, die solche Kernkraftwerke bauen kann, ist auch jederzeit auf allen anderen Gebieten der Anlagentechnik (Chemieanlagen, Raffinerien, Spezialschiffbau etc.) ein ernsthafter Konkurrent. Wer andererseits freiwillig aus der „Hochtechnologie“ aussteigt, leitet unweigerlich die Deindustrialisierung ein. Der Fortschritt kennt nur eine Richtung: Wer die Entwicklung (freiwillig oder unfreiwillig) einstellt, muß gnadenlos auf dem Weltmarkt aussteigen. Der Niedergang der DDR ist ein schönes Beispiel dafür. Letztendlich führt das „Rumwursteln im Mangel“ immer auch zu einem gesellschaftlichen Zusammenbruch. (Quelle Bild rechts: http://www.nrc.gov/reading-rm/photo-gallery/index.cfm?&cat=Nuclear_Reactors)

Der Dampferzeuger als technisches Objekt

Was macht den Dampferzeuger eines Kernkraftwerks so besonders, daß weniger als eine Hand voll Länder dazu in der Lage sind? Die schiere Größe und die Komplexität. Trauriges Beispiel hierfür, sind die von Mitsubishi aus Japan neu gelieferten Dampferzeuger für das Kraftwerk San Onofre in USA. Sie waren in kürzester Zeit schwer beschädigt, was zu einem mehrmonatigen Ausfall des Kraftwerks geführt hat. Wahrscheinlicher Grund: Falsche Berechnung der Strömungsverhältnisse. Wieder einmal, ist die Kerntechnik der Antrieb für die Entwicklung verbesserter Simulationsprogramme. Die heute in vielen Industriezweigen verwendeten Thermo-Hydraulischen-Simulationen (Verknüpfte Berechnung von Strömungen und Wärmeübertragung) würde es ohne die Kerntechnik schlicht nicht geben. Die hierfür nötigen „Super-Computer“ ebenfalls nicht. Wer meint, aus dieser Entwicklung aussteigen zu können, endet zwangsläufig bei den bemitleidenswerten „Klimamodellen“ aus der Berliner Vorstadt, mit denen man uns weiß machen möchte, man könne die „Welttemperatur“ auf einige zehntel Grad genau berechnen.

Viel unmittelbarer ist der Zusammenhang auf der „mechanischen“ Seite. Ein solcher Dampferzeuger hat ein Gewicht von etwa 550 to bei einer Länge von 25 Metern. Wer solche Massen wie ein rohes Ei heben, transportieren und auf den Millimeter genau absetzen kann, braucht sich auch vor anderen Baumaßnahmen nicht zu fürchten. Dies erfordert eine entsprechende Infrastruktur und vor allem „Fachkräfte“ mit jahrelanger praktischer Erfahrung. Viel entscheidender ist jedoch, die Fertigung solch großer Teile, in der erforderlichen Präzision, aus speziellen Materialien. Bisher ist der Bau von Bearbeitungszentren eine Domäne der deutschen Werkzeugmaschinenindustrie.  Was geschieht aber, wenn Europa den Schwermaschinenbau immer mehr aufgibt? Die Werkzeugmaschinenhersteller werden ihren Kunden nach Asien folgen müssen.

Die Kerntechnik war stets ein Hort für die Verarbeitung exotischer Werkstoffe. Die Dampferzeuger sind ein typisches Beispiel. Sie müssen die gesamte im Reaktor erzeugte Wärme übertragen und daraus Dampf erzeugen. Dazu ist eine entsprechende Druckdifferenz und Wärmeübertragungsfläche nötig. Ein Druckwasserreaktor muß wegen der Neutronenphysik mit flüssigem Wasser betrieben werden. Ein Turbine mit Dampf. Damit das Wasser bei einer Temperatur von rund 330 °C noch flüssig bleibt, muß es unter einem Druck von etwa 155 bar stehen. Der damit hergestellte Dampf von knapp 300 °C hat aber nur einen Druck von etwa 78 bar. Diese enorme Druckdifferenz von etwa 80 bar muß sicher beherrscht werden. Für solch hohe Drücke kommen praktisch nur dünne Rohre in Frage, denn die Wärme soll ja durch die Rohrwand hindurch übertragen werden. Solche Dampferzeugerrohre haben eine Wandstärke von lediglich einem Millimeter, bei einem Außendurchmesser von weniger als 2 Zentimetern. Wie kann man aber fast 24.000 Liter pro Sekunde durch solch enge Rohre pumpen? Nur indem man tausende Rohre parallel schaltet und genau das ist die nächste Herausforderung: Zehntausende Röhren müssen pro Reaktor hergestellt, gebogen, befestigt und abgedichtet werden. Das Material muß eine gute Wärmeleitung besitzen, bei möglichst hoher Festigkeit und Korrosionsbeständigkeit. Hinzu kommen noch jede Menge Einbauten und Instrumentierung. So etwas kann man nur in einer Fabrik bauen, die eher einem Labor oder Krankenhaus gleicht, aber nicht in einer Schlosserei. Mit hoch qualifizierten (und deshalb auch gut bezahlten) Fachkräften.

Die gesellschaftlichen Konsequenzen

Die ersten vier Dampferzeuger für den Block Taishan 1 wurden noch komplett bei bei Areva in Chalon-StMarcel gefertigt. Die weiteren vier für Taishan 2 kommen bereits aus chinesischer Fertigung. Das Lerntempo ist bemerkenswert. Entscheidend ist aber folgendes: Niemand baut eine eigene Fabrik für nur vier Dampferzeuger. Ein solcher Schritt macht nur Sinn, wenn man vor hat, noch ganz viele zu bauen. Zuerst lockt der eigene Inlandsmarkt. Für Areva dürfte sich schon dieses Geschäft mit dem Wissenstransfer erledigt haben. Der chinesische Markt für Kernkraftwerke ist gegenüber dem europäischen gigantisch. China kann also in kürzester Zeit Kostenvorteile durch Serienproduktion erzielen. Mit diesen Kostenvorteilen wird es in spätestens einem Jahrzehnt massiv auf den Weltmarkt drücken. China wird aber auch die eingekaufte Technik weiterentwickeln. Die „kleine“ Areva hat langfristig keine Chance mitzuhalten. Wenn nicht jetzt massiv umgedacht wird, hat Europa in weniger als einer Generation eine weitere Schlüsseltechnik verspielt: Nach dem Bau von Computern wird auch der Kraftwerksbau aus Europa verschwinden und mit ihm im Fahrwasser, ganze Industriezweige. Aber wahrscheinlich ist das der wahre Grund für die „Energiewende“: Es geht nicht um ein bischen „Ökologismus“ sondern schlicht weg (mal wieder) um „Gesellschaftsveränderung“.

D. Klaus Dieter Humpich ist Betreiber der Website NukeKlaus.

Sein Selbstverständnis beschreibt er u.a. dort so:

Kerntechnik gilt auch innerhalb der Ingenieurwissenschaften als „schwer verständlich“. Der Autor entsinnt sich noch an die Kritik in seiner eigenen Studienzeit, warum er sich das antuen wolle. Gemeint war die viele Mathematik und der Arbeitsaufwand. Eine grüne Partei war noch nicht einmal gegründet. Schon damals beschlich den Autor das Gefühl, daß sich dieser Rückzug in einen elitären Turm der Wissenschaft eines Tages fürchterlich rächen könnte. Heute gibt es wohl keinen Kerntechniker mehr, der über einen „Atomexperten“ (meist Synonym für Sozialwirt, Deutschlehrer, Rechtsanwalt etc.) lächelt. Längst wird in Deutschland die veröffentlichte Meinung durch Aberglauben bestimmt.




Die hohen Kosten geringer Windkapazität

Armselige Rechtfertigungen

Trotz ihrer offensichtlichen Schwächen werden Energie-Subventionen in zahlreichen Wegen nach wie vor gerechtfertigt – am deutlichsten für erneuerbare Quellen wie die Energieerzeugung mit Windpropellern. Die am meisten gehörten Argumente von Befürwortern erneuerbarer Energie waren: „Wir brauchen lediglich noch etwas mehr Zeit, um im vollen Umfang wettbewerbsfähig zu sein“ und „Zweimal etwas Falsches tun macht in Wirklichkeit etwas Richtiges“. In jüngerer Zeit kamen hier noch „grüne Jobs“ hinzu sowie Argumente bzgl. ökonomischer Entwicklung, als ob subventionierte Erneuerbare die ökonomische Erlösung bringen könnten. Keines dieser Argumente ist stichhaltig.

Diese erste Rechtfertigung ist nichts als die jüngste Inkarnation des “Junge Industrie”-Arguments, das erstmals von Alexander Hamilton vor über 200 Jahren formuliert worden war. Diesem Argument zufolge braucht die Erzeugung durch Erneuerbare einfach mehr Zeit für Innovationen und zur Reduktion der Kosten auf das Niveau der fossilen Erzeugung, an welchem Punkt es zu einer machbaren, den Wohlstand fördernden Industrie wird. Aber die Erzeugung mit Erneuerbaren ist seit 35 Jahren sehr stark subventioniert worden, seit Präsident Carter das Public Utilities Regulatory Policy-Gesetz und das Energiesteuer-Gesetz im Jahr 1978 unterzeichnet hat. Mit der Bestätigung des Energiepolitik-Gesetzes im Jahr 1992 und der Einführung sowohl des Investment Tax Credit (ITC) als auch des Production Tax Credit (PTC) sind diese Subventionen ausgeweitet worden.

Der PTC beträgt gegenwärtig 2,2 Cent pro Kilowattstunde nach Steuern. Basierend auf der jetzigen Umsatzsteuerrate von 35 Prozent ergeben sich daraus vor Steuern 3,4 Cent pro Kilowattstunde, liegen also oftmals höher als der Großhandelspreis von Strom.

Die zweite Rechtfertigung ist einfach eine Version des „Das ist nicht fair“-Arguments, das Eltern sehr gut kennen. Befürworter der Erzeugung mit Erneuerbaren argumentieren, dass die konventionelle Erzeugung über ein Jahrhundert lang subventioniert worden ist; daher ist es nur fair, wenn jetzt die Erneuerbaren ebenfalls subventioniert werden. Während einige Formen der Erzeugung indirekt subventioniert werden wie z. B. die Begrenzung der Verantwortlichkeit von Kernkraftwerks-Betreibern bei Unfällen im Rahmen des Price-Anderson-Gesetzes, stehen andere Subventionen oft im Zusammenhang mit allgemeinen Provisionen der Steuerklasse, wie z. B. beschleunigten Werteverlusten und mit Steuern finanzierte Maßnahmen von Gemeinden und Kommunen. Man kann darüber streiten, ob es sich hierbei um „Subventionen“ handelt, aber sie werden allen erzeugenden Quellen zur Verfügung gestellt. Die Erzeugung mit Erneuerbaren ist die einzige Erzeugung, die von garantierten Einnahmen profitiert.

Die dritte und jüngste Rechtfertigung, dass nämlich die ökonomische Erlösung auf einem subventionierten Pfad „grüner Energie“ liegt, ist nicht nur die letzte Zuflucht für marktfeindliche Schurken, sondern ist auch durch die Erfahrung diskreditiert worden. Nicht umsonst haben Länder wie Spanien und Deutschland erfahren, dass grüne Energie einen hohen ökonomischen Preis fordert in Gestalt in die Höhe schnellender Strompreise, die andere Unternehmen schädigen. Hier in den USA wird das Versprechen einer neuen grünen Energiewirtschaft durch den Bankrott vieler Unternehmen verdorben, die riesige Schecks vom US-Energieministerium erhalten haben, dank politischer Verbindungen und nicht wegen technologischer und ökonomischer Vorteile.

Strom von geringem Wert

Anders als andere Wirtschaftsgüter variieren die Werte fortwährend als Ergebnis ständiger Änderungen von Versorgung und Nachfrage. Folglich ändert sich der Strommarkt ständig, von tausenden Dollar pro Megawattstunde in Zeiten extremer Nachfrage bis zu Werten unter Null, wenn die Märkte mit Strom überflutet werden, der von den ihn erzeugenden Quellen wie Kernkraftwerken stammt. Er kann nicht kostenlos oder von Augenblick zu Augenblick hoch- und herunter gefahren werden.

Die stetige Veränderung des Marktwertes und der Einfluss der subventionierten Erzeugung mit Windkraft auf diese Werte enthüllt eines der größten Defizite der Winderzeugung und einen der Gründe, warum die Subventionierung so erheblich ineffizient ist: Wind erzeugt niedrig-wertige Energie. Um zu verstehen, warum das so ist, muss man wissen, dass die Stromnachfrage eine Kombination aus Grund-, Mittel- und Spitzenlast ist. Grundlastgeneratoren wie Kernkraftwerke erfordern hohe Kapitalkosten, zeitigen aber in Betrieb nur relativ niedrige Kosten. Außerdem laufen sie kontinuierlich, jede Stunde jeden Tag. Spitzenlast-Generatoren, oftmals mit Öl und Erdgas betriebene Generatoren [simple-cycle generators] arbeiten, wenn die Stromnachfrage am größten ist, wie z. B. bei heißem und feuchtem Wetter. Spitzenlasteinheiten haben relativ geringe Kapitalkosten, aber hohe variable Kosten. Zum Beispiel gibt es in New York City viele sehr alte und ineffiziente Ölkraftwerke. Weil sie im Betrieb so teuer sind, laufen sie nur, wenn der Stromnachfrage am größten ist.

Abbildung 1 zeigt ein Beispiel. Die dicke schwarze Linie nennt man eine „Lastkurve“ [„load duration curve“]. Sie repräsentiert die Stromnachfrage von der Stunde der höchsten bis zur Stunde der niedrigsten Nachfrage. Grundlastgeneratoren, B, laufen während aller 8760 Stunden des Jahres. Es gibt zwei Arten von Mittellast-Generatoren, I1, die HI-l Stunden während des Jahres arbeiten, und I2, von dem man annimmt, dass er stärker variable Kosten aufweist und folglich HI-2 Stunden während des Jahres arbeitet. Schließlich gibt es die Spitzenlastquellen P, die am wenigsten laufen, HP Stunden während des Jahres. Die Auswahl, welche Art Generator läuft, richtet sich danach, die Nachfrage in jeder Stunde zu den niedrigst möglichen Kosten zu decken.

Der Wert des Stromes in jeder Stunde repräsentiert die Wechselwirkung zwischen Angebot und Nachfrage. Wenn die Nachfrage am größten ist, sind die Verbraucher willig, einen hohen Preis für Strom zu bezahlen, um es während der heißesten Tage kühl zu haben. Darum laufen zu diesen Zeiten Spitzenlasteinheiten mit stark variablen Betriebskosten. Folglich hängt der Wert einer bestimmten Art der Erzeugung von der Fähigkeit ab, den Strom zur Verfügung zu stellen, wenn er gebraucht wird. Ein Generator, der in der Vergangenheit oft zusammengebrochen ist und keinen Strom erzeugt hat, ist weniger wertvoll. Außerdem zahlt er sich weniger aus als eine vergleichbare Einheit, die nahezu fehlerfrei arbeitet, weil es unsicher ist, ob die unzuverlässige Einheit zur Verfügung steht, wenn sie am dringendsten gebraucht wird. Genauso hätte eine Spitzenlasteinheit, die nicht in der Lage ist, eine Spitzennachfrage zu decken, geringen oder gar keinen ökonomischen Wert.

Die Erzeugung durch Windkraft ist unzuverlässig und zeigt folglich genau dieses Schicksal. Windkraft ist inhärent veränderlich und sporadisch; Strom wird nur erzeugt, wenn der Wind weht. Folglich kann man sich auf Windkraft niemals „verlassen“, verfügbar zu sein, wenn sie gebraucht wird. Schlimmer jedoch ist die ökonomisch wie Kraut und Rüben verteilte Windkraft in großen Teilen der USA: die geringste Menge von Strom aus Windkraft ist verfügbar, wenn der ökonomische Wert des Stromes am größten ist.

Empirische Analyse

Die Grundlage dieser Analyse ist eine Erhebung, die meine Firma während stündlicher Erzeugungsdaten über fast vier Jahre (Januar 2009 bis August 2012) in drei regionalen Versorgungs-Organisationen [regional transmission organizations RTO] mit den größten Mengen installierter Windkraft durchgeführt hat: die Pennsylvania-New Jersey-Maryland (PJM) Interconnection, die die mittelatlantischen Staaten versorgt; den Midwest Independent System Operator (MISO), der den nördlichen Teil des Mittleren Westens abdeckt; und den Electric Reliability Council of Texas grid (ERCOT) für Texas. Zusammen stehen diese drei Regionen für etwa 27000 MW Windkraft-Kapazität, das ist mehr als die Hälfte der etwa in den USA installierten Windkraft-Kapazität von 50000 MW. Mit einer Kapazität über 10000 MW aus Windkraft gibt es in Texas die größte Menge von Windstrom aller US-Staaten.

Unsere Analyse zeigt, egal ob man die Tage mit der höchsten Stromnachfrage in jedem Jahr auf saisonaler Basis oder basierend auf stündlichen Mittelwerten während der gesamten Periode untersucht, dass winderzeugter Strom gerade dann am wenigsten verfügbar war, wenn die Nachfrage am größten war. Mehr noch, diese umgekehrte Korrelation war sehr stark.

Man betrachte zunächst das mittlere Verhalten der Winderzeugung auf stündlicher Basis während jeden Tages in ERCOT (Abbildung 2). Die jährliche Winderzeugung in ERCOT erreichte die Spitze zwischen Mitternacht und 1 Uhr früh (gestrichelte rote Linie), als die Stromnachfrage fast auf dem niedrigsten Niveau lag (gestrichelte schwarze Linie). Schlimmer noch, im Sommer, wenn die Stromnachfrage am späten Nachmittag viel höhere Spitzenwerte erreicht als während des Jahres insgesamt (durchgezogene schwarze Linie), ist die Winderzeugung viel geringer als während des Jahres allgemein (durchgezogene rote Linie). Das ist genau entgegengesetzt dem Wert des Stromes während dieser Stunden. Das relative Fehlen von Windkraft kommt nicht überraschend: an den schlimmsten Tagen des Sommers ist es heiß, feucht und windstill. Dieser Aspekt des winderzeugten Stromes  ist es, den deren Befürworter zu diskutieren ablehnen. Wir untersuchten auch die jahreszeitliche Verteilung des winderzeugten Stromes in jedem Jahr. Für jede Jahreszeit haben wir die „Lücke“ in der Windlast [the load-wind „gap“] berechnet, definiert als der Unterschied zwischen dem mittleren saisonalen Verfügbarkeits-Verhältnisses (d. h. mittlere saisonale Erzeugung relativ zur mittleren Jahreserzeugung) und der saisonalen Lastrate (d. h. die mittlere Last während der Jahreszeit relativ zur mittleren jährlichen Last).

Nehmen wir beispielsweise an, die mittlere Last im Frühjahr liegt bei 90 Prozent der mittleren jährlichen Last, während die mittlere Winderzeugung im Frühjahr 120 Prozent der mittleren jährlichen Erzeugung beträgt. Die „Lücke“ in der Windlast würde folglich 120 – 90 = 30 Prozent betragen. Ein positiver Wert der Windlast-Lücke bedeutet, dass relativ mehr Winderzeugung verfügbar ist, um die Last zu decken; ein negativer Wert der Windlast-Lücke bedeutet, dass dafür weniger Winderzeugung zur Verfügung steht. Idealerweise ist der ökonomische Wert der Windkraft maximal, falls der meiste durch Windkraft erzeugte Strom bei höchster Last anfällt. Aber gerade das Gegenteil beobachtet man saisonal in jedem Gebiet. Im Sommer ist die Windlast-Lücke stark negativ, was bedeutet, dass die geringste Menge Windstrom im Sommer erzeugt wird, wenn die Lasten im Mittel am höchsten sind. In PJM betrug diese Lücke beispielsweise in den Sommern 2010 und 2011 -70 Prozent und -60 Prozent im Sommer 2012 (Abbildung 3). Eine ähnliche Verteilung zeigt sich in ERCOT und MISO.

Und schließlich haben wir die Winderzeugung an Sommertagen berechnet, an denen die Stromnachfrage am größten war. Es sind diese Tage, an denen der ökonomische Wert des Stromes am größten ist und die Versorger folglich verfügbaren Strom ausreichend liefern wollen. Im Besonderen haben wir für jede der vier Sommersaisons die mittlere Winderzeugung berechnet relativ zur gesamten potentiellen Winderzeugung an den 10 Tagen mit der höchsten Nachfrage. Und wieder zeigen sich ähnliche Ergebnisse: Es gibt wenig tatsächliche Windstrom-Erzeugung, als der Strom am wertvollsten war (Tabelle 1) und viel weniger als das mittlere Niveau der Winderzeugung relativ zum Gesamtpotential während des ganzen Jahres.

Wie Tabelle 1 zeigt, lag die mittlere Verfügbarkeit der Winderzeugung an den Tagen mit der höchsten Nachfrage viel niedriger als während des ganzen Jahres. In MISO beispielsweise bewegte sich die mittlere Verfügbarkeit zwischen 1,8 und 7,6 Prozent während der vier Sommersaisons, während die mittlere Gesamt-Verfügbarkeit aus Wind bei 27 Prozent lag. Folglich, falls 1000 MW Winderzeugung eine mittlere Strommenge von 270 MW über das ganze Jahr erzeugten, läge die Erzeugung an den heißesten Sommertagen im Mittel bei kaum mehr als 18 bis 76 MW.

Die perversen Auswirkungen der Wind-Subventionen

Unsere Analyse zeigt, dass subventionierter Windstrom dann am wenigsten verfügbar ist, wenn der Wert des Stromes am größten ist. Folglich ist Wind nicht nur eine sporadische, unvorhersagbare Ressource, sondern man kann auch nicht auf sie bauen, wenn sie am meisten gebraucht wird (und am wertvollsten ist).

Man muss wohl sehr lange suchen, um eine noch perversere Subvention zu finden, die einer Erzeugungsquelle zugute kommt, die Strom dann erzeugt, wenn er am wenigsten gebraucht wird.

Die widrigen ökonomischen Auswirkungen subventionierter Winderzeugung gehen über die Subvention einer geringwertigen Erzeugungsquelle hinaus. Die Winderzeugung unterdrückt kurzfristig Marktpreise, wenn Strom zur Verfügung gestellt wird, wenn der Wind weht. Einige Befürworter der Windkraft glauben, dass unterdrückte Marktpreise für die Verbraucher vorteilhaft sind, indem man „unrechtmäßig erworbene Gewinne“ von den Erzeugern auf sie umlegt. In dieser Hinsicht wird eine Art „Windkraft-Profit“-Steuer auf bestehende Generatoren erhoben. Allerdings sieht die Wirklichkeit im Gegensatz zu den Befürwortern der Preisunterdrückung so aus, dass derartige Maßnahmen nicht die Marktdynamik erreichen und das Verhalten der Versorger als Reaktion auf niedrigere Preise.

Ein einfaches Beispiel der dynamischen Folgen subventionierten Windes zeigt Abbildung 4. Diese Abbildung reproduziert die Lastkurve von Abbildung 1 sowie die vier Arten der Erzeugungs-Ressourcen. Nehmen wir jetzt einmal an, dass die subventionierte Winderzeugung W dem Mix hinzugefügt wird (das Viereck unten). Basierend auf der Analyse zuvor ist die geringste Menge von Windstrom während der Stunden mit höchster Nachfrage verfügbar. Folglich nimmt man in Abbildung 4 von der Menge der Winderzeugung an, dass sie zunimmt, wenn wir uns weiter nach rechts auf der Lastkurve bewegen.

Wenn mehr Windstrom erzeugt wird, der die Marktpreise drückt, werden bestehende wettbewerbsfähige Generatoren niedrigere ökonomische Einnahmen verzeichnen. Konsequenterweise werden marginale Grund- und Mittellast-Generatoren anfangen, aus dem Markt zu gehen. In der Abbildung wird von B‘ (Grundlast-Kapazität), I1‘ von Typ 1 (Mittellast-Kapazität) und I2‘ von Typ 2 Mittellast-Kapazität angenommen, dass sie kurzfristig vorzeitig ausscheiden als Folge der ursprünglich unterdrückten Marktpreise. Weil jedoch so wenig Windstrom in den Stunden höchster Nachfrage erzeugt wird, wird die bestehende Spitzenerzeugung P den Ausfall durch den Wegfall der anderen Generatoren ausgleichen. Zusätzlich werden in den Stunden höchster Nachfrage sogar noch teurere Spitzen-Ressourcen P‘ auf den Markt geworfen, um die Nachfrage zu decken. Langfristig wird die subventionierte Winderzeugung auf diese Weise dafür sorgen , dass die Marktpreise steigen.

[Dieser Absatz hat sich mir sinngemäß nicht erschlossen. Daher füge ich hier den Original-Wortlaut an:

„As more wind is generated, suppressing market prices, existing competitive generators will realize lower economic returns. Consequently, marginal baseload and intermediate generators will begin exiting the market. In the figure, B‘ of baseload capacity, I1′ of Type 1 intermediate capacity, and I2′ of Type 2 intermediate capacity are assumed to exit prematurely in response to the initially suppressed market prices over the short run. However, because so little wind generation is produced during peak hours, existing peaking generation, P, will then pick up the slack from the other generators’ exit. In the highest demand hours, additional, even-higher-cost peaking resources, P‘, will be brought online to meet demand. The net result is that in the long run, subsidized wind generation will cause market prices to increase.”]

Eine andere Art, diese Auswirkungen darzustellen, zeigt Abbildung 5. In der Abbildung ist der Marktpreis zu einer gegebenen Stunde mit der Nachfrage DH P*. Die Nachfrage wird  mit den vier Ressourcen-Typen gedeckt, B, I1, I2 und P, die jeweils QB, QI-1, QI-2 und QP versorgen. Als nächstes wird die subventionierte Winderzeugung W eingeführt, die bis zu QW Megawattstunden erzeugt. Dies dehnt die Versorgungskurve nach rechts aus und reduziert den Marktpreis von P* auf PW-SR.

Allerdings ziehen als Folge der niedrigeren Marktpreise bestehende Versorger Kapazitäten zurück, was die Versorgungskurve nach links zurück verschiebt. Als Folge wird in Stunden hoher Nachfrage viel weniger Windstrom zur Verfügung stehen. Nehmen wir mal an, dass bei einer Nachfrage DH nur QW‘ MWh Windstrom erzeugt werden. Mit den vorherigen Zurücknahmen erzeugen B, I1 und I2 weniger Strom, was die Mengen für jeweils QB‘ QI-1‘ und QB-2‘ reduziert und eine neue langfristige Versorgungskurve erzeugt (rote Linie). Die reduzierten Mengen von Grund- und Mittellast-Erzeugung erfordern eine größere Erzeugung von der zuvor benutzten Spitzenerzeugung P. Folglich wird angenommen, dass QP auf QP‘ MWh zunimmt. Allerdings werden wegen des reduzierten Outputs der Wind-Ressource zusätzliche, teurere Spitzen-Ressourcen PP online gebracht, die die zusätzlich benötigten QPP MWh zur Verfügung stellen. Folglich führt der zusätzliche Windstrom zu höheren Marktpreisen.

Zusätzliche soziale Kosten der Windkraft

Die sozialen Kosten subventionierter Windkraft hören mit den umgekehrten Auswirkungen auf die bestehenden Versorger und langfristig höherer Preise nicht auf. Die geographische Verteilung der Ressource Wind – die Erzeugung von Windstrom findet typischerweise in den Randgebieten von Städten statt – erfordert den Bau von Hochspannungsleitungen, um den Windstrom in die Lastzentren zu transportieren. Allerdings tragen die Windkraft-Betreiber nur einen geringen Teil dieser Kosten, weil sie unter allen Nutzern des Transportsystems verstaatlicht sind. Solche Verstaatlichung ist das Ergebnis der politischen Maßnahmen der [US-] Bundes- und Staatsregierungen, um die Windstrom-Erzeugung zu fördern.

Die Verstaatlichung der Kosten einiger Transportsysteme wird gerechtfertigt, weil die Transportkapazität für eine zuverlässige Stromversorgung ein öffentliches Gut ist. Folglich kann man bis hin zu zusätzlicher Transport-Kapazität für die Zuverlässigkeit des Gesamtsystems ein ökonomisches Argument vorbringen, wonach alle Nutzer des Transportsystems von der verbesserten Verlässlichkeit profitieren, und die Kosten sollten unter allen Nutzern aufgeteilt werden.

Im Grunde ist dies eine Kontingentierung zwischen Kosten und Nutzen. Allerdings verbessert subventionierte (und nicht subventionierte) Windstrom-Erzeugung dessen Verlässlichkeit nicht. Sie reduziert die Verlässlichkeit wegen der inhärenten Variabilität des Windes, was eine zusätzliche Back-up-Erzeugung erfordert. Das führt zu „Wind-Integrationskosten“, um die Variationen des Windes zu „glätten“. Trotz dieses umgekehrten Verlässlichkeits-Effektes werden die Kosten neuer Hochspannungsleitungen, gebaut zum Transport des winderzeugten Stromes, staatlicherseits auf alle Verbraucher umgelegt, die damit noch höhere Kosten übernehmen müssen, um die Zuverlässigkeit des Stromsystems sicherzustellen, weil es durch den winderzeugten Strom belastet wird. Die Auswirkung insgesamt wird die Größenordnung der staatlichen Kosten steigen lassen, weil Subventionen den exzessiven Ausbau von Windkraft ermutigen.

Gibt es ausgleichende gesellschaftliche Vorteile der Windkraft?

Ein potentielles Argument für die fortgesetzte Subvention von Windkraft trotz der gegenteiligen Auswirkungen solcher Subventionen lautet, dass der Ausbau der Windkraft ausgleichende gesellschaftliche Vorteile bringt. In diesen öffentlichen Vorteilen ist die Schaffung von Arbeitsplätzen nicht enthalten – grün oder welche sonst immer – da Arbeitsplätze als solche kein ökonomischer Fortschritt sind, sondern stattdessen eine Form von Transferzahlungen repräsentieren. Wenn dieses „soziale Vorteile“-Argument gelten soll, müssten Wind-Subventionen erfolgreich zahlreiche Tests durchlaufen. Erstens, zeitigt also die subventionierte Windstrom-Erzeugung soziale Vorteile, und wenn ja, worin bestehen sie?

Zweitens, bietet die subventionierte Windstrom-Erzeugung diese sozialen Vorteile zu den niedrigst möglichen Kosten? Mit anderen Worten, können diese Vorteile auch durch alternative politische Maßnahmen erreicht werden, die die Subventionierung der Windkraft nicht erforderlich machen?

Die Standard-Litanei durch Windstrom geschaffener sozialer Vorteile sind (1) reduzierte Emissionen von Luftverschmutzern, (2) größere Energie-„Unabhängigkeit“, womit in der Regel eine reduzierte Abhängigkeit von Rohöl aus dem Nahen Osten und anderen, als „feindlich“ gegenüber den USA angesehenen Ländern gemeint ist, und (3) eine reduzierte Preis-Volatilität fossiler Treibstoffe.

Obwohl eine Reduktion der Emission von Luftverschmutzern einen sozialen Vorteil darstellt, gibt es keinen empirischen Beweis, dass die subventionierte Entwicklung der Windkraft die Emissionen in effizienter Weise reduziert, und zwar aus mindestens vier Gründen. Erstens, Verschmutzungs-Stoffe wie Schwefeldioxid und Stickstoff-Oxide werden schon jetzt unter dem Clean Air Act reguliert. Daher sind die sozialen Kosten dieser Verschmutzer bereits internalisiert. Zweitens, obwohl die Befürworter der erneuerbaren Energien deren Fähigkeit betonen, Kohlenstoff-Emissionen zu reduzieren, gibt es keinen Konsens über die sozialen Kosten der Kohlenstoffemissionen, wenn überhaupt welche anfallen. Drittens, die durch die Winderzeugung „vermiedenen“ Emissionen hängen von einem marginalen Generator ab. Viertens, die Variabilität der Winderzeugung erfordert die zusätzliche Backup-Erzeugung durch fossile Treibstoffe, was bedeutet, dass die fossile Stromerzeugung ineffizient ist. Eine Analogie wäre es, den Betrieb eines Autos im Stop-and-Go-Verkehr mit der konstanten Geschwindigkeit auf einer Autobahn zu vergleichen: Die Effizienz von Ersterem ist geringer als von Letzterem. Weiterhin muss jede Katalogisierung der vermeintlichen sozialen Vorteile der Windstrom-Erzeugung auch deren soziale Kosten berücksichtigen wie Auswirkungen auf die menschliche Gesundheit, wenn man dem niederfrequenten Lärm ausgesetzt ist, der Tötung von Zugvögeln und Wertminderungen durch die Verschandelung der Landschaft.

Energie-Unabhängigkeit ist kein sozialer Vorteil. Selbst wenn dem so wäre, gibt es keinen Beweis, dass die Windstrom-Erzeugung die Nachfrage der USA nach Rohöl aus „feindlich gesinnten“ Ländern reduziert. Im Jahre 2011 wurde weniger als 1 Prozent allen Stromes mit ölbasierten Treibstoffen erzeugt.

Und unter der Voraussetzung, dass mit Öl befeuerte Generatoren typischerweise als Spitzenlast-Ressourcen genutzt werden, zeigt die obige Analyse, dass diese Erzeugung als Folge der Wind-Subventionen allgemein üblicher wird. Was die Windstrom-Erzeugung für den Betrieb von Elektromobilen betrifft und dem damit einher gehenden geringeren Ölverbrauch für das Transportwesen, werden alle Auswirkungen verschwindend gering sein, wenn man den gegenwärtigen und vermutlich auch zukünftigen Anteil dieser Fahrzeuge an allen Fahrzeugen betrachtet.

Reduzierte Volatilität der Preise fossiler Treibstoffe ist ebenfalls kein sozialer Vorteil. Mehr noch, es gibt keinen Beweis, dass die Windstrom-Erzeugung die Volatilität der Treibstoffpreise reduziert. Behauptete Reduktionen der Preis-Volatilität basieren auf einer einfachen – und falschen – Hypothese, dass nämlich die Preis-Volatilität fossiler Treibstoffe zunimmt, wenn die Nachfrage nachlässt. Während es sicherlich stimmt, dass, wenn die Nachfrage nach einem Gut bei Null liegt, es auch keine Volatilität des Preises für dieses Gut gibt, gibt es keinen Beweis, dass die Entwicklung der Windkraft die Volatilität der Preise fossiler Treibstoffe reduziert hat. Abgesehen davon, traditionelle Sicherheits-Werkzeuge können die Preis-Volatilität auf jedes vom Verbraucher gewünschte Niveau reduzieren, zu niedrigeren Kosten und ohne Bedarf für Subventionen.

Schlussfolgerung:

Fortgesetzte Subventionen für die Windstrom-Erzeugung, sowohl in Form von Steuervorteilen als auch obligatorische erneuerbare Portfolio-Standards, repräsentieren eine schlechte Wirtschafts- und Energiepolitik, und zwar aus mindestens drei Gründen. Erstens und am schwerwiegendsten, die Windstrom-Erzeugung ist nicht nur volatil und unvorhersagbar, sondern hat auch einen geringen ökonomischen Wert. Anstatt die hoch variablen Kosten fossiler Energieerzeugung [high variable-cost fossil generating resources] zum Befrieden der Spitzennachfrage zu ersetzen, erreicht die Verfügbarkeit von Windstrom dann einen Spitzenwert, wenn die Stromnachfrage am geringsten ist.

Als Folge tendiert die Windstrom-Erzeugung dazu, die Erzeugung zu gering variablen Kosten zu ersetzen, oder sie zwingt einfach Grundlast-Generatoren, mehr zu zahlen, um den Strom in das Netz zu speisen, weil deren Einheiten nicht kosteneffektiv hoch- und herunter gefahren werden können. Folglich werden die Verbraucher und Steuerzahler gezwungen, geringwertigen Strom zu subventionieren.

Zweitens, subventionierte Windstrom-Erzeugung verzerrt wie alle Subventionen den Strommarkt, indem kurzfristig die Strompreise verringert werden, die langfristig dadurch aber steigen. Dies bedeutet schädliche Auswirkungen für im Wettbewerb stehende Erzeugung und den Verbraucher.

Subventionen vertreiben Konkurrenten und verstärken die finanzielle Unsicherheit, was wiederum die Kapitalkosten für neue Investitionen in die Stromerzeugung steigen lässt. Langfristig bestehen die Auswirkungen von Subventionen darin, dass die Strompreise höher sind als sie unter reinen Marktgesetzen wären.

Drittens, subventionierte Windstrom-Erzeugung resultiert in zusätzlichen Kosten, die vom Verbraucher getragen werden müssen. Diese Kosten schließen Milliarden Dollar ein, die man für den Bau zusätzlicher Hochspannungsleitungen ausgeben muss und die ihre eigenen gegenteiligen gesellschaftlichen Auswirkungen haben. Weitere Zusatzkosten entstehen durch die Integration des durch veränderlichen und unterbrochenen Wind erzeugten Stromes in das Netz. Mit anderen Worten, Winderzeugung drückt anderen Marktteilnehmern externe Kosten auf. Nach 35 Jahren direkter und indirekter Subventionen gibt es keinen ökonomisch einleuchtenden Grund, mit der Subventionierung der Windstrom-Erzeugung weiterzumachen.

Auf [US-]Bundesebene sollten direkte Subventionen wie PTC sofort eingestellt werden. Subventionen auf [US-]bundesstaatlicher Ebene, seien es durch staatliche Regulierer festgelegte Einspeisetarife oder gesetzlich festgelegte RPS-Verfügungen [?], verschärfen Marktverzerrungen und lassen die Strompreise steigen, wieder zum Nachteil der Verbraucher. Diese staatlichen Subventionen sollten ebenfalls sofort eingestellt werden.

Und schlussendlich belohnt die fortgesetzte Subventionierung der Windstrom-Erzeugung einfach Nischen-Erzeugungsunternehmen und deren Zulieferer auf Kosten vieler anderer. Angesichts der massiven öffentlichen Schulden und der schleppenden Erholung der US-Wirtschaft kann diese Art der schädlichen Umverteilung des Wohlstands nicht gerechtfertigt werden.

Jonathan A. Lesser ist Gründer und Präsident von Continental Economics Inc.

ENERGY & Environment

Link: http://www.cato.org/sites/cato.org/files/serials/files/regulation/2013/3/v36n1-8.pdf

Übersetzt von Chris Frey EIKE

Hinweise des Übersetzers, dem jedes wirtschaftliche Hintergrundwissen fehlt: Falls in dieser zeitweise im Blindflug erstellten Übersetzung sachliche Fehler enthalten sind, bitte ich die Energiefachleute unter den Lesern, diese konstruktiv in Kommentaren aufzuzeigen.

Das Anklicken des Original-links hat bei mir zuletzt nicht mehr funktioniert. Es kann aber an meinem Laptop liegen.

C. F.




Klimawandel in Deutschland bedeutet Abkühlung – trotz deutlicher Zunahme von CO2, Teil 2

Mehr noch, wie wir zeigen konnten, uns in dieser, seit fast 30 Jahren, bereits befinden. Unser ausgewertetes Datenmaterial des DWD zeigt eindeutig, dass die Winter in Deutschland seit nunmehr fast 30 Jahren kälter werden. Die Jahrestemperaturen seit fast 15 Jahren nicht steigen, sondern teils deutlich sinken. Wird der Wärmeinseleffekt berücksichtigt, haben wir in Deutschland heute ein ähnliches Klima/Temperaturniveau, wie im Jahr 1881, dem Beginn der DWD-Temperaturdatenreihe. Auch wenn solche spätgermanischen Seher, wie Herr Dr. Tiersch, angesichts des Hochwassers im Süden und Osten unseres Landes, einmal mehr, einen menschengemachten Klimawandel dafür aus dem Hut zaubern.

Ödnis oder grüne Landschaften? Unser Bericht wird zeigen, dass ein CO2-Pegel von 400ppm für die Natur und damit auch für uns, kein Fluch, sondern ein Segen ist.

Die (leichte) globale Erderwärmung (sofern man sich auf die Diskussionsebene von Mittelwerten begeben möchte), die zum Anlass der Klimahype wurde, dauerte seit Ende der Kaltzeitepoche, gegen Ende der 1970-Jahre, bis gegen Ende des vorigen Jahrhunderts. Also maximal 20 Jahre. Je nach Betrachtungslage der verfügbaren Temperaturdaten und ohne WI-Bereinigung der Daten, bestand die Erwärmungsphase weitgehend aus dem El- Niño- bedingten Temperatursprung von 1997-1998. Bei linearer oder progressiver Trendberechnung, wie üblicherweise in Veröffentlichungen verwendet, zeigt sich dann, ausgehend vom Ende der Abkühlungsphase der 1960er und 70er Jahre der (politisch gewünschte) „beschleunigte“ Temperaturanstieg am Ende des 20. Jahrhunderts.

  

Abbildung 1: Die monatlichen von UAH beobachteten globalen Temperaturanomalien der unteren Troposphäre, Stand 10. Mai 2013 (http://www.climate4you.com/). Deutlich sind die beiden El-Niño-bedingten Temperaturmaxima von 1998 und 2010 zu sehen. Wie Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigen konnte, werden El-Niño-Ereignisse durch drei unterschiedliche solare Ereignisse gesteuert und über die Hadley-Zellen und den Drehimpulserhaltungssatz, auf das irdische Klimasystem weitergegeben.

 Abbildung 2: Die gleiche Datenreihe mit beiden El Niño-Ereignissen und dem Temperaturverlauf vor und nach dem prägnanten El Niño-Ereignis 1998. Deutlich ist zu sehen, dass von 1979, dem Beginn der Satellitenaufzeichnungen bis 1998 der globale Temperaturverlauf flach, also ohne nennenswerte Erwärmung verläuft. Durch den El Niño wird die Temperaturkurve angehoben und stagniert seither auf höherem Niveau. Wird hingegen statistisch ein linearer Trend betrachtet, so ergibt dieser den bekannten, ansteigenden Temperaturtrend seit 1979, statistisch gesehen, obwohl dieser in der Realität längst vorbei ist und die Temperaturen seit ihrem Maximum von 1998, fallen.

In dieser Zeit ist die Kohlendioxidkonzentration weiter gestiegen. Dass jedoch „Treibhauseffekte“, wie sie vorrangig dem CO2 nachgesagt werden, keine erheblichen Erwärmungen bewirken können, wurde bereits vor 100 Jahren unter anderem mit dem sogenannten WOOD- Experiment bewiesen (Abbildung3):

Zum THE gab es bereits 1909 von dem Professor für Experimentalphysik, James W. Wood ein wegweisendes Experiment, welches das Prinzip des THE falsifiziert. 

 

Die Erwärmung eines Treibhauses (Gewächshauses) basiert also nicht auf eingesperrter Strahlung (einem sog. THE), sondern auf eingesperrter, warmer Luft (wird vom Boden erwärmt) und damit dem Ausbleiben der Konvektion. Wood beweist weiter, dass der Boden wenig Strahlung aussendet, und dessen Kühlung auf Wärmeleitung und Konvektion beruht.

Die folgende Abb.4 zeigt anhand von Satellitenmessungen, dass die weltweiten Temperaturanomalien praktisch gar nicht von den steigenden CO2- Konzentrationen beeinflusst werden:

 

Abbildung 4: Hansens Vorhersagen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6sym6 vor dem US-Kongress 1988, verglichen mit den nachfolgenden tatsächlichen Temperaturen, gemessen durch NASA-Satelliten. Auch hier erkennt man, dass 1998, El Niño- bedingt, weltweit das wärmste Jahr war, einen weiteren, El Niño- bedingten, schwächeren Peak, gab es 2010. Die farbigen Kurven sind die Temperaturanomalien, die sich nach Hansens Modellvorhersagen bei der reellen CO2- Entwicklung (Rot) sowie verminderten CO2-Emissionen (Orange) beziehungsweise ohne weitere Steigerungen des CO2-Gehalts (Grün) hätten ergeben sollen. Doch die reellen Anomalien (Schwarz) stagnieren und bleiben fast immer darunter- Prognosen und Realität laufen zunehmend auseinander! Quelle http://www.eike-klima-energie.eu/climategate-anzeige/the-skeptics-case/ vom 03. März 2012.

Übrigens: Nach neuen Angaben soll im Mai 2013 auf der Referenzstation Mauna Loa die 400 ppm- CO2-Konzentration = 0,04% erreicht worden sein. Aber von einer „katastrophalen Erderwärmung durch den Treibhauseffekt“ war bislang weder weltweit und schon gar nicht in Deutschland irgendetwas zu spüren. Eine kleine Anmerkung:

Wir hoffen doch sehr, dass die Gilde der Treibhausbefürworter, sich bei der Mauna Loa Station dafür bedankt, dass ausgerechnet im AR5-Jahr, dem Jahr also, in dem das IPCC den neuen Zustandsbericht vorlegt, der atmosphärische CO2-Pegel die „historische“ Marke von 400 ppm erreicht – ein Schelm, der Böses dabei denkt. Bei diesen CO2-Werten handelt es sich bekanntlich nicht um Messwerte, sondern um kompliziert ermittelte mathematische Werte, denen eine Vielzahl von Messwerten zu Grunde liegen.

Wie bereits im Teil 1 gezeigt, steigen die CO2-Konzentrationen, aber die Temperaturen fallen. Dass ist das genaue Gegenteil, der von den „Treibhäuslern“ behaupteten Korrelation. Da CO2 keine erkennbare Klimarelevanz (Klimasensitivität) hat, soll nicht unerwähnt bleiben, welchen positiven Einfluss CO2 auf die Biosphäre und somit auf das irdische Leben ausübt (siehe Abbildung 4).

Pflanzen wachsen mit mehr Kohlendioxid viel besser

– Wir haben zu wenig CO2 in der Atmosphäre und nicht zu  
   viel –

Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. 

Abbildung 5 (Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf):

In der Abbildung links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er noch vor kurzem auf dem Mauna Loa gemessen wurde. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was etwa dem Verbrennen sämtlicher, heute bekannter und förderbarer fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Solches Basiswissen kann in jedem Biologiebuch nachgeschlagen werden. Es deckt sich daher mit Untersuchungen der NASA, dass die CO2-Zunahme seit den 1980-Jahren zu einem deutlichen Ergrünen unserer Erde geführt und sich damit bereichernd auf das Artenreichtum ausgewirkt hat.

Kohlendioxid ist neben Sauerstoff, Wasser und Wärme einer der Hauptfaktoren für das Leben auf der Erde. Ohne CO2 wäre die Erde lebensfeindlich und kahl wie der Mond, da jede Fotosynthese unmöglich wäre. Die Erde bräuchte mehr und nicht weniger Kohlendioxid. (siehe Abbildung 5)

 

Abbildung 6: Mit der CO2-Zunahme wird das Ausbreiten der Wüsten verhindert.

Dass auch ein wärmeres Klima besser als ein kälteres ist, braucht angesichts der Eiszeiten, denen unser Kontinent mehrmals unterworfen war, nicht eigens betont zu werden. Was also bleibt von solchen Aufrufen “Kampf dem Klimawandel“? Nichts, als die Tatsache, uns ein schlechtes Gewissen einzureden, damit die Politik uns dann treffend abzocken kann.

Eigentlich wäre es die Aufgabe der Medien, die Bevölkerung vor öffentlichen Scharlatanen zu schützen. Doch dieser Aufgabe werden deutsche Journalisten nicht gerecht. Schlimmer noch, plappern gedankenlos nach und werden damit zu Handlangern. Von investigativem Journalismus keine Spur. Dass deren Kenntnisse in Naturwissenschaften meist bereits an der Oberfläche enden und als sehr überschaubar anzusehen sind, kann angesichts der bereits stattfindenden Abzocke (siehe Strompreise) keine Entschuldigung darstellen. Lenin nannte Journalisten “Nützliche Idioten“. Insbesondere bei ZDF und Die Zeit (EIKE berichtete mehrmals darüber) scheint man diese Aussage immer wieder aufs Neue belegen zu wollen. So, dass auch in diesem Jahr mit weiteren Einlagen zu rechnen ist und dem obigen Lenin-Zitat zu weiterer Gültigkeit verholfen wird. Insbesondere, da der neue Sachstandsbericht des IPCC (AR5) in diesem Jahr veröffentlicht wird und somit reichlich Spielraum für Wahrsager und "Wunderheiler" erwarten lässt.

Ausblick

Auch wir möchten Betrachtungen zum weiteren Klimaverlauf anstellen. Nein, keine Sorge, wir werden nicht in die Rolle des "Regenmachers" treten, wie sie unlängst bei der „Klimatagung“ in Potsdam zu sehen war oder wie sie jüngst der DWD mit seiner Klimaprognose bis zum Jahr 2100 abgab oder das PIK mit seiner Eisentwicklung gar bis zum Jahr 2500 (EIKE berichtete jeweils darüber). Auch nicht, wie der Sommer 2013 wird, was bei Wetterprognosen, die von den Anfangsbedingungen abhängen, gar nicht möglich ist. Nun hängen Klimaprognosen oder Klimaprojizierungen von den Randbedingungen ab. Da aber auch hier die Randbedingungen, wie die Flüsse von latenter oder sensibler Wärme, nur unzureichend bekannt sind und deren Fehlertoleranzen um den Faktor 10 größer als das Ergebnis sind, ist jedes Ergebnis und damit jede Klimaprognose, wie z.B. die vom DWD, sinnlos. Da hilft auch kein Supercomputer weiter, da dieser nur Algorithmen, die ihm vorher eingegeben wurden, abarbeitet und wenn die Algorithmen sinnlos (z.B. wegen der großen Fehlerbalken) sind, als Endergebnis nur ein sinnloses Endergebnis herauskommen kann.

Wir können zwar wegen der großen Unsicherheiten für den weiteren Verlauf der Temperaturen 2013 keine sichere Prognose wagen, unseren Lesern aber aufzeigen, was für die Wärme verantwortlich ist: Die Sonne und die im Meer gespeicherte Sonnenenergie (kennt jeder von Heizungsanlagen, dass Wasser ein guter Wärmespeicher ist).

Abbildung 7 (Quelle: NASA), zeigt die solare Entwicklung anhand der Sonnenflecken bis zum Juni 2013 (24. Zyklus) und den vorherigen 23. Sonnenzyklus. Solare Zyklen haben meist eine Doppelspitze in ihrer Aktivität (warum dem so ist, hat Leistenschneider in seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ beschrieben). So wird aus den Reihen diverser Sonnenforscher (z.B.: Hathaway, NASA) für Mitte des Jahres das Maximum im 24. Zyklus prognostiziert. Wogegen die solare Aktivität im Dezember 2012 vergleichsweise gering war (vgl. mit kalten Temperaturen in Osteuropa). Derzeit sieht es so aus, dass auch der 24. solare Zyklus ein zweites Maximum ausprägt und wir für die Sommermonate 2013 aufgrund der höheren solaren Aktivität mit wärmeren Temperaturen rechnen können. Ob dies eintritt, wird die solare Aktivität, dem einzigen Energielieferanten der Erde, für die nächsten Monate zeigen – ob der Aufwärtstrend anhält und sich ein prägnantes zweites Maximum entwickelt.

Für Europa ist indes noch ein zweiter Parameter wichtig. Die im Wasser, hier im Atlantik, gespeicherte Sonnenenergie. Die AMO (Atlantic Multidecadal Oscillation) ist ein Maß dafür (siehe Abbildung 8).

 

Abbildung 8 (Quelle: http://www.climate4you.com) zeigt die AMO, die eine periodische Schwingung in den Nordatlantiktemperaturen wiedergibt. Diese lässt sich anhand von Messungen bis in die Mitte des 19. Jahrhunderts zurückverfolgen. Sie hatte in diesem Beobachtungszeitraum eine mittlere Zykluszeit von etwa 70Jahren und damit die doppelte Zykluszeit, wie der für die Erdtemperaturen wichtige Brückner-Landscheidt-Zyklus der Sonne. Weiter ist die AMO gegenwärtig in ihrem Maximum, das verursacht eine vermehrte Energieabgabe an die Atmosphäre, was aber nur bei beschleunigter Westwinddrift mildere Temperaturen für Mitteleuropa bedeutet, denn die Temperaturverhältnisse in Mitteleuropa können besonders im Winter bei ungünstigen Wetterlagen (übernormal häufige Nord- und Ostlagen beispielsweise im Winter 2012/13) nicht von dem wärmeren Atlantikwasser profitieren (schwache, bzw. negative NAO, Nordatlantik Oszillation – sie gibt die Druckverhältnisse zwischen Island und den Azoren wieder und ist somit ein Maß für Windbewegungen). Setzt man die Wassertemperaturen des Nordatlantiks in Relation zu den Temperaturmitteln der einzelnen Jahreszeiten in Deutschland (lineare Korrelation), so zeigt sich im Frühling, Sommer und Herbst ein allerdings nicht besonders straffer positiver Zusammenhang, der im Herbst mit bescheidenen 12% Bestimmtheitsmaß noch am deutlichsten ausfällt; während im Winter keinerlei Zusammenhang nachzuweisen ist.

Die positive, starke AMO- Phase war auch der Hauptverursacher für die in 08 und 09/2012 vergleichsweise große arktische Sommereisschmelze.

Aufgrund des prognostizierten solaren Maximums und des gegenwärtigen Maximums der AMO ist auch für 2013 eine Jahresmitteltemperatur etwas über dem Langfristmittel durchaus noch möglich. Voraussetzung wäre jedoch eine deutlich zu warme zweite Jahreshälfte, die aber nicht sicher prognostiziert werden kann (siehe oben). Nur so könnte das zwischen Februar und Mai entstandene Temperaturdefizit noch überkompensiert werden. Leider macht die (statistische) Bauernregel „Wie’s im April und Maien war, so wird das Wetter im Rest vom Jahr“ nicht viel Hoffnung auf dauerhafte Besserung- allerdings treffen derartige Regeln nicht immer zu. Pessimistisch stimmt leider ein Blick auf den Zusammenhang der Temperaturen des Zeitraumes Februar bis März zum folgenden August (Abbildung 9):

 

Abbildung 9: Wenn es in Erfurt im Zeitraum Februar und März zu kalt war, so folgte in den meisten Fällen auch ein kühler August. Weil die Zahl der Vergleichsfälle jedoch gering und der Zusammenhang mit knapp 25% nur mäßig ist, darf man allein aus dieser Tatsache aber noch nicht auf einen kühlen August 2013 schließen- Ausnahmen sind bei unserer wechselhaften Witterung immer möglich! Mit hoher Wahrscheinlichkeit lässt sich aber sagen, dass es in naher Zukunft und damit auch im Rest des Jahres 2013 zu extremen Temperaturschwankungen kommen wird, so dass neben längeren kälteren Witterungsphasen auch einzelne Hitzewellen möglich sind (Vergleichsfall 2010), weil das typisch für eine beginnende Abkühlungsphase ist (KÄMPFE/LEISTENSCHNEIDER/KOWATSCH, 2013).

Weiterhin muss bedacht werden, dass das Langfristmittel 1961 – 1990, auf das sich bei heutigen Vergleichen immer bezogen wird, in einer Kälteepoche liegt. Schon deshalb wäre es nicht ungewöhnlich, wenn das Jahr 2013 dessen Wert erreichte oder etwas überträfe. Wird sich hingegen auf die letzten 25 Jahre bezogen, so liegen die heutigen Jahresmittelwerte nicht über, sondern bereits leicht unter dem Durchschnitt. Das zeigt uns Abbildung 10:

Abbildung 10: Ausgerechnet, seitdem das IPCC und andere selbst ernannten Klimaschützer mit ihren Panikmeldungen über eine angeblich sich ständig fortsetzende Erwärmung begonnen haben, stagnieren die Temperaturen und sind gegen Ende der Betrachtungsphase auch noch fallend. Umso mehr, wenn die Kurve auch noch um den Wärmeinselfeffekt (WI) für die letzten 25 Jahre bereinigt wird.

Die Abkühlung der letzten Jahre ist indes nicht gleichmäßig auf alle Monate verteilt. Interessant ist, dass vor allem der Wonnemonat Mai in Deutschland besonders kälter wurde. Auch der diesjährige Mai hat den anhaltenden Abwärtstrend der letzten Jahre fortgesetzt. Auf dem Lande, wo der Wärmeinseleffekt der Städte weniger wirkt, war es um einiges kälter, als die Gesamtkurve für Deutschland angibt. So mussten viele Maifeste 2013 wegen der kalten und vor allem extrem nassen Witterung abgesagt werden. „Komm lieber Mai und mache die Bäume wieder grün“, sagt ein 250 Jahre altes Lied aus der Kleinen Eiszeit. Im Mai 2013 war bei den Eichen und den Eschen, je nach Region und Höhenlage, erst zwischen dem 15. und 31. des Monats der Laubaustrieb beendet.

 Abbildung 11: Vor allem der Wonnemonat Mai zeigt die momentane Abkühlungsphase besonders deutlich. Mit 11,7°C liegt der Mai 2013 deutlich unter dem Schnitt der letzten 16 Jahre. Dieser beträgt 13,3°C. Sobald die Blattknospen aufgesprungen sind und die Fotosynthese angelaufen ist, beschleunigt die zunehmende CO2-Konzentration der letzten Jahrzehnte grundsätzlich das weitere Blatt- und Pflanzenwachstum (siehe Abb.4, CO2 ist ein Pflanzendünger, was seit langen auch angewendet wird). Dem wirkt die gerade erst wieder erlebte Maikälte entgegen. Mit einem CO2-Wert von 300 ppm, wie er für die Zeit von vor 250 Jahren anhand von Eisbohrkernuntersuchungen vorgeherrscht haben soll*, wäre der Blattaustrieb der Bäume wohlweiter zurück.

*Es gibt wissenschaftliche Untersuchungen, die diesen niedrigen atmosphärischen CO2-Wert anhand von Stomata-Untersuchungen von Blättern widerlegen. Diese wurden bereits vor mehr als 10 Jahren veröffentlicht (Dr. Friederike Wagner, "Rapid atmospheric CO2 changes associated with the 8,200-years-B.P. cooling event", PNAS, Proceedings of the National Academy of Science of the USA). Aus einer weiteren Untersuchung ist die folgende Abbildung.

 

Abbildung12, Quelle: Kouvenberg et al, „Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis  of  Tsuga heterophylla needles” (Geology, Januar 2005) zeigt den atmosphärischen CO2-Gehalt für die letzten 1.200 Jahre (grün) zu Law Dome-Eisbohrkern (Rechtecke).

Die Stomata-Daten zeigen, dass der atmosphärische CO2-Gehalt weitaus variabler ist, als die Eisbohrkerndaten dies ergeben. Der Grund dafür zeigen die Untersuchungen von Prof. Alexander Wilson und Prof. Austin Long. Der CO2-Gehalt ergibt keinen Hockey-Stick, mit einem gleichbleibenden, vorindustriellen CO2-Pegel von 280 ppm, der zum ausgehenden 20.Jahrhunert steil ansteigt, sondern eine Fluktuationskurve, in der der CO2-Gehalt in den vorherigen Jahrhunderten, insbesondere vor 1.200 Jahren (um das Jahr 800), ähnlich hoch war wie heute.

Bei der sog. Eisbläschen-Methode zur CO2-Ermittelung wird üblicherweise Eis gemahlen oder geschabt, wobei die in Blasen gefangene Luft entweicht und für Analysezwecke gesammelt wird. Bereits 1997 berichteten Prof. Alexander Wilson und Prof. Austin Long von der University of Arizona (Geophys. Res., 1997, 102(C12), 26601), dass sich andere und höhere CO2-Konzentrationen ergeben, wenn man das Kohlendioxid durch Verdunstung aus dem Eis abtrennt. Am deutlichsten waren die Unterschiede bei Eis aus größeren Tiefen, also aus älterem Eis des Bohrkerns, der aus vergleichsweise warmen Perioden stammte. Die Erklärung hierfür ist, dass CO2 aus den Luftbläschen in das feste Eis übergetreten ist, von wo es nur durch Verdunstung wieder gewonnen werden könne. "Kohlendioxid ist in Eis löslich", sagte Wilson. "Je tiefer man in den Eiskern eindringt, nehmen Zeit und Druck zu, und dies führt zu einem deutlichen Übertritt von Kohlendioxid ins Eis."

So ist natürlich auch die aktuelle Hochwasser- Situation in weiten Teilen Mittel- und Süddeutschlands kein Beleg für eine „Klimaerwärmung“- im Gegenteil. In der Vergangenheit traten Unwetter, verbunden mit Hochwasser oder die Sturmfluten an den Küsten, bevorzugt am Beginn der Abkühlungsphasen auf (schwerstes Hochwasser des 2. Jahrtausends in Deutschland 1342, als bis zu 14 Meter tiefe Schluchten innerhalb weniger Tage gerissen wurden, siehe GLASER 2008; Marcellus- Sturmflut 1362, Thüringer Sintflut Ende Mai 1613, Ostsee-Sturmflut November 1872). Leider hat es also fast auf den Tag genau 400 Jahre nach der „Thüringer Sintflut“ dort wieder ein schweres Hochwasser gegeben, dessen Auswirkungen glücklicherweise aber nicht ganz so dramatisch waren. Mögliche Ursachen für die verstärkten Unwetter in Abkühlungsphasen sind sich verschärfende Temperaturgegensätze zwischen hohen und niederen Breiten (die Abkühlungen setzen meist im Norden ein und fallen dort stärker aus) sowie die Trägheit des Klimasystems- die von der vergangenen Erwärmungsphase gespeicherte Energie wird nun freigesetzt.

Wetter und Klimasind also so normal wie schon immer. Erfreuen wir uns am Wetter, wie es ist. Und für das bislang witterungsmäßig äußerst bescheidene Jahr 2013 halten wir es mit den Aussagen berühmter Persönlichkeiten vergangener Zeiten wie Heinrich Heine und Kurt Tucholsky: "Der Deutsche Sommer ist ein grün angestrichener Winter“, und "Wegen ungünstiger Witterung fand die Deutsche Revolution (bloß) in der Musik statt.“ Wie man sieht, hat sich beim Wetter nichts Gravierendes verändert. Wir können es nicht beeinflussen, genauso wenig, wie wir seine Integrationsgröße, das Klima, beeinflussen können und das sog. 2°-Ziel der Politik als Unsinn entlarvt oder besser ausgedrückt, als Abzocke Instrument.

Unser derzeitiges Wetter/Klima ist nichts Außergewöhnliches, sondern „normal“ und hüten wir uns vor Propheten, die uns anhand von Modellen erzählen wollen, wie denn das Klima im Jahr 2100 sein wird. Erstens ist solches mit Modellen gar nicht möglich und zweitens, wollen die meist nur unser Bestes, unser Geld nämlich. Die einen, um die Staatskassen zu sanieren und die anderen, um weiter Fördermittel zu erhalten. Insofern ist von staatlichen Institutionen, wie dem DWD, nicht viel Aufklärung zu erwarten. Von der Politik, die z.B. “grün“ als Daseinsberechtigung in ihrem Namen trägt, erst Recht nicht. Die Idee dahinter ist immer dieselbe: Wir sollen für die Beteiligung am lebensnotwendigen CO2-Kreislauf Abgaben bezahlen. Dafür versprechen uns dann „Wunderheiler“, das Weltklima zu schützen. Wunderheiler und Heilsprediger hat es in der Menschheitsgeschichte vielfach gegeben – fallen wir nicht darauf herein!

Der angebliche Klimaschutz ist ein Geschäftsmodell. Das hat eindrucksvoll Herr Hartmut Bachmann in mehreren Veröffentlichungen beschrieben. Schließlich war er mit dabei, als der selbsternannte Weltklimarat (IPCC) gegründet wurde:

http://www.klima-ueberraschung.de/

Bezeichnend für unser Land, dass sich die deutschen Medien wieder einmal "ihrer" deutschen Tradition widmen, die in Ostdeutschland bis 1989 zu bestaunen war. In Westdeutschland liegt diese "Tradition" etwas länger zurück. Wir bei EIKE werden das Unsrige tun, die von der deutschen Presse geschaffene Aufklärungslücke auszufüllen. Es wird endlich Zeit, dass solche Institutionen wie PIK = Potsdamer Institut für Klimafolgenforschung, keine öffentliche Unterstützung für ihre Zukunftsmärchen mehr erhalten und sich die dortigen "Wissenschaftler" im harten (wissenschaftlichen) Wettbewerb behaupten, anstatt sich vom Steuerzahler alimentieren zu lassen. Soll es sich im letzten Jahr um einen Betrag von über 20 Millionen Euro gehandelt haben.

Liebe Leser der EIKE-Homepage,

Wer direkt mit dem DWD Kontakt aufnehmen möchte, dem sei diese Adresse empfohlen

 

info@dwd.de

Wir schlagen folgendes Anschreiben vor:
Sehr geehrte Damen und Herren des DWD
DWD-Verlautbarungen der letzten Jahre (z.B. Presse-Mitteilungen) zum Klimawandel sind für uns nicht nachvollziehbar, wie z.B. diese hier:

„Der langfristige Trend zu steigenden Temperaturen ist in Deutschland und weltweit ungebrochen."

(Quelle DWD: http://www.dwd.de/bvbw/generator/DWDWWW/Content/Presse/Pressekonferenzen/2012/PK__03__05__12/ZundF__PK__20120503,templateId=raw,property=publicationFile.pdf/ZundF_PK_20120503.pdf )

Auf der einen Seite sprechen Sie von ungebremster Erwärmung (Zitat w.o.), auf der anderen Seite veröffentlichen Sie die realen Daten aus Deutschland, die offensichtlich das Gegenteil zeigen (www.dwd.deè "Klimawandel")

Als Bundesbehörde sind Sie gesetzlich zur Aufklärung und auch zu Auskunft verpflichtet. Wir bitten Sie daher um eine Antwort, welche diese Widersprüche aufklärt.
Mit freundlichen Grüßen

  

Raimund Leistenschneider – EIKE

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

…………………………………………

Literatur:

Viele Wärmeinseleffekte führen zur Klimaerwärmung.

http://www.wahrheiten.org/blog/2012/06/11/viele-waermeinseleffekte-fuehren-zur-klimaerwaermung/#more-27081

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-als-massgeblicher-treiber-der-gemessenen-temperaturen/

http://www.eike-klima-energie.eu/news-cache/starker-temperaturanstieg-seit-1979-in-erfurt-warum-co2-dabei-nur-eine-unbedeutende-nebenrolle-spielt-teil-1/

Zukünftige Temperaturentwicklung in Deutschland – Wärmer oder Kälter? (Teile 1 und 2)

GLASER, R. (2008): Klimageschichte Mitteleuropas. 1200 Jahre Wetter, Klima, Katastrophen. 264 Seiten. Primus Verlag, 2. Auflage.

http://wattsupwiththat.com/2013/02/06/the-r-w-wood-experiment/#more-78966 (Anmerkungen von W. ESCHENBACH zum WOOD- Experiment).

Kouvenberg et al, „Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsugaheterophylla needles” (Geology, Januar 2005)

Dr. Friederike Wagner, "Rapid atmospheric CO2 changes associated with the 8,200-years-B.P. cooling event", PNAS, Proceedings of the National Academy of Science of the USA

http://www.eike-klima-energie.eu/climategate-anzeige/the-skeptics-case/Evans, D. M. W. (2012): The Skeptics Case

KE Research, "Rettung von den Klimarettern – Gibt es die "Gefahr für das Weltklima"?", Klaus Ermecke




Wer nicht hören will..:Desertec gibt den Traum vom Export von Solarstrom auf

Bild rechts: Ein Sonnenkraftwerk in Marokko (Photo: Dii)

In einem Telefoninterview mit EurActiv hat der geschäftsführende Direktor von Dii, Paul van Son, zugegeben, dass der ursprüngliche auf dem Export liegende Brennpunkt „eindimensionales Denken“ war.

Obwohl die Industrie-Allianz gebildet worden war, damit im Maghreb erzeugte erneuerbare Energie bis zu 20% des europäischen Strombedarfs bis zum Jahr 2050 decken kann, räumt Dii jetzt ein, dass Europa das meiste seines Verbrauchs aus heimischen Quellen decken müsse.

„Wenn wir über erneuerbare Energie aus Nordafrika reden, wird nur ein kleiner Teil davon den europäischen Markt bedienen”, sagte van Son und fügte hinzu, dass der europäische Markt 90% seines Bedarfs selbst decken könne. „Direkt gesagt, vor vier Jahren ging es bei Desertec nur darum, Energie aus Nordafrika [nach Europa] zu liefern. Wir haben diese eindimensionale Denkweise aufgegeben. Jetzt geht es mehr darum, integrierte Märkte zu bilden, in die erneuerbare Energie ihre Vorteile einbringen kann … Das ist jetzt das Wesentliche“.

Desertec ist ‚zu teuer und utopisch’

Kritiker von Desertec stellten die Durchführbarkeit eines Projektes in Frage, das bis zum Jahr 2050 für Kosten in Höhe von 400 Milliarden Euro 100 GW Strom erzeugen würde; und die Zweifel multiplizierten sich, als Siemens im November vorigen Jahres seinen Rückzug erklärt hatte. Im gleichen Monat hat es Dii nicht vermocht, Unterstützung durch die finanziell schwer gebeutelte spanische Regierung zu erhalten für ein 500 MW CSP [= Communication Service Provider, Netzwerk-Dienstleister] Demonstrationsobjekt in Ouarzazate, Marokko, obwohl das Projekt immer noch läuft.

„Desertec ist in seiner ursprünglichen Form nicht überlebensfähig, weil es zu teuer und utopisch ist. Es hat nur sehr wenig Fördermittel erhalten können. Im Wesentlichen ist es zu einem mehr oder weniger bilateralen Handel geschrumpft“, argumentiert Peter Doege, Präsident von Eurosolar, einer Industriegesellschaft.

Die europäischen Strom-Akteure stellen das ursprüngliche Geschäftsmodell von Dii in Frage und machen geltend, dass der Schwerpunkt auf dem Export inkompatibel mit dem gegenwärtigen Niveau der Netzverbindungen zwischen Maghreb und Europa sowie in Europa selbst ist. Sie fügen hinzu, dass der Markt schon jetzt damit kämpft, zusätzliche Kapazitäten aus erneuerbarer Energie zu absorbieren.

„Auf sehr grundlegende Weise vermissen wir immer noch klare Linien und Kapazitäten für den Export”, meint Susanne Nies, Vorsitzende von Energy Policy and Generation bei Eurelectric, der europäischen Stromindustrie-Gesellschaft.

„Spanien kämpft schon jetzt mit seinen eigenen Überschüssen der Erzeugung mit Erneuerbaren – zusätzliche Importe aus Drittländern würden das Problem mit Sicherheit sehr verschärfen“, fügt sie hinzu.

„Es ist schwierig zu argumentieren, dass die EU zusätzliche RES-Kapazitäten braucht“, sagte sie unter Hinweis auf die technischen, ökonomischen und regulatorischen Rahmenbedingungen, an die das elektrische System angepasst werden muss, um die Energie aufnehmen zu können.

Van Son, der sich wünscht, dass sich Desertec auf Markt-Synergien konzentriert, stimmt zu, dass es noch ein langer Weg vor der Integration in den europäischen Strommarkt ist, sagt aber, dass es ein Fall für die Industrie ist, ihn zurückzulegen.

„Wenn wir die gewaltigen Synergien sehen hinsichtlich realer Geldersparnis, sollte man es Politikern nicht erlauben, keine Vorteile aus diesen Energie-Synergien zu ziehen. Die Schädigung der Einwohner in Europa und dem Nahen Osten ist nicht das, was Politiker tun sollten“, sagte er.*

[*Ob die doppelte Verneinung in diesem Absatz Absicht oder ein Versehen ist, konnte ich nicht entscheiden. A. d. Übers.]

Ungünstige Marktbedingungen

Nordafrikanische Länder, die geographischen Startpunkte der Aktivitäten von Dii, konzentrieren sich darauf, ihren eigenen heimischen Strombedarf zu befriedigen, der rapide wächst. Und sie waren sowieso zögerlich, sich etwas zu öffnen, was sie als ungünstige europäische Marktbedingungen ansahen.

„Wir wissen nicht, ob die Strompreise in Europa uns unsere Investitionen zurückgeben werden”, sagte Mustapha Mekideche, Vizepräsident des staatseigenen algerischen Unternehmens Conseil National Economique et Social (CNES) auf einer Energiekonferenz in Algier im November 2012.

Die staatliche Versorgungsgesellschaft Sonelgaz hat im Dezember 2011 ein Kooperations-Abkommen mit Dii in Brüssel unterzeichnet, trotz der Zweifel algerischer Entscheidungsträger bzgl. Energie über die Zukunft von Dii.

„Die Länder Nordeuropas müssen ihre Bereitschaft zeigen, mit Erneuerbaren erzeugte Energie zu kaufen”, sagte Sonelgaz-Generaldirektor Noureddine Bouterfa in einem algerischen Presse-Interview vor Unterzeichnung des Abkommens.

Trotz des ambitionierten Ziels Algeriens, 40% seines Stromes bis zum Jahr 2030 aus erneuerbaren Energiequellen zu erzeugen, um mehr Gas für den Export freigeben zu können, war der Fortschritt hierauf gerichteter Projekte gering, und eine zugesagte Zusammenarbeit zwischen Dii und Algerien beim Bau eines CSP-Kraftwerkes ist nicht zustande gekommen.

RWE ist immer noch interessiert

Dii hat immer noch Unterstützer, einschließlich des deutschen Unternehmens RWE, das darauf drängt, in den Sektor erneuerbare Energien zu expandieren. In Marokko befindet sich RWE in Verhandlungen in der Desertec am meisten unterstützenden Provinz Maghreb mit Partnern, um eine Koalition zu bilden, dem ersten Schritt in Plänen, 50 MW Solar- und 50 MW Windkraftwerke in UK zu errichten.

„Wir sind überzeugt, dass das Desertec-Projekt eine sehr gute Gelegenheit ist, die Energieversorgung Nordafrikas aus Erneuerbaren zu installieren. Obwohl Manche das Projekt kritisieren, glauben wir, dass es langfristig erfolgreich sein wird“, sagte RWE-Sprecher Martin Pack.

RWE hat bestätigt, dass die von marokkanischen Projekten erzeugte Energie für den lokalen Markt und nicht für den Export bestimmt ist.

Positionen:

Susanne Nies, Vorsitzende der Abteilung Energiepolitik und –erzeugung bei der Industriegesellschaft Eurelectric, sagte:

„Hinsichtlich des Energieverbrauchs ist die Welt derzeit zweigeteilt. Einerseits gibt es in sich entwickelnden Ländern – Türkei, Brasilien, China, Indien usw. – starke Wachstumsraten von eindrucksvollen 8 bis 10% pro Jahr. Nordafrika und Afrika als Ganzes sind tatsächlich Teilhaber dieses Trends. Andererseits sieht sich die OECD-Welt einschließlich Europas bis zum Jahr 2020 einem negativen Energieverbrauchs-Trend gegenüber. Dies liegt an der fortgesetzten Rezession, demographischen Veränderungen und verbesserter Energieeffizienz – trotz der Tatsache, dass die Elektrifizierung noch zunehmen wird.

Das ursprüngliche Geschäftsmodell von Desertec basierte auf dem Export. Dies hätte die Erzeugungskosten wieder herein gebracht. Allerdings muss dieser ursprüngliche ‚Export‘-Gedanke neu überdacht werden, und zwar aus zwei wesentlichen Gründen:

Erstens vermissen wir immer noch sehr grundlegend Leitungen und Kapazitäten für den Export. Diese zu errichten ist technisch schwierig wegen der tiefen Gewässer im Mittelmeer. Mehr noch, die Verbindung zwischen Nordafrika und Europa ist nicht das Problem. Vielmehr lautet die Frage, was mit der zusätzlichen Kapazität passiert, wenn sie erst einmal die Iberische Halbinsel erreicht. Spanien kämpft bereits jetzt mit seinen eigenen Überschüssen von Erneuerbaren – zusätzliche Importe aus Drittländern würden dieses Problem mit Sicherheit verschärfen. Spanische Leitungen müssten verstärkt werden, um überschüssigen Strom nach Frankreich zu schicken. Aber die Verbindung über die spanisch-französische Grenze hinweg ist ebenfalls überlastet. Es stimmt zwar, dass es hinsichtlich der Stärkung des mediterranen Rings von Leitungen Fortschritte gegeben hat, aber das muss dringend noch weiter verfolgt werden im allgemeinen Interesse aller betroffenen Länder.

Zweitens ist es schwierig zu argumentieren, dass die EU die zusätzlichen RES-Kapazitäten braucht. [RES= Renewable Energy Sources] Europa befindet sich gegenwärtig in einer Lage, in der die RES-Kapazität im Wettbewerb steht, existierende konventionelle Kraftwerke zu ersetzen. Diese Verschiebung erfordert die Lösung zahlreicher Systemprobleme, einschließlich der Neu-Synchronisation des Systems nach der Entwicklung von RES, insbesondere hinsichtlich des veränderlichen Windes und der Sonnenscheindauer. Obwohl diese Variabilität nicht selbst das Problem ist, zwingt es das System dazu, seine Funktionsweise zu ändern, was auch bedeutet, dass man für die Anpassung technischer, ökonomischer und regulatorischer Rahmenbedingungen Zeit braucht. Wird während dieser Zeit sogar noch mehr RES aus Desertec in das System geleitet, würde dieser Prozess nicht unterstützt werden.

Und es gibt noch einen Grund, warum man hinsichtlich der ursprünglichen Export-Dimension vielleicht noch etwas skeptischer sein sollte, und zwar die Unsicherheit über den eigenen Energieverbrauch in Afrika. Es wäre ein großer Fehler von Seiten Afrikas, die eigene heimische Stromerzeugung und Versorgungssicherheit aufs Spiel zu setzen, um die Nachfrage in Europa befriedigen zu können. Die Nachfrage in Afrika übersteigt schon jetzt das Angebot. Gleichzeitig muss die Kohlenstoff-Falle vermieden werden. Ein überzeugendes Geschäftsmodell wird hierfür gebraucht. Die Bewegung weg von sehr teurem CSP hin zu Windkraftanglagen, die näher am Markt sind, aber auch zu großen Photovoltaik-Anlagen ist sicherlich das Richtige“.

Link: http://www.euractiv.com/energy/desertec-abandons-sahara-solar-p-news-528151

Übersetzt von Chris Frey EIKE




Marc Morano – Climate Depot- bei der Anhörung des US-Kongresses zur Klimaänderung: ‚Die Ursprünge der und Antwort auf die Klimaänderung‘

Eingereichte schriftliche Aussage von Marc Morano, Publizist von Climate Depot und ehemaliges Mitglied des Environment & Public Works Committee im US-Senat 

Präsentiert auf dem Gipfeltreffen zur Klimaänderung in Fairview, West VA am 30. Mai 2013 – Congressman David B. McKinley, P.E. (WV-01) 

Congressional Field Hearing: ‘The Origins and Response to Climate Change’ 

Skeptiker der globalen Erwärmung gerechtfertigt – die Behauptungen einer vom Menschen verursachten globalen Erwärmung kollabieren

Eingereichte Aussage von Marc Morano – Publizist von Climate Depot

Ich möchte mich bei Kongressmitglied McKinley dafür bedanken, diese Anhörung zur globalen Erwärmung moderiert zu haben. Nur zu selten erlebt man eine Klimadebatte in der Welt, geschweige denn eine ausgewogene Anhörung wie diese. Ich bin kein Wissenschaftler, obwohl ich im Fernsehen manchmal so tue, als sei ich einer :). Mein Hintergrund liegt in der politischen Wissenschaft, was zufälligerweise ein idealer Hintergrund ist, um die Behauptungen hinsichtlich der vom Menschen verursachten globalen Erwärmung zu untersuchen. Ich war leidenschaftlicher Verfechter von Umweltthemen, seit Beginn meiner Laufbahn  im Jahre 1991. Ich habe im Jahr 2000 eine „Dokumentation zu den Mythen verfasst, die den Amazonas-Regenwald umgeben“ (hier), und ich war ein voll anerkannter investigativer Journalist, der extensiv über Umwelt- und Energiethemen berichtet hat wie z. B. Entwaldung, gefährdete Spezies, Verschmutzung und Klimaänderung.

In meiner Eigenschaft als Kommunikations-Direktor am Environment and Public Works Committee des US-Senats unter James Inhofe war ich Redenschreiber und habe den ausgezeichneten [award-winning] Blog des US-Senats moderiert. Ich habe zum ersten Mal überhaupt im Jahr 2006 einen Skeptic’s Guide To Debunking Global Warming Alarmism der US-Regierung veröffentlicht. Ich war auch Autor des 255 Seiten starken Bericht des Senats über mehr als 700 Wissenschaftler mit abweichenden Meinungen zur globalen Erwärmung. Er wurde zuerst im Jahr 2007 veröffentlicht und jeweils in den Jahren 2008, 2009 und 2010 aktualisiert. Jetzt bin ich der Publizist der preislich ausgezeichneten Website Climate Depot und arbeite täglich mit Wissenschaftlern, die die jüngsten begutachteten Studien und Daten zur Klimaänderung untersuchen.

Die wissenschaftliche Realität lautet, dass sich hinsichtlich fast jeder Behauptung – von A bis Z – der Befürworter der vom Menschen verursachten Klimaängste diese als falsch herausstellen, und in vielen Beispielen bewegen sich die Behauptungen in die entgegen gesetzte Richtung. Die Bewegung der globalen Erwärmung erleidet den wissenschaftlichen Tod durch Tausend Schnitte!

Die globalen Temperaturen sind seit mehr als einem Jahrzehnt gleich geblieben, und in der begutachteten Literatur wird die Größenordnung der zukünftigen Erwärmung herab gestuft. In den USA gab es die längste Periode seit dem Bürgerkrieg, ohne dass ein Hurrikan der Stärke 3 oder stärker auf das US-Festland übergegriffen hätte. Starke F3- oder noch stärkere Tornados nehmen seit den fünfziger Jahren ab. Die globale Ausdehnung von Meereis (beide Pole) liegt gegenwärtig höher als normal. Das Meereis um die Antarktis erreichte 2013 einen neuen absoluten Rekord. Trotz Behauptungen, dass Schnee eine Sache der Vergangenheit sei, ist Schneefall während der kalten Jahreszeit in den letzten Jahren auf ein Rekordniveau gestiegen. Der Anstieg des Meeresspiegels zeigt keine Beschleunigung und verlief seit über einem Jahrhundert völlig gleichmäßig. Dürren und Überschwemmungen sind weder historisch ungewöhnlich noch vom Menschen verursacht, und es gibt keine Beweise dafür, dass wir gegenwärtig irgendwelches ungewöhnliche Wetter haben (hier). Die Zahl der Eisbären, einst das Aushängeschild der Klima-Angstbewegung, liegt bei oder nahe bei einem historischen Hoch. Cholera und Malaria folgen ebenfalls nicht den Vorhersagen der globalen Erwärmung.

Die Mainstream-Medien können das offizielle Narrativ der vom Menschen verursachten globalen Erwärmung nicht länger aufrecht erhalten. Mit dem Fehlen von Erwärmung und dem Scheitern, die Klimadebatte hin zu „extremem Wetter“ zu verschieben (hier) verlieren die Warmisten inzwischen einst überzeugte Teile der Medien bei der Propagierung der menschengemachten Klimaängste. Die Erde folgt einfach nicht den Vorhersagen der globalen Erwärmung, und die neue Studie, in der behauptet wird, dass die gegenwärtigen Temperaturen die „heißesten jemals“ seien, ist in Gefahr der vollen wissenschaftlichen Zurückweisung (hier). Der große Rückzug der Warmisten hat offiziell begonnen.

Der Gedanke, dass das CO2 der Schwanz ist, der mit dem Hund wedelt, ist wissenschaftlich nicht länger haltbar. In der begutachteten Literatur finden wir, dass Hunderte Faktoren die globale Temperatur beeinflussen, alles von Ozean-Zyklen und der Neigung der Erdachse bis hin zu Wasserdampf, Methan, Wolken-Rückkopplungen, Vulkanasche – alle diese Faktoren beeinflussen das Klima genauso wie CO2. Neue Studien widersprechen dem uns von unseren SUVs* eingetrichterten einfachen Zusammenhang, dass wir einen sich gefährlich erwärmenden Planeten schaffen. In den Proceedings of the National Academy of Science gab es eine Studie, in der der chinesische Verbrauch von Kohle für das Fehlen der globalen Erwärmung verantwortlich gemacht wird. In einer ironischen Volte behaupten die Befürworter der globalen Erwärmung jetzt, dass uns der Kohleverbrauch vor einer gefährlichen globalen Erwärmung schützt.

[*Ich bin nicht darauf gekommen, was SUV hier heißen soll. Die in Suchmaschinen angebotene Lösung kann es jedenfalls nicht sein. Kann mir evtl. ein Kommentator helfen? A. d. Übers.]

Ein CO2-Gehalt von 400 ppm ist nicht alarmierend

Wissenschaftler weisen darauf hin, dass es buchstäblich Hunderte Faktoren gibt, die über das Klima und die Temperatur der Erde bestimmen – nicht nur CO2. Anerkannte Klimatologen haben erklärt, dass eine Verdoppelung oder sogar Verdreifachung keine wesentlichen Auswirkungen auf das Erdklima oder die globale Temperatur haben würden.

Wissenschaftler merken auch an, dass die Erde geologisch gesehen gegenwärtig „CO2-hungrig“ ist, und dass geologische Aufzeichnungen gezeigt haben, dass es bei CO2-Gehalten von 2000 ppm bis 8000 ppm zu Eiszeiten gekommen war. Unabhängig davon haben andere begutachtete Studien gezeigt, dass Temperaturen auf der Erde ähnlich den heutigen Werten waren mit einem bis zu 20 mal höheren CO2-Gehalt. Und in diesem Jahr kam eine begutachtete Studie zu dem Ergebnis, dass das gegenwärtige CO2-Niveau von 400 ppm übertroffen worden ist – ohne jeden menschlichen Einfluss – und zwar vor 12750 Jahren, als der CO2-Gehalt bis zu 425 ppm betragen haben könnte.

Der an der Princeton University lehrende Physiker Dr. William Happer und der NASA-Astronaut und Geologe Dr. Harrison H. Schmitt schrieben am 8. Mai 2013 im Wall Street Journal: „Dank der zielstrebigen Dämonisierung dieses natürlichen und unabdingbaren atmosphärischen Gases durch Befürworter der regierungsamtlichen Kontrolle der Energieerzeugung beläuft sich das konventionelle Wissen über Kohlendioxid darauf, dass es ein gefährlicher Verschmutzer ist. Das ist einfach nicht der Fall!“

Die UN, der Kongress, Kohlenstoff-Steuern und die EPA können nicht das Wetter kontrollieren!

Die Bewegung ‚war zum Scheitern verurteilt’

Eine Bewegung mit Al Gore als Gesicht an der Spitze – eine der am meisten polarisierenden politischen Gestalten – war zum Scheitern verurteilt. Eine Bewegung, die die von Skandalen geschüttelten Vereinten Nationen – denen das amerikanische Volk zutiefst misstraut – als Brutstätte der Wissenschaft gebraucht, konnte nicht von Dauer sein. Gore und das IPCC der UN sanken inzwischen darauf herab, jeden Sturm, jede Überschwemmung, jeden Hurrikan oder Tornado als Beweis für die vom Menschen verursachte globale Erwärmung anzuführen. Die UN wurden dazu degradiert, sich dafür zu prostituieren,  die Menschheit für die globale Erwärmung verantwortlich zu machen. Siehe auch hier und hier.

Aber eine wissenschaftliche Bewegung der Klarheit tritt immer mehr in den Vordergrund: Die UN und der US-Kongress haben nicht die Macht, das Wetter zu regulieren, zu besteuern oder es Gesetzen zu unterwerfen. Siehe hier. Prominente Wissenschaftler fahren fort, den vermeintlichen „Konsens“ in Frage zu stellen. Siehe hier.

Die Bewegung der globalen Erwärmung verliert immer mehr Wissenschaftler, viele davon früher auch Mitglied im IPCC. Siehe hier, vor allem aber auch hier: Schwedischer Top-Klimawissenschaftler sagt, dass die Erwärmung nicht wahrnehmbar ist: „Die Erwärmung der letzten 100 Jahre ist so gering, dass wir sie überhaupt nicht bemerkt hätten, wenn wir keine Klimatologen gehabt hätten, sie zu messen“. Der preislich ausgezeichnete Wissenschaftler Dr. Lennart Bengtsson, einst Mitglied im IPCC: „Wir erzeugen große Angst ohne jede Rechtfertigung“. (hier und hier)

Der ‚Gaia’-Wissenschaftler James Lovelock hat selbst die Kehrtwende vollzogen: „Ich war ein ‚Alarmist‘ hinichtlich der Klimaänderung, ebenso wie Al Gore! Das Problem besteht darin, dass wir nicht wissen, was das Klima macht. Vor 20 Jahren haben wir gedacht, es zu wissen“. (hier)

Der Meteorologe Klaus-Eckart Puls (Deutschland) hat ebenfalls die Kehrtwende vollzogen: Er bezeichnet den Gedanken, dass das CO2 das Klima regulieren kann, jetzt als ‚schiere Absurdität‘. – „Vor 10 Jahren habe ich einfach nachgeplappert, was das IPCC uns weisgemacht hat“. (hier)

Außerdem hat der neuseeländische Klimawissenschaftler Chris de Freitas am 1. Mai 2009 enthüllt, dass „Erwärmung und CO2 nur schlecht miteinander korrelieren“. Er fügte hinzu: „Die Auswirkung von CO2 auf die globale Temperatur liegt bereits nahe dem Maximum. Eine weitere Zunahme hätte immer geringere Auswirkungen“. Und weiter: „die gegenwärtige Warmphase … ist nicht beispiellos – Den Forschungsergebnissen bis heute zufolge scheint es so, als sei der Einfluss zunehmenden CO2-Gehaltes auf die globale Erwärmung fast unmerklich ist. Eine zukünftige Erwärmung könnte es geben, aber es gibt keine Beweise dafür, dass sie sehr stark ausfallen wird“. (hier)

Der australische Geologe Dr. Ian Plimer schrieb am 8. August 2009: „Gegenwärtig hungert die Erdatmosphäre nach CO2“. Plimer, Autor des Skeptiker-Buches Heaven and Earth, fügt hinzu: „Während aller Zeiträume gab es keine Korrelation zwischen Temperaturen und CO2. Wenn es keine Korrelation gibt, kann es auch keine Ursache – Wirkung geben!“

Professor Dr. Doug L. Hoffman, Mathematiker, Computer-Programmierer und Ingenieur, schrieb am 24. August 2009: „Es gab Eiszeiten, als der CO2-Gehalt der Erdatmosphäre viele Male höher lag als heute“. Hoffman, der an Umweltmodellen gearbeitet und im Bereich molekulare Dynamik geforscht hat, war Mitautor des Buches The Resilient Earth aus dem Jahr 2009.

Andere Studien haben gezeigt, dass das Kohlendioxid nicht die Temperaturen auf der Erde kontrolliert, sondern dass das genaue Gegenteil der Fall ist. Siehe die neue Studie über ‚Svensmarks kosmischen Jackpot hier. – Einige Geowissenschaftler möchten den drastischen Wechsel zwische3n heißen und eisigen bedingungen während der letzten 500 Millionen Jahre der Zu- oder Abnahme von Kohlendioxid zuordnen, was sie in komplizierten Wendungen erklären. Laut Svensmark werden die Änderungen durch die Sterne angetrieben, die die Menge des Kohlendioxids in der Luft beeinflussen. Klima und Leben kontrollieren CO2, nicht umgekehrt … Die UK Royal Astronomical Society in London veröffentlicht Svensmarks jüngste Studie.

Viele skeptische Wissenschaftler weisen darauf hin, dass Daten aus Eisbohrkernen zufolge Temperaturänderungen den Änderungen des CO2-Gehaltes vorausgegangen waren. Siehe ‚die Daten aus Eisbohrkernen zeigen eindeutig, dass Temperaturzunahmen generell einer Zunahme des CO2 um viele hundert bis zu einigen tausend Jahren voraus gegangen waren hier.

‘Die Temperatur treibt CO2’

Der Geologe Dr. Robert Giegengack, einst Leiter des Department of Earth and Environmental Science an der University of Pennsylvania, hat sich im Jahr 2007 gegen Ängste vor zunehmenden Auswirkungen des CO2 ausgesprochen, die von Gore und anderen geschürt worden sind. Er schrieb: „Es ist schwer für uns zu sagen, dass das CO2 die Temperatur treibt. Es ist viel leichter zu sagen, dass die Temperatur den CO2-Gehalt treibt“ (LINK). „Der treibende Mechanismus ist genau das Gegenteil von dem, was Al Gore behauptet, sowohl in seinem Film als auch in jenem Buch. Es ist die Temperatur während dieser ganzen 650000 Jahre, die den CO2-Gehalt kontrolliert hat, nicht umgekehrt“. (LINK)

Der Meteorologe Tom Wysmuller: ‚Die gegenwärtige Temperatur und CO2 entkoppeln sich‘ (hier). Selbst wenn man zehn Jahrhunderte zurück geht, gab es keinerlei Zusammenhänge zwischen Temperatur und den CO2-Auswirkungen bzw. dem Fehlen derselben. Von 1000 vor Christus bis zum Jahr 1800, also während einer Periode relativ stabilen CO2-Gehaltes um 280 ppm, fielen die Temperaturen in der Kleinen Eiszeit, um über ein Jahrhundert später wieder zu steigen. Der CO2-Gehalt ging den Temperaturänderungen weder voran noch folgte er ihnen … Das CO2 scheint nur geringe Auswirkungen in BEIDE Richtungen der beobachteten Temperaturen während dieser Periode zu haben … Falls das CO2 wirklich als wesentlicher Treiber der Temperaturen betrachtet wird, führt es einen nicht nachvollziehbaren Eiertanz um diese Zahlen aus‘.

Andere Wissenschaftler stimmen zu:

„Die Kyoto-Theoretiker haben den Karren vor die Pferde gespannt. Es ist die globale Erwärmung, die höhere Niveaus von Kohlendioxid in der Atmosphäre hervorruft, nicht umgekehrt … Eine große Zahl von kritischen Dokumenten, die im Jahre 1995 bei der UN-Konferenz in Madrid eingereicht worden waren, sind spurlos verschwunden. Als Folge war die Diskussion einseitig und stark verzerrt, und die UN haben die globale Erwärmung als eine wissenschaftliche Tatsache erklärt“. Das sagte Andrei Kapitsa, ein russischer Geograph und Forscher antarktischer Eisbohrkerne.

„CO2-Emissionen bewirken absolute keinen Unterschied in irgendeiner Weise … Jeder Wissenschaftler weiß das, aber es zahlt sich nicht aus, das auch zu sagen … die globale Erwärmung als Lokomotive hält die Europäer im Führerstand und die Entwicklungsländer barfuß laufend“. – Dr. Takeda Kunihiko, Vizekanzler des Institute of Science and Technology Research an der Chubu University in Japan.

„Legt man die Gesetze der Physik zugrunde, ist die Auswirkung des menschlichen Beitrags zu den atmosphärischen CO2-Niveaus minimal und nicht unterscheidbar von der natürlichen Variabilität, die zum größten Teil durch den solaren Energieausstoß gesteuert wird“. – Der Atmosphären-Wissenschaftler Robert L. Scotto, der mehr als 30 Jahre Erfahrung als Berater zur Luftqualität hat, arbeitete als ein Manager für einen EPA Superfund contract und ist Mitbegründer von Minnich and Scotto, Inc., einer Beratungsfirma zur Luftreinhaltung. Er war einst auch Mitglied der American Meteorological Society AMS. Scotto ist Meteorologe, der zahlreiche technische Veröffentlichungen und Berichte verfasst oder mit verfasst hat.

„Die vom Menschen erzeugte Energie ist verglichen mit dem allgemeinen Energiebudget so gering, dass sie das Klima einfach nicht beeinflussen kann … Das Erdklima folgt seiner eigenen Geschichte, aber wir können nicht signifikante Trends bei dessen Änderungen festmachen, weil sie viele Millionen Jahre zurück reicht, während das Studium derselben erst vor Kurzem begonnen hat. Wir sind Kinder der Sonne; uns fehlen einfach die Daten, um ordentliche Schlussfolgerungen zu ziehen“. – Das sagte der russische Wissenschaftler Dr. Anatoly Levitin, Leiter des Geomagnetic Variations Laboratory am Institute of Terrestrial Magnetism, Ionosphere und Radiowave Propagation der russischen Academy of Sciences.

Mehr: Special Report: Mehr als 1000 internationale Wissenschaftler bestreiten die Behauptungen zu einer vom Menschen verursachten globalen Erwärmung – und fordern die UN, das IPCC und Al Gore heraus (hier).

Mehr als 700 Wissenschaftler an 400 Institutionen in 40 Ländern haben begutachtete Studien mit Beweisen präsentiert, dass die Mittelalterliche Warmzeit real war und global aufgetreten ist, und dass es damals wärmer war als heute (hier) – als das CO2-Niveau vermutlich niedriger lag.

Klimatologen: ‚400 ppm sind ein Grund zum Feiern’

Die Klimatologen Dr. Patrick Michaels und Chip Knappenberger erklärten, dass 400 ppm CO2 ein Grund zum Feiern seien. „In manchen Kreisen stieß diese Erklärung auf Bestürzung und Zähneknirschen. Aber die angemessene Reaktion wäre eine Feier“, schrieben Michaels und Knappenberger am 14. Mai 2013.

„Energie aus fossilen Treibstoffen sorgt für etwa 80% der Energieerzeugung in der Welt – ein Wert, der seit 40 Jahren ziemlich konstant ist. Während dieser Zeit hat die globale Bevölkerung um 75% zugenommen, und der globale Energieverbrauch hat sich verdoppelt. Der globale Energieverbrauch pro Kopf hat zugenommen, während der globale Energieverbrauch pro 1000 Dollar des Bruttoinlandproduktes abgenommen hat. Wir verbrauchen mehr Energie, aber wir tun es effektiver. In der entwickelten Welt hat sich die Lebenserwartung seit dem Heraufdämmern der Ära fossiler Energie verdoppelt“, schrieben sie.

„Wie wir kontinuierlich kommentieren (siehe unseren jüngsten Beitrag), zeigt die Wissenschaft immer mehr, dass die Rate der von CO2 induzierten Klimaänderung (und folglich dessen Magnitude zu irgendeinem Zeitpunkt) nicht so groß ist wie allgemein dargestellt. Je niedriger die Rate der Änderung, umso geringer die daraus resultierenden Folgen. Wenn die Rate niedrig genug liegt, wirken die Kohlendioxid-Emissionen insgesamt vorteilhaft. Wir möchten die Leser daran erinnern, dass es nicht die Wärme, sondern die Sensitivität ist, wenn es um Kohlendioxid geht, und die Sensitivität ist offenbar überschätzt worden“, fügten Michaels und Knappenberger hinzu.

„400 ppm Kohlendioxid in der Atmosphäre sollten uns an unseren fortgesetzten Erfolg erinnern, die globale Versorgung mit Energie so auszuweiten, dass der zunehmende Bedarf gedeckt werden kann. Dieser Erfolg führt unvermeidlich zu einer Verbesserung des Lebensstandards und zu einer Reduktion der Verwundbarkeit durch die Launen von Wetter und Klima. 400 ppm ist ein Grund zum Feiern. Eine Welt, die nur durch Feuer erleuchtet wird, ist es nicht“, schlossen sie.

Behauptung der Warmisten: Das letzte Mal, als der CO2-Gehalt so hoch war – stand die Welt damals unter Wasser? Wirklichkeit: Nein, eigentlich nicht – die Eisschilde sind NICHT vor 3 Millionen Jahren geschmolzen, sagen Wissenschaftler (hier). Es ist die Art des Lernens, die die Denkweise der Menschen über das vergangene Klima verändert und was die Zukunft für uns bereit hält.

Die größten Eisschilde der Welt sind wahrscheinlich stabiler als ursprünglich angenommen (hier): Bis heute haben viele Forschergruppen diese Küstenlinie studiert und gefolgert, dass während einer Warmzeit vor drei Millionen Jahren die Eisschilde von Grönland, der Westantarktis und teilweise der Ostantarktis kollabiert sind, was den Meeresspiegel mindestens um 35 Meter hat steigen lassen. Aber die neuen Ergebnisse von Rowley und seinem Team zeigen, dass diese Eisschilde, besonders der ostantarktische Eisschild (der größte der Welt) wahrscheinlich stabiler waren (hier).

Es gibt keine Korrelation zwischen der globalen Meereisbedeckung und CO2: Seit die Erde Hansens Tipping Point von 350 ppm CO2 hinter sich gelassen hat, gab es keinen Trend bei der globalen Meereisausdehnung. Diese Ausdehnung ist sogar derzeit größer als zu der Zeit, als der CO2-Gehalt bei 350 ppm lag. (hier)

Die Schneebedeckung der Nordhemisphäre zeigte eine scharfe Ausweitung, seit der CO2-Gehalt 350 ppm überschritten hat (hier). Rutgers University Climate Lab: Die Ausdehung der schneebedeckten Gebiete auf der Nordhemisphäre von November bis April hat stark zugenommen, seit der CO2-Gehalt Hansens Tipping Point von 350 ppm hinter sich gelassen hat. Es gibt keinen langzeitlichen Trend und keinen irgendwie gearteten Hinweis, dass Schneefall und CO2 auf irgendeine Art und Weise korrelieren.

Die Website Real Science feierte den steigenden CO2-Gehalt und behauptet in einem Artikel vom 11. Mai 2013, dass „die Menschheit mit dem zunehmenden CO2-Gehalt aufblüht“ (hier). Die Aktivisten der globalen Erwärmung behaupten unverdrossen, dass ‚400 ppm CO2 die menschliche Rasse auslöschen werden‘. Die Zahlen zeigen jedoch etwas ganz Anderes, erklärt Real Science mit einer angefügten Graphik.

Washington DC rutscht in die Klima-Astrologie ab

Klar gesagt: ein Mann – Präsident Obama – der erklärt hat, dass ‚sich während seiner Präsidentschaft der Anstieg des Meeresspiegels verlangsamen würde‘ (hier), hat kein irgendwie geartetes Recht zu behaupten, dass er etwas von der Materie versteht, geschweige denn der Wissenschaft in irgendeiner Weise Vorschriften zu machen. – Ein Präsident, der behauptet, dass die Amerikaner an der Wahlurne ‚etwas tun können‘ hinsichtlich Überschwemmungen, Hurrikanen, Dürren und Tornados, spricht nicht für die Wissenschaft.

Die Befürworter der globalen Erwärmung haben im Prinzip erklärt, dass die globale Erwärmung viele Schlechtwetter-Ereignisse zeitigen würde (hier). Und da es immer wieder zu Schlechtwetter-Ereignissen kommt, ist an ‚Beweisen‘ für diese Behauptung kein Mangel. Sie können jedes solches Ereignis als Beweis für die Richtigkeit ihrer Behauptungen anführen. Es gibt inzwischen niemanden mehr, der die Behauptungen zur globalen Erwärmung falsifizieren kann, weil jedes Wetterereignis ihre Einschätzung ‚beweist‘, trotz der Tatsache, dass das gegenwärtige Wetter weder historisch beispiellos noch ungewöhnlich ist. Siehe den neuen Extremwetter-Bericht 2012 hier.

Der IPCC-Wissenschaftler Kevin Trenberth hat gesagt, dass jedes Wetterereignis jetzt durch die globale Erwärmung beeinflusst wird. Sie verwandeln sich selbst in antiwissenschaftliche Aktivisten. Wenn man etwas ohne Beweis behauptet, ist es eine Hypothese – dass es ‚die globale Erwärmung überall gibt‘ – es ist ein religiöses Gefühl. Es ist, als ob man sagt, dass Gott überall ist und dass alles, was man macht, von Gott geführt wird. Das kann man weder beweisen noch widerlegen. Und jetzt sagen sie hinsichtlich der globalen Erwärmung, dass jeder Sturm von der globalen Erwärmung geführt wird … Aber wir wollen einmal auf all die niedrigen CO2-Stürme schauen [the low CO2 Storms] … Ihre Theorie, dass das Wetter irgendwie ungewöhnlich ist und dass wir eine ‚neue Normalität‘ haben, ist nicht nur nicht überzeugend, sondern schlichtweg lächerlich, wenn man sich tatsächlich einmal die harten Fakten anschaut.

Wird eine Kohlenstoff-Steuer Tornados verhindern?! Die US-Senatoren Boxer und Whitehouse sowie andere Aktivisten der globalen Erwärmung sind zu Harlekinen verkommen mit ihren Versuchen, eine Naturkatastrophe in Oklahoma für ihre Zwecke auszuschlachten. Haben Sie kein Anstandsgefühl, verehrte Senatoren? (hier).

Rückerinnerung an 1975: für eine verheerende Tornado-Serie wurde die globale ABKÜHLUNG verantwortlich gemacht (hier).

Senatorin Boxer (Demokraten) macht die globale Erwärmung für Tornados verantwortlich – sie begründet ihren Gesetzentwurf zur Kohlenstoffsteuer mit schlechtem Wetter: „Dies ist Klimaänderung. Wir wurden vor extremem Wetter gewarnt … wir müssen unsere Bevölkerung schützen – Kohlenstoff könnte uns unseren Planeten kosten“. Ein Sonderbericht bei Climate Depot widerlegt die Verbindung zwischen globaler Erwärmung und Tornados (hier)

Wettermacher im Kongress: Die Klima-Astrologin Boxer warnt vor ‚Dürren, Überschwemmungen, Bränden, dem Aussterben von Spezies‘ – falls der Senat das Klimagesetz nicht passieren lässt (11. Juli 2009, hier)

Demokratische Senatorin Boxer: Das Scheitern des Zertifikate-Handels im Jahr 2010 verursachte ‘heißere Tage’ und ‘noch mehr schwere Stürme’ (hier)

Senatorin Boxer: Die globale Erwärmung ‚gefährdet unmittelbar das Leben unserer Enkel‘ (hier)

Klima-Rührseligkeit: Senatorin Debbie Stabenow von den Demokraten im Jahr 2009: ‚die globale Erwärmung erzeugt Volatilität. Ich fühle es, wenn ich fliege. Die Stürme werden volatiler‘ (hier) – Wir zahlen den Preis in Form von mehr Hurrikanen und Tornados.

Das ist nur eine kleine Sammlung von Beispielen, wie Obama und die Demokraten die Klimawissenschaft missbrauchen, um billige Politik durchzusetzen.

Obamas Klima-Astrologe: der ehemalige Energieminister Chu behauptet zu wissen, ‚wie die Zukunft in hundert Jahren von heute an aussieht‘ (hier). – Antwort von Morano: Sollte Chu diese Angst erzeugenden Vorhersagen für das Jahr 2100 nicht lieber auf einer Strandpromenade mit einem vollen Stapel von Tarot-Karten anpreisen?

Obama lässt die Klimawissenschaft in seiner Rede an die Nation 2013 außen vor – die Widerlegung der Behauptungen des Präsidenten zur globalen Erwärmung von Climate Depot Punkt für Punkt (hier) – Antwort von Morano: Herr Präsident, Gesetze des Kongresses, die UN oder die EPA können keine Stürme oder Wetterlagen verändern!

Obama hofft, mit seiner neuen Kampagne den Skeptitzismus zum Schweigen zu bringen, trotz der Tatsache, dass die GOP [= Grand Ole Party, die Republikaner] eine pro-wissenschaftliche Haltung einnimmt, wenn es um die Befürchtungen der vom Menschen verursachten globalen Erwärmung geht. Siehe ‚Lord Christopher Monckton verteidigt die GOP gegen die Angriffe von Obama: Obamas Klima-Video adelt die Mitglieder der GOP, die sagen, wie es wirklich ist – Monckton sagt, dass die GOP hinsichtlich des Klimas den gesunden Menschenverstand walten lässt‘ (hier).

Die unbequeme Wahrheit für Obama lautet, dass er und seine mitlaufenden Demokraten viele völlig ignorante und oftmals komische Behauptungen zur Klimawissenschaft aufgestellt haben. Klar gesagt: ein Mann – Präsident Obama – der erklärt hat, dass ‚sich während seiner Präsidentschaft der Anstieg des Meeresspiegels verlangsamen würde‘ (hier), hat kein irgendwie geartetes Recht zu behaupten, dass er etwas von der Materie versteht, geschweige denn der Wissenschaft in irgendeiner Weise Vorschriften zu machen.

Präsident Obama hat auch behauptet, die „Strahlen der Sonne blockieren zu können, um die globale Erwärmung zu beenden“ (hier). Außerdem stellte er die wissenschaftlich völlig unhaltbare Behauptung auf, dass das Waxman-Markey-Gesetz aus dem Jahr 2009 die globale Temperaturzunahme um bis zu fünf Grad verringern werde! Am 25. Juni sagte Obama: „Ein langzeitlicher Vorteil wäre es, wenn wir unseren Kindern einen Planeten hinterlassen würden, der nicht vier bis fünf Grad wärmer ist“. Aber Obamas eigene Umweltagentur EPA sagt, dass dieses Gesetz das globale CO2-Niveau nicht beeinflussen werde, geschweige denn die globalen Temperaturen.

Obama setzt voll auf Hexerei, wenn er seinen Wählern erzählt, dass sie gegen Dürren und Überschwemmungen und Buschbrände ‚etwas tun können‘ (hier). – Morano von Climate Depot erinnert aber die Wähler: „Gesetze der UN, des US-Kongresses oder der EPA können nicht das Wetter beeinflussen!“

ENERGIE

Kohle ist die ‚moralische Wahl’ – grundlose Klimaängste kapern die US-Energiepolitik

Funktionierende Energieerzeugung (aus Kohle, Erdgas, Öl) wird unterdrückt. Als primäre Energiequellen völlig ungeeignete (Wind, Sonne) werden gefördert.

Kohle und andere auf Kohlenstoff basierende Energieformen waren eine der größten Fortschrittsbringer in der Geschichte unseres Planeten. Ist es verwerflich, sich Wärme, Strom, geringere Kindersterblichkeit und längere Lebenserwartung zu wünschen? Kohle ist die moralische Wahl.

Die USA müssen ‚ethische Energie’ der Konflikt-Energie vorziehen – die Begrenzung von Bohrungen, Bergbau, Pipelines und Energieausbeutung in den USA kann nur zu größerer Abhängigkeit von Konfliktenergie aus Gebieten wie dem Nahen Osten, Venezuela und China führen, wo Menschenrechte und Umweltschutz wenig Beachtung finden.

„Wenn man eine Energiepolitik genau rückwärts gewandt ausführen möchte, sollte man genau das tun … die Führer dieser grünen Unternehmen sind Ideologen, in vielen Fällen Milliardär-Ideologen, die hunderte Millionen Dollar von unserer Regierung bekommen … die Verbraucher müssen das meiste davon tragen, und zwar wegen der schlechten Energiepolitik, die sich aus schlechter Wissenschaft ergeben hat“.

Weiterführende Links: 

Feiert! Kohle ist die moralische Wahl für die Armen der Welt! Weltweit werden 1200 neue Kohlekraftwerke in 59 Ländern geplant, drei Viertel davon in Indien und China (hier)

Diese riesige Ausweitung erfolgt trotz der Warnungen von Politikern und Wissenschaftlern, dass sich die rasch steigenden Kohlendioxid-Emissionen verringern müssen … wenn eine Runaway-Klimaänderung vermieden werden soll.

Antwort von Climate Depot: Lachen wir alle über ‚Runaway-Klimaänderung‘. Energiearmut ist ein Todesurteil. Auf Kohle basierende Energien sind eine der größten Befreier der Menschheit in der Weltgeschichte.

Kohle ist die moralische Wahl! In vielen afrikanischen Ländern wird der Bau eines Kohlekraftwerkes die CO2-Emissionen reduzieren (hier)

Wie? Weil es Millionen Familien gibt, die keinen Strom haben und folglich mit Holz oder Dung kochen müssen. Diese Feuer brennen ineffizient und erzeugen nicht nur Kohlendioxid, sondern auch viel Luftverschmutzung, die die Menschen krank macht oder sie sogar sterben lässt. Wenn tausende dieser Feuer durch ein modernes Kohlekraftwerk ersetzt werden, wäre der Gesamteffekt eine verbesserte Luftqualität und weniger CO2 pro Energieeinheit.

Jetzt sehen: Morano von Climate Depot im kanadischen Fernsehen: Stellt Earth Hour ab! Warum feiern wir die Dunklen Zeitalter? Warum feiern wir etwas, das Nordkorea bereits erreicht hat?! (hier)

Morano: Die Leute sollten Earth Hour verabscheuen. Kohlenstoffbasierte Energie ist eine der größten Befreier der Menschheit in der Geschichte unseres Planeten … eine der moralischsten (Energie-)Wahlen, die wir haben, sind heutzutage Kohlekraftwerke in der ganzen Welt … Sowohl Solar- als auch Windenergie sind im Wettbewerb mit fossiler Energie gescheitert. Ihre Schlusslichter sind erloschen, und keine noch so großen Subventionen oder Förderungen können daran etwas ändern (hier)

Chinesische Kohle wird für die globale Erw… ahem, Abkühlung verantwortlich gemacht: Prof. Judith Curry findet statistische Tricks nicht überzeugend … es gab von 2000 bis 2006 keine Zunahme der Aerosole, weder global noch in Ostasien (hier). Prof. Curry: „Die politische Konsequenz dieser Studie scheint zu sein, dass die einfachste Lösung hinsichtlich der globalen Erwärmung darin besteht, die Chinesen zu ermuntern, noch mehr Kohle zu verbrennen, was sie ohnehin vorhaben“.

Begutachtete Studie: Der Verbrauch von Kohle hat uns geholfen, die Welt vor einer gefährlichen globalen Erwärmung zu retten! Robert Kaufmann und Kollegen von der Boston University haben kürzlich eine Studie in den Proceedings of the National Academy of Sciences veröffentlicht, in der die Gründe für den jüngsten Mangel an globaler Erwärmung untersucht werden. Sie kamen zu dem Ergebnis, dass es einfach die natürliche Variabilität ist, verstärkt durch zunehmende Sulfat-Emissionen durch den dramatisch zunehmenden Kohleverbrauch in China (hier).

Eine begutachtete Bestätigung, dass die globalen Temperaturen zwischen 1998 und 2008 nicht gestiegen sind, findet sich hier.

Der Physiker Dr. Lubos Motl: Hat chinesische Kohle zur Abkühlung seit 1998 geführt? Sie zeigt immer noch, wie unglaublich flatterhaft und vorübergehend Mainstream-Meinungen über die Treiber des Klimas sind (hier). – Motl: Plötzlich ist ein alter, Fox News schauender Herr der primäre Grund einer Studie, die eine ganze Dekade von Erwärmung hinweg erklärt durch einen zuvor abgelehnten Mechanismus … der Gedanke, dass die Erwärmungs-Vorhersage wegen der chinesischen Kohle gescheitert sind, ist lediglich eine Randabschätzung; eine unter hunderten anderer möglicher Erklärungen … warum geben diese Leute nicht ehrlich zu, dass sie einfach keine Ahnung haben, was seit 1998 passiert ist und was bis 2020, 2030 oder 2100 passieren wird?

Hintergrundmaterial:

Climate Depot – Bericht über Extremwetter: „Extremwetterereignisse gibt es immer, und es gibt keine Beweise für deren systematische Zunahme. Präsentiert auf der UN-Klimakonferenz in Doha am 6. Dezember 2012.

Der ganze Bericht findet sich hier.

Wissenschaftliche Studien und die Daten stehen gegen die Behauptungen zu Extremwetter. Die jüngsten begutachteten Studien, Daten und Analysen unterminieren die Behauptungen, dass das Wetter „extremer“ oder „beispiellos“ ist. An entscheidenden Stellen halten Behauptungen zu Extremwetter im gegenwärtigen Klima einer genauen Untersuchung nicht stand.

  • Todesfälle durch Extremwetter nehmen radikal ab, die globale Aktivität tropischer Wirbelstürme befindet sich auf einem Rekord-Tief, die Häufigkeit starker US-Hurrikane hat abgenommen, die Anzahl von Tornados ist seit den fünfziger Jahren dramatisch zurück gegangen, Dürren sind historisch weder ungewöhnlich noch vom Menschen verursacht, und es gibt keine Beweise, dass gegenwärtig ungewöhnliches Wetter herrscht.
  • Extreme: Der Klimatologe Dr. John Christy in einer Aussage vor dem Kongress: „Extremereignisse wie die jüngste Dürre in den USA wird es immer wieder geben, mit oder ohne menschliche Beiträge. – Diese jüngsten US-‚Extreme‘ wurden in früheren Dekaden übertroffen – Die Behauptung von ‚schlimmer als wir gedacht haben‘ in James Hansens Op Ed hält einer genauen Untersuchung nicht stand“.
  • Tornados: Ein Klimatologe: “Es gab einen abnehmenden Trend starker und sehr starker Tornados (F3 bis F5) Tornados in den USA seit den fünfziger Jahren – Erwärmung bringt weniger starke Tornados, nicht mehr“ (hier)
  • Dürren: Eine Studie im Journal Nature zeigt, dass es hinsichtlich Dürren während der letzten 60 Jahre kaum Änderungen gegeben hat (hier)
  • Überschwemmungen: Prof. Pielke Jr.: „Nehmen Überschwemmungen in den USA zu? Die Antwort lautet immer noch nein – eine neue, heute veröffentlichte Studie zeigt, dass Überschwemmungen laut Aufzeichnungen von 85 bis 127 Jahren nicht zugenommen haben“ (hier)

Der ganze Bericht steht bei www.ClimateDepot.com  – Morano@ClimateDepot.com – 202-536-5052

Soweit die Aussage von Marc Morano, Publizist von Climate Depot und ehemals Mitglied im  Environment & Public Works Committee des US-Senats.

Hier einige Pressestimmen:

Associated Press stellt Climate Depot vor: „Wissenschaftler und Leugner der Klimaänderung treffen in West Virginia bei einer Anhörung des Kongresses aufeinander – Morano in der Debatte: ‚Der Kongress muss den Mut aufbringen, gar nichts hinsichtlich der Regulierung von Kohlendioxid-Emissionen zu tun‘“ (hier): Ein republikanisches Mitglied des Kongresses versucht, allgemeine Gründe für die Klimaänderung zu finden, weil das von fossilen Treibstoffen abhängige West Virginia von gesetzlichen Änderungen der [US]-Bundesregierung direkt betroffen wird. Aber der Konflikt zwischen Wissenschaft und Ideologie, von der der Republikaner David McKinley spricht und der die Diskussion in Washington einfriert, kommt auch nach Fairmont. Marc Morano von Climate Depot sagt, dass der Kongress den Mut haben muss, hinsichtlich der Regulierung von Kohlendioxid-Emissionen gar nichts zu tun. Gleichgesinnte Teilnehmer der Diskussion stimmen dem zu und sagen, dass solche Regulationen die Energiepreise steigen lassen und den Lebensstandard verringern können. – Aber Professor Scott Denning von der University of Colorado sagt, dass die Menschen neue Technologien willkommen heißen, selbst sie teurer sind, so wie sie von Kerzen und Pferden zu Kohle und Strom gewechselt haben. Annie Petsonk vom Environmental Defense Fund sagt, dass Maßnahmen schon lange überfällig sind. Sie sagt, dass Wälder, Wasserreservoire und Leben in  Gefahr sind“.

Machen wir uns fertig zum lautstarken Protest! Funken sollten fliegen auf einer vom Kongress gesponserten seltenen 3-stündigen Klimadebatte – in der skeptische Wissenschaftler auf Befürworter der globalen Erwärmung treffen – Morano von Climate Depot ist einer der vorgesehenen Redner (hier). Der Republikaner David B. McKinley hat für eine Podiumsdiskussion in Fairmont mit ausgewiesenen Experten im Bereich der Klimawissenschaft geworben.

Thema: Diskussion über die Ursprünge des und wie man dem Klimawandel begegnet – Wer: Das Büro des republikanischen Abgeordneten David B. McKinley und die West Virginia High Tech Foundation . Dieses Ereignis steht den Medien und der Öffentlichkeit offen.

Noch mehr Berichterstattung in den Medien über die Klimaanhörung des Kongresses: Verschiedene Ansichten zur Klimaänderung (hier) – Dr. John Christy, Professor der Atmosphärenwissenschaft und Direktor des Earth System Science Center an der University of Alabama in Huntsville, der an der Konferenz per Videoschaltung teilnahm, sagte den Zuhörern, dass Temperatur-Wärmerekorde in den USA nicht immer häufiger auftreten. Er sagte, dass gegenwärtige Klimamodelle statistisch sehr falsch liegen können.

Podiumsdiskussion zur Klimaänderung in Fairmont hier.

Ein weiterer Link zu einem Fernsehbericht über diese Diskussion ist hier.

Bericht von Associated Press zu dieser Diskussion (hier): Morano, ein ehemaliger Gehilfe des Klimaskeptizismus und Senator James Inhofe aus Oklahoma bezeichnen die Debatten um die globale Erwärmung als „ein idiotisches Schauspiel der Politik“, das „auf minderwertiger Wissenschaft“ basiert. Der Gedanke, dass Kohlendioxid im Besonderen den Klimawandel antreibt, ist „durch nichts zu rechtfertigen“, argumentierte er. „Wir müssen den Mut haben, nichts zu tun, wenn es um die Regulierung von CO2-Emissionen geht“, erklärte Morano und nannte die auf Kohle basierende Energie „einen der größten Befreier in der Geschichte der Menschheit“.

Myron Ebell, Direktor des Competitive Enterprise Institute: „Die befürworteten politischen Maßnahmen sind wahnwitzig.  Wenn man glaubt, dass Energiearmut etwas Gutes ist, sollte man die Kontrolle der Kohlenstoff-Emissionen unterstützen. Aber fast die gesamte Welt stimmt dem nicht zu!“

Der gleich denkende Professor John Christy nennt bezahlbare Energie „die Basis unseres heutigen Lebensstandards“. Ob die Reduktion von CO2-Emissionen das Klima nun beeinflusst oder auch nicht, sagte Christy, er sei sicher, dass die Energiekosten dadurch mit Sicherheit steigen werden. „Ich habe in Afrika gelebt, und ich kann Ihnen versichern, dass das Leben ohne Energie brutal und kurz ist. … Nur weil wir Kohlendioxid erzeugen, sind wir noch keine schlechten Menschen“.

Marc MoranoClimate Depot

Link: http://tinyurl.com/lto2tup

Übersetzt von Chris Frey EIKE




Happy Harry – UBA Broschürenautor Harry Lehmann …nach Sinnkrise… zum Umweltbundesamt..und sucht von dort das „Glück als Zielgröße“.

Update vom 7.6.13:

UBA holt stramme Gesinnungsgenossen in Amt und Würden. Siehe Anhang mit Lebenslauf von (Happy) Harry Lehmann.(1)

Der Weg dorthin führte ihn über viele Stationen zuerst und sehr kurz in der Grundlagenforschung (CERN) und dann von einer „Sinnkrise“ befallen, direktemang in die Umweltbewegung, deren NGO´s – Kaderschmiede Greeenpeace und Lobbyverband Eurosolar durften nicht fehlen-, und Forschungsinstitute wie das „Wuppertal Institut für Klima, Umwelt und Energie“. So ideologisch gefestigt und fachlich aufgenordet ging es dann ins Umweltbundesamt. Vermutlich hat sich die Sinnkrise zwischenzeitlich  gelegt, denn nun – als Bereichsleiter- versucht er einem möglichst großen Kreis von Glückssuchern das „Glück als Zielgröße“ auch Ihres Weges zu ermöglichen. Sehen die das vergnügliche Video des „UBA-Energie-und KlimaexperteN Harry Lehmann“. (Focus)

Der Bereichsleiter im Umweltbundesamt und Mitautor der Broschüre „Und sie erwärmt sich doch!“ Dr. Harry Lehmann erläutert seine Glückssuche für viele Menschen durch „Erneuerbare“

Neben seinen Wissen als Klimaexperte – ausführlich dargelegt in der trotzigen UBA Broschüre „Und sie erwärmt sich doch.!“  und zigfach verrissen u.a. bei EIKE, erprobt er seine Glückssuche auch bei der Einführung der sog. „Erneuerbaren“ und glaubt – obwohl Physiker- ernsthaft an 100 % Strom aus Erneuerbaren. Irgendwie scheinen ihm dabei die vier Grundrechenarten nach Adam Riese, besonders intensiv angewendet in der Ökonomie, abhanden gekommen zu sein. Aber „…wir machen die ganze Kiste (mit den Erneuerbaren) ja nur damit wir alle glücklich werden!“.. lesen Sie selbst.z.B. auch hier 

Mit Dank an ACHGUT die vor ein paar Stunden dieses beredte Zeugnis für die Geisteshaltung so mancher Beschäftigter im Umweltbundesamt ausfindig machten.

Michael Limburg EIKE

(1) Mit Dank an Spürnase Reiner Engler

Related Files




Energie-Hokuspokus des Fraunhofer Instituts für Energiesysteme

Deshalb haben sich ein ganze Anzahl von Instituten dieser staatlich massiv geförderten Pfründe gewidmet und arbeiten ausschließlich dafür. Immer wieder und oft am lautstärksten dabei, das (ISE) Institut für Solare Energiesysteme in Freiburg unter seinem mehr berüchtigten, als berühmten Chef Eike Weber.

Das IDE hat jetzt (mal wieder) eine "Studie" vorgestellt. In der liest man: (Es).. wurde erstmals mit einem Energiemodell untersucht, wie Wärme und Strom in Deutschland in einem regenerativen Energiesystem optimal zusammenspielen könnten." Die Ergebnisse sind verblüffend, denn sie .. "zeigen, dass ein regeneratives Energiesystem für Wärme und Strom zu ähnlichen Kosten realisierbar ist wie unser heutiges Energiesystem." Wir haben das überprüft. Der Artikel erschien (hier). Man sollte ihn lesen! Das Fazit der Fraunhofer-Autoren lautet:

Erstmals wurde ein komplettes Energiesystem im Strom- und Wärmesektor auf stündlicher Basis simuliert und in mehreren Varianten die prinzipielle Machbarkeit zu VERTETBAREN (Anmerkung: "vertretbar" von der EIKE Redaktion groß geschrieben) Kosten nachgewiesen. Das tatsächliche System zu finden, ist eine gesellschaftliche Aufgabe, die neben Ökonomie und Technik auch Aspekte wie Landschaftsplanung, Akzeptanz und Bürgerbeteiligung berücksichtigen wird.

Schon hier schnappt jeder Fachmann, der mit Energieversorgung und deren Kosten beruflich zu tun hatte, erstmal nach Luft. Wir schenken uns hier eine genaue Analyse dieses sachlichen Schwachsinns des Fraunhofer Instituts und lassen stellvertretend dafür drei Fachleute Ihren Kommentar dazu abgeben:

Dipl.-Ing. Peter Dietze schreibt:

"Hokuspokus – weg sind die 1 Billion Kosten von Altmaier!! UNGLAUBLICH!!! Wo doch von den 550 GW nur etwa 60 GW in Betrieb sein können und der untätige Rest sicher bezahlt werden muß und Power-to-Gas-Strom etwa auf 50-100 ct/kWh kommt…"

Dipl.-Ing. Michael Limburg kommentiert:

"Unglaublich, was heute unter dem Namen Wissenschaft verkauft wird. Wir sollen über 500 GW (kostet mindestens 6 bis 8 x mehr als konventionell) installieren, um in der Spitze sicher 80 GW nutzen zu können. Verrückt ist noch ein harmloser Begriff dafür."

Prof. Dr.-Ing. Alt (FH Aachen) meint:

"Es ist in der Tat unglaublich, welcher Unsinn auf staatlicher Gehaltsbasis in wissenschaftlichen Instituten von Leuten, die noch nie Verantwortung für unsere Energieversorgung getragen haben oder jemals tragen müssen, verbreitet wird.
Das Problem, wir haben zu viele vom Steuerzahler staatlich finanzierte Sandkastenspieler, und es kommen noch immer neue hinzu, siehe PIK und Töpfer-Institut. Die Wahrheit sagen nur noch ehrenamtliche arbeitende Rentner, die aber allesamt 40 Jahre Verantwortung in der Industrie und Energieversorgung getragen haben und das zu weit niedrigeren Stromkosten für alle Bürger, ohne smart grid und ohne smart meter in einer freien selbstbestimmten Welt der Strom- und Gasverbraucher.
"

EIKE Pressesprecher Prof. Dr. Horst-Joachim Lüdecke kommentiert schließlich:

"Regenerative Energien zur Erzeugung von elektrischem Strom haben die naturgesetzlichen Nachteile zu geringer Leistungsdichten, (und daraus folgend) zu hoher Kosten, der Unstetigkeit ihrer Stromerzeugung und schließlich der Nichtskalierbarkeit. Mit Letzterem ist gemeint, dass Kraftwerke zur Stromerzeugung der Raum- und Netzplanung anpassbar sein müssen. Klassische Kohle- und Gaskraftwerke und insbesondere Kernkraftwerke haben diese Eigenschaft (sie können beliebig groß, klein und überall gebaut werden), Windräder nicht. Diese müssen riesig sein, in großer Zahl in windreichen Gegenden aufgestellt werden und sind überdies mit hohen Stromleitungskosten verbunden. Das Fraunhoferinstitut sollte sich besser mit modernen Konzepten schneller Brüter beschäftigen, als "regenerativen Unsinn" zu betreiben. Die schon teilweise im Pilotstadium befindlichen Brüterkonzepte zielen auf inhärente Sicherheit und verschwindenden Abfall an Kernbrennstoff. Kernbrennstof mit Brütertechnik reicht selbst 10 Milliarden Menschen bei ausschließlicher Stromerzeugung aus Brütern viele 100 Millionen Jahre (Uran aus Meerwasser und Thorium). Liebe Entscheidungsträger des Fraunhofer Instituts: wären schnelle Brüterkonzepte nicht ein sinnvolleres Forschungsfeld? Der Autor ist sich natürlich der Naivität dieser rethorischen Frage bewusst. Deutsche Politik verweigert sich vernünftiger Energieforschung."

Bemerkenswert ist auch der letzte Satz im Fazit des Fraunhofer-Artikels:

Das tatsächliche System zu finden, ist eine gesellschaftliche Aufgabe, die neben Ökonomie und Technik auch Aspekte wie Landschaftsplanung, Akzeptanz und Bürgerbeteiligung berücksichtigen wird.

Kommentar der EIKE Redaktion: Landschaftszertörungen durch Zehntausende von Windradungetümen, wovon inzwischen noch nicht einmal Naturschutzgebiete verschont werden, Bodendegradierung durch Maismonokulturen, unaufhaltsam hochschießende Strompreise, zunehmendes Lavieren an einem bundesweiten Black-Out, haben wir das nicht schon zur Genüge? Und nun noch so ein Schmarrn! Was verstehen eigentlich diese staatlich finanzierten Phantasten am Fraunhoferinstitut unter Bürgerbeteiligung? Etwa Beteiligung am weiteren Zerstören unser Naturumgebung? Vielleicht liegen aber diese Leute sogar richtig, denn wie es unsere Geschichte bereits vielfach bewiesen hat, ist in Deutschland an purem Wahnsinn so gut wie alles möglich.

Die besondere deutsche Spezialität hierbei: Einmal begonnene Vorhaben, deren Irrsinn selbst dem Dümmsten augenfällig ist (Musterbeispiele Energiewende, Klimaschutz), werden auf Biegen und Brechen zu Ende geführt – bis zur "letzten Patrone". Erst danach beginnt das große Aufräumen. Wir werden es wieder erleben und wir werden auch wieder erleben – denn dies kennen wir ebenfalls zur Genüge -, dass es danach niemand gewesen sein will.




Tschernobyl am 24.5.13 – Ein Reisebericht

Der Kuckuck rief, die Robinien waren voller Blüten, die Heckenrosen blühten schon, ein Wildpferd lief über die Straße, seiner Herde hinterher. Ein Ausflug ins Grüne!

Auch vor dem Kontrollpunkt „Dityatki“ zur 30 km-Zone ist die Gegend schön: Felder, Wiesen, alles ohne Windräder, viel Wald. Aber es sind doch meist recht einförmige Kiefernforsten, während hinter dem Kontrollpunkt auch viele Laubbäume wachsen und die Wälder voller Unterholz sind.

Ich hatte 159 Dollar bezahlt und mich einem Tagesausflug in das Gebiet des verunglückten Reaktors angeschlossen. Wir waren vier, dazu der Führer. Außer meinem Bekannten war ein finnisches Ehepaar dabei. Zum Anlass ihres vierten Hochzeitstages hatten sie eine kurze Reise nach Kiev unternommen, hauptsächlich, um Tschernobyl zu sehen. Der Mann hatte als Bauingenieur 8 Monate auf der Baustelle des Kernkraftwerkes Olkiluoto gearbeitet, was das Interesse des Paares für Radioaktivität weckte.

Ich selbst war im Jahr 1992 schon einmal in Tschernobyl. Damals mussten wir am Kontrollpunkt Fahrzeug und Kleidung wechseln, diesmal reichte eine Passkontrolle. Der Kontrollpunkt soll übrigens in den nächsten Jahren viele km zurückverlegt werden, ein großes Gebiet gilt als nicht mehr belastet.

Eine Tafel informiert über die derzeitigen Konzentrationen an radioaktivem Caesium und Strontium in Becquerel pro Kilogramm bzw. Liter

 

Caesium 137

Strontium 90

Pilze

500 – 390.000

50 – 100

Wildfleisch

500 – 120.000

40 – 25.000

Fische

50 – 14.000

10 – 22.000

Fluss Pripyat

0,1 – 0,4

0,1 – 0,6

Bäche

0,1 – 2

1 – 5

Stehende Gewässer

1 – 20

10 – 150

Jeder Mensch enthält von Natur aus etwa 8.000 Becquerel an radioaktiven Isotopen. Insofern sind die Konzentrationen an Caesium und Strontium – andere Isotope spielen keine Rolle – nicht geeignet, Wilderer abzuschrecken. Im alleräußersten Fall würde ein Mahlzeit von 150 g Hirsch die persönliche Aktivität kurzfristig um 270 % steigern. Die Dosis wäre 0,38 Millisievert, nicht einmal ein Fünftel dessen, was wir von Natur aus pro Jahr erhalten. Das bringt keinen um, und daher müssen Wilderer anders abgeschreckt werden: Wer sich erwischen lässt, wird zu 4 Jahren Gefängnis verurteilt.

Die Wildpferde haben eine Aufgabe. Indem sie Gras und Laub fressen und verdauen, tragen sie ein wenig zur gleichmäßigen Verteilung der Radioaktivität und ihrer schnelleren Abwanderung in tiefere Bodenschichten bei. Man interessiert sich natürlich für den Gesundheitszustand der Pferde und findet, dass er völlig normal ist.

Den Pferden steht nicht das ganze Gebiet zur Verfügung. Vor dem inneren, stärker belasteten Bereich gibt es einen zweiten Kontrollpunkt. Wasserläufe und Zäune verhindern, dass die Pferde in diesen Bereich gelangen. Wild gibt es jedoch auch dort. Wir haben keins gesehen, nur die Losung eines Hirsches.

Nicht in der ganzen 30 km-Zone hat die Natur die Freisetzung von Radioaktivität gut überstanden. In Bereichen nahe am Reaktor wurden die Bäume totgestrahlt. An einer solchen Stelle habe ich im Jahr 1992 eine Gammastrahlung gemessen, welche 70mal intensiver war als normale Umgebungsstrahlung. Das reichte aber schon nicht mehr, um Pflanzenwachstum zu verhindern. Es kamen wieder kleine Birken hoch. Heute steht dort ein dichter Wald, meist aus mehr als 5 m hohen Birken. Es fällt auf, dass es dort nur junge Bäume gibt. Die Baumleichen hat man entfernt, sie hätten eine Brandgefahr dargestellt. Überhaupt wäre ein Waldbrand ganz schlecht, er würde Radioaktivität in die Atmosphäre bringen. Überall sieht man Maßnahmen zur Verhinderung von Bränden, was bis heute offenbar Erfolg hatte.

Artenvielfalt und Anzahl von Tieren und Pflanzen haben zugenommen. Selbstverständlich behaupten „Grüne“ genau das Gegenteil. Es ist ihre Art, unterschiedlichste, nicht zu einander passende „Ergebnisse“ zu präsentieren. In einer „Arbeit“ wird behauptet, die Anzahl von Insekten, Spinnen und anderen Kleintieren pro Quadratmeter wäre weniger als ein Hundertstel dessen, was normalerweise vorkommt. Nun vertragen gerade Insekten 100mal mehr Strahlung als wir. Gäbe es Stellen mit so hoher Strahlenintensität, dass Insekten kaum noch leben können, und jemand kriecht da herum, um noch die letzte Ameise zu suchen, dann wird er das nicht überleben. Allerdings kann er seine Arbeit noch zu Ende bringen, denn der Strahlentod tritt erst nach etwa 3 Wochen ein.

Eine Art ist allerdings tatsächlich verschwunden, nämlich Störche. 86 Dörfer wurden aufgegeben, und in vielen nisteten Störche. Sie fühlen sich nur wohl, wo Menschen sind. In einem verlassenen Ort bleiben sie nicht.

Für diese Dörfer wurde im Sperrgebiet eine eindrucksvolle Gedenkstätte in Form einer Allee mit Namensschildern angelegt. Zu manchen Schildern werden Blumen gebracht.

Im Jahr 1992 sah man die Häuser noch fast in Ordnung, umgeben von verwilderten Gärten. Heute findet man die einstöckigen Häuser kaum. Sie sind vom Wald überwuchert, die Bäume überragen die Häuser um das Doppelte. Wir haben unser Fahrzeug verlassen und sind auf einem Trampelpfad zu einem großen ehemaligen Kindergarten gegangen. Sehr anrührend: Ein zurückgelassener Teddybär.

„Passen Sie auf, hier gibt es ‚hot spots‘“, sagte unser Führer. Da aber niemand ein Messgerät hatte, konnten wir mit dieser Warnung nichts anfangen. 

Gedenkstätte für die 86 aufgegebenen Dörfer

In einem aufgegebenen Dorf

Mit dem Wetter hatten wir Glück. Erst schien noch die Sonne, dann setzte heftiger Regen ein. Das veranlasste unseren Führer, sich über das Verbot hinwegzusetzen, die Gebäude der Stadt Pripyat zu betreten.

Die Sowjetunion wollte hier das größte Kraftwerkszentrum der Welt bauen. Vier Kraftwerksblöcke liefen schon, 2 weitere waren fast fertig, sechs waren in der Planung. Unsere Flucht vor dem Regen verschaffte uns einen Einblick, was alles für die dort arbeitenden Menschen getan wurde. Wir waren in dem großen Kulturpalast, in den beiden Hallenbädern, eins mit 6 m tiefem Becken, nun ohne Wasser. Außerdem liefen wir in den Sportanlagen herum. Es gab einen Boxring und mehrere Turnhallen. Vor einer war eine Tafel mit den üblichen Anweisungen: Nicht mit Straßenschuhen betreten usw., und auch: Das Betreten der Turnhalle in betrunkenem Zustand ist verboten.

Derartige Hinweise sind in russischer Sprache geschrieben. Es war eben kein Projekt der Ukraine, sondern der gesamten Sowjetunion. Heute ist nur die Ukraine zuständig, und es wird ukrainisch geschrieben, ganz selten auch einmal englisch.

Der Zustand der Gebäude ist schlimmer als man nach 27 Jahren Vernachlässigung erwartet. Offenbar wurde alles Brauchbare in grober Weise herausgerissen. Nach den vielen herumliegenden Glasscherben zu urteilen, gab es auch mutwillige Zerstörungen. 

Wir waren noch in einer ehemaligen Polizeistation mit 20 Gefängniszellen. Offenbar braucht man das in einer Stadt mit 50.000 Einwohnern.

Der Regen hörte auf, und wir konnten am Reaktor herumlaufen. Da allerdings muss man auf der Straße bleiben, in den angrenzenden Wiesen warnen Schilder vor Radioaktivität. Zur Zeit ist eine Hülle für den Sarkophag im Bau.

Wir fuhren dann zurück. Am inneren Kontrollpunkt erfolgte die Kontaminationskontrolle mit den entsprechenden Geräten, in welchen in erster Linie Hände und Füße ausgemessen werden. Natürlich waren wir sauber. Man hat dort eine ganze Reihe solcher Geräte, um Gruppen abfertigen zu können. An diesem Tag war außer uns nur eine weitere Touristengruppe mit etwa 10 Teilnehmern auf dem Gelände. 

Zwischen innerem und äußerem Kontrollpunkt geht es locker zu. Man kann Souvenirs und Getränke kaufen. In einer Kantine bekamen wir ein mehrgängiges Mittagessen, allerdings recht spät. Es war im Preis inbegriffen.

Am äußeren Kontrollpunkt wurden wir dann noch einmal ausgemessen, mit dem erwarteten Nullergebnis. 

Dr. Hermann Hinsch Hannover