1

Energiewende: „Letztlich machen wir der Welt vor, wie man Ressourcen verschwendet“

NovoArgumente: Hauptargument für die Energiewende ist der Klimaschutz. Welche Auswirkungen hat die deutsche Energiewende auf das Klima?

Joachim Weimann: Der Anteil Deutschlands an der weltweiten Emission von CO2 beträgt weniger als 2 Prozent. Das bedeutet, dass selbst dann, wenn wir unsere Emissionen auf Null herunterfahren, kein messbarer Einfluss auf das Klima zu erwarten ist. Deshalb gilt, dass eine Lösung des Klimaproblems, bzw. die Einhaltung des 2-Grad-Ziels, auf das sich die Staatengemeinschaft verständigt hat, nur gelingen kann, wenn sich eine große Koalition von Ländern findet, die gemeinsam in den Klimaschutz investieren. Die eigentlich spannende Frage ist deshalb, ob die deutsche Energiewende dazu beiträgt, eine solche Koalition zusammen zu bekommen. Ich glaube es nicht, denn die Energiewende wird sehr teuer und wird Deutschland stark belasten. Für eine internationale Lösung bräuchten wir aber Mittel, die wir den Ländern anbieten müssten, die weder eine moralische Verpflichtung zum Klimaschutz haben, noch ein nationales Interesse daran. Ohne Kompensationen durch die Industrieländer wird man die Schwellen- und Entwicklungsländer nicht ins Boot bekommen. Ob uns die Energiewende dafür noch Raum lässt, kann man stark bezweifeln.

Hat Deutschland eine Vorreiterrolle? Ist es wahrscheinlich oder wünschenswert, dass andere unserem Beispiel folgen?

Deutschland versucht mit der Energiewende eine Vorreiterrolle einzunehmen. Angesichts des globalen Charakters des Klimaproblems kann man so ein Vorhaben auch nur rechtfertigen, wenn man damit die Hoffnung verbindet, dass andere nachziehen werden. Wenn nur Deutschland Klimapolitik betreibt, werden alle Aufwendungen sowieso umsonst sein. Aber es stellt sich die Frage, ob wir ein gutes Beispiel geben. Das kann man zu Recht bezweifeln, denn Klimaschutz ließe sich mit anderen Instrumenten um ein Vielfaches besser gestalten, als wir es mit unserem EEG tun. Ein konsequenter Ausbau des Emissionshandels und der Verzicht auf die Subvention staatlich festgelegter Techniken würden die gleichen CO2-Vermeidungen zu erheblich geringeren Kosten ermöglichen. Letztlich machen wir der Welt vor, wie man erhebliche Mengen an Ressourcen verschwendet. Wir sollten nicht hoffen, dass uns das allzu viele nachmachen. Aber selbst wenn wir effiziente Klimapolitik machen würden, wäre keineswegs sicher, dass uns andere nachfolgen. Sowohl die empirische als auch die theoretische Forschung zu der Frage, ob „Leadership“ erfolgreich sein kann, kommen zu dem Ergebnis, dass damit wohl nicht zu rechnen ist. Die Erfahrungen, die wir auf den jährlichen Klimakonferenzen bisher gesammelt haben, scheinen das ja auch zu bestätigen. Obwohl wir uns seit Jahren als klimapolitischer Musterknabe herausputzen, ist der Einfluss Deutschlands auf den Klimakonferenzen vernachlässigbar gering.

Selbst unter den Bundesländern scheint es einen Wettstreit der Vorbildlichkeit zu geben. Der Landtag von NRW hat im Januar 2013 das erste deutsche Klimaschutzgesetz mit verbindlichen Zielen verabschiedet, NRW will damit „Vorreiter des Klimaschutzes in Deutschland“ werden, Brandenburg schmückt sich mit dem Leitstern, dem „Bundesländerpreis für Erneuerbare Energien“. Horst Seehofer will Bayern zum „Vorzeigeland für das postfossile Zeitalter“ machen. Was treibt die Politiker an? Der Kampf um moralisches Musterknabentum? Oder um Subventionen? Oder glauben sie wirklich, zu Prosperität oder zur Rettung der Welt beizutragen?

Solche Dinge gewinnen eine manchmal sehr merkwürdige Eigendynamik. Wenn der Anteil derer, die etwas stark befürworten, eine bestimmte Schwelle überschritten hat, dann fällt es Politikern – und übrigens auch Journalisten – sehr schwer, der Versuchung zu widerstehen, auf den fahrenden Zug zu springen und sich dafür feiern zu lassen, dass man ihn dabei auch noch ein bisschen anschiebt. Das funktioniert sowohl bei allgemeiner Zustimmung (alle wollen die Energiewende) als auch bei allgemeiner Ablehnung (niemand will die Atomenergie). Sie finden heute keinen Politiker und fast keinen Journalisten, der sich traut, gegen die Energiewende und für die Nutzung der Kernkraft einzutreten. Was nicht bedeutet, dass es niemanden gibt, der genau das für vernünftig hält. Warum auch, schließlich ist es genau das, was die meisten anderen Länder tun.

Wie lassen sich die Kosten für die Energiewende abschätzen? Inwieweit sind die Erneuerbaren für den Strompreisanstieg der letzten Jahre verantwortlich?

Eine halbwegs verlässliche Abschätzung der Kosten der Energiewende ist zum gegenwärtigen Zeitpunkt nicht möglich. Dazu sind die Unsicherheiten zu groß. Alle bisher vorliegenden Schätzungen gehen von mehr oder weniger unrealistischen und sehr optimistischen Prämissen aus. Dennoch zeichnet sich bereits ab, dass es sehr teuer werden könnte. Wir müssen uns klarmachen, dass wir einen Totalumbau unseres Energiesystems brauchen, um die Stromversorgung zu 80 Prozent aus Erneuerbaren zu sichern. Wind und Sonne richten sich nicht nach der Stromnachfrage und die Speicherung großer Energiemengen zu halbwegs vertretbaren Kosten ist noch in weiter Ferne. Wir müssen deshalb mit sehr großem Aufwand dafür sorgen, dass es möglich wird, bei stark fluktuierender Einspeisung die Netzspannung konstant zu halten und die Leistung der Nachfrage anzupassen. Das wird sehr schwierig und sehr teuer. Die Tatsache, dass wir inzwischen die zweithöchsten Strompreise in Europa haben, ist zu einem erheblichen Teil darauf zurückzuführen, dass wir den Erneuerbaren so viel Raum geben. Es ist nicht davon auszugehen, dass es in Zukunft billiger wird. Beispielsweise zeigt sich immer deutlicher, dass Offshore-Anlagen viel teurer sein werden als bisher gedacht. Ohne Offshore ist aber gar nicht daran zu denken, dass das Ausbauziel der Erneuerbaren erreicht werden könnte.

Wie sieht es bei den Arbeitsplätzen aus? Kann sich die Energiewende wirklich zur Jobmaschine entwickeln?

Bemerkenswerterweise werden von den Verfechtern der Energiewende einfach die Arbeitsplätze gezählt, die im Bereich der Erneuerbaren entstanden sind. So kommt man auf erhebliche Zahlen und damit begründet man die Überlegung, dass es sinnvoll sei, diesen Sektor zu stärken. Leider macht man dabei einen folgenschweren Fehler. Man vergisst nämlich, die Arbeitsplatzverluste abzuziehen, die an anderer Stelle durch die Investitionen in Erneuerbare entstehen. Durch den staatlichen Eingriff werden Investitionen in Bereiche gelenkt, in denen sonst keine stattfänden. Diese Investitionen fehlen dann aber an anderer Stelle. Dazu kommt, dass wir für die Vermeidung von CO2 viel zu viel bezahlen. Eine Tonne CO2-Vermeidung durch Photovoltaik kostet etwa 500 Euro. Im konventionellen Kraftwerkebereich liegen die Kosten bei einem Hundertstel dieses Wertes. Die 495 Euro, die wir zu viel zahlen, fehlen an anderer Stelle als Nachfrage. Auch das hat Arbeitsplatzeffekte. Dazu kommt, dass die höheren Strompreise natürlich ebenfalls negative Effekte haben. Zieht man alle diese „Kosten“ von den Bruttoarbeitsplatzzahlen ab, erhält man den Nettoeffekt, und ob der noch positiv ist, kann man sehr stark bezweifeln. Ein weiterer Punkt kommt hinzu. Im Sektor der Erneuerbaren braucht man vor allem hoch qualifizierte Arbeitskräfte aus dem technischen Bereich. Also genau die Arbeitskräfte, die in der restlichen Industrie schon heute Mangelware sind und in Zukunft erst recht eine solche sein werden. Durch die hohen Subventionen wird der Arbeitsmarkt in einer sehr schädlichen Weise verzerrt. Hoch qualifizierte Arbeit wird nicht dorthin gelenkt, wo sie die höchste Produktivität entfaltet, sondern dorthin, wo es die meisten Subventionen gibt. Vergisst man, alle diese negativen Auswirkungen in Rechnung zu stellen und zählt nur die Bruttoarbeitsplätze und die Bruttoinvestitionen, dann ist das ungefähr so, als verwechsele ein Kaufmann Umsatz mit Gewinn. Es ist schon interessant, dass Roland Berger in seiner „Green Economy Studie“, die er für das Bundesumweltministerium angefertigt hat, genau das tut. Genauso interessant ist, dass das Ministerium eine solche Studie an einen Unternehmensberater vergibt und nicht etwa an ein unabhängiges wirtschaftswissenschaftliches Forschungsinstitut, von denen es genug in Deutschland gibt.

Ein deutsches Spezifikum der Energiewende ist ja, dass gleichzeitig auf fossile Energieträger und auf CO2-freie Atomkraft verzichtet werden soll. Welche Bedeutung hat das komplette Ausblenden der Kernenergie?

Es macht alles deutlich komplizierter und teurer. Atomkraftwerke laufen in der Grundlast. Die Erneuerbaren sind bisher nicht grundlastfähig. Allein daraus ergibt sich bereits ein Problem, denn Braunkohle, die ansonsten in der Grundlast verwendet wird, kommt ja als Ersatz nicht in Frage. Man sollte sich übrigens nicht davon blenden lassen, dass es immer wieder Jubelmeldungen gibt, dass an bestimmten, windreichen Sonnentagen die Erneuerbaren bereits soundso viele Atomkraftwerke ersetzt haben. Es geht nicht darum, diese Kraftwerke an bestimmten Tagen zu ersetzen, sondern an 365 Tagen zu jeweils 24 Stunden! Dafür braucht man ein Vielfaches der bisher vorhandenen Kapazitäten an erneuerbarer Energie und die muss auch noch so verteilt sein, dass sie immer die Atomkraftwerke ersetzen kann, ganz gleich wie stark und wo der Wind bläst!

Allerdings muss man zwei Dinge feststellen. Erstens: Solange bis zu 80 Prozent der Bevölkerung die Atomtechnik ablehnen, muss die Politik sich diesem Willen beugen und aussteigen. Zweitens, der Ausstieg aus der Atomenergie bedeutet nicht, dass man eine Energiewende fahren muss, wie sie die Bundesregierung ausgerufen hat. Das ginge auch deutlich einfacher und ohne die enormen Risiken, die uns aus Gründen der politischen Opportunität auferlegt werden.

Mit welchen negativen Auswirkungen der Energiewende müssen wir rechnen?

Eine offensichtliche Folge wird sein, dass Energie immer teurer werden wird. Man kann nicht auf der einen Seite das Ziel verfolgen, den Stromverbrauch um 20 Prozent zu senken und auf der anderen Seite den Strompreis konstant halten. Dazu kommt, dass der Umbau des Energiesystems per se sehr teuer werden wird. Es ist auch zu befürchten, dass die Versorgungssicherheit, die wir bisher als selbstverständlich hingenommen haben, in Gefahr gerät. Es kann sein, dass es zu Blackouts wegen Überlastung oder wegen mangelnder Kapazitäten bei Spitzenlast kommt. Schließlich kann es passieren, dass unsere Wettbewerbsposition leidet. Schon jetzt zeichnet sich ab, dass die USA einen erheblichen Standortvorteil aus der Gas- und Ölschwemme haben, die sich dort entwickelt. Jedenfalls machen sich schon heute viele energieintensive Unternehmen auf den Weg in die USA. Wir werden den Nachteil hoher Energiekosten nicht durch Export von Energietechnik kompensieren können, denn wie das Beispiel der Solarbrache zeigt, können reife Technologien (und bei Wind und Sonnenkraftwerken handelt es sich teilweise schon jetzt darum) in anderen Teilen der Erde kostengünstiger hergestellt werden als bei uns. Wir fahren unsere Exporterfolge durch Innovationen ein, aber die fördern wir mit dem EEG ja nicht, denn das EEG subventioniert nur den Einbau vorhandener Technik. Insgesamt steht einem ökologischen Scheingewinn des EEGs damit ein erheblicher ökonomischer Schaden gegenüber.

Angenommen, es herrschte Einigkeit, dass CO2-Vermeidung wichtig und richtig ist. Wie könnte dann eine sinnvolle Strategie zur Senkung von globalen CO2-Emissionen aussehen?

Inzwischen glaubt kaum noch jemand daran, dass die großen Klimakonferenzen, die wir jährlich veranstalten, jemals einen Erfolg bringen könnten. Das war auch nie zu erwarten. Die Zahl der Verhandlungsteilnehmer ist zu groß und die Interessen zu heterogen, als dass man eine große Lösung erwarten könnte. Der einzige Weg, der nach meinem Eindruck Aussicht auf Erfolg verspräche, besteht darin, ausgehend von dem europäischen Emissionshandel sukzessive zu versuchen, die Anzahl der am Handel teilnehmenden Länder zu vergrößern. Also statt eines Top-down-Ansatzes einen Bottom-up-Ansatz, bei dem Verhandlungen mit einzelnen Ländern geführt werden, mit denen die Bedingungen einer Beteiligung am Handel auszuhandeln sind. Das würde nur gehen, wenn die reichen Länder dazu bereit wären, die armen Länder zu kompensieren. Beispielsweise könnte dies über die Zuweisung von Emissionsrechten geschehen, die die Industrieländer den Entwicklungsländern abkaufen müssten, wenn sie ihre Emissionen decken wollen. Mit anderen Worten, wir müssten dazu bereit sein, andere Länder für ihre Vermeidungsanstrengungen zu bezahlen. Ein erster Schritt könnte eine Fusion des EU-Handels mit den Handelssystemen in Australien und Kalifornien sein. Wie auch immer: Unter den Ökonomen gibt es einen sehr weitgehenden Konsens darüber, dass nur ein globales Emissionshandelssystem eine vernünftige Lösung des Problems wäre.

Sie haben Ihre Einschätzung im letzten Jahr im Auftrag der Enquete-Kommission „Wachstum, Wohlstand, Lebensqualität – Wege zu nachhaltigem Wirtschaften und gesellschaftlichem Fortschritt in der Sozialen Marktwirtschaft“ zusammengefasst. Haben Sie den Eindruck, dass die Argumente zu einem Umdenken führen?

Um ehrlich zu sein, habe ich den Eindruck, dass die meisten Mitglieder der Unterkommission, in der ich meine Expertise vortragen durfte, diese überhaupt nicht zur Kenntnis genommen haben. Jedenfalls hinterließ die Diskussion, die nach meiner Präsentation geführt wurde, diesen Eindruck. Die mündliche Vorstellung der Expertise fand übrigens unter sehr merkwürdigen Bedingungen statt. Der Vortrag wurde kurzfristig in einen viel zu kleinen Raum verlegt und es gab eine strikte Redezeitbegrenzung, die es unmöglich machte, auch nur die wichtigsten Argumente so vorzustellen, dass sie jemand nachvollziehen konnte, der die Expertise nicht gelesen hatte. Einige Tage nach der Präsentation in Berlin haben sich einzelne Abgeordnete bei mir gemeldet und sich für die Art und Weise, wie mit mir umgegangen wurde, entschuldigt. Das wäre nicht nötig gewesen, aber es war einfach schon sehr klar, dass meine Argumente der Mehrheit der Kommissionsmitglieder nicht willkommen waren und deshalb (erfolgreich) der Versuch unternommen wurde, sie gar nicht erst zur Kenntnis zu bringen. Das sagt viel über das Demokratieverständnis unserer Parlamentarier.

Prof. Joachim Weimann lehrt und forscht an der Fakultät für Wirtschaftswissenschaft der Otto-von-Guericke-Universität in Magdeburg. Zuletzt erschien von ihm gemeinsam mit Andreas Knabe und Ronnie Schöb Geld macht doch glücklich: Wo die ökonomische Glücksforschung irrt (Schäffer-Poeschel 2012, S. 214, EUR 29,95).

Verwandte Artikel

Fred F. Mueller: Energiewende: Durchwursteln bis zum Crash
Gerd Ganteför: Energiewende: Zu langsam und zu teuer
Heinz Horeis: Energiewende: Im Spargang an die Wand

Mit Dank übernommen von NOVO Argumente




Die Klimakatastrophe von 1986 und was daraus wurde Ein kritischer Rückblick zum Klimawandel

Vor fast 28 Jahren (im Januar 1986) gab die Deutsche Physikalische Gesellschaft in einer Pressekonferenz in Bonn eine alarmierende „Warnung vor einer drohenden  Klimakatastrophe“ heraus. Verantwortlich dafür machte die DPG den offensichtlich steigenden Anteil an Kohlendioxid und anderen Spurengasen in der Atmosphäre. Tatsächlich zeigten zwei Kurven, die des CO2 und die der Lufttemperatur, einen parallelen Anstieg seit Beginn der CO2-Messungen 1958 auf dem Mauna Loa (Hawaii). Eine statistisch signifikante Korrelation wurde unter fahrlässiger Missachtung statistischer Grundregeln für einen Kausalzusammenhang gehalten. Korrelation und Kausalität betrachtet der Statistiker allerdings immer mit äußerster Vorsicht, was aber hier ignoriert wurde.  Die DPG verfolgte mit dieser Kampagne noch ein anderes Ziel: Die in dieser Zeit heftig umstrittene Kernenergie, deren fehlende Akzeptanz sich in öffentlichen Krawallen und heftigen Protestdemonstrationen in den 1980er Jahren zeigte, sollte ein positiveres Image bekommen, sind die Kernkraftwerke doch offenkundig CO2-frei.

Schon 1987 wurden dann Grafiken (Abb. 1) veröffentlicht, die – ausgehend von einem steigenden CO2-Gehalt – einen resultierenden Temperaturanstieg um etwa 6°C bis zum Jahre 2100 dramatisch vorführen sollten. Dieser in Deutschland angezettelte Klimaalarm schlug zuerst in den USA hohe Wellen. Im politischen Umfeld der Vereinten Nationen wurde schon im darauffolgenden Jahr 1988 der Weltklimarat (IPCC, Intergovernmental Panel on Climate Change) ins Leben gerufen.

Mit großem finanziellen Aufwand initiierte der Weltklimarat ein Klimaforschungsprogramm, das weltweit mit den größten verfügbaren Rechnern Computermodellierungen zur Simulation einer künftigen Klimaentwicklung auf den Weg bringen sollte. Die in den folgenden Jahren publizierten Klimaszenarien zeigten dann erstaunlicherweise eine unglaublich gute Übereinstimmung mit der historischen Grafik von 1987 (Abb. 1). Selbst die heute aktuellen Klimamodelle erfüllen immer noch die damals postulierten Erwärmungseffekte.

 

Abb. 1:   Historische Grafik aus dem Jahre 1987 zum damals erwarteten Temperaturanstieg. Die Realität (grün) entwickelte sich jedoch anders (ergänzt nach KIRSTEIN).

Auch in Deutschland etablierte sich eine Klima- und Klimafolgenforschung mit starker politischer (und finanzieller) Unterstützung. Auf der Grundlage einer politisch angestoßenen Enquete-Kommission des 11. Deutschen Bundestages „Vorsorge zum Schutz der Erdatmosphäre“1 wurde dann eine Lawine von Forschungsprogrammen ins Rollen gebracht. Zahlreichen Forschungsinstituten in aller Welt wurden in immer größerem Umfang Fördermittel bewilligt, die thematisch im direkten oder mittelbaren Arbeitsfeld einer theoretisch möglichen, anthropogenen Erderwärmung standen.

Damals gab es zunächst wenige Kritiker zu dieser Forschungsrichtung. Einige Jahre später wurden aber zunehmend kritische Äußerungen bekannt, zunächst von Insidern des IPCC. Zum Beispiel schrieb Hartmut Bachmann2, der von Anfang an dem IPCC sehr nahe stand, das Buch: „Die Lüge der Klimakatastrophe“. Die zentrale Frage in seinem Buch lautet: „Cui bono?“ Auf der Grundlage seiner umfangreichen Erfahrungen beim IPCC berichtet er über kriminelle Machenschaften und Manipulationen zur Erzeugung von Angst als Machtmittel. Er zitiert wörtlich einige Vertreter des IPCC: „Um Aufmerksamkeit zu erregen brauchen wir dramatische Statements und keine Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er eher ehrlich oder eher effektiv sein will.“ Oder: „Unless we announce desasters, nobody will listen.“ Diese zutiefst unwissenschaftliche Konzeption, die die mehr politische als wissenschaftliche Tätigkeit des IPCC offenlegte, hat dann auch andere Wissenschaftler bewogen, den Weltklimarat wieder zu verlassen. Vincent Gray3, ehemaliger Expert Reviewer des IPCC, stellte Mitte 2008 fest, dass der Weltklimarat grundsätzlich korrupt sei und daher abgeschafft werden sollte. Und weiter: Dass die Erde durch Kohlendioxid-Emissionen aufgewärmt würde, sei „tödlich“ fehlerhaft. Als weiteres Beispiel sei hier noch der der schwedische Ozeanograph Nils Axel Mörner4 erwähnt. Er war von 2000 bis 2007 beim IPCC Hauptberichterstatter für den Meeresspiegel-Anstieg. Er leitet seit Jahren das Stockholmer Institut für Paläogeowissenschaften. Nach seinem Ausscheiden beim IPCC setzte er sich in einem Interview sehr kritisch mit der beim IPCC geführten Meeresspiegel-Betrachtung auseinander: „I have been the expert reviewer for the IPCC, both in 2000 and last year (2007). The first time I read it, I was exceptionally surprised. First of all, it had 22 authors, but none of them were sea-level specialists…” „If you go around the globe, you find no rise anywhere. But they (IPCC) need the rise.“ – Ein vernichtendes Urteil eines IPCC-Insiders zu allen Überflutungs-Szenarien und letztlich auch zur Arbeitsweise des IPCC.

Auf der anderen Seite sind einige Institute bis heute immer noch der Meinung, der Mensch sei mit seinen CO2-Emissionen tatsächlich verantwortlich für einen eventuellen zukünftigen Temperaturanstieg, obwohl der britische meteorologische Dienst (UK MetOffice)5 erst Anfang 2013 bekanntgab, dass es seit etwa 16 Jahren keine Erderwärmung mehr gibt. Der Deutsche Klimaforscher Hans von Storch, der immer den menschgemachten Klimawandel propagiert hatte, kommt in einem Spiegel-Interview6 zu dem überrachenden Schluss, dass die Modelle die gegenwärtige Temperaturentwicklung nicht erklären können und die Klimawissenschaft vor einem Rätsel steht: „Wenn das so weitergehen sollte, müssten wir uns spätestens in fünf Jahren eingestehen, dass mit den Klimamodellen etwas fundamental nicht stimmt. Ein Erwärmungsstopp, der 20 Jahre andauert, kommt in keinem einzigen Szenario vor. Aber bereits heute passt der reale Temperaturtrend nur noch schwer zu unseren Erwartungen.“

Dieser fundamentale Fehler in den Modellen könnte darin bestehen, dass bislang vorrangig immer die steigende Kohlendioxidkonzentration als Motor einer vorhergesagten Erderwärmung angenommen wird. Dies mag auf den ersten Blick auch plausibel erscheinen, wenn  die Ergebnisse der Vostok-Eisbohrkerne (Antarktis) mit einer zu groben Zeitskala wie bei Petit7 betrachtet werden (Abb. 2). Die Parallelität der beiden Kurven verleitet auch zunächst zu der Annahme einer „kausalen“ Abhängigkeit der Lufttemperatur vom atmosphärischen CO2-Gehalt.

 

Abb. 2:   Die Vostok-Eisbohrkerne zeigten einen zunächst falsch gedeuteten Zusammenhang zwischen CO2-Konzentration und Lufttemperatur (nach Petit, 1999)7 

Aber nur wenige Jahre später stellte sich dieser „Beweis“ als grundlegend falsch heraus. Bei Analysen mit genauerer zeitlicher Auflösung wurde klar: Die sich ändernde Kohlendioxidkonzentration folgt mit einer zeitlichen „Verspätung“ bzw. Phasenverschiebung von rund 800 Jahren dem Temperatursignal  (z.B. Mudelsee8). Damit war die bisherige Annahme von der Erderwärmung als Reaktion auf zunehmende CO2-Konzentrationen hinfällig. Umgekehrt: Erst durch die natürlichen pleistozänen Temperaturänderungen wurden die Schwankungen der CO2-Variationen verursacht! Ein logisches Nachvollziehen dieses Umkehrschlusses liegt auf der Hand: Erst wenn die Temperaturen und damit die Meerestemperaturen in einer beginnenden Warmzeit langsam steigen, folgt ein allmähliches Ausgasen des Kohlendioxids aus den großen Ozeanen der Erde mit einer messbaren Verzögerung. Andererseits geht atmosphärisches CO2 beim Übergang in eine Kaltzeit langsam wieder in Lösung der großen Ozeanwassermengen. Für die Klimawandler war ein wichtiges Argument nicht nur verlorengegangen, sondern die Umkehrung der bisherigen Schlussfolgerung wurde nun auch noch erstaunlich plausibel.

Zudem haben sich viele Klimavorhersager in der Vergangenheit durch zahlreiche Aussagen zur globalen Klimaentwicklung absolut unglaubwürdig gemacht. Falschaussagen, die schon bald wieder zurückgenommen werden mussten, waren keine Seltenheit. So wurde zum Beispiel ein Abschmelzen der Himalaya-Gletscher für 2035 vorhergesagt. Auf massive Kritik indischer Wissenschaftler wurde dann ein „Zahlendreher“ eingestanden, der in einer „wissenschaftlichen“ Titelzeile wohl bislang nicht da gewesen ist: Es sollte angeblich 2350 heißen. Glaubt man diesen Irrtum, fragt es sich, welcher seriöse Wissenschaftler heute eine Prognose für genau dieses Jahr mit einem so weiten, aber exakten Zeithorizont trifft? Wem hilft eine solche Aussage?

Im Jahre 2010 deckten zwei US-Wissenschaftler Joseph D´Aleo und Anthony Watts9 auf, dass seit etwa 1990 sehr viele Stationen in ländlichen Regionen, Höhenlagen und in höherer geographischer Breite aus der statistischen Klimatrend-Analyse entfernt wurden. Damit bekam weltweit der Typ des wärmeren Stadtklimas ein weitaus größeres Gewicht. Die gewünschte globale Erwärmung konnte mit dieser spezifischen Stationsauswahl eindrucksvoller vorgeführt werden. Eine nicht nur für die Klimageographie unglaubliche Manipulation.

      

Abb. 3:   Um 1990 wird die Gesamtzahl der betrachteten Klimastationen insbesondere in ländlichen Zonen drastisch gesenkt. Im Ergebnis dominiert nun das Stadtklima und der Mittelwert der Temperatur steigt an.

Unabhängig davon hat das US-Goddard Institute for Space Studies (GISS) nachweislich bei vielen  Klimastationen weltweit einzelne oder eine Gruppe von Messwerten – im Internet dokumentiert -abgeändert. Mehrfach wurden Klimadaten seit 2012 geändert. F.-K. Ewert10 konnte in minuziöser wissenschaftlicher Detailarbeit zeigen, wie die bis 2010 aufgezeichneten Klimadaten von 120 Stationen ab 2012 geändert und verfälscht wiedergegeben wurden, um damit jetzt deutlichere Erwärmungseffekte vorzutäuschen.

Viele weitere Thesen, die die Klimakatastrophe bestätigen sollten, können hier nicht ausführlich vorgestellt werden, sondern nur zum Teil stichwortartig angerissen werden, wie z.B. das ständig sich wiederholende Vorrücken und Zurückweichen der Alpengletscher, die Halbwahrheit über den Rückgang der Eisbärenpopulation in der Arktis, die sich regelmäßig wiederholenden arktischen Polareisschwankungen, die angebliche Beeinflussung des Golfstroms und vieles mehr.

Auch in völlig anderen Klimazonen wird an falschen Vorstellungen vom Klimawandel ernsthaft festgehalten. Die Sahelzone gilt als Inbegriff für Desertifikation, Dürre, Wüstenausbreitung und Hunger. Der Amsterdamer Geograph Chris Reij11 räumt mit diesen populären Mythen einer Katastrophen-Region auf. Seit langer Zeit beobachtet und dokumentiert er die Zunahme der Vegetation im Sahel. Unverständlich bleibt für ihn das Festhalten zum Teil auch seriöser Institute und Kollegen an der Vorstellung von einer sich immer weiter ausdehnenden Trockenzone in der südlichen Sahara. Letzteres verbreiten (wider besseres Wissen?) nach wie vor viele Mainstream-Medien, die immer gerne für Katastrophenszenarien offen sind.

Der Schwerpunkt des Klimaalarmismus wurde wegen des Endes der Erderwärmung vor ca. 16 Jahren nunmehr auf extreme Wetterereignisse „verlegt“. Jedoch muss daran erinnert werden, dass das Klima sich immer aus summierten und gemittelten Wetterabläufen zusammensetzt. Das Wetter wird real in der Natur beobachtet und aufgezeichnet. Das daraus ermittelte Klima ist ein statistischer Rechenwert. Da es keine Wetterdaten für die Zukunft geben kann, bleibt der prognostizierte anthropogene Klimawandel immer noch ein Produkt von Modellrechnungen bzw. Computersimulationen. Schon immer gab es lokal auftretende mehr oder weniger extreme Wetterereignisse. Diese extremen Phänomene können grundsätzlich nicht von Rechnersimulationen prognostiziert werden. Daher können sie praktisch auch nicht beweiskräftig mit theoretisch möglichen Klimaentwicklungen in Verbindung stehen.

In diesem Zusammenhang ist noch auf ein wichtiges Faktum hinzuweisen. Der Weltklimarat stellte 2001 unmissverständlich fest: „In der Klimaforschung und -modellierung sollten wir erkennen, dass es sich um ein gekoppeltes nichtlineares chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“12

Fazit

Entgegen dieser eindeutigen und übrigens korrekten Feststellung warnt der Weltklimarat immer wieder, seit nunmehr 28 Jahren, vor einer drohenden Klimakatastrophe. Er handelt damit absolut im Sinne vieler Politiker im In-und Ausland. Der Grund ist die politisch überall gewollte Ankurbelung der wirtschaftlichen Konjunktur. Wirtschaftliche Entwicklung, Innovation mit CO2-armen  Technologien und neue Arbeitsplätze stellt die Wirtschaftpolitik immer in ein positives Licht. Dieses politische Kalkül wird beim Bürger immer Zustimmung finden. Ob dahinter Fakten oder absolute Falschinformationen stehen, spielt für die Instrumente der Politik letztlich keine Rolle. Die zahlreichen Manipulationen an historischen Klimadaten, die die Klimakatastrophe verstärken sollen, sind nicht wissenschaftlich motiviert.

So steht im jüngsten Bericht des IPCC13  (vom September 2013) nicht mehr die Erderwärmung im Vordergrund. Sie soll neuerlich mindestens 0,3 °C betragen bis 2100 – welch ein Hohn! Die Zunahme war in historischer und prähistorischer Zeit – auch kurzfristig – wesentlich höher ohne Einfluss des Menschen. Dramatischer wird aber im neuen IPCC-Bericht der vorhergesagte globale Meeresspiegelanstieg vorgeführt. Dieser soll in den Köpfen der Menschen mit örtlich immer wieder auftretendem Hochwasser vermengt werden. Ein langsamer Anstieg des Meeresspiegels entzieht sich aber einer unmittelbaren Überprüfung und Kontrolle durch den Laien. Auch viele fachfremde Wissenschaftler werden de facto so wieder auf den Weg des Glaubens verwiesen.

 

Literatur

1   Schutz der Erdatmosphäre: Eine internationale Herausforderung (Hrsg.: Dt. Bundestag, Referat Öffentlichkeitsarbeit), Bonn 1988.

2   Bachmann, Hartmut: Die Lüge der Klimakatastrophe und wie der Staat uns ausbeutet. Manipulierte Angst als Mittel zur Macht, 6. Auflage 2010

3     Gray, Vincent: Spinning the Climate: The Intergovernmental Panel On Climate Change (IPCC), (Juni 2008), SPPI: Science & Public Policy Institute, Reprint Series, May 20, 2013

4    Mörner, N.-A.: Meereshöhe Variabilität. Z. Geomorph. NF, Suppl.-Bd., 102, 223-232. 1995

5   http://www.dailymail.co.uk/sciencetech/article-2217286/Global-warming-stopped-16-years-ago-reveals-Met-Office-report-quietly-released–chart-prove-it.html#ixzz2HwerljVw

6     SPIEGEL-GESPRÄCH mit Hans von Storch vom 17.06.2013: „Wir stehen vor einem Rätsel“
7     Petit, J.R. et al.: Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica, Nature (1999) 399: 429-436

8     Mudelsee, M.: The phase relations among atmospheric CO2 content, temperature and global ice volume over the past 420 ka. Quaternary Science Reviews (2001) 20: 583-589.

9     Joseph D´Aleo and Anthony Watts: „Surface Temperature Records: Policy Driven Deception?“   Science & Public Policy Institute, 26. Jan. 2010

10   Ewert, F.-K.: Langzeit-Temperaturreihen widerlegen menschengemachten Klimawandel. Fusion 32, 2011, Nr. 3, S.31- 61, 29 Abb., 14 Tab. oder

     http: //www.eike-klima-energie.eu/uploads/media/EW_GISS_2010_Teil_1_Deu.pdf

11   Reij, Chris im Internetvideo: “Die Wüste lebt: Katastrophengebiet Sahelzone ergrünt“, vom 23.04.2009.

12   Intergovernmental Panel on Climate Change (IPCC) Third Assessment Report, 2001, Section 14.2.2.2, p 77.

13   Intergovernmental Panel on Climate Change (IPCC): UN-Klimabericht vom 27. September 2013.

Der Autor:

Prof. Dr. Werner Kirstein, Hochschullehrer i.R., war bis 2011 an der Universität Leipzig am Institut für Geographie tätig. Neben Arbeiten in der Fernerkundung und Geoinformatik in Forschung und Lehre war ein langjähriger Schwerpunkt die Klimageographie. Die Themen der Promotionsarbeit (1981) und der Habilitationsschrift (1991) lagen im Arbeitsbereich der globalen bzw. kontinentalen Klimavariabilität.




Klaus-Eckart Puls EIKE: CO2 – Gift oder Lebenselixier?

Nur in  Klimamodellen wird ein dominanter Einfluß des anthropogenen CO2 angenommen und in Szenarien öffentlich zu "Vorhersagen" hoch stilisiert. Im Gegensatz dazu hat sich mittlerweile heraus gestellt: Die Natur macht ganz was anderes. Keines dieser Modelle hat den Stillstand der globalen Mitteltemperatur über die letzten 15 bis 17 Jahre vorhergesagt, obwohl die CO2 Konzentration in dieser Zeit stetig mit ca. 2 ppm/Jahr anstieg. Der Erde kam dieser Anstieg aber zugute, denn sie ist nach Satelliten-Auswertungen der NASA in den vergangenen 20 Jahren insgesamt deutlich grüner geworden. Auch ist CO2 ist ein ausgezeichneter "Pflanzen-Dünger", wie die im Vortrag zitierten Untersuchungen im Freiland und in Gewächs-Häusern beweisen.

Video des Vortrages von Klaus Puls anlässlich des 1. Hamburger Klima- und Energiegespräches am 14.6.13

Der Vortrag ist als pdf im Anhang herunterladbar

Related Files




Atlantische Hurrikan-Saison 2013: die ruhigste seit 45 Jahren

Bild rechts: US-Extremwetter-Index von der National Oceanic and Atmospheric Administration (NOAA) – National Climatic Data Center (NCDC)

Bislang jedoch war es US-Wetterexperten zufolge eine der schwächsten Saisons seit Beginn moderner Aufzeichnungen vor etwa einem halben Jahrhundert. Außer dem Tropischen Sturm Andrea, der das westliche Florida [the Florida Panhandle] im Juni betroffen hatte, hat keiner der diesjährigen Zyklone auf das US-Festland übergegriffen.

Jeff Masters, Hurrikan-Experte und meteorologischer Leiter bei Weather Underground, sagt: „Es war ein sehr merkwürdiges Jahr. Wir befanden uns in dieser multidekadischen Aktivitätsperiode, aber in diesem Jahr passierte gar nichts“. Damit bezog er sich auf die verlängerte Hurrikan-Saison seit 1995. „Dem National Hurricane Center NHC zufolge gab es zwei kurzlebige Hurrikane der Kategorie 1 in diesem Jahr, das heißt wir hatten die erste atlantische Hurrikan-Saison seit 1968 ohne einen Sturm, der sich über das erste Intensitätsniveau hinaus entwickelt hat.

Es war auch ein Jahr, das durch die geringste Zahl von Hurrikanen seit 1982 gekennzeichnet war und das erste Jahr seit 1994 ohne die Bildung eines großen Hurrikans“.

„Hinsichtlich der so genannten ‚Accumulated Cyclone Energy (ACE)‘, einer allgemein gebräuchliche Maßzahl für die Unwetterschäden während einer Saison, rangiert das Jahr 2013 an zehntschwächster Stelle seit Beginn des Satellitenzeitalters Mitte der sechziger Jahre“, sagte Dennis Feltgen, ein Sprecher des NHC in Miami. „Die ACE in diesem Jahr 2013 liegt bislang bei 33% des Normalwertes“.

Phil Klotzbach, Klimatologe an der Colorado State University, räumt bereitwillig ein, dass die Vorhersagen auf statistischen Modellen basieren, die „gelegentlich auch falsch liegen“, da die Atmosphäre chaotisch und Gegenstand von Fluktuationen ist, die nicht länger als ein oder zwei Wochen im Voraus vorhergesagt werden können.

Aber Klotzbach und andere Experten sagen, dass die Modelle sowie jahreszeitliche Vorhersagen dennoch nützliche Einsichten in so etwas Unvorhersagbares wie Extremwetterereignisse bieten, selbst wenn sie nicht jedes Mal zutreffend sind.

„Offensichtlich sollte man keine unterschiedlichen Planungen für eine bestimmte Saison vornehmen, die auf einer Jahreszeiten-Vorhersage basieren”, schrieb Klotzbach in einer E-Mail an Reuters. „Sie dienen einzig dazu, die Neugier der Öffentlichkeit zu stillen und basieren auf unserem Wissen, wie großräumige Klimafeatures die jahreszeitliche Verteilung tropischer Stürme beeinflussen“.

Obwohl die Saison mit einem Augenzwinkern endet, sagte Masters, sind es langfristige Vorhersagen immer noch wert, auf sie zu bauen. „Sie sind sinnvoll, solange man die Grenzen der Vorhersagbarkeit dieser Modelle versteht“, sagte Masters gegenüber Reuters.

„Man erwartet, dass es Ausnahme-Jahre gibt wie dieses Jahr. Das ist Teil des Ganzen“, sagte er. „Aber wenn man konsequent verfolgt, wie sie sich machen, werden sie sich möglicherweise langfristig auszahlen“.

Zum Vergleich: Hier folgt eine Graphik mit der ACE von 1971 bis zur Gegenwart:

Ryan N. Maue PhD – PoliClimate.com – Click the pic to view at source

Häufigkeit tropischer Zyklone von 1971 bis zur Gegenwart:

Ryan N. Maue PhD – PoliClimate.com – Click the pic to view at source

Globale Häufigkeit von Hurrikanen 1978 bis zur Gegenwart:

Ryan N. Maue PhD – PoliClimate.com – Click the pic to view at source

US-Hurrikane 1851 – 2010:

National Oceanic and Atmospheric Administration (NOAA) – Atlantic Oceanographic and Meteorological Laboratory – (AOML) – Click the pic to view at source

…und Tropische Zyklone in der Region Australien von 1970 bis 2011 (dort wird ein tropischer Zyklon als „schwer“ klassifiziert, wenn sein Kerndruck unter 970 hPa liegt):

Australian Bureau of Meteorology (BOM) – Click the pic to view at source

Summa summarum – ich glaube nicht, dass wir uns anschnallen müssen für diese Hurrikane der Kategorie 6:

Schaut man auf den Supersturm SANDY am 29. Oktober, lag die Wassertemperatur östlich von New Jersey 9°F [ca. 4,5°C] über dem Mittelwert. Darum hat dieser Sturm so viel Energie getankt. Darum hat er so viel Wasserdampf aufgenommen. Hätte es auch ohne das einen Sturm gegeben? Vielleicht. Würde es Hurrikane und Überschwemmungen und Dürren auch ohne die vom Menschen verursachte globale Erwärmung geben? Natürlich! Aber jetzt sind sie stärker. Die Extremereignisse sind noch extremer. Die Hurrikan-Skala rangierte bisher zwischen 1 und 5, und jetzt wird eine Kategorie 6 hinzugefügt. Der Fingerabdruck der anthropogenen Erwärmung liegt auf allen diesen Stürmen und Extremereignissen. Al Gore – Washington Post

Mehr Informationen über Meereis und Zyklone gibt es hier: WUWT Tropical Cyclone Page und WUWT “Extreme Weather” Page.

Link: http://wattsupwiththat.com/2013/10/26/atlantic-hurricane-season-quietest-in-45-years/

Übersetzt von Chris Frey EIKE




SPON’s Logbuch der Bekloppten und Bescheuerten

Der verantwortliche SPON-Redakteur Stefan Schultz hat in seinem Beitrag (hier) immerhin begriffen, dass Wind und Sonnenstrom den Launen der Natur gehorchen müssen und daher zu oft ausbleiben. Das war es dann aber auch schon. Seine logisch klingende, aber leider unrealistische Schlussfolgerung besteht darin, dass der notwendige Ersatzstrom durch geeignete Lieferverträge mit Stromlieferanten garantiert werden könne. Er drückt dies so aus: „Das fundamentale Prinzip der deutschen Stromversorgung lautet: Jeder Kunde hat einen Lieferanten, und dieser muss liefern – egal, was kommt. So steht es in der Stromnetzzugangsverordnung“. Weiter folgert er: „Überwacht wird diese Pflicht über einen sogenannten Bilanzkreis, ähnlich einem Bankkonto. Liefert der Verantwortliche für den Bilanzkreis zu wenig Strom, rutscht sein Konto ins Minus. Dann gibt der Netzbetreiber Kredit: sogenannte Regelenergie. Spätestens nach einer Viertelstunde muss der Anbieter sein Konto wieder ausgleichen. Dazu kann er die Elektrizität selbst produzieren oder irgendwo einkaufen. Ein Versorger kann also so viele Kraftwerke abschalten, wie er will – solange er am Markt genug Strom kaufen kann. Sollten viele Kraftwerke abgeschaltet werden, würde Strom teuer. Die verbleibenden Kraftwerke würden wieder profitabel.

Dunnerlittchen, nun hat uns einer die ultimative Lösung verraten. Nur schade, dass die Wirklichkeit diesen sachlich absurden Vorstellungen beim besten Willen nicht folgen kann. Freilich darf man fairerweise von einem Redakteur, dessen akademischer Hintergrund das Studium der „Medienkultur“, Politik und britischen Literatur ist (hier), nicht mehr erwarten. Man kann aber vom SPON einfordern, dass er fachfremde und nicht einmal einer ordentlichen Recherche kundige Mitarbeiter keine Artikel schreiben lässt, die sie fachlich überfordern. So nämlich blamieren sich SPON und Redakteur gleichermaßen. Der Autor hätte lieber von Herrn S. Schultz etwas über die na sagen wir mal Metaphysik Hamlets unter Berücksichtigung der "politischen Medienkultur" im 17. Jahrhundert erfahren. Mit einem Bericht über die Energiewendeproblematik lag er etwas daneben – um es höflich auszudrücken.

Tatsächlich ist das Problem des Ersatzstroms nicht wirtschaftlicher sondern weit überwiegend technischer Natur. Dieses Faktum, das sich jedem Einsichtigen schon nach kurzer Recherche erschließt, ist Herrn S. Schultz entgangen. Die sich aus Naturgesetzen und technischen Regeln ergebenden Probleme der Energiewende lassen sich dummerweise weder mit Verträgen noch mit politischen Zwangsmaßnahmen lösen. Kurz, Herr S. Schultz hätte sich vielleicht doch besser vorher informiert. Danach hätte er als der Medienkultur kundiger Kopf das Verfassen seines Artikels vermutlich unterlassen.

Eine gute Quelle der Information ist beispielsweise die deutsche physikalische Gesellschaft (DPG) in „physik konkret“ (hier). Dort ist nachfolgend zu lesen (hier), verfasst von Prof. Konrad Kleinknecht, einem ehemaligen Vorstandsmitglied der DPG und Beauftragten der DPG für „Energie“:

————- Beginn des Beitrags von K. Kleinknecht (DPG) ——————–

Speicherung der elektrischen Energie

Elektrischer Strom muss in dem Augenblick verwendet werden, in dem er erzeugt wird. Es gibt einen Bedarf, der rund um die Uhr benötigt wird (Grundlast), einen regelmäßig auftretenden zeitlich variablen Bedarf (Mittellast) und einen plötzlich nachgefragten Spitzenbedarf. Die Grundlast wird derzeit durch Braunkohle- und Kernkraftwerke abgedeckt, die Mittellast durch Steinkohlekraftwerke und die Spitzenlast durch schnell steuerbare Gaskraftwerke.

Neue fluktuierende Stromquellen

Durch die neuen Stromquellen Windkraft und Photovoltaik (PV) ändern sich die Verhältnisse. Die Abbildung rechts zeigt stellvertretend den zeitlichen Verlauf der Einspeisung von Solar- und Windstrom für den März 2012. Die erbrachte Leistung fluktuiert sowohl täglich als auch saisonal. Windkraftwerke lieferten im Jahr 2012 ihre volle Nennleistung nur während durchschnittlich 4,6 Stunden am Tag und Photovoltaik-Solarzellen während 2,3 Stunden am Tag. Andererseits muss der Strom aus diesen Quellen wegen des EEG-Gesetzes prioritär abgenommen werden. Die konventionellen Kraftwerke müssen heruntergefahren werden, wenn die Sonne scheint oder der Wind bläst, und anschließend wieder hochgefahren werden. Das verringert ihre Effizienz und Rentabilität. Da die Erzeugung des Stroms aus Wind-und Solarenergie nicht mit dem zeitlichen Verlauf des Bedarfs übereinstimmt, wäre es sinnvoll, die überschüssige elektrische Energie wenigstens für die Dauer eines Tages zu speichern.
Die elektrische Energie aus Windkraft betrug im Jahr 2012 ca. 50.000 GWh, die aus Photovoltaik ca. 24.000 GWh [1]. An einem Tag fallen also durchschnittlich 137 GWh Windenergie und 66 GWh Solarenergie an. Wenn diese Energie zum Zeitpunkt der Erzeugung nicht gebraucht werden kann, muss sie gespeichert werden, oder die Anlagen müssen abgeschaltet werden. Eine weitere Möglichkeit ist es, den Überschuss an die Nachbarländer zu verschenken oder dafür sogar eine Gebühr zu bezahlen.

Speicherung der elektrischen Energie aus Solar- und Windkraftanlagen

Elektrischer Strom kann mit hoher Effizienz zurzeit nur in Pumpspeicherkraftwerken gespeichert werden. Die Speicherkapazität aller Anlagen in Sachsen, Bayern und im Schwarzwald beträgt 40 GWh [2], reicht also nur aus, um ein Fünftel des Tagesertrags aus Wind und Sonne zu speichern. Dieses Szenario setzt voraus, dass die nötigen neuen Übertragungsleitungen von Nord nach Süd schon gebaut sind, um die Energie der Windkraftanlagen im Norden zu den Speichern im Süden zu bringen. Dies wird einige Jahre Bauzeit erfordern. Der Ausbau der Speicher im Süden hätte also höchste Priorität, stößt allerdings z. B. beim Ausbau des Schluchseekraftwerks bei Atdorf auf den Widerstand der Anwohner.

Als alternative zukünftige Speichermöglichkeit wird die Elektrolyse von Wasser und die Umwandlung des erzeugten Wasserstoffs zu Methan sowie dessen Verbrennung in einem Gaskraftwerk diskutiert. Diese Methode („power-to-gas-to-power“) erlaubt die Speicherung des Methangases im existierenden Rohrleitungssystem, ist allerdings sehr ineffizient; nur ein Drittel der eingesetzten Windkraftenergie steht am Ende als Elektrizität wieder zur Verfügung [3]. Die technische Umsetzung steckt noch in den Kinderschuhen, der Wirkungsgrad der Elektrolyse ist bei fluktuierendem Stromangebot geringer als bei konstantem Strom [4]. Das erzeugte Methan ist zur Zeit wesentlich teurer als das russische Erdgas oder das Flüssiggas aus Katar. Andere Alternativen wie etwa Druckluftspeicher haben nicht die benötigte Kapazität [3].

Eine Entlastung der Netze könnte erreicht werden, wenn alle Besitzer von PV-Anlagen auf ihrem Dach den um die Mittagszeit anfallenden Solarstrom in einigen Batterien im Haus speichern und am Abend zum Betrieb ihrer Hausgeräte benutzen würden. Wenn zwei Millionen Haushalte mit PV-Anlage jeweils Batterien mit 5 kWh Kapazität installieren, würde dies einen lokalen Speicher von 10 GWh bilden. Als weitere Möglichkeit wird die Speicherung in den Batterien zukünftiger Elektromobile diskutiert. Falls in zehn Jahren eine Million solcher Fahrzeuge existieren würde, könnte in ihren Batterien eine Energie von 20 GWh gespeichert werden. Das wären etwa zehn Prozent der an einem Tag anfallenden Wind-und Solarenergie, falls alle Elektromobile um die Mittagszeit aufgeladen würden. In Wirklichkeit werden sie nachts aufgeladen, wenn keine Sonne scheint. Für die nächsten zehn Jahre wird diese Speichermöglichkeit also keine Rolle spielen.

Fazit

Für die nächsten zehn Jahre wird es keine Möglichkeit geben, relevante Mengen elektrischer Energie effizient zu speichern. Es bleibt bei der fluktuierenden Einspeisung der Wind-und Solarenergie nur die Möglichkeit, fossile Kraftwerke als regelbare Schattenkraftwerke zu betreiben, die bei überschüssiger Energie aus Wind-oder Solarkraft heruntergefahren werden und bei deren Ausfall als Reserve zur Verfügung stehen. Diese unregelmäßige Betriebsweise der fossilen Kraftwerke ist allerdings ineffizient und unwirtschaftlich. Auch kann die Leistung dieser Kraftwerke nicht beliebig stark und schnell geändert werden.

Quellen

[1] Arbeitsgemeinschaft Energiebilanzen e.V.

[2] H. Gasser, Arbeitskreis Energie des DPG Tagungsbands 2012, S. 128

[3] M. Sterner, M. Jentsch, U. Holzhammer, Gutachten für Greenpeace, Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES Kassel), Feb. 2011

[4] F. Schüth, MPI für Kohleforschung (Mülheim), FAZ, 13. März 2013, Seite N2

[5] G. Bergolte 2013

———- Ende des Beitrags von K. Kleinknecht (DPG) —————————

Es ist nicht zuviel verlangt und einem SPON-Redakteur zuzumuten, zu recherchieren, d.h. beispielsweise die hier zitierte, gut informierende DPG zu lesen. Ferner sich zu bemühen, technische Inhalte zu verstehen und dann dem Leser zu vermitteln. Herr Schultz hätte sich natürlich auch auf der EIKE Website bestens informieren können, z.B. über die ihm wohl etwas näher liegenden wirtschaftlichen Aspekte des alternativen „Zappelstroms“ (hier, hier, hier, hier). Dann wäre ihm die simple Erleuchtung gekommen, dass der Nachteil fluktuierender Stromeinspeisung ohne unzumutbar hohe Kosten TECHNISCH-NATURGESETZMÄßIG-GRUNDSÄTZLICH nicht zu beseitigen ist.

Der oft von sachunkundigen Zeitgenossen zu vernehmende gute Glaube "wir brauchen nur noch mehr Windstrom, dann wird die Energiewende schon klappen" ist absurd falsch. Wir können so viel Windstrom produzieren, wie wir wollen (an windreichen Tagen ist es bereits jetzt schon viel zu viel, der Strom muss dann gegen Aufpreis ins Ausland verschenkt werden), so steht doch fest: beliebig und unvorhersehbar fluktuierender Strom ist unbrauchbar und für die Stabilität der Stromnetze fatal. Die Beseitigung dieses Nachteils führt unabdingbar zu extremen Kosten. An der Hauptversorgung mit kostengünstigen Grundlastkraftwerken, die stetigen, regelbaren Strom liefern (Kohle und Uran, in anderen Ländern auch Schiefergas – Putins Gas ist für Grundlastkraftwerke zu teuer) geht kein Weg vorbei. Dem Autor tut es ja für jeden gutgläubigen grünen Traumtänzer leid, aber so ist nun einmal die Realität. Windräder und Photovoltaik sind volkswirtschaftlich kostspieliger Unsinn, ganz besonders hierzulande. In Wüsten mag dies ein wenig anders aussehen. Noch ist Deutschland keine Wüste, wenn es aber mit der Energiewende so weitergeht, wird es eine werden – eine industrielle. Das Problem der deutschen Energiewende ist nur mit der Rückkehr zum Zustand quo ante behebbar. Kompletten Nonsense abzustellen, war schon immer die beste Lösung. Ein kleiner Tipp für noch immer nicht überzeugte Leser und insbesondere für Herrn S. Schultz: wer außer uns in der Welt macht die Energiewende noch mit? Woran mag das wohl liegen?

Der Mythos des SPON vom "nicht möglichen" Blackout

Wir wären ja alle heilfroh, wenn der drohende Black Out ein Mythos wäre. Leider ist das platte Gegenteil der Fall. Je mehr fluktuierender Wind- und Sonnenstrom ins bundesdeutsche Netz per Oktroi (EEG) gelangt, umso technisch schwieriger wird dessen unabdingbare Stabilitätsausregelung vermittels schnell reagierender Schattenkraftwerke (meist Gas). Das Netz wird zunehmend instabil und bricht früher oder später zusammen, wenn es wie bisher mit der zunehmenden Eispeisung von Wind- und Sonnenstrom so weitergeht und immer mehr Grundlastkraftwerke wegfallen (hier, hier, hier).

Zum Blackout (hier). Der Autor hatte nach einem Hochschul Fachvortrag die Gelegenheit mit einschlägigen Experten zu sprechen, die zum kritischen Zeitpunkt konkret mit dem Stabilitätsproblem befasst waren. Deutschland ist nach Schilderung dieser und aller weiteren dem Autor bekannten Fachleute im vorletzten Winter haarscharf an der Katastrophe vorbeigeschlittert. Über die Folgen informiert die nicht gerade als ruhige Nachtlektüre geeignete Drucksache des deutschen Bundestages (hier). Man darf bei einem mehrtägigen Black Out zuverlässig von Tausenden Toten, Plünderungen und weiteren wenig ersprießlichen Ereignissen ausgehen. Erst ist der Druck in der Wasserleitung, dann das Wasser selber weg, Handy und Telefon sind tot, niemand befreit Sie aus einem steckengebliebenen Fahrstuhl mit eng aneinandergedrückten Passagieren ….. Wenn man auch noch an materiellen Schadensschätzungen interessiert ist, dann (hier).

Ein nettes Schlusswort

Lieber SPON, wir alle schätzen SPIEGEL bzw. SPON als informative, oft erfrischend freche und meist bemüht objektiv berichtenden Medien – keine Selbstverständlichkeit in der heutigen deutschen Journalistenlandschaft. So wie in dem hier kritisierten Beitrag geht es aber gar nicht. Der ist kurioser sachlicher Unsinn, nichts weiter. Und an den SPON Redakteur: Lieber Herr Schultz, wir empfehlen Ihnen, in Zukunft erst einmal sorgfältig zu recherchieren und dabei die Fakten nicht dem grünen Glauben zu opfern. Wir empfehlen Ihnen auch, nur über Themen zu schreiben, in denen Sie fachlich einigermaßen sattelfest sind. Wir sind sicher, in diesem Fall Ihre Beiträge schätzen zu lernen.

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Informationen zu Buch und Publikationen sind in der EIKE-Webseite (hier) einseh- und herunterladbar.




Abwicklung des westlichen Energie-Klima-Paradigmas

*Das Wort realpolitik steht so auch im Original, mit Hyperlink zu Wikipedia!

Wenn es zum fundamentalen Schlüsselthema für jede Nation, also Energiesicherheit kommt, deuten alle Zeichen darauf hin, dass die führenden Ökonomien der westlichen Welt alles vergessen haben, was die Interessen der Bevölkerung angeht. Das haben sie getan, indem sie die (Energie-)Wirklichkeit und die (Klima-)Theorie als von gleicher Größenordnung seiend betrachtet haben. Wie Einstein gesagt hat: „In der Theorie sind Theorie und Praxis das Gleiche. In der Praxis sind sie es nicht“.

Der frühere Kanzler von UK Lord Nigel Lawson hat seinen Finger auf den Nagelkopf hiervon gelegt, und zwar mit einem Artikel im The House Magazine des Parlaments. Lawson schrieb: Als er vor etwa 30 Jahren Energieminister war, war es „das Ziel der Energiepolitik, eine zuverlässige Energieversorgung sicherzustellen, sowohl für die Industrie als auch die Haushalte, und zwar zu den geringst möglichen Kosten“. Wie er richtig beobachtet, ist es heute „das einzige Ziel“ des neuen UK-Energiegesetzes – „dem schlechtesten seit Menschengedenken“ – die ambitionierten Ziele der Dekarbonisation zu erreichen, die im Climate Change Act [= Gesetz zur Klimaänderung] von Labour enthalten sind. Und das Befolgen der von der EU vorgegebenen Direktiven, könnten wir hinzufügen. Aber Lawsons Erkenntnisse haben ohne Weiteres auch Gültigkeit für die inhärenten Widersprüche des Energie-Klima-Glaubens von Barack Obama, Angela Merkel und den (nicht gewählten) Eliten in der Europäischen Kommission oder den UN.

Vor 30 Jahren, als Lawson UK-Kanzler war, bestand der Konsens der Klimawissenschaft in der Theorie, dass der Planet via einer globalen Abkühlung auf dem Weg in eine neue Eiszeit sei. Heute hat sich der Konsens umgekehrt und geht jetzt davon aus, dass wir uns unvermeidlich – dank der menschlichen Kohlenstoffemissionen – auf dem Weg der globalen Erwärmung befinden. In beiden Fällen blieb die Energiesicherheit eine stets präsente praktische Wirklichkeit für Regierungen. Die Klimatologie befand sich damals – und befindet sich auch heute noch – in der Kindergarten-Phase theoretischer Möglichkeiten. Man kann sich dann nur über die krasse Dummheit wundern, die an den Tag gelegt wird, wenn man Energiesicherheit und Klimatheorie als gleich wichtig und gleich einflussreich betrachtet.

UK hat sogar das DECC, also das Department of Energy and Climate Change [= ein Ministerium für Energie und Klimaänderung]. Man kann nicht erwarten, dass man das den Planeten bedrohende Thema Klimaänderung in den Händen von Spinnern [screw-ups] des Met. Office bei der BBC belassen sollte, oder? Ist es nicht viel besser, dieses Thema in die Hände ideologischer Politiker zu legen?

Wie also machen wir uns, wenn wir der Politik innerhalb des Energie-Klima-Paradigmas hinterher dackeln? Hier folgt eine kurze Übersicht der widersprüchlichen Ergebnisse, die all das hervorgebracht hat:

In den USA sind es Schiefergas und –öl, die allein einen äußerst positiven Einfluss auf die US-Wirtschaft hatten und die Industrie revitalisiert haben, trotz der Anti-Kohlenwasserstoff-Politik der Obama-Administration zusammen mit der Vorschriftswut der EPA. Der Umstieg von Kohle- auf Gaskraftwerke hat ebenfalls dazu beigetragen, dass der amerikanische Energieverbraucher derzeit die Hälfte dessen bezahlt, was ein europäischer Energieverbraucher berappen muss. Während die US-Kohleindustrie schwer beeinträchtigt worden ist, gibt es jetzt für die Kohlenexporte aus den USA einen lukrativen neuen Markt – in Europa, wo es hohe grüne Abgaben, Fracking-Verbote und Widerstand gegen die Ausbeutung heimischer Schiefer-Interessen gibt. Das hat dazu geführt, dass die Schwerindustrie von teurem Gas zu billiger amerikanischer Kohle gewechselt hat. Aus dem gleichen Grunde sind auch die Kohlenstoff-Emissionen der USA stärker zurück gegangen als in jedem anderen westlichen Land. Und die bürokratisch geregelten Emissions-Handelsmärkte in der EU sind inzwischen weitgehend zusammengebrochen.

Die dramatische Folge von all dem war, dass die USA Russland als führenden Förderer von Erdgas abgelöst haben. Bzgl. Öl sind die USA jetzt der weltgrößte Erzeuger und China der weltgrößte Importeur. Die Schiefergas- und -ölrevolution ist der einzige Grund, warum sich die USA schneller stabilisiert haben als die Anti-Schiefer- und Pro-Erneuerbare-Wirtschaft in Europa. Ironischerweise wird es fast mit Sicherheit der Anti-Kohlenwasserstoff-Amtsinhaber im Weißen Haus sein, der den politischen Ruhm für die von fossilen Treibstoffen befeuerte wirtschaftliche Erholung in Anspruch nehmen wird.

In Deutschland war die reflexhafte Entscheidung nach Fukushima, der Kernkraft den Rücken zu kehren und auf Wind- und Solarenergie zu setzen, eine Katastrophe [die leider, leider immer noch weiter geht! A. d. Übers.]. Zerquetscht in einer Zange zwischen Dekarbonisations-Zielen sowie nationalen grünen Abgaben und Vorschriften schrumpfen die Energiegiganten des Landes rasch. RWE schließt 6% seiner Energie-Erzeugungskapazität. E.ON überlegt sich den gleichen Schritt. Der dramatische Verlust von Marktanteilen und Marktwert hat ihnen kaum eine andere Wahl gelassen. Der Financial Times zufolge ist der Wert von RWE seit 2007 um ein Drittel gefallen, der Wert von E.ON um 15 Prozent. Letzterer überlegt sich ernsthaft, sich vollständig aus Deutschland zurückzuziehen. Citi Research zufolge wird mindestens bis zum Jahr 2022 keiner der beiden ein Wachstum am Markt zeigen. Angesichts der grünen Subventionen, die sich nach wie vor ein einem Runaway-Modus befinden, ist der ganze Wechsel zu einer grünen Energie-Revolution zu einem umstrittenen politischen Thema geworden. Alles, was es braucht, um Deutschland in den vollen Rückwärtsgang zu werfen, ist ein Scheitern der überdehnten Energieerzeugung im kommenden Winter.

In UK liegen die Dinge ähnlich. Als einzige unter seinen EU-Nachbarn hat UK der Entwicklung der potentiell größten Schiefergas-Reserve des Kontinents grünes Licht gegeben. Unglücklicherweise jedoch – während Schatzkanzler George Osborne unter Leitung der Konservativen darauf brennt, massive grüne Subventionen zu reduzieren (welche die Stromrechnung aller Haushalte um 10 Prozent verteuert haben) und der aufkeimenden Schieferindustrie starke Steuernachlässe zu gewähren, werden die Fäden der Energieerzeugung vom liberaldemokratisch geführten Energieminister am DECC gezogen. Während die Schiefergas-Entwicklung mit viel Radau voran getrieben wird, bleiben die Ziele der Dekarbonisierung und nicht die Energiesicherheit im Brennpunkt des DECC-Ministers (und damit UK). Während des kommenden Winters rechnet man damit, dass lediglich magere vier Prozent mehr als der erwartete Verbrauch erzeugt werden können, eine direkte Folge der Schließung vitaler Kohlekraftwerke und eine Über-Abhängigkeit von Windenergie.

Unter dem Strich bleibt, dass in allen führenden Ökonomien die politischen Maßnahmen hinsichtlich Energiesicherheit und theoretischer Klimaobjektiven offensichtlich unvereinbar sind. Tatsächlich favorisieren die europäischen Demokratien immer noch den Klima-Idealismus und stellen die Dekarbonisierung über ökonomischen Wohlstand und Energiesicherheit – während man gleichzeitig dringend versucht, von der Abhängigkeit russischer Gasimporte wegzukommen.

Ironischerweise hat nur in den USA, die es als Einzige abgelehnt haben, dem Kyoto-Protokoll beizutreten, der freie Markt für etwas gesorgt – trotz der sozialistisch nach Europa-Art anmutenden Steuerung seitens des Weißen Hauses und der EPA –, was die Sackgasse der europäischen Bürokratie und deren zahlreiche Regierungen nie geschafft hat: ein  ökonomisch stabiler Umstieg auf sauberere Energiequellen (in diesem Falle Schiefergas) und wirtschaftliche Erholung mit der gleichzeitig stärksten Reduktion von Kohlenstoff-Emissionen aller industrialisierten Länder.

Am Ende wird die Notwendigkeit von Energiesicherheit und der Einfluss des freien Marktes gewinnen, genauso wie es beim Zusammenbruch der lähmenden Politik des Kommunismus der Fall war. Aber in Europa sieht es so aus, als ob es noch wesentlich größerer wirtschaftlicher Notlagen und Blackouts bedarf, bevor das falsch zusammen geschusterte westliche Energie-Klima-Paradigma – jedes einzelne Teil genauso obszön wie die Berliner Mauer in seinen sozialen Auswirkungen – schließlich abgewickelt wird.

Mehr: http://www.energytribune.com/79474/dismantling-the-wests-energy-climate-paradigm#sthash.9HBwBAQP.l9jyyOvA.dpuf

Link: http://www.energytribune.com/79474/dismantling-the-wests-energy-climate-paradigm#sthash.9HBwBAQP.l9jyyOvA.dpbs

Übersetzt von Chris Frey EIKE




Wo die Wissenschaft vom Weg abkommt

Viel zu viele Ergebnisse, die den akademischen Äther füllen, sind entweder das Ergebnis nachlässig durchgeführter Experimente oder schlechter Analysen ( siehe hier). Eine Faustregel unter Investoren im Bereich Biotechnologie lautet, dass die Hälfte der veröffentlichten Forschungsergebnisse nicht wiederholt werden kann. Und selbst das könnte eine optimistische Schätzung sein. Im vorigen Jahr haben Forscher eines Biotech-Unternehmens, nämlich Amgen, herausgefunden, dass sie lediglich sechs der 53 „grundlegenden“ Studien zur Krebsforschung reproduzieren konnten. Zuvor ist es einer Gruppe beim Arzneimittelhersteller Bayer gelungen, gerade mal ein Viertel von 67 ähnlich wichtigen Studien zu wiederholen. Ein führender Computer-Wissenschaftler ärgert sich darüber, dass drei Viertel aller Studien in seinem Umfeld Quatsch sind. Von den Jahren 2000 bis 2010 haben rund 80.000 Patienten an klinischen Tests teilgenommen, und zwar für Forschungen, die später aufgrund von Fehlern oder Ungenauigkeiten zurückgezogen wurden.

Was für eine Menge Müll!

Selbst wenn die gescheiterte Forschung nicht das Leben der Teilnehmenden auf das Spiel setzt – und vieles davon so weit vom Markt entfernt, dass das nicht möglich ist – es werden Geld und die Bemühungen von einigen der besten Geister der Welt verschwendet. Die Gelegenheitskosten des verhinderten Fortschritts sind schwer zu quantifizieren, aber vermutlich sind sie erheblich. Und sie könnten noch steigen.

Ein Grund ist die Wettbewerbsfähigkeit der Wissenschaft. In den fünfziger Jahren, als akademische Forschung nach ihrem Erfolg im 2. Weltkrieg Formen annahm, war sie immer noch lockerer Zeitvertreib. Der gesamte Club der Wissenschaftler umfasste einige wenige Hunderttausend. Mit dem Anwachsen ihrer Zahl auf etwa 6 bis 7 Millionen aktive Forscher haben die Wissenschaftler ihr Faible für Selbst- und Qualitätskontrolle verloren. Der Leitsatz „veröffentliche oder verschwinde“ [„publish or perish“] regiert inzwischen über das akademische Leben. Wettbewerb auf Arbeitsplätze ist ruinös. Vollzeit-Professoren in Amerika haben im Mittel 135.000 Dollar im Jahr 2012 verdient – mehr als Richter. Jedes Jahr bewerben sich sechs frisch gebackene PhDs auf einen akademischen Posten. Heutzutage bedeutet die Verifikation (die Wiederholung von Ergebnissen anderer Forscher) nur noch wenig, um die Karriere eines Forschers voranzubringen. Und ohne Verifikation bleiben zweifelhafte Ergebnisse bestehen, um in die Irre zu führen.

Karrieresucht ermutigt auch zu Übertreibungen und zum Rosinen aus Ergebnissen herauspicken. Um ihre Exklusivität zu retten, haben führende Journale hohe Raten der Ablehnung eingeführt: über 90% der eingereichten Manuskripte wurden zurückgewiesen. Die auffälligsten [most striking] Ergebnisse haben die größte Chance, akzeptiert zu werden. Da ist es kein Wunder, dass einer von drei Forschern einen Kollegen kennen, der eine Studie aufgemotzt hat, indem er, sagen wir, unpassende Daten „aufgrund eines Bauchgefühls“ aus den Ergebnissen herausgehalten hat. Und wenn immer mehr Forschungsteams auf der ganzen Welt an einem Problem arbeiten, wird die Wahrscheinlichkeit immer geringer, dass zumindest einer der ehrlichen Verwirrung zum Opfer fallen wird zwischen dem süßen Signal einer bahnbrechenden Entdeckung und der Laune des statistischen Rauschens. Solche störenden Korrelationen erscheinen oft in Journalen, die nach Aufsehen erregenden Studien trachten. Wenn sie beim Wein trinken erwischt oder senil werden oder Kindern Videospiele gestatten, könnten sie genauso gut auf den Titelseiten von Zeitungen landen.

Im umgekehrten Fall, nämlich wenn es nicht gelingt, eine Hypothese zu beweisen, wird man entsprechende Arbeiten nicht zur Veröffentlichung anbieten, geschweige denn dass sie akzeptiert werden würden. „Negative Ergebnisse“ machen nur etwa 14% der veröffentlichten Studien aus. Im Jahr 1990 waren es noch 30%. Dabei ist das Wissen, was falsch ist, genauso wichtig für die Wissenschaft wie das Wissen um das, was richtig ist. Der Fehlschlag, Fehlschläge zu veröffentlichen bedeutet, dass die Forscher Geld und Mühe verschwenden, um finstere Wege zu beschreiten, die bereits von anderen Wissenschaftlern untersucht worden waren.

Der geheiligte Prozess der wissenschaftlichen Begutachtung ist bei Weitem auch nicht das, was er sein sollte. Wenn ein bekanntes medizinisches Journal eigene Nachforschungen angestellt hatte hinsichtlich einer vorangegangenen Studie anderer Experten auf diesem Gebiet, stellte sich heraus, dass die meisten Begutachter nicht die Fehler entdeckt hatten, die absichtlich in die Studien eingebracht worden waren, selbst dann nicht, als man den Begutachtern gesagt hat, dass sie auf die Probe gestellt werden würden.

Wenn etwas zerbrochen ist, repariere man es.

All das bildet eine sehr schüttere Grundlage für eine Unternehmung, die die Wahrheit über die Welt herausfinden soll. Was könnte man tun, um diese Grundlage zu festigen? Eine Priorität dabei sollte es für alle Disziplinen sein, dem Beispiel jener zu folgen, die das meiste dazu getan haben, die Standards zu festigen. Ein Anfang wäre es, besser mit Statistiken umgehen zu können, vor allem bei der zunehmenden Zahl von Bereichen, in denen immer größere Datenmengen auf der Suche nach bestimmten Mustern durchforstet werden. Genetiker haben das getan und einen früheren Fluss spezieller Ergebnisse bei der Sequentierung von Genomen in einen Strom wichtiger Ergebnisse umgewandelt.

Idealerweise sollten Forschungsprotokolle im Voraus registriert und in virtuellen Notebooks festgehalten werden. Dies würde die Versuchung mindern, in den Folgen des Experiments herumzufummeln, um die Ergebnisse bedeutender aussehen zu lassen als sie sind. (Es gibt Hinweise, dass Solches bereits bei klinischen Tests mit Medikamenten der Fall war).Wo immer möglich, sollten Datensätze auch anderen Forschern zur Überprüfung offen stehen.

Die fortschrittlichsten Journale werden schon jetzt weniger zögerlich, eintönige Studien zuzulassen. Einige von der Regierung bezahlte Agenturen einschließlich des amerikanischen National Institutes of Health, das jedes Jahr 30 Milliarden Dollar für Forschungen ausgibt, arbeiten daran, wie man Experimente zur Wiederholung der Ergebnisse ermutigen kann. Und eine wachsende Zahl Wissenschaftler, vor allem jüngere, verstehen etwas von Statistik. Aber diese Trends müssen sich noch viel mehr verstärken. Journale sollten „uninteressanten“ Arbeiten Platz einräumen, und Finanziers sollten Geld beiseite legen, dies zu bezahlen. Die Begutachtung sollte verbessert werden – oder gleich eingebracht werden in Gestalt einer Evaluierung nach der Veröffentlichung durch anhängende Kommentare. Dieses System hat während der vergangenen Jahre in Physik und Mathematik gut funktioniert. Und schließlich sollten Politiker sicherstellen, dass von öffentlichen Geldern finanzierte Institutionen ebenfalls diesen Regeln folgen.

Wissenschaft verlangt enorme – wenn auch manchmal verwirrte – Anerkennung. Aber ihr privilegierter Status fußt auf der Kapazität, meistens richtig zu liegen und Fehler zu korrigieren, wenn etwas falsch läuft. Und es ist nicht so, als ob dem Universum echte Mysterien ausgehen würden, die noch harte Arbeit für Generationen von Wissenschaftlern bereit halten. Die falschen Spuren, die durch schlampige Forschungen gelegt werden, sind eine unverzeihliche Barriere für das Verstehen.

Link: http://www.economist.com/news/leaders/21588069-scientific-research-has-changed-world-now-it-needs-change-itself-how-science-goes-wrong

Übersetzt von Chris Frey EIKE




Wie man eine halbe Billion Euro verliert: Europas Stromversorger stehen vor einer existenziellen Bedrohung

Das Problem besteht darin, dass Kern- oder Braunkohlekraftwerke auf Volllastbetrieb angelegt sind und nicht ohne Weiteres ihre Erzeugung verringern können, während die zusätzliche Energie aus Sonne und Wind frei ist. Die Last der Anpassung liegt also bei Gas- und Kohlekraftwerken, deren Output auf lediglich 10% der Kapazität fiel.

Diese Ereignisse waren ein Mikrokosmos der Änderungen, die alle Gebiete betreffen, in denen erneuerbare Energiequellen immer wichtiger werden – Europa im Allgemeinen und Deutschland im Besonderen. Für Umweltaktivisten sind diese Änderungen ein Triumph. Erneuerbare Low-Carbon-Energie bekommt einen immer größeren Anteil an der Erzeugung. Das hilft, den Großhandelspreis zu senken und könnte eines Tages zu großen Reduktionen von Treibhausgas-Emissionen führen. Für etablierte Unternehmen jedoch ist das eine Katastrophe. Ihre Gaskraftwerke werden durch erneuerbare Energiequellen beiseite gedrängt. Sie verlieren Geld durch die Stromerzeugung. Sie machen sich Sorgen, dass das Wachstum von Solar- und Windenergie das Netz destabilisiert und zu Blackouts führen kann. Und sie weisen darauf hin, dass man keinen normalen Betrieb laufen lassen kann, in dem die Kunden für einen Service abhängig vom Verbrauch zahlen, wenn die Preise negativ werden. Kurz gesagt, argumentieren sie, das Wachstum der erneuerbaren Energie unterminiert die etablierte  Stromversorgung und ersetzt sie durch etwas weniger Zuverlässiges und viel Teureres.

Strom schwächer

Die Schwäche der europäischen Stromversorger war mit Sicherheit alarmierend. Auf ihrem Höhepunkt waren die obersten 20 Versorger etwa 1 Billion Euro wert. Jetzt sind sie nur noch die Hälfte wert (siehe Graphik 1). Seit September 2008 haben die Energieversorger im Bereich Verluste des Morgan Stanley-Index’ globaler Aktienkurse am schlechtesten abgeschnitten. 2008 hatten die obersten 10 europäischen Einrichtungen alle eine Kreditwürdigkeit von A oder besser. Jetzt ist dies nur noch bei 5 Unternehmen so.

Am weitesten fortgeschritten ist der Verfall in Deutschland, wo Strom aus erneuerbaren Quellen am schnellsten zugenommen hat. Der größte Stromversorger des Landes, E.ON, musste einen Verfall seiner Anteilspreise um drei Viertel seit dem Spitzenwert hinnehmen, und das Einkommen aus der konventionellen Stromerzeugung (fossile Brennstoffe und Kernkraft) fiel seit 2010 um mehr als ein Drittel. Der Umsatz des zweitgrößten Versorgers RWE ist ebenfalls seit 2010 um ein Drittel zurückgegangen. Der Finanzchef des Unternehmens klagt: „Die konventionelle Stromerzeugung kämpft als Geschäftsbereich um ihr ökonomisches Überleben“.

Die Unternehmen wären in jedem Falle in Schwierigkeiten gekommen, egal was mit den Erneuerbaren ist. Während des ersten Jahrzehnts dieses Jahrhunderts haben die europäischen Unternehmen zu viel in die Erzeugungskapazität aus fossilen Brennstoffen investiert, was diese Erzeugung um 16% in Europa als Ganzem verstärkt hat. In einigen Ländern war es noch viel mehr (Spanien z. B. 91%). Der Strommarkt ist aber nicht einmal annähernd um diese Größenordnung gewachsen, selbst in guten Zeiten. Dann hat die Finanzkrise auf die Nachfrage durchgeschlagen. Der International Energy Agency IEA zufolge wird die Gesamtnachfrage in Europa zwischen 2010 und 2015 um 2% abnehmen.

Verschärft wurden diese Probleme durch zwei Einflüsse von außerhalb. Das erste war die Havarie in Fukushima. Dadurch war die Regierung von Angela Merkel in Panik geraten und hat die sofortige Schließung von acht Kernkraftwerken und bis 2022 die Schließung der übrigen 9 in Deutschland verfügt. So abrupt kam diese Änderung, dass sich die Nackenschläge für die Unternehmen verstärkten, obwohl viele dieser Kraftwerke später ohnehin geschlossen werden sollten.

Das andere Problem war der Schiefergas-Boom in Amerika. Dies wirkte sich direkt auf die europäische Kohle aus, die zuvor in Amerika verbrannt worden war, und die Kohlepreise sanken im Vergleich zu den Gaspreisen. Gleichzeitig verfiel der Kohlenstoffpreis, weil es zu viele Zertifikate gab, die die Emission von Kohlenstoff im europäischen Emissions-Zertifikatehandel erlauben würden, und die Rezession führte zu einer geringeren Nachfrage. Das hat die Strafen für die Verbrennung von Kohle reduziert, die Umsatzvorteile von Kohlekraftwerken erhalten und Gaskraftwerke ins Hintertreffen geraten lassen. Gérard Mestrallet, leitender Direktor des größten Stromerzeugers der Welt GDF Suez, sagt, dass 30 GW durch Gas erzeugter Kapazität seit dem Spitzenwert eingestampft worden sind, einschließlich brandneuer Kraftwerke. Die Zunahme der Kohleverbrennung hat die Kohlenstoff-Emissionen in Deutschland während der Jahre 2012 und 2013 steigen lassen, also das Gegenteil dessen erreicht, was beabsichtigt war.

Darum wären die Gas- und Kernkraftanteile der Stromerzeuger selbst vor dem Boom der Erneuerbaren in Schwierigkeiten geraten. Das Wachstum von Wind und Solar hat diesen Vorgang nur verstärkt. Die Kapazität der Erneuerbaren (die viel größer ist als der Output) macht fast die Hälfte der Stromerzeugungs-Kapazität in Deutschland aus; in Spanien und Italien ist es etwa ein Drittel. Die Gesamtkapazität einschließlich der Erneuerbaren liegt weit über der Spitzennachfrage in allen drei Ländern. Daher haben die Erneuerbaren ganz stark zu der Überversorgung beigetragen.

Exzessive Erzeugung plus verringerte Nachfrage gleich niedrigere Preise. Die Strompreise sind von über 80 Euro pro MWh zu Spitzenzeiten im Jahr 2008 in Deutschland auf nur noch 38 Euro pro MWh heute (siehe Graphik 2). Das sind Großhandelspreise. Der Preis für die Haushalte beläuft sich auf 285 Euro pro MWh, ist also einer der höchsten der Welt. Teilweise liegt das daran, dass darin die Subventionen für die Erneuerbaren enthalten sind, die pro Energieeinheit eineinhalb mal so hoch sind als der Strompreis selbst). Mit dem Fallen der Großhandelspreise fiel auch die Rentabilität der Kraftwerke. Bloomberg New Energy Finance (BNEF) zufolge verlieren 30 bis 40% der konventionellen RWE-Kraftwerke Geld.

Aber das ist nur die Hälfte. Die Erneuerbaren haben nicht nur die Strommenge unter Druck gesetzt. Sie haben das etablierte Geschäftsmodell der Versorger transformiert. Direktor Michael Liebreich von BNEF vergleicht es mit den Telefon-Unternehmen in den neunziger Jahren oder heutzutage mit den Zeitungen, die durch das Internet unter Druck geraten: „es ist eine existenzielle Bedrohung!“ sagt er.

Maximale Bestrafung

In den achtziger Jahren war die Stromversorgung eine relative einfache Angelegenheit. Man garantierte eine konstante Stromversorgung auf der Basis von Kohle, Kernkraft (falls gewünscht) oder Wasserkraft (falls verfügbar). Diese Kraftwerke konnte man rund um die Uhr in Volllast betreiben. Aus technischen Gründen lassen sich Kohle- und Kernkraftwerke nicht einfach herunter fahren. Das sorgte für die Grundlastversorgung (die stets benötigte Menge). Um zusätzlichen Strom zu Spitzenlast-Zeiten zu erzeugen (beispielsweise am frühen Abend), hatte man Kraftwerke, die einfacher hoch- und herunter geregelt werden konnten wie z. B. Gaskraftwerke. Stellt man sich eine Verteilung der Stromversorgung über einen Tag vor, sieht es aus wie eine Schichttorte: Die unterste Schicht ist flach (Kernkraft, Kohle usw.), die obere Schicht (Gas) ist gewellt.

Die Liberalisierung des Strommarktes hat dieses einfache, geordnete System hinweg gefegt. Kraftwerke erzeugten Strom nur noch angepasst an den marginalen Strompreis. Das Aufkommen erneuerbarer Energie hat diese Änderungen dann wesentlich beschleunigt. Erneuerbare haben „Netz-Priorität“, das heißt, den so erzeugten Strom muss das Netz bevorzugt aufnehmen. Das ist eine legale Forderung, um die erneuerbare Energie in Europa voranzubringen. Aber sie ist auch logisch: Da die Marginalkosten von Wind und Sonne Null sind, würden die Netze diese Energie ohnehin zuerst aufnehmen. Also kommt die erneuerbare Energie am unteren Ende der Schichttorte ins Spiel. Aber anders als die schon bestehenden Grundlastversorger (Kernkraft und Kohle) sind Wind- und Solarenergie unregelmäßig und ändern sich mit dem Wetter. Dadurch wird die Grundschicht der Schichttorte ebenfalls wellig.

Wenn jetzt die Nachfrage schwankt, könnte es nicht ausreichen, lediglich den Output von Gas-Generatoren zu senken. Einige Kraftwerke müssten vielleicht komplett abgeschaltet und Kohlekraftwerke herunter gefahren werden. Genau das passierte am 16. Juni. Das ist teuer, weil es schwierig ist, Kohlekraftwerke herunter zu regulieren. Das macht die Strompreise volatiler. Und es hat auf die Profite verheerende Auswirtungen.

Unter dem alten System war der Strompreis zu Spitzenlastzeiten auf Spitzenwerte gestiegen (um die Mittagszeit und am frühen Abend). Nachts fiel der Preis mit der sinkenden Nachfrage. Die Unternehmen haben ihr ganzes Geld während der Spitzenlastzeiten verdient. Aber um die Mittagszeit ist die solare Stromerzeugung maximal. Dank der erzwungenen Bevorzugung reißt der Solarstrom ein großes Stück aus diesem Kuchen der Spitzennachfrage, was die Preisspitze eliminiert hat. Dem Fraunhofer-Institut für Solarenergie zufolge hatte der Strompreis im Jahre 2008 während der Spitzenlastzeiten 14 Euro pro MWh über dem Grundlastpreis gelegen. Während der ersten sechs Monate des Jahres 2013 betrug dieser Preisunterschied nur 3 Euro. Fazit: der mittlere Strompreis ist seit 2008 nicht nur um die Hälfte gefallen, sondern die Spitzenlastpreise sind um fast vier Fünftel gesunken. Kein Wunder, dass die Versorger derartig in Schwierigkeiten stecken.

Aber es wird noch schlimmer kommen. Die Kombination von Nachfrage in Europa und Investitionen in China haben die Preise für Solarpaneele seit 2006 um fast zwei Drittel abstürzen lassen (siehe Graphik 3). In Deutschland sind die Kosten für die Erzeugung eines Megawatts Strom mittels Solarpaneele auf 150 Euro gefallen. Das liegt über den Großmarktpreisen, aber unter den festgesetzten Preisen für die Erneuerbaren und unter den Preisen für die Haushalte. Das bedeutet, dass die solare Stromerzeugung selbst dann noch steigen kann, wenn die neue Regierung in Deutschland die Subventionen für Erneuerbare kürzt. Die Herausforderungen für die alten Unternehmen steigen.

Mehr noch, während der letzten paar Jahre haben sich die Versorger abgesichert und zwei Drittel ihres erzeugten Stromes ein bis drei Jahre im Voraus verkauft (d. h. sie bekommen die Preise aus dem Jahr 2010 für heute gelieferte Energie). Das hat sie vor der vollen Auswirkung der jüngsten Preisrückgänge bewahrt. Diese Verträge laufen 2014 oder 2015 aus. Der Direktor von E.ON sagte kürzlich: „Für die Jahre 2013 und 2014 ist keine Erholung in Sicht“.

Bereiche Holz und Wind

Die Versorger sind angesichts dieser Probleme nicht machtlos, und sie werden nicht alle gleich stark betroffen. Die sechs großen britischen Versorger beispielsweise waren geschützt durch langfristige Preisabkommen mit dem Regulator, obwohl ihre Profite mager bleiben.

Einige Versorger sind selbst in das Geschäft mit den Erneuerbaren eingestiegen. Drax, früher das größte Kohlekraftwerk in UK, ist konvertiert worden zur Verbrennung von Holzpellets. Andere Versorger investieren in großem Umfang in Offshore-Windparks.

Aber im Großen und Ganzen waren die großen Versorger sehr zögerlich mit Investitionen. In Deutschland beispielsweise gehören nur 7% der erneuerbaren Kapazität den Stromversorgern. Das Problem liegt darin, dass die Solarenergie sich so total von dem unterscheidet, woran sie gewöhnt sind. Der althergebrachte Versorger besitzt ein großes teures Kraftwerk mit einer Kapazität von 1 bis 1,5 GW. Das Kraftwerk befindet sich in der Mitte eines strahlenförmig nach allen Seiten sich ausbreitenden Netzes. Der Solarstrom unterscheidet sich davon. Photovoltaik-Paneele sind billig, klein (ein solches mittlerer Größe kann eine Kapazität von lediglich 10 MW haben) und in einem Netzwerk angeordnet, nicht als Mittelpunkt eines Rades mit Speichen.

Die Versorger könnten die erneuerbare Energie etwas ernster nehmen, aber im Moment ändert sich kaum etwas. Stattdessen reagieren die Versorger auf ihre Probleme, indem sie sich von der Stromerzeugung verabschieden und in „Downstream“-Aktivitäten [?] einsteigen wie z. B. durch das Anbieten von Beratung der Kunden. Während der letzten Monate hat Vattenfall, der größte Versorger Schwedens, 6% seiner Gewinne abgeschrieben, und drei deutsche Stromriesen, E.ON, RWE und EnBW haben angekündigt, ihre Kapazität um über 15 GW zu kürzen. Am weitesten ist EnBW hinsichtlich der Aussichten für die Zukunft gegangen. Das Unternehmen sagt, dass der Verdienst aus der Stromerzeugung von 2012 bis 2020 um 80% zurückgehen wird, abgesetzt von höheren Verdiensten durch Energie-Serviceleistungen und Erneuerbare. „Wir müssen überdenken, welche Rolle wir spielen und welchen Platz wir im Sektor Energie einnehmen“, sagt der Boss Frank Mastiaux.

Saubere Trennung

Für die Unternehmen sind die Änderungen und abstürzende Anteilspreise offensichtlich besorglich. Aber sollte sich sonst noch jemand darum kümmern? Amory Lovins vom Rocky Mountains Institute, einer amerikanischen Denkfabrik, sagt: „In Deutschland hat sich ein Geschäftsfeld mit Low-Carbon-Energie gebildet, und zwar bis zu einem Punkt, an dem der weitere Zubau von Solarenergie wenige Subventionen braucht; an dem Großmarktpreise fallen und die Bedrohung für die Verlässlichkeit des Netzes bisher nicht materialisiert haben“. Wo also liegt das Problem?

Da gibt es viele verschiedene Antworten. Erstens mussten die Versorger massive Verluste bei der Bewertung der Gewinne hinnehmen. Ihr Marktkapital ist innerhalb von fünf Jahren um 500 Milliarden Euro gesunken. Das ist mehr als die europäischen Bankanteile im gleichen Zeitraum verloren haben. Diese Verluste spielen unmittelbar eine Rolle. Für Pensionsfonds und andere Investitionen repräsentieren sie verlorenes Kapital und geringere Verdienste in der Zukunft. Für Beschäftigte bedeuten sie geringere Löhne und Arbeitsplatzverluste. Die Verluste – von denen viele dem Boom der erneuerbaren Energie vorausgegangen waren – addierten sich zu den gewaltigen Summen, die die Europäer auch für die Politik hinsichtlich der Klimaänderung ausgeben. Die Subventionen für erneuerbare Energie bewegen sich um 16 Milliarden Euro pro Jahr in Deutschland (Tendenz steigend); die kumulativen Kosten betragen etwa 60 Milliarden Euro.

Als nächstens haben die Versorger ihre Rolle als Investoren verloren. Einst waren sie gleichmäßig in Betrieb, zuverlässig und resistent gegen Inflation, die Schatzkammer der USA der Kapitalmärkte. Pensionskassen brauchen dieses Kapital, um ihre langfristigen Verpflichtungen auszubalancieren. Aber die Versorger spielen diese Rolle nicht mehr, was nicht nur die kollabierenden Anteilspreise zeigen, sondern auch die Politik bzgl. Dividenden. Bis zum Jahr 2008 folgten die Gewinne von RWE und E.ON den deutschen 10-Jahres-Bonds. Seitdem sind sie auf etwa 10% gestiegen, während die Gewinne der Regierungs-Bonds gleich geblieben sind. Erneuerbare sind nicht die einzigen riskanten Investitionen.

Am wichtigsten ist aber, dass das abwärts gerichtete Schicksal der Versorger verstörende Fragen aufwirft über die Zukunft des Stromsystems in Europa. Vereinfacht gesagt: Die europäischen Staaten fügen allmählich ein System zusammen, in dem es immer mehr Low-Carbon- und schwankende Energiequellen gibt; mehr Energieversorger, mehr moderne Kraftwerke und mehr Energie, die über Grenzen hinweg gehandelt wird. All dies wird zusammengehalten durch „Smart Grids“, die den Verbrauchern sagen, wie viel Energie sie verbrauchen, die Geräte abschalten, wenn sie nicht gebraucht werden und die Nachfrage effizienter gestalten.

In einer solchen Welt spielen die althergebrachten Versorger zwei vitale Rollen. Sie sind einmal die Stromerzeuger, wenn alle Stricke reißen und stellen sicher, dass die Lichter nicht ausgehen, wenn der Wind nicht weht und die Sonne nicht scheint. Und sie werden Investoren sein, wenn es um den Bau eines ganz neuen Netzes geht. Es ist nicht klar, ob die Lage der Versorger gut genug ist, auch nur eine solche Rolle wahrzunehmen.

Bislang haben sie es vermocht, Backup-Strom zur Verfügung zu stellen, und das Netz ist nicht zusammengebrochen, selbst im sonnen- und windverrückten Deutschland [!]. Tatsächlich ist das deutsche Netz zuverlässiger als die meisten anderen (die Länder führen einen Zuverlässigkeits-Index: Deutschland liegt in Europa mit an vorderster Stelle). Die Grünen weisen daher Bedenken zurück, dass die Erneuerbaren die Stabilität des Netzes unterminieren. Sie verweisen darauf, dass es in einem Netz von Wind- und Solarparks über ganz Europa immer irgendwo Gebiete gibt, in denen es windig oder sonnig genug ist, sie zu betreiben, zumindest tagsüber.

Vielleicht. Aber wie die Preissprünge in Deutschland zeigen, wird es immer schwieriger, die Netzstabilität zu gewährleisten. Die Versorger werden nicht dafür belohnt, die variable Natur von Wind und Solar auszugleichen. Und dies passiert zu einer Zeit, in der die erneuerbare Energie im Mittel etwa 22% der Energienachfrage in Deutschland deckt. Niemand weiß wirklich, was passiert, wenn Erneuerbare einen Marktanteil von 35% erreichen,  was das erklärte Ziel der Regierung bis zum Jahr 2020 ist, geschweige denn bei einem angestrebten Anteil von 80% im Jahr 2050. Fast jeder räumt ein, dass sich bei steigendem Anteil der Erneuerbaren die Regulierung des Netzes ändern muss.

Die Rolle der Versorger als Investoren ist ebenfalls bedroht. Die erforderlichen Summen, um das Netz aufzubereiten, sind gewaltig und betragen bis zu 1 Billion Euro bis zum Jahr 2020. Unternehmen mit einem Wert von 500 Milliarden Euro können so etwas nicht einmal ansatzweise finanzieren. Stattdessen kürzen sie ihre Kapitalausgaben. Bei RWE beispielsweise sind sie seit 2011 von 6,4 Milliarden Euro auf 5 Milliarden Euro gefallen. Davon gehen 1,6 Milliarden in die Wartung existierender Kraftwerke, was etwa 1 Milliarde Euro für die Entwicklung übrig lässt – die Hälfte des gegenwärtigen Niveaus. In ihrem jetzigen Zustand können die Versorger das saubere Energiesystem, auf das Europa hofft, nicht finanzieren.

Und das hat Auswirkungen auf die Zukunft. Um den Investitionsausfall durch die Versorger auszugleichen, müssen die Regierungen Andere überreden einzuspringen, wie z. B. Pensionfonds oder Wohlstandsfonds [pension funds or sovereign-wealth funds]. Aber diese Einrichtungen haben schon durch das Halten von Anteilen der Versorger indirekt in Energie investiert und nicht direkt. Und das aus gutem Grund: Sie mögen nicht die politischen Risiken des Besitzes von Projekten, in denen die Regierungen eine Rolle spielen, weder durch Planung noch durch das Festsetzen von Preisen. In einigen Ländern gibt es auch Gesetze gegen das Erwirtschaften von Umsätzen, sowohl stromaufwärts (Erzeuger) als auch stromabwärts (Verteilung.)

Während der letzten 30 Jahre haben die europäischen Regierungen versucht, die Energiemärkte zu deregulieren. Sie haben staatseigene Unternehmen privatisiert und die Stromerzeugung aufgeteilt nach Übermittlung und Verteilung. Ziele waren zunehmender Wettbewerb, Effizienzsteigerungen und Preisabschläge.

Diese Ziele werden immer schwerer zu erreichen sein. Erneuerbare Energie hat sich einen wachsenden Anteil des Marktes gegriffen, hat die Großhandelspreise gedrückt und war erfolgreich hinsichtlich der Verbilligung von neuen Technologien. Aber die Kosten für die Subventionen waren ebenfalls sehr hoch, die erwünschten Umweltauswirkungen nicht existent und der Schaden für die Versorger viel größer als erwartet. Europa im Allgemeinen und Deutschland im Besonderen sehen sich selbst als Pioniere von Low-Carbon-Energie. Wenn sie das wirklich sind, müssen sie ein deutlich besseres Stromsystem schaffen, dass sich die Low-Carbon-Energie auszahlt ohne Verringerung der Zuverlässigkeit und ohne Entstehung übermäßiger und unnötiger Kosten.

[Leider lässt sich der Autor oder die Autorin nicht darüber aus, wie das gehen soll. A. d. Übers.]

Link: http://www.economist.com/news/briefing/21587782-europes-electricity-providers-face-existential-threat-how-lose-half-trillion-euros

Übersetzt von Chris Frey EIKE




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! CO2 Budget ?

Das Kapitel 9 über das merkwürdige “CO2-Budget” ist eine krasse und gleichzeitig erhellende Dokumentation wissenschaftlicher Inkompetenz und Willkür, die nur selten in dieser Deutlichkeit recherchiert werden konnte. Es ist gleichwohl erschreckend, welche weltpolitische Funktion dieser dubiose inkompetente Wissenschaftler mit Namen Schellnhuber innehat.

Video Teil 9 über die Grenzen der vermeintlich gerade noch zulässigen "CO2 Deponie " in der Atmosphäre

Der Videoblog von FERNSEHKRITIK.TV Folge 38 im Dezember 2009 (auch bei Youtube,hier) über diese Recherchen berichtet, allerdings waren in dem damaligen Bericht von FERNSEHKRITIK.TV nicht alle relevanten Zitate von Schellnhuber zum angeblich maximalen CO2-Budget thematisiert worden. Das nächste Kapitel 10 am 04.11.2013 analysiert, warum Schellnhuber eigentlich seit Jahren nie einer kritischen Debatte über seine Thesen ausgesetzt worden ist. Der 6-minütige Videotrailer (mit integrierter Playlist) über das gesamte 11-teilige Filmprojekt ist seit dem 27.08.2013 online




Das Zeitalter des Klimaalarmismus’ geht zu Ende

Das ist nur das jüngste Signal, dass das Zeitalter des Klima-Alarmismus vorüber ist. Selbst nach fünf Versuchen, die Welt davon zu überzeugen, dass menschliche Aktivitäten zu einer katastrophalen Erwärmung des Planeten führen wird, zu nie da gewesenen Meeresspiegelanstiegen und verschiedenen Wetterkatastrophen, nimmt die Öffentlichkeit dem IPCC all dies nicht ab.

Wir sind jetzt alle Skeptiker, weil die Wissenschaft einfach nicht die Hypothese stützt. Seit 15 Jahren gab es keinen globalen Temperaturanstieg mehr.

Im fünften Zustandsbericht räumt das IPCC zum ersten Mal ein, dass die globalen Temperaturen seit 1998 nicht mehr gestiegen sind, trotz eines Anstiegs des Kohlendioxids um 7 Prozent. Um es deutlicher zu machen: die globalen menschlichen CO2-Emissionen der letzten 15 Jahre repräsentieren etwa ein Drittel aller menschlichen CO2-Emissionen seit dem Beginn der industriellen Revolution, und doch haben sich die Temperaturen nicht bewegt. Nahezu alle von den UN anerkannten Klimamodelle lagen falsch. Das IPCC hat das schließlich zugegeben.

Das IPCC gibt auch zu, dass der „Hockeyschläger“, der in den vergangenen Berichten so hervor gehoben worden war, nicht genau war. Professor Michael Mann von der Penn State University hat jahrelang seinen infamen „Hockeyschläger“ angepriesen, eine schlimme, von Al Gore in seinem Oscar-prämiierten Film „Eine unbequeme Wahrheit“ präsentierte Graphik.

Die Graphik sah nur deswegen so dramatisch aus – wie ein Hockeyschläger, – weil darin die Mittelalterliche Warmzeit ignoriert worden ist, eine Zeit vor etwa 1000 Jahren, als es wärmer war als heute – als man in England Weinbau betrieb und Grönland grün war. Der „Hockeyschläger“ fehlt im 5. Zustandsbericht, und das IPCC räumt ein, dass es während der Mittelalterlichen Warmzeit wärmer war als heute und dass dieses Phänomen entgegen früheren Behauptungen weltweit aufgetreten war.

Und noch etwas, dass das IPCC gezwungen war einzuräumen: Keine Zunahme von Dürren, Hurrikanen, Taifunem und anderer Extremwetterereignisse. Jedes Mal, wenn die USA von einem solchen Extremwetterereignis betroffen werden, kann man sich darauf verlassen, dass Wissenschaftler mit Bindungen an das IPCC, professionelle Klima-Alarmisten und die Medien diese Ereignisse allesamt der vom Menschen verursachten globalen Erwärmung in die Schuhe schieben. Jetzt nicht mehr. [Doch! Die „Süddeutsche Zeitung“ steht diesbezüglich immer noch an vorderster Front! A. d. Übers.]

Im jüngsten IPCC-Bericht heißt es auch, dass man „geringes Vertrauen“ in Vorhersagen von häufigeren bzw. extremeren Dürren und Tropenstürmen setzt.

Während das IPCC die Scherben dieser und anderer Fehlschläge aufsammelt, hat ein weiterer Mitspieler im Block der Klimawissenschaft einen Sieg errungen: Das Nongovernmental International Panel on Climate Change NIPCC hat seinen eigenen Bericht veröffentlicht mit dem Titel Climate Change Reconsidered II: Physical Science. Das 1000 Seiten mit begutachteter Literatur starke Dokument – das dann noch einmal begutachtet wurde von einem NIPCC-Team mit etwa 50 Wissenschaftlern aus der ganzen Welt – kommt Climate Change Reconsidered II zu den Ergebnissen, die die UN erst jetzt und sehr widerwillig zugeben.

Der NIPCC-Bericht kommt zu dem Ergebnis, dass der menschliche Einfluss auf das Klima sehr moderat ist, vor allem, wenn man es mit natürlichen Zyklen vergleicht. Die zukünftige Erwärmung allein durch menschliche Treibhausgase wird wahrscheinlich nur 1 bis 2 Grad Celsius betragen und ein Lebenselixier für Flora und Faune gleichermaßen sein.

Ein höherer CO2-Gehalt wird nicht zu extremerem Wetter führen; der Anstieg des Meeresspiegels beschleunigt sich nicht, und die polaren Eiskappen schmelzen nicht mit alarmierenden Raten.

Die globale Erwärmung ist keineswegs die Krise, die vor einigen Jahren noch von sehr Vielen behauptet worden war. Das sind schlechte Nachrichten für das IPCC und die vielen Umweltgruppen und Politiker, die ihr Fähnchen nach dem Wind gerichtet haben. Aber es sind gute Nachrichten für alle anderen von uns.

Jim Lakely

Jim Lakely is director of communications at The Heartland Institute, co-director of Heartland’s… (read full bio)

[First published at The Washington Examiner.]

Link: http://news.heartland.org/editorial/2013/10/21/age-climate-alarmism-coming-end

Übersetzt von Chris Frey EIKE




Deutscher Journalismus: Komm´mir nicht mit Fakten meine Meinung steht!

Sehr geehrter Herr Dr. Ufer,

vielen Dank für Ihren Leserbrief zu meinem Leitartikel, auf denen ich Ihnen gerne antworte. Es wird Sie nicht überraschen, dass ich Ihre Ansichten nicht teile.

Sie schreiben, die Energiewende hätte keine Vorteile. Ich halte das Gegenteil für richtig. Gerade die erneuerbaren Energien haben in den vergangenen Jahren dazu beigetragen, dass sich der Strompreis an der Leipziger Strombörse um rund 50 Prozent verringert hat. Dass sich dieser Preisverfall nicht auf den Verbraucher durchschlägt, ist ein wirkliches Manko. Es gibt allerdings schon Reformansätze, um dies zu beheben. Eine Art Altschuldenfonds, mit dem die Förderung der erneuerbaren Energien nicht über den Strompreis bezahlt wird, gehört beispielsweise dazu. Für dessen Finanzierung könnten auch die Anlagenbesitzer selbst herangezogen werden.

Sehr geehrter Herr Ufer, ich gehöre nicht zu den Personen, die die Energiewende vollkommen unkritisch betrachten. Im Gegenteil. Ich möchte dennoch, dass bestimmte Aspekte gerade gerückt werden. Seitdem ich mich mit diesem Thema befasse, diskutiere ich mit Leuten, die den Atomstrom verteidigen, die vor einem Kollaps des deutschen Energiesystems und vor wirtschaftlichen Abwanderungen warnen. Nichts von all dem ist bisher eingetreten. Weder kam es zu einem Blackout in Deutschland, weder sind bisher mittelständische Unternehmen abgewandert, wie befürchtet wurde, noch gibt es einen gesellschaftlichen Umschwung, der den Atomstrom verteidigt. Es gibt keine Deindustrialisierung, die seit Jahren von mancher Seite aus beschrien wird. Im Gegenteil: Eine Umfrage der Gewerkschaft IGBCE hat erst vor Kurzem gezeigt, dass die Wirtschaft die Energiewende akzeptiert, sie gutheißt und sie nutzen will. Mir wäre auch kein Beispiel bekannt, bei dem die Umwelt durch den Einsatz erneuerbarer Energien zerstört wurde. Die Arbeitslosigkeit hat in den vergangenen Jahren abgenommen: Eine rasant steigende Zahl an Erwerbslosen durch die Energiewende halte ich schlicht für Legende.

Sie haben Recht, es gibt noch viele Probleme. Ausnahmen bei der Zahlung der Ökostrom-Umlage wird viel zu vielen Unternehmen gestattet, es gibt nur wenig Anreize für Windmüller oder Solaranlagen-Besitzer, ihren Strom ins Netz zu leiten, wenn er auch wirklich benötigt wird. Zudem wird Strom an manchen Tagen sogar ans Ausland verschenkt, damit das Netz in Deutschland nicht zusammenbricht – manchmal zahlen deutsche Netzbetreiber gar Geld, damit der Strom abgenommen wird. Ich halte diese Probleme aber alle für lösbar. Allein durch eine Umgestaltung der Fördersätze im Bereich der Photovoltaik ist es gelungen, dass Solaranlagen-Betreiber ihren Strom selbst verwenden, als das Netz damit zu belasten.

Es ist ein beliebtes Argument von Kritikern der Energiewende, auf die Kosten für die Verbraucher hinzuweisen. Ich kann dagegen nichts sagen: Sie werden belastet. Dies zu negieren, wäre auch falsch. Nur sehe ich – wie beispielsweise der Sachverständigenrat für Umweltfragen – Vorteile, die nicht monetarisiert werden. Was kostet uns beispielsweise die jahrtausendelange Lagerung von Atommüll? Wie viel Geld hat Deutschland schon in Gorleben versenkt? Diese Kosten werden von Befürwortern der Atomenergie gerne verschwiegen.

Mit freundlichen Grüßen

Karl Bollenthal

(Name von der Redaktion geändert)

Hier die Antwort von Dr. Ufer…

Sehr geehrter Herr Bollenthal,

Sie hielten es für erforderlich, mir eine Erwiderung auf meinen Leserbrief zu Ihrem NNZ-Leitartikel (Name der Zeitung geändert) vom 16. Oktober zu schreiben. Wir sind uns einig: Ich stimme Ihren Auffassungen zur „Energiewende“ keinesfalls zu! Vor reichlich einem Jahr hatten wir schon einmal einen Meinungsaustausch zu gleichen Thema. Ich hatte Ihnen damals ausführlich auf Ihre Einwände geantwortet. Beim nochmaligen Durchsehen stelle ich fest, dass es sich im Wesentlichen um die gleichen Argumente handelt, mit denen Sie auch heute operieren. Sie hielten es allerdings nicht für erforderlich, mit auf mein umfangreiches Schreiben vom 25. August 2012 zu antworten. In der Anlage schicke ich Ihnen unseren damaligen Mailwechsel noch einmal zu. Ich würde mich freuen, wenn Sie ihn nicht nur lesen würden, sondern auch versuchen, ihn zu verstehen! Gestatten Sie mir trotzdem einige Anmerkungen zu Ihrer jüngsten E-Mail.

Sie schrieben am 18.10.13, dass die erneuerbaren Energien in den vergangenen Jahren dazu beigetragen hätten, dass sich der Strompreis an der Leipziger Strombörse um rund 50 Prozent verringert hat und bezeichneten das als „Vorteil“ der „Energiewende“. Sie sollten wissen: Der Börsenpreis hat nur sehr wenig mit den tatsächlichen Erzeugungskosten zu tun! Elektrische Energie wird an der EEX lediglich zu den Betriebskosten gehandelt; bei konventionellen Kraftwerken sind das im Wesentlichen die Brennstoffkosten. Bei Wind- oder Photovoltaikanlagen ist dieser Kostenanteil praktisch Null – daher sinkt der Börsenpreis. Die Fixkosten bleiben bei diesem Handel unberücksichtigt.

Und nun bedauern Sie, „dass sich dieser Preisverfall nicht auf den Verbraucher durchschlägt“ und bezeichnen das als „wirkliches Manko“. Nehmen Sie bitte zur Kenntnis: Das EEG schreibt vor, dass Betreibern/Investoren die Einspeisung von Elektroenergie aus Wind-, Solar- und anderen Anlagen zu staatlich festgelegten Preisen (die nichts mit den EEX-Preisen zu tun haben!) vergütet wird, und das – verbunden mit einer staatlichen Absatzgarantie – für 20 Jahre. Die Differenz zwischen den staatlich verordneten Einspeisevergütungen und dem Börsenpreis muss irgendjemand bezahlen: Entweder der Staat aus seinem Haushalt oder die Vielzahl der Stromverbraucher. Es wurde die zweite Variante gewählt. Weil – politisch gewollt! – immer mehr von dem Strom eingespeist wird, der zwar an der Börse mit niedrigen Kosten gehandelt wird, jedoch real wesentlich teurer als der Strom aus konventionellen (Kohle-, Gas- und Nuklear-) Kraftwerken ist, müssen wir von Jahr zu Jahr mehr für den Strom zahlen.

Wenn Sie fordern, dass der „Preisverfall“ an der Börse auf die Verbraucher durchschlagen soll, dann haben Sie entweder dieses Handelssystem nicht verstanden  oder Sie wollen das EEG abschaffen. Weil Sie aber die „Energiewende“ mit aller Kraft verteidigen, können Sie das EEG, eine der Grundfesten der „Energiewende“, nicht wirklich antasten wollen! Wie so manche Politiker wollen das EEG „reformieren“. Können Sie mir auch sagen, wie man das machen soll? Ihre Floskeln von „Altschuldenfonds“ etc. sind unverständlich. Bisher habe ich noch nicht einen einzigen Vorschlag zu Gesicht bekommen, der dieses verhängnisvolle Gesetz so verändert, dass auch in der Energiewirtschaft wieder uneingeschränkt Wettbewerb möglich ist. Die einzig zielführende Lösung wäre die ersatzlose Streichung des EEG, einschließlich des „Bestandsschutzes“ der Altanlagen-Betreiber. Aber wer unter den direkt oder indirekt von der Politik Abhängigen hat den Mut, das zu fordern?

„Mit geradezu boshafter Freude“ (Ihre Worte!) erklären Sie mir, dass es bisher nicht zu einem Blackout kam, dass es keine Deindustrialisierung gäbe und dass die Umwelt auch nicht durch „erneuerbare Energien“ zerstört würde. Kennen Sie die Fakten nicht oder wollen Sie sie nicht sehen?

Wollen Sie vor einem Blackout erst „warnen“, wenn er eingetreten ist? Sie werden dann keine Gelegenheit mehr dafür haben! Damit er aber nicht eintritt, kämpfen Fachleute buchstäblich Tag und Nacht für unsere sichere Versorgung. Ein Beispiel unter vielen: Der Übertragungsnetzbetreiber Tennet muss immer häufiger kurzfristig ins Netz eingreifen indem Notreserven aus dem Ausland mobilisiert oder Kraftwerke zu- oder abschaltet werden müssen. „Wir haben heute im Schnitt drei Eingriffe ins Stromnetz am Tag. Vor zehn Jahren waren es drei im gesamten Jahr.“ (VDI nachrichten, 4. 10.13) Ähnliche Meldungen gibt es von den anderen deutschen Netzbetreibern.

Wollen Sie auch erst dann Ihre journalistischen Aktivitäten entfalten, wenn Deutschland wirtschaftlich am Boden liegt, wenn die Deindustrialisierung vollzogen wurde? Warnungen von Fachleuten passen nicht in Ihr Konzept. Trotzdem will ich Sie noch einmal auf einige Wortmeldungen aufmerksam machen:

Eric Schweitzer, Präsident des DIHK: „Ja, wir brauchen ein marktwirtschaftliches System, um in unserem Land nicht schleichend auf eine Deindustrialisierung in energieintensiven Branchen zuzusteuern.“ (LVZ 19./20.10. 13)

Garrelt Duin, Wirtschaftsminister von NRW: „Wir dürfen nicht alles dem Klimaschutz unterordnen. Wir fordern von Südeuropa eine höhere Wettbewerbsfähigkeit, die EU entwirft eine Strategie zur Re-Industrialisierung – und Deutschland macht eine Energiepolitik, die das Gegenteil bewirkt.“ (Wirtschaftswoche.de 22.120.13)

Martin Wansleben, Hauptgeschäftsführer des DIHK erklärte, die steigenden Energie- und Rohstoffkos­ten seien das „Konjunkturrisiko Nummer 1“. Jeder zweite Betrieb sorge sich darum, in der Industrie seien es gar zwei von drei Unternehmen. Auch nehme die Bereitschaft zu Standortver­lagerungen wegen der hohen Energie­kosten zu. Ohne ein Umsteuern bei der Energiewende verstärke sich dieser Trend. (FAZ 22.10.13)

Ulrich Grillo, Präsident des BDI, erklärte, die deutsche Industrie sei auf wettbewerbsfähige Energiepreise angewiesen. Dass schon jetzt in diesen Unternehmen nur noch rund 85 Prozent der Abschreibungen reinvestiert werden, ist … ein klares Indiz für den begonnenen schleichenden Rückzug aus einem Land mit zu teurer Energie. (FAZ 4.10.13)

Winand von Petersdorff: „Hierzulande stehen nicht nur ein paar Chemieanlagen zur Disposition, sondern mittelfristig der gesamte Industriestandort als Quelle des deutschen Wohlstands.“ (FAS 23.6.13)

Dieter Ameling, ehem. Präsident der Wirtschaftsvereinigung Stahl: „Es ist unwahrscheinlich, dass in Deutschland noch mal ein neues Stahlwerk gebaut wird, eine große Chemiefa­brik oder ein Werk für Karbonfasern. Wer die freie Wahl hat, wird sich für Standorte entscheiden, die niedrige Energiekosten aufweisen. Die Investitionen der Ausländer in Deutschland sind deutlich weniger geworden. Wir sind in der Statistik auf Platz 39 abgefallen. Umgekehrt sind deutsche Investitionen im Ausland stark angestiegen. Wer die freie Wahl hat, wird meist woanders hingehen. In den Vereinigten Staaten wird der Strom viermal billiger, wenn die Erdgasproduktion durch Fracking gesteigert wird. … Die Deindustrialisierung in Deutschland verringert den Wohlstand, schwächt das soziale Netz. Wir nähern uns sehr schnell der Situation der Industrie in England und Frankreich.“ (FAZ 7.8.13)

Utz Tillmann, Hauptgeschäftsführer des Verbandes der Chemischen Industrie fordert den sofortigen Förderstopp für neue Ökostromanlagen. „Wenn die nächste Bundesregierung nicht schnell handelt, steht unsere Wettbewerbsfähigkeit auf dem Spiel“ (FAZ 4.10.13)

Diese Liste ließe sich nahezu unendlich, z. B mit Wortmeldungen von EU-Energiekommissar Günther Oettinger und vielen Beiträgen aus der LVZ,  fortführen. Schon vor einem Jahr habe ich Ihnen eine ganze Reihe ähnlicher Zitate geschickt. Aber was interessiert Sie die Meinung von Fachleuten – Sie wissen es besser: „Es gibt keine Deindustrialisierung“.

 

Umweltzerstörung durch „erneuerbare Energien“:


Auch an dieser Stelle könnte ich Ihnen viele Wortmeldungen von Umweltschützern (nicht zu verwechseln mit „Klimaschützern“!) zitieren, die sich gegen den Ausbau der Windenergie, gegen landwirtschaftliche Monokulturen oder gegen die Verunstaltung historischer Bausubstanz mit Solar-Dächern wenden.

Verweisen möchte ich lediglich auf die Austrittserklärung Enoch zu Guttenbergs aus dem BUND. Er schreibt dort u. a.: „… schweren Herzens und voller Trauer erkläre ich heute (11.5.12) meinen Austritt aus dem von mir mitbegründeten BUND UMWELT UND NATURSCHUTZ  DEUTSCHLAND. Lange Zeit war ich stolz auf die großen Leistungen und Verdienste unseres Verbandes, die maßgeblich zum umweltpolitischen Umdenken in Deutschland und in Europa beigetragen haben. … Umso schmerzlicher empfinde ich die katastrophale Entwicklung im deutschen Landschafts-, Arten- und Denkmalschutz, die durch Aktivitäten vieler BUNDKreisgruppen, aber auch von BUND-Landesverbänden, ja bis hinauf in die Führung des Verbandes unter der Überschrift ENERGIEWENDE verantwortungslos gefördert wird. Die weitgehende Zerstörung der deutschen – bisher auch und gerade durch unseren Einsatz ausgewiesenen – Landschaftsschutzgebiete und Naturparks durch riesige Windkraft- aber auch Photovoltaikanlagen wird in unzähligen Fällen durch die oben genannten Institutionen des BUND nicht nur geduldet, sondern aktiv unterstützt.“

Er sagte auch: „Inzwischen nämlich geht es um die Kernregionen deutscher Geschichte und Kultur, um Landschaftsschutzgebiete, bislang sorgsam bewahrte Kulturräume und Ensembles, die man um unseres unstillbaren Energiehungers willen im Verein mit den unsagbaren Photovoltaik-Untaten auf den Dächern alter Ortsgefüge, in ihrer Identität, in ihrem Wert hinrichtet und vernichtet. … Windkraftanlagen sind nicht nur Geländefresser. Sie erfordern nicht nur die Erschließung, also die Entwaldung ganzer Höhenzüge. Sie sind zudem hocheffiziente Geräte zur Vernichtung von Vögeln und Fledermäusen.“ (FAZ 12.5.12)

Aber all das bemerken Sie nicht: „Mir wäre auch kein Beispiel bekannt, bei dem die Umwelt durch den Einsatz erneuerbarer Energien zerstört wurde.“ Reisen Sie blind durch unser Land?

Sie schrieben mir: „Es ist ein beliebtes Argument von Kritikern der Energiewende, auf die Kosten für die Verbraucher hinzuweisen. Ich kann dagegen nichts sagen: Sie werden belastet. Dies zu negieren, wäre auch falsch.“ Im Gegensatz zu fast jedem Politiker oder Journalisten, der darüber spricht oder schreibt, unternehmen Sie nicht einmal den Versuch, nach Möglichkeiten der Kostensenkung zu suchen. Sie nehmen sie als quasi naturgegeben hin und versuchen sie sogar noch zu rechtfertigen, indem Sie die hohen Kosten der „Energiewende“ den Kosten für „die jahrtausendelange Lagerung von Atommüll“ gegenüberstellen. Ich habe Sie schon einmal auf aktuelle nukleartechnische Entwicklungen hingewiesen. Ihre jüngsten Ausführungen belegen: Sie ignorieren alles, was Ihnen unangenehm ist – oder Sie verstehen es nicht! Ich empfehle Ihnen daher dringend: Versuchen Sie bitte nicht, mit Ihren Fachkenntnissen die Wirtschaftlichkeit der „Energiewende“ herbeizuschreiben oder gar herbeizurechnen. Es dürfte Ihnen nicht gelingen!

Aufgefallen ist mir übrigens, dass Sie bei Ihrer jüngsten Verteidigung der „Energiewende“ nicht ein einziges Mal den „Klimaschutz“ bemühten. Offiziell war der ja einer der Hauptgründe für die „Energiewende“! Am 18.8.2012 schrieben Sie mir noch: „Ich hänge der Meinung an, dass ein Zusammenhang zwischen dem Ausstoß von Kohlenstoffdioxid und Klimaerwärmung besteht.“ Sind Sie inzwischen vom Glauben abgefallen?

Ich schließe meine Ausführungen zwar mit der Hoffnung, dass Sie meine Ausführungen nicht nur lesen, sondern auch so viel daraus lernen, dass Ihnen klar wird, dass die „Energiewende“ nur unter Bedingungen machbar ist, die mit der Zerstörung nicht nur der deutschen Wirtschaft, sondern zugleich unseres Lebensstandards und unserer Umwelt verbunden sind. Um es noch deutlicher zu sagen:

Die von energiewirtschaftlichen Laien in Deutschland inszenierte „Energiewende“ ist eines der größten volkswirtschaftlichen Verbrechen der letzten Jahrzehnte!

Selbstverständlich kann ich Sie nicht daran hindern, genau das Gegenteil zu glauben – ganze Parteien in Deutschland leben von diesen Illusionen. Sie behaupten zwar von sich, die „Energiewende“ nicht unkritisch zu betrachten, möchten aber „bestimmte Aspekte“ gerade rücken. Aber genau das tun Sie nicht, denn in all Ihren Wortmeldungen zur Energiepolitik, die ich seit langem verfolge, versuchen Sie diese verhängnisvolle energiepolitische Entscheidung zu rechtfertigen, schön zu reden. Ich empfehle Ihnen daher dringend, bei Ihren weiteren journalistischen Arbeiten entweder energiepolitische Themen völlig zu meiden oder wenigstens so darzustellen, dass Sie eine kundige Leserschaft, die vielleicht noch etwas mehr als Sie von Energiewirtschaft versteht, nicht vor den Kopf zu stoßen und zu beleidigen.

Ohne Hoffnung auf eine Antwort von Ihnen verbleibe ich

mit freundlichen Grüßen

Dr. Dietmar Ufer

Grünewaldstr. 1

04103 Leipzig

PS: Ich erlaube mir, diesen Mail-Wechsel einer Reihe von Fachkollegen und weiteren Interessierten zur Kenntnis zu geben.




Im Takt der AMO und der NAO (1):Das Häufigkeitsverhalten der Großwetterlagenund dessen Auswirkungen auf die Deutschland- Temperaturen

Bild rechts: Harmlose Schönwetterwolken oder Unwettervorboten- je nach Wetterlage! Fotos: Stefan Kämpfe

Einführung und Teil 1

Für diese Untersuchung wurden die Großwetterlagen für Mitteleuropa nach HESS/BREZOWSKY verwendet. Sie sind ab dem Jahr 1881 im „Katalog der Grosswetterlagen“ bis 2009 erfasst (WERNER/GERSTENGARBE, 2010) sowie bis 2013 beim Deutschen Wetterdienst (DWD.DE) verfügbar, so dass die Untersuchung 1881 (für den ersten Winter 1881/82) beginnt und 2012 (für den letzten Winter 2012/13) endet. Die vom Deutschen Wetterdienst (DWD) außerdem verwendete „Objektive Wetterlagenklassifikation“ (BISSOLLI/DITTMANN, 1998 bis 2005) steht für einen derart langen Untersuchungszeitraum nicht zur Verfügung. Um diesen Beitrag knapp zu halten, wird auf ausführliche Erläuterungen der Fachbegriffe verzichtet und empfohlen, diese bei Wikipedia abzufragen. Die Großwetterlagen wurden und werden von erfahrenen Meteorologen anhand der täglichen Boden- und Höhenwetterkarten analysiert, wobei die Regel gilt, dass eine im Großwetterlagenkatalog aufgeführte Wetterlage mindestens 3 Tage ohne Unterbrechung anhalten muss; Monats- und Jahresübergreifende Fälle sind dabei möglich. Die AMO (Atlantische Mehrzehnjährige beziehungsweise Multidekaden- Oszillation, eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen, einhergehend mit Schwankungen deroberflächennahen Wassertemperatur im nordatlantischen Becken) wird seit 1856erfasst (Quelle: WIKIPEDIA). Und weil besonders die Wintertemperaturen in Europa von einer weiteren wesentlichen Größe, nämlich der NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) beeinflusst werden (TINZ 2002), wurden nur für den Winter die Saisonalen NAO- Indizes (Dez. bis Feb.) nach HURRELL in die Untersuchung einbezogen. Die folgenden 5 Abbildungen zeigen zunächst den Verlauf der AMO (dunkelgrün) sowie des Deutschland- Mittels im Untersuchungszeitraum:

Abb.1 : Die AMO (jeweils oberer dunkelgrüner Graph, Quelle http://www.esrl.noaa.gov/psd/data/timeseriesimeseries/AMO/) und die Deutschlandmittel des Jahres (oben, grau, Quelle: WIKIPEDIA) und der 4 Jahreszeiten. AMO mit Linear- , Deutschlandmittel mit Linear- und Polynom- Trend. Um beide Werte in jeweils einem Diagramm leichter darstellen zu können, wurden, mit Ausnahme des Sommers, die Deutschlandmittel durch Addition „angehoben“.

Hinweis:Es werden für alle Darstellungen der Größen, auch für die Großwetterlagen und die Großwetterlagencluster, immer wieder dieselben oder ähnliche Farben benutzt, um das Erfassen der Grafiken und das Erkennen einander ähnlicher Wetterlagen und deren Cluster zu erleichtern. Die Schwankungen der AMO, auf die gleich noch näher eingegangenwird, sind, da sie viel geringer als die der Lufttemperaturen in Deutschland ausfallen, nur andeutungsweise sichtbar. Um sie besser sichtbar zu machen, wird in allen folgenden Grafiken eine überhöhte Amplitudendarstellung der AMO benutzt, die Frequenz, also die Länge und Häufigkeit der Schwingungen, auf die es letztendlich ankommt, ändert sich dabei nicht.

Berechnet man die linearen Korrelationskoeffizienten zwischen den AMO- Werten und dem Deutschlandmittel der Lufttemperatur (jeweils auch für die Meteorologischen Jahreszeiten), so ergeben sich im Untersuchungszeitraum Werte zwischen annähernd Null für den Winter, 0,17 für den Frühling, 0,44 für den Sommer und 0,36 für den Herbst sowie 0,37 für das Jahr. Das entspricht Bestimmtheitsmaßen von Null im Winter und 19% für den Sommer. Der Einfluss ist somit auf den ersten Blick nur gering; trotzdem ist bei der hohen Zahl an Einzelwerten (n = 132) von einer gewissen Beeinflussung auszugehen, zumal der schwache, positive Zusammenhang im Großen und Ganzen bestätigt wird, wenn man bis zum frühesten Erfassungsjahr der AMO, dem Jahr 1856, zurückgeht (Winter Null, Frühling 0,17, Sommer0,38 und Herbst 0,35).Man erkennt in der obigen Abbildung sowohl im Jahres- wie im jahreszeitlichen Verlauf ähnliche Steigungen, wobei die mittleren Lufttemperaturen in Deutschland schneller steigen, als die der AMO. Anhand der Polynom- Trends der Deutschlandmittel erkennt man deren rhythmische Schwankungen, die sich bei den einzelnen Jahreszeiten beträchtlich unterscheiden,aber am Ende, ab etwa dem Beginn der 2000er Jahre, in einen Abschwung übergehen, der am längsten und am deutlichsten im Winter sichtbar wird.In dem Beitrag „Die Winter werden in Deutschland seit einem Vierteljahrhundert deutlich kälter“ hatten KÄMPFE/LEISTENSCHNEIDER/KOWATSCH (2013) dieses Phänomen des Vorlaufs der Wintertemperaturen bereits erklärt. Aber warum sind die Lufttemperaturen in Deutschland deutlich schneller gestiegen, als die Wassertemperaturen im Nordatlantik? Dafür gibt es 3 wesentliche mögliche Erklärungen:

1. Hauptantrieb der Erwärmung, die sich nur im 20. Jahrhundert vollzog, was vom „Lineartrend“ verschleiert wird, ist die ansteigende Sonnenaktivität(BORCHERT, 2013; MALBERG, 2002 bis 2013). Diese wirkt auf dem infolge seiner hohen Wärmekapazität trägen Meer viel langsamer und geringer, als an Land.Seit dem Ende des etwa 208-jährigen Hauptsonnenzyklus im Jahre 2003 ging die solare Aktivität deutlich zurück, was sich im Deutschland- Mittel bereits seit den frühen 2000er Jahren in leicht fallenden Temperaturen äußert. Der aktuelle Sonnenfleckenzyklus Nr. 24 ist der schwächste seit etwa 200 Jahren.

2. Hinzu kommt der in den Weiten des Atlantiks fehlende Wärmeinsel- Effekt, welcherin Deutschland durch geänderte Landnutzung (unter anderem Entwässerung) sowie die Verstädterung beträchtlich erwärmend wirkte und im letzten Viertel des 20. Jahrhunderts und dem frühen 21. Jahrhundert noch zusätzlich durch eine wegen der Luftreinhaltemaßnahmen zunehmende Sonnenscheindauer und –Intensität unterstützt wurde. Diese Wärmeinsel- Effekte im weitesten Sinneoder die verlängerte Sonnenscheindauer wurden in früheren, zahlreichen Beiträgen (LEISTENSCHNEIDER/KOWATSCH, 2010, 2012; KÄMPFE/LEISTENSCHNEIDER/KOWATSCH, 2012, 2013; MALBERG, 2009; WEHRY, 2009; WEHRY/MYRCIK, 2006) ausführlich untersucht und erläutert; sie bewirkten einen wesentlichen Anteil der Erwärmung in Deutschland.

3. Die geänderten Häufigkeitsverhältnisse der Großwetterlagen. Nach WERNER/GERSTENGARBE/RÜGE (1999) lässt sich jede Großwetterlage zumindest grob nach ihrem thermischen Verhalten saisonal und im Jahresmittel charakterisieren. Wie wir gleich noch sehen werden, nahmen viele, die Erwärmung in Deutschland fördernde Wetterlagen zu.

Zunächst sehen wir aber anhand einer überhöhten Darstellung, welche die AMO- Schwankungen deutlicher sichtbar macht, dass die Deutschland- Temperaturen den AMO- Werten quasi vorweglaufen:

Abb 2: In der stark überhöhten Darstellung wird deutlich, dass die Deutschland- Werte die AMO- Schwankungen vorwegnehmen, woraus man aber nicht schließen darf, dass die Deutschland- Werte die AMO treiben!

Dass der umgekehrte Schluss richtig ist (AMO beeinflusst Deutschland- Werte) werden wir, auch anhand des Verhaltens der Großwetterlagen, noch erkennen. Außerdem ist es wahrscheinlich, dass AMO und Deutschlandtemperaturen zugleich von übergeordneten Mechanismen getrieben werden, was im Rahmen dieser Arbeit nicht untersucht werden kann. Dabei reagiert die AMO jedoch wesentlich verzögerter.Im folgenden Abschnitt wird zunächst der Einfluss der Großwetterlagen auf die Temperaturverhältnisse in Deutschland erörtert.

Beeinflussen die Großwetterlagen die Temperaturen in Deutschland?

Lange Eiseskälte oder zeitiges Frühlingserwachen durch kühlende oder erwärmende Großwetterlagen? Fotos: Stefan Kämpfe

Um sich der Bedeutung der Großwetterlagen für unsere Temperaturverhältnisse bewusst zu werden, lohnt sich zunächst einmal ein Blick auf unsere Nachbarregionen, nämlich das atlantische Klima im Westen, das Kontinentalklima im Osten, das subtropische im Süden und das boreale im Norden; denn die Großwetterlagen „importieren“ quasi deren Temperaturverhältnisse in unser Übergangsklima:

Abb. 1: Drei Stationen auf ähnlichem Breitengrad (50 bis 52 °N) und ähnlicher Höhenlage im West- Ost- Vergleich (obere Grafik). Im Süd- Nord- Vergleich 3 Stationen ähnlicher Höhenlage. Quelle des Datenmaterials: HEYER 1977.

Man erkennt sehr schön die winterlichen und sommerlichen Temperaturverhältnisse bei unterschiedlicher Kontinentalität. Die höhere Sommerwärme des Kontinentalklimas (Kiew) reicht jedoch nicht aus, um das Temperaturdefizit des Winterhalbjahres zu egalisieren, weshalb das atlantische Klima, unterstützt durch den Golfstrom, im Jahresmittel selbst bei Höhenbereinigung (Kiew liegt gut 150 Meter höher als Plymouth) um fast 3K wärmer ausfällt, als das kontinentale. Bei westlichen Lagen bedeutet das für Deutschland deutlich zu milde Winter und etwas zu kühle Sommer; bei Ostlagen herrschen umgekehrte, aber extremere Verhältnisse. Die untere Abbildung spricht für sich selbst, wobei der Abstand zwischen Süd und Nord im Sommer geringer als im Winter ausfällt. Wir werden bei der Betrachtung der Großwetterlagen gleich noch sehen, dassdiese die West- Ost- Verhältnisse meist sehr gut wiederspiegeln; bei den Süd- Nordverhältnissen ist das nicht immer der Fall. Die folgende Tabelle zeigt alle in Deutschland auftretenden Großwetterlagen, zusammengefasst zu Großwettertypen und weiteren „Clustern“, das sind Wetterlagengruppen mit ähnlichen Eigenschaften:

Abb. 2 (Tabelle): Zusammenfassung von Großwetterlagen (GWL) zu Großwettertypen (GWT) und weiteren sogenannten „Clustern“ für verschiedene Fragestellungen. In der Regel bedeuten die ersten ein bis zwei Buchstaben in den Kürzeln die Strömungsrichtung, aus der die Witterung kommt (W = West, SW = Südwest, E = Ost und so weiter). Die Buchstaben A stehen für antizyklonal, Z für zyklonal (überwiegender Hochdruck- beziehungsweise Tiefdruckeinfluss). WS bedeutet südliche Westlage (Zugbahn der Tiefs verläuft südlicher als bei WZ); WW Winkelförmige Westlage, HM, HB, HF, HN, HNF Hochdruckgebiet über Mitteleuropa, den Britischen Inseln, Fennoskandien, Nordmeer oder Nordmeer- Fennoskandien, BM Hochdruckbrücke über Mitteleuropa, TM und TB Tief Mitteleuropa, Tief Britische Inseln, TRM, TRW Troglage über Mittel- oder über Westeuropa. Nicht enthalten und nicht ausgewertet wurden Übergangslagen (Ü), das sind einzelne, wenige Tage, die sich keiner Großwetterlage zuordnen lassen.

Einige grundlegende Eigenschaften der Wetterlagen  und deren Einflüsse auf die Lufttemperaturen werden bereits in der Tabelle deutlich. Die Klärung, wie stark der Temperatureinfluss der einzelnen Wetterlagen oder Cluster konkret ist, würde voraussetzen, dass die Tagesmittel der Lufttemperatur deutschlandweit einzeln erfasst und jeder Wetterlage tageweise konkret zugeordnet werden- ein gewaltiger Aufwand, sofern dieses Datenmaterial überhaupt für so einen langen Zeitraum von 132 Jahren verfügbar wäre. Auch eine luftmassenbezogene, sicher noch aussagefähigere Auswertung ist für einen so langen Zeitraum nicht verfügbar. Es gibt aber noch eine weitere, weniger aufwändige Möglichkeit, die zumindest wesentliche Anhaltspunkte für den Temperatureinfluss liefert- die lineare Korrelation zwischen der jährlichen, jahreszeitlichen oder monatlichen Häufigkeiten der Wetterlagen oder Cluster und den zugehörigen Jahres-, Jahreszeiten- oder Monatsmitteln der Deutschland- Temperaturen. Die Zusammenfassung der Wetterlagen zu Clustern aus Wetterlagen mit ähnlichen Eigenschaften hat dabei den Vorteil, dass sie die Häufigkeiten erhöht(einige der Großwetterlagen treten für sich allein betrachtet zu selten auf, um statistisch einigermaßen brauchbare Aussagen zu erzielen),und Unstimmigkeiten bei der Klassifizierung der Wetterlagen gemildert werden. Die folgende Abbildung zeigt den für das gesamte Jahr ermittelten deutlichsten positiven Zusammenhang, den zwischen dem Cluster SW (GWT SW, bestehend aus SWA und SWZ)zum Deutschland- Jahresmittel der Lufttemperatur:

Abb. 3: Obwohl Südwestlagen nur an gut 5%  der Tage aller erfassten Jahre auftraten, hatten sie  eine gewisse Erwärmungswirkung- traten in einem Jahr viele Südwestlagen auf, so fiel dieses meist auch zu warm aus, wenngleich der Zusammenhang nur mäßig ist. Eine Scheinkorrelation ist schon aufgrund der Tatsache, dass Südwestlagen fast ausschließlich gemäßigt- warme bis subtropische Luftmassen nach Deutschland lenken, unwahrscheinlich. An den Punkten auf der vertikalen Achse erkennt man außerdem, dass es sogar einige Jahre ganz ohne Südwestlagen gegeben hat.

Vorab sei aber schon angemerkt, dass die Wetterlagen mit südlicher bis südwestlicher Anströmung zwar im Frühling, Sommer und Herbst, jedoch nicht im Winter, deutlich häufiger wurden. Nun stellt sich die Frage nach weiteren auffälligen Clustern mit Erwärmungs- oder Abkühlungswirkung, deren Häufigkeit sowie deren Trend (Zu- oder Abnahme) im Beobachtungszeitraum. Die folgende Tabelle listet alle Großwetterlagen oder Cluster auf, dieeine Korrelation von mehr als 0,2 oder weniger als -0,2 erreichten; alles Weitere wird aus der Tabelle ersichtlich:

Abb. 4 (Tabelle): Lagen (gesamtes Jahr) mit Korrelationskoeffizienten, deren Betrag mindestens 0,2 zum Deutschen Jahresmittel (°C) erreichte, im Vergleich. Man beachte, dass aufgrund der unterschiedlichen Häufigkeitsverhältnisse sowie der mehrfachen Präsenz einzelner Lagen in verschiedenen Clustern eine direkte, quantitative Aussage über die Erwärmungs- oder Abkühlungswirkung nicht möglich ist! Trotzdem kann man unschwer erkennen, dass fast alle „wärmenden“ Lagen zu- und fast alle kühlenden Lagen abgenommen haben. So sind, rein statistisch betrachtet, gegenwärtig pro Jahr fast 44 Tage mehr mit Südanteil zu erwarten, als im späten 19. Jahrhundert, während die Lagen mit Nordanteil um fast 30 Tage abnahmen!

Bemerkenswert ist auch, dass alle antizyklonalen Lagen mit r = -0,138 über das Jahr betrachtet, insgesamt etwas kühlend wirkten, während zyklonale mit r = 0,142 einen leicht erwärmenden Einfluss hatten. Weiterhin zeichnet sich ab, dass die Westlagen im engeren Sinne (WA +WZ) im Jahresmittel leicht erwärmend, östliche Wetterlagen eher kühlend wirken, was dem wärmenden Einfluss des Golfstroms zu verdanken ist- siehe auch Abbildung 1. Und dass es unterschiedliche jahreszeitliche Verhaltensweisen der Wetterlagen und Cluster gibt, wird noch später gezeigt. In der nächsten Abbildung ist das unterschiedliche Verhalten aber schon einmal angedeutet; sie zeigt zwei sehr gegensätzliche Cluster, dazu noch die Unterschiede zwischen SW und NW, mit dem Jahresgang ihrer Korrelationskoeffizienten zum Deutschland- Temperaturmittel:

Abb.5: Das jahreszeitliche Verhalten des Zusammenhangs zwischen der Häufigkeit gegensätzlicher Cluster zeigt Besonderheiten, die im Jahresverlauf teilweise nivelliert werden. Man beachte den gegensätzlichen Verlauf zwischen atlantischen, zyklonalen Lagen und kontinentalen,antizyklonalen Lagen, wobei die Korrelationskoeffizienten im Hochsommer und Hochwinter beachtliche Beträge von >0,5 erreichen. Südwestlagen wirken- mit Ausnahme des Juli- stets mehr oder weniger deutlich erwärmend, besonders im Herbst, während Nordwestlagen mit Ausnahme des Winters und Vorfrühlings meist leicht kühlen.

Als erstes Ergebnis dieser Untersuchung bleibt festzuhalten, dass die deutliche Zunahme erwärmend wirkender Wetterlagen auf Kosten der kühlenden zumbisherigen Temperaturanstieg in Deutschland beigetragen hat. Man hüte sich jedoch davor, diese Trends bedenkenlos in die Zukunft zu extrapolieren. Während der letzten 10 bis 15 Jahre deutet sich nämlicheine mögliche Trendwende zur Abkühlung an, die sich auch bereits im Häufigkeitsverhalteneiniger Wetterlagen zeigt. Ausgerüstet mit diesem Sachwissen, kann nun die spannende Ursachenforschung für das zeitweise geänderte Verhalten der Großwetterlagen beginnen.

Zum Autor Stefan Kämpfe

Studium der Agrarwissenschaften, ab 1990 ehrenamtlich Kartierung und Erfassung der Rote-Listen-Pflanzenarten Thüringens in Weimar und dem Ettersberg für das Herbarium Haußknecht und die Thüringer Landesanstalt für Umwelt und Geologie Biotoptypenkartierung. Mitglied der Thüringischen Botanischen Gesellschaft und Verfasser zahlreicher Fachbeiträge zur Pflanzenkunde, Wetterkunde und Klimatologie in Fach- und populärwissenschaftlichen Zeitschriften. Mitarbeiter in der Grünflächenabteilung der Stadtverwaltung Weimar.

Eine ausführliche Zusammenstellung der verwendeten Literatur und Informationsquellen finden Sie am Ende des 3. Teiles




Dem deutschen Grünenergie-Getöse geht der Wind aus

Es ist überhaupt nicht mehr wegzudiskutieren, dass die globale Temperatur während der letzten 16 Jahre, vielleicht auch schon ein wenig länger, auf dem gleichen Stand geblieben ist, trotz des steigenden CO2-Anteils in der Atmosphäre. Das UNO-IPCC musste zugeben, dass seine Klimamodelle mit der Vorhersage einer drohenden globalen Erwärmungskrise grob übertrieben haben bei der Einschätzung der Reaktion des Klimas auf das Spuren-Treibhausgas Kohlendioxid.

Die unbegründete Alarmschlägerei hat eine teure und wirtschaftlich zerstörerische Anti-Fossile-Energie-Politik in den Vereinigten Staaten, Westeuropa, Australien und weiteren Weltregionen ganz erheblich beeinflußt. So bleibt die Frage, wie lange es dauern wird, bis die Mehrheit der Völker merkt, dass sie hinters Licht geführt wurde mit dem unbezahlbaren und wirkungslosen Anschub der „Grünen Energie“ wegen des Klimaschutzes.

Die politisierte Wissenschaft hat hohe Kosten verursacht

Dr. Fritz Vahrenholt, Sozialdemokrat und einer der Väter der deutschen Umweltschutzbewegung, hat sich zu einem der vielen harten Kritiker der IPCC-Zustandsberichte gewandelt.

Vahrenholt, der den Geschäftsbereich “Erneuerbare Energien“ beim zweitgrößten deutschen Energieversorger RWE geleitet hatte, erregte Aufsehen als Mitautor des Renners auf dem Buchmarkt Die Kalte Sonne, worin die IPCC-Kompetenz im Allgemeinen, und im Besonderen dessen grobschlächtige, mehr als doppelt so dicke Übertreibung der Wärmewirkung des CO2 in Zweifel gezogen wird. Das Buch gibt es nun auch in englischer Übersetzung The Neglected Sun Precludes Catastrophe. Es ist zur Zeit der Bestseller bei Amazons Klimaliteratur.

Dr. Vahrenholts mangelndes Vertrauen in die Objektivität und Wahrhaftigkeit des IPCC geht bis 2011 zurück, als er Fachgutachter für den 2011er Bericht über Erneuerbare Energien war und zahlreiche Fehler entdeckte. Als er dies dem IPCC berichtete, haben die Offiziellen dort seine Einwände einfach weggebürstet. Darüber war er sehr erstaunt und fragte, „ob das die Art ist, wie mit Klima-Sachstandsberichten umgegangen wird.“ Beim nachfolgenden, tiefer gehenden Studium der IPCC-Klimabibel musste er zu seinem Entsetzen erkennen, dass sein Verdacht berechtigt war.

Als ich Vahrenholt über seine Meinung zum jüngsten IPCC-Sachstandsbericht befragte und die Aussagen, dass die IPCC-Wissenschaftler zu 95% sicher wären, es sei der Mensch, der für die (nicht eingetretene) Erwärmung verantwortlich wäre, sprach er folgende Empfehlung aus: “Wenn das Wirken von Mutter Natur nicht so will wie das IPCC mit seinen verbogenen Berechnungen, dann sollte man der Mutter glauben.” – Ganz meine Meinung!

Fritz Vahrenholt sieht große Gefahren für Deutschland, wenn das Land so mit seiner auf der Klima-Alarmschlägerei beruhenden Energiepolitik weitermacht. Die Verbraucher müssen dafür bereits jetzt jährlich 20 Milliarden Euro bezahlen. Nächstes Jahr wird es auf 300 Euro hoch gehen. Vahrenholt: “An windreichen Tagen gibt es so viel Strom, dass die Windparks abgestellt werden müssen, doch sie erhalten trotzdem Geld für Strom, den sie nicht liefern. Und wenn der Wind weht, verkaufen wir überschüssigen Strom an unsere Nachbarländer zu negativen Preisen. Wenn dann der Wind nicht mehr bläst und keine Sonne scheint, müssen wir Strom vom Ausland einkaufen. Unter dem Strich bezahlen wir mit dem Verlust von hochbezahlten Industrie-Arbeitsplätzen, weil der hohe Strompreis unsere Wettbewerbsfähigkeit kaputt macht.”

Dr. Vahrenholt schließt: “Die Agitatoren aus der Klimawissenschaft hier im Lande haben uns keinen Gefallen erwiesen. Erneuerbare Energien haben eine große Zukunft, aber nicht so. Der Zug ist abgefahren und er ist viel zu teuer. Wir riskieren Deutschlands Industrien.

Die Lage in der Energiepolitik wird vermutlich schlimmer, nachdem die CDU von Kanzlerin Angela Merkel wiedergewählt worden ist. Man plant, das Land immer mehr von den fossilen Brennstoffen und von der Kernkraft wegzubringen. Der populäre Sieg wird als eine Niederlage derjenigen betrachtet, die darauf hinweisen, dass die Kanzlerin zu stark auf die teuren „sauberen Energien“ setzt.

Wie Fritz Vahrenholt sagte, erzeugt diese Abkehr von den „Fossilen“ auf die „Erneuerbaren“ einen Rundumschlag an Subventionen: “Während die Erneuerbaren die fossilen Brennstoffe verdrängen, verlieren immer mehr Gas- und Kohlebefeuerte Kraftwerke ihre Profitabilität, weil die Betriebszeiten zurückgestutzt werden. Deswegen wollen die Energieversorger Zehntausend Megawatt an fossiler Kraftwerkskapazität schließen, aber nachts und im Winter werden die gebraucht, wenn keine Sonne scheint oder kein Wind weht. Also sollen die Gas- und Kohlekraftwerke subventioniert werden. Sie würden für eine Null-Leistung bezahlt, nur weil sie bereit stehen. Aus all dem kann man lernen, dass man den Markt mit Fördermaßnahmen kaputt macht, dass man immer mehr Fördergelder braucht, um den Zusammenbruch des Systems zu verhindern.”

Die deutschen Haushalte zahlen inzwischen die zweithöchsten Strompreise in Europa, 30% mehr als die übrigen Europäer. Nur die Dänen zahlen noch mehr, beide Länder zusammen bezahlen rund 300% mehr für ihren Strom zu Hause als die Amerikaner. Etwas über 12% des deutsche Stroms kommt von Wind- (7.8%) und Sonnenenergie (4.5%). Die Biomasse liefert 7%, Wasser 4%. Wegen der Regierungspläne zur Steigerung des Anteils der “Erneuerbaren” auf 35% bis 2020, und auf 80% bis 2050, muss das meiste vom Wind und von der Sonne kommen, weil "Biomasse" und "Wasser" nicht mehr hergeben können.

Doch trotz riesiger Investitionen erzeugt der Wind in Deutschland nur rund ein Fünftel seiner gesamten installierten Leistung. Eine Ironie ist, dass nach dem Abschalten eigener Kernkraftwerke nach dem Atomunfall in Japan Kernenergie aus Frankreich und Tschechien importiert werden muss.

Als Reaktion auf diesen Mangel wurde die Hoffnung auf den Offshore-Wind gesetzt, der auf See beständiger bläst als landeinwärts, aber auch viel teurer ist wegen der viel höheren Kosten für Bau, Unterhalt und die Energieübertragung. Noch werden ein halbes Dutzend Windparks in der Nordsee gebaut, aber es gibt keine weiteren Verträge. „Der Markt ist zusammengebrochen,“ sagte Ronney Meyer, geschäftsführender Direktor der Windenergie Agentur (EWE) mit Sitz in Bremerhaven. Die EWE-Entwicklungsfirma RIFFGAT plant keine Investitionen mehr in weitere Offshore-Windturbinen, wie gemeldet wurde.

Dänemark, das angeblich zwischen 20-30 Prozent seines Stromes aus Wind und Sonne produziert (die Schätzungen variieren), hofft auf 50 Prozent aus diesen Quellen bis 2020. Wieso “angeblich”? Weil es einen großen Unterschied macht zwischen der Gesamtmenge an erzeugbarem Strom und der Menge, die dann zur Verfügung stehen muss, wenn der Strom gebraucht wird. Zur Verdeutlichung: In einer Studie von 2009 der dänischen Analysefirma CEPOS wurde herausgefunden, dass der Wind zwar 19% der Stromerzeugung des Landes abdeckte, aber über einen Zeitraum von fünf Jahren im Durchschnitt nur 9.7% des Bedarfs lieferte, 2006 schließlich nur kümmerliche 5%.

Dänemark kann den zur Nachtzeit erzeugten Strom nicht verbrauchen und exportiert etwa die Hälfte der überschießenden Menge nach Norwegen und Schweden, wo Wasserkraftwerke zu und abgeschaltet werden können, um die Netze zu stabilisieren. Dennoch zahlen trotz dieser Exporte die dänischen Verbraucher wegen der von der Regierung verordneten Umlagen die höchsten Strompreise in Europa.

Im Jahre 2011 betrug die Ausbeute der Windturbinen in England etwa 21% der installierten Leistung (nicht auf die bedarfsorientierte Nachfrage bezogen) während günstiger Wetterbedingungen. Wenn es bitterkalt im Winter ist, kann die Erzeugung sehr minimal werden, weil die Turbinen wegen Kälte und Starkwind abgeschaltet werden müssen, um Schäden zu vermeiden. Wie auch in Deutschland führte die Unzuverlässigkeit der Bedarfsdeckung zu Strom-Importen aus Kernkraftwerken in Frankreich. Und ebenso wie in Deutschland schließt die Regierung einige ältere Kohlekraftwerke, von denen jedes einzelne allein beinahe die doppelte Menge Strom produzieren kann im Vergleich zur Gesamtmenge der 3000 Windturbinen Englands.

Wenn die europäische Liebesaffäre mit der immer stärker werdenden Abstützung auf die “Erneuerbaren” nicht allein durch schmerzhafte Stromkosten belastet wird, dann kommen noch die Gefahren durch Stromausfälle auf die Verbraucher zu. Zeitgleich mit den Millionen von Verbrauchern, die ihre Lichter und ihre Geräte an- und ausschalten, müssen die Stromerzeuger und die Netzbetreiber den Bedarf decken und sicherstellen, dass der Strom mit der richtigen Frequenz durch die Netze fließt, um Schwankungen, teilweise und vollständige Ausfälle zu verhindern.

Das ist nur ein kleines Problem, wenn es verlässliche Reservekapazitäten gibt, wie z. B. Wasserkraftwerke, Kohle- und Kernkraftwerke, um die Grundlast abzudecken. Unglücklicherweise fehlt es daran im größten Teil von Europa, noch dazu wird diese Kapazität absichtlich vermindert. In dem Maße, wie immer mehr auf schwankende Versorgung, wie "Wind" und "Solar", gesetzt wird, steigen die Probleme der Bedarsdeckung.

Die deutsche Bundesverband der Energie- und Wasserwirtschaft warnte davor, dass der Anstieg der “Erneuerbaren” die Netze immer mehr verstopft und die Gewinne der großen Kraftwerke wegfrisst.

Der Präsident des E.U.-Network of Transmission System Operators, Daniel Dobbeni, machte auf dieses Problem in einer Note vom 17. April 2012 an den EU-Kommissar Günter Oettinger aufmerksam. Er schrieb, dass die Netzbetreiber

“sehr besorgt sind wegen der Unterschiede in der Geschwindigkeit, mit der sehr große Kapazitäten an Erneuerbaren entstehen und der rechtzeitigen Realisierung der Investitionen in die Netze, die nötig sind, um die Zunahme der Stromflüsse zu bewältigen, die durch die neuen Erzeuger entstehen.”

Die Politiker begreifen allmählich.
Pläne für Kappungsgrenzen für Strompreise, wie vom [noch] Wirtschaftsminiter Philipp Rösler empfohlen und [noch] Umweltminister Peter Altmaier ließen die Windinvestoren schon mal zittern. Es könnte für die Windpark-Betreiber zum Absenken bereits garantierter Einspeisetarife kommen, um zu verhindern, dass die Verbraucherpreise noch höher in den Himmel steigen.

Auf einer Energie-Konferenz am 12. Juni in Berlin, forderte Kanzlerin Angela Merkel sogar ein Zurückdrehen der Umlagen für die Erneuerbaren, um die sich weiter hochschraubenden Kosten zu begrenzen, die sich bereits auf etwa 27 Milliarden Euro pro Jahr belaufen. Die Kanzlerin meinte,

“Wenn die Umlage für die Erneuerbaren weiter so steigt, wie in den vergangenen Jahren, werden wir ein Problem mit der Energieversorgung bekommen.”

In Australien sind die Zeichen für einen konstruktiven Wandel viel deutlicher. Im September hat ein neuer Premierminister, Tony Abbott von der Mitte-Rechts-Liberalen Partei, die seit sechs Jahren von den “Grünen” unterstützte Labor Party besiegt. Die Wahl wurde in der Öffentlichkeit als eine Volksabstimmung zur Abschaffung und Beseitigung der Unmenge von Anti-Kohlenstoff- und Klimawandel-Bekämpfungs-Absichten der abgewählten Regierung betrachtet. Deren Bürokratie-Maschine bearbeitete über 30 Programme verteilt auf sieben Ministerien und acht Bundesbehörden.

Eine CO2-Steuer wurde in weiten Kreisen als ein großer Schadensfaktor für Rekordpleiten in der Wirtschaft und für himmelwärts kletternde Kosten gehalten, auch für die Lebenshaltung. Mitch Hooke, Chef beim Minerals Council of Australia sagte, dass dies die Wirtschaft über AUD$100 Millionen kosten würde. Er sagte auch, dass eine 30% Steuer von der Labor Party auf die Bergbau-Erlöse eine zusätzliche unerträgliche Last darstellte, besonders für die Kohleförderung, die zu Abstrichen bei Vorhaben und zum Verlust von Arbeitsplätzen führen würde.

Was heisst das für Amerika?

Wie Benjamin Cole, Sprecher der American Energy Alliance, formulierte: “Das Ergebnis der [australischen] Wahl muss eine lehrreiche Lektion für die amerikanische Legislative sein, die noch nicht verstanden hat, was die wirtschaftlichen Konsequenzen einer CO2-Steuer bedeuten”. Er warnt, dass “angesichts des Ergebnisses der australischen Wahl alle US-Politiker, die das fehlgeschlagene Experiment in der US-Wirtschaft wiederholen möchten, dies auf eigene Gefahr tun werden.”

Dank des Naturgases, der Kohle und der Kernkraft haben die USA anders als Europa im Überfluß Energieerzeugungskapazität und angemessene Übertragungs- und Verteilsysteme. Aber in dem Maße, wie die älteren Kernkraftwerke abgeschaltet werden und neue Regulierungen von seiten der Environmental Protection Administration die Kohlekraftwerke abschaffen, gleichen sich einige Bundesstaaten, wie z.B. das auf immer mehr „Erneuerbare“ setzende Kalifornien, mehr an Europa an, als man möchte.

Den Zahlen der EIA von 2012 EIA zufolge wurden etwas mehr als 42% des amerikanischen Stroms aus Kohle erzeugt, 25 % aus Naturgas, 19 % aus Kernkraft, etwa 3.4% aus Wind- und etwa 0.11% aus Sonnenenergie. Seit 2009 hat der amerikanische Steuerzahler 14 Milliarden Dollar an Solar-, Wind- und weitere „Erneuerbare Energie-Entwickler“ berappt. Darin enthalten sind $9,2 Milliarden an 748 kleine bis große Windenergie-Projekte und $2,7 Milliarden für mehr als 44.000 Solarprojekte. Erzeugt wurden damit insgesamt 48 Terawattstunden Strom.

Wie in Europe hätte die amerikanische Wind- und Solarenergie ohne diese Hilfe nicht überlebt, sie würde sehr wahrscheinlich auch nicht in der Zukunft überleben. Im Dezember 2010 hat das Wall Street Journal gemeldet, dass Dennis Bode, Chef der American Wind Energy Association CEO, warnte, dass ohne eine Ausweitung des Bundesunterstützungsprogramms Nr. 1603 zur Sicherung von Investitionskrediten die Wind-Industrie nur noch geradeaus fahren könnte, bzw. nach unten ginge.

Das waren keine kleinen Investitionen. Seit dem 1. Januar hat das Department of Energy der Obama-Regierung über $1,2 Milliarden an 435 neue Erneuerbare Energieprojekte verschenkt, darin 381 Solarprojekte. Darüberhinaus will das Energieministerium Pläne für weitere $150 Millionen für mehr „Erneuerbare“-Projekte durchdrücken, das Geld ist aus einem separaten 48C-Anreizprogramm für die Erzielung höherer Steuereinnahmen übrig geblieben.

Im Juni hat Präsident Obama eine neue starke nationale Initiative für weitere $10 Milliarden für Unterstützungszahlungen für Solar-, Wind- und Bio-Energie-Projekte losgetreten. Doch einer zweijährigen Studie des National Research Council zufolge sind solche Hilfszahlungen völlig nutzlos zur Unterdrückung von Treibhausgasen. Bisher wurde nichts damit erreicht, und damit wird auch nichts erreicht bis zum Jahre 2035, dem Termin, bis zu dem die Studie reicht.

Wenn es eine Hauptlehre aus dem Europäischen Debakel gibt, dann diese: Wind-, Solar- und andere sogenannte “Alternativen” sind in keinerlei Hinsicht glaubwürdige Alternativen. Damit soll nichts gegen spezielle Fälle und Örtlichkeiten gesagt werden, wo sie berechtigte begrenzte Nischen im nationalen Energie-Mix haben. Aber egal wieviel Geld ausgegeben wird, um Wind und Sonnenstrahlen einzufangen, das Klima wird sich weiter nach den Gesetzen von Mutter Natur richten, wie es das schon viele Millionen Jahre getan hat, bevor wir Menschen überhaupt auf der Bühne erschienen.

Original hier

Übersetzung: Helmut Jäger, EIKE




Kann ein Treibhaus-Klimatologe wirklich objektiv sein?

Aber Dr. Mann würde vermutlich eine Diskussion mit mir über die Haupttreiber von Wetter und Klima ablehnen, weil ich keine höheren akademischen Grade vorweisen kann. Sehen Sie, was ist ein BS [Bachelor of Science] in Meteorologie gegen das hier:

Bildungsweg: A.B. in angewandter Mathematik und Physik (1989)
MS [Master of Science] Physik (1991)
MPhil Physik (1991)
MPhil Geologie (1993)
PhD Geologie & Geophysik (1998)

Alma mater: University of California, Berkeley, Yale University

Das wäre ein KO-Schlag. Welche Chance hätte ich?

Zur Klarstellung: Dr. Manns Laufbahn und überhaupt jeder, der einen PhD in den physikalischen Wissenschaften erlangt, beeindruckt mich. Ich habe fast alles gelesen, was Dr. Mann geschrieben hat, und darum verstehe ich auch, wo er herkommt. Aber es gibt Dinge, die einfach fehlen, wenn jemand nach der richtigen Antwort strebt, und zwar die Methodik, mit der jemand lernt, eine Vorhersage zu erstellen und Fakten gegeneinander abzuwiegen, um zu bestimmen, was geschehen wird. Man muss alles, was sein Opponent hat, genau untersuchen und darf nicht die Augen verschließen vor etwas, das seine Gedanken herausfordern könnte.

Zum Beispiel: Ich habe fast alles gelesen, was Dr. Mann geschrieben hat, aber wie oft hat er sich damit befasst, Erfahrungen bei der Erstellung einer Prognose zu machen, die verifiziert werden muss? Als ein Meteorologe im privaten Bereich, dessen Existenz davon abhängt, richtig zu liegen, ist der Gedanke lächerlich, dass man Klima und Wetter trennen kann. Schon vor langer Zeit habe ich erkannt, dass es zum Erstellen einer guten Vorhersage unabdingbar ist, die Vergangenheit zu verstehen (das hat mir schon mein Vater eingebläut, ein Doktor der Meteorologie). Die Tatsache, dass viele Klimatologen die Beziehung zwischen jetzt und früher herunterspielen oder diesbezüglich von einem Unterschied sprechen, sagt mir, dass sie nicht wissen, wovon sie reden. Mit anderen Worten, ich mache, was sie machen, aber sie machen nicht, was ich mache. Ich lese, was sie schreiben, aber sie werden nicht aufhören, auf die andere Seite zu schauen.

Vielleicht ist es so, wie wir es manchmal beim Sport sehen – der Fluch des Talentes. Die meisten dieser Leute sind wirklich sehr smart. Ich bin mit späteren PhDs in die Schule gegangen und konnte sehen, dass sie im Klassenraum so ähnlich waren wie meine Wrestling-Trainer an der PSU – Kerle, die großartig darin waren, das zu tun, was ihnen natürlicherweise zufiel. Allerdings hat mein Wrestling-Traienr gewöhnlich betont: wenn man daran gewöhnt ist, dass jeder zu einem kommt, ist es sehr schwierig, sich zu ändern und sein Niveau zu erhöhen. Als Folge wird man an seinem schwächsten Punkt getroffen und bei dem, was man nicht weiß. Und an dieser Stelle kommt die Methodik der Vorhersage-Erstellung in die Klimadebatte.

Sehen Sie, bei dem, was ich tue, muss ich Faktoren gegeneinander abwiegen und entscheiden, welche Faktoren die Wichtigsten sind. Außerdem gewöhnt man sich an Herausforderungen, vor denen man in der Forschung niemals steht. Wie das? Nehmen wir mal an, jemand übergibt ihnen eine Zuwendung, um die globale Erwärmung zu studieren. Können Sie dann kommen und sagen: „Laut meiner Forschung gibt es keine globale Erwärmung!“? Man hat Ihnen Geld gegeben, damit Sie ein Ergebnis vorlegen; wie in aller Welt können Sie dieses Ergebnis rechtfertigen, wenn dieses Ergebnis ohnehin herausgekommen wäre, ohne dass es etwas gekostet hätte?

Bei meiner Arbeit ist meine Bezahlung (d. h. Kunden zu haben) vom korrekten Ergebnis abhängig. Der Kunde sagt nicht: „Ich möchte einen kalten Winter. Hier haben Sie das Geld, sagen Sie es vorher!“ Der Kunde fragt nach einer Vorhersage, die ihm eine Planungsgrundlage liefert. Falls man recht hat, wird der Kunde wiederkommen; falls nicht, heißt es auf Wiedersehen. Aber es gibt kein Geld für ein gewünschtes Ergebnis. Dies bedeutet, dass der Forecaster* sich nicht darum kümmert, ob es warm oder kalt ist, sondern nur darum, die richtige Antwort zu bekommen, wie auch immer diese aussieht. Dies ist im Bereich AGW der Akademia nicht der Fall. Forschungsgelder gibt es nur für das Aktuelle des Tages – man versuche mal, eine Zuwendung zu bekommen, um AGW zu widerlegen (tatsächlich braucht man eine solche auch nicht; es ist simpel, sie einfach mit den Ereignissen der Vergangenheit zu widerlegen).

[*Das Wort Forecaster könnte man natürlich mit Prognostiker übersetzen, aber mein Freund, der Meteorologe Hans-Dieter Schmidt hat mich darauf hingewiesen, dass man bei dem Begriff Prognostiker auch an Wirtschafts- oder sonst welche Propheten denkt. Forecaster hingegen ist im Angelsächsischen ein so stehender Begriff und strikt auf den Wetter-Prognostiker beschränkt, dass ich ihn in der Übersetzung beibehalten möchte. A. d. Übers.]

Wenn ich dies sage und an die Klimadebatte denke – auf welche Faktoren schaue ich, um zu einem Ergebnis zu kommen? Für mich ist das eine sehr große Vorhersage, und die einfache Antwort lautet: Es ist schwierig zu begründen, dass CO2 irgendetwas bewirken kann, das über seine zugewiesene „eingeschachtelte“ Wirkung auf die Temperatur hinausgeht, und zwar wegen all dem, was darum herum liegt. Man kommt dann auf die Sonne, die Ozeane und stochastische Ereignisse über lange Zeiträume mit Aktion und Reaktion. Das alles im Vergleich zu 0,04% der Atmosphäre und einem Hundertstel von Treibhausgasen.

Aber wenn man nicht jeden Tag mit einer Situation konfrontiert wird, die einen daran erinnert, dass man falsch liegen kann, ist man auch die Herausforderung und die Verantwortung, richtig zu liegen, nicht gewohnt.

Und es gibt noch ein anderes großes Problem: Was ist, wenn man all dieses Wissen hat, seinen Standpunkt darauf gegründet hat, und wenn es sein ganzes Leben ist – wie kann man dann noch objektiv sein? Die Klimadebatte und Wetterereignisse in der Vergangenheit sind notwendige Bausteine für mein Produkt. Dieses Produkt ist jeden Tag aufs Neue eine Herausforderung. Im Falle eines PhD auf der AGW-Seite glaubt man, dass der Gedanke das Produkt ist. Verwirft man den Gedanken, zerstört man das Produkt; zerstört man das Produkt, zerstört man die Person. Daher ist es persönlich. Dein ganzes Leben – all die kriecherischen Studenten, der Status eines Rockstars – alles wäre weg. Ich würde es hassen, in einer solchen Lage zu stecken. Jeden Tag, wenn ich aufstehe, ist es das Gleiche – das Wetter fordert mich heraus. Die Antwort ist die Frucht meiner Arbeit, nicht deren Gegen­stand. Deswegen wird man immer danach trachten, mit der richtigen Antwort aufzuwarten und nicht mit einer vorbestimmten Antwort, von der seine Selbstachtung abhängt.

Also haben diese Giganten der Wissenschaft ein fundamentales Problem, das ihrer Natur völlig zuwider läuft. Am Ende könnte es das große Talent und die Brillanz vieler dieser Leute sein, die sie blind macht für das, was man braucht und machen muss, wenn man wirklich die Wahrheit ergründen will.

Joe Bastardi ist leitender Forecaster bei WeatherBELL Analytics, einer meteorologischen Beratungsfirma.

Link: http://patriotpost.us/opinion/21026

Judith Curry hat über diesen Beitrag einen weiteren Beitrag geschrieben. Der Link: http://judithcurry.com/2013/10/20/perspective-from-a-weather-forecaster/.

Übersetzt von Chris Frey EIKE




Klimawandel: Die gefährliche Weltanschauung der Leute, die nicht die Welt anschauen

Was die „Höchstwerte“ betrifft, hier einige Zahlen laut DWD: Zugspitze 17,9 (5.7.1957), Aachen 37,2 (23.8.1944), Würzburg 37,8 (29.7.1947) Berlin 38,1 (11.7.1959), Cottbus 39,6 (29.7.1921), Regensburg 39,0 (27.7.1983), Gera 39,6 (5.8.1994), Freiburg, Karlsruhe 40,2 (13.8.2003) und Gärmersdorf/Oberpfalz 40,2 (27.7.1983). Die 40-Grad-Schwelle ist in Mitteleuropa eine Rarität, die aber nichts mit der angeblich CO2-bedingten Erderwärmung zu tun hat und nur von speziellen Wetterkonditionen abhängt.

Können sich Luft und Erde erwärmen?

Dass „die Luft sich erwärme“, ist eine gängige, aber unzutreffende Redewendung, die, vom Wetterdienst benutzt, ärgerlich ist. Dabei weiß im Grunde jeder Mensch aus ureigenster Erfahrung, dass dies nicht der Fall ist. Man braucht nur einmal einen Tag lang barfuß zu laufen und den eigenen im Körper eingebauten Temperatursensoren zu vertrauen. Am besten dazu ist eine wolkenarme Hochdruckwetterlage geeignet. Bei Sonnenaufgang fühlen sich die abends noch warmen Steinfliesen der Terrasse schön kühl an, während an den Grashalmen des Rasens sich nachts Tau gebildet hat. Wer in der Schule im Physikunterricht aufmerksam zu gehört hat, erinnert sich des „Abkühlungsgesetzes“ von Isaac Newton oder auch an Pierre Prévost (1751-1839), der 1791 gezeigt hatte, dass alle Körper immerwährend Wärme ausstrahlen, egal ob warm oder kalt.

Diese Beobachtungstatsache lässt nur einen einzigen logischen Schluss zu: Wenn Körper immerwährend Wärme ausstrahlen, dann können sie sich niemals erwärmen. Sie müssen erwärmt werden. Dies gilt auch für die Erde und die sie umgebende Lufthülle. Die einzige Licht- und Wärmequelle, die dazu in der Lage ist, ist die Sonne. Dies lässt sich anhand von Messungen nachweisen. Man schaue nach bei „dlr rlp Wetter“, dem Agrarmeteorologischen Dienst in Rheinland-Pfalz. Für die Station Oppenheim (128 m über NN) ergeben sich für den Beginn der jetzigen Hitzeperiode folgende Zahlen, wobei die Temperaturen nicht nur in 2 Meter Höhe gemessen werden, sondern auch in 20 cm über dem Boden und 5 cm im Boden. Hier in dieser Reihenfolge die Temperaturen für die Zeit vom 13. bis 16. Juli 2013:

13. Juli um sechs Uhr: 14,1 Grad, 13,5 Grad, 20,7 Grad (0,0 Wh/m2), um 14 Uhr: 23,8 Grad, 25,7 Grad, 30,9 Grad (4014,4 Wh/m2)

14. Juli um sechs Uhr: 15,8 Grad, 15,3 Grad, 20,9 Grad (0,0 Wh/m2), um 14 Uhr: 24,7 Grad, 26,9 Grad, 32,2 Grad (4285,4 Wh/m2)

15. Juli um sechs Uhr: 15,0 Grad, 14,4 Grad, 21,5 Grad (0,0 Wh/m2), um 14 Uhr: 23,9 Grad, 26,0 Grad, 32,0 Grad (4080,8 Wh/m2)

16. Juli um sechs Uhr: 15,3 Grad, 14,3 Grad, 21,5 Grad (0,0 Wh/m2), um 14 Uhr: 26,6 Grad, 29,2 Grad, 33,0 Grad (4222,9 Wh/m2)

…um 17 Uhr: 28,0 Grad, 29,9 Grad, 36,2 Grad (6636,7 Wh/m2)

Leicht zu erkennen ist, dass es morgens um sechs Uhr am wärmsten im Boden in fünf Zentimetern Tiefe ist, am kühlsten in 20 cm über dem Boden und dann in zwei Metern Höhe wieder wärmer. Dann geht die Sonne auf und bis 14 Uhr sind von der Sonne dem Erdboden gut 4.000 Wattstunden an Globalstrahlung dem Erdboden zugestrahlt worden. In fünf Zentimetern Tiefe werden an allen Tagen die 30 Grad überschritten. Demzufolge ist es nun in 20 cm Höhe deutlich wärmer als in zwei Metern Höhe. Ganz augenfällig ist es am 16. Juli um 17 Uhr, wo in Bodennähe fast die 30 Grad Celsius erreicht werden. Die morgendliche Temperaturinversion (Temperaturzunahme mit der Höhe) hat sich im Laufe des Tages umgekehrt.

Diese Messungen lassen nur eine Interpretation zu: Die Sonne ist die Energiequelle, doch der Erdboden ist die Absorptionsfläche für deren Energie. Er allein ist am Tage die Heizfläche, von der aus die aufliegende Luft am Boden durch Leitung und dann durch Konvektion erwärmt wird. An heißen Tagen kann man die Konvektion anhand des Flimmerns der Luft, insbesondere über Asphaltflächen, erkennen. Der Boden erwärmt sich deswegen, weil die von der Sonne eingestrahlte Energie größer ist als die gleichzeitig vom Erdboden abgestrahlte Energie. Wenn der Neigungswinkel der Sonne zum Abend abnimmt und die Einstrahlung geringer wird als die Ausstrahlung des erwärmten Erdbodens, dann kühlt sich dieser ab. Die vertikale Temperaturschichtung kehrt sich um, der Boden wird zur Kühlfläche, wie die Temperatur bei Sonnenaufgang zeigt. Gäbe es direkte Messungen der Oberflächentemperaturen, dann wäre dies noch deutlicher zu erkennen. Diese Messwerte zeigen noch eines: Für die Behauptung einer „Gegenstrahlung“ gibt es nicht den geringsten Hinweis.

Damit fällt die von den IPCC-Klimaexperten für „heilig“ gesprochene und zum Glaubensdogma erklärte „Gegenstrahlung“, welche die „Erderwärmung“ bewerkstelligen soll, in sich zusammen. Diese ist ein rein rechnerisches Konstrukt, um den in Wirklichkeit nicht existierenden „Treibhauseffekt“ dem „gemeinen Volk“ als Bären aufzubinden und dieses als „Klimakiller“ in Sippenhaft zu nehmen. Für die theoretisch agierenden Klima-Computerspezialisten trifft das zu, was Alexander von Humboldt (1769-1859) sagte: „Die gefährlichste aller Weltanschauungen ist die Weltanschauung der Leute, welche die Welt nicht angeschaut haben.“ Wer dieser IPCC-Klimaexperten, die sich ständig in klimatisierten Rechenzentren aufhalten, hat sich schon einmal so tief gebückt und Temperaturmessungen am Boden vorgenommen?

Die Firma Siemens und das Potsdam-Institut für Klimafolgenforschung (PIK)

In einer aufwendigen Zeitungsbeilage „Unsere Region 2030“, fordert Siemens dazu auf: „Kommen Sie mit in die Zukunft!“ – „Wir schreiben das Jahr 2030. Der Osten Deutschlands ist Pionierland. Ob Energiewende, nachhaltige Städte, ein modernes Gesundheitssystem oder die Industrie der Zukunft: Wer nach Lösungen für die Welt von morgen sucht, schaut nach Brandenburg, Berlin, Sachsen,…“. Da werden „virtuelle und reale Welten“ eins. Da darf der Chef des PIK, Hans Joachim Schellnhuber, nicht fehlen, um eine „neue industrielle Revolution“ zu fordern, um den „Klimawandel“ und „die Erwärmung des Erdklimas“ zu bremsen. Doch wenn jemand ständig als „einer der renommiertesten Klimaforscher Deutschlands“ angepriesen wird, dann sollte man misstrauisch werden.

Die Standarddrohung des PIK-Direktors: „Wenn wir so weiter wirtschaften wie bisher, wird sich die Erde um dreieinhalb bis vier Grad erwärmen. Das führt dazu, dass der Meeresspiegel um 20 bis 40 Meter steigt. Die Malediven, deren höchster Berg 2,4 Meter hoch ist, werden verschwinden, genauso wie die Insel Sylt.“ Das könnte auch eine Aussage des Orakels von Delphi sein. Solche Arten von Prophezeiungen sind nicht neu und haben bereits den Apostel Johannes zu seiner „Apokalypse“ (Offenbarung) inspiriert. Ängstliche Geister reagieren sensibel auf derartige Weltuntergangsgesänge. Doch wie verträgt sich diese Aussage von Hans Joachim Schellnhuber mit folgender, die nahezu zeitgleich am 15. Juli 2013 als Pressemitteilung vom PIK verbreitet wurde?

Darin heißt es: „Jedes Grad Erwärmung könnte den Meeresspiegel auf lange Sicht um mehr als zwei Meter erhöhen“ und „könnte der Meeresspiegel demnach in 2.000 Jahren um knapp acht Meter im Durchschnitt ansteigen.“ Ja, die Zukunft ist sehr weit und der Leser gläubig. Was interessiert die Zukunft menschliches Geschwätz? Aber seien wir kritisch und gehen beiden Aussagen mal auf den Grund. Wenn bei vier Grad Erwärmung der Meeresspiegel um 40 Meter steigt, dann sind das pro Grad zehn Meter. Aber nach der zweiten Aussage ergäben sich nur acht Meter. 32 Meter Unterschied, wer wird da so kleinlich sein? Aber dazu soll es ja erst in den kommenden 2.000 Jahren kommen. Acht Meter in 2.000 Jahren ergäben einen linearen Anstieg von 0,004 Meter/Jahr. Wenn man zudem die vier Grad Erderwärmung über den Zeitraum von 2.000 Jahren mittelt, dann ergäbe sich ein linearer Anstieg der Globaltemperatur von 0,002 Grad Celsius.

Wir leben heute im Jahre 2013 und seit Beginn der Zeitrechnung, erleben wir nach dem „Klimaoptimum zur Römerzeit“ und dem „Klimaoptimum des Hochmittelalters“ mögliche Indizien für ein drittes „Klimaoptimum“. Unterbrochen waren sie jeweils durch „Kleine Eiszeiten“. Nichts ist in der Natur konstant, nichts verläuft linear, auch wenn „alles fließt!“ Wer mit einer linearen Projektion über 2.000 Jahre hinweg operiert und Gedankenspielereien als wissenschaftlich seriöse Erkenntnisse verkauft, der darf sich nicht wundern, wenn er sich lächerlich macht und er den Volkszorn provoziert. Dies wird spätestens dann der Fall sein, wenn die „Energiewende“ unbezahlbar wird, und zu „Wutbürgern“ macht und soziale Unruhen provoziert.

Es wäre Aufgabe einer wirklich nachhaltigen und verantwortungsvollen Politik, nicht den Energiewende-Schaden an den Bürgern zu vermehren, sondern ihn wieder zu verringern und abzuwenden, zumal es die Spatzen von den Dächern pfeifen, dass der „Klimaschutz“ eine Mogelpackung ist. Die Zeiten, dass sich die Politik wie in Feudalzeiten statt „Hofnarren“ nunmehr „Klima-Clowns“ hält, um unbegründete Klima-Ängste zu verbreiten, nähern sich dem Ende. Wer die Zeichen der Zeit nicht zu erkennen in der Lage ist, den wird die Zeit richten.

Zum Schluss: Welche Temperaturen meldete der DWD um 16 Uhr nun tatsächlich? Wurden Rekorde gebrochen? Nein: Trier 20,5 Grad, Aachen 21,5 Grad, Emden 22,5 Grad, Düsseldorf 23,5 Grad, Kempten 34,1 Grad, Weiden 34,6 Grad, Görlitz und Straubing 34,8 Grad und Konstanz 36,3 Grad Celsius. Mein Rat: Als Meteorologe sollte man sich niemals „zu 100 Prozent sicher“ sein und schon gar nicht von Medien aufs Glatteis ziehen lassen. Aber nicht nur Kollege Jung, auch der DWD war nicht besser.

Dipl. Meteorologe Dr. Wolfgang Thüne, zuerst erschienen bei eigentümlich frei