1

EU muss Energiekosten kontrollieren oder es droht ‚Deindustrialisierung‘

Die deutschen Unternehmen und Verbraucher stemmen derzeit Kosten bis zu 24 Milliarden Euro pro Jahr für Hilfen für saubere Energie, sagte Wirtschafts- und Energieminister Sigmar Gabriel auf der gleichen Konferenz. Europa hat hinsichtlich Subventionen für Erneuerbare  „das Limit“ erreicht und muss die Energiepreise einfrieren, oder man steht vor dem Risiko der „Deindustrialisierung“, sagte er [habe ich da in hiesigen Zeitungen was verpasst? A. d. Übers.]

Deutschland war einer der leidenschaftlichsten Befürworter ambitionierter politischer Maßnahmen zur Reduktion von Kohlenstoff, doch haben diese Maßnahmen zu einem Anstieg der Energiepreise in Europa geführt, der mehr als dreimal so hoch ist wie die Inflationsrate. Kanzlerin Angela Merkel hat der Reform der Subvention für Erneuerbare in ihrer dritten Amtszeit oberste Priorität verliehen, um die Kosten der Loslösung von der Kernkraft zu reduzieren.

In anderen Ländern der EU haben Spanien,  Italien,  Portugal und die Tschechische Republik ihre Subventionen für Solarenergie drastisch gekürzt. UK-Premierminister David Cameron sucht nach Wegen, die Dienstleistungskosten zu senken, nachdem die oppositionelle Labour Party versprochen hat, die Rechnungen einzufrieren, sollte man die Wahl im nächsten Jahr gewinnen.

Teure Biomasse

Ein globaler Schub, um den Planeten zu retten

Oettinger zufolge „hat Europa eine überdurchschnittliche Entwicklung von Energie und Gaspreisen erlebt”, und zwar gerade zu der Zeit, als die USA von sinkenden Kosten profitierten.

Die Energiepreise für die deutschen Haushalte befinden sich auf “einem problematischen Niveau”, sagte Leonhard Birnbaum, Management-Mitglied bei E.ON SE, dem größten Unternehmen des Landes, auf der gleichen Konferenz.

Merkel könnte die Preise senken durch das Beschneiden von Steuern und Abgaben, die über die Hälfte der Stromrechnungen ausmachen, so Oettinger. Die Deutschen bezahlen für Strom mehr als alle anderen Europäer außer Dänemark.

Deutschland muss die billigsten Quellen sauberer Energie ebenso wie effiziente fossile Kraftwerke in den Mittelpunkt rücken, sagte Gabriel. Man wird in D Wind- und Solarenergie, die kosteneffektivsten [?] erneuerbaren Energiequellen, weiterhin vorantreiben, sagte er. Energie aus Biomasse ist zu teuer, und dessen Kostenstruktur habe sich nicht verbessert.

Gabriel, der Ende letzten Jahres die Kontrolle über die größte Energie-Bestandsaufnahme aller entwickelten Länder erhalten hat, übersieht die Schließung [shuttering] der Atomflotte in D bis zum Jahr 2022, angeordnet von Merkel nach der Kernkatastrophe [?] in Fukushima, Japan.

Änderungen willkommen

Er wird danach streben, die an Betreiber von Windturbinen an Land gezahlten Hilfen auf 9 Euro-Cent pro Kilowattstunde im nächsten Jahr zu begrenzen und den Ausbau auf etwa 2500 Megawatt pro Jahr. Dies steht in einem Dokument des Ministeriums, das für ein Koalitionstreffen im Januar vorbereitet worden war. Entwicklern werden Subventionen in derzeitiger Höhe gezahlt, falls ihre Einheiten bereits autorisiert worden sind und noch in diesem Jahr in Betrieb gehen.

Während Deutschland danach trachtet, steigende Energiepreise in den Griff zu bekommen, kann die Regierung nicht versprechen, dass die Rechnungen billiger werden, sagte Gabriel.

Oettinger begrüßte Gabriels Vorschläge zur Änderung der deutschen Energiepolitik, um sie kompatibler mit den EU-Vorschriften zu machen. Während die Europäische Kommission die deutschen Freistellungen von Unternehmen von der Bayer AG (BAYN) bis zur Linde AG untersucht wegen des Verdachts, dass diese illegal seien, muss die EU einigen Hilfen grünes Licht für „notwendige“ Hilfen geben, um dessen Industrie vor dem Hintergrund der niedrigen Energiepreise in den USA wettbewerbsfähig zu halten, sagte Oettinger.

Schleichende Abwanderung’

Die Rabatte sind der Schlüssel zum Schutz der deutschen Industrie und zur Verlangsamung der Abwanderung derselben, sgate Ulrich Grillo, Direktor des Arbeitgeberverbandes BDI, das etwa 100.000 Unternehmen repräsentiert einschließlich der Volkswagen AG und Siemens AG. (SIE). „Schon heute kann man zeigen, dass es eine schleichende Abwanderung energieintensiver Industrien gibt“, sagte Grillo auf der Konferenz.

Die Einzelhandelspreise sind um 65 Prozent und die von Erdgas um 42 Prozent zwischen 2004 und 2011 gestiegen, das ist mehr als doppelt so hoch wie die Inflationsrate von 18 Prozent in diesem Zeitraum. Dies geht aus einem Berichtsentwurf der Kommission zu Energieentwicklungen in Europa hervor.

Link: http://www.bloomberg.com/news/2014-01-21/eu-must-get-grip-on-energy-costs-or-risk-deindustrialization-.html

Es ist schon interessant, wie man in den Medien des angelsächsischen Auslands über die Entwicklung der Energiepolitik berichtet. Einiges hiervon steht entweder nicht in deutschen Zeitungen wie der „Süddeutschen“, oder ich habe es übersehen.

Und weil es so aufschlussreich ist, folgt hier gleich noch ein Beitrag zum gleichen Thema von der Stahlindustrie selbst, was man in deutschen Zeitungen vermutlich ebenfalls vergeblich sucht.

Chris Frey

Der Weg zur Deindustrialisierung” – EUROFER verurteilt die Energie- und Klimapläne der EU-Kommission

„Die Vorschläge der EU-Kommission zu Energie und Klima bis zum Jahr 2030 werden nichts zu einer industriellen Renaissance beitragen, sondern vielmehr die Deindustrialisierung beschleunigen, die bereits im Gange ist“, sagte Gordon Moffat, Generaldirektor von EUROFER. [EUROFER = Wirtschaftsverband der  europäischen Eisen- und Stahlindustrie]

EUROFER zufolge werden keine Maßnahmen ergriffen, um die sich verbreiternde Lücke zwischen den Energiepreisen und –kosten zwischen der EU-Industrie und deren Konkurrenten zu verkleinern, obwohl man dieses Problem erkannt hat.

Außerdem ist die Lage individueller Industrien nicht berücksichtigt worden hinsichtlich der Verfügbarkeit von Technologien, die es diesen ermöglicht, ihre Emissionen weiter zu reduzieren.

Soweit es die Stahlindustrie betrifft, glaubt EUROFER, dass es keine Technologien gibt, die ökonomisch angewendet werden können, und dass es ‚einfach unmöglich‘ ist, die der Stahlindustrie bis zum Jahr 2020 gesetzten Ziele zu erreichen.

EUROFER: Ein ETS-Ziel von 43% CO2-Reduktion der EU bis zum  Jahr 2020 verglichen mit 2005 bedeutet eine Reduktion um 60% für die europäische Stahlindustrie verglichen mit 1990. [ETS = Emission Trading System; Emissionshandelssystem]

„Mit diesen Vorschlägen wird selbst der effizienteste Stahlkocher in Europa einen Kostennachteil gegenüber den außereuropäischen Konkurrenten haben“, sagte Moffat und fügte hinzu, dass sogar der Effizienteste aller Stahlkocher bis 2020 bis zu 30% seines Bedarfs aus Emissionszertifikaten kaufen muss.

„Es gibt keine Vorschläge, wie man dem globalen Wettbewerb ausgelieferte Bereiche schützen kann, weder mittel- noch langfristig, obwohl dies für Investitions-Entscheidungen unabdingbar wäre“, sagte er und appellierte an die EU-Mitgliedsstaaten und das Europäische Parlament, einige Prinzipien zu übernehmen, die die EU-Klima- und Energiepolitik praktikabel für energieintensive Industrien  und nachhaltig für die Wirtschaft der EU machen.

Die Politik in dieser Hinsicht wurde ursprünglich im Jahre 2007 entwickelt, argumentiert EUROFER, und muss jetzt angesichts des Fehlens eines gleichberechtigten Spielfeldes mit dem Rest der Welt neu überdacht werden. Um die europäische Industrie zu schützen, werden 100% freier Zugang gebraucht ‚bis zum Jahr 2020 und darüber hinaus‘ sowie ‚reale Maßnahmen zum Kampf gegen hohe Energiepreise‘.

EUROFER argumentiert, dass drei Maßnahmen ergriffen werden müssen, die allesamt von der EU missachtet worden sind. EUROFER zufolge sind diese Maßnahmen:

1. Das Paket darf nicht zu direkten und indirekten Kosten zumindest für die effizientesten industriellen Installationen führen (die besten Ausführenden) in Bereichen, die im globalen Wettbewerb stehen, solange es kein internationales Abkommen zur Klimaänderung gibt, das unseren Konkurrenten ähnliche Begrenzungen auferlegt.

„Bis zu dieser Zeit braucht die Stahlindustrie 100% Gratis-Emissionszertifikate zumindest für die besten Ausführenden ohne Reduktion und mit vollem Ausgleich (mit Gratis-Zertifikaten) der CO2-Kosten, die von der Energieindustrie auf die Strompreise aufgeschlagen werden“, sagt EUROFER.

2. Es muss auch ein klares Bekenntnis und eine Objektive der EU-Kommission geben, die Lücke zwischen den industriellen Energiepreisen und –kosten zwischen der EU und den Hauptkonkurrenten wie den USA geben.

3. Und schließlich muss die Kommission es den Mitgliedsstaaten erlauben, energieintensive Industrien wie Stahl, die im internationalen Wettbewerb stehen, von Aufschlägen durch Dekarbonisierung zu 100% auszunehmen – wie Steuern, Abgaben einschließlich Abgaben für das Netz und andere Kosten in Bezug auf die Unterstützung und Neuentwicklungen der Low-Carbon-Generation – solange die Konkurrenten nicht die gleichen Aufschläge tragen müssen.

Link: http://www.steeltimesint.com/news/view/the-road-to-de-industrialisation-eurofer-slams-eu-commission-energy-and-cli

Beide Artikel übersetzt von Chris Frey EIKE




Wolken-Rätsel XY ungelöst

"Jetzt aber will ein australisch-französisches Forscherteam das Rätsel gelöst haben. Und die Ergebnisse, die jetzt im Fachblatt “Nature” veröffentlicht wurden, verheißen nichts Gutes. Der Effekt der Wolken auf die Erwärmung sei unterschätzt worden, schreiben die Wissenschaftler um Steven Sherwood von der australischen University of New South Wales. Die Verdopplung des Kohlendioxids werde die Atmosphäre im globalen Durchschnitt nicht um 1,5 bis 4,5, sondern um 3 bis 5 Grad erhitzen."

Geschrieben hat die Meldung der Spiegel Online Redakteur Markus Becker. Hat er die Nature-Arbeit von Sherwood et al. richtig eingestuft? Die Arbeit stellt sich auf jeden Fall gegen den aktuellen Forschungstrend. Fast monatlich werden derzeit neue Studienergebnisse veröffentlicht, die eine deutlich geringere CO2-Klimasensitivität errechnen, als bislang vom IPCC angenommen (siehe Artikelübersicht hier). Zudem schießen die aktuellen IPCC-Modelle bekanntlich weit über die reale Temperaturentwicklung hinaus (Abbildung 1).

Abbildung 1:  Prognosen der IPCC-Klimamodelle (dünne farbig Linien) schießen meilenweit über die reale Temperaturentwicklung (blaue und grüne Punkte) hinaus (Abbildungsquelle). Offensichtlich ist die CO2-Klimawirkung zu hoch angesetzt worden. Sherwood et al. behaupten das Gegenteil: Das CO2 wäre sogar noch klimawirksamer als bislang gedacht. Die verrückte Welt der Klimamodellierung…

 Wie begründen Sherwood und Kollegen also ihre Außenseiterposition? Lesen wir hierzu kurz auf t-online weiter:

"Der Schlüssel der neuen Berechnung liegt nach Angaben der Forscher in der Wirkung der Klimaerwärmung auf die Wolkenbildung. Beobachtungen hätten gezeigt, dass höhere Temperaturen über dem tropischen Meer zu einer schwächeren Wolkenentstehung in geringer Höhe führten. Auf diese Weise erreiche mehr Sonnenlicht die Oberfläche und führe so zu einer noch stärkeren Erwärmung."

Interessant. Eine Klimaerwärmung wird vermutlich zu einer Steigerung des Wasserdampf-Gehaltes in der Atmosphäre führen. Das klingt plausibel. Wenn man einen Topf Wasser auf eine heiße Herdplatte stellt, entsteht jede Menge Wasserdampf. Der vermutete Wasserdampf-Anstieg dient in den Klimamodellen derzeit als wichtiger Verstärker der CO2-Klimawirkung. Allerdings: Mehr Wasserdampf könnte auch zu mehr tiefen Wolken führen, die wiederum kühlend wirken. Der Wiki-Bildungsserver erklärt:

"Wolken spielen bei Änderungen des Klimas eine besondere, schwer zu bestimmende Rolle. Ihre schnelle Veränderlichkeit, unterschiedliche Gestalt, verschiedene Höhe, differenzierte Reaktion auf Temperatur- und Strahlungsänderungen und ihre zahlreichen und gegensätzlichen Rückwirkungen auf Strahlung und Temperatur machen es äußerst schwierig, sie in Computermodellrechnungen angemessen zu berücksichtigen. Höhere Temperaturen können zur Wolkenauflösung führen. Andererseits kann eine wärmere Atmosphäre mehr Wasserdampf durch Verdunstung aufnehmen, was die Wolkenbildung begünstigen kann. Tiefe und dichte Stratuswolken reflektieren tagsüber die Sonnenstrahlung und wirken abkühlend, während sie nachts die Wärmestrahlung vom Erdboden reflektieren und erwärmend wirken. Hohe Cirruswolken lassen die Sonneneinstrahlung weitgehend passieren, nicht aber die von unten kommenden Wärmestrahlen."

Das Sherwood-Team behauptet nun also, das Rätsel wäre gelöst. Ein wärmeres Klima führt zu weniger Wolken und in der Folge zu noch mehr Erwärmung. Wir leben in einer freien westlichen Welt, und da kann jeder seine Meinung frei äußern. Aus wissenschaftlicher Sicht sieht es für Sherwood & Co. jedoch weniger gut aus. Eine Vielzahl von Arbeiten sieht die Situation anders. Mitte 2012 hatten wir bereits an dieser Stelle über eine solche Studie berichtet (siehe unseren Blogartikel “Wolken kühlen Südamerika ab: Schlechte Karten für den Wolkenverstärker des IPCC“).

Auch eine südkoreanische Forschergruppe um Heeje Cho fand für die Wolken im tropischen Pazifik eher eine wärmedämpfende Wirkung. Die Energieabstrahlung in den Weltraum steigerte sich mit jedem Grad Erwärmung des untersuchten Ozeangebietes. Die Arbeit erschien im September 2012 in den Geophysical Research Letters. Ebenfalls im Jahr 2012 erschien im Journal of Climate eine Arbeit einer Gruppe vom Lawrence Livermore National Lab um Peter Caldwell. Auch diese Autoren fanden für die Wolken Hinweise auf eine negative Rückkopplung, das heißt eine wärmedämpfende Rolle.

In dieser Richtung äußerte sich auch der Wolkenexperte Greg Holland vom US-amerikanischen National Center for Atmospheric Research:

“The current consensus on this from the IPCC is that the clouds are in the net warming. Not real sure. There is a possibility that the other effects are dominating and they could be cooling. So this is one of those areas that we need to know a lot more.”

Nun könnte man einfach einmal nachprüfen, wie sich die Wolkenbedeckung in den letzten Jahrzehnten so entwickelt hat. Seit 1980 ist es immerhin um ein halbes Grad wärmer geworden, da sollte doch schon der postulierte Wolkenrückgang zu verzeichnen sein. Und in der Tat: Im Journal of Climate erschien 2012 eine Arbeit von Ryan Eastman und Stephen Warren, die eine leichte globale Abnahme der Wolkenbedeckung in den letzten 40 Jahren feststellte. Schon hört man die Anhänger der Klimakatastrophe rufen: Da ist doch der Beweis! Aber halt, nicht so schnell. Gehen nun die Wolken zurück, weil es wärmer geworden ist, oder ist es wärmer geworden, weil die Wolken abgenommen haben? Der geneigte Leser sei hier auf unsere ausführliche Diskussion des Problems in einem früheren Blogartikel verwiesen (“Erwärmung durch weniger Wolken oder weniger Wolken durch Erwärmung?“; siehe auch Beitrag von Willis Eschenbach auf WUWT). Auch in Eurasien war dieses Phänomen zu erkennen, wie eine Studie aus 2012 von Qiuhong Tang und Guoyong Leng in den Environmental Research Letters zeigte. In Gebieten, in denen die Temperaturen stiegen, ging die Wolkendecke zurück. In Gebieten mit geringerer Erwärmung nahm die Wolkendecke zu.

Im August 2012 hatte T. Masters von der University of California in Los Angeles im Fachjournal Earth System Dynamics eine Studie mit dem Titel “On the determination of the global cloud feedback from satellite measurements” zu diesem Problem veröffentlicht. Sein Fazit fiel eindeutig aus: Die Satellitendaten der letzten 12 Jahre lassen keinerlei Aussage darüber zu, ob die Wolken nun die Klimaerwärmung verstärken oder abschwächen. Ein Anhänger der Klimakatastrophentheorie, Andrew Dessler, hatte als Reviewer mit allen Mitteln versucht, die Veröffentlichung der Studie zu unterbinden, letztendlich vergeblich, die Editorin fand die beiden anderen, positiven Gutachten überzeugender und veranlasste die Veröffentlichung des Papers. Im Folgenden die Kurzfassung der Arbeit von Master:

"A detailed analysis is presented in order to determine the sensitivity of the estimated short-term cloud feedback to choices of temperature datasets, sources of top-of-atmosphere (TOA) clear-sky radiative flux data, and temporal averaging. It is shown that the results of a previous analysis, which suggested a likely positive value for the short-term cloud feedback, depended upon combining all-sky radiative fluxes from NASA’s Clouds and Earth’s Radiant Energy System (CERES) with reanalysis clear-sky forecast fluxes when determining the cloud radiative forcing (CRF). These results are contradicted when ΔCRF is derived using both all-sky and clear-sky measurements from CERES over the same period. The differences between the radiative flux data sources are thus explored, along with the potential problems in each. The largest discrepancy is found when including the first two years (2000–2002), and the diagnosed cloud feedback from each method is sensitive to the time period over which the regressions are run. Overall, there is little correlation between the changes in the ΔCRF and surface temperatures on these timescales, suggesting that the net effect of clouds varies during this time period quite apart from global temperature changes. Given the large uncertainties generated from this method, the limited data over this period are insufficient to rule out either the positive feedback present in most climate models or a strong negative cloud feedback."

Kommen wir zurück zur Ausgangsbehauptung von Markus Becker, das Rätsel der Wolken sei jetzt gelöst. Der Blick in die Fachliteratur zeigt das Gegenteil: Die Wolken bleiben die große Unbekannte im globalen Klimaspiel. Sherwood und Kollegen haben lediglich ihre eigene, klimaalarmistisch geprägte Sichtweise an prominenter Stelle mit freundlicher Unterstützung der IPCC-nahen Nature-Redaktion präsentiert. Eine Vielzahl von Indizien weist jedoch in die genau gegenteilige Richtung: Wolken sind vermutlich gar nicht der befürchtete Verstärker der Erwärmung sondern wirken wohl eher dämpfend. Becker täte gut daran, das gesamte Spektrum der Fachliteratur zu referieren und sich nicht auf die ihm persönlich zusagenden Katastrophenmodelle zu beschränken. Mit unabhängiger Berichterstattung hat dies jedenfalls nichts mehr zu tun. Vielmehr handelt es sich um verdeckte Lobbyarbeit zur Förderung der klimaalarmistischen Gesinnung.

===================================================

 EIKE-Redaktion: Dieser Aufsatz wurde übernommen von Die kalte Sonne hier ; 

 Zur ungelösten Problematik der Wolken-Einflüsse in den Klima-Modellen sind jüngst weitere Beiträge erschienen, z.B. :

 http://www.eike-klima-energie.eu/news-cache/die-achilles-ferse-der-klima-modelle-wasserdampf-verstaerkung/ 06.03.2013

s o w i e   http://www.kaltesonne.de/?p=9091 / 17. März 2013

Zur weiteren Veranschaulichung hier zusätzlich einige Abbildungen als PDF-Anlage zum Download :

Related Files




Peer Review, das letzte Rückzugsgebiet für (uninformierte) Trolle

[*Diesen Begriff zu übersetzen erscheint mir wenig sinnvoll, zumal wohl jeder weiß, was damit gemeint ist. A. d. Übers.]

Bild rechts: Grabmal von Galileo Galilei

Ein Rückzug auf autoritäre Argumente angesichts total einfacher Beobachtungen ist nichts Neues. Vielmehr wiederholt sich die Geschichte. Nichts daraus gelernt habend scheinen wir dazu verdammt, die Geschichte zu wiederholen. Aber sowohl die Geschichte als auch die gegenwärtige Peer-Reviewed-Wissenschaft stehen, wenn man es aus der Distanz betrachtet, auf der skeptischen Seite.

Im fünften Jahrhundert vor Christus hat Empedocles theoretisiert, dass man sehen könne durch Strahlen, die vom Auge ausgehen. Um diese Bemerkung zu falsifizieren reicht eigentlich der Hinweis, dass man in einem dunklen Raum nichts sehen könne. Trotz dieser einfachen Beobachtung hat die Theorie während der folgenden 1600 Jahre substantiell Unterstützung erfahren.

Galileo starb im Hausarrest wegen seiner Befürwortung, dass sich die Erde um die Sonne dreht. Teils war er auf der Grundlage begutachteter Literatur jener Zeit verurteilt worden, der zufolge die Bewegung der Planeten, wie sie von der Erde aus beobachtet werden, einfach dadurch erklärt werden könne, dass sie in ihrem Orbit von Zeit zu Zeit die Richtung ändern. Fast 2000 Jahre lang bis zu Beginn des 19. Jahrhunderts bestätigte die begutachtete Literatur, dass man Kranken lediglich Blut abnehmen musste, um sie zu kurieren. Die einfache Beobachtung, dass die Todesrate durch diese Behandlung stieg, wurde von der Hand gewiesen mit dem Hinweis, dass es, falls es stimmen sollte, in medizinischen Journalen behandelt worden wäre. Kommt einem das bekannt vor?

Die Geschichte ist vollgestopft mit heute als völlig absurd angesehenen Gedanken. Gedanken, die sich stur weigern zu sterben, leben teilweise durch die genauso absurde Aussage fort, dass man Beweise des Gegenteils verwerfen muss, einfach weil diese nicht in den „richtigen“ Veröffentlichungen standen. Aber ist die Aussage der heutigen Klimawissenschaft genauso einfach durch simple Beobachtungen zu falsifizieren? Ich erkläre, dass dem so ist. [Im Original folgt der Satz: We have the climate models themselves to upon which to rely. Ich finde keine sinnvolle Übersetzung dafür. A. d. Übers.]

Was sind die Klimamodelle anderes als die Verkörperung der Peer-Reviewed-Wissenschaft? Gibt es auch nur ein einziges vom IPCC verwendetes Modell, das von sich behauptet, nicht auf Peer-Reviewed-Wissenschaft zu beruhen? Natürlich nicht. Und doch zeigen einfache Beobachtungen, dass die Modelle und damit auch die begutachtete Literatur, auf der sie basieren, falsch sind. Wir haben niemand anderen als das IPCC selbst, bei dem wir uns dafür bedanken können, uns dies gezeigt zu haben.

Der durchgesickerte zweite Entwurf des AR 5 hat das Scheitern der Modelle hinsichtlich der Temperaturvorhersage auf der Erde mit der Zeit gnadenlos offengelegt. Tatsächlich ist es so: wenn man alle Modelle aussortiert und nur 5% der Besten übrig behält, wären sie immer noch falsch, und zwar ganz offensichtlich. Sie sind allesamt wärmer als die Wirklichkeit. Angesichts dieser Bloßstellung vor der ganzen Welt, die jetzt sehen kann, wie sehr die Modelle (und damit die Wissenschaft, auf der sie basieren), falsch lagen, hat das IPCC darauf reagiert und ältere Modelle hinzugezogen, die zuvor als obsolet erklärt worden waren und jetzt plötzlich Teil der aktuellen Literatur sind:
http://wattsupwiththat.com/2013/10/04/no-matter-how-the-cmip5-ipcc-ar5-models-are-presented-they-still-look-bad/

Selbst mit diesen älteren und vermeintlich obsoleten Modellen zeigen die Klimamodelle nur ihr komplettes Scheitern. Mit anderen Worten, konfrontiert damit, dass Tausende durch Aderlass sterben, reaktiviert das IPCC alte Studien, die zeigen, dass sich drei oder vier Patienten erholen, die einst in Studien vor langer Zeit entdeckt worden waren. Es fordert Sie direkt auf zu glauben, dass die Planeten frei nach Gusto ihre Richtung im Orbit ändern. Sie haben eine Theorie erfunden, dass man im Dunklen nicht sehen kann, weil die Strahlen aus unserem Auge in Wechselwirkung mit Licht treten müssen, um zu funktionieren.

So lächerlich wie allein das schon klingt, für das IPCC ist es buchstäblich sogar noch schlimmer. Für diese Erkenntnis müssen wir uns zuallererst bei den Klimawissenschaftlern des Planeten bedanken.

Kevin Trenberth, vermutlich der politisch mächtigste Klimawissenschaftler der Erde, hat sich mit seiner berühmten Klage in den Klimagate-E-Mails hervorgetan, als er schrieb, dass wir uns die „fehlende Wärme“ nicht erklären können, ein stillschweigendes Eingeständnis, dass die Modelle falsch sind. Seitdem gab es zahlreiche Studien mit dem Ergebnis, dass die Wärme vielleicht in den Tiefen der Ozeane verborgen ist, wo man sie bequemerweise nicht messen kann. Selbst wenn das stimmen sollte, sind die Modelle falsch, denn sie haben dergleichen nicht vorausgesehen.

Die Studie von Roy Spencer zeigt, dass die Wärme in den Weltraum entweicht. Falls er recht hat, sind die Modelle falsch. Neuer ist die Studie von Cowtan und Way, die versucht uns weiszumachen, dass sich die Wärme an Stellen der Erde versteckt, von wo es keine Daten von Wetterstationen oder Satelliten gibt. Diese Wärme ist ganz schön wählerisch, wenn sie sich nur an Orten versteckt, wo wir sie nicht finden können. Falls diese Studie recht hat, dann hat kein einziges Modell dergleichen vorhergesagt, und die Modelle sind wieder falsch. Spencers Studie ragt aus den anderen heraus, weil darin keine absurden Verdrehungen enthalten sind, die auf offenkundige Weise versuchen, der CAGW-Linie zu folgen. Aber man stelle das in den richtigen Kontext: Alle diese Studien wurden veröffentlicht nicht weil die Modelle (und die ihnen zugrunde liegende Wissenschaft) richtig wären, sondern weil sie falsch sind, und zwar ganz offensichtlich.

Es geht in dieser Debatte nicht mehr darum, ob die Modelle falsch sind. Es geht jetzt darum, warum die Modelle falsch sind. Die Modelle sind gefallen, und die Peer-Reviewed-Wissenschaft als deren Grundlage fallen mit ihnen.

Aber Sie müssen mir in dieser Hinsicht nicht glauben.

Nur der Peer-Reviewed-Wissenschaft durch die an vorderster Front stehenden Klimawissenschaftler der Welt.

Link: http://wattsupwiththat.com/2013/12/29/peer-review-last-refuge-of-the-uninformed-troll/#more-100055

NACHTRAG: Übersetzt von Chris Frey, der sich für die vielen konstruktiven Kommentare unten  zur Übersetzung bedankt!




Energiepolitisches Manifest – Argumente für die Beendigung der Energiewende (1)

Energiepolitisches Manifest

Argumente für die Beendigung der Energiewende

von Günter Keil, Michael Limburg und Burkard Reimer

Hinweis zur Einordnung dieses Papiers

Die Autoren wirken in einer Gruppe von Fachleuten mit, die Bewertungen und Vorschläge zur Energiepolitik für die Partei „Alternative für Deutschland “ (AfD) erarbeitet. Es handelt sich dabei um den Bundesfachausschuss Energiepolitik (BFAE) der AfD. Der Inhalt des vorliegenden Papiers ist zum Teil in die Programm-Arbeit der AfD eingeflossen, es gibt jedoch ausschließlich die Meinung der Autoren wieder und ist kein Programm-Papier der AfD. Politische Grundsätze und Ziele dieser Partei werden auf einem in Vorbereitung befindlicher Programmparteitag nach eingehender Beteiligung ihrer Landesverbände beschlossen – dieser Prozess und seine Ergebnisse bezüglich der künftigen Energiepolitik der AfD sind abzuwarten.

 

Gliederung

Vorwort

1.      Klimaschutz – das Hauptziel der Energiewende wurde bereits aufgegeben

2.      Faktencheck: Erneuerbare-Energien-Gesetz EEG, Energie-Einsparverordnung EnEV, Erneuerbare-Energien-Wärme-Gesetz  EEWärmeG und Energiewende

   2.0    Physik und Technik des elektrischen Stromes versus Ideologie und Betrug

   2.1    Die Grenzen der Stromerzeugung mit „Erneuerbaren“

   2.2    Der Weg in die staatliche Planwirtschaft mit EEG und die Vertreibung der Industrie

   2.3    Ein weiteres Milliarden- Grab – EnEV und EEWärmeG

   2.4    Das Speicher-Dilemma

   2.5    Neue Speichertechniken ohne Chance zur Rettung der Energiewende

   2.6    Konventionelle Kraftwerke:  Unverzichtbar, aber bedroht.

   2.7    Das Stromnetz wird überfordert

   2.8    Offshore-Windparks: Die teure Illusion

   2.9    Kernkraft: Ungeliebt, aber unverzichtbar

   2.10   Shalegas:  Die vertane Chance

   2.11   Ohne Rücksicht: Die Energiewende als nationaler Alleingang

   2.12   Die Energiewende bedroht den Naturschutz

   2.13   Massive Verstärkung der Energieforschung und Verzicht auf die ineffektive

             Markteinführung bekannter Techniken

   2.14   Grüne Jobs – eine vergebliche Hoffnung

3.      Die Energiewende ist schon gescheitert

Quellen

Anhang: Daten und Berechnungen

Vorwort

Dem Journalisten Daniel Wetzel war es vorbehalten, die Merkmale der Energiewende in zwei Sätzen  zusammen zu fassen:

„Das Ökostrom-Eldorado Deutschland beruhte bislang auf fast völliger Zügellosigkeit. Unbegrenzter, regional völlig ungesteuerter Kapazitätsausbau, Einspeisevorrang, Abnahmepflicht selbst bei fehlender Nachfrage, gesetzliche Rendite-Garantie über 20 Jahre für jede noch so ineffiziente Ökostrom-Technologie, Sozialisierung der Risiken, Privatisierung der Gewinne: Das sind die Besitzstände, um die es geht.“(23)

Aber dies war noch längst nicht alles: In einer weltweit einzigartigen Panik-Überreaktion wurden unmittelbar nach dem Reaktorunfall von Fukushima-Daiichi acht Kernkraftwerke stillgelegt und die Stilllegung aller übrigen Kernkraftwerke bis 2022 gesetzlich angeordnet. Als wäre die mit der Energiewende – gekennzeichnet vor allem durch das Erneuerbare-Energien-Gesetz EEG – vorprogrammierte wirtschaftliche Katastrophe noch nicht genug; die Regierung verabschiedete sich mit diesem Ausstiegsbeschluss von ihrem eigenen „Klimaschutz“-Ziel,  das ursprünglich die Begründung für die Energiewende-Politik lieferte. Als Folge dieser erzwungenen Stilllegung einer der beiden  unverzichtbaren Grundlaststromquellen, die keinerlei Treibhausgase erzeugen, reiht sich jetzt die ehemalige Vorbild-Nation  Deutschland wieder in die lange Kette der Länder ein, deren CO2-Emissionen nach wie vor steigen.

Damit ist die Energiewende endgültig zu einer sinnentleerten Politik geworden, die nur noch aus Furcht vor der völligen Blamage und aus Angst vor den Medien an ihren irrealen Plänen festhält und sich mit kosmetischen Korrekturen (siehe Koalitionsvertrag der neuen Regierung aus Union und SPD) über die Runden zu retten versucht – wohl wissend, dass der von den Bürgern und der Wirtschaft zu zahlende Preis mit jedem weiteren verlorenen Monat weiter steigt. Anscheinend wartet  die Politik noch so lange mit einer radikalen Kurskorrektur, bis Arbeitslosigkeit, Energiearmut und die Abwanderung der Industrie völlig unerträglich geworden sind.

Am 16. Dezember 2013 hat die Diskussion über die Energiepolitik eine neue Qualität bekommen: An diesem Tag hielt der Direktor des Münchner ifo-Instituts Prof. Dr. Hans-Werner Sinn einen Vortrag im Audimax der Universität München mit dem Titel „Energiewende ins Nichts“ (37).

Noch nie zuvor hat ein führender Ökonom derart präzise und kompromißlos die katastrophalen Fehler der Energiewendepolitik analysiert und deren ebenso katastrophale Folgen demonstriert. Die Aussagen von Prof. Sinn zu den verschiedenen Teilthemen werden in den entsprechenden Kapiteln dieses Papiers zitiert.

Die hier vorgelegte Arbeit behandelt die Wirkungen der bisherigen Energiepolitik in den verschiedenen Sektoren der Energiewirtschaft und in weiteren betroffenen Bereichen – mit Vorschlägen für die zu ergreifenden Maßnahmen. Die Autoren erhoffen sich damit, den Lesern eine umfassende und von keinerlei ideologischen Scheuklappen eingeschränkte Sicht der Wirklichkeit zu vermitteln, die ihnen bisher von den Medien und auch von allen im Bundestag vertretenen politischen Parteien verweigert wird.

1.  Klimaschutz – das Hauptziel der Energiewende wurde bereits aufgegeben

Besonders die deutsche Regierung hat sich unkritisch die auf fragwürdigen Computermodellen beruhenden apokalyptischen Warnungen des Intergovernmental Panel on Climate Change IPCC, eine von der UN und den nationalen Regierungen kontrollierte politische Organisation, zu Eigen gemacht und ihre Energiepolitik auf die Reduzierung des Spurengases CO2  ausgerichtet. Sie hat widerspruchslos hingenommen, dass die sehr ausführlichen, meist 700 Seiten übersteigenden Berichte der dem IPCC zuarbeitenden Wissenschaftler von den politischen Bearbeitern im IPCC drastisch verkürzt und von politisch unerwünschten Aussagen bereinigt wurden. Stattdessen wurden Aussagen dramatisiert. Aus diesen nur noch ca. 40 Seiten umfassenden Extrakten der Angst – genannt „Zusammenfassung für politische Entscheidungsträger“ – bezog dann die Regierung ihre Informationen für ihre Entscheidungen. Damit ließ sie sich von der rein politisch agierenden Organisation IPCC manipulieren.

Die massive Kritik aus der Wissenschaft an diesem Vorgehen und an den Aussagen wurde ignoriert; statt dessen wurde wahrheitswidrig die Behauptung von einer 98-prozentigen Zustimmung aller Klimawissenschaftler angeführt. Jetzt hat sich die Regierung stillschweigend von diesem Ziel verabschiedet, ohne allerdings ihre  auf eine CO2-arme Wirtschaft ausgerichtete Energiepolitik zu ändern.  Die entscheidende Begründung  für die Energiewende, der „Klimaschutz“,  wird nun verschwiegen, seit die Regierung erkannt hat, dass die Abschaltung der CO2-freien Grundlast-Kernkraftwerke  unweigerlich zu einer verstärkten Nutzung der anderen in Deutschland verfügbaren Kraftwerke für Grundlaststrom,  der Kohlekraftwerke, führen musste. Trotz des Aufbaus riesiger Kapazitäten an „Erneuerbaren“ kann der nun fehlende Kernkraft-Strom nur durch neue Kohlekraftwerke ersetzt werden. Der CO2-Ausstoß steigt zwangsläufig und der Umweltminister zeigt sich bekümmert.  Die Regierung, die sich gegenüber anderen Ländern mit ihrer Vorreiter-Rolle immer wieder brüstete, schweigt dazu. Nun gab sie den Weg in Brüssel frei, 900 Millionen CO2-Zertifikate in der EU aus dem Markt zu nehmen. Einmal erhofft man sich davon, den Strom aus den fossil gefeuerten Kraftwerken teurer zu machen, um die Wettbewerbsfähigkeit der Erneuerbaren zu verbessern, und zum anderen den durch die Abschaltung weiterer Kernkraftwerke wieder steigenden CO2-Ausstoß zu bremsen.

Das wird einerseits die Stromerzeugung durch die heute noch rentablen Kohlekraftwerke  weiter verteuern, andererseits wird die in Deutschland abnehmende Grundlast-Stromproduktion durch teure Kernkraftstrom-Importe ausgeglichen werden müssen – beides wird den Strompreis weiter in die Höhe treiben.

Die Kritik an den vom IPCC prognostizierten Klima-Szenarien nimmt immer mehr zu, seit die Unglaubwürdigkeit der Prognosen und politischen Absichten, die mit der Verbreitung von Klimapanik verbunden sind, immer deutlicher zutage treten.

Eine Zusammenstellung dieser Kritik (19):

· Wenige Wissenschaftler bestreiten, dass Aktivitäten der Menschen eine Auswirkung auf das lokale Klima haben können oder dass die Summe derartiger lokaler Effekte hypothetisch derart ansteigen könnte, dass es ein messbares globales Signal gibt. Die Schlussfolgerung der internationalen, unabhängigen Wissenschaftlervereinigung NIPCC (19) ist jedoch, dass jedes vom Menschen verursachte Klima-Signal sehr klein und in die Variabilität des natürlichen Klimasystems eingebettet und damit nicht gefährlich ist.

· Die Methode des IPCC, aus Beobachtungen – z.B. des zeitlichen Verlaufs der Erdoberflächentemperatur (zum unwissenschaftlichen Konzept einer angeblichen Globaltemperatur siehe unten) – auf die Richtigkeit seiner Hypothese vom menschengemachten Klimawandel zu schließen, ist unwissenschaftlich. Beobachtungen sind in der Wissenschaft in erster Linie für die Widerlegung („Falsifizierung“) von Hypothesen nützlich und können nicht beweisen, dass eine Hypothese richtig ist.

· Eine wissenschaftlich bestätigte, also nicht falsifizierte Theorie hingegen sollte zukünftige Ereignisse hinreichend sicher prognostizieren können. Doch sämtliche Prognosen des IPCC über die angebliche Rolle der sogenannten Treibhausgase, insbesondere des CO2, als die Hauptfaktoren für die Erhöhung der Globaltemperatur (siehe unten) beruhen im Wesentlichen auf Computermodellen und erwiesen sich als falsch. Es gibt weder einen experimentellen Beweis noch unterstützende Beobachtungen für diese Theorie. Sie wird allein dadurch zur bloßen Hypothese degradiert. In den exakten Wissenschaften gilt aber eine Theorie nur dann als richtig, wenn sie durch wissenschaftliche Experimente oder gesicherte Beobachtungen bewiesen und deshalb in der Lage ist zukünftige Entwicklungen vorherzusagen.

· Bei der gegenwärtigen CO2-Konzentration in der Atmosphäre von ca. 400 ppm leben wir immer noch in einer sehr CO2-armen Welt. Die Konzentrationen im Kambrium (vor 500 Mio. Jahren) betrug ca. 4500 ppm. In diesem geologischen Abschnitt fand die s.g. „kambrische Explosion“ statt, in der sich die Lebewelt, so wie wir sie heute kennen, entwickelte (43).

· Die benutzten Computermodelle sind nichts anderes als spekulative Gedankenexperimente von Modellierern. Die damit erhaltenen Ergebnisse sind nur so zuverlässig wie die eingegebenen Daten.

So lange die Antriebskräfte des Klimas und die Rückkopplungs-Vorgänge nicht völlig geklärt  sind, stellen die Computermodelle nichts anderes dar als Übungen ohne Aussagekraft. Es ist weitgehend anerkannt, dass Klimamodelle nicht zur Erzeugung von Vorhersagen entwickelt und geeignet sind, sie geben vielmehr als „was-wäre-wenn“-Projektionen viele mögliche zukünftige Entwicklungen wieder. Die derzeit bekannten Schwächen der Klimamodelle betreffen ihre Kalibrierung (die Auswahl der Eingangsdaten), ihr nichtlineares Verhalten (zufällig streuende Ergebnisse bei jedem „Lauf“) und die Vernachlässigung wichtiger natürlicher klimaabhängiger Variablen. Die gegenwärtigen Klima-Computermodelle vermögen nicht einmal, innere periodische Klimaschwankungen wie die bedeutenden pazifischen und atlantischen Schwankungen (Pacific Decadal Oscillation PDO und Atlantic  Multidecadal Oscillation AMO) zu simulieren.

· Ebenfalls werden die Wirkungen von Veränderungen des Magnetfeldes der Sonne und der Teilchenstrahlung („Sonnenwind“) ignoriert, obwohl sie das Klima signifikant beeinflussen. Gegenwärtig zeigt sich die Unbrauchbarkeit dieser Modelle auch bei der aktuellen Entwicklung der Globaltemperatur, die – im krassen Gegensatz zu den IPCC-Vorhersagen  von +0,3 oC – seit nunmehr 16 Jahren nicht nur stagniert, sondern sogar leicht zurück geht. Diese tatsächliche Entwicklung der Globaltemperatur hat bereits sogar den unteren Streubereich der IPCC-Prognosen nach unten verlassen – was nur beweist, dass diese Prognosen nicht einmal die Entwicklung auch nur der kommenden 10 Jahre zu beschreiben imstande sind. Voraussagen für das Jahr 2100 auf der Grundlage dieser völlig unbrauchbaren Instrumente sind daher nur noch lächerlich.

Diese Tatsache hat die  Glaubwürdigkeit des IPCC stark erschüttert. Zu beachten ist dabei, dass die sogenannte Globaltemperatur nichts anderes ist als eine unsinnige Mittelwertbildung über ein Temperaturfeld, das sich nicht im Gleichgewicht befindet und das daher keine Temperatur aufweist.  Die Erde hat nicht eine einzige Temperatur (26).

· Die Entwickler der IPCC-Computermodelle benutzten unbewiesene,  ausschließlich positive Rückkopplungsannahmen in der Atmosphäre, um ihre Modelle zu den zukünftigen dramatischen Temperaturerhöhungen von 3 – 6 Grad als Ergebnis zu veranlassen. Ohne diese hypothetischen Mechanismen ergibt die  Strahlungsphysik nur einen sehr geringen Erwärmungseffekt der Treibhausgase von 0,3 – 1,0 oC und knapp die Hälfte dieser Erhöhung hätte bereits stattgefunden. Das ist allerdings ein politisch unerwünschtes Ergebnis.

· In den ersten IPCC-Berichten wurde der Einfluß der Sonne auf die  Klimaveränderungen der letzten 50 Jahre als sehr gering bezeichnet, verbunden mit der seltsamen Feststellung, dass man über die Art und Weise der Klimabeeinflussung durch die Sonne zu wenig wisse. Das IPCC blieb auch noch dabei, als die dänischen Wissenschaftler um Svensmark einen neuen, indirekten Mechanismus entdeckten, über den die Sonne mit ihrer Partikelstrahlung (Sonnenwind) auf die Wolkenbildung und damit auf die Oberflächentemperatur der Erde wirkt. Im Gegensatz zu den Computer-Modellierern und deren CO2–Theorie war das dänische Team in der Lage, ihre Theorie experimentell zu beweisen; im CERN erfolgte eine zweite experimentelle Bestätigung. Somit kommt der Sonne die entscheidende Rolle im Klimageschehen auf der Erde zu – wie man es bereits seit Jahrhunderten aus der Beobachtung der Sonnenflecken wusste (17) (18).

· Die Veröffentlichung des E-Mail-Verkehrs zwischen führenden Wissenschaftlern der Klimakatastrophen-Fraktion vermittelte einen deprimierenden Einblick sowohl in die Manipulation wissenschaftlicher Ergebnisse als auch in die Behinderung kritischer Kollegen bei deren Veröffentlichungen (16).

· Vom IPCC und Politikern – darunter auch Bundeskanzlerin Angela Merkel – wurde wiederholt auf einen angeblichen Konsens der Klimaforscher bezüglich der IPCC-Prognosen verwiesen. Diese Behauptung war von Anfang an unzutreffend;  vielmehr gibt es eine sehr starke und stetig zunehmende Kritik von Wissenschaftlern am IPCC und dessen Methoden – und an der unakzeptablen, aber sehr bezeichnenden Ausblendung dieser fachlichen Kritik aus den IPPC-Berichten. Unerklärlich ist auch der Glaube von Politikern an das ominöse „2-Grad-Ziel“, das von der Klimaforschung als unwissenschaftlich  angesehen wird (26).

· Projektionen des Sonnenzyklus (periodisch schwankende Aktivität der Sonne) in die Zukunft lassen darauf schließen, dass die nächsten Dekaden eher durch eine globale Abkühlung als durch eine Erwärmung gekennzeichnet sein könnten – trotz weiterer CO2-Emissionen.

· Eine vernichtende Selbstkritik veröffentlichte das IPCC  in seinem 3. Bericht (TAR, 2001), Kapitel 14.2.2 „Vorhersagbarkeit in einem chaotischen System“. Zitat: „Das Klimasystem ist besonders herausfordernd, weil bekannt ist, das Bestandteile des Systems chaotisch sind; es gibt Rückkoppelungen, die potenziell das Vorzeichen (einer Entwicklung) wechseln können und es gibt zentrale Prozesse, die das Klimasystem in einer komplizierten, nichtlinearen Weise beeinflussen. Diese komplexen, chaotischen, nichtlinearen Triebkräfte sind ein inhärenter (innewohnender, anhaftender) Aspekt des Klimasystems. Mit einem Wort: Eine Strategie muss berücksichtigen, was möglich ist. In der Klimaforschung  und Klima-Modellierung sollten wir zu Kenntnis nehmen, dass wir es mit einem gekoppelten nichtlinearen System zu tun haben und deshalb eine Langzeit-Vorhersage zukünftiger Klimazustände nicht möglich ist.“ (Seite 774 im englischsprachigen Bericht der Arbeitsgruppe I).

Diese ehrliche, aber für den politischen Auftrag des IPCC peinliche und vernichtende Analyse wurde dann in den späteren IPCC-Berichten nicht mehr zitiert – obwohl dauerhaft gültig.

Auch im 3. Bericht ging diese Bewertung in dessen drei insgesamt 2.570 Seiten starken Bänden der wissenschaftlichen Arbeitsgruppen unter, die kein Politiker jemals las – dafür hatte dann die „Zusammenfassung für Politiker“ ganze 31 Seiten. Und diese drastisch verkürzte, manipulative und auf Erzeugung von Angst ausgerichtete Miniaturfassung zeigte bei den Politikern die erhoffte Wirkung.

Auch ohne die Diskussion über die Schädlichkeit oder Unschädlichkeit von CO2 als Treibhausgas  gibt es längst mehrere Gründe dafür, dass Deutschland sämtliche teuren Anstrengungen zum sogenannten Klimaschutz einstellen müsste – und zwar wegen erwiesener Bedeutungs- und Nutzlosigkeit.

Diese Gründe sind:

1.  Das europäische System des Emissionshandels neutralisiert sämtliche deutschen Bemühungen, CO2 einzusparen, indem als deren Konsequenz die übrigen Euroländer durch Ankauf der Zertifikate ihre Emissionen um exakt die gleiche Menge erhöhen können. Nicht eine einzige Tonne CO2 wird deshalb durch die Anstrengungen Deutschlands in der EU eingespart.  Das EEG widerspricht somit diesem Emissionshandel und stellt deshalb eine im europäischen Maßstab unwirksame und teure Parallelaktivität dar. Die dadurch verursachte „völlige Wirkungslosigkeit“ des EEG betonte auch Prof. Hans-Werner Sinn in seinem stark beachteten Vortrag (38).

2. Selbst die gesamten CO2-Einsparungsbemühungen der EU-Länder bewirken – wenn man den IPCC-Prognosen Glauben schenkt und sie anwendet – nahezu nichts. Der dänische Forscher Björn Lomborg hat berechnet, dass die von der EU geplanten Maßnahmen, für die sie bis ins Jahr 2100 jährlich 250 Milliarden Euro ausgeben will – also insgesamt 20 Billionen Euro – am Ende dieses Zeitraums eine Verringerung der vom IPCC verwendeten „Globaltemperatur“ (26) um ein zwanzigstel Grad (0,05 oC) bringen würde.  Also 20 Billionen Euro für praktisch nichts.

3. Jedes Jahr erfahren wir, dass viele anderen Nationen, allen voraus China und Indien, ihre CO2-Emissionen gewaltig erhöhen. Diese Steigerungen sind dermaßen umfangreich, dass sämtliche jährlichen Einsparungen Deutschlands in den Jahren vor dem Kernkraftausstieg in jeweils knapp einer Woche allein durch die Mehremissionen Chinas ausgeglichen und zunichte gemacht wurden. Nimmt man noch die übrigen Staaten hinzu, dann wurden Deutschlands  jährliche Anstrengungen in 2 – 3 Tagen durch deren CO2-Anstieg neutralisiert.  Das ist die Antwort dieser Länder auf den deutschen Anspruch, Vorbild für sie zu sein.

4. Die deutsche Regierung hat ihre Klimaschutzpolitik bereits mit der Abschaltung von 8 Kernkraftwerken aufgegeben. Mit der gesetzlich vorgegebenen Abschaltung der restlichen KKW werden sich die Emissionen Deutschlands noch weiter erhöhen. Damit sind alle Gründe entfallen, die irgendeine Aktivität in diese Richtung rechtfertigen – und für die Bürger gibt es keine Gründe mehr, unter dem Vorwand eines „Klimaschutzes“ Gängelungen, Vorschriften und insbesondere Preissteigerungen für die Energie hinzunehmen.

Deshalb sollte die Energiewende wegen des klaren Verfehlens ihres Hauptziels von der Regierung kurzfristig abgesagt werden.

Vorschlag:

Die Begründung eines angeblich vom Menschen durch seine CO2-Emissionen verursachten  Klimawandels und damit der angeblichen Notwendigkeit drastischer CO2-Einsparungen wird angesichts der mehrfach widerlegten Prognosen des IPCC und des seit 1998 festgestellten Ausbleibens eines globalen Temperaturanstiegs fallen gelassen. Damit entfällt auch offiziell das bisherige, wesentliche Argument für die Bevorzugung der sog. „Erneuerbaren Energien“. Alle direkt dazu dienenden Maßnahmen werden beendet – z.B. das EEG, der Emissionshandel und technische Maßnahmen wie die Abtrennung und Einlagerung von CO2.

2. Faktencheck: Erneuerbare-Energien-Gesetz EEG, Energie-Einsparverordnung EnEV
    und Energiewende
2.0  Physik und Technik des elektrischen Stromes versus Ideologie und Betrug

Bei fossilen Energieträgern wie Kohle, Öl, Gas und Uran  handelt es sich um materielle Güter bzw. Stoffe, die Masse besitzen, direkt gelagert oder gespeichert und als Ware gehandelt werden. Elektrischer Strom hingegen beschreibt die Bewegung von elektrischen Ladungsträgern wie Elektronen in einem Leiter, die praktisch masselos die elektrische Energie übertragen. Die Ladungsträger (und damit elektrischer Strom) lassen sich direkt nur in ganz geringem Umfang in Kondensatoren speichern. Eine direkte großtechnische Speicherung von Elektronen und damit von Strom  ist aus physikalischen Gründen nicht möglich. In einem Stromversorgungsnetz ist deshalb nur ein „Online-Betrieb“ möglich,  d.h.  jeder Strom, der an irgendeiner beliebigen Stelle des Netzes entnommen wird, muss direkt und unmittelbar in gleicher Menge durch einen Strom-Generator eingespeist werden. Wenn kein Stromverbraucher eingeschaltet ist, kann das Netz auch keinen Strom aus den Generatoren aufnehmen. Werden alle Generatoren abgeschaltet, steht auch sofort kein Strom  mehr für den Verbrauch zur Verfügung.

Wegen dieser physikalischen Eigenschaft des elektrischen Stromes spricht man im juristischen Sinne und im Handelsrecht auch bei der Stromversorgung von einer Dienstleistung. Wie beim Frisör muss der Dienstleistende und der Dienstleistungsempfänger, hier der Stromverbraucher und der Stromerzeuger über das Netz, simultan verbunden sein.   

Viele Stromversorger, die Lobbyisten der "Erneuerbaren Energien" aber auch die Politiker aller Parteien verschleiern bewusst oder wegen Unkenntnis die physikalischen und technischen Gesetzmäßigkeiten der Stromversorgung. So werden Stromverträge angeboten, die einen bestimmten Anteil von EE-Strom anbieten, der bis zu 100% geht. Mit solchen Aussagen wird der umweltbewusste Kunde mehr oder weniger betrogen.

So hatte schon das Oberlandesgericht München 2001 die Werbekampagne des Stromversorgers E.ON gestoppt, der damit geworben hatte, seinen Ökostromkunden "zu 100% Strom aus Wasserkraft" zu liefern. Dieses Urteil nahm dann der Ökostromlieferant NaturEnergie AG zum Anlass, ein s.g. "Stromseemodell" zu entwickeln, das die Physik des Stromes negiert und den "Stromsee" als Speicherbecken  darstellt, in das alle Lieferanten ihren Strom einspeisen. Dabei wird natürlich der Strom aus den herkömmlichen Kraftwerken als "verschmutztes Wasser" bezeichnet, der Strom des Grünstromanbieters als "sauberer Strom" ausgewiesen (44). Zwar wird dem Gerichtsurteil nicht direkt widersprochen, aber mit unglaublichen Geschichten wird dem Kunden vorgegaukelt, dass er das richtige tut, wenn er den 100-prozentigen Ökostrom kauft,  auch wenn diesen andere verbrauchen, die nur herkömmlichen Strom bestellt haben. Wenn er Glück hat, erhält er eine homöopathische Dosis von seinem bestellten Ökostrom, muss aber tatsächlich weit überwiegend mit dem Strom aus konventionellen Kraftwerken vorlieb nehmen, den auch alle anderen Stromkunden aus exakt gleicher „Herkunft“ erhalten.

Das Stromseemodell wird offensichtlich heute von allen 100%-Ökostrom-Anbietern verwendet, z.B. von GREENPEACE ENERGY unter dem Motto "Gemeinsam machen wir den Stromsee sauber"                     (45) oder die NaturEnergie AG mit ihrer gegenwärtigen Werbung (46). Jetzt wird gar nicht mehr der Versuch gemacht, den "Stromsee" physikalisch oder technisch zu erklären. Es wird der Eindruck erweckt, dass der Strom im "Stromsee" nicht nur gemischt wird, sondern auch gespeichert werden kann. Dass die Windkraft- bzw. Photovoltaik-Anlagen aber nur maximal 3000 h bzw. 1700 h  von 8760 Jahresstunden Strom liefern und damit die meiste Zeit im Jahr im Mix des Anbieters aus 100% Ökostrom fehlen, macht den Betrug erst  deutlich. 

Bei einem Stromliefervertrag wird dem Kunden versprochen, dass sich der gelieferte Strommix mit festen Prozentsätzen aus verschiedenen  Stromquellen speist oder gar zu 100% aus Ökostrom besteht. In Wahrheit jedoch kann jeder aus dem deutschen Stromnetz versorgte Verbraucher nur den gleichen  Strommix beziehen,  der täglich in das Stromnetz eingespeist wird. Für das Jahr 2012 betrugen die ins Netz eingespeisten Ökostrom-Anteile wie folgt: Windkraft 8.1%, Photovoltaik 4,2%, Biomasse 6.2% und Wasserkraft 3,5%. Das waren 22% regenerativer und der Rest 78% herkömmlicher Strom. Diesen Strommix hat im Mittel jeder Kunde geliefert bekommen, egal welchen Strom er von wem bestellt hatte.

2.1   Die Grenzen der Stromerzeugung mit „Erneuerbaren“

Im Jahr 2012 waren „erneuerbare“ Stromerzeuger mit einer elektrischen Gesamtleistung von 62 GW (1Gigawatt=1000 Megawatt) installiert. Deutschland braucht im Durchschnitt an normalen Tagen zur Deckung des Strombedarfs eine Anschlussleistung von 60 GW, als Spitzenleistung im kalten Winter 70 bis 80 GW. Obwohl also diese Grünstromanlagen, wenn sie mit Nennleistung kontinuierlich arbeiten würden, schon fast den gesamten Strom für Deutschland liefern könnten, zeigen die tagesgenauen Ganglinien aller per EEG-Gesetz geförderten Anlagen in Deutschland über das gesamte Jahr 2012 (1), dass gerade einmal am 15.09.2012 für wenige Stunden eine Leistung von 30 GW überschritten worden ist.  Nur für diese kurze Zeit haben die EE-Stromerzeuger Deutschland zur Hälfte mit Strom versorgen können. Man sieht aber auch, dass deren angebotene Leistung täglich gewaltig schwankt und häufig bis auf nahe Null zurück geht. In einer weiteren Grafik (2) oder (3) für die Monate Januar bis März 2013 sind sowohl die Einspeiseleistung wie auch der Stromverbrauch für Deutschland dargestellt. Hier ist deutlich der geringe Anteil der Stromerzeugung der EE-Anlagen im Vergleich zu deren installierter Maximalleistung zu erkennen. Den Hauptteil der elektrischen Energie müssen nach wie vor die herkömmlichen Kraftwerke liefern.

Im Jahr 2012 haben die „Erneuerbaren“ aus Wind und Sonne nur 12,3% zur Bruttostromerzeugung beigetragen  (4). Um zum Beispiel auf 25% zu kommen müsste also die Leistung von Wind- und Photovoltaik-Anlagen gegenüber 2012 verdoppelt werden. Da auch bei Verdoppelung der EE-Strom-Leistung ihre Volatilität, d.h. die vom Wetter und Tageslicht abhängigen Leistungsschwankungen nicht verringert werden, geht ihre Leistung an windarmen Nachtstunden immer wieder auf nahe Null zurück. D.h. es müssen herkömmliche Kraftwerke mit einer Leistung von 80 GW, davon 70 GW für Spitzenlast und 10 GW Reserve, ständig betriebsbereit vorgehalten werden. Will man teilweise oder ganz auf konventionelle, also Kern-, Kohle-, Gas,- oder Öl-Kraftwerke verzichten, was das Ziel des EEG und der Energiewende ist, benötigt man zwingend die Speicherung des volatilen Stroms der Wind- und Solarstromerzeuger  zu den Zeiten, in denen er überhaupt verfügbar ist,  und diese Speicher müssen derart groß sein, dass sie in den Ausfallperioden des Grünstroms  eine sicher verfügbaren  Leistung   von  80 GW liefern können – und das durchaus über mehrere Tage (siehe Kap. 2.4 und 2.5).

2.2   Der Weg in die staatliche Planwirtschaft mit EEG und die Vertreibung der Industrie

Das Erneuerbare Energien-Gesetz EEG hatte von Anfang an einen durchgehend  planwirtschaftlichen,  Charakter. Mit den extrem zunehmenden Subventionen für die ausgewählten „Erneuerbaren“ erfolgte  eine Umwandlung des ehemals marktwirtschaftlich ausgerichteten Energiesektors in einen von Planwirtschaft gefesselten Sektor. Die mit dem EEG begangenen grundlegenden Fehler sind:

·       Auswahl bestimmter, ideologisch hoch bewerteter Stromerzeugungstechniken – Solarstrom, Windstrom, Biogas-Strom (hier EE-Techniken genannt) – die mittelfristig alle anderen Stromerzeugungstechniken ersetzen sollten. Unterdrückung eines echten Wettbewerbs mit anderen, bewährten Techniken.

·       Extrem hohe Förderung dieser EE-Techniken mit einer 20-jährigen Garantie der s.g. Einspeisevergütungen für jede noch so ineffiziente Ökostrom-Technologie, die von den Stromverbrauchern zu bezahlen sind. Zudem der Zwang für die Netzbetreiber, den Strom aus diesen Anlagen vorrangig anzunehmen, auch wenn kein Bedarf besteht. Ferner Entschädigungen für die EE-Lieferanten, wenn die Stromlieferung von den Netzbetreibern aus sicherheitstechnischen Gründen abgelehnt werden muss.

·       Unbegrenzter, regional völlig ungesteuerter Kapazitätsausbau, Einspeisevorrang, Abnahmepflicht selbst bei fehlender Nachfrage, gesetzliche Rendite-Garantie über 20 Jahre

Die zwangsläufigen Folgen:

·     Gefährdung der Netzstabilität durch die zufällige, vom Wetter und Tageslicht abhängige

      Stromerzeugung der Solar- und Windstromerzeuger.

·     Teurer zusätzlicher Ausbau der Höchstspannungsnetze, weil das Windstrom-Überangebot in 

 Norddeutschland wegen fehlender Leitungen nicht zu den west- und süddeutschen

 Verbrauchszentren geleitet werden kann.

·     Reduzierung der notwendigen Jahreslaufzeit und damit der Rentabilität von Kohle-, Gas- und  Pumpspeicher-Kraftwerken durch die gesetzlich vorgeschriebene Einspeisung des  zeitlich begrenzten Strom-Überangebots der EE-Quellen, das die Verbraucher trotzdem mit der EEG-Umlage teuer bezahlen müssen.

·    Starke Strompreis-Steigerungen durch die von den Verbrauchern zu zahlenden

             EEG- und weiteren Umlagen.

·       Privilegien für EE-Stromerzeuger, dadurch  Sozialisierung der Risiken, Privatisierung der Gewinne. Eine riesige Umverteilung von den weniger Bemittelten wie den Familien in den Miethäusern zu den Wohlhabenden wie den Hausbesitzern mit Solardächern oder Windparkbetreibern.

·       Belastung und Gefährdung der Stromnetze nicht nur in Deutschland, sondern auch in den Nachbarländern durch von Deutschland exportierte Stromspitzen bei Starkwind.

·       Gefährdung der Wettbewerbsfähigkeit energieintensiver Unternehmen und deren Abwanderung in Länder mit niedrigeren Energiepreisen, verbunden mit  der Verlagerung der CO2-Emissionen dieser Unternehmen ins Ausland, was im globalen Maßstab nichts bewirkt, außer der Verschönerung der deutschen Statistik.

Die De-Industrialisierung hat bereits begonnen

Eine im Dezember 2013 veröffentlichte Untersuchung der Forschungsgruppe der Deutschen Bank (30) kommt zu dem Ergebnis, „dass in Deutschland in energieintensiven Branchen bereits ein schleichender Prozeß der De-Industrialisierung begonnen hat. Er führt (Anm.: als offenbar gewollter) Nebeneffekt zu Verlagerungen von CO2-Emissionen in andere Länder“.  Der deutsche Strompreis für industrielle Kunden übertreffe das EU-Niveau um rd. 26%. „Nicht nur sind die Energiekosten gestiegen. Auch die Unsicherheiten bezüglich der allgemeinen energiepolitischen Rahmenbedingungen haben zugenommen. Aufgrund der schwankenden Stromversorgung durch erneuerbare Energien muss zudem inzwischen ein größerer Aufwand betrieben werden, um die Versorgungssicherheit zu gewährleisten.“ (Anm.: Damit sind der Aufbau und die Verstärkung einer eigenen Notstromversorgung gemeint.)

Die DB-Forscher stellen fest: „Unternehmen aus energieintensiven Branchen hielten sich schon in den letzten Jahren mit Investitionen in Deutschland zurück. In nur zwei der letzten 17 Jahre investierten die energieintensiven Branchen mehr in ihre Anlagen, als sie abgeschrieben haben.“ Sie folgern: „Steigen die Energiepreise auch künftig … überproportional, ist bei energieintensiven Unternehmen … mit Umsatzverlusten zwischen 2 und 6% des Umsatzes zu rechnen. Das entspricht einem absoluten Verlust zwischen rd. 5 Mrd Euro und 16 Mrd. Euro pro Jahr.“

Die Forscher kommen zu der Schlussfolgerung, „dass sich (energieintensive) Unternehmen bei Erhaltungs- und Erweiterungsinvestitionen künftig häufiger gegen den heimischen Standort entscheiden, was zu einem schleichenden Substanzverlust bei den Produktionsanlagen … führen kann.“

Eine hohe Belastung dieser Unternehmen, die am Anfang einer vertikal integrierten Wertschöpfungskette stehen und Vorprodukte z.B. an den Maschinenbau, die Elektrotechnik oder den Fahrzeugbau liefern, hätte deshalb auch negative Auswirkungen auf nachgelagerte Branchen zur Folge. Und weiter: „Unter dem Strich sehen wir das Risiko, dass Deutschlands Wettbewerbsfähigkeit als Industriestandort mittel- bis längerfristig leidet.“

Mit der Vertreibung dieser Industrien ins Ausland exportiere Deutschland auch die mit ihr zusammenhängenden CO2-Emissionen – „in einer Größenordnung von gut 3 bis rd. 10 Mio. Tonnen pro Jahr.“ Kommentar der Wissenschaftler: „Letztlich zeigt sich hier das Dilemma einer national forcierten Klimapolitik. Übermäßig hohe Energiepreise oder klimapolitische Regulierungen in einem Land führen aber kurz- und mittelfristig nicht zu global sinkenden CO2-Emissionen, sondern lediglich zu deren Verlagerung (im Fachjargon: Carbon Leakage).“

Am Schluß bewerten die Wissenschaftler den Koalitionsvertrag der neuen Bundesregierung: „Die angekündigten Maßnahmen dürften nicht ausreichen, um einen weiteren Anstieg der Energiepreise zu stoppen.“

Die inhärenten Fehler des EEG sind struktureller und grundsätzlicher Natur, so dass alle Versuche einer Verbesserung aussichtslos bleiben müssen. Aus diesem Grunde wird immer stärker eine ersatzlose Abschaffung dieses Gesetzeswerks gefordert.

Einer der prominentesten Vertreter dieser Forderung ist Prof. Dr. C. Christian von Weizsäcker vom Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern, Bonn. In einem neueren Interview erklärte er auf die Frage „Was sollte die Politik beim Fördersystem für die Erneuerbaren tun?“ unmißverständlich: „Die grundsätzliche Antwort müßte heute sein, dass man das EEG komplett abschafft und statt dessen andere Modelle einführt. Insbesondere solche, die zwar ein gewisses Mengenziel für erneuerbare Energien insgesamt vorgeben, dann aber die verschiedenen erneuerbaren Energien unter gewissen Schutzklauseln miteinander konkurrieren lassen“ (27).

Selbst der für die Energiepolitik zuständige EU-Kommissar Günther Oettinger erklärte am 11.1.2014 in einem Vortrag in Königswinter, „das EEG gehört in den Mülleimer“.

Die bisherige Regierung hat an der grundlegenden Fehlentscheidung, die mit dem EEG getroffen worden sind, um jeden Preis festgehalten. Als Konsequenz dieser fatalen Fehlplanung waren ständig weitere neue Reparatur-Fehlentscheidungen erforderlich, um die unübersehbaren Engpässe und Schäden vorübergehend zuzudecken. Im Ergebnis muss jetzt in Deutschland das gesamte System der Stromerzeugung doppelt errichtet werden: Riesige Investitionen in unzuverlässige und teure Wind- und Solarstromanlagen – bei gleichzeitigem Zugriff auf die unverzichtbaren Kohle- und Gaskraftwerke, die mittlerweile aber durch die subventionierte und unbegrenzte EE-Strom-Einspeisung  unwirtschaftlich geworden sind und in einem marktwirtschaftlichen System eigentlich stillgelegt werden müssten.  Diese selbst verschuldete Engpasssituation bekämpft der Staat wiederum durch neue Verordnungen mit der Verpflichtung von konventionellen Kraftwerken als Netzreserve – was erneut Kosten verursacht.

Die Energiesparverordnung (EnEV) und das Erneuerbare-Energien-Wärme-Gesetz (EEWärmeG) sind  weitere von vielen Beispielen für eine immer mehr ausufernde Planwirtschaft im Energiesektor; typisch für die notorische Grundeinstellung der staatlichen Stellen, dass die Bürger und die Wirtschaft zu einem „klimafreundlichen“ Verhalten leider gezwungen werden müssen.

Die EnEV und das EEWärmeG führen zu einer weiteren hohen finanziellen Belastung von Bürgern und Unternehmen, die durch die damit beabsichtigte Energieeinsparung  nicht annähernd finanziell kompensiert wird; insbesondere nach den geplanten Verschärfungen dieser Verordnung. Zudem verteuern sie zwangsweise Neubauten, was Hausbesitzer und Mieter zusätzlich belastet.

EnEV und EEWärmeG werden in Kapitel  2.3 behandelt.

Vorschlag:

·   Das EEG ist abzuschaffen. Sämtliche Förderungen sind einzustellen. Für Bestandsanlagenbesitzer wird eine grundgesetzkonforme Entschädigungs-Lösung vorgeschlagen, die, sofern ein Schaden entstanden ist, diese nach dem Vorbild des Lastenausgleiches nach dem II. Weltkrieg die Besitzer aus einem noch zu bildenden Sonderfonds entschädigt, in den alle Besitzer von „EE“ Anlagen einzuzahlen haben.

· Abschaffung der Energie-Einsparverordnung EnEV und des Erneuerbare-Energien- Wärme-Gesetzes EEWärmeG.

Mit der Abschaffung insbesondere des EEG können auch die folgenden gesetzlichen Maßnahmen entfallen, die nur Reparaturversuche für die durch das EEG angerichteten Probleme und Schäden darstellen:

·   Die Offshore-Haftungsumlage nach §19 EnWG

·   Die Kraftwerksreserveverordnung

·   Die Umlage nach §19 Abs.2  StromNEV (Ausgleich für Netzentgeltbefreiungen stromintensiver Unternehmen)

·   Die Umlage für abschaltbare Lasten nach §18 AbLaV (zur Deckung von Kosten abschaltbarer Lasten zur Aufrechterhaltung der Netz- und Systemsicherheit

·   Die Stromsteuer („Ökosteuer“), die der „Förderung klimapolitischer Ziele“ und interessanterweise auch (oder gerade) zur Absenkung und Stabilisierung des Rentenbeitragssatzes dienen sollte, ist um den Teil zu kürzen, der tatsächlich für „klimapolitische Ziele“ verwendet, also verschwendet  wird.

·   Die Mehrwertsteuer darf nicht mehr auch auf alle Umlagen und Abgaben, die den Strompreis betreffen, erhoben werden, da dies eine Doppelbesteuerung darstellt.

·   Das Treibhausgas-Emissionshandels-Gesetz TEGH, das in Deutschland die gesetzliche Grundlage für den Handel mit Berechtigungen zur Emission von Treibhausgasen in einem gemeinschaftlichen Emissionshandels-System  bildet, ist abzuschaffen, weil es fast ausschließlich um den Zertifikate-Handel für CO2–Emissionen geht. Die Begründung für dieses Gesetz ist entfallen, da der   Klimawandel allenfalls in geringfügigem Maße durch CO2 beeinflusst wird.

·   Das Energie-Wirtschafts-Gesetz (EnWG) und die  Messstellen-Zugangs-Verordnung von 2008 dürfen nicht zwecks Einführungspflicht für Smart Meter in Bestandsgebäude geändert werden.

Diese Auflistung ist zum Zeitpunkt dieser Veröffentlichung vermutlich bereits wieder  unvollständig. Es sollte sichergestellt werden, dass alle Gesetze und Verordnungen, die im Zusammenhang mit Energiewende und EEG erlassen worden sind, ebenfalls abgeschafft werden müssen.

Das generelle Ziel aller vorgeschlagenen Maßnahmen ist deshalb die Wiederherstellung einer Energiewirtschaft, die wieder durch die Regeln der Marktwirtschaft gekennzeichnet ist und in der  Wirtschaftlichkeit und Versorgungssicherheit, die von den vergangenen drei Regierungen vernachlässigt worden sind, wieder im Vordergrund stehen.

Wird fortgesetzt.

Das komplette Manifest kann als pdf im Anhang heruntergeladen werden.

Related Files




Windstrom ist zur Gefahr geworden-Immer näher an den Blackout heran

Würden Sie sich in ein Flugzeug setzen, dessen Pilot noch den ersten Bartflaum am Kinn trägt und kurz vor dem Start noch mit verlorenem Gesichtsausdruck in einem Heftchen mit dem Titel „Vom Laien zum Flieger-As in nur fünf Lektionen“ herumgeblättert hat? Nun, während der Durchschnittdeutsche in einem solchen Fall wahrscheinlich fluchtartig die Maschine verlassen würde, vertraut er in einem anderen, für sein Wohlergehen aber genauso entscheidenden Punkt sein Schicksal Menschen an, welche von der extrem anspruchsvollen Technik unserer Stromversorgung ebenfalls nicht den Schimmer einer Ahnung haben: Politikern, deren Qualifikation sich zumeist auf eine Lehrer- oder Anwaltsausbildung beschränkt, und die sich auf Berater verlassen, deren Qualifikation hauptsächlich auf ihrer Mitgliedschaft bei grünlinken Parteien oder Nichtregierungsorganisation wie Greenpeace oder dem BUND beruht. Damit haben wir unsere Stromversorgung in die falschest möglichen Hände gegeben. Wie empfindlich unser aus vielen tausend Einzelelementen fein vernetztes Stromversorgungssystem in Wirklichkeit ist, zeigte in aller Deutlichkeit der massive Blackout, der am 4. November 2006 große Teile Deutschlands und Europas für Stunden ins Chaos stürzte. Um zu verstehen, was damals vor sich ging, empfiehlt sich ein Blick auf die kritischen Sekunden dieser Ereignisse.

Was geschah im kritischen Moment?

Eine brauchbare Analyse der Abläufe und der Fehler, die im Rahmen einer eigentlich routinemässigen Umschaltoperation zu einem der europaweit schlimmsten Stromausfälle mit rund 10 Mio. betroffenen Haushalten und Auswirkungen von Deutschland bis nach Marokko führten, findet sich in [WIAU]. Wie häufig bei derartigen Katastrophen gab es im Endeffekt nicht eine Ursache, sondern zahlreiche einzelne Fehler, die normalerweise folgenlos geblieben wären. Erst in ihrem Zusammenwirken kam es zu einer verhängnisvollen Kombination, die dann das europäische Verbundnetz in den Abgrund riss.

Bild 1. Aufzeichnung des Frequenzverlaufs des Stromnetzes am 04.11.2006 zwischen 22:08 und 22:30 MEZ, gemessen im Ruhrgebiet (Grafik: Wikimedia Commons)

Dem eigentlichen Ausfall waren eine ganze Reihe von Kommunikationsdefiziten, Schlampereien und mangelnden Absprachen vorausgegangen. Dennoch befand sich das Netz in den Minuten vor dem eigentlichen Ereignis in einem zwar gefährdeten, aber stabilen Zustand. Die Gefährdung resultierte aus der Missachtung des sogenannten N-1-Kriteriums, welches vorschreibt, dass zu keiner Zeit der Ausfall eines bestimmten Betriebsmittels wie einer Leitung, eines Transformators oder Generators zu einem Gesamtausfall führen darf [N1KR]. Im vorliegenden Fall war zu wenig Kraftwerksleistung am Netz von RWE [ZEIT], um nach der planmäßigen Abschaltung zweier wichtiger Leitungen noch zusätzlich den Ausfall einer dritten Leitung aufzufangen. Zu diesem Verlust kam es, weil ein im Prinzip minimaler Eingriff nach einem Lastanstieg auf einer bereits kritisch belasteten Leitung um 22:10:11 zu einem weiteren Stromanstieg von gerade mal 67 A führte, was bei 380000 Volt einer Leistungserhöhung um etwa 25 MW entspricht. Im Vergleich mit der üblichen Größenordnung des Leistungstransports durch solche Leitungen, der bei rund 1000 MW liegt, sind diese zusätzlichen 2,5 % eigentlich unbedeutend. Im vorliegenden Fall spielten sie jedoch die Rolle des sprichwörtlichen Tropfens, der ein Fass zum Überlaufen bringt. Diese kleine zusätzliche Last löste innerhalb von zwei Sekunden den automatischen Netzschutz aus und trennte die betreffende Leitung. Wegen der Nichteinhaltung des sogenannten N-1-Kriteriums kam es dadurch zu einer unkontrollierten Verteilung der Last auf andere Leitungen und innerhalb von zwei weiteren Sekunden zu einer Kettenreaktion mit sich immer weiter ausbreitenden Abschaltungen. Schließlich wurde das europäische Verbundnetz notfallmäßig in Teilnetze aufgespalten, in denen es in der Folge zu teils stundenlangen Ausfällen kam.

Wichtigste Lehren: Nie ohne Grosskraftwerke…

Der Ablauf der Ereignisse vom 4. November 2006 zeigt vor allem zunächst eines: Den Netzbetreibern stehen bei solchen Ereignissen meist so gut wie keine Zeitreserven zur Verfügung. Das kritische Zeitfenster war gerade einmal vier Sekunden lang, eine Zeit, in der selbst primärregelfähige Kraftwerke ihre Leistungsabgabe nur um Bruchteile des erforderlichen Betrags heraufsetzen können, Bild 2.

Bild 2. Schema des zeitlichen Einsatzes der unterschiedlichen Regelleistungsarten. Auch die sogenannte Primärregelleistung steht erst nach 30 Sekunden vollständig zur Verfügung (Grafik: DF5GO/ Wikimedia Commons)

Die einzige sofort verfügbare Leistungsreserve, auf die die Netzbetreiber gerade in diesen ersten entscheidenden ersten Sekunden eines Ausfalls zurückgreifen können, ist die in den rotierenden Massen der Turbinen und Generatoren konventioneller Kraftwerke gespeicherte kinetische Energie. Vom Prinzip her arbeiten diese Anlagen in einem solchen Fall ganz so wie ein Schwungrad. Die darin gespeicherte Energie ist enorm, denn die rotierenden Bestandteile von Großkraftwerken haben eine Masse von oft mehreren hundert Tonnen, Durchmesser von etlichen Metern und erreichen im Normalfall rund 3000 Umdrehungen/ Minute. Bild 1 zeigt sehr anschaulich, wie schnell im Ruhrgebiet die Netzfrequenz nach dem Auftreten der Störung einbrach. Nur die Rotationsreserven verhinderten zu diesem Zeitpunkt einen totalen Zusammenbruch. Erst mit einer gewissen Verzögerung setzen nach und nach die sonstigen Stabilisierungsmechanismen ein: Dampf-, Gas- und Wasserventile werden aufgefahren, Kesselfeuerungen in Kohlekraftwerken auf höheren Durchsatz eingestellt und Steuerstäbe aus Reaktorkernen herausgefahren. Doch haben alle diese Maßnahmen nur dann noch einen Sinn, wenn es in den ersten Augenblicken gelungen ist, einen kompletten Zusammenbruch des Netzes mit Hilfe der Rotationsenergie zu verhindern. Soll heißen: Ohne ausreichende Verfügbarkeit von konventioneller Kraftwerksleistung ist ein Netz in kritischen Situationen nicht stabil zu halten.

strenge Einhaltung des N-1-Kriteriums…

Zweite wichtige Lehre aus dem Desaster vom November 2006 ist die Erkenntnis, dass das sogenannte N-1-Kriterium in jedem Fall ohne Einschränkungen eingehalten werden sollte. In der Praxis heißt dies vor allem, dass stets eine ausreichende Anzahl konventioneller, zu Abgabe von Primärregelleistung fähiger Kraftwerke am Netz sein müssen. Hierzu zählen im Wesentlichen Kohlekraftwerke, Kernkraftwerke, Gaskraftwerke und Wasserkraftwerke. Unbrauchbar sind unter diesen Gesichtspunkten dagegen sowohl Solar- als auch Windenergieanlagen, da deren Leistungsabgabe nicht gezielt dem sich ändernden Bedarf angepasst werden kann. Insbesondere Leistungserhöhungen sind wegen der Launenhaftigkeit von Sonne und Wind nicht zu gewährleisten.

Erzeugung nahe am Verbrauch…

Eine weitere entscheidende Erkenntnis aus den Ereignissen vom 4. November 2006 ist die, dass es Gefahren birgt, wenn Erzeugung und Verbrauch zu weit voneinander entfernt liegen. Dies zeigte sich, als das europäische Verbundnetz instabil wurde und durch automatische Notfallprogramme in drei getrennte Teilnetze aufgespalten werden musste. Am Ende dieser Kettenreaktion wurde das europäische Verbundnetz (UCTE, Union for the Coordination of the Transmission of Energy) in die Bereiche West, Nord-Osten und Süd-Östliches Stromnetz als eigene Teilnetze aufgetrennt, Bild 3.

Bild 3: Zerfall des europäischen Verbundnetzes in drei Teilnetze mit Frequenzabweichungen infolge Unterversorgung (orange und blau) bzw. Überkapazität (grün) (Bild: wdwd/ Wikimedia commons)

Diese Trennung machte die nachteiligen Folgen einer zu großen räumlichen Trennung von Stromerzeugung und –verbrauch sichtbar: Während in Nordosteuropa (grün) plötzlich knapp 10.000 MW zu viel Leistung am Netz waren, fehlte diese Erzeugung in West- und Südeuropa (orange und blau). Als Konsequenz stieg die Netzfrequenz im Nordosten rapide wieder an (Bild 1), während sie im Westen und Süden weiter abfiel. Entsprechend unterschiedlich waren die Konsequenzen: Im grünen Sektor gelang es noch rechtzeitig, überschüssige Erzeugungsleistung vom Netz zu trennen. Die Notabschaltung eines laufenden Kraftwerks ist zwar ein brutaler Vorgang, jedoch sind die Kraftwerke dafür ausgelegt und können das überstehen. Eine schnelle Aktivierung stillstehender Einheiten steht dagegen auf einem ganz anderen Blatt. Deswegen war es in den beiden anderen Sektoren nicht möglich, ausreichend Erzeugerleistung zu mobilisieren. Das ist auch kein Wunder, denn im gesamten synchronisierten Bereich des europäischen Verbundnetzes liegt die vorzuhaltende Primärregelleistungskapazität bei lediglich 3000 MW, also bei nur rund einem Drittel dessen, was zu diesem Zeitpunkt benötigt worden wäre. Da die fehlende Erzeugerleistung in den Bereichen „Orange“ und „Blau“ nicht schnell genug mobilisiert werden konnte, mussten durch automatischen Lastabwurf Verbraucher vom Netz genommen werden, was nichts anderes bedeutet als Blackouts. In manchen Gebieten dauerte es teils mehrere Stunden, bis das Verbundnetz wieder zusammengeschaltet und synchronisiert werden konnte.

Eine entscheidende Lehre aus diesen Ereignissen sollte daher sein, zur alten Tugend zurückzukehren, Erzeugung und Verbrauch elektrischer Energie räumlich möglichst nicht zu weit zu trennen. Hätte in den Verbrauchsschwerpunkten der einzelnen Teilnetze nach der Auftrennung jeweils genügend Kraftwerksleistung zur Verfügung gestanden, so wären die Konsequenzen wesentlich geringer gewesen. Der Ferntourismus in Sachen Stromleitung, den man heute mit Riesenwindparks in grosser Entfernung von den Verbrauchsschwerpunkten oder mit „Wüstenstrom aus der Sahara“ propagiert, offenbart gerade in solchen Situationen seine elementaren Schwächen. Wenn man z.B. in Norddeutschland 30000 und künftig 50000 oder gar 70000 MW Windleistung erzeugt und die Leitungen zu den Verbrauchszentren dann aus irgendwelchen Gründen ausfallen, so kann man mit gerade mal 3000 MW Primärregelleistung im Fall des Falles faktisch überhaupt nichts mehr ausrichten.

Bild 4. Kohlekraftwerke wie dieses der Steag in Herne sind entscheidende Stützen der Netzstabilität (Foto: kohlekraftwerke.de)

Beim Blackout nutzen Gaskraftwerke wenig

Eine weitere wichtige Folgerung aus den beschriebenen Ereignissen ist die, dass die oft als Heilsbringer gepriesenen Gaskraftwerke bei einem Blackout wenig ausrichten können. Reine Gaskraftwerke werden zwar als Schnellstarter gepriesen, doch dauert es eben doch mehrere Minuten, bis ihr Generator wirklich nennenswerte Leistungen abgeben kann. Damit kann man keinen Blackout verhindern. Noch mehr gilt dies für die sogenannten Gas-und-Dampfkraftwerke: Aus dem Stillstand heraus braucht deren Dampfkessel eher Stunden als Minuten, bis er die Turbine mit nennenswerter Leistung versorgen kann. Während reine Gaskraftwerke wegen ihrer hohen Kosten sowieso meist nur kurzfristig zur Deckung von Spitzenlast zum Einsatz kommen, bedienen GUD-Kraftwerke meist die Mittellast. Zwar kommen sie mit kleinen bis mittleren Lastgradienten gut zurecht, doch ist ihre Präsenz im Netz wegen der hohen Kosten zu gering, als dass man von ihnen erwarten könnte, dass sie wesentliche Anteile der Aufgaben von Grundlastkraftwerken übernehmen könnten.

EE-Strom ist unzuverlässig

Mit Blick auf die oben vorgestellten Gefährdungen der Netzstabilität stellt man bei genauerer Betrachtung der in Deutschland zur Zeit vorliegenden Situation bei der Stromerzeugung – insbesondere unter Einbeziehung der sogenannten „Erneuerbaren Energien“ – fest, dass wir uns bereits jetzt in einer kritischen Situation befinden, die durch weiteren EE-Zubau immer weiter verschlimmert wird. Bild 5 zeigt den Verlauf der Stromerzeugung aus Wind, Sonne und konventionellen Kraftwerken im Zeitraum vom 1. bis zum 26. Dezember 2013.

Bild 5. Erzeugung aus konventionellen, Wind- und Solarkraftwerken vom 1. bis 26. Dezember 2013 (Daten: EEX)

Daraus lässt sich erkennen, dass im Dezember zwar etliche Tage mit sehr hohem Stromaufkommen aus Windenergie vorkamen, aber andererseits auch Zeiträume mit einer Gesamtdauer von rund zwei Wochen, in denen die deutsche Bevölkerung ohne den Strom aus konventionellen Kraftwerken extrem schwierige Zeiten ohne Heizung, Licht, Warmwasser, warmes Essen und funktionsfähige Arbeitsplätze hätte durchmachen müssen. Von einer Fähigkeit der „Erneuerbaren Energien“, konventionelle Kraftwerke zu ersetzen, kann demnach nur jemand reden, der selbst das kleine Einmaleins der Stromerzeugung und -versorgung nicht verstanden hat. Großkraftwerke kann man nicht so mal eben nach Belieben ein- oder ausschalten und danach in die Garage stellen, sie brauchen Belegschaften (4 Schichten!), Betriebsmittel, Brennstoffe, Reparaturen etc. pp, und diese Kosten laufen weiter, egal ob man ihnen erlaubt, Strom zu liefern oder nicht.

Ihren blamabelsten Tag hatten Sonne und Wind am 11. Dezember, als sie gemeinsam über einen Grossteil des Tages weniger als 2000 MW und über einen Teil des Nachmittags sogar weniger als 900 MW lieferten, Bild 6. Das ist gerade mal die Leistung eines einzigen größeren Kohlekraftwerks. In Prozentzahlen ausgedrückt waren dies gerade einmal 1,4 % der Netzlast. Man muss schon eine sehr lockere Beziehung zur Realität haben um zu behaupten, mit derartigen „Energiequellen“ könne man Deutschland zu 100 % versorgen, wie es immer mal wieder in der Presse zu lesen ist.

Bild 6. Am 11. Dezember 2013 erreichte das Aufkommen an Wind- und Solarstrom über lange Zeiträume nicht einmal 1500 MW (Daten: EEX)

Bei viel Wind wird die Notfallreserve nicht mehr eingehalten

Ebenso unhaltbar ist auf der anderen Seite jedoch inzwischen auch die Situation an Tagen mit hohem EE-Aufkommen. Aufgrund des Vorrangs von EE-Stromerzeugern vor konventionellen Kraftwerken müssen diese bei hohen Einspeisungen von Wind- und Solarstrom ihre Erzeugung zurückfahren. Dadurch wird jedoch bei etwa 28000 MW eine kritische Grenze unterschritten, bei der die noch am Netz verbleibende Kraftwerksleistung nicht mehr ausreicht, um die erforderliche Mindestreserve an Primärregeleistung vorzuhalten [VERT, WIAU]. Dies ist in Bild 4 mit einer roten Linie gekennzeichnet. Am 22. Dezember war dies beispielsweise über einen Zeitraum von 8 Stunden der Fall. Für diesen Zeitraum wurde das N-1-Kriterium bezüglich Vorhaltung von Primärregelleistung nicht mehr eingehalten, ein klarer Verstoß gegen die Erkenntnisse aus der Analyse des Blackouts vom November 2006. Auf gut Deutsch: Im Dezember 2013 bestand für einen Zeitraum von mehreren Tagen ein reales Blackout-Risiko nicht nur für Deutschland, sondern auch für die Nachbarländer. In seinem Wind- und Solarwahn ist Deutschland inzwischen offensichtlich bereit, seine internationalen Verpflichtungen zur Sicherung der gemeinsamen Netzstabilität zeitweilig grob zu missachten.

Österreich: Es wurde knapp

Einen Eindruck davon, wie schädlich sich der Alleingang Deutschlands in Sachen EE-Energieproduktion auf unsere Nachbarländer mittlerweile auswirkt, vermittelt der Vergleich der ursprünglich in Österreich geplanten Stromerzeugung aus konventionellen Kraftwerken mit der tatsächlichen Produktion am 22. Dez. 2013,

Bild 7. Fast den ganzen Tag über mussten die Kraftwerke des Austrian Power Grid (APG) zwischen 800 und mehr als 1100 Prozent der ursprünglich geplanten Erzeugung erbringen, um einen Zusammenbruch der überlasteten Leitungsnetze nach Deutschland zu vermeiden. 

Gerne hat man das bei unseren Nachbarn sicher nicht gemacht, denn schon bei einer vergleichbaren Situation am 3. Oktober 2013 hatte man zu ähnlichen Maßnahmen greifen müssen, wenn auch nicht in dem jetzt erforderlich gewordenen Umfang. Schon damals hatten sich die Kosten auf über eine Mio. € belaufen [SAUR]. Beim Strom-Tsunami, der um den 22. Dezember herum die Netze überflutete, dürfte es noch wesentlich teurer geworden sein.

Das Ausmass des Ärgers, den solche Ereignisse auslösen, unterstreicht die folgende Meldung, die am 29.11.2013 in „Die Presse“ erschien: „Der heimische Übertragungsnetzbetreiber APG schlägt Alarm: Das Stromnetz könne mit dem rasanten Ausbau der Wind- und Solarkraftwerke nicht Schritt halten. Allein heuer musste das Unternehmen 600 Stunden lang Kraftwerke notabschalten oder den kurzfristigen Handel mit Strom unterbinden, um das heimische Stromnetz zu sichern. „Die Tendenz ist stark steigend“, warnt APG-Vorstand Gerhard Christiner“ [OEST].

An diesem fundamentalen Problem ändert sich auch durch die Tatsache nichts, dass der überschüssige Windstrom, der in diesem Zeitraum die Netze überschwemmte, zeitweilig nur noch dann abzusetzen war, wenn man dem Abnehmer bis zu 6,2 ct/ kWh draufzahlte, Bild 8. Dies erhöht die Differenz zum Garantiepreis, den der deutsche Verbraucher dann über die EEG-Umlage an die „Öko“-Profiteure zu bezahlen hat.

Bild 8. Um die Weihnachtszeit 2013 musste überschüssiger EE-Strom an der Börse mit Aufzahlungen von bis zu 6,2 ct/ kWh verschleudert werden (Grafik: HECK)

 Fred F. Mueller

Quellen:

[HECK] http://nature2010.tripod.com/wkr202.htm    24/25.12.2013

[N1KR] http://www.netzausbau.de/SharedDocs/Glossareintraege/DE/N/glo_n-1-kriterium.html?view=renderHelp[CatalogHelp]&nn=231210

[OEST] http://diepresse.com/home/wirtschaft/economist/1492276/Stromnetz-heuer-600-Mal-in-Gefahr?from=gl.home_wirtschaft

[SAUR] http://www.ploetzlichblackout.at/2013/12/22/eine-analyse-der-aktuellen-situation-weihnachten-2013/

[VERT] http://www.energiewelten.de/elexikon/lexikon/seiten/htm/110601_Primaerregelung_des_Stromversorgungsnetzes.htm

[WIAU] http://de.wikipedia.org/wiki/Stromausfall_in_Europa_im_November_2006

[ZEIT] http://www.zeit.de/online/2006/45/Stromausfall




Das Weltwirtschaftsforum wird vom Klima-Alarmismus gekapert

Im jährlichen WEF-Bericht über globale Risiken stehen in diesem Jahr bizarrerweise „Klimaänderung“ und „Extremwetterereignisse“ als zwei der drei globalen Bedrohungen mit den größten Auswirkungen und der größten Wahrscheinlichkeit ganz oben. (Abbildung 1).

Abbildung 1: Vor dem Hintergrund, dass die „Klimakrise“ auf ein Rekordtief fällt, sind die vermeintlichen Bedrohungen durch „Klimaänderung“ und „Extremwetter“ auf ein Rekordhoch gestiegen (oben rechts), und zwar unter den Profiteuren des Untergangs in Davos.

Angesichts der eingefrorenen Klimawissenschaft im antarktischen Eis, angesichts des immer länger andauernden Stillstands und angesichts des IPCC (eine weitere internationale Bande von Betrügern, für die die von Gangstern beeinflusste kriminelle Organisation, die die moderne Schweiz heute ist, ein straffreier Rückzugsraum ist), das seine Kurzfristprognosen bzgl. der globalen Erwärmung auf ein Rekordtief senkt, hat der Thermageddon-Kult heimlich, still und leise das Weltwirtschaftsforum gekapert.

Bemerkenswerterweise ist das Datum der Kaperung sehr leicht erkennbar (Abbildung 2). Vor dem Jahr 2011 sind Umwelt-„Bedrohungen“ unter den Top 5 globalen Risiken hinsichtlich Eintreffen (oben) und Wahrscheinlichkeit (unten) aufgetaucht. Seit 2011 haben sich die grünen Paneele, die für Umwelt-„Risiken“ stehen, stark vermehrt.

Abbildung 2: Die fünf wichtigsten globalen Risiken des WEF nach Eintreffen (oben) und Wahrscheinlichkeit (unten). Sie wurden dominiert von imaginären Umweltkatastrophen (grüne Paneele) seit 2011. Diagramm auf Grundlage des WEF-Berichtes zu globalen Risiken

Es gab 2011 keinen besonderen Grund für den Alarm hinsichtlich unseres Einwirkens auf das Klima. Was war geschehen? Vielleicht haben die üblichen Verdächtigen, deren großer Schub zur Ausschaltung des Westens auf dem Kopenhagen-Gipfel 2009 gescheitert war, nach weiteren internationalen Agenturen gesucht, die man entern kann, und sind dabei auf das politisch naive Weltwirtschaftsforum gestoßen.

Ich habe das Wort „naiv” mit Bedacht gewählt. Weil der Davos-Bericht selbst nach den niedrigen Standards, den die Klimaänderungs-Dummschwätzer überall gesetzt haben, ein außerordentlich hysterisches und aufgeblasenes Dokument ist. Das WEF ist vollkommen dumm geworden.

In dem pompösen Bericht zu globalen Risiken heißt es: „Umweltrisiken erscheinen auch an prominenter Stelle in der Liste dieses Jahres, und zwar an der der top zehn Stellen besorglicher globaler Risiken.

Wasserkrisen zum Beispiel rangieren an dritter Stelle. Dies illustriert eine andauernde und wachsende Aufmerksamkeit gegenüber der globalen Wasserkrise als Folge von Missmanagement und zunehmendem Ansturm auf schon jetzt durch Wirtschaftsaktivitäten und Bevölkerungswachstum begrenzte Wasservorräte. Gekoppelt mit Extremwetter wie Überschwemmungen und Dürren, die an sechster Stelle auf der Liste stehen, sind die potentiellen Auswirkungen real und schon heute im Gange.

Die Klimaänderung an fünfter Stelle auf der Liste ist der Schlüsseltreiber für derartige unsichere und sich ändernde Wettervorgänge, die zu häufigeren Extremwetterereignissen führen wie Überschwemmungen und Dürren“.

Nun steht jedoch im 5. Zustandsbericht ziemlich eindeutig, dass man nicht irgendwelche Extremwetterereignisse der „globalen Erwärmung“ zuordnen kann. Es wird besonders darauf hingewiesen, dass es kein erkennbares zusätzliches Risiko von Zyklonen, Stürmen, Dürren und Überschwemmungen gibt. Und Analysen wie der Accumulated Cyclone Energy Index von Ryan Maue bestätigen dies. Und doch beklagt sich der WEF-Bericht, dass „der Taifun Haiyan einen schweren Zoll von den Philippinen forderte, selbst als die Führer der Welt in Warschau im November 2013 über die Klimaänderung gesprochen haben“.

Und weiter: „Die Klimaänderung rangiert unter den fünf wahrscheinlichsten und folgenschwersten Risiken. Neben anderen Umweltrisiken werden Extremwetterereignisse an zweiter Stelle der höchsten Wahrscheinlichkeiten gelistet, und auch die Wasserkrise steht in der Liste sehr weit oben“.

Und die Lösung? „Dies belegt die unabdingbare Notwendigkeit besserer Information der Öffentlichkeit über die potentiellen Konsequenzen von Umweltbedrohungen, weil kollektive Maßnahmen auf allgemeinem Verstehen dieser Dinge beruhen müssen“.

Da haben wir es wieder. Die ‚Thermageddoniten‘ von Davos machen das fortgesetzte Scheitern des Westens verantwortlich, sich selbst auszuschalten aufgrund der mangelhaften Propaganda, um die Öffentlichkeit davon zu überzeugen, dass die globale Erwärmung, die nicht stattgefunden hat, zu Extremwetter geführt hat, das stattgefunden hat.

Der modische Unsinn setzt sich fort mit einem Lamento über Dritte-Welt-Länder, die das größte Risiko zu tragen haben: „Dürren und Überschwemmungen könnten zunehmend die Wirtschaft ärmerer Länder schädigen, was sie immer tiefer in die Armut treibt“.

Der Bericht gleitet dann immer mehr ab in den ganz normalen Wahnsinn, und zwar mit einem Paneel mit der reißerischen Inschrift „Ein sich entwickelndes Spektrum katastrophaler Risiken: existentielle Bedrohungen“, zugeliefert vom „Global Agenda Council on Catastrophic risks“.

„Die Klimaänderung”, sagt das globale Armageddon-Kommissariat, „ könnte sich zu einem sich selbst immer weiter verstärkenden Runaway-Effekt bzgl. der Temperatur führen“.

Ähm, nein, kann sie nicht. Ich bin nicht sicher, dass selbst das heilige Buch des IPeCaC jemals erwähnt hat, dass eine Runaway-Temperatur auch nur im Bereich des Möglichen liegt. In jedem Falle machen elementare Überlegungen in der Mathematik der Rückkopplungs-Verstärkung eine Runaway-Rückkopplung zu einer Unmöglichkeit.

Abbildung 3 zeigt die Schätzungen des IPCC aus dem Jahr 2007 bei einer CO2-Verdoppelung (Y-Achse) im Vergleich zum Loop Gain γ (X-Achse). Das vom IPCC genannte Intervall von 3,26 (2,0; 4,5) der geschätzten Sensitivität ist markiert und zeigt implizit die Loop Gain-Werte 0,64 (0,42; 0,74).

Abbildung 3: Klimasensitivität bei einer CO2-Verdoppelung (Y-Achse) gegen Rückkopplungs-Loop Gains γ = λ0f im Intervall (-1; 3) (X-Achse), wobei λ0 der Plank’sche Sensitivitäts-Parameter 0,31 K/Wm² ist und f die Summe in W/m²K aller unverstärkten Temperatur-Rückkopplungen. Das Intervall der Klimasensitivitäten im IPCC-Bericht 2007 wird als rot umrandetes Gebiet gezeigt; ein physikalisch realistischeres Intervall, das konsistent ist mit Lindzen & Choi (2009, 2011) ist grün umrandet. Im Elektronischen Schaltkreis hat die Singularität bei γ = +1 eine physikalische Bedeutung; im Klima dagegen nicht. Im Klima erfordert die Rückkopplungs-Verstärkungs-Gleichung daher einen Dämpfungsterm, der in den Modellen fehlt.

Prozessingenieure, die elektronische Schaltkreise entwerfen, haben nicht die Absicht, einen Maximum-Wert von γ = 0.1 für den Loop Gain zu übernehmen (und normalerweise eine Größenordnung darunter). Folglich ist in einem stabilen Schaltkreis alles rechts der blauen Linie außen vor.

Während der letzten 750 Millionen Jahre hat sich das Klima wie ein stabiler Schaltkreis verhalten. Der Temperatur-Rückkopplungs-Loop Gain kann nicht viel über + 0,1 hinaus gegangen sein, weil während der gesamten Zeit nach Scotese (1999) und Zachos (2005) die globale Mitteltemperatur nur um 8 K variiert hat oder um 3% auf beiden Seiten des langzeitlichen Mittels.

Während der letzten 420.000 Jahre war der nahezu konstante Verlauf der globalen Temperatur sogar noch eindrucksvoller (Abbildung 4). Die absolute globale Temperatur nach Rekonstruktion aus den Wostok-Eisbohrkernen fluktuierte um weniger als 3 K oder 1% auf beiden Seiten des Mittelwertes.

Abbildung 4: Rekonstruktion der globalen Temperatur während der letzten 420.000 Jahre, abgeleitet aus den δ18O-Anomalien in Luftbläschen, die zwischen den Eisschichten in Wostok eingeschlossen waren. Um die Anomalien im globalen Maßstab zu ermitteln, wurden die Werte der rekonstruierten Anomalien (Y-Achse) durch den üblichen Faktor 2 dividiert, um die polare Verstärkung zuzulassen. Diagramm auf Basis von Petit et al. (1999). Man beachte, dass es in allen vier vorherigen Warmphasen in Intervallen von 80.000 bis 125.000 Jahren zumindest genauso warm war wie während der derzeitigen Warmphase. Datenquelle: Petit et al (1999).

Tatsächlich könnte die Rückkopplungs-Verstärkung allgemein die falsche Gleichung sein. In einem elektronischen Schaltkreis beschreibt die ins Auge fallende Singularität bei γ = +1 eine physikalische Realität. An diesem Punkt schaltet die elektrische Spannung – die danach strebt, positiv unendlich zu werden – von der positiven in die negative Phase. Beim Klima ist ein solcher Übergang jedoch nicht möglich. Temperatur-Rückkopplungen, die so stark positiv waren, wie es sich das IPCC phantasievoll vorgestellt hat, können die globalen Temperaturen nicht ruckartig nach unten anstatt nach oben treiben. Außerdem gibt es so etwas wie negative Spannung, aber es gibt nicht so etwas wie negative Temperatur.

Kurz gesagt, ein Dämpfungsterm ist erforderlich, damit man die Bode Rückkopplungs-Verstärkungs-Gleichung überhaupt auf das Klima anwenden kann. Aber jeder Wert, der ausreicht, den Loop Gain ausreichend entfernt von der Singularität zu halten, würde die Klimasensitivität begrenzen auf das mit „möglich“ bezeichnete Intervall in grün in Abbildung 3. Dies impliziert, dass es kaum mehr als 1 K Erwärmung pro CO2-Verdoppelung gibt. Daher gibt es auch kein Klimaproblem: und selbst wenn es eines gäbe, kann die vom WEF beschworene Runaway-Rückkopplung nicht existieren, und es zeigt sich auch nicht das geringste Zeichen während der letzten 750 Millionen Jahre, dass es jemals zu so etwas gekommen ist.

Das WEF fährt fort und schiebt den Krieg in Syrien der globalen Erwärmung in die Schuhe: „Während es beispielsweise keinen Zweifel gibt, dass der verheerende Bürgerkrieg durch eine Anzahl von Gründen ausgelöst worden ist, bringen jüngste Forschungen die versteckte Rolle der Klimaänderung an den Tag, gibt es doch auch in Syrien Extremwetter und eine Wasserkrise. Zwischen 2006 und 2011 gab es in bis zu 60 Prozent der Landfläche Syriens eine der schlimmsten und längsten Dürren in moderner Zeit. Zusammen mit dem Missmanagement der Wasservorräte sorgte diese Dürre für Ernteverluste in Höhe von 75 Prozent für die Landwirte, was sie zum Auswandern zwang und zu zunehmender Spannung in den Städten führte, wo es ohnehin schon zu ökonomischer Unsicherheit und Instabilität gekommen war“.

Dieser Abschnitt illustriert sehr gut das Problem, das sich ergibt durch das Fehlen von allem, was unsere Vorfahren vom späten Mittelalter bis zum Zweiten Weltkrieg als Bildung angesehen haben würden, Bildung der „Führer der Welt“, die sich selbst schmeicheln durch ihre Teilnahme am Davos-Quark.

Falls jede Dürre der globalen Erwärmung in die Schuhe geschoben wird und jede Überschwemmung und jede Hitzewelle und jede Kältewelle durch einen Polarwirbel, ergeben sich daraus zwei Schlussfolgerungen. Erstens, die globale Erwärmung gab es unablässig seit 4567 Millionen Jahren und steht vollständig für jedes Klimaereignis, dass jemals aufgetreten ist, auftritt oder jemals auftreten wird. Und wenn wirklich die globale Erwärmung in dieser langen Zeit so zugenommen hat, wie kann man dann sagen, dass die geringe Erwärmung, die vor 17 Jahren und vier Monaten zum Stillstand gekommen ist, irgendetwas mit uns zu tun hat?

Zweitens, falls jede Wetteränderung als unsere Schuld betrachtet wird, wie kann dann die Hypothese, dass die vom Menschen verursachte Erwärmung ein Problem ist, falsifiziert werden? Eine Hypothese, die nicht falsifiziert werden kann, ist nicht viel mehr als ein Kuriosum. Es ist nicht Wissenschaft, und keine politische Maßnahme kann legitim auf einer solchen Grundlage erfolgen, bevor sie nicht so modifiziert ist, dass sie getestet werden kann und dieser Test dann nicht zur Widerlegung der Hypothese führt.

Zumindest räumt das Davos-Klagelied ein, wenn auch auf Umwegen, dass seine Auffassung des Klimawandels selbst noch über das allgemein zu Extremen neigende IPCC hinausgeht: „Das zusätzliche Risiko, dass die Klimaänderung bzgl. Wasserknappheit, Verlust an Biodiversität, Schäden in den Ozeanen und Entwaldung darstellt, erzeugt eine komplexe „Heterarchie“ anstatt einer einfachen Hierarchie, und zwar hinsichtlich Umweltrisiken, oftmals mit einer nicht linearen Verteilung von Änderungen und sich selbst erhaltender Rückkopplungs-Mechanismen. Diese Heterarchie ist in den IPCC-Modellen nicht enthalten, könnte aber das größte wirtschaftliche Risiko vor allen anderen durch die Klimaänderung sein“. Runaway-Rückkopplungen, wieder einmal.

Der Bericht fährt fort: Die Klimaänderung könnte in eine sich selbst erhaltende Runaway-Phase steigender Temperaturen übergehen“. Runaway-Rückkopplungen zum Dritten. Es will einfach nicht geschehen. Zurück zu Process Engineering 101, Leute!

Aber die Wild-Extremisten und Fanatiker sind immer noch nicht fertig. Sie reden weiter davon, dass die Klimaänderung droht, „die Erde zunehmend unbewohnbar zu machen“. Ach, ihr Schwachköpfe! Etwa 90% der Tier- und Pflanzenspezies der Erde leben in den Tropen, wo es das letzte Mal, als ich dort war, ein wenig wärmer war als an den Polen, wo etwa 1% aller Spezies leben.

Grundlagenwissen von Hochschul-Geographie sollte ausreichen, dass die Davos-Schwachköpfe zweimal nachdenken sollten, bevor sie darüber grübeln, dass die Erde durch die Erwärmung „zunehmend unbewohnbar“ wird.

Der „Global Agenda Council on Climate Change” meldet dem Bericht eine zweite Box zu, diesmal mit dem Titel „Poor Countries Are Losing Ground in the Race to Adapt to a Changing Climate” [etwa: Arme Länder verlieren an Boden im Rennen um die Anpassung an ein sich änderndes Klima].

Es heißt darin: „Das Jahr 2014 wird wahrscheinlich ein Schlüsseljahr, um gegen Klimarisiken vorzugehen. Diesen Punkt hat UN-Klimachefin Christiana Figueires auf dem Warschau-Klimagipfel angesprochen. Die Länder machen nur geringe Fortschritte bei Emissions-Reduktionen, Ausgleich für Verluste und Schäden sowie Anpassung. Hier ist unbedingt ein größerer Fortschritt vonnöten, um Anreize zu schaffen und Mechanismen zu entwickeln, die Maßnahmen gegen den Klimawandel zu finanzieren, während gleichzeitig die Anstrengungen fortgesetzt werden müssen, den Temperaturanstieg unter 2°C zu halten“.

Es gibt keine wissenschaftliche Grundlage für die Aussage, dass die globale Temperatur im Jahre 1750 ideal war und dass alles über 2°C höher als diese Temperatur nicht ideal ist. Welches ist das ideale globale Temperaturintervall, und auf welcher wissenschaftlichen Basis wird es bestimmt? Das WEF gibt auf keine dieser Fragen irgendwelche Antworten.

Wer hat das Weltwirtschaftsforum gekapert? Ein Hinweis liefert die Mitgliedschaft des „Global Agenda Council on Climate Change”, ein Titel, der unheimlich stark den tausenden vom KGB finanzierten Fronttruppen ähnelt, die von der Sowjetunion in den gesamten Westen geschickt worden sind, um als deren Marionetten Fehlinformationen unter das Volk zu streuen.

Mitglieder dieses Kommissariats sind: Swiss Re (ein Rückversicherer, der so notorisch wie Lloyds of London eine nicht existierende globale Erwärmung hochhält, um bessere Prämien kassieren zu können), das Notre Dame Global Adaptation Institute (vom Steuerzahler geförderte me-too academic rent-seekers); Yvo De Boer, KPMG International Cooperative (einst Chef des UN Framework Convention on Climate Change); Yara International („nachhaltige Landwirtschaft”); Connecticut Department of Energy and Environmental Protection (vom Steuerzahler finanziert); Carnegie Institution for Science (me-too); Christiana Figueres, United Nations Framework Convention on Climate Change (’nuff said); Connie Hedegaard, European Commission (’nuff said); Tokyo Institute of Technology (vom Steuerzahler finanziert); HSBC Asia Pacific (me-too); Deutsche Bank (schon lange Fanatiker der globalen Erwärmung); Aecom Technology Corporation (Architekten und Bauherren, die „sich verpflichtet haben, die Welt zu einem besseren Ort zu machen”); Qatar Foundation (dort fand 2012 der UN-Klimagipfel statt, auf dem ich die Burmesische Delegation vertrat); Ministry of Water and Environmental Affairs, South Africa (vom Steuerzahler finanziert); Deutsches Ministerium für Umwelt, Naturschutz und Reaktorsicherheit (vom Steuerzahler finanziert); Baker & McKenzie (“Global Corporate Sustainability” Anwaltskanzlei); Weltbank (ungewählte internationale Bande, die von jeder Angstmacherei profitiert, die gerade angesagt ist); und Climate Group (die üblichen Verdächtigen einschließlich New York State).*

[*Man sehe mir nach, dass ich viele Monckton’sche Ausdrücke aus diesem Absatz nicht übersetzt habe!]

Diese Galerie von Spitzbuben ist eine erhellende Illustration, wie große Unternehmen und vom Steuerzahler finanzierte Gruppen zusammenkommen, die eine extremistische Haltung zur Klimafrage angenommen haben, nicht weil dies wissenschaftlich ist, sondern weil es sich auszahlt.

Abschließend zeigt Abbildung 5 die Liste der Top Ten der globalen Risiken durch das Weltwirtschaftsforum.

Abbildung 5: Die obersten zehn globalen Risiken des WEF.

Es ist schwer zu sagen, ob die Autoren dieses extrem kindischen Dokuments ernsthaft die antiwissenschaftlichen Phantasien und Dummheiten glauben, oder ob die globale politische Klasse endlich bemerkt hat, dass die globale Erwärmung niemals auch nur annähernd so ausfallen wird wie die vorhergesagte Rate. Falls das CO2 weiter steigt und Temperatur nicht weiter steigt, wird jeder merken, dass die politische Klasse falsch gelegen hat mit ihrer Aussage, sie sei zu 95% sicher, dass sie recht habe. Die beste Route aus diesem Schlamassel heraus für sie ist,  wissenschaftlich ungebildete Regierungen zu täuschen, sie zu einer starken Reduktion von CO2-Emissionen zu bewegen und dann zu behaupten, dass die fortgesetzte Weigerung der Welt, sich zu erwärmen, die Folge ihrer noblen Maßnahmen ist und nicht, dass dies ohnehin geschehen wäre.

Link: http://wattsupwiththat.com/2014/01/24/the-world-economic-forum-gets-hijacked-by-climate-alarmism/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: Jeder dritte Solarindustrie-Job gestrichen – RWE fährt Milliardenverluste ein

Faz vom 28.1.14: Die grüne Revolution in der deutschen Industrie sollte zu einem neuen Beschäftigungswunder in Deutschland führen. Doch zur guten Lage am Arbeitsmarkt tragen die mit Milliardensummen geförderten Ökobranchen kaum bei. Im Gegenteil: Vor allem in der Solarindustrie gehen derzeit Tausende Arbeitsplätze verloren.

In der Herstellung von Solarzellen und Solarmodulen waren im November vergangenen Jahres gerade noch rund 4800 Personen beschäftigt. Damit wurde innerhalb eines Jahres jede dritte Stelle abgebaut. Erstmals seit knapp vier Jahren fiel die Beschäftigung unter die Marke von 5000…. Die staatliche Förderung der Photovoltaik hatte zuvor zu einem enormen Ausbau in Deutschland geführt.

Christoph Schmidt, der Vorsitzende der Wirtschaftsweisen und Präsident des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung, hatte berechnet, dass jeder dieser Arbeitsplätze im Jahr mit 175.000 Euro gefördert wird. Angesichts des Vergleichswerts von 75.000 Euro in der Steinkohleförderung stellte er früh die Frage nach der Nachhaltigkeit.

Die Welt

RWE muss Milliarden abschreiben

Der Essener Energiekonzern RWE muss bei bei seinen konventionellen Kraftwerken Abschreibungen in Milliardenhöhe vornehmen.

Insgesamt habe der Konzern einen Wertberichtigungsbedarf in Höhe von rund 3,3 Milliarden Euro ausgemacht, teilte RWE mit. Der Großteil davon – 2,9 Milliarden Euro – entfielen auf die konventionelle Stromerzeugung, der Rest auf den Geschäftsbereich Erneuerbare Energien und den Beteiligungsbereich.

Die Wertberichtigungen würden auch auf das Nettoergebnis der Konzerns durchschlagen, betonte RWE…..

….Konzernchef Peter Terium erklärte, RWE trage damit den tiefgreifenden Veränderungen der Rahmenbedingungen auf dem europäischen Erzeugungsmarkt Rechnung. «In ganz Europa stehen derzeit vor allem Erdgas- und Steinkohlekraftwerke unter einem hohen wirtschaftlichen Druck», sagte er. Der Manager verwies gleichzeitig darauf, dass RWE bereits Konsequenzen aus der schwierigen Ertragslage ziehe, mit der alle europäischen Stromerzeuger konfrontiert seien. Das Unternehmen senke konsequent die Kosten seines Kraftwerksparks, um seine Ertragskraft zu steigern.




Russland wacht auf und schnuppert am Schiefer

Moskau ist sehr spät auf den Schiefer-Zug aufgesprungen. Weil Russland schon über reichliche Vorräte an konventionellem Öl und Gas verfügt, sah man dort bislang keine Notwendigkeit, in unkonventionelle Reserven zu investieren. Aber die Vorräte an Kohlenwasserstoffen beginnen zu stagnieren, und Moskau erkennt, dass es die Schiefer-Option zumindest wert ist, einmal genauer betrachtet zu werden. Kein Wunder: Russland verfügt über die größten Reserven von Schieferöl weltweit und liegt hinsichtlich von Schiefergas an neunter Stelle. Kürzlich hat ein Joint Venture zwischen Royal Dutch Shell und Gazprom Neft die erste Fracking-Bohrstelle im Bazhenov-Feld erschlossen, unmittelbar bei Salym. Bloomberg berichtet:

Das Bazhenov-Feld liegt unter den bestehenden Ölfeldern in Sibirien und hat Shell sowie die Exxon Mobil Corp. (XOM) angelockt, weil die Verhältnisse denen im Bakken-Feld in den USA ähneln. Dort gab es durch Fortschritte in der Bohrtechnik einen Erzeugungs-Boom. Exxon wird auch noch in diesem Jahr mit einem 300 Millionen Dollar teuren Pilotprojekt beginnen und in einem anderen Bereich von Bazhenov zusammen mit OAO Rosneft (ROSN) bohren.

Falls Russland erfolgreich in die Tiefen Sibiriens nach Schieferöl und –gas vordringen kann, könnte es seinen Ambitionen, wieder zur Großmacht zu werden, mit seinen Energievorräten erneut nahe kommen. Aber eine lange Reihe von Hindernissen muss erst noch beseitigt werden, und bislang ist es niemandem, nicht UK,  nicht Polen, ja nicht einmal China gelungen, in die Fußstapfen der USA zu treten. Russland bohrt gerade mal sein erstes Loch zur Erkundung, so dass es noch viel zu früh ist um zu sagen, ob es wohin kommen kann und wie lange es dauert. Am wichtigsten: Russland hat die Erfahrung, die Industrie und Infrastruktur, die die Stellung eines der weltgrößten Erzeuger von Kohlenwasserstoffen mit sich bringt.

Link: http://www.the-american-interest.com/blog/2014/01/19/russia-wakes-up-and-smells-the-shale/

Übersetzt von Chris Frey EIKE




Die merkwürdige Logik des Zuordnungs (attribution)-Statements des IPCC

Ja, wir befinden uns mitten in (oder vielleicht am Ende, oder vielleicht am Anfang) eines Stillstands hinsichtlich des globalen Temperaturanstiegs. Die Beweise scheinen zuzunehmen, dass die natürliche Variabilität bedeutender ist als in den IPCC-Berichten zuvor angenommen. Und doch wächst das Vertrauen des IPCC in die anthropogene globale Erwärmung.

Nun kenne ich nicht die Findungsprozesse im IPCC dergestalt, dass man von einer komplexen Organisation vielleicht gar nicht sagen kann, ob es überhaupt einen Findungsprozess gibt. Allerdings seien all jene, die glauben, dass das IPCC bei diesem speziellen Thema unwissenschaftlich arbeitet, an etwas Wichtiges erinnert: Trotz der wachsenden Divergenz unterstützen die Beweise zunehmendes Vertrauen in das IPCC-Statement.

•Fehlende Erwärmung seit 1998 und die wachsenden Diskrepanzen zwischen Beobachtungen und Klima-Modellprojektionen.

•Beweise für eine geringere Klimasensitivität auf zunehmende atmosphärische CO2-Konzentrationen

•Beweise, dass der Anstieg des Meeresspiegels zwischen 1920 und 1950 von gleicher Größenordnung ist wie zwischen 1993 und 2012.

•Sich ausdehnende Eisbedeckung um die Antarktis

Auch den folgenden Aussagen aus meiner Anhörung stimmt Nielsen-Gammon zu:

„Viele Beweislinien im AR 5 zeigen, dass der Fall anthropogene Erwärmung schwächer ist als noch im Vorbericht AR 4 aus dem Jahr 2007 dargestellt. Die anthropogene globale Erwärmung ist eine vorgeschlagene Theorie, dessen grundlegender Mechanismus gut verstanden, dessen Größenordnung jedoch höchst ungewiss ist. Die wachsenden Beweise, dass die Klimamodelle das Klima als zu sensitiv hinsichtlich CO2 zeigen, haben Auswirkungen auf die Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts und den Projektionen des Klimas im 21. Jahrhundert.

Wenn der gegenwärtige Erwärmungs-Stillstand natürlicher Variabilität geschuldet ist, dann erhebt sich die Frage, bis zu welchem Grad die Erwärmung zwischen 1975 und 2000 ebenfalls durch natürliche Variabilität verantwortlich ist“.

Nielsen-Gammon gibt dann relativ langatmige Ausführungen zur möglichen Bedeutung der natürlichen internen Variabilität, die ich hier kurz zusammenfasse:

Falls natürliche Zyklen regelmäßig und wiederholt auftreten, wird die Temperaturänderung insgesamt über einen vollständigen natürlichen Zyklus etwa Null sein. Die Erwärmungsphase des Zyklus‘ wird durch die Abkühlungsphase kompensiert. Übrig bleibt der langzeitliche Anstieg verursacht durch den Menschen.

Warum kommt das IPCC zu dem Ergebnis, dass der langzeitliche Anstieg vom Menschen verursacht ist? Die primäre Logik ist wirklich einfach. Von allen Antrieben, die das Klimasystem steuern, war bei weitem der größte während der letzten 60 Jahre die Treibhausgase. An zweiter Stelle auf der Liste steht die Verschmutzung durch Aerosole, die teilweise den Treibhausgasen entgegen wirken. Während der letzten 60 Jahre hatten natürliche Antriebe (Sonne, Vulkane) ebenfalls einen abkühlenden Effekt. Also spielt die Frage über die relative Bedeutung unterschiedlicher Antriebe keine wirkliche Rolle, um den Temperaturanstieg der letzten 60 Jahre zu erklären: der einzige große Antrieb auf der positiven Seite sind die Treibhausgase.

Natürlich reicht es nicht zu sagen, dass Treibhausgase die Temperatur in die richtige Richtung lenken. Die Größenordnung spielt natürlich auch eine Rolle. Auch hier sagt uns der Stillstand, dass es einen bedeutenden positiven Antrieb außer Treibhausgasen gibt. Je kleiner die Erwärmungsrate, umso geringer die Möglichkeit, dass ein separater, zusätzlicher Grund für die Erwärmung übersehen wird. Daher ist die meiste oder die gesamte Erwärmung den Treibhausgasen geschuldet.

Curry hat recht mit ihrer Aussage, dass der Stillstand und die zunehmenden Abweichungen zwischen Modellen und Beobachtungen beweisen, dass die Modelle die Antriebsanteile, vor allem CO2, zu sensitiv modellieren. Sie hat auch recht, dass die Beweise dafür immer stärker werden, dass vieles der Erwärmung vor dem Jahr 2000 natürlichen Ursprungs war, je länger und größer die Abweichung wird. Gleichzeitig werden auch die Beweise dafür immer stärker, dass die Modelle die zukünftige Erwärmung überschätzen. Um diese Fragen zu klären, bedarf es der Evaluation aller verfügbaren Beweise, nicht nur die letzten 60 Jahre des Temperaturverlaufs. Dazu wird einen weiteren Blogbeitrag geben.

Aber der Punkt ist Folgender: Falls sich über 60 Jahre die natürliche Variabilität zu Null mittelt, spielt es keine Rolle, wie stark diese natürliche Variabilität zu Buche schlägt im Vergleich zur vom Menschen verursachten Klimaänderung – übrig bleibt der menschliche Anteil. Folglich kann und sollte das IPCC es als extrem wahrscheinlich ansehen, dass der menschliche Einfluss den Gesamt-Temperaturanstieg während der letzten 60 Jahre dominiert.

Falls man an eine starke natürliche Variabilität glaubt und man das IPCC kritisieren möchte, könnte man sich darüber beklagen, dass sie ihre Schätzungen der Klimasensitivität nicht ausreichend reduzieren, oder dass sie nicht angemessen auf die zunehmenden Beweise für die natürliche Variabilität eingehen, wenn es um deren Einfluss auf die Temperatur von Jahrzehnt zu Jahrzehnt geht. Aber nichts davon, und keine der von Curry oder wem auch immer angeführten Beweise, die ich gesehen habe, reduziert die Wahrscheinlichkeit, dass die Temperaturänderung während der letzten 60 Jahre oder so zumeist anthropogenen Ursprungs war.

Kommentar von J. C.: Hier auf die Schnelle ein Kommentar zu dem genannten Argument relativ zu dem Wellenstadium [stadium wave {?}]. Erstens ist das Wellenstadium ein Element der natürlichen internen Variabilität, speziell für multidekadische Zeiträume (es sagt nichts über die interne Variabilität in längeren Zeiträumen). Selbst im Maßstab von dekadischen bis multidekadischen Zeiträumen gibt es eine zusätzliche natürliche Variabilität,  die nicht vom Wellenstadium erfasst wird, namentlich die NAO/AO (die auch nicht vollständig ein rein interner Zustand sein kann).

Erörterung der Klima-Ungewissheit

Nielsen-Gammon und ich stimmen hinsichtlich der Beweise erster Ordnung überein, die ich in meiner Anhörung vorgebracht habe. Wie kommt es dann, dass wir hinsichtlich des Zuordnungs-Statements des IPCC bzgl. der Erwärmung seit 1950 so weit auseinander liegen? Diese Aussage von N-G bringt es auf den Punkt:

Nun kenne ich nicht die Findungsprozesse im IPCC dergestalt, dass man von einer komplexen Organisation vielleicht gar nicht sagen kann, ob es überhaupt einen Findungsprozess gibt.

Die IAC-Begutachtung des IPCC beanspruchte Transparenz bei der Erörterung zur Abschätzung des Vertrauens. Ich stimme N-G zu, dass dieser Vorgang beim IPCC nicht transparent war.

Also zurück zur ursprünglichen Frage: wie können verschiedene Individuen oder Organisationen auf die gleichen primären Beweise schauen und zu unterschiedlichen Schlussfolgerungen kommen? Einsicht gibt hier meine 2011 veröffentlichte Studie in einer Sonderausgabe zur Klimaänderung mit dem Titel Reasoning about Climate Uncertainty, die ich in einem Satz zusammen fassen kann:

Wie man Ungewissheiten im komplexen Klimasystem und seiner Computer-Simulationen analysiert, ist nicht einfach oder offensichtlich.

Argumentation von J.C. über die Zuordnung

Die Logik hinter meinen Ausführungen ist Folgende:

Nach der Art und Weise, mit der das Zuordnungs-Argument des IPCC ausgebreitet wird, gibt es zwei mögliche Gründe der Klimaänderung seit 1950: anthropogener Antrieb und natürliche Variabilität. Die Summe dieser beiden Beiträge ist 100%; das Hauptinteresse ist die jeweilige relative Prozentzahl zwischen anthropogenem und natürlichem Antrieb.

Das IPCC äußert sich mit extremer Sicherheit, dass ‚der größte Teil‘ der Erwärmung anthropogenen Antrieben zugeordnet werden kann, und ich verstehe unter ‚der größte Teil‘ eine Bandbreite von 51 bis 95 Prozent. Das IPCC erkennt implizit, dass das Thema Zuordnung ungewiss ist, weil keine Verteilung der Werte oder eine ‚beste Schätzung‘ angegeben wird. Vielmehr nennen sie einen eingeschränkten Bereich mit etwa 44%.

In Abwesenheit eines überzeugenden theoretischen Grundes für die untere Grenze 51% gehe ich davon aus, dass das IPCC eine Wahrscheinlichkeit von unter 60% für den anthropogenen Antrieb gar nicht betrachtet; anderenfalls wäre es schwierig zu argumentieren, dass die untere Grenze nicht gebrochen werden würde. Zur Zeit des Erscheinens des AR 4 hatte ich in Gesprächen mit den IPCC-Leitautoren das Gefühl, dass die meisten Wissenschaftler dachten, der anthropogene Beitrag läge über 90% (das ist meine subjektive Einschätzung; ich wäre interessiert an anderen Bewertungen hiervon).

Um nun also irgendwo mit meiner Argumentation anzufangen, möchte ich mit diesem Abriss aus dem IPCC AR 5-Statement zur Zuordnung seit 1950 beginnen:

anthropogen:  75%

natürlich:  25%

Die Elemente größter Sicherheit in diesem Argument sind die Komponenten des anthropogenen Antriebs. Die Elemente größter Unsicherheit sind die Sensitivität von CO2 (und die schnellen thermodynamischen Rückkopplungen), die natürliche interne Variabilität sowie auch Unbekannte wie z. B. solare Effekte.

Die Ungewissheit hinsichtlich der Sensitivität von CO2 wird vom IPCC anerkannt durch die Herabsetzung der unteren Grenze in ihrer ‚Wahrscheinlichkeits‘-Bandbreite; dies deutet auf eine Verringerung des Anteils des menschlichen Beitrags bei der Zuordnung. Der ‚Stillstand‘ lässt die Bedeutung der natürlichen internen Variabilität zunehmen. Andere Daten reflektieren die Bedeutung der natürlichen internen Variabilität, die N-G als nicht relevant eingestuft hat: Die Bedeutung der natürlichen Variabilität des Meeresspiegel-Anstiegs im 20. Jahrhundert, angezeigt durch die Spitze (bump) zur Mitte des Jahrhunderts, und die Bedeutung der natürlichen internen Variabilität bei der Bestimmung der Meereis-Ausdehnung in Arktis und Antarktis. Hinsichtlich des Rückgangs des arktischen Meereises habe ich im AR 5, Kapitel 10, das folgende Statement entdeckt:

Der Vergleich vom CCSM4-Ensemble mit beobachteten Trends zeigt, dass die interne Variabilität etwa die Hälfte des Eisrückgangs zwischen 1979 und 2005 ausgelöst haben könnte.

Also … All diese Beweise sprechen für eine Verringerung des anthropogenen Beitrags und für einen höheren Beitrag der natürlichen Variabilität, und ich würde sagen, dass diese Erniedrigung nicht als trivial angesehen werden sollte. Ja, die 44% bieten viel Raum für Spekulation, aber es ist nicht unvernünftig, auf der Grundlage der vom IPCC gelieferten Beweise zu sagen, dass die anthropogene Komponente unter 70%  und sogar unter 60% gefallen ist. In dieser Hinsicht scheint das Setzen einer Untergrenze des extremen Vertrauens auf 51% unhaltbar. Vor allem im Hinblick auf Unbekannte wie indirekten solaren Einflüssen.

Die Betrachtungsweise von N-G hinsichtlich der Relativ-Beiträge von natürlichen bzw. anthropogenen Antrieben habe ich hier in etwa auch angewandt, aber nicht genau. Ich bin folgendermaßen vorgegangen: Man betrachte zwei Perioden: 1975 bis 1998 (Erwärmung) und 1998 bis 2013 (Stillstand). Jetzt bringe man die Prozentanteile der natürlichen Variabilität (unter der Annahme von Erwärmung in der ersten und Abkühlung in der zweiten Periode) und den anthropogenen Antrieb ins Spiel, berücksichtige die relative Länge beider Perioden und schaue dann, welcher Prozentanteil-Rückgang für beide Perioden bedeutet. Und welche Implikationen sich aus einer weiteren Verlängerung des Stillstands um 10 Jahre ergeben. Man wird keine Zahlen erhalten, die über 75% für anthropogene Antriebe liegen.

Falls man mir eine Bandbreite von 44% als Arbeitsgrundlage gegeben hätte, würde ich die anthropogene Bandbreite zwischen 28% und 75% ansetzen. Meine Bandbreite überlappt sich mit der IPCC-Bandbreite von 51% bis 70%, aber ich lasse auch Zahlen unter 50% zu. Die hauptsächlichen Unsicherheiten scheinen alle in Richtung eines zunehmenden Beitrags durch natürliche Variabilität zu deuten.

Unter dem Strich: Mit der wachsenden Erkenntnis über die Bedeutung der natürlichen Variabilität ist es immer schwieriger, die unterste Grenze von 51% für den anthropogenen Antrieb aufrecht zu erhalten. Folglich sehe ich die behauptete Vertrauenszunahme auf ‚extrem wahrscheinlich‘ als nicht gerechtfertigt an.

Aktualisierung: N-G ist am Ende seines Beitrags auf diesen Essay eingegangen. Er klärt definitiv die Unterschiede in unserer Argumentation. Ohne über seine neuen Antworten ins Detail zu gehen, folgen hier einige seiner Statements.

Die relevante Frage für Politiker lautet, wie viel der jüngsten Erwärmung natürlichen natürlichen bzw. anthropogenen Ursprungs ist. Angesichts des Umstands, dass der anthropogene Antrieb sowohl positiv als auch negativ wirken kann, und dass auch die natürliche Variabilität zu verschiedenen Zeiten positiv oder negativ wirken kann, ist es wenig sinnvoll, die Relativbeiträge von Mensch bzw. Natur hinsichtlich der Erwärmung seit 1950 abzuschätzen (und die Erwärmung hat nicht vor 1975 begonnen).

Die Bedeutung des Wörtchens ‚most’ bietet viel Spielraum zur Interpretation. Klugerweise heißt es im AR 5 ‚über die Hälfte‘ anstatt ‚most‘. N-G sagt, dass dies bis zu 100% geht und dass der AR 5 als beste Schätzung 100% für den natürlichen Beitrag feststellt. Falls das stimmt, warum hat der AR 5 dann nicht von ‚nahezu alles‘ anstatt ‚über 50%‘ gersprochen?

N-G sagt: Wenn man beiden eine Bandbreite beimisst, haben sie ihren wahrscheinlichsten Wert irgendwo in der Mitte dieser Bandbreite. Um des Argumentes willen würde 51% bis 135% eine vernünftige Bandbreite sein.

Diese Art der Argumentation, bei der der anthropogene Beitrag 100% übersteigen soll, scheint mir sinnlos, selbst wenn man lediglich auf den Zeitraum 1975 bis 2000 schaut, in dem es einen eindeutigen Erwärmungstrend gibt. Es ist etwas, das aus der Übersensitivität der Modelle hinsichtlich des CO2-Antriebs kommt in Verbindung mit einer Übersensitivität bzgl. Aerosole.

Link: http://judithcurry.com/2014/01/23/the-logic-of-the-ipccs-attribution-statement/

Übersetzt von Chris Frey EIKE




AfD-Klimapolitik „Auch hier bitte klare Kante“

Interview mit Michael Limburg

Herr Limburg ist Brandenburger Delegierter beim AfD Europawahl-Parteitag in Aschaffenburg, stv. Vorsitzender des AfD Bundesfachausschusses Energiepolitik, zudem Vizepräsident des Europäischen Instituts für Klima und Energie (EIKE). Ef führte mit ihm dieses Interview während seiner Anreise nach Aschaffenburg.

Ef: Herr Limburg, Sie sind bekannt als ein engagierter Kämpfer gegen den Klimawahn und gegen die Energiewende. Warum sind Sie der AfD beigetreten?

Limburg: Von Anfang war ich gegen den Euro, weil nicht nur meiner Meinung nach, für eine gemeinsame europäische Währung jedwede Voraussetzung fehlte und fehlt. Die Ereignisse haben uns Kritikern ja leider mehr als Recht gegeben. Ich unterstützte Frank Scheffler, den “Eurorebellen” in der FDP, und als sich die Wahlalternative 13 gründet, gehörte ich zu ihren frühen Unterstützern.  Als sich dann die AfD gründete bin ich im Mai eingetreten.

Nicht nur wegen der Europolitik, sondern  auch wegen des wertkonservativen Familienbildes, dass diese Partei verteidigt.

Aber auch, weil ich darauf baute in einer noch jungen Partei, für unsere Überzeugung genügend Mitstreiter zu finden, die diese Überzeugung teilen.  Es gibt kein Klimaproblem, das Klima ändert sich wie eh und je, mal wird es wärmer, mal wird es kälter und deswegen ist jedwede CO2 Vermeidungsstrategie von Übel.

Damit war erstmalig in Deutschland die Gelegenheit gegeben in einer Partei, die gute Aussichten hatte in den Bundestag zu kommen, die Meinung der Klima- und Energierealisten dort zu vertreten.  Ihren Einzug in  den Bundestag hat die Partei nun knapp verpasst. Deswegen muss die kommende Europawahl genutzt werden die Partei zu etablieren. 

Ef: Herr Limburg, Sie bewerben sich in Aschaffenburg für einen aussichtsreichen Listenplatz beim Europawahl-Parteitag der AfD. Mit welchen Zielen? Und haben Sie denn innerhalb der AfD genügend Unterstützer für Ihre Ideen und Überzeugungen gefunden?

Limburg: Die Resonanz auf unsere Darstellung der Themen Klima und Energie war und ist sehr groß. Fast immer sehr positiv, gelegentlich auch ablehnend, aber oft auch nur unsicher, was denn nun richtig sei. Viele AfD Mitglieder waren nach Vorträgen, die ich hielt oder als Reaktion auf Artikel auf der EIKE Website unsicher und fragten sich und uns, warum wir denn so völlig anderer Meinung seien, als die “überwiegende Mehrheit” der Wissenschaftler. Da bedurfte es fast immer einer längeren Diskussion, mit Darstellung der Faktenlage, die heute jeder im Internet abrufen kann, um zu überzeugen. Zumal – und dieses Argument wurde am schnellsten eingesehen- es in der Wissenschaft, anders als in der Politik, nicht nach Mehrheiten gehen kann, sondern um Wahrheiten, belegt durch Beweise.

Ef: Wenn das so ist, warum ist dann das Programm der AfD so unscharf, bzw. fast völlig auf der Mainstream Linie, und, wenn man die Vorschläge der Parteiführung zur Europawahl anschaut, nur geringfügig deutlicher was Ihre Ideen angeht.

Limburg: Da muss man glaube ich trennen. Das derzeit gültige Programm war im April 13 mit heißer Nadel vom Vorstand gestrickt, und wurde auf dem Gründungsparteitag wegen anderer Prioritäten so gut wie nicht diskutiert, sondern in toto, so wie es tlw. falsch war, verabschiedet. 

Heute ist es anders. Der jetzige Programmvorschlag wurde von einer Großen Europa Kommission (GEK) deren Mitglieder aus den Landesvorständen und dem Bundesvorstand kamen, nach Umfragen unter den Mitgliedern erarbeitet und in diesem kleinen Kreis verabschiedet.

Wegen der enormen Bedeutung der Energiepolitik hatten wir vom Bundesfachausschuss Energiepolitik dem Vorstand und fast allen Landesverbänden ein Positionspapier mit Thesen und sehr gut begründeten Argumenten  für die zukünftige Haltung der Partei in der Klima- und Energiepolitik zugesandt.

Wenn man sich jedoch. die vom GEK als “Konsens” bezeichneten Thesen, die in Aschaffenburg diskutiert und verabschiedet werden sollen, ansieht, dann muss man feststellen, dass wohl kaum einer der Teilnehmer der GEK unsere Argumente gelesen, oder verstanden hat. Jedenfalls finden unsere Vorschläge, nur einen zu geringen Widerhall und wurden letztendlich in stark verwässerten Form auch noch abgeschwächt. Damit kann die Partei keinen Blumentopf gewinnen und damit die vielen Wähler, die sich nicht vom Mainstream vertreten sehen, gewinnen. 

Ef. Welche Vorschläge haben Sie denn gemacht?

Limburg: In toto hatten wir bei der Klimafrage vorgeschlagen darzulegen, dass die Behauptung: Mehr CO2 führt zu mehr Temperatur, die ja die Basis aller Klimaschutzgesetzgebung in Deutschland wie der EU ist, z.B. einfach falsch ist. Sie wurde u.a. eindeutig durch den Stillstand der globalen Erwärmung über die letzten 17 Jahre widerlegt. Obwohl die CO2 Konzentration weiter ungebremst ansteigt.

Doch schon diese nüchterne Feststellung war wohl den Mitgliedern der GEK zu forsch und man entschloss sich als Programmaussage nur festzustellen, dass die Klimafrage in der Wissenschaft umstritten ist. Das ist ja auch richtig. 

Doch folgerichtig, aus Sicht der GEK, war dann unsere Forderung abzulehnen, jeglicher – weil erwiesenermaßen unnütz, wenn auch extrem teuer- CO2 Vermeidungspolitik den Kampf anzusagen. Stattdessen formulierte man, dass man die CO2 Vermeidung nur bis zur Belastungsgrenze der Betriebe und Haushalte aufrecht erhalten wolle, anstatt sie schnellstmöglich zu stoppen.

Und um das zu erreichen wolle man statt weiter zunehmender Regulierung, auf die “Marktkräfte des Emissionshandels” vertrauen.

Das übersieht unserer Meinung nach, dass der Emissionshandel  ein künstlich geschaffener und hoch regulierter Markt ist,  dessen Kräfte alles andere als die von Angebot und Nachfrage sind. Wir schlugen deshalb vor, den Emissionshandel ebenfalls abzuschaffen. Wenn CO2 keine Wirkung hat, dann entstehen dadurch auch keine externen Kosten, die es zu internalisieren gilt. 

Ef: Das klingt ja nicht sehr mutig! War man wenigstens bei der Energiewende mutiger?

Limburg: Etwas, aber leider auch nur zu wenig. Man will das EEG nur reformieren! Denn auch da wurde u.E.n. zu sehr auf vermutete evtl. Empfindlichkeiten von Mitgliedern, Unterstützern und potentiellen Wählern Rücksicht genommen. Wir hatten vorgeschlagen die Energiewende rück abzuwickeln, d.h. zu stoppen, natürlich unter Wahrung rechtstaatlicher Prinzipien. Denn sie ist in ihrer Wirkung, finanziell wie gesellschaftlich, noch viel verheerender als die Eurokrise.

EF: Wie das?

Limburg: Die Kosten der Energiewende werden sich auf viele Billionen Euro belaufen, von denen jetzt schon durch z.B. das Erneuerbare Energiengesetz (EEG) ca. 125 Mrd € und die noch teurere Energieeinsparverordnung (EnEV) und ca. 550 Mrd € von uns – den Verbrauchern- bezahlt wurden. Und dies ohne einen erkennbaren Gegenwert. Doch das ist noch nicht alles. Mit dem EEG wurden wir Verbraucher verpflichtet in den nächsten 20 Jahren insgesamt nochmals 330 Mrd € zu zahlen, denn dies garantiert das EEG den Betreibern.

Erschwerend kommt noch hinzu, dass parallel zur Energieverteuerung und dadurch ausgelöst, dass die Unternehmen massenhaft wertschöpfende Arbeitsplatze abbauen. Dh. bei der größten Umverteilung von unten nach oben, die es seit dem Ende des zweiten Weltkrieges in diesem Lande gegeben hat – 80 Millionen Deutsche- zahlen per EEG Umlage in die Taschen weniger (< 1%) ein, und dies auf 20 Jahre garantiert- werden, auch noch Arbeitsplätze in großer Zahl auf Nimmerwiedersehen hierzulande verschwinden.

Ef: Wie kommen Sie darauf, wo doch alle Welt, besonders unsere Regierung möglichst viel und möglichst noch mehr davon fordert?

Limburg: Nun, das liegt nicht an den guten Absichten der Befürworter und Manager der Energiewende, sondern einfach an den naturgesetzlich vorgegebenen Notwendigkeiten. Die „Erneuerbaren“ haben einfach eine viel zu geringe Energiedichte, die erst mit hohem Aufwand an Material Fläche und Kosten verdichtet werden muss, um nutzbar zu werden. Zudem ist die hohe Volatilität mit Schwankungen von 0 bis 100 % innerhalb von Sekunden, bis hin zu wochenlangem Ausfall wg. mangelndem Sonnenschein oder Windstille technisch nur durch Speicherung von Strom in riesigen Mengen zu beherrschen. Und auch da gibt es naturgesetzliche Grenzen, die nur unter riesigen Kosten ein wenig nach oben verschoben werden können. Speicherung wird es also für uns und alle anderen für unabsehbare Zeit nicht geben. Damit auch keine Versorgung durch Wind und Sonne.

Sie führt daher auch nicht ins Nichts, wie der eurokritische Ökonom Hans Werner Sinn jüngst in einem vielbeachteten Vortrag  klar ausführte, sondern direkt ins Elend.

Ef: Das klingt ja alles schlimm. Doch Gabriel will ja mit seiner Reform des EEG den Strompreisanstieg bremsen.

Limburg: Das ist alles Augenwischererei und ein Kurieren an Symptomen. Bis jetzt hat noch niemand in der Regierung den Mut gehabt den Menschen die Wahrheit zu sagen, weil alle hoffen, dass der Kelch an ihnen vorübergeht.

ef: Sind Sie neidisch auf die Einkünfte der Wenigen, die sich die „Erneuerbaren Anlagen“ leisten können?

Nein, doch diese Leute müssen erkennen, dass sie ihre Einkünfte allein zu Lasten ihrer Nachbarn erzielen – und deswegen nicht von Dauer sein können. Zumal kein erkennbarer Nutzen durch den Ersatz herkömmlicher sicherer, umweltschonender und billiger Energiequellen durch „Erneuerbare“ gegeben ist.

Deswegen ist zu hoffen, dass die Delegierten auf dem Parteitag den zu zahnlosen Programm-Versuch der GEK doch noch verbessern wird, d.h. wie auch Herr Petr Bystron auch gefordert hat: mehr Kante zeigen.   Dies wollen die Wähler von uns, auch wenn wir unseren Anspruch aufrechterhalten als Alternative für Deutschland angetreten sind.

Ef. Nun bewerben Sie sich ja für einen Listenplatz zur Wahl in das Europaparlament. Wie stark ist denn die EU in unsere Energiewende involviert?

Limburg: Das ist korrekt. Nur dürfen wir nicht vergessen, dass die EU schon jetzt für rd 80 % der Gesetze verantwortlich ist, die im Bundestag beschlossen werden. Und bei der Klima und Energiepolitik ist es mindestens eben so viel.

Die EU hat mit Ihrer Klimagesetzgebung und den darin enthaltenen diversen Richtlinien (z.B. Ökodesignrichtlinie, 20-20-20 Regel, Glühlampen verbot, Emissionshandel, Flugverkehrsabgabe etc. etc.) einen gehörigen Anteil an unserer Politik, ohne dass sie damit irgendetwas am Welt-Klima, genauer gesagt an der Welt-Erwärmung, noch an den CO2 Emissionen ändern könnte. Zumal die Erwärmung seit nunmehr 17 Jahren, entgegen allen Prognosen, stagniert. Denn was die EU in einem Jahr an CO2 Emission einsparen würde – wenn sie es denn täte – pusten die anderen Staaten dieser Welt in ein bis zwei Wochen zusätzlich aus. 

ef: Sie möchten all diese Richtlinien ebenso wie die Energiewende ersatzlos abschaffen?

Limburg: Richtig, genau dafür will ich mich mit aller Kraft, Kompetenz und Aktivität einsetzen. Die Energiewende wird das beherrschende Thema zur Europawahl und darüber hinaus werden, da bin ich mir ganz sicher.

Das Interview wurde vor dem Parteitag geführt.

Nachtrag der Redaktion 28.1.14:

Herr Limburg trat als Kandidat für die Listenplätze 5 oder 6 an. Auf Listenplatz 5 wurde Prof. Starbatty mit Riesenmehrheit gewählt, auf Listenplatz 6 Frau Trebesius, (Sprecherin des LV Schleswig Holstein) unter ca. 20 Bewerbern gewählt. Limburg kam auf Rang 4.




Neue Studie fragt: Würden sich die ‚realen’ Temperatur-Datensätze bitte melden?: …

Tatsächlich zeigen zwei der chinesischen Datensätze, dass es von 1950 bis 2005 in China keine nennenswerte Erwärmung gegeben hat.

Außerdem heißt es in der Studie: weil wir nicht wissen, welche Datensätze korrekt sind (falls überhaupt welche), werden auf falschen Temperaturdaten basierende Klimamodelle irrig ‚getrimmt‘ und erzeugen daher verzerrte Projektionen. Auszug aus den Schlussfolgerungen:

All diese Ergebnisse bringen eine neue Herausforderung in das Gebiet der Klimawissenschaft. So genannte ‚gemessene Klima-Datensätze‘ spielen wichtige Rollen in hydrologischen Modellen, mit denen die globalen Zirkulationsmodelle (GCMs) sowie regionale Klimamodelle (RCM) evaluiert werden. Weil Beobachtungen aus unterschiedlichen Datensätzen tatsächlich differieren, welchem Datensatz können wir dann glauben? Tatsächlich haben wir keine Möglichkeit, den ‚wahren Wert‘ zu erfahren. Was man also tun muss ist diese Differenzen zu ergründen und zu reduzieren.

Phil Jones hat sich bei James Hansen in den durch Klimategate bekannt gewordenen E-Mails darüber beklagt: Falls die Chinesen mit ihrer lobenswerten Praxis aufhören würden, Temperaturmessungen abseits von städtischen Wärmeinseln (UHI) durchzuführen und stattdessen solche Messungen an Flughäfen in den Abgasfahnen der Jets vornehmen (wie es der Rest der Welt getan hat), hätten die chinesischen Daten eine viel größere künstliche Erwärmung gezeigt.

Man kann nicht bestreiten dass Widersprüche in den Temperaturdaten, Verunreinigungen sowie Fehler und Manipulationen in der Tat ein weltweites Klimaphänomen sind.

Link: http://hockeyschtick.blogspot.co.uk/2014/01/new-paper-asks-would-real-temperature.html

Übersetzt von Chris Frey EIKE

Hinweis: Im Original folgt jetzt noch das Abstract dieser Studie. Darin werden die einzelnen Datensätze namentlich aufgelistet mit einer Fülle von Abkürzungen. Da die wesentliche Aussage der Studie aber hier schon beschrieben ist, verzichte ich auf eine Übersetzung.

C. F.




„Bild der Wissenschaft“ – Mehr „Bild“ als Wissenschaft!

Liebe Leser,

die Wissenschaft erarbeitet unsere Lebensgrundlagen und erklärt uns die Welt. Letzteres tut die von mir abonnierte Zeitschrift „Bild der Wissenschaft“ nicht ganz zu meiner Zufriedenheit. Die „Energiewende“ wird als notwendig dargestellt, obwohl die Redaktion bei der Klimaerwärmung langsam kalte Füße bekommt. Auch stört mich der wachsende Einfluss der Schwätzwissenschaftler, daher der angehängte Leserbrief.

Ihr Redaktionsteam und die Inhalte Ihrer Zeitschrift

Eine ausgezeichnete Idee, uns einmal das Redaktionsteam im Bild vorzustellen! Sollten wir Leser die Berufe bzw. Funktionen raten, wäre der Anfang leicht: Der einzige mit Schlips ist der Chef. Auch den Germanisten findet man sofort, es ist der fünfte von links. Ein Geisteswissenschaftler vom Scheitel bis zur Sohle! Für die Übrigen wird das Berufe raten schwer. Bei Geophysik wäre allerdings die Dame rechts in meine engere Wahl gekommen. Die anderen, wenig zahlreichen Mitarbeiter aus den MINT-Fächern (Mathe, Informatik, Naturwissenschaft, Technik) könnte ich nicht zuordnen.

 

Sicherlich hat das Redaktionsteam mehr organisatorische Aufgaben, und die Beiträge stammen von freien Autoren. Trotzdem spiegelt die Zusammensetzung des Teams eine Tendenz wider, die mir nicht so gefällt. Ich habe früher einfach alles in Ihrer Zeitschrift gelesen, heute lasse ich vieles aus.

 

Im Editorial liest man: „Forschung ist in Deutschland noch immer nicht dort angekommen, wo sie in unserem an Bodenschätzen armen Land hingehört.“ Und welchen Beitrag können da Psychologen, Germanisten, Philosophen und sonstige Gesellschaftswissenschaftler leisten? Nicht nur, dass wir von deren Erkenntnissen nicht leben können, sie sind auch nicht objektiv, das heißt, die „Erkenntnisse“ können aus der Mode kommen und werden in China oder USA anders dargestellt. Verwendung statistischer Begriffe täuscht nur eine Objektivität vor.

Zweifellos darf man über Themen nachdenken, welche den exakten Wissenschaften nicht zugänglich sind. Nur sehe ich da einen Qualitätsverlust. Früher gab es Juristen und Philosophen, welche gleichzeitig berühmte Mathematiker waren, z.B. Fermat, Descartes, Leibniz. Kommen heute solche Doppelqualifikationen noch vor, oder ist das eine für die mehr und das andere für die weniger Intelligenten? Wie viele Studenten brechen ein Studium der MINT-Fächer ab, um dann Politologie, Jura oder dergleichen zu studieren, und wie viele Studenten brechen ein sozialwissenschaftliches Studium ab, um lieber Naturwissenschaftler oder Ingenieur zu werden?

Dabei sind die Sozialwissenschaftler heute obenauf, geben den Ton an und bestimmen die Politik. Sie sehen die Welt so wie unsere Katze: Sie betrachtet sich als die Herrin des Hauses, hält uns für ihr Personal und ist sicherlich überzeugt, dass es nichts auf der Welt gibt, was sie nicht versteht. In keiner Weise macht sie sich klar, dass sie ihr gutes Leben ausschließlich uns verdankt.

Also, ich bitte um mehr Naturwissenschaft, mag auch Archäologie, aber weniger Soziales.

Hannover, den 22.01.2014

Dr. Hermann Hinsch

Related Files




Europäische Kommission ist dabei, verbindlich festgelegte Ziele bzgl. erneuerbarer Energie zu kippen

Bild rechts: Im Bericht heißt es, dass die Einzelhandels-Strompreise zwischen 2004 und 2011 um 65 Prozent gestiegen sind. Photo: Alamy

Die Herabstufung bindender nationaler Ziele durch die EU-Gremien wird von UK willkommen geheißen. Die EU-Gerichte wollen den Ländern als eine innere Angelegenheit die Wahl überlassen, wie man am besten CO2-Emissionen reduzieren kann. „Es ist gut zu sehen, dass die EU die Lektionen gelernt hat, die sie verpasst bekommen hat durch die verordneten Ziele hinsichtlich erneuerbarer Energien“, heißt es aus einer Quelle der Regierung. „Die Priorität in UK war es, Maßnahmen zu vermeiden, die die Wahl des Energiemix‘ einschränken, um den kostengünstigsten Weg zur Reduktion von Kohlenstoff-Emissionen zu finden“.

Dienstag Abend war die Kommission weiterhin geteilt zwischen „den Ambitionierten“ mit einem Treibhausgas-Reduktionsziel von 40 Prozent bis zum Jahr 2030 und anderen, den „Umsichtigen“, die ein Reduktionsziel von 35 Prozent fordern.

Funktionäre der Kommission bestätigten, dass der Vorschlag „ohne bindende nationale Ziele zur Vermeidung von Über-Subventionen“ für teure erneuerbare Energien wie Windparks und Solarpaneelen daher kommen würde.

Umweltaktivisten haben der Kommission vorgeworfen, „nach der Pfeife der großen Verschmutzer und der Treibstoff fressenden Firmen“ zu tanzen. „Die EU muss ambitionierte Ziele festlegen, die auf der Linie jüngster wissenschaftlicher Erkenntnisse [!] zum Kampf gegen den Klimawandel liegen, ebenso wie verpflichtende Ziele für erneuerbare Energie“, sagte Asad Rehman, ein Sprecher von Friends of the Earth.

Eine EU-Direktive aus dem Jahr 2009 hat die Objektive festgelegt, dass 20 Prozent der verbrauchten Energie bis zum Jahr 2020 aus erneuerbaren Quellen kommen müssen. Ausnahmequoten für manche Länder in der EU, auch für UK, sehen vor, dass UK das bindende Ziel gesetzt worden ist sicherzustellen, dass dann 15 Prozent seiner Energienachfrage vor Ende des Jahrzehnts aus erneuerbaren Quellen gedeckt werden müssen.

Das bindende Ziel hinsichtlich erneuerbarer Energie hat möglicherweise mehr Einfluss darauf, wie Energie erzeugt wird und die Stromrechnungen für die Verbraucher aussehen als irgendeine andere Einzelmaßnahme der EU-Gesetzgebung. Die Kosten für die Subventionen neuer Technologien erneuerbarer Energie wie Onshore- und Offshore-Windparks wurden für die ausufernden Energiekosten für Industrie und Verbraucher in der gesamten EU verantwortlich gemacht.

In einer kürzlich vorgestellten Studie wurde geschätzt, dass jeder britische Haushalt vor einem durchschnittlichen Preisanstieg um 400 Pfund für Energie während der nächsten sechs Jahre steht, um für die Subventionen kontroverser Regierungspläne aufzukommen, die Erneuerbaren-Ziele der EU zu erreichen.

Douglas Carswell, konservatives Parlamentsmitglied für Clacton, hat die Erkenntnis der Kommission gewürdigt, dass das Setzen von Ziele gescheitert ist. Kritik über er jedoch an der EU-Schlussfolgerung, dass es „ein Jahrzehnt zu spät“ sei. „Dies illustriert ein fundamentaleres Problem mit Entscheidungen durch untergeordnete EU-Bürokraten, die Jahre für die Erkenntnis brauchen, wie falsch sie liegen“, sagte er.

In einem Bericht aus jüngster Zeit räumt die Kommission unter Verweis auf die Strategie zur Klimaänderung ein, dass die europäischen Energiepreise viel höher sind als in den USA, Indien und Russland, den hauptsächlichen Mit-Wettbewerbern der EU. Der Bericht kommt zu dem Ergebnis, dass Einzelhandels-Energiepreise zwischen 2004 und 2011 um 65 Prozent gestiegen sind, das ist mehr als doppelt so viel wie die Inflation, die im gleichen Zeitraum einen Preisanstieg um 18 Prozent aufwies.

Eine Ausgabe des Berichtes, die dem Telegraph vorliegt, enthält die Vorhersage, dass die Preise weiter steil ansteigen werden, und zwar um 20 Prozent für Strom und 30 Prozent für Gas bis zum Jahr 2030. Ein Rückgang der Preise auf das derzeitige Niveau ist nicht vor 2050 zu erwarten. „Es besteht die echte Sorge, dass Europa fortschreitend von der Spur abkommt, auf der der Handel mit den anderen Ländern und Handelspartnern stattfindet. Dies macht unsere Industrien weniger wettbewerbsfähig, und die Kosten für die Haushalte steigen“, sagt Energy UK.

Link: http://www.telegraph.co.uk/finance/newsbysector/energy/10588121/European-Commission-to-ditch-legally-binding-renewable-energy-targets.html

[In einer anderen britischen Zeitung, nämlich der Financial Times, heißt es zum gleichen Thema:]

EU-Energiekosten explodieren: ‚Ein echter Notfall für Europa’

Pilita Clark and Christian Oliver, Financial Times

Die Kluft der Energiekosten zwischen Europa und seinen führenden Handelspartnern erweitert sich immer mehr. Dies steht in einem offiziellen, in Brüssel veröffentlichten Paper, das aufzeigt, dass die industriellen Strompreise in der Region mehr als doppelt so hoch sind wie in den USA und um 20 Prozent höher als in China.

Industrielle Gaspreise sind in der EU drei- bis viermal höher als die vergleichbaren Preise in den USA und Russland sowie 12 Prozent höher als in China, heißt es in dem Paper der EU-Kommission. Es basiert auf der umfassendsten offiziellen Analyse der EU-Energiepreise und –kosten bis heute. „Zwar war Europa nie ein Platz billiger Energie, aber während der letzten Jahre ist die Kluft zwischen den Energiepreisen in der EU und seinen hauptsächlichen Wirtschaftspartnern immer größer geworden“, heißt es in dem Paper, von dem eine Ausgabe der FT vorliegt. Es soll Teil eines Eckpunktes zu einem Klima- und Energiepaket sein, dass den Energieverbrauch in der EU bis 2030 völlig neu gestalten soll.

Das Paket hat prompt zu Diskussionen in der gesamten EU geführt, und zwar darüber, ob die Wettbewerbsfähigkeit von Europa durch die bestehende Klima- und Energiepolitik geschädigt wird, die nur noch bis zum Jahr 2020 dauert.

Lakshmi Mittal, geschäftsführende Direktorin von ArcelorMittal schrieb in der Financial Times vor ein paar Tagen, dass das neue Klima- und Energie-Paket der EU „die riesige Finanzkluft schließen muss, die Europas energieintensive Industrien bedroht“. Und weiter: „Falls wir in der EU die US-Preise bezahlen müssten, würden sich unsere Kosten um 1 Milliarde Dollar pro Jahr verringern“, sagte Frau Mittal unter Verweis auf den Schiefergasboom in den USA und einer industriefreundlicheren Politik, die zu viel niedrigeren Kosten für industrielle Energieverbraucher dort geführt haben.

Unabhängig davon sagte Paolo Scaroni, Direktor des italienischen Öl- und Gasunternehmens ENI, dass die niedrigeren amerikanischen Energiekosten zu einem „massiven Wettbewerbsvorteil für die USA“ geführt hätten, der Investoren und Unternehmen zunehmend dorthin zieht. „Für Europa ist das ein echter, wirklicher Notstand“.

Link: http://www.thegwpf.org/eu-energy-costs-widen-a-real-emergency-europe/

Übersetzt von Chris Frey EIKE




Gabriels große EEG Reform – winzige Korrekturen an Symptomen

Doch tut sie das  alles nicht, weil sie konzeptions- und planlos in Gang gesetzt wurde, wie es viele Politiker beklagen, nachdem sichtbar wird, dass das Kind bereits in den Brunnen fällt, sondern weil sie gegen geltende Naturgesetze beschlossen und betrieben wird.

Es gab in den mehr als 60 Jahren nach dem Ende des zweiten Weltkrieges wohl kein Gesetzeswerk deutscher Regierungen, und da ist die untergegangene DDR mit eingeschlossen, dass soviel planwirtschaftliche Elemente, mit genauen Vorgaben für die nächsten 40 Jahre enthielt, wie das „Energiekonzept“, das wenig später in „Energiewende“ umgetauft wurde.

Innerhalb weniger Wochen wurde diese Planwirtschaft unter dem Namen „Energiekonzept“ durch den Bundestag gepeitscht. Alle jetzigen Regierungsparteien incl. des jetzigen Wirtschafts- und Energieministers Gabriel, die FDP, ebenso wie die Grünen, waren bis auf wenige Abweichler bedingungslos dafür.

Deswegen ist es heuchlerisch, wenn Sigmar Gabriel jetzt einen „Neustart“ verlangt und die „Energiewende“ lediglich ein bisschen reformieren will. Ein falscher Weg wird auch durch „Reformen“ nicht richtiger, egal wie tief oder oberflächlich sie  angelegt sind. Allein eine völlige Umkehr kann da helfen.

Und Gabriels Reformen sind außerordentlich oberflächlich angelegt., denn sie kurieren ausschließlich an einigen wenigen Symptomen. Das einzige, was er damit erreicht ist, die verschiedenen EEG Gewinnergruppen dauerhaft gegen alles, was aus zukünftig noch seinem Hause kommt, gegen sich aufzubringen. Und da sie über fast unbegrenzte finanzielle, wie politische Mittel verfügen, werden sie alles daran setzen um dagegen vorzugehen. Eine umfangreiche mediale Unterstützung ist ihnen dabei gewiss.

Aber weil die „Energiewende“ Energien bevorzugt, die wegen ihrer sehr geringen Energiedichte, wie von der nicht beherrschbaren natürlichen Volatilität, sowie der geringen nur statistischen Verfügbarkeit her, sich nur für die Not-Versorgung einer Gartenlaube oder eines kleinen Bootes auf See eignen, aber nicht für die Versorgung eines Industrielandes, ist jedes Kurieren an Symptomen zum Scheitern verurteilt.

Die dringend erforderlichen Speicher für riesige Strommengen, die daran etwas ändern könnten, sind aus denselben naturgesetzlichen Gründen auf unabsehbare Zeit ausgeschlossen. Gäbe es sie, dann würden sie die Preise weiter steil nach oben treiben. Daher ist die Energiewende ein deutscher Irr- und Sonderweg und gehört ohne Wenn und Aber abgeschafft.

Gegen die Naturgesetze kann eben keine Politik gemacht werden. Sie führt auch nicht ins Nichts, wie der Ökonom Prof. Hans- Werner Sinn kürzlich einen vielbeachteten Vortrag in München betitelte, sondern direkt ins Elend. Weil sie Energie hierzulande so teuer macht, dass die Haushalte sie nicht mehr bezahlen können, während gleichzeitig die ihr Einkommen garantierenden Arbeitsplätze, zuerst in der energieintensiven Industrie, dann in vielen anderen, auf Nimmerwiedersehen ins Ausland verschwinden.

Auch Minister Gabriels zaghafte „Reform“-Versuche werden an der größten Vermögensumverteilung von unten nach oben seit Ende des zweiten Weltkrieges nichts ändern. Mit allen negativen Folgen für dieses Land.




Ihre Meinung zum Erderwärmung ist gefragt – Eine AGW-Meinungsumfrage für alle

Gründe für die Durchführung der Umfrage:

Ziel der Umfrage ist es, die Natur und den Hintergrund derjenigen zu verstehen, die online an der Klimadebatte interessiert sind. Ich erwarte mir davon eine sehr wertvolle Einsicht in Bildung und Arbeitserfahrung der Teilnehmer. Außerdem will ich die Relevanz der Politik bei der Meinungsbildung testen sowie soziale Faktoren und deren Beziehung zu den Ansichten bzgl. des Klimas beleuchten.

Der Link zu der Umfrage lautet:

http://scef.org.uk/survey/index.php/868721/lang/en.

Ich habe an der Umfrage teilgenommen, es dauert 5 Minuten, und obwohl es einige verwirrende Fragen darin gibt (was man in JEDER Umfrage hat), denke ich doch, dass es alles in allem eine recht vernünftige Umfrage ist.

Bemerkung: Wenn man an der Umfrage teilnimmt, diese bitte UNBEDINGT AUCH BEENDEN! Anderenfalls gibt es eine Menge zusätzlicher Arbeit bei der Aussortierung unvollständiger Antworten. Ich betone auch, dass ich keinerlei Verbindung in  irgendeiner Weise dazu habe. Man hat mich einfach gefragt, ob ich das bekannt machen will

Link: http://wattsupwiththat.com/2014/01/22/an-agw-opinion-survey-for-your-participation/

Übersetzt von Chris Frey EIKE