1

Den Verstand einschalten!

Vor allem sollten ihm jene Mitmenschen folgen, die der (staatlichen, politischen und medialen) Obrigkeit  unterworfen sind und ihr zu vertrauensvoll folgen. Wem es hier für die Verstandesnutzung an der nötigen Sachkunde fehlt, kann sich diese verschaffen. Im jüngsten Buch des Meteorologen und Geographen Wolfgang Thüne wird sie ihm geboten. Das „sapere aude“ – der Leitspruch der Aufklärung – leitet auch Thüne selbst.

Gehirnwäsche mit Hilfe willfähriger Medien

Alles im Buch rankt sich um die Behauptung, die Menschheit verursache mit ihrem Ausstoß von CO2 eine katastrophale Erwärmung des Erdklimas. Thüne nennt es das „Klimagespenst“, vor dem sich alle fürchten sollen. Er legt nicht nur offen (wie auch schon andere vor und neben ihm), dass die Behauptung ein global angelegter Riesenbetrug ist, sondern erklärt, wann und wie er zustande kam, welche Interessen dahinter stecken, wie den Menschen Angst eingejagt wird, um sie für die geplante Ausbeutung, Reglementierung und Beherrschung gefügig zu machen, warum sie sich das überhaupt gefallen lassen, doch auch, wie sie mit Hilfe willfähriger Medien einer regelrechten Gehirnwäsche unterzogen werden und wie gnadenlos der Kampf um die Gedankenhoheit geführt wird.  Der Physiker Ralf D. Tscheuschner nennt den Betrug in seinem Nachwort zum Buch den „größten, wissenschaftlichen, wirtschaftlichen, politischen und pädagogischen Skandal aller Zeiten“. Thüne selbst sieht in ihm „ein weltpolitisches Werkzeug, mit dem das politische, soziale und wirtschaftliche Klima in der Welt umgestaltet und eine neue Weltordnung errichtet werden soll“.

Das Klima schützen kann der Mensch nicht

Thüne stellt klar, dass nicht das Klima das Wetter macht, sondern das Wetter das Klima, Ursache und Wirkung also vertauscht werden, und dass der Mensch das Klima ebenso wenig zu „schützen“ vermag wie auch das Wetter, sondern dass er sich nur „vor“ dem Wetter schützen kann und nur „vor“ einem Klima wie beispielsweise in den Tropen, indem er sich dort lieber leicht bekleidet und nicht in einen Pelzmantel hüllt.Aber die Akteure der CO2-Verteufelung und der Klimapolitik hätten es verstanden, dass das Wort „Klimaschutz“ allseits als Schutz „des“ Klimas begriffen werde und ein solcher Schutz möglich sei. Meteorologisch jedoch ist Klima, so erfährt der Leser, nichts weiter als das „mittlere Wetter“  an einem Ort während einer festgesetzten Periode von dreißig Jahren, also ein Temperaturdurchschnitt. Nach einem solchen statistischen Durchschnitt richtet sich das Wetter genau so wenig wie sich die Lebensdauer eines einzelnen Menschen nach der statistischen mittleren Lebenserwartung aller Menschen richtet.

Wissenschaftler als Erfüllungsgehilfen und Angstpropduzenten

Das Buch ist dick, bietet viel Stoff, enthält gelehrte Abschweifungen, philosophische Betrachtungen, verlangt folglich vom Leser Durchhaltevermögen, denn Thüne greift weit aus.Man liest vom Menschen als einer Kreatur der Natur, von der Angst als Führungs- und Verführungsinstrument, von Fallstricken menschlicher Erkenntnis, von Zivilisationskrankheit und Bewusstseinsspaltung, vom Beginn der Experimentalphysik mit Galilei, von Ursachen des Klimawandels, die unklar sind, von diffusen und unklaren Klimadefinitionen, von menschlicher Ohnmacht und Macht des Wetters, vom Klimaschutz als Bürgerpflicht, vom immergleichen Theater der Klimagipfelspiele sowie von Wissenschaftlern als Angstproduzenten und aktiven Erfüllungsgehilfen der Klimapolitik.Aber dies sind nur einige Beispiele aus der Fülle des Gebotenen.

Schon die Kinder werden ideologisch manipuliert

Den Klimaschutz sieht Thüne in die religiöse Dimension gehoben.Die Umweltbewegung als neue „Ökoreligion“ mache über die sieben großen Weltreligionen einen Führungsanspruch geltend.„Sie hat den Klimaschutz zum Schöpfungsschutz deklariert, und alle haben untertänig genickt.“ Es gibt einen geologischen Exkurs in die Klimageschichte.Die Medien stehen, wie Thüne zu Recht wahrnimmt,  im Spagat zwischen Information und Manipulation.Tatsächlich ist es schlimmer: Sie unterdrücken Tatsachen und schon die Kinder werden ideologisch manipuliert, indoktriniert und zu Klima-Gutmenschen erzogen. Im Dienst der Klimarettung spielen auch die Nachrichtendienste  ihre Rolle.

Gibt es einen CO2-Treibhauseffekt oder nicht?

In Widerspruch setzt sich Thüne zu anderen heftigen Kritikern der „Klimaschutzpolitik“, wenn es darum geht, ob CO2 ein „Treibhausgas“ ist und auf die Erde einen wärmenden Effekt hat (natürlicher Treibhauseffekt). Für Thüne gibt es solchen Effekt überhaupt nicht: „Der natürliche Treibhauseffekt, den die Klimaexperten zum Glaubenssatz erhoben haben … ist in Wirklichkeit ein intellektuelles Artefakt, das allen physikalischen Erkenntnissen Hohn spricht. Der natürliche Treibhauseffekt ist gänzlich unnatürlich.“ Für die anderen Kritiker ist der Treibhauseffekt des CO2 sogar relativ stark, denn das natürliche CO2 sei (nach dem Wasserdampf) das zweitstärkste Treibhausgas, aber der zusätzliche Treibhauseffekt durch das anthropogene CO2  sei dagegen sehr klein und unbeachtlich.

Aber der anthropogene CO2-Treibhauseffekt ist unbeachtlich

Es geht nämlich nach Ansicht dieser anderen Kritiker der Klimaschutz-Agiteure nicht um den Treibhauseffekt durch das natürlich entstehende CO2 an sich, sondern um den zusätzlichen Treibhauseffekt, den das zunehmende CO2 aus Industrie und Landwirtschaft bewirke. Doch das natürliche CO2 absorbiere bereits so gut wie alles spezifische Infrarot, so dass seine Konzentrationserhöhung durch anthropogenes CO2 daher zur weiteren Erderwärmung nur noch ganz wenig beitrage.  Selbst wenn sich der CO2-Gehalt in der Erdatmosphäre verdoppeln würde, ergebe der zusätzliche Treibhauseffekt nur eine Erwärmung zwischen 0,7 und 1,2 Grad Celsius (Klimasensitivität des CO2). Das sei unbedenklich. Um eine solche Erwärmung überhaupt zu erreichen, müsste man alle fossilen Reserven an Erdöl, Kohle und Gas verbrennen, was kaum geschehen werde. Es sei wie mit einer Pudelmütze: Eine wärme gut, zwei übereinander wärmten auch, aber nicht doppelt so gut. Oder mit anderen Worten: Der anthropogene Treibhauseffekt, wie ihn die Klimaschutz-Agiteure behaupten, ist ganz unbeachtlich.

Wetter und Klima kümmert es nicht, was Menschen tun

Tatsache ist ohnehin: Warm- und Kaltzeiten hat es in unregelmäßigen Zeitabständen in der langen Erdgeschichte schon immer gegeben – ganz ohne anthropogenes Kohledioxid.Was immer also die politisch Herrschenden und anderen Profiteure der „Klimaschutzpolitik“ gegen das als Giftgas hingestellte CO2 und die vorgeblich menschenverursachte Klimaerwärmung tun (mit Gesetzen, Anordnungen, Zwangsdämmungen, Ethanol-Beimischungszwang für Benzin, Stromerzeugung mittels Wind, Sonne und „Biogas“, mit Abgaben, Steuern, CO2-Zertifikatehandel, Preisanstieg und vielen hundert Milliarden unnötigen Kosten), diese Vermessenheit wird gegen das Erdklima nichts, aber auch gar nichts ausrichten. Denn die Klimaverhältnisse auf der Erde werden vom Wetter bestimmt. Und das Wetter ist – mit Thünes Worten – „ein unabwendbares Naturereignis, mit dem der Mensch leben, an das er sich anpassen, dem er sich fügen und unterordnen muss. Am irdischen Wetterverhalten wird sich nichts ändern. Das Wetter wird der Menschheit das bleiben, was es schon immer war, ein Rätsel.“

Dr. K.P. Krause; Das Original des Artikels erschien hier bzw. hier

Dr. Wolfgang Thüne wird auch als Redner auf der kommenden Internationalen Klimakonferenz von EIKE am 15.6.12 in Berlin auftreten. Anmeldung hier

Wolfgang Thüne: Propheten im Kampf um den Klimathron. Wie mit Urängsten um Geld und Macht gekämpft wird.CCS new media. Oppenheim 2011. 591 Seiten. 24,80 Euro. (ISBN 978-3-00-035070-2.)




Update!: Die Energiewende ist schon gescheitert!

Doch damit nicht genug. Die ungebremste Vorrangeinspeisung dieses Strom schlechter Qualität bewirkt, dass dringend benötige Gas-Pufferkraftwerke, wenn sie denn gebaut werden könnten, sich nicht mehr rechnen. Und, wenn sie denn mal stehen sollten, dann hängen sie ohne Gasanschluss herum, weil die Pipelines fehlen, die aber genauso wenig gebaut werden würden, weil auch sie sich nicht rechnen. Ebenso wie die vielen 100.000 km Hoch- Mittel-und Niederspannungsnetze, die aufgrund dieser ideologisch vorangetriebenen, zerstörerischen Planung, erforderlich würden, um den untauglichen Strom zu den Verbrauchern zu transportieren. Wir berichteten u.a. hier darüber. Hinzu kommt, wie die WiWo genüsslich berichtet, dass Windparks geplant und gebaut werden sollen, "die kein Schwein finanzieren kann", weil die Regierung bei der Verschärfung der Bankenregeln, die Umlenkung kurzfristiger Kredite in langfristige Darlehen kräftig erschwert hat.

Das Wort von der Stromsperre, oder Blackout, jahrzehntelang aus unserem Wortschatz verschwunden, gehört inzwischen zum Standardvokabular, nicht nur der Wirtschafts- und sonstigen Fachjournalisten, sondern auch stramm linker Mainstream- Medien im Fernsehen (ARD Panorama- eine kluge Besprechung hier) oder der Presse.

Dr.–Ing. Günter Keil hat die gefährliche Entwicklung, ihre Ursachen  und ihre Folgen in diesem Bericht eingehend analysiert. Seine Bewertung:  Die Regierung zappelt jetzt in den selbst gelegten Fallstricken. Die durch ihre Fehler verursachten Probleme werden noch durch neue und stets planwirtschaftliche Fehlentscheidungen zu verzögern versucht, was nur neue Schäden hervorruft und immer das gleiche Resultat ergibt: Die Risiken steigen weiter und die Stromverbraucher müssen es bezahlen.  

Die Liste der Fehler wird immer länger: 

Man hat die Stromerzeugung zu Lasten der Wärmeerzeugung bevorzugt, dabei auch noch auf unbrauchbare Techniken gesetzt; man hat übersehen, dass die Stromnetze den neuen unnötigen Anforderungen nicht gewachsen sind und Blackouts drohen; man hat erst vor Kurzem begriffen, dass von Anfang an riesige, teure Stromspeicher erforderlich waren, die es aber nicht gibt und auch nicht geben kann. Man hat zu spät begriffen, dass nun – unter Opferung hehrer Klimaschutz-Ziele – viele neue Kohle- und Gaskraftwerke gebaut werden müssten und merkt jetzt, dass auch das durch  die Folgen der gesetzlichen Bevorzugung grünen Stroms nicht funktioniert. Man hat den Widerstand der Bürger unterschätzt. Und man hat den dramatischen Kurswechsel von 2011 ohne jede Vorwarnung und Konsultation der stark betroffenen und geschädigten Nachbarländer exekutiert – eine Rücksichtslosigkeit, die sich rächen wird. 

Die Regierung war schon lange von allen renommierten Fachleuten und Institutionen vorgewarnt. Kein einziges der heute immer größer werdenden Probleme war unvorhersehbar.  Die Frage ist jetzt, wie groß der angerichtete Schaden erst werden muss, wann die Energiewende-Heuchelei aufhört und wie viele Industriebetriebe erst das Land verlassen müssen, bis eine Regierung die Notbremse zieht.  Wir können hier nur einige Auszüge bringen und verweisen auf den vollständigen Beitrag im Anhang (als pdf herunterladbar)

Die Energiewende ist schon gescheitert
von Günter Keil

(erweiterte Fassung April 2012)

Man stelle sich vor, dass einem TV-Sender ein Drehbuch über ein politisches Thema angeboten wird, dessen Inhalt sich in Kurzform etwa wie folgt liest:

„In Japan ereignet sich ein furchtbares  Erdbeben mit einer gewaltigen Tsunamiwelle, die eine  riesige Zahl an Toten zur Folge hat. Auch ein großes Atomkraftwerk an der Küste wird schwer beschädigt.  Im fernen Deutschland  bricht Panik aus, obwohl in diesem Land  die sichersten Reaktoren stehen und weder schwere Erdbeben noch Tsunamis drohen. Die deutsche Regierungschefin – nennen wir sie Frau M. – hat aber eine Idee: Sie will  ihren Gegnern endlich das Atomangst-Argument aus der Hand schlagen, mit dem man sie ständig ärgert. Sie will jetzt die Atomenergie einfach abschaffen und verkündet, dass sie nun plötzlich begriffen hätte, dass Atomreaktoren unsicher sind. Das habe sie vorher nicht gewusst. Frau M. ist übrigens Physikerin. Sofort werden acht Kernkraftwerke abgeschaltet, die übrigen dann später. Weil die   Reaktorsicherheits-Experten leider erklären, dass die Atomkraftwerke doch sicher sind,  beruft Frau M. einen Ethikrat, der gar nicht erst über den Ausstieg diskutieren soll, sondern dem sie gleich die gewünschte Antwort als Frage vorlegt: „Wie kann ich den Ausstieg mit Augenmaß vollziehen…?“ Diesem  Ethikrat gehört kein  Energieexperte an, jedoch 2 Bischöfe.

Dieser Rat gibt die gewünschte Antwort und dann wird ein Ausstiegs-Gesetzespaket beschlossen, das Parlament und Bundesrat anschließend in Rekordzeit verabschieden. Es herrscht große Angst, denn schon morgen können die Reaktoren explodieren. Jedenfalls genau die, die zuerst abgeschaltet wurden. Die übrigen noch nicht. Der jetzt fehlende Strom wird nun zum großen Teil aus den Nachbarländern importiert: Und das ist wieder überwiegend Atomstrom. Das stört jetzt aber niemanden mehr. Deutschland ist noch einmal davon gekommen. Frau M. nennt es die Energiewende.“

Das Drehbuch wird wegen Unglaubwürdigkeit abgelehnt.

Soweit die Fiktion.

Wie man weiß, hat sich das aber tatsächlich im Frühjahr und Frühsommer 2011  zugetragen (14). Jetzt, wo sich die ersten Auswirkungen zeigen und die Fehler im Gesetzeswerk, in den Methoden ihrer  Kaschierung  und in der Argumentation der Regierung deutlich hervortreten und nun auch  Reaktionen aus dem Ausland vorliegen, kann man eine Diagnose der sogenannten Energiewende versuchen (13, 14, 34, 37, 62, 65, 80)….

Wie Deutschland seine Solarstrom-Industrie förderte und zugleich ihre härteste Konkurrenz aufbaute

Das Geld, das die Solarzellen kosten, geht  zu ca. 60% nach China; Tendenz steigend.  Deutschland ist dank seiner übertriebenen Photovoltaik-Zwangsförderung der größte Kunde von Chinas neuen PV-Fabriken. Dort sind die Arbeitsplätze entstanden – mit dem Geld der deutschen Stromverbraucher, die sich keine  eigene PV-Anlage leisten können.

China hat diesen gewaltigen  Geldstrom für den Aufbau seiner Photovoltaik-Produktion eingesetzt – übrigens mit deutschen Produktionsmaschinen (s.u.), nachdem Deutschland China zuvor mit Millionen beim Aufbau dieser Industrie half (s.u.).  – und  ist inzwischen der weltgrößte Hersteller, dessen Solarzellen konkurrenzlos billig sind. 

Deutschland hat China dabei in dreifacher Hinsicht geholfen und gleichzeitig seine eigene Photovoltaik-Industrie in eine aussichtslose Lage gebracht:

·      Mit dem EEG bot sich Deutschland als risikoloses Absatz- und Gewinnparadies für Photovoltaikhersteller an. Jahrelang stellte dieses  sonnenarme Land den weltweit größten Absatzmarkt dar. Diese Chance ließen sich die chinesischen Produzenten nicht entgehen.

·      Die traditionell starken deutschen Maschinen- und Anlagenbauer lieferten China alle benötigten Maschinen zur Massenproduktion der Solarzellen. Damit verfügt China heute über einen nur drei Jahre alten modernen Maschinenpark – und nutzt ihn.  Und nun brechen auch den deutschen Solartechnik-Maschinenbauern die Aufträge weg: Branchenweit ist die Zahl der Aufträge um mehr als die Hälfte zurückgegangen und befindet sich auf dem niedrigsten Niveau seit Mitte 2009 (Wirtschaftswoche). „Man könnte überspitzt sagen, dass die deutschen Maschinenfirmen den deutschen Modulherstellern den Untergang bereitet haben.“ (Heiko Böhmer, GeVestor).

·      Den eigentlichen Grund für Chinas besonders raschen Aufstieg als Solarzellen-Weltmacht deckte Ende Februar der SPIEGEL in seiner Nr. 9/2012 auf: In dem Artikel "Peking päppeln" von Alexander Neubacher wird berichtet, wie die Bundesregierung die chinesische Photovoltaik-Industrie mit Millionenhilfen und günstigen Millionenkrediten mit voller Absicht aufrüstete. Das Startkapital von 9 Millionen Euro kam direkt vom Umweltministerium. Es handelte sich absurderweise um Geld aus dem Verkauf von Verschmutzungszertifikaten an die deutsche Industrie, die damit selbst das Aufpäppeln ihrer Konkurrenz finanzieren durfte.

Das weitere Geld kam aus den Entwicklungshilfeetats der Regierung und ihrer Institutionen: Die Entwicklungsbank der staatlichen KfW Bankengruppe gab China 75 Millionen Euro als zinsgünstiges Darlehen, u.a. an die Solarriesen Yingli, Sunergy oder JA Solar, und die Deutsche Investitions- und Entwicklungsgesellschaft DEG (gleichfalls KfW-Tochter) finanzierte gleichfalls den Branchenriesen Yingli Solar. Diese Kredite laufen noch bis Dezember 2013   bzw. September 2013 weiter (64).

Der Wahnsinn hat Methode: Diese Mittel an China sollten laut Broschüren des Bundesumweltministeriums der Förderung der "globalen Klimagerechtigkeit" dienen – und der damit finanzierte Aufbau einer starken chinesischen Solarindustrie war volle Absicht und ein großer Erfolg – allerdings nicht aus der Sicht der deutschen Solarfirmen.

Minister Röttgen ist inzwischen aufgefallen, dass die chinesische Dumpingpolitik "zu einem ruinösen Wettbewerb auf dem Weltmarkt für Photovoltaikanlagen geführt hat" und dass er "eine Preispolitik sehe, die auf die Verdrängung deutscher Unternehmen gerichtet sei", wie er am 23.2.12 erklärte.

Dass die deutschen Kredite zur Finanzierung dieses Verdrängungswettbewerbs weiter laufen, kann annehmen, denn es handelt sich um Verträge.

Frank Asbeck, der Chef des Bonner Solarkonzerns Solarworld, der soeben zusammen mit US-Solarfirmen eine Klage gegen die Dumpingmethoden Chinas eingereicht hat, sollte ihr vielleicht eine neue  Richtung geben.

·      Wie China im eigenen Land  mit ausländischen Herstellern umgeht, musste der Weltmarktführer in Solar-Wechselrichtern, SMA Solar Technology, erfahren. SMA- Vorstandssprecher Urbon: „In den Ausschreibungsverfahren in China kommt kein internationaler Player zum Stich“.

Die Zahlen sind eindrucksvoll – und spätestens seit Mitte 2010 alarmierend.

Anteile an der Solarzellen-Weltmarktproduktion in den 3 letzten Jahren:

Deutschland:      2009:  15,4%   ;     2010:   9,7%  ;     2011:    6,7%

China:                 2009:  38,1%   ;     2010: 47,8%  ;     2011:  57,3%

Quelle. Bloomberg/FAZ

Das Bonner Marktforschungsunternehmen EuPD Research berichtete im September 2011: „Die Solarzellenproduktion verschiebt sich deutlich nach Asien“, die wichtigsten Länder seien China, Taiwan und Japan.

Besonders rasant verlaufe die Entwicklung in Taiwan: Während dort der Absatzmarkt auf Grund einer Beschränkung des Zubaus auf 70 MW pro Jahr (!) 2011 kaum eine Rolle spielen konnte, zeige die Produktion deutliche Zuwächse. Ein Hauptgrund sei der Eintritt großer Elektronik-Konzerne in den PV-Markt.

Eine bezeichnende Politik: Solarpanels in Massen für den Export produzieren – sie aber im eigenen Land nicht dulden. In Deutschland entsteht durch den Verlust der eigenen Produktion bei weiterhin EEG-geförderten massiven Importen die exakt entgegengesetzte Situation.

Einbrüche  in der Solarindustrie

Der durch immense Subventionen in den westlichen Industrieländern künstlich geschaffene Absatzmarkt mit seinen hohen Gewinnen führte inzwischen  zu einer extremen Überproduktion  und damit zu einem dramatischen Preisverfall, der angesichts der überfüllten Lager noch nicht zu Ende ist: 2006 kostete ein Kilowatt Leistung 5.000 €, heute 2.000 – 2.400 €.

  • Branchenexperten schätzen die weltweite Solarzellen-Nachfrage 2012 auf 21.000 MW;
  • die existierenden Produktionskapazitäten aber auf 40-50.000 MW.

 Man rechnet jetzt mit einer sehr deutlichen Marktbereinigung.

Verluste werden geschrieben, Pleiten und Arbeitsplatzverluste drohen im In- und Ausland. Die Nachrichten vom Winter 2011/Frühjahr 2012:

Der Berliner Solarzellenhersteller SOLON SE ging in die Insolvenz; mitgerissen auch von der Pleite des östereichischen Solarzellenherstellers Blue Chip Energy.

Solar Millenium traf es im Dezember 2011.  

Conergy verbuchte 2011 einen Verlust von 80-85 Mio €. Im September 2011 wurde entschieden, die Zellenfertigung in Frankfurt an der Oder einzustellen.

First Solar (USA, s.u.) prüft für seine Werke in Frankfurt-Oder Kurzarbeit.  

Der Maschinen-Ausrüster für Solarfabriken  Centrotherm, Blaubeuren, erlitt Verluste und kündigt 400 von 1928 Mitarbeitern (weltweit).  80% seiner Umsätze macht das Unternehmen in Asien. Die PV-Hersteller in China, Centhrotherms Kunden, leiden seit 2 Jahren unter Überkapazitäten und streichen ihre Investitionen zusammen.

Q-Cells (Bitterfeld) meldete am 3.4.2011 Insolvenz an. Das Unternehmen wurde bereits in der Ausgabe 35/2011 des AKTIONÄR in dessen „Solar-Todesliste“ aufgenommen. Über die Hälfte des Grundkapitals war Ende 2011 verloren.

Der kanadische PV-Hersteller ARISE meldete für seine deutsche Tochterfirma in Bischofswerda Insolvenz an.  

Schott Solar in Alzenau stellte seine Solarzellen-Produktion ein. 

Die Sunways AG (Konstanz) hat mit 115,4 Mio € ihren Umsatz in 2011 gegenüber 2010 nahezu halbiert. Die chinesische LDK Solar übernahm ein Drittel der Anteile; die spätere volle Übernahme ist vorgesehen.  Auch LDK Solar profitierte von dem Geld, das die Bundesrepublik  mit ihrem Kredit der KfW Entwicklungsbank von 75 Mio € , u.a. an den chinesischen Solarkonzernen gab.  

Die SunConcept Group (Elz, Hessen) stellte für ihre 7 Gesellschaften Insolvenzantrag.  SolarWorld  teilte im  Februar mit, dass ihr Ergebnis vor Steuern und Zinsen (EBIT) von plus 193 Mio € in 2010 auf minus 233 Mio € in 2011 abgestürzt ist. Im TecDax stand die Aktie am 4.4.2011 bei 2,20 €; vor einem Jahr waren es 11,90€. Vor einem Kauf der Aktie wird in Börsenkreisen gewarnt, jedoch seien die meisten Beobachter der Meinung, dass der Konzern gute Chancen hat, auf lange Sicht als einer der Sieger aus der derzeitigen Konsolidierungswelle hervorzugehen.

Die Solarhybrid AG aus dem Sauerland ging Mitte März 2012 in die Insolvenz  (89).  RALOS New Energy AG, Michelstadt, stellte Ende Februar Insolvenzantrag.

Diese Aufzählung endet  Anfang April  2012.

Am 21.2.2012 meldete die Börse, dass der deutsche Technologie-Aktienindex  TecDax davon profitiert, dass von ehemals 9 deutschen Solarunternehmen nur noch 3 im TecDax stünden (83). Nur eins dieser Unternehmen stellt noch selbst  PV-Zellen her, die anderen liefern Produktionsanlagen bzw. Elektronik.

Das Bild ist nicht durchweg düster: Der Marktführer in Solar-Dünnschichtzellen First Solar eröffnete im November 2011 sein zweites deutsches Werk in Frankfurt/Oder. Gut geht es der Firma aus Tempe/Arizona allerdings nicht (s.u.). Die PV-Maschinenbauer werden diversifizieren; sie müssen nicht ausschließlich Produktionsmaschinen für diese eine Produktklasse fertigen. SolarWorld überlebt voraussichtlich (s.o.). Und der Wechselrichter-Hersteller SMA erwartet bessere Zeiten ab 2013.

Sehr drastisch bewertete E.on-Technologie-Vorstand Prof. Klaus-Dieter Maubach – gewiss kein Photovoltaik-Freund – auf dem „Bloomberg New Energy Finance Summit“ in New York die Aussichten der deutschen Solarstrombranche:  Deutschlands Solarindustrie werde in den kommenden 5 Jahren angesichts des Wettbewerbs aus China  „verschwinden“. Nicht ein einziger Arbeitnehmer werde dann noch bei den deutschen Solarunternehmen arbeiten, denn dann seien alle pleite, wird Maubach zitiert (89).

Die wachsenden Probleme der Solarstrombranche sind keineswegs auf Deutschland beschränkt:

Solar-Pleiten in den USA

In den USA häufen sich Solar-Pleiten:

Im September 2011 ging der Solarkonzern Solyndra, den noch vor einem Jahr Präsident Obama besucht und als ein perfektes Beispiel das Wachstum mit sauberen Energien und für neugeschaffene, hochbezahlte Jobs gelobt hatte,  bankrott und entließ alle 1.100 Mitarbeiter. Ein vom Energieministerium DoE garantierter Kredit über 535 Millionen US-$ ist verloren (49).

Die Aktien von Evergreen Solar, die noch 2009 bei 12 US-$ lagen;  sind heute noch 10 Cent wert. Evergreen beantragte im August 2011 die Insolvenz.

Der Marktführer First Solar, der einst einen Marktwert von fast 6 Milliarden Dollar besaß, erlebte seit Januar 2011 einen Kursverlust von 48 %.  Verglichen mit 2008 betrug der Kursverlust über 90 %.

Sunpower, das ebenfalls zu den größeren Unternehmen gehört, erlebte seit 2007 einen Kurssturz von fast 95 %.  Im Herbst 2011 dauerten die Verluste bereits über drei Quartale an. Es existieren langfristige Schulden von mehr als 500 Mio Dollar und Gesamtverbindlichkeiten, die gegen 1 Milliarde Dollar gehen.

Auch die Firmen Spectrawatt, SES und Stirling Energy wurden in den vergangenen Monaten vom Markt gefegt.

Auch die italienische Regierung wurde aktiv: Sie zog den Termin der Beendigung der Förderung von PV-Freiflächenanlagen auf Ende Januar 2012 vor. Eine Ausnahmeregelung betrifft im Bau befindliche Anlagen.

Bis vor einigen Jahren war Spanien noch der grösste Solarmarkt der Welt. 2011 wurden dann nur noch 400 MW an PV-Leistung zugebaut (72). „Was heute ein Energieproblem ist, könnte ein finanzielles Problem werden“, sagte Industrieminister Jose Manuel Soria am 27.1.2012 in Madrid. Die Regierung erließ an diesem Tage ein Dekret, das Subventionen für neue Wind-, Solar-, Co-Feuerungs- und Müllkraftwerke stoppte.  Soria erklärte weiter, dass Wasserkraft-  oder Kernkraftwerke nicht mit neuen Abgaben belastet würden. „Wer wird jetzt noch nach diesem Dekret in den Sektor der erneuerbaren Energien investieren ?“, fragte der Chef der Lobby-Gruppe Fundacion Renovables, Javier Breva.

Selbst die chinesischen Firmen JA Solar und Sunergy werden zur Gruppe gefährdeter Solarunternehmen gerechnet (Bewertung der Schweizer Bank Sarasin).

Deutsche Tageszeitungen meldeten: Anleger flüchteten Ende 2011 „in Scharen aus Papieren der Solarbranche.“

Die grünen Jobs verschwinden wieder

In den westlichen Industrieländern spricht kaum noch jemand von der Solarindustrie als einer Zukunftsindustrie oder Jobmaschine – mit Ausnahme von Bundesumweltminister Röttgen, der anlässlich der Vorstellung der Förderkürzungen am 23.2.2012  wörtlich erklärte: „Die Photovoltaik ist eine Erfolgsgeschichte. Sie könnte zum Exportschlager werden.“

Die tatsächliche Marktentwicklung trifft jetzt diejenigen Arbeitsplätze, die nach grünen Plänen eigentlich an die Stelle der Jobs in der konventionellen Energiewirtschaft treten sollten (29). Die staatlich verkündete Behauptung war stets, dass es sich um hochqualifizierte, sog. Hightech-Arbeitsplätze handeln würde, was nicht den Tatsachen entsprach. Noch wird in deutschen Forschungsinstituten an der Photovoltaik gearbeitet und daran wird sich voraussichtlich nichts ändern.

Aber schon länger wird kritisiert, dass die deutschen Photovoltaikfirmen selbst nicht genügend Geld in die Forschung investiert haben, sondern im Vergleich zu anderen Technik-Branchen sogar besonders wenig. Das beschleunigte ihren Niedergang. Dass Bundesumweltminister Röttgen im Januar betonte, „er wolle ein Überleben der (Photovoltaik-) Technologieführerschaft in Deutschland“, kann sich also nur noch auf die Arbeiten in Forschungsinstituten beziehen, nicht aber auf die Unternehmen, die sein eigenes Ministerium mit der großzügigen Starthilfe für Chinas Solarfirmen dem vorauszusehenden Untergang preisgegeben hat.

Weil die Herstellung der Solarzellen dank der großzügigen deutschen Finanzhilfen  weitgehend nach China abgewandert ist, verbleiben in Deutschland mittelfristig nur noch Jobs in der Produktion von begleitender Elektronik (z.B. Wechselrichter, Netztrenngeräte) und in der Montage.  Diese Elektronik ist jedoch noch leichter zu kopieren, als die Herstellungstechnologie der PV-Zellen; das trübt die Aussichten.

Das ständig wiederholte Argument über die „Erneuerbaren“ als Jobmaschine verliert nicht nur bei der Photovoltaik  seine Glaubwürdigkeit.  Ohne weitere Dauersubventionen hätte nur ein Teil von ihnen Bestand – z.B. in der Bioenergie, bei den Kraft-Wärmekopplungs-Anlagen und der Erdwärmenutzung sowie selbstverständlich bei der Wasserkraft.

Die Photovoltaik ist damit für die Welt keineswegs eine überholte Stromerzeugungstechnik – als eine prosperierende Industriebranche für Deutschland und auch für andere westliche Industrieländer kommt sie aber nicht mehr in Frage.

Technisches Unverständnis und Beratungsresistenz ließ  Politiker  lange an die Illusion von einer blühenden Solarindustrie glauben; dabei hätte man bereits vor 10 Jahren ohne Schwierigkeiten erfahren können, dass diese Technologie niemals in einem Hochlohnland gehalten werden konnte.

Dass dies dermaßen schnell ging, hat die Bundesregierung mit der Aufbauhilfe für Chinas Solarfirmen selbst verursacht. Es ist vermutlich kein Trost für die deutschen Solarfirmen, dass  sie auf dem Altar deutscher regierungsamtlicher Klimaretter geopfert wurden.

Das Rheinisch-Westfälische Institut für Wirtschaftsforschung RWI hat berechnet, dass die gesamten Subventionen für die Photovoltaik mittlerweile die 100-Mrd-Euro-Grenze überschritten haben. Wie man jetzt feststellt, hat dieser enorme Aufwand im Gegensatz zu den politischen Visionen keine nachhaltigen positiven Arbeitsplatzeffekte bewirkt (18)……

…….9. Neue Kohle- und Gaskraftwerke – der Rettungsanker, der nicht greift

Mitte Dezember 2011 berichtete der SPIEGEL dass der für die Energiepolitik zuständige Bundeswirtschaftsminister Philipp Rösler „stärker als bisher geplant in zusätzliche Kohle- und Gaskraftwerke investieren“ wolle. Gemeint war wohl, dass sein liberal geleitetes und früher die Marktwirtschaft hoch haltendes Ministerium  entsprechende Investitionen mit Zuschüssen fördert, wie sie bereits gefordert werden.

Laut SPIEGEL sei in einem BMWi-Papier  von „circa 17 neuen Großkraftwerken bis zum Jahr 2022“ die Rede. Weiter hieße es dort: „Fossile Kraftwerke sind essenziell für eine sichere Energieversorgung“, denn diese müssten die wegfallenden Atomkraftwerke ersetzen und die schwankende Stromerzeugung aus Wind und Sonne ausgleichen.

Dem widersprach sofort der unzuständige aber intensiv mit dem Segen der Kanzlerin Energiepolitik betreibende Bundesumweltminister Norbert Röttgen, der die Existenz von Engpässen in der Erzeugungskapazität bestritt. Bei Kraftwerkskapazitäten gebe es bis 2020 „kein Problem.“ Es dürften nur die bereits beantragten oder im Bau befindlichen Kohlekraftwerke in Betrieb gehen.

Röttgen bezeichnete Warnungen vor einem „Blackout“ ebenso als Horrorszenario wie jene vor explodierenden Strompreisen.

Damit hat man ein halbes Jahr nach Verkündung der Energiewende ein zutreffendes Bild von der Arbeit der Regierung an ihrer Umsetzung.

Der Bundesverband der Energie- und Wasserwirtschaft BDEW ersetzte nun die widersprüchlichen Streitereien aus Berlin durch ein im Oktober  2011 veröffentlichtes  Gutachten (6):

·      Der BDEW schätzt, dass bis 2030 etwa 33.000 MW an fossilen Kraftwerken (Kohle und Gas; Öl ist unwesentlich) vom Netz gehen, weil sich der Betrieb nicht mehr lohnt oder Bestandskraftwerke am Ende ihrer Lebensdauer sind. In diese Zahl sind bereits die bis dahin geplanten Neubauten von 12.000 MW eingerechnet.

Anschließend hatte  die Bundesnetzagentur in ihrem Monitorbericht 2011 (9) eine  Auflistung für den Zu- und Rückbau von Steinkohle-, Braunkohle- und Erdgaskraftwerken präsentiert, soweit es heute sicher bzw. geplant ist:

·      „Bundesweit wird bis 2022 ein Rückbau von ca. 29.500 MW

  dargebotsunabhängiger (d.h. unabhängig von Wind, Wetter, Tageslicht…)

  Erzeugungskapazität erwartet. Hierin sind die bereits 2011 stillgelegten 8 KKW  

  mit  insgesamt 8.400 MW enthalten.

       Neben den derzeit im Bau befindlichen 12.900 MW wird demnach der Zubau von  

       weiteren 16.600 MW Kraftwerksleistung benötigt, um den Rückbau bis 2022  

       auszugleichen. Hierbei ist es wichtig, dass es sich um neue, zusätzliche

       Kraftwerksleistung handelt, die nicht durch den Rückbau stillzulegender

       Kraftwerksblöcke am gleichen Standort reduziert wird.

       Bislang liegt erst für Kraftwerksprojekte mit 1,400 MW eine behördliche

       Genehmigung vor.

       Weitere 10.600 MW befinden sich noch im Genehmigungsverfahren.“

·      Durch die Stilllegung von 5 Kernkraftwerken fehlen in Süddeutschland  etwa 3.000 MW. Erst 2013 und 2014 wird durch die Fertigstellung von 2 Steinkohlekraftwerken ein Zubau um ca. 1.700 MW in Süddeutschland erwartet.

Aber:  „In Süddeutschland übersteigen die erwarteten Rückbauzahlen der Kraftwerke deutlich die aktuellen Plandaten für die Zubauten“.

Die Folge: „Gegenüber der Situation vor dem Kraftwerksmoratorium der Bundesregierung bleibt die Lage in Süddeutschland auch nach Fertigstellung der derzeit im Bau befindlichen größeren Kraftwerksprojekte ernst und risikobehafteter als vorher.

·      „ Wie die Daten zeigen, wird sich die Erzeugungssituation in Süddeutschland 2012 voraussichtlich nicht signifikant verändern. Demnach ist davon auszugehen, dass im Winter 2012/13 eine zum Winter 2011/12 vergleichbare Erzeugungssituation vorliegen wird“.  Die Erzeugungssituation in Süddeutschland bleibe auch nach Fertigstellung zweier Steinkohlekraftwerke angespannt. Siehe auch Kap. 9.

·      „Die im Monitoring 2010 bereits festgestellten Verzögerungen bei 11 größeren Kraftwerksprojekten haben sich 2011 noch einmal vergrößert. Zudem reduzierte sich das Gesamtvolumen von dargebotsunabhängigen  Kraftwerksprojekten innerhalb eines Jahres um 18% bzw. rund 7.300 MW.“

Die Zahlen für Süddeutschland (Kraftwerke Frankfurt am Main und südlicher) aus dem Monitoringbericht::

·      2011: Steinkohle:   keine Änderung

          Erdgas.        + 684 MW

          Kernkraft:    – 4.947 MW;        Saldo 2011. Abnahme um 4.263 MW

·      2012: Steinkohle:  – 293 MW

          Erdgas:       + 92 MW;            Saldo 2012: Abnahme um 201 MW

·      2013: Steinkohle:  + 847 MW

          Erdgas:            0;                    Saldo 2013: Zunahme um 847 MW                   

·      2014: Steinkohle:   +845 MW;  -406 MW

          Erdgas:            0;                     Saldo 2014: Zunahme um 439 MW.

·      2014-2020: Kernkraft:   – 3.961 MW

                  Steinkohle:  – 655  MW

                  Weitere:   –  114  MW;     Saldo 2014-2020: Abnahme um 4.713 MW

·      2021-2022: Kernkraft: – 4.008 MW; Saldo 2021-2022: Abnahme um 4.008 MW

Diese geschätzten Zahlen enthalten ab 2014 die weiteren, noch stillzulegenden Kernkraftwerke in Süddeutschland:

Ø  Grafenrheinfeld –          1.275 MW, zum 31.12.2015

Ø  Grundremmingen B –   1.284 MW, zum 31.12.2017

Ø  Philippsburg 2 –            1.402 MW, zum 31.12.2019

Ø  Grundremmingen C –   1.288 MW,  zum 31.12.2021

Ø  Neckar II –                     1.310 MW, zum 31.12.2022

Ø  Isar 2 –                           1.410 MW, zum 31.12.2022.

Diese Stilllegungen würden ein zusätzliches, heute noch nicht einmal geplantes  Kohlekraftwerks-Neubauprogramm erfordern. Weshalb es bereits heute große Schwierigkeiten beim Erreichen der heutigen Neubaupläne gibt, wird unten erläutert.

Betrachtet man die Art der heute  im Bau befindlichen und derzeit geplanten neuen Kraftwerke, so kann man dem Monitorbericht entnehmen, dass von den im Bau befindlichen Kraftwerken 82% der Kraftwerksleistung durch Kohlekraftwerke und nur 18% durch Erdgaskraftwerke erbracht werden. Ende 2013 sollen  dann insgesamt 73% der Neubaukapazität neue Kohlekraftwerke und 27% Gaskraftwerke sein. Hier musste die Regierung sämtliche Bekenntnisse zum sogenannten Klimaschutz über Bord werfen, denn es ist eine Binsenweisheit der Kraftwerkswirtschaft: Wenn man kaum Wasserkraft hat und dann auch noch seine Kernkraftwerke abschaltet, dann muss man eben Kohlekraftwerke bauen. Es sei denn, man hat sehr billiges Erdgas oder Erdöl. Beides haben wir nicht.

Diese Neubauaktivität und die Neubauplanung fossil gefeuerter Kraftwerke zeigt  deshalb sehr klar – abseits von allen Sonntagsreden –  die Wirklichkeit der Energiewende: Die gesamte stillgelegte Erzeugungskapazität der deutschen Kernkraft muss durch Kohle und Gaskraftwerke ersetzt werden, die allein eine sichere Grundlasterzeugung bieten, wie sie von der Industrie und von den Verbrauchern benötigt wird. – egal, wie viel Wind- oder Solarstromanlagen am Netz hängen. Wenn Wind und Sonne dann Strom liefern, müssen die Kohle- und Gaskraftwerke heruntergefahren, aber natürlich nicht abgeschaltet werden, da sie in kurzer Zeit wieder benötigt werden könnten. Das macht sie unrentabel, weshalb die Investoren mit Recht kein Interesse mehr an Neubauten haben: Ein Teufelskreis.

Die Einsparung von Kohle bzw. Erdgas während dieser Leerlaufperioden ist verständlicherweise gering, weshalb auch der positive Effekt des Wind- und Solarstroms für die Umwelt ebenso gering ist. Dieses System mit vielen Milliarden Euro der Stromverbraucher aufzubauen war daher eine gigantische Fehleinschätzung – eine Mischung aus Unwissenheit und Ideologie.

Die beste Lösung wäre deshalb, einfach alle Wind- und Solarstromanlagen abzuschalten. Aber dann hätte man ja keine Energiewende mehr.

Die Gewissheit, dass die Kernkraftabschaltung exakt die beschriebenen  „fossilen Konsequenzen“  haben musste,  bestand in der Energiewirtschaft von Anfang an – und die hier präsentierte Neubautätigkeit und –Planung zeigt, dass es auch genau so geschieht. Diese Planung geschieht aber nicht etwa hinter dem Rücken der Bundesregierung, diese ist vielmehr die planende und treibende Kraft hinter dieser Entwicklung. Soviel zur Ehrlichkeit in der Energiepolitik. 

Aus dem Monitoringbericht könnte man schließen, dass etwa Ende 2014 das von der Abschaltung der 8 Kernkraftwerke gerissene Versorgungsloch- wenn alles gut geht –  wieder aufgefüllt sein wird.  Wie es dann nach dem Abschalten der übrigen Kernkraftwerke weitergehen soll, wird nicht behandelt. Eine neue große Kohlekraftwerks-Neubauaktion wäre dann fällig.

Aber auch die bis 2014 präsentierten Zahlen täuschen aus drei Gründen:

Grund Nr.1:

Die vorgestellten Planzahlen sind möglicherweise zu optimistisch.     

Die Bundesnetzagentur führt dazu in ihrem Bericht folgendes aus:

„Derzeit befinden sich bundesweit ca. 12.900 MW dargebotsunabhängige (=Kohle-, Gas; Biomasse) Kraftwerkskapazitäten in Bau, die voraussichtlich bis 2014 fertig gestellt sein werden. Hier gibt es jedoch Unwägbarkeiten wie die Kesselproblematik. So führt der Einsatz von Kesseln mit der neuartigen, hochtemperaturbeständigen und druckfesten Stahllegierung T24 (7 CrMo VTiB 10 10) zu techn. Problemen.

Bei mehreren im Bau befindlichen Kohlekraftwerken hat dies bereits zu Verzögerungen bei der geplanten Inbetriebnahme geführt.

Von den insgesamt im Bau befindlichen Kraftwerksprojekten (Anm.: Kohle, Gas) haben 18 Projekte mit insgesamt 12.300 MW eine Kapazität von jeweils mindestens 100 MW. Gegenüber den Daten aus dem Monitoring 2010 lassen sich davon für elf Projekte Verzögerungen bei dem geplanten Zeitpunkt der kommerziellen Inbetriebnahme feststellen. Bei sechs Projekten (5.000 MW) beträgt die Verzögerung ein Jahr, bei vier Projekten (2.900 MW) zwei Jahre und bei einem Projekt (1.100 MW) drei Jahre. Die bereits im Monitoring 2010 festgestellten Verzögerungen  haben sich damit gemäß der Monitoringdaten 2011 noch einmal vergrößert. Zudem ist das Gesamtvolumen der Investitionsvorhaben bei diesen Kraftwerken rückläufig. So reduzierte sich das Gesamtvolumen innerhalb eines Jahres um knapp 18 Prozent bzw. rund 7.300 MW“.

Grund Nr.2:

Die Situation in Süddeutschland (siehe oben).

Grund Nr.3:

Gegen den Bau neuer Kohlekraftwerke gibt es ebenso wie gegen neue Hochspannungstrassen massiven Widerstand durch Umweltverbände (75) und Bürgerinitiativen – siehe unten sowie Kapitel 14.

Dass diese in den Prognosen der Bundesnetzagentur und des BDEW   

ersichtliche bedenkliche Kapazitätslücke künftig entstehen  und auch aus  heutiger Sicht nicht geschlossen werden kann, liegt an dem schon in

zahlreichen Berichten erläuterten sehr plausiblen  Desinteresse der

potenziellen Investoren an neuen Kohle- und Gaskraftwerken.

Auch für dieses Desinteresse gibt es  gute Gründe:

Die stetig ansteigende gesetzlich vorgeschriebene Zwangseinspeisung von stark   schwankendem Wind- und Solarstrom in die Netze zwingt konventionelle Kraftwerke zu immer häufigerem Herauf- und Herunterfahren ihrer Leistung. Eben das wünscht sich die Regierung zum Ausgleich dieser Schwankungen – aber eben das senkt die Betriebsstunden  der Kraftwerke, verhindert ihr gleichmäßiges Fahren mit konstanter Leistung und erhöht den Verschleiß. Es wird weitaus weniger Strom erzeugt und verkauft, als es die Anlagen erlauben: Sie sind dann unrentabel, weshalb es keinen Sinn macht, sie zu bauen.

Dazu schreibt der BDEW in seinem Gutachten „Flexibilisierung“ vom 11.10.11 mit erstaunlicher Offenheit (90):

„…in 2020 werden noch immer 80 % der heutigen konventionellen Kraftwerke benötigt. Diese werden als Back-up-Systeme bei unzureichender Erzeugung von EE-Strom (d.h. Strom aus „Erneuerbaren“) vorgehalten. Sie weisen jedoch eine gegenüber der heutigen Situation um durchschnittlich 40 % geringere Auslastung auf. Ein wirtschaftlicher Betrieb wäre unter den gegebenen Rahmenbedingungen nicht gesichert bzw. benötigt entsprechende Preisspitzen. Ein marktgetriebener inländischer Ausbau der technisch erforderlichen Kraftwerkskapazität zur Gewährleistung der Versorgungssicherheit ist unter den aktuellen Rahmenbedingungen nicht gesichert. Er erfordert langfristig wirksame und marktbasierte Anreize, die von der Politik zugelassen werden müssen“.

Damit ist eine weitere Subventionsaktion angekündigt – und sie wird kommen, wie Minister Röslers Bemerkung bereits andeutet (s.o.) – denn sie passt sich logisch in die verhängnisvolle Kette von Fehlentscheidungen ein, die beginnend mit der grundsätzlichen Fehlentscheidung, die das Erneuerbare Energien-Gesetz darstellt,  in einer immer weiter gehenden Reihe schädlicher und stets teurer

Reparaturmaßnahmen den eingeschlagenen Irrweg ohne Rücksicht auf Verluste fortsetzen.

Selbstverständlich würden auch diese Subventionen – hier liebevoll „Preisspitzen“ und „Anreize“ genannt – wiederum allein den Stromverbrauchern aufgebürdet. 

Weiteres dazu im Kapitel 16 mit der Auflistung der Ursachen für weitere

Strompreis-Steigerungen. Auch im Kap. 12 über die Energie-Planwirtschaft

haben  diese Überlegungen ihren passenden Platz gefunden.

Ein weiterer Grund, die von der Regierung geschätzten – und besonders gut regelbaren – Gaskraftwerke gerade nicht zu bauen, liegt in den sehr hohen Gaspreisen und den langfristigen Lieferverträgen, die diese Preise zementieren. Derartige Investitionen sind daher noch unattraktiver als solche in neue Kohlekraftwerke.

Aber nicht nur Investoren zögern beim Neubau fossiler Kraftwerke: Mindestens ebenso wirksam ist der Widerstand von Umweltverbänden und Bürgerinitiativen: Allein in NRW sind drei Neubauprojekte gestoppt bzw. verzögert: Das EON-Kraftwerk Datteln wurde vom NRW-Oberverwaltungsgericht gestoppt, ebenfalls  das Trianel-Kraftwerk Lühen; für beide fordert der Bund für Umwelt und Naturschutz BUND das Ende. Das Trianel-Steinkohlekraftwerk Krefeld wurde nach heftigen Protesten der Umweltschützer aufgegeben – eventuell wird stattdessen innerhalb von 6 Jahren ein Gaskraftwerk gebaut.  Und der neue Block 10 des STEAG-Kraftwerks Walsum wird wegen technischer Probleme erst drei Jahre später ans Netz gehen.

In Planung befinden sich laut BDEW Kohlekraftwerke mit rund 12.000 MW.

„Projekte mit noch einmal dieser Leistung wurden in den letzten Jahren vor allem wegen öffentlicher Proteste aufgegeben“. Das heißt: „Der notwendige Investitionsbedarf ist bei weitem nicht durch die Planungen gedeckt.“

(M. Hüther, IWKöln, Handelsblatt 16.3.11)…..

…..10. Die Stromnetze werden an die Grenzen ihrer Belastbarkeit getrieben

Bereits vor dem Kernenergie-Moratorium, dem dann die permanente Abschaltung der 7+1 Kernkraftwerke und schließlich noch das Gesetzespaket der Energiewende folgte, hatte die rot-grüne und die schwarz-gelbe Regierung mit dem EEG eine stetig zunehmende Belastung und Destabilisierung des elektrischen Übertragungs- und Versorgungsnetzes verursacht. Mit der KKW-Abschaltung wurde dann dem Versorgungssystem ein besonders schwerer Schlag versetzt, der es an das Limit seiner Leistungsfähigkeit und Stabilität brachte.

Die rechtzeitigen Warnungen der Bundesnetzagentur ließen an Deutlichkeit nichts zu wünschen übrig:

Bereits in ihrem kurz vor der KKW-Abschaltung veröffentlichten  jährlichen Routine-Bericht „Bericht zur Auswertung der Netzzustands- und Netzausbauberichte der deutschen Elektrizitätsübertragungsnetzbetreiber (Anm.:ÜNB)“(4) vom 14.3.201 hatte die Bundesnetzagentur wichtige Informationen zum bereits damals unbefriedigenden Zustand des Netzes veröffentlicht: 

Die Netzagentur warnte darin, dass die deutschen Stromnetze „derzeit am Rande der Belastbarkeit beansprucht“ werden. Dies sei die direkte Folge massiver Verzögerungen beim Bau neuer Stromleitungen, so die Behörde. Nur durch massive Investitionen auf allen Ebenen des Netzausbaus könne das hohe Niveau der Versorgungssicherheit in Deutschland auch weiterhin gewährleistet werden.

„Diese Berichte der ÜNB zeigen einen Investitionsbedarf in ganz erheblichem Umfang auf. Die Gründe …..liegen vor allem in der Integration erneuerbarer Energien – sowohl Wind als auch Photovoltaik -, verbunden mit der gesetzlich vorgegebenen Anschluß- und Abnahmepflicht (EEG).  Die Bundesnetzagentur konstatiert erhebliche Verzögerungen bei der Realisierung von Netzausbauvorhaben der ÜNB.

Gründe hierfür liegen überwiegend in den langwierigen Raumordnungs- und Planfeststellungsverfahren und einer fehlenden Akzeptanz in der Bevölkerung“ (siehe auch Kap. 14).

♦ Die Hälfte von 24 besonders wichtigen Ausbauprojekten, die im August 2009 als vordringlich eingestuft wurden, verzögere sich.  

Der Zeitverzug bei diesen 12 Projekten liege zwischen 1 und 4 Jahren.

♦ Erst 214 km von insgesamt 1807 km seien bislang fertiggestellt.

Dieser Bericht lag somit der Regierung und den Parlamentariern bereits zu Beginn der Kernkraft-Abschaltungsdebatte vor und seine Aussagen wurden durch die folgenden Berichte vom 11.4.2011 und vom 27.5.2011 noch wesentlich verschärft – sämtlich vor dem Kabinettsbeschluss zum Energiewende-Gesetzespaket und natürlich auch vor dem Inkrafttreten dieser Gesetze.

Liest man die „Fortschreibung des Berichts der Bundesnetzagentur zu den Auswirkungen des Kernkraftwerks-Moratoriums auf die Übertragungsnetze und die Versorgungssicherheit“ vom 27. Mai 2011 (2), dann kann man die sträfliche Leichtfertigkeit, mit der die Regierung und dann das Parlament die Gesetze zur Energiewende beschlossen haben, nicht fassen. Bereits der erste Bericht zum Moratorium vom 11.4.2011 (1) enthielt massive Kritik an der Abschaltung der Kernkraftwerke (7+1) und eindrucksvolle Erklärungen zu den unvermeidlichen schädlichen Auswirkungen.

Regierung und Parlamentarier hatten selbst nach der Veröffentlichung des Fortschreibungsberichts (2) noch 4 Wochen Zeit bis zu ihrer überhasteten Vorlage der Gesetzentwürfe an den Bundesrat am 24. Juni.; und dann verblieb immer noch genügend Zeit bis zu dem Tag, an dem der Bundestag diese Gesetze beschloss – das war der 8. Juli 2011.

Niemand kann also behaupten, er hätte die massiven Warnungen der Bundesnetzagentur nicht rechtzeitig gekannt. Die Wahrheit ist daher, dass sowohl Regierung als auch die Abgeordneten diese Berichte kannten – und bewusst dagegen handelten. So wie sie auch den Bericht der Reaktorsicherheitskommission kannten, der den deutschen Kernkraftwerken eine hohe Sicherheit bescheinigte.

Sie folgten stattdessen den Empfehlungen der Ethikkommission.

Man wusste beizeiten, was kommen würde

Die von der Bundesnetzagentur präsentierten Feststellungen und Voraussagen werden hier zusammengefasst:

·      „Die historisch einmalige zeitgleiche Abschaltung von 5.000 MW Leistung und das längerfristige Fehlen von 8.500 MW Leistung bringen die Netze an den Rand ihrer Belastbarkeit.“

·      „Die Übertragungsnetzbetreiber (ÜNB) sind daher gezwungen, das Marktergebnis durch gesteigerten Einsatz ihrer Handlungsinstrumente wie… Eingriffe in den Kraftwerkseinsatz…zu korrigieren. Damit wird das eigentlich anzustrebende, wettbewerblich strukturierte Marktergebnis durch einen mehr oder weniger zentral gesteuerten planerischen Ansatz ersetzt (Anm.: siehe auch Kapitel 4 und 12: Planwirtschaft). Das ist energiewirtschaftlich zweifelhaft, ökonomisch ineffizient und ökologisch schädlich…..

      Das erhebliche netztechnische Problem, das mit dieser Marktkorrektur verbunden

      ist, besteht darin, dass das genannte Maßnahmenpaket eigentlich für

      Ausnahmesituationen wie Ausfälle von Kraftwerken oder Leitungen gedacht ist,

      nunmehr aber oft bereits für den Normalfall eines intakten Netzes nahezu

      vollständig ausgeschöpft wird und damit bei zusätzlichen unerwarteten Notfällen

       nicht mehr zur Verfügung steht. Damit steigt das Risiko der Nichtbeherrschbarkeit

       von Störungsfällen im Netz deutlich an.“

·      „(Weiterhin) gilt die Aussage, dass sich das Risiko im Winterhalbjahr bei der dann typischerweise höheren Netzbelastung durch höhere Stromnachfrage sowohl im Inland wie im Ausland und der signifikant niedrigeren Photovoltaikerzeugung nochmals deutlich erhöht.“

·      „Das Einspeiseverhalten aus Photovoltaik-Anlagen und Windenergie im Zeitraum vom 11.3. bis 8.5.2011 sind in Grafiken dargestellt. Sie verdeutlichen das enorme Potential zur Lastdeckung, das erneuerbare Energien schon heute haben. In der Spitze erreicht dies bis zu 28.000 MW. Die Grafiken verdeutlichen allerdings auch, dass diese Leistung nicht gesichert zur Verfügung steht, sondern regelmäßig auch völlig entfällt.

      Diese Einspeisungsschwankungen sind tatsächlich noch größer: Ende November

      2011 teilte der Leiter Politik und Märkte bei der RWE Innogy Holger Gassner mit,

      dass allein im ersten Halbjahr 2011  enorme Schwankungen der verfügbaren

      Windkraftkapazitäten von 23.000 MW und der Photovoltaikleistung von 13.000

      MW beobachtet wurden.

·      „Der fluktuierenden Einspeisung stehen derzeit und mittelfristig keine auch nur annähernd ausreichenden Speicherkapazitäten gegenüber. Gegenwärtig sind in Deutschland Pumpspeicher mit einer Leistung von etwa 7.000 MW und Entladezeiten von einigen Stunden in Betrieb…Die gesamte verfügbare Speicherkapazität beträgt derzeit etwa 40.000 MWh (Megawatt-Stunden). Zum Vergleich: Im Mai 2011 betrug der Stromverbrauch im Schnitt an einem Tag rund 1.440.000 MWh (Anm.: Also das 36-fache).

·      „Die Erwartung einer stärkeren Belastung durch die Abschaltung der 7+1 Kernkraftwerke der Nord-Süd- und der Ost-West-Trassen in Gestalt verstärkter Lastflüsse im Übertragungsnetz hat sich bestätigt. Insbesondere in Zeiten von Starkwind werden häufiger Sicherheitseingriffe …erforderlich.“

·      „Die veränderte Netzbelastung durch die Abschaltung der 7+1 Kernkraftwerke hat bereits zu Verzögerungen bei geplanten Wartungs- und Instandhaltungsarbeiten im Übertragungsnetz geführt, da viele Arbeiten nur bei wenig oder unbelasteten Netzen durchgeführt werden können. ..Mit weiteren Verzögerungen muss gerechnet werden….

      Bedingt durch die höhere Netzlast ist auch bei Netzausbaumaßnahmen mit

      Verzögerungen zu rechnen. Es ergibt sich die paradoxe Situation, dass durch das

      Moratorium ein Mehr an Transportkapazitäten erforderlich wird und gleichzeitig

      Netzumbau- oder Netzverstärkungsmaßnahmen aufgrund der erhöhten

      Netzbelastung nicht mehr wie geplant durchgeführt werden können.“

·      „Durch das Moratorium entstehen sowohl in der Rhein-Main- und in der Rhein-Neckar-Region als auch im Raum Hamburg große Probleme bei der Spannungshaltung.“

·      „Auch nach wiederholter Analyse besteht sowohl im Sommer 2011 als auch im Winterhalbjahr 2011/2012 in kritischen Last-/Erzeugungssituationen gerade noch ein ausreichendes erzeugungsseitiges Versorgungssicherheitsniveau. Ein etwaiger Puffer für zusätzliche Stilllegung von Kraftwerkskapazitäten besteht nicht.“

·      „Es ist sinnvoll, Kraftwerke aus der Kaltreserve zurückzuholen und wieder in einen kurzfristig einsatzfähigen Zustand zu versetzen.“ (Anm.: Das wären natürlich in erster Linie die hier nicht gemeinten abgeschalteten Kernkraftwerke – technisch problemlos, politisch undenkbar).

·      „Die Übertragungsnetzbetreiber haben bestimmte, besonders risikobehaftete Szenarien… durchgerechnet. Zu diesen Szenarien zählen:

a)    Der Fall eines Starklast-Tages im Sommerhalbjahr, bei dem zusätzlich zum Moratorium eine Vielzahl von Kraftwerken wegen Revision nicht am Netz ist.

b)    Der Fall eines Starklast-/Starkwind-Tages im Winterhalbjahr.

c)    Der Fall eines Starklast-Tages mit sehr geringer EEG-Einspeisung im Winterhalbjahr.

d)    Der Fall eines Starklast-Tages mit sehr geringer Einspeisung im Winterhalbjahr verbunden mit dem Ausfall einer hoch belasteten Nord-Süd-Leitung.

Diese Szenarien sind für das Netz äußerst kritisch. Die Szenarien a) und b) erscheinen …gerade noch beherrschbar. Die Szenarien c) und d) sind nach derzeitiger Kenntnislage die kritischsten und bedürfen daher der intensiven weiteren Prüfung und möglicherweise weitergehender…..Maßnahmen….

Im Falle d) bleibt die Lage riskant, da bei einem möglichen Hinzutreten weiterer Umstände (z.B. Kraftwerksausfall, Ausfall eines weiteren Betriebsmittels) eine Leitungsbelastung von 140 % und mehr aufträte, die wegen des kaskadenartigen automatischen Auslösens der Schutzeinrichtungen nicht mehr beherrschbar wäre.“ (Ende des Zitats).

·      Mehrfach wird auf die Beeinflussung der Netze der Nachbarländer durch die auf deutscher Seite ergriffenen Maßnahmen kritisch eingegangen. Diese Passagen werden im Kapitel 15 zitiert.

Ende November 2011 legte dann die Bundesnetzagentur ihren „Monitorbericht 2011“ vor, der zahlreiche weitere bemerkenswerte Aussagen enthielt (9):

·      „Insgesamt konnte festgestellt werden, dass die derzeitige Situation im Netzbereich zwar beherrschbar ist, jedoch geht sie mit einer erhöhten Eingriffshäufigkeit der Netzbetreiber in den Systembetrieb einher. Nach wie vor ist die Netzinfrastruktur im Elektrizitätsbetrieb jedoch sicher und stabil.“ Anmerkung: Diese Aussage geschah kurz vor den äußerst kritischen Situationen in den darauf folgenden Winterwochen.

·      „Das …hohe Niveau der Versorgungssicherheit mit Elektrizität kann zukünftig nur durch massive Investitionen auf allen Netzebenen gewährleistet werden.“

    „Das Energieleitungsausbaugesetz EnLAG  benennt 24 Projekte, die vorrangig zu realisieren sind. Zwei dieser Projekte wurden fertig gestellt. Bei 12 der 24 EnlAG-Projekte sind deutliche Verzögerungen im Genehmigungs- und Realisierungsplan zu beobachten, so dass die jeweils vorgesehene Inbetriebnahme teilweise um mehrere Jahre überschritten wird.

      Etwa 214 km von 1807 km an neu zu errichtenden Trassen sind bislang fertig

      gestellt“.

       Von 149 insgesamt bis 2014 vorgesehenen Ausbaumaßnahmen (Anm.: an existierenden Trassen) unterläge Mitte 2011 die Hälfte – d.h.73 Projekte –   Verzögerungen. Dementsprechend dokumentierten auch die gemeldeten Investitionsdaten „erneut die erheblich hinter den Planungen zurückbleibende Realisierung von Neu- bzw. Ausbauvorhaben der Übertragungsnetze (Anm.: der Höchstspannungsnetze)“.

·      Gründe für die Verzögerungen seien:

    „Verzögerungen im behördliche Genehmigungsverfahren – beispielsweise auf

     Grund von Widerstand der lokalen Bevölkerung; Klagen gegen  

     Planfeststellungsbeschlüsse; Lieferengpässe, technische Gründe..“.

·      Zu den Verteilernetz-Betreibern: Diese hätten „die Option, auch EEG-Anlagen herunterzuregeln, wenn die Erzeugung aus erneuerbarer Energie vom Netzbetreiber nicht abgenommen werden kann, weil kein konventionelles Kraftwerk mehr zum Ausgleich heruntergeregelt werden kann“. „Im Jahr 2010 ist die durch das Herunterregeln entstandene Ausfallarbeit von EEG-Anlagen im Vergleich zum Jahr 2009 insgesamt um über 70% angewachsen. Dies zeigt die weiter steigenden Herausforderungen, denen die Netze (Anm.: alle Netzebenen) im Hinblick auf den rasanten Zuwachs der erneuerbaren Energien bereits jetzt, insbesondere aber in den nächsten Jahren, ausgesetzt sein werden“.

·      Die Kommentierung der Strompreisentwicklung durch die Bundesnetzagentur wird im Kapitel 16 zitiert.

Die Politik entdeckt das regionale Verbundnetz

Bereits lange vor dem Abschalten der 7+1 KKW hatten sich die Probleme aufgetürmt:

Mit den nicht vom Markt, sondern durch die Zwangssubvention des EEG kräftig  wachsenden Installationen von Windrädern und Photovoltaikanlagen entstanden zwei  Probleme, die  die Große Koalition überhaupt nicht und die Schwarz-Gelbe Regierung erst nach massiven Warnungen der Netzbetreiber ernst nahmen:

Problem Nr.1: Zum einen bemerkte man schließlich, dass der größere Teil der Windstromanlagen in Norddeutschland liegt, wo man aber deren Strom nicht brauchen kann.  Anders in Süddeutschland, wo es nach der Abschaltung mehrerer der dortigen  Kernkraftwerke durchaus einen Bedarf gäbe – wenn es dafür ausreichend  dimensionierte Nord-Süd-Höchstspannungsleitungen gäbe. Was nicht der Fall ist.

Problem Nr.2: Zum anderen bemerkte man bis zum Oktober 2011 nicht, dass es auch noch ein zweites gravierendes Netzproblem gibt: Im weitaus größeren regionalen Verteilungsnetz, das technisch nur für die Versorgung der Abnehmer, keineswegs aber für die stark schwankende Stromaufnahme aus vielen dezentralen  Windparks und Photovoltaikanlagen (s.u.) und die Weiterleitung dieses Stroms in das Höchstspannungsnetz ausgelegt ist (20).

Zum Problem Nr. 1: Für eine bessere Abnahme des Windstroms wünscht die Regierung bereits bis 2020 den Bau von 3000 km neuen Höchstspannungsleitungen von Nord- nach Süddeutschland. Der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 „Eckpunkte für den Stromnetzausbau“ vor:  „Es würden etwa 3.600 km neue Leitungen benötigt."

Die Deutsche Energie-Agentur Dena rechnet jedoch mit erforderlichen 4.450 km an zusätzlichen Höchstspannungsleitungen und die parlamentarische Staatssekretärin im BMU, Katherina Reiche, nannte kürzlich 4200 km. Weil die abgeschalteten Kernkraftwerke zuvor ganz wesentlich zur Stabilisierung des Netzes beigetragen hatten, das mit der schwankenden Ökostromproduktion zu kämpfen hat,  – sie können Leistungsschwankungen am schnellsten von allen Kraftwerken durch massives Gegensteuern ausgleichen (das sog. Lastfolgemanagement) –  mussten zuletzt immer häufiger Windparks zwangsweise abgeschaltet werden. Allein 2010 gingen dadurch ca. 150 Millionen kWh verloren.

 Auch die Anbindung der neuen Offshore-Windparks an das Netz an Land gerät in Turbulenzen: Soeben warnte der Netzbetreiber Tennet, der in Norddeutschland das E.ON-Stromnetz übernahm,  die Bundesregierung in einem Brandbrief vor Engpässen (siehe Kap. 6).

Wie die Bürger auf die Aussicht auf den geplanten massiven Ausbau der Hochspannungstrassen reagieren, wird in Kap. 14 näher beschrieben. Der bremsende Einfluss der vielen Bürgerinitiativen wird von den Netzbetreibern jedenfalls als noch ernster betrachtet, als die langen Genehmigungszeiträume.

Aber auch einer eingespielten Maschinerie für die Illumination des Bildes einer  vollkommen auf „erneuerbaren“ Energiequellen beruhenden Zukunft passiert hin und wieder ein Fehler – bzw. kommt versehentlich ein Stückchen Wahrheit ans Licht:

Das Bundesumweltministerium BMU hat am 3.5.2011 den „Entwurf des  Erfahrungsberichts 2011 zum Erneuerbare-Energien-Gesetz“  veröffentlicht. In diesem stehen auf Seite 38 und 39 bemerkenswerte, fast resignierende  Sätze:

 „Es muss davon ausgegangen werden, dass der Netzausbau auch künftig nicht in dem erforderlichen Maß vorankommen wird.“  (Im o.e. Fortschreibungsbericht der Bundesnetzagentur (2) kann man die Gründe nachlesen.)

Und weiter heißt es:

„Obwohl sich die betroffenen Netzbetreiber bemühten, die bestehenden Netzengpässe im Verteilnetz zu überwinden, stieg die durch das Einspeisemanagement abgeregelte Strommenge (Anm.: Das heißt: die abgelehnte Grünstrom-Aufnahme ins Netz) aus Windenergieanlagen von 2004 bis 2009 auf das 7-fache an. Einzelne Netzausbaumaßnahmen an kritischen Stellen im Netz könnten große Wirkung entfalten und diesen Trend abschwächen. Dennoch dürfte das Einspeisemanagement mit zunehmendem Ausbau der erneuerbaren Energien weiter an Bedeutung gewinnen, weil es zunehmend zu Netzengpässen kommen wird.“

Zum Problem Nr. 2: Wie im Kap.6 „Solarstrom..“ beschrieben, treten Netzprobleme  keineswegs nur im Hochspannungsnetz auf, das mit dem Transport der Windstrom-Schwankungen nicht fertig wird, sondern sie zeigen sich zunehmend auch in den unteren Spannungsebenen. Dafür sind die immer zahlreicher werdenden Photovoltaikanlagen, insbesondere Solarparks, aber auch Windparks im Binnenland verantwortlich, die mit ihren wetterabhängigen Schwankungen das nicht für Tausende von Stromeinspeisern ausgelegte regionale Netz in Schwierigkeiten bringen (20).

Man kämpft jetzt mit dem „50,2 Hertz-Problem“, der abrupten, massenhaften Selbstabschaltung der Photovoltaikanlagen bei Netzüberlastung durch zu hohe Einspeisung. Diese Sicherheitseinrichtung ist vorgeschrieben und sehr vernünftig. Nur hat die Regierung übersehen, dass sie sich damit ein neues Problem einhandelt, wenn eine riesige Anzahl von PV-Anlagen, mit der kein vernünftiger Mensch im sonnenarmen  Deutschland je rechnen konnte,  das gleichzeitig tut.

Die nun notwendige technische Nachrüstung aller PV-Anlagen mit automatischen Meß- und Abschaltgeräten sowie die mit Gewissheit auch hier künftig praktizierte Entschädigung der PV-Betreiber für den nicht gelieferten Strom würde wohl unweigerlich wieder den Stromverbrauchern aufgebürdet werden.

Als  notwendige  Abhilfe gilt deshalb der Ausbau nicht nur der höchsten, sondern auch der unteren Spannungsebenen mit ihren Netzen und der Einsatz von Ortsnetztransformatoren.

Dazu gab es endlich auch eine Zahl – und zwar eine sehr hohe: Katherina Reiche, parlamentarische Staatssekretärin im BMU, erklärte Ende November 2011 auf einem VDI-Kongress, dass das Netz „massiv umgebaut“ werden müsse. „Beim Höchstspannungsnetz seien 4200 km, bei den Verteilnetzen 200.000 km in moderner Netztechnik nötig.“

Sie reagierte damit vermutlich auf eine im Auftrag des Bundesverbandes Windenergie angefertigte Studie der Ecofys Germany GmbH, in der ein folgenschwerer Satz steht (eigene Ergänzungen in Klammern):

„Die Ausfallarbeit durch Abregelung (d.h. Abschalten der Wind- und Solarstrom-Einspeiser) aufgrund von Netzengpässen im Übertragungsnetz (Höchstspannungsnetz mit 380 oder 220 Kilovolt; Länge 35.000 km) ist bislang noch wesentlich kleiner als die Ausfallarbeit aufgrund von Netzengpässen im (1,7 Millionen km großen) regionalen Verbundnetz.“

Das Hauptproblem für die Netzstabilität liegt also bei den sehr viel größeren Verteilnetzen: Diese bestehen aus  dem regionalen Hochspannungsnetz HV (100 oder 60 kV mit 77.000 km); dem  Mittelspannungsnetz MS (30 – 3 kV mit 500.000 km)  und dem Niederspannungsnetz NS (400 oder 230 Volt mit über 1 Million km) – und die zusammen sind in der Tat riesenhaft. (Daten von Verivox).

Ausgerechnet im März 2011, dem Monat des Kernkraftmoratoriums, legte der BDEW ein Gutachten zum „EEG-bedingten Ausbaubedarf des Verteilungsnetzes“ vor (20), in dem sowohl für das Energiekonzept 2020 der Bundesregierung vom 28.9.2010 (23) als auch für das BMU-Leitszenario 2020 (21) die notwendigen Ausbaumaßnahmen behandelt wurden. Erforderlich sei:

  1. Nach dem Energiekonzept 2020:
  • HS: 350 km
  • MS: 55.000 km
  • NS: 140.000 km

…..mit Gesamtkosten zwischen 10 und 13 Mrd. Euro;

  1. Nach dem BMU-Leitszenario 2020:
  • HS: 650 km
  • MS: 140.000 km
  • NS: 240.000 km

…..mit Gesamtkosten zwischen 21 und 27 Mrd. Euro.

Diese Ausbaukosten des Verteilungsnetzes  (MS + NS) kämen somit noch zu den Ausbaukosten des Höchstspannungsnetzes (= Übertragungsnetz) hinzu.

Der Verband kommunaler Unternehmen VKU forderte deshalb in einer Erklärung vom 17.11.2011 die Politik und die Regulierung auf, ihren Blick auf diese 1,7 Mio km der Stromverteilnetze zu richten und nicht nur auf die knapp 35.000 km der Höchstspannungs-Übertragungsnetze, denn mehr als 80% der Anlagen der „Erneuerbaren Energie“ waren 2009 an die unteren Verteilnetze  angeschlossen und haben diesen die Probleme gebracht..

Der VKU rechnet für einen derartigen Ausbau und die Integration der dezentralen Energieversorgung in den Verteilnetzen mit 25 Mrd € bis 2030. Darin seien die Kosten des Umbaus zur vielseitigen Mess- und Steuerbarkeit (Smart Grids) noch nicht einmal enthalten.

Auswirkungen auf den Strompreis sind unausweichlich.

Peinlich für die Regierung: Im neuen Energieleitungsausbau-Gesetz EnLAG sind nur die Höchstspannungs-Trassen des Übertragungsnetzes vorgesehen. Es ging den Gesetzesmachern nur um die Durchleitung des Windstroms von Nord nach Süd. Die Gefährdung der Stabilität des weitaus  größeren  Verteilnetzes durch die vielen unkontrollierten Stromerzeuger hatte man übersehen.

Die Zuverlässigkeit der Stromversorgung verringert sich systematisch

Während die Bundesregierung – im Gegensatz zu ihrer Bundesnetzagentur –  die anwachsende Bedrohung der Netzstabilität herunterspielt – Röttgen bezeichnete solche Warnungen unlängst als Horrorszenario – wächst in der Industrie eben diese Sorge. Nicht aus Freude an Horrorszenarien, sondern aus konkreten Erfahrungen im Jahre der Energiewende 2011.

Das Handelsblatt berichtete am 29.12.2011 über die sinkende Qualität der Stromversorgung: „Mit der beschleunigten Energiewende kommt es bereits heute zu bedenklichen Qualitätsverlusten bei der Stromversorgung“, wird Volker Schwich, der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK) zitiert. Die Stabilität komplexer Produktionsprozesse sei bedroht – lange bevor die Allgemeinheit einen Blackout bemerkt. Kurze Unterbrechungen im Millisekundenbereich und Frequenzschwankungen führten jetzt häufiger als früher zu Problemen.

In einem Brandbrief an den Präsidenten der Bundesnetzagentur M. Kurth listet eine Tochterfirma des norwegischen Norsk-Hydro-Konzerns, der als drittgrößter Aluminiumhersteller der Welt in Deutschland an 14 Standorten Unternehmen der Al-Primärproduktion betreibt, die Probleme aus den Instabilitäten auf. Man beobachte „seit Juli 2011 eine beunruhigende Häufung aus Netz- und Frequenzschwankungen.“

In dem Schreiben werden die 5 wesentlichsten Fälle aus den vergangenen Monaten aufgelistet, die zu teuren Schäden geführt hätten. Die steigende Zahl der netzbedingten Produktionsbeeinträchtigungen sei beunruhigend. Eine solche Häufigkeit von Zwischenfällen habe es in den vergangenen Jahrzehnten nicht gegeben.

Die Bundesnetzagentur, die über die Netzstörungen eine Statistik führt, berücksichtigt aber nur ungeplante Unterbrechungen, die länger als 3 Minuten dauern. Der sich daraus ergebende Index (SAIDI) sieht deshalb optisch gut aus.

Er berücksichtigt aber aus der Sicht der Industrie nicht die sich häufenden und wachsende Probleme verursachenden Störungen von weniger als 3 Minuten Dauer.

In der kurzen Debatte um die Energiewende war die Zuverlässigkeit der Stromversorgung ein zentrales Thema. Heinz-Peter Schlüter, der Aufsichtsratsvorsitzende und Eigentümer von Trimet-Aluminium, hatte in den Anhörungen der Ethik-Kommission „Sichere Energieversorgung“ vor den unausweichlich auf die Industrie zukommenden Problemen gewarnt: Mit dem Wegfall einer zuverlässigen Stromversorgung verliere er seine Existenzgrundlage.

„Nur vier Stunden ohne Stromversorgung und die Produktionsanlagen meines Unternehmens wären irreparabel zerstört“, hatte Schlüter gewarnt.

Die Töpfer-Ethik-Kommission beeindruckte das nicht.

Der Winter 2011/2012: Noch einmal Glück gehabt

Die Bundesnetzagentur nannte in ihrem Bericht (2) die Region Hamburg als besonders bedroht. Dort reagierte man:  Im November 2011 bereitete sich Hamburg auf die Möglichkeit eines totalen Stromausfalls im  Winter 2011/2012 vor, wie WELT Online am 21.11.2011 berichtete.

Der Netzbetreiber 50Hertz arbeite an einem Notfallplan und verhandle bereits mit großen Stromverbrauchern über eine Abschaltung. Olivier Felix von 50Hertz: „Eine solche Situation kann eintreten, wenn im Winter bei Hochdrucklagen keine Windenergie erhältlich ist und zusätzlich das KKW Brokdorf unerwartet abgeschaltet werden muss.“ Vor nicht allzu langer Zeit gab es in dieser Region noch die KKW Stade (wird abgerissen), Brunsbüttel und Krümmel (sind stillgelegt). Deren Leistung fehlt nun.

Diese Sorge ist sehr berechtigt, wie die folgenden Meldungen zeigten:

Die Stabilität des deutschen Stromnetzes konnte im Dezember 2010 zum Teil nur dank Nachbarschaftshilfe aus Östereich aufrechterhalten werden. Bereits am 8. und 9. Dezember musste der Netzbetreiber Tennet erstmals auf die von der Bundesnetzagentur für Stromengpässe festgelegte sog. Kaltreserve zurückgreifen. Dafür musste unter anderem ein altes Öl-Kraftwerk bei Graz wieder ans Netz gebracht werden. „Die Netzsituation ist nach wie vor angespannt“, betonte damals ein Sprecher der Bundesnetzagentur.

Wie erwartet, trieb die Eiseskälte zu Beginn des Monats Februar 2012 den Strombedarf in Frankreich enorm in die Höhe – am 7.2. belief er sich auf 100.500 Megawatt. Frankreich war wie in jedem Winter auf Stromimporte aus Deutschland angewiesen, was offenbar auch dieses Mal problemlos funktionierte, denn es gab zunächst nur selbstzufriedene offizielle Kommentare.

Das führte zu triumphierenden Pressemeldungen, nach denen diese Situation ein Beweis dafür wäre, dass die abgeschalteten deutschen Kernkraftwerke sowieso überflüssig gewesen seien. „Bitter für die Atomlobbyisten“ sei das.

Nach Angaben der deutschen Energiekonzerne sei aber auch in Deutschland zu dieser Zeit der Strompreis auf 16 Cent/kWh angestiegen, weil sogar alte und teure Ölkraftwerke Strom produzieren mussten. „Fakt ist, dass man derzeit nur auf Sicht fährt“, kommentierte RWE-Chef Großmann bereits damals.

Es dauerte  5 Wochen, bis die Wahrheit endlich ans Licht kam:

Denn die Bundesnetzagentur veröffentlichte erst Mitte Februar 2012 die wahre Schreckensmeldung: Nur die Notreserven hätten im Zeitraum vom 6. Bis zum 9. Februar das Netz vor dem Blackout gerettet. „Es war sehr, sehr ernst“,  hieß es am 16.2 in der Aufsichtsbehörde (lt. VDI-nachrichten vom 17.2.).

Folgendes war demnach geschehen: Wegen der Rekord-Nachfrage nach Strom von bis zu 100.000 Megawatt in Frankreich und auch eines in Deutschland hohen Verbrauchs bei extremer Kälte schnellte der Börsen-Strompreis am Spotmarkt für kurzfristige Einkäufe in die Höhe; teils zu über 350 € für die Megawattstunde. Der Run auf die knappen Strom-Ressourcen führte dazu, dass Notreserven herangezogen werden mussten – und dieses Anzapfen der Notreserven drohte das Netz in die Nähe des Zusammenbruchs zu bringen. „Das Verlassen auf diese Regelleistung wird in der Politik und der Industrie als riskantes Vabanquespiel bezeichnet“ (T. Federico, GF des Beratungsunternehmens Energy Brainpool).

Inzwischen meldete sich auch der Chef der Industriegewerkschaft Bergbau, Chemie, Energie (IG-BCE) Michael Vassiliades.  Er sagte am 5.2.12: „Wir brauchen einen doppelten Schutz vor Preis- und Frequenz-Schwankungen im Netz, die wirtschaftlich nicht mehr tragbar sind“. Alles andere sei fahrlässig. (Diese Aussagen im Detail s. Kap.8).

Zur Erinnerung: Der  geplante riesenhafte Ausbau des Stromnetzes ist nur eine Folge der Fehlentscheidung, die Windkraft ebenso wie die Photovoltaik so lange übermäßig durch Subventionen zu fördern, bis deren gewaltige Schwankungen und ihr unvorhersehbar auftretender Überschuss zu einer Bedrohung der Netzstabilität wurde. Ohne diese Fehlentscheidung und ohne die Abschaltung der 8 Kernkraftwerke hätte das Netz weiterhin völlig ausgereicht.

Wenn unsere Nachbarländer dem Beispiel Polens, das keinen grünen Spitzenstrom mehr hereinlassen will, folgen sollten, bricht das deutsche Stromnetz durch die selbst verschuldeten Störungen, die dann nicht mehr exportiert werden können, möglicherweise bei jedem Sturmtief zusammen. (Siehe Kap. 16 „Energiewende bedroht die Nachbarländer.“)

Doch die Geldvernichtung im Namen der Umwelt  geht weiter: Die Regierung subventioniert  Wind- und Solarstrom weiterhin mit dem EEG und bekämpft anschließend mit weiteren Milliarden die eben dadurch verschärften Probleme….

….16. Für Industrie und Bürger wird es immer teurer – die "Energiearmut" wächst

Es ist eine eiserne Regel der Marktwirtschaft, die auch für Ideologen, Weltverbesserer oder Zwangsbeglücker gilt: Verstöße gegen die Prinzipien der Wirtschaftlichkeit werden durch Preiserhöhungen bestraft. Die deutsche Energiepolitik insbesondere der letzten und der gegenwärtigen Regierung führt exakt zu diesem Ergebnis.

Das stärkste Werkzeug zum Umwandeln einer Marktwirtschaft in eine Planwirtschaft  ist seit dem Jahre 2000  das Erneuerbare-Energien-Gesetz (EEG).

Es ist nach wie vor in Kraft.

Der durch das EEG bewirkte Zuwachs an Windkraft-, Photovoltaik- und Biogasanlagen, deren Stromerzeugung von den Netzbetreibern vorrangig angenommen und mit den bekannten hohen Einspeisevergütungen bezahlt werden muss, führt zu beständig steigenden Strompreisen, weil diese Kosten auf die Verbraucher abgewälzt werden dürfen. Alle Preissteigerungen für Mineralöl- und Gaslieferungen werden durch die hohen Steuern noch verstärkt. Deutschlands Energiesteuern und –abgaben zählen bekanntlich zu den höchsten in Europa:

–       Die gesetzlich verursachten Belastungen des Strompreises in Form von Abgaben und Steuern stiegen 2011 auf 46%.

–       Die darin enthaltene, stetig ansteigende EEG-Umlage betrug 2011 3,530 Cent/kWh zusätzlich 0,67 Cent/kWh MWSt und lag damit bereits bei 17% Anteil am Haushaltsstrompreis.

–       Bei Industriebetrieben, die die volle EEG-Umlage entrichten müssen, ist der relative Anteil aufgrund des geringeren Preisniveaus für Industriekunden noch höher: Dieser Anteil am Strompreis liegt 2011 für einen mittelspannungsseitig versorgten Industriebetrieb bei 26% (90).

Eine Umverteilung zu Lasten der privaten Haushalte

Wie ernst diese Situation für die energieintensiven Industrien – Chemie, Papierindustrie, Düngemittelindustrie, Glaswerke, Stahlwerke, Baustoffindustrie, Aluminiumhersteller, Metallverarbeitung –  bereits geworden ist, ist der Regierung bereits durch Wirtschaftsverbände und Gewerkschaften klar gemacht worden.

Der SPIEGEL  brachte vor kurzem unter dem Titel „Ofen aus“ einen sehr  kritischen Bericht über die Wirkung der Energie-Preissteigerungen auf die Unternehmen – mit konkreten Beispielen zu Oettingers Vorhersage (63).

Die Reaktion der Regierung war bezeichnend: Der Staat verzichtet keineswegs auf  seine vielfältigen Steuern und Abgaben auf den Strompreis, die ihn hier dermaßen teuer machen. Er verteilt die Lasten einfach um.

Ein Entlastungs-Instrument dafür ist die o.g. am 28.7.2011 geänderte Verordnung (StromNEV), die unauffällig im Konvoi anderer Energiewende-Gesetze  versteckt und die von der Presse erst nach einem Vierteljahr entdeckt wurde.

In dem für Laien praktisch unlesbaren Juristenchinesisch verbirgt sich im §19 ein Goldesel: Unternehmen mit einem hohen Verbrauch werden fast komplett von den Netzgebühren befreit – und auch noch rückwirkend für das laufende Jahr.

Unternehmen, die mindestens 7000 Stunden jährlich am Stromnetz hängen und mehr als 10 Millionen kWh Strom verbrauchen, müssen gar keine Netzgebühren mehr bezahlen.

Bereits ab einem jährlichen Stromverbrauch von 100.000 kWh sinken die Netzkosten deutlich, so dass Tausende Unternehmen nicht den vollen Preis zahlen müssen.

Die dadurch von den Unternehmen gesparten Netzkosten werden voll auf den Strompreis umgelegt – also von den Verbrauchern bezahlt. Geschätzt wird, daß die Strompreise allein durch diese Netzkostenermäßigung um 0,75 bis 1,0 Cent / kWh steigen könnten. Pro Haushalt mit ca. 4000 kWh Jahresverbrauch wären das bis zu 40 Euro mehr.

Und noch eine zweite Entlastung gab es: „Stromintensive Unternehmen des produzierenden Gewerbes mit einem Jahresstromverbrauch von mehr als 100.000 MWh (Megawatt-Stunden) sowie einem Stromkostenanteil an der Bruttowertschöpfung von mehr als 20 Prozent….gelten als privilegierte Letztverbraucher und müssen grundsätzlich nur eine begrenzte EEG-Umlage in Höhe von 0,05 Cent/kWh auf ihren Stromverbrauch entrichten“ (90).

„Die Industrie zu entlasten und allein die Kleinverbraucher die Zeche zahlen zu lassen, ist eine Dreistigkeit, die bisher ohne Beispiel ist,“ zitierte die „Frankfurter Rundschau“  Verbraucherschützer Holger Krawinkel.

Aber das ist das durchgängige Prinzip bei der Energiewende. Sie beruht schließlich ganz wesentlich auf der Schröpfung der Bürger durch ihre Zwangsbeglückung mit zu teurer Energie. Mit dieser fortgesetzten Umverteilung zu Lasten der kleinen Leute  dürften die Warnungen des Energiekommissars vor dem Ende des  sozialen Friedens  Wirklichkeit werden.

Auf die Bürger kommen  aber noch eine Reihe neuer Kosten zu:

 ■ Die Folgen des Erneuerbare-Energien-Gesetzes.

Die folgenden Angaben stammen aus der Veröffentlichung vom 15.10.2010 der 4 Übertragungsnetz-Betreiber (ÜNB), die per Gesetz verpflichtet sind, jeweils am 15.10. eines Kalenderjahres die EEG-Umlage – das sind die durch das EEG verursachten Mehrkosten, die den Endverbrauchern aufgebürdet werden – für das folgende Jahr zu ermitteln:

„Die ÜNB haben…auf Basis von Prognosen unabhängiger Gutachter für 2011 eine EEG-Einspeisevergütung in Höhe von 16,7 Mrd. € ermittelt. (Anm.: Davon gehen unglaubliche 8,38 Mrd. € an die Photovoltaik-Betreiber, die aber nur klägliche 1,9% der deutschen Stromerzeugung beisteuern.)

Der prognostizierte Gegenwert des eingespeisten Stroms liegt bei 4,7 Mrd. €.

Zusätzlicher Differenzbetrag (aus 3 Quartalen von 2010): 1,1 Mrd. €.

Insgesamt werden somit rund 13 Mrd. € über die EEG-Umlage refinanziert.“

Dies ist die Summe, die die Endverbraucher zusätzlich für den grünen Strom aufzubringen haben.

 „Wie die 4 ÜNB mitteilen, bedeutet dies im Jahre 2011 eine Belastung von

3,530 Cent pro kWh.

Für das Jahr 2010 betrug die EEG-Umlage 2,047 Cent pro kWh.“

Das ist eine Steigerung von 73% in nur einem Jahr.

Das bedeutet für einen Haushalt mit einem Jahresverbrauch von 2500 kWh:

  • 88 € Mehrkosten durch das EEG im Jahre 2011
  • gegenüber 51 € im Jahre 2010.

Wesentlich interessanter ist aber die Vorhersage für 2012:

Die Bundeskanzlerin hatte noch im Sommer 2011 erklärt: „Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen. Heute liegt sie bei etwa 3,5 Cent / kWh.“ Umweltminister Röttgen versprach das Gleiche.

Für 2012 hatte die Bundesnetzagentur anschließend angekündigt, dass die EEG-Umlage bei 3,6 Cent / kWh liegen werde.

Nun zeigt die neue Prognose der Netzbetreiber vom 15.10.2011 für das Jahr 2012, „dass die Bandbreite der Ökostrom-Umlage zwischen 3,66 und 4,74 Cent / kWh liegen wird.“

Auch die Deutsche Energie-Agentur Dena widersprach Anfang Dezember: „Es wird nicht gelingen, die EEG-Umlage auf etwa 3,5 Cent pro Kilowattstunde zu begrenzen,“ sagte Dena-Chef Stephan Kohler der „Frankfurter Rundschau“.

Laut Kohler ergeben Dena-Berechnungen, dass die Umlage 2013 bereits knapp unter 4 Cent und 2020 bei 5 bis 5,5 Cent liegen wird. Für einen 3-Personen-Haushalt bedeutet das ca. 210 Euro Mehrkosten.

Im Januar 2012 lagen der Strompreis um 3 % und der Gaspreis mit 6,7 % über dem Preis des Vorjahres, wie das Statistische Bundesamt mitteilte.

■  Die  Mieter trifft die Energiewende doppelt:

 Das Gesetz zur Energieeinsparung in Gebäuden hat sich zu einer ernsten finanziellen Bedrohung für die Mieter entwickelt. Denn zu den ständig steigenden Stromkosten kommt im Falle einer Energiesanierung eines Miethauses eine kräftige Mieterhöhung hinzu. „Mieter zahlen für die Energiewende drauf“, sagte Mieterbundchef Bernhard von Grünberg dem Bonner Generalanzeiger.

Nach geltendem Recht können Vermieter elf Prozent der Modernisierungskosten auf die Jahresmiete aufschlagen. Im Schnitt steigt die Miete nach einer Energiesanierung um 2,40 € pro qm, die Energieersparnis aber beträgt nur 50 Cent. „Die Miete steigt real um 1,90 € pro Quadratmeter,“ rechnet Grünberg vor.

Der NRW-Mieterbund lehnt den Kabinettsentwurf der Mietrechtsreform des Bundes mit der weiterhin enthaltenen 11-Prozent-Kostenumlage auf die Mieten ab.

Die Wohnungsgesellschaft LEG hat in Ratingen festgestellt, dass viele Rentner wegen der gestiegenen Heizkosten ihre Heizung nicht mehr einschalten.

Inzwischen wird die Forderung nach Sozialtarifen für einkommensschwache Verbraucher erhoben und von der Politik – noch – abgelehnt.

■ Weitere Strompreiserhöhungen drohen durch die  2011 beschlossenen Energiewende-Pläne sowie durch die Umsetzung einiger bereits 2010 eingeleiteter Vorhaben :

·      Die Abschaltung von 8 Kernkraftwerken entzog dem europäischen Stromverbund schlagartig 9000 MW Grundlast. Der Strompreis stieg sofort an der Börse. Schätzungen belaufen sich auf +20% – und nicht nur für Deutschland. Die Netzbetreiber – s.o. – konnten das bei ihrer Prognose vom Oktober 2010 noch nicht einbeziehen.

·      Eine große Zahl von energieintensiven Unternehmen hat – unbemerkt bei der Verkündung der Energiewende – von der Regierung eine weitgehende Befreiung von den Netzentgelten zugestanden erhalten. Mit der Überwälzung der dort eingesparten Kosten wieder auf die Endverbraucher. Auch das kommt noch hinzu.

·      Falls der riesenhafte geplante Ausbau des Höchstspannungsnetzes tatsächlich in Gang kommt – vieles spricht dagegen – dann werden alle damit verbundenen Kosten auf den Strompreis draufgepackt.

·      Der Ausbau von Windkraft – speziell die teure Offshore-Windkraft – und von Photovoltaik und Biogaserzeugung geht unvermindert weiter. Nur bei der Photovoltaik voraussichtlich langsamer, aber wegen ihrer hohen Kosten weiterhin preistreibend. Damit steigt die EEG-Umlage weiter.

·      Es ist zu erwarten, dass die Regierung in Anbetracht der Unwilligkeit der Kraftwerksbetreiber, neue Gaskraftwerke zu bauen, dies mit Steuergeldern und Steuerermäßigungen anregt, da sich Gaskraftwerke als einzige fossile Kraftwerke der Sympathie der Regierung erfreuen. Leider ist der von ihnen erzeugte Strom wegen der hohen Gaspreise sehr teuer. Dann zahlen die Bürger wieder mehr.

·      Falls es der Regierung wider Erwarten gelingen sollte, Zugang zu norwegischen Wasserkraftwerken als Speicher für Überschuss-Windstrom zu erlangen, wird Windstrom teurer. Dann steigt die EEG-Umlage.

·      Es ist zu befürchten, dass die weiter zunehmende und in der Fläche verteilte Photovoltaik die bereits sichtbaren Netzprobleme in der regionalen Mittelspannungs-Ebene derart verschärft, dass zusätzlich zu den ohnehin geplanten 3000 oder 4400 km Hochspannungstrassen noch ein starker Ausbau der regionalen Stromleitungen nötig wird. Diese Netze sind nicht auf viele Einspeiser ausgelegt, die Sonnenlicht-abhängig je nach Wetterlage kurzfristig extreme Leistungsspitzen erzeugen können. Die Verbraucher werden das dann ebenfalls zu bezahlen haben.

·      Weil sich lt. BDEW wegen der Außerbetriebnahme älterer fossiler Kraftwerke und der geringen Neubau-Aktivität bis zum Jahr 2030 eine Erzeugungslücke von ca. 33.000 MW auftun wird, wird dort über „neue Mechanismen und ein anderes Marktdesign für die Strompreisfindung“ diskutiert. Eine Option seien „Kapazitätsmechanismen“. Im Klartext: Mit einer zusätzlichen Vergütung sollen Investitionen für die „Vorhaltung von Erzeugungsleistung“ – also den Bau von dann zumeist stillstehenden Kraftwerken, die bei Engpässen einspringen können – angeregt werden. Diese Investitionen unterbleiben heute logischerweise wegen der durch das EEG verursachten zunehmenden wirtschaftlichen Unattraktivität von Kraftwerksneubauten (6).

      In dieselbe Kerbe schlägt die Bundesnetzagentur (9):

      Weil in Süddeutschland, das bereits besonders hart von der Abschaltung von

      Kernkraftwerken betroffen ist,  künftig (bis 2022) sogar mehr Kraftwerke außer

      Betrieb gehen werden, als neue auch nur geplant sind, wird vorgeschlagen, „über

      Allokationsanreize (= vornehme Bezeichnung für Subventionen) für den Neubau

      von Kraftwerksleistung nachzudenken.“

·      Der BDEW scheint auch  in Anbetracht der von ihm  erwarteten Unrentabilität von Kraftwerksneubauten – sie würden zu 40% der Zeit still stehen – die Hoffnung auf ausreichend Neubauten zur Netzstabilisierung aufgegeben zu haben (6): Es schlägt deshalb vor, die am Ende ihrer im Durchschnitt 40-jährigen Lebensdauer stillzulegenden Altkraftwerke unbedingt weiter zu betreiben – natürlich mit umfangreichen Reparaturen, Nachrüstungen und Modernisierungen. Dies könnte „bei entsprechenden ökonomischen Rahmenbedingungen“ – also Subventionen – „einen substanziellen Beitrag zur Deckung des Bedarfs an Kraftwerkskapazität liefern“.  Wer das dann bezahlen darf, ist klar.

·      Eine deutliche Warnung vor den dramatischen Folgen des steigenden Strompreises für Deutschland gab es mehrfach im Jahre 2011 von EU-Energiekommissar Günther Oettinger. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort,  sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne. "Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird“, sagte Oettinger. Deutschland zähle weltweit zu der Spitzengruppe bei den Strompreisen.

·      Weil der Offshore-Windpark-Netzanbinder in Schwierigkeiten geraten ist, ertönt auch aus dieser Richtung der Ruf nach noch mehr Staatsgeld: Der in Finanzierungsproblemen steckende Netzbetreiber Tennet, der gesetzlich zum Anschluss aller Windräder in der Nordsee verpflichtet ist, hatte eine Idee: In einem Brief an den Bundeswirtschaftsminister schlug er vor, dass es „vor weiteren Aufträgen für den Anschluss von Offshore-Windparks bei der Haftung neue Regelungen geben müsse“. Denn: „Wo Versicherungen nicht mehr einsprängen, müsse eine „Sozialisierung der Schäden“ (!) ermöglicht werden“ (85). Treffender kann man es nicht ausdrücken.

Auch der Energiekonzern E.on, der unter Verweis auf die Verzögerungen durch Tennet dramatisch „Deutschland vor Scheitern der Windkraft“ warnte (86), kritisierte, dass „die finanziellen Anreize für die Netzbetreiber  unzureichend“ seien. Die Regulierungsbehörde müsste daher Investitionen „höher vergüten“.

·      Die Errichter von Offshore-Windparks haben ebenfalls bereits schmerzliche Erfahrungen mit großen Kostensteigerungen und Verzögerungen gemacht. Der Anlagenbauer Bard aus Emden, der den bisher größten Windpark in der Nordsee vor Borkum errichtet, ist in Finanzierungsschwierigkeiten geraten. Sollten derartige Kostensteigerungen  den Unternehmen untragbar erscheinen, genügt vermutlich die Ankündigung, den Bau der Windparks einzustellen, um zusätzliche Steuermittel locker zu machen (87).

·      Die Offshore-Windkraft  bringt auch neue Förderungskandidaten hervor: Birger Nicolai schrieb im Dezember 2011: „Das Rennen um öffentliche Gelder droht aus dem Ruder zu laufen: Selbst Häfen wollen sich den Umbau ihrer Kaianlagen vom Staat bezahlen lassen“ (87).

Energiearmut droht

Der scharfe Preisanstieg für Strom und Gas hat nun zu ernsten Zahlungsschwierigkeiten für mehr und mehr Verbraucher geführt – bis hin zu dunklen Wohnungen. Bereits heute können Hunderttausende Haushalte in Deutschland ihre Energierechnungen nicht mehr bezahlen, wie die WELT am 22.2 2012 berichtete 82).

Wegen unbezahlter Rechnungen sei schätzungsweise 600.000 Haushalten 2010 die Energieversorgung abgeschaltet worden, teilte die Düsseldorfer Verbraucherzentrale NRW mit. Diese Schätzung wurde auf Grund einer Umfrage bei 58 Unternehmen der lokalen Energieversorger im größten Bundesland, von denen drei Viertel antworteten, ermittelt.

"Preisanstiege von rund 15 Prozent für Strom und Gas in den vergangenen zwei Jahren machen Energie für viele Haushalte unbezahlbar", sagte Verbraucherzentrale-Chef Klaus Müller. Die steigende Energie-Armut sei alarmierend. Im Jahre 2010 hatten die befragten Unternehmen allein in NRW drei Millionen Mahnungen wegen unbezahlter Stromrechnungen versandt. Sie drohten

340.000 Stromabschaltungen an  und schalteten 62.000 Haushalten den Strom ab.

Nach Hochrechnungen von Verbraucherschutzgruppen wurde allein in NRW ca. 120.000 Haushalten und bundesweit 600.000 Haushalten die Energie abgeschaltet.

Eine Sprecherin der NRW-Verbraucherzentrale fügte hinzu, dass sich ihre Verbraucherberatung zunehmend auf die Frage konzentriert, wie Verbraucher mit Zahlungsverpflichtungen gegenüber ihren Energieversorgern zurechtkommen können.

Oettingers Prognose bezüglich sozialer Spannungen könnte Wirklichkeit werden, allerdings muss die Zahl der Haushalte ohne Strom erst die politisch wirksame Millionengrenze übersteigen.

Die notwendige Reaktion der Politik auf die beschriebenen Probleme, die durch die seit Jahren systematisch betriebene  Verteuerung der Energie mit ihren  zerstörerische Wirkungen verursacht wurden, wäre eine Rückführung der Energiesteuern und -abgaben auf die Größenordnung, die auch unsere Konkurrenten haben.

Das wäre allerdings nicht der deutsche Weg. Wie man bereits bei der Befreiung der energieintensiven Industrie von den Netzkosten gesehen hat, die nur auf die Verbraucher umverteilt wurden, wird man auch das Problem der wachsenden Energiearmut nicht durch eine kräftige Senkung der hohen Energiesteuern und             -Abgaben lösen. Man wird vielmehr wie bereits bei Hartz-IV–Empfängern Energiekostenzuschüsse erfinden und sie an die von der Energiearmut Bedrohten über die Sozialämter verteilen. Das hat für den reglementierenden Bürokratenstaat den Vorteil, dass Bürger zu Bitt- und Antragsstellern und damit in ihrem vermutlich nicht klimagerechten Energieverbrauch kontrollierbar werden, anstatt ihnen ihr Geld zur eigenmächtigen Verfügung zu belassen.

Die im Kapitel 12 „Die Energie-Planwirtschaft ist Realität“ aufgelisteten staatlichen Eingriffe in den Energiesektor sind ausnahmslos preistreibend, weil gegen den freien Markt gerichtet und stellen deshalb zugleich eine Auflistung der vielen Komponenten dar, die den Bürgern eine nicht enden wollende Kette von Strompreiserhöhungen bescheren werden.

Alle  in  den obigen Ausführungen beschriebenen, den Strompreis kräftig in die Höhe treibenden Handlungen der Regierung werden aber voraussichtlich von einem Ereignis in den Schatten gestellt, das am 1.1.2013 eintritt.

An diesem Tag beginnt die Versteigerung der Emissionszertifikate, die der Industrie bislang zugeteilt wurden. Nach einer Schätzung des Energiefachmanns Dr. Alfred Richmann, Meckenheim, wird  der Strompreis „über Nacht“ um ca. 50% steigen.

Dass diese Zertifikate die Emissionen in der EU um keine einzige Tonne reduzieren können, weil sie nur für die Umverteilung von Emissionen zwischen Ländern und Industrien sorgen, wie schon mehrfach aber erfolglos von Fachleuten bekräftigt wurde,  ist nur eine weitere Absurdität in der Energie- und „Klimaschutz“-Politik der EU – und natürlich auch Deutschlands….

….19. Schäden und Kollateralschäden

Die „aktuelle“ Energiepolitik (Zitat BMU – (91)) besteht aus sechs grundsätzlichen Fehlern, vier Sekundärfehlern sowie einer immer länger werdenden Reihe von weiteren potenziellen Kollateralschäden, mit denen die Schadwirkungen der Grundsatzfehler repariert werden sollen. Wobei diese „Reparaturmaßnahmen“ niemals den Grundübeln zu Leibe rücken, sondern im Gegenteil stets so eingerichtet werden, dass die gefährlich gewordenen primären Schadwirkungen durch neue kostspielige Investitionen, Subventionen und Kostenüberwälzungen auf die Verbraucher zugekleistert werden – womit sie selbst zu neuen Schädigungen von Bürgern und Wirtschaft führen.

Das Prinzip ist: Alte Fehler weiterbestehen lassen, neue Fehler einführen, um die dahinter stehende planwirtschaftliche Ideologie zu schützen.

Die Grundsatz-Fehler sind (siehe auch Kap. 2):

1.    Die Fokussierung des EEG auf die Stromerzeugung. Das ignorierte den Sektor  

      Wärmeversorgung sowohl bezüglich der dort umgesetzten Energiemengen als

auch bezüglich der Importabhängigkeit der dort eingesetzten, überwiegend

  fossilen Energieträger.

2.    Das verfolgte Ziel, bei der Stromerzeugung von fossilen Energieträgern wegzukommen, wurde mit einer falschen Förderungspolitik angegangen: Man wählte bestimmte Techniken dafür aus, anstatt Einsparziele für die Energieträger vorzugeben und die Wahl der dafür geeigneten Techniken bzw. deren Weiterentwicklung dem industriellen Wettbewerb zu überlassen.

3.    Es wurde zwar ein riesiger Ausbau von Wind- und Solarstrom vorangetrieben,  aber dabei wurden die zum Ausgleich von deren großen Leistungsschwankungen notwendigen Stromspeicher schlicht ausgeblendet; möglicherweise sogar vergessen. Die wenigen Pumpspeicherkraftwerke reichen bei weitem nicht aus. Jetzt  hat man das Speicherproblem erkannt, aber gleichzeitig  feststellen müssen,  dass es selbst mittelfristig keinen Weg zur Ausrüstung des Netzes mit ausreichender Speicherkapazität gibt.

4.    Das EEG hatte von Anfang an planwirtschaftliche Tendenzen, die sich mit den extrem zunehmenden Subventionen für die ausgewählten „Erneuerbaren“ zur Umwandlung des ehemals marktwirtschaftlich ausgerichteten Energiesektors in einen von Planwirtschaft gefesselten Sektor auswuchsen.

5.    Der Ausstieg aus der Nutzung der Kernkraft – ohne jegliche sicherheitstechnischen Argumente, auch ohne Rücksicht auf die wirtschaftlichen Auswirkungen, sondern nur als eine Maßnahme zur Besetzung und Entkräftung eines  Themenfeldes der politischen Gegner.

6.    Bereits die älteren Ansätze für den Umbau der deutschen Stromversorgung wurden als nationaler Alleingang verfolgt. Den durch ein Verbundnetz mit Deutschland in der Stromversorgung eng verbundenen Nachbarländern wurde nur das großartige deutsche Vorbild vorgeführt – von der nötigen Kooperation war nichts zu sehen. Diese Haltung erreichte ihren extremen Höhepunkt mit der ohne jegliche Vorwarnung oder gar Konsultation durchgeführten Abschaltung von 7+1 Kernkraftwerken, was schlagartig dem europäischen Stromverbund 8.400 MW an Grundlaststrom entzog. Diese Rücksichtslosigkeit und Arroganz hat in den Nachbarländern große Verstimmung ausgelöst. Dies wird sich nun rächen, wenn Deutschland weiterhin versucht, seine steigenden, unberechenbaren Wind- und Solarstrom-Überschüsse in die Nachbarnetze zu exportieren – siehe Sekundärfehler Nr.13.

Die Sekundärfehler:

7.    Die Grundsatzfehler Nr.1 bis 4 sorgten für einen enormen Ausbau der Windkraft, der logischerweise in Norddeutschland und damit fern von den industriellen Verbrauchszentren im Süden von statten ging. Das bestehende Übertragungsnetz ist nicht für diesen zusätzlichen Stromtransport ausgelegt. Ein riesiger, teurer Ausbau des Höchstspannungs-Übertragungsnetzes wird deshalb geplant.

8.    Bei den Ausbauplänen für das Höchstspannungsnetz  vergaß die Regierung, dass die ebenfalls riesenhaft ausgebaute regional verteilte und deshalb in die Verteilungsnetze einspeisende Photovoltaik sowie die landgestützte Windkraft und die Biostromeinspeisung auch diese Netze überlastet – weshalb man nun auch an deren Ausbau herangehen muss. Der Teil des Verteilungsnetzes, das auszubauenden wäre, ist  70-mal länger als der auszubauende Teil des Höchstspannungsnetzes (s. Kap. 10).

9.    Die grenzwertige aber notwendige Belastung des Übertragungsnetzes  machte Teilstilllegungen unmöglich und behinderte so  notwendige Reparatur- als auch die Ausbaumaßnahmen des Netzes, die eigentlich das Problem Nr. 7 lindern sollten. Damit behindern die Grundsatzfehler sogar teure Maßnahmen zur Verbesserung der durch sie erst geschaffenen ernsten Situation (10).

10. Die Grundsatzfehler Nr. 1 und 2 führten wegen der deutlich höheren bis extremen (PV) Stromgestehungskosten der „Erneuerbaren“ und deren Einspeisungszwang unweigerlich zu stetig ansteigenden Strompreisen. Man erkannte die Bedrohung der energieintensiven Industrie – und entlastete einfach diese Industrie durch Überwälzung von Strom- und Netzkosten auf die privaten Verbraucher, anstatt die außerordentlich hohen staatlichen Steuern und Abgaben auf die Energie zu senken. Eine Folge: Energiearmut – s. Nr. 18.

Die folgenden Kollateralschäden der Energiewende sind noch nicht eingetreten, jedoch  wahrscheinlich und nach der bislang verfolgten Logik des Regierungshandelns werden sie begangen:

11. Der Kernkraftausstieg (Fehler Nr.5) verknappte schlagartig das Grundlast-Stromangebot. Damit  wurde sowohl der Weiterbetrieb von stillzulegenden alten Kohlekraftwerken als auch deren Neubau sehr wichtig. Für beide Maßnahmen fehlt jedoch das Interesse von Investoren, weil sie durch den Vorrang des EEG-bevorzugten Wind- und Solarstroms bis zu 40 % der Zeit stillstehen und deshalb unwirtschaftlich sind. Deshalb werden bereits jetzt finanzielle Anreize (Subventionen, Investitionszuschüsse, Strompreiserhöhungen etc.) gefordert, damit diese Investitionen überhaupt erfolgen (siehe Kap. 9).

12. Eine Variante von Fehler Nr. 5 und dessen Folge Nr.10 stellen Subventionen bzw. finanzielle Hilfen für das „Vorhalten von Erzeugungsleistung“ dar, die in offiziellen Gutachten für die Sanierung und den Weiterbetrieb alter, unrentabler Kohlekraftwerke gefordert werden (Kap.9).

13. Die nicht ausreichenden Nord-Süd-Höchstspannungstrassen haben dazu geführt, dass überschüssiger Windstrom, der nach Süddeutschland transportiert werden soll, nun über Polen und Tschechien geleitet wird – wo er beträchtliche Netzprobleme verursacht. Die Drohung aus Polen, diese Durchleitung zu unterbinden, hat in Berlin große Sorge und einen dringenden Gesprächsbedarf mit den Nachbarn, die man zuvor nicht gefragt hatte,  ausgelöst. Das wird teuer enden, weil unsere Nachbarn nicht das geringste Interesse daran haben, die selbst verursachten deutschen Probleme gratis  zu lösen. Deshalb wird man die Windstromerzeugung nicht etwa drosseln, sondern – alter Fehler führt zu neuem Fehler – das Problem durch Zahlungen behandeln.

14. Das nicht begriffene Speicherproblem – siehe Grundsatzfehler Nr.3 – lockt nun neue  Interessenten an staatlichen Beihilfen hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein  EEG-ähnliches Gesetz auch für Energiespeicher  mit Anschlusszwang und Vergütung gefordert. Auch Investitionszuschüsse seien geeignet.

15. Der Netzbetreiber Tennet, der die Offshore-Windparks anschließen soll und erhebliche finanzielle Probleme hat, forderte vor kurzem „neue Regelungen“ bei der Haftung für den Anschluss von Offshore-Windparks. Es müsse „eine Sozialisierung der Schäden“ geben (wörtliches Zitat).

16. Ost- und Nordseehäfen, die ihre Kaianlagen für den Bau und den Anschluss von Offshore-Windparks aus- bzw. umbauen sollen, wollen sich das vom Steuerzahler bezahlen lassen.

17. Die Betreiber von Photovoltaikanlagen leiden unter der strikten Regelung der Netzbetreiber, keine Frequenzerhöhung über 50,2 Hertz zu tolerieren, was bei zu starker Einspeisung passieren kann. Abhilfe können elektronische Zusatzgeräte an den PV-Anlagen schaffen. Sie müssten bezahlt werden. Von wem wohl ?

18. Wenn die sog. Energiearmut wegen nicht mehr verkraftbarer Energiepreise zunimmt, wird es vermutlich Energiekostenzuschüsse auf Antrag geben. Finanzierung dann über die Steuern oder wieder über die Strompreise.

Dies ist eine nach unten offene Liste, die sich noch verlängern dürfte. Interessant sind die Fehler-Rückkopplungseffekte, bei denen selbst die verzweifelten  Reparaturversuche der Fehler und ihrer dazu gehörenden Schäden wiederum durch die Eigenschaften des Originalfehlers  behindert werden – siehe Fehler Nr. 9. Für hochkomplexe technische Systeme, wie es ein nationales Stromversorgungsnetz mit seinen angeschlossenen Erzeugern darstellt, sind derartige Kombinations- und Akkumulationseffekte von Problemen der Normalfall. Unnormal ist einzig der Versuch von Bürokraten, diesen Herausforderungen mit Gesetzesnovellierungen und Paragraphen Herr zu werden.

Bezeichnend auch die Taktik, unerträglich werdende Kosten für die Wirtschaft auf die privaten  Energieverbraucher abzuwälzen – was entsprechend dem bereits begangenen Fehler Nr.10 auch für alle  anstehenden Fehler Nr.11 bis 17 möglich ist.

Die Regierung ist offenbar  entschlossen, an der grundlegenden Fehlentscheidung, die mit dem Erneuerbaren Energie-Gesetz getroffen wurde, um jeden Preis festzuhalten. Als Konsequenz dieser Haltung sind ständig weitere neue Reparatur-Fehlentscheidungen erforderlich, um die unübersehbaren Engpässe und Schäden vorübergehend zuzudecken. Im Ergebnis muss in Deutschland das gesamte System der Stromerzeugung doppelt errichtet werden: Riesige Investitionen in unzuverlässige und teure Wind- und Solarstromanlagen – und dann noch einmal die nahezu gleiche Investition in teilweise stillstehende Kohle- und Gaskraftwerke. Hinzu kommt  ein enormer Ausbau der Übertragungs- und auch der Verteilungsnetze sowie teure Stromspeicher als Ausgleichs- und Reservekapazität für den unberechenbaren und damit mittlerweile wegen seiner enormen Leistung  auch gefährlichen Wind- und Solarstrom. Ferner Ärger mit den Nachbarländern, die durch die deutsche Energiewende geschädigt werden.

Der doppelte Ausbau der deutschen Stromerzeugung ist inzwischen eine scheinbar auch von der Wirtschaft nicht mehr in Frage gestellte Strategie, was kürzlich zur folgenden trockenen Feststellung des Stromhandelsexperten Christian Hewicker des Beratungsunternehmens Kema führte: „ Für erneuerbare Energien ist ein konventionelles back-up mit fast der gleichen Leistung notwendig.“

Was es für die Wettbewerbsfähigkeit und die Arbeitsplätze bedeutet, wenn Deutschland als einziges Land der Welt  seine Stromerzeugung in der Kapazität doppelt, dabei aber in den Kosten sogar mehr als doppelt so teuer ausbaut, kann man sich unschwer vorstellen. Günther Oettinger hat die Konsequenzen bereits genannt.

20 . Wie geht es weiter ?

Die Feststellung, dass buchstäblich alle in den Energiewende-Gesetzen angestrebten Ziele nicht erreichbar sind, bedeutet, dass dieser energiepolitische Kurswechsel bereits jetzt gescheitert ist. In keinem der für die sichere Stromversorgung relevanten Themenfelder bestehen auch nur geringe Erfolgschancen für die Zielerreichung.

Das erklärt das vernichtende Urteil der internationalen Experten, die unbeeinflusst von deutschen Fördermitteln und unbeeindruckt von deutscher Medienpropaganda allein auf der Grundlage ihres Sachverstandes und ihrer Erfahrung ihr Urteil fällten.

Die Frage der Kapitelüberschrift ist leider nicht zu beantworten. Die deutsche Energiepolitik ist dermaßen erratisch, von Tagespolitik bestimmt  und deshalb auch für unsere Nachbarländer unberechenbar und  verantwortungslos geworden, dass jegliche Prognosen, die sich altmodisch auf das Fortschreiben notwendiger, sinnvoller und realistischer Entwicklungen abstützen, unmöglich sind.

Für die Deutschen und ihre Nachbarn sind das keine schönen Aussichten.

Die folgende  Prognose ist jedoch zwingend: Die im Energiesektor ausufernde, die Wirtschaft schwer schädigende  Plan-Misswirtschaft wird nach einigen Jahren  spektakulär scheitern, weil ihre wirtschaftlichen und sozialen Kosten untragbar geworden sind. Die offene Frage ist nur, wie viele Milliarden Euro erst vernichtet werden müssen und wie stark die Arbeitslosigkeit erst steigen muss, bis eine neue Energiepolitik (eine neue Energiewende ?) den Scherbenhaufen zusammenkehrt.

Ein amerikanischer Präsident hat einmal den dauerhaft gültigen Satz gesagt:   

„It´s the economy, stupid !“ Es ist die Wirtschaft, Dummkopf.

Und Professor Helmut Alt von der FH Aachen hat die finale Auswirkung der deutschen Energiepolitik in einem Satz zusammengefasst:

„Die deutsche Politik hat Energie zum Luxusgut erklärt. Die Ärmsten werden es zuerst zu spüren bekommen, aber die haben keine Lobby.“

Dr. Günter keil im April 2012

Sie können den gesamten Beitrag im Anhang (als pdf herunterladbar) finden. Obwohl keine leichte Kost, es lohnt sich!

Related Files




Überdenken der Peak Oil These: Die wirklichen Herausforderungen sind Investition und Nachhaltigkeit, nicht Verfügbarkeit

Bild rechts © Peakoil.com:  Es scheint, als ob die Intensität der Debatte um Peak Oil, obwohl sie niemals ganz verschwindet, mit dem Niveau der Ölpreise korreliert ist.

Hinweis der Redaktion:

Allein im "Green River Formation" Vorkommen (> 3 Billonen Barrel) in den USA steckt mehr Öl, als die derzeitigen gesicherten Weltölreserven ausmachen. "200 Year Supply Of Oil In One Single Shale Formation" Details dazu hier-. In Deutschland allerdings verboten (hier). 

Wieder und immer wieder taucht eine Frage bei der Energiedebatte auf: „Wann wird das Öl alle?“ oder „wann ist Peak Oil erreicht?“ Implizit schwingt hier die Angst mit, dass uns nach diesem kritischen Moment eine Katastrophe ohnegleichen bevorsteht. Nach einigem Zögern wegen der hoch emotionalen Natur vieler Diskussionen über Peak Oil habe ich mich entschlossen, die Herausforderung anzunehmen und meine Ansichten in einer Präsentation vorzustellen, und zwar auf einer gemeinsamen Sitzung mit dem CEO [= dem leitenden Direktor] bei Total, Christophe de Margerie, auf dem jüngsten Welt-Erdöl-Kongress in Doha im Dezember 2011. Diese Präsentation liegt diesem Artikel zugrunde.

Höhepunkte in der Debatte

Bevor ich meine Schlüsselpunkte darlege, möchte ich einige der vorherrschenden Beobachtungen zum Thema Peak Oil beschreiben, die mir aufgefallen sind. Zunächst scheint es, als ob die Intensität der Debatte um Peak Oil, obwohl sie niemals ganz verschwindet, mit dem Niveau der Ölpreise korreliert ist. Sie erreichte ihren jüngsten Höhepunkt, als die Ölpreise in der ersten Hälfte des Jahres 2008 sehr hoch lagen und weiter stiegen, in jenem infamen ‚annus horribilis’ [= lat. Schreckliches Jahr] exzessiver Ölpreisschwankungen. Wagenladungen voller Artikel erschienen mit der Aussage, dass der Welt dieses Mal das Öl ausgehen wird; dass die Preise bald 200 Dollar oder mehr betragen würden, usw. Heute ist die Intensität der Debatte geringer, kocht aber bei fast jeder Energiekonferenz wieder hoch.

Zweitens, historisch lässt sich kaum bestreiten, dass die Vorhersage des Höhepunktes der Ölproduktion seit dem Beginn des Ölzeitalters in den fünfziger Jahren des 19. Jahrhunderts ein stets wiederkehrendes Thema ist, worauf Daniel Yergin und andere hingewiesen haben. Analysten konnten in den Jahren 1948, 1956, 1974, den frühen achtziger Jahren sowie 2007/2008 ‚Höhepunkte’ in der Debatte um Peak Oil ausmachen.

Drittens, die Definition dessen, was da seinen Höhepunkt erreicht oder nicht, macht eine Menge aus. Sprechen wir über die Versorgung aus Nicht-OPEC-Staaten, Rohölförderung oder, noch relevanter, flüssige Treibstoffe einschließlich unkonventionellen Öls (Ölsande, Schweröl, Schieferöl), Erdgasflüssigkeiten (Natural Gas Liquids, NGL), Gasverflüssigung (gas-to-liquid, GTL), Biotreibstoffe? Das macht einen gewaltigen Unterschied. Damit oft in Verbindung stehend (explizit oder implizit) ist die Vermutung, dass dem Höhepunkt der globalen Ölproduktion ein schneller und tiefer Rückgang folgt (entsprechend der Form der berühmten Glockenkurve in einem individuellen Gebiet) nebst allen unerwünschten Implikationen. Allerdings ist unklar, warum wir nach Erreichen des Höhepunktes der globalen Ölproduktion nicht auf einem hohen Niveau während der dem Höhepunkt folgenden Dekaden verbleiben können. Die Implikationen für die Energiepolitik sind in diesem Falle drastisch unterschiedlich.

Die Macht der Technologie

Merkwürdigerweise wird die Macht der Technologie vor allem außerhalb der Ölindustrie erheblich unterschätzt. Die globale Ausbeutungsrate beträgt derzeit 35%, und es ist wohlbekannt, dass nur eine Zunahme um 1% der globalen Ausbeutungsrate schon 2 Jahre Extraölverbrauch mit der gegenwärtigen Rate bietet. Wir wissen, dass Kompanien in einigen wichtigen Bereichen eine Rate von 50% oder mehr aus den Reservoirs herausholen, und zwar durch den Gebrauch neuer Technologien wie erweiterter Ölausbeute (enhanced oil Recovery, EOR) und 3D-Seismik (z. B. Statoil auf dem norwegischen Kontinentalschelf, Saudi Aramco in küstennahen Ölfeldern in Saudi-Arabien). Die wichtige Implikation hiervon ist natürlich außer der Entdeckung neuer Ölvorkommen ein gewaltiges Aufwärtspotential in Ausbeutungsraten, da bereits existierende Technologien immer breiter angewendet und neue Technologien entwickelt werden. Wenn der Ölpreis relativ hoch bleibt, gibt es eine sehr starke Motivation, die Ausbeutungsrate zu erhöhen, selbst in gegenwärtigen Reservoirs, in denen die Ausbeutung teuer ist.

Die Macht der Technologie ist auch dann hoch relevant, wenn es um die Entdeckung neuer Quellen geht: Man denke an Tiefwasserbohrungen offshore (z. B. das pre-salt Reservoir [?] in Brasilien), die Arktis, Gas- und Kohleverflüssigung, Ölsande, Schweröl, Schieferöl und festes Öl [tight oil ?] Hinsichtlich der Geographie wird auch regelmäßig übersehen, dass in großen Gebiete des Nahen und mittleren Ostens (selbst in Ländern wie Saudi-Arabien und Irak) sowie in Afrika immer noch weitgehend unentdeckte Vorkommen lagern. Wir bestaunen derzeit die noch nie da gewesene ‚stille’ Schiefergas-Revolution in den USA mit seinen gewaltigen Auswirkungen auf die globalen Gasmärkte – eine Revolution, die sich sehr gut auch nach Asien und eventuell auch Europa ausbreiten kann (vor allem Osteuropa). Unabhängig von der Tatsache, dass die gewaltigen Vorkommen von Schiefergas faszinierende Möglichkeiten bieten, im Transportsektor Anwendung zu finden (und folglich das Öl ersetzen), könnte eine ähnliche Kombination von Technologien wie Fracking und horizontale Bohrungen sehr gut signifikante Vorkommen von Schiefer- und festem Öl erschließen, wie wir es derzeit im Bakken-Feld im US-Bundesstaat Nord-Dakota erleben. Diese Formation allein erzeugt schon mehr als das OPEC-Land Ecuador. Hier könnten wir weitere Überraschungen erleben, was ein Grund dafür ist, dass einige Industriekapitäne von einer ‚Renaissance für Petroleum’ reden. Wie auch immer dem sei, die unbestreitbare Tatsache lautet, dass die Barrieren der Ölförderung durch eindrucksvolle technologische Entwicklungen in der Ölindustrie immer weiter nach hinten verschoben werden. Auf den Punkt gebracht wird von seriösen Experten kaum bestritten, dass die Menschheit bisher etwa 1 Billion Barrel Öl verbraucht hat, dass es jedoch immer noch konventionelle und unkonventionelle Vorkommen möglicherweise in einer Größenordnung von 3 bis 4 Billionen Barrel gibt.

Es gibt jedoch einen wichtigen Vorbehalt. Obwohl Technologien zur Verfügung stehen, die für die Entwicklung immer neuer Vorkommen zur Verfügung stehen, betrifft es in fast allen diesen Fällen technologisch herausfordernde Projekte, dass sie viel teurer in der Ausbeutung sind, um das Öl auf den Markt bringen. Dies ist zunehmend selbst im Nahen Osten der Fall, welches traditionell ein Gebiet billiger Kosten ist. In vielen Projekten mit einer relativ geringen Ausbeute liegt der Preis über 80 Dollar pro Barrel; in der Folge gibt es den oft gehörten Slogan, dass ‚die Zeit billigen Öls vorbei ist’. Es scheint viel Wahrheit in diesem Einzeiler zu stecken, und offensichtlich hat dies langfristig sehr ernste Konsequenzen für die Ölpreise, da die Kosten geringerer Förderung im Verhältnis zur zunehmenden Nachfrage mit der Zeit eine grundlegende Determinante der langzeitlichen Ölpreise ist. Mehr und mehr lesen wir von ‚schwierig’ oder ‚hart’ zu gewinnendem und damit teurem Öl. In vielen Fällen sind die neuen Ölreserven wie Ölsande und Schieferöl auch eine ernste Herausforderung der Umwelt, die kontrolliert und überwunden werden müssen, was die Kosten ebenfalls nach oben treibt.

Endlich, aber massenhaft

Natürlich ist es unbestritten, dass Öl letztendlich eine endliche Ressource ist, die eines Tages alle sein wird. Allerdings scheint dieser Tag noch sehr weit weg zu sein, tatsächlich sogar weiter weg, als wir noch vor 10 oder 20 Jahren gedacht haben. Das US Geological Survey schätzt, dass sich die ausbeutungswürdigen Ressourcen seit den frühen achtziger Jahren beinahe verdoppelt haben, wobei die Zunahme des Ölverbrauchs nur etwa ein Drittel der neu gefundenen Vorkommen ausmacht. Die Zunahme der Ressourcen ist primär eine Folge technologischer Fortschritte, die es uns erlauben, jetzt existierende Ölvorkommen viel effektiver auszubeuten („die Reserven wachsen“), ein Faktor, der in der öffentlichen Diskussion oft ignoriert wird.

Eher öfter als seltener konzentriert sich die Debatte auf das vermeintliche Fehlen neuer Ölfunde im Vergleich zur gegenwärtigen Ölproduktion. Tatsächlich gab es während der letzten Jahre einen signifikanten Anstieg signifikanter neuer Funde, aber das muss man richtig einordnen, indem man die Schlüsselrolle des Zuwachses der sofort ausbeutbaren Reserven anerkennt. Schauen wir in Gestalt seriöser Agenturen auf die derzeitigen Schätzungen der unmittelbar ausbeutbaren Ressourcen, erkennen wir, dass die meisten davon bei oder nahe einem Allzeithoch liegen.

Allerdings hört man in der öffentlichen Diskussion wegen der fehlenden Bestätigung von dritter Seite immer wieder ernste Zweifel an der Stichhaltigkeit dieser Schätzungen. In vielen Ländern werden die Schätzungen über Reserven und Ressourcen aus verständlichen Gründen streng geheim gehalten. Aber diese Tatsache impliziert keineswegs automatisch, dass deshalb die tatsächlichen Reserven niedriger sind als die offiziellen Zahlen. Das ist unlogisch, aber oftmals entweder explizit oder implizit zu hören.

Theoretisch kann man sich genauso viele Anreize ausdenken, die Reserven zu unterschätzen wie sie zu überschätzen. Die Wahrheit ist, dass alle relevanten internationalen Energieorganisationen wie die International Energy Agency (IEA), OPEC, das International Energy Forum (IEF) und die US Energy Information Administration (EIA) darin übereinstimmen, dass es noch viele Jahrzehnte lang gut ausreichende Ölreserven geben werde. Ihre Szenarien implizieren, dass die Ölproduktion bis zum Jahr 2035 ein Niveau von 96 bis 110 Millionen Barrel pro Tag erreichen kann. Präziser, dies bezieht sich auf eine weit gefasste Definition von Öl, einschließlich aller Arten von Flüssigkeiten neben dem Rohöl. Schaut man nur auf das Rohöl, befinden wir uns den meisten Szenarien zufolge bereits global nahe dem Peak der Rohölförderung.

Und was ist nun mit Peak Oil?

Heißt das alles, was oben gesagt wurde, dass wir keinen Peak der Ölversorgung im weitesten Sinne sehen werden? Nein, heißt es nicht. Wir müssen immer noch berücksichtigen, dass Peak Oil irgendwann in der Zukunft eintritt. Dies könnte einerseits infolge von Rückschlägen bei der Suche und der Ausbeutung ausreichender Ressourcen vor dem Hintergrund steigender Ölnachfrage der Fall sein, oder weil unzureichende Investitionen getätigt werden, um die bestehenden Ressourcen zu entwickeln.

„Sollten die Ölpreise weiterhin so hoch bleiben, gibt es einen starken Anreiz, Energie und Treibstoff immer effizienter zu verbrauchen“. © ZeroHedge.com

Die letzte Möglichkeit könnte ein ernster Faktor sein, der die notwendige Steigerung der Ölproduktion behindert, und zwar die sicherlich bisher nicht da gewesene ökonomische und politische Unsicherheit in der Welt. Die IEA schätzt den Investitionsbedarf in Öl bis zum Jahr 2035 mit einer Größenordnung über 10 Billionen Dollar ein. Etwa 75% dieser Investitionen muss schlicht und einfach dafür aufgewendet werden, den Rückgang der Ölförderung aus bestehenden Vorkommen zu kompensieren. Eine Kürzung dieser Ölinvestitionen könnte in Zukunft die Zunahme der Ölproduktion verhindern, wie es im Deferred Investment Case der IEA illustriert wird [etwa: Eine Rechnung, die zeigt, was bei einer Verringerung der Investitionen passiert. A. d. Übers.]

Die Nachfrage könnte vor der Versorgung die Spitze erreichen

Dass die globale Nachfrage nach Öl noch vor der Versorgung ihren Höhepunkt erreichen kann, wurde unter Anderem von John Browne angesprochen, dem früheren geschäftsführenden Direktor von BP und zuletzt von Ali Al-Naimi, dem Ölminister von Saudi-Arabien, und zwar in einer offiziellen Veröffentlichung des World Petroleum Congress’ in Doha im Dezember 2011. Mit den fortwährend hohen Ölpreisen gibt es einen starken Anreiz, treibstoff- und energieeffizienter zu werden und Ersatzstoffe für Öl zu suchen, besonders in den Nicht-Transport-Bereichen. Schon jetzt gibt es Berichte über sinkende Nachfrage bei bestimmten Anwendungen. Setzt sich dieser Trend fort, würde dies einen signifikanten Rückgang der Nachfrage nach Öl bedeuten, besonders in Ländern, in denen die Verbraucher teilweise von den Auswirkungen hoher Ölpreise infolge von Subventionen verschont bleiben. Diese Länder müssten ihre Haushaltsbelastung reduzieren und sich in Richtung der Weltmarktpreise bewegen.

Im Transportsektor lässt sich Öl nur sehr schwer ersetzen, aber selbst dort können hohe Ölpreise zu einer Förderung von Biotreibstoffen, Hybriden, Elektroautos und Erdgasfahrzeugen führen. Gleichzeitig gibt es noch ein gewaltiges Potential für mehr Energieeffizienz, das zum großen Teil in einer Zeit hoher Ölpreise ausgeschöpft wird. Sollte Öl großenteils auf den Transportsektor begrenzt sein und die Energieeffizienz noch erheblich zunehmen, kann es gut sein, dass wir demnächst in eine Situation kommen, in der das globale Ölangebot größer ist als die Nachfrage.

Dringender Bedarf, die öffentliche Sichtweise zu ändern

Die öffentliche Auffassung von Peak Oil in den meisten Gebieten von Europa und den USA ist gefährlich düster und weit entfernt von den faktenbasierten, oben beschriebenen Verhältnissen. Selbst viele hoch gebildete Menschen glauben, dass das Öl drauf und dran ist zu versiegen, wenn nicht gleich, dann doch in einigen Jahrzehnten. Die Fähigkeit der Technologie bei der Verbesserung der Ausbeutungsrate und des Auffindens neuer Ölfelder wird systematisch unterschätzt (‚es ist die Technologie, Dummkopf!’). Dies ist so trotz der eindrucksvollen Entwicklung der gesamten Ölindustrie seit der Entdeckung von Öl.

Teilweise wird die Konfusion jedoch auch durch eine schlampige Analyse oft komplizierter technischer Konzepte verursacht wie das Verhältnis von Reserven und Produktion [the R/P (reserves-to-production) ratio]. Dies wird oft salopp mit den Worten ‚wir haben noch Öl für vierzig Jahre’ beschrieben, ohne dass man dazusagt, dass dies lediglich eine theoretische, auf der völlig unrealistischen Hypothese beruhende Annahme ist, dass nicht ein einziges zusätzliches Barrel Öl entdeckt und den Reserven hinzugefügt wird. Natürlich wissen wir, dass das R/P-Verhältnis seit Jahrzehnten trotz der stetig steigenden globalen Ölnachfrage nicht signifikant zurückgegangen ist, aber den meisten Menschen außerhalb von Industrien ist das nicht klar. Die Ölindustrie muss zusammen mit Akademien und Politikern einen viel besseren Job machen, die Bevölkerung über die realen Fakten des globalen Öls und deren Herausforderungen zu informieren. Bei diesen Herausforderungen geht es weniger um die physische Verfügbarkeit von Öl, sondern darum, ein geeignetes Umfeld zu schaffen, die Märkte zeitnah mit Öl zu versorgen wie früher schon angedeutet, und natürlich um die Herausforderung, den Umweltfußabdruck des Verbrauchs und der Produktion von Öl signifikant zu reduzieren, einschließlich durch CCS. Investitionen und Nachhaltigkeit sind die wirklichen Herausforderungen hinsichtlich des Öls, nicht die Verfügbarkeit.

Noé van Hulst

About the author

Noé van Hulst is Director of the Energy Academy Europe, based in Groningen, The Netherlands. He is former Secretary-General of the International Energy Forum (IEF) and former Director Long-Term Co-operation and Policy Analysis at the International Energy Agency, as well as former Director General Energy at the Ministry of Economic Affairs in the Netherlands.

Das Original ist zuerst in der European Energy Review erschienen: 

Übersetzt von Chris Frey Eike




Club of Rome will Demokratie abschaffen! Panikmacher mit Angst- und Schreckensszenarien.

Doch niemanden interessiert heute, dass …„zusammen mit den Autoren von Jimmy Carters Katastrophenthriller “Global 2000” – seinerzeit Bibel aller Umweltverängstigten – die Mitglieder der so genannten Denkfabrik Club of Rome in den 1970ern den Weltrekord an prophezeiten, freilich niemals eingetretenen Weltuntergängen hielten. Kein Grund für die Nachfolger der glücklosen Doomsayers, die Klappe zu halten!… wie Stern-Autor Wolfgang Röhl so treffend formuliert.

Dazu ist das Geschäftsmodell viel zu lukrativ. Für den Club of Rome, ebenso wie für seine willigen Unterstützer bei vielen NGO`s, in Politk und Medien. Auch und besonders für den Wissenschaftlichen Beirat Umwelt (WBUG) mit seinem Vorsitzenden Schellnhuber der die Blaupause mit der Forderung „nach der großen Transformation“ dazu lieferte. Begeistert aufgenommen von den Bundesministern Schavan und Röttgen.

Jetzt fordert dieser Elitenverein -gegründet auf Anregung des der Watergate-Lüge überführten amerikanischen Präsidenten Richard Nixon als Kommission innerhalb der NATO und von einigen Industriellen, wie dem damaligen Fiat Boss Aurelio Peccei, hochgepäppelt – die komplette Abschaffung der Demokratie im Westen. Natürlich erst nachdem dieser vorher bezahlt hat.

Und kein Aufschrei  geht deswegen durch dieses Land. Nirgends!

So darf dann der norwegische Wirtschaftswissenschaftler Jørgen Randers, Mitverfasser der Studie des Club of Rome  „A Global Forecast for the Next Forty Year“ in einem Interview der WiWo  ungehindert davon schwafeln, dass China die Gefahr des „drohenden Klimakollapses“ wegen seiner „effizienteren“ Regierung besser entgegen treten kann, als westliche (demokratische) Länder. Weil – so die aberwitzige Begründung dieses „Wissenschaftlers“ … In China der Markt dazu da ist, politische Entscheidungen auszuführen, nicht umgekehrt.. 

Dass wir das alles schon mal hatten und derartige Systeme grandios scheiterten, stört diesen Herrn und seine Genossen nicht im Mindesten. Das Opfern von über 160 Millionen Menschen, die Kommunismus und National Sozialismus forderten, neben der Verarmung hunderter von Millionen,  sind nicht der Rede wert.

Dazu passt hervorragend, dass die ehrwürdige britische Royal Society just am 26.4.12 einen Bericht zum Stand des Planeten vorlegte. Der Titel ist People and the Planet“ (Menschen und der Planet). Auf seinen mehr als hundert, vor Pseudowissenschaft strotzenden, Seiten plädieren die Autoren des Berichts für eine Beendigung des Bevölkerungswachstums und eine drastische Senkung des Verbrauchs in den entwickelten und den aufstrebenden Ländern, alles um das zu erreichen, was sie als eine „nachhaltige Zukunft“ bezeichnen.

Und der notorisch bekannte Dr. Paul Ehrlich von der Universität Stanford, durfte die eigentliche Absicht hinter dem Bericht der Royal Society enthüllen, als er um einen Kommentar zu dem Bericht gebeten wurde. Er lobte die Schrift, und forderte unter der verbrämenden Bezeichnung „Schrumpfung der Bevölkerung“ erneut einen Massenmord, denn er sagte dem Guardian am 26. April:

„Wieviel Menschen man versorgen kann, hängt vom Lebensstil ab. Wir kamen auf etwa 1,5 bis 2 Milliarden, weil man dann aktive Großstädte und Wildnis haben kann. Wenn man eine Legehennen-Welt möchte, in der jeder nur ein Minimum an Raum und Nahrung hat und alle gerade nur so am Leben erhalten werden, dann kann man vielleicht 4 oder 5 Milliarden Menschen langfristig erhalten. Aber es sind schon 7 Milliarden. Wir müssen also so human und so schnell wie möglich zu einer Schrumpfung der Bevölkerung übergehen.“

Dann beschreibt er seine brutalen Überlegungen dazu:

„Die Frage ist: Kann man das bewerkstelligen ohne eine Katastrophe, wie eine weltweite Seuche oder einen Atomkrieg zwischen Indien und Pakistan? Wenn wir so weitermachen wie bisher, wird es Katastrophen verschiedener Art geben. Einige vielleicht in Zeitlupentempo, wie immer mehr hungernde Menschen, oder aber Katastrophenereignisse, denn je mehr Menschen es gibt, desto wahrscheinlicher wird es, dass irgendein seltsames Virus von Tier- auf Menschenpopulationen überspringt; dann könnte es ein ungeheures Massensterben geben.“

Damit schließt er nahtlos an die Tradition des Tiefseetauchers, Umweltaktivisten und Liebling aller Ökoverbände Jacques Cousteau an, der ernsthaft in einer offiziellen UNO-Postille schreiben durfte:

„Um den Planeten zu stabilisieren müssen wir 350.000 Menschen täglich eliminieren. Es ist schrecklich das zu sagen, aber genauso schrecklich, es nicht zu sagen,“ so Jacques Cousteau, im UNESCO Courier, Nov. 1991

Immerhin die Basler Zeitung und FAZ online  setzen sich von diesen selbsternannten Katastrophenpropheten ab: Dia FAZ bezeichnet die Katastrophiker des Club of Rome fälschlich als Denkfabrik, geht aber sachlich mit ihnen ins Gericht: „Club of Rome Die Propheten des Untergangs“ so die Überschrift des Artikels von Phillip Plickert. Zu einer Verurteilung dieser menschenverachtenden Demokratiefeinde mochte sich die Autoren aber auch nicht aufraffen!

Michael Limburg EIKE

Mit Dank an die Leser Erich Richter und Andrea Andromidas für ergänzende Informationen.




Stellvertreter(Proxy-) Methodik führt zu Pseudowissenschaft

Doch es gibt auch andere Wissenschaftler, die sowohl Baumringe, Sedimentschichtarten und -dicken oder das Mischungsverhältnis von verschiedenen atmosphärischen Isotopen zur Proxy-Temperaturbestimmung verwendet haben. Sie wollten weder betrügen, noch haben sie das getan. Ihre Veröffentlichungen sind zahlreich und werden tlw. im folgenden Beitrag von Pat Frank aufgelistet und bewertet. Und zwar nach der entscheidenden Frage bewertet:

Wie gut, bzw.wie genau lässt sich ein Temperaturverlauf aus Poxydaten rekonstruieren?

Wie kann man die Rohdaten kalibrieren? Was hängt wovon ab? Wie hoch ist die nicht zu unterschreitende Fehlermarge?

Um es kurz zu machen: Sein Urteil ist bis auf eine Ausnahme sehr negativ. Lesen Sie warum:

Proxy-Wissenschaft und Proxy-Pseudo-Wissenschaft    

Es ist bekannt, dass die weithin veröffentlichte Proxythermometrie seit 1998 [1] unwissenschaftlichist, und dies ganz besonders, seit Steve McIntyre und Ross McKitrick aufdeckten, dass sie auf absichtsvoller reiner statistischer Numerologie beruht. Vor einiger Zeit diskutierte ich hier auf WUWT mit Michael Tobis über die Unwissenschaftlichkeit der Proxy-Paläothermometrie. Es begann mit Michaels Kommentar hier und meiner Antwort dort. Michael berief sich bald auf seine Autoritäten auf Planet3.org. Wir hatten einen netten Gedankenaustausch, der damit endete, dass der Moderator und Mitstreiter Arthur Smith fälschlicherweise Zensur ausübte, weil er glaubte, eine Beleidigung zu erkennen. (Für starke Nerven: hier ist der Kommentar in voller Länge zu finden)

Immerhin, zwei hiesige Experten in Proxythermometrie kamen Michael zu Hilfe: Kaustubh Thimuralai, graduiert im Fach Proxy-Klimatologie an der Universität von Austin, Texas, und Kevin Anchukaitis, Dendroklimatologe an der Columbia Universität. Kaustubh hat seine Verteidigung auf seinem eigenen Blog veröffentlicht.

Ihre Argumentation hatte eines gemeinsam: eine ausschließliche Berufung auf stabile Isotopen-Temperatur-Proxys – sie sagten kein Wort zur Verteidigung der Baumring-Thermometrie, welche die große Menge der Paläo-Temperatur-Rekonstruktionen darstellt.

Die Unwissenschaftlichkeit der veröffentlichten Paläothermometrie wurde durch die Tatsache belegt, dass sie auf deren Kernbereich mit den Baumringen überhaupt nicht verteidigten; anders gesagt: "Verurteilung durch Verschweigen".

Auch fanden sie kein Wort der Verteidigung dafür, dass die Physik durch Statistik ersetzt wird, was nahezu durchgängig in der Paläothermometrie geschieht.

Aber ihre Berufung auf die Thermometrie mit stabilen Isotopen-Proxys gibt Anlass zu einer Überprüfung. Das möchte ich hier nun tun: eine Analyse der Temperatur-Rekonstruktion aus stabilen Isotopen-Proxys durchführen, anschließend einen kurzen Abriss der Dendrothermometrie geben. 

Soweit die einleitenden Worte von Dr. Pat Frank. Unseren Lesern schon bekannt durch seine Fehlerbetrachtungen der Zeitreihe der globalen Mitteltemperatur (hier) und (hier)

Im (sehr ausführlichen) Aufsatz (hier im Original) erläutert Frank nun im 1. Teil sehr ausführlich die Möglichkeiten und Grenzen der Temperaturbestimmung aus Isotopenverhältnissen mittels bekannter Analysemethoden. Nach gründlicher Prüfung aller anderen Methoden, erkennt Frank dieses Verfahren als einziges an, welches -einigermaßen- eine verlässliche Temperaturbestimmung erlaubt. Allerdings hat auch diese Verfahren seine Grenzen, die sich in breiten Fehlermargen äußern. Es sind eben trotzdem keine Präzisionsthermometer sondern Stellvertreter.

Wer will kann das im anhängenden pdf Beitrag nachlesen. Wir bringen in dieser News nur sein Resumée. Darin wendet Frank die zuvor erarbeiteten Erkenntnisse auf veröffentlichte Berichte und Proxymethoden an. 

Teil II: Pseudo-Wissenschaft: Statistische Thermometrie

Nun zu den veröffentlichten typischen Proxy-Paläotemperatur-Rekonstruktionen. Ich habe mich mit einem repräsentativen Satz von acht hochrenommierten Studien beschäftigt und wissenschaftliche Belege gesucht. Mit Belegen meine ich, ob die Studien sich auf die Theoretische Physik berufen.

Kurzfassung: keine davon kann im Sinne der Theoretischen Physik Gültigkeit beanspruchen. Keine davon zeigt eine Temperatur.

Bevor ich weitermache, ist ein Wort zu „Korrelation und Verursachung“ fällig. Michael Tobis hat darüber geschrieben, “Wenn zwei Signale korreliert sind, dann enthält jedes Signal Information über das andere. Mehr zu behaupten ist einfach nur dumm.”

Davon gibt es eine Menge in der Proxythermometrie. Eine Klarstellung ist Pflicht. John Aldrich beschrieb in einem schönen Papier [16] die Schlacht zwischen Karl Pearson und G. Udny Yule wegen: „Korrelation deutet auf Verursachung hin“. Pearson glaubte das, Yule nicht.

Auf Seite 373 macht Aldrich eine sehr bedeutende Unterscheidung: “Statistische Folgerungen sind Folgerungen aus Stichproben auf die Gesamtbevölkerung. Wissenschaftliche Folgerungen zielen auf Erkenntnisse über die Bevölkerung im Sinne einer theoretischen Struktur.”

Im Klartext: Statistik beschäftigt sich mit Beziehungen zwischen Zahlen. Wissenschaft beschäftigt sich mit Schlussfolgerungen aus falsifizierbaren Theorien.

Wir werden sehen, dass die unten erwähnten Proxy-Studien unzulässigerweise beide Kategorien vermischen. Sie konvertieren richtige Statistik in falsche Wissenschaft.

Um diesen Punkt noch zuzuspitzen, verweise ich auf einige schöne Beispiele von falschen Korrelationen. Und hier sind die Gewinner des Wettbewerbs von 1998 an der Purdue University wegen falscher Korrelationen: Dabei waren [so abwegige] Korrelationen wie die zwischen dem Absatz von Speiseeis und Ertrunkenen, zwischen Ministergehältern und dem Wodkapreis. Pace Michael Tobis sagte dazu, dass jede der Korrelationen “Signale” korrelierte, die offensichtlich Informationen über den dazu in Beziehung gesetzten Sachverhalt enthielten. Mit meiner Ironie hoffe ich, das Thema abschließend behandelt zu haben.

Diaz und Osuna [17] weisen auf den Unterschied “zwischen Alchemie und Wissenschaft hin … , der darin besteht, dass (1) streng getestete Modelle spezifiziert sind, die (2) hinreichend die verfügbaren Daten beschreiben, (3) überlieferte Erkenntnisse berücksichtigen und (4) von wohlbegründeten Theorien abgeleitet sind.“ (Hervorhebung durch den Autor)

Eine verursachende Bedeutung in einer Korrelation kann nur im deduktiven Kontext einer falsifizierbaren Theorie erkannt werden, die die Korrelation erwartet. Statistik (induktives Schlussfolgern) kann niemals alleine eine Verursachung offen legen.

Für die Klimawandel-Paläo-Proxythermometrie wird gezeigt werden, dass die Diaz und Osuna Elemente 1, 3, 4 für wahre Wissenschaft fehlen. Das macht sie zur Alchemie, auch als Pseudo-Wissenschaft bekannt.

Also zunächst zur Klimawandel Paläo-Proxythermometrie:

1. Thomas J. Crowley und Thomas S. Lowery (2000) “How Warm Was the Medieval Warm Period?.” [18]

Fünfzehn Zeitreihen werden benutzt: drei dO-18 (Keigwins Sargasso-See Proxy, GISP 2, und die Dunde Eiskappen-Zeitreihe), acht Baumring-Zeitreihen, die Zeitreihe der Temperatur von Mittelengland (CET), eine Temperatur-Zeitreihe von Island (IT) und zwei Proxies mit Pflanzenwachstum (China Phänologie und Michigan Pollen).

Alle fünfzehn Reihen sind zwischen 0 und 1 skaliert und dann gemittelt. Es besteht eine völlige Vernachlässigung der Bedeutung der fünf physikalisch gültigen Reihen. (3 x dO18, IT und CET). Alle sind auf die gleiche physikalisch bedeutungslose Begrenzung einer Einheit skaliert.

Man bedenke, was das heißt: Crowley und Lowry haben fünf physikalisch bedeutungsvolle Reihen ausgewählt und dann die Physik nicht betrachtet. Nur dadurch konnten die Reihen für die Verwendung in der Klimawandel- Proxythermometrie geeignet gemacht werden.

Es gibt keine physikalische Theorie, um Baumringmessungen in Temperaturen umzusetzen. Angesicht der Nicht-Existenz einer derartigen Theorie bleiben jegliche exakten Beziehungen völlig im Dunkeln.

Wie aber haben Crowley und Lowery ihre auf Einheiten skalierten Proxy-Mittelwerte in Temperaturen konvertiert? Nun denn: “Die beiden Gesamtheiten wurden so skaliert, damit sie mit den Temperaturmessdaten der Nordhalbkugel von Jones et al. übereinstimmten …“. So einfach ist das.

Kurz gesagt, die fünfzehn Reihen wurden numerisch auf eine gemeinsame Skala adjustiert, gemittelt und größenmäßig an die gemessenen Temperaturen angepasst. Schließlich geben Crowley und Lowry noch eine Auflösung von (+/-)0.05 C für ihre Temperaturen an. Messunsicherheiten bei den physikalisch wahren Zeitreihen wurden im Schlussergebnis ignoriert. So sieht Wissenschaftlichkeit in der Klimawandel-Proxythermometrie aus.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung: Keine.

Physikalische Gültigkeit: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

2. Timothy J. Osborn und Keith R. Briffa (2006) The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years.” [19]

Vierzehn Proxies – elf davon Baumringe, einer dO-18-Eisbohrkern (West-Grönland) – geteilt durch ihre jeweilige Standardabweichung, um eine einheitliche Größenordnung zu erzeugen. Dann werden sie auf die Instrumentenmessdaten skaliert. Die physikalische Bedeutung des dO-18 – Eisbohrkerns ist nicht betrachtet und dessen experimentelle Unsicherheit wird nicht beachtet.

Interessanterweise zeigte der zusammengesetzte Proxy zwischen 1975 und 2000 gegenüber den Instrumentenmessdaten eine Abnahme. Osborn und Briffa verheimlichten den Niedergang nicht, das muss ihnen hoch angerechnet werden. Sie schrieben aber, dass diese Nicht-Bestätigung eine, “Folge des zu erwartenden Rauschens in den Proxy-Aufzeichnungen wäre.”

Ich habe das “Rauschen” abgeschätzt, indem ich die Verfälschung in Bezug auf die Temperaturaufzeichnung verglich, sie beträgt etwa 0.5 C. Es ist auf der grafischen Darstellung von Osborn und Briffa nicht als Unsicherheit dargestellt. Tatsächlich haben beide künstlich die Mittelwerte der Proxy-Reihen von 1856-1995 mit den Oberflächen-Temperatur-Messdaten vermischt, um den Proxy wie eine Temperatur aussehen zu lassen. Die 0,5 C „Rausch“-Abweichung ist unterdrückt und sieht sehr viel kleiner aus, als sie tatsächlich ist. Wären die tatsächlichen 0.5 C “Rausch-” Fehlerbalken auf die Temperaturkurve ihrer abschließenden Grafik skaliert worden, wäre der ganze Versuch auf theatralische Weise geplatzt, abgesehen davon, dass das nichts mit Wissenschaft zu tun hat.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheit in T: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

3. Michael E. Mann, Zhihua Zhang, Malcolm K. Hughes, Raymond S. Bradley, Sonya K. Miller, Scott Rutherford, und Fenbiao Ni (2008) “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia.” [20]

Eine große Anzahl von Proxies vielfacher unterschiedlicher Längen und Herkunft. Darin: Eisbohrkerne, Speleothem, dO-18 von Korallen. Die Daten sind aber von den Baumringzeitreihen beherrscht.  Mann & Co. korrelieren die Reihen statistisch mit lokaler Temperatur während einer “Kalibrationsperiode”, passen sie auf eine gleiche Standardabweichung an, skalieren sie auf die Messdaten und veröffentlichen das Zusammengemischte mit einer Auflösung von 0.1 C (Figur 3). Auch ihre Methode betrachtet nicht die physikalische Bedeutung der dO-18-Proxys verwirft sie.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja!

Physikalische Unsicherheit bei der Temperatur dargestellt: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

4. Rosanne D’Arrigo, Rob Wilson, Gordon Jacoby (2006) “On the long-term context for late twentieth century warming.” [21]

Drei Baumring-Zeitreihen von 66 Standorten, die Varianz adjustiert, auf die Instrumenten-Messdaten skaliert und mit einer Auflösung von 0.2 C veröffentlicht (Figur 5 C).

Abstützung auf ein physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalisch gültige Temperatur-Unsicherheiten: keine

Physikalische Erklärung der Unterteilungen in 0.2 C: keine.

Physikalische Erklärung der Baumringtemperaturen: keine zu sehen.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

5. Anders Moberg, Dmitry M. Sonechkin, Karin Holmgren, Nina M. Datsenko und Wibjörn Karlén (2005) “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data.” [22]

Achtzehn Proxies: Zwei d-O18-Meeresoberflächen-Temperaturen (Sargasso und Karibik-Foraminifera-d-O18, ein Stalagmiten-d-O18 (Soylegrotta, Norway), sieben Baumring-Zeitreihen. Dazu weitere Zusammenmischungen.

Die Proxy sind mit einer aufregend neuen Wellen-Transformations-Methode behandelt (noch verbesserungsbedürftig), kombiniert, Varianz-adjustiert, stark auf die Messdaten während der Kalibrierungsperiode skaliert, mit einer Auflösung von 0.2 C veröffentlicht (Figur 2 D). Die Autoren folgten der Standardpraxis des Entfernens und Verwerfens der physikalischen Bedeutung der dO-18-Proxies.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheiten aus den dO18 Proxies in die Schlusszusammenstellung übernommen? Nein.

Physikalische Erklärung der Unterteilungen in 0.2 C: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

6. B.H. Luckman, K.R. Briffa, P.D. Jones und F.H. Schweingruber (1997) “Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983.” [23]

Dreiundsechzig regionale Baumring-Zeitreihen, dazu 38 Reihen von fossilem Holz; Einsatz der standardmäßigen statistischen (nicht physikalischen) Kalibrations-Verifikationsfunktion für die Konversion von Baumringen in Temperatur, Überlagerung der Zusammenstellung mit den 1961-1990er Mittelwerten der Messdatenreihe, Veröffentlichung des Ergebnisses mit 0.5 C Auflösung (Figur 8). Im Text werden Anomalien angesprochen bis zu einer (+/-)0.01 C Auflösung (z. B. Tables 3 & 4), die mittleren Anomalien mit (+/-)0.001 C. Diese letztere behauptete Genauigkeit ist 10x höher als die typische Einstufung eines zwei-Punkte kalibrierten Platin-Widerstands-Thermometers unter dem Schutz angestrebter moderner kontrollierter Laborbedingungen.

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung der Proxies: Keine.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

7. Michael E. Mann, Scott Rutherford, Eugene Wahl, and Caspar Ammann (2005) “Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate.” [24]

Diese Studie ist teilweise ein methodischer Überblick über die Wege zur Erzeugung einer Proxy-Paläo-Temperatur, wie sie von den das Fachgebiet beherrschenden Forschern empfohlen werden:

Methode 1: “Die composite-plus-scale (CPS) Methode. Sie besteht aus “einem Dutzend Proxy-Reihen, wobei von jeder angenommen wird, dass sie eine lineare Kombination von lokalen Temperaturänderungen und zusätzlichem Rauschen darstellt, die zusammengefasst (typischerweise mit dekadischer Auflösung;…) und skaliert werden gegen hemisphärische gemittelte Temperatur-Messdaten-Reihen während eines darüber gelegten „Kalibrierungs-“ Intervalls, um eine hemisphärische Rekonstruktion zu bilden. (Hervorhebung von mir)

Methode 2, Climate Field Reconstruction (CFR): “Unsere Umsetzung des CFR Ansatzes benutzt die „regularized expectation maximization (RegEM)“-Methode (Regulierte Erwartungsmaximierung) von Schneider (2001), die für CFR in vielen jüngeren Studien angewandt wird. Die Methode gleicht den auf der „principal component analysis (PCA)“ beruhenden Ansätzen, sie setzt aber eine iterative Schätzung der Daten-Co-Varianzen ein, um die verfügbare Information besser ausnutzen zu können. Wie schon bei Rutherford et al. (2005) haben wir getestet: (i) die direkte Anwendung der RegEM, (ii) einen Ansatz der “hybrid frequency-domain calibration”, der unterschiedliche Kalibrierungen von Komponenten mit Perioden von hoher Zeitfrequenz (Periode kürzer als 20 Jahre) und solchen mit niedriger Zeitfrequenz (Periode länger als 20 Jahre) der jährlichen Mittelwerte, die anschließend zusammengesetzt werden, um eine einzige Rekonstruktion zu bilden, (iii) eine “schrittweise” Version der RegEM, wobei die Rekonstruktion selbst stärker benutzt wird, um die älteren Segmente nacheinander zu kalibrieren.” (Hervorhebung von mir)

Zur Wiederholung des Offensichtlichen:

CPS: wird als repräsentativ für die Temperatur angenommen; statistische Skalierung auf die Messdatenreihe; Methodische Korrelation = Verursachung. Physikalischer Wert: keiner. Wissenschaftlicher Gehalt: keiner.

CFR: Principal component analysis (PCA): eine numerische Methode unter Vernachlässigung intrinsischer physikalischer Deutungen. Die Hauptkomponenten sind numerisch, nicht physikalisch, orthogonal. Numerische „Principal Components“ sind typischerweise Zusammenstellungen multipler aufgelöster (d.h., partieller) physikalischer Signale von unbekannter Größenordnung. Sie haben keine besondere physikalische Bedeutung. Eine quantitative physikalische Bedeutung kann den Principal Components nicht dadurch beigemessen werden, dass auf subjektive Urteile einer ‘Temperatur-Abhängigkeit’ verwiesen wird.

Was bedeutet die Skalierung der Principal Components in die Temperatur-Zeitreihen? Korrelation = Verursachung!

‘Korrelation = Verursachung’ ist möglicherweise der häufigste naive Fehler in der Wissenschaft. Mann et al. zeigen offen, ohne dabei rot zu werden, dass dieser Fehler der Stützpfeiler des gesamten Bereichs der Baumring-Proxy-Thermometrie ist.

Wissenschaftlicher Gehalt der Mann-Rutherford-Wahl-Ammann Proxy-Methode: null.

Zum Schluss noch etwas Beachtliches:

8. Rob Wilson, Alexander Tudhope, Philip Brohan, Keith Briffa, Timothy Osborn, und Simon Tet (2006), “Two-hundred-fifty years of reconstructed and modeled tropical temperatures.”[25]

Wilson et al. rekonstruierten 250 Jahre Meeresoberflächen-Temperaturen, indem sie nur Reihen von Korallen benutzten, auch dO-18, Strontium/Kalzium-, Uran/Kalzium-,  und Barium/Kalzium-Verhältnisse . Die letzteren drei habe ich nicht eingehend überprüft, aber die Betrachtung ihrer Punktstreuungen allein deutet schon darauf hin, dass keines davon genauere Temperaturen hergibt als dO-18. Dennoch, alle Temperatur-Proxies bei Wilson et al. haben echte physikalische Bedeutung. Was wäre das für eine großartige Gelegenheit gewesen, die Methode zu überprüfen, die Auswirkungen des Salzgehalts und biologischer Ungleichgewichte zu diskutieren, und wie das zu berücksichtigen ist. Zusätzlich könnten andere zentrale Elemente stabiler Meeres-Isotopen-Temperaturen erforscht werden.

Was aber machten diese Forscher? Sie fingen mit etwa 60 Proxy-Reihen an, warfen dann alle hinaus, die nicht mit den lokalen Gitternetz-Temperaturen korrelierten. Sechzehn Proxies verblieben, 15 davon waren dO-18. Warum korrelierten die anderen Proxies nicht mit der Temperatur? Rob Wilson & Co. schwiegen sich aus. Nachdem sie zwei weitere Proxies verworfen hatten, um das Problem des Ausfilterns hoher Frequenzen zu vermeiden, blieben ihnen noch 14 Korallen- Meeresoberflächen-Temperatur-Proxies.

Danach setzten sie standardmäßige statistische Berechnungen an: teile durch die Standardabweichung, mittele die Proxies alle zusammen (Einsatz der “nesting procedure” zum Angleichen unterschiedlicher Proxy-Längen), und skaliere dann auf die Messdatenreihe hoch.

Das Lobenswerte bei der Erwähnung dieser Forscher beruht auf der Tatsache, dass sie nur und allein physikalisch echte Proxies benutzten, leider dann aber die physikalische Bedeutung von allen verwarfen.

Damit sind sie besser als die anderen sieben Beispiel-Vertreter, die Proxies ohne jegliche physikalische Bedeutung einbezogen.

Trotzdem:

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Einsatz einer physikalisch gültigen Methode: Nein.

Physikalische Bedeutung der Proxies: existierte, wurde berücksichtigt, dann aber verworfen.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

Schlussurteil: Die weithin praktizierte Klimawandel-Paläo-Proxythermometrie besteht aus Zusammenstellungen, die allein auf rein statistischen Ableitungen beruhen und auf numerischen Skalierungen. Sie haben nicht nur keinen wissenschaftlichen Wert, schon die Methodik spricht deutlich gegen den wissenschaftlichen Gehalt.

Statistische Methoden: 100%.

 

 

Physikalische Methoden: nahezu keine (ausgenommen stabile Isotopen, aber deren physikalische Bedeutung wird permanent bei den zusammengesetzten Paläoproxies nicht zur Kenntnis genommen).

Bedeutung der numerisch skalierten Zusammenstellungen für die Temperatur: null.

Die sieben Studien sind typische Vertreter und sie sind repräsentativ für das gesamte Feld der Klimawandel-Paläo-Proxythermometrie. Was da wissenschaftlich praktiziert wird, ist wissenschaftlicher Betrug. Es ist Pseudo-Wissenschaft durch und durch.

Studien über stabile Isotopen sind aber echte Wissenschaft. Dieses Feld köchelt so dahin und die darin tätigen Wissenschaftler konzentrieren sich richtig auf das Detail. Ich nehme sie ausdrücklich von meiner generellen Verurteilung der Klimawandel-Paläo-Proxythermometrie aus.

In den nachfolgend genannten Arbeiten habe ich bereits die Glaubwürdigkeit der drei Richtungen der Klimawandel-Wissenschaft überprüft: Klima-Modelle (GCMs) hier (Berechnungen hier), den Datenbestand der Oberflächen-Lufttemperaturdaten hier (alles als pdf-downloads), und mit diesem Beitrag nun die Proxy-Paläo-Temperatur-Rekonstruktionen.

In allen Forschungsrichtungen werden die systematischen Fehler außer acht gelassen. Diese Vernachlässigung der systematischen Fehler zeigt, dass keine der Methoden – wirklich keine einzige – in der Lage ist, die Temperaturveränderungen der letzten 150 Jahre zu behandeln oder gar zu erklären.

Immerhin, die pandemische Ausbreitung dieser Vernachlässigung ist der zentrale Mechanismus für das Überleben des Klimawandel-Alarmismus. Das geht nun schon seit mindestens 15 Jahren so, bei den Klimamodellen seit 24 Jahren. Unterstellt man Integrität, dann muss man aber erkennen, dass die Wissenschaftler, ihre Fachgutachter und ihre Redakteure alle zusammen inkompetent sind.

Schlussfolgerung: Bei Behauptungen über Etwas-Noch-Nie-Dagewesenes bei den jüngeren globalen Lufttemperaturen weiß niemand, wovon überhaupt gesprochen wird.

Ich bin sicher, dass es Menschen gibt, die meine Schlussfolgerung angreifen werden. Sie werden gebeten, hier her zu kommen und ihre Einwände vorzutragen.

 Pat Frank PhD

Die Übersetzung besorgte in dankenswerter Weise Helmut Jäger EIKE

Über den Autor Pat Frank

Patrick Frank ist promovierter Chemiker und hat über 50 fachbegutachtete Artikel veröffentlicht. Er hat in folgenden Magazinen geschrieben: in „Skeptic“ über den Mythos vom „Edlen Wilden“ geschrieben, in „Theology and Science“ über den Mythos vom „Schöpferuniversum“ sowie in Energy & Environment über Fehler in Globaltemperaturbestimmungen sowie in „Free Inquiry“ zusammen mit Thomas H. Ray über den Mythos „Wissenschaft ist Philosophie“.

Referenzen:

1. Mann, M.E., R.S. Bradley, and M.S. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392(p. 779-787.

2. Dansgaard, W., Stable isotopes in precipitation. Tellus, 1964. 16(4): p. 436-468.

3. McCrea, J.M., On the Isotopic Chemistry of Carbonates and a Paleotemperature Scale. J. Chem. Phys., 1950. 18(6): p. 849-857.

4. Urey, H.C., The thermodynamic properties of isotopic substances. J. Chem. Soc., 1947: p. 562-581.

5. Brand, W.A., High precision Isotope Ratio Monitoring Techniques in Mass Spectrometry. J. Mass. Spectrosc., 1996. 31(3): p. 225-235.

6. Kim, S.-T., et al., Oxygen isotope fractionation between synthetic aragonite and water: Influence of temperature and Mg2+ concentration. Geochimica et Cosmochimica Acta, 2007. 71(19): p. 4704-4715.

7. O’Neil, J.R., R.N. Clayton, and T.K. Mayeda, Oxygen Isotope Fractionation in Divalent Metal Carbonates. J. Chem. Phys., 1969. 51(12): p. 5547-5558.

8. Epstein, S., et al., Revised Carbonate-Water Isotopic Temperature Scale. Geol. Soc. Amer. Bull., 1953. 64(11): p. 1315-1326.

9. Bemis, B.E., et al., Reevaluation of the oxygen isotopic composition of planktonic foraminifera: Experimental results and revised paleotemperature equations. Paleoceanography, 1998. 13(2): p. 150Ð160.

10. Li, X. and W. Liu, Oxygen isotope fractionation in the ostracod Eucypris mareotica: results from a culture experiment and implications for paleoclimate reconstruction. Journal of Paleolimnology, 2010. 43(1): p. 111-120.

11. Friedman, G.M., Temperature and salinity effects on 18O fractionation for rapidly precipitated carbonates: Laboratory experiments with alkaline lake water ÑPerspective. Episodes, 1998. 21(p. 97Ð98

12. Keigwin, L.D., The Little Ice Age and Medieval Warm Period in the Sargasso Sea. Science, 1996. 274(5292): p. 1503-1508; data site: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.

13. Shackleton, N.J., Attainment of isotopic equilibrium between ocean water and the benthonic foraminifera genus Uvigerina: Isotopic changes in the ocean during the last glacial. Colloq. Int. C.N.R.S., 1974. 219(p. 203-209.

14. Shackleton, N.J., The high-precision isotopic analysis of oxygen and carbon in carbon dioxide. J. Sci. Instrum., 1965. 42(9): p. 689-692.

15. Barrera, E., M.J.S. Tevesz, and J.G. Carter, Variations in Oxygen and Carbon Isotopic Compositions and Microstructure of the Shell of Adamussium colbecki (Bivalvia). PALAIOS, 1990. 5(2): p. 149-159.

16. Aldrich, J., Correlations Genuine and Spurious in Pearson and Yule. Statistical Science, 1995. 10(4): p. 364-376.

17. D’az, E. and R. Osuna, Understanding spurious correlation: a rejoinder to Kliman. Journal of Post Keynesian Economics, 2008. 31(2): p. 357-362.

18. Crowley, T.J. and T.S. Lowery, How Warm Was the Medieval Warm Period? AMBIO, 2000. 29(1): p. 51-54.

19. Osborn, T.J. and K.R. Briffa, The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years. Science, 2006. 311(5762): p. 841-844.

20. Mann, M.E., et al., Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. Proc. Natl. Acad. Sci., 2008. 105(36): p. 13252-13257.

21. D’Arrigo, R., R. Wilson, and G. Jacoby, On the long-term context for late twentieth century warming. J. Geophys. Res., 2006. 111(D3): p. D03103.

22. Moberg, A., et al., Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, 2005. 433(7026): p. 613-617.

23. Luckman, B.H., et al., Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983. The Holocene, 1997. 7(4): p. 375-389.

24. Mann, M.E., et al., Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate. J. Climate, 2005. 18(20): p. 4097-4107.

25. Wilson, R., et al., Two-hundred-fifty years of reconstructed and modeled tropical temperatures. J. Geophys. Res., 2006. 111(C10): p. C10007.

Related Files




Klimaschutz: Großbritannien hilft bei der Finanzierung erzwungener Sterilisation der Armen in Indien

Bild rechts: Die Sterilisation bleibt die am weitesten verbreitete Methode der Familienplanung, um das weitere Bevölkerungswachstum der nunmehr 1,2 Milliarden Inder zu drosseln. Photograph: Mustafa Quraishi/AP

Wie der Observer erfahren hat, wurden mehrere Zehnmillionen Pfund an Hilfsgeldern für ein Programm ausgegeben, das gewaltsam indische Frauen und Männer sterilisiert hat. Viele sind an den Folgen verpfuschter Operationen gestorben, während andere blutend und in Todesangst zurück gelassen worden sind. Eine Reihe schwangerer Frauen, die zur Sterilisation ausgewählt worden waren, haben Fehlgeburten erlitten und ihre Babys verloren.

Die [Regierung in] UK hat zugestimmt, Indien 166 Millionen Pfund zukommen zu lassen, um das Programm zu finanzieren, trotz des Verdachts, dass man das Geld dazu benutzen würde, Arme zu sterilisieren, um das weitere Bevölkerungswachstum der nunmehr 1,2 Milliarden Inder zu drosseln.

Die Sterilisation ist seit Jahren umstritten. Während man Funktionären und Ärzten für jede Operation einen Bonus zahlt, werden arme und ungebildete Männer und Frauen in ländlichen Gebieten routinemäßig zusammen getrieben und sterilisiert, ohne dass sie eine Chance haben, dagegen zu protestieren. Aktivisten sagen, dass man Einigen weis gemacht habe, sie würden in einem Lager operiert werden, um ihr allgemeines Wohlergehen zu verbessern, nur um die Wahrheit zu erfahren, nachdem sie unter dem Messer gelegen hatten.

In indischen Gerichtsdokumenten, die vor Kurzem bekannt geworden waren, heißt es, dass viele Opfer mit Schmerzen allein gelassen worden sind mit wenig oder gar keiner Nachsorge. Aus dem ganzen Land gab es zahlreiche Berichte von Todesfällen und von schwangeren Frauen, die nach der Auswahl zur Sterilisation Fehlgeburten erlitten hätten, ohne dass man sie zuvor gewarnt hatte, dass sie ihre ungeborenen Babys verlieren könnten.

Und doch wurde in einem vom UK-Department for International Development 2010 veröffentlichten Arbeitspapier auf die grundlegende Notwendigkeit hingewiesen, den Klimawandel mit derartigen Programmen zu bekämpfen. Im Dokument heißt es weiter, dass die Reduktion der Bevölkerungszahl Treibhausgase vermindert würde, obwohl es davor warnte, dass es „komplexe Menschenrechts- und ethische Fragen aufwerfen würde“, die Bevölkerungskontrolle zu intensivieren.

Die jüngsten Vorfälle konzentrieren sich auf die indischen Provinzen Madhya Pradesh und Bihar, die beide im vorigen Jahr von der UK-Regierung nach einer Übersicht der Unterstützungen als Ziel für Zuwendungen ausgesucht worden sind. Im Februar musste der Regierungschef von Madhya Pradesh nach verbreiteten Berichten erzwungener Sterilisation seine Funktionäre öffentlich zurück pfeifen. Einige Tage später verblutete die 35-jährige Rekha Wasnik dort, nachdem Ärzte sie sterilisiert hatten. Als Frau eines armen Arbeiters war sie zu der Zeit mit Zwillingen schwanger. Sie begann schon auf dem Operationstisch zu bluten, und eine Obduktion benannte die Operation als Todesursache.

Im April hörte ein indisches Gericht von einem Chirurg, der in der Schule im Araria District in Bihar 53 Operationen in zwei Stunden durchgeführt hatte, assistiert von unqualifiziertem Personal ohne Zugang zu Trinkwasser oder einer Ausrüstung, um das Operationsbesteck zu säubern. Ein von Aktivisten aufgenommenes Video zeigt schmutzige Bedingungen und Frauen, die auf strohbedecktem Boden liegen.

Die Menschenrechtlerin Devika Biswas sagte vor dem Gericht aus, dass “unmenschliche Sterilisationen besonders in ländlichen Gebieten unter rücksichtsloser Missachtung des Lebens armer Frauen immer weiter gehen“. Biswas sagte, dass 53 arme und aus unteren Kasten stammende Frauen zusammen getrieben und sterilisiert worden waren, in Operationen, die bei Taschenlampenlicht ausgeführt wurden, und die danach heftig bluteten. Eine Frau davon war im dritten Monat. „Alle 53 Frauen schrien nach den Operationen vor Schmerzen. Obwohl sie verzweifelt ärztliche Hilfe gebraucht hätten, kam niemand, um ihnen zu helfen“, fuhr sie fort.

Das Gericht räumte der nationalen und den Provinzregierungen eine Frist von zwei Monaten ein, um auf die Vorwürfe zu antworten.

Aktivisten zufolge sind es die Armen in Indien – und vor allem Stammesgruppen – die am meisten Ziel des Drucks zur Sterilisation sind und auch die Verwundbarsten. Sie behaupten, dass die Leute damit bedroht wurden, ihre Rationierungskarten zu verlieren, wenn sie sich diesen Operationen nicht unterziehen, oder sie werden gerade mal mit 600 Rupien (knapp 9 Euro) und einem Sari gelockt. In einigen Staaten gibt es eine Lotterie, bei der man Autos und Kühlschränke gewinnen kann, falls man einer Sterilisation zustimmt.

Trotz dieser Kontroversen zeigt ein Bericht der indischen Regierung, dass die Sterilisation die am weitesten verbreitete Methode der Familienplanung ist, und zwar im Rahmen des Reproductive and Child Health Programme Phase II, das im Jahre 2005 mit 166 Millionen Pfund unterstützt worden ist. Dem DfID zufolge fühlt sich UK dem Projekt  bis zum nächsten Jahr verbunden und hat 2011/2012 34 Millionen Pfund dafür ausgegeben. Das meiste Geld ist inzwischen ausbezahlt worden – 162 Millionen Pfund –, aber es waren keine besonderen Bedingungen daran geknüpft.

Die Zuwendungen fallen für verschiedene Provinzen unterschiedlich aus, aber in Bihar haben private Kliniken 1500 Rupien für jede Sterilisation erhalten, mit einem Bonus von 500 Rupien, wenn sie an einem Tag mehr als 30 Operationen durchführen. NGO-Mitarbeiter erhalten für die erfolgreiche Überredung eines jeden Menschen zur Sterilisation 150 Rupien, während die Ärzte für jeden Patienten 75 Rupien bekommen.

In einem Bericht der indischen Regierung aus dem Jahr 2009 heißt es, dass fast eine halbe Million Sterilisationen im Vorjahr durchgeführt worden sind. Er enthielt aber auch Warnungen vor Problemen mit der Qualitätskontrolle und dem Finanzmanagement.

Im Jahre 2006 veröffentlichte das indische ministry of health and family welfare einen Bericht über Sterilisation, worin vor wachsenden Problemen gewarnt wurde, und im darauf folgenden Jahr warnte die indische Regierung in einem Audit vor fortwährenden Problemen mit Sterilisationsstätten. „Die Qualität der Sterilisation in den Lagern gibt Anlass zur Sorge“, hieß es da. Außerdem wurde festgestellt, dass die Qualität des Service’ dadurch betroffen sei, dass vieles der Arbeit in das Endstadium des Finanzjahres gepfropft wurde.

Bei der Ankündigung von Änderungen der Hilfen für Indien im vorigen Jahr hat das DfID versprochen, das Leben von über 10 Millionen armen Frauen und Kindern zu verbessern: „Wir verurteilen Zwangssterilisationen und haben Schritte unternommen um sicherzustellen, dass kein Penny der UK-Hilfe dafür ausgegeben wird. UK finanziert keine Sterilisationszentren, egal wo.

Die Koalitionsregierung hat die Art der in Indien ausgegebenen Hilfe vollständig geändert und diese Hilfe auf drei der ärmsten Provinzen konzentriert, und unsere Unterstützung für dieses Programm wird als Teil dieser Änderung beendet. Den Frauen Zugang zur Familienplanung zu gewähren, egal wo sie leben oder wie arm sie sind, ist ein grundlegendes Ziel der internationalen Entwicklungspolitik der Koalition“.

Gethin Chamberlain, The Observer, Sunday 15 April 2012

Link: http://www.guardian.co.uk/world/2012/apr/15/uk-aid-forced-sterilisation-india

Übersetzt von Chris Frey EIKE




Weitere schlimme Täuschungen in der bei NATURE erschienenen Studie von Shakun et al., …

Diese bezogen sich auf die Behauptung der Autoren, dass sie „überzeugende Beweise haben, dass ein steigender CO2-Gehalt vieles der globalen Erwärmung verursacht habe“ und dass „die Änderung des CO2-Gehaltes der stärksten globalen Erwärmung vorausgegangen war, und das bedeutet, dass der globale Treibhauseffekt eine wichtige Rolle bei den steigenden Temperaturen gespielt und den Planeten schließlich aus der Eiszeit herausgebracht hat“.

Im 1. Teil wurden Probleme hinsichtlich des Fehlens direkter Datierungen in den Eisbohrkernen aus der Antarktis angesprochen sowie die Schwierigkeit, das CO2 in den Eisbohrkernen akkurat zu messen. Im 2. Teil wollen wir uns die Gültigkeit der Behauptungen der Autoren ansehen, die da lauten: 1) Klimaänderungen in der Antarktis waren nicht in Phase mit globalen Klimaänderungen, und (2) die Klimaänderungen auf der Südhemisphäre haben eine ‚Sägeblatt’-Beziehung [a ‚see-saw’ relationship] mit der Nordhemisphäre. Diese Behauptungen ziehen sich wie ein roter Faden durch die gesamte Studie. Wir werden uns auch Eisbohrkerne aus Grönland ansehen als Proxies für globale Klimaänderung, den AMOC-Antrieb [?] als der einzige kausale Mechanismus für Klimaänderungen, warum orbitale Antriebe nicht die Plötzlichkeit von Klimaänderungen erklären können; und wenn wir uns durch all das hindurch gewühlt haben, betrachten wir noch ein paar andere kausale Mechanismen, die in der Studie von Shakun et al. kausal nicht ernst genommen werden.

Wie in Teil 1 gezeigt, resultierte das Fehlen einer direkten zeitlichen Zuordnung der antarktischen Eisbohrkerne daraus, dass man sich auf die theoretisch modellierten, schwankenden Kurven der Altersschätzungen verlassen hat, die bestenfalls „best guesses“ sind, und nicht auf akkurate Messungen. Wie können wir die Gültigkeit der Zeitalter der antarktischen Eisbohrkerne überprüfen, die in der Studie verwendet werden? Die der Antarktis am nächsten liegenden Orte mit gut zeitlich zugeordneten Chronologien sind Neuseeland und das südliche Südamerika. Sollte die Südhemisphäre wirklich nicht in Phase mit der Nordhemisphäre sein, sollte man das in den Chronologien von Neuseeland und Südamerika erkennen können. Schauen wir mal, wie gut sie zur antarktischen Chronologie passen. Zwei spezielle Perioden mit Klimaänderungen können verglichen werden: 1) eine späte Phase des LGM [Last Glacial Maximum?] vor etwa 17 000 Jahren und 2) die Zeit des Jüngeren Dryas im Zeitraum vor 12 700 bis 11 500 Jahren. Wenn die zugrunde liegenden Ziele der Studie von Shakun et al. korrekt sind, sollte die Chronologie dieser beiden Klimaphasen in der Antarktis, in Neuseeland und Südamerika nicht in Phase mit der Chronologie der Nordhemisphäre während dieser Zeiträume sein.

Neuseeland und Patagonien während des letzten glazialen Maximums

Eine gut definierte und gut zeitlich eingeordnete Sammlung von Moränen aus der Eiszeit umgeben den Pukaki-See in den südlichen neuseeländischen Alpen (Abbildung 1). Sieben Altersbestimmungen mit dem Beryllium-Isotop Be10 in Felsbrocken innerhalb dieser Moränen ergeben im Mittel ein Alter von 17 4000 Jahren (Schaefer et al., 2006; Easterbrook, 2011).

Be10-Daten von Moränen um den Pukaki-See, Eiszeit- und Pollen-Chronologie aus Neuseeland (Schaefer et al., 2006) im südlichen Lake District in Chile.

LGM-Moränen und Pollen aus Mooren im Lake District in Südchile wurden ausführlich nach der C14-Methode datiert. Das mittlere Alter zeigt ein LGM vor 17 400 Jahren. LGM-Moränen rund um den Buenos Aires-See in Patagonien sind mit der Be16-Methode datiert worden, wobei sich ein Alter von 16 000 bis 18 800 Jahren ergeben hat (Kaplan et al., 2004).

Neunzehn Altersbestimmungen mit der Be10-Methode von Felsbrocken in Moränen im Hochland von Tasmanien reichen von 19 100 Jahren für Endmoränen bis 15 000 Jahre für Rückzugsmoränen mit einem Mittel von 16 800 Jahren (Barrows et al., 2001, 2002).

Diese gut datierten Chronologien zeigen, dass das LGM sowohl auf der Nord- als auch auf der Südhalbkugel zur gleichen Zeit stattgefunden hatte, d. h. die beiden Hemisphären sind untereinander nicht außer Phase.

Die Chronologie des jüngeren Dryas

Eine sogar noch bessere Zeitfolge kann man während des jüngeren Dryas (YD) in Neuseeland finden, welche man mit der Chronologie im YD aus der Antarktis vergleichen kann, um die Behauptungen von Shakun et al. zu testen. Mindestens zwei Phasen des YD können sowohl auf der Nord- als auch auf der Südhemisphäre definiert werden. Das ergibt einen exzellenten Test, ob das YD in beiden Hemisphären synchron verlaufen oder außer Phase war (wie es von Shakun et al. behauptet worden ist).

Südliche neuseeländische Alpen

Aus Neuseeland gibt es eine gut etablierte Chronologie des jüngeren Trias an vielen Stellen in den südlichen Alpen Neuseelands. Die Verteilung der Doppelmoräne des YD wird beispielsweise an den Birch Hills am Pukaki-See, Arthur’s Pass, Prospect Hills, Waiho Loop und vielen anderen Stellen angetroffen. An der Stelle Birch Hills, etwa 40 km talaufwärts von den Moränen um den Pukaki-See zeigen 5 Datierungen mit der Be10-Methode von der äußeren Moräne ein mittleres Alter von 12 800 Jahren und 4 Datierungen mit der gleichen Methode von den inneren Moränen ein mittleres Alter von 11 200 Jahren. Ein weiteres Paar von Datierungen von YD-Moränen am Arthur-Pass zeigen ein mittleres Be10-Alter von 11 800 Jahren für die äußere und von 11 400 Jahren für die innere Moräne. (Easterbrook 2002, 2011).

An der Westküste der Südinsel wurde fossiles Holz in der Waiho Loop-Moräne, abgelagert durch den Franz-Josef-Gletscher etwa 20 km hinter der LGM-Moräne mit der C14-Methode als 11 200 Jahre alt datiert (äquivalent zu einem kalendarischen Alter von etwas weniger als 13 000 Jahren [?]). (Mercer 1982, 1988; Denton und Hendy 1994).

Alter von YD-Moränen in den südlichen neuseeländischen Alpen

 

Alter von inneren und äußeren YD-Moränen in Birch Hills in den südlichen Alpen.

Chronologie des Jüngeren Dryas in der Nordhemisphäre

Mindestens zwei Phasen des Jüngeren Dryas sind auch gut in der Nordhemisphäre datiert, und zwar an vielen Stellen in Nordamerika, den Europäischen Alpen, Skandinavien und Osteuropa. Die Chronologie wurde mit der Radiokarbon-Methode genau datiert. Dies bietet Gelegenheit zum Vergleich der beiden Phasen der Vereisung im YD in Neuseeland und anderswo. Die doppelte YD-Phase findet sich in den Aufzeichnungen sowohl der kontinentalen Vereisung als auch der Alpen.

Messungen der Wassertemperatur mit der Alkenone-Methode [?] aus Sedimentbohrkernen westlich von Vancouver Island deuten auf einen Temperaturrückgang von etwa 3°C während des YD hin (Kienast und McKay 2001). Kaltwasser-Foraminiferen [Foraminifera, selten auch Kammerlinge genannt, sind einzellige, zumeist gehäusetragende Protisten aus der Gruppe der Rhizaria. Quelle: Wikipedia. A. d. Übers.], die diese Abkühlung belegen, wurden im Kontinentalschelf von British Columbia und im Santa Barbara-Becken gefunden. Die Abkühlung zeigt sich auch durch Auswertungen von Pollen im Südwesten von British Columbia, dem Nordwesten von Washington [State], Oregon und Südostalaska. Das Alter multipler YD-Moränen aus dem Pleistozän in der Vereisung der Cordilleren im Nordwesten Washingtons wurde durch über 100 Messungen nach der Radiokarbon-Methode mit 11 500 bis 12 700 Jahren ermittelt.

(A) Rekonstruktion der YD-Phase des Alters der Vereisung der Cordilleren in Nordwest-Washinghton und

(B)  der doppelten YD-Moränen des skandinavischen Eisschildes, wie sie den Messungen zufolge vor 11 500 bis 12 700 Jahren ausgesehen haben.*

[*In der Bildunterschrift im Original sind die Erklärungen zu (A) und (B) offensichtlich durcheinandergeraten. Die direkte Übersetzung hätte jedenfalls keinerlei Sinn ergeben. A. d. Übers.]

Alpine Gletscher

Zeitlich bestimmte YD-Moränen gibt es in der Wind River Range im Titcomb-Becken und am  Temple Lake. Ähnliche Moränen findet man in den gesamten Rocky Mountains. Aus diesen Beispielen von YD-Moränen von Gebirgsgletschern im westlichen Nordamerika geht nicht nur das YD-Klimaereignis eindeutig hervor, sondern an vielen Stellen zeigen die Doppelmoränen eine zweifache Klimaänderung während des YD.

Kargletscher [= Gletscher in Senken im Hochgebirge. A. d. Übers.] haben sich an den Titcomb Lakes in der Wind River Range (Wyoming) zweimal ausgedehnt. Findlinge in Moränen und vergletscherte Felsen etwa 33 km talaufwärts der LGM-Moränen am Freemont Lake, Wyoming, wurden mit der Be10-Methode als 12 300 bis 10 600 Jahre alt bestimmt (Birkeland, 1974; Zielinski and Davis, 1987; Davis, 1988; Davis and Osburn, 1987).

Doppelte YD-Moränen an den Titcomb Lakes in den Wind River Bergen (links), WY. Alter von YD-Moränen in den Rocky Mountains (rechts).

Kargletscher in verschiedenen Höhen der Sawtooth Range in Idaho zeigen ebenfalls zwei YD-Klimaereignisse. Die Bench Lakes, nördlich des Redfish Lake gelegen, bestehen aus verschiedenen Gletscherseen in größerer Höhe und repräsentieren damit abschnittsweise steigende Schneegrenzen. Folglich müssen hier mindestens zwei Phasen der Moränenbildung während des YD stattgefunden haben.

Doppelmoränen nach der LGM zeigen sich 12 km talaufwärts von den LGM-Moränen am Icicle Creek in den North Cascades in Washington. Das Alter von Findlingen der äußersten YD-Moräne wurde mit der Be10-Methode mit 12 600 bis 12 300 Jahren bestimmt, und das Alter von Findlingen einer jüngeren YD-Moräne wurde mit 11 300 bis 11 900 Jahren ermittelt. Alle Altersbestimmungen der inneren und äußeren Moränen fallen in die Zeit des YD.

Doppelte YD-Moränen finden sich auch am Julier-Pass bei St. Moritz in  der Schweiz. Multiple YD-Moränen gibt es auch am Loch Lomond im schottischen Hochland. Mit der Radiokarbon-Methode wurde deren Alter mit 12 900 bis 11 500 Jahren ermittelt.

Die Aufzeichnung von Sauerstoff-Isotopen im GISP2-Eisbohrkern aus Grönland

Die Doppelphase des YD zeigt sich auch in der Verteilung der Sauerstoff-Isotope in der Zeit vor 11 500 bis 12 700 Jahren, was sehr gut mit den globalen glazialen Beobachtungen korreliert.

Das Doppelereignis des YD im GISP2-Eisbohrkern

Schlussfolgerungen

Was bedeutet all das nun, und warum ist es wichtig? Die Doppelstruktur von YD-Moränen in weit voneinander entfernten Gebieten in beiden Hemisphären legt einen gemeinsamen globalen klimatischen Hintergrund nahe. Das YD wird durch zwei ausgeprägte Moränen in weit auseinander liegenden Gebieten sowohl auf der Nord- als auch auf der Südhemisphäre charakterisiert, ebenso wie in Gebieten im Atlantik und Pazifik. Dies deutet darauf hin, dass es im YD mehr als nur ein Klimaereignis gegeben hatte. Das bedeutet, dass die Doppelabkühlung im YD global nahezu simultan stattgefunden hat, und sowohl die Eisschilde als auch Gebirgsgletscher haben auf die duale Abkühlung im YD reagiert. Die beiden YD-Phasen im GISP2-Eisbohrkern bestätigen die global synchronen Ereignisse. Diese globale Synchronizität legt einen globalen atmosphärischen Vorgang nahe. Das Fehlen einer zeitlichen Verzögerung zwischen den klimatischen Fluktuationen auf der Nord- und der Südhemisphäre schließt ozeanische Strömungen von einer Hemisphäre in die andere als Ursache aus. Die Sensitivität und Synchronizität der weltweiten klimatischen Ereignisse ohne zeitliche Verzögerung zwischen den Hemisphären bedeutet, dass abrupte klimatische Änderungen wie im YD durch simultan sich ereignende globale Änderungen ausgelöst wurden.

Was bedeutet das nun für die Gültigkeit von Shakun et al., dass die Nord- und Südhemisphäre nicht in Phase lagen? Man vergleiche das Alter des YD in ihrer Abbildung 2 mit den zahllosen YD-Chronologien aus der ganzen Welt.

Abbildung 2 aus Shakun et al. Die rote Linie stellt den auf Eisbohrkernen basierenden Temperaturverlauf  der Antarktis dar; die gelben Punkte zeigen CO2-Messungen aus diesen Bohrkernen; die blaue Linie repräsentiert die aus 80 Proxies zusammen gesetzte globale Temperatur.

Das Alter des YD, wie es in ihrer Antarktis-Kurve zum Ausdruck kommt, datiert auf 13 000 bis 14 700 Jahre, was nicht einmal ansatzweise in der Nähe des Alters in Neuseeland und dem Rest der Welt liegt. Das Fehlen einer adäquaten Datierung der antarktischen Eisbohrkerne sowie jeglicher Korrelation mit der neuseeländischen und globalen YD-Chronologie bedeutet nichts Anderes, als dass ihre gesamte Antarktis-Kurve falsch ist und um fast 2000 Jahre verschoben werden muss, zusammen mit der CO2-Kurve. Das wiederum bedeutet, dass ihre gesamte Argumentation hinsichtlich einer der Erwärmung voran gegangenen CO2-Zunahme während der letzten Vereisung vollständig auseinander fällt.

… [Hier folgt noch der Hinweis auf einen zukünftigen 3. Teil].

Dr. Don Easterbrook

Link: http://wattsupwiththat.com/2012/04/18/more-fatal-flaws-in-the-shakun-et-al-nature-paper-claiming-that-co2-preceded-late-glacial-warming-part-2/

Übersetzt von Chris Frey EIKE




„Energiewende“ wirkt! Aluminium-Hütte Voerdal in Voerde ist zahlungsunfähig

"Die Bundesregierung müsse jetzt „ein klares Signal für den Erhalt des Industriestandortes setzen“, heißt es in einem Brief des wirtschaftspolitischen Sprechers der Unionsfraktion, Joachim Pfeiffer (CDU), an Kanzlerin Angela Merkel. Details dazu hier und hier

Dem Leser stellt sich die Frage, welche Signale, neben den bereits beschlossenen Gesetzen und Verordnungen zur "Energiewende" der CDU Bundestags-Abgegordnete Pfeiffer eigentlich noch sehen will, um zu erkennen, dass hier ein ganzer Industriestandort aus ideologischen Gründen gegen die Wand gefahren werden soll? Die gesamte Grundstoffindustrie mit insgesamt 1 Mio wertschöpfenden Arbeitsplätzen (direkten wie indirekten) sitzt auf gepackten Koffern, oder ist bereits am gehen. Die Chemie wird folgen!

Die Redaktion




Dafür schäme ich mich heute!

factum: Sie kritisieren seit Jahren die Theorie vom menschengemachten Klimawandel. Inzwischen melden sich viele prominente Wissenschaftler in diesem Sinn zu Wort. Wie wurden Sie zum Klimaskeptiker?

Puls: Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was das IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was der IPCC und die Medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten und Messungen gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen "nach-erzählt“ habe, dafür schäme ich mich heute.

Die offensichtlich in Deutschland besonders stark ausgeprägte CO2-Klima-Hysterie wird meines Erachtens durch eine Interessen-Gemeinschaft von Profiteuren ideologisch und materiell vernetzt und durchgesetzt.

factum: Wie steht es dann mit der globale Erwärmung? Gibt es den Klimawandel?

Puls: Ja, denn Klima-Wandel ist das Normale, folglich gab es immer auch schon "Global-Warming“-Phasen, die sogar das heutige Ausmaß weit übertrafen. In den letzten hundert Jahren gab es ein "Global Warming“ von einem Dreiviertel Grad. Seit 1998 gibt es jedoch keine Erderwärmung mehr, CO2 steigt aber weiter an. Die IPCC-nahen Institute beobachten seit 1998 eine leichte Abkühlung von ein bis zwei Zehntel Grad, allenfalls kann man von einem sogenannten Temperaturplateau sprechen. Generell gilt: Das Klima hat sich schon immer gewandelt und wird sich immer wandeln.

factum: Der Weltklimarat IPCC prognostiziert 0,2 Grad Erwärmung pro Jahrzehnt beziehungsweise zwei bis vier Grad Erwärmung bis 2100. Wie bewerten Sie das?

Puls: Das sind spekulative Modell-Prophezeiungen, so genannte Szenarien – keine Prognosen. Klima ist ein hochkomplexes nicht-lineares System, deshalb sind Prognosen unmöglich. Genau das steht auch wörtlich im IPCC-Bericht 2001. Die Natur macht, was sie will, und nicht das, was die Modelle prophezeien. Die ganze CO2-Debatte ist unsinnig. Selbst wenn das atmosphärische CO2 verdoppelt wird, dann kann das aus physikalischen Gründen nur rund ein Grad Erwärmung bewirken. Die restliche vom IPCC angenommene Erwärmung beruht auf spekulativen Verstärkungsprozessen, die durch nichts bewiesen sind. Gerade können wir doch beobachten, dass sich die Erde seit 13 Jahren nicht mehr erwärmt hat, obwohl CO2 weiter zugenommen hat.

factum: Wie sieht es mit dem Ansteigen der Meeresspiegel aus?

Puls: Der Anstieg hat sich immer mehr verlangsamt, und in den letzten zwei Jahren ist der globale Meeresspiegel sogar um mehr als einen halben Zentimeter gesunken. Diese Ergebnisse kommen in den letzten 20 Jahren durch Messungen von Satelliten zustande, Pegelmessungen gibt es weltweit seit circa 150 Jahren. Die so genannte "Mittlere Meeresspiegelhöhe“ ist ein Rechenwert, kein Messwert. Genau genommen gibt es jedoch gar keinen "globalen Meeresspiegel“. Wir haben Höhenunterschiede von bis zu 150 Metern auf den weltweiten Meeren. Der Meeresspiegel wird auch durch tektonische Prozesse, wie Kontinent-Hebungen und -Senkungen beeinflusst sowie durch Änderungen von Windströmungen, Passaten, Vulkanismus. Der Klimawandel ist da nur einer von zehn Faktoren. Recht genaue Aussagen können wir zum Beispiel bei der Nordsee machen, wo man regelmäßige Pegelmessungen vornimmt.

factum: Was misst man denn für die Nordsee?

Puls: In den letzten 400 Jahren ist der Meeresspiegel an der Nordseeküste um etwa 1,40 Meter gestiegen. Das sind 35 Zentimeter pro Jahrhundert. In den letzten hundert Jahren ist die Nordsee nur noch um 25 Zentimeter gestiegen. Der Anstieg hat sich also verlangsamt.

factum: Hat der Anstieg etwas mit dem schmelzenden Eis am Nordpol zu tun?

Puls: Das ist ein Trugschluss. Selbst wenn das ganze schwimmende Nordpoleis schmilzt, steigt der Meeres-Spiegel um keinen Millimeter. Nehmen Sie ein Glas Whiskey mit Eiswürfeln und warten Sie, bis diese geschmolzen sind. Der Pegelstand im Whiskey-Glas ist danach nicht höher. Das liegt daran, dass Wasser beim Gefrieren sein Volumen um zehn Prozent vergrößert, und beim Schmelzen wieder um diesen Betrag verringert. Nur diese zehn Prozent des Eisberges ragen aus dem Wasser, und verschwinden wieder beim Schmelzen. Das ist das Archimedes’sche Prinzip.

factum: Und dass die Gletscher in den Alpen schmelzen liegt auch nicht nur an der globalen Erwärmung?

Puls: Auch da gibt es viele Faktoren. Wenn man einen Berg besteigt, fällt die Temperatur um 0,65 Grad pro 100 Meter. Als es in den letzten hundert Jahren ein Dreiviertel Grad wärmer wurde, verschob sich die mittlere Null-Grad-Grenze somit um rund 100 Meter nach oben. Zu beobachten ist aber, dass nicht nur die unteren Gletscher schmelzen, sondern auch die auf 1000 Meter und höher. Das hat eine andere Ursache, nämlich Ruß und Staub. Dunkleres Eis voller Aerosole absorbiert mehr Sonnenstrahlung, wobei die Strahlung in fühlbare Wärme umgewandelt wird. Sie merken den Unterschied selbst, wenn sie statt eines weißen ein schwarzes T-Shirt tragen, worunter Ihnen in der Sonne viel wärmer wird. Doch Ruß und Staub gibt es nicht nur anthropogen seit der Industrialisierung, sondern auch in der Natur, zum Beispiel durch Vulkanismus, Staubstürme, Wald- und Steppenbrände. Aus diesen Gründen gab es auch in der Erdgeschichte immer schon Gletscherschmelzen, wobei man zum Beispiel aus Forschungs-Ergebnissen der Glaziologen weiß, dass die Alpengletscher in den letzten 10. 000 Jahren meist kleiner waren als heute.

factum: Ihrer Ansicht nach steht es gar nicht so schlimm um das schmelzende Eis in der Antarktis, in der vor drei Jahren ein riesiger Eisberg wegbrach?

Puls: Nein, im Gegenteil. In den letzten 30 Jahren hat die antarktische Eiskappe an Fläche und Volumen zugenommen und die Temperatur dort abgenommen. Das betrifft sowohl die Antarktis als auch den peripheren schwimmenden Eisgürtel. Diesen 30-Jahre-Trend kann man recht gut beurteilen, weil man ungefähr seit dieser Zeit dort ein Messnetz mit etwa 40 Stationen von verschiedenen Ländern hat. Stationen, die schon länger messen, wie die Amundsen-Scott-Station der USA direkt am Südpol dokumentieren, dass die Temperatur sogar bereits seit 1957 zurückgeht. In der Antarktis sind 90 Prozent des Eises der Erde gebunden, und die Antarktis ist etwa eineinhalb Mal so groß wie Europa.

factum: Wieso lesen wir dann oft, es sei in der Antarktis wärmer geworden?

Puls: Die einzige erwähnenswerte antarktische Region, in der es in den letzten Jahrzehnten wärmer geworden ist, ist genau das Gebiet, in dem im März 2008 ein 100 Quadratkilometer großer Eisberg vom Wilkins-Schelf abgebrochen ist: Die Region der Antarktischen Halbinsel. Sie umfasst jedoch kaum ein Prozent der Fläche der Antarktis. Diese Halbinsel liegt rund 1000 Kilometer südlich von Feuerland und erstreckt sich um weitere 1000 Kilometer nach Süden. Somit liegt sie voll im Einflussgebiet der stärksten Sturmzone der Erde, der südhemisphärischen Westwinddrift.

factum: Was verursacht solche Abbrüche?

Puls: Bei Eisabbrüchen in der West-Antarktis spielen nicht nur Dicke, Druck und infolgedessen Rutschungen eine Rolle, sondern über die Jahrhunderte auch Intensitäts-Schwankungen dieser Westwinde, analog zu den Zirkulations-Schwankungen in den gemäßigten Breiten der Nordhalbkugel, zum Beispiel auf dem Nordatlantik. Intensivieren sich die Westwinde, was seit mehr als 20 Jahren auf der Südhalbkugel beobachtet wird, so wird es zum Beispiel an der Westküste der Antarktischen Halbinsel wärmer, denn der Temperatur-Unterschied zwischen den Winden und dem damit anbrandenden Meerwasser und dem Eis beträgt mehr als 20 Grad. Zweiter Faktor sind die durch die Winde hervorgerufenen Sturmwellen. Sie schlagen gegen das Eis und bewirken mechanisch einen Eisabbruch. Und ein dritter Faktor: Wenn sich immer mehr Schnee und Eis nach oben hin auftürmen, wächst die Eisdicke und damit auch der Druck nach unten. Druck erzeugt Wärme, so dass sich unter dem Eis eine Flüssigwasserschicht bildet, auf der die Gletscher anfangen zu rutschen. All diese Ursachen sind also meteorologischer beziehungsweise physikalischer Natur und haben nichts mit irgendeiner Klimakatastrophe zu tun.

factum: Dann muss es auch schon früher solche Eis-Abbrüche gegeben haben?

Puls: Ja, seit Jahrtausenden, so auch in den 70er Jahren, in denen ja noch nicht von „Global Warming“ die Rede war. Im Gegenteil: Der "SPIEGEL“ titelte noch im August 1974 "Kommt eine neue Eiszeit?“ Es gab damals  Eis-Abbrüche von einigen hundert Quadratkilometern Durchmesser, so dass in den Medien diskutiert wurde, ob man die Eisberge per Schlepper in trockene Länder wie Südafrika oder Namibia als Trinkwasserversorgung bringt. Das war dann aber logistisch schwer zu bewältigen.

factum: Was ist mit den Fotos von den Eisbären, die nicht mehr genug Eis haben und die gern in den Medien abgedruckt werden, wenn es um den Klimawandel geht?

Puls: Das ist eine der schlimmsten Klimahysterie-Geschichten. Der Eisbär ist da die Ikone. Der Eisbär frisst kein Eis, er frisst Robben. Er stirbt, wenn wir die Robben bejagen oder gar ausrotten, nicht, wenn das Eis schmilzt. Er hat genug Land, auf dem er leben kann, es gibt im Nordpol-Bereich sehr viele Inseln, außerdem Nordgrönland, Alaska, Sibirien, die ganze Polarkalotte. Die Eisbärpopulation hat sich während der mäßigen Klimaerwärmung auf der Nordhalbkugel sogar vermehrt! Vor 50 Jahren wurden in der gesamten Nordpolregion 5000 Eisbären gezählt, heute sind es etwa 25 000 Eisbären. 

factum: Aber es ist richtig, dass das Eis in der Arktis, anders als in der Antarktis, weiterhin schmilzt?

Puls: Ja, es schmilzt seit 30 Jahren. Das hat es aber auch schon in den letzten 150 Jahren zweimal gegeben. 2007 gab es einen sommerlichen Tiefpunkt, seitdem gibt es jedoch jedes Jahr im Sommer wieder etwas mehr Eis. Das Eis schmilzt im Sommer und legt im Winter wieder zu. Die Sorge der Forscher im Jahr 2007, dass der so genannte unumkehrbare Kipppunkt erreicht sei, war unbegründet. Der Sommer-Tiefpunkt von 2007 wurde seit fünf Jahren nicht mehr erreicht oder gar unterschritten. Eisschmelzen hat es schon immer gegeben. Zwischen 900 und 1300 war Grönland bereits schon einmal in den Randbereichen grün, die Wikinger besiedelten „Grün-Land“.

factum: Und was sagen Sie zur oft behaupteten Ausdehnung der Wüsten?

Puls: Die existiert nicht. Die Sahara schrumpfte zum Beispiel zugunsten der umliegenden Steppen. In den letzten 20 Jahren schrumpfte die Sahara im Norden um etwa 300 000 Quadratkilometer, ein Gebiet fast so groß wie Deutschland. Im Süden der Sahara liegen die Trockensteppen des Sahel-Gürtels. Auch dort ist seit mehr als 20 Jahren  sowohl eine Zunahme von Niederschlägen als auch das Ausbreiten von bestimmten Bäumen und Sträuchern zu beobachten. Mittlerweile ist eine Fläche von etwa 300 000 Quadratkilometern "ergrünt“. Die in 2010 aufgetretene Hungersnot in Somalia, Kenia und Äthiopien ist vor allem durch die Pachtung von großen Ländereien durch internationale Konzerne und den dortigen Anbau von Bio-Sprit-Pflanzen für Europa aufgetreten,  sowie natürlich auch durch Krieg und Terror. Es erscheint jedoch im wohlhabenden Europa bequemer zu sein, eine fiktive Klima-Katastrophe für die gesellschaftlichen Fehler und Versäumnisse dieser Welt verantwortlich zu machen.

factum: Brauchen wir dann gar nichts gegen den Klimawandel tun?

Puls: Wir können nichts dagegen tun. Naturwissenschaftlich ist es schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben "ein schön angenehmes stabiles Klima“ festhalten zu wollen. Viele verwechseln jedoch Klimaschutz und Umweltschutz. Das Klima können wir nicht schützen, aber wir müssen natürlich die Umwelt schützen und uns um sauberes Trinkwasser für alle Völker kümmern.

Noch etwas ist mir wichtig: Eine auch meines Erachtens in etlichen Ansätzen sinnvolle Debatte zu alternativen Energien wird auf eine irrationale Klima-Debatte drauf gesattelt. Das eine hat mit dem anderen nichts zu tun.

Vielen Dank für das Gespräch

Interview: Bettina Hahne-Waldscheck

Der Beitrag wird mit der freundlichen Bitte um fachliche Kommentierung an die wissenschaftliche Leitung des Alfred Wegener Instituts (AWI) gesandt. Wir sind der Auffassung, dass das AWI als öffentlich rechtliche Forschungsinstitution eine Kommentierungs- und Berichtspflicht dem Bürger gegenüber hat. Wir werden die Antwort des AWI – bzw. auch das mögliche Ausbleiben einer Antwort – hier auf der EIKE-Seite veröffentlichen.

Die Redaktion

Weiterführender Link: Die Welt 2007: Nordpol bereits in fünf Jahren eisfrei

 

Related Files




Sonderweg Deutschland: Minister wollen keine billige Energie zulassen! Förderung von Schiefergasvorkommen untersagt!

Die Bundesminister wenden sich damit gegen die Pläne von Energiekonzernen, die insbesondere in Nord- und Ostdeutschland auf in Gestein eingeschlossene Erdgasvorkommen gestoßen sind

Mit Dank an Benny Peiser von ACHGUT




Aristoteles’ Lehre von den Trugschlüssen: jeder einzelne wird in der Hysterie um die globale Erwärmung bestätigt

Der griechische Philosoph Aristoteles hat vor 2300 Jahren das Dutzend der verbreitetsten logischen Trugschlüsse in menschlichen Gesprächen in seinem Buch Sophistical Refutations aufgelistet. Nicht das Geringste unter diesen ungültigen Argumenten ist eines, das die mittelalterlichen Lehrmeister später das argumentum ad populum – den Konsens- oder Mehrheitstrugschluss – nennen sollten.

Ein Trugschluss ist ein irreführendes Argument, das logisch einwandfrei zu sein scheint, es aber tatsächlich nicht ist. Die Schlussfolgerung daraus wird im besten Falle unzuverlässig sein und im schlimmsten Fall einfach falsch. Man sollte nicht den Fehler machen, die von Aristoteles gelisteten Trugschlüsse als irrelevante Archaismen abzutun. Sie sind heute noch genauso grundlegend gültig wie zu der Zeit, als er sie niedergeschrieben hatte. Argumente, die auf irgendeinem seiner gelisteten Trugschlüsse beruhen, sind unsolide und unzuverlässig, und das ist es.

Um damit zu beginnen, fast alle der gewöhnlichen Argumente zum Alarm über das Klima sind Beispiele von Aristoteles’ Dutzend Trugschlüsse von Relevanz oder auch Anmaßung, von denen der Konsens-Trugschluss nicht der Geringste ist.

Nur weil man uns sagt, dass viele Leute sagen, sie glauben, eine Sache sei so und so, dann ist es kein Beweis, dass viele Leute das sagen und noch weniger, dass sie es glauben und wieder weniger, dass es so ist. Die bloße Tatsache eines Konsens’ – selbst wenn es einen gäbe – sagt uns überhaupt nichts darüber, ob die Angelegenheit, über die der Konsens vermeintlich besteht, richtig oder falsch ist.

Zwei Umfragen haben angeblich gezeigt, dass 97% aller Klimawissenschaftler hinter dem „Konsens“ stehen. Allerdings fand die eine Umfrage nur unter 77 Wissenschaftlern statt, eine viel zu kleine Zahl, um repräsentativ zu sein, und in der Frage, die ihnen vorgelegt worden war, ging es nur darum, ob es seit 1950 eine Erwärmung gegeben habe. 75 der 77 Befragten bejahten.

In der anderen Studie war nicht explizit festgelegt, welche Fragen den Wissenschaftlern vorgelegt worden sind, und sie erklärte auch nicht, wie sie ausgewählt worden waren, um einen Bias zu entfernen. Sie war erwiesenermaßen wertlos. Jedoch hat dies nicht die üblichen Verdächtigen davon abgehalten, – fälschlich – zu behaupten, dass es der „Konsens“ von 97% aller Klimawissenschaftler sei, dass die vom Menschen verursachte globale Erwärmung potentiell katastrophal sei.

Einige Klimaextremisten sagen, dass es „einen Konsens der Beweise“ gebe. Allerdings sind Beweise keine Meinungssache. Es gab seit eineinhalb Jahrzehnten keine Erwärmung; der Meeresspiegel ist seit acht Jahren mit einer Rate äquivalent zu gerade mal 3 Zentimetern pro Jahrhundert gestiegen; die Hurrikanaktivität hat seit 30 Jahren Satellitenbeobachtung ein Rekordminimum erreicht; die globale Ausdehnung des Meereises hat sich während dieser Zeit kaum verändert; die Gletscher des Himalaya hatten keinen Eisverlust erlitten; der Wärmegehalt der Ozeane steigt viereinhalb mal langsamer als vorhergesagt; und die 50 Millionen „Klimaflüchtlinge“, von denen die UN gesagt haben, dass es sie bis zum Jahr 2010 geben würde, existieren schlicht und ergreifend nicht. Bis heute unterstützt der „Konsens der Beweise“ keinen Katastrophismus.

„Aber”, sagen die Gläubigen, „es gibt einen Konsens der Wissenschaftler und der gebildeten Gesellschaften”. Das ist das argumentum ad verecundiam, der Trugschluss, dass er richtig sein muss, weil er von Autoritäten stammt. Nur weil eine Gruppe einen Ruf hat, heißt das nicht, dass sie ihn auch verdient; und selbst wenn sie ihn verdient, muss sie sich nicht danach verhalten; und selbst wenn sie das tut, könnte er falsch sein.

„Aber nur, wenn wir von einem starken Erwärmungseffekt des menschlichen CO2 ausgehen, können wir die beobachtete Erwärmung der letzten 60 Jahre erklären. Wir können uns keinen anderen Grund für die Erwärmung vorstellen!“ Dieses Argument seitens des IPCC ist das argumentum ad ignorantiam, der Trugschluss der Argumentation aus Ignoranz. Wir wissen nicht, warum die Erwärmung erfolgt ist. Willkürlich den Menschen dafür verantwortlich zu machen ist unzulässig.

„Die Rate der globalen Erwärmung beschleunigt sich. Darum müssen wir der Grund dafür sein!“ Das ist der Trugschluss der ignoratio elenchi. Selbst wenn sich die globale Erwärmung beschleunigt, sagt uns das noch nichts darüber, ob wir dafür verantwortlich sind. Das IPCC benutzt dieses Trugschlussargument gleich zweimal in seinem Zustandsbericht von 2007. Selbst wenn dieses Argument nicht unlogisch wäre – die Erwärmungsrate nimmt nicht zu. Die Aussage, dass sie sich beschleunigt, beruht auf einem statistischen Missbrauch, den zu korrigieren sich das IPCC geweigert hat.

Oberflächlich betrachtet, könnte dieser Trugschluss ähnlich dem Trugschluss aus Ignoranz sein. Allerdings besteht ein fast unmerklicher Unterschied. Das Argument aus Ignoranz bezieht sich auf die fundamentale Ignoranz dessen, um das es bei dem Argument geht (so dass folglich eine beliebige Schlussfolgerung gezogen werden kann). Dieser Trugschluss hier bezieht sich auf die fundamentale Ignoranz der Art und Weise, wie das Argument zustande gekommen ist (so dass folglich eine irrelevante Überlegung ins Spiel gekommen ist).

„Aber was ist mit diesen knuddeligen Eisbären?“ Das ist das argumentum ad misericordiam, der Trugschluss unangebrachten Mitleids. Es gibt heute fünf mal so viele Eisbären wie in den vierziger Jahren – wohl kaum das Profil einer Spezies, deren Aussterben bevor steht. Es besteht kein Grund, Mitleid mit den Bären zu haben (und sie sind nicht knuddelig).

„Seit 60 Jahren pusten wir CO2 in die Atmosphäre. Das verursacht Erwärmung. Daher ist die Erwärmung unsere Schuld!“ Das ist der post hoc ergo propter hoc–Trugschluss, das Argument aus falschen Gründen. Nur weil ein Ereignis einem anderen Ereignis vorangeht, heißt das noch lange nicht, dass das vorangehende Ereignis Ursache des folgenden Ereignisses ist.

„Wir sagen unseren Computermodellen, dass es eine starke Erwärmung geben wird, wenn wir der Luft CO2 zuführen. Die Modelle zeigen, dass es eine starke Erwärmung geben wird. Daher ist die Erwärmung unsere Schuld.“ Das ist das argumentum ad petitionem principii, der Trugschluss des Zirkelschlusses, wobei die Voraussetzung auch die Schlussfolgerung ist.

„Die globale Erwärmung war Ursache für den Hurrikan Katrina.” Das ist das ungeeignete Argument vom Allgemeinen zum Einzelfall, der Trugschluss a dicto simpliciter ad dictum secundum quid, der Trugschluss des Zufalls. Selbst das IPCC gibt zu, dass individuelle Einzel-Extremwetterereignisse nicht der globalen Erwärmung zugeordnet werden können. Hurrikan Katrina wurde beim Übertritt auf das Festland mit Stufe 3 eingeordnet. Die wahre Ursache der immensen Schäden war, dass man die Deiche grob vernachlässigt hatte.

„Das arktische Meereis schmilzt: Daher ist die vom Menschen verursachte globale Erwärmung ein Problem.” Das ist das unpassende Argument vom Einzelfall zum Allgemeinen, der Trugschluss a dicto secundum quid ad dictum simpliciter, also des umgekehrten Zufalls. Die Arktis kann schmelzen, aber in der Antarktis zeigt sich seit 30 Jahren eine Abkühlung, verbunden mit der immer weiteren Ausdehnung des Meereises, so dass die Eisabnahme in der Arktis nicht ein Anzeichen für ein globales Problem ist.

„Monckton sagt, er sei Mitglied des House of Lords, aber der Parlamentspräsident sagt, dass er das nicht ist, also ist alles, was er sagt, Unsinn.” Das ist das argumentum ad hominem, der Angriff auf den Mann und nicht auf seine Argumente.

„Uns kümmert die Wahrheit nicht. Wir wollen mehr Besteuerung und Regulierung. Wir werden die globale Erwärmung als Grund anführen. Wenn Sie damit nicht übereinstimmen, werden wir Sie von den Internationalen Klimagerichtshof zerren!“ Das ist der schlimmste aller logischen Trugschlüsse: das argumentum ad baculum, das Argument der Stärke.

In jeder früheren Generation hätte man über die alberne Kaskade von Trugschlüssen der Klimaextremisten in Regierung, Akademien und Medien mit ihrer Unterstützung der jetzt zusammenbrechenden Klimaangst laut gelacht.

Wenn der künftige britische Premierminister Harold Macmillan in Oxford auftauchte, um die Klassiker zu studieren, sagte sein Tutor: „Vier Jahre Studium werden Sie für überhaupt nichts qualifizieren – außer zu erkennen, dass etwas faul ist, wenn Sie es hören“. Die Klimageschichte ist verfault. Um weiteren, in kunstvollem Unsinn wurzelnden kostenintensiven Betrug zu verhindern, sollten wir vielleicht die universelle klassische Bildung wieder einführen. So wie es jetzt ist, scheint es, als ob unsere herrischen Umweltaktivisten alles, was sie lernen, direkt von Mr. Spock in Raumschiff Enterprise stammt.

Lord Christopher Monckton

Financial Post

Link: http://opinion.financialpost.com/2012/04/20/aristotles-climate/

Übersetzt von Chris Frey EIKE




„Die Energiewende“ oder „Die Verstaatlichung der Energieversorgung Deutschlands

Da ich nicht so recht weiß, ob es einen aktuellen Thread zum deutschen Energiewahnsinn gibt, mache ich mal einen neuen auf.

Wieder habe ich Post von meinen Kumpel aus der Energiewirtschaft bekommen und den unterhaltsamen, fachlich wertvollen und sprachlich stilsicheren Text möchte ich Euch nicht vorenthalten, auch wenn die Sache selbst alles andere als lustig ist.

Verstaatlichung der Energieversorgung Deutschlands

Das vielgepriesene EEG (erneuerbare Energien Gesetz) ist ein politisches Meisterwerk in der Zerstörung eines freien Marktes. Zugleich ist es ein Lehrstück darüber, wie man mit einer Preisverzerrung in einem kleinen Teilmarkt, den man dann wie einen Hefekuchen aufgehen lässt, eine Kostenlavine lostritt, die sich nicht mehr bremsen lässt und immer neue Verwerfungen produziert.

Teil 1: Die Zeitbombe

Jürgen Trittin kreiert das EEG und lässt per Staatsverordnung allen Eigentümern von Windrädern und Solaranlagen eine marktferne Zwangsvergütung ihres Stroms zukommen (so wie in der DDR im H0-Laden). Alle Ökonomen, die dies als nicht marktkonform geißeln, werden als Theoretiker und neoliberal verspottet. In der Tat stellt das EEG anfänglich weder eine merkliche Belastung für den Strompreis noch für die Netze dar, da es so wenig EEG Strom gibt. Da das Gesetz aber für die Zukunft festgeschrieben ist, entsteht eine rasant wachsende subventionierte Industrie im In- und Ausland, welche sich zunehmend an den Deutschen Fördertöpfen labt. Das ist bereits der Tipping Point. "Jetzt sind wir alle Windmüller". Die Menschen werden von den Subventionen abhängig und keiner dreht sie zurück, ohne sich eine blutige Nase zu holen.

Teil 2: Das Ding geht hoch

Mittlerweile gibt es soviel EEG Strom, dass:

a) an vielen Tagen ein Überangebot herrscht, was die Netze destabilisiert
b) ein Strompreis, der häufig negativ wird (man muss Geld bezahlen, um Franzosen und Polen unseren Strom schenken zu dürfen)
c) die Subventionen den Strompreis in den kommenden Jahren extrem in die Höhe treiben werden, da man den Besitzern der EEG Anlagen trotz negativem Abnahmepreis die vollkommen überhöhten Preise garantiert hat und sie jede KWh ihres Stromes einspeisen dürfen, völlig am Bedarf vorbei.
d) der Bau von konventionellen Kraftwerken, die bei Windstille dringend nötig sind, sich nicht mehr rechnet, da die Stillstandzeiten zu groß sind.

Man hat also einen funktionierenden Strommarkt weitgehend in eine Non Profit Zone verwandelt. Die Stromkonzerne wollen keine Kraftwerke mehr bauen, obwohl es eine Stromlücke gibt. Das gibt es in keinem anderen Land der Welt.

Was nun? Die Politik behilft sich als Antwort auf soviel Marktverzerrung und Fehlalokation mit weiteren Verzerrungen. Nun soll der Bau von Gaskraftwerken subventioniert werden (der Strom fehlt vor allem im Süden). Das ist typisch Politiker. Wie man ja aus der Merrit-Order der Kraftwerke an der Strombörse sieht, sind die Gaskraftwerke die unrentabelsten konventionellen Kraftwerke. Am rentabelsten wären nach AKWs die Braunkohlekraftwerke. Aber das K-Wort nimmt von den Politikern keiner in den Mund. Das ist ideologisch nicht opportun.

So werden also Gaskraftwerke gefördert, deren Betrieb sich am wenigsten rechnet. Auch diese Förderung ist einmalig in der Welt. Wir stellen uns staatlich gefördert zweimal die Stromversorgung für ganz Deutschland hin. Einmal grün und gut und einmal fossil und böse – aber notwendig an 180 Tagen im Jahr. Alles staatlich gefördert.

Alles gut dann? Nein: die Netze fehlen. Irgendeiner da, der Lust hat Netze zu bauen? Nein! Weit und breit keiner. Nochmal: es fehlen in einer der größten Industrienationen die Netze (Milliardenmarkt) und keiner will sie bauen. Warum? Weil es die Bundesnetzagentur gibt, welche die Preise reguliert, mit denen die Netze finanziert werden. Also noch ein Markteingriff, der übrigens einmal eingeführt wurde, um die Strompreise zu senken!

Und die Gaskraftwerke? Die wird EON sicherlich mit fetten staatlichen Garantien bauen. Die spannende Frage wird sein: wird EON die Bereitschaft dieser Kraftwerke auch im Windstillefall auch fest garantieren. Die Antwort: ein klares Jein. EON kann die technische Bereitschaft zwar garantieren, nicht aber die Versorgung dieser Kraftwerke mit Gas. Warum? Weil Gasleitungen in den Süden fehlen und bei Gasknappheit die Versorgung von Haushalten Vorrang hat (so geschehen letzten Winter). Es fehlen also Gasnetze in erheblichem Umfang in einer der größten Ökonomien der Welt. Irgendeiner da, der Gasnetze bauen will? Hallo, Milliardenmarkt!!! Keiner. Warum? Weil es die Bundesnetzagentur gibt, welche die Durchleitungspreise für Gas regelt. Die neuen Gasleitungen würden aber nicht sonderlich stark ausgelastet sein, weil man sie ja nur selten braucht. Das sporadische Angebot der regenerativen Energien zieht sich durch die gesamte Energieinfrastruktur und produziert Überangebote, die vom Markt nicht finanziert werden. Man müsste schon am Markt für die Durchleitung dieses "Notgases" sehr viel Geld verlangen dürfen. Geht aber nicht so ohne weiteres, da die Netzagentur dies anders sehen könnte. Dazu kommen Planungsverfahren von Jahrzehnten. Die Lösung? Der Bau dieser Gasnetze müsste mit staatlichen Anreizen usw…. Oder lasst uns doch die Netze direkt verstaatlichen. Das fordert mittlerweile auch David McAllister. Bingo. Das ist aber keine Verstaatlichung, da diese Netze größtenteils garnicht existieren. Der Steuerzahler soll sie voll finanzieren.

Auf der Nachfrageseite gibt es mittlerweile auch Preisverzerrung. Der immer teurere Strom kann von der Industrie nicht mehr bezahlt werden. Wie reagiert die Politik, klaro mit Preisregulierung. Sie nimmt die Industrie von den Erhöhungen aus und legt das auf die Verbraucher um, bis auf sozial schwache… Wer wieviel zahlt ist also eine Frage des sozialen Standes und nicht von Angebot und Nachfrage.

Noch eine Kleinigkeit: Durch das Abschalten der AKWs und den gleichzeitigen Garaus vieler Kohlekraftwerke bleiben dann als Netzstabilisatoren immer mehr Gaskraftwerke. Wo kommt das Gas eigentlich her? Wenn es Russland nicht gefällt, fehlt uns im Winter nicht nur das Gas zum heizen sondern auch der Strom um wenigstens einen Tee zu kochen. So was nenne ich ein echtes Klumpenrisiko.

So, war´s das? Ach ja, Stromspeicher noch: Die sind eine nochmalige Verteuerung der Stromproduktion, da sie alle einen geringen Wirkungsgrad haben und somit beim Speichern von Strom, einen erheblichen Teil der Energie in Abwärme umwandeln. Siemens hat da so einige gigantische Ideen (Wasserstofftechnik etc.) aber "bei solchen Summen muss auch der Staat uns ein klares Signal geben" – übersetzt: am Markt funktioniert so was nicht, es muss staatliche Anreize geben.

So darf jeder mal an der Bude des Energiemarktes einen Schießen und der Staat bezahlt´s.

Derweil erweist sich das allseits gefeierte EEG als Massenvernichtungswaffe für eine günstige und stabile Stromversorung.

Autor  Schissbux , 04.05.2012, 19:04 auf dem Blog Das gelbe Forum

Mit Dank an Spürnase Gerhard Lukert




Wie kann man eine mittlere Globaltemperatur ermitteln? Was die Statistik verlangt und erlaubt

Wenn der zeitliche Verlauf  globaler Temperaturen graphisch dargestellt wird, so z. B. von dem NASA Goddard Institut for Space Studies (GISS), werden meist  Temperaturanomalien gezeigt. (Abb. 1 nebenstehend) Dabei handelt es sich z. B. um Jahresmittelwerte, die ihrerseits auf einen  Mittelwert über ein definiertes Zeitintervall bezogen werden, z. B. 1961 – 1990. Man muss sich darüber im Klaren sein, dass es sich bei Mittelwerten um  Schätzungen handelt, die letztendlich auf einer für repräsentativ gehaltenen Auswahl von Einzelmessungen beruhen. 

Die zulässigen Methoden der Mittelwertbildung unter Berücksichtigung der Schätzfehler  von den Messdaten bis zur globalen Jahresmitteltemperatur soll im Folgenden dargestellt werden. Darauf aufbauend werden für ausgewählte Temperaturreihen die Mittelwerte auf signifikante Unterschiede analysiert.

Abb. 2 

Es existieren weltweit ca. 39.000 meteorologische Stationen, die neben der Registrierung anderen Wetterdaten die bodennahen (2m) Lufttemperatur messen. Wie Abb. 2 zu entnehmen, sind diese Stationen sind nicht homogen über die Landfläche der Erde verteilt (die Markierungen in den Meeren beziehen sich auf  Inseln).

Zwischen 1000 und 3000  von ihnen werden mit z. T. unterschiedlicher Gewichtung zur Berechnung der Globaltemperatur-Reihen  der verschiedenen Institutionen herangezogen. Die bodennahen Lufttemperaturen werden auch von einem Satelliten (TIROS-N ) erfasst und können u. a. als globale Verteilungen dargestellt werden.

So wurden von der NOAA (National Oceanic and Atmospheric Administration, USA) z. B.  für den 2. März 2012 die folgenden ”Momentaufnahmen” (Abb. 3)veröffentlicht:

Abb.  3

Die riesige geographische Variabilität der bodennahen  Landtemperaturen durch einen einzigen Mittelwert  charakterisieren zu wollen, erscheint sehr ehrgeizig. Die ständigen täglichen, wie auch jahreszeitlichen Temperaturänderungen erschweren dieses Vorhaben zusätzlich.

Betrachtet man zunächst einmal nur eine einzige Station. Die allgemein vorgeschriebenen Bedingungen zur Messung der bodennahen Temperatur verlangen, dass ein geeichtes Thermometer in einem als ”englische Hütte” bezeichneten Kasten zwei Meter über dem Erdboden untergebracht ist (Abb. 4).

Abb.  4

Der weiße Anstrich und die Belüftungslamellen sollen gewährleisten, dass die Lufttemperatur ungestört (im Gleichgewicht  mit der Umgebung) gemessen werden kann. Tagesmittelwerte werden weltweit nach verschiedenen Methoden gebildet

In Deutschland wird traditionell das arithmetische Mittel aus den 7 Uhr, 14 Uhr und 21 Uhr Temperaturen berechnet, wobei der 21 Uhr Wert doppelt gewichtet  wird.

Nach Umstellung auf elektronische Datenerfassung sind auch andere Mittelwertbildungen gebräuchlich.

Der Tagesmittelwert ist in jedem Fall eine  Schätzung, die als verbindlich betrachtet wird, ohne mögliche Fehlerquellen der Station (Ablesefehler, Aufbau und Anstrich der ”englischen Hütte”, Beeinflussung der Umgebung durch lokale Wärmequellen) zu berücksichtigen.
  

Abb. 5 zeigt die Tagesmittelwerte der Station Braunschweig Völkenrode des Deutschen Wetterdienstes (DWD) für Februar 2011 dargestellt. Wenn daraus ein Monatsmittelwert gebildet werden soll, muss man aus statistischer Sicht erst einmal untersuchen, welche Art der Mittelwertbildung für diese Grundgesamtheit, wie eine solche Ansammlung von Werten genannt wird, zulässig ist. Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen. Dazu werden die Tagesmitteltemperaturen in Größenklassen unterteilt und als Histogramm dargestellt:

Abb.  6

Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung  eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.

Genau dieser Fall tritt für die Oktober-Temperaturen 2011 ein.

In Abb. 7 sind die Verteilungen der Einzelwerte als schwarze Punkte als sogenannte  Jitterplots dargestellt. -Die Februarwerte streuen symmetrisch um das blau eingezeichnete arithmetische Mittel herum, während die Oktoberwerte unsymmetrisch mit einer Tendenz zu höheren Temperaturen um das das arithmetische Mittel verteilt sind.

Abb.  7

Von diesem weicht der Median deutlich ab, da er sich an der Lage der meisten Einzelwerte orientiert.  Die Kästchen über und unter dem Median repräsentieren die Lage von jeweils 25% der Einzelwerte (25% Quantile) und sind für den Oktober 2011 sehr unterschiedlich, während sie für den Februar fast gleich groß ausfallen. Auch sind die Werte für Median und arithmetisches Mittel fast identisch. Dies ergibt sich bei normalverteilten Grundgesamtheiten, bei denen zusätzlich  Kenngrößen für die Streuung berechnet werden können.

Die rot eingezeichneten Vertrauensbereiche (Konfidenzintervalle) weisen aus, dass der zutreffende Mittelwert  unter Berücksichtigung  der Verteilung der Einzelwerte  mit einer Wahrscheinlichkeit von 95% (95% Konfidenzniveau) in diesem Bereich liegt.

Abb.  8

Da jede Mittelwertbildung eine Schätzung darstellt, ist ihr eine von der Anzahl der Einzelwerte und deren Verteilung (eben der Grundgesamtheit) abhängiges Streuungsmaß sozusagen aufgeprägt.                                                        

Dies erlaubt die Anwendung von Signifikanztests, mittels derer  zum Beispiel für ein vorgegebenes Konfidenzniveau entschieden werden kann, ob sich Mittelwerte signifikant voneinander unterscheiden. Für normalverteilte Grundgesamtheiten  werden dabei andere Tests (Varianzanalyse) als für beliebige (nicht parametrische) Verteilungen angewandt, z. B. der Kruskal-Wallis Test.

Für den Vergleich der Februar-Mitteltemperaturen von 2001 bis 2011 der DWD Station Braunschweig (Abb. 8) können die arithmetischen Mittel der Tagesmittelwerte verglichen werden, da für jedes Jahr eine Normalverteilung vorliegt. Die darauf angewandte Varianzanalyse kommt zu dem Ergebnis, dass sich die Mittelwerte insgesamt auf einem Konfidenzniveau von 95% unterscheiden.

Um Jahresmittelwerte zu bilden, kann man die Tagesmittelwerte direkt verrechnen oder nach Bildung von Monats-mitteln,  diese zur Mittelwertbildung verwenden. 

Abb.  9

Da für die DWD Station Braunschweig die Jahresverteilungen der Tagesmittel die Normalitätskriterien nicht erfüllen, müssen die Mediane benutzt werden (Abb. 9).

Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Test angewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.

In der Praxis weren jedoch die Jahresmittelwerte aus den Monatsmittelwerten gebildet, wobei einfach vorausgesetzt wird, dass die Tageswerte der Monate jeweils normalverteilt sind. Das trifft auch meistens zu, da Mittelwerte,  auch wenn sie aus nicht normalverteilten Grundgesamtheiten gebildet  werden, tendenziell dazu neigen, eine Normalverteilung  anzunehmen.

Abb.  10

Die Streungsmaße der Monatsmittel werden in den öffentlich zugänglichen Datensätzen nicht weiter berücksichtigt, was jedoch aufgrund der Fehlerfortpflanzungsregeln nach Gauss geboten ist.                                       

Somit stehen nur solch Streuungsparameter,  die sich bei der Bildung von Jahresmittelwerten aus den veröffentlichten Monatswerten ergeben, für Signifikanztests zur Verfügung.

 In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher  fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10).  Die Varianzanalyse sagt aus, dass sich die Jahresmittelwerte nicht signifikant voneinander unterscheiden und gelangt damit zum gleichen Ergebnis wie der vorige Vergleich der Mediane aus Tagesmittelwerten geführt.

Abb.  11

Im nächsten Schritt, werden aus den Monatsmitteln einzelner Stationen Gebietsmittel gebildet. Der Deutsche Wetterdienst berücksichtigt z. Zt.  264 Stationen, die zur Berechnung einer für Deutschland relevanten Mitteltemperatur herangezogen werden. Die Monatswerte sind normalverteilt, so dass die Jahresmittelwerte durch arithmetische Mittel und ihre Konfidenzintervalle repräsentiert werden können. Eine Varianzanalyse weist keine signifikanten Unterschiede zwischen den Jahresmittelwerten seit 1960 aus (Abb. 11).                                                                                 

Dennoch läßt sich ein Trend berechnen, der durch eine Steigung von 0,03 ± 0,006 °C/Jahr  der Regressionsgeraden charakterisiert  wird, für die mit einem Bestimmtheitsmaß  von R2 = 0,33 eine beträchtliche  Unsicherheit besteht.

 

Tab. 1

Nach Angaben des Global Historical Climatology Network (GHCN), bei dem die Temperaturen der weltweit verteilten Stationen gesammelt werden, wurden 2011 zur Ermittlung der globalen mittleren Landtemperatur die Daten von 2644 Stationen berücksichtigt. Anzahl und Verteilung ist der Tabelle 1 zu entnehmen. Wie schon aus der oben gezeigten Karte hervorging, sind die Stationen nicht homogen über die Landfläche verteilt.                                                                                                

Temperatur – Zeit – Reihen werden im Wesentlichen von 3 von Institutionen mit unterschiedlichen Gewichtungen der Werte erstellt und publiziert.

 

Laure M. Montandon et al. haben die unterschiedliche  Berücksichtigung der vom GHCN nach Oberflächentypen differenzierten Landstationen tabelliert (Tab. 2).  Auffällig sind die hohen Anteile der urbanen Stationen. 

In jüngster Zeit haben Überarbeitungen der Zeitreihen dazu geführt, dass sich die Ergebnisse weitestgehend angenähert haben. Dies gilt auch für die beiden Reihen, in denen die Messungen des TIROS-N Satelliten auswertet werden.                  

 

Tab. 2 

Diese Daten basieren auf der Reflexion von ausgesandten Mikrowellensignalen und liefern relative Werte, die mithilfe der  landgestützten Auswertungen kalibriert werden müssen, um sie in Temperaturwerte umrechnen zu können.

 

Abb. 12 stellt die Zeitreihe der globalen monatlichen Mitteltemperaturen dar, wie sie vom NCDC (National Climate Data Center) bereitgestellt wird. Es sei darauf hingewiesen, dass keine Streuungsmaße mitgeteilt werden und daher auch nicht eingezeichnet sind.

Die die Regressionsgerade weist eine  Steigung von 0,022 mit einem Konfidenzintervall von ± 0,01 °C/Jahr auf und hat ein äusserst geringes Bestimmtheitsmaß  von R2 = 0,006 so dass der Trend als sehr unsicher angesehen werden muss.  

In Abb. 13 sind die Temperaturanomalien, bezogen auf die Referenzperiode von 1960 bis 1990, zu sehen. 

Auch hier fehlen Streuungsmaße, die aufgrund der Subtraktion der Mittelwerte der Referenz-Monatsmittemittel von den jeweiligen monatlichen Mittelwerten nach dem Fehlerfortpflanzungsgesetz sehr beträchtlich ausfallen.

Da diese nicht berücksichtigt werden, d. h. weniger Information über die Ausgangsdaten für weitere Berechnungen vorliegt, erhält man mit R2 = 0,5 nur ein scheinbar größeres Bestimmtheitsmass für die Regressionsgerade.

Ihre Steigung unterscheidet sich mit  0,022 ± 0,001 ebenfalls nur durch ein augenscheinlich um den Faktor 10 verringertes Konfidenzintervall von der obigen.

Da die Erdoberfläche nur zu angenähert einem knappen Drittel (29 %) aus Land, zu gut zwei Ditteln (71%) aber aus Ozeanen besteht, erscheint es sinnvoll, deren Temperaturen zur Berechnung einer Global-Mitteltemperatur einzubeziehen. Früher wurde dazu eine Wasserprobe mit einem Schöpfeimer (Pütz oder Bucket) genommen und die Temperatur des Wassers darin gemessen. Deren Schöpftiefe sollte 1 m betragen. Das wurde aber aus praktischen Gründen selten eingehalten. Man kann unterstellen, dass sie je nach Geschwindigkeit des Schiffes und Sorgfalt der beauftragten Person, diese irgendwo zwischen wenigen Zentimetern und max 1 bis 1,5 m lag. Heute wird die Wassertemperatur im Kühlwassereintritt der Schiffe in 3m bis 15 m Tiefe bestimmt. Stationäre Bojen messen die Wassertemperatur in 2m Tiefe (nach Mitteilungen von M. Limburg). 

Die solchermaßen gewonnenen Wassertemperaturen werden als SST (Sea Surface Temperatures) bezeichnet.

In Abb. 14  sind die NCDC Zeitreihen für die SST Monatsmittel-Temperaturen und Anomalien abgebildet:

Abb.  14

Die Steigungen der Regressionsgeraden sind mit 0,009 ± 0,001 und 0,01 ± 0,0002 nahezu identisch. Für die Anomalien ergibt sich ein R2 = 0,7, das aber auf dem Hintergrund fehlender Fehlerfortpflanzung kritisch zu betrachten ist. 

Die Kombination von Land- und Ozeanberflächentemperaturen wird in Abb. 15 gezeigt:

Abb.  15

Die  Steigungen der Regressionsgeraden fallen mit 0,013 ± 0,004 bzw. 0,013 ± 0,0004  auch hier praktisch gleich aus. Das Bestimmtheitsmaß ist mit R2 = 0,7 für die Mittelwert-Anomalien größer als für die Mitteltemperaturen mit  R2 = 0,02.           

Zwar ist es bemerkenswert, dass die Steigung für die Landwerte rund doppelt so hoch wie für SST und Land + SST Werte,  jedoch sollte immer bedacht werden,  dass die Bestimmtheitsmaße recht gering sind,  bzw. für die Anomalien wegen der nicht berücksichtigten Fehlerfortpflanzung nur gesteigert erscheinen.

Werden aus den Monatsmittelwerten Jahresmittel gebildet und die Signifikanzintervalle berechnet und dargestellt, ergibt sich die Abb. 16  für Landtemperaturen der NCDC Reihe.              

Abb.  16

Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.

Hierbei wird deutlich, dass bei der üblichen Darstellung von Temperaturreihen als Anomalien ohne Angabe von Streuungsparametern  wichtige Informationen unterdrückt werden und dadurch ungesicherten Spekulationen über Temperaturunterschiede und -trends  Vorschub geleistet wird.

Die Angabe einer globalen Mitteltemperatur bzw. der Veränderung einer globalen Mittelwertanomalie   (z. B. um 2°C gegenüber einem definierten Zeitpunkt) ist daher unter Beachtung statistischer Gesetzmäßigkeiten,  ohne Angabe von Konfindenzintervallen  als sinnlos zu betrachten.

Autor: PD Dr. habil Dr. Eckhard Schulze  < eckhard.schulze@gmx.org >

Quellen:

zu Tab. 1                 http://fzuber.bplaced.net/NOAA-GHCN-Stations-E.pdf

zu Tab. 2                 Laure M. Montandon et al.  Earth Interactions Volume  15 (2011)  Paper No. 6

zu Abb.1                 http://cdiac.ornl.gov/trends/temp/hansen/graphics/gl_land.gif

zu Abb.2                 http://data.giss.nasa.gov/gistemp/station_data/

zu Abb.3                  http://www.osdpd.noaa.gov/ml/mspps/surftprd.html

zu Abb.4                  http://imk-msa.fzk.de/Wettervorhersage/images/Huette.jpg

zu Abb. 5 bis 10      avacon.com/cms/ContentFiles/Internet/Downloads/Netze_SN_unterbrVerbrauchseinr_Tagesmitteltemp_2012.xls

zu Abb.11                http://www.dwd.de/bvbw/generator/DWDWWW/Content/Oeffentlichkeit/KU/KU2/KU21/klimadaten/german/download__gebietsmittel__temp,templateId=raw,property=publicationFile.xls/download_gebietsmittel_temp.xls

zu Abb.12  u. 13      http://junksciencearchive.com/MSU_Temps/NCDCabsLand.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomLand.csv

zu Abb.14 a u.b       http://junksciencearchive.com/MSU_Temps/NCDCabsOcean.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomOcean.csv                    

zu Abb.15 a u. b      http://junksciencearchive.com/MSU_Temps/NCDCabs.csv bzw. http://junksciencearchive.com/MSU Temps/NCDCanom.csv

Der gesamte Text kann als pdf im Anhang herunter geladen werden

Related Files




Warum es keinen Konsens zur globalen Erwärmung geben kann

Der Trugschluss der Verlässlichkeit auf einen Konsens, vor allem, wenn er zusammen mit dem argumentum ad verecundiam daher kommt, also dem Trugschluss, dass er richtig sein muss, weil er von Autoritäten stammt, wird wahrscheinlich mehr als alle anderen jene in die Irre führen, die keine philologische [?] Ausbildung in mathematischer oder formaler Logik haben.

Für den Philologen ist ein auf irgendeinem Aristoteles’schen logischen Trugschluss basierendes Argument a priori fehlerhaft. Mehr muss dazu nicht gesagt werden. Allerdings sind heutzutage nur Wenige Philologen. Dementsprechend möchte ich in diesem Beitrag mathematisch erklären, warum es keinen seriösen Konsens hinsichtlich der Antwort auf die zentrale wissenschaftliche Frage in der Klimadebatte geben kann: Wie viel Erwärmung wird es bis zum Jahr 2100 infolge unserer Emissionssünden geben?

Es kann keinen Konsens darüber geben, weil alle Schlüsselparameter in der fundamentalen Gleichung der Klimasensitivität unbekannt und unerkennbar sind. Nicht eine einzige kann direkt gemessen oder indirekt abgeleitet oder mit irgendeiner theoretischen Methode bis zu einem Grad berechnet werden, der präzise genug ist, um uns eine verlässliche Antwort zu geben.

Die fundamentale Gleichung der Klimasensitivität bestimmt, wie viel globale Erwärmung man erwarten kann, wenn das Klima erst einmal zu einem vermuteten zuvor existierenden Gleichgewicht zurück gefunden hat, nachdem wir es durch die Verdoppelung der atmosphärischen CO2-Konzentration gestört haben. Die vereinfachende Annahme, dass Temperatur-Rückkopplungen linear sind, wirkt sich nur wenig aus, so dass ich sie übernehme. Zur Klärung habe ich die wesentlichen Terme der Gleichung farbig dargestellt:

Die Klimasensitivität bei Verdoppelung des CO2-Gehaltes (blau) ist gleich dem Produkt des CO2-Antriebs (grün), dem Planck-Parameter (violett) und dem Rückkopplungsfaktor (rot).

Der grüne Term, ΔF2x, ist der „Strahlungsantrieb“, den das IPCC als Reaktion auf eine Verdoppelung des CO2-Gehaltes in der Luft erwartet. Messungen und die Modellierung haben ergeben, dass die Beziehung zwischen einer Änderung der CO2-Konzentration und einer korrespondierenden Änderung im net down-minus-up–Strahlungsfluss [?] an der Obergrenze der klimatisch aktiven Region der Atmosphäre (der Tropopause) ungefähr logarithmisch ist. Mit anderen Worten, jedes zusätzliche Molekül CO2 hat weniger Einfluss auf den Strahlungsfluss und folglich auf die globale Temperatur als sein Vorgänger. Die Auswirkungen werden geringer.

Um den Strahlungsantrieb als Folge einer CO2-Verdoppelung zu bestimmen, multipliziert man den natürlichen Logarithmus zur Basis e (der eulerschen Zahlmit einem unbekannten Koeffizienten. Im ersten und zweiten Zustandsbericht des IPCC wurde dieser mit 6,3 angegeben, im dritten und vierten Zustandsbericht jedoch heftig um 15% auf 5,35 reduziert. Der CO2-Antrieb wird jetzt mit 5.35 ln 2 = 3.708 Watt pro Quadratmeter angenommen. Dieser Wert wurde aus Vergleichen zwischen drei Modellen gewonnen: aber Modelle können dies nicht zuverlässig bestimmen. Beide Werte des IPCC für diesen wichtigen Koeffizienten sind Schätzungen.

Der violette Term,, angegeben in Kelvin pro Watt pro Quadratmeter direkten Antriebs, ist der Planck- oder Null-Rückkopplungs-Klimasensitivitäts-Parameter. Dies ist eine der wichtigsten Größen in der Gleichung, weil sowohl die direkte Erwärmung vor der Rückkopplung als auch unabhängig davon der Rückkopplungsfaktor davon abhängt. Und doch gibt es nur wenig Literatur darüber. Jüngste Beobachtungen haben Hinweise dafür gebracht, dass der IPCC-Wert eine erhebliche Übertreibung ist.

Der Planck-Parameter ist – in der Theorie – das erste Differential der fundamentalen Gleichung des Strahlungstransportes etwa 5 bis 8 Kilometer über unseren Köpfen, wo definitionsgemäß Ein- und Ausstrahlung gleich groß sind. Der gemessene Strahlungsfluss beträgt 238 Watt pro Quadratmeter. Die Strahlungstransportgleichung ergibt dann die theoretische mittlere Temperatur von 255 Kelvin in dieser Höhe, und das erste Differential beträgt 255 / (4 x 238), oder 0,267 Kelvin pro Quadratmeter. Dieser Wert wird durch ein Sechstel erhöht auf 0,313, weil die globale Temperatur nicht gleichmäßig verteilt ist. Allerdings handelt es sich ebenfalls um eine Schätzung, und die kürzliche Lunar Diviner-Mission legt nahe, dass es eine nennenswerte Überschätzung ist.

In der Theorie sollte die mittlere Temperatur der Mondoberfläche um 270 Kelvin liegen. Allerdings hat Diviner inzwischen ergeben, dass die mittlere Temperatur am Mondäquator bei etwa 206 Kelvin liegt, was impliziert, dass die mittlere Temperatur an der Mondoberfläche nur wenig über 192 Kelvin liegt. Wenn das so ist, dann ist der theoretische Wert von 270 Kelvin und in der Folge der lunare Planck-Parameter eine Übertreibung um 40%.

Falls man den irdischen Planck-Parameter ähnlich übertreiben würde, würde die Klimasensitivität selbst dann, wenn man alle anderen Parameter konstant hält, allein aus diesem Grunde um mehr als die Hälfte geringer sein, statt 3,3 K nur 1,5 K pro CO2-Verdoppelung. Es gibt Beweise, dass die Überschätzung vielleicht nicht mehr als 20% beträgt, so dass die Klimasensitivität mindestens 2,1 betragen würde: immer noch um zwei Drittel unter der zentralen Schätzung des IPCC.

Wenn es keine Temperatur-Rückkopplungen gäbe, die direkte Erwärmung durch die CO2-Verdoppelung abzumildern, wäre die Erwärmung einfach das Produkt aus dem Strahlungsantrieb des CO2 und dem Planck-Parameter: folglich ergäbe sich unter Einsetzung der IPCC-Werte 3,708 X 0,313 = 1,2 K.

Aber das reicht nicht, um die vom Gründungsdokument des IPCC geforderte Klimakrise auszulösen: Also nimmt das IPCC die Existenz zahlreicher Temperatur-Rückkopplungen an – zusätzliche Antriebe fn, angegeben in Watt pro Quadratmeter pro Kelvin der direkten Erwärmung, die sie ausgelöst hatte. Das IPCC sagt auch, dass diese Rückkopplungen so stark positiv sind, dass sie die direkte Erwärmung, die wir mit unseren CO2-Emissionen auslösen, verdreifacht.

Der rote Term in der Gleichung zur Klimasensitivität ist der dimensionslose Gesamtverstärkungsfaktor der Rückkopplung. Er ist reziprok von (1 minus dem Produkt des Planck-Parameters und der Summe aller Temperatur-Rückkopplungen), und er multipliziert die direkte Erwärmung wegen des CO2 mehr als 2,8 mal.

Bemerkenswerterweise verlässt sich das IPCC dabei auf eine einzige Studie, Soden & Held (2006), um seine zentralen Schätzungen der Werte prinzipieller Temperatur-Rückkopplungen zu bestimmen. Es hat bis zum vierten und bisher letzten Zustandsbericht 2007 nicht alle dieser Rückkopplungswerte veröffentlicht.

Folgende Werte werden darin genannt: Wasserdampf-Rückkopplung fH2O = 1.80 ± 0.18; Rückkopplung des Temperaturgradienten (lapse-rate) flap = –0.84 ± 0.26; Rückkopplung der Oberflächen-Albedo falb = 0.26 ± 0.08; Rückkopplung der Bewölkung fcld = 0.69 ± 0.38 Watt pro Quadratmeter pro Kelvin. Es gibt noch eine implizite Bandbreite von 0,15 Kelvin für die CO2-Rückkopplung und andere kleine Rückkopplungen, was insgesamt zu einer Summe an Rückkopplungen von etwa 2,06 Watt pro Quadratmeter zusätzlichen Antriebs pro Kelvin direkter Erwärmung.

Man beachte, wie klein die Fehlergrenzen sind. Und doch ist das Signal von den meisten dieser Rückkopplungen in der Literatur umstritten, und nicht einer von ihnen kann entweder durch Messungen oder theoretisch definitiv bestimmt werden oder auch nur durch irgendwelche Beobachtungsmethoden aus den direkten Antrieben, die sie ausgelöst haben. Außerdem gibt es keine wissenschaftliche Basis für die Hypothese, dass irgendeine dieser Rückkopplungen auch nur nahe den festgelegten Werten liegt, und noch weniger dafür, dass sie zusammen eine so drastische Auswirkung haben, den Antrieb fast zu verdreifachen.

Die Multiplikation der Summe der Rückkopplungen mit dem Planck-Parameter ergibt eine implizite zentrale Schätzung von 0,64 für die Kreisverstärkung [closed-loop gain] im Klimasystem, wie ihn sich das IPCC vorstellt. Und das ist unmöglich, wie jeder Prozessingenieur bestätigen wird. In elektronischen Schaltkreisen, die stabil bleiben und nicht oszillieren sollen, darf die Kreisverstärkung einen Wert von 0,1 nicht übersteigen. Die globale Temperatur hat sich höchstwahrscheinlich während der vergangenen 64 Millionen Jahre und vielleicht auch der letzten 750 Millionen Jahre nicht um mehr als 3% vom vieljährigen Mittel entfernt. Ein Klimasystem mit einer Kreisverstärkung bis zu zwei Dritteln des Wertes, bei dem eine heftige Oszillation einsetzt, ist also unmöglich, da keine solche heftige Oszillation beobachtet worden ist oder abgeleitet werden kann.

Multipliziert man die 1,2 Kelvin direkte Erwärmung durch CO2 mit seinem unrealistisch stark überschätzen Rückkopplungsfaktor von 2,8, erhält man implizit eine zentrale Schätzung des IPCC von 3,3 K für den blauen Term, , welcher die Größe ist, nach der wir suchen: die Gleichgewichtserwärmung in Kelvin als Reaktion auf eine Verdoppelung der CO2-Konzentration.

Zusammenfassend: Die präzisen Werte des CO2-Strahlungsantriebs, der Planck-Parameter und alle fünf relevanten Temperatur-Rückkopplungen sind ungemessen und unmessbar, unbekannt und unerkennbar. Die Rückkopplungen sind besonders ungewiss und können auch irgendwie negativ anstatt stark positiv sein: und doch legen die Fehlergrenzen des IPCC ziemlich fälschlich nahe, dass sie mit einer außerordentlichen Genauigkeit bekannt sind.

Es ist der konstruierte Einfluss der Rückkopplungen zur Klimasensitivität, die im Zentrum der Auseinandersetzung zwischen den Skeptikern und den Klimaextremisten steht. Zum Beispiel haben Paltridge et al. (2009) gefunden, dass die Wasserdampf-Rückkopplung nicht annähernd so stark sein muss, wie das IPCC glaubt; Lindzen und Choi (2009, 2011) berichten, das Satellitenmessungen von Änderungen der Ausstrahlung als reaktion auf Änderungen der Wassertemperatur darauf hindeuten, dass die Summe der Rückkopplungen insgesamt negativ ist, wenn man von einer Klimasenistivität um 0,7 K ausgeht; oder weniger als ein Viertel der zentralen Schätzung des IPCC; Spencer und Braswell (2010,2011) stimmen dieser Abschätzung auf der Basis zu, dass die Wolken-Rückkopplung genauso stark negativ ist, wie sie das IPCC als positiv annimmt; usw., usw.

Da alle sieben Schlüsselparameter in der Klimasensitivitätsgleichung unbekannt und unbestimmbar sind, liegen das IPCC und seine Akolyten erkennbar falsch mit der Behauptung oder Implikation, dass es einen Konsens darüber gibt – oder möglich ist –, eine wie starke Erwärmung eine Verdoppelung des CO2-Gehalts bringen wird.

Die Schwierigkeiten sind sogar noch größer. Die Gleichgewichts-Klimasensitivität zu einer CO2-Verdoppelung ist nämlich nicht die einzige Größe, die wir bestimmen müssen. Man muss auch drei weitere Größen bestimmen, die alle ungemessen und unmessbar sind: der negative Antrieb durch anthropogene „Nicht-Treibhausgas-Emissionen“ (besonders bestimmte Aerosole); die Erwärmung, die sich aus der bisherigen Anreicherung der Atmosphäre mit Treibhausgasen in diesem Jahrhundert ergeben wird (laut IPCC 0,6 K); der schwankende Sensitivitätsparameter [transient-sensitivity parameter] für das 21. Jahrhundert (das IPCC geht von 0,4K pro Watt pro Quadratmeter aus) und dem Anteil der gesamten anthropogenen Antriebe durch Treibhausgase ohne CO2 (das IPCC impliziert 70%).

Außerdem beläuft sich die implizite Schätzung der Erwärmung, die wir bis 2100 als Ergebnis unserer CO2-Emissionen in diesem Jahrhundert verursachen könnten, auf nur 1,5 K. Selbst wenn wir überhaupt kein CO2 von 2000 bis 2100 emittieren würden, wäre die Welt bis zum Jahr 2100 lediglich um 1,5 K kühler als heute. Und das aufgrund der Hypothese die Sensitivität der globalen Temperatur hinsichtlich des CO2 nicht erheblich übertrieben hat.

Es gibt noch eine letzte unüberwindliche Schwierigkeit. Das Klima ist ein gekoppeltes, nicht-lineares, mathematisch chaotisches System, so dass selbst das IPCC zugibt, dass die langzeitliche Vorhersage des künftigen Klimas nicht möglich ist. Es versucht, diese Lorenz-Beschränkung [Lorenz constraint] zu umgehen, indem es die Klimasensitivität als eine Wahrscheinlichkeitsverteilung angibt. Was jedoch die Ungewissheit hinsichtlich der Werte irgendeines der relevanten Parameter angeht, ist das Scheitern einer Wahrscheinlichkeitsverteilung nicht unwahrscheinlicher als eine zentrale Schätzung mit Fehlergrenzen.

Wenn Sie jetzt von zu viel Mathematik Kopfschmerzen haben, überlegen Sie sich, wie viel einfacher es ist, ein Philologe zu sein. Der Philologe weiß, dass das zentrale Argument der Klimaextremisten – nämlich dass es einen (sorgfältig unspezifizierten) Konsens unter den Experten gibt – eine unheilige Allianz zwischen dem argumentum ad populum and the argumentum ad verecundiam ist. Das allein für sich zeigt schon, dass das Argument der Klimaextremisten haltlos ist. Allerdings kennen Sie jetzt die Mathematik. Die Tatsache, dass keiner der notwendigen Schlüsselparameter mit keiner Methode bestimmt werden kann oder bestimmt worden ist, bestätigt, dass es keine wissenschaftliche Basis für jedwede Hypothese gibt, dass die Klimasensitivität jemals hoch genug ist oder sein wird, um schließlich gefährlich zu werden.

Lord Christopher Monckton of Brenchley

Link: http://wattsupwiththat.com/2012/04/23/why-there-cannot-be-a-global-warming-consensus/

Übersetzt von Chris Frey EIKE




Wo bleibt die Arktis-Schmelze ?

Update 13.5.12: Vor fünf Jahren prophezeiten "Wissenschaftler" in National Geographics, dass die Arktis bis zum Ende des Sommers 2012 nahezu eisfrei sein würden. Davon ist weit und breit nichts zu sehen. Das Gegenteil ist der Fall. Mark Serreice, der spätere Leiter des ICE Center in Boulder Colorado machte sich darin unsterblich lächerlich mit dem Satz: "Die Arktis weint" Details dazu hier.

..Mit dem Spätsommer endet in der Arktis die saisonale Eisschmelze, so daß zumeist Mitte September das Minimum der arktischen Eisbedeckung erreicht ist.

Den Verlauf der Jahre 2002-2011 zeigt die Abbildung 1:

 

Abb. 1

Arktische Eisbedeckung 2002-2011 [7]

Der Abbildung 1 kann man entnehmen, daß das arktische herbstliche Eisminimum zwischen 2003 und 2007 einen mehr oder weniger abnehmenden Trend zeigte. Das bisherige Minimum seit Beginn der Satelliten-Beobachtungen war 2007 erreicht, was Klima-Institute und Medien im Dezember zu Katastrophen-Schlagzeilen dieser Art veranlaßte: "Nordpol bereits in fünf Jahren eisfrei" [8], oder "Arktisches Eis-Rekordschmelze alarmiert Forscher" [9]. Und dann wurde munter drauf los fabuliert [8]: "Ein Team internationaler Klimaforscher und Wissenschaftler der NASA behaupten, dass der arktische Sommer bereits 2013 eisfrei sein wird. Grund: Die bisherigen Berechnungen seien falsch …" ; oder [9] : "Neueste Schätzungen eines NASA-Klimaforschers geben dem Eis des Arktischen Ozeans gerade noch eine Hand voll Jahre".

Nun sind diese "Hand voll Jahre" rum (2007-2012!), und es lohnt sich wieder einmal, derartige Vorhersagen anhand der Realitäten in der Natur zu überprüfen. Dazu mag zunächst die Abbildung 2 dienen:

 

Abb. 2

Arktische Eisbedeckung 2007-2011 [10] (Zahlen und Texte eingefügt)

ERGEBNIS : Nichts von alledem ist eingetreten, im Gegenteil:

In allen Folgejahren nach 2007 lag das spät-sommerliche Minimum der arktischen Eisbedeckung mehr oder weniger deutlich über dem Minimum von 2007. Schon bis hier her sind die Fakten ein Desaster für die IPCC-Auguren.

Nun zeichnet sich aber aktuell sogar ab, daß der "Fliegende Holländer der Weltklima-Propheten" in noch schwerere See – sprich: dickes Treib-Eis –  gerät, wie die Abbildung 3 veranschaulicht:

 

Abb. 3

Arktische Eisbedeckung Januar 2007- April 2012 [10]

Die rote Kurve stellt den Eisverlauf 2012 bis 25. April dar: Zum Ende des Monats April 2012 sehen wir uns einer Eisbedeckung gegenüber, wie es sie in diesem Umfang seit 10 Jahren nicht gegeben hat! Mehr noch: Wir haben eine Eisbedeckung, die knapp oberhalb des 25-jährigen Mittelwertes liegt.

Eine andere Darstellungsart zeigt die jährliche arktische Eis-Ausdehnung in den März-Monaten 1979-2012 in der Abbildung 4:

 

Abbildung 4

Arktische Eis-Ausdehnung März 1979-2012 [11];

(gestrichelte Linien eingefügt)

Man muß 10 Jahre zurück gehen, um eine größere Eis-Ausdehnung zu finden, als bis März 2003.

Zu alledem passt auch diese Meldung [12]:

"The amount of floating ice in the Arctic’s Bering Sea – which had long been expected to retreat disastrously by climate-Cassandra organisations such as Greenpeace reached all-time record high levels last month, according to US researchers monitoring the area using satellites. The US National Snow and Ice Data Center (NSIDC) announced last week that ice extent in the Bering for the month of March has now been collated and compared, and is the highest seen since records began."

Trotzalledem: Selbst angesichts dieser beachtlichen winterlichen Eis-Ausdehnung würden wir uns hier niemals anmaßen  –  im Gegensatz zu den IPCC-Forschern und deren Instituten  – nun daraus eine September-Prognose abzuleiten. Keineswegs kann man u.E. nun zum Beispiel auf ein "10-Jahres-Maximum an Eis" im September 2012 schließen. Allerdings  –  das ist auch gar nicht erforderlich, um die Dreistigkeit und Peinlichkeit der bisherigen Arktis-Prognosen von IPCC-nahen Instituten darzustellen  – schon bis heute war alles falsch!

PIK-Kunde der "Kipp-Punkte"

Der aktuelle Befund der letzten Jahre steht in krassem Gegensatz u.a. zu Verlautbarungen des Potsdam-Instituts für Klimafolgenforschung (PIK), das auch in der Arktis immer wieder von irgendwelchen Klima-Kipp-Punkten fabuliert [13]: "Das arktische Meer-Eis und die Gebirgsgletscher der Alpen werden unter den in der Studie aufgelisteten Elementen als diejenigen eingeschätzt, die am empfindlichsten auf die Erderwärmung reagieren" …u.w.a.a.O.: "Die Wahrscheinlichkeit des Kippens dieser Elemente steigt im Allgemeinen mit dem Anstieg der globalen Mitteltemperatur, als Folge des von Menschen verursachten Ausstoßes von Treibhausgasen."

Seltsam: Die Treibhausgase steigen, aber die Fläche des Arktik-Eises auch!

Nun gibt es Hoffnung, daß die Spekulationen über allerlei "mensch-gemachte Klima-Kipp-Punkte" dahin kommen, wo sie hingehören: In den Papierkorb der Wissenschaft. Denn –  das Max-Planck-Institut für Meteorologie in Hamburg hat eine Studie zur Arktis publiziert [14], wozu das MPI zugleich eine Presse-Mitteilung  [15] herausgegeben hat mit der Überschrift: "Hoffnung für das Arktische Meereis". Dort wird u.a. ausgeführt:

"Der starke Rückgang des Meereises in der Arktis ließ in den letzten Jahren die Sorge aufkommen, dass die Eisbedeckung sich einem sogenannten Kipp-Punkt nähern könnte. Bei Überschreiten des Kipp-Punktes wäre der Verlust des verbleibenden Meereises nicht mehr zu stoppen. Aktuelle Forschungsergebnisse des Hamburger Max-Planck-Instituts für Meteorologie deuten jetzt jedoch darauf hin, dass es keinen solchen Kipp-Punkt für den Verlust des Sommereises in der Arktis gibt. Stattdessen reagiert die Eisbedeckung relativ direkt auf die jeweiligen klimatischen Bedingungen. Der fortschreitende Verlust des Arktischen Meereises könnte also verlangsamt oder sogar gestoppt werden, wenn die globale Erwärmung verlangsamt oder gestoppt würde."

Und genau das zeigt uns die Natur: Seit 14 Jahren gibt es keine Erderwärmung mehr, eher eine mäßige Temperatur-Abnahme [1], wozu die seit 2007 zu beobachtende Eiszunahme im Sinne der Verlautbarung des MPI HH [15] paßt!

Schon immer hat es – in angenehmen wissenschaftlichem Kontrast z.B. zum PIK-Alarmismus  –  auch besonnene Stimmen gegeben, z.B. vom Alfred-Wegener-Institut (AWI) in Bremerhaven. So sagt AWI-Vizedirektor Prof. Dr. Heinrich Miller [16]: "Wann und ob die Arktis eisfrei sein wird, können wir nicht mit Sicherheit sagen".

Zum gleichen Thema die AWI-Direktorin Prof. Dr. Karin Lochte [17] auf die Frage, ob die Nordpol-Umrundung 2008 von FS POLARSTERN ein Hinweis auf den globalen Klimawandel sei: “Das ist noch nicht klar… Es gibt noch keine Antwort auf die Frage, ob der Rückgang des Meereises anhalten oder ob es wieder eine kältere Phase geben wird.“

Der Eisbär stirbt zuletzt

Im Zusammenhang  mit der "Anthropogen-Global-Warming-Hypothese" (AGW) wird ja gerne von "grünen" NGO’s und selbst von Klima-Instituten immer wieder über das Aussterben von polaren Tier-Populationen spekuliert. Auch da ist es offensichtlich an der Zeit für Realismus [18]:

"Während die Klima-Panikmacher im Namen der Verhinderung der Erderwärmung ihre Forderungen nach der Einführung einer weltweiten Steuer auf Kohlenstoffdioxid-Emissionen bekräftigen, geht es den Pinguinen, Eisbären, Gletschern und dem Arktis-Eis blendend!

Während die düsteren Prophezeiungen eines eisfreien arktischen Sommers bereits umfassend widerlegt worden sind, zeigen auch die jüngsten Daten, dass die Tierwelt und die Umwelt der kältesten Regionen auf dem Planeten nicht jene katastrophalen Zerstörungen erfahren haben, die aufgrund des anthropogenen Klimawandels vorausgesagt wurden.

Die Prognosen, die kanadische Eisbärenpopulation würde aufgrund der Erderwärmung bedeutend zurückgehen, haben sich als völlig falsch herausgestellt. Die jüngste Untersuchung dazu zeigt, dass Eisbärenpopulation in der Region um Hudson Bay fortwährend bei 1.000 Tieren liegt – derselben Zahl, die auch während einer Studie des Jahres 2004 festgestellt wurde. Diese Zahlen zeigen, so Canadian Press, dass ’sich die ´schwarzmalerischen` Vorhersagen der Umweltschützer bezüglich des Untergangs des Eisbären nicht bewahrheitet haben.‘

‚Die Leute haben versucht, den Eisbären als eine Art von Aushängeschild zu nutzen – er ist ein schönes Tier und erregt die Aufmerksamkeit der Öffentlichkeit, um die Menschen auf die Folgen des Klimawandels aufmerksam zu machen … Wir können diese Folgen zum jetzigen Zeitpunkt nicht beobachten. Es ist keine Krisensituation da, so wie es eine Menge Leute der Welt gerne glauben machen wollen‘, so Drikus Gissing, der Chef der Wildtierverwaltung von Nunavut.

Unterdessen berichtet Live Science, dass ‚eine neue Studie unter Verwendung von Satelliten-Kartentechnologie enthüllte, dass es in der Antarktis doppelt so viele Kaiserpinguine gibt, wie ursprünglich angenommen‘."

Wie sagte doch gleich die AWI-Chefin Karin Lochte [19] in einem FAZ-Interview auf die Frage, ob die starken Meereisverluste im Sommer 2007 ein Indiz für eine beschleunigte künstliche Klima-Erwärmung sei:

"Das müssen wir erst noch sehen. Wir wissen heute noch nicht, ob das Teil eines Zyklus ist. Wir wissen nicht, ob wir in vielleicht fünf Jahren wieder mehr Eis haben, oder ob das doch ein ungebrochener Trend in Richtung Eisschmelze ist."

Die 5 Jahre sind rum: TREFFER – Frau Lochte! Kompliment !

Klaus-Eckart Puls, EIKE

Q u e l l e n :

[1]  http://www.cru.uea.ac.uk/cru/info/warming/

[2] EIKE Falscher PIK Alarm beim Meeresspiegel


[3] Ist das noch normal? Die extrem schwierige Analyse von Extremwetter; 24. April 2012, http://www.kaltesonne.de/?p=2962

[4]  http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterbericht-mehr-extremwetter-fehlanzeige/

[5]  http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/

[6]  Himalaya-Schmelzkatastrophe abgeblasen: Das Neueste aus der Welt der Gletscher;

22. April 2012,  http://www.kaltesonne.de/?p=2939

[7]  http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm

[8]  http://www.welt.de/wissenschaft/article1456952/Nordpol_bereits_in_fuenf_Jahren_eisfrei.html ; 13.12.2007

[9]  http://www.spiegel.de/wissenschaft/natur/0,1518,522976,00.html; 12.12.2007

[10]  http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic

[11]  http://nsidc.org/arcticseaicenews/

[12] Amount of ice in Bering Sea reaches all-time record, Posted in Science11th April 2012;

http://www.theregister.co.uk/2012/04/11/bering_sea_ice_cover/

[13]  Presse-Mitt. PIK, 23.06.2011, Kipp-Elemente im Klimasystem

[14] Tietsche, S., D. Notz, J. H. Jungclaus, and J. Marotzke (2011), Recovery mechanisms of Arctic summer sea ice, Geophys. Res. Lett., 38, L02707, doi:10.1029/2010GL045698

[15] MPI HH, Presse-Mitteilung, 4. Februar 2011,

 http://www.mpimet.mpg.de/aktuelles/single-news/article/hoffnung-fuer-arktisches-meereis.html

[16] Interview mit Professor Dr. Heinz Miller, Stellvertretender Direktor des Alfred-Wegener-Instituts. Er beschäftigt sich als Geophysiker mit Klimarekonstruktion und Eisdynamik, 03.11.2007 ; http://www.awi.de/de/aktuelles_und_presse/bild_film_ton/tonbeitraege/miller_3112007_klimawandel/

[17] ElbeWeserAktuell, 29.10.2008, S.6BC

[18]  http://www.propagandafront.de/1108340/albtraum-der-oko-maoisten-pinguinen-eisbaren-gletschern-und-arktis-eis-gehts-blendend.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+Propagandafront+%28PROPAGANDAFRONT%29

[19] FAZ 15.11.2007; http://www.faz.net/aktuell/wissen/klima/karin-lochte-im-gespraech-natuerlich-kann-man-noch-viel-pessimistischer-sein-1488102.html

Related Files