1

Unwahres von der Kanzlerin!!

Aufgetischt hat Frau Merkel diese unwahre Behauptung dem Journalisten-Tross in der Berliner Bundespressekonferenz vom 17. September. Wörtlich hat sie gesagt: „Ich habe in den ganzen Prognose-Gutachten gelesen, was bis 2020 passieren kann. Jedes dieser Szenarien hat gesagt: Die EEG-Umlage bleibt unter 4 Cent pro Kilowattstunde.“

Die bestellten und die nicht bestellten Gutachter

Natürlich haben Fachleute mit  dem jetzt beklagten starken Anstieg der EEG-Umlage gerechnet. Natürlich gab es Gutachter, die ihn vorausgesehen haben. Sie haben ihn vorgerechnet und vor ihm gewarnt.  Nur, es waren nicht die von Merkels Regierung bestellten Gutachter. Es waren die Politik-Gefälligkeits-Gutachter. Es waren die politikhörigen Sachkundigen in Organisationen und Unternehmen, die die „Energiewende“ mitbetreiben. Es waren die Lobbyisten, die von den EEG-Subventionen profitieren. Es waren die Medien, vor allem die Print-Medien, die sich an den Großanzeigen laben, mit denen die Windkraft-, Fotovoltaik- und Biogas-Industrie sie überfluten. Sie alle haben viel getan, um die Warnungen zu unterdrücken und den Anstieg zu verharmlosen.

Auf wen Frau Merkel zum Beispiel nicht gehört hat

Frau Merkel hat sich einseitig unterrichtet und musste das wissen, weil sie es so wollte. Sie hat daher auf die Gegenstimmen bewusst verzichtet, weil ihr die nicht in den Kram passten. Frau Merkel hat sich der Haltung hingegeben „Was ich nicht wahrnehmen will, hat nicht stattgefunden“. Frau Merkel hat Vogel Strauß gespielt und den Kopf in den Sand gesteckt, um die Warnungen der kritischen Fachleute nicht wahrnehmen zu müssen. Sie hat die Augen vor unangenehmen Realitäten verschlossen, wie auch in anderen Fällen ihrer Politik, und die Tatsachen einfach nicht zur Kenntnis nehmen wollen. Hat sie zum Beispiel auf Prof. Dr. Helmut Alt von der Technischen Hochschule Aachen gehört? Er ist kein Unbekannter in dem Metier und hat sich vielfach kundig zu Wort gemeldet. Sie hat nicht. Hat sie beherzigt, dass die Netzbetreiber 2010 gewarnt haben, bis 2012 werde die EEG-Umlage auf 4,4 Cent je kWh steigen? 2013 werden es über 5 Cent werden. Hat sie auf EU-Energiekommissar Günther Oettinger gehört, der Deutschland vor der geplanten Wende in der Energiepolitik gewarnt hat, weil er eine „Explosion des Strompreises“ voraussah? So zu lesen in der FAZ vom 23. Mai 2011. Sie hat nicht.

Oettinger: In Deutschland gedankenlose Hinnahme der hohen Strompreise

Oettinger hat auch dies gesagt: „Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird.“ Das war am 24. Oktober 2011 auf dem internationalen Wirtschaftsforum in Baden-Baden. Auch hier warnte vor einem Anstieg der Strompreise. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort, sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne. Deutschland habe weltweit mit die höchsten Strompreise.

Der GVSt 2004: Angaben zur Mehrbelastung unvollständig und irreführend

Der Gesamtverband Steinkohle (GVSt) prangerte die Verharmlosung schon am 23. April 2004 an und stellte in seiner Analyse zur damaligen EEG-Novelle abschließend fest: „Die wirtschaftlichen Auswirkungen der Verdoppelung des Anteils erneuerbarer Energien sind mit der pauschalen Verniedlichung der Beträge nicht adäquat beschrieben. Damit geht zugleich der Blick für positive sektorale und gesamtwirtschaftliche Wirkungen, die mit dem Ausbau erneuerbarer Energien verbunden sind, verloren. Die Zurechnung der Mehrbelastung des privaten Stromverbrauchs auf einen durchschnittlichen Haushalt (1 Euro pro Monat) ist unvollständig und irreführend.“

Stromverbraucher-Schutzorganisation NAEB warnt schon lange

Zu denen, die vor drastisch steigenden Strompreisen und damit den schweren Folgen der unverantwortlichen Energiepolitik der scheinbar Öko-Bewegten schon lange warnen, gehören ferner die fachkundigen Bürger der Stromverbraucher-Schutzorganisation (Nationale Anti-EEG-Bewegung NAEB). Auch ich bin dort Mitglied. Am 28. Mai 2011 war einer ihrer PR-Mitteilungen kurzgefasst dies zu entnehmen: Der Strompreis wird bis 2020 für die privaten Endverbraucher von heute rund 24 Cent auf über 50 Cent je kWh steigen. Und der Strompreis für die Industrie klettert von heute etwa 12 auf deutlich über 20 Cent. Nicht eingerechnet ist ein schnelles Abschalten der Kernkraftwerke, was einen weiteren Kostenschub bringen wird. Die absehbare Folge: Millionen Haushalte (Hartz-4-Empfänger, Normalrentner und Geringverdiener) werden ihre Stromrechnung nicht mehr bezahlen können. Millionen von Arbeitsplätzen in der energieintensiven Industrie werden in Länder mit geringeren Energiekosten verlegt, die den deutschen Sonderweg, aus der Kernkraft auszusteigen, nicht mitgehen. Der noch schnellere deutsche Ausstieg aus der Kernenergie, als im Energiekonzept vom 28. September 2010 geplant, wird den Strompreisanstieg in Deutschland beschleunigen und eine bedarfsgerechte Stromversorgung nicht mehr sichern.

Warum die Preissteigerung zwangsläufig ist

Womit belegen die NAEB-Fachleute das? Die Vergütung des „Ökostromes“ nach dem EEG beträgt für das Jahr 2010 durchschnittlich 15,5 Cent je kWh (Erfahrungsbericht des Bundesumweltministeriums vom 3. Mai 2011). Dies ist das Vierfache der Herstellkosten der konventionellen Stromerzeugung von rund 4 Cent je kWh. Durch die geplante massive und gigantische Ausweitung der Windkraftanlagen in Nord- und Ostsee (offshore-Windstrom) und Fotovoltaik muss der Preis des Ökostroms zwangsläufig weiter stark steigen, denn dieser „Windstrom“ ist noch teurer als der an Land (onshore). In absoluten Zahlen bedeutet dies, dass die Öko-Abgabe  von rund 13 Milliarden 2010 auf über 30 Milliarden Euro 2020 hochgetrieben wird. Diese Abgabe müssen vorwiegend die privaten Haushalte zahlen, weil die Industrie teilweise von ihr ausgenommen ist.

NAEB: Verdoppelung des Strompreises schon vor 2020

In einer NAEB-PR-Mitteilung vom 31. Dezember 2011 hieß es: „Das EEG treibt 2012 die Strompreise noch weiter hoch. Die Bundesnetzagentur muss wegen des EEG höhere Netzgebühren für alle Netze genehmigen.Im Jahr 2012 werden die staatlich verfügten Entgelte für Strom nach dem Erneuerbaren Energien Gesetz (EEG-Strom) wohl 20 Milliarden Euro erreichen. Unausweichlich ist das jedenfalls dann, wenn der Bau von Anlagen zur Stromerzeugung aus Wind, Sonne und Biomasse nach dem Plan der Bundesregierung fortgesetzt wird. Dann kämen schon über 20 Prozent des deutschen Stroms aus dieser unzuverlässigen Energiequelle. Aber mit diesen rund 20 Milliarden Euro könnte in den ohnehin weiter notwendigen Dampfkraftwerken sogar der gesamte deutsche Strombedarf erzeugt werden – und zwar verlässlich. Denn der unzuverlässige EEG-Strom ist mehr als fünfmal so teuer als der konventionelle Dampfkraft-Strom. ……  Der Netzausbau zusätzlich zum Ausbau der teuren regenerativen Energieanlagen muss und wird den Strompreis schnell weiter erhöhen. Die laut www.Stromlüge.de errechnete Verdopplung der Strompreise bis 2020 wird wohl deutlich schneller erreicht. Dann wird der Strompreis in Deutschland drei- bis viermal höher sein als in Frankreich, in den USA und vielen anderen Ländern.“

Die EEG-Umlage wird 2013 auf mindestens 5 Cent steigen

Wie sieht es aktuell aus? In der NAEB-PR-Mitteilung vom 25. August heißt es zur EEG-Umlage: „An sich müsste der Aufschlag, weil nicht mehr kostendeckend, längst höher sein. Wir, die Stromverbraucher-Schutzorganisation NAEB, haben ihn nach den von uns geschätzten Einspeisemengen mit 5,2 Cent/kWh berechnet (Stand Ende Juli 2012). Aber er wird aus politischen Gründen noch gedeckelt und soll erst 2013 auf 5 Cent heraufgesetzt werden. Allerdings werden diese 5 Cent bei weitem nicht ausreichen, denn die EEG-Stromerzeugung wird zügig weiter ausgebaut. Auch muss 2013 das Kostendefizit von 2012 nachgeholt werden. Es dürfte sich auf mindestens 2 Milliarden Euro belaufen. Außerdem entstehen noch weitere Kosten, die ebenfalls zu den EEG-Kosten gehören. Sie müssten den 5 Cent eigentlich hinzugeschlagen werden, darunter die Anbindungskosten für Windkraftstrom von Anlagen im Meer (Offshore-Strom) und die Kosten für Fotovoltaik-Nachrüstungen (Stichwort 50,2Hz-Problematik), die trickreich in andere Segmente verlagert werden, um die Proteste gegen die Stromverteuerung vorerst in Grenzen zu halten.“

EEG-Umlage seit 2000 um 1 561 Prozent gestiegen

Die Umlage macht sichtbar, was das EEG den Stromverbrauchern als direkte Kosten der „Energiewende“ abnötigt. Vom Jahr 2000 bis 2012 ist diese Umlage für einen Drei-Personen-Haushalt um 1 561 Prozent gestiegen (siehe folgende Tabelle). Es sind 1 561 Prozent zuviel.

 

 

 

 

 

Strompreisentwicklung   für einen 3-Personen-Haushalt

 

mit   Jahresverbrauch von 3.500 kWh

 

 

 

in   Cent/kWh (Durchschnittswerte)

 

 

 

 

 

 

 

 

 

 

Erzeugung 1)

EEG-Umlage

 

 

 

Jahr

Transport

2) und 3)

Summe

 

 

 

Vertrieb

 

 

 

 

1998

12,91

0,08

12,99

 

 

1999

11,59

0,1

11,69

 

 

2000

8,62

0,2

8,82

 

 

2001

8,6

0,23

8,83

 

 

2002

9,71

0,35

10,06

 

 

2003

10,23

0,42

10,65

 

 

2004

10,82

0,51

11,33

 

 

2005

11,22

0,69

11,91

 

 

2006

11,75

0,88

12,63

 

 

2007

12,19

1,03

13,22

 

 

2008

13,01

1,16

14,17

 

 

2009

14,12

1,31

15,43

 

 

2010

13,89

2,05

17,42

 

 

2011

13,8

3,53

17,33

 

 

2012

14,05

3,59

17,64

 

 

 

 

 

 

 

 

1)   Beinhaltet nicht die Kosten für die gesamte erzeugte Strommenge, sondern nur die Kosten derjenigen Strommenge, die weder über das EEG, noch über das Kraft-Wärme-Kopplungs--Gesetz (KWKG) abgerechnet werden.

2)   Beinhaltet Kosten der erzeugten Strommenge, die nach EEG abgerechnet wird.

3) Bis April 2000: Vergütung nach dem Stromeinspeisungsgesetz

Quelle:   http://de.wikipedia.org/wiki/Strompreis#Haushaltstarife

 

In dieser Preistabelle sind noch nicht die weiteren Bestandteile der Verbraucherpreise für Strom enthalten. Das sind die Konzessionsabgabe, die KWK-Umlage, die Stromsteuer, die § 19-Umlage und die Umsatzsteuer. Der Anteil dieser Abgaben, Umlagen und Steuern ist von 24,5 Prozent (1998) auf 45,4 Prozent (2012) gestiegen (Quelle: http://de.wikipedia.org/wiki/Strompreis#Haushaltstarife). Der Staat kassiert also auch für sich selbst tüchtig ab.

Die noch zusätzlichen direkten Kosten

Der Verband der Netzbetreiber VDN hat zusammengestellt, was an EEG-Einspeisevergütungen schon zusammengekommen ist. Danach summieren sich diese Erlöse aus dem staatlichen Zwangsabnahmepreis für „Ökostrom“ von 2000 bis 2013 für insgesamt 833 Milliarden Kilowattstunden auf zusammen 91 Milliarden Euro. Daraus ergeben sich für 1 kWh in diesen Jahren zusammen 10,8 Cent (Quelle:  http://vdn-archiv.bdew.de/global/downloads/Netz-Themen/eeg/EEG-Mifri-2013.pdf). Zu diesen direkten Kosten (Einspeisevergütung) kommen weitere unmittelbare Kosten, die das  EEG verursacht, hinzu:

– die Entschädigung für erzeugten, aber nicht  eingespeisten  Strom,

– die Vermarktungshilfe,

– die zusätzlichen Netzkosten,

– die Stromverluste beim Transport,

– die Zusatzkosten der Schattenkraftwerke,

– die Begünstigungen stromintensiver Industriebetriebe,

– die Beihilfen für  Einkommensschwache,

– die Entschädigung für Unternehmen, die bei Stromengpässen Anlagen vorsorglich abschalten sollen

– durch verbilligten Export von Überschussstrom und teuren Stromimport

Aber das ist noch nicht alles. Auch mittelbare (indirekte) Kosten gibt es.Es sind Kosten, die man nicht sieht und die nicht immer sofort spürbar werden, die aber trotzdem als Folgewirkungen entstehen, die staatliche Eingriffe in die Wirtschaft in den Markt immer haben

Professor Alt: Die Energiewende-Politik wird am Prellbock enden

Für den Energiefachmann Helmut Alt ist es ist eindeutig, „dass der Weg unserer politisch verordneten Energiewende zu 80 % oder gar 100 % aus regenerativer Energie – dominierend als Wind- oder Sonnenstrom – ein Irrweg ist, der an einem Prellbock enden wird. … Auch beliebig viele Wind- und Sonnenenergieanlagen sind weder ‚notwendig noch hinreichend’, eine sichere und bezahlbare Stromversorgung zu gewährleisten, würden allerdings das Stromerzeugungssystem in Deutschland zu dem teuersten und ineffizientesten der Welt machen. …“

"Ein Irrweg unbezahlbaren Ausmaßes"

Alt weiter: „Mir scheint es überfällig, dass alle Verantwortlichen für unsere Energieversorgung und allen voran die Wissenschaft, aber auch die der Wahrheit sich verpflichtet fühlenden Medien mit klaren Worten auf die Zuverlässigkeitsdefizite und  den damit verbundenen Irrweg unbezahlbaren Ausmaßes – auch für die nicht sachkundige Öffentlichkeit verständlich – hinweisen sollten. … ‚Zu teuer und aufgrund der Dargebotsabhängigkeit zuunsicher’ gilt leider nicht nur heute, sondern wird nach allem, was man abschätzen kann, auch 2050 und darüber hinaus noch gelten.“ So zum Beispiel Ende Dezember 2011. In einem Leserbrief von Alt an die FAZ vom 16. September 2011 steht am Schluss der Satz: „Es ist nicht zu fassen, mit welcher bodenlosen Gleichgültigkeit sachunkundige Politiker die Basis unseres Wohlstandes aufs Spiel setzen und die Energie einfach zum Luxusgut erklären.“ Aber auch in den Jahren davor hat Alt seine Stimme gegen diese Energiepolitik erhoben.

Arnold Vaatz (CDU) 2011: Das EEG ist eine politische Fehlleistung

Für Arnold Vaatz, den stellvertretenden Vorsitzenden der CDU-Bundestagsfraktion, ist das EEG „eine politische Fehlleistung“. Am 12. Oktober 2011 in Leipzig hat er über die nationalen und internationalen Folgen des deutschen Ausstiegs aus der Kernenergie gehalten. Der ganze Vortrag hier:

http://wwwm.htwk-leipzig.de/~m6bast/rvlfukushima/111012RVLfukushimaVaatzEnergiesicherheit.pdf

„Erbarmungsloser Konformitätsdruck einer postreligiösen Gesellschaft“

Im Januar 2012 schrieb Vaatz an den ihm offenbar befreundeten Autor eines Leserbriefes (Prof. Dr. Knut Löschke), der in der Leipziger Volkszeitung vom 9. Januar 2012 erschienen war, mit der Bemerkung „Du kannst dies verwenden“ folgendes: „Während der Atomausstiegsdebatte im Vorjahr ist mir leider klar geworden, daß es nicht ein Mangel an naturwissenschaftlicher, mathematischer, technologischer oder volkswirtschaftlicher Sachkenntnis ist, der uns in die energiepolitische Sackgasse geführt hat. Es ist ein erbarmungsloser Konformitätsdruck, der von einer postreligiösen Gesellschaft ausgeht, die ihren arbeitslos gewordenen religiösen Sensus ausleben will. Dieser Konformitätsdruck hat eine Gleichschaltung der Gesellschaft verursacht, die zwar mit den Formen von Gleichschaltung wie wir dies aus der Geschichte der europäischen Diktaturen kennen, nicht identisch ist, jedoch ganz ähnliche Züge ausweist. Die Strafe für Widerspruch ist heute allerdings (zum Glück noch nicht!) Haft oder Liquidation, sondern nur die Verbannung aus der medialen Relevanzzone.“ Vaatz schlägt auch vor, wie eine vernünftige Energiepolitik beginnen könnte.

Vaatz: Enorme Mittel in ein sinnloses Experiment investiert

In einem Radio-Interview 18. Juli 2012 war Vaatz gefragt worden: „Herr Vaatz, die Politik hält, schon wegen der großen Popularität der Frage, eisern an der Energiewende II fest. Verstörend wirkt eine drohende Strompreiserhöhung. Ist diese Energiewende noch zu akzeptablen Preisen machbar?“ Antwort Vaatz: „Also ich halte sie zunächst erst mal aus rein physikalischen und auch aus technischen Gründen für kaum machbar und aus ökonomischen Gründen für völlig unsinnig, und ich glaube, dass sie nicht realisiert wird. Ich glaube, wir werden auf halbem Wege irgendwo stecken bleiben und dann feststellen, dass wir enorme Mittel in ein sinnloses Experiment investiert haben.“
Das ganze Gespräch hier: http://www.dradio.de/dlf/sendungen/interview_dlf/1814787/

Was Frau Merkel sagte, ist Lügerei

Alles dies belegt: Was Kanzlerin Merkel auf jener Bundespressekonferenz am 17. September gesagt hat (siehe Anfang), ist Lügerei. Die „Energiewende“ ist ein horrender Preistreiber.  Die EEG-Kosten für Wind- und Solarstrom steuern in die völlig falsche Richtung und schaden Deutschland in unverantwortlicher Weise. Die „erneuerbaren“ Energien müssen umbenannt werden in „verteuerbare“. Die Akteure, Propagandeure und Profiteure dieser Politik sind geradezu Volksschädlinge. Frau Merkel verstößt, da sie alles dies missachtet, gegen ihren Amtseid.

Alle früheren Beiträge von mir (seit 2008) finden Sie hier: www.kpkrause.de

Dr. Klaus-Peter Krause; zuerst erschienen auf dem Blog "Die Freie Welt"

Weitere Fakten zum Strompreis und zur Verschleierung seiner Bestandteile hat Wolfgang Rögl auf ACHGUT zusammen getragen: 

Wer den Strompreis treibt. Die unfrisierte Rechnung




Schlüsselbericht zur globalen Erwärmung war frisiert

Er ist erbost und höchst kritisch gegenüber der Art und Weise, wie eine gewisse Art von “Voodoo-Ökonomie” ausgearbeitet worden ist, um eine öffentliche Politik zur Klimaänderung zu entwickeln. Im Besonderen ist er verärgert über die Arbeit von Baron Stern of Brentford, dem IG Patel-Professor der Ökonomie und der Regierung, Vorsitzender des Grantham Research Institute zur Klimaänderung und zur Umwelt an der London School of Economics, seit 2010 auch Professor am Collège de France.

Lilley ärgert sich nicht so schnell. Warum, wird aus seinem Bericht deutlich mit dem Titel „What is Wrong with Stern? The Failings of the Stern Review” [etwa: Was stimmt nicht mit Stern? Das Scheitern der Stern-Übersicht]. Erhältlich bei der Global Warming Policy Foundation GWPF.

Seine Hauptsorge liegt darin, dass Stern zu jener Zeit ein bei der Regierung beschäftigter Ökonom war, der von seiner Regierung aufgefordert worden war, eine von der Regierung formulierte Frage zu beantworten. Er gab ihnen die Antwort, die sie erhofft hatten.

Einfach gesagt: Stern schlug vor, dass die Vorteile radikaler Maßnahmen zur Reduzierung von Emissionen etwa fünfmal so viel wert wären wie die Kosten. Das ist nicht das, was die meisten Ökonomen zu jener Zeit gesagt haben, und heute würden noch weniger das so sagen. Stern hat etwas Voodoo verwendet, um die verfügbaren Daten so hinzubiegen, dass sie zur Politik passen. Mit anderen Worten, auf Politik basierende Beweise.

Lilley benennt sechs wesentliche Fehler im Stern-Bericht.

    • Vergleich eines Teils mit dem Ganzen. Betrachtung der übernommenen politischen Maßnahmen, um vom Menschen verursachte Emissionen zu reduzieren, anstatt auf die aus allen Quellen stammenden Gesamt-CO2-Emissionen zu schauen. Stern schaut auch nur auf die Summe der Emissionen seit der industriellen Revolution, ignoriert aber die bekannten Beweise der Möglichkeiten der Erde, Emissionen zu absorbieren. Lilley sieht darin einen wesentlichen Einfluss auf Sterns Schlussfolgerungen – er behandelt nicht den wirklichen Status der Emissionen.
  • Beschreibung zukünftiger Jahrhunderte als “jetzt”. Stern sagt, dass die globale Erwärmung das BIP um 5 Prozent verringern wird, „jetzt und für immer“. Dies, obwohl seine eigene Analyse zeigt, dass die ökonomischen Einbußen wegen der Emissionen nach seiner Methode unter den Kosten der künstlichen Abschwächung dieser Emissionen liegen, zumindest in diesem Jahrhundert.
  • Inkonsistente Aufrechnung von Kosten und Vorteilen. Stern sagt nicht, welche Abschlagsraten er für seine Berechnungen im Bericht selbst verwendet, aber viele Studien haben das seitdem doch getan. Er benutzt effektiv die normalen Raten des Marktes, um die Kosten der Dekarbonisierung der Wirtschaft zu ermitteln. Lilley sagt, dass er damit die Kosten der politischen Maßnahmen zum Energiemanagement um das 2,5 bis 5-fache unterschätzt.
  • Willkürliches Herauspicken unzuverlässiger Studien. Im gesamten Bericht bezieht sich Stern ausschließlich auf solche Studien, die zu seinen Argumenten passen (politisch basierte Beweise), anstatt die gesamte Bandbreite der Studien zu betrachten, die ihn zu diesem Fall informieren sollten. Ein Beispiel: sein Beweis hinsichtlich der Schäden am Eigentum infolge zunehmender Stürme, „verursacht“ durch den Klimawandel, ist rund 100 mal zu groß, wenn man die Prämisse akzeptiert, dass die Klimaänderung solche Stürme hervorbringt, ein Umstand, von dem nicht einmal das IPCC selbst überzeugt ist.
  • Ignorieren von Anpassung. Industrie und Gemeinden sind sehr anpassungsfähig. Stern ignoriert das, solange es nicht zu seinen Argumenten passt. Lilley nennt ein spezielles Beispiel – Stern nennt den Fall eines Ernteertrags, der bei 4C [?] signifikant niedriger ausfallen wird (etwa 70 Prozent niedriger). Obwohl Landwirte die Option haben, zu ähnlichen Getreidesorten zu wechseln (unterschiedliche Rebsorten), bei denen die Erträge dramatisch steigen würden unter diesen Bedingungen, eine Tatsache, die Stern vorzieht, in seinem Bericht nicht zu erwähnen.
  • Merkwürdige Ethik. Viele Studien haben gezeigt, dass die Menschen im Jahr 2020 reicher sein werden als heute, selbst wenn wir nichts tun. Und doch ist Stern der Ansicht, dass „die globale Erwärmung droht, die Menschheit auszurotten oder zu verelenden“ – etwas, das Lilley zufolge höchst unplausibel erscheint angesichts aller Analysen bzgl. der Auswirkung der gegenwärtigen geringen Erwärmung. Stern sagt, dass jeder, der gegen seine Ansicht der notwendigen Maßnahmen ist, „unethisch“ ist und zukünftige Generationen bedroht. Lilley sagt, dass das im Grunde Mist ist.

Stern war weltweit sehr einflussreich, vor allem aber in Europa. Er wollte ein Crash-Programm von Aktionen haben, um Emissionen im Namen der Rettung der Menschheit zu kappen. Aber die Menschheit ist zumindest der Wissenschaft zufolge gar nicht bedroht, und Lilley zufolge haben wir es mit natürlichen Variationen zu tun sowie einigen mäßigen, aber marginalen menschlichen Einflüssen.

Aber mit der Verwendung von Voodoo-Ökonomie und politisch motivierter Beweise würden die Ökonomien der Welt ihr Wachstum verringert und die Energiekosten so erhöht haben, dass viele Arbeitsplätze anderswohin verlagert worden wären, wenn sie den Stern-Bericht umgesetzt hätten. Das erhöht natürlich die Risiken einer Klimaänderung anstatt sie zu verringern. Die von Stern vorgeschlagenen politischen Maßnahmen sind unbezahlbar und bringen nicht die Vorteile, die Stern behauptet.

Lilley ist erbost über Stern und über die Regierungen, die seinen Ratschlägen blind folgen. Er schlägt jetzt ein gemäßigteres Vorgehen bei der Reduzierung von Emissionen vor und setzt stärkere Betonung auf Aktivitäten zur Innovation, die die Anpassung beschleunigen kann, und er rät anzuerkennen, dass die Entwicklungsländer ihre Energieversorgung auf die effizienteste und effektivste Weise erhöhen müssen.

Lilleys Analyse ist gründlich und umfassend sowie gut recherchiert. Er ist kein Skeptiker der Klimaänderung, aber ein Realist und ein Anhänger auf Beweisen basierender politischer Maßnahmen. Seine Kritik ist es wert gelesen zu werden.

Stephen Murgatroyd ist ein Kolumnist bei Troy Media.

Link: http://tinyurl.com/8voyz7x  (Der Original-Link hatte 416 {!} Zeichen)

Übersetzt von Chris Frey EIKE




Russland wird Emissionen unter einem erweiterten Kyoto-Klimaabkommen nicht reduzieren

Das Außenministerium sagte, Moskau würde den industrialisierten Nationen, angeführt von der Europäischen Union, nicht folgen, Einschnitten zuzustimmen, die über die am 31. Dezember 2012 beendete erste Runde der Verpflichtungen hinausgehen.

Anfang dieses Monats sagte der stellvertretende Ministerpräsident Arkady Dvorkovich auf Twitter, dass über weitere Verpflichtungen „keine Beschlüsse gefasst worden waren“, was einige vermuten ließ, dass die Regierung eine Teilnahme immer noch erwäge.

Russland sagte Donnerstag, dass es sich jetzt auf einen Plan der UN konzentrieren werde, dem im vorigen Jahr zugestimmt worden war. Diesem Plan zufolge sollte bis 2015 ein neues internationales Abkommen ausgehandelt werden, wonach sowohl entwickelte als auch Entwicklungsländer bis 2020 verpflichtet werden sollen, Gasemissionen zu verringern.

„Die russische Föderation hält  die Weiterführung des Kyoto-Protokolls in seinem gegenwärtigen Zustand für ineffektiv und möchte keine Verpflichtungen für Treibhausgasreduktionen als Teil der so genannten zweiten Runde von übernehmen“, sagte der Sprecher des Außenministeriums Alexander Lukashevich. „Der Inhalt der Klimaverpflichtungen und Aktionen kann für entwickelte und Entwicklungsländer unterschiedlich sein, aber das muss sich in einem einzigen Dokument wiederspiegeln. Wenn so etwas fehlt, wird es nutzlos sein“, fügte er hinzu. Alle industrialisierten Nationen mit Ausnahme der USA haben das Kyoto-Protokoll von 1997 unterschrieben, welches vorschreibt, dass die Treibhausgasemissionen zwischen 2008 und 2012 um mindestens 5,2 Prozent unter das Niveau von 1990 gedrückt werden muss. Washington sagte, das Kyoto-Protokoll werde die amerikanische Wirtschaft schädigen und dass es unfair sei, Entwicklungsländer angeführt von China und Indien bis 2012 auszulassen. Die Entwicklungsländer sagen, dass sie mehr fossile Treibstoffe verbrennen müssen, um die Armut zu beenden.

Rückgang der Emissionen

Russland hat bei Klimaverhandlungen im Rahmen der UN angedeutet, dass es keine international bindenden Kyoto-Zieljenseits der ersten 2008-2012-Periode anerkennen würde..

Moskau hat sich lediglich bereit erklärt, auf freiwilliger Basis hauptsächlich durch das Verbrennen fossiler Treibstoffe entstehende Emissionen bis 2020 um 15 bis 25 Prozent zu reduzieren.

Die russischen Emissionen sind seit dem Kollaps der veralteten Schwerindustrie der Sowjet-Ära drastisch gesunken. Im Jahr 2010 lagen sie um 34 Prozent unter dem Niveau von 1990, weit jenseits von Moskaus Zielen, im Rahmen von Kyoto das Niveau von 1990 in den Jahren 2008 bis 2012 nicht zu übersteigen.

Die wahrscheinliche Liste der Teilnehmer an „Kyoto 2“ ist nur für globale Treibhausemissionen von 15 bis 17 Prozent verantwortlich, sagte Lukashevich, während die Länder, die an derersten Runde des Kyoto-Protokolls teilgenommen haben, für fast 30 Prozent der globalen Emissionen standen.

Das macht es unmöglich, den globalen Temperaturanstieg seit der vorindustriellen Zeit auf 2 Grad Celsius zu begrenzen, sagte er.

Zwei Grad Celsius werden als Schwelle gesehen, jenseits derer es zu gefährlichen Klimaänderungen wie Überschwemmungen, Dürren und steigendem Meeresspiegel kommen würde. Die Temperatur ist bereits um 0,8°C gestiegen.

Eine Gruppe russischer Industrie- und Energieunternehmen einschlieslich Rusal, die größte Aluminium-Fabrik der Welt, sowie TNK-BP, einer der größten Öl- und Gaserzeuger in Russland, haben die Regierung gedrängt, ein Ziel nach Kyoto 2012 zu übernehmen.

Das würde es ihnen gestatten, Kohlenstoffzertifikate für Projekte unter dem Implementations-Mechanismus der UN zur Emissionsverminderung zu erhalten.

Im vorigen Monat ist der Entwurf eines Dekrets der Regierung durchgesickert, der enthüllt, dass Moskau daran arbeitet, seine bisher nur unter Vorbehalt beabsichtigten heimischen Emissions-Reduktionsziele  in ein absolutes Ziel einer  20 ProzentReduktion bezogen auf das Niveau von 1990 zu formulieren.

Dir Erreichung dieses Ziels könnte den Weg ebnen für einen regionalen Zertifikatehandel im Ausmaß vergleichbar mit dem EU-Kohlenstoffmarkt.

(Nastassia Astrasheuskaya; Editing by Alister Doyle and Pravin Char)

Link: http://www.reuters.com/article/2012/09/13/us-russia-kyoto-idUSBRE88C0QZ20120913




Schiefergas-Boom erfasst Osteuropa

Investitionen bzgl. Öl und Gas fluten die Region in einem Ausmaß, das seit dem Fall der Berliner Mauer nicht beobachtet worden ist. Der englisch-holländische Riese Royal Dutch Shell  RDSB.LN -0.43% PLC, Total SA TOT -1.01% in Frankreich und ConocoPhillips COP +0.15% in den USA haben Ausbeutungsrechte in Polen erworben, wo dem Polish Geological Institute zufolge gegenwärtig geschätzte Reserven liegen, die den Bedarf an Erdgas des Landes für 35 bis 65 Jahre decken können.

Ähnliches gilt für die Ukraine. TNK-BP-Holding, ein Joint Venture von BP BP.LN -2.33% PLC sowie eine Gruppe russischer Investoren planen, 1,8 Milliarden Dollar in Schieferprojekte an einem halben Dutzend Stellen in der gesamten Ukraine zu investieren. Im Juni zahlte die italienische Firma Eni SpA E -1.37% eine nicht genannte Summe für einen Anteil von LLC Westgasinvest in der Ukraine, welches über etwa 1500 Quadratmeilen [fast 4000 km²] Land mit Schiefergasvorkommen verfügt. Und die Chevron Corp., CVX -0.09%, welche seit 2009 mehr als 6250 Quadratmeilen [ca. 16 000 km²] potentieller Schiefergas-Leasings erworben hat, sagt, dass sie mit der Ukraine zusammenarbeitet und über ein Abkommen zur Aufteilung der Produktion verhandelt.

Willkommene Alternative

Zumindest teilweise ist die Motivation in der Region, sich mit diesen Partnern zusammen zu tun, offensichtlich: um unter Russlands Daumen hervorzukommen. Einer Studie der Unternehmensberatung KPMG zufolge wird 69% des in Zentral- und Osteuropa verbrauchten Gases importiert, fast alles aus Russland. Eine Reihe von Streitigkeiten über Transitgebühren zwischen Russland und der Ukraine – dem hauptsächlichen Gaskorridor nach Osteuropa – hat einige Länder veranlasst, sich nach anderen Versorgungsquellen umzusehen.

Chevron: Erkundungsbohrung für Schiefergas von Chevron in Polen

Die Großen bringen Schlüsseltechnologien mit sich, die in Nordamerika erfolgreich getestet worden waren, wie das horizontale Bohren und hydraulisches Brechen – die Freisetzung des Gases durch den Beschuss von Gestein mit Sand, Chemikalien und Wasser.

Aber eine Reihe von Hindernissen hat sich in den Weg gestellt. Zuallererst ist unklar, ob die potentiellen Lagerstätten so groß sind wie ursprünglich erhofft. Im Juni sagte die Exxon Mobil Corp. XOM -0.42%, es würde die Erkundungsbemühungen in Polen stoppen, nachdem sich zwei frühe Bohrungen als kommerziell unrentabel herausgestellt haben.

Der große Fischzug

Die meisten Firmen haben sich jedoch entschlossen zu bleiben.

„Wir haben keine Pläne, unsere Aktivitäten zurückzufahren”, sagt Ian MacDonald, ein Vizepräsident bei Chevron, zuständig für die Ausbeutungs- und Produktionsstrategie in Europa, Eurasien und dem Nahen Osten. MacDonald schätzt, dass es drei bis fünf Jahre dauern wird, bis man erkennen kann, ob Gaslagerstätten in Osteuropa rentabel sind.

 

Chevron: Suche nach Schiefergas mittels seismischer Wellen durch Chevron in Polen

Wie in den USA haben Umweltaktivisten auch hier heftig gegen das hydraulische Brechen oder Fracking protestiert. Bei dieser Technik wird viel Wasser verbraucht, was die Befürchtung aufkommen ließ, dass an manchen Stellen das Trinkwasser knapp werden würde. Das Wasser ist auch mit Chemikalien vermischt, so dass man befürchtet hat, das Trinkwasser werde verseucht.

Im Januar hat Bulgarien einen Entschluss annulliert, Chevron – das versichert, seine Technologien seien darauf ausgerichtet, die Kontamination zu verhindern – eine Lizenz auszustellen und verfügte ein Moratorium bzgl. weiterer Bohrungen nach Schiefergas. Auch Rumänien hat die Erschließung von Schiefergas gestoppt; die Tschechische Republik überlegt sich einen ähnlichen Schritt.

Wenn die Erschließung erlaubt wird, müssen sich die Großen auch noch mit den öffentlichen und privaten Landbesitzern abgeben, anders als in den USA, wo Mineralrechte das alleinige Eigentum der Letzteren sind.

Eingeschlossen

Eine andere Herausforderung wird den russischen Griff über die Vorräte lockern. Moskau kontrolliert die Pipelines der Region. Viele Aufkäufer in Osteuropa sind auch an Lieferverträge mit dem russischen Gasriesen Gazprom gebunden, und zwar bis zu 25 Jahre lang – was es in einigen Fällen unökonomisch macht, nach einem neuen Versorger zu suchen.

Einige Schätzungen nehmen für die Erschließung von Schiefergas in Osteuropa viel höhere Kosten an als in den USA. Schlumberger Ltd. zufolge kostet eine Schiefergas-Bohrung in Polen fast dreimal so viel wie in den USA – oder 11 Millionen Dollar für eine Tiefe von 2000 Metern. Und Schiefervorkommen liegen in Europa im Mittel etwa 1,5 mal tiefer als in den USA, was dem Oxford Institute for Energy Studies zufolge mächtige Bohrplattformen, mächtigere Pumpen und mehr Fracking-Flüssigkeiten erfordert.

John Avaldsnes, ein Öl- und Gasmanager für Ernst & Young Europa, warnt, dass niemand erwarten sollte, dass Schiefergas in Osteuropa über Nacht zu einem Strom wird. „Es wird keine Revolution wie in den USA stattfinden“, sagt er, „aber eine Evolution, die sich langsam entwickelt“.

BENOÎT FAUCON

Mr. Faucon is a reporter for Dow Jones Newswires in London. He can be reached at benoit.faucon@dowjones.com..

Link: http://online.wsj.com/article/SB10000872396390443866404577565244220252020.html

Übersetzt von Chris Frey EIKE




Das IPCC sinkt auf einen neuen Tiefststand

[In der Mail heißt es weiter:] „Um Ihre Anforderung klarer zu machen, können Sie im Detail den oder die vermuteten Fehler auflisten, von denen Sie wollen, dass wir sie uns noch einmal anschauen?“

Da meine Anfrage an Field informeller Natur war und ich nie eine Antwort erwartet hatte, schien es mir, dass das IPCC mit diesem Beginn von Kontakten eine Kurve genommen hatte und wissenschaftliche Genauigkeit bzgl. Katastrophen und Klimaänderung ernster nimmt. Also bereitete ich eine knappe und präzise Antwort auf Fields Anfrage vor. Heute kam eine Antwort vom IPCC. Die Antwort ist lächerlich und zeigt, dass das IPCC mehr daran interessiert ist, Spielchen zu spielen als nach wissenschaftlicher Genauigkeit zu streben. Nichts von dem, was unten steht, ist kompliziert oder nuanciert.

Hier folgen die Details aus der Antwort, die mir das IPCC heute gesandt hat, versehen mit meinen Kommentaren. In dem unten stehenden Material unter „Text von Roger Pielke Jr“ steht das, was ich Chris Field als Antwort auf seine Mail vom Mai geschrieben habe. Unter jedem Absatz habe ich die Antwort des IPCC auf meine Angaben gesetzt mit dem Titel „CLA-Ergebnisse“. Darunter stehen meine heutigen Kommentare zu jeder der vier Antworten.

Damit wollen wir mal schauen…

Vermutete Fehler in der Abhandlung über Katastrophen-Trends in Kapitel 1, WG II, AR4

CLA-Antwort von Cynthia Rosenzweig und Gino Casassa

23. August 2012

Vermuteter Fehler Nr. 1

Text von Roger Pielke, Jr. Fehler Nr. 1: IPCC S. 110: „Diese früheren Verhältnisse in den USA ebenso wie normalisierte Hurrikan-Schäden in Kuba (Pielke et al. 2003) zeigen keinen signifikant steigenden Trend mit der Zeit, aber dies war so vor den bemerkenswerten Hurrikan-Schäden der Jahre 2004 und 2005“.

FACHLICH FALSCH: Abbildung 5 in der folgenden Studie, gedruckt vor Redaktionsschluss des IPCC-AR4 zeigt eindeutig, dass die Addition der Verluste der Jahre 2004 und 2005 nicht den langzeitlichen Trend der Schäden durch Hurrikane verändert:

Pielke, Jr., R. A. (2006), Disasters, Death, and Destruction: Making Sense of Recent
Calamities. Oceanography 19 138-147.
http://sciencepolicy.colorado.edu/admin/publication_files/resource-2449-2006.02.pdf

Diese gleiche Information fand sich auch im Bericht des Hohenkammer-Workshops zu Klimaänderung und Verlusten durch Katastrophen im Jahr 2006, die im AR4 genannt wird: http://cstpr.colorado.edu/sparc/research/projects/extreme_events/munich_workshop/pielke.pdf

GEFORDERTE KORREKTUR: „Diese früheren Verhältnisse in den USA ebenso wie normalisierte Hurrikan-Schäden in Kuba (Pielke et al. 2003) zeigen keinen signifikant steigenden Trend mit der Zeit, und das bleibt nach den bemerkenswerten Hurrikan-Schäden der Jahre 2004 und 2005 so“.

Erwiderung von CLA:
Es gibt keinen Fehler in dem Statement. Eine Korrektur ist nicht erforderlich, und der Text kann so stehen bleiben.
Begründung:

Die Formulierung über die veröffentlichten Analysen vor der jeweiligen Hurrikan-Saison der Jahre 2004 und 2005 ist eine Tatsachenfeststellung über die Zeitlinie und nicht eine Feststellung, dass die Ergebnisse nach Einbeziehung der Jahre 2004 und 2005 unterschiedlich waren. Aus dem Statement lässt sich nicht schließen, dass die Gesamtverteilung der Verluste unterschiedlich sein würde; stattdessen wird gesagt, dass die Jahre 2004 und 2005 bemerkenswert waren hinsichtlich der Hurrikan-Schäden, was sie in der Tat auch waren.

Antwort von Pielke am 13. September: Dies ist verwirrend. Die Zeitlinie war so gewählt, dass veröffentlichte Analysen (ich habe 2 zur Verfügung gestellt!), auf die das IPCC beim Entwurf des AR 4 hätte zugreifen können. Sie schlossen die Jahre 2004 und 2005 mit ein. Dass IPCC sagt, dass oben unten ist, und das ohne eine Miene zu verziehen. Haben sie meine Eingabe nicht einmal gelesen?

Aktualisierung: Hier steht, die das IPCC hiermit im Begutachtungsprozess des AR4 im Jahre 2007 umgegangen ist.

Vermuteter Fehler Nr. 2 (Text von Roger Pielke Jr.)

Fehler Nr. 2:

„Globale Schäden enthüllen die rapide steigenden Kosten durch Ereignisse im Zusammenhang mit extremem Wetter seit den siebziger Jahren. Eine Studie kam zu dem Ergebnis: während das dominante Signal weiterhin eine signifikante Zunahme der Risiken zeigt, verbleibt dennoch ein zugrunde liegender steigender Trend, wenn man das Ausgesetztsein gegenüber diesem Risiko normalisiert“.

Bei dieser „einen Studie“ handelt es sich um Muir-Wood et al. (2006), ein Weißbuch vorbereitet als Input in einen Workshop, den ich organisiert habe.

FACHLICH FALSCH: (a) Im ersten Satz sollte es „fünfziger“, nicht „siebziger“ Jahre heißen. Zu diesem Zeitpunkt beginnt der Datensatz der Münchner Rück, auf den man sich bezieht. (b) Viele verschiedene Studien zur Normalisierung (nicht nur „eine Studie“) waren zu der Zeit verfügbar, als in den AR4 geschrieben worden ist, dass ein Datensatz, der im Jahr 1970 beginnt und 2005 endet, eine jährliche Rate der Zunahme zeigen wird, einschließlich der neben Muir-Wood et al. (2006) auf dem Workshop in Hohenkammer präsentierten Studien, ebenso wie der IPCC-TAR und Münchner Rück (2000). Alle diese Studien finden keinen Beweis für einen „zugrunde liegenden steigenden Trend“ über längere Zeiträume.

GEFORDERTE KORREKTUR:  „Globale Schäden enthüllen die rapide steigenden Kosten durch Ereignisse im Zusammenhang mit extremem Wetter seit mindestens den fünfziger Jahren. Viele verschiedene Analysen zeigten eine Zunahme der normalisierten Schäden seit 1970, durchweg durch Hurrikane in den USA, aber diese Studien stimmen darin überein, dass kein solcher Trend über längere Zeiträume gefunden werden kann (global seit 1950 und bezogen auf US-Hurrikane seit 1900)“. Außerdem sollte der volle Text dieses Abschnitts zwischen diesen Zeilen klarer dargestellt werden.

Erwiderung von CLA:
Es gibt keinen Fehler in dem Statement. Eine Korrektur ist nicht erforderlich, und der Text kann so stehen bleiben.
Begründung:

In der Analyse von Muir-Wood 2006 wurde das Jahr 1970 betrachtet. Man benutzte einen Datensatz mit Informationen, die bis 1950 zurück reichten, aber man hat sich entschlossen, die Periode vor 1970 auszulassen, weil sie unvollständig war. Die von Pielke vorgeschlagene „Korrektur“ erkennt an, dass Analysen, die im Jahr 1970 beginnen, einen zunehmenden Trend zeigen, und nichts anderes steht im Text. Der Vermerk über die „eine Studie“, die einen Trend dokumentiert, zeigt das begrenzte Fundament der Schlussfolgerung im Zusammenhang mit anderen Studien, die die große Bedeutung der Trends beim Ausgesetztsein dokumentieren.

Antwort von Pielke am 13. September: Wieder sagt das IPCC, das oben unten ist. Viele Studien zeigten, dass die Verluste seit 1970 zugenommen haben (ich habe sie auf viele davon hingewiesen, einschließlich dem IPCC-TAR). Der Grund dafür ist einfach: geringe Hurrikanschäden in den siebziger und achtziger Jahren. Eine Studie hervorzuheben und dann zu behaupten, dass man dies getan habe, um zu zeigen, dass die Schlussfolgerung wacklig ist, lässt das IPCC völlig ahnungslos erscheinen. Das IPCC pickte sich ein Einzelereignis heraus, um eine suggestive Behauptung aufzustellen und ignoriert widersprechende Daten. Das ist nicht gut. Die Aufklärung ist schlimmer als das Verbrechen.

Vermuteter Fehler Nr. 3 (Text von Roger Pielke Jr.)

Fehler Nr.3:  IPCC S. SM 1-4: Abbildung SM-1.1 und Bildunterschrift: „Ein Beispiel aus einer Studie, die die Kosten analysiert von normalisierten wetterbedingten Katastrophen im Vergleich mit der globalen Temperatur. Daten geglättet über ±4 Jahre = 9 Jahre bis 2001 (Muir Wood et al. 2006)“

FACHLICH FALSCH: Weder die Abbildung noch die zugrunde liegenden Daten erscheinen zu irgendeiner Zeit in der wissenschaftlichen Literatur (ob begutachtet oder nicht). Die Abbildung wurde von Robert Muir-Wood erstellt und in den Bericht aufgenommen, zusammen mit einer absichtlich falschen Erwähnung, um den Redaktionsschluss des IPCC bzgl. der Veröffentlichung zu umgehen. Das hat Muir-Wood selbst zugegeben (eine Aufzeichnung seines Geständnisses ist auf der Website der Royal Institution in London verfügbar und wird von meinem Blog verlinkt:
http://rogerpielkejr.blogspot.com/2010/02/ipcc-mystery-graph-solved.html).

Er glaubte offenbar, dass die Abbildung in einer künftigen Studie erscheinen werde – das war nicht der Fall, und diese künftige Studie, die schließlich 2008 veröffentlicht wurde, fand keine Beziehung zwischen der Temperatur und Unwetterschäden.

GEFORDERTE KORREKTUR: Die Abbildung und die Bildunterschrift sollten ebenso wie der Bezug dazu im Text entfernt werden.

Erwiderung von CLA:

Nachträgliche Berichtigung der Bildunterschrift von Abbildung SM-1.1, um die Datenquelle der Abbildung deutlicher zu machen.

Begründung:

Die Abbildung zeigt eine Neuabbildung der Daten, die für die Analyse von Muir-Wood et al. (2006) verwendet worden sind. Diese Daten kombinieren die Temperaturdaten der CRU mit Datenbasis der Schäden, die in Muir-Wood et al. gesammelt und beschrieben wurden. Da Muir-Wood die CRU nicht erwähnt haben, wäre die Bildunterschrift genauer, wenn man sie folgendermaßen modifiziert:

Abbildung SM-1.1: Zeitliche Entwicklung der Kosten wetterbedingter Katastrophen im Vergleich mit der globalen Temperatur. Daten geglättet über ± 4 Jahre =9 Jahre bis 2001. Grundlage ist der von Muir-Wood et al. (2006) benutzte Datensatz und die Temperaturdaten der CRU 2006*.

*Man füge CRU den Referenzen für das unterstützende Material hinzu.

(Climatic Research Unit (CRU) (2006).University of East Anglia, Norwich.
www.cru.uea.ac.uk/cru/data/temperature/#sciref.)

Antwort von Pielke am 13. September: Das ist die Höhe. Absolut bemerkenswert. Der Graph wurde von Robert Muir-Wood aus dem Hut gezaubert, basierend auf Daten in seinem Besitz, er hat die Analyse absichtlich falsch zitiert, und es gibt keine wissenschaftliche Basis für einen Vergleich von Schäden und Temperatur. Keine. Die Antwort des IPCC hierzu bedeutet, dass ihr gefälschter Graph, obwohl nicht vollständig belegt, aber trotzdem genehmigt, eine Verunglimpfung aller Wissenschaftler und eine Verhöhnung des IPCC-Prozesses ist. Ich kann dies nicht stark genug betonen. Das IPCC hat demonstriert, dass es vollkommen unfähig ist, selbst die ungeheuerlichsten Verletzungen seiner Standards zu korrigieren.

Vermuteter Fehler Nr. 4 (Text von Roger Pielke Jr.)

Fehler Nr. 4: Die irrige IPCC-Pressemitteilung vom 25. Januar 2010: (a) „eine Studie entdeckte eine Zunahme der ökonomischen Schäden, korrigiert um die Werte, die im Risiko stehen, aber andere Studien haben einen solchen Trend nicht gefunden“, und (b) „Beim Schreiben, Begutachten und Editieren dieses Abschnitts wurden die IPCC-Prozeduren sorgfältig befolgt, um eine politikrelevante Beschreibung zu erzeugen, wie es dem Mandat des IPCC entspricht“.

FACHLICH FALSCH: (a) Wie schon bei Fehler Nr. 2 dokumentiert, haben viele Studien eine Zunahme wirtschaftlicher Schäden seit 1970 erkannt (aber nicht von früheren Startzeitpunkten), und (b) wie oben bei Fehler Nr. 3 dokumentiert, wurden die IPCC-Prozeduren nicht sorgfältig befolgt, sondern verletzt.

GEFORDERTE KORREKTUR: Das IPCC sollte seine Presseerklärung vom 25. Januar 2010 zurückziehen und eine andere Pressemitteilung erstellen, in der die Ungenauigkeiten sowohl im Bericht als auch bei der Veröffentlichung bekannt gemacht werden.

Das IPCC-Statement vom 25. Januar 2010 ist nicht Bestandteil eines IPCC-Berichtes, und das Protokoll zur Korrektur von Fehlern daher nicht relevant.

Antwort von Pielke am 13. September: Nicht, dass das IPCC eine Verpflichtung zu Genauigkeit gezeigt hat, aber hier verlässt es sich auf einen bürokratischen Trick, die falschen Informationen zu ignorieren und diese stattdessen in einer Presseerklärung in die Welt zu setzen. Das ist nicht gut.

Posted by Roger Pielke, Jr. at 9/13/2012 01:18:00 PM

Email ThisBlogThis!Share to TwitterShare to Facebook

Link: http://rogerpielkejr.blogspot.co.uk/2012/09/ipcc-sinks-to-new-low.html

Übersetzt von Chris Frey EIKE




Deutsche Energiewende erfreut die Konkurrenz

Der so genannte Verbund wird hier getestet. Der Schiefergas-Boom in den USA zeitigt für Tochterunternehmen wie Dow Chemical Co. (DOW) und DuPont Co. (DD) eine Profitsteigerung um 8 Prozent, weil sie weniger für Erdgas bezahlen, schätzt Jeremy Redenius, ein Analyst bei Sanford Bernstein Ltd.

Während die beiden BASF-Töchter vom billigen Treibstoff profitieren, steht das Flaggschiff im Rheinland unter Druck. Der leitende Direktor Kurt Bock steht an der Spitze der Reaktionen, da er die Ausweitung zu Hause evaluiert. BASF, das genauso viel durch Gas erzeugte Energie verbraucht wie Dänemark, begutachtet die Orte für Projekte, sagte Vorstandsmitglied Harald Schwager.

„Wir pressen wirklich alles aus jedem Tropfen Öl”, sagte Bock gestern auf einer Veranstaltung der amerikanischen Handelskammer in Frankfurt. „Schiefergas in den USA bedeutet, dass wir bzgl. Energie einen Nachteil haben. Aber wir werden in der Lage sein, damit umzugehen“.

Schiefergas, zu dessen Gewinnung Wasser und Chemikalien in einem Fracking genannten Prozess in den Untergrund gepresst werden, läutet dem leitenden Direktor (CEO) Andrew Liveris zufolge eine Wiederbelebung der Produktion in Amerika ein, da die Energiepreise fallen und Firmen Rohmaterialien zu billigeren Kosten beschaffen können. Dow hat in diesem Jahr ein neues Ethylen-Projekt genehmigt, das durch Ethan vor Ort angetrieben wird.

Änderung der Spielregeln

Dow steht nicht allein. Chevron Phillips Chemical Co. zahlt 5 Milliarden Dollar für ein neues Ethylen-Werk in Texas sowie zwei Polyethylen-Plastikwerke. Es wird geschätzt, dass die Industrie 30 Milliarden Dollar für Fabriken ausgeben könnte, um von dem billigen Gas zu profitieren. BASF selbst fügt seinen Werken in Port Arthur, Texas und Geismar, Louisiana,  einen zehnten Hochofen zu.

Einige der chemischen Erzeugnisse werden nach Asien exportiert, und gegenwärtig verschifft die Huntsman Corp. einige Kunstharze nach China.

„Wenn wir uns gegenwärtig in der Welt umschauen, sind die USA weiterhin ein Markt, dem ich aus Sicht eines Herstellers und wegen der billigen  Rohstoffe höchst optimistisch gegenüber stehe“, sagte der leitende Direktor der Huntsman Corp. (HUN) Peter Huntsman am 11. September. “Das bleibt hier so. Es findet eine echte Änderung der Spielregeln auf dem petrochemischen Markt in Nordamerika statt“.

Der Vorteil der USA zeigt sich bereits an den Gewinnen. Der Zweig Chemie von BASF zeigte einen Rückgang des Betriebsgewinns (operating profit) um 35% [operating profit decline 35 percent] im zweiten Quartal, herabgezogen durch Investitionskosten. Dow zahlte eine Milliarde weniger für seine Ausgangsmaterialien und Energie. Schiefergas und Investitionen an der US-Golfküste haben das Potential, die Gewinne um 2 Milliarden pro Jahr bis zum Jahr 2017 steigen zu lassen, wird vorhergesagt.

BASF legte an der Frankfurter Börse bis 10 Uhr um 2,4 Prozent auf 66,55 Euro zu.

Umwelthindernisse

[Die Förderung von] Schiefergas erfordert Millionen Gallonen Wasser, angereichert mit Säuren und anderen Zusätzen, und Umweltgruppen wie Food & Water Watch sowie Greenpeace haben aus Sorge vor einer Verseuchung von Trinkwasser gefordert, das Fracking zu verbieten.

Dem Leiter der Finanzabteilung Hans-Ulrich Engel zufolge spielen Umweltbedenken in Europa eine größere Rolle als in den USA. Die Bevölkerungsdichte in Europa erforderte die Notwendigkeit, mehr Bohrungen zur Erkundung von Schiefergas durchzuführen als die Erzeugung konventioneller Treibstoffe zu behindern.

Für BASF wird die Beschaffung von Energie zu wettbewerbsfähigen Preisen in den kommenden Jahren ausschlaggebend sein, schrieb Vorstandsmitglied Schwager in E-Mail-Antworten auf Fragen. Energie macht einen Großteil der Kosten für manche Produkte aus und beeinflusst Entscheidungen bzgl. Investitionen, und BASF in Europa zahlt vier bis fünf mal mehr für Energie als Konkurrenten in den USA, sagte er.

Drohende Gefahren

Selbst der Verbund von BASF hinsichtlich Energie in Ludwigshafen [?] kann das nicht völlig kompensieren, sagte Schwager. Von einem einzelnen Kraftwerk erzeugte Wärme wird zu einem benachbarten Kraftwerk geleitet, was zu einer Ersparnis von 200 Millionen Euro pro Jahr führt. Die Wintershall Unit von BASF versorgt die Firma mit Treibstoff, der aus der Nordsee und Russland stammt, und zwar mittels einer Pipeline und einem Handels-Venture mit Gazprom OAO (GAZP), bekannt unter dem Namen Wingas.

Der US-Schiefergas-Vorteil hat größere Implikationen als [lediglich] die heutigen Energiepreise, sagte Oliver Schwarz, ein Analyst von Chemikalien bei Warburg Research GmbH in Hamburg.

„Was BASF mehr schmerzen wird als die Energiekomponente ist, dass die Gaspreise in Amerika zu neuen chemischen Produktions-Kapazitäten führen können, die während der nächsten Jahrzehnte entstehen“, sagte er. „Die nächste Generation von Anlagen, die wegen der Gaspreise errichtet werden, werden mit Sicherheit zu einer Gefahr für BASF. Die Antwort von BASF kann nur sein, den Kampf aufzunehmen und in technologisch höherwertige Materialien zu investieren, bei denen man einen Vorteil erringen kann …“, sagte Bock.

Die beschleunigte Entwicklung hin zu Service-orientierten Spezialprodukten in größerer Menge ist die beste Verteidigung von BASF, sagte Schwarz und empfiehlt Investoren, Anteile der deutschen Firma zu kaufen.

Änderung des Paradigmas

„BASF durchläuft eine Änderung des Paradigmas”, sagte Schwarz. „Es stehen stahlharte ökonomische Überlegungen dahinter, und es ist der beste Schutz für sie. Je mehr sie auf der Wertekette nach oben steigen, umso mehr zusätzliche Wertestufen fügen sie hinzu, und je höher die Service-Komponente ist, umso weniger Vorteile haben Anbieter von billigen Rohstoffen und Energiepreisen“.

BASF investiert immer noch in Ludwigshafen. Margret Suckale, verantwortliches Vorstandsmitglied der Anlage, leitete die Eröffnungsfeier für drei neue Container-Kräne am 7. September. Einen Tag zuvor sagte BASF, es würde ein Werk bauen zur Fabrikation spezieller Zeolithe [?], die in Dieselkatalysatoren gebraucht werden.

Ludwigshafen mit seinen 160 Fabriken und 1709 Meilen [ca. 2750 km] Pipelines sicherte sich im vorigen Jahr eine Investition von 1 Milliarde Euro in die Produktion von Diisocyanaten für Polyurethan-Schäume, die in Autositzen verbraucht werden. Es ist geplant, dass die Firma Ende nächsten Jahres die Produktion aufnehmen soll.

Der Rhein sticht die Wüste aus

„Es könnte für manche Leute eine Überraschung gewesen sein, die geglaubt haben, dass wir dieses Geld irgendwo in der Wüste investiert hätten“, sagte Bock am 5. September auf einer Informationsveranstaltung in London. „Ich darf Ihnen versichern, dass alle unsere Berechnungen ergeben haben, dass diese Investitionen zu deutlich vertretbaren Kosten in Deutschland zu machen sind, wenn man die Gesamtkosten berücksichtigt“.

Im Gegensatz dazu ist BASF aus dem Styren-Geschäft ausgestiegen und hat eine Nitrodünger-Fabrik verkauft. BASF hat Geschäfte für 15 Milliarden Euro angekauft, um im Bereich Chemikalien für den persönlichen Gebrauch, Nahrung und Elektronik zu expandieren. Außerdem machte es Vorstöße in Richtung Enzyme und Biotechnologie.

Die deutsche Ablehnung von Energie aus Kernkraft kann die Probleme von BASF verschärfen, sagte Redenius von Bernstein. Die Entscheidung, Kernkraftwerke abzuschalten, könnte einer Studie der Technischen Universität Berlin zufolge bis zum Jahr 2030 Kosten in Höhe von 335 Milliarden Euro verursachen. Tuomo Hatakka, dem Leiter der Europa-Abteilung beim schwedischen Energieerzeuger Vattenfall zufolge könnten die Energiepreise für Privatverbraucher bis zum Jahr 2020 bis zu 30% steigen.

„Es ist ein doppeltes Unglück für BASF, dass die Herstellungskosten in Europa verglichen mit den USA steigen”, sagte Redenius.

Ein Sturzacker

Dies ist nicht das erste Mal, dass BASF einem Sturzacker gegenüber steht. Die Firma verschob ihre Forschungstätigkeit bzgl. genetisch veränderter Pflanzen im Januar nach North Carolina, und zwar nach jahrelangem Widerstand in Deutschland durch die Öffentlichkeit und den Gesetzgeber.

Das Aufgeben von 160 Fabriken kann hart sein. Die Förderung von Schiefergas in der europäischen Landschaft läuft ebenfalls in Probleme bei der öffentlichen Akzeptanz, sagte Dieter Franke, einer der Autoren einer Studie zum Gas in Deutschland, die von der Regierung in Auftrag gegeben worden war.

„Die Menge an vorhandenem Schiefergas bedeutet, dass man gut über eine Förderung nachdenken sollte”, sagte Franke in einem Telephoninterview am 4. September. „Der nächste Schritt muss eine öffentliche Diskussion sein, für wie wertvoll wir eine heimische Förderung halten. Die Akzeptanz fehlt momentan“.

Wenn man dem Autor schreiben will: Sheenagh Matthews in Frankfurt at smatthews6@bloomberg.net

To contact the editor responsible for this story: Benedikt Kammel at bkammel@bloomberg.net

Link: http://www.bloomberg.com/news/2012-09-13/basf-mothership-under-siege-as-shale-forces-bock-to-fight-back.html

Übersetzt von Chris Frey EIKE




Die Wahrheit hinter der schrumpfenden Eiskappe in der Arktis – die Fakten zeichnen ein anderes Bild

Wie man sieht, räume ich den Rückzug des arktischen Meereises ein, aber die Frage lautet: Warum ist das so?

Die Antwort findet sich in natürlichen Vorgängen. Ein Blick auf die globale Wassertemperatur der Ozeane während der vergangenen 15 Jahre, oder seit der maximalen El-Niño-Spitze in den Jahren 1997 und 1998, zeigt die Antwort. Am 1. September 1997 waren die Ozeane der Nordhemisphäre überwiegend zu warm, die der Südhemisphäre kühler, wie die folgende Abbildung zeigt:

(link)

Dies ist ein Beispiel für die zusammen fallenden Warmphasen der pazifischen dekadischen Oszillation und der atlantischen multidekadischen Oszillation. Ein ungeheurer Wärmeeintrag (Ozeane haben eine 1000 mal höhere Wärmekapazität als Luft) in die Atmosphäre muss zu einem Anstieg der globalen Temperatur führen, die in den neunziger Jahren auch gut belegt ist.

Aber man erkennt auch eine kompensierende Abkühlung in großen Teilen der Ozeane auf der Südhemisphäre.

Da sich trockene Luft über Land starker erwärmt als über den Ozeanen, überkompensierte die Erwärmung an Land, wenn die erwärmte Luft von den Ozeanen dorthin strömt, die Abkühlung über den südlichen Ozeanen. Daher scheint es so, als erwärme sich die Erde. Hat man aber viel mehr Fälle von Erwärmung als Abkühlung, muss die Schlussfolgerung natürlich Erwärmung lauten, oder? Gibt es jedoch eine Änderung der Gesamtwärmebilanz der Erde? Falls nein, muss eine Erwärmung durch eine Abkühlung kompensiert werden. Die Temperatur der Erde stieg im Zuge des sich erwärmenden Pazifik, was zum Beginn des Abschmelzens der nordpolaren Eiskappe führte. Da derzeit sich auch der Atlantik in seiner Warmphase befindet, wird die Eiskappe also auch aus dieser Richtung angegriffen. Kommt der Atlantik erst einmal in 10 bis 15 Jahren aus dieser Warmphase heraus, wird sich die Eiskappe wieder ausdehnen.

Hier folgen Darstellungen, die belegen, dass es im Pazifik zu einer Umkehrung gekommen ist:

Im Jahr 2002

Im Jahr 2007 und

Im Jahr 2012 zum Höhepunkt von La Niña

Die gegenwärtige Anomalie der Wassertemperatur zeigt sehr warmes Wasser im [westlichen] Nordatlantik, eine Folge der Warmphase des atlantischen Zyklus’ ähnlich dem in den fünfziger Jahren, in dem wir uns befinden, und dies setzt der Eiskappe weiter zu.

Aber ist dieses zeitweilige Fehlen von Eis ungewöhnlich? Offensichtlich nicht, wie das folgende Bild eines Unterseebootes zeigt:

 

Es tauchte u.a. am 17.3.1959 am Nordpol auf – ein Zeitpunkt in einer weiteren Warmphase ähnlich der, in der wir uns derzeit befinden. (Das Foto zeigt die USS Skate während einer Fahrt durch die Arktis). Zitat: “the Skate found open water both in the summer and following winter. We surfaced near the North Pole in the winter through thin ice less than 2 feet thick. …On both trips we were able to find open water. We were not able to surface through ice thicker than 3 feet.”

Noch beeindruckender fand ich jedoch das Bild oben rechts, dass große Flächen offenen Wassers am Nordpol im Mai 1987 zeigt, wo gleich drei U-Boote aufgetaucht waren.

Wind und Sturm können ebenfalls Auswirkungen auf das arktische Eis haben, was jüngst der Fall war. Ein heftiger Sturm brach eine Menge Eis und trieb viel davon nach Südosten in das Zentrum der Eiskappe. Aber wenn man sich diesen 30-Tage-Loop der Arktis anschaut, kann man erkennen, wie schnell die Erholung jeweils nach dem Minimum während der letzten 30 Jahre erfolgt ist, mit einem Schrumpfen wegen des Sturms und einer raschen Erholung des Eises.

Die jüngste Verkündung der schnellsten jemals registrierten Schmelzperiode des Grönlandeises ist ein weiteres Beispiel der Leugnung tatsächlicher Fakten und mit objektiven Gedanken zu kommen. Mehr dazu gibt es hier einen schönen Link [auch wiederholt auf Deutsch bei EIKE, zuletzt hier].

Der Grund für all dies liegt in einer Verzerrung der globalen Temperaturverteilung während der letzten 30 Jahre infolge der Warmphase im Pazifik, welche zu einer ersten Erwärmung der Nordhemisphäre führte, die dann durch die Warmphase im Atlantik noch verstärkt wurde. Das Ergebnis war über dem Festland ausgeprägter, weil trockene Luft dort einfacher erwärmt werden kann. Wie können wir diese Theorie testen, außer das wir auf die Folgen warten, wenn sich der Atlantik wieder abkühlt? Nun, es gibt einen Hinweis, und der liegt in der Südhemisphäre. Schließlich müssen wir global denken, oder? Denn das ist es, was wir ständig hören: GLOBALE Erwärmung. Also sollte auch [das Eis um den Südpol] schrumpfen, wenn das stimmt und meine Hypothese falsch ist.

Das wollen wir einmal evaluieren. Während der letzten 30 Jahre gab es bei der südlichen Eiskappe eine Zunahme! Das würde man bei der ganzen Hysterie über die Eiskappe am Nordpol oder einige wenige Stellen in der Antarktis, an denen es ebenfalls wärmer als normal war, nie erfahren (es kann nicht überall gleichzeitig kalt sein).

Zu diesem Thema habe ich auf der Heartland-Konferenz ICCC7 einen Vortrag gehalten. Weil die antarktische Eiskappe von einem Ozean umgeben ist, besteht die Implikation einer sich ausdehnenden antarktischen Eiskappe, obwohl sie kleiner zu sein scheint als das Schrumpfen am Nordpol, darin, dass es keine Änderung der Gesamtwärmekapazität des ganzen Systems Ozean/Atmosphäre gibt. Tatsächlich ist die Eiszunahme im Süden ziemlich bemerkenswert, weil es eines größeren Energieverlustes bedarf, das Wasser um die Eiskappe im Süden abzukühlen, als der Energiegewinn ist, um die warme kältere Luft über dem Festland rings um die Eiskappe der Arktis zu erwärmen. Die Erwärmung dieser Luft in Kombination mit der immer noch bestehenden Warmphase im Atlantik bedeutet, dass die arktische Eiskappe schrumpfen müsste. Damit habe ich ein weiteres Mal die AGW-Gemeinschaft herausgefordert: Der Gedanke ist, dass die globale Temperatur, objektiv gemessen durch Satelliten, bis zum Jahr 2030 auf das Niveau Ende der siebziger Jahre zurückkehren wird. Dann wird die arktische Eiskappe das auch tun. Um die Wahrheit zu sagen, wir würden in ernste Schwierigkeiten geraten, wenn es bis dahin keine kompensierende Erwärmung in der Südhemisphäre und ein Schrumpfen der antarktischen Eiskappe geben würde. Dieser Gedanke ist viel besorglicher als der, dass die Erde verbrennt. Eis, nicht Feuer, sollte unsere Sorge sein, besonders wenn man die solaren Zyklen und die Temperatur betrachtet, ebenso wie die ökonomischen und sozialen Auswirkungen eines kälteren Planeten. Hier gibt es eine aktuelle Studie hinsichtlich Sonnenflecken und globaler Temperatur.

Als Nation müssen wir gebrauchen, was uns so erfolgreich den Fortschritt gebracht hat. Die Begrenzung von Energievorräten aufgrund falscher Gedanken und Halbwahrheiten hat inzwischen zu einer Schwächung unseres Landes und zunehmender Armut unserer Bevölkerung geführt. Beispiel: Benzin kostet derzeit 4 Dollar pro Gallone (ca. 4 Liter), und es ist eine Schande, dass es keinen Grund gibt, nichts dagegen zu tun. Dies eliminiert hunderte Milliarden Dollar aus unserer Wirtschaft und verteilt sie anderswo. Regulationen, die auf Sorgen vor Dingen beruhen, die von Natur aus zyklisch und basierend auf dem Gesamtbild und den Beweisen sind, entfernt weitere hunderte Milliarden Dollar aus unserer Wirtschaft.

Die traurige Wahrheit ist: Eine Nation, die auf dem Fundament von Freiheiten ruht, mit der Realität umzugehen, wird nicht überleben, wenn sie durch eine Politik erschüttert wird, die utopische Geister jagt.

Die Geschichte von der Eiskappe ist ein hervorstechendes Beispiel dafür.

Joe Bastardi

ist in dritter Generation Meteorologe und Mitinhaber der Fa. Weatherbell. Zuvor war er 32 Jahre für die Firma Accuweather.com als Meteorologe tätig.

© Copyright 2012 The Patriot Post

Link: http://patriotpost.us/opinion/14736

Lesen Sie auch hier einen interessanten Beitrag auf die Kalte Sonne zum Thema arktische Eisschmelze:

NABU: „Bis zu 50 Prozent der Erwärmung in der Arktis sind auf den Einfluss von Rußpartikeln zurückzuführen“

Übersetzt von Chris Frey EIKE




Die völlige Verzweiflung der Klima-Alarmisten

In einer kürzlichen Anhörung vor dem Senatskomitee für Environment and Public Works hat Dr. John Christy, Klimatologe beim US-Bundesstaat Alabama, ein Professor der atmosphärischen Wissenschaft und Direktor des Earth System Science Center an der University of Alabama in Huntsville, gesagt: „Es ist wieder populär zu behaupten, dass extreme Ereignisse wie etwa die Dürre dieses Jahres in den zentralen USA der Beweis für eine vom Menschen verursachte Klimaänderung seien. Tatsächlich ist die Erde sehr groß, das Wetter ist sehr dynamisch, und Extremwetterereignisse wird es weiterhin irgendwo geben, jedes Jahr, ganz natürlich. Die jüngsten ‚Extreme’ sind in früheren Jahrzehnten noch übertroffen worden“.

Unter den aktuellen Beispielen der Warmisten, die Öffentlichkeit davon zu überzeugen, dass die Erde in Gefahr ist, befinden sich die Meinung des Präsidenten des radikalen Environmental Defense Fund, Fred Krupp im Wall Street Journal sowie ein Fernsehbericht im Sender PBS, in der Dr. James Hansen eine Statistik präsentierte, die genauso gefälscht war wie in seiner Aussage aus dem Jahr 1988, dass die globale Erwärmung vom Menschen verursacht ist und uns töten wird, wenn wir nicht durch die Kriminalisierung von CO2-Emissionen unsere Wirtschaft abwürgen.

Der bekannte Meteorologe Anthony Watts, dessen Website eine Schatzkammer wirklicher Klimawissenschaft ist, hat Hansens PBS-Präsentation von Glockenkurven widerlegt, mit denen er seine Behauptung, dass die gegenwärtigen Dürreerscheinungen ein Beweis der globalen Erwärmung sind, untermauern wollte. „Diese Glockenkurve beweist gar nichts“, sagte Watts. „Das ist nichts weiter als ein politischer Trick eines Mannes, der jede Art von professioneller Wissenschaft zugunsten von Aktivismus aufgegeben hat“. Watts Forschungen haben gezeigt, wie korrupt viele Thermometermessungen waren infolge der Lokationen, an denen die Thermometer aufgestellt worden sind oder weil Messungen aus Gebieten stammen sollten, in denen es gar keine Thermometer gab.

Im Wall Street Journal verfasste Krupp einen neuen Appell für  “einen neuen Klimakonsens.” Man erinnere sich, dass sich der Komplex des Schwindels der globalen Erwärmung in Gestalt des IPCC manifestiert hat, und dass jahrelang behauptet worden ist, dass ein „Konsens“ unter Wissenschaftlern weltweit besteht, dass die globale Erwärmung real ist. Die Daten, auf denen diese IPCC-Behauptung basiert, wurden im Jahr 2009 bekannt, als E-Mails zwischen den beteiligten Wissenschaftlern deren Panik enthüllten über Anzeichen, dass im Jahr 1998 ein globaler Abkühlungszyklus begonnen hat. Seitdem hat sich die Erde abgekühlt.

Wissenschaft wird nicht durch Konsens betrieben. Sie wird betrieben durch rigoroses Austesten von Hypothesen und Theorien. Selbst Krupp merkte an, dass „ein heißer Sommer keine Bestätigung dafür ist, dass die Klimaänderung real ist; ebenso wie eine Weiße Weihnacht kein Beweis dafür ist, dass sie ein Schwindel ist“. Das stimmt. Jedoch wird sie auch nicht realer durch die Jahr für Jahr durch unsere eigene Regierung sorgfältig verworfenen „Daten“. Habe ich schon erwähnt, dass Dr. Hansen Direktor des Goddard Institute for Space Studies der NASA ist?

So ziemlich die einzige Wahrheit, die Krupp äußerte, war, dass „einige vorgeschlagene Lösungen des Klimaproblems, wenn sie nicht gut durchdacht oder vernünftig implementiert werden, unsere Wirtschaft schädigen können und kurzfristiges Wachstum verhindern“. Oder jegliches Wachstum.

Während ich dies schreibe, versucht die Environmental Protection Agency, drakonische Grenzen für CO2-Emissionen einzuführen, und zwar für jede einzelne Körperschaft der US-Wirtschaft, von großen Kompanien bis zu kleinen Geschäften. Trotz noch für Jahrhunderte ausreichender Kohlereserven in den USA war die EPA emsig damit beschäftigt, den Kohlebergbau und Kohlekraftwerke, die unseren Strom erzeugen, außer Betrieb zu setzen.

Steven Goddard hat schnell reagiert und in der Ausgabe von Real Science vom 6. August darauf hingewiesen, dass „während der dreißiger Jahre doppelt so viele Tagestemperaturrekorde verzeichnet worden sind wie im ersten Jahrzehnt des neuen Jahrtausends, zumindest an USHCN-Stationen, die in beiden Jahrzehnten in Betrieb waren. Deswegen fängt Hansen mit seinen (im PBS-Fernsehen gezeigten) Statistiken erst in den fünfziger Jahren an“.

Weder Krupps netten Worte des Ansporns für die Skeptiker der globalen Erwärmung noch die Lügen von Dr. Hansen ändern etwas an der Tatsache, dass es keine globale Erwärmung gibt und dass sie nur in den Köpfen jener existiert, die danach trachten, Profite aus dem Verkauf von „Kohlenstoffzertifikaten“ an Industrien und Individuen zu verkaufen, die sich damit die Erlaubnis weiterer CO2-Emissionen aus welchen Gründen auch immer einkaufen wollten.

Es sollte eine Graphik geben, auf der dargestellt ist, wie die Lügen zur globalen Erwärmung mit jedem Wetterereignis oder mit jeder neuen Enthüllung von wissenschaftlichen Fakten, die den Schwindel offensichtlich machen, steigen oder fallen.

© Alan Caruba, 2012

Link: http://www.anxietycenter.com/ vom 8. August 2012

Übersetzt von Chris Frey EIKE




Latif will nicht mit Vahrenholt diskutieren: Dann eben hier !

Klimaforscher Mojib Latif, der ebenfalls beim VKU zu Gast ist, will nicht mit Ihnen reden. Ein Vorwurf: Sie bilanzierten kurzfristige Temperaturentwicklung, nicht langfristige Klimatrends. Berechtigte Kritik?

Zur Kurzsichtigkeit: Vor zwölf Jahren hat Herr Latif gesagt, Winter mit starkem Frost und viel Schnee wird es in unseren Breiten nicht mehr geben. Wissenschaftlich hat er publiziert, dass wir in der zweiten Dekade eine Abkühlung bekommen. Da hat er recht! Fakt ist, dass es seit 1998 nicht wärmer geworden ist. Nur weil dies erst seit 14 Jahren der Fall ist, wird gesagt, das habe mit Klima nichts zu tun. Schauen Sie sich doch mal die CO2-Kurve an: Seit 1998 sind jedes Jahr rund drei Prozent mehr CO2 ausgestoßen worden; dennoch ist es nicht wärmer geworden. Dafür gibt es doch Gründe. Da müssen die traditionellen Klimaforscher mal erläutern, woran das liegt. Es hat damit zu tun, dass wir ozeanische Zyklen haben, die für 20 bis 30 Jahre zur Abkühlung führen. Hinzu kommt als Ursache die sich abschwächende Sonne. All das kann man doch nicht ignorieren.

Gegen Sie richtet sich der Vorwurf, Sie seien Strommanager, aber kein Klimaforscher. Publiziert in einem Fachmagazin hätten Sie auch noch nicht. Warum eigentlich?

Der Vorwurf ist doch an den Haaren herbeigezogen. Herr Pachauri, immerhin der Vorsitzende des Weltklimarats IPCC, ist Eisenbahningenieur. Warum darf der uns allein erzählen, wie er Klimaforschungsergebnisse interpretiert? Ich bin zwar kein Klimaforscher, aber doch Chemieprofessor und nehme das gleiche Recht in Anspruch.

Forscher widersprechen Ihrer These der sich abschwächenden Sonne. Die Sonne habe lediglich einen Kühleffekt von 0,06 bis maximal 0,3 Grad Celsius. Was entgegnen Sie?

Diese Forscher sollten uns dann mal erklären, wie die Kleine Eiszeit vor 350 Jahren und wie die kalte, dunkle Zeit der Völkerwanderung entstanden ist. Wodurch ist denn einst eine Abkühlung von ein bis zwei Grad ausgelöst worden – und das alle tausend Jahre, und zwar weltweit? Ohne dass die Sonne damit etwas zu tun hat? Wer soll das denn sonst gewesen sein? Das CO2 kann ja nicht die Ursache gewesen sein. Die Behauptung, erst der Mensch mit seinem CO2-Ausstoß sei entscheidend für die Erderwärmung, soll den Einfluss der Natur auf den Klimawandel verschleiern. Bester Beleg ist doch die E-Mail-Affäre vor drei Jahren. Was habe ich von Forschern zu halten, die für die Öffentlichkeit Teilergebnisse so hinbiegen, damit daraus eine politische Botschaft konstruiert werden kann?

Empfinden Sie noch Groll gegen die Universität Osnabrück, die Sie Anfang des Jahres ausgeladen hat?

Ich komme gerne nach Osnabrück und finde es schön, dass der Verband kommunaler Unternehmen mich jetzt eingeladen hat. Denn dann kann sich jeder selbst ein Bild von meinen Thesen machen. Ich fand das damals seitens der Uni Osnabrück schon ein starkes Stück, dass eine deutsche Universität mich zunächst einlädt, um die Thesen vorzutragen, dann aber auf Druck kneift und mich auslädt. Dafür werde ich dann eingeladen an die Universität Oslo, die Royal Society in London, nach Wien oder Bern. Mit dem Denken und Handeln der Universitätsleitung in Osnabrück hätten sich die Erkenntnisse eines Alfred Wegener nie durchgesetzt. Er wurde verlacht, verschrien, ausgeladen. Leider erst nach seinem Tod ist seine Theorie der Kontinentalverschiebung anerkannt worden. Ich hoffe, dass ich noch so lange lebe, bis die Universität sich für diesen Maulkorb entschuldigt.

Einen Tag später bekam dann Mojib Latif in derselben Zeitung die Möglichkeit zur Gegenrede (Interview vom 12.9.2012). Dies ist zu begrüßen, da es die Möglichkeit der Diskussion eröffnet. In seinem Beitrag sagt Latif u.a. einige sehr vernünftige Dinge (z.B. „Biosprit E10 ist Blödsinn“). Gerne wollen wir die Gelegenheit nutzen und die Diskussion an dieser Stelle fortführen. Denn einige von Latifs Äußerungen können so nicht unkommentiert stehenbleiben. Im Folgenden bringen wir Auszüge aus Latifs Interview (linke Spalte der Tabelle), auf die wir genauer eingehen wollen (rechte Spalte).

Ergänzung: 

Video eines interessanten Streitgespräches zwischen Prof. Stocker IPCC Leitautor und Chef des Klimainstitutes der Universität Zürich und Prof. F. Vahrenholt. Mit Dank an R. Hoffmann für die Bearbeitung.

Zur Glaubwürdigkeit des IPCC und seiner "vielen tausend" Wissenschaftler die Prof. Stocker im Interview so ausgiebig verteidigt finden Sie Details hier, hier und (in englisch) hier und hier

Weiter im Interview – Kommentar.

Mit  Dank an Kalte Sonne und R. Hoffmann.

Bei der Übernahme mussten wir, um zweispaltig zu bleiben, Bilder aus dem Original-Text machen. Deswegen kommen die eingefügten Links nicht rüber. Das Original mit allen Links finden Sie hier. Wir bitten um Verständnis.




Beginn der nächsten Eiszeit

Alle diese Trends kehren sich gegenwärtig um. Aber es wird noch viel schlimmer werden als das. Die nächste Vereisung wird viele Länder auslöschen, und nichts wird das aufhalten. Zum Beispiel dürfte es in UK so aussehen wie in Lappland. Nehmen Sie als Indiz dafür, wie schlimm es werden wird, dass es an den Stränden von Schottland aus Norwegen stammende Findlinge gibt, die von dort über eine gefrorene Nordsee hinweg dorthin transportiert worden sind. Als Wissenschaftler ist es unsere Aufgabe, den Beginn der nächsten Vereisung vorherzusagen.

Der Beginn von Zwischeneiszeiten wird durch die Einstrahlung auf 65°N angetrieben. Dort sind Landmassen entweder das ganze Jahr über schneebedeckt oder nicht. Es scheint, dass eine Einstrahlung über 510 Watt/m² eine Eiszeit beendet. Für das Ende einer Zwischeneiszeit müssen die Ozeane Wärmegehalt verlieren, so dass sich eine Schneedecke bis in den Sommer hinein hält und die Albedo der Erde zunehmen lässt. Dank der Lage unserer Kontinente könnte unsere gegenwärtige Eiszeit noch Millionen Jahre dauern. Abgeleitet aus den Milankovitch-Daten zeigt diese Graphik die Einstrahlung bei 65°N von 50 000 vor bis 50 000 nach unserer Zeitrechnung:

Der grüne Kasten lässt das Holozän 3000 Jahre nach dem Beginn unserer Zeitrechnung enden – eine beliebige Wahl. Die Einstrahlung ist schon jetzt gering genug, um den Beginn einer Eiszeit auszulösen. Während der letzten 8000 Jahre hat sich die Erde um 0,25°C pro tausend Jahre abgekühlt, also verlieren die Ozeane Wärme. Wir müssen lediglich noch den Auslösepunkt erreichen, bei dem sich Schnee im Nordsommer hält. Der Sonnenzyklus 25 könnte dafür schon ausreichen. Am Ende dieses Jahrzehnts werden wir den Daten des Rutger Global Snow Lab immer mehr Aufmerksamkeit schenken.

Auszug aus http://most-likely.blogspot.com/2012/03/milankovitch-cycles-and-glaciations.html:

Der Modellinput ist unredlich, und der Modelloutput ist die inverse δ¹⁸O-Aufzeichnung [?], mit dem Mittelwert Null während des Pleistozäns, nach Lisiecki und Raymo 2004 sowie Huybers 2007. Lisiecki und Raymo verwenden orbitale Einstellungen, um das Alter der benthonischen [?] Ablagerungen zu begrenzen, während Huybers dies explizit vermeidet. Konsequenterweise sind beide Datensätze außer Phase, aber allgemein in guter Übereinstimmung, vor allem im späten Pleistozän.

Als eine Fitness-Funktion nehmen wir das Produkt aus der Summe der quadratischen Fehler zwischen den Modellen und den beiden Referenz-Aufzeichnungen von 2580 Jahren vor heute in Zeitschritten von 1000 Jahren.

Für die längerfristige Perspektive folgt hier eine Kombination beider Datensätze (um eine fortgesetzte Zeitfolge zu erzeugen) aus der Vorhersage der Milankovitch-Daten.

Die hier gezeigte Zeitspanne reicht von 450 000 Jahren vor bis 330 000 Jahre nach unserer Zeitrechnung. Die Skala der vertikalen Achse zeigt die Veränderung des O18-Gehaltes. Das Ganze passt sehr gut zum bisherigen Verlauf, wie die Arbeiten von Lisiecke et al. 2005 und Huybers 2007 gezeigt haben. Die nächste Vereisung wird in 55 000 bis 60 000 Jahren ihren Höhepunkt erreichen mit der nächsten Zwischeneiszeit noch einmal 20 000 Jahre später.

David Archibald

References

Huybers, P., 2007, Glacial variability over the last 2Ma: an extended depth-derived age model, continuous obliquity pacing, and the Pleistocene progression, Quaternary Science Reviews 26, 37-55.

Lisiecki, L. E., and M. E. Raymo, 2005, A Pliocene-Pleistocene stack of 57 globally distributed benthic d18O records Paleoceanography, 20, PA1003, doi:10.1029/2004PA001071.

Source Data: Download the consolidated data, including orbital parameters, insolation calculations, reference data and model output: Milankovitch.xlsx

Link: http://wattsupwiththat.com/2012/09/16/onset-of-the-next-glaciation/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Die hier genannten Zeiträume übersteigen das menschliche Anschauungsvermögen außerordentlich weit. Weil ich aber das 2. Bild sehr interessant fand, habe ich das hier übersetzt.

C. F.




Anthropogener Treibhauseffekt: zu schwach für Klimakatastrophe!

Die großen Unterschiede tauchen erst auf, wenn das Ergebnis für die Atmosphäre auf die Erdoberfläche übertragen wird. Unterschiedliche Interpretationen der Rückkopplungsprozesse führen dann zu völlig unterschiedlichen Ergebnissen.
Hier wird eine Berechnungsmethode der globalen Erwärmung vorgestellt, die auf der Bilanzierung der Energieflüsse direkt an der Erdoberfläche beruht. Das Ergebnis ist eindeutig und liefert keinen Ansatz für unterschiedliche Interpretationen. Die erhöhte Wärmelast durch den anthropogenen Treibhauseffekt wird an der Erdoberfläche vor allem durch die dominante Verdunstungskühlung von Wasserdampf kompensiert. Die Wirkung von Wasserdampf als Kühlmedium ist so stark, dass lediglich 0,58 Grad Celsius Erwärmung genügen, um eine verdoppelte Kohlendioxid Konzentration zu kompensieren.
Der vollständige Bericht ist als pdf herunterladbar.
Dr. Wolfgang Burkel
EIKE

Related Files




Energiewende wirkt! EU-Energieeffizienz-Richtline soll Verbrauch um 1,5 % jährlich senken-unprofitable konventionelle Kraftwerke dürfen bald nicht mehr abgeschaltet werden

EU-Energie-Effizienzrichtlinie.

Ursprünglich war dieser Vorschlag im März 2009 im schwarz-roten Kabinett der Regierung der großen Koalition vom damaligen Bundesumweltminister Siegmar Gabriel vorgeschlagen worden. Er wollte die nächsten Schritte zur, zuerst vom PIK & später dem WBUG vorgeschlagene, großen Transformation gehen. Da man sich aber sicher war, dass dieses Gesetz im Lande auf erheblichen Widerstand stoßen würde, beschloss man dieses Gesetz über die Bande nach Brüssel zu spielen und von dort als EU-Richtlinie beschließen zu lassen. Im Falle des Falles läge dann dort der schwarze Peter.

Das Medienportal für Europa Nachrichten "Euractiv" schreibt dazu

Die Abgeordneten des EU-Parlaments haben dem Kompromiss zur EU-Energieeffizienz-Richtlinie mit großer Mehrheit zugestimmt – und lassen damit den EU-Staaten bei der Erfüllung des Einsparziels von 1,5 Prozent pro Jahr weitgehend freie Hand. EurActiv.de zeigt die Reaktionen., schreibt das Portal Euractiv

und meint weiter:

Künftig soll in jedem EU-Staat der Energieverbrauch der Endkunden jährlich um 1,5 Prozent gesenkt werden. Gleichzeitig wird es den Mitgliedsstaaten aber freigestellt, ob sie Einsparverpflichtungen für Energieversorger einführen oder alternative Maßnahmen, zum Beispiel Förderprogramme zur Erreichung dieser Quote ergreifen. Zusätzlich wird Mitgliedsstaaten die Möglichkeit eingeräumt, Ausnahmeregelungen bis zu einer Höhe von 20 Prozent des Einsparziels einzuführen. 

Viele Parlamentarier loben dieses Vorhaben als beispielhaft aber als zu schwach bezeichnet

"Da die freiwillige Selbstverpflichtung der Mitgliedsstaaten bislang bedauerlicherweise zu keinem befriedigenden Ergebnis geführt hat, war es höchste Zeit, eine Gesetzgebung auf den Weg zu bringen. Um die Energiewende zu schaffen, müssen wir neben der Förderung der Erneuerbaren Energien auch unseren Verbrauch effizienter gestalten", erklärte der SPD-Europaabgeordnete Bernd Lange. 

Und  der grüne Europaabgeordnete und Verhandlungsführer des EU-Parlaments bei der Richtlinie, Claude Turmes, erklärte: "Die EU hat heute bewiesen, dass sie zu zukunftsweisender Klimaschutz- und Energiepolitik entschlossen ist. Die neue Richtlinie ist ein wichtiger Beitrag zur Ankurbelung unserer Wirtschaft und entscheidend, um unsere Abhängigkeit von Energieeinfuhren zu reduzieren und Energie langfristig erschwinglich zu halten. Energieimporte machten im Jahre 2011 rund 500 Milliarden Euro aus, vier Prozent des BIP der EU. Besonders die Krisenstaaten sind durch hohe Energieimporte in ihrer wirtschaftlichen Entwicklung gelähmt.

Nur der liberale Abgeordnete Holger Krahmer im Europaparlamanent hält ein wenig dagegen und meint,  dass man sich die Regelung hätte sparen können: "Die Effizienz- und Energiesparvorgaben der EU-Kommission waren von Anfang an stark umstritten und sind daher in den Verhandlungen bis zur Unkenntlichkeit verwässert worden. Die Regelung wird das Ziel europaweit einheitlicher Energieeinsparungen in der anfangs gewünschten Höhe nicht erreichen."

Der Versuch, Energieeffizienz und Energiesparen mit einem Gesetz für Mitgliedsstaaten zu regeln, sei unsinnig. "Das ist das Ergebnis dieser Debatte. Wie es besser funktioniert zeigt die deutsche Industrie: Der Kostendruck des internationalen Wettbewerbs, sorgt dafür dass die Unternehmen beim sparsamen Umgang im Energie keine Nachhilfestunden aus Brüssel brauchen", so Krahmer.

Rationierung von Energie ist vorprogrammiert

Beim vorhersehbaren Scheitern der Richtlinie, die vorsieht die verlangten Einsparungen erstmal auf "freiwilliger Basis zu erreichen, ist die umfassende Rationierung von Energie für jeden Einzelnen vorprogrammiert.

Oder wie soll man es sich vorstellen, dass die Lieferanten von Energie fossiler oder elektrischer Herkunft, beim Erreichen von 98,5 % des Vorjahresumsatzes einfach die Lieferung verweigern? Hamsterkäufe bei den hamsterbaren Energieträgern wären die unmittelbare Folge. Mit allen Konsequenzen wie Vetternwirtschaft, Bestechung und drastischen Verteilungskämpfen. Eben allen Folgen einer Mangelwirtschaft.

Da Elektrizität nicht in großem Maße gespeichert werden kann, wird bei dieser Energieform den Kunden eben einfach der Strom abgedreht. Auch das führt unvermeidlich zu Verteilungskämpfen sowie Bevorzugungen wie Benachteiligungen. Beides zusammen lässt sich nur durch Rationierung beherrschen. Die große Transformation hätte ihren erste große Bewährungsprobe bestanden.

Abschaltverbot für unrentable (fossile) Kraftwerke

übernommen von Science Sceptical 

Das war abzusehen. Nachdem der durch das EEG vorrangig ins Netz einzuspeisende Strom aus Wind und Sonne dafür gesorgt hat, dass häufig vor allem zur Mittagszeit Strom im Überfluss vorhanden ist, lohnt vor allem für die Betreiber von Gaskraftwerken deren Betrieb nicht mehr. Was noch hinzu kommt ist, dass diese Kraftwerke zunehmend nur noch als Lückenbüßer einspringen sollen, immer dann wenn der Wind nicht weht oder die Sonne nicht scheint. Das führt zu einer Verringerung der Auslastung und zu einem erhöhten Brennstoffverbrauch, weil die Kraftwerke, wenn Sie denn produzieren, dies oftmals nur im Teillastbetrieb können.

Das führt dazu, dass die Betreiber zunehmend  mit dem Gedanken spielen, diese unrentabel gewordenen Kraftwerke vom Netz zu nehmen. Für die Energieversorgung in Deutschland wäre das fatal. Schließlich werden diese Erzeuger vor allem im Winter dringend gebraucht, wenn der Verbrauch besonders groß, die Produktion von Photovoltaikstrom aber verschwindend gering ist. Um aus diesem Dilemma zu entkommen plant die Bundesregierung jetzt offenbar, die Betreiber zu verpflichten, auch in unrentabel gewordenen Kraftwerken weiter bei Bedarf Strom zu produzieren. Man darf annehmen, dass es der Regierung ernst ist mit dieser Idee. Schließlich steht die Sicherheit der Stromversorgung auf dem Spiel. Und es ist ebenfalls anzunehmen, dass als Ausgleich dafür “Anreize” geschaffen werden. Soll heißen, der Stromverbraucher wird für die Mehrkosten von Kraftwerken aufkommen müssen, die einen großen Teil der Zeit unproduktiv im Stand-By Modus gehalten werden.n-tv meldet dazu heute:

Stromengpässe im Winter?
Regierung baut vor

Gegner der Energiewende warnen gerne vor der Blackout-Gefahr. Nun könnte die Lage im Winter aber tatsächlich ernst werden. Der günstige Ökostrom verdirbt älteren Kraftwerken das Geschäft. Die Regierung lässt die Muskeln spielen, um sie dennoch am Netz zu halten.

Die Bundesregierung droht Betreibern, die ihre Gas- oder Kohlekraftwerke in Kürze vom Netz nehmen wollen, mit einem vorübergehenden Abschalt-Verbot. Es gebe für den Winter womöglich eine Lücke von mehreren hundert Megawatt, um eine sichere Versorgung zu garantieren, hieß es in Koalitionskreisen. Da die stetig steigende Ökostrom-Produktion ältere fossile Kraftwerke unrentabel mache, könnten bis zum Winter mehr Anlagen vom Netz gehen als erwartet.

Da es keine Meldepflicht gibt für Abschaltungen, sei die Lage derzeit ungewiss und das Problem womöglich nicht auf freiwilliger Basis zu lösen. Aus dem Bundeswirtschaftsministerium erfuhr die Deutsche Presse-Agentur, das Ministerium setze auf freiwillige Selbstvereinbarungen der Betreiber. Oberste Priorität habe aber die Versorgungssicherheit in Deutschland. “Vor diesem Hintergrund ist das Bundeswirtschaftsministerium jederzeit in der Lage, durch schnelle gesetzliche Änderungen die Versorgung sicher zu stellen.”

Autoren:

Energieeffizienz-Richtlinie: Michael Limburg EIKE

Abschaltverbot: Rudolf Kipp

Weiterführende Links:

ARCELOR Mittal fürchtet Werksschließungen in Deutschland wg. "Energiewende"

WAZ: Regierung will Konzerne zu Kraftwerksreserven zwingen




Klimamodelle von NASA und IPCC: Jüngste Temperaturdaten bestätigen, dass ihnen jede Prognosefähigkeit fehlt

Die beiden Bilder sind Repräsentationen der Klimamodellvorhersagen nach NASA/Hansen und IPCC, aktualisiert mit globalen Temperaturdaten bis Juni 2012.

Beide Bilder enthüllen die trostlosen Vorhersagefähigkeiten dieser teuren, mächtigen und komplexen Computermodelle. Eindeutig haben die Modelle auf der Basis der bestehenden ‚Business as Usual’-CO2-Emissionen eine signifikante globale Erwärmung vorhergesagt, die nicht eingetreten ist. Ganz allgemein lagen die Modelle über einen ausgedehnten Zeitraum völlig falsch. (Die schwarzen gestrichelten/gepunkteten Linien in den beiden Graphiken zeigen, was diese Modelle für den Zeitraum 2011-2012 vorhergesagt haben).

Diese Modelle, bei denen das CO2 im Mittelpunkt steht, leiden unter einigen fundamentalen Programmierfehlern, die auf falschen Hypothesen einer grün-aktivistischen Agenda beruhen. Vor allem wurden diese Computersimulationen dahingehend programmiert, dass sie eine sehr hohe Sensitivität für das CO2-Niveau aufweisen. Diese Modelle nehmen an, dass die globale Temperatur durch die Zunahme des CO2-Niveaus durch menschliche CO2-Emissionen „beschleunigt“ rapide steigt. Diese grüne „wissenschaftliche“ Schlüsselhypothese zusammen mit dem daraus resultierenden Fehler bei der Programmierung der Klimasensitivität erzeugt folglich fast unter Garantie falsche Vorhersagen für künftige Klimaszenarien.

Im Gegensatz dazu zeigt die Graphik rechts oben eine neuere Annäherung durch Klimamodelle, die auf harmonischer Analyse basiert. Diese scheinen Vorhersagen zu erzeugen, die viel eher mit der bekannten Klimarealität in Einklang zu bringen sind. Die meisten der jüngsten globalen Temperaturtrends und –variationen bewegen sich gut innerhalb der Projektionen dieser Modelle.

Das ‚harmonische’ Modell ignoriert im Wesentlichen CO2-Niveaus und –emissionen und konzentriert sich stattdessen auf astronomische Kräfte, hauptsächlich Planetenbewegungen im Sonnensystem.

Ergebnis: Das harmonische Modell passt viel besser zu den bekannten dekadischen und multidekadischen Oszillationen, die die globalen Klimavariationen erzeugen und die während der gesamten Historie gut dokumentiert sind. Die CO2-zentrierten Modelle sind vollständig unfähig, das auch zu tun. Offensichtlich wird nur die Zeit sagen, ob diese unterschiedlichen Vorgehensweisen der Klimamodellierung auch weiterhin akzeptable Vorhersagefähigkeiten haben.

Zusätzliche climate-model Beiträge. Modern, regional, historical und fabricating-fake Temperaturkarten.

C3 Headlines

Das Original finden Sie hier

Übersetzt von Chris Frey EIKE




Ist die gegenwärtige globale Erwärmung ein natürlicher Zyklus?

Die öffentlichen Medien in den USA, einschließlich National Public Radio (NPR) haben die Bedeutung dieser Entdeckung rasch erkannt. Die vergangenen Erwärmungsereignisse, von denen Mulvaney et al. berichten, sind hinsichtlich Amplitude und Dauer ähnlich dem gegenwärtigen Erwärmungssignal, obwohl jene Ereignisse lange vor der industriellen Revolution stattfanden und nicht durch anthropogene Treibhausgase verursacht worden sein können. Der gegenwärtige Zyklus globaler Erwärmung liegt innerhalb des Bereiches dieser natürlichen Warmzyklen der Vergangenheit. Das legt nahe, dass der gegenwärtige globale Erwärmungszyklus natürlichen Ursprungs sein kann und nicht durch menschliche Aktivitäten verursacht wird – wie es die Klimaskeptiker schon seit Langem erklären.

Vor einigen Jahren haben wir eine ähnliche, aber extensivere Analyse der historischen Temperaturaufzeichnungen aus Eiskerndaten durchgeführt, die aus dem Gebiet um Wostok in der Antarktis stammen, nicht weit von der Stelle, von der die in der jüngsten, in Nature veröffentlichten Studie von Mulvaney et al. analysierten Eiskerne herkommen. Wir haben ein natürliches Warmereignis (a Natural Warming Event, NWE) als eine monotone Zunahme der Temperatur definiert, die mindestens drei aufeinanderfolgende Temperaturdatenpunkte bei Wostok umfassen und bestimmt wird durch mindestens einen Temperaturdatenpunkt weniger als die Spitze während des NWE. Wir haben 342 NWEs gefunden, die zu dieser Definition passen, verteilt über die letzten 250 000 Jahre in scheinbar unregelmäßigen Intervallen (allerdings haben wir die feinen Regelmäßigkeiten nicht analysiert, die es geben dürfte). Die von uns mit dieser Methode identifizierten 342 NWEs erinnern an die zwei jüngeren NWEs, um die es in der Mulvaney-Studie geht.

Abbildung: Zeitreihen der Temperaturanomalie (Temperaturunterschied der jüngeren Vergangenheit) während des letzten Abschnitts der Eiskernaufzeichnung aus Wostok (dem Holozän), während der nebeneinander Proxy-Temperaturen und Kohlendioxidmessungen verfügbar sind. Jeder Pfeil zeigt auf die maximale Temperatur, die während eines NWE erreicht worden ist. Blaue Pfeile nebst Beschriftung identifizieren die Spitzen der Erwärmungsereignisse mit geringer Erwärmungsrate (LRWEs; < 0,74°/Jahrhundert), während rote Pfeile und deren Beschriftung die Spitzen von Erwärmungen mit starker Erwärmung kennzeichnen (HRWEs; > 0,74°C/Jahrhundert). In jedem Fall bedeutet die erste Zahl an jedem Pfeil das genaue Jahr vor unserer Zeit (Year Before Present, YBP), in dem das indizierte NWE begann, und das Symbol # bestimmt die Reihenfolge des NWE in aufsteigend chronologisch. Dies gestattet Vergleiche von jeder Spitze mit den korrespondierenden Daten in der begleitenden Tabelle.

Die im Eiskern aus Wostok enthaltenen 342 NWEs werden eingeteilt in Erwärmungsereignisse mit geringer Rate (LRWEs; y 0,74°C/Jahrhundert) und mit hoher Rate (≥ 0,74°C/Jahrhundert), siehe Abbildung. Die Erwärmungsraten der NWEs wurden berechnet als Quotient aus der maximalen Temperatur geteilt durch die Dauer (Jahrhunderte). Der Schwellenwert für HRWEs  von 0,74°C pro Jahrhundert ist nützlich, weil diese dem IPCC zufolge der geschätzten Erwärmungsrate des gegenwärtigen Erwärmungsereignisses entspricht. Von den 342 NWEs im Wostok-Eiskern sind 46 HRWEs. Die mittlere Erwärmungsrate dieser wiederkehrenden HRWEs beträgt etwa 1,2°C pro Jahrhundert, die mittlere Amplitude beträgt 1,62°C, und die mittlere Dauer dieser Warmphasen beträgt 143,8 Jahre. Zum Vergleich, die gegenwärtige, vom IPCC geschätzte Erwärmungsrate liegt bei 0,74°C pro Jahrhundert, die gegenwärtige Amplitude beträgt bislang 1°C und die Dauer bis heute 197 Jahre. Das gegenwärtige globale Erwärmungssignal ist also das geringste und unter den kleinsten im Vergleich mit allen HRWEs im Wostok-Eiskern, obwohl das gegenwärtige Erwärmungssignal in den kommenden Jahrzehnten hinsichtlich einiger Parameter das Niveau vergangener HRWEs noch erreichen kann. Die Abbildung zeigt die 16 jüngsten HRWEs in den Eiskerndaten aus Wostok während des Holozäns, unterbrochen mit einer Anzahl von LRWEs. Man beachte, dass die höchste Erwärmungsrate vor 8226 Jahren eingesetzt hat, zu Beginn der agrikulturellen Revolution (unter Berücksichtigung der hemisphärischen Phasen Nord-Süd oder Klimaschwankungen).

Jedes der in der 400 000 Jahre umfassenden Temperaturaufzeichnung aus Wostok enthaltenen 46 HRWEs ist in der Tabelle aufgelistet, zusammen mit dessen zeitlichem Beginn, der größten Amplitude, der Dauer und der mittleren Erwärmungsrate. Die 16 in der Abbildung gezeigten HRWEs können mit den korrespondierenden Einträgen in der Tabelle verglichen werden unter Verwendung der Dauer des Eintretens des HRWE. Die originalen Temperaturdaten von Wostok kann sich jeder mit Anschluss an das Internet ansehen, und sie können frei herunter geladen werden von der Website des World Paleoclimatology Data Center, das von der NOAA betrieben wird. Der leichteste und schnellste Weg, unsere Daten zu bestätigen ist, in der Tabelle irgendein HRWE herauszusuchen, die korrespondierende Zeit in der veröffentlichten Wostok-Temperaturaufzeichnung zu lokalisieren und die anschließende Erwärmung zu messen unter Verwendung der operationellen Definition der NWEs, die wir übernommen haben. Dieses Vorgehen zeigt solche Bestätigungen für die jüngsten 16 HRWEs.

Tabelle: Zusammenstellung der HRWEs in den Wostok-Temperaturaufzeichnungen in chronologischer Reihenfolge. Ein natürliches Erwärmungsereignis (NWE) wird definiert durch eine Temperaturzunahme von mindestens 0,38°C aus mindestens zwei aufeinanderfolgenden Zunahmen der Temperatur, die von mindestens einem Rückgang der Temperatur nach Erreichen der Spitzen gefolgt wird.

Natural Warming Event # (HRWE)

Time of Onset(Years Before Present)

Amplitude (oC)

Duration (Years)

Warming Rate(oC/century)

1

234,984

4.99

573

0.871

2

131,506

2.60

256

1.016

3

129,486

3.09

162

1.907

4

126,851

1.33

102

1.304

5

122,064

0.96

113

0.850

6

119,221

0.89

120

0.742

7

118,796

1.46

120

1.217

8

103,205

1.17

132

0.886

9

102,942

1.22

130

0.938

10

102,117

0.89

65

1.369

11

98,712

1.24

140

0.886

12

97,439

1.11

145

0.766

13

94,164

1.72

138

1.246

14

93,615

1.17

147

0.796

15

92,897

1.14

138

0.826

16

90,128

1.99

155

1.284

17

87,482

1.37

140

0.979

18

82,352

2.31

139

1.662

19

81,381

1.16

141

0.823

20

80,173

2.72

153

1.778

21

79,557

1.17

155

0.755

22

78,437

2.97

160

1.856

23

74,651

2.18

167

1.305

24

71,905

1.32

162

0.815

25

45,315

1.47

176

0.835

26

44,800

1.29

166

0.777

27

43,619

1.26

155

0.813

28

28,420

1.33

173

0.769

29

24,363

1.52

177

0.859

30

12,323

1.41

179

0.788

31

12,087

0.90

114

0.789

32

10,315

1.82

97

1.88

33

9,782

1.36

147

0.93

34

9,396

1.08

144

0.75

35

8,811

1.15

95

1.21

36

8,226

2.93

91

3.22

37

6,823

1.65

146

1.13

38

6,385

1.87

98

1.91

39

6,004

1.18

95

1.24

40

4,880

1.39

94

1.48

41

3,778

1.28

132

0.97

42

3,511

1.13

89

1.27

43

3,289

0.76

88

0.86

44

2,980

1.99

133

1.50

45

2,760

1.95

90

2.17

46

1,585

1.66

84

1.98

Wir haben diese Ergebnisse folgerichtig an Science Magazine, Nature, and Nature Climate Change übermittelt. Der Herausgeber von Science Magazine antwortete, dass die Ergebnisse nicht ausreichend dem öffentlichen Interesse entsprechen. Er schlug vor, dass wir die Arbeit bei einer Fachzeitschrift einreichen und lehnte die weitere externe wissenschaftliche Begutachtung ab. Nature lehnte die Studie ohne externe Begutachtung ebenfalls ab, und zwar aus Gründen, die uns vorgeschoben vorkommen. Nature Climate Change hat die Studie ursprünglich ebenfalls zurückgewiesen, sie jedoch nach einigen Diskussionen an einen leitenden Redakteur übergeben. Außerdem wurde sie von zwei anonymen Begutachtern unter die Lupe genommen.  Dem Kontext ihrer Kommentare nach schienen beide Begutachter Klimamodellierer zu sein.

Die Begutachter von Nature Climate Change schlossen, dass die natürlichen Erwärmungszyklen, die wir in den Wostok-Aufzeichnungen identifiziert hatten, unmöglich real oder signifikant sein können, sondern stattdessen als irrelevanter statistischer „Lärm“ in den Temperaturaufzeichnungen anzusehen seien. Wir erwiderten mit allem Respekt, dass die von uns entdeckten und vermessenen Erwärmungsereignisse ähnlich groß oder größer seien als viele weithin akzeptierte Temperaturfluktuationen in Eisbohrkernen, einschließlich von Dansgaard-Oeschger-Oszillationen, Heinrich-Ereignissen [?] und antarktischer Temperaturmaxima. Tatsächlich sind die Wostok-HRWEs gleich groß wie oder größer als das gegenwärtige globale Erwärmungssignal. Diese Argumente wurden jedoch von den Begutachtern ignoriert, und die Studie wurde vom leitenden Redakteur von Nature Climate Change abgelehnt.

Wie wir in unserer abgelehnten Studie vor zwei Jahren schon geschrieben hatten, falls das gegenwärtige globale Erwärmungsereignis den gleichen zugrunde liegenden Mechanismus aufweist wie die 342 ähnlichen NWEs verteilt über die letzten 250 000 Jahre – und wir können keinen offensichtlichen wissenschaftlichen Grund erkennen, warum das anders sein sollte – wird sich das gegenwärtige Ereignis mit einer Wahrscheinlichkeit von 68% bis zum Jahr 2032 und mit einer solchen von 95% bis zum Jahr 2105 umkehren. Dies basiert auf den statistischen Eigenschaften aller natürlichen Erwärmungsereignisse in der Wostok-Aufzeichnung. Falls die gegenwärtige Erwärmung einem HRWE gleicht, sind die klimatische Umkehrung und die globale Abkühlung bereits überfällig. In unserer abgelehnten Studie haben wir das so dargestellt:

„…die geschätzte Rate der gegenwärtigen globalen Erwärmung (0,74°C/Jahrhundert) liegt deutlich innerhalb der Bandbreite von Temperaturzunahmen, wie sie die NWEs in den paläoklimatischen Aufzeichnungen von Wostok aufweisen. Mehr als 13% dieser Wostok-NWEs wiesen eine noch stärkere Erwärmungsrate auf. Die mittlere Erwärmungsrate aller Wostok-HRWEs (1,195°C/Jahrhundert; siehe Tabelle) übertraf das geschätzte gegenwärtige Erwärmungssignal um zwei Drittel (61,5%), während die höchste Rate natürlicher Erwärmung (3,22°C pro Jahrhundert vor 8226 bis 8135 Jahren) die gegenwärtige Erwärmungsrate um 345% übertroffen hat. Die meisten HRWEs ereigneten sich während jüngerer Warmzeiten, als die Temperatur ähnlich hoch lag wie derzeit. Folglich sind die Eigenschaften des gegenwärtigen globalen Erwärmungssignals konsistent mit einer natürlichen Klimavariation ähnlich den Wostok-HRWEs. In diesem Fall und unter der Annahme, dass die gegenwärtige globale Erwärmung im Jahre 1815 begann, wird die Wahrscheinlichkeit, dass die Spitze und nachfolgende Abkühlung im Jahr 2032 eintritt, mit 68,2% errechnet (1815 Jahre + mittlere HRWE-Dauer von 144 Jahren + 1 s [?] von 73 Jahren, Tabelle; Vertrauensgrenze im Zusammenhang mit 1 s). Die Wahrscheinlichkeit, dass dies bis zum Jahr 2105 passiert, beträgt 95,4% (1815 + mittlere HRWE-Dauer + 2 s, Tabelle; das Vertrauenslimit ist mit 2 s assoziiert).

Mitten im Zuge der Begutachtung durch Nature Climate Change hat der für unsere Studie zuständige leitende Redakteur abrupt und unerklärlicherweise die Arbeit für das Journal eingestellt. Uns wurde dies bekannt als eine automatische Antwort auf eine Routine-e-Mail von uns: „arbeitet hier nicht mehr“. Später teilte man uns mit, dass die Zuständigkeit für unsere Studie an den Chefredakteur übertragen worden war, der die endgültige Ablehnung ausgab. Einige Wochen später schrieb der Klimajournalist Christopher Booker einen Meinungsartikel in der Sunday Times in London, in dem er zur Sprache brachte, dass das Magazin Nature weiterhin die Veröffentlichung wissenschaftlicher Ergebnisse ablehnt, wenn diese der vorherrschenden Hypothese des AGW widersprechen. Wir hatten keine Möglichkeit herauszufinden, ob und wie das Ausscheiden des Redakteurs bei Nature Climate Change mit der Zurückweisung unserer Studie zusammenhing.

Wir beeilen uns zu erklären, dass es beim Hauptthema unserer Studie um die Klimasensitivität (Temperatur) in Beziehung zum atmosphärischen CO2-Gehalt ging, und nicht um natürliche Erwärmungszyklen, die wir einfach nur als Mittel verwendet haben, die Klimasensitivität zu erkunden. Wir haben eine neue Methode entwickelt zur Analyse der Klimasensitivität (Temperatur) auf den CO2-Gehalt mit Hilfe der Analyse von NWEs und ihren Reaktionen auf sich natürlich verändernde CO2-Niveaus in der Atmosphäre. Dabei haben wir entdeckt, dass die Klimasensitivität (Temperatur) weitaus weniger stark auf den atmosphärischen CO2-Gehalt reagiert, wie es in jüngsten anerkannten Schätzungen der Fall war. Die Begutachter bei Nature Climate Change haben diese Schlussfolgerungen jedoch aus dem gleichen Grund wie oben zurückgewiesen, nämlich mit der Behauptung, dass die von uns identifizierten NWEs irrelevanter klimatischer „Lärm“ waren.

Es ist ermutigend, dass angesichts der Studie von Mulvaney et al. die Redakteure und Begutachter der Nature Publishing Group diese natürlichen Erwärmungen in den Aufzeichnungen von Eisbohrkernen nun offenbar nicht länger als irrelevanten „Lärm“ betrachten. Neben anderen Implikationen eröffnet diese Änderung der redaktionellen Interpretation und Praxis einen neuen Weg der Analyse von Eisbohrkernen sowie eine neue Methode, um zu zeigen, dass der gegenwärtige globale Erwärmungszyklus alles andere als außerordentlich ist. Es scheint uns so, dass das jetzige globale Erwärmungssignal gut innerhalb der natürlichen Grenzen liegt. In diesem Falle scheint es uns schwierig, die Behauptung aufrecht zu erhalten, dass das gegenwärtige globale Erwärmungssignal das Ergebnis menschlicher Aktivitäten ist.

W. Jackson Davis and Peter Taylor

Dr. Davis is Emeritus Professor of Biology, University of California at Santa Cruz, Emeritus Professor and founding director of the International Environmental Policy Program at the Monterey Institute of International Studies, and President and Chief Executive Officer of the Environmental Studies Institute, a charitable organization headquartered in Boulder, Colorado, U.S.A.

Peter Taylor is senior science and policy analyst for the charitable organization Ethos and author of “Chill: A reassessment of global warming theory.”

This paper is also available in PDF form here: Davis and Taylor WUWT submission

Link: http://wattsupwiththat.com/2012/09/05/is-the-current-global-warming-a-natural-cycle/

Übersetzt von Chris Frey EIKE




Gertrud Höhler erklärt die politische Welt der Angela Merkel

„Die Patin – Wie Angela Merkel Deutschland umbaut“

von Helmut Jäger

Man könnte auch fragen: Was sagen Atomausstieg und „Energiewende“ über den Politikstil und Wertekanon der Bundeskanzlerin aus?

Gertrud Höhler geht einer überraschenden Frage nach: Ist die deutsche Demokratie auf dem Weg in ein autoritäres System? Ja, meint sie und beschreibt in ihrer beklemmenden Analyse, wie Angela Merkel, „Die Patin“, aus Deutschland einen werte-entleerten Einheitsparteien-Staat machen will.

Überzogene Ideen, Enthüllungsfantasien einer gekränkten Politik-Rivalin, die sich einst der besonderen Gunst Helmut Kohls erfreute? Ein später Racheakt an der Meuchelmörderin des politischen Übervaters einer ganzen Generation von CDU-Politikern, die den entscheidenden Schritt zum Abfall von ihrem politischen Idol nicht wagten und den Treueverrat dem „Mädchen“ aus dem Osten überließen? Nein, so kann Gertrud Höhlers atemberaubende Deutung der Machtpolitik der Bundeskanzlerin nicht gelesen werden.

Gertrud Höhler schreibt nüchtern mit den Augen der Literaturprofessorin, die mit scharfsinniger Analyse Handlungen und Motivationen entschlüsselt, indem sie Sprache, Verhalten und Tun der Politikerin Angela Merkel untersucht.
Deren Erfolgsgeheimnis: die westlich geprägten Politiker können nicht verstehen, dass hier eine Frau aus dem Osten antrat, ohne Wertebindung, ohne Loyalitäten – mit ihrem eigenen Relativismus für Moral und Recht. (S. 173)

Frau Höhler lässt die Ereignisse sprechen und erklärt, wie die Bundeskanzlerin die „Marginalisierung der Parteien“ vorantreibt, mit welcher Nonchalance sie überkommene Werte und Normen zur Disposition stellt. „Lautlose Sprengungen“ nennt die Autorin die Ereignisse, wenn Angela Merkel so ganz en-passant stillschweigende Bestandteile des europäischen politischen Wertekonsenses über Bord wirft, so dass sich die westlich sozialisierten Parteifreunde und Mitstreiter erstaunt fragen: Kann man das machen?
Ja, man kann! wäre die fiktive Antwort der Kanzlerin.

Gertrud Höhler nimmt sich vier große Ereignisketten bei ihrer Entschlüsselung vor:

·         die Beseitigung aller Machtkonkurrenten in der CDU,

·         das Drama um die dreifache Wahl des Bundespräsidenten,

·         die europäische Staatsschuldenkrise,

·         Atomausstieg und sogenannte „Energiewende“.

Atomausstieg und sogenannte „Energiewende“ ziehen sich als Leit-Indizienkette für den  Werte-Relativismus der Bundeskanzlerin durch das ganze Buch. Gertrud Höhler zeigt, wie durch offene Rechtsbrüche der Energiesektor dem rücksichtslosen Zugriff der Politik und den Geschäftemachern übergegeben wurde. Dass es der Bundeskanzlerin nicht um moralische Positionen ging, sondern um Machtabsicherung, ist keine neue Erkenntnis, möchte man sagen. Doch Gertrud Höhlers Deutung ist beunruhigender, weil sie hier nicht etwas Zufälliges erblickt. Atomausstieg und „Energiewende“ waren keine kurzen, sozusagen taktische politische Fouls. Stattdessen überraschende Offenlegungen eines Grundmusters des bindungslosen politischen Wertekanons der Angela Merkel.

Bei Gertrud Höhler liest sich der Gang der Ereignisse so: (S. 106 ff)

Die für 2011 anstehenden drei Landtagswahlen in Baden-Württemberg, Rheinland-Pfalz, Sachsen-Anhalt ließen für die CDU nichts Gutes erwarten. Die Merkel-Regierung war mit der Laufzeitverlängerung für die Kernkraftwerke erheblich unter Druck geraten:  Klagen von fünf SPD-regierten Bundesländern und 214 Bundestagsabgeordneten drohten.
Dann kam Fukushima – fast wie ein Geschenk für Merkel: drei Tage nach der japanischen Katastrophe verkündete sie bereits ein Moratorium für ein Gesetz, das ihre eigene Regierung gemacht hatte. Das Moratorium für den Vollzug ihres Gesetzes und den Atomausstieg – sofort!

Anhänger der Legalität rieben sich die Augen: Die Kanzlerin ermächtigt sich selbst zur Aussetzung eines Gesetzes für drei Monate. Ein Gesetz kann nur durch ein nachfolgendes Gesetz ausgesetzt werden. Und zusammen mit dem „Moratorium“ wurden noch ein halbes Dutzend andere Gesetze, unter ihnen Aktienrecht und Verfassungswerte, einfach vom Tisch gewischt. Mit der Abschaltung von sieben Kernkraftwerken stellte sich die Kanzlerin der gesamten Wirtschaft als neue Herrin des Kernsektors der Industriegesellschaft vor. Alles ohne Rechtsgrundlage – außerhalb der Legalität. (S. 107 f)

Eine moralische Rechtfertigung musste her: ein juristischer „Trick“: Der Rückgriff auf die staatlich gebotene Pflicht zur Gefahrenabwehr.

Nur ein Vorwand, meint Frau Höhler. Denn in Deutschland war eine neue Gefahr durch den japanischen Unfall nicht zu sehen. Die Kanzlerin begründete ihren Gesinnungswandel zur Kernkraftgegnerin mit einem Angst-Argument: Wenn eine solche Katastrophe im Hochtechnologieland Japan eintreten könnte, wäre sie auch bei uns möglich. Dies war eine unzulässige Gleichsetzung der deutschen Sicherheitspraxis mit der verantwortungslos nachlässigen Handhabung der Sicherheit in Fukushima. Das, so Gertrud Höhler, muss die Kanzlerin gewusst haben. (S. 108 f)

Die Bundesbürger hörten in der Regierungserklärung drei Monate nach dem Tsunami zum ersten Mal diese Betroffenheitserklärung der Kanzlerin: „Ohne Zweifel, die dramatischen Ereignisse in Japan sind ein Einschnitt für die Welt, sie waren ein Einschnitt auch für mich ganz persönlich“. Zur Entschlüsselung der absichtsvoll eingesetzten Emotionalität bietet Gertrud Höhler folgende Erklärung an: Sie sollte nur ein Narkotikum für die ethisch sensiblen Landsleute sein, und eine Begründung liefern für die Umsteuerung des gesamten Energiewesens, für den Staatszugriff auf den Energiesektor. Die persönliche Betroffenheit war für jene Situation ungeeignet. (S. 186)

Das Motiv von der ethischen Pflicht zur Gefahrenabwehr wurde weiter strapaziert. Eine eigens eingesetzte Ethikkommission, philosophisch, weltanschaulich und religiös orientiert – ohne wesentliche Beteiligung der Energiewirtschaft – legitimierte die Rechtsbrüche. Mit dem Vorsitzenden der Ethik-Kommission, dem auf Merkel-Linie stehenden Klaus Töpfer, würde der gewünschte Freispruch wegen moralischem Gebot schon zu Stande kommen. Doch das war eine machtpolitische Zielsetzung, keine energiepolitische.

Der Name Töpfer sollte bei den Vorgängen um die Präsidentenwahl 2012 noch ein Rolle spielen: Genau er war der Wunschkandidat der Kanzlerin anstelle des mehrheitlich vom Volke gewünschten Joachim Gauck.
Der Entschlüsselung der Vorgehensweise von Angela Merkel um die drei Bundespräsidentenwahlen widmet Gertrud Höhler ein eigenes Kapitel mit dem Titel „Präsidentendämmerung“. (S. 195 ff)

Doch zurück zu den aufschlussreichen Vorgängen um die „Energiewende“.

Der Atomunfall in Fukushima hatte die Gelegenheit für eine atemberaubende Volte geboten: Moratorium und Ausstieg. (S. 107)

Diese Volte deutet Gertrud Höhler als Zeichen für eine utilitaristische Politik, die nur dem Machterhalt der Kanzlerin diente. Zwar waren die Wahlen in Baden-Württemberg schrecklich für die CDU ausgegangen, die Wähler hatten noch nicht verstehen wollen, dass die CDU nun die grüne Partei war, dunkelgrün sogar. Um dies endgültig zu verdeutlichen, machte die „Patin“ Angela Merkel der SPD und den Grünen ein Angebot, das diese nicht ablehnen konnten: Merkel vollführte den „Ausstieg vom Ausstieg vom Ausstieg“. (S.110 f.)
Sie ließ das Atomgesetz so novellieren, dass es noch schneller gehen würde, als je von SPD und den Grünen beabsichtigt: 2022 wird in Deutschland die Nutzung der Kernenergie beendet, die während des Moratoriums abgeschalteten Kernkraftwerke werden nicht mehr ans Netz gehen. Das Zeitalter der Erneuerbaren Energien soll rasch erreicht werden.

Eine ernsthafte Sicherheitsüberprüfung, der Zweck des Moratoriums, konnte in der kurzen Zeit nicht stattfinden, der Wirtschaft wurde das Vertrauen auf eine rationale Energiepolitik genommen, anders als Merkel 2005 versprochen hatte. Frau Höhler zitiert mit Abscheu aus dem Kultur-Magazin „Cicero“:
„Das ZK der SED hätte es nicht anders geplant und durchgezogen.“ (S. 111)

Nun lieferten die Koalitionsabgeordneten noch ein beschämendes Schauspiel: Am 30. Juni winkten sie den Atomausstieg der Angela Merkel parlamentarisch durch.

Was hatte die „Patin“ erreicht? Sie hatte das politische Fundament der Grünen weggesprengt, deren Anti-Atom-Credo geraubt und der CDU zugeschrieben: „Grün wurde Regierungspolitik; die Macht der Monopolisten für das Gute, der Grünen Partei, war gebrochen“. (S.187)

Und das langfristige Ergebnis? Gertrud Höhler stellt fest: „Die 180-Grad ‚Energiewende’ … ist ein Sprung in Richtung Staatswirtschaft.“ (S. 111). Die Mehrheit dieser Gesellschaft, der die Regierung Merkel mit ihrer Betroffenheitsoffensive seit Fukushima zu huldigen vorgibt, wird am stärksten unter den Folgen des Ausstiegs zu leiden haben …“. (S. 112)

Und immer waren die meisten Medien dabei, wenn der Öffentlichkeit Sand in die Augen gestreut wurde.

Steigende Strompreise sind unvermeidlich wegen der notwendigen Investitionen in neue Kraftwerke, für den Netzausbau, wegen der Umlage für den unwirtschaftlich und dazu chaotisch schwankenden Wind- und Sonnenstrom, wegen  der Überwälzung des Risikos neuer Techniken und der Stromkosten Energie-intensiver Industrien auf die Verbraucher.
Es ist eine Reise ohne Kompass, denn es gibt kein konkretes Rechenmodell, das die Kosten der „Energiewende“ auf eine mathematische Grundlage stellen würde. (S. 112 f)

Und schließlich gibt es da noch einen Wertekonflikt mit dem Naturschutz. Auch der wird übersteuert, wenn es um Windräder und Schneisen für Freileitungen in Wäldern geht. Die deutsche „Wendegesellschaft“ muss ihre „Schönheitsbedürfnisse radikal umstellen“, d. h. ihre Anhänglichkeit an die Unversehrtheit der Natur und der Landschaften vergessen, weil sie in der Rangordnung der Merkel-Werte keinen erkennbaren Platz haben. (S. 265)

Gertrud Höhler zieht ein Fazit: Die ganzen Probleme mit der „Energiewende“ sind der Kanzlerin bekannt. Sie bleibt ihrem Politik-Stil nicht nur beim Atomausstieg treu: Unterwanderung der demokratischen Entscheidungsfindung, Täuschung des Volkes über die Beweggründe, Bruch von Versprechen, die der Industrie gegeben worden waren. Arroganz eines Führungsanspruchs angesichts der inhaltlichen Fehler, auf denen sie aufbaut. (S. 114)

Die unendliche Geschichte der „Energiewende“ steht erst am Anfang. Schon zeigt die „Patin“ wieder ihr Gesicht: Umweltminister Röttgen, der loyal zu ihr stand, wurde gegen seinen Willen gefeuert, nicht wegen der Energiepolitik, nein, er hatte eine Wahl deutlich verloren, konnte trotzdem wegen der Rückkehr auf seinen Umweltministersessel in Angela Merkels Machtpoker gefährlich werden. Loyalität schätzt sie nur von unten nach oben. Ihr getreuer Peter Altmaier soll’s nun richten.

Gertrud Höhler spekuliert nicht. Sie betrachtet, analysiert und deutet Angela Merkels Verhaltensweisen, die häufig unverständlich und überraschend für Beobachter sind, die im westlichen Werte-Grundkonsens leben. Wo Frau Merkel schweigt, erkennt Gertrud Höhler die hinter der Lautlosigkeit verborgene Botschaft der Kanzlerin: Alles ist relativ: Werte, Normen, Verlässlichkeit. Wer so in der Politik unterwegs ist, kann leicht Positionen wechseln, weil Moral nicht handlungsleitend ist oder gar nicht existiert. Beklommen fragt die Autorin,

„ … ob der Wertekonsens, den alle bürgerlichen Parteien teilen, seine Gültigkeit verliert – zugunsten situativer Unberechenbarkeit aller Akteure und Motive?“ (S. 268 f)

Man ist an das Märchen von des Kaisers neuen Kleidern erinnert, wenn Gertrud Höhler das System „M = Merkel“ schonungslos offenlegt. Sie erblickt nichts mehr, wo viele CDU-Anhänger noch die alten Grundwerte der Partei sehen wollen. Die Bundeskanzlerin ist „ … die erste Staatschefin in Deutschland, die bindungslos unterwegs ist. Ihr Konzept der situativen Entscheidungen geht von der Flüchtigkeit aller Versprechen und der hohen Verfallsgeschwindigkeit aller Loyalitäten aus.“ (S. 270 f) 

Und dann verfällt die Autorin absichtsvoll in die Sprechweise der internationalen Geschäftigkeit: „Wertemanagement à la Merkel ist ein Business für Erfolgreiche, die sich entschieden haben: Interessenlage schlägt Wertesystem. Immer … Auf leisen Sohlen verlässt die Kanzlerin unseren Grundwertekonsens.“ (S. 270)

Noch nicht so klar sieht Gertrud Höhler die Motivationen der Kanzlerin in der Staatsschuldenkrise, irreführend Euro-Krise genannt. Ist es ihre Absicht, auch in Europa zentralistische Kontrollen herbeizuführen, also demokratische Grundregeln in Frage zu stellen, oder ist es der Wunsch, die europäischen Staaten zu „kaufen“, sie über Fiskalpakte und Rettungsschirme ans deutsche Gängelband zu nehmen? (S. 91 ff)
Trotz der noch nicht klar entschlüsselbaren Motive im Einzelnen, erkennt die Autorin in der Europapolitik der Kanzlerin wieder die undemokratische Grundeinstellung: Hin zum Einheitsstaat, zentralisierte Kontrollen zur Sicherung der deutschen Dominanz. (S. 99)

Das Bild, das Gertrud Hohler von einer unberechenbaren, bindungs- und verpflichtungslosen Staatschefin zeichnet, mag mancher nicht mit der gleichen Unbarmherzigkeit interpretieren und anders lesen. Nachdenklich sollte aber machen: Wer wie Merkel den großen Übervater der CDU, Helmut Kohl, völlig überraschend per Handstreich erledigt, von dem ist noch manches zu erwarten. Dass am Ende eine Demontage der ethischen Grundwerte des Konservativismus, des eigentlich „christlich-demokratischen“ Wertekanons stehen könnte, mag vielleicht noch nicht jeder gemerkt haben. Angela Merkel kann nämlich alles: Rücksichten braucht sie nicht zu nehmen, sie kennt keine Loyalitäten, weder zu ihren Getreuen noch zu Werten. „Keiner ihrer Mitarbeiter würde eine Wette wagen, wo man die Kanzlerin morgen antrifft. Das System M ist nicht berechenbar.“ (S. 270)

Höchst beunruhigend wirkt das abschließende Urteil über die „Patin“:

„Deutschland lässt sich ohne Widerstände autoritär regieren, das beweist die Energiewende bestürzend deutlich.“ (S. 264). Und weiter: „Wer Normen und Werte einer demokratischen Gesellschaft zur Manövriermasse macht, wie Angela Merkel, der arbeitet am Zerfall der Demokratie.“ (S. 269)

Es gibt aber noch Hoffnung: Seit der neue Bundespräsident die „Selbstermächtigung der deutschen Politik“ mit der „Freiheitsmelodie“ übertönt, stehen die zwei Folgerungen der deutschen jüngsten Geschichte nebeneinander – wir können wählen.“ (S. 273)

Der Rezensent hält das Buch für eine Pflichtlektüre, nicht nur für Politiker, sondern für jeden Demokraten und Staatsbürger.

—————————————————————————-

Gertrud Höhler: „Die Patin – wie Angela Merkel Deutschland umbaut“
Orell Füssli Verlag, Zürich.
Euro 21,95.

Eine weitere interessanter Essay zur Aussage  Buches von Frau Höhler durch Frau Lengsfeld findet sich auf ACHGUT: 

Die unheimliche Botschaft der Gertrud Höhler