1

RSS: Keine globale Erwärmung seit 17 Jahren und 10 Monaten

[*Dieser Satz ist eine einzige unübersetzbare Wortspielerei und lautet im Original: „After a one-month pause in the lengthening of the pause, the lengthening pause is lengthening again”]

Abbildung 1: Monatliche globale Anomalien der Mitteltemperatur der unteren Troposphäre nach RSS (dunkelblau) und Trend (dicke hellblaue Linie). Im Zeitraum September 1996 bis Juni 2014 zeigt sich kein Trend, also bereits seit 17 Jahren und 10 Monaten.

Und doch ist die lange Dauer des Stillstands, trotz aller Signifikanz, die dieser Vorgang inzwischen gewonnen hat, von geringerer Wichtigkeit als die immer weiter wachsende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der weitaus weniger begeisternden Temperaturänderung in der realen Welt, die beobachtet worden ist.

Im Ersten Zustandsbericht wurde vorhergesagt, dass die globale Temperatur bis zum Jahr 2025 um 1,0°C (0,7; 1,5°C) steigen würde, was einem Trend von 2,8°C (1,9; 4,2°C) pro Jahrhundert entsprechen würde. In der ‚Executive Summary‘ wurde gefragt: „Wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam dann aber zu dem Ergebnis:

„Nichtsdestotrotz … haben wir substantielles Vertrauen, dass Modelle zumindest die groben Umrisse der Klimaänderung vorhersagen können … Es gibt Ähnlichkeiten zwischen Ergebnissen gekoppelter Modelle, die einfache Repräsentationen des Ozeans verwenden und jenen, die kompliziertere Beschreibungen nutzen, und unser Verständnis solcher Unterschiede, wie sie auftreten, gibt uns einiges Vertrauen in die Ergebnisse“.

Dieses „substantielle Vertrauen” war eine substantielle Vermessenheit. Ein Vierteljahrhundert nach 1990 beträgt das Ergebnis – ausgedrückt als ein linearer Regressionstrend kleinster Quadrate des Mittels der monatlichen globalen Temperaturanomalien nach RSS und UAH – 0,34°C. Das ist lediglich äquivalent zu einem Trend von 1,4°C pro Jahrhundert oder genau die Hälfte der zentralen Schätzung des IPCC (1990). Sie liegt noch deutlich unter selbst der niedrigsten Schätzung (Abbildung 2).

Abbildung 2: Kurzfristige Projektionen der Erwärmung mit einer Rate von 2,8°C (1,9; 4,2°C) pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC (1990), Januar 1990 bis Juni 2014 (orange Fläche und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und dem Trend (hellblau) bei einem Äquivalent von 1,4°C pro Jahrhundert. Mittel der monatlichen, mit Satelliten gemessenen Temperaturanomalien der unteren Troposphäre.

Der Stillstand ist ein wachsendes Ärgernis für jene, die uns mit „substantiellem Vertrauen“ verkündet haben, dass die Wissenschaft ‚settled‘ und die Debatte vorüber ist. Die Natur wollte es anders. Trotz zahlreicher mehr oder weniger plausibler Entschuldigungen für den Stillstand, die in nervösen begutachteten Journalen auftauchen, kann die Möglichkeit, dass der Stillstand einfach deswegen auftritt, weil die Computermodelle schlicht falsch sind, nicht mehr beiseite geschoben werden.

Bemerkenswerterweise sind auch noch die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung des IPCC exzessiv (Abbildung 3).

Abbildung 3: Vorhergesagte Temperaturänderung, Januar 2005 bis Juni 2014 mit einer Rate äquivalent zu 1,7°C (1,0; 2,3°C) pro Jahrhundert (orange Fläche mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten Anomalien (dunkelblau) und dem Trend (hellblau).

Im Jahre 1990 lag die zentrale Schätzung hinsichtlich einer kurzfristigen Erwärmung um zwei Drittel höher als heute. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert. Jetzt ist es ein Äquivalent von 1,7°C – und, wie Abbildung 3 zeigt, ist selbst das noch eine substantielle Übertreibung.

In den RSS-Satellitendaten hat es über 26 Jahre lang keine globale Erwärmung gegeben, die statistisch unterscheidbar von Null ist. Keines der Modelle hat vorhergesagt, dass es im Endeffekt ein Vierteljahrhundert lang keinerlei Erwärmung geben würde.

Der lange Stillstand könnte diesen Winter gut sein Ende finden. Ein El Niño-Ereignis hat begonnen. Die üblichen Verdächtigen haben gesagt, dass es ein Rekordereignis wird, aber bis jetzt gibt es viel zu wenig Informationen, um sagen zu können, zu wie viel vorübergehender Erwärmung es kommen könnte. Die Temperaturspitzen der El Niños von 1998, 2007 und 2010 treten in den Abbildungen 1 bis 3 klar hervor.

Zu einem El Niño kommt es etwa alle drei bis vier Jahre, obwohl sich niemand sicher ist, was sie auslöst. Sie verursachen eine vorübergehende Temperaturspitze, der oftmals ein scharfer Temperaturrückgang während der La Niña-phase folgt, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann, als es eine La Niña mit einer „Doppelspitze“ gab.

Das Verhältnis von El Niños zu La Niñas tendiert dazu, in die 30-jährige negative oder Abkühlungsphase der Pazifischen Dekadischen Oszillation zu fallen. Die jüngste hat im Jahre 2001 begonnen. Selbst wenn also der Stillstand zum Jahreswechsel ein paar Monate lang pausieren oder gar verkürzen sollte, dürfte er sich spätestens Ende 2015 wieder einstellen. Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal ansatzweise mit der von den Klimamodellen vorhergesagten Rate eingetreten ist, und es ist alles andere als wahrscheinlich, dass sie selbst mit der stark reduzierten vorhergesagten Rate eintritt. Es kann sein, dass die Erwärmung in diesem Jahrhundert gerade mal 1°C beträgt [wenn es nicht sogar kälter wird. Anm. d. Übers.]

Schlüsselfakten über die globale Temperatur:

Ø Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung während der 214 Monate von September 1996 bis Juni 2014. Das sind 50,2% der Zeitspanne mit Satellitenbeobachtungen von 426 Monaten.

Ø Die höchste gemessene Erwärmungsrate pro Jahrhundert gab es in Mittelengland von 1663 bis 1762 mit einer Rate von 0,9°C pro Jahrhundert – vor der industriellen Revolution. Das war nicht unsere Schuld.

Ø Der Trend der globalen Erwärmung seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

Ø Der höchste Erwärmungstrend über 10 Jahre oder mehr trat innerhalb der 40 Jahre von 1694 bis 1733 in Mittelengland auf. Er war äquivalent zu 4,3°C pro Jahrhundert.

Ø Seit 1950, als der menschliche Einfluss auf die globale Temperatur erstmals theoretisch möglich war, lag der Trend der globalen Erwärmung äquivalent zu 1,2°C pro Jahrhundert.

Ø Die höchste Erwärmungsrate über zehn Jahre oder mehr seit 1950 war während der 33 Jahre von 1974 bis 2006 aufgetreten. Sie war äquivalent zu 2,0°C pro Jahrhundert.

Ø Im Jahre 1990 lag die mittlere Schätzung des kurzfristigen Erwärmungstrends seitens des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel über deren jetziger Vorhersage.

Ø Der globale Erwärmungstrend seit 1990, als das IPCC seinen ersten Bericht geschrieben hat, ist äquivalent zu 1,4°C pro Jahrhundert – die Hälfte dessen, was das IPCC damals vorhergesagt hat.

Ø Im Jahre 2013 lag die neue mittlere Schätzung des kurzfristigen Erwärmungstrends bei einer Rate von nur 1,7°C pro Jahrhundert. Selbst das ist übertrieben.

Ø Obwohl das IPCC seine kurzfristige Erwärmungs-Vorhersage gekappt hat, hat es nicht seine Business-as-Usual-Vorhersage von 4,8°C bis zum Jahr 2100 gekappt.

Ø Die vom IPCC vorhergesagte Erwärmungsrate bis 2100 ist mehr als doppelt so hoch wie die höchste Erwärmungsrate über zehn Jahre oder mehr, die seit 1950 gemessen worden ist.

Ø Die IPCC-Vorhersage von 4,8°C bis zum Jahr 2100 ist fast das Vierfache des in der realen Welt beobachteten Erwärmungstrends, seit wir in der Theorie Einfluss auf die Temperatur hätten ausüben können, also 1950.

Ø  Seit dem 1. Januar 2001, dem Beginn des neuen Jahrtausends, ist der Erwärmungstrend des Mittels von fünf Datensätzen Null. Keine Erwärmung seit 13 Jahren und 5 Monaten.

Ø Jüngste Extremwetterereignisse können nicht mit der globalen Erwärmung in Verbindung gebracht werden, weil es keine globale Erwärmung gegeben hat. So einfach ist das.

Technische Anmerkung

Unsere jüngste Themengraphik zeigt den RSS-Datensatz für die 214 Monate von September 1996 bis Mai 2014 – über die Hälfte des 426 Monate langen Zeitraumes mit Satellitenaufzeichnungen.

Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt in ländlichen Gebieten aufgestellt sind, also weit entfernt von menschlichen Wärmequellen, zeigen eine Erwärmung deutlich unter derjenigen, die veröffentlicht wird. Die Satelliten-Datensätze basieren auf Messungen der akkuratesten verfügbaren Thermometer – Platin-Widerstand-Thermometer, die nicht nur Temperaturen in verschiedenen Höhen über der Erdoberfläche messen (via Mikrowellen-Sounding-Geräten), sondern sich auch ständig selbst kalibrieren via in das Weltall gerichteter Spiegel und der bekannten Temperatur der kosmischen Hintergrundstrahlung, die 1% des Gefrierpunktes von Wasser ausmacht oder 2,73 Grad über dem Absoluten Nullpunkt liegt. Nur durch die Messung winziger Variationen der kosmischen Hintergrundstrahlung hat die NASA das Alter des Universums errechnet: 13,82 Milliarden Jahre.

Die Graphik ist akkurat. Die Daten sind direkt monatlich von der RSS-Website geladen worden. Ein Computer-Algorithmus liest sie aus dem File, nimmt den Mittelwert und plottet diesen automatisch mittels einer fortschrittlichen Routine, die automatisch das Verhältnis des Datenfensters auf beiden Achsen adjustiert, um die Daten mit maximaler Größenordnung zu zeigen.

Der letzte monatliche Datenpunkt wird durch Augenschein inspiziert um sicherzustellen, dass er korrekt dargestellt wurde. Die hellblaue Trendlinie über der dunkelblauen Profilkurve, die die tatsächlichen Daten zeigt, wird bestimmt durch die Methode einer linearen Regression kleinster Quadrate, die den Schnittpunkt mit der Y-Achse und Neigung der Linie berechnet mittels zwei etablierten und funktionell identischen Gleichungen, die miteinander verglichen werden um sicherzustellen, dass es zwischen ihnen keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen benutzen eine lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia fordert dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil die globalen Temperaturaufzeichnungen kaum Autoregression aufweisen.

Dr. Stefan Farish, Professor für epidemiologische Statistik an der University of Melbourne, hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ überprüft, der den Trend des Graphen bestimmt sowie den Korrelations-Koeffizienten, der sehr niedrig ist, weil der Trend trotz der hoch variablen Daten flach verläuft.

Link: http://wattsupwiththat.com/2014/07/03/rss-shows-no-global-warming-for-17-years-10-months/#more-112409

Übersetzt von Chris Frey EIKE




Bard Offshore1 Wind liefert nicht – ist das „Rückgrat“ der deutschen Energiewende schon vor dem aufrechten Gang gebrochen?

Bard Offshore 1 ist das bei weitem größte deutsche Offshore Windprojekt mit 80 WKA und einer installierten Leistung von 400 MW. Es ging erst im vergangenen September vergangenen Jahres in Betrieb und wurde von den Medien als „Beginn einer neuern Ära“ gefeiert. Die Investitionskosten beliefen sich – bisher auf rd. 3 (1) Mrd €, und lagen damit um mehr als den Faktor 10 über dem gleich leistungsstarker konventioneller Kraftwerke. Mit dem zusätzlichen Unterschied, dass diese das ganze Jahr über ihre volle Leistung abgeben können, die Windparks hingegen nur bei Wind.

Der damalige Wirtschaftsminister und approbierte Augenarzt Dr. Philipp Rösler (FDP) sagte zur Eröffnung:

"Bard Offshore 1 ist das beeindruckende Pionierprojekt einer jungen Industrie, die das Potenzial hat, langfristig eine wichtige Rolle in unserem Energiemix zu spielen. Die erfolgreiche Fertigstellung des Windparks auf hoher See ist eine technologische und logistische Meisterleistung."

Wie man sich doch irren kann, wenn man Visionen nicht von der Realität unterscheiden will oder kann.

Im Welt-Online Beitrag lesen wir dazu heute:

Seit seiner Inbetriebnahme im September vergangenen Jahres fiel Bard Offshore 1 jedoch immer wieder überraschend aus. Es gab "in den vergangenen Monaten mehrere technische Störungen, in deren Folge es zu sogenannten Schutzauslösungen und damit ungeplanten Abschaltungen der Netzanbindung kam", heißt es in der Erklärung der Betreiber.

Seit dem 23. März liefert der Windpark überhaupt keine Elektrizität mehr. Ursprünglich war geplant, die Stromlieferungen zum Juni wieder aufzunehmen. Nun aber stellen sich die technischen Störungen als gravierender heraus als zunächst angenommen. Über die Kosten des Produktionsausfalls schweigen sich die Betreiber aus.“

Und das tun sie aus gutem Grund, denn eine dauerhafte Problemlösung ist nicht in Sicht, stattdessen werden die ohnehin gigantischen Kosten weiter unkontrolliert anwachsen.. Und das gilt auch für die anderen Offshore-Windparks, von denen es insgesamt erst 7 in Nord- und Ostsee mit gerade mal 146 Windrädern mit einer installierten Leistung von  628 MW [2]gibt.  Eine der Folgen ist, dass nicht nur der Namensgeber des Feldes, die Bard-Gruppe, inzwischen K.O. ging, sondern auch die anderen – vorzugsweise große Stadtwerke- weiter in die Miesen fahren werden.

Die Leipziger Strombörse gibt Aufschluss über das schwere Schicksal der Offshore Windparks. Ralph Schuster hat für uns freundlicherweise genauer hingeschaut.

Abb. 1 Vollaststundenäquivalent der deutschen Windkraftanlagen. Mit Vollaststundenäquivalent wird die Zeit in % der Jahresstunden bezeichnet in denen die WKA im Mittel ihre volle Nennleistung abgibt. Wie an der schwarzen Kurve für Offshore WKA zu sehen ist, stieg das Vollaststundenäquivalent von 7,2 % im Jahre 2009 auf 31,9 % 2011 steil an und fiel dann ebenso steil auf jetzt nur 12,3 % wieder ab. Eine abgeschaltete Windkraftanlage trägt eben mit Null zur Versorgung bei. Grafik Ralph Schuster

Obwohl die Daten mit dem 2013 enden und Bard Offshore 1 nur für kurze Zeit enthalten ist,  wird in Abb. 1 deutlich gezeigt, dass es bei der Nutzung der Offshore Windenergie nur 2011 eine kurze Blüte gab, die im wesentlichen vermutlich dem Feld Baltic 1 in der Ostsee zu verdanken ist, das in diesem Jahr in Betrieb ging. Danach ging es aus vielfältigen Gründen mit deren Nutzung, ausgewiesen durch das den Vollaststundeäquivalent, steil bergab.

Wie schlimm die Situation wirklich ist, wird klar, wenn man sich vergegenwärtigt,  dass die auf See generierte Energiemenge bis Ende 2013 zwar deutlich  zugenommen hat, von 38 GWh in 2009 auf 970 GWh in 2013, dass diese Zunahme aber unter Inkaufnahme einer um fast den Faktor 3 geringeren Nutzung der Anlagen einherging. Häufige und ungeplante Ausfälle, aber auch deutlich geringere Windernten sind der Grund dafür. Das kann und wird den Investoren bzw. ihrem Kreditgebern nicht schmecken, denn ihr eingesetztes Kapital bringt nicht den erwarteten, und für Zins und Tilgung, dringend benötigten Gewinn. Weitere Insolvenzen sind daher programmiert.

Das bedeutet aber auch, dass die von der Politik gewünschten 48 bis 50% Volllaststundenäquivalent kaum zu erreichen sind und ferner, dass die geplanten Stromautobahnen nicht die erforderliche Energiemengen liefern wird. Das nächste Desaster ist deshalb auch schon programmiert.


[1] Quelle : [1] Quelle : http://www.offshore-windenergie.net/windparks

[2] Quelle : http://www.offshore-windenergie.net/windparks




EuGh-Urteil zum EEG: Unsinn ohne Ende

Dabei liest sich die Urteilsbegründung einigermaßen merkwürdig und klingt mehr nach einer politischen als nach einer rechtsstaatlichen Entscheidung. Schließlich ist der freie Binnenmarkt (nicht zu Unrecht) die heilige Kuh der EU, wie kürzlich erst der britische Premier David Cameron erfahren musste. Auf dem Altar des (vermeintlichen) Umweltschutzes aber darf diese geopfert werden, zumindest wenn man der Logik des EuGH folgt. Das Absurde daran ist nur, dass dank des weltweiten Handels mit Emissionszertifikaten durch den „Ökostrom“ nicht eine Tonne CO2 eingespart wird: Denn jede Tonne, die wir (oder im Urteil Schweden) einsparen, kann und wird von einem anderen Land dank des besagten Handels mehr produziert. Dass es sich also um ein Nullsummenspiel handelt, bestätigen zahlreiche Studien, nicht zuletzt sogar das Intergovernmental Panel on Climate Change (IPCC) der Vereinten Nationen.

Wie dem auch sei, der planwirtschaftliche Unsinn der Energiewende wird nun also noch ein paar Jahre weitergehen. Begonnen hat das ganze zur Jahrtausendwende unter der damaligen rot-grünen Bundesregierung. Mit der Parole „Energie muss teurer werden, damit Arbeit billiger werden kann“ bewiesen die damaligen Regierungsmitglieder, dass sie zumindest den Physikunterricht der 8. Klasse geschwänzt hatten. Sonst hätten sie nämlich mitbekommen, dass Energie gemeinhin als gespeicherte Arbeit aufgefasst wird und somit am Ende auch die Arbeit teurer wird, wenn man die Energiekosten erhöht.

Aber der Spruch klang zumindest super und überzeugte seitdem viele Häuslebauer, sich das ein oder andere Solarpanel aufs Dach zu setzen und noch mehr Unternehmen, ihre benötigte Energie ebenfalls am besten selbst zu erzeugen. Naja, überzeugt wurden Unternehmer und Häuslebauer eher davon, dass sie zum einen die Installation der Solaranlagen steuerlich abschreiben konnten und zum anderen auch noch eine garantierte Einspeisevergütung, die deutlich über dem tatsächlichen Strompreis lag, erhielten – mit anderen Worten: von den enormen Subventionen, die am Ende natürlich die Verbraucher zu zahlen haben und zwar primär jene, die keine Solaranlage auf dem Dach ihres Eigenheims haben. Dies liegt übrigens nur allzu oft daran, dass besagte Verbraucher zum einen gar kein Eigenheim besitzen und sich zum anderen ein solches auch nicht leisten können. Ein klassisches Umverteilungssystem also, allerdings entgegengesetzt der Richtung, die insbesondere SPD und Grüne normalerweise propagieren.

Zwar hätte es in der Zeit der letzten liberal-konservativen Regierung der Republik die Möglichkeit gegeben, den Spuk zu beenden, aber da diese Regierung nur den Farben nach und nicht der Gesinnung nach liberal-konservativ war, wurde nur ein bisschen an den Laufzeiten der Kernkraftwerke gedreht. Die Energiewende an sich aber wurde nicht in Frage gestellt. Schließlich ist „Klimaschutz“ inzwischen das Mantra der heimischen Politik. Als dann auch noch rund 10.000 Kilometer entfernt aufgrund einer doppelten Naturkatastrophe ein GAU in einem Kernkraftwerk stattfand, sah die Kanzlerin ein klares Signal und beschloss – ganz dem Zeitgeist folgend – nun erst recht auf die „guten“, die grünen Energien zu setzen und dem Heimatland die industrielle Basis zu entziehen.

Denn die gesetzten Anreize funktionieren bestens – zu attraktiv ist deren marktferne Gestaltung. Entsprechend wollten und wollen immer mehr Bürger und Unternehmen hiervon profitieren. In der Folge zahlen immer weniger die EEG-Umlage, während zeitgleich immer mehr Ökostrom produziert wird. Als logische Konsequenz steigt die Umlage für den nicht produzierenden Verbraucher dramatisch an. Also muss die Politik hier gegensteuern, ganz gemäß der von Ludwig von Mises erstmalig formulierten „Ölflecktheorie“ – diese besagt, dass auf jeden Staatseingriff notwendigerweise weitere folgen müssen.

Dementsprechend wird das EEG nun „novelliert“ – künftig sollen jene (Private wie Unternehmen), die den angeblich klimafreundlichen Strom produzieren, ebenfalls per EEG-Umlage zur Kasse gebeten werden. Die EU-Kommission hatte bereits darauf hingewiesen, dass sie die Ausnahmen für die Industrie für illegale Wettbewerbshilfen hält. Mit der geplanten Novellierung also zerstört die Bundesregierung die wirtschaftliche Kalkulation der meisten kleinen, privaten Solarstromproduzenten und beweist, wie gefährlich es ist, sich bei wirtschaftlichen Überlegungen auf staatliche Versprechen zu verlassen. Für die Industrie gilt im Prinzip das Gleiche, nur hat sie, im Gegensatz zu den meisten Privatleuten, die Möglichkeit, mit den Füßen abzustimmen: Bereits jetzt verlagern energieintensive Betriebe wie zum Beispiel die chemische Industrie ihre Produktionsstandorte ins Ausland. So ist das Ende vom Lied, dass Arbeit durch teurere Energie nicht billiger wird, sondern woanders hingeht.

Zum Irrsinn der Energiewende ließe sich noch viel sagen. Die Speicherfrage zur Sicherung der Spitzenproduktion ist ebenso völlig ungelöst wie eine ausreichend hohe gesicherte Stromproduktion, um die Grundlast zu garantieren. Der enorme Platzbedarf dieser Art der Energieproduktion wird ebenso komplett ausgeblendet wie die ökonomische Grundfrage nach der Wirtschaftlichkeit der regenerativen Energien. Dies hier alles ausführlich zu diskutieren würde den Rahmen sprengen.

Dennoch lässt sich am Ende nur konstatieren: Die Energiewende wird früher oder später an all diesen Fragen scheitern müssen. In ferner Zukunft dürfte das EEG dann Historikern als wunderbares Beispiel für die verheerenden Konsequenzen des Gestaltungswillens einer politischen Klasse dienen, die ohne Sachverstand, ohne die geringste Ahnung von Mathematik und Physik sowie mit einer grenzenlosen Ignoranz gegenüber wirtschaftlichen Grundkonstanten, dafür aber mit einem um so größeren Idealismus und einer unerschütterlichen Pseudomoral agiert.

Für den Bürger der Gegenwart wird diese zukünftige Geschichtslektion sehr teuer. Dies liegt nicht zuletzt daran, dass das Projekt wohl bis zum bitteren Ende durchgezogen werden wird, obwohl allen Verantwortlichen inzwischen die Unmöglichkeit des Unterfangens bewusst sein dürfte. Erst wenn eine breite Öffentlichkeit ob der nicht mehr tragbaren Strompreise und der damit verbundenen massiven Abwanderung von Arbeitsplätzen zu Fackeln, Mistgabeln und Hanfseilen greift, wird über den Abbruch nachgedacht werden – bis dahin aber dürfte das wirtschaftliche Fundament unseres Landes durch die Energiewende unwiederbringlich zerstört worden sein… Es wäre besser gewesen, der EuGH hätte den Spuk jetzt beendet.

Der Beitrag erschien zuerst bei „eigentümlich frei“ hier




Säkularer und Aktueller Meeres-Anstieg: Pegel (1.6 mm/Jahr) oder SAT-Altimeter (3.2 mm/Jahr) – WAS ist richtig ?

(1) Meeres-Anstieg an der Deutschen Nordsee-Küste seit 10.000 Jahren

Es ist das große Verdienst des Wilhelmshavener Küstenforschers Karl-Ernst BEHRE vom Niedersächsischen Institut für Historische Küstenforschung (NIHK), daß wir gute Kenntnisse über die Trans- und Regressionen an der deutschen Nordsee-Küste seit dem Ende der letzten Eiszeit haben [1], vgl. Abb.1 :

         

                                      Abbildung 1 [1c, S.21]

         Meeres-Anstieg für die südliche Nordsee seit 10.000 Jahren   

                                         Abbildung 2  [1a (2003), S.35]

               Meeres-Anstieg für die südliche Nordsee der letzten 3.000 Jahre

Aus den Abbildungen 1 und 2 ergibt sich: Der Meeres-Spiegel ist in den letzten 10.000 Jahren um mehr als 50 Meter gestiegen. Der Anstieg hat sich immer mehr verlangsamt, wenn man den übergreifenden Trend auch über die Trans- und Regressionen der letzten 3.000 Jahre betrachtet. In den "jüngsten" 400 Jahren (1600-2000) hat es (ohne GIA-Korrektur) einen Anstieg von 1,35 m gegeben, in den vergangenen 100 Jahren nur einen solchen von 25 cm, folglich eine weitere Verlangsamung.

Bezüglich der säkularen Abschwächung des Meeres-Anstieges in den letzten Jahrhunderten kommen andere umfangreiche Untersuchungen [2] zum ähnlichen Ergebnis wie BEHRE:

"The last detailed regional study was by Shennan and Woodworth (1992). They used tide gauge and geological data from sites around the North Sea to infer 20thcentury and late Holocene secular trends in MSL. They concluded that a systematic offset of 1.0 ± 0.15 mm/yr in the tide gauge trends compared to those derived from the geological data could be interpreted as the regional geocentric rate of MSL change in the 20th century. They also constructed a sea level index to represent the coherent part of sea level variability in the region and found no evidence for a statistically significant acceleration in the rates of SLR over the 20th century. These results were in agreement with those of Woodworth (1990), who found a significant acceleration in the order of 0.4 mm/yr per century when focusing on time scales longer than a century (up to 300 years), but not for the 20th century."

Dieses alles gilt insbesondere auch für die Deutsche Nordsee-Küste, wie der Niedersächsische Landesverband für Wasser, Küsten- und Naturschutz NLWKN in 2013 erneut bestätigte [3] :

"Bislang, betont Heyken (Anm.: Sprecherin NLWKN), gebe es aber keine Anzeichen, daß die Fluten schlimmer werden. ‚Wir messen die Hochwasserstände seit 100 Jahren. Während dieser Zeit ist das mittlere Hochwasser um 25 Zentimeter gestiegen. Daß der Meeresspiegel in den letzten Jahrzehnten schneller steigt, können wir nicht bestätigen.‘ Auch gebe es keine Belege für häufigere Fluten."

F a z i t :
Der Meeres-Anstieg hat sich verlangsamt, über Jahrtausende und auch im letzten Jahrhundert. Ein "CO2-Klima-Signal" ist nicht auffindbar !

(2)  Pegel als Bilanz-Messer: Küsten-Senkung und/oder Meeres-Anstieg ?

Weltweit wird die Veränderung des Meeres-Spiegels an Küsten mit etwa 1.000 Pegeln gemessen, wovon einige (wenige) sogar über 200 Jahre zurück reichen, die Mehrzahl weniger als 100 Jahre.  Die direkten absoluten Ablesungen und Trends sind zunächst immer nur eine Bilanz-Messung:

Anstieg oder Absinken des Meeres gegenüber Hebung oder Senkung der Küsten. Dafür gibt es mehrere Ursachen, insbesondere Platten-Tektonik, Vulkanismus und Eiszeit-Prozesse (Isostasie und Eustasie).

Für die Deutsche Nordsee-Küste hat BEHRE [1a] sich auch damit beschäftigt: "Das Nordseebecken ist bereits seit sehr langer Zeit ein Senkungsgebiet, und diese tektonische Senkung hält auch heute noch an" ….u.w.a.a.O.: "Die deutsche Küste liegt im oberen Bereich dieses Senkungsgebietes. Zur genaueren Abschätzung der Vertikalbewegung eignet sich hier die Oberkante mariner Sedimente des Eem-Meeres …. Damit kommt man für den Bereich der Deutschen Bucht zu einer tektonisch bedingten mittleren Absenkung zwischen 0,64 cm/Jh. im Westen und 0,54 cm/Jh. im Osten, mithin zu einem geringen Betrag."

Darüber hinaus diskutiert BEHRE (a.a.O.):

"Zu der früher stark diskutierten Frage eines möglichen tektonischen Absinkens der deutschen Nordseelüste wurden in den Jahren 1928-31, 1949-55 und 1980-85 drei sehr genaue Nordseeküsten-Nivellements durchgeführt ….".

Unter der Berücksichtigung aller dieser bis 2003 bekanten Fakten kommt BEHRE zu dem Ergebnis:

"Danach erscheint für die Gegenwart ein tektonisch verursachtes Absinken von < 1,0 cm/Jh. wahrscheinlich….".

Diese Zahlen sind nach neuere Untersuchungen zu gering abgeschätzt.

Im Jahre 2011 wurde eine Arbeit zu den Trends von 15 Küsten-Pegeln in der Deutschen Bucht publiziert [4].  Darin werden auch Abschätzungen zum Glacial Isostatic Adjustment (GIA) angegeben:

"This, initially, gives estimates of rates of vertical land movement for the three tide gauges providing the longest records ( -0.7 ± 0.2 mm/a for Cuxhaven, -0.5 ± 0.1 mm/a for Lt. Alte Weser and  -0.9 ± 0.2mm/a for Norderney; negative values denote land subsidence)."

Für diese drei Langzeit-Pegel wird also im Mittel eine Küsten-Absenkung von 0,7 mm/yr angegeben, was einen säkularen Absenkungs-Trend von 7 cm/Jh. bedeutet.

Im gleichen Jahre 2011 erschien eine umfangreiche Arbeit [5], die sich mit den postglazial anhaltenden vertikalen Landbewegungen des letzten Jahrtausends in Südskandinavien und Jütland beschäftigt. Die Null-Linie ("Drehpunkt") verläuft danach von den Nordfriesischen Inseln in einem nach Süden ausgreifendem Bogen über Dänemark in die mittlere Ostsee (Abb.3).

Für den Bereich der Deutschen Nordseeküste ergibt sich daraus ein tektonischen Absinken von etwa 10 cm/Jh.

      

                      Abbildung 3 [5, dort Fig.9] (blaue Erläuterungen ergänzt)

       Present-time isostatic uplift rates (mm/yr) of Denmark and surroundings.

In einer soeben publizierten Arbeit von MÖRNER werden auch drei Pegel im Kattegat analysiert, also in Nähe des tektonischen Nullpunktes ("Drehpunktes"):

"In the Kattegatt Sea, the glacial isostatic component factor is well established and the axis of tilting has remained stable for the last 8000 years. At the point of zero regional crustal movements, there are three tide gauges indicating a present rise in sea level of 0.8 to 0.9 mm/yr for the last 125 years." Daraus ergibt sich ein säkularer absoluter Meeres-Anstieg (ASLR) von nur etwa 7 cm.

Die Pegel in Cuxhaven und Norderney zeigen einen relativen säkularen Anstieg von 25 cm, wozu die Landesregierung Niedersachsen unlängst feststellte [6]:

"Klimawandel nicht bemerkbar:  Für einen steigenden Meeres-Spiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen. Auch ein Trend zu höherer Sturmflut-Häufigkeit sei nicht erkennbar, teilte Umweltminister Hans-Heinrich Sander im Landtag mit. Danach liegt der Trend des Anstieges bei unverändert 25 cm je Jahrhundert.  Ein schnellerer Anstieg sei nicht zu beobachten."

Dabei wären die von BEHRE genannten 1 cm/Jh. vernachlässigbar, wogegen die von HANSEN genannten 10 cm/Jh. zu einer bedeutsamen Schlußfolgerung führt: Der bilanzierte "Absolute Sea Level Rise" (ASLR) beträgt dann nur etwa 15 cm/Jh.

F a z i t :
Der mit Pegeln gemessene Meeres-Anstieg an der Deutschen Nordsee-Küste beträgt in den letzten 100 Jahren 25 cm. Eine Beschleunigung ist nicht zu erkennen. Berücksichtigt man natürliche tektonische Küsten-Absenkungen (GIA), so beträgt der ASLR sogar nur etwa 15 cm. Ein CO2-AGW-Klima-Signal ist so oder so nicht erkennbar.

(3) Auswertung von 15 Küsten-Pegeln in der Deutschen Bucht

Von einem internationalen Autorenteam unter der wissenschaftlichen Leitung des Instituts für Wasserbau und Hydromechanik der Universität Siegen wurden 2011 Auswertungen aller verfügbaren Pegel für die Deutsche Bucht publiziert [7], im Einzelfall zurück reichend bis zu 166 Jahre v.h.

Dabei wird auch über Isotstasie-Abschätzungen diskutiert:

"Rates of vertical land movement are estimated from the sea level records using a simple approach and are compared with geological data and modelled GIA (Anm.: GIA: Glacial Isostatic Adjustment) estimates." [7a]

Die in Abb. 4a übergreifend gemittelte geglättete Auswertung zeigt, daß im Zeitraum von 166 Jahren abwechselnd Perioden mit beschleunigtem und verlangsamten Meeres-Anstieg auftreten:

"An accelerated sea level rise is detected for a period at the end of the nineteenth century and for another one covering the last decades." [7a].

Das verdeutlichen insbesondere auch die Abb. 4b dargestellten, sich dekadal ändernden jährlichen Anstiegs-Raten.

                                                   Abbildung 4 a+b [7a]

                                  Trends von 15 Küsten-Pegeln Deutsche Bucht 

Betrachtet man den Gesamtzeitraum mit einem Polynom 2. Grades [8], so ergibt sich ebenfalls keine säkulare Beschleunigung des Anstieges, eher eine Abschwächung:   vgl. Abb. 5:

         

            Abbildung 5 (Daten: F.ALBRECHT, Th.WAHL et al. [7] ; Graphik: Puls/EXCEL)

              Polynomischer Trend von 15 Küsten-Pegeln in der Deutschen Bucht

Auch die Autoren [7]  finden keinen Trend:

"Provided local sea level variations in Cuxhaven are unaffected by local effects and represent the large scale signal in the German Bight we would expect these residuals to be small and oscillating around zero with no long-term trend or discontinuity." (a.a.O.; Fig.6)

Ergebnis:

"The estimated long-term trend (1843 – 2008) for the Cuxhaven station is 2.3 mm/a." [7a]

Und w.a.a.O.: "For the period 1951-2008, for which data are available from all gauges, the trends vary between 1.0 mm/a (Bremerhaven) and 2.8 mm/a (Norderney)." [7a]

Diese Daten sind ohne GIA-Korrektur. Dafür müßten folgende Korrekturen angebracht werden (a.a.O.):

"This, initially, gives estimates of rates of vertical land movement for the three tide gauges providing the longest records ( -0.7 ± 0.2 mm/a for Cuxhaven, -0.5 ± 0.1 mm/a for Lt. Alte Weser and  -0.9 ± 0.2mm/a for Norderney; negative values denote land subsidence)."

Danach beträgt der ASLR in der Deutschen Bucht im Mittel für das 20.Jh. nur etwa 13 cm!

F a z i t :
Der über alle 15 Pegel – mit unterschiedlichen Registrier-Zeiträumen – gemittelte Relative Meeres-Anstieg (RSLR) für die Deutsche Bucht beträgt von 1843-2008 etwa 32 cm, der säkulare Anstieg im 20. Jahrhundert rund 20 cm. Die GIA-korrigierten Werte (vgl. auch Kap.3) ergeben für die o.a. Zeiträume einen ASLR von etwa 22 bzw. 13 cm. Es existiert keine säkulare Beschleunigung, das Polynom in Abb.5 zeigt demgegenüber sogar eine leichte säkulare Abschwächung des Anstieges. Ein CO2-Klima-Signal (AGW) ist nicht auffindbar.

(4) Auswertung von 30 Küsten-Pegeln rund um die Nordsee

Ein Internationales Autoren-Team hat 2013 eine Auswertung von 30 Küsten-Pegel (1880-2011) rund um die Nordsee publiziert [9], vgl. Abb. 6+7 :

                                         Abbildung 6 [9; dort Fig.1]

 

                Abbildung 7 [9; dort Fig.10] (GIA: Glacial Isostatic Adjustment)

Das zusammengefaßte Ergebnis (mit GIA-Korrektur) :

"The long-term geocentric mean sea level trend for the 1900 to 2011 period is estimated to be 1.5 ± 0.1 mm/yr for the entire North  Sea region." 

Folglich:  Der säkulare lineare Trend im 20. Jh. beträgt 15 cm.

"In summary the long term trends in the North Sea are not significantly different from global sea level trends …" u.w.a.a.O. :"The recent rates of sea level rise (i.e. over the last two to three decades) are high compared to the long-term average, but are comparable to those which have been observed at other times in the late 19th and 20th century."

Für die alarmistischen Meeres-Szenarien im Rahmen der Klima-Debatte ist auch dieses Ergebnis nahezu ein Desaster, denn es wird – auch anhand einer umfangreichen Literatur-Übersicht – festgestellt, daß es überhaupt keinen Trend zu einer Beschleunigung des Anstieges gibt, weder säkular noch in den letzten Dekaden, im krassen Gegensatz zu den Klima-Modellen:

"… found little or no evidence for on-going positive sea level acceleration for the tide gauges located in the North Sea between 1870 and the late 1980’s of the sort suggested for the 20th century itself by climate models."

F a z i t :
Der über alle 30 Pegel gemittelte und mit GIA-Korrektur versehene Absolute Meeres-Anstieg (ASLR) für die gesamte Nordsee im Zeitraum 1900-2011 beträgt 15 cm. Eine Beschleunigung wurde nicht gefunden, daher auch kein AGW-CO2-Klima-Signal.

(5) Auswertung von 182 Pegeln global

NIEL-AXEL MÖRNER legte in zwei 2013 erschienen Arbeiten [10] globale Auswertungen von Pegeln (NOAA 2012) vor, von denen einige (wenige) sogar bis in das 18. Jahrhundert zurück reichen:

"Removing outliers of obvious uplift or subsidence, there are 182 records left, which

forms a nice Gaussian distribution around a mean value of +1.65 mm/yr."

Die in Abb. 7 dargestellten Pegel-Daten sind nicht GIA-korrigiert, stellen folglich den RSLR (Relative Sea Level Rise) dar:

"Because many tide gauge stations are affected by local subsidence, this value should rather be considered an overestimate, however."

                                Abbildung 8: GAUSS-Verteilung 182 Pegel [10]

(RSLR: ohne Glacial Isostatic Adjustment GIA;  "key sites: i.e. sites of special importance like the Maldives, Bangladesh, Tuvalu, Kiribati and Vanuatu …Venice" )

Kritisch äußert sich MÖRNER auch hier zu den hohen Satelliten-Werten(vgl.Kap.8):

"Satellite altimetry is a new and important tool. The mean rate of rise from 1992 to 2013 is +3.2 ±0.4 mm (UC, 2013). This value is not a measured value, however, but a value arrived at after much “calibration” of subjective nature (Mörner, 2004, 2011a, 2013a).

The differences between the three data sets  <  ±0, +1.65 and +3.2 mm/yr >  are far too large not to indicate the inclusions of errors and mistakes."

F a z i t : 
Die Auswertung von weltweit 182 Pegeln ergibt im Mittel einen säkularen Meeres-Anstieg von 16 cm, ohne GIA-Korrektur. Eine säkulare Beschleunigung des Anstieges wurde nicht gefunden, daher auch kein AGW-CO2-Klima-Signal.

(6) Auswertung von 1200 Pegeln global

Ein internationales Autorenteam legte 2013 die Auswertung von 1277 Pegeln für dem Zeitraum  1807-2010 vor [11]. Das globale Gesamtmittel zeigt Abb.9.

Dabei wurden GIA-Korrekturen vorgenommen:

"The large uncertainties (up to 0.30.6 mm/yr) in our global sea level reconstruction are due to choice of GIA corrections, with difference up to 8 mm/yr in rate of sea level rise in individual locations, such as the Arctic, Baltic and Antarctic regions. The GIA correction adds up to 0.3 mm/yr trend in the global sea level reconstruction, with large differences between GIA datasets."

                                                          Abbildung 9

                         Meeres-Trend 1807-2009; 1277 Pegel [11; dort Fig.3]

In die Graphik (Abb.9) ist zwar von den Autoren weder eine Regressions-Gerade eingefügt noch ein Polynom, aber auch so ist "durch Augenschein" erkennbar:

()  In der ersten Hälfte des 19. Jh. ist der Meeresspiegel um ca. 15 cm abgesunken;

()  Seit ca.1860 steigt der Meeresspiegel – bis heute;

()  Seit 1860 sind dekadale Phasen rascheren und verlangsamten Anstieges erkennbar, eine Trend- Beschleunigung über den Gesamtzeitraum seit 1860 nicht; für die letzten 10 Jahre seit ca. 2000 sogar nur noch ein Plateau !?

Zu diesen Betrachtungen passen zunächst auch diese Aussagen der Publikation (Abstract):

"The new reconstruction suggests a linear trend of 1.9 ± 0.3 mm·yr− 1 during the 20th century, with 1.8 ± 0.5 mm·yr− 1 since 1970.“ (Anm.: 1970-2009).

Woraus folgt:

Die Anstiegsrate für den Teil-Zeitraum ab 1970 ist geringer als die Anstiegsrate für das gesamte 20. Jahrhundert! Es hat folglich eine Verlangsamung des Anstieges im 20. Jahrhundert bis heute statt gefunden.

Demgegenüber steht in der Publikation wenige Sätze weiter unten, ebenfalls im Abstract:

"We calculate an acceleration of 0.02 ± 0.01 mm·yr− 2 in global sea level (1807–2009)“.

WOW ! Für 100 Jahre ergäbe das 2 mm, Küsten-Überflutung voraus ?

Hierzu stellt sich zudem doch die Frage :

Wie kann der in der Publikation analysierte säkularer "linear trend (vgl.w.o.) eine Beschleunigung aufweisen ?

Das ist ein Widerspruch in sich. Ein linearer Trend wird durch eine Regressions-Gerade beschrieben, kann also u.E. keine Beschleunigung aufweisen !?

Das ist auch nicht der Fall, wie die Regressions-Gerade zu den SAT-Altimeter-Daten von AVISO in Abb.10 zeigt:

                                                          Abbildung 10

                         SAT-Altimeter-Daten [12; AVISO] (POSEIDON/TOPEX/JASON)

Es finden sich jedoch noch weitere Widersprüche in den Aussagen der JEVREJEVA-Publikation.

Zunächst und einerseits:

"… a linear trend of 1.9 ± 0.3 mm·yr− 1 during the 20th century" (Abstract), und: "GSL12 shows a linear trend of 1.9 ± 0.3 mm·yr1 during the 20th century …" (Conclusion).

Das ist nur wenig mehr als die Hälfte der Altimeter-Messungen von 3.3 mm/yr in den AVISO-Daten (Abb.10).

Demgegenüber heißt es – u.E. im Widerspruch dazu – unmittelbar im Satz davor in "Conclusion": "There is an excellent agreement between the linear trends from GSL12 and satellite altimetry sea level since 1993, with rates of 3.1 ± 0.6 mm·yr1 and of 3.2 ± 0.4 mm·yr1 respectively".

WIE denn nun (?) :

3.1 mm/yr oder 1,8 mm/yr –  denn: die hier genannte Pegel-Periode 1970-2008 enthält doch auch die Altimeter-Messungs-Periode seit 1993 ! D a h e r  müßte ein solcher "Daten-Sprung" ab 1993 auch in der Abb.9 (Fig.3) auffindbar sein, ist er aber nicht! Stattdessen findet man in Abb.9 ab etwa 2000 eine Art Plateau – "Null-Anstieg" !

Gänzlich rätselhaft wird die Sache, wenn man dazu noch die Fig.7 in der JEVREJEVA-Publikation [11] anschaut: Dort verlaufen zwei Regressions-Geraden Pegel & Altimeter 1993-2009 nahezu kongruent:

"Dashed red and blue lines represent linear trends for satellite altimetry (3.2 mm·yr1) and tide gauge (3.1 mm·yr1)…". wovon sich in Fig.3/Abb.9 im Vergleich mit den SAT-Daten von AVISO (Abb.10) keine Spur finden läßt !?

Es ist nicht nachvollziehbar, wie eine solche umfangreiche Publikation voller Widersprüche ein "Peer Review" passieren kann.

F a z i t : 
Die Arbeit von  JEWREJEVA et al. schafft bezüglich einer Klärung der großen Diskrepanz zwischen den Daten der Pegel und der Satelliten u.E. keine Klarheit, sondern eher zusätzliche Verwirrung. Das Gleiche gilt für die widersprüchlichen Trend-Aussagen zum Meeres-Anstieg in der Arbeit.

 (7)  GRACE-Satelliten bestätigen die Pegel: 1.7 mm/yr !

Eine aktuelle Auswertung [13] der Schwerefeld-Messungen mit den GRACE-Satelliten bestätigt die zahlreichen Publikationen von Pegel-Auswertungen:

Eine aktuelle Auswertung [13] der Schwerefeld-Messungen mit den GRACE-Satelliten bestätigt die zahlreichen Publikationen von Pegel-Auswertungen:

"Neue Studie mittels GRACE-Daten: Meeresspiegel steigt um weniger als 17 cm pro Jahrhundert""Eine neue Studie, erstellt mit den GRACE-Daten (Gravity Recovery And Climate Experiment) zeigt, dass der Meeresspiegel während der letzten 9 Jahre mit einer Rate von nur 1,7 mm pro Jahr gestiegen ist. Das ergibt ein Äquivalent von 6,7 Inches (fast 17 cm) pro Jahrhundert. Dies paßt gut zu Messungen an Pegeln."

… nämlich (a.a.O.) :

"Aus dem IPCC FAR Abschnitt 5.5.2: Holgate und Woodworth (2004) schätzten eine Rate von 1,7 ± 0.4 mm pro Jahr, und zwar gemittelt entlang der globalen Küstenlinie während des Zeitraumes 1948 bis 2002 und basierend auf Messungen von 177 Stationen (Anm.: Pegeln), eingeteilt nach 13 Regionen.

Church et al. (2004) berechneten einen globalen Anstieg von 1,8 ± 0.3 mm pro Jahr während der Periode 1950 bis 2000, und Church und White (2006) berechneten eine Änderung von 1,7 ± 0.3 mm pro Jahr im 20. Jahrhundert."

…und w.a.a.O. :

"Bedeutung dieses Ergebnisses :

Das Geocenter-korrigierte Schlußergebnis von Baur et al. ist höchst ermutigend, wenn Chambers et al. (2012) zeigen, dass der Meeresspiegel im Mittel um 1,7 mm pro Jahr während der letzten 110 Jahre gestiegen ist, wie es sich auch aus den Analysen von Church und White (2006) sowie Holgate (2007) ergibt.

Gleichzeitig ist die CO2-Konzentration in der Luft um fast ein Drittel gestiegen. Und immer noch hat dieser Anstieg nicht die Rate des globalen Meeresspiegel-Anstiegs beeinflusst !"

F a z i t : 
Die beiden extrem unterschiedlichen Methoden der Pegel- und der Schwerkraft-Messungen (GRACE-Satelliten) stimmen mit jeweils 1,7 mm/yr erstaunlich gut überein, auf ein Zehntel Millimeter!  Das wirft allerdings erneut die in der Literatur immer wieder kritisch gestellte Frage auf, wieso die Satelliten-Meßverfahren TOPEX/POSEIDON/JASON – als einzige aller Meßmethoden – nahezu doppelt so hohe Werte ergeben (è Kap.(8) ) :

(8) Pegel versus SAT-Altimeter

Weltweit publizierte Pegel-Messungen (vgl. Abb. 4-9, und weitere Publikationen [14] ) sowie gleichermaßen die Schwerkraft-Messungen der GRACE-Satelliten zeigen global einen mittleren jährlichen Meeres-Anstieg von 1,5 – 1,7 mm/yr, also säkular 15-17 cm, wogegen von den erst seit 1992 verfügbaren Altimeter-Messungen  anderer Satelliten (Abb. 10 + 11) doppelt so hohe Anstiegs-Raten publiziert werden [15]: 3,2 mm/yr.

Zu Beginn der SAT-Altimeter-Ära (1992) lagen die zunächst publizierten Messungen sogar deutlich unter 1 mm/yr, also auch noch deutlich unter den Pegel-Meßwerten. Im Laufe der folgenden Jahre wurden dann die SAT-Daten mehrfach zu höheren Werten hin korrigiert. Die Gründe bleiben unklar, wie eine dazu sehr ausführliche Historie von RUDOLF KIPP dokumentiert [16] :

"Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr."

Es ist aufschlußreich, hier einige weiteren Passagen aus dieser Dokumentation zu zitieren:

"Der “Environmental Satellite” (Envisat; 2002-2012) ist so etwas wie das Prunkstück der European Space Agency (ESA). … Zu den Aufgaben dieses Satelliten gehört unter anderem … die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen (Anm.: IPCC) eines beschleunigten Meeresspiegel-Anstiegs, noch mit den Messungen der amerikanischen Jason-Satelliten in Einklang standen. …

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. … Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections”  fündig. Dort heißt es: ’sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)‘ Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte."

…und w.a.a.O.:

"Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten." …

"Auch die Begründung, welche die Wissenschaftler anbieten, trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste. Was bleibt ist der Eindruck, dass hier Daten systematisch “hochgerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich."

Und diese nahezu prophetischen Worte von RUDOLF KIPP im Jahre 2012 haben sich schon 2013 "erfüllt", denn – genau so ist es gekommen: der Klimarat IPCC hat seine Meeres-Prognose im AR 2014 für 2100 erstmals wieder erhöht, nachdem IPCC in den drei Vorberichten (AR’s 1995, 2001, 2007) schrittweise eine "Herunter-Stufung" der Prognosen Richtung Meß-Realität vorgenommen hatte: vgl. Abb. 12 !

D a z u  einige Äußerungen von namhaften Meeres-Forschern [17]:

"Ich halte es für unwahrscheinlich, dass sich der Meeresspiegel-Anstieg ausgerechnet in dem Jahr beschleunigt haben sollte, als Satelliten in Dienst gestellt wurden", ergänzt SIMON HOLGATE, Meeres-Spiegel-Forscher am National Oceanography Centre in Liverpool." …

"Ob wir seit 1993 eine Beschleunigung haben, ist nicht klar", sagt JOHN CHURCH vom australischen Klimaforschungsinstitut CSIRO."

NILS-AXEL MÖRNER [18] (Univ. Stockholm, Paleogeophysics & Geodynamics) dazu:

"Satellite altimetry is a new and important tool. The mean rate of rise from 1992 to 2013 is +3.2 ±0.4 mm (UC, 2013). This value is not a measured value, however, but a value arrived at after much “calibration” of subjective nature (Mörner, 2004, 2011a, 2013a). The differences between the three data sets  < ±0, +1.65 and +3.2 mm/yr >  are far too large not to indicate the inclusions of errors and mistakes."

In einer Graphik wurde das alles so zusammen gefaßt (Abb. 11 a+b) :

                Abbildung 11 a+b: Gegenüberstellung der Pegel- und Sat-Daten

                                         [19] (Textfelder in Abb.11a ergänzt )

In den jüngst erschienen, schon unter den Abschnitten (3)+(4) zitierten umfangreichen Arbeiten zu den Nordsee-Pegeln [WAHL, ALBRECHT et al. 2011, 2013] wird zwar übereinstimmend fest gestellt, daß der säkulare Anstieg in der Nordsee bei etwa 13-18 cm liegt – ohne(!) Beschleunigung, aber über die krasse Diskrepanz dieser Daten gegenüber den Altimeter-Messungen wird dort kaum ein Wort verloren, sieht man einmal von einer solchen lapidaren Anmerkung ab:

"For the period 1993 to 2009, the estimated global MSL trend from altimetry records is 3.2 ± 0.4 mm/yr, almost double that observed from 1900 to 2009 (Church and White, 2011)."

Eine wissenschaftlich kritische Diskussion oder gar Bewertung dazu fehlen hier völlig – seltsam.

F a z i t : 
Die erhebliche Diskrepanz zwischen Sat-Altimeter-Daten und Pegeln ist bis heute u.E. nicht geklärt [20] :
"Trotz der neuen Satellitenmessungen wurden die Pegelmessungen natürlich weitergeführt. Und die ließen sich nicht beirren und blieben stur bei ihrem alten Kurs von deutlich unter 2 mm/Jahr. Anstatt die Satellitendaten nun an die real am Boden gemessenen Daten anzupassen und nach unten zu korrigieren, besteht die Diskrepanz zwischen Pegel- und Satellitenmessungen aber leider bis heute weiter. Und es scheint irgendwie auch niemanden zu stören. Ein mysteriöser Fall."

(9)  SPIEGEL: "Feilschen wie auf dem Basar"

Bemerkenswert ist u.E. noch, was DER SPIEGEL [21] unter dem Titel "Klimarat feilscht um Daten zum Meeresspiegel-Anstieg" über die Art und Weise der "Entstehung" von Meeres-Spiegel-Prognosen beim IPCC über eine diesbezügliche Tagung  der Meeresspiegel-Forscher (Juli 2011) berichtet :

"Viele Milliarden Euro stehen auf dem Spiel: Ein Uno-Gremium entscheidet über die Prognose zum Anstieg der Ozeane – sie bestimmt, wie viel Steuergeld  die Staaten in den Küstenschutz pumpen müssen. Hunderte Studien werden verhandelt, es geht zu wie auf einem Basar."

Und weiter a.a.O. :

"Das Feilschen um die Ergebnisse gleicht dem Handel auf einem Basar:

Auf der einen Seite haben Forscher alarmierende Meeresspiegel-Prognosen veröffentlicht, die die Angaben des letzten Uno-Klimareports weit übertreffen.

Demgegenüber stehen tatsächliche Messungen des Meeresspiegels: Sie lassen bislang keinen extremen Anstieg erkennen.""4000 Experten diskutierten auf der IUGG-Tagung von Ozeanforschern im australischen Melbourne ihre Ergebnisse. Mitunter lautet dabei die Maxime: "Wer bietet mehr?" "Der Klimaforscher James Hansen von der Nasa zum Beispiel warnt in einem aktuellen Papier vor einem Anstieg der Meere um fünf Meter in den nächsten 90 Jahren – er verneunfacht damit die Schätzung des Höchstszenarios aus dem letzten Uno-Klimareport. Der Nasa-Forscher riskiere mit der Extremprognose seine Glaubwürdigkeit, meinen manche Klimatologen."

Bei dieser Art von "BASAR" gibt es allerdings auch nüchterne sachliche Stimmen (a,a,O.):

"Die höheren Anstiegsraten seit 1993 seien nichts Außergewöhnliches, meint Guy Wöppelmann von der Université de La Rochelle in Frankreich. Im 20. Jahrhundert habe sich der Meeresspiegel-Anstieg zuvor schon mal ähnlich beschleunigt; doch dann verlangsamte er sich wieder."

"Ähnliches geschehe nun wieder, sagt Eduardo Zorita vom GKSS-Institut für Küstenforschung: In den vergangenen acht Jahren habe sich der Anstieg der Ozeane abgeschwächt; wie es weitergehe, sei ungewiss."

…und weiter a.a.O.:

" Die Geoforscher Jim Houston vom Engineer Research Center in Vicksburg und Bob Dean von der University of Florida in Gainsville in den USA legten im Fachblatt "Journal of Coastal Research" überraschend dar, dass der Meeresspiegel während des vergangenen Jahrhunderts ziemlich gleichbleibend angestiegen sei – eine Beschleunigung sei nicht zu erkennen."

Dieses alles hat den Klimarat nicht davon abgebracht, gegen alle früheren und aktuellen Meßdaten nun im IPCC-Bericht 2013/14 wieder eine Beschleunigung des Meeres-Anstieges für die nächsten 100 Jahre zu prognostizieren, nachdem man in den Berichten davor (AR’s 1995, 2001, 2007) Schritt um Schritt eine weitgehende Herunterstufung in Richtung der Meß-Realität vorgenommen hatte (Abb. 12) :

                                         Abbildung 12 [IPCC/AR’s 1990-2013]

                                       IPCC-Prognosen zum Meeres-Anstieg 

F a z i t : 
Die Erstellung von IPCC-Prognosen zum Meeres-Anstieg haben mit sachlicher Wissenschaft kaum noch etwas gemein [ SPIEGEL-ol. 14.07.2011] : "Das Feilschen um die Ergebnisse gleicht dem Handel auf einem Basar."

(10)  Vertrauens-Krise der IPCC-Institute auch beim Meeres-Spiegel-Alarm

Mit dem "Climate-Gate-Skandal" begann 2009 für das IPCC eine schwere Vertrauens-Krise [22], die bis heute anhält.

Dieser Vertrauens-Verlust in die IPCC-Prognosen zeigt sich immer wieder auch bei den von einigen Instituten verbreiteten Phantastereien zu gigantischen Meeresspiegel-Anstiegen [23]:

"4000 Experten diskutierten auf der IUGG-Tagung von Ozeanforschern im australischen Melbourne ihre Ergebnisse. Mitunter lautet dabei die Maxime: "Wer bietet mehr?" (vgl. Kap.9).

So kann es nicht verwundern, daß Planer beim Küstenschutz derartigen Prophezeiungen keinen Glauben mehr schenken. Daher werden z.B. auch Stefan Rahmstorf und das PIK mit derartigen Extrem-Prognosen zum Meeres-Spiegel international kaum noch ernst genommen [24]:

"Unter sorgfältiger Abwägung aller verfügbaren Informationen entschied der Senat von North Carolina im Juni 2012 mit 35 zu 12 Stimmen, dass bei Küstenschutzplanungen zukünftig mit der historisch gut dokumentierten Meeresspiegel-Anstiegsrate kalkuliert werden muss. Eine Beschleunigung wie sie von der Rahmstorf-Gruppe für die Zukunft postuliert wird, soll nicht eingerechnet werden. (Siehe Berichte auf junkscience, Climatewire, WUWT, John Droz Jr.).

Das Gesetz wurde Anfang Juli 2012 auch vom Repräsentantenhaus von North Carolina abgesegnet. … Die republikanische Politikerin Pat McElraft hatte sich für die beschlossene Regelung eingesetzt und erklärte, dass sie eine zukünftige starke Beschleunigung des Meeresspiegel-Anstiegs als unrealistisch ansieht und dies lediglich Vermutungen darstellt."

Die Vertrauenskrise des IPCC ist mittlerweile sogar in den sonst überwiegend Klima-katastrophilen deutschen Medien [25] angelangt:

"Wenn bald über die Verlierer des Jahres nachgedacht wird, stehen die Klimaforscher auf vielen Listen si­cher weit oben. … Stocker [26] war schon einige Wochen vorher bei der Vorstellung seines IPCC-Berichts prak­tisch baden gegangen, weil er der Öf­fentlichkeit und Politik vergeblich zu vermitteln versuchte, dass die jahrelan­ge Quasi-Stagnation der Welttempera­tur, der „Hiatus“, von der Klimapolitik ausgeklammert werden sollte. … Die Lo­gik der Politik ist aber eine andere:  Wenn die Klimaforschung schon so gravierende Schwankungen der Gegen­wart nicht auf ihrer Rechnung hat, wie sollen wir ihr dann die Prognosen für die nächsten hundert Jahre abneh­men?"

DER SPIEGEL [27] macht bereits einen "Abgesang" auf den Klimarat IPCC:

"Der Ehrentag des Klimarats der Vereinten Nationen (IPCC) wurde am Freitag mit einer spärlich besuchten Pressekonferenz in der georgischen Stadt Batumi (Anm.: 18.10.2013) begangen … Zum 25. Geburtstag kamen kaum Gäste, es wurde nur Wasser gereicht … Es wirkte wie ein Abgesang auf jene Organisation, die 2007 immerhin mit dem Friedens-Nobelpreis geehrt wurde.  Einen weiteren großen Klimareport wird es womöglich nicht mehr geben."

====================================================================

Z u s a m m e n f a s s u n g :
Die ständigen Alarm-Meldungen zu angeblich dramatischen Meeres-Spiegel-Anstiegen in Gegenwart und Zukunft können durch Messungen nicht bestätigt werden, sondern werden durch die Meß-Daten sogar widerlegt. Weltweit zeigen weder die Pegel-Daten (200 Jahre) noch die Satelliten-Daten (20 Jahre) eine Beschleunigung des Meeres-Anstieges. Dazu in krassem Widerspruch stehen alle bisherigen und derzeitigen Aussagen vom Klimarat IPCC, von einigen Klima-Instituten sowie die der Klima-Modelle. Darüber hinaus gibt es Anhalts-Punkte dafür, daß die Satelliten-Daten zu höheren Beträgen hin erheblich "über-korrigiert" wurden [28]: "Anstatt die Satellitendaten nun an die real am Boden gemessenen Daten anzupassen und nach unten zu korrigieren, besteht die Diskrepanz zwischen Pegel- und Satellitenmessungen aber leider bis heute weiter. Und es scheint irgendwie auch niemanden zu stören. Ein mysteriöser Fall."

       Klaus-Eckart Puls

===================================================================

Q u e l l e n :

[1] BEHRE, K.-E.: (a) Eine neue Meeresspiegel-Kurve für die südliche Nordsee, Probleme der Küstenforschung im südlichen Nordseegebiet, Band 28, (2003), Isensee-V.; (b) A new Holocene sea-level curve for the southern North Sea; Boreas, Vol. 36, pp. 82102. Oslo. ISSN 0300-9483, 2007 (January); (c) Landschaftsgeschichte Norddeutschlands, Wachholz-Verlag Neumünster, (2008), 308 S.

[2] Shennan, I., Woodworth, P.L., 1992. A comparison of late Holocene and twentieth century sea-level trends from the UK and North Sea region. Geophys. J. Int. 109, 96–105; nachzitiert nach: T. WAHL et al.: "Observed mean sea level changes around the North Sea coastline from 1800 to present" ; Earth-Science Review; Vol. 124, Sept. 2013, 51-67  

[3] NLWKN; NZ, 16.11.2013, S.25, in: "Superdeich schützt die Küste"

[4] Wahl, T., Jensen J., Frank, T. and Haigh, I.D. ; (2011) Improved escmates of mean sea level changes in the German Bight over the last 166 years, Ocean Dynamics, May 2011, Vol. 61, Issue 5, 701-715

[5] J.M. HANSEN et al.: Absolute sea levels and isostatic changes of the eastern North Sea to central Baltic region during the last 900 years ; BOREAS, DOI 10.1111/j.1502-3885.2011.00229.x (2011)

[6]  NZ, 04.02.2010, S.4; Klima-Wandel nicht bemerkbar

[7]  (a) Wahl, T., Jensen J., Frank, T. and Haigh, I.D. ; (2011) Improved escmates of mean sea level changes in the German Bight over the last 166 years, Ocean Dynamics, May 2011, Vol. 61, Issue 5, 701-715; (b) Albrecht, F., T. Wahl, J. Jensen and R.Weisse (2011); Determinig sea level change in the German Bight, Ocean Dynamics, doi:2010.1007/s10236-011-0462-z

[8] Wir bedanken uns bei den Autoren F.ALBRECHT, Th.WAHL et al. [7] für die Überlassung der Original-Daten für die Abb.5

[9] T. WAHL et al.: "Observed mean sea level changes around the North Sea coastline from 1800 to present" ; Earth-Science Review; Vol. 124, Sept. 2013, 51-67

[10]  NILS-AXEL MÖRNER: (a) Sea Level Changes Past Records And Future Expectations, ENERGY &ENVIRONMENT, VOL. 24 No. 3 & 4 (2013) (b) Sea Level Changes; A short comment; (2013); Paleogeophysics & Geodynamics, Stockholm, The Global Climate Status Report (GCSR) © is a product of the Space and Science Research Corporation, (SSRC), P.O. Box 607841, Orlando, Florida

[11] JEVREJEVA, S., et al.: Global Sea Level Behavior of the Past Two Centuries; Global and Planetary Change 113: 11-22; (2014); http://kaares.ulapland.fi/home/hkunta/jmoore/pdfs/Jevrejevaetal2013GPChange.pdf

[12] http://www.aviso.altimetry.fr/en/data/products/ocean-indicators-products/mean-sea-level.html

[13]  http://www.eike-klima-energie.eu/news-cache/neue-studie-mittels-grace-daten-meeresspiegel-steigt-um-weniger-als-17-cm-pro-jahrhundert/   09.07.2013 ; und http://sealevel.colorado.edu/content/continental-mass-change-grace-over-2002%E2%80%932011-and-its-impact-sea-level   08.07.2012

[14]  (a) http://wattsupwiththat.com/2012/05/16/issea-levelriseaccelerating/  und: (b) http://www.kaltesonne.de/?p=4429

[15] http://www.aviso.altimetry.fr/en/data/products/ocean-indicators-products/mean-sea-level.html

[16]  (a) http://www.science-skeptical.de/blog/was-nicht-passt-wird-passend-gemacht-esa-korigiert-daten-zum-meeresspiegel/007386/ ; 13. April 2012 | Von Rudolf Kipp (b) Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht passt wird passend gemacht? 14. Juli 2012 ;  http://www.kaltesonne.de/?p=4544 

[17] SPIEGEL-ol.; 25.08.2011:  http://www.spiegel.de/wissenschaft/natur/ozeane-wetterumschwung-senkt-globalen-meeresspiegel-a-782324.html

[18]  Nils-Axel Mörner: Sea Level Changes; A short comment; (2013); Paleogeophysics & Geodynamics, Stockholm, The Global Climate Status Report (GCSR) © is a product of the Space and Science Research Corporation, (SSRC), P.O. Box 607841, Orlando, Florida

[19]  http://climatesanity.wordpress.com/2011/06/06/deception-from-nasa-satellites-are-true-cause-of-sea-level-rise/

[20]  http://www.kaltesonne.de/?p=4544 ; 14. Juli 2012

[21] SPIEGEL: "Klimarat feilscht um Daten zum Meeresspiegel-Anstieg" ; 14.07.2011 ; http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html

[22]  http://laufpass.com/ausgaben/eBook/eBook_0210/flash.html ; Nr.24 (2010), S. 8-13 ;   u n d  

http://www.eike-klima-energie.eu/climategate-anzeige/vertrauen-in-welt-klima-rat-im-freien-fall-die-irrungen-wirrungen-und-manipulationen-des-ipcc-ein-update/ ; 08.06.2010

[23]  http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html ; 14.07.2011

[24]  http://www.kaltesonne.de/?p=4506 ; 12. Juli 2012

[25] FAZ, 27.11.2013, "Durchhaltemodelle"

[26] THOMAS STOCKER, Sitzungsleiter beim IPCC auf der Tagung in Stockholm, Sept. 2013

[27] SPIEGEL: Uno-Forscher wollen große Klimaberichte abschaffen ; 18.10.2013 ;

http://www.spiegel.de/wissenschaft/natur/umbau-des-uno-klimarats-klimabericht-des-ipcc-arbeitsgruppe-2-a-928717.html

28  Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht passt wird passend gemacht? ; http://www.kaltesonne.de/?p=4544 ; 14. Juli 2012

[29]  NilsAxel Mörner: Deriving the Eustatic Sea Level Component in the Kattaegatt Sea; Global Perspectives on Geography (GPG) Volume 2, (2014), p.16-21

 ===================================================

Anmerkung EIKE-Redaktion:  

Die vorstehende Publikation kann in der Anlage hier als PDF runter geladen werden, sowohl in Deutsch als auch in einer Englisch-sprachigen Version; mit jew. besserer Qualität der Abbildungen als hier vorstehend im WEB-Artikel; s.w. unten.

====================================================

Related Files




Können kommunale Windparks eine neue Einnahmequelle für die Gemeinden werden?

Denn alles ist abhängig von den Erlösen. Diese wiederum sind abhängig von den Windverhältnissen vor Ort, jedoch stark schwankend und nicht planbar. 97 % der Erlöse erhalten zusammen die Hersteller der Windräder, Baufirmen, Projektentwickler, Service-Unternehmen und die Banken. Den Kommunen verbleiben aus den Pachteinnahmen, dem Steueranteil, dem Gewinn/Verlust-Saldo sowie abzüglich der Zinsen für die Finanzierung des Eigenkapitals noch dürftige

0,7 % der Einnahmen.

Dafür tragen sie das gesamte Risiko bis hin zur Insolvenz. 

Hersteller, Bau- und Wartungsfirmen sowie Banken verdienen hingegen immer risikolos Geld.

In der beigefügten pdf Anlage (s.u.) lesen Sie den von einem Bürgermeister veranlassten Untersuchungsbericht über die Chancen und Risiken einer Beteiligung der Ortsgemeinde an Bau und Betrieb eines Windparks in Weisenheim am Berg im Hunsrück (Rheinland-Pfalz).

Wie verhält es sich mit den Windpark-Beteiligungen  für Anleger?

Werner Daldorf, Vorsitzender des BWE-Anlegerbeirats, hat 1.150 Jahresabschlüsse von 175 Windparks für 2002 bis 2011 ausgewertet. Daldorf arbeitet in Kassel als Steuerberater. Sein Ergebnis aus 1.150 Jahresbilanzen: Nur der Projektierer verdient immer.

„Bei differenzierter Betrachtung der Jahresabschlüsse von Windparks ergibt sich ein katastrophales Bild“.

stellt er fest.

"Die lnvestltlon in Wind­parks ist für die Anleger nur selten lukrativ. Die . Firmen, die die Räder aufstellen und vermark­ten, verdienen dagegen sehr gut."

fand Volker Nies von der Fuldaer Zeitung bei seiner umfangreichen Recherche

Was er noch heraus fand lesen sie in pdf Anlage der Fuldaer Zeitung vom 20.6.2014.

Related Files




Das Rätsel der Eiszeiten, Teil 9, Global Circulation Models III

scienceofdoom

In Teil VII haben wir auf einige frühe GCMs und deren Ergebnisse geschaut, in Teil VIII waren dann die GCMs aus dem ersten Jahrzehnt dieses Jahrhunderts dran – atmosphärische GCMs, die die Wassertemperatur der Ozeane einbezogen sowie einige Modelle mittlerer Komplexität. Alle diese Studien versuchten, die fundamentale Grundlage des Einsetzens einer Eiszeit zu untersuchen – immer währende Schneebedeckung in hohen Breiten. Eine permanente Schneebedeckung kann zu permanenten Eisschilden führen – muss es aber nicht. Erforderlich ist also ein Eisschilde-Modell, das das komplexe Zusammenspiel von Wachstum, Zerbrechen, Gleiten und Wärmetransport der Eisschilde simuliert.

Angesichts der begrenzten Rechenmöglichkeiten der Modelle war schon die Konstruktion eines Modells, dass die Grundlagen permanenter Schneebedeckung simulieren kann (oder nicht), keine triviale Angelegenheit, aber ein komplettes Ozean-Atmosphäre-GCM mit einem Eisschilde-Modell, das 130.000 Jahre abdeckt, war überhaupt nicht möglich. In diesem Beitrag schauen wir auf eine Studie aus jüngster Zeit, in der vollständig gekoppelte GCMs verwendet worden sind. ‚Vollständig gekoppelt‘ bedeutet, dass ein atmosphärisches und ein ozeanisches Modell als Tandem agieren – wobei Wärme, Feuchtigkeit und Impulse übertragen werden.

Smith & Gregory (2012)

Das Problem:

Es ist allgemein akzeptiert, dass das Timing von Eiszeiten auf Variationen der Sonneneinstrahlung zurückzuführen ist, die aus dem Orbit der Erde um die Sonne resultieren (Hays et al. 1976, Huybers und Wunsch 2005). Diese solaren Strahlungs-Anomalien müssen durch Rückkopplungs-Prozesse innerhalb des Klimasystems verstärkt werden, einschließlich der Änderungen der atmosphärischen Treibhausgas-Konzentrationen (Archer et al. 2000) sowie des Wachstums von Eisschilden (Clark et al. 1999). Während es Hypothesen zu den Details dieser Rückkopplungen im Überfluss gibt, ist keine davon ohne Kritiker, und wir können noch nicht behaupten zu wissen, wie das System Erde das Klima erzeugte, das wir in zahlreichen Proxys wiederfinden. Das ist von mehr als nur akademischem Interesse: ein volles Verständnis des Kohlenstoffzyklus‘ während eines Eiszeitzyklus‘ oder Details darüber, wie sich der Meeresspiegel im Zuge des Wachsens und Schrumpfens von Eisschilden lokal verändert, wären sehr nützlich bei der genauen Vorhersage zukünftiger Auswirkungen der anthropogenen CO2-Emissionen auf das Klima, können wir doch erwarten, dass viele der gleichen fundamentalen Rückkopplungen in beiden Szenarios stattfinden.

Der Jahrtausende lange Zeitskala bei der Modellierung auch nur eines einzigen Eiszeitzyklus’ ist eine enorme Herausforderung für umfassende Modelle des Erdsystems, die auf gekoppelten Atmosphäre-Ozean-Modellen beruhen (AOGCMs). Wegen der begrenzten Rechenkapazität sind AOGCMs normalerweise auf Läufe über höchstens ein paar hundert Jahre limitiert, und deren Verwendung in paläoklimatischen Studien war allgemein kurz, sozusagen ein „Schnappschuss“ aus einem speziell interessierenden Zeitabschnitt.

Kurzzeitige Simulationen glazialer Zyklen wurden bislang nur mit Modellen durchgeführt, bei denen wichtige Klimaprozesse wie Wolken oder Feuchtetransporte in der Atmosphäre nur sehr grob parametrisiert sind oder ganz außen vor gelassen wurden. Die starken Beschränkungen hinsichtlich der Rückkopplungen in solchen Modellen zeigen auch dem, was wir über die Entwicklung des Klimas daraus lernen können, Grenzen auf, vor allem in paläoklimatischen Zuständen, die sich signifikant von den besser verstandenen heutigen Zuständen unterscheiden, die die Modelle eigentlich reproduzieren sollen. Die Simulation vergangener Klimazustände in den AOGCMs und der Vergleich derselben mit auf Proxys beruhenden Klimarekonstruktionen erlauben es ebenfalls, die Sensitivität der Modelle bzgl. Klima-Antrieben zu testen, um Vertrauen in deren Vorhersagen des zukünftigen Klimas zu gewinnen.

Ihr Modell:

Für diese Simulationen haben wir den FAMOUS benutzt (=FAst Met. Office and UK universities Simulator), eine niedrig aufgelöste Version des Hadley Centre Coupled Model (HadCM3) AOGCM. Die räumliche Auflösung im FAMOUS ist etwa halb so groß wie im HadCM3, was die Rechenkosten des Modells um einen Faktor 10 reduziert.

Ihr Plan:

Wir präsentieren hier die ersten kurzzeitigen Simulationen über den gesamten letzten Eiszeitzyklus. Wir haben den Rechenaufwand dieser Simulationen durch die Verwendung von FAMOUS reduziert. FAMOUS ist ein AOGCM mit einer relativ kleinen räumlichen Auflösung, und wir haben die Randbedingungen um einen Faktor 10 verändert, so dass 120.000 Jahre zu 12.000 Jahren werden. Wir untersuchen, wie die Einflüsse orbitaler Variationen der Sonneneinstrahlung, Treibhausgase und Eisschilde der Nordhemisphäre zusammenspielen, um die Evolution des Klimas zu beeinflussen.

Es gibt bei diesem Beschleunigungsprozess aber ein Problem. Die Ozeane reagieren in ganz anderen Zeitmaßstäben auf Änderungen in der Atmosphäre. Einige ozeanische Prozesse dauern Tausende Jahre. Ob also die Verkürzung des Zeitraumes reale Klimabedingungen erzeugen kann, bleibt fraglich.

Ihr Vorgehen:

Ziel dieser Studie ist es, das physische Klima von Atmosphäre und Ozeanen während des letzten Eiszeit-Zyklus’ zu untersuchen. Zusammen mit Änderungen der Sonneneinstrahlung infolge Variationen des Erdorbits um die Sonne betrachten wir die Eisschilde der Nordhemisphäre und Änderungen der Zusammensetzung von Treibhausgasen als externe Antriebs-Faktoren des Klimasystems, die wir als Grenzbedingungen spezifizieren, entweder getrennt oder in Kombination. Änderungen der Sonnenaktivität, das Eis in der Antarktis, die Vegetation, Meeresströme oder Schmelzwasserflüsse aus den sich bildenden Eisschilden sind in diesen Simulationen nicht enthalten. Unser experimenteller Aufbau ist daher in gewisser Weise vereinfacht, wobei bestimmte potentielle Klima-Rückkopplungen ausgeschlossen sind. Obwohl dies teilweise dazu führt, dass in dieser Version von FAMOUS bestimmte Prozesse fehlen oder nur sehr schwach modelliert werden, erlaubt es uns diese Vereinfachung, den Einfluss spezifizierter Antriebe besser zu erkennen, ebenso wie die Sicherstellung, dass sich die Simulationen eng an das reale Klima anlehnen.

Noch einmal zur Verdeutlichung der Kernpunkte dieser Modellierung:

1. Ein vollständiges GCM wird verwendet, jedoch mit reduzierter räumlicher Auflösung.

2. Die Antriebe werden um einen Faktor 10 beschleunigt im Vergleich zur Realität.

3. Zwei der eingehenden grundlegenden Antriebe sind in Wirklichkeit Rückkopplungen, die man spezifizieren muss, um das Modell zum Laufen zu bringen – das heißt, das Modell kann nicht diese beiden kritischen Rückkopplungen simulieren (CO2 und Ausdehnung der Eisschilde).

4. Es wurden 5 verschiedene Simulationen durchgeführt, um die Auswirkungen verschiedener Faktoren zu erkennen:

a) Nur orbitaler Antrieb (ORB)

b) Nur Antrieb durch Treibhausgase (GHG)

c) Nur Ausdehnung der Eisschilde (ICE)

d) Alle drei zusammen mit 2 unterschiedlichen Eisschild-Rekonstruktionen (ALL-ZH & ALL-5G – man beachte, dass ALL-ZH die gleiche Eisschild-Rekonstruktion aufweist wie ICE, während ALL-5g eine andere hat).

Die modellierten Temperaturergebnisse im Vergleich zu tatsächlichen Temperaturen für die Antarktis und Grönland (Schwarz) sehen so aus:

 

Abbildung 1: Temperaturunterschiede in vorindustrieller Zeit in der Ostantarktis (oben) und Grönland (unten). Aus Smith & Gregory 2012

Hier gibt es viele interessante Punkte.

Betrachten wir zunächst die Antarktis. Man erkennt, dass orbitale Antriebe allein sowie die Eisschilde der Nordhemisphäre allein wenig oder gar keinen Einfluss auf die Modellierung der Temperaturen in der Vergangenheit haben. Aber die Treibhausgaskonzentrationen selbst als Antrieb zeigen eine modellierte Temperatur, die etwa ähnlich der letzten 120.000 Jahre ist – unabhängig von Temperaturvariationen mit höherer Frequenz, worauf wir später noch eingehen. Fügen wir die Eisschilde der Nordhemisphäre hinzu, bekommen wir sogar eine noch größere Übereinstimmung. Ich bin überrascht, dass die Eisschilde angesichts der Menge an Sonnenstrahlung, die sie reflektieren, nicht noch größeren Einfluss haben.

Sowohl Treibhausgase als auch Eisschilde kann man in der Wirklichkeit als positive Rückkopplungen betrachten (obwohl sie in diesem Modell spezifiziert sind). Für die Südpol-Region haben die Treibhausgase einen viel stärkeren Effekt.

Schauen wir auf Grönland, erkennen wir, dass der orbitale Antrieb wieder einmal für sich allein kaum eine Auswirkung zeitigt, während Treibhausgase und Eisschilde allein ähnliche Auswirkungen haben, individuell aber weit entfernt sind vom tatsächlichen Klima. Kombiniert man alle Antriebe sehen wir eine gute Übereinstimmung mit tatsächlichen Temperaturen bei einer Rekonstruktion und eine nicht so gute Übereinstimmung bei einer anderen. Dies impliziert: Bei anderen Modellen, die versuchen, die Dynamik der Eisschilde zu simulieren (anstatt sie zu spezifizieren), kann die Genauigkeit für den Erfolg der Modellierung kritisch sein.

Wieder einmal erkennen wir, dass Temperaturvariationen höherer Frequenz überhaupt nicht gut simuliert werden, und selbst bei Variationen mit geringerer Häufigkeit – zum Beispiel von vor 110.000 bis 85.000 Jahren – fehlt eine ziemliche Menge Variabilität (in dem Modell).

Die Autoren schreiben:

Die EPICA-Daten (Antarktis) zeigen, dass die Temperatur relativ zu ihren jeweiligen längerzeitlichen Trends stärker zurückging als das CO2 während dieser Zeit (vor 120.000 bis 110.000 Jahre), aber in unseren Experimenten sinken die simulierten Antarktis-Temperaturen gleichlaufend mit CO2. Dies zeigt, dass in unserem Modell eine wichtige Rückkopplung fehlt, oder dass unser Modell vielleicht über-sensitiv hinsichtlich CO2 ist und unter-sensitiv hinsichtlich eines der anderen Antriebsfaktoren. Tests des Modells, bei denen die Antriebe nicht künstlich beschleunigt wurden, schließen die Möglichkeit aus, dass die Beschleunigung ein Faktor ist.

Abrupte Klimaänderung

Was ist mit den Temperatursignalen höherer Frequenz? Die Grönland-Daten zeigen eine viel höhere Größenordnung als die Antarktis bei dieser Frequenz, aber keine von beiden wird in den Modellen reproduziert.

Der andere auffällige Unterschied zwischen dem Modell und der NGRIP-Rekonstruktion ist das Fehlen abrupter Ereignisse mit großer Amplitude im Zeitmaßstab von Jahrhunderten, die aus Eisbohrkernen hervorgehen. Man glaubt, dass periodische Fluten von Schmelzwasser der nordhemisphärischen Eisschilde und die nachfolgende Störung ozeanischer Wärmetransporte in diese Ereignisse involviert sind (Bond et al. 1993, Blunier et al. 1998), und das Fehlen von Schmelzwasserabflüssen in unserem Modell ist möglicherweise einer der Hauptgründe, warum wir sie nicht simulieren können.

Die Autoren gehen dann noch etwas näher darauf ein, da diese Geschichte keineswegs settled ist, und kommen zu dem Ergebnis:

Alles in allem zeigt das Fehlen sowohl Jahrtausende langer Warnereignisse im Süden und abrupter Ereignisse im Norden sehr deutlich, dass in unserem Modell eine wesentliche Rückkopplung mit ziemlicher Bedeutung fehlt.


CO2-Rückkopplung

Die Prozesse, die dazu führen, dass hinreichende Mengen Kohlenstoff in den Tiefen der eiszeitlichen Ozeane abgelagert werden, um die in den Eisbohrkernen erkennbaren atmosphärischen CO2-Konzentrationen zu erzeugen, sind nicht sehr gut verstanden. Sie wurden bis heute noch nicht von einem realistischen gekoppelten Modell erfolgreich simuliert. FAMOUS, in dieser Studie verwendet, enthält ein einfaches Biogeochemie-Modell, obwohl es nicht auf die Antriebe in diesen Simulationen reagiert, eine zusätzliche Aufnahme von Kohlenstoff aufzunehmen. Eine weitere FAMOUS-Simulation mit interaktivem atmosphärischem CO2 hat keinerlei signifikante Änderungen des CO2-Gehaltes der Atmosphäre gezeitigt, wenn orbitale Variationen und wachsende Nord-Eisschilde als Antrieb wirksam waren.

Die genaue Modellierung eines Eiszeitzyklus‘ erfordert eine signifikante Zunahme unseres Verständnisses der involvierten Prozesse und nicht einfach die Einbeziehung von ein wenig mehr Komplexität in das jetzige Modell.

Schlussfolgerung

Dies ist eine sehr interessante Studie, die einige Erfolge hervorhebt, Grenzen der Rechenkapazitäten aufzeigt sowie kaum verstandene sowie fehlende Rückkopplungen in Klimamodellen. Die Tatsache, dass 120.000 Jahre Klimageschichte mit einem vollständigen GCM simuliert werden konnten, ist schön zu sehen. Das Fehlen abrupter Klimaänderungen in der Simulation, das Scheitern, die rasche Temperaturabnahme zu Beginn der Auslösung einer Eiszeit nachzuvollziehen und die fehlende Fähigkeit der Modelle, wichtige Rückkopplungen zu modellieren, zeigen alle zusammen, dass Klimamodelle, zumindest soweit es die Eiszeiten betrifft – noch in den Kinderschuhen stecken. (Das heißt nicht, dass sie nicht ausgereift sind, sondern dass das Klima ein wenig hinterhältig ist).

Anmerkung 1: FAMOUS

Die Ozean-Komponente basiert auf dem rigid-lid Cox-Bryan-Modell (Pacanowski et al. 1990) und läuft mit einer Auflösung von 2,5° Breite mal 3,75° Länge mit 20 verschiedenen Schichten. Die Atmosphäre basiert auf den primitiven Gleichungen mit einer Auflösung von 5° Breite mal 7,5° Länge mit 11 verschiedenen Schichten.

Die XDBUA-Version von FAMOUS (hiernach einfach FAMOUS genannt; siehe Smith et al. 2008) hat ein vorindustrielles Kontrollklima, das in geeigneter Weise dem von HadCM3 gleicht, obwohl FAMOUS in hohen Breiten der Nordhemisphäre im Winter eine Kalt-Verzerrung von etwa 5°C aufweist im Vergleich zu HadCM3 (gemittelt nördlich von 40°N). Als Folge wird die winterliche Eisausdehnung im Nordatlantik überschätzt.

Die globale Klimasensitivität von FAMOUS auf eine Zunahme des atmosphärischen CO2-Gehaltes jedoch ist ähnlich der von HadCM3.

Bei FAMOUS gibt es eine Reihe von Unterschieden im Vergleich zu HadCM3 mit dem Ziel, die Klimasimulation zu verbessern. So wurde zum Beispiel Island entfernt (Jones 2003), um einen stärkeren Wärmetransport im Nordatlantik zu erzielen. Smith und Gregory zeigen, dass die Sensitivität der Atlantic meridional overturning circulation (AMOC) hinsichtlich Störungen in dieser Version von FAMOUS etwa in der Mitte der Bandbreite liegt im Vergleich mit vielen anderen gekoppelten Klimamodellen. Das in dieser Studie verwendete Modell unterscheidet sich von XDBUA FAMOUS dadurch, dass zwei technische Bugs im Code festgemacht worden sind. Flüsse von latenter und fühlbarer Wärme aus dem Ozean wurden fälschlich als Teil der Kopplungs-Routine angesehen, und Schnee, der auf Meereis an Küsten fällt, ist dem Modell verloren gegangen. Die Korrektur dieser Fehler führte zu einer zusätzlichen Kalt-Verzerrung von einem Grad oder so in Küstengebieten hoher Breiten in Bezug auf XDBUA, doch gab es keine wesentlichen Änderungen der Modell-Klimatologie. Außerdem wurde die grundlegende Topographie des Festlandes in diesen Läufen aus den modernen Werten des ICE-5G-Datensatzes interpoliert (Peltier 2004). Sie unterscheidet sich in gewisser Weise von der von der US-Navy abgeleiteten Topographie in Smith et al (2008) und HadCM3.

Link: http://scienceofdoom.com/2013/12/31/ghosts-of-climates-past-part-nine-gcm-iii/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/




Fracking? Ja bitte!

„Deutschland sollte die Chance wahrnehmen, mit der Technik des „Fracking“ das in Deutschland vorhandene Schiefergas, auch nicht-konventionelles Erdgas genannt, zu fördern. Auf diese Weise könnten die zur Neige gehenden deutschen konventionellen Erdgasvorräte über einen langen Zeit­raum ersetzt werden.“ Das sagt der Präsident der Bundesanstalt für Geowissenschaften und Roh­stoffe, Hans-Joachim Kümpel, in der RBB- Sendung zu Gast bei Ingo Kahle, kürzlich berichtet in EIKE.

BGR-Präsident Kümpel hat recht! Aus geologischen Gründen, die hier nicht erläutert werden können, ist die Menge an Erdöl und Erdgas, die sich in dichten Gesteinen befinden und deshalb nur mittels Fracking gefördert werden können, sehr viel größer als jene in den durchlässigen Gesteinen, aus denen bisher vor allem gefördert wurde. Diese öl- und gashaltigen dichten Gesteine werden noch für lange Zeiten Öl und Gas liefern, und es wäre ein Fehler, sich an der Weiterentwicklung dieser Fördertechnologie nicht zu beteiligen und sie nicht zu nutzen.

Die Befürchtungen für unser Trinkwasser sind unberechtigt, denn zwischen den Grundwasserlager­stätten –  meistens oberhalb 100 m Tiefe –  und den öl- und gashaltigen Schiefern in Tiefen von vielen hundert Metern lagern dichte Gesteine. Die Wassergewinnung im Ruhrgebiet beweist dies beispielhaft: Auch Rhein, Ruhr und Lippe haben in Jahrtausenden Kiese und Sande abgelagert, die das versickerte Regenwasser als Grundwasser speichern. Daraus fördern wir unser Wasser – sogar gut genug zum Bierbrauen: KÖPI, eines der Könige der Biere, wird in Duisburg gebraut, dort, wo Thyssen-Krupp Stahl produziert. Tief dar­unter wurde Kohle abgebaut. Der Bergbau hat den Untergrund unter dem Ruhrgebiet mit seinen Schächten und Stollen ausgehöhlt. Unsere Wasserversorgung aus den oberflächennahen Flussabla­gerungen ist nicht beeinträchtigt. Beim Fracking werden in den tiefen Schiefergesteinen nur ge­schlossene Klüfte aufgebrochen und mittels Einpressen von Sandkörnern millimeterweit offen­gehalten.

Zum Mobilisieren des Erdöls werden Chemikalien benötigt. Es kommt darauf an, jene Chemikalien auszusuchen oder noch zu entwickeln, deren Verwendung schadlos bleibt. Wer Angst vor Chemie hat, sollte realisieren, was alles um uns herum Chemie ist: sowohl die Tabletten aus der Apo­theke als auch der Zucker im Kaffee oder das Salz, die Fette, Eiweiße oder Kohlehydrate unserer Speisen.  Auch die geschätzte und vielbenutzte Anti-Baby-Pille! Ihr Wirkstoff gelangt in den Was­serkreislauf und sammelt sich dort an. Weiß man wirklich, ob und wie er langfristig wirkt? Das stört uns aber nicht!

Wenn die Menschheit vor der Bronzezeit auf Bergbau verzichtet hätte, wären Faustkeile unsere Werkzeuge und wir Jäger und Sammler geblieben. Wie unwissend oder wie indoktriniert sind die Anhänger der ‚Pseudo-Ökologie-Religion‘, um nicht zu wissen, dass wir Menschen unsere wirtschaftliche und kulturelle Entwick­lung der Nutzung der Bodenschätze verdanken. In der Frühzeit brauchte man Metalle für Schwerter und Pflüge, heute u.a. für den Bau von Handys und Autos. Fracking zur Gewinnung von Erdöl und Erdgas, die man u.a. für die Herstellung von Medikamenten braucht, ist im Vergleich zum sehr opferreichen Erz- oder Kohlebergbau (etc.) die bisher ungefährlichste ‚Bergbau‘-Technologie. Leben ohne Risiko hat die Natur nicht zu bieten. Warum wohl grüßen sich Bergleute mit Glück auf  ??!

Weiterführende links:

Oettinger warnt Deutschland vor Schiefergas-Verbot




Die Kosten des Klimaänderungs-Alarmismus

Bild rechts: Im Geschäft ist ein Angebot mit einer drohenden ökonomischen Hölle, in der Hitze, Feuchtigkeit, Überschwemmungen, Brände und Hurrikane die USA heimsuchen werden, was die Menschen am Arbeiten hindert, weil die Bedingungen „buchstäblich unerträglich für die Menschen werden, die für eine Temperatur der Haut unter 95°F [ca. 35°C] sorgen müssen, um einen tödlichen Hitzschlag zu vermeiden“.

In einem Bericht mit dem Titel Time for Change? Climate Science Reconsidered warnt eine Gruppe bedeutender britischer Akademiker aus verschiedenen Disziplinen und in Verbindung mit dem University College London (UCL), dass „Angst-Apelle“ dazu führen könnten, dass sich die Menschen nach dem Motto „zu schlimm, um daran zu denken“ vom Thema Klima abwenden könnten.

Wenn das stimmt, sind US-Präsident Obama und seine Milliarden schweren Aktivisten-Freunde – Tom Steyer, Michael Bloomberg und andere – drauf und dran, ihre eigenen Kampagnen zu zerstören.

Ein ganzes Kapitel des UK-Berichtes – unter Leitung von UCL-Professor Chris Rapley – ist den „Konsequenzen von Angst-Apellen“ in der öffentlichen Meinung gewidmet. „Alarmistische Botschaften haben auch eine direkte Rolle gespielt beim Vertrauensverlust in die wissenschaftliche Gemeinde“, heißt es darin weiter. „Die Weigerung spezifischer Vorhersagen der Klimaänderung, sich zu materialisieren, erzeugt den Eindruck, dass die wissenschaftliche Gemeinschaft als Ganzes Zuflucht zur Proklamierung falscher Alarme nimmt. Wenn offensichtliche Fehlvorhersagen nicht adäquat erklärt werden, werden zukünftige Bedrohungen immer weniger glaubwürdig“.

All dies ist den Milliarden schweren US-Aktivisten Bloomberg und Steyer offenbar völlig neu. Vor ein paar Tagen veröffentlichten sie ihren eigenen Bericht mit dem Titel Risky Business: The Economic Risks of Climate Change in the United States, ein nationales Dokument der Angst-Induktion, das – wenn die britischen Wissenschaftler recht haben – der Gleichgültigkeit gegenüber dem Thema Klimaänderung in den gesamten USA Vorschub leisten könnte, wenn nicht sogar das Interesse langfristig völlig erlahmt.

Henry Poulson, ebenfalls Mitautor des Risky Business-Berichtes mit den zwei Milliardären, schrieb in Zusammenhang damit einen Kommentar in der New York Times mit der Schlagzeile „Der bevorstehende Klima-Zusammenbruch“ [„The Coming Climate Crash“]. Er nannte dies eine „Krise“ und warnte: „wir fliegen auf einem Kollisionskurs gegen einen riesigen Berg. Wir können den Zusammenbruch kommen sehen…“

Bislang jedoch haben sich nur wenige Amerikaner angeschnallt. Risky Business ist ein Katalog einer drohenden ökonomischen Hölle, in der Hitze, Feuchtigkeit, Überschwemmungen, Brände und Hurrikane die USA heimsuchen werden, was die Menschen am Arbeiten hindert, weil die Bedingungen „buchstäblich unerträglich für die Menschen werden, die für eine Temperatur der Haut unter 95°F [ca. 35°C] sorgen müssen, um einen tödlichen Hitzschlag zu vermeiden“.  Noch nie gab es solche Bedingungen in den USA, aber der Bericht warnt, dass derartige Tage zum Ende des Jahrhunderts und darüber hinaus zur Regel werden könnten.

Seite für Seite wird gewarnt vor ökonomischen Katastrophen infolge der verloren gegangenen Fähigkeit zu arbeiten und wegen des Anstiegs des Meeresspiegels. Immer wieder genannt werden auch eine höhere Sterberate, abnehmende Ernten, Flutwellen und Energie-Unterbrechungen. Die Zahl der verloren gehenden Werte wird bis über eine Billion Dollar angegeben. Beispiel: Bis zum Jahr 2100 wird sich Landbesitz im Wert bis zu 700 Milliarden Dollar unter dem Meeresspiegel befinden.

Risky Business wurde gefördert von den Bloomberg Philanthropies, den Rockefellers, Hank Poulson und dem TomKat Charitable Trust, der gemeinnützigen, von Tom Steyer finanzierten  Haupt-Operation. Steyer ist der ehemalige Investment-Manager, der den Kampf gegen die kanadische Keystone XL-Pipeline zu seinem persönlichen Kreuzzug gemacht hat.

Absicht dieser wohlhabenden grünen Aktivisten ist es, Präsident Obamas fehlgeschlagene klimapolitische Agenda zu unterstützen. Der Präsident wird demnächst vor der League of Conservation Voters [etwa: Liga der Naturschutz-Wähler] eine Rede halten.

Bei seiner Rede vor den Naturschützern wird Obama auf den Jahrestag seiner Klimarede am 25. Juni 2013 an der Georgetown University hinweisen, eine schweißtreibende Angelegenheit, in der er jeden aufforderte, ihre Jacken auszuziehen, während er seinen Krieg gegen Kohlendioxid als ein „Gift“ erklärte.

Mr. Obama wird auch seine neue Anti-Kohle-Politik bekräftigen und die in den jüngsten US-Regierungsberichten enthaltenen alarmistischen Warnungen hinsichtlich der drohenden Klimakatastrophe wiederholen.

Unglücklicherweise für Mr. Obama steht die amerikanische Alarm-Maschine vor drei überwältigenden Hindernissen. Das größte davon ist, dass der Alarm in der Welt der Entwicklungsländer keinerlei Widerhall findet, wo man die Klimaänderung – zumindest soweit diese überhaupt ein Thema ist – als sekundär in Bezug auf die wirtschaftlichen Aussichten betrachtet.

Indiens Umweltminister Prakash Javadekar sagte vor kurzem, dass Wachstum in Indien höher stehe als das Klima. „Tatsächlich ist es so, dass … Indien und andere Entwicklungsländer das Recht auf Wachstum haben“, zitiert ihn die Times of India. Als Folge werden die indischen Kohlenstoff-Emissionen in Zukunft zunehmen, und das Land wird nichts gegen die Klimaänderung unternehmen, solange nicht die Armut ausgerottet ist.

Wie weit werden die US-Wähler Washington gewähren lassen, bevor die USA Armut ausgerottet haben?

Die ganze Geschichte (d. h. zwei kleine Absätze fehlen noch)

Link: http://www.thegwpf.org/terence-corcoran-the-cost-of-climate-change-alarmism/

Übersetzt von Chris Frey EIKE




Die GroKo macht ernst: Notfallvorsorge für den selbst verantworteten und gemachten Blackout wird bald Gesetz.

Unser Leser arbeitet seit mehreren Jahrzehnten in der Lebensmittelwirtschaft. Sein Verband – der Bundesverband der Agrargewerblichen Wirtschaft e.V – schreibt ihm jetzt Auszug:

Die Lebensmittelwirtschaft zählt, aufgrund ihrer Rolle zur Lebensmittelversorgung der Bevölkerung, zu diesen sogenannten kritischen Infrastrukturen. 

Das BMEL bittet vor diesem Hintergrund, die in der Lebensmittelwirtschaft tätigen Unternehmen,  Informationen zu den vorhandenen Notstrom-Kapazitäten bereitzustellen.  Bitte entnehmen Sie alle weiteren Informationen dazu dem angehängten Rundschreiben.

Bundesverband der

Agrargewerblichen Wirtschaft e.V.

Beueler Bahnhofsplatz 18 – 53225 Bonn

Postfach 301 655 – 53196 Bonn

www.bv-agrar.de

Im Rundschreiben steht (siehe pdf Anlage) -Auszug- 

In diesem Zusammenhang hat des BMEL den Dachverbänden der Lebensmittelwirtschaft zum Thema „Notstromversorgung im Bereich kritischer Infrastrukturen für den Sektor Ernährung“

folgende Fragen gestellt:

1. Welche stationären Netzersatzanlagen sind zur Eigenvorsorge der Unternehmen installiert? (Anzahl und Kapazitäten)

2. Welche mobilen Netzersatzanlagen werden von den Unternehmen vorgehalten? (NEA ab 75 kVA; Anzahl und Kapazitäten)

3. Welche Notfallpläne hinsichtlich eines langanhaltenden und großräumigen

Stromausfalls liegen bei den Unternehmen vor? (Bezogen auf Organisation und

Personal)

4. Liegt ein Notfallplan bei den Zulieferern der Unternehmen vor?

Angesichts der Relevanz des Anliegens bitten wir Sie um Beantwortung oben genannter Fragen.

Wir werden die Antworten sammeln und in anonymisierter Form an das BMEL weitergeben. Das

Ergebnis der Abfrage beruht auf freiwilligen Angaben und kann kein vollständiges Bild der Branche darstellen. Wir werden dies entsprechend gegenüber dem BMEL darstellen. Aufgrund der vom BMEL genannten Frist, bitten wir um Ihre Rückmeldungen bis zum 15. August 2014. 

So wie diesem Leser wird es wohl bald sehr vielen Betrieben gehen, die neben den immensen Kosten der Energiewende, nun auch noch die Kosten für ihre Absicherung gegen diese, von der Regierung planmäßig durchgeführter Zerstörung der Energieinfrastruktur, zu schultern haben.  

Wie wir zudem aus sicherer Quelle erfahren haben, bereiten sich derzeit viele regionale Versorger auf großflächige Stromausfälle in ihren Versorgungsgebieten vor. Diese Vorbereitung geschieht aber im geheimen, da man die bisher sorg- und ahnungslose Kundschaft nicht beunruhigen will.

Denn das würde uns erwarten. Ein nur einstündiger bundesweiter Blackout würde nach Schätzungen von Experten bereits heute mit rd. 600 Mio € [1]zu Buche schlagen. Von den vielen Toten und Verletzten die infolge des Zusammenbrechens allein der Verkehrsinfrastuktur zu beklagen wären, noch nicht gesprochen

Und die Energiewende steuert Deutschland in rasantem Tempo auf dieses -vor wenigen Jahren noch völlig undenkbare- Schreckens-Scenario zu. Gab es vor einigen Jahren in ganz Deutschland nur ca. 3-4 ernsthafte Störungen (> 15 sec, kürzere wurden bislang nicht erfasst) des Elektrizitätsnetzes, im Jahr, so wurden bereits im Jahr 2012 knapp 1000 [2] davon gezählt. Die Zahl für 2013 wurde noch nicht veröffentlicht, doch kleiner wurde sie bestimmt nicht. Dieses Jahr wird sich die Zahl weiter deutlich erhöhen, das steht schon fest.

Nachtrag heute durch Leser H. Becker:

Hier sind ein paar "reale Fakten": Vom 01. Jan. bis gestern 04. Juli 2014, 15.00 Uhr gab es im deutschen Stromnetz 1854 Redispatch-Maßnahmen, im Durchschnitt 10 pro Tag. Dabei waren z. B. allein am 16.Febr. 27 Eingriffe (Gesamtleistung ca. 14 GW, Gesamtenergie ca. 51,5 GWh)erforderlich.

Damit wird immer klarer, dass die deutsche Regierung mittels der Energiewende einen unerklärten Krieg gegen das eigene Volk führt. Geplante Rationierung (Abschaltung von Großverbrauchern bei selbst herbeigeführten Engpässen) und Notfallplanung für kurzfristig erwartete, wiederum selbst herbeigeführte Katastrophen, und das alles in Friedenszeiten ohne äußere Bedrohung, sprechen eine deutliche Sprache. Dabei spielt es keine Rolle, dass scheinbar große, aber in dieser Sache völlig ahnungslose Teile der Bevölkerung dieses Landes, diese Energiewende zu wollen vorgibt. Sicher ist, deren zwangsläufigen Folgen wollen sie bestimmt nicht.

Es wird daher höchste Zeit diesen Wahnsinn zu beenden, bevor der Schaden irreparabel groß wird.


[1] Quelle: http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

[2]Quelle: Handelsblatt und http://www.finanznachrichten.de/nachrichten-2013-01/25786072-netzbetreiber-kaempfen-zunehmend-gegen-blackouts-003.htm

Related Files




Arktische Schummel-Fabrik der NASA: „Über die Hälfte“ der behaupteten Erwärmung in der Arktis kommt durch „Daten-Anpassungen“ zustande

Schummelt GISS auch in der Arktis?

Ed Caryl

Vor fast vier Jahren habe ich den Artikel A Light In Siberia [auf Deutsch bei Science Skeptical am 30. Dezember 2010 hier] geschrieben, in dem ich 24 Wetterstationen in der Arktis betrachtet habe. Die jährliche Mitteltemperatur für jene Stationen hatte ich von GISStemp heruntergeladen. Im Lichte der ganzen Kontroverse in letzter Zeit über Datenkorruption durch „Anpassungen“ [adjustments] habe ich mich entschlossen, noch einmal die GISS-Daten von 19 dieser Stationen zu betrachten, für die ich die jährlichen Zahlen behalten habe, und auf Änderungen zu untersuchen. Außerdem gibt es da noch die Divergenz, vor allem in arktischen Breiten, zwischen GISS LOTI und den Satelliten-Temperaturmessungen. Hierzu habe ich im November letzten Jahres etwas geschrieben.

Ist also die ganze Erwärmung in der Arktis real?

Abbildung 1: jährliche Temperaturanomalie für Festland und Ozean nördlich von 60°N.

Ich möchte Sie nicht mit den individuellen 19 Plots dieser Änderungen langweilen (siehe Abbildung 3), sondern zeige hier lediglich ein vielleicht illustratives Beispiel, nämlich Barrow in Alaska. Die Station liegt am Flughafen, auf der anderen Seite der Rollbahn als das Terminal und die Hangars, aber nahe der asphaltierten Rollbahn. Es könnte eine Verlagerung im Jahre 1989 gegeben haben, was eine Entschuldigung für die große Diskontinuität zu jener Zeit liefern würde, aber es gibt keine Entschuldigung für die konstante Korrektur nach oben, also in die gleiche Richtung wie die gut dokumentierte Temperaturzunahme durch den städtischen Wärmeinseleffekt bei Barrow.

Abbildung 2: Plot der jährlichen Temperatur in Barrow, Alaska, heruntergeladen im August 2010 und Juni 2014 sowie der Unterschied zwischen diesen beiden Datensätzen. Dies ist lediglich die Anpassung, die man während der letzten 3 Jahre und 9 Monate angebracht hatte.

Abbildung 3: Plot aller Anpassungen für alle 19 Stationen

Die unterschiedlichen Plots für die meisten anderen Stationen sehen wie Rauschen aus mit gelegentlichen großen Sprüngen, aber die Anpassungen für die zweite Hälfte des 20. Jahrhunderts sind fast immer wärmer. Der nächste Plot zeigt den Mittelwert.

Abbildung 4: Plot des Mittelwertes aller Anpassungen, die GISS während der letzten 3 Jahre und 9 Monate, die GISS an die Werte von 19 Stationen in der Arktis angebracht hat.

Noch einmal: Dies sind lediglich die „Anpassungen“ oder „Korrekturen“, die GISS während der letzten drei Jahre und 9 Monate an 19 Stationen in der Arktis angebracht hatte. Ich habe keine Ahnung, was man vor August 2010 getan hat.

Man beachte die Trendlinie in Abbildung 4. Diese Änderungen  der Daten in jüngster Zeit haben mehr als die Hälfte zu der gesamten Erwärmung beigetragen, zu der es seit dem Höhepunkt der Kleinen Eiszeit gekommen ist und zu einem Drittel der Unterschiede zwischen GISS LOTI und RSS wie in Abbildung 1 gezeigt.

Es kann sein, dass wir niemals erfahren werden, wie die wirkliche Temperaturänderung ausgesehen hat.

Mehr: http://notrickszone.com/2014/07/01/nasas-arctic-fudge-factory-more-than-half-of-claimed-arctic-warming-stems-from-data-adjustments/#sthash.fsy5GhDs.dpuf

Link: http://notrickszone.com/2014/07/01/nasas-arctic-fudge-factory-more-than-half-of-claimed-arctic-warming-stems-from-data-adjustments/

Übersetzt von Chris Frey EIKE




Kapazitätsmärkte — Markt- oder Planwirtschaft?

Das Besondere des Strommarktes

Die Gewinnung und Verteilung elektrischer Energie ist außergewöhnlich kapitalintensiv. Kraftwerke und Stromnetze kosten Milliarden. Sie sind anschließend für Jahrzehnte nutzbar. Nur durch die Verteilung der Kosten auf viele Jahre, ist das Produkt elektrische Energie überhaupt zu geringen Preisen lieferbar. Doch genau darin besteht das außerordentliche betriebswirtschaftliche Risiko: Niemand kann den genauen Bedarf in Jahrzehnten voraussagen.

Zu Beginn der Elektrifizierung ist man deshalb sehr schnell zu staatlich regulierten Monopolen übergegangen. Besonders bei der Verteilung (Leitungsnetze) erscheint es noch heute sinnvoll, an jedem Ort nur ein Netz zu betreiben. Die ist ein echtes Alleinstellungsmerkmal. In wie weit, dieses Gebietsmonopol wirklich natürlich oder eher politisch gewollt ist, sei dahingestellt. So geht z. B. in der Telekommunikation der Trend durchaus zu (zumindest auf Teilstrecken) parallelen Leitungen oder bei Erdgas zu parallelen Systemen (Pipeline und LNG). In der Stromwirtschaft dagegen, wird jede Diversifizierung sofort im Keim erstickt. Jüngstes Beispiel ist die nachträgliche Belastung von Eigenerzeugung mit staatlichen Abgaben.

Seit je her, hat man versucht das Dilemma zwischen hohen Fixkosten und (teilweise) sehr geringen variablen Kosten durch Leistungs- und Energiepreise abzubilden. Einzige Ausnahme waren die Kleinverbraucher (Haushalte), bei denen Aufwand und Nutzen in keinem Verhältnis zueinander standen. Der Leistungspreis deckte dabei einen erheblichen Anteil der Fixkosten bei Erzeugung und Verteilung ab. Er genügte folgenden Anforderungen:

·       Als spezifischer Preis — Leistung (kW), die in einem Abrechnungszeitraum bezogen wird — bot er dem Verbraucher einen unmittelbaren Anreiz, seine gezogene Leistung möglichst klein zu halten und zu vergleichmäßigen. Früher nannte man so etwas Spitzenstromoptimierung, heute wird der alte Wein neudeutsch als "smart grid" verkauft. Wichtig war die unmittelbare Verknüpfung von Leistung mit Kosten: Wer verschwenderisch mit den volkswirtschaftlichen Investitionen fürs Netz umging, mußte unmittelbar entsprechend mehr bezahlen. Eine sehr wirksame Methode, da der Leistungsanteil im Normalfall etwa die Hälfte der Stromrechnung betrug.

·       Das Investitionsrisiko wurde zwischen Kunde und Lieferant aufgeteilt: Wurde nur selten die geforderte Leistung vom Kunden bezogen, stieg der Leistungsanteil an seiner Stromrechnung merklich an. Ein Leben auf Kosten der Allgemeinheit — wie es heute gern von Besitzern von Photovoltaikanlagen propagiert wird — war in diesem System nicht vorgesehen. Wer nur für wenige Stunden seine elektrische Energie aus dem öffentlichen Netz bezieht, muß indirekt über seinen Leistungspreis für seine Kilowattstunden einen Preis von mehreren Euro bezahlen. Die Propaganda von der bald erreichten "Netzparität" stellt sich als genauso hohler Werbeslogan wie "Die Sonne schickt keine Rechnung" heraus. Wenn Netzparität, dann aber bitte nur mit Leistungspreis (auch Bereitstellungspreis genant) oder eigener Batterieanlage für Dunkelheit.

·       Der Leistungspreis war bezüglich des Netzes verursachergerecht. Wer nur das Hochspannungsnetz bzw. Mittelspannungsnetz nutzte, hatte auch unterschiedliche Preise zu entrichten. Dafür mußte er die Transformatorenanlage selbst anschaffen und betreiben. Auch diese volkswirtschaftlich sehr sinnvolle Maßnahme, wird immer gern für Propaganda missbraucht: Es wird gern von billigem Strom für die Industrie gefaselt, weil man nur die Arbeitspreise (kWh) für Haushalte und "Großverbraucher" in Relation zueinander setzt.

Wie das Elend begann

In der guten alten Zeit, mußten sich die Energieversorger alle Preise vorher von dem zuständigen Regulierer genehmigen lassen. Dazu war es nötig, alle Kosten für Erzeugung, Vertrieb und Netznutzung offen zu legen. In wie weit so etwas überhaupt möglich ist, sei dahingestellt. Als Gegenwert erhielten sie das jeweilige Monopol.

Mit der Erschaffung der "Marktliberalisierung" — ironischerweise gerade durch Kräfte, die der Marktwirtschaft eher kritisch gegenüberstehen — mußte das System umgestellt werden. Man glaubte die Erzeugung (Kraftwerke) und das Netz problemlos voneinander trennen zu können. Warner, die vor der Problematik der Frequenzregelung und der Rosinenpickerei bei den Standorten warnten, wurden als Vertreter der "Monopolkräfte" abgebürstet. Man wollte politisch eine Strombörse durchsetzen. Man glaubte, einen Markt künstlich erschaffen zu können. Zu diesem Zweck erschuf man die Konstruktion von an einer Börse in Leipzig miteinander handelnden Erzeugern (Kraftwerke, Windparks etc.) und "Großverbrauchern" (industrielle Kunden, Vertriebsfirmen). Alle sonstigen Schwierigkeiten wurden dem "Netzbetreiber" auferlegt. Dieser sollte staatlich reguliert werden und würde sich als der Hort der Planwirtschaft erweisen. Er ist die Spielwiese der Politiker, das Ausführungsorgan der Planwirtschaft. Anders als im "real existierenden Sozialismus" konnten sich aber die Architekten der Planwirtschaft stets hinter den "bösen Kräften des Marktes" verstecken.

Sollte man nur noch Energie (kWh) handeln, mußten zukünftig alle Kosten durch den Energiepreis (€/MWh) abgedeckt werden. Bei der Unterteilung in "Marktanteil" und "Plananteil" war das nur über Zuschläge (Netzentgeld, EEG-Umlage etc.) möglich. Eine Systemumstellung mit fatalen Konsequenzen: Durch die faktische Abschaffung des Leistungspreises wurde das Verursacherprinzip bei den Kapitalkosten ausgehebelt. Zu allem Überdruss wurden aber teilweise Leistungspreise weiter erhoben, was zumindest in der Industrie zu völligen Fehlallokationen führt. Man hat — gewollt oder ungewollt — eine gewaltige Spielwiese für Schlangenölverkäufer aus allen gesellschaftlichen Bereichen geschaffen.

Die zwei Geburtsfehler der Strombörse

Eine Börse ist ein Marktplatz. Zwar ist im Internet-Zeitalter keine Präsenz der Händler mehr auf dem Parkett nötig, aber es gibt einen genau definierten Erfüllungsort. Für die Ölkontrakte über WTI (West Texas Intermediate) ist dies nach wie vor Cushing in Oklahoma USA. Egal wer, wo auf der Welt WTI-Kontrakte handelt, weiß, daß er noch die Transportkosten von seinem Verkaufspreis abziehen bzw. seinem Kaufpreis hinzurechnen muß. Natürlich wird keine physische Ware erst von Rotterdam nach Cushing transportiert und von dort wieder nach Frankfurt. Vielmehr zieht der Verkäufer in Rotterdam die Transportkosten vom Cushing-Preis ab und der Abnehmer in Frankfurt rechnet seine Transportkosten hinzu. Üblich ist nun, daß man sich die Differenz teilt und mit den tatsächlichen Transportkosten von Rotterdam nach Frankfurt verrechnet. Hört sich kompliziert an, ist aber in der Praxis hoch effektiv, weil erst dadurch neue Transportwege entdeckt oder geschaffen werden. Als Beispiel mag nur die Verflüssigung von Erdgas als Alternative zum Rohrleitungstransport dienen. Bei der Strombörse meinte man nun mit "virtuellen Handelsräumen" arbeiten zu können. Inzwischen spricht es sich aber herum, daß auch neue Stromtrassen Milliarden kosten. Es ist eben keinesfalls egal, wann und wo eine Lieferung vollzogen wird. In Deutschland war man aus politischen Gründen ausdrücklich für eine "Briefmarkenlösung". Es sollte kein Unterschied bei den Transportkosten geben — egal ob der Strom für München aus dem Kernkraftwerk in der Nähe oder aus dem Windpark bei Helgoland stammt. Wo ein politischer Wille ist, soll auch eine Stromtrasse gebaut sein. Die Kosten dafür, zahlt ja die Allgemeinheit über die "Netzumlage". Jeder Kohlenhändler würde nur ungläubig mit dem Kopf schütteln, wenn man ihm erzählen wollte, es sei gleich teuer, ob die Kohle aus Ibbenbüren oder Südafrika geliefert wird. Aber darin unterscheiden sich eben reale Märkte von politischen Kopfgeburten.

Der zweite Geburtsfehler war die Zusammenfassung zweier völlig verschiedener Produkte zu einem Handelsprodukt. Konventioneller Strom — egal ob aus Kernkraft-, Kohle oder Gaskraftwerken — ist zu jedem Zeitpunkt ein physikalisch darstellbares Produkt, "Flackerstrom" aus Wind- und Sonnenenergie hingegen, ist bestenfalls über den Wetterbericht abschätzbar — so, als würde man Schweinehälften mit Roulett zu einem Handelsprodukt vereinen. Die garantierte Lieferbarkeit ist aber die Grundfeste einer jeden Börse. Wie hat man nun das Problem für die Strombörse gelöst? Immer wenn Produktion und Abnahme nicht genau im Gleichgewicht sind, ändert sich die Netzfrequenz. Für die Einhaltung der Frequenz ist aber der Netzbetreiber zuständig. Mit anderen Worten: Jedes mal, wenn ein Verkäufer (Windpark) seine Ware gar nicht liefern kann, muß der Netzbetreiber einspringen. Er muß nun sehr teuer, weil kurzfristig, die fehlende Leistung besorgen. Die Kosten hierfür, darf er über die Netzentgelte auf die Allgemeinheit abwälzen. Wie lange würde wohl eine reale Börse existieren, wenn ständig gar nicht geliefert werden könnte? Entweder würden sich die Handelsteilnehmer frustriert zurückziehen oder die Versicherungsprämien für Lieferausfälle würden jeden Handel ad absurdum führen. Wie weit, die Strombörse von realen Börsen entfernt ist, ist schon jedem Laien durch die negativen Preise ersichtlich.

Merit Order

Die Kosten der Erzeugung elektrischer Energie lassen sich als Fixkosten (Kapitalkosten, Personalkosten etc.) und variable Kosten (praktisch nur Brennstoffkosten) darstellen. Trägt man die Brennstoffkosten in einem Diagramm auf, ergibt sich eine Kurve, die im Nullpunkt beginnt (Wind und Sonne), erst sehr flach ansteigt (Kernenergie), dann immer steiler wird (von Braunkohle über Steinkohle), um dann sehr steil (Erdgas) zu enden. Ob ein Kraftwerk nun läuft oder nicht, die Fixkosten (insbesondere sind das die Kapitalkosten) bleiben immer gleich. Ob man es in Betrieb setzt, hängt also vom Verhältnis des momentan erzielbaren Strompreises zu den eigenen Brennstoffkosten ab.

Ein Beispiel mag dies verdeutlichen: Beträgt der Strompreis an der Börse 32 €/MWh ergibt sich für ein Gaskraftwerk mit einem Wirkungsgrad von 50% Grenzkosten bei einem Erdgaspreis von 16 €/MWh. Bei diesem Strompreis und Erdgaspreis könnte es gerade seine Brennstoffkosten wieder einfahren. Ist der erzielbare Strompreis geringer oder der Gaspreis höher, lohnt es sich, das Kraftwerk außer Betrieb zu setzen um weitere Verluste zu vermeiden.

Der erzielbare Strompreis gilt aber nun für alle Kraftwerke. Jedes Kraftwerk muß nun seine Brennstoffkosten ermitteln. Man kann jetzt die Kraftwerke in einer Liste mit steigenden Brennstoffkosten sortieren. Das muß täglich geschehen, da die Brennstoffpreise  schwanken. Eine solche Liste bezeichnet man als "merit order". Alle Kraftwerke, die mit ihren individuellen Brennstoffkosten oberhalb des Grenzwertes (entsprechend dem Börsenpreis für Strom) liegen, würden mit jeder produzierten Kilowattstunde zusätzliche Verluste machen, aber alle Kraftwerke unterhalb des Grenzwertes würden nicht nur ihre Brennstoffkosten voll abdecken, sondern würden auch noch zusätzliche Einnahmen zur Abdeckung ihrer Fixkosten erzielen.

Aus diesem Zusammenhang ergibt sich auch eindeutig, warum in diesem System mit steigendem Anteil an "Erneuerbaren" auch ständig der Anteil an Strom aus Braunkohle größer werden wird. Momentan gilt der Einspeisevorrang für "Erneuerbare". Je nach dem, wie stark der Wind weht und die Sonne scheint, ist damit ein entsprechender Anteil an der insgesamt benötigten Strommenge vergeben. Lediglich der Rest bleibt für die anderen Kraftwerke übrig. Das ist politisch so gewollt. Die Strompreise an der Börse purzeln durch das Überangebot bis hin zu absurden negativen Preisen (Entsorgungsgebühren). Ausgerechnet Kernkraftwerke (die aber aus politischen Gründen abgeschaltet werden sollen) und moderne Braunkohlekraftwerke haben die mit Abstand geringsten Brennstoffkosten. Lange vorher, müssen (heute schon) auch modernste Erdgaskraftwerke und bald auch modernste Steinkohlekraftwerke abstellen.

Nicht zu unterschätzen ist in diesem Zusammenhang der Faktor Zeit. Jeden Tag, an dem ein Kraftwerk nicht laufen darf, schreibt es dunkelrote Zahlen. Andererseits können die Kraftwerke mit geringen Brennstoffkosten ihre Kredite weiter abbauen. Hat in diesem Sinne schon jemals ein Politiker oder Konzernlenker über die Konsequenzen nachgedacht, wenn demnächst die Brot-und-Butter-Kraftwerke zwangsweise abgeschaltet werden müssen. Der "Atomausstieg" wird noch richtig heiter werden.

Interessant sind auch die Auswirkungen auf Neuinvestitionen. Alle reden von einem Boom bei Gaskraftwerken. Sicherlich erfordern Gaskraftwerke die mit Abstand geringsten Investitionen. Insofern erscheint das betriebswirtschaftliche Risiko gering. Allerdings gilt das nur für niedrige Gaspreise (Putin läßt grüßen!) bei gleichzeitig hohen Strompreisen. Wer garantiert aber, daß die Strompreise an der Börse bald stark steigen? Was ist, wenn die Absatzmenge in Deutschland durch eine beschleunigte Deindustrialisierung schneller rückläufig ist, als allgemein erwartet wird? Was, wenn unsere Nachbarn mit billigem Strom — beispielsweise aus Kernkraftwerken — auf den deutschen Markt drängen?

Warum es keine Kapazitätsmärkte gibt

Die Grundvoraussetzung für einen Markt ist das aufeinandertreffen von Angebot und Nachfrage. Wo es gar keine Nachfrage gibt, kann auch kein Markt entstehen. Insofern ist der naturgegebene Markt, der Markt für elektrische Energie. Genauso wie es Märkte und Börsen für Diesel und Benzin gibt, aber keine Börse für Raffinerien. Alle politischen Kopfgeburten leiden an einem systembedingten "Nicht-funktionieren-können". Der Begriff Markt ist oft nur eine Verballhornung der Planwirtschaft. Typischer Vertreter dieser politischen Kategorie ist der Handel mit "CO2-Zertifikaten".

Entweder man ist für freie Märkte (nur Energie in €/kWh) oder man entscheidet sich wieder zur Rückkehr zum regulierten Markt (Bereitstellungspreis in €/kW und Energie in €/kWh nach individuellen Umständen). Jedes der beiden Systeme hat Vor- und Nachteile. Zu Märkten gehören untrennbar Unternehmer und unternehmerisches Risiko. In diesem Sinne kann sich ein Kraftwerk nicht von einer Eisdiele unterscheiden. Mit beiden kann man Geld verdienen. Aber für beide kann die falsche Einschätzung des Wetter-Risikos tödlich sein. Eine Eisdiele muß ihr Geld verdienen, wenn der Kunde Eis essen möchte. Nicht anders, kann es bei einem Kraftwerk sein. Der Spruch: "Man zahlt ja auch nicht nur für die Feuerwehr, wenn es brennt", ist die Denkweise eines Kombinatsleiters und nicht eines Unternehmers.

Es ist kein Zufall, daß ausgerechnet die "Stadtwerke", die massiv in Gaskraftwerke investiert haben, nun lautstark "Kapazitätsmärkte" fordern. Es ist der bekannte Ruf nach Subventionen. Ihr Problem, wenn sie irgendwann angefangen haben, an die eigene Propaganda von den "flexiblen" und "umweltfreundlichen" Gaskraftwerken zu glauben. Es ist in diesem Land scheinbar zum Volkssport für gewisse politische Kreise geworden, die Verbraucher immer weiter mit Abgaben zu belasten. Früher war man wenigstens so ehrlich, die eigenen politischen Wünsche aus den öffentlichen Haushalten — und damit über Steuern — abzudecken. Eine weitere "Kapazitätsabgabe" wird mit Sicherheit die Strompreise nicht senken.

Man sollte dem Markt endlich freien Lauf gewähren und unrentable Kraftwerke pleite gehen lassen. Es wird sich schon ein Käufer finden. Der kann dann anschließend auch billiger anbieten. Die Damen und Herren, die ignoriert haben, daß Kernbrennstoff und Kohle billiger als Erdgas sind, müssen sich halt einen neuen Job suchen. Auch das Warten auf höhere "CO2-Preise" wird sie nicht mehr retten können. Wenn man CO2 zu einem Schadstoff erklären will, wird man um Grenzwerte nicht umhin kommen. Präsident Obama macht es gerade vor.

"Kapazitätsmärkte" können die Randbedingungen nicht verändern:

·       Je mehr Wind und Sonne in den Markt gedrückt wird, um so mehr wird Angebot und Nachfrage auseinandergehen. Die unvermeidliche Folge sind immer stärker schwankende Strompreise.

·       Je stärker die Preise schwanken, um so höher muß der Risikoaufschlag werden. Das Niveau der Strompreise (in Deutschland) wird dadurch weiter steigen.

·       Je höher die Preise steigen, um so mehr setzen Ausweichbewegungen ein. Eine massive Abwanderung der Industrie ins Ausland wird stattfinden. Sollte das der heimliche politische Wunsch sein, dann weiter so.

·       Das Ausland wird dem deutschen Vorbild auf keinen Fall folgen. Man wird gerne die Arbeitsplätze übernehmen und wird auch gerne billigen Strom liefern. Schließlich schafft auch der Bau und Betrieb von Kraftwerken Arbeitsplätze.

·       Solange man das Prinzip der Grenzkosten (merit order) beibehält, ist die Schwankung (Volatilität) der Energiepreise immer größer als bei einem regulierten System mit Leistungs- und Energiepreisen. Ein "Kapazitätsmarkt" kann daran nichts ändern.

·       Ein "Kapazitätsmarkt", d. h. die Bezahlung für das reine Bereithalten eines Kraftwerks, ist eine Subvention. Es entsteht ein reiner Mitnahmeeffekt, der keine Senkung der Energiepreise zur Folge hat.

·       Eine Lösung ist nur auf europäischer Ebene unter Beachtung europäischen Rechts möglich. Ein weiterer Alleingang Deutschlands wird nicht toleriert werden. Dies gilt um so mehr das Netz durch zusätzliche Grenzkopplungen verstärkt wird.

·       Die Volatilität wird durch den weiteren Ausbau der "Regenerativen" immer weiter zunehmen. Ein "Kapazitätsmarkt" kann ohnehin nur einen etwaigen Mangel an Leistung, nicht aber den Überschuß (wenn der Wind mal kräftig weht oder die Sonne großräumig scheint) beeinflussen.

·       Eine Kaltreserve war immer schon üblich. Was geschieht mit dem "Kapazitätsmarkt", wenn die Gaspreise einmal (relativ) sinken sollten? Werden dann die erhaltenen Subventionen an die Verbraucher zurückgezahlt?

·       Je länger man das Eingeständnis, daß die "Energiewende" ein Fehler ist, hinauszögert, um so mehr Zwangsabgaben sind nötig: Es begann mit der EEG-Umlage, dann folgte die Netzumlage und jetzt ist eine Kapazitätsabgabe im Gespräch. Planwirtschaft wuchert wie eine Krebsgeschwulst.

·       Nur ein ausgewogener Kraftwerkspark ist die beste Garantie für Preisstabilität. "100% Erneuerbare" ist eine gefährliche Utopie.

Dr. Klaus Dieter Humpich

Der Beitrag erschien zuerst bei NUKE-Klaus hier




NCDC: ‚Unser Algorithmus funktioniert wie geplant‘

Hier folgen ein paar andere Dinge, die funktioniert haben wie geplant:

Die Tacoma Narrows Bridge (1940): Frühe NASA-Raketen (fünfziger und sechziger Jahre: Die Titanic (1912): Am 14. April sank die RMS Titanic nach der Kollision mit einem Eisberg, die zuvor von den Erbauern als praktisch unsinkbar angepriesen worden ist (Siehe Bild rechts!)

Der DeHavilland-Komet (1952): 21 dieser kommerziellen Passagierflugzeuge wurden gebaut. Die Comet war in 26 Unfälle mit dem Rumpf des Flugzeugs involviert (hier) einschließlich 13 Abstürzen mit 426 Todesopfern. Nachdem die Beweise in der nachfolgenden Untersuchung enthüllt hatten, dass sich Materialermüdung des Metalls in den Ecken der Fenster des Flugzeugs konzentriert hatte und Grund der Abstürze war, wurden alle Flugzeuge danach mit runden Fenstern ausgestattet.

 

Mariner 1 (1962): Das erste US-Raumschiff mit dem Ziel Venus kam schwer vom Kurs ab infolge eines Fehlers in seinem Leitsystem. Es war ein kleiner Fehler – ein falscher Bindestrich in einer einzelnen Zeile des Programms – aber die Kursabweichung war gewaltig. Mariner 1 endete im Atlantischen Ozean, nachdem die Rakete von einem Sicherheitsoffizier zerstört worden ist. Dies ging in die Annalen ein als „der teuerste Bindestrich aller Zeiten“.

 

Start von Mariner 1

Der Mars Climate Orbiter (1998)

 

Der Mars Climate Orbiter stürzte auf die Oberfläche des Planeten, weil sein Orbit zu niedrig war.

Der Hauptgrund für diese Diskrepanz war, dass eine Software-Einheit am Boden [der Erde] Ergebnisse in einer „englischen System-Einheit“ erbrachte, während ein zweites System jene Ergebnisse nutzte und ‚gedacht‘ hatte, dass es sich um metrische Einheiten handelte. Software, die den durch die Zündung der Düsen erzeugten Gesamtimpuls berechnete, berechnete diesen in Pfund-Sekunden (pound-seconds, ?]. Die Berechnung der Trajektorie verwendete diese Ergebnisse, um die vorhergesagte Position des Raumschiffs durch Zünden der Düsen zu korrigieren. Diese Software ging von den Input-Werten in Newton-Sekunden aus.

Die Diskrepanz zwischen der berechneten und der tatsächlichen Position mit der Folge der Diskrepanz zwischen gewünschter und tatsächlicher Flughöhe wurde von mindestens zwei Navigatoren schon zuvor bemerkt, aber ihre Bedenken wurden verworfen.

Das NCDC-Klima für die Öffentlichkeit auf einen Blick:

Während man uns sagte, dass „alles in Ordnung“ ist und dass „unser Algorithmus wie geplant funktioniert“, ist es einfach zu entdecken, dass wenn man versucht, Temperaturdaten für irgendeine Stadt in den USA zu plotten – zum Beispiel Dallas, Texas – bekommt man Höchst-, Tiefst- und Mitteltemperaturen, die alle identisch sind:

Versuchen Sie es selbst, und zwar hier.

Ändern Sie die Bedingungen, um eine landesweite Zeitreihe zu bekommen, wählen Sie eine Stadt, und was Sie bekommen, sind die Minimum-, Mittel- und Maximumtemperatur, die alle die gleichen sind. Es ist unbekannt, ob dies überhaupt die richtigen Daten für die betreffende Stadt sind.

Dank an die WUWT-Leser Wyo_skeptic, Gary T. und Dr. Roy Spencer

Link: http://wattsupwiththat.com/2014/07/01/ncdc-our-algorithm-is-working-as-designed/

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion:

Dieses Beharren auf dem eigenen Algorithmus, de sich letztendlich als großer Gleichmacher entpuppt, erinnert an den Witz vom Erfinder eine automatischen Fingernagelschneidemaschine, die er zum Patent anmelden will.

Erfinder zum Patentbeamten: Hier ist meine neue automatische Fingernagelschneidemaschine. In diese fünf Löcher stecken Sie gleichzeitig ihre 5 Finger der einen Hand. Mit der anderen Hand drücken Sie auf den Startknopf. Die Messer fahren runter und schneiden alle 5 Fingernägel gleichzeitig kurz. Sie sparen also jede Menge Zeit.

Der Beamte ist beeindruckt. Doch dann kommen ihm Zweifel. denn er sagt: „Ja, aber die Finger sind doch nicht alle gleich lang!“

Darauf schaut ihn der Erfinder stolz an und sagt: „Ja, da haben Sie recht: Vorher!“

Diese Erfindung wurde u.W.n. nie patentiert!




Mathematik? Brauche ich nicht, hat mich nie interessiert!

Ähnlich hätte sich vor einigen Jahrhunderten ein australischer Ureinwohner geäußert. Zahlen? Meine Sprache hat doch Zahlwörter bis 3, braucht denn jemand mehr?

Da waren die gemeinsamen Vorfahren der Ungarn und Finnen schon vor Jahrtausenden weiter: Sie konnten doppelt so weit zählen, bis sechs. Das haben Sprachforscher herausgefunden. Offenbar gab es eine finnisch-ugrische Ursprache, gesprochen von einem Volk, das dann weit auseinander gewandert ist. Die Nachkommen leben heute jenseits und diesseits des Urals, am Polarkreis und in der Puszta. Ihre Sprache hat sich in über 10 sehr verschiedene Regionalsprachen aufgespalten, aber alle haben noch gemeinsame Zahlwörter bis 6. Die Zahlwörter ab 7 wurden jeweils aus verschiedenen anderen Sprachen übernommen. Da ist der Schluss zwingend: Vor der Trennung des Volkes hörte das Zählen bei 6 auf.

Unsere indogermanischen Vorfahren waren noch weiter gekommen, auf jeden Fall über die 10 hinaus. Deren Ursprache hat sich in 2 Gruppen geteilt, die man Kentum- und Satem-Sprachen nennt, nach dem Wort für 100. Das muss aber nicht bedeuten, dass die Leute vor der Trennung noch nicht bei 100 waren.

In diese früheste Zeit, vor der Entstehung unserer Zivilisation, würden unsere Matheflops noch passen.

Die dann folgende Entwicklung zu Städten, Handel, Astronomie, Kalender lief an den Matheflops vorbei, sie hatten daran keinen Anteil. Was unserer Zivilisation zugrunde liegt, wird von ihnen ignoriert. 

Wurzeln, Exponenten, Logarithmen, Winkelfunktionen? Oder Pythagoras? Man muss doch nicht alle griechischen Restaurants kennen! Was soll überhaupt der Umgang mit Zahlen, halten wir uns besser an Christian Morgenstern:

Morgenstern stellte seine ulkige zahlenfreie Welt dar im Gedicht vom „Lattenzaun, mit Zwischenraum, hindurchzuschaun“. Ein Architekt „nahm den Zwischenraum heraus und baute draus ein großes Haus“.

Absurd?

In einer Welt ohne Zahlen und Mathematik eigentlich nicht, da kann man sich sogar eine vollständige „Energiewende“ vorstellen. „Unsere ganze heutige Welt“ beruht jedoch tatsächlich auf Zahlen, und man müsste die Matheflops von allem Wesentlichen fernhalten.




Neuer Meereis-Rekord in der Antarktis

Die neue Rekord-Anomalie des Meereises der Südhemisphäre, also das die Antarktis umgebende Meereis, beläuft sich im Juni 2014 auf 2,074 Millionen km², also mehr als 2 Millionen km2  über dem langjährigen Mittelwert (University of Illinois; hier (Cryosphere Today) – Abbildung 1 :

                Abb. 1 : Meereis-Fläche der Antarktis (Juni 2014)

Die bisherige Rekordmarke der Anomalie auf der Südhemisphäre liegt bei 1,840 Millionen km² und wurde 2007 erreicht.

Auch die globale Ausdehnung des Meereises (Arktis und Antarktis) lag am 29.06.2014 um 1,005 Millionen km² über dem Mittelwert.

                Abb. 2 : Meereis-Fläche global (Antarktis + Arktis Juni 2014)

Hier findet sich diese ergänzende, vielleicht noch anschaulichere Darstellung:

                                Abb. 3 : Meereis-Fläche Antarktis

Dieser Eis-Befund paßt weder zu den Prognosen der Klima-Modelle, noch zur medialen "Eisschmelz- und Erwärmungs-Panik".  D a h e r :
Weder den deutschen Medien noch den Klima-Instituten ist dieser neue antarktische und zugleich globale Eis-Rekord eine Verlautbarung wert !?

=================================================================

Anmerkung der EIKE-Redaktion (1) :

Dieser Artikel erschien zuerst auf: http://wattsupwiththat.com/2014/06/29/antarctica-sets-new-record-for-sea-ice-area/ ; Ergänzungen EIKE-Redaktion.

Wir danken für die Übernahme-Genehmigung.

Mehr: http://talkingabouttheweather.wordpress.com/2014/06/29/antarctica-sets-new-record-for-sea-ice/ und http://wattsupwiththat.com/reference-pages/sea-ice-page/

================================================================

Anmerkung der EIKE-Redaktion (2) :

Soeben wurde eine umfangreiche Übersichts-Arbeit publiziert, die sich mit den Temperatur-Trends rund um die Antarktis beschäftigt:

Another Antarctic sea ice record set – but excuses abound

Another Antarctic sea ice record set – but excuses abound

Dort sind zahlreiche sehr anschauliche Abbildungen erläutert, z.B.:


Fig 2
The red box: I have inserted the red box 73S-63S 220W-50E because this area will be used in the following to evaluate the situation in the ice forming waters around Antarctica.

Zusammenfassend wird festgestellt:

Data suggest some cooling, certainly not warming.
Thus it seems that recent years for the area of ice formation around Antarctica show:
A: Decrease in Sea surface temperatures
B: Decrease in Air temperatures
C: Growth in Sea ice

..und abschließend:

Conclusion:

The conventional data sources like SST, MAT suggest that the bulk of the ocean surface mass is cooling in recent years accompanied by faster ice growth. Arguments based on Ozone or Salinity or precipitation appears not to be linked to the record levels of sea ice formation around Antarctica.

It is therefore fair to say the obvious:

* * * It’s getting colder around Antarctica and so the ice is growing * * *

====================================================




Grüne Verrücktheit auch in GB: Stromrechnungen der Verbraucher werden steigen, um Kohle- und Gaskraftwerke zu subventionieren

Bild rechts: © GWPF

Energierechnungen der Verbraucher werden steigen, um Vorschüsse zu zahlen an Dutzende Kraftwerke, um zu garantieren, dass sie zur Verfügung stehen, um die Lichter nicht ausgehen zu lassen. Das haben Minister verkündet.

Mit einem so genannten „Kapazitäts-Markt” planen Minister, Kraftwerke mit insgesamt über 53 GW zu rekrutieren – genug, um 80% der Spitzen-Nachfrage in UK zu decken – um sicherzustellen, dass sie hochgefahren werden können, wenn man sie braucht.

Jeder Haushalt wird im Mittel 134 Pfund pro Jahr an die Kraftwerke zahlen, um zu garantieren, dass sie dem System ab 2018/19 zur Verfügung stehen.

Zuvor hat die Regierung das System beschrieben. Zahlungen werden in Form von Abgaben auf Haushalte erhoben als „Versicherungsbeitrag gegen das Risiko von Blackouts“. Sie hofft, auf diese Weise Gas- und Kohlekraftwerke am Leben zu halten, anstatt sie einzumotten. Außerdem will man zum Bau Dutzender neuer Gaskraftwerke ermutigen, indem man ihnen Profitabilität garantiert.

Der Bau neuer Gaskraftwerke ist anderenfalls unattraktiv, weil in UK immer mehr Windparks errichtet werden. Gaskraftwerke können nur kurzzeitig laufen, wenn der Wind nicht weht.

Energieminister Ed Davey sagte, dass diese Politik die Rechnungen der Verbraucher um 2 Pfund zusätzlich steigen lassen wird.

Der Analyst Peter Artherton bei Liberum Capital sagte, dass die Gesamtzahlungen an Energieunternehmen unter diesem Schema im Bereich von 1,6 Milliarden Pfund liegen würden, was pro Haushalt mindestens 20 Pfund pro Jahr zusätzlich ausmacht.

Full story

Link: http://www.thegwpf.org/green-madness-energy-bills-to-rise-to-subsidise-coal-and-gas-plants/

Das gleiche Thema beleuchtet auch eine andere britische Zeitung (siehe unten). Offenbar darf man in UK immer klarer Wahrheiten aussprechen, für die man hier in Deutschland noch übelst diffamiert und verunglimpft wird. Allerdings fällt auf, dass zwar auch in diesem zweiten Artikel die hohen Kosten benannt werden, man aber anders als in der Überschrift um den heißen (Energie-)Brei herumredet.

Die jeweils vollständigen Artikel unterliegen einem Copyright, weshalb hier beides nur in der bei der GWPF angebotenen Kurzform übersetzt wird. Anm. d. Übers.

Verbrauchern droht eine Rechnung über 250 Milliarden Pfund für grüne Energie- und Klimapolitik

Jill Sherman

Es wird erwartet, dass die britischen Verbraucher mindestens 250 Milliarden Pfund der Kosten zur Modernisierung der Infrastruktur in UK berappen müssen. Das haben Parlamentsabgeordnete heute verlauten lassen.

Das Public Accounts Committee (PAC) fordert die Regierung auf abzuschätzen, ob sich die Haushalte Jahre höherer Rechnungen für Energie, Wasser und Transporte leisten können, um für den Ersatz der alternden Infrastruktur in UK zu zahlen.

Die Abgeordneten warnen vor allem davor, dass die durch einige politische Maßnahmen der Regierung entstandene Unsicherheit die Energierechnungen noch stärker steigen lassen könnten, da Investitionen in neue Kraftwerke verzögert werden und dem Ersatz von Kohlekraftwerken nur geringe Dringlichkeit eingeräumt wird.

Die PAC-Vorsitzende Margaret Hodge sagte, dass eine „atemberaubende“ Investition in Höhe von 375 Milliarden Pfund in der Pipeline sei für Infrastruktur-Projekte während der nächsten 15 Jahre. Auch sollen damit Ziele bzgl. Klimaänderung und demographischem Wachstum verfolgt werden.

„Es ist der Verbraucher, von dem erwartet wird, dass er durch seine verschiedenen Rechnungen mindestens zwei Drittel dieser Investitionen aufbringen wird, mit denen die Infrastruktur finanziert, gebaut und durch private Unternehmen betrieben werden kann“, sagte Mrs. Hodge. „Niemand in der Regierung übernimmt die Verantwortung für die Abschätzung der Auswirkungen dieser Investitionen auf die Rechnungen der Verbraucher insgesamt und ob die Verbraucher überhaupt in der Lage sind, diese Zahlungen leisten zu können“.

Link: http://www.thegwpf.org/consumers-face-250-billion-bill-for-green-energy-climate-policies/

Beide Artikel übersetzt von Chris Frey EIKE