1

Buchbesprechung # 2: Wider den grünen Wahn

von. K.J. Goldmann

Ja, das gibt es doch noch. Eine Streitschrift, ja ein Kampfblatt gegen die geistige Verwirrtheit der „Grünen“, jener Politorganisation, die mit idealistisch-ideologisch verbrämten Thesen und der Hilfe einer weitestgehend links-grünen Presse die Geschicke dieser Republik in einem weiten Feld bestimmt hat.Seit Kurzem ist es auf dem Büchermarkt: „Wider den grünen Wahn“, ein Taschenbuch von Horst Demmler, einem tiefschürfenden, klar und unmißverständlich, schnörkellos formulierenden Professor der Volkswirtschaft der Justus-Liebig- Universität Gießen.

Was keine existierende Partei, kein Zeitschriftenkommentar, keine Studie oder Pamphlet bisher so deutlich und geradeaus herausgearbeitet und in Worte gefaßt hat, ist hier für den interessierten Leser aufbereitet: die technisch-naturwissenschaftliche Unkenntnis der „Grünen“, gepaart und  überlagert von antiquierten, sprich in Teilen marxistisch orientierten Programmpunkten, die das Gesicht Deutschlands verändert und damit  dessen industriellen Stillstand eingeläutet haben.

Mit kühler, präziser, wissenschaftlicher Sprache wird den „Grünen“ das Messer an die Kehle gesetzt. Ihre politischen Leitlinien, die den uninformierten deutschen Zeitgeist in ihre Herrschaft nahmen und somit die Politik maßgeblich und den Kurs ins links-alternative Lager bestimmten, werden ins Absurde befördert.

Präzise recherchiert, detailliert dokumentiert, faktenreich und wortgewaltig, ja brillant  wird dargelegt, wie aus einer penetrant moralischen Selbstüberhöhung und vermeintlich unangreifbarer Überlegenheit der „Grünen“ diese den Rest der Republik mit ihren Funktionsträgern und Politikern vor sich hertrieben und sie mit ihrer Moralkeule einer Gehirnwäsche unterzogen und den Kurs der Republik nachhaltig nach links verschoben.

Nur nicht alles so eng sehen: Video mit Andreas Rebers über die Grünen (Vorsicht: Satire)

„Abstoßend die moralisch-politische Selbstgefälligkeit der Grünen und die Identifikation mit dem „Guten“, das ein moralisches Überlegenheitsgefühl ermöglicht. Das ist eine moralische Aggressivität in ihrer widerwärtigsten Form“.  Und … „Wenn es einen Wettbewerb in den Disziplinen Heuchelei, Schamlosigkeit und Selbstgerechtigkeit gäbe, wären die Grünen kaum zu schlagen“ (Demmler).

Ökologie, wie von den „Grünen“ propagiert, ist für Demmler durchweg Marxismus, grenzenlose Dummheit und naturwissenschaftliche Unwissenheit und Unbedarftheit.

Demmler erinnert an den inszenierten moralischen Rüstungssturm nach der Rede des Bundestagspräsidenten Philipp Jenninger, an ihre Kampagne zum sogenannten Waldsterben – die ihnen den Einzug in die Parlamente brachte -,    an eine Kleine Anfrage der „Grünen“ zur Position der Bundesregierung zur Leugnung des Klimawandels durch EIKE und ob den Klimaleugnern der Friedrich-Naumann-Stiftung ein Diskussionsforum geboten wurde.

Desweiteren wurde Fred Singer verteufelt, technische Innovation wurden verhindert, die Digitalisierung des Fernsprechnetzes, des Kabel- und Satellitenfernsehens behindert. Demmler geißelt unverhohlen die von den „grünen Ökoimperialisten“ propagierte und mit Hilfe einer mehrheitlich (=42%) links-grünen Presse und der gewendeten Bundesregierung durchgesetzten  Windräder mit all ihren immensen negativen Folgen für Fauna und Flora, analysiert die Pros und Cons aus dem Einsatz des DDT, stellt den Siegeszug des Anbaus von gentechnisch veränderten Pflanzen dar und den Kampf der „Grünen“ dagegen sowie deren – verlorenen  – Einsatz gegen den Goldenen Reis, der Millionen Hungernden in den Entwicklungsländern das Leben gerettet hat.

Große Kapitel werden dem Irrsinn des von J. Trittin erlassenen EEG – „ein Stück aus dem Tollhaus“ – gewidmet, dessen finanzieller Schwachsinn der Bevölkerung und Wirtschaft Deutschlands unermeßlichen Schaden zufügt und vorbehaltlos eliminiert werden sollte. Einen breiten Raum nimmt auch der Ausstiegsbeschluß aus der Kernkraft – mit Hilfe einer mit Soziologen und Geistlichen bestückten Ethikkommission, der aber kein Naturwissenschaftler angehörte –ein. Abschließend nimmt Demmler Stellung zur angestrebten Verminderung des CO2-Ausstoßes, enthält sich aber jeder Stellungnahme zum sogenannten Klimawandel.

„Wider den grünen Wahn“ eine scharfe, pointierte und ungeschminkte Polemik ohne Scheuklappen, eine Philippika gegen moralisierende Ideologen – aber auch indirekt ein Zeugnis für den zunehmenden naturwissenschaftlichen Bildungsnotstand in Deutschland.

ISBN  978 – 3-95645- 499- 8,  Monsenstein und Vannerdat, Münster, Edition Octopus,  410 Seiten, Preis 20.40 €

Dr. Klaus-Jürgen Goldmann&nb




Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)

Im Teil 1 wurden einige grundlegende Darstellungen zum Populationsbestand gezeigt. Nun geht es weiter mit der Darstellung, wie eine Simulation des Eisbärbestandes durchgeführt wurde und welche Ergebnisse dabei herauskommen sind.

Simulation des Eisbärbestandes zum Jahr 20150 in der Studie [1]

Der verwendete Datensatz

Der Autor hat von der Studie [1] die Daten der Tabelle 3: Abundance estimates for the 19 polar bear subpopulations, in Excel übertragen und gesichtet.

Die Unsicherheiten der gelisteten Bestandsdaten betragen: 

Mittelwert, 95 % Vertrauensintervall: -32 % … + 43 %

Mittelwert Spannweite:  -63 % … +110 %

Vereinfacht: Bezogen auf den Mittelwert haben die angezogenen Bestandsschätzungen eine mittlere Unsicherheit von absolut 70 % und eine Spannweite der Max- / Min-Werte von 173 % 

Anmerkung: Diese Daten sind geschönt, da in mehreren Fällen – weil nicht bekannt – keine Min- / Max-Grenzen angegeben sind.

Die daraus in der Studie [1] für das Jahr 2050 berechneten Daten

In der Studie wird die Projektion zum Jahr 2050 für drei Annahmen berechnet: 

Annahme 1 „assumed a one-to-one proportional relationship between ice and N“:

Im Jahr 2050: Mittelwert der Abnahme: -30 %

Wahrscheinlichkeit, dass die Abnahme mehr als 30 % beträgt: 56 %; für mehr als 50 %: vernachlässigbar

Annahme 2 „estimated a global relationship between ice and normalized values of N using a maximum of two abundance estimates per subpopulation“:

Im Jahr 2050: Mittelwert der Abnahme -4% (95% CI = -62%, 50%).

Wahrscheinlichkeit, dass die Abnahme mehr als 30 % beträgt: 20 %

Annahme 3: estimated ecoregion-specific linear relationships between ice and normalized values of N that reflected the influence of additional abundance estimates for relatively well-studied subpopulations.

Im Jahr 2050: Mittelwert der Abnahme -43% (95% CI = -76%, -20%).
Wahrscheinlichkeit, dass die Abnahme mehr als 30 % beträgt: 86 %

Fazit

Der zur Berechnung der Korrelation verwendete Urdatensatz hat Streuungen, welche eine (seriöse) Auswertung ganz einfach verbieten. Zudem ist er nach den neuen Kenntnissen sowieso grundsätzlich falsch ([4] und Bild 3).

Trotzdem wird damit hemmungslos gerechnet – und trotzdem sind die Aussagen weit weg von einem Alarm:

Annahme 1: Dass die Abnahme bis 2050 mehr als 30 % beträgt hat eine Wahrscheinlichkeit von56 %.

Anmerkung: Die Aussagegenauigkeit ist damit ganz knapp höher als sie ein Würfel mit 50 % bietet. 

Annahme 2: Die Abnahme bis 2050 kann zwischen -62 % … + 50 % betragen.

Anmerkung: Mit dieser (Un-)Genauigkeit kann man wirklich alles sicher vorhersagen.

Zum Beispiel:  Sie kommen ganz sicher in den Himmel oder in die Hölle. 

Und trotzdem wird diese Studie häufig als Beleg für das „Verschwinden“ der Eisbären zitiert.

Warum man es simulierte und wider besserem Wissen publizierte ist klar:

DIE WELT[10]: Anlass für die Neubewertung der Überlebenschancen von Eisbären ist der Weltklimagipfel, der vom 30. November bis 11. Dezember in Paris stattfindet. Die Wissenschaftler glichen Daten zu allen Populationen in der Arktis mit Statistiken zur Eisschmelze in den vergangenen Jahrzehnten ab und fütterten mit den Daten ein spezielles Computerprogramm. 

Diese vom Klimawandel so gefährdeten Tiere darf man trotzdem massiv bejagen 

Obwohl die Eisbären zum Aussterben verdammt sein sollen, werden sie in allen – bis auf eine Region – gejagt. Und das in einer nicht unerheblichen Anzahl:

[20] Pro Wildlife: „Jedes Jahr werden vermutlich über 1.000 Eisbären getötet. Die meisten davon ganz legal, vor allem in Kanada. In Grönland werden derzeit pro Jahr etwa 140 Tiere legal getötet, in den USA 29. In Russland ist die Jagd offiziell noch verboten. Allerdings werden hier bis zu 300 Tiere jährlich gewildert, und die Regierung erwägt derzeit, den Abschuss von 29 Tieren zu erlauben. Norwegen ist das einzige Land, das Eisbären streng schützt.“ 

Die Bejagung verringert den Bestand jährlich fast um 5 %! Und trotz dieser jährlichen Reduktion vermindert sich die Population seit Jahrzehnten nicht. Was die massive Bejagung zahlenmäßig für Auswirkungen hat, zeigt Bild 9. Alleine diese Tatsache belegt alle Angaben über eine Gefährdung durch den Klimawandel als vollkommen absurd.

 

Bild 9 Grüne. gestrichelte Linie. Eisbärpopulation ohne die Bejagung von 1.000 Eisbären pa (keine Nachkommen eingerechnet) 

Man könnte sich allerdings vorstellen, dass der Bestand regional inzwischen eine Größenordnung erreicht hat, der die Nahrung knapp werden lässt. Und alleine dies schon zu den beobachteten Effekten und einer beginnenden Bestandsbegrenzung führt.

Doch wenn die Daten keinen Alarm hergeben – erzeugen ihn Bilder

Ein erschütterndes Foto erscheint in den Medien

Die Fotografin des Fotos (Bild 10) ist nach eigenen Aussagen tätig als „ … as an environmentalist and photographer for Greenpeace Nordic in Norway, Sweden and the North Atlantic“[12]. Das bedeutet nicht, dass das Foto nicht eine Wirklichkeit abbildet – aber es lässt vermuten, dass an Fotos von gut genährten Eisbär-(innen) kein übergroßes Interesse bestand. 

Link zum Foto der abgemagerten Eisbärin auf Bild.de

Bild 10 Abgemagerte Eisbärin. Anmerkung: wegen unsicherem Copyright kann das Bild hier nicht direkt gezeigt werden. 

Unsere Presse nutzte natürlich die Gunst der Stunde und informierte, dass diese magere Eisbärmutter ganz sicher eine Kronzeugin des Klimadramas ist – und ließ sich dies auch gleich noch durch die Greenpeace-Aktivistin bestätigen. 

MERKUR.de 01.12.15: Der Klimawandel verurteilt diese abgemagerte Eisbärin zum Tode 

München –  Wenn es ein Bild gibt, das einem die Folgen des Klimawandels ins Gesicht klatscht, dann hat es die deutsche Fotografin Kerstin Langenberger geschossen. Sie lichtete eine völlig abgemagerte Eisbärin ab.

Das Foto des abgemagerten Eisbären ging in den vergangenen Tagen um die Welt. Forschern ist das Problem schon bekannt. Sie sagen: Eisbären sind in 50 Jahren ausgestorben.

Fotografiert hat Langenberger die Eisbärin auf einer Tour nahe des norwegischen Spitzbergen. Die völlig abgemagerte Eisbärin ist kein Einzelfall: "Nur selten habe ich schön fette Mütter mit schön fetten Jungen gesehen. Oft habe ich furchtbar dünne Bären gesehen, und das waren ausschließlich Bärinnen – wie diese hier. Ein bloßes Skelett, am vorderen Bein verletzt – möglicherweise von einem verzweifelten Versuch, ein Walross zu jagen", schreibt Langenberger. Bären wie diese seien "zum Tode verurteilt".

Schuld daran, ist sich die Fotografin sicher, sei der Klimawandel: "Ich sehe, wie die Sommer angenehmer und wärmer als jemals zuvor werden. Ich sehe die Gletscher kalben, sie ziehen sich Dutzende bis Hunderte Metern pro Jahr zurück. Ich sehe das Packeis in Rekordgeschwindigkeit verschwinden."

Letzteres lässt die Eisbären verhungern. Sie finden keine ausreichend großen Eisschollen mehr, auf denen sie ihre Jungen unterbringen können, und die Futtersuche wird immer schwieriger. Langenberger widerspricht einigen Experten, die behaupten, dass die Eisbärpopulation um Spitzbergen herum noch auf stabilem Niveau sei. "Ich habe keine wissenschaftlichen Daten, die meine Beobachtungen beweisen. Aber ich habe die Augen im Kopf – und ein Gehirn, um Schlussfolgerungen zu ziehen. Der Klimawandel findet in der Arktis im großen Stil statt. Und es ist unsere Entscheidung, zu versuchen, daran etwas zu ändern." Der Appell der Fotografin kommt rund zwei Monate vor der UN-Klimakonferenz, bei der wieder einmal um konkrete Maßnahmen gegen die Erderwärmung gerungen wird.

Update vom 28. September 2015: Der abgemagerte Eisbär steht stellvertretend für den Klimawandel. Wir haben eine Expertin aus dem Tierpark Hellabrunn gefragt, wie sie die Lage beurteilt. Ihre Prognose ist besorgniserregend.

Update vom 25. September 2015: Das Foto des abgemagerten Eisbären ging in den vergangenen Tagen um die Welt. Forschern ist das Problem schon bekannt. Sie sagen: Eisbären sind in 50 Jahren ausgestorben.

Die offizielle Bestandsschätzung durch das Norwegische Polarinstitut im Sommer 2015 ergab das Gegenteil

Ein nicht erschütterndes Foto – erscheint nicht in den Medien 

Man hätte auch das folgende ganz aktuelle Bild bringen können und dazu eine Klimagefahr-Entwarnung des Norwegischen Polarinstituts.

Bild 11 [14] Ein wohl genährter Svalbard Eisbär im Herbst 2015. Sea. Photo: Jon Aars / Norwegian Polar Institute 

Denn genau zur gleichen Zeit (Sommer 2015) wurde eine offizielle Eisbärzählung durch das norwegische Polarinstitut über die Barents-See  (mit Spitzbergen) durchgeführt. Und die kam zu einem vollkommen anderen Ergebnis als dem der Greenpeace-Aktivistin. 

Norwegisches Polarinstitut [22]

The Barents Sea polar bear population was counted over 4 weeks in autumn 2015, in Svalbard and in Norwegian parts of the Barents

The scientists now estimate that there are around 975 polar bears in the Norwegian region, whereas they estimated a number of 685 in 2004. – The bears were in good physical condition,

[14] Susan J. Crockford:

Die Ergebnisse der Barentssee Populationsuntersuchung von diesem Herbst wurden vom Norwegischen Polarinstitut freigegeben und sie sind phänomenal: Trotz einiger Jahre mit schlechten Eisbedingungen, gibt es um Svalbard jetzt mehr Bären (~ 975) als noch im Jahr 2004 (~ 685) (ein Anstieg von 42%) und die Bären waren in gutem Zustand. 

Sogar (ganz wenige) Zeitungen berichteten darüber:

Stuttgarter Zeitung [18]: „ … Doch Jon Aars berichtet etwas Erfreuliches. Der norwegische Polarforscher hat im Sommer die Eisbären auf Spitzbergen gezählt. Ihre Zahl ist deutlich gestiegen: 972 Eisbären leben auf der norwegischen Inselgruppe am Polarkreis, etwa 40 Prozent mehr als bei der letzten Zählung vor elf Jahren. "Die Bären befinden sich in einem guten Zustand", sagt Jon Aars"

Und ergänzend speziell zum Ernährungszustand:

www.polarbearscience.comSusan J. Crockford:

[15] Given what we now know about the animals and their naturally changing habitat, it is time to concede that data do not support predictions that polar bears, walrus, and Arcticseals are threatened with extinction due to habitat in stability.

Fazit

Irgendwie sind die Aussagen überhaupt nicht vereinbar. Die Greenpeace-Aktivistin und der Polarforscher vom Norwegischen Polarinstitut sind zur gleichen Zeit auf der gleichen Inselgruppe und trotzdem treffen sie ihren Erzählungen nach vollkommen gegensätzliche Verhältnisse an. Die Frage stellt sich, ob der Termin des Klimagipfels mehr Einfluss als das Klima hat?

Rekapitulation der Populationsdaten

Von einem Bestand an 5.000 …  10.000 Tieren um das Jahr 1960 ist die Population auf 20.000 … 31.000 (Mittelwert 25.500) gestiegen. Das ist ungefähr eine Verdreifachung.

Würde man die Abschussrate von ca. 1.000 Tieren pa seit 1990 hinzurechnen, beträge der Bestand ohne Berücksichtigung von Nachkommen 45.000 … 56.000 Tiere. Das wäre ungefähr eine Verfünffachung. 

Die aktuelle und wohl genaueste wissenschaftliche Bestandszählung des Norwegischen Polarinstitutes im Jahr 2015 ergab eine Bestandserhöhung vom Jahr 2004 zum Jahr 2015 um 43 %. Dieses Ergebnis ist auch deshalb interessant, weil nur Norwegen keinerlei Abschuss von Eisbären erlaubt und somit diese Zählung die wirkliche natürliche Populationsveränderung zeigt.

Fazit

Wie lässt sich daraus ein Verschwinden des Eisbärbestandes bis zum Jahr 2050 ableiten? In der Klimawissenschaft gelingt das problemlos. 

Ein konstruiertes Beispiel soll den Mechanismus erklären:

Wissenschaftler aus dem Fach Erziehungswissenschaften stellten fest, dass die Lösungen von Kindern zur  Rechenaufgabe 2+2 = ? unterschiedlich ausfallen. Diese Abweichungen korrelieren vor allem in den untersten Klassen zudem erschreckend mit der Anzahl Hitzetage.

Aus dieser eindeutigen Korrelation ließ sich simulieren dass mit einem hohen Vertrauensbereich von 50 % das Ergebnis der Aufgabe 2+2 =? im Jahr 2050 auf den Wert 5 ansteigen muss.

Publiziert wurde diese Erkenntnis durch das Wissenschaftsteam  Mathematiklegastheniker et al unter dem Titel „Mathematik ist klimasensitiv – wie eine Simulation eindeutig belegt, kann eine Klimakrümmung mathematische Ergebnisse beeinflussen“.

In der Zeitschrift „Klima rette dich“ kam es unter der Schlagzeile: Was selbst Einstein noch nicht ahnte, konnten Wissenschaftler nun belegen.  Die Mathematik krümmt sich durch den Klimawandel. Müssen in Zukunft alle Formeln neu geschrieben werden? 

Um diesen in der gesamten Menschheitsgeschichte noch nie gemessenen Effekt genauer untersuchen zu können, wurden sofort Fördergelder bewilligt und ein Institut zur Erforschung aufgebaut. Und seitdem kann diese mathematische Klimakrümmung überall auf der Welt beobachtet werden. 

Manche (nicht oft bei EIKE vorbeischauende) Leser könnten vielleicht denken, dies wäre eine rein hypothetische und weit hergeholte Fabel. Doch solche gibt es bereits: 

Nature 527, Pages: 235–239, published 12 November 2015: Global non-linear effect of temperature on economic production

http://www.nature.com/nature/journal/v527/n7577/full/nature15725.html

Schlussbetrachtung

Das Thema Eisbär und Klimawandel ist eines der Beispiele, wie aus mehr als sehr zweifelhaften und extrem streuenden Daten sowie darauf basierenden Simulationen gewünschte Ergebnisse erzeugt werden – und es über viele Jahre keinem Wissenschaftler auffällt – bis es zufällig herauskommt. Was dann aber nirgends publiziert wird.

Es ist ein Thriller der Wissenschaft  – sowie  vollkommen versagender Medien 

HNA (Hessische/Niedersächsische Allgemeine)  26.11.15[19]:

Experten-Interview zu Eisbären: Ist alles noch viel schlimmer?

Der Klimawandel führt zum Aussterben der Eisbären, aber es gibt einige weitere Aspekte, die diese Entwicklung beschleunigen. Erschreckend ist, dass möglicherweise noch weniger Eisbären existieren als vermutet wird. Ein Interview mit einem ehemaligen Arktis-Expeditionsleiter.

Forscher gehen inzwischen davon aus, dass der Eisbär aufgrund des Klimawandels in 50 Jahren ausgestorben sein wird. Ein Grund dafür ist vor allem der Klimawandel, … 

Sogenannten „investigativen“ Infoportalen 

Klimaretter.Info, Dienstag, 21. Juli 2015: Eisbären schaffen die Anpassung nicht

Die Überlebenschancen von Eisbären in der Arktis sind geringer als bisher angenommen. Das legen neue Daten nahe, die von US-amerikanischen Wissenschaftlern an 26 Eisbären in der Beaufort-See nordöstlich von Alaska erhoben wurden.

Wie auch einer dem Bürger nicht mehr die Wahrheit vermittelnden Bundesregierung

Bild 12 Darstellung in einem beim  Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMUR) aktuell hinterlegtem Arbeitsheft für Schüler und Schülerinnen Grundschüler, Titel: Klimawandel 

PISA hat es vorgemacht. Man muss sich auf internationales Niveau reduzieren. Das der FIFA und  Nordkorea hat die Klimawissenschaft schon erreicht. Welches ist das nächste Ziel? Vielleicht ist das ein Beispiel, 

kaltesonne: „Simbabwes Diktator beantragt 1,5 Milliarden Dollar an UNO-Klimaschutzgeldern – und lässt sich gleichzeitig seine Geburtstagsparty mit 800.000 Dollar sponsorn““.

Ganz bestimmt sterben bei Greenpeace, BN, unserer Bundesregierung und dem Tierpark Hellabrunn die Eisbären auch weiterhin wegen dem Klimawandel aus. Mit was sollte man denn sonst werben und was sollte man auch mit den vielen im Fundus liegenden Eisbärkostümen anfangen.

Quellen Teil 1 / 2

[1]

RUCN Red List: Polar Bear (Ursus maritimus) Supplementary material for Ursus maritimus Red List assessment 

Studie mit Berechnung der Formel für die Eisbärpopulation bis zum Jahr 2050

[2]

EIKE: Zehn düstere Prophezeiungen bzgl. des Unterganges von Eisbären sind gescheitert: jetzt wieder 20.000 bis 30.000 Exemplare

http://www.eike-klima-energie.eu/news-cache/zehn-duestere-prophezeiungen-bzgl-des-unterganges-von-eisbaeren-sind-gescheitert-jetzt-wieder-20000-bis-30000-exemplare/

[3]

IUCN Redlist, Population: (Table 3 in the Supplementary Material) results in a total of approximately 26,000 Polar Bears ( 95% CI = 22,000-31,000 ).

http://www.iucnredlist.org/details/22823/0

[4]

kaltesonne 15. Dezember 2014: Eisbären-Statistik-Gruppe räumt ein: Veröffentlichte Eisbärenzahlen sind lediglich eine “qualitative Vermutung mit dem Ziel das öffentliche Interesse zu befriedigen”

http://www.kaltesonne.de/eisbar-statistik-gruppe-raumt-ein-veroffentlichte-eisbarenzahlen-sind-lediglich-eine-qualitative-vermutung-mit-dem-ziel-das-offentliche-interesse-zu-befriedigen/

[5]

Hellabrunn der Münchner Tierpark Eisbärenflyer 2014

http://www.hellabrunn.de/fileadmin/pdf/Flyer_Plaene_TP-Ordnung/Eisbaerenflyer_2014_Web.pdf

[6]

EIKE 03.12.2014:  Die neueste Eisbären-Ente

http://www.eike-klima-energie.eu/climategate-anzeige/die-neueste-eisbaeren-ente/

[7]

PeTA:  Klimawandel: Eine Gefahr für Eisbären?

http://www.peta.de/klimawandel-eine-gefahr-fuer-eisbaeren

[8]

FOCUS Magazin | Nr. 48 (2010):   Es wird wärmer – gut so!  6. Sterben die Eisbären aus?

http://www.focus.de/wissen/klima/tid-20791/es-wird-waermer-gut-so-6-sterben-die-eisbaeren-aus_aid_582723.html

[9]

Uni Bremen, Institut für Geographie, Dr. Karin Steinecke: Können Eisbären ohne Meereis überleben?          

[10]

DIE WELT 20.11.15 Die großen Verlierer des Klimawandels

http://www.welt.de/wissenschaft/umwelt/article149065091/Die-grossen-Verlierer-des-Klimawandels.html

[11]

kaltesonne 13. Dezember 2014: Studie: Eisbären können ihre Fressgewohnheiten den Umweltbedingungen anpassen

http://www.kaltesonne.de/studie-eisbaren-konnen-ihre-fressgewohnheiten-den-umweltbedingungen-anpassen/

[12]

Kerstin Langenberger arctic dreams. About me

http://www.arctic-dreams.com/en/about;3.0.0.0.html

[13]

Neue Zürcher Zeitung, 19.2.2014: Eisbären im Klimawandel  Nutzung neuer Nahrungsquellen

http://www.nzz.ch/wissenschaft/nutzung-neuer-nahrungsquellen-an-land-1.18245954

[14]

EIKE 28.12.2015: Fette Eisbären: Population der Svalbard Eisbären ist in den letzten 11 Jahren um 42% gestiegen.

http://www.eike-klima-energie.eu/climategate-anzeige/fette-eisbaeren-population-der-svalbard-eisbaeren-ist-in-den-letzten-11-jahren-um-42-gestiegen/

[15]

The Global Warming Policy Foundation, GWPF Briefing 16. Susan Crockford: THE ARCTIC FALLACY Sea ice stability and the polarbear

[16]

Notz, D. (2015): Historische und zukünftige Entwicklung des Arktischen Meereises. In: Lozán, J.L., H.Grassl, D.Kasang,
D.Notz & H.Escher­Vetter (Hrsg.). Warnsignal Klima: Das Eis der Erde. pp. 194­198

[17]

kaltesonne 12. Mai 2012: Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis

http://www.kaltesonne.de/hamburger-max-planck-institut-mit-fragwurdiger-beweisfuhrung-zum-arktischen-meereis/

[17]

Polar Bear Science, June 16, 2015: Same amount of sea ice for Hudson Bay polar bears as 2013, bears still on the ice

Same amount of sea ice for Hudson Bay polar bears as 2013, bears still on the ice

[18]

RP.Online, 9. Januar 2016: Eisbären – Opfer des Klimawandels

http://www.rp-online.de/panorama/wissen/eisbaeren-opfer-des-klimawandels-aid-1.5676747

Gleicher Artikel in der Stuttgarter Zeitung vom 08. Januar 2016:  Weiße Jäger auf der Suche nach neuer Beute

http://www.stuttgarter-zeitung.de/inhalt.eisbaeren-weisse-jaeger-auf-der-suche-nach-neuer-beute.7801fa9e-b140-4290-bca4-e09bef575cad.html

[19]

HNA (Hessische/Niedersächsische Allgemeine)  26.11.15: Experten-Interview zu Eisbären: Ist alles noch viel schlimmer?

[20]

kaltesonne 1. Mai 2012: Nicht Wärme sondern Schrotflinten sind die größten Feinde der Eisbären

http://www.kaltesonne.de/nicht-warme-sondern-schrotflinten-sind-die-grosten-feinde-der-eisbaren/

[21]

J.L. McKay at al: Holocene fluctuations in Arctic sea-ice cover: dinocyst-based reconstructions for the eastern Chukchi Sea

[22]

Norwegian Polar Institute, December 23 2015:  Polar bears in Svalbard in good condition – so far

http://www.npolar.no/en/news/2015/12-23-counting-of-polar-bears-in-svalbard.html




Richtige Politik der falschen Partei

Man könnte das als eine inneramerikanische Angelegenheit abtun, wenn da nicht die Parallelen zu den Verhältnissen bei uns in Europa allgemein und in Deutschland im besonderen wären. In punkto Energie-, aber auch Klimapolitik, vertreten die politisch als links eingestuften US-Demokraten die alarmistische Seite und eine Energiepolitik, von der bekannt ist, welche verheerenden Folgen sie hat und warum sie völlig sinnlos ist (was von den Main-Stream-Medien und der Politik aber geleugnet wird), während die politisch rechts eingestuften Republikaner den realistischen Standpunkt vertreten. Es gibt also in den USA eine wirkliche, echte Alternative, und man wird im November sehen, ob die Propaganda oder die Aufklärung siegen wird.

Damit liegt auf der Hand, warum es für uns hier in Deutschland sehr lehrreich sein kann und ist, dem amerikanischen Präsidentschafts-Wahlkampf genau zuzuschauen. Auch bei uns vertritt eine als rechts eingestufte und (noch?) sehr schwach ausgeprägte politische Kraft den Energie- und Klima-realistischen Standpunkt, während alle anderen Parteien eine Energiepolitik befeuern, vor deren Folgen viele Fachleute in Beiträgen auf der EIKE-Website schon gewarnt haben. Und hier gibt es doch einen gravierenden Unterschied zu den USA: Angeblich gibt es bei uns eine viel größere Parteienvielfalt, was ja auch logisch ist, denn Politik insgesamt ist natürlich nicht nur Klima- und Energiepolitik. Aber warum ,angeblich‘?

Weil sich – oh Wunder! – alle sog. ,etablierten‘ Parteien in diesem Politikpunkt völlig einig sind! Tatsächlich gibt es bei uns auch eine solche Zweier-Polarisierung wie in den USA. Wo sind die Unterschiede bei rotgelbgrünschwarz? Nirgends! Anders als in den USA ist also diese Polarisierung bei uns sehr einseitig, und bis vor Kurzem gab es noch überhaupt keine Alternative.

Und damit hat manch einer ein ziemliches Problem: Wer seine politische Heimat abgesehen von der Klima- und Energiepolitik eher bei den US-Demokraten bzw. hierzulande bei rotgelbgrünschwarz sieht und der rechten Dogmatik besonders hinsichtlich der Migrantenpolitik in den USA und der Flüchtlingspolitik bei uns ablehnend gegenüber steht, steht vor einem echten Dilemma. Warum wird jemand oder auch eine Partei gleich als ,rechts(radikal)‘ eingestuft, nur weil diese die Energiepolitik für verheerend falsch halten? Wenn ich selbst keinerlei Zweifel an den Aussagen der Energie-Experten beim EIKE hege, aber nicht rechts wählen will – was mache ich dann?

Noch ein Wort zur Alternative bei uns: Es war während der gesamten Menschheitsgeschichte so, dass ein kleiner David einen großen Goliath herausfordert. Wie die namensgebende Geschichte aus der Bibel ausgegangen ist, ist bekannt. Und heute? Heute finden diese Schlachten eher verbal statt. Und rotgelbgrünschwarz ist nun mal ein Goliath, verglichen mit der Alternative. Was liegt da nahe? Es wird verbal auf die einzige echte Alternative eingedroschen. Diese wird als rechtsradikal, menschenfeindlich und eine große Gefahr für Deutschland dargestellt. Eine Gefahr für rotgelbgrünschwarz ist sie allemal, wie die jüngsten Wahlergebnisse zeigen. Aber auch die Main-Stream-Medien dreschen auf die Alternative ein – nur: angesichts der völlig zerstörten Glaubwürdigkeit dieser zu Propaganda-Trompetern verkommenen Medien ist ihnen diesbezüglich kein Wort zu glauben. Man kann sogar noch weiter gehen: So wie über Klima- und Energiepolitik – und auch über die Alternative – berichtet wird, ist es NICHT. Und wenn man weiß, wie etwas NICHT ist, weiß man ja auch schon was.

Fazit für den Autor dieser Zeilen: Er wird bei nächster Gelegenheit „rechts“ wählen, obwohl er eher „links“ steht.

© Chris Frey März 2016




Über die unsachgemäße Anwendung der Regression kleinster Quadrate

Abbildung 1 (rechts!) zeigt die konventionelle und inverse ,normale kleinste Quadrate‘-Anpassung einiger wirklicher, real gemessener Variablen.

Normale Regression kleinster Quadrate [Ordinary least squares regression (OLS)] ist ein sehr nützliches Verfahren, das in allen Bereichen der Wissenschaft häufig angewendet wird. Dem Prinzip nach müssen einer oder mehrere passende Parameter zu adjustieren, dass sie den besten Fit einer Modellfunktion erfüllen, und zwar dem Kriterium folgend, die Summe der quadrierten Ableitungen der Daten vom Modell zu minimieren.

Normalerweise ist es eines der ersten Verfahren, das bzgl. der Analyse experimenteller Daten in Schulen gelehrt wird. Das Verfahren wird auch genauso oft falsch als wie richtig angewendet.

Es kann gezeigt werden, dass unter bestimmten Bedingungen das Kleinste-Quadrate-Fit die beste Schätzung der wirklichen Beziehung darstellt, die aus den verfügbaren Daten abgeleitet werden kann. In der Statistik nennt man sie oft die ,besten, unverzerrten linearen Schätzwerte‘ der Neigung.

Fundamental liegt diesem Verfahren die Annahme zugrunde, dass die Variable der Ordinate (X-Achse) einen vernachlässigbaren Fehler aufweist: es ist eine „kontrollierte Variable“. Es sind die Ableitungen der abhängigen Variable (Y-Achse), die minimiert werden. Im Falle einer Anpassung einer geraden Linie an die Daten ist seit mindestens 1878 bestens bekannt, dass dieses Verfahren die Neigung unterschätzen wird, falls es einen Messfehler oder andere Fehler bei den X-Variablen gibt (R. J. Adcock) [link]).

Es gibt zwei wesentliche Bedingungen, damit dieses Ergebnis eine genaue Schätzung der Neigung ist. Eine ist, dass die Ableitungen der Daten aus der wirklichen Relation ,normal‘ oder Gauss-verteilt sind. Das heißt, sie sind zufälliger Natur. Diese Bedingung kann gestört werden durch signifikante periodische Komponenten in den Daten oder eine exzessive Anzahl von Ausreißer-Datenpunkten. Letztere können oftmals auftreten, wenn nur eine kleine Anzahl von Datenpunkten vorhanden ist und das Rauschen, selbst bei von Natur aus zufälligen Daten, nicht angemessen aufbereitet ist, um sich herauszumitteln.

Die andere wesentliche Bedingung ist, dass der Fehler (oder die nichtlineare Variabilität) der X-Variablen vernachlässigbar ist. Falls diese Bedingung nicht erfüllt ist, werden die aus den Daten abgeleiteten OLS-Ergebnisse fast immer die Neigung der realen Relation unterschätzen. Dieser Effekt wird manchmal als Regressions-Verdünnung [regression dilution] bezeichnet. Der Grad, bis zu dem die Neigung unterschätzt wird, wird bestimmt durch die Natur der X- und Y-Fehler, am stärksten jedoch durch die X-Werte, müssen diese doch vernachlässigbar sein, damit OLS die beste Schätzung ergeben kann.

In dieser Diskussion können „Fehler“ sowohl Ungenauigkeiten bei der Beobachtung oder Messung als auch jedweder Variabilität geschuldet sein infolge irgendwelcher anderen Faktoren als derjenigen, die maßgeblich für die Relation sind, die man mittels Regression der beiden Variablen bestimmen will.

Unter gewissen Umständen kann man die Regressions-Dilution korrigieren, aber um das zu tun, muss die Natur und die Größenordnung der Fehler sowohl der X- als auch der Y-Werte in gewissem Umfang bekannt sein. Typischerweise ist dies nicht der Fall, wenn es über die Kenntnis darüber hinausgeht, ob die X-Variable eine ,kontrollierte Variable‘ mit vernachlässigbarem Fehler ist, obwohl viele Verfahren entwickelt worden sind, den Fehler bei der Schätzung der Neigung abzuschätzen (hier).

Eine kontrollierte Variable kann man gewöhnlich mit einem kontrollierten Experiment gewinnen, oder wenn man eine Zeitreihe untersucht – vorausgesetzt, dass Datum und Zeit der Beobachtungen aufgezeichnet und dokumentiert worden sind in präziser und konsistenter Manier. Das ist typischerweise nicht der Fall, wenn beide Datensätze Beobachtungen verschiedener Variablen sind, was beim Vergleich zweier Quantitäten in der Klimatologie der Fall ist.

Eine Möglichkeit, dieses Problem deutlich zu machen ist, die X- und Y-Achse zu vertauschen und den OLS-Fit zu wiederholen. Falls die Ergebnisse gültig sind, unabhängig von der Orientierung, wäre die erste Neigung das Reziprok der zweiten. Allerdings ist dies nur dann der Fall, wenn es in beiden Variablen nur sehr kleine Fehler gibt; d. h. die Daten sind hoch korreliert (eng verteilt um eine gerade Linie). Im Falle von einer kontrollierten Variable und einer fehleranfälligen Variable wird das invertierte Ergebnis unrichtig sein. Falls zwei Datensätze Beobachtungsfehler enthalten, werden beide Ergebnisse falsch sein, und das korrekte Ergebnis wird allgemein irgendwo dazwischen liegen.

Eine andere Möglichkeit, das Ergebnis zu checken, ist die Kreuz-Korrelation [cross-correlation] zwischen den Residuen und der unabhängigen Variable, d. h. (Modell minus Y) zu X, was man dann für schrittweise erhöhte Werte des fitted Verhältnisses wiederholt. Abhängig von der Natur der Daten wird oftmals offensichtlich sein, dass das OLS-Ergebnis nicht das Minimum-Residuum erzeugt zwischen der Ordinate und dem Regressor; d. h. es ist nicht optimal für die Ko-Variabilität der beiden Quantitäten.

Bei Letzterem können die beiden Regressions-Fits herangezogen werden als Beschränkung des wahrscheinlich wahren Wertes, aber Einiges muss über die relativen Fehler bekannt sein, wenn man entscheidet, wo innerhalb dieser Bandbreite die beste Schätzung liegt. Es gibt eine Anzahl von Verfahren wie etwa die Winkelhalbierung, wobei man das geometrische Mittel (Quadratwurzel des Erzeugten) oder irgendein anderes Mittel betrachtet, aber ultimativ gibt es keine weitere Objektive, es sei denn mittels Wissens um die relativen Fehler. Eindeutig wäre die Halbierung nicht korrekt, falls eine Variable nur einen geringen Fehler aufweist, da die wirkliche Neigung dann nahe dem OLS-Fit liegen würde, die man mit jener Quantität auf der X-Achse durchgeführt hätte.

Abbildung 2: Ein typisches Beispiel einer linearen Regression zweier Variablen mit starkem Rauschen, erzeugt aus synthetischen willkürlichen Daten. Die wahre Neigung, die bei der Generierung der Daten angewendet wurde, liegt zwischen den beiden Ergebnissen der Regression. (Nur im Originalbeitrag: Der Klick auf die Graphik liefert die Reproduktion der Daten und des Graphen).

Abbildung 2b: Ein typisches Beispiel einer korrekten Anwendung einer linearen Regression auf Daten mit vernachlässigbaren X-Fehlern. Die erzeugte Neigung liegt sehr nahe dem wahren Wert – so nahe, dass er nach Augenschein fast ununterscheidbar ist.

Je größer die X-Fehler, umso größer die Schiefe [skew] bei der Verteilung und umso größer der Dilutions-Effekt.

Eine Illustration: Das Spencer simple model

Der folgende Fall dient der Illustration des Themas mit ,klima-artigen‘ Daten. Allerdings muss betont werden, dass das Problem ein objektives mathematisches Problem ist, dessen Prinzip unabhängig von jedwedem speziellen Test-Datensatz ist. Ob das folgende Modell eine genaue Repräsentation des Klimas ist (was hier nicht behauptet wird), hat keine Bedeutung für das Regressions-Problem.

In einem kurzen Beitrag auf seiner Website hat Dr. Roy Spencer ein einfaches Ein-Schicht-Ozean-Klimamodell vorgestellt mit einer vorbestimmten Rückkopplungs-Variablen. Er beobachtete, dass der Versuch der Ableitung der Klimasensitivität auf normale Weise die bekannte Rückkopplung konsistent unterschätzte, die zur Generierung der Daten benutzt worden war.

Mit der Spezifikation dieser Sensitivität (mit einem Gesamt-Rückkopplungs-Parameter) in dem Modell kann man sehen, wie sich eine Analyse simulierter Satellitendaten Beobachtungen ergibt, die routinemäßig ein sensitiveres Klimasystem zeigen (geringeren Rückkopplungs-Parameter) als tatsächlich im Modelllauf spezifiziert.

Und falls unser Klimasystem die Illusion erzeugt, dass es sensitiv ist, werden die Klimamodellierer Modelle entwickeln, die ebenfalls sensitiv sind, und je sensitiver das Klimamodell, umso mehr globale Erwärmung wird es zeigen durch das Hinzufügen von Treibhausgasen in die Atmosphäre.

Das ist eine sehr wichtige Beobachtung. Die Regression eines Strahlungsflusses mit viel Rauschen gegen Temperaturanomalien mit viel Rauschen erzeugt konsistent unrichtig hohe Schätzungen der Klimasensitivität. Allerdings ist es keine vom Klimasystem erzeugte Illusion, sondern eine solche, die durch die unrichtige Anwendung einer OLS-Regression zustande kommt. Finden sich in beiden Variablen Fehler, ist die OLS-Neigung keine akkurate Schätzung mehr der zugrunde liegenden Relation, nach der man sucht.

Dr. Spencer war so freundlich, eine Implementierung des Simple Model in Form einer Kalkulationstabelle zum Herunterladen anzubieten. Damit kann man das Experiment leicht nachvollziehen und den Effekt verifizieren.

Um dieses Problem zu verdeutlichen, wurde die angebotene Kalkulationstabelle modifiziert, um das Verhältnis Strahlungsfluss- zu Temperaturdifferenzen zu duplizieren, jedoch mit umgekehrten Achsen, d. h. es werden genau die gleichen Daten für jeden Lauf verwendet, aber zusätzlich umgekehrt gezeigt. Folglich ist die aus der Tabelle berechnete ,Trendlinie‘ mit den Variablen invers erstellt worden. Am Modell wurden keine Änderungen vorgenommen.

Drei Werte für die vorbestimmte Rückkopplungs-Variable wurden der Reihe nach verwendet. Zwei Werte, nämlich 0,9 und 1,9, die Roy Spencer ins Spiel bringt, repräsentieren die Bandbreite der IPCC-Werte. Der Wert 5,0, den er als Wert näher bei dem liegend vorgeschlagen hat, die er aus Satelliten-Beobachtungsdaten abgeleitet hat.

Hier folgt eine Momentaufnahme, die eine Tabelle mit Ergebnissen aus neun Modellläufen zeigt für jeden Wert des Rückkopplungs-Parameters. Sowohl die konventionelle als auch die inverse Regressions-Neigung sowie deren geometrische Mittelwerte wurden aufgelistet.

Abbildung 3: Momentaufnahme der Kalkulationstabelle.

Zunächst einmal bestätigt dies Roy Spencers Beobachtung, dass die Regression von D-Strahlungsfluss zu D-Temperatur permanent und signifikant den Rückkopplungs-Parameter unterschätzt, der herangezogen worden ist, um die Daten ursprünglich zu erzeugen (was folglich die Klimasensitivität des Modells überschätzt). In diesem limitierten Test liegt der Fehler zwischen einem Drittel und der Hälfte des korrekten Wertes. Es gibt nur einen Wert der konventionellen Neigung kleinster Quadrate, der größer ist als der Wert des jeweiligen Rückkopplungs-Parameters.

Zweitens ist anzumerken, dass das geometrische Mittel der beiden OLS-Regressionen tatsächlich einen wahren Rückkopplungs-Parameter ergibt, der einigermaßen nahe dem Wert liegt, wie er aus den Satellitenbeobachtungen abgeleitet ist. Variationen sind ziemlich gleichmäßig verteilt auf beiden Seiten: Das Mittel ist nur wenig höher als der wahre Wert, und die Standardabweichung ist etwa 9% des Mittels.

Allerdings, für die beiden niedrigeren Rückkopplungs-Parameter-Werte, die die IPCC-Bandbreite der Klimasensitivitäten repräsentieren, während die übliche OLS-Regression substantiell unter dem wahren Wert liegt, ist das geometrische Mittel eine Überschätzung und keine zuverlässige Korrektur über die Bandbreite der Rückkopplungen.

Alle Rückkopplungen repräsentieren eine negative Rückkopplung (anderenfalls wäre das Klimasystem fundamental instabil). Allerdings repräsentiert die Bandbreite der Werte des IPCC weniger negative Rückkopplungen und damit ein weniger stabiles Klima. Dies wird reflektiert durch den Grad der Variabilität der Daten, die in der Kalkulationstabelle geplottet sind. Die Standardabweichungen der Neigungen sind ebenfalls um Einiges größer. Dies war zu erwarten bei weniger die Rückkopplungen kontrollierenden Variationen.

Daraus kann man folgern, dass sich das Verhältnis der proportionalen Variabilität in den beiden Quantitäten ändert als eine Funktion des Grades der Rückkopplung in dem System. Das geometrische Mittel der beiden Neigungen bietet keine gute Schätzung der wahren Rückkopplung für die weniger stabilen Konfigurationen, welche eine größere Variabilität haben. Dies stimmt überein mit Isobe et al. 1990 (link), der die Güte vieler Regressions-Verfahren überprüft hat.

Das einfache Modell hilft zu erkennen, wie dies in Beziehung steht zu den Strahlungs-/Temperatur-Streuplots und Klimasensitivität. Allerdings ist das Problem der Regressions-Dilution ein vollständig allgemeines mathematisches Ergebnis und kann reproduziert werden aus zwei Reihen, die eine lineare Relation mit hinzugefügten Zufallsänderungen haben, wie oben gezeigt.

Was die Studien sagen

Eine Schnelldurchsicht vieler Studien aus jüngster Zeit über das Problem der Schätzung der Klimasensitivität zeigt eine allgemein fehlende Berücksichtigung des Problems der Regressions-Dilution.

Aus Dessler 2010 b (hier):

Schätzungen der Klimasensitivität der Erde sind unsicher, hauptsächlich wegen der Unsicherheit bei der langfristigen Wolken-Rückkopplung.

Spencer & Braswell 2011 (hier):

Abstract: Die Sensitivität des Klimasystems auf ein Strahlungs-Ungleichgewicht bleibt die größte Quelle der Unsicherheit bzgl. der Projektionen einer zukünftigen anthropogenen Klimaänderung.

Es scheint Übereinstimmung zu bestehen, dass dies das Schlüsselproblem bei der Abschätzung zukünftiger Klimatrends ist. Allerdings scheinen sich viele Autoren nicht des Regressionsproblems bewusst zu sein, und viele veröffentlichte Arbeiten zu diesem Thema scheinen sich schwer auf die falsche Hypothese zu stützen, dass die OLS-Regression von Strahlungs- gegen Temperaturänderungen herangezogen werden kann, um dieses Verhältnis genau bestimmen zu können und damit auch zahlreiche Sensitivitäten und Rückkopplungen.

Trenberth 2010 (hier):

Die Klimasensitivität abzuschätzen aus Messungen der Strahlung der Erde von begrenzter Dauer und gemessenen Wassertemperaturen erfordern eine geschlossene und damit globale Erfassung, Gleichgewicht zwischen den Bereichen und robuste Verfahren, mit dem Rauschen umzugehen. Rauschen entsteht durch natürliche Variabilität in der Atmosphäre, und Rauschen bei Messungen durch Satelliten mit Präzession.

Ob die Ergebnisse bedeutsame Einsichten vermittelt oder nicht hängt kritisch von den Hypothesen, Verfahren und dem zeitlichen Rahmen ab…

So ist es, aber unglücklicherweise fährt er dann damit fort, früheren Arbeiten von Lindzen und Choi zu widersprechen, die sich mit dem OLS-Problem befasst hatten einschließlich einer detaillierten statistischen Analyse, mit der sie ihre Ergebnisse verglichen, wenn man sich auf eine ungeeignete Anwendung von Regression stützt. Sicher kein Beispiel für „robuste Verfahren“, nach denen er verlangt.

Abbildung 4: Auszug aus Lindzen und Choi 2011, Abbildung 7, welche die permanente Unterschätzung der Neigung durch die OLS-Regression zeigt (schwarze Linie).

Spencer und Braswell 2011 (hier):

Wie von SB 2010 gezeigt, dekorreliert die Präsenz jedweden mit der Zeit variierenden Strahlungsantriebs die Ko-Variationen zwischen Strahlungsfluss und Temperatur. Niedrige Korrelationen führen zu aus Regressionen diagnostizierten Rückkopplungs-Parametern, die in Richtung Null verzerrt sind, was mit einem grenzwertig instabilem Klimasystem korrespondiert.

Dies ist eine wichtige Studie, in der die Notwendigkeit in den Vordergrund gerückt wird, die verzögerte Reaktion des Klimas während der Regression zu berücksichtigen, um den dekorrelierenden Effekt von Verspätungen der Reaktion zu vermeiden. Allerdings befasst sich dies nicht mit der weiteren Abschwächung infolge der Regressions-Dilution. Es basiert ultimativ immer noch auf Regression von zwei mit Fehlern behafteten Variablen und erkennt daher nicht die Regressions-Dilution, die auch in dieser Situation präsent ist. Daher ist es wahrscheinlich, dass diese Studie die Sensitivität immer noch überschätzt.

Dessler 2011 (hier):

Verwendet man einen realistischeren Wert von σ(dF_ocean)/σ(dR_cloud) = 20, ergibt sich aus der Regression des Strahlungsflusses an der Obergrenze der Atmosphäre TOA zu Temperaturänderungen eine Neigung, die innerhalb von 0,4% von Lambda liegt.

Dann in der Conclusion der Studie (Hervorhebung hinzugefügt):

Vielmehr wird die Evolution von Oberfläche und Atmosphäre während ENSO-Variationen dominiert durch ozeanischen Wärmetransport. Dies wiederum bedeutet, dass Regressionen von Flüssen an der TOA zu δTs herangezogen werden können, um Klimasensitivtät oder die Größenordnung von Klima-Rückkopplungen genau abzuschätzen.

Und aus einer früheren Studie von Dessler 2010 b (hier):

Die Auswirkung eines unechten langzeitlichen Trends entweder durch Strahlungsunterschiede bei bedecktem oder bei klarem Himmel wird geschätzt, indem man einen Trend von T0,5 W/m² pro Jahrzehnt in die CERES-Daten einfügt. Dies ändert die berechnete Rückkopplung um T0,18 W/m² pro Dekade. Die Hinzufügung dieser Fehler bei der Quadratur ergibt eine Gesamt-Unsicherheit von 0,74 und 0,77 W/m² pro Jahrzehnt in den Berechnungen, jeweils bei Verwendung der Reanalysen des EZMW und von MERRA. Andere Quellen der Unsicherheit sind vernachlässigbar.

Dem Autor war offensichtlich nicht bewusst, dass die Ungenauigkeit bei der Regression von zwei unkontrollierten Variablen eine Hauptquelle von Unsicherheit und Fehlern ist.

Lindzen & Choi 2011 (hier):

Unser neues Verfahren macht sich halbwegs gut bei der Unterscheidung positiver von negativen Rückkopplungen und bei der Quantifizierung negativer Rückkopplungen. Im Gegensatz dazu zeigen wir, dass einfache Regressionsverfahren, die in vielen Studien angewendet worden waren, positive Rückkopplungen allgemein übertreiben und selbst dann noch positive Rückkopplungen zeigen, wenn diese tatsächlich negativ sind.

…aber wir erkennen auch deutlich, dass die einfache Regression immer negative Rückkopplungen unter- und positive Rückkopplungen überschätzt.

Hier haben die Autoren eindeutig bemerkt, dass es ein Problem gibt mit den auf Regression beruhenden Verfahren, und sind ziemlich ins Detail gegangen bei der Quantifizierung des Problems, obwohl sie es nicht explizit identifizieren als eine Folge der Präsenz von Unsicherheiten bei der X-Variable, welche die Regressionsergebnisse verzerrt.

Die L&C-Studien erkennen, dass auf Regression basierende Verfahren mit kaum korrelierenden Daten die Neigung ernsthaft unterschätzen und Verfahren verwenden, um das Verhältnis genauer zu berechnen. Sie zeigen Wahrscheinlichkeits-Dichte-Graphen von Monte Carlo-Tests, um die beiden Verfahren zu vergleichen.

Es scheint, dass Letzteres die Autoren heraushebt, schauen sie doch auf die Sensitivitäts-Frage ohne sich auf ungeeignete lineare Regressionsverfahren zu stützen. Dies ist mit Sicherheit teilweise der Grund, dass ihre Ergebnisse deutlich niedriger liegen als die Ergebnisse fast aller anderen Autoren, die sich mit diesem Thema befasst hatten.

Forster & Gregory 2006 (hier):

Für weniger perfekt korrelierende Daten tendiert die OLS-Regression von Q-N zu δTs dazu,Y-Werte zu unterschätzen und daher die Gleichgewichts-Klimasensitivität zu überschätzen (siehe Isobe et al. 1990).

Ein weiterer wichtiger Grund für die Übernahme unseres Regressionsmodells war es, die Hauptschlussfolgerung zu untermauern der Studie mit dem Titel [übersetzt] Nachweis einer relativ kleinen Gleichgewichts-Klimasensitivität. Um die Stichhaltigkeit dieser Schlussfolgerung zu zeigen, haben wir absichtlich das Regressionsmodell übernommen, welches die höchste Klimasensitivität ergab (kleinster Y-Wert). Es wurde gezeigt, dass ein auf Regression kleinster Quadrate beruhendes Verfahren ein besseres Fit ergibt, wenn Fehler in den Daten uncharakterisiert sind (Isobe et al. 1990). Zum Beispiel zeigen beide diese Verfahren für den Zeitraum 1985 bis 1996 ein YNET von etwa 3.5 +/- 2.0 W m2 K↑-1 (eine Gleichgewichts-Temperaturzunahme um 0,7 bis 2,4 K bei einer Verdoppelung des CO2-Gehaltes). Dies sollte verglichen werden mit unserer Bandbreite von 1,0 bis 3,6 K, die in der Conclusion der Studie genannt wird.

Hier benennen die Autoren explizit das Regressionsproblem sowie dessen Auswirkungen auf die Ergebnisse ihrer Studie zur Sensitivität. Allerdings, als sie die Studie 2005 geschrieben hatten, befürchteten sie offensichtlich, dass es die Akzeptanz dessen erschweren würde, was bereits ein niedriger Wert der Klimasensitivität war, falls sie die mathematisch genaueren, aber kleineren Zahlen gezeigt hätten.

Interessant ist, dass Roy Spencer in einem nicht begutachteten Artikel eine sehr ähnlichen Wert gefunden hatte von 3,66 W/m²/K durch den Vergleich von ERBE-Daten mit aus MSU abgeleiteten Temperaturen nach dem Ausbruch des Pinatubo (hier).

Also fühlten sich Forster und Gregory verpflichtet, ihr Best Estimate der Klimasensitivität zu begraben und die Diskussion des Regressionsproblems in den Anhang zu verschieben. Angesichts der mit den Klimagate-E-Mails bekannt gewordenen Aktivitäten war diese Beurteilung im Jahre 2005 klug.

Und jetzt, zehn Jahre nach der Veröffentlichung von F&G 2006, ist die angemessene Anwendung der besten verfügbaren mathematischen Verfahren zur Korrektur dieser systematischen Überschätzung der Klimasensitivität längst überfällig.

Eine Studie aus jüngerer Zeit (Lewis & Curry 2014 hier) verwendete ein anderes Verfahren, um Änderungen zwischen gewählten Zeiträumen zu identifizieren, die daher von Regressionsproblemen nicht betroffen sind. Auch dieses Verfahren ergab niedrigere Werte der Klimasensitivität.

Schlussfolgerung

Unangemessene Anwendungen linearer Regression können falsche und signifikant niedrige Schätzungen der wirklichen Neigung einer linearen Beziehung erzeugen, falls beide Variablen signifikante Messfehler oder andere Störfaktoren aufweisen.

Genau dies ist der Fall, wenn man versucht, den modellierten oder beobachteten Strahlungsfluss zu Temperaturen einer Regression zu unterziehen, um die Sensitivität des Klimasystems abzuschätzen.

In dem Sinne, dass diese Regression in der Klimatologie konventionellerweise angewendet wird, wird der Gesamt-Rückkopplungs-Faktor unterschätzt werden. Da die Klimasensitivität definiert ist als das Reziprok dieses Terms ist dieses Ergebnis eine Überschätzung der Klimasensitivität.

Diese Situation könnte die Ursache sein für die Differenz zwischen auf Regression basierenden Schätzungen der Klimasensitivität und jenen mittels anderer Verfahren. Viele Verfahren zur Reduktion dieses Effektes sind in der wissenschaftlichen Literatur verfügbar, jedoch gibt es nicht die eine, generell anwendbare Lösung des Problems.

Verwendet man lineare Regression zur Abschätzung der Klimasensitivität, muss man diese bedeutende Fehlerquelle berücksichtigen, wenn man ungenaue Werte veröffentlichten Schätzungen der Klimasensitivität hinzufügt oder Schritte bzgl. dieses Themas unternimmt.

Die Dekorrelation infolge gleichzeitiger Präsenz sowohl gleichphasiger als auch orthogonaler Klimareaktionen muss ebenfalls berücksichtigt werden, um die genauesten Informationen aus den verfügbaren Daten zu bekommen. Ein mögliches Verfahren wird detailliert hier beschrieben:

https://judithcurry.com/2015/02/06/on-determination-of-tropical-feedbacks/

Eine mathematische Erklärung des Ursprungs der Regressions-Dilution findet sich hier:

On the origins of regression dilution.

Link: https://judithcurry.com/2016/03/09/on-inappropriate-use-of-least-squares-regression/

Übersetzt von Chris Frey EIKE




Der Umweltschutz hat mit Vögeln nichts am Hut

Unerträglich für den Menschenverstand wird ein solcher Konflikt erst, wenn eins der Ziele nicht mehr benannt wird, wenn es einfach weghaluziniert wird. Es handelt sich um das bisher immer vehement verkündete Ziel des Vogelschutzes und zwar in der Abwägung mit dem Ziel der Energiegewinnung aus Wind. Das Thüringer Landesverwaltungsamt hat den Bürgermeistern der Planungsregion Mittelthüringen gerade einen Umweltbericht zum Teilplan „Windenergie“ zwecks Behördenbeteiligung zugestellt. In der Anlage ein 31seitiger Umweltbericht.

So ein Bericht ist dazu da, um die Umweltauswirkungen eines Eingriffs zu beschreiben und zu bewerten, und zwar in Bezug auf den beabsichtigten Eingriff: den Bau und Betrieb von Windkraftanlagen.

Der Gigantismus des Windkraftanlagenbaus in Zahlen: In den 1990er Jahren übertraf der Rotordurchmesser der Windkraftanlagen selten 50 Meter. 2014 betrug  der durchschnittliche Rotordurchmesser schon 99 m und die durchschnittliche Nabenhöhe 116 m. Die größten Rotoren von WKA haben inzwischen bis 170 m Durchmesser, was fast dem Aufstandsmaß der Cheops-Pyramide entspricht.

Eine der heutigen Serienanlagen ist die E-126 mit einer Nabenhöhe von 135 m auf einem Stahlbetonturm mit 2.800 t Gewicht. Der Durchmesser des Turms beträgt am Schaft 16,5 m, die Gesamthöhe fast 200 m. Nabe und Flügel wiegen noch einmal 320 Tonnen und das Fundament 3.500 Tonnen.

Trotz dieser Ausmaße ist eine Windkraftanlage ein fast punktförmiger Eingriff in die Umwelt, im Gegensatz zu flächenhaften Eingriffen bei Baugebieten und linienhaften bei Verkehrswegen. Denn die Aufstandsfläche, die Zuwegungen und die Aufstandsflächen für die Wartungsgeräte sind in der Regel deutlich unter einen Hektar groß.

Trotzdem thematisiert der Umweltbericht das Schutzgut Grundwasser auf einer Viertelseite, das Schutzgut Boden auf einer halben Seite, Kultur- und Sachgüter (Stadtsilhouetten und Denkmäler) auf einer Seite, den Menschen aber nur auf einer Drittelseite. Und auf dieser Drittelseite wird der Infraschall mit keinem Wort erwähnt.

Bisher wurden die Beeeinträchtigungen des Menschen durch Windkraftanlagen von Medien, Politik und Wissenschaft rundweg geleugnet. Jetzt liegt jedoch eine Machbarkeitsstudie des Umweltbundesamtes auf dem Tisch, die erstmals einräumt, daß es Probleme geben könnte.

In der Studie heißt es unter anderem: „Das charakteristische pulsierende Geräusch von Windenergieanlagen, das lange Zeit mit dem Passieren eines Rotorblatts am Turm erklärt wurde, wird derzeit mit dem Durchschneiden verschiedener Schichten im Windprofil erklärt. Dabei entstehende Turbulenzen könnten nach Kameier et al. (2013) einen impulshaltigen Charakter verursachen. Bei solchen Turbulenzen können sich Wirbel ablösen, die auch über größere Entfernungen sehr formstabil zu einer stark gerichteten Abstrahlung führen können.“

An anderer Stelle heißt es: „Ein großer Abstand zwischen Emissions- und Immissionsort (zwischen WKA und Haus) verstärkt den Einfluss der Meteorologie. Dies kann bei instabilen Wetterlagen schlagartig andere Ausbreitungsverhältnisse und damit stark schwankende Pegel zur Folge haben. Die von vielen Betroffenen gemachte Beobachtung, dass nachts die Geräusche von Windenergieanlagen lauter wären, wurde früher mit einer erhöhten Empfindlichkeit / Aufmerksamkeit der Betroffenen hinsichtlich der Geräusche erklärt. Durch Van den Berg (2006) konnte aber nachgewiesen werden, dass nachts systematisch andere Ausbreitungsbedingungen vorliegen, die auch dafür verantwortlich sind. Nicht selten ist festzustellen, dass Pegel mit zunehmendem Abstand nicht kontinuierlich abnehmen, sondern auch zunehmen können. Dieser Effekt ist durch das Windprofil bedingt.“

Windkraftanlagen verursachen tieffrequenten Schall. In der Studie heißt es dazu: „Die physikalischen Gegebenheiten, die die nahezu ungehinderte Ausbreitung von tieffrequentem Schall und Infraschall zugrundeliegen sind dieselben, die einen wirksamen Lärmschutz gegenüber diesen Schallarten sehr erschweren. Sollen effektive bauliche Schallschutzmaßnahmen getroffen werden, so ist der Aufwand bezüglich eingesetzter Massen oder Volumina umgekehrt proportional zu den Frequenzen. Bei tieffrequentem Schall oder sogar bei Infraschall bedeutet dies in der Regel einen kaum realisierbaren Aufwand“ Gegen Windkraftanlagen gibt es keinen bezahlbaren Immisionsschutz. Schallschutzfenster sind gegen Infraschall nahezu wirkungslos.

Diese Studie des Bundesumweltamtes ist beim Thüringer Landesverwaltungsamt offensichtlich noch nicht angekommen.

Auf anderthalb Seiten wird im Umweltbericht des Landesverwaltungsamtes die biologische Vielfalt, Fauna und Flora abgehandelt. Auf einer Seite erst mal die Pflanzenwelt, die durch die Anlagen wirklich nur geringfügig betroffen ist. Es ist als wenn der Leser besoffengeschrieben werden soll. Und dann kommt doch noch die Tierwelt. Da werden der Rothirsch und die Wildkatze sowie deren Wanderungsbewegungen erwähnt. Ein Konflikt zwischen Windrad und Wildkatze wäre zum Beispiel möglich, wenn nachts eine blinde oder verwirrte Wildkatze vor den Schaft einer Anlage läuft.

Kein Wort von der Vogelwelt! Keine Zeile von Vögelzügen der Wandervögel nach Afrika und zurück. Kein Wort vom Rotmilan und anderen Greifvögeln, die in Thüringen beheimatet sind. Wenn Windkraftanlagen für irgend etwas Gefahren darstellen, dann für Vögel, für Menschen durch Infraschall und für die Brieftasche der Stromverbraucher.

Letzteres gehört in die Vorhabenbeschreibung, aber nicht in den Umweltbericht. Ach ja, eine Vorhabenbeschreibung mit Anlagenparametern fehlt in der Unterlage des Landesverwaltungsamtes auch.

Der Umweltbericht endet mit der Zusammenfassung: Dort findet man die Behauptung, ein 5-km Mindestabstand würde ausreichend breite Korridore für den Vogelzug gewährleisten. Zwischen Sömmerda und Bad Sulza soll ein fast durchgehendes Band von Windrädern entstehen, das tatsächlich zweimal (!) unterbrochen ist. Woher wissen die Vögel das? Gibt es Vereinbarungen des Landesverwaltungsamts mit dem Zentralkomitee der Störche über die Flugrouten? Es gibt einen Zielkonflikt zwischen Windkraft und Vogelschutz. Das wird in der Unterlage nicht eingeräumt, sondern weghaluziniert.

Der Entwurf zum Teilplan „Windenergie“ ist eine einzige Katastrophe. Der Gutachter hat das Blaue vom Himmel runtergeschrieben, um der Landesregierung (in der die Grünen das Umweltministerium besetzen) zum Munde zu reden. Windkraftanlagen sollen um jeden Preis gegen den Willen der Bevölkerung durchgedrückt werden. Das ganze versendete Machwerk ist eine einzige Beleidigung des Verstandes. Und gesetzeskonform ist so ein Gepfusche auch nicht.

Übernommen von Prabels Blog hier 




Töten Windturbinen Wale?

Tatsächlich ist dieses Gebiet Schauplatz der größten Konzentration von Offshore-Windturbinen weltweit, und es gibt viele Beweise, dass deren akustische Verschmutzung die Kommunikation und Navigation von Walen empfindlich stören kann.

Allerdings suchte der britische Guardian an allen möglichen Stellen nach Erklärungen – außer an der richtigen Stelle. Das ist keine Überraschung, unterstützt dieses Blatt doch die Windenergie, egal welche Kosten und Schäden den Menschen oder der Umwelt zugefügt werden. Nach Konsultationen mit einer Meeres-Umweltgruppe kam die Zeitung zu der Schlussfolgerung: „Die Nordsee ist wie eine Falle. … Es ist für Wale praktisch unmöglich, ihren Weg durch den schmalen Ärmelkanal zu finden“.

Nein, das stimmt nicht. Diese intelligenten Tiere würden natürlich leicht ihren Weg zum und durch den Ärmelkanal finden, indem sie einfach den Küsten Englands oder des europäischen Festlandes folgen. Aber der Autor scheint seine „Erklärung“ auf jeden Fall durchpeitschen zu wollen, selbst wenn sie immer unlogischer wird. „Die gestrandeten Wale werden dehydriert, weil sie ihr Wasser von Tintenfischen erhalten“, argumentiert er, bevor er einräumt, dass „die toten Tiere von Holland und Deutschland gut ernährt waren“ und dass die Tintenfisch-Population in der Nordsee während der letzten Jahre zugenommen hat.

Der Artikel verwirft Sonarortungen und Explosiv-Experimente der Royal Navy als Erklärung, weil „große Militärmanöver auf See im Hochwinter ungewöhnlich sind“. Der Autor schließt den Artikel mit dem folgenden Zitat seines herbeigezogenen vermeintlichen Experten: „Wenn es zu Massensterben an Stränden kommt, ist es immer weise, auf mögliche menschliche Ursachen zu schauen. Im Moment sehe ich aber nichts aus dieser Richtung“. Er sollte etwas genauer hinschauen. Nicht jeder ist derartig blind.

Ein Daily Mail-Artikel in UK hat beobachtet: „Tatsächlich haben Forscher an der University von St. Andrews herausgefunden, dass der von Offshore-Windparks verursachte Lärm die Sonarortungen der Wale durcheinanderbringt, was die Tiere in tragischen Fällen an Strände treibt, wo sie oftmals sterben“.

Es ist sicher möglich, dass permanente Schäden an den mittleren und inneren Ohren der Wale und damit an ihrem inneren Sonarsystem auftreten durch große Druckluft-Gewehre [large air guns], die bei seismischen Untersuchungen zum Einsatz kommen, und den Lärmimpulsen, die entstehen, wenn Rammen Löcher in den Felsuntergrund bohren, um Sockel für Windturbinen zu errichten. Befürworter der Windkraft selbst geben zu, dass diese Bohrungen unter Wasser bis zu 80 km weit zu hören sind und dass sie Wale verletzen, die zufällig in der Nähe herumschwimmen. Aber solange diese Verletzungen keine Blutungen nach sich ziehen, sind sie sehr schwierig zu entdecken.

Natürliche Phänomene wie Erdbeben oder Unterwasser-Vulkanismus sowie ins Meer fallende Meteoriten waren vermutlich der Grund für das Stranden von Walen in der Vergangenheit, indem die inneren Ohren und die Sonar-Organe der Tiere verletzt werden. Dies macht die Tiere ängstlich und orientierungslos, und sie trachten nach Schutz in flachen Gewässern. In jüngerer Zeit sind „militärische Übungen unter Einsatz von Sonar mittlerer Frequenz ziemlich früh mit der Desorientierung und dem Tod von Schnabelwalen in Zusammenhang gebracht worden“, schreibt der Guardian.

Niederfrequentes Sonar kann sogar noch gefährlicher sein, erklärt der Natural Resource Defense Council NRDC. „Einige Systeme operieren mit über 235 Dezibel“, sagte das NRDC, „und erzeugen Schallwellen, die Hunderte Meilen des Ozeans durchlaufen können. Während Tests vor der Küste Kaliforniens konnte der Lärm des wichtigsten Niederfrequenz-Sonarsystems der Navy im gesamten Pazifischen Ozean detektiert werden“.

Die US-Navy selbst hat die Gefahr erkannt, die Sonarsysteme für maritime Säugetiere darstellen. Im Science magazine berichtet sie: „In einer Eckpfeiler-Studie ist die US-Navy zu dem Ergebnis gekommen, dass mindestens sechs Wale getötet worden sind bei einem Unfall, in den ein allgemein übliches Schiffssonar involviert war. Das von der Navy und dem National Marine Fisheries Service (NMFS) der USA bekannt gegebene Ergebnis könnte die Pläne der Navy verkomplizieren, ein starkes neues Sonarsystem einzusetzen, das dazu bestimmt ist, feindliche U-Boote auf große Entfernungen aufzuspüren“, und das trotz der Bedeutung dieses Systems sowie den zugehörigen U-Booten und Marineschiffen an der Oberfläche für die nationale Sicherheit.

Es hieß, dass das „niederfrequente aktive Sonar“ dieses Systems das lauteste Geräusch ist, dass jemals in den Meeren zu hören war (hier). Aber Windturbinen emittieren ebenfalls niederfrequenten Lärm einschließlich des gefährlichen Infraschalls. Auf See werden diese Vibrationen über die Masten in das Wasser geleitet und über die Sockel in den Felsuntergrund. Sie können sich bis zu 50 km weit ausbreiten.

Sicher, die akustische Verschmutzung durch Sonar – besonders die starken Systeme der Navy – ist größer als die von Windturbinen. Aber der Lärm von Windturbinen und Infraschall ist nahezu konstant, dauert an, solange die Windturbinen stehen und kommt aus vielen verschiedenen Richtungen. Genauso war es auch in dem Gebiet, in dem die Wale gestrandet sind.

Auf dem Festland – obwohl die Windindustrie jede Schuld daran standhaft leugnet – verdichten sich Beweise, dass niederfrequenter Lärm und besonders Infraschall von Windturbinen bedeutende nachteilige Auswirkungen auf Anwohner haben; darunter Schlaflosigkeit, Kopfschmerzen, Herzrasen und ein Dutzend weiterer Beschwerden. Unter Wasser, wo sich Schallwellen viel weiter ausbreiten, ist es unverantwortlich und unwissenschaftlich zu argumentieren, dass Wale nicht durch laufende Windturbinen betroffen werden, vor allem, weil Wale ihr Sonar dazu brauchen, um zu „sehen“, was um sie herum vor sich geht.

Wissenschaftler haben hier darauf hingewiesen: „Es ist wahrscheinlich, dass die akustische Verwirrung durch anthropogene Geräusche zunehmend störende Auswirkungen auf die akustischen Informationen haben, die für die Kommunikation und andere wichtige Aktivitäten wie Navigation sowie die Erkennung von Beute bzw. sich nähernder Raubtiere unabdingbar sind“.

„Erblindet“ durch diese Verwirrung könnten Wale und Delfine nach Schutz in flachen Gewässern suchen, weit entfernt von großen Schiffen und Killerwalen. Dort könnten sie von der Ebbe überrascht werden, haben doch große pelagische Spezies kaum Erfahrung mit Tidenströmungen.

Im September 2012 sind 19 Grindwale, ein Zwergwal und ein großer Walhai an der Küste von Schottland gestrandet, und zwar gegenüber einem Gebiet, in dem auf Schiffen Luftgewehre zur Untersuchung des Meeresbodens im Einsatz waren. Vorbereitet wurde damit die Installation von Offshore-Windparks. „Eine zweite Gruppe von 24 Grindwalen ist zur gleichen Zeit im Flachwasser bei Cellardyke gesichtet worden, aber sie haben ihren Weg ohne Stranden zurück ins Meer gefunden“, hieß es in dem Artikel.

Juni 2005 nahe des Windparks auf Scroby Sands [eine Sandbank] an der Küste von UK angeschwemmt wurden. „Es ist schwierig, nicht zu der Schlussfolgerung zu kommen, dass der Windpark dafür verantwortlich ist“, resümierte der Autor.

Viele ähnliche Todesfälle können sehr gut auch im offenen Meer durch Windparks verursacht worden sein. Die wissenschaftliche und umweltliche Literatur steckt voller Warnungen vor den Risiken für maritime Säugetieren durch vom Menschen verursachten Lärm.

Moderne 8-Megawatt-Offshoreturbinen ragen 200 Meter über die Wasseroberfläche auf; ihre Rotorblätter rotieren mit einem Durchmesser von 164 Metern. Diese gewaltigen Rotorblätter erzeugen starken pulsierenden Infraschall und fordern einen erheblichen Tribut vieler Spezies von Seevögeln und sogar von Fledermäusen, die von Turbinen bis zu 14 km vor der Küste angezogen werden.

In einem Brief vom Februar 2005 schätzte die Massachusetts Audubon Society [John James Audubon gründete einen Nationalpark; näheres hier], dass das geplante Windkraftprojekt am Cape Cod allein in jedem Jahr bis zu 6600 Spezies von Meeresvögeln töten werde einschließlich des Rosalöfflers [roseate tern], der auf der Liste gefährdeter Arten steht.

Wollen wir wirklich Meeressäugetiere der Abschlachtung von Vögeln und Fledermäusen hinzufügen, indem diese unberechenbare, schädliche, enorm teure und schwer subventionierte Energiequelle in maritimen Habitaten ausgeweitet wird?

Es gibt aber noch eine weitere Gefahr: stehen Wälder dieser enormen Turbinen erst einmal vor unseren Küsten, steigt das Risiko von Zusammenstößen mit Schiffen erheblich, vor allem bei Sturm oder dichtem Nebel, und auch mit U-Booten. Außerdem wird auch die Erfassung feindlicher Schiffe und tief fliegender Flugzeuge beeinträchtigt, einschließlich denen von potentiellen Terroristen, werden doch die küstennahen Gewässer gefährlicher für Hubschrauber der Küstenwache und andere Rettungsaktivitäten.

Die Offshore-Windindustrie macht aus ökonomischer, umweltlicher, verteidigungstechnischer oder Schifffahrts-Perspektive keinerlei Sinn. Die Freistellung dieser enormen Installationen von Gesetzen zum Schutz gefährdeter Arten und anderen Gesetzen, denen alle anderen Industrien folgen müssen – sogar die US- und die Royal Navy – ist unverantwortlich und sogar kriminell.

Link: http://www.cfact.org/2016/03/04/are-wind-turbines-killing-whales/

Übersetzt von Chris Frey EIKE




Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (1)

Bild rechts: Aktivisten einer BN Kreisgruppe bei einer (Originaltext) „Eisbärenaktion“ zum letzten Klimagipfel Herbst 2015 

27. Februar 2016, internationaler Eisbärentag im Münchner Tierpark Hellabrunn. Besucher erfahren alles Wissenswerte über die Tiere, ihre Gefährdung und den Klimawandel.

Internationaler Eisbärentag in Hellabrunn:

Hellabrunn möchte den Internationalen Eisbärentag dazu nutzen, auf die Gefährdung der wildlebenden Artgenossen der Münchner Eisbären Giovanna und Yoghi aufmerksam zu machen. Der jährlich am 27. Februar stattfindende „International Polar Bear Day“ wurde 2004 von der Organisation Polar Bears International initiiert und will weltweit auf den Klimawandel und die damit verbundene Gefährdung der Eisbären hinweisen. Laut Weltnaturschutzorganisation IUCN liegt der aktuelle Bestand der Eisbären bei etwa 20.000 Tieren in freier Wildbahn. Sie listet den Eisbären als „gefährdet“. Wissenschaftler rechnen damit, dass der Bestand innerhalb der nächsten Jahrzehnte weiter dramatisch abnimmt. 

Im Hellabrunner Artenschutzzentrum informieren am Samstag, den 27. Februar die Artenschutzbotschafter des Tierparks von 10 bis 16 Uhr über den Klimawandel und geben Tipps, was jeder persönlich tun kann, um Eisbären zu schützen.

Seit 2014 unterstützt Hellabrunn die Organisation Polar Bears International. 

Wieder eine der nicht enden wollenden, erschreckenden Klimawandelgeschichten. Gerade war man noch beruhigt aufgrund der Mitteilungen, die Eisbärpopulation hätte seit dem Minimum der 1950er Jahren deutlich zugenommen. Auch EIKE publizierte gerade eine erfreulich positive Darstellung dazu „Zehn düstere Prophezeiungen bzgl. des Unterganges von Eisbären sind gescheitert: jetzt wieder 20.000 bis 30.000 Exemplare“. Im Fernsehen konnte der Autor eine Reportage über Spitzbergen ansehen, bei der die Forscher teilweise nicht an Land gehen konnten, weil es von (im Film sichtbaren) Eisbären wimmelte. 

Und nun sieht sich der Münchner Tierpark veranlasst auch dieses kleine Glück Kindern und Eltern zu nehmen und zu erinnern: Der schreckliche Klimawandel bleibt immer und überall.

Deshalb anbei eine kleine Darstellung was sich über die Gefährdung der Eisbären ermitteln lässt.

Ist der Tierpark Hellabrunn wissenschaftlich neutral

Ein Blick in die Veranstaltungsinformation von 2015 zeigt dass man das nicht erwarten kann. Es soll primär nicht Wissen, sondern eine Botschaft vermittelt werden – und die ist eindeutig klimapropagandistisch: 

Umweltbildung am Internationalen Eisbärentag in Hellabrunn

Zoodirektor Rasem Baban ist es ein großes Anliegen, dass Hellabrunn beim Internationalen Eisbärentag dabei ist: „Wir möchten die Chance nutzen, unseren Besuchern die Tragweite ihres Handelns in Bezug auf den Klimawandel näherzubringen.

Teilnehmer des Aktionstags sollen ihr Thermostat 2°C hinunter bzw. heraufregeln (je nachdem, ob sie sich gerade im Winter oder Sommer befinden) und damit CO2 einsparen. Etwa ein Fünftel des Energiebedarfs in Deutschland wird für Heizung und Warmwasser verbraucht. Heizkosten sind damit eine wichtige Stellschraube, um Energie einzusparen und den CO2-Verbrauch zu senken.
Der globale Klimawandel, der in der Arktis am deutlichsten sichtbar ist, gilt als die größte Bedrohung für den Eisbären: Innerhalb der vergangenen 100 Jahre ist die Lufttemperatur um 5°C angestiegen. Die Ausdehnung des Packeises ist seit 1985 um sechs Prozent zurückgegangen, die Eismasse sogar um fast 40 Prozent. Das Eis schmilzt im Frühjahr früher und kehrt im Herbst später zurück.

[5] BEDROHT VOM KLIMAWANDEL AKTIV FÜR DEN KLIMASCHUTZ – AKTIV FÜR DIE EISBÄREN! 

Die Angaben zur Eisbärpopulation

Hellabrunn gibt in seiner Veranstaltungsmitteilung für die Eisbärpopulation Daten der Organisation IUCN an:

Tierpark Hellabrunn Veranstaltungsinfo: Laut Weltnaturschutzorganisation IUCN liegt der aktuelle Bestand der Eisbären bei etwa 20.000 Tieren in freier Wildbahn. Sie listet den Eisbären als „gefährdet“. Wissenschaftler rechnen damit, dass der Bestand innerhalb der nächsten Jahrzehnte weiter dramatisch abnimmt.

IUCN selbst hat diese Daten genau rechtzeitig zum letzten Klimagipfel im Herbst 2015 publiziert. Anbei der Auszug vom damaligen „Spiegel“:

SPIEGEL ONLINE 19.11.2015: Gefährdete Arten

Mit hoher Wahrscheinlichkeit werden die Eisbärenbestände deshalb in den kommenden 35 bis 40 Jahren um mehr als 30 Prozent schrumpfen, berichtet die Weltnaturschutzorganisation IUCN.

Die Naturschützer bewerteten die Überlebenschancen der Eisbären vor allem mit Blick auf den Weltklimagipfel, der vom 30. November bis 11. Dezember in Paris stattfindet, neu. Sie glichen Daten zu allen Populationen in der Arktis mit Statistiken zur Eisschmelze in den vergangenen Jahrzehnten ab und speisten sie in eine Computersimulationen.

Die Vorhersage der dramatischen Abnahme 

Wie man im Spiegel-Artikel nachlesen kann, wurde die Vorhersage, dass die Eisbärenpopulation dramatisch abnimmt anhand einer Computersimulation ermittelt – und sofort von allen Medien übernommen – wie auch vom Tierpark Hellabrunn. 

Ob es jedoch in der wirklichen Natur dafür Anzeichen gibt lohnt sich nachzusehen.

Wie steht es um die Eisbärenpopulation

Die Tierschutzorganisation PeTA weiß dazu etwas zu berichten

Natürlich schlägt eine Tierschutzorganisation einer anderen in der Regel kein Auge aus. PeTA ist aber gegen Wildtierhaltung in Zoos und Zirkus. Das argumentiert sich nur, wenn sie in freier Wildbahn überleben können. Damit ist PeTA vor-eingenommen. Aber deren Recherche und Argumentation ist deshalb nicht uninformativ. 

PeTA: Dramatischer Rückgang der Eisbärenpopulationen?

Wer kennt sie nicht, die Schlagzeilen „Klimaschock lässt den weißen Riesen keine Chance“ oder „Eisbären in Not“. Panikartig verbreiten sich die Meldungen, dass Knuts frei lebenden Verwandten durch Klima und Lebensraumzerstörung massiv vom Aussterben bedroht seien. Ja, die „Erderwärmung werde das majestätische Geschöpf auslöschen“.

Genau in diese Kerbe schlugen fortan auch Zoos und Politik in Bezug auf die in Deutschland inhaftierten Eisbären.

Geht der Bestand der Eisbären wirklich dramatisch zurück?

Die Rote Liste des IUCN nennt am 27.08.2009 einen Bestand von 20.000 bis 25.000 Eisbärenindividuen. Von nur noch 16.000 Eisbären kann also keine Rede sein. Auch ein Blick auf die Bestandserhebungen seit 1950 lässt erkennen, dass sich der Bestand von vormals 5.000 Eisbären bis heute erheblich erhöhte und seit 2001 recht stabil blieb. 1950 gab es bis zu 5.000 Eisbären 1965–1970 gab es 8.000-10.000 Eisbären 1984 gab es 25.000 Eisbären 1997 gab es 22.000-27.000 Eisbären 2001 gab es 21.500-25.000 Eisbären 2005 gab es 20.000-25.000 Eisbären

Zufügung des Autors: aktuell wird der Bestand auf zwischen 20 … 31.000 geschätzt

2007 sprach man von 13 einzelnen Eisbär-Populationen in Kanada, von denen elf stabil waren oder sogar zunahmen. Die IUCN beschreibt 2009 sogar 19 Eisbären-Einzelpopulationen in ihrem Lebensraum.

In sieben der 19 bislang untersuchten Eisbären-Populationen sei der Bestand stabil oder nähme sogar zu.

Von einem erheblichen Rückgang der Eisbären-Population kann also aufgrund der Zahlen nicht die Rede sein. Dennoch wird noch bis heute in den Medien von einem Problem geredet und immer weiter dramatisiert.
„Die internationale Naturschutzunion IUCN hat die Eisbären auf eine Liste von mehr als 16.000 gefährdeten Tierarten gesetzt und schätzt, dass ihre Zahl (heute 22.000-25.000 Tiere weltweit) in den kommen 45 Jahren um ein Drittel zurückgehen wird.“

In 45 Jahren soll die Population also um ca. 8.300 Tiere zurückgehen.
Wäre das aber in Anbetracht dass es auf dem heutigen Lebensraum der Eisbären einst nur ca. 5.000 Tiere lebten, wirklich dramatisch?

Die Daten zum Eisbärenbestand

Übersicht

Sieht man in die aktuellen Publizierungen  bei Polar Bear Science, wird für den Bestand im Jahr 2015 eine Zahl von 20.000 …. 31.000 (Mittelwert: 25.500) genannt (Polar Bear Science: „IUCN Red List says global polar bear population is 20,000 – 31,000 (25,500)“. Weiter findet sich darin das Bild 1 mit den umgesetzten Daten der Eisbärpopulationen seit 1960.

 

Bild 1 Verlauf der Eisbärpopulationen nach Polar Bear Science. Die Spannweite der Bestandsschätzungen wurde vom Autor durch gestrichelte Linien hervorgehoben.

Wie genau sind die Daten zur Eisbärpopulation

Der „Eisbärthriller“ 

Mehr durch einen Zufall kam heraus, dass die Polar Bear Specialist Group (PBSG) welche die Zahlen zum Eisbären-Bestand   veröffentlicht nicht wirklich zählte, sondern die Populationsdaten einfach vermutete: 

Derzeitiger Vorsitzenden der PBSG, Dr. Dag Vongraven: qualitative Vermutung mit dem Ziel das öffentliche Interesse zu befriedigen”. 

Außerdem wurden in den „Erhebungen“ gleich fünf wichtige Eisbärgebiete ausgespart. Die bisherigen Meldungen zu den Beständen waren also reine alarmistische Schätzwerte.

Auf kaltesonne wurde es gemeldet: 

kaltesonne: Eisbären-Statistik-Gruppe räumt ein: Veröffentlichte Eisbärenzahlen sind lediglich eine “qualitative Vermutung"

Im Blog von Radio Utopia findet sich dazu eine informelle Zusammenfassung

Radio Utopia „Offizielle Zahlen zu weltweiten Eisbärenpopulationen ohne wissenschaftliche Grundlagen“ (Auszüge):

Um die öffentliche Nachfrage zu befriedigen, werden von der IUCN Polar Bear Specialist Group (PBSG) jahrelang einfach nur „qualifizierte“ Vermutungen zur Anzahl der vorhandenen Eisbären auf diesem Planeten abgegeben.

Was jedoch schockierend ist, ist das von einer Wissenschaftlerin am 30.Mai 2014 veröffentlichte Eingeständnis der IUCN Polar Bear Specialist Group (PBSG). …..

J. Crockford, … veröffentlichte auf ihrem Blog die am 22. Mai 2014 per E-Mail eingegangene Antwort auf ihre Nachfrage zu den Populationen vom derzeitigen Vorsitzenden der PBSG, Dr. Dag Vongraven am Norwegischen Polarinstitut.

Die PBSG hat seit dem Jahr 2005 die Anzahl der Eisbären mit 20000 bis 25000 angegeben. Dabei wurden grosse Teile der polaren Gebiete nicht berücksichtigt, so das Arktische Becken, Ost-Grönland und das gesamte russische Gebiet. Ein Blick auf diese Karte genügt, um die Grösse dieses Bereiches zu erfassen. Ungefähr noch einmal die Hälfte der offiziellen Angaben müssten noch hinzugerechnet werden, auch das sind nur Schätzungen und keine tatsächlichen „wissenschaftlichen“ Werte.

Vongraven bezeichnete die Angaben als „simply a qualified guess given to satisfy public demand“ und gibt zu, dass es überhaupt kein oder allenfalls nur „rudimentäres“ Wissen dazu gibt.

Dieses Eingeständnis über die „Befriedigung des öffentlichen Interesses“ auf der Basis von Annahmen ist nicht nur der blanke Hohn, mit der jahrelang die Weltbevölkerung zum Narren vom Verschwinden der weissen Bären gehalten wurde, sondern ein grosses Verbrechen an dem betrogenen gutgläubigen Bürger, der sich ohne zu Hinterfragen auf die Wissenschaften verlässt. 

Im Bild 2 sieht man welche großen Teile des Polargebietes früher nie von den Zählungen erfasst wurde (schwarz gekennzeichnete Flächen)

 

Bild 2 Von der PBSG nicht in den Zählungen erfasste Polargebiete (schwarz) (aus „kaltesonne“, Quelle: Polarbearscience.com)

Aus der Abnahme wird auf einmal eine Zunahme der Eisbärpopulation

Die folgenden Grafiken (Bild 3) zeigen, wie sich nach Bekanntwerden der falschen Daten durch Ergänzen der fehlenden Populationen auf einmal eine Zunahme ergibt.

Nun zählt auch neuerdings niemand wirklich die einzelnen Bären, vor allem nicht auf russischen Gebieten. Aber eines ist sicher: Die bisherigen „Daten“ waren Fälschungen und eine Abnahme der Population ist eher unwahrscheinlich. Komischer weise wurde dies über die vielen Jahre von keinem der vielen „Experten“ und NGOs bemerkt.

 

Bild 3a: Eisbärenentwicklung laut PBSG (oben) und nach Berücksichtigung fehlender Daten (unten). Quelle: polarbearscience.com.

Bild 3b Eisbärenentwicklung vor / nach der Datenkorrektur (entnommen aus „kaltesonne“). Anm.: Der aktuelle Stand für 2015 im zweiten Bildteil wurde vom Autor aus Bild 1 zugefügt

Warum „müssen“ die Eisbären sterben

These: Das Frühjahrseis wird zu dünn

Tierpark Hellabrunn[5]:

In wenigen Jahrzehnten könnte die Arktis im Sommer komplett eisfrei sein. Schon heute beginnt das Packeis im Frühjahr immer früher zu schmelzen und das Meer friert im Herbst immer später zu. Dies hat schwerwiegende Folgen für den Eisbären: Die Zeit, in der Eisbären auf Robbenjagd gehen und sich ausreichend Energiereserven für die eisfreie Zeit anfressen können, wird immer kürzer. 

Dazu sehe man sich die Grafik aus einer Publikation von Polar Bear Science an (Bild 4). Das für die Eisbären so wichtige Eis hat ganz unwesentlich abgenommen. wohl ein Grund, warum die Population nicht abnimmt. Auch dazu stellt sich wieder die Frage: warum viel auch das wieder keinem der „Wissenschaftler“ auf?

 Bild 4 Geringe Abnahme des für die Eisbären wichtigen Frühlingseises (Schwarz) im Verhältnis zum unwichtigeren Sommereis (Rot), Quelle Polar Bear Science 

Ergänzend der Verlauf des  Frühsommereises in der Hudson-Bay mit ihrer großen  Eisbärdichte. So dramatisch wie überall berichtet sieht auch dieser Verlauf nicht aus. Dass Eisbären in ihrer Geschichte noch nie schlimmeres erlebt hätten kann man kaum glauben.

 

Bild 5 [17] Sea ice coverage over Hudson Bay for the week of 18 June, 1971-2015. CIS. 

Ist das Frühlingseis allerdings zu dick ist, ist es auch nicht gut. Dann können die Bären es auf der Suche nach Robben nämlich nicht mehr durchstoßen, wie CNS News am 25. April 2014 meldete “Polar Bears Threatened…By Too Much Spring Ice”. Man stelle sich das vor – die Eisbären müssten verhungern, weil es durch Klimawandel-Schutzmaßnahmen wirklich kälter würde und das Frühjahrseis zu dick wird. Tragen die “Eisbärklamotten” in den Fußgängerzonen ihre Schilder dann anders herum? 

Zudem zeigt sich, dass die Populationen zyklisch schwanken – und diese Zyklik nichts mit dem Meereis zu tun hat. Dazu aus einem EIKE Artikel. 

EIKE: “Die neuste Eisbären-Ente”: 

Ähnliche Einbrüche der Eisbärenpopulation wie 2004-2006 hatte es in der Beaufortsee in der Vergangenheit stets gegeben, wie die Zoologin Susan Crockford in ihrem Blog Polar Bear Science am 18. November 2014 in einer Besprechung der neuen Arbeit berichtete: 

Studie: Hier kommen ein paar weitere gute Nachrichten hinsichtlich der Eisbärenpopulation, diesmal aus einer umfangreichen Studie aus der Südlichen Beaufort-See. Eine jüngst veröffentliche Studie zeigt eine Abnahme um 25% bis 50% zwischen 2004 und 2006 (stärker als ursprünglich berechnet). Allerdings hat sich die Population bis zum Jahre 2010 deutlich erholt (obwohl das vorherige Niveau noch nicht erreicht ist). Alle Schlagzeilen in den Medien (z. B. in The Guardian) sind den Pressemitteilungen gefolgt, die sich auf das Ausmaß des Rückgangs konzentriert haben. Dabei ist die Erholung des Bestandes der Teil der Studie, der wirklich eine neue Nachricht ist, basiert dies doch auf neuen Daten. Diese Erholung ist ähnlich einer solchen, die Ende der siebziger Jahre dokumentiert worden ist. Davor war es zwischen 1974 und 1976 zu einer starken Abnahme der Population gekommen, verursacht durch besonders starken Eisgang im Frühjahr (hier). … Allerdings zeigte sich in der Studie keinerlei Korrelation zwischen Rückgang der Population und Eisbedingungen. Eine solche Korrelation konnte nicht gefunden werden, weil man nicht die Dicke des Eises im Frühjahr in die Modelle eingegeben hatte – man hatte lediglich die sommerlichen Eisbedingungen betrachtet. Ich finde das ziemlich merkwürdig, da frühere Beispiele dieses Phänomens, das etwa alle 10 Jahre seit den sechziger Jahren zu beobachten ist, allesamt mit dicken Eisbedingungen im Frühjahr zusammenhingen (Die Rückgänge von 1974 bis 1976 sowie von 2004 bis 2006 waren die schlimmsten). Ein weiterer Vorgang dieser Art könnte sich im Frühjahr dieses Jahres ereignet haben (April 2014 hier), doch wurde dieser Vorgang bislang nicht bestätigt.

Allerdings zeigen unsere Ergebnisse im Kurzfristzeitraum, dass andere Faktoren als das Meereis das Überleben beeinflussen können. Ein verbessertes Verständnis der ökologischen Grundlagen als Basis für die Dynamik der Eisbärenpopulation ist notwendig, um Projektionen ihres Status‘ in der Zukunft zu verbessern und zur Entwicklung von Management-Strategien zum Schutz der Eisbären.

These: Eisbären können nur von Robben auf Packeis (über-)leben

Eisbären sind laut Lehrmeinung aus Braunbären entstanden  „Welt.de Wissenschaft“, aber deren Gene als Allesfresser haben sie, wenn man den vielen „Experten“ und abschreibenden Medien glauben soll angeblich ausgerechnet nicht mit übernommen.

Allerdings doch, wie eine Information der Uni  Hamburg mitteilt

[9] Eisbären sind wie alle Bären Allesfresser, legen aber ihren Schwerpunkt deutlich oder fast ausschließlich auf tierische Kost. 

Es ist verständlich, dass ein Eisbär am Liebsten die für ihn leichter jagdbaren und von Kalorien strotzenden Robben frisst. Das dürfte für ihn wohl so sein, wie immer in einem 3-Sterne Lokal essen zu dürfen. Dass er ohne diese auf dem Packeis servierten Robben aber sicher verhungert, ist eine Fabel aus dem Klima-Alarmland, was sogar dem FOCUS schon einmal auffiel:

FOCUS [8]: Es wird wärmer – gut so!  6. Sterben die Eisbären aus?

Zwischen der Meereisausdehnung und der Anzahl der Eisbären konnte in der Vergangenheit kein direkter Zusammenhang nachgewiesen werden. So ist auch zukünftig nicht automatisch mit Bestandsverlusten zu rechnen, wenn die Temperaturen weiter steigen und Eisflächen verloren gehen. Denn Eisbären jagen Robben auch an eisfreien Stränden, und im Sommer tummeln sie sich seit jeher in der blühenden Tundra, wo sie sich von Lemmingen und Wühlmäusen ernähren.

Uni Bremen:

[9] Die Eisbären wandern dann entweder mit dem rückweichenden Eis in weniger produktive, küstenfernere Gewässer oder weichen auf das Festland aus, wo sie sich von Kleinsäugern, Vögeln, Eiern und Fischen sowie ganz selten auch von pflanzlicher Kost ernähren. 

Neue Zürcher Zeitung:

[13] Dass die Tiere an Land fressen, ist schon länger bekannt. Fettreserven bauen sie dort allerdings nicht auf – wenn sie auf das Eis zurückkehren, sind sie leichter als vorher. Doch mittlerweile stehen den Tieren – aufgrund der Klimaänderung – auch «neue» Nahrungsmittel zur Verfügung, wie Linda Gormezano vom American Museum of Natural History und ihre Kollegen kürzlich in einigen Publikationen beschrieben. 

PeTA:

 [7] Doch ob gerade die Eisschmelze, also der Klimawandel, sich erheblich negativ auf die Eisbärenpopulation auswirkt, wird mittlerweile stark bezweifelt. Der sensationelle Fund eines sehr alten Eisbärenskeletts im Jahr 2008 bestärkt diese Meinung.

„Das es schon vor 130.000 Jahren Eisbären gegeben hat, ist ein Grund zum Jubel“, so Paläontologe Olafur Ingolfsson von der Uni Island. Der Fund beweise, dass „die Bären schon eine Warmzeit überlebt haben“. Eine Warmzeit, die viel wärmer gewesen sein muss, als die heutige.“

Zudem muss man wissen:

„In der letzten Zwischeneiszeit vor 10.000 bis 15.000 Jahren waren die Temperaturen in der Arktis erheblich höher als heute, auch in der mittelalterlichen Warmzeit war das Nordmeer zu einem guten Teil eisfrei. Der Eisbär hatte sich damit offenbar arrangiert, schließlich ist er nicht erst vor kurzem vom Himmel gefallen.“

Eisbären haben also schon viel wärmere Perioden überlebt, als wir sie heute haben.

Wissenschaftler fanden sogar heraus, dass in der Süd-Beautfortsee die Bärenzahl konstant blieb – trotz Schmelze.  Und wussten Sie auch, dass Eisbären nicht unbedingt Eis brauchen, um zu überleben?

„Sollte es weiter wärmer werden, wäre dies für die Eisbären vermutlich auch kein großes Problem. Ursus Maritimus ist eine evolutionär sehr junge Art, die sich aus den Braunbären (Ursus arctos) entwickelt hat, mit dem sie sich bis heute kreuzen kann. In den Sommermonaten leben viele Eisbären in der schnee- und eisfreien Tundra und kommen auch dort auch gut zurecht“. (6)

„Der Fund bestärkt jene Gruppen von Biologen, die daran zweifeln, dass Eisbären tatsächlich das Eis zum Leben brauchen. Diese Forscher sind überzeugt, dass die Tiere wie Braunbären auch an Land jagen können. „Das Überleben der Eisbären hängt nicht davon ab, wie viel Eis es über dem Nordpol gibt“, sagt der Münchner Evolutionsbiologe Josef H. Reichholf.“ 

Allerdings muss man auch die Angaben zum genetischen Alter (wie anscheinen recht viel, was die „Experten“ angeblich über die Eisbären wissen) in Frage stellen. Laut mehreren Meldungen sind Eisbären wesentlich älter als alle Experten bisher nur zu ahnen gewagt hatten: 

SPIEGEL ONLINE 20.04.2012: 600.000 Jahre: Analyse enthüllt lange Geschichte der Eisbären

Eisbären sind etwa vier- bis fünfmal so alt, wie bisher vermutet: Sie lebten bereits vor etwa 600.000 Jahren, berichtet ein internationales Forscherteam um die Frankfurter Wissenschaftler Frank Hailer und Axel Janke im Wissenschaftsmagazin "Science". 

kaltesonne[11]:

… Nun hat sich die Eisbärenära sogar noch weiter nach hinten ausgedehnt. Im Juli 2012 erschien in den Proceedings of the National Academy of Sciences eine neue Arbeit eines internationalen Forscherteams um Webb Miller, das zeigen konnte, dass die Ahnenreihe der Eisbären sogar 4 bis 5 Millionen Jahre zurück reicht (siehe Berichte im Examiner, World Climate Report, New Scientist, The Resilient Earth, NIPCC und Science Daily). Eisbären gab es also sogar vor dem Beginn der pleistozänen Vereisungsphase, die erst vor knapp 2 Millionen Jahren begann. 

Und damit haben sie auf jeden Fall schon mehrmals viel extremere Klimaschwankungen mit mehreren Eiszeiten und Warmzeiten überstanden. Zudem auch erhebliche Schwankungen innerhalb der letzten 10.000 Jahre, wie es beispielhaft die folgenden Bilder (Bild 6) aus [21] mit dem historischen EIS- und Temperaturverlauf östlich von Alaska zeigen.

Bild 6 [21] Historischer Verlauf von Seeeisbedeckung und Sommertemperatur in de eastern Chukchi Sea

Weshalb stirbt er aber dann trotzdem wegen des Klimawandels aus?

Eine Simulation „gefüttert“ – und schon muss er sterben

Wie anfangs schon erwähnt, haben die jüngsten Alarmmeldungen zum Eisbärsterben ihren Ursprung in Simulationen. Wie üblich, wurde eine Korrelation, diesmal zwischen Eisabnahme und Populationsverringerung „entdeckt“. Schreibt man diese mathematisch korrekt in die Zukunft weiter, dann sind die Eisbären irgendwann mathematisch unrettbar ausgestorben, und der unbestechliche Computer berechnet dazu sogar die Wahrscheinlichkeit.

Eine Beschreibung einer Simulation kann man bei IUCN nachlesen: 

IUCN [1]:

First, we estimated generation length for Polar Bears using field data for all available ubpopulations. Second, we derived a habitat metric by summarizing spatial and temporal characteristics of remote sensing data on sea-ice concentration, in a manner that was biologically relevant to Polar Bears. Third, we used statistical models and computer simulation to project the abundance of Polar Bear subpopulations forward in time over three Polar Bear generations, based on assumed and estimated relationships between abundance and habitat. 

The goals of our analysis were: (1) to provide an updated numerical reference to the ypothesis that the carrying capacity of the Arctic marine environment supporting Polar Bears is proportional to the availability of sea ice; (2) to evaluate broad relationships between available data on Polar Bear abundance and derived sea-ice metrics representing Polar Bear habitat, including the ramifications of these relationships persisting into the future; 

Mit diesem „gesicherten Wissen“, dass reduzierte Eisfläche eine direkt damit abnehmende Population zur Folge hat und den Temperatur- und daraus simulierten Eisverläufen aus IPCC KLimamodellen (Bild 7 und 8) lässt sich das unabwendbare Aussterben jederzeit punktgenau simulieren. 

 

Bild 7 [16]  Simulierter Verlauf der arktischen Eisbedeckung. 

Dass es um 1930  in etwa so wenig Eisbedeckung wie aktuell gab, konnte die Simulation (Bild 7) nicht „rekonstruieren“. Zudem ist Der Autor dieses Papers bereits in früheren Publikationen durch Alarmismus mittels Weglassen von (ungeeigneten) Fakten aufgefallen[17]. Die in Bild 8 gezeigte Spannweite der Klimasimulations-Ergebnisse (aus der gleichen Studie) zeigt zudem überdeutlich was man von den IPCC-basierenden Simulationen halten sollte – nämlich gar nichts.

Anmerkung: Dass die klimabasierten Simulationen nach einiger Zeitspanne zu oszillieren anfangen und nur noch Unsinn liefern – aber mit auf viele Stellen berechneter Zuverlässigkeitsaussage – ist dem Autor schon bei der Analyse der UBA Vulnerabilitätsstudie aufgefallen „Der Himmel fällt uns auf den Kopf„.

 

Bild 8 [16] Simulationswerte der arktischen Meereisbedeckung verschiedener Klimamodelle. Die Bedeckung im Sept. 2015 (roter Punkt, ca. 4,7 Mio km2) wurde vom Autor zugefügt.

Ende von Teil 1 der Recherche zum Bestand der Eisbären

Quellen Teil 1 / 2

[1]

RUCN Red List: Polar Bear (Ursus maritimus) Supplementary material for Ursus maritimus Red List assessment 

Studie mit Berechnung der Formel für die Eisbärpopulation bis zum Jahr 2050

[2]

EIKE: Zehn düstere Prophezeiungen bzgl. des Unterganges von Eisbären sind gescheitert: jetzt wieder 20.000 bis 30.000 Exemplare

http://www.eike-klima-energie.eu/news-cache/zehn-duestere-prophezeiungen-bzgl-des-unterganges-von-eisbaeren-sind-gescheitert-jetzt-wieder-20000-bis-30000-exemplare/

[3]

IUCN Redlist, Population: (Table 3 in the Supplementary Material) results in a total of approximately 26,000 Polar Bears ( 95% CI = 22,000-31,000 ).

http://www.iucnredlist.org/details/22823/0

[4]

kaltesonne 15. Dezember 2014: Eisbären-Statistik-Gruppe räumt ein: Veröffentlichte Eisbärenzahlen sind lediglich eine “qualitative Vermutung mit dem Ziel das öffentliche Interesse zu befriedigen”

http://www.kaltesonne.de/eisbar-statistik-gruppe-raumt-ein-veroffentlichte-eisbarenzahlen-sind-lediglich-eine-qualitative-vermutung-mit-dem-ziel-das-offentliche-interesse-zu-befriedigen/

[5]

Hellabrunn der Münchner Tierpark Eisbärenflyer 2014

http://www.hellabrunn.de/fileadmin/pdf/Flyer_Plaene_TP-Ordnung/Eisbaerenflyer_2014_Web.pdf

[6]

EIKE 03.12.2014:  Die neueste Eisbären-Ente

http://www.eike-klima-energie.eu/climategate-anzeige/die-neueste-eisbaeren-ente/

[7]

PeTA:  Klimawandel: Eine Gefahr für Eisbären?

http://www.peta.de/klimawandel-eine-gefahr-fuer-eisbaeren

[8]

FOCUS Magazin | Nr. 48 (2010):   Es wird wärmer – gut so!  6. Sterben die Eisbären aus?

http://www.focus.de/wissen/klima/tid-20791/es-wird-waermer-gut-so-6-sterben-die-eisbaeren-aus_aid_582723.html

[9]

Uni Bremen, Institut für Geographie, Dr. Karin Steinecke: Können Eisbären ohne Meereis überleben?          

[10]

DIE WELT 20.11.15 Die großen Verlierer des Klimawandels

http://www.welt.de/wissenschaft/umwelt/article149065091/Die-grossen-Verlierer-des-Klimawandels.html

[11]

kaltesonne 13. Dezember 2014: Studie: Eisbären können ihre Fressgewohnheiten den Umweltbedingungen anpassen

http://www.kaltesonne.de/studie-eisbaren-konnen-ihre-fressgewohnheiten-den-umweltbedingungen-anpassen/

[12]

Kerstin Langenberger arctic dreams. About me

http://www.arctic-dreams.com/en/about;3.0.0.0.html

[13]

Neue Zürcher Zeitung, 19.2.2014: Eisbären im Klimawandel  Nutzung neuer Nahrungsquellen

http://www.nzz.ch/wissenschaft/nutzung-neuer-nahrungsquellen-an-land-1.18245954

[14]

EIKE 28.12.2015: Fette Eisbären: Population der Svalbard Eisbären ist in den letzten 11 Jahren um 42% gestiegen.

http://www.eike-klima-energie.eu/climategate-anzeige/fette-eisbaeren-population-der-svalbard-eisbaeren-ist-in-den-letzten-11-jahren-um-42-gestiegen/

[15]

The Global Warming Policy Foundation, GWPF Briefing 16. Susan Crockford: THE ARCTIC FALLACY Sea ice stability and the polarbear

[16]

Notz, D. (2015): Historische und zukünftige Entwicklung des Arktischen Meereises. In: Lozán, J.L., H.Grassl, D.Kasang,
D.Notz & H.Escher­Vetter (Hrsg.). Warnsignal Klima: Das Eis der Erde. pp. 194­198

[17]

kaltesonne 12. Mai 2012: Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis

http://www.kaltesonne.de/hamburger-max-planck-institut-mit-fragwurdiger-beweisfuhrung-zum-arktischen-meereis/

[17]

Polar Bear Science, June 16, 2015: Same amount of sea ice for Hudson Bay polar bears as 2013, bears still on the ice

Same amount of sea ice for Hudson Bay polar bears as 2013, bears still on the ice

[18]

RP.Online, 9. Januar 2016: Eisbären – Opfer des Klimawandels

http://www.rp-online.de/panorama/wissen/eisbaeren-opfer-des-klimawandels-aid-1.5676747

Gleicher Artikel in der Stuttgarter Zeitung vom 08. Januar 2016:  Weiße Jäger auf der Suche nach neuer Beute

http://www.stuttgarter-zeitung.de/inhalt.eisbaeren-weisse-jaeger-auf-der-suche-nach-neuer-beute.7801fa9e-b140-4290-bca4-e09bef575cad.html

[19]

HNA (Hessische/Niedersächsische Allgemeine)  26.11.15: Experten-Interview zu Eisbären: Ist alles noch viel schlimmer?

[20]

kaltesonne 1. Mai 2012: Nicht Wärme sondern Schrotflinten sind die größten Feinde der Eisbären

http://www.kaltesonne.de/nicht-warme-sondern-schrotflinten-sind-die-grosten-feinde-der-eisbaren/

[21]

J.L. McKay at al: Holocene fluctuations in Arctic sea-ice cover: dinocyst-based reconstructions for the eastern Chukchi Sea

[22]

Norwegian Polar Institute, December 23 2015:  Polar bears in Svalbard in good condition – so far

http://www.npolar.no/en/news/2015/12-23-counting-of-polar-bears-in-svalbard.html




Fukushima 5.0

Am 11. März 2011 um 6:46 mitteleuropäischer Zeit ereignete sich am Grunde des pazifischen Ozeans 130 Kilometer östlich der japanischen Küstenstadt Sendai ein schweres Seebeben. Es löste einen Tsunami aus, dessen über zehn Meter hohe Wellen ungefähr 45 Minuten später das Festland trafen. Beide Heimsuchungen zusammen vernichteten mehrere hunderttausend Gebäude und rissen 18.456 Menschen in den Tod.

Dieses fernöstliche Geschehen katapultierte Deutschland zurück ins Mittelalter.

Denn zu den betroffenen japanischen Infrastrukturen zählte auch das Kernkraftwerk Fukushima-Daiichi. Während es dort zu Kernschmelzen und zur Freisetzung radioaktiven Materials in die Umgebung kam, entwickelte sich hierzulande eine von voraufklärerischer Ignoranz und Hysterie geprägte Debatte, die in die sofortige Stilllegung von acht Kernkraftwerken und in ein Vorziehen des damals gültigen Ausstiegsdatums von 2040 auf 2022 mündete.

Dabei ist in Fukushima bis heute niemand wegen des Störfalls an Strahlenschäden gestorben. Auch ist das von der Weltgesundheitsorganisation für die Bewohner der betroffenen Regionen ermittelte zusätzliche Krebsrisiko zu gering, um jemals statistisch nachweisbar zu sein. Wahrscheinlich wird man in einigen Jahrzehnten in der Präfektur Fukushima sogar eine Verringerung der krebsbedingten Todesfälle gegenüber dem Rest Japans registrieren. Denn von Fortschritten in der Krebsfrüherkennung und Krebstherapie wird man dort aufgrund intensiver medizinischer Betreuung besonders profitieren.

Trotzdem stellen die Massenmedien bis heute den Störfall direkt oder indirekt als eigentliche Ursache der Verheerung dar, obwohl er nüchtern gesehen nur ein vergleichsweise unbedeutender Kollateralschaden war. Immer noch nehmen die Bürger dies ohne zu hinterfragen hin. Der Irrtum, die Havarie des Kraftwerkes hätte tausende an Opfern gefordert, ist weit verbreitet. Kernenergie wird nicht mehr unter technischen und ökonomischen Gesichtspunkten diskutiert, sondern ausschließlich nach moralisch/ethischen Kriterien bewertet. Die Ablehnung der Kerntechnik hat dogmatische Züge angenommen, die längst nicht mehr nur die Stromerzeugung, sondern auch Anwendungsbereiche wie die Nuklearmedizin oder die Raumfahrttechnik betrifft. Die Grünen wollen sogar die kernphysikalische Forschung von den Universitäten verbannen. In der Energiepolitik ist mit der Übernahme der Deutungshoheit durch ideologisierte Fanatiker die Inquisition wieder auferstanden. War es vor Jahrhunderten das Verbot, menschliche Körper zu öffnen, das den medizinischen Fortschritt behinderte, so gilt heute jede Manipulation von Atomkernen als verwerflich. In einer solchen Atmosphäre kann sich selbst FDP-Chef Lindner mit dem Ausruf „In einem liberalen Paradies hätte es die Kernenergie nie gegeben!“ des Beifalls der Zuhörer sicher sein.

Man könnte aus Fukushima auch zwei völlig andere Botschaften ableiten. Erstens erscheint gegen eine Naturgewalt, die ein Kernkraftwerk so massiv beschädigen kann, jeder zusätzlicher Schaden als Marginalie. Und zweitens wäre es eine kluge Idee, Reaktoren zu bauen, die selbst bei vollständiger Zerstörung ihre Umgebung nicht beeinträchtigen. Fast alle Länder, in denen vor dem 11. März 2011 Kernreaktoren betrieben wurden, haben sich nach der ersten Schlussfolgerung gerichtet. Die Ausnahme ist Deutschland. Manche Länder begannen, dem zweiten Ansatz zu folgen. Deutschland verbietet sich solche Ideen. Fukushima konnte hierzulande nur deswegen diese Reaktion auslösen, weil jahrzehntelanges Versagen von Politik und Industrie eine Situation schufen, in der die Propaganda der Anti-Atomaktivisten gewinnen musste.

Eine kurze Geschichte der Kernenergie

Schon der Impuls ihres Geburtshelfers, des amerikanischen Manhattan-Projektes, lenkte die weitere Entwicklung der Kerntechnik in eine ungünstige Richtung. Denn es etablierte den Mythos, sie sei eine staatlicherseits zu fordernde und zu fördernde „Großtechnik“, die nur in einem künstlich geschaffenen institutionellen Rahmen gedeihen könne, der Großforschungseinrichtungen, Großindustrie, Verwaltung und gegebenenfalls auch das Militär einschließt. Als die zivile Nutzung der Kernenergie in Deutschland im Jahr 1955 wieder möglich wurde, etablierte man daher eine vergleichbare planwirtschaftliche Struktur und begrenzte sich auf die Übernahme amerikanischer Technologie.

Dort hatte sich mittlerweile der Leichtwasserreaktor durchgesetzt. Aufgrund seiner Eignung als Schiffsantrieb favorisierte ihn das Militär. Das auf angereichertem Uran basierende Brennstoffkonzept erforderte zudem den Zugriff auf die Ergebnisse des Manhattan-Projektes und konnte den USA eine weltweite Führungsposition in der Nukleartechnik für Jahrzehnte sichern. Der Export der kompletten Kette vom Reaktor bis zum Brennstoff schuf nicht nur langfristige Abhängigkeiten, sondern auch Kontrollmöglichkeiten hinsichtlich der künftigen Verbreitung der Kerntechnik.

Deutschland erwies sich als dankbarer Partner. In den 1960er Jahren wurden zwischen Siemens und AEG auf der einen und General Electric und Westinghouse auf der anderen Seite Lizenzvereinbarungen geschlossen, die die Tür für den Transfer des Leichtwassersystems nach Deutschland weit öffneten. Die einen (AEG) favorisierten dabei Siede-, die anderen (Siemens) Druckwasserreaktoren.

Immerhin, so könnte man meinen, bei zwei konkurrierenden Systemanbietern sollte ein innovationstreibender Wettbewerb immer noch möglich sein. Tatsächlich aber gab es keinen Markt, auf dem sich ein solcher Wettbewerb hätte entfalten können. Die möglichen Kunden für stromproduzierende Leistungsreaktoren waren ausschließlich die Energieversorgungsunternehmen, gering an Zahl und außerdem auch nicht interessiert. Denn eine funktionierende, skalierbare, preiswerte und robuste Stromversorgung war in Deutschland bereits vorhanden, basierend auf fossilen Energieträgern und der Wasserkraft. Große Investitionen in eine neue, weitgehend unerprobte Technologie schienen aus Sicht der Zielgruppe nicht erforderlich. Erneut hatte die öffentliche Hand lenkend einzugreifen und die Stromversorger zu Kauf und Betrieb von Leistungsreaktoren zu tragen. So wurden die ersten deutschen Kernkraftwerke (beispielsweise Gundremmingen und Obrigheim) mittels staatlicher Zuschüsse oder günstigen staatlichen Krediten finanziert.

Von Anfang an hatte man dabei mit Vorbehalten in der Bevölkerung zu kämpfen. Politik und Verwaltung reagierten auf diese Stimmungslage und erschwerten den Bau von Kernreaktoren durch immer neue Auflagen und immer komplexere und langwierigere Genehmigungsverfahren. In der Folge waren Versorger und Hersteller dazu gezwungen, an immer weniger verfügbaren Standorten immer leistungsstärkere Einheiten zu bauen. Was den Betreibern ermöglichte, Siemens und AEG auf eine den Kostendruck enorm steigernde Art und Weise gegeneinander auszuspielen. Folgerichtig verloren die beiden Konzerne die Freude am Wettbewerb und führten ihre jeweiligen kerntechnischen Branchen 1973 in einer gemeinsamen Tochterfirma zusammen (der Kraftwerk Union KWU). Es gab fortan in Deutschland nur noch einen Anbieter, der sich auf den Druckwasserreaktor konzentrierte und an technischen Lösungen vor allem Kraftwerksboliden in der Leistungsklasse oberhalb von 1200 Megawatt im Angebot hatte. Statt Vielfalt entstand Einfalt.

Zumindest in der Forschung betrachtete man weiterhin die Alternativen. Doch die Möglichkeit, Konzepte wie den Schnellen Brüter oder den Thorium-Hochtemperaturreaktor ähnlich behutsam und sorgfältig wie Leichtwasserreaktoren zur Reife zu bringen, bestand bereits nicht mehr. Die Stimmungslage in der Bevölkerung wechselte zunehmend von Befürwortung zu Ablehnung und die Politik brachte die erforderliche Geduld nicht mehr auf. Beide Konzepte sollten daher den Sprung vom Labor in den Markt ohne Zwischenschritte nehmen, was nicht gelang.

Am Ende zerfiel das „deutsche Manhattan-Netzwerk“, die künstlich geschaffene Allianz aus Wissenschaft, Wirtschaft und Politik. Übrig blieben eine Handvoll Forschungseinrichtungen, ein Anbieter und vier Kernkraftwerksbetreiber, alle ausgerichtet auf nur eine Technologie, leistungsstarke Druckwasserreaktoren, für nur einen einzigen Einsatzzweck, die Stromproduktion. Innovationen, durch die sich die Kerntechnik an ein verändertes Umfeld hätte anpassen, durch die neue Märkte hätten erschlossen werden können, waren nicht mehr möglich.

Diese Geschichte der Kernenergie in Deutschland ist ein Paradebeispiel für die zwangsläufige Folgen staatlicher Lenkung der technischen Entwicklung. Innovationsprozesse verlangsamen sich oder stoppen ganz. Monokulturen mit geringer Stressresistenz verbleiben, deren Überleben nur unter idealen Rahmenbedingungen gesichert ist. Jeder Wandel der äußeren Umstände wird zu einer existentiellen Bedrohung.

Der Fukushima-Schock war absehbar  

In Bezug auf den Leichtwasserreaktor lassen sich zu viele Szenarien konstruieren, in denen technisches oder menschliches Versagen zur Freisetzung radioaktiven Materials führt. Dies betrifft neben den vor- und nachgelagerten Prozessen der Urananreicherung sowie der Herstellung, des Transports und der Lagerung von Brennelementen eben auch den Betrieb. Ein Ausfall der Kühlung führt zwar zu einem Ende der Kettenreaktion, aber nur kleinere Anlagen der 100- oder 200-Megawatt-Klasse würden automatisch in einen sicheren Betriebszustand übergehen. Bei größeren Reaktoren genügt die Nachzerfallswärme zur Auslösung einer Kernschmelze. Aufgrund des Vorhandenseins von Wasser und Dampf ist es zudem im Falle einer durch innere oder äußere Einflüsse ausgelösten Zerstörung fast unmöglich, die Verbreitung radioaktiver Substanzen über ein großes Gebiet zu verhindern.

Die planwirtschaftliche Begrenzung auf eine bestimmte Entwicklungslinie lieferte den Gegnern der Kerntechnik zwangsläufig wirkmächtige Schreckensszenarien. Der Einbau von immer mehr Sicherheitssystemen in immer größerer Redundanz war die falsche Taktik. Der Verweis auf ein immer kleineres „Restrisiko“ unterstützte in Wahrheit bereits vorhandene Ängste, da er die Existenz der Gefahr einräumte. Mehr als 90 Prozent der weltweit installierten Kernkraftwerke sind Leichtwasserreaktoren. Ein großer Störfall war immer absehbar. Wäre es nicht in Japan geschehen, hätte es irgendwann einen anderen Reaktor an einem anderen Ort getroffen.

Man hätte ja auch Reaktoren bauen können, bei denen der Brennstoff erst im Reaktorkern gebildet und dort vollständig verbraucht wird – Anreicherung, Wiederaufarbeitung und Transport und alle diesbezüglichen Sorgen wären unnötig. Man hätte auf ein anderes Brennstoffkonzept setzen können, durch das im Reaktor gar keine langlebigen und toxischen Abfälle mehr entstehen – und sich somit das Endlagerproblem nicht mehr stellt. Man hätte kleinere und trotzdem effiziente Systeme entwickeln können, in denen einfach nicht genug Spaltstoffe erzeugt werden, um gefährliche Mengen an Nachzerfallswärme zu produzieren. Man hätte auch auf die Idee kommen können, einen Kernreaktor zu einem völlig anderen Zweck einzusetzen, als nun ausgerechnet zur Herstellung elektrischer Energie.

Am Ende konnte der Ausstieg aus der Kernenergie in Deutschland vor allem deshalb erfolgen, weil er so einfach war. Die wenigen verbliebenen Fürsprecher in der Politik und in der Industrie versagten daran, ihren einzigartigen Nutzen herauszustellen. Da half auch das Verpulvern von Millionen für die Kampagne „Deutschlands ungeliebte Klimaschützer“ nichts. Einen Wettlauf der Angst, „Klimakatastrophe“ kontra „Strahlentod“, kann man nicht gewinnen. Zumal die Klimaschutzideologie hierzulande als Religion des Verzichts etabliert wurde, die jeglicher fortgeschrittener Technologie feindlich begegnet. Die breite Masse der Bevölkerung und die Medien setzen seit jeher Kerntechnik mit dem Leichtwasserreaktor gleich, der ausschließlich der Stromerzeugung dient und daher ohnehin leicht zu substituieren ist. Man hat ihnen nie eine andere Perspektive aufgezeigt. Obwohl nicht nur für die technische Realisierung, sondern auch für die Nutzung eines Kernkraftwerkes eine Vielzahl an Möglichkeiten existiert.

Ein neuer Blickwinkel?

Wären Kernkraftwerke abgeschaltet worden, die hohe Temperaturen für industrielle Prozesse wie der Produktion von Stahl oder Zement liefern? Wären Kernkraftwerke abgeschaltet worden, die Stoffe für die Diagnose und Therapie von Krankheiten produzieren? Wären Kernkraftwerke abgeschaltet worden, die der Herstellung von Treibstoffen, von chemischen Grundstoffen, von Industriemetallen oder gar von sauberem Trinkwasser dienen?

Sicher nicht.

Das Wesen der Kerntechnik besteht in der Freisetzung von Neutronen zur Herbeiführung von Kernumwandlungen. Sie erfüllt den alten Traum der Alchimisten, aus nutzlosen Stoffen wertvolle zu machen, metaphorisch gesprochen Blei in Gold zu transmutieren. Ein Kernreaktor ist primär eine chemische Fabrik, die Isotope von Elementen fast des gesamten bekannten Periodensystems hervorbringt. Neben radioaktiven Substanzen für die Nuklearmedizin, für neuartige bildgebende Verfahren oder für neuartige Sensorsysteme, neben seltenen Metallen für Hochleistungselektroniken, neben Edelgasen für Ionenantriebe und Treibstoffen für Radionuklid- und Betavoltaikbatterien könnten viele weitere nützliche Stoffe ihrer Entdeckung harren. Denn da sich der Leichtwasserreaktor für diese Anwendung wenig eignet, sind große Regionen der Nuklidkarte noch immer nicht erkundet.

Rund um den Erdball, mit Schwerpunkten in China, in den USA und in Russland arbeitet man an neuartigen Systemen, die neue Möglichkeiten bieten und gleichzeitig die oben beschriebenen Sicherheitsmerkmale aufweisen. Vor allem in der westlichen Welt hat sich in den letzten Jahren eine Graswurzelbewegung etabliert, die nicht mehr dem alten Manhattan-Prinzip, einer überkommenen „Top-Down“-Strategie, sondern einem neuen „Bottom-Up“-Ansatz folgt. New Nuclear besteht aus privaten Initiativen, aus Netzwerken, aus Start-Ups und kleinen Unternehmen, die bereits mit einigem Erfolg Risikokapital und sogar staatliche Fördermittel generieren konnten. Dort entstehen Pläne, Modelle und Demonstratoren für Kernkraftwerke einer neuen Generation, deren physikalisches Konzept Fukushima-Ereignisse ausschließt und auch alle anderen Bedenken der Anti-Atombewegung gegenstandslos macht. Natürlich wird es immer Gegner dieser Technologie geben. Aber sie werden durch Innovationen ihre Meinungsmacht verlieren. Weil die Ereignisse in Japan nicht auf der Nutzung der Kernenergie an sich beruhen, sondern lediglich die Mängel einer spezifischen technischen Umsetzung verdeutlichen. Masse und Energie sind einander äquivalent und daraus kann man nicht aussteigen. Nicht auf Dauer und nicht in einer globalisierten Welt, in der Ideen keine Grenzen kennen. Fukushima hat uns ins Mittelalter katapultiert. Mit fünf Jahren Abstand sollten wir beginnen, diesen Zustand als vorübergehend zu erkennen.

Der Beitrag erschien zuerst bei ScienceSceptical hier

Nachtrag der Redaktion

Leider haben die grünen Dogmatiker seit längerem die Deutungshoheit hierzulande übernommen. Zu ihren Erfolgen gehört auch die (gelungene) Verteufelung der Kernkraft. Viele Journalisten schließen sich der vermeintlichen Mehrheitsmeinung an. Und berichten falsch, was das Zeug hält. Ob aus Unwissenheit oder Vorsatz ist eigentlich unerheblich, denn heute kann jeder mit ein paar Mausklicks die reale Situation in und um Fukushima kennen lernen.
So berichtet wissentlich lügend u.a. heute der ndr

:“Am 11. März 2011 löst ein Erdbeben die Reaktor-Katastrophe von Fukushima aus. Etwa 18.500 Menschen sterben, Land und Wasser sind verseucht — ein Umdenken beginnt.“

Eine wohltuende Ausnahme bildet die heutige Welt mit dem Artikel

„Japan gedenkt der Opfer von Fukushima von vor fünf Jahren Erdbeben hatte Tsunami- und Atomkatastrophe ausgelöst“ (hier)

der zwar in der Überschrift beide Ereignisse vermengt, aber im Text sauber herausarbeitet, dass durch die Strahlung direkt niemand zu Schaden gekommen ist. Oder auch hier in der sonst so links-grünen Atomangst schürenden Zeit (Hervorhebung von der Redaktion):

Der Super-GAU in den Köpfen

Japan auf Jahrzehnte verseucht, Hunderte verstrahlt, Unzählige an Krebs gestorben. So stellte man sich die Folgen von Fukushima vor. Doch vieles ist anders gekommen.Von  und 

Der chronisch atomfeindliche Deutschlandfunk verpackt hingegen seine bewusst falsche Katastrophenmeldung subtiler:

Bewohner der von der Flutwelle überschwemmten Region beteten für die fast mehr als 18.500 Todesopfer. Im Atomkraftwerk Fukushima war es kurz nach dem Beben zu Kernschmelzen gekommen. Es wird noch Jahrzehnte dauern, bis die Atomruine vollständig zurückgebaut ist.

Juristisch vielleicht nicht angreifbar aber inhaltlich so aufgebaut, dass jeder zu der Überzeugung kommen muss, die Reaktorhavarie war die Ursache für die Todesfälle.

Unser Fazit:

Solange wir Medien haben, die eine politische Agenda zur Richtschnur ihres Tuns machen, aber nicht „berichten was ist“ solange wird sich auch nichts ändern. Zum Glück gibt es nun das Internet und die AfD. Deswegen können wir uns darüber wehren. Die AfD wird — wenn der kommende Parteitag zustimmt- die Frage nach der Nutzung der Kernenergie wieder auf die politischen Tagesordnung setzen. Demokratisch über eine Volksabstimmung.




Beide [US-]Parteien zeigen jeweils Meinungsvielfalt, aber beim Thema Energie sind sie sich jeweils völlig einig

Es gibt keinen Mangel an Nachrichtenthemen, die die unterschiedlichen Standpunkte innerhalb der jeweiligen Partei hinausposaunen.

Die Demokraten sind geteilt in ,Träumer‘ und ,Macher‘ (hier), jedenfalls nach Ansicht von NBC News. Die International Business Times (IBT) umschreibt es so: „Ein Bürgerkrieg um die ideologische Zukunft der Partei“. Der Boston Globe erklärt, dass die „Bruchlinien in der Partei“ eine „nationale Partei repräsentieren, die zerrissen ist zwischen der von Clinton versprochenen ruhigen Hand und der von Sanders propagierten progressiveren Ziele“.

Bei den Republikanern ist es der IBT zufolge eine Schlacht zwischen Moderaten und Konservativen. Die Partei wird „erschüttert“ durch die Kämpfe zwischen Establishment und Outsidern. Der New Yorker sagte, dass die während der Debatte in Detroit folgenden Tage „die Woche eines offenen Bürgerkriegs innerhalb der Partei der Republikaner“ waren. Die ehemalige Standard-Stütze Mitt Romney legte den Grundstein für einen Grabenkampf auf dem Konventions-Parteitag in Cleveland. Peggy Noonan schreibt im Wall Street Journal: „Die Parteispitze und die Parteibasis sind gespalten“. Sie beschreibt den Frontkämpfer der Partei so: „Er ist ein Spalter der Partei der Republikaner und setzte den Pflock dennoch immer fester“.

Kandidaten auf beiden Seiten der Spalte behaupten von sich, einigend zu wirken. Aber wenn es auf das Thema Energie kommt, ist jede Partei bereits völlig einig – mit total entgegen gesetztem Vorzeichen.

Allgemein kann man sagen, dass die Demokraten mehr Einfluss der Regierung wollen – mehr von der Regierung gelenkte Investitionen und Gesetze. Im Gegensatz dazu wollen die Republikaner den Freien Markt – dass die Verbraucher auswählen können – und nicht, dass die Regierung über Gewinner und Verlierer bestimmt.

Der nächste Präsident wird bedeutende Auswirkungen auf die Art und Weise haben, wie Amerika Energie produziert, verbraucht und verteilt.

Als Reaktion auf häufige Fragen der Gastgeber von Talkshows zu den Plänen der Kandidaten bzgl. Energie wollte ich eine Übersicht schreiben, hat sich doch jetzt die Spreu vom Weizen getrennt. Aber ich habe schnell erkannt, dass eine Analyse Kandidat für Kandidat eine Wiederholung wäre. Stattdessen möchte ich hiermit die spezielle Richtung umreißen, in die jede Partei die Energiepolitik treiben möchte, und die minimalen Differenzen unter den jeweiligen Kandidaten.

Zunächst muss man den Klimawandel im Blick haben, der trotz wiederholt falscher Prophezeiungen DER Treiber der Energiepolitik während des vorigen Jahrzehnts war.

Die Kandidaten der Demokraten glauben, dass der Klimawandel eine Krise darstellt, verursacht durch den Verbrauch fossiler Treibstoffe. Daher haben sowohl Senator Bernie Sanders als auch Außenministerin Hillary Clinton gegen die Keystone Pipeline opponiert und das Verbot von Ölexporten aufgehoben. Beide unterstützen Restriktionen bzgl. Bohrungen auf Ländereien in öffentlichem Besitz sowie Vorschriften bzgl. hydraulischem Brechen, um die Eigen-Politik der US-Staaten überflüssig zu machen. In einer Fernsehdebatte sprachen sich beide gegen Fracking aus (hier), wobei Sanders dabei direkter vorgegangen ist. Sanders und Clinton bevorzugen verstärkte Bemühungen der EPA, den Verbrauch erneuerbarer Energie zu fördern.

Sie würden die Politik fortsetzen wie den von Präsident Obama eingeführten Clean Power Plan CPP – wobei Sanders noch progressiver ist als Clinton. Er möchte eine Steuer auf Kohlenstoff-Emissionen einführen und jedwedes Bohren auf öffentlichem Land verbieten. Außerdem hat er das „Lasst-es-im-Boden“-Gesetz gesponsert. Sie möchte das Fracking auf öffentlichem Land „auslaufen“ lassen, Steuervorteile für fossile Treibstoffe streichen und den Einfluss der Regierung stärken. Beide sind für Steuervorteile für erneuerbare Energie.

Im Übergang weg vom Verbrauch fossiler Treibstoffe würde Clinton Kernkraft nutzen, während sich Sanders für ein Moratorium der Erneuerung von Lizenzen für Kernkraftwerke aussprach. Er bevorzugt Wasserkraft.

Alles in allem kann das Vorgehen der Demokraten zusammengefasst werden mit dem Begriff ,Anti-konventionelle Treibstoffe‘ – was zu höheren Kosten für die Verbraucher führt.

Bei US News heißt es dazu: „Clinton und Sanders haben auch ihrer Frustration Ausdruck verliehen hinsichtlich ihrer politischen Freunde, die die Verbindung zwischen der Verbrennung fossiler Treibstoffe und Klimawandel leugnen“.

Die vier verbleibenden Kandidaten der Republikaner vertreten leicht unterschiedliche Standpunkte zum Klimawandel – wobei jedoch keiner von ihnen, anders als ihre „politischen Freunde“, seine Energiepolitik exklusiv auf die Grundlage dieses Themas stellt.

Donald Trump ist der größte Gegner bzgl. Klimawandel und nennt den Standpunkt einer vom Menschen verursachten Krise einen „Betrug“ [hoax] und twitterte, dass die Chinesen den Trick mit der globalen Erwärmung losgetreten haben, „um die produzierende Industrie der USA wettbewerbsunfähig zu machen“. In seinem Buch Crippled America leitet Trump sein Kapitel zu Energie ein mit einer Tirade gegen Klimawandel, in welchem er unter Verweis auf „gewaltige historische Klimaänderungen“ und „Eiszeiten“ einräumt, dass sich das Klima in der Tat ändert, kommt aber zu der Schlussfolgerung: „Ich glaube nur einfach nicht, dass der Mensch die Ursache ist“.

Senator Ted Cruz kommt als Nächster. Von ihm stammt der Ausspruch: „Falls man Politiker bei Big Government ist und falls man noch mehr Macht haben will, ist der Klimawandel die perfekte pseudowissenschaftliche Theorie … weil sie niemals jemals widerlegt werden kann!“ Er teilt den Standpunkt, dass die globale Erwärmung viel eher ein Naturphänomen denn vom Menschen verursacht ist.

Senator Marco Rubio glaubt, dass sich das Klima wandelt. Er sagte: „Das Klima ändert sich immer – das ist nicht die grundlegende Frage. Die fundamentale Frage ist, ob menschliche Aktivitäten den größten Beitrag dazu liefern. Ich kenne Leute, die sagten, dass es einen bedeutenden wissenschaftlichen Konsens in dieser Frage gebe, aber ich habe auch sehr vernünftige Debatten über dieses Prinzip gehört“. Er fügte hinzu: „Und ich glaube nicht, dass irgendwelche diesbezüglichen Gesetze, die sie vorschlagen und denen wir zustimmen, irgendetwas dazu bewirken. Außer dass unsere Wirtschaft zerschlagen wird“.

Die Ansichten von John Kasich stehen „gegen das Narrativ in der Republikanischen Partei“, glaubt er doch, dass Klimawandel ein Problem ist – obwohl auch er die Reduktion des Verbrauchs fossiler Treibstoffe nicht unterstützt. Sein Staat Ohio verfügt über reichlich Kohle,Öl und Erdgas, und er glaubt fest, dass zuverlässige Energie zu niedrigen Preisen „das Rückgrat der amerikanischen Wirtschaft“ ist. Im Hill steht seine Aussage: „Ich glaube, das da etwas ist mit Klimawandel, aber einseitig hier alles dagegen zu tun, während China und Indien wirtschaftlich wachsen und uns in eine nicht wettbewerbsfähige Position bringen, ist nicht gut“.

Unabhängig von ihren spezifischen Standpunkten sieht keiner der Republikanischen Kandidaten den Klimawandel als eine „existenzielle Krise“ an, wie Clinton es hier genannt hat. Und ihre Energiepolitik reflektiert dies.

Alle vier stimmen darin überein, dass die Keystone Pipeline gebaut werden sollte. Sie sind kritisch gegenüber den aggressiven Vorschriften der EPA (stattdessen unterstützen sie die Regulierung der Energieerzeugung auf staatlicher und lokaler Ebene) und wollen das wirtschaftliche Wachstum ankurbeln mittels zunehmender Energieerzeugung in Amerika und Verringerung unserer Abhängigkeit von auswärtigen Quellen.

Obwohl Kasich die Gesetzgebung zum Einfrieren der gesetzlichen Vorschrift zu steigendem Verbrauch Erneuerbarer unterzeichnet hat, ist er doch ein großer Unterstützer derselben, sagt er doch: „Ich glaube an Wind und Solar; sie erfordern große Subventionen, aber das ist okay“. Er räumte auch ein, dass die Vorschrift, bis zu einem festgesetzten Zeitpunkt 20 bis 25% der Energie aus Erneuerbaren zu erzeugen, „unmöglich“ ist und die „Leute um ihre Arbeitsplätze bringen“ wird. Cruz und Rubio haben gegen Steuervorteile für Wind und Solar gestimmt und auch gegen einen nationalen Standard erneuerbarer Energie. In Iowa ist Cruz gegen die Äthanol-Lobby vorgegangen (hier) und hat immer wieder nach einem Ende der Äthanol-Vorschrift verlangt, während Trump diese begünstigte. Rubio und Kasich würden das Auslaufen der Äthanol-Vorschrift zulassen. In seinem Buch schreibt Trump, dass der große Schub zur Entwicklung der „so genannten grünen Energie“ ein „weiterer großer Fehler“ ist und dass er „von der falschen Motivation getrieben“ wird. Er nennt Erneuerbare: „Ein teurer Weg, um den Baumfällern [tree huggers] ein gutes Gefühl von sich selbst zu geben“. Er hat versprochen, die Kohleindustrie in Kentucky „neu zu beleben“.

Alles in allem können die Standpunkte der Republikaner so zusammengefasst werden: Sie begrüßen das positive Potential der Energievielfalt in Amerika – was zu niedrigeren Energiekosten führt.

Falls Sie glauben, dass effektive, effiziente, ökonomische Energie das Lebenselixier der amerikanischen Wirtschaft ist, sollte klar sein, wie man im November wählt. Der Kontrast ist offensichtlich.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column. Follow her @EnergyRabbit.

Übersetzt von Chris Frey EIKE

Noch einmal der Hinweis des Übersetzers: Hier habe ich einen längeren Kommentar zu diesem Beitrag geschrieben, in dem ich auch einen Bogen zur politischen Meinungs-„Vielfalt“ bei uns geschlagen habe.




Warum die Zugspitze und andere Bergstationen für Temperaturvergleiche wenig brauchbar sind

Wir werden in dieser Arbeit zeigen, dass solche Kritik durchweg falsch ist, denn die Zugspitze, aber auch andere Ausflugsberge, sind geradezu typisch, weil die vom Menschen erzeugte Zusatzwärme von den Thermometern einfach mit gemessen wird und an diesen kalten Orten die Temperaturen besonders stark erhöht werden (Strahlungsgesetzte nach PLANCK). Solche Stationen sind für Vergleichsbetrachtungen zu früheren Temperaturwerten ungeeignet.

Vor allem nach dem Einheitsjahr 1990 hat Deutschlands höchster Berg einen ständig steigenden Ansturm von Tagestouristen erlebt. Im Jahre 2015 wird die Anzahl bereits auf 5 Millionen geschätzt, mit Folgen für die Thermometer der Messstation. In einem kürzlichen Beitrag von Arte „Touristenrummel Alpen“  wurde gesagt, dass jährlich ca.100 Millionen Touristen die Alpen besuchen mit gravierenden Folgen und Veränderungen für den einst naturbelassenen Lebensraum.

Die folgende Bilderserie (rechts und unten) zeigt anschaulich, dass es sich bei der DWD-Station auf der Zugspitze um keine naturbelassene Messstation handelt. Im Gegenteil, sie befindet sich in einer vom Menschen stark beeinflussten und umbauten Umgebung. Quellen: www.panoramio.com/photo/21499625 und www.planet-wissen.de/laender_leute/berg_und_tal/zugspitze/erschliessung.jsp und www.top-wetter.de/themen/zugspitze.htm 

Doch mit den gezeigten menschengemachten Einflüssen (Veränderungen) nicht genug, auch natürliche Einflüsse machen die Station ungeeignet für Vergleichsmessungen. Wie der Name „Zugspitze" es bereits sagt, liegt die Station auf der Spitze eines Berges. Diese topographischen Orte sind jedoch immer Orte, die starken Einflüssen der Thermik ausgesetzt sind. Jeder weiß dies, der schon einmal Großvögel beobachtete, die die Thermik (sie ist nichts anderes als Energie) benutzen, um an Höhe zu gewinnen. Die Station liegt also an der Oberseite eines Kamins, an dem bei Sonnenscheindauer zusätzliche Energie nach oben fließt und die Station mehr beeinflusst, als Stationen ohne Thermik-Einflüsse. Kein „normaler" Mensch käme auf den Gedanken, die Umgebungstemperatur auf seinem Dach, unmittelbar neben dem Schornstein zu messen!

Grafik 1 zeigt die prozentuale Änderung der mittleren Sonnenscheindauer im Zeitraum von 1884 – 2007, bezogen auf den Mittelwert von 1961 – 1990. Die blaue Kurve zeigt die Jahreswerte, rot ist der dynamische Trend und grün der Anstieg über die gesamte Zeitdauer. Im Zeitraum lag der Tiefstwert der Sonnenscheindauer 1912 und der Höchstwert im Jahre 2003, der interessanterweise mit dem Maximum des Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, zusammen fällt.

WI = Wärmeinsel

Thermik entsteht nur bei Sonnenscheindauer. Nun ist aber in den Alpen eine stetige Zunahme der Sonnenscheindauer zu verzeichnen, so dass die Station auf der Zugspitze, zu den menschengemachten Veränderungen, auch noch den Fehler beinhaltet, dass sie durch die Zunahme der Sonnenscheindauer vermehrt mit Energie beaufschlagt wird und diese Zusatzenergie (die Station befindet sich, wie gesagt, am Oberrand eines Kamins) als Fehler in ihre Vergleichsmessungen eingeht. Dies alles zeigt, dass die DWD-Station ungeeignet für Vergleichsmessungen und eine Station mit vergleichsweise hohem WI ist.

Im Folgenden haben wir uns die Frage gestellt, wie hoch der von den Menschen erzeugte, zusätzliche WI bei der Zugspitze im Vergleich zu anderen Stationen und im Vergleich zum DWD-Durchschnitt ist.

Die von R. Leistenschneider WI bereinigten Deutschlandtemperaturen des DWD über die letzten 125 Jahre sehen so aus:

Grafik 2: Hätte sich Deutschland in den letzten 125 Jahren überhaupt nicht verändert, dann wäre auch keine Zusatzwärme in die Landschaft eingetragen worden. Um die Temperaturen mit früher vergleichen zu können, braucht man einen WI-Korrekturfaktor, der diese Zusatzwärme wieder heraus rechnet. Das hat R. Leistenschneider dankenswerterweise gemacht.

Ideal wäre es, hätte wenigstens eine Region in Deutschland und damit eine Messstation, die über 125 Jahre im großen Umkreis keine Änderungen erfahren hätte. Eine solche Station kann es leider nicht geben (Stichwort: Die Zeit verändert den Raum). Wir haben aber mit Amtsberg im Erzgebirge und mit Schneifelforsthaus in der Eifel zwei Stationen gefunden, die über Jahrzehnte fast gleich geblieben sind und damit nur einen vergleichsweise geringen WI (Raumveränderung) erfahren haben. Im weiteren Artikel wollen wir nun diese beiden fast WI-freien Stationen mit der Zugspitze vergleichen. Betrachten wir zuerst die Stationen Frankfurt/Flughafen, Deutschlandmittel und die fast WI-freie Station Amtsberg über die letzten 34 Jahre, solange Daten dieser Station vorliegen.

Grafik 3: Trendlinienvergleich. Deutschland ist in den letzten 34 Jahren wärmer geworden. Auch die fast WI-freie Station Amtsberg zeigt einen Trendlinienanstieg. Wie aus Grafik 1 ersichtlich, lagen vor 1988 viele kalte Jahre. Und wie zu erwarten und von uns oft genannt, ist Frankfurt eine Station mit einem hohen Wärmeinseleffekt. Der Durchschnitt aller deutschen Stationen ergibt den Schnitt der DWD-werte.

Während die Fraktion der Treibhausgaserwärmung die Welt vereinfacht darstellt und alles nur auf CO2 zurückführt, gehen wir differenzierter vor und erkennen andere und mehrere Ursachen für die oben gezeigte Erwärmung. Ein wesentlicher Treiber der Temperaturen ist der menschengemachte WI. Ein anderer, die Erhöhung der solaren Aktivität seit dem Ende der 1970-Jahre.

Dabei sind die Temperaturen Deutschlands von 1950 bis 1975 rückläufig (Grafik1) Ausgerechnet in einem Zeitraum, in welchem Deutschland nach dem Kriege industrialisiert wurde und der Energiehunger und die Urbanisierung der Landschaft ins Unermessliche stieg, bezeichnet als Deutsches Wirtschaftswunder. Die Erwärmung nach etwa 1975 bis 1998, dem weltweit wärmsten Jahr, war dann der sehr hohen Sonnenaktivität (hohe sonnenfleckenzahlen in den SCHWABE- Zyklen 22 und 23) geschuldet.C02 kann nicht 25 Jahre abkühlend gewirkt haben, danach bis 1998 erwärmend und seitdem wieder leicht abkühlend.

Doch kehren wir zur Frage zurück, wo die Temperaturdatenreihen der Zugspitze in der obigen Grafik einzuordnen wären? Eher bei fast WI-frei, wie viele der Kommentatoren immer wieder behaupten? Dann müsste die Zugspitzentrendlinie der von Amtsberg ähneln. Die folgenden Grafik 3b soll der Frage näherkommen:

Grafik 3b. Der Temperaturgang der Zugspitze gleicht keinesfalls der blauen fast WI-freien Station Amtsberg in Grafik 3. Wir haben gleiche Betrachtungszeiträume gewählt. Die Trendlinie (Steigung) gleicht der braunen Kennlinie, der Summe der vom DWD erhobenen deutschen Stationen.

Ergebnisse:

1) Seit 1982 wurde es deutlich wärmer auf der Zugspitze, der Hauptteil der Erwärmung stammt aber nicht von sog Treibhausgasen, wie CO2, sondern vom zunehmenden Wärmeinseleffekt.

2) Die Zuspitze ist keine WI-freie Station und deshalb für Temperaturvergleiche mit früheren Jahrzehnten genauso ungeeignet, wie die Summe der DWD-Stationen.

3) Das Thermometer der Wetterstation Zugspitze misst die schleichende Zusatzwärme, welche die Touristenströme auf den Berg und in die Umgebung eintragen, einschließlich der wärmenden Infrastrukturerweiterung im Tal, logischerweise mit.

Teil 2:

Die Zugspitze ist auch aus anderen Gründen für Vergleichsbetrachtungen ungeeignet.

Wir wollen unsere in Teil 1 gefundenen Ergebnisse einer kritischen (Selbst-)Betrachtung unterziehen, wie dies in der Wissenschaft üblich ist. Eine Maßnahme, die übrigens vom IPCC und seiner nahen Institute offensichtlich nicht vorgenommen wird, sonst müssten diese längst Zweifel an ihrer Theorie der treibhausbasierten Erwärmung, basierend auf sog. Treibhausgasen, erhalten haben.

Grafik 4: Überraschender Gleichklang der Temperaturtrends auf der WI- belasteten Zugspitze (blau) und dem WI- armen Schneifelforsthaus (grün).

Beim Vergleich beider Stationen (Schneifelforsthaus in der Westeifel ist WI- arm) erkennt man keine Unterschiede. Sind also die zu erwartenden WI- Effekte auf der Zugspitze damit widerlegt, oder wurden sie durch andere Einflüsse kompensiert?

Bei der Auswertung der Großwetterlagen- Häufigkeiten fiel uns eine starke Zunahme der Troglagen (Trog über Westeuropa- TRW und Trog über Mitteleuropa- TRM) seit 1982 ins Auge. Diese beiden Großwetterlagen zeichnen sich durch einen übernormal großen vertikalen Temperaturgradienten (Temperaturabnahme mit zunehmendfer Höhe) aus. Während es in bodennahen Luftschichten nur leicht unternormale (TRM) bis normale oder gar zu warme Temperaturen gibt (TRW) ist es auf sehr hohen Bergen bei diesen Lagen oft deutlich zukalt; was auch gut an einer verstärkten Konvektion, einhergehend mit Schauern und Gewittern, zu erkennen ist. Dieser Effekt bremste den Temperaturanstieg auf den hohen Gipfeln und egalisierte die Tourismus- bedingten WI- Effekte:

Grafik 5: Die Häufigkeit der höhenkalten Troglagen (blau, TRM plus TRW) nahm stark zu. Bei genauerer Betrachtung fällt außerdem eine Gegenläufigkeit auf: Jahre mit vielen Troglagen waren auf der Zugspitze meist kälter, als solche mit wenigen Troglagen.

Als nächstes wollen wir uns der Frage widmen, auf welchem Temperaturniveau wir nun im Jahre 2016 angelangt sind, also ab welchem Jahr haben wir eine ausgeglichenen Trendlinie und ab welchem Jahr eine fallende Trendlinie.

Dabei vergleichen wir jedesmal die erhobenenen DWD-Temperaturen und die fast WI-freien Daten von Amtsberg. Die Zugspitze verhält sich näherungsweise ähnlich wie die DWD-Trendlinie, der Schnitt aller deutschen Stationen.

Grafik 6: Vergleich der drei Stationen Frankfurt, DWD und Amtsberg

Erg: Die DWD-Jahrestemperturen sind seit 28 Jahren ausgeglichen. Ohne die menschliche Zusatzwärme aus den täglich wachsenden Wärmeinseln hätten wir seit 28 Jahren sogar eine Abkühlungstrendlinie. Diese Aussage läßt sich bei aller Vorsicht auch auf die Temperaturreihen der Zugpspitze übertragen, da DWD und Zugpsitze einen ähnlichen WI-effekt aufweisen.

Bei der Auswertung der Zugspitze stießen wir außerdem auf eine weitere Ungereimtheit, welche wir den EIKE- Lesern zur Diskussion erläutern möchten.

Zugspitze: eine Station- zwei unterschiedliche Temperaturtrends- wie kann das sein?

Von Deutschlands höchstem Berg, der Zugspitze, gibt es im Internet zwei Temperatur- Datensätze, die so recht nicht zueinander passen wollen. Der erste Datensatz findet sich unter HISTALP (Historical Instrumental Climatological Surface Time Series of the Greater Alpine Region) und ist seit 1901 verfügbar und lückenlos. Man kann ihn unter http://www.zamg.ac.at/histalp/dataset/station/csv.php herunterladen. Der zweite Datensatz stammt vom Deutschen Wetterdienst (DWD) und findet sich unter http://bildungsserver.hamburg.de/deutschland-dwd/2868708/sueddeutschland.html Achtung: Der Hamburger Bildungsserver ist manchmal außerhalb der üblichen Dienstzeiten nicht erreichbar.

Er weist im Jahr 1945 eine Datenlücke auf (Kriegsende!), was den kritischen Betrachter schon stutzig werden lässt- zwei Datensätze- nur einer lückig? Wegen der Datenlücke 1945 und dem Ende des DWD- Datensatzes im Jahr 2010 bietet sich ein Vergleich beider Datensätze hinsichtlich des Temperaturverlaufes von 1946 bis 2010 an; das Ergebnis sieht so aus:

Bis Mitte der 1970er Jahre waren die DWD- Daten (rot) wärmer als die von HISTALP (blau). Mitte der 1970er „springt“ der HISTALP- Datensatz plötzlich auf das Niveau des DWD- Datensatzes. Folglich zeigt HISTALP einen viel stärkeren Trend und damit als politisch gewünschtes Ergebnis eine stärkere Erwärmung. Um die Relation zu verdeutlichen, wurde die jährliche Differenz HISTALP minus DWD in Kelvin berechnet und ebenfalls grafisch dargestellt:

Nach Kriegsende bis in die 1970er bestand eine Differenz um die minus 0,5K; diese hatte es übrigens auch vor der „Datenlücke“ 1945 von 1901 bis 1944 gegeben. Doch simsalabim- 1975 verschwindet diese Differenz fast völlig; es gibt nunmehr nur noch marginale Differenzen, die im Höchstfall (2000) einmal plus 0,11K erreichen.

Wir bitten um fachlich fundierte Aufklärung beziehungsweise um nachvollziehbare Hinweise, wie dieser beachtliche Datensprung zustande kam.

Gesamtergebnis:

1) Die Zuspitze ist für Temperaturbetrachtungen über 20 Jahre hinaus genauso unbrauchbar wie die vom DWD erhobenen Deutschlanddaten. Ein direkter Vergleich von Jahren ist nur möglich, wenn man die Daten einer Wärmeinselbereinigung unterzieht.

2) Der Erwärmungstrend, der 1975 nach dem kleinen „Kälteloch“ wieder einsetzte, setzt sich in der Gegenwart keinesfalls fort.

3) Der Erwärmungstrend ist seit 1988 gebrochen, WI-bereinigt haben wir seit 1988 sogar eine fallende Trendlinie.

4) Es existieren mindestens zwei Messreihen von der Zugspitze (eine basierend auf dem DWD- Datensatz, eine weitere vom HISTALP- Programm), welche gravierende Unterschiede vor dem Jahre 1975 aufweisen, was noch einer Erklärung bedarf.

Raimund Leistenschneider EIKE

Josef Kowatsch, unabhängiger Natur- und Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




(Teil 2) Das EEG verstößt gegen das Grundgesetz und EU-Recht – Neue rechtswissenschaftliche Analyse

Marktfähigkeit

Bei der Marktfähigkeitsklausel verhält es sich ähnlich. Eine Förderung darf dann nicht mehr erfolgen, wenn die Erzeugung längst marktfähig möglich ist. Marktfähigkeit bedeutet, dass der Betreiber beispielsweise eines Windparks nicht mehr auf eine finanzielle Förderung durch das EEG angewiesen ist, weil er den von ihm erzeugten Strom zu auskömmlichen Marktpreisen entweder über die Börse (EEX) oder over-the-counter (OTC) vermarkten kann. Die finanzielle Förderung einer marktfähigen Erzeugungsart verstößt gegen das Verhältnismäßigkeitsprinzip, weil eine solche Förderung nicht mehr erforderlich ist. Werden marktfähige Anlagen dennoch gefördert, so läge hierin eine unzulässige Beihilfe (Artt. 107, 108 AEUV) und ein Verstoß gegen das Prinzip des freien, unverfälschten Wettbewerbs vor (Artt. 119, 120 AEUV). Ein nationales Gesetz wie das EEG muss folglich eine s.g. Marktfähigkeitsklausel enthalten. Ausführliche Ausführungen dazu findet man in dem Gutachten2).

Aus diesen juristischen Zusammenhängen lässt sich sicher ableiten, wie mit den Altanlagen umzugehen ist, falls das EEG vom Gesetzgeber aufgehoben oder vom BVerfGG kassiert werden würde. 

Das EEG-Fördersystem müsste außerdem dem Grundsatz der Rechtssicherheit entsprechen. Diesen Anforderungen genügt das EEG 2014 nicht. Während der Geltungsbereich des EEG (§ 4) die Anlagen, die grünen Strom erzeugen, umfasst, also Deutschland mit der 200-Meilen-Zone , soll sich die EEG-Umlage auch auf Strom beziehen, der außerhalb des Geltungsbereichs des EEG (z.B. in Österreich, Tschechien, Frankreich oder Niederlande) erzeugt worden ist, nach Deutschland exportiert und hier verbraucht wird.

EEG-Fördersystem – keine Preisregulierung sondern eine Steuer

Aus Europarechtlicher Perspektive kommen noch einige Aspekte hinzu. Auch nach Auffassung der EU-Kommission ist das EEG-Fördersystem eine finanzielle Unterstützung aus staatlichen Mitteln. Der Staat verwaltet die EEG-Umlage, kontrolliert und steuert sie. Er interveniert sowohl auf der Ebene des Vorteils (Einspeisevergütung) als auch auf der Ebene der Finanzierung (Mechanismus der EEG-Umlage). Dies bedeutet, dass es sich beim EEG-Fördersystem nicht um eine Preis- und Mengenregulierung handelt, sondern um staatliche Mittel, die flächendeckend von allen letztverbrauchenden Stromkunden erhoben werden – also finanztechnisch um eine Steuer. Das deckt sich mit der Sicht von Schwintkowski, steht aber mit der in Deutschland durch BGH-Urteil  durchgesetzten Praxis, die EEG-Umlage sei keine Steuer sondern eine gesetzliche Preisregelung und sei deshalb von den Letztverbrauchern zu bezahlen, im Widerspruch. 

Verbotene Diskriminierung für importierten Grünstrom

Importierter Grün-Strom  wird in Deutschland verdeckt diskriminiert, da er  mit der EEG-Umlage belastet wird aber keine finanzielle Förderung erhält. Auch nach Meinung der Kommission ist das ein Verstoß gegen Art. 110 AEUV. Das ist gleichzeitig ein Verstoß gegen die Freiheit des Warenverkehrs (Art. 34 AEUV), wie der EuGH schon 2001 im Fall PreussenElektra entschieden hat.

Video der Pressekonferenz mit Prof. Schwintowski und Care Energy; Martin Kristek, Inhaber und CEO der Care-Energy Gruppe

EEG-Fördersystem versus CO2-Emissionshandel

Im Hauptbericht2)  wird von Schwintowski unter Abschnitt V. 5. auch das Thema „EEG-Fördersystem  versus Emissionshandelssystem (ETS) “ ausführlich behandelt. So stellt er fest, dass durch das EEG-Fördersystem die definierten Einsparziele für die CO2-Reduktion nicht nur für Deutschland, sondern auch für Europa übererfüllt werden. Die Folge davon sind sinkende Preise für CO2-Zertifikate, da die CO2 verursachende Industrie keinerlei Anlass mehr hat, CO2  einzusparen. Die Einsparungen sind bereits durch den EEG-Fördermechanismus  erfolgt. Das Zusammenspiel EEG-Fördersystem und dem ETS bewirkt, dass sich beide Systeme gegenseitig tendenziell aufheben. Auch die Monopolkommision ist der Auffassung, dass in Bezug auf den europäischen Zertifikatehandel das deutsche Ziel zur Einsparung von Treibhausgasen redundant ist. Statt der Klimaschutzwirkung werden durch das EEG 2014 hohe Kosten für die Volkswirtschaft verursacht, während gleichzeitig Länder der EU, die keine vergleichbare Förderung haben, indirekt durch die deutsche Förderpolitik entlastet werden.

Das ausführliche  44-seitige Gutachten geht unter Würdigung hunderter Literaturstellen sehr detailliert auf alle verfassungs- und europarechtlichen  Aspekte ein, die bei der Auslegung und Wirkung des Erneuerbare-Energien-Gesetzes (EEG) zu berücksichtigen sind. In der folgenden Presseinformation3) „Mängel des Erneuerbare-Energien-Gesetzes in Bezug auf Verfassungs- und Europarecht“  hat Schwintowski  das Gutachten zusammengefasst.

I. Verfassungsrechtliche Perspektive

1.     Die EEG-Umlage belastet alle privaten und gewerblichen Letztverbraucher. Der Kreis der Stromverbraucher ist völlig konturenlos und geht in der Allgemeinheit der Steuerzahler auf.

2.     Funktional handelt es sich bei der EEG-Umlage um eine Gemeinlast, die alle Stromverbraucher und damit praktisch alle Bürger/innen betrifft.

3.     Im Gegensatz zur Auffassung des BGH handelt es sich bei der EEG-Umlage nicht um eine gesetzliche Preisregelung. Die EEG-Umlage reguliert nicht den Preis auf irgendeinem der Energiemärkte. Sie ist vielmehr der Jahresdurchschnitt der zusätzlichen Kosten, die für die Bereitstellung Erneuerbarer Energien pro kWh anfallen.

4.     Wäre die EEG-Umlage tatsächlich eine Preisfestsetzung für Strom, ganz gleich ob es sich dabei um einen Höchst- oder eine Mindestpreis handeln würde, so wäre diese Preisfestsetzung europarechtswidrig und folglich nichtig, denn seit der Marktöffnung im Jahre 1998 ist der Wettbewerb um den Strompreis in Europa ausdrücklich frei (Artt. 119, 120 AEUV)4).

5.     Die EEG-Umlage, die jährlich einmal durch die Bundesnetzagentur festgelegt wird, ist nur ein Rechnungsposten des Gesamtstrompreises, der das Produkt (Strom) belastet, aber nicht den Endpreis reguliert. Anders als bei einer typischen Preis- und Mengenregulierung schafft die EEG-Umlage überhaupt erst Angebot und Nachfrage, die es ohne den gesetzgeberischen Eingriff nicht gäbe. Der Gesetzgeber gibt also die Art der Produkte (Grün-Strom) und die darauf bezogene Nachfragepflicht gesetzlich vor. Das aber ist keine Preisregelung sondern staatlich initiierter Mittelfluss, der den Markt für Grünstromanlagen entstehen lässt und ihn zugleich auf den Schultern aller Letztverbraucher, d.h. der Allgemeinheit, gegenfinanziert.

6.     Das einzig zulässige Finanzierungsinstrument für einen solchen staatlich gelenkten Mittelfluss ist, wie das Bundesverfassungsgericht vor über 20 Jahren bereits im Kohlepfennigbeschluss festgestellt hat, die Steuer.

7.     Trifft diese Analyse zu, so wäre das derzeitige EEG-System verfassungswidrig und müsste in ein steuerfinanziertes System überführt werden.

8.     Dabei müsste eine Amortisationsklausel eingeführt werden, um zu vermeiden, dass EEG-Anlagen auch dann noch finanziell gefördert werden, wenn sie längst amortisiert sind (PV-Anlagen sollen in den Jahren 2009 bis 2011 eine Eigenkapitalrendite von 30% und sogar teilweise von 50% erzielt haben: Andor/ Frondel/ Sendler in ZEnergieWirtsch (2015), 39: 253, 259).

9.     Außerdem darf eine Förderung nicht mehr erfolgen, wenn die Erzeugung längst marktfähig möglich ist. Marktfähig ist ein System dann, wenn der erzeugte Strom zu auskömmlichen Marktpreisen verkauft werden kann. Die finanzielle Weiterförderung einer marktfähigen Erzeugungsart verstößt gegen das verfassungsrechtliche Verhältnismäßigkeitsprinzip, weil eine solche Förderung nicht mehr erforderlich ist. Wird eine Anlage trotz Marktfähigkeit gefördert, so läge hierin zugleich eine unzulässige Beihilfe (Artt. 107, 108 AEUV) und ein Verstoß gegen das Prinzip des freien, unverfälschten Wettbewerbs (Artt. 119, 120 AEUV).

10.  Das Fördersystem müsste außerdem dem Grundsatz der Rechtssicherheit entsprechen, also für alle Beteiligten und Betroffenen klar, bestimmt und vorhersehbar sein. Diesen Anforderungen genügt das EEG 2014 nicht. Während der Geltungsbereich des EEG (§ 4) Anlagen, die grünen Strom erzeugen, umfasst, soll sich die EEG-Umlage auch auf Strom beziehen, der außerhalb des Geltungsbereichs des EEG (z.B. in Österreich, Tschechien, Frankreich oder Niederlande) erzeugt worden ist. Außerdem enthält das EEG 2014 keine Verpflichtung der Letztverbraucher die EEG-Umlage zu bezahlen. Es ist also in zwei grundlegenden Fragen unklar und widersprüchlich. 

11.  FAZIT: Das Bundesverfassungsgericht sollte das gesamte EEG-System und Teile daraus mit dem Grundgesetz für unvereinbar oder nichtig erklären (§§ 31 Abs. 2, 78, 95 Abs. 3 BVerfGG).

II. Europarechtliche Perspektive

1.     Auch nach Auffassung der Kommission ist das EEG-Fördersystem eine finanzielle Unterstützung aus staatlichen Mitteln. Der Staat verwaltet die EEG-Umlage, kontrolliert und steuert sie. Er interveniert sowohl auf der Ebene des Vorteils (Einspeisevergütung) als auch auf der Ebene der Finanzierung (Mechanismus der EEG-Umlage). Dies bedeutet, dass es sich beim EEG-Fördersystem nicht um eine Preis- und Mengenregulierung handelt, sondern um staatliche Mittel, die flächendeckend von allen letztverbrauchenden Stromkunden erhoben werden – also finanztechnisch um eine Steuer.

2.     Importierter Grün-Strom (z.B. aus Österreich oder Schweden) wird im deutschen EEG-System versteckt diskriminiert, da der ausländische Grün-Strom mit der EEG-Umlage belastet wird, aber an der finanziellen Förderung nicht teilnimmt. Das verstößt, auch nach Meinung der Kommission, gegen Art. 110 AEUV.

3.     Grün-Strom aus anderen Mitgliedstaaten wird mit der EEG-Umlage belastet, nimmt aber an der Förderung des EEG nicht teil. Darin liegt ein Verstoß gegen die Freiheit des Warenverkehrs (Art. 34 AEUV). Das hat der EuGH bereits im Jahre 2001 im Fall PreussenElektra entschieden. Allerdings kann ein nationales Fördersystem für Erneuerbare Energien ausnahmsweise gerechtfertigt sein, wenn es verhältnismäßig, also geeignet und erforderlich ist sowie dem Grundsatz der Rechtssicherheit entspricht, also so klar und so bestimmt formuliert ist, dass die Anwendung für den Einzelnen vorhersehbar ist (EuGH Ålands).

4.     Die Tatsache, dass die Förderung Erneuerbarer Energien europaweit noch nicht harmonisiert ist, rechtfertigt Verstöße gegen die Warenverkehrsfreiheit (Art. 34 AEUV) nicht.

5.     Eine Verletzung der Warenverkehrsfreiheit kann auch nicht mit dem Argument gerechtfertigt werden, die Mitgliedstaaten benötigten nationale Förderregelungen, um die Wirkungen und Kosten des Fördersystems kontrollieren und das Vertrauen der Investoren erhalten zu können. Beide Argumente spielen nach Art. 36 AEUV keine Rolle.

6.     Internationale Umweltverpflichtungen der Union sind keine Rechtfertigungsgründe für die Verletzung der Warenverkehrsfreiheit (Art. 36 AEUV). Das gleiche gilt für die faire und angemessene Aufteilung (Burden-Sharing) zur Erfüllung dieser Verpflichtungen der Union.

7.     Deutschland hat sich gegenüber der EU verpflichtet bis 2020 18% der Bruttoendenergie aus erneuerbaren Quellen zu beziehen. Dieser Zielwert wurde bereits im Jahre 2015 deutlich überschritten und liegt heute bei etwa 34%. Konsequenz: Da Deutschland ausländischen Grünstrom nicht fördert, liegt in dieser Überschreitung des Zielwertes eine im Rahmen von Art. 34 AEUV nicht mehr rechtfertigungsfähige Diskriminierung ausländischer Grünstrom-Erzeuger.

Der EuGH hat im Fall PreussenElektra und im Fall Ålands bestätigt, dass die Einschränkung der Warenverkehrsfreiheit nicht über das hinausgehen darf, was zur Erreichung des jeweils verfolgten Ziels erforderlich ist. Schon Generalanwalt Jacobs hat im Jahre 2000 gefragt, „warum in anderen Mitgliedstaaten erzeugter Grün-Strom nicht im gleichen Maße zur Verringerung des Abgasausstoßes beiträgt“ wie Grün-Strom aus Deutschland.

8.     Die Beschränkung des freien Warenverkehrs ist aber auch dann nicht mehr gerechtfertigt, wenn die Erzeugungsanlagen bereits amortisiert sind.

9.     Das gleiche gilt, wenn die Erzeugung grünen Stroms marktfähig ist, also keiner Förderung mehr bedarf.

10.  Das nationale EEG-Fördersystem verstößt außerdem gegen das europäische Verhältnismäßigkeitsprinzip, weil sich das EEG-Fördersystem mit dem Emissionshandelssystem gegenseitig aufhebt. Darauf hat die Monopolkommission schon 2013 hingewiesen. Die Klima- und Umweltschutzziele, die das EEG verfolgt, laufen leer. Statt einer Klimaschutzwirkung werden durch das EEG 2014 „hohe Kosten für die deutsche Volkswirtschaft verursacht, während gleichzeitig Länder innerhalb der EU, die keine vergleichbare Förderung haben, indirekt durch die deutsche Förderpolitik entlastet werden“. Rechtlich bedeutet dies, dass die Förderung durch das EEG aus der Perspektive des europäischen Verhältnismäßigkeitsgrundsatzes nicht erforderlich ist. 

11.  FAZIT: Die Erzeuger grünen Stroms aus anderen Mitgliedstaaten haben Anspruch auf die EEG-Umlage ebenso wie inländische Erzeuger. Dies ist eine unmittelbare Folge aus der Anwendung des Art. 34 AEUV, auf die sich jeder Grünstrom-Erzeuger des europäischen Auslandes vor nationalen Gerichten berufen und die Vorlage an den EuGH (Art. 267 AEUV) verlangen kann. Zugleich bedeutet dies, dass die beihilferechtliche Freistellung, die die Kommission dem EEG 2014 gewährt hat, sich auch auf Erzeuger grünen Stroms in anderen europäischen Mitgliedstaaten erstreckt.

Literatur

1) Humboldt-Universität zu Berlin, Juristische Fakultät; Bürgerliches Recht, Handels-, Wirtschafts- und Europarecht; Institut für Energie- und Wettbewerbsrecht in der Kommunalen Wirtschaft e.V. (EWeRK)

2) http://www.presseportal.de/pm/80959/3254032, demnächst Veröffentlicht in EWeRK-Feft 2/2016

3) http://www.presseportal.de/pm/80959/3254032

4) AEUV – Vertrag über die Arbeitsweise der EU 

Das Gutachten und den Kurzbericht können Sie im Original als pdf im Anhang herunterladen.

Related Files




Lagarde will neuen Grünen Internationalen Geldfond

Bild rechts: Das ermutigte China spielt die 100 Mrd. Dollar Trumpfkarte

Lesen Sie hier: Climate Deal with China Backfires [Fehlzündung von Obamas Klima-Deal mit China]

In Lagarde‘s Augen sind IWF Subventionen einfache Dinge zur Bekämpfung des Klimawandels

Das Drehen des Laufs der Dinge auf die globale Erwärmung soll durch große und kleine Schritte in Angriff genommen werden, die von Beschneiden von Subventionen bis zum Radfahren reichen, sagte IWF Geschäftsführerin Christine Lagarde am Freitag.
"Die Streichung von Subventionen für fossile Brennstoffe wären ein langer Weg, um den Verbrauch zu senken", sagte Lagarde auf eine Frage am Massachusetts Institute of Technology, wie der Klimawandel angegangen werden kann.

Sie hielt eine Rede darüber, wie das Wachstum angesichts einer alternden Bevölkerung zu fördern sei und sagte, dass „Game Changes" mit Wettbewerb zwischen den Versicherern und Anhebung des Rentenalters helfen könnte, einen langen Weg zu gehen.
In einer Rede, Monate nach dem Ende des wärmsten Jahr der Aufzeichnung, sagte Lagarde: "Wenn Subventionen gestrichen werden und die Kohlenstoffpreise jetzt richtig besetzt und besteuert werden, würde das den langen Weg zur Bewältigung des Klimawandels einleiten, mit dem die Welt konfrontiert ist."

Lesen Sie mehr: http://www.reuters.com/article/us-imf-lagarde-idUSKCN0W62OI

Diese Richtungsänderung wurde durch eine Änderung des IWF-Mandats erleichtert, das im Jahr 2012 stattfand, kurz nachdem Lagarde als Geschäftsführerin ernannt wurde.
Von der Webseite des IWF:

Der IWF, als Währungsfond bekannt, wurde bei einer UN-Konferenz in Bretton Woods, New Hampshire, USA, im Juli 1944 gegründet. Die 44 Länder auf dieser Konferenz versuchten einen Rahmen für die wirtschaftliche Zusammenarbeit zu konzipieren, um eine Wiederholung des Abwertungswettbewerbs zu vermeiden, die mit zur Großen Depression der 1930er Jahre beigetragen hat.

Die IWF-Aufgaben: Die Hauptaufgabe des IWF ist es, die Stabilität des internationalen Währungssystems – das System der Wechselkurse und internationale Zahlungen zu gewährleisten, dass es Ländern (und ihren Bürgern) ermöglicht, miteinander Geschäfte zu tätigen. Das Mandat des Fonds wurde im Jahr 2012 aktualisiert, um alle makroökonomischen Themen und den Finanzsektor einzuschließen, die die globale Stabilität tragen.

Lesen Sie mehr: http://www.imf.org/external/about.htm

Da Europa jedes zweite Jahr eine große Bankenkrise zu erleiden scheint, ist der Euro in Gefahr eines bevorstehendes Kollapses. China könnte dabei sein, die größte Kredit-Blase in der Geschichte hochzupoppen, die russische Wirtschaft bröckelt, der Nahe Osten ist in der Krise, und die USA, die ein feuchtes Auge mit 19 Billionen Dollar Staatsschulden tragen und mit China am Rande einer Marine-Konfrontation sein könnte – daher, könnten Sie denken, dass die globale Finanzstabilität vielleicht die ungeteilte Aufmerksamkeit von mindestens eine multinationalen Agentur bekommen sollte.

Erschienen auf WUWT am 05. März 2016

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/03/05/lagarde-the-new-green-international-monetary-fund/




Obamas Klimawandel-Vermächtnis hängt vom nächsten Präsidenten ab

Der CPP ist die jüngste Vorschriftenflut der EPA, und das Magazin Atlantic schreibt dazu: „Er verankert die Klimawandel-Politik der Obama-Administration. Er hat zum Ziel, lokale Versorger von der auf Kohle basierenden Stromerzeugung abzubringen und sich erneuerbarer Energie und Erdgas zuzuwenden“ – mit dem Ziel, die CO2-Emissionen von bestehenden Kraftwerken bis zum Jahr 2035 um 32% zu reduzieren, verglichen mit dem Niveau des Jahres 2005. Die Staaten werden angewiesen, bis zum 6. September Pläne vorzulegen, wie man diese Vorschriften umzusetzen gedenkt, wobei die Emissions-Reduktionen am 1. Januar 2022 beginnen sollen.

Unmittelbar nach Veröffentlichung dieses Vorschriften-Paketes reichte eine Koalition von 24 US-Staaten und ein Kohlebergbau-Unternehmen unter Führung des Generalstaatsanwaltes von West Virginia Patrick Morrisey (Republikaner) Klage ein, um den CPP zu stoppen. Morrissey sprach davon als „absolut illegal und einen der aggressivsten Akte der Exekutive seit langer Zeit, um Macht über die Energiebranche zu erlangen“.

Das Magazin Hill berichtet: „Sie fordern das Berufungsgericht des District of Columbia Circuit auf, die Vorschrift aufzuheben. Außerdem wollen sie, dass das Gericht deren Implementierung sofort stoppt, während die Klage den Weg durch die Instanzen geht“. Der [US-]Bundesgerichtshof lehnte es ab, einen solchen Stopp des CPP während des Prozesses zu verhängen. Allerdings stimmte es zu, den Fall in einer mündlichen Verhandlung zu behandeln, die am 2. Juni beginnen soll.

Tage später, am 26. Januar, wandten sich die Kläger sowie eine große Gruppe von Versorgungsunternehmen und Handelsgruppen der Energie-Industrie an den Obersten Gerichtshof (SCOTUS). Sie waren inzwischen auf 29 gewachsen sind (Nevada ist der jüngste Staat gegen den CPP, um „die für Nevada überaus wichtige Tourismus-Industrie zu schützen“. Am 24. Februar reichte Generalanwalt Laxalt einen Brief ein, um herauszustellen, wie sehr die Regierungsagentur über das Ziel hinausgeschossen ist, und um die Überflüssigkeit des CPP-Gesetzes zu betonen. Morrissey räumte ein: „Obwohl wir wissen, dass ein Aufschub-Antrag an den Obersten Gerichtshof nicht typisch ist für dieses Stadium des Prozesses, müssen wir diese Option weiter verfolgen, um weitere Schäden durch diese Vorschrift abzuschwächen“. In dem Wissen, dass SCOTUS sich niemals in einen Fall eingeschaltet hatte, bevor irgendein Bezirksgericht noch nicht einmal die grundlegenden Argumente gehört hatte, fühlten sich die Unterstützer des CPP, wie die Chefin der Abteilung Klima des Sierra Clubs Joanne Spalding sicher. Sie nannten die Eingabe „eine weitere ,Hail Mary‘-Infragestellung des CPP“.

Unter Verweis auf das SCOTUS-Urteil aus dem Jahr 2015, bei dem die Vorschrift Mercury Air Toxics Standards (MATS) für nichtig erklärt wurde, argumentierten die Kläger, dass der Schaden durch MATS schon zum Zeitpunkt der Entscheidung angerichtet worden war. In einem Client Alert hat die internationale Anwaltsfirma Milbank – die im Bereich Energie arbeitet – gesagt: „Die EPA selbst hat eingeräumt, dass die Vorschrift praktisch keine Auswirkung gehabt habe, waren die Staaten doch schon großenteils den Vorschriften gefolgt bis zu der Zeit, an dem der Gerichtshof sein Urteil fällte“.

Trotz der historischen Natur der Eingabe hat SCOTUS am 9. Februar mit einer Mehrheit von 5 zu 4 den Status eines Notfalls bzgl. CPP gewährt. Milbank stallt fest: „Der angeordnete Aufschub signalisierte, dass fünf der Richter am Obersten Gerichtshof erhebliche Zweifel gegenüber dem Versuch der EPA hegten, die Emissionen von Kraftwerken in der Art und Weise zu regulieren, wie es der CPP gegenwärtig vorsieht. Um den Aufschub zu gewähren, muss der Oberste Gerichtshof zu der Überzeugung gekommen sein, dass es ,gute Aussichten‘ gibt, dass die Mehrheit des Gerichtshofes dafür stimmen würde, ein Urteil aufzuheben, falls das Gericht in D. C. den CPP bestätigen würde“. Morrissey stimmt dem zu: „Die Entscheidung beflügelt das Vertrauen in die Herausforderung in größerem Rahmen, da der Oberste Gerichtshof die Argumente der Koalition als stichhaltig genug einstufte, um die EPA aufzuhalten, noch bevor das Verfahren abgeschlossen ist“. Dieser Sieg bedeutet, dass es der EPA verboten ist, den CPP zu implementieren oder in Kraft zu setzen, bis das Bezirksgericht von D. C. eine Entscheidung hierzu getroffen hat – was nicht vor dem kommenden Herbst zu erwarten ist. FuelFix berichtet: „das konventionelle Wissen ist, dass die aus drei Mitgliedern bestehende Gerichtsinstanz im Sinne des Weißen Hauses urteilen werde“.

Da 18 Staaten gegen den Antrag für den Aufschub opponierten, welches Urteil das untergeordnete Gericht auch immer fällen wird, sehen die meisten Experten, dass sich SCOTUS wahrscheinlich des Falles annehmen wird – wahrscheinlich 2017.

Gegner des CPP sahen den Aufschub als ein Anzeichen, dass SCOTUS die Regel kippen könnte. Seth Jaffe, ehemals Präsident des American College of Environmental Lawyers, sieht es Atlantic zufolge als „ein bedrohliches Zeichen für das Gesetz“. Jaffe sagte: „Man muss zu der Folgerung kommen, dass fünf Richter entschieden haben, dass das Gesetz weg muss“.

Das Vertrauen verringerte sich jedoch durch den Tod der Richterin Antonia Scalia – nur vier Tage nach dem beispiellosen Urteil des Gerichts für den Aufschub. Als konservative Stimme am Hof konnte Scalia eine Historie vorweisen, Gesetzen der Regierung Grenzen gesetzt zu haben. Sie war eine beißende Kritikerin der EPA-Vorschriften bzgl. Treibhausgas-Emissionen. Abhängig davon, wer wann den vakanten Sitz einnimmt, kann das Urteil des Gerichts so oder so ausfallen.

Unabhängig davon schreitet die EPA voran und ermuntert Staaten, freiwillige Schritte zu unternehmen, die Vorschriften zu befolgen oder jene zu unterstützen, die das tun.

Die Staaten haben auf den Aufschub unterschiedlich reagiert. Viele Staaten wie etwa Massachusetts, Arizona und Virginia treiben ihre Pläne voran. Einige sind bereits weit vorangekommen, dem CPP zu folgen, wobei erwartet wird, dass Kalifornien das Ziel des Planes früher als geplant erreicht. Der Kommissar von Ohio Public Utility Asim Haque berichtet, dass sie „nahe der Vollendung“ seien, aber die Kommission ist dem Aufschub vorerst gefolgt.

Texas, dessen Generalstaatsanwalt Ken Paxton (Republikaner) sich mit Morrissey die Führung zum Aufschubs-Antrag teilte, befindet sich in einer Wartestellung. Toby Baker, ein Kommissar der Texas Commission on Environmental Quality, sagte FuelFix zufolge: „Ich habe beobachtet, wie Staaten in voraus eilendem Gehorsam den gesetzlichen Regelungen gefolgt sind, und dass nach Inkrafttreten der Regelungen diese nicht passen. Ich habe den starken Eindruck, dass der CPP sich gegenüber dem, was er jetzt ist, noch erheblich ändern wird“.

Nach dem SCOTUS-Urteil zum Aufschub des CPP bis nach Abschluss des Verfahrens hat der Gouverneur von Wisconsin (Republikaner) gesetzlich angeordnet, dass staatliche Agenturen jedwede Vorbereitung auf die Umsetzung des CPP sofort einzustellen haben, bis der Aufschub ausläuft. Unter Verweis auf „unangebrachte Belastungen“ für Hausbesitzer und Firmen argumentierte er, dass die Vorschrift „verheerende Auswirkungen“ haben könnte.

Infolge des von SCOTUS angeordneten Aufschubs der Umsetzung des CPP bis zum Abschluss des Verfahrens und wegen der Verzögerungen der Ultimaten der EPA, haben Morrissey und Paxton in einem Brief an die National Association of Regulatory Utility Commissioners und die National Association of Clean Air Agencies sie ermutigt, „ihre Bleistifte niederzulegen“. Sie weisen darauf hin, dass Staaten „keine rechtliche Verpflichtung haben, Steuergelder auszugeben für einen suspendierten und wahrscheinlich ungesetzlichen Power Plan … jedwede Dollars von Steuerzahlern, die während des Gerichtsverfahrens ausgegeben werden, sind unnötig und wahrscheinlich vollständig verschwendet“.

Der Generaldirektor der Pennsylvania Coal Alliance John Pippy, ein führender Vertreter der Kohleindustrie in seinem Staat, argumentiert, dass es „ernste Bedenken hinsichtlich der Ressourcen gibt, die in dem Versuch verschwendet werden, einen Plan zur Befolgung zu entwickeln auf Kosten der Steuerzahler – für ein Gesetz, dass noch signifikant verändert oder durch den Obersten Gerichtshof vollständig verworfen werden könnte“.

Vor dem in wenigen Monaten erwarteten Urteil haben 34 Senatoren und 171 Abgeordnete unter Leitung des Mehrheitsführers im Senat Mitch McConnell (Republikaner) und des Vorsitzenden des EPW-Komitees James Inhofe (Republikaner) eine Sachverständigen-Kurzinformation [an amicus brief] an das Bezirksgericht gesandt, mit der dieser gedrängt werden soll, „die Versuche der EPA zu blockieren, den Stromsektor der Nation zu transformieren“. Der Presseerklärung zufolge glauben die Gesetzgeber, dass die Vorschriften „weit über die Statuten [der EPA] hinausgehen“. Es heißt darin: „Staaten werden vor beispiellosen neuen regulatorischen Belastungen stehen; Stromkosten zahlende Hausbesitzer werden mit Milliarden Dollar Folgekosten belastet, und die Arbeiter in Amerika nebst deren Familien werden die Härten von Arbeitsplatzverlusten infolge Schließungen von Kraftwerken erdulden sowie höhere Strompreise, und außerdem wird es alles in allem eine Abnahme der Wettbewerbsfähigkeit der Nation in der globalen Ökonomie geben“.

Der Kongressabgeordnete Kevin Cramer (Republikaner) sagt, dass er seinen Kollegen an die Seite gesprungen ist, weil „die Maßnahmen der EPA eindeutig illegal sind und die ausdrückliche Absicht des Kongresses verletzen“. Er sieht seinen Staat [North Dakota] übergangen. Die ursprünglich ins Spiel gebrachte Vorlage verlangte von South Dakota eine Reduktion von Emissionen um 11 Prozent, aber das schließlich beschlossene Gesetz verlangte „schädliche 45 Prozent“. Cramer folgert daraus: „Die Stromerzeuger in North Dakota bieten mit den preiswertesten Strom an und sorgen für mit die sauberste Luft, aber wenn man den Schwerpunkt auf die Implementierung einer radikalen Umwelt-Agenda legt, bedroht dies unsere wirtschaftliche Zukunft“.

Inzwischen warten wir darauf, dass der CPP den Weg durch die Instanzen macht – als Erstes durch das Bezirksgericht von D. C. Und dann im Jahre 2017 den Obersten Gerichtshof. Aber da der CPP mindestens bis 2017 ausgesetzt ist, wird dessen Zukunft in Wirklichkeit vom nächsten Präsidenten festgelegt. Milbank sagt: „die nächste Administration könnte danach trachten, Bemühungen zur Implementierung des CPP zu verändern, abzuschwächen oder damit fortzufahren. Sollte ein Republikaner ins Oval Office einziehen, könnte dies einen permanenten Stopp des CPP insgesamt zur Folge haben, oder zumindest bedeutende Abweichungen vom gegenwärtigen Ziel der Emissionsreduktionen. Sollte jedoch ein Demokrat gewählt werden, könnte die neue Administration den CPP weiter voranbringen“.

So wie es derzeit steht, wird natürlich der nächste Präsident einen Ersatzrichter für Richterin Scalia ernennen. Atlantic schreibt: „Falls ein Republikaner das Weiße Haus erobert, würde deren Nominierung fast mit Sicherheit dem konservativen Flügel des Obersten Gerichtshofes beitreten. Dann ist es unwahrscheinlich, dass man zugunsten des CPP urteilt – aber es würde auch keine Rolle spielen, weil kein noch verbliebener Republikaner hinter Obamas Klimapolitik steht, so dass der CPP wahrscheinlich administrativ aufgehoben wird“.

Mit einem Republikaner als Präsident wird es weitere Änderungen geben, die sich auf den CPP auswirken. Die EPA – so sie nicht aufgelöst wird – wird einen neuen Administrator bekommen. Gina McCarthy wird nicht länger den Vorsitz führen und nicht mehr die Politik beeinflussen. Falls der CPP wirklich vor Gericht landet, wäre dies unter den Augen der neuen Führung der Fall, und alles könnte sehr anders werden.

Da der CPP nicht vor dem nächsten Jahr vor dem Obersten Gerichtshof verhandelt wird, ist er tatsächlich am 8. November 2016 der Gewinner, wo über die juristische Schlacht des CPP entschieden wird – was Obamas Klimapolitik und das Pariser Abkommen entweder fördern oder ausradieren wird. Angesichts des Umstandes, dass der CPP Morrissey zufolge „sogar noch weitere unzählige Arbeitsplätze zerstören, in den Himmel schießende Strompreise bringen und die Schwächung des nationalen Stromnetzes bewirken wird“, könnte der Einsatz höher nicht sein.

Link: http://oilpro.com/post/22756/obamas-climate-change-legacy-to-determined-next-president

Übersetzt von Chris Frey EIKE




(Teil 1) Das EEG verstößt gegen das Grundgesetz und EU-Recht – Neue rechtswissenschaftliche Analyse

Rechtliche Möglichkeiten

Für Letztverbraucher

Viele, die sich kritisch mit der Klima- und Energiepolitik der deutschen Regierung  auseinander setzen, aber auch viele Mitbürger, die sich in der Jurisprudenz nicht so gut auskennen, sind seit Inkrafttreten des EEG auch schon mehr oder weniger Zweifel an der Rechtmäßigkeit verschiedener Bestimmungen des EEG gekommen. So besteht des Längeren die Forderung, die

Video der Pressekonferenz mit Prof. Schwintowski und Care Energy; Martin Kristek, Inhaber und CEO der Care-Energy Gruppe

EEG-(Zwangs-)Umlage durch eine Steuer zu ersetzen. Schwintowski weist nun nach, dass „das einzig zulässige Finanzierungsinstrument für einen solchen staatlich gelenkten Mittelfluss“ die Steuer ist und weiter, „Trifft diese Analyse zu, so wäre das derzeitige EEG-System verfassungswidrig und müsste in ein steuerfinanziertes System überführt werden. Damit bestätigt er in weiten Teilen die Analyse der Kanzlei Trutz Graf von Kerssenbrock vom August 2014 (Details dazu hier), gibt aber zusätzlich praktische Handlungsempfehlungen wie auch Normalbürger oder juristische Personen, die sich durch das EEG geschädigt fühlen wieder Rechtssicherheit herstellen können.  

Denn der Autor macht klar, dass das EEG direkt keinerlei Verpflichtung zur Zahlung der EEG-Umlage für die  Stromkunden enthält. Wie diese – unabhängig ob natürliche oder juristische Person –  sich gegen diese unzulässige Sonderabgabe zur Wehr setzen könnten, skizziert Schwintowski wie folgt:

(Zitat Schwintowski aus einem Schreiben, das uns vorliegt)

„Der Weg zum Bundesverfassungsgericht könnte über einen deutschen Letztverbraucher eröffnet werden, indem dieser sich weigert die EEG-Umlage, die ihm beispielsweise sein Stadtwerk in Rech­nung stellt, zu bezahlen. Daraufhin wird das Stadtwerk auf Zahlung der EEG-Umlage klagen. In die­sem Prozess wird der Letztverbraucher die Verfassungswidrigkeit des EEG 2014/16 einwenden und die Vorlage an das Bundesverfassungsgericht (Art. 100 GG) beantragen. Beim Bundesverfassungsge­richt würde dann zu klären sein, ob man eine These, wonach es sich bei der EEG-Systematik um eine Steuer handelt, zutrifft mit der Folge, dass das gesamte EEG-System aufzuheben und zu reformieren wäre. Sollte sich das Bundesverfassungsgericht zu diesem Schritt nicht entschließen würde man beim Bundesverfassungsgericht die Vorlage an den EuGH beantragen (auch hier Art. 267 AEUV) und beim Europäischen Gerichtshof zunächst einmal vortragen, dass es sich beim deutschen System um eine staatliche Leistung handelt, die nach dem europäischen Beihilferecht nicht rechtfertigungsfähig ist.

Darüber hinaus würde man beim Bundesverfassungsgericht vortragen, dass das deutsche EEG eine Marktfähigkeitsklausel und eine Amortisationsklausel haben müsste und darüber hinaus das Prinzip der Rechtssicherheit gewahrt sein müsste, also klar und verständlich Rechte und Pflichten derjenigen bestimmen müsste, die von dem Gesetz betroffen sind. Das ist derzeit nicht der Fall, denn das Ge­setz beschränkt den Geltungsbereich auf Anlagen in Deutschland, erhebt dann aber doch die EEG­-Umlage auf Strom aus dem Ausland und: die Verpflichtung, dass der Letztverbraucher die EEG­-Umlage zahlen muss, findet sich an keiner Stelle im EEG (das hat erst der BGH aus der Natur der Sa­che hinzugefügt).“

…Hilfestellung für die EU-Kommission, herangetragen durch EU-Parlamentarier 

Daneben regt Schwintowski an, dass Europaparlamentarier die EU-Kommission mit den von ihm genannten Argumenten beim Anfechten der von der Bundesrepublik gegen die Kommission erhobene Nichtigkeitsklage beim EuGH zur Verteidigung des EEG 2012 unterstützen  könnte, da diese die Kommission die jetzt vorgebrachten Argumente noch nicht berücksichtig habe.

Zitat Schwintowski:

„Man könnte aber mit der Kommission gemeinsam darüber nachdenken, ob die Argumentation, die die Kommission bisher vorträgt, in sich hinreichend und stimmig ist. In meinen Überlegungen habe ich mindestens drei Argumente hinzugefügt, die es bisher in der öffentlichen Diskussion nicht gab (Amortisationsklausel/ Marktfähigkeitsklausel/ Redundanz durch ETS). Neu ist auch mein Argument, wonach eine Rechtfertigung der Verletzung von Art. 34 AEUV oberhalb der Grenzwerte, die für grünen Strom mit der EU im Rahmen des burden­sharing vereinbart wurden, verhältnismäßig wäre. Es wäre also wahrscheinlich nicht schlecht, wenn man der Europäischen Kommission einmal meine Überlegungen näher bringen würde.“ 

…Klagen von ausländischen „Grünstromunternehmen“

Weiterhin zeigt Schwintowski die Möglichkeit für ein ausländisches „Grünstromunternehmen“ auf, dass durch das EEG diskriminiert wird.

Zitat Schwintowski:

„So könnte beispielsweise ein österreichischer/ niederlän­discher Grünstrom-Erzeuger, der Strom in das deutsche Netz eingespeist hat oder einspeisen will, eine Feststellungklage vor einem deutschen Gericht erheben mit dem Ziel, die garantierten Leistun­gen des EEG zu bekommen. Der Übertragungsnetzbetreiber wird dies ablehnen (müssen). Gegen diese Ablehnung würde der Erzeuger gerichtlich vorgehen und im Rahmen dieses Verfahrens die Vorlage an den EuGH (Art. 267 AEUV) beantragen.“ 

Ob sich ein derartiges Unternehmen fände ist zumindest zweifelhaft, sind doch bisher keinerlei Anstrengungen ausländischer Unternehmen diesbezüglich bekannt geworden.

Zusätzlich kann aus dem Gutachten wird auch die Antwort auf die schon früher diskutierte Frage indirekt abgeleitet werden, wie mit den Betreibern der vorhandenen EE-Anlagen  nach dem Wegfall der Vorrangeinspeisung und der für 20 Jahre garantierten Einspeisevergütung verfahren werden sollte. Die Antwort von Schwintowski darauf:

„Als anreizorientiertem Gesetz  fehlt dem EEG als Strukturbaustein eine  Amortisationsklausel, die besagt, dass im EEG eine Deckelung fehlt, die verhindert, dass  finanzielle Förderung über das Ziel hinausschießt und bei den Betreibern von EE-Anlagen  nach der Amortisation  zu windfall-profits bzw. Überförderung führt. So treten bei Investoren von PV-Anlagen teilweise Eigenkapitalrenditen von 30 bis 50%  jährlich auf, während diese in den Wettbewerbsmärkten zwischen 12 bis 15% schwanken. Dieses strukturelle Defizit ist auch rückwirkend zu beseitigen, da das Rechtstaatsprinzip und das mit ihm eng verbundene Verhältnismäßigkeitsprinzip (Art. 20 Abs. 3 GG) für keinen Investor ein Vertrauen auf eine Überförderung zulässt. Ein solches Vertrauen wäre nicht schutzwürdig.“

Fortsetzung folgt am 10.3.16

Das Gutachten und den Kurzbericht können Sie im Original als pdf im Anhang herunterladen.

Related Files




Aktivistischer ,Wissenschaftler‘ rennt vor Reportern davon, nachdem er…

Prof. Tony Ingraffea war gezwungen zuzugeben, dass er eine „treibende Kraft“ gegen fossile Treibstoffe war, und dass er keine Beweise habe, dass Fracking seitens der Firma Cabot Oil And Gas das Trinkwasser von zwei Familien in Dimock verseucht habe, die dem Journalisten Phelim McAleer zufolge die Klage gegen das Ölunternehmen angestrengt hatten.

McAleer, der auch die Dokumentation „Fracknation“ produziert hatte, um Anti-Fracking-Mythen zu entlarven, hat von dem Verfahren gegen Cabot berichtet. Zuvor hatte er berichtet, dass der Anwalt der Kläger eingeräumt habe, keine Beweise dafür zu haben, dass Fracking-Chemikalien im Trinkwasser gelandet seien (hier). McAller konfrontierte Ingraffea bzgl. seines Aktivismus‘ (hier) und bzgl. fehlender Beweise, dass Fracking das Wasser von Dimock verseucht habe.

„Es waren ein paar böse Tage für Profssor Ingraffea, den bevorzugten Wissenschaftler der Anti-Fracking-Bewegung“, schrieb McAller auf Facebook. „Professor Ingraffea musste zugeben, dass er ein ,Verfechter‘ Anti-Fracking- und Anti-Fossile-Treibstoffe ist“.

„Er gab zu, dass seine Theorie der eigenen Linie der Kläger widersprach“, fuhr McAller fort. „Ingraffeas Theorie zufolge kann die ,Verseuchung‘ erst Ende 2008/Anfang 2009 begonnen haben, weil erst zu dieser Zeit mit den Bohrungen begonnen worden war. Allerdings haben die Kläger wiederholt angegeben, dass die Qualität ihres Trinkwasser bereits ab dem Sommer 2008 immer schlechter geworden ist, also vor dem Bohren, welches Ingraffea für die letzten 8 Jahre verantwortlich gemacht hat“.

„Dann hat Ingraffea schockierenderweise zugegeben, dass er nach acht Jahren mit Behauptungen und Multimillionen Dollar teuren Gerichtsverfahren keinen Beweis habe, dass Cabot irgendwelches Trinkwasser in Dimock verseucht habe“.

Es war nach diesem atemberaubenden Eingeständnis, dass McAller Ingraffea außerhalb des Gerichtsgebäudes angesprochen hat, wobei der Anti-Fracking-Professor versuchte, Fragen bzgl. seines Eingeständnisses auszuweichen und sich sogar hinter einem Damenmantel zu verstecken.

„Ich wollte wissen, ob er nach dem unter Eid gegebenen Eingeständnis, dass er keine Beweise zur Stützung seiner Behauptungen habe, dass das Wasser von Dimock verseucht sei, jetzt die Gelegenheit nutzen wolle, sich bei den Bewohnern von Dimock zu entschuldigen. Er wollte nicht. Er rannte davon!“ schrieb McAleer.

Ingraffea wurde zu einem Ökohelden, nachdem er und ein Kollege im Jahre 2011 einen Bericht veröffentlicht hatten mit der Behauptung, dass Methan-Emissionen durch Fracking mehr globale Erwärmung verursachen werde als Kohle. Danach wurde er von Anti-Fracking-Ikonen wie dem Schauspieler Mark Ruffalo und Yoko Ono (niemand weiß wirklich, warum die immer noch berühmt ist) ob seiner Kritik am Fracking auf den Schild gehoben – er und Ruffalo erschienen 2011 im TIME-Magazin wegen ihres Aktivismus‘ (hier).

Ingraffea gab sich auch in dem Anti-Fracking-Film „Gasland: Part II” im Jahre 2013 die Ehre. In dem Film behauptete er, dass „Dokumente aus der Industrie“ zeigten, dass 60% aller gefrackten Bohrungen Fehlbohrungen seien, doch hat sich diese Behauptung später als falsch herausgestellt. Das in dem Film genannte Dokument hatte nichts mit Fracking auf dem Festland zu tun (hier), sondern stattdessen mit Tiefsee-Bohrungen im Golf von Mexiko.

Ingraffea ist in der Folge auf zahlreichen Veranstaltungen mit Prominenten aufgetreten, wobei er sich jedes Mal vehement gegen Fracking und fossile Treibstoffe ausgesprochen hat.

„Es ist traurig, das Menschen wie Professor Ingraffea so viele schädliche Behauptungen aufstellen und Menschen ängstigen dürfen, indem sie ihnen sagen, dass ihr Wasser vergiftet ist – um dann all diese Jahre später vor Gericht zuzugeben, dass er niemals irgendwelche Beweise zur Stützung seiner Panikmache hatte“, schrieb McAleer.

This article originally appeared in The Daily Caller

Link: http://www.cfact.org/2016/03/03/activist-scientist-runs-from-reporters-after-admitting-in-court-he-has-no-proof-fracking-poisons-water/

Übersetzt von Chris Frey EIKE