1

Mein unglückliches Leben als Klima-Ketzer

Ich glaube, dass der Klimawandel real ist und dass menschliche Emissionen von Treibhausgasen bestimmte Maßnahmen rechtfertigen, einschließlich einer Kohlenstoff-Steuer. Aber meine Forschungen führten mich zu einem Ergebnis, dass viele Klima-Campaigner inakzeptabel finden: Es gibt kaum Beweise, die belegen, dass Hurrikane, Überschwemmungen, Tornados oder Dürren häufiger oder stärker in den USA oder global geworden sind. Tatsächlich leben wir hinsichtlich Extremwetter in einer sehr guten Zeit. Zu diesem Thema habe ich mehr geforscht und veröffentlicht als Andere, seit über zwei Jahrzehnten. Meine Schlussfolgerungen mögen falsch sein, aber ich denke, dass ich das Recht habe, über die Forschungen ohne Risiko für meine Laufbahn zu reden und zu schreiben.

Stattdessen waren meine Forschungen jahrelang Gegenstand konstanter Angriffe von Aktivisten, Journalisten und Politikern. Im Jahre 2011 signalisierten Autoren des Journals Foreign Policy, dass Mancher mir vorwarf, ein „Klimawandel-Leugner“ zu sein. Zu den Gründen erklärten die Autoren, dass ich „bestimmte Graphiken in den IPCC-Berichten in Frage stelle“. Dass ein Akademiker, der Fragen bzgl. Klimawandel an das IPCC richtet, also in seinem Fachgebiet, als Leugner gebrandmarkt wird, enthüllt die hier herrschende Denkweise.

Und doch hatte ich recht, den IPCC-Bericht 2007 zu hinterfragen, worin auch eine Graphik enthalten war, der zufolge die Katastrophen-Schäden infolge der globalen Erwärmung stiegen. Später stellte sich heraus, dass die Graphik auf der Grundlage erfundener und ungenauer Informationen erstellt wurde. Dies habe ich in meinem Buch „The Climate Fix“ dokumentiert. Der Wissenschaftler bei der Versicherungs-Industrie Robert-Muir Wood von Risk Management Solutions hatte die Graphik in den IPCC-Bericht geschmuggelt. In einer öffentlichen Diskussion mit mir in London im Jahre 2010 erklärte er, dass er die Graphik eingebracht und fehlinterpretiert hatte in der Erwartung, dass zukünftige Forschungen einen Zusammenhang zwischen Katastrophenschäden und steigenden Temperaturen ergeben würden.

Als seine Forschung im Jahr 2008 schließlich veröffentlicht worden war, also lange nach dem IPCC-Bericht, kam er zum gegenteiligen Ergebnis: „Wir finden kaum Beweise für die Behauptung eines statistischen Zusammenhangs zwischen globalem Temperaturanstieg und Katastrophenschäden“. Oha!

Das IPCC hat diese Schweinerei niemals eingeräumt, aber nachfolgende Berichte beschrieben die Wissenschaft richtig: Es gibt keine Grundlage, Wetterkatastrophen mit dem vom Menschen verursachten Klimawandel in Zusammenhang zu bringen.

Ja, Stürme und andere Extreme treten immer noch auf, teils mit verheerenden menschlichen Folgen, aber die Historie zeigt, dass sie noch viel schlimmer sein können. Kein Hurrikan der Stärke 3, 4 oder 5 ist seit dem Hurrikan Wilma im Jahre 2005 auf das US-Festland übergetreten, das ist bei Weitem der längste derartige Zeitraum jemals. Dies bedeutet, dass der kumulierte wirtschaftliche Schaden durch Hurrikane während des vorigen Jahrzehnts um etwa 70 Milliarden Dollar unter dem vieljährigen Mittelwert liegt, den wir erwartet haben. Dies geht aus Forschungen zusammen mit meinen Kollegen hervor. Das sind gute Nachrichten, und es sollte in Ordnung sein, das auch zu sagen. Und doch, in der heutigen hyper-voreingenommenen Klimadebatte wird jedes einzelne Beispiel von Extremwetter zu einem Politikum.

Eine Zeitlang habe ich Politiker und Reporter befragt, die über das hinausgegangen waren, was wissenschaftlich noch gestützt war, aber einige Journalisten wollten davon nichts hören. In den Jahren 2011 und 2012 schrieb ich auf meinem Blog und in sozialen Medien, dass der leitende Klimareporter bei der New York Times Justin Gillis die Beziehung zwischen Klimawandel und Nahrungsmittelknappheit falsch charakterisiert habe, ebenso wie die Beziehung zwischen Klimawandel und Katastrophen. Seine Berichterstattung war nicht konsistent mit den meisten Experten-Standpunkten oder mit Beweisen. Als Reaktion hat er mich sofort aus seinem Twitter feed geworfen.

Im August dieses Jahres habe ich die schlechte Berichterstattung auf der Website Mashable beklagt über eine vermeintlich bevorstehende Hurrikan-Apokalypse – einschließlich eines schlimmen falschen Zitats von mir in der Cartoon-Rolle als Klimaskeptiker. (Das falsche Zitat ist später entfernt worden). Der leitende Wissenschaftsredakteur der Publikation namens Andrew Freedman erklärte hilfreich via Twitter, dass dieses Verhalten der „Grund ist, warum Sie auf der ,Nicht-Anrufen-Liste‘ vieler Reporter stehen, trotz Ihrer Erfahrung“.

Ich wusste nicht, dass Reporter derartige Listen haben. Aber ich habe verstanden. Niemand mag gerne hören, dass er über wissenschaftliche Forschung falsch berichtet habe, schon gar nicht beim Thema Klimawandel. Einige glauben, dass die Verknüpfung von Extremwetter mit Treibhausgasen dabei hilft, die Klimawandel-Politik zu befeuern. Außerdem werden schlechte Nachrichten gerne angeklickt.

Aber hier geht es um mehr als um dünnhäutige Reporter, die bockig auf einen Professor reagieren, der seine Stimme erhebt. Im Jahre 2015 wurde ich in der Los Angeles Times von der Pulitzer-Preisträgerin Paige St. John erwähnt, womit sie den ziemlich offensichtlichen Punkt ansprach, dass Politiker das Augenblicks-Wetter als Begründung für Maßnahmen gegen Klimawandel benutzen, selbst wenn die wissenschaftliche Basis dafür dünn oder umstritten ist.

Ms. St. John wurde von ihren Oberen in den Medien an den Pranger gestellt. Kurze Zeit später schrieb sie mir eine E-Mail des Inhalts, was sie gelernt habe: „Sie sollten mit einem Warnschild daherkommen: Roger Pielke zu zitieren führt zu einem Hagelsturm auf Ihre Arbeit, losgetreten vom Guardian, Mother Jones und Medienmogulen“.

Oder man schaue auf die Journalisten, die mitgeholfen haben, mich aus FiveThirtyEight zu entfernen. Mein erster Artikel dort im Jahre 2014 basierte auf dem Konsens des IPCC und begutachteter Forschung. Ich wies darauf hin, dass die globalen Kosten von Katastrophen mit einer geringeren Rate zunahmen als das Wachstum des BIP, was eine sehr gute Nachricht ist. Katastrophen gibt es immer noch, aber deren ökonomische und humane Auswirkungen sind geringer als in der Vergangenheit. Das ist nicht furchtbar kompliziert.

Dieser Beitrag löste eine intensive Medienkampagne aus, mich zu feuern. Schreiberlinge bei Slate, Salon, der New Republic, der New York Times, des Guardian und viele weitere beteiligten sich daran.

Im März 2014 degradierte mich der Betreiber von FiveThirtyEight namens Mike Wilson von einem angestellten zu einem freien Mitarbeiter. Ich habe mich entschlossen, der Site den Rücken zu kehren, nachdem klar geworden ist, dass er nichts von mir veröffentlichen würde. Der Mob jubelte. Auf der Website ClimateTruth.org, gegründet vom ehemaligen Mitarbeiter im Center for American Progress Brad Johnson und beraten von Michael Mann von Penn State wurde mein Ausscheiden als „ein Sieg der Klima-Wahrheit“ bezeichnet. Das Center for American Progress versprach seinem Geldgeber Mr. Steyer noch mehr davon.

Aber immer noch war die Klima-Gedankenpolizei nicht fertig. Im Jahre 2013 haben mich Komitees im Weißen Haus und im Senat zu vielen Anhörungen eingeladen, auf denen ich die Wissenschaft zu Katastrophen und Klimawandel zusammenfassen sollte. Als Professor an einer öffentlichen Universität freute ich mich darüber. Meine Aussagen waren stark und standen gut auf einer Linie mit Schlussfolgerungen des IPCC und dem Klimawissenschaft-Programm der US-Regierung. Jene Schlussfolgerungen zeigten keinen steigenden Trend hinsichtlich Hurrikanen, Überschwemmungen, Tornados oder Dürren – weder in den USA noch global.

Anfang 2014, nicht lange nach meinem Auftritt vor dem Kongress, hat der Wissenschaftsberater von Präsident Obama, John Holdren, vor dem gleichen Senate Environment and Public Works Committee gesprochen. Er wurde zu seinen öffentlichen Äußerungen befragt, die dem wissenschaftlichen Konsens zu Extremwetterereignissen, die ich zuvor präsentiert hatte, zu widersprechen scheinen. Mr. Holdren reagierte mit dem nur zu sattsam bekannten Verfahren, den Urheber anzugreifen, und den Senatoren fälschlich zu sagen, dass meine Standpunkte „nicht repräsentativ seien hinsichtlich der wissenschaftlichen Meinung des Mainstreams“. Danach schob Mr. Holdren einen merkwürdigen, fast 3000 Wörter umfassenden Beitrag auf der Website des Weißen Hauses nach mit dem Titel [übersetzt] „Eine Analyse der Statements von Roger Pielke Jr“. Dieser Beitrag steht dort heute immer noch.

Ich vermute, dass es eine erhebliche Entgleisung ist, auf diese Art und Weise vom Wissenschaftsberater des Präsidenten behandelt zu werden. Mr. Holdrens Erguss liest sich mehr wie ein hingerotzter Blogbeitrag der behämmerten Flügel der Online-Klimadebatte, vollgestopft mit Fehlern und Falschaussagen.

Aber wenn das Weiße Haus jemanden zur Zielscheibe auf dessen Website macht, bemerken die Leute das. Fast ein Jahr später war Mr. Holdrens Erguss die Grundlage von Ermittlungen gegen mich durch den Repräsentanten Raul Grijalva aus Arizona, dem hochstehenden Demokraten im Natural Resources Committee des Weißen Hauses. Repräsentant Grijalva erklärte in einem Brief an den Präsidenten meiner Universität, dass Ermittlungen gegen mich laufen, weil Mr. Holdren „seiner Ansicht nach ernste Falschbehauptungen von Prof. Pielke beleuchtete hinsichtlich des wissenschaftlichen Konsens‘ zum Klimawandel“. Er veröffentlichte diesen Brief.

Die „Ermittlungen“ stellten sich als eine Farce heraus. In dem Brief schrieb Mr. Grijalva, dass ich – sowie sechs weitere Akademiker mit offensichtlich ketzerischen Ansichten – auf der Gehaltsrolle von Exxon Mobil stehen könnte (oder der Illuminati, habe ich vergessen). Er forderte Aufzeichnungen mit Details zur Finanzierung meiner Forschung an, meine E-Mails und so weiter. Nach einiger nur allzu berechtigter Kritik seitens der American Meteorological Society und der American Geophysical Union löschte Repräsentant Grijalva den Brief von seiner Website. Die University of Colorado folgte der Forderung des Repräsentanten Grijalva und antwortete, dass ich niemals Gelder von Fossile-Treibstoffe-Unternehmen erhalten hatte. Meine häretischen Ansichten können zu Forschungsunterstützung seitens der US-Regierung zurückverfolgt werden.

Aber die Schädigung meines Rufes war da, und das war vielleicht auch der Punkt, der hinter all dem steckte. Sich bzgl. Klimawandel zu engagieren oder diesen zu studieren macht immer weniger Spaß. Also begann ich, zu anderen Themen zu forschen und zu lehren, und ich fand die Änderung der Richtung erfrischend. Machen Sie sich um mich keine Sorgen: ich habe eine Anstellung und mich unterstützende Campuses und Mitglieder der Universitätsverwaltung. Niemand versucht, mich zu feuern ob meiner neuen Lehrtätigkeit.

Aber die Quintessenz lautet, dass ein einzelner Akademiker kein Gegner ist für Milliardäre, bestens ausgestattete Interessengruppen, die Medien, den Kongress und das Weiße Haus. Falls Akademiker – egal in welchem Fachgebiet – eine bedeutende Rolle in öffentlichen Debatten spielen sollen, muss der Staat bessere Arbeit leisten hinsichtlich der Unterstützung gutgläubiger Forscher, selbst dann, wenn deren Ergebnisse unwillkommen sind. Dies gilt für Republikaner und Demokraten gleichermaßen und auch für die Regierung des designierten Präsidenten Trump.

Akademiker und die Medien im Besonderen sollten Meinungsvielfalt unterstützen anstatt als Handlanger politischer Zweckmäßigkeit zu agieren, wenn sie versuchen, Stimmen auszuschalten oder Laufbahn und Ruf zu schädigen. Falls Akademiker und die Medien die offene Debatte nicht stützen – wer wird es dann tun?

Mr. Pielke ist Professor und Direktor des Sports Governance Center at the University of Colorado in Boulder, Colorado. Sein jüngstes Buch trägt den Titel „The Edge: The Wars Against Cheating and Corruption in the Cutthroat World of Elite Sports” (Roaring Forties Press, 2016).

Link: http://www.wsj.com/articles/my-unhappy-life-as-a-climate-heretic-1480723518#renderComments (paywalled)

Bemerkung des Übersetzers dazu: Dieser im Wall Street Journal erschienene Beitrag wurde mir per E-Mail zugeschickt. Im Wall Street Journal ist er paywalled, der Anfang des Beitrages mit den gerade noch erkennbaren Zeilen steht oben. Der Hauptteil stammt aus der E-Mail. Ob sich zwischen ihm und den Zeilen im Subheader eine mit ,…‘ bezeichnete Lücke befindet, lässt sich nicht feststellen.




Zwei Stromerzeugungs­systeme kollidieren

Einleitung

Das Jahr 2015 war ein Rekordjahr für die Produzenten von Solar- und Windstrom, vor allem, weil das Jahr ein „gutes Windjahr“ war. Nie zuvor wurde in Deutschland so viel Strom aus Wind und Sonne erzeugt. In der Summe waren es 125 TWh. Gemessen am Stromverbrauch liegt der Anteil des in Deutschland produzierten Wind- und Sonnenstroms damit bei 19,3%. Diese Zahl wurde von der Presse und der EE-Lobby gefeiert und der Eindruck erweckt, die erneuerbaren Energien (Wind, Sonne, Biogas, Wasserkraft, Hausmüll und Sonstige) hätten damit tatsächlich 30 % zur Versorgung in Deutschland beigetragen. Genau das ist nicht der Fall. Es wurden zwar Rekordmengen an Strom produziert, aber nicht im Lande verbraucht, sondern in großen Mengen ins angrenzende Ausland exportiert. Die Diskussion darüber, ob es sich bei den Exporten um Kohlestrom oder EE-Strom handelt, ist müßig. Auch der Hinweis darauf, dass der EE-Strom bei der Börse zu Grenzkosten 0 hereingenommen wird, führt an den eigentlichen Problemen vorbei. Unabhängig vom aktuellen Börsenpreis zahlt der Kunde immer den durch das EEG garantierten Strompreis, geht der Preis bei Überproduktion ins Negative, kommen diese Kosten noch hinzu.

Kernproblem sind die immer größer werdenden Schwankungen der EE-Stromproduktion, die von den vorhandenen thermischen Kraftwerken vor allem aus physikalischen und technischen Gründen nicht mehr kompensiert werden können. Im Netz ist der Strom aus EE-Anlagen ein Unruhestifter, dessen Schwankungen ohne die erforderlichen Speicher nicht mehr beherrschbar sind. Mit der Rekordproduktion an EE-Strom stiegen in 2015 auch die Kosten für die Notmaßnahmen zur Verhinderung eines Netzzusammenbruchs: So schreibt DER SPIEGEL am 17. Januar, dass die Eingriffe zur Abwehr eines größeren Stromausfalls im vergangenen Jahr zu Rekordkosten von etwa einer Milliarde Euro geführt haben. Über die Netzentgelte gehen diese Kosten zu Lasten der Verbraucher.

 

Unsere elektrischen Nachbarn errichten Stromsperren an ihren Grenzen, um die eigenen Netze vor unserem Überschussstrom zu schützen. Die erforderlichen Phasenschiebertransformatoren lassen sie sich vom deutschen Stromkunden auch noch bezahlen! Kosten für die Verbraucher: 200 Millionen Euro.

Dieses Debakel ergibt sich aus fundamentalen technischen und physikalischen Zusammenhängen und schon vor Jahren wurde davor gewarnt: In einer Untersuchung [1] hat das ISE Fraunhofer Institut in Freiburg schon im August 2013 davor gewarnt, dass ein weiterer Ausbau der erneuerbaren Energien zu anwachsenden Exportüberschüssen und zu länger andauernden Zeiten mit niedrigen oder gar negativen Börsenpreisen und zu einem langfristig unüberwindbaren Systemkonflikt führen wird.

Dieser Systemkonflikt ist längst eingetreten. Aus Sätzen der mathematischen Statistik wurde bereits im Jahre 2014 abgeleitet, dass die Leistungsspitzen durch den Ausbau der Windkraft weiter ansteigen und die bekannten Probleme wie Überstromproduktion und Negativpreise an der Börse weiter verschärfen werden [2].

Der Systemkonflikt entsteht durch zwei voneinander unabhängige Stromerzeugungssysteme in Deutschland:

  1. Das konventionelle Stromerzeugungssystem, bestehend aus Kernkraftwerken, Braunkohlekraftwerken für die Grundlast, Steinkohlekraftwerken für die Mittellast und Gaskraftwerken für die Spitzenlast. Diese Klassifizierung ergibt sich zwangsläufig aus dem technisch möglichen und wirtschaftlich sinnvollen Regelpotenzial dieser Kraftwerke.

Zu dem konventionellen Stromerzeugungssystem kann man aus gutem Grund auch die Biogasanlagen hinzuzählen. Diese lassen sich ähnlich kontinuierlich betreiben wie Kohlekraftwerke und gehören damit auch zu den regelbaren Stromerzeugern. Die konventionellen Anlagen lassen sich bedarfsgerecht betreiben. Aufgrund der Regelbarkeit der Kraftwerke folgt die Stromproduktion auf die Millisekunde genau dem Bedarf. Dieser momentane Ausgleich von Nachfrage und Erzeugung ist die physikalische Grundbedingung für ein stabiles Stromnetz.

 

  1. Das zweite System sind Windkraftanlagen mit ca. 45 GW installierter Leistung und Photovoltaikanlagen mit ca. 40 GW installierter Leistung. Die Stromerzeugung aus Sonne unterliegt dem Tag-Nacht-Rhythmus. Die Periodendauer beträgt 24 Stunden, der Stromeintrag beginnt nach Sonnenaufgang mit geringen Werten und erreicht um 12:00 das Maximum. Der Leistungsbedarf schwankt auch im 24 Stunden Rhythmus, jedoch nicht deckungsgleich mit dem Sonneneintrag. Er beginnt früher als die Sonnenstromlieferung, geht gegen Mittag zur Zeit der höchsten Sonnenausbeute leicht zurück, steigt danach wieder an und endet gegen Abend später als der Sonneneintrag.

Die Windausbeute hängt von den Wetterbedingungen ab. Wind- und Sonnenstrom sind daher in hohem Maße volatil.[1] Bedarfsgerechte Stromerzeugung ist mit diesem System physikalisch nicht möglich.
Die Kombination aus Wind- und Sonnenstrom verursachen für das konventionelle Versorgungssystem unterschiedlich schwierige und unterschiedlich teure Regelsituationen. Der einfachste und auch kostengünstigste Fall ist Windstille bei Nacht. Dann liegt der Regelungsbedarf bei Null. Der teuerste Fall ist viel Wind beispielsweise bei einer Ost-Wetterlage und tagsüber ein hohes Angebot an Solarstrom. Hier müssen konventionelle Kraftwerke vormittags schnell abgeregelt und nachmittags genauso schnell wieder heraufgeregelt werden. Nur so können Netzausfälle vermieden werden.

Die Volatilität von Wind- und Sonnenstrom ist das bisher ungelöste Kernproblem der Energiewende. Liegt die Lösung in noch mehr Windrädern?

Tabelle 1 Statistische Kennzahlen Windkraft

Jahr Installierte Nennleistung am Jahresende Maximale Windleistung Mittlere Windleistung Minimale Windleistung Standard-abweichung Stundenwerte – Mittelwert Verhältnis Standard-abweichung zum Mittelwert
2010 27.072 MW 21.679 MW 4.070 MW 113 MW 3.661 MW 0,90
2011 28.606 MW 22.870 MW 5.051 MW 88 MW 4.391 MW 0,87
2012 30.755 MW 24.086 MW 5.222 MW 115 MW 4.419 MW 0,85
2013 33.614 MW 26.269 MW 5.380 MW 121 MW 4.864 MW 0,91
2014 36.928 MW 29.687 MW 5.868 MW 24 MW 5.488 MW 0,93
2015 44.946 MW 36.956 MW 8.996 MW 93 MW 7.220 MW 0,80

Betrachtet man die Standardabweichung als Maß für die Volatilität so ist festzustellen, dass diese von 2010 bis 2015 gleichzeitig mit dem Anstieg der installierten Wind- und Sonnenleistung zu- und nicht etwa abgenommen hat. Offensichtlich erhöhen noch mehr Windräder lediglich die Spitzenerzeugung, ohne eine sichere Grundlast zur Verfügung stellen zu können. Eine sichere und unterbrechungsfreie Stromversorgung ist unabhängig von der Anzahl der Wind- und Sonnenkraftwerke nicht möglich. Einen Ausgleich der Erzeugung zu einer sicher zur Verfügung stehenden Leistung durch noch mehr Windräder gibt es in Deutschland nicht. Dies ist inzwischen hinreichend belegt [3], obgleich das Gegenteil in Studien zu erneuerbaren Energien immer wieder behauptet wird und damit die Politik zu nachweisbar falschen Entscheidungen drängt.

Strom aus Wind und Sonne hat gemäß EEG Vorrang in den Netzen und wird von der Börse zu Grenzkosten 0 hereingenommen. Dadurch ist das volatile und für den Stromverbraucher teure Stromerzeugungssystem gegenüber dem konventionellen System absolut bevorzugt. Das bedeutet in letzter Konsequenz, dass die konventionellen Kraftwerke bei Nacht und Windstille die gesamte nachgefragte Leistung decken können müssen und dies unabhängig von der Anzahl der installierten Windräder. Die gesamte Sonnen- und Windleistung muss zu 100 % der nachgefragten Leistung ausreichend schnell durch regelbare Kraftwerke ersetzbar sein. Die maximale Residuallast, das ist die Differenz zwischen der benötigten Leistung und der Leistung, die die nicht regelbaren Kraftwerke – das sind die Wind- und Sonnenkraftwerke – erbringen, beträgt in diesem Fall 100% der nachgefragten Leistung.

Wenn ausreichend Sonnen- und Windleistung vorhanden ist, müssen die konventionellen Kraftwerke den Schwankungen der Wind- und Sonnenstromerzeugung schnell folgen und soweit heruntergefahren werden, wie dies technisch und wirtschaftlich vertretbar ist. Diese Schwelle bestimmt die mögliche minimale Residuallast, auf die die konventionellen Kraftwerke heruntergefahren werden können, ohne dass sie die Fähigkeit verlieren, bei Nachlassen von Wind und Sonne die Leistung kurzfristig wieder herauf geregelt zu werden. Welche Residuallast darf also nicht unterschritten werden?

Zur Erinnerung: es sind bereits 85 GW Wind- und Sonnenleistung installiert. Als Maximalwert wurden bisher im Rahmen des Netzmanagements 50 % der Nennleistung, das sind etwa 42 GW zugelassen. Bei weiterem Ausbau der Windenergie wird zumindest in Schwachlastzeiten sehr bald mit negativen Residuallasten zu rechnen sein, d.h. es kann theoretisch mehr EE-Strom produziert als verbraucht werden. Eine Prognos-Studie geht davon aus, dass als Folge eines weiteren Ausbaus von Sonnen- und Windkraft in 2030 an ca. 1100 Stunden eine negative Residuallast anfallen wird. [4]

Beispielsweise am Sonntag den 8. Mai 2016 betrug der Leistungsbedarf in Deutschland gegen 12:00 Uhr ca. 50 GW. Wind und Sonne lieferten zur gleichen Zeit 42 GW, damit betrug die auf den Strombedarf in Deutschland bezogene Residuallast nur 8 GW. Eigentlich würde man hier erwarten, dass die verbleibenden Kraftwerke auf diese Leistung zurückgefahren werden. Warum war das nicht der Fall? Die regelbaren Kraftwerke wurden auf 23 GW abgeregelt. Der Überschuss von 15 GW wurde in ausländische Netze „entsorgt“. Dafür waren zwischen 10:00 Uhr und 17:00 Uhr Entsorgungsgebühren von 21 Mio. € fällig. In der Statistik werden die Entsorgungsgebühren beschönigend „negative Strompreise“ genannt.

Das Kernproblem der Energiewende ist die bedarfsgerechte Bereitstellung der Residuallast. Wie weit und wie schnell kann man die vorhandenen Kraftwerke auf- und abregeln und sind die Kraftwerke dann überhaupt noch wirtschaftlich zu betreiben?

Für die Ermittlung der minimal zulässigen Residuallast sind folgende Faktoren zu berücksichtigen:

  1. Welches ist die maximal mögliche Abregelgeschwindigkeit, damit die konventionellen Kraftwerke den witterungsbedingten Schwankungen der EE-Stromeinspeisung und damit den steilen Lastgradienten folgen können?
  2. Welches ist der Minimalwert, von dem aus die konventionellen Kraftwerke ihre Leistung bis zur Nennleistung wieder schnell heraufregeln können?
  3. Welche minimale generator-basierte Leistung muss zur Bereitstellung der Frequenz stabilisierenden Schwungmasse vorgehalten werden?

Die Leistungsänderung erfolgt in einem technisch bestimmten Leistungsspektrum – nämlich zwischen der minimalen – und technisch sinnvollen – im Normalbetrieb fahrbaren Leistung und der (maximalen) Nennleistung des Kraftwerks.

 

Thermische Kraftwerke lassen sich schnell auf ca. 40 % ihrer Nennleistung herunterfahren.

Tabelle 2 Leistungskennwerte von Kraftwerken [5]

Maximale

Leistung

Minimale

Leistung

Maximaler Laständerungs-

gradient

Kernkraftwerke

 

1.260 MW 630 MW ± 63 MW/min
Neue GuD-Kraftwerke 875 MW 260 MW

 

± 38 MW/min
Neue Kohlekraftwerke 800 MW 320 MW ± 26 MW/min
Alte Kohlekraftwerke 600 MW 420 MW ± 8 MW/min

Zur Deckung der stark schwankenden Residuallast nutzt man sinnvollerweise die Regelkraftwerke, nämlich Pumpspeicher-Kraftwerke, Gasturbinen- (soweit verfügbar) und Steinkohlekraftwerke. KKWs sind aus wirtschaftlichen Gründen zunächst nicht für die Regelreserve geeignet. Nach Abschaltung der verbliebenen 8 KKWs in 5 Jahren stehen diese ohnehin nicht mehr zur Verfügung.

Unterstellt man eine Mindestleistung von 40 % für einen gesicherten Betrieb, kann man die Produktion aus o.a. Kraftwerken auf ca. 20 GW absenken. Dabei sind KKWs und Laufwasserkraftwerke nicht berücksichtigt. Danach sind etwa 25 bis 30 GW die Mindestleistung, auf die man die konventionelle Erzeugung absenken kann, ohne Kraftwerke komplett „kalt“ fahren zu müssen. Ein Kaltstart dauert bei Gaskraftwerken min. 30 min. Bei einem Kohlekraftwerk dauert ein Kaltstart hingegen 7 bis 15 Stunden.

Ein weiterer fundamentaler Grund, der eine Mindesteinspeisung konventioneller Kraftwerke erfordert, ist die Aufrechterhaltung der Systemstabilität, da Erzeugung und Verbrauch sich zu jedem Zeitpunkt in einem stabilen Gleichgewicht befinden müssen. Ein Abweichen von diesem Gleichgewicht äußert sich in einer Änderung der Frequenz (ein Überangebot führt zu Frequenzanstieg und ein Mangel zu Frequenzabfall). Dieses stabile Gleichgewicht wird durch die kinetische Energie der Turbogeneratoren gewährleistet, die im Netz als Kurzzeitspeicher wirken. Bereits bei einer Frequenzänderung von 0,01 Hz wird zu Maßnahmen der Primärregelung gegriffen. Zu Abweichungen gegenüber dem geplanten Gleichgewicht kann es kommen, da es Prognosefehler bei der Last und bei der Windeinspeisung geben kann und konventionelle Kraftwerke ungeplant vom Netz gehen können. Dann sind sogenannte Redispatch Maßnahmen erforderlich.

Hierzu die Erklärung von Amprion [6]:

In allen europäischen Kraftwerken drehen sich die Generatoren 50 Mal pro Sekunde und erzeugen den Wechselstrom mit einer Frequenz von 50 Hertz. Sinkt oder steigt die Frequenz im Netz, so wird die Funktion zahlreicher elektrischer Geräte wie Computer, Fernseher oder Motoren beeinflusst. Aber auch die Generatoren können beschädigt werden, sofern die Frequenz auf unter 47,5 Hertz sinkt. Die dann auftretenden Resonanzschwingungen führen zu einer Zerstörung.

Deshalb soll im europäischen Verbundnetz die Netzfrequenz nur wenig vom Sollwert abweichen. Die Netzregelung greift bereits bei einer Abweichung von 0,01 Hertz automatisch ein. Starten in den Fabrikhallen morgens die Maschinen gleichzeitig oder werden am Abend zu den Nachrichten die Fernseher im selben Moment eingeschaltet, so steigt die Belastung der Generatoren und sie werden für einen kurzen Augenblick etwas langsamer. Das Resultat: die Frequenz sinkt ab. Die automatisch einsetzende Leistungs-Frequenz-Regelung im Netz sorgt dafür, dass die Kraftwerke neue Leistungssollwerte erhalten und dadurch die Turbinen mehr Dampf bekommen und die Generatoren wieder mit 50 Hertz (Hz) rotieren. An dieser Regelung sind kontrahierte Kraftwerke im UCTE-Verbund beteiligt, die dafür ein vereinbartes Leistungsband ihrer Erzeugungsleistung als Reserve bereithalten.“

Die Übertragungsnetzbetreiber haben in einer Studie zur Ermittlung der Mindesterzeugung des konventionellen Kraftwerkparks folgende Ergebnisse veröffentlicht [7]:

Bei einer durchschnittlich bereitgestellten Regelleistung für die Primärregelung in Höhe von 3 % der Nennleistung ergibt sich eine installierte Leistung von knapp 20 GW, die kontinuierlich am Netz sein muss. Auf Basis dieser Mindesterzeugung wird im folgenden Abschnitt der dadurch gesicherte Beitrag zur Schwungmasse im Regelblock Deutschland beziffert und dessen Bedeutung für die Frequenzstabilität abgeleitet.  

Die zuvor genannte Mindesterzeugung von 20 GW stellt eine bestimmte mindestens am Netz befindliche Schwungmasse für den Regelblock Deutschland sicher. Da die Regelleistung hauptsächlich durch thermische und hydraulische Erzeugungseinheiten bereitgestellt wird, kann als konservativer Wert eine mittlere Anlaufzeitkonstante der Turbosätze angenommen werden. Somit ergibt sich abhängig von der Netzlast im Regelblock Deutschland die minimale Netzanlaufzeit. Für eine Netzlast zwischen Schwachlast von ca. 35 GW und Starklast von ca. 85 GW liegt die minimale Netzanlaufzeitkonstante für den Regelblock Deutschland zwischen 5,7 s und 2,4 s. Hierbei sind alle Kraftwerke vernachlässigt, die nicht an der Primärregelung teilnehmen. Selbst bei hoher Netzlast stellen die primärgeregelten Kraftwerke annähernd die minimal erforderliche Schwungmasse bereit. Darüber hinaus sind u. a. Laufwasserkraftwerke und KWK nahezu das ganze Jahr am Netz. Es ist davon auszugehen, dass bei mittlerer und hoher Netzlast weitere konventionelle Erzeugungseinheiten am Netz sind, sodass die o.g. Empfehlung für die minimale Schwungmasse ohne zusätzliche Maßnahmen erfüllt werden kann.“

PV-Anlagen und Windkraftanlagen verfügen nicht über Schwungmassen. Diese müssen auch in Zeiten hoher Wind- und Sonnenstromausbeute von konventionellen Kraftwerken bereitgestellt werden.

Aus den oben genannten Gründen kann und darf die Residuallast nicht nennenswert unter 20 GW sinken. Das hat zur Folge, dass auch und gerade in Schwachlastzeiten bei hohem Aufkommen an Sonnen- und Windstrom konventionelle Kraftwerke zur Stabilisierung der Netze in Betrieb gehalten werden müssen, will man die Netzstabilität nicht gefährden. Daraus ergibt sich, dass überschüssiger EE-Strom exportiert oder abgeregelt werden muss. Um teure Exporte zu vermeiden, müssen Windkraft- und Solaranlagen abgeregelt werden. Es gibt also einen kausalen Zusammenhang zwischen der Überproduktion von EE-Strom und den Stromexporten. Das deutsche Stromnetz ist also aus Gründen der Systemstabilität schon heute nicht mehr in der Lage, die Erzeugungsspitzen aus EE-Strom in vollem Umfang aufzunehmen.

Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]
Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]
Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]

 

In der Tat haben sich die Exportmengen seit 2010 nahezu verdoppelt. Bevorzugte Exportländer sind Österreich, Niederlande und Belgien.

Eine Reduzierung der Leistung unter 25 GW ist technisch und wirtschaftlich nicht möglich. Der in der Folge entstehende Überschussstrom muss in ausländische Netze geleitet werden. Ein typisches Beispiel ist die 45. Woche 2015.

Abbildung 2 Last und Stromerzeugung in KW 45 2015
Abbildung 2 Last und Stromerzeugung in KW 45 2015

Abbildung 2 Last und Stromerzeugung in KW 45 2015

Am Sonntag, den 8 Nov. 2015 betrug die EE-Strom Produktion um 00:00 Uhr knapp 26 GW, die nachgefragte Last 42 GW. Die Residuallast wurde aber nicht auf die eigentlich erforderlichen 16 GW gedrosselt, sondern nur auf 26 GW, um genügend Schwungmasse für die Netzstabilität zur Verfügung zu stellen und um die Regelfähigkeit für den weiteren interessanten Lastverlauf des Tages zu sichern. Von 00:00 Uhr bis 02:00 Uhr gingen 10 GW in den Export. Mit steigender Nachfrage in Deutschland verringerte sich der Export auf ca. 2 GW. In der Nacht gab es wieder mehr Windstrom und um 24:00 gingen wieder 12 GW in den Export.

 

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)
Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

 

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

Wertet man die zugänglichen Daten mittels Regressionsanalysen[2] aus, kommt man zu vergleichbaren Ergebnissen:

Abbildung 3 zeigt einen eindeutigen Zusammenhang zwischen der stündlichen EE-Stromproduktion und den Stromexporten: Je höher die EE-Leistung, desto höher sind die Stromexporte. Dies gilt nicht nur für die Stundenwerte, sondern auch für die summarische jährliche Stromproduktion.

Die Regressionsanalyse der Jahresdaten zeigt einen signifikanten Zusammenhang zwischen EE-Stromerzeugung und -export (Abbildung 4). Der Regressionskoeffizient liegt mit 0.92 nur unwesentlich unter dem höchsten möglichen Wert 1. Zahlenmäßig hat das Anwachsen der EE-Stromerzeugung auf jährlich 120 TWh eine Erhöhung des Stromexports um rund 40 TWh zur Folge gehabt. Ein Drittel der EE-Stromproduktion wurde nicht in Deutschland verbraucht, sondern ins Ausland exportiert. Die verbreitete Behauptung, erneuerbare Energien hätten einen Beitrag von 30% zur deutschen Stromversorgung geleistet, hält daher einer kritischen Prüfung nicht Stand.

Daher ist die EE-Stromerzeugung unter den gegebenen technischen und wirtschaftlichen Randbedingungen die Ursache für den Export und für die unvertretbaren Entsorgungsgebühren.

abb-4-regression

Abbildung 4 Zusammenhang zwischen Stromexport und Stromproduktion aus Wind- und Solarkraftwerken

 

Tabelle 3 Entwicklung von negativen Strompreisen

Jahr Anzahl Stunden mit negative Börsenpreisen Handelsmenge EEX Summe der Handels-menge Durchschnittlicher negativer Börsenwert
2010 12 h/a 0,32 TWh -1.695.134 € -5,40 €/MWh
2011 14 h/a 0,46 TWh -4.674.723 € -10,10 €/MWh
2012 56 h/a 1,81 TWh -106.573.608 € -58,80 €/MWh
2013 64 h/a 2,17 TWh -31.403.398 € -14,50 €/MWh
2014 64 h/a 2,59 TWh -41.511.253 € -16,00 €/MWh
2015 126 h/a 4,77 TWh -44.223.893 € -9,30 €/MWh

In 2015 haben die abnehmenden Länder 44,2 Mio. € Entsorgungsgebühr erhalten, obwohl Windräder in zunehmendem Maße abgeschaltet wurden. Die sogenannte Ausfallarbeit [9] hat sich von 1,5 TWh in 2014 auf 3 TWh in 2015 fast verdoppelt. Ohne diesen Anstieg wären die Exportmengen und damit die Entsorgungsgebühren entsprechend höher gewesen.

Folgende Gesetzmäßigkeit lässt sich ableiten: sinkt die Residuallast unter die minimale Regelleistung, dann muss Strom exportiert werden oder die Wind- oder PV-Anlagen müssen vom Netz genommen werden. Eine weitere Schlussfolgerung: wird der vorgesehene weitere Ausbau der Sonnen- und Windkraft nicht gestoppt, muss es zu noch höheren Exporten kommen mit der Folge noch höherer Entsorgungskosten und / oder die neuen Anlagen müssen bei viel Sonne und Wind abgeschaltet werden mit der Folge noch höherer Kosten für die Ausfallarbeit.

Eine im Auftrag des BMWI durchgeführte Studie [10] geht davon aus, dass es für Deutschland mit seinen „elektrischen Nachbarn“ bei weiterem Ausbau der Windkraft Ausgleichseffekte durch unterschiedlichen Lastgang und durch schwankende nationale Produktionen geben wird. Den Beweis für die Ausgleichseffekte erbringt die Studie nicht. Einen Ausgleich bei der Windkraft, und das ist hinreichend bewiesen, gibt es zwischen Deutschland und seinen „elektrischen Nachbarn“ nicht. Ein Ausgleich beim Lastgang ist höchst unwahrscheinlich: in allen europäischen Ländern beginnt der Industrietag am frühen Morgen, die Mittagspause gegen Mittag und das Ende der Produktion gegen Abend. Die Lastgangkurven sind in allen europäischen Ländern im Wesentlichen identisch.

DE DE DE DE DE DE DE DE DE DE
Jahr FR AT BE CH CZ DK IT LU NL PL
2006 96,8 99,7 99,8 95,9 98,5 97,9 99,7 99,6 98,5
2007 96,8 99,6 99,2 99,3 98,9 96,7 99,9 97,8 99,0
2008 98,6 99,6 99,8 98,7 99,4 97,5 99,8 99,9 98,6
2009 97,7 99,7 99,3 99,1 99,4 98,9 99,7 99,9 99,1
2010 97,1 99,8 100,0 99,7 99,5 100,0 97,0 99,9 100,0 99,3
2011 98,9 99,6 98,4 99,3 99,4 99,5 97,1 99,5 99,8 99,6
2012 100,0 99,6 99,5 99,7 99,7 99,8 98,6 100,0 99,6 99,8
2013 96,2 99,6 99,6 99,4 99,5 99,5 97,4 100,0 99,1 99,9
2014 99,3 99,8 100,0 99,7 99,7 99,6 99,8 99,9 100,0 99,5

 

Tabelle 4 Gleichzeitigkeitsfaktoren der Netzlasten [12]

Die in Tabelle 4 dargestellten Gleichzeitigkeitsfaktoren zeigen, dass große Netzlasten in ganz Westeuropa im Wesentlichen zum gleichen Zeitpunkt auftreten. Ein ausgebautes westeuropäisches Stromnetz kann daher keinen Ausgleich bewirken.

Schlussfolgerungen:

  1. Die Exportüberschüsse und die Stunden mit negativen Börsenpreisen sind, wie in der Fraunhofer ISE Studie aus dem Jahr 2013 vorhergesagt, tatsächlich weiter gestiegen und sie werden mit weiterem Ausbau von Wind- und Sonnenstrom notwendigerweise exponentiell weiter steigen, wenn dies nicht durch Abregelung begrenzt wird.
  2. Die Systemkonflikte zwischen konventionellem Erzeugungssystem und dem Wind- und Sonnenstrom-System sind bereits eingetreten. Deren Beherrschung wird immer teurer.
  3. Bereits jetzt schalten energieintensive Industriebetriebe die Produktion ab, wenn die konventionellen Kraftwerke den steilen Lastgradienten nachmittags und abends nicht schnell genug folgen können. [11]
  4. Die durch das EEG geförderte Energiewende ist an den Grenzen der Physik gescheitert.
  5. Es müssen endlich technisch realisierbare Lösungen gefordert und gefördert werden: Haushaltspeicher für Sonnenstrom. Sie sind verfügbar, Stand der Technik und geeignet, die Spitzen der Sonnenstrom Erzeugung abzuschneiden und in den Abend und in die Nacht zu verlagern.
  6. Geothermie-Kraftwerke sind Stand der Technik. Das Potenzial in Deutschland ist hoch, sie sind grundlastfähig und arbeiten 8760 Stunden im Jahr ohne Emissionen. Die bisher realisierten Projekte in Bayern sind vielversprechend.
  7. Industrielle Abwärme kann zur Stromerzeugung genutzt werden. Hier vermutet der ORC Fachverband ein Potenzial von 4 bis 8 GW grundlastfähiger Leistung. Bereits jetzt laufen in Deutschland 100 Anlagen mit einer installierten Leistung von 120 MW.

 

Literaturverzeichnis

[1] Johannes N. Mayer, Niklas Kreifels, Bruno Burger: „Kohleverstromung zu Zeiten niedriger Börsenstrompreise“ Fraunhofer ISE, August 2013 https://www.ise.fraunhofer.de/de/downloads/pdf-files/aktuelles/kohleverstromung-zu-zeiten-niedriger-boersenstrompreise.pdf

[2] Ahlborn, D.: „Korrelation der Einspeisung aus Windkraftanlagen macht Grundlastfähigkeit in Deutschland unmöglich“ in: Herbert Niederhausen, Andreas Burkert: Elektrischer Strom: Gestehung, Übertragung, Verteilung, Speicherung und Nutzung elektrischer Energie im Kontext der Energiewende Springer, Vieweg 2014

[3] Ahlborn, D.: „Glättung der Windeinspeisung durch Ausbau der Windkraft?“ in Energiewirtschaftliche Tagesfragen 65. Jg. (2015) Heft 12 S.37-39

[4] Ess, F. et al.: „Bedeutung der internationalen Wasserkraft-Speicherung für die Energiewende“ www.worldenergy.ch/file/Publikationen/Aktuell/prognos_wec_20121009.pdf

[5] http://www.alt.fh-aachen.de/downloads/Vorlesung%20EV/Hilfsb%2060% 20Regelleistungsbereiche%20Lastgradienten%20Kraftwerke.pdf

[6] http://www.amprion.net/netzfrequenz

[7] „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“

Studie im Auftrag der deutschen Übertragungsnetzbetreiber, Abschlussbericht, 20. Januar 2012

http://www.netzentwicklungsplan.de/sites/default/files/media/documents/Minimale%20Schwungmasse.pdf

[8] Agora Energiewende Denkfabrik, BDEW Energiebilanzen

[9] Bundesnetzagentur, Monitoringbericht 2015

Udo Leuschner: Energie Chronik

http://www.udo-leuschner.de/energie-chronik/151201.htm

https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Allgemeines/Bundesnetzagentur/Publikationen/Berichte/2015/Monitoringbericht_2015_BA.pdf?__blob=publicationFile&v=3

[10] „Versorgungssicherheit in Deutschland und seinen Nachbarländern: länderübergreifendes Monitoring und Bewertung“ Consentec GmbH, r2b energy consulting GmbH 06.03.2015 Untersuchung im Auftrag des Bundesministeriums für Wirtschaft und Energie

[11] Dipl.-Ing. Heribert Hauck: „Netzstabilisierung durch flexible Produktion“ Vortrag auf dem Tag der Metallurgie, Goslar, 04.03.2016

[12] Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2015 nach EnWG § 12 Abs. 4 und 5, Stand 30.09.2015

[1] Unter Volatilität versteht man das Ausmaß der Fluktuation einer Größe um ihren Mittelwert oder Trend, gemessen durch die Standardabweichung bzw. den Variationskoeffizienten. Danach hat sich die Volatilität der Windkraft in absoluten Zahlen verdoppelt, während die installierte Leistung um den Faktor 1,8 gestiegen ist (Tabelle 1).

[2] Regressionsanalysen sind statistische Analyseverfahren, die es erlauben Beziehungen zwischen zwei Variablen zu identifizieren.

[1] Dr.-Ing. Detlef Ahlborn, Dr.-Ing. Detlef Ahlborn, Fachbereichsleiter Technologie, VERNUNFTKRAFT. e. V., detlef.ahlborn@vernunftkraft.de

[2] Prof. Dr.-Ing. Hans Jacobi, Jacobi & Partner Industrieberatung GmbH Kennedyplatz 8 45127 Essen




Nach Überzeugung der SZ scheinen Milliardäre in Amerika wohl generell etwas „beschränkt“ zu sein: Die Redaktion fand dort schon den zweiten, der nicht fest an den Klimawandel glaubt

Helmut Kuntz

Florida ist eine äußerst beliebte Gegend in den USA und ein Traum vieler Bürger, um dem kalten Norden zu entfliehen. Doch hat Florida (neben vielen anderen) ein großes Problem: Es besteht vorwiegend aus niedrigem Sumpfland auf brüchigem und porösem Untergrund. Dazu liegt es recht zentral in der rund um die Welt reichenden Hurricanzone und auch Tornados sind nicht selten anzutreffen.

Zum Bild oben: Miami. Originaltext: … keine Stadt in den USA ist stärker durch den Klimawandel bedroht. Das betrifft nicht nur den South Beach.
Wenn dann (jedes Jahr neu) der Wind in Hurricanstärke vom Meer her peitscht, bringt er Wellen mit sich, welche das niedrige Land teilweise überfluten – wie es genau so auf der anderen Globusseite bei den Südseeatollen ebenfalls passiert. Das war schon immer so, wie man in Historien nachlesen kann. Doch inzwischen gibt es den Klimawandel und damit bekommen die Wellen zusätzlich auch eine symbolische Bedeutung. Im Klartext heißt das: Alle Küsten gelten als dem Untergang geweiht und wer es dort doch noch wagt, etwas (gegen die AGW-Vorhersagen) zu investieren, ist sich mindestens der Häme, wenn nicht mehr von der AGW-Front sicher. Um das exemplarisch zu demonstrieren, erscheinen regelmäßig Berichte über den kommenden Untergang dieser (teils super-)reichen und stark bebauten Gegend.
DIE WELT 06.08.2014: [3] Die Zukunft von Miami Beach ist unsicher

Hintergründe, und wie es diesbezüglich mit Florida wirklich aussieht, wurden bereits auf EIKE publiziert:
[2] Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?

Wer mit „SZ-Sachverstand“ würde noch in Florida investieren, wo doch Klimawissenschaftler das dort unweigerlich kommende Unglück sicher vorhersagen können

Nachdem nun ein unserer „Intelligenz“ und auch unseren Medien nicht passender Präsident in den USA doch noch gewonnen hat, sah sich die SZ veranlasst, ihren Lesern auf einer vollen Seite darzulegen, dass diese Kategorie betuchter Personen in den Staaten eigentlich generell „leicht beschränkt“ ist und „von uns“ deshalb mindestens mit Verachtung gestraft werden sollte. Um das zu belegen, befand die SZ-Redaktion, würde sich der Klimawandel – weil an diesen, der SZ-Redaktionsmeinung nach, jeder „intelligente“ Mensch zu glauben hat – wohl am besten eignen und brachte eine lange Reportage über solch einen „dummen“ Milliardär, der nicht an die schlimmen Folgen des unabwendbaren Klimawandels glauben mag.
Süddeutsche Zeitung Nr. 280: [1] Miami Weiß
… Der Argentinier Alan Faceria baut voller Opulenz an der Küste Floridas. Es könnte nur sein, dass er gerade 1,2 Milliarden Dollar in einen Sand gesetzt hat, der bald Meeresgrund genannt wird.
Es geht in dieser rührenden Geschichte des SZ-Redakteurs Peter Richter (Anm.: Studium Kunstgeschichte) um Reichtum und Erfolg eines Immobilieninvestors – selbstredend Milliardär – der sich erdreistet, in Florida zu bauen, obwohl alle Klimawissenschaftler (deren die SZ habhaft wurde) den Untergang der Halbinsel vorhersagen. So viel Ignoranz gegen Klimawandel-Vorhersagen findet die SZ schlichtweg widerwärtig und „verreißt“ diesen „MiniTrump“ stellvertretend für ihre Leser mit einer an Luthers Eifer erinnernden Sprachgewalt:
SZ: [1] … Es wird nicht ganz klar, was er damit meint. Vielleicht ja die Exuberanz und Energie, die er mit dem bürgermeisterlichen Techno-Optimismus an die Seite stellt. So katholisch das in seiner Opulenz wirkt, es hat auch einen Aspekt von Lutherischem Apfelbaumgepflanze im Angesicht des Weltuntergangs: Erst kommt noch ein bisschen das Beste , Und dann kommt irgendwann das Meer.

Warum die Golfstaaten, die angeblich untergehenden Malediven, alle reichen Küstengegenden, auch Südseeinseln, weiterhin scheinbar unbesorgt direkt am Meer bauen – teils sogar künstliche, niedere Inseln ins Meer schütten und mit teuren Immobilien überziehen – erwähnt und erklärt der Artikel nicht. Auch dass mit den Niederlanden ein Land zeigt, wie man mit solchen Problemen der Natur erfolgreich umgehen kann; erwähnt die SZ nicht. Denn es geht diesmal ja um die Dummheit der besonders Reichen in den USA.
Und dort hat „man“ das nach SZ-Meinung eben nicht zu machen. Und warum das so ist, wird auch belegt:
SZ: [1]… das IPCC sage: Der Meeresspiegel werde sich bis Ende des Jahrhunderts um einen Meter heben.
Das United Corps of Engineers sage: 1,5 m.
Die National Oceanic and Atmosphereic Administration sage: fast zwei Meter.
M. Wanless
(Anm.: Universität Miami) sagt: alles zu niedrig … er gibt der Gegend nicht mal mehr 50 Jahre.

In den folgenden, diesen immer neu beschworenen Untergang behandelnden Artikeln:
[2] Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?
EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2 : So viel Meerespegel und Stürme hat es vor dem Klimawandel nie gegeben, (darin der Teil über North Carolina)
kaltesonne: Neue Studie der Durham University verweist Rahmstorfs Sintflutszenarien für North Carolina in das Reich der Fabeln

… wurden die wahren Sachverhalte, vor allem die dortigen Pegelsituationen, bereits dargestellt, deshalb hier nur ein kleiner Auszug:
Zuerst der mittlere Pegelverlauf um Florida aus den Daten mehrerer Messstationen gemittelt (Bild2). Mit einem Anstieg von 2,2 mm / pa (22 cm in 100 Jahren) ist kein Alarm erkennbar.

sz_2
Bild 2 [2] Pegelverlauf Florida von ca. 1898 – 2015. Mittelwert der Pegelstationen: Fernandina Beach, Mayport, Key West, St. Petersburg, Cedar Key, Pensacola. Grafik vom Autor zusammengestellt.
Im folgenden Bild eine Übersicht dieser Gegend.

sz_3
Bild 3 Messstationen. Quelle: PSMSL Catalogue Viewer

Nun noch Einzeldaten von Pegelstationen mit langen Messreihen (Bild 4): Diese messen mit 2,04 mm / pa sogar etwas weniger als den typischen Küstenpegelanstieg. Wichtig aber ist auch: Ein sich beschleunigender Anstieg ist weder an der Küste, noch weiter entfernt im Atlantik zu erkennen,

sz_4
Bild 4 Pegelverläufe der Stationen Fernandina Beach (Florida) und Bermudas

Wie so oft beim Klimawandel: Irgendwie passen die Simulationsergebnisse und wirkliche Messungen nicht zusammen

Dazu die globalen Pegelprojektionen des IPCC aus dem aktuellen AR5 (Bild 5).
Man sieht, dass im SZ-Artikel mit der Angabe IPCC, 1 m „vorsichtshalber“ nur das (unwahrscheinliche) Maximalszenario RCP8.5: RCP8.5: +52 cm …(MW: +74 cm) … +98 cm, und davon noch die oberste Vertrauensbereichs-Grenze angegeben wurde. Das viel eher wahrscheinliche – und wohl immer noch zu hohe – Scenario RCP2.6: +28 cm …(MW: +44 cm) … +61 cm ließ man für die Leser entfallen.

sz_5
Bild 5 IPCC-Scenarien im AR5 Quelle: wiki Bildungsserver

Welche Wahrscheinlichkeit Simulationen haben, sieht man erst in der bildlichen Darstellung

Im Bild 6 sind die Zukunftsszenarien aus dem SZ-Artikel in Verbindung mit den wirklich gemessenen Pegeln im richtigen Verhältnis eingetragen.
Der weltweite Küstenpegel-Anstieg liegt nach den Pegeldaten bei ca. 2,1 mm / pa. Bis zum Jahr 2100 ergeben sich daraus +17,6 cm, also die Größenordnung der Verlängerung der Regressionsgeraden im Bild von +17 cm, so wie es in Florida auch gemessen wird.
Wer Immobilien-Entscheidungen an Küsten zu treffen hat, kann sich nun überlegen, ob er sich an den Messungen der Pegelstationen orientiert, oder ob er den Glaskugeln der Computersimulationen und den die Parameter dazu vorgebenden Personen vertraut (alle höheren Pegelszenarien entstammen ausschließlich Simulationen). Für die SZ-Redaktion ist es jedenfalls vollkommen klar, wer hier die falschen Entscheidungen trifft.
Aber es erledigt sich vielleicht ja von selbst. Denn der Klimawandel kann (in Simulationen) schon wirklich äußerst vernichtend sein: EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

sz_6
Bild 6 Pegelverlauf bei Florida von ca. 1897 – 2015 (Daten von Bild 4), ergänzt um die Pegelvorhersagen im SZ-Artikel [1]
Nicht so „im Klimawandel geübte“ Leser werden sich vielleicht fragen, wie solche Zukunftsprojektionen zustande kommen, wo sie doch so offensichtlich unwahrscheinlich wirken.
Damit solche Pegelanstiege möglich würden, müsste massiv Grönland- und vor allem auch Antarktiseis schmelzen. Da dies in der Antarktis wegen der dortigen, tiefen Temperatur nicht möglich ist, muss dort angenommen werden dass einige der riesigen Festlandsgletscher noch rasend schnell ins Meer rutschen. Das haben diese Gletscher (Grönland und Antarktis) die letzten 1 Mio. Jahre zwar noch nie gemacht. Doch damals gab es noch keine Computer. mit diesen lässt es sich beliebig simulieren. Wegen der enormen Festlands-Eismassen sind dann Pegelanstiege bis 66 m denkbar:
WELT N24: Klimawandel Wenn der Meeresspiegel um 66 Meter steigen würde
Wie immer beim Klimawandel, gibt es dazu viele Fundstellen mit umfangreichen Begründungen des Für- und Wider.

Dabei ist die nächste Eiszeit viel wahrscheinlicher, denn diese kamen bisher wirklich und regelmäßig

Auch wenn Herr Schellnhuber „verspricht“, dass die nächste Eiszeit ausfallen könnte:
EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
… ist es eine reale Gefahr. Im Bild 7 kann man überdeutlich sehen, dass die warmen Zeitspannen extrem kurz sind und die restliche Zeit eisige Kälte herrscht. Und der Übergang in die kalte Phase ist bereits fällig.

sz_7
Bild 7 Verlauf der Eiszeiten. Quelle [4]
[4] Im Verlauf der letzten 1 Millionen Jahre wechselten im Zyklus von etwa 100.000 Jahren Eiszeiten und Warmzeiten. Die letzten beiden Warmzeiten dauerten dabei nur 11.000-15.000 Jahre an. (Eem-Warmzeit und Holstein-Warmzeit). Die aktuelle Warmzeit, dass Holozän ist schon 11.000 Jahre im Gange.

Quellen

[1] Süddeutsche Zeitung Nr. 280: “Miami Weiß

[2] EIKE 11.07.2016: Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?
http://www.eike-klima-energie.eu/news-cache/florida-keys-ein-paradies-geht-unter-wegen-des-klimawandels/

[3] DIE WELT 06.08.2014: Die Zukunft von Miami Beach ist unsicher

[4] ScienceScepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/




Urteil des Bundesverfassungsgerichtes über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie und ein Schweizer Volksentscheid

von  Rainer Küper

Am 06. Dezember 2016 verkündete das Bundesverfassungsgericht (BVerfG) das Urteil im Verfahren über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie, der 2011 von Bundesregierung und Bundestag beschlossen worden war.

Das BVerfG stellt fest, dass Enteignungen nicht vorgenommen worden sind. In diesem Falle wäre Eigentum entzogen worden und in das Eigentum der öffentlichen Hand überführt worden. Die Eigentumsverhältnisse der 2011 stillgelegten Kernkraftwerke und die der laufzeitbeschränkten Kernkraftwerke sind aber unverändert.

Mit der 13. AtG-Novelle von 2011 sind lediglich Produktionslizenzen entzogen worden, ein Vorgang, mit dem jedes Unternehmen zu rechnen hätte.

Die vom BVerfG erkannten Verstöße gegen das Grundgesetz betreffen daher nur zwei Bereiche:

  1. 2002 wurden mit der Laufzeitbegrenzung der Kernkraftwerke Produktionsmengen festgelegt, die einen besonderen Vertrauensschutz genießen. Deren Nichtausschöpfung infolge der 2011 festgelegten starren Abschalttermine ist entschädigungswürdig. Insofern ist die 13. AtG-Novelle grundgesetzwidrig.
  2. Investitionen der Betreiber aufgrund der im Dezember 2010 vom Bundestag beschlossenen Laufzeitverlängerung der Kernkraftwerke, die aufgrund des Japan-Tsunamis im März 2011 zugunsten früherer und fester Abschalttermine zurückgenommen wurde, werden als gefrustete Investitionen gewertet. Sie sind ebenfalls entschädigungswürdig. Auch insofern ist die 13. AtG-Novelle grundgesetzwidrig.

In der Bewertung einer Technik ist der Bundestag jedoch frei. Der Bundestag kann jederzeit eine Technik zulassen oder verbieten.

Den konkreten Fall des beschleunigten Ausstiegs aus der Kernenergie beurteilt das BVerfG wie folgt, vgl. untenstehenden Link zur Pressemitteilung:

„[…] Demgegenüber sind die mit der 13. AtG-Novelle verfolgten Gemeinwohl­belange (Leben und Gesundheit der Bevölkerung, Schutz der natür­lichen Lebensgrundlagen) von hohem Wert und in der konkreten Umsetzung der Rücknahme der Laufzeitverlängerung von 2010 von großem Gewicht. Der Gesetz­geber wollte den 2002 beschlossen Ausstieg aus der friedlichen Nutzung der Kernenergie beschleunigen, indem er feste Abschalt­termine einführte und die Ende 2010 erfolgte Ver­längerung der Laufzeiten rückgängig machte. Hierdurch wurde eine Risikominderung von ganz erheblichem Ausmaß erreicht. Dabei ist auch nicht zu beanstanden, dass der Gesetz­geber auf die Ereignisse in Fukushima reagierte, obwohl hieraus keine neuen Gefährdungs­erkennt­nisse abgeleitet werden konnten. Wie weit allein geänderte politische Wertungen oder gewachsene Befürch­tungen und Ängste in der Bevöl­kerung auch Maß­nahmen tragen können, die ‑ wie die Beschleuni­gung des Atom­ausstiegs ‑ erheblich in Grundrechte der Betrof­fenen eingreifen, und welches Gewicht ihnen beigemessen werden kann, lässt sich allerdings nicht allgemein bestimmen. Jedenfalls bei der Beurteilung einer Hoch­risiko­techno­logie, deren Schadens­risiken in besonderem Maße von einer politi­schen Bewertung und einer öffent­lichen Akzeptanz abhängig sind, kann auch Ereignissen ein eigenes Gewicht beigelegt werden, die allein das Bewusst­sein der Öffent­lichkeit für diese Risiken ändern, obwohl neue Gefährdungen nicht erkennbar sind. […].“

Das BVerfG trägt eine Begründung vor, die den Anschein erweckt, Bundes­re­gierung und Parlament nicht schaden zu wollen.

Das BVerfG behauptet pauschal, mit den neuen festen Abschaltterminen „wurde eine Risikominderung in erheblichem Ausmaß“ erreicht, obwohl „keine neuen Gefährdungserkenntnisse abgeleitet werden können“.

Sollte das Risiko des Betriebes der Kernkraftwerke nicht tolerierbar sein, dann müssten alle sofort stillgelegt werden. Das sofortige Stilllegen der 8 Kernkraftwerke im März 2011 reduziert das Risiko um weniger als den Faktor 2, also nicht „erheblich“. In der Probabilistik sind erst Faktoren von 10 resp. 1/10 von Bedeutung. Faktor 2 ist Rauschen. Die Stilllegung der restlichen Kernkraftwerke würde erst ab Ende 2022 das Risiko aus dem Leistungsbetrieb auf Null setzen. Solange sich Brennelemente im Kraftwerk befinden, bleibt ein Risiko größer als Null, wenngleich extrem klein. Der Risikogewinn besteht als nur darin, dass Kernkraftwerke statt bis ca. 2030 nur bis 2022 im Leistungsbetrieb sein werden.

Das BVerfG erkennt an, dass für den Betrieb der Kernkraftwerke keine „neuen Gefährdungserkenntnisse“ vorliegen. Die Risikominderung kann also allenfalls die Differenz zwischen dem genehmigten extrem-winzig und dem zukünftigen hyper-winzig sein. 1/20 von ganz wenig über Null bleibt aber ganz wenig über Null. Insofern kann von „Risikominderung von ganz erheblichem Ausmaß“ keine Rede sein.

Das BVerfG widmet sich auch der Willkür von Bundesregierung und Bundestag, die mit hü und hott heute dies und morgen jenes durchsetzen und hat damit einen Entschädigungsanspruch begründet.

Insgesamt erscheint das BVerfG-Urteil jedoch mehr politisch als sachlich motiviert zu sein.

Die BVerfG-Begründung ist auch insofern verwunderlich, als sie jederzeit auf andere Industriezweige übertragbar ist. Der Bundestag könnte z. B. übermorgen beschließen, dass der eine oder der andere Zweig der chemischen Industrie ihm wegen eines Bauchgefühles zu gefährlich erscheine, das Risiko „in erheblichem Ausmaß“ gemindert werden müsse, und die Produktion stillzulegen sei. Da in diesem Falle nicht einmal mit vereinbarten Produktionsmengen argumentiert werden kann, würde der betroffene Betrieb der chemischen Industrie zwar nicht im juristischen Sinne, aber im praktischen Sinne per parlamentarischer Willkür über Nacht enteignet worden sein.

In Deutschland wird geschwurbelt, bis das Urteil zur Politik passt. Ohne Geschwurbel, klar und eindeutig das Votum des Schweizer Volkes am 27.11.2016 gegen die vorzeitige Stilllegung der Kernkraftwerke in ihrem Land. In der Schweiz hat das Volk entschieden, dass die Kernkraftwerke in Betrieb bleiben dürfen, solange sie sicher sind. Über die Kriterien entscheidet das Volk.

Das Deutsche Volk dagegen begnügt sich damit, andere über sich entscheiden zu lassen.

Links:




EIKE wechselt den Webeditor – Spenden dringend erbeten-In eigener Sache

von Michael Limburg
Knapp 10 Jahre ist EIKE nun aktiv, davon fast 9 Jahre online. In dieser Zeit haben wir 10 Internationale Klima- und Energiekonferenzen organisiert, unzählige Vorträge zu Klima- und Energiethemen im In- und Ausland gehalten und auf unserer Website etwa 5000 Artikel vieler fleißigen Autoren/Übersetzer gepostet, die unsere Leserinnen und Leser zu fast 125.000 Kommentaren veranlassten. Im deutschsprachigen Raum betreiben wir die mit sehr großem Abstand meist gesehene Website mit ausschließlich Klima- und Energiethemen. Weit vor allen anderen, auch und gerade derjenigen, welche der Klimahysterie und der desaströsen Energiewende das Wort reden. Unser Ansehen ist auch weltweit so gestiegen, dass wir in diesem Jahr die Liste der „Top Hundred“ der Wissenschaftsblogs aufgenommen wurden.

Unser Budget war schon immer schmal, aber ist jetzt aufgebraucht

Und dies realisierten wir alles mit dem Budget eines mittleren Gesangsvereins, bzw. mit Geld in einem Volumen, für das ein Antragsteller zur Erlangung von „Zuwendungen für die Betreuung Flüchtlingen“ des Freistaates Sachsen (oder anderswo) nicht einmal seinen PC angeworfen hätte. Wir haben es trotzdem gemacht, ehrenamtlich und per Mittelbeschaffung über Selbstausbeutung. Und wir haben es gerne gemacht, auch und gerade dank der überwiegend verbalen, häufiger aber auch finanziellen Unterstützung  über private  Klein-Spenden von Ihnen, unseren Lesern.

Spenden tun bitter Not

Doch jetzt brauchen wir erneut Ihre Hilfe. Die Kasse ist leer, das Finanzamt unterwirft uns kleinlicher Schikanen und prüft rückwirkend bis 2014 unsere Bücher. Die uns für diesen Zeitraum zustehende Mehrwertsteuer-Rückerstattung wird bis zum Ende Prüfung zurückgehalten. Das belastet Budget und Liquidität.

Deswegen bitten wir Sie dringend – öffnen Sie nicht nur Ihre Herzen, sondern auch Ihre Taschen und spenden Sie – reichlich!

Sie können es über Paypal (Spendenknopf rechts oben links) direkt tun oder hier per Überweisung auf unser Bankkonto.  Unser Dank und eine Steuerbescheinigung (wenn Sie Namen und Adresse angeben) sind Ihnen – auch wenn es mal etwas länger dauert- gewiss. Alle Daten werden wie immer streng vertraulich behandelt. 

EIKE goes WordPress

Um Ihnen auch weiterhin, aber jetzt auf den verschiedensten Plattformen wie Smartphones, Tablets/ PCs Macs etc., das aktuellste zum Klimaschwindel und Energiewendedesaster anbieten zu können, haben wir einen großen „Schluck aus der Pulle“ genommen und im Sommer d.J. begonnen, unseren Webeditor umzustellen. Von Typo3, der uns viele Jahre treue Dienste leistete, zu WordPress. Der Aufwand war enorm. Weniger für das Einrichten der Website mit ihren vielen Seiten, sondern für die von uns als zwingend notwendig erachtete Rückwärtskompatibilität. Schließlich wollen wir die bereits geleistete Riesenarbeit nicht im Internetnirwana verschwinden sehen.

Nun ist es geschafft, dank der Unterstützung eines sehr fähigen Webprogrammierers. Und deshalb stellen wir in der Nacht von Sonnabend auf Sonntag, d.i. vom 10.12. auf den 11.12., von Typo3 auf WordPress um.

Die Anmutung wird dann deutlich anders, aber sehr übersichtlich sein. Das Layout passt sich dem jeweiligen Darbietungsgerät an. Kommentatoren müssen sich vor Kommentierung einmalig und mit Paßwort anmelden. Diverse Einschränkungen, denen Typo3 auf der Editorseite unterlag, sind nun aufgehoben. Das gilt in  großem Maße auch für die Kommentarfunktion.

Wir freuen uns auf den Neustart und bitten evtl. Schwachstellen, die mit Sicherheit auftreten werden, mit  Nachsicht zu begegnen. Und trotzdem, oder gerade deswegen, zu spenden, spenden, spenden. Danke.

Ihre Dr. Holger Thuss, Präsident EIKE,   Michael Limburg, Vizepräsident EIKE,  Wolfgang Müller, Generalsekretär EIKE




Novemberrückschau Klima und EEG: Nichts Neues, nur Deutschland ist recht kalt geworden

Helmut Kuntz
Was schon seit Anfang des Jahres erkennbar wurde – ein Rückgang der Temperatur – bleibt bisher erhalten. Im Oktober (die Globaltemperatur wird leider sehr spät gemeldet und liegt damit noch nicht vor) hatte unser Globus den Temperaturstand vom Jahr 1998 und sofern man die enormen Messunsicherheiten betrachtet, den vom Jahr 1990, also einen Wert den es vor 26 Jahren schon gab. Bei der Satellitentemperatur sieht es anders aus, dort lag der Wert im Oktober ungefähr bei dem von 1987, also bereits vor fast 30 Jahren. Nachdem das Jahr 2016 jedoch noch stark vom El Nino mit dem Spitzenwert im Februar geprägt war, reicht die Mitteltemperatur wohl für ein AGW-Temperatur-Maximaljahr aus. Unsere Medien werden sich also bald mit apokalyptischen-Meldungen überschlagen.

Temperatur Welt

Zur Ansicht anbei die UAH Satellitendaten „lower Troposphere“ (bodennahe Schichten) im Vergleich mit den Giss Stationsmessdaten. Die UAH-Satellitendaten haben zu den Giss-Daten einen Offset. Sie wurden deshalb am Zeitpunkt Januar 1979 mit den Giss-Daten normiert. Trotz der unterschiedlichen Variabilitäten treffen sich beide Temperaturreihen genau im Oktober 2016. Man sieht, dass die Satellitendaten eine höhere Varianz aufweisen und vor allem der El Nino um 1998 bei den Satellitenmessungen zu einem deutlich höheren Temperaturausschlag führte. Damit man ein Gefühl für die Vertikalachse bekommt, ist die Toleranz einer modernen, sorgfältig aufgebauten und geeichten Messstation eingezeichnet. Man denke nicht, Satelliten messen genauer. Deren Sensoren müssen über Erdtemperaturen kalibriert und zudem mit Gewichtungsfaktoren multipliziert werden. Der Vorteil von Satelliten ist lediglich, dass sie (fast) die gesamte Erdoberfläche erfassen – also einen wirklichen Mittelwert bilden können, dafür wird jedoch, je näher zum Erdboden gemessen wird, dessen verfälschende Einflüsse immer stärker.


Bild 1 Giss Daten ab 1979 und UAH-Satellitendaten Lower Troposhere global, auf den Giss-Wert von 01.1979 normiert

Der November in Deutschland

Temperaturverlauf

In Deutschland gibt es Personen – vor allem Umweltministerinnen -, die können den Klimawandel „täglich spüren“ (zum Beispiel Frau Hendricks). Doch weiterhin behauptet der Autor, dass das im Wesentlichen nur daran liegt, weil man das zu spüren meint, was man in den Zeitungen täglich liest, in Wirklichkeit zumindest in Deutschland jedoch nicht gefunden werden kann. Man sehe sich die Jahreszeitverläufe dahingehend an: Es ist etwas wärmer geworden, vorwiegend konzentriert auf den Winter, aber viele Jahrestemperaturen reichen immer noch in den Bereich derer vor über 200 Jahren. Was man jedoch bestimmt täglich spüren kann, sind die teils extremen Wärmeinseleffekte deutscher Großstädte mit bis zu 10 °C Temperaturerhöhung. Diese darf man aber nicht mit einem Klimaeffekt durch CO2 Rückstrahlung verwechseln. Die weiter gehende – und wirklich brisante – Frage, wie viel von der Temperaturerhöhung in den DWD-Daten alleine dadurch hervorgerufen ist, überlassen wir Herrn Kämpfe.


Bild 2 Maximale Temperaturunterschiede in europäischen Städten. Quelle: Ministerium für Wirtschaft, Arbeit und Wohnungsbau Baden-Württemberg: Städtebauliche Klimafibel

Auch die Novemberdaten bestätigen (wieder) diese Einschätzung.
Die Temperatur des gerade vergangenen Novembers liegt unter dem Startwert der Temperaturreihe im Jahr 1750. Eine Überhitzung ist nicht erkennbar. Bei solchen „Hitzekurven“, wo alles drin steckt, nur keine Hitze, darf man weiterhin fragen, wo der in allen Klimasimulationen berechnete, „überhitzende“ Einfluss des CO2 bleibt.
Diese Frage stellt sich zudem, wenn man den Trendknal betrachtet. Man könnte auf die Idee kommen, der „Klimawandel“ – in Wirklichkeit eine im Wesentlichen natürliche Erwärmung nach einer Kältephase – hat in Deutschland schon weit vor der Industrialisierung und einem AGW-CO2-Eintrag begonnen (was der Autor auch regelmäßig versucht darzustellen).


Bild 3 DWD-November-Temperaturen Deutschland seit 1750 – November 2016 (blau), 30-Jahre Mittelwert( braun). Grafik vom Autor aus den Daten erstellt.

Im folgenden Bild der Ausschnitt ab dem Jahr 1962. Eine Überhitzung sieht änderst aus.


Bild 4 Gezoomte DWD November-Temperaturen Deutschland von 1962 – Nov. 2016 (blau), 30-Jahre Mittelwert( braun). Grafik vom Autor aus den Daten erstellt.

Jahreszeiten

Nun ist auch der Herbst „fertig“. Die diesjährigen Jahreszeiten-Temperaturen sind bis auf die des letzten Winters alle schon vor dem Jahr 1800 vorgekommen. UmweltministerInnen und NGO-Vertreter, welche den Klimawandel in Deutschland dieses Jahr wieder zu spüren meinten, waren während drei Jahreszeiten (Frühling – Herbst) in einer weit zurück reichenden Zeitschleife gefangen, während der (letzte) Winterwert nur zum Jahr 1975 zurück reichte.
Im Unterschied zur bisherigen Jahreszeiten-Darstellung der vergangenen Monats-Rückschauen sind diese diesmal als Einzelbilder mit der richtigen Temperatur von Jahreszeit- und Jahreswert angegeben, um die Jahreszeiten-Differenztemperaturen richtig zu sehen (Referenz ist immer der Jahres-Mittelwertverlauf). Anhand der Variabilität ahnt man, wie wenig die mit wahnsinnigem Finanzaufwand und Einschränkungen angestrebte „Temperaturverringerung“ auf maximal +0,4 … +0,8 °C bis zum Jahr 2100 (1,5 Grad Ziel) verändern würde (sofern dies gelänge).


Bild 5 DWD Daten Herbst-Temperaturverlauf (braun), Jahresmittelwert (schwarz) Deutschland 1750 – 2016


Bild 6 DWD Daten Sommer-Temperaturverlauf (gelb), Jahresmittelwert (schwarz) Deutschland 1750 – 2016


Bild 7 DWD Daten Frühling-Temperaturverlauf (grün), Jahresmittelwert (schwarz) Deutschland 1750 – 2016


Bild 8 DWD Daten Winter-Temperaturverlauf (gelb), Jahresmittelwert (schwarz) Deutschland 1750 – 2015/16

Bisherige Maximalwerte

Exemplarisch anbei der Tagesverlauf der Temperatur von Freiburg, einer von Deutschlands heißen Städten. Seit Beginn der Messreihe im Jahr 1949 hat sich die Maximaltemperatur dort nicht erhöht. Leider enden diese DWD-Daten immer noch mit dem Dezember 2015, so dass der diesjährige Sommer leider fehlt, was der Information aber nicht schadet.
Sofern sich dieser Verlauf bis zum Jahr 2100 fortschreibt, werden die AGW-Überzeugten es als grandiosen Sieg über den Klimawandel und den Sinnbeleg des extremen Finanz-Mitteleinsatzes zur zwangsweisen CO2-Minderung propagieren.
Nicht auszudenken, man hätte damit bereits im Jahr 1949 angefangen. Deutschland wäre dann ökonomisch noch auf dem Stand von damals (ähnlich der ehemaligen DDR) – und der Temperaturverlauf wohl der gleiche.

Bild 9 DWD Tagestemperaturen Freiburg (Breisgau) von 1949 bis Dez 2015

Dazu eine Rückblende, wie sich weiterhin die Maximaltemperaturen auch weltweit darstellen:
Quelle, EIKE 30.07.2016: Weltweiter Temperaturrekord gemessen?
Die Daten:
– Seit 103 Jahren ist es global nicht mehr heißer geworden
– Seit 74 Jahren hat sich an der globalen Grenztemperatur überhaupt nichts verändert
– In 32 Jahren ist es in Deutschland (vielleicht, da nicht signifikant messbar) um 0,1 °C heißer geworden*
– würde man die „verworfenen“ Messungen einbeziehen, wäre es früher weit wärmer gewesen als aktuell

*Für Deutschland kann das angezweifelt werden, siehe: EIKE: 5. Juli 2015, der bisher heißeste Tag Deutschlands?

Niederschlag

Beim Niederschlagsverlauf genau das gleiche Bild wie im Oktober: Auch der Novemberwert liegt fast im Mittel der seit dem Beginn dieser Datenreihe seit 1881 gemessenen Spanne. Es ist keinerlei Tendenz zu Trendänderungen erkennbar. Beim Jahreswert hat der Niederschlag sogar genau den Wert vom Jahr 1881 „getroffen“. Dabei immer wieder bedenken, dass Deutschland wichtige Entscheidungspersönlichkeiten hat, welche es vermögen, anhand solcher Verläufe den Klimawandel täglich zu spüren.

Bild 10 DWD-Niederschlags-Daten Deutschland Novemberwerte 1881 – November 2016. Grafik vom Autor aus den Daten erstellt.


Bild 11 DWD-Niederschlags-Daten Deutschland Jahreswerte 1881 – 2015. Grafik vom Autor aus den Daten erstellt.

Wie wird der November im Jahr 2100?

Wer schon immer die Glaskugel gesucht hat, welche das Klima der Zukunft zu kennen meint, wird beim DWD fündig. Dort kann man im Deutschen Klimaatlas „life“ einstellen und nachsehen, was modernste Computertechnik und Klimawissenschaft leisten.
Aktuell sind die Novemberwerte teils schon eingestellt, deshalb ein paar Darstellungen daraus. Man beachte, wie weit die Simulationen bereits aktuell von den wirklichen Mittelwerten entfernt liegen.

Bild 12 Lufttemperatur-Daten Deutschland Novemberwerte 1881 – November 2016, mit Simulationsläufen zum Jahr 2100. Darstellung aus dem DWD Deutschen Klimaatlas, Emissionsszenario A1B


Bild 13 Niederschlags-Daten Deutschland Novemberwerte 1881 – November 2016, mit Simulationsläufen zum Jahr 2100. Darstellung aus dem DWD Deutschen Klimaatlas, , Emissionsszenario A1B. Die Begrenzungslinien sind vom Autor zugefügt

Bild 14 Niederschlags-Daten Deutschland Aprilwerte 1881 – April 2016, , mit Simulationsläufen zum Jahr 2100. Darstellung aus dem DWD Deutschen Klimaatlas, Emissionsszenario A1B. Die Begrenzungslinien sind vom Autor zugefügt

Es scheint niemanden zu stören, dass die meisten Simulationsläufe schon aktuell erheblich vom Mittelwert abweichen (dazu wurde der April-Niederschlagswert als herausragendes Beispiel zugefügt). Alleine aufgrund der heuristischen Betrachtung der Simulationsergebnisse verliert der Autor das Vertrauen in diese Simulationen.

Die „Verantwortlichen“ stört es nicht, denn es bringt viel Geld und Personal, damit den Globus zu beglücken und in immer kleineren Flächenquadraten die Zukunftswerte zu simulieren, zu katalogisieren, und Planungsinformationen für alles und jeden zu geben nach der Order: nicht wie es in der Vergangenheit war, kann das Wetter (wieder) werden, sondern es wird kommen, wie es der Computer vorhersagt: EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren, (Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel).

Der Blick zu den „Klima-rettenden“ Neuen Energien

Auch dieser Kommentar bleibt fast der gleiche wie zum Oktober: Auch im November haben die Neuen Energien ihre Nutzlosigkeit unter Beweis gestellt. Angeblich liefern diese bereits 35 % des Strombedarfes – allerdings eben nur nicht dann, wenn daran Bedarf ist. Jedenfalls ist von „sicherer“ Versorgung und der angeblichen „Grundlastfähigkeit“ weiterhin keine Spur zu sehen.

15 Bild 11 Deutschland Novemberganglinien der Neuen Energien und Verbrauch. Quelle: R. Schuster

Wenn die Green-Kapazität wie vorgesehen verdreifacht wird, sieht das Ergebnis wie im Bild 12 simuliert aus. Der Verbrauch war auch damit nicht zu decken, nicht einmal mit (nicht vorhandenen) Speichern. Allerdings fällt erst so richtig auf, wie extrem gering der „Energieertrag“ im November bezogen auf die installierte Anschlussleistung war. Für diese Anschlussleistung sind die Netze auszulegen. Welcher EEG-bedingte Netz-Installationswahnsinn (-unsinn) dadurch noch auf Deutschland zukommt, kann man damit heute schon erahnen.


Bild 16 Deutschland Novemberganglinien der Neuen Energien und Verbrauch, mit 3 multipliziert. Die obere, rote Linie ist die dann installierte Leistung. Quelle: R. Schuster (Vom Autor um Kommentare ergänzt)

Fazit

Auch der November zeigt eine unglaubliche Normalität gegenüber dem Klima. Der überall in Simulationen und Vulnerabilitätsstudien hereinbrechende Wandel ist immer noch nicht angekommen, oder hat sich bereits verabschiedet, wird dafür aber weiterhin umso eifriger simuliert und bekämpft.




Sonnenflecken – anthropogen gefördert ? Ein Essay – nicht ohne Ironie, tiefere Bedeutung und ein wenig Intrige

Walter Fett
Nur einmal angenommen, es gäbe noch einen Zweifel über die Vorherrschaft des Menschen hinsichtlich der Klimaänderung: Worin und von wem aus könnte er überhaupt ausgehen? Die quantitativ herausgelassene Literatur läßt kaum einen Zweifel zu. Die Bedrohlichkeit der Folgen findet weltweiten Niederschlag und öffentlich unwidersprochene Akzeptanz.

Die daraus abgeleiteten Konsequenzen führen zu einschneidensten Maßnahmen, welche die Freiheiten der Gesellschaft wie des Einzelnen spürbar eingrenzen – und bis zu Verarmungen führen – , sofern sie nicht Nutznießer der umgeleiteten Geldströme sind. Forderungen weltweiter Art bleiben ebenfalls unwidersprochen. Die Hinnahme des Opferns,  wie stets musterhaft strebend vor allem in Deutschland, und das Ausbleiben öffentlicher Kritik sollte als Beleg einer unausweichlichen Richtigkeit der Erkenntnisse gelten dürfen, – vielmehr müssen. Notfalls schlägt die Quantität der Meinenden auf Dauer die Qualität der Wissenden!

Aus diesem – zumindest gegenwärtigen – Tatbestand lassen sich dann logische Faktenbetrachtungen zuweisen, was auch das physikalische System der grundliegenden Naturvorgänge betrifft.

Gehen wir einmal von einem radikal einfachen System aus, zumal ein solches am sichersten in der Öffemtlichkeit einschlägt: Während des 20. Jahrhunderts ist die Temperatur – mehr oder weniger auch im Wechsel mit Abstiegen – etwas angestiegen (siehe untere Abb. 2). Parallel dazu ist nun auch die CO2-Konzentration – allerdings äußerst gleichmäßig – angestiegen (siehe oberste Abb.). Der Korrelastionskoeffizient – basierend auf den geglätteten Verläufen (denn es kommt hier schließlich nicht auf die Einzeljahre an) – liegt bei r = 0,79, womit das Bestimmtheitsmaß b = r2 = 0,63 beträgt, – allerdings im Wesentlichen lediglich von der Gemeinsamkeit des Anstiegs. In diesem Maße also bestimmt (genauer und damit bescheidener gesagt: beschreibt) das CO2 den Temperaturverlauf zu 63%.

Was lag daher näher als die Selbstbestätigung dafür, mit diesem positiven Wert dem CO2 eine offenbar tragende Rolle des Verursachers des Temperaturanstiegs geradezu wie ein Kainsmal anzulasten.

Die dazu benötigte physikalische Antriebseigenschaft ließ sich danach formulierend einbeziehen und mit vielem Hin und Her strahlungsenergetisch forsch begründen. Parametrisieren geht immer.  Allerdings führte genaueres Nachrechnen mit der Zeit leider zu einem gewissen Bedeutungsschwund. Dennoch: was bleibt einem übrig, wenn man die CO2-Fahne weiterhin vorantragen will?

Mittels geeigneter hoheitlicher Bahnung der Forschungsmittel kam es eher zur ergebnis-orientierten als zur erkenntnis-orientierten Klimadebatte (Krämer), zudem zur deutsch-kulturpatriotisch hochmütigen Verketzerung der regelbrechenden Klimakritiker. Letztere wurden von regierungsnaher Seite in sogar rufschädigender Weise als schwachsinnig stigmatisiert. Den ökobewegten Wortführern kommt es zuvorderst nicht darauf an, daß es uns jetzt gut geht, sondern auch noch am Jahrhundertende nicht schlecht ginge.

Die Klimaprognose mag letztlich nicht stimmen; es hätte aber dennoch eine ganze Generation der Alternativenergiebranche als auch an Forschern gut davon gelebt: Ist das nicht lebensgerecht? Begegnen wir hier nicht auch nur dem heutzutage vermehrten natürlichen Selbsterhaltungstrieb der Forschungsmittelnehmer, die zudem oft zeitgerecht der Logik der Selbsttäuschung unterliegen? Dabei werden Projekte oft eher durch fortlaufende Umsetzung vorangetrieben als durch ausgereiftere Konzepte.

 Klima-Angst ist endemisch, selbst wenn sie nur einem Phantomschmerz
                                   zugesprochen werden könnte.

Auch wenn Selbstsicherheit zur Denkfaulheit führt: Es ist der Reiz des Unwahrscheinlichen, dem das öffentliche Primat zugestanden wird. Zudem ist die Selbsttäuschung in der Physiologie und Psychologie des Menschen angelegt – schon aus ökonomischen Gründen; denn andauernde mentale Aufmerksamkeit wäre energieverzehrend: Haben also die dauernden Klimawarner nicht doch recht? Das Prinzips des mentalen Energiesparens könnte auch hier die Basis für einen Mechanismus der Selbsttäuschung sein.  Was nun sind dabei Wirkursachen und was Zweckursachen? Die Öffentlichkeit sitzt dann nicht ohne Grund oder aus Ignoranz einer Selbsttäuschung auf: eine Art politischen Autismus. Und – wir gehören nun einmal gern zur Herde (Erik Kessels). Wir mögen es, uns mit Leiden schaffender Leidenschaft anzupassen.

Irritierender- und hinderlicherweise brachten nun skeptisch Gesonnene alte Vorstellungen in Erinnerung, die man jedoch kaum hören und schon gar nicht diskutieren wollte.

Sie verwiesen verstörend auf den schon viel längeren und genaueren Gleichlauf der Temperatur mit der Sonnenaktivität, welche nicht nur in ähnlich paralleler und gleich steiler Weise wie die Temperatur verlief, sondern auch noch in den Details eine weit bessere Übereinstimmung aufwies (siehe untere Abb. 1 u. 2). Der Korrelationskoeffizient r – bezogen wiederum auf die geglätteten Verläufe – liegt hier bei 0,97 und periodenweise sogar noch höher!  Im Darstellungsverlauf der Abweichungen vom Langzeit-Mittelwert in Abb. 5 u. 6 wird die Parallelität noch deutlicher. Die Sonnenfleckenzahl beschreibt im Langzeitverlauf zu wenigstens rund b = r2 = 94%, also fast vollkommen und zumindest recht vorherrschend den Temperaturverlauf in Europa (siehe Abb. 2). Das ist ein um 50% größerer Wert als der, welcher sich auf das CO2 bezieht! Außerdem steht das CO2 auch noch in mitwirkender Konkurrenz zu weiteren Gasen und Flüssigkeiten (CH4, H2O … ).

Hält nun die „geschlossene Gesellschaft“ der Auch-Klimatologen (nicht der Meteorologen!) im vermeintlichen Konsens* weiterhin die Fahne des Primates der CO2-Verursachung hoch (weil nicht sein kann, was nicht sein darf), so zwingt dieses – in Abwägung beider Korrelationen – im Umkehrschluß zur logischen Folgerung, daß die Sonnenaktivität nur noch die Folgerolle einer CO2-Wirkung zu spielen hätte. Diese Akzeptanz führt zwangsläufig zur Hinnahme  der Einsicht, daß es mithin der Mensch ist, der den Kosmos bezwingt!

Eine Erkenntnis von geradezu biblischem Wert! Wer möchte auf diese Eigenwertschätzung schon verzichten? Und umso mehr kommt der menschlichen Gesellschaft eine geradezu firmamentale Verantwortung zu. Entwickelten sich dadurch verlockt vielleicht auch unsere UNO-weiten Bemühungen um den Klimawandel? Angesichts der weltbewegenden Übereinstimmung, zumindest im deutschen Bundesparlament sogar = 100%, was daher durch dortige eventuelle Karteileichen und Klaqueure allein nicht zu erklären wäre (es ist halt inniger Wunsch des Menschen, zur Mehrheit zu gehören und nicht ausgestoßen zu werden), kann das derzeitige Auftreten der hiesigen Vertreter noch als geradezu auffällig bescheiden gewertet werden. In moralisierender Selbstsicherheit wird zudem ein deutscher Führungsanspruchs angestrebt: Wenn schon, denn schon! Überhaupt sollte der Klimawandel noch rechtzeitg auf die Liste des „Welterbes der UNESCO“ und unter Denkmalschutz gesetzt werden, ehe er lediglich als Fußnote der Geschichte einmal nicht mehr auf der Tagesordnung steht.

Kolonialismus, Kommunismus, Sozialismus, Umweltaktivismus, Klimaalarmismus, … : Jeder Ismus hat wohl seine Zeit und läuft meist erst mit dem Ableben seiner überzeugungssicheren Protagonisten, meinungsbeherrschenden Propheten und gehabten Nutznießer ab. Wie nach dem  Absterben des Waldsterbens landet er letztlich langweilig geworden wie ein Schattenboxen gemäß der „Logik der Selbsttäuschung“ als gesellschaftlicher Selbstbetrug auf dem Rumpelhaufen der Geschichte und wartet dort als Kompost für ein weiteres, neues Ismus-Entwicklungspotential. Es gilt das Postulat der nachwachsenden Klimaangst mit ewig währender Warnungsnachhaltigkeit. Das Aufgeben alter, jedoch lieb gewordener Vorstellungen tut schließlich weh und würde unser Verantwortungsgefühl nur noch unnötig weiter metaphysisch belastend steigern. Also warten wir doch geduldig auf eine Klima(tologen)dämmerung. Auch die Klimablase kann sich einer altersbedingten Blasenschäche nicht entziehen.

Und wenn wir schliesslich dereinst auch einsichtig zugäben, die Sonne wirkte tatsächlich zumindest in erster Linie; nur – dagegen können wir halt nichts tun. Das CO2 wirkte zwar höchstens erst in zweiter Linie, aber – dagegen können wir etwas tun. Doch basierend auf dieser Zweitrangigkeit nun gleich erstrangig die ganze Weltgesellschaft umbauen müssen?

Wohin sollte unsere Hoffnung also gelenkt werden? Solch grundsätzlicher Wandel von Neu gegen Alt, Moderne gegen Tradition und Realität gegen Politik gewinnt leider erst mit dem Generationenwechsel. Man muß also abwarten. Vielleicht war alles doch nur ein großer Bluff? Kurz vor seinem Lebensende musste in diesem Sinne seinerzeit schon Max Planck resignierend eine bemerkenswerte Tatsache konstatieren: „Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, dass ihre Gegner überzeugt werden und sich belehrt erklären, sondern vielmehr dadurch, dass die Gegner allmählich aussterben und dass die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.“ (Von DAVID HULL u. a. 1978 als Planck’s Principle bezeichnet).

So werden wir wohl auch in der Klimawandel-Diskussion noch viel Geduld aufbringen müssen, währenddessen weltweit unsere gesellschaftlichen Ressourcen fremdgeleitet und möglicherweise fehlgeleitet in falschen Kanälen unnötig zu versickern drohen.

Der hier in der „Berliner Wetterkarte“ SO 01/13 nicht dargestellten weiteren Verläufe bis 2015 lassen ein Absinken der Sonnenfleckenzahl und ein – bereits zumindest nur noch – Niveauhalten der Temperatur erkennen.

===================================================

)*   Michael Crichton, Autor von State of Fear sagte zum Thema Konsens:

„Reden wir Klartext: Die Arbeit der Wissenschaft hat nichts, aber auch gar nichts mit Konsens zu tun. Konsens ist Sache der Politik. In der Wissenschaft ist Konsens irrelevant. Relevant sind einzig reproduzierbare Ergebnisse. Die größten Wissenschaftler jemals sind genau deswegen groß, weil sie mit dem Konsens gebrochen haben (Galilei, Newton, Einstein usw.)“ – Sein Fazit: „So etwas wie Konsens gibt es in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“




Ist die Wahl von Trump eine Auswirkung des Klimawandels? Wenn es wärmer ist, werden die etablierten Parteien abgewählt, wie eine Studie belegt

von Helmut Kuntz

Es gibt Erkenntnisse der Wissenschaft, die schlummern lange unerkannt in den hintersten Winkeln, bis ein Ereignis der Geschichte die Brisanz offenlegt. Ein Glück, wenn sich dann jemand daran erinnert und wie hier auf EIKE darüber berichten kann.

Die Europäische Welt – allen voran auch Deutschlands „Eliten“, beispielhaft herausragend unser noch-Außenminister– haben sich gefragt, was die amerikanischen Bürger dazu treiben konnte, so eklatant gegen ihren Rat und ihr doch weit fundierteres Wissen über „ordentliche“ PräsidentschaftskanditatInnen zu verstoßen und die blonde Föhnlocke Trump zu wählen. Auch in den Staaten selbst müssen sich danach schlimme Szenen abgespielt haben, denn eine Augenzeugin durfte noch lange danach (in einem Artikel am 18.11.) in einer Lokalausgabe der Nordbayerischen Nachrichten schluchzend berichten, wie viele US-Bürger sich nach der Wahlverkündung krank melden mussten, weil ihre Körper diese Wahlentscheidung nicht mittragen wollen.
Dies natürlich auch ein deutlicher Hinweis, dass in Deutschland eine tiefgreifende, umfassende, teure und viele Soziologische Institute beschäftigende Studie zum Krankenstand nach falschen Wahlentscheidungen noch eklatant aussteht.

Aber nun kann diese, für die gesamte politische Kaste so (über-)lebenswichtige Frage beantwortet werden:

Schuld an der Wahl von Herrn Trump ist der Klimawandel

Was wie ein Scherz klingt, hat natürlich einen streng wissenschaftlich belegten Hintergrund (sonst würde es hier ja nicht berichtet). Ein leibhaftiger Professor der renommierten Harvard-Universität hat es bereits Anfang des Jahres herausgefunden und in einer (damals nicht beachteten) Studie veröffentlicht:
Nick Obradovich, 2016/3/12: [2] Climate change may speed democratic turnover

Genial und fleißig zugleich – bei Forschern zur Klimawandel-Vulnerabilität natürlich der zu erwartende Normalfall – hat dieser Professor nicht nur wie sonst üblich vor dem Computer gesessen und simuliert, sondern ist (virtuell) zu den Völkern der Welt gegangen und hat deren Wahlverhalten in Abhängigkeit von der Temperatur erkundet, wie eine Zeitung (keine Deutsche war dazu recherchierbar) berichtete:
climate news network, November 3, 2016: [1] Politicians feel heat from rising temperaturesNick Obradovich, a researcher at Harvard University in the US, has conducted what is described as the first ever investigation into the relationship between temperature, electoral returns and future climate change.
In a
study published in the journal Climatic Change, Obradovich sets out to substantiate the idea that climate change, by threatening feelings of wellbeing, will lead to a quicker turnover of politicians and political parties.
There is no doubting the thoroughness of his research: altogether, Obradovich analysed more than 1.5 billion votes cast in nearly 5,000 elections in 19 countries ranging from Argentina to Zambia between 1925 and 2011.

[Übersetzung von Chris Frey: Nick Obradovich von der Harvard University hat etwas durchgeführt, was als die erste Untersuchung jemals beschrieben wird der Relation zwischen Temperatur, Wahlergebnissen und zukünftigem Klimawandel.

In einer im Journal Climatic Change veröffentlichten Studie macht sich Obradovich daran, seinen Gedanken mit Leben zu erfüllen, dem zufolge das vom Klimawandel ausgehende Bedrohungsgefühl für das Wohlbefinden zu einem rascheren Wechsel von Politikern und politischen Parteien führt.

An der Sorgfalt seiner Forschung gibt es keinen Zweifel: er analysierte über 1,5 Milliarden Wählerstimmen aus fast 5000 Wahlen in 19 Ländern, von Argentinien bis Zambia im Zeitraum 1925 bis 2011.

Ende Übersetzung]

Man muss sich die Mühen und die schlaflosen Nächte vergegenwärtigen (aber zur Ergründung der innersten Geheimnisse des Klimawandels ist kein Aufwand zu hoch und keinesfalls Verschwendung), die es erfordert, 5.000 Wahlen in 19 Ländern (dazu viele in Afrika) zwischen 1925 und 2011 sorgfältig zu analysieren, die Daten in den Computer zu bringen und dann noch mit den oft recht ungenau bis fast gar nicht dokumentierten Temperaturverläufen zu korrelieren – und so die unglaubliche Zahl von 1,5 Milliarden Stimmabgaben statistisch zu umfassen.

Aber das Ergebnis gibt schließlich recht:
Eindeutig ist jetzt durch sorgfältige, statistisch unangreifbare Korrelationsanalysen belegt, dass die Temperatur- und deren Änderungsrichtung welche ein Jahr vor den Wahlen herrscht mit entscheidet, ob die bisherige Regierung abgewählt wird, oder „überlebt“:
[1] The analysis indicates, says Obradovich, that “warmer than normal temperatures in the year prior to an election produce lower vote shares for parties already in power, driving quicker rates of political turnover”.
Das folgende Bild aus der Studie zeigt, wie exakt und eindeutig sich die Kipptemperatur der Wahlentscheidung dadurch bestimmen lies. Auch der für die wissenschaftliche Qualität so extrem wichtige Vertrauensbereich ist (schattiert) angegeben und wird genau am Kipppunkt am engsten. Einfach gesagt: So hat eine Analyse mit Qualität auszusehen.

Bild [2] Darstellung wie sich das Wahl-Änderungsverhalten mit der Temperatur verhält. Deutlich erkennbar der Temperatur-abhängige Entscheidungs-Kipppunkt der Wähler

Etwas salopp darf man nun sagen:
Waren die Temperaturen ein Jahr vor der Wahl niedriger als üblich, bleibt die etablierte Partei an der Macht, waren sie höher, wird sie vom Wahlvolk ausgewechselt.
Und bei Temperaturen über 21
°C wird das Wahlvolk grundsätzlich bei der Wahl wankelmütig, beziehungsweise unberechenbar.
Der Wahrheitsgehalt ist überzeugend. Wer sich schon immer über die Wahlen in Italien gewundert hat, findet schon fast vor der Haustüre die direkte Bestätigung. Und genau letztes Jahr war es doch in den USA auch so über-schrecklich heiß. Dies ist der Grund, warum der Autor sich erlaubt, aus der Studie die Feststellung: Schuld an der Wahl von Herrn Trump ist der Klimawandel, abzuleiten. Umkehrschluss: Wäre es dort durch den Klimawandel zur Zeit der „geistigen Wahlreifung“ -nicht so warm gewesen, hätte die etablierte Partei. und damit Frau Hillary, sicherlich gewonnen.

Es ist anzumerken, dass es solche Effekte in der Natur selbstverständlich gibt. Weizen zum Beispiel „entscheidet“ in einem ganz kleinen Zeitfenster während seiner Blühzeit anhand der Temperatur, wie viele Körner er in seiner Ähre zu bilden „gedenkt“. Es war also zu erwarten, dass ein solches Gen auch im Menschen schlummert und nun aufgrund des Klimawandels „aktiviert“ wurde.

Selbstverständlich hat der Harvard-Professor vorsorglich auch gleich in die Klimawandel-Zukunft simuliert und dabei herausgefunden:
Orientierende Übersetzung: [1] Obradowitsch benutzte auch Klimamodelle, um zukünftiges Wählerverhalten vorherzusagen. Die Ergebnisse deuten darauf hin, dass das Tempo der politischen Veränderung sich in vielen Ländern zwischen jetzt und dem Ende des Jahrhunderts voraussichtlich erheblich beschleunigt wird.
Ein Effekt, dessen Beginn sich auf der Welt – und sogar in der EU und auch in Deutschland – bereits aktuell feststellen lässt.

Allerdings sind unvermeidbar noch viele Fragen offen:
– Gilt dies nur für die Außentemperaturen? Was passiert, wenn Wähler in klimatisierten Büros und Wohnungen sitzen? und wie lange müsste dies sein?
– Lässt sich der Wahlentscheid durch jahreszeitliche Verschiebung der Wahlen verändern?
– Wie wirken sich Temperaturwechsel in der so wichtigen „Wahl-Reifezeit“ aus und
– haben Niederschlag und Feuchte auch einen Einfluss?
Fragen über Fragen, die nur sehr viel weiter gehende, umfangreiche Analysen mit Hilfe internationaler Teams rund um die Welt beantworten können und müssen. Denn eines ist wohl offensichtlich:

Diese Erkenntnis ist die Kontinentalverschiebung der Politikwissenschaft

Ab sofort werden sich Politologie und Klimawissenschaft vereinen müssen um zu überleben. Fast hellseherisch sind deshalb die Organisatoren der Klimagipfel gewesen, welche ohne dieses Wissen genau das Richtige taten und alle diese Kräfte regelmäßig in früher nicht vorstellbarer Anzahl zusammen brachten. Nun haben sie sogar die Alimentierung dafür.
Nimmt man nun an, dass das Ergebnis der Studie schon vorab an die wichtigsten Lenker der Weltpolitik durchgesickert ist, lassen sich auf einmal auch die ansonsten vollkommen unverständlichen, schlichtweg hysterisch erscheinenden Dekarbonisierungsbemühungen zur Temperaturminderung erklären. Sie dienen gar nicht zur Rettung des Globus vor einer Überhitzung, sondern der Rettung der politischen Systeme. Vielleicht wäre dies schon viel früher aufgedeckt worden, wenn es einen Däniken des Klimawandels gegeben hätte, aber der hat sich leider auf andere (nicht beweisbare Themen) konzentriert.
Allerdings sind jetzt auch ganz neue Problemlösungen diskussionswürdig geworden: Erleben wir bald eine zur Stabilisierung ausgerichtete Länderverschiebung in kühlere Zonen?
Während zum Ende der Römerzeit die einbrechenden Völker teils aus dem kalten Norden kamen, kommt es nun umgekehrt? Auch hierzu ließen sich schon aktuell Tendenzen erkennen.

Eine Alternative ist es natürlich auch, die Wahlen einfach abzuschaffen, um sich so (als Partei) dem destruktiven Einfluss des Klimawandels zu entziehen. Dem stehen in vielen Ländern noch alte Gesetze entgegen. Aber was unsere Berliner Parteienlandschaft mit ihren Einheits-Meinungs-Koalitionen beginnt und die 100 % Zustimmung ohne Enthaltung oder Gegenstimme zum Klimavertrag beweist, ist ein unmissverständlicher Hinweis auf die Mauern, welche zum Schutz vor dem Klimawandel um die Politburg Berlin errichtet werden. Wenn der Wähler wählen kann was er will und als Ergebnis trotzdem immer das Gleiche herauskommt, ist das Klimawandelproblem auch als gelöst zu betrachten.

Fazit
Wieder ist der renommierter Klimawissenschaft durch konsequentes Anwenden computergestützt-statistischer Methoden ein Erkenntnis-Meilenstein gelungen. Und es ist ein Treppenwitz der Geschichte, dass ausgerechnet die Partei Obamas – der mit Eifer und unermüdlichem, auch finanziellem Einsatz (von Staatsmitteln) – die Welttemperatur verringern wollte, als Erste von den Auswirkungen betroffen ist.
Die EIKE-Leser sind eine der Ersten, welche davon erfahren. Der Autor erwartet ein Lob dafür.

Quellen

[1] climate news network, November 3, 2016: Politicians feel heat from rising temperatures
http://climatenewsnetwork.net/politicians-heat-rising-temperatures/

[2] Nick Obradovich, 2016/3/12: Climate change may speed democratic turnover




Papst warnt Trump: Ziehen Sie sich nicht aus dem UN-Klima-Pakt zurück – ruft eine ,Krise des Klimawandels‘ aus

Marc Morano
Papst Franziskus hat eine direkt an den gewählten Präsidenten Trump gerichtete Botschaft bzgl. des Klimawandels geschickt. Der Papst drängt Trump darin fast unverhohlen, die USA nicht aus dem UN-Paris-Abkommen zurückzuziehen. Kritiker sagen von diesem Abkommen, dass es „das teuerste Abkommen der Geschichte sei mit Kosten zwischen 1 und 2 Billionen jährlich“ <a href= „http://www.climatedepot.com/2016/10/17/un-paris-climate-deal-is-likely-to-be-historys-most-expensive-treaty-cost-of-between-1-trillion-and-2-trillion-annually/“target=“_blank“>(hier)</a>.

Papst Franziskus warnte vor der „Krise des Klimawandels“. Die „Zerfahrenheit oder Verzögerung beim Inkraftsetzen globaler Abkommen bzgl. der Umwelt zeigt, dass sich die Politik einer Technologie und Ökonomie unterordnet, die Profit über alles andere stellt“, sagte Franziskus in etwas, das Reuters als „eine direkt an Trump gerichtete Botschaft“ bezeichnet.

Trump hat angekündigt, die USA aus dem UN-Paris-Abkommen zurückzutreten sowie die Finanzzuwendungen an den UN-Klimaprozess einzustellen und sich daraus zurückzuziehen. Siehe hier.

In seiner Rede vor einer Gruppe von Wissenschaftlern, darunter der Physiker Stephen Hawking, führte der Papst aus, dass Wissenschaftler „frei von politischen, ökonomischen oder ideologischen Interessen arbeiten sollten; dass sie ein kulturelles Modell entwickeln, welches man dem Klimawandel und dessen sozialen Konsequenzen entgegen stellen kann“. Zuvor hatte der Papst die Katholiken dringend aufgefordert, für ein UN-Klimaabkommen zu beten. Der Papst verlangt nach Gebeten zur Annahme des UN-Klimavertrages! Er drängt die Gläubigen „Gott um ein positives Ergebnis“ für das Paris-Abkommen zu bitten (hier).

Papst Franziskus rief auch nach einer „ökologischen Transformation, die nachhaltige Entwicklung stützen und vorantreiben soll“. Im Jahre 2015 erließ der Papst eine Enzyklika zu Klima und Umwelt mit dem Titel „Laudato Si: Über die Sorge für das gemeinsame Haus“.

Ein Special Report von Climate Depot enthüllt den inneren Klimakreis des Papstes. Siehe ,Unheilige Allianz – wie Radikale Papst Franziskus zum Thema Klima beraten‘ (hier).

In dem Report heißt es: „Der Vatikan verließ sich auf Berater, die die extremsten Elemente in der Debatte um die globale Erwärmung sind. Diese Klimaberater stehen so weit außerhalb des Mainstreams, dass selbst einige ihnen folgende Klimaaktivisten Bauchschmerzen haben … Die Vatikan-Berater können nur als ein Gebräu antikapitalistischer Eintreiber beschrieben werden, die pro Bevölkerungskontrolle sind und keinerlei Abweichlertum zulassen, und die sogar noch außerhalb des Globale-Erwärmung-Establishments stehen“.

Ebenfalls im Jahre 2015 veröffentlichte Climate Depot den Bericht The Climate Skeptic’s Guide To Pope Francis’: Talking Points About The Pope & Global Warming. Siehe auch Pope is a ‘climate lobbyist’ – Listen: Morano: ‘Pope is serving as chief religious lobbyist for man-made global warming & UN’.

Klimaexperten, die sich das UN-Klimaabkommen genauer angeschaut haben, geben Trump recht, es aufzugeben. Der dänische Statistiker Björn Lomborg schrieb: „Trumps Klimaplan könnte am Ende doch nicht so schlecht sein“ (hier). Er fügte hinzu, falls Trump sich aus dem UN-Vertrag zurückzieht, „wird dies das Anstreben einer teuren Sackgasse beenden“ (hier), weil selbst wenn man die Klimabehauptungen der UN akzeptiert, das Abkommen „praktisch keinen Einfluss auf steigende Temperaturen haben wird“.

Der Geologe Dr. Robert Giegengack von der University of Pennsylvania hat ebenfalls angemerkt: „Keine der Verfahren, die die US-Regierung, die EPA oder sonst jemand ins Spiel gebracht hatte, hat auch nur im Entferntesten die Chance das Klima zu ändern, falls es wirklich von CO2 kontrolliert wird“.

Anmerkung von Climate Depot: „In Laiensprache übersetzt: Alle der so genannten ,Lösungen‘ des Problems globale Erwärmung sind rein symbolischer Natur, wenn es um das Klima geht. Falls wir also tatsächlich vor einer Klimakatastrophe stünden und uns auf das UN-Klimaabkommen verlassen müssten, wären wir alle dem Untergang geweiht!“.

Franziskus sah sich erheblicher Kritik ausgesetzt wegen seines Klima-Aktivismus‘, sowohl innerhalb des Vatikans als auch von außerhalb.

Siehe auch:

No Consensus inside the Vatican: Skeptical Vatican Cardinal takes a swing at Pope’s climate encyclical: The Catholic Church has ‘no particular expertise in science’ – The Vatican’s financial chief, Cardinal George Pell,

Flashback: Fox’s Andrew Napolitano: Pope Francis is ‘somewhere between a communist with a lowercase ‘c’ and a Marxist with an uppercase ‘M’.

Der Klima-Statistiker Dr. Matt Briggs äußerte sehr direkt seine Kritik an des Papstes Klimabehauptungen. „Der Papst liegt falsch hinsichtlich der globalen Erwärmung“, erklärte Briggs (hier).

Der Papst erklärte, dass es ,traurig sei, ja ich würde sogar sagen katastrophal‘, wenn Einzelinteressen über das Große Ganze bei der bevorstehenden Klimakonferenz in Paris stehen. Ich würde sagen, es wäre noch trauriger, wenn wir den Politikern sogar noch mehr Kontrolle überlassen würden als sie schon haben, um ein Problem zu lösen, das gar nicht existiert. Das würde wirklich die Armen treffen. Warum also glaubt der Papst an all diese nachweislich falschen Dinge? Schlechter Rat!“, schrieb Briggs im Jahre 2015.

Weitere Links: 

Special Report: ‘Unholy Alliance’ – Exposing The Radicals Advising Pope Francis on Climate

Flashback: The Climate Skeptic’s Guide To Pope Francis’: Talking Points About The Pope & Global Warming

Pope is a ‘climate lobbyist’ – Listen Now: Morano: ‘Pope is serving as chief religious lobbyist for man-made global warming & UN’

Am 23. September 2015 gab Morano ein Interview bzgl. des Papstes auf SRN News. Es dauerte 10 Minuten und kann hier abgehört werden. Darin sagt er: „Hierbei geht es ausschließlich um Ideologie und zentrale Planwirtschaft, und der Papst agiert jetzt als der religiöse Chef-Lobbyist für eine vom Menschen verursachte globale Erwärmung und für die UN. Und das ist eine sehr schlecht durchdachte Rolle für jedweden Papst. Man kann auch kaum sagen, dass der Papst benutzt wird, weil er es selbst zulässt, von den Medien und den UN als Klima-Lobbyist verwendet zu werden“.

Der Papst ein Lobbyist? Spricht Bittgebete, dass der UN-Klimavertrag durchkommt. Er sagt den Gläubigen, ,Gott um ein positives Ergebnis‘ für das UN-Abkommen in Paris zu bitten (hier). Wörtlich: „Wir Gläubige dürfen nicht scheitern, Gott um ein positives Ergebnis der gegenwärtigen Diskussionen zu bitten, damit zukünftige Generationen nicht unter den Auswirkungen unserer Verzögerungen leiden“. [Komisch! Die jetzt schon verbreitete Armut in der Welt scheint ihm dabei völlig egal zu sein. Anm. d. Übers.]

Kommentar von Marc Morano: „Egal wie nuanciert und pflichttreu diese Enzyklika für die katholische Lehre daherkommt – der Abschnitt, in dem der Papst die Katholiken drängt, ,Gott um ein positives Ergebnis zu bitten‘, wird jede andere Botschaft übertönen. Der Papst segnet einen bestimmten politischen UN-Klimavertrag und erklärt im Grunde, dass er sich auf einer göttlichen Mission befindet, ein UN-Klimaabkommen zu unterstützen. Er steht sogar hinter dem Konzept von Klima-,Kipp-Punkten‘. Siehe hier.

Eine Umfrage von Bloomberg macht deutlich, dass 56% aller Katholiken in den USA den ,Klimawandel‘-Vorstoß des Papstes als einen ,schlechten Weg‘ für die Kirche ansehen. Nur 33% glauben, dass es ein ,guter Weg‘ ist. Siehe hier und hier.

Studie: Päpstliche Enzyklika scheitert dabei, Katholiken bzgl. des ,Klimawandels‘ zu inspirieren (hier). „Während Papst Franziskus‘ Umweltaufruf die Bedenken einiger Individuen hinsichtlich Klimawandel hat zunehmen lassen, gerät er unter Feuer von konservativen Katholiken und Nicht-Katholiken, die nicht nur die Botschaft selbst zurückwiesen, sondern auch ihren bereits bestehenden Glauben verteidigten, dem zufolge die Glaubwürdigkeit des Papstes bzgl. Klimawandel abgewertet wird“, sagt Nan Li, Leitautor der Studie.

Podesta Emails: ‘Pope Is the Real Deal’ on Climate

Des Papstes Boss?! Wikileaks enthüllt: Der Papst und Soros haben eine unheilige Allianz zu ,Global‘ geschmiedet (hier): „Im Jahre 2015 haben im Vatikan eingeschleuste Agenten von Soros die Umwelt-Agenda von Papst Franziskus gesteuert, indem sie Soros und den UN einen apostolischen Warnruf bzgl. Klimawandel haben zukommen lassen sowie eine wertvolle päpstliche Unterstützung der UN-Ziele nachhaltiger Entwicklung und den apostolischen Segen des Papstes für den Klimavertrag von Paris. Soros gewann das Umwelt-Dreigespann versiegelt und geliefert von Papst Franziskus“.

Papst-Macher? Die Partner des Soros-Syndikats im Vatikan stützen die UN-Klimaagenda (hier): Am 13. März 2013 haben Soros und seine UN-Funktionäre verstanden, welche Gelegenheiten das Thema Klima augenblicklich mit dem linken argentinischen Papst boten. George Soros hätte sich keinen perfekteren Partner auf der Weltbühne wünschen können, nach welchem er während seiner gesamten Karriere gesucht hatte: einen großen religiösen Führer, der als moralische Autorität herhalten kann für Umwelt, grenzenlose Länder, Massenauswanderung und pro-islamischer Bewegungen.

Leonardo DiCaprio stimmt mit Papst Franziskus überein hinsichtlich der ,Notwendigkeit sofortiger Maßnahmen bzgl. Klimawandel‘ (hier).

Björn Lomborg: Beim Thema Klimawandel hört Papst Franziskus nicht auf die Armen der Welt (hier): „Wer behauptet, für die Armen der Welt einzutreten und gleichzeitig sagt, dass Klimawandel die oberste Priorität der Welt ist, hat einfach unrecht. Die Welt hat deutlich zum Ausdruck gebracht, dass es an letzter Stelle der 16 Prioritäten steht, auf die sich die UN konzentrieren. Und wenn jene Propagandisten sagen, dass die Armen nicht wissen, was am besten für sie ist, weil Einschnitte bei Kohlenstoff die globale Erwärmung verhindern, die alle Probleme noch schlimmer macht, haben sie wieder unrecht. Den Armen ist allgemein viel besser mit direkten Hilfen gedient als via Klima-Hilfen“.

Kein Konsens innerhalb des Vatikans: Skeptischer Kardinal kritisiert die Klima-Enzyklika des Papstes: Die katholische Kirche hat ,keine sonderliche Erfahrung mit Wissenschaft‘ (hier).

Der für Finanzen zuständige Kardinal George Pell hat in einem ungewöhnlichen Schritt die grundlegende Umwelt-Enzyklika des Papstes kritisiert (hier). Seine Argumentation: Die katholische Kirche habe „keine besondere Erfahrung mit Wissenschaft“. Fast 18 Monate, nachdem Pell von Papst Franziskus in den Vatikan berufen und mit der Aufgabe betraut wurde, die Finanzen des Vatikans zu reformieren, gab der australische Kardinal der Financial Times ein Interview, in dem er das grundlegende Dokument seines Chefs angriff. „Sie enthält viele, viele interessante Elemente. Es gibt darin auch wirklich schöne Abschnitte“, sagte er. „Aber die Kirche hat keine besondere Erfahrung mit Wissenschaft … die Kirche hat von Gott nicht das Mandat erhalten, sich zu wissenschaftlichen Dingen zu äußern. Wir glauben an die Autonomie der Wissenschaft“, sagte Pell der Financial Times.

Kardinal George Pell zur globalen Erwärmung: „Falls es Wissenschaft ist – wo sind die Beweise? (hier).

Alle Achtung! Ein religiöser Führer hat es verstanden! Rückschau 2006: der katholische Kardinal George Pell: „in der Vergangenheit haben Heiden Tiere und sogar Menschen geopfert in vergeblichen Versuchen, kapriziöse und grausame Götter gnädig zu stimmen. Heute verlangen sie eine Reduktion von CO2-Emissionen“ (hier).

Claim: Pope Francis Part of Amicus Brief Filed in Support of Teen’s Landmark Climate Change Lawsuit

Ansehen: Ein Video von Klima-Aktivisten auf einer päpstlichen Veranstaltung in Washington DC enthüllt, dass sie nicht an Gott glauben – „ich stehe den Natur-Religionen näher“ (hier): Was am besten ist, die meisten Anwesenden glauben nicht einmal an Gott! Und sie waren mit Sicherheit nicht überzeugt durch die Haltung des Papstes beim Thema Klima, um kritischer zu sein hinsichtlich anderer Glaubensdinge und der katholischen Lehre wie etwa das Thema Abtreibung. Falls der Papst und der Vatikan glauben, dass sie mit einem Schritt näher zu den Linken bzgl. Klimawandel die Menschen offener für andere Themen von Glauben und Moral machen, liegen sie einfach falsch“.

Die Zeitung The Sun in UK: Papst Franziskus begeht einen ,heiligen Fehler‘ – es geht ihn nichts an, sich in die Klimawandel-Debatte einzumischen – ,Bleiben Sie bei Religion, Eure Heiligkeit‘ (hier).

Der Klimatologe Dr. John Christy aus Alabama: „Ich würde dem Papst einige Hausaufgaben zu globaler Erwärmung aufgeben – Vorschriften werden tatsächlich nichts dazu tun zu ändern, was das Klima macht“ (hier).

„Wir haben niemals in besseren Zeiten gelebt“, sagt der australische Geologe Dr. Ian Pilmer. „Himmel und Hölle, der Papst verdammt die Armen zu ewiger Armut“ (hier): Dieses Buch kritisiert die Enzyklika und zeigt, dass wir niemals in besseren Zeiten gelebt haben, dass wir billige fossile Energie haben und dass hunderte Millionen Menschen aus bäuerlicher Armut in die Mittelklasse aufsteigen und dass die vermeintliche gefährliche globale Erwärmung ein Mythos ist. Es reicht schon, wenn Kinder der Dritten Welt nachts ihre Hausaufgaben machen können mittels billigen Kohlestroms, um aus der Armut zu entkommen“.

Papst Franziskus, Vatikan-Funktionäre und Klimaskeptiker haben einen gemeinsamen Feind: die Agenda der UN zur globalen Erwärmung (hier).

UN Armed Security Shuts Down Skeptics After Trump Event – SHREDDED UN Climate Treaty at Summit – Ein ganzes Video, wie UN-Klimapolizisten Skeptiker zum Schweigen bringen

Climate Report to UN: Trump right, UN wrong – Skeptics Deliver Consensus Busting ‘State of the Climate Report’ to UN Summit

Trump wins U.S. Presidency! Climate Skeptics Rejoice! Set to dismantle & Defund UN/EPA climate agenda!

Link: http://www.climatedepot.com/2016/11/29/pope-warns-trump-do-not-back-away-from-un-climate-pact-pope-declares-crisis-of-climatic-change/

Übersetzt von Chris Frey EIKE




OPEC kürzt Fördermengen, US-Schieferindustrie jubelt

Die Financial Times berichtet:

Zwar wurde auf dem Treffen die Eigenständigkeit jedes individuellen Landes betont, aber informierten Kreisen zufolge seien die Haupthindernisse für einen solchen Deal überwunden. Man wird sehen, dass die aus 13 Mitgliedern bestehende Gruppe die Förderung um etwa 4,5 Prozent oder 1,2 Millionen Barrel pro Tag kürzen wird, mit Förderungsquoten für jedes einzelne Mitgliedsland. (…)

Es wird erwartet, dass Saudi Arabien die Hauptlast jedweder Kürzung der Förderung tragen wird, gemeinsam mit seinen Alliierten am Golf. Von Iran wiederum wird erwartet, dass es die Förderung bei etwa 3,8 Barrel pro Tag einfrieren wird, was nahe der jetzigen Rate liegt.

Das Kartell hofft, dass diese Maßnahmen die Rohöl-Flut eindämmen wird, die Auslöser dieses Preis-Kollapses war, und dass am Markt eine Erholung der Preise induziert wird. Man sieht bereits erste Anzeichen der Erholung im derzeitigen Handel – Öl der Sorte Brent stieg um über 8% auf 50 Dollar pro Barrel, während der US-Vergleichswert um über 3,50 Dollar bis knapp 49 Dollar pro Barrel stieg.

Aber zwei große Fragen harren immer noch der Antwort. Die erste Frage lautet: Wie stark werden sich die Preise aufgrund der OPEC-Maßnahmen erholen (und Russlands potentielle Kooperation)? Dies ist von kritischer Bedeutung für die Ölstaaten des Kartells, die sich allesamt eine Rückkehr zu Preisen über 100 Dollar pro Barrel wie in alten Zeiten wünschen. Viele OPEC-Mitglieder weisen mit den gegenwärtigen Preisen große fiskalische Defizite auf: Saudi Arabien braucht einen Ölpreis über 79 Dollar, um weiter schwarze Zahlen schreiben zu können; Iran braucht einen Preis von 55 Dollar, Algerien, Bahrain, die VAE und Libyen brauchen jeweils 87, 95, 71 und 195 Dollar.

Seit über 2 Jahren hat die OPEC unter Führung der Saudis es abgelehnt zu intervenieren, um die Preise zu stabilisieren. Stattdessen zogen sie es vor, um einen Anteil am übersättigten Markt zu kämpfen. Die Tatsache, dass das Kartell sich jetzt bewegt zeigt, wie wichtig es für diese Ölstaaten ist, höhere Preise für ihre überlebenswichtigen Exporte zu erzielen. Das bringt uns zurück zu dieser ersten Frage: Wie stark werden sich diese Kürzungen auf den Markt auswirken?

Die Antwort hierauf hängt größtenteils von der zweiten großen Unbekannten in dieser Rechnung ab, nämlich von der Reaktion der US-Schieferindustrie. Wie schnell sind die Fracker in den USA in der Lage, sich an steigende Preise anzupassen mittels Hochfahren ihrer eigenen Erzeugung? Vor zwei Jahren hatten Analysten erwartet, dass diese Art Förderung abstürzt, wenn der Ölpreis unter 75 Dollar pro Barrel sinkt. Aber die Schiefer-Produzenten haben die Welt mit ihrer Fähigkeit überrascht, Kosten zu senken und das Rohöl auf einen ungünstigen Markt fließen zu lassen, eingezwängt in den Schmelztiegel von Ölhandelspreisen:

In Schiefer-Feldern von Texas bis nach North Dakota haben sich die Produktionskosten seit dem Jahr 2014 in etwa halbiert. Damals hatte Saudi Arabien ein für alle kostenloses Output signalisiert, um die Schieferproduzenten aus dem Markt zu drängen. Anstatt die US-Schieferindustrie zu töten, machte der zweijährige Preiskrieg diese jedoch zu einem immer stärkeren Rivalen, selbst in der gegenwärtigen Niedrigpreis-Umgebung. (…)

Der Preis, um im Bakken-Schiefer-Feld kostendeckend zu produzieren, ist auf 29,44 Dollar im Jahre 2016 gesunken, 2014 waren es noch 59,03 Dollar. Dies gibt die Beratungsagentur Rystad Energy bekannt. Sie fügte hinzu, dass Bakken-Schiefer das wettbewerbsfähigste aller großen US-Schieferfirmen ist. Wood Mackenzie sagte, dass technologische Fortschritte die Kostendeckung weiter zurückgehen lassen sollten.

Und daher – während die OPEC und im Besonderen Saudi Arabien in den sauren Apfel beißen und diese Produktionskürzungen einräumt, stehen die Erzeuger in der gesamten übrigen Welt bereit, von einem Preissprung zu profitieren. Hier in den USA dürfte dies einen korrespondierenden Anstieg bedeuten, da immer mehr Bohrfelder profitabel werden. Das würde eine Verknappung der globalen Verfügbarkeit verhindern, welche die OPEC zu erreichen trachtet. Damit geht die Auswirkung dieser Kürzung gegen Null, während gleichzeitig amerikanischen Erzeugern geholfen wird, einen größeren Anteil am globalen Markt zu bekommen.

Das ist der Grund, warum Riad so widerspenstig war, Kürzungen zuzustimmen. Das Ausmaß, in dem US-Schieferfirmen in der Lage sind, von steigenden Preisen zu profitieren, wird darüber entscheiden, wie erfolgreich diese widerwillige Änderung der Taktik der Ölstaaten sein wird.

Link: http://www.the-american-interest.com/2016/11/30/opec-cuts-output-us-shale-rejoices/

—————————————–

Auch bei Forbes steht etwas dazu. Kurzfassung:

Schiefer-Kriege: Wohin steuern die Ölpreise, nachdem Saudi Arabien die große Verdrängungs-Wette losgetreten hat?

Bisher ist eines der teuersten Experimente aller Zeiten Saudi Arabien mit etwa 200 Milliarden Dollar zu stehen gekommen. Die saudische Regierung hat seinen massiven Staatsfonds in Höhe von 2 Billionen Dollar angezapft, um Einkommensverluste wegen des Ölpreis-Kollapses während der letzten Jahre auszugleichen. Wir werden Zeuge eines zweiteiligen Tests. Die erste Frage lautet, was Amerikas Schiefer-Industrie zu diesem Preisverfall beigetragen hat. Daraus ergibt sich die zweitere und weitaus kritischere Frage aus diesem Experiment: Wird die Schiefer-Industrie angesichts steigender Ölpreise mit Getöse zurückkehren? Falls dies der Fall ist, gehören hohe Preise der Vergangenheit an. Es steht zu erwarten, dass wir im kommenden Jahr bereits erkennen werden – ebenso wie die Ölprinzen in Arabien – wohin die Reise geht.Wohin auch immer sie gehen mag, die ökonomischen und geopolitischen Implikationen sind enorm. Und das Ergebnis ist mehr von Technologie abhängig als von Politik – Mark P. Mills, Forbes, 30 November 2016

Alles Übersetzt von Chris Frey EIKE




EPA – zum Zweiten: Trump könnte auch jemand total unerwarteten vorschlagen

Update der Redaktion von heute:

Der zukünftige Präsident ist bekanntlich ein Mann schneller Entschlüsse. Soeben kommt die Nachricht in der FAZ:

Scott Pruitt

Trump macht Klimaschutz-Gegner zum Chef der Umweltbehörde

Obamas Plan für saubere Kraftwerke hat er als „Krieg gegen Kohle bezeichnet.“ Nun soll Oklahomas Chefankläger eine Behörde übernehmen, die Trump ein Dorn im Auge ist.

Wir begrüßen diese Entscheidung und erhoffen uns Auswirkungen auch auf die Politik hierzulande. Der gehen die Verbündeten von der Fahne!

Artikel

Van der Vaart ist ein PhD Chemieingenieur, zurzeit Leiter des North Carolina Department of Environmental Quality. Falls er vom Kongress ernannt und zugelassen wird, wäre Van der Vaart der erste PhD-Wissenschaftler, der die EPA leitet. Auch hat er Jura studiert.

Vita Van der Vaart:

Dr. der Chemie, University of Cambridge (England),

Abschluß in Rechtswissenschaft, North Carolina Central University,

Master’s degree in Chemical Engineering from N.C. State University,

Bachelor’s degree in Chemie, University of North Carolina at Chapel Hill.

Zugelassener Professional Engineer und Anwalt in North Carolina.

Er publizierte mehrere technische und rechtliche Ausarbeitungen und hält zwei Patente.

Quelle: https://deq.nc.gov/about/leadership/secretary

Nach gut unterrichteten Quellen in der Nähe von Trumps-Übergangsteam sagte van der Vaart: „Er würde den über das Ziel hinausschießenden Vorschriften ein Ende machen und auch der sogenannten „Geheimwissenschaft„, auf die sich EPA stützt um immer strengere Regeln gegen Unternehmen durchzudrücken.

„Er kann diese Dinge selbst beurteilen“, so der Informant des Daily Caller und van der Vaart wäre kritisch gegenüber jeder wertlosen Wissenschaft, die aus der Umweltbehörde kommt.

Van der Vaart war ein deutlich zu vernehmender Kritiker der EPA als Top-Regulierer der Umweltbehörde von North Carolina, vor allem in Bezug auf den Clean Power Plan (CPP) und die „Gewässer der Vereinigten Staaten“ -Regulierung. Die Aufhebung dieser beiden Regulierungen ist für Trump oberste Priorität.

„Er versteht, dass der Zeitverbrauch und die Mühe von Papierkram, um Vorschriften zu entsprechen, die nichts erreichen, um unsere Umwelt zu verbessern, Ökonomiekiller sind“, erklärte Chris Millis, ein Anhänger van der Vaarts, gegenüber The DC.

Van der Vaart schloss sich einer Koalition von Staaten an, die gegen den CPP verstoßen, der gegen das Bundesgesetz verstößt und war Unterzeichner neben anderen auf einem Brief, der den designierten Präsidenten Trumpf bat, das EPA zu zügeln und Aktivisten davon abzuhalten, die Agenda der EPA durchzusetzen.

„Unser Land braucht eine Umweltbehörde, aber nicht die der letzten Jahre“, heißt es im Brief von fünf obersten Umwelt-Aufsichtsbehörden. „Wir brauchen Forschung, die auf unsere spezifischen, klaren ökologischen Herausforderungen ausgerichtet ist. Dies kann am besten durch Koordinierung von Initiativen auf Branchenebene erfolgen, die über Ländergrenzen hinweggehen, die durch messbaren Erfolg definiert werden können. Wir müssen der Idee ein Ende setzen, dass immer mehr Regulierung immer gut ist und stattdessen staatlichen und lokalen Experten erlauben, die Umwelt zu verbessern.“

Van der Vaart schickte auch einen Brief an die derzeitige EPA – Leiterin, Gina McCarthy, indem er sie darum bat, aufzuhören, „Mitternachts“ -Verordnungen rauszugeben, die am Ende Milliarden von Dollar kosten und von Trump gekippt werden könnten.

„Ich bin sicher, dass, wenn er als Chef der EPA gewählt werden würde, er ein starker Befürworter der Politik von Präsident Trump wäre, um amerikanische Unternehmen verantwortungsvoll zu entflechten und in der Lage wäre, Anreize für Wachstum zu schaffen“, sagte Millis.

Die Top-zwei Kandidaten, die [zum Zeitpunkt der Recherchen des Daily Caller] für den Chefposten der EPA geprüft werden, sind die ehemaligen Texas Regulierer Kathleen Hartnett White und Oklahoma Attorney General Scott Pruitt, basierend auf Medienberichten, die Trump interviewt hatten.

Es ist schwer zu sagen, ob van der Vaart zu Trumps engerer Kandidatenliste gehört, aber einige in seinem Team handeln immer noch seinen Namen. Unterrichtete Quellen sagten der The Hill Newspaper „Trump und sein Team neigen nicht zu ihm.“

Van der Vaart ist jedoch der Meinung, er wäre eine gute Wahl, um die EPA zu führen.

„Ich würde mich geehrt fühlen, in der Trump-Administration zu dienen“, sagte van der Vaart dem Daily Caller. „Ich glaube, dass meine wissenschaftliche und juristische Expertise, zusammen mit mehr als 20 Jahren Erfahrung in Umwelt und staatlichen regulatorischen Arbeit, mich einzigartig qualifiziert für die Position des Leiters der Umweltbehörde.“

Trump wird voraussichtlich in der kommenden Woche seine Entscheidung darüber bekannt geben, wer die EPA führen wird.

Gefunden auf The Daily Caller vom 04.12.2016

http://dailycaller.com/2016/12/04/trump-could-appoint-someone-totally-unexpected-to-head-epa/

*************

The Hill Newspaper nennt insgesamt nun fünf Kandidaten für den wichtigen Posten des Umweltministers:

Bericht Timothy Cama vom 04.12.2016

Kathleen Hartnett White

Sie ist gegenwärtig Direktorin des Zentrums für Energie und Umwelt in Texas und eine ehemalige Vorsitzende der Kommission für Umweltqualität in Texas von 2001 bis 2007.

White schrieb, dass Kohlendioxid das am meisten emittierte Treibhausgase ist, „das Gas, das das Leben auf der Erde und das Pflanzenwachstum möglich macht“ und egal „ob aus der menschlichen Nutzung fossiler Brennstoffe oder als natürliches (und notwendiges) Gas in die Atmosphäre rund um die Erde abgegeben wird, Kohlendioxid hat keine Attribute eines Schadstoffes.“

Quelle Texas Public Policy Foundation

Bilduntertext: Kathleen Hartnett White, eine Klima-Wandel-Leugnerin, ist im Gespräch für den Posten der Leitung der Umweltbehörde EPA. [Aha, daher weht der Wind, der Übersetzer]

Scott Pruitt

Pruitt, der republikanische Generalstaatsanwalt von Oklahoma, gilt als weiterer Spitzenkandidat. Er ist ehemaliger Staatssenator und seit 2011 Oklahomas Top-Anwalt.

„Dies ist ein Bestreben, das ich für außergewöhnlich in den Kosten halte, außergewöhnlich im Geltungsbereich, und ich denke es ist außerordentlich, wie es sich in die Souveränität der Bundesstaaten drängt“, sagte Pruitt vor kurzem zum Clean Power Plan.

Quelle https://www.ok.gov/oag/

Stimmen gegen White und Pruitt

Scientific  American, Klima vom 30.11.2016

Können die Demokraten Trumps Nominee für die EPA verhindern?
Ein Kandidat, der nicht an Wissenschaft glaubt, wäre „eine sehr gefährliche Person“

„Ich denke, dass dies eine monumentale globale Krise ist, die wir mit der kommenden Trump-Administration haben, die offensichtlich den Klimawandel als Schwindel bezeichnet und sich mit Leuten umgibt, die den größeren Konsens über den Klimawandel verraten“, sagte Senator Cory Booker (Demokrats, New Jersey). „Ich denke, wir haben eine wirkliche Krise.“

Vorschläge der Demokraten, dass sie den Bestätigungsprozess nutzen könnten, um eine öffentliche Verhandlung über die künftige Führung der EPA zu erreichen, kamen einen Tag später, nachdem Trump mit Scott Pruitt (R) und Kathleen Hartnett White gesprochen hatte.

https://www.scientificamerican.com/article/can-democrats-block-trump-rsquo-s-epa-nominee/

Jeff Holmstead

Holmstead leitete die Abteilung Luftverschmutzung der EPA unter Präsident George W. Bush.

Bis vor kurzem arbeitet er bei der Rechts- und Lobbyfirma Bracewell, bei der er für zahlreiche Energieunternehmen Lobbyarbeit geleistet hat. Er teilte dem Kongress kürzlich mit, dass er diese Unternehmen nicht mehr vertritt.

Holmstead wäre die Wahl eines Insiders, jemand mit umfangreicher Erfahrung bei der EPA, ein Kontrast zu der Außenseiter-Mentalität, die Trump projiziert hat.

Quelle Bridget Mulcahy auf politico.com; Bild Jeff-Holmstead

Medienstimme Politico.com : In Kampf gegen Obamas Klima Plan

Darren Samuelsohn am 07.07.2015

Interviewer Darren Samuelsohn: Ist dies die größte Regulierung, die EPA jemals erlassen hat?

Jeff Holmstead: Es kommt darauf an, wie Sie es sehen. Es wird nicht die teuerste sein. Ich meine, im Vergleich zur Regulierung des Ozons. Es kann nicht so teuer sein wie die MATS [Quecksilber- und Lufttoxik] -Regulierung. Aber in Bezug auf den Ehrgeiz der Behörde, die Art und Weise wie Strom produziert und verwendet wird in den Vereinigten Staaten, ist es wirklich sehr außergewöhnlich.

http://www.politico.com/agenda/story/2015/07/inside-the-fight-against-obamas-climate-plan-000134

Donald Van der Vaart

Van der Vaart wurde gelegentlich als potentialler Chef der EPA genannt, Quellen sagen jedoch, dass Trump und sein Team nicht zu ihm neigen.

Bericht siehe oben, The Daily Caller

Myron Ebell

Ebell ist einer der angesagtesten Klimawandel-Skeptiker im Beltway und leitet Trumps Übergangsteam für die EPA. Das hat für viele dazu geführt, ihn als Hauptkandidat für die Umweltbehörde zu sehen.

Eike berichtete bereits hier

Zusammengestellt und übersetzt von Andreas Demmig




Politisierung der Klimawissenschaft ist kein neues Phänomen

Im Jahre 1988 riefen die Vereinten Nationen, eine politische Institution, die globale Erwärmungsberichte schreibende Unternehmung Intergovernmental Panel on Climate Change (IPCC) ins Leben. Das IPCC wurde gegründet mit der Aufgabe, politische Agenden zu stützen. Und im Jahre 1995 korrumpierte die Politik die Klimawissenschaft, als Politiker die Sprache des Zweiten IPCC-Zustandsberichtes änderten dergestalt, dass sie die von den Wissenschaftlern beschriebenen Unsicherheiten herausgestrichen haben. Bis auf den heutigen Tag kann die klimawissenschaftliche Gemeinschaft nicht wirklich unterscheiden zwischen der natürlichen und der anthropogenen globalen Erwärmung. Warum? Die in herangezogenen Studien verwendeten Klimamodelle können immer noch nicht Zustände der natürlichen Variabilität simulieren, die im multidekadischen Zeitmaßstab globale Erwärmung verursachen können.

Einführung

Der Skeptizismus von Donald Trump hinsichtlich einer vom Menschen verursachten globalen Erwärmung/Klimawandels war ein Konzentrationspunkt der Mainstream-Medien während der Wahlen in den USA. Das ist er immer noch in den Köpfen vieler Umweltaktivisten und ihren Verbündeten in den Medien. Eine Unmenge von Artikeln und Diskussionen wurde geschrieben bzw. gesendet, was die politische Natur der Klimawissenschaft für jedermann erneut sichtbar werden ließ.

Aber vor wie langer Zeit wurde die Klimawissenschaft politisiert?

Ich wurde an die Antwort auf diese Frage erinnert bei der Lektüre des jüngsten Blogbeitrags von Dr. Roy Spencer Global Warming: Policy Hoax versus Dodgy Science. Er beginnt diesen Beitrag so:

Anfang der neunziger Jahre besuchte ich den Wissenschaftsberater des Weißen Hauses Sir Prof. Dr. Robert Watson, der sich hochtrabend beweihräucherte, wie man doch erfolgreich den Gebrauch von Freon reguliert habe, um das Problem des Ozon-Abbaus zu lösen. Jetzt sei es das nächste Ziel, auch Kohlendioxid zu regulieren, von dem man zu jener Zeit glaubte, dass es die einzige Ursache für globale Erwärmung sei.

Ich war ein wenig begeistert ob dieses Verfahrens, den Karren vor das Pferd zu spannen. Es kam mir wirklich so vor, dass das politische Ziel in Stein gemeißelt werden sollte, und dass das neu gegründete IPCC jetzt die ziemlich dubiose Aufgabe hatte, die Wissenschaft zur Unterstützung dieser Politik zu erzeugen.

Die dubiose Aufgabe, die Wissenschaft zur Unterstützung von Politik zu erzeugen

Um Dr. Spencers Statement bzgl. des Karrens vor dem Pferd zu bekräftigen, werde ich einen Auszug aus der Einführung zu meinem über 700 Seiten starken Nachschlagewerk (ein Gratis-E-Buch) mit dem Titel On Global Warming and the Illusion of Control – Part 1 wiederholen. Dieser Auszug enthält Zitate der UN und des IPCC zusammen mit den Links zu den zitierten Websites. Unter der Überschrift [übersetzt] „Es ist ein Irrtum zu glauben, dass das IPCC eine wissenschaftliche Institution ist“ schrieb ich:

Das IPCC ist eine politische Einrichtung und nicht eine wissenschaftliche. Das IPCC leitet seine Eingangs-Paragraphen seiner History-Website mit den Worten ein (Hervorhebung von mir [Tisdale]):

Das IPCC wurde im Jahre 1988 ins Leben gerufen. Es wurde gebildet durch die Weltwetterorganisation WMO und durch das United Nations Environment Program (UNEP) aufgebaut, um auf der Grundlage aller verfügbaren wissenschaftlichen Informationen Zustandsberichte über alle Aspekte des Klimawandels und deren Auswirkungen zu erstellen mit Blick auf zu entwickelnde realistische Strategien, dem zu begegnen. Die ursprüngliche Aufgabe des IPCC, wie sie in der Resolution 43/53 des UN-Generalsekretariats vom 6. Dezember 1988 umrissen worden ist, war die Vorbereitung einer umfassenden Übersicht und Empfehlungen zu geben hinsichtlich des Status‘ des Wissens um die Wissenschaft vom Klimawandel; die sozialen und wirtschaftlichen Auswirkungen des Klimawandels sowie mögliche Strategien, dem zu begegnen, und Konzepte für die Inklusion in mögliche zukünftige internationale Konventionen bzgl. Klima.

Folglich ist das IPCC gegründet worden, damit es Berichte schreibt. Zugegeben, es sind sehr detaillierte Berichte; so sehr, dass kaum jemand diese Berichte zur Gänze liest. Von den wenigen Menschen, die das doch tun, lesen die meisten nur die ,Summary for Policymakers‘. Aber ist man sich der Tatsache bewusst, dass Politiker in wochenlangen Diskussionen jedem einzelnen Wort in dieser Summary zustimmen müssen? Die Wissenschaftler schreiben eine Vorlage für die Politiker, aber die Politiker debattieren über die Formulierung jedes einzelnen Satzes und ob dieser überhaupt in der Summary auftauchen sollte. Und jene wochenlangen politischen Debatten über die Summary for Policymakers finden unter Ausschluss der Öffentlichkeit statt.

Ebenso geht aus obigem Zitat hervor, dass der Inhalt der IPCC-Berichte dazu gedacht war, ein internationales Klimawandel-Abkommen zu unterstützen. Jener Vertrag aus dem Jahr 1992 ist bekannt unter der Bezeichnung United Nations Framework Convention on Climate Change (UNFCCC). Eine Ausgabe des UNFCCC gibt es hier. Unter der Überschrift von Artikel 2 – Objective – definiert das UNFCCC sein Ziel als die Begrenzung der Emission von Treibhausgasen (Hervorhebung von mir):

Die ultimative Objektive dieser Convention und jedweder damit in Beziehung stehender rechtlicher Instrumente, die zu übernehmen der Conference of Parties empfohlen wird, ist es, in Übereinstimmung mit den relevanten Vorschriften der Convention die Stabilisierung von Treibhausgas-Konzentrationen in der Atmosphäre zu erreichen auf einem Niveau, welches eine gefährliche anthropogene Interferenz mit dem Klimasystem verhindern soll.

Weil es die Objektive des UNFCCC-Vertrages ist, die Emissionen anthropogener Treibhausgase zu limitieren, und weil es das Ziel des IPCC ist, Berichte zu erstellen, die den Vertrag stützen, kann man mit einiger Sicherheit sagen, dass es die einzige Rolle des IPCC ist, wissenschaftliche Berichte zu erstellen, die die vermeintliche Notwendigkeit zur Begrenzung von Treibhausgas-Emissionen stützen. Hmmm. Könnte diese Vorgabe wissenschaftliche Untersuchungen und das Verständnis begrenzen?

Weiter unten im Einführungsabschnitt der History-Website des IPCC heißt es (Hervorhebungen von mir):

Heute ist es die Aufgabe des IPCC, definiert in den Principles Governing IPCC Work „… auf einer umfassenden, objektiven, offenen und transparenten Grundlage die wissenschaftlichen, technischen und sozio-ökonomischen Informationen abzuschätzen, die relevant sind hinsichtlich des Verständnisses der wissenschaftlichen Grundlage des Risikos eines VOM MENSCHEN INDUZIERTEN Klimawandels, dessen potentielle Auswirkungen und Optionen zur Anpassung und Abschwächung.

Die Tatsache, dass das IPCC all seinen Bemühungen auf das „Verständnis der wissenschaftlichen Basis der Risiken des vom Menschen verursachten Klimawandels“ konzentriert hat, ist sehr bedeutsam. Das IPCC hat niemals ernsthaft versucht zu bestimmen, ob nicht natürliche Faktoren für den größten Teil der Erwärmung verantwortlich sind, zu der es auf der Erde im vorigen Jahrhundert gekommen war. Jahrzehnte lang hat man dort Scheuklappen aufgesetzt, welche ihre Übersicht zu allem und jedem blockiert haben – außer zu den hypothetischen Auswirkungen von Kohlendioxid. Die Rolle des IPCC war es immer gewesen, Berichte zu erstellen, die die Reduktion von Treibhausgasen stützen, die bei der Verbrennung fossiler Treibstoffe entstehen. Die Folge hiervon ist, dass alle Forschungsgelder ausschließlich in diesen Bereich fließen. Die Entscheidung, nur die vom Menschen verursachte globale Erwärmung zu untersuchen, ist eine politische Entscheidung, keine wissenschaftliche Entscheidung. Und es ist eine furchtbare Entscheidung.

Als Folge dieser politischen Entscheidung gibt es kaum wissenschaftliche Forschungen, die versuchen, realistisch zu ermitteln, wie viel der Erwärmung natürlichen Faktoren zugeordnet werden kann. Wir wissen, dass diese Tatsache besteht, weil die jetzige Generation von Klimamodellen – bisher die komplexesten jemals – immer noch nicht natürlich auftretende Ozean-Atmosphäre-Prozesse simulieren können, die eine Erwärmung der Erdoberfläche (und der Tiefen der Ozeane) über multidekadische Zeiträume bzw. deren Beendigung mit sich bringen können. Skeptiker haben dieses wiederholte Scheitern oftmals in Blogbeiträgen beschrieben, und ich selbst habe sogar ein Buch über dieses Scheitern geschrieben mit dem passenden Titel Climate Models Fail.

(Ende Auszug)

Sogar noch dubioser: Verbiegen der Wissenschaft zur Unterstützung der Politik

Weiß man eigentlich, dass Politiker den Text des 2. IPCC-Zustandsberichtes überarbeitet haben, wobei sie den Entwurf der Wissenschaftler drastisch veränderten? Hier folgt noch einmal ein Auszug aus meinem frei verfügbaren E-Book On Global Warming and the Illusion of Control – Part 1. Der Auszug steht im Kapitel mit der Überschrift [übersetzt] Die Evolution der Bewegung der katastrophalen anthropogenen globalen Erwärmung:

Während es frühe wissenschaftliche Studien gab, die auf einen möglichen Temperaturanstieg in Verbindung mit den Emissionen von anthropogenen Treibhausgasen hinwiesen, wollen wir diese Diskussion beginnen mit der Bildung des Berichte schreibenden Flügels der UN mit der Bezeichnung Intergovernmental Panel on Climate Change (IPCC). Wie oben erwähnt war es die primäre Aufgabe des IPCC, Berichte zu erzeugen, die die Agenden der Politiker stützen. Die Begrenzung der globalen Erwärmung war wahrscheinlich einer dieser Schwerpunkte, aber höchstwahrscheinlich gab es auch noch viele andere.

Die Politiker fanden Wissenschaftler, die jene Berichte schrieben – und damit begann die gegenseitige sehr vorteilhafte Beziehung zwischen Klimawissenschaftlern und Politikern. Die Politiker wollten für ihre Agenden wissenschaftliche Stützung, und die Wissenschaftler waren nur zu gerne dazu bereit, weil den Politiker die Verteilung Gelder für Klimaforschung oblag.

Der erste IPCC-Bericht 1991 war wenig aufschlussreich dahingehend, dass die Wissenschaftler nicht zwischen anthropogener und natürlicher Erwärmung unterscheiden konnten…

Anmerkung für diesen Beitrag: Die Summary for Policymakers im 1. IPCC-Zustandsbericht steht hier. Dort heißt es:

Die Größenordnung dieser Erwärmung ist im Großen und Ganzen konsistent mit den Prophezeiungen der Klimamodelle, aber sie weist auch die gleiche Größenordnung auf wie die natürliche Klimavariabilität. Folglich kann die beobachtete Erwärmung großenteils dieser natürlichen Variabilität geschuldet sein. Alternativ kann es aber auch sein, dass diese Variabilität und andere menschliche Faktoren eine noch größere, anthropogen induzierte Treibhaus-Erwärmung ausgelöst haben. Die eindeutige Bestimmung des verstärkten Treibhauseffektes aus Beobachtungen ist noch mindestens ein Jahrzehnt lang unwahrscheinlich.

Im Jahre 1991 sah sich die wissenschaftliche Gemeinschaft also noch bis mindestens zum Jahr 2001 außerstande, zwischen natürlicher und anthropogener globaler Erwärmung zu unterscheiden.

(Ende Auszug)

Und doch haben Politiker trotz dieses unbestimmten Ergebnisses nur ein Jahr später (1992) einen Vertrag erarbeitet mit der Bezeichnung United Nations Framework Convention on Climate Change mit der Absicht, den Anstieg der globalen Temperaturen auf 2°C über den vorindustriellen Werten zu begrenzen – ein Limit, das zuerst Mitte der siebziger Jahre von einem Ökonom ins Spiel gebracht worden war, nicht von einem Klimawissenschaftler.

In dem Artikel Two degrees: The history of climate change’s ‘speed limit’ bei TheCarbonBrief schreiben die Autoren Mat Hope & Rosamund Pearce:

Für Manchen vielleicht überraschend kam die Idee, dass die Temperatur dazu herangezogen werden könnte, die Reaktion der Gesellschaft auf den Klimawandel zu dirigieren, von einem Ökonom.

In den siebziger Jahren sprach der Yale-Professor William Nordhaus erstmals die Gefahr an, die sich aus dem Überschreiten einer Grenze von zwei Grad ergeben, und zwar in einem Paar von inzwischen berühmten Studien, in denen gezeigt wurde, dass eine Erwärmung um über 2 Grad das Klima über einen Punkt hinaus bringen würden, mit dem die Menschen noch fertig werden konnten:

Den meisten Quellen zufolge liegt die Bandbreite der Variation zwischen unterschiedlichen Klimaregimes in der Größenordnung von ±5°C, und zum gegenwärtigen Zeitpunkt befindet sich das globale Klima am oberen Ende dieser Bandbreite. Falls die globalen Temperaturen um mehr als 2 bis 3 Grad Celsius über der jetzigen mittleren Temperatur liegen, würde dies ein Klima schaffen, das außerhalb der Bandbreite von Beobachtungen liegt, die während der letzten vielen tausend Jahre gemacht worden sind“.

Anfang der neunziger Jahre fuhren die Politiker fort, mit Geld an Wissenschaftlern um sich zu werfen in der Hoffnung, dass der nächste Bericht mehr Unterstützung für ihre Agenden liefern würde. Sehr zur Überraschung der Politiker gab es jedoch auch im Original-Entwurf der Wissenschaftler aus dem Jahr 1995 der Summary zum 2. Zustandsbericht keinen Aufschluss.

Man stelle sich das mal vor. Im Jahre 1992 haben die UN viele Länder auf der ganzen Welt davon überzeugt, in einen Vertrag zur Begrenzung der Emissionen von Treibhausgasen einzutreten, obwohl das IPCC ein Jahr zuvor nicht den Fingerabdruck der Menschheit in der globalen Erwärmung auffinden konnte. Dann hat die wissenschaftliche Berichte schreibende Einrichtung der Politiker, das IPCC, im Jahre 1995 immer noch nicht unterscheiden können zwischen anthropogener und natürlicher Erwärmung – und genau diese Tatsache haben die Klimawissenschaftler im Entwurf ihres 2. IPCC-Berichtes geschrieben. Die Politiker saßen zwischen Pest und Cholera. Sie hatten seit drei Jahren einen Vertrag in der Hinterhand, aber ihre Berichte schreibenden Wissenschaftler konnten keine Beweise zu dessen Stützung finden.

Nachdem dann die meisten Wissenschaftler das Treffen verlassen hatten, änderten die Politiker und ein einzelner Wissenschaftler die Sprache des 2. Zustandsberichtes auf eine sehr subtile, aber bedeutende Art und Weise. Voila! Die Politiker und der eine Wissenschaftler initiierten das, was heute Konsens genannt wird. (Eine sehr detaillierte Analyse dazu von Bernie Lewin über die IPCC-Konferenz 1995 in Madrid steht hier).

(Ende Auszug)

Die Analyse von Bernie Lewin gliedert sich in drei Teile, jeweils mit sehr passenden Überschriften:

Madrid 1995: Was this the Tipping Point in the Corruption of Climate Science? (archived here.)

Madrid 1995 and The Quest for the Mirror in the Sky (archived here.)

Madrid 1995: The Last Day of Climate Science (archived here.)

In Teil 1 seiner Reihe schreibt Lewin über den Entwurf des 2. Zustandsberichtes (Hervorhebung von mir):

Oh weh, im Frühherbst des Jahres 1995 standen die Zeichen auf schlecht. Obwohl in einem durchgesickerten Entwurf im September zu lesen war, dass es unwahrscheinlich sei, dass die Erwärmung ausschließlich natürlichen Gründen geschuldet ist, wurde dies kaum bestritten, und es war nicht eigentlich die Verkündigung einer unmittelbar bevorstehenden Katastrophe. Außerdem verblieben immer noch außerordentlich große Schwächen, besonders in Kapitel 8, für jede positive Schlussfolgerung. Der Entwurf wurde allen Teilnehmern der Madrid-Konferenz zugeleitet und war auch der einzige Verfügbare, der schließlich auf dem Treffen ,akzeptiert‘ worden war. In der Introduction wurde auch festgestellt, dass die gegenwärtigen Studien auf einen menschlichen Einfluss hindeuten. Dies war bis dahin die stärkste Aussage, aber die Hauptfassung des Dokuments und die Zusammenfassung mit den Schlussfolgerungen war da nicht so vertrauensselig. Einige der verwegensten Rückzieher waren Folgende:

Aus Studien von Änderungen der globalen mittleren Variablen (8.4.1): Während keine dieser Studien das Thema Zuordnung speziell in Betracht gezogen hatte, ziehen sie oft einige Schlussfolgerungen bzgl. Zuordnung, für die es kaum eine Rechtfertigung gibt.

Aus dem Treibhaus-Signal in Studien der modellierten und beobachteten räumlichen und zeitlichen Verteilung von Änderungen (8.4.2.1): Keine der oben zitierten Studien hat klare Beweise dafür gezeigt, dass wir die beobachteten Änderungen der spezifischen Ursache Zunahme der Treibhausgase zuordnen können.

Aus Studien zum ,Fingerabdruck‘ der globalen Erwärmung: Während einige dieser Studien die Erkennung eines signifikanten Klimawandels behaupteten, hat keine davon die gesamte (oder Teile des beobachteten Klimawandels) anthropogenen Gründen zugeordnet. Auch hat keine einzige Studie die Größenordnung eines Treibhausgas- oder Aerosol-Effektes in den gemessenen Daten quantifiziert – ein Umstand, der für Politiker von primärer Relevanz ist.

Aus dem Gesamtniveau der Unsicherheiten: jedwede Behauptungen über positive Erkennung und Zuordnung eines signifikanten Klimawandels wird wahrscheinlich kontrovers bleiben, solange die Unsicherheiten bei der totalen natürlichen Variabilität im Klimasystem nicht reduziert werden.

Zur Frage: Wann wird der anthropogene Effekt auf das Klima identifiziert? (8.6): Es ist keine Überraschung, dass die beste Antwort auf diese Frage lautet ,wir wissen es nicht‘.

Die Politiker mochten die Aussagen über die Unsicherheiten nicht, die in jenen Statements zum Ausdruck kamen, folglich haben sie diese gelöscht. Wussten Sie, dass die Politik der Klimawissenschaft diktiert, welche Ergebnisse sie zu erbringen habe?

Wichtige Anmerkung: Man vergesse nicht, dass der Pinatubo im Jahre 1991 ausgebrochen war, wodurch die Temperaturen global vorübergehend gesunken sind. Während die Temperatur bis 1995 wieder auf ein Niveau etwas über dem von 1991 gestiegen war, erzeugten die in die Stratosphäre geschleuderten Aerosole des Pinatubo einen merklichen Rückgang der Erwärmungsrate seit dem Beginn der Erwärmung Mitte der siebziger Jahre. Siehe Abbildung 1. Das heißt, die globale Erwärmungsrate von 195 bis 1995 ist merklich geringer als die von 1975 bis 1991, wie man auch erwarten würde.

Abbildung 1

Nun könnte man glauben, dass mit der massiven Auswirkung des Pinatubo auf die globalen Temperaturen die fortgesetzte Unsicherheit unter den Klimawissenschaftlern auch 1995 noch garantiert war.

Die Klimawissenschaft unter Führerschaft des IPCC kann immer noch nicht realistisch differenzieren zwischen natürlicher und anthropogen induzierter globaler Erwärmung!

Noch einmal möchte ich auf mein E-Book zurückgreifen On Global Warming and the Illusion of Control – Part 1. Das Kapitel 1.12 trägt den Titel [übersetzt] „Wie Wissenschaftler den größten Teil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Ursachen zuordneten“:

Eine der Objektiven der klimawissenschaftlichen Gemeinschaft unter Führung des IPCC war es, den größten Anteil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Gründen zuzuordnen. Mit anderen Worten, falls Mutter Natur für die Erwärmung verantwortlich war, würde das politische Ziel, die Verbrennung fossiler Treibstoffe zu begrenzen, keinerlei Grundlage haben, und weil es die Absicht des IPCC ist, politische Agenden zu stützen, hatte die klimawissenschaftliche Gemeinschaft in der Lage zu sein, auf die Menschheit als den Schuldigen zu zeigen. Die Klimamodellierer erreichten dieses Ziel mittels ein paar sehr einfacher Tricks.

Das erste, was die Klimamodellierer gemacht haben war, die natürlichen Ozean-Atmosphäre-Prozesse vollständig zu ignorieren, die eine globale Erwärmung verstärken oder unterdrücken. Die vom IPCC verwendeten Klimamodelle können bis auf den heutigen Tag immer noch nicht diese Prozesse angemessen simulieren, und diese Tatsache wird später in diesem Buch noch detailliert demonstriert. Die Beiträge von Mutter Natur zu ignorieren war der einfachste und bequemste Weg, um zu zeigen, dass die Menschen für die Erwärmung verantwortlich waren. Die Modellierer haben sich auch entschieden, diese Tatsache der Öffentlichkeit vorzuenthalten, als sie ihre modellbasierten Zuordnungs-Studien unter Verwendung der nächsten Taktik präsentierten.

Diese Taktik ist ein sehr einfacher und leicht zu verstehender Weg, das Meiste der Erwärmung fälschlich der Menschheit in die Schuhe zu schieben. Die Modellierer hatten ihre Klimamodell-Läufe, die einen virtuellen globalen Temperaturanstieg zeigten als Reaktion auf alle Klimaantriebe, die als Input für die Modelle dienten. Dann führten sie zusätzliche Modellierungs-Experimente durch. Anstatt alle Klimaantriebe heranzuziehen, die sie normalerweise für die Simulation des Klimas der Vergangenheit eingehen lassen, verwendeten sie in den zusätzlichen Klimamodell-Läufen ausschließlich die Antriebe durch Solarstrahlung und vulkanische Aerosole. Die betrügerische Logik dahinter: Falls die nur mit den natürlichen Antrieben Solarstrahlung und vulkanischen Aerosolen die Erwärmung, zu der es zum Ende des 20. Jahrhunderts gekommen war, nicht simulieren können, dann muss die Erwärmung seit den siebziger Jahren auf anthropogene Treibhausgase zurückgehen.

Als Beispiel ist Abbildung 1.12-1 eine Zeitreihe von 1880 bis 2010. Die durchgezogene braune Linie zeigt den Gesamt- Strahlungsantrieb von allen Antrieben, die in die Klimamodelle eingingen und die vom GISS aufbereitet worden waren. Sie stammen von der Forcings in GISS Climate Model-Website, vor allem aus der Tabelle hier. Ebenfalls in Abbildung 1.12-1 eingezeichnet ist der Antrieb allein durch Solarstrahlung und stratosphärische Aerosole (welche das Sonnenlicht blockieren), gezeigt als gestrichelte dunkelgrüne Kurve. Diese werden als natürlich auftretende Antriebe betrachtet. Wie man sieht, zeigt die Gruppe mit allen Antrieben eine langzeitliche Zunahme, die bei den kombinierten Antrieben durch Sonne und Aerosole nicht erkennbar ist.

# # #

Dann ließen die Klimawissenschaftler die zusätzlichen Modellsimulationen nur mit den natürlichen Antrieben laufen. Danach verglichen sie die Modellsimulationen mittels natürlicher und anthropogener Antriebe mit denen mittels natürlicher Antriebe allein. Als Beispiel eines dieser Vergleiche dient Abbildung 1.12-2. Die Modelle mit allen Antrieben zeigen deutliche Erwärmung zum Ende des 20. Jahrhunderts, die Modelle mit den natürlichen Antrieben allein zeigen dies nicht.

Ähnliche Graphiken wie die in Abbildung 1.12-2 gezeigte finden sich in den IPCC-Zustandsberichten Nr. 4 und 5. Ein Beispiel ist FAQ 10.1, Abbildung 1 im Kapitel Chapter 10, Detection and Attribution of Climate Change: from Global to Regional des IPCC’s 5th Assessment Report (AR5). Siehe meine Abbildung 1.12-3. Man beachte, dass die Überschrift ihres FAQ 10.1 lautet [übersetzt] „Das Klima ändert sich immer. Wie können wir die Gründe der beobachteten Änderungen bestimmen?“

(Ende des Auszugs)

Über ihr FAQ 10.1, Abbildung 1, schreibt das IPCC:

FAQ 10.1, Abbildung 1 illustriert einen Teil der Abschätzung eines Fingerabdrucks auf die Änderung der globalen Temperatur während der zweiten Hälfte des 20. Jahrhunderts. Die beobachtete Änderung während dieser Zeit, dargestellt durch die schwarze Zeitreihe in den linken Graphiken, ist größer als erwartet, wenn man nur die interne Variabilität betrachtet. Simulationen mit nur natürlichen Antrieben (gelbe und blaue Linien in der oberen linken Graphik) reproduzieren die Erwärmung zum Ende des 20. Jahrhunderts nicht, wobei die räumliche Verteilung der Änderung (oben rechts) vollkommen unterschiedlich ist von der beobachteten Verteilung der Änderung (Mitte rechts). Simulationen mit sowohl natürlichen als auch anthropogenen Antrieben zeigen eine viel bessere Repräsentation der zeitlichen Änderungsrate (links unten) und der räumlichen Verteilung (rechts unten) der beobachteten Temperaturänderung.

Beide Graphiken links zeigen, dass Computermodelle die natürlich getriebene Abkühlung ein oder zwei Jahre nach großen Vulkanausbrüchen reproduzieren, wie es 1982 und 1991 der Fall war. Simulationen mit natürlichen Antrieben allein zeigen die kurzfristigen Temperaturänderungen nach Eruptionen auch, aber nur die natürlichen + anthropogenen Antriebe simulierten den längerzeitlichen Erwärmungstrend.

Die Bildinschrift ihrer FAQ 10.1-Abbildung liest sich so:

(Links) Zeitreihe der globalen und jährlich gemittelten Temperaturänderung von 1860 bis 2010. Die Graphik oben links zeigt Ergebnisse aus zwei (sic) Ensembles von Klimamodellen mit nur natürlichen Antrieben, gezeigt als dünne blaue und gelbe Linien; Ensemble-Änderungen der Mitteltemperatur sind dick blau und rot. Drei verschiedene beobachtete Schätzungen sind als schwarze Linien dargestellt. Die Graphik links unten zeigt Simulationen der gleichen Modelle, aber diesmal mit sowohl natürlichen als auch anthropogenen Antrieben durch Treibhausgase und Aerosole. (Rechts) Räumliche Verteilung lokaler Temperaturtrends von 1951 bis 2010. Die obere Graphik zeigt die Verteilung von Trends mittels eines großen Ensembles von Coupled Model Intercomparison Project Phase 5 (CMIP5)-Simulationen mit nur natürlichen Antrieben. Die untere Graphik zeigt Trends eines korrespondierenden Ensembles mit natürlichen + menschlichen Antrieben. Die mittlere Graphik zeigt die Verteilung beobachteter Trends von HadCRUT4 während dieses Zeitraumes. [HadCRUT4 = Hadley Centre/Climatic Research Unit gridded surface temperature data set 4]

Für ein weiteres Beispiel dieser fehlgeleiteten, kindischen Logik schaue man auf Figure 9.5 im 4. Zustandsbericht. Die Bildunterschrift zu dieser Illustration im AR4 Chapter 9 lautet (Hervorhebungen von mir):

9.4.1.2Simulationen des 20.Jahrhunderts

Inzwischen gibt es eine größere Zahl von Klimasimulationen von AOGCMs (Atmosphere-Ocean General Circulation Models) für den Zeitraum der globalen instrumentellen Aufzeichnungen, als sie für den 3. Zustandsbericht zur Verfügung standen, einschließlich einer größeren Vielfalt von Antrieben in einer größeren Vielfalt von Kombinationen. Diese Simulationen stammen von Modellen mit unterschiedlichen Klimasensitivitäten, Raten der Wärmeaufnahme durch Ozeane sowie Größenordnung und Art der Antriebe. Abbildung 9.5 zeigt, dass Simulationen einschließlich anthropogener Antriebe, darunter zunehmende Treibhausgas-Konzentrationen und die Auswirkungen von Aerosolen, die außerdem natürliche externe Antriebe berücksichtigen, eine konsistente Erklärung bieten der gemessenen Temperaturaufzeichnung. Simulationen mit nur natürlichen Antrieben simulieren die während der letzten drei Jahrzehnte beobachtete Erwärmung nicht.

Wie zuvor schon erwähnt, ist die Logik hinter dieser Art von Zuordnung sehr einfach, kindisch einfach. Falls Modelle mit anthropogenen und natürlichen Antrieben die Erwärmung simulieren können und die Modelle mit natürlichen Antrieben allein nicht, dann müssen die anthropogenen Antriebe für die globale Erwärmung verantwortlich sein.

Aber diese Logik ist falsch – entsetzlich falsch. Es gibt natürlich auftretende Ozean-Atmosphäre-Prozesse, die die globalen Temperaturen steigen oder sinken lassen können, ohne durch menschliche Treibhausgase getrieben zu werden. Die Klimamodelle simulieren diese Prozesse nicht, das heißt sie werden in Zuordnungs-Studien wie dieser nicht berücksichtigt.

Man kann das noch auf andere Weise betrachten. Eines der größten Mängel der Klimamodelle ist deren Unfähigkeit, natürlich auftretende Ozean-Atmosphäre-Prozesse zu simulieren … wie jene in Verbindung mit El Nino und La Nina-Ereignissen, wie jene in Verbindung mit der Atlantic Multidecadal Oscillation. Wie jedermann, der ein falsches Produkt vermarkten will, stellte das listige IPCC diese Mängel als Vorteile dar, indem sie in den Zuordnungs-Studien ignoriert werden.

Jawoll, das ist eine ziemlich erbärmliche Art und Weise, die jüngste Runde der globalen Erwärmung anthropogenen Treibhausgasen zuzuordnen.

Schlussbemerkungen

Hat also der gewählte Präsident Donald Trump recht, skeptisch zu sein hinsichtlich der politisierten Wissenschaft hinter der hypothetischen, anthropogen induzierten globalen Erwärmung/Klimawandel? Natürlich hat er recht!

Die Klimawissenschaft ist im Jahre 1988 politisiert worden, als die UN-Politiker das IPCC ins Leben riefen und ihm die Richtung vorgaben. Die Klimawissenschaft wurde von der Politik im Jahre 1995 korrumpiert, also vor über 2 Jahrzehnten, als die Politiker den Wortlaut des 2. IPCC-Zustandsberichtes änderten. Und natürlich können Klimawissenschaftler bis auf den heutigen Tag immer noch nicht anthropogene Gründe realistisch der globalen Erwärmung zuordnen, wie sie seit den siebziger Jahren beobachtet wird, weil die Klimamodelle nicht sich aus natürlichen Antrieben speisende gekoppelte Ozean-Atmosphäre-Prozesse simulieren können, die im multidekadischen Zeitmaßstab Erwärmung verursachen können. Die Tatsache, dass die Modelle keinerlei Erwärmung simulieren können, es sei denn sie werden durch numerische Repräsentationen anthropogener Treibhausgase dazu gezwungen, ist ein Mangel des Modells und kein Mittel, die globale Erwärmung glaubwürdig den Emissionen von Kohlendioxid zuzuordnen. Mit dieser Klimawissenschaft befindet sich der Karren immer noch vor dem Pferd.

Link: https://wattsupwiththat.com/2016/11/29/the-politicization-of-climate-science-is-not-a-recent-phenomenon/

Übersetzt von Chris Frey EIKE




Am Nordpol ist es 20 Grad Wärmer als sonst

Bild 1 rechts: „Hitzewelle“ am Nordpol. Quelle:[1]

WELT N24, 20.11.2016: [1] Eismassen verschwunden Am Nordpol ist es 20 Grad wärmer als sonst
Dramatische Wärme am Nordpol: Die Temperaturen liegen mehr als 20 Grad höher als üblich. Auch in anderen Regionen der Nordhalbkugel herrschen rekordverdächtige Extreme. Konsequenzen? Kaum absehbar.
… Auch wenn manche Politiker wie Donald Trump unbeirrt den Klimawandel anzweifeln: Die Zahlen der meteorologischen Messstationen sprechen eine deutliche Sprache. Die jüngsten Messdaten vom Nordpol belegen, dass es derzeit dramatische 20 Grad Celsius wärmer in der Arktis ist, als es der langjährige Durchschnittswert erwarten ließe.

Ein Student darf dazu auch sein geballtes Wissen in die Waagschale werfen:
[1] „Das ist nicht normal“: So dramatisch beschreibt ein Student von der Universität Berkeley in Kalifornien die Entwicklung in der Arktis. Zack Labe studiert Klimawissenschaften …

Am Ende dann doch noch zumindest eine Erwähnung, dass es sich um eine Wetterverschiebung handelt, somit im „Mittel“ eigentlich alles beim Alten geblieben ist (der eine „verkocht“, der andere „erfriert“, im statistischen Mittel geht es beiden super gut – um den Nordpol herum allerdings eben „natürliches Wetterverhalten“):
[1] … Einen weiteren extremen Temperatureffekt haben die aktuellen Verhältnisse tief im Osten Russlands: In Sibirien ist es gerade außergewöhnlich kalt. Auch diese Wetteranomalie versuchen die Meteorologen mit dem unüblichen Verhalten des Jetstream zu erklären
„Vergessen“ wurde jedoch, darauf hinzuweisen, dass diese Extreme – vor allem in den „Jetstream“-Luftschichten der Nordpolarregion „üblich“ sind, nur in der Vergangenheit wenig beachtet (und publiziert) wurden, da die Stationsverteilungen damals zu dünn waren und diese Analysen deshalb erst seit den Satellitenmessungen und vor allem auch seit dem Aussetzen von Messbojen im Nordmeer in den Beobachtungsfocus traten. Aber „unüblich“ ist eben alles, was man bisher nicht beachtet hat.

Klar, dass wenn so eine Feststellung über den Teich zu uns kommt, sich auch hier zustimmende Klimapropheten finden:
wetter.info, 25.11.2016: [1] Klimawandel wird spürbar Hitzewelle am Nordpol Der Klimawandel ist auf der norwegischen Inselgruppe Spitzbergen immer deutlicher zu spüren. "2016 wird dort das wärmste Jahr seit Beginn der Messungen 1889", sagte Klimaforscher Ketil Isaksen vom norwegischen Meteorologischen Institut am Freitag.

Es lohnt sich deshalb, nachzusehen, wie die Verläufe der September- und Novemberwerte auf Spitzbergen – einer Insel nahe am Pol, am Rande der aktuellen „Hitzeblase“ und auch mit der besonders großen, eigenen-Erwärmung – aussehen. Dazu anbei die Daten einer Messstation, welche den Zeitraum des „schlimmen“ Klimawandels abdeckt:
Stations-Nr.: 5140 ,NY-ALESUND, Spitzbergen, NORWAY. Datensatz von: ECA&D project http://eca.knmi.nl)

Hinweis: die Temperatur in °C ergibt sich mit der ersten Ziffer

Bild 2 Station 5140, NY-ALESUND, Spitzbergen. Verlauf der September- und Novemberwerte (Sept bis 2016, November bis 2015). Datenquelle: ECA&D project http://eca.knmi.nl)

Daraus lässt sich nur ableiten, dass solche „Hitzewellen“ anscheinend keine Spuren hinterlassen, oder besonders klimazerstörend „haften“ blieben.

Satellitendaten

Satelliten decken die Gebiete besser ab, als Bodenstationen. Deshalb ist ein Vergleich damit eine gute Hilfestellung, auch wenn sie nicht direkt vergleichbar die „Normtemperatur“ in 2 m Bodenhöhe messen. Dafür messen sie den wirklichen Bereich der „Wetterküche“, aus dem der gesamte Klimaschaden ja entstehen soll (RSS TLT) und sie kennen keinen Wärmeinseleffekt.
Bild 3, Werte Nordpolar: In der Nord-Polarregion wurde es bekanntermaßen (seit mit Satelliten gemessen wird) über die Zeit etwas wärmer,
Bild 4, Werte Südpolar: Um den Südpol mit seiner wesentlich größeren Eismasse sieht man keine Erwämung,
Bild 5, Werte mittlere, nördliche Breiten: Das Ergebnis ist eigentlich eine Zumutung an den AGW-Glauben, aktuell der Stand vom Februar 1979. Und spätestens seit 1990 kein Erwärmungstrend.

Bild 3 RSS TLT Satellitendaten untere Troposphäre, Werte Nordpolar 1979 – Nov. 2016

Bild 4 RSS TLT Satellitendaten untere Troposphäre, Werte Südpolar 1979 – Nov. 2016


Bild 5 RSS TLT Satellitendaten untere Troposphäre, Werte Mittelteil der Nordhemnisphäre 1979 – Nov. 2016

Inzwischen liegt die umfassendste Analyse historischer Temperaturverläufe vor:
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Die Rekonstruktionsverläufe der Arktis sehen darin wie folgt aus:

Bild 6 Projekt Pages 2k, Proxiverläufe Arctic. Quelle: Pages 2k Viewer

Wer anhand solcher Datenspaghettis ableiten kann, ob und welche Konsequenzen diese „Hitzewelle für die Region und das Weltklima haben wird“ ist zu beglückwünschen. Aber ganz bestimmt können es die Computer mit diesen historischen Daten sehr genau in die Zukunft simulieren.

Früher hat es das sicher nie gegeben?

Irgendwie kommen einem solche Meldungen allerdings auch bekannt vor. Ein Glück, dass es frühe Polarforscher gab, sonst hätte es die Welt nie erfahren:
Quelle: Alles Schall und Rauch, Bericht einer Polarexpedition aus Spitzbergen: … Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemessen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“
Verfasst wurde diese Meldung allerdings im Jahr 1922.

Jahrhundertchronik 1900-1999: 1973 Diskussion bei Wissenschaftlern und in der Presse über Klimaabkühlung, „Klima wird kälter, Vorspiel für neue Weiszeit?“ „in den letzten 10 Jahren mehr Eisberge im Nordmeer seit je, Spitzbergen Mitteltemperatur um 2,5° gesunken, Murmansk kältestes Jahrzehnt seit B.d.A.“

Die Antwort zur Darstellung der Klimaexperten: „Welche Konsequenzen diese „Hitzewelle“ für die Region und das Weltklima haben wird, ist kaum absehbar“, muss sich nun jeder Leser selbst geben.

Quellen

[1] WELT N24, 20.11.2016: Eismassen verschwunden Am Nordpol ist es 20 Grad wärmer als sonst

[2] wetter.info, 25.11.2016: Klimawandel wird spürbar Hitzewelle am Nordpol




Gorleben III – Endlagerwende 2016 Stefan Wenzel, Umweltminister – Mastermind der Wende Teil III von III

von Dr. Helmut Fuchs, Geologe

Letzter Abschnitt des Teil II:

Die politische Einschätzung des Umweltministers Wenzel zu Gorleben, die er Kraft seines Amtes öffentlichen verbreitet hat: „Die Landesregierung bleibt bei der Auffassung, dass der Standort Gorleben geologisch ungeeignet und politisch verbrannt ist“ entspringt fast ausschließlich den Vorstellungen seiner Parteigenossen bzw. den bis Brüssel bestens vernetzten Anti-Nuk Lobbyisten. Mit der Realität hat diese Einschätzung jedoch wenig zu tun. Somit ist die Aussage von ihm „geologisch ungeeignet und politisch verbrannt“ weniger den qualitativ hochwertigen Arbeitsergebnissen geschuldet, die für das Endlager = Untertage-Deponie Gorleben geleistet wurden, sondern den Brandstiftern seiner grünen Bewegung.

Teil III Analyse

Hier der volle Beitrag als pdf

Gorleben – Endlagerwende 2016 , Stefan Wenzel Umweltminister – Mastermind der Wende 1

Die meisten Ausführungen des Umweltministers Stefan Wenzel oder die seiner Berater scheinen nicht den wissenschaftlich technischen Stand der Erkundungsergebnisse zum Zeitpunkt direkt vor dem politisch verordneten Moratorium von 2001 bekannt zu sein. Die geäußerten Zweifel seiner Parteigenossen, die sich hauptsächlich auf die 20 Aussagen der im Anhang seiner Antwort  beziehen, wurden nicht nur von der BGR meist als wenig stichhaltig zurückgewiesen. Auch die Bewertung der dokumentierten Ergebnisse bis zum Moratorium in 2001durch die neutrale, fachlich hochrangig besetzte „International Peer Review Group (IEG)“ konnten die Zweifel nicht bestätigen. Insbesondere die sehr umfassenden Ergebnisse und die davon abgeleiteten Schlussfolgerungen der „Vorläufigen Sicherheitsanalyse Gorleben (GRS)“ von 2012 enthalten keine Hinweise, die gegen eine „Eignungshöffigkeit“ von Gorleben sprechen. Dies ist auch ein Hinweis auf die praktizierte selektive Auftragsvergabe der zahlreichen in der Antwort des Ministers genannten Berichte an seine Öko-Lobbyisten, die wahrlich nicht neutral genannt werden können. Denn bei seiner öffentlich gemachten Einschätzung der Qualität von Gorleben nennt er keinen einzigen der zahlreichen Ergebnisberichte des BfS, auch nicht die von offiziellen Behörden wie der BGR sowie der DBE und Sonstigen, die für das Milliarden – Projekt Gorleben verantwortlich waren. Sie fallen geschickter weise in die Kategorie ’nicht abschließende Liste‘, einen neuen, ideologisch geprägten Begriff für Desinformation: Man benutzt ihn, wenn man nicht die ganze Wahrheit nennen will. In diesem Fall dürfte das Verhältnis zwischen objektiver Wahrheit zur subjektiven (Un-)wahrheit in der Größenordnung von 99 Prozent der nicht genannten zu 1 Prozent der genannten Berichte liegen.

Hinter dieser seit dem Jahr 2000 zunehmend gezielten Politik der Desinformation – heute auch ‚Fake News‘ genannt -, durch die Verantwortlichen für die Endlagerung = Untertage Deponierung hochradioaktiver „Abfälle“, also insbesondere durch das BMU sowie das BfS, ihre politischen Mitstreiter und die zahlreichen NGOs steckt eine langjährig angelegte Strategie, obwohl sie fleißig in der Öffentlichkeit den Eindruck erwecken, die Transparenz und Einbindung der Öffentlichkeit sei ein hohes Gut. Schon in dem 2002 erschienen ‚AkEnd-Bericht des Arbeitskreis Auswahlverfahren für Endlagerstandorte‘, wird im Kapitel 3 „Öffentlichkeitsbeteiligung“ gefordert: „Der Arbeitskreis hält eine aktive Beteiligung der Öffentlichkeit in jeder Phase und in jedem Verfahrensschritt für unerlässlich“. Möglicherweise hat das BfS diese Aufforderung so verstanden, dass dies nicht für den Zeitraum des Moratoriums und auch so lange nicht gilt, so lange Gorleben nicht von der Landkarte verschwunden ist. In der Antwort auf die parlamentarische Anfrage kann man, ohne allzu sehr spekulieren zu müssen, einerseits davon ausgehen, dass sich der Präsident des BfS mit grünem Parteibuch Wolfram König aus formalen Gründen bei politischen Aussagen zurückhalten musste, andererseits als Kenner der Materie im Sinne seiner Parteilinie schweigen konnte. An diesem Beispiel lässt sich aber auch erkennen, wie viel die Aussage zur zukünftigen Einbindung der Öffentlichkeit wert ist – je größer diese ist, desto besser lässt sich diese mit gezielten Desinformationen erreichen – wie sie im § 5 des Standortauswahlgesetzes von 2013 sehr langatmig beschrieben wird. Da die früheren politischen Protagonisten bis zur Endlagerwende auch die Verantwortlichen für den Neustart der Endlagerung sein werden, dürfte sich an der Taktik des Versprechens einer noch viel weitergehenden Transparentoffensive wenig ändern. Denn die Endlagerung in Deutschland darf auch nach der Wende weiterhin, wie das Beispiel Asse zeigt, als politisch nutzbares ANGST-ASS der grünen Bewegung nicht sterben. 

Vorneweg: Für einen Naturwissenschaftler sind die Fakten, die jeder nachprüfen kann, streng zu trennen von deren Interpretation, die bei jedem subjektiv unterschiedlich ausfallen kann. In den Teilen I und II des Gesamtberichtes sind die Fakten genannt, in dem Teil III sind meine persönlichen über Jahrzehnte erlebten Erfahrungen eingeflossen. 

Wie konnte es zu einer derartigen Vernichtung von Volksvermögen in Deutschland kommen? Dafür gibt es sicher eine Anzahl von Gründen. Als subjektiver Beobachter dieser nur in Deutschland einzigartigen Entwicklung ist in den vergangenen fünfunddreißig Jahren, neben anderen Einflüssen, vor allem das Entstehen eines ursprünglich politisch sehr dünnen roten Fadens zu erkennen, der stetig immer grüner und kräftiger wurde. Er reicht bis zu den heute meist vergessenen Geschehnissen des Endes des 2. Weltkrieges zurück: Klaus Emil Julius Fuchs, bekannt geworden als ‚Atom-Spion Fuchs‘, der ein begabter Wissenschaftler war aber auch einer der bekanntesten Wissenschaftsspione. Gegen Ende des Krieges und danach war er an der Entwicklung des Baus von Nuklearwaffen in den USA und in Großbritannien beteiligt. Während dieser Zeit hatte er aber auch wichtige Nukleargeheimnisse an die Sowjetunion geheimdienstlich weiter gegeben. Nach dem Bekanntwerden seiner geheimdienstlichen Tätigkeit, wurde er in Großbritannien zu 14 Jahren Haft verurteilt. Nach seiner vorzeitigen Freilassung 1959 verschwand er in die DDR. Dort begann er am Zentralinstitut für Kernforschung in Rossendorf bei Dresden bis 1974 zu arbeiten, zuletzt als stellvertretender Direktor. Seit 1967 war er Mitglied des ZK der SED. Seine Erfahrung in Los Alamos in den USA, die er  dort bei der Entwicklung von Techniken der Uran-Isotopentrennung gesammelt hatte, führten bei den Verantwortlichen im ZK zu dem Bedrohungsgefühl, dass ab 1968 in der Bundesrepublik im Atomforschung-Zentrum Karlsruhe und in Jülich Grundlagen für den Bau einer Gaszentrifuge (Isotopentrennanlage) erarbeitet werden könnten. Da diese für die Nutzung der Kernenergie notwendigen Forschungseinrichtungen nicht nur in der Lage sein würden, die technischen Voraussetzungen für eine Isotopentrennung für die zukünftige Nutzung der Kernkraft sein könnten, sondern auch Grundlagen für die Produktion von Plutonium für Atombomben, die nur militärischen Absichten dienen könnten. Nicht zu vergessen: Damals herrscht noch der „Kalte Krieg“. 

Werner Stiller (Doppelagent), Oberleutnant der HVA, gab bei seinen Verhören preis, als er 1979 mit 20 000 Dokumenten in den Westen übergelaufen war, wie damals von der DDR die Stimmung gegen diese Anlagen bzw. alles was mit Kernkraftanlagen in Beziehung stand, mit Hilfe von Aktivisten zu stören bzw. zu verhindern. „ … Das Ostberliner Ministerium für Staatssicherheit (MfS) begnügt sich nicht damit, von den Agenten der Hauptversammlung Aufklärung aus der Bundesrepublik heranschaffen zu lassen, was von Interesse sein könnte. Im Zusammenhang mit der Entwicklung einer westdeutschen Anti-Kernkraft-Bewegung“, so berichtete Stiller, „wird auch die Intervention mit „aktiven Maßnahmen“ erwogen …..“ („ DIE WELT, Nr. 246, 22.10.86) 

Das ehemalige KBW-Mitglied (1973-1975) Winfried Kretschmann, der 1979 Gründungsmitglied der baden württembergischen Grünen war und heute dem Bündnis 90/Die Grünen angehört, wurde im Mai 2011 zum ersten grünen Ministerpräsidenten von Baden-Württemberg gewählt. Er ist damit zugleich der erste ex-maoistische Ministerpräsidenten in der Geschichte der Bundesrepublik Deutschland. Die spätere Bundesgesundheitsministerin Ulla Schmidt kandidierte auf der Landesliste NRW des KBW auf Platz 2 bei der Bundestagswahl 1976 und als Direktkandidat in Aachen Stadt. Neben Ulla Schmidt waren folgende ehemalige KBW-Genossen Mitglieder des Deutschen Bundestags der 17. Wahlperiode: Ursula Lötzer (Die Linke), Krista Sager (Bündnis 90/Die Grünen), und einigen mehr…“ (Wikipedia: KBW). Wobei noch der Parteigenosse Reinhard Bütikofer zu nennen ist, der in den 1970er Jahren, also vor der politischen Öffnung Chinas, in der ‚Gesellschaft für Deutsch-Chinesische Freundschaft (GDCF) aktiv gewesen war, sowie führendes

Mitglied der Grünen und zeitweise Mitglied der Fraktion ‚Die Grünen/EFA ‚ im EU Parlament, Studienabbrecher und einer der politisch herausragenden und aktivsten Anti-Nuc Kämpfer. Innerhalb seiner Partei war er maßgeblich an dem Zustandekommen des 30-jährigen ‚Kompromiss-Konzepts‘ zur Atomkraft beteiligt.

„… Der Hauptgegner des KBW (Kommunistischer Bund Westdeutschland) war aber der ‚bürgerliche Staat‘. In der internationalen Politik verfolgte der KBW eine Position des Antihegemonismus und der  Blockfreiheit, was in u.a. in der Parole ‚Nieder mit NATO und Warschauer Pakt‘ zur Zeit der Zuspitzung des kalten Krieges in Europa Ausdruck fand … ,

„ … Im Unterschied zu anderen Gruppierungen, die aus der 60er-Bewegung hervorgegangen sind, war der KBW eine Kaderorganisation. Mitglieder führten mindestens 10 % ihres Bruttoeinkommens an den KBW ab, darüber hinaus wurden Beiträge (z.B. Spenden von Erbschaften) erwartet. Dank dessen verfügte der KBW neben einer Reihe hauptberuflicher Funktionäre auch über eine außergewöhnlich gut ausgebaute technische Infrastruktur … Ideologisch stand der KBW dem Maoismus nahe und sympathisierte mit Regimen wie der Volksrepublik China, Albanien oder Kambotscha unter Pol Pot … 

„… Durch einen Kronzeugen, den der Verfassungsschutz Schleswig-Holstein Ende 1978 präsentierte, erfuhr die Öffentlichkeit, dass der KBW von seinen Mitgliedern nicht nur hohen finanziellen, sondern auch großen zeitlichen Einsatz erwarte und auch vor „psychischem Terror“ nicht zurückschrecke.  Dabei wurde auch erwähnt, dass der KBW von seiner Mitgliederstruktur her nicht die „proletarische“ Organisation war, die er gerne sein wollte. In seinen Reihen waren auffallend viele Ärzte, Lehrer, ca. 70 Rechtsanwälte , Professoren (und bis zu ihrem Austritt ca. 1974–1975 auch etwa fünf evangelische Pfarrer). Die Pastoren wurden vor die Alternative des Austritts aus der Kaderorganisation gestellt ….,

„… Der KBW beruhte programmatisch auf einer Organisationsform, die als ‚Demokratischer Zentralismus‘ bezeichnet wurde, ähnlich der Organisationsform unter Lenin oder Mao….“

„… 1985 löste sich der KBW offiziell auf, nachdem er sein Vermögen in einen Verein mit dem Namen ‚Assoziation‘ eingebracht hatte, der die ‚grün-alternative Bewegung‘ unterstützen sollte. Das (ursprünglich für etwa 3 Millionen DM erworbene) Gebäude seines Frankfurter Hauptquartiers ging einige Jahre später gegen ein für angeblich ca. 30 Mio. DM neu errichtetes „Öko-Haus“ im Tausch an die Commerzbank. Zahlreiche ehemalige Mitglieder (z.B. Joscha Schmierer oder Ralf Fücks und Willfried Maier) fanden später ihre politische Heimat im Realo-Flügel der Grünen, wie auch ihre ehemaligen Sponti-Widersacher Joschka Fischer und Daniel Cohn-Bendit. Andere kehrten ins bürgerliche Berufsleben zurück und machten trotz ihrer revolutionären Vergangenheit in Industriefirmen und Verbänden Karriere. …“. Georg Duffner, ehemaliger Geschäftsführer der Röchlin-Gruppe, war ein aktives Mitglied im maoistischen KBW der für die kommunistische Weltrevolution kämpfte. Er kandidierte für den KBW bei den Bundestagswahlen 1976. Von ihm stammt die Aussage: „Die Gelder des ‚Vereins  Assoziation‘ gingen an die Grünen. Ohne die Gelder des KBW wären die Grünen nicht möglich gewesen. Darum auch die Herrschaft des KBW innerhalb der Grünen. 40 Prozent der Entscheidungsträger innerhalb der Grünen haben eine KBW-Vergangenheit.“ Der ursprünglich rot-grüne Faden wurde nun zur grünen Schnur und entwickelte sich bis heute zu dem grünen Seil, aus dem das Netz der Desinformation erfolgreich geknüpft worden ist. Eine der vielen politischen Erfolge der grüne Bewegung ist: das Bundesumweltministerium wurde 1986 als Reaktion auf die Katastrophe von Tschernobyl eingerichtet. Heute im Jahr 2016, nach 30 Jaren, hat jedes Land ein Umweltministerium, mit dem Bund sind es 17. In 10 Ländern haben das Bündnis90/Die Grünen einen Umweltminister, in 4 Ländern die SPD und in 2 Ländern je einen von der CDU und einen von der CSU. Inzwischen monopolisiert im Bundesrat die grüne Bewegung den ideologistischen Geist des ’sogenannten deutschen‘ Umweltschutzes. Welch ein Erfolg mit dem grünen Ball der Angst gespielt zu haben und auch weiterhin zum Machterhalt damit spielen zu dürfen. Die Fast-Nennung eines ehemaligen KBW-Mitgliedes zum zukünfigen Bundespräsidenten Deutschlands zeigen die tiefen Wurzeln der grünen Bewegung in der heutigen Gesellschaft.

Welche Schlüsse kann man daraus ziehen, wenn ein großer Teil der vergangenen und heutigen Politiker-Elite, die politisch für die Kernenergie verantwortlich ist, aus einem maoistisch-ökologistisch geprägten Umfeld stammt? Abgesehen von einigen, die vom ‚Saulus‘ zum ‚Paulus‘ mutierten oder von einigen, die sich nicht nachweisbar als Maulwürfe im Hintergrund versteckt halten, kämpft ein größerer Teil von ihnen weiterhin mit Erfolg, ihre ideologisch geprägten Vorstellung in Deutschland durchzusetzen. Die spezielle deutsche Anti-Nuc Bewegung hat ihren Ursprung in der Zeit des ‚Kalten Krieges‘, unterstützt von einer subversive Beeinflussung der DDR. Nachdem diese linke Bewegung selbst erkannt hatte, dass die BRD keine Plutonium-Bomben herzustellen plant, sie mit ihren bisherigen agitatorischen Erfahrungen und Aktionen aber Erfolg hatte und ihren ideologisch geprägten Zielen näher kam, begann sie systematisch die Bundesrepublik nach ihren Vorstellungen weiter zu entwickeln. Das heißt, mit dem Schüren von Ängsten bei den Bürgern den Bau von Kernkraftwerken wie z. B. Wyhl zu verhindern, Castor-Transporte publikumswirksam zu behindern und das Verschließen der Asse möglichst lange aufzuschieben. Denn sie hat die Wirkung erkannt, wie man es schon früher in unserer Geschichte hautnah erlebt hat, mit dem Kultivieren von Ängsten, politisch erfolgreich zu werden. Angst breitet sich aus, wo Wissen, Vernunft und Sachlichkeit fehlen. Angst reduziert die kritische Urteilskraft, schafft Feindbilder und Schuldige, pauschaliert und macht schwach. In den vergangenen Jahren hat die Entwertung des Verstandes bei gleichzeitiger Aufwertung von Emotionen und Halbwissen zu einer weitgehenden Verunsicherung der Bürger geführt. Insbesondere die angeblich zunehmende Zerstörung der Umwelt durch die kapitalistische Industrie macht den Bürgern Angst – und diese Strategie bildet wie bisher auch weiterhin die Basis der grüner gewordenen Bewegung für ihr zukünftiges politisches Handeln. Nach den Vorstellungen von BundesumweltministerIn Hendriks steht jetzt neben anderen Themen ganz aktuelle die Minderung der Emissionen um 55 Prozent bis 2030 gegenüber dem Jahr 1990 und die Dekarbonisierung Deutschlands bis 2050 auf ihrer politischen Agenda. Motiviert durch basisdemokratische und ökologistische Vorstellungen wird von der Bewegung der Anspruch erhoben, bei jeder Fachdiskussion fachlich und insbesondere auch ökonomisch mitreden zu können.

Aufbauend auf den Begriffen Technologiefeindlichkeit und Umweltzerstörung wurde eine Strategie zur Destabilisierung der Bundesrepublik entwickelt. Denn wenn es gelingt, Feindbilder zu schaffen, sowie Technologiefeindlichkeit und Ängste bis zur Hysterie zu schüren, dann trifft man das Kapital. Wenn man berechtigte und unberechtigte Ängste der Wohlstandsgesellschaft verstärkt, werden technologische und industrielle Vorhaben der kapitalistischen Bundesrepublik erschwert, verzögert oder noch besser verhindert, und wenn sie schon existieren, so weit wie möglich geschädigt oder gar zerstört. Um dieses Ziel zu erreichen war es zum einen notwendig, im Sinne von Mao Tse-Tung, einem der Lehrmeister des maoistischen KBW, seinen Begriff  ‚XI NAO‚ (Xi entspricht waschen, Nao entspricht Gehirn) zu nutzen und schleichend mit den eigenen Kadern in der Politik, in der Presse, in den Medien, in den Kirchen und in den Schulen umzusetzen. Damit war der zukünftige Nährboden für die Öffentlichkeitsarbeit vorbereitet, den Ökologismus im gewünschten Sinne zu verbreiten, und zwar gezielt durch Verschweigen von Fakten, Verbreiten von Halbwahrheiten oder durch selektiv gefilterte Nachrichten mit dem Zusatz  ’nicht abschließenden Liste‘ wie im Teil I schon beispielhaft beschrieben. Eine weitere wichtige Lehre für die grüne Bewegung ist die gezielt eingesetzte Propaganda, deren erste Aufgabe es ist die Gewinnung von Menschen für die spätere Organisation. Die zweite Aufgabe der Bewegung ist die Gewinnung von Menschen zur Fortführung der Propaganda. Die dritte Aufgabe der Bewegung ist die Zersetzung des bestehenden Zustandes und die Durchsetzung dieses Zustandes mit der neuen Lehre, während die vierte Aufgabe der Bewegung der Kampf um die Macht sein muss, um durch sie den endgültigen Erfolg der öko-sozialistischen Bewegung zu erreichen. 

In Deutschland gibt es neben GREENPEACE, BUND, NABU, WWF mehr als 64 Umweltorganisationen und sog. ‚Soziale Medien‘, die systematisch die von ihnen geglaubten Gefahren der Endlagerung = Untertage-Deponierung von hoch radioaktiven Stoffen und der Kernenergie für sich nutzen. Das gleiche gilt auch durch das Verbreitung von Ängsten vor den Gefahren des Spurengases CO2, dessen Anteil in der Luft nur 0,004 Prozent beträgt und vor der angeblich damit zusammenhängenden Klimakatastrophe für ihre gewünschte Politik zu instrumentalisieren. Dieser zuletzt genannte ideologische Hintergrund stammt jedoch ursprünglich aus den USA, wird aber auch gerne in Deutschland zur Erweiterung ihrer Macht aber auch ihrer eigenen Pfründe und Spenden eingesetzt. In diesen politischen Organisationen und Stiftungen haben deren Akteure nur in den wenigsten Fällen eine naturwissenschaftliche, technische sowie ökonomische Ausbildung und auch die Wenigsten eine praktische Erfahrung in den von ihnen bekämpften Fachbereichen. Dagegen häufen sich dort Personen, nicht nur in den NGOs, sondern auch in leitenden öffentlichen Ämtern und Berufsgruppen, die für naturwissenschaftliche und industrielle Bereiche weder ausgebildet sind noch praktische Erfahrung haben: Beispielhaft seien hier nur genannt: Germanistik, Journalistik, Politische Wissenschaft, Literatur, Geschichte, Historiker, Philosophen, Maler, Aktionskünstler, Sozialwissenschaftler, Politologen, Volkswirtschaftler, Kommunikationswissenschaftler, Volkswirtschaftler, Rechtswissenschaftler, Studienabbrecher und eine beeindruckende Fortsetzung früherer fachfremden Mitglieder des maoistischen KBW: „… In seinen Reihen waren auffallend viele Ärzte, Lehrer, ca. 70 Rechtsanwälte, Professoren (und bis zu ihrem Austritt ca. 1974–1975 auch etwa fünf evangelische Pfarrer)“. Das ist ein weiterer Hinweis, wie effektiv sich diese Strategie einer langjährig subtil gesteuerten ‚XI NAO‘-Taktik und Propagandapolitik entfalten konnte. Für die landesweite Verbreitung ihrer Politik war zusätzlich die enorm wachsende Informationstechnologie, mit der die Mechanismen der digitalen Revolution perfekt geschaffen wurden und eine ideale Platform für eine möglichst engen Vernetzung der Aktivisten für die Verbreitung ihrer Ideologie bildet. Im Gegensatz dazu bestanden für die, die Verantwortung für die wissenschaftlich technische Durchführung des Endlagers = Untertage Deponie zu tragen hatten, kaum Möglichkeiten, die Öffentlichkeit weder über die erfolgreichen Fortschritte des Projektes zu informieren noch deutlich genug öffentlich die jahrelangen ideologisch geprägten Vorwürfe über die Gefahren, Fehler und Inkompetenz der Gegner zu widerlegen. Die Energiewirtschaft war nur für die Finanzierung verantwortlich, das BfS als untergeordnete Behörde des Bundesumweltministeriums, war nicht nur aus politischen Gründen, sondern auch formal nicht frei, den Gegnern zu widersprechen. Die beteiligten Behörden und Forschungseinrichtungen hatten abgesehen von rein fachlichen Berichten, dazu ebenfalls keine Befugnis. Auf dieser Basis war eine Vernetzung der Fachverantwortlichen und eine sachgerechte Information der Öffentlichkeit einschließlich der Medien unmöglich. Das bedeutet in diesem Fall, dass heute in Deutschland kein Gleichgewicht mehr zwischen gesinnungsethischem und verantwortungsethischem Handeln besteht. 

Ergebnis: Die Gegner, die Anti-Nucs und ihre ideologischen Glaubensbürger haben heute die absolute Informationshoheit über den wissenschaftlichen technischen Sachstand der Endlagerung erreicht. Noch deutlicher zeigt sich der Erfolg ihrer maoistischen ‚XI NAO‘ Taktik an der Einschätzung und Bewertung des Reaktorunfalls Fukushima Daiichi 2011 durch einen von der Regierung ernannten Ethikrat, der schlauerweise von der Regierung die politische Verantwortung für der Entscheidung über die künftige Energieversorgung Deutschlands übertragen bekommen hatte. Aus menschlicher Sicht war die Havarie eine Katastrophe, aus  technischer Sicht war die primäre Ursache der Havarie nicht eine Folge des Erdbebens der Stärke 9, sondern eine dadurch verursachte sehr hohe Tsunami-Welle. Für diesen Standort waren die Kernkraftwerke nicht technisch korrekt gegen die Kraft einer solchen Welle ausgelegt, obwohl bekannt ist, dass schon im Jahr 869 im gleichen Gebiet, eine Tsunami-Welle mit der gleichen Wucht die gleiche Zerstörung bewirkt hatte. Ohne abzuwarten, bis die Ursachen des Unglücks geklärt waren, brach insbesondere in Deutschland eine Hysterie aus, die dem Machtwillen der hungrigen Ökosozialisten in die Hände spielte. Anstatt wie andere Länder abzuwarten, bis die Ursachen der Havarie bekannt geworden sind, hatte die deutsche Regierung – weltweit einmalig – nur vier Tage nach der gewaltigen Naturkatastrophe, ein Moratorium zur Abschaltung der älteren Atomreaktoren in Deutschland verfügt. Anschließend innerhalb eines Monats, hatte sie ohne eine Analyse der gesellschaftlichen, technischen und ökonomischen Folgen dieser weitreiche nden Entscheidung auf die ‚kenntnislose‘

Empfehlung eines Ethikrates in gerade mal hundertzehn Tagen ein neues Gesetz fabriziert, in dem sie sich – wieder weltweit einmalig – von der Kernkraft endgültig verabschiedet hat: „… Die Kommission ist der festen Überzeugung, dass der Ausstieg aus der Nutzung der Kernenergienötig ist und es wird empfohlen, um Risiken, die, von der Kernkraft in Deutschland  ausgehen, in Zukunft auszuschließen …… es wird behauptet, der „schnellstmögliche Ausstieg aus der Kernenergie sei ethisch gut begründet …“ Diese Hast des Gesetzgebungsprozesses ist unvereinbar mit der Ausdauer, die für eine gewünschte Energiewende – aus welchen Gründen auch immer – notwendig ist, um die technische und wirtschaftliche Komplexität einer neuen Energiewirtschaft mit einer effizienten Brückentechnologie zu verstehen und später erfolgreich umzusetzen, wie das bei der Auswahl und Erkundung des Salzstock Gorleben bis 2001 beispielhaft der Fall war. Bei dem Panikablauf der Politik muss allerdings anerkannt werden, dass sich die 14 ehrenwerten Mitglieder der deutschen Gesellschaft kaum anders entscheiden konnten, da sie als Folge der Jahrzehnte langen politischen Indoktrination der grün-ökologistischen Bewegung mit den wirklichen technischen Fakten nicht vertraut sein konnten und somit unbewusst Opfer einer fragwürdigen Politik geworden sind. 

Im Ausland spricht man schon von der neudeutschen Ethik. Dies zu Recht. Denn diese Bewertung steht der klaren Botschaft der UNSCEAR und WHO gegenüber. Ihr Vergleich zeigt die Todesrate nach Energiequellen an und zwar bezogen auf je eine Billion erzeugter Kilowattstunden (kWh): die Kernkraft liegt, wie zu erwarten, am niedrigsten. In Deutschland hat diese langjährige  Indoktrination der Gesellschaft durch die grün-öklogistische Bewegung über die weltweit bekannten Fakten wieder einmal gewonnen und nicht nur für die dafür Verantwortlichen zu einem großen politischen Sieg geführt, sondern auch zu hohen Profiten bei den zahlreichen Subventionsgewinnlern.  Abgesehen von diesen hat der Rest der Bevölkerung noch bis in die nächste Generationen die wirtschaftlichen und ökologischen – nicht öklogistischen – negativen Folgen zu tragen. Dass beispielsweise in Deutschland in Krankenhäusern jährlich mehr als15.000 Patienten an Infektionen sterben müssen, obwohl die Kosten für zusätzlichen Hygienemaßnahmen überschaubar sind, bleib dies für einen grün-ökologistisch gesteuerte Politik Nebensache. Denn bei diesem Thema bleibt auch für den mündigen Bürger das politisch nutzbare Angstpotenzial viel zu gering und löst bei ihnen keine Hysterie aus. Festzustellen ist jedenfalls, dass es sich bei der Endlagerung = Untertage-Deponierung von hoch radioaktiven „Abfällen“ um einen Fall von Täuschung und Unaufrichtigkeit handelt, der in unserer Gesellschaft ungestraft hingenommen wird. Die Verlogenheit triumphiert ein weiteres Mal. 

Zurück zur Objektivität: Die ‚Kommission Lagerung hoch radioaktiver Abfallstoffe‘ besteht aus 2 Vorsitzenden, 8 Vertretern der Wissenschaft, 8 Vertretern gesellschaftlicher Gruppen, 8 Mitgliedern des Deutschen Bundestages und 8 Mitgliedern von Landesregierungen. Hinzu kommen jeweils 8 Vertreter der Politiker, also insgesamt 34 offizielle Mitglieder und 14 Vertreter der Politik. Wie vielen dieser ehrenwerten Mitglieder der deutschen Gesellschaft dürfte bei ihrer Entscheidung zur Endlagerwende bekannt gewesen sein:

1.     die positive Bewertung Gorlebens durch die „International Expert Group Gorleben (IEG)“ von 2001?  „… die hierbei gewonnenen Ergebnisse belegen nachvollziehbar, dass eine begründete Aussicht auf eine Eignung insbesondere für die Endlagerung hochradioaktiver, wärme entwickelnder Abfälle und abgebrannter Brennelemente besteht …“ ?(siehe Teil II)

2.     die negative Behauptung des Umweltministers Wenzel vom 12.09.2014, dass der Standort Gorleben geologisch ungeeignet und politisch verbrannt ist“? (Teil I)

3.     die positiven Ergebnisse der ‚Vorläufigen Sicherheitsanalyse Gorleben (VSG)‘ von 2012 einschließlich den Strukturplan der 9 Millionen teuren Analyse mit der eingeplanten wichtigen abschließenden Bewertung durch eine Internationale ‚Peer Review Gruppe? (siehe Teil II)

4.     der geschickte Trick der Anti-Nucs, dass dort das wichtigste Arbeitspaket ‚internationale Bewertung der Analyse‘ nicht nur nicht beauftragt worden ist, sondern auch noch mit dem Standortauswahlgesetz vom 2013 verboten worden ist? (siehe Teil II).

Grund  für dieses ungewöhnliche Verbot durch ein Gesetz  dürfte sein, später eine aus ökonomischen und ökologischen – nicht ökologistischen – Gründen abschließende Bewertung ohne Gesetzesänderung erheblich zu erschweren. Dem Leser sei hier überlassen, selbst zu beurteilen, ob den meisten Mitgliedern der Kommission, außer denen, die zum Kern der grünen Bewegung zählen, diese nachprüfbaren Fakten wirklich im Detail bekannt sein konnten –  und wenn diese Einschätzung stimmt, deren Beurteilung nicht auf einer sachlich nachprüfbaren Faktenlage zu Gorleben beruhen kann. Wieder ein sehr sehr teurer Sieg des deutschen Ökosozialismus!                                                                                                        

Lit.: Hintergrund Informationen zu dem Text sind bei Google im Internet zu finden unter ‚Helmut Fuchs Geologe‘. 

Volkswagen betrügt seit einigen Jahren ihre weltweiten Kunden mit gefälschten Abgaswerten. In den USA wurde von einer Umwelt-Behörde dieser Sachverhalt festgestellt. Als Folge wurde VW für diese angebliche Fälschung angeklagt und wird dafür mit der Zahlung eines hohen Gesamtbetrags (Gesamtbetrag noch unbekannt) bestraft werden. Die Verantwortlichen in Deutschland sind als Folge davon zurückgetreten und müssen möglicherweise mit Strafzahlungen rechnen. Hier gab es Ankläger!

Vorstandschef John Stumpf von der bedeutenden US-Bank Wells Fargo tritt nach der Veröffentlichung von skandalösen Geschäftspraktiken wie die Eröffnung von Scheinkunden durch die Bank mit sofortiger Wirkung zurück. Vom Direktorium wurde ihm ein Aktienbonus in Höhe von 41 Millionen Dollar gestrichen. Zusätzlich musste er sich einer Anhörung im US-Senat stellen. Hier gab es Ankläger.

Verteidigungsminister Karl-Theodor zu Guttenberg CDU ist wegen seiner Plagiatsaffäre zurückgetreten. Für den Staat sind für seine Verfehlungen kaum Kosten entstanden. Er sagte, „er ziehe Konsequenzen, die er auch von anderen verlangt habe“. Der bayrische Kultusminister Ludwig Spaenle sprach von einem Schritt, der Respekt verdiene und der Guttenbergs Persönlichkeit unterstreiche.

Bundesbildungsministerin Annette Schavan CDU ist wegen der Aberkennung ihres Doktortitels durch die Universität Düsseldorf zurückgetreten. Die Bundeskanzlerin sagte, sie habe den Rücktritt Schavans sehr schweren Herzens angenommen. Durch ihre Verfehlung ist dem Staat kaum ein  finanzieller Schaden entstanden.

Umweltminister Stephan Wenzel, Glied der grünen Bewegung und Mitglied der Endlagersuchkommission wird weiter behaupten dürfen: „Gorleben ist geologisch ungeeignet und politisch verbrannt“. Diese Aussage wird den Bundesbürger noch sehr viel Geld kosten! Hier kann der aufgeklärte Wähler Ankläger werden. Er müsste sich nur bald entscheiden.

                                                                                                                                                                                         Wilhelm Busch: Friedr. Bassermannsche Verlagsbuchhandlung, München, 1924

P.s.: Schweizer lehnen den schnellen Atomausstieg am 27. November 2016 ab!

Die hochgelobte, teure und umweltschädliche Energiewende und Endlagerwende zeigt wieder einmal deutlich das Alleinstellungsmerkmal der  ‚deutschen Wende‘. Wie in meiner Analyse aufgezeigt, ist dieser deutsche Alleingang die Folge einer langjährigen ökosozialistischen Gehirnwäsche der Bevölkerung durch die grüne Bewegung mit einer propagandistischen Desinformationspolitik – und erkauft mit einer monströsen Subventionspolitik. Kein Wunder, dass die Erklärung des deutschen Ethikrats lautet:  „… Die Kommission ist der festen Überzeugung, dass der Ausstieg aus der Nutzung der Kernenergie … nötig ist und es wird empfohlen, um Risiken, die von der Kernkraft in Deutschland  ausgehen, in Zukunft auszuschließen …… es wird behauptet, der „schnellstmögliche Ausstieg aus  der Kernenergie sei ethisch gut begründet …“




Gorleben II – Endlagerwende 2016 (Teil II von III) Stefan Wenzel Umweltminister – Mastermind der Wende

von Dr. Helmut Fuchs, Geologe

Letzter Abschnitt des Teil I:

Die vom niedersächsischen Umweltminister Stefan Wenzel sehr verkürzte Zusammenstellung (Teil I :Ideologie) der Ergebnisse von Gorleben zeigt im folgenden Teil II: Realität überdeutlich, wie die Gläubigen der grünen-ökologistischen Bewegung mit ihren grünen Hilfstruppen von NGOs in der politischen Diskussion zu Gorleben jahrelang eine massive, sehr selektive, ja destruktive Berichterstattung gegenüber der Bevölkerung, den Medien und der Presse praktiziert haben und noch praktizieren – und möglicherweise die Mitglieder der Endlagerkommission manipulativ, d.h. verdeckt aber gezielt bei ihren Entscheidungen zu Gorleben beeinflusst haben könnten. Den  Abgeordneten Dr. Gero Hocker sowie Dr. Stefan Birkner (FDP) sei deshalb hier großer Dank ausgesprochen. Mit ihrer Kleinen Anfrage an das niedersächsische Umweltministerium ‚Darf Gorleben vor ab ausgeschlossen werden?‘ war diese gezwungen, mit der Beantwortung der Frage ihre langjährige politische Strategie Preis zu geben, wie sie ihr Ziel erreichen konnte, Gorleben von der Landkarte zu streichen.

Teil II:  Realität

Im Jahr 1998 hat die neu gewählt rot-grüne Bundesregierung entschieden, wegen ihres Zweifels an einer sachgerechten Auswahl des Standortes Gorleben aber insbesondere auch wegen des Zweifels  an den bis dahin erarbeiteten fachlichen Ergebnissen der Untersuchungen des Standortes eine Unterbrechung aller weiteren fachlichen Untersuchungen zu verordnen. Begründung dafür war, die Bevölkerung vor möglichen zukünftig zu erwartenden Gefahren und insbesondere vor angeblichen langjährigen Schäden durch das Projekt zu verhindern. Im Jahr 2000 wurde deshalb ein Moratorium für die untertägige Erkundung des Salzstocks für einen Zeitraum von drei bis zehn Jahre beschlossen – das letztendlich 10 Jahre dauerte.

Da diese Zweifel nur von Vertretern der grünen Bewegung und ihren NGO-Hilfstruppen geäußert wurden, diese Meinung jedoch nicht von den meisten Fachleuten und Fachbehörden geteilt wurde und damals auch nicht von Mitgliedern anderer Parteien, entschlossen sich die für die Kosten der Entsorgung des „Atommülls“ verantwortlichen Stromversorgungsunternehmen zu hinterfragen, inwieweit diese Zweifel aus fachlicher Sicht gerechtfertigt sind. Als Folge wurde GNS mbH beauftragt, durch eine international besetzte Expertengruppe bewerten zu lassen, ob nach internationalen Standards ein derartiges Moratorium gerechtfertigt ist. Der in englisch geschriebene Ergebnisbericht – mit deutscher Einleitung und Zusammenfassung – wurde im Juli 2001 an das BfS sowie an die BGR übergeben, deren Mitarbeiter aus beiden Behörden die Gruppe fachlich ausführlich unterstützt haben. Gleichzeitig wurden die Ergebnisse des Berichts in Hannover der Presse vorgestellt.

Um die große Differenz der Bewertung der bisherigen Untersuchungsergebnisse zwischen der subjektiven Einschätzung deutscher Politiker und der objektiven Beurteilung durch deutsche und internationale Fachleute aufzuzeigen, werden zum Vergleich die Aussagen des Umweltministers von Niedersachsen mit den tatsächlichen Ergebnissen verglichen. Beispielhaft wird dies an den beiden folgenden öffentlich zugänglichen Berichten gezeigt: Bericht der ‚International Expert Group  Gorleben (IEG)‘ aus dem Jahr 2001und der ‚Vorläufige Sicherheitsanalyse Gorleben (VSG)‘ von 2013. 

Die International Expert Group Gorleben (IEG) wurde mit dem Ziel zusammen gestellt, für die  deutschen Stromversorgungsunternehmen eine objektive wissenschaftliche Beurteilung der Untersuchungen des Salzstocks als potentieller Endlagerstandort zu erstellen. Dabei sollte die IEG zusätzlich zu einer fachlichen Bewertung der methodischen, wissenschaftlichen und technischen Ergebnisse auch ihre Einschätzung zu den wesentlichen politischen Zweifeln der damaligen Regierung abgeben. Insbesondere deshalb, weil vor dem Regierungswechsel Ende 1998 das BfS und das BMU (BMU 1998) keine Zweifel hinsichtlich der Eignungshöffigkeit des Salzstocks als Endlager geäußert hat: „… die hierbei gewonnenen Ergebnisse belegen nachvollziehbar, dass eine begründete Aussicht auf eine Eignung insbesondere für die Endlagerung hochradioaktiver, wärmeentwickelnder Abfälle und abgebrannter Brennelemente besteht …“.

Der IEG gehörten diese Fachleute an:

Per-Eric Ahlström: Senior Consultant, Swedish Nuclear Fuel and Waste Management Co (SKB), graduated as MSc in Engineering Physics in 1956. From 1956-1984 Mr. Ahlström was with Vattenfall working in nuclear engineering, reactor physics, reactor safety, nuclear fuel management, nuclear waste management. From 1984 -1992 he was research director of SKB, and from 1993 until his retirement in 1997 Vice President of SKB. Under his leadership at SKB, the Swedish waste management programme ran international R&D programmes in underground laboratories, sited and constructed a centralized fuel storage facility and a final repository for reactor wastes, and maintained one of the world’s most advanced deep geological repository development programmes. 

D. C. Alexandre, chemist and geologist, entered the French CEA (Atomic Energy Commission) in 1961, when he was put incharge of studies on uranium ore treatment and uranium processing. ln 1983 he became head of the Cadarache Research Centre, department of R&D on radioactive waste (treatment, conditioning and characterizationfor the French territory). ln 1987 he became Deputy Director of ANDRA (French Agency for Radioactive Waste Management) where he remained until in 1990 he returned to CEA as Research Director for the programme on direct disposal. Dr. Alexandre was representatve of France at the EC for many years. He retired in October 1996 

Dr. Colin Heath is an Assistant General Manager for TRW Environmental Safety Systems, the contractor which has performed extensive studies at the Yucca Mountain site for the US Department of Energy (DOE) where he has worked since 1993. He received a PhD in nuclear engineering in 1964 after graduating with a BS in chemical engineering in 1960″. From 1977 to 1981 Dr. Heath was Director of the US DOE’s initial siting investigations for radioactive waste repositories; he has been closely involved with all aspects of the US spent fuel storage and disposal for 25 years. 

Professor Dr.-lng. Klaus Kühn, graduated as a mining engineer from the Bergakademie Clausthal (Clausthal School of Mines) and received his doctorate from the Technische Universität Clausthal. In 1965 he joint the national research centre GSF (then named Gesellschaft für Strahlenforschung, today GSF – Forschungszentrum für Umwelt und Gesundheit). After founding the GSF – Institut für Tieflagerung (Institute for Underground Disposal), he was its director from 1973 until1995. Since then, he works as scientific advisor for GSF and as Professor at the Technische Universität

Clausthal. He was and is a member of many national and international committees. e.g. the German Reaktor-Sicherheitskommission (RSK – Reactor-Safety Commission) from 1983 until 1998, as an expert in radioactive waste management.

Dr. Charles McCombie received a PhD Degree in Physics in 1971. From 1970-74, he worked at the United Kingdom Atomic Energy Authority, England and from 1974-79 at the Swiss Institute for Reactor Research, now the Paul Scherrer Institute. Dr. McCombie is an independent advisor in international nuclear waste management. His principal role at present is as Head of Science, Technology and Engineering for Pangea Resources Australia. Prior to this he was Director of Science & Technology at Nagra (National Co-operative for the Disposal of Radioactive Wastes) in Switzerland for almost 20 years. He is retained as Executive Advisor to Nagra, has directly advised waste management projects in various other countries (e.g. Japan, Canada. Germany) and for the OECD/INEA. He is currently Vice Chairman of the Board of RadioactiveWaste Management of the National Academies of the USA and a member of the Nuclear Research Advisory Committee of the National Paul Scherrer Research Institute.

Dr. Wendell D. Weart is a Senior Fellow at Sandia National Laboratories in Albuquerque, New Mexico. He possesses a Doctorate in geophysics with undergraduate degrees in geology and mathematics. He was the scientific programme manager for the Waste Isolation Pilot Plant (WIPP) from its inception in 1975 until 1995 when he became senior scientist and Labaratory Fellow advising on Nuclear Waste Management issues. WIPP, a custom built deep geological repository for long-lived transuranic wastes, is the first facility of this type to have successfully gone through a formal permitting procedure leading to active operation.

Zusammenfassendes Ergebnis der Studie: „Repository Projekt Gorleben – Evaluation of the Present Situation der IEG“, 2001. (Auszüge aus der Gesamtbewertung)

Das Untersuchungsprogramm, das bisher in Gorleben durchgefü hrt wurde, ist umfassender als bei irgendeiner anderen Erkundung eines potentiellen Endlagerstandortes weltweit, ausgenommen die beiden Projekte WIPP und Yucca Mountain in den USA. Eine umfangreiche Datenbasis für Gorleben wurde zusammengestellt. In ihrer Gesamtbeurteilung hat die IEG keine wissenschaftlichen oder technischen Argumente gefunden, die den Salzstock von Gorleben als potentiellen Standort für ein Endlager disqualifizieren. Das bedeutet nicht, dass alle für ein Genehmigungsverfahren erforderlichen Daten schon erarbeitet wurden. Weitere Untersuchungen sind notwendig, wie in dem Programm zur Charakterisierung des Standorts, das durch die Verhängung eines Moratoriums abgebrochen wurde, festgelegt. Die IEG ist der Ansicht, dass sich durch den Abschluss der ursprünglich geplanten Erkundungsarbeiten eine vollständige Grundlage für die Bewertung der Eignung von Gorleben als HAW Endlager ergeben würde….

… Die lEG stellt außerdem fest, dass eine Langzeitsicherheitsanalyse(TSPA) für das geplante Endlager in Gorleben bisher nicht systematisch und nach dem neusten Stand der Erkenntnisse erarbeitet worden ist. Die IEG erachtet es daher für außerordentlich wichtig, mit dieser Art von TSPA für Gorleben zu beginnen. Nach ihrer Fertigstellung muss eine Überprüfung in Form einer unabhängigen „Peer Review“ durchgeführt werden….

Schlussfolgerungen der IEG zu der derzeitigen deutschen Entsorgungsstrategie: Die neuen Grundsatzentscheidungen der Bundesregierung basieren nicht allein auf wissenschaftlichen und technischen Argumenten. Wie in allen Ländern müssen gesellschaftliche und politische Aspekte ebenfalls berücksichtigt werden. Dennoch ist es wichtig, so genau wie möglich zwischen den Gründen zu unterscheiden, an Hand derer Entscheidungen legitim getroffen werden können. Wissenschaftler, die sich mit der Endlagerung beschäftigen, so wie in anderen Bereichen mit weitreichenden Auswirkungen auf die Gesellschaft auch, haben eine Verantwortung, sich objektiven

Argumenten zu widersetzen, die in Entscheidungsprozessen zu früh mit politischen Gesichtspunkten vermischt werden…“.

Zum Schluss sei angemerkt, dass nach meinem Wissen der IEG Bericht von 2001 in keinem veröffentlichen Bericht des BMU, des BfS oder den bestens vernetzten NGOs erwähnt wird – außer in dem folgenden VSG-Bericht der GRS. In dem Projektstrukturplan ist aus gutem Grund, wie im IEG Bericht empfohlen, als letztes Arbeitspaket eine International Peer-Review-Bewertung zur Überprüfung der wissenschaftlichen Ergebnisse fest eingeplant.

Vorläufige Sicherheitsanalys Gorleben (VSG) erstellt von der GRS

In einer gemeinsamen Erklärung von Bundesminister Röttgen und dem Präsidenten des BfS König wurde im November 2010 die Erstellung einer vorläufigen Sicherheitsanalyse für den Standort Gorleben (VSG) angekündigt: „Das Moratorium würde zum 1. Oktober 2010 wieder aufgehoben. Mit der Wiederaufnahme der Erkundungsarbeiten solle endlich Klarheit geschaffen werden … eine ergebnisoffene Erkundung muss die Eignung oder Nichteignung des Salzstocks Gorleben umfassend begründen. Sollte sich der Salzstock als ungeeignet erweisen, müssen wir neue Wege finden …“ Bei der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) wurde deshalb diese vorläufige Sicherheitsanalyse für Gorleben (SVG) in Auftrag gegeben, die alle bisherigen Untersuchungsergebnisse analysieren und zusammenfassen soll. Der Ergebnisbericht der GRS liegt inzwischen vor (GRS-290; 2012). In meinen beiden Beiträgen („Gorleben und das Standortauswahlgesetz – Ad calendas graecas“ und „Gorleben – Vorläufige Sicherheitsanalyse Gorleben ist geeignet“) habe ich die technischen und politischen Hintergründe zur Entstehung der Studie genannt, die keine Erkenntnisse enthält, die gegen die Eignungshöffigkeit sprechen. Sie wurde von neutralen Wissenschaftlern auf der Basis umfassender Einzelberichte (25 von insgesamt 5628 Seiten) von folgenden Forschungseinrichtungen erstellt, hat 424 Seiten und kostete den Steuerzahler fast neun Millionen Euro. Damit jeder interessierte Leser diese objektive Aussage überprüfen kann, habe ich im Folgenden die jeweiligen Ergebnisse (Fazite) der einzelnen Kapitel der GRS-Studie transparent gemacht.

Beauftragte Organisationen:

– Bundesanstalt für Geowissenschaften und Rohstoffe (BGR), – DBE TECHNOLOGY GmbH, – das Institut für Aufbereitung, Deponietechnik und Geomechanik der TU Clausthal, – Institut für Gebirgsmechanik GmbH (IfG), – Institut für Sicherheitstechnologie (ISTec), – Karlsruher Institut für Technologie/Institut für Nukleare Entsorgung (KIT/INE), – international nuclear safety engineering GmbH (nse; Zusammenschluss mehrerer Institute der RWTH Aachen), – Institut für Atmosphäre und Umwelt (IAU) der Universität Frankfurt – T-Systems Solutions for Research GmbH.

Ergebnisse der Bewertung                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                         KAPITEL 5 Umsetzung des Sicherheits- und Nachweiskonzept im Vorhaben VSG S.77 bis S. 256

Fazit S.103, M:Zusammenfassend ist festzustellen, dass keine grundsätzlichen Zweifel an der technischen Umsetzbarkeit der im Vorhaben entwickelten Auffahrungs- und Einlagerungskonzepte bestehen …“

Fazit S.110, M1:… dass die Maßnahme M1 bei der Auslegung der Grubengebäude auf konzeptioneller Basis umgesetzt wurde. Die Anzahl, Längen und Querschnitte der Einlagerungsstrecken bzw. Einlagerungsbohrlöchern ergeben sich aus der Anzahl der und den Abmessungen der Behälter … In zukünftigen Optimierungen können sicherheitstechnische Zielsetzungen von Bedeutung sein …“

Fazit S.118, M10:… dass die geforderte Maßnahme M10 konzeptionell insgesamt umgesetzt und auch in der Realität betriebstechnisch mit heutiger Bergbautechnik umsetzbar ist .“

Fazit S.126 M12, M15:… dass die Forderung, die sich aus den Maßnahmen M12 und M15 ableiten, im Vorhaben VSG auf konzeptioneller Basis für den Fall der Strecken-und Bohrlochlagerung umgesetzt wurden …“

Fazit S.131  M13 M14: … dass das Hauptsalz im Kernbereich des Salzstocks und damit auch in der Umgebung des Einlagerungsbereiches auf Grund der geologischen Entwicklungsgeschichte durch eine halokinetisch bedingte intensive Deformation und daraus resultierende Homogenisierung gekennzeichnet ist. Gleichzeitig weist es einen hohen Rekristallisationsgrad und die Abwesenheit von hydraulischen Klüften, Störungen oder makroskopischen Lösungsvorkommen auf …

Die Erfüllung der mit der Maßnahme M2 verbundenen Anforderungen an die Eigenschaften der geologischen Barriere kann daher unter der grundlegenden Annahme im Vorhaben VSG, dass die im Erkundungsbereich 1 erzielten Erkundungsergebnisse auf nicht erkundete Hauptsalzpartien übertragen werden können, grundsätzlich als gegeben angesehen werden …“

Fazit S.137, M13, M14: Die im Vorhaben VSG durchgeführte Endlagerplanung sieht den Einlagerungsbereich der Streckenlagerung auf der 870-m-Sohle vor. Auch das Prinzip der Bohrlochlagerung (Variante C) sieht das Niveau der Überfahrungsstrecken, von denen aus die Bohrlöcher beladen werden, auf einer Teufe von 870m vor. Durch die Endlagerplanung ist gewährleistet, dass große Mächtigkeiten der Salzbarriere zu den Seiten sowie nach oben zum Salzspiegel vorhanden sind …“

Fazit S.138 M14:Für die nächste eine Million Jahre ist davon auszugehen, dass aufgrund der geringen verbliebenen Mengen mobilisierbaren Hauptsalzes im Bereich der Zechstein-Basis und unter dem Einfluss des rezenten Hauptspannungsfeldes keine erneute massive Salzeinwanderung in die Struktur mit entscheidenden Änderungen der geologischen Standortverhältnisse stattfinden …“

Fazit S.170, M6, M7, M8, M16: … dass die Maßnahme M7 zwar durch das im Vorhaben VSG entwickelten Verschlusskonzept auf konzeptioneller Basis formal umgesetzt wurde und erfolgversprechend erscheint. Trotz umfangreicher Untersuchungen in der Vergangenheit fehlt jedoch noch ein fundiertes Prozessverständnis bezüglich der erreichbaren Endporosität und zur Geschwindigkeit der Salzgruskompaktion bei geringer Feuchtigkeitszugabe unter realen Endlagerbedingungen. Es gelten diesbezüglich die gleichen Vorbehalte, die im Zusammenhang mit der Umsetzbarkeit der Maßnahmen M6, M8, und M16 dargestellt wurden …“

Fazit S. 229 Einschluss der Nuklide: Aufgrund der großräumigen Integrität der an das Endlagerbergwerk angrenzenden Bereiche der geologischen Barriere, der Integrität der Verschlussbauwerke über ihre Funktionsdauer sowie der Einschlusseigenschaften des kompaktierten Versatzes kann für den Standort ein einschlusswirksamer Gebirgsbereich in Lage und Grenze ausgewiesen werden ..

KAPITEL 6 Zusammenfassung der Ergebnisse S. 257 bis S.312                       Projektstrukturplan VSG 

Kapitel 6.1 Grundlegende Annahmen S. 257 „… Ein Großteil der im  Vorhaben VSG erzielten Ergebnisse und die nachfolgenden Ausführungen stehen unter dem Vorbehalt, dass die Ergebnisse zukünftiger Erkundungs- bzw. Forschungsarbeiten bestätigen, dass die nachfolgend aufgelisteten grundlegenden Annahmen zutreffen…“

Kapitel 6.2 Umsetzung der Sicherheitsanforderungen des BMU im Vorhaben VSG

Kapitel 6.2.1 Anforderungen an die Endlagerauslegung

Fazit S.267:… Zusammenfassend ist folgendes festzustellen: Die Sicherheitsanforderungen des BMU an die Endlagerauslegung können generell auf der für eine vorläufige Sicherheitsanalyse typischen konzeptuellen Ebene als erfüllt bzw. in Zukunft als erfüllbar angesehen werden. …“

Kapitel 6.2.2 Anforderungen an die Nachweisführung

Fazit: S.288:Aus den im vorangegangenen dargelegten Gründen wird davon ausgegangen, dass die Anforderungen an die langzeitsicherheitsgerichteten Nachweise, soweit diese den dauerhaften Einschluss der aus den Abfällen stammenden Radionuklide betreffen, auf konzeptioneller Basis umgesetzt wurden … Die zusammenfassenden Aussagen am Ende des Kapitels 6.2.1 zum FuE-Bedarf bei den im Vorhaben VSG projektierten Verschlussprojekten und zum langfristigen Kompaktionsverhalten von Salzgrusversatz gelten hier gleichermaßen, ebenso wie die Einschränkungen zur Durchführung von Optimierungsmaßnahmen im Vorhaben VSG …“

Kapitel 6.2.3 Anforderungen an Qualität, Dauerhaftigkeit und Robustheit des Einschlussvermögens des einschlusswirksamen Gebirgsbereiches

Fazit: S. 301: Zusammenfassend wird festgestellt, dass einer zukünftigen potenziellen Beeinträchtigung des Einschlussvermögens des einschlusswirksamen Gebirgsbereichs durch natürliche Ereignisse und Prozesse planerisch Rechnung getragen wird. Gegen kurzfristige Ereignisse wie Erdbeben … wurden die Verschlussbauwerke ausgelegt. Den Auswirkungen durch Subrosion, Erosion, Diapirismus sowie Klimaveränderungen wurde durch … eine ausreichende Teufenlage der Einlagerungsbereiche begegnet …“

Fazit: S. 312: … Bezogen auf die Endlagerung von wärmenentwickelnden radioaktiven Abfälle können unter den in Kapitel 6.1 angeführten Vorbehalte sowohl die projektierten Endlagersystemen als auch die hiermit verbundenen Sicherheitsaussagen als robust angesehen werden. Für das Freisetzungsverhalten gasförmiger Radionuklide gilt dies vorbehaltlich der Modell- Prozess- und Datenungewissheiten nur, wenn Behälter unterstellt werden, die über etwa 500 Jahre gasdicht sind. … Die im Vorhaben VSG entwickelten Endlagerkonzepte werden einschließlich der Rückholungskonzepte als realisierbar angesehen…“

Zusammenfassung der im Anhang der Synthese genannten geowissenschaftlichen Standortbeschreibungen. Bericht zum Arbeitspakete 13 (S. 379 – 424).

In diesen Anhang wird die Geologie im Zusammenhang mit der zukünftigen geologischen Entwicklungsgeschichte des Endlagers genau beschrieben. Ein Inhaltsverzeichnis zu diesem Anhang ist allerdings nicht zu finden. Deshalb ist für den interessierten Leser diese Themengliederung angeführt:

A.1: Schichtenfolge und Lagerungsverhältnisse im Deck- und Nebengebirge: A1.1: Prä-salinarer Untergrund; A1.2: Zechstein; A1.3: Trias bis Oberkreide; A1.4: Tertiär A1.5: Quartär;

A.2: Hydrogeologie: A2.1 Hydrologischer Bau des Deckgebirges; A2.2: Das Süß-/ Salzwassersystem; A2.3: Grundwasserbewegung im Süßwasserkörper; A2.4: Grundwasserbewegung im Salzwasserkörper:

 A.3: Geologie des Salzstocks Gorleben: A3.1: Entwicklungsgeschichte der Salzstruktur Gorleben-Rambo; A3.2: Hutgestein des Salzstocks Gorleben; A3.3: Salzspiegel; A3.4: Subrosion; A3.5: Stratigraphie und Lithologie; A3.6: Klüfte und Störungen im Salinargestein; A3.7: Lösungsvorkommen im Salinargestein; A3.8: Kohlenwasserstoff- und Gasvorkommen im Salinargestein; A3.9:

 A.4: Geologische Langzeitprognose: 4.1: Ableitung der zukünftigen Rahmenentwicklung; 4.2: Wahrscheinliche zukünftige geologische Entwicklung am Standort Gorleben; 4.3: Überregionale Entwicklungen; 4.4 Kaltzeitliche Entwicklungen;

4.5: Wenig wahrscheinliche oder auszuschließende Entwicklungen des geologischen Systems am Standort Gorleben. Literaturverzeichnis.

In diesem Zusammenhang muss nochmals deutlich darauf hingewiesen werden, dass zum einen die im Projektstrukturplan als Abschluss der Analyse festgelegte Bewertung der Ergebnisse, wie von der IEG 2001 empfohlen, auch hier durch ein fest eingeplantes Internationale Peer Review Verfahren abzuschließen ist. Am 23. Juli 2013 wurde jedoch das ‚Stand AG‘ vom Bundestag verabschiedet, in dem es nach § 29 (3) heißt, dass „… spätestens mit Inkrafttreten dieses Gesetzes ohne eine Eignungsprognose für den Standort Gorleben eingestellt wird …“ In einem am 27. Juli 2013 parteiübergreifenden Konsens-Gespräch wurde nur vier Tage später die Vergabe dann auch verboten. Denn eine Vergabe dieser neutralen Analyse jetzt oder auch später, beispielsweise nach einem Regierungswechsel, würde der Öffentlichkeit deutlich zeigen, dass es bei der Entscheidung gegen Gorleben um ein rein ideologisch geprägtes Machtspiel der grünen Bewegung handelt. Und zweitens ist in Kapitel 5, Schlussvorschriften festgeschrieben, dass auch die Ergebnisse der bisherigen Standuntersuchung von Gorleben bei der nach der Endlagerwende erneut beginnenden Suche nach neuen Standorten Gorleben später nur ganz begrenzt bei einem Standortvergleich berücksichtigt werden dürfen. Diese gesetzmäßigen Verbote sind ein klarer Hinweis für die Furcht der grüne Bewegung vor der Wahrheit. Denn über die Qualität und Aussagen einer solchen Bewertung darf heute und möglichst lange nichts ans Licht der Öffentlichkeit kommen. Ist das der Grund für das Fehlen der Nennung der ‚VSG Studie‘ in ANLAGE 2 der Antwort des Umweltministers? In einer Demokratie hat der Bürger ein Recht darauf, die Ergebnisse einer wesentlichen Studie bei einem derart wichtigen Thema zu erfahren, für die er teuer bezahlt hat.

Die bisherigen direkten und indirekten Kosten für Gorleben dürften in der Größenordnung von 2,5 Milliarden Euro liegen. Sie wurden von den Stromkunden und den übrigen Steuerzahlern bezahlt. Sie sind zum großen Teil nach der jetzt im ‚politischen Konsens‘ stattgefundenen Endlagerwende verloren. Die mit dem neuen Standortauswahlgesetz beginnende neue Suche bis zur Genehmigung eines möglichst sicheren Endlagers dürfte Jahrzehnte dauern und Kosten von mehr als 25 Milliarden EURO verursachen. Sie müssen ab jetzt zum großen Teil von den Steuerzahlern der nächsten Generationen nochmals aufgebracht werden, mit dem großen Risiko, dass in Folge der rasant wachsenden Technologien in Zukunft – „Atommüll“ wird zum Energierohstoff – ein Endlager in tiefen geologischen Formationen möglicherweise nicht mehr gebraucht wird. Siehe meinen Bericht: „Substanzlose Endlagersuche“.

Der Neuanfang nach der Endlagerwende 


Wilhelm Hauffs Märchen, K Thiedemanns Verlag, Stuttgart 1945

Die politische Einschätzung des Umweltministers Wenzel zu Gorleben, die er Kraft seines Amtes öffentlichen verbreitet hat: „Die Landesregierung bleibt bei der Auffassung, dass der Standort Gorleben geologisch ungeeignet und politisch verbrannt ist“ entspricht fast ausschließlich den Vorstellungen seiner Parteigenossen bzw. den bis Brüssel bestens vernetzten Anti-Nuk Lobbyisten. Mit der Realität hat diese Einschätzung jedoch wenig zu tun. Somit ist die Aussage von ihm weniger den qualitativ hochwertigen Arbeiten in Gorleben geschuldet, sondern eher den Brandstiftern der grünen Bewegung.                                                  

                                

 

Lit.: – Zusammenfassung: ‚International Expert Group  Gorleben (IEG) Novo Argumente“

– Gesamtbericht: ‚International Expert Group  Gorleben (IEG)‘

– Zusätzliche Hintergrundinformationen sind bei Google im Internet zu finden unter ‚Helmut Fuchs, Geologe‘

Teil III:  Analyse

…Hinter dieser seit dem Jahr 2000 zunehmend gezielten Politik der Desinformation durch die Verantwortlichen für die Endlagerung = Untertage Deponierung hochradioaktiver „Abfälle“, also insbesondere durch die Parteien, das BMU sowie das BfS, ihre politischen Mitstreiter und die zahlreichen NGOs steckt eine langjährig angelegte Strategie, obwohl sie fleißig in der Öffentlichkeit den Eindruck erwecken, die Transparenz und Einbindung der Öffentlichkeit sei ein hohes Gut….