1

Wissenschaftler im Kreuzverhör? Blog eines Rechtsanwaltes im Ruhestand untersucht frühere „Vorhersagen“ von „Klimaexperten“

Ich denke, dass Ian eine echte Herausforderung ist, weil man in seinem Beruf oftmals gezwungen ist, manche Leute ausweglos in die Enge zu treiben. Viele mögen es, Dinge zu sagen oder zu schreiben, aber sind sie auch in der Lage, dies später auch noch zu stützen? Menschen, die auf diese Experten hören, agieren und entscheiden schließlich aufgrund der Dinge, die gesagt worden sind und ernten entweder Vorteile oder erhebliche Schäden als Folge.

Alarmistische Wissenschaftler haben in der Vergangenheit viel gesagt, und es ist an der Zeit zurückzuschauen und zu vergleichen. Das Verfahren könnte etwa so aussehen: Herr Wissenschaftler, vor 15 Jahren haben Sie gesagt, dass Schnee und Eis eine Sache der Vergangenheit wären, und doch erleben wir heutzutage strenge Winter und Rekord-Schneefälle. Was ist hier die Lüge?

In einer E-Mail an mich schrieb Ian: obwohl er keine wissenschaftliche Ausbildung hat, hat er „das Thema Klimawandel als Hobby seit einigen Jahren verfolgt. Es war das Umherwerfen mit Schimpfwörtern der AGW-Unterstützer, das erstmals meinen Verdacht erregte, dass der Fall vielleicht nicht so stark gelöst ist, wie man uns hat glauben machen wollen“.

Er schreibt, seine Absicht sei es, Menschen dazu zu bringen, sich zu überlegen, dass die Wissenschaft vielleicht längst nicht so ,settled‘ ist wie behauptet. Ja, die Jury ist noch aktiv.

Und weil so viele der früheren, während der letzten 40 Jahre ausgegebenen Vorhersagen im Bereich des Absurden lagen, schreibt Ian, wird der Blog sicher eine ganze Menge Humor vermitteln. Und wirklich. Für uns Skeptiker sind frühere Behauptungen von Schnee als „ein Ding der Vergangenheit“ und eine eisfreie Arktis bis zum Jahr 2014 immer noch ein Quell viel Gelächters.

Ich denke, dass diese Art Blog, welcher sich der Untersuchung von Vorhersagen der Vergangenheit verschrieben hat, eine gute Idee ist, weil dies genau das ist, was Wissenschaft ausmacht. Falls die Beobachtungen der Hypothese und den Vorhersagen widersprechen, ist die Hypothese schlicht und ergreifend falsch.

Link: http://notrickszone.com/#sthash.oJ181X9L.dpbs

Übersetzt von Chris Frey EIKE




Sonne und Wind gibt’s umsonst, aber deren Umwandlung in zuverlässigen Strom ist teuer, wenn nicht unmöglich

Weil Solar- und Windenergie nicht 24 Stunden pro Tag an 7 Tagen der Woche verfügbar sind – was oftmals als „nicht auf Abruf zur Verfügung stehend“ bezeichnet wird – benötigt sie bei der Einbettung in das Energie-Portfolio ein Backup, um jederzeit zur Verfügung zu stehen. Wenn die Sonne nicht scheint und der Wind nicht weht, wollen wir immer noch heizen und kochen, telefonieren und unsere Computer gebrauchen. Dies erfordert zwingend fossile Treibstoffe – typischerweise Gaskraftwerke, aber abhängig davon, was gerade verfügbar ist, kann es auch ein Kohlekraftwerk sein, das gezwungen wird, ineffizient zu arbeiten; wobei es mehr CO2 freisetzt als es bei einem normalen Betrieb der Fall wäre. Falls man ein Würstchen grillen will und einen Kohlegrill hat, geht man auch etwa 30 Minuten vor dem geplanten Grillen nach draußen.

Man schüttet die Grillkohle in den Grill, besprengt sie mit einer Brennflüssigkeit und zündet sie an. Sind die Kohlen an den Ecken weiß, sind sie bereit. Man legt das Würstchen auf den Grill und belässt es dort fünf bis acht Minuten. Danach sind aber die Kohlen immer noch stundenlang heiß. Schließlich verbrennen sie zu Asche, die irgendwann kalt genug ist, um sie in einem Plastik-Mülleimer oder im Wald zu entsorgen. Den Grill später am gleichen Tag noch einmal in Betrieb zu nehmen, ist ineffizient.

Zum Vergleich: Falls man das gleiche Würstchen mit Erdgas oder Propan grillt, geht man fünf Minuten vor dem geplanten Grillen hinaus, um die Elemente zu erhitzen. Man grillt das Würstchen und schaltet den Grill danach wieder aus. Keine Kohle und keine Zeit zur Abkühlung wird benötigt. Kraftwerke funktionieren ähnlich. Ein mit Kohle betriebenes Kraftwerk kann nicht einfach so an- und abgeschaltet werden.

Ein solches Kraftwerk arbeitet am effektivsten – das heißt am saubersten – wenn es ununterbrochen brennt. Wie beim Grill kann man weitere Kohle hinzufügen, um die Temperatur hoch zu halten, welche den Dampf zur Stromerzeugung bereit stellt. Aber ein mit Erdgas betriebenes Kraftwerk kann leicht an- und abgeschaltet werden. Wenn also der Wind auf einmal einschläft – ohne Vorwarnung, kann das Gaskraftwerk rasch einspringen, um die benötigte Energie zu erzeugen. Wie man in Deutschland, dem Land mit der höchsten Implementierung erneuerbarer Energie weltweit, herausgefunden hat, braucht man Kohle- und Gaskraftwerke zur Stabilisierung des Netzes. Als Folge seiner Politik zugunsten Erneuerbarer wie Wind und Sonne muss Deutschland seine fossil betriebenen Kraftwerke subventionieren*, um sie weiter betreiben zu können.

[*Das ist ein hoch interessanter Artikel mit einem weiteren Blick von außen auf D! Ich werde mal eruieren, ob man das übersetzen darf. Anm. d. Übers.]

Folge: Durch das Hinzufügen von Solar- und Windenergie zum Energiemix erhöhen sich tatsächlich die Kosten für die nicht gebrauchten Energieversorger – was ultimativ in Gestalt steigender Strompreise die ärmeren Bevölkerungsschichten schädigt, die auch noch für die Kosten der Erneuerbaren aufkommen müssen. In den kalten Wintern von Albuquerque habe ich einmal den Anruf einer „arbeitslosen Single-Mutter bekommen, die in einem 72 m² großen Appartment“ lebt. Als ich den Anruf entgegennahm, beschimpfte sie mich. Sie war wütend. Ihre Lebensumstände bedeuteten, dass sie nicht geheizt hatte, weil sie es sich nicht leisten konnte.

Nach der Erklärung ihrer Lage schimpfte sie: „Ich habe gerade meine Stromrechnung geöffnet. Ich sehe, dass ich pro Monat 1,63 Dollar für erneuerbare Energie zahlen muss“. Und weiter: „Erneuerbare Energie ist mir sch…egal [I don’t give a f#*! about renewable energy]! Warum muss ich dafür zahlen?“ Ich versuchte, ihre Aufmerksamkeit von dem Versorgungsunternehmen ab- und auf die Gesetzgebung zu lenken, die vor fast einem Jahrzehnt den Renewable Portfolio Standard in Kraft gesetzt hatte. Dieser verlangt den Verbrauch immer größerer Mengen teurerer erneuerbarer Energie. Als Folge stiegen ihre Preisraten, und sie hatte in dieser Sache nichts zu sagen – außer dass sie möglicherweise bei den letzten Wahlen für die Gesetzgeber genau die Politiker gewählt hatte, die diese Politik durchgewunken hatten. Jüngst wurde in Florida ein op-ed veröffentlicht, das im Wesentlichen das Gleiche sagt: Erneuerbare Energie bedeutet zusätzliche Kosten für einige Menschen, die es sich am wenigsten leisten können. Das heißt nicht, dass erneuerbare Energie schlecht ist. Ich habe ein paar Freunde, die ohne Netzanschluss leben.

Und zwar Viehzucht-Landwirte, die im Gila-Forest in New Mexico leben. Ohne ihre Solarpaneele hätten sie keine Beleuchtung, keine Computer, keinen direkten Kontakt mit dem Rest der Welt. Für sie sind Solarpaneele auf dem Dach – mit einem Backup in Gestalt von Autobatterien – die Lösung. Zu für sie tragbaren Kosten konnten sie gebrauchte Solarpaneele kaufen. Sie sind dankbar für diese Paneele, aber sie haben nur wenige Optionen – und sie wissen und akzeptieren das. Ohne Nachdenken darüber, was in welcher Situation am Besten ist, hat die Regierung versucht, eine einseitige Lösung für alle Probleme anzuwenden.

Auf der Grundlage des verlogenen Narrativs von Energieknappheit und globaler Erwärmung – äh, Klimawandel, wurden Erneuerbare als Wundermittel angepriesen. Während sie in einigen wenigen Fällen die richtige Wahl sind wie z. B. für meine Freunde auf den Viehhöfen oder sogar auf Ölfeldern – die einer der größten Einzelverbraucher von Solarenergie sind – ist vielen anderen Dingen mit Kohle oder Erdgas, selbst Kernkraft viel besser gedient als mit erneuerbarer Energie. Aber die Vorschriften, oder die EPA, haben das nicht berücksichtigt. In New Mexico gibt es zwei Kohlekraftwerke, und zwar praktisch zu Füßen der Kohlemine. Die Kohle wird abgebaut und direkt an die Kraftwerke geliefert, die den meisten in New Mexico verbrauchten Strom erzeugen und darüber hinaus auch noch Strom an die benachbarten Bundesstaaten Arizona und California verkaufen können. Aber die EPA-Vorschriften verlangen, dass diese Kraftwerke geschlossen werden, obwohl sie noch jahrelang in Betrieb sein könnten. Einige der Blöcke werden auf Erdgas umgerüstet – was in der Region ebenfalls im Überfluss vorhanden ist.

Allerdings gibt es Pipelines, die das Gas auf die Weltmärkte transportieren können; es ist nicht auf das San Juan Bassin beschränkt. Im Gegensatz dazu kann die Kohle das Gebiet nicht einfach so verlassen – es gibt keine Eisenbahn für den Transport. Betrachtet man die Gegebenheiten des Beckens, ist es sinnvoll, Strom weiterhin mit Kohle zu erzeugen und es dem Erdgas zu erlauben, zum Vorteil der Märkte zu wirken (vielleicht sogar unserer Verbündeten) ohne andere Ressourcen – aber die EPA und ihre Umweltpropagandisten wollen davon nichts hören. Ihre Ideologie treibt die Politik vor sich her, ob das nun ökonomisch oder praktisch sinnvoll ist oder nicht. Man versuche mal, einfach Wahrheit oder Logik in die Diskussion zu bringen, und die Kreuzzügler werden denjenigen genauso übel mitspielen wie dem Gouverneur von Indiana Mike Pence*.

[*Zu Mike Pence siehe seine Website. Offenbar hat er ein Gesetz unterzeichnet, das dem gesunden Menschenverstand Rechnung trägt, und wurde dafür aus dem Amt gedrängt. Wer Näheres wissen will, kann ja googeln. Anm. d. Übers.]

Im vorigen Monat habe ich ein Weißbuch veröffentlicht: Solar power in the U.S. Unter Verwendung von Daten aus dem wirklichen Leben und aus Berichten in den Nachrichten präsentieren wir die harschen Wirklichkeiten des heutigen Solarmarktes – der reagiert hat, nicht mit Fakten, sondern mit Verleumdungskampagnen gegen mich sowie der vermeintlichen Finanzierung seitens der Organisationen, die ich führe. Offensichtlich ist es so, wenn man Emotion und Vernunft auf seiner Seite hat, muss man nicht mit Fakten kommen – wie z. B. dass Sonne und Wind umsonst zu haben sind, deren Umwandlung in Strom jedoch sehr teuer ist; oder dass die Konvertierung in zuverlässigen, wenn auch teuren Strom praktisch unmöglich ist. Ach so, man sollte ihnen niemals die Wahrheit in den Weg ihrer Wohlfühl-Geschichte stellen.

Link: http://blog.heartland.org/2015/04/the-sun-and-the-wind-are-free-but-converting-them-to-reliable-electricity-is-expensive-if-not-impossible/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ich sage ja immer wieder: Sonne und Wind sind umsonst. Aber Kohle, Gas und Öl sind doch auch umsonst – sie liegen einfach in der Erde als Geschenk der Natur für uns. Beides muss in Strom konvertiert werden – und dreimal darf man raten, welche Ressource günstiger für diese Konversion ist!

C. F.




Indien – Modi trachtet nach Verdoppelung der Kohleproduktion bis zum Jahr 2020

Bild rechts: der indische Kohleminister Anil Swarup

Das Kohleministerium plant, 204 Kohleblöcke [coal blocks] zu versteigern, die der Oberste Gerichtshof (Supreme Court) im vorigen Jahr gestrichen hat. Diese Blöcke haben das Potential, 800 bis 900 Millionen Tonnen Kohle zu produzieren und Einnahmen von 7 Billionen Rupien (121 Milliarden Dollar) zu erzeugen.

Kohleminister Anil Swarup leitet die Auktionen, die im Januar begonnen haben. „In den ersten beiden Runden wurde über 67 der 204 Blöcke verhandelt“.

Man rechnet damit, dass diese 67 Blöcke den Regierungen der [indischen] Bundesstaaten etwa 3,35 Billionen Rupien während der nächsten 30 Jahre einbringen werden. „Außerdem sind auch umgekehrt Vorteile zu erwarten in Gestalt von Stromtarifen“, sagte Swarup der Nikkei Asian Review.

„Bislang gab es zwei Runden der Abgabe von Geboten und eine Runde Zuweisung“, sagte er. „In der dritten Runde wird es in der dritten Aprilwoche um weitere 16 Blöcke gehen“. In den Runden zuvor wurden 38 Blöcke Staatsunternehmen zugewiesen einschließlich dem Energieunternehmen NTPC sowie der Stahlbehörde von Indien. Private Unternehmen wie Jaypee Cement, Usha Martin und Aditya Birla wurden ebenfalls Blöcke zugewiesen.

„Wir betrachten 500 Millionen Tonnen (aus diesen 204 Blöcken) bis zum Jahr 2020 und eine weitere Milliarde Tonnen von Coal India (der staatlichen Bergbau-Gesellschaft), um in fünf Jahren das Ziel von 1,5 Milliarden Tonnen zu erreichen“, sagte Swarup.

Die Regierung Modi, im Mai vorigen Jahres an die Macht gekommen, bemüht sich mit Höchstdruck, die Kohleproduktion zu steigern, um ökonomisches Wachstum sicherzustellen. Kohle wird in Indien primär zur Stromerzeugung genutzt, obwohl Bereiche wie die Stahlindustrie Kohle als Ressource in ihren Werken nutzen. Mit Kohle wird 67% der Gesamtenergie in Indien erzeugt. Die International Energy Agency EIA projiziert eine Steigerung des Kohleverbrauchs in Indien auf 177 Millionen Tonnen oder im Mittel 5% pro Jahr bis zum Jahr 2019.

Indiens Planungsbehörde schätzt, dass eine zusätzliche Kapazität von 75.785 Megawatt bis zum Jahr 2017 gebraucht wird.

Erforderliche Arbeit

Swarup glaubt, dass die Verfügbarkeit von Kohle in Indien nie ein Problem war, wohl aber die Produktion. Die Regierung hat daher einen Vier-Punkte-Plan in Kraft gesetzt, um die 1,5 Milliarden Tonnen möglich zu machen.

Sie wird sicherstellen, dass der private Sektor die ihm zugewiesenen Kohleblöcke transparent und produktiv nutzt. Zusätzlich arbeitet das Kohleministerium auch daran, Coal India zu stärken, den größten Erzeuger fossiler Treibstoffe.

Von den 565 Millionen Tonnen heimisch produzierter Kohle erzeugt Coal India 490 Millionen. Abbau und Arbeitsprobleme haben jedoch dazu geführt, dass das Unternehmen die Produktionsziele nicht erreicht hat.

Swarup sagt, jedoch, dass sich das Szenario ändert. In diesem Jahr ist Coal India um 7,2% gewachsen im Vergleich zu einer normalen Wachstumsrate von 2 bis 3%.

Das Kohleministerium hat auch eine neue Strategie zum Kohleabbau ausgegeben. Joint Ventures in Kohle produzierenden Bundesstaaten werden Eisenbahnlinien bauen, um die Ressource von den Minen zu den Produktionszentren zu transportieren.

„Die erste Absichtserklärung in dieser Hinsicht wird nächste Woche unterzeichnet werden. Coal India trägt 64% bei, das Ingenieurs- und Konstruktionsunternehmen Ircon 26% und die Regierung 10% in Joint Ventures“, sagte Swarup. „Insgesamt 121 Eisenbahnprojekte sind in der Planung“.

Coal India kauft auch mehr Güterwaggons zum Transport der Kohle. Gegenwärtig sind 200 Züge für 490 Millionen Tonnen in Betrieb.

Die [indische] Bundesregierung will sicherstellen, dass die Regierungen [der indischen Bundesstaaten] die Beschaffung von Ländereien für den Bergbau und den Bau der Eisenbahnlinien voranbringen.

Kohle-Rationalisierung ist ein weiteres Gebiet mit oberster Priorität, sagte Swarup. Consultancy KPMG sagt, dass die Rationalisierung Coal India eine Ersparnis von 60 Milliarden Rupien pro Jahr bringen wird.

Die Gesamt-Energieerzeugung Indiens während der Jahre 2013 und 2014 betrug 130 Gigawatt, wobei die kohlebasierte Energieerzeugung zwei Drittel ausmachte. Die Stromerzeugungs-Kapazität des Landes beträgt 243 Gigawatt.

Link: http://asia.nikkei.com/Politics-Economy/Policy-Politics/Modi-looks-to-double-coal-production-by-2020

Übersetzt von Chris Frey EIKE




Appell an alle Unterstützer von Dr. Willie Soon

In dem Brief geht es um einen Bericht von uns an den Verwaltungsrat über die Ergebnisse unserer Untersuchung der Vorwürfe gegen Willie, die das Smithonian mit dem Nachplappern der Anwürfe verschiedener Interessengruppen ebenso verbreitet wie unzulässig in Umlauf gebracht hat. Unsere Untersuchung kommt zu dem Ergebnis, dass das Smithonian in vielen Bereichen erheblich im Unrecht ist und das Willie schuldlos ist. Unser Brief lädt die Verwaltung ein sicherzustellen, dass das Smithonian das Fehlverhalten des Smithonian sowie dessen in unserem Bericht ausgemachten leitenden Funktionären untersucht und – im Falle, dass unser Bericht als korrekt bestätigt wird – dafür zu sorgen, dass sich das Smithonian öffentlich bei Willie entschuldigt, ihm das volle Gehalt nachzahlt und auch seine Rechtsanwaltskosten übernimmt.

Falls Sie Willie mit der Unterzeichnung des Briefes unterstützen möchten, schicken Sie eine E-Mail mit vollständigem Namen und akademischer Qualifikation an monckton@mail.com. Name und akademische Grade werden der Liste der Unterzeichner hinzugefügt, die von Prof. Nils-Axel Mörner angeführt wird, dem internationalen Experten hinsichtlich des Meeresspiegels und dessen Änderungen. Er hat über 600 Studien in dem halben Jahrhundert durchgeführt, in dem er den Meeresspiegel untersucht hatte [deswegen fehlt er ja auch auf der Liste der IPCC-Autoren. Anm. d. Übers.]

Der Brief sowie die Ergebnisse unserer Untersuchung folgen.Jeder, der den gesamten Report lesen möchte, der auch die Beweise für unsere Ergebnisse enthält, sollte mir eine E-Mail schreiben. Danke im Voraus für die Unterstützung. Wir haben uns dem Fairplay gegenüber Willie verschrieben, der auf empörende Weise behandelt worden ist. Ihre Unterstützung für ihn kann helfen, das Smithonian wieder zur Besinnung zu bringen und zu der Erkenntnis, dass es sich jetzt bei ihm entschuldigen und ihm seine Auslagen erstatten muss.

[Name and address of Smithsonian Regent]

[Date]

Dear [Name of Regent],

Jüngstes Fehlverhalten seitens leitender Manager des Harvard-Smithsonian Center for Astrophysics

Wir sind Freunde, Kollegen oder Unterstützer von Dr. Willie Soon, einem Solarphysiker, der ein Vierteljahrhundert lang am Smithonian Astrophysical Observatory gearbeitet hat, einer Unterabteilung des Harvard-Smithsonian Center for Astrophysics. Jüngst hat er zusammen mit Lord Monckton, Prof. David Legates und Dr. Matt Briggs eine Studie im Science Bulletin der Chinese Academy of Sciences veröffentlicht, was zu ebenso verbreiteten wie falschen Vorwürfen des Smithonian geführt hat, das mit Nachplappern der Phrasen verschiedener Interessengruppen aufwartete, denen zufolge er unzulässigerweise nicht die Quellen seiner Finanzierung der Arbeit für diese Studie angegeben hat.

Nachdem sich diese Vorwürfe als haltlos erwiesen hatten, hat die extremistische, für die falschen Vorwürfe verantwortliche Interessengruppe weitere falsche Vorwürfe ausgestreut, denen zufolge Dr. Soon in 11 früheren Studien unzulässigerweise die Quellen von deren Finanzierung nicht angegeben hat. Allerdings hatte das Smithonian einen Vertrag mit dem betreffenden Förderer ausgehandelt, dem zufolge die Identität des Förderers nicht veröffentlicht werden sollte. Die einzigen Studien, bei denen Dr. Soon nicht die Identität seiner Förderer genannt hatte, waren die Studien, die unter diese vertragliche Verpflichtung der Vertraulichkeit fielen, für die einzig das Smithonian und nicht Dr. Soon verantwortlich war.

Das Smithonian hat jedoch ungesetzlich und öffentlich eine Reihe von Statements veröffentlicht mit der Absicht, Dr. Soon die Schuld in die Schuhe zu schieben, obwohl es sich schuldig gemacht hatte mit der unzulässigen Zustimmung zur Verpflichtung zur Vertraulichkeit, durch die es gebunden war. Seine drei Mitautoren der Studie im Science Bulletin haben die Vorwürfe des Smithonians sowie von verschiedenen politischen Interessengruppen gegen ihren Kollegen untersucht. Ihre Ergebnisse finden sich auf den ersten beiden Seiten ihres Berichtes an den Verwaltungsrat. Sie sind hier angefügt, gefolgt von den Beweisen.

Wir fordern Sie auf:

1) Weisen Sie den Generalinspekteur des Smithonian an, die Ergebnisse der Mitautoren nachzuprüfen (Seiten 2 und 3) sowie die Beweise zur Stützung dieser Ergebnisse (Seiten 4 bis 17) als Teil seiner Untersuchung dieser Angelegenheit!

2) Untersuchen Sie das infame und unehrliche Interview von Dr. Alcock mit dem Chronicle of Higher Education; seiner nachfolgenden Ablehnung, seine Falschheiten auf Aufforderung von Dr. Soon sowie unabhängig davon der Aufforderung des Hauptautors in irgendeiner Weise zu korrigieren sowie seine Weigerung, dem Generalrat [general counsel] die Anfrage des Leitautors im Rahmen des Informationsfreiheits-Gesetzes weiterzugeben.

3) Fordern Sie den Generalstaatsanwalt von Massachusetts auf, jene Aspekte des Verhaltens des Smithonian im Allgemeinen und jene von Dr. Alcock im Besonderen zu untersuchen, die eine betrügerische Kampagne miteinander zusammenhängender und koordinierter Täuschungen ans Licht bringen, die auch noch weiterbetrieben wurde trotz Aufforderungen, sich zu mäßigen und davon Abstand zu nehmen, und die daher nicht nur den Zweck hatte, seinen Ruf weiter zu beschädigen, sondern auch, ihm finanzielle Verluste zuzufügen.

4) Falls die Ergebnisse unseres Reports substantiell korrekt sind, weisen Sie das Smithonian an, sich öffentlich bei Dr. Soon zu entschuldigen und ihn voll zu rehabilitieren hinsichtlich der Verluste und Schäden, deren Ursache das Smithonian und dessen leitendes Management ist.

Yours sincerely,

Monckton of Brenchley; Professor David Legates; Dr Matt Briggs

Mitautoren von Dr. Soon für sich selbst sowie für alle Unterzeichner in der nachfolgenden Liste

Es folgen:

Seiten 2 und 3: Ergebnisse von Lord Monckton, Prof. David Legates und Dr. Matt Briggs

Seiten 4 bis 17: Beweise zur Stützung der Ergebnisse

Seite 18: Liste der Unterzeichner, angeführt von Prof. Nils-Axel Mörner

Fehlverhalten des Smithonian

Ein Bericht an die Leitung der Smithonian Institution

Als die drei Mitautoren der Klima-Studie von Dr. Willie Soon mit dem Titel Why models run hot aus dem Januar 2015, veröffentlicht im Science Bulletin der chinesischen Akademie, haben wir von den weithin ausgestreuten Vorwürfe erfahren, dass er keine Quelle der Finanzierung seiner Forschungsarbeit angegeben hatte, und haben die Vorwürfe untersucht. Unsere Ergebnisse sind:

25 Jahre lang war Dr. Wei-Hock Soon, ein preisgekrönter Solarphysiker und internationaler Experte bei der Untersuchung der solaren Modulation des Klimas, ein Mitarbeiter des Smithonian Astrophysical Observatory ohne Gehalt. Der Smithonian Trust Fund bezahlt ihn aus Einkünften durch Spenden. Er berichtet dem Observatory jede angebotene Zuwendung, welches in der Folge allein verantwortlich ist für die Verhandlungen und die Unterzeichnung eines Finanzierungsvertrages mit dem Geldgeber. Es empfängt dann die Zahlungen, zieht 30% für Verwaltungskosten ab und zahlt dann für seine Forschungen außertariflich.

Im Jahre 2008 hat das Observatory einen solchen Vertrag mit der Southern Company ausgehandelt. Der Vertrag enthielt auch eine das Smithonian bindende Klausel, wonach Dr. Soon als Beschäftigter nicht die Identität des Geldgebers nennen durfte. Das Smithonian hätte dieser Klausel nicht zustimmen sollen, aber da es dies nun einmal getan hat, sollte es das auch sagen. Stattdessen jedoch agierte es mit Vertragsbruch, der Verletzung des Stored Communications Act [ich weiß nicht, wie man dieses Gesetz auf Deutsch nennen kann und was es bedeutet] und auch mit dem Bruch der Verpflichtungen gegenüber Dr. Soon durch die Bekanntgabe der Identität des Geldgebers. Dr. Soon, der dies nicht getan hat, hat den Vertrag erfüllt, wie es das Gesetz verlangt.

Ende 2009 forderte eine politische Interessengruppe im Rahmen des Informationsfreiheits-Gesetzes FOIA Details über die Finanzierer von Dr. Soon. Dr. Soon schrieb zweimal an das Büro des Smithonian und sagte, dass das FOIA das Smithonian nicht binden würde und dass die Bekanntgabe die Verpflichtung des Smithonian zur kommerziellen Diskretion brechen würde, und Interessengruppen würden dies sofort ausnutzen, um seine akademische Freiheit einzuschränken. Nichtsdestotrotz schloss das Büro den Computer-Zugang von Dr. Soon und bewilligte Kopien von seinen Files, woraufhin das Smithonian die Enthüllung vornahm. Dies führte genau seiner Vorhersage entsprechend dazu, dass die Interessengruppe rasch und skrupellos zu seinem Nachteil agierte und zum Nachteil des Smithonian. Die Enthüllung des Smithonian war in der Absicht erfolgt, die Finanzierung von Dr. Soon aufs Spiel zu setzen, was inzwischen geschehen ist. Jetzt heißt es, dass noch im gleichen Jahr Southern Comapny verkündet hat, seinen langzeitlichen Vertrag mit dem Smithonian zur Forschungsförderung nicht zu verlängern.

Im Januar 2015 brachte eine politische Interessengruppe in der offensichtlichen Absicht, die Aufmerksamkeit von den Schlussfolgerungen unserer Studie abzulenken, in vielen internationalen Nachrichtenmedien einen Vorwurf auf, dem zufolge Interessen fossiler Treibstoffe Dr. Soons Forschungen für unsere Studie finanziert hätten, dass er aber seinen „Interessenkonflikt“ nicht im Science Bulletin öffentlich gemacht hat. Der Herausgeber konsultierte den Leitautor, der erklärte, dass wir die Forschungen in unserer Freizeit und auf eigene Kosten durchgeführt haben [unübersetzbares Wortspiel: „in our own time and on our own dime“]. Als die Gruppe schließlich erkennen musste, dass niemand unsere Studie finanziert hatte, brachten dann genauso verbreitet Vorwürfe in Umlauf, denen zufolge Dr. Soon bei 11 seit dem Jahr 2008 veröffentlichten Studien die Förderung seitens der Southern Company nicht erwähnt habe. Die Gruppe stellte nicht seine wissenschaftlichen Schlussfolgerungen per se in Frage. Southern Company hat ihn nie direkt oder indirekt beeinflusst oder von ihm erwartet, dass er den Inhalt einer jeden Studie von ihm ändern oder einen bestimmten vorgegebenen wissenschaftlichen Standpunkt darlegen soll. Auch kann man sich angesichts der Thematik jeder einzelnen der 11 Studien kaum vorstellen, dass sich ein merkbarer Interessenkonflikt seinerseits durch die Förderung der Southern Company ergeben habe.

Als Reaktion auf die jüngste Publicity haben das Smithonian und das leitende Management absichtlich und offensichtlich koordiniert eine Kampagne mit falschen Behauptungen und Implikationen losgetreten in der Absicht, Dr. Soon zu schädigen:

21. Februar: Frau Christine Pulliam, eine Pressesprecherin des Smithonian, sagte dem Guardian, dass Dr. Soon „es versäumt habe, den Anforderungen bzgl. der Bekanntgabe [seiner Geldgeber] von einigen der Journale Folge zu leisten, die seine Forschungen veröffentlicht haben“. Sie fügte hinzu: „Soon hätte diesen Maßgaben folgen sollen“. Und das, obwohl die Vertragsklausel des Smithonian ihm verbot, das zu tun.

22. Februar: Das Smithonian hat eine Presserklärung veröffentlicht mit der Ankündigung, dass es eine Untersuchung einleiten werde in etwas, dass die Veröffentlichung als „Dr. Soons Versäumnis der Offenlegung seiner Finanzierungsquellen“ bezeichnet. Und das, obwohl das Smithonian wusste, dass er lediglich im Rahmen der Verpflichtung zur Nicht-Veröffentlichung gehandelt hatte, die das Smithonian und nicht er ausgehandelt hatte.

22. Februar: Die Presseerklärung des Smithonian behauptete fälschlich, dass das Smithonian „Dr. Soon nicht finanzierte“. Das stimmt zwar, das Smithonian zahlt ihm kein Gehalt, und er ist selbst verantwortlich, Forschungsgelder zu sammeln. Aber es ist der Smithonian Trust Fund, der Zuwendungen von Spendern erhält und ihn aus dem Trust Fund bezahlt.

22. Februar: In der Erklärung des Smithonian hieß es, dass Dr. Soon ein „Teilzeit-Forscher“ sei. Dabei ist sein Beschäftigungsverhältnis Vollzeit, jedoch war er seitdem krank – was zumindest teilweise die Folge der Bekanntgabe vertraulicher Informationen über seine Finanzierung seitens des Smithonian war.

22. Februar: Die Erklärung des Smithonian implizierte fälschlich, dass Dr. Soon nicht glaubt, wir seien der Grund für eine Klimaänderung. Und doch ist die Studie Why models run hot ein unwiderlegbarer Beweis dafür, dass er akzeptiert, dass wir ein Grund sind.

25. Februar: Der Direktor des Observatoriums, Dr. Charles Alcock, sagte dem Chronicle of Higher Education, dass Dr. Soon seine Arbeitsstelle nicht als „Harvard-Smithsonian Center for Astrophysics“ hätte beschreiben sollen und dass er „keine Beschäftigung bei Harvard habe“, als ob er damit seine Zugehörigkeit aufgeblasen hätte. Dr. Alcock fügte hinzu, dass das Zentrum in legaler Hinsicht nicht existiert. Und doch ist er dessen Direktor. Dessen Name wird bei Vorschlägen für Förderungen genannt, die an die Southern Company gesandt werden. Falls es wirklich legal nicht existiert, war die Verwendung von dessen Namen seitens des Observatoriums unehrlich. Ein ehemaliger Direktor hatte eine Instruktion ausgegeben, die seitdem nicht aufgehoben worden ist, dass die Beschäftigungsstelle unter der Bezeichnung laufen sollte „Harvard-Smithsonian Center for Astrophysics”. In jeder Studie der letzten 25 Jahre hat Dr. Soon dem Folge geleistet, ohne Widerspruch seitens des Smithonian. Daher hatte Dr. Alcock mit seiner Kritik in dieser Hinsicht unrecht. Er hatte auch unrecht mit der Implikation, dass Dr. Soon fälschlich „ein Harvard-Verhältnis“ angegeben habe, und auch hinsichtlich der Politik des Smithonian, unsere FOIA-Anfrage bzgl. der Finanzierungs-Dokumente nicht an den Generalrat weitergegeben zu haben.

25. Februar: Dr. Kress, der Interims-Sekretär für Wissenschaft, stellte die öffentliche Behauptung auf, dass Dr. Soons Forschungen „nicht von höchster Qualität seien“. Und doch hat das Smithonian Dr. Soon im Jahre 2003 eine Auszeichnung verliehen für die hohe Qualität seiner Forschung. Dr. Kress, ein Botaniker, der für Bewertungen der Forschung im Bereich Solarphysik in keiner Weise ausgebildet war, hatte folglich unrecht, derartige Verleumdungen in die Welt zu setzen, vor allem zu einer Zeit, als sein Kollege in der Kritik stand.

Diese vielen Unwahrheiten und falschen Implikationen innerhalb weniger Tage waren dazu gedacht, einander zu bestätigen und Dr. Soon erhebliche finanzielle Verluste zuzufügen sowie den Schaden zu verschlimmern, den das Smithonian bereits seiner Gesundheit, seinem Ruf, seiner Lebensweise und seiner Karriere als Solarphysiker zugefügt hatte. Die unentschuldbare und fortgesetzte Ablehnung seitens des Smithonians, diese Dinge richtig zu stellen trotz Dr. Soons und unserer Aufforderungen, dass es das tun sollte, steigert den Schaden für ihn und beweist die Absicht des Smithonian, ihn in jeder Hinsicht schädigen zu wollen.

Dr. Soon ist offenkundig unschuldig. Er hat sich zu jeder Zeit korrekt verhalten, folgte der Politik des Smithonian und – wenn auch widerwillig – den Klauseln des Finanzierungsvertrages seines Geldgebers mit seinem Arbeitgeber. Dr. Soon hat seine Geldgeber in allen veröffentlichten und nicht vom Smithonian geförderten Studien bekannt gegeben, bei denen er nicht der Verpflichtung unterworfen war, die Identität des Geldgebers nicht zu nennen. Lediglich in den 11 Studien, zu dessen Finanzierung die Southern Company beigetragen hatte, hat er dies nicht getan, weil – durch die Schuld des Smithonian und nicht seiner – er gesetzlich gebunden war, die Identität zu verschweigen.

Das Smithonian und dessen Personal handelte inkorrekt, als es der Vertraulichkeits-Klausel zugestimmt hatte und es dann versäumt hat, dem zu folgen. Es versäumte, seiner eigenen FOIA-Politik zu folgen; es versäumte, einem altgedienten und preislich ausgezeichneten Kollegen zu Hilfe zu kommen, der darunter zu leiden hatte, dass er einer Vertragsklausel folgte, die unzulässig war. Es hat eine Kampagne koordinierter und falscher Anschuldigungen losgetreten mit der Implikation, ihm zu schaden, als es das Smithonian versäumt hatte, das Ganze auf Anforderung zu korrigieren.

Wir fordern den Generalinspekteur des Smithonian und den Generalstaatsanwalt von Massachusetts auf, das Fehlverhalten des Smithonian zu untersuchen. Wenn sie unsere Ergebnisse bestätigt haben, muss sich das Smithonian bei Dr. Soon entschuldigen und ihn in vollem Umfang für seine Verluste und Schäden zu entschädigen.

Viscount Monckton of Brenchley:  http://wattsupwiththat.com/2015/04/10/calling-all-supporters-of-willie-soon/

Übersetzt von Chris Frey EIKE




Mehr als 50 % aller geplanten Neubauten auf der Kippe – Investoren ziehen Geld aus Kraftwerks-Bau ab

Die Strom-Konzerne stellen den Bau neuer Kraftwerke wegen der Energiewende zunehmend in Frage. Bei gut der Hälfte der geplanten Neubauten fehle inzwischen eine konkrete Investitionszusage, sagte die Hauptgeschäftsführerin des Stromlobbyverbandes BDEW, Hildegard Müller, am Montag auf der Hannover Messe. Insgesamt seien derzeit 74 Kraftwerke mit einer Gesamtleistung von 33.000 Megawatt geplant, genehmigt oder im Bau. Bei 39 Projekten sei die Umsetzung jedoch nicht sicher. Vor einem Jahr standen 32 Vorhaben auf der Kippe, 2013 sogar nur 22.

„Wenn es politisch so weiter geht wie bisher, dann wird es keine neuen, modernen Kraftwerke geben”, sagte Müller. „Es gibt einfach keine Investitionsanreize, auch wenn die Politik immer betont, dies ändern zu wollen.” Das Gegenteil sei mit den bisher bekannt gewordenen Plänen der Fall.

Laut Müller liegen der Bundesnetzagentur Anträge auf die Stilllegung von rund 50 Kraftwerken vor. Es sei davon auszugehen, dass wegen der fehlenden Wirtschaftlichkeit weitere Anlagen abgeschaltet würden, erklärte sie. In einigen Jahren könne dies die Versorgungssicherheit gefährden, insbesondere wenn 2022 das letzte Atomkraftwerk in Deutschland vom Netz gehe.

….Es sei deshalb wichtig, die Rahmbedingungen so zu gestalten, dass die Energiekosten bezahlbar blieben und die Energieerzeugung zukunftsweisend sei. „Ohne berechenbare Energieversorgung keine Zukunft der Industrie”, sagte sie (Anmerkung der Red. Kanzlerin Merkel). Ausdrücklich forderte Merkel ein, dass Deutschland bei den erneuerbaren Energien seine Weltmarktführung behaupten müsse. „Es gibt 130, 140 Länder, die ihre Produktion erneuerbarer Energien fördern, die Schritt für Schritt umsteigen. Auch hier sollte Deutschland seine führende Position weiter ausbauen”, forderte Merkel…..

Weiterlesen bei Deutsche Mittelstandsnachrichten hier




Die Säulen der Energiewende wanken – Der weitere Ausbau von Wind- und Solarstrom ist sinnlos.

Es ist bereits mehrfach dargelegt worden, dass es sich dabei um eine katastrophale Fehlentscheidung handelt, weil die Versorgungssicherheit bedroht wird, weil die Kosten untragbar hoch werden und weil insbesondere der Ausbau der Windkraft nicht nur zu massiven Naturschäden, sondern auch sogar zu einer Bedrohung der Gesundheit der Menschen führt.

Obwohl das begründet und bewiesen  wurde, hat sich die Regierung bisher unbeeindruckt gezeigt.

Eine nähere Prüfung der bisherigen Entwicklung führt nun zu überraschenden Ergebnissen:

Wir verdanken Rolf Schuster die minutiöse Verfolgung und Darstellung der Stromerzeugung aus Wind- und Solaranlagen, deren Verlauf er über mehrere Jahre durch Auswertung der EEX-Strombörsedaten sowie der Informationen von Übertragungsnetzbetreibern (z.B.TenneT) in zahlreichen  Grafiken dokumentiert hat. Auch in diesem Papier verwende ich mehrfach seine Dokumentationen.

In den Darstellungen der in den vergangenen Jahren gemessenen Leistungserzeugung von Photovoltaik-Anlagen (Abb.1),  Land-Windkraftanlagen (Abb.2) sowie Offshore-Windparks (Abb.3) sind in den Abbildungstexten bereits Anmerkungen zu dem wachsenden Auseinanderdriften der installierten Kapazitäten einerseits und den von diesen tatsächlich produzierten elektrischen Leistungen andererseits angestellt worden.

Abb 1: Tatsächliche Leistung aller installierten Photovoltaikanlagen im Zeitraum 2011 – März 2015. Obere Grenze des gelben Bereichs: Die installierte Leistung aller PV-Anlagen. Der Leistungsgang besteht aus 365 „Nadeln“ im Jahr, die täglich zwischen ca. 9:00 und 15:00 Uhr auftreten und je nach Wetterlage mehr oder weniger hoch sind. Niemals erreichen sie die installierte Maximalleistung. In den Wintermonaten – bei maximalem Strombedarf – bricht die PV-Leistung fast völlig ein.  Quelle: EEX; Darstellung: Rolf Schuster

Der  Blick auf die besonders teure Solarstromerzeugung – siehe Abb.1 – zeigt, dass sich im Laufe der letzten 3 Jahre zwar die installierte Leistung deutlich erhöht hat, nicht jedoch die erzeugte Leistung.

                  

Abb.2: Gesamte aktive Windstromleistung Deutschlands 2011 – März 2015.  Obere rote Linie:  Installierte Maximalleistung der Anlagen.  Quelle: EEX Leipzig; ab 2015 ÜNB. Darstellung Rolf Schuster

Abb.3: Leistung der Offshore-Windparks Sept. 2009 – Sept. 2014.  Mehrere starke, z.T. längere Leistungseinbrüche durch technische Probleme.  Die Fortsetzung in 2015 wies für Januar  eine Leistungserzeugung von Null bis 400 MW und für März Null bis 750 MW  aus – bei einer installierten Leistung von 1.700 MW im Januar und 1.850 MW im März. Quelle: TenneT-TSO,  Darstellung Rolf Schuster

Aus der Darstellung der kombinierten Leistungserzeugung aller Wind- und Solarstromanlagen zwischen

2012 und dem Frühjahr von 2015 (Abb.4) erschließt sich diese Diskrepanz besonders deutlich.

 

Abb.4: Die Leistungserzeugung von Wind- und Solarstrom zusammen – von 2011 bis März 2015. Die Solarstrom-„Nadeln“ treten vom Frühling bis Herbst auf; im Winter nur Windstrom – mit großen Schwankungen durch Starkwind-Ereignisse. Abgesehen von diesen Windstromspitzen ist keine Erhöhung der Gesamtleistung über den 3-jährigen Zeitraum erkennbar, obwohl in dieser Zeit die Installierte Leistung aller Anlagen von 44.000 MW auf 80.000 MW gesteigert wurde. Quelle: EEX Leipzig; ab 2015 ÜNB. Darstellung Rolf Schuster

Bereits auf den ersten Blick erkennt man die Merkwürdigkeit:

Während die Summe der Erzeugungskapazitäten in diesem Zeitraum von 44.000 MW auf enorme 80.000 MW anstieg, dümpelte die produzierte Leistung in einem „Durchschnitt“ von geschätzt 3.000 MW dahin – dies jedoch als völlig ungesicherte Leistung. Dazu muss bemerkt werden, dass es im Grunde angesichts des zerrissenen und stark fluktuierenden Leistungsverlaufs, der auch immer wieder auf Null einbricht, überhaupt keinen Mittelwert geben kann, der irgendetwas aussagt. In den Sommermonaten zeigt sich Solarstrom um die Mittagszeit; im Winter ausschließlich stark fluktuierender Windstrom.

Auffallend ist nun die ausbleibende Zunahme der Erzeugung trotz des starken Zubaus an Anlagen. Das einzige, was sich z.B. 2014 gegenüber 2012 geändert hat, ist die Höhe der Windstrom-Spitzen bei Starkwindereignissen.

Rolf Schuster hat die Minimal- und Maximalwerte der jeweiligen Jahre durch eine Datenbankabfrage  ausgewertet und kommt zu dem Ergebnis, „dass der Minimalwert (bei zunehmender installierter Leistung) keinen positiven Trend erkennen lässt, wo hingegen die Maximalwerte enorm angestiegen sind.“

Hier hat wieder die Physik zugeschlagen: Weil sich die Leistung eines Windrades mit der 3. Potenz der Windgeschwindigkeit ändert, bedeutet jede Periode geringerer Windgeschwindigkeiten, dass die Windrad-Leistung auf Null einbricht. Daher werden Windkraftanlagen diese Null-Einbrüche niemals los.

Bei Starkwind hingegen wirkt dieses Gesetz in gleicher Weise: Das Windrad läuft in Richtung seiner Maximalleistung hoch.

Für die Netzbetreiber werden deshalb die zu bewältigenden Fluktuationen des Windstroms mit dessen zunehmendem Ausbau immer bedrohlicher.

  

Abb.5: Windstrom-Leistung 2006-2013. Es wurden die Viertelstunden-Extremwerte – also maximale bzw. minimale Viertelstunden-Leistung je Monat dargestellt. Quellen: EEX, IWET; Darstellung: E. Wagner 2.12.2013

Eine gleichfalls aufschlussreiche Darstellung von E. Wagner zeigt Abb.5. Bei den Viertelstunden-Maximalwerten der Leistung setzt ab 2011 eine Stagnation ein. Dass die Maximal-Spitzen mit zunehmender WKA-Zahl höher werden, entspricht R. Schusters Feststellung.

Interessant ist aber auch die Betrachtung der minimalen Viertelstundenleistung über die 8 Jahre: Sie liegt durchgehend bei Null. Und daran ändert auch die Vermehrung der Windräder nichts. Was alle – bis auf die Regierung – schon immer wussten: Hochdruck-Wetterlagen, die weit größere Ausdehnungen  besitzen als das kleine Deutschland,  bedeuten Flauten – also Null Windstrom, und das auch  immer wieder  einmal für zwei oder mehr Wochen am Stück.

Rolf Schuster hat sich auch das Leistungsäquivalent des Wind- plus Solarstromangebots und dessen Veränderung im Laufe der Jahre näher angesehen:

Dies ist der Quotient von realer Einspeiseleistung dividiert durch die installierte Leistung. Das Ergebnis: Dieses Leistungsäquivalent sinkt stetig mit wachsendem Ausbau – von 0,15 auf 0,125 in den letzten 4  Jahren.

Für die Ergebnisse dieser Dokumentationen gibt es mehrere, vermutlich gleichzeitig zutreffende Erklärungen:

1. Der Zubau an Windrädern erfolgt immer öfter in besonders ungeeigneten Regionen Mittel- und Süddeutschlands. Dort erzeugen auch besonders große Schwachwindanlagen (bereits diese offizielle Bezeichnung ist eine fachliche Bankrotterklärung) weit weniger Strom als kleinere Anlagen in Norddeutschland.

2. Der teilweise  länger andauernde Ausfall von Offshore-Windparks beginnt sich auf die Bilanz der gesamten Windkraft negativ auszuwirken. Von dem „wichtigen Standbein“ ist keine Rede mehr.

3. Auch die Photovoltaik (PV) leidet unter einem zunehmenden Mangel geeigneter Flächen (Süddächer) – und wohl auch an einer abnehmenden Neigung von Hauseigentümern, sich darauf einzulassen.

4. Bei PV-Anlagen gilt das Umgekehrte wie bei Windrädern: In Süddeutschland gibt es die relativ höchsten Erträge. Jeder Solarstrom-Ausbau in Mittel- und Norddeutschland führt zu deutlich geringeren Erträgen.

5. Die mit den Jahren zunehmende Degradierung der Solarmodule könnte sich bei vielen älteren Anlagen bemerkbar machen.

6. Ein von der Lobby gerne benutztes Argument, dass es sich jeweils leider um ein besonders schlechtes Windjahr/Sonnenjahr gehandelt habe, kann den sehr deutlichen Trend zu einer Stagnation von Wind- und Solarstrom nicht erklären.

Die Konsequenzen dieser bereits abgelaufenen Entwicklung:

·       Die oben genannten Ziele der Regierung sind in Bezug auf den künftigen Anteil der „Erneuerbaren“ an der Stromerzeugung unerreichbar. Durchaus erreichbar ist natürlich das kostspielige Vollpflastern Deutschlands mit Windrädern und PV-Anlagen. Nur nutzt es nichts – außer der Lobby.

·       Sehr ernst zu nehmen ist das Anwachsen größter Windstrom-Leistungsspitzen im Winter.

·       Die zunehmende Landschaftsverschandelung, die Gesundheitsgefährdung der Menschen, die Tötung von Greifvögeln und Fledermäusen und die Gefährdung der Netzstabilität sind somit die einzigen verbleibenden Auswirkungen eines weiteren Ausbaus der Windkraft.

·       Wind- und Solarstrom tragen auch bei größtem weiterem Ausbau nichts zur gesicherten Leistung bei. Ohne Kohlekraftwerke wird auch künftig nicht gehen.

·       Der Beitrag der beiden „Erneuerbaren“, die angeblich die zentralen Stützen der Energiewende sind, zur Stromversorgung kann allenfalls nur noch geringfügig wachsen und kaum ein einziges konventionelles Kraftwerk ersetzen.  Andererseits sollen aber die noch verbliebenen 8 Grundlast-Kernkraftwerke eins ums andere vom Netz genommen werden. Nur Kohlekraftwerke  können sie ersetzen, deshalb sind sämtliche CO2-Einsparungsziele der Regierung Makulatur.




Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht !

Nach der Auswertung umfangreicher neuer Arbeiten und Untersuchungen aus den Jahren 2011-2013 waren wir zu diesem Ergebnis gekommen [1]:

"Zahlreiche Auswertungen von Küsten-Pegel-Messungen über 200 Jahre sowie neuerdings von Schwere-Messungen der GRACE-Satelliten ergeben immer wieder einen Meeres-Anstieg von etwa 1,6 mm/yr. Dagegen stehen die seit 1992 publizierten Altimeter-Messungen mit den Satelliten-Systemen TOPEX/POSEIDON/JASON mit doppelt so hohen Werten von 3,2 mm/yr. Die erhebliche Diskrepanz ist bis heute ungeklärt. Dabei stimmen jedoch immerhin die Trends überein: Der Meeres-Anstieg verläuft seit wenigstens 100 Jahren linear, es gibt keine Beschleunigung des Anstieges. Ein Signal durch anthropogenes CO2 (AGW) ist nirgends erkennbar. Das alles steht in krassem Widerspruch zu den Verlautbarungen und insbesondere zu den alarmistischen Prognosen des Klimarates IPCC und einiger Klima-Institute."

Dieses alles wird nun bestätigt, ergänzt und erweitert in der hier in folgendem besprochenen Publikation von ALBERT PARKER [4]. Dabei bringen wir alle folgenden Zitate daraus in deutscher Übersetzung [5]. Bei alledem beschränken wir uns auf die im Wesentlichen in den Abschnitten Abstract, Introduction und Conclusion von PARKER zusammen gefaßten Kern-Aussagen, sowie einige wenige Abbildungen aus der Arbeit. Die ausführliche englische Original-Publikation geben wir hier als Anlage zum download anbei. Für die in folgendem ständig verwendeten und international üblichen Abkürzungen setzen wir an den Schluß dieser unserer Ausführungen ein kleines Glossar.

Im Astract der Arbeit von Parker heißt es zunächst :

"Die Erfassung der gegenwärtigen Höhe des Meeresspiegels wurde immer schwieriger durch die Festlegung der Verfahren, die zu Schätzungen des globalen mittleren Meeresspiegels (GMSL) führen. Dieser GMSL wird wöchentlich abgeglichen mit Messungen mittels Gezeitenpegeln und Satelliten-Altimeter-Messungen….

Dieser GMSL ist stark abhängig von ‚Kalibrierungen‘ subjektiver Natur und scheint mehr Produkt einer Berechnung zu sein statt einer wirklichen Messung."

                                     Abb.1  Die anfangs publizierten SAT-Daten zeigten keinen Trend,

                                    abgesehen vom Jahrhundert-ElNinos 1997/98 (6), nachzit. nach (4)

                       Abb.2 Ab Ende der 90er Jahre wurden zahlreiche Korrekturen "nach oben"

                               vorgenommen, so daß ein scheinbarer Anstieg von zunächst 2 und

                            mittlerweile von über 3 mm/yr "produziert" wurde. (6), nachzit. nach (4)

Und im Abschnitt "Zusammenfassung" schreibt PARKER dazu noch weitergehender und deutlicher:

"Es gibt keinen wissenschaftlichen Grund, sich auf die korrigierte Rate des Anstiegs des rekonstruierten GMSL zu konzentrieren, die einer Modellkorrektur folgt, nach einer (Anm.: wiederum schon vorangehenden) Modell-Korrektur."

Seit Jahren Zweifel an den hohen SAT-Daten

Genau auf diesen Umstand hat schon RUDOLF KIPP [7] in einer umfangreiche Recherche zu den zahlreichen unüberschaubaren Korrekturen der Sat-Altimeter-Messungen aufmerksam gemacht – alle in einer Richtung, nämlich nach oben (!) :

"Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr."

Und w.a.a.O.:

"Der “Environmental Satellite” (Envisat; 2002-2012) ist so etwas wie das Prunkstück der European Space Agency (ESA). … Zu den Aufgaben dieses Satelliten gehört unter anderem … die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen (Anm.: IPCC) eines beschleunigten Meeresspiegel-Anstiegs, noch mit den Messungen der amerikanischen Jason-Satelliten in Einklang standen. …

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. … Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections”  fündig. Dort heißt es: ’sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)‘ Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte."

…und w.a.a.O.:

"Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten." …

"Auch die Begründung, welche die Wissenschaftler anbieten, trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste. Was bleibt ist der Eindruck, dass hier Daten systematisch “hochgerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich."

Und diese nahezu prophetischen Worte von RUDOLF KIPP im Jahre 2012 haben sich schon 2013 "erfüllt", denn – genau so ist es gekommen: der Klimarat IPCC hat seine Meeres-Prognose im AR 2014 für 2100 erstmals wieder erhöht, nachdem IPCC in den drei Vorberichten (AR’s 1995, 2001, 2007) schrittweise eine "Herunter-Stufung" der Prognosen Richtung Meß-Realität vorgenommen hatte: vgl. Abb.3 !

                                    Abb.3  IPCC-Prognosen [IPCC-Rep. 1990-2013/14]

Pegel-Messungen zuverlässiger als SAT-Daten

In der hier nun weiterhin besprochenen Arbeit von PARKER heißt es :

"Der Meeresspiegel relativ zu einem bestimmten Datum wurde historisch mittels Gezeiten-Pegeln gemessen, die konsistente, zuverlässige und genaue Messungen seit dem 19. Jahrhundert liefern. …

Die Messung mit Satelliten-Altimetern ist eine alternative Methode, Änderungen des Meeres-Spiegels zu messen, und GPS ist ein ergänzendes Verfahren, die vertikale Bewegung von Landmassen an den Pegelstationen zu erfassen. Diese Studie hat diese neuen Verfahren zum Thema und zeigt, daß beide Verfahren derzeit immer noch weit davon entfernt sind, irgendwelche verbesserten Informationen bezüglich der Auswirkungen schmelzenden Eises und thermische Expansion auf den Meeresspiegel zu zeigen."

"Aus Satelliten-Altimeter-Messungen kann man keine genauen Berechnungen der Vertikalgeschwindigkeit „fixierter“ GPS-Punkte ablesen. Daher ist es kaum glaubhaft, daß der Satellit ein genaues Bild der fortwährend oszillierenden Meeresoberfläche liefern kann."

"Der globale mittlere Meeresspiegel (GMSL) schwankt nicht um eine Gerade mit der Steigung von 3 mm/Jahr, er ist vielmehr konstant mit einem zusätzlichen Rausch-Anteil.

Es gibt keinen wissenschaftlichen Grund, sich auf die korrigierte Rate des Anstiegs des rekonstruierten GMSL zu konzentrieren, die einer Modellkorrektur folgt, nach einer (Anm.: einer weiteren, vorhergehenden) Modellkorrektur."

                                   Abb.4 a+b: Gegenüberstellung der Pegel- und Sat-Daten

8 (Textfelder in Abb.4a ergänzt, dto. Doppel-Pfeil in 4b)

Und weiter bei PARKER [4]:

"Was während dieses Jahrhunderts gemessen wurde ist, daß die Temperatur in allen Tiefen der Ozeane zwischen 0 und 2000 m Tiefe konstant geblieben ist, und zwar im Bereich zwischen 60°N und 60°S; weiterhin eine zunehmende globale Ausbreitung von Meer-Eis, wobei die Ausdehnung desselben in der Antarktis den Eisschwund in der Arktis weit überkompensiert."

Hier räumt PARKER gleich mit zwei ständig wiederholten AGW-Märchen auf :

(1) Die Spekulationen um die angeblich in den Weltmeeren "verschwundene Wärme", womit die IPCC-nahen Institute versuchen, den seit 17 Jahren andauernden Temperatur-Stillstand zu "erklären"; die Messungen der Meeres-Temperaturen geben dazu keinen Anhalt [9];

(2) Global nimmt die Meer-Eis-Ausdehnung seit einigen Jahren wieder zu [10], trotz der "Arktis-Schmelze" !

Kein AGW-Effekt beim Meeres-Anstieg erkennbar

Dazu PARKER:

"Das Problem wird in einer Reihe von Fallstudien beleuchtet, wobei man zu dem Ergebnis kommt, daß die Auswirkungen der globalen Erwärmung auf die Raten des Anstiegs des Meeres-Spiegels bisher sehr gering oder vernachlässigbar waren."

…u.a.a.O.:

"Auch während der letzten beiden Jahrzehnte haben die langfristig messenden Pegel Daten übermittelt, die konsistent sind mit einem mittleren schwachen Anstieg (weniger als ein halber Millimeter pro Jahr) ohne jede signifikante Komponente einer Beschleunigung."

"Außerdem haben alle Langzeit-Tidenmessungen der Welt mit hoher Qualität und ausreichender zeitlicher Länge das Fehlen von Spuren irgendeiner Beschleunigung gezeigt. Die jüngste mittlere relative Rate des Meeresspiegel-Anstiegs aus einer Datensammlung von 170 Pegeln weltweit mit Zeitreihen über 60 Jahren beträgt +0,43 mm/Jahr, ohne jede Komponente einer Beschleunigung."

Und dazu noch deutlicher an anderer Stelle:

"Falls es irgendeinen Effekt bezüglich der globalen Erwärmung gibt, sollte man dies in Form einer Zunahme der relativen Raten erkennen, mit den örtlichen konsolidierten und genauen Verfahren der Pegelmessungen. Weil dies nicht der Fall ist, muß ich folgern, daß es bezüglich des Meeresspiegel-Anstiegs als Folge der globalen Erwärmung keinerlei Auswirkungen gibt."

=================================================================

F a z i t :
Die mehrfach nach oben korrigierten Daten der indirekten Satelliten-Meßmethode zeigen mindestens doppelt so hohe Werte als die weltweiten direkten Pegel-Messungen. Die SAT-Daten sind infolge ’subjektiver Kalibrierungen‘ [4] deutlich überhöht. Die ständig von den AGW-Alarmisten wiederholte Behauptung eines beschleunigten Meeres-Anstieges wird sogar durch beide Methoden widerlegt !

==================================================================

G l o s s a r :

Altimeter-Messungen : "Ein Satellit trägt als Nutzlast ein RadarAltimeter, von diesem werden kurzwellige Radioimpulse senkrecht nach unten ausgesendet, an der (Meeres-)Oberfläche reflektiert und das Signal am Satelliten wieder empfangen. Wenn dessen Bahn genau bekannt ist, erhält man aus der gemessenen Laufzeit des Signals und der geozentrischen Höhe des Satelliten die Meereshöhe." [11]

G P S :  Global Positioning System … ist ein globales Navigations-Satelliten-System zur Positions-Bestimmung." [12]  

G M S L :  Global Mean Sea Level: Hiermit sind stets die mehrfach korrigierten Anstiegs-Raten der Sat-Messungen mit den Altimetern benannt, nicht die Pegel-Messungen (Tide-Gauges). 

Q u e l l e n :

[1] Säkularer und Aktueller Meeres-Anstieg: Pegel (1.6 mm/Jahr) oder SAT-Altimeter (3.2 mm/Jahr) – WAS ist richtig ? http://www.eike-klima-energie.eu/news-cache/saekularer-und-aktueller-meeres-anstieg-pegel-16-mmjahr-oder-sat-altimeter-32-mmjahr-was-ist-richtig/  ; 08.07.2014

[2] PIK übertrifft sogar NOSTRADAMUS : Meeresspiegel-Prophezeiung für das Jahr 4000  http://www.eike-klima-energie.eu/news-cache/pik-uebertrifft-sogar-nostradamus-meeresspiegel-prophezeiung-fuer-das-jahr-4000/ ; 21.07.2013

[3] Wo bleibt der Meeres-Anstieg? http://www.eike-klima-energie.eu/climategate-anzeige/wo-bleibt-der-meeres-anstieg-verlangsamung-statt-beschleunigung/ 11.12.2013

[4] Albert Parker: Problems and reliability of the satellite altimeter based Global Mean Sea Level computation ; Pattern Recogn. Phys., 2(2), 65–74, 2014 ;  http://www.pattern-recognition-in-physics.com ; © Author(s) 2014. CC Attribution 3.0 License. School of Aerospace Mechanical and Manufacturing Engineering, RMIT University, Bundoora, VIC, Australia.

[5] Übersetzung von CHRIS FREY

[6]  Mörner, N.-A.: The great sea-level humbug. There is no alarming sea level rise. 21st Century Science & Technology, winter 2010/11, 12-22, 2011. www.21stcenturysciencetech.com/Articles_2011/Winter-2010/Morner.pdf [visited 17/07/2014] ; nachzitiert nach [4]

[7] Rudolf Kipp: (a) Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht paßt wird passend gemacht? 14. Juli 2012   http://www.kaltesonne.de/?p=4544

(b) http://www.science-skeptical.de/blog/was-nicht-passt-wird-passend-gemacht-esa-korigiert-daten-zum-meeresspiegel/007386/ ; 13. April 2012 | Von Rudolf Kipp

[8]  http://climatesanity.wordpress.com/2011/06/06/deception-from-nasa-satellites-are-true-cause-of-sea-level-rise/  06.06.2011

[9]  http://www.eike-klima-energie.eu/news-cache/behauptung-natuerliche-variation-maskiert-die-globale-erwaermung-und-ist-grund-fuer-den-stillstand/  02.08.2014

[10]  http://wattsupwiththat.com/reference-pages/sea-ice-page/

[11]  http://de.wikipedia.org/wiki/Satellitenaltimetrie

[12]  http://de.wikipedia.org/wiki/Global_Positioning_System

=================================================================

Anmerkung der EIKE-Redaktion:

Zum download sind anbei verfügbar die hier besprochene Original-Arbeit von A.PARKER, sowie dieser vorstehende Aufsatz dazu; darin sind die Abbildungen in besserer Qualität lesbar, als das hier im Editor möglich ist.

===================================================

Related Files




Neue Golfstrom-Publikation des PIK fällt in der Fachwelt glatt durch

[Aufmacherbild: Passt doch zum Golfstrom genauso gut wie Dr. Mann zu Klimaforschung? Anm. d. Übers.]

Golfstromsystem verliert an Kraft – Klimawandel im Verdacht
Wie eine gewaltige Umwälzpumpe transportieren Strömungen des Atlantiks warmes Wasser in den Norden und kaltes Wasser in den Süden. Teil dieses Strömungssystems ist auch der Golfstrom, der für das meist milde Klima im Nordwesten Europas sorgt. Jetzt haben Forscher Belege dafür entdeckt, dass diese riesige Meeresströmung schwächer wird. Beobachtungen weisen darauf hin, dass die Umwälzung in den letzten Jahrzehnten langsamer war als jemals zuvor im vergangenen Jahrhundert, wahrscheinlich sogar im vergangenen Jahrtausend. Zu dieser Abschwächung hat offenbar die zunehmende Eisschmelze auf Grönland beigetragen, die durch den mensch-gemachten Klimawandel verursacht wird. Eine weitere Verlangsamung der Strömung könnte nicht nur Folgen haben für marine Ökosysteme, sondern auch für den Meeresspiegel und das Wetter in den USA und Europa. „Verblüffenderweise hat sich trotz fortschreitender globaler Erwärmung ein Teil des nördlichen Atlantik in den letzten hundert Jahren abgekühlt“, sagt Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung, Leit-Autor der in Nature Climate Change erscheinenden Studie. Frühere Forschung hatte bereits Hinweise darauf gegeben, dass eine Abschwächung der großen Umwälzströmung im Atlantik, die so genannte Atlantic Meridional Overturning Circulation, hierfür verantwortlich sein könnte. „Jetzt haben wir starke Belege dafür gefunden, dass dieses atlantische Förderband sich in den vergangenen hundert Jahren tatsächlich verlangsamt hat, besonders seit 1970“, so Rahmstorf. […] Wenn die Strömung zu schwach wird, könnte sie sogar vollständig zusammenbrechen – die atlantische Umwälzung wird schon lange als mögliches Kipp-Element im Erdsystem betrachtet.

Neben dem schillernden Rahmstorf gehört zu den Coautoren auch der umstrittene Michael Mann, bekannt als Erfinder der mittlerweile diskreditierten Hockeystick-Kurve. Bei dieser Besetzung lohnt es sich durchaus, etwas genauer hinzuschauen. Wie plausibel ist die vom PIK vorgebrachte Geschichte? Erst vor wenigen Monaten hatte ein Team bestehend aus Forschern der Universität Heidelberg, Geomar, ETH Zürich und der Universität Bern das glatte Gegenteil herausgefunden und in Nature publiziert (Böhm et al. 2015). Die Universität Heidlberg gab hierzu am 15. Dezember 2014 eine Pressemitteilung heraus:

Klimawandel: Ozeanzirkulation im Atlantik war stabiler als erwartet
Die Ozeanzirkulation im Atlantik, die einen entscheidenden Einfluss auf das Erdklima hat, ist stabiler als bislang angenommen. Das zeigen Untersuchungen eines internationalen Forscherteams, an dem Wissenschaftler der Universität Heidelberg beteiligt sind. Die Forscher analysierten die nordatlantische Tiefenwasserzirkulation der vergangenen 140.000 Jahre und konnten zeigen, dass der aktuelle atlantische „warm“-Zirkulationsmodus entgegen bisheriger Annahmen selbst während der letzten Kaltzeit der Erde bestimmend war. Nach den Worten von Dr. Evelyn Böhm vom Institut für Umweltphysik lässt dies den Rückschluss zu, dass die derzeitige Zirkulation so stabil ist, dass ihr Zusammenbruch etwa durch Schmelzwasser von verstärkt abtauendem Grönlandeis extrem unwahrscheinlich ist. Daher sei nicht mit einem plötzlichen extremen Temperatursturz in Europa zu rechnen. […] Entgegen bisheriger Annahmen der Forscher zeigte sich, dass der „warm“-Modus nicht nur in Warmzeiten, sondern auch in der letzten Kaltzeit vorherrschend war. „Wir konnten lediglich während der Höhepunkte der letzten beiden Kaltzeiten das Zirkulationsmuster des ‚kalt‘-Modus beobachten“, erklärt Dr. Marcus Gutjahr vom GEOMAR in Kiel. „Die Ergebnisse zeigen daher, dass der ‚warm‘-Modus, dem auch das heutige Zirkulationsmuster entspricht, stabiler ist als bisher angenommen“, ergänzt Gutjahrs Kollege Prof. Dr. Martin Frank. Nach Angaben der Wissenschaftler führen in diesem Zirkulationsmuster große Mengen Süßwasser durch abschmelzende Eismassen nur zu einer kurzen Abschwächung, aber nicht zu einem vollständigen Abbruch der nordatlantischen Tiefenwasserbildung. Erst als die Eismassen während der Höhepunkte der Kaltzeiten maximal ausgedehnt waren, bewirkten solche Süßwassereinträge einen Kollaps der Tiefenwasserbildung im Nordatlantik über mehrere hundert Jahre mit der Folge eines weiteren Absinkens der Durchschnittstemperaturen auf der Nordhemisphäre.

Zwei Pressemitteilungen zum selben Thema. Die eine mit Klimaalarm, die andere entwarnend. Die Auswertung der Medienreaktionen ist dabei hoch aufschlussreich. Während die PIK-Meldung in fast jeder deutschsprachigen Zeitung gelaufen ist, sucht man nach der Heidelberger Studie nahezu vergeblich, und das obwohl neben der Universität Heidelberg auch das Geomar eine Pressemitteilung herausgegegeben hatte. FAZ, Sächsische Zeitung, Rheinische Post, Spiegel, Deutsche Welle, Deutschlandfunk, NTV, Klimaretter – sie alle lieben den Klimaschauder des PIK, blieben aber im Dezember 2014 stumm, als die Heidelberger ihre hochinteressanten Ergebnisse präsentierten.

Allein die österreichische Tageszeitung Der Standard berichtete über beide Studien (Artikel zur Heidelberger Studie hier). Vielleicht ist dies auch der Grund, weshalb der Standard berechtigte Zweifel an der Berichterstattung über die PIK-Ergebnisse anklingen lässt:

Forscher konstatieren Abschwächung der Meeresströmung im Atlantik
Starke Veränderungen im 20. Jahrhundert könnten dem Klimawandel geschuldet sein, schreiben Forscher aus Potsdam – Kollegen melden allerdings Zweifel an. […] Der Klimaforscher Martin Visbeck vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel sieht Rahmstorfs Deutung der Ergebnisse kritisch: “Die Konzentration der Studie auf den subpolaren Teil des Atlantiks und die spektrale Analyse sind interessant”, sagt er. Aber es gebe auch andere Schätzungen der AMOC, die auf einen ganz anderen Verlauf hindeuteten. Die Arbeit biete keine starken Hinweise auf die Entwicklung der AMOC während der letzen 50 Jahre.

Der Spiegel reagierte auf das PIK-Modell sogar mit noch stärkerer Skepsis:

Umstrittene Studie: Schwächelt der Golfstrom?
Droht Europa eine Abkühlung? Der Golfstrom hat in den vergangenen Jahrzehnten deutlich an Kraft verloren, behaupten Forscher. Die Ursache sei der Klimawandel. Andere Experten geben sich skeptisch.
[…] Allerdings zeigen die Daten aus der Studie von Rahmstorf und seinen Kollegen auch, dass es offenbar keinen einfachen Zusammenhang zwischen steigenden Temperaturen und schwächer werdender Amoc gibt. Denn seit 1990 hat die Zirkulation wieder einen Teil ihrer Kraft zurückerlangt – obwohl die Eisschmelze in der Arktis im gleichen Zeitraum ungebremst vorangeschritten ist. Klimaforscher Martin Visbeck vom Helmholtz-Zentrum für Ozeanforschung Kiel (Geomar) zieht gleich Rahmstorfs gesamte Deutung der Ergebnisse in Zweifel: “Die Konzentration der Studie auf den subpolaren Teil des Atlantiks und die spektrale Analyse sind interessant”, sagt er. Die Arbeit aber biete keine starken Hinweise auf die Entwicklung der Amoc während der vergangenen 50 Jahre. Die meisten Studien gingen gar von einem Erstarken der Strömung aus. Auch Michael Hofstätter von der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) in Wien bewertet die Rahmstorf-Studie skeptisch. Die Temperaturschwankungen könnten auch eine “vorübergehende natürliche Variation” sein, sagte Hofstätter dem Onlinedienst des ORF. Die Messungen deckten einen zu kurzen Zeitraum ab, um konkrete Vorhersagen zu treffen.

Auch in der internationalen Fachwelt stieß die neue PIK-Veröffentlichung bei vielen Kollegen auf Ablehnung. Neben den Heidelbergern sehen auch US-Kollegen die Situation gänzlich anders. Bereits im Januar 2014 hatte ein Forscherteam um Thomas Rossby von der University of Rhode Island in den Geophysical Research Letters Projektergebnisse veröffentlicht, die im Gegensatz zur PIK-Behauptung eine große Stabilität des Golfstroms in den letzten 20 Jahren belegen (im Folgenden die Kurfassung der Publikation):

Zur langzeitlichen Stabilität des Golfstrom-Transportes auf der Grundlage 20 Jahre langer direkter Messungen

Im Gegensatz zu jüngsten Behauptungen über eine Verlangsamung des Golfstromes, zeigen zwei Dekaden mit der direkt gemessenen Geschwindigkeit quer zu der Strömung keine Beweise für eine Abnahme derselben. Mittels einer gut durchdachten [well-constrained] Definition der Breite des Golfstromes ergibt die lineare Anpassung [fit] kleinster Quadrate eine mittlere Transportgeschwindigkeit an der Oberfläche von 1,35 X 10↑5 m²/s* mit einem negativen Trend von 0,13% pro Jahr. Unter der Annahme geostrophischer Verhältnisse [?] korrespondiert dies mit einer mittleren Differenz der Höhe des Meeresspiegels quer zur Strömung von 1,17 m, welche während dieser 20 Jahre um 0,03 m abgenommen hat. Das ist innerhalb des 95%-Vertrauensniveaus nicht signifikant und liegt um einen Faktor 2 bis 4 unter den vermeintlichen beschleunigten Anstieg des Meeresspiegels entlang der US-Küste nördlich vom Kap Hatteras. Teilweise kann diese Disparität auf die räumliche Komplexität der altimetrischen Meeresspiegel-Trends während des gleichen Zeitraumes zurückgeführt werden.

[*Mit dieser Einheit kann ich absolut nichts anfangen. Eine Geschwindigkeit kann es nicht sein, aber was dann? Weiß jemand eine Erklärung? Anm. d. Übers.]

In einer Pressemitteilung seiner Universität aus dem März 2014 ließ Rossby keinen Zweifel daran, dass die harten Messdaten eine klare Sprache sprechen und keinerlei Abschwächung des Golfstroms zeigen:

Während der letzten 20 Jahre haben er und seine Kollegen den Golfstrom vermessen mittels eines akustischen Doppler-Strömungs-Profilers (ADCP), der auf dem Frachter Oleander montiert war. Dieser Frachter verkehrt wöchentlich zwischen New Jersey und Bermuda. Das Instrument misst die Geschwindigkeit, mit der das Wasser unter dem Schiff vorbei strömt bis zu einer Tiefe von 600 m und hat einige tausend Messwerte des Golfstromes gesammelt seit seiner Installation Ende 1992. „Das ADCP misst Strömungen mit sehr großer Genauigkeit, und so haben wir durch wiederholte Messungen Jahr für Jahr ein sehr aussagekräftiges Tool, um die Stärke der Strömung zu überwachen“, sagte Rossby. „Es gibt Variationen mit der Zeit, die natürlichen Ursprungs sind – und ja, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die nahelegen, dass sich der Golfstrom verlangsamt“.

Zur gleichen Schlusssfolgerung war auch die NASA bereits vor einigen Jahren gekommen. In einer Pressemitteilung vom 25. März 2010 gab die Behörde bekannt:

NASA-Studie: Atlantisches ,Fließband‘ [conveyor belt] verlangsamt sich nicht

Neue Messungen der NASA der Atlantic Meridional Overturning Circulation, Teil der globalen Meeresströme, der hilft, das Klima rund um den Nordatlantik zu bestimmen, zeigen während der letzten 15 Jahre keine signifikante Verlangsamung. Die Daten zeigen, dass sich die Zirkulation während der jüngsten Vergangenheit sogar etwas beschleunigt haben könnte. Die Ergebnisse stammen von einem neuen Überwachungsverfahren, das von dem Ozeanographen Josh Willis vom Jet Propulsion Laboratory der NASA in Pasadena entwickelt worden ist. Dabei werden Messungen von die Ozeane überwachenden Satelliten und Messbojen verwendet. Die Ergebnisse werden in der Ausgabe der Geophysical Research Letters vom 25. März veröffentlicht. … Bislang jedoch gibt es keine Anzeichen für eine Verlangsamung der Zirkulation. „Die von uns beobachteten Änderungen sind vermutlich Teil eines natürlichen Zyklus’“, sagte Willis. „Die leichte Zunahme des Overturning seit 1993 fällt zusammen mit einer Jahrzehnte langen natürlichen Abfolge von Erwärmung und Abkühlung des Atlantiks“.

Die renommierte Klimawissenschaftlerin Judith Curry bringt es in ihrem Blog am 25. März 2015 auf den Punkt. Sie misstraut den Klimaproxies der Rahmstorf/Mann-Gruppe und vermutet, dass die Forscher auf die natürliche Klimavariabilität hereingefallen sind. Was PIK & Co. als anthropogenen Klimawandel verkaufen, sind in Wirklichkeit ganz normale Klimaschwankungen im Zusammenhang mit quasi-periodischen Ozeanzyklen, die sie einfach nicht wahrhaben wollen. Curry schreibt:

Nun, wenn es etwas gibt, dem ich noch mehr misstraue als Klimamodellsimulationen von Meeresströmen im Zeitmaßstab von Jahrzehnten bis zu Jahrhunderten und deren interner Variabilität, sind es deren Proxy-Analysen von Michael Mann. Man tut so, als ob Grannenkiefern und Tiljander-Sedimente uns etwas über die Flussraten des Golfstromes sagen können ebenso wie etwas über die globalen Temperaturen. Bemerkenswert. … Wem also soll man glauben? Klimamodellen und Mann’schen Proxys oder direkten Messungen der Ozean-Zirkulation der Satelliten? … Was wir in den hohen Breiten des Nordatlantik sehen, ist natürliche Variabilität, vorherrschend assoziiert mit der Atlantic Multidecadal Oscillation. Auf der Grundlage analysierter Messungen gibt es keine Anzeichen einer Verlangsamung des Golfstromes oder der Atlantic Meridional Overturning Circulation.

Auch der Klimastatistiker Steve McIntyre, der bereits Michael Manns Hockeystick zu Fall brachte, war entsetzt. Für ihn war es ein schwerer Schlag zu sehen, dass die Rahmstorf/Mann-Gruppe im aktuellen Golfstrom-Paper erneut hochumstrittene und bereits von der Fachwelt für unbrauchbar eingestufte Klimaproxies verwendet hat. (Eine deutsche Übersetzung von McIntyres Kritik gibt es auf EIKE). Zudem wurden erneut Datenreihen nach Belieben gekürzt, offenbar damit favorisierte Trends besser zur Geltung kommen. Ein anderer Forscher bemängelte, dass im Rahmstorf/Mann-Paper noch immer eine Hockeystick-Variante von 2008 als Grundlage verwendet wird, obwohl es mittlerweile viel realistischere Klimarekonstruktionen gibt.

Nun ist Rahmstorfs Golfstrom-Thema alles andere als neu. Michael Krüger stellt im Science Skeptical Blog in seinem Artikel “Und täglich grüßt das Murmeltier: Stefan Rahmstorf und der ‘versiegende’ Golfstrom” die facettereiche Geschichte des Themas dar. Darin geht es um Behauptungen, Dementis, und Dementis von Dementis. Lesenswert. Außerdem bietet Krüger auch eine interessante Erklärung für die von Rahmstorf zum anthropogenen Klimawandel-Beweis hochstilisierten Kälteanomalie im Nordatlantik.

Angesichts der massiven Welle von Kritik mutet es bizarr an, dass das PIK am selben Tag, ebenfalls am 24. März 2015, eine zweite Pressemitteilung herausgab:

Bestnoten für das PIK: Senat der Leibniz-Gemeinschaft bestätigt Exzellenz 
Der Senat der Leibniz-Gemeinschaft, die mehr als 80 wissenschaftliche Einrichtungen vereint, hat am gestrigen Montag mit seiner Stellungnahme die Evaluation des PIK abgeschlossen. Die Arbeitsergebnisse des Institut seien „hervorragend“, heißt es hierin. Die Bewertung basiert auf einer nur alle sieben Jahre stattfindenden Begutachtung durch ein Team internationaler Spitzenforscher. Nach dem Urteil der Gutachter hat sich das PIK zu einem der weltweit führenden Institute für Klimawissenschaft entwickelt. Hervorgehoben wurde dabei neben der Forschungsleistung auch die wichtige Rolle des Instituts in der wissenschaftlichen Politikberatung.

Ein guter Witz.

Link: http://www.kaltesonne.de/neue-golfstrom-publkation-des-pik-fallt-in-der-fachwelt-glatt-durch/

Dieser Beitrag war zu erst im Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischen Passagen darin von Chris Frey EIKE




Jochem Marotzke und Martin Stratmann (Hrsg)“Die Zukunft des Klimas“ – Eine Buchbesprechung

Das Buch ist von 18 „Spitzenwissenschaftlern“ geschrieben und aufgeteilt in 12 Kapitel. Das Vorwort der Herausgeber beginnt mit der Feststellung: „Der menschengemachte Klimawandel findet statt, und er berührt alle Facetten des Lebens.“ Das ist der große Pferdefuß des Buches. Es ist dogmatisch und eigentlich nur an Gläubige gerichtet, die ehrfürchtig alles glauben, was ohne jeden Beweis als Wissen präsentiert wird. Das „viel Vergnügen beim Lesen“ wirkt fast wie eine Verhöhnung. Nichts wird über die „Zukunft des Klimas“ gesagt. Es bleibt bei den üblichen Konjunktiv-Spekulationen wie, es könnte heißer, kälter, trockener, nasser werden. Überhaupt, das Wetter werde immer extremer.

Schlimmer noch, auf 230 Seiten wird mit keinem Wort gesagt, was Klima bedeutet. Die Klimaexperten arbeiten mit abstrakten Werkzeugen an einem abstrakten Objekt mit abstrakten Klimamodellen, die nur mit Szenarien spielen, aber keine Prognosen machen. Es wird verschwiegen, dass Klima nur anhand von vergangenen Wetterdaten beschrieben werden kann, die Kenntnis des Klimas folglich die Kenntnis des Wetters voraussetzt. An der maximalen Reichweite der Wetterprognosen endet auch das Wissen um die „Zukunft des Klimas“. Der Rest ist Spekulation!

Die Fantasie der Experten ist schon frappierend. Da werden die „Zugvögel zu Verkündern des Klimawandels“, ebenso die Pflanzen, obgleich sich die Zugvögel an den Lichtverhältnissen orientieren und die Pflanzen ganz vom Wetter abhängig sind. Unerklärlich ist, die Vegetation als „Fliegengewicht“ im globalen Klimageschehen darstellt, obwohl sie zentraler Bestandteil aller Klimadefinitionen ist. Der Kohlenstoffgehalt der Luft wird mit 830 und 720 Milliarden Tonnen, also mit einer Unsicherheit von 110 Milliarden Tonnen, angegeben, was aber bedeutet, dass alle fünf bis sieben Jahre ein CO2-Molekül durch Fotosynthese in ein Zuckermolekül eingebaut wird, sich also alle fünf bis sieben Jahren der CO2-Gehalt der Luft total erneuert. Dagegen wird in den Klimamodellen von einer Verweilzeit des CO2 in der Atmosphäre von 200 und mehr Jahren angenommen, um es ohne Beweis als Klimakiller brandmarken zu können.  CO2 ist Lebensvoraussetzung für die Existenz von Pflanzen und damit Grundvoraussetzung für alles Leben auf Erden.

Nicht nur der Begriff „Klima“, der aus dem Griechischen entlehnt ist und schlicht „Neigung“ bedeutet, es wird auch nicht erklärt, wie sich der statistisch aus Wetterdaten berechnete Wert Klima „erwärmen“ kann. Oder doch? Hier die Erklärung von Marotzke:  Der Boden strahlt Wärme ab und davon gehen 50 Prozent ins Weltall und 50 Prozent werden zur Erde reflektiert. Dieser erwärmt sich dadurch! Machen Sie ein einfaches Exempel: Bei Sturm werfen Sie 100 Euro in die Luft. Die 50 Prozent Scheine werden vom Winde verweht, doch die 50 Prozent Hartgeld fallen in ihren Schoß zurück. Werden Sie dadurch reicher? Nein, denn 50 Prozent sind verschwunden.  So geschieht es auch mit der Erdwärme und daraus folgt die nächtliche Abkühlung! Aus den Pflanzen beziehen Mensch und Tier ihre Lebensenergie. Das CO2 soll ein „Umweltgift“ sein? Da stockt einem der Atem!

Das Buch ist ein „Gebetbuch“ für Klimagläubige und nicht empfehlenswert. Die Max-Planck-Gesellschaft hat sich mit ihrem politischen Wohlverhalten einen Bärendienst erwiesen. Hätte sie doch geschwiegen! Aber kann sie das bei der Abhängigkeit von Staatssubventionen?

 Die Zukunft des Klimas

Neue Erkenntnisse, neue Herausforderungen

Ein Report der Max-Planck-Gesellschaft

Herausgegeben von Jochen Marotzke und Martin Stratmann

Beck-Verlag, München 2015, 230 Seiten, 16,95 Euro,

ISBN 978-3-404-66976-5




Eisbohrkern-Gedankenexperiment eines Ingenieurs – Fortsetzung

Es ist ziemlich eindeutig, dass die natürliche CO2-Emission (und atmosphärische Spitzenwerte) stimuliert werden durch jedweden globalen Temperaturanstieg, egal welche Gründe dieser Anstieg hat. Der globale Temperaturanstieg um rund 1,5°C seit der Kleinen Eiszeit kann vernünftigerweise als Grund für eine Zunahme [der Emissionen] bis hin zur doppelten Menge aus vielen der natürlichen Quellen angenommen werden, insbesondere der biologischen natürlichen Quellen). Siehe Tabelle 1:


Tabelle 1

Hier sind die primären Quellen der natürlichen CO2-Ausgasung gelistet, und zwar in absteigender Ordnung hinsichtlich der Menge des emittierten Kohlenstoffes: ozeanische Freisetzung, mikrobieller Zerfall, Insektenaktivitäten, Freisetzung aus auftauendem Frostboden, vulkanische Ausgasungen, Waldbrände und schließlich Atmung und Emissionen von Säugetieren – was zusammen eine Summe von etwa 325 bis 485 Petagramm ergibt. Dann ist da noch unsere anthropogene Freisetzung von rund 2,0% des natürlichen Flusses mit etwa 8 bis 9 Petagramm. (Auf der Grundlage von terrestrischen Quellen allein ohne Ozeane macht der anthropogene Fluss etwa 3 bis 4% des natürlichen Flusses aus. Einige machen geltend, dass die Ozeane Absorber sind und ignorieren dabei die in der Tabelle geschätzte Freisetzung aus den Ozeanen. Allerdings sind die Ozeane auf der Grundlage der hier präsentierten Argumente insgesamt Emittenten, wie in der Tabelle gezeigt, wenn sie sich um etwa 0,5°C pro Jahrhundert erwärmen).

Anmerkungen: Zwischeneiszeitliche Schätzungen stammen aus meinen Anmerkungen von den Websites von IPCC, NASA und NOAA der Jahre 2005 und 2006, als diese Sites noch eine detaillierte Analyse der natürlichen CO2-Emissionsquellen gezeigt haben. Terrestrische Schätzungen der CO2-Emission stellen den anthropogenen Beitrag mit etwa 3 bis 4% dar. Die jährliche Schätzung der Freisetzung durch Ozeane ist modelliert (aus Laborexperimenten der NOAA) und würde nur steigen, falls und wenn die Ozeane einem Erwärmungsprofil von 0,5°C pro Jahrhundert folgen würden (was höchstwahrscheinlich der Fall war). Thermische Modulationen aller nichtmenschlichen Emissionen können erwartungsgemäß ziemlich groß sein (bis zu 2 mal und mehr bei den Extremwerten der globalen Temperatur). Der einzige Wert, der mit hoher Genauigkeit geschätzt werden kann, ist der anthropogene Beitrag, der weitaus kleiner ist als sowohl die Unsicherheit und – am wichtigsten – die Variabilität vieler natürlicher Emissionsquellen.

Diese natürlichen Quellen korrelieren allesamt mit der globalen Temperatur einschließlich – am geringsten – mit dem terrestrischen Vulkanismus (wie jüngst verifiziert). Wird es auf der Erde wärmer, aus welchen Gründen auch immer, spielen alle diese natürlichen Quellen zusammen und tragen riesige Mengen CO2 in die Atmosphäre ein. Dies führt zu dem beobachteten gewöhnlichen atmosphärischen CO2-Anstieg. Wird es auf der Erde hingegen kälter, aus welchen Gründen auch immer, lassen alle zusammen in ihren Emissionen nach, was natürlicher- und konsequenterweise sowie kohärent eine Reduktion des atmosphärischen CO2-Gehaltes zur Folge hat. Jede Spitze oder jeder Abfall des CO2-Gehaltes folgt der Temperatur mit einer Verzögerung von etwa 800 Jahren, aber proportional zum Niveau und der Größenordnung, mit der sich die Temperatur ändert.

Daraus folgt die Erkenntnis, dass kurzfristig (weniger als 100 Jahre) der natürliche CO2-Fluss (steigend und fallend) von diesen biologischen Prozessen dominiert wird. Und dass eine natürliche biologische CO2-Abnahme eine Schubfunktion atmosphärischer CO2-Zunahme hat (d. h. der CO2-Eintrag muss steigen bevor die Abnahme des CO2 stimuliert wird). Und wenn man dann annimmt, dass die gesamte irdische Photosynthese-Aktivität von 1850 bis heute mit einer Rate von bloßen 0,35% zugenommen hat infolge der Temperatur/CO2-Stimulation, bekommt man ein Bild, dass etwa so aussieht:

Zu den oben gezeigten gespiegelten Beugungspunkten:

A) Die geringe negative Beugung des größeren Beitrags durch Mikroben/Insekten ist viel zu gering, um in der Summenmessung am Mauna Loa aufgeschlüsselt zu werden.

B) Die große positive Beugung des geringen anthropogenen Beitrags ist ebenfalls viel zu gering, um in der Summenmessung am Mauna Loa aufgeschlüsselt zu werden.

C) Die gesamte menschliche Aktivität (jeweils bei etwa 2%) ist durchweg irrelevant innerhalb unserer Grenzen der gegenwärtigen globalen CO2-Erkundung und -Evaluierung.

D) Eine geologisch unmittelbare Ersetzung etwa gleicher CO2-Emission erfolgte zwischen irdischen Lebensformen (d. h. anthropogene landwirtschaftliche Begrenzung für mikrobielle und Insekten-Emission ist in etwa gleich, aber möglicherweise auch größer als die anthropogenen CO2-Emissionen selbst).

Wir Menschen haben uns dazu entschlossen, die Ausbreitung von Mikroorganismen und Insekten auf den Flächen, die wir kultivieren und besetzen, zu begrenzen – was etwa ein Drittel allen Landes ausmacht. Und in den anderen zwei Dritteln allen Landes wird geschätzt, dass Mikroben und Insekten etwa die zehnfache Menge unserer anthropogenen Mengen emittieren (Insekten allein übertreffen zahlenmäßig die Menschen >>10.000.000.000:1 – das ist mehr als genug, um mehr als 10 Müllcontainer pro Person auf der Erde zu fällen).

Der relative Beitrag von Mikroben- und Insekten-Emissionen würde signifikant steigen, falls es uns nie gegeben hätte (sehr grob um einen Faktor 1,5*). Sie hätten unsere Lücke geometrisch gefüllt, anders als unser anthropogener Beitrag. Werden die Menschen reich, begrenzen wir einheitlich unsere starke Vermehrung mit dem Entschluss, weniger Kinder zu bekommen. Und unsere menschlichen Emissionen verblassen im Vergleich mit den Emissionen dieser astronomisch hohen Anzahl anderer Organismen. Falls es uns also nie gegeben hätte, würden erheblich größere Populationen von Mikroben und Insekten mehr als wir Menschen emittieren von genau den Ländereien, von denen wir sie derzeit systematisch fernhalten wollen.

*Mit Sicherheit lag unsere Begrenzung der Mikroben- und Insekten-Verbreitung innerhalb des von uns kultivierten Landes nicht bei 100%. Allerdings benötigt diese Begrenzung nur den leicht akzeptablen Wert von rund 10% oder mehr, um die Vermutung zu bestätigen: Wir haben Grund zu glauben, dass die gegenwärtige Spitze genauso groß oder sogar größer wäre als derzeit beobachtet, falls es uns Menschen nicht geben würde. Das heißt, der „Kohlenstoff-Fußabdruck“ der Menschen kann einen neutralen bis negativen Beitrag leisten und tut das wahrscheinlich auch. Und die gegenwärtig beobachtete atmosphärische CO2-Spitze ist im Wesentlichen durchweg natürlichen Ursprungs.

Mit dem oben Gesagten vermute ich mit großem Vertrauen, dass atmosphärische CO2-Spitzen die Folge eines jeden globalen Temperaturanstiegs sind. Und auch, dass die Spitze am akutesten wird während oder unmittelbar nach der Beugung von steigender zu fallender globaler Temperatur (mit kleineren Spitzen bei der Beugung von kalt nach warm).

Die Frage muss also lauten: Wie kommt es, dass wir diese Temperaturumkehr-Spitzen in den Eisbohrkernen nicht finden, wenn es während des gesamten Holozäns zu derartigen Temperatur-Umkehrungen gekommen ist?

Und die Antwort lautet: Diese hoch frequenten Spitzen von kurzer Dauer sind allgemein in Eisbohrkernen nicht zu finden wegen der unzureichenden Auflösung darin. Warum? … Für eine Antwort wollen wir jetzt den Eisbohrkern-Eintragsprozess betrachten und ideale mit realistischen Portraits vergleichen.

Nehmen wir einmal an, dass die folgende atmosphärische Durchdringung im Eis aufgezeichnet wird (siehe Abbildung 1). Zu irgendeinem Zeitpunkt t0 steigt der atmosphärische CO2-Gehalt von einer Hintergrund-Konzentration von 300 ppm 100 Jahre lang mit einer Rate von 3 ppm pro Jahr. Der Spitzenwert beträgt dann 600 ppm und repräsentiert eine 100%-Spitze der Original-Hintergrund-Konzentration und fällt dann in gleicher Weise während der folgenden 100 Jahre. Amplitude und Dauer der Durchdringung sind willkürlich, aber – wie ich glaube – potentiell repräsentativ auf vorausgehende Ereignisse der realen Welt (und möglicherweise befinden wir uns derzeit im 60. Jahr der Aufzeichnung eines irgendwie ähnlichen Ereignisses am Mauna Loa). Wie also könnte sich diese atmosphärische Durchdringung im Eis der Antarktis niederschlagen, sowohl ideal als auch realistisch?

Zuerst wollen wir die Ausgangsbedingungen des aufzeichnenden Mediums beschreiben, und zwar zum Zeitpunkt t0 und davor, wie man es typischerweise an einer Bohrstelle in der Antarktis finden könnte (Abbildung 2). An der Oberfläche werden ein paar Meter Schnee locker herumgeweht. Darunter befindet sich eine rund 100 Meter dicke Firnschicht – teils zusammengepresster Schnee, der von früheren Schnee-Jahreszeiten stammt. Das jahreszeitliche Alter des Schnees an der Untergrenze der Firnschicht beträgt rund 40 Jahre. Darunter wiederum liegt Gletschereis bis in große Tiefen, das sich durch den Druck des darüber liegenden Firns gebildet hat. Dieses Gletschereis repräsentiert vergangene Saisons, abgebildet in Schichten, von vor 40 Jahren bis zu vor 800.000 Jahren. Der atmosphärische CO2-Gehalt betrage ursprünglich 300 ppm.

In Abbildung 3 sehen wir einen Schnappschuss der „idealen“ Aufzeichnung des atmosphärischen CO2 zum Zeitpunkt t0 plus 50 Jahre. Während dieser 50 Jahre stieg die atmosphärische CO2-Konzentration von 300 ppm auf 450 ppm mit 3 ppm pro Jahr. Die letzten 40 dieser 50 Jahre sind im Firn aufgezeichnet, während die ersten 10 Jahre inzwischen im Gletschereis angekommen sind.

Allerdings sehen wir in Abbildung 3A, dass infolge Diffusion eine realistischere Darstellung eine steilere Neigung hat, aber nominell ein ähnliches Profil.

In Abbildung 4 sind weitere 50 Jahre idealer Aufzeichnung vergangen. Am Zeitpunkt t0 plus 100 Jahre hat der atmosphärische CO2-Gehalt jetzt seinen Spitzenwert bei 600 ppm erreicht. Wieder sind die letzten 40 Jahre im Firn aufgezeichnet, während die ersten 60 Jahre im Gletschereis angekommen sind.

Allerdings sehen wir in Abbildung 4A, dass infolge Diffusion eine realistischere Darstellung eine steilere Neigung hat, aber nominell ein ähnliches Profil.

Während dieser Initial-Perioden stetig zunehmender CO2-Konzentration zeigt sich, dass das realistische Profil ziemlich gut zu dem idealen Profil passt. Aber das wird sich ändern.

In der „idealen“ Abbildung 5 befinden wir uns jetzt auf dem absteigenden Ast der aufzuzeichnenden atmosphärischen Durchdringung. Der atmosphärische CO2-Gehalt hat sich von seinem Spitzenwert von 600 ppm auf 450 ppm verringert. Wie zuvor finden sich die letzten 40 Jahre im Firn, und 110 Jahre der Aufzeichnung sind im Gletschereis gelandet; einschließlich des Spitzenwertes von 600 ppm.

Aber jetzt sehen wir in Abbildung 5A, dass die Diffusion zurück in die Atmosphäre ein sehr unterschiedliches realistisches Porträt des wirklichen Aufzeichnungsprozesses angenommen hat. Und dieser Unterschied wird weiterhin immer ausgeprägter werden.

In Abbildung 6 „ideal“ ist die atmosphärische Konzentration beim Zeitpunkt 200 Jahre wieder auf die Ausgangsposition gesunken, während der Firn immer noch die Überreste der Durchdringung in das Gletschereis durchlässt.

In Abbildung 7 ist die „ideale“ Eisaufzeichnung im Gletschereis vollständig. Aber in Abbildung 7A sind nur rund 7% der Original-Durchdringung realistisch beibehalten.

In Abbildung 8 sehen wir, wie sich diese Aufzeichnung im Idealfall weitere 250 Jahre in das Gletschereis hineinbewegt, während Abbildung 8A zeigt, dass nur etwa 5% der Original-Durchdringung tatsächlich aufgezeichnet worden waren.

Und diese einzige Quelle dämpfender Verzerrung ereignet sich am ursprünglichen Beginn des Aufzeichnungsprozesses im Eisbohrkern (die ersten paar hundert Jahre), trotz nachfolgender Aufzeichnungs-Verzerrungen – von der jede einzelne Verzerrung spezifisch und selektiv die „Spitzen-CO2“-Aufzeichnung verringert … selektiv.

Man braucht nicht allzu viel Denkkraft um zu erkennen: falls die Dauer der Durchdringung bei 200 Jahren festgelegt wird, wären die Ergebnisse ähnlich denen, die für jede Amplitude der Durchdringung gezeigt werden würde – nur etwa 5% würde man am Beginn der Aufzeichnung erhalten.

Somit wird klar, warum diese durch Temperatur-Beugung ausgelösten Spitzenwerte nicht in den Eisbohrkernen auftauchen. Viele (die meisten) der Holozän-Durchdringungen würde Zeitlängen kürzer als 200 Jahre involvieren dergestalt, dass die Aufzeichnung im Eisbohrkern im Grunde in ihrer Gesamtheit verloren geht, unabhängig von der Amplitude der Durchdringung.

Man kann vernünftigerweise auch annehmen, dass Temperatur-/CO2-induzierte Rückgänge der Photosynthese [photosynthetic sinking] allgemein nicht zulassen werden, dass die Amplitude des Spitzenwertes größer als 100% wird; zumindest nicht bei Abwesenheit eines Sättigungs-Ereignisses des photosynthetischen Rückgangs.

Folglich lautet eine gute Frage: Angesichts dessen, dass die Eisbohrkerne 50-prozentige CO2-Spitzen während des großen Gletscherschwunds zeigen, welche minimale Zeitdauer der Durchdringung wäre erforderlich, damit die 50-Prozent-Punkte einer Durchdringungs-Amplitude von 100% die initiale Schwächung des Aufzeichnungsprozesses überleben? Meine Schätzung lautet, dass irgendein Zeitraum länger als 500 Jahre erforderlich ist.

Ein Letztes betrachtet die Historie tausender atmosphärischer CO2-Messungen, die durch kompetente Meteorologen via chemischer Analysen durchgeführt worden sind. Diese Wissenschaftler waren keine Idioten. Sie mögen keine akkuraten Verfahren gehabt haben, aber sie hatten mit Sicherheit präzise Verfahren, sonst hätten sie diese Messungen niemals viele Jahre lang durchgeführt. Und es ist unvorstellbar, dass sie alle unabhängige, aber systematische Messfehler gemacht haben (jahrelang), irrig hohe Werte erhalten haben, aber nur während der Jahre, die einem Übergang von Erwärmung zu Abkühlung folgten. Chemische Analysen zeigen klar atmosphärische CO2-Spitzen, genauso groß oder größer als heute, während der zwanziger und fünfziger Jahre des 19. Jahrhunderts sowie Anfang der vierziger Jahre des 20. Jahrhunderts – in jedem Falle einer Beugung der Temperatur von Erwärmung nach Abkühlung folgend. Und die Tatsache, dass diese gleichen Ereignisse in den Eisbohrkern-Aufzeichnungen fehlen, sind oben gut erklärt.

Und schließlich – CAGW ist nicht einfach falsch … es ist vollständig und umfassend falsch. Erhöhte atmosphärische CO2-Werte sind kein Klimagift, sondern das Lebenselixier für alle Lebensformen auf der Erde. Und die Falschinterpretation oder Missverständnisse aus den Eisbohrkernen hat erheblich zu unserer Konfusion beigetragen. Mehr Info gibt es hier.

Ronald D Voisin is a retired engineer. He spent 27 years in the Semiconductor Lithography Equipment industry mostly in California’s Silicon Valley. Since retiring in 2007, he has made a hobby of studying climate change. Ron received a BSEE degree from the Univ. of Michigan – Ann Arbor in 1978 and has held various management positions at both established semiconductor equipment companies and start-ups he helped initiate. Ron has authored/co-authored 31 patent applications, 27 of which have issued.

Link: http://wattsupwiththat.com/2015/04/04/an-engineers-ice-core-thought-experiment-2-the-follow-up-2/

Übersetzt von Chris Frey EIKE




Radioaktivität – Fluch oder Segen?

Insbesondere die Kernenergie hat es am härtesten getroffen – in Form der Strahlen-Angst. Wer den Versuch unternimmt, auf der Basis von heute unzähligen Studien – in der Regel unter dem Dach der großen Un-Organisation "United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR) gesammelt und veröffentlicht – eine rational-wissenschaftliche Sichtweite zu vertreten, wird zumindest in Deutschland als "mit dem Teufel im Bunde" oder als "Lobbyist der Kernenergieindustrie" abgeurteilt.

Ursache dieser Entwicklung ist zweifellos die viele Jahrzente lange Verdummungskampagne seitens grünpolitischer Gruppen, die bei den bekannt ängstlichen Deutschen mit diesem Mittel ihren Aufstieg bis in die Regierungsverantwortung erreichten. Nicht zuletzt machten sich anlässlich des Fukushima-Unglücks englische Zeitungen über die "German-Angst" lustig und dies völlig berechtigt. Wurden doch hierzulande Jodtabletten gegen Radioaktivitätsereignisse gekauft, die sich den halben Erdumfang entfernt abspielte.

Sachinformation wurde von den grünen Ideologen gefälscht oder derart verdreht, dass dem Laien ungestraft das sachliche Gegenteil der Fakten untergeschoben werden konnte. Für diese Art von Lügen zeichnen bis heute insbesondere auch die öffentlich-rechtlichen Medien aus, die es bei jedem Fukushima-Jahrestag nicht versäumen die 16 000 Toten des Tsunami der getäuschten Bevölkerung als Kernkraftwerks-Tote "unterzujubeln", obwohl tatsächlich kein einziger Mensch durch Radioaktivität durch die Fukushima-Havarie ums Leben kam. Die Methode ist so einfach wie infam. Sie nutzt den rhetorischen Trick einer zweideutigen Formulierung, welche die Toten des Tsunami durch einfache Aufzählung mit der KKW-Havarie zu verknüpfen vermag (hier, hier). Es ist nicht übertrieben zu konstatieren, dass in den politischen und medialen Kampagnen Deutschlands noch nie größere Lügen und Verdrehungen gab wie bei der Kernenergie.

Nun ist aber auch der historische Hexen- und Teufelsglaube einmal zu Ende gegangen. Es ist freilich zu erwarten, dass dies in Deutschland mit dem modernen Hexenglauben zuallerletzt weltweit geschieht. Der Schaden ist kaum abschätzbar. Wenn sich in ferner Zukunft endlich Vernunft durchgesetzt hat, die grünen Rattenfänger aus den politischen Entscheidungsposten von einer aufgeklärten Wahlbevölkerung verjagt worden sind, ist es nämlich längst zu spät. Deutschland hat dann weder einschlägige Fachleuten noch eine ernst zu nehmende Kernkraftwerksforschung mehr aufzuweisen. Die heute entwickelten modernen KKW-Brütertypen von inhärenter Sicherheit und mit verschwindendem radioaktiven Abfall wird Deutschland von Russen, Chinesen oder Amerikanern einmal teuer einkaufen müssen. DIE maßgebende Zukunftstechnologie und deren Exporteinnahmen bei ihrem Bau und Verkauf werden uns für immer entgangen sein.

Dr. Walter Rüegg ist einer der wenigen Fachleute, denen eine öffentliches Podium geboten wurde um über die Fakten der Radioaktivität zu berichten. Es handelt sich dabei um die traditionsreiche Naturwissenschaftliche Gesellschaft Winterthur (NGW) in der Schweiz (hier). Sein Vortrag kann als Video hier frei angeschaut/gehört werden.

Andere Formate finden Sie hier:

Die Video-Webseite der NGW aufrufen (hier), dort "2014/2015 Clip in allen formaten" anklicken und dann den Vortrag von Dr. Rüegg vom 27.3.2015 suchen (momentan steht er noch ganz oben). Der Vortrag ist gleichermaßen unter "streaming" oder "Desktop" zu sehen bzw. zu hören.

Das pdf der Vortrags-ppt ist hier beigefügt, es kann aber den Vortrag nicht ersetzen.

Related Files




Die Nassauer von Feldheim

„Ein „Nassauer“ ist eine Person, die sich ohne Gegenleistung von anderen Personen aushalten lässt“ so sagt es uns Wikipedia. Doch wer oder was ist Feldheim? Feldheim ist ein Dorf, eher ein Marktflecken  im brandenburgischen. Verwaltungstechnisch ist es ein Ortsteil von Treuenbrietzen. Es zählt ganze 128 Einwohner, die in 45 Haushalten leben, sowie 3 Agrarbetriebe, die sich mit der Aufzucht von Sauen und  mit Milchviehwirtschaft beschäftigen, sowie einen Gewerbebetrieb mit 21 Mitarbeitern der Fa. EQ-Sys, die dort Nachführsysteme für Solarpaneele produziert. Außerdem sitzt dort die Feldheim Energie GmbH & Co. KG, der Energieversorger von Feldheim, dessen Anteile von der Stadt Treuenbrietzen, der Fa. Energiequelle GmbH und den meisten Bürgern Feldheims gehalten werden.

Über Feldheim gäbe es eigentlich wenig zu sagen, wenn es sich nicht seit einigen Jahren für „Energieautark“ erklärt hätte. Seitdem reißt der Strom der Besucher – insbesondere von Politikern und Medienleuten, aber auch Interessenten, die sich mit der Energiewende beschäftigen, nicht ab. Zur Bewältigung dieses Andrangs haben die Feldheimer extra das „Neue Energien Forum“ samt einem Infocenter gegründet, dass auf Anfrage Führungen durchführt.

Video des BMU über das „Energieautarke“ Dorf Feldheim vom Besuch des damaligen Bundesumweltministers Altmaier

Energieautarkes Dorf Feldheim

Was muss man darunter verstehen? Der geneigte Leser hat bestimmt schon Vorstellungen über den Begriff „Autarkie“. Wurde er doch besonders oft im III. Reich benutzt, als es vor allem um die, für die geplante Kriegführung erforderliche Unabhängigkeit von Energie-Rohstoffimporten ging. Begriffe wie Leuna und Buna fallen dem älteren Leser sofort dazu ein.

Was bedeutet aber heute „Autarkie“?

Der Duden unterteilt.

.. in politische- wirtschaftliche Autarkie: wirtschaftliche Unabhängigkeit eines Landes [vom Ausland] und gesellschaftliche Autarkie: „Unabhängigkeit von äußeren Dingen, Einflüssen, Affekten

Bei Wikipedia findet man dazu: Autarkie (altgr. αὐτάρκεια autárkeia ‚Selbstgenügsamkeit‘, ‚Selbstständigkeit‘)[1] im allgemeinen Sinne bedeutet, dass Organisationseinheiten oder Ökosysteme alles, was sie ver- oder gebrauchen, aus eigenen Ressourcen selbst erzeugen oder herstellen

Also stützen wir uns mal auf Wikipedia: Autarkie…bedeutet, dass Organisationseinheiten oder Ökosysteme alles, was sie ver- oder gebrauchen, aus eigenen Ressourcen selbst erzeugen oder herstellen. ..und untersuchen ob die Feldheimer in Bezug auf Ihren Energieverbrauch bzw -gebrauch diese selbst erzeugen oder herstellen.

Ist der Anspruch auf „Energieautarkie“ gerechtfertigt?

Für das Transportwesen gilt dieser Anspruch sicher nicht, denn weder werden Elektromobile oder mit Holzgas betriebene Fahrzeuge irgendwo erwähnt.  Bleibt die elektrische und Heizenergie. Und da sieht es anders aus.

Mit der Energieproduktionsfirma Feldheim Energie GmbH & Co. KG und (neu) die Energieverteilungsfirma Energiequelle GmbH und Co. WP Feldheim 2006 KG, (sie gehören der Energiequelle.de, der Stadt Treuenbrietzen und den beteiligten Bürgern, die Höhe der jeweiligen Anteil ist unbekannt)  produzieren die Feldheimer Strom aus Wind, Sonne, Gülle und Maissillage sowie Getreideschrot und Wärme aus Gülle, Maissillage,  Getreideschrot sowie gelegentlich Holzschnitzeln. Der Wind und die Sonne sind für alle kostenlos da, die Gülle und tlw. die Maissillage sowie Getreideschrot werden selber erzeugt, tlw. extern erzeugt und eingekauft.

Einschub : Lt eigenen Angaben betreiben diese Firmen

·      43 Windkraftanlagen mit einer Nennleistung von 74 MW

·      9844 „Solarmover“[1] mit einer Nennleistung  von 2,25 MWp

·      1 Biogasanlage mit 0,5 mit einer Nennleistung  von 0,5 MWel

·      1 Batteriespeicher (Naßbatterie, ganz neu) mit einer Nennleistung von 10 MW, und einer Kapazität von 6,5 MWh. Die Anlage kann aber max für 30 Minuten die Nennleistung  abgeben. Dann muss nachgeladen werden[2]

·      1 Holzhackschnitzel Heizkraftwerk mit einer Nennleistung von 400 kW

Doch das ist ja eigentlich nichts Besonderes, denkt der Laie, das tun viele andere, dank der lukrativen Vergütungen, die der Verbraucher aufbringen muss, auch.  Doch in Feldheim macht´s die Menge, denn die Feldheimer erzeugen – vor allem beim Strom – viel, viel mehr als sie jemals verbrauchen können. Nun ist auch das nicht besonders schwer, denn Feldheims Energiebedarf ist winzig und könnte locker von einem Mikrokraftwerk wie z.B. dem ortseigenen Biomasse-Kraftwerk gedeckt werden. Doch die Feldheim Energie GmbH & Co. KG will mehr, weit mehr. 

Und das ist pfiffig. Denn auf diese Weise bringt man die Allgemeinheit – von der man ja eigentlich unabhängig sein will- dazu, die Kosten für die „Energieautarkie“ zu übernehmen. Und das auch noch ohne jede Wahlmöglichkeit. Aber mit hohem Ansehensgewinn für Feldheim und die Betreiber bei Medien und Politikern. Und das ist das eigentlich Geniale an der Sache.

Denn alles, was die Feldheimer über den eigenen Bedarf an Energie erzeugen – so ist die Gesetzeslage- wird ins öffentliche Stromnetz eingespeist – die Leitungen wurden ja nicht der „Autarkie“ zuliebe gekappt, sie sind ja da- und muss von den Netzbetreibern abgenommen werden. Mit einer kleinen Einschränkung, die überschüssige Wärme, die z.B. im Sommer anfällt, kann nur in die Umgebung entlassen werden.

Aus den Angaben im Einschub oben lassen sich nun folgende Energiemengen (Arbeit) errechnen:

♦ Wind (bei angenommenen 17 % Nutzungsgrad) erzeugt 110.340 MWh p.a.

♦ Solar  erzeugt lt. Eigenangabe 2748 MWh p.a, (bei mittleren Nutzungsgraden von 8 % für Brandenburg würden es jedoch nur 1577 MWh sein. Ich rechne aber mit der Eigenangabe weiter, vielleicht ist Fedlheim ja von der Sonne verwöhnt.

 

♦ Biomasse erzeugt 4000 MWhel (Angabe Fa. Energiequelle) p.a und 3740 MWhthe netto ebenfalls p.a. (Dh. der Eigenbedarf von 540 MWh zum Betrieb des Kraftwerks ist bereits abgezogen) Zuzüglich von x MWh durch das  Holzhackschnitzelwerk, das aber nur temporär in Einsatz kommt.

♦ Die jüngst hinzu gebaute Puffer-Batterie mit 10 MW Leistung und ca. 0,5 MWh Energieeinspeisung. ist ein durchlaufender Posten.

Insgesamt erzeugen diese Anlagen rd 117.000 MWh im Jahr an elektrischer Energie und 3740 MWh + x an thermischer Energie. Dabei teilt sich die Elektroenergie nach Erzeuger wie folgt auf

·      94 % Wind

·      2 % Solar

·      3 % Biomasse

die allerdings nicht alle zur gleichen Zeit ihre Energie abgeben. D.h wenn es im Rest des Landes dunkel ist, dann ist es auch in Feldheim dunkel und wenn im Rest des Landes kein Wind weht, dann weht er wohl auch in Feldheim nicht 

 

Wie zum Beispiel Anfang und Ende Dezember 2014; Bild Rolf Schuster, Daten EEX

Demgegenüber steht ein Eigenverbrauch an Elektroenergie von ca. 900 MWh. Das sind nur 0,77 % der Erzeugung. Es bedeutet aber, dass die „energieautarken“ Feldheimer Energie im Überfluss erzeugen, die sie „exportieren“ müssen und das auch tun.  Daher werden 99 % davon „exportiert“! Und das ist das eigentliche Gechäftsmodell.

Doch auch wenn kein Wind weht und keine Sonne scheint, dann haben die Feldheimer Licht und Strom. Denn das Biomassekraftwerk kann 4000 MWhel liefern,d.h. den Eigenbedarf also locker ca. 4 x abdecken und auch im Winter bleiben die Heizungen nicht kalt. Zur Not müssen aber trotzdem dann wieder die Netzbetreiber, also die Allgemeinheit einspringen, wenn z.B. das Biomassekraftwerk gewartet wird, denn die Leitung nach draußen wurden ja nicht gekappt.

Wozu dann diese massive Überproduktion? Ist es Menschenfreundlichkeit? Ist es kommerzielles Kalkül? 

Es ist, der Leser errät es, ausschließlich knallhartes, kommerzielles Kalkül, verkauft als edel-gutmenschlicher Beitrag zur Klimarettung und zur Ressourceneinsparung im Interesse unserer Kinder und Enkelkinder.

Zu den öffentlich geäußerten Motiven findet man auf der Feldheim Website:

Vorsorge für die Zukunft

Wer auf Erneuerbare Energien setzt, schafft langfristige, existenzielle Sicherheiten für zukünftige Generationen. Denn nur so kann der CO2-Ausstoß wirksam gesenkt und das Klima geschützt werden.

Positive Imagebildung

Zahlreiche Auszeichnungen belegen, dass Investitionen in Erneuerbare Energien gesellschaftlich honoriert werden und zu einem positiven Imagefaktor für Städte und Gemeinden führen. Gemeinden, die demonstrieren können, dass sie die globalen Energieprobleme vor Ort gelöst haben, wecken das Interesse der Öffentlichkeit.

Langfristige Energiesicherheit

Wind-, Sonnen- und Bioenergie werden immer verfügbar sein, während fossile Ressourcen knapper und damit teurer werden. Die Technologien sind vorhanden, um mit Erneuerbaren Energien den heutigen und zukünftigen Bedarf zu decken.

Aber auch….

Größtmögliche Unabhängigkeit

Ein geeignetes energetisches Gesamtkonzept und ein überwiegend autarkes Versorgungsnetz versetzen die angeschlossenen Endverbraucher einer Region in die Lage, sich von der Preisspirale fossiler Brennstoffe und Abhängigkeiten von übermächtigen Energieversorgern zu lösen. Dies zeigt, dass die Erneuerbaren Energien die Bildung völlig neuer regionaler Wertschöpfungskreisläufe ermöglichen.

Finanzielle Vorteile

Strom aus Erneuerbaren Energien erhält eine gesetzlich festgelegte Vergütung und sichert Anlagenbetreibern langfristig Einnahmen. Auch wenn nicht die Gemeinde selbst die Wind- oder Solarparks betreibt, so zieht sie dennoch einen Nutzen aus Gewerbesteuereinnahmen und möglicherweise auch Pachtzahlungen des Anlagenbetreibers.

Sichere Arbeitsplätze

Jedes Erneuerbare-Energien-Projekt bringt Investitionen in die Region. Durch die Planung, den Bau und die Wartung von Anlagen werden bestehende Arbeitsplätze in örtlichen Unternehmen gesichert und neue Jobs geschaffen.

Das klingt alles sehr edel. Doch mit keinem Wort wird der eigentliche Zweck dieser Anlagen erwähnt, nämlich in Massen hochsubventionierte Elektroenergie zu erzeugen und in das öffentliche Netz einzuspeisen. Alles andere ist nur PR Beiwerk. Wie z.B. auch der Verweis auf „Finanzielle Vorteile“ 

Denn so edel wie das alles klingt, Feldheim ist nur solange von der Außenwelt unabhängig, solange es Leitungen gibt, die die Produktion in diese Außenwelt transportieren und es Verbraucher gibt, welche  die Stromproduktion abnehmen und bezahlen. Und dafür sorgt zwangsweise das EEG. Mithin ist die Feldheimer Lösung nichts anderes ist ein NIE-Kraftwerk für Begüterte mit angeschlossener Betriebs-Wohnsiedlung. Den älteren Bewohnern von Fünf-Neuland ist diese Betriebskonstruktion sicher noch in Erinnerung 

Feldheim ist ein Kraftwerk mit angeschlossener Betriebs-Wohnsiedlung

Um den Witz an der ganzen Sache noch besser zu verstehen, und zu erkennen wie lukrativ das alles ist, sollte man sich die Zahlen und die Protagonisten näher ansehen. Doch das ist leichter gesagt als getan, denn man findet – insbesondere die für die Kosten- nur wenige und auch die noch weit verstreut.  Doch es gibt einige und von denen kann man auf die anderen schließen. Das erhöht zwar nicht die Genauigkeit, aber reicht für eine erste  Beurteilung völlig aus.

Wie ist das Ergebnis dieser Beurteilung?

Feldheim mit seinen 128 Bewohnern, 3 Agrarbetrieben 1 kleinen Gewerbebetrieb und seinem Biomassekraftwerk hat -wie schon erwähnt- einen jährlichen Energiebedarf von ca. 900 MWh (elektrisch) und rd 3.000 MWh[3] thermisch. Doch seine Erzeugungskapazität mit 43 Windrädern und knapp 10.000 „Solarmovern“, sowie einem Biomassekraftwerk, beträgt rd. 117.000 MWh (elektrisch) und 3.760 MWh thermisch.  D.h. allein seine erzeugte Elektroenergiemenge ist um den Faktor 130 x größer als der Eigenbedarf. Bei der Wärme ist der Überschuss mit dem nur 1,25 fachen deutlich geringer, aber auch dieser geringe Überschuss reicht nicht sicher aus, um in den Wintermonaten über die Runden zu kommen, deswegen betreiben die Feldheimer ein (ebenso bezuschusstes) Holzschnitzel-Heizkraftwerk.

Und das ist auch schon das ganze Geheimnis der Feldheimer Energieautarkie. Wie jedes andere (besonders schwarzstartfähige) konventionelle Kraftwerk, ist auch Feldheim energieautark, denn es ist nicht anderes als ein Kraftwerk. Es heißt nur anders, nämlich „Energieautarkes Dorf“. Mit dem hoch-profitablen Unterschied jedoch, dass ein konventionelles Kraftwerk seinen Strom am freien Markt zu niedrigsten Preisen anbieten muss, und bis zuletzt nicht weiß, ob der Strom auch abgenommen werden wird, während das Feldheimer NIE Kraftwerk diese Energie zu stark überhöhten EE Preisen immer sicher abgenommen bekommt. Und das über 20 Jahre garantiert. 

Immerhin werden über 99 % der Produktion (es können auch ein paar Prozentpunkte weniger sein, denn wie gesagt die Zahlen sind nicht sehr genau) von rd. 117.000 MWh jährlich hochvergütet verkauft. (unter den Motiven bescheiden „Finanzielle Vorteile“ genannt) Das führt für die Anbieter zu einem gesicherten, risikolosen Umsatz  von knapp 18 Mio € jährlich. Davon können die nicht nur locker die sehr hohen Investitionen von rd 93 Mio € (incl. 30 Minuten 10 MW Batteriespeicher) bezahlen, sondern es fällt auch noch – so nebenher- ein ca. 20 – 25 % Abschlag auf die Stromrechnung für die Anwohner ab. Dafür loben diese – verständlicherweise- das Feldheimer Modell in den höchsten Tönen. Kein Wunder bei diesem schönen Deputat. Zumal der Steuerzahler auch bei der Investition kräftig mitgeholfen hat, denn man findet auf der Feldheimer-  wie des Errichters Energiequelle Webseite-  den folgenden Satz:

Die für den Bau der separaten Strom- und Wärmeversorgungsnetze erforderlichen hohen Investitionen konnten jedoch von der Gemeinde und den Anwohnern nicht allein bewältigt werden. Deshalb wurden zusätzliche Mittel des Landes sowie aus EU-Förderprogrammen genutzt.

Wie hoch diese Mittel waren, ließ sich nicht herausfinden, aber ich freue mich damit den Feldheimer Nassauern zu schönen Ersparnissen und den Gesellschaftern des Versorgers zu satten Gewinnen verholfen zu haben. Ein erhebendes Gefühl!

Schlussfolgerung

Da das „Feldheimer Modell“ allenthalben von Politik und Medien als großes Vorbild hingestellt wird, lohnt es sich vielleicht ein wenig in die Zukunft zu schauen, und zu versuchen die Frage aller Fragen zu beantworten: Was wäre wenn?

In diesem Falle: Was wäre, wenn ein Teil der Bundesbürger dieses Modell nachbaute? Um die Spannung etwas zu mindern, darf ich dem Leser verraten, dass die sich ergebenden Zahlen im wahrsten Sinne des Wortes astronomisch sind. Ich habe sie für 1% bis 100 % der Bundesbürger durchgerechnet.

Die von mir gewählte Schlüsselzahl ist dabei das Verhältnis der jeweiligen Anzahl Bundesbürger zur Anzahl der Feldheimer Bürger, incl. Babys und Greisen. (ja, ich weiß, das ist viel zu einfach gedacht, gibt aber trotzdem einen schönen ersten Überblick darüber, was das Vorbild „Feldheimer Energieautarkie“ bewirken würde).

Erschreckt durch die Ergebnisse habe ich meine Rechnung zigmal überpüft und mich schlussendlich auf 1 % der bundesdeutschen Bevölkerung festgelegt. Das sind 802.200 Menschen. Etwas mehr, als derzeit in der Landwirtschaft beschäftigt sind.

Würden diese sich entschließen „energie-autark“ á la Feldheim zu werden, dann dürften wir uns über rd. 270.833 WKA´s der Feldheimklasse freuen, dazu noch 62 Mio Solarpaneele, und  knapp 6300 Mikro Blockheizkraftwerke, gepuffert mit 6300 10 MW Batterien. Die gesamte installierte Nennleistung betrüge 484 GW (zum Vergleich in D genügen 80 GW an konventioneller Leistung zur sicheren Rundumversorgung), die erzeugte Energiemenge wären 738 TWh. (zum Vergleich in D beträgt die Bruttostromerzeugung derzeit 610 TWh im Jahr), läge also kräftig über der bisherigen Gesamterzeugung. Nachbarn und angrenzendes Ausland, dürften sich über den Strom-Strom freuen. Die 1 % würden dafür „energie-autark“ sein. Nicht zu vergessen: Die Investition beliefe sich auf rd. 580 Mrd €, ein glänzendes Konjunkturprogramm, oder?

All diese Angaben sind unter dem Vorbehalt der  Richtigkeit der Angaben in den genannten Quellen errechnet worden. Sollte ich mich nicht  kräftig verrechnet haben, was ich trotz mehrmaliger Überprüfung nicht ausschließen kann, dann wird nur einer daran Geld verdienen. Nämlich die Fa. Die Energiequelle.de über ihre jeweiligen Tochterfirmen und Gesellschafter. Sie wird es brauchen.


[1] Das sind, so wie ich es verstanden habe, bewegliche also nachführbare Solarpaneele, deren „Mover“ vor Orte von der lokalen Firma EQ-Sys hergestellt wurden. Es handelt sich also für  EQ-Sys um eine Demo-Anlage, die unter Praxisbedingungen arbeitet.

[2] Quellen: http-//www.ingenieur.de/#E8DE91; http-//www.energiequelle#E8DE60; http-//www.brandenburg.d#E8DDCB, http-//forschung-energie#E8DDC3, http-//www.neue-energien#E8DDAB

[3] Diese Zahl stammt vom Projektleiter für die Nahwärmeversorgung http://www.brandenburg.de/sixcms/media.php/4055/feldheim.pdf

Weiterführende Links:

ACHGUT: Kants Kategorischer Imperativ oder Qualitätsjournalismus nach „Focus Online“

Vernunftkraft. de : ENERGIEWENDE EHRLICH ERZÄHLT? FELDSTUDIE FOKUSSIERT FELDHEIM




Öl: geopolitisch geht es rund!

Vorhersagen des Ölpreises gleichen heute einem Roulette-Spiel oder einem Marktschreier vergangener Tage; es geht rund und runder, und niemand weiß, wo das Spiel aufhört.

Vor einigen Wochen schrieb ich zur Notwendigkeit zu offenem Zugang zu mittelatlantischen Ölreserven:

Angesichts des gegenwärtigen Überflusses an Öl könnte dies eine unpassende Zeit sein, nach noch mehr Öl zu trachten. Allerdings rollen die legalen Räder, die den begrenzten Zugang zu riesigen, noch nicht angetasteten Ölreserven erlauben, nur sehr langsam. Die heutigen Marktbedingungen werden zwischen jetzt und dem Jahr 2035 fluktuieren. Um das Jahr 2035 ist eine deutliche Steigerung der Energienachfrage zu erwarten. Und nicht vergessen darf man die zunehmend volatile Lage im Nahen Osten, wo sich schon jetzt neue Koalitionen bilden: Iran und Irak, Saudi Arabien und Südkorea – um nur zwei zu nennen. Falls noch eine Enthauptung mehr stattfindet oder eine Bombe das richtige (oder falsche) Ziel trifft, könnte die Region explodieren und die gesamte Energiedynamik würde sich ändern. Betrachtet man die Variablen, ist die amerikanische Energiesicherheit etwas, nach dem man unbedingt streben sollte“. [Und die Energiesicherheit in Deutschland? Anm. d. Übers.]

Nun, inzwischen hat sich die „gesamte Energiedynamik“ geändert.

Zunächst zum Offensichtlichen: Krieg im Nahen Osten.

Unruhen im Nahen Osten haben Ölpreise traditionsgemäß immer stark steigen lassen. Diesmal jedoch sind die Ölpreise weiterhin gefallen, trotz der jüngsten regionalen Konflikte unter Einschluss des ISIS. Grund hierfür ist die gestiegene Versorgung mit OPEC-Öl, geführt von Saudi Arabien als Reaktion auf den neuen amerikanischen Energie-Überfluss, welcher die gesamte Energiedynamik verändert hat.

Diese Dynamik hat sich jüngst erneut geändert.

Unter Verweis auf den ISIS und den zunehmenden Terrorismus in der gesamten Region sagte der jordanische König Abdullah im Dezember: „Dies ist unser Dritter Weltkrieg“. Zu jener Zeit reagierten die Kritiker mit so etwas wie „na ja, vielleicht“. Aber das war damals. Jetzt bombardiert Saudi Arabien mit Rückendeckung durch König Abdullah – der erklärt hat, dass „Jordanien in vollem Umfang hinter den arabischen militärische Bemühungen im Jemen steht“ – sowie eine arabische Koalition einschließlich der Vereinigten Arabischen Emirate, Qatar, Bahrain, Ägypten und Kuwait plus Marokko und Pakistan, das sein Interesse bekundet hat beizutreten, die jemenitischen Huti-Rebellen, unterstützt durch Geheimdienst- und logistische Unterstützung durch die USA. Die Huti-Rebellen bekamen Training, Waffen und Berater aus dem Rivalen Iran.

Über ein Ergebnis der Offensive berichtete CNN Money: „Ölpreise sind am Dienstag gestiegen parallel zu Luftschlägen seitens Saudi Arabiens im Jemen. Dies ließ Besorgnisse aufkommen, dass ein regionaler Konflikt die Versorgung unterbrechen könnte“. Weiter hieß es dort: „Saudi Arabien ist der größte Ölproduzent der Welt, und Investoren fürchten, dass die Unruhen negative Auswirkungen auf die Erzeugung haben“.

Auch die Financial Times nahm sich des Themas an. In einem Artikel schreibt das Blatt: „Es ist nicht zu erwarten, dass der Angriff zu wesentlichen Unterbrechungen der Versorgung führt“. Und in einer anderen Aufmachung: „Selbst wenn Einige ihrer Besorgnis Ausdruck verleihen, blieben Andere ruhiger wegen der geringen Menge von Öllieferungen aus Jemen“.

Es ist offensichtlich, niemand weiß, wo „das Spiel aufhört“. Aber der Faktor „Risiko“, den die Märkte Richard Mallinson zufolge, einem geopolitischen Analysten an der in London ansässigen Beratungsfirma Energy Aspects, „im vorigen Jahr aufgegeben haben noch Aufmerksamkeit zu widmen“ ist wieder da. Die FT zitiert ihn mit den Worten: „Realität ist, dass das geopolitische Risiko wieder genauso hoch ist wie lange Zeit nicht mehr“. Zunehmendes Risiko bedeutet höhere Preise.

Aber jetzt wird es noch komplizierter.

Die Obama-Administration verhandelt weiterhin mit Iran in der Absicht, ein Abkommen zu Kernkraft zu erreichen, das ultimativ zur Aufhebung der Sanktionen gegen das Öl produzierende Land führen soll – womit dem Land erlaubt würde, seine Ölexporte zu steigern. Wegen der Sanktionen haben sich die Exporte halbiert – mit der Folge einer „erheblich geschwächten Ökonomie“. Schon jetzt hat Iran riesige Mengen Öl auf Lager und wird der FT zufolge „für seine Anteile am Markt kämpfen“.

[Das Abkommen soll angeblich inzwischen stehen, was zum Zeitpunkt der Abfassung dieses Artikels natürlich noch nicht abzusehen war. Aber wenn man diesen Beitrag liest, erscheint das Interesse Irans an einem solchen Abkommen in einem ganz neuen Licht. Anm. d. Übers.]

Iran möchte die Sanktionen ab sofort aufgehoben haben. Falls dies passiert, wird es einem Bericht der FT zufolge „eine Injektion von hunderttausenden Barrel pro Tag in den Ölmarkt geben, der schon jetzt mit einem Überhang an Rohöl kämpft“ – was „die Preise noch weiter drücken könnte“. Zunehmende Versorgung bedeutet niedrigere Preise.

Der Energieökonom Tim Snyder erklärt es so: „Den Iranern steht es frei, dem Weltmarkt eine weitere Million Barrel Öl zukommen zu lassen. Die iranische Produktion wird zu einer Verdoppelung der gegenwärtigen Überversorgung führen und den Abwärtsdruck auf den Rohölpreis verstärken“.

Iran nennt uns immer wieder den „großen Satan“ und hasst die USA weiterhin. Fallende Ölpreise könnten als Totenglocke dienen für den amerikanischen Öl-Überfluss (um nicht die Länder zu nennen, die von Öleinkommen abhängig sind wie z. B. Venezuela). Allerdings wären die niedrigen Ölpreise alles in allem gut für die westlichen Ökonomien – und schlecht für Iran und dessen Freund Russland.

Der bessere Weg, der iranischen Wirtschaft zu helfen wäre es, nach Aufhebung der Sanktionen für steigende Ölpreise zu sorgen – was Iran via des Krieges im Jemen machen kann.

Vielleicht waren die Angriffe Saudi Arabiens im Jemen überstürzt. Vielleicht hat Iran gedacht, es hätte das Abkommen mit der P5 + 1-Gruppe unterzeichnet, bevor die Unruhen die Preise treiben.

Wenn Iran im Jemen das Sagen hätte, könnte es die Meerenge Bab El-Mandeb kontrollieren und damit die Millionen Barrel Rohöl, die jeden Tag durch diese Meerenge transportiert werden, um die Güter aus Fernost, die diese Meerenge als Transit nutzen, nicht zu erwähnen. CNN Money schreibt: „Die Unsicherheit wird verstärkt durch Jemens strategische Lage an einer Schiffsroute, welche das Mittelmeer mit dem Indischen Ozean verbindet“. Jeden Tag fließen bis zu 3,8 Millionen Barrel Öl und raffinierte Petroleum-Erzeugnisse durch die Meerenge in das Rote Meer – was die Meerenge zu einem der Schlüsselpunkte der Welt bzgl. Öl macht. Eine Blockade der Enge könnte eine wesentliche Störung der globalen Ölpreise zur Folge haben.

Aber da ist noch mehr.

Iran kann den Verkehrsfluss durch die Straße von Hormuz behindern, ist diese doch der wichtigste Öl-Durchflusspunkt der Welt mit 17 Millionen Barrel Öl pro Tag (was über 30% der Öltransporte über das Meer ausmacht).

Mit der Möglichkeit, beide Meeresstraßen zu unterbrechen, hätte Iran die Möglichkeit – falls die Sanktionen wegen der Begierde der Obama-Administration für ein Abkommen aufgehoben würden – die Ölpreise auf 200 Dollar pro Barrel steigen zu lassen – was nicht nur die Geopolitik, sondern auch die Ökonomien der Welt drastisch ändern würde. (Man erinnere sich, Iran hat die OPEC-Entscheidung vom November, die Produktion hoch und die Preise niedrig zu halten nicht unterstützt {hier}). Iran würde einen großen Teil der weltweiten Ölflüsse kontrollieren, und die hohen Preise würden nicht nur des Landes eigene Wirtschaft, sondern auch die von Russland massiv fördern – während der begrenzte Zugang Saudi Arabien sowie die westlichen Ökonomien schädigt. Und weder Iran noch Russland müssten für diese Förderung die Produktion erhöhen – aber falls sie es doch tun, würde ihre ökonomische Renaissance sogar noch größer werden.

Wird Iran das Abkommen unterzeichnen, und werden die Sanktionen aufgehoben? Wird dem Land damit gestattet, Millionen Barrel Öl in einen jetzt schon übersättigten Markt zu injizieren? Ob es den Vertrag nun unterzeichnet oder nicht – Iran kann immer noch die USA und Saudi-Arabien bestrafen und als Folge davon auch die übrige Welt – was Jemen zu einem Ort auf der Landkarte macht, den wir alle beachten sollten.

In der Geopolitik geht es rund und runder, und niemand weiß, wo das aufhört. „Betrachtet man die Variablen, ist die amerikanische Energiesicherheit etwas, nach dem man unbedingt streben sollte“.

Marita Noon

Link: http://news.heartland.org/editorial/2015/03/30/geopolitics-oil-go-round-and-round

Übersetzt von Chris Frey EIKE




Klimawandel und Energiewende in den Medien

Zunächst einmal ist das in dem Artikel beschriebene Vorgehen natürlich nicht auf die USA beschränkt, sondern mit Sicherheit auch in Deutschland gang und gäbe. (Ob in diesem Ausmaß auch in anderen EU-Ländern, zumindest in einigen, bin ich nicht so sicher). Zur Stützung meiner These muss man sich nur die Berichterstattung der „Süddeutschen Zeitung“ SZ zu den Themen Klima und Energie ansehen. Nicht von ungefähr wird dieses Blatt als „Prantl-Prawda“ bezeichnet nach ihrem Chefredakteur Heribert Prantl.

Für mich ergibt sich nun aber die Frage hinter der Frage: Warum machen die das? Irgendeinen Grund muss es doch geben! Ich gehe davon aus, dass sich alle Journalisten, auch bei der SZ, zumindest die Älteren, zu Beginn ihrer Laufbahn ihrem journalistischen Ethos verpflichtet fühlten. Dieses haben sie aber inzwischen aufgegeben. Warum?

Nur aufgrund der hinausposaunten, inzwischen aber längst vollständig widerlegten Aussagen einer politischen und nicht im Mindesten demokratisch gewählten UN-Organisation? Man weiß doch heute, genauer seit November 2009, von welcher Qualität viele sog. „Wissenschaftler“ beim IPCC sind. Man weiß doch, wie sie geschummelt, getrickst, betrogen, diffamiert und verunglimpft haben! Alles das, was durch Klimagate bekannt geworden ist, wird von den Journalisten geleugnet. Warum? Mir kann jedenfalls keiner erzählen, dass diese Journalisten samt und sonders noch nie etwas von Klimagate gehört haben.

Warum leugnet die SZ so stur, impertinent und wider besseres Wissen, dass es Klimawandel auf der Erde schon immer gab? (Beleg: Immer wieder taucht in Artikeln der Nebensatz ,in Zeiten des Klimawandels‘ auf. Eine Anfrage an die SZ, wann es denn mal Zeiten ohne Klimawandel gegeben habe, blieb bis heute ohne Antwort).

Warum leugnet die SZ, dass das winzige bisschen CO2 in der Atmosphäre (0,04%) am Minimum dessen liegt, was für unser aller Überleben unabdingbar notwendig ist? Das ist doch gleichbedeutend mit dem Leugnen der Photosynthese, oder? Warum leugnet die SZ, dass nur ein kleiner Bruchteil dieser 0,04% aus anthropogenen Quellen stammen? Wenn man den CO2-Eintrag in die Atmosphäre reduzieren will – wie will man die Ausgasungen allein des viele tausend Kilometer langen Mittelatlantischen Rückens zum Erliegen bringen? Und der unzähligen anderen Vulkane? Der SZ zufolge soll dies ja möglich sein, denn warum sonst sollte man Anstrengungen unternehmen, CO2-Einträge zu stoppen?

Total verrückt – und alle, alle fahren darauf ab! Kindern werden mit diesem Unsinn indoktriniert, obwohl die gleichen UN die Indoktrination von Kindern als Verbrechen gegen die Menschlichkeit listen. Und die SZ ist mittenmang dabei!

Aber ich schweife ab. Zu dieser Problematik haben viel berufenere Stimmen schon viel gesagt. Ich komme zur Anfangsfrage zurück: warum machen die das? Warum grenzt auch die SZ anders denkende aus? Will die SZ uns unserer Freiheit berauben, getreu dem Wort von weiland Rosa Luxemburg ,Freiheit ist immer auch die Freiheit der anders Denkenden‘? Warum gestattet die SZ der Politik, mit diesem Betrug weiter und immer weiter zu machen? Schlimmer noch: Man kann wohl davon ausgehen, dass es gar nicht so wenige Politiker gibt (in D und anderswo), die im Grunde genau wissen, was Sache ist. Sie trauen sich nicht, es zu sagen, weil sie sofort die medialen Keulen unter Führung der SZ fürchten. Warum schwingen die Medien diese Keulen?

Unter einer Gewaltherrschaft werden die Medien gezwungen, das  zu schreiben, was den Mächtigen genehm ist, und nichts anderes. Aber heute machen die Medien das alles freiwillig! Oder leben wir doch unter einer Gewaltherrschaft, die nur so geschickt daher kommt, dass ich sie nicht bemerke? Was ist das für eine Gesellschaft, in der die Politiker aller Couleur von den nicht demokratisch kontrollierten Medien wie eine Hammelherde vor sich her getrieben werden?

Auch hier beim EIKE kommentieren immer wieder Menschen, die voll hinter diesem ganzen gefährlichen Firlefanz stehen. (Exkurs: das ist ein Beweis, dass auf diesem Blog eben doch anders Denkende zu Wort kommen. Ich tue mir deren Kommentare grundsätzlich nicht an, sehr wohl aber die Entgegnungen der Fachleute, wodurch mir nämlich die Problematik immer verständlicher wird). Aber auch diese Personen möchte ich fragen, warum sie das tun. Warum lassen sie es zu, immer und immer wieder von den Fachleuten vorgeführt zu werden? Ein vernünftig denkender Mensch kann nicht so uneinsichtig sein, und sie sind es wohl auch nicht. Und dennoch lassen sie sich weiter vorführen. Warum? Warum wider besseres Wissen? Was bezwecken sie damit? Das Gleiche wie die Medien?

Ich habe keine Angst vor dem Klimawandel. Warum auch? Es gab ihn schon immer, und Mensch, Tier und Pflanze konnte sich immer problemlos anpassen. Tatsächlich habe ich nur vor zwei Dingen Angst:

1. Ich habe Angst davor, was passiert, wenn uns der Himmel in Gestalt der Energiewende auf den Kopf fällt. Es gibt zu viele Fachleute (wirkliche Fachleute), die da Schlimmes befürchten – mit Argumenten, die sogar ein Laie wie ich nur zu gut versteht. Nur hier beim EIKE und einigen wenigen anderen Blogs können sich diese Stimmen äußern. Und das bringt mich zu meiner zweiten, viel größeren Angst:

2. Gefahren mit unbekannter Ursache sind immer viel schlimmer als Gefahren mit bekannter Ursache. Die könnte man ggf. angehen. Konkret: auch die Journalisten müssen doch wissen, was da in Gestalt der Energiewende auf uns zukommen dürfte. Sie leugnen es! Warum nur, warum?! Und das ist für mich des Pudels Kern: Ich weiß es nicht! Und ich verstehe es nicht! Und gerade das finde ich am Schlimmsten von allem! Zumal es gerade in der ersten Hälfte des vorigen Jahrhunderts ein besonders prägnantes (aber keineswegs das einzige) Beispiel derartigen Verhaltens gab – mit dem bekannten Ergebnis.

Diesmal also weltweit – oder besser west-weltweit, zumindest bei diesem Thema. Und nun? Ich bin im Februar dieses Jahres Opa geworden. Was soll ich meiner Enkelin sagen?

Vielleicht das: ,Erwarte nichts! Heute, das ist dein Leben!‘ Oder übersehe ich da was?

Oder ein Wort Martin Luthers: ,Und wenn ich auch wüsste, dass morgen die Welt untergeht, so würde ich doch heute noch ein Apfelbäumchen pflanzen!‘

Bricht dieses System noch vor oder erst nach der Katastrophe zusammen? Katastrophal scheint es ja in D den Aussagen der wirklichen Fachleute zufolge, an denen zu zweifeln ich nicht den geringsten Anlass habe, sind doch zu viele ihrer Prognosen bereits eingetroffen, auf jeden Fall zu werden.

Fazit: So lasst uns denn das Apfelbäumchen pflanzen! Es ist bald soweit!

Chris Frey, für den Übersetzen das Gleiche ist wie für Luther das Apfelbäumchen!




Gorleben und das Standortauswahlgesetz – Ad calendas graecas

PROBLEMSTELLUNG

Nach über vierzig Jahren des politischen Streitens um die Erkundung des Standortes Gorleben als mögliches Endlager für  hoch radioaktive Abfälle unternehmen die politisch Verantwortlichen einen erneuten Anlauf, die hoheitliche Aufgabe der Entsorgung Wärme-entwickelnder hoch radioaktiver Abfälle vorzubereiten. Hierzu wurde im Einvernehmen zwischen fast allen Parteien das „Gesetz zur Suche und Auswahl eines Standortes“ [Standortauswahlgesetz vom 23. Juli 2013*] verabschiedet. Mit dem Gesetz sollen die Regeln zur Endlagerung neu festgelegt werden. Es sieht vor, nach zwei, drei oder mehr Standorten zu suchen, um den für die Sicherheit vergleichbar besten Standort zu finden. An diesen Standorten sollen anschließend die notwendigen übertägigen Forschungsarbeiten sowie die untertägigen Erkundungsarbeiten durchgeführt werden. Nach Vorlage aller Ergebnisse von den verschiedenen Untersuchungsbergwerken soll mittels eines Vergleichs die Auswahl des für eine Million Jahre bestmöglich sicheren Standortes getroffen werden.

Das Ganze verschlingt immense Summen und dient nur dazu, die Endlagerfrage für weitere Jahrzehnte als offenen Posten hinstellen zu können.

RÜCKBLICK IN DIE VERGANGENHEIT

Seit den 1970er Jahren wird der Standort Gorleben auf seine Eignung als Endlager untersucht. Seitdem haben Wissenschaftler einschließlich Nuklear-Chemiker und Nuklear-Physiker, Ingenieure und Techniker tausende von Daten ermittelt, diese in hunderten Berichten zusammengestellt und dabei auch viele – von wenigen Fachleuten und vielen gesellschaftlichen Gruppen gestellte –  kritische Fragen sachkundig beantwortet. Auf Anfrage eines Abgeordneten zur Eignung Gorlebens hat im Gegensatz dazu der stellvertretende Ministerpräsident der Landesregierung Niedersachsens, Mitglied der neu geschaffenen Endlager-Kommission, am 12. September 2014 geantwortet: „Die neue Landesregierung hat … eine Neubewertung des Standortes Gorleben vorgenommen. Sie ist der Auffassung, dass der Standort geologisch ungeeignet und politisch verbrannt ist“ [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*].

Die für das Endlagerprojekt Gorleben entstandenen Kosten, die zum größten Teil von der Energiewirtschaft bezahlt wurden, beliefen sich auf über anderthalb Milliarden Euro. Die Arbeiten wurden im Juni 2000 aus politischen Gründen von der neu gewählten rot-grünen Regierung mit einem Moratorium unterbrochen, obwohl bis dahin keine nachweisbaren K.O. Kriterien vorlagen.

Seit dieser Zeit wurden neben der Offenhaltung der Grube keine weiteren wesentlichen standortbezogene Untersuchungen durchgeführt. Nach einer zehnjährigen Unterbrechung der Erkundung wurden die Arbeiten wieder aufgenommen.

Zuerst jedoch noch ein kurzer erklärender Einwurf: Endlager und Untertagedeponien/UTD sind im geologisch-bergmännischen Sinne dasselbe. Es sind Synonyme! (Im Englischen gibt es dafür auch nur ein Wort: „waste disposal“). Trotzdem wurde und wird in Deutschland bei der politischen Diskussion über die Entsorgung hoch radioaktiver Abfälle die Öffentlichkeit dieser Sachverhalt nicht thematisiert. Insbesondere wird die Existenz einer Untertagedeponie für hoch toxische Sonderabfälle in Salz, die seit Jahren in Deutschland in Betrieb ist, nicht wahrgenommen. Abgesehen von der zusätzlichen Berücksichtigung der Radioaktivität und der höheren Einlagerungstemperaturen der Abfälle unterscheiden sie sich nicht grundsätzlich bei den Anforderungen an die Geologie, an die Untersuchungstechniken, an den Bau des Bergwerkes, an den Betrieb und den langzeitsicheren Verschluss für ein Endlager und für eine Untertagedeponie für Sonderabfälle, die im Gegensatz zu radioaktiven Abfällen ewig toxisch bleiben. Mit dieser Information könnte der Öffentlichkeit ideologiefrei erklärt werden, dass die Entsorgung von hoch radioaktiven Abfällen nicht des Teufels ist, sondern eine beherrschbare Technologie darstellt. Nur in Deutschland zeigt sich in der Wahrnehmung der Entsorgung von hoch toxischen und hoch radioaktiven Abfällen der Bevölkerung ein – wohl gewollter – unüberwindbare Zwiespalt zum gleichen Sachverhalt.

Im Jahr 2000 wurde vom BMU die Erkundung des Salzstocks Gorleben durch ein Moratorium unterbrochen. Es sollte zur Klärung von konzeptionellen und sicherheitstechnischen Fragen zur Endlagerung für einen Zeitraum von drei bis maximal zehn Jahre dienen. Nach Auffassung der damaligen rot-grünen Bundesregierung bestanden keine grundsätzlichen Zweifel an den bisher gewonnen geologischen Befunde zur Eignungshöffigkeit des Salzstockes. („Vereinbarung zur Endlagerung zwischen der Bundesregierung und den Energieversorgungsunternehmen vom 14.06.2000 paraphiert bzw. 11.06.2001 unterschrieben) [http//www.kernenergie.de/kernenergie-wAssets/docs/themen/ Vereinbarung14-06.pdf, *] In Anlage vier der Vereinbarung heißt es zusätzlich, dass „… die bisherigen Erkenntnisse über ein dichtes Gebirge und damit die Barrierefunktion des Salzes positiv bestätigt wird“. Die Bundesregierung hatte zugesagt, die  moratoriumsbegründenden Zweifelsfragen zügig abzuarbeiten und hat mehrfach Ende 2004 als Termin für das Ende der Bearbeitung genannt.

Eine aus sechs hochrangigen Fachleuten bestehende International-Expert-Group Gorleben (IEG) hat 2001 im Auftrag der Energiewirtschaft einen Fachbericht (125 S.) erstellt, mit dem Ziel, eine unabhängige und neutrale Meinung zu den bis zu diesem Zeitpunkt vorliegenden Ergebnissen zu erhalten und um die noch zu bearbeitende Themen aufzuzeigen. Der Bericht wurde 2001 in Hannover der Presse vorgestellt. Kopien wurden an das Bundesamt für Strahlenschutz (BfS) übergeben.  [International Expert Group Gorleben, 2001: Repository Project Gorleben – Evaluation of the Present Situation.*] Dieser Bericht wird weder vom BfS noch in den zahlreichen Fachberichten zu Gorleben erwähnt. Er dürfte wohl auf dem ‚Index‘ des BfS stehen, weil es sich nicht um einen offiziellen Bericht handelt. Dies gilt dagegen nicht für die in den 90-iger Jahren von Greenpeace etc. finanzierten Gutachten der Gegner, bei denen es sich ebenfalls um nicht offizielle Berichte handelt – und trotzdem sind diese heute das geologische Maß für die Zukunft!

Diese „International Peer-Review-Group“ bestand aus folgenden sechs hochrangigen international anerkannten Fachleuten. Ausführlichere Lebensläufe sind in dem Bericht enthalten:

♦  Per-Eric Ahlsröm: MSC in Engineering Physics; 1984 – 1992, Wissenschaftsdirektor und anschließend Vice Präsident der „Swedish Nuclear Fuel and Waste Management Co.

  D. Alexandre: Chemiker und Geologe; 1987 – 1990, Deputy Director of ANDRA (French Agency for Radioactive Waste Management), ab 1990 Research Director beim CEA.

♦  Dr. C. Heath: PhD in Nuclear and Chemical Engineering; 1977 -1981, arbeitete als Direktor für das U.S.Department of Energy „DOE“ hauptsächlich im Yucca Mountain Project, Nevada.

  Dr.-Ing. Klaus Kühn: Bergingenieur; 1973 – 1995, Direktor des Instituts für Tieflagerung, Professor an der Technischen Universität Clausthal.

  Dr. Ch. McCombie: Physiker; 1970 -1974, arbeitet bei der „United Kingdom Atomic Energy Authority“, 1970 – 1979 beim „Swiss Institute for Reactor Research“ (heute Paul Scherrer Institut) und 20 Jahre lang war er „Executive Advisor“ für die  NAGRA (Schweiz).

♦  Dr. W. Weart: Geophysiker, Geologe und Mathematiker; seit 1975 arbeitet er für die „Waste Isolation Pilot Plant“ WIPP in New Mexico und brachte das erste Endlager für schwach und mittel aktive Abfälle im Salzgestein in Produktion.

Das Expertengremium kam zu dem Schluss, dass angesichts der bis 2000 vorliegenden Ergebnisse eine Unterbrechung der Erkundung durch ein Moratorium aus wissenschaftlich-technischer Sicht nicht gerechtfertigt ist. Es sind deshalb auch keinerlei Hinweise genannt, die das politische Diktum der Gegner, das Auswahlverfahren des Standortes sei fahrlässig gewesen, bestätigen. Im Gegenteil!

Wie das Gremium weiter feststellte, wurden die Untersuchungsarbeiten in Gorleben ohne wissenschaftliche Begründung aus rein politischen Gründen unterbrochen.

Als Folge des Moratoriums sind bis 2010 keine wesentlichen weiteren wissenschaftlich-technischen Untersuchungen am Standort Gorleben durchgeführt worden [Gorleben – das Endlagersuchgesetz – ein deutsches Drama; 2013*]. Somit konnten auch keine grundlegenden weiterführenden Erkenntnisse erzielt werden. Dies steht im Widerspruch zu der Begründung des Moratoriums zur  ‚Klärung offener Fragen‘.

ABLAUF DER EREIGNISSE AM STANDORT GORLEBEN SEIT  2010

Im November 2010 beauftragte das Bundesumweltministerium die Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) mit dem Forschungsvorhaben „Vorläufige Sicherheitsanalyse Gorleben“  mit verschiedenen Fragestellungen zum Standort Gorleben sowie zu grundsätzlichen methodischen Fragen. [GRS Projektbeschreibung; 2010*]. Die ausführliche Studie sollte nach Plan Ende 2012 von einer international besetzten, neutralen Peer-Review-Gruppe bewertet werden. Das Auftragsvolumen  belief sich auf 8.966.950,57 Euro, die zum größten Teil vom Steuerzahler aufgebracht wurden [Deutscher Bundestag, Drucksache 17/6817; 2011*].

Der 424 Seiten umfassende Bericht [Vorläufige Sicherheitsanalyse Gorleben“ (VSG); 2013*], führt die Ergebnisse von 15 Arbeitspaketen zusammen, die auf insgesamt 20 Einzelberichten der GRS und 5 Einzelberichten der BGR beruhen. Die Einzelberichte umfassen insgesamt 5628 Seiten. Dafür hat die GRS folgende Partner in das Projekt eingebunden:

♦  die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR),

  die DBE TECHNOLOGY GmbH,

  das Institut für Aufbereitung, Deponietechnik und Geomechanik der TU Clausthal,

♦  das Institut für Gebirgsmechanik GmbH (IfG),

  das Institut für Sicherheitstechnologie (ISTec),

  das Karlsruher Institut für Technologie/Institut für Nukleare Entsorgung (KIT/INE),

  die international nuclear safety engineering GmbH (nse; Zusammenschluss mehrerer Institute der RWTH Aachen),

  das Institut für Atmosphäre und Umwelt (IAU) der Universität Frankfurt

  die T-Systems Solutions for Research GmbH.

Der GRS bzw. den eingebundenen Partnern oblag jeweils allein die Auswahl ihrer Mitarbeiter, die an dem Vorhaben arbeiteten. Alle Einzelberichte sind somit von ausgewiesenen Fachleuten erstellt worden, die von den Abfallverursachern weder ausgesucht noch bezahlt wurden. Diese Beteiligung vieler Wissenschaftseinrichtungen, die über Jahrzehnte langes Knowhow zu allen endlagerrelevanten Aspekten verfügen, und deren direkte interdisziplinäre Zusammenarbeit unter der wissenschaftlichen Führung eines Steering Committes hat sich bewährt.

Die kurzen zusammenfassenden Einzelergebnisse (Fakten) der zahlreichen Unterkapitel der Studie wurden auf zwei Seiten für jeden Leser verständlich zusammengestellt und veröffentlicht [Gorleben – Offizielle vorläufige Sicherheitsanalyse ergibt – Gorleben ist geeignet; 2014*]

Ursprüngliche Zielsetzung der „Vorläufigen Sicherheitsanalyse Gorleben (VSG)“

Die ursprüngliche im Jahr 2000 formulierte Zielsetzung der „Vorläufigen Sicherheitsanalyse Gorleben (VSG)“ forderte die Erarbeitung einer systematischen Zusammenstellung des Kenntnisstandes zu Gorleben. Darauf aufbauend sollte eine vorläufige Eignungsprognose und die Identifizierung des noch bestehenden Bedarfs an standortspezifischen und standortunabhängigen Fragestellungen im F&E-Bereich erarbeitet werden.

Insgesamt waren knapp 80 Wissenschaftler mit den Einzelthemen der Studie beschäftigt. Nach Abschluss der Arbeiten sollte mittels eines Peer-Review-Verfahrens eine Prognose zum Salzstock Gorleben gegeben werden. Für das Peer-Review-Verfahren war geplant, entweder

  die EU,

  die IAEA oder

  OECD/NEA

auszuwählen. Nicht das BMU, sondern die ausgewählte Institution soll entscheiden, wie die Peer-Review-Group zusammengesetzt wird und aus wie vielen Personen sie bestehen soll [Deutscher Bundestag, Drucksache 17/6817, 2011*].

Aktualisierte Zielsetzung der VSG Studie

Ohne einen sachlichen Grund – wahrscheinlich auf politischen Wunsch – wurde in 2011 die Zielsetzung der Studie gerändert. Es wurde verordnet, dass der Eignungsnachweis nur eines Standorts in der Studie nicht mehr gültig ist, sondern in Zukunft der Eignungsnachweis nur nach einem mehrstufigen Auswahlverfahren und nur im Vergleich mit anderen Standorten entschieden werden darf. [Vorläufige Sicherheitsanalyse  Gorleben VSG, Projektbeschreibung, Aktualisierte Zielsetzung*]. „Geeignet“ in diesem Sinn wird damit nur der Standort sein, bei dem die verschiedenen grundsätzlichen und vergleichsspezifischen Kriterien erfüllt sind und ‚die bestmögliche‘ Sicherheit für einen Zeitraum von einer Million Jahre gewährleistet ist. Diese verordnete Aktualisierung hatte zum Ergebnis, dass die angestrebte vorläufige Eignungsaussage für den Standort Gorleben nicht mehr abschließend bewertet werden darf, denn die bisherigen Projektziele sollen mit der Zielsetzung ergänzt werden, zukünftige Standortauswahlverfahren zum Vergleich verschiedener Endlagerstandorte zu ermöglichen. Zusätzlich soll untersucht werden, welche Konzepte für den Verschluss eines Endlagers an Standorten mit anderen geologischen Gegebenheiten übertragbar sind.

Der hier gewählte politische Ansatz geht davon aus, dass bei der Festlegung eines Standortes nicht nur die Kriterien an ein Endlager erfüllt sein müssen. Zusätzlich wird eine Optimierung des Auswahlverfahrens gefordert, welche der geübten Praxis der Optimierungsverfahren in eklatanter Weise widerspricht. Optimierung ist nur sinnvoll, soweit dies in einem wirtschaftlich vertretbaren Rahmen erfolgt. Die Untersuchung weiterer Standorte und die damit verbundenen immensen zusätzlichen Kosten sowie die gezielte Aufgabe des Standortes Gorleben sind angesichts seiner absehbaren Eignungshöffigkeit wirtschaftlich nicht vertretbar.

Die geplante internationale Bewertung fand nach Fertigstellung der VSG Studie nicht mehr statt. Als Folge des in Deutschland entstandenen Fukushima-Syndroms wurde in einem am 27. Juli 2013 in Berlin stattgefundenen parteiübergreifenden Konsensgespräch wieder ohne eine fachliche Begründung – denn durch dieses Naturereignis hat sich die Tsunamigefahr für Gorleben nicht erhöht  –  die Chance genutzt, die bergmännischen Erkundungsarbeiten im Salzstock Gorleben einzustellen.

Stimmen, die sich seit Jahrzehnten gegen die Eignungshöffigkeit von Gorleben aussprechen 

Sie stammen hauptsächlich aus dem letzten Jahrhundert. Die genannten Kritikpunkte wurden weder in der Vereinbarung zwischen der Bundesregierung und der Energiewirtschaft [Anlage 4 der Vereinbarung vom 11.06.2001*] noch in dem VSG-Bericht bestätigt. Auch handelt es sich bei all den genannten Veröffentlichungen um keine offiziellen Berichte. Trotzdem stehen sie nicht auf dem ‚Index‘ wie der IEG Bericht von 2001.

Grimmel, E. (1979) … (59 S.)  … Institut für Angewandte Ökologie e.V.; Mauthe, F. (1979) … (60 S.)  … Geologisches Institut der Universität Hannover; Duphorn, K. (1983) … (265 S.) … Universität Kiel;

*Appel, D. et al. (1984) … (?)  … Fraktion der Grünen; Duphorn, K. (1984) …  (47 S.) … Universität Kiel; Grimmel, E. (1984) … (?) … (?); Duphorn, K. (1986) …  (?) … Z. dt. geol. Ges.; Duphorn, K. (1988) …  (141 S.) … im Auftrag der SPD, Kiel; Duphorn, K. (1993) …  (202 S.) … im Auftrag des rot-grünen Nieders. Umweltministeriums; Albrecht, I  et. al. (1993) … (166 S.) …  im Auftrag des rot-grünen Nieders. Umweltministeriums; Grimmel, E. (1993) … (152 S.) …  im Auftrag des rot-grünen Nieders. Umweltministeriums; Paluska, A. (1993) … (236 S.) … (?); Schenk, V. (1993) … (39 S.) … (?); *Appel, D. et al. (1993) …  (118 S.) … PanGeo Geowissenschaftliches Büro; *Appel, D. et al. (2006) … (40 S.) … Gruppe Ökologie e.V. im Auftrag von Greenpeace; Schneider, U. (2009) … (64 S.) …  im Auftrag der Fraktion Die Linken im Niedersächsischen Landtag;  Kreusch, J. (2010) … (12 S.) … Ausarbeitung für den 1. Untersuchungsausschuss der 17. Wahlper.; *Kleemann , U. (2011) … (28 S.) …  im Auftrag der Rechtshilfe Gorleben; Schneider, U. (2011) … (36 S.) …  im Auftrag von Greenpeace;  Kreusch, J. (2012) … (30 S.)  …   im Auftrag von Greenpeace! (*Mitglied im Gorleben-Ausschuss, (unterstrichen: finanziert von Politik oder NGO). [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*].

VERSUCH EINER BEWERTUNG DIESER ENTWICKLUNG.

Wie ist es in einem hochindustrialisierten Land wie Deutschland möglich, ein erfolgreiches Projekt, an dem zahlreiche wissenschaftliche und technische Fachinstitute, Forschungsinstitute, Universitäten, Industrieunternehmen, Landesbehörden, Genehmigungsbehörden, u.a.  zusammengearbeitet haben, durch parteipolitische und kirchliche Organisationen sowie Nichtregierungsorganisationen (NRO/NGO) und sonstige gesellschaftliche Gruppierungen gezielt zu vernichten?

Bei dem Gorleben Projekt handelt es sich, unabhängig von dem Ausstieg aus der Kernenergie, um ein notwendiges Projekt in einem gesellschaftlichen Spannungsumfeld. Ein technisches Projekt wird weitestgehend von wissenschaftlichen und technischen Parametern geleitet, die im Grunde genommen von jedem überprüft und sachlich bewertet werden können. Das gesellschaftliche Umfeld dagegen wird von anderen Parametern geleitet. Hier dominieren menschliche Befindlichkeiten, kulturelle Erfahrungen, Religionen, politische Bewegungen und ihre Propaganda, Ideologien, aber auch Machtverteilungen, Machterhalt sowie Machtmissbrauch. Zum Machtmissbrauch und zur Rolle der Parteien formulierte Alt-Bundespräsident Richard von Weizsäcker 1992 in einem Interview: „Probleme instrumentalisieren sie, um sich gegenseitig zu bekämpfen, statt sie zu lösen.“ Was den Konflikt um die Endlagerung radioaktiver Abfälle überaus treffend beschreibt.

Um diese beiden Welten des gesellschaftlichen Umfeldes und der Technik erfolgreich bei dem Endlagerstandort zusammenzuführen, wäre eine höchstmögliche Transparenz von beiden Seiten erforderlich gewesen. Leider wurde die Information der Öffentlichkeit und damit die Herstellung von Transparenz zu diesem Projekt, die primär in der Zuständigkeit des Bauherrn, also der Bundesrepublik Deutschland, bzw. seines zuständigen Bundesumweltministeriums und seiner nachgeordneten Behörde BfS liegt, in sträflicher weise vernachlässigt, wie ein Vergleich zu der Öffentlichkeitsarbeit in den Projekten Schwedens, der Schweiz und Finnlands zeigt. In Deutschland waren der bauausführenden Technik Auftragsnehmer-seitig die Hände gebunden. Darüber hinaus stoßen technische Belange in der deutschen Öffentlichkeit auf wenig Interesse. Nur das BfS als die verantwortliche Fachbehörde berichtete damals routinemäßig und auch oft nur auf Nachfrage über den technischen Stand des Projektes.

Vorgetragene Kritikpunkte wie z.B. die Standortauswahl, die quartäre Rinne, oder die Gasgefährdung im und unter dem Salzstock, die in den neunziger Jahren in hauptsächlich von Greenpeace und von der damaligen rot-grünen Regierung finanzierten Gutachten veröffentlicht worden sind [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*], sind von der BGR mit fachlichen Antworten richtig gestellt worden. Diese Bewertungen der BGR blieben jedoch in der Öffentlichkeit nahezu ungehört, da die Meinungshoheit weitestgehend von den Gorleben-Gegnern besetzt ist, wie sich an dem unendlichen Umgang der Politik mit den heute vorliegenden Ergebnisse der VSG Studie leicht nachvollziehen lässt.    

Seit 2000 wurde die Öffentlichkeit zunehmend einseitig informiert. Denn die Presse und die Fernsehmedien berichteten mehr und mehr gezielt lancierte Desinformationen. Das BfS korrigiert selten öffentlich diese Falschmeldungen, oder übte Verschweigen von positiven Ergebnissen durch Gefahren [Asse – die Fakten; 2013*], die in dramatischer Art und Weise überhöht dargestellt wurden. Wissenschaftliche-technische Erfolge wurden negiert.

Warum konnte sich gerade in Deutschland ein derartiges Missverhältnis zwischen wissenschaftlich-technischer Offenheit und Ideologie, häufig gesteuert durch Ängste, entwickeln? Um das zu verstehen, sollte man sich daran erinnern, dass in 1999 nach dem altersbedingten Ausscheiden von Dr. Alexander Kaul, Professor für Strahlen- und Biophysik auf Veranlassung der damaligen rot-grünen Regierung Dipl. Ing. Wolfram König, Architekt und Ingenieur für Stadtentwicklung, ein aktiver Politiker der Grünen, zum Präsident des BfS ernannt wurde. Aus heutiger Sicht war das damals eine gravierende, eine langzeitsichere politische Entscheidung der Gegner. Die reifen Früchte können heute gepflückt werden. Anstatt die versprochenen Verbesserungen zur Transparenz des BfS zu realisieren, wie sie in dem AkEndbericht [Auswahlverfahren für Endlagerstandorte, Dez. 2002*] genannt werden, wurde im Tagesgeschäft vom BfS zu Gorleben genau das Gegenteil getan. Insbesondere zu den positiven Ergebnissen der VSG war vom BfS in der Öffentlichkeit nicht viel Erklärendes zu erfahren.

Die Meinungsführerschaft wurde dagegen zunehmend übernommen von Politikern und von Lobby Organisationen (Greenpeace, BUND etc.), aber auch von Stiftungen (Heinrich Böll Stiftung bzw. Stiftung Leben & Umwelt, Hans Böckler Stiftung etc.), oder von Kirchen und deren  Akademien wie beispielhaft der Evangelischen Akademie Loccum, wo bei einer Tagung zur Endlagerung (17.10. bis 19.10.2014) ein Mitglied der Endlager-Kommission, angeregt haben soll „… überall Atomangst zu verbreiten, vor allem in Schulen…“.  All diese Protagonisten wie Parteien, Verbände und Organisationen konnten nun ihre Botschaften und Behauptungen über dicht geknüpfte Informationsnetzwerke und hunderte von Internetforen bis heute verbreiten, verbunden mit zahlreichen bestens organisierten Vortragsveranstaltungen, Versammlungen oder vorgedruckten Anleitungen zur Meinungsmache, unabhängig davon, ob sie den Tatsachen entsprechen oder nicht. Widersprüche zu diesen Desinformationen waren vom BfS oder von beamteten Fachleuten selten in der Presse zu finden. Die für die Allgemeinheit so sehr benötigte und angekündigte Transparenz über die Ergebnisse bei Gorleben ist deshalb seit dem Jahr 2000 zunehmend zu einer „einseitigen Transparenz“, oder einer „Intransparenz“ verkommen.

Bestes Beispiel dafür ist die Antwort des Ministers des Niedersächsischen Umweltministeriums und Mitglied der Endlager-Kommission in 2014 auf die kürzliche Frage eines Abgeordneten der FDP zu Gorleben [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*]. Die Antwort erwähnt nicht, dass nach Auffassung der rot-grünen Bundesregierung (2001) die bisher gewonnen geologischen Befunde einer Eignungshöffigkeit des Salzstocks Gorleben … nicht entgegen stehen. [Anlage 4 der Vereinbarung vom 11.06.2001*]. Auch werden mit keinem Wort die Ergebnisse der in 2013 fertiggestellten VSG-Studie angesprochen. Nur in einem aufgeführten Zitat eines 12 seitigen Gutachtens von Herrn Kleemann, Mitglied der Endlager-Kommission, finanziert von der Rechtshilfe Gorleben e.V., wird die VSG-Studie erwähnt. Wie derart eklatante Desinformationen des Niedersächsischen Umweltministerium von der Öffentlichkeit bewertetet werden überlasse ich Anderen.

WIE GEHT ES WEITER?

Laut Standortauswahlgesetz vom 23.Juli 2013 ist das – „Ziel des Standortauswahlverfahrens, in einem wissenschaftsbasierten und transparenten Verfahren für die im Inland verursachten, insbesondere hoch radioaktiven Abfälle den Standort für eine Anlage zur Endlagerung nach § 9a Absatz 3 Satz 1 des Atomgesetzes in der Bundesrepublik Deutschland zu finden, der die bestmögliche Sicherheit für einen Zeitraum von einer Million Jahren gewährleistet …“ Mit diesem Wortlaut wird dem interessierten Bürger nicht nur suggeriert, dass die dreißigjährige Standortsuche und die folgenden übertägigen und untertägigen Standortuntersuchungen in Gorleben nicht in einem wissenschaftsbasierten Verfahren durchgeführt wurden, sondern erst ab jetzt mit diesem Gesetz die Standorte für die möglichst langzeitsicherste Endlager gesucht, irgendwann einmal gefunden und anschließend mittels untertägigen Erkundungen bewertet werden.  An dem dann ausgewählten Standort soll das Erkundungsbergwerk zum Endlagerbergwerk ausgebaut und die zur Auswahl aufgefahrenen Erkundungsbergwerke verschlossen werden. Zu beachten ist die unrealistische Formulierung “ … bestmögliche Sicherheit …“, die es auch bei der Untersuchung von zwei oder mehreren Standorten nicht geben kann! Denn es könnte immer noch einen weiteren noch viel sichereren Standort geben, der nicht untersucht worden ist.

Die bis 2010 geltende Zielvorgabe für ein Endlager lautete – die allerdings wegen der Bezugnahme auf Gorleben als Referenz heute nicht mehr genannt werden darf – schlicht und vernünftig: „Nachweis eines langzeitsicheren Endlagers.“

Kapitel 1

Zu „Allgemeine Vorschriften und Vorbereitung des Standortauswahlverfahren“ ist Folgendes zur Kommission anzumerken. Die Kommission besteht aus 8 Vertretern der Wissenschaft, von denen drei Geowissenschaftler sind, die in der Fachwelt nicht durch sachliche Veröffentlichungen zu Gorleben aufgefallen sind und 25 fachfremden Persönlichkeiten, von denen ein Teil Lobbyisten von NRO/NGO, Kirchenvertretern und Gewerkschaften sind. In der Vergangenheit sind diese wegen ihren negativen Minderheitsvoten zu wissenschaftlich-technischen nachprüfbaren Ergebnissen aufgefallen.Warum sollten diese ab heute an einer zeitgerechten und kostenbewussten Lösung der Entsorgung von hoch radioaktiven Abfällen interessiert sein?  Verfolgt man die  Berichterstattung der vergangenen zwanzig Jahre, benötigt dieser Hinweis zu deren Verhinderungspolitik keine weitere Erklärung. Der komplizierte Entscheidungsweg innerhalb der Kommission zu komplexen Sachverhalten wird deshalb nur schwer zu fach- und sachgerechten Antworten führen.

Diese Komplexität verhindert aber auch in Zukunft nicht, blitzschnelle politische Entscheidungen ohne all diese Formalismen zu treffen – wenn es die Politik wünscht, wie das nachfolgende Beispiel zeigt.

Der Deutsche Bundestag wurde in 2011 über die geplante Bewertung der VSG-Studie durch eine neutrale internationale Peer-Review-Gruppe informiert [Drucksache 17/6817, 2011*]. In einem am 27. Juli 2013 stattgefundenen parteiübergreifenden Konsensgespräch hatte man jedoch entschieden, diese neutrale Analyse nicht mehr zu vergeben, ohne die breite Öffentlichkeit darüber zu informieren. Die Öffentlichkeit ist jedoch an Resultaten wie diesem interessiert. Denn der Bürger hätte, wie in dem ´Stand AG´ langatmig gefordert wird, ein Recht darauf gehabt, auch aus neutralem Mund die wissenschaftlich-technischen und langzeitrelevanten Ergebnisse der Standortuntersuchung Gorleben zu erfahren, für die die Energiewirtschaft mehr als anderthalb Milliarden Euro ausgegeben hat. Interessant zu diesem Vorgehen ist zu wissen, dass nur vier Tage zuvor, am 23. Juli 2013, das ‚Stand AG‘ vom Bundestag verabschiedet worden ist, in dem es nach § 29 (3) heißt:  “[dass] … spätestens mit Inkrafttreten dieses Gesetzes [die VSG-Studie] ohne ein Eignungsprognose für den Standort Gorleben eingestellt“ wird. Per Gesetz ist es nun verboten, die Ergebnisse der VSG-Studie durch neutrale, internationale Fachgutachter bewerten zu lassen! Ein herausragendes aber auch viel sagendes ‚Timing‘!

Diese Art der Entscheidungen hätte auch eine zukünftige ‚monströse‘ Kommission mit sehr komplizierten und langwierigen Abstimmungsverfahren sowie ein neues Bundesamt für Kerntechnische Entsorgung nicht verhindert! Gibt es heute Anzeichen dafür, dass sich mit dem ‚Stand AG‘ in Zukunft ein solcher Vorgang nicht wiederholen kann? Wohl kaum!

Kapitel 1 und 2 Öffentlichkeitsbeteiligung

Die generellen Grundsätze zur Öffentlichkeitsarbeit sind ausführlich dargestellt. Es wird sich aber schnell weisen, wie schwierig es werden wird, der Öffentlichkeit die komplexen, von den Fachleuten aber verstandenen geologischen, bergmännischen, kerntechnischen und insbesondere langzeitrelevanten Sachverhalte zu erklären. Zur Erinnerung: ein geologischer Körper ist im Gegensatz zu einem technischen Projekt nicht normierbar und dessen Charakterisierung kann letztendlich nicht in Zahlen ausgedrückt werden. Denn in der Geologie gilt das Aktualitätsprinzip: „Dieses  Prinzip der Gleichförmigkeit der Prozesse besagt, dass geologische Vorgänge, die heute zu beobachten sind, ebenso in der Vergangenheit gewirkt haben. Es sind also Rückschlüsse von heutigen Abläufen auf Bildungsprozesse in der Vergangenheit möglich und umgekehrt“. Das ist der Grund, warum für die Endlagerung ein tiefes Verständnis von geologischen Analogien, die Kenntnis über das Verhalten von natürlichen entstandenem „Atommüll“ in der Natur, das Entstehen von Erzlagerstätten und deren Veränderungen als Folge von chemischen und physikalischen Gesetzen in den unterschiedlichsten Gesteinsarten und über sehr lange Zeiträume so wichtig ist [z.B. The Origin of the Chemical Elements, P.K. Kuroda; 1982*].

Diese Komplexität ist jedoch die offene Flanke für die Gegner der Endlagerung. Ziel der Öffentlichkeitsarbeit müsste es deshalb sein, diese Fakten mit ehrlicher und politisch unabhängiger Transparenz den Bürgern aktiv zu erklären. Trotz des fortdauernden Versprechens der Verantwortlichen ist dies aus politischen Gründen nur sehr zurückhaltend geschehen. Und deshalb hatte diese Taktik in den vergangenen Jahren Erfolg. Denn wenn die sozialdemokratische Umweltministerin des Landes, Barbara Hendricks, heute ohne Widerspruch in aller Öffentlichkeit behaupten kann, die Endlagerung sei nicht mit dem Christentum vereinbar, ein Landesbischof in öffentlichen Sitzungen die Endlagerung als Teufelszeug diskriminiert [Endlagersuchkommission – Rückfall ins Mittelalter*], in Seminaren sich Soziologen zur Radioaktivität sachfremd äußern dürfen und sogenannte Fachleute jahrelang Behauptungen wiederholen können, die von Fachbehörden längst widerlegt worden sind, kann es in Deutschland keine rationale Suche nach einem langzeitsicheren Endlager bzw. Untertagedeponie für hoch radioaktive Abfälle geben. Dies zeigt beispielhaft, dass sich wie in der Vergangenheit auch in Zukunft mit dem ‚Stand AG‘ außer hohen Kosten nicht viel ändern wird. Denn bei der Berichterstattung über Gorleben hat das Korrektiv einer ideologiefreien Presse bis auf wenige Ausnahmen total versagt. Trotz der vielen Worte zur Bürgerbeteiligung im Gesetz, wird sich die Desinformation – nicht zuletzt mit den vielfältigen Möglichkeiten des Internets an der von vielen gewünschte Desinformation zu diesem Thema ändern. 

Kapitel 3  Standortauswahlverfahren

Zu dem fachlichen Bereich ist wenig zu sagen, da der Gesetzestext die wissenschaftlich-technische Methodik der Endlagerung beschreibt, die allerdings seit Jahrzehnten international bekannt ist und auch bei der Standortuntersuchung von Gorleben und der Auswertung der Ergebnisse zum größten Teil schon berücksichtigt worden und dokumentiert sind.

In § 12 bis § 20 werden die formalen Verfahrensschritte im Einzelnen aufgelistet. Sie betreffen die für ein Großprojekt üblichen gesetzlichen Vorschriften und die Einbindung von zuständigen Bundes- und Landesbehörden, Standortregionen und Forschungseinrichtungen. In diesen Kapiteln werden, insbesondere in § 10 aber nicht nur dort, detaillierte Hinweise zur Durchführung von Bürgerversammlungen genannt und die jeweiligen Verfahrensschritte im Zusammenwirken mit der Öffentlichkeit beschrieben wie auch die organisatorischen Vorbereitungen für die Bürgerversammlungen durch die Vorhabenträger. Und genau hier liegt der Hinweis auf das Versagen dieses Gesetzes. Denn wie die Vergangenheit gezeigt hat, ist es äußerst unwahrscheinlich, dass in Zukunft die Vorhabenträger die Öffentlichkeit so sachgerecht informieren werden, dass auch durch ein Ideologie und Politik getriebener Widerstand die Entsorgung radioaktiver Abfälle in tiefen geologischen Gesteinseinheiten verhindert wird. Die völlige Transparenz im Projekt ließe sich nur durch eine politisch und finanziell unabhängige Öffentlichkeitsarbeit herstellen, die vom Vorhabenträger zeitnah die Information abfordert bzw. in den Projektfortschritt informativ eingebunden ist. Offensichtlich ist diese vollkommene Transparenz aber hierzulande nicht erwünscht, wodurch der politischen Manipulation in Zukunft Tür und Tor geöffnet bleibt. Denn in dem Gesetzestext ist hierzu nichts zu finden.

In  der 7. Sitzung der Kommission am 6. Dezember 2014 weist ein Mitglied der Kommission nach seinen Berechnungen darauf hin, dass ein Standort nach den neuen Regeln nicht vor 2058 gefunden werden könne und mit der Inbetriebnahme nicht vor 2083 also in 68 Jahren zu rechnen sei [www.bundestag.de/presse/hib/2014_12/-/345264*]. Historisch gesehen: Hätte man vor 68 Jahren, im Jahr 1947 (Währungsreform 1948) ein Projekt mit gleichem Zeitaufwand geplant, wäre es erst heute fertig geworden. Auch wenn das Endlager zehn Jahre früher zur Verfügung stehen sollte, wird eine sehr lange Zeit die teure dezentrale übertägige Zwischenlagerung des ´Atommülls´ die Lösung sein müssen, bis eine nicht in Deutschland entwickelte Technik (Transmutation) einer energetischen Nutzung der „Abfälle“ zur Verfügung steht. In diesem Zusammenhang muss deshalb deutlich gefragt werden, ob weiterhin nach einem Endlager gesucht werden soll. Eine entsprechende Anpassung im Atomgesetz wäre einfacher und auch wirtschaftlicher, als das deutsche Hassthema Endlagerung ewig am Leben zu erhalten.

Kapitel 4 Kosten

Konkrete Zahlen zu den  Kosten können wegen der Komplexität der Verfahrensschritte und die dadurch zu erwartenden langen Zeiträumen realistischerweise nicht genannt werden. Aus wirtschaftlicher, aber ins besonders aus ‚ökologischer‘, aus naturbewusster Sicht wäre eine wenige tausend Euro teure Bewertung der Ergebnisse von Gorleben vernünftiger gewesen. Aus ‚ökologistischer‘, aus ideologischer Perspektive zählt das jedoch nicht. Dank der zukünftigen Suche wird die Zeit gewollt nur mit politischen Scheinaktivitäten gefüllt. Bis heute gegoltene wissenschaftliche, technische und wirtschaftliche Gesichtspunkte werden negiert. Mit dem neuen Gesetz werden die Kosten ins Unendliche steigen und zwar wegen der neuen Behörde, den komplizierten Abstimmungsprozessen, wegen der Suche nach mehreren neuen Standorten und deren übertägigen Erkundung, wegen des Baus von zumindest drei zusätzlichen Untersuchungsbergwerken mit Abraumhalden zur untertägigen Erkundung und wegen des Verschlusses von zumindest zweien einschließlich der Grube Gorleben.

Ob ein derart ideologisch überprägtes Projekt entsprechend dem geplanten Verfahren jemals realisiert wird, ist die offene Frage. Deshalb lässt sich auch keine halbwegs wirklichkeitsnahe Zahl zu den Kosten bis zur theoretischen Inbetriebnahme eines neuen Endlagers nennen. Beispielhaft sei hier auf die große Diskrepanz der Kostenschätzung hingewiesen, die bei der Entscheidung zur Energiewende propagiert wurden zu den Kosten, die bis heute tatsächlich entstanden sind und weiter entstehen werden. Typisch für die heutigen Politiker ist, dass man erst jetzt – nach der Verabschiedung des ‚Stand AG‘ beginnt, über die Höhe und die Finanzierung der zukünftigen Entsorgung der radioaktiven Abfälle nachzudenken. Fakt ist: es hätte einen sichereren und kostengünstigeren Weg gegeben. Unabhängig davon, wer die Kosten übernehmen wird, sie müssen auf jeden Fall von den zukünftigen Generationen der Deutschen bezahlt werden. Das ist das einzig Sichere an diesem Kapitel.

Kapitel 5 Schlussvorschriften

§ 29 Bestehender Erkundungsstandort:

(1) „ … Der Salzstock Gorleben dient nicht als Referenzstandort für andere zu erkundende Standorte. Der Umstand, dass für den Standort Gorleben Erkenntnisse aus der bisherigen Erkundung vorliegen, darf eben sowenig in die vergleichende Bewertung einfließen, wie der Umstand, dass für den Standort Gorleben bereits Infrastruktur für die Erkundung geschaffen ist. Der Ausschluss nach dem Standortauswahlgesetz erfolgt:

  wenn der Salzstock Gorleben nach §13 nicht in der ersten Stufe zu den Regionen gehört, die nach geowissenschaftlichen, wasserwirtschaftlichen und raumplanerischen Kriterien entsprechen,

  wenn Gorleben nicht nach §14 zu den festgelegten übertägig zu erkundenden Standorten gehört,

  wenn Gorleben nicht nach §17 bei der Auswahl für die untertägige Erkundung den Anforderungen und Kriterien in dem bis zu diesem Zeitpunkt des Standortauswahlverfahrens der Standortentscheidung entspricht und

  wenn Gorleben nicht nach § 20 der ausgewählte Standort ist.

  Das Erkundungsbergwerk (Gorleben) wird bis zu der Standortentscheidung nach dem Standortauswahlgesetz unter Gewährleistung aller rechtlichen Erfordernisse und der notwendigen Erhaltungsarbeiten offen gehalten, sofern der Salzstock Gorleben nicht nach Absatz 1 aus dem Verfahren ausgeschlossen wurde. Der Betrieb eines Salzlabors, insbesondere zur standortunabhängigen Forschung zum Medium Salz als Wirtsgestein, ist ab dem Zeitpunkt nach Satz 1 unzulässig. Die vorläufige Sicherheitsuntersuchung des Standortes Gorleben wird spätestens mit Inkrafttreten dieses Gesetzes ohne eine Eignungsprognose für den Standort Gorleben eingestellt“.

(2)„… Der Betrieb eines Salzlabors, insbesondere zur standortunabhängigen Forschung zum Medium Salz als Wirtsgestein, ist ab dem Zeitpunk nach Satz 1 unzulässig.“

(3)„Die vorläufige Sicherheitsuntersuchung des Standortes Gorleben“ [VSG] „wird spätestens mit Inkrafttreten dieses Gesetzes ohne ein Eignungsprognose für den Standort Gorleben eingestellt.“

Für die Politik ist dieses an den Schluss des ‚Stand AG‘ angeklebte Kapitel das wichtigste Kapitel des Gesetzes – und zeigt den Geist dieses Gesetzes.

ERGEBNIS

Um glaubhaft zu bleiben, hätten die Gegner von Gorleben eine internationalen Bewertung der VSG-Studie begrüßen und unterstützen müssen, da sie seit Jahren mit großem propagandistischem Aufwand die Eignungshöffigkeit von Gorleben aus fachlicher Sicht bezweifeln und dies jahrelang der Öffentlichkeit eingehämmert haben. Denn würde das von einer internationalen Peer-Review-Gruppe erarbeitete Votum zur vorläufigen Eignungsprognose (VSG-Studie) negativ ausfallen, dann hätten sie den Nachweis bekommen, dass sie seit Jahren das Projekt verantwortlich begleitet haben. Die Verabschiedung des ‚Stand AG‘ wäre in diesem Fall berechtigt. Diesen fairen Wettbewerb zwischen Wissenschaft und Technik und Politik und Ideologie wollte man jedoch nicht eingehen. Da die Gegner offensichtlich selbst an dieses Resultat nicht glauben wollten, zeigt die Verhinderung des neutralen Testats die Verzweiflung der heutigen Politiker. Die nur vier Tage dauernde Umsetzung dieses am 23. Juli 2013 verabschiedeten Gesetzes und das am 27. Juli 2013 ergangene Verbot des Testats der VSG verstärkt diesen Hinweis.

Das Gesetz bedeutet aber nicht nur den ‚quasi‘ gesetzlichen Todesstoß für Gorleben, es beinhaltet auch, dass in Deutschland per Gesetz verboten wird, an diesem Standort wissenschaftlich erforderliche Untersuchungen zur Langzeitsicherheit durchführen zu dürfen. Mit dieser gezielten Unterbrechung wird aus politischen Gründen bewusst eine Wissenslücke herbeigeführt, um den Standort aus dem Wettbewerb auszuschließen. Nach den vorliegenden Erfahrungen ist davon auszugehen, dass auf dem langen Weg zur Festlegung eines neuen Standortes auch in Zukunft nicht fachliche Erkenntnisse, sondern grün-ökologistische Propaganda den Ton angeben wird.

Bei dem Gesetz geht es nicht nur um die endlose Verzögerung der Endlagerung. Nein, es geht dabei auch um einen legitim erscheinenden Ausschluss von Gorleben aus dem Standortauswahlprozess – und um den Sieg einer Bewegung, einer Ideologie, die mit einer über viele Jahre gezielt vorbereiteten, politisch gesteuerten Propaganda durchgesetzt wurde. Mit Hilfe dieser Propaganda und heute mit der zusätzlichen Unterstützung der ‚Facebookisierung‘ ist es gelungen, die Ritualisierung der Desinformation zu nutzen, die sich im Netz wie eine Seuche ausgebreitet hat. Und damit ließen sich in einem noch größeren Teil der Bevölkerung irrationale Ängste schüren, die es der grünen Bewegung erleichterte, die Macht zu erschleichen.

Die Vergangenheit hat uns eingeholt.

Dieser politische Vorgang macht deutlich, dass Gorleben nicht aus wissenschaftlich-technischen, sondern aus rein politisch-ideologischen Gründen beendet werden soll! Das ‚Stand AG‘ ist ein Anti-Gorleben-Gesetz und es ist ein teures „Ad calendas graecas, ein teures ideologisches Monster bis auf den Sankt-Nimmerleins-Tag“. Mit diesem Anti-Gorleben Gesetz ist das Ende des weltweit am besten untersuchten und chancenreichsten Endlagerstandortes abzusehen. Ob dieser mit ideologischen Parolen erreichte Sieg zum Wohle zukünftiger Generationen gereichen wird, wird sich zeigen.

Fasst man zusammen: Mit einer ’neu-deutschen‘ Standortsuche und einer anschließenden Untersuchung dieses Standortes soll jetzt für eine möglichst sichere Entsorgung von Wärme-entwickelnden, hoch radioaktiven Abfällen begonnen werden. Grundlage dafür soll nach Ansicht des Niedersächsischen Umweltministers anscheinend hauptsächlich der Kenntnisstand dienen [Niedersächsischer Landtag – 17. Wahlperiode, Drucksache 17/1999, 2014*], der von einigen geologisch zweifelhaften Gutachten aus dem vorigen Jahrhundert stammt. Und das, ohne offiziell gegenüber der Öffentlichkeit das Ergebnis der Vereinbarung von 2001 zwischen der rot-grünen Regierung und der E-Wirtschaft zu nennen, dass „die bisher gewonnen geologischen Befunde einer Eignungshöffigkeit des Salzstocks Gorleben nicht … entgegen“ stehen [Anlage 4 der Vereinbarung vom 11.06.2001*],  und dass es eine neun Millionen Euro teure, qualitativ hochwertige Auswertung (VSG-Studie) der mehr als anderthalb Milliarden teuren Erkundungsergebnisse des Standortes Gorleben gibt, in der keine K.O Kriterien zur Eignungshöffigkeit von Gorleben zu finden sind.

Literatur: [*]   bei Google zu finden

               

Dr. Helmut Fuchs

Mitautor des Kapitels 3 Kernenergierohstoffe im Lehrbuch „Angewandte Geowissenschaften, Band IV“, Herausgegeben von Friedrich Bender; Ferdinand Enke Verlag Stuttgart.

 ANHANG

In einem Politthriller „Die German Angst [Helmut Fuchs und Rolf Kamradek, bookshouse Verlag; 2013, ISBN 978-9963-727-780;*] haben mein Co-Autor und ich das Missverhältnis zwischen wissenschaftlich-technischer Offenheit und einer fachfremden Ideologie thematisiert, die seit den 80-er Jahren durch Schüren und Kreieren von Ängsten die Öffentlichkeit verunsichert und so die wirtschaftliche Entwicklung lahm legt. Die politischen Hintergründe dieser Entwicklung werden aufgezeigt. Wenn man in dem Thriller die Worte Grafit durch Uran, sowie Keramik-Grafit-Motor durch Kernkraft ersetzt, wird die Verhinderungspolitik („Stand AG: Paragraph 9a Absatz 3 Satz 1 des AtG“) für die Entsorgung hoch radioaktiver Abfälle in Deutschland, die mit einem unbezahlbaren Schrecken ohne Ende zu keinem Ergebnis kommen darf, für die nachfolgende Generation, entsprechend der Vorhersage des Romans, deutlich.

***