1

Energiewende wirkt: Erfinder des EEG Hans Josef Fell – EEG ist toll, es schafft Arbeitsplätze in „Kina“!

Autor ist der kampferprobte Aktivist und taz Umwelt-Redakteur Malte Kreutzfeld. Nach eigenen Angaben hat er „in Göttingen und Berkeley Biologie, Politik und Englisch studiert, sich dabei umweltpolitisch und globalisierungskritisch engagiert „. Das befähigt ihn zu schreiben: 

Die Ignoranz der Experten 

Die Forderung von Wissenschaftlern nach einem Aus für das Erneuerbare-Energien-Gesetz ist absurd. Gefährlich ist sie trotzdem.

Und glaubt feststellen dann zu können:

Innovation misst die sogenannte „Expertenkommission“ dabei ausschließlich an der Zahl der Patentanmeldungen. Dass das deutsche Modell der Ökostrom-Förderung etwa beim Solarstrom innerhalb von zehn Jahren zu Preissenkungen von 80 Prozent geführt hat, ignorieren sie ebenso wie die gewaltigen technischen Fortschritte bei der Windkraft.

Die reale Kostenexplosion beim Strompreis, Ursache  der Energiearmut, die immer weitere Kreise der Bevölkerung erfasst, sowie der sich beschleunigende Weggang der energieintensiven Industrie,  mit dem Wegfall zigtausender wertschöpfender Arbeitsplätze , begleitet vom Abbau  ebenfalls wertschöpfender Arbeitsplätze bei den großen und kleinen Energieversorgern, nimmt der Biologie, Politik und Englisch studierte Kreutzfeld einfach nicht zur Kenntnis. Auf dem Weg ins grüne Glück gibt es leider auch Opfer. Bei den anderen versteht sich.

Und auch im Regionalsender  Mittelfranken  von Bayern 1 regte sich Unmut. Dort ist nämlich der Erfinder des EEG der ehemalige grüne Bundestagsabgeordnete Hans Josef Fell zuhause.  

Und der war, glaubt man dem Interviewer Jürgen Gläser „fassungslos“!. Jürgen Gläser, Liebhaber von Frankenwein und seiner Arbeit in Kitzingen  durfte den Erfinder des EEG interviewen.

Er hätte so Fell…"noch nie nie seine so schlechte wissenschaftliche  Darstellung gesehen“. Damit meinte er wohl das Gutachten selber.  Und fand …"die Gutachter hätten damit" ..ginge es  nach ihm…“ ihre wissenschaftliche Reputation verloren“. Und lobte anschließend die „augenfällige Innovationskraft“ bei Sonne, Wind Biomasse und Geothermie.

Sogleich beflissen assistiert vom Interviewer Gläser, der erklärte, dass das Bundeswirtschaftsministerium noch am Mittag festgestellt hätte, dass das EEG das Kerninstrument der deutschen Klima- und Energiepoltik sei und damit wohl „die eigenen Gutachter  zurückgepfiffen hätte“

Bei soviel Zustimmung gab es bei Fell kein Halten mehr. …"Durch diese fulminante Innovationsentwicklung (des EEG) in Deutschland ist nun Kina zur  ersten Nation aufgestiegen, mit Investiition in „Erneuerbare“ Energien, weil die Techniken gut, billig und hoch effektiv  geworden sind.“

Das muss doch begeistern! Die deutsche Erfindung „EEG“ des Hans Josef Fell erzeugt damit viele, viele Arbeitsplätze in China. Sagt er selber.

Weil es Technologien schafft, die hocheffektiv, billig und gut …dort angewendet  werden können. Und, so Fell weiter,  dies als nicht innovativ zu bezeichne hielte er …"für so was von weltfremd..“

Des weiteren singt er dann das hohe Lied von den niedrigen Strompreisen an der Börse, dank des Überangebots (sagte er zwar nicht) der zuvor per Zwang eingespeisten „Erneuerbaren“ (sagte er auch nicht), die der Herr Gabriel leider nicht an die Verbraucher weitergäbe. Kein Wort natürlich zu den zuvor bereits bezahlten exorbitanten Einspeisevergütungen die dank EEG für 20 Jahre garantiert, uns Verbrauchern vom innovative Herr Fell mit seinem EEG aufgezwungen wurden. 

So sieht Innovation a´la Grün aus. Auch weil es keinen „tolleren“ Politiktransfer als das EEG gäbe, findet Fell. Denn 66 Staaten hätten diesen Exportschlager übernommen.

Und der Interviewer freute sich am Schluss mit Fell dass „Gott sei Dank  die Abschaffung des EEG nicht stattfinden würde“. 

Nun können wir es nicht unterlassen von der schönen neuen Traumwelt der grünen Erneuerbaren, wenigstens in „Kina“, wieder in die reale Welt zurückzublenden.

Gestern titelte Bild 

ERSCHRECKENDE ZAHLEN

Hohe Strompreise machen unser Export-Wunder kaputt

Die Energiewende macht unserem Export schwer zu schaffen! Die Produktion in Deutschland wird teurer, unsere Waren steigen im Preis und verkaufen sich im Ausland schlechter. Eine dramatische Entwicklung, wie Zahlen jetzt belegen.

Deutschlands Industrie musste vergangenes Jahr auf Exporte im Wert von 15 Milliarden Euro verzichten – bedingt durch die rasant steigenden Strompreise.


und die FAZ (hier) zieht heute nach:

Energiewende kostet Deutschland Milliarden

27.02.2014  ·  Etwa 15 Milliarden Euro an Exporteinbußen habe die Energiewende Deutschland 2013 beschert, behaupten von der Industrie bezahlte Forscher. Sie wollen die Energiewende reformieren – nachdem am Mittwoch ihre Abschaffung gefordert wurde. Und verstärken dies noch mit

Die hohen Energiepreisunterschiede zwischen Deutschland und seinen fünf wichtigsten Handelspartnern etwa hätten den Industriesektor zwischen 2008 und 2013 etwa 52 Milliarden Euro an Nettoexporteinbußen beschert. Nordamerika habe dagegen als Industriestandort im Wettbewerb an Vorteilen gewonnen, weil der dortige Schiefergasboom die amerikanischen Gaspreise auf ein Drittel des deutschen Wertes senke.

Und da sind die vielen anderen Verluste noch gar nicht enthalten.

Während hierzulande die Energiearmut steigt und steigt, und bereits 17 % der Haushalte betrifft, träumen Fell und sein Interviewer weiter von ihrem hochinnovativen EEG. Das ist es wirklich. Beim Vernichten von Arbeitsplätzen und Hochtreiben der Strompreise. Eine größere Umverteilung von unten nach oben hat es seit dem II, Weltkrieg in Deutschland nicht gegeben. Doch sie sind beide ja auch nicht von dessen Folgen betroffen. 




Die Sündflut

Die einzigartigen Überschwemmungen im Tal der Themse und in den Somerset Levels in Südwestengland haben die britischen Politiker aufgeschreckt. Sie ziehen Regenjacken und Gummistiefel an, stapfen durch Strassen, die sich in Flüsse verwandelt haben, und geben mit gefurchter Stirn ihre Weisheiten preis. Für Premier Cameron sind die Fluten «biblisch», er «vermutet sehr», dass das extreme Wetter mit dem Klimawandel zusammenhängt. Sein Staatssekretär für Energie und Klimawandel, der Liberaldemokrat Ed Davey, vermutet das nicht nur, er weiss es: «Um uns herum sehen wir heute die möglichen Folgen einer Welt, auf der extreme Wetterereignisse viel wahrscheinlicher sind.» Und er schimpft über Randfiguren in der Konservativen Partei, welche «die Argumente der diskreditierten ­Klimaleugner» nachplap­perten. Er geisselt das «böswillig ignorante Kopf-in-den-Sand-­Stecken» vieler Konservativer und spricht von ­einem «teuflischen Cocktail», der die ganze «Klimapolitikstruktur» des Landes bedrohe.

Noch düsterer tönen die Warnungen von ­Labour-Parteiführer Ed Miliband: «Wegen des Unvermögens, zu erkennen, dass Klimawandel das extreme Wetter verursacht, welches das Land seit einem Monat verwüstet, schlafwandelt das Land auf eine Katastrophe zu.» Cameron, Davey und Miliband sind keine Wissenschaftler, Julia Slingo, wissenschaftliche Leiterin der staatlichen Wetteranstalt, ist es. Laut Slingo deutet das «gesamte Beweismaterial» darauf hin, dass der Klima­wandel mithalf, «die aussergewöhnlichste Regenperiode in 248 Jahren zu verursachen».

Alles klar? Nicht unbedingt. Zitieren wir aus dem Bericht des Weltklimarats (IPCC): «Zusammengefasst fehlt es weiterhin an Beweisen, und somit ist in Bezug auf das Trendsignal das Vertrauen in die Grösse und/oder Frequenz von Überschwemmungen auf einer globalen Skala tief.»

Schaut man sich die historischen Zahlen in Bezug auf Regenfälle in Grossbritannien näher an, findet man Winter, in denen es stärker regnete als 2013/14. Nicht eine amtliche Stelle, sondern der Blogger Paul Homewood hat die seit 1910 existierenden Regenstatistiken für die von den Überschwemmungen besonders stark heimgesuchte Region Südwestengland/Südwales untersucht. Er kommt zum Schluss: «Es sieht schon jetzt ­danach aus, dass auch der ­Februar im Südwesten ein besonders nasser Monat sein wird, so dass das Drei-Monate-­Total für Dezember bis Februar dasjenige der meisten Jahre seit 1910 übertreffen wird. Wie auch immer das Ergebnis sein wird, so ist es doch unwahrscheinlich, dass die jüngsten Dezember-bis-Februar-Zahlen an die November-bis-Januar-Periode von 1929/30 herankommen werden. Wenn der gegenwärtige Trend anhält, rechne ich mit weiteren 200 Millimetern, was das Drei-Monate-Total auf ungefähr 650 Millimeter bringen würde. Das ist deutlich unter den 812 Millimetern, die für November 1929 bis Januar 1930 aufgezeichnet wurden.»

Wenn die Regenfälle in Südwestengland im Winter 1929/30 deutlich höher waren als jetzt – wieso richten die momentanen Überschwemmungen dann weit verheerendere Schäden an? Schuld ist der Mensch. Aber nicht, weil er zu viel CO2 in die Atmosphäre strömen lässt, sondern weil die 1996 per Gesetz neugeschaffene Umweltagentur (EA), die für den Umgang mit dem Überschwemmungsrisiko bei Flüssen und Meer zuständig ist, versagt hat.

Drainage vernachlässigt

Die von den aktuellen Überschwemmungen besonders heimgesuchten Somerset Levels sind eine im 16. Jahrhundert von holländischen Ingenieuren für die Landwirtschaft urbar gemachte Moorlandschaft von 650 Quadratkilometern (etwa so gross wie die Kantone St. Gallen und Thurgau zusammen). Während mehr als zwei Jahrhunderten kümmerte sich die 1777 gegründete wohltätige Royal Bath and West of England Society um die Drainage des Gebiets.

Das änderte sich, als die öffentlich-rechtliche Environment Agency das Flussmanagement übernahm. Für die EA hatte das Ausbaggern von Flussbetten, welche das Abfliessen des Wassers ermöglichten, keine Priorität mehr. Die Pump­werke wurden vernachlässigt. Kam dazu, dass Umweltauflagen der EU das Wegschaffen von Schlamm und Triebsand behinderten. Die Situation verschlimmerte sich 2002, als die Umweltschützerin Barbara Young Chefin der Umweltagentur wurde. Als ehemalige Vizepräsidentin der Königlichen Gesellschaft für den Vogelschutz (RSPB) sorgte sie sich um das Wohlergehen der Wildtiere. Am liebsten hätte sie, wie sie einmal bemerkte, alle Pumpstationen in die Luft gesprengt. Das Ausbaggern der Flüsse kam unter ihrer Ägide praktisch zum Stillstand.

Die EA, heute unter der Leitung von Ex-­Labour-Kulturminister Lord Chris Smith, hat sich immer mehr um «Nachhaltigkeit» und «Biodiversität» gekümmert als um die Interessen der Bevölkerung und der Landwirtschaft von Somerset. Die Aufräumarbeiten nach den Überschwemmungen werden über 100 Millionen Pfund kosten. Das Ausbaggern der Flüsse hätte 4,5 Millionen Pfund gekostet, was der EA, die allein für ein Vogelreservat 31 Millionen Pfund ausgab, «übertrieben» erschien.

===================================================

Anmerkung EIKE-Redaktion :

Der vorstehende Artikel von Hanspeter Born ist erschienen in: http://www.weltwoche.ch ; Die Weltwoche, Ausgabe 08/2014 | Freitag, 21. Februar 2014: Die Sündflut |

EIKE dankt dem Autor und der Redaktion der WELTWOCHE für die Genehmigung eines ungekürzten Nachdrucks.

===========================================================

Ergänzung/Nachtrag EIKE-Redaktion:

In den englischen Medien herrschten im Februar 2014 Hohn und Spott, sowohl über die krasse Winter-2013/14-Fehl-Prognose des Britischen Wetterdienstes, als auch über die nachträgliche Zuordnung einer für die Jahreszeit nicht ungewöhnlichen regnerischen Westwind-Wetterlage zu einem angeblich Mensch-gemachten Klimawandel :

=============================================================

(1)

Daily Mail, 21.02.2014

http://www.dailymail.co.uk/news/article-2564358/Could-Met-Office-wrong-Just-floods-report-told-councils-Winter-drier-normal-especially-West-Country.html ; 21 February 2014 :

„Could Met Office have been more wrong? Just before floods, report told councils: Winter will be ‚drier than normal‘ – especially in West Country!“

  • > „Worst weather prediction since Michael Fish reassured the nation in October 1987 there was no hurricane on the way“
  • > „Forecasters said the Somerset Levels and the rest of the West Country would be especially dry“
  • > „Last night, it was confirmed the UK had instead suffered the wettest winter since records began“

Read more: http://www.dailymail.co.uk/news/article-2564358/Could-Met-Office-wrong-Just-floods-report-told-councils-Winter-drier-normal-especially-West-Country.html#ixzz2uLP5G1VU

Follow us: @MailOnline on Twitter | DailyMail on Facebook

(2)

http://www.spiked-online.com/newsite/article/the-eco-hysteria-of-blaming-mankind-for-the-floods/14672#.UwzNgV4szNV ; 17 February 2014 :

„The eco-hysteria of blaming mankind for the floods“

„Blaming storms on human industry is as backward as blaming them on gays.“

Nicholas Stern, treated by many greens as a god-like oracle warning us all of future manmade doom, says the floods were caused by ‘human activities’. From the fawningly faithful reporting of his words, you could be forgiven for thinking Moses himself had published some new tablets about man’s wrongdoings. Other observers say man’s behaviour, his emission of CO2, is ‘loading the dice’ of nature’s fury, making floods more likely and more epic.“

Quelle: benny.peiser@thegwpf.org ;  CCNet 25/02/14 ; After The Floods: Why Did The Met Office Forecast A Dry Winter?




Energiewende wirkt: Regierungskommission „Forschung und Innovation“ fordert EEG Abschaffung wegen erwiesener Nutzlosigkeit

Doch damit nicht genug, denn das EEG verpflichtet die Netzbetreiber diesen Flatterstrom die nächsten 20 Jahre in jeder herstellbaren Menge abzunehmen. Auch die Rechnung dafür darf an den Verbraucher weitergereicht werden.  Und die summiert sich auf satte 330 Mrd € bis zum Ende der Laufzeit. Nun hat die von der Bundesregierung eingesetzte Expertenkommission „Forschung und Innovation“ in ihrem Jahresbericht festgestellt, dass das EEG zwar extrem teuer ist, aber seinen Zweck, den „Klimaschutz“ durch Reduktion der CO2 Emissionen, total verfehlt und in der Technologieförderung auch nichts bringt. Sie empfiehlt daher die vollständige Abschaffung. Jetzt erst!

Die EIKE Redaktion kommentiert:

Das EEG – EIKE’s Logbuch der Bescheuerten und Bekloppten

Wer kennt nicht Wischmeyers Logbuch der Bescheuerten und Bekloppten in der ZDF-„Heutehow“? Das EEG wäre für sie ein passendes Thema. Freilich kann dies das ZDF nicht wagen. EIKE dagegen ist ideologiefrei und unabhängig. Da die Wirklichkeit des EEG  alles Bescheuerte und Bekloppte dieser Welt in den Schatten stellt, fällt uns das Thema EEG nicht gerade leicht. Kann man eine Realsatire mit weiterer Satire überhaupt noch toppen? Wir wollen es  nachfolgend einfach einmal versuchen, zumindest Wischmeyer wird uns verstehen.

Mit wirksamen Methoden aus dem Arsenal der DDR Kaderschmieden hat es eine junge Politikerin aus der DDR mit dem schönen Namen Angela fertig gebracht, alle Konkurrenten wegzuputzen. Seitdem regiert sie unangefochten unsere Republik. Regieren ist natürlich stark übertrieben. Sie reitet einfach das Pferd „Volksstimme“ und schnippt es locker mit dem Zaumzügel in die Richtung ihres machtpolitischen Schachs. Politischen oder gar demokratischen Gestaltungswillen sucht man freilich bei Angela absolut vergebens. Dafür ist sie beim Volk als „Mutti“ ja so beliebt. Die Volksstimme wiederum hört schon längstens nur noch auf die Einflüsterungen grün-roter Medien: „Wir müssen das Klima schützen“, „Wir dürfen nicht so viel Energie verbrauchen“, „Kohle oder gar Uran zu verbrennen ist des Teufels“, „Wir müssen die Energiewende durchführen, weil wir sie wollen (Besonders schönes Zitat: C. Kemfert)“, „Wir dürfen kein Fleisch mehr essen, das ist böse“ und vielen weiteren Unsinn mehr. Das passt natürlich bestens in Angelas Machtkonzept. Zur Absicherung ihrer Agenda hat sie als „Klimaberater“ einen lustigen Wissenschafts-Clown engagiert, der die Welt mit einer großen Transformation durch absurde 2 Grad Begrenzung einer seit anderthalb Jahrzehnten ohnehin ausbleibenden globalen Erwärmung retten kannl. Sie lässt außerdem einen wissenschaftlichen Beirat der Bundesregierung für globale Umweltveränderungen (WBGU)  regierungsoffizielle Schriften veröffentlichen, in denen die Vernichtung eines ganzen Industriezweigs (Kohle) gefordert wird. Dass der WBGU, ehemals ein Expertengremium, längst von fachfremden Ideologen bestimmt wird, versteht sich von selber. Niemand nahm die WBGU-Forderung gar zum Anlass, Klage gegen Angela wegen Volksverhetzung einzureichen, nicht einmal der ehemalige Koalitionspartner FDP. Der nickte diese undemokratischen Durchstechereien einfach ab, er wollte nun einmal um jeden Preis weiter mitregieren. Angela schaffte schließlich auch noch die sichersten Kernkraftwerke der Welt ab – nicht einmal die sicherheitsbesessenen Schweden machten so etwas beklopptes. Für diesen Zweck setzte sie eine Ethik-Kommission ein, in der drei Kirchen-Heinis, der Rest überwiegend Fachbescheuertee aber kein einziger Energie-Experte saßen. Das Ergebnis war, als ob man Gänse über den Sinn des Weihnachtsfestbratens hätte abstimmen lassen. Absurder ging es wirklich nicht mehr, die Wirklichkeit schlug jede denkbare Satire mit Längen.

Videoausschnitt von einem Gespräch mit Cem Özedemir, Bundes-Vorsitzender der Grünen, zum „Stromverbrauch“ in Deutschland. Er dürfte nicht der Einzige im Parlament sein, der keine Ahnung von dem hat, wovon er spricht und entscheidet. Bei diesem geballten Sachverstand braucht keiner der EEG Gewinner Angst um seine Pfründe zu haben

Und die Folgen von diesem ganzen hirnverbrannten Unsinn? Wir müssen immer mehr für Strom bezahlen, Arbeitsplätze in energieintensiven Industrien gehen verloren, Windradungetüme höher als das Ulmer Münster verschandeln unsere Landschaften, töten Hekatomben von Vögeln und Fledermäusen und nerven die Anrainer. Quecksilbervergiftete Sparlampen müssen wir kaufen, es drohen völlig überflüssige Riesenstromleitungen quer durch Deutschland, die Stabilität der Stromnetze sinkt dramatisch, ein mehrtägiger Blackout droht. Niemand in unserem ehemals gut funktionierenden Strom-Land bleibt von dieser Ökonummer verschont. In den Schulen und sogar Kindergärten werden die Kleinen und Allerkleinsten auf  Ökolinie gebracht – oh Angela, Du bist wahrlich die späte Rache Erich Honneckers und Walter Ulbrichts in einem! Die ganze Welt lacht nun über die dummen Deutschen. Die Regierungen der Welt aber bewundern heimlich unsere Angela – toll, wie sie das mit der Macht hinbekommt. Ihre Masche sollten wir vielleicht auch einmal versuchen, dann bleiben wir ewig im Amt! Wer nun logisch folgert, der aufsummierte  Öko-Dummquatsch müsste eigentlich Angela das politische Genick brechen, irrt sich. Sie sitzt fester im Sattel als je zu vor. Einzige mögliche Schlussfolgerung: Angela ist die wirklich kluge, nur wir Deutschen sind ein Volk von Bekloppten und Bescheuerten!

Nun geht es aber doch nicht mehr weiter. Selbst den Genossen in der GroKo schwant, dass die Energiewende an Beklopptheit und Gefährlichkeit für ihr politisches Wohlergehen unüberbietbar ist. Ganz abschaffen geht aber nicht, dann müssten ja praktisch alle deutschen Politker den Hut nehmen, denn wer hat eigentlich nicht mitgemacht. Sigi Gabriel hat sich nun  vorgenommen, das Ding zu retten. Es kann unmöglich gelingen. Da die technischen Hochschulen Deutschlands, die es wohl besser wissen, immer noch schweigen – Drittmittel, Drittmittel, Drittmittel, man muss schließlich überleben, hält daher besser die Klappe und profitiert von den Ökosubventionen -, ist keine Remedur in Sicht. Oder doch? Die FAZ, einer der wenigen Medien-Lichtblicke im Medien-DDR-Deutschland, berichtet am 26.2.2014, dass eine vom Bundestag eingesetzte Expertenkommission rät, das EEG gänzlich abzuschaffen. Diese Kommission muss zuvor EIKE gelesen haben! Genau dies fordern wir bekanntlich schon von Beginn der bescheuerten Energiewende an und belegten es stets mit Fakten. Die Politik schert sich darum natürlich nicht, und um die Expertenkommission wird sie sich ebenfalls nicht scheren. Ob das gut gehen kann?  Die FAZ schreibt hierzu: „DAS EEG SEI WEDER EIN KOSTENEFFIZIENTES INSTRUMENT FÜR DEN KLIMSCHUTZ, NOCH ENTFALTE ES EINE MESSBARE INNOVATIONSWIRKUNG“ und weiter: „Für ihren radikalen Rat haben die Experten mehrere Begründungen parat: Die steigenden Kosten von zuletzt 22 Milliarden Euro im Jahr, überschätzte Auswirkungen auf den Klimaschutz, vor allem aber die von der Förderung ausgehende „sehr geringe technologiespezifische Innovationswirkung in Deutschland“. Gerade das Technologieargument spielt in den politischen Debatten eine wichtige Rolle. Um so mehr lässt aufhören, dass die Forscher aus dem Umfeld des renommierten Stifterverbands für die Deutsche Wissenschaft genau das in Zweifel ziehen. Die sechs Gutachter unter Leitung des Managementprofessors Dietmar Harhoff von der Ludwig-Maximilians-Universität München berufen sich dabei auf Studien, die unter anderem die Patentanmeldungen als Indikator für Innovationen beurteilen. Die kämen zu keinem positiven Ergebnis. „Eine empirische Untersuchung für den Zeitraum 1990 bis 2005 kann eine Innovationswirkung von Stromeinspeisevergütungen für erneuerbare Energien in Deutschland lediglich für Windenergie feststellen“, stellen sie fest. Eine aktuelle Analyse, die speziell die Wirkung der Einspeisevergütungen des EEG von 2000 bis 2009 technologiespezifisch untersucht habe, finde „in keinem Technologiebereich einen positiven Zusammenhang“. Als Grund machen die Forscher aus, dass die festen Einspeisevergütungen „keinen Anreiz zur Entwicklung neuartiger Technologien“ böten. Da sich die Vergütung nach den Durchschnittskosten richte, verdiene ein Innovator an einer neuartigen Technologie nicht mehr als an einer schon eingeführten. Allerdings sei die Investition in eine neue Technologie mit einem höheren Risiko verbunden.“ So ist es, liebe Expertenkommission. Als Ergänzung hättet ihr allerdings noch hinzufügen sollen: ES GIBT KEIN KONSTANTES KLIMA, JEDES KLIMA IN JEDER KLIMAZONE UNSERER ERDE HAT SICH SCHON IMMER GEÄNDERT. Liebe Kommission: Wie sollen wir das Klima dann Eurer Meinung nach schützen, wenn es mit der Energiewende nicht klappt? Sollen wir dazu vielleicht doch erst mit dem Wetterschutz anfangen? Wir fragen zwischenzeitlich mal bei prominenten Karnevalsvereinen nach, wie die fachlich über den Klimaschutz denken.  EIKE hätte Eurem Gutachten allerdings Folgendes hinzugefügt: „Die Forschung an inhärent sicheren Brutreaktoren der neuen Generation, die praktisch keinen radioaktiven Abfall mehr erzeugen“ entfaltet umgekehrt genau die gewünschte Wirkung von technologischer Innovation. Ihr solltet mal darüber nachdenken und Euer Gutachten ergänzen!

Nun darf man sich aber nicht zu früh freuen. Heinrich Duepmann von NAEBe.V. (Stromverbraucherschutz)  schreibt nämlich zum Thema: „Ich bekam heute eine große Zahl von Emails und auch Anrufe von sehr erfreuten Freunden, die hoffen, dass nun der Spuk ein Ende hat. Leider ist hier der Wunsch der Vater des Gedanken und sie haben wohl die Nachricht nicht sorgfältig gelesen. Die Energiewende steht nicht zur Disposition! Es geht ausschließlich um das EEG, von dem wir schon seit bald 2 Jahren behaupten, dass man das ersetzen wird durch ein anderes Entgelt-Verfahren. Solange man die Zielvorgaben zur CO2-Reduktion noch verstärkt (55% statt 50% bis 2030 gemäß Koalitionsvereinbarung) statt sie aufzugeben, fördert man damit den weiteren Ausbau dieses Unfugs. Für die Nimbys aus dem Süden kommt es vermutlich noch schlimmer, da sie wegen verstärkten Kostendrucks noch stärker von dem WKA-Ausbau betroffen sein werden, als bisher befürchtet. (Bayerischer Windstrom ist nun mal preisgünstiger als Offshore-Strom).  Die vorläufig lachenden Dritten werden die Trassen-Gegner sein, für die der Strom ja aus der Steckdose kommt. Wie nun die Neuregelung sein wird, ist noch unklar. Es kann ein reines Quotenmodell sein, es kann aber auch ein überlagertes System von Quotenmodell / Ausschreibeverfahren mit Jahrespflichtmengen sein. Eines ist jedenfalls klar: Da die Bäume der EEG-Profiteure bisher nicht in den Himmel gewachsen sind, wird eine gegen Null schrumpfende Marge nicht wesentlich die Kosten senken, im Gegenteil die zusätzlichen Kostentreiber wie Trassen (vielleicht nicht die Nord-Süd) und Schattenkraftwerk-Vorhalte-Kosten kommen ja erst noch. Dass allerdings gewaltiges Geschütz aufgefahren werden muss – und da ist diese Studie erst der Anfang – hängt schon damit zusammen, dass man den 1,35 Millionen EEG-Profiteuren den Geldhahn zudrehen muss. Und man wird es tun, dass lässt schon aus Punkt 2 ableiten – unseren Gegnern ist schon klar, dass die Stunde der Wahrheit kommt. In diesem Zusammenhang sei auch das Märchen Bestandsschutz kurz als solches erklärt. Das Ankassieren von Beträgen für eine (fast) wertlose Leistung (Energiewende-Strom) ist sittenwidrig. Sittenwidrige Vertragserfüllung kann man nicht einklagen.

Zurück zum EEG, denn nun wird es spannend: Wie zieht sich Angela aus der Affäre? Vielleicht lassen sich ja irgendwelche Zusammenhänge mit  Verwerflichem wie z.B. Kinderpornographie und den Mitgliedern der besagten Expertenkommission konstruieren, so dass man sie elegant los werden kann. Dem Beraterstab von Angela wird schon etwas einfallen. Auffällig ist auch das dröhnende Schweigen von ARD und ZDF. In keiner ihrer aktuellen Sendungen tauchte dieses Thema auf.

Doch uns fallen hierzu nur folgend Fragen ein: Warum fasst sich nicht einmal irgendein mutiger Bürger oder eine mutige Institution ein Herz und zeigt Angela Merkel bei der Bundes-Staatanwaltschaft wegen Untreue an (Abschalten der deutschen Kernkraftwerke). Warum gibt es keine Anzeigen gegen deutsche Landes- und Bundesbehörden wegen Gefährdung der Sicherheit von Leib und Leben von deutschen Bürgern infolge Einspeisung von immer mehr Wind- und Sonnenstrom, der die Stabilität der Stromnetze zerstört? Wo bleiben hier die sonst so eifrigen Staatsanwälte? Man darf gespannt sein, wie lange sich unsere Bevölkerung noch das Treiben dieser bescheuerten und bekloppten Politikerkaste bieten lässt.




GAU zuhause? Die Bundesregierung auf dem Wege zu einer oberirdischen Endlagerung hochradioaktiver Abfälle – Das Standortauswahlgesetz macht es möglich –

Die politische Prämisse seit Jahren bei allen Parteien: Um die Entsorgung radioaktiver Abfälle hat sich jene Generation zu kümmern, die auch den Nutzen der Kernenergie hat. Es sei unverantwortlich, dieses Problem nachfolgenden Generationen aufzubürden.

Als eine der sichersten Methoden der Entsorgung  radioaktiver Abfälle sah die Bundesregierung  bislang das Einbringen der radioaktiven Abfälle in Gesteinsformationen des geologischen Untergrundes an. Nach eigener Aussage /1/ hatte sie bereits Anfang der 60er Jahre begonnen, Vorbereitungen für die Endlagerung radioaktiver Abfälle zu treffen. Steinsalzformationen nehmen nach der Erkenntnis der Bundesanstalt für Geowissenschaften und Rohstoffe dabei aufgrund ihrer für die Endlagerung hochradioaktiver Abfälle günstigen Eigenschaften eine Vorrangstellung ein /2/. 

Die Bundesregierung bekräftige die Notwendigkeit der Endlagerung in der Bundestagsdrucksache von 1977 /3/: „Eine Zwischenlagerung kann aus grundsätzlichen Sicherheitserwägungen die endgültige Beseitigung der radioaktiven Abfälle nicht ersetzen, sondern nur als befristete Übergangslösung zugelassen werden.“ Mit Blick auf die aktuelle Situation gewinnt  folgende Aussage in gleicher Drucksache an Gewicht: „Eine langfristige Zwischenlagerung über Jahrzehnte schafft wegen der notwendigen Maßnahmen zur Sicherung der Zwischenlager zusätzliche Sicherheitsprobleme.“

Trotz anerkannter Notwendigkeit der Endlagerung waren die politischen Debatten hierüber in den Folgejahren von zum Teil heftigen Auseinandersetzungen geprägt. Die fehlende Endlagerung diente als Argument gegen die Nutzung der Kernenergie. Im Jahre 2000 erließ  die Bundesregierung der 14. Legislaturperiode gar ein zehnjähriges Moratorium der Endlagererkundung  am Salzstock Gorleben.  Ein Licht am Ende des Tunnels tauchte im Koalitionsvertrag von 2009 auf. Dort heißt es zum Thema „Nukleare Sicherheit“: „Eine verantwortungsvolle Nutzung der Kernenergie bedingt auch die sichere Endlagerung radioaktiver Abfälle. Wir werden deshalb das Moratorium zur Erkundung des Salzstocks Gorleben unverzüglich aufheben und ergebnisoffen die Erkundungsarbeiten fortsetzen. Wir wollen, dass eine International Peer Review Group begleitend prüft, ob Gorleben den neuesten internationalen Standards genügt. Der gesamte Prozess wird öffentlich und transparent gestaltet.“  

Ein Gesetz gegen Glaubwürdigkeit und Vernunft

Das Licht erwies sich als eine Fata Morgana. Es wurde schlimmer als je zuvor: Zum Ende der 17. Legislaturperiode einigten sich die Regierungsparteien CDU/CSU und FDP in seltener Einmütigkeit zusammen mit SPD und Bündnis 90/Die Grünen sowie den Ländern auf ein „Gesetz zur Suche und Auswahl eines Standortes für ein Endlager für Wärme entwickelnde radioaktive Abfälle und zu Änderung anderer Gesetze“, kurz Standortauswahlgesetz genannt.

Dieses Gesetz ist eine 180 Grad- Wende zum Koalitionsvertrag. In dem Gesetz heißt es nunmehr: „Die bergmännische Erkundung des Salzstocks Gorleben wird mit Inkrafttreten dieses Gesetzes beendet.“ Und etwas später im Gesetzestext: „Die vorläufige Sicherheitsuntersuchung des Standortes Gorleben wird spätestens mit Inkrafttreten dieses Gesetzes ohne eine Eignungsprognose für den Standort Gorleben eingestellt.“

Die Suche nach einem Standort für die Endlagerung von Wärme entwickelnden radioaktiven Abfälle in einer tiefen geologischen Formation beginnt wieder von vorn. Erneut eine Entscheidung aus parteipolitischem Kalkül ohne Vernunft und Maß, nur um  auch bei SPD und Die Grünen Akzeptanz für ein Endlager für Wärme entwickelnde Abfälle zu erreichen. Was eben noch als Bedingung für eine verantwortungsvolle Nutzung  der Kernenergie galt, wird ad acta gelegt und auf den Sankt Nimmerleinstag vertagt. Um das Verantwortungsbewusstsein der Politiker scheint  es nicht gut bestellt zu sein.

In den zurückliegenden 37 Jahren hat es keine Bundesregierung vermocht, den 1977 benannten Standort Gorleben abschließend zu erkunden. Ihre gesetzlich auferlegte Verpflichtung,  Endlager einzurichten, bleibt weiterhin unerfüllt. Nach Lage der Dinge wird sie auch in den nächsten Jahrzehnten ihrer Verpflichtung nicht gerecht.

Dabei lassen die Ergebnisse der mehrjährigen – aber noch nicht vollständig abgeschlossenen – Erkundung des Salzstockes Gorleben die Eignung des Salzstockes als Endlager erwarten. Die Bundesregierung bestätigte dies ausdrücklich  in ihrer Vereinbarung mit den Energieversorgungsunternehmen im Juni 2000. Gleichwohl wurde die weitere Erkundung für 10 Jahre ausgesetzt. Erst ab 2010 wurden die bisherigen Befunde erneut einer Bewertung unterzogen, die zum gleichen Ergebnis führte: Keine Erkenntnisse, die gegen eine Eignung sprächen. Gegenteilige Äußerungen von Politikern, denen der Salzstock ungeeignet erscheint,  sind ideologisch motiviert und haben keinen fachlichen Hintergrund.

Wie es aussieht, werden 37 Jahre intensiver Standortauswahl und bergmännischer Erkundung des Salzstockes in den Wind geschrieben und das trotz nachweislich aussichtsreicher  Eignung des Salzstockes. Rund 1,6 Milliarden Euro sind bisher von den Abfallverursachern für die Erkundung aufgebracht worden, Geld, das über den Strompreis von den Stromkunden bezahlt worden ist. Liefert die Bundesregierung keine schlüssige Begründung für die Aufgabe des Standortes Gorleben, riskiert sie eine Schadensersatzklage.

Als Grund für den Neustart der Standortsuche heißt es im Gesetz:

„Ziel des Standortauswahlverfahrens ist, in einem wissenschaftsbasierten und transparenten Verfahren für die im Inland verursachten, insbesondere hoch radioaktiven Abfälle den Standort für eine Anlage zur Endlagerung nach § 9a Absatz 3 Satz 1 des Atomgesetzes in der Bundesrepublik Deutschland zu finden, der die bestmögliche Sicherheit für einen Zeitraum von einer Million Jahren gewährleistet.“

„Das Standortauswahlverfahren soll bis zum Jahre 2031 abgeschlossen sein.“

Im Umkehrschluss bedeutet diese gesetzliche Formulierung, dass die bisherige Standortauswahl auf keinem wissenschaftlichen und transparenten Verfahren beruhte. Das ist eine unglaubliche, zudem völlig haltlose Kritik an Bundesbehörden, Wissenschaftlern und Sachverständigen, die für diese Auswahl verantwortlich waren.  Auch steht sie im krassen Gegensatz zu dem unten zitierten Ergebnis der Gorleben Untersuchungskommission.

Bereits in den 60er Jahren wurde Salzgestein als Endlager für alle Arten radioaktiver Abfälle als vorteilhaft gegenüber Ton und Granit durch die Vorgängerbehörde der heutigen Bundesanstalt für Geowissenschaften und Rohstoffe ausgewählt. Es würde den Rahmen sprengen, den Vergleich der Gesteinsarten hier darzulegen. Wichtig ist vielmehr, dass im Jahre 2006 die Bundesanstalt erneut einen Bericht vorlegte, in dem nach nochmaliger wissenschaftlicher Expertise Salzgestein der Vorzug eingeräumt wird. Also beschränkten sich damals Bund und Länder zu recht auf einen Standort mit Salzstock. Insgesamt wurden in den 70er Jahren über 140 potenzielle Standorte nach wissenschaftlich gesicherten Auswahlkriterien unterzogen, die heutigen, auch internationalen Anforderungen  entsprechen. Am Ende dieses Prozesses blieben drei Standorte übrig, von denen 1977 Gorleben ausgewählt wurde. Im gleichen Jahr wurde die so genannte  Gorleben-Kommission des Landkreises Lüchow-Dannenberg eingesetzt, die zunächst mit Kommunalpolitikern, später auch mit Verbandsmitgliedern besetzt wurde. Bis zu ihrer Auflösung im Jahr 1991 hat sie in 70 Sitzungen die Entwicklungen und Ergebnisse der Standortuntersuchung verfolgt und darüber berichtet.

Eine Bestätigung für das sachgerechte Vorgehen der Standortauswahl wie der anschließenden Erkundung lieferte die Beschlussempfehlung des ersten Untersuchungsausschusses des Deutschen Bundestages /4/. In der zusammenfassenden Bewertung der Regierungsparteien heißt es:

„Auch die Entscheidung für den Salzstock Gorleben als Erkundungsstandort für ein mögliches Endlager im Jahr 1977 ist nachvollziehbar, schrittweise und nach wissenschaftlich abgesicherten Kriterien erfolgt. Sie entsprach nicht nur dem damaligen Stand von Wissenschaft und Technik, sondern war auch aus heutiger Sicht geradezu beispielhaft und fortschrittlich. Zwei verschiedene Auswahlverfahren – durch die Kernbrennstoffwiederaufarbeitungsgesellschaft mbH (KEWA) im Auftrag des Bundes und  durch einen interministeriellen Arbeitskreis (IMAK) des Landes Niedersachsen – kamen unabhängig voneinander zu dem Ergebnis, dass der Standort Gorleben nach den damals anzulegenden und angelegten Bewertungsmaßstäben der geeignetste Standort ist.“

Auch an sicherheitstechnischen Regelungen gab es kein Defizit. Die Anforderungen an einen Standort  sowie dessen Erkundung, wie auch die Planung und den Betrieb eines Endlagers wurden bereits 1983 als „Sicherheitskriterien für die Endlagerung radioaktiver Abfälle in einem Bergwerk“ /5/ vom damals zuständigen  Bundesminister des Innern  vorgegeben. Diese Anforderungen wurden nach aktuellen, auch internationalen Erfordernissen überarbeitet und durch die „Sicherheitsanforderungen an die Endlagerung wärmeentwickelnder radioaktiver Abfälle“ /6/ im Juli 2009 ersetzt. Unter anderem wird darin gefordert, „die Integrität des Gebirgsbereiches muss über einen Zeitraum von einer Million Jahren sichergestellt sein.“

Fazit also:

Auswahl und Erkundung des Standortes Gorleben erfolgte nach wissenschaftlichen Kriterien, die  noch heute,  auch gemessen an internationalen Maßstäben, dem Stand von Wissenschaft und Technik entsprechen. Es ist folglich zu erwarten, dass für die erneute Standortauswahl keine entscheidend anderen Kriterien zugrunde gelegt werden als für Gorleben. Es gibt daher keine sachlich-fachlichen Gründe, den Standort Gorleben aufzugeben und einen neuen Standort zu suchen.

Ein sinnloser Vergleich

Neu im Gesetz ist ein vergleichendes Standortauswahlverfahren, „das auf die Ermittlung des im Hinblick auf die Sicherheit bestmöglichen Standortes in Deutschland gerichtet ist,“ so der Wortlaut in der Gesetzesbegründung. Dieses Ziel ist, was trivial und einsichtig ist, denklogisch nicht erreichbar. Dies würde voraussetzen, dass alle potenziellen Standorte untertägig erkundet und dann miteinander verglichen werden müssten. Die Suche des „bestmöglichen“ Standortes durch vergleichende Standortuntersuchungen ist faktisch unmöglich, da durch die Variabilität geologischer Formationen sowie die möglicherweise beabsichtigte Einbeziehung unterschiedlicher Wirtsgesteine (Salz, Ton, Granit) grundsätzlich unterschiedliche Endlagerkonzepte (technisch und geotechnisch) erforderlich sind. Die Bewertung der Endlagersicherheit kann daher nur für einen konkreten Standort auf der Grundlage des Gesamtkonzeptes erfolgen.

Ein Vergleich der Ergebnisse wäre zudem wegen der Komplexität der Systeme nicht objektivierbar, ein eindeutiges Ranking daher nicht möglich /7/.

Auch ist international eine untertägige Erkundung mehrerer Standorte mit dem Ziel den „bestmöglichen“ Standort zu finden, weder Stand von Wissenschaft und Technik noch wird in anderen Ländern ein derartiges Vorgehen angestrebt. International werden Vergleiche im Rahmen von Standortauswahlverfahren allenfalls auf der Basis der Ergebnisse von übertägigen Erkundungen beziehungsweise Bohrungen wie in Finnland und Schweden im Sinne einer Standortvorauswahl durchgeführt.

Fazit:

Die Auffindung des bestmöglichen Standortes ist nicht realisierbar. Ein Standortvergleich ist wegen der Variabilität geologischer Formationen faktisch nicht möglich. Die Endlagersicherheit kann nur in Verbindung mit dem Endlagerkonzept bewertet werden. Letzteres liegt nur für Salzgestein vor, nicht aber für Ton oder Granit.

Dem Auswahlverfahren soll eine Erörterung und Klärung von Grundsatzfragen der Endlagerung, insbesondere auch von Ausschlusskriterien, Mindestanforderungen und Abwägungskriterien für die Standortauswahl sowie die Prüfung von Alternativen  in einer pluralistisch zusammengesetzten Kommission vorausgehen. Hier stellt sich  erneut die Frage, ob die Bundesregierung ihrem mit Fachleuten besetzten und mit der Einrichtung von Endlagern betrauten Bundesamt für Strahlenschutz wie auch ihrer Beratungskommission für Entsorgungsangelegenheiten (ESK) keine ausreichende Fachqualifikation zugesteht. Überdies wird eine pluralistisch besetzte  Kommission in der beabsichtigten Größe erfahrungsgemäß wohl kaum zu einem einheitlichen Votum bei der Klärung der ihr zugewiesenen Aufgaben gelangen. Demokratische Abstimmungen aber sind in Sicherheitsfragen, und um solche geht es, nicht zulässig.

Zudem muss sich die Bundesregierung den Vorwurf gefallen lassen, dass in der Vergangenheit offensichtlich geschludert wurde, wenn erst jetzt eine Klärung der Grundsatzfragen der Endlagerung herbeigeführt  werden soll. Die Beschlussempfehlung der Bundesregierung  im Bericht des ersten Untersuchungsausschusses  /4/  offenbart dagegen ein vollkommen anderes Verständnis vom voran gegangenen  Auswahlverfahren. Es wurde ein positives Fazit über die Standortauswahl Gorleben gezogen, Defizite waren nicht festgestellt worden. 

Wo keine Bereitschaft ist, ist auch kein Weg

Ein an „gesellschaftlichen Partizipationsprozessen orientierter  Auswahlprozess“ soll zur Grundlage einer Entscheidung gemacht werden. Hierbei wird die Öffentlichkeit wohl in einem stärkeren Maße einbezogen, als es in der Vergangenheit der Fall war. Unbewiesen ist jedoch, ob dadurch tatsächlich das Ziel einer höheren Akzeptanz für einen Endlagerstandort erreicht wird. Wahrscheinlich wird es dieselben politischen Auseinandersetzungen geben wie in der Vergangenheit. Dann allerdings nicht nur an einem Standort, sondern bereits bei mehreren zur Erkundung vorgesehenen Standorten /8/.

Zu keiner Zeit haben sich alle im Bundestag vertretenen Parteien eindeutig und mit Nachdruck zur Errichtung eines Endlagers bekannt und eingesetzt. Schlimmer noch, jede sich bietende Gelegenheit wurde genutzt, um die Standorterkundung zu verzögern und obendrein die Eignung des Standortes ständig infrage zu stellen, obwohl bereits positive wissenschaftliche Erkenntnisse aus den Erkundungen gezogen worden sind. Gebetsmühlenartig konnte so die fehlende Endlagerung als Argument  gegen die Kernenergienutzung ins Feld geführt werden. In ihrer ständigen kontroversen Auseinandersetzung um die Endlagerung boten die Parteien ein verheerendes Bild in der Öffentlichkeit und schürten auf diese Weise Angst und Widerstand bei Bürgern gegen jegliches Endlagervorhaben. Ein Paradebeispiel bietet das  Forschungsbergwerk Asse. Längst bekannte schwach radioaktive Sickerwasser wurden urplötzlich politisch interessant, um sowohl die Asse selbst in Misskredit zu bringen, aber auch um für das Endlagervorhaben in Gorleben  als schlechtes Vorbild zu dienen. Die „Geister“, die die Politiker damit hervorriefen, werden sie nicht mehr los. Überdies ist trotz des mehrheitlichen Bekenntnisses zum Standortauswahlgesetz nicht glaubhaft, dass die Kernenergiekritiker unter den Politikern sich nunmehr künftig für die Endlagerung aussprechen werden, besonders wenn sich Widerstand an den ausgesuchten Standorten aufbaut.

Die Mitsprache der Öffentlichkeit bei Großvorhaben, insbesondere von der  vom Vorhaben betroffenen Bevölkerung, entspricht dem heutigen Zeitgeist. Es darf aber kein Zweifel darüber aufkommen, dass die Entscheidung über die sicherheitsgerichteten Auswahlkriterien sowie über Eignungsfragen auf der Basis über- und untertägiger Erkundung von Fachleuten getroffen werden müssen und nicht von Politikern oder der Öffentlichkeit.

Das Standortauswahlgesetz: Ein politisches Blendwerk

Es gibt keine sachlich-fachlichen Gründe den Standort Gorleben ruhen zu lassen oder gar aufzugeben. Die Eignungshöffigkeit des Salzstockes  wurde wiederholt belegt.

Auswahl und Erkundung des Standortes Gorleben erfolgte nach wissenschaftlichen Kriterien, die  noch heute  auch gemessen an internationalen Maßstäben dem Stand von Wissenschaft und Technik entsprechen.

Ein Standortvergleich mit dem Ziel, den bestmöglichen Standort zu finden – ein Hauptanliegen des Standortauswahlgesetz -,  ist nicht realisierbar.

Die mit der Klärung von Grundsatzfragen der Endlagerung beauftragte Kommission wird nach Lage der Dinge, wenn überhaupt, zu keinen entscheidend anderen Ergebnissen kommen, wie sie bereits für Auswahl und Erkundung von Gorleben vorgelegen haben.

Bei dem Standortauswahlgesetz handelt es sich nicht um einen fachlich-wissenschaftlichen gebotenen Prozess, wie auch in /8/ festgestellt wurde. Vielmehr  handelt es sich um den „kleinsten gemeinsamen Nenner“ der zustimmenden Parteien, um das Thema Endlagerung zwischen ihnen streitfrei zu stellen. Die Dauerhaftigkeit dieses zu erheblichen finanziellen Lasten der Abfallverursacher getroffenen Konsenses  ist zweifelhaft.

Die tatsächliche Quintessenz des Standortauswahlgesetzes aber ist die, dass es infolge der im Gesetz vorgesehenen Zeitabläufe und öffentlichen Beteiligungen wie auch die Erweiterung der Klagebefugnis für die Standortgemeinden ganz sicher vor 2060 kein untertägiges Endlager für Wärme entwickelnde radioaktive Abfälle geben wird. Auch 2080 wäre keineswegs abwegig.

Insbesondere wird dieses Klagerecht das Standortauswahlverfahren um eine weitere zeitraubende „Schleife“ verkomplizieren und verlängern /9/. Zudem stellt es eine eindeutige Abkehr von der Drittschutzdogmatik dar, wonach nur bei Verletzung der Rechte von unmittelbar Betroffenen Klagebefugnis für diese Personen besteht. Die im letzten Moment ins Gesetz aufgenommene Erweiterung der Klagebefugnis hat präjudizierende Wirkung und wird sich von daher noch als belastende Hypothek bei künftigen Großprojekten erweisen.

Die Zwischenlagerung in Ewigkeit

Nicht nur, dass die Bundesregierung mit dem Standortauswahlgesetz den Grundsatz der Generationengerechtigkeit bei der Entsorgung radioaktiver Abfälle aufgibt, auch entgegen früherer Erklärungen (siehe oben) strebt sie erklärtermaßen die extrem langfristige oberirdische Zwischenlagerung an und schafft damit faktisch oberirdische Endlager für hochradioaktive Abfälle. Wenn ein Politiker in den 90er Jahren oder früher jemals einen solchen Vorschlag geäußert hätte, es hätte im Bundesparlament einen Sturm der Entrüstung gegeben. Es klingt sarkastisch, aber tatsächlich werden wohl die meisten der Politiker, die diesem Gesetz zugestimmt haben, eine etwaige Realisierung der untertägigen Endlagerung nicht miterleben.

50, 60 oder noch mehr Jahre müssen verglaste hochradioaktive Abfälle und abgebrannte Brennelemente in Castor-Behältern im Zwischenlager Gorleben über den heutigen Zeitpunkt hinaus aufbewahrt werden, einem Lager, das einstmals von der niedersächsischen Umweltministerin Griefahn wegen seiner leichten Bauweise heftig verunglimpft worden ist. Ein vergleichbares Zwischenlager mit den Brennelementkugeln des Hochtemperaturreaktors steht in Ahaus und weitere Brennelement-Zwischenlager wurden an sämtlichen Kernkraftwerksstandorten errichtet. Ihnen allen steht die dauerhafte Zwischenlagerung bevor. Die Lagerung abgebrannter Brennelemente in Kernkraftwerksnähe war von der rot-grünen Bundesregierung in 2001 gesetzlich verlangt worden. Die Genehmigung sämtlicher Zwischenlager ist auf 40 Jahre befristet, von denen aber je nach  Zeitpunkt ihrer Genehmigung schon etliche Jahre verstrichen sind. Sämtliche abgebrannten Brennelemente enthalten zwar noch einen nutzbaren Anteil an den Kernbrennstoffen Uran und Plutonium, ihre Wiederaufarbeitung im Ausland aber wurde durch ein rechtliches Transportverbot zu den Wiederaufarbeitungsanlagen ebenfalls in 2001 unterbunden.

Welchen gerichtlichen Unwägbarkeiten Zwischenlager ausgesetzt sein können, wird am Beispiel des Kernkraftwerkes Brunsbüttel deutlich. Dem dortigen Zwischenlager entzog das OVG Schleswig im Juni 2013 die Genehmigung, die es zehn Jahre zuvor bekommen hatte. In der mündlichen Urteilsbegründung hieß es, „das Bundesamt für Strahlenschutz habe es versäumt, die Folgen eines Absturzes eines Airbus A380 auf das Zwischenlager vor der Genehmigungserteilung zu ermitteln, obwohl die hierfür erforderlichen Daten vorlagen. Das Gericht habe offen gelassen, ob dieses Ermittlungsdefizit durch eine nachträgliche Untersuchung der Behörde aus dem Jahr 2010 gegenstandslos geworden sei; insoweit bestünden aber jedenfalls Zweifel gegenüber der verwendeten Untersuchungsmethodik. 

Politischer Konsens „heiligt“ die Mittel. Oder?

Dieses Urteil ist aus einem weiteren Grund bedeutsam. Die Einigung mit der niedersächsischen Landesregierung über das Standortauswahlgesetz „konnte nur zu dem Preis erzielt werden, dass das zentrale Zwischenlager Gorleben, das als einziges Zwischenlager in Deutschland über eine Genehmigung zur Lagerung der aus Frankreich und Großbritannien zurückzunehmenden Castor-Behältern verfügt, eben für diese Behälter ausgeschlossen wird. Gleichzeitig haben Bund und Länder vereinbart, bis Januar 2014 drei Standorte in drei  Bundesländern für die Zwischenlagerung dieser Behälter zu finden“ /9/. Bis auf zwei Bundesländer haben alle anderen signalisiert, keine aus dem Ausland zurückkommenden Castor-Behälter aufzunehmen. Doch angesichts des OVG-Urteils geschieht zunächst nichts.

Ziemlich perfide wirkt vor diesem Hintergrund deshalb eine Regelung im Standortauswahlgesetz, wonach den Betreibern von Kernkraftwerken aufgegeben wird, dafür zu sorgen, dass die aus der Wiederaufarbeitung stammenden mit verglasten hochradioaktiven Abfällen beladenen Castor-Behältern in Lager am Kernkraftwerk aufbewahrt werden. Die dazu erforderlichen Genehmigungsverfahren werden zudem nicht ohne Umweltverträglichkeitsprüfungen und vermutlich auch nicht ohne Klageverfahren zu haben sein, die sich außerdem über mehrere Jahre hinziehen können /9/. Dieser Konsens wurde vom ehemals federführenden Umweltminister als „Durchbruch“ bezeichnet. Der Konsens trägt eher das Etikett „Einbruch in privatwirtschaftliche Verantwortlichkeiten.“ 

Welchen Wert und welche Zuverlässigkeit daher politische Aussagen haben wie die im Koalitionsvertrag von 2006  „Die Bundesregierung geht die Lösung der Endlagerfrage zügig und ergebnisorientiert an und beabsichtigt, in dieser (!) Legislaturperiode zu einer Lösung zu kommen“, mag jeder für sich beantworten. Schwerwiegender aber ist, dass die eingangs erwähnten grundsätzlichen Sicherheitserwägungen, die oberirdische Zwischenlagerung nur als befristete Übergangslösung zu akzeptieren, politischen Erwägungen geopfert werden. Das schafft kein Vertrauen in der Bevölkerung.

Dr. Klaus Tägder Februar 2014

Über den Autor

Dr. Klaus Tägder – Diplomphysiker –

Berufliche Tätigkeiten als:

       wissenschaftlicher Angestellter am Institut für Nuklearmedizin der Med. Hochschule Hannover zuständig für den Betrieb des Forschungsreaktors und diverse medizinische Untersuchungen (6 Jahre)

       Sachverständiger beim TÜV Hannover, Bereich Kerntechnik, überwiegend als Projektleiter für das vormals geplante Nukleare Entsorgungszentrum Gorleben und für das Castor – Zwischenlager (7 Jahre)

       Wirtschaftsverbandes Kernbrennstoff – Kreislauf e.V., Bonn und Berlin (26 Jahre, davon 10 Jahre Geschäftsführer) 

Wissensgebiete:

       Strahlenphysik (Strahlenschutz, -wirkung, -messungen, -abschirmungen)

       Kernbrennstoffe (Verarbeitung, Anreicherung, Wiederaufarbeitung, Kernmaterialkontrolle)

       Anlagensicherheit, Objektschutz

       Radioaktive Abfälle (Behandlung, Transporte, Lagerung, Endlagerung)

       Atomrecht, Strahlenschutzrecht

Literatur

/1/ Bundestagsdrucksache 9/1231  vom 22.12.1981

/2/ Zur friedlichen Nutzung der Kernenergie, Information des Bundesministers für Forschung und Technologie, 1977, ISBN 3-88135-000-4

/3/ Bundestagsdrucksache 8/570 vom 08.06.1977

/4/  Deutscher Bundestag, Beschlussempfehlung und Bericht des 1. Untersuchungsausschusses nach Artikel 44 des Grundgesetzes vom 23.05. 2013, Drucksache 17/13700

/5/ Bundesministerium des Innern (BMI), Sicherheitskriterien für die Endlagerung radioaktiver Abfälle in einem Bergwerk, GMBl. 1983, S.220

/6/ Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU), Sicherheitsanforderungen an die Endlagerung wärmeentwickelnder radioaktiver Abfälle, Juli 2009

/7/ http://www.eike-klima-energie.eu/climategate-anzeige/atomare-endlagerplanung-ein-endloser-akt-politischen-unwillens/

/8/ Deutscher Bundestag Plenarprotokoll 17/251 vom 28. Juli 2013, Anlage 5, Erklärung nach § 31 GO des Abgeordneten Dr. Michael Paul (CDU/CSU)

/9/ Das Standortauswahlgesetz oder „Des Kaisers neue Kleider“, Ulrike Feldmann, Atomwirtschaft (atw) Vol. 58 (2013), S. 543f




Klimakonsens-Betrügereien

Genauso klar gesagt: Wissenschaft funktioniert nicht über Konsens. Wissenschaft macht keine Fortschritte durch Aufrufe, ihr gefälligst zu folgen; tatsächlich gab es wesentliche wissenschaftliche Fortschritte gewöhnlich von außerhalb des Konsens‘. Dafür gibt es viele Beispiele, von Galilei bis Einstein. (Man kann dies auch anders ausdrücken: Wissenschaftliche Wahrhaftigkeit hängt nicht von Linientreue ab). Mit anderen Worten, schon die bloße Herausstellung eines wissenschaftlichen Konsens‘ ist unwissenschaftlich.

Der Grad des Konsens’ hängt auch von der Art und Weise der Fragestellung ab. Zum Beispiel können wir einen Konsens von 100% erreichen, falls die Frage lautet: „Glauben Sie an die Klimaänderung?“ Wir können fast 100% erreichen mit der Frage: „Glauben Sie, dass die Menschen einen kleinen Einfluss auf das Klima haben?“ Diese letzte Frage würde auch lokale Effekte einschließen wie Verstädterung, das Roden von Wäldern, Landwirtschaft usw.

Also muss man vorsichtig sein und sich immer fragen: Wie genau lautete die Frage, für die ein Konsens in Anspruch genommen worden ist?

Unterwanderung von Peer Review

Schließlich sollten wir noch darauf hinweisen, dass ein Konsens fabriziert werden kann – selbst wenn es gar keinen Konsens gibt. Zum Beispiel ist es sehr populär geworden zu behaupten, dass 97% aller Wissenschaftler hinter AGW stehen. Hier lautet die Schlüsselfrage: Welche Veröffentlichungen sind Konsens und wie genau sieht die Unterstützung dafür aus?

Dank der Enthüllungen der Klimagate-E-Mails haben wir jetzt einen skeptischeren Blick auf den Prozess, mit dessen Hilfe Veröffentlichungen überprüft werden. Wir wissen jetzt, dass der Prozess der Begutachtung, einst von Vielen als ‚goldener Standard‘ angesehen – manipuliert werden kann. Und tatsächlich wurde er auch manipuliert, und zwar durch eine Bande von Klimawissenschaftlern aus UK und den USA, die sehr offen über ihr Ziel gesprochen haben, abweichende Meinungen von der Veröffentlichung auszuschließen. Wir wissen aus den gleichen E-Mails auch, dass Herausgeber von Zeitschriften durch bestimmte Aktivisten unter Druck gesetzt werden können.

In jedem Falle kann der Begutachtungsprozess leicht durch den Herausgeber verbogen werden, der gewöhnlicherweise die Begutachter aussucht. Und einige Herausgeber missbrauchen ihre Position, um persönliche Vorlieben voranzubringen.

Da gibt es beispielsweise den Fall eines ehemaligen Herausgebers von Science, der sehr offen seinen Glauben an DAGW kundgetan hat. Er hat effektiv die Veröffentlichung aller Studien hintertrieben, die gegen seine Verzerrungen sprachen. Schließlich musste er beschämt der gegensätzlichen Ansicht eines Klimaskeptikers Gehör verschaffen, die auf soliden wissenschaftlichen Beweisen beruhte. Aber natürlich hat er das letzte Wort in dieser Debatte für sich reklamiert.

Meine gelegentlichen wissenschaftlichen Mitautoren David Douglass (University of Rochester) und John Christy (University of Alabama) beschreiben ein besonders krasses Beispiel der eklatanten Subversion einer Begutachtung – alles belegt durch die Klimagate-E-Mails – hier.

Das Ganze unübersichtlich machen

Des Weiteren sollten wir die Möglichkeit erwähnen, die Öffentlichkeit und oftmals auch viele Wissenschaftler zu verwirren – durch clevere Formulierungen. Dazu möchte ich nur zwei Beispiele nennen:

Oft wird darauf hingewiesen, dass es im Wesentlichen während der letzten 15 Jahre keinen Erwärmungstrend gegeben habe – obwohl der Antrieb durch Kohlendioxid stetig zugenommen hat. Gleichzeitig behaupten Klimawissenschaftler, dass das vorige Jahrzehnt das Wärmste seit Beginn von Thermometermessungen gewesen sei.

Wie das Schicksal so spielt, stimmen beide Statements, und sie widersprechen sich auch nicht. Wie ist das möglich?

Wir haben es hier mit einem einfachen Fall von Verwirrung zu tun. Einerseits gibt es den Temperaturtrend, der seit mindestens 15 Jahren nahezu Null ist. Andererseits gibt es ein Temperaturniveau, das das Höchste seit dem Ende der Kleinen Eiszeit um das Jahr 1800 erreicht hat.

Man beachte, dass die Begriffe ‚Niveau’ und ‚Trend‘ ziemlich unterschiedliche Konzepte beschreiben – und sogar unterschiedliche Einheiten aufweisen. Das Niveau wird in Grad Celsius gemessen, der Trend in Grad Celsius pro Jahrzehnt. (Das ist ein sehr allgemeines Problem. Zum Beispiel verwechseln viele Leute elektrische Energie mit elektrischer Leistung. Die eine wird gemessen in Joules oder Kilowatt-Stunden, die andere in Kilowatt).

Hier könnte es helfen, an die Preise am Aktienmarkt zu denken. Der Dow-Jones-Index ist seit vielen Wochen mehr oder weniger flach verlaufen und schwankte zwischen 15.000 und 16.000, was im Wesentlichen einen Trend Null belegt; aber er liegt auf dem höchsten Niveau seit Einführung des Index‘ im Jahre 1896.

Dies ist nur ein Beispiel dafür, wie Klimawissenschaftler die Öffentlichkeit verwirren können – und oftmals auch sich selbst – nämlich zu glauben, dass es hinsichtlich DAGW einen Konsens gibt. Betrachten wir einmal zwei Schlagzeilen aus jüngster Zeit:

 „UN: 2013 war das sechstwärmste Jahr, langzeitlicher Erwärmungstrend bestätigt“

„Temperaturen in den USA im Dez./Jan. waren die drittkältesten in 30 Jahren“

Beides ist korrekt – aber aus keiner dieser Schlagzeilen geht die wichtige Tatsache hervor, dass der Trend seit mindestens 15 Jahren flach war – was die Treibhaus-Klimamodelle falsifiziert, die allesamt eine starke zukünftige Erwärmung vorhersagen.

Und natürlich basieren alle politischen Maßnahmen der Regierung auf diesen ungültigen Klimamodellen – die schon jetzt als falsch überführt worden sind. Und doch wird im jüngsten IPCC-Bericht vom September 2013 behauptet, dass man sich bzgl. DAGW zu 95% sicher sei! Wie um alles in der Welt kann man so etwas angesichts der aktuellen Temperaturdaten behaupten, ohne das Gesicht zu verziehen?

Ihre lächerliche Antwort: 95% aller Klimamodelle stimmen überein; daher müssen die Beobachtungen falsch sein! Man kann über eine solche Vorstellung von ‚Wissenschaft‘ nur traurig den Kopf schütteln.

Eine andere Fangfrage seitens der Aktivisten, die einen ‚Konsens‘ verkaufen wollen, lautet: „Wenn man ernsthaft erkrankt ist und 99 Ärzte eine bestimmte Behandlung verordnen, würde man dann dem einen Arzt folgen, der eine andere Behandlung für richtig hält?“

Das kommt darauf an. Nehmen wir an, ich bekomme durch eigene Nachforschungen heraus, dass alle 99 Ärzte ihre Informationen aus einem einzigen (anonymen) Wikipedia-Artikel gezogen haben, was dann?

Meinungsumfragen

Beide Seiten der Klimadebatte haben aktiv Meinungsumfragen durchgeführt. Im Jahre 1990, als ich begann, grundlegend involviert zu sein in die Argumente zur Klimaänderung und das SEPP (Science & Environmental Policy Project) ins Leben gerufen habe, beschloss ich, die Experten auszusuchen. Mit begrenzten Mitteln und vor der weiten Verbreitung von E-Mails wählte ich die Funktionäre aus der Mitgliedliste des technischen Komitees der American Meteorological Society AMS – eine Anzahl von weniger als 100 Personen. Ich dachte mir, dass dies die Experten sein müssten.

Ich war so vorsichtig, mich von dieser Umfrage zu isolieren, indem ich mich der Mitarbeit von Dr. Jay Winston versicherte, einem weithin anerkannten Meteorologen und einer, der skeptisch hinsichtlich der Klimaskeptiker ist. Und ich habe zwei Studenten ohne ausgeprägte Erfahrung in Klimathemen beschäftigt, die die aktuelle Umfrage durchführen und die Rückläufe analysieren sollten.

Dieses Unterfangen zeitigte ein interessantes Ergebnis: Grob die Hälfte der AMS-Experten glaubten, dass es einen signifikanten menschlichen Einfluss auf das Klima geben müsse in Gestalt der Freisetzung von Kohlendioxid – während die andere Hälfte massive Zweifel an der Gültigkeit der Klimamodelle hatte.

Nachfolgende Umfragen, zum Beispiel eine von Hans von Storch in Deutschland, kamen zu ähnlichen Ergebnissen – während die von den Aktivisten durchgeführten Umfragen stets starke Unterstützung für AGW ergeben haben. Ein klassischer Fall ist eine Durchsicht der Abstracts von fast 1000 Studien durch die Wissenschafts-Historikerin Naomi Oreskes (University of California), die im Jahre 2004 in Science veröffentlicht worden ist. Sie behauptete, dass es darin einen fast einstimmigen Konsens hinsichtlich AGW gebe. Allerdings musste Oreskes auf bohrende Nachfragen hinterher klein beigeben und einräumen, dass sie etwa 11.000 Abstracts übersehen hatte – später veröffentlichte sie diskret eine Korrektur in einer späteren Ausgabe von Science.

Andererseits haben unabhängige Umfragen von Zeitungen durch Pew, Gallup und andere angesehene Organisationen in viel größerem Rahmen die Ergebnisse meiner früheren AMS-Umfrage bestätigt. Am interessantesten war jedoch die graduelle Abnahme der öffentlichen Unterstützung über die Jahre für DAGW, die diese unabhängigen Umfragen gezeigt haben.

Ebenfalls über die Jahre gab e seine große Anzahl von ‚Deklarationen, Manifesten und Petitionen‘ – unterschrieben von Wissenschaftlern und dazu gedacht, die öffentliche Meinung zu beeinflussen . Das begann mit der ‚Leipzig-Deklaration‘ im Jahre 1995. Erwähnenswert ist hier auch die Kopenhagen-Diagnose (2009), die dazu gedacht war, einen Hype vor einer UN-Konferenz zu entfachen, der dann kläglich gescheitert ist.

Man kann sicher sagen, dass die Gesamtauswirkungen dieser Umfragen minimal waren, verglichen mit den politischen Konsequenzen der IPCC-Berichte, die zu ( in der Regel gescheiterten) Versuchen geführt haben, international Maßnahmen zu ergreifen, wie im Kyoto-Protokoll (1997 bis 2012). Man sollte hier auch die Oregon-Petition gegen Kyoto erwähnen, die von fast 31.000 Wissenschaftlern und Ingenieuren (zumeist aus den USA) unterschrieben worden ist – darunter fast 10.000 mit akademischen Graden. Was vielleicht noch wichtiger ist, im Juli 1997 hat der US-Senat einstimmig die Byrd-Hagel-Resolution gegen Verträge á la Kyoto beschlossen – was möglicherweise die Clinton-Gore-Administration davon abgehalten hat, dem Senat jemals das Kyoto-Protokoll zur Genehmigung vorzulegen.

Ist Konsens immer noch ein Thema?

Bis hier könnte die Frage eines wissenschaftlichen Konsens‘ weitgehend akademisch geworden sein.  Was zählt, sind die tatsächlichen Klimabeobachtungen, die den öffentlichen Glauben in die DAGW predigenden Klimamodelle erschüttert haben. Die wilden Behauptungen des IPCC wurden durch die nüchterneren, auf Fakten basierenden Veröffentlichungen des NIPCC  widerlegt. Während viele nationale Wissenschaftsakademien und Organisationen immer noch an den sich ständig ändernden ‚Beweisen‘ des IPCC kleben, könnte es bedeutsam sein, dass die chinesische Akademie der Wissenschaften die NIPCC-Berichte übersetzt und eine Zusammenfassung davon veröffentlicht hat.

Der Physiker Prof. Howard Hayden formulierte es so: „Falls die Wissenschaft so sicher wäre wie die Klimaaktivisten behaupten, gäbe es genau ein Klimamodell, und dessen Ergebnisse würden mit den Beobachtungen übereinstimmen. Nun haben aber die Klimamodellierer buchstäblich Dutzende Klimamodelle entwickelt. Sie haben alle eines gemeinsam: sie können nicht die Realität abbilden. Zwar haben sich die Modellergebnisse immer weiter von den Daten entfernt, doch hat die Klimaclique nichtsdestotrotz immer mehr Vertrauen entwickelt – von anmaßend im Jahr 2001 (66% Gewissheit im 3. Zustandsbericht) bis zu sehr arrogant im Jahr 2013 (95% Gewissheit)“.

Es scheint, dass die Klimaaktivisten dem Glauben und der Ideologie folgen – und nicht mehr an Fakten interessiert sind.

S. Fred Singer ist emeritierter Professor an der University of Virginia und Direktor des Science & Environmental Policy Project. Seine Spezialgebiete sind Atmosphären- und Weltraumphysik. Er ist Experte bzgl. Fernerkundung und Satelliten, er war Gründungsdirektor des US Weather Satellite Service und jüngst Vizevorsitzender des nationalen Beratungskomitees für Ozean & Atmosphäre der USA. Er ist leitendes Mitglied des Heartland Institute und des Independent Institute sowie gewähltes Mitglied zahlreicher wissenschaftlicher Organisationen. Er war Mitautor des NYTimes-Bestsellers Unstoppable Global Warming: Every 1500 years.  Im Jahre 2007 gründete er das NIPCC, dessen Vorsitzender er seitdem ist. Diese Organisation hat viele wissenschaftliche Berichte veröffentlicht (siehe www.NIPCCreport.org). Für Veröffentlichungen aus jüngerer Zeit siehe http://www.americanthinker.com/s_fred_singer/ und Google Scholar.

Larry Bell in Forbes  http://www.forbes.com/sites/larrybell/2012/07/17/that-scientific-global-warming-consensus-not/

Link: http://www.americanthinker.com/2014/02/climate_consensus_con_game.html 

Übersetzt von Chris Frey EIKE




Katastrophaler Focus-Artikel stellt die Klimawissenschaften auf den Kopf: Folgen für den seriösen Wissenschaftsjournalismus sind fatal

Ende des Temperatur-Stillstands, nur weil eine kleine El Nino-Temperaturspitze aus dem Temperaturplateau herausragt?

Scherz lass nach. Was soll am El Nino fatal sein? Fatal ist hier allein die Dramatisierung eines natürlichen Wetterphänomens zu eigenen, fragwürdigen Zwecken. “Ende des Halbmondes? Fataler Vollmond im Anmarsch!”. 

Klimaforscher schütteln den Kopf. Ein einziges wärmeres Jahr gehört ganz klar in die Kategorie Wetter, nicht Klima. Katastrophal ist hier nur die schlimme Fehlinterpretation des aktivistischen Focus-Redakteurs. Odenwald sollte sich dringend einmal bei seiner lokalen Volks-Hochschule erkundigen, wann das nächste Nachschulungs-Seminar zu den Grundlagen des Klimawandels stattfindet. Falls er es einrichten kann, könnte er auch gerne zum Klimaseminar in Mannheim am 10. April 2014 kommen, um sich den aktuellen Stand der klima-realistischen Forschung anzuhören. Kalte-Sonne-Co-Autor ist übrigens auch als Vortragender mit dabei.

Unabhängig davon ist es gar nicht gewiss, dass der nächste El Nino wie eine Rakete den Temperaturrekord an sich reißt. Dazu schauen wir uns die Satellitentemperaturdaten seit 1979 an (mit Dank an Ole Humlum / Climate4you für die UAH-Basisgraphik).

El Ninos treten alle 2-7 Jahre auf. Ihre Stärke ist unterschiedlich und es wird in schwache, moderate und starke El Ninos unterschieden. Der El Nino von 1998 gehört in die Kategorie “stark” und besitzt noch immer den Temperatur-Rekord. Der El Nino von 2009/2010 war “moderat”. Die Temperatur lag nach UAH-Datensatz um satte 0,25°C unter der von 1998. Der vorletzte starke El Nino datiert von 1982. So richtig häufig kommen die also nicht vor. Ein moderater oder schwacher El Nino wird daher wohl keine Goldmedaille einbringen. Richtig interessant wird es, falls ein starker El Nino auftreten sollte und trotzdem kein neuer Temperaturrekord aufgestellt wird. Dies wäre ein Indiz dafür, dass das Temperaturplateau langsam abknickt, da Ozeanzyklen und Sonnenaktivität sich auf dem absteigenden Ast befinden. Es wird spannend, denn dass ein El Nino irgendwann wieder einmal auftreten wird, ist kein Geheimnis.

In seinem Beitrag räumt Odenwald dann klammheimlich ein, dass wir in unserem Buch “Die kalte Sonne” die Rolle der Pazifisch Dekadischen Oszillation (PDO) richtig vorhergesagt haben. Stück für Stück holt die Realität die Akteure ein.  Lesen wir ein wenig weiter im Focus-Artikel:

"Im vergangenen Jahrzehnt häuften sich die kalten La-Niña-Ereignisse, der wärmere El Niño trat dagegen seltener auf – zuletzt von Juli 2009 bis Ende April 2010. Er ging mit einem kräftigen Anstieg der Temperaturen im Pazifik einher, was dazu beitrug, dass 2010 zum neuen Wärme-Rekordjahr wurde. Seither herrscht ein La Niña, der zu den ausgeprägtesten seit Aufzeichnungsbeginn zählt."

Naja, den angeblichen Wärmerekord von 2010 haben die Satelliten aber leider nicht dokumentieren können. Siehe Graphik oben. Man spürt geradezu, wie sich hier ein Autor die Realität zurechtbiegt, damit sie in seine Sichtweise passt. Odenwald weiter:

[Eine] "Forschergruppe um die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen vermeldete unlängst diesbezüglichen einen methodischen Durchbruch. Sie entwickelten ein statistisches Verfahren, das Prognosen über einen recht langen Zeitraum gestattet. So soll sich ein El Niño künftig zwölf bis 18 Monate vor seinem Auftreten vorhersagen lassen, statt wie bisher gerade sechs Monate. Gleichzeitig, so die Gießener, habe sich die Treffsicherheit der Warnungen deutlich verbessert. […] [Die Forscher konnten jetzt] die Quote falscher Alarme auf unter zehn Prozent senken und 70 Prozent der [El Nino-] Ereignisse zutreffend ankündigen. Jetzt gehen die Gießener Physiker einen Schritt weiter: In einer Studie, veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“ In einer Studie, veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“ verkünden sie, die Wahrscheinlichkeit, mit der ein El Niño noch in diesem Jahr eintritt, liege bei 76 Prozent. „Wir können zeigen dass unsere Methode das Fehlen von El-Niño-Ereignissen in den Jahren 2012 und 2013 bis zur Gegenwart korrekt vorher sagte“, schreiben sie in ihrer Arbeit. „Jetzt geben wir bekannt, dass unser Verfahren bereits im September 2013 die Wiederkehr von El Niño im Spätjahr 2014 erkennen ließ.“

Endlich kommt der El Nino, jubeln die Klimaalarmisten. Wir haben ihn uns redlich verdient! Letztes Jahr hatte man schon auf ihn gewartet, dann wurde die Mission “El Nino 2012/2013″ aber in letzter Minute abgebrochen. Es hatte nicht sollen sein. Interessant die religiös anmutende Wortwahl von Odenwald:

"Träfe die Prophezeiung ein, könnte der Erwärmungsstillstand mit einem Schlag enden und die Erdtemperatur deutlich nach oben schnellen."

Die fatale Klima-Prophezeiung stürzt die Welt in ein katastrophales Unglück! Wäre Odenwald im Mittelalter großgeworden, hätte er möglicherweise über bevorstehende Weltuntergänge orakelt. Schnell zaubert der Focus-Mann noch ein paar Vulkane aus dem Hut und behauptet kurzerhand, dass diese die unerwartete Erwärmungspause erklären könnten. Dass das entsprechende Paper auch nur wieder von einer IPCC-Lobbygruppe geschrieben ist, verschweigt der Redakteur. Auch lässt er das kleine, feine Detail aus, dass es in der Tiefsee noch gar kein verässliches Messnetz gibt, das eine Versenkung der Wärme in die tiefen Wasserschichten belegen könnte.

Wenn Michael Odenwald in ein paar Jahren einmal die Rezensionen seiner gesammelten Werke im Kalte-Sonne-Blog nachliest, wird ihm sicher das eine oder andere recht peinlich sein. Wie konnte die Wissenschaftsberichterstattung derart aus dem Ruder laufen? Wie konnten die journalistischen Kontrollmechanismen untergraben werden, und weshalb gab es aus der Wissenschaft selber kaum Proteste? Ein ergiebiges Thema für zukünftige Wissenschaftshistoriker.

===================================================

Anmerkung EIKE-Redaktion:

Der Artikel ist zuerst am 25.02.2014 auf "Kalte Sonne" erschienen : http://www.kaltesonne.de/?p=16882 




Energiewende wirkt: Anteil energiearmer Haushalte steigt auf 17 Prozent

Bei Spiegel Online  berichtet ein Florian Diekmann

Kostenexplosion bei Strom, Öl, Gas: Energiearmut in Deutschland nimmt drastisch zu

Strom, Heizung und Warmwasser sind für immer mehr Bundesbürger kaum noch bezahlbar. 6,9 Millionen Haushalte müssen nach Informationen von SPIEGEL ONLINE mehr als jeden zehnten Euro für Energie ausgeben – 2008 waren es erst 5,5 Millionen Haushalte.

Hamburg – Steigende Energiekosten werden zu einem Problem für immer mehr Bürger in Deutschland. Allein von 2008 bis 2011 ist der Anteil sogenannter energiearmer Haushalte in der Bundesrepublik von 13,8 auf 17 Prozent gestiegen. Das geht aus einer Antwort der Bundesregierung auf eine Anfrage der Grünen-Bundestagsfraktion hervor, die SPIEGEL ONLINE vorliegt. Damit gilt inzwischen mehr als jeder sechste Haushalt als energiearm….

..“Die fossilen Energien werden zur Armutsfalle, und die Bundesregierung sieht tatenlos zu, wie jedes Jahr 400.000 Haushalte mehr in diese Falle geraten“, sagt die Grünen-Umweltexpertin Bärbel Höhn. Das von Bundesbauministerin Barbara Hendricks (SPD) angekündigte „Bündnis für bezahlbares Wohnen“ sei ohne Maßnahmen zur Energieeinsparung zum Scheitern verurteilt, kritisiert die Grünen-Bundestagsabgeordnete.

Und im Handelsblatt Online ist zu lesen :

Die Grünen haben über eine Anfrage an die Bundesregierung beunruhigendes aufgedeckt: Zusehends mehr Menschen rutschen angesichts steigender Kosten in die „Energiearmut“. Die Oppositionspartei spart nun nicht an Kritik. Die Grünen warfen der Regierung vor, sie tue zu wenig, um Gebäude besser zu isolieren und den Einbau sparsamerer Heizungen zu fördern. So würden die Menschen von den steigenden Kosten überfordert: „Das Resultat sind vermehrte Gassperren und Leute, die an allen Ecken und Enden sparen müssen, um in kalten Wintern die Rechnungen bezahlen zu können“, sagte Grünen-Energieexpertin Bärbel Höhn.

Die links-grüne Zeit   konnte sich bisher noch nicht auf die richtige Blattlinie einigen und übernahm nur die SPON Variante des Einführunsgtextes. Der „weiterführende“ Link führt zu einer Fülle fachfremder Beiträge, aber nicht zur Energiearmut. Vielleicht ist es auch besser so.

Auch Science Sceptical hat sich dieser vorhersehbaren Heuchelei angenommen.

Autor Rudolf Kipp bemerkt:

…Es ist immer ein gefundenes Fressen für einen Blogger wenn er seine Auffassung, die bislang in den Mainstream-Medien eher stiefmütterlich vertreten wurde, an so prominenter Stelle vertreten findet. Allerdings machte sich beim Lesen des Artikels erst eine gewisse Ernüchterung breit, die nach vollständiger Lektüre zu staunendem Unglauben wurde. Grund für diese Gefühlsentwicklung war, dass ein für das Verständnis der dargestellten  Problematik Energiearmut  wesentlicher Begriff in dem Beitrag überhaupt nicht genannt wurde.

Daher hier die Frage an die Leser: Welcher gesuchte Begriff taucht in dem Spiegel-Online Artikel nicht ein einziges Mal auf?

Dirk Maxeiner von ACHGUT spießt besonders die Heuchelei der Grünen auf:

 

Grünes Armuts-Beschaffungsprogramm immer erfolgreicher

Das ist die hohe Kunst der Politik. Schritt eins: Man verursache ein Problem. Schritt zwei: Man schiebe dieses Problem anderen in die Schuhe. Schritt drei: Man stelle allerlei Forderungen auf, die das Problem nicht lösen, sondern weitere Probleme schaffen. Wie dieser Dreisprung geht, führt gerade die Grüne Exministerin Bärbel Höhn in Vollendung vor. Im Angesicht der durch die grüne Wind- und Sonnen-Ideologie explodierenden Strompreise entdeckt die Dame plötzlich “Energiearmut”. Die hat aber nicht etwa etwas mit der Zwangs-Förderung der sogenannten erneuerbaren Energien zu tun, sondern ganz im Gegnteil: “Die fossilen Energien werden zur Armutsfalle, und die Bundesregierung sieht tatenlos zu, wie jedes Jahr 400.000 Haushalte mehr in diese Falle geraten”, sagt Frau Höhn.

Die Logik hinter dieser Aussage bleibt ihr absolutes Geheimnis, schließlich liegt der Energiepreis in Ländern, die beispielsweise auf Gas vertrauen, um bis zu zwei Drittel (USA) niedriger als hier. Und deshalb fordert Frau Höhn den nächsten Unsinn: die Bundesregierung müsse die energetische Sanierung von Gebäuden stärker finanziell fördern. Konkret sollten die Kosten von der Steuer absetzbar sein, Förderprogramme der staatseigenen KfW-Bank besser ausgestattet und ein Klimazuschuss zum Wohngeld gewährt werden, sagt Höhn. Eine Studie der KFW-Bank hatte vergangenes Jahr ergeben, das die energetische Sanierung von Häusern für die Besitzer (und erst recht die Mieter) häufig unwirtschaftlich ist: “Die staatliche Förderbank KfW hat in einer Pressemitteilung zu den volkswirtschaftlichen Konsequenzen der Energiewende eingeräumt, dass sich aus heutiger Sicht die Investitionen in energieeffizientes Bauen und Sanieren „nicht allein aus den eingesparten Energiekosten refinanzieren lassen“.Siehe hier. Weiter so im Armutsbeschaffungs-Programm!




US Klimajournalist und Scharfmacher der Climategate Fraktion Andrew Revkin kann nicht rechnen!

Am meisten habe ich mich jedoch darüber amüsiert, wie dieser Mann, der von sich behauptet, über Wissenschaft zu berichten, die bloße Existenz seines Blogs begründet:

Bis zum Jahr 2050 oder so wird erwartet, dass die Weltbevölkerung auf 9 Milliarden gewachsen ist, was gleichbedeutend ist mit der Hinzufügung der doppelten Anzahl von heute lebenden Chinesen. Diese Millarden wollen Nahrung, Wasser und andere Ressourcen von einem Planeten, wo, wie Wissenschaftler sagen, die Menschen schon jetzt am Klima und dem Netz des Lebens kratzen. In der Rubrik Dot Earth, die von der Nachrichtenseite der Times im Jahre 2010 in die Meinungsspalte wanderte, untersucht Andrew C. Revkin Bemühungen, die menschlichen Belange mit den Limits des Planeten in Einklang zu bringen. Teils mit Unterstützung von einer John Simon Guggenheim-Mitgliedschaft [?] geht Dot Earth relevanten Entwicklungen vom Stadtrand bis nach Sibirien nach.

Wirklich? Schauen wir doch mal auf die Zahlen dieses charmanten, des Rechnens unkundigen Kerl.

Die Zahlen setzt er folgendermaßen um. Ich stimme Revkin bzgl. der Bevölkerungszahl zu, weil die meisten Behörden sagen, dass bis zum Jahr 2050 in der Tat etwa 9 Milliarden Menschen auf der Erde leben werden. Ich glaube, dass das stimmt, nicht wegen der Behörden, sondern weil meine eigene Analyse dieser Zahlen zu einem ähnlichen Ergebnis kommt. Man kann mich skeptisch nennen, aber ich glaube keinen Zahlen von irgendjemand anderem mehr.

Wie auch immer, die Zahlen der FAO der heutigen Bevölkerung sehen so aus:

Gegenwärtige globale Bevölkerung: 7,24 Milliarden

Gegenwärtige chinesische Bevölkerung: 1,4 Milliarden

Gegenwärtige Bevölkerung plus Revkins „zwei Chinas“: 10,04 Milliarden

Also irrt sich Revkin lediglich um eine Milliarde Menschen … aber was soll’s, angesichts seiner historischen Verteidigung der wissenschaftswidrigen Verfahren und seiner lächerlichen Behauptungen hinsichtlich „Leugnern“ und „Leugnung“ verblasst dieser kleine Irrtum vergleichsweise.

Abgesehen davon ist Revkins Fehler nicht unwichtig. Das Anwachsen der Bevölkerung auf 9 Milliarden, bei der sich die Bevölkerung wahrscheinlich einpendeln wird, bedeutet eine Zunahme von etwa 1,75 Milliarden. FALLS Revkins Behauptung über die zwei Chinas richtig wären, würde die Zunahme 2,8 Milliarden betragen. Sein Fehler beträgt also 2,8/1,75 – was bedeutet, dass seine Zahlen um 60% zu hoch liegen. Und um ein Problem, dessen Größenordnung er um 60% überschätzt hat, sollen wir uns große Sorgen machen? … Schlechter Journalismus, keine Frage.

Nun ist eine Fehlschätzung eines als das Wichtigste aller Probleme eingeschätzten Problems um 60% für die meisten Wissenschaftsreporter von Bedeutung. Diese Art Fehler würde sie beschäftigen. Sie würden einen Fehler dieser Größenordnung hastig korrigieren. Für Revkin jedoch geht ein Fehler um 60% im Rauschen seiner restlichen lächerlichen Gedanken unter.

Meine Vorhersage? Er sollte die betrügerische alarmistische Behauptung hinsichtlich der Bevölkerung auf seinem Blog fallen lassen, einfach weil ein „Leugner“ ihn auf diesen Fehler nach Art eines Fehlers in einer Mathe-Arbeit in der Schule hinweist, und selbst eine minimale Änderung oder ein Tüpfelchen als Antwort auf einen „Leugner“, wie ich einer bin, wäre ein unakzeptables Zugeständnis der Fehlbarkeit.

Mein Rat?

Beziehen Sie Ihre wissenschaftlichen Informationen niemals von einem Mann, der nicht bis zehn zählen kann … vor allem, wenn er nichts weiter ist als ein pathetischer PR-Lockvogel für betrügerische Wissenschaft und unaufrichtige Wissenschaftler …

Link: http://wattsupwiththat.com/2014/02/22/andrew-revkin-loses-the-plot-episode-xxxviii/

Übersetzt von Chris Frey EIKE




Neue EU-Umfrage: Nur 4% der Europäer denken, dass der Klimawandel ein wichtiges Thema für die Europäische Union ist

Die Europäische Union, der selbsternannte Anführer bei internationalen Verhandlungen zur Klimaänderung, hat hunderte Millionen Euro für diverse Projekte bzgl. Klimaänderung/globale Erwärmung ausgegeben – und tut das immer noch. Die EU finanziert auch großzügig alle wesentlichen grünen Aktivisten-Gruppen, damit sie für sich selbst Lobbyarbeit betreiben kann.

Aber trotz all dieser Millionen – und der Hilfe von den meisten Mainstream Medien (MSM) – scheinen die Europäer nicht der Ansicht zu sein, dass die Klimaänderung/die globale Erwärmung eines der dringenden Dinge ist, vor dem die Europäische Union steht.

Das Ergebnis der jüngsten Umfrage des Eurobarometer (hier in Deutsch ) muss für die EU-Klimazarin Connie Hedegaard und all die anderen Warmisten in Brüssel eine depressiv stimmende Lektüre gewesen sein:

Auf die Frage an alle Bürger in den 28 EU-Ländern, welches die wichtigsten Themen sind, mit der die EU sich befassen sollte, nannten nur 4% die Klimaänderung.

In Italien, Portugal und Griechenland glaubt nur die überwältigende Mehrheit von 1% der Menschen, dass die Klimaänderung ein wichtiges Thema ist. In Spanien, der Tschechischen Republik, Estland, Irland und Zypern liegt die Zahl etwas höher, nämlich bei 2%. Auch die Briten und Franzosen scheinen die Klimaänderung nicht als ein gewaltiges Problem zu sehen – glauben doch nur 4%, dass dieses Thema wichtig ist.

Selbst die „grünen“ DeutschenDänen scheinen andere Dinge wichtiger zu finden – nur 7 bzw. 12% halten den Klimawandel für ein wichtiges Thema.

Die Schweden befinden sich hier in einer eigenen Liga: 24% von ihnen glauben, dass die Klimaänderung eines der beiden wichtigsten Themen ist.

Link: http://newnostradamusofthenorth.blogspot.pt/2014/01/new-eu-survey-only-4-of-europeans-think.html

Übersetzt von Chris Frey EIKE




Klimawandel in Deutschland: Teil 2 – Real sinken seit 25 Jahren die Temperaturen

Viele Wärmeinseleffekte führen zur scheinbaren Klimaerwärmung (hier):

Wie wir in Teil 1 zeigten, fallen seit 17 Jahren nach DWD-Daten die Deutschlandtemperaturen, siehe Abb. 4. und vor 25 Jahren haben die Temperaturen aufgehört zu steigen, siehe Abb. 3. Der Deutsche Wetterdienst (DWD) zeigt daher gerne Grafiken, die über einen längeren Zeitraum gehen, z. B. hier:

 

 

Abb. 8: Werden die Temperaturen Deutschlands über einen langen Zeitraum betrachtet, dann sieht man an den Trendlinien ein allmähliches Ansteigen, also eine allmähliche Temperaturzunahme. Die Befürworter der Treibhausthese führen diese Erwärmung auf den steigenden CO2-gehalt der Luft zurück. Doch das Deutschland von 1900 und das von heute ist nicht mehr dasselbe. Dazu noch zwei widersprüchliche Meldungen vom DWD: „Der langfristige Trend zu steigenden Temperaturen ist in Deutschland und weltweit ungebrochen." (Berlin, 3. Mai 2012, DWD-Presse- Mitt.); aber dann ein Jahr später „Die Erdmitteltemperatur stagniert seit etwa 15 Jahren auf hohem Niveau….."  (Berlin, 7. Mai 2013, DWD-Presse- Mitt.). Dass die Deutschland- Temperaturen sogar schon seit einem Vierteljahrhundert nicht mehr steigen, verschweigt uns der DWD.

Dass rurale Messstationen (unbebaute oder dörfliche bis höchstens kleinstädtische Umgebung) ein etwas niedrigeres Temperaturniveau als Großstadt- Stationen aufweisen, lässt sich anhand von Vergleichen nachweisen. Voraussetzung eines solchen Vergleichs ist, dass die Stationen eine möglichst identische Höhenlage aufweisen (weil die Lufttemperatur stark höhenabhängig ist) und sie derselben geografischen Region angehören. Dann zeigt sich folgendes Bild:

 

Abb. 9: Zwei annähernd gleich hoch gelegene Stationen der Region Niederrhein. Die Groß- und Landeshauptstadt Düsseldorf ist in allen Monaten wärmer als das ländliche, nahe der holländischen Grenze gelegene Liedern (ein Vorort der Mittelstadt Bocholt). Im Untersuchungszeitraum (1991 bis 2005) betrug die Differenz der Jahresmitteltemperaturen beachtliche 0,61°C! Quelle des Datenmaterials: DWD, 1991 bis 1998 Beilagen zur Wetterkarte des Deutschen Wetterdienstes, 1999 bis 2005 Witterungsreport.

Auch anderswo in der Welt wurde dieser Effekt untersucht, wie folgendes Beispiel von Australien zeigt:

Abb. 10 (Quelle http://www.germanclimateblog.com/de/blogde/blogliste/92-der-urbane-waermeinsel-effekt-verzerrt-die-globalen-temperaturen.html) In Australien hat man das Temperaturmittel der 6 australischen Hauptstädte mit dem von 27 ländlichen Stationen über einen Zeitraum von mehr als 100 Jahren (1880 bis 1990) verglichen. Während in den Großstädten ab etwa 1950 ein deutlicher Temperaturanstieg zu beobachten war (obere Abbildung), zeigt das Mittel der ländlichen Stationen im selben Zeitraum keinen Trend- außerdem war es dort im späten 19. Jahrhundert fast sogar noch etwas wärmer, als im späten 20. Jahrhundert.

Soll also eine realitätsnahe Vergleichsaussage der Temperaturwerte über einen längeren Zeitraum erfolgen, so müssen diese, auf menschliche "Zivilisation" zurückgehenden Einflüsse herausgefiltert werden. Darum ist der zunehmende Wärmeinseleffekt bei Temperaturbetrachtungen so wichtig.

Bekanntlich verändert die Zeit den Raum und mit ihm alle „Eigenschaften“ die diesen Raum bestimmen. Eine dieser (Zustands)-Eigenschaft, wenn wir dies so nennen dürfen, ist dessen Energieinhalt und damit auch dessen Temperatur. Soll nun ein heute gemessener Temperaturwert, mit einem gemessenen Temperaturwert von vor 100 Jahren verglichen werden, muss der Raum von heute, auf den Raum von vor 100 Jahren „angepasst“ werden, weil sonst jede Vergleichsbetrachtung sinnlos ist. Dieser „Raumkorrekturfaktor“ für die Temperatur ist der WI. Ohne seine Berücksichtigung, sind alle Temperaturvergleichsbetrachtungen sinnlos und damit wertlos.

Für die Datenreihe des DWD bedeutet das: Die 9,1°C von 2012 sind in der Vergleichsbetrachtung etwas kälter als die gemessenen 9,1°C von 1998. Warum, weil zusehends Fläche, wir nannten 108 ha pro Tag, der Natur entzogen werden. Auch in den letzten 25 Jahren haben sich die Wärmeinseln in Deutschland weiter ausgebreitet, der die Umwelt wärmende Energieverbrauch ist weiter gestiegen und die Thermometer messen die Zusatzerwärmung aus den größer gewordenen Wärmeinseln der Städte und Bebauungen automatisch mit. Neuerdings wird die Erwärmung mittels der „Energiewende“ weiter verstärkt in der freien Landschaft getragen, denn „Windparks“ bremsen den in Bodennähe kühlenden Wind, und „Solarparks“ wandeln nur etwa 10% der auftreffenden Sonnenenergie in elektrischen Strom um, haben aber wegen der dunklen Oberfläche der Paneele eine geringere Albedo als die freie Landschaft (Rückstrahlungsvermögen, das heißt, sie erwärmen sich deutlich stärker, als gewachsene Böden oder die Vegetation). Vor allem über längere Zeiträume wird es notwendig, einen WI-Korrekturfaktor zu berücksichtigen, denn die Thermometer der Messstationen messen den zunehmenden Wärmeeintrag in die Landschaft einfach mit.

Hinzu kommt, dass vermehrt eine Verlagerung von Messstationen (Leistenschneider/Kowatsch berichteten darüber) in städtische Gebiete und vor allem auf Flughäfen erfolgt. Wegen der wärmenden Abgasschleppen ist dort das Temperaturniveau deutlich angehoben. Wie Leistenschneider/Kowatsch für den Frankfurter Flughafen nachweisen konnten, um bis zu +2,5°C. Gehen solche Stationen in die Mittelwertbetrachtung ein (weltweit kommen die Daten der Temperaturmessungen von über 50% von Flughafenmessstationen), so wird künstlich das Temperaturniveau angehoben.

Um Temperaturen mit früher vergleichen zu können, braucht man eine WI-bereinigte Grafik.

Abb. 11 (Quelle: EIKE, nach Berechnung von Leistenschneider) zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2013. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb).

Ein Beispiel zum Gebrauch der Grafik:                                                                              1891 betrug die Jahrestemperatur 7,5°C und 2013 8,7°C. Der WI-Korrekturfaktor für diesen Zeitraum beträgt etwa 1,2°C. (siehe rote gestrichelte Linie mit Schwankungsbreite). Hätte sich Deutschland in den letzten 123 Jahren nicht verändert und würden die Messstationen auch noch in der gleichen Umgebung stehen wie damals, dann wäre der Jahreswert für 2013 auch im Bereich von 7,5°C (siehe Fehlertoleranzbereich).

 

Unter Berücksichtigung eines Korrekturfaktors WI kommen wir zum 6. Ergebnis:

Die gemessene Erwärmung in Deutschland seit 120 Jahren ist in erster Linie auf die ständige Zunahme des Wärmeinseleffektes (WI) zurückzuführen, also auf die flächenhafte Ausbreitung der Wärmezonen. Die blaue WI-bereinigte polynome Trendlinie zeigt, dass wir nach einer Phase der Abkühlung wieder bei den Temperaturen um 1900 angekommen sind.

Kürzere Zeiträume

Die letzten 25 Jahre mit Berücksichtigung des WI  

Im Teil 1 zeigten wir, dass die Temperaturen nach Daten des DWD seit 25 Jahren nicht weiter gestiegen sind. Abbildung 12 zeigt im Vergleich den Temperaturgang in Deutschland nach DWD-Daten mit und ohne Berücksichtigung des WI.

In ihrem EIKE-Beitrag Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen aus 2010, wiesen die Autoren nach, dass der WI in Deutschland im 20. Jahrhundert die Vergleichstemperaturen in Deutschland um +1,2°C verfälscht (Abb.11 zeigt die aktualisierte Datenreihe bis zum Jahr 2013). Anhand einer Relationsbetrachtung der Deutschlandtemperaturen und der Referenzstation Hohenpeißenberg und einer theoretischen Betrachtung, die auf zwei fundamentalen physikalischen Gesetzen, den Strahlungsgesetzen nach Planck und dem Abkühlungsgesetz nach Newton basiert, ermittelte Leistenschneider anhand der jeweiligen DWD-Daten diesen Wert. Insbesondere seit den 1980er Jahren ist ein verstärkter WI-Einfluss vorhanden. Er beträgt für die letzten 3 Jahrzehnte +0,6°C. Hieraus lässt sich der mittlere Jahres-WI für diesen Zeitraum statistisch ermitteln und die DWD-Temperaturen, die wir in Abb. 3 und 4 (Teil 1) zeigten, entsprechend dem WI bereinigen, so dass wir die realen Vergleichstemperaturen für Deutschland erhalten. In Abb. 12 und 13 haben wir diese jeweils mit den DWD-Daten verglichen, so dass sichtbar wird, dass im Grunde die DWD-Veröffentlichungen zu Vergleichstemperaturbetrachtungen, wie z.B. wärmster Monat, wertlos und falsch sind, da der DWD in seinen Vergleichsbetrachtungen die bekannten "Äpfel" mit "Birnen" bergleicht und so zu einer falschen Schlussfolgerung kommt, die er dann veröffentlicht.

 

Abb. 12: In den letzten 25 Jahren sind die Temperaturen in Deutschland unter Berücksichtigung des WI sichtlich gefallen. 1988 betrug die Jahrestemperatur 9,1°C und 25 Jahre später 8,6°C. im Jahre 2012. 1989 war sie 9,5 Grad und unter Einberechnung des WI wäre sie 2013 nur 8,1C, deswegen die fallende Tendenz am Schluss. Dazwischen gab es Phasen von leichten Abkühlungen, aber auch Erwärmungen, momentan liegt wieder ein Abkühlungstrend vor. (gezeichnet in rot nach den Originalangaben des DWD und den von Leistenschneider berechneten WI-Werten in blauer Farbe).

Auch auf 25 Jahre betrachtet, macht sich der WI- Effekt bereits leicht bemerkbar, schließlich werden täglich 108 ha in Deutschland überbaut und der kühlenden Vegetation entzogen. Besonders bemerkenswert ist in diesem Zusammenhang die Entwicklung der Wintertemperaturen. KOWATSCH/KÄMPFE hatten in ihrem Aufsatz http://www.eike-klima-energie.eu/klima-anzeige/winter-werden-in-deutschland-seit-einem-vierteljahrhundert-deutlich-kaelter/ nachgewiesen, dass die Winter in Deutschland wieder deutlich kälter geworden sind- der sehr milde Winter 2013/14 ist da nur eine zirkulationsbedingte Ausnahme, denn die in Deutschland fehlende Kälte war dafür umso reichlicher anfangs im Nahen Osten, dann in Nordamerika zu finden, siehe unter anderem „Extremwetter einmal anders:

In Kairo fiel nach 112 Jahren wieder Schnee bei http://www.eike-klima-energie.eu/klima-anzeige/extremwetter-einmal-anders-in-kairo-faellt-nach-112-jahren-wieder-schnee/ . Selbst die Wochenzeitung „DIE ZEIT“, normalerweise immer darauf bedacht, die katastrophale Klimaerwärmung herbeizuschreiben, gab, wenngleich wohl "zähneknirschend" und auf den hinteren Seiten im Wirtschaftsteil platziert, die winterliche Abkühlung in einem Artikel über die Probleme der alpinen Skigebiete zu: http://www.zeit.de/2013/52/ski-luxus-guenther-aigner

Somit erhalten wir Ergebnis 7 

                                                                                                                                                                     Unter Berücksichtigung eines WI-Korrekturfaktors sind in den letzten 25 Jahren die tatsächlichen Vergleichstemperaturen in Deutschland leicht gesunken.

  

Die letzten 17 Jahre:

 

Wie sehen nun die letzten 16/17 Jahre aus, die bereits ohne WI fallende Temperaturen zeigen? Und wohin geht der weitere Trend?

Das Jahr 1997 wird beim DWD  mit 8,9C und 1998 mit 9,1 Grad in der Statistik geführt,  und 2013 war mit 8,7C unwesentlich kälter.

Ob ein Trend nach oben oder nach unten geht, darüber entscheiden die Jahre dazwischen. Ab 1997 stiegen zunächst noch die Temperaturen bis zur Jahrtausendwende. Das Jahr 2000 war laut DWD-Statistik das wärmste Jahr in Deutschland in den letzten 150 Jahren. Das haben ich wir uns vom Deutschen Wetterdienst auch schriftlich bestätigen lassen: „Weltweit war 1998 das wärmste Jahr und in Deutschland ist es das Jahr 2000. Das ist kein Geheimnis und das darf auch jeder wissen.“ (Teil1) Doch seit diesem Temperaturwendepunkt zur Jahrtausendwende waren alle Jahre kälter, und das bedeutet für die Statistik einen abnehmenden Trend.

 

Abb 13:  Die Deutschlandtemperaturen der letzen 17 Jahre. (Quelle: DWD-Werte Offenbach), mit und ohne WI-Betrachtung. Die von Excel errechnete Trendlinie sinkt um 0,7°C in den letzten 17 Jahren. Vorhergesagt war eine Erwärmung um +0,4°C.

Dass wir in Deutschland auf keiner "Insel" leben, dürfte jedem klar sein. So sinken nicht nur in unserem Land seit 17 Jahren die Temperaturen, sondern auch in Zentralengland, Abb.14.

 

Abb. 14: Ähnlich wie in Deutschland (Teil 1, Abb. 4) sind auch in Zentralengland die Temperaturen in den letzten 17 Jahren deutlich gefallen. Der Rückgang war hier sogar noch etwas deutlicher, und diese CET- Werte sind nicht WI- bereinigt!   Datenquelle http://www.metoffice.gov.uk/climatechange/science/monitoring/CR_data/Daily/HadCET_act.txt

Ergebnis 8:   

                                                                                                                     

Es ist wieder kälter in Deutschland geworden. Vor allem in der freien Fläche, weitab den Wärmeinseln bestätigen gute Naturbeobachter diese Aussage sofort. In der freien Fläche hat auch 2013 der Mai wieder die Bäume grün gemacht wie schon vor 250 Jahren als unsere Maienlieder entstanden sind und das wird auch 2014 so bleiben. http://www.youtube.com/watch?v=RJzXw-s3rCY

Nach dem deutlichen Absinken der Temperaturen seit der Jahrtausendwende, haben wir in der freien Fläche außerhalb der Wärmeinseln wieder die Temperaturen wie zu Mozarts Zeiten erreicht. Seit 250 Jahren gibt es ein Auf und Ab, es hat sich aber grundlegend am Klimaverlauf Deutschlands nichts geändert. Die gegenwärtige vergleichsweise hohe Schwankungsbreite in den Temperaturen ist dabei typisch für einen Wechsel von einer wärmeren Zeitspanne zu einer kühleren Phase, wie Leistenschneider bereits 2011 in seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“, Teil 8  gezeigt hat.  Abb.15 entstammt dieser.

 

Abb. 15, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zu dessen Minimum sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien).

“Anhand der solaren Aktivitätsschwankungen, dem derzeitigen und weiteren Rückgang der solaren Aktivität, sowie der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen deutlich, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie wir es übrigens auch gegenwärtig wieder erleben, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte…

Obwohl die Untersuchungen anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering sind, um eine abschließende Aussage treffen zu können, zeigt sie, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen. (“ EIKE, Teil 8 .“Dynamisches Sonnensystem“)

 

Raimund Leistenschneider – EIKE

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar

 

Bildmaterial zu Kommentar 59

 

Die folgende Bilderserie zeigt anschaulich, dass es sich bei der DWD-Station auf der Zugspitze um keine naturbelassene Messstation handelt. Im Gegenteil, sie befindet sich in einer vom Menschen stark beeinflussten und umbauten Umgebung. Quelle: http://www.panoramio.com/photo/21499625 und http://www.planet-wissen.de/laender_leute/berg_und_tal/zugspitze/erschliessung.jsp und http://www.top-wetter.de/themen/zugspitze.htm 

 

 

 

 

 

 

 

 

Schlimmer noch, auch natürliche Einflüsse machen die Station ungeeignet für Vergleichsmessungen. Wie der Name "Zugspitze" es bereits sagt, liegt die Station auf der Spitze eines Berges. Diese topographischen Orte sind jedoch immer Orte, die starken Einflüssen von Thermik ausgesetzt sind. Jeder weiß dies, der schon einmal Großvögel beobachtete, die die Thermik (sie ist nichts anderes als Energie) benutzen, um an Höhe zu gewinnen. Die Station liegt also an der Oberseite eines Kamins, an dem bei Sonnenscheindauer zusätzliche Energie nach oben fließt und die Station mehr beeinflusst, als Stationen ohne Thermik-Einflüsse. Thermik entsteht nur bei Sonnenscheindauer. Nun ist aber in den Alpen (Abb.16) eine stetige Zunahme der Sonnenscheindauer zu verzeichnen, so dass die Station auf der Zugspitze, zu den menschengemachten Veränderungen, auch noch den Fehler beinhaltet, dass sie durch die Zunahme der Sonnenscheindauer vermehrt mit Energie beaufschlagt wird und diese Zusatzenergie (die Station befindet sich, wie gesagt, am Oberrand eines Kamins) als Fehler in ihre Vergleichsmessungen eingeht. Dies alles zeigt, dass die DWD-Station ungeeignet für Vergleichsmessungen und keine Station ohne WI ist. R.L.

Abb.16 zeigt die prozentuale Änderung der mittleren Sonnenscheindauer im Zeitraum von 1884 – 2007, bezogen auf den Mittelwert von 1961 – 1990. Die blaue Kurve zeigt die Jahreswerte, rot ist der dynamische Trend und grün der Anstieg über die gesamte Zeitdauer. Im Zeitraum lag der Tiefstwert der Sonnenscheindauer 1912 und der Höchstwert im Jahre 2003, der interessanterweise mit dem Maximum des Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus zusammen fällt.

 

 

 

 




Krisen der Klimatologie

1. Einführung

Viele Klimatologen haben uns gesagt, dass die Umwelt der Erde ernsthaft in Gefahr ist, sich zu überhitzen, und zwar infolge der menschlichen Erzeugung von Treibhausgasen seit der industriellen Revolution. Kohlendioxid (CO2) sei der Hauptschuldige, aber Methan (CH4), Stickstoffoxid (N2O) und bestimmte Fluorchlorkohlenwasserstoffe tragen ebenfalls dazu bei.

„Wie erwartet ist die Botschaft immer die Gleiche: Die Beweise sind sehr eindeutig, dass die Welt sich erwärmt und das menschliche Aktivitäten der Hauptgrund dafür sind. Natürliche Änderungen und Fluktuationen gibt es zwar auch, doch sind diese relativ klein“– John Shepard in UK die die Royal Society am 27. September 2013.

„Wir können die Fakten nicht länger ignorieren: die Globale Erwärmung ist eindeutig, sie wird von uns verursacht und deren Konsequenzen werden erheblich sein. Das heißt aber nicht, dass wir dieses Problem lösen können“. – Andrew Weaver in Kanada in der Globe and Mail am 28. September 2013.

„Wir wissen ohne Zweifel, dass die von uns in die Luft geblasenen Treibhausgase zu einem globalen Energie-Ungleichgewicht geführt haben, und die globale Erwärmung beträgt seit vorindustriellen Zeiten schon 0,8°C. Diese Erwärmung führt zu einer Zunahme von Extremwetter in Gestalt von Hitzewellen, Dürren, Buschbränden und stärkeren Stürmen…“ – James Hansen in den USA am 6. Dezember 2013 in einer Sendung von CNN News.

Sind diese Ansichten gerechtfertigt? In der Vergangenheit lagen schon bedeutende Wissenschaftler falsch. Lord Kelvin, der noch nichts von Kernfusion wusste, hat die Schlussfolgerung gezogen, dass die Gravitationsenergie der Sonne diese nur noch 10↑7 Jahre lang scheinen lassen kann. Sir Arthur Eddington hat korrekt von einer nuklearen Quelle der Sonne gesprochen, hat aber Subrahmanyan Chandrasekhars Theorie degenerierter Materie zur Erklärung Weißer Zwerge abgelehnt. Im Jahre 1983 erhielt Chandrasekhar den Nobelpreis für Physik für seine Entdeckung.

Ich selbst habe Ausbildung in Physik und Astrophysik mit Erfahrung im Strahlungstransport, nicht Klimatologie, aber gerade dieser Blich von außerhalb auf diese Disziplin lässt mich einige ernste Probleme erkennen. Ich vermute, dass den meisten Klimawissenschaftlern diese Inkonsistenzen bewusst sind, aber diese verbleiben dennoch in den Berichten des IPCC einschließlich des jüngsten, am 27. September 2013 veröffentlichten Bericht. Politiker und Funktionäre der Regierung [und natürlich die Main Stream Medien in D! A. d. Übers.] richten sich nach diesen Berichten und bewerten sie als zuverlässig.

2. Theorie, Modelle und Beobachtungen/Messungen

Ein notwendiger Test jedweder Theorie oder jedweden Modells besteht darin zu schauen, wie gut es die Ergebnisse neuer Experimente oder Beobachtungen vorhersagt, die bei seiner Entwicklung nicht verwendet worden sind. Es ist nicht ausreichend, lediglich die Daten zur Entwicklung der Theorie oder des Modells zu präsentieren. Das gilt besonders im Falle der Klimamodelle, wo viele physikalische Prozesse zu kompliziert sind, um sie explizit mit regelbaren Parametern abbilden zu können. John von Neumann hat einmal gesagt: „Mit vier Parametern kann ich einen Elefanten beschreiben, und mit fünf kann ich ihn dazu bringen, mit seinem Rüssel zu wackeln“. Vier Parameter werden natürlich nicht alle Details eines Elefanten beschreiben können, aber das Prinzip ist klar. Die Modelle müssen unabhängigen Tests unterzogen werden!

Abbildung 1: Globale mittlere Temperaturanomalie (°C, oben) und CO2-Konzentration (ppm, unten; Quelle Daten der NOAA. Die Ausdehnung von CO2-Daten auf frühere Jahre stammt aus Daten von Eisbohrkernen des Antarctic Law Dome hier.

Der obere Plot in Abbildung 1 zeigt die Variation der Temperatur seit 1880 mit einer Abnahme bis 1910, einer Zunahme bis 1945, einem Plateau bis 1977, einem Anstieg um 0,6°C bis 1998, um dann während der nächsten 16 Jahre konstant zu verlaufen. Gleichzeitig hat die CO2-Anreicherung in unserer Atmosphäre stetig zugenommen. Abbildung 2 aus dem 5. Zustandsbericht (2013) zeigt, dass die gemessenen Temperaturen am unteren Ende der von den Klimamodellen vorhergesagten Bandbreite liegen.

Abbildung 2: Modellvorhersagen und Temperaturmessungen aus dem IPCC-Bericht 2013. Die Bezeichnung RCP4.5 (Representative Concentration Pathway 4.5) kennzeichnet einen Satz von Modellen mit einem moderaten Anstieg anthropogener Treibhausgase, was einer Zunahme der Gesamt-Sonneneinstrahlung von 4,5 W/m² (1,3%) gleichkommt.

Bereits im Jahre 2009 machten sich die Klimatologen Gedanken über die Änderung der Steigung der Temperaturkurve. Zu jener Zeit warfen Knight et al. (2009) die rhetorische Frage auf: „falsifizieren die globalen Temperaturtrends des vergangenen Jahrzehnts die Klimavorhersagen?“ Die Antwort lautete: „Trends nahe Null oder sogar negative Trends sind üblich für Intervalle von einem Jahrzehnt oder weniger in den Simulationen, und zwar infolge der modellinternen Klimavariabilität. Die Simulationen schließen aber (mit einer Wahrscheinlichkeit von 95%) aus, dass Null-Trends 15 Jahre oder länger vorherrschen. Das zeigt, dass das Fehlen einer Erwärmung dieser Dauer erforderlich ist, um zu einer Diskrepanz mit der erwarteten Erwärmungsrate bis zum aktuellen Tag zu kommen“.

Jetzt sagen einige Klimawissenschaftler, dass ein Zeitraum von 16 Jahren ein zu kurzer Zeitraum ist, um eine Klimaänderung abzuschätzen. Dann jedoch könnte auch der dem anthropogenen CO2 zugeordnete Anstieg von 1978 bis 1998 unecht sein. Andere Forscher untersuchen aktiv aus den Modellen stammende Phänomene, um die Diskrepanz zu erklären. Darunter sind:

1) eine starke Erwärmung durch ein El Nin͂o-Ereignis im Jahre 1998, so dass das Plateau nicht vor dem Jahr 2001 begonnen hat,

2) eine Überschätzung des Treibhauseffektes in manchen Modellen,

3) unangemessene Behandlung der Wolken und anderer Aerosole in den Modellen und

4) ein Reservoir in der Tiefsee für die fehlende Wärme.

Eine zusätzliche Erwärmung durch den El Nin͂o von 1998 scheint plausibel, aber es gab auch noch andere, die als Ursache für eine frühere Erwärmung in Frage kommen; und dann sind da auch noch die kühlenden La Nin͂a-Ereignisse. Alle vorgeschlagenen Gründe für das Plateau müssen mit ihren Auswirkungen auf die Erwärmung ebenfalls in die Modelle eingehen, die dann während des folgenden Jahrzehnts oder deren zwei mit der tatsächlichen Temperaturentwicklung verglichen werden können.

3. Der Rückkopplungs-Parameter

Es gibt keine Kontroverse in der Grundlagenphysik darüber, dass die Zuführung von CO2 in die Atmosphäre Sonnenenergie absorbiert, was zu einer geringen Erwärmung zusätzlich zu dem dominanten Faktor des Wasserdampfes führt. Die spektrale CO2-Absorption ist gesättigt und damit proportional dem Logarithmus der Konzentration. Der geschätzte Effekt kommt lediglich für die Hälfte des Temperaturanstiegs von 0,8°C seit der industriellen Revolution in Frage. Ohne jede Rechtfertigung haben die Modellbauer mögliche natürliche Gründe ignoriert und angenommen, dass der Anstieg hauptsächlich dem anthropogenen CO2 geschuldet ist, wobei Reflektionen durch Wolken und andere Aerosole die Absorption durch die anderen oben genannten Gase weitgehend neutralisieren. Folgerichtig postulierten sie eine positive Rückkopplung, weil wärmere Luft mehr Wasserdampf aufnehmen kann, was die Strahlungsabsorption und die damit einher gehende Rückerwärmung erhöht. Die Computersimulationen repräsentierten diesen Prozess sowie viele andere Effekte durch veränderbare Parameter, die gewählt worden sind, um zu den Beobachtungen zu passen. Im Abschnitt 9-9 im IPCC-Bericht 2013 heißt es: „Die Komplexität jeder Prozess-Repräsentation wird durch Beobachtungen herausgefordert, durch rechenintensive Ressourcen und gegenwärtiges Wissen“. Modelle, die keinen Temperaturanstieg zeigen, wären von jedem Ensemble ausgeschlossen worden, so dass der beobachtete Anstieg effektiv den Rückkopplungs-Parameter bestimmt.

Mit dem Stillstand des Temperaturanstiegs sehen wir jetzt, dass dieser Parameter nicht gilt. Er kann sogar negativ sein [worauf Herr Dr. Stehlik immer wieder hinweist! A. d. Übers.] Die CO2-Absorbtion ohne die vermeintliche Rückkopplung wird es zwar geben, aber die Auswirkungen davon werden nicht alarmierend sein. Die moderate Erwärmung ist möglicherweise insgesamt von Vorteil mit zunehmenden Erntemengen und weniger Kältetoten.

4. Die Sonne

Die Gesamtsolarstrahlung, also der Fluss integriert über alle Wellenlängen, ist ein grundlegender, in die Klimamodelle eingehender Faktor. Glücklicherweise ist unsere Sonne ein recht stabiler Stern mit nur minimalen Schwankungen seiner Strahlung. Seit dem Beginn von Satellitenmessungen des gesamten Spektrums im Jahre 1978 betrug die Schwankung über den 11-jährigen Aktivitäts-Zyklus im Mittel 0,1% mit gelegentlichen Spitzen bis 0,3%. Die damit verbundene Änderung der troposphärischen Temperatur beläuft sich auf etwa 0,1°C.

Stärkere Variationen könnten historische Warm- und Kaltzeiten erklären, wie die Mittelalterliche Warmzeit (etwa 950 bis 1250) und die Kleine Eiszeit (etwa 1430 bis 1850), aber das bleibt Spekulation. Die Sonne ist ein Gasball im hydrostatischen Gleichgewicht. Jedwede Reduktion der nuklearen Energiequelle würde durch eine Schwerkraft-Kontraktion in einer Zeitspanne von wenigen Minuten kompensiert werden. Komplizierter wird dieses Grundbild durch variable magnetische Felder und die Massenbewegungen, die dieses erzeugen. Li et al. (2003) haben diese Effekte in ein einfaches Modell eingegeben und fanden Variationen der Helligkeit um 0,1%, was mit den Messungen übereinstimmt.

Allerdings kann die Sonne die Erde in vielfältiger anderer Weise beeinflussen, die in den IPCC-Berichten nicht in Betracht gezogen werden, teilweise weil diese Mechanismen noch gar nicht verstanden sind. Die ultraviolette Strahlung ändert sich viel stärker mit der Sonnenaktivität, ~10% im 200 nm-Band, die das Ozon in der Stratosphäre bildet und zwischen 5% und 2% in den Absorptionsbändern zwischen 240 nm und 320 nm (DeLand & Cebula 2012). Die Graphiken dieser Autoren zeigen auch, dass die Flüsse während des jüngsten solaren Minimums niedriger sind als während der vorangegangenen zwei Minima, was zu geringerer Ozonbildung in der Stratosphäre und zu einer geringeren Absorption von Strahlung im nahen UV führt. Wie diese Absorption sich in untere Schichten der Atmosphäre ausbreiten kann, wird gegenwärtig untersucht, z. B. von Haigh et al. (2010).

Abbildung 3: Monatliche Mittelwerte des 10,7 cm-Strahlungsflusses der Sonne, gemessen vom National Research Council of Canada und berechnet für die mittlere Distanz zwischen Sonne und Erde. Eine Einheit der Sonnenstrahlung = *. Das gerade vorüber gegangene Maximum ist ungewöhnlich schwach und das voran gegangene Minimum ungewöhnlich ausgedehnt. Graphik nach Dr. Ken Tapping vom NRC.

[Besser ließ sich das mit der Hochstellung nicht darstellen. A. d. Übers.]

Abnehmende Sonnenaktivität erniedrigt auch die Stärke des solaren Magnetfeldes, wodurch mehr galaktische Strahlung den Weg zur Erde findet. Experimente von Kirkby et al. (2011) und Svensmark et al. (2013) haben gezeigt, dass diese kosmischen Strahlen die Wolkenbildung begünstigen, die in der Folge mehr Sonnenlicht reflektieren und die Temperatur reduzieren, obwohl die Größenordnung dieses Effektes unsicher bleibt. Morton (2014) hat beschrieben, wie oft die Isotope 10Be und 14C in Eisbohrkernen und Baumringen vorkommen und damit Hinweise auf die Sonnenaktivität in der Vergangenheit geben sowie deren Antikorrelation mit der Temperatur [?]

Von besonderem Interesse ist die gegenwärtig abnehmende Sonnenaktivität. Abbildung 3 zeigt den Strahlungsfluss bei 10,7 cm, gemessen von dem National Research Council of Canada seit 1947 (Tapping 2013), und Abbildung 4 die damit korrespondierende Sonnenfleckenzahl. Eine sorgfältige Kalibrierung des Strahlenflusses erlaubt zuverlässige Vergleiche von sechs Sonnenzyklen, selbst wenn es gar keine Sonnenflecken gab. Das letzte Minimum war ungewöhnlich ausgedehnt und das gegenwärtige Maximum außerordentlich schwach. Die Sonne ist in eine Phase geringer Aktivität eingetreten. Abbildung 5 zeigt, dass vorangegangene Zeiten sehr geringer Aktivität zum Dalton-Minimum von 1800 bis 1820 und das Maunder Minimum von 1645 bis 1715 aufgetreten waren.

Abbildung 4: Monatliche Sonnenfleckenzahlen der letzten 60 Jahre vom Royal Observatory of Belgium. Quelle.

Da diese Minima während der Kleinen Eiszeit aufgetreten waren, als sich die Gletscher in beiden Hemisphären ausdehnten, ist es möglich, dass wir derzeit in eine weitere Abkühlungsperiode eintreten. Ohne das physikalische Verständnis der Gründe derartiger Perioden können wir nicht spezifischer sein. Temperaturen wie in der Kleinen Eiszeit mögen vielleicht nicht auftreten, aber es muss eine gewisse Abkühlung geben, um die Erwärmung durch die zunehmende CO2-Konzentration zu kompensieren.

Bedauerlicherweise werden diese solaren Effekte und die Unsicherheiten, die sie für jedwede Prognose bedeutet, in den IPCC-Berichten fast nie erwähnt.

5. Die mittlere globale Temperatur

Langzeitliche Temperaturmessungen an einer bestimmten Stelle bieten einen offensichtlichen Test bzgl. Klimaänderung. Derartige Daten gibt es von vielen Stellen seit über einhundert Jahren, für einige Stellen sogar noch länger. Mit diesen Daten berechnen die Klimatologen Temperaturanomalien – die Abweichung von einem vieljährigen Mittel wie z. B. von 1961 bis 1990, und zwar für jeden Tag des Jahres zu der Zeit, zu der die Messung erfolgt. Dann mitteln sie über Tage, Nächte, Jahreszeiten, Kontinente und Ozeane, um die mittlere globale Temperaturanomalie für jeden Monat bzw. jedes Jahr zu erhalten, wie in Abbildung 1 dargestellt.

Unglücklicherweise gibt es aus vielen Gebieten der Welt kaum Messungen, und von den Ozeanen, die 71% der Erdoberfläche bedecken, schon gar nicht. Folglich müssen viele Messungen extrapoliert werden, um größere Gebiete mit unterschiedlichem Klima zu erfassen. Korrekturen sind erforderlich, wenn die Messungen an einer Stelle Lücken aufweisen oder Stationen an eine andere Stelle verlegt werden; oder um den städtischen Wärmeinseleffekt auszugleichen, falls die meteorologische Station signifikant höher liegt als der Meeresspiegel.

Abbildung 5: Sie stammt von der U. S. National Oceanic and Atmospheric Administration (NOAA) und zeigt die Sonnenfleckenzahlen seit deren erster Beobachtung mittels Teleskopen im Jahre 1610. Schon bald nach der Entdeckung eines 11-jährigen Zyklus‘ im Jahre 1843 begann man systematisch zu zählen. Später wurden mittels der Untersuchung älterer Aufzeichnungen die früheren Jahre hinzugefügt.

Die IPCC-Berichte beziehen sich auf vier Datenquellen zur Berechnung der Temperaturanomalie: dem Hadley Centre for Climate Prediction and Research, dem European Centre for Medium-range Weather Forcasting (ECMWF) in UK, dem Goddard Institute for Space Science (GISS) und der National Oceanic and Atmospheric Administration (NOAA) in den USA.  In bestimmten Monaten können diese Daten um mehrere Zehntelgrad voneinander abweichen, aber alle zeigen die gleichen langzeitlichen Trends von Abbildung 1, also einen Anstieg von 1978 bis 1998 und ein Plateau seit 1998 bis heute.

Diese Verteilung stellt nach wie vor eine Herausforderung des Verständnisses der Forscher dar. Einige Klimatologen bevorzugen es, eine gerade Linie durch alle Daten seit 1978 bis heute zu ziehen. Daraus schließen sie dann, dass sich die Erde immer noch erwärmt, vielleicht lediglich etwas langsamer, aber falls diese Kurven irgendetwas mit der Realität zu tun haben, bedeutet eine Änderung der Steigung gar nichts. Sind sie Beweis für die chaotische Natur des Klimas mit abrupten Wechseln von einem Zustand in einen anderen?

Essex, McKitrick und Andresen (2007) sowie Essex und McKitrick (2007) haben in ihrem populären Buch die Verwendung dieser Mittelwerte der Temperaturdaten für die Erde kritisiert. Erstens ist die Temperatur eine intensive thermodynamische Variable, die sich an einer bestimmten Stelle im Gleichgewicht mit dem Messgerät befindet. Jede Mittelung mit den Werten anderer Stellen oder anderer Zeiten oder anderer Jahreszeiten hat keine physikalische Bedeutung. Andere Arten von Mittelwerten mögen geeigneter sein, von denen jedoch jeder Einzelne einen anderen zeitlichen Trend kann. Außerdem sind es die Temperaturunterschiede zwischen zwei Stellen, die die Dynamik treiben. Klimatologen haben nie erklärt, was eine einzelne Zahl der globalen Temperatur eigentlich bedeutet. Essex und McKitrick schreiben, dass dies „keine Temperatur ist. Es ist nicht einmal ein sinnvoller Index oder eine sinnvolle Statistik. Es ist eine Sequenz unterschiedlicher Statistiken, die zusammen gepresst wurden zusammen mit Ad-Hoc-Modellen“.

Diese fragwürdige Verwendung einer globalen Temperatur zusammen mit den Problemen, ein chaotisches System zu modellieren (siehe nächsten Abschnitt) führen zu grundlegenden Fragen hinsichtlich der Gültigkeit des Tests mit Beobachtungen in Abschnitt 2. Da die Klimatologen und das IPCC darauf bestehen, diese Temperaturzahl zu verwenden und deren Modelle für ihre Vorhersagen der globalen Erwärmung, ist es nur recht und billig, sie weiterhin mit den Beobachtungen zu vergleichen, die sie für relevant halten.

6. Chaos

Essex und McKitrick (2007) haben eine hilfreiche Einführung in dieses Problem angeboten. Dank der bahnbrechenden Untersuchungen der Gleichungen für Konvektion und der damit verbundenen Turbulenz durch den Meteorologen Edward Lorenz ist den Wissenschaftlern bewusst geworden, dass viele dynamische Systeme fundamental chaotisch sind. Die Lage wird oft als der Schmetterlings-Effekt bezeichnet, weil eine winzige Änderung der Anfangsbedingungen wie der Flügelschlag des Schmetterlings enorme Auswirkungen auf spätere Entwicklungen haben können.

Konvektion und Turbulenz in der Luft sind zentrale Phänomene bei der Berechnung des Wetters und müssen daher auch auf das Klima ihre Auswirkungen haben. Das IPCC trägt diesem Umstand auf Seite 1-25 des Berichtes aus dem Jahr 2013 Rechnung mit der Feststellung: „Es gibt fundamentale Limits, wie genau man jährliche Temperaturen projizieren kann, und zwar wegen der chaotischen Natur des Klimasystems“. Nichtsdestotrotz werden Vorhersagen mit großem Vertrauen gemacht. Die das Wetter modellierenden Meteorologen erleben, dass ihre Vorhersagen nach ein oder zwei Wochen unbrauchbar sind, und sie haben den Vorteil, ihre Vorhersagen stets mit den Beobachtungen vergleichen zu können.

Warum zeigen die Modelle des IPCC diese Instabilitäten nicht? Wurden sie selektiv darauf getrimmt, diese zu vermeiden, oder sind die chaotischen physikalischen Prozesse nicht angemessen berücksichtigt? Warum sollen wir glauben, dass langzeitliche Klimavorhersagen möglich sind, wenn das für das Wetter nicht gilt?

7. Die Beschwörung des Konsens’ und die Ruhigstellung des Skeptizismus’

Wir hören oft, dass wir akzeptieren müssen, dass sich die Erde infolge des anthropogenen CO2 mit einer alarmierenden Rate erwärmt, weil über 90% der Klimatologen das glauben. Nun ist Wissenschaft jedoch keine Konsens-Disziplin. Sie lebt von der Hinterfragung jedweder Hypothese, jedweder Theorie und jedweden Modells durch Skeptiker, bis alle rationalen Zweifel ausgeräumt sind. Jedwedes Unterfangen, das sich selbst durch Beschwörungen eines Konsens‘ oder durch die Ruhigstellung von Skeptikern beweisen muss, ist keine Wissenschaft. Warum verunglimpfen einige Befürworter des Klimaalarms Kritiker, indem sie sie mit Holocaust-Leugnern vergleichen? Vermutlich distanzieren sich die meisten Klimatologen von dieser unwissenschaftlichen Taktik, aber viel zu wenige sprechen das laut aus.

[Hervorhebung vom Übersetzer in der Hoffnung, dass er damit nicht seine Kompetenzen überschritten hat!]

8. Zusammenfassung und Schlussfolgerungen

Die im letzten IPCC-Bericht beschriebenen Vorhersagen werden mit mindestens sechs ernsten Problemen konfrontiert. Die Modelle zeigen nicht das Temperaturplateau seit 1998; sie übernehmen einen Rückkopplungs-Parameter, der auf einer ungerechtfertigten Annahme beruht, nämlich dass die Erwärmung vor 1998 hauptsächlich dem anthropogenen CO2 geschuldet ist; das IPCC ignoriert mögliche Auswirkungen reduzierter Sonnenaktivität während des vergangenen Jahrzehnts; die Temperaturanomalie hat keine physikalische Bedeutung; die Modelle versuchen, die Zukunft eines chaotischen Systems vorherzusagen; und es gibt einen Appell, dem Konsens in der Klimawissenschaft zu folgen.

Die Temperaturen könnten wieder anfangen zu steigen durch die weitere Hinzufügung von CO2 in die Atmosphäre; sie könnten aber auch sinken infolge der gegenwärtigen schwachen Sonnenaktivität. Viele Klimatologen versuchen, diesen Punkten gerecht zu werden, indem sie versuchen, uns ein besseres Verständnis der beteiligten physikalischen Prozesse und der Zuverlässigkeit der Vorhersagen zu vermitteln. Ein herausragendes Thema ist die Lokalisierung des gesamten anthropogenen CO2. Der Tabelle 6.1 im Bericht 2013 zufolge geht die Hälfte davon in die Atmosphäre, ein Viertel in die Ozeane, und das restliche Viertel wird irgendwie als Biomasse an Land gebunden.

Welche Politik sollte also ein vernünftiger Bürger befürworten? Wir riskieren ernste Konsequenzen entweder durch eine massive Klimaänderung oder durch eine ökonomische Rezession infolge der Bemühungen, den CO2-Ausstoß zu verringern. Meine persönliche Ansicht ist, dass wir das Temperaturplateau dazu nutzen sollten, alle relevanten Dinge zu überdenken. Gibt es Umweltauswirkungen, die genauso wichtig oder wichtiger noch als die globale Erwärmung sind? Sind einige Maßnahmen wie die Subventionierung von Biotreibstoffen kontraproduktiv? Sind riesige Windparks, Felder mit Solarzellen oder Spiegeln effektive Investitionen, wenn wir nicht in der Lage sind, Energie zu speichern? Wie zuverlässig ist die Behauptung, dass Extremwetterereignisse wegen der globalen Erwärmung häufiger auftreten? Ist es nicht an der Zeit einzuräumen, dass wir das Klima gar nicht ausreichend verstehen, um zu wissen, wohin es sich entwickelt?

References

DeLand, M. T., & Cebula, R. P. (2012) Solar UV variations during the decline of Cycle 23. J. Atmosph. Solar-Terrestr. Phys., 77, 225.

Essex, C., & McKitrick, R. (2007) Taken by storm: the troubled science, policy and politics of global warming, Key Porter Books. Rev. ed. Toronto, ON, Canada.

Essex, C., McKitrick, R., & Andresen, B. (2007) Does a Global temperature Exist? J. Non-Equilib. Thermodyn. 32, 1.

Haigh. J. D., et al. (2010). An influence of solar spectral variations on radiative forcing of climate. Nature 467, 696.

IPCC (2013), Climate Change 2013: The Physicsal Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, http://www.ipcc.ch

Li, L. H., Basu, S., Sofia, S., Robinson, F.J., Demarque, P., & Guenther, D.B. (2003). Global

parameter and helioseismic tests of solar variability models. Astrophys. J., 591, 1284.

Kirkby, J. et al. (2011). Role of sulphuric acid, ammonia and galactic cosmic rays in atmospheric

aerosol nucleation. Nature, 476, 429.

Knight, J., et al. (2009). Bull. Amer. Meteor. Soc., 90 (8), Special Suppl. pp. S22, S23.

Morton, D. C. (2014). An Astronomer’s view of Climate Change. J. Roy. Astron. Soc. Canada, 108, 27. http://arXiv.org/abs/1401.8235.

Svensmark, H., Enghoff, M.B., & Pedersen, J.O.P. (2013). Response of cloud condensation nuclei (> 50 nm) to changes in ion-nucleation. Phys. Lett. A, 377, 2343.

Tapping, K.F. (2013). The 10.7 cm radio flux (F10.7). Space Weather, 11, 394.

Link: http://wattsupwiththat.com/2014/02/17/crises-in-climatology/

Übersetzt von Chris Frey EIKE




„Dummheit ist von allen nachwachsenden Energien die zuverlässigste“

Geschichte: Karl Marx hat mit seinem Appell das Rezept vorgegeben: „Die Philosophen haben die Welt bisher nur verschieden interpretiert, es kommt aber darauf an, sie verändern“. Die Weltveränderer Lenin, Stalin, Hitler und Mao haben geliefert, das Ergebnis waren Kriege, zig Millionen Tote, Verwüstungen und Zerstörungen. Die Praxis von Weltveränderern ist noch zu besichtigen – in Nordkorea.

Naturwissenschaften: Windräder produzieren angeblich sauberen ÖKO-Strom. Wüssten die Grünen, warum Ernst Heckel 1866  die Ökologie begründet hat und welche Aufgabe gemeint war, müssten sie bei Einhaltung ihrer vorgeblich naturfreundlichen Konzeption sofort den Betrieb der Windräder einstellen, denn sie verwandeln das Biotop Luft für viele dort beheimateten Tiergemeinschaften in ein Konzentrationslager, das nicht nur unzähligen Fledermäusen und Vögeln den Tod bringt. Bezeichnen wir es nicht richtigerweise als Totalitarismus, wer tötet, um seine Idee zu realisieren – und gilt unser Schutz nur für Menschen?

Technik: Wollte man mit Strom aus Windrädern und Solarpaneelen eine Industriegesellschaft versorgen, müsste man Grundgesetze der Physik besiegen, und das Weltall so ändern, dass auch nachts die Sonne scheint und immer der gleiche Wind weht. Die Grünen scheinen das für möglich zu halten, wie könnten sie sonst die Vollversorgung aus Erneuerbaren propagieren? In anderen Ländern hält man es für richtiger, sich die Grundgesetze der Physik zu Nutze zu machen und die Technik der friedlichen Nutzung der Kernenergie weiterzuentwickeln, um ihre Sicherheit zu vergrößern.

Europa: „Die Deutschen wissen nicht nur alles, sondern auch alles besser“, belächelt man uns in England. Fachleuten ist klar, wer sich schließlich als irrsinnig erweist. Vorreiter für unsere Nachbarn und klüger als der Rest der Welt werden wir auch diesmal nicht sein. Für unser praktisches Handeln sollte man sich erinnern, dass das Großdeutsche Dritte Reich  nicht der Verführer ermöglicht hat sondern der Wähler­.

Friedrich-Karl Ewert

(1) Die Grüne Aktivistin und Spitzenkandidatin für die Europawahl ist nach Angaben von Abgeordentenwatch Filmemacherin & Gärtnerin




Klimapropheten und –profiteure – Die Klima-Rede von John Kerry

Maurice wer (Siehe auch die Zitatenauswahl unten die zeigen wie Mr. Who tickt) ?

Mr. Strong, ein ehemaliger Ölfunktionär aus Kanada (er war Mitte der siebziger Jahre von Pierre Trudeau ausgewählt worden, die staatseigene Firma Petro-Canada zu leiten), war viele Jahre lang der ultimative Mandarin der UN. Er hat viele der kleinen Mega-Umwelttreffen organisiert, einschließlich der Stockholm-Konferenz 1972 und den Rio-Gipfel 1992, bevor er zu Kofi Annans rechter Hand aufstieg. Immer wieder war Mr. Strong auch Direktor des World Economic Forum, Vorsitzender des Earth Council und des World Resources Institute, Vize-Vorsitzender der Chicago Climate Exchange und Vorsitzender der China Carbon Corporation – um nur einige seiner prominenten Stationen zu nennen.

Im Jahre 2005 kam ans Tageslicht, dass Mr. Strong als Vorsitzender einer UN-Institution, die das Irak-Programm unter sich hatte, einen Scheck über fast 1 Million Dollar von einem südkoreanischen Geschäftsmann namens Tongsun Park erhalten hat, der in den siebziger Jahren verstrickt war in einen Versuch, US-Politiker zu bestechen. Mr. Strong behauptete, dass der Scheck, ausgestellt von einer jordanischen Bank, als Investition in ein Familienunternehmen gedacht war, das später pleite ging. Mr. Park (der auch Untermieter im weitläufigen Büro von Mr. Strong war), wanderte später ins Gefängnis wegen des Versuchs der Bestechung von UN-Funktionären, die das Programm ‚Öl gegen Nahrungsmittel‘ überwachten, das das Regime von Saddam Hussein in Irak stützte. Mr. Strong wurde ebenfalls verklagt, aber von allen möglichen Verfehlungen freigesprochen, und er hat dementiert, in dieses Programm involviert gewesen zu sein. Im gleichen Jahr hat er die UN verlassen und ist nach Peking gezogen.

Man ziehe seine eigenen Schlussfolgerungen, und man frage sich: Ist dies ein Mann, der es verdient, von einem US-Außenminister in den Himmel gehoben zu werden?

Wenn John Kerry spricht, fragen sich die Leute: Ist er wirklich clever oder komplett vergesslich? Tiefsinnig oder gedankenlos? Detektiv Columbo oder ‚Chance the gardener‘?

Der Minister ließ in einem großen Teil seiner Rede seine schlechte Laune an jenen aus, die er „Flacherde-Gesellschaft“ nannte, die bestreiten, dass 97% der Klimawissenschaftler an die vom Menschen verursachte globale Erwärmung glauben. „Wir sollten es einer kleinen Minderheit von Wissenschaftlern und der Wissenschaft oder extremen Ideologen nicht erlauben, mit wissenschaftlichen Fakten mithalten zu können“, sagte er. Es gab einmal eine Zeit, in der die Leute verstanden haben, dass Skeptizismus ein unabdingbarer Bestandteil der Wissenschaft war. Jetzt versucht Mr. Kerry, eine fadenscheinige Demokratie unter Wissenschaftlern zu aktivieren, die sich der demokratischen Debatte für jedermann verschließen.

Dies liegt auf einer Linie mit dem amüsanten Gedanken, dass das einzige Hindernis auf dem Weg zur Klimarettung eine schattenhafte, gierige und mächtige Verschwörung ist, in die die Koch Brothers, Richard Lindzen vom MIT, Senator Jim Inhofe aus Oklahoma und die Editorial-Seite dieser Zeitung involviert sind. Oh, diese Mächtigen!

Und doch geht Mr. Kerry hin und lobt Mr. Strong (1) in den Himmel, der in Wirklichkeit an der obskuren Kreuzung zwischen der öffentlichen Ordnung, privaten Profiten und der Klimawissenschaft steht, die den ersten beiden beigetreten ist. „Ich muss meine eigene Verbindung mit diesem Prozess in meiner früheren Rolle bei den UN-Verhandlungen einräumen, auf denen die Grundlagen für die Entwicklung dieses neuen Marktes gelegt worden sind“, sagte Mr. Strong 2007 in einer Rede, in der er über seine Rolle bei der Chicago Climate Exchange und der China Carbon Corporation sprach.

Falls George W. Bush sein Büro geräumt hätte und unmittelbar danach den Gremien zur Überwachung von Waffenlieferungen an den Irak beigetreten wäre, wären harte Fragen gestellt worden. Wenn Maurice Strong, Al Gore und andere Klima-Profiteure danach trachten, sich selbst durch eine Politik zu bereichern, die sie selbst während ihrer Amtszeit eingeführt haben, hebt sich nicht einmal eine Augenbraue.

Das sollte es aber. Die Kohlenstoff-Handelssysteme, die mit großem Trara vor einigen Jahren in Kraft gesetzt wurden, sind effektiv an zusammenbrechenden Preisen gescheitert. Der Wahn der Erneuerbaren führte zu den teuren Pleiten des Solarpaneel-Herstellers Solyndra, Fisker Automotive und Herstellern von A123-Batteriesystemen, um nur einige zu nennen. In Deutschland, das seinen Klimaänderungs-Fetisch weiter voran getragen hat als jede andere große Ökonomie, muss zunehmend mit einem umfassenden Fiasko immer höherer Energiepreise und höherer Kohlenstoff-Emissionen zurechtkommen. Wer hätte gedacht, dass die Leute auch dann Licht anschalten wollen, wenn die Sonne nicht scheint und der Wind nicht weht?

Inzwischen ist es das Dogma der Linken, dass jeder Zweifel, wenn es um Vorhersagen des Klima-Untergangs geht, ein Beweis ist für die gierige, moralisch schändliche psychologische Abartigkeit. „Klimaleugnung“ weckt absichtlich eine Assoziation mit dem Holocaust-Leugnen.  Und doch sind das die einzigen Leute, die bislang irgendetwas richtig vorhergesagt haben, nämlich dass das Kyoto-Protokoll scheitern wird, dass das mit den Erneuerbaren nicht funktionieren würde und dass die Klimabürokraten, die niemandem Rechenschaft schuldig sind als der Sicherung ihrer Pfründe und Profite, eine Gefahr für die Allgemeinheit sind.

Je öfter ich die Rede von Mr. Kerry lese, umso mehr erscheint er mir wie ein wirklich Gläubiger. Dass er mit Zitaten von Maurice Strong beginnt, dem ultimativen Zyniker, sagt alles darüber, wohin ihn sein wirklicher Glaube führt.

(1) Anmerkung der Redaktion.

Hier eine Auswahl von Zitaten des talentierten Mr. Maurice Strong:

Mai 1990 hat ein Daniel Wood im West Magazine (Kanada) Maurice Strong interviewt. Strong war über halbstaatliche Energiefirmen zum Milliardär geworden, stand lange Zeit dem UNO-Umweltprogramm (UNEP) vor, organisierte den UNO-Earthday 1972, warnte als einer der Ersten vor der Klimaerwärmung und leitete die Umorganisation der UNO. Er musste wegen Betrügereien im Zusammenhang mit dem Food-for-Oil Progamm der UNO zur Vorbereitung der Eroberung des Irak zurücktreten. Sein Interview gipfelte in den Worten: “Der einzige Weg, um den Planeten vor der Zerstörung zu retten, ist der Kollaps der industriellen Zivilisation. Haben wir nicht die Verantwortung, dass es dazu auch kommt?“

Strong on national sovereignty at the opening session of the 1992 Earth Summit… 

"The concept of national sovereignty has been an immutable, indeed sacred, principle of international relations. It is a principle which will yield only slowly and reluctantly to the new imperatives of global environmental cooperation. It is simply not feasible for sovereignty to be exercised unilaterally by individual nation states, however powerful. The global community must be assured of environmental security." -Maurice Strong at the 1992 Earth Summit. 

Strong responding to a question by a reporter asking why he gave large donations to both political parties in the United States during the 1988 election cycle… 

"Because I wanted influence in the United States." -Maurice Strong quoted in Saturday Night magazine. 

Strong on the impending global environmental catastrophe… 

"If we don’t change, our species will not survive… Frankly, we may get to the point where the only way of saving the world will be for industrial civilization to collapse." -Maurice Strong quoted in the September 1, 1997 edition of National Review magazine. 

Strong discussing the role the Earth Summit would play in the emerging system of global governance… 

"[The Earth Summit will play an important role in] reforming and strengthening the United Nations as the centerpiece of the emerging system of democratic global governance." -Maurice Strong quoted in the September 1, 1997 edition of National Review magazine. 

Strong discussing his political inclinations… 

"[I am] a socialist in ideology, a capitalist in methodology." -Maurice Strong as quoted in Macleans Magazine. 

Hierzu gibt es noch einen weiteren Beitrag:

Warum Kerry hinsichtlich der Klimaänderung absolut falsch liegt

Richard McNider und John Christy (Original hier)

Es waren die wissenschaftlichen Skeptiker, die den ‚Konsens‘ gekippt und gesagt haben, dass die Erde rund ist.

In einer Rede vom 16. Februar griff John Kerry scharf die Klimaskeptiker an, die er als Mitglieder einer „Flache Erde-Gesellschaft“ bezeichnete, weil sie die Realität der katastrophalen Klimaänderung in Frage stellen. Er sagte: „Wir sollten es einer kleinen Minderheit von Wissenschaftlern und der Wissenschaft oder extremen Ideologen nicht erlauben, mit wissenschaftlichen Fakten mithalten zu können“.

Aber wer sind die Flache-Erde-Leute, und wer ignoriert die wissenschaftlichen Fakten? In historischen Zeiten war es Konsens, dass die Erde eine Scheibe war, und es war nur eine Minderheit, die diesen Glauben in Frage zu stellen wagte. Wir sind unter den heutigen Wissenschaftlern, die skeptisch sind hinsichtlich des sog. Konsens‘ zur Klimaänderung. Macht uns das zu modernen Flache-Erde-Leuten, wie Mr. Kerry sagt, oder sind wir unter jenen, die das vorherrschende Wissen verteidigen und erklären, dass die Welt rund ist?

Die meisten von uns, die skeptisch hinsichtlich der Gefahren der Klimaänderung sind, begrüßen viele der Fakten, von denen Menschen wie Bill Nye, der „Fernseh-Wissenschaftler“ sagen, dass wir sie ignorieren. Die beiden fundamentalen Fakten lauten, dass sich der Gehalt von Kohlendioxid in der Atmosphäre durch das verbrennen fossiler Treibstoffe erhöht hat und dass dieses Kohlendioxid in der Atmosphäre ein Treibhausgas ist, das die Wärme einfängt, bevor diese in den Weltraum entweichen kann.

Was noch nicht als Faktum bekannt ist: Wie stark wird sich die Erdatmosphäre infolge dieses zusätzlichen Kohlendioxids erwärmen? Die diesbezüglichen Zahlen wurden von Klimamodellen erzeugt, die fast ausschließlich von Wissenschaftlern konstruiert worden sind, die an die katastrophale globale Erwärmung glauben. Die von diesen Modellen vorhergesagte Erwärmungsrate hängt von vielen Annahmen ab und davon, eine komplexe Welt in handhabbare Terme zu konzentrieren. Darunter: wie werden Wasserdampf und Wolken auf das direkt zugeführte Kohlendioxid reagieren oder die Rate der Wärmeaufnahme oder –absorption in den Ozeanen?

Wir könnten diesen Modellkonstrukteuren vergeben, wenn ihre Vorhersagen nicht so konsistent und spektakulär falsch wären. Seit Beginn der Klimamodellierung in den achtziger Jahren haben diese Vorhersagen im Mittel immer den Grad der Erwärmung überschätzt verglichen mit dem, was wir im realen Klima sehen.

Zum Beispiel haben wir im Jahre 1994 einen Artikel in Nature veröffentlicht, der zeigt, dass der aktuelle globale Temperaturtrend „nur ein Viertel so groß ist wie nach den Ergebnissen der Klimamodelle zu erwarten“. Wie die Graphik zeigt, ist die Diskrepanz zwischen den Modellergebnissen und den weltweit gemessenen Beweisen nur immer größer geworden.

Wenn das Scheitern der Vorhersagen immer klarer hervortritt, kommt die Modellindustrie mit immer neuen Modellen, die ihre früheren Erwärmungsvorhersagen aufweichen und zum Beispiel behaupten, dass eine unerwartete Zunahme menschlicher Aerosole die Ergebnisse verzerrt habe. Nach diesen Änderungen sah es so aus, als passten die Modelle besser zu den eingehenden Messungen – aber die Vorhersagen der zukünftigen Temperatur waren immer noch zu warm.

Die Modellierer bestehen darauf, dass sie lediglich Pech haben, weil die natürliche Temperatur-Variabilität die wirkliche Erwärmung verschleiert. Das mag so sein oder auch nicht, aber wenn ein Batter eine Schlagfrequenz von 0 zu 10 hat*, sollte er lieber seine Art, den Bat* zu schwingen, in Frage stellen als den Schiedsrichter für die Fehlschläge verantwortlich zu machen.

[*kursiv vom Übersetzer. Hier wird auf eine Regel beim Baseball Bezug genommen, die zu erklären hier zu weit führen würde. Wer sich dafür interessiert, schaue hier bei Wikipedia].

Die von den Modellen gezeigte Erwärmung in der gesamten freien Atmosphäre – vom Boden bis in eine Höhe von 75.000 Fuß [ca. 23.000 m] – die eine der wirklichen Signale der Erwärmung durch Kohlendioxid sein soll, fehlt völlig. Hier ignoriert der Konsens die Realität von Temperaturmessungen in der freien Atmosphäre durch Satelliten und Radiosonden, die durchweg ohne Ausnahme nicht einmal halb so viel Erwärmung zeigen wie das Mittel der Modellvorhersagen.

Die Gemeinde des Klimaänderungs-Konsens’ verweist auf indirekte Beweise wie schmelzende Gletscher, ausbleichende Korallen, mehr Dürren und stärkere Stürme. Und doch zeigen die Beobachtungen, dass die Erwärmung der freien Atmosphäre (das fundamentale Anzeichen einer von Kohlendioxid verursachten Klimaänderung, die vermeintlich hinter diesen natürlichen Phänomenen steckt) nicht in alarmierender Weise vor sich geht: Instrumente an den Satelliten von NASA und NOAA zeigten in der mittleren Troposphäre eine Erwärmungsrate von 0,7°C in einhundert Jahren. Für den gleichen Zeitraum geben die Modelle eine solche von 2,1°C vor (siehe Graphik).

Die Modelle können auch das Klima der Vergangenheit nicht richtig abbilden. Zum Beispiel erfolgte der größte Anteil der beobachteten Erwärmung im vorigen Jahrhundert nachts. Die gleichen Modelle, die die zur Vorhersage künftiger Erwärmung herangezogen werden, zeigten eine Erwärmung tags und nachts mit etwa der gleichen Rate.

Die Modelle verfehlten auch die dramatische, jüngst in der Arktis beobachtete Erwärmung. Mit dieser Information im Nachhinein zeigte der jüngste Satz von Klimamodellen nach ihrer Anpassung tatsächlich eine stärkere Erwärmung in der Arktis. Aber diese Anpassung führte zu zu warmen Vorhersagen – die längst durch Beweise in der realen Welt widerlegt sind – auf dem restlichen Planeten, jedenfalls im Vergleich zu früheren Modellen.

Sollten die Modellierer nicht bescheidener und offen sein für die Aussage, dass die Ursache für die Erwärmung in der Arktis vielleicht etwas Anderes ist, das wir nicht verstehen?

Während keine dieser Inkonsistenzen die fundamentalen Sorgen über eine durch Treibhausgase verstärkte Klimaänderung mindert, ist es verstörend, dass die „Konsens-Wissenschaft“ nicht anerkennen will, dass solche Diskrepanzen massive Probleme sind. Seit Gründung des IPCC, dieses selbst ernannten Gremiums von Wissenschaftlern, hat dieses darauf bestanden, dass der Konsens bzgl. der Klimaänderung der notwendige Weg ist, Maßnahmen zu ergreifen, um die menschlichen Kohlenstoff-Emissionen auf der ganzen Welt zu reduzieren.. Die Konsens-Gemeinde gebraucht diese Aussage, um die Ansicht zu verbreiten, dass die Wissenschaft „settled“ ist und um die Skeptiker der Lächerlichkeit preiszugeben, wie es John Kerry in seiner Rede gemacht hat.

Es gab in der Vergangenheit genug Warnhinweise, was Konsenswissenschaft anrichten kann. Zum Beispiel starben im 18. Jahrhundert mehr britische Seeleute an Skorbut als in Schlachten. Bei dieser durch einen Vitamin-C-Mangel verursachten Krankheit verliert der Körper die Fähigkeit, mit Collagen umzugehen. Diese Todesfälle waren besonders tragisch, weil viele Kapitäne und einige Schiffsärzte aus Erfahrungen in früheren Jahrhunderten wussten, dass frisches Gemüse und Südfrüchte diese Krankheit heilen können.

Nichtsdestotrotz hat ein aus Wissenschaftlern und Ärzten bestehendes Gremium der britischen Admiralität (so etwas Ähnliches wie heute das IPCC) diese Beweise über 50 Jahre lang verworfen, weil sie nicht zu ihrer Konsenstheorie passten, dass Fäulnisprozesse (oder innerer Zerfall) Ursache für Skorbut waren, die ihrer Ansicht nach geheilt werden konnten durch Frischluft, sportliche Übungen und Abführmittel. „Konsenswissenschaft“, die die Realität ignoriert, kann tragische Konsequenzen haben, wenn Heilmethoden ignoriert oder vielversprechende Forschungen verhindert werden. Der Klimaänderungs-Konsens gefährdet zwar keine Menschenleben, aber die Art und Weise, wie er ökonomisches Wachstum gefährdet und die Politik der Regierung in eine gefährliche Richtung drängt, hat die Zukunft merklich düsterer gemacht. Die Ankündigung der Obama-Administration, dass es Entwicklungsländern für fossile Energie keine Hilfe zukommen lassen würde, was konsequenterweise Millionen Menschen in die Energiearmut treibt, erinnert nur zu deutlich an jenes Gremium der Admiralität, das es ablehnte, sterbenden britischen Seeleuten frisches Obst zu verabreichen.

Es sollte kein Forschungsprogramm in der Klimawissenschaft geben, das nur danach trachtet, vorherrschende Theorien zu stützen, und wir sollten führenden Regierungsmitgliedern wie Minister Kerry nicht Anerkennung zukommen lassen, wenn sie Andere wegen ihrer unbequemen, auf Fakten basierenden Ansichten angreifen.

Die Herren McNider und Christy sind Professoren der atmosphärischen Wissenschaft an der University of Huntsville in Alabama und Mitglieder der American Meteorological Society. Christy war ein Mitglied des IPCC, das sich im Jahre 2007 den Nobelpreis mit Al Gore teilte.

Beides übersetzt von Chris Frey EIKE

——————-

Soweit diese Artikel. Wie verheerend sich ein Konsens auswirken kann, zeigt beispielhaft für die heutige Zeit eine Kurzmeldung in der Frankfurter Allgemeinen Zeitung vom 19. Februar 2014, die freundlicherweise Herr Dr. Ufer zugemeldet hat:

Frankfurter Allgemeine Zeitung, 19. Februar 2014

Natur und Wissenschaft

Verbreitete Zweifel an der Evolutionstheorie

Neun von zehn Amerikanern haben ei­ner Studie zufolge Zweifel an der wis­senschaftlichen Evolutionstheorie. Nur rund 9,5 Prozent seien davon über­zeugt, dass Gott oder eine andere höhe­re Macht absolut keinen Einfluss auf die Entstehung des Universums und des menschlichen Lebens hatten, sagte Elaine Howard Ecklund von der Rice University in Texas beim Jahrestreffen der AAAS (American Association for the Advancement of Science) in Chica­go. Die anderen rund neunzig Prozent der mehr als 10.000 Befragten gaben an, dass ihrer Meinung nach Gott oder eine andere höhere Macht ganz oder zumindest teilweise für die Entstehung des Alls, der Erde und des Menschen verantwortlich seien. Bei den Evangeli­kalen sind nach der Umfrage sogar rund 97 Prozent dieser Ansicht.                                       FA.Z.

Link hierzu: http://www.handelsblatt.com/politik/international/us-aussenminister-kerry-nennt-klimawandel-massenvernichtungswaffe-seite-all/9490094-all.html




Die neuen Klimaprojektionen des IPCC sind grundfalsch

Die Anpreisung der Vorhersagefähigkeit der Klimamodelle über Zeiträume von mehreren Jahrzehnten im Annex 1 zum 2013er IPCC-WG1-Bericht hält einer wissenschaftlichen Überprüfung nicht stand

Roger A. Pielke Sr.

Einführung

In der Vergangenheit habe ich bereits dargelegt, dass die Entwicklung von Klima-Projektionen (Prognosen) über mehrere Jahrzehnte zum Zwecke der Beeinflussung von Politikern und von Zielgruppen eine riesige Geld- und Zeitverschwendung ist.

Hierzu siehe:

The Huge Waste Of Research Money In Providing Multi-Decadal Climate Projektionen For The New IPCC Report

Nun möchte ich Stellung nehmen, wie die Arbeitsgruppe 1 (Working Group I “Contribution to the IPCC Fifth Assessment Report Climate Change 2013: The Physical Science Basis”) dieses Thema behandelt.

Die Klima-Projektionen stehen im Annex 1:
und hier:
unter der Überschrift:

Annex I: Atlas of Global and Regional Climate Projections

Grundlage für diesen Atlas sind die Informationen aus Kapitel 11 des IPCC WG1-Berichts mit dem Titel:
“Near-term Climate Change: Projections and Predictability”

Klima-Projektionen über mehrere Jahrzehnte können keinesfalls besser sein als kürzer terminierte (z. B. “near-term”) Projektionen (z. B. „decadal“), weil aus den dekadalen Zeitperioden die längeren Perioden gebildet werden! Die erreichte Güte für dekadische Zeiträume muss daher die obere Grenze dessen sein, was für längere Zeitperioden erreichbar ist.

Im Kapitel 11 steht:

Klimatologen unterscheiden dekadale Vorhersagen von dekadalen Projektionen. Projektionen beruhen nur auf der Vorhersagbarkeit aus den externen Antrieben.

Also sind “Projektionen” nur Simulationen der Modell-Sensitivitäten. Indem die interne Klima-Dynamik vernachlässigt wird, ist die auf die Zielgruppen gerichtete Darstellung in Form von Szenarien eine grobe Übertreibung dessen, was wirklich damit aussagbar ist. Sie verhelfen nur zu einem besseren Verständnis einer Teilmenge des Klimageschehens. Es ist unaufrichtig, Ergebnisse aus dem IPCC-Zustandsbericht zu präsentieren, ohne besonders zu betonen, dass es eine wichtige Einschränkung gibt.

Das Problem, wie die Ergebnisse der Klimamodellierung dargestellt werden, sollte bei jedermann Besorgnis erzeugen, ganz gleich, wie man zur Bedeutung der Treibhausgase in der Atmosphäre steht.

Kapitel 11 ist glücklicherweise im Gegensatz zum Annex 1 ein informatives Kapitel im 2013er IPCC WG1-Bericht. Das Kapitel bringt eine wissenschaftliche Zusammenfassung zum Thema der Vorhersagbarkeit. Die Darstellung der Güte und Ungewissheiten über die “externen Klima-Antriebe” ist allerdings unvollständig
(siehe hierzu http://pielkeclimatesci.files.wordpress.com/2009/12/r-354.pdf ).

Der Schwerpunkt des Kapitels ist wie folgt umrissen:
Dieses Kapitel beschreibt die aktuellen wissenschaftlichen Erwartungen für das demnächst ‘bevorstehende’ Klima (near term). Dabei bezieht sich ‘bevorstehend’ auf den Zeitraum bis zur Mitte des Jahrhunderts, für welches die Reaktion des Klimas auf verschiedene Emissions-Szenarien generell ähnlich aussieht. Größter Wert in diesem Kapitel wird auf die Periode 2016–2035 gelegt, wenn auch einige Informationen über projizierte Veränderungen vor und nach dieser Periode (bis zur Mitte des Jahrhunderts) beurteilt werden.

“Qualitativ geeignete” („skillful“) mehrjährige bis dekadale Klimavorhersagen werden präsentiert, obwohl noch technische Probleme existieren, die gelöst werden müssen, um die Qualität zu verbessern. (Das Attribut “skillful” wird wie in Ziffer 11.2.3.2 und FAQ 11.1 verstanden).
[Der Übersetzer benutzt für das Attribut „skillful“ das deutsche Wort „geeignet“ und für „skills“ in diesem Zusammenhang „Güte, Qualität, Eignung“.]

Ausgewählte wichtige Auszüge aus diesem Kapitel sind [Auszeichnung vom Verfasser]:

Kurzzeit Vorhersage-Systeme haben eine deutliche Vorhersage-Qualität für größere Regionen (Figure 11.4), besonders über den Meeren (Smith et al., 2010; Doblas-Reyes et al., 2011; Kim et al., 2012; Matei et al., 2012b; van Oldenborgh et al., 2012; Hanlon et al., 2013). Gezeigt wurde, dass eine großer Teil der Qualität mit der korrekten Darstellung des Langzeit-Trends übereinstimmt (high confidence), während die Qualität deutlich vermindert ist, wenn eine Abschätzung des Langzeittrends sowohl aus den Vorhersagen wie auch aus den Beobachtungen entfernt wird. (e.g., Corti et al., 2012; van Old­enborgh et al., 2012; MacLeod et al., 2013).

Die Qualität des „hindcasting“ des Niederschlags über Land (Figure 11.6) ist viel geringer als die Qualität der nachträglichen Vorhersage der Temperatur über Land.

Die Güte der extremen Temperaturen und Niederschläge über mehrjährige Zeiträume ist ebenfalls beurteilt worden (Eade et al., 2012; Hanlon et al., 2013). Es gibt da nur wenig Qualitäts-Verbesserungen vom ersten Jahr an. Das bedeutet, dass die Güte stark ansteigt mit den veränderlichen externen Antriebe. Die Güte der Vorhersage der Extrema ist generell ähnlich, aber etwas geringer als für den Durchschnitt.

[Anmerkung des Übersetzers zum Folgenden: Den englischen Fachterminus „hindcasting“ scheint das deutsche Wort „Hinterhersage“ zu treffen, weil es am besten den englischen Begriff des „hindcasting“ umschreibt: von einem Zeitpunkt in der Vergangenheit aus eine Vorhersage zu machen und anhand der verfügbaren späteren tatsächlichen Beobachtungsdaten zu prüfen, ob die Vorhersage die später eingetretene Realität abgebildet hätte. Anders gesagt: Wenn Modellergebnisse im „hindcasting“ die später tatsächlich eingetretenen Beobachtungsdaten vorhersagten, ist die Vermutung berechtigt, dass das Modell eine hohe Güte aufweist, es wird dann im Englischen als „skilfull“ qualifiziert.
Auch das englische Verbum "to hindcast" ist ein Kunstwort für diesen Zweck].

Ein Teil von Kapitel 11 ist ein Abschnitt “Frequently Asked Questions“. Zu Frage 11.1 habe ich Auszüge gemacht. Der Titel lautet:

Wenn man das Wetter nicht für den kommenden Monat vorhersagen kann, wie kann man dann das Klima für das nächste Jahrzehnt vorhersagen?

Hier sind Exzerpte aus der Antwort mit Hervorhebungen im Text:

“Klimatologen versuchen nicht und geben auch nicht vor, detaillierte zukünftige Wetterentwicklungen über kommende Jahreszeiten, Jahre oder Jahrzehnte zu erstellen.” Die Wetterdienste und andere Stellen … haben Vorhersagesysteme für Jahreszeiten und Jahresverläufe entwickelt, aufgrund derer sie ständig jahreszeitliche Klima-Anomalien mit deutlicher Vorhersage-Güte machen können. Die Güte ist unterschiedlich für unterschiedliche Orte und unterschiedliche Variablen. Die Güte tendiert zur Verringerung, je länger die Vorhersage in die Zukunft reicht, für einige Orte existiert überhaupt keine Güte. ‘Güte’ wird hier im technischen Sinne gebraucht: sie ist ein Maß dafür, um wieviel größer die Genauigkeit einer Vorhersage ist im Vergleich mit der Genauigkeit einiger typischer einfacher Vorhersagemethoden, wie z. B. die Annahme, dass eine gegenwärtige Anomalie in der Vorhersageperiode weiterbesteht. Wettervorhersage-Systeme – auf Jahreszeiten, Jahre, oder Jahrzehnte bezogen – gleichen sich in vielerlei Hinsicht (Z. B. enthalten sie alle die gleichen mathematischen Gleichungen für die Atmosphäre. Sie alle brauchen Anfangs-Bedingungen um Vorhersagen anzustoßen und sie sind alle abhängig von Grenzen der Vorhersagegenauigkeit, die auf dem Schmetterlingseffekt beruhen). Trotzdem steckt die Vorhersagefähigkeit über Jahrzehnte-Zeiträume noch immer in den Kinderschuhen, anders als die Wetter- und unterjährige Jahreszeiten-Vorhersage. Die dekadischen Vorhersagesysteme zeigen nichtsdestoweniger ihre Güte bei der nachträglichen Vorhersage der oberflächennahen Erdtemperaturen über den gesamten Globus über einen Zeitraum von  wenigstens neun Jahren. Eine ‘Hinterhersage’ (hindcast) ist eine Vorhersage in der Vergangenheit, in welche nur die Beobachtungen bis zum jeweiligen Zeitpunkt ins Vorhersagesystem eingehen, um die Vorhersage zu erzeugen. Man meint, dass der Großteil der Vorhersage-Güte aus dem externen Antrieb herrührt. ‘Externer Antrieb’ ist ein Begriff, der von Klimatologen gebraucht wird, um eine Wirkkraft von außerhalb des Klimasystems zu benennen, die eine Änderung im Klimasystem erzeugt. Damit gemeint ist auch der Anstieg der Konzentrationen der langlebigen Treibhausgase. Die Theorie läßt erwarten, dass die Güte bei der Vorhersage dekadischer Niederschläge geringer sein sollte als bei der Vorhersage von dekadischen Erdoberflächen-Temperaturen. Die Qualität der Hinterhersage stimmt mit dieser Erwartung überein. Schließlich sollte beachtet werden, dass dekadische Vorhersagesysteme zu dem Zwecke entworfen sind, sowohl die extern bewirkten wie auch die intern erzeugten Quellen der Vorhersagbarkeit auszunutzen. Klimatologen unterscheiden zwischen dekadischen Vorhersagen und dekadischen Projektionen. Projektionen beruhen nur auf der Prognosefähigkeit, die von externem Antrieb bewirkt wird. Während vorhergehende IPCC Zustandsberichte sich nur mit Projektionen beschäftigten, beurteilt dieser Bericht auch die Forschung zu dekadischen Vorhersagen und deren wissenschaflticher Grundlage.

Erstaunlich an diesem Kapitel ist, dass nun wenigstens erkannt wird, dass gute dekadische Vorhersagen überaus schwierig sind. Nur die Güte der Hinterhersage der erdoberflächennahen globalen Temperaturen über wenigstens neun Jahre wird betont. Gute multi-dekadale Projektionen stellen aber weit höhere Ansprüche.

Der Annex 1 zeigt dennoch detaillierte regionale Projektionen über Jahrzehnte. Hier sind sie:

Annex I: Atlas of Global and Regional Climate Projections

Ich habe Text aus diesem Annex herausgezogen, der erklärt, worum es geht (um detaillierte regionale multi-dekadische Klima-Projektionen).

Annex I: Atlas of Global and Regional Climate Projections ist integraler Teil des Beitrags der Working Group I zum fünften IPCC Zustandsbericht, Climate Change 2013: The Physical Science Basis. Der Annex enthält umfassende Informationen über eine Bandbreite ausgewählter Variablen (z. B. Temperatur und Niederschlag) für einige Zeithorizonte (z. B.  2020, 2050, 2100) für alle Regionen und, soweit möglich, für die vier Basis-RCP Szenarien.

Aber es gibt einen grundlegenden Fehler im Annex 1 und damit auch in allen Papieren und Studien über die zukünftigen Klima-Auswirkungen, die darauf beruhen. Trotz der weitverbreiteten Benutzung der Modell-Ergebnisse ist dies von Anfang an grundlegend falsch.

Um als belastbarer Ansatz für Klima-Auswirkungs-Studien bestehen zu können, müssen die Modelle (beim Testen in der Hinterhersage) nicht nur ihre Güte bei der Darstellung des aktuellen Klimas zeigen (das wird ausgetestet mit Hilfe von Vergleichen von Re-Analysen wobei das Klimamodell NICHT in seitliche Grenzen und Anschüben aus Re-Analysen eingezwungen wird), es muss auch Güte zeigen bei der Vorhersage von Veränderungen in den regionalen Klimastatistiken. Dieses letztere Erfordernis ist nötig, wenn man die Modelle als belastbare Vorhersage-Werkzeuge akzeptieren will.

Um diesen Ansatz für die Auswirkungsstudien robust zu machen, müssen die Modelle (beim Test mit Hinterhersagen) ihre Eignung nachweisen, nicht nur bei der Abbildung des aktuellen Klimas (das wird getestet durch Vergleich mit Re-Analysen, bei denen das Klimamodell NICHT in Seitenbegrenzungen eingezwungen ist und mit leichten heimlichen Anschüben aus Re-Analysen), sondern sie müssen auch ihre Eignung zeigen bei der Vorhersage von VERÄNDERUNGEN in den regionalen Klimastatistiken. Dieses letztere Erfordernis muss erfüllt sein, wenn die Modelle als robuste Projektions- (Vorhersage-) Werkzeuge gelten sollen.

Notwendige und hinreichende Tests auf die Qualität der Modell-Vorhersagen (Projektionen) sind:

In Zusammenfassun

· Die Fähigkeit des Modells, qualitativ geeignete regionale Klimastatistiken zu reproduzieren aus dem Klimamodell (GCM oder in kleinerem Maßstab mit einem höher auflösenden Regional-Modell) ist eine NOTWENDIGE erste Bedingung.

· Die HINREICHENDE Bedingung ist, dass die Modelle in Hinterhersage-Läufen ihre Qualität bei der Vorhersage von VERÄNDERUNGEN in den regionalen Klimastatistiken zeigen.

Es ist ein häufiger Fehler, anzunehmen, dass man Re-Analysen nutzen könnte, um die Vorhersage-Qualität für die Zukunft zu beurteilen.

Hierzu siehe folgendes Papier:

Pielke Sr., R.A., and R.L. Wilby, 2012: Regional climate downscaling – what’s the point? Eos Forum, 93, No. 5, 52-53, doi:10.1029/2012EO050008

Wenn Re-Analysen für den Lauf eines Modells benutzt werden, gibt es eine reale Einschränkung auf die Ergebnisse, die nicht existiert, wenn die multi-dekadalen Klimamodelle für zukünftige Dekaden zum Laufen gebracht werden (und tatsächliche seitliche Grenzbedingungen und Anschübe aus den Re-Anllysen dürfen nicht benutzt werden beim echten Hinterhersage-Test auf die Modell-Güte). Diese Frage wird in folgendem Papier besprochen:

Pielke Sr., R.A. 2013: Comments on “The North American Regional Climate Change Assessment Program: Overview of Phase I Results.” Bull. Amer. Meteor. Soc., 94, 1075-1077, doi: 10.1175/BAMS-D-12-00205.1.

Es sei denn, wie schon oben dargelegt: Für das globale Klimamodell (dynamisch und/oder statistisch auf kleineren Maßstab gebracht) kann gezeigt werden, dass es qualtitativ geeignete Klimavorhersage auf regionaler Basis machen kann (Wenn es über multi-dekadische Zeiträume im Hinterhersage-Modus läuft, kann es nicht als zuverlässige Abbildung des echten Klimas akzeptiert werden).

Beispiele für Modell-Mängel beim IPCC

Multi-dekadische globale Modell-Vorhersagen haben bei Hinterhersage-Läufen große Mängel sogar in Bezug auf das echte derzeitige Klima! Fachbegutachtete Beispiele dieser Mängel sind in der nachfolgend zitierten Einführung zusammengefaßt:

Pielke Sr, R.A., Editor in Chief., 2013: Climate Vulnerability, Understanding and Addressing Threats to Essential Resources, 1st Edition. J. Adegoke, F. Hossain, G. Kallos, D. Niyoki, T. Seastedt, K. Suding, C. Wright, Eds., Academic Press, 1570 pp. [http://pielkeclimatesci.files.wordpress.com/2013/05/b-18preface.pdf]

Auch hier:

Taylor et al, 2012: Afternoon rain more likely over drier soils. Nature. doi:10.1038/nature11377. Received 19 March 2012 Accepted 29 June 2012 Published online 12 September 2012

“… die fehlerhafte Sensitivität der Konvektionsschemata, die hier dargestellt werden, trägt wahrscheinlich bei großmaßstäblichen Modellen zu einer Tendenz bei, trockene Bedinungen „hineinzuzwängen“, wobei die Trockenperioden unrealistisch ausgedehnt werden und möglicherweise wird die Rolle des Feedbacks der Bodenfeuchte im Klimasytem übertrieben.“

Driscoll, S., A. Bozzo, L. J. Gray, A. Robock, and G. Stenchikov (2012), Coupled Model Intercomparison Project 5 (CMIP5) simulations of climate following volcanic eruptions, J. Geophys. Res., 117, D17105, doi:10.1029/2012JD017607. published 6 September 2012.

“Die Studie bestätigt vorhergehende ähnliche Auswertungen und weckt Zweifel an der Eignung der gegenwärtigen Klimamodelle zur Simulation der Rückwirkung eines größeren Modus von globaler Zirkulationsvariabilität auf externe Antriebe.”

Fyfe, J. C., W. J. Merryfield, V. Kharin, G. J. Boer, W.-S. Lee, and K. von Salzen (2011), Skillful predictions of decadal trends in global mean surface temperature, Geophys. Res. Lett.,38, L22801, doi:10.1029/2011GL049508

”… für längerfristige dekadische Hinterhersagen kann eine lineare Trendkorrektur nötig werden, wenn das Modell die Langfristtrends nicht reproduziert. Zu diesem Zweck korrigieren wir unter Berücksichtigung der systematischen langzeitlichen Trend-Verfälschungen.”

Xu, Zhongfeng and Zong-Liang Yang, 2012: An improved dynamical downscaling method with GCM bias corrections and its validation with 30 years of climate simulations. Journal of Climate 2012 doi: http://dx.doi.org/10.1175/JCLI-D-12-00005.1

”… das herkömmliche Maßstabsvermindern (TDD) [i.e. ohne Anpassungen) überschätzt die Niederschläge um 0,5-1,5 mm d-1….. Die Wiedergabe des 2-Jahres-Pegels der Maximum-Sommer-Tages-Temperatur, wie vom TDD simuliert, ergibt eine Unterschätzung von 2 – 6°C über die U.S.-Kanada-Zentralregion.

Anagnostopoulos, G. G., Koutsoyiannis, D., Christofides, A., Efstratiadis, A. & Mamassis, N. (2010) A comparison of local and aggregated climate model outputs with observed data. Hydrol. Sci. J. 55(7), 1094–1110

"…. lokale Projektionen korrelieren kaum mit Mess-Beobachtungen. Auch haben wir gefunden, dass die Korrelation über größere Räume , z. B. Kontinental USA, schlechter ist als für lokale Maßstäbe."

Stephens, G. L., T. L’Ecuyer, R. Forbes, A. Gettlemen, J. /C. Golaz, A. Bodas/Salcedo, K. Suzuki, P. Gabriel, and J. Haynes (2010), Dreary state of precipitation in global models, J. Geophys. Res., 115, D24211, doi:10.1029/2010JD014532.

"… die Modelle erzeugen Niederschlag etwa zweimal so häufig, wie beobachtet wird, und sie machen den Regen viel zu gering. … Der Unterschied in der Art der Modell-Niederschläge ist systemisch und darin liegt eine Menge von wichtigen Implikationen für die Modellierung des gekoppelten Erd-Systems … … nur geringe Qualität bei der Kalkulation des Niederschlags an einzelnen Gitternetzpunkten, daher gibt es keine Begründung – und es hat auch keine Bedeutung für das reale Erd-System – für die weitere Maßstabsverkleinerung der Niederschlags an den Gitternetzpunkten oder für noch höhere Auflösung.“

Sun, Z., J. Liu, X. Zeng, and H. Liang (2012), Parameterization of instantaneous global horizontal irradiance at the surface. Part II: Cloudy-sky component, J. Geophys. Res., doi:10.1029/2012JD017557, in press.

“Berechnungen der Strahlung in globalen numerischen Wetter-Vorhersagen (NWP) und in Klimamodellen werden normalerweise in dreistündigen Zeitintervallen durchgeführt, um die Rechnerkosten zu vermindern. Dies kann zur falschen … Behandlung der Globalen Horizontalen Einstrahlung (GHI) an  an der Erdoberfläche führen, was wiederum eine Fehlerquelle bei der modellierten Konvektion und des Niederschlags sein kann. … Eine wichtige Anwendung des Schemas liegt in globalen Klimamodellen. … Man hat herausgefunden, dass diese Fehler sehr groß sind, größer als 800 W m-2 bei vielen nicht strahlungsbezogenen Zeitschritten, wegen des Ignorierens der Wirkung der Wolkenwirkung ….”

Ronald van Haren, Geert Jan van Oldenborgh, Geert Lenderink, Matthew Collins and Wilco Hazeleger, 2012: SST and circulation trend biases cause an underestimation of European precipitation trends Climate Dynamics 2012, DOI: 10.1007/s00382-012-1401-5

“In Zusammenfassung: die modellierten Trends der atmosphärischen Luftströmungen und der bodennahen Temperaturen unterscheiden sich deutlich von den Beobachtungen. Diese Nicht-Übereinstimmungen sind zum großen Teil ursächlich für die Falschdarstellung der Niederschlags-Trends in den Klimamodellen. Die Ursachen der großen Trends der atmosphärischen Luftströmungen und der bodennahen Temperaturen im Sommer sind unbekannt.”

Ich könnte noch mehr Beispiele bringen. Aber es ist schon klar geworden, dass die Klimamodelle, die in dem Manuskript herangezogen werden, keine robusten Werkzeuge sind, um die Klimabedingungen der Zukunft vorherzusagen.

Annex 1 des 2013 IPCC WG1 Berichts ist daher von Grund aus falsch, weil er sich auf multi-dekadale Klimamodellierungs-Ergebnisse beruft, die keine Güte bei der zuverlässigen Vorhersage der meisten VERÄNDERUNGEN bei den grundlegenden Klima-Dynamiken zeigen, wie z. B. bei den Hauptluftströmungen, selbst für das gegenwärtige Klima. Sie haben auch überhaupt keine Güte gezeigt bei der Vorhersage mit der nötigen Genauigkeit der VERÄNDERUNGEN der regionalen Klimastatistiken, wie sie für die Wirkungsstudien erforderlich ist.

Ansichten Dritter:

Zum Schluß habe ich Text aus unterschiedlichen Emails von zwei wohlbekannten Protagonisten der Klimatologie herausgezogen. Beide nehmen an, dass CO2 der hauptsächliche Klimaantrieb ist und dass der Mensch verantwortlich ist und dass wir dringend etwas unternehmen müssten. Die Zitate stammen aus Emails in meinem Besitz. Sie zeigen, dass trotz anderer Punkte, in denen wir nicht übereinstimmen, beide mit mir einer Meinung sein könnten hinsichtlich der groben Unstimmigkeiten im Annex 1 des IPCC WG1 Berichts.

Der entsprechende Teil aus der ersten Email lautet:

“Man sollte auch sehen, dass weder initialisierte dekadische Vorhersagen noch RCMs alles sind, was über regionale Klimawandel in den kommenden Dekaden ausgesagt werden kann – und man kann in der Tat darüber diskutieren, ob sie viel dazu beitragen können. ;-)”“

Aus der zweiten Email:

“Die Klimawirkung besteht zum großen Teil aus Erwärmung, ich kann nicht sagen, dass die heutigen Klimamodelle mit Gewißheit noch etwas darüberhinaus aussagen können. Ich füge hinzu, dass es wahrscheinlich polwärts und auf den Kontinenten eine Verstärkung der Erwärmung geben wird. Ein weiteres gesichertes Charakteristikum scheint die Bewegung der Sturmgürtel hin zu den Polen in beiden Hemisphären zu sein. Das hat Auswirkungen auf die allgemeine Zirkulation und insbesondere auf die Klimatologie der Niederschlagsstärke und Veränderlichkeit (z. B. Trockenheiten und Überschwemmungen). Diese polwärts gerichtete Bewegung kann man aus den Daten ablesen. Es gibt in den Modellen Hinweise, dass während des kommenden Jahrhunderts die Verstärkung des Ozons einiges von der polwärtigen Verschiebung auf der Südhalbkugel neutralisieren könnte, aber wahrscheinlich nicht auf der Nordhalbkugel. Ich denke, weiter können wir nicht gehen bei der Vorhersage des Klimas für die nächsten 50-100 Jahre. Natürlich folgt der Meeresspiegel der thermischen Ausdehnung des Wassers wie auch dem Abschmelzen des Landeises. Ich meine, es gibt da sehr wenig Informationen (vom Rauschen abgesehen) über das oben Gesagte hinaus in Bezug auf die Anwendung von globalen Klimamodellen auf Regionen, eingeschlossen das Vermindern auf kleinere Maßstäbe.”

Since, these individuals have been silent in discussing the issue of the value of multi-decadal model regional climate predictions, I feel compelled to communicate that my flagging the failure of this approach for the impacts and policymakers communities is shared by even some in the IPCC community.

Weil diese Herren zu dem Problem geschwiegen haben, was multi-dekadale regionale Klimamodell-Vorhersagen wirklich wert sind, sehe ich mich wegen der Wirkung auf die Zielgruppen und Politiker gezwungen, die Falschheit dieses Ansatzes herauszustellen und zu zeigen, dass noch einige weitere Mitglieder der IPCC-Gemeinde diese Meinung teilen. 

Wie sollte man mit diesem IPCC-Fehler umgehen

Meine Empfehlung ist: wann immer man über multi-dekadale Klimaprojektionen hört oder liest, sollte man fragen:

Worin besteht die Güte der Modelle, die zur Projektion der VERÄNDERUNGEN benutzt wurden? Anders gefragt: worin besteht die Qualität der Vorhersage in Bezug auf die Klima-Metriken, die für eine bestimmte Wirkung wichtig sind?

Wenn keine handfesten Beweise für die Güte präsentiert werden, sind die darauf beruhenden Studien nicht in Ordnung. Annex 1 des 2013er IPCC WG1 – Berichtes, muss deswegen einen ehrlichen Beleg für die Güte der Projektionen liefern (wenn dies überhaupt geht) als Bestandteil eines vollständigen und umfassenden Berichts über den Sachstand der Klimawissenschaft.

Original hier

Übersetzung: Helmut Jäger, EIKE




Neue Fakten zu Fukushima-Zweite Begutachtung durch IAEA

Einordnung des Berichts

In der Folge des Reaktorunglücks am 11. März 2011 hat der Betreiber TEPCO einen Aktionsplan zur Beseitigung der Schäden vorgelegt. Dieser Plan wurde von den einschlägigen japanischen Verwaltungen geprüft. Diese "Roadmap" enthält detaillierte Beschreibungen und Zeitpläne der durchzuführenden Arbeiten. Jeweils im July 2012 und Juni 2013 wurde eine grundlegend neu überarbeitete Fassung erstellt. Die japanische Regierung, vertreten durch das METI (Ministry of Economy, Trade and Industry), hat die IAEA um eine Begutachtung dieser "Roadmap" gebeten.

Inzwischen trägt die japanische Offenheit Früchte. Das Spielfeld für Betroffenheitsunternehmen vom Schlage Greenpeace, ist bemerkenswert eng geworden. Es gelingt den einschlägigen "Atomexperten" kaum noch, ihre tumbe Propaganda in den Medien unter zu bringen. Sie können nur noch ihre tiefgläubige Klientel bedienen. Wenn man sich an die Geheimniskrämerei der Sowjets nach Tschernobyl erinnert, ein bemerkenswerter Fortschritt. Mangels frei zugänglicher und überprüfbarer Informationen selbst für Fachkreise, war jeglicher Spekulation und Verschwörungstheorie Tür und Tor geöffnet.

Japan hat viele grundsätzliche und vermeidbare Fehler im Umgang mit der Kernenergie gemacht. Sie haben aber ihre Konsequenzen gezogen und ohne jede Rücksicht auf Kosten und Organisationsstrukturen radikale Veränderungen durchgeführt. Veränderungen, die der Verbesserung und weiteren Entwicklung dienen und nicht dem politischen Tagesgeschäft geschuldet sind.

Entfernung der Brennelemente

Die vorhandenen Lagerbehälter auf dem Gelände wurden überprüft, mit neuen Dichtungen versehen und auf einen sicheren Platz umgesetzt. An einer langfristigen Lösung wird gearbeitet.

Der Block 4 wurde vollständig neu eingehaust und inzwischen von allem Schutt geräumt. Es ist jetzt wieder eine, einem Kernkraftwerk entsprechende Arbeitsumgebung geschaffen worden. In den letzten fünf Monaten sind bereits 659 Brennelemente aus dem Lagerbecken entfernt worden, in 14 trockenen Lagerbehältern (Anmerkung: ähnlich "Castoren") verpackt und auf dem Zwischenlagerplatz transportiert worden. Alle größeren Trümmer sind aus dem Lagerbecken geräumt, kleinteilige Trümmer zu über 70 % entfernt und fast 20% der Lagergestelle bereits ausgesaugt worden.

Es ist geplant, alle Brennelemente aus den Lagerbecken bis 2017 zu entfernen und in trockene Lagerbehälter zu verpacken. Es wird ein Verfahren ausgearbeitet, alle Brennelemente auch innen so zu reinigen und zu waschen, daß sie "normalen" Ladungen aus Kernkraftwerken entsprechen, um sie den normalen Wiederaufbereitungsanlagen problemlos zuführen zu können. Alle Brennelemente werden in fünf Kategorien eingeteilt: In Ordnung und vollständig bestrahlt, in Ordnung und teilweise bestrahlt, in Ordnung und nicht bestrahlt, beschädigt (im Sinne von, der Austritt radioaktiver Stoffe ist möglich), leicht beschädigt (lediglich mechanisch; vom Originalzustand abweichend).

Weit aus schwieriger und langwieriger, gestaltet sich die Entfernung des "radioaktiven Bruches". Gemeint ist damit geschmolzener Brennstoff, der teilweise sogar Legierungen mit anderen Materialien des Reaktorkerns eingegangen sein wird. Hier ist nur ein schrittweises Vorgehen möglich. Man muß erst allen Schutt — verursacht durch die Wasserstoffexplosionen — wegräumen, um an die Druckgefäße zu gelangen. Dies muß wegen der erhöhten Strahlung fernbedient und durch Roboter geschehen. Ein Entwicklungsprozess, der ständig neu durchdacht und angepaßt werden muß. Die Vorarbeiten werden mehre Jahre in Anspruch nehmen.

Umgang mit dem verseuchten Wasser

Die Lagerung von radioaktivem Wasser in Tankanlagen auf dem Gelände, war in den letzten Monaten ein ständiges Ärgernis. Auftretende Leckagen fanden ein breites Echo in der weltweiten Öffentlichkeit. Es wurden drei Prinzipien zur Vorgehensweise definiert:

1.     Beseitigung der Quellen. Dies ist der schwierigste Teil, da es kurzfristig eine Abdichtung der zerstörten Sicherheitsbehälter erfordert und langfristig eine Beräumung des "radioaktiven Schutts".

2.     Trennung von Grundwasserströmen auf dem Gelände von kontaminiertem Wasser im Bereich der zerstörten Anlage. Maßnahmen sind eingeleitet: Umleiten der Grundwasserströme oberhalb des Standortes, bevor sie die Ruine erreichen können. Errichtung von unterirdischen Sperren vor den Blöcken und gegenüber der Hafenseite.

3.     Sicherung der gelagerten Wassermassen (Verhinderung von Undichtigkeiten, Auffanganlagen für Leckagen etc.). Beschleunigter Bau von Reinigungsanlagen. Momentan liegt der Schwerpunkt auf einer sehr erfolgreichen Entfernung des Cäsiums (Anmerkung: Cäsium ist ein γ-Strahler und maßgeblich an der Strahlenbelastung im Tanklager verantwortlich; α- und β-Strahler sind in diesem Sinne unerheblich — niemand muß das Wasser trinken.). Ferner wird inzwischen das ursprünglich zur Kühlung verwendete Meerwasser entsalzt und wieder verwendet. Inzwischen wurden über 800 000 m3 sehr erfolgreich behandelt.

Inzwischen haben sich mehr als 500 000 m3 kontaminiertes Wasser auf dem Gelände angesammelt. Davon ungefähr 400 000 m3 in 900 oberirdischen Tanks! Der Rest befindet sich noch in den Kellern, Kabelkanälen usw. Man geht davon aus, daß man das Tanklager noch einmal verdoppeln muß. Dies hängt jedoch letztendlich von den Gegenmaßnahmen und dem Tempo bei der Wasseraufbereitung ab. Es wird z. B. auch erprobt, das Wasser nicht mehr ständig aus den Kellern und Kanälen abzupumpen, sondern mobile Reinigungsanlagen einzusetzen. Rund 300 000 m3 in den Tanks besteht inzwischen aus dem Abwasserstrom der Meerwasserentsalzung (Salzlake) und Cäsium-Entfernung. Es "strahlt" daher nur noch relativ gering, besitzt aber einen erhöhten Anteil an Sr-90 und Y-90. Andere Radionuklide sind nur in geringem Umfang vorhanden. TEPCO setzt nun auf das Advanced Multi-Nuclide Removal System (ALPS) zur Beseitigung der radioaktiven Abwässer. Es ist bereits eine Versuchsanlage mit drei parallelen Strängen zu je 250 m3 / Tag in Betrieb. Mit ihr wurden bereits 30 000 m3 erfolgreich gereinigt. Es gelingt praktisch alle Radionuklide — bis auf Tritium — unter die Nachweisgrenze zu entfernen. (Anmerkung: Tritium bildet "titriertes Wasser", welches chemisch praktisch nicht von normalem H2O unterscheidbar ist. Es ist aber relativ harmlos, da es sich nicht im Körper anreichert und wie jegliches andere Wasser auch, eine sehr geringe biologische Halbwertszeit besitzt). Inzwischen laufen in Japan Diskussionen, ob man nicht wenigstens dieses Wasser, in "Trinkwasserqualität" in das Meer abgeben könnte. In der japanische Kultur, ist diese Frage keinesfalls mit einem einfachen "Ja" zu beantworten.

Unmittelbar nach dem Unglück, in einer durch den Tsunami völlig zerstörten Infrastruktur, war es richtig, möglichst schnell ein Tanklager zur Rückhaltung von radioaktivem Wasser aufzustellen. Es wurde deshalb auf zusammengeschraubte Tanks zurückgegriffen. Solche Tanks, mit ihren zahlreichen Dichtungen, sind nicht für einen dauerhaften Betrieb geeignet. Es wird deshalb ein umfangreiches Programm gestartet, welches sich mit einer dringend notwendigen Ertüchtigung beschäftigt. Neue Tanks, sollen nur noch in geschweißter Ausführung erstellt werden. Wenn das Tanklager noch sehr lange nötig wird, will man sogar die vorhandenen Behälter ersetzen.

Feste Abfälle

Bei der Reinigung der gewaltigen Wassermengen darf nicht vergessen werden, daß man damit nicht die Radioaktivität beseitigt, sondern lediglich umlagert. Nach der Reinigung bleiben Zeolite, an die die Radionuklide gebunden sind und Schlämme mit Radionukliden übrig. Diese müssen vor der endgültigen Lagerung in eine feste Form überführt werden, damit sie nicht in die Umwelt freigesetzt werden. Es werden einige tausend Kubikmeter solcher niedrig und mittelaktiven Materialien übrig bleiben.

Der (kontaminierte) Schutt infolge des Tsunami ist für sich genommen, ein gewaltiges Problem. Bisher wurden von dem Gelände 65 000 m3 Schutt und allein 51 000 m3 Abfallholz beiseite geräumt und in zehn Zwischenlagern gesammelt. Da die gefällten Bäume "leicht verstrahlt" sind, dürfen sie nicht einfach verbrannt werden. Sie werden deshalb in Fässer verpackt, die für eine Lagerung von 25 Jahren vorgesehen sind. Für 23 000 dieser "Altholzfässer" wird gerade ein eigenes Lagergebäude errichtet. Kann sich noch jemand an die Bilder von Tschernobyl erinnern, wo ganze LKW und Busse einfach in ausgehobene Gräben versenkt wurden?

Bei einem normalen Abriss eines Reaktors, geht man von etwa 10 000 m3 "Atommüll" aus, der endgelagert werden muß. Der Rest kann nach Reinigung und Freimessung in den normalen Wertstoffkreislauf gegeben werden. In Fukushima rechnet man mit über 800 000 m3. Es ist deshalb ein umfangreiches Programm zur völligen Neuentwicklung eines Recycling auf der Unglücksstelle gestartet worden. Man möchte möglichst viel des unbelasteten Abfalls (nach einer Reinigung) auf der Baustelle wieder verwenden. Beispielsweise kann man das Volumen von Metallschrott durch Einschmelzen um 70 bis 80 % verringern. Ein bereits bei der Beseitigung von alten Dampferzeugern angewendetes Verfahren. Es wird nun untersucht, wie man das auf der Baustelle (kostengünstig) durchführen kann und dieses "leicht radioaktive" Material gleich zum Bau der "Atommülldeponien" wieder verwenden kann.

Nach heutiger Planung, geht man erst in 20 bis 25 Jahren von einem Abtransport radioaktiver Abfälle von der Unglücksstelle (in ein Endlager) aus. Bis dahin muß man deshalb für einen ausreichenden Strahlenschutz auf der Baustelle sorgen. Es müssen deshalb jede Menge provisorischer Abschirmungen gebaut werden.

Maßnahmen gegen das Eindringen von Grundwasser

Im Nachhinein kann man sagen, daß der Bau der Anlage im Grundwasser, ein weiterer schwerwiegender Konstruktionsfehler war. Das Kraftwerk mit seiner kompakten Bauweise aus vier Blöcken, besitzt zahlreiche Keller und unterirdische Verbindungskanäle. Diese lagen alle unterhalb des natürlichen Grundwasserspiegels. Um ein aufschwimmen zu verhindern, war deshalb eine permanente Grundwasserabsenkung erforderlich. Die erforderlichen Leitungen und Pumpen wurden durch den Tsunami zerstört. Infolgedessen kam es zu einem schnellen Wiederanstieg des Grundwassers, was zu zahlreichen Bauschäden führte. Heute dringen immer noch ungefähr 400 m3 täglich ein.

Es wurde bereits ein ganzes Bündel Maßnahmen ergriffen, um dieses Problem in den Griff zu bekommen. Durch Grundwasserabsenkung, -umleitung und Abdichtung bestimmter Bodenschichten, konnte bereits das Weiterfließen ins Meer aufgehalten werden. Das Eindringen in die Gebäude kann aber erst verhindert werden, wenn um das gesamte Kraftwerk eine Barriere aus Eis erzeugt worden ist. Man arbeitet bereits daran. Diese Methode ist z. B. im Tunnelbau Stand der Technik.

Strahlenbelastung in unmittelbarer Umgebung

Die Grundstücksgrenze, ist die (juristische) Grenze zwischen zwei Welten: Innerhalb des Zaunes gilt der Arbeitsschutz, außerhalb die allgemeinen Regeln für die Bevölkerung. Die japanische Regierung hat die zulässige zusätzliche Belastung für die Bevölkerung auf 1 mSv pro Jahr festgelegt. Dieser — absurd niedrige Wert — hat auch unmittelbar am Bauzaun zu gelten. Die aktuelle Belastung durch Gase ist praktisch nicht mehr vorhanden, weil praktisch keine Gase mehr austreten. Der "cloudshine" (Anmerkung: Strahlung, die Richtung Himmel abgegeben wird, wird teilweise durch die Luft zurückgestreut) beträgt ungefähr 1,8 x 10^{-8} mSv/a, die direkte Strahlung ungefähr 2,8 x 10^{-2} mSv/a und die Belastung durch Atmung und Nahrungsaufnahme ungefähr 1,8 x 10^{-4} mSv/a. Wohlgemerkt, 0,0282 mSv für jemanden, der das ganze Jahr unmittelbar am Bauzaun steht! In etwa, die Strahlenbelastung eines einzigen Transatlantikfluges nach USA.

Allerdings ist seit etwa April an manchen Stellen die jährliche Strahlenbelastung "dramatisch" auf 0,4 bis 7.8 mSv angestiegen. Dies ist in der Nähe der Tanks der Fall, in denen die Lake aus der Aufbereitung der "ersten Kühlwässer" eingelagert wurde. Sie wurde ursprünglich in unterirdischen Behältern gelagert, aber aus Angst vor unentdeckten Undichtigkeiten, in besser kontrollierbare oberirdische Tanks, umgepumpt.

Die IAEA-Kommission empfiehlt daher, für die "Strahlenbelastung der Öffentlichkeit" eine Person mit realistischen Lebens- und Aufenthaltsbedingungen zu definieren.

Robotereinsatz

Deutlicher, kann man den Unterschied zweier Gesellschaftssysteme nicht aufzeigen, wenn man die Aufräumarbeiten in Tschernobyl und Fukushima vergleicht. Welchen Wert ein Mensch im real existierenden Sozialismus hatte, kann man ermessen, wenn man die Bilder der Soldaten betrachtet, die mit bloßen Händen den Kernbrennstoff zurück in den Schlund des Reaktors warfen. In Fukushima schickt man auch nach drei Jahren nicht einmal einen Arbeiter in die Nähe der verunglückten Sicherheitsbehälter! Alle Erkundungen oder Reinigung- und Aufräumarbeiten werden maschinell aus sicherer Entfernung durchgeführt. Wenn man in des Wortes Bedeutung nicht weiter kommt, wird erst ein Roboter oder eine Vorrichtung entwickelt und gebaut. Wenn Geräte aus dem Ausland besser geeignet sind als eigene Entwicklungen, werden sie gekauft. Man denkt asiatisch langfristig und gibt sich selbst eine Zeitvorgabe von 30 bis 40 Jahren. Es wird schön zu beobachten sein, welchen Quantensprung die Automatisierung in der japanischen Industrie allgemein, in einigen Jahrzehnten erreicht haben wird. Hier in Fukushima, ist die Keimzelle für eine Revolution in der Industrie und Bautechnik. Japan scheint wieder einmal die restliche Welt verblüffen zu wollen — diesmal allerdings auf einem friedlichen Gebiet.

Kontrolle des Meeres

Zur Überwachung des Meeres wurden 180 Kontrollstellen für Wasser und Sedimente eingerichtet. Die laufenden Messungen haben ergeben, daß die Einleitungen seit dem Unglück um mehr als fünf Größenordnungen kleiner geworden sind. Die Messungen werden von TEPCO und sechs verschiedenen japanischen Behörden unabhängig und redundant vorgenommen. Hinzu kommen noch zahlreiche Universitäten und Forschungseinrichtungen.

Die Ergebnisse sind allen interessierten Organisationen international zugänglich. Fast alle Daten werden kontinuierlich auf verschiedenen Web-Sites veröffentlicht. Leitgröße ist Cs-137 wegen seiner langen Halbwertszeit von 30 Jahren. Seine Konzentration beträgt in der Nähe des Kraftwerks zwischen 1 und 2 Bq/Liter. Wegen der starken Verdünnung durch die Meeresströmungen sinkt es im Küstenverlauf unter 100 mBq/Liter. An entfernteren Küsten sinkt sie unter 1 bis 3 mBq/Liter.

Japan hat 2012 einen zulässigen Grenzwert von 100 Bq/kg für Fisch als Summe aller Cäsium Isotope festgelegt. In Fukushima wurden von 2011 bis 2013, 15144 Proben Meeresfrüchte untersucht, von denen 2016 diesen Grenzwert überschritten haben. Ein Zeichen der positiven Entwicklung ist dabei, daß die Quote von 57,7 % (Mittelwert der Periode April bis Juni 2011) auf 1,7 % im Dezember 2013 gesunken ist. In den anderen Küstenregionen wurden weitere 21 606 Proben im gleichen Zeitraum untersucht. Von denen 174 den Grenzwert überschritten haben. Dort sank die Quote von 4,7 % auf 0,1 %. Die schnelle und örtliche Abnahme zeigt, wie unbegründet die Tatarenmeldungen über eine weltweite Gefährdung gewesen sind. Nur mal so zur Orientierung: Eine einzelne Banane soll etwa 20 Bq in der Form von "natürlichem" Kalium haben.

Hier wird aber auch deutlich, daß es dem Laien wenig hilft, wenn er mit einem Zahlenfriedhof allein gelassen wird. Die IAEA empfiehlt daher den japanischen Behörden, noch enger mit interessierten Gruppen (Fischer, Händler, Verbraucherschutz, usw.) zusammenzuarbeiten und allgemein verständliche Interpretationen zu entwickeln. Ferner wird empfohlen automatische Meßstationen mit simultaner Übertragung ins Internet einzurichten, um das Vertrauen bei der Bevölkerung zu erhöhen. Außerdem ist die Qualität der Messungen über Ringversuche abzusichern. Inzwischen sind allein mehr als zehn verschiedene japanische Institutionen an den Messungen beteiligt. Meßfehler einzelner Organisationen, könnten von der Öffentlichkeit falsch interpretiert werden.