1

Die deutsche physikalische Gesellschaft (DPG) rezensiert die Bücher „Kampf um Strom“ von Prof. Claudia Kemfert im Vergleich mit „Energie und Klima“ von Prof. Horst-Joachim Lüdecke

Die DPG (hier) ist zweifellos primär für eine fachgerechte Klimadiskussion hierzulande zuständig, nicht etwa Einrichtungen wie das Potsdamer Institut für Klimafolgenforschung (PIK), welches sich vorwiegend durch ökopolitischen Aktivismus auszeichnet und dessen Aussagen daher von den Medien bevorzugt verbreitet werden. Im DPG-Vorstand ist die IPCC-Meinungsrichtung vermutlich kein Konsens. Schon im Aprilheft 2007 des Physikjournals der DPG mahnte nämlich der DPG-Präsident Prof. Eberhard Umbach unter dem Titel “Fakten für die Klimadebatte“ wie folgt an: “Wir müssen ohne Vorurteile und ohne ideologische oder rein ökonomische Befangenheit handeln, und zwar auf der Grundlage von stichhaltigen technischen und wissenschaftlichen Fakten“.

Dieses Statement war etwas kryptisch, weil bis heute überhaupt kein Hinweis darauf erfolgte, wie diese Fakten von der DPG denn nun gesehen werden. Noch weniger ist bekannt, ob die DPG etwas unternimmt, um diese Fakten zu erhalten, zu sichern und zu sichten. Was sind die Gründe? Die Antwort fällt nicht schwer, denn die DPG sprach sich vor Fukushima nachdrücklich für die Nutzung der Kernenergie aus. Sachlich lag sie damit zweifellos richtig, aber die Politik und der Zeitgeist gingen bekanntlich andere Wege. Als Konsequenz aus dieser unverschuldeten Entwicklung, ferner, um in Zukunft nicht noch einmal auf der politisch falschen Seite zu stehen und schlussendlich auch, um die von der Politik abhängigen Forschungsmittel durch politisch unerwünschte Fachaussagen nicht zu gefährden, ist die verständliche Zurückhaltung der DPG in Sachen "anthropogenes CO2" und "Energiewende" zu erklären.

Die DPG veröffentlicht in jedem Heft ihres “Physik Journal“ aus allen physikalischen Gebieten hervorragend gestaltete Fachartikel für Nicht-Spezialisten, hat aber seit Jahren noch nie etwas über die Klimawirkung des anthropogenen CO2 gebracht. Sie hält sich schadlos, indem sie weder den Klima-Alarmisten noch den Klimaskeptikern das Wort erteilt. Dies im Gegensatz zu fast alle deutschen Medien, die freiwillig selbstgleichgeschaltet ihren Kotau vor dem grünen Zeitgeist pflegen. Die Klima- und Energiewendeverlautbarungen insbesondere von ARD, Deutschlandradio, der ZEIT, der Süddeutschen usw. und praktisch aller Lokalzeitungen propagieren Klimakatastrophen in einem Ton und einer Intensität, die Vergleiche mit der ehemaligen DDR-Propaganda für den real existierenden Sozialismus nicht zu scheuen brauchen.

Unabhängige Experten kommen in den deutschen Medien, von denen der unwissende Konsument nunmehr schon seit langem ökogefügig weichgeklopft wird, nur selten zu Wort. Der aufmerksame Medienkonsument kann lediglich noch Zeuge des einen oder anderen amüsanten Lapsus werden. So beispielsweise im Anne Will Talk, 22-45 Uhr am 11.9.2013 in der ARD. Dort gelang es der Publizistin Gertrud Höhler in einem Fall, das pausenlose, unerträgliche Gelaber des vom Forsa-Chef zutreffend als „Kotzbrocken“ (hier) bezeichneten Ralph Stegner (SPD) zu unterbrechen und leise höflich darauf hinzuweisen, dass wir schon lange eine DDR-Planwirtschaft im Energiesektor haben. Die Reaktion darauf war so, als hätte Frau Höhler laut einen Wind streichen lassen: gequältes Lächeln der gesamten Runde und ein schnelles Abschwenken von Frau Will.

Angesichts dieser für eine angeblich „offene Demokratie“ traurigen Verhältnisse sind die Worte, die Prof. Konrad Kleinknecht in seiner Buchrezension findet, eine von jedem politischen Kalkül freie fachliche Meinungsäußerung. Konrad Kleinknecht ist renommierter Kernphysiker mit wissenschaftlichen Auszeichnungen und war in den Jahren 2000-2008 im DPG-Vorstand für die Klimafrage zuständig (hier). Das erste besprochene Buch ist aus der Feder der mediennahen Ökonomie-Professorin Dr. Claudia Kemfert und titelt „Kampf um Strom: Mythen, Macht und Monopole“. Das zweite Buch, verfasst vom Physiker Prof. Dr. Horst-Joachim Lüdecke, hat den Titel „Energie und Klima: Chancen, Risiken, Mythen“. Die Besprechung erschien im August/Septemberheft des „Physik-Journal“ der DPG, S. 86 und ist hier unverändert wiedergegeben:

Kampf um Strom + Energie und Klima

Diese beiden Bücher könnten gegensätzlicher nicht sein. Das erste ist eine politische Kampfschrift einer „Protagonistin“ der Energiewende.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Kemfert.jpg

Claudia Kemfert wiederholt zum Thema Klimawandel und Energiewende das, was ein Großteil der Politiker und der Medien glauben und verlauten lassen: Der Klimawandel sei menschgemacht und habe dramatische Folgen, Wind- und Solarenergie seien vorzuziehen, der Umbau unserer gesamten Energieversorgung in zehn Jahren sei möglich, ohne dass Wind- und Solarenergie die Versorgungssicherheit gefährden, steigende Strompreise seien kein Problem.

Dem Buch zu eigen ist die Überzeugung, Personen, die nicht dieselbe Meinung vertreten, könne man persönlich angreifen. Besondere Zielscheiben sind der Wirtschaftsminister und Wissenschaftler, deren Meinung als nicht „politisch korrekt“ eingeschätzt wird. Sie gelten ihr als „Lobbyisten“.

Die zehn Kapitel behandeln jeweils ein Problem der Energiewende, etwa den zu engen Zeitplan, den drohenden Versorgungsengpass, den Anstieg der Strompreise als Gefahr für die Industrie oder den deutschen Alleingang. Kemfert bemüht sich, die jeweiligen Probleme als nicht existent zu charakterisieren. Das geht beispielsweise so: Die Strompreise in Deutschland steigen, sie sind unter den höchsten in Europa. Schuld daran sind aber nicht die Subventionen für Wind- und Solarstrom durch das EEG, sondern die Versorgungsunternehmen, die trotz des niedrigen Börsenpreises die Verbraucher abzocken, und die Regierung, weil sie die energieintensiven Unternehmen von Teilen der EEG-Umlage entlastet. Ganz ähnlich hat man das schon von Jürgen Trittin gehört. Dass die EEG-Umlage jährlich 20 Milliarden Euro und damit 5,3 Cent/KWh beträgt, sei nicht Ursache der Preissteigerungen, das EEG müsse so bleiben. Auch sei der Strom nicht zu teuer, sondern jahrelang zu billig gewesen.

Kemfert fordert, dass die EEG-Umlage auch der energieintensiven Grundstoffindustrie auferlegt wird. Dann wird sich diese andere Produktionsstandorte suchen müssen. Der Ökonomin Kemfert ist offenbar entgangen, dass bei der Produktion von Aluminium, Kupfer, Stahl, Kohlefasern, Zement die Stromkosten bis zu 60% der Gesamtkosten verursachen, vor den Personalkosten.

Die übrigen Kapitel des Buchs folgen dem Muster dieser zwei Beispiele. Begründungen oder Quellen für die Behauptungen fehlen.

Dagegen erlaubt sich Horst-Joachim Lüdecke aufgrund seiner physikalischen Kenntnisse eine unabhängige Beurteilung der Lage nach der Kehrtwende der Politik. Das Buch ist wissenschaftlich gehalten und kommt nicht ohne Zahlen, Diagramme und quantitative Vergleiche aus. Deshalb ist es anspruchsvolle Lektüre.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Buch_Umschlag.jpg

Zum Thema Klima hinterfragt der Autor die These von der monokausalen Wirkung des Kohlendioxids und die Prognosen der Klimamodellrechnungen. Es beschreibt diese hochkomplexen nichtlinearen Differentialgleichungssysteme, in denen positive und negative Rückkoppelungen enthalten sind. Die Stärke der Rückkoppelungen ist nicht genau bekannt, verschiedene Annahmen führen zu mehr als 40 verschiedenen Modellen. Keines davon hat vorausgesagt, dass die mittlere Oberflächentemperatur der Erde in den 15 Jahren von 1997 bis 2012 überhaupt nicht angestiegen ist. Gleichzeitig hat sich der CO2-Gehalt der Atmosphäre von 360 ppm auf 400 ppm erhöht. Der Autor bezweifelt, ob die Voraussage für die Erwärmung über 100 Jahre zuverlässiger ist. Ein Fehler der Modelle sei es, dass die kühlende Wirkung des Wasserdampfs durch Wolkenbildung nach Lindzen und Choi (MIT) vergessen wurde.

Zur Energiepolitik fragt sich Lüdecke, was eine Verminderung des deutschen Beitrags zur weltweiten CO2-Emission von jetzt 2,5 Prozent auf 2% bewirken soll, wenn gleichzeitig in einem Jahr der Ausstoß der großen Industrieländer China, USA, Indien, Russland, Kanada, Brasilien um 6% zunimmt. Wie soll ein deutscher Sonderweg wirken, wenn dem Vorreiter kein anderes Land nachreitet?

Der Autor beschreibt dann Probleme der geplanten Umstellung auf alternative Energiequellen: ungenügende Kapazität der Pumpspeicherkraftwerke in den deutschen Mittelgebirgen, fehlende Hochspannungsleitungen von Nord nach Süd, ineffiziente „Wind-to-gas“-Option zur Speicherung.

Die größte Gefahr besteht für Lüdecke allerdings in der Strompreiserhöhung durch die teuren alternativen Energiequellen und die abnehmende Versorgungssicherheit durch fluktuierende Quellen. Im Gegensatz zu Kemfert sieht Lüdecke die Gefahr der EEG-Umlage für die energieintensive Grundstoffindustrie.

Wer sich ein quantitatives Bild der Energieprobleme machen will und bereit ist, Dogmen kritisch zu hinterfragen, wird das Buch von Lüdecke mit seinen 300 Quellenangaben spannend und lehrreich finden. Wer weiter an den Erfolg der derzeitigen Wendepolitik glaubt und an einer Wahlkampfbroschüre für eine kleine Partei sucht, der kommt bei dem Band von Frau Kemfert auf seine Kosten.

Konrad Kleinknecht




Die pazifische dekadale Oszillation kann die aktuelle Temperaturpause und die globale Erwärmung von 1975-1998 erklären

Die weiteren Ausführungen folgen dem Artikel der renommierten US-Klimaforscherin Judith Curry, für Details wird auf ihren Aufsatz verwiesen (hier). KX verwenden das bekannte GFDL Modell (hier) und führten damit Simulationen durch. Diese unterschieden sich durch die in das Modell eingesetzten Klimaantriebe. Neu an der Arbeit von KX war die Berücksichtigung der gemessenen Meerestemperaturanomalien im östlichen äquatorialen Pazifik. Die Ergebnisse der Modellrechnungen zeigt Fig. 1

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/presentation17.jpg

Fig. 1: Maßgebend sind die beiden rotgelben Kurven oben und unten. Oben wird die Messung gezeigt, unten das Modellergebnis OHNE den Einfluss des anthropogenen CO2, also nur durch die interne natürliche Variabilität verursacht. Die gute Übereinstimmung beider Kurven ist verblüffend gut.

Die Messung zeigt von 1975-1998 einen Temperaturanstieg von 0,68 °C, das Modell von 0,4 °C. Somit kann das Modell von KX mehr als die Hälfte der globalen Erwärmung mit natürlicher Klimavariabilität erklären. Bisher wurde dagegen die Erwärmung seitens der AGW-Verfechter und des IPCC ausschließlich dem anthropogenen CO2 zugeschrieben.

Das Ergebnis von KX passt zudem bestens mit den Temperaturänderungen zusammen, die man aus guten, bis etwa 2000 Jahre zurückreichenden Proxy-Reihen entnehmen kann. So enthält z.B. die Proxy-Reihe von Christiansen/Ljungqvist bereits vor 1700 n.Chr. (hier) mehrfach Temperatursteigerungen, aber auch Temperaturabfälle, die die des 20. Jahrhunderts an Stärke und Geschwindigkeit übertreffen. In zwei Publikationen des Verfassers (hier, hier) wird außerdem gezeigt, dass der Temperaturabstieg des 19. Jahrhunderts in seiner Stärke dem erneuten Anstieg im 20. Jahrhundert nicht maßgebend nachsteht. Anthropogenes CO2 erscheint daher zur Erklärung des globalen Temperaturverlaufs im 20. Jahrhundert nicht erforderlich, und die Klimasensitivität des CO2 wird mit hoher Wahrscheinlichkeit vom IPCC stark überschätzt.  

Es wäre pikant, wenn ausgerechnet Klimamodelle, deren Versagen der bekannte Klimaforscher Hans von Storch in einem SPIEGEL-Interview beklagte (hier), zwar einen ihrer vielen Mängel (nämlich die aktuelle globale Abkühlung nicht erklären zu können) zu beheben vermögen, dies aber nur zu dem Preis eines "Freispruchs für das anthropgene CO2".




Das Problem der Klimaforschung

Ein Berner Team um Professor Thomas Stocker veröffentlichte letzte Woche auf dem Onlineportal der führenden Zeitschrift Nature eine Studie, die noch weit strengere Ziele für die Klimapolitik fordert: Der gesamte CO2-Ausstoss dürfe 250 Milliarden Tonnen nicht übersteigen. Warum?

Die Klimaforscher haben ein Problem. Ab September legen sie den 5. IPCC-Bericht über Ursachen und Wirkungen des Klimawandels vor, die wissenschaftlichen Grundlagen sichtet ein globales Team unter Führung von ­Thomas Stocker und mit Sitz in Bern. Diese ­Arbeit stösst auf immer lautere Kritik – um die Erkenntnisse des IPCC foutiert (schweizerisch, sich um nichts kümmern) sich die Politik und neuerdings auch die Natur.

Die Klimapolitik ist gescheitert. Seit der Konferenz von 2009 im eisigen Kopenhagen machen die Schwellenländer klar, dass sie ihr Wirtschaftswachstum nicht einschränken lassen. China erzeugt mit jährlich 9 Milliarden Tonnen ein Viertel des gesamten CO2-Ausstosses von 34 Milliarden Tonnen, es würde ­also das Kontingent der Berner Forscher in ­einem Vierteljahrhundert allein aufbrauchen. Die USA mit 6 Milliarden Tonnen liessen sich nie in das Kioto-Protokoll einbinden, jetzt machen auch Japan und Kanada nicht mehr mit. In Australien stürzte Regierungschefin Julia Gillard wegen ihrer strengen Klimapolitik, und in Grossbritannien denkt Premier David Cameron um, nachdem in Nordengland das weltweit grösste Gasvorkommen entdeckt worden ist.

Zu einer Beschränkung ihres CO2-Ausstosses verpflichten sich gegenwärtig noch Länder, die zusammen dreizehn Prozent des gesamten menschengemachten CO2 erzeugen. Dazu gehört auch die Schweiz mit 51 ­Mil­lionen Tonnen, was einem Achtel des grössten chinesischen Unternehmens oder dem ­weltweiten Ausstoss eines halben Tages ­entspricht. Wie das Bundesamt für Umwelt letzte Woche mitteilte, erreichten die Schweizer 2012 das Reduktionsziel nicht, deshalb müssen sie ab 2014 höhere Abgaben auf ­Brennstoffe bezahlen.

Und die Klimaforschung hat versagt. Seit siebzehn Jahren steigen die Temperaturen nicht mehr, und das Klima könnte sich in den kommenden Jahren sogar abkühlen. Die ­tatsächlich gemessenen Temperaturen liegen denn auch unter all jenen, die das IPCC mit ­seinen komplexen Modellen voraussagte.

Seit Jahren zweifeln die Chinesen und die Inder an der westlichen Wissenschaft, jetzt fordern ­ausgerechnet die Niederlande, die gemäss den Szenarien der Klimaforscher im Meer versänken, das IPCC dürfe sich beim Klimawandel nicht auf den menschlichen Einfluss beschränken, sondern müsse auch natürliche Ursachen untersuchen.

Die Klimamodelle scheiterten so spektakulär, dass sie in jeder anderen Wissenschaft als widerlegt gälten. Deshalb bauten die Berner ein noch komplexeres Modell des gesamten Erdsystems. Und die Drohung mit der Klimaerwärmung macht den Menschen derzeit ­wenig Eindruck. Deshalb warnen die Berner vor der Versauerung der Meere, also dem ­Absterben der Korallen – die in 500 Millionen Jahren schon in weit saurerem Wasser überlebten. Hauptsache, die Forscher um Thomas ­Stocker können, wie sie der Berner Zeitung sagten, «den Status in der Champions League des klimawissenschaftlichen Business festigen».

Der Beitrag erschien unter dem Titel „Schärferer Ton, strengere Ziele“ in der 18. Ausgabe der Schweizer WELTWOCHE am 14.Juli 2013. EIKE dankt der WELTWOCHE für die Erlaubnis, den Artikel ungekürzt wiedergeben zu dürfen.




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #53 bis #57

Die Sammlung aller bisheriger Lügen und Richtigstellungen (bis #87) finden Sie auf den Webseiten von KRITIKALITÄT. EIKE veröffentlicht die Antworten ebenfalls in einer Serie, vorangegange Artikel finden Sie hier: #1-#3, #4-#7, #8-#11, #12-#15, #16-#19, #20-#24, #25-#27, #28-#31, #32-#36, #37-#41, #42-#45, #46-#49, #50-#52.


Immer wieder echauffieren sich ideologische Kernkraftgegner über Endlager, die angeblich unerfüllbare Bedingungen verlangen. Dabei übersehen sie, dass die nuklearen Abfallmengen geradezu mickrig sind. Absurd wird es aber, wenn hier als Beispiel das alte DDR-Endlager Morsleben angeführt wird, dessen Radioativitätsinventar geringer ist als der des umgebenden Salzstocks (#53). In Grund #54 sind den EWS wohl endgültig die Argumente ausgegangen, wenn nur noch die Tatsache, dass auch „Sperrmüll” dort hineinpasst, als Beleg für dessen Unsicherheit angeführt wird.

Der Transport abgebrannter Brennelemente erfolgt in Castoren. Sie sind die Inkarnation einer jahrzehntelang geschürten Strahlen-Paranoia. Sicherheitsvorkehrungen sollten selbstverständlich in vernünftigem Maße beachtet werden, aber die Verbreitung des vielfachen widerlegten LNT-Modells führte zu wahnwitzigen Auswüchsen: Bombensichere Transportbehälter, die Anschläge mit Panzerfäusten und Stürze aus 40 Metern Höhe auf Beton schadlos überstehen. Es gibt Falltests, Feuertests, Explosionstests und Zusammenstöße mit Zügen (bis 160 km/h), sogar Flugzeugabstürze auf einen Castor wurden simuliert.

Die Behauptungen der EWS erscheinen in diesem Zusammenhang recht amüsant, z.B. dass die Castoren außen „extrem heiß” seien (#55), dass diese angeblich nur 40 Jahre halten (#57). Witzig ist es immer wieder, wenn Greenpeace-Aktivisten etwas zu „messen” versuchen, aber diesmal scheint es ihnen tatsächlich gelungen zu sein (#56), wozu wir an dieser Stelle nochmals herzlich gratulieren wollen.

Hundert gute Antworten #53 – #57

#53: Atommüllkippe Morsleben

Behauptung: Westdeutsche Atomkonzerne kippten skrupellos ihren Müll ins DDR-Endlager Morsleben.

Die EWS behaupten

Bergeweise stapelten sich Ende der 1980er Jahre die Atommüllfässer an den westdeutschen Atomkraftwerken. Zum Glück kam die Wiedervereinigung – und Bundesumweltministerin Angela Merkel. Zusammen mit den Abteilungsleitern Walter Hohlefelder und Gerald Hennenhöfer erlaubte sie den Atomkonzernen, ihren Strahlenmüll für einen Spottpreis ins ehemalige DDR-Endlager Morsleben zu kippen. Dieses ist inzwischen einsturzgefährdet, die Sanierung kostet die Steuerzahler über 2 Milliarden Euro.

Merkel wurde Bundeskanzlerin, Hohlefelder Chef von E.ON und Präsident des Lobbyvereins Deutsches Atomforum. Hennenhöfer ist seit Ende 2009 wieder Chef der Bundesatomaufsicht.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die gesamte in Morsleben eingelagerte Radioaktivität beträgt gerade einmal das Sechsfache einer in der Medizin gebräuchlichen Quelle für die Strahlentherapie. Selbst die Umgebung des Salzstocks verfügt über eine höhere natürliche Aktivität als das eingelagerte Inventar. Die gesamte Morsleben-Debatte entpuppt sich damit als reines Politikum und die 2 Milliarden Euro dürften eher den Bund der Steuerzahler interessieren.

Morsleben und Asse sind, wie alle älteren Bergwerke, grundsätzlich einsturzgefährdet, sie wurden über 100 Jahre systematisch ausgehöhlt. Dies ist aber auch keine Neuigkeit, deshalb wurden „benutzte” Salzstöcke auch nie als große nukleare Endlager für hochradioaktive Langzeitabfälle in Betracht gezogen. Für die geradezu lächerlichen Aktivitäten in Morsleben und Asse reichen sie aber allemal.

Die persönliche Karriere von Merkel, Hohlefelder und Hennenhöfer ändert im übrigen auch nichts an den auf wissenschaftlicher Grundlage erstellten Gutachten der Bundesanstalt für Geowissenschaften, der Gesellschaft für Reaktorsicherheit und des Bundesamtes für Strahlenschutz. Wer ihnen allen gleichzeitig Korruption unterstellt, hält sicher auch die Mondlandung für eine Inszenierung.

Quellen von KRITIKALITÄT


#54: Atommüllkippe Schacht Konrad

Behauptung: Mitten unter Salzgitter sollen dereinst 865 Kilogramm Plutonium lagern.

Die EWS behaupten

Mehr als 300.000 Kubikmeter schwach- und mittelradioaktiven Müll mit bis zu 865 Kilogramm hochgiftigem Plutonium will das Bundesamt für Strahlenschutz in die ehemalige Eisenerzgrube Schacht Konrad füllen – unter dem Stadtgebiet von Salzgitter. Die Entscheidungen, Schacht Konrad als Endlager zu nutzen, waren stets politische. Einen Vergleich verschiedener Standorte nach klaren Kriterien hat es nie gegeben. Attraktiv aus Sicht der Atomindustrie war ›Konrad‹ vor allem wegen des außergewöhnlich großen Förderschachts, den auch nuklearer Sperrmüll passieren könnte.

Die Langzeitsicherheits-Prognose für Schacht Konrad basiert im Wesentlichen auf theoretischen Annahmen. Die Modellrechnungen nach veralteten Methoden entsprechen nicht dem Stand der Wissenschaft.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Geologie von Schacht Konrad ist genau bekannt, es werden diverse Messungen und nicht nur theoretische Überlegungen vorgenommen, die auf den Webseiten des Bundesamtes für Strahlenschutz dokumentiert sind. Die Biosphäre kommt mit dem Inventar dank einer dicken, wasserunlöslichen Eisenerzschicht nicht in Kontakt, auch nicht das Grundwasser. Ebenfalls dokumentiert sind Planfeststellungsverfahren und höchstrichterliche Entscheidungen, die eine Genehmingung nach rechtsstaatlichen Verfahren des Endlagers Konrad bestätigen. Die gänzlich unbelegte Behauptung, der Schacht Konrad sei nicht nach dem „Stand der Wissenschaft” untersucht worden, ändert daran genau so wenig wie die Tatsache, dass dort auch „nuklearer Sperrmüll” reinpasst.

Man beachte auch, dass der Schacht Konrad, im Gegensatz zu Gorleben, lediglich für schwach- und mittelaktive Abfälle gedacht ist. Das relativ wenige Plutonium ist hier auf das ganze Volumen verteilt und kann daher nicht durch die Wärmeentwicklung, die im konzentriertem Falle nennenswert wäre, die Integrität des Bergwerkes beeinträchtigen.

Quellen von KRITIKALITÄT


#55: Zwischenlager

Behauptung: Hochradioaktiver Atommüll lagert in besseren Kartoffelscheunen.

Die EWS behaupten

Weil der Atommüll in den Castor-Behältern stark strahlt, sind diese außen extrem heiß. Die Zwischenlagerhallen in Gorleben, Ahaus, Lubmin und an den Atomkraftwerken haben daher große Luftschlitze, damit Luft an den Behältern vorbeistreichen kann. Wird einer der Behälter undicht, gelangt die Radioaktivität so ungehindert ins Freie.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Wer Außentemperaturen von 40-50 °C als „extrem heiß” bezeichnet, muss sich wahrlich eine Mimose schimpfen lassen.

Castoren haben eine 45 Zentimeter dicke Wandung aus massivem Stahl. Ein mit Edelgas gefülltes Indikatorvolumen in der Wand würde eine Beschädigung anzeigen, lange, bevor das Lagervolumen undicht wird. Ein Flugzeugabsturz oder mehrere Tonnen Sprengstoff machen dem Behälter nichts aus.

Sollte durch ein wie auch immer geartetes hypothetisches Szenario ein Castor-Behälter doch einmal beschädigt werden, so sind die darin befindlichen Brennstäbe immer noch umhüllt. Sollte selbst diese Hülle beschädigt werden, so können nur die radioativen Gase wie Krypton-85 und kleinste Spuren von Cäsium-137 austreten. Jedoch darf nicht vergessen werden, dass Cäsium eine Siedetemperatur von 670 °C hat, was weit über der Innentemperatur des Castorbehälters liegt.

Quellen von KRITIKALITÄT


#56: Castor-Strahlung

Behauptung: Castor-Behälter geben radioaktive Strahlung ab.

Die EWS behaupten

Beim Castor-Transport im Herbst 2008 maßen Umweltschützer am vorbeifahrenden Atommüll-Zug alarmierende Strahlungswerte. Auf ausführliche Kontrollmessungen beim Umladen der Behälter verzichteten die Behörden: Eigene Messgeräte hatten sie keine. Und die Zwischenlager-Gesellschaft GNS wollte ihre »Mitarbeiter nicht unnötig der Strahlung aussetzen«.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Zunächst einmal muss man den Umweltschützern – gemeint ist die Organisation Greenpeace – gratulieren, sie haben die Messungen des Bundesamtes für Strahlenschutz gut reproduziert. Für „wissenschaftliche Analphabeten”, wie der Mitbegründer von Greenpeace-Deutschland Patrick Moore sie bezeichnet, ist das eine beachtliche Leistung.

Jetzt müssen die selbsternannten Greenpeace-Wissenschaftler nur noch elementare Kenntnisse in Strahlenschutz und Strahlenwirkung erwerben, dann können sie Adjektive wie „alarmierend” auch weglassen. Ansonsten kann man nur beruhigend festhalten: Castor-Behälter werden vor dem Transport genauestens durchgemessen und geprüft. Warum sollten die Behälter ohne irgendeinen Anlass beim Umladen nochmals durchgemessen werden? Sind einige Brennelemente vielleicht heimlich ausgebüchst? Im Strahlenschutz gilt nun einmal: Unnötige Belastungen sind zu vermeiden, auch wenn sie unbedenklich sind.

Quellen von KRITIKALITÄT


#57: Kurzzeit-Entsorgung

Behauptung: Die Castor-Behälter, in denen der Atommüll lagert, sollen offiziell ganze 40 Jahre halten.

Die EWS behaupten

Atomkraftwerke dürfen laut Gesetz nur betrieben werden, wenn die schadlose Entsorgung ihrer Abfälle gewährleistet ist. Der Atommüll strahlt noch in einer Million Jahren. Die Castor-Behälter, die ihn von der Umwelt isolieren, halten angeblich 40 Jahre. Damit ist offiziell alles in Ordnung.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Für eine Lagerung über geologische Zeiträume sind Pollux-Behälter vorgesehen, die Castor-Behälter dienen nur dem Transport und der Zwischenlagerung, und so werden sie auch verwendet. Außerdem beziehen sich die „40 Jahre” nicht auf die technische Haltbarkeit, sondern auf die behördliche genehmigte Dauer der Zwischenlagerung. Damit ist tatsächlich alles in Ordnung.

Quellen von KRITIKALITÄT





Eine neue Methode, wie von Bürgerinitiativen Großwindradanlagen verhindert werden können

Windradanlagen können in einer modernen Industrienation allein schon wegen der geringen Leistungsdichte des Windes niemals wirtschaftlich sein. Sie sind fatal für unsere geschützten Greifvögel und Fledermäuse (hier). Die Propagierung von Windrädern weist daher die verantwortlichen Kommunalpolitiker als Umweltschädiger aus, die für den eigenen Profit oder für die Gemeindekasse billigend das Töten von Flugtieren, die Verschandelung ihrer Landschaftsumgebung und die Schädigung von Anrainern in Kauf nehmen. Bundes- und Landespolitiker, wie insbesondere die grüne Landesregierung in Baden-Württemberg, gehören ebenfalls zu den Umweltschädigern, denn sie schaffen die gesetzlichen Voraussetzungen für die Zerstörung unserer Natur.

Die Verlogenheit der grünen Windrad-Agenda geht schon daraus hervor, dass einschlägige grüne Aktivisten zwar den Schutz des Juchtenkäfers instrumentalisierten (um den Stuttgarter Hauptbahnhofneubau zu torpedieren), das tägliche Vogel- und Fledermaustöten durch Windräder aber bis heute schweigend und ungerührt billigen. Die Farbe „grün“ hat längst nichts mehr mit Umweltschutz zu tun, sondern steht heute ausschließlich für das ideologische Ziel der Gesellschaftsveränderung und der Deindustrialisierung Deutschlands.

Es bleibt zu hoffen, dass dies die deutschen Wähler bei der Bundestagswahl im September berücksichtigen und dem grünen Umweltzynismus, zu dem auch die extrem naturschädlichen Maismonokulturen für Biogas gehören, eine deutliche Absage erteilen. Da alle großen Parteien, einschließlich der inzwischen wohl verschwindenden FDP, den energiepolitischen Irrsinn der „Energiewende“ mittragen, ist die Auswahl auf dem Stimmzettel freilich nicht groß. Zur Zeit sieht es aber so aus, als ob die AfD eine sachgerechte Energie- und Klimapolitik in ihr Parteiprogramm aufnehmen wird. Es gibt also zumindest einen Hoffnungsschimmer für die wirtschaftliche Vernunft und den Schutz unserer Umwelt. 

Gegen die Bestrebungen der Bundes-, Landespolitikpolitiker sowie vieler Gemeinden, Windparks  zu errichten, formieren sich inzwischen immer mehr Bürgerinitiativen, ein stellvertretendes Beispiel unter unzähligen weiteren hier. Im vorliegenden Beitrag soll im Folgenden nur die Problematik der Wirtschaftlichkeit von Windparks im Binnenland beleuchtet werden. Die bereits angesprochene Nutzlosigkeit und Umweltschädigung von Windradanlagen wird nicht thematisiert. Vergessen oder nachrangig sind diese Aspekte deswegen nicht!

Um eine verlässliche Wirtschaftlichkeitsprognose für den Stromertrag aus Windrädern erstellen zu können, ist die Befolgung der nachstehenden Agenda gemäß anerkannter Praxis in der Windradbranche obligatorisch:

Es muss eine Messung mit einem fest installierten Mast über eine Zeitdauer von mindestens einem Jahr auf möglichst mindestens 2/3 der geplanten Nabenhöhe der Windkraftanlagen durchgeführt werden.

Ergänzend sind mastlose Messungen mittels Fernerkundungssystemen wie SODAR oder LIDAR zulässig. Die alleinige Verwendung von Fernerkundungssystemen (LIDAR oder SODAR) ohne Mastmessung erlaubt wegen der Fehleranfälligkeit dieser Messungen allerdings keine brauchbare Aussage über die Windhöffigkeit eines Standortes.

Auf diese vorbereitenden Messungen kann nur dann verzichtet werden, wenn Langzeitdaten von unmittelbar benachbarten Windparks vorliegen. Windatlanten, wie sie unter anderem vom TÜV Süd herausgegeben werden, lassen allenfalls eine erste (oft hoffnungslos falsche) Grobabschätzung für einen Standort zu. Die Herausgeber solcher Atlanten betonen denn auch zutreffend, dass die angegebenen Werte lediglich Näherungen sind, deren Verifizierung durch vor Ort durchgeführte Messungen unverzichtbar ist!

Bei allen einschlägigen Strömungsmaschinen, wie beispielsweise Turbinen, (rückwärts laufenden) Kreiselpumpen und schließlich auch Windrädern geht die Strömungsgeschwindigkeit des Strömungsmediums mit der dritten Potenz in die von der Strömungsmaschine erbrachte Leistung ein (Leistung = Energie / Zeit). Diese unabänderliche physikalische Naturgesetzmäßigkeit ist für die Wirtschaftlichkeit eines Windparks entscheidend.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/v3Gesetz.jpg

Bild 1: Nur ausreichend hohe Windgeschwindigkeiten erlauben eine akzeptable Leistungsabgabe des Windrads. Ein Windrad, wie z.B. die weiter unten erwähnte Enercon E-92 ist für die Nennleistung aus rund 14 m/s Windgeschwindigkeit ausgelegt (bei anderen Typen ändert sich dieser Wert). Weht der Wind nur halb so stark, also mit 7 m/s, liefert die E-92 nur noch den Bruchteil von 1/(2∙2∙2) oder 12,5% der Nennleistung.

Weil die hohen Strömungsgeschwindigkeiten überproportional zum Energieertrag des Windrads beitragen, wird nun auch noch die Häufigkeitsverteilung der unterschiedlichen Windgeschwindigkeiten zu einem maßgebenden Faktor der Energieeffizienz. Es ist nützlich, sich diesen Zusammenhang einmal an einem, zum Zweck der Veranschaulichung vereinfachten Zahlenbeispiel vor Augen zu führen. Betrachten wir dazu zwei unterschiedliche Windradstandorte A und B, die beide die gleiche jahresgemittelte Windgeschwindigkeit von 4 m/s aufweisen mögen:

Im Standort A komme diese Windgeschwindigkeit konstant über das ganze Jahr vor. Im Standort B ergebe sich das Jahresmittel dagegen aus zwei konstanten unterschiedlichen Geschwindigkeiten, zum einen aus v = 7 m/s über die Zeitdauer eines halben Jahres und aus v = 1 m/s über die restliche Zeit. Der Jahresmittelwert von B ist daher der gleiche wie von A, nämlich 70,5+10,5 = 4 m/s. Die Energieerträge beider Standorte weichen jedoch dramatisch voneinander ab. Das Verhältnis der Jahresenergieerträge beträgt nach dem geschilderten Potenzgesetz [7∙7∙70,5 + 1∙1∙1∙0,5] / (4∙4∙4∙1) = 172/64 = 2,7. Der Standort B liefert daher rund den DREIFACHEN Jahresenergieertrag von A  – bei wohlgemerkt gleichen jahresgemittelten 4 m/s Windgeschwindigkeit. 

Das folgende Bild zeigt eine Messung aus der Praxis. Die beiden Standorte A und B unterscheiden sich praktisch nicht in ihrer mittleren Windgeschwindigkeit von rund 6 m/s. Der Standort B liefert aber das 1,35-fache des linken Standorts an elektrischer Energie. Der Grund ist sein Anteil an Windgeschwindigkeiten über 9 m/s, den Standort A nicht aufweist. Diesen Nachteil kann A auch mit seinem wesentlich höheren Anteil an v = 6 m/s nicht wettmachen.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Messung.jpg

Bild 2: Eine konkrete Messung der Häufigkeitsverteilung für zwei Standorte

Fazit: Bei gleicher Durchschnittswindgeschwindigkeit, aber unterschiedlicher Häufigkeitsverteilung der Windgeschwindigkeiten zweier miteinander verglichener Standorte können sich starke Differenzen im Energieertrag ergeben. Die Kenntnis der jahresgemittelten Wind-Durchschnittsgeschwindigkeit alleine ist daher für die Abschätzung der Energieausbeute eines Windrades nicht ausreichend.  Der Standort mit größeren Windgeschwindigkeitsfluktuationen – wenn die Fluktuationsmaxima bei relativ großen Windgeschwindigkeiten liegen – liefern infolge des erwähnten Potenzgesetzes einen größeren Energieertrag. Es ist daher unverzichtbar, nicht nur die mittlere Windgeschwindigkeit, sondern auch die Häufigkeit der Geschwindigkeitsverteilung über das Jahr zu kennen, um den zukünftigen Energieertrag einer Windradanlage realistisch abschätzen zu können. Diese Forderung können nur Langzeitmessungen erfüllen.

Kein Planer, der am Energieertrag seiner Anlage ernsthaft interessiert ist, kommt somit um eine lang andauernde Messung herum (von mindestens einem Jahr). Da inzwischen von vielen Windparkplanern oft alle Bedenken bezüglich der Wirtschaftlichkeit beiseite geschoben und zunächst nur die DWD- oder TÜV-Karten für eine Vorabprognose herangezogen werden sind erhebliche Zweifel an der späteren Real-Wirtschaftlichkeit vieler derzeitig geplanter Projekte angebracht.

Sven Johannsen, einer der Autoren dieses Artikels, befasst sich im internationalen Rahmen mit der Bewertung und Prüfung von Investitionsgütern im Bereich erneuerbarer Energien und verfügt unter anderem auch über die erforderlichen professionellen Messeinrichtungen zur Windmessung. Als Fachmann für meteorologische Windmessungen und Windertragsgutachten hat er sein Handwerk in einer der windstärksten OnShore-Gegenden unserer Erde erlernt, der kanadischen Provinz Prince Edward Island. Er berät und unterstützt erfolgreich viele deutsche Bürgerinitiativen.

Ein konkretes Beispiel, die Gemeinde Birkenau im Odenwald, ist bestens geeignet, die wirtschaftliche Unsachgemäßheit aktuell geplanter Windradparks im deutschen Binnenland zu entlarven. Ein Planer möchte in Birkenau drei sogenannte Schwachwindanlagen des Typs Enercon E-92  aufstellen. Er ging gemäß Windatlas von einer vorhandenen Jahresdurchschnitts-Windgeschwindigkeit von 5,75 m/s auf einer Höhe von 140 m über Grund aus. Sven Johannsen hatte dort im Auftrag einer Bürgerinitiative mit einem 60 m Windmessmast und einer über 6 Monate andauernden Messung nachgewiesen, dass mit einer Durchschnittsgeschwindigkeit von nur 3,6 m/s, bezogen auf die Nabenhöhe der geplanten WKA und unter Berücksichtigung der lokalen Häufigkeitsverteilung des Windes sich noch nicht einmal die Anschaffungskosten der drei geplanten Anlagen in 20 Jahren erzielen lassen! In diesem Zusammenhang ist zu erwähnen, dass aus Messungen in tieferer Höhe als der Windradnabenhöhe durch Umrechnung zuverlässig auf die Verhältnisse in Nabenhöhe geschlossen werden kann hier.

Mit diesen Sachargumenten konnte die ortsansässige Bürgerinitiative die Mehrheit der politischen Vertreter ihrer Gemeinde davon überzeugen, für die Aufstellung eines gemeindebezogenen Teilflächennutzungsplans zu stimmen, damit selber das Ruder in die Hand zu nehmen und den Windparkplaner erst einmal außen vor zu lassen.

Windmessergebnisse erlauben somit, eine konkrete Abschätzung des erwarteten Energieertrags vornehmen zu können, was die meisten Projekte schon im Vorfeld ausschließt und auch viele Gemeindemitglieder, bei denen die Profiterwartung an erster Stelle steht, stark ernüchtert. Dies hilft dann dem allgemeinen Bürgerwillen der betroffenen Gemeinden, die vielen Groß-Windkraftanlagen und Windparkbauvorhaben zu STOPPEN, die mit dem allseits berüchtigten § 35 des BauGB ermöglicht werden. Wie kann dies konkret erfolgen? Der HEBEL ist die Unvollständigkeit des § 35 des BauGB. §35 spezifiziert NICHT die GRÖßE von Windkraftanlagen. Die Gemeinde kann und darf somit, wenn die politische Mehrheit seiner Bürger es denn will, Größenbeschränkungen für Windkraftanlagen vorschreiben.

Im hier beschriebenen Beispiel „Birkenau“ wurde vom Autor Johannsen übrigens ebenfalls nachgewiesen, dass mit nur 10 bis 12 KLEIN-Windkraftanlagen mit einer Gesamtleistung von ca. 130 KW  (hier moderne, vertikale Windkraftanlagen, die nur für die direkte Versorgung mehrerer Häuser an Stelle einer Netzeinspeisung nach EEG in Frage kommen) und mit nur knappen 12% der Großanlagen-Errichtungskosten der gleiche Stromanteil OHNE Natur- und Bürgerbeeinträchtigung  produziert werden könnte. Ob sich solche Kleinanlagen rechnen und ob sich private Nutzer für diese Kleinanlagen finden lassen, ist eine andere Problematik, die hier nicht weiter verfolgt werden soll. Selbstversorgung mit Kleinwindanlagen bedeutet natürlich, dass diese Anlagen nur zusammen mit einem Batteriespeicher betrieben werden können, der in der Kostenrechnung eingeht.

Zurück zur Gemeindepolitik! Entscheidend ist, dass die grundsätzliche Entscheidungsfreiheit der Gemeinde, Größenbeschränkungen für Windkraftanlagen vorzuschreiben, zumindest bis heute durch keine Maßnahme beschränkt werden kann.

Da bei einen gemeindlichen, teilbereichsbezogenen Flächennutzungsplan die Gemeinde Größenbeschränkungen für Windkraftanlagen vorgeben darf, lassen sich auf diese Weise ohne Probleme die vielen Groß-Windkraftanlagen und Windparkbauvorhaben nach dem allseits berüchtigten § 35 des BauGB verhindern!

Es kommt jetzt nur noch darauf an, über eine vernünftige Gemeindepolitik die Profiteure von Groß-Windradparks aus dem eigenen Vorgarten herauszuhalten – das ist wohl der schwerste, weil gemeindepolitische Teil der Aufgabe (Geld verdirbt bekanntlich den Charakter). Der Schutz unserer Umwelt, unserer Landschaften und das Aufwachsen unserer Kinder in einer intakten Naturumgebung sollte es den betroffenen Gemeinden und ihren verantwortlichen politischen Gemeindevertretern wert sein.

Vielleicht helfen unser Beitrag und die unzähligen früheren EIKE-Beiträge über Windradanlagen dabei mit, dass sich Leser einmal näher über den wirtschaftlich-technischen Abersinn der deutschen Energiewende und insbesondere der Windrad-Aktion informieren. Viele Gutwillige, die die Energiewende immer noch emotional mittragen, werden mit verlässlicher Information über die Fakten ihre Meinung vermutlich schnell ändern.

Desweiteren empfehlen die Autoren den Landesregierungen Wirtschaftlichkeitsvorgaben (= nicht zu unterschreitende Jahres mittel-Windgeschwindigkeiten) in ihre Windpark-Genehmigungsverfahren aufzunehmen.

Mit dieser Maßnahme würde offenbar werden, dass fast alle Windradstandorte im deutschen Binnenland ungeeignet sind. Der für die deutsche Volkswirtschaft und die Natur schädliche Windrad-Spuk fällt dann von alleine in sich zusammen, und der in dieser EIKE-News beschriebene Umweg über die Gemeindepolitik würde sich erübrigen.

Kontaktdaten von Sven Johannsen für weiter technische Informationen: Tel.: 0152-53692510, Email: sven@z-1100r.com 




Klimaforscher Prof. Hans von Storch im SPIEGEL-Interview

Das v. Storch-Interview (im Internet momentan nur in Englisch unter http://tinyurl.com/lq4m869 verfügbar) wurde nicht zuletzt durch die fachkundige Interviewführung der SPIEGEL-Redakteure Olaf Stampf und Gerald Traufetter zu hoher Qualität gebracht. Ohne Umschweife ging es sofort zur Sache. Alle Fragen wurden von v. Storch in bemerkenswerter Offenheit und jedem Alarmismus abhold beantwortet. Fragen und Antworten waren wie bereits erwähnt in der Regel deckungsgleich mit den zugehörigen, wissenschaftlich ausgerichteten EIKE-News. Zu den den Ausnahmen kommen wir weiter unten. Die SPIEGEL-Redakteure hätten durchaus auch ein klimafachkundiges EIKE-Mitglied interviewen können, sie hätten überwiegend Gleiches gehört. Bei den zuerst angesprochenen Themen

– Ursachen von Überschwemmungen,

– Niederschläge und Klimawandelvorgänge,

– Extremwetter,

– Unmöglichkeit bzw. Unsinn von Klimaschutz,

– Klima-Alarmisten,

– Die fragwürdige Rolle Schellnhubers als Klimaberater der Kanzlerin,

– Die Ignoranz von Angela Merkel, Klimafakten zur Kenntnis zu nehmen

– Die Pause in der mittleren Globaltemperatur

passte buchstäblich kein Haar mehr zwischen die Antworten von v. Storch und die entsprechenden EIKE-Verlautbarungen. Die Spiegel-Redakteure können es in unserem News-Archiv überprüfen.

Insbesondere die Antwort v. Storchs auf die Frage, wo denn die Fehlerquellen der Klimamodelle in der falschen Vorhersage der globalen Erwärmung liegen könnten, ist so deutlich, schön und zutreffend, dass sie hier noch einmal wiederholt sei:

Erste Möglichkeit: Sie (gemeint ist die globale Erwärmung) fällt schwächer aus, weil  die Treibhausgase, insbesondere das CO2, eine geringere Wirkung haben als angenommen. Das bedeutet nicht, dass es keinen menschgemachten Treibhauseffekt gibt; nur wäre unser Einfluss aufs Klimageschehen nicht so stark, wie vermutet. Die andere Möglichkeit: In unseren Simulationen haben wir unterschätzt, wie sehr das Klima auf Grund natürlicher Ursachen schwankt".

Danach tauchen freilich die ersten Fragezeichen auf. Mit dem von v. Storch erwähnten Nachweis des Menscheneinfluss am Klimawandel (fingerprint method) kann man nicht mehr ganz einverstanden sein, weil in diesen Nachweis Modellannahmen eingehen (Originalton v. Storch: „die Stärke der Klimaschwankungen richtig einschätzen“). Ob die Methode für die hier in Rede stehenden Anwendungen überhaupt geeignet ist, ist nicht selbstverständlich. Die Fingerprintmethode war ursprünglich ein Verfahren zur Zeichenkettensuche in Computertexten (hier). Vielleicht spielt ja auch bei ihrer Anwendung auf klimatologische Fragen das bekannte Phänomen „rubbish in, rubbish out“ seine bekannten Streiche.

Bei dem von v. Storch ausgesprochenen und zutreffenden Verriss der UBA-Klimabroschüre ist von ihm leider der wichtigste Punkt übersehen worden. Die UBA-Broschüre haben blutige Laien, u.a. eine Kinderbuchautorin und grüne Aktivisten verfasst. Kein Klimaforscher war beteiligt (hier). Die UBA-Broschüre kann daher, wie v. Storch befürchtete, auch nicht das Vertrauen der Öffentlichkeit in die Klimaforschung verspielen. Sie verspielt nur das Vertrauen ins UBA und da ist bekanntlich schon seit langem nichts mehr zu verspielen.

Das Vertrauen in die Klimaforschung verspielen ganz andere Leute, in Deutschland im Wesentlichen maßgebende Mitarbeiter des Potsdamer Instituts für Klimafolgenforschung (PIK). So etwa Stefan Rahmstorf mit seinem, einem Wissenschaftler unangemessen aggressiven Verhalten gegenüber denjenigen Kollegen und Medien, die nicht seiner Meinung sind. Aber auch Hans-Joachim Schellnhuber, dessen 2 °C Ziel bei vielen Fachleuten, leider nicht bei der auffallend blind-faktenverweigernden Politik, nur noch unter der Rubrik „Humor“ läuft. Das 2 °C Ziel ist in keinem begutachteten paper aufzufinden.

Gegen Ende des Interviews gibt es dann weitere Fragezeichen in den Interview-Antworten. V.  Storch sagt „Wir haben weiterhin überzeugende Hinweise auf einen menschgemachten Treibhauseffekt“. Genau dies darf füglich bezweifelt werden. Zumindest dem Autor sind keine ÜBERZEUGENDEN Hinweise aus der Fachliteratur bekannt. Nichts, aber auch gar nichts (die aktuell ansteigenden CO2-Konzentrationen ausgenommen) ist im Vergleich mit der Klimavergangenheit ungewöhnlich oder gar "noch nie dagewesen".

Überhaupt nicht kann man mit der Aussage von v. Storch einverstanden sein „Ja zwei oder drei Grad mehr werden wir wohl kriegen – bis Ende des Jahrhunderts wohlgemerkt. Das sagt mir mein Instinkt, weil ich ja nicht weiß, wie sich die Emissionen entwickeln werden“. „Instinkt“ zu bemühen erscheint hier nicht ganz angebracht, weil es ausreichend viele begutachtete Publikationen gibt, welche die von v. Storch angesprochene Problematik sehr gründlich behandeln. Sogar in den EIKE-News ist Einschlägiges zu finden. Zufällig erschien wenige Tage zuvor eine EIKE-News zum zukünftigen CO2-Anstieg der Atmosphäre (hier). Die dort vorgenommene Abschätzung kann zwar nur sehr grob sein, sie ist aber zuverlässig. Der Löwenanteil allen zukünftigen CO2 ist in den Kohleressourcen gespeichert. Werden diese VOLLSTÄNDIG verbrannt (was die Menschheit nicht machen wird), erzeugt man damit noch nicht einmal die doppelte CO2-Konzentration von heute. Es ist schwer vorstellbar, dass diese Abschätzung den Fachleuten nicht bestens bekannt ist. Laut geäußert hat sie freilich noch kein Klimaforscher, zwei Mal darf man raten, warum.

Weiterhin ist die berühmte Klimasensitivität des CO2 nur mit der Wasserdampfrückkoppelung auf Werte über 1 °C zu steigern. Entsprechende begutachtete Klimapublikationen (basierend auf MESSUNGEN) haben aber gezeigt, dass es diese Rückkoppelungen in der Realität nicht gibt. Im Gegenteil, alle Messungen deuten auf Gegenkoppelungen hin, die dann die angegebenen Standardwerte der Klimasensitivität zwischen 0.45 °C (hier) und 1.1 °C (IPCC) noch verringern [2] bis [8]. Eine rein statistische Publikation [1] findet sogar überhaupt keinen Einfluss des anthropogenen CO2.

Auch hier ist nur schwer vorstellbar, dass v. Storch diese Veröffentlichungen unbekannt sind, ihr vollständiges Ignorieren erstaunt daher. Man hätte sich in seiner Antwort ein dem heutigen Stand der Messungen und der begutachteten Fachliteratur angemesseneres Caveat und keine Instinktaussage gewünscht. Nimmt man die hier zitierten Publikationen [1] bis [8] ernst, ist man mehr oder weniger gezwungen die zukünftige globale Erwärmung bis zum Jahre 2100 zumindest als UNMAßGEBLICH einzuschätzen. Schaut man sich auch noch die zum Teil heftigen Temperaturoszillationen der letzten 2000 Jahre an und nimmt zudem die seit Jahren beunruhigend fleckenfreie Sonne zur Kenntnis, liegt sogar eine kräftige Abkühlung (neue kleine Eiszeit) nahe. Nur die Zukunft kann uns die Realität zeigen. Immerhin ist v. Storch hoch anzurechnen, dass er deutlich auf die vom IPCC abweichenden Meinungen von Klimaexperten hingewiesen hat und damit die oft zu vernehmenden Unsinnsbehauptungen von einem wissenschaftlichen Konsens falsifizierte.

Was den Schutz gegen die Folgen von Klimaänderungen (natürliche oder menschgemachte, sei einmal dahingestellt)  angeht, besteht wieder volle Übereinstimmung von v. Storch mit EIKE.

Fragwürdig wird es dann wieder am Abschluss des Interviews, wenn v. Storch seiner Besorgnis zur "Meeresversauerung" Ausdruck verleiht. Er schränkt dabei allerdings ein, dass er vom Thema zu wenig verstehe. So ist es. Wer versteht schon etwas von diesem Spezialgebiet der Chemie. Auch der Autor gesteht hier seine Unkenntnis ein. Es gibt aber ausreichend viele Fachpublikationen, die sich mit dem Thema der "Meeresversauerung" durch CO2-Aufnahme beschäftigen. Nach Studium dieser paper kann zuverlässig Entwarnung gegeben werden. Das Meer ist und bleibt basisch. Die wohl gründlichste Zusammenstellung, nicht zuletzt, weil in ihr die zahlreichen maßgebenden begutachteten Paper zitiert werden, ist auf dem Blog von Vahrenholt/Lüning zu finden (hier). Leider unterstellte v. Storch seinem Chemie-Kollegen unwissenschaftliches Verhalten und brachte dies durch demonstratives Verlassen des ACATECH-Gremiums, das von Vahrenholt geleitet wurde,  zum Ausdruck (hier). Dies ist bedauerlich, stellt doch das Buch „Die kalte Sonne“ einen Meilenstein bester wissenschaftlicher Populärliteratur dar.

Die leider immer noch medienwirksamen Kuriositäten, die vom Potsdamer Institut für Klimafolgenforschung (PIK) der breiten Öffentlichkeit ungerührt angedient werden, hatten immerhin zur Folge, dass Fachleute unter der Hand äußern das PIK nicht mehr ernst zu nehmen. Daher wäre eine politisch stärkere Gegenposition gegen das PIK wünschenswert und kein Streit unter den Klimarealisten. Eine gute Idee könnte vielleicht sein, dass sich v. Storch und Vahrenholt bei einem guten Glas Wein einmal persönlich aussprechen. Beide würden von der Expertise des Gegenüber profitieren. Und beide sind respektable Wissenschaftler, keine Ideologen. Auf dieser Basis sollte man sich verstehen.

Résumée: Trotz der hier geschilderten Vorbehalte nicht nur ein sehr gutes Interview von ALLEN drei Beteiligten sondern auch ein Meilenstein in der deutschen Medienberichterstattung zur Klimafrage. Vergessen wir nicht, dass uns eine völlig unrealistische, überzogene und wissenschaftlich überaus wackelige Klima-Scheinproblematik die verhängnisvolle, Deutschland schwer schädigende Energiewende beschert hat. Daher soll hier größter Respekt für den Mut von v. Storch ausgesprochen werden, sein Institut ist schließlich auf öffentliche Forschungsmittel angewiesen. Großen Respekt auch für die respektlosen Fragen des SPIEGEL. Wenn das Blatt DIESEN kritischen und auf die wissenschaftlichen Fakten (nicht auf grüne Ideologien) hinzielenden Weg fortsetzt, wird es wieder DAS kritische Qualitätsperiodikum in der BRD werden. Mit grüner Ideologie durchtränkte Blätter wie die Süddeutsche Zeitung oder die ZEIT könnten sich daran ein Beispiel nehmen. Unser Land hat kritischen Journalismus bitter nötig.

Quellen:

[1] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[2] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

[3] R.W. Spencer, and W.D. Braswell: Remote Sensing 3(8) (2011),http://tinyurl.com/9cvuz32

[4] R.W. Spencer, and W.D. Braswell: Journal of Geophysical Research, Vol. 115 (2010), tinyurl.com/8kd694d

[5] G. Paltridge et al.: Theor. Appl. Climatol. 98 (2009), www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

[6] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

[7] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

[8] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), tinyurl.com/3mbresk




Stefan Rahmstorfs Klage „Droh- und Schmähbriefe gehören leider zum Alltag von Klimaforschern“

In dem Blog-Artikel von Stefan Rahmstorf geht es zunächst um Prof. Michael Mann, der von weiten Teilen der Klimafachwelt als ehemaliger wissenschaftlicher Betrüger angesehen wird. Wie zumindest die Statistiker Steve McIntyre und Ross McKitrick an Hand detaillierter Untersuchungen und Belege in begutachteten Fachzeitschriften nachwiesen (ihre beiden Arbeiten sind hier als pdf angehängt), hat M. Mann bei der Erstellung seiner Kurve nicht die wissenschaftlich verbindlichen Regeln eingehalten. Zur Herausgabe seiner Daten war gemäß A.W. Montford (s. weiter unten) sogar ein Gerichtsbeschluss erforderlich.

Wer sich über die "Akte M. Mann" detailliert informieren möchte, dem sei das Buch von  A.W. Montford „The Hockeystick Illusion“ empfohlen. Eine ausführliche Übersicht über den Vorgang in etwas kürzerer Form ist bei Anthony Watts mit zahlreichen Beiträgen auf seinem Blog WUWT zu finden (hier). Die Zahl der WUWT-Artikel zur M.Mann-Affaire ist zu groß, um sie hier alle zu zitieren: Wir bitten daher interessierte Leser, in der Suchfunktion von WUWT den Suchbegriff „M. Mann inquiry“ einzugeben und dann selber die ihnen am interessantesten erscheinenden Artikel herauszugreifen.

All dies ist inzwischen Vergangenheit, denn M. Mann hat seine im IPCC-Bericht von 2001 veröffentlichte Hockeystick-Kurve inzwischen zahlreichen, nur noch schwer überschaubaren Revisionen unterzogen und damit dem heutigen Stand bzw. der Realität Tribut gezollt (grüne Kurve in Bild 1). Entschuldigt hat er sich nach Kenntnis des Autors freilich nicht. Ob hier von Läuterung und Rückkehr zur wissenschaftlichen Ehrlichkeit gesprochen werden darf, kann nicht entschieden werden. Wir wollen es zu seinen Gunsten einfach einmal annehmen.

Für Rahmstorf ist dagegen M. Mann ein „hochrespektierter“ Klimaforscher ohne jedweden Tadel und mit fast beliebig vielen Verdiensten und Ehrungen, kurz, ein lupenreines Unschuldslamm. Hiermit werden angesichts der oben angeführten fragwürdigen Vorgänge viele seiner Fachkollegen nicht ganz einverstanden sein. Der Autor möchte die etwas ungewöhnliche Sicht von Rahmstorf in Sachen M. Mann nicht weiter kommentieren. Immerhin hat sein prominenter Fachkollege Prof. Hans von Storch im SPIEGEL über die ursprüngliche, im IPCC-Bericht von 2001 instrumentalisierte Mann’sche Hockeystickkurve knapp und zutreffend gesagt: „Die Kurve ist Quatsch“ (hier).

Mächtig überrascht dann Rahmstorfs Behauptung, eine jüngste Fachveröffentlichung des PAGES 2k Konsortiums (hier) würde den Hockeystick von M. Mann BESTÄTIGEN. Dies können wir nicht nachvollziehen. Die vom PAGES 2k Konsortium gelieferten Proxy-Daten zeigen nämlich zumindest in der heute wohl besten Temperaturrekonstruktion der Nordhemisphäre von Christiansen und Ljungqvist (die Kurve ist aus 91 Proxy-Datensätzen erstellt), dass das mittelalterliche Klimaoptimum dem aktuellen Optimum gegen Ende des 20. Jh. in etwa gleichkam oder es sogar übertraf. Die rote Kurve in Bild 1 ist aus solchen und weiteren in der PAGES 2k Arbeit angegebenen Rekonstruktionen, an denen der Autor Ljungqvist beteiligt war, erstellt. Alle in Bild 1 veröffentlichten Temperaturganglinien, inklusive einer von M. Mann angepassten neuen Kurve (grün), bezeugen, dass von einer Bestätigung der ursprüglichen Kurve von M. Mann (Bild 2) wohl nicht gesprochen werden kann.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/PAGES.jpg

Bild 1:Bildausschnittt aus Fig. 4 der Publikation des PAGES 2k Konsortiums

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Hockeystick.jpg

Bild 2: Die ursprüngliche Hockey Stick Kurve von M. Mann. Quelle: IPCC-Bericht des Jahres 2001

In der ursprünglichen Hockeystickkurve von M. Mann, die Rahmstorf in seinem Blog-Artikel gleich in Abb. 1 zeigt und um die es ihm daher offensichtlich geht, ist die Sonderstellung des mittelalterlichen Klimaoptimums nicht zu erkennen, auch nicht das tiefe Minimum der kleinen Eiszeit. Der lange Griff des Hockeysticks ist bemerkenswert gerade und unstrukturiert, nur das Schlägerblatt zeigt dann steil nach oben. Allenfalls der meist übersehene, blau schattierte Unsicherheitsbereich erscheint m.E. realistisch. Die beiden Darstellungen in Bild1 und Bild 2 lassen wenig Ähnlichkeit zwischen der ursprünglichen Hockeystickkurve von M. Mann und den Ergebnissen des PAGES 2k Konsortiums erkennen.

Bei den Schmähungen Rahmstorfs (das Wort "Schmähungen" sei hier als Erinnerung an seinen eigenen Vorwurf gewählt), sind zunächst Prof. Hans von Storch und Dr. Eduard Zorita an der Reihe. Rahmstorf zitiert als Beleg für deren angeblich wissenschaftlichen Unzulänglichkeiten eine Internet-Blog Realclimate. In diesem Blog wird begutachtete Fachliteratur salopp mit technischen Kommentaren (technical comments, hier) durcheinandergeworfen, was durch die Betonung "important comment" noch skurriler wird. Vielleicht schwingt bei "Realclimate" ja ein wenig die Hoffnung mit, der Leser als Laie schaue sich ohnehin die so zahlreich-imponierend zitierten Quellen nicht an und falls doch, dann sei er beispielsweise von „Science“ so beeindruckt, dass er den dort veröffentlichten technischen Kommentar mit einer peer review Publikation verwechselt. Einen technischen Kommentar kann jeder schreiben, mit Peer Review hat dies nichts zu tun. Falls man die kuriosen Belege und Ausführungen von Rahmstorf überhaupt ernst nimmt, sollte man die angegebenen Quellen näher ansehen. 

Die weiteren Abschnitte des Blog-Artikels von Rahmstorf sind mit „Politischer Druck auf Forscher“, „Griff in die Mottenkiste“ und "PAGEAS 2k im SPIEGEL" getitelt. Insbesondere der „Griff in die Mottenkiste“ trifft Rahmstorfs eigenen Artikel erstaunlich genau, wenn er die von allen AGW-Polemikern regelmäßig bemühte Nähe von Forscherkollegen zur Erdölindustrie hervorholt. Man kann hier übrigens umgekehrt auch einmal nach der Nähe von Rahmstorf zur Versicherungswirtschaft fragen. Eine im Ton peinlichen Fachkollegenschelte und ein abschließender Verriss derjenigen deutschen Medien, die die von Rahmstorf angedienten Fragwürdigkeiten durchschaut haben, rundet seine Philippika ab.

In „Ergänzende Anmerkungen“ bekommt schließlich auch noch der Autor sein "Fett weg". Seine und seiner Mitautoren Publikation (hier) in „climate of the past“ wird von Rahmstorf als „methodisch unsinnig“ bezeichnet. Zum Beleg dieser Beurteilung heißt es, die Darstellung einer Kurve mittels Fourier-Transformation sei mit jeder Kurve möglich. Dies ist jedem Physikanfänger geläufig und zweifellos völlig korrekt, aber als Sachkritik ebenso wertvoll wie die ebenfalls korrekte Anmerkung „Die Anwendung des Satzes von Pythagoras ist mit jedem rechtwinkligen Dreieck möglich“. Trivialaussagen verhindern bekanntlich nicht die sinnvolle Anwendung mathematischer Werkzeuge oder machen diese gar wertlos. Mit der in Rede stehenden Publikation hat die daneben liegende Anmerkung von Rahmstorf nichts zu tun. Es darf infolgedessen vermutet werden, dass Rahmstorf die Arbeit überhaupt nicht gelesen hat.

Als weitergehenden Beleg seiner Kritik führt Rahmstorf einen "Science Blog" an, der von dem AGW-Aktivisten Georg Hoffmann mit bewundernswert unterhaltsamer Polemik betrieben wird (hier). Man lese selber, Entertainment ist garantiert, denn der Blog ist buchstäblich filmreif. Jedem Wissenschaftshistoriker sei seine Lektüre empfohlen und dies leider nicht nur zum Amüsement. Es gibt kaum eine bessere Dokumentation, wie AGW-Alarmisten ticken (unter den Kommentatoren sind sogar mehrere Autoren von peer review Publikationen aufzufinden), welche Methoden sie Wissenschaftlern anderer Auffassung gegenüber anwenden und welche Querverbindungen zwischen Teilen der Klimaforschung und den fragwürdigen Betreibern solcher Blogs bestehen.

Bedenklich ist dann der von Rahmstorf in seinem Artikel veröffentlichte Kommentar von Dr. M. Mudelsee

„One may speculate about (I exaggerate for clarity) the hijacking of CP for promoting ‘skeptical’ climate views.“

Eine wissenschaftliche Arbeit, deren Themensetzung das anthropogene CO2 nicht einmal berührt, deren Ergebnisse aber zufällig und unübersehbar keinen oder zumindest einen lediglich vernachlässigbaren Einfluss des anthropogenen CO2 nahelegen (nicht beweisen), wird als hijacking = Piraterie einer Wissenschaftszeitschrift bezeichnet. Offenbar verwechselt Mudelsee den wissenschaftlichen Betrieb in der Europäischen geophysikalischen Union mit dem des piratenverseuchten Somalia.

Die im Hoffmann-Blog zahlreich vertretenen Kommentatoren der AGW-Fraktion mit wissenschaftlichem Hintergrund haben mit Kräften versucht, die Publikation des Autors im Vorfeld der „open discussion“ des cp zu verhindern, man sehe sich dazu ihre Kommentare an (hier). Dies ist natürlich ihr gutes Recht und wird hier ausdrücklich nicht kritisiert. Schließlich hat die bei cp vorgeschriebene öffentliche peer review Phase ihren guten Grund. Zahlreiche, fachlich einschlägige Kritiker sehen mehr als zwei oder drei Peer Reviewer und erlauben es daher, die Qualität einer bei cp eingereichten Arbeit zu verbessern. Dies war auch hier der Fall. Nicht zuletzt deswegen hat cp einen so hohen "citation index".

Freilich waren die Sachargumente der Teilnehmer am Science Blog offensichtlich nicht ausreichend, um die neutralen wissenschaftlichen Kritiker und die Peer Reviewer zu überzeugen. Warum nicht auch Rahmstorf selber eine vernünftige Fachkritik bei cp äußerte, ist angesichts seiner abwertenden Beurteilung unverständlich und bedauerlich. Er dürfte seitens G. Hoffmann über die Veröffentlichung in der cp Diskussionsphase informiert worden sein.

Der letzte Abschnitt der Blog-Arbeit von Rahmstorf darf als implizite Drohung (die Bezeichnung "Drohung" wieder in Erinnerung an den Vorwurf von Rahmstorf) aufgefasst werden, die gegen die Wissenschaftszeitschrift cp der Europäischen geophysikalischen Union und ihren verantwortlichen Editor, Dr. Eduardo Zorita zielt. Der betreffende Passus aus dem Blog-Artikel von Rahmstorf sei seiner Unverschämtheit gegen eine renommierten Fachzeitschrift und deren Editor wegen wörtlich zitiert:

Lüdecke ist Pressesprecher des Klimaskeptiker-Vereins EIKE. Der für die Publikation seines kuriosen Artikels verantwortliche Editor ist Eduardo Zorita. Man kann nur hoffen, dass dies bei dem an sich reputierten Journal ein Einzelfall bleibt.

"Man kann nur hoffen" und "Einzelfall" drückt den Wunsch aus, jeden zukünftig bei cp eingereichten Artikel des Autors ungeprüft abzulehnen und den verantwortlichen Editor E. Zorita abzulösen. Rahmstorf unterstellt implizit, dass das peer review Verfahren bei cp nicht ordentlich abläuft. Öffentlich publizierte Anmerkungen dieser Art sind nicht hinnehmbar und einem Professor einer deutschen Universität sind sie schon gar nicht angemessen.

Es soll schlussendlich daran erinnert werden, dass jede wissenschaftliche Arbeit, die nicht nur Bekanntes bestätigt, Neuland betritt. SACHLICHE Kritik ist hier unabdingbar und stets willkommen. Diese erfolgte hier nicht nur in der öffentlichen Diskussionsphase von cp, sondern mit weltweiter Resonanz auch im australischen Blog von Joanne Nova (hier) und im Blog WUWT von Anthony Watts (hier). In diesen Blogs wurde das gesamte Meinungsspektrum thematisiert, angefangen von Zustimmung, über Missverständnisse wegen nicht ausreichenden Lesens und Unverständnisses der Arbeit, bis hin zu sehr interessanter, substantieller Fachkritik. Grundlegende Mängel der Arbeit stellten sich nicht heraus. Der Autor wird in Kürze auf den sachlichen Inhalt seiner und seiner Mitautoren Arbeit unter Berücksichtigung der wichtigsten Einwände in einer separaten EIKE-News eingehen. Sachliche Kritik, auch seitens von Rahmstorf ist dabei immer willkommen.

Wissenschaftliche Meinungsverschiedenheiten müssen ausschließlich sachbezogen ausgetragen werden. Sie dürfen nicht in Diffamierungen gegen Fachkollegen ausarten, deren Forschungsergebnisse den verschrobenen Weltbildern der Diffamierenden widersprechen.

Related Files




Energie-Hokuspokus des Fraunhofer Instituts für Energiesysteme

Deshalb haben sich ein ganze Anzahl von Instituten dieser staatlich massiv geförderten Pfründe gewidmet und arbeiten ausschließlich dafür. Immer wieder und oft am lautstärksten dabei, das (ISE) Institut für Solare Energiesysteme in Freiburg unter seinem mehr berüchtigten, als berühmten Chef Eike Weber.

Das IDE hat jetzt (mal wieder) eine "Studie" vorgestellt. In der liest man: (Es).. wurde erstmals mit einem Energiemodell untersucht, wie Wärme und Strom in Deutschland in einem regenerativen Energiesystem optimal zusammenspielen könnten." Die Ergebnisse sind verblüffend, denn sie .. "zeigen, dass ein regeneratives Energiesystem für Wärme und Strom zu ähnlichen Kosten realisierbar ist wie unser heutiges Energiesystem." Wir haben das überprüft. Der Artikel erschien (hier). Man sollte ihn lesen! Das Fazit der Fraunhofer-Autoren lautet:

Erstmals wurde ein komplettes Energiesystem im Strom- und Wärmesektor auf stündlicher Basis simuliert und in mehreren Varianten die prinzipielle Machbarkeit zu VERTETBAREN (Anmerkung: "vertretbar" von der EIKE Redaktion groß geschrieben) Kosten nachgewiesen. Das tatsächliche System zu finden, ist eine gesellschaftliche Aufgabe, die neben Ökonomie und Technik auch Aspekte wie Landschaftsplanung, Akzeptanz und Bürgerbeteiligung berücksichtigen wird.

Schon hier schnappt jeder Fachmann, der mit Energieversorgung und deren Kosten beruflich zu tun hatte, erstmal nach Luft. Wir schenken uns hier eine genaue Analyse dieses sachlichen Schwachsinns des Fraunhofer Instituts und lassen stellvertretend dafür drei Fachleute Ihren Kommentar dazu abgeben:

Dipl.-Ing. Peter Dietze schreibt:

"Hokuspokus – weg sind die 1 Billion Kosten von Altmaier!! UNGLAUBLICH!!! Wo doch von den 550 GW nur etwa 60 GW in Betrieb sein können und der untätige Rest sicher bezahlt werden muß und Power-to-Gas-Strom etwa auf 50-100 ct/kWh kommt…"

Dipl.-Ing. Michael Limburg kommentiert:

"Unglaublich, was heute unter dem Namen Wissenschaft verkauft wird. Wir sollen über 500 GW (kostet mindestens 6 bis 8 x mehr als konventionell) installieren, um in der Spitze sicher 80 GW nutzen zu können. Verrückt ist noch ein harmloser Begriff dafür."

Prof. Dr.-Ing. Alt (FH Aachen) meint:

"Es ist in der Tat unglaublich, welcher Unsinn auf staatlicher Gehaltsbasis in wissenschaftlichen Instituten von Leuten, die noch nie Verantwortung für unsere Energieversorgung getragen haben oder jemals tragen müssen, verbreitet wird.
Das Problem, wir haben zu viele vom Steuerzahler staatlich finanzierte Sandkastenspieler, und es kommen noch immer neue hinzu, siehe PIK und Töpfer-Institut. Die Wahrheit sagen nur noch ehrenamtliche arbeitende Rentner, die aber allesamt 40 Jahre Verantwortung in der Industrie und Energieversorgung getragen haben und das zu weit niedrigeren Stromkosten für alle Bürger, ohne smart grid und ohne smart meter in einer freien selbstbestimmten Welt der Strom- und Gasverbraucher.
"

EIKE Pressesprecher Prof. Dr. Horst-Joachim Lüdecke kommentiert schließlich:

"Regenerative Energien zur Erzeugung von elektrischem Strom haben die naturgesetzlichen Nachteile zu geringer Leistungsdichten, (und daraus folgend) zu hoher Kosten, der Unstetigkeit ihrer Stromerzeugung und schließlich der Nichtskalierbarkeit. Mit Letzterem ist gemeint, dass Kraftwerke zur Stromerzeugung der Raum- und Netzplanung anpassbar sein müssen. Klassische Kohle- und Gaskraftwerke und insbesondere Kernkraftwerke haben diese Eigenschaft (sie können beliebig groß, klein und überall gebaut werden), Windräder nicht. Diese müssen riesig sein, in großer Zahl in windreichen Gegenden aufgestellt werden und sind überdies mit hohen Stromleitungskosten verbunden. Das Fraunhoferinstitut sollte sich besser mit modernen Konzepten schneller Brüter beschäftigen, als "regenerativen Unsinn" zu betreiben. Die schon teilweise im Pilotstadium befindlichen Brüterkonzepte zielen auf inhärente Sicherheit und verschwindenden Abfall an Kernbrennstoff. Kernbrennstof mit Brütertechnik reicht selbst 10 Milliarden Menschen bei ausschließlicher Stromerzeugung aus Brütern viele 100 Millionen Jahre (Uran aus Meerwasser und Thorium). Liebe Entscheidungsträger des Fraunhofer Instituts: wären schnelle Brüterkonzepte nicht ein sinnvolleres Forschungsfeld? Der Autor ist sich natürlich der Naivität dieser rethorischen Frage bewusst. Deutsche Politik verweigert sich vernünftiger Energieforschung."

Bemerkenswert ist auch der letzte Satz im Fazit des Fraunhofer-Artikels:

Das tatsächliche System zu finden, ist eine gesellschaftliche Aufgabe, die neben Ökonomie und Technik auch Aspekte wie Landschaftsplanung, Akzeptanz und Bürgerbeteiligung berücksichtigen wird.

Kommentar der EIKE Redaktion: Landschaftszertörungen durch Zehntausende von Windradungetümen, wovon inzwischen noch nicht einmal Naturschutzgebiete verschont werden, Bodendegradierung durch Maismonokulturen, unaufhaltsam hochschießende Strompreise, zunehmendes Lavieren an einem bundesweiten Black-Out, haben wir das nicht schon zur Genüge? Und nun noch so ein Schmarrn! Was verstehen eigentlich diese staatlich finanzierten Phantasten am Fraunhoferinstitut unter Bürgerbeteiligung? Etwa Beteiligung am weiteren Zerstören unser Naturumgebung? Vielleicht liegen aber diese Leute sogar richtig, denn wie es unsere Geschichte bereits vielfach bewiesen hat, ist in Deutschland an purem Wahnsinn so gut wie alles möglich.

Die besondere deutsche Spezialität hierbei: Einmal begonnene Vorhaben, deren Irrsinn selbst dem Dümmsten augenfällig ist (Musterbeispiele Energiewende, Klimaschutz), werden auf Biegen und Brechen zu Ende geführt – bis zur "letzten Patrone". Erst danach beginnt das große Aufräumen. Wir werden es wieder erleben und wir werden auch wieder erleben – denn dies kennen wir ebenfalls zur Genüge -, dass es danach niemand gewesen sein will.




Das Umweltbundesamt – staatlich verordnete Klima-Doktrin. Faktencheck zur UBA-Broschüre “Und sie erwärmt sich doch“ Letzter Teil

Sind Klimamodelle zuverlässig?

(Kap. 14 der UBA Schrift): In Kap. 14 sagt das UBA sachlich falsch aus. Klimamodelle können weder die Klimavergangenheit noch -zukunft ohne "zusätzliche Annahmen" und geeignet justierte Parameter beschreiben. Bis heute ist es beispielsweise noch nicht einmal gelungen, mit diesen Modellen die Eintrittszeitpunkte des El Nino oder die klimarelevante Atlantische Meridionale Oszillation (AMO) vorherzusagen. Der von den Klimamodellen geforderte "Hot Spot" in der höheren Atmosphäre über dem Tropengürtel der Erde ist nicht auffindbar.

Computer-Klimamodelle sind fiktive theoretische Gebilde ohne durchgängige physikalische Begründungen. Sie enthalten Annahmen und Korrekturfaktoren, deren Mechanismen den Vorstellungen der Modellprogrammierer, nicht aber der durch Messungen belegten physikalischen Realität entsprechen. Diese Schwäche wird durch ihre fehlende Aussagekraft bestens belegt. Computer-Klimamodelle haben ohne massive Manipulationen der Randbedingungen und Flussparameter niemals eine befriedigende Übereinstimmung mit Vergangenheitsdaten liefern können. Da sie bisher nicht verlässlich waren, entstehen berechtigte Zweifel, warum man ihnen zur Vorhersage der zukünftigen Klimaentwicklung Glauben schenken soll. Es besteht kein Grund dazu.

Diese Einschätzung bestätigt im übrigen das IPCC selbst. Der Beleg findet sich im IPCC-Report vom Jahre 2001, sec. 14.2.2.2auf S. 774, wo über Klima-Modelle gesagt wird:

“…. we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible“.

Um nicht missverstanden zu werden, ist zu betonen, dass Klimamodelle wertvolle Hilfsmittel zur Klärung von Detailfragen sein können. Als Prognose- oder “Projektionsinstrumente“ für Klimavorhersagen sind sie freilich ungeeignet.

Erwärmung oder Abkühlung, was ist vorteilhafter?

(Kap. 15 der UBA Schrift): Die UBA Ausführungen des Kap. 15 sind rein willkürlich. Fest steht: In der Geschichte der Menschheit gab es noch nie eine Periode, in der kälteres Klima von Vorteil war. Völkerwanderungen verliefen stets in Richtung zu wärmeren Klimaregionen, niemals umgekehrt. Die Hunger- und Seuchenkatastrophen infolge kälter werdenden Klimas sind historisch bestens bekannt. Stellvertretend sei an den Untergang des römischen Imperiums durch Klimaabkühlung, die die Nordvölker nach Italien einbrechen ließen oder an die Hungerzeiten in der “kleinen Eiszeit“ um und nach dem 30-jährigen Krieg erinnert (Bild 4).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/eiszeit.jpg

Bild 4: Das katastrophal kalte Klima der “kleinen Eiszeit“ hat sich tief in das Bewusstsein der Menschen eingegraben und die holländische Malerei dieser Epoche beeinflusst.

Gibt es einen wissenschaftlichen Konsens?

(Teil B der UBA Schrift): Die Verkünder eines wissenschaftlichen Konsenses unterliegen einem grundsätzlichen Irrtum. JEDE begutachtete Veröffentlichung, die das Fehlen einer Erwärmung durch anthropogenes CO2 zu belegen vermag – und davon gibt es ja sehr viele -, ist für sich ALLEINE ausreichend, jede Konsensbehauptung als Falschaussage zu belegen. So sagte bereits Einstein, als er auf die Hunderte Experten der "Deutschen Physik" angesprochen wurde, die seine Relativitätstheorie widerlegt haben sollten: “Wieso Hunderte, Einer würde reichen“.

Die während der Diskussion um den angeblich anthropogen verursachten Klimawandel gewonnene Erfahrung lehrt, beim Argument “Konsens der Wissenschaft“ besonders sorgfältig die Begründungen zu überprüfen. In unserer Konsumgesellschaft wird es immer dann gerne benutzt, wenn es gilt, Laien etwas “weis zu machen“, was entweder so nicht oder überhaupt nicht stimmt. Wissenschaft, die Zweifel ablehnt, statt zu versuchen sie aufzuklären, will indoktrinieren. Der Begriff “Konsens der Wissenschaft“ ist grundsätzlich abzulehnen, denn wissenschaftliche Wahrheit kann nicht aus Mehrheitsbeschlüssen gewonnen werden. Dies hat die Geschichte der naturwissenschaftlichen Entdeckungen immer wieder bewiesen. Ein Konsens von vielleicht mehr als 95% aller Forscher eines Fachgebiets würde lediglich Anhaltspunkte liefern und eine gewisse Wahrscheinlichkeit beinhalten, dass diese Mehrheitsauffassung auch sachlich zutrifft. Unabhängig von diesen grundsätzlichen Vorbehalten soll im Folgenden hilfsweise dennoch einmal nachgeprüft werden, wieviele Kritiker der AGW-Hypothese nun tatsächlich dem angeblichen Konsens widersprechen.

Da es hier nur um die Frage eines maßgebenden Einflusses des menschgemachten CO2 auf Globaltemperaturen geht, muss die Konsenproblematik wie folgt eingegrenzt werden. Ausgangspunkt ist der heutige Stand der Klimaforschung, dokumentiert in unzähligen Fachpublikationen, die zumindest im Folgenden absolut keinen Zweifel lassen: Die Frage nach einem messbaren anthropogenen Einfluss auf Klimawerte muss bis heute mit einem “noch nicht aufgefunden“ beantwortet werden. Daher verbleiben jetzt nur noch die im hier interessierenden Zusammenhang entscheidenden zwei Fragen:

– Wie viele Klimaforscher teilen den Klima-Alarmismus des IPCC?

– Wie viele Klimaforscher (“Klimarealisten“) widersprechen?

Klimaforscher kommen aus vielen Disziplinen, vorwiegend der Physik, denn Klimawissenschaft, wie die mit ihr eng verwandte Meteorologie, verwendet das Handwerkszeug der Physik. Unter den Klimaforschern finden sich neben den Physikern Meteorologen, Chemiker, Biologen, Mathematiker und Ingenieure. Klimaforscher sind infolgedessen alle Wissenschaftler, die Klimaphänomene erforschen und ihre Arbeiten in begutachteten Fachjournalen veröffentlichen. Momentan werden über 1100 begutachtete Fachpublikationen, die der AGW-Hypothese widersprechen, in einer Internet-Dokumentation explizit aufgeführt (hier), es kommen laufend neue hinzu, und es sind längst nicht alle.

Die die AGW-Hypothese realistisch beurteilenden Klimaexperten – diffamierend meist als “Klimaskeptiker“ bezeichnet – übertreffen die AGW-Vertreter in Anzahl und wissenschaftlichem Ansehen um Längen. Zu den Realisten gehören die beiden Physik-Nobelpreisträger Ivar Glaever und Robert Laughlin, einen Physiker aus dem IPCC-Lager als Nobelpreisträger gibt es dagegen nicht. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow und William Nierenberg Klimarealisten, eine ähnliche Reputation ist von den dem IPCC nahe stehenden Forschern unbekannt (hier).

Auf Anhieb können 9000 promovierte Naturwissenschaftler und Hunderte fachnahe Professoren der klimarealistischen Seite benannt werden. Es handelt sich hierbei allein um das Oregon Petitition Project (hier). Auf der Gegenseite benennt das IPCC gerade einmal 62 Personen, die das kritische Kapitel 9 des IPCC-Berichts von 2007 “Understanding and Attributing Climate Change“ begutachteten, darunter viele, die nichts anders taten, als ihren eigenen Beitrag zu bestätigen.

Einen entscheidenden Unterschied gibt es freilich: das IPCC erfreut sich politischen Rückhalts, die Realisten nicht. Sie werden angefeindet. Da die Medien langfristig der Politik (dem “Zeitgeist“) folgen und über die Realisten nicht berichten, können so absurde Behauptungen wie 97% Konsens o.ä. entstehen. Insbesondere in Deutschland liegt diese Situation vor, so dass schon von “freiwilliger Selbstgleichschaltung“ der Medien gesprochen wird.

Die historische Entwicklung der klimarealistischen Verlautbarungen klärt über die wahren Verhältnisse auf. Es beginnt 1992 in Rio de Janeiro mit der ersten großen UN-Umweltkonferenz. Hier haben die Vertreter von 170 Regierungen und weiteren Nichtregierungsinstitutionen (NGO) vor einer gefährlichen globalen Erwärmung durch die steigende Emission von CO2 in der Atmosphäre infolge Nutzung der fossilen Brennstoffe gewarnt. Drastische Maßnahmen, Energiesteuern und Umweltabgaben wurden gefordert.

1) Als erste Antwort auf die Forderungen von Rio de Janeiro haben 425 Wissenschaftler, darunter 62 Nobelpreisträger den "Heidelberg Appeal" unterschrieben. Sie fordern, die wissenschaftliche Ehrlichkeit nicht dem politischen Opportunismus und einer irrationalen Ideologie zu opfern. Inzwischen sind diesem Appell mehr als 4000 Wissenschaftler, darunter inzwischen insgesamt 72 Nobelpreisträger aus 106 Ländern beigetreten (hier).

2) Das Global Warming Petition Project, auch als Oregon Petition bekannt, wurde bereits oben erwähnt. Es führt über 30.000 akademische Unterzeichner auf, davon rund 9000 promovierte Personen, meist Naturwissenschaftler.

3) Das “Leipziger Manifest“ ging aus einem internationalen Symposium über die Treibhauskontroverse in Leipzig im November 1995 und 1997 hervor. Es wurde 2005 überarbeitet. 80 Wissenschaftler aus dem Bereich der Forschung zum Zustand der Atmosphäre und des Klimas sowie 25 Meteorologen, bekunden:

Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden“ (hier).

4) Im Dezember 2008 und ergänzt im März 2009 wendeten sich über 700 Wissenschaftler mit dem sogenannten "U.S. Senate Minority Report" (auch als Inhofe Report bezeichnet) an den Senatder USA. Die Unterzeichner wehrten sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der “Zusammenfassung für Politiker“ des IPCC beteiligten Wissenschaftler (52) um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, die die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen (hier).

5) In einem offenen Brief vom Juli 2007 an die Physikerin und Kanzlerin Angela Merkel forderten 410 Wissenschaftler und engagierte kompetente Bürger (hier),

die Kanzlerin möge ihre Position zum Klimakomplex gründlich überdenken und ein vom Potsdamer Institut für Klimafolgenforschung unabhängiges ideologiefreies Gremium einberufen

Dieser Brief wurde in bemerkenswert undemokratischem Stil nicht einmal einer Eingangsbestätigung des Bundeskanzleramts für würdig erachtet, obwohl in Artikel 17 des deutschen Grundgesetzes Bürgern ausdrücklich das Recht eingeräumt wird, sich bei drängenden Problemen oder Fragen an die zuständigen Stellen und an die Volksvertretung zu wenden.

6) Gegen die Aussage des US-Präsidenten Barrack Obama “Wenige Herausforderungen denen sich Amerika und die Welt gegenübersieht, sind wichtiger als den Klimawandel zu bekämpfen. Die Wissenschaft ist jenseits aller Diskussion und die Fakten sind klar“ wendeten sich mehr als 150 fachnahe Wissenschaftler mit dem Protest: “With all due respect Mr. President, that is not true“ (hier).

7) In einem offenen Brief an den kanadischen Ministerpräsidenten, am 11.4.2008 in der National Post veröffentlicht, wendeten sich 60 Klimawissenschaftler gegen die Unterzeichnung eines neuen Kyoto Vertrages. Sie heben hervor, dass

es keine beobachtbaren Nachweise gibt, die die Computermodelle verifizieren. Deshalb gibt es keinen Grund, den Vorhersagen der Computermodelle zu vertrauen…. Wir schlagen vor, eine ausgewogene, umfassende, öffentliche Sitzung abzuhalten, um die wissenschaftliche Basis zu Plänen der Regierung in Bezug auf den Klimawandel zuschaffen“ (hier).

8) Im Jahre 2007 veröffentlichten die Klimawissenschaftler Hans von Storch und Dennis Bray (GKSS Forschungszentrum Geesthacht) eine anonyme Umfrage unter ca. 1250 Klimawissenschaftlern, von denen 40% antworteten, was für derartige Umfragen als eine sehr hohe Antwortrate ist. Die Frage “Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung desTreibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage “Können Klimamodelle die Klimabedingungen der Zukunft voraussagen?“ beantworteten 64% ablehnend! Da die Vorhersagen der Klimakatastrophe alleine auf Klimamodellen beruhen und damit ebenfalls ein theoretisches Konstrukt sind, darf dieses Ergebnis für die Vertreter eines Klimakatastrophen-Konsens zutreffend als Schlag ins Gesicht bezeichnet werden. Denn umgekehrt ausgedrückt: Es besteht ein Konsens von 64%, dass die Vorhersage eines die Menschheit gefährdenden Klimawandels durch eine von Menschen gemachte Temperaturerhöhung infolge der anthropogenen CO2 Emissionen auf der Basis von Klimamodellen wissenschaftlich unzulässig ist (hier).

9) Im September 2008 veröffentlichten Hans M. Kepplinger und Senja Post von der Universität Mainz in deren Forschungsmagazin eine Online-Umfrage unter den 239 identifizierten deutschen Klimawissenschaftlern. 133 (44%) von ihnen nahmen an der Befragung teil. Kepplinger: “Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben ist. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken. Nur eine Minderheit von 20% glaubt, dass die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon gegeben seien“  (hier), (hier).

10) Am 30.Nov.2012 veröffentlichte die kanadische Financial Post einen offenen Brief von 125 Wissenschaftlern an den UN Generalsekretär H.E. Ban Ki-Moon. Die FP führt dabei alle Namen, Fachgebiete und Forschungsschwerpunkte der Unterzeichner detailliert auf (hier). Es handelt sich in der weit überwiegenden Anzahl um Klimawissenschaftler. Der Originaltext des offenen Briefs lautet:

On November 9 this year you told the General Assembly: “Extreme weather due to climate change is the new normal – Our challenge remains, clear and urgent: to reduce greenhouse gas emissions, to strengthen adaptation to – even larger climate shocks – and to reach a legally binding climate agreement by 2015 – This should be one of the main lessons of Hurricane Sandy.“ On November 13 you said at Yale: “The science is clear; we should waste no more time on that debate.“ The following day, in Al Gore’s “Dirty Weather“ Webcast, you spoke of “more severe storms, harsher droughts, greater floods“, concluding: “Two weeks ago, Hurricane Sandy struck the eastern seaboard of the United States. A nation saw the reality of climate change. The recovery will cost tens of billions of dollars. The cost of inaction will be even higher. We must reduce our dependence on carbon emissions.“ We the undersigned, qualified in climate-related matters, wish to state that current scientific knowledge does not substantiate your assertions.

Danach folgt eine ausführlichere sachliche Widerlegung der Behauptungen von Ki-Moon. Auf die Wiedergabe dieses Teils des offenen Briefs wird hier verzichtet.

Die Behauptung des UBA über den angeblichen wissenschaftlichen Konsens über eine maßgebende, gefährliche Klimaschüdigung durch anthropogenes CO2 ist ABSURD, UNHALTBAR und FALSCH!

Unsere Beurteilung der UBA Schrift

Das UBA verfehlt in seiner Klimabroschüre jedes diskutable Fachniveau. Angesichts der politisch motivierten Propagierung eines anthropogen verursachten Klimawandels hat sich das UBA sachlicher Aufklärung verweigert. Es hat sich einseitig und ohne stringente Argumentation den Klimakatastrophen-Propheten angeschlossen, die ihre Vorhersagen aus fiktiven Klimamodellergebnissen herleiten.

Das UBA verstößt gegen das Ockham-Gesetz der Hypothesensparsamkeit, dem Paradigma moderner Naturwissenschaft. Die AGW-Hypothese ist zur Erklärung der Klimaentwicklung nach der Industrialisierung nämlich nicht erforderlich. Alle Klimaänderungen der letzten 150 Jahre liegen im bekannten Bereich natürlicher Fluktuationen der (zumindest) letzten 2000 Jahre. Die AGW-Hypothese darf daher gemäß dem immer noch gültigen Ockham-Paradigma nicht alleine in den Mittelpunkt gestellt werden. Sie ist nur eine unter anderen Hypothesen. Welche zutrifft, kann nur zukünftige Forschung entscheiden.

Mit Publikationen von solch fragwürdiger Qualität wird das UBA die Skepsis der Bevölkerung über die oktroyierte Meinungshoheit zum "Klimawandel" nicht beseitigen können. Vom UBA unbeabsichtigt, hat ihre Broschüre es fertig gebracht, dass sich ein Teil der Medien inzwischen der Gefahr für unsere Demokratie durch Unterdrückung von politisch unerwünschten Gegenstimmen und durch Verunglimpfung von Fachleuten mit anderer Auffassung bewusst wurde, solche Vorkommnisse nicht mehr hinnimmt und die Öffentlichkeit darüber informiert.

Wir hoffen, dass unsere fachliche Replik der UBA Schrift mehr Seriosität und wissenschaftliche Ehrlichkeit in die Klimadebatte bringt und stehen nicht nur dem UBA jederzeit fürSachdiskussionen und Rückfragen zur Verfügung.

Die Autoren

Jena, im Mai 2013

Klima- und Energie-Fachveröffentlichungen von EIKE-Mitgliedern

Begutachtete (Peer Review) Forschungs-Veröffentlichungen

R. Link and H.-J. Lüdecke: A new basic 1-dimension 1-layer model obtains excellent agreement with the observed Earth temperature, Int. J. Mod. Phys. C 22, No. 5, p. 449 (2011), doi:10.1142/S0129183111016361, http://tinyurl.com/d9vuxyr

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011) arxiv.org/PS_cache/arxiv/pdf/1110/1110.1841v1.pdf

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011) http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past. 9, 447-452 (2013) http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf

Bücher

H.-J. Lüdecke: CO2 und Klimaschutz, Fakten Irrtümer, Politik (Climategate), vergriffen in 3-ter Auflage und nicht neu aufgelegt.

H.-J. Lüdecke: Energie und Klima, Chancen, Risiken, Mythen, expert-Verlag (Mai 2013)

M. Limburg: Klimahysterie – was ist dran?, TVR Verlag (2012)

J. Langeheine: Energie-Politik in Deutschland, das Geschäft mit der Angst, AtheneMedia (2012)

E. Gärtner: ökonihilismus, TVR (2012)

Related Files




UN – Keine direkten Gesundheitsschäden durch Fukushima

Nach dem Atomunfall von Fukushima war die Angst vor Folgen wie vermehrtem Schilddrüsenkrebs groß. Jetzt gibt die UN (UNSCEAR-Report) Entwarnung: Nach einer ersten Untersuchung sind keine direkten Gesundheitsfolgen nachweisbar (hier), (hier), (hier), (hier), (hier).UNSCEAR ist die UN Organsiation zur Erforschung der biologischen Folgen radioaktiver Strahlung *).

Wegen des Atomunfalls von Fukushima werden nach UN-Einschätzung weder mehr Menschen sterben noch vermehrt an Krebs erkranken. Die Katastrophe vom März 2011 habe keine direkten Gesundheitsfolgen für die Bevölkerung, heißt es in einer ersten umfassenden Untersuchung der Vereinten Nationen.

Grund sei die schnelle Evakuierung des Gebiets durch die japanischen Behörden gewesen, sagte der Vorsitzende des wissenschaftlichen Komitees der Vereinten Nationen für die Folgen von Strahlung (UNSCEAR), Wolfgang Weiss, in Wien.

180 Wissenschaftler aus 27 Ländern haben bei UNSCEAR den Fukushima-Bericht erarbeitet. Der Abschlussbericht ist für den Herbst 2013, rund zweieinhalb Jahre nach dem Unfall bei den UN in New York vorgesehen.

Nach Einschätzung der Wissenschaftler leiden die Menschen psychisch unter der Evakuierung, nicht aber gesundheitlich infolge von Strahlenbelastung. «Die Erfahrungen von Tschernobyl haben uns gezeigt, dass neben einer möglichen direkten Auswirkung auf die Physis, die sozialen Folgen mit den einhergehenden Gesundheitseffekten in der betroffenen Bevölkerung besondere Aufmerksamkeit brauchten», sagte UNSCEAR-Chef Carl-Magnus Larsson.

«Wir sehen statistisch keine direkten Risiken oder Gesundheitsfolgen», sagte Weiss. Nach der Katastrophe habe die zusätzliche Strahlenbelastung durch den Unfall für die meisten Japaner

unter der natürlichen Umgebungsstrahlung

gelegen. Man gehe auch nicht davon aus, dass man künftig Krebserkrankungen auf den Unfall zurückführen könne. Nach der Reaktorkatastrophe von Tschernobyl sei die Strahlenbelastung deutlich höher gewesen.

Der Bericht ermittelt den statistischen Schnitt. Daher wollte Weiss nicht völlig ausschließen, dass einzelne Personen wegen einer zu hohen Strahlendosis an Krebs erkranken könnten: «Wir können nicht die Gesundheit von 60 000 Menschen individuell in jeder einzelnen Lebenszeit verfolgen.» Doch statistisch erhöhe sich die Rate nach den bsiherigen Untersuchungen nicht.

Der Großteil der Daten stammt von japanischen Behörden, aber auch die USA, die Weltgesundheitsorganisation WHO und die Internationale Atomenergiebehörde IAEA hätten Informationen beigetragen. Die Aussagen des Berichts basierten hauptsächlich auf Rechenmodellen, Umweltmessungen und individuellen medizinischen Untersuchungen. «Das heißt nicht, dass wir alles haben was wir gerne hätten», sagte Weiss. In Tschernobyl hätten sich manche Auswirkungen erst fünf Jahre nach dem Unfall gezeigt.

Zur generellen Aussagekraft von Untersuchungen zur Auswirkung von Radioaktivität auf den Menschen sagte Weiss in einem dpa-Gespräch: «Wir haben uns 50 Jahre damit befasst, aber das heißt nicht, dass wir alles wissen. Das gilt sowohl für ganz hohe Strahlenexpositionen wie auch den niedrigen Dosisbereich.» Umstritten sei beispielsweise,

ob man bei niedrigen Dosen überhaupt von einem Effekt auf das Krebsrisiko sprechen könne:

Es sei wissenschaftlich nicht haltbar, einen Krebs, der 30 oder 40 Jahre später auftrete, mit einer lang zurückliegenden niedrigen Strahlenbelastung begründen zu wollen.

Kommentar von EIKE:

Zur schnellen Evakuierung und den entsprechenden Verlautbarungen von Wolfgang Weiss (UNSCEAR) sei eine Anmerkung erlaubt: die schnellen Evakuierungen waren politischem Druck geschuldet, sachlich waren sie weitestgehend unnötig – sowohl in Tschernobyl als auch in Fukushima (hier). Als Folgen der Evakuierungen waren im Übrigen tatsächlich Todesfälle zu beklagen. Dennoch ist für all diese Maßnahmen Verständnis zu fordern. Welche Behörde würde das Risiko eingehen, später wegen Untätigkeit an den Pranger gestellt zu werden, auch wenn die Gründe noch so sachgerecht gewesen waren. Auch die Verlautbarung von Wolfgang Weiss geht in Ordnung. Es ist sicher weder im Interesse, noch gehört es zur Aufgabenstellung der UNSCEAR, Behörden oder Regierungen wegen gut gemeinter Maßnahmen zu desavouieren.

Den Fachleuten war dies alles bereits seit langem bekannt (hier). Hierzu darf auf unsere unbedingt empfehlenswerte Reihe in den EIKE-News (Energie) "100 Gründe und 100 gute Antworten" verwiesen werden, die immer noch läuft, ferner auf die in EIKE veröffentlichten Artikel von Paul Schoeps (hier), (hier) und (hier). Aber auch der Autor geht in seinem jüngst erschienenen Buch "Energie und Klima, Chancen, Risiken, Mythen" besonders ausführlich auf die Strahleneinwirkungen der beiden Kernkraftwerksunglücke Tschernobyl, Fukushima und auf die der beiden Kernwaffenabwürfe von Hiroshima und Nagasaki ein, aus denen die UNSCEAR ihre heute bereits sehr zuverlässigen Angaben über die reale Gefährdung radioaktiver Strahlung ableitet (hier).

Eine realistische Angabe zur Gefährdung durch radioktive Strahlung ist somit verfügbar, und das Stammtischniveau, mit dem grüne Politik die Bevölkerung über Kernkraftwerke, Endlagergefahren und weiteres mehr täuscht, könnte eigentlich einer rationalen, realistischen Betrachtung Platz machen. Infolge jahrhrzehntelanger Täuschungspropaganda von grünen Ideologen, unterstützt von den Medien – man braucht sich hierzu nur die Besetzungen der Leitungsfunktionen in den großen Rundfunk- und Fersehanstalten anzusehen – ist mit einer Änderung wohl erst in biologischen Zeitspannen, d.h. nach Ausscheiden dieser Leute aus Altersgründen zu rechnen.

Bleibt nur noch eine Anmerkung zur Aufgabe der weltweit sichersten Kernkraftwerke in Deutschland. Unsere Nachkommen werden sich über diese größte Dummheit der deutschen Energiepolitik aller Zeiten die Haare raufen. Die Verantwortlichen sind dann leider nicht mehr zur Rechenschaft zu ziehen, an erster Stelle eine Bundeskanzlerin mit – man staunt – naturwissenschaftlicher Promotion. Machtpolitisches Kalkül wurde von ihr entgegen dem Amtseid, dem Wohl des deutschen Volkes zu dienen, rationaler, sachgemäßer Politik vorgezogen und – entgegen geltendem Recht und von "grünem Zeitgeist" getrieben – zugelassen, dass inzwischen ganze Industriezweige, wie Kernenergie und Kohle diffamiert und abgewickelt werden **).

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

*) Der Autor als ausgebildeter Kernphysiker kann es natürlich nicht lassen: Die Bezeichnung UNSCEAR, in der die letzten beiden Buchstaben "atomic radiation" besagen, ist etwas schräg. Richtig wäre "nuclear radiation". Dann hätte aber die Abkürzung UNSCEAR fünf Konsonanten in Reihe, dies war wohl der Grund.

**) Angesichts bekannter, zum Teil ausgsprochen amüsanter Diffamierungsversuche und zur Vermeidung von Missverständnissen erlaubt sich der Autor zu betonen, ohne Weiteres weder ein besonderer Freund der Kern- noch der Kohleindustrie noch irgendeiner anderen Industrie zu sein. Er ist vielmehr besonderer Freund JEDER Industrie, die unter den Kriterien von WIRTSCHAFTLICHKEIT, SICHERHEIT,  NATUR- und LANDSCHAFTSSCHUTZ zur Wertschöpfung und damit dem Wohlstand unseres Landes beiträgt. Kern- und Kohleindustrie mit Anlagen auf dem heutigen Stand gehören seiner Auffassung nach dazu, Windradindustrie generell nicht (Verfehlen der Wirtschaftlichkeit und des Natur- und Landschaftsschutzes). Die erforderlichen Kriterien der Nützlichkeit von Energie-Industrien sind in seinem o.g. Buch beschrieben und belegt.




Das Umweltbundesamt – staatlich verordnete Klima-Doktrin. Faktencheck zur UBA-Broschüre “Und sie erwärmt sich doch“ Zweiter Teil

Was trägt die Sonne zu Klimaänderungen bei?

(Kap. 6 der UBA Schrift): Die UBA Aussage “Der größte Teil der globalen Erwärmung im Laufe der vergangenen 50 Jahre wurde nach heutigem Stand der Wissenschaft durch die steigenden Konzentrationen von Treibhausgasen in der Atmosphäre verursacht‘‚ ist an Hand der Fachliteratur nicht zu belegen und infolgedessen wohl frei erfunden. Von einem solchen Stand der Wissenschaft ist nichts bekannt. Entsprechend hat das UBA auch keine seriöse Quelle für diese Behauptung aufführen können.

In der Frage des Sonneneinflusses auf die Klimaentwicklung gehen das UBA, wie auch das IPCC, selektiv vor. Wie auch das IPCC bevorzugt das UBA, ohne dafür fachlich stringente Argumente angeben zu können, die AGW-Hypothese und verwirft alle anderen Hypothesen. Es ist nur vordergründig korrekt, dass die relativ geringfügige Variation der Sonnenleuchtkraft als Ursache für Klimaänderungen kaum in Frage kommt, weil Sekundäreffekte außer Acht gelassen werden.

Die Änderung des Sonnenmagnetfeldes, das über die Kette der kosmischen Strahlung und der Wassertröpfchenbildung (Wolken) das Klimageschehen beeinflusst, wird vom UBA und auch vom IPCC ausser acht gelassen. Eine ausführliche Zusammenstellung der zugehörigen wissenschaftlichen Fachliteratur ist im Buch von Vahrenholt/Lüning “Die kalte Sonne“ zu finden. Auch der Klimaeinfluss des Sonnenmagnetfeldes ist nur eine Hypothese. Sie wird zur Zeit intensiv untersucht – u.a. auch am CERN mit dem Cloud-Projekt (hier) – und kann Teilergebnisse vorweisen. Dass das UBA diese Hypothese verschweigt, belegt unwissenschaftliches Selektieren.

Änderungen der Gletschermassen

(Kap. 10 der UBA Schrift): Die selektiv ausgewählte sommerliche Abnahme der arktischen Meereisfläche wird nicht nur vom UBA als Beleg für eine ungewöhnliche globale Erwärmung angeführt, obwohl überall auf der Welt Gletschereis im Sommer abtaut. Dieses Argument hat zuerst einmal nichts mit einem anthropogenen Klimaeinfluss zu tun, denn Änderungen der Gletschermassen bestimmt seit Urzeiten die Natur. Es ist zu vermuten, dass dieser falsche Schluss dem Laien suggeriert werden soll. Da in den Medien, aber auch vom UBA mit besonderer Betonung auf das arktische Meereis abgehoben wird, sind doch einige Details zu behandeln.
Das relativ dünne Meereis der Arktis – der Unterschied zum arktischen Gletschereisvolumen, aber auch zum dicken Packeis und zu Eisbergen wird dabei im Allgmeinen verschwiegen – verschwindet weitgehend im Sommer und kommt im Winter wieder (hier). Es handelt sich um jahreszeitliche Schwankungen und um Wetterverhältnisse, die nichts mit den riesigen Eisvolumina der Arktisgletscher zu tun haben, wie sie zum Beispiel in einem ZEIT-Artikel angesprochen werden (hier). Das klimatisch maßgebende Eisvolumen des grönländischen Festlandgletschers beträgt rund 3 Millionen Kubikkilometer, das mit den Jahreszeiten schwankende Meereis wird vom UBA mit ca. 5000 Kubikkilometern angegeben. Dies ist ein vernachlässigbarer Bruchteil der Grönlandgletschereismasse. Die Aussage des UBA zum arktischen Meereis und Eises der Antarktis ist daher grob irreführend. Zur Problematik des Arktiseises kann am besten der renommierte Polarforscher Prof. Heinz Miller (AWI) Auskunft geben. Die ZEIT vom 7.6.2007 schrieb über seine Forschungsaktion 2006 Folgendes (hier):

Im November 2006 veröffentlichten über 80 Mitglieder des Europäischen Bohrprojekts Epica (European Project for Ice Coring in Antarctica), darunter die Bremerhavener, eine wichtige Entdeckung: Zwischen Nord- und Südpol schwingt eine Klimaschaukel. Steigen in Grönland die Temperaturen, dann sinken sie in der Antarktis – und umgekehrt. Globale Meeresströme transportieren gewaltige Wärmemengen von Pol zu Pol. “Wir konnten die Klimaschaukel äußerst präzise nachweisen und das Klima über 860.000 Jahre rekonstruieren“, berichtet Miller.
In diesem Zeitraum schwankte es heftig. “Es gab acht Kalt-Warmzeit-Zyklen“, sagt er. Dabei reagierte der Nordpol (mit Temperaturänderungen bis zu 15 Grad in 20 Jahren) viel sprunghafter als der stabile Kälteklotz in der Antarktis, der 90
Prozent allen Eises birgt. Diese Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. “Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller. Denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden. Auch die Befürchtung, der aktuelle Klimawandel lasse das Treibhausgas Methan aus Sümpfen und Meeren ausgasen und das Klima “kippen“, finden die Glaziologen nicht bestätigt: “Wir sehen auch in wärmeren Zeiten keinen entsprechenden Anstieg des Methans.“ ähnlich wie bei den Eisbären unterscheidet sich die reale Welt von der gefühlten medialen Wirklichkeit. “Wer von Klimaschutz redet, weckt Illusionen“, mahnt Miller zu Bescheidenheit. …Schlagworte wie Klimakollaps oder -katastrophe hält er für
irreführend.

Zum Rückzug der Alpengletscher ist anzumerken: Der Rückgang der Gletscher in den Alpen wurde schon im Jahre 1885 im Alpinen Jahrbuch dokumentiert. Die Beobachtungen begannen in 1881, berichtet wurde von Prof. Eduard Richter aus Salzburg, sie betrafen verschiedene Gletscher in den Ötztalern, Zillertalern und die Pasterze. Man findet die genannte Zeitschrift in der Bücherei des Deutschen Alpenvereins auf der Praterinsel in München (Jahrgang 1885, Band XVI, Seite 54 bis 65). Eine Fortsetzung folgte im Jg. 1888 (Wir verdanken diese Informationen dem EIKE-Leser Dr. Lutz Niemann).
Der Glaziologe Prof. Gernot Patzelt von der Universität Innsbruck weist an Hand von Gletscherfunden wie z.B. Baumresten nach, dass in 65% der letzten 10.000 Jahre die Alpengletscher kleiner und die Temperaturen höher als heute waren. Wald ist in Höhen gewachsen, die heute noch vergletschert sind – dies ohne alles menschliche Zutun [1], (hier), (hier). Warmzeiten, in denen die Gletscher kleiner waren als heute (Hochmittelalter, Römerzeit), waren kulturelle Blütezeiten.

Die Auswirkungen von (anthropogenem) CO2

(Kap. 7, 12, 15 der UBA Schrift): Das UBA ignoriert die Rolle des CO2 für die Ernährung der Menschheit. Höhere CO2-Konzentrationen führen zu deutlich mehr Pflanzenwuchs (hier), (hier). Die von einigen Medien bevorzugte Diffamierung des Naturgases CO2 als eines vom Menschen erzeugten Schmutzgases ist absurd und falsch. Hierzu werden gerne Bilder weißer Wasserdampfwolken aus Kraftwerkskühltürmen oder gar Rußwolken aus Fabrikschloten gezeigt, beide haben mit dem unsichtbar-durchsichtigen CO2 überhaupt nichts zu tun. CO2 wird bei allen Verbrennungsvorgängen erzeugt, biologischen und industriellen gleichermaßen (Bild 3). Ohne CO2 gäbe es kein Leben, denn CO2 ist der Hauptbestandteil der Photosynthese. Bestrebungen von sachunkundigen Bürgermeistern, eine CO2-freie Stadt oder Wirtschaft anzustreben, sind an Absurdität nicht mehr zu übertreffen.
Die Ausführungen des UBA in Kap. 12 sind grob irreführend. Ein Vergleich mit der Venusatmosphäre ist unzulässig. Dort beträgt die CO2-Konzentration über 95%, es herrschen Drücke in Bodennähe von etwa 100 bar, und die Sonneneinstrahlung ist einer kürzeren Entfernung der Venus zur Sonne wegen mehr als doppelt so stark.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Atmung.jpg

Bild 3: CO2 ist für unser aller Leben unabdingbar. Mehr CO2 lässt bei ausreichender Wasserzufuhr Pflanzen (Getreide) besser wachsen. CO2 ist weder klimaschädlich noch ein industrielles “Schmutzgas“. Nebenbei: knapp 7 Milliarden Menschen atmen – der CO2-Erzeugung bei der Nahrungsmittelherstellung wegen nicht naturneutral – etwa doppelt soviel CO2 aus, wie es die weltweite Benzinverbrennung durch Autoverkehr erzeugt [2].

In der Erdatmosphäre ist dagegen CO2 nur ein Spurengas mit heute 0,04%, und der Luftdruck beträgt bekanntlich 1 bar. Die sich aus den physikalischen Gesetzen ergebenden Auswirkungen dieser extrem unterschiedlichen Bedingungen haben so gut wie nichts miteinander zu tun und sind nicht vergleichbar. Oder anders ausgedrückt: Aus den Verhältnissen der Venus kann man nichts über die Auswirkungen des Spurengases CO2 in der Erdatmosphäre lernen.

Nach der gängigen Treibhausgas-Theorie ist CO2 in der Erdatmosphäre das zweitwirksamste Treibhausgas nach dem Wasserdampf (Methan ist zwar ein stärkeres Treibhausgas als CO2, weist aber eine wesentlich kleinere Konzentration als dieses auf). Hier interessiert allerdings ausschließlich der Betrag an globaler Erwärmung, der von einer ERHöHUNG der CO2-Konzentration verursacht wird. Er ist extrem gering, nicht direkt messbar und kann daher nur aus spektralen Labormessungen hergeleitet werden. Angegeben wird der Bereich zwischen 0,45 °C (hier) bis 1,1 °C (IPCC) globaler Erwärmung bei Verdoppelung der CO2-Konzentration (“Klimasensitivität“). Diese Erwärmung ist unbedenklich. Das Szenario einer CO2-Verdoppelung ist zudem unrealistisch, denn erst durch Verbrennung aller fossilen Brennstoffressourcen kann die CO2-Konzentration der Erdatmosphäre verdoppelt werden (Abschätzungsrechnung in [3]). Das oft beschworene 2 °C Ziel ist daher rein politischer Natur und unter wissenschaftlichen Kriterien blanker Unsinn. Dies wird u.a. von dem Klimaforscher Prof. Hans von Storch bestätigt [4].

In Kap. 7 schneidet dann das UBA das Thema der Wasserdampfrück- bzw. Gegenkoppelung an. Diese Effekte könnten die geringe globale Erwärmungswirkung von zusätzlichem CO2 erhöhen oder vermindern. Im ersten Fall besagt die Rückkoppelungshypothese, dass der durch leichte Erwärmung in Äquatornähe aus den Weltmeeren erzeugte Wasserdampf als stärkstes Treibhausgas den Erwärmungseffekt des CO2 verstärkt. Die Gegenkoppelungshypothese sagt dagegen aus, dass der erzeugte Wasserdampf zu Wolken kondensiert, welche abregnen und die Sonneneinstrahlung abschirmen. Dieser Mechanismus kühlt also ab.

Was zutrifft, können nur MESSUNGEN entscheiden, nicht die vom UBA bevorzugten Klimamodelle. Eine Reihe von Fachpublikationen haben an Hand von Messauswertungen nachgewiesen, dass die Natur tatsächlich die Gegenkoppelung bevorzugt (hier, hier, hier, hier, hier).

Damit verringert sich noch die vorgenannte Klimasensitivität des CO2, was auch erklärt, warum ein temperatursteigernder Einfluss der zunehmenden CO2-Konzentrationen bis heute nicht auffindbar ist [5]. Auf dem Blog der Autoren Vahrenhaolt/Lüning der „Die kalte Sonne“ werden jüngste Veröffentlichungen zur Klimasensitivitäät besprochen, die dem UBA offenbar komplett unbkannt sind (hier).
Das UBA hat die vorgeschilderten Messungsauswertungen ignoriert und dafür fiktive Ergebnisse aus Klimamodellrechnungen vorgezogen. Modelle ohne Bestätigung durch Messungen erlauben selbst bei geringer Komplexität der Modelle kaum verlässliche Vorhersagen. Es ist daher das ZENTRALE PRINZIP der  Naturwissenschaften, nur durch Messungen überprüfte Modelle zu akzeptieren. Vorhersagen auf Grund von nicht überprüften Modellen waren in der mittelalterlichen Scholastik üblich, die bekanntlich nie zu verlässlichen Ergebnissen kam. Solche Vorhersagen sind daher als “nichtwissenschaftlich“ einzuordnen. Die Hypothese einer Wasserdampfverstärkung ohne ausreichende Messbelege, genauer, mit Messbelegen, die dieser Hypothese deutlich widersprechen (Beispiel: nicht messbarer, von den Modellen geforderter “Hot Spot“), beruht auf einem mittelalterlichen Paradigma.

[1] Veröffentlichungen von Prof. G. Patzelt in Google Scholar unter “G. Patzelt“ googeln

[2] Abschätzungsrechnung in H.-J. Lüdecke: Energie und Klima, Chancen, Risiken, Mythen, expert-Verlag (Mai 2013), Kap. 3, S.29

[3] Energie und Klima, Chancen, Riskiken, Mythen, expert-Verlag (2013), daselbst im Anhang 6.3 die Abschätzungsrechnung “Energiereserven und CO2-Anstieg“,
ferner Abschnitt 4.9.2 “Wie weit steigt atmosphärisches CO2 noch an?“

[4] DIE ZEIT, 20.08.2009, S. 29

[5] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration
tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

Zum Ausdrucken des angehängten pdf-Files die Druckereinstellung „An Druckränder anpassen“ wählen.

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten. Fortstzung #46 bis #49

Seitdem führt das BfS auch eine aufwendig gestaltete Webseite, die ausschließlich die Gefährlichkeit der Asse darstellt.

Auf der Suche nach dem eigentlichen Skandal verliert sich die Spur aber schnell. Warum das Einsickern von Wasser (#46), wie es in praktisch jedem Bergwerk passiert, plötzlich eine Gefahr darstellen soll, wird nirgendwo, auch nicht auf den BfS-Seiten zur Asse, erläutert. Ebensowenig wird erklärt, warum plötzlich nur noch die Rückholaktion in Frage kommt. In einer etwas kuriosen „Fachlichen Bewertung” kommt man zu dem Schluss (S. 194), dass praktisch alle Indikatoren für eine Vollverfüllung sprechen – und empfiehlt deshalb die milliardenteure Rückholung. Diese Logik alleine macht schon deutlich, dass gesunder Menschenverstand beim Thema „Asse” schon lange keine Rolle mehr spielt.

Auch Ursula und Michael Sladek lassen sich dieses Thema natürlich nicht entgehen, lässt sich doch daraus für ihre von allen Bürgern subventionierten Elektrizitätswerke Schönau (EWS) so herrlich Profit schlagen. Natürlich muss man auch gleich verallgemeinern, dass es ein Endlager überhaupt nicht geben kann (#47). Und als Beleg wird auch gleich noch nachgeschoben, dass niemand so etwas vor seiner Tür haben will (#48). Und sollte das Thema Endlager langweilig werden, amüsieren Sie sich mit Grund/Antwort #49, wenn Leute, die keinen Bezug zu Technik haben, eben darüber mutmaßen. Viel Vergnügen wünscht KRITIKALITÄT.

Nun zu Hundert gute Antworten #42 – #45, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013, 18.5.2013 und 24.05.2013.

Hundert gute Antworten #46 – #49

#46: Atommüllkippe Asse II

Behauptung: Das Versuchsendlager Asse säuft schon nach 20 Jahren ab.

Die EWS behaupten

126.000 Fässer Atommüll entsorgten Atomindustrie und Atomforscher zwischen 1967 und 1978 nahezu kostenlos im »Versuchsendlager« Asse II. Das ehemalige Salzbergwerk sei jahrtausendelang sicher, beteuerten Experten, ein Wassereinbruch ausgeschlossen.

20 Jahre später fließen täglich 12.000 Liter Wasser in die Stollen. Inzwischen sind die ersten Fässer undicht, die Grube einsturzgefährdet.

Um eine großräumige Verseuchung des Grundwassers zu vermeiden, muss der ganze Müll nun wieder raus. Die Kosten dafür – die Rede ist von bis zu 4 Milliarden Euro – müssen nicht etwa die Verursacher, sondern die Steuerzahler tragen. Dafür änderten CDU und SPD im Jahr 2009 eigens das Atomgesetz.

Asse II galt offiziell als »Pilotprojekt« für das geplante große Endlager im Salzstock Gorleben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Nicht die Anzahl der Fässer zählt, sondern die eingelagerte Aktivität. Die ist nämlich mit 4.600 Terabecquerel gerade mal so groß wie die natürliche Radioaktivität des umgebenden Salzes plus Erdreich. Auch handelt es sich nicht um einen „Wassereinbruch”, sondern um ein tief unterirdisches Einsickern, verursacht durch den seitlichen Gebirgsdruck und die hundert Jahre betriebene Aushöhlung. Die Deckschichten hemmen den Durchtritt zur Biosphäre. Ein Einsturz der Grube, verursacht durch das eingedrungene und dann abtragende Wasser, würde diese Verhältnisse deutlich verbessern.

Die Wasserzuflüsse waren in der Vergangenheit schon deutlich höher, bis zu 100.000 Liter pro Tag vor 70 Jahren, im Bergbau nichts Ungewöhnliches und in allen Asse-Studien immer bekannt gewesen. Dagegen sind die heutigen Zuflüsse eher gering, gut unter Kontrolle und unter ständiger Beobachtung.

Die Asse war auch kein »Pilotprojekt« für Gorleben, sondern diente der Erprobung von Einlagerungstechniken anhand schwach- bis mittelradioaktiver Abfälle. Der Zustand des Bergwerks war dabei von Anfang an bekannt, deshalb wurde die Asse auch nie als Endlager für größere Mengen hochradioaktiven Abfalls in Betracht gezogen. Aber selbst, wenn das jetzige Inventar auf völlig undenkbaren Wegen schlagartig freiwerden und sich gleichmäßig im Umkreis von 1 km in der Erdkruste verteilen würde, stiege dort die natürliche Radioaktivität gerade auf das Doppelte an – was völlig ungefährlich wäre. Von einer „großräumigen Verseuchung” kann überhaupt keine Rede sein. Selbst eine vollständige Einleitung in den Bodensee ergäbe eine Aktivität von 100 Bq je Liter – ebenso unbedenklich. Eine Verlagerung des Abfalls ist also völlig unnötig, doch wenn man es trotzdem täte, ließen sich die Kosten ohne Probleme einpreisen: Es wären weniger als 0,1 Cent je kWh.

Der völlig unberührte und in seiner gesamten Ausdehnung ungleich größere Salzstock Gorleben ist von diesen Problemen nicht im Geringsten betroffen. Die unzähligen Studien belegen dies.

Quellen von KRITIKALITÄT


#47: Kein Endlager

Behauptung: Weltweit gibt es bis heute kein sicheres Endlager für hochradioaktiven Müll.

Die EWS behaupten

Ein Atommüll-Endlager müsste ein geologisch über sehr lange Zeiträume stabiler Ort sein. Seine Umgebung dürfte chemisch möglichst nicht mit dem eingelagerten Müll und den Behältern reagieren. Der Ort müsste weit weg von der Biosphäre, von potenziellen Rohstoffquellen und von menschlichen Einflüssen liegen. Das Gebiet dürfte nicht ins Meer entwässern.

Weltweit hat bisher niemand einen solchen Ort gefunden. Ob es ihn gibt, ist mehr als fraglich.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Weltweit gibt es unzählige Orte für eine sichere Endlagerung hochradioaktiven Mülls, ob in Salzgestein, in Granit, in Eis oder in der Wüste.

Beispielsweise ist das geplante Gorleben-Endlager geologisch über sehr lange Zeiträume stabil. Das Salz reagiert chemisch kaum mit dem eingelagerten Müll und Behältern (z.B. HAW-Kokillen). Eine Einlagerung tief im Salzgestein ist weit weg von der Biosphäre, von potentiellen Rohstoffquellen und von menschlichen Einflüssen. Die Entwässerungsrichtung des Gebietes ist dafür irrelevant. Ständiges Wiederholen des Gegenteils ändert nichts an den wissenschaftlichen Fakten, wie sie in einer Vielzahl begutachteter geologischer, chemischer und radiologischer Publikationen veröffentlicht wurden. Allein in Deutschland gibt es zahlreiche derartige Orte.

Ob man sie angesichts von Brutreaktoren, wie sie weltweit entwickelt aber in Deutschland von der Antiatombewegung blockiert werden, nutzen will, ist mehr als fraglich.

Quellen von KRITIKALITÄT


#48: St. Florian

Behauptung: Niemand will den Atommüll haben.

Die EWS behaupten

Seit 2005 wandern abgebrannte Brennelemente in Castor-Hallen direkt bei den Atomkraftwerken. Das brachte und bringt nicht wenige Atom-Fans zwischen Brunsbüttel und Ohu in schwere Argumentationsnöte. Der Atommüll dürfe keinesfalls in ihrer Nachbarschaft gelagert werden, fordern sie. Nur der Reaktor (der Geld in die Gemeindekassen spült), der müsse unbedingt weiterlaufen …

Auch die CSU will unbedingt Atomstrom – aber keinesfalls Atommüll in der Nähe Bayerns. Mit Diskussionen über mögliche Endlagerstandorte, warnt sie, „zünden wir die ganze Republik an“.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Bedenken dürften sich weniger gegen angebliche Gefahren durch den „Atommüll” als gegen gefährliche Aktionen radikaler Kernkraftgegner richten. Diese haben ja in der Vergangenheit oft genug bewiesen, dass sie für den „guten Zweck” gerne mal Menschenleben gefährden.

Wer sich richtig informiert, z.B. durch die 100 guten Antworten, findet schnell heraus, dass gesundheitliche Beeinträchtigungen der Bevölkerung durch Zwischen- oder Endlager nicht zu erwarten sind und auch noch nie nachgewiesen wurden – weltweit. Auch trifft die Behauptung, Endlager möchte man weit weg haben, zumindest auf Schweden und Spanien gar nicht zu. Dort ist die Mehrheit der Bevölkerung dafür, mehrere Gemeinden haben sich als Standort beworben und Olkiluoto betreibt neben mehreren Kernkraftwerken auch gerne noch ein Endlager .

Im Übrigen ist eine unzugängliche Endlagerung gar nicht sinnvoll, enthalten die Stoffe doch noch 100 mal so viel nukleare Energie, wie ihnen bisher entnommen wurde. Schnellspaltreaktoren, wie sie bereits in der Erprobungsphase sind, können diese Energie nutzen – eine Zwischenlagerung in Castor-Hallen ist also sehr sinnvoll.

Quellen von KRITIKALITÄT


#49: Castor-Tricks

Behauptung: Atommüll-Behälter sind nur unzureichend getestet.

Die EWS behaupten

Castor-Behälter sind sicher, heißt es. Aber nicht jedes Modell wird realen Tests unterzogen. Oft fallen und brennen nur verkleinerte Modelle. Oder es gibt nur Simulationen.

Manchmal jedoch passen deren Ergebnisse nur schlecht mit der Realität zusammen. So wie im Frühjahr 2008 bei einem neuen Castor-Typ. Da hatte der Hersteller, damit seine praktischen und theoretischen Messergebnisse besser übereinstimmten, »frei gewählte Parameter « eingeführt. Das ging selbst dem Bundesamt für Materialforschung (BAM) zu weit. Es verweigerte zunächst die Zulassung. Deswegen konnte 2009 kein Castor-Transport rollen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Gesetze der Mechanik sind bekannt und müssen nicht immer wieder aufs Neue getestet werden. Man baut auch nicht Häuser und Brücken im Maßstab 1:1 „zum Testen” auf. Simulationen können hier sehr viel genauer und aufschlussreicher sein. Wo das Optimum zwischen Simulationen, Modelltests und Realtests liegt, entscheiden die Experten.

Diesen Experten als Laie eine bessere Vorgehensweise zu empfehlen mag einfach nur naiv sein. Dreist und peinlich ist es hingegen, mitten aus einem laufenden Zulassungsverfahren den Begriff „freier Parameter”, aus dubioser Quelle aufgeschnappt, zu zitieren. Ohne einen entsprechenden wissenschaftlich-technischen Kontext, der in keiner der Quellen genannt wird, ergibt dieser Begriff überhaupt keinen Sinn.

Die Behälterzulassung erfolgte schließlich im September 2009.

Quellen von KRITIKALITÄT





Das Umweltbundesamt – staatlich verordnete Klima-Doktrin. Faktencheck zur UBA-Broschüre “Und sie erwärmt sich doch“ Erster Teil

Veranlassung und Inhalt der EIKE Replik

Im “Daily Online“ thematisierte David Rose am 25. Mai 2013 einen kürzlich veröffentlichten Bericht des regierungsamtlichen britischen Met Office, der feststellt, dass die

globale Erwärmung vor 16 Jahren geendet hat“,

was bedeutet, dass

die Pause nun schon etwa so lange andauert wie die vorhergehende Warmphase zwischen 1980 und 1996“.

Die UBA-Schrift “Und sie erwärmt sich doch“ vom Mai 2013 (hier) spielt auf eine Aussage von Galilei an, der sie als Querdenker gegen den Zeitgeist formulierte. Hier ist dieses Zitat angebracht, denn das Umweltbundesamt bewegt sich NICHT.

Der von der profitierenden Klimawissenschaft den Medien und der Politik angediente Zeitgeist von der globalen Erwärmung wird unbekümmert aller neuen Erkenntnisse beibehalten. Dies soll angesichts der immer massiveren Kritik nachdenkender Bürger offenbar helfen, dem Alarmismus über anthropogene Klimakatastrophen neue Nahrung zu geben und irrationale Urängste zu schüren (s. Titelbild). Widersprechende Fakten bleiben, weil unerwünscht, nach wie vor unerwähnt. Sie werden in unserem Faktencheck der regierungsoffiziellen Agitation gegenübergestellt. Zur Vermeidung unnötiger Wiederholungen werden die maßgebenden Aussagen des UBA in den folgenden 10 Abschnitten besprochen:

1. Allgemeines zum Begriff Klima und Klimaänderungen.

2. Die Änderung der globalen Mitteltemperatur im 20. Jahrhundert.

3. Extremwetterzunahmen?

4. Wie groß ist der menschgemachte (anthropogene) Beitrag zur jüngsten
Klimaänderung?

5. Was trägt die Sonne zu Klimänderungen bei?

6. Äderungen der Gletschermassen.

7. Die Auswirkungen von anthropenem CO2.

8. Sind Klimamodelle zuverlässig?

9. Erwärmung oder Abkühlung, was ist vorteilhafter?

10. Gibt es einen wissenschaftlichen Konsens?

Wir bringen unseren Faktencheck in 3 Folgen: Folge 1 – Themenschwerpunkte 1 bis 4, Folge 2 – Themenschwerpunkte 5 bis 7, Folge 3- Themenschwerpunkte 8 bis 10. Die vollstängige EIKE-Replik auf die UBA-Broschüre ist in jedem Teil als pdf angehängt.

Die Autoren

Allgemeines zum Begriff Klima und Klimaänderungen

(Kap. 1, 2 der UBA Schrift): Das UBA zählt vermutete und bekannte physikalische Antriebe von Klimaänderungen auf. Es unterlässt allerdings zu erwähnen, dass es bis heute weitestgehend unbekannt ist, wie diese Antriebe die beobachteten
Klimaänderungen bewirken. Dazu ist das globale System von Atmosphäre, Hydrosphäre, Biosphäre, Kryosphäre und Pedosphäre zu komplex. Von Details, wie beispielsweise kurzfristigen klimatischen Auswirkungen von extremen Vulkanausbrüchen abgesehen, sind bis heute die einzigen bekannten Ursachen von Klimaänderungen die berühmten Milankovitch-Zyklen [1], [2]. Die Milankovitch-Theorie erklärt aber lediglich die in grob 100.000 Jahren Periodenlänge auftretenden Warm- und Kaltzeiten, wobei selbst hier keine völlige wissenschaftliche Einigkeit besteht [3].

Die UBA Aussage über die Buschbrände in Australien ist sachlich falsch. Diese Brände haben mit Klimaänderungen nichts zu tun. Tatsächlich ist die australische Natur auf die Buschfeuer angewiesen, denn viele Pflanzen brauchen die große Hitze zur Fortpflanzung: erst durch Buschfeuer springen die Samenkapseln auf (hier). Buschbrände sind in Australien völlig normal und natürlich. Für die ungewöhnliche Stärke der Brände und ihre Todesopfer der jüngsten Jahre im Bundesstaat Victoria waren dagegen "politische" Gründe verantwortlich. In dem betreffenden Zeitraum regierten die Grünen in Victoria mit. Das Abräumen des Unterholzes (fuel) nahe an Wohnsiedlungen wurde gesetzlich verboten und das Siedeln in unmittelbarer Nähe des Buschs gefördert. Obwohl Forstfachleute in der renommierten australischen Zeitschrift "The Australian" eindringlich vor den Folgen dieser unsachgemäßen Umweltpolitik warnten, blieb die Regierung Victorias bei ihrer Linie – mit den bekannten Folgen (hier).

Die vom UBA am Ende von Kap. 2 suggerierte Auffassung, dass die ohnehin geringfügigen Temperaturänderungen des 20. Jahrhunderts generell schädlich seien, entbehrt jeder sachlichen Grundlage. Hierzu weisen wir auf das neue Ergrünen der Randgebiete der Sahara hin. Die größte Trockenwüste der Welt schrumpft. Dieser Effekt ist einem regionalen Klimawandel, aber auch dem ansteigenden CO2-Gehalt der Luft zu verdanken (hier) und (hier).

Die Änderung der globalen Mitteltemperatur im 20. Jahrhundert 

Für die Periode des 20. Jahrhunderts zeigt die globale HadCrut-Kurve (hier) eine Temperatursteigerung von grob 0,8 °C, von 1980 bis 2010 von 0,5 °C an (Bild 2). Die UBA-Aussage in Kap. 3 über das 20. Jahrhundert “Das Tempo der Erwärmung hat in dieser Periode deutlich zugenommen“ sowie auf S. 38 in Kap. 6 “Zumindest seit Ende der 1070er Jahre ist die Änderung der bodennahen globalen Mitteltemperatur mit natürlichen Einflüssen allein nicht zu erklären“ widerspricht dem Vergleich der HadCrut-Kurve mit historischen Proxi-Temperaturreihen und ist infolgedessen falsch. Offenbar ist dem UBA das Datenmaterial unbekannt, das von der National Oceanic and Atmospheric Administration (NOAA) der USA der wissenschaftlichen Gemeinde und jedem interessierten Laien frei zugänglich ist (hier).
Die zur Zeit qualitativ wohl beste Proxy-Reihe, die knapp 2000 Jahre von 1973 bis zum Jahre 0 zurückreicht, wurde aus 91 Einzelreihen (Analysen von Baumringen, Stalagmiten, Sedimenten,Eisbohrkernen usw.) destilliert und von den Autoren Christiansen und Ljungqvist im Jahre 2012 veröffentlicht (hier). Sie wird von weiteren Reihen weltweit bestätigt. Aus ihr sind stellvertretend folgende Temperaturschwankungen zu entnehmen (alle Werte aus üblicher linearer Regression in den angegebenen Zeitbereichen):

Temperatursteigerung in 5 Jahren von 930 bis 935 n.Chr.: +1,3 °C

Temperatursteigerung in 87 Jahren von 903 bis 990 n.Chr.: +1,9 °C

Temperaturabfall in 5 Jahren von 1637 bis 1643 n.Chr.: -1,9 °C

Tatsächlich sind zumindest in den letzten 2000 Jahren aus der Reihe von Christiansen/Ljungqvist, aber auch aus weiteren Proxy-Reihen in zahlreichen Zeitperioden Temperaturänderungen aufzufinden, die zumindest ähnlich stark, oft aber auch stärker und schneller waren als die Temperaturänderungen im 20. Jahrhundert. 

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/HadCRUT4.jpg

Bild 2: Globalweite Mitteltemperaturen, veröffentlicht vom CRU, die jüngste globale Abkühlung geht aus den Darstellungen bereits deutlich hervor.

Die Aussagen des UBA über eine ungewöhnliche Schnelligkeit und Stärke der globalen Erwärmung im 20. Jahrhundert ist daher sachlich falsch. Alle Änderungen des 20. Jahrhunderts liegen im  Rahmen NATÜRLICHER Fluktuationen.

Seit ca. 16 Jahren wird wieder globalweite Abkühlung gemessen. Es ist folglich zu betonen, dass sowohl die Abküh-lungsperioden im 20. Jahrhundert als auch die neue und noch andauernde Abkühlung der jüngsten 16 Jahre nicht mit dem stetig ansteigenden CO2 Gehalt der Atmosphäre zusammenpassen.

3. Extremwetterzunahmen?

(Kap. 4 der UBA Schrift) Die Kernaussage des UBA von Kap. 4 ist sachlich falsch. Sie widerspricht nicht nur der gesamten meteorologischen Fachliteratur, stellvertretendes Beispiel [4], sondern auch noch dem IPCC. Kaum etwas ist statistisch sorgfälter untersucht, als die vermuteten Veränderungen in den Häufigkeiten von Extremwetterereignissen der letzten Jahrzehnte (Stürme, Tornados, Starkregen, Überschwemmungen usw.). Hier sagt die Fachliteratur und das IPCC absolut Eindeutiges aus: Es sind bis heute keine Extremwetterzunahmen aufzufinden (hier) und (hier).

Insbesondere bei der Überschwemmungsproblematik verwechselt das UBA offenbar die tatsächlich auftretenden höheren Schäden mit angeblich größeren Überschwemmungshöhen. Diese gehören freilich, wie alle historischen Marken auf europäischen Flusspegelwänden belegen (hier), in den Bereich der Mythen. Da die Vermögenswerte weltweit zugenommen haben und zudem aus Platzgründen vermehrt in hochwassergefärdeten Gebieten gesiedelt wird, sind Schadenszunahmen unvermeidbar. Mit Klimaänderungen hat das nichts zu tun. Dies ist nebenbei auch der nachvollziehbare Grund, warum die großen Versicherungen zu ausgesprochenen Befürwortern der AGW Hypothese (Anthropogenic Global Warming =Hypothese von einer menschgemachten globalen Erwärmung) geworden sind. Die Attraktivität eines solchen Geschäftsmodells ist nachvollziehbar.

Wie groß ist der menschgemachte (anthropogene) Beitrag zur jüngsten Klimaänderung?

Das UBA sagt wissenschaftlich Unbelegbares aus, denn das Heranziehen von Klimamodellen kann keine Antwort auf die Frage des menschgemachten Einflusses auf das Klimageschehen geben. Wir betonen: Es ist bis heute KEINE begutachtete Fachveröffentlichung bekannt, die auf die Frage nach dem anthropogenen Klimaeinfluss eine zuverlässige ANTWORT gibt. Wahrscheinlichkeitsaussagen, wie die des UBA, aber auch des IPCC, sind ohne ordentliche Signifikanzanalysen sinnlos. Solche Analysen gibt es nicht!

Der Bedeutung eines anthropogenen Einflusses wegen soll etwa ausgeholt werden. Dazu wird der Stand der Klimaforschung ab 1997 an Hand von begutachteten (Peer-Review) Fachpublikationen nachfolgend zusammengefasst:

1. Im Jahre 1997 veöffentlichte der wissenschaftliche Beirat der Bundesregierung (WGBU) das Sondergutachten “Klimaschutz“ (hier). In diesem heißt es auf S.8, Abschnitt 2.1, letzter Absatz: “Wegen der hohen natürlichen Klimavariabilität ist es sehr schwierig nachzuweisen, ob der Mensch die beobachtete Klimaänderung mit verursacht hat“. Einen solchen Nachweis gibt es bis heute nicht.

2. Eine erste maßgebende, systematische Untersuchung von Temperaturreihen weltweit verstreuter Stationen wurde im Jahre 2003 veröffentlicht (hier). Im Ergebnisteil dieser Fachpublikation, die auch der Direktor des WBGU, Prof. Hans-Joachim Schellnhuber als Koautor zeichnete, ist unter (iii) nachzulesen: “In der weit überwiegenden Anzahl aller Stationen konnten wir keine globale Erwärmung im 20. Jahrhundert auffinden“.

3. Im Jahre 2011 erschienen zeitgleich zwei weitere Studien, die erste von der US Universität Berkeley mit den Autoren R. Muller et al. (hier), die zweite von den EIKE-Autoren Lüdecke, Link, Ewert (hier). Das wichtigste Ergebnis der Berkeley Studie war, dass ein Viertel aller Temperaturreihen weltweit im 20. Jahrhundert Abkühlung zeigen.

Die Grundlage der EIKE-Publikation bestand in der Anwendung einer maßgeblichen, von Lennartz und Bunde (Univ. Gießen) veröffentlichten Weiterentwicklung [5] der Analysemethode, die bereits in der oben erwähnten Publikation des Koautors H.-J. Schellnhuber vom Jahre 2003 eingesetzt wurde. Es ergaben sich keine maßgebenden Ergebnisunterschiede aller drei hier in Rede stehenden Studien. Neu in der EIKE-Arbeit war, dass zum ersten Mal für einen solch großen Datensatz (über 2000 Messtationen) die Wahrscheinlichkeit angegeben wurde, welche Temperaturreihen durch einen externen Trend geprägt waren. Es wurde nachgewiesen, dass nur etwa ein Drittel aller untersuchten 100-Jahre langen Temperaturreihen nicht durch natürliche Verläufe erklärbar sind. Die verantwortlichen Antriebe konnten mit dem verwendeten Verfahren nicht bestimmt werden. Es kommen ungewöhnliche Veränderungen der Sonnenaktivität, Messverfälschungen durch städtische Wärmeinseln, aber auch anthropogene Treibhausgase und weiteres mehr in Frage.

Auch im Jahre 2011 hat sich folglich am Erkenntnisstand der Jahre 1997 und 2003 nichts geändert. In der Fachliteratur wird die bisher vergebliche Suche nach einem anthropogenen Einfluss auf Erdtemperaturen als das “Attribution and Detection Problem“ bezeichnet. Die Aussage des UBA über einen maßgebenden anthropogenen Einfluss auf Erdtemperaturen ist nach dem heutigen wissenschaftlichen Stand daher UNHALTBAR.

Literaturquellen

[1] A. Berger, Milankovitch theory and climate, Reviews of Geophysics,
Vol. 26, No. 4, p. 624 (1988)

[2] A. Berger, and M.F. Loutre, Insolation values for the climate
 of the last 10 Million years, Quaterny Science Rev., Vol. 10, p. 297 (1991)

[3] C. Wunsch, Quantitative estimate of the Milankovitch-forced
contribution to observed Quaternary climate change, Quaternary
Science Rev. 23, 1001-1012 (2004)

[4] H. Kraus, U. Ebel: Risiko Wetter, Springer

[5] S. Lennartz and A. Bunde: Distribution of natural
trends in long-term correlated records: A scaling approach, Phys.
Rev. E84, 021129 (2011)

Hinweis: beim Ausdrucken des pdf-Files sollte die Einstellung "An Druckränder anpassen" genommen werden, anderenfalls wird im kleineren Buchformat ausgedruckt.

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #42 bis #45

Die Erfindung des nuklearen Abfallproblems fußt auf 3 Geboten, die für die ökoreligiöse Bewegung unantastbar sind.

– Nuklearer Abfall ist unglaublich gefährlich und unvorstellbar giftig, jenseits aller bekannter Stoffe, die uns umgeben.
– Es gibt keinen Ort auf der Welt, an dem dieser Abfall dauerhaft gelagert werden könnte.
– Es gibt auch keine technische Möglichkeit, diesen Abfall unschädlich zu machen.

In der realen Welt ist jede einzelne dieser Prämissen falsch, denn die Toxizität endzulagernder nuklearer Abfälle ist eher moderat, die Mengen lächerlich gering, mit der zusätzlichen angenehmen Eigenschaft, sich von selbst aufzulösen. Auch Methoden der Entschärfung waren von Anfang an bekannt. In der phantastischen Welt von Ursula und Michael Sladek und ihren Elektrizitätswerken Schönau (EWS), Kumulationspunkt allen ökologistischen Irrsinns, wird hingegen alles getan, diese Mythen aufrecht zu erhalten – für die Ökoreligion würde sonst ein Weltbild zusammenbrechen.
Die Atommüll-Gebote müssen um jeden Preis verteidigt werden. Ähnlich den ausufernden Institutionen der katholischen Kirche im Mittelalter gibt es dafür inzwischen spezialisierte inquisitorische Einrichtungen wie das „Öko-Institut e.V.” oder das IPPNW, die zu jedem wissenschaftlichen Beleg ein pseudowissenschaftliches Gegenargument konstruieren. Solange der Laie (und inzwischen sogar der ein oder andere fachverwandte Experte) dies nicht unterscheiden kann, stimmt die Balance, und die Gelder fließen zugunsten der Ökoreligion.

Der mittellose Verein KRITIKALITÄT versucht, dieser in Jahrzehnten hauptsächlich durch die Ökoreligion vorangetriebenen und perfektionierten Imitation wissenschaftlicher Methoden durch klare, überprüfbare sowie offen diskutierbare Aussagen entgegenzuwirken. Die gut entlohnten öffentlich-rechtlichen Medien, sowie Bildungseinrichtungen und Politik können oder wollen dies offensichtlich nicht leisten.

An Originalität mangelt es den Ökologisten hierbei nicht. Der im Jahre 2008 kreierte „Asse-Skandal” ist dabei zweifelsohne die beste Erfindung. Sie wurde nur dadurch möglich, dass das Bundesamt für Strahlenschutz, ehemals eine neutrale Aufsichtsbehörde, inzwischen von einem grünen Atomkraftgegner geleitet wird. Andere amtliche Einrichtungen wie die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) oder die Physikalisch-Technische Bundesanstalt (PTB) konnten sich gegen derartige Politisierungen bisher erfolgreich wehren und sind den Ökologisten folglich ein Dorn im Auge. Dies führt sogar dazu, dass ehemaligen verdienten Mitarbeitern von den Grünideologen Worte in den Mund gelegt werden, die sie heute vehement abstreiten.

Alles beginnt aber mit der eigentlichen „Abfall”-Menge, die in der Antwort zu Grund #42 in eine anschauliche Relation gesetzt wird. Bereits hier wird klar, dass es das „Atommüllproblem” eigentlich gar nicht gibt. Zur Aufrechterhaltung des bösen Images der „Atomlobby” gehört natürlich auch, dass diese sich angeblich um die Endlagerung drückt (#43). Auch Ursachenforschung ist nicht gerade eine Spezialität der EWS, denn von Endlagerkonzepten nimmt man immer häufiger Abstand, nicht weil sie „technisch ungelöst” sind (#44), sondern weil sie immer überflüssiger werden. Dies alles wird natürlich wieder begleitet von Übertreibungen, die so grob sind, dass man sie nur noch als Falschaussagen bezeichnen kann (#45).

Nun zu Hundert gute Antworten #42 – #45, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013, 18.5.2013.

Hundert gute Antworten #42 – #45

#42: Atommüllberge

Behauptung: Atomkraft erzeugt jede Menge Atommüll.

Die EWS behaupten

Rund 12.500 Tonnen hochradioaktive abgebrannte Brennelemente sind in den deutschen Atomkraftwerken bisher angefallen. Jedes Jahr kommen rund 500 Tonnen hinzu. Plus Tausende Kubikmeter schwach- und mittelaktiven Mülls. Plus alles, was in Luft und Wasser landet. Plus die Abfälle aus der Wiederaufarbeitung. Plus die Abfallhalden des Uranbergbaus. Plus das abgereicherte Uran aus der Anreicherungsanlage. Plus die Atomanlagen selbst, denn auch die müssen irgendwann »entsorgt« werden.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

12.500 Tonnen Abfall – pro Bundesbürger sind das gerade 160 Gramm. Keine Industrie erzeugt so wenig und so gut handhabbaren Abfall.

2,6 Millionen Tonnen chemischer Sondermüll lagern hingegen allein in Herfa-Neurode, der größten Gifmülldeponie der Welt – das ist die 200-fache Menge des gesamten produzierten hochradioaktiven „Atommülls”, der weitaus harmloser ist und außerdem mit der Zeit immer ungiftiger wird.

Im Gegensatz zu nuklearen Endlagern schert man sich um die Lagerung des weitaus giftigeren und in viel größeren Mengen produzierten chemischen Sondermülls herzlich wenig. So wurde Herfa-Neurode damals von Joschka Fischer (Bündnis 90/Grüne) kurzerhand genehmigt, während der Streit um Gorleben noch heute läuft.

Dabei könnte man die ohnehin äußerst geringen nuklearen Abfallmengen praktisch komplett verschwinden lassen. Die dafür nötige Technik, zum Beispiel den „Schnellen Brüter” SNR-300, hatte man schon in den 80er Jahren fertig gebaut. Ausgerechnet dieser extrem umweltfreundliche Reaktor, der aus den „Abfällen” auch noch Energie gewonnen hätte, wurde von der Antiatom-Bewegung noch vor der Inbetriebnahme abgerissen. Nun steht dort ein Vergnügungspark.

Die heute üblichen, radiologisch relevanten genutzten Bauteile eines Kernkraftwerks strahlen wesentlich schwächer als frühere Materialien, sodass der größte Teil nur wenige Jahre bis Jahrzehnte während der Rückbauphase abklingen muss – ohne Zwischen- oder Endlagerung. Lediglich etwa ein Drittel des Reaktordruckbehälters, was zusammengerechnet gerade einmal einem Sechstel des anfallenden hochaktiven „Abfalls“ entspricht, muss länger gelagert werden. Dieses Material strahlt nun aber schwächer als Natururan und muss nicht über geologische Zeiträume endgelagert werden. Alles andere kann konventionell entsorgt oder verwendet werden.

Das abgereicherte Uran (über 99% U-238 mit einer Halbwertszeit von 4,5 Mrd. Jahren) ist nun weniger als schwach radioaktiv und somit alles andere als gefährlicher Müll. Es kann problemlos wie Blei gehandhabt werden.

Quellen von KRITIKALITÄT


#43: Entsorgungslüge

Behauptung: Noch kein einziges Gramm Atommüll ist schadlos entsorgt.

Die EWS behaupten

»Zur Frischhaltung von Lebensmitteln« würde er dienen – mit solchen Versprechen wischten Experten Mitte der 1950er Jahre kritische Fragen nach der Entsorgung von Atommüll beiseite. Ohne sich um das Entsorgungsproblem zu kümmern, bauten sie einen Reaktor nach dem anderen. Von den vielen Millionen Tonnen strahlenden Abfalls ist bis heute noch kein Gramm schadlos entsorgt.

Rechtlich gesehen darf in Deutschland überhaupt kein Atomkraftwerk betrieben werden, solange die Entsorgung des Atommülls nicht gesichert ist. Als ›Entsorgungsvorsorgenachweis‹ dienten wahlweise die undichte und einsturzgefährdete Atommüllkippe Asse II, die Erkundungsarbeiten im Salzstock Gorleben, der Bau der Wiederaufarbeitungsanlage (WAA) Wackersdorf, die Atommüll-Transporte ins Ausland sowie aktuell die ›geordnete Zwischenlagerung‹ der abgebrannten Brennelemente in Castor-Behältern in oberirdischen Hallen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Tausende von Tonnen schwach- und mittelaktiven Abfalls sind in der Asse bereits schadlos entsorgt – deutlich mehr als „kein Gramm”. Die Asse ist in Bezug auf die eingelagerten Stoffe auch keineswegs „undicht”, wie zahlreiche Gutachten klar belegen. Der Bau selbst ist so eingesturzgefährdet wie jedes andere alte Bergwerk, mit der Sicherheit der bereits eingelagerten Stoffe hat dies jedoch überhaupt nichts zu tun.

Bereits 1959, lange vor Inbetriebnahme der ersten deutschen Leistungsreaktoren, empfiehlt die Bundesanstalt für Bodenforschung die Einlagerung radioaktiver Abfälle in Salzformationen. Sechs Jahre und mehrere Studien später wird die Asse als Forschungsbergwerk gekauft. Dieser kurze Abriss plus die enormen Rücklagen der Energieversorger zeigt bereits, wie unsinnig die Behauptung ist, man hätte Fragen nach der Entsorgung „beiseite gewischt”. Sie war vielmehr von Anfang an Teil des Gesamtkonzepts.

Wiederaufarbeitungsanlagen hätten die ohnehin sehr geringe Abfallmenge nochmals deutlich reduzieren können. Deren Bau wurde aber aus rein politischen Motiven verhindert; Transporte ins Ausland waren die Folge. Ebenso verhindert wurde der „Schnelle Brüter”, der die Abfallmenge um einen Faktor 100 (!) reduziert hätte. Auch das Endlager Gorleben, obwohl durch zahlreiche Gutachten und Erkundungen immer wieder als sicher eingestuft, wurde durch die Suche nach dem „Haar in der Suppe” seitens der Antiatombewegung massiv verzögert. Bis dahin lagert der Abfall eben oberirdisch in Castoren – so wollen es anscheinend die Kernkraftgegner.

Übrigens: Die Bestrahlung von Lebensmitteln gehört zu den ältesten, etabliertesten und effektivsten Methoden der Konservierung.

Quellen von KRITIKALITÄT


#44: Technisch ungelöst

Behauptung: Die Endlagerung ist noch nicht einmal technisch gelöst.

Die EWS behaupten

70 Jahre nach Entdeckung der Kernspaltung ist noch nicht einmal klar, wie man den hochradioaktiven Abfall lagern müsste, damit er nicht zur Gefahr für Mensch und Umwelt wird – geschweige denn, wo.

Anders als die Atomlobby glauben machen will, sind viele Sicherheitsfragen in puncto Endlager weiterhin völlig ungeklärt. So nahmen die USA wegen schwerwiegender Gefahren für Mensch und Umwelt unlängst Abstand von ihrem Endlager-Projekt in den Yucca Mountains. Das schwedische Konzept der Endlagerung in Granit-Urgestein steht ebenfalls vor dem Aus (siehe auch # 61). Und was den Salzstock in Gorleben angeht: Der ist in weiten Teilen von Grundwasser überströmt. Nach den Erfahrungen mit den Wassereinbrüchen in der Atommüllkippe Asse II sollten sich weitere Diskussionen über die ›Eignung‹ Gorlebens als Endlager eigentlich erübrigt haben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Wer behauptet, die Lagerung hochradioaktiven Abfalls sei ungelöst, stellt die Ergebnisse von Jahrzehnten radiochemischer und geologischer Forschung mit hunderten von begutachteten Publikationen in Frage. Bereits auf der Genfer UN-Konferenz zur friedlichen Nutzung der Kernenergie im Jahre 1955 wurden Salzformationen als Enlagerstätten, die Millionen Jahre sicher sind, vorgeschlagen – dies wurde durch unzählige Gutachten immer wieder bestätigt.

Von der Antiatombewegung wird das Eindringen kleiner Wassermengen in einen Salzstock wie in Asse immer wieder als grundlegendes Sicherheitsproblem dargestellt. Dabei wurde dies von Anfang an in sämtlichen Gutachten berücksichtigt und als irrelevant eingestuft. Daran ändert auch das Überströmen durch Grundwasser nichts.

Dass über Jahrzehnte aufgrund von Erkenntnisgewinn oder veränderten ökonomischen Umständen eine Endlageroption zugunsten einer anderen aufgegeben wird, hat mit der geologischen Eignung nicht das geringste zu tun. Die Beendigung des Endlager-Projekt in den Yucca Mountains beispielsweise hatte keine sicherheitstechnischen, sondern infrastrukturelle und konzeptionelle Gründe, wie das amerikanische Energieministerium ausdrücklich betont. Hier ist in den letzten Jahren vor allem die Weiterverwendung der „Abfälle” in Brutreaktoren vorgesehen, wie sie in Deutschland von der Antiatombewegung boykottiert wurde. Diese Technik macht eine Endlagerung ohnehin überflüssig.

Das schwedische Konzept steht mitnichten „vor dem Aus”. Vielmehr passt man sich auch hier dem internationalen Trend einer Abkehr von Endlagerkonzepten hin zur Rückholbarkeit für Brutreaktoren an. Schade, dass diese Entwicklung an Deutschland vorüber geht, war es doch einst mit dem „Schnellen Brüter” führend.

Bei ASSE II ist objektiv kein radiologisch relevantes Problem vorhanden, siehe auch die Antwort zu #46.

Quellen von KRITIKALITÄT


#45: 1.000.000 Jahre

Behauptung: Atommüll ist eine Million Jahre lang eine strahlende Gefahr.

Die EWS behaupten

Bis die Strahlung der radioaktiven Abfallstoffe aus den Atomkraftwerken einigermaßen abgeklungen ist, dauert es ungefähr eine Million Jahre. So lange muss der Atommüll von Mensch und Biosphäre ferngehalten werden.

Hätten die Neandertaler vor 30.000 Jahren Atomkraftwerke betrieben und ihren Atommüll irgendwo vergraben, so würde er heute noch tödlich strahlen – und wir müssten wissen, wo wir unter keinen Umständen graben dürften.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Das Abklingen dauert nicht eine Million, sondern gut 100.000 Jahre. Und dies auch nur wegen des Plutoniums, welches aber keinesfalls Müll, sondern wertvoller Brennstoff für Schnellspalt-Reaktoren ist. Deren Inbetriebnahme hat die Anti-Atombewegung in der 80er Jahren allerdings erfolgreich zu verhindern gewusst (Kalkar).

Da die Beseitigung und gleichzeitige Nutzung von Plutonium technisch längst gelöst ist bleiben nur die Spaltprodukte als tatsächliches Abfallproblem. Hier ist die Lagerzeit nur noch einige 100 Jahre. Die Abfallmenge ist dabei extrem gering: Ein Mensch, der sein ganzes Leben lang seinen Strom ausschließlich aus Kernenergie bezieht, hinterlässt dabei gerade einmal 100 Gramm. Und die strahlen mit 1 TBq so schwach, dass man sie sich sogar, geschirmt mit einigen Zentimetern Blei, unters Bett legen könnte.

Die in etwa 1 Millionen Jahren dominierenden, wenigen beweglichen Spaltprodukte, die dann vollständig in die Biosphäre übertreten könnten, erhöhen die Belastung um maximal 50% der natürlichen Belastung, wenn sie komplett in die Menschen verteilt gelangen würden – dies ist ungefährlich. Da dies aber eine Überschreitung von radiobiologisch unbegründbaren, politisch motiverten Grenzwerten bedeuten könnte, gibt man mehrere Milliarden Euro für unnötige Endlagersuchen aus und wirft den Energieversorgern auch noch vor, dass sie dafür nicht aufkommen wollen.

Quellen von KRITIKALITÄT





NAEB Nachrichten vom 18. Mai 2013 in den EIKE-News

Die Themen

1. Smartgrid im realen Leben unter Anwendung des NAEB-Dreisatzes.

2. Vorstandsvorsitzender Dr. Bock von BASF hält meine Frage zur Deindustriealisierung für berechtigt.

3. Altmaiers EEG-Kosten-Deckelung (überflüssig und ineffizient) gescheitert

4. Warum sind sich Altmaier und Trittin beim Endlagersuchgesetz einig/Frankreichs Endlager

5. Voltaik-Enspeisesätze ab Mai 2013

6. Der Kampf gegen die Energiewende geht nur ausserparlamentarisch!

7. Mit Gerichtsentscheidungen ist der Kampf gegen die Energiewende nicht zu gewinnen

8. Die Zukunft der Deutschen Energieversorgung ist Kohle, Kohle, Kohle (und Gas)!

9. Stahlwerke-Exodus wegen Strompreis (Maxhütte)

10. Ein Toter durch Stromspeicher-Technik wie im Rahmen der Energiewende-Narretei propagiert

11. Eberharts Vers: Endlagersuche im Kloster

Der vollständige Nachrichtentext (hier).