1

Niederländischer Wissenschaftler Henk Tennekes warnt: Windkraft ist überhaupt keine Lösung!

Altmodische holländische Windmühlen brauchten zwei Mann zur 12-stündigen Überwachung täglich, die ganze Woche über. Dies, weil eine durchgehende Windmühle zuerst ihre Lager verbrannte, dann ihr Hartholz-Getriebe, dann den gesamten Aufbau. Das war der Albtraum der Windmüller in den „guten“ alten Zeiten. Und was kam aus diesen schönen Antiquitäten heraus? Fünfzehn PS im besten Falle, bei günstigem Wind. Das ist so ungefähr das, was heutzutage ein moderner Rasenmäher leistet. Kein Wunder, dass die Holländer so früh wie möglich im ausgehenden 19. Jh. auf Dampfkraft umgestellt haben.

Weil die von den modernen Windturbinen erzeugte Energie unvorhersehbar ist, müssen konventionelle Kraftwerke als Reserve bereitstehen. Diese laufen meist mit weit weniger als der Hälfte ihrer Leistung.

 Das ist schrecklich unwirtschaftlich – nur bei Volllast haben sie einen guten thermischen Wirkungsgrad und den geringsten CO2-Ausstoß pro erzeugter Kw/h. Man denke auch mal einen Moment an die ganze Verkabelung: Nicht nur ein feinmaschiges Verteilungsnetz auf der Verbraucherseite, auch eines auf der Erzeugerseite wird gebraucht. Und wie steht es mit der Wartung und Instandhaltung? Wie kommt ein Wartungstrupp auf einen einsamen Hügel? Und wie sieht das aus, wenn der Windpark sich „offshore“ auf See befindet? Also Hubschrauber – Donnerwetter, ist das GRÜN !!

Und sollte man sich nicht auch mal vorstellen, was an den Rotorblättern geschieht, wenn sich gefrierender Regen ansetzt? Oder wie der Wirkungsgrad von laminar umströmten Rotorblättern heruntergeht, wenn sich Insekten und Staub an den Vorderkanten ansetzen?

Oder daran, was sich in Deutschland mehr als einmal ereignet hat? Die deutsche Gesetzgebung gibt der Windkraft absolute Priorität, daher müssen alle anderen Formen der Energieerzeugung zurückgefahren werden, wenn der Wind anfängt zu blasen. Das erzeugt gefährliche, fast unkontrollierbare Instabilitäten im Hoch-Volt-Netz. In diesen Augenblicken schwitzen die Kraftwerksbetreiber Blut – fast wörtlich. Die Synchronisation des Systems ist eine schreckenserregende Aufgabe: Wechselströme von 100.000 Volt oder mehr dürfen nicht mehr als etwa 1 Grad außerhalb der Phase liegen, sonst fliegen die Sicherungen überall heraus und in ganz Europa gehen die Lichter aus.

Eine Anwendung könnte trotzdem attraktiv sein. Nehmen wir an, wir füllten einen Stausee in naheliegenden Bergen, indem wir den Wind nutzen, wenn er bläst, und dann stellen wir die Turbinen an, wenn aus irgendeinem Grund Lastspitzen abzufangen sind (auch bei Ausfall eines Kraftwerks in einer kalten Winternacht).

Windkraft ist eine grüne Fata Morgana von der übelsten Art. Für einfache Geister sieht sie grün aus, aber sie ist ein technischer Albtraum. Nirgendwo, sei es in Holland, in Dänemark, in Deutschland, in Frankreich oder in Kalifornien, habe ich Windfarmen gesehen, wo alle Turbinen gleichzeitig normal gelaufen wären. Typischerweise stehen 20% still, außer Betrieb, kaputt. Gehen Sie mal in Google Videos und suchen Sie Beispiele für Windturbinen-Unfälle, denken Sie darüber nach, und ziehen Sie dann Ihre eigenen Schlüsse.

Erst vor ein paar Jahren habe ich meine Meinung zur Kernkraft geändert. Heute halte ich sie für die einzige vernünftige Alternative für die nächsten 20 oder 30 Jahre. Frankreich war vor vielen Jahren klug: Anders als der Rest von Europa kann Frankreich seine Bürger und seine Industrie mit Elektrizität versorgen, selbst wenn Putin wieder einmal in seine Trickkiste greift.
Warum hören die Politiker nicht auf die Ingenieure? Warum geben Ingenieure klein bei, wenn sie aus politischen Gründen bezahlt werden? Nur um bei den grünen Tagträumereien dabei zu sein? Ich bin Ingenieur; ich möchte weiter stolz auf meinen Beruf sein.

Dr. Henk Tennekes Beitrag ist im Original bei Roger Pielkes Blog hier erschienen

In den 90-ger Jahren wurde Henk Tennekes gezwungen, seinen Schreibtisch zu räumen und als Direktor des niederländischen Instituts für Meteorologie (KNMI) zurückzutreten. Seine Sünde? In einem Zeitungsartikel hatte der weltweit geachtete Meteorologe all die platten falschen Aussagen über den Klimawandel entlarvt.

Details dazu hier

 Mit Dank an Prof. Kramm für die Videobeispiele

Die Übersetzung besorgte Helmut Jäger EIKE




Der UNO-Schwindel mit den Klimaflüchtlingen!

Es wurde gesagt, wenn man eine Vorhersage macht und ein Datum angibt, nenne man nie das Ausmaß, und wenn man das Ausmaß nennt, gebe man nie ein Datum an. Dann kann man immer behaupten, dass man recht hat, selbst wenn man falsch lag. Und dies ist noch nicht geschehen.

Das Umweltprogramm der UN UNEP hat 2005 einen Fehler gemacht, als es eine Karte mit den Gebieten erstellt hat, die von den Auswirkungen der Klimaänderung betroffen sein würden. Aus diesen Gebieten würden 50 Millionen „Klimaflüchtlinge“ vertrieben werden, wegen steigenden Meeresspiegels, häufigerer und stärkerer Hurrikane, Ernteausfällen usw.

Dem Blogger Gavin Atkins zufolge, der die vergessenen Prognosen des Untergangs wieder ans Tageslicht befördert hat, gab es in einigen dieser Gebiete Volkszählungen, und wenn sie überhaupt irgendwelche Probleme haben, dann durch das rapide und fortgesetzte Bevölkerungswachstum. Falls irgendjemand diese Gefahrenzone verlassen sollte, dann nur deswegen, weil sie überbevölkert sind.

Zum Beispiel ergab der jüngste Zensus auf den Solomon Islands bei Australien, dass die dortige Bevölkerung während des letzten Jahrzehnts um 100 009 auf über eine halbe Million gestiegen war. Auf den Seychellen im Indischen Ozean gab es einen Bevölkerungszuwachs von 81 755 Menschen im Jahre 2002 auf heute 88 311.

Auf den Bahamas, dem bevorzugten Ferienort für jene reichen Kapitalisten, die die Erde ausplündern, wuchs die Bevölkerung um über 50 000. Die sechs am schnellsten wachsenden Städte in China liegen inmitten einer der von der UNEP genannten Gefahrenzonen, ebenso wie viele Küstenstädte in den USA. Nach letzten Berichten gab es keine Massenflucht Richtung Inland. Offensichtlich haben diese gefährdeten Menschen das Ganze nicht verstanden.

Im Jahre 2005 berichtete die britische Zeitung “The Guardian” über eine Prognose von Janos Bogardi vom Institute for Environment and Human Security an der United Nations University in Bonn. Er sprach von „der wohlbegründeten Furcht, dass die Anzahl der Menschen, die vor unerträglichen Umweltbedingungen fliehen werden, exponentiell wachsen könnte, wenn sich die Auswirkungen des Klimawandels in der Welt zeigen werden“. Wohlbegründet?

In dem Artikel hieß es weiter, dass Neuseeland zugestimmt habe, die 11 600 Einwohner des tief liegenden Inselstaates Tuvalu im Pazifik aufzunehmen, falls der steigende Meeresspiegel diese Inseln überfluten würde. Jüngsten Berichten zufolge geht es Tuvalu immer noch sehr gut, und es liegt über Wasser.

Apokalyptische Vorhersagen von Alarmisten der Klimaänderung sind völlig aus der Luft gegriffen, sagt der schwedische Geologe und Physiker Nils Axel Mörner, früher Vorsitzender der Internationalen Kommission zur Änderung des Meeresspiegels. Wohl gibt es einige Fluktuationen in beide Richtungen, aber im Ganzen „ist der Meeresspiegel nicht gestiegen“, sagt er. „Er ist seit 50 Jahren nicht gestiegen“. Sollte es irgendeinen Anstieg in diesem Jahrhundert geben, wird er „nicht größer als 10 cm ausfallen, mit einer Fehlergrenze von ±10 cm“.

Update 17.4.11

Einige Leser glauben es handele sich um einen Zahlendreher. Das kann vorkommen, ist es aber hier nicht. Die offzielle Website ist inzwischen entfernt worden, aber in Coogle Cache findet man sie noch und zwar hier. Dort fehlt nur die o.a. Karte mit den kurzfristig gefährdeten Ländern. Wir bringen dazu in Kürze mehr. 

Link: http://www.investors.com/NewsAndAnalysis/Article.aspx?id=569069&p=1

Übersetzt von Chris Frey für EIKE

Wird fortgesetzt. Man lese vorab weitere Details dazu hier




Wie steht es um Energieeffizienz bei „Erneuerbaren Energien“?

Heißt das nicht, dass Elektrizität aus Wind und Sonne 10 mal so teuer ist wie konventionell erzeugte? Aber, halt, die offiziellen Zahlen passen gar nicht zusammen.   40 Mio. Haushalte mit im Mittel 3000 kWh Jahresverbrauch zahlen bei 3,5ct Aufschlag pro kWh 4Mrd. Euro. Die Förderung für die Erneuerbaren Energien (EE) beträgt aber 17 Mrd.Euro pro Jahr. Von diesen 17 werden nur 4 ueber dire Stromrechnung abgerechnet. Woher kommen die restlichen 13 Mrd.?  Offenbar aus irgendwelchen schwarzen Kassen im Bundeshaushalt.

Man hat sich wohl gesagt: 3,5ct zahlt der Verbraucher wohl noch ohne dass Protest gegen EE zu laut wird. Der Rest der Kosten wird versteckt, d.h. der Steuerzahler zahlt ihn. Und wird damit ueber die wahren Kosten getäuscht.

 In Wirklichkeit sind die Kosten für EE also mehr als 4 mal so hoch wie offiziell angegeben. D.h. die Kosten für EE sind 40 (!) mal höher als bei konventioneller Erzeugung. Und diese Kosten sollen in absehbarer Zeit um den Faktor 40 fallen? ( Die Kosten für Errichtung von Windkraftwerken pro kW Leistung sind in den letzten 5 Jahren überhaupt nicht mehr gefallen .)

Volkswirtschaftlich ist dies offenbar der größte anzunehmende Unsinn ( GAU ).

Hilft dieser volkswirtschaftliche Unsinn denn wenigstens dem sparsamen Umgang mit unseren knappen Energieressourcen oder der Reduzierung der CO2 Emissionen (für diese beiden Ziele wird EE ja überhaupt veranstaltet)? Antwort: Überhaupt nicht. Ganz im Gegenteil.

Für eine Einschätzung der Energie- und CO2-Verschwendung der EE muss man sich nur den Zusammenhang zwischen Energieverbrauch und Kosten vor Augen halten. Die Kosten fuer die Herstellung eines Produktes oder einer Dienstleistung sind nämlich fast ausschließlich die Kosten der Primärenergie, welche für  ihre Herstellung aufgewendet werden muss. Heutzutage wird alles mit Hilfe von Energie hergestellt. Rohstoffe werden gewonnen (und können mit Hilfe von Energie unendlich oft recycled werden, sind also im strengen Sinne unbegrenzt ) mittels Einsatz von Energie und Maschinen, deren Herstellung ebenfalls durch Energie geschah. Produktion von Gütern ebenso. Menschliche Arbeit wird zwar auch geleistet zur Herstellung, die Energie dafür ist allerdings nur zu einem geringen Anteil „ erneuerbar“ (entsprechend den Ausgangsstoffen fuer die menschliche Ernährung, die letztlich durch Sonnenenergie  -pflanzliche/ tierische Nahrung – erzeugt werden ). Dieser Anteil an der Herstellungsenergie liegt, wie man zeigen kann, bei ca 3%, kann also fuer diese Betrachtung vernachlässigt werden.

Einwände der Art:  „aber die Kosten für Kinderausbildung, Kultur, etc. sind ja auch enthalten“ sind nur scheinbar richtig. Auch diese Kosten sind letztlich nichts als Energiekosten. (Allerdings kann man an diesen speziellen Kosten und dem entsprechenden Energieaufwand  sparen, wenn  man in Ländern  mit geringen Lohnkosten produziert. Dort ist entsprechend der Energieaufwand  für die persönliche Lebensführung geringer. Aber wollen wir das?)

Wenn man es konsequent zu Ende überlegt „besteht“ letztlich jedes Produkt/Dienstleistung nur aus Energie. Die Herstellungskosten geben also gerade die Energie an, welche zur Herstellung benötigt wurde.

Die Erzeugungskosten von Windstrom liegen im Mittel bei ca. 8ct/kWh, also doppelt so hoch wie bei konventionellen Kraftwerken. Das bedeutet, dass für die Herstellung einer kWh Windelektrizität doppelt so viel knappe Primärenergie ( Kohle/Gas/ Öl/ Kernenergie ) erforderlich ist wie bei konventioneller Erzeugung. Berücksichtigt man noch, dass wegen der Unvorhersagbarkeit der Windstromerzeugung auch noch Gaskraftwerke vorgehalten werden müssen, welche bei Windflaute einspringen müssen, und welche wegen des dauernden Rauf-und Runterfahrens wenig effizient arbeiten müssen; weiter, dass fuer die Verteilung zusaetzlicher Netzausbau nötig ist, dann zeigt sich ein 3 bis 4 mal höherer Verbrauch von knapper Primärenergie bei Windstrom im Vergleich zu konventionellen Kraftwerken.

Meist wird auch übersehen, dass beim Erreichen von „ Preisparität“ von Windenergie mit knoventioneller ( dem überall verkündeten  Ziel ) noch kein Gramm Kohle/Öl etc. eingespart wird. Selbst wenn der Preis fuer Winstrom incl. Regelkraftwerken etc. nur noch die Hälfte der Kosten der konventionellen Erzeugung betragen wuerde ( was völlig unrealistisch ist ) würde man nur die Hälfte der knappen Primärenergie einsparen.

Entsprechend dem höheren Primärenergieverbrauch bedeutet Windenergie heute  völlig unnötiger Weise, 3 bis 4 mal so viel CO2 in die Atmoshäre zu blasen als es konventionelle Kraftwerke fuer die gleiche Elekriztätserzeugung tun.

Im Klartext:

Windenergie ist die rasanteste Art unsere knappen Energieressourcen zu verschleudern und  in gigantischem Maße unnötig CO2 in die Atmospäre zu emitieren.

Es versteht sich von selber, dass diese Verschleuderung von Energie und Emission unnötigen CO2s bei Solarelektrizität noch um Größenordnungen schlimmer ist.  Das Attribut „erneuerbar“ für diese Art  der Elekrtrizitätserzeugung ist also reines Geschwätz.  Von einer Energieproduktion mittels EE, welche geringeren Energieaufwand als  -Erzeugung realisiert, ist man so weit entfernt dass sie als völlig unrealistisch angesehen werden muss.

Man merkt sich: DIE LÖSUNG MIT DEN GERINGSTEN KOSTEN IST IMMER DIE ENERGIESPARENDSTE (Sofern  nicht Kosten versteckt sind, wie bei der oben erwähnten Differenz zwischen 4 Mrd. und 17Mrd).

Als (positive!)Illustration für diese Betrachtungsweise sei hier erwähnt: Energiesparlampen. Entgegen dem auch in den Medien weitverbreiteten Vorurteil spart der Einsatz von (Quecksilber-) Energiesparlampen tatsächlich Energie. Das gilt auch dann noch wenn man als Energiekosten nicht die 20ct/kWh ansetzt , die der Haushaltsverbraucher zahlt, sondern 4 ct, entsprechend den Herstellungskosten,und sogar auch dann wenn man berücksichtigt ,dass die von Glühlampen abgegeben Wärme Heizkosten einspart.

Nun ist angeblich der „spezifische Energieeinsatz“ der deutschen Wirtschaft ( kWh pro Euro Bruttoinlandsprodukt ) in den letzten Jahren gesunken. Steigende Produktion mit weniger stark steigendem Energieaufwand, wie ist das moeglich?

Zum kleineren Teil natürlich durch intelligentere Produktionsverfahren („Rationalisierung“), zum weitaus größten Teil aber durch Auslagerung des Energieverbrauches: unsere Wirtschaft nutzt in steigendem Maße importierte Vorprodukte ( das hat ihr ja auch schon mal die Bezeichnung  „Bazarökonomie“ eingetragen; meint, die Wirtschaft produzier gar nichts mehr, betreibt lediglich Handel. Natuerlich ist das nicht die ganze Wahrheit..). Der Energieaufwand für dieEndprodukte ist daher nicht etwa gesunken. Der Verbrauch an knappen Energieressourcen und die entsprechende CO2 Emission ist lediglich aus Deutschland ausgelagert worden.

Reine Augenwischerei also wenn behauptet wird, Deutschland hätte ja seine Emissionsreduzierungsziele erreicht.

Mit dem Verständnis der Gleicheit von Produktionskosten mit den Kosten für die notwendige Primärenergie läßt sich auch das gigantische Maß des ökölogischen Unsinns veranschaulichen, den die Planung des „ökologischen Umbaus von Europa“ (vorgesehene Kosten 11 Billionen Euro bis 2020) darstellt.

Diese Kosten sind äquivalent einem Verbrauch von ca 100 Billionen kWh (Jahresenergieverbrauch von Europa derzeit 20 Billionen kWh) und zusätzlicher Emission von  ca. 100 Gigatonnen CO2. (Jahres CO2 Emission von Europa derzeit ca 5 Gigatonnen)

 All dies, um auch in Zukunft eine sinnlose gigantische Verschwendung unserer knappen Energieressourcen und eine ebenso gigantische sinnlose CO2 Emission zu garantieren.

Es lohnt sich wohl darüber nachzudenken, wer von dieser gigantischen Verschwendung unserer kanppen Ressourcen eigentlich profitiert.

Mit den unsinnigen Energiekosten wird die produzierende Industrie, welche ALLEINE unseren hohen Lebensstanard erwirtschaftet, aus Deutschland verdrängt. Man bekommt den Eindruck, in Europa werde eine Politik der „verbrannten Erde“ verfolgt. Zunächst  verarmt die Bevölkerung indem ihr der Verbrauch unsinnig teurer Energie verordnet  wird, dann muss sie für warme Luft ( CO2 ) zahlen; und als „farewell-rip-off“ nimmt man noch  die  11 Billionen Euro mit und verlässt dann das Land, welches durch die jederzeit zu erwartenden blow-outs der unterirdischen CO2 Endlager (mit Millionen von ohne Fluchtchance Erstickten,) unbewohnbar geworden ist.

Prof. Dr. C.O. Weiss für EIKE

Update: Wie der WDR seine Hörer über die Kosten der "Erneuerbaren" in die Irre führt

Hörerbrief vom 15.4.11 unseres Fachbeiratsmitgliedes Prof. Alt an den WDR:

Sehr geehrter Herr Hauschild, sehr geehrter Herr Erdenberger,

am heutigen Morgen wurde in einer WDR 5 Sendung von Herrn Erdenberger, dessen Moderation ich sehr schätze, in einem Interview mit Herrn Schneider über einen Auftragsbericht der Heinrich Böll-Stiftung zur Sinnhaftigkeit zu der Stromerzeugung aus Kernkraftwerken berichtet (Herr Schnei- der sagte natürlich DIN/IEC begriffswidrig: "Atomkraftwerke" siehe Hilfsblatt 01).

Herrn Erdenberger ist zwar für die sehr detaillierten Fragen zu danken, jedoch waren alle Antworten von Herrn Schneider entweder grob wahrheitswidrig oder verwässernd ausweichend:

Tatsache ist z.B., dass die Subventionen für die erneuerbaren Energien derzeit jährlich rd. 11 Milli- arden € (14,2 Mrd. € – 3 Mrd. € ersparte Stromerzeugungskosten in den ohnehin notwendigen Kraftwerken =11,2 Mrd. € Subventionsbetrag). Siehe Hilfsblatt 173-1 der Anlage.

Die Berechnung der Bundesregierung mit dem Ergebnis, dass die Subventionsbelastung nur 3 Mrd. € betrage, ist wissenschaftlich nachweisbar unrichtig.

Tatsache ist auch, dass bei beliebig vielen Windenergieanlagen die Grundlasterzeugung der Kern- kraftwerke bei deren Außerbetriebnahme durch Windkraftwerke nur ersetzt werden kann in den Zei- ten, in denen der Wind stark weht und zu allen anderen Zeiten durch Gas- oder Kohlekraftwerke oder durch Stromimport aus benachbarten Kernkraftwerken abgedeckt werden muss, Siehe Hilfs- blatt 124.

Ich bitte Sie daher, in Zukunft die WDR 5 Hörer mehr wahrheitsbasiert zu informieren und nicht durch unwahre Behauptungen von Kernenergiegegnern unter – Ausnutzung der mangelnden Fach- kunde der Mehrheit unserer Bevölkerung in diesen Fragen – vorsätzlich schuldhaft in die Irre zu füh- ren. Für einen öffentlich- rechtlich verfassten Sender, wie der WDR, ist das in besonderem Maße verwerflich.

In den Nachrichten des WDR wurde über den Bundestagsbeschluss vom14.4.2011 berichtet, ge- mäß dem die Subvention der deutschen Steinkohle ab 2018 entfällt. Hierzu ist festzuhalten dass diese Subvention zur Erhaltung von ehemals über 60.000 Arbeitsplätze im deutschen Steinkohle- bergbau, derzeit sind es noch rd. 20.000, maximal im Jahr 1999 den Wert von 4,4 Mrd. € erreicht hatte und diese inzwischen bis zum Jahr 2009 auf 2,4 Mrd. € einhergehend mit massivem Stellen- abbau und Zechenstilllegungen abgesunken sind. Siehe Hilfsblatt 117-1.

Der einzige Unterschied der beiden Subventionen ist, dass die Subventionen für die deutsche Steinkohle aus dem Bundes- und Landeshaushalt aus Steuermittel gezahlt wird und jährlich dort ausgewiesen bzw. neu genehmigt werden muss.

Dagegen wird die viel höhere Subvention für die nur fluktuierend verfügbaren regenerativen Ener- gien direkt über den Strompreis – als EEG-Aufschlag und Mehrwertsteuer belastet – von den Strom- verbrauchern unmittelbar über die Stromrechnung auf Basis gesetzlicher dauerhaft wirksamer Ge- setzesregelung bezahlt. Damit wird das für die Regierung verfügbare Steueraufkommen nicht ge- schmälert.

Ob diese Art der Finanzierung staatlicher Anordnungen, zu Lasten aller Bürger, Grundgesetzkon- form ist, wurde bisher leider noch nicht geprüft.

Es ist nicht zu fassen, auf welchen nachweisbaren Irrungen die angestrebte Energiewende basiert und derzeit mit relativ hohem politischen Konsens über alle Parteien hinweg zu Lasten aller, in der Sache meist nur wenig sachkundigen Bürger, betrieben wird.

Helmut Alt

WDR 5 Tagesgespräch vom 15.4.2011:

-2-

Sehr geehrter Herr Schmitz -Forte,

herzlichen Dank, dass ich im Tagesgespräch durchgekommen bin und einige wenige Fakten zum Kernenergieausstieg und seinen wirtschaftlichen Folgen darlegen durfte. Sehr zu bedauern und auch höchst unfair war jedoch, dass ich keine Möglichkeit bekommen habe, auf die nachweislich teilweise unwahren Gegendarstellungen Ihres Studio- „Experten“ Herrn Wille, Redakteur der Frankfurter Rundschau, erwidern zu dürfen, sondern mir die Möglichkeit vom WDR erst gar nicht geboten wurde.

Ich werde das zum Anlass nehmen, meinen Studentinnen und Studenten, in großer Zahl aus auch aus China und anderen Ländern – die Voreingenommenheit der deutschen Medien insbesondere des WDR an diesem Interview beispielhaft darzustellen.

Einige Fakten mögen Sie den Anlagen entnehmen und ich wäre Ihnen sehr dankbar, wenn Sie die- se vielleicht mit Unterstützung von Herrn Wille mir gegenüber schriftlich widerlegen würden.

Wenn Herr Wille die für solche Fragen nötige Sachkenntnis hätte, wäre er nicht Journalist bei der Frankfurter Rundschau sondern leitender Mitarbeiter in der Energieversorgung. Von daher ist es mir unverständlich, dass mein Lieblingssender WDR 5 sich solchen Halbwissenden in Sachen Energie bedient zur Moderationassistenz.

Dem Hörer, der meine Ausführungen mit der Erfindung der Mehrphasentechnik in der elektrischen Energietechnik in Frage stellte, kann ich nur mein Bedauern entgegenbringen, weil die Lehren Tes- las Grundlagenwissen eines jeden Elektrotechnikstudenten ist und zur hier angesprochenen The- matik nun wirklich nichts beitragen kann.

Die Unsachlichkeit und Irreführung gutgläubiger Zuschauer dieser Medien-Diskussionen ist nicht zu fassen! In der AZ wurde berichtet, dass jeder Zweite Deutsche bis zu 40 € mehr für Strom zu bezahlen bereit ist, wenn er aus regenerativen Quellen komme und die "Meiler" rascher abgeschaltet würden.

Ja, wenn dem so wäre, es genügten leider nicht 40 €, sondern mindestens 400 € pro Jahr, das sagt den Leuten leider keiner, ist aber die Wahrheit.

Helmut Alt

siehe auch die pdf Anhänge

Related Files




Riesige Energiequelle Schiefergas: Die Hits reißen nicht ab

Weltweite Schiefergasreserven  

Die schiere Größenordnung dessen, was der jüngste EIA-Bericht (World Shale Gas Resources: An Initial Assessment of 14 Regions Outside the United States) enthält, kann gar nicht überschätzt werden. Hier folgt ein Auszug aus diesem richtungweisenden Bericht der schmackhaften Perspektiven:

Obwohl sich die Schätzungen über die Vorkommen von Schiefergas vermutlich mit der Zeit noch ändern werden, wenn zusätzliche Informationen eingehen, zeigt der Bericht, dass die internationale Basis für Schiefergas als Energiequelle riesig ist. Die erste Schätzung des technisch abbaubaren Schiefergases in den 32 Staaten beläuft sich auf 5760 Billionen (trillions) Kubikfuß (ca. 163 Billionen m³)… Fügt man die in den USA verfügbaren Mengen von 862 Billionen Kubikfuß (ca. 24 Billionen m³), ergibt sich für die USA und die 32 anderen Staaten eine Gesamtsumme von 6622 Billionen Kubikfuß (ca. 188 Billionen m³).

Um diese Menge an Schiefergasreserven anschaulich zu machen: Die bis zum 1. Januar 2010 belegten Reserven von Erdgas betragen etwa 6609 Billionen Kubikfuß (ca. 187 Billionen m³), die weltweiten technisch abbaubaren Reserven grob geschätzt 16000 Billionen Kubikfuß (ca. 453 Billionen m³), also weit mehr als Schiefergas. Addiert man die bekannten Schiefergasvorkommen zu den anderen technisch verfügbaren Gasvorkommen nimmt die weltweit verfügbare Reserve um über 40% zu auf 22600 Billionen Kubikfuß (ca. 640 Billionen m³).

Auf seiner exzellenten Website No Hot Air schreibt Nick Grealy enthusiastisch: „Hier wachsen die weltweiten Vorräte an Gas durch die zusätzliche Quelle Schiefergas um 40%, was im Bericht des Potential Gas Committee der USA schon 2009 anklang. Das scheint heute veraltet, aber wer will sich schon darüber streiten?“

Nun, ich denke, höchstwahrscheinlich die Spitzenalarmisten unter den Angstpropheten – die alle Gefahr laufen, lukrative Buchgeschäfte zu verlieren.

Machen Sie sich keine Illusionen, das Phänomen der Schiefergas- und –ölvorkommen wird die Parameter der Debatte um die globale Energie verändern, wie die unten stehende Karte des EIA klar genug macht. Und man erinnere sich, hierbei handelt es sich um ‚abbauwürdige Ressourcen’.

Karte 1. Quelle: ‘EIA, 2011’

Aber sogar der Bericht des EIA selbst zeigt lediglich eine zurückhaltende Schätzung, denn es fehlen einige grundlegende potentiell maßgebliche Beteiligte. Wenn die Karte 1 oben allein die verfügbaren Energiereserven verändert, dann müsste man diese Angaben erheblich nach oben erweitern, wenn es gelänge, andere große Lieferanten von Schiefer wie z. B. Russland, Indien und besonders China mit zu berücksichtigen. Siehe hier:

Karte 2. Quelle: ‘No Hot Air, 2011’

Sehen Sie, was ich mit realistischeren und potentiell gigantischen neuen Energiereserven meine?

Übergangsbrücke  (Transitional Bridge)

Besonders faszinierend an der ganzen Sache ist, dass – wie sich herausgestellt hat – Europa neben der Kohle über signifikante Energiereserven verfügt, die großzügig verteilt sind. Die Liste reicht von 8 Billionen Kubikfuß (ca. 0,2 Billionen m³) in Deutschland bis 180 Billionen Kubikfuß (ca. 5 Billionen m³) in Frankreich und die enorme Menge von 187 Billionen Kubikfuß (ca. 5,2 Billionen m³) in Polen. Aber selbst bei großen Verbrauchern von Gas wie UK mit projizierten 20 Billionen Kubikfuß (ca. 0,5 Billionen m³) bedeutet es mehr als eine Verdoppelung der Energiereserven aus den Nordseeressourcen.

Die Karte der EIA zeigt abbauwürdige Ressourcen in einer schwindelig machenden Größenordung rund um den Globus. China mit seinen 1275 Billionen Kubikfuß, Argentinien mit 774 Billionen Kubikfuß, Mexiko mit 681, Südafrika mit 485, Kanada 388, Algerien… Nun, Sie haben die Botschaft verstanden. Und wer weiß, wie viel Schiefergas oder –öl unter den bisher nicht untersuchten Ländern des Nahen Ostens liegen?

Eines ist klar. Sehr bald werden wir Schiefergas nicht mehr als unkonventionelle Energiequelle bezeichnen, weil sie bald wirklich sehr konventionell sein wird. Ebenso müssen wir verstehen, dass diese Beurteilung der EIA nur eine erste Übersicht darstellt und eine gänzlich konservative Schätzung darstellt, jedenfalls wenn sich diese Informationen als unsicher herausstellen. Es sollte auch klar sein, dass die Abschätzung der EIA nicht potentielle Lagerstätten von Schieferöl wie die massiven Vorkommen von Ölsand in Athabasca oder die kürzlich von Israel bekannt gegebenen Lagerstätten vor seiner Küste einschließt, ebenso wie Lagerstätten unter dem Meeresboden.

Alles in allem bestätigt der Bericht, dass fossile Treibstoffe noch Hunderte von Jahren zur Verfügung stehen. Genauso signifikant ist der Umstand, dass sich sehr viel davon in den ‚Hinterhöfen’ der jeweiligen Staaten befindet – und außerhalb des Bereiches diktatorischer Regimes liegt, die gegenwärtige Reserven als geopolitische Waffe einsetzen.

Also können wir es jetzt wie Frankreich machen. Das geht so: ignorieren, es im Boden belassen und verzweifelt nach Alternativen zu russischem Gas suchen. Oder wir machen es auf vernünftige Weise – die Prozesse zum Abbau und SAGD (für Ölsand) wurden probiert und man kann ihnen vertrauen, egal was die Öko-Medien da hineininterpretieren wollen – wir beginnen zu bohren und sparen Milliarden Dollar für unnötige Öl- und Gasimporte.

Starke Sache, meinen Sie nicht?

Peter C. Clover den Originalartikel finden Sie in der Energy Tribune hier

Übersetzt von Chris Frey für EIKE

Update:

Offensichtlich um eine billige Energieversorgung zu verhindern wurde wieder postnormale Wissenschaft bemüht. Unter der Überschrift:

Forscher erklären Erdgas zum Klimakiller

berichet Spiegel Online über prompte "Warnungen"  von "Forschern" über diese unkonventionelle Energiequelle hier:

Die Einleitung liest sich so:

Neben Windkraft soll auch Erdgas den raschen Atomausstieg in Deutschland erleichtern – doch eine neue Studie lässt Zweifel aufkommen: US-Wissenschaftler halten den Energieträger für viel klimaschädlicher als bisher angenommen. In bestimmten Fällen soll er sogar gefährlicher sein als Kohle.




Riskoforscher Renn: Eher fällt ein Meteorit auf Deutschland!

Herr Professor Renn, was sind die größten Lebensrisiken hierzulande?

Bei den Todesursachen stehen die Herz-Kreislauf-Erkrankungen an erster Stelle, gefolgt von Krebs. Was ernste, lang anhaltende Krankheiten angeht, kommen nach den Herz-Kreislauf- Erkrankungen psychische Depressionen an zweiter Stelle.

Und die restlichen Todesfälle?

Da steht der Suizid ganz vorne, wenn man die ganz Alten und die ganz Jungen weglässt. Tödliche Unfälle passieren meist im Haushalt oder in der Freizeit, gefolgt vom Straßenverkehr. Ganz zum Schluss kommen die Arbeitsunfälle.

Haben somit jene Recht, die sagen, die Debatte um die Atomkraft sei hierzulande hysterisch, die Ängste stünden in keinem Verhältnis zum tatsächlichen Risiko?

Nicht ganz. Die Angst vor der Atomkraft hat ja durchaus ihre Gründe. Ich sage gern: Die Atomkraft ist zwar ein Sündenbock, auf dem vieles abgeladen wird, aber kein Unschuldslamm.

Aber bislang sind relativ wenige Menschen durch einen Akw-Unfall umgekommen?

Wenn wir nur die Todesfälle betrachten, ist die Bilanz der Atomenergie in der Tat wesentlich besser als die der Alternativen. Denken Sie nur an die Wasserkraft, da gab es schon verheerende Brüche von Staudämmen mit tausenden von Toten. Oder nehmen Sie die Unglücke beim Kohleabbau. Weltweit sterben dabei knapp 8000 Menschen pro Jahr, allein in China sind es rund 5000.

Dennoch scheint Kohle kurzfristig die einzige Alternative zur Kernkraft zu sein. Neue Kohlekraftwerke sind schon in Bau, die Aktien der Kohleunternehmen sind nach dem Reaktorunglück von Japan stark gestiegen.

Wenn ich mich persönlich entscheiden müsste zwischen Kernenergie und Kohle, dann würde ich mich eher für die Kernenergie entscheiden – allein der Risiken wegen. Beim Verbrennen von Kohle werden ja nicht nur Schadstoffe in die Luft geblasen, sondern auch oft radioaktive Stoffe freigesetzt – und zwar in nicht unerheblichen Mengen. Wenn ich die Belastung für das Klima durch den CO-2-Ausstoß hinzunehme, addiert sich das zu einem flächendeckenden, schwer veränderbarem Risiko, das von der Größenordnung her durchaus mit der Kernkraft vergleichbar ist. Und dieser Vergleich geht nach meiner Einschätzung eher zugunsten der Kernkraft aus – auch nach Japan

Lesen Sie hier das ganze Interview hier in den Stuttgarter Nachrichten

Sehen Sie hierzu auch den Essay von Prof. Kepplinger : 

Phantomangst Atomangst

hier

Auszug aus die Welt vom 11.4.11 

Angst vor direkten Gefahren ist überlebenswichtig. Doch wenn die gefühlte Angst vor einer Katastrophe größer ist als die Wahrscheinlichkeit, jemals Opfer zu werden, wird es irrational

Seit der Inbetriebnahme des ersten deutschen Kernkraftwerks 1961 sind hierzulande über 600 000 Menschen den Unfalltod gestorben – allerdings nicht durch Reaktor-, sondern durch Verkehrsunfälle. Tote durch Unfälle in deutschen Kernkraftwerken hat es nicht gegeben. Bis zur Stilllegung des letzten deutschen Kernkraftwerks in vermutlich 15 Jahren kann man auch hierzulande kernkraftbedingte Todesfälle nicht völlig ausschließen. Allerdings ist ihre Wahrscheinlichkeit sehr gering. Im gleichen Zeitraum werden bei Verkehrsunfällen circa 60 000 Menschen sterben. Trotzdem hat keine Partei die Forderung nach der sofortigen Stilllegung des Auto- und Motorradverkehrs im Programm. Den üblichen Vorstellungen von Rationalität entspricht das nicht. Aber man kann es mit einer Reihe von Ursachen rational erklären….



Wissenschaftler: Erwärmung durch CO2 ist viel zu gering, um sich darüber Sorgen machen zu müssen!

Ich möchte ein paar Dinge klarstellen.

Die gesamte Idee, dass Kohlendioxid die Hauptursache der kürzlich erfolgten globalen Erwärmung gewesen ist, wurde durch empirische Beweise seit den neunziger Jahren eindeutig widerlegt. Aber der Erwärmungszug fuhr bereits zu schnell und enthielt zu viele Jobs, Industrien, Profite, politische Karrieren sowie die Möglichkeit einer Weltregierung und im Endergebnis totale Kontrolle. Anstatt zuzugeben, dass sie falsch lagen, halten die Politiker und ihre handzahmen Wissenschaftler jetzt die Fiktion, dass Kohlendioxid ein gefährlicher Giftstoff ist, auf empörende Weise am Leben.

Um es ganz klar zu sagen: Kohlendioxid ist ein Treibhausgas, und je mehr davon in der Luft enthalten ist, umso wärmer ist der Planet. Jedes Bisschen Kohlendioxid, das wir ausatmen, erwärmt den Planeten. Aber die Frage ist nicht, ob, sondern wie stark das Kohlendioxid zur Erwärmung beiträgt.

Die meisten Wissenschaftler auf beiden Seiten stimmen auch darin überein, wie stark ein bestimmter Anstieg des CO2-Anteils in der Atmosphäre die Temperatur des Planeten steigen lässt, wenn man zusätzliches Kohlendioxid berücksichtigt. Diese Berechnungen stammen aus Laborexperimenten; die grundlegende Physik dahinter ist seit einem Jahrhundert verstanden.

Der Streit beginnt damit, was danach kam.

Der Planet reagiert auf dieses zusätzliche Kohlendioxid, was alles ändert. Am meisten umstritten ist der Umstand, dass die zusätzliche Wärme zu größerer Verdunstung aus den Ozeanen führt. Aber bleibt diese zusätzliche Feuchtigkeit einfach in der Luft hängen und lässt den Anteil an Feuchtigkeit zunehmen, oder sorgt dies einfach nur für mehr Wolken und Regen? 1980, als die Theorie vom Kohlendioxid anfing, wusste das niemand. Die Alarmisten schätzten, dass die Menge an feuchter Luft rund um die Erde zunimmt, was zu weiterer Erwärmung führt, weil Feuchtigkeit auch ein Treibhausgas ist.

Dies ist die Kernidee jedes offiziellen Klimamodells. Für jedes einzelne Quäntchen Erwärmung durch Kohlendioxid wird einfach behauptet, dass der zusätzliche Eintrag feuchter Luft zu drei Quäntchen Erwärmung führt. Die Klimamodelle vergrößern den Erwärmungseffekt um den Faktor drei – so dass zwei Drittel ihrer simulierten Erwärmung auf zusätzlichen Feuchteeintrag (und andere Faktoren) zurückgeht; nur ein Drittel wird durch das zusätzliche Kohlendioxid verursacht.

Das ist der Kern dieser Angelegenheit. Alle Streitigkeiten und Missverständnisse haben hier ihren Ursprung. Die Alarmisten gründen ihre Behauptungen auf die Feuchtigkeit in der Atmosphäre, doch gibt es einfach keinen Beweis für diese Verstärkung im Kern ihres Alarmismus.

Seit den sechziger Jahren wurde die Atmosphäre mit Wetterballonen messtechnisch erfasst, viele Tausend pro Jahr. Die Klimamodelle sagen alle übereinstimmend vorher, dass der Planet sich erwärmt, und dass sich ein „Hot Spot“ feuchter Luft in 10 Kilometern Höhe über den Tropen bilden soll, wenn sich die feuchte Luftschicht ausdehnt. Während der Erwärmung in den späten siebziger sowie den achtziger und neunziger Jahren fanden die Ballone keinen „Hot Spot“. Überhaupt keinen. Nicht einmal einen kleinen. Dieser Umstand ist ein klarer Beweis dafür, dass die Klimamodellrechnungen fundamental versagt haben und dass sie den Temperaturanstieg durch Kohlendioxid weit überschätzen.

Dieser Beweis trat Mitte der neunziger Jahre erstmals klar zutage.

An diesem Punkt hörte die „Klimawissenschaft” auf, Wissenschaft zu sein. In der echten Wissenschaft sticht der empirische Beweis immer die Theorie aus, egal wie verliebt man in diese Theorie ist. Aber die offizielle Klimawissenschaft ignorierte den durch die Wetterballone erbrachten Beweis, ebenso wie andere Folgebeweise, die die Wetterballone bestätigten, sondern klebte stattdessen an ihrer Theorie zum Kohlendioxid – hielt sie dies doch in gut bezahlten Jobs mit großzügigen Forschungszuwendungen. Außerdem erhielten sie so politische Macht über ihre Regierungsbeamten.

Mittlerweise gibt es unabhängig voneinander viele verschiedene Beweisstücke, die belegen, dass durch den zusätzlichen CO2-Eintrag die Erwärmung der Erde gedämpft wird. Jedes langzeitliche System verhält sich so und reagiert so auf jede Störung. Anderenfalls würde das System instabil werden. Das Klimasystem bildet da keine Ausnahme, und jetzt können wir das beweisen.

Aber die Alarmisten sagen genau das Gegenteil, nämlich dass das Klimasystem jede Erwärmung durch zusätzliches CO2 beschleunigt und potentiell instabil ist. Es ist keine Überraschung, dass ihre Prognosen der planetaren Temperatur, die sie 1988 sowie 1990, 1995 und 2001 vor dem US-Kongress abgaben, sich allesamt als viel höher herausgestellt haben, als es dann in Wirklichkeit der Fall war.

Sie fahren fort, den erwarteten Temperaturanstieg zu reduzieren, von 0,3°C pro Dekade 1990 auf 0,2°C pro Dekade in 2001 und aktuell 0,15°C pro Dekade – und haben noch die Frechheit, uns zu sagen, es sei „schlimmer als erwartet“. Diese Leute sind keine Wissenschaftler. Sie überschätzen die Temperaturzunahme durch das Kohlendioxid, lehnen selektiv Beweise ab und verbergen inzwischen die Wahrheit.

Eine Art des Verbergens liegt in der Art, wie sie die Temperatur messen.

Die offiziellen Thermometer befinden sich oft im warmen Abwind von Klimaanlagen, über heißen Asphaltflächen an Flughäfen, meist auch noch im Abstrahl von Düsenjets, bei Kläranlagen, wo sich durch das Kompostieren von Faulschlamm Wärme entwickelt oder in aufgeheizten Städten mit vielen Autos und Gebäuden. Die Globale Erwärmung wird in Zehntelgrad gemessen, so dass jede äußere Wärmeeinwirkung von Bedeutung ist. In den USA verletzen fast 90% aller von Freiwilligen bedienten Stationen die Richtlinien bzgl. der Lage, die einen Mindestabstand von künstlichen Heizquellen vorschreiben.

Die globale Temperatur wird auch durch Satelliten gemessen, die nahezu den gesamten Planeten 7 Tage pro Woche 24 Stunden lang ohne Verzerrungen beobachten. Diese Satellitendaten weisen das Jahr 1998 als das wärmste Jahr aus, und dass die Temperatur seit dem Jahr 2001 nicht mehr gestiegen ist (levelled off). Warum folgt die offizielle Wissenschaft nur den Thermometern an der Erdoberfläche und erwähnt die Satellitendaten nicht einmal?

Die Erde befand sich seit den Tiefen der Kleinen Eiszeit um 1680 in einem Erwärmungstrend. Menschliche Emissionen von Kohlendioxid waren vor 1850 vernachlässigbar und kamen erst nach dem Zweiten Weltkrieg richtig in Gang. Daher kann anthropogenes CO2 unmöglich den Trend ausgelöst haben. Innerhalb dieses Trends sorgte die Pazifische Dekadische Oszillation PDO für einen Wechsel zwischen globaler Erwärmung und Abkühlung für jeweils 25 bis 30 Jahre in beide Richtungen. Wir befinden uns gerade am Ende einer Warmphase, so dass man während der nächsten zwei Jahrzehnte eine leichte globale Abkühlung erwarten kann.

Wir befinden uns derzeit aber auch an einem außerordentlichen Zusammentreffen. Die offizielle Klimawissenschaft, vollständig von der Regierung dirigiert und gefördert, treibt eine auf Mutmaßungen über feuchte Luft basierende Theorie voran, doch haben diese Mutmaßungen sich längst als falsch herausgestellt. Die Regierungen nehmen diesen Rat voller Schadenfreude an, weil der einzige Weg, die Emissionen zu drosseln, darin besteht, Steuern zu erheben und die Kontrolle der Regierung über den gesamten Energieverbrauch zu erweitern. Und die Drosselung der Emissionen im weltweiten Maßstab könnte sogar zu einer Weltregierung führen – wie aufregend für die politische Klasse!

Selbst wenn alle CO2-Emissionen ab morgen beendet sind, alle Geschäfte geschlossen sind und wir zurück in die Steinzeit katapultiert werden, würde die Temperatur bis 2050 um 0,015°C zurückgehen. Aber ihre Modelle übertreiben um das zehnfache – tatsächlich würden unsere Opfer den Planet bis 2050 um bloße 0,0015°C abkühlen!

Schließlich, das gilt für alle diejenigen, die immer noch glauben, dass unser Planet durch Emissionen von Kohlendioxid in Gefahr ist: Es tut mir leid, aber man hat Sie hereingelegt! Ja, Kohlendioxid ist ein Grund für globale Erwärmung, aber der Effekt ist so minimal, dass es nicht wert ist, viel für eine Drosselung von Emissionen zu tun.

David Evans

Artikel in der Financial Post  7. April 2011

Financial Post
Der Autor David Evans beriet das Australian Greenhouse Office (jetzt das Department of Climate Change) von 1999 bis 2005 voll und von 2008 bis 2010 in Teilzeit. Er modellierte dabei den Kohlenstoff in Pflanzen, Trümmern, Mulch, Erden sowie von Wald- und Felderträgen in Australien. Er ist Mathematiker und Ingenieur mit sechs Universitätsgraden, einschließlich eines PhD der Stanford-Universität als Elektroingenieur. Die obigen Bemerkungen wurden für die Anti-Carbon-Tax [Protestbewegung gegen die Kohlenstoffsteuer] in Perth am 23. März geschrieben.

Link: http://opinion.financialpost.com/2011/04/07/climate-models-go-cold/

Übersetzt von Chris Frey für EIKE




Die schlecht schmeckende Wahrheit: Die Kernkraft-Nein-Danke-Lobby hat uns alle hinters Licht geführt

In den vergangenen vierzehn Tagen habe ich etwas Schlimmes entdeckt. Die Atomkraft-Nein-Danke-Bewegung, zu der auch ich einmal gehörte, hat die Welt über die Auswirkungen der Strahlung auf die Gesundheit belogen. Unsere Behauptungen waren wissenschaftlich unbegründet, völlig falsch und einer Prüfung nicht standhaltend. Wir haben uns und den anderen Menschen einen Bärendienst erwiesen.

Das Ausmaß des Problems wurde mir nach einer Debatte  mit Helen Caldicott klar. Dr. Caldicott steht in vorderster Linie der Anti-Atomkraft-Aktivisten. Sie besitzt 21 Ehrendiplome und zahllose Preise, war sogar für einen Friedens-Nobel-Preis nominiert. Wie andere Grüne habe ich sie sehr bewundert. In der Debatte stellte sie einige schreckliche Behauptungen über die Gefahren der Strahlung auf. Also habe ich getan, was jeder tun würde, wenn er mit hinterfragbaren wissenschaftlichen Behauptungen konfrontiert wird: Ich habe die Quellen befragt. Frau Caldicotts Antwort hat mich sehr erschüttert. 

Zuerst hat sie mir neun Dokumente geschickt: Zeitungsartikel, Presse-Verlautbarungen und eine Anzeige. Nichts davon waren wissenschaftliche Publikationen; nirgendwo darin befanden sich Quellen für ihre Behauptungen. Nur eine der Presse-Verlautbarungen bezog sich auf einen Bericht der US National Academy of Sciences, den sollte ich lesen. Das habe ich getan – alle 423 Seiten. Keine ihrer Behauptungen wird darin unterstützt; der Bericht widerspricht sogar stark ihren Behauptungen über die gesundheitlichen Auswirkungen von Strahlung.

Da habe ich bei ihr nachgefragt und sie hat mir eine Reihe von Antworten gegeben, die mich erschrecken ließen – in fast allen Fällen bezogen sich die Antworten auf Publikationen ohne oder mit nur geringer wissenschaftlicher Bedeutung, ihre Behauptungen werden darin nicht gestützt oder ihnen wird sogar widersprochen. (Ich habe unsere Korrespondenz und meine Quellen auf meine Webseite gestellt.) Gerade habe ich ihr Buch "Nuclear Power Is Not the Answer" gelesen. Der Mangel an Referenzen auf wissenschaftliche Papiere und die überreichlich vorhandenen unbelegten Behauptungen erstaunen mich sehr.

Während der vergangenen 25 Jahre haben die Atomkraft-Nein-Danke-Aktivisten die Zahlen der Toten und der Krankheiten nach dem Tschernobyl-Unglück immer wieder angeführt, und sie haben missgestaltete Babys wie in einem mittelalterlichen Zirkus vorgeführt. Heute behaupten sie, dass 985.000 Menschen Tschernobyl zum Opfer gefallen wären, und dass die Menschen nachfolgender Generationen noch davon hinweggerafft würden. Diese Behauptungen sind falsch.

Das UN Scientific Committee on the Effects of Atomic Radiation (UNSCEAR) ist eine Parallelorganisation zum Intergovernmental Panel on Climate Change. Wie das IPCC verlässt es sich auf die führenden Wissenschaftler in der Welt, wertet Tausende von Papieren aus und erstellt eine Übersicht. Hier ist das Ergebnis zu den Auswirkungen von Tschernobyl: 

Von den Arbeitern, die bei der Eindämmung der Notlage in Tschernobyl eingesetzt worden waren, haben 134 ein akutes Strahlungssyndrom entwickelt, 28 verstarben bald danach. Neunzehn weitere sind später gestorben, aber nicht an Folgen der Verstrahlung. Die übrigen 87 haben andere Komplikationen erlitten, darin vier Fälle von soliden Tumoren und zwei Fälle von Leukämie.

In der übrigen Bevölkerung gab es 6.848 Fälle von Schilddrüsenkrebs bei Kindern – nahezu vollständig auf das Versagen der Sowjetunion zurückzuführen, die Menschen vom Trinken von Jod 131-verstrahlter Milch zurückzuhalten. Darüber hinaus „hat es keine schlüssigen Beweise anderer gesundheitlicher Beeinträchtigungen der Bevölkerung gegeben, die auf Verstrahlung zurückgeführt werden könnten.“ Menschen, die in den heute noch betroffenen Ländern leben, „brauchen keine Angst vor ernsthaften Folgen des Tschernobyl-Unfalls zu haben“.

Frau Caldicott hat mir erzählt, die UNSCEAR-Arbeit zu Tschernobyl wäre eine "totale Vertuschung". Obwohl ich auf Klärung gedrängt habe, hat sie immer noch nicht den geringsten Beweis für diese Unterstellung geliefert.

In einem Kommentar hat der Umweltredakteur des Guardian, John Vidal, meine Position zur Kernkraft böse gebrandmarkt. Anlässlich eines Besuchs in der Ukraine im Jahre 2006 sah er „missgestaltete und genetisch mutierte Babys in den Anstalten … Heranwachsende mit Wachstumshemmung und Zwergwüchsigkeit, Fötusse ohne Hüften und Finger“. Er hat aber keine Beweise dafür gesehen, dass das mit dem Tschernobyl-Unfall zu tun hätte.

Professor Gerry Thomas, der über die gesundheitlichen Folgen von Tschernobyl für UNSCEAR gearbeitet hat, sagte mir, es gibt "absolut keinen Beweis" für eine Zunahme von geburtlichen Missbildungen. Das Papier der National Academy, das ich auf Drängen von Dr. Caldicott gelesen habe, kam zu gleichen Schlussfolgerungen. Man fand heraus, dass strahlungsverursachte Mutationen in Spermien und Eiern ein derart geringes Risiko sind, "dass nichts davon bei Menschen entdeckt worden ist, noch nicht einmal bei der gründlich untersuchten verstrahlten Bevölkerung von Hiroshima and Nagasaki".

Wie Vidal und viele andere hat mich Frau Caldicott auf ein Buch verwiesen, das behauptet, dass 985.000 Menschen in der Folge des Unglücks verstorben wären. Es ist aus dem Russischen übersetzt und von Annals of the New York Academy of Sciences herausgegeben worden. Es ist das einzige Werk, das wissenschaftlichen Anschein hat und es scheint die wilden Behauptungen der Grünen über Tschernobyl zu unterstützen.

Eine vernichtende Kritik im Journal Radiation Protection Dosimetry zeigt auf, dass das Buch diese Zahl erzeugt durch die erstaunliche Annahme, dass alle Zunahmen von Sterbefällen durch ein weites Spektrum von Krankheiten durch den Tschernobyl-Unfall verursacht wären, sogar solche, die in keinerlei Verbindung mit Verstrahlung gebracht werden können. Es gibt keinen Grund für diese Annahme. Schon deswegen nicht, weil die Vorsorgeuntersuchungen in vielen Ländern nach dem Unfall dramatisch verbessert worden sind, seit 1986 hat es massive Veränderungen im ehemaligen Ostblock gegeben. In der Studie wird kein Versuch unternommen, Strahlungsexposition mit dem Entstehen von Erkrankungen zu korrelieren.

Die Publikation scheint aus einer Verwechslung hervorzugehen, ob Annals ein Buchverlagshaus oder eine wissenschaftliche Zeitschrift wäre. Die Akademie sandte mir folgende Aussage: "Auf gar keine Weise hat Annals der New York Academy of Sciences oder die New York Academy of Sciences diese Arbeit beauftragt; wir beabsichtigen auch nicht, die Behauptungen in der Übersetzung oder in den Original-Veröffentlichungen oder Zitierungen darin unabhängig zu prüfen. Das übersetzte Werk ist nicht von der New York Academy of Sciences fachbegutachtet worden, auch nicht von sonst jemanden."

Keine Quellenangaben, Widerlegung von Daten durch Anekdoten, willkürlich ausgewählte Studien, Missachtung der wissenschaftlichen Mehrheitsmeinung, Verweis auf Täuschungsmanöver zur Erklärung: all das ist schrecklich bekannt. So machen es die Klimawandelleugner, gegen die grüne Bewegung tapfer gekämpft und die Wissenschaft zu Hilfe gerufen hat. Es ist eine Enttäuschung, zu sehen, dass die Anhänger dieser Bewegung zu den Narrheiten greifen, die sie anprangerten.

Wir haben die Pflicht, unsere Urteile mit der besten verfügbaren Information zu begründen. Nicht nur müssen wir anderen Menschen die Sachverhalte fair darlegen, wir schulden auch uns selbst, keinen Lebenslügen anzuhängen. Großes Unrecht hat diese Bewegung angerichtet. Das müssen wir richtig stellen.

George Monbiot  The Guardian, 5. April 2011 

Anmerkung der Redaktion:

Monbiot vergaß zu erwähnen, dass zum "Hinters-Licht-führen" immer zwei gehören. Die einen die einen "hinters-Licht" führen wollen und die anderen, die sich (gern?) hinters Licht führen lassen.  Man darf außerdem gespannt sein, wann er entdeckt, dass die Klimabehauptungen des Öko-wissenschaftlichen Komplexes auf ebenso tönernen Füssen stehen.

Die Übersetzung besorgte Helmut Jäger EIKE




Aha! Windfarmen in UK operieren weit unter der angekündigten Effizienz

Effizienz von Windparks durch eine Studie der John Muir Stiftung in Frage gestellt

Einer neuen Stude zufolge sind Windparks viel weniger effizient als behauptet und erzeugen weniger als 10% der Kapazität über ein Drittel des Beobachtungszeitraumes.

Die Analyse ergab auch, dass der Output während der Zeiten höchsten Verbrauchs niedrig war. (Anm. der Redaktion: Jede Menge "Gigabyte" würde unser Cem Özedemir vermutlich sagen)

Der Bericht, unterstützt von der John Muir Stiftung, besagt, dass die Beteuerungen über die Möglichkeiten von Windparks in Frage gestellt werden müssen.

Die Studie kommt zu dem Ergebnis, dass man sich auf Turbinen „nicht verlassen kann, um ein nennenswertes Niveau der Stromerzeugung zu erreichen.

Die Forschungen, durchgeführt durch die Stuart Young Consulting, analysierte die von Windparks in UK erzeugte Elektrizität zwischen November 2008 und Dezember 2010.

Verlautbarungen der Windindustrie und von Agenturen der Regierung behaupten allgemein dass Windturbinen im Mittel etwa 30% ihrer Kapazität über ein Jahr erzeugen.

Aber die Studie ergab, dass die Stromerzeugung durch Wind während der Hälfte der Zeit unter 20% der Kapazität und während eines Drittels der Zeit sogar unter 10% lag. 

Reportage der BBC hier

James Delingpole witzelt, dass jetzt „offiziell gesagt wird, dass Windparks total unbrauchbar sind“ (Official: wind farms are totally useless). Nun, vielleicht nicht total unbrauchbar (solange er nicht über die Windturbinen in Hawaii aus meinem letzten Beitrag berichtet: The reality of wind turbines in California (auf Deutsch bei EIKE hier)). Aber diese Effizienzen beweisen, dass die derzeitige Technologie der Stromerzeugung durch Windkraft niemals mehr sein wird als eine sporadische zusätzliche Energiequelle.

Grundlegende Ergebnisse…

…der Analyse der Stromerzeugung in allen UK-Windparks, die von National Grid ermittelt werden, von November 2008 bis Dezember 2010. Die folgenden fünf Behauptungen werden allgemein sowohl von der Windindustrie als auch von Repräsentanten und Agenturen der Regierung verbreitet. Diese Studie untersucht diese Behauptungen.

1. „Windturbinen werden im Mittel 30% ihrer Kapazität über ein Jahr erzeugen”

2. „Irgendwo weht immer Wind”.

3. „Perioden mit verbreitet geringem Wind sind selten.”

4. „Die Wahrscheinlichkeit, dass sehr geringe Windgeschwindigkeiten mit Zeiten maximalen Stromverbrauchs zusammenfallen, ist gering.”

5. „Pumpspeicherkraftwerke können die Erzeugungslücke während längerer Perioden mit geringer Windgeschwindigkeit füllen.“

Diese Analyse verwendet öffentlich zugängliche Daten für den Zeitraum von 26 Monaten zwischen November 2008 und Dezember 2010, und die Fakten im Vergleich zu den obigen Behauptungen sehen so aus:

1. Der mittlere Output durch Wind betrug 2009 27,18% gemessener Kapazität , 21,14% 2010 und 24,08% während des gesamten Zeitraumes bis einschließlich Dezember 2010.

2. Es gab 124 verschiedene Zeiträume von November 2008 bis Dezember 2010, in denen die Gesamterzeugung der Windparks, wie sie von National Grid gemessen worden ist, unter 20 MW lag. (Die mittlere Kapazität des gesamten Zeitraumes lag über 1600 MW).

3. Die mittlere Häufigkeit und Dauer von Schwachwindperioden mit einer Erzeugung von 20 MW oder weniger zwischen November 2008 und Dezember 2010 ereignete sich einmal alle 6,38 Tage mit einer Dauer von 4,93 Stunden.

4. An jedem der vier Höchstforderungen im Jahre 2010 war der Beitrag durch Windenergie gering, betrug er doch 4,72%, 5,51%, 2,59% und 2,51% der Kapazität des Stromverbrauchs.

5. Die gesamte Kapazität von Pumpspeicherwerken in UK kann 2788 MW für nur 5 Stunden zur Verfügung stellen, danach fällt sie auf 1060 MW zurück, und schließlich ist  nach 22 Stunden der gesamte Wasservorrat verbraucht.

Die Studie hat noch ANDERE ERGEBNISSE zusätzlich zu den grundlegenden Resultaten erbracht, die in Beziehung zu den fünf allgemeinen Behauptungen stehen. Diese Ergebnisse sehen so aus:

1. 1.Während des Untersuchungszeitraumes lag die Stromerzeugung durch Wind:

·        unter 20% der Kapazität in mehr als der Hälfte der Zeit

·        Unter 10% der Kapazität in einem Drittel des Zeitraumes

·        Unter 2,5% der Kapazität an einem von zwölf Tagen

·        Unter 1,25% unter dem Äquivalent von nur einem Tag pro Monat.

Die Entdeckung, dass der Output durch Wind während eines Drittels des Zeitraumes unter 10% der Kapazität lag, war ein unerwartetes Ergebnis der Analyse.

2. Unter den 124 Tagen, an denen die Erzeugung unter 20 MW zurückgegangen war, gab es 51 Tage, in denen nur 10 MW oder weniger erzeugt wurden. In mancher Hinsicht ist dies eine unwichtige Statistik, ist doch der Beitrag durch Windenergie mit 20 MW oder weniger effektiv null, und ein paar MW weniger sind weder Fisch noch Fleisch (neither here nor there). Aber die bloße Existenz dieser Ereignisse und deren Häufigkeit – im Mittel fast an einem von 15 Tagen für einen Zeitraum von 4,35 Stunden – deutet darauf hin, dass eine grundlegende Neubewertung der Kapazität von Windenergie erforderlich ist.

3. Ereignisse mit schwachem Wind sind nicht verbunden mit hohem Luftdruck im Winter. Sie können zu jeder Jahreszeit auftreten.

4. Das Zusammentreffen von starkem Wind und geringem Verbrauch kann zu jeder Zeit des Jahres vorkommen. Da die damit verbundene Windkapazität dann zunimmt, wird irgendwann ein Punkt erreicht werden, an dem kein thermisches Kraftwerk mehr sich nur darauf beschränken kann, sich an die Windkraft anzupassen. Nach dem Windkapazitätsmodell ergeben sich so 30 GW, während die geforderte Mindesterzeugung bei 10 GW angenommen wird. Dies bedeutet, dass eine grundlegende Neuberwertung durchgeführt werden muss, welche Windkapazität das Netz noch aushalten kann.

5. Die Häufigkeit eines Outputs von 100 MW oder mehr während einer Zeitspanne von fünf Minuten war überraschend. Es muss noch viel mehr getan werden, um eine Verteilung abzuschätzen, aber während des Monats März 2011, unmittelbar vor der Veröffentlichung dieses Berichtes, gab es sechs mal einen fünfminütigen Anstieg über 100 MW mit dem höchsten bei 166 MW, und fünf mal einen fünfminütigen Abfall über 100 MW mit dem höchsten Werte 148 MW. Dies deutet darauf hin, dass das Potential für hohe Windkapazitäten noch einmal berechnet werden muss, um einen sofortigen Verlust (oder Gewinn) eines großen Thermalkraftwerkes zu simulieren.

6. Wie unbeständig der Wind weht, wurde Ende März 2011 noch einmal unterstrichen, als dieser Bericht abgeschlossen worden ist.

  • Um 3 Uhr früh am Montag, dem 28. März, betrug der gesamte Output von einer Kapazität von 3226 MW nur ganze 9 MW.

  • Am Dienstag, dem 31. März um 11.40 Uhr lag der Output bei 2618 MW, dem höchsten bis heute registrierten Wert.

  • Der mittlere Output durch Wind betrug im März 2011 22,04%.Der Output lag im März 2011 während 30,78% der Zeit bei 10% der Kapazität oder weniger.

Die Eigenschaften des Outputs durch Wind waren verschleiert worden, indem man sich auf Tabellen des „mittleren Outputs“ verlassen hatte. Die Analyse der echten Daten von National Grid zeigt aber, dass sich der Wind ganz anders verhält als es die Tabellen des mittleren Outputs zeigen, die aus den Aufzeichnungen der Renewable Obligation Certificates (ROCs) oder aus Aufzeichnungen der Windgeschwindigkeit hervorgehen, die selbst wieder gemittelt worden waren. Aus dieser Analyse ergibt sich ganz klar, dass man sich nicht auf den Wind verlassen darf, wenn man irgendein signifikantes Niveau der Stromerzeugung zu irgendeinem definierten Zeitpunkt in der Zukunft erreichen will. Es besteht ein dringender Bedarf, die Implikationen für signifikante Verhältnisse unseres Energiebedarfs hinsichtlich der Zuverlässigkeit der Windkraft neu zu bewerten.

Autot Antony Watts Link: http://wattsupwiththat.com/2011/04/06/whoa-windfarms-in-uk-operate-well-below-advertised-efficiency/

Übersetzt von Chris Frey für EIKE




„CO2-Feuerlöscher oder Klimakiller“ Ein kritischer Kommentar zur Broschüre der Deutschen Bunsengesellschaft

Als ambitionierter Naturwissenschaftler mit Diplom und Promotion am Institut für Physikalische Chemie in Münster schäme ich mich daher, über längere Zeit einmal Mitglied der Deutschen Bunsengesellschaft gewesen zu sein. Damals habe auch ich mit mehreren Veröffentlichungen und Vorträgen bei Jahrestagungen zum bisher tadellosen Ruf dieser weltweit anerkannten Gesellschaft einen bescheidenen Beitrag leisten dürfen. Robert Bunsen dürfte sich jetzt aber wohl mehrfach im Grabe umdrehen, wenn er sehen könnte, zu welchen Handlangern opportunistischer Politiker und Klimaforscher seine heutigen Epigonen inzwischen geworden sind. Die kritiklose Herausgabe der o.g. Klimabroschüre zur Unterstützung der stark umstrittenen IPCC-hörigen Lehrmeinung (alle darauf bezogenen  Literaturzitate sind deshalb als wertlos anzusehen) und damit auch der von den Politikern eingeleiteten Zwangsmaßnahmen zur Bekämpfung eines erfundenen Klimagespenstes kann man nicht anders als in höchstem Maße unverzeihbar nennen.

 Alle Kapitel bauen im Grunde genommen immer auf demselben Axiom auf, nämlich daß es schon jetzt einen bedrohlich wachsenden Klimawandel gibt, daß der Mensch ihn weitgehend selbst hervorgerufen hat und das von ihm produzierte CO2 dafür die Hauptverantwortung trägt. Dieser rote Faden zieht sich durch die ganze Broschüre. Alle aufgezeichneten Konsequenzen müssen aber falsch sein, wenn die für wahr angenommenen Voraussetzungen nicht stimmen. Darüber helfen auch die vielen wirklich ausgezeichneten und durchaus richtigen Detailinformationen nicht hinweg. Alle Autoren haben es schlicht und einfach unterlassen, die entscheidende Gretchenfrage zu stellen, wie sie es denn mit der Wahrheit der IPCC-Prognosen halten, die sie völlig unkritisch zur eigenen Maxime erhoben haben. Als Antwort auf diese unwissenschaftliche Vorgehensweise reicht es schon aus, das erste Kapitel 1.1 von Dr. Ausfelder („Wie beeinflußt Kohlendioxid das Klima?“) einer kritischen Betrachtung zu unterziehen, was nun im nachfolgenden  geschieht.

Der IPCC hat zunächst einmal in seinem mehr als 1000 seitigen Report eine Menge sehr vernünftiger Ergebnisse präsentiert, und Herrn Dr. Ausfelder muß bescheinigt werden, daß er dies alles sehr genau studiert hat. Aber das allein reicht eben nicht aus, wenn er dabei übersieht, wo eklatante Fehlberechnungen oder vielleicht sogar bewußte Täuschungen vorgenommen wurden. Immerhin hatte sich der IPCC  schon zur Zeit seiner Gründung ein klares Ziel vorgegeben, nämlich die anthropogene Klimabedrohung mit welchen Mitteln auch immer nachzuweisen und glaubwürdig darzustellen. Manche Inhaltsteile mag Herr Dr. Ausfelder vielleicht übersehen oder falsch verstanden haben. Auf Seite 8 (neben den Abbildungen 2 und 3) schreibt er, daß die Erdabstrahlung zum Großteil wieder durch die Treibhausgase zurückgestrahlt wird und nur ein kleiner Teil in das Weltall entkommt. Tatsache ist aber, daß von 390 Watt/m2 nur 150 Watt/m2 wieder am Boden ankommen, was doch beileibe kein Großteil ist. Die gleiche Menge wird von den Treibhausgasen in umgekehrter Richtung gegen das Weltall abgestrahlt. Daher sind auch die Strahlungsflüsse in Abb.6 auf Seite 10 falsch dargestellt.  Der Verfasser dieses Bildes hat offenbar nicht verstanden, daß die Summe der Zu- und Abstrahlung an  den gedachten Luftschichten am Ende gleich Null sein muß. Es ist nicht zulässig, zwischen diesen gedachten Schichten jeweils eine Schwarzkörperebene anzunehmen, was vom Autor nach den gezogenen Schlußfolgerungen wohl so gemeint sein dürfte.

Von  der o.g. Rückstrahlung (150 Watt/m2) geht das meiste auf das Konto von Wasserdampf einschließlich Wolken zurück und nur 37 Watt/m2 auf das z.Z. in der Luft befindliche CO2. Dies dazu noch zu unserem Glück, denn es trägt nach dem Stefan-Boltzmann Gesetz zu einer Erderwärmung von ca. 7 °C bei, ohne die wir uns permanent in einer Eiszeit befinden würden. Das alles erwähnt Herr Dr. Ausfelder leider nicht. Dafür zeigt er auf Seite 9 in Tabelle 1 wieder völlig richtig auf, daß das seit Beginn der Industrialisierung vom Menschen weltweit erzeugte CO2 einen Strahlungsantrieb von 1,66 Watt/m2 bewirkt hat (bei Verwendung seiner Parameter 280 ppm CO2 vor der Industrialisierung und 379 ppm im Jahr 2005 sind es richtig gerechnet sogar nur 1,62 Watt/m2). Auf Seite 12 rundet er den Wert wieder korrekterweise auf 1,6 Watt/m2 herunter. Dieses Ergebnis bezieht sich auf die von den meisten Wissenschaftlern (auch des IPCC) anerkannte Strahlungszunahme von 3,7 Watt/m2 bei Verdoppelung des heutigen und auch jedes sonst beliebigen CO2-Gehalts (außer im extrem niedrigen ppm-Bereich).

 Wenn nun 37 Watt/m2 anerkanntermaßen zu einer Erwärmung von 7 °C führen, ergibt sich für 1,6 Watt/m2 nach einer simplen Dreisatzrechnung ein industriell bedingter Temperaturanstieg von nicht mehr als 0,3 °C. Wo sieht man denn bei dieser Sachlage einen bedrohlichen Klimawandel, wenn trotz nahezu  50 % iger CO2-Zunahme nicht mehr dabei  herausgekommen ist, aber bei 100 % ( d.h. bei Verdoppelung ) schon fast die Welt untergehen soll? Herr Dr.  Ausfelder macht für diesen Fall  auf Seite 12 einen Sprung von 0,3 °C auf max. 4,5 °C, ohne daß er dazu eine nähere Erklärung abgibt.  Dies läßt sich durch eine ähnliche Dreisatzrechnung doch leicht falsifizieren, denn in Wirklichkeit ergibt sich  dabei nur ein Wert von 0,7°C (7x 3,7/37= 0,7). Der IPCC erklärt diese Diskrepanz durch erfundene und kaum begründbare Rückkopplungsprozesse, die in der behaupteten Höhe nach dem bereits stattgefundenen CO2-Anstieg gar nicht zu erkennen sind.

Es kommt aber noch schlimmer. Die durchschnittliche Himmelsbewölkung führt dazu,  daß  etwa 30 % der o.g. Strahlungszunahme von 1,6 Watt/m2  und natürlich auch von 3,7 Watt/m2, da sie global für klaren Himmel gilt, gar nicht dem Konto des CO2 zugeschrieben werden dürfen, weil sie ohnehin schon komplett von den Wolken übernommen wird. Das gleiche gilt für den Anteil, den der Wasserdampf im spektralen Überlappungsbereich seinerseits übernimmt. Hiernach bleibt für die bis mehr als ein Jahrhundert zurückliegende CO2-bedingte Erderwärmung nicht einmal ein Betrag von 0,2 °C übrig. Was soll da die ganze Aufregung bedeuten? Dieser Wert paßt sogar sehr gut zu der vom IPCC genannten globalen Gesamterwärmung von 0,74 °C (auch erwähnt im Kapitel 1.4 auf Seite 22 von Meinolf Koßmann, Deutscher Wetterdienst). Schließlich steckt darin ja  noch der von Dr. Ausfelder auf  Seite 9 in Tabelle 1 aufgeführte zusätzliche anthropogene Treibhauseffekt, bedingt durch Methan, Lachgas u.a. Gase, die einen fast gleich großen Beitrag zur Erderwärmung leisten. Herr Dr. Ausfelder verweist in diesem Zusammenhang (Seite 12) auf die Möglichkeit einer Umrechnung dieser Einzeleffekte in sog. CO2-Äquivalente und suggeriert damit, daß für den Leser auch dies noch auf dem Konto des geduldigen CO2-Esels erscheint, da es doch auch vom Menschen gemacht ist. Warum sollen aber gerade die Kohlekraftwerke dafür büßen?

Dazu gibt es nun auch noch den Einfluß der im vorigen Jahrhundert besonders starken Solaraktivität, die seit Ende der letzten großen  Eiszeitperiode vor ca. 12 000 Jahren schon immer sämtliche Temperaturveränderungen maßgeblich gesteuert hat (siehe zuletzt die sog. Kleine Eiszeit, die endgültig erst 1850 durch die stärker werdende Sonnenfleckenhäufung zu Ende gegangen ist). Diesen Klimawandel müssen wir doch eigentlich wohl als angenehm betrachten dürfen, und er hat nun wirklich nichts mit dem CO2 zu tun, da der nennenswerte Verbrauch fossiler Brennstoffe erst viel später eingesetzt hat. Aber selbst die vom IPCC genannte Globalerwärmung von 0,74 °C (einschließlich des solaren Einflusses), kann nicht einmal ganz so hoch gewesen sein, weil Wärmeinseleffekte an vielen urbanen Meßstationen unkorrigiert geblieben sind und durch „Climategate“ inzwischen bekannt wurde, daß von den Klimaforschern bewußte Manipulationen an den Meßwerten vorgenommen worden sind. Sehr verläßlich (bis auf die auch hier nicht bereinigten Wärmeinseleffekte) sind dagegen die Temperaturmeßwerte des Deutschen Wetterdienstes (siehe Bild 1 auf Seite 21). Hiernach liegt die mittlere Erwärmung in Deutschland seit 1880 zwar mit 1,0 °C sogar noch etwas höher als der o.g. Globalwert von 0,74 °C. Aber dies hängt doch damit zusammen, daß die eigentliche Erwärmung fast nur in Mittel- und Nordeuropa einschließlich der Arktis und wenigen Gebieten der übrigen Nordhemisphäre  stattgefunden hat, während ca. 70 % des Erdballs entweder überhaupt keine Temperaturänderung gesehen oder sogar eine Abkühlung erfahren hat (wie vor allem in der Antarktis oder auf dem australischen Kontinent). Inzwischen ist auch in unserer Hemisphäre seit ca.
10 Jahren wegen eingetretener Sonnenfleckenflaute eine meßbare Abkühlung eingetreten. In nachfolgender Grafik mit Originaldaten des Deutschen Wetterdienstes ist dies deutlich zu erkennen (siehe vor allem das Rekordtief des vorigen Jahres). Warum hat Herr Koßmann in Kapitel 1.4 nicht auf den obigen Sachverhalt hingewiesen und seine Temperaturkurve in Abb. 1 auf Seite 21 schon früher auslaufen lassen? Er konstatiert dort sogar ganz im Gegenteil in diesem letzten Zeitabschnitt eine tendenzielle Temperatursteigerung (siehe seine rot gepunktete Linie).

 

Darüber hinaus sind im Internet noch weit mehr seriöse Daten von Langzeit-Temperaturreihen abrufbar – sowohl als Monats- und Jahresmittelwerte wie auch als Temperaturganglinien. Die Temperaturen wurden in England ab 1659 und in Berlin ab 1701 und danach sukzessive auch an anderen Stationen in Europa und Nordamerika aufgezeichnet. Prof. Ewert hat nach mühevoller Kleinarbeit in 4 verschiedenen Gruppen die Daten ausgewertet, die in den Portalen „wetterzentrale.de“, „NASA“, „The Little Ice Age Thermomerters“ und „Rimfrost“ für jeden verfügbar sind. Während der IPCC nur die Daten ab 1880 berücksichtigt, hat Prof. Ewert als Geologe vor allem auch die älteren Meßreihen mitbewertet, denn um wirkliche Temperaturveränderungen zu erfassen, bedarf es wegen ihrer langsamen Entwicklung möglichst langer Zeitreihen. Nachfolgend wird am Beispiel der Temperaturkurve für Mittelengland demonstriert, daß es periodische Schwankungen kleineren Ausmaßes immer schon gegeben hat, indem sich Erwärmungs- und Abkühlungsphasen ständig abgewechselt haben.  

 

Internet-Portal: The Little Ice Age Thermometers

Die Temperaturentwicklung im 20. Jahrhundert läßt in obigem Bild keinen Unterschied zu den vorausgegangenen Jahrhunderten erkennen. Der Einfluß des anthropogenen CO2 wird wegen seines minimalen Effektes gegenüber dem schon vorhandenen nirgendwo richtig sichtbar. Die etwas größere Erwärmung nach 1980 wurde durch die deutlich gestiegene Solaraktivität verursacht, wobei das gleiche auch für andere zurückliegende Erwärmungsphasen gilt (damals gab es noch kein anthropogenes CO2). Die verstärkte Förderung und Verbrennung von Kohle, Öl und Gas und mithin die Produktion des angeblich so schädlichen CO2 setzte schon 40 Jahre früher zu Beginn des 2. Weltkrieges ein. Gemäß dem offiziellen Klimamodell hätte sie eine Erwärmung bewirken sollen. Stattdessen folgte zwischen 1950 und 1980 jedoch eine Abkühlungsphase, die beweist, daß anthropogenes CO2 offensichtlich nur einen unerheblichen Einfluß hat. Der oben aufgezeigte Klimaablauf in Mittelengland kann als repräsentativ für die weltweite Temperaturentwicklung in der nördlichen Hemisphäre angesehen werden. Die Südseite ist sogar eher von einer gegenläufigen Abkühlung geprägt. Die Publikation aller Auswertungsergebnisse ist in Vorbereitung. Eine Kurzfassung der ausgewerteten NASA-Daten kann bereits jetzt schon eingesehen werden unter www.eike-klima-energie.eu.         

Die Auswertung der Temperaturdaten wurde durchgeführt, um die dem Wahn eines anthropogenen Klimawandels  verfallenen Verantwortungsträger unseres Landes auf seriöse Weise von den wahren Klimagegebenheiten zu überzeugen, damit sie  möglichst bald zu einer rationalen Gestaltung unserer Energiepolitik finden.

Zum Schluß sei noch kurz zusammengefaßt, warum es für den so medienwirksam geforderten Klimaschutz nicht den geringsten Anlaß gibt: 

Das bereits in der Luft  befindliche CO2 (z.Z. ca. 390 ppm) hat schon längst fast alle absorbierbare Wärmestrahlung im Wellenlängenbereich um 15 Mikrometer herausgefiltert. Der nur noch sehr kleine Rest an den äußeren Rändern dieses Bandenbereichs kann bis zum Verbrauch sämtlicher fossiler Brennstoffe wegen der logarithmischen Degression des Absorptionsvorganges nicht mal eine Erwärmung von 0,7 °C auslösen (wie bereits oben berechnet), da selbst diese totale Ressourcenausschöpfung in vielleicht 200 – 300 Jahren keine Verdoppelung des momentanen CO2-Gehalts erwarten läßt.

Alles das wissen im Grunde genommen auch die Klimaforscher. Aber sie haben dann, wie bereits vorher erwähnt,  zur Erreichung ihres gesteckten Ziels mit Hilfe gigantischer Computersimulationen mehrfache Rückkopplungs – und Verstärkungseffekte erfunden, welche  die übertriebenen Prognosen von zunächst max. 4,5 °C bis schließlich sogar  8 °C erst ermöglicht  haben ( letztere Zahl stammt von Prof. Levermann, Potsdam Institut für Klimafolgenforschung, siehe FAZ vom 30.12.2010). Merkt denn hier niemand, daß sich bei solchen Übertreibungen geradezu die Balken biegen?

Warum haben eigentlich bei solch eindeutig vorliegenden Fakten nicht  wenigstens  einige unserer zahllosen aktiven Wissenschaftler Verdacht geschöpft und sich der Mühe einer eingehenden Prüfung unterzogen, wie dies z.B. Prof. Ewert ( s.o.) oder auch der Verfasser dieses kritischen Kommentars und dazu noch viele andere längst pensionierte Mitstreiter ohne jede institutionelle Hilfe gemacht haben? Diesen Vorwurf kann ich weder der Deutschen Bunsengesellschaft  noch der Gesellschaft Deutscher Chemiker ersparen. Daß beide  sich in guter Gesellschaft mit vielen anderen ähnlichen Gesellschaften unseres Landes befinden, kann sie nicht entschuldigen. Ihr guter Ruf steht auf dem Spiel, und es ist höchste Zeit  und aller Grund zum Umdenken.

Dr. rer.nat. Siegfried Dittrich EIKE im April 2011 (Die Broschüre ist hier abrufbar)




Der Kernenergieausstieg und seine Folgen!

Einfluss der Stilllegung der deutschen Kernkraftwerke aufgrund der Naturkatastrophe in Japan am..

11.3.2011 ausgelöst durch ein Erdbeben der Stärke 8.9. einem anschließenden Tsunami und der infolgedessen außer Kontrolle geratenen Kernreaktoren von Fukushima zur Stromerzeugung.
Die „rauchenden Reaktorruinen“ von Fukushima in Japan verschärfen quer durch alle Parteien und die Gesellschaft den Wunsch nach einem raschen Atomausstieg. Die am 4.4.2011 erstmals zusammengetroffene Ethikkommission soll der Bundeskanzlerin Merkel helfen, Probleme beim Turboausstieg zu lösen.

Was sind die Folgen für die Menschen in Deutschland?

Die durch die Stilllegung ausfallende Stromproduktion muss nun anderweitig beschafft werden. Das kann durch höhere Auslastung der Kohle- und Gaskraftwerke geschehen oder teilweise durch Stromimporte aus den Nachbarländern im Rahmen des UCTE- Netzes. Das zu deckende Defizit beträgt rd. 7.000 MW Leistung mit rd. 150 GWh Tagesarbeit.  Inzwischen ist bekannt, dass ein großer Teil der täglichen Defizitarbeit durch Importe d.h. größtenteils aus dortigen Kernkraftwerken abgedeckt werden. Die Betreiber  dieser Kraftwerke orientieren sich für den Abgabepreis an das jeweilige Strombörsenpreisniveau, welches rd. 50 €/MWh über den Kosten der Stromerzeugung in den stillgelegten deutschen Kernkraftwerken liegt. Die dann noch fehlenden Strommengen werden durch teurere inländischen Kohle und Gaskraftwerke abgedeckt, was eine höhere CO2 – Emission bedingt. Die Mehrkosten für die Strombeschaffung liegen ab dem Tag der Abschaltung am 17.3.2011 bei mindestens 7 Mio. € pro Tag.

Die sieben abgeschalteten Kernkraftwerke wären jedenfalls heute ebenso sicher wie eine Woche zuvor, bevor die Katastrophe sich in Japan anbahnte. Die Abschaltung kostet unserer Volkswirtschaft zu Lasten aller, wie und wann das auch immer bei jedem einzelnen ankommt, pro Tag und Kraftwerk 1 Million € also für die sieben pro Tag 7 Millionen €. Wenn dann mal alle 17 Kernkraftwerke abgeschaltet sind, erhöht sich der Betrag auf über 17 Mio. € täglich.


Solange unser Wohlstand in Deutschland nicht aufgebraucht ist, können wir das durchstehen. Wie lange es tragbar ist, aus rein emotionalen Gründen pro Tag 7 Mio. € einfach nutzlos – ohne Zuwachs an Wertschöpfung – zusätzlich auszugeben, wird die Zukunft erweisen.

Wenn Frau Höhn im Fernsehen erklärt, dass die Abschaltung der sieben Kernkraftwerke, sie sagt natürlich DIN/IEC widrig "Atommeiler", keinen Ausfall der Lichter gebracht hätten und daher auch nicht erforderlich seien, ist das purer Zynismus zum Schaden aller Bürger in Deutschland.

Prof. Helmut Alt

Lesen Sie hier die Meldung in SPON über das Gutachten zur großen Transformation.

Hier können Sie das "Gutachten" herunterladen




Neues zum Wärmeinseleffekt: Eine Untersuchung über die Umgebung von USHCN-Stationen mit Hilfe eines bereinigten Datensatzes

*BEST = Berkeley Earth Surface Temperature. Googeln!

Interessant daran ist der Umstand, dass der Autor der Präsident einer privaten Vereinigung ist, die sich WeatherSource nennt. Sie beschreibt sich selbst so:

WeatherSource ist der führende Lieferant historischer und gegenwärtiger digitaler Wetterinformationen höchster Qualität, und zwar für mehrere 10 000 Stationen in den USA und weltweit.

Das Besondere an dieser Gesellschaft ist, dass sie Wetterdaten auch hoch profilierten Kunden zur Verfügung stellen, die diese Daten nutzen zur Abschätzung von Risiken und vermuteten Ergebnissen. Diese Kunden wenden sich an dieser Gesellschaft, weil diese ein hervorragendes Produkt erzeugen; Bodendaten, die von vielen Problemen, die es im Datensatz des NCDC gibt, bereinigt sind.

Ich habe eine Präsentation von ihnen im vorigen Jahr gesehen, und es war auch das erste Mal, dass wir uns trafen. Das war ein besonderes Treffen, gab es doch hier zum ersten Mal nach der Durchsicht unserer Fotografien von Stationen eine visuelle Bestätigung der Probleme, die sie aus der Untersuchung der Daten ableiten konnten. Es war ein Zusammentreffen von Gleichgesinnten, von Daten und Metadaten.

Über ihre bereinigten Daten sagen sie  Folgendes:

WeatherSource verfügt über eine einmalige Datenbank der Wetterinformation, erstellt aus einer Kombination von vielen verschiedenen Datensätzen, die in einen umfassenden „Super“-Datensatz von Wetterinformationen zusammengefasst worden ist. Es gibt heute nichts Vergleichbares auf dem Markt. Durch das Zusammenführen zahlreicher verschiedener Datensätze werden die Lücken in einem Datensatz häufig durch einen anderen Datensatz geschlossen. Dies ergibt eine Datenbasis, die konzentrierter und vollständiger ist als jeder einzelne der originalen Datensätze. Zusätzlich werden alle in Frage kommenden Daten einer Qualitätskontrolle unterzogen und korrigiert, bevor sie Eingang in die Datenbasis von WeatherSource finden. Das Endergebnis ist eine „Super“-Datenbasis, die vollständiger und genauer ist als jede andere derzeit existierende Datenbasis – Punkt!

Es ist diese „Super“-Datenbasis, die sich im Kern aller Produkte von WeatherSource befindet. Man kann sich beruhigt zurücklehnen in dem Wissen, dass alle Produkte und Leistungen von WeatherSource die besten sind, die es gibt.

Über historische Daten heißt es dort:

Umfassend und stabil sind die zwei Wörter, die den historischen Datensatz von WeatherSource am besten beschreiben.

Umfassend, weil unsere Datenbasis aus vielen Basisdaten aus verschiedenen Quellen zusammengestellt wurde. Aus diesen erzeugen wir zusammengefasste Datensätze, die vollständiger sind als jeder einzelne Datensatz. Dies erlaubt es uns, Ihnen nahezu jede Wetterinformation zur Verfügung zu stellen, die sie vielleicht brauchen.

Stabil, weil unser System der Datenkontrolle und Bereinigungsmethoden sicherstellen, dass die Daten, die Sie brauchen, akkurat und von höchster Qualität sind.

Als Beispiel folgt hier ein Vergleich des von ihnen bereinigten Datensatzes mit einer GHCN-Station:

Die Verfahren, die man benutzt, sind nicht unähnlich denen bei BEST; das Hauptaugenmerk liegt auf der Lösung von Problemen mit den historischen Daten, die von dem auf freiwilliger Basis operierenden Cooperative Observer Network (COOP) der NOAA zusammengetragen worden waren. Dieses COOP-Netzwerk enthält auch eine Unterorganisation, das U.S. Historical Climatology Network (USHCN), welches einen handverlesenen Satz von Stationen von Forschern am National Climatic Data Center (NCDC) besitzt. Dieser basiert auf der Länge der Reihen und die Bewegungen der Station:

Die Stationen des USHCN wurden gewählt mit Hilfe einer Anzahl von Kriterien, u. a. Länge der Aufzeichnungen, Prozentzahl der fehlenden Daten, Anzahl der Veränderungen der Station; alles Dinge, die die Homogenität der Daten und die flächenmäßige Abdeckung beeinflussen können.

Das Problem besteht im Folgenden: Bis das Projekt surfacestations.org ins Leben gerufen worden war, wurde nie die Umgebung der Messstation betrachtet. Den freiwilligen Beobachtern wurde nicht einmal gesagt, wie speziell diese Stationen waren, so dass diese Beobachter eben nicht immer besonders sorgfältig gemessen haben und auch nicht darauf geachtet haben, ob die Stationen die Mindestanforderungen an die Umgebung erfüllt haben, wie z. B. die 100-Fuß-Regel der NOAA:

Position des Sensors: Der Messfühler sollte sich 5 Fuß (ca. 150 cm) +/- 1 Fuß (ca. 30 cm) über dem Boden befinden. Die Beschaffenheit des Untergrundes, auf dem die Hütte steht (Strahlung) sollte typisch für das umgebende Gebiet sein. Eine offene, flache Ebene ist wünschenswert, so dass die Thermometer ungestört von der zirkulierenden Luft umweht werden. Man installiere den Sensor nicht auf einem steilen Hang oder in einer geschützten Höhlung, es sei denn, dies ist typisch für das Gebiet oder Daten aus einer solchen Örtlichkeit werden gewünscht. Wenn möglich sollte die Hütte nicht näher an einem Hindernis liegen als vier mal die Höhe des Hindernisses (Bäume, Zäune, Gebäude usw.). Der Sensor sollte sich außerdem mindestens 100 Fuß (ca. 3 m) von einer befestigten oder betonierten Oberfläche entfernt befinden.

Wie allgemein bekannt ist, und wie auch die NOAA in ihren eigenen Veröffentlichungen in dieser Sache einräumt, erfüllt nur etwa 1 von 100 Stationen im USHCN diese 100-Fuß-Regel. Dies ist die Grundlage für die Kritik, die ich schon seit einiger Zeit übe – dass die Örtlichkeit zu unberücksichtigten Verzerrungen in den Daten führt.

WeatherSource ist eine private Gesellschaft, die alle Daten einem speziellen Bereinigungsprozess unterzieht. Dieser beseitigt viele, aber nicht alle erkannten Verzerrungen und Fehler in den Daten. Ich habe einen detaillierten Ablaufplan ihrer Prozesse gesehen sowie den Vergleich vorher – nachher, und ich habe Vertrauen darin, dass sie auf diese Weise wirklich einen hervorragenden Datensatz erhalten.  Jedoch, als Firma müssen sie auf ihren Vorteil achten, und ich habe beschlossen, den Prozess nicht bekannt zu machen, weil er das legale intellektuelle Eigentum der Gesellschaft ist.

Die Techniken, mit denen das BEST team die Daten bereinigt, und die ich bei einem Treffen mit ihnen im Februar 2011 kennen lernte, sind ähnlich, aber sie haben versprochen, öffentlich zugängliche Daten zu verwenden und den Prozess transparent und nachvollziehbar zu machen, wie sie es auf ihrer Website zeigen:

In dem Wissen, dass BEST unabhängig Techniken für die Bearbeitung von Bodendaten gefunden hatte, und weil es mit den Ideen der privat betriebenen Gesellschaft WeatherSource Überlappungen gab, kann man sich meine Begeisterung über dieses Projekt vorstellen.

Unglücklicherweise hat BEST am 31. März in vollem Licht der Öffentlichkeit vor dem Kongress den Ball verloren [fumbled the ball: ein Begriff aus dem American Football], so dass er dem gegnerischen „Team“ in die Hände fiel. BEST veröffentlichte einige potentiell wackelige [buggy] und zugegebenermaßen unvollständige vorläufige Ergebnisse (von denen ich die Grundlagen gesehen habe), ohne Transparenz und Nachvollziehbarkeit. BEST hat bislang nicht einmal ein Papier präsentiert.

Im Gegensatz dazu hat WeatherSource ein solches Papier erstellt, was heute online gestellt worden ist. Während es nicht von einem Journal begutachtet worden ist, wurde es von einer Anzahl professioneller Leute begutachtet, und wird natürlich mit dieser Einführung auf WUWT der weltweit größtmöglichen Begutachtung unterzogen.

Es muss festgehalten werden, dass die gesamte Datenanalyse von Mr. Gibbas von WeatherSource durchgeführt worden ist. Meine Rolle beschränkte sich darauf, Metadaten zur Verfügung zu stellen sowie Fotos von unserem Projekt zu Bodenstationen und bei der Formulierung zu helfen.

Hier findet man die vollständige Studie:

An Investigation of Temperature Trends from weather station observations representing various locations across Utah (21.5mb PDF) von Mark Gibbas

Man beachte, weil es sich hier um eine private Gesellschaft handelt und weil kleine Gesellschaften ihre IP-Rechte aus wettbewerbstechnischen Gründen schützen müssen, dass die Verfahren zur Datenbereinigung nur im Allgemeinen diskutiert werden können, aber die Gesellschaft kann den Code ohne den Verrat an ihren IP-Rechten nicht bekannt geben. Allerdings kann die Datenquelle dieser Studie auf Anfrage zur Verfügung gestellt werden, da WeatherSource den vorläufigen Zugang angeboten hat unter der Voraussetzung, dass der Endbenutzer damit forschen will und es nicht für kommerzielle Zwecke nutzt und es auch nicht unter seinem Namen in der ursprünglichen Form veröffentlicht. Nutzen Sie den Menüpunkt „contact“ hier auf WUWT, falls Sie eine Ausgabe der von WeatherSource bereinigten Daten haben wollen, nachdem Sie den bedingungen zugestimmt haben. Anonyme Anfragen werden ignoriert. Die Liste der Metadaten der Stationen findet man hier: Utah-stations-metadata (PDF) Utah-stations-metadata (Excel .xls)

Hier folgen ein paar Auszüge:

HINTERGRUND

Jedoch war es in dieser in viel kleinerem Maßstab durchgeführten Studie unser Ziel, die langzeitlichen Temperaturaufzeichnungen der über Utah verteilten Wetterstationen zu untersuchen und zu versuchen, lokale Einflüsse auf die Messungen herauszufinden. Beispielsweise ist bekannt, dass urbane Gebiete zu einem starken Erwärmungstrend führen. Weniger bekannt sind andere Einflüsse auf die Temperatur wie moderne Landwirtschaft [oder heranwachsende Bäume. A. d. Übers.].

Bevor diese örtlich begrenzten Einflüsse nicht eindeutig quantifiziert werden können, kann man nicht anfangen, Trends oder Fluktuationen in größerem Maßstab zu untersuchen, wie z. B. in einem Bundesstaat, einer Region, einem Land oder weltweit. Diese Untersuchung ist ein wichtiger Schritt zu diesem ultimativen Ziel – aber noch wichtiger, sie zeigt, dass dieses Ziel immer noch schwierig zu erreichen ist, wenn man die Ungewissheit und die Methodik betrachtet, die man angewendet hat, um ein Signal zur Klimaänderung aus den Aufzeichnungen der Bodenstationen zu extrahieren.

ANSATZ

Um die zahlreichen Beeinflussungen der gemessenen Temperaturreihen besser zu verstehen, identifizierte und untersuchte diese Studie zahlreiche Wetterstationen mit langen Temperaturreihen aus urbanen, landwirtschaftlichen und von natürlicher Wildnis umgebenen Stationen, aber auch von Stationen in Utah, deren Umgebung sich nur wenig oder gar nicht verändert hat.

Ursprünglich wurden für diese Studie die Daten des National Climatic Data Center (NCDC) U.S. Historical Climatology Network Version 2 (USHCNv2 2009)6 verwendet. Jedoch wurden mit der Zeit zahlreiche Unstimmigkeiten in den USHCN-Daten gefunden, so dass dieser Datensatz verworfen wurde. Stattdessen benutzte diese Studie Daten des original NCDC U.S. Cooperative Summary of the Day Data (als DSI-3200 dataset bezeichnet). Dieser Datensatz wurde mit Hilfe einer auf Regression beruhenden Methode bereinigt. Eine kurze Erklärung hiervon innerhalb des USHCN folgt in Kürze.

Innerhalb dieses bereinigten DSI-3200–Datensatzes konnten in dieser Studie Stationen in Utah mit einer mindestens 50 Jahre langen Reihe identifiziert werden. Unter Nutzung von Quellen wie Google Earth und demographischer Informationen aus einer Volkszählung in den USA wurden diese Stationen eingeteilt nach Kriterien wie Urbanität oder Landwirtschaft. Die Einschätzung erfolgte in 5 Einstufungen mit 5 als der höchsten Einstufung.  Stationen mit einer niedrigen Einstufung waren solche mit einer geringen Urbanität bzw. einer geringen Landwirtschaft.

Basierend auf den urbanen und landwirtschaftlichen Indexwerten wurden die Wetterstationen in drei Gruppen eingeteilt, nämlich städtische, landwirtschaftliche oder nicht eindeutige Örtlichkeiten.

GRÜNDE FÜR DIE BEOBACHTETEN VARIANZEN DER TEMPERATUR

Man würde vermuten, dass zwei etwa 30 Meilen [knapp 50 km] voneinander entfernt liegende Wetterstationen in etwa gleicher Seehöhe und Umgebung konsistente Temperaturdaten innerhalb von 50 Jahren gemessen haben; die zeitliche Abfolge von Temperaturänderungen sollte nahezu perfekt korreliert sein, und beide Stationen sollten den gleichen generellen Trend zeigen. Jedoch fanden wir in der Praxis, dass solche Stationen signifikante Unterschiede bei ihren Messungen aufweisen, obwohl beide von den gleichen großräumigen Wetterlagen betroffen waren. Aber wie kann das sein? Die Antwort liegt fast immer in Veränderungen in der unmittelbaren Umgebung der Wetterstationen, die die Messungen beeinflussen.

Hat man einmal festgestellt, dass Veränderungen der Station auf künstliche Weise reale Wettertrends verdecken können, stellt sich die offensichtliche Frage: Zu was taugen all diese Stationsdaten, wenn jede Station Gegen­stand falscher Trends wegen Veränderungen an dieser Station ist? Bei einer sehr kleinen Anzahl von Stationen ist das tatsächlich ein Problem, aber wenn man ein Gruppenmittel über mehrere Stationen bildet, heben sich die jeweiligen Veränderungen gegenseitig weitgehend auf. Der Grund hierfür beruht auf dem statistischen Prinzip, dass Veränderungen sich zu Null mitteln, während dies beispielsweise bei urbanem Wachstum nicht der Fall ist.

Also müssen wir, um den jeweiligen Trend für die drei Gruppen besser abschätzen zu können, diese zu einem Gruppentrend mitteln. Tafel 5  zeigt den mittleren Trend für jede der drei Gruppen. JJA bezeichnet die drei Sommermonate Juni, Juli und August. DJF steht für die drei Wintermonate Dezember, Januar und Februar. TMax steht für den Trend der täglichen Höchst- und TMin für den der täglichen Tiefsttemperatur. Die vertikale Achse zeigt den Trend in Grad pro Jahr.

Aus der Tafel 5 lässt sich Folgendes entnehmen:

§           Der Trend der Minimumtemperatur ist signifikanter als der der Maximumtemperatur. Eine gründliche Untersuchung, warum das so ist, wäre sicher notwendig. Aber für jetzt wollen wir einfach festhalten, dass der Trend der Minimumtemperatur genau wie erwartet ist. 

§           Die urbane Gruppe der Stationen zeigt den stärksten Trend, gefolgt von der landwirtschaftlichen Gruppe und danach derjenigen mit geringen Veränderungen

§           Der Unterschied zwischen der landwirtschaftlichen Gruppe und der ohne Veränderungen ist im Sommer ausgeprägter als im Winter.

§           Der Trend der Minimumtemperatur in der Gruppe ohne wesentliche Veränderungen ist im Sommer und Winter nahezu gleich, wohingegen der Trend der Minimumtemperatur in der landwirtschaftlichen und der urbanen Gruppe im Sommer stärker ist als im Winter.

Karte 6 zeigt den kumulierten Trend im Sommer und im Winter für die drei Gruppen in Grad Fahrenheit pro Dekade [zum Umrechnen hier]. Der städtische Wert von 0,42°F stimmt überein mit den veröffentlichten Schätzungen zwischen 0,36°F und 0,44°F pro Dekade für die gegenwärtige globale Erwärmung.

Der generelle Trend [net trend] der landwirtschaftlichen Gruppe beträgt 0,27°F pro Dekade und liegt damit um 37% unter dem Trend der urbanen Gruppe. Der Trend der Gruppe ohne wesentliche Veränderungen beträgt 0,20°F pro Dekade oder 52% des urbanen Wertes.

SCHLUSSFOLGERUNGEN

Diese Studie hat gezeigt, dass es signifikante Unterschiede in den Temperaturtrends zwischen Wetterstationen in urbanen, landwirtschaftlichen und geringen Veränderungen gibt. Außerdem wurde gezeigt, dass urbane Stationen signifikant höhere Trends zeigen, hervorgerufen durch zahlreiche urbane Faktoren, die nichts mit dem CO2-Gehalt der Luft zu tun haben. Es konnte auch bewiesen werden, dass Stationen in landwirtschaftlicher Umgebung einen Erwärmungstrend infolge zunehmender Feuchtigkeit zeigen. Angesichts des Umstandes, dass sowohl urbane Stationen als auch solche in landwirtschaftlicher Umgebung einen Erwärmungstrend zeigen, der nichts mit einer Erwärmung durch CO2 zu tun hat, ist es sinnvoll, den Stationen ohne wesentliche Veränderungen viel mehr Gewicht zu geben. Gegenwärtig ist dies nicht der Fall, befindet sich doch der größte Teil der Stationen an Flughäfen, die per se in der Nähe urbaner Standorte liegen.

METHODE ZUR BEREINIGUNG DER TÄGLICHEN DATEN

Die in dieser Studie verwendete Methode zur Bereinigung der DSI-3200-Daten nutzt Schätzungen via Regression von benachbarten Stationen, um fehlerhafte Werte zu korrigieren oder fehlende Werte zu ergänzen. Dies ist notwendig, wenn man eine Zeitreihe von Temperaturdaten mit hoher Qualität haben will. Diese Methode zur Bereinigung dient nicht dazu, den urbanen Wärmeeffekt heraus zu rechnen, ebenso wenig wie Diskontinuitäten oder andere Einflüsse auf die gemessene Temperatur. Schlüsselfaktoren der Methode sind:

§           Anpassung aller Messungen an einen einheitlichen Morgen-, Mittag- und Abendtermin, um alle Stationswerte wirklich miteinander vergleichen zu können.

§           Alle Regressionen basieren auf jahreszeitlichen Zeitfenstern.

§           Zwei Arten von Regression wurden für jede Nachbarstation durchgeführt; außerdem eine jahreszeitliche Regression auf Basis der Daten aus drei Jahren, die um ein spezielles Datum liegen, und eine saisonale Regression, der alle Daten zugrunde liegen.

§           Regressionen von allen Nachbarstationen werden in einer Verteilung zusammengefasst, die analysiert und mit den Originalwerten der Zielstation verglichen wird. Sollten die Originalwerte der Zielstation basierend auf statistischen Tests bestätigt werden, wird sie einbezogen. Sollten hingegen die Werte unstimmig sein, werden sie durch die Regression der Station mit der größten Korrelation zur Zielstation ersetzt. In allen Fällen werden fehlende Werte der Zielstation durch Abschätzungen von Nachbarstationen mit der größten Korrelation zur Zielstation aufgefüllt.

Es hat sich gezeigt, dass die oben umrissene Methode Werte erzeugt, die höchst konsistent mit den originalen Zeitreihen sind. Dies wurde festgestellt durch die Qualifizierung akkurater Werte, die danach künstlich entfernt und durch andere Werte ersetzt wurden. Dies wurde anschließend der Bereinigungsmethode unterzogen. Die sich ergebenden eingesetzten Werte wurden danach mit den entfernten Originalwerten verglichen. Dieses Verfahren hat dazu geführt, dass Ersatzwerte im Vergleich zu den Originalwerten einen Korrelationsfaktor R2 oder 0,985 oder noch mehr haben.

– Ende der Auszüge

In einem Fall wurde bemerkt, wie eine zuvor abgelegene und ländliche Station des USHCN, und zwar die Station Snake Creek Powerhouse, zunächst von einem olympischen Sportzentrum und danach von einem bewässerten Golfplatz umgeben war.  Hierzu wurde eine Fallstudie #2 durchgeführt.

Aus Fallstudie #2

Die nächste Darstellung zeigt, was nach dem Hinzufügen der von NCDC USHCN adjustierten Daten passiert. Unglücklicherweise korrigiert diese Adjustierung nicht die Daten der Station Snake Creek, und tatsächlich beeinträchtigt dieser Umstand die Qualität der Daten noch weiter. Der Trend für die Station Snake Creek ist ohnehin schon verdächtig, zeigt doch der Datensatz DSI-3200 einen aufwärts gerichteten Trend von 0, 246 oder grob ein Viertelgrad Fahrenheit pro Dekade. Im Gegensatz dazu zeigen die bereinigten Daten des USHCN einen Abkühlungstrend von -0,05 oder grob -0,5 Grad Fahrenheit pro Dekade.

Es ist klar, dass diese Adjustierung falsch ist; anderenfalls würde diese Station in Utah eine der extremsten Abkühlungen dieses Planeten erfahren.

Die Anpassungen an [die Werte der Station] Snake Creek müssen als alarmierend eingestuft werden und führen zu folgenden Schlussfolgerungen:

1. Es wird vermutet, dass die Anpassungen das Ergebnis einer einfachen automatisierten Methode sind, die eine lineare Anpassung an den Daten anbringt, so dass die Endpunkte der linearen Anpassung unrealistische Ergebnisse bringen.

2. Es ist offensichtlich, dass hier jedwede Begutachtung oder Qualitätschecks fehlen.

– Ende des Auszugs

Nun ist Utah gewiss nicht die Welt. Diese Studie demonstriert, was man lernen kann durch einen detaillierten Blick auf die Metadaten einer Station zusammen mit der Bereinigung von Temperaturwerten und einer Analyse. Wie in der Studie erwähnt, wurde nicht wie in der Präsentation von BEST versucht, den UHI-Effekt oder den Effekt zusätzlicher Feuchtigkeit zu korrigieren, die hauptsächlich Auswirkungen auf die Nachttemperatur hat, besonders in Gebieten mit künstlicher Bewässerung. Die menschliche Erfahrung kennt diesen Effekt aus den trockenen Wüsten im Südwesten der USA, wo es wegen der geringen Feuchtigkeit nachts sehr kalt werden kann im Gegensatz zum Südosten der USA, wo Feuchtigkeit für warme Sommernächte sorgt. Die Frage ist, wie stark die Nachttemperaturwerte durch diese zusätzliche Feuchtigkeit durch künstliche Bewässerung angehoben werden.

Eine Studie im kalifornischen Central Valley von Dr. John Christy 2006 von der UAH hat tatsächlich in einem kleinen Gebiet diesen Umstand untersucht. Er wandte besondere Sorgfalt auf, die Masse der Metadaten zu studieren, um diesem Effekt auf die Spur zu kommen. Siehe hier: Christy on irrigation and regional temperature effects

Bis wir eine Methode finden, um diese Umstände und den UHI-Effekt zu berücksichtigen, stecken die Oberflächendaten immer noch voller Ungewissheiten.

Jedoch finde ich es ermutigend, dass sich eine private Gesellschaft, die Wetterdaten mit einem inhärenten Risiko des Managements zur Verfügung stellt, bei dem es ökonomische Belohnungen gibt, falls sie recht haben, und den Ruin bedeutet, wenn sie falsch liegen, mit den Verzerrungen der Stationen von NOAA COOP befasst hat, zumindest teilweise. So etwas wird viel mehr gebraucht.

Die bloße Tatsache, dass diese Gesellschaft für den ausdrücklichen Zweck gegründet wurde, um korrekte und bereinigte Daten von der Temperatur der Erdoberfläche zu erzeugen und zu verkaufen, und dass sie Kunden haben, die dies dringend brauchen, spricht Bände.

Link: http://wattsupwiththat.com/2011/04/04/an-investigation-of-ushcn-station-siting-issues-using-a-cleaned-dataset/

Übersetzt von Chris Frey für EIKE

Alle Hervorhebungen (fett, kursiv) im Original!




Anmerkungen zu CDU Generalsekretär Gröhe: „Den Umstieg gestalten“ – Kernenergie in Deutschland

Zweifellos begrüßenswert ist es, wenn eine große Partei sich Gedanken über die Zukunft auch der Energiewirtschaft unseres Landes macht. Mit den Ausführungen des Generalsekretärs der CDU, Hermann Gröhe, in der FAZ vom 2. April 2011 („Den Umstieg gestalten“) wurde, aus- gehend von den tragischen Ereignissen im Kernkraftwerk Fukushima, ein erneuter Versuch unternommen, in die Zukunft zu blicken.

Leider bieten die Ausführungen von Hermann Gröhe keinerlei grundsätzlich neue Erkenntnisse nach Fukushima. Er bezieht sich nach wie vor auf das CDU-Grundsatzprogramm von 2007, in dem der Kernenergienutzung keine Zukunftsberechtigung zugestanden und der Neubau von Kernkraftwerken abgelehnt wird. Die CDU hat sich damit dem „nuklearen Mainstream“ in Deutschland angeschlossen, wie ihn inzwischen alle Bundestagsparteien nahezu einhellig vertreten. Eine Auseinandersetzung mit der Tatsache, dass jenseits der deutschen Grenzen – in einer globalisierten Welt – die Kernenergie als Zukunftstechnologie angesehen wird, findet sich in den Ausführungen des Generalsekretärs der CDU nicht.

Wiederum wird die Kernenergie als „Brückentechnologie“ bezeichnet, die ins „Zeitalter erneuerbarer Energien“ führen soll. Es erstaunt immer wieder, wie von führenden Politikern unseres Landes suggeriert wird, in die Zukunft schauen zu können und dabei erkennen zu können, dass die Erde in diesem „goldenen“ Zeitalter mit Sonne, Wind und Biomasse energetisch so versorgt werden kann, dass die drängenden Probleme der Menschheit, wie Hunger, Krankheiten, fehlende Bildung usw. und die daraus zu einem großen Teil entspringenden sozialen und militärischen Konflikte zu lösen seien. Es bleibt offen, warum sich unter diesen Umständen Deutschland beispielsweise an den internationalen Forschungen zur Nutzbarmachung der Kernfusion beteiligt.

Als völlig absurd muss der Begriff „Brückentechnologie“ angesehen werden, mit dem man argumentativ Zeit gewinnen will, um nicht sofort aus der Kernenergie aussteigen zu müssen – wohl erkennend, dass das wirtschaftspolitisch nicht möglich ist. Keiner der politisch hochrangigen Autoren des CDU-Grundsatzprgramms oder des Koalitionsvertrags von 2009, in dem sich die gleiche Vokabel befindet, hat verstanden, dass jede der von der Menschheit bisher entwickelten Technologien „Brückentechnologien“ waren und sind, denn alle entstanden nach Auslaufen bisherigen Technologien und verschwanden nach dem Finden neuer, besserer Technologien. Das gilt für die Feuerstein-Bearbeitung oder danach für die Nutzung von Bronze und hört mit der Bearbeitung von Eisen noch lange nicht auf. Zu erkennen ist das genau so in der Genesis der Energetik: Menschliche und tierische Muskelkraft, Wasser- und Windkraft-Nutzung, Nutzung von Kohle, Erdöl und Erdgas und seit einem halben Jahrhundert zusätzlich Kernspaltungsenergie. Natürlich werden die heute üblichen Energiequellen einst durch bessere – billigere, umweltfreundlichere – abgelöst werden. Welche künftigen Energie-Technologien das sein werden – die Entscheidung darüber sollten wir unseren Nachkommen überlassen, denn sie werden das besser beurteilen können als die Autoren heutiger deutscher  Parteiprogramme! Fest steht aber: Auch das werden „Brückentechnologien“ sein! Keinesfalls steht jedoch fest, dass die Brückentechnologie Kernenergie durch die heute bekannten Technologien zur Nutzung von Wind, Sonne, Geothermie, Wasser oder Biomasse die neuen „Brückentechnologien“ sein werden, denn dazu fehlen ihnen noch erhebliche Eigenschaften, die die Brückentechnologie Kernenergie auszeichnen: Preiswürdigkeit, Zuverlässigkeit, Umweltfreundlichkeit. Überlassen wir die Wahl künftiger energetischer „Brückentechnologien“ unseren Nachkommen, schaffen wir mit unseren Kräften aber alle Voraussetzungen, damit sie eine möglichst optimale Wahl treffen können! Konkret heißt das, in alle Richtungen erkunden, welche Möglichkeiten zur Deckung des künftig ganz bestimmt noch weiter wachsenden Energiebedarfs es geben könnte und die dazu notwendigen Forschungen – in internationaler Arbeitsteilung – durchzuführen. Es zeugt von unverantwortlicher Kurzsichtigkeit, irgendeine der heute erkennbaren Technologien auszuschließen und weitere Forschungen zu unterbinden, ihnen die Zukunft abzusprechen! Natürlich sollte neben Kernspallation und Kernfusion auch an neuen Technologien wie Energiespeicherung, Solarenergienutzung oder Supraleitung geforscht werden. Ganz bestimmt werden unsere Enkel und Urenkel völlig neue Ideen entwickeln, denn sie werden bestimmt nicht dümmer als unsere Eltern und Großeltern sein! Aber schreiben wir ihnen nicht vor – auch nicht mit drohenden Hinweisen auf „Nachhaltigkeit“ oder „Bewahrung der Schöpfung“! –, wie sie ihre Energieversorgung gefälligst zu gestalten haben!  Mit „wirtschaftlicher Vernunft“ und  „sozialer Verantwortung“ hat das nichts zu tun!

Rein theoretisch ist es zweifellos denkbar, aus Fukushima eine Bestätigung des eigenen politischen Standpunktes abzuleiten und die Kernenergienutzung erneut zu verdammen. Fukushima wäre dann, so makaber es auch klingen mag, ein politisch willkommenes Ereignis!

Man kann aber auch andere Schlussfolgerungen ableiten – und das tun Forscher und Techniker der meisten anderen Länder: Die japanische Katastrophe ist eingehend zu analysieren und daraus abzuleiten, wie künftig derartige Ereignisse vermieden werden können. Wir sollten uns – auch in Deutschland! – vielmehr der Frage zuwenden, nicht nur wie wir bestehende Kernkraftwerke sicherer machen können, sondern auch, wie künftige Kernkraftwerke beschaffen sein sollten! Das schließt die Möglichkeit ein, tatsächlich auch hier wieder Kernkraftwerke zu bauen, und zwar solche, in denen Ereignisse wie in Tschernobyl oder Fukushima nicht eintreten können! Ansatzpunkte hierfür gibt es genügend, einige davon wurden sogar in Deutschland geschaffen (z. B. THTR)! Auch die vielbeschworene „Endlagerung“ sollte als wissenschaftlich-technische Herausforderung begriffen werden und nicht als Dauer-Argument gegen die Kernenergienutzung missbraucht werden! Auch hierfür gibt es wissenschaftliche Ansatzpunkte, die eine Jahrtausende dauernde Einlagerung von Spaltprodukten überflüssig machen könnten (Transmutation).

Nicht Einstellung der nuklearen Forschung sollte die politische Botschaft einer großen deutschen Partei lauten, sondern ganz im Gegenteil: Ausbau der kernphysikalischen und kerntechnischen Forschung! Deutschland sollte sich wieder aktiv einreihen in die wachsende Schar der Kernforscher und Kerntechniker auf der Welt! Wenn wir das nicht tun, werden wir die kerntechnische Entwicklung auf der Erde nicht aufhalten; wir werden uns lediglich isolieren und uns damit von einem potentiell aussichtsreichen Forschungsgebiet verabschieden – Hahn und Heisenberg würden sich wundern!

Eine Partei wie die CDU sollte sich überlegen, ob es wirklich sinnvoll ist, die Bürger unseres Landes davon überzeugen zu wollen, dass die Verspargelung der Landschaften oder der Bau überflüssiger Hochspannungsleitungen notwendig und vorteilhaft wären. Sie sollte sich vielmehr dafür engagieren, dass die Menschen unseres Landes die Kernenergie wieder als eine Energiequelle begreifen, die in der Lage ist, Deutschland langfristig mit preiswerter elektrischer Energie zuverlässig und umweltfreundlich zu versorgen. Abschottung vor der internationalen wissenschaftlichen Entwicklung schadet nicht nur der Wissenschaft sondern auch der Wirtschaft!

Die Negierung der Kerntechnik hat jedoch auch wirtschaftspolitische Konsequenzen: Wir scheiden damit endgültig aus der Reihe der Lieferanten von Kernkraftwerken und kerntechnischen Anlagen aus. Alle auf diesem Gebiet noch vorhandenen Erfahrungen würden wertlos. Es ist sehr zu bezweifeln, ob der Bau von Windenergieanlagen oder von Solarzellen auch dauerhaft von anderen Ländern so honoriert wird, dass sie derartige Anlagen aus Deutschland auch dann importieren werden, wenn es künftig hochmoderne, extrem sichere und preiswerte Kernkraftwerke auf dem Weltmarkt, allerdings nicht in Deutschland, zu kaufen geben wird!

Das Ausscheiden als Konkurrenten auf dem KKW-Markt, wofür uns andere Länder sehr dankbar sein werden, ist zugleich ein weiterer Schritt zur De-Industrialisierung Deutschlands, wie er schon „erfolgreich“ mit der „Klimapolitik“ gegangen wird. Deutschland ist dabei, sich auf den Weg in die wirtschaftliche Bedeutungslosigkeit zu machen!

Dr. Dietmar Ufer EIKE

Frankfurter Allgemeine Zeitung, 2. April 2011

   

Fremde Federn: Hermann Gröhe

Den Umstieg gestalten

Die schreckliche Katastrophe im japanischen Kernkraftwerk Fukushima muss für die CDU Anlass sein, unsere Position zur Kernkraft zu überdenken. Wer dies bestreitet, riskiert die Anschlussfähigkeit unserer Politik an nicht unerhebliche Teile unserer Bevölkerung. Wer sich darüber erhebt, übersieht, dass auch andere Parteien ihre Positionen verändert haben. So fordern SPD und Grüne inzwischen die Abschaltung jener älteren Meiler, denen man im eigenen Ausstiegsbeschluss noch eine längere Laufzeit zugestanden hatte.

   Ausgangsposition für die CDU ist dabei auch weiterhin unser Grundsatzprogramm von 2007. Danach gehört der Kernenergie nicht die Zukunft. Wir bejahen sie lediglich als Brückentechnologie ins Zeitalter erneuerbarer Energien. Den Neubau von Kernkraftwerken haben wir folgerichtig nach 2007 stets abgelehnt. Und die moderate Laufzeitverlängerung für unsere Kernkraftwerke verbanden wir mit dem Ziel, durch die erhebliche Abschöpfung der entsprechenden Gewinne den Ausbau erneuerbarer Energien zu fördern. Zugleich verschärften wir die Sicherheitsanforderungen. Rückblickend muss man jedoch zugeben, dass unsere Debatten über das Ausmaß der Laufzeitverlängerung den eigentlichen Grundgedanken verdrängt haben – das Ziel nämlich, in absehbarer Zeit auf Kernenergie gänzlich verzichten zu können. Mancher in Union und FDP mag in der Laufzeitverlängerung auch eine Mutprobe gesehen haben, auf eine möglichst lange Brücke zu setzen, an deren Ende eine Renaissance der Kernenergie steht. Wer so dachte, hatte nie die Beschlussfassung unserer Partei auf seiner Seite. Nicht eine Jahreszahl für das Ende der Kernenergie bildet den Markenkern der Union, sondern die Fähigkeit, wirtschaftliche Vernunft, soziale Verantwortung und die Bewahrung der Schöpfung miteinander verbinden zu können.

   Deshalb kann es auch keinen sofortigen Ausstieg geben, der unsere Wettbewerbsfähigkeit als Industrienation erschüttern würde, die die Grundlage auch der sozialen Sicherheit in diesem Land ist. Nicht wer am lautesten ein schnellstmöglichen  Ausstieg fordert, sondern wer am überzeugendsten den erforderlichen Umstieg gestaltet, beweist  Zukunftsverantwortung.  Allerdings werden wir prüfen müssen, wie wir den Weg ins Zeitalter erneuerbarer Energien beschleunigen können. Wenn wir damit den Sorgen der Menschen in unserem Land im Hinblick auf die Risiken der Kernenergie Rechnung tragen, so leisten wir damit zugleich einen Beitrag dazu, der zukunftsfähigen Ausgestaltung des Industriestandorts Deutschland die erforderliche gesellschaftliche Akzeptanz zu sichern.

   Für eine Festlegung von Jahreszahlen im Ausstiegsprozess ist es ebenso zu früh wie zur abschließenden Bewertung der Zukunft der inzwischen abgeschalteten älteren Meiler. Angesichts etwaiger erheblicher sicherheitstechnischer Nachrüstungserfordernisse in Folge veränderter Sicherheitsannahmen rechne ich jedoch damit, dass schon aus Gründen der Wirtschaftlichkeit zumindest eine Mehrheit von ihnen abgeschaltet bleiben wird. 

   Auf dem Weg ins Zeitalter erneuerbarer Energien sind anspruchsvolle Hürden zu überwinden. Unsere ehrgeizigen, aber notwendigen Klimaschutzziele setzen einem Ausbau von Kohle- und Gaskraftwerken Grenzen. Atomstrom aus dem Ausland wäre keine glaubwürdige Lösung. Zu einem schnelleren Ausstieg muss auch die Lösung der Endlagerfrage in einem transparenten Verfahren gehören. Wir brauchen einen Entwicklungssprung bei den Speichertechnologien und die Kraft, die Bevölkerung von neuen Stromtrassen etwa zur Anbindung von Offshore-Windparks und von Pumpspeicherwerken zu überzeugen. Hier könnte ein neuer überparteilicher Konsens Rückenwind für den Ausbau regenerativer Energien bringen. Und wir müssen die Förderschwerpunkte überprüfen. Denn überzogene Subventionen gefährden durch einen Anstieg der Strompreise Arbeitsplätze. Ein Kraftakt zur Förderung von Energieeinsparung und Energieeffizienz in den Privathaushalten würde dagegen neue Arbeitsplätze schaffen.

   Eine konsequente Energiewende sichert und schafft Arbeitsplätze, wenn wir gleichermaßen wirtschaftliche Vernunft, soziale und ökologische Verantwortung walten lassen. Gerade für die CDU als große Volkspartei ist dies eine spannende Zukunftsaufgabe. Moderne Industriepolitik, Nachhaltigkeit  und Schöpfungsverantwortung, Werben für gesellschaftliche Akzeptanz – das gehört zum Markenkern der Union.

 Der Autor ist Generalsekretär der CDU




Großbritanniens Lord Turnbull: Die wirklich unbequeme Wahrheit

Welche Komponenten hat diese Politik?

1.             Ein klarer Bezug auf die Wissenschaft, wie sie der Arbeit des IPCC zu entnehmen ist. Durch die anthropogenen CO2-Emissionen ist der Anteil des CO2 in der Atmosphäre von 280 ppm in der vorindustriellen Zeit auf heute 400 ppm gestiegen und wird sich bei dieser Rate in diesem Jahrhundert auf 550 ppm verdoppeln.

2.             Dieser Anstieg des CO2-Gehaltes ist der Hauptgrund für die Zunahme der Temperatur um 0,7°C während des vergangenen Jahrhunderts. Bei unveränderten Bedingungen wird die Temperatur während der nächsten 50 Jahre um 1 bis 1,5°C und um 3°C bis zum Ende dieses Jahrhunderts steigen.

3.             Sollte die Temperatur um mehr als 2°C steigen, wird dies eine Reihe widriger Konsequenzen haben, als da wären steigender Meeresspiegel, zunehmende Stärke von Stürmen, Ernteschäden, die Ausbreitung von Krankheiten usw.

4.             Um den Temperaturanstieg auf 2°C zu begrenzen, müssen die CO2-Emissionen halbiert werden, und weil die entwickelten Länder den Löwenanteil zum CO2-Gehalt beitragen, müssen diese ihre Emissionen um 80% reduzieren. Unter Berücksichtigung des Wirtschaftswachstums bedeutet dies, dass jede Einheit des Bruttoinlandproduktes nur etwa 5% des heutigen CO2 erzeugen darf.

Die Regierung von UK hat in den Verhandlungen zu einem Klimavertrag für diese Position geworben, aber weil es keinerlei Einigung gab (eine wirklich bindende Begrenzung scheint so ziemlich vom Tisch zu sein), hat man eigene Grenzen gesetzt.

Die Regierung von UK hat mit dem „Climate Change Act” (etwa: Gesetzentwurf zur Klimaänderung) 2008 eine mächtige Basis geschaffen. Die Eröffnungsklausel enthält bereits eine bindende Vorschrift:

 „Es ist die Pflicht des Staates (Secretary of State) sicherzustellen, dass der allgemeine Kohlenstoffausstoß im Jahre 2050 um 80% unter dem des Jahres 1990 liegt.“

Im Gesetzentwurf wird des Weiteren eine Kommission zur Klimaänderung ins Leben gerufen, deren Arbeit darin bestehen soll, 5-Jahres-Ziele festzulegen, um das letztendliche Ziel zu erreichen. Außerdem soll sie dem Parlament Bericht erstatten, ob die ergriffenen Maßnahmen wirklich zum Ziel führen.

Eine große Vielfalt von Maßnahmen wurde eingerichtet. Auf der Ebene der EU gibt es Absichten, bis 2020 den CO2-Ausstoß um 20% zu reduzieren, verbunden mit dem Angebot, im Rahmen eines internationalen Abkommens auch eine Reduzierung um 30% anzustreben, sowie eine Option, 15% der Energie aus erneuerbaren Quellen zu erzeugen. Die EU hat auch einen Zertifikatehandel eingeführt mit der Abkürzung EUETS, und will eine vorgeschriebene Quote von Biodiesel für den Verkehr einführen.

In UK wurden noch diverse andere Methoden in Kraft gesetzt.

·   Die Abgabe zur Klimaänderung; die Verpflichtung zur Reduzierung des Ausstoßes von Kohlenstoff; steigende Tarife, Ziele für die Windenergie, die Option, das CO“ aus Kohlekraftwerken abzuscheiden und unterirdisch zu lagern, und die Änderungen der Planung, die Kernkraft noch schneller durch Anderes zu ersetzen.

·   Außerdem stehen Vorschläge für eine Kohlenstoffsteuer sowie eine grüne Kampagne zur Steigerung der Energieeffizienz im Raum.  

Es wird nicht einfach nur die großen Energieverbraucher treffen, die ihren Ausstoß reduzieren müssen, sondern auch jede Firma, groß oder klein, und jeden Haushalt.

Aber es gibt da eine unbequeme Wahrheit, und es ist nicht die gleiche unbequeme Wahrheit wie aus dem Film von Al Gore. Die wirklich unbequeme Wahrheit ist, dass diese gesamte Struktur auf sehr tönernen Füßen steht.

Man kann bei dieser Agenda drei Ebenen ausmachen:

·   Erstens, die reine Wissenschaft, d. h. die Beziehung zwischen CO2 und Temperatur

·   Zweitens, die realen Folgen eines gegebenen Temperaturanstiegs bzgl. Meeresspiegel, Regenmengen, Dürren usw.   

·   Drittens, falls diese Auswirkungen zutreffen, was kann die Politik tun?

Diesen drei Ebenen entsprechen die drei Arbeitsgruppen im Aufbau des IPCC.

Was als Konsens beschrieben wird, ist in Wirklichkeit kein Konsens. Es gibt tief greifende Kontroversen auf jeder dieser drei Ebenen. Lassen Sie uns zunächst die Wissenschaft betrachten. Die Sicht des IPCC wurde mit dem Hockeyschläger dargestellt. Während der vergangenen tausend Jahre soll demnach die Temperatur nur in einem schmalen Bereich geschwankt haben, eher noch mit einer leicht abwärts gerichteten Komponente. Aber seit der Industrialisierung hat der Ausstoß von CO2 drastisch zugenommen mit der Folge eines ebenso drastischen Anstiegs der globalen Temperatur, die sog. Anthropogene Globale Erwärmung AGW.

Diese Darstellung wurde von zahlreichen Seiten in Frage gestellt:

·   Wurde der historische Temperaturverlauf richtig beschrieben? Viele Wissenschaftler glauben, dass in den späteren Berichten des IPCC die Variationen der letzten 1000 Jahre fälschlich geglättet worden waren, indem die Mittelalterliche Warmperiode (1000 bis 1350), die von der Kleinen Eiszeit (1350 bis 1850) und der daran anschließenden Wiedererwärmung der letzten 150 Jahre gefolgt wurde, unterschlagen worden sind. Diese alternative Darstellung deutet darauf hin, dass unser Klima schon lange vor den gegenwärtigen Veränderungen des CO2-Gehaltes hoch variabel gewesen ist. Die ersten Berichte des IPCC trugen diesem Umstand noch Rechnung, doch war das natürlich den AGW-Gläubigen ein Dorn im Auge, von denen einer in einer e-mail schrieb: „Wir müssen die Mittelalterliche Warmperiode los werden!“

·   Selbst die Historie der letzten 150 Jahre enthält eine Menge Probleme. Während dieser Zeit ist die globale Temperatur um 0,7°C gestiegen. Aber anders als der Anstieg des CO2-Gehaltes, der recht gleichmäßig verlaufen war, gab es hierbei markant unterschiedliche Phasen. Die Temperatur war von 1900 bis 1940 rapide gestiegen, zu einer Zeit, als der CO2-Gehalt gering war. Dem folgte ein geringer Temperaturrückgang von 1940 bis 1970, und zwar trotz der Tatsache, dass der CO2-Gehalt in dieser Zeit schon ziemlich stark angestiegen ist. Zwischen 1970 und den späten neunziger Jahren stiegen sowohl der CO2-Gehalt als auch die Temperatur deutlich, aber während der letzten 12 Jahre hatte die Temperatur auf diesem hohen Niveau verharrt [obwohl der CO2-Gehalt in gleichem Maße weiter stieg]. Falls der CO2-Gehalt wirklich so bedeutsam ist, wie die Theoretiker der AGW behaupten, warum machte die Temperatur den Anstieg des CO2-Gehaltes nicht mehr mit? Hierdurch wird immer offensichtlicher, dass man andere Faktoren ins Spiel bringen muss, besonders die Sonne und die Art und Weise, mit der Wärme in den Ozeanen gespeichert wird und verteilt ist. Daher ist völlig ungeklärt, welchen Anteil die natürlichen Treiber und welchen AGW hat.

·   Prinzipiell muss man aber nach der Klimasensitivität schauen, damit meine ich den Koeffizienten zwischen CO2 und Temperatur. Niemand bestreitet, dass das CO2 Treibhauspotential hat. Ein Kubikmeter Luft mit einem CO2-Gehalt von 550 ppm wird mehr Wärme zurückhalten als einer mit 280 ppm. Aber die meisten Wissenschaftler werden zustimmen, dass eine Verdoppelung des CO2-Gehaltes allein keinen Temperaturanstieg um 3°C oder mehr ergeben wird, wie es in den Modellrechnungen des IPCC heraus kommt. Der reine Effekt aus einer CO2-Verdoppelung liegt wahrscheinlich näher bei 1°C. Woher kommen also die höheren berechneten Werte?

·   Sie stammen aus dem Wasserdampf, von dem vermutet wird, dass der Gehalt in der Atmosphäre zunimmt, und das er ein viel stärkeres Treibhausgas ist als CO2. Eine wärmere Atmosphäre enthält mehr Wasserdampf. Aber heißt das automatisch, dass dies einen positiven, d. h. verstärkenden Effekt haben muss? Nicht notwendigerweise. Mehr Wasserdampf bedeutet auch mehr Wolken. Wolken haben eine isolierende Wirkung, reflektieren aber auch Sonnenlicht zurück in den Weltraum (Albedo). Darum ist es an wolkigen Tagen auch kühler. Der Endeffekt geht also in beide Richtungen.

·   Die Modellrechnungen des IPCC haben das starke positive Feedback vermutet, aber nicht bewiesen. Aber dieser teil der Wissenschaft wird immer noch sehr wenig verstanden.

Zusammenfassung dieses Teils der Diskussion:

·   Die globale Temperatur ist seit dem frühen 19. Jahrhundert angestiegen, jedoch viel langsamer, als der Anstieg in Zukunft ausfallen soll. Es gab eine Periode starken Anstiegs von 1970 bis zu den späten neunziger Jahren, doch ist diese Zeitspanne zu kurz, um daraus den Verlauf bis zum Ende dieses Jahrhunderts zu extrapolieren. In der ersten Dekade dieses Jahrhunderts sind wir weit hinter die Rate zurückgefallen, die eine Erwärmung um 3°C zur Folge hat, was annähernd vier mal so schnell wie die historische Rate wäre.

·    Der CO2-Gehalt ist nur während der letzten 60 Jahre signifikant gestiegen, während der Anstieg der Temperatur Fluktuationen aufweist.

Ich kann die zweite Ebene der Arbeit des IPCC sehr schnell abhandeln. Nach meiner Ansicht wurde hier die schäbigste Arbeit getan. [Es gab] eine Menge dramatischer Behauptungen über den Meeresspiegel, Eis, Ernteerträge, das Aussterben von Tier- und Pflanzenarten, festgemacht am Beispiel der Eisbären. Es hat sich gezeigt, dass vieles davon aus Material kommt, das nicht wissenschaftlich begutachtet worden war, also aus der sog. grauen Literatur. Und schlimmer noch, es stammt teilweise sogar aus Materialien, die von grünen NGO’s zur Verfügung gestellt wurden. Es gab fortwährend Rosinenpickerei (cherry picking), Übertreibungen, Überbewertung von Extrema und das Fehlen jeder Hinweise auf die positiven Auswirkungen. Im Großen und Ganzen hat die Menschheit immer von den Warmzeiten profitiert. Pflanzen wachsen schneller und nehmen mehr CO2 auf in einer Atmosphäre, die wärmer und feuchter ist sowie einen höheren CO2-Gehalt aufweist. Kälte fordert mehr Opfer als Wärme. Der Hauptgrund für die zunehmende Schadenssumme durch Wetterextreme ist das Bebauen und Bewohnen von Gebieten, die anfällig für solche Extremwetterereignisse sind. Die Befürchtungen über eine Ausbreitung von Malaria sind längst diskreditiert.

Wenden wir uns nun der dritten Ebene zu, der Politik.

·  Das erste Problem besteht darin, dass die Politik überwiegend auf der ‚warmistischen’ Sichtweise basiert. Viele, wie z. B. Ingenieure, glauben, dass der Anpassung viel zu wenig Aufmerksamkeit zukommt, d. h. besser vorbereitet zu sein auf das, wohin auch immer die Summe natürlicher Kräfte und CO2 uns führen, auf- oder abwärts. Diese warmistische Sichtweise der Welt kann erklären, warum wir auf kalte Winter so wenig vorbereitet waren, eines Phänomens, dass gut mit dem 11-jährigen solaren Zyklus korreliert, bei dem die Sonnenflecken ein extremes Minimum aufweisen.

·  Das Hauptproblem der Politik in UK liegt in der Einseitigkeit. Unser Gesetzentwurf zur Klimaänderung legt uns Pflichten auf, egal was andere Länder tun oder nicht tun. Das UK, das nur etwa 2% des weltweiten Bruttosozialproduktes produziert, hat allein nur einen minimalen Effekt auf die globale Erwärmung. Wenn wir die Dekarbonisierung zu drastisch angehen, etwa durch Anhebung des Preises für Kohlenstoff durch diverse Maßnahmen, werden wir einer doppelten Gefahr ausgesetzt. Energieintensive Industriezweige werden abwandern, und wenn die Klimapessimisten recht haben, werden wir dann immer noch den Preis für die Anpassung zahlen müssen, z. B. durch eine Verstärkung unserer Abwehr von Überflutungen. Nach meiner Ansicht sollten wir uns nur auf diese Dinge konzentrieren, die eindeutig positiv wirken und die wir nicht bedauern werden. Und davon gibt es viele. Die restliche Agenda sollten wir nur als Teil internationaler Aktivitäten verfolgen. Genau zu diesem Punkt gibt es derzeit in der EU heftigen Streit. Der Klimakommissar möchte die ambitionierteren 30% Reduktion festlegen, selbst bei Fehlen irgendeines Vertrages, und der Energiekommissar ist strikt dagegen.

Der wirtschaftlichen Logik nach müsste sich die Politik nach den Kosten pro Tonne eingesparten CO2 richten und dann den Preis der einzelnen alternativen Maßnahmen durchgehen, und zwar beginnend mit den effektivsten. Oder, was auf das Gleiche hinausläuft, man setzt einen Preis für Kohlenstoff fest und lässt den Markt entscheiden, welche der verschiedenen Technologien – Gas, Kohle mit CCS [Abscheiden von CO2], Gezeiten, Energieeffizienz usw. sich schließlich durchsetzt.

Aber die EU-Verordnung bzgl. der Erneuerbaren ist die Ablehnung dieser Logik. Einer ganz bestimmten Technologie, besonders Wind, hat man einen garantierten Marktanteil zu einem garantierten Preis eingeräumt, ohne Rücksicht darauf, wie wettbewerbsfähig dies ist. Die gegenwärtige Förderung der Windkraft ist reiner Irrsinn. Die Kosten pro kwh hierfür liegen wesentlich höher als andere Quellen mit geringem CO2-Ausstoß, wie z. B. der Kernenergie, wenn man die Verfügbarkeit und die Kosten berücksichtigt, die entstehen, wenn man das Netz auf alle Verbraucher ausdehnt. Es herrscht eine fortwährende Konfusion zwischen der installierten Kapazität der Windkraft und deren tatsächlichem Ergebnis, welches etwa 25 bis 30% der Kapazität beträgt. Dann ist da noch das Problem, dass große Kälte in UK häufig mit sehr geringer Windgeschwindigkeit einher geht.

Ursprünglich stand man in diesem Land der Kernenergie feindlich gegenüber, heute bestenfalls noch halbherzig. Der Staatssekretär beim DECC [Department of Energy and Climate Change] hat die Kernenergie als versucht, getestet und gescheitert erklärt. Es kann sein, dass die Kernkraft in UK historisch nicht so erfolgreich war wie sie hätte sein können, aber sie hat seit 50 Jahren etwa 20% unserer Energie zur Verfügung gestellt, zuverlässig, wettbewerbsfähig und sicher. Nur 20 Meilen vor unserer Küste hat Frankreich über 2/3 seines Stromes mit Kernkraftwerken erzeugt und betrachtet dies als großen Erfolg. Wir können einfach noch nicht sagen, ob man daraus generell etwas lernen kann, oder ob man 40 Jahre alte Anlagen in seismisch aktiven Gebieten betreiben kann.

Der Mechanismus der Einspeisevergütungen entwickelt sich rasch zu einem Skandal. Die Glücklichen, denen ein Haus gehört, das groß genug ist, um Solarpaneele zu montieren, oder die über genügend Land für einen Windpark verfügen, haben eine Vergütung von 30 bis 40 p (Pence) pro kwh erhalten, welche für nur 11 p gehandelt wird. Der Verlust wird ausgeglichen durch eine Abgabe auf Firmen und Haushalte. Es ist erstaunlich, dass die Liberalen, welche so immense Bedeutung auf Fairness legen, auf diesem Auge der Umverteilung von den Armen zu den Reichen blind sind, beläuft sich dies doch auf Milliarden Pfund pro Jahr. Falls Sie in einem Glashaus in Lambeth sitzen, haben Sie nicht viel Gelegenheit, Ihre Nase da hinein zu stecken.

Es gibt eine wesentliche neue Entwicklung, nämlich die Einführung neuer Bohrtechniken, die es ermöglicht, Gas aus Schiefer zu gewinnen. Dies hat die Möglichkeiten der geographischen Verfügbarkeit von Gas erheblich erweitert, zu einer massiven Erhöhung der Gasvorräte geführt sowie zu einer Loslösung des Gaspreises vom Ölpreis. Gas hat den Vorteil, dass es nur halb so viel CO2 erzeugt wie Kohle. Also stehen wir vor dem glücklichen Umstand, dass wir eine Menge Kohle durch die Verbrennung von Gas ersetzen können, womit einmal die Energiepreise, zum anderen die CO2-Emissionen deutlich reduziert werden, wenngleich dies auch nicht zu einer vollständigen Dekarbonisierung führt, wie es von manchen angedacht wird. Sicher sind die Alternativkosten der Erneuerbaren gestiegen und vielleicht auch der Preis für Kernkraft.

Eine andere Verteidigung der AGW-Agenda besteht im Argument der sog. grünen Jobs, d. h. wir sollten die Vorhut bilden, grüne Technologien einzusetzen, so dass wir die Vorteile genießen, wenn wir diese Technologie als Erste zur Verfügung stellen können. Meine Sicht der Dinge ist einfach. Wenn sich eine neue Technologie ohne massive Subventionen durchsetzen kann, sollten wir darauf bauen. Aber wenn eine Technologie nur mit Hilfe von Subventionen am Leben gehalten werden kann, improvisieren wir nur und sollten die Schaffung von Arbeitsplätzen nicht auf so tönerne Füße stellen.

Zusammenfassung bzgl. der Politik

Wir sollten uns auf die Maßnahmen konzentrieren, die wir später nicht bereuen müssen, und welche die Produktivität verbessern und nicht den Lebensstandard verschlechtern. Dazu gehört nach meiner Lesart die Entwaldung zu beenden, die Energieeffizienz unserer Häuser und unserer Fahrzeugflotte zu erhöhen (obwohl die Auswirkung einer größeren Energieeffizienz darin bestehen könnte, dass die Reduzierung des CO2-Ausstoßes begrenzt ist, weil durch billigere Energiepreise mehr verbraucht wird), Investitionen in die Kernkraft, weniger Verschwendung von Energie und, falls wir CCS-Maßnahmen durchführen und die Wirtschaftlichkeit dafür erst noch hergestellt werden muss, sollten wir eher in Gas- als in Kohlekraftwerke investieren. Das enthält auch weniger Sonnen- und Windkraft sowie ein Ende der Produktion von Biokraftstoff.

Lassen Sie mich schließen mit in paar Bemerkungen zur Soziologie und Politik des AGW-Phänomens. Erstens gibt es da eine Änderung in der Natur der Wissenschaft. Große Gestalten der Vergangenheit wie Galileo und Darwin waren keine hoch bezahlten Professoren, empfingen keine großen Forschungszuwendungen und wurden nicht mit Ehren überhäuft. Sie wurden allein durch Neugier getrieben und waren darauf vorbereitet, gegen das Establishment zu verstoßen. Heutzutage haben unsere Umweltwissenschaftler Jobs und Forschungsgelder sowie Gelder für Feiern und Reisen. Dann gab es ein peinliches Scheitern der Größen bei der Royal Society, die eigentlich der Hüter wissenschaftlicher Integrität sein sollte, getreu ihrem Motto „Nullius in verba“, d. h. niemand hat das letzte Wort. Statt dessen wurden sie zu Aktivisten, die Unsinn von sich gaben wie die Behauptung, dass die Wissenschaft sich einig sei, und die versäumt haben, die Klimagate-Affäre rigoros aufzuklären.

Es gibt derzeit viele eigennützige Interessen der grünen Agenda, seien es Unterstützer, Zulieferer der grünen Technologie oder jene, die Vorteile aus den wirtschaftlichen Möglichkeiten ziehen. Es sind nicht gerade die Zulieferer der traditionellen Technologie zur Energieerzeugung,  die Positionen haben, die es zu verteidigen gilt.

Die unkritische Anpassung an die grüne Agenda durch die Konservativen hat ihnen geholfen, durch die Blau-ist-grün-Botschaft einen Weg aus dem schlechten Image der Partei zu finden.

Es gibt einen strukturellen Fehler beim IPCC. Weit entfernt davon, aus der Arbeit von 2500 Wissenschaftlern einen Konsens zu destillieren, gibt es etwa 40 bis 50 im Zentrum, die eng zusammen arbeiten, als Kollegen, Schüler, Lehrer, Begutachter der Arbeiten des jeweils anderen. Sie haben es geschafft, eine sehr einfache AGW-Botschaft zu definieren und haben dafür gesorgt, dass alternative Stimmen zum Schweigen gebracht worden sind. Die Medien haben in ihrer Rolle als kritische Beobachter versagt und haben sich in dieses Gruppendenken eingebracht. Es blieb der Blogosphäre vorbehalten, eine Plattform für andere Standpunkte zur Verfügung zu stellen.

Woher kommt dieser religiös anmutende moralisierende Ton? Er kann zurück verfolgt werden bis zum 3. Kapitel Mose. Der Mensch wurde im garten Eden geboren in einem Zustand der Unschuld, hat dann aber seine Umwelt zerstört und muss nun dafür Buße tun und für seine Sünden zahlen.

Schlussfolgerungen:

Wir müssen erkennen, dass es schon immer Veränderungen unseres Klimas gegeben hat. Wir müssen die dafür verantwortlichen natürlichen Kräfte viel mehr in unsere Analysen einbringen, als sie daraus zu entfernen.

Wir wurden Zeuge eines Erwärmungstrends während der letzten 150 Jahre, aber diese Erwärmung verlief nicht geradlinig aufwärts. Gegenwärtig befinden wir uns auf einem Plateau. CO2 hat höchstens einen kleinen positiven Beitrag geleistet.

Unser Verständnis der Rolle des Wasserdampfes ist immer noch begrenzt und reicht nicht aus, um das Gewicht zu rechtfertigen, das wir darauf legen.

Wir brauchen eine vielschichtigere Annäherung an dieses Problem und mit Sicherheit eine gemäßigtere.

Mit den Worten von Tschechiens Präsident Klaus:

 „Es ist völlig unakzeptabel, alle Interpretationen der Klimaänderung und der globalen Erwärmung auf eine einzige Variable zu konzentrieren, CO2, und auf den kleinen Anteil davon, den das anthropogen produzierte CO2 hat“.

Von unseren Politikern brauchen wir mehr Rationalität, weniger Emotion und weniger Religiosität; und ein Ende der alarmistischen Propaganda sowie der Versuche, uns und unsere Kinder zu ängstigen. Außerdem wollen wir, dass die Politiker mehr auf unsere nationalen Interessen achten und weniger danach, globale Evangelisten zu sein.

Schließlich brauchen wir von unseren Wissenschaftlern mehr Bescheidenheit und eine Rückkehr zur Tradition wissenschaftlicher Neugier und Herausforderung. Wir brauchen mehr Offenheit und Transparenz, und sie müssen aufhören, anders Denkende auszugrenzen. Und sie müssen die wirklich unbequeme Wahrheit akzeptieren – nämlich dass unser Verständnis der Natur keinesfalls die Gewissheit rechtfertigt, mit der die AGW-Weisheiten verbreitet werden.

Andrew Turnbull,   März 2011

Lord Turnbull war Permanent Secretary des Environment Department von 1994-98; Permanent Secretary to the Treasury von 1998-2002, Cabinet Secretary und Vorsitzender des Home Civil Service 2002-05. Er ist derzeit Mitglied im House of Lords und des Board of Trustees der GWPF.

Link: http://www.thegwpf.org/opinion-pros-a-cons/2711-lord-turnbull-the-really-inconvenient-truth.html

Übersetzt von Chris Frey für EIKE




Zu Gefahren und Nutzen der Kernenergie – einige Fakten!

Was hat Fukushima gezeigt?

Konzipiert wurde das AKW für ein Erdbeben der Stärke 8.2. Ausgehalten hat es eine Stärke von 9.0, was 630% größer ist. Kein Windrad und keine Solaranlage wird wohl eine Belastung überstehen, die 6.3mal der maximal gedachten entspricht. Die Ersteren würden umfallen und ein paar Autobahnen blockieren, die Letzteren würden kurzschließen, hunderttausende  Dächer entzünden und jede Feuerwehr zur Kapitulation zwingen.

Dies hinterfragt Herr Röttgen aber nicht. Im Gegenteil, der Beweis für die Widerstandsfähigkeit eines AKW wird umgedeutet in eine Schwäche.

Die Problematik in Fukushima entstand erst durch das Zusammentreffen von zwei Katastrophen. Jede Einzelne hätte keinen Effekt gehabt. Beim Erdbeben fuhr das AKW planmäßig herunter. Da das Stromnetz zusammenbrach, hätten die Dieselgeneratoren die Kühlung gewährleistet. Der Tsunami hätte die Generatoren lahm gelegt, aber das Netz wäre noch vorhanden. Verhängnisvoll und falsch war es Rekombinatoren zu verwenden, die zum Abbau des Wasserstoffes Strom benötigen. Dies gibt es in deutschen AKWs nicht.

Was rechtfertigt diese Irrationalität?

Die inzwischen unisono Antwort der Parteien in Deutschland ist das Risiko und die Gefahr, die von AKWs ausgehen.

Eine Risikoabschätzung kann man aber objektiv mittels Daten erstellen. Diese Aufgabe hat das Paul Scherrer Institut (PSI) in der Schweiz übernommen.

In der folgenden Graphik werden die Anzahl der Toten in einer logarithmischen Skala pro erzeugte elektrische Leistung in GW und pro Jahr für die verschiedenen Energieträger abgebildet. Die Werte basieren auf der Ermittlung der Unfälle für den Zeitraum von 1969-2000. Ausgenommen davon sind die Opfer in Kohlebergwerken in China für die nur Daten von 1994-1999 zur Verfügung standen.

Auffällig sind die großen Unterschiede zwischen den Zahlen für die entwickelte Welt (EU15 & OECD) und den Nicht-OECD-Staaten.

Die einzelnen Energieträger sind Kohle, Erdöl, Erdgas, Flüssiggas, Wasserkraft und Kernenergie.

Den tausenden von Opfern bei Kohle, Öl und Gas in den OECD und EU-Staaten stehen null Tote bei der Kernenergie gegenüber. Der violette Balken repräsentiert Tschernobyl, wobei hier sogar noch eine zu große Zahl zu Grunde gelegt wurde. Laut dem neuesten UN-Bericht vom Februar 2011 gab es 28 unmittelbare Opfer. Und nicht tausende, wie das ZDF seinen Zuschauern weismacht. Als Spätfolgen gab es 6000 Patienten mit Schilddrüsenkrebs von den 15 daran starben. Dies hätte man durch die Vergabe von Jodtabletten deutlich mindern können.

Die zweite Graphik zeigt die Schadenshäufigkeit für die OECD Länder. Während die die oberen vier Kurven auf realen Daten basieren, ist die Kurve für die Kernenergie eine fiktive Abschätzung. Will man also wissen, wie groß die Häufigkeit eines Unfalls mit 10 oder mehr realen  Toten ist, so erkennt man, dass diese für Flüssiggas eine Größenordnung höher als für Kohle und Öl ist und ungefähr 1.5 Größenordnungen für Erdgas. Die fiktiven Opfer der Kernenergie liegen 4 Größenordnungen unter den realen von Flüssiggas.

Ein modifizierteres Bild ergibt sich für die Non-OECD Staaten.

Hier gibt es einen realen Punkt (Tschernobyl) für die Kernenergie, der aber mehr als 2 Größenordnungen unter der Kurve für Flüssiggas liegt. Die möglichen Spätopfer werden in den nächsten 70 Jahren zwischen 10 000 in den unmittelbar betroffenen Ländern und 33 000 in Nordeuropa abgeschätzt. In derselben Zeitspanne ist aber mit rund 650 Millionen natürlichen Krebsfällen zu rechnen, so dass es sehr schwierig sein dürfte, die Tschernobyl-bedingten Fälle statistisch nachzuweisen.

Bis auf die Grünen, die können dies.

Um dies anschaulicher zu machen, wollen wir die Werte für Deutschland ermitteln. Hierbei nehmen wir an, dass für Deutschland die EU15 Daten gültig sind. Laut BMWi wurde 2009 für die Stromerzeugung 950PJ aus Steinkohle, 1380PJ aus Braunkohle und 1740PJ aus Kernenergie verwendet. Addieren wir Stein- und Braunkohle zu 2330PJ so ergibt sich für diesen Energieträger rund 74GW/a, was multipliziert mit 0.07 (Graphik1) rund 5 reale Tote ergibt. Bei Gas würden die Zahlen über eine Größenordnung höher sein, aber da liegt keine Unterscheidung zwischen Erd- und Flüssiggas beim Ministerium vor. Für die Kernenergie ist der Wert 1470PJ, was rund 0.4% der Kohleopfer als fiktive Tote ergeben würde.

Fakt ist, dass es in den deutschen Kernkraftwerken kein Strahlenopfer gegeben hat und erst recht nicht in der Umgebung. 

Traurige Realität ist dagegen, dass laut PSI bis zu 10 000 Bergleute allein in chinesischen Gruben sterben und zwar jährlich. Dies bewegt die Besorgten nicht.

Diejenigen die meinen das AKWs immer noch nicht sicher genug sind, die seien daran erinnert, dass der erste GAU nicht in Tschernobyl stattfand sondern 1967 in Jülich. Nach dem kompletten Abschalten der Kühlung flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Der Versuch mit dem Hochtemperaturreaktor wurde noch zweimal mit dem gleichen Ergebnis wiederholt. Damals war Deutschland auf diesem Gebiet weltweit führend. Inzwischen werden diese Reaktoren woanders weiterentwickelt und gebaut.

Eine andere Alternative wäre ein Fluorid-Thorium flüssig Reaktor, dessen radioaktiver Abfall  10 000mal geringer ist und der keinen Sicherheitsbehälter benötigt, da er bei Normaldruck arbeitet. 

Was kommt nach der Kernenergie?

Aus Mangel an Alternativen kommen dafür nur Kohle- und Gaskraftwerke in Frage. Dass dies im eklatanten Widerspruch zu der bisher von Merkel, Röttgen, Roth und Co. gepriesenen alternativlosen Notwendigkeit der CO2-Reduzierung steht, ist plötzlich ohne Belang. Stattdessen wird den Bürgern vorgegaukelt das Steigerung der Energieeffizienz und erneuerbare Energien die Lücke schließen. Während das Erste vernünftig ist uns seit Jahren betrieben wird, aber physikalischen Grenzen unterliegt, ist das Zweite nicht fähig die Grundlast zu übernehmen und dazu extrem teuer. Die Prophezeiung, dass die Kosten der erneuerbaren Energien mit deren Anteil am Gesamtaufkommen sinken werden, teilt das PSI nicht. Die folgende Graphik zeigt die Kosten für die einzelnen Energieträger für das Jahr 2030 für die Schweiz.

Man sieht, dass die Kosten für die Photovoltaik immer noch exorbitant hoch sein werden, aber die für die Windenergie sinken. Letztere benötigen aber Wasserkraftspeicher, die wiederum sehr teuer sind. Die geplante vollständige Umstellung auf erneuerbare Energie in Deutschland wird zur Folge haben, dass erstens es keine Stromsicherheit mehr gibt und zweitens, dass die energieintensiven Industrien (Stahl, Beton, Chemie, Glas, Papier…) abwandern müssen, da sie nicht mehr am Markt konkurrieren können.

Fazit

Die Regierung nebst SPD und Grünen sind auf dem richtigen Holzweg. Herr Röttgen hat in seiner Katastrophenliste einen wichtigen Punkt vergessen nämlich einen Meteoriteneinschlag. Die Saurier wurden durch einen vernichtet, wenn dies mit der Menschheit geschehen sollte, muss natürlich das Containment eines AKWs überleben.

Dr. Bernd Hüttner für EIKE

Related Files




Deutsche Energiepolitik endgültig in der Sackgasse!

Die Widersprüche der bisherigen Energiepolitik

Bereits diese Politik war von Widersprüchen und von der Nichtbeachtung entscheidender Tatsachen gekennzeichnet:

Es ging immer nur um die Stromerzeugung, genau wie es die Grünen von Anfang an in ihrer ideologischen Verengung auf Kernenergie und Kohlekraftwerke postulierten und wie es die schwarz-gelbe Bundesregierung unbegreiflicherweise übernahm und fortsetzte.

Daß die weitaus größte Energiemenge in unserem Land der milden Sommer und kalten Winter in die Wärmeerzeugung fließt und die mit Absicht fernab der Ballungszentren errichteten Kern- und Kohlekraftwerke niemals mit ihrer großen  Abwärme (70 % bei Kernkraft, 60% bei Kohlestrom) über logischerweise auch fehlende Fernheiznetze zur Heizung von Wohn- und Gewerbegebäuden beitragen konnten und daß deshalb Erdgas und Heizöl in riesiger Menge importiert werden müssen: Das war nicht das Energie-Hauptthema dieser Regierung. Es gab dazu nur unattraktive Haussanierungs-Programme und Fördermittel für teure und wirtschaftlich  fragwürdige Techniken wie Wärmepumpen und Solarwärme.

Auch die größte deutsche Stromerzeugungs-Quelle Kohlekraft kommt in der Energiepolitik der Regierung nicht vor – außer in der auch in 15 Jahren nicht realisierbaren Forderung nach einer Abtrennung und unterirdischen Einlagerung von CO2. Von einem gezielten Ausbau der Kohlekraftwerke mit den neuesten Techniken, die ihren Wirkungsgrad auf über 45% steigern konnten – mit entsprechend weniger Abwärme und CO2 – und dem dann möglichen Abschalten alter, ineffizienter  Kohlekraftwerke ist keine Rede. Der Grund dafür ist wiederum Ideologie: Kohlekraftwerke hält man für "Klimakiller".  Daß allein China alle 4 Tage ein neues Kohlekraftwerk ans Netz gehen läßt und in den meisten Ländern ebenfalls massiv in neue Kohlekraftwerke investiert wird, stört die deutschen Gegner dieser neben Kernkraft einzig verbleibenden Möglichkeit der Grundlaststrom-Erzeugung keineswegs. Ohne Kernkraftstrom  wird Deutschland allerdings seine Klimaziele weit verfehlen und mit den nun notwendigen neuen Kohlekraftwerken wird sich  Frau Merkel endgültig von ihrer geliebten Rolle als Weltretterin verabschieden. Zeit also, weiteren Ballast bisheriger Überzeugungen über Bord zu werfen. Daß sie gleichzeitig  aber so dringende Warnungen wie die des führenden australischen Umweltforschers Barry Brook erhält, der soeben Deutschland dringend zum Bau neuer klimaschonender Kernkraftwerke aufforderte und statt dessen die Abschaltung aller "furchtbaren" Kohlekraftwerke verlangte,  wird sie nur weiter noch tiefer in das Gewirr unlösbarer Widersprüche ihrer Politik  stürzen.

Gestützt auf Haare sträubende Gefälligkeits-Gutachten mit wundersamen Zahlen verlegte sich die Regierung auf erneuerbare Energien, die allen Ernstes das Industrieland Deutschland künftig weit überwiegend und absolut zuverlässig, dazu noch wirtschaftlich mit Energie – natürlich wieder vor allem Strom – versorgen sollen.

Das Ignorieren aller dem entgegen stehenden Tatsachen, allem voran die extrem unzuverlässige Wetter- und Tageslicht-abhängige Stromerzeugung durch Windmühlen und Fotovoltaikanlagen bei gleichzeitiger Unmöglichkeit einer Speicherung von Überschuß-Strom und zusätzlicher Gefährdung der Netzstabilität durch zufällige Einbrüche oder Spitzenschübe des grünen Stroms zeigt überdeutlich, daß auch dieser Teil der Regierungspolitik abermals rein ideologiegesteuert ist.

Die Gefahr von Stromsperren ist keineswegs Panikmache: Der Geschäftsführer der Deutschen Energieagentur dena , Stephan Kohler, hat Mitte März in der Presse gewarnt, daß – sollten weitere fünf Reaktoren wegen interner Revisionen abgeschaltet werden – es in Teilen Deutschlands zu Blackouts kommen werde. "Da gibt es nichts zu beschönigen." Ein früherer Kernkraftausstieg könne nicht nur die Netzkapazität überfordern, er würde auch zu deutlich höheren Strompreisen führen.

Es ist auch bezeichnend, daß die Regierung erst nach 10 Jahren der von Rot-Grün begonnenen massiven Subventionierung von Windkraft und Fotovoltaik – auf Kosten der kleinen Leute, die keine eigenen Häuser besitzen – überrascht feststellte, daß man für diese wild schwankende Stromerzeugung auch Stromspeicher braucht. Woraufhin sie dann weiterhin feststellte, daß diese Speicher weitestgehend fehlen und auch überhaupt keine Techniken zur Verfügung stehen, sie zu realisieren. Man verlegte sich dann auf das Prinzip Hoffnung und Vernebelung, indem man im Prototypstadium befindliche, mit über 50 Prozent Energieverlusten behaftete und zudem unbezahlbare Speichertechniken als irgendwann verfügbar anführte. Und auf das Hoffnungs-Seekabel von Norwegen verwies, dessen Leistung leider aber nur 4 Prozent der installierten Windstromkapazität ausgleichen kann.

Daß auch die schwarz-gelbe Koalition den Subventionsirrsinn des Gesetzes für erneuerbare Energien noch zu steigern vermag, bewies sie mit dem neuen  "Einspeisemanagement" für Windstrom, das seit  Januar 2011 gilt. Netzbetreiber können nun bei einer Netzüberlastung durch  Windstrom diese Anlagen – nach deren entsprechender Umrüstung – rasch herunterfahren.  Das Unglaubliche dabei: Die Windstromerzeuger, deren Strom dann niemand braucht, haben dann Anspruch auf Ersatz für die ausgefallene Einspeisevergütung. Geld für nicht benötigten und dann auch nicht erzeugten Strom – stets von den Verbrauchern zu bezahlen. Bisher kannte man die Bezahlung von nicht erzeugten Produkten nur bei der ebenso irrwitzigen Agrarsubventionierung. Deutschland führt das jetzt auch in seinem Energiemarkt ein.

Peinlicherweise stand in den Gutachten, die den Segen der Erneuerbaren betonten, das schlimme Wort Importstrom. Dieser sollte, wenn mal wieder zu wenig Wind weht, die Stromversorgung retten. Darauf freute sich auch schon Präsident Sarkozy, der auf der Baustelle des neuen Kernkraftwerks Flamanville erklärte, daß Frankreich noch mehr  Kernkraftwerke  braucht – er erwähnte speziell den geplanten KKW-Neubau Penly – weil es in großem Stil Strom exportieren soll. Damit solle Frankreich viel Geld verdienen. An welche Abnehmer er dabei dachte, kann man sich vorstellen.

Die Bundeskanzlerin beeilte sich, dazu zu erklären, daß Stromimporte selbstverständlich nicht in Frage kämen. Aber bereits im März 2011 kam es zu beträchtlichen Stromimporten aus Frankreich und Tschechien. Das wird vermutlich zum Dauerzustand, wenn die gerade abrupt veränderte Energiepolitik Bestand behält.

In dem viel Mineralöl verschlingenden Straßenverkehr haben bisher alle  Regierungen die Chance verschlafen, konsequent die Verwendung von Erdgas voran zu treiben, wie es uns unsere Nachbarn seit Jahren erfolgreich demonstrieren.

Statt dessen fabuliert man – wiederum ideologisch korrekt – von der Elektromobilität, ein schon von der Regierung Kohl mit tollen Prognosen geschmücktes Technikmärchen, das auch heute wegen weiterhin völlig unzureichender Batterien abermals   für  mindestens zwei Jahrzehnte auf Erfüllung wartet. Christoph Huß von der VDI-Gesellschaft Fahrzeug- und Verkehrstechnik betonte, daß „wir nicht vergessen dürfen, daß die technisch-physikalischen Grenzen elektrochemischer Energiespeicher nicht durch politische Sonntagsreden außer Kraft gesetzt können.“

Ein Warnhinweis, den die Physikerin Merkel eigentlich verstehen sollte.

Dann kam Fukushima

Das katastrophale Erdbeben in Japan hat vermutlich 20.000 Tote gefordert. Die deutschen Medien aber berichten vor allem über die Beschädigung  der Atomreaktoren im Kraftwerk Fukushima – und die Regierung verfiel in hysterischen  und unglaubwürdigen Aktionismus. Hastig wurde ein Moratorium mit der vorläufigen Stillegung mehrerer Kernkraftwerke verkündet. Sachlich begründet wurde das natürlich nicht, denn niemand konnte erklären, inwiefern sich denn die bis dahin immer betonte hervorragende Sicherheitslage bei allen deutschen Kernkraftwerken durch ein Erdbeben-Tsunami-Ereignis in Japan verändert hätte.

Die Bundeskanzlerin verkündete gleich noch eine weitere Reaktion auf die Ereignisse in Japan: Man werde jetzt verstärkt die erneuerbaren Energien fördern. Da man sicher davon ausgehen kann, daß sie die Sinnlosigkeit und Gefährlichkeit des weiteren Ausbaus von Wind- und Solarstrom zusammen mit der Lebensmittel und Landschaften fressenden Biogas- und Biotreibstofferzeugung genau kennt, ist auch dieser Schwenk wiederum nichts anderes als eine panische Beschwichtigungsaktion für die Opposition und vor allem für die wutschäumenden Medien.

Dann wurde von der Kanzlerin am 22. März die Berufung eines Kernenergie-Ethik-Rats unter der Leitung von Prof. Töpfer angekündigt.  Dessen Besetzung durch allein drei Kirchenvertreter, einer Politologin, einem Philosophen, einem Soziologen, einer Wirtschaftswissenschaftlerin, zwei Politikern und keinem Energie- oder gar Kernkraftexperten – von insgesamt 13 Mitgliedern –  führt sicherlich zu fundierten Aussagen zu den von Frau Merkel dem Rat gestellten Fragen, wie die "gesellschaftliche Risikobewertung" aussieht und "wie sich ein Ausstieg aus der Atomenergie mit Augenmaß vollziehen lasse". Woran man sogleich sehen kann, daß dieser Ausstieg von der Kanzlerin bereits vor dem Vorliegen der Erkenntnisse aus der erst noch erfolgenden Sicherheitsüberprüfung beschlossen ist.

Das gewünschte Ergebnis der Ethikrats-Beratungen steht natürlich auch schon fest, da es  durch dessen überwiegende Besetzung mit kritischen Wissenschaftlern und Philosophen neben den Kirchenleuten gesichert ist.

Die politische Führung kapituliert

Die Naturkatastrophe in Japan und ihre irrationalen Konsequenzen allein in Deutschland werfen ein grelles Licht auf den Verfall der Rationalität und die rein angstgesteuerte Verhaltensweise in der politischen Kaste. Man kann von einem großen Sieg des von den Grünen perfektionierten Prinzips der systematischen Angstverbreitung in der Bevölkerung sprechen. Das entscheidende Mittel für den Erfolg dieses Prinzips sind aber die Medien, die jetzt mit ihrer Berichterstattung drastisch allen vor Augen führten, daß ihre wichtigsten Schaltstellen von Grünen und Roten besetzt sind. Auf allen Fernsehkanälen, insbesondere bei ARD und ZDF, gab es in den ersten vier Tagen ausschließlich "Experten" von Greenpeace und den Ökoinstituten Wuppertal und Darmstadt zu sehen, die ihre Chance weidlich nutzten. Dazu kamen Mediziner, die über die Wirkung einer "Verstrahlung" berichteten.

Die Angstfabrik lieferte in kürzester Zeit das gewünschte Ergebnis: Eine hilflose Regierung, die plötzlich angeblich offene Sicherheitsfragen bei den bisher doch absolut sicheren Kernkraftwerken zu klären versprach, die ihre gerade erkämpfte Laufzeitverlängerung in Frage stellte,  die eine weitere, noch stärkere Förderung der Erneuerbaren zusagte, die unter Hohn und Spott alles auf den Opferstein zu legen bereit ist, was Grüne und SPD fordern.

Seit Ende März 2011 ist diese Einschätzung keine Ironie mehr, denn der bayrische Ministerpräsident Horst Seehofer lieferte soeben die offizielle Bestätigung. Er erklärte laut dapd/rtr/rb wörtlich: "Die Tat ist jetzt entscheidend, nicht die Analyse."

Niemals zuvor hat ein führender Politiker eine derartige Bankrotterklärung abgegeben, die aber keineswegs nur für ihn gilt. Erst ohne Not und nur aus Medienangst hektisch-panisch handeln, und zwar entschlossen, und dann besser hinterher gar nicht mehr über Sinn und Nutzen der Tat nachdenken, weil das ja eigentlich wieder nur unangenehm sein würde.

Diese Worte des CSU-Vorsitzenden sollten die passende Überschrift für die neue "Energiewende" werden, die Frau Merkel ankündigt.

Dr. Ing. Günter Keil für EIKE St. Augustin,  2.4.2011

Update vom 4.4.11

Bild Deutschland holt Atomstrom aus Frankreich und Tschechien

Datenquelle: Wilfried Heck dort http://www.entsoe.net/data.aspx?IdMenu=1

Berlin – Deutschland muss wegen der Abschaltung von sieben Kernkraftwerken Strom aus dem Ausland einführen. Dabei handelt es sich hauptsächlich um Atomstrom!
Nach Angaben des europäischen Netzbetreiberverbands Entso-E importiert Deutschland seit Mitte März bis zu 6000 Megawatt* Strom, um den Bedarf zu decken. Das entspricht der Leistung von vier großen Atomkraftwerksblöcken oder rund acht Prozent des täglichen Strombedarfs Deutschlands (ca. 80.000 Megawatt).

 Voller Artikel hier

* Der Bildzeitung unterläuft -wie so vielen im Mediengeschäft- der Fehler elektrische Leistung in z.B. Megawatt und elektrischer Arbeit in z.B. Megawattstunden nicht auseinanderhalten zu können. Es müsste also hier 6000 MWh b.z.w. 80.000 MWh heißen. An der Tatsache, dass wir elektrische Arbeit in großen Mengen importieren müssen ändert das aber nichts. Mit Dank an Leser Stirnberg für den Hinweis.