1

Wie ernst der Klimawandel in deutschen Schulen genommen wird

In den USA, wo die Politiker der Republikaner sich gegenseitig mit Zweifeln an diesem Thema zu übertrumpfen versuchen (hier), kämpfen wir darum, ob man Schulkindern beibringen soll, dass der Klimawandel real ist. In Deutschland hat man die Kinder über Nachhaltigkeit und Klimawandel seit Jahren belehrt.

Und die Bemühungen dieser Indoktrination werden immer stärker.

Man nehme beispielsweise das Emmy-Noether-Gymnasium in Berlin-Köpenick. [Der Link führt auf die natürlich deutschsprachige Website der Schule, die sich ,Umweltgymnasium‘ nennt. Anm. d. Übers.] 800 SchülerInnen büffeln dort für das Abitur. Die Lehrer an dieser Schule betrachten das Thema Klimawandel als so drückend, dass sie es in praktisch alle Schulfächer integriert haben, die man sich denken kann (einschließlich, wenn dem Lehrer danach ist, im Fach Latein). In etwa einem Viertel des Englisch-Lehrbuches der 10. Klasse zum Beispiel geht es um die Bedrohungen des Planeten Erde. Das heißt, wenn Kinder die Verlaufsform im Englischen lernen, bestehen die Grammatik-Übungssätze aus solchen wie diesem hier: „Wenn wir nicht etwas gegen die globale Erwärmung tun, wird immer mehr polares Eis schmelzen“.

Genauso wie im Fach Geographie in der 11. Klasse, das sich komplett dem Thema Nachhaltigkeit widmet, schreiben die SchülerInnen Poesie über Klimawandel [dieser Begriff steht so im Original]. Mein Lieblings-Couplet stammt aus einer Ode der Schülerin XXX: „The water level rises/ The fish are in a crisis“.

Während meines Besuches befragten mich diese Schülerin und ihre Klassenkameraden über den Skeptizismus in den USA gegenüber einem Thema, das – soweit es die übrige Welt betrifft – weitgehend settled ist. Warum wurden Amerikaner nicht durch Extremwetterereignisse aufgerüttelt wie Hurrikan Sandy oder die Dürre in Kalifornien (ja, von beidem hatten sie gehört), und von denen eine Zunahme und Verstärkung prophezeit wird, falls wir nichts tun, um unsere Emissionen zu drosseln? Warum glauben wir nicht, was die Wissenschaftler uns sagen? Ich versuchte, ihnen das gigantische vokale Netzwerk konspirativer Theoretiker zu erklären, die glauben, dass 97 Prozent aller Klimawissenschaftler die Welt betrogen haben (hier) – und die sich ein Paralleluniversum der Pseudowissenschaft erschaffen haben, um ihre Aussagen zu belegen.

„Das ist doch unvorstellbar!“ rief ein anderer Schüler.

Es ist einfach, diese Reaktion als eine Einzelmeinung im Vielvölkergebiet Ostberlins abzutun, was eine Art Berkeley von Deutschland ist. Aber das von mir genannte Lehrbuch wird im ganzen Land verwendet, und noch diesen Sommer werden die Kultusminister der Bundesländer Leitlinien verabschieden, um Nachhaltigkeit zu lehren in den Fächern Englisch, Französisch, Spanisch, bildende Künste, Musik, Geschichte, Mathematik, Biologie, Chemie, Physik und sogar im Sportunterricht. Und Alexander Leicht zufolge, dem Leiter der Abteilung Education for Sustainable Development zufolge sind ähnliche Bemühungen in Entwicklungsländern im Gange wie der Dominikanischen Republik, Südafrika, Vietnam, Kenia und Mauritius.

In Frankreich ebenso wie in Deutschland waren Arbeitsgemeinschaften von Schülern zu den Themen Nachhaltigkeit und Klimawandel eine Zeitlang Teil des Lehrplanes an den meisten Schulen (teils das Ergebnis eines UN-Vertrages aus dem Jahr 1992, den die USA erst unterschrieben und dann ignoriert haben). Und da Frankreich sich auf die große UN-Klimakonferenz im Dezember vorbereitet, erkunden Bildungsfunktionäre, ob man von jeder Schule in Frankreich verlangen sollte, seine eigenen simulierten Verhandlungen im UN-Stil abzuhalten, wobei die SchülerInnen internationale Verhandlungen zu Emissionszielen durchspielen, dann lernen, was mit unserem (gemeinsamen) Planeten passiert, wenn ihre Bemühungen erfolgreich sind. Oder, vielleicht noch wahrscheinlicher, sich totlaufen.

Die amerikanische Öffentlichkeit scheint etwas weniger an jenen UN-Verfahren interessiert zu sein, geschweige denn daran, sie an Schulen durchzuspielen. Der Außenminister Frankreichs warnte kürzlich davor, dass die Gespräche nutzlos sein werden infolge der Ablehnung dieses Themas in den USA. Das scheint wohl zu stimmen, in jener Umfrage von YouGov, welche in 15 Ländern auf vier Kontinenten durchgeführt worden war, waren die Amerikaner nicht nur diejenigen, die am wahrscheinlichsten ihr Desinteresse an diesem Thema zum Ausdruck gebracht haben, sondern auch diejenigen, die am wahrscheinlichsten sagen, dass ihre Regierung schon jetzt „zu viel tut“, um den Klimawandel aufzuhalten.

Welche aufdringlichen Regierungs-Interventionen könnten diese Amerikaner dazu bringen, sich mehr des Themas anzunehmen? Das, meine lieben Freunde, bleibt unvorstellbar.

Link: http://www.washingtonpost.com/opinions/taking-climate-change-seriously-in-school-in-germany/2015/06/08/bb43fb4c-0e00-11e5-9726-49d6fa26a8c6_story.html

Kommentar des Übersetzers zu diesem Beitrag:

Schamlose Indoktrination von Kindern

Als ich auf diesen Link gestoßen bin, wollte ich erst meinen Augen nicht trauen. Wer mich kennt und weiß, wie viele Kinder ich ehrenamtlich betreue und betreut habe, wird sich nicht wundern, dass rasch erst Entsetzen, dann ohnmächtige Wut und große Traurigkeit kamen, in dieser Reihenfolge.

Der Beitrag ist aus der Sicht einer amerikanischen Journalistin geschrieben, die als Meinungs-Kolumnistin bei der Washington Post arbeitet. Sie schreibt über alle Themen, nicht nur Klima. Man klicke oben auf ihren Namen, um mehr zu erfahren.

Ich weiß nicht, ob die genannte Schule in Berlin-Köpenick ein besonders krasser Ausnahmefall ist; das geht aus dem Beitrag nicht hervor. Aber die einzige Schule wird es wohl nicht sein.

Die Art und Weise, mit der Kinder und Jugendliche an dieser Schule auf allen Ebenen indoktriniert werden, ist ein Skandal ohnegleichen und dazu angetan, eine gesamte Generation, die doch unsere Zukunft ist, zu versauen (man verzeihe mir den vulgären Ausdruck).

Indoktrination von Kindern wird von den UN als „Verbrechen gegen die Menschheit“ gelistet. Genau dessen macht sich diese Schule schuldig, und mit ihr die gesamte Meute unserer Politiker und auch der Medien. Alle scheinen einhellig diesem Verbrechen auch noch zu huldigen. Eine ähnliche umfassende Indoktrination (mit den bekannten verheerenden Folgen) ist mir nur aus der ersten Hälfte des vorigen Jahrhunderts bekannt.

Ich appelliere DRINGEND an Politiker und Entscheidungsträger: Hören Sie mit diesem Unsinn auf!

Ich appelliere NOCH DRINGENDER an Medien und linientreue Trittbrettfahrer: Hören sie mit dieser Heuchelei, mit dem Leugnen sowie dem Diffamieren und Verunglimpfen derjenigen auf, die nichts weiter tun als klare, bewiesene Fakten zu nennen! Was ist das für ein System, in dem man die Wahrheit ohne Furcht vor Repressalien nicht mehr nennen darf?

Dass ich davon nur aus einer amerikanischen Quelle erfahre, ist da nur noch wie ein Sahnetupfer auf einem stinkenden Misthaufen.

Chris Frey

Anmerkung der Redaktion

Diese kriminelle Indoktrination geht auf breiter Front weiter-

Hier finden Sie einen Bericht von 3Sat  zur „Kids Climate Conference“: Die deutsche „Kids Climate Conference“ informiert Kinder in verschiedenen Workshops über den Klimawandel und nachhaltigen Konsum.

Hier schreibt ein Leser in seiner Empörung zu Auszügen daraus

Hier einige interessante Stellen (Empfehlungen): (die auch allzu oft im Hinblick auf den 1. und 2. Hauptsatz der Thermodynamik so falsch sind.

1. Ab 3:28 behauptet der Schüler mit der Cappy „das zuviel CO2 Ausstoß das Klima erwärmt“ (…):

Des weiteren lohnt sich der Blick auf das „plakative CO2 Plakat“ (im doppeldeutigen Sinne): Alles brennt und alles ist schwarz… so sieht plakativ die Industrie aus? Weiter noch „CO2 entsteht in vielen Prozessen die Energie benötigen“ Sollen wir ab sofort die Industrie komplett abschaffen??? Und was wird dann aus der Zukunft der Kinder? An der Stelle macht sich niemand die Mühe die andere Seite zu beleuchten?

2. Ab 3:48 wird das ganz schön mies: Was soll die bloße Umrechnerei in Kohleeinheiten..? „Kohleeinheiten, die die Kinder erfahren können“ wird als Worthülse ausgesagt und in Verbindung gebracht zu ihren Spielzeugen auf die sie Verzichten sollen (als CO2 Rucksack bezeichnet) und das ganze nur um den Kindern Angst zu machen? …

3. Ab 5:18 „…Wärme konservieren…“: … und weiter:

„Häuser die fossile Energieträger, Öl, Gas oder Kohle [in  privaten Haushalten] verbrennen tragen 40% zur CO2 Bilanz bei“? (totaler Quatsch, ausgenommen die anderen zahlreichen Beispiele dazu!!).

4.Zuletzt sollen aus den 500 Vorschlägen der Kinder zwei ausgesucht werden, die dann den verantwortlichen Politikern vorgelegt werden sollen. ^^




Das beste Investment in erneuerbare Energie: Nicht investieren!

[Zwischenbemerkung des Übersetzers: In Deutschland wird das wohl ähnlich sein, wenn nicht noch schlimmer – nur darf man das hierzulande nicht laut sagen, ohne gleich verbal lebendig verbrannt zu werden. In den USA kann man das, darum habe ich diesen Beitrag hier übersetzt. – Chris Frey]

Die 99% subventionieren Solar für die 1%, die es nutzen.

Wenn Ihnen eine Schlagzeile unter die Augen kommt wie von CNBC „das erstaunliche Wachstum von Solarenergie“, dann denken Sie daran, dass das nur dank Ihrer Unterstützung möglich war – selbst wenn Sie nie daran gedacht haben, Solarpaneele auf das Dach Ihres Hauses zu pappen; oder wenn Sie in einer Mietskaserne wohnen, wo Sie so etwas niemals installieren könnten, selbst wenn Sie wollten. Falls Sie in den USA leben, abstimmen, Steuern zahlen und Ihrem Strom von einem Versorgungsunternehmen beziehen, haben Sie der Solarindustrie geholfen. Sie unterstützen die Solarindustrie mittels einer Vielfalt von Steuer- und anderen Vorschriften – eingeführt von den Politikern, die Sie gewählt haben – die diese Energie den anderen, viel billiger Strom erzeugenden Quellen vorziehen.

Die CNBC-Story vom Dezember 2014, in der behauptet wird, dass die „Erzeugung in den USA in diesem Jahr um 100% gewachsen ist“, anerkennt die Wahrheit meines Postulats. „Vier wesentliche Faktoren haben den Solarboom ermöglicht“, heißt es in dem Artikel. Danach werden sie aufgelistet (Anmerkung dazu: Nur eine davon ist das Ergebnis freier Märkte, die anderen drei sind abhängig von der Politik der Regierung):

● Die Erhöhung des Investment Tax Credit für erneuerbare Energie,

● Staatliche Renewable Portfolio Standards.

● Die Pro-Solar-Politik der Obama-Administration einschließlich wohlgesonnener Umweltgutachten, Einkommensgarantien in Gestalt von Steuernachlässsen und garantierter Darlehen, und

● die rasante Talfahrt des Preises für PV.

Mit derartig begünstigenden Bedingungen könnte Solar wie eine garantiert nicht scheiternde Investition aussehen – was genau das ist, worauf Sunrun hofft mit seinem neuen initialen öffentlichen Angebot (IPO; hier) und erwartet, etwa 100 Millionen Dollar einzutreiben. Schließlich heißt es in einem Bericht des Wall Street Journal (WSJ) zum IPO von Sunrun: „Anteile haben sich seit dem IPO im Jahre 2012 mehr als versechsfacht“.

Allerdings wäre es klug, vor der Investition einen Blick auf die wechselhafte Natur der Politik zu schauen. Tim Snyder, Präsident von Agri-Energy Solutions Inc. sagte mir: „Ich habe Jahre damit verbracht, Äthanol und Biodiesel zu entwickeln. Das war zu einer Zeit, als jeder darin investieren wollte. In guten Zeiten kann man eine Amortisation der Investitionen innerhalb von zwei Jahren erwarten mit in den Himmel schießenden Rücklaufraten. Alles, was nötig war, um das Interesse der Investoren abzuwürgen war, dass die Regierung dem standardgemäßen, auf Mais basierenden Äthanol-Kraftwerk den Rücken zukehrte.

Snyder fügte hinzu: „Die Landschaft ist gepflastert mit den Hinterlassenschaften von Investoren, die gedacht hatten, in eine neue Energiewelle für die Zukunft zu investieren, nämlich in Äthanol und Biodiesel. Stattdessen mussten sie hinnehmen, dass ihre Hoffnungen und ihr Geld geraubt worden sind durch eine sehr widersprüchliche Energiepolitik. Es ist einfach nicht sicher, sein Geld ohne einen realen und umfassenden Plan zu investieren, und die Regierung hat keinen solchen Plan. Man erinnere sich an das alte Sprichwort ,Die Regierung gibt, und die Regierung nimmt weg’“.

Wie das WSJ zusammenfasst: „Sunrun installiert Solarpaneele auf den Häusern der Bürger entweder ohne Vorauszahlungen oder zu geringen Kosten. Sunrun gehören die Solarpaneele, und sie kassiert monatliche Zahlungen von den Hausbesitzern für die Energie, die diese Anlagen erzeugen. Sunrun erhält auch regierungsamtliche Steueranreize, um deren Kosten abzudecken“.

Arbeitet man sich durch die 234 Seiten starke, am 25. Juni bei der Securities And Exchange Commission eingereichte Broschüre form S-1 von Sunrun, wird sehr klar, dass der Erfolg von Sunrun in Vergangenheit und Zukunft in den Händen der Politik der Regierung liegt. Das von der Regierung abhängige Wachstum ist der Grund, warum man dort auf Seite 104 unter der Überschrift „Government Regulation“ liest, dass sich Sunrun verpflichtet, ein „Team in der Politik [policy team] zu unterstützen, das sich auf grundlegende regulatorische und gesetzgeberische Themen unserer gesamten Industrie konzentriert“. Der Terminus „Policy team“ ist euphemistisch, sind doch damit Lobbyisten gemeint, deren einzige Aufgabe es ist sicherzustellen, dass die Politik seinem Geschäftsmodell positiv gegenüber steht. In S-1 heißt es dazu erklärend: „Wir planen, weiterhin in unser Team zu investieren, um am Dialog teilzuhaben und ein politisches Rahmenkonstrukt voranzutreiben, das sich vorteilhaft auswirkt“.

Aber wie „vorteilhaft“ ist das „politische Rahmenkonstrukt“? Die Antwort findet sich ein paar Absätze weiter unten: „Diese Anreize versetzen uns in die Lage, den Preis, den wir von den Hausbesitzern für Solarenergie und das Leasing dieser Energiesysteme verlangen, zu senken. Dies hilft uns, Solarenergie als eine Alternative zu Energie aus Kraftwerken akzeptabler zu machen“.

Unter der Überschrift [übersetzt] „Politik und Anreize“ umreißt das S-1 auf Seite 89 die drei spezifischen „föderalen, staatlichen und lokalen politischen Maßnahmen“, die „starke Faktoren waren bei der Beeinflussung des Marktes hinsichtlich der verteilten Solarenergie“. Dabei handelt es sich um den Federal Investment Tax Credit (ITC), Nettomessungen [net metering; ?], Solar Renewable Energy Credits und andere „staatliche Anreize“.

Im S-1 wird festgestellt: „Steueranreize haben das Wachstum bei der Installation von Solarenergie-Systemen in den USA beschleunigt“. Unter der heutigen Politik können Unternehmen und Hausbesitzer, die ein Solarsystem installieren, einen Steuervorteil erhalten, der bis zu 30% der Systemkosten ausmacht – obwohl geplant ist, diesen auf 10% zu drosseln ab dem 1. Januar 2017. In Fettdruck heißt es auf Seite 18: „Unser Geschäft basiert gegenwärtig auf der Verfügbarkeit von Unternehmensrabatten, Steuervorteilen und anderen finanziellen Anreizen zusätzlich zu anderen Steuernachlässen. Das Auslaufen, die Eliminierung oder Reduktion dieser Rabatte und Anreize könnte unser Geschäft sehr nachteilig beeinflussen“. Die Verlängerung/Ausweitung des ITC ist wahrscheinlich oberste Priorität des „Politik-Teams“. Alle US-Steuerzahler zahlen folglich für das „erstaunliche Wachstum“ von Solar.

Net Metering ist im Wesentlichen ein „Unternehmensrabatt“, der laut Seite 18 den „Hausbesitzern einen eins-zu-eins Kundekredit bietet innerhalb der monatlichen Rechnungslegung für Strom, den das Solarsystem in das Stromnetz einspeist“. Interessanterweise sind die einzigen Staaten, in den Sunrun operiert, jene Staaten, die die „Net Metering-Politik“ übernommen haben. In S-1 von Sunrun wird eingeräumt, dass man „abhängig ist von einer Net Metering-Politik, um den Hausbesitzern wettbewerbsfähige Preise anzubieten“ und dass „Änderungen dieser Politik die Nachfrage nach Strom von unseren Solar-Serviceangeboten deutlich reduzieren“. Weiterhin werden vorgeschlagene Änderungen und/oder Deckelungen angesprochen dergestalt, dass die Hausbesitzer bei eventuellen Änderungen „die Kostenersparnisse nicht mehr werden erkennen können“. Und: Staaten, die keine begünstigende Net Metering-Politik betreiben, „würden eine Barriere vor dem Zugang errichten“.

Es ist diese Net Metering-Politik, die die Kosten für das „erstaunliche Wachstum“ von Solar auf die Schultern aller Stromkosten-Zahler umgelegt hat. Wie es in S-1 heißt, bekommen Hausbesitzer „einen vollen eins-zu-eins Konsumentenkredit“ für den vom System erzeugten Strom. Was nicht erklärt wird ist, dass die Politik von den Unternehmen verlangt, die Verkaufsrate für Strom zu bezahlen, ob das nun gebraucht wird oder nicht [Original: What it doesn’t make clear is that the policy requires the utility to pay the retail rate for electricity whether it needs it or not], selbst dann, wenn man billigere Energie aus konventionellen Quellen beziehen kann. Als Folge verschwendet das Unternehmen Geld und operiert nicht effizient, muss doch ein Unternehmen profitabel sein. Dieser Verlust ist eine Folge der Regierungspolitik und nicht von schlechtem Management. Daher muss das Unternehmen, um im Geschäft zu bleiben, die Stromtarife für alle seine Kunden erhöhen, so dass die Wenigen daraus Vorteile ziehen können. Auf Seite 88 heißt es: „Solar bei Bürgern beträgt inzwischen 1% der 83 Millionen Einfamilienhäuser in den USA“.

Viele Staaten überdenken inzwischen die großzügige Net Metering-Politik, die vor einem Jahrzehnt eingeführt wurde, als die Übernahme von Solar unbedeutend war. In Arizona, wo der Solaranteil inzwischen der Zweithöchste in den USA ist, zahlen neue Solarsysteme installierende Hausbesitzer eine Abgabe, um sich „in das Stromnetz des Public Service von Arizona einzuklicken“. Solarverbraucher müssen sich in das Netz einklicken. Auf Seite 99 wird erklärt: „Der Energieverbrauch des Hauses wird von dem Solarenergiesystem übernommen mit allem zusätzlichen Bedarf, der von lokalen Unternehmen gedeckt wird“.

Tucson Electronic Power möchte dazu übergehen, dass die Hausbesitzer nicht mehr den vollen Preis für den überschüssigen Strom erhalten, den sie an das Netz verkaufen – was der Zeitung Arizona Republic zufolge „bedeuten kann, dass Solarenergie nicht länger ein gutes Geschäft für Hausbesitzer ist“.

Louisiana schränkt seine großzügigen Solar-Steuernachlässe ein, und zwar mit einem Gesetz, das am 19.Juni in Kraft getreten ist. Die Zeitung The Advocate berichtet: „Während des jüngst angeschobenen Gesetzesverfahrens hat man Ausgaben für Solar bei etwa 20 Millionen Dollar im nächsten Jahr gedeckelt. Außerdem wurden stärkere Kontrollen bzgl. Betrugs eingeführt“.

Unter Verweis auf einen Bericht der GTM-Forschung vom März warnt das WSJ: „Eine Anzahl neuer staatlicher Gesetze könnte die Preisabschätzung von Hausbesitzern bzgl. Solar beeinflussen, und zwar wegen Änderungen der Subventionen und der Stromkosten“.

Angesichts all der Behauptungen, dass die erneuerbare Energie Kostenparität mit konventioneller Energie erreicht, muss man sehen, dass diese Schlagzeile nur halb genau ist, weil die Vorschriften der Regierung die Kosten konventioneller Energie nach oben treiben, während Strom- und Steuerzahler die Kosten für Erneuerbare tragen.

Da ist es ein einsames Erlebnis, die Solarindustrie einzuräumen sehen (Seite 18), dass „jede dieser Änderungen die Nachfrage nach unseren Produkten materiell reduzieren kann. Die Anzahl der Märkte, in denen unsere Produkte wettbewerbsfähig sind mit von Unternehmen geliefertem Strom sind limitiert“. Und Sunrun stellt fest: „Wir konzentrieren unsere Ressourcen auf Märkte mit hohen Stromkosten, günstigen politischen Rahmenbedingungen und andere Charakteristiken, die uns geringe operationelle Kosten auferlegen“.

Wenn Sie es leid sind, dass Ihre Steuerdollars Ihre Strompreise in die Höhe treiben, wovon das 1% profitiert, während die 99% doppelt zahlen, ist alles, was Sie tun können, sich entsprechend bei der nächsten Wahl zu verhalten.

[Tja, wenn es denn in D eine Alternative gäbe! Die einzige politische Kraft, die sich die Abschaffung unseres EEG offiziell auf die Fahnen geschrieben hatte, hat sich gerade selbst zerlegt. Anders als in den USA gibt es also bei uns keine Auswahlmöglichkeit! – Anm. d. Übers.]

Link: http://www.cfact.org/2015/07/07/the-best-renewable-energy-investment/

Übersetzt von Chris Frey EIKE




Klimawandel: Wissenschaftler warnen skeptische Abgeordnete vor der Untersuchung von Beweisen des menschlichen Einflusses

Der Brief wurde von Professor Ove Hoegh-Guldberg, University of Queensland Global Change Institute [1] [2] geschickt und von 12 anderen, darunter Professor Will Steffen von der Australian National University und Professor Lesley Hughes von der Macquarie University – unterzeichnet.

Dr. Jensen und Chris Back unterstützten einen Antrag auf der Ratssitzung der Bundesliberalen im vergangenen Monat, die eine parlamentarische Untersuchung aufrufen, um die Beweise für den Klimawandel zu prüfen, bevor die Regierung die Emissionsziele bis 2020 unterschreibt. Der Antrag wurde schließlich an den politischen Ausschuss der Partei gegeben, um einer möglicherweise schädlichen öffentlichen Debatte auszuweichen.

Die Bundesregierung erwartet, ihre Emissionsziele für die Zeit nach 2020 vor dem 20. Juli bekannt zu geben.

Obwohl der Antrag an einen Ausschuss überwiesen wurde, sagten die 13 Wissenschaftler, dass sie eine Zusammenfassung des jüngsten IPCC Berichtes verteilen wollten, um skeptische Abgeordnete von dem dringenden Handlungsbedarf zu überzeugen.

"[Der IPCC] spricht über die Tatsache, dass wir sehr ernste Auswirkungen erleben werden, wenn die globale Durchschnittstemperatur über 2 Grad Celsius ansteigt“ sagte Professor Hoegh-Guldberg. "Wir werden Auswirkungen auf die Ökosysteme sehen, wir werden Auswirkungen auf die Fischerei sehen, wir werden Auswirkungen auf die Landwirtschaft sehen und wir werden Auswirkungen auf die Menschen und die Gesundheit und so weiter sehen." [3]

Dr. Jensen: Die im UN-Bericht enthaltenen Modelle „übertreiben“ den Erwärmungstrend

Dr. Jensen, [Mitglied des Parlaments] ein ausgebildeter Physiker, zweifelt einige Modelle und Vorhersagen des IPCC an – vor allem über die globale Temperatur.

"Die Modelle haben sich tatsächlich als recht mies in Bezug auf die Vorhersage von globalen Durchschnittstemperatur-Trends erwiesen. Zum Beispiel in den letzten fünfzehn Jahren ist die globale Durchschnittstemperatur nicht gestiegen, etwas was die Mehrheit der Modelle nicht projiziert. Mehr als 97 Prozent der Modelle, die in die technischen Berichte des IPCC einflossen, haben entweder übertrieben oder den erwarteten Erwärmungstrend deutlich überschätzt."

 

Quelle: WUWT, Eric Worral, 07.Juli 2015, s.u.

Aber Professor Hoegh-Guldberg sagte, das sei eine kurzfristige Perspektive:

"Wenn man sich die Literatur ansieht, gab es keine Pause. Es gibt eine zufällige Variabilität um das Aufwärtssignal der Temperatur. Es ist wie beim Aktienmarkt. Man sieht, dass es auf und ab geht, aber es wird einen Trend haben – dieser Trend ist das, was wir beobachten. [Es macht] nichts, ob es über einen Zeitraum von 10 Jahren nach oben oder unten geht – es ist ein langfristiges Signal."

Mindestens 10 Abgeordnete teilen die skeptischen Ansichten [von Dr.] Jensen.

Dr. Jensen sagte, er sei nicht allein innerhalb der Partei und dass es "mindestens" 10 Abgeordnete gibt, die seine Ansicht teilen, dass die Regierung Emissionsreduktionen nicht unterzeichnen sollte, ohne eine parlamentarische Untersuchung.

Er und Chris Back würden die Information akzeptieren, würden aber nicht belehrt werden wollen.

"Als eine Person mit wissenschaftlichem Hintergrund, bin ich immer interessiert, die Ansichten einer Reihe von Menschen über das gesamte Spektrum zu hören. Insofern bin ich glücklich, mich mit ihnen zu treffen – aber ich hoffe, dass sie den Wunsch verstehen, umfassendere Beratung einzuholen ", sagte Chris Back.

"Ich würde von Ihnen erwarten, dass sie als Wissenschaftler erkennen, dass eine Person wie ich sich weiterhin einer breiten Palette von Perspektiven zu allen Aspekten bedient. Es ist von zentraler Bedeutung für die Wissenschaft."

Professor Hoegh-Guldberg sagte: „Es wäre wichtig “Experten“ zu hören, jeder hat eine Meinung, aber das ist nicht Wissenschaft“.

Erschienen auf ABC Net News am 07.Juli 2015

Übersetzt durch Andreas Demmig

http://www.abc.net.au/news/2015-07-07/scientists-warn-climate-sceptic-mps-not-to-waste-time-on-inquiry/6599754

Hinweis: Ursprünglich kam ich durch WUWT auf dieses Thema, wo dieser Bericht in kurzer Form erschien, am 07.Juli 2015, Autor Eric Worrall, der Textpassagen nahezu wörtlich übernommen hatte. Er fügte aber obige Grafik hinzu.

http://wattsupwiththat.com/2015/07/07/aussie-climate-scientists-please-dont-examine-our-work/

[1] Professor Ove Hoegh-Guldberg wird in seiner Biographie als „deeply-motivated“ beschrieben, die dringendsten und ernsthaftesten Herausforderungen für die Menschheit weltweit anzugehen, darunter Klimawandel und saubere Energie [der Übersetzer]

[2] Für Antony Watts ist Professor Ove Hoegh-Guldberg ebenfalls kein unbeschriebenes Blatt.

Er störte einen Auftritt von Watts in Brisbaine, Oz report – Footy at least has rules, [Wortspiel Oz = Märchen: die fantastische Welt von Oz – wenigstens Fußball hat Regeln].

Auf dieser Vortragsreise von Antony Watts durch Australien muss es „Heiß hergegangen sein“. Hier dazu ein kurzer Ausschnitt der Beschreibung des Auftritts von Professor Hoegh-Guldberg:

Das Seltsame ist, wenn Professor Ove Hoegh-Guldberg einfach zu Beginn darum gebeten hätte, eine Erklärung abzugeben (wie es ein professioneller Wissenschaftler normalerweise tut), hätte Professor Carter (der den Vorsitz der Sitzung führt) es gerne so getan, und ich hätte meine Zustimmung gegeben, auch wenn er mich und Dr. Carter bereits im Voraus "Lügner" genannt hatte. Er hatte noch nicht einmal die Präsentation gesehen. Sein Verhalten und konstante Entführung des Mikrofons irritierte mich schließlich genug, um rufen "Hey, gehen Sie und mieten Sie sich Ihre eigene Halle!". Ove ignorierte mich und fuhr fort.

Antony Watts

[3] Gegenstellungnahme zu den Thesen von Professor Ove Hoegh-Guldberg: Complaints against Professor Ove Hoegh-Guldberg [Klagen über Prof….]




Deutschlands Traum von Windkraft wird ein andauernder Alptraum

Die Deutschen forcierten Windkraft härter und schneller als alle anderen – und die Rache folgt in den Kosten dafür. Die Zuschüsse wurden kolossal, die Auswirkungen auf den Strommarkt chaotisch und – im Gegensatz zum Umwelt Zweck der Politik – steigen die CO2-Emissionen schneller: Wenn "Rettet den Planeten“ – wie uns immer wieder gesagt wird – die Verringerung der von Menschen verursachten Emissionen eines geruchlosen, farblosen und natürlich vorkommenden Spurengas ist, welches für alles Leben auf der Erde essential ist – dann ist die deutsche Energie- / Umweltpolitik offensichtlich gescheitert (siehe unseren Beitrag hier [übersetzter Titel: Lehren aus Deutschlands Windkraft Desaster).

Rund 800.000 deutsche Haushalte wurden vom Netz getrennt – Opfer von dem, was euphemistisch als "Energiearmut" bezeichnet wird. Als Reaktion darauf haben Deutsche ihre Äxte gegriffen und ihre Wälder durchstreift, um das Gefühl der Sicherheit ihrer Energieversorgung zu verbessern [Holz zum Heizen und Kochen, der Übersetzer] – obwohl Förster offenbar der Ansicht sind, dass diese Selbsthilfe-Maßnahmen nichts anderes als eklatanter Holzdiebstahl sind (siehe unseren Beitrag hier) [übersetzter Titel: Kosten für Wind schickt Deutschland zurück in die Steinzeit]

Deutsche Hersteller – und andere energieintensive Branchen – die mit steigenden Energiekosten konfrontiert sind, orientieren sich in Richtung USA – wo die Strompreise nur 1/3 der in Deutschland sind (siehe unsere Beiträge hier und hier und hier). Und der "grüne" Traum von Tausenden von Arbeitsplätzen in der Windindustrie ist genau das geworden: nur ein Traum (siehe unseren Beitrag hier).

Als Reaktion auf das Ansteigen gesundheitlicher Beschwerden haben deutsche Mediziner einen endgültigen Stopp des Baus von Windparks genannt, um ihre Mitbürger zu schützen; und zur Abwendung medizinischer Kunstfehler:

German Medicos Demand Moratorium on New Wind Farms

[Beitrag STT: Deutsche Mediziner fordern Moratorium für neue Windparks]

Nun, abgesehen von unnötigen Schäden durch Windparks, werden die Deutschen durch unangreifbare Fakten geweckt, dass Windenergie [und Photovoltaik – der Übersetzer] nicht nur wahnsinnig teuer ist, sie ist auch völlig sinnlos als Energiequelle. Hier ein paar der letzten Stücke aus Deutschland, Details aus dem Umfang der Katastrophe und der brodelnden Feindschaft gegen Windenergie.


Der Wahnsinn von Deutschlands Energiesozialismus

Deutschlands Energierevolution wird mehr und mehr absurder. Nach Kernkraft und Gas, ist es nun Kohleenergie die abgeschafft werden soll. Der Wahnsinn erreicht neue Dimensionen.

Wolfram Weimer, Handelsblatt, 1.Mai 2015

[Recherche des Übersetzers:

Der Direktzugriff des Links funktioniert nicht (?). Daher „Handelsblatt Archiv 1.Mai 2015, dann nach unten scrollen: What´s Right? Mehr Erhard wagen anklicken, dann in diesem Beitrag Seite 2 anklicken: Einmal ordentlich durchlüften bitte]

Vor dreißig Jahren wäre er sicherlich als "Master Architekt des Sozialismus" oder "Chef Aktivist der sozialistischen Arbeit" ausgezeichnet worden – östlich der Elbe. Sigmar Gabriel wird alles tun, um wieder eine umfassende Planwirtschaft in Deutschland zu re-etablieren: die grüne Energiewende stößt das Tor zum Energie Sozialismus weit auf.

Sein neuester Coup: Der deutsche Steinkohlenbergbau soll einem nationalen Klimaregime unterworfen werden und sieht bürokratische CO2-Tonnen Planung und willkürliche Sonderabgaben vor. Die deutsche Wirtschaft, die Kohleländer Nordrhein-Westfalen und Brandenburg, und die Gewerkschaften laufen Sturm. Verdi-Chef Frank Bsirske sieht bis zu 100.000 Arbeitsplätze in Gefahr und ruft zu Massen-demonstrationen auf. Der unglückliche RWE-Chef Peter Terium warnt verzweifelt: "Die Abgabe würde die sofortige Einstellung für einen Großteil der Braunkohlegruben und Kohlekraftwerke bedeuten." Und der Christdemokrat Armin Laschet warnt: "Mit seiner speziellen Steuer auf Kohle löscht der Minister für Wirtschaft die letzte subventionsfreie, wirtschaftliche und Import-unabhängige inländische Energiequelle aus dem deutschen Strommarkt".

In der Tat ist der neue Kohle-Plan nur ein weiterer Schritt im großen sozialistischen Masterplan, mit dem Sigmar Gabriel ganz Deutschland überrollt. Schon eine ganze Republik von Ökostrom Räten etabliert bestimmte Plan-Preise für Solar- und Wind. Die Kameraden produzieren beliebige Mengen an Energie, die Bevölkerung zahlt Zwangsabgaben, Angebot und Nachfrage sind ausgesetzt und Parteipolitik bestimmt die Zahlen zur Planerfüllung. In diesem Öko-Sozialismus, erhält jeder, der Strom aus erneuerbaren Quellen produziert, eine national festgelegte "Energie Einspeisevergütung" (das Wort klingt, als ob es aus Ost-Berlin kommt). Das hat so viel mit freien Marktpreisen für Strom zu tun, wie [damals] Stasi-Chef Erich Mielke mit der Reisefreiheit – nichts.

Was einst als eine ins Leben gerufene – gut gemeinte – grüne Energierevolution begann, hat sich zu einem riesigen VEB mutiert [dh. DDR-Staatsunternehmen]. In Gabriels System ist Stromerzeugung nicht mehr durch die Nachfrage bestimmt – wie in der Marktwirtschaft üblich – Es sind die Subventions Milliarden. Produziert wird was die Einspeisetarife für Wind- und Solarenergie teuer ermöglichen, nicht, was die Öffentlichkeit und die Wirtschaft benötigt – billige Energie. Im nationalen Energiesystems Gabriels gibt es eine ideologische Unterscheidung zwischen "guter" (grün) und "böser" (traditionell) Energie. Daher werden auch profitable Gaskraftwerke abgeschaltet – wie zufällig das modernste Gaskraftwerk Europas in Irsching. Stattdessen werden neue Förderprojekte an das Netz gebunden, ohne die erforderliche Netzwerkkapazität und ohne die notwendige Speichertechnologie. Für diese intermittierenden Kraftwerke haben Kohlekraftwerke als Backups zu laufen, die damit wiederum viel mehr CO2 emittieren, was nun auch noch extra besteuert wird. Es fühlt sich an wie ein sozialistischer Selbstläufer: Diese Energiewende kann nicht gestoppt werden.

Umweltzerstörung

Die Öko-Garantiepreise führen bereits zu allerlei klassischen Merkmalen der Planwirtschaft, die alle von den Sowjetblock Volkswirtschaften gut bekannt sind: Unrentable Überkapazitäten, zum Beispiel. Inzwischen wurden 1,4 Millionen Photovoltaik-Module im eher schattigen Deutschland installiert.

Kein anderes Land der Welt hat ein so gewaltiges und gänzlich unrentables Kontingent aufgebaut. Mit rund 25.000 Windenergieanlagen sowie Tausenden von Biogasanlagen sind wir Weltmarktführer [in Deutschland]. Wie in den Fünfjahresplänen der sozialistischen Deutschen Demokratischen Republik sind Quoten, Mengen und Zeitziele von zentralen Ministerien vorgeschrieben.

Die neue Öko-Planwirtschaft verschlingt riesige Subventionen in Milliardenhöhe, nicht weniger als 22 Mrd. Euro insgesamt  an EEG Einspeisevergütung pro Jahr – und auch nach mehr als zehn Jahren Dauersubventionen ist Strom aus erneuerbaren Energien immer noch teurer als die von Kohle, Öl, Kernenergie und Gas. Anstatt den Subventionssozialismus zu kündigen, treibt jedoch eine parasitäre Mischung aus Finanzierungsexperten, Investoren, Anlagenhersteller und Subventionsverteiler die Industrie weiterhin voran.

Sie haben einen Öko-Industrie-Komplex geschaffen, der nicht nur perfekte Lobbyarbeit in Berlin betreibt, sondern auch das Land mit Windmühlen ruiniert und mit kollektiven Geld schröpft, denn obendrauf räumt die Kreditanstalt für Wiederaufbau (Kreditanstalt für Wiederaufbau) der grünen Lobby subventionierte Kredite ein, um sicherzustellen, dass die Planwirtschaft auch finanziell abgerundet wird.

Das verquere System ist so teuer, dass nur ein sehr reiches Land wie Deutschland sich dieses Großexperiment leisten kann. Rund 100 Milliarden Euro hat dieser Subventions-Sozialismus bereits verbrannt. Derzeit kostet die grüne Energieabgabe 56 Millionen Euro täglich. Der expandierende Öko-Sozialismus hat die Energieversorger in Kombinate der Bundesnetzagentur verwandelt. Diese Agentur legt fest, welche Preise für die Stromübertragung in Rechnung gestellt werden, erlaubt Subventionen und autorisierte Erträge aus Investitionen. Die Industriestrompreise sind die zweithöchsten in Europa, daher verabschieden sich energieintensive Unternehmen allmählich von Gabriels Energie-Sozialismus.

Die Tatsache, dass der kolossale Bau von Windkraftanlagen und Solaranlagen auch dramatische Landschaftsverschandelung verursacht, ist die traurige Ironie dieser grünen Geschichte. Eine Reise durch Gabriels Deutschland ist jetzt wie ein grüner Tunnel des Schreckens, eine Achterbahnfahrt durch weite Spuren der Zerstörung der Natur, ein Subventionsgrab mit Turbinen [WKAs] und Platten gefüllt.

Deshalb – eher noch als die Kohle aus dem Markt zu drängen – muss die grüne Kommando- und Kontrollwirtschaft grundlegend reformiert werden. Es hat sich die größte Zuschuss-Abzocke der jüngsten Geschichte in Bewegung gesetzt und die Umwelt beschädigt. Es belastet die Wirtschaft und zwingt alle Verbraucher unter steigenden Strompreisen zu leiden. Die schlimmsten Verzerrungen des Marktes müssen von immer mehr neuen Regelungen ausgeglichen werden. Auf diese Weise rechtfertigt eine staatliche Intervention die nächste. In Deutschland ist der "real existierende Sozialismus" seit 1989 Geschichte, Gott sei Dank. Der Energie basierende Gabriel-Sozialismus ist jedoch auf dem Vormarsch.

Übersetzung und Zusammenstellung Phillip Mueller

Deutschlands „Traum“ von Windkraft erreicht eine neue „Realität“ …
Quelle STT

Wirtschaftswoche, 24 April 2015

[Recherchen des Übersetzers: die WW ist eine Wochenzeitung, zum 24.04.15 gibt es keine Ausgabe; hier alternativ Wirtschaftswoche 20.April 2015 (kostenpflichtig).

Vielleicht ein Schreibfehler? Daher hier Handelsblatt, 24 April 2015

Ein Teil von dem, was Deutsche auf die Barrikaden treibt, ist das, was die Windindustrie ihren geliebten Städten und Landschaften antut (für eine bildliche Darstellung der ästhetischen Zerstörung – schauen Sie hier) [Landschaften: Vorher – nachher – sehenswert traurig, der Übersetzer]

Und die Deutschen nehmen nicht mehr klaglos hin, was die Windindustrie auftischt: sie werden wütender und sind von Tag zu Tag besser organisiert.

Germany’s Anti-Wind Energy Elements Morph Into A Massive Network Of Protest Groups… Call Wind Energy “A Lie”

[Deutschlands Anti-Wind Elemente verwandeln sich in ein massives Netzwerk von Protestgruppen. „Sie nennen die Windenergie: Eine Lüge“]
Der Widerstand gegen die grüne- Abfallenergie wächst in Deutschland.

Am 4.Mai 2015 wurde in den Braunschweiger Nachrichten ein Kommentar von der Spitze einer deutschen Windprotestorganisation, Dr. Thomas Carl Stiller abgedruckt: „Der Wahnsinn mit den Windrädern", Der Originalbeitrag in den BZ ist kostenpflichtig, ein Kommentar hier zu lesen: „Energiewende funktioniert so nicht

Mit Unterstützung von K.E. Puls, Europäisches Institut für Klima und Energie (EIKE) wurde das dann für die Leser von  NoTricksZone, ins Englische übersetzt und am 4.Juni 2015 veröffentlich.

 

Ab hier Hinweis des Übersetzers:

Für unsere deutschen Leser verzichte ich natürlich auf eine Rückübersetzung und habe die Zeitungskopie digital nur etwas vergrößert.

Der Link zu NoTricksZone ist auf der Eike Seite rechts ständig zu finden.

Beitrag erschienen auf StopTheseThings am 11.Juni 2015

Übersetzt durch Andreas Demmig

http://stopthesethings.com/2015/06/11/germanys-wind-power-dream-becomes-a-living-nightmare/




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 1

Update 12.7.15

Mit Mail vom 12.7.15 wurden die Podiumsteilnehmern über diesen Faktencheck informiert. Gleichzeitig wurde ihnen von mir angeboten, falls sie sich dazu äußern wollten, wenn ggf. eine oder mehrere Äußerungen von mir – wenn auch ungewollt- falsch interpretiert worden sind, dies anzumerken und ihre Sicht der Dinge klarzulegen.

Soeben (21:09) erreicht mich von Herrn Fell diese Mail, mit der Bitte sie im Beitrag zu veröffentlichen, was ich hiermit umkommentiert tue:

fell@hans-josef-fell.de 

An: Dipl. Ing. Michael Limburg

AW: Podiumsdiskussion am 22.6.15 bei der BPB Faktencheck Teil I

Sehr geehrter Herr  Limburg

Bitte veröffentlichen zu diesen Stellungnahmen von Ihnen folgende kurze Stellungnahme:

Ich, Hans-Josef Fell erkläre, dass ich nicht antworten werde auf die Interpretationen von Herrn Limburg zu meinen Aussagen. Diese Nichtantwort ist nicht gleichzusetzen, mit einer Akzeptanz zu Herrn Limburgs Interpretationen meiner Äußerungen. Ich erkläre ausdrücklich, dass Herr Limburg  bezüglich meiner Äußerungen mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.

Dies ist unseriös und deshalb werden diese Falschinterpretationen von mir pauschal zurückgewiesen. Ich sehe auch keinen Sinn in einer unendlichen unproduktiven Diskussion darüber, weil sie mir Zeit raubt, an einer Lösung des Menschheitsproblems Erderwärmung zu arbeiten.

Mit freundlichen Grüßen

Hans-Josef Fell

Faktencheck Teil 1

Die  BPB hat diesen Mitschnitt hier vor einigen Tagen veröffentlicht.  Auf Grund der Tatsache, das hier – wohl zum ersten Male- nicht nur Klimaalarmisten und Energiewendebefürworter eingeladen waren, sondern auch der als Klimarealist und entschiedener Gegner der Energiewende bekannte Autor dieser Zeilen, waren die ausgetauschten Argumente sehr kontrovers.

Zudem können in einer  derartigen Diskussionsrunde Argumente zwar ausgetauscht werden, sie reduzieren sich aber für den uninformierten Zuhörer auf reine Behauptungen, da im Allgemeinen den meisten die Kompetenz  fehlt, um die Richtigkeit der jeweiligen Behauptung überprüfen zu können. Das sei hier mit dem Faktencheck für die wichtigsten Argumenten nach  geholt.

Zur Verständnis: Der BPB Mitschnitt selber enthält keine Zeitmarken. YouTube hingegen setzt diese Zeitmarken  und erlaubt auch die automatisierte Erstellung von Untertiteln aus dem gesprochenen Wort. Die Umwandlung in Schriftdeutsch ist nicht gut, aber brauchbar, doch sie verlangt eine erhebliche Nachbearbeitung.  Die hat EIKE vorgenommen. Obendrein wurden in der EIKE Youtube Version die freundlichen Begrüßungsworte des  Gastgebers  Herrn Kopp für diesen Faktencheck weggelassen, somit fängt jeder Teilmitschnitt mit 0:00 min an.  Wichtig sind daher allein die Zeitmarken, dann kann der interessierte Leser schneller den Originalton abhören.

Audiomitschnitt Teil 1 (Länge 13,46 Min) der Podiumsdiskussion  im Hause der BPB am 22.6.15 Quelle BPB Hier. Die (editiert) Untertitelfunktion kann eingeschaltet werden

Zum Klimawandel:

Die Moderatorin begann mit der Frage an den Autor:

(0:01:43) Herr Limburg: ist die Frage, ob es ein anthropogenen Einfluss auf das Klima gibt, also ob der Klimawandel denn vom Menschen gemacht wird im Prinzip nicht längst überholt?

Limburg

Meine Antwort darauf: (ab 0:01:55) zusammen gefasst: Nein, sie ist nicht überholt.  In Bezug auf die veränderte Landnutzung, der Zuwachs von Städten und seiner Bevölkerung und der stark gestiegene Bevölkerung selber ist das lokale Klima natürlich anthropogen beeinflusst, aber ein Weltklima, dass zudem gar nicht real sondern nur in Modellen existiert, ist – zumal vom CO2- nicht beeinflusst. Das zeigen die Daten und deren Zeitreihen ganz deutlich. Und das geben die Experten auch zu. Sie sagen: Wir können die Wirkung des  nur in unseren Modellen zeigen.“ Der Einfluss, insbesondere des anthropogenen CO2 ist nicht vorhanden und was doch viel interessanter ist, in der gesamten Vergangenheit  die wir nun geologisch sehr gut kennen ist niemals ein Einfluss, ein treibender Einfluss, des CO2 auf die Temperatur der Luft in dieser Welt nach zuweisen. Umgekehrt schon.“

Fakt ist

John Mit­chell dazu ehemals Chef des UK Met Office und Leitautor des IPCC

“It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.” [1] 

Richtig ist auch, dass CO2 niemals in der Vergangenheit – und das auf jeder historischen Zeitskala – die Temperatur der Atmospäre diese Planeten bestimmt hat. Zwei Beispiele dafür zeigen die folgenden Abbildungen.

Abb 1 CO2 und Temperaturverlauf über viele Mio Jahre.

Abb 2 Temperaturverlauf (schwarz; 15 year running mean) von 6 historischen Temperaturstationen mit mindestens 250 Jahren Aufzeichnungsdauer, von deren Frequenz-Spektrum nur die zwei stärksten addiert wurden (rot). Die Übereinstimmung ist frappierend. Und diese entsprechen in ihrer Periode sehr genau dem bekannten solaren De Vries Zyklus mit rd. 210 Jahre und dem ozeanischen AMO/PDO Zyklus mit ca. 65 Jahren. Quelle[2] s.Fußnote Details hier

Besonders interessant an Abb2 sind die deutlich erkennbaren Fakten,

1.     dass offenbar –zumindest bei den Messstationen- die Temperatur insgesamt fast 1:1 den beiden genannten Zyklen folgt .

2.     Von chaotischen Verhalten in diesem Zeitraum nichts zu erkennen ist

3.     Für CO2 kein Platz ist

4.     Sollten die der Kurve unterlegten Prozesse weiterhin ihre Wirksamkeit behalten, wie es die gestrichelte Kurve anzeigt, wird die Mitteltemperatur wieder sinken.

Ein weiteres paper der Autoren (bis auf einen, alles EIKE),dass die Zusammenhänge mit den genannten Zyklen genauer untersucht ist derzeit im Peer Review Prozess verschiedener internationaler Fachzeitschriften

Moderatorin Frau Dr. Zink (0:04:01)

Kommen wir nachher noch ein bisschen  spezifischer dazu, aber ich möchte gern erst mal den Herrn Fell fragen: Sie haben ja auch Physik studiert. Haben Sie denn Verständnis für so´ne Klimaskepsis?

H.J. Fell (0:04:09): Überhaupt nicht!

..Es ist so was von anti-wissenschaftlich ignorierend, dass das was die Physik  seid die vielen Jahrzehnten als Erkenntnisse hat….. Nein, also  ich bitt´Sie!

Herr Fell führt dann umfassend aus, dass das CO2 gewisse spektro-physikalische Eigenschaften hätte, die er als junger Student auch gemessen hätte, und die eindeutig zeigten, dass eingestrahlte Energie von der Sonne vom CO2 zurückgehalten würden und  diese Energie könne sich nur in steigender Erwärmung äußern. Und stellte den Zuhörern diese seine Versuche als Beleg für die seiner Meinung nach unbestreitbare Erwärmungswirkung des CO2 dar.   Dann beurteilte er meinen Zeitreihenvergleich als politisches Manöver.

Fakt ist:

Herr Fell übersieht bei seiner Gegenrede völlig, dass ich in meiner Argumentation die spektro-physikalischen Eigenschaften des CO2 weder benannt, noch angezweifelt habe. Hingegen habe ich mich auf den seit den Zeiten Galileo Galilei geltenden ehernen wissenschaftlichen Grundsätze gestützt, dass jede wissenschaftliche Hypothese

1.     erst durch die Bestätigung ihrer Annahmen durch Beobachtungen und Messungen  zur akzeptablen Theorie wird.

Und

2.     durch richtiges Vorhersagen zukünftiger Werte

ihre Tauglichkeit erweist.

Warum diese elementaren Grundsätze bei der Klimawissenschaft nicht gelten sollen, erklärten weder Herr Fell, noch Frau Zink, noch die anderen Teilnehmer. Denn auch eine plausible Hypothese – wie es die Hypothese von der Treibhauswirkung des anthropogenen CO2 für viele ist-  ersetzt nicht die Überprüfung im Experiment oder/und durch Beobachtung.  Sie geben damit auch indirekt zu, dass die Klimawissenschaften eine galileische Überprüfung in der Realität nicht benötigten.

Zu 1. Und sie wissen auch nicht, dass es seit den ersten IPCC Berichten genau dieses Problem ist, welches die Forscher beschäftigt. Es hat sogar einen Namen: „Detection and attribution problem“ und ist seither trotz vielfältigster Anstrengungen außerhalb von Modellen[3] ungelöst.

Der wichtigste Beitrag dazu ist der Versuch die sog. Klimasensitivität (CS Climate Sensitivity) des CO2 zu bestimmen. Damit ist der nur theoretisch ableitbare Wert gemeint, um den sich die globale Mitteltemperatur erhöhen sollte, bei Verdopplung der CO2 Konzentration.  Das IPCC geht im Mittel von 3,2 °C (3a) (bei einer Spanne von 4,5 K bis 1,5 K) aus, obwohl es im SPM des jüngsten Berichtes AR 5 – allerdings nur in einer Fußnote[4]- zugab, dass dieser Wert bisher nicht bestimmbar sei.  Der Wert 3,2 °C entsteht, wenn man den rechnerischen direkten Wert von ca. 1,2 °C  über die sog. Wasserdampfverstärkung (mehr Wärme, mehr Verdunstung, mehr Wasserdampf, mehr Wärme) mit 3 x nimmt. Viele andere Autoren haben

erstens die Wasserdampfverstärkung nicht finden können, sie fanden stattdessen eine Dämpfung, (Mehr Wärme, mehr Wasserdampf, mehr Wolken, mehr Abkühlung) und kommen

zweitens zu wesentlich niedrigeren Werten des CS Wertes bis hinunter auf nur 0,5 °C[5].

Damit treffen beide Grundsätze für die Hypothese vom anthropogenen Treibhauseffekt nicht zu.  Weder lässt sich deren Annahmen im Experiment bestätigen

Zellner Zitat

•       Reinhard Zellner [6] (Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei): Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist. Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden. Wir sind also auf ein klimawissenschaftliches Modell angewiesen,

…noch in der Realität durch den aktuelle oder historische Beobachtungen.

Abgesehen von wenigen, überdies für Klimazeitdistanzen, kurzen Zeitspannen,  in denen der Trend der „Welttemperatur „  eng und positiv korreliert  mit dem CO2 Anstieg verläuft (Rahmstorf [7]: mehr CO2 = mehr Temperatur) ist immer wieder auch die gegenteilige Entwicklung erkennbar. Also mehr CO2 und negativer Temperaturtrend. Und  dies ist auf allen geologischen Zeitskalen zu beobachten. (Siehe z.B. Abb. 1)

Zudem ist, was auch Herr Fell  (und später auch Frau Dehmer wissen müsste) eine Korrelation kein Ersatz für eine nachweisbare Ursache-Wirkungsbeziehung)

Besonders deutlich aber zeigt sich, dass auch die Modelle schwer daneben liegen. (Abb. 3) wenn man bereits vergangene Zeitspannen mit den Modellprognosen vergleicht. (Abb 1)

Abb. 3 Vergleich „zukünftige“  Verläufe (ab 1983) des globalen Temperaturtrends  von 90 Modellen und  zwei Messungen Grün:  Hadcrut Daten, Blau: Satelliten Daten UAH; schwarz Mittlerer Trend  aller Modelle: Quelle hier 

Auch die Behauptung von Herrn Fell – er hätte „die Versuche gemacht wie Kohlendioxid die Strahlung beeinflusst, wie das Kohlendioxid die umgewandelte Infrarotstrahlung von der Sonne aufnimmt. Sind klare Versuche gewesen, nicht irgendwie Trial and Error sondern Messungen“, um damit dem Publikum zu suggerieren, damit sei der anthropogene Treibhauseffekt bewiesen, kann so nicht stehen bleiben. Es klingt zwar plausibel, aber das reicht in den Naturwissenschaften bei weitem nicht.

Auf meine Nachfrage per Email an Herrn Fell vom 23.6.15

…bitte ich Sie daher mir Details zum Experiment mitzuteilen. Besonders interessant sind für mich dabei die Klärung der Fragen

1. Wie war der experimentelle Aufbau?

2. Wie haben Sie gemessen?

3. Was haben Sie gemessen?

4. Wie groß war die Unsicherheit bei Ihrer Messung?

schrieb mir Herr Fell am 24.6.15

Ich sagte, dass ich das Grundlagenexperiment wie jeder andere Physikstudent auch machte. Damit messen die Physikstudenten die Anregungswellenlängenlängen und damit die Energieaufnahme von Molekülen, wie CO2.  

Nun, derartige Eigenschaften hatte auch niemand bezweifelt. Und wie schon erwähnt, die spektro-physikalischen Eigenschaften des Spurengases CO2 (mit nur 0,04 Vol % in der Atmosphäre vorhanden) wie aller anderen Bestandteile der Luft  sind seit Jahrzehnten gut bekannt, aber bieten keinerlei Ersatz für einen Beweis des THE.

Moderatorin: (0:05:41)

Hmm; Frau Dehmer wie schätzen Sie denn diese kritischen Stimmen ein?

Frau Dehmer 0:05:46.

Science-fiction

(0:05:48)

Hm; die Messreihen, die vorhanden sind, sind ja mehr als hundert Jahre alt. (Anmlerung des Autors Siehe Abb. 1) Und  wenn sie sich die Messzahlen, und das ist nur das Gemessene anschauen, sowohl bei den Ozeantemperaturen als auch bei den Luft- Temperaturen dann haben die eben einen Trend nach oben. Und man kann auch zurück verfolgen, wann der begonnen hat. Hm. ich finde diese Diskussion völlig sinnlos 

Fakt ist:

Auf diesem Niveau zu argumentieren, wie es hier Frau Dehmer macht, ist natürlich völlig sinnlos.  Aus der unbestrittenen geringen Erwärmung – nach dem Ende der kleinen Eiszeit etwa ab 1850 (da musste es wärmer werden, sonst bestünde die Eiszeit ja immer noch) – und der gleichzeitigen – aber erst seit Mitte der fünfziger Jahre genau genug bekannten Konzentrationszunahme des CO2 in der Luft, eine bestätigte Abhängigkeit zu konstruieren, ist schon science fiction. Allerdings ganz ohne science. [8]

Mit gleicher Berechtigung könnte Frau Dehmer folgern, weil die Zahl der Störche in Deutschland abnimmt,  gibt es weniger Babys. Beides unbestreitbare Tatsachen, beide Verläufe eng korreliert, doch sollte heutzutage -jedenfalls unter Erwachsenen- keiner glauben, dass die Störche die Babys bringen.

Ich frage mich außerdem  immer wieder, woher die Protagonisten des anthropogenen Global Warming das Recht ableiten, dass das Klima konstant zu sein hat. Das war es bisher niemals und wird es auch in Zukunft nicht sein.

Frau Dr. Zink (0:06:51)

Daraufhin fühlte sich auch die Moderatorin Frau Dr. Zink veranlasst Ihre Sicht der Dinge darzustellen. Sie verwies am Anfang auf ihre Mitarbeit bei Wissenschaftssendungen erst von Joachim Bublath und dann von Harald Lesch und Dirk Steffens (Terra X). Dann erläuterte sie, dass sie und bezog andere Kollegen ein, spätestens seit 1995 im Grunde aber schon nach Rio (1992) aufgehört hatten kritische Stimmen zur Rolle des CO2 zu journalistisch zu überprüfen. Und schloss mit dem Beispiel ….im Kriminalfall würde man vielleicht sagen, die Faktenlage ist erdrückend und deswegen ist bei den Wissenschaftsjournalisten  dieses gar nicht mehr in Diskussion; muss ich sagen.

Fakt ist:

Dieses Statement ist insofern korrekt, als dass die Zustimmung (ja Panikmache) zur THE Hypothese, tagtäglich in allen Medien- von wenigen rühmlichen Ausnahme abgesehen-,  zu sehen, zu lesen und zu hören ist.

Diese Meinung, und um nichts anderes handelt es sich, beweist für die Existenz des THE natürlich gar nichts. Sie beweist aber etwas ganz anderes, nämlich, dass die allermeisten Journalisten es vorziehen im Mainstream mit zu schwimmen. Obwohl es gerade die vordringliche Aufgabe von Journalisten wäre, besonders misstrauisch bei Behauptungen von dieser Tragweite zu sein und ständig der uralten Frage nachgehen müssten – Cui Bono? Tun sie aber nicht, obwohl das investigative Hinterfragen für Wissenschaftsjournalisten umso mehr gelten müsste.

Es ist nämlich in den Naturwissenschaften überhaupt kein Gütesiegel, anders als in der Politik, wenn alle oder eine große Mehrheit einer Meinung sind. Die Beispiele bei denen das falsch war, sind Legion. Denn im Gegenteil, besonders dann ist höchstes Misstrauen angebracht, weil dann so gut wie immer die Wissenschaft unter die Räder kommt.  Und eine – noch dazu promovierte- Physikerin täte gut daran, diesem Grundsatz zu folgen. Gesundes Misstrauen tut daher not, ein Misstrauen, wie es die investigative Journalistin Donna Laframboise[9] antrieb, mit der Folge, dass sie die Machenschaften großer Umwelt-NGO´s wie z.B. WWF und Greenpeace, aber auch anderer, bei der verdeckten Übernahme des IPCC aufdeckte. Eine Übernahme, die denen nicht nur großen Einfluss brachten, sondern auch das Agenda-Setting erlaubt. Die Folgen davon erleben wir täglich.

Abgesehen von dieser Verhaltensfrage enthält die Frau Zinks „Beweisführung“ eine Behauptung, die nicht unwidersprochen bleiben kann.  Nämlich der „Beweis“ wie im „Kriminalfall“, den auch Hans v Storch  unlängst verwendete, als beide behaupteten, dass die Beweislage erdrückend sei.  Dabei wird übersehen, oder verschwiegen, dass schon im Gründungsauftag des IPCC steht, man solle Beweise dafür finden, dass der Klimawandel gefährlich und dass der Mensch dafür verantwortlich sei[10].

Klar nach der Drehbuchanweisung des Club of Rome 1972 (Quelle King & Schneider, 1991):

„Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen würden…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“

Folgerichtig werden sowohl vom IPCC als auch vielen Vertretern der Wissenschaft die weiteren Akteure in diesem „Kriminalfall“ bewusst außen vorgelassen. Wie z.B. der alles überragende und vielfältige Einfluss der Sonne. Damit wird durchgehend eine voreingenommene „Wissenschaft“ gefordert und auch betrieben.

Ich will mich aber hier nur auf den von mir angeführten „Beweis“ über die Wirkung des CO2 auf die Temperatur über Klima-Modelle fokussieren, den Hans v. Storch dem erstaunten Publikum präsentierte[11].

Fakt ist:

Limburg 0:08:20:

Sie sagen wir haben Modelle: Neulich Herr von Storch hat Modelle gezeigt, hat Bilder gezeigt wie die Temperatur nach oben geht in ihren Modellen (Anmerkung Autor Siehe Abb. 4) mit der Aussage wir können das nicht in der Natur beweisen, dafür ist das System zu komplex, zu großartig, zu umfangreich.

Niemand bestreitet ja die spektralen Eigenschaften des CO2.

Natürlich nicht!

Aber sie können sie nicht in der  in der Darstellung der Messdaten sehen und deswegen baut man eben diese komplexen, hochkomplexen Klimamodelle  und dann sagt man: „guckt mal hier“ das sind so vier Graphen…..wie die Temperatur nach oben steigt, je nachdem wie das CO2 sich entwickelt und  wenn man dann, das sind die Modellaussagen,  wenn man dann das CO2 weglässt  dann ist dieser Temperaturanstieg flach. Wie er übrigens seit über 18 Jahren inzwischen auch ist  (Anmerkung Autor Siehe Abb. 4)

Abb 4: Satellitenmessung der globalen Mitteltemperatur – und nur die sind eigentlich für globale Klimazwecke geeignet- der letzen > 18 Jahre. Man sieht trotz stark steigenden CO2 um ca. 2 ppm/Jahr ist der Trend genau Null

So, aber das ist ein Zirkelschluss! Wenn ich ein Modell baue, wo das CO2 die  Temperatur treibt, was es, wie gesagt, in der Vergangenheit noch nie gemacht hat  dann steigt die Temperatur. Wenn ich dann in diesem Modell dass CO2 weglasse.. wie soll da die Temperatur steigen? Also das als Beweis anzunehmen -und nur das  existiert- das müssen Sie halt schlicht zur Kenntnis nehmen- das sind die Fakten 

Abb. 5: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

Dann murmelte Frau Zink etwas von (0:09:29).

Na ja, es gibt ja sehr viele Beweise, da muss man sich nur viele Baumrinden anschauen,

… ging aber nicht weiter darauf ein.

Fakt ist:

Man muss vermuten, dass sie berüchtigte Hockeyschlägerkurve des Michael Mann meinte, von dem sein Freund Phil Jones später mailte, dass er „Mikes Nature trick“ erfolgreich angewendet hätte „to hide the decline“. Gemeint war, dass dieser „decline“ seit den 1960er Jahren in der Proxykurve der Mannschen Baumringdaten zu sehen war, aber Michael Mann sie schlicht abgeschnitten hatte und sie durch ihm genehmere Thermometerdaten, die sich nicht absenkten, sondern im Gegenteil nach oben stiegen, ersetzt hatte. Ein bis heute ungeahndeter Betrug. (Einige Details dazu hier)

Etwas später meinte die Moderatorin wieder gegen halten zu müssen (0:10:45)

Dann muss ich gleich mal ein bisschen noch dagegen schießen. Auch ich mache meine Hausaufgaben als Wissenschaftsjournalistin. Es gibt Meta Studien. Das sind ja Studien über alle wissenschaftlichen Artikel….

Und zitierte die Cook Studie, wonach 12.000 klimawissenschaftliche Studien (peer reviewed) von Cook et al daraufhin untersucht worden sein sollen, wie viel davon die anthropogen induzierte Erwärmung bejahten. Und das seien bis auf 80 Artikel alle gewesen.

Fakt ist,

dass nach der neuesten  Überprüfung der Methodik dieser Studie (Legates et al[12]) die Verfasser zu dem Schluss gekommen seien, dass Cooks Behauptung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt.

Und, Fakt ist auch,  das John Cook kein Klimawissenschaftler sondern ein Blogger und  Psychologe ist. Was Frau Zink verneinte.

Jedoch schreibt derselbe John Cook,  welcher die Mainstream Website „SkepticalScience“ betreibt in seinem Blog,

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

Nur in einer Hinsicht behielt Frau Dr. Zink recht: Cook ist kein Australier, sondern US-Amerikaner. Ich hatte ihn in der Eile in Bezug auf seine Landsmannschaft mit seinem Bruder im Geiste Lewandowski verwechselt. Der ist Australier.

Aber obwohl diese Cook Studie, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant ist, wird sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt.

Es scheint ja so gut zu passen. Mit dem Strom schwimmen ist eben leichter als gegen den Strom, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“

Wird fortgesetzt


[1] ‘CLIMATE CHANGE Response to Carteret al.’, World Economics, 8 (1): 221228. –

[2] Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records H.-J. Ludecke ¨ 1,*, A. Hempelmann2 , and C. O. Weiss3,*

[3] Man sehe z.B. den SPM Seite 18 figure SPM.6. In der Bildunterschrift steht u.a „:::Comparison of observed and simulated climate change based on three large-scale indicators in the atmosphere, the cryosphere and the ocean: change in continental land surface air temperatures (yellow panels), Hervorhebung von mir.

[3a] IPCC (2013): Climate Change 2013, Working Group I: The Science of Climate Change, Box 12.2

[4] „Die Fußnote lautet: No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies. Quelle SPM AR5 final, S 16 hier

[5] Quellen: [6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[6] Prof. Reinhard Zellner in Nachrichten aus der Chemie, S 213 Mai 2014 Mitglied u.a Enquetekommissionen – „Schutz der Erdatmosphäre“ und „Schutz des Menschen in der Umwelt“

[7] Das genaue Zitat geht so: Stefan Rahmstorf am 3.2.2007 (Die Welt): Wir Klimaforscher können nur nach dem Wenn-dann-Prinzip sagen: Wenn so und so viel CO2 ausgestoßen wird, dann wird das Klima sich so und so stark erwärmen.“

[8] Siehe auch ergänzend hierzu diesen Beitrag von Limburg & Willis Eschenbach

[9] Details zu den unglaublichen Fakten über das IPCC finden Sie hier

[10] Auf der  IPCC Website unter  Mandate findet man .”… Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change::”

[11] Den Erlebnisbericht dazu finden Sie hier

[12] Legates et al ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ in Science and Education




Energiewende – Der vermeintliche Klimaschutz :Die Rechnung wird immer größer

Endlich, möchte man sagen. Endlich rafft sich eine angesehene Zeitung einmal auf, die Stromverbraucher wegen der ruinösen „Energiewende“ auf die Barrikaden zu rufen. Getan hat es die Frankfurter Allgemeine Sonntagszeitung (FAS) in ihrer Ausgabe vom 5. Juli. Der Leitartikel von Lena Schipper im Wirtschaftsteil war überschrieben mit „Stromkunden auf die Barrikaden!“ Bislang ist diese Zeitung mit solcher eigenen Kritik an der Energiewende nicht gerade aufgefallen und das Mutterblatt Frankfurter Allgemeine Zeitung (FAZ) mit solchen Redakteuren wie Andreas Mihm (ami.) und Joachim Müller-Jung (jom.) schon gar nicht. Aber werden die Stromverbraucher dem Aufruf folgen?

Die Proteste sind zu schwachbrüstig

Das Folgen scheitert schon daran, dass die allermeisten Deutschen die FAS nicht lesen, den Aufruf also nicht kennen können. Aber davon, was für ein Monster die Energiewende ist, haben sie ohnehin so gut wie keine Ahnung, wissen nicht, was sich hier wirklich abspielt. Die Autorin drückt dies so aus: „Niemand hat in dem Wust der Maßnahmen mehr den Überblick darüber, wo ihm zu welchem Zweck wie viel Geld aus der Tasche gezogen wird. Entsprechend schwachbrüstig sind die Proteste.“

Die mutwillige Stromverteuerung ist noch immer nicht schmerzhaft genug

Wer das nicht weiß, vermag auch schwerlich seinen Zorn zu artikulieren, es sei denn, er beschränkt sich darauf, den heftig steigenden Strompreis zu attackieren. Denn der ist durch die Energiewende das zwangsläufige Ergebnis. Aber selbst dies hat noch keine Massen auf die Straßen gelockt, auf die Barrikaden getrieben. Die mutwillige Stromverteuerung scheint für zu viele noch nicht schmerzhaft genug zu sein und noch nicht unbezahlbar.

Wie das Geschehen seit Jahren abläuft

Dabei läuft die Umsetzung der Energiewende, wie die Autorin schreibt, seit Jahren nach dem immer gleichen Muster ab: „Die Regierung formuliert eine Zielvorgabe und macht einen vage gehaltenen Vorschlag, wie diese erreicht werden könnte und wer für Kosten und Konsequenzen aufkommt. Die auserwählte Gruppe – ein Industriezweig, eine Gewerkschaft, gerne auch eine Landesregierung – legt lautstark Protest ein. Es gibt lange, ermüdende Debatten ohne Einigung, das Thema verschwindet in der Versenkung. In letzter Minute, wenn schon alle ziemlich sicher sind, dass das Vorhaben gescheitert ist, wird ein Alternativvorschlag präsentiert: Die Rechnung für die ursprünglich vorgesehenen Zahlmeister wird vernichtet. Zum Vorschein kommt eine neue, höhere Rechnung, adressiert an Stromkunden und Steuerzahler.“ Der ganze Beitrag hier.

Scheinbar ist doch alles für einen guten Zweck

Der Autorin „drängt sich unweigerlich eine Frage auf: Warum gibt es eigentlich noch keine landesweiten Proteste von den Leuten, die das alles über ihre höhere Stromrechnung begleichen sollen? Warum ist die Mehrheit der Deutschen nicht ähnlich auf Zack wie RWE, Vattenfall und die IG BCE, wenn es darum geht, sich gegen absurde Belastungen zu wehren, deren Nutzen für die Umwelt minimal ist? Eine Erklärung ist sicherlich die moralische Alternativlosigkeit, mit der Energiewende-Maßnahmen unabhängig von Sinn oder Kosten präsentiert werden: Es ist alles für einen guten Zweck. Wer will schon gegen Klimaschutz sein?“

Bejammert wird die Folge, aber nicht die eigentliche Ursache

Ach, dieser Klimaschutz. Den allerdings macht die Autorin nicht zum Thema. Dabei müsste ihr Barrikadenruf ihm und nur ihm gelten. Denn er ist es, mit dem die Bundesregierung, alle Altparteien, nahezu alle Politiker und sämtliche Profiteure die Energiewende (genauer: die Stromerzeugungswende) begründen. Statt diese Ursache der Energiewende aufs Korn zu nehmen, kapriziert sie sich nur auf das Bejammern der Folge, nämlich der Stromverteuerung. Um die Ursache schleicht sie herum wie die Katze um den heißen Brei. Mit Klimaschutz ist auch immer nur der Schutz vor einer Erwärmung der Erde gemeint, nicht ein Schutz vor ihrerAbkühlung. Aber Klima lässt sich nicht schützen. Dem stehen die Naturkräfte und Naturgegebenheiten entgegen. Klima ist deren Werk. Klimawandel hat in der Erdgeschichte stets stattgefunden.

Die Mär und die Bereitschaft, an sie zu glauben

Daran ändern auch 36 Nobel-Preisträger nichts, wenn sie in einer Deklaration fordern, es seien „rasche Fortschritte bei der Senkung aktueller und zukünftiger Treibhausgasemissionen zu erzielen, um die wesentlichen Risiken des Klimawandels zu minimieren“ Zwar sei das Ausmaß des Klimawandels ungewiss, doch die Ergebnisse des Weltklimarates IPCC seien seriös und alarmierend genug, um schnell zu handeln (FAZ vom 4. Juli, Seite 1). Doch an dieser Seriosität mangelt es: Dass steigender CO2-Gehalt in der Erdatmospäre die Erde aufheize, ist – wie in Beiträgen auf dieser Web-Seite und woanders mehrfach belegt – eine Mär. Aber sie wird geglaubt – wie Menschen immer bereit sind, zu glauben, wenn es ihnen an Kenntnissen und Wissen fehlt, und Betrügern auf den Leim zu gehen. Der Physiker und emeritierte Professor Horst Joachim Lüdecke urteilte am 17. Juni so:„Je abartiger der Unsinn, umso größer ist seine politische Wirkung. Dieses Phänomen fehlgeleiteten menschlichen Verstandes ist Religionspropheten, Psychologen und Soziologen bestens bekannt.“ (Der ganze Beitrag mit der Überschrift „Neun Fragen zum Klimaschutz“ hier).

Der CO2-Einfluss auf das Klima bis heute wissenschaftlich nicht belegt

Lüdecke schrieb am 18. Juni auch dies: „Beträchtliche Klimaschwankungen sind stete Begleiter der Erdgeschichte. Seit Beginn der Industrialisierung bis 1998 ist es um weniger als 1 Grad Celsius wärmer geworden, und seit 1998 stagniert die Erdtemperatur. Ein Zusammenhang (Korrelation) mit angestiegenem CO2 ist nicht festzustellen. Kein Klimamodell hat die bisherige Stagnation vorhergesagt, stattdessen werden ständig neue Erwärmungen vorhergesagt. Ob menschengemachtes CO2 überhaupt einen Klimaeinfluss ausübt, konnte bis heute wissenschaftlich nicht belegt werden.“

Was die Vernunft gebietet

Lüdeckes Fazit lautet: „Die Klimaschutzbewegung widerspricht den naturwissenschaftlichen Fakten. Von wissenschaftlichem Konsens über eine angebliche Klimagefährlichkeit des anthropogenen CO2 kann keine Rede sein. Bevor nicht ein sachfundierter Nachweis über den Einfluss des anthropogenen CO2 auf Klimaparameter erbracht werden kann, gebietet alle Vernunft, die kostspieligen CO2-Vermeidungsmaßnahmen einzustellen. Die militanten Vertreter von Klimaschutzmaßnahmen streben eine planwirtschaftlich-totalitäre Politik an, wie beispielsweise eine ”große Transformation”. Seine politischen Bestrebungen, Agenden und Auswirkungen verweisen ”Klimaschutz” in die Reihe gefährlicher totalitärer Ideologien.“ Der gesamte Lüdecke-Beitrag hier.

Deutschlands Energiewende: unglaublich kostspielig und unwirksam

Der dänische Politikwissenschaftler und Statistiker Björn Lomborg schrieb in der FAZ vom 8. Mai 2015 (Seite 18) unter anderem: „Deutschland ist ein gutes Beispiel für eine gescheiterte Klimapolitik. Die Energiewende hat sich als unglaublich kostspielig und unwirksam erwiesen. … Dieses Jahr erreichen die Subventionen für erneuerbare Energien in Deutschland sagenhafte 21,8 Milliarden Euro oder 0,7 Prozent des Bruttoinlandsprodukts. Allein für Solaranlagen hat Deutschland insgesamt Förderzusagen von mehr als 100 Milliarden Euro gemacht. Das hat zum schwindelerregenden Anstieg der deutschen Strompreise geführt. Den Daten der OECD und der Internationalen Energieagentur zufolge sind die Strompreise für deutsche Haushalte zwischen 2000 und 2013 inflationsbereinigt um 80 Prozent gestiegen. … Makroökonomische Modelle weisen zudem darauf hin, dass der wirtschaftliche Verlust durch Erneuerbare wesentlich größer sein könnte als einfach nur deren Mehrkosten, da erhöhte Produktionskosten alle anderen Branchen schwächen und das Wachstum drosseln. Der Durchschnitt aller großen Modelle deutet darauf hin, dass die derzeitige Klimapolitik Deutschland bis 2020 jährlich 43 Milliarden Euro kostet.“

Der vermeintliche Klimaschutz ist ein politisches Verbrechen

Lomborg gehört nicht zu jenen, die einen Zusammenhang zwischen CO2–Zunahme und Erderwärmungsthese rundheraus ablehnen. Zumindest unterstellt er bei seinen Überlegungen zunächst, als gäbe es ihn. Damit gelingt es ihm, sich der Streiterei um diesen Zusammenhang zu entziehen. Er beschränkt sich also darauf, die Wirkungslosigkeit der CO2-Verringerung und damit der vermeintlichen Klimaschutzpolitik darzustellen und deren überaus teuren und sinnlosen Folgen auszumalen. Unabhängig also davon, ob es die CO2-verursachte Erwärmung gibt oder nicht: Die Menschen zu zwingen, für nachweislich Sinnloses Geld auszugeben, ist verantwortungslos. Oder um es noch deutlicher und zugespitzt zu formulieren: Es ist ein politisches Verbrechen. Als Beleg sei Lomborg nochmals zitiert:

Die spürbare Auswirkung auf das Klima ist gleich Null

„Für all diese Milliarden erreicht Deutschland sehr wenig Nutzen für das Klima. …. Sämtliche Anstrengungen, die Deutschland zur Förderung der erneuerbaren Energien unternimmt, werden geschätzt zu einer Senkung der Emissionen um jährlich 148 Megatonnen führen. Im Standard-Klimamodell führt die gesamte Förderung der nächsten 20 Jahre zu einer Reduktion um gerade einmal 0,001 Grad Celsius bis zum Ende des Jahrhunderts oder einer Hinauszögerung des Temperaturanstiegs bis zum Jahr 2100 um weniger als 18 Tage. Es sollte kaum verwundern, dass eine derart teure Klimapolitik, die so wenig Auswirkung auf das Klima hat, für die restliche Welt kaum nachvollziehbar ist.“

Die Klimapolitik basiert auf Wunschdenken und wird weiter scheitern

Anders zwar als Lüdecke schreibt Lomborg: „Die Erderwärmung ist Realität, und sie ist ein Problem.“ Aber gleichwohl kommt er mit seinen Erkenntnissen zu diesem realistischen Ergebnis: „Die derzeitige Klimapolitik scheitert seit zwanzig Jahren, und sie wird wahrscheinlich auch weiter scheitern. Wir würden gerne glauben, dass erneuerbare Energien kurz vor dem weltweiten Siegeszug stehen, aber selbst in 25 Jahren werden Solar- und Windenergie nur eine marginale Rolle spielen. Wir würden gerne glauben, dass erneuerbare Energien kurz davor sind, wettbewerbsfähig zu werden. Tatsächlich wird die Rechnung immer größer. 2012 hat die Welt 110 Milliarden Euro für die Förderung erneuerbarer Energien ausgegeben. 2040 werden wir fast das Doppelte bezahlen. Die aktuelle Klimapolitik basiert auf reinem Wunschdenken.“

Lomborgs gesamter FAZ-Beitrag hier.

 Übernommen von KP Krauses Blog

http://kpkrause.de/2015/07/09/der-vermeintliche-klimaschutz/




PRISM das moderne Entsorgungszentrum? Teil 1

In England wird seit einigen Jahren ernsthaft über den Bau des sogenannten Power Reactor Innovative Small Module (PRISM) von GE-Hitachi diskutiert. Hintergrund ist der stetig wachsende Plutoniumberg aus der Wiederaufbereitungsanlage. Inzwischen lagern zwischen 100 und 150 Tonnen auf der Insel. Es geht dabei um die sinnvollste Verwendung. Ein “verbuddeln und vergessen” nach deutschen Vorstellungen, scheidet für GB ohnehin aus. Vielmehr ist man bestrebt, das Gefahrenpotential des “Atommülls” auf einige hundert Jahre zu begrenzen. Ein Zeitraum, den man unstrittig durch technische Bauten sicher beherrschen kann. Man holt dadurch das Problem von der wenig fassbaren moralischen Ebene – irgendwelcher “Ethikkommissionen” – auf die berechenbare Ebene der Ingenieurwissenschaften zurück.

Ein Weg – und beileibe nicht der einzige – ist die Nutzung und Beseitigung abgebrannter Brennelemente durch einen mit Natrium gekühlten Reaktor mit schnellem Neutronenspektrum und metallischem Brennstoff: Dem PRISM. Nichts von der Erfindermesse, sondern ein Stück erprobter Technik. Sein unmittelbarer Vorläufer, der EBR II, war 30 Jahre erfolgreich in Betrieb (bis 1994). Ein PRISM-Kraftwerk mit 1866 MWel würde rund zwei Tonnen abgebrannter Brennelemente pro Jahr verbrauchen und damit die gleiche Menge Strom erzeugen, wie Kohlekraftwerke durch die Verbrennung von sechs Millionen Tonnen Steinkohle.

Warum schnelle Neutronen?

Mit hinreichend schnellen Neutronen kann man alle schweren Kerne spalten. Ausdrücklich auch 238-U, alle Plutoniumisotope und die minoren Aktinoiden (Americium, Curium, Neptunium usw.). Letztere sind für die Langlebigkeit des Atommülls verantwortlich. Gelingt es sie zu spalten, bleiben nur noch Spaltprodukte mit einer Halbwertszeit von unter 30 Jahren übrig. Allerdings hat die Sache einen entscheidenen Haken: Die Reaktionsquerschnitte sind nicht nur stoffabhängig, sondern auch sehr stark energieabhängig. Mit anderen Worten, nimmt die Wahrscheinlichkeit für eine Spaltung mit schnellen Neutronen stark ab.

Eine selbsterhaltende Kettenreaktion läßt sich nur mit 235-U (in der Natur vorkommend) und 233-U (aus Thorium erbrütet), sowie 239-Pu (aus Uran erbrütet) aufrecht erhalten. Auch deren Spaltquerschnitte sind für langsame thermische Neutronen um Größenordnungen geeigneter. Will man also einen schnellen Reaktor bauen, braucht man wesentlich höhere Anteile an Spaltmaterial. Allerdings steigt auch die Anzahl der freigesetzten Neutronen mit der Energie der spaltenden Neutronen an.

An dieser Stelle ergeben sich die drei Varianten des PRISM-Reaktors, die sich nur durch die Zusammensetzung des Kerns unterscheiden:

1.     Der Brenner. Er verbraucht – wie ein Leichtwasserreaktor – mehr Spaltstoff als beständig neu entsteht. Man muß diese Verluste stetig aus abgebrannten Brennelementen ersetzen. Dies wäre eine reine “Abfallverbrennungsanlage”.

2.     Der Selbsterhalter. Er stellt ziemlich genau so viel 239-Pu beim Betrieb gleichzeitig her, wie er auch verbraucht. Die Spaltungen müssen nur durch 238-U – z. B. aus dem Abfall der Anreicherungsanlagen – ergänzt werden.

3.     Der Brüter. Dies ist die wohl bekannteste Variante. Ein solcher Kern erzeugt mehr 239-Pu, als er selbst verbraucht. Entscheidendes Maß ist bei diesem Typ die sogenannte Verdoppelungszeit. Damit ist die Zeitdauer gemeint, in der ein Reaktor so viel Überschussplutonium produziert hat, wie man braucht, um damit einen zweiten Reaktor in Betrieb nehmen zu können. Diese Variante wird erst attraktiv, wenn die Preise für Natururan explodiert sind. Also erst in sehr ferner Zukunft.

Es ist bei allen drei Varianten sinnvoll, die Spaltprodukte von Zeit zu Zeit abzutrennen. Allerdings haben sie nicht die Bedeutung, die sie bei Leichtwasserreaktoren haben, da ihre Einfangquerschnitte (und dadurch verursachte Neutronenverluste) für hohe Energien recht klein sind. Der Abbrand kann bei schnellen Reaktoren rund fünfmal so hoch sein, wodurch sich eine Wiederaufbereitung wesentlich vereinfacht und nicht so oft geschehen muß (Kosten).

Warum Natrium als Kühlmittel?

Wenn man einen schnellen Reaktor bauen will, muß man ein Kühlmittel verwenden, das Neutronen praktisch nicht abbremst. In diesem Sinne, kommen praktisch nur drei Stoffe in Frage: Natrium, Blei und Helium. Natrium besitzt in allen relevanten Eigenschaften klare Vorteile, sodaß es nicht verwunderlich ist, daß praktisch alle schnellen Reaktoren (über 20 in 8 Ländern) mit Natrium gekühlt wurden. Einzige Ausnahme bilden die sieben Blei-Wismut-Reaktoren der U-Boote der Alpha-Klasse in der Sowjetunion. Sie sind gerade an den Eigenschaften des Blei gescheitert (hohe Schmelztemperatur, die eine ständige Beheizung erfordert; große Korrosionsprobleme; hohe Pumpleistung; starke Aktivierung durch die Bildung von 210-Po). Je eingehender man sich mit Kühlmitteln beschäftigt, gibt es für ein Kernkraftwerk (zur reinen Stromerzeugung) lediglich zwei optimale Kühlmittel: Wasser für thermische und Natrium für schnelle Reaktoren.

Natrium ist wegen seines elektrischen Widerstandes hervorragend für den Bau von elektromagnetischen Pumpen ohne bewegliche Teile und damit ohne Dichtungsprobleme geeignet.

Bei Natrium braucht man immer einen zusätzlichen Zwischenkreislauf. Der Neutronenfluß bildet 24-Na, welches ein harter γ-Strahler ist. Das primäre Natrium muß deshalb gut abgeschirmt werden. Außerdem besteht bei Leckagen im Dampferzeuger die Gefahr der Wasserstofferzeugung und der Bildung von NaOH. Wasserstoff ist ein guter Moderator, der zu einer Beschädigung des Kerns durch einen Reaktivitätssprung führen könnte.

Die Gefahr von Natriumbränden wird meist überschätzt. Natrium hat eine hohe Verdampfungswärme bei hoher Verdampfungstemperatur. Dies führt zu einer geringen Verdampfungsrate während der Verbrennung – dem Feuer mangelt es an Nahrung. Die Verbrennung von Natrium in Luft, setzt nur etwa ein Viertel der Energie, wie Benzin frei. Bei dem klassischen Brandversuch in einer offenen Wanne, bilden sich nur wenige Zentimeter hohe Flammen und in einem Meter über den Flammen herrscht nur eine Temperatur von rund 100 °C. Die bei der Verbrennung entstehenden Na2O und NaO-Aerosole reagieren in Luft unter Anwesenheit von Wasserdampf und Kohlendioxid weiter zu NaOH und Na2CO3. Diese Aerosole erfordern anschließend gründliche Reinigungsarbeiten, da sie elektrische Anlagen zerstören können und giftig sind.

Natrium besitzt sehr gute Korrosionsschutzeigenschaften, da es leicht mit Sauerstoff reagiert. Erst oberhalb von 50 ppm besteht für gewisse Stähle eine Korrosionsgefahr im flüssigen Natrium. Dieser Wert ist problemlos über eine Kältefalle (Im Prinzip ein Topf, durch den ein Teilstrom von weniger als 5% des Kreislaufes sehr langsam hindurch strömt) auf 10 bis 25 ppm zu halten. In der Kältefalle kristallisiert das Na2O a bei unter 200 °C aus.

Warum metallischer Brennstoff?

Metallische Brennstoffe ermöglichen die höchsten Brutraten, da sie vollständig aus spaltbarem und brutfähigen Material bestehen könnten. Sie liefern das härteste Neutronenspektrum, da sie nur aus den schwersten Kernen bestehen. Die Folge ist, daß rund 25% der erzeugten Energie aus der direkten Spaltung von 238-U stammen können.

Metalle sind ausgezeichnete Wärmeleiter und vertragen sehr schnelle Temperaturänderungen. Im Gegensatz dazu sind Uranoxide – wie sie in allen Leichtwasserreaktoren verwendet werden – Keramiken, mit bekannt schlechter Wärmeleitung und Sprödigkeit. Sie können im Inneren bereits aufschmelzen, wenn sich ihre Randtemperatur noch kaum geändert hat und können bei schockartiger Abkühlung wie eine Teetasse zerspringen.

Metallische Brennstoffe vertragen sich ausgezeichnet mit dem flüssigen Natrium. Chemische Reaktionen, wie zwischen den Brennstabhüllen aus Zr bei Leichtwasserreaktoren und Wasserdampf, gibt es nicht (Wasserstoffexplosionen in Fukushima).

Metallischer Brennstoff schwillt durch die Strahlenbelastung um bis zu 30% an. Die Brennstäbe müssen deshalb sehr viel Raum für Spaltgase besitzen. Der notwendige Anfangsspalt zwischen Hüllrohr und Brennstoff wird mit Natrium als Wärmebrücke ausgefüllt.

Man kann bei Metallen die Eigenschaften durch Legierung gezielt verändern. Plutonium hat eine zu geringe Schmelztemperatur. Der Brennstoff kann mit den Legierungsbestandteilen der Stahlhülle schädliche Eutektika bilden usw. Dies alles, hat in den USA Jahrzehnte Forschung und Entwicklung und den Test von hunderttausenden von Brennstäben erfordert. Als Optimal hat sich eine Brennstofflegierung aus Uran und Plutonium mit etwa 10% Zr in einer Hülle aus austenitischem Stahl herausgestellt.

S wie small

Von Anfang an, stand bei der Entwicklung die geometrische Größe des Reaktors im Vordergrund: Man wollte den kompletten nuklearen Teil in einer Fabrik fertigen und testen und anschließend (möglichst) mit der Eisenbahn zum Standort transportieren. Alle Einbauten, der Kern, die Pumpen, die Zwischen-Wärmeübertrager, die Lademaschine mit dem Zwischenlager und die Regelstäbe werden in einen Topf aus Edelstahl eingebaut und mit dem Deckel gasdicht verschweißt. Diesen Reaktorbehälter umschließt noch ein zweiter Sicherheitsbehälter und die Luftkühlung. All das, wird in einer Fabrik zusammengebaut und getestet und anschließend zur Baustelle transportiert und dort in das örtlich gefertigte Betonsilo eingesetzt. Damit ist die geplante Leistung auf etwa 840 MWth begrenzt. Durch die Serienfertigung in einer spezialisierten Fabrik, verspricht man sich einen bedeutenden Kostenvorteil.

M wie modular

Die Modularität bezieht sich sowohl auf einen Block selbst, wie auch auf ein Kraftwerk:

·       Jeder Block besteht aus dem nuklearen Teil in einem unterirdischen Betonsilo, der oberirdischen Dampferzeuger-Anlage und den konventionellen Stromerzeugungsanlagen.

·       Ein komplettes Kernkraftwerk könnte z. B. eine elektrische Leistung von 1866 MWel haben und müßte dann aus sechs Reaktoren (je 840 MWth) bestehen, die jeweils paarweise auf eine Turbine (je 622 MWel) wirken und insgesamt drei Turbinen haben. Alle sonstigen Einrichtungen (Werkstatt, Sozialgebäude usw.) würden gemeinsam genutzt. Ein solches Kraftwerk könnte auch eine integrierte Wiederaufbereitungsanlage beinhalten.

Die interne Unterteilung zielt auf eine potentielle Kosteneinsparung ab: Lediglich der Reaktor in seinem Betonsilo müßte dem Sicherheitsstandard “nuclear grade” entsprechen. Bereits die Dampferzeugungsanlage in ihrem separaten Gebäude sollte – nach Meinung von GE – nur einen “gehobenen Industriestandard” haben. In wie weit, die Genehmigungsbehörden dieser Argumentation folgen werden, ist noch nicht ganz eindeutig zu beantworten.

Die Zusammenfassung von zwei Reaktoren mit Dampferzeuger und einer Turbine zu jeweils einer Einheit, zielt auf eine hohe Verfügbarkeit und einen kostengünstigen Ausbau eines Standortes ab. Sobald eine Einheit fertig ist, kann diese bereits Geld verdienen, während der Ausbau des Kraftwerkes weiter läuft. Die heute übliche Vorfinanzierung der gesamten Summe entfällt. Später, hat das Kraftwerk eine sehr hohe Verfügbarkeit bei guten Wirkungsgraden. Letztendlich muß die Praxis zeigen, welcher Weg der günstigere ist. Rußland beispielsweise, versucht es über möglichst große Blöcke.

Das Sicherheitskonzept

PRISM setzt konsequent auf eine passive oder inhärente Sicherheitstechnik. Der völlige Stromausfall (Station-Blackout) ist kein Problem mehr. Es wird lediglich eine elektrische Leistung von weniger als 200 kW für Instrumentierung, Notbeleuchtung, Rechner und Bildschirme usw. benötigt. Diese kann problemlos über Batterien bereitgestellt werden. Notstromdiesel (als Sicherheitstechnik) sind nicht mehr nötig. Die Nachzerfallswärme wird ausschließlich über eine Luftkühlung mit Naturzug abgeführt. Dazu wird die Wärme über das Reaktorgefäß und den Sicherheitsbehälter an einen umgebenden Luftspalt abgegeben. Die erwärmte Luft steigt über vier Kamine auf. Das System ist so bemessen, daß auch bei erheblichen Verstopfungen (z. B. durch Erdbeben oder Anschläge) oder dem kompletten Ausfall von zwei Kaminen oder einem völligen Verschluß der Zuluftöffnungen die Kühlung stets gewährleistet ist. Selbst bei einem völligen Ausfall von 36 Stunden, tritt noch keine Kernschmelze auf. Ein Unfall wie in Fukushima, wäre damit ausgeschlossen.

Der gesamte Reaktor ist elastisch auf Federn und Dämpfern gelagert. Da sich alle Rohrleitungen und Pumpen etc. in dem Reaktorgefäß befinden, ergibt sich ein optimaler Erdbebenschutz. Dies gilt auch für Flugzeugabstürze und sonstige Einwirkungen von außen, da sich der Reaktor in einem unterirdischen Betonsilo befindet. Die Verbindung zum Dampferzeuger besteht aus Vor- und Rücklauf des Natrium-Zwischen-Kreislaufes, die ebenfalls in einem Betongraben verlegt sind. Diese Leitungen sind als Rohr in Rohr Konstruktion ausgeführt, um Natrium-Leckagen zu verhindern.

Der Dampferzeuger ist ebenfalls mit einem Mantel zur Luftführung umgeben. Wenn die eigentliche Kühlung des Kraftwerks ausfällt, kann die Wärme auch darüber abgeführt werden. Dies ist jedoch kein nukleares Sicherheitssystem im engeren Sinne, sondern dient dem Anlagenschutz.

Die Lagerung der Brennelemente

Die Handhabung der Brennelemente verläuft bei diesem Reaktor gänzlich anders, als bei Leichtwasserreaktoren. Der Reaktor kann wegen des flüssigen Natriums mit seiner hohen Temperatur und Brandgefahr nicht einfach geöffnet werden. Zuerst wird das Helium als Schutzgas und Ausgleichsraum abgesaugt und durch frisches Gas ersetzt. Damit soll die Gefahr der Freisetzung radioaktiver Gase in den Sicherheitsbehälter vermieden werden. Die fest im Reaktor installierte Lademaschine entnimmt abgebrannte Brennelemente und lagert sie oberhalb des Kerns in ein Lagergestell ein. Anders als bei Leichtwasserreaktoren, verbleiben sie für mindestens 20 weitere Monate zur Abkühlung im Reaktor. Ihre Wärmeentwicklung durch den radioaktiven Zerfall ist dann soweit abgeklungen, daß sie auch ohne spezielle Kühlung keine Temperatur von 400 °C mehr überschreiten können. Dies ist für ihren metallischen Kern und die Hüllrohre aus Stahl kein Problem. Ein Brennelemente-Lagerbecken ist nicht nötig.

Ein vollautomatisches Transportfahrzeug dockt an den Reaktordeckel an, entnimmt die zu entladenden Brennelemente und fährt sie anschließend zum zentralen Lagergebäude.

All das, geschieht vollautomatisch und unter Schutzgas. Trotzdem ist ein Auslegungsstörfall der Brand des Natriums im Reaktor. Der Sicherheitsbehälter oberhalb des Reaktors ist so bemessen, daß er die freigesetzte Energie und die Temperaturen aushält. Automatische Löschanlagen mit Schutzgasen sind vorhanden.

Die Auslegungsstörfälle

Schnelle Reaktoren (SR) und Leichtwasserreaktoren (LWR) unterscheiden sich stark in ihrem Unfallverhalten. LWR stehen unter hohem Druck und werden nahe dem Verdampfungspunkt betrieben. Schon bei einem relativ kleinem Leck, baut sich der Druck stark ab und das “Kühlwasser” verdampft. Die Temperatur im Kern steigt damit steil an und nähert sich schnell den Grenzwerten. Gelingt es nicht, das Kühlwasser schnell zu ersetzen, wird der Kern zerstört (Unfall in Harrisburg). Auch nach erfolgreicher Abschaltung, kann die Nachzerfallswärme noch zur Kernschmelze führen (Unfall in Fukushima). Es kommt im weiteren Verlauf dann zur Reaktion zwischen Wasserdampf und den Brennstabhüllen mit starker Wasserstoffproduktion (zerstörende Explosionen in Fukushima).

Bei einem SR sieht der Ablauf gänzlich anders aus. Die Kombination aus metallischem Brennstoff, Brennstabhüllen aus Edelstahl und Natrium als Kühlmittel ergibt eine sehr gute Wärmeübertragung mit hoher Temperaturbeständigkeit. Chemische Reaktionen zwischen den Unfallbeteiligten sind praktisch nicht vorhanden. Mit anderen Worten: Es wird recht schnell und gleichmäßig heißer im Reaktor. Wegen der hohen Verdampfungstemperatur kann es deutlich heißer werden, ohne daß sich wesentliches ändert. Bei einem LWR reicht selbst die Nachzerfallswärme aus, den Kern zum Schmelzen zu bringen, wenn er nicht mehr mit flüssigem Wasser bedeckt ist. Bei einem SR führt die starke Temperaturerhöhung lediglich zu einem neuen Gleichgewicht zwischen “Notkühlluft” und Reaktorgefäß. Die neue Gleichgewichtstemperatur ist so bemessen, daß sie sich noch weit von Materialgrenzwerten entfernt einstellt. Der Reaktor ist “inhärent sicher”.

Bei jedem Reaktor führen gewisse Grenzwerte zur sofortigen und automatischen Abschaltung. Beim PRISM fallen zu diesem Zweck sechs Regelstäbe in den Kern ein. Die Kettenreaktion wird dadurch in Sekundenbruchteilen unterbrochen. Zur dauerhaften Abschaltung gibt es noch ein zweites System, das Kugeln aus Borkarbid in den Kern einführt. Insofern unterscheiden sich LWR und SR kaum.

Man geht aber beim PRISM-Reaktor noch einen Schritt weiter, in dem man sich den starken Temperaturanstieg nutzbar macht. Dieser führt zu einer Reihe von Auswirkungen, die neutronenphysikalisch wirken (Dopplereffekt, Dichteänderung des Natrium, Axiale und radiale Ausdehnungen des Brennstoffs, usw.). Wichtig ist die konstruktive Gestaltung, damit der Temperaturkoeffizient der Reaktivität immer negativ bleibt (In Tschernobyl war er positiv!). In Alltagssprache: Je heißer der Reaktor wird, um so schneller bricht die Kettenreaktion von selbst zusammen. Wird die Kühlung – aus welchen Gründen auch immer – unterbrochen, schaltet sich der Reaktor von selbst ab. Er ist also auch im Betrieb “inhärent sicher”.

Der Ausfall der Umwälzpumpen im Reaktor (vier Stück) kann zu einer lokalen Überhitzung führen, die örtlich sogar zu einem Verdampfen des Natriums führen könnte. Dadurch könnte der Neutronenfluß lokal weiter ansteigen und Teile des Kerns beschädigen. Ursache sind die elektromagnetischen Pumpen, die keine rotierenden Massen haben und somit sofort ausfallen, wenn der Strom weg ist (Station-Blackout). Sie werden deshalb mit Synchronmotoren, mit extra großen Schwungmassen, parallel betrieben. Die Synchronmaschinen erzeugen im Normalbetrieb Blindleistung und schalten bei Stromausfall automatisch in den Generatorbetrieb um. So entsteht ein mehrere Minuten dauernder Auslauf der Pumpen, der lokale Überhitzungen verhindert und sanft in einen Naturumlauf überführt.

Versagt auch dieses System, werden die Gasraum-Ausdehner wirksam. Sie funktionieren nach dem Prinzip eines umgedrehten Glas im Spülbecken: Je weiter man es eintaucht, um so kleiner wird das Luftpolster infolge des steigenden Wasserdrucks. Im PRISM spielt nun der Pumpendruck auf das Natrium mit einem Gaspolster aus Argon zusammen. So wie der durch die Pumpen erzeugte Druckanstieg kleiner wird, dehnt sich das Argonpolster aus. Da das Gas eine wesentlich geringere Dichte als das flüssige Natrium hat, kann es auch weniger Neutronen in den Kern zurück streuen. Der Ausfluß erhöht sich und die Kettenreaktion bricht zusammen. Ein weiteres, völlig passives, Sicherheitssystem.

 Natriumbrand im Dampferzeuger

Ein spezielles Sicherheitsproblem, ist die Reaktion zwischen Wasser und Natrium. Bei ihr wird neben Energie auch Wasserstoff frei bzw. es entstehen Reaktionsprodukte, die Wasserstoff enthalten. Daraus ergeben sich folgende Ansprüche:

·       Der Dampferzeuger sollte in einem separaten Gebäude – streng getrennt vom Reaktor – stehen. Da es nur hier eine Schnittstelle zwischen Wasser und Natrium gibt, können alle Auswirkungen besser beherrscht und lokal begrenzt werden.

·       Es sollte eine Isolierung zwischen Dampferzeuger und Reaktorteil geben, um Rückwirkungen auf die Wärmetauscher im Reaktor zu verhindern.

·       Es müssen ausreichend große Abblasetanks vorhanden sein, um Natrium und Wasser möglichst schnell voneinander zu trennen, damit die Brandlasten klein bleiben. Entstandener Wasserstoff muß rekombiniert bzw. sicher abgeleitet werden, um Explosionen zu verhindern (nicht wie in Fukushima, auch noch benachbarte Gebäude zerstören.)

Der Dampferzeuger des PRISM ist ein schlanker, aufrecht stehender Behälter. Er ist nicht vollständig mit Natrium gefüllt, sondern besitzt oben einen mit Argon gefüllten Raum. Dieses Gaspolster, kann bei Störfällen, etwaige Druckwellen, bereits erheblich mindern. In dieses Natriumbad tauchen, zu einer Spirale gewickelte Rohre, ein. In diesen strömt das Wasser und verdampft. Würde ein Rohr undicht werden, strömt Wasser bzw. Dampf unter hohem Druck in das Natrium ein und reagiert dort sofort. Die zusätzliche Energieproduktion kann zu einem Temperaturanstieg im Dampferzeuger führen. Wichtigste Gegenmaßnahme ist nun die Absperrung sowohl der Wasser- und Dampfleitungen wie auch der Natriumleitungen. Dabei sind kleine Leckagen kein Problem, da sie ein langsames Abfahren der Anlage ermöglichen.

Kommt es hingegen zu massiven Wassereinbrüchen, kann es zu einer stärkeren Temperaturerhöhung und einem steilen Druckanstieg führen. Wichtigstes Ziel ist nun, die Druckspitze zu begrenzen und die Druckwelle möglichst von den Zwischenwärmetauschern im Reaktor fern zu halten. Zur Dämpfung dient bereits das Gaspolster im Dampferzeuger. Wird der vorgesehene Druck überschritten, bersten zwei Scheiben in der Verbindungsleitung zum Abblasetank. Der Abblasetank trennt die Gase (insbesondere den entstandenen Wasserdampf) vom flüssigen Natrium. Das Natrium strömt dann weiter in Reservetanks. Bereits gebildeter Wasserstoff wird rekombiniert, um etwaige Explosionen zu vermeiden. Die Restwärme wird über die Außenluft abgeführt.

Unmittelbar hinter dem Sicherheitsbehälter des Reaktorgebäudes befinden sich Isolierventile, die sofort und automatisch schließen. Dadurch wird verhindert, daß überhaupt Reaktionsprodukte zum Reaktor gelangen können.

Schlußbetrachtung

Es gibt international viel Erfahrung aus einigen hundert Betriebsjahren mit natriumgekühlten schnellen Reaktoren. Allein in den USA ist der BER II über 30 Jahre erfolgreich gelaufen. Man hat in ihm über 100000 Brennelemente getestet und umfangreiche Experimente der Sicherheitssysteme durchgeführt. Mehrfach wurde bei voller Leistung die Wärmesenke einfach abgestellt, um beispielsweise die Richtigkeit der Rechenprogramme zu überprüfen. Die Entwicklung ist seit dem – wenn auch stark reduziert – kontinuierlich weitergeführt worden. Bereits 1994 wurde das eingereichte Konzept von der NRC in einem 400seitigen Abschlussbericht positiv beurteilt. Seit dem, könnte eigentlich ein Kraftwerk als Demonstrationsanlge gebaut werden – wenn der politische Wille vorhanden wäre. Ob auch hier wieder China voranschreiten wird oder kann Europa (GB) noch den Anschluß halten?

Ausblick

Der zweite Teil, wird sich mit der Wiederaufbereitung und der Herstellung der metallischen Brennelemente beschäftigen.

http://www.nukeklaus.de/home/prism-das-moderne-entsorgungszentrum-teil-1/




Nobelpreisträger Ivar Giaever: „Haltung Obamas zur globalen Erwärmung ist lächerlich und völlig falsch!“

Bild rechts: Nobelpreisträger Ivar Giaever

Giaever, ein ehemaliger Professor an der School of Engineering und School of Science Rensselaer Polytechnic Institute erhielt im Jahre 1973 den Physik-Nobelpreis für seine Arbeiten zu quantum tunneling. [Bevor ich diesen Begriff falsch übersetze, lasse ich ihn lieber unverändert. Anm. d. Übers.] Giaever machte seine Anmerkungen auf der 65. Nobelpreisträger-Konferenz in Lindau, wo sich 65 Empfänger dieses Preises versammelt hatten. Giaever wird auch in der neuen Dokumentation „Climate Hustle” vorgestellt, deren Veröffentlichung für den Herbst dieses Jahres vorgesehen ist.

Giaever war im Jahre 2008 einer der grundlegenden wissenschaftlichen Unterstützer von Präsident Obama, war er doch damals einer Gruppe von über 70 Nobelpreisträgern beigetreten, die im Oktober 2008 einen offenen Unterstützer-Brief an Präsident Obama geschrieben hatten. Giaever unterschrieb diesen Brief, in dem es u. A. heißt: „Das Land [= die USA] braucht einen visionären Führer … wir sind davon überzeugt, dass Präsident Obama ein solcher Führer ist, und wir raten dringend dazu, ihn zu unterstützen“.

Aber sieben Jahre, nachdem er diesen Brief unterschrieben hatte, schimpft er mit Präsident Obama wegen dessen Aussage, dass „kein Problem eine größere Bedrohung für zukünftige Generationen darstellt als der Klimawandel“. Giaever nannte das ein „lächerliches Statement“.

„Genau das hat er gesagt, und es ist ein lächerliches Statement“, erläuterte Giaever. „Ich sage Obama Folgendes: „Entschuldigen Sie, Herr Präsident, aber sie haben unrecht. Absolut unrecht“.

Die ganze Rede von Giaevers 30 Minuten langem Vortrag kann man auf dem Video hier hören.

[Einschub: Unter dem Link zu diesem Video findet sich auch das folgende

Abstract aus Giaevers Rede:

„Wegen folgender Äußerung der American Physical Society: Der Beweis ist unumstößlich: Die globale Erwärmung findet statt. Falls keine abschwächenden Maßnahmen ergriffen werden, wird es wahrscheinlich zu bedeutenden Störungen der physikalischen und ökologischen Systeme der Erde kommen, mit Auswirkungen auf Sozialsysteme, Sicherheit und menschliches Wohlergehen. Wir müssen die Emissionen von Treibhausgasen sofort reduzieren.

..bin ich aus der Gesellschaft im Jahre 2011 ausgetreten.

Erstens: In der Wissenschaft ist nichts unwiderlegbar. Zweitens: die „gemessene“ mittlere Temperaturzunahme der letzten 100 Jahre oder so beträgt 0,8 K. Drittens: Seit der Behauptung der Physical Society ist es wärmer geworden – warum ist danach alles besser als vorher? Viertens: Die maximale, jemals gemessene mittlere Temperatur wurde im Jahre 1998 registriert, also vor 17 Jahren. Wann endlich werden wir aufhören, Geld für alternative Energie zu verschwenden?“

[Ende dieses Abstract]

„Wie kann er das sagen? Ich glaube, dass Obama ein cleverer Mensch ist, aber er wird schlecht beraten. Hinsichtlich der globalen Erwärmung ist er noch feucht hinter den Ohren“, fügte er hinzu. „Im vorigen Jahr sagte Obama, dass 2014 das wärmste Jahr jemals war. Aber das stimmt nicht. Es ist nicht das wärmste Jahr!“

(Anmerkung: Andere Wissenschaftler haben in punkto Klimawandel ebenfalls ein Umdenken durchlaufen. Siehe hier).

Der Physiker und Nobelpreisträger stellt die Grundlage der ausgestreuten Ängste bzgl. Kohlendioxid in Frage.

Globale Erwärmung ist ,eine neue Religion‘

Giaever führte weiter aus, dass sein Eintreten in die Klimaforschung ihm die Augen geöffnet habe. „Ich war zutiefst erschrocken über das, was ich sehen musste“, merkte er nach Forschungen auf diesem Gebiet im Jahre 2012 an. „Die globale Erwärmung ist wirklich zu einer neuen Religion geworden. Weil man darüber nicht diskutieren darf. Es ist nicht angebracht. Das ist wie in der katholischen Kirche“.

Bedenken hinsichtlich eines ,erfolgreichen‘ UN-Klimavertrages

„Ich hege große Bedenken hinsichtlich der UN-Konferenz in Paris im November. Darüber bin ich wirklich ernsthaft besorgt. Weil die UN-Konferenz in Kopenhagen 2009 fast zur Katastrophe wurde, aber nichts entschieden worden ist. Aber jetzt glaube ich, dass die Personen auf der alarmistischen Seite in einer sehr starken Position sind“, sagte Giaever.

„Fakt ist, dass die von uns gemessenen Temperaturen während der letzten 100 Jahre gestiegen sind. Um 0,8 Grad, und alles in der Welt hat sich verbessert. Wie also kann er behaupten, dass alles immer schlimmer wird, wenn wir die Beweise haben? Wir leben länger, erfreuen uns besserer Gesundheit. Aber wenn es noch einmal um 0,8 Grad wärmer wird, werden wir wohl alle sterben“, merkte er an.

„Ich sage mal, dass die globale Erwärmung im Wesentlichen ein Nicht-Problem ist. Man lasse das Thema einfach in Ruhe, und es wird sich von selbst lösen. Es mir unverständlich, warum fast jede Regierung in Europa – außer der polnischen Regierung – sich so viele Sorgen macht über die globale Erwärmung. Das muss wohl Politik sein.

Bisher ist die Welt in einem besseren Zustand als zu der Zeit, in der wir das Licht der Welt erblickten, und dies wird auch weiterhin so sein – mit einer Ausnahme: wir müssen aufhören, riesige – und ich meine riesige – Geldsummen bzgl. der globalen Erwärmung zu verschwenden. Das müssen wir tun, oder die Entwicklung wird rückwärts verlaufen. Die Menschen glauben, dass dies nachhaltig ist, aber dem ist nicht so“.

Über die globalen Temperaturen & CO2

Giaever verwies darauf, dass die globalen Temperaturen seit über 18 Jahren nicht mehr gestiegen sind. Er warf der NASA und regierungsamtlichen Wissenschaftlern „Manipulation“ von Daten vor.

„Man kann die Daten manipulieren. Genau das tut die NASA.

Man kann den Menschen – den Alarmisten – nicht glauben, wenn sie von CO2 als einer schlimmen Sache reden. Das stimmt nicht, das stimmt absolut nicht“. Dabei zeigte er eine Folie mit der Frage ,Glauben Sie, dass CO2 ein wesentliches Klimagas ist?‘

„Ich denke, dass die Temperatur bemerkenswert stabil geblieben ist. Welches ist die optimale Temperatur der Erde? Ist das die Temperatur, die wir derzeit haben? Das wäre ein Wunder. Niemand hat mir bisher die optimale Temperatur der Erde genannt. Wie kann man überhaupt die mittlere Temperatur der gesamten Erde messen und mit dem Bruchteil eines Grades daherkommen? Ich glaube, dass die optimale Temperatur des Kaisers neuen Kleidern gleicht. Wie kann man nur glauben, dass man sie auf Bruchteile von Graden genau messen kann? Das ist lächerlich!“.

Unterdrückung der Debatte

Giaever warf dem Magazin Nature vor, es wolle „auf dem Klimapfad Kasse machen“.

„Meine Freunde raten mir, mich nicht über Nature lustig zu machen, weil sie anderenfalls meine Studien nicht veröffentlichen würden“, erklärte er. „Niemand erwähnt, wie wichtig CO2 für das Pflanzenwachstum ist. Es ist etwas Wundervolles. Die Pflanzen hungern regelrecht. Man redet nicht darüber, wie gut der zunehmende CO2-Gehalt der Landwirtschaft tut“.

Behauptungen zu Extremwetter

„Der zweite Aspekt, der mich fasziniert ist, dass wenn man über Klimawandel redet, dieser immer als schlimm und schlimmer dargestellt wird. Zum Kuckuck, es gibt genug Gebiete, in denen jedweder Klimawandel auch viel Gutes bewirkt. Es kann nicht jeder Klimawandel nur immer schlechter sein!

Und dann kommt der Knüller: Falls der Klimawandel die Menschen nicht ängstigt, können wir die Menschen ängstigen mit dem Gerede über Extremwetter.

Während der letzten 100 Jahre ist der Meeresspiegel um 20 cm gestiegen – aber während der 100 Jahre zuvor hatte der Anstieg ebenfalls 20 cm betragen, und auch während der letzten 300 Jahre ist er um 20 cm/100 Jahre gestiegen. Das ist also nichts Ungewöhnliches. Und ich wiederhole: Es gibt keinen ungewöhnlichen Anstieg des Meeresspiegels!“

Falls überhaupt, sind wir in eine Periode mit besonders wenigen Hurrikanen eingetreten. Das sind die Fakten. Man muss nicht einmal Wissenschaftler sein, um das zu erkennen und zu wissen, was das bedeutet. Das Gleiche gilt für Tornados. Gegenwärtig befinden wir uns in den USA diesbezüglich in einem Minimum (siehe hier)“

Medien-Hype

Giaever dazu: „Es stimmt nicht, was die Menschen sagen. Ich habe mich gestern mit einem Journalisten der deutschen Tageszeitung Die Welt unterhalten … und habe ihn gefragt, wie oft er geschrieben habe, dass die globale Erwärmung etwas Gutes ist. Er erwiderte, er würde so etwas überhaupt nicht publizieren. Es ist immer negativ. Immer!“

Energiearmut

Giaever dazu: „Man hört viel von Flüchtlingen, die das Mittelmeer zu überqueren versuchen. Diese Menschen fliehen nicht vor der globalen Erwärmung, sondern vor Armut“ [und noch mehr vor der entsetzlichen, mutwillig herbeigeführten Not in ihren Heimatländern! Anm. d. Übers.]. „Falls man Afrika wirklich helfen will, aus der Armut zu kommen, dann versuche man nicht, sie mit Solarpaneelen und Windmühlen zu beglücken.

Verschwenden Sie Geld für Solarpaneele und Windmühlen, anstatt den Menschen zu helfen? Diese Menschen sind in die Irre geführt worden. Am Ende kostet es Geld, das zu tun. Windmühlen kosten Geld! Billige Energie ist es, die uns reich gemacht hat, und jetzt plötzlich wollen die Menschen das nicht mehr.

Die Menschen sagen, dass die Ölunternehmen die Großen Bösen Leute sind. Ich verstehe nicht, warum diese schlimmer sein sollen als die Windmühlen-Unternehmen. General Electric stellt Windmühlen her. Die Firma sagt Ihnen aber nicht, dass diese nicht ökonomisch sind, weil sie damit Geld scheffeln. Aber niemand protestiert gegen GE, sondern viele gegen Exxon, die Öl erzeugen“.

—————————————–

Dr. Ivar Giaever ist aus der American Physical Society APS am 13. September 2011 ausgetreten. Als Grund nannte er sein tiefes Missfallen über das Verhalten dieser Gruppe gegenüber den Ängsten eines vom Menschen verursachten Klimawandels.

—————————————–

Im Original folgen viele Links und Hinweise zu anderen hochrangigen Wissenschaftlern, die es Dr. Giaever gleichgetan haben. Mehrere Beiträge davon sind seinerzeit auch als Übersetzung auf diesem Blog erschienen. – Anmerkung des Übersetzers.

Link:

Übersetzt von Chris Frey EIKE




Neue Hitzerekorde – Bemerkungen dazu aus statistisch-synoptischer Sicht

Der bisherige Rekord steht bei 40,2°C im August 2003. Das war ja bekanntlich der große Hitzesommer. Jetzt schlägt laut DWD der Hitzerekord mit 40,3°C (in Kitzingen/Main) zu Buche. Ich bezweifle, dass dieser „Rekord“ irgendeine Aussagekraft hat, und zwar aus folgenden Gründen:

Erstens ist der Rekord diesmal Anfang Juli aufgetreten. Die bisherigen Regordwerte von 40,2°C datieren vom 27 Juli 1983 in Gärmersheim östlich von Nürnberg. Im August 2003 wurde dieser Rekord in Karlsruhe und Freiburg ebenfalls genau erreicht, doch zeichnet sich vor allem Karlsruhe durch eine beachtliche Wärmeinsel aus. Nun liegt die vieljährige Mitteltemperatur Ende Juli/Anfang August schon wieder niedriger als Anfang Juli. Das heißt, hätte sich die Wetterlage, die im August zu dem bisherigen Rekord geführt hatte, bereits Anfang Juli eingestellt, wäre es ziemlich sicher noch deutlich heißer gewesen.

(Aus diesem Grunde möchte ich den diesjährigen „Rekord“ immer in Anführungszeichen gesetzt sehen. Lediglich der Einfachheit halber lasse ich diese aber im Folgenden weg).

Zweitens erfährt man ja nichts darüber, wo und wie das Thermometer relativ zur Umgebung aufgestellt ist. Kowatsch & Kämpfe haben immer wieder die Bedeutung des Wärmeinsel-Effektes beschrieben – muss man den hier abziehen? Muss man den auch von dem Rekordwert 2003 abziehen?

Übrigens hat sich unser Übersetzer Chris Frey auf seinem Blog ein paar Gedanken zu der Frage gemacht „Was ist normal?“, und zwar hier.

Bemerkungen aus synoptischer Sicht

Wie in früheren Beiträgen schon einmal genauer beschrieben, wird der Temperaturgang maßgeblich von Luftmassen bestimmt, die aus allen Himmelsrichtungen zu uns advehiert werden. Dabei sind drei Faktoren ausschlaggebend: Erstens, aus welchem Ursprungsgebiet stammt die Luftmasse, zweitens, auf welchem Weg ist sie zu uns geströmt und drittens wie lange hat sie dafür gebraucht. Eine Luftmasse aus (im Vergleich zu unserem Klima) extrem temperierten Ursprungsgebieten wird durch den Untergrund modifiziert, und zwar je stärker, umso länger der Weg ist (räumlich UND zeitlich).

Nun haben Kowatsch & Kämpfe belegt, dass im Juli immer noch ein gewisser positiver Trend der Temperaturen zu verzeichnen ist, während der Trend in allen anderen Monaten das umgekehrte Vorzeichen aufweist. Dies kann mehrere Ursachen haben.

Einmal könnte es in den Juli-Monaten der letzten Jahre häufiger Vorstöße von Luftmassen subtropischen/tropischen Ursprungs gegeben haben als früher. Oder die Anzahl dieser Vorstöße ist in etwa gleich geblieben und die Temperaturen in den Ursprungsgebieten liegen höher als früher.

Für Letzteres gibt es jedoch den Satelliten-Beobachtungen (und nur diese halte ich überhaupt für relevant) zufolge keinerlei Anzeichen. Bleibt also nur Ersteres übrig, aber wie immer erhebt sich gleich eine Folgefrage: was könnte der Grund dafür sein?

Gleich vorweg: da gibt es keine eindeutige Antwort, und der Spekulation ist Tür und Tor geöffnet. Ein paar Dinge lassen sich aber aus synoptischer Sicht festhalten: Für den Vorstoß extrem temperierter Luftmassen (egal ob nun warm oder kalt) ist grundsätzlich ein meridionales Strömungsmuster Voraussetzung. In einer mehr zonalen Westströmung wird es niemals zu irgendwelchen Temperaturrekorden kommen, egal mit welchem Vorzeichen.

Und tatsächlich sind während der letzten Jahre vor allem im Sommer gehäuft meridional orientierte Wetterlagen aufgetreten. Der Autor dieses Beitrags beobachtet seit mindestens zehn Jahren (ohne dass er dies explizit mit Zahlen belegen kann) eine Erhaltensneigung meridional ausgerichteter Wetterlagen, die länger ist als beispielsweise während der siebziger und achtziger Jahre. Markant erscheinen vor allem die seit mehreren Sommern hintereinander auftretenden Südwestlagen mit kurzen Hitzeschüben und den entsprechenden schweren Unwettern. Auch in diesem Jahr im Juni war das der Fall. Dabei waren die Temperaturschwankungen enorm: In der ersten Monatshälfte erfolgte bereits ein Vorstoß extrem warmer Luft, jedoch so schnell (24 Stunden), dass nicht einmal die Junisonne in der Lage war, diese Luftmasse durchzuheizen. Man erinnere sich, dass schon damals ein paar Tage vorher von zu erwartenden „Hitzerekorden“ die rede war, die dann nie eingetroffen sind.

Und in der zweiten Monatshälfte gab es dann einen nachhaltigen Kaltlufeinbruch von Nordwesten her, wobei die Schneefallgrenze um den 20. Juni in den Alpen bis 2000 Metern sank!

Und jetzt also wieder die Hitze, die aber nun zu Ende ist, den Modellrechnungen zufolge (die als Trend MAXIMAL mit hinreichender Genauigkeit etwa eine Woche (und nicht 50 oder 100 Jahre!) in die Zukunft schauen können stellt sich bei uns jetzt tatsächlich eine mehr oder weniger ausgeprägte Westlage ein.

Haben nun die extremen Temperaturschwankungen bei uns zugenommen? Die Frage muss aber vor dem o. g. Hintergrund anders gestellt werden: haben meridionale Wetterlagen in letzter Zeit zugenommen?

Der Autor tendiert dazu, diese Frage zu bejahen, und zwar hauptsächlich aufgrund von Erfahrungen, dass auch während des Sommerhalbjahres immer wieder Höhenwirbel im 500-hPa-Niveau bis weit nach Süden geführt werden, im Juli vorigen Jahres sogar bis nach Sizilien (!), was dort mitten in der üblichen sommerlichen Trockenzeit zu extrem ergiebigen Niederschlägen geführt hat, und zwar den ganzen Monat über und auch noch mit abnehmender Tendenz in den Nachbarmonaten.

Dennoch, eine eindeutige Antwort hat der Autor zu dieser Frage nicht. Aber ein anderer und sehr wesentlicher Aspekt scheint hier eine tragende Rolle zu spielen: in anderen Beiträgen von Kowatsch & Kämpfe haben diese schon vor Jahren nachgewiesen, dass in einem sich abkühlenden Klima viel öfter Extremwetterlagen und extreme Temperaturschwankungen auftreten können als in einem konstant warmen Klima.

Bislang sind diese Ereignisse bzgl. rascher Wechsel vor allem im Sommer aufgetreten. Bleibt die spannende Frage, wie das im kommenden Winter wird, nachdem die voran gegangenen beiden Winter von zonalen Westlagen geprägt waren mit der entsprechen überwiegend milden Witterung bei uns.

Hans-Dieter Schmidt




Energie-Effizienz-Programme sind ein weiterer grüner Flop

Die Rationale lautet, dass Verbraucher kurzsichtig handeln, wenn sie sich weigern, ihre Häuser zu isolieren oder effizientere Ausrüstung kaufen. Sie sollten in diese Richtung geschoben werden.

Aber eine neue Studie stellt diese Prämisse in Frage. Die Untersuchung bei Haushalten, die öffentliche Subventionen in Anspruch genommen hatten, um ihre Häuser gegen das Wetter zu „rüsten“, ergab, dass die Investitionen bzgl. Effizienz weit mehr kosten als sie einsparen. Die Verbraucher könnten also ganz und gar nicht irrational handeln, wenn sie auf solche Subventionen verzichten: die Programme sind einfach viel weniger vorteilhaft als deren Befürworter glauben.

Die Studie enthält wichtige Implikationen hinsichtlich der derzeitigen Bemühungen, die den Planeten erwärmenden Kohlendioxid-Emissionen [?] zu reduzieren. Energieeffizienz-Programme sind politisch populär, könnten jedoch weitaus teurer sein als Mechanismen, die von Preissignalen abhängen. Darunter sind Kohlenstoffsteuern (zugegeben, ein politischer Schuss in den Ofen) oder Emissions-Zertifikate, eine der verfügbaren Optionen für Staaten zur Erreichung neuer politischer Begrenzungen von Treibhausgas-Emissionen.

Die Vorstellung, dass sich die Verbraucher selbst schaden, wenn sie Investitionen zur Reduktion ihrer Treibstoff- und Stromrechnungen links liegen lassen, ist inzwischen bekannt unter der Bezeichnung „Energieeffizienz-Lücke“. Ökonomen, die die Psychologie zur Erklärung scheinbar irrationalen Verhaltens bemühen, glauben, dass Ungeduld, fehlende Informationen oder Trägheit die Lücke erklären können.

Viele Regierungsprogramme trachten danach, diese Lücke zu schließen, zum Beispiel indem sie Unternehmen dazu anhalten, die Verbraucher mit effizienteren Glühlampen auszustatten. Das Weatherization Assistance Program (WAP) der USA, ins Leben gerufen im Jahre 1976, bietet Familien mit geringem Einkommen Subventionen an, damit sie ihre Wohnungen energieeffizienter machen mit neuen Möbeln und Isolierung von Dach und Wänden. Dieses Programm erfuhr einen gewaltigen Schub als Teil des ökonomischen Stimulans-Paketes der Obama-Administration im Jahre 2009.

Michael Greenstone von der University of Chicago und ehemals Chefökonom im Council of Economic Advisers der Obama-Administration, sowie Meredith Fowlie und Catherine Wolfram von der University of California in Berkeley verwendeten ein willkürlich gewähltes Kontrollsystem, um zu bestimmen, ob die von Ingenieurs-Modellen vorhergesagten Einsparungen für WAP mit der Realität in Einklang standen.

Die Autoren konzentrierten sich auf eine Stichprobe von über 30.000 für WAP geeignete Haushalte in Michigan. Davon wurde ein Viertel ermutigt, sich um das Programm zu bemühen via Hausbesuchen von Mitarbeitern, die für diese Studie angeheuert worden waren, und via Telefon. Die Haushalte waren sehr zögerlich, obwohl es sie nichts gekostet hätte.

Dann verglichen die Autoren den Energieverbrauch und die Thermostat-Einstellungen der Haushalte, die sich um das Programm bemühten, mit denen, die dies nicht taten. Der Energieverbrauch der Teilnehmer an dem Programm ging um 10% bis 20% zurück, war also weit entfernt von den vom Modell vorhergesagten 40%. Die Einsparungen beliefen sich auf 2400 Dollar, weniger als die Hälfte der Investitionen in Energieeffizienz von 5000 Dollar. Die Autoren bezifferten den Rücklauf aus den Investitionen mit minus 2,2% über 16 Jahre, also viel schlechter als die historischen Rückläufe aus Aktien oder Anteilen.

Full post (paywalled)

Link: http://www.thegwpf.com/energy-efficiency-programmes-are-another-green-flop/

Übersetzt von Chris Frey EIKE




Solarflugzeug Solar Impulse – Spirit of bullshit

Die tollkühnen Eidgenossen wechseln sich am Steuer des 72 Meter breiten Carbonfaservogels ab. Denn der 2,3 Tonnen schwere, 90 km/h schnelle Ökoflieger verträgt außer einem einzigen Piloten an Bord so gut wie keine Zuladung.

Nachdem Boschberg in China wochenlang auf günstiges Wetter gewartet hatte, brachte er die fliegende Solarkiste via Japan schließlich in Hawaii stolz wie Bolle zur Landung. Da jubelte nicht nur das 30-köpfige Kontrollzentrum in Monaco, von wo aus das etliche Millionen teure Projekt gesteuert wird (Sponsor u.a.: die Luxusmarkengruppe Moet/Hennessy). Es jubelte auch die Pressemeute, als ihr Borschberg den kühnen Satz ins Notizbüchlein diktierte: „Niemand kann jetzt mehr sagen, dass Erneuerbare Energien nicht das Unmögliche vollbringen können.“

Alle Medien berichteten selig, von der dpa bis zu „Spiegel online“, von der „Zeit“ bis zur „Süddeutschen“. Und die Jungs und Deerns von der „taz“ machten sich fast die Büxen nass ob des Projekts. Welches für sie „kein Flugzeug“, sondern „ein Statement“ ist. In dem die Genossen gar das Zeichen für „eine epochale Wende der Menschheit“ zu erkennen wähnten.

Natürlich schielt die Aktion der Schweizer Luftikusse auf Charles Lindbergh, dem 1927 die erste nonstop und allein unternommene Atlantiküberquerung gelang. Lindbergh war ein Luftfahrtpionier in dem Sinne, dass sein Flug im einmotorigen Hochdecker Ryan NYP, getauft auf den Namen „Spirit of St. Louis“, tatsächlich bahnbrechend war. Gut zehn Jahre danach flogen auch Passagiermaschinen über den Atlantik.

Die Schönwetterpiloten in ihrer gesponserten Hobbymühle dagegen bewegen gar nichts, abgesehen von den eigenen Ärschen. Stromerzeugung mittels der erratischen Solartechnik ist schon am Boden weitgehend sinnlos, weil immer konventionelle Kraftwerke im Hintergrund mitlaufen oder bereit gehalten werden müssen. Für richtige Flugzeuge wäre ein Antrieb per Solarkraft ungefähr so effektiv wie ein Eis am Stiel zur Kühlung einer Fischfabrik. Es sei denn, man gäbe jedem Solarliner ein konventionelles Flugzeug mit auf den Weg, das den Sonnenvogel bei Bedarf auf den Haken nimmt.

Und auch für das Nichts-ist-unmöglich-Getröte der Solarlobby eignet sich das Solarmobil schlecht. Dermaßen dämlich, einen teuren Spleen von zwei aufmerksamkeitssüchtigen Geschaftlhubern mit dem Durchbruch der Solarenergie zum Global Player zu verwechseln, sind die meisten Menschen denn doch nicht. Wie die Reaktionen vieler Leser zeigten, die sich über den grotesken Medienhype des jämmerlichen Aeroplans ärgerten. Einer brachte die Kosten-Nutzen-Rechnung auf den Punkt: „Sorry, das Ding kostet schlicht Millionen und kann nichts.“ Ganz ähnlich der Solarenergie als solcher.

Demnächst fliegt die Solar Impulse 2 weiter in Richtung Festland-Amerika. The spirit of bullshit never dies.

Übernommen von ACHGUT hier




Das Erdkabel ist kein Patentrezept

Für die konventionelle Drehstrom-Freileitung sprechen die geringeren Baukosten und die Erfahrungen bei Bau und Betrieb. Außerdem ist sie im Gegensatz zum Gleichstrom-Erdkabel unterwegs mit dem vorhandenen Leitungsnetz verknüpfbar. Das ist für die Netzstabilität ein Wert an sich. Das Gleichstrom-Erdkabel ist wie eine Autobahn ohne Anschlußstellen. Im Netz ist sie ein Fremdkörper. Für die Gleichstrom-Erdverkabelung sprechen lediglich landschaftsästhetische Belange und der Schutz der Vogelwelt.

Technisch-ökonomisch ist es erforderlich, daß man sich für eine von beiden Lösungen konsequent entscheidet. Der abschnittsweise Wechsel zwischen Hochspannungsfreileitung für Drehstrom und Erdverkabelung für Gleichstrom ist sündhaft teuer, da jede Umformung des Stroms etwa 50 bis 100 Mio. € an Investitionsaufwendungen erfordert. Wie weit das den Politkern klar ist, wird sich zeigen.

Die Freileitungsgegner behaupteten, eine Verkabelungstrasse sei kürzer, über dem Kabel könne Landwirtschaft betrieben werden und die Trassenbreite sei geringer.

Die Trassenbreite ist beim Kabel tatsächlich deutlich geringer. Mit der landwirtschaftlichen Nutzung ist das aber so eine Sache. Über oder neben der Leitung muß dauerhaft eine Straße oder ein befestigter Weg unterhalten werden, der den Zugang zum Kabel gewährleistet, um an die Muffen und an die Kabel jederzeit heranzukommen. Wegen dieser Straße, die man auch schon als Baustraße benötigt, kommt die Trassierung über Schluchten und steile Berghänge nicht in Betracht. Man kann nur so trassieren, daß die Leitung an einer befahrbaren Straße liegt. Da ist bei etwas mehr als 10 % Längsgefälle Schluß, weil die Befahrbarkeit auch im Winter gewährleistet sein muß. Ob die Verkabelungstrasse unter diesen Bedingungen kürzer wird ist eine gute Frage: im Gebirge ganz bestimmt nicht. Im Gegenteil wird sie länger. Außerdem werden durch die Straße die Bewirtschaftungseinheiten (Felder) der Bauern zertrennt. Und direkt über der Leitung wird der Bauer mit Abwärme und Verdunstung zu kämpfen haben. Naturschutzrelevante Flächen werden durch Bau und Betrieb einer Stromkabeltrasse gefährdet, alleine auch durch die Abwärme der Leitung im Betrieb. Die Naturschützer werden Umgehungsvarianten fordern, was auch der Gesetzeslage entspricht und weitere Trassenverlängerungen mit sich bringt.

Der Tiefbaupraktiker weiß, daß es Leitungskreuzungen, Kreuzungen mit Straßen, Eisenbahnen, Wegen und Gewässern gibt. Mit Freileitungen ist man da relativ flexibel, weil man alle Hindernisse überspannt. Mit dicken ummantelten Kabeln nicht. Jede Kreuzung erfordert bei Kabeln Dükerungen oder Bohrungen bzw. Umverlegungen von anderen Medien. Größere Medienleitungen sind teuer anzupassen, bzw. der Trassenverlauf ist auf vorhandene Leitungen und Kabel abzustimmen. Das können Erdgasleitungen, Produktenleitungen oder Fernwasserleitungen sein. Den Kreuzungsaufwand für kleine Leitungen und Kabel ist nicht übermäßig groß, doch die Summe machts. In der Lüneburger Heide kommt man mit etwas Glück auf 1 bis 3 Kreuzungen pro Kilometer, in dicht besiedelten Bereichen können es schnell 10 bis 20 werden.

Der Bauaufwand für eine Verkabelung ist hinsichtlich der baubedingten Störungen des Naturhaushalts nicht unbeträchtlich. Der Laie unterschätzt, wie die Baustelle einer Dükerung oder einer Leitungskreuzung aussieht. Die Freileitungstrasse erfordert baubedingt wesentlich geringere Eingriffe. Überhaupt ist die Freileitung deshalb billiger, weil zu ihrer Errichtung deutlich weniger Energie verbraucht wird, Baukosten sind in der letzten Konsequenz Energiekosten.

Für die Gleichstrom-Kabelvariante ergeben sich etwa die sechsfachen Baukosten wie für die Drehstrom-Freileitungsvariante. Wobei die Verkabelung eine Experimentalbauweise ist, für die es kaum belastbare Erfahrungen gibt. Bisher wurden solche Hochspannungs-Gleichstrom-Kabel (HGÜ-Kabel) als Seekabel gebaut. In Berlin gibt es ein Pilotprojekt an Land, welches zu klein ist, um alle Fragen zu beantworten.

Wenn wir mal konservativ annehmen, daß 10 Mrd. € Mehraufwand für die Verkabelung beider Nord-Süd Kabel-Stromtrassen entstehen, so sind das pro Bürger 124 € oder für eine vierköpfige Familie 500 €. Oder für einen sozialversicherungspflichtig Beschäftigten etwa 350 €. Alles für die Abschaltung der Kernkraftwerke.

Andreas Mihm von der FAZ resumiert nach dem Regierungskompromiß heute: „Nur so viel ist gewiss: Die Energiewende wird noch komplexer, noch schwieriger – und noch teurer.“ Jürgen Trittin hatte 2004 in seiner  Zeit als Bundesminister versprochen: “Es bleibt dabei, dass die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis.” 2014 hatte Volker Zastrow von der FDP errechnet, daß die monatliche Kugel Eis für eine vierköpfige Familie 355 € im Jahr kostet, also genau das 30fache der Prognose des Bundesministers. Mit der teuersten Variante des Netzausbaus und dem weiteren Zubau von nachhaltig instabiler Energie werden es wohl bald jedes Jahr die Einrichtungskosten einer Eisdiele werden.

Übernommen von Prabelsblog hier




Neue Hitzerekorde, trotz Abkühlung seit 1998, warum?

Wie die Grafik 1 zeigt, kühlen seit 1998 die Temperaturen in Deutschland und weltweit wieder ab. Die Daten sind dem Archiv des Deutschen Wetterdienstes entnommen:

Abb1: Seit 1999 haben wir für die Deutschlandtemperaturen eine fallende Trendlinie. Seitdem scheint die Wirkung der Treibhausgase ausgesetzt zu haben. Das Jahr 2015 wird sich bei knapp über 9 Grad einpendeln und den fallenden Trend bestätigen.

Der Juli ist ein Ausnahmemonat.

Ein Jahr besteht natürlich aus zwölf Monaten. Die Jahrestemperaturen werden seit der Jahrtausendwende, bzw. kurz davor zwar kälter, aber nicht alle Monate sind gleichmäßig betroffen. Der Juli ist nun ein ausgesprochener Ausnahmemonat, er hat sich von 1975 bis 1998 erwärmt, er hat aber den Stillstand und in der Gegenwart die Tendenz zum Kühlerwerden nicht mitgemacht. Er behält seine steigende Trendlinie weiter und damit seine Aufwärtstendenz bei. Der Monat Juli hat den Monat August bei den Temperaturen überholt und ist inzwischen zum wärmsten Monat des Jahres in Deutschland geworden.

Verallgemeinert lässt sich sagen: Im Monat Juli ist es in Süddeutschland etwa so warm wie es vor 40 Jahren in Südtirol war.

Unsere Frage war, weshalb nun im Juli immer wieder neue Temperaturrekorde gebrochen werden. Bereits durch die unten stehende Grafik 2 dürfte die Frage geklärt sein.

Grafik 2: Der Monat Juli macht keine Erwärmungspause. Er setzt die Erwärmungstendenz auch nach 1998 fort. Zufälligerweise ist auch die C02-Konzentration in diesem Zeitraum gestiegen, das zeigt die kleine ins Diagramm eingearbeitete Grafik.

Da der Monat Juli auch in der Gegenwart weiter wärmer wird, gibt es natürlich an besonders heißen Julitagen auch immer wieder neue Temperatur- und Hitzerekorde zu vermelden.

Aber noch weitere Gründe sind verantwortlich, weshalb die Anzahl der heißen Tage in Deutschland zugenommen hat. Die Temperaturrekorde treten vor allem dort auf, wo sich die Wärmeinseln um die Messstationen besonders entwickelt haben. Und eben dort, wo die Bebauung um die Orte vor allem in die Frischluftschneisen hineingewandert ist, so dass die nächtliche Abkühlung nicht mehr wirken kann. An solchen Orten sind dann stets neue Temperaturrekorde und ein Überschreiten der 40 C-Marke auch in diesem Juli zu erwarten. Außerdem haben im Juli sowohl die monatliche Sonnenscheindauer als auch die Häufigkeit von Großwetterlagen, die erwärmend wirken, zugenommen, siehe Grafik 3:

Grafik 3: Seit 1951 nahm die Häufigkeit von Großwetterlagen, die warme Luftmassen heranführen oder vor Ort erwärmend wirken, das sind alle Lagen mit Südanteil, dazu Hochdruckgebiete über Mitteleuropa und die Ostlagen (untere, rosa Kurve) deutlich zu; auch die Sonnenscheindauer erhöhte sich (Mitte, gelb).

Wie lange diese Entwicklung noch anhält, lässt sich nicht vorhersagen. Die Sonnenscheindauer erhöhte sich wegen der ab den 1980er Jahren greifenden Luftreinhaltemaßnahmen und der bis in die frühen 2000er Jahre sehr hohen Sonnenaktivität. Die Häufigkeitsverhältnisse der Großwetterlagen werden vermutlich unter anderem auch von der AMO beeinflusst, einer Wassertemperaturschwankung im Nordatlantik, die zwischen 1995 und 2010 ihr Maximum hatte. Da Sonnenaktivität und die AMO in eine Abschwungphase übergehen, scheint es nur eine Frage der Zeit zu sein, bis sich auch der Juli wieder abzukühlen beginnt. Und mit dem Juli hatte mitunter der Sommer bereits sein kurzes heißes Gastspiel in Deutschland beendet (1999, 2006,2010, 2014). Die tropische Wetterlage ist dann im August oft recht abrupt beendet. Der Warmlufttropfen aus Spanien und Nordafrika ist aufgezehrt. Das muss nicht zwangsläufig jedes Mal so sein- eine Augustprognose 2015 ist damit unmöglich. Anhand der Langzeit- Reihe für Potsdam (Datenquelle: PIK) sieht man aber bei Betrachtung des gesamten „Meteorologischen“ Sommers (Juni, Juli, August) sehr schön den beginnenden Abschwung der AMO- Werte und der Lufttemperaturen; nur die Sonnenscheindauer ist- möglicherweise wegen der Wirkung der Luftreinhaltemaßnahmen- noch nicht rückläufig:

Grafik 4: Bei insgesamt leichtem Anstieg folgen die Sommertemperaturen in Potsdam (rotbraun, Mitte) dem Auf und Ab der AMO (obere, grüne Kurve). In den 2000er Jahren setzte ein leichter sommerlicher Temperaturrückgang ein, weil die wärmeren Juli- Werte die fallenden Juni- und Augusttemperaturen nicht kompensieren konnten.

Dieser einstige Hochsommermonat August verliert zunehmend an wärmender Kraft in Deutschland. Obwohl natürlich die C02-Treibhausgase nachgewiesenermaßen auch im August weiter gestiegen sind, hat doch deren erwärmende Wirkung anscheinend ausgesetzt. Kein einziger der Treibhausgläubigen kann diese Tatsache erklären. Fragen wir mal ironisch: Beweist die Grafik 2 etwa, dass der C02-THE im Juli erwärmend wirkt und dann schlagartig einen Monat später abkühlend wirkt? Aber wie im echten Leben stellen sich Gläubige solche Fragen nicht. Die Wissenschaftslogik wird vom Glauben überdeckt. Überzeugte Gläubige speichern aus diesem Artikel nur die Grafik 2, also die weitere Erwärmung im Juli ab. Die nachfolgende Grafik 5, die abkühlende Trendlinie vom Monat August wird zwar angeschaut, aber im Gehirn nicht abgespeichert, da der Erwärmungsglaube die erfolgreiche Wissensbildung verhindert.

Grafik 5: Der Monat August verhält sich genau umgekehrt wie der Juli. Er zeigt bereits seit 1997 eine fallende Trendlinie. Die C02-Konzentration ist natürlich auch im Monat Augst in den letzten Jahren gestiegen. Die Augusttemperaturen richten sich aber nicht danach.

Ausblick auf den Sommer 2015

Der Juni wird seit 1998 kälter, der Juli wärmer und der August wieder kälter, also 2 zu 1 für die Kälte. Genau das zeigen auch die Sommertemperaturen der drei Monate für die Gegenwart. Alle Temperaturangaben sind Originaldaten des Deutschen Wetterdienstes und deshalb auch nicht wärmeinselbereinigt. Bei einer Wärmeinselbereinigung wären die Trendlinien natürlich noch fallender. Der weiter zunehmende Wärmeinseleffekt weltweit und auch in Deutschland – täglich werden bei uns 1,1 km2 überbaut- führt zu einer Abbremsung der Abkühlung bei den Messstationen.

Im Sommer ist die Wärmewirkung der betonierten bzw. dunklen Straßenflächen besonders groß. Mit billigen Infrarotthermometern aus dem Baumarkt mag sich jeder davon überzeugen. Hier eine eigene Messung am 05.Juli 2015 um 9 Uhr in der freien Fläche: Luft: 26 C, Anzeige Autothermometer, Geteerter Feldweg 34 C, Wiese, etwa zwei Meter vom Weg entfernt: 21 C.

Jeden Tag werden Straßen neu gebaut, sie sind Wärmebänder, also Heizkörper in der Landschaft, aber noch mehr in den bebauten Gebieten, weil sie die Frischluftschneisen aufwärmen.

Wir haben auf eine Wärmeinselbereinigung der DWD-Daten verzichtet, weil die Ergebnisse auch so bereits eindeutig sind.

Grafik 6: Die drei Sommermonate Juni/Juli und August bilden die Jahreszeit Sommer. Die Grafik zeigt: der Sommer wird kälter in Deutschland. Die Daten sind die Originaldaten des Deutschen Wetterdienstes in Offenbach und deshalb nicht wärmeinselbereinigt. Sonst wäre die Trendlinie noch fallender.

Ergebnisse:

1.) Die Erwärmung dauerte gute 20 Jahre und ging etwa 1998 zu Ende.

2.) Seitdem fallen die Temperaturen in Deutschland.

3.) Der Monat Juli macht eine Ausnahme, er wurde auch nach 1998 weiter wärmer.

4.) Aus diesem Grunde nimmt die Zahl der heißen Tage in Deutschland zu.

5.) Insgesamt wird der Sommer in der Gegenwart trotzdem kälter.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Naturbeobachter und unabhängiger Klimaforscher.




Report: Deutschlands „grüner“ Revolution geht das Geld aus

Deutschlands 412 Milliarden Dollar Plan, sich mit grüner Energie zu versorgen, könnte sich einem neuen Report von Finanzberatern zufolge als finanziell untragbar herausstellen angesichts in den Himmel schießender Energiepreise und der Forderung der traditionellen Kraftwerke nach weiteren Subventionen, um in Betrieb zu bleiben.

„Das notwendige Kapital zur Expansion der Netz-Infrastruktur und für Offshore-Wind kann möglicherweise nur mit Hilfe alternativer und internationaler Investoren aufgebracht werden“, warnt ein Report von Beratern bei Roland Berger und dem World Energy Council WEC.

„Allerdings stellen hohe Risiken in Frage, ob die Investitionen mit hinreichender Kapazität und Schnelligkeit aufgebracht werden können“, heißt es in der unveröffentlichten Studie, die der Frankfurter Allgemeinen Zeitung vorliegt.

Seit Jahren versucht Deutschland, immer mehr Wind- und Solarenergie in sein Stromnetz zu bringen, aber was als Bemühungen mit guter Absicht begann zum Kampf gegen die globale Erwärmung entwickelte sich zu einem teuren Labyrinth von Subventionen und Spezialinteressen der Politik.

Der dahinter stehende Gedanke war, dass wenn das Netz erst einmal zur Aufnahme mehr grüner Energie transformiert wäre, die Kosten sinken würden infolge neuer Technologien und Effizienzen, die auf den Markt kommen würden. Aber der Report von Roland Berger und dem WEC warnt, dass während der nächsten 15 Jahre mindestens 280 Milliarden Euro gebraucht werden, um Deutschlands grüne Ziele zu erreichen. Und das geht nur mit „nachhaltiger politischer Unterstützung“, warnt der Bericht – ohne diese würde die Transformation wahrscheinlich noch viel teurer werden.

Das ist nur die Spitze des Kostenberges, warnt der Bericht. Und weiter: die Förderung von Offshore-Windparks enthält „ein hohes Risiko und Barrieren bzgl. des Eintritts in den Markt“ sowie eine „bedeutend angespanntere Lage“. Deutschland und andere europäische Länder sind zunehmend abhängig von Offshore-Windparks, vor allem hinsichtlich der Abschaltung von Kernkraftwerken.

„Das hohe Risiko, in Offshore-Windparks zu investieren, widerspricht jedoch dem Risikoprofil institutioneller Investoren“, heißt es in dem Bericht weiter. Und man vergesse nicht das Geld, das erforderlich ist für Übertragungssysteme, um die lokale und fein verteilte Stromerzeugung an die Wohnungen und Industrien zu liefern, die diesen Strom brauchen. Die Bundesnetzagentur schätzt, dass diese Systeme Deutschland bis zum Jahre 2040 28 bis 43 Milliarden Euro kosten werden.

Eine Sache, die von den Unterstützern grüner Energie oftmals übersehen wird ist, dass die Menschen Energie brauchen, während neue Quellen erschlossen werden. Deutschlands Energiewende verursacht jedoch immer höhere Defizite bei traditionellen Kraftwerken – welche immer noch den größten Teil der Energie in Deutschland erzeugen. Dies erfordert auch immer höhere Subventionen, um sie am Leben zu halten.

„Viele traditionelle Unternehmen, die zuvor Investitionen im Stromsektor finanziert haben, hauptsächlich mit Kapital ihrer Anteilseigner, stehen heute mit dem Rücken zur Wand“, sagte Uwe Franke, Präsident der Deutschland-Abteilung des WEC, der Frankfurter Allgemeinen Zeitung.

Er sagte der Zeitung, dass „neue Investoren noch gefunden werden müssen, die an die Energiewende und die Versorgungssicherheit glauben“.

Link: http://www.thegwpf.com/report-germanys-green-revolution-is-running-out-of-money/

Übersetzt von Chris Frey EIKE




Wiederholte Versuche zur Autokorrelation und Albedo

Bild rechts: Foto der Szenerie vor dem Haus von Eschenbach (aus seinem Beitrag).

Nehmen wir jetzt einmal an, wir nehmen die gleichen sieben Münzen und werfen alle sieben nicht nur einmal, sondern zehnmal. Wie groß ist die Wahrscheinlichkeit, dass in einem dieser Würfe siebenmal Zahl oben liegt?

Nun kann man auch ohne jede Berechnung sofort erkennen, dass die Chance für ein solches Ergebnis umso größer ist, je öfter man die Münzen wirft. Ich habe die Berechnungen unten als Anhang beigefügt, aber für jetzt wollen wir nur festhalten, dass wenn wir den Münzenwurf nur zehnmal ausführen, die Chance eines zufälligen Ergebnisses von siebenmal Zahl (ein statistisch signifikantes Ergebnis im Signifikanz-Level 99%) von 1% auf 7,5% steigt (nicht im Mindesten statistisch ungewöhnlich).

Kurz gesagt, je mehr Stellen man sich anschaut, umso größer ist die Chance, Seltsamkeiten zu finden, die folglich umso weniger signifikant werden. Praktische Auswirkung hiervon ist, dass man das Signifikanz-Niveau mit der Anzahl der Versuche adjustieren muss. Falls das Signifikanzniveau 95% beträgt, wie es in der Klimawissenschaft üblich ist, dann gilt: Falls man auf 5 Versuche schaut, um ein demonstrativ ungewöhnliches Ergebnis zu bekommen, muss man etwas Bedeutendes im 99%-Niveau finden. Hier folgt eine kleine Tabelle, in der die Anzahl der Versuche mit dem Signifikanz-Niveau verglichen werden, falls man nach dem Äquivalent eines Signifikanz-Niveaus von 95% aus einem einzigen Versuch sucht:

Damit als Prolog folgte ich meinem Interesse am Thema Albedo und untersuchte die folgende Studie mit dem Titel Spring–summer albedo variations of Antarctic sea ice from 1982 to 2009:

Abstract: In dieser Studie wurden die mittleren Albedo-Werte im Frühjahr und Sommer (November bis Februar) sowie deren Trends untersucht unter Verwendung eines Datensatzes, der 28 Jahre lange homogenisierte Satellitendaten für das gesamte Gebiet des antarktischen Meereises enthält sowie für fünf Längengrad-Sektoren rund um die Antarktis: Weddell-See (WS), den Sektor Indischer Ozean (IO), den Sektor Pazifischer Ozean (PO), die Ross-See (RS) und die Bellinghausen-Amundsen-See (BS).

Man erinnere sich: je mehr Stellen man betrachtet, umso wahrscheinlicher wird es, Seltsamkeiten zu finden … wie viele Stellen betrachten sie also?

Nun, zuallererst haben sie den Datensatz offensichtlich in fünf Teile aufgeteilt. Also schauen sie an fünf Stellen. Schon jetzt müssen wir eine Signifikanz von 99% finden, um eine Signifikanz von 95% behaupten zu können.

Allerdings betrachten sie auch nur einen Teil des Jahres. Einen wie großen Teil des Jahres? Nun, das meiste Eis findet sich nördlich von 70°S, so dass messbares Sonnenlicht etwa acht Monate lang darauf fällt. Dies bedeutet, dass sie die Hälfte der zur Verfügung stehenden Albedo-Daten nutzen. Die von ihnen ausgewählten vier Monate sind diejenigen mit dem höchsten Sonnenstand, insofern ist das vernünftig … aber es bleibt die Tatsache, dass sie Daten aussortieren, und dies beeinflusst die Anzahl der Versuche.

Wie auch immer, selbst falls wir die Frage nach der Unterteilung des Jahres vollständig beiseite schieben wissen wir, dass die Karte selbst in fünf verschiedene Teile unterteilt worden ist. Das bedeutet, um eine Signifikanz von 95% zu erhalten muss man etwas finden, dass mit 99% signifikant ist.

Allerdings haben sie tatsächlich gefunden, dass die Albedo in einem der fünf Eisgebiete (der Sektor Pazifischer Ozean) einen Trend aufweist, der beim 99%-Niveau signifikant ist. Ein weiterer Trend (der Sektor Bellinghausen-Amundsen) ist beim 95%-Niveau signifikant. Und dies wären interessante und wertvolle Ergebnisse … außer einem anderen Problem. Das betrifft den Aspekt Autokorrelation.

„Autokorrelation“ bedeutet, wie ähnlich die Gegenwart mit der Vergangenheit ist. Falls die Temperatur an einem Tag -40°C und am nächsten Tag +30°C betragen könnte, würde dies nur eine sehr geringe Autokorrelation zeigen. Aber falls (wie es der Normalfall ist) einem Tag mit einer Temperatur von -40°C ein weiterer eisiger Tag folgt, wäre dies sehr viel Autokorrelation. Und Klimavariablen im Allgemeinen tendieren dazu, autokorreliert zu sein, oftmals erheblich.

Nun, eine Seltsamkeit autokorrelierter Datensätze ist, dass sie dazu tendieren, „trendig“ zu sein. Es ist wahrscheinlicher, einen Trend in autokorrelierten Datensätzen zu finden als in einem Satz mit Zufallsdaten. Tatsächlich fand sich in Zeitschriften vor nicht allzu langer Zeit ein Artikel unter der Überschrift Nature’s Style: Naturally Trendy. (Ich sagte „vor nicht allzu langer Zeit“, aber meine Recherche ergab das Jahr 2005). Es scheint, dass viele Menschen jenes Konzept natürlicher Trendigkeit verstanden haben, wurde doch diese Studie seinerzeit lang und breit diskutiert.

Was weitaus weniger gut verstanden zu sein scheint, ist diese Folgerung:

Da die Natur natürlicherweise trendig ist, ist das Auffinden eines Trends in Messungs-Datensätzen weniger signifikant als es scheint.

In diesem Falle habe ich die Trends digitalisiert. Während ich ihre beiden „signifikanten“ Trends in der Bellinghaus-Amundsen-See bei 95% und im Sektor Pazifischer Ozean bei 99% finden konnte, passend zu meinen eigenen Berechnungen, fand ich unglücklicherweise auch das heraus, was ich vermutet hatte – sie haben Autokorrelation wirklich ignoriert.

Mit ein Grund dafür, warum die Autokorrelation in diesem speziellen Fall so wichtig ist, liegt darin, dass wir mit nur 27 jährlichen Datenpunkten beginnen. Als Ergebnis beginnen wir mit großen Unsicherheiten infolge der geringen Größe der Stichprobe. Der Effekt von Autokorrelation ist, diese schon jetzt unzureichende Stichprobengröße weiter zu reduzieren, so dass das effektive N ziemlich klein ist. Das effektive N [=Anzahl?] für die Bellinghausen-Amundsen-See (BS) beträgt 19 und für den Sektor Pazifischer Ozean (PO) nur 8. Ist Autokorrelation erst einmal berücksichtigt, sind beide Trends überhaupt nicht statistisch signifikant, liegen sie doch beide unter dem 90%-Signifikanz-Niveau.

Führt man zu den Autokorrelations-Effekten noch den Effekt wiederholter Versuche hinzu, bedeutet das im Grunde, dass nicht einer ihrer erwähnten Trends der „Frühjahrs-Sommer-Albedo-Variationen“ statistisch signifikant ist, nicht einmal ansatzweise.

Schlussfolgerungen? Nun, ich muss sagen, dass wir in der Klimawissenschaft unser statistisches Spiel überbieten müssen. Ich bin bei weitem kein Experten-Statistiker. Da sind Personen wie Matt Briggs, Statistician to the Stars, viel besser geeignet. Tatsächlich habe ich nie eine Statistik-Vorlesung besucht. Ich habe mir alles selbst beigebracht.

Falls ich also ein wenig über die Effekte weiß, einen Datensatz nach Signifikanz-Niveaus zu unterteilen, und die Auswirkungen von Autokorrelation auf Trends kenne – wie kommt es dann, dass diese Kerle das nicht wissen? Zur Klarstellung, ich glaube nicht, dass sie es absichtlich tun. Ich glaube, dass es ein echter Fehler ihrerseits war, sie haben einfach nicht den Effekt ihrer Aktionen erkannt. Aber zum Kuckuck, zu sehen, wie Klimawissenschaftler diese gleichen beiden Fehler wieder und immer wieder machen, wird langweilig.

Schließen möchte ich mit einer wesentlich positiveren Anmerkung. Ich erfahre gerade, dass das Magazin Science ein Gremium von Statistikern ins Leben rufen will, das die Einreichungen lesen soll, um ehrliche Fehler vermeiden zu helfen und die Standards von Datenanalysen zu steigern.

Das scheint mir sehr in Ordnung.

—————————————————-

Wiederholte Versuche: Bei der tatsächlichen Berechnung, wie viel besser die Chancen bei wiederholten Versuchen stehen, nutzt man die Tatsache aus, dass falls die Chancen, das etwas passiert, mit X bezeichnet werden (die 1/128 im Falle sieben geworfener Münzen, die dann ,Zahl‘ zeigen), die Chance, dass dann etwas NICHT passiert 1-X, d. h. 1 – 1/128 oder 127/128 beträgt. Es stellt sich heraus, dass die Chance, dass es NICHT passiert bei N Versuchen

(1-X)↑N

ist oder (127/128)↑N. Für N = 10 Würfe von sieben Münzen ergibt sich die Chance, dass NICHT siebenmal ,Zahl‘ erscheint, zu (127/128)↑10oder 92,5%. Dies bedeutet, dass die Chance, dass bei zehn Würfen siebenmal ,Zahl‘ erscheint, 1 minus der Chance ist, dass es nicht passiert, also etwa 7,5%.

Ganz ähnlich, falls wir nach dem Äquivalent eines Vertrauens von 95% in wiederholten Versuchen suchen, beträgt das erforderliche Vertrauensniveau bei N-mal wiederholten Versuchen

0,95↑1/N

Autokorrelation und Trends: Gewöhnlich verwende ich die Methode von Nychka, bei welcher ein „effektives“ N verwendet wird, also eine reduzierte Anzahl von Freiheitsgraden zur Berechnung statistischer Signifikanz.

Hier ist n die Anzahl der Datenpunkte, r die Verzögerung minus 1-Autokorrelation und n↓eff das effektive N.

Falls ich jedoch etwas von entscheidender Bedeutung vor mir habe, verwende ich an Stelle von Nychkas heuristischer Methode wahrscheinlich eine Monte-Carlo-Methode. Ich erzeuge beispielsweise 100.000 Beispiele von ARMA (auto-regressive moving-average model) Pseudo-Daten, die gut zur Statistik der aktuellen Daten passen, und ich würde die Verteilung der Trends in jenem Datensatz untersuchen.

Link: http://wattsupwiththat.com/2015/06/27/repeated-trials-autocorrelation-and-albedo/

Übersetzt von Chris Frey EIKE