1

Unbequeme Wahrheiten über den Klimakanzlerinnen Berater Schellnhuber! Teil 5: Ist das 2 ° Ziel völkerrechtlich anerkannt?

 Diese Behauptung von Schellnhuber im ZDF im Juli 2011 war nachweislich unwahr, was dieses Video belegen wird:

 Das nächste Kapitel 6 am 07.10.2013 beleuchtet den Begriff des angeblichen “Treibhauseffektes” genauer und dieses Kapitel 6 muss auch in Verbindung mit dem danach folgenden Kapitel 7 (Globale Mitteltemperatur) gesehen werden, da die Kapitel 6 und 7 thematisch sehr eng zusammengehören. Der 6-minütige Videotrailer über das gesamte 11-teilige Filmprojekt (incl. Playlist mit allen bisher veröffentlichten Kapiteln) ist seit dem 27.08.2013online.




Man sagt nicht: Grüne Subventionen haben das deutsche Energie-Chaos erzeugt

Die Gründe liegen auf der Hand. Die kuriose Konsequenz von Frau Merkels Triumph ist, dass die einzigen potentiellen Parteien als Koalitionspartner für ihre Mitte-Rechts-Partei CDU den linken Teil des politischen Spektrums in Deutschland abdecken. Angesichts der Tatsache, dass sie es nicht geschafft hat, in ihren vergangenen vier Regierungsjahren zusammen mit ihrem bevorzugten politischen Partner, den Freien Demokraten, eine kohärente Energie- und Infrastruktur-Politik zustande zu bringen – warum sollte man dann ein überzeugenderes Ergebnis erwarten, wenn sie mit ihren Gegenspielern regiert?

Trotzdem gibt es aber gute Gründe für die Annahme, dass die nächste Regierung, wie auch immer sie aussehen mag, versuchen wird, die Dinge gerade zu rücken, indem mehr für Infrastruktur ausgegeben wird und durch die Bereinigung des unheiligen Durcheinanders, dass mit der Bezeichnung Deutsche Energiepolitik verbunden ist. Einfach gesagt, der Zustand an beiden Fronten ist nicht nachhaltig. Kein Ereignis spiegelt die jahrelange Unterfinanzierung besser als die zeitweilige Schließung des Nord-Ostsee-Kanals, weil zwei Schleusen baufällig waren. (…)

Für die deutsche Wirtschaft wird es sogar noch wichtiger sein, eine gründliche Reform der Energiepolitik zu entwerfen und zu implementieren, befindet sich diese doch im Zustand des Chaos’ seit Frau Merkels Entscheidung, die Kernkraft aufzugeben und sich auf einen Mix aus anderen Energiequellen zu stützen. Dies geschah mit ungewöhnlicher Plötzlichkeit nach der Havarie in Fukushima im Jahre 2011. Im Einzelnen sollen Erneuerbare bis zum Jahr 2050 80% des deutschen Strombedarfs decken. Während einige Unternehmen durch die gewaltigen Investitionen in erneuerbare Energie profitiert haben, sind die meisten Industriellen immer noch empört über die mangelnde Voraussicht hinter dieser Entscheidung: Mr. Grillo hat Frau Merkel auf einer BDI-Konferenz im Juni vorgeworfen, dass sie mit ihrer Politik den „Stecker aus der deutschen Industrie zieht“. (…)

Die deutsche Wirtschaft wünscht sich von der nächsten Regierung nichts weiter als politische Maßnahmen, die die Wettbewerbsfähigkeit fördern und nicht behindern. Oberste Priorität muss es sein, die durch Subventionen entstehenden Verzerrungen des Energiemarktes zu reduzieren.

Full story (paywalled)

Link: http://www.thegwpf.org/say-green-subsidies-generated-german-energy-chaos/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Das hier ist eine fundierte Einschätzung der Vorgänge in D durch eine Stimme von außerhalb. Man hätte natürlich gerne den ganzen Artikel gesehen, aber nach meinen Erfahrungen mit der GWPF steht in diesen Kurzversionen das Wesentliche auch drin.

Wenn jemand weitere, ausführlicher Stellung nehmende Stimmen von außerhalb zu unserem Energiechaos findet, bin ich für einen Hinweis dankbar. Falls zeitlich möglich, werde ich ihn übersetzen.

C. F.




IPCC SPM „Es gibt keine Ausrede mehr“

„Es gibt keine Ausrede mehr“: Mit diesen Worten wird der deutsche Umweltminister Peter Altmaier in der Welt vom 28.9.13 als Reaktion auf die tags zuvor in Stockholm vorgestellte Zusammenfassung (Summary for Policymakers SPM) des 5. Abschätzungsberichtes des IPCC zitiert. Der Minister hat recht, aber anders als er es sich vorgestellt, vor allem aber anders als er es uns weismachen will.

Denn die SPM enthält nichts Neues! Das Klima entwickelt sich grundlegend anders als von den teuren Modellen berechnet. Es wird wieder kühler, die Zahl der „Extremwetter“ nimmt derzeit nicht zu, der Meeresspiegel steigt verhalten und langsam wie eh und je. An dieser Erkenntnissen führt kein Weg vorbei. Versucht wird es trotzdem. Denn mit anderen Worten werden darin dieselben Behauptungen aufgestellt, die auch schon im 4. Abschätzungsbericht standen, wie die vom vermuteten Zusammenhang zwischen CO2 Konzentration und globaler Mitteltemperatur, wie die von der „Schuld“ des Menschen an dieser Situation, jedoch verschärfend statt mit nur 90 % iger Wahrscheinlichkeit, diesmal sogar mit 95 %iger Wahrscheinlichkeit.
Jedoch keine einzige dieser Behauptungen wurde jemals mit Beweisen untermauert. Insbesondere nicht mit solchen vom Klimaeinfluss des menschgemachten CO2. Im Kleingedruckten findet man hingegen durchaus Klartext. So ist die nun 95 %ige Wahrscheinlichkeit lediglich dem „Gefühl“ von „Experten“ entsprungen, genau so wie zuvor die 90 %iger Wahrscheinlichkeit des 4. Abschätzungsberichts. Von Berechnung ist keine Rede. Man fühlt sich an die Szene vom vier Minuten Ei, im köstlich menschlichen Sketch von Loriot erinnert, bei dem die Hausfrau dem mürrischen Mann erklärt, die vier Minuten, die es braucht um ein perfektes weiches EI zu kochen, hätte sie – als Frau- ebenso perfekt im Gefühl. Dass das gekochte Ei dann hart war, änderte bei dieser überzeugenden Beweisführung nicht das mindeste.
Denn einer der eklatantesten Gegenbeweise (es gibt noch unzählige mehr) gegen den direkten Klimazusammenhang zwischen CO2 Konzentration und Temperatur, die über 15 jährige  Stagnation derselben, trotz ungebremsten CO2 Anstieges, wird zwar nicht direkt verschwiegen, aber von abschwächenden Worthülsen umgeben und mit neuen unbekannten, natürlichen Einflüssen erklärt. Bspw. hätten die Ozeane eine viel größere Rolle gespielt als zuvor angenommen. Unerklärt bleibt, wie seriöse Wissenschaft die Ozeane unterschätzen kann, die mehr als 70 % der Erdoberfläche bedecken. Stattdessen versteigt man sich zu der Behauptung, wenn die Ozeane erstmal die Erwärmung aufgenommen hätte, würde sich auch die Luft noch stärker erwärmen. Beweise jedoch werden nicht geliefert.
Zusätzlich wird dann wieder das tote Pferd von der „Versauerung“ der Ozeane als große Gefahr aufgezäumt, ebenso wie der träge Anstieg des Meeresspiegels, der seit Ende der letzten Eiszeit in ganz natürlicher Art und Weise fortdauert.
Denn das Motto des IPCC scheint klar. Alarmismus, ja Panikmache muss sein, auch wenn die Daten selber weder das eine oder andere hergeben. Im Gegenteil, jeder neue Bericht gibt weniger Grund zum Alarmismus, als der vorige.
Doch damit schwindet auch der letzte Rest von Glaubwürdigkeit dieser Institution, die von politisierten Wissenschaftlern, willigen Aktivisten und ahnungslosen aber begeisterten Politikern unter dem Mantel der Wissenschaft zu einem politischen weltweiten Umverteilungsinstrument entwickelt wurde.
Jetzt ist alles klar, auch dem normalen Laien auf der Straße: Es gibt keine Ausrede mehr! Ungeachtet aller Katastrophengesänge: Die Klimakatastrophe ist abgesagt. Und damit fällt die Hauptbegründung für die Energiewende. Ins Bodenlose! Da wo sie hingehört. Ruhe dort in Unfrieden.
Michael Limburg EIKE

Hier finden Sie eine Gegenüberstellung des SPM Entwurfs und der fertigen Version




Neuer IPCC-Klimabericht schon jetzt obsolet

Der Hopplahopp-Bericht, der einst von sich sagte, den „Konsens der Wissenschaftler“ zu repräsentieren, ist von seinem hohen Ross herunter gestürzt und in viele Stücke zerbrochen, und zwar durch das belastende Gewicht seines eigenen schwerfälligen und sich selbst bedienenden Prozesses. Darum können alle Wissenschaftler der Regierungen und alle Regierungsfunktionäre den IPCC-Bericht nicht wieder zusammen fügen.

Die Geschwindigkeit, mit der die Klimawissenschaft voran schreitet, hat die gletscher-langsamen Bewegungen schwerfälliger internationaler Bemühungen, zu einem Konsens zu kommen, weit hinter sich gelassen. Darum ist diesem neuen Bericht ein so katastrophales Ende beschieden gewesen.

Zum Beispiel, gerade im Mai dieses Jahres wurde ein Knüller-Ergebnis veröffentlicht, dem zufolge die Klimasensitivität etwa 40% geringer ist als der mittlere Wert der gesamten Klimamodelle des IPCC, die es verwendet hat, um die zukünftige Klimaänderung zu projizieren – Projektionen, die im Zentrum der IPCC-Berichte stehen. Aber zu der Zeit, als diese Studie veröffentlicht worden ist (nebst vielen anderen mit ähnlichen Ergebnissen), war es viel zu spät, noch einmal in die Klimamodelle zu gehen und diese zu verbessern und die Projektionen noch einmal simulieren zu lassen.

Tatsache ist, dass die IPCC-Klimamodelle eine Überarbeitung brauchen. Auf den ersten Blick beweisen sie, dass sie nicht einmal die Entwicklung des umfangreichsten Klimaparameters nachvollziehen können, nämlich die Mitteltemperatur der Erde der letzten 10 bis 20 Jahre. Obwohl dies für jedermann klar und offensichtlich ist, hat diese Tatsache keinen Eingang in die wissenschaftliche Literatur gefunden, wenngleich auch nicht ohne einen Versuch Anfang September.

Als Folge werden die jüngsten wissenschaftlichen Ergebnisse von zwei Schlüsselparametern weitgehend aus dem IPCC herausgehalten: wie stark sich die Erde als Folge menschlicher Treibhausgas-Emissionen erwärmen wird, und wie gut die Klimamodelle die Erwärmung projizieren.

Was den neuen IPCC-Bericht und seine „vier Jahre lange Arbeit durch hunderte Experten“ (hier) angeht, ist er nicht nur bereits am Erscheinungstag obsolet, sondern auch vollständig unbrauchbar als Basis zur Meinungs- (und Politik-)bildung in Bezug auf die Energieerzeugung und deren Einfluss auf das Klima.

Der IPCC-Bericht sollte zerrissen und überall verstreut werden, und mit ihm der gesamte IPCC-Prozess, der eine solch irreführendes (und potentiell gefährliches) Dokument erstellt hat.

Wir werden die Probleme mit dem neuen IPCC-Bericht überwachen und die politischen Konsequenzen, wenn man sich auf ihn verlässt, und zwar in einer Reihe von Op-Eds, einer davon im National Review („The IPCC Political Suicide Pill”) und ein weiteres, geplant für Fox News sowie in einer Myriade von Blogbeiträgen.)

Link: http://wattsupwiththat.com/2013/09/27/new-ipcc-climate-report-already-obsolete-2/

Übersetzt von Chris Frey EIKE




Die drei Jahrzehnte lange Verzögerung einer Lagerstelle für nuklearen Abfall

Im Jahre 1982 führte der US-Kongress eine nationale Politik ein, die das Problem nuklearer Abfälle lösen sollte. Bereits im Jahre 1957 hat die National Academy of Sciences gefordert, dass der beste Weg zur Lösung dieses Problems die Lagerung tief unter der Erde in Felsen sei. Im Jahr 1987 wurde Yucca Mountain als ein solches Lager ausgewählt. Sofort gab es Proteste dagegen von Umweltaktivisten und anderen. Der Kongress genehmigte die Planung im Jahr 2002.

Ein Artikel bei Associated Press vom 13. August berichtete von einer kürzlichen Entscheidung des  U.S. Court of Appeals for the District of Columbia [wohl so etwas wie ein Bezirksgericht], dass die Nuclear Regulatory Commission den Lizensierungsprozess vollenden müsse und die Genehmigung des Energieministeriums für diese Stelle ablehnen oder ihr zustimmen muss.

„Die Entscheidung des Gerichts wurde von Befürwortern von Yucca bejubelt, stand sie doch im Zentrum eines Streites, der mehr als drei Jahrzehnte zurückreicht“, berichtete AP. „Die Regierung hat schätzungsweise 15 Milliarden Dollar für diese Lagerstelle ausgegeben, sie aber nie vollendet. Kein Abfall ist dort gelagert“.

Das Scheitern der Inbetriebnahme der Lagerstelle Yucca Mountain ist eine Obszönität. Anstatt in der am meisten untersuchten Stelle in den USA in der Geschichte der Nation nuklearen Abfall einzubringen, wird er jetzt an über 70 Stellen landesweit gelagert. Die Yucca Mountain-Stelle sollte am 31. Januar 1998, also vor 15 Jahren, in Betrieb gehen.

Der Appeals Court sandte eine geharnischte Ablehnung an die Nuclear Regulatory Commission NRC, die im Wesentlichen als ein politisches Werkzeug der Obama-Administration behandelt worden ist. Das Gericht sagte, dass die NRC „sich schlicht und ergreifend über das Gesetz hinweg gesetzt hat“. Dies ist vor allem insofern ungeheuerlich, als Staatsgesetze [federal law] die Stelle als die Lagerstätte der Nation für nukleare Abfälle bestimmt haben.

„Der Präsident darf nicht einem gesetzlichen Mandat nur wegen politischer Ablehnung die Beachtung verweigern”, sagte Richter Brett M. Kavanaugh, der die Mehrheitsmeinung (2 zu 1) wiedergab. „Es ist keine Übertreibung zu sagen, dass unser verfassungsmäßiges System der Gewaltenteilung signifikant verändert werden würde, wenn wir es zulassen würden, dass die Exekutive und unabhängige Agenturen staatliche Gesetze auf die Art und Weise missachten wie in diesem Fall durch die Nuclear Regulatory Commission“.

Es sind nicht nur der Präsident und die NRC, die sich nicht an das vom Kongress erlassene Gesetz halten wollen. Es war der Mehrheitsführer im Senat Harry Reid aus Nevada. Kim Strassel schrieb in einem Kommentar am 15. August, dass „Mr. Reid seit Jahren im Alleingang den Willen des Kongresses hintertrieben hat, eine Endlagerstelle zu finden … Es war die Aktivität eines einzelnen Senators, den Gesetzentwurf zu nuklearem Abfall [Nuclear Waste Policy Act] aus dem Jahr 1982 totlaufen zu lassen und damit 30 Jahre Arbeit und 15 Milliarden Dollar öffentlicher Gelder“.

Die Arroganz von Senator Reid, mit Unterstützung des Präsidenten, ist gleich imperialistischer Könige und anderer Monarchen, für die ihre persönliche Agenda über dem Wohlergehen des restlichen Landes steht. Das Projekt war während der ersten Amtszeit des Präsidenten aufgegeben worden. Im Jahr 2011 hat die NRC, eine vermeintlich unabhängige Agentur, diese Schließung bestätigt.

Gegenwärtig wird behauptet, dass für die Vollendung von Yucca Mountain kein Geld da sei, und es stimmt, dass die Gegner im Kongress unter Führung von Senator Reid fast alle Zahlungen während der letzten drei Jahre gestoppt haben. Aber das Gericht sagte, dass die NRC noch etwa 11 Millionen Dollar übrig habe, um eine Überarbeitung ihrer Sicherheit zu finanzieren. Kongressmitglieder, die eine überarbeitete Fassung der Übersicht gesehen habe, sagen, dass sie sicher ist.

Nuklearer Abfall, ein Nebenprodukt der Stromerzeugung in kommerziellen Kernkraftwerken und hoch radioaktiver Abfall muss anderswo gelagert werden. Der Kongress hat das im Jahre 1982 beschlossen, also vor über drei Jahrzehnten. Wir warten immer noch auf eine vernünftige, praktische Lösung, und zwar wegen der Politik und nicht wegen der Wissenschaft oder wegen des gesunden Menschenverstandes.

© Alan Caruba, 2013

Link: http://www.nationalanxietycenter.blogspot.de/2013/09/the-three-decade-delay-of-nuclear-waste.html

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ich hatte bisher gedacht, dass es nur ein einziges Land auf der Welt mit einem Endlagerproblem gibt. Obiger Artikel von Alan Caruba zeigt jedoch Ähnliches für die USA.

Eigenartig, dass Länder, die einst führend in allem Möglichen waren, jetzt die größten Fortschrittsfeinde sind. Ich habe schon vor vielen Jahren gesagt (da gab es die DDR noch), dass ‚Ideologen die Welt zugrunde richten’. Heute würde ich den Zusatz anbringen: ‚wenn man sie denn gewähren lässt’.

C. F.




Nach über 20 jähriger Forschung: IPCC kann Stillstand der globalen Erwärmung nicht erklären

Bild rechts: © Spiegel Online

Das IPCC beschlossen, den seit 1997 anhaltenden Stillstand als irrelevant einzustufen. Außerdem hat es die ursprünglich eingeräumte Aussage (in der Version vom 7. Juni) aus der Endfassung entfernt, wonach die Modelle es nicht vermocht haben, ‚die beobachtete Reduktion des Erwärmungstrends während der letzten 10 bis 15 Jahre zu reproduzieren’.

Nicht nur, dass das IPCC den anhaltenden Temperatur-Stillstand nicht vorhergesagt hat, sondern auch, dass seine Klimamodelle tatsächlich eine beschleunigte Erwärmung simuliert hatten infolge der zunehmenden CO2-Emissionen.

Anstatt empirische Fakten und wachsende Unsicherheiten einzuräumen, versucht das IPCC, die Aufmerksamkeit von diesen Dingen abzulenken, indem es von einer zunehmenden Sicherheit bzgl. der Verlässlichkeit der Klimamodelle und ihrer Ergebnisse spricht.

„Heute hat das IPCC ein gewaltiges Lotteriespiel begonnen, das schon bald darüber bestimmen wird, ob es immer noch zielführend ist. Sollten die Temperaturen auch während der nächsten Jahre nicht wieder zu steigen anfangen, wird das IPCC sehr wahrscheinlich existenziell an Glaubwürdigkeit einbüßen“, sagte Benny Peiser, Direktor der GWPF.

Link: http://wattsupwiththat.com/2013/09/27/ipcc-fails-to-come-clean-over-global-temperature-standstill/

Übersetzt von Chris Frey EIKE




Im AR 5 des IPCC werden die Forderungen an die Regierungen wiederholt, die Katze im Sack zu kaufen

Vier mal schon haben sie Regierungen und die Medien zum Narren gehalten [wobei diese sich offenbar nur zu gerne zum Narren gemacht haben, A. d. Übers.]. Und jetzt bieten sie diesbezüglich im Zustandsbericht Nr. 5 einen neuen Schub an, aber mit einer Gewissheit von 95% ist es keine Katze, sondern ein Schwein. Und dies trotz der Tatsache, dass die Katze bereits aus dem Sack herausgesprungen ist. Ihre Vorhersagen waren falsch. Seit 17 Jahren sind die globalen Temperaturen zurückgegangen, während der CO2-Gehalt gestiegen ist. Das Arktische Eis im Sommer, das vermeintlich im Jahre 2013 komplett verschwunden sein sollte, hat innerhalb nur eines Jahres um 60% zugelegt. Extremwetter hat nicht zugenommen. Schäden durch politische Maßnahmen sind bereits zuhauf eingetreten. Die Berichterstattung in den Medien hat dramatisch abgenommen, da die Menschen Probleme fühlen, selbst wenn sie sie nicht verstehen (Abbildung oben rechts). Die Abnahme begann nach der Spitze durch den Propagandafilm von Al Gore An Inconvenient Truth (AIT).

Anstatt den Fehler zuzugeben, (versucht) das IPCC zu verteidigen, was nicht zu verteidigen ist. Dies allein verlangt schon nach der Auflösung der Agentur.

Sie sind in die Ecke ihrer eigenen Entwicklung gedrängt. Sie fertigten den Sack durch eine Organisation, einen Prozess und Computermodelle, die ihre Behauptung stützen sollten. Jetzt wissen wir, dass er eine Katze enthielt. Noch ängstigender für sie ist, dass die Öffentlichkeit einschließlich Regierungen Fragen an sie stellt. Eine Zusammenstellung deutscher Wissenschaftler von 65 Klimamodellen zeigt, dass sie allesamt den Stillstand der Temperatur nicht simulieren konnten, was jetzt Regierungen in der EU und den USA dazu gebracht hat, Fragen zu stellen.

„Durchgesickerte Dokumente zeigen, dass Abgesandte der USA und der EU mehr Klarheit von den UN zur Verlangsamung der globalen Erwärmung verlangen, die Klimaskeptiker bereits als Grund angeführt haben, nicht in ‚Panik’ zu geraten über Umweltänderungen“.

Sollte das IPCC dies zugeben, würde ihr Betrug bloßgestellt. Darin enthalten sind das Ignorieren der wissenschaftlichen Methode, die Änderung der Terminologie mit dem Übergang vom Begriff globale Erwärmung zum Begriff Klimaänderung und das Fluten der Medien mit irreführenden Geschichten über Zusammenhänge zwischen natürlichen Ereignissen und ihrer Behauptungen. AR 5 zeigt, dass das IPCC beschlossen hat, ihre Täuschungen nicht zuzugeben. Man stelle sich vor, welches Problem sich da für Regierungen auftut hinsichtlich der Entscheidungen über Investitionen.

Würden Sie Zeit, Geld und politisches Kapital investieren, um Maßnahmen im globalen Maßstab durchzuführen, die auf 23 Jahre langen falschen Prognosen beruhen?

Würden Sie aktiv werden, wenn die wenigen Länder und Regionen, die die vorgeschlagenen Maßnahmen hinsichtlich grüner Jobs und alternativer Energie auch durchführen, beweisen, dass es nicht funktioniert?

Würden Sie überhaupt zuhören, wenn Sie erfahren:

● Die IPCC-Forschungen zur globalen Erwärmung/Klimaänderung wurden willkürlich per Definition darauf eingeengt, Gründe nur beim Menschen zu suchen.

● Man kann menschliche Ursachen nicht bestimmen, wenn man die natürlichen Ursachen nicht kennt oder nicht versteht.

● Die Forderungen nach politischen Maßnahmen basierten auf ungeprüften Hypothesen

● Die wissenschaftliche Standard-Methode und Austesten der Hypothese wurden ignoriert.

● Computermodelle wurden so programmiert, dass sie das gewünschte Ergebnis liefern

● Alle Vorhersagen für 23 Jahre im Voraus waren falsch.

● Nach fünf Jahren haben sie nicht mehr von Vorhersagen, sondern von Projektionen gesprochen.

● Projektionen wurden für niedrige, mittlere und hohe Szenarien [bzgl. CO2] erzeugt. Selbst die niedrigen Projektionen lagen immer noch viel höher als das, was tatsächlich eingetreten ist.

● Ihre Behauptungen über eine zunehmende Zahl von Extremwetterereignissen haben sich als falsch herausgestellt.

● Die Behauptungen bzgl. des Anstiegs des Meeresspiegels waren falsch.

● Die tatsächlichen Aufzeichnungen zeigen, dass die Temperatur seit 1998 gleich geblieben oder sogar etwas gefallen ist – trotz des Anstiegs des CO2-Gehaltes.

● Anstatt zuzugeben, dass ihre Hypothese falsch war und sie zu korrigieren oder zurückzuweisen, wie es der wissenschaftlichen Methode entspricht, haben sie die Bezeichnung globale Erwärmung durch die Bezeichnung Klimaänderung ersetzt.

● Anstatt zuzugeben, dass die Behauptung einer Sicherheit über 90% dafür, dass anthropogenes CO2 die Ursache war, falsch war, haben sie die Behauptung auf eine Sicherheit von 95% hochgeschraubt.

Würden Sie in einen Plan investieren, der nur aufgrund eines Berichtes erstellt worden ist, in dem aus freien Stücken tatsächliche Ergebnisse übertrieben und verzerrt werden? Ihre wissenschaftlichen Berichte räumen all die ernsten Grenzen ihres Wissens über Klima und Klimaänderung ein. Die ernsten Grenzen ihrer Klimamodelle wurden einzeln aufgelistet. Allerdings wissen sie ganz genau, dass die meisten Menschen das gar nicht lesen oder nicht verstehen. Nur für den Fall, dass sie das doch tun, veröffentlichen sie einen zusammen geschusterten Bericht mit der Bezeichnung Summary for Policymakers (SPM), und zwar Monate vor Veröffentlichung des eigentlichen Berichtes.

Der IPCC-Expertenbegutachter David Wojick erklärt:

…Was im SPM systematisch ausgelassen wird, ist die Benennung genau jener Unsicherheiten und positiven Gegenbeweise, die die Theorie des menschlichen Einflusses negieren könnten. Anstatt sich zu diesen Schwächen zu bekennen, nennt die Summary lediglich die Ergebnisse, die sie stützen. Kurz gesagt, das ist Interessenwerbung und keine Zustandsbeschreibung.

Das IPCC hat schon viermal die Katze im Sack verkauft, und zwar in den Jahren 1990, 1995, 2001 und 2007. Verzerrungen, Schwindeleien und freiwillig verfälschte Daten wurden verwendet. Das infamste Stück dieser Art war der „Hockeyschläger“, der buchstäblich die Klimahistorie umgeschrieben hat und im Bericht aus dem Jahr 2001 erschienen war. Korruption war in den Klimagate-E-Mails aus der Climate Research Unit (CRU) bekannt geworden, deren Mitarbeiter das IPCC dominiert haben.

Es ist geplant, die SPM des AR 5 auf einer Tagung in Stockholm Ende September zu genehmigen und kurz danach zu veröffentlichen. Wenn Sie in Versuchung sind zu kaufen, betrachten Sie den Kommentar des deutschen Physikers und Meteorologen Klaus-Eckart Puls, der die Katze im Sack des IPCC so kommentiert hat:

„Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was der Klimarat IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln  und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was das IPCC und die medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen ‚nach-erzählt‘ habe, dafür schäme ich mich heute.“*

[*O-Ton Puls! Keine Rückübersetzung! Der Link zum vollständigen Interview mit Herrn Puls:  hier bei EIKE]

Es ist an der Zeit für globale Empörung und in die Verantwortung nehmen!

Link: http://wattsupwiththat.com/2013/09/13/ipcc-ar5-renews-demands-for-governments-buy-their-climate-change-pig-in-a-poke/#more-93778

Übersetzt von Chris Frey




Globale Folgen der Schiefergas-Revolution: „schielen um die Ecke”

Eines der auf der Sitzung angesprochenen Themen wird Schiefergas sein. Mr. Newton zufolge ist noch nicht klar, dass die „Schiefergas-Revolution“ in Nordamerika die globalen Erdgasmärkte durcheinander wirbeln wird.

 „Die Auswirkungen schielen, um ein Sprichwort zu gebrauchen, vielleicht schon um die Ecke”, witzelte er und fügte hinzu: „Mit Sicherheit wird Schiefergas sehr große Auswirkungen auf die amerikanischen Energiemärkte haben, obwohl wir jedoch während der letzten Monate, vielleicht ziemlich überraschend, den Unterschied [the differential] von 20 Dollar gesehen haben, den es während der letzten Jahre zwischen NYMEX und Brent gegeben hat, wobei sich zahlreiche Infrastruktur-Ereignisse in den USA ereignet haben, das heißt mehr Ölerzeugnisse verlassen die USA“.

Inzwischen, sagt er, bleibt der gewaltige Preisunterschied für Erdgas bestehen, und erklärt weiter: „Als ich das letzte Mal bei Henry Hub Wholesale schaute, zahlte man um die 3,50 Dollar /TCF [TCF = Thousand Cubic Feet?]. Das steht in starkem Kontrast zu Mitte 2008, als man dafür etwa 10,50 Dollar zahlen musste“.

Während er einräumt, dass die Öl- und Gaspreise zu jener Zeit rekordhoch waren, stellten diese Preise eine deutliche Wegmarke dar, wenn man Faktoren wie die Wettbewerbsfähigkeit der USA in Betracht zieht, vor allem hinsichtlich der Energie- und der Chemieindustrie.

Ihm zufolge könnte sich wirklich alles ändern, falls die USA mehr Lizenzen vergeben, um sein unkonventionelles Gas zu exportieren. Inzwischen dürften die niedrigen Erdgaspreise dort wahrscheinlich nicht so niedrig bleiben.

„Es ist keineswegs klar, ob es besonders ökonomisch ist, es für 3,50 Dollar aus dem Boden zu holen”, kommentiert er. „Das ist der Grund, warum wir in den letzten eineinhalb Jahren ein viel größeres Interesse an herkömmlichem Öl [tight oil] als an Schiefergas gesehen haben, welches einen starken Auftritt in der Ölerzeugung der USA hatte – Ich denke an 190000 Barrel pro Tag, das ist nicht alles tight oil, aber man kann erkennen, dass jene Ölreserven kommerziell zunehmend attraktiv aussehen, wenn der Preis auf diesem Niveau verharrt“.

Aber immer noch, sagt er, ist es unwahrscheinlich, dass die Preise auf  den niedrigen Stand wie vor einem Jahrzehnt fallen werden. Aber wie wahrscheinlich ist es Mr. Newton zufolge, dass sich die Schiefergas-Revolution in anderen Gebieten der Welt wiederholt?

„Technisch gesehen wartet das Zeug nicht einfach darauf, aus dem Boden geholt zu werden. Nach meinem Verständnis hat jedes Feld seine eigenen Charakteristika, und das bedeutet, dass eine Technologie, die auf einem Feld wunderbar funktioniert, auf einem anderen Feld stark überarbeitet werden muss, um dort ebenfalls zu funktionieren.

Zweitens, Amerika ist signifikant führend hinsichtlich der Erfahrungen mit Technologien, mit denen man unkonventionelles Gas und Öl extrahieren kann, und wahrscheinlich dauert es eine Weile, bis man in der restlichen Welt auch diese Erfahrungen gesammelt hat – es sei denn, sie können die amerikanische Technologie importieren“, fügt er hinzu.

Drittens unterstreicht er, dass dies nicht allein eine USA-Angelegenheit ist, sondern eine in ganz Nordamerika. „Schaut man sich Projektionen der Selbstversorgung bzgl. Energie an einem ‚Tag X’ an, scheint es so, als könnten die USA bis zum Jahr 2035 energie-unabhängig werden, aber für Nordamerika könnte es schon früher soweit sein, vor allem, wenn der mexikanische Präsident Enrique Peña Nieto damit Erfolg hat, im mexikanischen Energiemarkt eine signifikante Liberalisierung einzuführen und ausländische Investitionen ins Land zu holen. Dies wäre notwendig zur Ausbeutung der mexikanischen Schiefergasreserven. Schätzungen der EIA zufolge belaufen sich diese Reserven auf die sechstgrößte Menge weltweit; wenn man bedenkt, dass die kanadischen Reserven an 5. und die USA an 4. Stelle stehen, unterstreicht dies, dass das ganze Thema ein nordamerikanisches ist und nicht eines der USA allein“.

Während Mr. Newton es für realistisch hält, dass Nordamerika in der Lage sein wird, große Mengen unkonventionellen Gases in die ganze Welt zu exportieren, verweist er auf die politischen Hindernisse. „Einige Lobbyisten argumentieren, dass die USA das Gas für sich selbst behalten sollten, das Öl noch viel mehr. Man braucht eine Lizenz des US-Energieministeriums, um Öl und Gas zu exportieren, und von denen wurden während der letzten Jahre nicht allzu viele ausgestellt.

„Es gibt klare Anzeichen, dass sich die USA dem Export immer weiter nähern, und das erste Ziel wird meiner Einschätzung nach Japan sein: Schon jetzt gibt es Verträge über japanische Investitionen in Flüssiggas (LNG) mit dem Ziel, Gas dorthin zu verschiffen, und es wäre für mich überhaupt keine Überraschung, ein sauber ausgehandeltes Rahmenabkommen zwischen den USA und dem über wenig Energie verfügenden Japan zu sehen. Man zahlt dort derzeit Preise für Gas, die signifikant über dem Marktraten liegen“.

Er verweist auf die diplomatischen Bemühungen Japans, mit Russland ins Gespräch zu kommen, um die gegenwärtig fehlende Energiesicherheit in Japan zu stärken. Hier wirken sich die Schwierigkeiten aus, die japanischen Kernkraftwerke nach Fukushima wieder anzufahren.

Mittlerweile macht Mr. Newton die Entwicklung von Schiefergas in China geltend, was die Energieszene im Nahen Osten, wenn nicht in ganz Asien grundlegend verändern könnte. Er stellt fest: „Die EIA schätzt, dass China über die größten Schiefergas-Reserven der Welt verfügt: über 1000 BCF [= Milliarden Kubikfuß]. Bislang war man in China nicht sehr erfolgreich damit, das Zeug aus dem Boden zu holen, aber ich denke, wir sollten nicht die Fähigkeit Chinas unterschätzen, dieses Problem auf die eine oder andere Weise rasch zu lösen“.

Mr. Newton erinnert daran, dass er und einer seiner Kollegen im Jahr 2001 vorhergesagt hatten, dass Energiesicherheit in China oberste Priorität sei, zumindest für die folgende Dekade.

 „Wir haben nur teilweise recht gehabt”, räumt er ein, „weil wir einen etwas zu engen Blickwinkel hatten. Realität ist, dass die wirtschaftliche Sicherheit – damit meine ich Energie, Rohstoffe und Nahrungsmittel – Chinas oberste Priorität hinsichtlich seiner Außenpolitik ist. Aber Energiesicherheit ist unabdingbar notwendig, um Chinas Wachstums-Maschinerie zu füttern, und das wird auch so bleiben, auch wenn die Wirtschaft im Verlauf des nächsten Jahrzehnts deutlich weniger energieintensiv wird“.

Die heimische Energiegewinnung hat angesichts schwindender konventioneller Ölreserven sehr hohe Priorität für das Land, vor allem auch, weil man sich saubereren Energiequellen zuwenden möchte als Öl oder Kohle.

Mr. Newton sagt, dass er viel von dem Argument hält, wonach die rasante Zunahme von Erdgasreserven die weitere Verbreitung von Erneuerbaren verlangsamen wird. „Nichtsdestotrotz stecken wir derzeit noch in einer auf Kohlenstoff basierenden globalen Ökonomie, und da muss man akzeptieren, dass Gas sauberer ist als Öl oder Kohle“.

Gefragt nach dem Nachhall des Gefühls, dass Erdgas die sauberste Kohlenstoff-Energiequelle ist, erwidert er, dass das davon abhänge, mit wem man redet. „Es gab jüngst einen Artikel in der FT über die Haltung der britischen Regierung zu Schiefer. Aber er bewirkte nicht viel, erlaubte er es doch im Grunde der Anti-Schiefer-Bewegung, die Medien mit ihren Botschaften zu dominieren. Es wird immer irgendwelche Neinsager geben, und es ist Sache der anderen, diese zu neutralisieren“.

Hinsichtlich der geopolitischen Lage Europas sagt Mr. Newton, dass ihn die Zusammenhanglosigkeit hinsichtlich Energie immer wieder überrasche. Als Beispiel führt er Deutschland an. Lange Zeit stand das Land an vorderster Front der Befürwortung erneuerbarer Energie, aber nach dem Unfall in Fukushima hat sich die Regierung entschlossen, sich aus der Kernkraft zurückzuziehen. „Und es scheint, als ob Deutschland als Folge davon in absehbarer Zukunft immer abhängiger von Kohle werde. Außerdem, den Deutschen vorzuschlagen, etwas Dramatisches hinsichtlich ihrer Autoabgase zu unternehmen ist in etwa so, als würde man die Amerikaner auffordern, das Recht zum Tragen von Waffen aufzugeben“.

Genauso verworren ist die Politik des Kontinents hinsichtlich Schiefer. Frankreich und Belgien haben Fracking verboten, Polen und UK sind nach wie vor enthusiastisch. „Obwohl die Polen in technische Schwierigkeiten geraten sind“.

Aber wird Europa von den russischen Erdgasquellen abhängig bleiben, und falls nicht, wohin wird das Gas strömen?

„Das oberste Problem Russlands ist, dass es tatsächlich derzeit nicht sehr viel neues Gas aus dem Boden holt. Eine große Zahl existierender Gasfelder leert sich. Zweitens, derzeit fehlen Russland sehr viele Kapazitäten durch Pipelines in Richtung Osten; drittens, bei allem Respekt der Bemühungen von Japans Premierminister Shinzo Abe, die Option offenzuhalten, von Russland Gas zu kaufen, lautet die Lektion der vergangenen Jahre, dass Russland als Versorger nicht so zuverlässig ist wie zu Sowjetzeiten, als die Gashähne praktisch niemals zugedreht worden waren. Es gibt also immer Fragezeichen“.

Inzwischen war China eifrig damit beschäftigt, starke Beziehungen mit anderen Gasversorgern in Mittelasien zu knüpfen. Beispielhaft hierfür stehen die aus Turkmenistan herausführenden Pipelines.

„Das nützt mit Sicherheit auch den mittelasiatischen Republiken, die nicht komplett von Russland als Transitkorridor abhängig sein wollen“, sagt Newton zum Schluss. Viel wahrscheinlicher sei es, dass nichtrussische Gasquellen in Ost- und Südostasien in den Brennpunkt rücken.

Link: http://www.naturalgaseurope.com/shale-gas-revolution-still-in-the-pipeline

Übersetzt von Chris Frey EIKE




Die ‚unbequeme Wahrheit’ für das IPCC – Stillstand der globalen Erwärmung seit über 15 Jahren

Hier folgen die wesentlichen von mir in dem Op-Ed angesprochenen Punkte:

Die Veröffentlichung des 4. Zustandsberichtes des IPCC wurde international mit Beifall aufgenommen. Der vielgerühmte IPCC-Prozess – eine Heerschar von Experten aus über 100 Ländern hat vier Jahre lang daran gearbeitet, tausende in Journalen veröffentlichte Artikel untersucht, mit hunderten von Experten-Begutachtern – hat die Autorität des IPCC auf fast biblische Höhen gehoben. Journalisten sprangen auf den Zug auf, und selbst Öl- und Gas-Unternehmen standen dicht vor der Kapitulation. Die Verehrung gipfelte im Friedensnobelpreis, der dem IPCC zusammen mit Al Gore verliehen worden ist. Zu jener Zeit bin auch ich dem Konsens beigetreten, dieses Dokument als richtungweisend zu unterstützen: ich bin dem Motto gefolgt: „Vertraue nicht dem, was ein einzelner Wissenschaftler sagt; sondern vertraue vielmehr dem einen Konsens bildenden Prozess der IPCC-Experten“.

Sechseinhalb Jahre später und eine Woche vor Veröffentlichung des 5. Zustandsberichtes (AR 5) wurde substantielle Kritik an durchgesickerten Versionen des Berichtes geübt, ebenso wie am IPCC-Prozess selbst. IPCC-Insider beklagen den Verlust ihres wissenschaftlichen und politischen Einflusses. Was war geschehen?

Das IPCC war ernsthaft angeschlagen nach der unautorisierten Veröffentlichung von E-Mails von der University of East Anglia im November 2009, bekannt unter der Bezeichnung Klimagate. In diesen E-Mails wurde der ‚Schacher’ im Konsens bildenden IPCC-Prozess enthüllt, einschließlich der Verhinderung, die Daten Personen zugänglich zu machen, die die Verarbeitung der Daten und die wissenschaftlichen Ergebnisse überprüfen wollten; Einmischung in den Begutachtungsprozess, um den Einfluss skeptischer Kritiken zu minimieren sowie Manipulation der Medien. Dem Klimagate-Skandal folgte rasch die Identifizierung eines ungeheuerlichen Fehlers hinsichtlich des Abschmelzens der Himalaya-Gletscher. Die Auswirkungen dieser Enthüllungen wurden noch erheblich verschlimmert durch die tatsächliche Reaktion des IPCC auf diese Dinge. Dann gab es Geraune über das Verhalten von IPCC-Chef Rajendra Pachauri und durch Untersuchungen der Infiltration durch grüne Aktivistengruppen in das IPCC. All das geschah vor dem Hintergrund der expliziten Befürwortung und des Aktivismus seitens der IPCC-Führer hinsichtlich politischer Maßnahmen zur Abschwächung des CO2-Einflusses.

Das IPCC scheint die kumulativen Auswirkungen dieser Ereignisse nicht zu verstehen, und zwar hinsichtlich des Vertrauensverlustes in die Klimawissenschaftler und des IPCC-Prozesses selbst. Der einen Konsens bildende IPCC-Prozess hängt sehr stark von der Beurteilung durch Experten ab; wenn die Öffentlichkeit und die Politik diesen besonderen Experten nicht mehr vertraut, kann man von einem sehr unterschiedlichen Echo bei der Veröffentlichung von AR5 verglichen mit dem AR 4 ausgehen.

Aber das IPCC steht auch noch vor einem anderen, noch ärgerlicheren Dilemma. Seit der Veröffentlichung des AR 4 hat die Natur das IPCC vorgeführt – es gab keine signifikante Zunahme der globalen Mitteltemperatur seit über 15 Jahren.

Basierend auf frühen Versionen des AR 5 scheint das IPCC darauf vorbereitet, den Stillstand der Erwärmung als irrelevantes ‚Rauschen’ in Verbindung mit der natürlichen Variabilität abzutun. Unter Druck räumt das IPCC den Stillstand jetzt ein und gibt zu, dass die Klimamodelle diesen nicht vorhergesagt haben. Das IPCC konnte nicht überzeugend den Stillstand erklären hinsichtlich externer Strahlungsantriebe durch Treibhausgase, Aerosole, solare oder vulkanische Antriebe; und das bedeutet, dass die natürliche innere Variabilität als der vorherrschende Anwärter zur Erklärung des Stillstands übrig bleibt. Falls das IPCC den Stillstand der inneren natürlichen Variabilität zuschreibt, wirft es die Frage auf, bis zu welchem Ausmaß die Erwärmung von 1975 bis 2000 ebenfalls durch die interne natürliche Variabilität erklärt werden kann. Nicht zu erwähnen, drängender werdende Fragen über das Vertrauen zu stellen, dass wir den IPCC-Projektionen der zukünftigen Klimaentwicklung entgegen bringen sollten.

Nichtsdestotrotz scheint das IPCC zu dem Ergebnis zu kommen, dass die Erwärmung in naher Zukunft wieder einsetzen wird in Übereinstimmung mit den Vorhersagen der Klimamodelle.

Warum sehe ich die Auswirkungen des Stillstands hinsichtlich der Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts und deren Implikationen für die zukünftige Erwärmung so ganz anders als das IPCC? Diese unterschiedliche Bewertung erwächst aus der unterschiedlichen Einschätzung und der Wichtigkeit bestimmter Klassen von Beweisen ebenso wie der Einbindung dieser Beweise in das gesamte Rahmenwerk – meine Begründung fußt sehr stark auf beobachteten Beweisen und dem Verständnis der inneren natürlichen Variabilität des Klimasystems, während das IPCC seine Aussagen sehr stark auf Klimamodell-Simulationen und externer Antriebe der Klimaänderung stützt.

Wissenschaftler müssen keinen Konsens erreichen, um geachtet zu werden. Die Achtung beruht auf der Glaubwürdigkeit der Argumente, die eine explizite Darstellung der Unsicherheiten und der Mehrdeutigkeiten enthalten muss ebenso wie mehr Offenheit gegenüber Andersdenkenden. Ich habe verlangt, dass der nach Konsens strebende wissenschaftliche Prozess aufgegeben wird zugunsten einer traditionelleren Begutachtung, die Argumente für und wider präsentiert, die Unsicherheiten diskutiert und auf Spekulationen über die bekannten und unbekannten Unbekannten eingeht. [the unkown unknowns]

Die wachsenden Implikationen des vertrackten Problems der Klimaänderung werden immer offensichtlicher. Lassen Sie uns das Streben nach einem wissenschaftlichen Konsens aufgeben und durch offene Debatten und Diskussionen einer großen Bandbreite politischer Optionen ersetzen, die lokale und regionale Lösungen hinsichtlich des vielschichtigen und miteinander in Verbindung stehenden Dinge der Klimaänderung enthält.

Link: http://judithcurry.com/2013/09/20/the-ipccs-inconvenient-truth/

Übersetzt von Chris Frey EIKE




LNT – Panikmache im wissenschaftlichen Gewand Atomangst – der lange Schatten eines Diktators

Zu den entscheidenden Befürchtungen, welche die Atomkraftgegner in der Bevölkerung ständig schüren, gehören die Angst vor Krebs sowie vor Erbschäden beim Nachwuchs. Das liegt auch daran, dass Infektionskrankheiten heute ihren Schrecken weitgehend verloren haben. Sie sind einerseits zumeist recht gut heilbar und man kann Ansteckungsgefahren durch Hygiene, gesunde Lebensweise und die Vermeidung bestimmter Risiken deutlich verringern. Für Krebs trifft dies jedoch nur eingeschränkt zu. Krebs ist ein heimtückisches und oft tödliches Leiden, das meist ohne Vorwarnung zuschlägt und oft nicht oder nur mit begrenztem Erfolg behandelbar ist. Indem die Gegner der Kernkraft im Bewusstsein der Bevölkerung Radioaktivität zur wesentlichen Ursache von Krebsgefahren hochstilisieren, haben sie leichtes Spiel damit, die auf diese Art ausgelösten Urängste für ihre Zwecke zu instrumentalisieren. Dazu trägt auch bei, dass die meisten Menschen die entsprechenden Zusammenhänge nur unvollständig kennen. Zumeist ist lediglich bekannt, dass Krebs durch eine genetische Entartung körpereigenen Gewebes entsteht, die ihre Ursache in einer Schädigung des Erbguts einer vorher gesunden Körperzelle hat. Da radioaktive Strahlen solche Schäden herbeiführen können und – rein vom Prinzip her – schon ein einziges Strahlungsquant ausreichen kann, um Krebs auszulösen, glauben die meisten Zeitgenossen, dass man Krebsrisiken am besten dadurch minimiert, indem man das Auftreten von radioaktiver Strahlung im eigenen Umfeld möglichst auf null reduziert. Also, so die scheinbar logische Überlegung, braucht man nur alles, was Kernkraft, Endlager etc. angeht, weit genug vom eigenen Umfeld zu verbannen, um beruhigt und sicher leben zu können.

Bild 1. Kernkraftwerke werden von den meisten Menschen als Bedrohung ihrer Gesundheit empfunden (Symbolbild)

Eine der gröβten radioaktiven Gefahren sind wir selbst

Dabei ist dies ein Trugschluss, denn eine der gefährlichsten Strahlungsquellen, denen die Mehrheit von uns überhaupt ausgesetzt ist, ist unser eigener Körper. Niemand kann uns vor den rund 7.000 bis über 9000 Becquerel schützen, mit denen der durchschnittliche Europäer belastet ist [BECQ]. Anders ausgedrückt stecken in unserem eigenen Körper so viele radioaktive Elemente, dass in jeder Sekunde bis zu 9.000 Atomkerne zerfallen und dabei radioaktive Strahlung freisetzen. Noch dazu hat gerade diese Strahlung das – aus medizinischer Sicht – höchste Gefährdungspotenzial, weil sie direkt innerhalb unserer Körperzellen und ihres genetischen Materials wirkt. Hier verursacht selbst die auβerhalb des Körpers eher harmlosen Alpha- und Beta-Strahlung unweigerlich massive Schäden. Dieses ständige Bombardement unserer Zellen lässt sich weder verhindern noch wesentlich verringern, weil wir die entsprechenden Elemente über unsere Nahrung zwangsläufig Tag für Tag aufnehmen [APFE]. Selbst Babys erhalten bereits mit der Muttermilch sowie über Babynahrung ihre tägliche Dosis Radioaktivität [BAB1, BAB2]. Unsere ganze Umgebung, Erde, Steine und sogar die Luft strahlen und versorgen uns ständig mit radioaktiven Elementen, die unser Körper als natürliche Bestandteile des Nahrungskreislaufs einstuft und in den Zellen einbaut. Das reicht vom Kalium 40K über das radioaktive Kohlenstoffisotop 14C, das wir mit jedem Bissen Nahrung zu uns nehmen, über Uran und Thorium bis zum Edelgas Radon, das vom Erdboden aus ständig in unsere Gebäude einsickert und eingeatmet wird. In manchen Regionen Deutschlands liegt die natürliche Radioaktivität der Umgebung sogar viermal höher als der zulässige Grenzwert für Mitarbeiter in kerntechnischen Anlagen [HUET]. In anderen Weltgegenden ist die Belastung sogar noch viel höher, so in der iranischen Stadt Ramsar, wo bis zu 260 mSv/ Jahr erreicht werden. Weitere Strahlungsquellen sind das Hautkrebs auslösende UV-Licht der Sonne sowie kosmische Strahlung aus dem Weltall.

Kampferprobtes Erbgut

Allerdings ist die Vorstellung, dass die Chromosomen in unseren Zellen weitgehend vor Beschädigungen geschützt seien und höchstens ab und zu mal durch einen verirrten Strahlungsimpuls beschädigt würden, ebenso verbreitet wie völlig falsch. Unser Erbgut – die DNA-Doppelspiralen, welche die gesamten Baupläne unseres Körpers enthalten – liegt nicht etwa gut geschützt in einer Art Tresor, sondern muss einen ununterbrochenen Dauerkrieg um seine Erhaltung führen. In unseren Zellen werden die DNA-Stränge ständig chemisch aufgespalten, in Teilbereichen kopiert und wieder zusammengefügt, da sie die Baupläne und Betriebsanleitungen für nahezu alle in der Zelle ablaufenden Vorgänge enthalten. Was da abläuft, gleicht einer Hochleistungs- Chemiefabrik in aggressiver Umgebung. Auch die Schädigungsrate durch die natürliche Hintergrundstrahlung kann man heute recht genau bestimmen. Sie liegt bei ungefähr 0,005 DNA-Fehlern pro Zelle und Tag. Andersherum ausgedrückt wird jede einzelne Zelle unseres Körpers alle 200 Tage durch die natürliche Radioaktivität nachhaltig geschädigt. Dabei ist Radioaktivität nur ein Randaspekt verglichen mit anderen, viel gröβeren Gefahren, denen die Chromosomen ständig ausgesetzt sind. Eine wichtige Rolle spielen kleinere oder gröβere Fehlfunktionen in den unglaublich komplexen chemischen Reaktionen, die in der Zelle ständig ablaufen. Hinzu kommen Attacken durch Viren, Bakterien, Gifte oder auch Temperatureinflüsse. Die Zahl der Chromosomenfehler, die hierbei täglich auftreten, geht in die Milliarden – in jeder einzelnen Zelle, wohlgemerkt [HUMP]. Wenn also schon ein einzelner Fehler unausweichlich Krebs auslösen würde, wäre längst jedes Leben ausgestorben. Von Anbeginn seiner Entwicklung an musste sich das Leben diesen Bedingungen stellen und ist deshalb durchaus kampferprobt. Lebendes Gewebe verfügt hierfür über ausgeklügelte Anpassungs- sowie Reparaturmechanismen. Selbst groβe Schäden wie DNA-Doppelbrüche sind nur in einem von 500 Fällen nicht reparierbar, und auch für solche Vorkommnisse hält die Natur Notbremsen wie das Eiweiß p53 bereit. Seine primäre Aufgabe ist die Hilfe bei der Reparatur defekter Zellen. Ist der Schaden jedoch zu groß, schickt p53 die betroffene Zelle ohne Umschweife in den Tod [ZELL]. Über 99 % der irreparabel mutierten Zellen sterben daher durch Selbstvernichtung ab und werden durch gesunde Nachbarzellen ersetzt. Vor diesem Hintergrund ist es leicht einzusehen, warum die Frage, ob ein einzelnes Strahlungsquant aus einer externen Quelle in einer Zelle einen Treffer erzielt hat oder nicht, für die realistische Beurteilung von Krebsgefahren kaum von Bedeutung ist.

Das Zusammenspiel von Schädigung durch radioaktive Strahlung und den eingebauten Selbstheilungskräften der Biologie erklärt auch, warum eine einmalige Exposition mit einer extremen Überdosis zum Tode führt: Die in kurzer Zeit auftretenden Schäden sind so massiv, dass die Selbstheilungskräfte überfordert sind und das Gewebe abstirbt. Darunter gibt es einen Dosisbereich, in dem der Organismus zwar überlebt, der Umfang schwerer Chromosomenschäden jedoch immer noch so hoch liegt, dass auch hier die Selbstheilung nur teilweise funktioniert. Deshalb erkrankt ein bestimmter Prozentsatz dieser Überlebenden später an Krebs. Diese Zusammenhänge sind gut untersucht und statistisch gesichert.

LNT – die Angst vor kleinsten Strahlungsmengen

Mit diesem Hintergrundwissen kann man die sogenannte LNT-Theorie in gewisser Weise mit Gedankenmodellen vergleichen, wie sie beispielsweise in der Homöopathie Anwendung finden. Ausgangspunkt sind in beiden Fällen nachgewiesene Zusammenhänge bei hohen Dosierungen. Beide Lehren gehen von der Annahme aus, dass diese Zusammenhänge linear bis herab zu kleinsten Mengen herunter gelten würden. Die Homöopathie betreibt die als „Potenzierung“ bezeichnete Verdünnung der Wirkstoffe so extrem, dass die Ausgangsstoffe im Heilmittel nicht mehr nachweisbar sind. Bei der LNT-Methode (LNT=Linear No Threshold) wird behauptet, dass die von hohen Strahlungsdosen her bekannten Zusammenhänge selbst dann gelten, wenn die Menge der radioaktiven Substanz so gering ist, dass ihre Strahlungsanteile im „Hintergrundrauschen“ der natürlichen Strahlung völlig untergehen.

Bild 2. Experimente an Laborratten zeigten, dass die Sterberaten bei Bestrahlung mit geringeren Dosen wesentlich schneller zurückgingen als nach der LNT-Hypothese (gestrichelte Linie) zu erwarten [HUET]

Die Nuklearmedizin hat jedoch bereits in zahlreichen Untersuchungen bewiesen, dass diese Annahme nicht stimmt. Wenn der Körper in gewissen Abständen vergleichsweise geringen Mengen radioaktiver Bestrahlung ausgesetzt ist, dann kann die Natur damit umgehen. Eingehende Untersuchungen zeigen sogar, dass solche geringen Bestrahlungen eine Art Abhärtungseffekt bewirken, der Hormesis genannt wird [HORM]. Dies ist die Erklärung dafür, warum Menschen mit wiederkehrenden geringen Strahlungsexpositionen – z.B. Mitarbeiter kerntechnischer Anlagen – im statistischen Mittel sogar weniger häufig an Krebs erkranken als Vergleichsgruppen.

Somit steht die LNT-Methode klar im Widerspruch zu den Erkenntnissen der modernen Nuklearmedizin. Diese Zusammenhänge wurden durch umfassende Studien bestätigt [GEGN, LNT1, LNT2]. Die LNT-Anhänger schätzen diese Theorie jedoch gerade deshalb, weil man damit so schön einfach rechnen kann. Vor allem jedoch eignet sie sich hervorragend dafür, Strahlung selbst bei geringsten Dosen als gefährlich darzustellen und somit Ängste zu schüren. Deshalb gehört diese Methode zum bevorzugten Rüstzeug von Kernkraftgegnern, Öko-Instituten und auch mancher öffentlicher Stellen, um unter dem Vorwand des Strahlenschutzes immer mehr und immer teurere Schutzmaβnahmen zu fordern oder die Kernenergie gleich ganz zu verbieten. Doch warum konnte eine derart umstrittene Theorie überhaupt derartige Verbreitung und Anerkennung finden?

Das Erbe von Stalin und Lyssenko

Ihren heutigen Status als offiziell anerkannte Wissenschaft verdankt die LNT-Methode nicht zuletzt einer Person: Dem Diktator Josef Stalin. Ähnlich wie Kirchenfürsten im Mittelalter schätzte Stalin Ideologie höher ein als Wissenschaft und tolerierte Widerspruch von Wissenschaftlern ebenso wenig wie in anderen gesellschaftlichen Bereichen. Wer dagegen Positionen vertrat, die ihm ideologisch genehm waren, wurde gefördert. Bekanntestes Beispiel war der Aufstieg von Trofim Lyssenko, einem Scharlatan auf dem Gebiet der Genetik und der Agrarwissenschaften, der mit seinen völlig antiwissenschaftlichen Thesen zu höchsten Ehren aufstieg. Lyssenko behauptete, es gebe gar keine Gene und man könne beispielsweise verschiedene Getreidesorten durch geeignete Kulturbedingungen ineinander umwandeln. Eng verknüpft mit Lyssenkos Aufstieg war ein Feldzug gegen die „faschistische“ und „bourgeoise“ Genetik sowie gegen jene Wissenschaftler, die sich mit dieser Disziplin befassten.

Seinem Land hinterlieβ Stalin bei seinem Tod 1953 eine zutiefst gespaltene und verunsicherte Wissenschaftlergemeinde, in der vielfach Apparatschiks, Jasager und Denunzianten das Sagen hatten. In diesem Umfeld gedieh auch die Befürwortung der LNT-Theorie. Als gröβter Coup ihrer Anhänger kann gelten, dass das United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR) 1958 – insbesondere auf Betreiben der Sowjetunion – für die LNT-Methode votierte. Da man in entsprechenden internationalen Gremien ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell dann auch von der International Commission on Radiation Protection (ICRP) übernommen [HUMP]. Seither trägt die LNT-Methode sozusagen das amtliche Gütesiegel einer UNO-zertifizierten Wissenschaft.

Bild 3. In diesem Abklingbecken für Reaktor-Brennelemente genügen wenige Meter Wasser, um die radioaktive Strahlung effektiv abzuschirmen (Symbolbild)

Die Selbstaufgabe des Westens

Rückblickend könnte man sagen, dass es der Sowjetunion damals gelungen ist, einen Gegner, dem sie weder militärisch noch wissenschaftlich oder technisch gewachsen war, durch ein geschicktes Manöver ideologisch entscheidend zu schwächen. Von der Wirkung her kann man das Ganze fast schon mit dem Durchschleusen des Revolutionärs Lenin 1917 nach Russland durch den deutschen Geheimdienst vergleichen. Die Folgen waren eine Vergiftung und Selbstzerstörung des Gegners von innen heraus. Im Westen gelang es geschickten (und häufig dem sozialistisch-kommunistischen Lager nahestehenden) Ideologen unter Ausnutzung der LNT-Thesen, die Mehrheit der Bürger derart mit einer geradezu panischen Angst vor dem „Atom“ zu impfen, dass die Kernenergie inzwischen in vielen Ländern weitgehend geächtet ist. Wie weit entfernt von jeglicher Rationalität solche emotional gesteuerten Entscheidungen sind, zeigt sich beispielsweise beim Vergleich mit dem Automobil, Bild 4.

Bild 4. Seit 1950 hat der Straβenverkehr in Deutschland bereits mehr als 670.000 Menschenleben gefordert

Diese Technologie hat seit 1950 mehr als 670.000 Menschen das Leben gekostet. Mehrere Millionen weitere erlitten Verletzungen, und der volkswirtschaftliche Schaden dürfte die Billion € inzwischen weit überschritten haben. Dennoch wird dieses Transportmittel allgemein als gesellschaftlich notwendig eingestuft und die damit verbundenen Risiken werden als unumgängliches Lebensrisiko akzeptiert. Dagegen haben sich in produzierenden Kernkraftwerken der Bundesrepublik Deutschland bis heute keine Unfälle ereignet, bei denen es zu Todesfällen durch Verstrahlung gekommen wäre. Die deutsche Kernenergie hat sich somit als eine der bisher sichersten Groβtechnologien überhaupt erwiesen, viel sicherer als Stahlwerke, Chemieanlagen oder Kohlekraftwerke. Doch ungeachtet dieser Tatsache ist ihr Auslaufen innerhalb der nächsten neun Jahre beschlossene Sache. Die Mehrheit will es so, und das ist in einer Demokratie zu respektieren. Es muss jedoch erlaubt sein, an der Weisheit dieser Entscheidung zu zweifeln.

Deutschlands Entscheidung wird noch teuer

Für diese Entscheidung wird Deutschland in Zukunft noch einen hohen Preis bezahlen müssen. Die sogenannte Energiewende ist bereits jetzt gescheitert. Das Land manövriert sich gerade mit erheblichem Schwung in eine Energiesackgasse. Grund ist die Untauglichkeit von Solar- und Windenergie zur zuverlässigen Bereitstellung des von einer modernen Industrienation benötigten Stroms. Mit dem Zusammenbrechen des Energiewende-Experiments wird man feststellen, dass aufgrund der jahrelang vernachlässigten Planung neuer Kraftwerke die Energieversorgung auf wackligen Füssen steht. Mit dem Abschalten der letzten Kernkraftwerke bis 2022 fallen weitere entscheidende Kapazitäten weg, für die in der Kürze der Zeit wohl kaum rechtzeitig ausreichender Ersatz bereitgestellt werden kann, denn Kraftwerke sind komplexe Groβprojekte, für deren Realisierung Zeiträume von 12-15 Jahren anzusetzen sind. Und haben wir dann endlich die erforderlichen Kohlekraftwerke gebaut, so wird sich herausstellen, dass das dicke bzw. teure Ende erst so richtig auf uns zukommt. Wie Bild 5 zeigt, wurde Kesselkohle am Weltmarkt seit etwa 10 Jahren rasant teurer.

Bild 5. Preise für Kohle in Europa seit 1987 und Projektion der möglichen weiteren Preisentwicklung bis 2017 [WIKI]

Die anhaltende Kohlenachfrage vor allem aus Asien dürfte dafür sorgen, dass dieser Trend auch in Zukunft weiter anhält. Deutschland wird für den Import von Kraftwerkskohle mehr und mehr Devisen hinblättern müssen. Irgendwann, wenn das Land in vielleicht 10 bis 20 Jahren feststellt, dass es bezüglich „erneuerbarer Energie“ und der Vorstellung kernkraftfreier Stromproduktion Illusionen aufgesessen ist, wird man feststellen, dass man für die Produktion der essentiellen Ressource Strom für lange Zeiträume möglichweise doppelt so hohe Preise zahlen muss wie in Nachbarländern mit Kernkraft.

Fred F. Mueller

Quellen:

[APFE] http://www.eike-klima-energie.eu/energie-anzeige/moegen-sie-aepfel-mit-erhoehter-radioaktivitaet/

[BAB1] http://marktcheck.greenpeace.at/9008.html  abgerufen am 3.8.2013

[BAB2] http://www.sueddeutsche.de/wissen/bayerische-behoerde-bestaetigt-mineralwasser-radioaktiv-belastet-1.912566  abgerufen am 3.8.2013

[BECQ] http://www.wasser-wissen.de/abwasserlexikon/b/becquerel.htm  abgerufen am 3.8.2013

[GEGN] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3526330/?report=classic  abgerufen am 16.7.2013

[HORM] http://de.wikipedia.org/wiki/Hormesis  12.7.2013

[HUET] http://www.eike-klima-energie.eu/lesezeichen-anzeige/zur-radioaktivitaet-und-strahlen-einige-fakten/

[HUMP] http://www.eike-klima-energie.eu/news-cache/strahlungswirkung-eine-falsche-theorie-bestimmt-die-atom-politik/  abgerufen am 12.7.2013

[LNT1] Bürger für Technik Tagung 24.-26.5.13 Berlin Kurzbericht per Mail   erhalten am 16.6.2013

[LNT2] http://radiology.rsna.org/content/251/1/13.full   abgerufen am 7.5.2013

[WIKI] http://de.wikipedia.org/wiki/Kohle/Tabellen_und_Grafiken  abgerufen am 9.8.2013

[ZELL] http://www.spiegel.de/wissenschaft/medizin/krebstherapie-forscher-wollen-p53-wieder-anschalten-a-915112.html  abgerufen am 15.8.2013




Vermeidungskosten statt Anpassungskosten – 50:1 sollte jetzt 100:1 betragen

Bild rechts: geringe ECS verdoppelt das Missverhältnis von Kosten und Nutzen [Original: Low ECS doubles the cost: benefit shortfall]

Seit Januar 2012 sind nicht weniger als 19 wissenschaftliche Studien veröffentlicht worden (hier) zur alles entscheidenden Frage der Klimasensitivität: z. B. wie viel Erwärmung würde aus einer Verdoppelung der Treibhausgas-Anteile in der Atmosphäre resultieren? Die jüngste Version der AR 5-Summary schleicht um diesen heißen Brei herum, räumt aber effektiv ein (einfacher ausgedrückt, es vermutet), dass die ‚Gleichgewichts’-Sensitivität (ECS) möglicherweise um 2°C liegt – also etwa 33% niedriger als in den vier Berichten zuvor vermutet.

Aber das bedeutet noch lange nicht, dass die zukünftige Entwicklung nur ein Drittel betragen wird!

Wir wollen die folgenden übertrieben generösen Annahmen machen:

1. Die ECS spiegelt sich unmittelbar in der globalen Mitteltemperatur

2. Die IPCC-Modelle sind in jeder anderen Hinsicht richtig (außer ECS)

3. Der Treibhauseffekt ist arithmetisch anstatt logarithmisch

4. Die atmosphärische CO2-Konzentration wird in 70 Jahren 560 ppm betragen.

5. Der Diskontsatz für Klimabelange liegt weit unterhalb jeder anderen Investitionsrate.

Das CMIP%-Modellensemble projiziert gegenwärtig bis zum Jahr 2085 Temperaturen, die um 3°C über dem Niveau von 1850 liegen. Der NOAA zufolge (dem mittleren der drei Datensätze) war es während der letzten 160 Jahre bereits zu einer Erwärmung von 1,024 ±0.128°C gekommen. Also lautet die offizielle Vorhersage, dass die Temperatur um weitere 1,876°C während der nächsten 70 Jahre zunehmen wird.

Falls man jene CMIP5-Modelle mit dem aktualisierten ECS laufen ließe, würde sich die Projektion für das Jahr 2088 um ein Drittel auf 2°C reduzieren. Davon ziehen wir die bereits eingetretene Erwärmung von 1,024°C ab. Die projizierte Erwärmung während der nächsten 70 Jahre reduziert sich damit auf 0,976°C.

Das ist WENIGER ALS DIE HÄLFTE dessen, was das IPCC zuvor erwartet hat – eine sehr dramatische Reduktion.

Die aktualisierte Projektion zeigt, dass der Erwärmungstrend fast genau der Gleiche wie während der letzten 100 Jahre ist. Während dieser Zeit gab es keinerlei Beschleunigung des Meeresspiegel-Anstiegs, Gletscher- oder Meereis-Rückzüge, mehr Malariafälle oder größere Häufigkeiten von Hurrikanen oder Dürren.

Tatsächlich handelte es sich um ein Temperatur-‚Optimum’. CO2 trug zur ‚grünen Revolution’ bei, die Kindersterblichkeit wurde dezimiert, während Indikatoren wie die Lebenserwartung und Bildung boomten. Die Todesrate durch Extremwetterereignisse hat seit 1920 um 98% abgenommen. Und es gibt noch einen anderen Grund, warum die 50:1-Schätzung eine deutliche Überschätzung ist.

Der gegenwärtige Temperatur-Stillstand seit 16 Jahren zeigt, dass die Zeit des Temperatur-Optimums jetzt vorüber sein könnte. Falls das so wäre und die Welt ein Crash-Programm zur Reduktion von Treibhausgasen auflegen würde, würden wir vermutlich während des 21. Jahrhunderts einen Abkühlungseffekt erzeugen. Würde das die Vorteile auch nur im Geringsten zunehmen lassen? Oder schneiden wir uns dabei nur ins eigene Fleisch?

Vielleicht wird der AR 5 der WG 3 (fällig im März 2014) dieses Szenario ansprechen. Das IPCC sagt, es ziehe alle möglichen Zukünfte in Betracht, ohne irgendeine davon mit einer Wahrscheinlichkeit zu belegen.

Jetzt aber zurück zu den oben gemachten heroischen Hypothesen:

1. Die ECS ist die theoretische Reaktion der Temperatur, die sich noch lange nach den Emissionen fortsetzt – hunderte Jahre lang in die Zukunft. Die kurzfristige Auswirkung einer Treibhausgas-Verdoppelung liegt bei nur 1,2°C – 40% weniger als die ECS.

2. Die Modelle CMIP5 und CMIP3 lagen tatsächlich um 100% falsch während der letzten 20 Jahre. Die ECS ist mit Sicherheit nicht der einzige Fehler.

3. Der Treibhauseffekt ist logarithmisch, also gab es bereits (bei 400 ppm) mehr als die Hälfte an Verdoppelung.

4. Die IPCC-Szenarien ignorieren Änderungen der Technologie, den Schiefergas-Boom usw. und sind schon lange überholt.

5. Das 50:1-Projekt basiert konservativ auf dem Stern-Bericht, dem zufolge die Klima-Abschwächung eindeutig unterschiedlich ist zu Investitionen in die Gesundheitsvorsorge, Bildung, in Krankheiten und Armutsbekämpfung, Anpassung an das Klima usw. Dieses Credo basiert auf einer obskuren moralischen Philosophie, dem nur wenige Ökonomen folgen geschweige denn sie übernehmen können.

Und schließlich ist der größte Einfluss nehmende Faktor in all den ökonomischen Modellen die Geschwindigkeit der Änderung, nicht nur die Größe. Die Ergebnisse des AR 4 zeigten eine so rasche Änderung der Rate, dass die meisten Möglichkeiten der Spezies (einschließlich der Menschen) sich anzupassen ausgeschlossen sind. Mit dem langen Stillstand und der neuen geringen Sensitivität ist dieser Fall komfortabel erledigt.

Also, wenn wir die aktualisierte Wissenschaft und normale Ökonomie einer Kosten-Nutzen-Analyse unterziehen würden, könnte sich das Verhältnis 50:1 leicht auf 100:1 verändern.

Link: http://wattsupwiththat.com/2013/09/18/501-should-now-be-1001/

Übersetzt von Chris Frey EIKE




Das große Dilemma der Klimatologie

Krisen sind so etwas wie ein Markenzeichen des IPCC. Seit Erscheinen des 1. Zustandsberichtes im Jahr 1990 geriet jede der periodischen Verkündigungen des IPCC zum globalen Klima in eine Kontroverse. Im 2. Zustandsbericht 1995 führte der Titel des Berichtes – dass nämlich ein ‚Fußabdruck’ der vom Menschen verursachten globalen Erwärmung entdeckt worden ist – zu einem Aufruhr, als man herausfand, dass diese Aussage erst im allerletzten Moment in den Text eingefügt worden war. Es folgten laute Vorwürfe, dass der Bericht für politische Zwecke bearbeitet worden war. Dann war 2001 die infame, aber wissenschaftlich dezentrale Hockeyschläger-Graphik erschienen und mit ihm die Behauptung, dass die derzeitigen Temperaturen beispiellos seien. Er wurde im 3. Zustandsbericht wie das Nonplusultra auf den Schild gehoben, als ob es sich dabei um einen schlüssigen Beweis eines menschlichen Einflusses auf das Klima handeln würde. Als nächstes brannte es, als zu der Zeit des Erscheinens des 4. Zustandsberichtes 2007 tausende E-Mails aus der University of East Anglia bekannt geworden sind und die außerordentlichen Bemühungen enthüllt haben, Beweise für die künstliche Fabrikation des Hockeyschlägers aus dem Bericht herauszuhalten.

Nunmehr steht die Veröffentlichung des 5. Zustandsberichtes unmittelbar bevor, und die Wissenschaftler und Politiker, die an den Formulierungen der Endfassung arbeiten, müssen sehen, wie sie jetzt eine weitere Krise umschiffen. Dazu müssen sie eine Story aushecken, die einen sehr unbequemen Widerspruch hinweg erklärt.

Die verschiedenen Versionen des Berichtes sind großenteils an die Medien durchgesickert, und es sieht so aus, als gingen die Schlagzeilen in die Richtung ‚Wissenschaft ist sich sicherer denn je, dass die Menschheit den Planeten erwärmt’, oder kontroverser ‚Der größte Teil der Erwärmung in der zweiten Hälfte des vorigen Jahrhunderts kam durch Treibhausgase’. Woher wissen die Wissenschaftler das? Antwort: Weil die Computermodelle es ihnen verraten: Die Modelle simulieren nur dann eine Erwärmung, wenn sie zunehmende Treibhausgas-Konzentrationen eingefüttert bekommen.

Aber es gibt da ein Problem. Während die Klimamodelle unverdrossen vorhersagen, dass die Temperaturen im 21. Jahrhundert einen unerbittlichen Anstieg durchlaufen werden, sieht die Realität so aus, dass die globale Temperatur sich resolut weigert, diesen Anstieg zu zeigen, obwohl mehr und immer mehr Treibhausgase in die Atmosphäre gepumpt werden.

Das Dilemma des IPCC ist also Folgendes: Wie kann es erwarten, dass die Öffentlichkeit ihm glaubt, dass die jüngste Erwärmung hauptsächlich vom Menschen verursacht ist, wenn die Modelle, auf deren Ergebnissen diese Behauptung beruht, sich als total falsch herausgestellt haben?

In der jüngsten Version des Berichtes scheinen die Wissenschaftler bewundernswert ehrlich hinsichtlich des Stillstandes beim Temperaturanstieg gewesen zu sein und erklären, dass die Gründe hierfür ein Mysterium sind. Schmerzvoll mussten sie dann erfahren, dass Begutachter der Regierung ihnen den Text zurück vor die Füße geworfen haben, zusammen mit der Forderung, das Geschehen doch gefälligst zu erklären. Regierungen müssen sich nämlich in der Lage sehen, skeptische Argumente abzuwehren.

Es wird keine leichte Aufgabe sein. Wie auch immer das IPCC dieses Problem angeht, die Rückwirkungen sind unbequem. Sie könnten auf verschiedene Weise versuchen, den Stillstand hinweg zu erklären: Einmal mit der in Mode gekommenen Erklärung, dass die Wärme, die eigentlich in der Atmosphäre sein sollte, unbemerkt in den Ozeanen verschwunden ist. Beweise hierfür sind allerdings im besten Falle ungenügend, und wenn man auf diesem Weg weitergeht, muss das IPCC zugeben, dass es noch sehr vieles im Klimasystem gibt, das man noch nicht verstanden hat. Das wird sehr schwer zu vermitteln sein, wenn man gleichzeitig behauptet, dass sie sicher sind, dass die Menschheit den größten Teil der jüngsten Erwärmung verursacht hat.

Eine alternative Erklärung hat sogar noch unbequemere Konsequenzen für die Klima-‚Maschine’. Wenn der Globus sich nur deswegen nicht erwärmt hat, weil der Einfluss des Kohlendioxids auf das Klima schwächer ist als ursprünglich angenommen (dafür gibt es zufälligerweise reichlich Beweise), dann schmilzt die Notwendigkeit dramatischer politischer Reaktionen sowie für alle Zuwendungen, Subventionen und Einspeisetarife einfach dahin.

Aus Kreisen des IPCC verlautet, das seine neue Generation Klimawissenschaftler versucht, die Klimastory zu erzählen, samt allen Auswüchsen. Aber es heißt von dort auch, dass man bzgl. der alten Garde an einem Punkt der Verzweiflung angekommen sei, will doch diese um jeden Preis verhindern, den Skeptikern Munition zu verschaffen.

Wer wird gewinnen? Und welchen Schaden nimmt das IPCC bei welchen seinen Entscheidungen auch immer? Während der nächsten Tage werden wir darüber erste Aufschlüsse bekommen.

68 comments

Link: http://blogs.spectator.co.uk/coffeehouse/2013/09/climatologys-great-dilemma/

Übersetzt von Chris Frey EIKE




Tschechische Republik gibt Erneuerbare Energie auf: EU-Klimapolitik in der Krise

Dies folgte der polnischen Erklärung, dass es seine reichlichen heimischen Kohlevorräte zur Stromerzeugung nutzen und nicht in teure erneuerbare Energieprojekte investieren werde. Spanien hat seine Subventionen für Photovoltaik im Juli gestrichen, und die für den Energiemarkt zuständige Behörde in UK hat im vorigen Monat alle Subventionen für Sonnenstrom bis zum Ende dieses Jahres eingefroren.

Der tschechische Senat stimmte mit überwältigender Mehrheit einem Gesetz zu, alle Subventionen für neue Photovoltaik-Kraftwerke zu eliminieren und gleichzeitig die Unterstützung für andere Arten der Energieerzeugung mit Erneuerbaren abzuwickeln. Das Gesetz wurde bereits vom Unterhaus des Parlaments genehmigt und harrt nur noch der Unterschrift von Präsident Milos Zeman, um in Kraft zu treten.

Manufakturen und Industrie sind ökonomische Schlüsselbereiche in Mitteleuropa, und die tschechische Entscheidung markiert die Entfernung der Region vom europäischen Mainstream, der noch immer erneuerbare Energie unterstützt.

Die Opposition gegen weitere Subventionen ist ein wesentliches Hindernis für die EU-Gesetzgeber, die in diesem Monat Verhandlungen über die Klimaänderung im Block bis zum Jahr 2030 aufgenommen haben. Man hofft, bis Ende Dezember ein verbindliches Abkommen zur Reduktion von Kohlenstoff-Emissionen zu erreichen.

Die Tschechische Republik erlebte eine Flutwelle erneuerbarer Energieerzeugung während der letzten vier Jahre, und zwar dank umfangreicher Geldzahlungen an Investoren auf diesem Gebiet. Seitdem hat die Empörung in der Öffentlichkeit über rasch steigende Strompreise die Politiker gezwungen, die Bremse an die Subventionen anzulegen. Die Zahlungen waren eine Belastung für die Wirtschaft und haben Unsicherheit auf den Energiemärkten erzeugt und Unternehmen gehindert zu investieren.

„Um die internationale Wettbewerbsfähigkeit unseres Landes zu erhalten, mussten wir etwas tun”, sagte die Vizevorsitzende des Senats Alena Gajduskova nach der Abstimmung.

Das Gesetz dirigiert auch die Unterstützung des Staates und der Steuerzahler auf eine zentralisierte Energieerzeugung, was in direktem Gegensatz zu den Zielen der EU steht.

„Die dezentrale Erzeugung erneuerbarer Energie ist ein Eckpfeiler der zukünftigen Energiepolitik“, sagte das Industriekomitee des EU-Parlaments von ein paar Tagen in einem Statement.

Die Europäische Kommission, der Exekutiv-Arm der EU, gibt sich hinsichtlich dieser Lage sehr wortkarg.

Marlene Holzner, Sprecherin von Energiekommissar Günther Oettinger, sagte, dass „die Kommission glaubt, dass Reformen gebraucht werden, um die Sache der Erneuerbaren zu unterstützen“, und dass die EU die Lage sorgfältig überwacht.

Allerdings verstummte Frau Holzner, als es an die Kommentierung der tschechischen Streichung aller Subventionen ging und sagte, dass die Kommission nationale Programme nicht eingehend überprüfen wird.

Das tschechische Gesetz sah sich augenblicklich wilder Opposition von Umweltgruppen und Lobbyisten ausgesetzt, die Investoren auf dem Gebiet der Photovoltaik repräsentieren. Sie drohten mit einer Klage gegen den tschechischen Staat unter dem Vorwurf, dieser habe Investitionen nicht geschützt. Senatoren reagieren gelassen auf solche Statements.

„Der Staat ist sehr gut auf jede potentielle Klage vorbereitet”, sagte Senator Petr Bratsky vor der Abstimmung. Das legislative und konstitutionelle Komitee des Senats hat dem Gesetz seine Genehmigung erteilt und angeordnet, es in Kraft zu setzen.

Die Gesetzgebung bevorzugt große Energieerzeuger wie das zu 70% in Staatsbesitz befindliche CEZ AS, die hauptsächlich Energie in großen, zentralen Kraftwerken mit Kohle erzeugt.

„Wir begrüßen dieses Gesetz definitiv, es ist ein Schritt in die richtige Richtung, um allmählich die Unterstützungs-Spirale für Erneuerbare zu begrenzen, die den gesamten Markt verzerrt hat“, sagte der CEZ-Sprecher Ladislav Kriz unmittelbar nach der Abstimmung.

Vor einigen Tagen hat der polnische Premierminister Donald Tusk seine Unterstützung für Kohle als künftige Schlüssel-Energiequelle für sein Land bekundet, was die Region weiter in Gegensatz zu Brüssel setzt.

„Energieunabhängigkeit … erfordert nicht nur die Diversifizierung von Energiequellen, sondern vor allem auch die Ausbeutung heimischer Ressourcen bis zum Anschlag“, sagte Mr. Tusk und fügte hinzu, dass „erneuerbare Energiequellen … so stark begrenzt werden wie nur möglich“.

Um ihre von Kohle abhängige Energiegewinnung zu schützen, haben Polen und Tschechien sich gegen EU-Bemühungen ausgesprochen, Verschmutzungsgrenzen weiter zu erniedrigen. Sie haben nach Ausnahmen von manchen Begrenzungen der Kohlendioxid-Emissionen getrachtet und diese auch bekommen.

Link: http://stream.wsj.com/story/latest-headlines/SS-2-63399/SS-2-326504/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: RWE muss 3000 Stellen in der Kraftwerkssparte abbauen

Düsseldorf – Bei RWE werden erste Details des umfangreichen Sparprogramms bekannt. Der Energiekonzern will offenbar rund 3000 Stellen in seiner Kraftwerkssparte abbauen. Mit den Einschnitten reagiere das Unternehmen auf den drastischen Preisverfall an den Strombörsen, berichteten das "Handelsblatt" und die "Westdeutsche Allgemeine Zeitung" ("WAZ") übereinstimmend. RWE wollte die Berichte auf Anfrage von dpa nicht kommentieren.

Weiterlesen bei SPON




Neuer IPCC-Bericht: Treibhausgase waren für 140% der Erwärmung seit 1951 verantwortlich

Bild 1: Der Datensatz HADCRU4 der globalen Mitteltemperatur zeigt zwischen 1951 und 2010 eine Erwärmung um 0,64°C mit einer linearen Steigung von 0,0107°C pro Jahr.

Der neue Bericht „macht für die beobachtete Verlangsamung der Erwärmung von 1998 bis 2012 – ein Phänomen, das von Skeptikern als Beweis angeführt wird, dass die Erwärmung nicht vom Menschen verursacht ist – einen vorübergehenden Abkühlungszyklus im Wettersystem und eine geringer als erwartete Sonnenaktivität verantwortlich“. Allerdings zeigen Satellitendaten, dass das, was das IPCC als „beobachtete Verlangsamung der Erwärmung“ nennt, in Wirklichkeit eine Abkühlung war. (Vielleicht sollte das IPCC den Terminus „negative Erwärmung“ übernehmen?).

Bild 2: Satellitendaten zeigen globale Abkühlung von 1998 bis 2012 mit einer Steigung von –0,0044°C pro Jahr.

Wachsende Sicherheiten zur globalen Erwärmung und die Rolle der Menschen
AFP, 21. September 2013

Während der vergangenen 23 Jahre haben die UN-Wissenschaftler immer sicherer werdende Erklärungen zur Klimaänderung veröffentlicht.

Anfangs war lediglich von einer oberflächlichen Warnung die Rede, dass Wärme zurückhaltende Kohlenstoffemissionen aus der Verbrennung fossiler Treibstoffe einen „Treibhauseffekt“ auslösen könne. Heute wird die Überzeugung geäußert, dass dieser Effekt inzwischen einen Einfluss auf das Klima der Erde ausübt.

Hier folgen Auszüge aus den IPCC-Zustandsberichten, der jüngste davon aus dem letzten Bericht.

Erster Zustandsbericht (1990):

„…Emissionen durch menschliche Aktivitäten lassen die atmosphärischen Konzentrationen von Treibhausgasen allmählich zunehmen… Diese Zunahme wird den Treibhauseffekt verstärken, was sich im Mittel in einer zusätzlichen Erwärmung der Erde bemerkbar macht“.

Zweiter Zustandsbericht (1995):

„Die meisten dieser Studien haben eine signifikante Änderung gefunden und zeigen, dass es unwahrscheinlich ist, dass der beobachtete Erwärmungstrend ausschließlich natürlichen Ursprungs ist… Die Vielfalt der Beweise zeigt, dass es einen wahrnehmbaren menschlichen Einfluss auf das globale Klima gibt. … Die mittlere Erwärmungsrate (in Projektionen für das 21. Jahrhundert) würde vermutlich größer sein als jemals während der letzten 10000 Jahre, aber die aktuellen und dekadischen Änderungen würden eine merkliche natürliche Variabilität einschließen“.

Dritter Zustandsbericht (2001):

„Es gibt neue und stärkere Beweise, dass der größte Teil der beobachteten Erwärmung während der letzten 50 Jahre auf menschliche Aktivitäten zurückzuführen ist … die projizierte Erwärmungsrate ist viel größer als die beobachteten Änderungen während des 20. Jahrhunderts und sehr wahrscheinlich ohne Beispiel zumindest während der letzten 10000 Jahre, basierend auf paläoklimatischen Daten“.

Weiter heißt es in dem Bericht, dass die Temperatur zwischen 1901 und 2000 um 0,6°C gestiegen ist. Menschliche Aktivitäten waren „wahrscheinlich“ der Grund für die Erwärmung, ein Terminus, der gewöhnlich eine Wahrscheinlichkeit über 66 Prozent ausdrückt.

Vierter Zustandsbericht (2007):

Die Erwärmung des Klimasystems ist eindeutig, wie inzwischen klar aus Beobachtungen der globalen Luft- und Wassertemperaturen hervorgeht sowie aus verbreitetem Schmelzen von Schnee und Eis und steigendem globalen Meeresspiegel. Der größte Teil der beobachteten Zunahme der globalen Mitteltemperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich auf die beobachtete Zunahme anthropogener Treibhausgase zurückzuführen“.

Dem Bericht zufolge hatte die Erwärmung während der 100 Jahre zuvor 0,74°C betragen, und 11 der 12 vorhergehenden Jahre waren die wärmsten jemals.

Menschliche Aktivitäten waren „sehr wahrscheinlich“ der Grund der Erwärmung, was gemeiniglich eine Wahrscheinlichkeit über 90% bedeutet.

Fünfter Zustandsbericht (von AFP eingesehene Version):

In der Nordhemisphäre war der Zeitraum von 1983 bis 2012 sehr wahrscheinlich der wärmste 30-Jahres-Zeitruam der letzten 800 Jahre und wahrscheinlich die wärmste Periode der letzten 1400 Jahre.

„…Treibhausgase haben im Zeitraum 1951 bis 2010 wahrscheinlich zu einer globalen Erwärmung zwischen 0,5°C und 1,3°C beigetragen“.

„…Es ist sehr sicher [there is high confidence], dass dies zur Erwärmung der Ozeane geführt, Schnee und Eis geschmolzen hat, den globalen Meeresspiegel hat steigen lassen und zur Änderung einiger Klimaextreme in der zweiten Hälfte des 20. Jahrhunderts geführt hat“.

Menschliche Aktivitäten waren „äußerst wahrscheinlich“ der Grund dieser Erwärmung, was eine Wahrscheinlichkeit zwischen 95 und 100 Prozent bedeutet.

In der Version wird die beobachtete Verlangsamung der Erwärmung von 1998 bis 2012 – ein Phänomen, das von Skeptikern als Beweis für die nicht-anthropogene Ursache der Erwärmung angeführt wird – auf einen vorübergehenden Abkühlungszyklus im Wettergeschehen und auf eine geringer als erwartet auftretende Sonnenaktivität zurückzuführen ist.

Die Temperatur ist seit dem Jahr 1901 um 0,89°C gestiegen, heißt es darin.

Vier Projektionen zufolge, die auf der Menge des emittierten Kohlenstoffes basieren, wird die zusätzliche Erwärmung in diesem Jahrhundert abgeschätzt mit einem Bereich zwischen 1,0°C bis 3,7°C und einem Meeresspiegelanstieg von 40 bis 62 cm.

Wie in den vorherigen Berichten auch sind diese Schätzungen Mittelwerte. Jede Projektion zeigt eine große Bandbreite auf beiden Seiten des Graphen.

[Die Kommentare zu diesem Beitrag sind m. E. genauso beachtenswert. Daher füge ich deren Übersetzung hier an:]

Anonymus:

Einen Moment! Im 3. Zustandsbericht (gemeiniglich TAR genannt) heißt es, dass die Temperatur im Zeitraum 1901 bis 2000 um 0,6°C gestiegen ist.

Jetzt im 5. Zustandsbericht heißt es, dass die globale Mitteltemperatur (vermutlich bis 2012) um 0,89°C gestiegen ist.

Folglich hat die globale Mitteltemperatur der letzten 12 Jahre seit 2012 um 0,29°C zugenommen? Ich dachte, es hätte einen Stillstand gegeben?

Eco-Geek

„…ein vorübergehender Abkühlungszyklus im Wettergeschehen und einer geringer als erwartet auftretenden Sonnenaktivität”.

Moment, so wie ich das IPCC verstanden habe, wird die globale Temperatur hauptsächlich durch Treibhausgase und der Gesamt-Solarstrahlung bestimmt? Führt das nicht zu einer ganz neuen Wissenschaft? Ich meine, sie sagen jetzt zum Beispiel, dass geringere (das „als erwartet“ kann man ignorieren) Sonnenaktivität die globalen Temperaturen beeinflusst, oder?

Ich vermute, dass sie damit einräumen, dass alle Berichte zuvor signifikant fehlerhaft waren, weil man die Sonnenaktivität nicht beachtet hatte.

Na schön! Das IPCC veröffentlicht neue Zahlen, die auf neuen Modellen basieren, in denen die Sonnenaktivität enthalten ist.

Was? Das haben sie gar nicht getan? Sie behaupten, dass die Sonnenaktivität die Temperaturen signifikant beeinflusst, ohne sich damit befasst zu haben, in welchem Ausmaß?

In diesem Falle müssen wir alle „Maßnahmen zur Reduktion des globalen Kohlenstoff-Ausstoßes“ aufgeben, bis man etwas über Klimaänderung erfahren hat.

Link: http://hockeyschtick.blogspot.de/2013/09/new-ipcc-report-claims-greenhouse-gases.html

Übersetzt von Chris Frey EIKE