1

Fukushima-„Atomreaktor wieder angesprungen“! Stimmt das?

Grundsätzlich enthält ein Siedewasserreaktor eine Kernbrennstoffmischung bestehend aus ca. 97% Neutronen absorbierendem und nur für sehr wenige sehr schnelle Neutronen spaltbarem Uran 238 und etwa 3% spaltbarem Uran 235, bzw.  Plutonium. Eine Kernspaltung generiert etwa 2 – 3 Neutronen. Um eine Kettenreaktion hervorzurufen, bedient sich die Kerntechnik eines Moderators. Die bei einer Kernspaltung generierten Neutronen werden durch Wasser zu thermischen Neutronen abgebremst. Für die abgebremsten thermischen Neutronen ist der Spaltquerschnitt des Uran 235 und des  Plutoniums 239 ein viel grösserer als der Neutroneneinfangquerschnitt des Urans 238. In der Konsequenz bedeutet dies dass erst eine genau definierte räumliche Anordnung von Uranstäben und Wasser eine Kettenreaktion möglich macht. Ein lavaförmig zusammengeschmolzener Reaktorkern wird nicht wieder kritisch.

Für die Gedanken der Öko-Atomexperten spricht, dass bei einer Kernschmelze die Steuer und Absorberstäbe, gefertigt aus einer Cadmium-Indium-Silber Legierung und deren Hüllrohre, aus einer Zirkonlegierung, bei einer beginnenden Kernschmelze, vor dem Aufschmelzen der Brennstäbe, schmelzen, bzw. versagen, auch wenn der Reaktorkern ansonsten weitgehend intakt bleibt. Deshalb hatten die Reaktormannschaften Mitte März, als man die Kernschmelzen durch ein Fluten der Reaktoren mit Meerwasser beendete, zur Vorsicht diesem neutronenabsorbierende Borsäure beigemischt. In der Zwischenzeit sind neutronenabsorbierende Spaltprodukte entwichen, andere sind radioaktiv zerfallen. Man hat die Reaktoren bei niedrigen Temperaturen (alles Kritikalitäts erhöhend) stabilisiert. Allerdings ist der Reaktorkern mindestens teilweise geschmolzen (3) und wurde mehrfach mit Borsäure versetztem Wasser gespeist. Somit ist diese Option sehr unwahrscheinlich.

Durch den Neutroneneinfang des Urans 238 bildet sich zunächst Plutonium 239, aus diesem wiederum höhere Transurane. Einige dieser Isotope wie Curium 242, Curium 244 und Plutonium 240 sind derart instabil, dass sie sich spontan spalten. Bei einer Kritikalität von 0,9 hat jede Spontanspaltung 7,5 Folgespaltungen zur Folge. Dies ist hinreichend, um messbare Spuren von Spaltprodukten zu generieren und die wahrscheinlichste Ursache der kurzlebigen Spaltproduktspuren im Reaktor.  

Während des Fukushima Ereignisses wurden Naturwissenschaftler und Kerntechniker von den deutschen Qualitäts-Medien völlig ignoriert. „Atomexperten“ erhielten umso mehr Aufmerksamkeit je phantasievoller ihre Aussagen waren. Dies bedeutet dass Kerntechnikkenntnisse für „Atomexperten“ berufsschädigend sind und auch, dass man die Realität bewusst nicht mehr wahrnehmen möchte. Einen interessanten Bericht zum Thema Fukushima findet man unter www.ke-research.de/downloads/FukushimaDesaster.pdf

Autor: Horst Trummer

Trummer ist Dipl. Ing Machinenbau.

1.     http://www.bild.de/news/2011/news/stromversorgung-druck-anstieg-16936016.bild.html

2.     http://www.ftd.de/politik/international/:warnung-vor-nuklearer-explosion-in-fukushima/60125494.html

3.     http://fukushima.grs.de/sites/default/files/Status_KKW_Fukushima_Daiichi_02_11_2011_1400.pdf




Forscher empfehlen in Nature, die globalen Kohlenstoff-Modelle zu überarbeiten!

Lisa Welp vom Scripps Institution of Oceanography an der University of California in San Diego und ihre Kollegen hatten für die Studie Daten zu den Isotopenverhältnissen im Treibhausgas CO2 der letzten 30 Jahre rund um den Globus ausgewertet. Dabei zeigten sich regelmäßige Schwankungen zwischen den Jahren und ein Zusammenhang mit dem El-Niño-Phänomen im Pazifik. El-Niño-Jahre sind insgesamt wärmer und niederschlagsreicher in Südamerika sowie haben einen schwächeren Monsun in Südostasien. Die Forscher beobachteten eine raschere Erholung der Isotopenverhältnisse nach El-Niño-Ereignissen als angenommen, was auf eine kürzere Umsatzzeit von CO2 in der terrestrischen Biosphäre hindeutet. Aus diesen Daten errechnen die Autoren die so genannte globale Brutto-Primärproduktion (Global Primary Productivity, GPP). Sie schlagen nun vor, diese in den globalen Modellen von 120 auf 150 bis 175 Milliarden Tonnen Kohlenstoff pro Jahr nach oben zu korrigieren.

Seit 1977 werden Isotopenverhältnisse im Kohlendioxid der Atmosphäre (18O/16O und 13C/12C) gemessen, um den globalen Kohlenstoffkreislauf besser zu verstehen, denn die Austauchprozesse zwischen Biosphäre, Atmosphäre und Ozean spiegeln sich in diesen Werten wieder. "Wir nehmen an, dass die Umverteilung von Feuchtigkeit und Regen in den Tropen während El Niño das 18O/16O-Verhältnis von Niederschlag und Pflanzen-Wasser erhöht und dass dieses Signal dann an das atmosphärische Kohlendioxid weitergegeben wird", erklärt Lisa Welp den neuen Ansatz der Forscher.

"Unsere Atmosphäre ist der perfekte Mixer. Veränderungen der Konzentrationen an Spurengasen wie Kohlendioxid spiegeln die Gesamtabgabe und -aufnahme der Spurengase aus allen Bereichen wider. Wenn man also beispielsweise den Kohlenstoffaustausch eines Waldes misst, dann erhält man "nur" den Nettoaustausch allen Kohlenstoffs, der von den Bäumen durch Photosynthese aufgenommen und von Bäumen und Boden wieder abgegeben wird", schreibt Dr. Matthias Cuntz vom Helmholtz-Zentrum für Umweltforschung (UFZ) in der selben NATURE-Ausgabe in seinem Kommentar. Die Bruttoflüsse wie die Photosynthese sind dagegen nur sehr schwer zugänglich. "Globale Schätzungen hängen daher von einer Reihe von Annahmen ab. Dazu gehört zum Beispiel wie viele CO2-Moleküle, die jemals auf eine Pflanze treffen, dann von dieser per Photosynthese gebunden werden. Die Forscher um Lisa Welp nehmen an, dass etwa 43 Prozent aller CO2-Moleküle, die auf eine Pflanze treffen, von dieser aufgenommen werden. Sind es nur 34 Prozent, dann würde die Schätzung auf 120 Milliarden Tonnen Kohlenstoff sinken – also dem bisher allgemein akzeptierten Wert", gibt Matthias Cuntz zu bedenken. Aus seiner Sicht werfen die neuen Erkenntnisse nicht alles Bestehende über den Haufen, aber sie demonstrieren ein interessantes neues Verfahren, die Produktivität der Pflanzen auf großen Flächen zu bestimmen. In Zukunft stellt die Kombination mehrerer Isotopenmethoden mit konventionellen Messungen einen vielversprechenden Ansatz dar.

Die jetzt veröffentlichte Studie entstand unter der Regie von Ralph F. Keeling. Der Professor für Ozeanographie ist der Sohn von Charles David Keeling, nach dem die so genannte Keeling-Kurve benannt wurde. Diese Grafik zeigt die Konzentration von CO2 auf dem Vulkan Mauna Loa auf Hawaii seit dem Jahr 1957. In den 1950er Jahren lag der CO2-Anteil in der Erdatmosphäre noch bei etwa 315 ppm. 2011 ist er dagegen bereits auf 390 ppm gestiegen. Keeling konnte mit seinen Messungen erstmals zeigen, dass die Konzentration des Treibhausgases durch Änderung der Landnutzung und der Verbrennung fossiler Brennstoffe ansteigt. Die neueste Studie unterstreicht aus Sicht der Wissenschaftler die Bedeutung von Langzeitmessungen des 18O-Isotops im Kohlendioxid der Atmosphäre, da dieses eine Schlüsselposition zwischen Kohlen- und Wasserstoffkreislauf einnimmt.

Mit seiner Expertise trägt das UFZ dazu bei, die Folgen des Klimawandels zu erforschen und Anpassungsstrategien zu entwickeln. So ist das UFZ beispielsweise für die wissenschaftliche Begleitung, Koordination und Synthese (GLUES) im Modul A des BMBF-Förderschwerpunktes "Nachhaltiges Landmanagement" zuständig, das auf der UN-Klimakonferenz Ende November in Durban vorgestellt wird. Über den Stand der Verhandlungen wird aus Durban der Klimaökonom Prof. Reimund Schwarze für das UFZ und CSC berichten (Link extern).
Pressemiteilung des Helmhotzzentrums

Contact: Tilo Arnhold
presse@ufz.de
49-341-235-1635
Helmholtz Association of German Research Centres 

Publikation

Lisa R. Welp, Ralph F. Keeling, Harro A. J. Meijer, Alane F. Bollenbacher, Stephen C. Piper, KeiYoshimura, Roger J. Francey, Colin E. Allison & Martin Wahlen (2011): 
Interannual variability in the oxygen isotopes of atmospheric CO2 driven by El Niño. 
29 September 2011, Vol. 477, Nature 579, 579-582. doi:10.1038/nature10421

Matthias Cuntz (2011): A dent in carbon´s gold standard. 
29 September 2011, Vol. 477, Nature 579, 547-548.

Weitere Informationen

Dr. Matthias Cuntz (N&V-Author) 
Helmholtz-Zentrum für Umweltforschung (UFZ), Leipzig, Deutschland 
Tel: +49 341 235 1071 
Dr. Matthias Cuntz (CV) 
Dr. Matthias Cuntz (UFZ)

Lisa Welp (Erstautorin der Studie) 
University of California, San Diego, La Jolla, CA, USA 
Tel: +1 858 822 1642 
Lisa Welp

oder

Tilo Arnhold 
Helmholtz-Zentrum für Umweltforschung (UFZ) 
Presse- und Öffentlichkeitsarbeit 
Tel.: +49 341 235-1635 
tilo.arnhold@ufz.de

Weiterführende Links:

CO2- und Isotopen-Messprogramm des Scripps Institution of Oceanography, USA: 
scrippsco2.ucsd.edu/data/atmospheric_co2.html

Atmosphären-Messprogramm der National Oceanic & Atmospheric Administration, USA: 
www.esrl.noaa.gov/gmd

Cape Grim Baseline Air Pollution Station, Tasmanien, Australien: 
www.csiro.au/places/Cape-Grim.html

El Niño – Südliche Oszillation (ENSO): 
de.wikipedia.org/wiki/El_Ni%C3%B1o




Neue Satellitendaten widersprechen der Kohlendioxid-Klima-Theorie

Der japanische Nationalsender NHK World brachte diese erstaunliche Geschichte in den Hauptnachrichten am Sonntag Abend (30. Oktober 2011). Die Fernsehzuschauer erfuhren, dass der im Juni 2009 ins All geschossene bahnbrechende IBUKU-Satellit des Landes offenbar eine unauflösliche Lücke in der konventionellen Theorie zur globalen Erwärmung entdeckt hat.

Vor einem Bündel aussagekräftiger bunter Graphen stehend sagte der unbescholtene Direktor des japanischen National Institute for Environmental Studies, Yasuhiro Sasano: „Die Karte (des IBUKU-Satelliten) dient dazu, uns zu helfen zu bestimmen, welche Regionen wie viele CO2-Emissionen reduzieren müssen.“

Industrialisierte Nationen sind die geringsten CO2-‚Verschmutzer’

Und tatsächlich, die Karte, auf die JAXA-Sprecher Sasano zeigte (siehe Foto rechts), sollte den Erwartungen der Experten zufolge zeigen, dass die westlichen Nationen für die substantielle Zunahme von CO2-Emissionen verantwortlich sind, die zur globalen Erwärmung führen. Aber für einen aufmerksam lauschenden Interviewer des Fernsehens stellte Sasano die Treibhausgastheorie auf den Kopf.

Der UN-Wissenschaft zufolge wird mehr in die Atmosphäre gelangendes CO2 den Planeten erwärmen, während weniger CO2 mit Abkühlung in Verbindung gebracht wird.

Unter Hinweis auf eine unübersehbare grüne Zone, die sich über die USA und Europa erstreckt, wurde den Zuschauern gesagt: „in den hohen Breiten der Nordhemisphäre lagen die Emissionen unter dem Absorptionsniveau“.

Sasano erklärte weiter das Farbschema der ikonischen Karten und zeigte die jeweiligen Regionen, die das atmosphärische Spurengas emittieren oder absorbieren. Die jeweiligen Regionen wurden rot (für hohe CO2-Emission), weiß (niedrige oder neutrale CO2-Emissionen) und grün (keine Emissionen: CO2-Absorbierer) eingefärbt.

Bizarrerweise zeigen die IBUKU-Karten genau das Gegenteil der konventionellen Erwartungen und enthüllen, dass die am wenigsten industrialisierten Nationen die größten Emittenten von Treibhausgasen auf dem Planeten sind.

Ja, Sie lesen das richtig: die USA und Westeuropa sind Gebiete, wo das CO2-Niveau am niedrigsten liegt. Dieser neue Beweis fordert den Konsens heraus, der von den Mainstream Medien propagiert wird, wie z. B. der New York Times [und der „Süddeutschen Zeitung“, A. d. Übers.]

Das IPCC hat lange behauptet, dass es „einen Konsens unter den Wissenschaftlern gibt, dass menschliche Emissionen von Treibhausgasen, namentlich CO2, dem Klima des Planeten schaden“.

Der japanische Satellit zeigt die blattgrün gefärbten Gebiete (Absorbierer von CO2) vorherrschend in den entwickelten Nationen Europas und Nordamerikas. Daraus folgt, dass hier Bedingungen geschaffen worden sind, mehr CO2 zu absorbieren als in die Atmosphäre gelangen zu lassen.

Im Gegensatz dazu liegt die Hauptmasse der rot gefärbten Gebiete (sog. ‚Kohlenstoff-Verschmutzer’) in unterentwickelten, dicht bewaldeten Äquatorregionen von Afrika und Südamerika.

Starke Kopfschmerzen für die Macher der Klimapolitik

JAXA rühmt sich, dass „wir den Fehler der geschätzten Werte reduzieren können, wenn wir die Beobachtungsdaten von IBUKU einführen und diese mit den Werten vergleichen, die auf konventionelle Art und Weise aufgrund von Bodenbeobachtungen berechnet worden sind“.

Für alle politischen Entscheidungsträger, welche die japanischen Karten studieren, ist offensichtlich, dass die Gebiete mit den höchsten CO2-Emissionen die Regionen mit der geringsten menschlichen Besiedlung und zumeist von natürlicher Vegetation bedeckt sind: die äquatornahen Dritte-Welt-Länder.

Die Beweise aus Japan widerlegen die oft zitierte Hypothese, dass Sibirien und andere Gebiete des nördlichen Russlands große CO2-Emissionsgebiete sind, die die Angst vor der globalen Erwärmung steigern.

Tatsächlich sieht es so aus, als ob die überzeugenden neuen Daten zeigen, dass die asphaltierten und betonierten Industrienationen das Kohlendioxid schneller ‚aufwischen’ als ihre Fabriken und Verbraucher emittieren können. Wenn sich dies bestätigt, bedeutet es, dass ein wichtiger Eckstein der [Hypothese von der] anthropogenen globalen Erwärmung ernsthaft ins Wanken gerät.

Können die westlichen Nationen noch mit Kohlenstoffsteuern vorangehen?

Aber jetzt, wo diese sog. „globalen Erwärmungsgase“ über den ganzen Planeten präzise vermessen worden sind, geraten die internationalen politischen Entscheidungsträger in das Dilemma, welche weiteren Ziele man zur Verminderung der CO2-Emissionen setzen soll.

Die führenden Politiker der Welt bereiten sich auf die UN-Klimagespräche in Durban vor, bei denen ein Nachfolger für das demnächst auslaufende Kyoto-Protokoll gefunden werden soll, dass den Nationen verbindlich die Menge der CO2-Emissionen vorschreibt.

Das Dilemma besteht darin, ob die etablierte Politik der UN bzgl. der globalen Erwärmung unter der Prämisse ‚die Verschmutzer zahlen’ weiter aufrecht erhalten werden kann. Das konventionelle Denken bei früheren Klimakonferenzen der UN hatte darin bestanden, Kohlenstoffemissionen zu ‚berechnen’, indem die stärksten Verschmutzer auch am meisten ‚Kohlenstoffsteuern’ zahlen. Aber jetzt erscheint diese Theorie in einem ganz neuen Licht, wenn die westlichen Nationen, von denen man bisher angenommen hatte, dass sie die schlimmsten Verschmutzer sind, in Wirklichkeit entweder vernachlässigbare oder gar keine Mengen CO2 emittieren.

Tatsächlich deuten die IBUKU-Daten darauf hin, dass die Gebiete mit den höchsten CO2-Emissionen genau jenen Gebieten entsprechen, die am meisten bewaldet und am wenigsten industrialisiert sind und daher viel weniger in der Lage sind, überhaupt etwas zu zahlen.

Also könnte das Undenkbare Wirklichkeit werden: Die Treibhausgastheorie bzgl. der Klimaänderung könnte in sich zusammen fallen angesichts empirischer Beweise, dass die Industrialisierung keinen Bezug zur globalen Erwärmung hat.

Für weitere Informationen sind die IBUKU-Daten in den Scientific Online Letters on the Atmosphere (an online thesis magazine) veröffentlicht, die von der Meteorological Society of Japan herausgegeben wird.

Autor John O’Sullivan von Climate Realist 

Update 13.11.11

Einige Leser verwunderten sich, dass vom IBUKU Satelliten offensichtlich mehrere Kartendarstellungen der Emissionshöhe veröffentlicht wurden. Autor John O´Sullivan wurde von einem Leser Robby sofort darauf angesprochen. John O´Sullivan´s Erläuterung dazu:

Robby,
Das Bild zu meinem Artikel war das wichtigste Bild des Interviewten, Yasuhiro Sasano, der sich auf vier solcher Karten, die von der NHK World TV ausgestrahlt wurden gezeigt bezog. Ich fotografierte die obige Karte von meinem TV-Bildschirm.
Ich schaute dann auf den von Ihnen genannten Link (http://laaska.wordpress.com/2011/10/30/japanco2-density-map-created-using-satellite-data/), und es scheint, dass drei Karten jetzt noch fehlen, und die Farben vertauscht wurden. Vielleicht würde eine Übersetzung der Überschrift über der Grafik aus dem Japanischen, etwas Licht in diese Angelegenheit bringen. Ich hasse zu sagen, dass JAXA befohlen wurde die spezielle Karte, die mein Artikel zeigt zu „verlieren“  , aber niemand weiß es, bei der mit soviel Propaganda durchdrungenen Klimaberichterstattung
Regards,
John

Es empfiehlt sich die weiteren z.T. sehr sachkundigen Kommentare der Originalwebsite zu lesen.

Übersetzt von Chris Frey für EIKE




Mit Annäherung des Klimagipfels von Durban droht China mit massiver Freisetzung von Treibhausgasen, um Milliarden zu erpressen

Chinas Drohung erfolgte, nachdem sich die Europäische Union und andere Staaten darum bemüht hatten, die HFC-23-Zertifikate von den internationalen Kohlenstoffmärkten zu nehmen, und zwar wegen der perversen Anreize, die durch diese Zertifikate unter dem UN Clean Development Mechanism (CDM) geschaffen worden sind. Die riesigen Summen, die für HFC-23-Zertifikate gezahlt worden sind, haben dazu geführt, dass in China und auch anderswo viel mehr HCFC-22 und das Nebenprodukt HFC-23 produziert worden ist als notwendig, nur um die gezahlten Summen durch den von den UN gedeckten Zertifikatehandel mit Kohlenstoff zu maximieren.

Mit einem schockierenden Versuch, die internationale Gemeinschaft zu erpressen, drohte Xie Fei, Finanzdirektorin beim chinesischen Clean Development Mechanism Fund: „falls es keinen Handel mit (HFC-23)-Zertifikaten gibt, werden sie die Gase nicht mehr verbrennen, sondern sie direkt in die Atmosphäre ablassen“. In einer Rede vor dem Carbon Forum Asia in Singapur in der vorigen Woche behauptete Xie Fei, sie spreche für „fast alle großen chinesischen Hersteller von HFC, die die ‚Kosten nicht tragen können’ und befürchteten, ‚die Wettbewerbsfähigkeit zu verlieren’“.

Chinas Behauptung straft die Tatsache, dass HFC-23 für nur 0,20 Cent pro Tonne CO2 zerstört werden kann, Lügen. Die Vernichtung einer Tonne CO2 erzeugt eine zertifizierte Emissionsreduktion (CER) bei der CDM, die normalerweise auf den Kohlenstoffmärkten zu einem mittleren Preis von $18 verkauft werden – 70 mal so viel wie die Kosten, HFC-23 zu vernichten.

Wegen dieser ungeheuren Profite hat China wiederholt Versuche zurückgewiesen, HFC-23-Emissionen im Zuge des Montreal-Protokolls zu stoppen. Bei den Treffen zum Montreal-Protokoll 2009 und 2010 hat China nordamerikanische Vorschläge blockiert, die tatsächlichen Kosten der Vernichtung von HFC-23-Emissionen von nicht der CDM angeschlossenen Kraftwerken zu zahlen, was mehr als die Hälfte der HFC-23-Produktion des Entwicklungslandes entspricht.

HFC-23 entsteht als unbeabsichtigtes Nebenprodukt des Kühlmittels HCFC-22, selbst ein mächtiges Treibhausgas und eine Ozon zerstörende Substanz. Dies bedeutet, dass die Menge des produzierten HFC-23 direkt von der Produktion von HCFC-22 abhängt. HFC-23 trägt bedeutend zum Klimawandel bei, und zwar wegen seines unglaublich hohen Potentials einer 100-jährigen Erwärmung (GWP) von 14800. [?] 

 „Der Versuch, Länder dazu zu drängen, Milliarden von falschen Stoffen zu verschwenden, die die Produktion von Treibhausgasen zunehmen lassen, ist Erpressung“, sagte Samuel LaBudde, führender Atmosphärenaktivist bei der Environmental Investigation Agency (EIA). „China ist hier nicht das Opfer, und eine Weltordnung, die auf die Klimaänderung reagieren soll, kann nicht auf skrupelloser Geldgier gegründet sein“.

Mit einer Steuer von 65% auf CDM-Projekte hat die chinesische Regierung schon jetzt 1,3 Milliarden Dollar erhalten – genug Geld, um das gesamte HFC-23 zu zerstören, das noch auf Jahrzehnte hinaus produziert wird. Unabhängig davon lässt China mindestens genauso viel HFC-23, wie es vernichtet, in die Atmosphäre entweichen, da die Hälfte seiner HCFC-22-Produktion nicht vom CDM gefördert wird. Die Aussage von Xie Fei macht klar, dass die Vermeidung von Emissionen nicht annähernd so wichtig für China ist wie weiterhin von den enormen CDM-Zuwendungen zu profitieren, und zwar Industrie und Regierung gleichermaßen.

„Kohlenstoffeinheiten, die aus der Förderung von HFC-23 abgeleitet werden, dienen nur dazu, die Produktion von Treibhausgasen zu subventionieren und haben keinen Platz in der Zukunft von Kohlenstoffmärkten“, sagte Mark Roberts, internationaler politischer Ratgeben für die EIA. „Falls China sich wirklich mehr Sorgen um den Klimawandel macht als von einem schlimmen System voller Fehler zu profitieren, sollte es aufhören, Anstrengungen zur Kontrolle von HFC-23-Emissionen zu blockieren und zu drohen, das globale Klima als Geisel für seine unrealistischen Forderungen zu nehmen.“

In der Woche vor den Klimagesprächen in Durban wird das Montreal-Protokoll erneut den Vorschlag prüfen, nicht unter den CDM fallende HFC-23-Emissionen zu kontrollieren. Zugleich wird das ausführende Organ der CDM einberufen, um Revisionen der HFC-23-Methodik zu diskutieren, und zwar basierend auf Forderungen des CDM-Methodik-Rates, der erkannt hat, dass mindestens zwei Drittel der ausgestellten HFC-23-Zertifikate betrügerischer Natur sind.

„Die minimalen Kosten des Einfangens und Vernichtens von HFC-23 sollten von den Produzenten von HCFC-22 getragen werden, und zwar zu einem Preis, wie er vernünftigem Handel entspricht“, sagte Clare Perry, führende Aktivistin bei der EIA. „HFC-23-Projekte haben den europäischen Steuerzahler unzählige Millionen gekostet. Außerdem hat des die Europäischen Industrien in die Lage versetzt, ihre Emissionen zu steigern, während Chemiefabriken in China subventioniert worden sind, um noch mehr Treibhausgase zu erzeugen. Diese schmutzigen Zertifikate sollten sofort verschwinden.“

China ist damit gescheitert, die Einkommen aus der Windkraft für den Verkauf von HFC-23-Zertifikaten zu nutzen, um den nicht vom CDM abgedeckten HFC-23-Emissionen chinesischer Kraftwerke zu begegnen. Nahezu jeder Hersteller von HCFC-22 in der Welt außerhalb von China fängt und vernichtet das HFC-23 freiwillig als routinemäßige Geschäftspraxis, einschließlich der Hersteller in der EU und den USA.

Mehr Informationen und EIA-Berichte über HFC-23, den CDM, das Montreal-Protokoll und andere Dinge können hier gefunden werden.

Kontakt:

Samuel LaBudde at samlabudde@eia-global.org, Clare Perry at clareperry@eia-international.org,  Mark Roberts at markroberts@eia-global.org

QUELLE: Environmental Investigation Agency

Copyright (C) 2011 PR Newswire. All rights reserved

Link: http://tinyurl.com/7vgk4c6

Übersetzt von Chris Frey für EIKE

Zusatz: Auch Anthony Watts hat sich dieses Themas auf seinem Blog angenommen. Vor den oben stehenden Artikel hat er folgende einführende Bemerkungen gesetzt:

Wer sagt, dass man Ansprüche los werden kann? WUWT hat diese Sache über HFC-23 schon früher beschrieben, und zwar hier.

Es scheint sich auszuweiten. China hat sich gerade entschlossen, die brillanten Köpfe herauszufordern, die demnächst an der Klimakonferenz in Durban (COP-17) teilnehmen werden.

Die brennende Frage lautet: was würde Angelina Jolie tun?

Dort gibt es auch viele Kommentare. Wer die lesen möchte: http://wattsupwiththat.com/2011/11/08/chinas-climate-cah-blackmail/

Hinzugefügt vom Übersetzer




11.11.11 Karneval beginnt oder Der Narrensprung in Durban!

Im Vorfeld der vielleicht vorletzten großen Konferenz des UNFCCC in Kopenhagen 2009 hatte ich nachfolgende Grafik mit dem Titel: „Warum in Kopenhagen nichts erreicht wird“ gezeigt.

Abb. 1: CO2-Emissionen 1970-2006 nach Region und global (rot).

Damals war klar, dass die globalen Emissionen sich kaum verändern würden, selbst wenn die gesamte industrialisierte Welt auf die 1980er Emissionsmenge zurückfallen würde.

Jetzt steht uns der 17. UNO-Klimawandel-Narrensprung im südafrikanischen Durban ins Haus mit vielen Clowns und einigen Zirkus-Arenen. Wie haben sich denn die CO2-Emissionen seit dem Kopenhagener Narrensprung entwickelt? Die aktuellen Zahlen sind gerade veröffentlicht worden. Und viele Elektronen sind wegen des Schmerzes über diese Zahlen durch den Äther gejagt worden. “Rekordhoch 2010 bei den globalen CO2-Emissionen aus der Verbrennung von  fossilen Primärenergieträgern und aus der Zementherstellung, auf der CDIAC Webseite veröffentlicht” schreit die Schlagzeile der … , na ja, so steht es in der Kopfzeile bei CDIAC selbst, man verweist auf sich selbst mit dem neuen Rekord …

Unsere Freunde beim englischen GUARDIAN begeisterten sich: “Treibhausgasanstieg rekordverdächtig!” Auch sonst steigt der Überschwang grob proportional mit der Entfernung vom Wissen um die Bedeutung dieser Zahlen.

Wie kommt der Rekord bei den CO2-Emissionen zustande?
Abb. 2 zeigt die Information von der CDIAC-Webseite.


Abb. 2: Veränderung der Emissionen von 2008 – 2010.

Was sagt uns das? …

Zum Verständnis der Zahlen muss man wissen, dass mit den CO2-Emissionen etwas gemessen wird, was normalerweise “Entwicklung” heißt. Zugang also zu all den schönen Dingen des Lebens, ermöglicht durch Energie-Nutzung: Medizinischer Fortschritt, Nahrung, Schutz vor Hitze und Kälte, Mobilität, Kommunikation, Kühlschränke, Ackerschlepper … es ist eine lange Liste. Die „Entwicklung“ verläuft parallel zum Energieverbrauch und sie ist das Synonym dafür.

Wenn aus den Industrieländern die Aufforderung an die Schwellenländer ergeht, also an Indien, China, Brasilien, Indonesien, zur Verminderung der CO2-Emissionen, wird in Wahrheit zum Zurückzuschrauben der Entwicklung aufgefordert: in der Gesundheitsversorgung, beim Wohlstand, in der Infrastruktur, und beim Aufbau der Industrie.
Viel Glück! kann man nur wünschen, wenn die Schwellenländer von etwas überzeugt werden sollen, was mein Stiefgroßvater mit „Habt-Ihr-sie-noch-Alle-beisammen?“ bezeichnete.

Bald läuft das Kyoto-Protokoll aus. Der CO2-Katastrophenchor übt die Kyoto-Verlängerungsarie ein. Man will neue, global bindende Einschränkungen bei den Emissionen sehen. Anders gesagt: verbindliche Einschränkungen bei der Zunahme des Energieverbrauchs in den Schwellenländern.

Ich persönlich meine, dass dies von allen Zielvorstellungen die bei weitem inhumanste ist. Die Volksmassen in Indien, China, Brasilien und anderen Ländern sind gerade dabei, sich aus bitterer Armut zu befreien, und da wollen ihnen diese CO2-Schreier bindende Beschränkungen beim Energie-Zugang auferlegen?!?
Kommt auf den Boden der Tatsachen zurück! Eine gute Nachricht ist immerhin dabei: die Schwellenländer werden nie mitmachen. Bildlich gesprochen: Das Kohlenfeuer beleuchtet ihren Weg aus der Dunkelheit der Armut.

Darüberhinaus sollte man bedenken, dass Vereinbarungen wie Kyoto den Anstieg des Energieverbrauchs anhalten wollen. Das klingt auf den ersten Blick vernünftig. Für die Industrieländer ist das kein Problem, unser Verbrauch ist ja schon sehr hoch. Was heißt das aber für China, Indien und die Übrigen? Im Klartext sagen wir doch: Ihr werdet uns nie erreichen können!
Ich bin sicher, sie bemerken die freche Heuchelei bei diesem Ansinnen.

Wenn also Kyoto zum Glück auf globaler Ebene tot ist, was bleibt dann noch? Eigentlich möchte ich nicht vulgär werden, aber die schlechte Nachricht ist, dass Kyoto nur Sch… hinterlässt.

Geld, Euros, Dollars, Internet-Spielgeld. Man muss der Spur des Mammons folgen.

In Durban werden die Schwellenländer die Industrieländer vehement davon überzeugen wollen, Geld herauszurücken. Wir werden endlose herzzereißende Geschichten über Klimawandelflüchtlinge, sterbende Korallenriffe, entwurzelte und polwärts geschobene Lebensräume hören, alles nur wegen unseres Nichtstuns. Und vergessen wir nicht die Träger der Eisbär-Kostüme. Ohne die kann kein UNO-Klimawandel-Narrensprung mehr stattfinden.

Wenn uns die Geschichte irgend etwas lehrt, dann dies: dass alle unsere CO2-Aktivisten, Vegetarier, Verbreiter des Euro-Mists usw. nicht mehr die Bürde für unsere Entwicklung tragen wollen. Sie werden vor den Forderungen einknicken und Geld zusagen für Irgendwann, Irgendetwas … und dann werden die meisten Länder vermutlich diese Versprechungen nicht einlösen, was zu diplomatischen Demarchen und lauten Protesten führen wird.

(Nebenbei … Liebe US-Kongress-Abgeordnete … können wir nicht mit der Finanzierung des IPCC Schluss machen? Das kostet nur Steuerzahler-Geld und wir erhalten nichts dafür. Es wäre doch Eure Aufgabe: Könntet Ihr nicht wenigstens bei diesem Schaulaufen aussteigen? Mehr will ich nicht! Willis.)

Der Leser mag noch weiter grübeln, was sich aus den Zahlen ergibt. Bei mir scheint gerade die Sonne, ich gehe jetzt raus und baue etwas.

w. (Willis Eschenbach)

[Übersetzt von Helmut Jäger, EIKE]

Den Originalartikel finden Sie hier




„Klimaforscher“ Latif sagt voraus: 50 °C in hundert Jahren, Italien erlebt Regengüsse wie seit langem nicht!

Siehe auch ergänzenden Nachtrag am Ende des Beitrages

…Sowohl beim kalten Winter 2009/10 als auch beim vorjährigen heißen Sommer in Mitteleuropa oder jetzt den sintflutartigen Regenfällen in Nord-Italien und Nordspanien handelt es sich um Ergebnisse normaler(!) meteorologischer Prozesse und Wetterlagen. Mit irgendeiner "Klima-Katastrophe" hat weder der vergangene kalte Winter noch der letzte heiße Sommer oder auch das jetzige Wettergeschehen auch nur das Geringste zu tun, und mit CO2 schon ganz+gar nicht !

Die Atmosphären-Strömung "arbeitet" in Wellen und Wirbeln. D i e s e leisten in der Atmosphäre die Energie-Umsätze und Energie-Transporte. In unseren gemäßigten Breiten haben wir es zu etwa 80% des Jahres mit einer mehr oder weniger mäandernden West-Wind-Strömung in den höheren Luftschichten zu tun, wobei als dynamisches Bezugs-Niveau häufig die 500- Hektopascal-Fläche (keine “Ebene“) in ca. 5000 m Höhe benutzt wird.

Das Wetter am Erdboden (also “in Augenhöhe") mit seinen Tiefs, Fronten, Hochs …. ist "ein Abfall-Produkt" dieser Höhenströmung. Die Druckgebilde und Wetter- Fronten entstehen als Folge von Konfluenzen (Konvergenzen) und Difluenzen (Divergenzen) in dieser Höhenströmung – auch Jetstream genannt (Abbildung 1).

Höhenströmung und "Boden-Wetter" werden von den sogenannten Zirkulations- Modellen der welt-weiten Wetterdienste mit guter Genauigkeit für ca. eine Woche prognostiziert. Dabei wird der sogenannte deterministische Anteil dieser physikalischen Prozesse für die Wetter-Prognosen heraus gearbeitet, während mit zunehmender zeitlicher Rechen-Distanz zum Ausgangszustand der unbestimmbare (stochastische) Anteil mehr und mehr überwiegt !

D a h e r geht man derzeit davon aus, daß aus physikalischen Gründen (Chaos- Theorie der Atmosphäre) auch in den nächsten Jahrzehnten (Jahrhunderten?) eine Vorhersagbarkeits-Grenze von ca. 10 Tagen kaum überschritten werden kann.

Schon aus diesen Gründen ist es eine ungeheuere Anmaßung der Klima- Institute, Klima (und damit letztlich Wetter) für 100 Jahre im voraus berechnen zu wollen !! (….selbst auch dann, wenn dieser Vergleich physikalisch etwas "hinkt").

Zu eigentlichen Kernfrage, warum mal sehr kalt und mal sehr heiß :

Wenn die Höhenwind-Strömung weitgehend West-Ost ausgerichtet ist, dann wird mit den Tiefs und ihren Fronten atlantisch temperierte Luft nach Europa gesteuert (Abbildung 2).

   

Das hat zur Folge, daß die Winter in Mitteleuropa mild und die Sommer kühl und regnerisch sind. Die mehr oder weniger ausgeprägten Mäander der ("wetter-steuernden"!) Höhenströmung nennt man wegen ihres globalen/planetaren Auftretens in der meteorologischen Fachsprache "Planetarische Wellen" (nach ihrem Entdecker auch: ROSSBY-Wellen). Dort, wo ein "Wellenbauch" ist, entsteht ein Hochdruck- Keil ; dort, wo ein "Wellental" ist, den die Meteorologen TROG nennen, haben wir tiefen Luftdruck – b e i d e s in "allen" Höhenschichten bis zum Boden, mehr oder weniger.

Auf den Westseiten der Tröge, auch Rückseiten genannt (…und damit am Ostabhang der Keile) wird Kaltluft von höheren (nördlichen) Gefilden in niedere Breiten transportiert (am Boden: "Kaltfronten") ; auf den Ostseiten der Tröge und folglich an den West-Flanken der Hochkeile wird Warmluft von niederen (südlicheren) Breiten nach Norden transportiert – Warmluft-Advektion!

In dieser Zirkulation überwiegen hemisphärisch/global "Wellen-Zahlen" von 5…6…7, seltener 3 oder 4. Bei geringeren Wellen-Zahlen (also 3…4…5) neigt die atmosphärische Strömung aus physikalischen Gründen ("stehende Wellen") zu einer Verlangsamung des West-Ost-Weiterwanderns, bis hin zum "Stillstand" – in der Meteorologie BLOCKIERUNG genannt.

D a n n verstärken sich Hochkeile und Tröge noch, w o m i t sich die Zufuhr von kalter bzw. warmer Luft intensiviert, je nachdem, in welcher Region wir uns unter der Höhenströmung und der sich daraus ergebenden Bodenströmung befinden.

F o l g l i c h : Es gibt im globalen Maßstab gleichzeitig (!!) immer Regionen, in denen es (im Vergleich zum meteorologischen Langzeit-Mittel) entweder "zu kalt" oder eben"zuwarm"ist!! Genau dieses Strömungs-Muster einer BLOCKIERUNGS-Wetterlage ("Blockierung" gegen die "normale" Westdrift) hatte sowohl unseren Winter 2009/2010 bestimmt (Abbildung 3; 28.01.10), als auch unseren Sommer 2010 in den ersten drei Juli-Wochen (Abbildung 4; 10.07.10) .

Der einzige Unterschied – betreffend den vergangenen Winter und den Juli- Sommer 2010 – ist d e r , daß der blockierende Hochkeil im letzten Winter mehr oder weniger über dem Ostatlantik lag, mit einer ständigen "vorderseitigen" Kaltluft-Polarluft-Advektion nach Mittel- und Osteuropa (TROG), w o g e g e n

der Hochkeil im Juli über dem mittleren bis östlichen Europa lag.

D a s hatte zur Folge, daß an der Westflanke dieses Hochkeils und gleichermaßen auf der Ostflanke ("Vorderseite") des "stationären" ostatlantischen Tiefdruck-Troges subtropische Warmluft nach West- und Mittel- Europa geführt wurde ! W a r u m die Atmosphäre sich in machen Jahreszeiten für eine solche “Blockierung“ entscheidet, oder eben – wie z.B. in “normalen“ Sommern – für eine Atlantische Westdrift mit Regen und kühler Luft (wie mehr oder weniger in den Sommern 2007-2009), das ist nicht bekannt.

Interessant ist jedoch, daß diese Zirkulations-Muster der Blockierungen bzw. der sommerlichen West-Wind-Regen-Drift tief in der Erfahrung unseren Vorfahren verankert ist, und in der Bauern-Regel vom “Siebenschläfer“ ihren Niederschlag gefunden hat (vgl. Anlage PDF).

Fazit:

Dieses alles sind meteorologische Prozesse und Wetterlagen, mit irgendeiner "Klima-Katastrophe" hat weder der vergangene kalte Winter noch der jetzige heiße Sommer auch nur das Geringste zu tun, und mit CO2 schon ganz+gar nicht !!!!!

Dipl.-Meteorologe Klaus-Eckart Puls

(Quelle d. Wetterlagen-Abbildungen: Nat.Rdsch. H.2 (1984), Singularitäten der Witterung, S. 61-66)

Nachtrag der Redaktion 12.11.11:

Dem Beitrag von Herrn Puls kann man entnehmen, wie das hemisphärische Wellenmuster die Wetterlagen bei uns beeinflusst. Völlig zu Recht hat er auf die Erhaltensneigung bei stark meridionaler Zirkulation hingewiesen. Als Ergänzung wollen wir noch ein wenig tiefer in die Rossby-Wellentheorie einsteigen.

Die Rossby-Formel zur Verlagerung planetarischer Wellen besagt, dass diese sich umso schneller ostwärts verlagern, je höher der sog. zonale Grundstrom ist. Außerdem wandern kürzere Wellen (z. B. 8 Tröge/Hochkeile) schneller als längere Wellen (4 bzw.5 Tröge/Keile). Die ultralangen Wellen 1 (=Asymmetrie des Jet-Streams zum geographischen Nordpol), 2 und 3 bewegen sich retrograd, d. h. westwärts, sofern sie überhaupt vorhanden sind.

Eine dieser Wellenzahlen wird also stabil gehalten. Im Sommer ist dies häufig bei der Wellenzahl 5, im Winter bei der Wellenzahl 4, bei sehr starkem zonalen Grundstrom auch die Wellenzahl 3. Da man, grob vereinfacht, die Stärke des zonalen Grundstroms mit der Stärke des Westwindimpulses vergleichen kann, ist bei einer kürzeren Wellenzahl, die stabil gehalten wird, der Westwindimpuls deutlich schwächer. Im Unterschied Sommer/Winter leuchtet das ein und braucht hier nicht weiter erläutert zu werden.

Zwei Dinge sind im aktuellen Fall interessant: 1. Im Moment, das zeigt eine einfache harmonische Zerlegung des Jet-streams in einzelne Wellenanteile, wird die Welle 5 stabil gehalten, was für diese Jahreszeit schon sehr ungewöhnlich ist (siehe unten). Sollte das Anfang Dezember auch noch so sein, zeichnet sich im kommenden Winter eine stark verringerte Neigung zu Westwindwetterlagen ab.

2. Weiteres Indiz für den derzeit schwach ausgeprägten Westwindimpuls ist die lange zeitliche Dauer des gegenwärtigen Wellenmusters, worauf ja auch Herr Puls in seinem Beitrag schon hingewiesen hatte.

Was eine stark verminderte Neigung zu Westwindwetterlagen für unser Wetter (nicht Klima!) im Winter bedeutet, ist wohl ziemlich leicht auszurechnen.

Ein Grund (von mehreren, teils wohl noch nicht einmal bekannten) für die verringerte Westwindbereitschaft ist sicherlich die Tasache, dass im äquatorialen Pazifik nach wie vor eine riesige Kaltwasseranomalie zu finden ist, in abgeschwächter Form auch im subtropischen Atlantik. Dies bedeutet, dass der absolute Temperaturgegensatz der Wassertemperatur zwischen niedrigen und hohen Breiten vermindert ist, was mit der Atmosphäre natürlich in Wechselwirkung steht.

Weiteres hierzu kann man mit den Stichworten "Rossby, hemisphärische Wellen" etc. googeln.  

A n l a g e zur meteorologischen Erläuterung:

“Die Bauernregel vom Siebenschläfer“

So ist auch ein kausaler Zusammenhang nicht gesichert, wenn ein warmer Sommer

auf einen kalten Winter folgt, oder umgekehrt. In der überwiegenden Zahl der Fälle

passiert das nämlich nicht.

Gleichermaßen gibt es für entsprechende Jahreszeiten-Prognosen weiterhin kein

wissenschaftlich abgesichertes Verfahren.

Related Files




Mögen Sie Äpfel mit erhöhter Radioaktivität?

Viele Jahre war der Ertrag recht spärlich, bis mir ein Fachmann von dem notwendigen richtigen Obstbaumschnitt berichtete. Also wurde ich Lehrbub beim Vorsitzenden des hiesigen Gartenbauvereins. Der Fachmann zeigte mir, wie es richtig zu machen ist. Die Ernten wurden von Jahr zu Jahr größer. Bald waren es schon so viele Äpfel von den zwei Bäumen, dass wir nicht mehr alle Früchte verzehren konnten, also wurden die unansehnlicheren Früchte zu Saft verarbeitet. Nur einen Nachteil hatten die vielen Äpfel: Sie waren nicht so schön, sie hatten außen schorfigen Bereiche mit dunklen Stellen im Inneren bis zum Kernhaus. Da wusste der Fachmann vom Gartenbauverein keinen Rat, er verwies mich an die nächst höhere Instanz, den Fachleuten von riesigen Gartencenter im Nachbarort. Die Antwort dort war recht eindeutig: Kaliummangel, evt. könnte auch Pilzbefall die Ursache sein. Ich wollte nicht spritzen, zudem erschien Kaliummangel eine logische Erklärung zu sein. Bei großen Erntemengen genügt die Remineralisierung des Bodens nicht mehr zu Versorgung der Pflanzen mit Nährstoffen. Es muss gedüngt werden, gerade das war die segensreiche Erfindung des Justus von Liebig gewesen. Also habe ich sogleich Kali-Obstbaumdünger gekauft, zwei Packungen zu je 2,5kg.

In Kalium ist besonders viel Radioaktivität enthalten, Kalium-40 ist die wichtigste Quelle von Radioaktivität, mit der jeder Mensch sich selber und seine Umwelt bestrahlt. Ich hatte diese Strahlenquelle im Rucksack vom Gartencenter bis nach Hause getragen. Es war mir ein leichtes, aus den Angaben auf der Packung die Menge der Radioaktivität zu errechnen: Es waren 15 000 Becquerel Radioaktivität in zwei einfachen Pappschachteln [1]! Und die Strahlung von Kalium-40 ist harte Gamma-Strahlung von erheblicher Reichweite, das d ½ in Luft sind ca. 95 Meter [2]. Diese Gamma-Strahlung hat mich durchbohrt, als ich den Rucksack heim trug. Vielleicht wurde ich dabei total „verstrahlt“, aber das weiß ich nicht so genau, jedenfalls habe ich nichts davon bemerkt. Ich habe den Obstbaumdünger nach Anleitung unter meinen Apfelbäumen verteilt, damit habe ich 15 000 Becquerel Radioaktivität in der Umwelt verteilt. „Freisetzung von Radioaktivität“ in der Umwelt, das hat schon oft knallige Schlagzeilen in der Presse zur Folge gehabt; also gut, dass ich von niemandem bei meinem evt. verwerflichen Tun beobachtet wurde.

Jetzt ist es Herbst, die Apfelernte liegt sorgsam ausgebreitet im Keller. Und was für schöne Äpfel, makellos, kein Schorf mehr, keine dunklen Stellen mehr im Inneren. Also muss die Vermutung mit dem Kaliummangel gestimmt haben. Dann haben unsere Äpfel jetzt aber auch mehr Radioaktivität als in den vergangenen Jahren – erhöhte Radioaktivität. Ich kann das durch Nachmessen nicht beweisen, weil mir die Gerätschaften dazu fehlen. Aber der Erfolg spricht für sich, ein weiterer Beweis ist nicht erforderlich.

Es gibt Apfelstrudel, eine wahrhaft köstliche alpenländische Spezialität, Apfelstrudel mit erhöhter Radioaktivität. Und wir haben wieder Früchte zu Saft verarbeiten lassen, Apfelsaft mit erhöhter Radioaktivität – wer kann dazu schon „nein“ sagen? Und wer bei mir vorbeikommt, dem werde ich gern eine Kostprobe der erhöhten Radioaktivität anbieten.

Und im nächsten Jahr werde ich wieder eine Portion Radioaktivität in unserem Garten verstreuen, ich mache ähnliches wie unsere Landwirte [3]. Die Umweltminister in Land und Bund werden es wohl nicht bemerken, sie sind mit „Klimaschutz“ beschäftigt. Nur der Präsident des Bundesamtes für Strahlenschutz darf es bemerken, der soll nämlich auch gelernter Gärtner sein, versteht also viel von Radioaktivität und von Gartenbau…

Dr. Lutz Niemann für EIKE

[1] Obstbaumdünger ist ein Mischdünger mit weiteren Spurenelementen Phosphor und Stickstoff. In Phosphordünger kann viel Radioaktivität enthalten sein, weil in den Lagerstätten (z.B. in Marokko) neben im phosphorhaltigen Mineral auch Uran vorliegt. Nach Angaben von Fachleuten kann sich durch Uran und deren Zerfallsreihe die Aktivität des Düngers auf das Doppelte erhöhen. Daher könnte die Gesamtaktivität 30 000 Bq erreichen, wobei sich in den U-Zerfallsreihen viel alpha-Strahler befinden mit einer 20-fach höheren biologischen Wirksamkeit als beta- oder gamma-Strahler.

[2] „d ½ = 95 Meter“ bedeutet, dass bei einem parallelen Strahl nach 95 Metern die Intensität auf die Hälfte abgesunken ist.

[3] Die Kali+Salz AG fördert in Deutschland jährlich etwa 6 mal 10 hoch 12 Becquerel K-40 an die Erdoberfläche. Davon gelangen 2 bis 3 mal 10 hoch 12 Becquerel als Kali-Dünger auf deutsche landwirtschaftliche Flächen, und später wird mit Speisen und Getränken von den Menschen in unserem Lande jährlich etwa genau diese Menge an K-Aktivität konsumiert. Unser „Verzehr“ von Radioaktivität ist ein ganz natürlicher Vorgang, der zum normalen Leben gehört.




Kritik an Trenberth‘ Energiefluss

Das Trenberth/IPCC “Earth’s Energy Budget Diagram”

(2. Entwurf vom 25. 10.2011 von Bob Fernley-Jones, genannt Bob_FJ)

Die nachfolgende Grafik stammt aus einem Trenberth –  Papier von 2009. Sie ist eine Aktualisierung der Grafik aus dem IPCC-Bericht von 2007 (war auch schon im 2001er Bericht):

Das Ungewöhnliche an dieser Grafik ist: Sie zeigt nicht den Wärmetransfer durch Abstrahlung von der Erdoberfläche. Stattdessen beschreibt sie den Treibhauseffekt in Form eines Strahlungsflusses, so wie die Autoren ihn sehen. Anders gesagt, als elektromagnetische Strahlung. Dazu enthält sie weitere Beschreibungen, mit denen Naturwissenschaftler auf dem Kriegsfuß stehen. Die elektromagnetische Strahlung ist eine Energieform, die häufig mit Wärme verwechselt wird. Später wird gezeigt, dass die oben dargestellte Oberflächenabstrahlung (Surface Radiation) von 396 W/m2 sich ganz anders als Wärme verhält. Auch kann eine Temperaturänderung in Materie nur stattfinden, wenn es Wärmeaustausch gibt, ganz gleich, wie viel elektromagnetische Strahlung in der Atmosphäre herumsaust.

Die nachfolgende Abb. 2 ist ein leichter verständliches Schema. Es stammt von der NASA und aus Wikipedia. Dieses Schema vermeidet die oben angesprochene Problematik.

Abb. 2                                                     (NASA)

Im zitierten Trenberth et al. Papier wird gesagt, dass die in der Grafik mit 396 W/m2 angegebene emittierte Elektromagnetischen Strahlung nach dem Stefan-Boltzmann-Gesetz abgeleitet wurde, unter Annahme von durchschnittlichen jährlichen Bedingungen. Unter Hintanstellung einiger untergeordneter, aber dennoch wichtiger Fragen, sollte man sich vor Augen halten:

1) Das Stefan-Boltzmann’sche Gesetz beschreibt die Gesamtemission von einer flachen Oberfläche, die gleichmäßig in alle Richtungen abgeht (isotropisch/hemisphärisch). Stefan hat das experimentell entdeckt, sein Schüler Boltzmann hat es mathematisch abgeleitet. 

2) Die gleichmäßige halbkugelförmige elektromagnetischen Abstrahlung wird durch die Sonne unter Beweis gestellt. Sie erscheint bei bloßer Betrachtung mit dem Auge als flache Scheibe gleichmäßiger Helligkeit, sie ist aber in Wirklichkeit eine Kugel.
Von ihrem Außenrand geht die Strahlung tangential zur Erde ab, nicht senkrecht. Das Beispiel ist nicht ganz treffend wegen der Besonderheit der solaren Randverdunkelung. Diese rührt daher, dass die Oberfläche der Sonne nicht fest, sonder aus Plasma mit Verdunkelungseffekten besteht. Das sieht man aber nicht.
(Bei direkter Sonnenbeobachtung immer geschwärzte Gläser benutzen!)

3) Stefan benutzte bei seinem Laborexperiment einen kleinen flachen Körper, der in eine Halbkugel abstrahlte, die Ergebnisse können auf größere Bereiche übertragen werden, indem man viele flache Körper zu einer flachen Gesamtheit zusammensetzt, weil elektromagnetischen Strahlung einander durchdringt. Man denke dabei an nächtliche Autoscheinwerfer: Die Helligkeit der Scheinwerfer entgegenkommender Autos verändert sich nicht, wenn das eigene helle Licht darauf trifft. (Nicht zu verwechseln mit Blendwirkung oder Streulicht!)

4) Die nachfolgende Zeichnung zeigt, warum die Abstrahlung in seitliche Richtungen am größten ist. Das gilt [in der Atmosphäre] sowohl für die anfängliche Stefan-Boltzmann’sche halbkugelförmige Bodenabstrahlung, wie auch für die nachfolgende kugelförmige Abstrahlung aus der Atmosphäre.

5) Zur Erläuterung der Abb. 3:  Die Lufttemperatur sinkt mit der Höhe (mit dem Gradienten). Wenn wir uns aber eine dünne Luftschicht mit geringer Turbulenz über einem kleinen Gebiet in einem kleinen Zeitintervall vorstellen, dann können wir die Temperatur in der Schicht als konstant betrachten. Die am stärksten konzentrierte Strahlung innerhalb der Schicht geht horizontal in alle Richtungen. Der Netto-Wärmeaustausch dabei ist Null. Wo die Abstrahlung nicht genau horizontal ist, wird sie von benachbarten Schichten abgefangen.

Die zutreffendere Art der Beschreibung ist die vektorielle. Eine vektorielle Beschreibung ist eine mathematische Methode zur Behandlung von Parametern, die Richtungsinformationen enthalten.

In Abb. 4 geht man von einer beliebigen elektromagnetischen Abstrahlung (C) mit recht flachem Winkel aus und betrachtet deren vertikale und horizontale Vektorbestandteile. Die Länge jedes Vektors ist proportional der Stärke des Strahls in seiner Richtung: A + B = C.  Die Abbildung stellt den Sachverhalt nur zweidimensional dar, bei dreidimensionaler Betrachtung gibt es unzählige ungerichtete Strahlen. Die Mehrzahl konzentriert sich in der horizontalen Ebene in alle Richtungen, dort nähern sich die vertikalen Vektorbestandteile dem Wert Null an.

6) Trenberths Abb. 1 geht von 65% Wärmeverlust an der Erdoberfläche durch Konvektion und Kondensations/Verdampfung aus. Dabei wird nicht erwähnt, dass infolge des Wärmeaustauschs nach oben zusätzliche IR-Abstrahlung in der Luftsäule stattfindet, weil sie erwärmt wird. Es fängt zunächst mit sphärischer Abstrahlung und Absorption an, aber mit zunehmender Höhe und Verdünnung der Luft wird die Absorption geringer, schließlich geht nur noch Strahlung in den Weltraum. Deswegen hat die aus dem Weltraum beobachtete IR-Abstrahlung der Erde komplexe Quellen aus vielen Höhen. Man weiß aber nie genau, woher sie kommt. Daher sind viele Zuschreibungen der Quellen „schwierig“.

Was heißt das nun?

Die anfänglich isotrope Stefan-Boltzmann’sche Emission (Trenberths globale 396 W/m2) wird zum größten Teil von den Treibhausgasen nahe der Oberfläche sofort eingefangen (lassen wir mal außer acht, dass ein Teil auch direkt in den Weltraum durch das sogenannte “atmosphärische Fenster” geht). Dennoch ist der größere Anteil der anfänglichen Stefan-Boltzmann’schen 396-Watt-Oberflächen-Abstrahlung durchgängig lateral, wenn man die von Trenberth angenommen konstanten Bedingungen unterstellt. Es findet überhaupt kein Wärmeaustausch statt, die horizontalen Strahlungsvektoren können nicht im behaupteten 396er Senkrechtfluss enthalten sein, weil sie außerhalb der vertikalen Sicht sind.

Nachdem die anfänglichen atmosphärischen Absorptionen stattgefunden haben, kann das nur für die Oberflächenluft gültige Stefan-Boltzmann’sche Gesetz nicht mehr angewandt werden. (Obschon einige Wolken zuweilen fast wie Schwarze Körper betrachtet werden.) Der Großteil der anfänglichen Absorption/Emission der Luft findet in Bodennähe statt, aber die vertikale Verteilung ist hoch, wegen erheblicher Variation in den Pfadlängen der Photonen. Sie unterscheiden sich unter dem Einfluss vieler Faktoren, ein großer Faktor ist die regionale und sehr viel stärkere Verteilung der Konzentration des Treibhausgases Wasserdampf. Sie beträgt in globaler Betrachtung ~0 bis ~4 %. Im Vergleich dazu: Die CO2-Konzentration ist mit ~0.04 % in etwa konstant. Beim Versuch der Modellierung der möglichen Wirkungen trifft man auf eine sehr hohe Gesamtkomplexität. Das soll hier nicht weiter betrachtet werden. Wichtig ist nur, dass alle Luftschichten mit zunehmender Höhe ständig eine ganze Menge an seitlicher Abstrahlung besitzen, die teilweise von den Stefan-Boltzmann’schen hemisphärischen 396 Watt angetrieben wird und daher keinen Anteil an den in Abb. 1 behaupteten vertikalen 396 Watt haben kann.

Ergebnis:

Der von  Trenberth et al. als 396 W/m2 dargestellte vertikale Strahlungsfluss von der Erdoberfläche bis in die hohen Wolkenschichten wird auch von prinzipiellen Überlegungen nicht gestützt. Die Stefan-Boltzmann’schen 396 W/m2 sind definitionsgemäß isotropisch, wie auch deren Abklingen mit aufsteigender Höhe. Dabei überwiegen stets die horizontalen Vektoranteile, die bei vertikaler Betrachtung keine Rolle spielen. Die verbleibenden vertikalen Komponenten der elektromagnetischen Abstrahlung aus dieser Quelle sind deshalb geringer als die behaupteten 396 W/m2.

Es ist offensichtlich, dass der durch Konvektion und Verdampfung verursachte Wärmeverlust an der Oberfläche sich zum tatsächlichen vertikalen Verlust durch elektromagnetischen Abstrahlung addiert. Das wird auch vom Weltraum her beobachtet. Dieser Verlust kann sehr wohl in der Größenordnung von 396 W/m2 liegen. Das ist aber nicht der von Trenberth beschriebene Stefan-Boltzmann’sche Abstrahlungsprozess.

Autor Bob Fernley-Jones

ist ein pensionierter Maschinenbauingenieur und lebt in Australien

Der Originalbeitrag erschien hier

(Die Übersetzung besorgte Helmut Jäger, EIKE)

###############################################

Zusatz für besonders Interessierte

Wer weiß mehr? :

In der Abb. 5 unten stellen die links angegebenen NIMBUS 4 Satellitendaten alle Strahlungsquellen dar, wie sie vom Weltraum her beobachtet werden. In unserem Falle von einem Punkt über dem tropischen Pazifik. Die gesamte Abstrahlungsmenge wäre das Integral unter der Kurve. Es wird leider nicht angegeben. Für Vergleichszwecke gibt ein MODTRAN Kalkulator für eine Beobachtungshöhe von 100 km eine interessante Information zu dieser Abbildung. Sie wird in der Tabelle darunter detailliert. Leider gibt der Kalkulator keine globalen Daten oder durchschnittliche Bewölkungsbedingungen an. Wir vergleichen also Äpfel mit Birnen. Das tun wir nicht nur bei NIMBUS sondern auch bei Trenberth. Allerdings scheinen sie alle von gleicher Größenordnung, wie aus den zusätzlichen Tabellenwerten ersichtlich.

Vergleich MODTRAN & “Trenberth” aus zwei Höhen, dazu die Oberflächentemperatur

Ort

Kelvin

10 Meter

100 Km.

(Zentigrad)

Tropische Atmosphäre

300K

419 W/m^2

288 W/m^2

(27C)

Mittlere Breiten Sommer

294K

391 W/m^2

280 W/m^2

(21C)

Mittlere Breiten Winter

272K

291 W/m^2

228 W/m^2

(-1C)

Sub-Arktischer Winter

257K

235 W/m^2

196 W/m^2

(-16C)

Trenberth Global

288K ?

396  W/m^2

239 W/m^2

(15C ?)

Vergleich MODTRAN & “Trenberth” aus vier Höhen:  W/m^2

Ort

Aus 10 m

Aus 2 Km

Aus 4Km

Aus 6Km

Tropische Atmosphäre

348

252

181

125

Mittlere Breiten Sommer

310

232

168

118

Mittlere Breiten Winter

206

161

115

75

Sub-Arktischer Winter

162

132

94

58

Trenberth Global

333   Von hoher Bewölkung herrührend (= Stefan-Boltzmann lt. MODTRAN)




Eschenbachs einfacher Vorschlag

Ein ganz einfacher Vorschlag: Mal nicht mehr an morgen denken!

Willis Eschenbach schrieb am 31.10.2011:

Es gibt ein wunderschönes Papier von 2005, das mir bis dato entgangen war. Es stammt vom Los Alamos National Laboratory und heißt: Unser kalibriertes Modell taugt nicht für Vorhersagen. [Our Calibrated Model has No Predictive Value (PDF)]

 

Abb. 1: Der Tinkertoy Computer. Nicht geeignet für Vorhersagen.
            (Anm. d. Ü.: Tinkertoy ist ein altes amerikanisches Konstruktions-
                               Baukastensystem für Kinder)

Das Abstract des Papiers sagt alles, viel besser als ich es könnte:

Abstract: Man nimmt oft an, dass ein auf echte Meßdaten kalibriertes Modell eine wenn auch noch so begrenzte Vorhersagefähigkeit hätte. Falls nicht, müsste das Modell nur etwas verbessert werden. Anhand eines Beispiels aus der Ölindustrie wird der Nachweis geführt, dass selbst kalibrierte Modelle keinerlei Eignung für Vorhersagen haben können. Sogar dann, wenn kein Modellierungsfehler vorliegt. Es konnte auch bewiesen werden, dass ein kleiner Modellierungsfehler das Bauen von vorhersagegeeigneten Modellen unmöglich machen kann. Es war unmöglich zu erkennen, welche Modelle sich für Vorhersagen eignen und welche nicht.

Daraus folgten drei Ergebnisse, ein erwartetes und zwei unerwartete.

Das erwartete Ergebnis: Modellen, die auf existierende Messdaten kalibriert oder abgestimmt sind, kann durchaus die Eignung zur Vorhersage fehlen. Das ist offensichtlich. Könnte man ein Modell derart einfach abstimmen, dann könnte man die Börsenkurse oder das Wetter im kommenden Monat mit guter Genauigkeit vorhersagen!

Das zweite Ergebnis kam völlig unerwartet: Einem Modell könnte überhaupt die Vorhersage-Eignung fehlen, selbst wenn es perfekt wäre. Das Modell würde die physikalischen Zusammenhänge perfekt abbilden, genau, und in jedem Detail zutreffend. Auch wenn ein solches Modell auf Messdaten abgestimmt wäre, zudem noch auf perfekte, könnte ihm trotzdem die Vorhersage-Eignung fehlen.

Das dritte unerwartete Ergebnis war die Auswirkung von Irrtümern. Sogar bei kleinen Modellierungsfehlern kann es dazu kommen, dass man kein Modell mit hinreichender Vorhersage-Eignung bauen kann.

Anders gesagt: Selbst wenn ein abgestimmtes (“kalibriertes”) Modell die Physik korrekt abbildet, kann es trotzdem keine Vorhersage-Eignung besitzen. Und wenn noch ein kleiner Fehler drin steckt, dann Gute Nacht!

Da war ein ganz sauberes Experiment durchgeführt worden. Es gab nur drei einstellbare Abstimm-Parameter. Und schon sind wir bei John von Neumann, der sagte: Man kann mit drei Parametern einen Elefanten erzeugen und mit vier Parametrn kann man ihn dazu bringen, den Rüssel zu schwenken.

Mag der Leser selbst entscheiden, was das für die vielen Klimamodelle bedeutet und deren Eignung zur Simulation der zukünftigen Entwicklung des Klimas. Die Klimamodelle sind in der Tat abgestimmt, oder wie die Modellierer sagen, sie sind „kalibriert“. Und sie haben mit Sicherheit mehr als drei Parameter.

Ich möchte daher einen ganz bescheidenen Vorschlag machen: Könnten die Klimatologen nicht einfach mal aufhören, Entwicklungen für Zeiträume länger als ein Jahr vorherzusagen? In keiner anderen wissenschaftlichen Disziplin wird jedes Forschungsergebnis mit so vielen „könnte“, „möchte“, „möglicherweise“, „vielleicht“ belegt, wenn es in zehn, dreißig, hundert Jahren zu einer Katastrophe kommen könnte. Für ein einziges Jahr möchte ich darum bitten, dass die Klimatologen die vielen Klima-Phänomene studieren, ohne ständig zukünftige Veränderungen vorhersagen zu wollen. Wir haben noch lange nicht alles beim Klima verstanden. Das gegenwärtige und das vergangene Klima sollten daher untersucht werden, und nur ein einziges Jahr lang sollte mal die Zukunft in Ruhe gelassen werden.

Es gibt keinen vernünftigen Grund für die Annahme, die derzeitigen Klimamodelle für vorhersagefähig zu halten. Nur als Beispiel: keines hat die derzeitige Pause in der Erwärmung vorhergesagt. Und im zitierten Papier wird gezeigt, dass es wirklich keinen theoretischen Grund gibt, sie für vorhersagefähig zu halten.

Modelle, auch Klimamodelle, können uns manchmal nützliches Wissen über das Klima aufzeigen oder mitteilen. Können wir uns nicht darauf für eine Weile beschränken und die Modelle nur einsetzen, um das Klima zu verstehen, nicht um es vorherzusagen?

Und wie steht es mit 100- oder 500-jährigen Vorhersagen? Dabei ist völlig egal, ob wir sie „Szenarien“ oder wie auch immer in politisch korrekter Sprechweise nennen. Etwas auf 500 Jahren vorhersagen zu wollen, ist ein Witz. Das sollte man bleiben lassen, ohne dass etwas verloren ginge.

Ich meine, dass die Alarmschläger nach der ununterbrochenen Kette von falschen Vorhersagereien eines Paul Ehrlich, John Holdren, James Hansen und der übrigen reihenweise gescheiterten Weltuntergangspropheten nun eine Atempause begrüßen müßten, um nicht weiter die noch schlimmere Zukunftskatastrophe zusammenphantasieren zu müssen. Sie müssten es doch mal satt haben, ständig zu erleben, wie ihre Vorhersagen des Hitzetods der Welt immer wieder in der hässlichen Realität wie Seifenblasen zerplatzen. Ich meine, sie würden sich freuen, mal ein Jahr lang nicht an morgen denken zu müssen.

Grüße an Alle

W. (Willis Eschenbach)

(Übersetzung: Helmut Jäger, EIKE)




Stimmungs-Werbung in den Medien – genannt Energiedialog!

Eine Auswahl der Überschriften dieser Beiträge dieser Seite:

ENERGIEWENDE IN DEUTSCHLAND

Große Herausforderungen auf dem Weg in ein neues Energiezeitalter

ENERGIESYSTEM IM WANDEL

Effizient, intelligent und vernetzt

SMART METER

Intelligenz ist alles, was zählt

ENERGIE INTELLIGENT NUTZEN

Deutschland wird 40 Millionen Energie-Manager haben

usw. usw.Gemeint ist damit ein streng moderiertes Frage- und Antwortspiel mit dem Leser, der aufgefordert wird mit den Veranstaltern zu diskutieren. Die Veranstalter sind neben Die Welt, RWE, DENA und Siemens. 

Stellvertretend für viele Anfragen unserer Leser seien zwei herausgegriffen:

So fragt Dipl. Ing Vollert am 5.11. per Email:

Weitere Fragen an die Experten :

* Wieviele Pumpspeicherwerke werden benötigt um in Deutschland alle Konventionellen Kraftwerke für mehrere Tage ersetzen zu können ?

* Wievielen Wasserstoffspeichern alternativ entspräche diesen Wasserspeichern ?

* Wieviele Windräder bei guten Windverhältnissen müssten gebaut werden um unsere konventionellen Kraftwerke ( fossil und Kern ) zu ersetzen ?

* Wo soll dagegen die Biomasse in unfruchbaren Kontinenten herkommen, wenn dort keine Kernenergie zum Einsatz kommen kann?

* Warum glaubt man nur an den technischen Fortschritt bei den erneuerbaren Energien und nicht bei konventioneller Kraftwerkstechnik wie auch bei der Kerntechnologie ?

* Wie soll bei großer Biomassenutzung bei weiterwachsender Bevölkerung der Konflikt mit der Nahrungsmittelproduktion quantitativ und qualitativ gelöst werden ?

* Wie wird bei HGÜ ’s mit Gleichspannungen über 1 Mio. Volt das Kurzschlussrisiko beherrscht ?

* Bei der Idee Desertec werden zwischen Plus und Minuspol über sehr große Entfernungen 1,6 Mio. Volt geplant !!! ( nach meinen Informationen aus den vdi-nachrichten gibt es für diese Aufgabe eben noch kein realisiertes Beispiel , die HGÜ’s in Afrika und China sind hier nicht vergleichbar ! )

* Wie wird die schlechte Energieausbeute der Photovoltaik und deren misserabler Erntefaktor auf das Niveau der derzeitigen deutschen Kernreaktoren gebracht ?

* Wie wird bei Wasserstoffspeichern die Expolsionsgefahr durch Druckwellen umgangen ?

* Wie wird verhindert, daß entgegen der Brundlandkommision weiter viel zu viel fossile Energien verbrannt werden, wenn weltweit 456 Kernreaktoren stillgelegt werden ?

* Wieviele Seevögel glauben die Experten dürfen wir Deutschen mit unserer Energiewende opfern ?

* Welches Energieeinspaarvolumen weltweit ( auch bei den noch aufstrebenden Entwicklungsländern ) ist ohne Kapitalvernichtung und Nullwachstum in MW möglich ?

* Wieviel Land- und Seefläche werden geopfert werden müssen um 456 Kernreaktoren weltweit durch "Renevables " ersetzen zu können ?

* Ich möchte hier einmal aufhören, den ich glaube, die zu erwartenden ehrlichen Antworten sprechen für sich.

Gruß ihr Abonnent und skeptischer akademischer Leser

Mit freundlichen Grüßen

Walter Vollert Dipl.-Ing.

 Antworten bisher: keine

Und ein Herr Walter V. (auch das ist Walter Vollert; wie wir inzwischen erfahren haben) bekommt diese ausführliche Antwort:

 

Walter V.: Sehr geehrte Herrn, um es klar vorweg zu nehmen, ich halte Sie für die Totengräber der deutschen Industrie und Wirtschaft. Ich bin aufgrund der " Energiewende " nach 39 Jahren aus der CDU ausgetreten und werde mit meiner 5-köpfigen Familie demnächst zu keiner Wahl mehr gehen. Wir haben bereits einen intelligenten Stromzähler mit dem Ergebniss, dass meine Frau in der Nacht und am Wochenende wäscht und wir trotzdem zweistellige Energiekostensteigerungen erleiden. Es gibt keine Stromspeicher mit mehr als 30 % Wirkungsgrad, eher darunter. Batterien sind am Ende ihrer Lebensdauer Sondermüll und müssen energieintensiv recycelt werden. Gleichstrom-Hochspannungsnetze sind gefährlicher als moderne Kernreaktoren und sind im Kurzschlussfalle nicht schadfrei abschaltbar. Bioenergie steht in Konkurrenz zur Nahrungsmittelproduktion und sollte bei weiter wachsender Weltbevölkerung unterbunden werden. Windkraftwerke sind Kapitalvernichter. Es gibt keine wirtschaftlichen Möglichkeiten Boen und Stürme langfristig ohne Reparaturen auszugleichen. Gaskraftwerke bringen uns in unverantwortliche Abhängigkeit von Russland und sind nur Lösungen für etwa die nächsten 30 Jahre. Ich könnte meine Argumentation stundenlang fortsetzen. Ihr wütender Leser

Die Experten-Antwort von Siemens: Lieber Herr V. vielen Dank für Ihre Meinung. Lassen Sie uns allerdings kurz dazu Stellung beziehen:

 

• Über die Energiewende hat die Politik entschieden. Für uns gilt Primat der Politik

• Sie sprachen die geringen Wirkungsgrade von Energiespeichern an – in der Tat ist die Speicherung von elektrischer Energie mit Verlusten im Zuge der Umwandlung verbunden. Allerdings sind mit Stromspeichern nicht nur Batterien gemeint, die in der Tat recht geringe Wirkungsgrade aufweisen. Pumpspeicherkraftwerke mit rund 90% Wirkungsgrad sind als Zwischenspeicher von Energieüberschüssen ebenso geeignet wie neue Technologien, beispielsweise die Wasserstoff-Elektrolyse, wo wir Wirkungsgrade im Bereich von 70% erwarten. Zwar ist jeder Verlust bei der Zwischenspeicherung bedauerlich, doch mit den Erzeugungsüberschüssen, die infolge der Erneuerbaren Energien zeitweise ins Netz fließen, wäre die Alternative, die elektrische Energie gar nicht zu nutzen.

Stichwort Kosten:

• Wir müssen alles dafür tun, dass sich der zusätzliche Strompreisanstieg in einem moderaten Rahmen bewegt. Wie hoch die Kosten für den Umbau des Energiesystems letztlich ausfallen werden, hängt davon ab, auf welche Weise und wie schnell der Umstieg vollzogen wird.

• Aus volkswirtschaftlicher Sicht bevorzugen wir ein Szenario, bei dem die Erneuerbaren Energien und die Netze massiv ausgebaut werden und die Schwankungen der bei der Erzeugung der Erneuerbaren Energien durch zusätzliche Gaskraftwerke und Speicher ausgeglichen werden.

• Daraus würde sich ein geringer Strompreis-Anstieg ergeben.

• Für die Industrie gilt, dass Deutschland als Standort attraktiv und wettbewerbsfähig bleiben muss – auch für energieintensive Branchen wie z.B. die Stahl- oder Chemieindustrie. Es war richtig und wichtig, dass die Regierung im Energiepaket die energieintensive Industrie, die im internationalen Wettbewerb steht, von CO2-Zertifikatskosten befreit hat.

• Um die Kosten zu begrenzen, ist es wichtig, die Effizienz des gesamten Energiesystems zu erhöhen. Wenn Anlagen und Geräte weniger Energie verbrauchen, können steigende Strompreise zumindest zum Teil kompensiert werden.

Stichwort HGÜ (Hochspannungs-Gleichstrom-Übertragung)

 

• Gleichstrom-Hochspannungssysteme sind seit Jahrzehnten im Einsatz und haben sich als zuverlässige, sichere und verlustarme Transporttechnik für elektrische Energie bewährt. Aufgrund der steigenden Länge von Transportwegen für Strom wird die Verbreitung von HGÜ-Systemen in diesem Jahrzehnt deutlich zunehmen. Die von Ihnen genannte Gefährlichkeit der HGÜ-Technik können wir nicht nachvollziehen.

Stichwort Windkraftwerke:

• Die Windenergie hat sich in den vergangenen Jahren rasch entwickelt. An Standorten mit sehr guten Windverhältnissen ist die Windenergie heute bereits wettbewerbsfähig im Vergleich zur Stromerzeugung aus fossilen Energieträgern( Z.B. Ein von Siemens realisierter Windpark in Neuseeland.)

• Richtig ist, die Kosten für Windenergie müssen weiter gesenkt werden. Dabei können unterschiedliche Hebel betätigt werden. Einer ist die Industrialisierung über den ganzen Projektprozess hinweg, d.h. über die Produktion der Windturbinen, über den Transport bis hin zur Installation vor Ort müssen alles standardisiert und optimiert werden.

• Der wichtigste Hebel, um die Kosten weiter zu verringern ist das Thema Innovation

Stichwort „Abgängigkeit von russischem Erdgas:

• Das in Deutschland genutzte Erdgas stammt zu einem Drittel aus Russland. Ein weiteres knappes Drittel importieren wir aus Norwegen, das letzte Drittel setzt sich in etwa zu gleichen Teilen aus niederländischer und deutscher Förderung zusammen, wobei geringe Mengen derzeit noch aus Dänemark und Großbritannien stammen.

• Eine Abhängigkeit von einem einzelnen Lieferanten befürchten wir nicht, weil die anderen Bezugsquellen ähnliche Anteile tragen und zudem jedes Lieferland noch über weitere Exportkapazitäten verfügt. Ein unschätzbarer Vorteil von Erdgas ist die massive Speicherinfrastruktur. Deutschland verfügt weltweit über die viertgrößten Erdgasspeicher und kann derzeit ein Viertel seines Jahresbedarfs speichern. Derzeitige Projekte werden das Speichervermögen sogar auf 40% des Jahresbedarfs steigern.

• Infolge neu entdeckter und erschlossener Gasfelder sowie unkonventioneller Vorkommen schätzt die Internationale Energieagentur (IEA) die Reichweite von Erdgas beim aktuellen Verbrauchsniveau auf mindestens 75 Jahre

Inwieweit Dr. Michael Süß von der Siemens AG Sektor Energy die gestellten Fragen  korrekt und umfassend beantwortet hat, mögen die Leser selbst entscheiden.

Die Redaktion




IPCC Pseudo-Klima-Wissenschaft? Wie der WWF das IPCC unterwandert

Der ‚Kriminelle’ Teenager ist das IPCC. Die Studie von Donna LaFramboise ändert die Spielregeln.

Interview von Andrew Bolt mit  Donna Lafromboise (weitere Details dazu hier) über die Übernahme des IPCC durch den WWF (mit Dank an C. Frey & R. Hofmann für die deutsche Untertitelung).

Update: 

Zur WWF Übernahme  des IPCC eine klare Bestätigung anhand von Fakten: (entnommen aus Delinquent teenager….S 70)

After a few days of searching, cross-checking, and tabulating here are my findings with respect to the IPCC’s 2007 report:

 28 out of 44 chapters (two-thirds) included at least one individual affiliated with the WWF  100% of the chapters in Working Group 2 – all 20 of them – included at least 1 WWF-affiliated scientist

 15 out of 44 chapters (one-third) were led by WWF-affiliated scientists – their coordinating lead authors belong to the panel

 in three instances, chapters were led by two WWF-affiliated coordinating lead authors Ladies and gentlemen, the IPCC has been infiltrated. It has been wholly and entirely compromised.

[FOOTNOTE 31-5]

Es geht nicht um die Wissenschaft der anthropogen verursachten globalen Erwärmung, sondern es ist lediglich die erste ernsthafte Veröffentlichung zur organisatorischen Integrität des IPCC, einer irgendwie einflussreichen Institution.

Laframboise ist eine investigative Journalistin und Feministin. Sie hatte die Ratte bzgl. des IPCC schon vor zwei Jahren gerochen. Je mehr sie ermittelte, umso größer wurde der Gestank.

Weitere Hinweise hatte sie von IPCC-Insidern erhalten, die im vergangenen Jahr 678 Seiten mit Antworten auf einen Fragenkatalog des InterAcademy Council IAC (einer Art Dachorganisation von Spitzenwissenschaft) gepostet haben. Das IAC hat untersucht, wie dem IPCC solch ungeheuerliche Irrtümer wie z. B. dem Schmelzen der Gletscher des Himalaya unterlaufen konnten.

Der Bericht des IAC aus dem Jahr 2010 fand „signifikante Defizite bei jedem wesentlichen Schritt im Zuge des Beurteilungsprozesses“ (Hervorhebung hinzugefügt). Also ist Laframboise kein wild gewordener Schreihals; sondern sie befindet sich in respektabler Gesellschaft.

Laframboise unterlegt alle ihre signifikanten Quellen, auf die sie sich bezieht, mit gesicherten Links.

Zum  Beispiel wird der Vorsitzende des IPCC, Rajendra Pachauri, in Nature vom 19.12.2007 (damals schon!) mit den Worten zitiert:

Wir waren so trunken mit unserem Wunsch, immer mehr und mehr zu produzieren und zu konsumieren, egal welche Auswirkungen auf die Umwelt das hat, dass wir uns auf einem völlig unhaltbaren Weg befinden“, sagt er. „Ich werde mich nicht zurücklehnen, bis ich in jedem möglichen Forum die Notwendigkeit zum Ausdruck gebracht habe, dass wir grundlegende strukturelle Änderungen hinsichtlich des wirtschaftlichen Wachstums und der Entwicklung vornehmen müssen. Das ist es, worum es wirklich geht. Die Klimaänderung ist lediglich ein Teil davon.

(Hervorhebung hinzugefügt)

Ich habe den Link getestet, es ging problemlos. Niemand übertreibt hier mit diesem Zeug.

Wir wollen jetzt zum Inhalt komm

Begutachtungen und das IPCC 

Im Jahre 2008 hielt Pachauri eine Rede vor einem Ausschuss des Parlaments von North Carolina:

…wir führen eine Beschreibung des Klimazustands durch, basierend auf wissenschaftlich begutachteter  Literatur, daher muss alles, was wir sichten und in unsere Überlegungen mit einbeziehen, die Glaubwürdigkeit begutachteter Veröffentlichungen tragen; wir geben uns nicht mit weniger zufrieden.

Die Wirklichkeit:

  • Von den 18 531 als Referenz genannten Unterlagen im Zustandsbericht aus dem Jahr 2007 bestand 5 587 oder 30% aus nicht begutachtetem Material, einschließlich Traktate von Aktivisten, Presseerklärungen und in einem ganz besonderen Fall sogar aus einer „ersten Version“ eines Entwurfs.

  • 12 der 44 Kapitel enthielten in der Mehrheit nicht begutachtete Referenzen. Fünf Kapitel bezogen sich auf 71 bis 85% nicht begutachteter Unterlagen. Alles in allem bestanden 21 Kapitel aus 59% oder weniger aus begutachtetem Material. Umgekehrt bezogen sich nur 8 Kapitel auf 90% oder mehr begutachteten Materials.

  • Nicht einer der Hunderten oder sogar Tausenden Wissenschaftler beim IPCC, die das wussten, machte sich die Mühe zu versuchen, diese irreführenden Behauptungen von Pachauri vor Entscheidungsgremien zu korrigieren.

  • In wichtigen Instanzen wählten die leitenden Autoren des IPCC nicht begutachtetes Material oder Studien geringer Glaubwürdigkeit, nur weil diese ihre Argumentation unterstützten, und das angesichts des reichen, wissenschaftlich begutachteten Materials, dass das Gegenteil aussagte.

  • Die Regeln des IPCC waren, dass nicht begutachtete Referenzen tatsächlich benutzt werden durften unter der Voraussetzung, dass sie entsprechend gekennzeichnet waren. Aber von den 5587 nicht begutachteten Referenzen waren es insgesamt nur 6 oder 0,1%, die den Regeln entsprechend markiert waren. Nachdem das IAC im Jahre 2010 verlangt hatte, dass die Kennzeichnung verstärkt und verbessert werden müsste, hat das IPCC diese Regel im Jahre 2011 insgesamt aufgegeben!

Die große Statur der IPCC-Autoren

Das IPCC behauptet unentwegt, dass seine Wissenschaftler hervorragende, weltweit führende Spezialisten sind.

Die Wirklichkeit: 

  • Richard Klein, mit einem Master-Abschluss,  wurde im Alter von 25 Jahren zum leitenden Autor, nach einer Zeit, in der er als Greenpeace-Aktivist gearbeitet hatte.

  • Laurens Bouwer war von 1999 bis 2000 IPCC-Leitautor sogar bevor er seinen Masterabschluss 2001 erreicht hatte. Obwohl er ein Spezialist bzgl. Wasserressourcen war, wurde er zum Leitautor des Kapitels über Versicherungen und andere Finanzdienstleistungen gemacht. Warum? Offensichtlich weil er im Jahr 2000 zeitweise als Hospitant bei der Versicherung Munich Re tätig gewesen war.

  • Näher an der Heimat war Lisa Alexander im Jahr 2008 Forschungsassistentin in Monash und erreichte ihren PhD 2009. Und doch hatte das IPCC sie bereits 1999, also ein Jahrzehnt zuvor, als beitragende Autorin (zum Bericht 2001) gesalbt, und später wurde sie Leitautorin für den Bericht aus dem Jahr 2007.

IPCC-Wissenschaftler, die Greenpeace- und WWF-Hüte tragen

Sind die IPCC-Wissenschaftler unabhängig, d. h. in der Lage, die Literatur objektiv zu beurteilen und nicht anfällig für öffentliche verzerrende Sichtweisen?

  • Der Tenor war von Pachauri vorgegeben worden, der 2007 und 2008 Vorworte zu Greenpeace-Veröffentlichungen verfasst hatte.

  • Bill Hare war seit 1992 Greenpeace-Sprecher, 2007 dessen ‚leitender Klimaunterhändler‘ und eine Greenpeace-‚Legende‘ – aber auch leitender Autor im IPCC-Bericht 2007, ein Experte der Begutachtung von zwei der drei Teile des Berichtes, und eines von den nur 40 Mitgliedern des „Kerns des schreibenden Teams“ für die als Synthesebericht bekannte Zusammenfassung. Er ist leitender Autor des Berichtes 2014.

  • Der australische Meeresbiologe Ove Hoegh_Guldberg wird in neun Kapiteln des Berichtes von 2007 hervorgehoben. Er war ein beitragender Autor und wird im Bericht von 2014 ein ‚koordinierender Leitautor‘. Laframboise sagt, dass er zwischen 1994 und 2000 vier Berichte zum Zustand der Korallenriffe für Greenpeace geschrieben hatte, und später zwei für den World Wildlife Fund. Er wird ein Kapitel im Bericht von 2014 leiten.

Im IPCC-Bericht von 2007:

  • In 28 von 44 Kapiteln war mindestens ein Individuum verbunden mit dem WWF.

  • Alle 20 Kapitel der Arbeitsgruppe 2 wurden von mindestens einem mit dem WWF verbundenen Wissenschaftler geschrieben.

  • 15 von 44 Kapiteln wurden von mit dem WWF verbundenen Wissenschaftlern geleitet.

  • In drei Fällen wurden Kapitel von zwei mit dem WWF verbundenen Wissenschaftlern geleitet.

Der ‚rigorose’ Begutachtungsprozess beim IPCC

Der vom IPCC proklamierte rigorose „Begutachtungs”-Prozess umfasst tausende Experten, ist aber zahnlos und uninspiriert.

  • Die Begutachter des IPCC haben die den Studien zugrunde liegenden Daten nicht untersucht – und ein Begutachter, der die Rohdaten einer Studie kritisierte, wurde mit seiner Entlassung bedroht.

  • Falls ein Begutachter auf einen Fehler in der Zusammenfassung eines Leitautors hinwies, konnte der Leitautor als Richter über seinen/ihren eigenen Fall einfach sagen „abgelehnt!“. Es gab und gibt keinen unabhängigen Schiedsrichter. (Der Brüller mit den Himalaya-Gletschern war von IPCC-Begutachtern im Anfangsstadium entdeckt worden, aber die IPCC-Autoren hatten ihn stehen lassen). 

  • In UK wurde ein umstrittener Stern-Report veröffentlicht, nachdem alle IPCC-Ultimaten des 2007-Berichtes abgelaufen waren. Nichtsdestotrotz hatte Stern über 12 Kapitel 26 Referenzen gefunden, die weder Gegenstand einer wissenschaftlichen Begutachtung noch einer solchen des IPCC selbst unterzogen worden waren.

Ein aufrechter IPCC-Wissenschaftler

In all diesem dunklen Gemenge gab es nur einen IPCC-Wissenschaftler, Chris Landsea, ein ausgewiesener Hurrikan-Spezialist, der sich aus dem IPCC zurückgezogen hat und mit dem unethischen Verhalten des IPCC an die Öffentlichkeit gegangen war.

Kevin Trenberth, kein Hurrikan-Spezialist, trat 2004 mit der ohne jede wissenschaftliche Untermauerung gemachten Behauptung vor die Presse, dass die jüngsten Hurrikanereignisse die globale Erwärmung spiegeln. Er war Leitautor für das Kapitel zu Hurrikanen im Bericht von 2007. Nicht ein einziger IPCC-Wissenschaftler hatte sich erhoben um zu erklären, dass er seine Objektivität als ‚Richter‘ diskreditiert hatte.

Zwei Jahre später haben die ‚moralischen Liliputaner’ des IPCC, wie Laframboise sie nannte, ihren Nobelpreis eingeheimst.

Autor Tony Thomas

Tony ist ein Wirtschaftsjournalist im Ruhestand und Autor von: Stolen Generations: The Pocket Windschuttle.

Link: https://www.quadrant.org.au/blogs/doomed-planet/2011/10/delinquent-science

Übersetzt von Chris Frey für EIKE




Klimaforscher Rahmstorf vom Kölner Landgericht verurteilt

Download hier.

Auf der Achse des Guten haben wir immer wieder über Rahmstorfs Methoden berichtet und waren auch Gegenstand seiner Attacken.  Siehe dazu auch:

Herr Rahmstorf bastelt sich eine Verschwörung und Der Untergangsterror

Dirk Maxeiner

Mit Dank übernommen von ACHGUT




Matt Ridley über Wissenschafts-Ketzerei!

Sehen wir uns ein paar Aspekte näher an und beginnen mit einfachen Beispielen:

  • * Astronomie ist Wissenschaft – Astrologie ist eine Pseudowissenschaft
  • * Evolution ist Wissenschaft – Kreationismus ist eine Pseudowissenschaft
  • * Molekularbiologie ist Wissenschaft – Homöopathie ist eine Pseudowissenschaft
  • * Impfungen sind Wissenschaft – die Angst vor MMR-Impfungen ist  Pseudowissenschaft
  • * Sauerstoff ist Wissenschaft – Phlogiston war Pseudowissenschaft
  • * Chemie ist Wissenschaft – Alchemie war Pseudowissenschaft

Können Sie mir so weit folgen? Noch ein paar Beispiele. Dass der Earl of Oxford Shakespeare geschrieben haben soll ist Pseudowissenschaft. Genauso der Glaube daran, dass Elvis noch immer lebt, Diana durch den MI5 umgebracht, JFK vom CIA getötet wurde und die Anschläge vom 9.11. von Insidern verübt worden sind. Gleiches gilt für Geister, UFOs, Telepathie, das Umgeheuer von Loch Ness und so ziemlich jedes paranormale Phänomen. Entschuldigen Sie dass ich das gerade an Halloween sage, aber so ist nun einmal meine Meinung.

Drei mehr kontroverse Beispiele. Aus meiner Sicht war das meiste was Freud gesagt hat Pseudowissenschaft. Das gilt auch für die meisten, wenn auch nicht alle, Aspekte des Biolandbaus. Und nach bestimmten Definitionen gilt das auch für religiösen Glauben. Und zwar für die ausdrückliche Forderung es gäbe Wahrheiten, die durch etwas anderes als Untersuchungen und Experimente gefunden werden könnten.

Jetzt kommt ein Punkt, der mir eine Offenbarung beschert hat: Kornkreise.

Es war für mich völlig offensichtlich als ich dieses Phänomen zuerst untersuchte, dass die wahrscheinlichste Erklärung für Kornkreise ist dass diese von Menschen gemacht sind. Ich habe einige selbst angefertigt um zu beweisen wie einfach das geht.

Das war lange bevor Doug Bower und Dave Chorley eingestanden hatten dass sie die ganze Sache nach einem Abend in der Kneipe ins Rollen gebracht haben. Jede andere Erklärung – Kraftfelder, außerirdische Raumschiffe, Plasmawirbel oder Kugelblitze – war Mumpitz. Das Gesamte Feld der Cereologie ["Wissenschaft" von den Konrkreisen"] war Pseudowissenschaft, wie man beim Kontakt mit den bizarren Gestalten welche sie praktizieren leicht feststellen konnte.

Stellen Sie sich einmal meine Überraschung vor als ich heraus fand, dass ich ein Ketzer war, und dass ernsthafte Journalisten, die nicht für Boulevardzeitungen, sondern für das Science magazine und für Channel 4 Dokumentationen arbeiteten, das Argument der Cereologen schluckten, es wäre äußerst unplausibel, dass alle Kornkreise durch Menschen gemacht wären.

Dabei lernte ich Lektion Nummer 1: Die umwerfende Leichgläubigkeit der Medien.

Man muss nur ein ‘ologie’ an seine Pseudowissenschaft anhängen und sofort bringt man Journalisten dazu, als Propagandisten für einen aufzutreten.

Ein Team von Channel 4 tat etwas nahe liegendes. Sie ließen einige Kornkreise von Studenten anfertigen und fragten dann einen Cereologen ob diese ‘authentisch’ wären oder ob es sich um ‘Schabernack’ handelte, das heißt von Menschen gemacht.  Er versicherte ihnen sie könnten nicht von Menschen gemacht worden sein. Als sie ihm erzählten, dass sie die Kreise selbst in der Nacht zuvor angefertigt hatten war er völlig vor den Kopf gestoßen. Es war großes Fernsehen. Und trotzdem übernahm der Produzent, er wurde später Minister unter Tony Blair, gegen Ende der Sendung den Standpunkt der der Cereologen: “Selbstverständlich sind nicht sämtliche Kornkreise Schabernack”. – Wie bitte? Gleiches passierte nachdem Doug und Dave zugaben, dass sie die Urheber waren. Die Leute glaubten einfach weiter. Sie tun es noch heute.

Lektion Nummer 2: Entlarvung perlt von der Pseudowissenschaft ab wie Wasser vom Gefieder einer Ente

In der Medizin habe ich gelernt, dass die Unterscheidung zwischen Wissenschaft und Pseudowissenschaft nicht immer einfach ist. Das wird auf wunderbare Weise in einem ganz außergewöhnlichen Roman Touching Distance von Rebecca Abrahams illustriert, der auf einer realen Geschichte eines Medizin-Häretikers aus dem 18. Jahrhundert basiert, Alec Gordon aus Aberdeen.

Gordon war ein echter Pionier der Idee, dass Kindbett-Fieber durch die Mediziner selbst übertragen wurde und dass Hygiene die Lösung darstellte. Er machte diese Entdeckung lange vor Semmelweiss und Lister. Aber er wurde ignoriert. Er wird in Abrahams’ Roman nicht als der reine rationale Held dargestellt, sonder als ein mit Mängeln behafteter Mensch, ein nachlässiger Ehemann und ein Sonderling mit seltsamen Ideen, wie der gefährliche Besessenheit seine Patienten zur Ader zu lassen. Er war in einem Moment ein Pseudowissenschaftler, und ein Wissenschaftler im Nächsten.

Lektion Nummer 3. Wir alle können beides sein. Newton war ein Alchemist.

Wie die Antiseptik begannen viele wissenschaftliche Wahrheiten als Ketzerei und mussten harte Kämpfe zur Akzeptanz gegen fest verwurzeltes etabliertes Wissen durchfechten, welches uns heute als irrational erscheint. Die Kontinentaldrift ist so ein Beispiel. Barry Marshall wurde nicht nur ignoriert, sondern verunglimpft als er anfangs behauptete, dass Magengeschwüre durch ein bestimmtes Bakterium verursacht werden. Säurehemmende Medikamente waren für die Pharmaindustrie sehr profitabel. Letztendlich bekam er den Nobelpreis.

Erst kürzlich erhielt Daniel Shechtman den Nobelpreis für die Entdeckung der Quasi-Kristalle. Er hat die meiste Zeit seiner Karriere damit verbracht als Sonderling geschmäht zu werden. “Man warf mich aus meiner Forschergruppe. Man sagte mir, ich würde sie mit dem was ich äußerte blamieren.”

Das ist Lektion Nummer 4: Ketzer haben manchmal auch recht.

Was Pseudowissenschaften aufrecht erhält ist die Bestätigung ihrer Befangenheit [confirmation bias]. Wir suchen nach Beweisen und begrüßen solche, die unsere Theorie bestätigen. Wir ignorieren solche Beweise oder stellen diese in Frage, die unserer Theorie widersprechen. Uns allen passiert das ständig. Es ist nicht so, wie wir oft annehmen, dass dies nur unseren Gegnern widerfahren würde. Es passiert mir und es passiert Ihnen. Es würde übermenschliche Anstrengungen erfordern, damit es einem nicht passiert. Es ist jene Kraft welche Mythen am Leben erhält, Verschwörungstheorien bestehen lässt und ganze Bevölkerungsgruppen seltsamen Aberglauben anhängen lässt. Bertrand Russel brachte es vor vielen Jahren auf den Punkt:

“Wenn ein Mensch mit Fakten konfrontiert wird, welche seinen Instinkten widersprechen, wird er diese eingehen prüfen, und falls die Beweislage nicht überwältigend ist, wird er sich weigern daran zu glauben. Sollte er anders herum etwas erfahren, was ihm einen Grund liefert seinen Instinkten zu glauben, wird er dies beim geringsten Hinweis akzeptieren.”

Lektion Nummer 5: Achten Sie bei sich und bei anderen genau darauf, ob eine Sache vielleicht doch nur Ihre vorgefertigte Meinung bestärkt.

Zu diesem Thema gab es in jüngster Zeit einige gute Bücher. Michael Shermers The Believing Brain, Dan Gardners Future Babble und Tim Harfords Adapt sind Erkundungen über die Kraft der vorgefertigten Meinung. Was mir dabei am meisten Unbehagen bereitet ist Gardners Fazit dass Wissen einen davor nicht schützt. Tatsächlich ist es so, dass man, je mehr man über eine Sache weiß, umso befangener an diese herangeht. Das Expertentum selbst gibt einem erst die Werkzeuge an die Hand, die Bestätigung für das zu suchen woran man ohnehin glaubt.

Experten sind schlechter darin, die Zukunft vorherzusehen als Nicht-Experten. Philip Tetlock machte dazu ein aufschlussreiches Experiment. Er erfasste die Meinungen von 284 Experten – Politikern, Wissenschaftlern, Ökonomen und Journalisten – und erhielt so 27.450 unterschiedliche spezifische Beurteilungen über die Zukunft, und er wartete ab, ob diese sich bewahrheiten würden. Die Ergebnisse waren ernüchternd. Die Experten waren nicht besser als ‘Schimpansen die Pfeile warfen’.

Der Club of Rome machte auf dem Buchrücken seines Mega-Bestsellers Die Grenzen des Wachstums im Jahr 1972 folgende Vorhersage:

Wird dies die Welt sein, für die Ihre Enkel Ihnen danken werden? Eine Welt, in der die Industrieproduktion auf Null zurückgegangen ist. Wo die Bevölkerung einen katastrophalen Rückgang erlebt hat. Wo die Luft, das Meer und das Land bis zur Auslöschung verseucht sind. Wo die Zivilisation eine ferne Erinnerung ist. Dies ist die Welt, welche die Computer vorhersagen.

“Wissenschaft ist der Glaube an die Ignoranz der Experten” sagte Richard Feynman.

Lektion Nummer 6: Verlasse Dich nie auf den Konsens der Experten über die Zukunft. Zukunftsforschung ist Pseudowissenschaft.

Mit Hilfe dieser sechs Lektionen werde ich jetzt in ein Thema eintauchen, bei welchem beinahe alle Experten nicht nur überzeugt sind die Zukunft vorhersagen zu können, sondern auch absolut sicher sind ihre Gegner wären Pseudo-Wissenschaftler. Es handelt sich um ein Thema, bei dem ich jetzt ein Häretiker bin. Ich glaube hierbei ist die etablierte Sicht überwuchert von der Pseudowissenschaft. Das Thema ist der Klimawandel.

Bevor Sie jetzt alle zu den Ausgängen strömen, und ich weiß dass dies die übliche Reaktion auf Vorträge hier an der RSA [Royal Society of the Arts] ist, welche nicht der üblichen Sicht auf den Klimawandel folgen – ich sah, was bei Björn Lomborg im letzten Jahr beim Prince Philip Vortrag passierte – lassen Sie mich etwas klarstellen. Ich bin kein ‘Leugner’. Ich akzeptiere voll und ganz, dass CO2 ein Klimagas ist. Das Klima ist wärmer geworden und der Mensch ist sehr wahrscheinlich zumindest zum Teil dafür verantwortlich. Als vor kurzem eine Studie veröffentlicht wurde die aussagte, dass 98% der Wissenschaftler an die globale Erwärmung glaubten, sah ich mir die gestellten Fragen an und stellte fest, dass ich nach dieser Definition zu den 98% gehöre, obwohl ich selbst niemals das Wort glauben benutze. Genauso hat eine aktuelle Studie aus Berkeley, welche schloss, dass die Oberfläche der Kontinente sich in etwa so stark erwärmt hat, wie man es bislang angenommen hat, für mich nichts verändert.

Was ist also das Problem?

Das Problem ist, dass man all die Grundannahmen der Physik der Treibhausgase akzeptieren, und trotzdem folgern kann, dass die Bedrohung durch eine gefährlich großen Erwärmung so unwahrscheinlich ist dass man sie vernachlässigen kann. Wohingegen die Gefahr einer realen Bedrohung durch die Politik der Vermeidung eines Klimawandels bereits so  beängstigend groß ist, dass die vorgeschlagene Lösung des Problems sich als weit schlimmer erweist, als die eigentliche Bedrohung jemals sein kann. Oder, wie ich es einmal ausgedrückt hab: “Wir ziehen uns eine Schlinge um den Hals, um ein Nasenbluten zu stoppen.”

Ich denke auch, dass die Klimadebatte eine massive Ablenkung von weit mehr drängenden Umweltproblemen darstellt, wie etwa invasive Arten oder der Überfischung der Meere.

Ich war nicht immer ein ‘Verharmloser’ [lukewarmer].

Zur Mitte der 2000er Jahre führte eine Darstellung im besonderen dazu, dass ich meine Zweifel über den gefährlichen durch Menschen gemachten Klimawandel über Bord warf: Der Hockeyschläger. Dieser zeigte klar und deutlich, dass etwas noch nie dagewesenes passierte. Ich kann mich genau erinnern wie ich das Bild zuerst auf einer Konferenz sah und dachte: “Aha, jetzt haben wir endlich eine wirklich klare Datenlage die zeigt, dass die heutigen Temperaturen sowohl in der Höhe, als auch in der Rate des Anstiegs, beispiellos sind.”  Und es war im Nature Magazine veröffentlicht.

Nur, ist diese Darstellung heute durch die Arbeit von Steve McIntire und Ross McKitrick vollständig als Fälschung entlarvt worden. Ich empfehle Ihnen sehr Andrew Monfords sorgfältiges und absolut lesenswertes Buch The Hockey Stick Illusion zur Lektüre.

Dies ist nicht der Ort, um ins Detail zu gehen, aber kurz gesagt ist das Problem beides, ein mathematisches und ein empirisches. Dar Graph stützt sich außerordentlich auf fehlerhafte Daten – speziell ausgewählte Baumringe von Borstenkiefern [bristlecone pines] – und auf spezielle Methoden der Hauptkomponenten-Analyse, die jegliche Art von Daten sehr stark in eine Hockeyschläger-Form zu bringen tendiert. Und wenn ich sage ‘sehr stark’ dann meine ich um den Faktor 390.

Dies hatte einen großen Einfluss auf mich. Dies war der Moment als jemand mir sagte, sie haben den Kornkreis in der Nacht zuvor erschaffen. Schließlich gab es, abgesehen vom Hockeyschläger, keinen Beweis, dass das Klima sich auf irgend eine Art gefährlich schneller verändert, als in der Vergangenheit, als es sich auf natürliche Art verändert hat.

  • Es war im Mittelalter wärmer als heute und der Klimawandel in Grönland verlief damals um einiges schneller.
  • * Stalagmiten, Baumgrenzen und Eisbohrkerne bestätigen alle, dass es vor 7.000 deutlich wärmer war als heute. Belege aus Grönland legen nahe, dass das Meer in der Arktis zumindest teilweise im Sommer zu der Zeit eisfrei war.
  • Der Meeresspiegel steigt heute mit einer ungefährlichen Rate von etwa 30 cm in 100 Jahren und die Geschwindigkeit nimmt ab.
  • * Grönland verliert sein Eis mit einer Geschwindigkeit von von etwa 150 Gigatonnen pro Jahr, was 0,6% pro Jahrhundert entspricht.
  • * Es gab keine nennenswerte Erwärmung der Antarktis, mit Ausnahme der antarktischen Halbinsel.
  • * Die Methan-Konzentration in der Atmosphäre nimmt kaum zu.
  • * Die Intensität und Frequenz tropischer Stürmen haben in den letzten 20 Jahren abgenommen, nicht zugenommen.
  • * Die Wahrscheinlichkeit an einer Trockenheit, einer Überflutung oder an einem Sturm zu sterben ist global gesehen heute 98% niedriger als noch in den 1920ern.
  • * Malaria hat nicht zu- sondern abgenommen, während die Welt sich erwärmt hat.

Und so weiter. Ich habe es über und über geprüft, aber ich finde keine Daten – im Gegensatz zu den Modellen – welche zeigen dass Veränderungen noch nie dagewesen wären, oder dass diese auch nur annähernd ein echte Bedrohung darstellen würden

Zweifellos gibt es eine Reihe von Menschen die denken “Wie sieht es mit jenem Faktor aus”. Nun, sollten sie eben jenen Faktor aufzeigen können der zeigt, dass Sie einen gefährlichen Anstieg von irgend etwas gefunden haben, dann erzählen Sie mir davon. Als ich diese Frage einem gestandenen Regierungswissenschaftler stellte, antwortete er mit dem Paläozen-Eozän-Temperatur-Maximum. Dabei handelt es sich, einfach ausgedrückt, um eine wenig verstandene warme Episode vor etwa 55 Milllionen Jahren von unklarer Länge, einem unklaren Ausmaß und aus unklaren Gründen.

In der Zwischenzeit sehe ich überall vorgefertigte Meinungen an jeder Stelle der Klimadebatte. Hurrikan Kathrina, den Kilimandscharo, das Aussterben der Goldkröte – alles herangezogen als Beweise für den Klimawandel. Ein schneereicher Dezember und der BBC erklärt uns, das wäre nur Wetter; eine Flut in Pakistan oder eine Trockenheit in Texas hingegen ist die Art Wetter wovon wir in Zukunft mehr erwarten können. Eine Theorie die so flexibel ist, dass sie jedes Ereignis erklären kann, ist in der Tat eine pseudowissenschaftliche Theorie.

Um die Auswirkungen von vorgefertigter Beurteilung in Aktion erleben zu können muss man nur die Climategate E-Mails lesen. Diese Dokumente haben meinen Glauben an die wissenschaftlichen Institutionen untergraben. Es ist schon schlimm genug, dass die E-Mails unzweifelhaft Wissenschaftler dabei gezeigt haben, wie sie sich bei der selektiven Datenauswahl [cherry-picking] abgesprochen, das System der Begutachtung [peer-review] untergraben, Herausgeber von Zeitschriften eingeschüchtert haben und Anfragen aus dem Weg gegangen sind, die nach dem Gesetz hätten beantwortet werden müssen [freedom of information requests]. Was noch schlimmer für einen Wissenschafts-Groupie wie mich ist, ist die Tatsache dass so ziemlich der ganze Rest der Wissenschaftsgemeinschaft dieses Handeln in Ordnung fand. Sei haben im Wesentlichen mit den Schultern gezuckt und gesagt:  “Ja, schlimme Sache, aber so sind Jungs nun mal…”

Und es gibt auch überhaupt keinen theoretischen Unterbau dafür, dass wir eine gefährliche Zukunft erwarten müssen. Der ganz zentrale Aspekt dabei ist die Klimasensitivität: Um wie viel kann man erwarten dass es wärmer wird, wenn man den CO2-Gehalt verdoppelt. Hierüber gibt es zumindest so etwas wie einen Konsens. Er lautet: 1,2 Grad Celsius. Das IPCC hat es in seinem letzten Bericht folgendermaßen ausgedrückt:

“In der idealisierten Situation dass die Klima-Reaktion auf eine Verdopplung des Atmosphärischen CO2 nur aus einer gleichmäßigen Temperaturzunahme besteht, ohne Rückkopplungen (…) würde die globale Erwärmung nach den Modellen [GCMs] etwa 1,2 °C betragen”

“In the idealised situation that the climate response to a doubling of atmospheric CO2 consisted of a uniform temperature change only, with no feedbacks operating…the global warming from GCMs would be around 1.2°C.”
Paragraph 8.6.2.3

In diesem Kapitel wird weiter argumentiert, dass große positive Rückkopplungen, hauptsächlich durch Wasserdampf, diesen Effekt wahrscheinlich verstärken. Aber während es einen guten Konsens über die 1,2 °C gibt, existiert überhaupt kein Konsens über den Nettoeffekt der positiven Rückkopplungen, wie das IPCC auch offen zugibt.

Wasserdampf kann auch zu Wolken werden, und ob Wolken in der Praxis den Treibhauseffekt verstärken oder abdämpfen bleibt zweifelhaft.

 

Man kann also sagen es gibt einen Konsens über ein wenig globale Erwärmung, aber es wäre falsch zu sagen, es gäbe einen Konsens über eine gefährliche globale Erwärmung.

Die Klimasensitivität könnte harmlose 1,2 °C betragen, wovon wir die Hälfte bereits erreicht haben, oder es könnte weniger sein, wenn die Rückkopplungen negativ sind, oder es könnte mehr sein, wenn die Rückkopplung positiv sind.

Was sagen uns die empirischen Belege? Seit 1960 hatten wir im Groben ein Drittel der Verdopplung von CO2 erfahren, also müssten wir bereits etwa die Hälfte der Treibhaus-Erwärmung erleben, die wir von einer Verdopplung zu erwarten hätten. Das ist elementare Arhitmetik bei der Annahme, dass die Kurve einen logarithmischen Verlauf hat.

Wenn man jetzt den Messungen der Globaltemperatur durch Thermometern glaubt (die rote und die grüne Linie), hatten wir in diesem Zeitraum etwa 0.6 °C Erwärmung, mit einer Steigerungsrate von weniger als 0,13 °C pro Jahrzehnt; und etwas weniger wenn man den Satellitenmessungen glauben schenkt (die blaue und die violette Linie).

Wir sind also auf der Spur für 1,2 °C. Wir befinden uns demnach auf der blauen, nicht auf der roten Linie.

Erinnern wir uns, dass Jim Hansen von der NASA uns 1988 erzählt hat, dass wir 2-4 °C Erwärmung in 25 Jahren zu erwarten hätten. Wir haben etwa ein Zehntel davon gesehen. Wir befinden uns sogar unterhalb des Wertes den das IPCC 1990 für Null weitere Emissionen angenommen hat.

Aber, sagt uns der Konsens, Schwefelemissionen haben die Erwärmung reduziert und so die Auswirkungen verzögert. Oder die Ozeane haben die überschüssige Wärme aufgenommen. Keine dieser nachträglich getroffenen Erklärungen passt zu den Daten: die südliche Hemisphäre hat sich in den letzten 30 Jahren nur halb so stark erwärmt wie die nördliche Hemisphäre.

Und die Zunahme des Wärmegehalts der Ozeanen hat sich verlangsamt, wenn nicht sogar im letzten Jahrzehnt ganz aufgehört. Im Gegensatz dazu erscheinen mir manche Argumente der Ketzer als ein Ausbund an Wissenschaft wie sie sein sollte: transparent, hinterfragend und nachprüfbar.

Zum Beispiel hat sich in diesem Jahr ein hartnäckiger Britischer Mathematiker namens Nic Lewis mit der Frage der Klimasensitivität beschäftigt und dabei herausgefunden, dass die einzige rein empirische Abschätzung der Sensitivität welche vom IPCC zitiert wird, mit Hilfe einer unzulässigen mathematischen Operation verändert wurde, wodurch die Kurve am Ende zur höheren Temperatur hin dicker gemacht wurde.

Dadurch wurde rechnerisch die Wahrscheinlichkeit höherer Temperaturen auf Kosten von niedrigeren Werten erhöht. Wenn man dies korrigiert ist die theoretische Wahrscheinlichkeit einer Erwärmung um mehr als 2,3 °C in der Tat sehr klein.

Wie sämtliche anderen Fehler im IPCC Bericht, einschließlich der berüchtigten Annahme dass alle Gletscher im Himalaya im Jahr 2035 anstatt im Jahr 2350 verschwunden wären, überhöht auch dieser Fehler die Folgen einer potenziellen Erwärmung. Es kann kein Zufall sein dass all diese Fehler nur in eine Richtung zeigen sollen.

Die Quelle für den Fehler bei den Himalya Gletschern war ein nicht begutachteter WWF-Bericht. Und dieser erschien in einem Kapitel bei dem zwei koordinierend leitende Autoren und ein Gutachter als wissenschaftliche Berater des WWF-Klimazeugen-Panel fungierten. Man sollte sich ebenfalls ins Gedächtnis rufen, dass der Fehler mit den Gletschern durch Gutachter angemahnt wurde, welche man jedoch ignorierte. Und dass Rajendra Pachauri, der Chef des IPCC, die Kritiker als Betreiber von Voodoo Wissenschaft abgetan hat.

Journalisten sagen gern, dass der IPCC Bericht ausschließlich auf begutachteter [peer-reviewed] Literatur beruhen würde. Rajendra Pachauri selbst hat 2008 noch diese Behauptung aufgestellt:

“…wir führen eine Begutachtung über den Klimawandel durch die auf begutachteter Literatur beruht, daher muss alles was wir uns ansehen und in unserer Begutachtung berücksichtigendie Glaubwürdigkeit von begutachterten Publikationen tragen, wir gebe3n uns nicht mit weniger zufrieden.”

“…we carry out an assessment of climate change based on peer-reviewed literature, so everything that we look at and take into account in our assessments has to carry [the] credibility of peer-reviewed publications, we don’t settle for anything less than that.”

Das ist eine ‘Voodoo-Behauptung’. Die Gletscher-Behauptung war nicht begutachtet, genauso wenig waren es die Abänderungen in der Funktion zur Klimasensitivität, welche Lewis entdeckt hat. Die Journalistin Donna Laframboise fand in der ganzen Welt Freiwillige die ihr halfen zu ermitteln, wie oft das IPCC nicht-begutachtete Literatur genutzt hatte. Ihr Ergebnis war:  “Von den 18.531 Quellen in der Klimabibel von 2007 fanden wir 5.587 – satte 30% – die nicht-begutachtet waren.”

Und trotzdem ist selbst das Aussprechen von Dingen wie diesen heute gleichzusetzen mit Ketzerei. Aufzustehen und etwa innerhalb einer Universität oder innerhalb des BBC zu sagen, man würde nicht glauben die globale Erwärmung wäre gefährlich, erzeugt eine Art Reaktion, als stünde man im Vatikan und würde sagen man glaube nicht dass Gott gut ist. Glauben Sie mir, ich habe es ausprobiert.

Spielt das überhaupt eine Rolle?

Nehmen wir einmal an ich hätte Recht, und das Meiste was heutzutage in der Mainstream Klimawissenschaft durchgeht ist durchsetzt von Pseudowissenschaft, gestütz von vorgefertigten Meinungen, abhängig vom Wunschdenken,  ausgestettet mit einen Freibrief durch eine voreingenommene Berichterstattung und auf dogmatische Weise intolerant anderen Auffassungen gegenüber. Macht das einen Unterschied? Schließlich gibt es doch Pseudowissenschaft und das Bestätigen vorgefertigter Meinungen genauso gut auch bei den Klima-Ketzern.

Ich sage Ihnen warum es eine Rolle spielt. Die Alarmisten haben die Macht über unser aller Leben übergeben bekommen, die Ketzer haben dies nicht. Bedenken Sie dass Großbritanniens einseitiger Climate Change Act nach offiziellen Angaben die gebeutelte britische Wirtschaft 18,3 Milliarden Pfund pro Jahr für die nächsten 39 Jahre kosten soll, und dass damit eine unmessbar kleine Veränderung beim CO2-Gehalt erreicht werden soll.

Wenigstens überziehen die Skeptiker nicht die Hügel in Schottland mit nutzlosen, teuren, lediglich manche Herzöge subventionierenden Windturbinen, dessen Herstellung die Umwelt in der inneren Mongolei verpestet und dessen Betrieb seltene Greifvögel wie etwa den Gänsegeier tötet .

Wenigstens können Kornkreis-Gläubige nicht unsere Stromrechnung beinahe verdoppeln und die Armut durch hohe Treibstoffpreise vergrößern während die Arbeitsplätze nach Asien verlegt werden, um ihrem Fetisch zu huldigen.

Wenigstens haben Kreationisten den BBC nicht überzeugt, dass eine ausgewogene Berichterstattung nicht mehr länger notwendig ist.

Wenigstens haben Homöopathen nicht teure Brennwertkessel hergestellt, welche bei kaltem Wetter nicht mehr funktionieren, wie es John Prescott im Jahr 2005 getan hat.

Wenigstens haben Astrologen nicht Millionen von Menschen in echten Hunger getrieben, wodurch im letzten Jahr nach einer konservativen Schätzung vermutlich 192.000 gestorben sind, indem sie 5% der Welt-Getreidernte in Treibstoffe umwandeln.

Deshalb spielt es eine Rolle. Uns wurden einige sehr schmerzhafte Therapien verordnet. Daher müssen wir sicher sein, dass der Patient wirklich einen Hirntumor hat, und nicht vielleicht nur Nasenbluten.

Das Zepter der Macht an die Pseudowissenschaft zu übergeben hat eine sehr unglückliche Geschichte.

Denken Sie etwa an die Eugenik. Um 1910 war sich eine gewaltige Mehrheit der Wissenschaftler und anderer Intelektueller darin einig, dass der Gedanke einer Kontrolle der Reproduktion, etwa damit arme, behinderte oder dumme Menschen davon abgehalten werden könnten Kinder zu haben, nicht nur praktikabel wäre, sondern eine Notwendigkeit von großer Dringlichkeit darstellt.

“Es gibt heute keine begründbare Entschuldigung den Fakten ins Gesicht zu sehen”, sagte George Bernhard Shaw, “dass nichts außer der Religion der Eugenik unsere Zivilisation vor dem Verhängnis retten kann, welches alle vorherigen Zivilisationen zerstört hat.” Um Haaresbreite, und hauptsächlich wegen des mutigen liberalen Parlaments-Abgeordneten Josiah Wedgewood, hat Großbritannien damals der Eugenik-Bewegung keine Macht gegeben in die Gesetzgebung einzugreifen. In Deutschland war das anders.

Oder denken Sie an Trofim Lysenko, einem pseudowissenschaftlichen Sonderling mit der seltsamen Idee dass Pflanzen dazu trainiert werden könnten zu tun, was man von ihnen möchte, und dass die Genetik nach Mendel Quatsch wäre. Seine Ideen wurden zur offiziellen wissenschaftlichen Religion der Sowjetunion und töteten Millionen. Seine Kritiker, wie der Genetiker Nikolai Vavilov, endeten tot im Gefängnis.

Gehe ich zu weit damit, dass ich solche Vergleiche anstelle? Ich glaube nicht. James Hansen von der NASA sagt, dass Verantwortliche in Ölgesellschaften wegen Verbrechen gegen die Menschheit angeklagt werden sollten. (Bedenken Sie dass dies der Mann ist, der für einen der angeblich unabhängigen Datensätze zur Globaltemperatur verantwortlich ist.) John Beddington, der höchste wissenschaftliche Berater in Großbritannien, sagte dieses Jahr das wir genau wie wir “deutlich  intolerant gegen Rassismus” sind, genauso “deutlich intolerant gegenüber Pseudowissenschaft” sein sollten. Und damit meinte auch alle Formen von Klimawandel-Skeptizismus.

Die Ironie bei der Sache ist, dass ein Großteil der grünen Bewegung als ketzerische Dissidenten begonnen haben. Greenpeace hat sich entwickelt von einer Gruppe welche die orthodoxe Sicht auf genetisch veränderte Pflanzen in Frage stellte und glaubte dass man der Royal Society nicht trauen sollte, zu einer Institution die fordert dass ketzerische Gedanken bezüglich des Klimawandels heute ignoriert werden sollten, und dass die Royl Society auf keinen Fall falsch liegen kann.

Wo wir gerade bei Greenpeace sind

wussten Sie dass das gesamte Jahresbudget von Greenpeace, WWF und Friends of the Earth weltweit im letzten Jahr mehr als eine Milliarde Dollar betrug?  Manchmal fragen mich die Leute, was der Anreiz für Wissenschaftler sein sollte, den Klimawandel übertrieben darzustellen. Aber sehen Sie nur die Unmengen an Geld welches jenen zur Verfügung steht, die das machen. Es kommt von Kampagnenorganisationen, von Regierungen und von großen Konzernen. Es war kein Skeptiker der den stellvertretenden Chefredakteur von News of the World nach der Climategate-Affäre als PR-Berater eingestellt hat, es war die University of East Anglia.

Im Kontrast dazu würden Wissenschaftler und die meisten Mainstream Journalisten ihre Karriere riskieren, würden sie einen skeptischen Standpunkt einnehmen. So dogmatisch ist der Konsens heute. Einzig in Internet Blogs wird heute die Flamme der Häresie noch am Leben erhalten und wird der investigative Journalismus betrieben, von dem die Medien vergessen haben wie er funktioniert.

In Amerika ist es Anthony Watts, der mit einer Graswurzel-Bewegung die Fehler in den Temperatur-Messstationen ausfindig gemacht hat und der wattsupwitthat.com betreibt. In Kanada betreibt der Mathematiker Steve McIntire, der Stück für Stück die erschreckende Geschichte des Hockeyschlägers ans Licht brachte, den Blog climateaudit.org. Hier in Großbritannien haben wir Andrew Monford, der akribisch den Schwindel hinter den Untersuchungen welche die Cliamtegate Affäre reinwaschen sollten, aufgedeckt hat, mit seinem Blog bishophill.net. In Australien wird der Blog joannenova.com von der ehemaligen Fernseh-Wissenschaftsjournalistin Joanne Nova betrieben, die in mühevoller Kleinarbeit die gewaltigen Geldbeträge zur Stützung des Alarmismus zurückverfolgt hat.

Das besondere an den Ketzern, die ich hier erwähnt habe ist, dass jeder einzelne von ihnen das in seiner Freizeit macht. Sie arbeiten für sich und erhalten höchstens Almosen für ihre Arbeit. Es gibt keinen riesigen Sumpf aus Geld von der Ölindustrie für Skeptiker.

Zusammenfassend möchte ich sagen,

dass ich eine Menge Zeit mit dem Thema Klima zugebracht habe. Ich hätte mich auch damit befassen können welche Fette gesund sind oder ob die Gene oder die Umwelt den Charakter eines Menschen prägen. Mein Hauptargument ist, dass ähnlich wie in der Religion, die institutionalisierte Wissenschaft heute und in allen Zeiten von der Verlockung heimgesucht wird, eine bereits vorgefasste Meinung zu bestätigen. Mit erschreckender Leichtigkeit verwandelt sie sich in Pseudowissenschaft, selbst dann – oder gerade wenn – sie sich in der Hand von einer Expertenelite befindet. Das passiert im speziellen bei Zukunftsvorhersagen und wenn ein Übermaß an Förderung vorhanden ist. Wissenschaft braucht Ketzer.

Ich danke Ihnen vielmals für Ihre Aufmerksamkeit.

Matt Ridley

Die Übersetzung besorgte Rudolf Kipp; zuerst erschienen bei Science Sceptical

Dr. Matt Ridleyist in britischer Zoologe und Autor populärwissenschaftlicher Bücher. Seine bekanntesten Werke sind The Rational Optimist, When Ideas have Sex (Deutsch: Wenn Ideen Sex haben: Wie Fortschritt entsteht und Wohlstand vermehrt wird), Genome: The Autobiography of a Species in 23 Chapters (Deutsch: Alphabet des Lebens. Die Geschichte des menschlichen Genoms) und The Origins of Virtue: Human Instincts and The Evolution of Cooperation (Deutsch: Die Biologie der Tugend. Warum es sich lohnt, gut zu sein).

The Rational Optimist – Homepage von Matt Ridley

When Ideas have Sex – Vortrag von Matt Ridley bei TED

Angus Millar Lecture 2011 – Scientific Heresy

Die Links im Text stammen nicht von Matt Ridley, sondern wurden von mir nachträglich hinzugefügt. Ich möchte damit denjenigen Lesern, die nicht so tief in der Klimadebatte stecken, die Möglichkeit geben in die angerissenen Themenkomplexe etwas tiefer einzusteigen. Natürlich spiegeln die von mir ausgewählten Verweise vorrangig meine Sicht der Dinge wider. Daher sollte sich jeder Leser ausdrücklich ermuntert fühlen, die unerschöpflichen Informationsquellen des Internets zu nutzten, um sich sein eigenes Bild zu machen.

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

Über das Dahinschmelzen der Klimakampagne

Not Evil Just Wrong – Weltpremiere eines unbequemen Films

Gott Globus – Umweltschutz als neue Weltreligion




Geld stinkt nicht: WWF lässt sich von Coca Cola 2 Mio $ anweisen.

Offensichtlich hat der WWF den reichen Werbefuzzis von Coca Cola noch nicht gesagt, dass die Eisbärenpopulation sich bester Gesundheit erfreut und sich in nur fünfzig Jahren  Klimawandel um das fünffache, auf jetzt etwa 25.000, zum Teil, stramme Exemplare vergrößert hat. Ganz ohne WWF und Coke. Um wie viel wird der Bestand erst steigen, wenn sich erstmal der WWF zur Verdrückung der Coca Cola Millionen der Sache annimmt? 

Sehen Sie hier das Werbevideo von Coca Cola mit seiner umwerfenden Botschaft

Aber das ist nur die Spitze des Eisbergs. Den Umweltorganisationen und ihren Lobbyverbänden werden weltweit Milliarden zugeschoben. Das jährliche Budget von Greenpeace, WWF und FoE (Friends of Earth, bei uns als BUND bekannt) übersteigt 1 Milliarde $ berichtet Matt Ridley (Details hier und hier). Als Lohn und Antrieb für reinen und ausdauernden Lobbyismus zugunsten des Öko-Industriellen Komplexes.

 Sehen Sie hier ein Video über das Gebahren des Medienkonzerns Greenpeace

Besonders in Deutschland hat diese Doppelmoral Methode. Da gibt es z.B. den Solarlobbyisten Hans Josef Fell. Im Nebenberuf Bundestagsabgeordneter der Grünen. Die FAZ schrieb unlängst einen Artikel über ihn mit dem Titel: „ Herr Sonnenschein bekommt keinen Ärger „ um dann klar festzustellen  ..“Hans-Josef Fell. Der Bundestagsabgeordnete, zugleich Obmann seiner Fraktion im entsprechenden Ausschuss, sitzt auf allen Ebenen der Solarenergie-Lobby..“[1]

Der gab kürzlich in schöner Offenheit auch zu, wer ihm die astronomischen Preise für den untauglichen Zufallsstrom aus Sonnenenergie beim Gesetze machen, in die Feder diktierte. Kein Geringerer als Frank Asbeck, der Chef von Solarworld.

So berichtet die FAS vom 23.10.11 in einem begeisterten Artikel über den Kämpfer Frank Asbeck: „ Asbecks  Gespür für Timing ist legendär…“ „Er hat nach dem Regierungswechsel zu Rot-Grün an dem Gesetz mitgebastelt, das seiner Branche die nötige Anschubhilfe verschafft“….Und MdB Hans-Josef Fell wird mit den Worten zitiert: „ Wir brauchten damals nach dem Regierungswechsel  Unternehmer, die uns erklärten, wie Solarstrom wettbewerbsfähig gemacht werden kann. Er half mit Details, als wir das Erneuerbare-Energien-Gesetz schrieben.“ Mit den Details.[2]“,  so schreibt die FAS weiter, “meint der Abgeordnete vor allem die Höhe der Gebühr, die Solaranlagenbetreiber für das Einspeisen ihres Stroms ins Netz erhalten sollten.“ „Mit Asbecks Argumentationshilfe (hic!) konnten wir uns auf 99 statt 44 Pfennig pro Kilowattstunde einigen. Er konnte glaubhaft vorrechnen, dass nur mit dieser Summe der Hebel für die Massenproduktion greifen konnte“ So Hans-Josef Fell.  

Schon damals wurde also kräftig zulasten der Bürger gehebelt. Im Falle Solaranlagenbau reichte der Hebel bis China. Denn von dort kommt der Löwenanteil der hier verbauten Solaranlagen. Und Asbeck klagt – welch Widersinn- derzeit in Washington gegen Subventionen der chinesichen Regierung für ihr PVA Industrie. Darauf muss einer erstmal kommen. 

Michael Limburg EIKE


[1] http://www.faz.net/aktuell/politik/inland/lobbyismus-bei-den-gruenen-herr-sonnenschein-bekommt-keinen-aerger-1662901.html

[2] Hervorhebungen und „hic“ vom Autor eingefügr




BEST: Wobei ich zustimme und was ich ablehne – plus ein Ruf nach zusätzlicher Transparenz, um „Vettern”-Begutachtung zu vermeiden

Und dann ist da noch die Sache der 60-jährigen Studie hinsichtlich der Aufstellorte, wenn wir garantiert nur 30 haben. Selbst die NOAA-Studie von Menne et al. wusste, wie man einen so stupiden Fehler vermeidet. Daten zu fabrizieren, wo es keine gibt, war das, was Steig et al. in Antarktika so in Schwierigkeiten gebracht hatte, und sie wurden darauf von Jeff Id, Steve McIntyre und Ryan O’Donnell in einer begutachteten Folgestudie hingewiesen.

Aber ich denke, es ist sinnvoll, hier zu beschreiben (seit ich weiß, dass manche Blogger einfach “Leugner” sagen und der Fall für sie dann erledigt ist), wobei ich tatsächlich zustimmen und es akzeptieren kann und wo nicht. Sie wollten sofort eine Antwort, noch bevor ich Gelegenheit hatte, die anderen drei Studien auch nur zu lesen. Medien haben mich nach meiner Meinung dazu gefragt, selbst vor der Veröffentlichung dieser Studien, und ich habe klar gesagt, dass ich nur eine einzige gesehen habe (hier) und die anderen daher nicht kommentieren kann. Das machte aber nichts, sie wandten meine Meinung zu der einen Studie einfach auf alle vier an.

Wobei ich zustimmen kann:

  1. Auf der Erde ist es wärmer , als es vor 100 bis 150 Jahren war. Aber das stand niemals zur Debatte – es ist ein Scheinargument. Die Größenordnung und die Ursachen sind es, nach denen die Skeptiker fragen.
  1. Aus der Presseerklärung “Die globale Erwärmung ist real…” siehe Punkt 1! Bemerkenswerterweise wurde die „anthropogene globale Erwärmung“ von BEST gar nicht erwähnt, und in ihren Ergebnissen weisen sie explizit darauf hin, dass sie diese Sache gar nicht angesprochen hatten, wie aus diesem Ausschnitt aus der  Presseerkläung hervorgeht:
  1. Wie David Whitehouse hier geschrieben hat: „die Forscher fanden eine starke Korrelation zwischen Jahrzehnte langen nordatlantischen Temperaturzyklen und der globalen Temperatur auf dem Festland. Sie geben zu, dass deren Einfluss während der letzten Jahrzehnte nicht beachtet worden war und dass sie den größten Teil, wenn nicht die gesamte, Erwärmung erklären können, einschließlich der Möglichkeit, dass die „menschliche Komponente der globalen Erwärmung irgendwie überbetont worden sei“. Hier folgt ein Auszug aus diesem Papier:
  1. Die eindeutige BEST-Methodik ist vielversprechend. Die Skalpell-Methode, mit der Diskontinuitäten der Stationen angegangen worden sind, ist eine gute Idee, und das habe ich auch früher schon gesagt.
  1. Die Ergebnisse der globalen Analyse von BEST passen zu den Ergebnissen anderer globaler Temperaturuntersuchungen. Das ist nicht überraschend, da die gleiche Basis von Rohdaten verwendet worden ist. Es ist ein Mythos, dass die Datenquellen von NASA GISS, HadCRUT, NOAA und jetzt Berkeley voneinander unabhängig sind. Das ist nicht die volle Wahrheit. Sie teilen sich eine Menge allgemeiner Daten aus dem GHCN, verwaltet von National Climatic Data bei der NOAA. Also ist es überhaupt keine Überraschung, dass sie alle zueinander passen.

Was Berkeley Earth nicht getan hat, ist eine unabhängige Abschätzung, wie viel der beobachteten Erwärmung auf menschliche Aktivitäten zurückzuführen ist, räumte Richard Muller ein. Als nächsten Schritt plant Berkeley Earth, die Gesamterwärmung der Ozeane zu untersuchen mit der Absicht, genauere Angaben für die Gesamtmenge der beobachtbaren globalen Erwärmung zu erhalten. (hier)

AMO Regiment. Falls die langfristigen Änderungen der AMO durch Treibhausgase ausgelöst worden sind, könnte das  AMO-Regiment als positive Rückkopplung dienen, die die Auswirkungen des Antriebs von Treibhausgasen über Land erweitern. Andererseits kann Einiges dieser langfristigen Änderungen der AMO auch durch die natürliche Variabilität herrühren, z. B. Fluktuationen des thermohalinen Flusses. In diesem Fall könnte die menschliche Komponente der globalen Erwärmung irgendwie überschätzt worden sein. (hier)

Was ich ablehne:

  1. Die Art und Weise, wie sie mit meinen Stationsdaten in ihrer Analyse umgegangen sind, ist schlicht und ergreifend falsch, und das habe ich ihnen auch mehrere Tage vor dieser Veröffentlichung gesagt. Sie boten keine Korrektur an, ja sie erkannten das nicht einmal an. Die Angelegenheit hat mit der 60-Jahre-Periode zu tun, die sie benutzt haben. Zwei begutachtete Studien hierzu, von Menne et al. 2010 sowie Fall et al. 2011 benutzten 30-Jahres-Perioden. Dies ist ein Schlüsselpunkt, weil niemand weiß (ich nicht, die NOAA nicht, BEST nicht), wie die Beschaffenheit der Umgebung der Stationen vor 30 bis 60 Jahren ausgesehen hatte. Im Grunde haben sie eine Analyse über einen Zeitraum durchgeführt, von dem gar keine Metadaten existieren. Ich habe sie aufgefordert, dies doch einfach für die 30 Jahre zu tun wie in den beiden begutachteten Studien, ein Vergleich von Äpfeln mit Äpfeln. Wenn sie das tun und das gleiche Resultat erhalten, bin ich zufrieden. Vielleicht finden sie etwas Neues, wenn sie das ordnungsgemäß durchziehen; wir alle verdienen diese Gelegenheit.

Willis Eschenbach weist auf diesen Auszug aus der Studie hin:

Wir evaluieren den Effekt sehr ländlicher Stationen auf das globale Mittel, indem wir die Mittelungsprozedur  von BEST auf diese ländlichen Stationen übertragen. Durch den Vergleich des daraus resultierenden Mittels mit dem aus allen Stationen gewonnenen Mittel können wir den Einfluss der Standortwahl ohne Verstädterung auf die geschätzte mittlere Landtemperatur quantifizieren.

Eschenbach fügt hinzu: Das kommt mir blöde vor. Warum vergleicht man die schlechtesten Stationen mit allen Stationen? Warum vergleicht man nicht die schlechtesten Stationen mit den besten Stationen?

  1. Die UHI-Studie scheint ein wenig seltsam in diesem Zusammenhang. Sie schreiben in ihrer  Presseerklärung:

Der städtische Wärmeinseleffekt ist lokal groß und real, trägt aber nicht wesentlich zum Anstieg der mittleren Temperatur über Land bei. Dies liegt daran, dass urbane Regionen der Erde nur etwa 1% der gesamten Landmasse ausmachen.

Etwa 1/3 der Temperaturmessstationen rund um die Welt haben während der letzten 70 Jahre eine globale Abkühlung aufgezeichnet (einschließlich großer Gebiete der USAS und Nordeuropas). Aber 2/3 der Stationen zeigen eine Erwärmung. Individuelle historische Temperaturreihen einer einzelnen Station sind häufig verrauscht und/oder unzuverlässig, und es ist immer notwendig, viele Aufzeichnungen zu vergleichen oder zu kombinieren, um die wahre Natur der globalen Erwärmung zu verstehen (hier).

Sie haben sich nicht angemessen mit den 1% auseinandergesetzt, indem sie keine sorgfältige Wichtung der Gebiete vorgenommen hatten. Und welcher Prozentsatz von Wetterstationen wird von diesem 1% erfasst? Während sie einige Beweise der Nutzung einer „kriging“-Technik haben, bin ich nicht sicher, ob sie das sorgfältig genug gemacht haben. Die Tatsache, dass 33% der Messpunkte eine Abkühlung zeigen, bietet mit Sicherheit Anlass, dies viel näher zu untersuchen. Das ist nicht etwas, das man einfach so unter den Tisch fallen lassen kann, obwohl sie genau das versuchen. Hoffentlich fällt dies bei der wissenschaftlichen Begutachtung auf.

3. Die von ihnen gewählte Methode der Veröffentlichung, nämlich eine Art Medien-Blitzkrieg und die Vorab-Positionierung von Schreibern an wesentlichen Positionen der MainStreamMedien MSM, liegt jenseits der Grenze des Erlaubten. Während ich Dr. Mullers Ansicht zustimme, dass das Zirkulierenlassen von Studien unter Kollegen für eine größere Begutachtung eine exzellente Idee ist, ist das, was sie mit dem geplanten und koordinierten Vorgehen getan haben (kein Fehler, es war koordiniert für den 10. Oktober, wie mir Liz Muller persönlich selbst gesagt hat), nicht nur selbst gewählter Größenwahn, sondern auch sehr riskant, falls die Begutachtung zu einer anderen Antwort kommt.

Die Hatz nach einer Beurteilung, bevor die Wissenschaft eine Chance hatte zu sprechen, ist schlimmer als alles, was ich bisher erlebt habe, und von meinen  früheren Begegnungen mit ihnen kann ich sagen, dass ich keine Ahnung hatte, dass sie so vorgehen würden, sonst hätte ich sie nicht so offen begrüßt. Eine Lüge durch Auslassung ist immer noch eine Lüge, und ich habe das Gefühl, dass mir nicht die wahren Absichten der BEST-Gruppe genannt worden waren, als ich mich mit ihnen getroffen habe.

Fazit: ich akzeptiere ihre Studien und viele ihrer Ergebnisse, aber ich stimme nicht mit einigen Methoden und Ergebnissen überein, was mein gutes Recht ist. Es wird interessant sein zu sehen, ob diese den Begutachtungsprozess im Wesentlichen unverändert überstehen.

Eine Sache, von der wir annehmen können, dass sie NICHT transparent ist, ist der Begutachtungsprozess, und falls dieser Prozess Mitglieder des „Teams“ einschließt, die versiert genug sind und trotzdem die Ergebnisse schon begrüßen, so wie es Phil Jones getan hat, dann wird die Begutachtung zu einer „Vettern“-Begutachtung.

Die Lösung wäre, die Namen der Begutachter bekannt zu geben. Dr. Muller und BEST wünschen, den Apfelkarren der wissenschaftlichen Prozedur zum Umkippen zu bringen und die öffentliche Begutachtung vor die wissenschaftliche Begutachtung stellen, und erheben diese selbstsichere und höchst ungewöhnliche Behauptung in ihrer Presseverlautbarung:

Vier wissenschaftliche Studien, die zu diesen Schlussfolgerungen kommen, wurden zur wissenschaftlichen Begutachtung eingereicht und werden Teil der Literatur für den nächsten IPCC-Bericht zur Klimaänderung. … Eine Videoanimation zeigt graphisch globale Erwärmung seit 1800 (hier, einschließlich des Links zu BEST).

Das ist eine starke Behauptung. Vier Studien sind noch nicht begutachtet worden, und sie WISSEN, dass sie durch die Begutachtung durchkommen und dass es im nächsten IPCC-Bericht erscheinen wird? Geht es nur mir so, oder klingt das wirklich zurechtgebastelt? Oder handelt es sich lediglich um das Ergebnis eines überaktiven Egos als Teil der BEST-Gruppe?

Ich sage, falls BEST und Dr. Muller wirklich an ein transparentes Vorgehen glauben, wie sie es auf ihrer Website erklären…

 

…dann lassen Sie uns den Begutachtungsprozess transparent machen, so dass die Möglichkeit einer “Vettern”-Begutachtung ausgeschlossen werden kann, und dass man das nicht ohne saubere Wissenschaft durchpeitschen kann.

Da Dr. Muller behauptet, dass „dies eine der wichtigsten jemals gestellten Fragen ist“, sollte man damit so offen wie nur irgend möglich umgehen. Sicherzustellen, dass diese vier Studien einer gründlichen und unparteiischen wissenschaftlichen Begutachtung  unterzogen werden, ist der beste Weg, diese Frage zu beantworten.

Hätten sie nicht behauptet, was ich oben beschrieben habe, nämlich es vor der Begutachtung im nächsten IPCC-Bericht auftauchen zu lassen, bevor diese Frage geklärt ist, hätte ich nie daran gedacht, danach zu fragen. Diese überselbstsichere Behauptung gibt echt zu Sorgen Anlass, vor allem, wenn es der von ihnen losgetretene Medien-Blitzkrieg für jeden potentiellen wissenschaftlichen Begutachter schwierig macht, nicht vorzeitig  auf diese Studien zu stoßen und sie zu lesen und folglich von den Medien verzerrt dargestellt werden.

Wir können den “Pool der Jury” von Wissenschaftlern nicht zu einer anderen Welt verlagern, um ein faires Verfahren sicherzustellen, wenn es jetzt weltweit bekannt ist, oder?

Abstimmen: [Im Original folgt eine Tafel zur Abstimmung. Wer mag, kann (sollte) daran teilnehmen!]

Antony Watts

Link: http://wattsupwiththat.com/2011/10/21/best-what-i-agree-with-and-what-i-disagree-with-plus-a-call-for-additional-transparency-to-preven-pal-review/

Übersetzt von Chris Frey für EIKE