1

Teil 2: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Der Einfluss kosmischer Strahlung auf das Klima – Neuste Erkenntnisse und deren Bedeutung für das Verständnis des Klimawandels

Prof. Dr. Nir Shaviv
Racah Institute of Physics – The Hebrew University of Jerusalem  

Klima, Wasser, CO2 und die Sonne

Prof. Dr. Jan Veizer

Department of Earth Sciences, University of Ottawa 

Die klimatische Rolle der Sonne und der kosmischen Strahlung

Prof. Dr. Henrik Svensmark

Centre for Sun-Climate Research des Danish National Space Centre 

Reale Temperaturmessungen vs. Klima-Alarmismus

Prof. em. Dr. Horst-Joachim Lüdecke Pressesprecher EIKE

Hochschule für Technik und Wirtschaft des Saarlandes

Dipl. Meteorologe Klaus-Eckart Puls stv. Pressesprecher EIKE

stv. Pressesprecher EIKE

Wie akkurate und langfristige Wettervorhersagen möglich sind

Piers Corbyn Weather Action, London

Zum ersten Block der Vorträge geht es hier.




Sind niedrige Strahlendosen gefährlich?

Angst vor Strahlung ist meist unbegründet

Strahlenparadox: Erhöhter Strahlung ausgesetzte Bevölkerungsgruppen sind gesünder als Bevölkerungsgruppen, die in strahlungsarmer Umgebung leben

In dem Buch „Stralingstekort“ (Strahlenmangel) beschreibt der Journalist Theo Richel das Phänomen der Strahlenhormesis; Strahlung, welche bei hoher Dosis schädlich ist, erweist sich bei geringer Dosis als gesundheitsfördernd. Das bedeutet, dass die Politik auf dem Gebiet der Strahlung auf falschen Grundlagen beruht.

Die heutige Strahlenschutzpolitik basiert auf der LNT (linear no threshold)-Hypothese und dem ALARA (as low as reasonably achievable)-Prinzip. Die LNT-Hypothese besagt, dass jede Strahlendosis schädlich ist, dass der schädliche Effekt linear von der Dosis abhängt, und dass es keine Schwellendosis gibt.

Legt man diese Hypothese zugrunde, so muss man immer von dem ALARA-Prinzip ausgehen, d.h. die Dosis muss so niedrig gehalten werden, wie das vernünftigerweise möglich ist. „Vernünftigerweise“ kann so aufgefasst werden, dass man beispielsweise wirtschaftliche Faktoren in die Betrachtung einbezieht. Die Frage, was vernünftigerweise gemacht werden kann, gibt natürlich zu vielen Diskussionen und unterschiedlichen Interpretationen Anlass.

Hormesis ist kein besonderer Effekt. Sehr viele Stoffe sind bei großer Einwirkung schädlich, in kleinen Dosen  dagegen förderlich oder sogar unentbehrlich für die Gesundheit. Beispiele sind manche Vitamine und Spurenelemente, und was Strahlung betrifft: Das Sonnenlicht. Auf dem Gebiet der ionisierenden Strahlung herrscht schon seit einigen Jahrzehnten Streit zwischen kritiklosen Anhängern der LNT-Hypothese und Wissenschaftlern, welche Argumente für die Strahlenhormesis vorbringen. Das Problem ist dabei, das sich der Streit im Gebiet niedriger Strahlendosen abspielt, wo epidemiologische (statistische) Untersuchungen sehr schwierig sind. Doch ist das sogenannte Strahlenparadox schon sehr lange bekannt.

Dies Paradox zeigt sich in Untersuchungen an Bevölkerungsgruppen, welche erhöhter Strahlung ausgesetzt sind (etwa in Gebieten mit hoher natürlicher Strahlenintensität). Das Ergebnis ist immer: Die Menschen sind gesünder als diejenigen anderer Gruppen, welche in strahlenarmer Umgebung leben.

Die endgültige Beantwortung der Frage, ob es auch bei ionisierender Strahlung den Hormesiseffekt gibt ist von großer Bedeutung, da die bisherige auf der LNT-Hypothese beruhende Politik erhebliche Konsequenzen für die Wirtschaft hat und bei der Bevölkerung Angst erzeugt. Hormesis bedeutet, dass man sich eher über zu wenig Strahlung Sorgen machen muss. Jedenfalls ist dann die Sorge über die geringen Strahlendosen, welche man heute so ernst nimmt, nicht begründet.

In diesem Zusammenhang möchte ich ein historisches Beispiel aus meiner eigenen Erfahrung anführen: In den siebziger Jahren war ich Mitglied einer Beratungskommission auf dem Gebiet der Volksgesundheit. Die Kommission sollte über „Kerntechnische Einrichtungen und Volksgesundheit“ beraten und unter diesem Titel ein Gutachten erstellen („Kerncentrales en Volksgezondheid“). Die Kommission machte den Versuch, eine Jahresdosis zu definieren, unterhalb derer es nicht sinnvoll wäre, besondere Maßregeln zu ergreifen, kurz gesagt, welche Dosis als vernachlässigbar anzusehen wäre. Hierbei berücksichtigte die Kommission, dass die natürliche Strahlenexposition der Holländer aus dem Erdboden eine Variationsbreite von 0,3 Millisievert pro Jahr zeigt. Bewohner von Marschböden sitzen auf der hohen Seite, Bewohner von Sandböden auf der niedrigen. Damit zog sich die Kommission massive Kritik der Anti-Kernkraft-Bewegung zu. Es half nichts, dass die Kommission darlegte: Marschbewohner haben sich noch nie über ihre höhere Strahlenbelastung Sorgen gemacht, und eine Tendenz, massenhaft zu den Sandböden abzuwandern, gibt es nicht.

(Anmerkung des Übersetzers: In Deutschland ist der Unterschied zwischen niedrigster und höchster Bodenstrahlung mehrfach grösser, bis weit über 1 mSv pro Jahr hinaus).

Wie sieht die Sache vom Standpunkt der LNT-Hypothese aus? Nehmen wir an, alle Holländer werden an die Orte mit dem niedrigsten Strahlungsniveau umgesiedelt, dann macht das nach der gebräuchlichen LNT-Hypothese einen Unterschied von 120 Todesfällen pro Jahr! Jedoch leben manche Völker auf dieser Welt in Gebieten, in denen die Jahresdosis mehr als hundertfach höher ist als 0,3 Millisievert pro Jahr, wobei diese Völker Beispiele für das obengenannte Strahlenparadox sind.

Seit vielen Jahren macht man sich in Holland und anderswo auch Sorgen über die Radondosis in Wohnhäusern, aufgrund der LNT-Hypothese. Zwar unterstellt diese Hypothese für niedrige Strahlendosen nur sehr kleine Risikofaktoren, werden diese aber mit einer sehr großen Zahl von Personen multipliziert, dann erhält man beeindruckende Resultate.

Das Buch „Stralingstekort“ enthält eine große Menge an Tatsachen, welche auf die Existenz der Strahlenhormesis hinweisen. Zumindest gibt es viel Stoff zum Nachdenken. Nach meiner Ansicht wird jedenfalls die LNT-Hypothese viel zu oft kritiklos angewandt, vor allem von politischen Instanzen. Diese Hypothese wurde als vorsichtige Annahme aufgestellt; politische Instanzen handhaben sie jedoch als Dogma. Der in dem Buch zitierte niederländische Strahlenforscher Dr. Albert Keverling Buisman stellt fest: „Alle Untersuchungen über Hintergrundstrahlung kamen zu dem Ergebnis, dass um so weniger Krebsfälle vorkommen, je höher diese Hintergrundstrahlung ist. Ohne Ausnahme.“ Dies Büchlein zu lesen, kann ich von Herzen anraten. Stoff zum Nachdenken!  Das Büchlein „Stralingstekort“ wurde herausgegeben von der Stiftung „De Groene Rekenkamer“ mit einiger Unterstützung von unserer Stiftung „Kernvisie“. „De Groene Rekenkamer“ wurde 2008 von Wissenschaftlern und Journalisten mit dem Ziel gegründet, die Staatspolitik auf den Gebieten Umwelt, Gesundheit, Technologie und verwandten Bereichen kritisch zu verfolgen. Sie stützt sich dabei auf wissenschaftliche Analysen des Risikos und der Kosteneffizienz der gesetzlichen Vorgaben und verbreitet ihre Erkenntnisse an eine möglichst große Öffentlichkeit.

Stralingstekort (Strahlenmangel, in niederländischer Sprache). Was, wenn Strahlung tastsächlich gut für Sie ist? Eine Übersetzung und eingehende Bearbeitung eines amerikanischen Buches über Strahlenhormesis.

Hugo van Dam

Ed Hiserodt und Theo Richel, Verlag De Groene Rekenkamer 2011

Die Übersetzung besorgte dankenswerterweise Dr. Hermann Hinsch, der auch den Einführungstext schrieb.

——

Soweit der Artikel von Prof. van Dam. Er bezieht sich teilweise auf das sehr empfehlenswerte amerikanische Buch: „Underexposed. What If Radiation Is Actually Good for You?“

Ed Hiserodt, Laissez Faire Books, Little Rock, Arkansas, 2005, ISBN 0-930073-35-5




Klima-Panik-Orchester spielt in der Antarktis

Das stets und gerne auf Katastrophen-Szenarien eingestellte PIK [1] ließ verlauten: "Forscher des Potsdam-Instituts für Klimafolgenforschung (PIK) halten es für möglich, dass das Klimasystem in der Westantarktis gekippt sein könnte, und das Eisschild unaufhaltsam abtauen wird."

Oder jüngst DER SPIEGEL [2] : "Die Bilanz der Europäischen Raumfahrtbehörde ESA ist alarmierend: Seit 2002 hat das Larsen-B-Eisschelf in der Antarktis drei Viertel der Eisfläche verloren. Beobachtet hat dies der Satellit "Envisat". Schuld an der Schmelze ist die Erderwärmung."

Zunächst: Die Satelliten-Daten sind nicht anzuzweifeln.

Alles andere ist dann die beim Klima-Thema übliche Medien-Mischung von Halbwahrheiten, Weglassen von konträren Fakten, Fakten-Verdrehungen sowie emotional formulierter Angst- und Panik-Mache.

Bei dieser Art Verlautbarungen täte es einer sachlichen Information der Leser gut – insbesondere von naturwissenschaftlich weniger belesenen – , wenn auch folgende Aspekte ergänzend und komplettierend dargestellt würden :

(1)  Die AA-Halbinsel umfaßt kaum 1% der Fläche der Antarktis (in Folgendem: AA), ⇒ Abb.1

(2)  Die in [2] genannte Fläche von LARSEN-B und WILKINS liegt folglich flächenmäßig im Promille-Bereich der AA-Fläche (Abb.1).

 

Abb. 1: Eis-Schelfe Antarktis [3]

(3)   99% der gesamten AA-Region zeigt einen säkularen Kälte-Trend der Temperatur [4];

(4) Selbst der immer wieder behauptete Erwärmungs-Trend der AA-Halbinsel einschließlich LARSEN- und WILKINS-Schelf ist nach aktuellen Auswertungen [5] nicht zu finden:

"It’s The Claim “Antarctica Is Warming” That Is Disintegrating – And Not Much Else": …

This tradition of yearly alarms continues this year as well, this time from the European Space Agency (ESA), which appears in a report at Spiegel." …u.w.a.a.O.: "According to ESA, the blame for this is (man-made) global warming. After all, northern West Antarctica has warmed 2.5°C over the last 50 years." …u.w.a.a.O.: "Let’s take a look at the results from measurements taken at the Larsen Ice Shelf. We see immediately that the trend is relatively constant, if not slightly downward, since measurements began in 1985." (⇒ Abb.2)

 

Abb. 2 Temperature development Larsen Ice Shelf ; NASA GISS; nach [5]

Und weiter a.a.O. [5]: "However, the measurements at the Larsen Ice Shelf go back only to 1985, and the ESA press release expressly states a temperature development going back 50 years. So let’s look at the next stations closest to the Larsen Ice Shelf with sufficiently long measurement histories. They are (see charts below) Faraday (since 1944), Rothera Point (since 1946), Bernado O’Higgins (since 1963), Base Esperanz (since 1945) and Base Arturo P (since 1966). All these stations have one thing in common: A “warming of 2.5°C over the last 50 years” is nowhere to be found. And any warming that did occur, did so without exception before 1980. Taking this into account, attributing the break-up of the Larsen Ice Shelf to global warming is already quite adventurous, to put it mildly."

(5)   Die gesamte AA-Eisfläche einschließlich des Schelf-Eises zeigt zwar bezüglich der Veränderungen regional ein etwas differenziertes Verhalten, aber insgesamt wächst sie [4], vgl. auch Abbildungen 3-5 hier.

Abb. 3 Sea-Ice-Anomaly : No sign of melting here  [5]  

Abb. 4: See-Eis-Fläche Antarktis [6]

 

Abb. 5: See-Eis-Ausdehnung Antarktis [7]

(6)  Der Grund für das Abbrechen von Eis im Bereich von LARSEN-B + WILKINS ist keineswegs – wie z.B. im o.a. SPON-Artikel [2] behauptet – die "Erderwärmung", denn die gibt es in der AA nicht! Dazu heißt es in einer Übersicht  [4] :

"Nahezu die gesamte Antarktis ist innerhalb der vergangenen 30 Jahre kälter geworden. Die einzige wesentliche Ausnahme ist die Antarktische Halbinsel. Das hat meteorologische Gründe: Die AA-Halbinsel liegt in der Westwindzone der Südhemisphäre. Dieser südhemisphärische Westwind-Gürtel unterliegt stochastischen zyklischen Luftdruck-Schwankungen, wie auch alle anderen globalen Windsysteme. Daher wird analog zu den Schwankungen des Luftdruckgürtels in den gemäßigten Breiten der Nordhalbkugel, der sogenannten Nord-Atlantischen Oszillation NAO, auch für die Südhalbkugel ein solcher Index berechnet: Die Ant-Arktische Oszillation AAO."

Und weiter a.a.O. [4] :

"Den Verlauf des AAO-Index 1948-2002 zeigt die Abb.3 [in 4] : Vor etwa 1980 gab es eine Dominanz von meridionalen Wetter-Lagen, während seitdem zonale Wetterlagen stark überwiegen. Das bedeutet eine Verstärkung der Westwind-Zirkulation und damit der Sturm-Aktivität. Gleichzeitig wird damit häufiger mildere Luft vom Pazifik gegen die AA-Halbinsel geführt. Somit führen Stürme mit milderer Luft vom Pazifik her an der AA-Halbinsel thermisch zu Eis-Schmelz-Prozessen und mit höheren Wellen mechanisch zu überdurchschnittlichem Abbrechen von Eis. Bekannt geworden sind dabei in jüngerer Zeit Eisabbrüche (Eisberge) beim Wilkins-Schelfeis an der Westküste der AA-Halbinsel.

Die Ursachen sind also meteorologischer Natur und haben mit irgend einer "Klima-Katastrophe" nichts zu tun."

Klaus-Eckart Puls, EIKE

Q u e l l e n

[1a]  Eisberg voraus; http://www.eike-klima-energie.eu/publikationen/klaus-puls-dipl-meteorologe/puls-publikation/eisberg-voraus-weltuntergang-auch/

[1]  http://www.pnn.de/campus/549280/

[2]  SPON: 10.04.2012, Satellit dokumentiert zehn Jahre Eisschmelze;

            http://www.spiegel.de/wissenschaft/natur/0,1518,826669,00.html

[3]  WIKIPEDIA; http://de.wikipedia.org/wiki/Schelfeis

[4]   http://www.eike-klima-energie.eu/news-cache/klima-kaelte-trend-in-der-antarktis/

[5]  http://notrickszone.com/2012/04/12/its-the-claim-antarctica-is-warming-that-is-disintegrating-and-not-much-else/

[6]  http://nsidc.org/data/seaice_index/images/daily_images/S_timeseries.png

[7]  http://nsidc.org/data/seaice_index/images/daily_images/S_daily_extent_hires.png

Related Files




Temperaturverlauf* von 1973 bis 2012: Dramatische Korrekturen Richtung Erwärmung, Trends mit Rauschen

*Im Original steht immer “surface temperatures”. Die Übersetzung „Temperaturen“ impliziert immer, dass es sich tatsächlich um die Temperatur am Boden handelt. Der Begriff „Bodentemperatur“ ist irreführend, denn es sind ja nicht die Temperaturdaten 5 cm über dem Erdboden gemeint (um z. . Bodenfrost zu ermitteln). A. d. Übers.

Die wesentlichen Schlussfolgerungen lauten:

1) Der lineare Erwärmungstrend während der Periode 1973 bis 2012 ist im USHCN-Datensatz am größten (+0,245°C pro Dekade), gefolgt von CRUTem3 (+0,198°C pro Dekade und an dritter Stelle weit abgeschlagen meine entsprechend der Bevölkerung adjustierten ISH-Temperaturen (PDAT) mit +0,013°C pro Dekade.

2) Nahezu die gesamte Erwärmung im USHCN seit 1973 scheint das Ergebnis von Korrekturen der NOAA an den Daten zu sein, vor allem im Zeitrahmen von 1995 bis 1997.

3) Während es im Mittleren Westen der USA einige UHI-Effekte zu geben scheint und sogar eine Spur Abkühlung mit der Bevölkerungsdichte im Südwesten, gibt es für alle 1200 USHCN-Stationen zusammen nur eine geringe Korrelation zwischen den Temperaturtrends an den Stationen und der Bevölkerungsdichte.

4) Trotz homogenisierenden Anpassungen der USHCN-Werte, um die Übereinstimmung benachbarter Stationen zu verbessern, zeigen die USHCN-Trends mehr Rauschen als das, was ich bekomme, wenn ich 4 mal pro Tag die ISH-Temperaturen und eine einfache UHI-Korrektur verwende.

Die folgende Abbildung zeigt 12-monatige übergreifende mittlere Anomalien [trailing average anomalies] der drei unterschiedlichen Datensätze USHCN, CRUTem3, and ISH PDAT… man beachte die großen Unterschiede der berechneten linearen Erwärmungstrends:


Die nächste Abbildung zeigt die Unterschiede zwischen meinem ISH-PDAT-Datensatz und den anderen beiden Datensätzen. Ich wäre an Meinungen Anderer interessiert, die diese Daten analysiert haben, welche der von NOAA vorgenommenen Korrekturen die relativ starke Erwärmung in den USHCN-Daten von 1995 bis 1997 verursacht haben könnten:

Liest man die Beschreibung der USHCN-Daten, Version 2, scheint es, als ob es nur zwei Korrekturen der Daten waren, die Temperaturtrends substantiell beeinflussen können: 1) Anpassungen der Beobachtungszeit (TOB) und 2) Anpassungen durch Veränderung der Stationen, die auf ziemlich aufwändigen statistischen Vergleichsprüfungen zwischen benachbarten Stationen beruhen. Letzteres soll Änderungen der Instrumententypen in den Daten identifizieren und anpassen sowie Umverteilungen der Thermometer und UHI-Effekte.

Wir sehen im obigen Plot auch, dass die Korrekturen in den Datensätzen von CRUTem3 und USHCN nach etwa 1996 ziemlich unterschiedlich zu den zuvor gemachten waren, obwohl sie zum Ende der Aufzeichnung zur gleichen Antwort kommen.

UHI-Effekte in den Trends der USHCN-Stationen

Genauso, wie ich es mit den ISH-PDAT-Daten gemacht habe, habe ich die Temperaturtrends der USHCN-Stationen mit der Bevölkerungsdichte an der jeweiligen Station korreliert. Für alle rund 1200 Stationen zusammen erkennt man kaum einen Beweis für verbleibende UHI-Effekte:

Die Ergebnisse ändern sich jedoch deutlich, wenn man die USA in 6 Unterregionen einteilt:



Von den 6 Unterregionen sind die beiden mit den stärksten zutage tretenden Effekten 1) die nördlich-zentralen USA mit einer Tendenz, dass Stationen in Gebieten mit höherer Bevölkerungsdichte die stärkste Erwärmung zeigen, und 2) der Südwesten der USA mit einem ziemlich starken Abkühlungseffekt mit zunehmender Bevölkerungsdichte. Wie ich früher schon angemerkt habe, könnte dies das Ergebnis künstlicher Anpflanzungen in einem Gebiet sein, das von Natur aus arid ist. Man würde denken, dass dieser Effekt in die Homogenisierung der USHCN-Daten einbezogen worden wäre, aber offensichtlich war das nicht der Fall.

Trendübereinstimmung zwischen benachbarten Stationspaaren

Hier erlebte ich eine ziemliche Überraschung. Da die USHCN-Daten Homogenisierungskorrekturen mit Vergleichen zu benachbarten Stationen unterzogen worden waren, war ich sicher, dass die USHCN-Trends benachbarter Stationen besser übereinstimmen als die Stationstrends meiner nach Bevölkerung angepassten ISH-Daten.

Ich habe alle Stationspaare bis 200 km Distanz zwischen ihnen verglichen, um eine Schätzung ihrer Übereinstimmung in den Temperaturtrends zu erhalten. Die folgenden zwei Abbildungen zeigen die geographische Verteilung der rund 280 Stationen in meinem ISH-Datensatz sowie die rund 1200 Stationen des USHCN-Datensatzes:

Ich habe alle Stationspaare, die 200 km oder weniger voneinander entfernt liegen, in jedem dieser beiden Datensätze herangezogen und berechnete die mittlere absolute Differenz der Temperaturtrends während der Periode 1973 bis 2012 über alle Paarungen. Die mittlere Stationseinteilung des USHCN- bzw. des ISH-PDAT-Datensatzes war nahezu identisch: 133,2 km für den ISH-Datensatz (643 Paarungen) und 132,4 km für den USHCN-Datensatz (12453 Paarungen).

Aber die Trends der ISH-Paarungen zeigten eine um 15% bessere Übereinstimmung (mittlere absolute Trenddifferenz 0,143°C pro Dekade) als die USHCN-Paarungen (mittlere absolute Trenddifferenz 0,167°C pro Dekade).

Betrachtet man den ungeheuren Aufwand, den die NOAA dem USHCN-Datensatz hat zuteil werden lassen, um die Übereinstimmung zwischen benachbarten Stationen zu verbessern, habe ich für dieses Ergebnis keine Erklärung. Ich muss mich fragen, ob deren Korrekturmethoden mehr Störeffekte erzeugt als eliminiert haben, zumindest was deren Auswirkung auf die Temperaturtrends betrifft.

Und ich muss zugeben, dass jene Korrekturen, die nahezu das gesamte Erwärmungssignal der letzten 40 Jahre ausmachen, verwirrend sind. Wenn sich die „globale Erwärmung“ nur nach der Korrektur der Daten zeigt, kann man verstehen, warum so vielen Menschen diese Korrekturen verdächtig vorkommen.

Roy Spencer

______________________________________

Kommentar von Anthony Watts dazu, der den Beitrag mit dem Titel „Die Erwärmung in den USHCN-Daten ist im Wesentlichen das Ergebnis von Korrekturen“ eingestellt hat:

Dr. Roy Spencer beweist, was wir schon seit Jahren gesagt haben: das USHCN (U.S. Historical Climatology Network) ist ein Chaos, das mit einem noch größeren Chaos von Korrekturen vermischt ist.

Link zu Dr. Spencer: USHCN Surface Temperatures, 1973-2012: Dramatic Warming Adjustments, Noisy Trends

Link zu diesem Artikel bei Wattsup: http://wattsupwiththat.com/2012/04/13/warming-in-the-ushcn-is-mainly-an-artifact-of-adjustments/

Übersetzt von Chris Frey EIKE




Kommt nun die richtige Energiewende? Das CERN hält die „kalte Fusion“ nicht für Esoterik

Doch dann kam eine überraschende Wende. Im März 1989, also vor nun 23 Jahren, verkündeten die beiden amerikanischen Elektrochemiker Martin Fleischmann und Stanley Pons auf einer Veranstaltung des europäischen Kernforschungszentrums CERN in Genf, es sei ihnen gelungen, die Wasserstoffisotopen Deuterium und Tritium bei Zimmertemperatur im Reagenzglas zu verschmelzen. Dieses Gefäß bestand aus einer Art Elektrolysezelle mit einer Kathode aus Palladium. Die Nachricht, die „kalte Fusion“ könne uns vielleicht auf billige, sichere und unerschöpfliche Weise unserer Energiesorgen entledigen, machte schnell die Runde. Doch schon wenige Wochen darauf folgte die Ernüchterung, als die US-Physiker Steven Koonin, Nathan Lewis und Charles Barnes vom renommierten California Institute of Technology (Caltech) auf einer Versammlung der amerikanischen Gesellschaft für Physik erklärten, es sei ihnen nicht gelungen, die Versuchsergebnisse von Fleischmann und Pons (Entstehung von Helium, freien Neutronen und Gammastrahlen) zu reproduzieren.

Doch Martin Fleischmann und eine Reihe weiterer Forscher in Indien, Japan und Italien ließen sich davon nicht beirren. Schließlich hatte Andréj Sacharow, der Vater der russischen Wasserstoffbombe, die grundsätzliche Möglichkeit der „kalten Fusion“ (wiss. Korrekt: Low Energy Nuclear Reaction, LENR) schon 1948 theoretisch hergeleitet. Während sich das US-Energieministerium (DOE) längere Zeit gegen eine staatliche Förderung der LENR aussprach, hält die US-Weltraumbehörde NASA neuerdings LENR für eine viel versprechende „Zukunftstechnologie“, die auch die Luft- und Raumfahrt revolutionieren könnte Dennis Bushnell, der Chefwissenschaftler des NASA-Forschungszentrums in Langley, geht allerdings nicht davon aus, dass die „kalte Fusion“ genau so abläuft, wie Fleischmann und Pons annahmen. Statt um eine Fusion leichter Atomkerne handele es sich vermutlich eher um eine Transmutation durch Neutronen- und Elektronenanlagerung und anschließendem Zerfall des schwereren Isotops. Wie dem auch sei, der Prozess setzt auf jeden Fall reichlich Wärme frei, und zwar deutlich mehr, als durch chemische Reaktionen allein erklärt werden kann. Es müssen Umwandlungen auf atomarer Ebene stattgefunden haben. Das wurde durch etliche Experimente, die unabhängig voneinander in Indien, Japan, Italien und den USA durchgeführt wurden, demonstriert.

Kein Wunder, dass sich nun auch private Konzerne wie Mitsubishi und Toyota in Japan und vielleicht auch Siemens in Deutschland für die „kalte Fusion“ erwärmen. Das wurde offenbar auf einem am 22. März 2012 vom CERN eigens veranstalteten Kolloquium zum Thema LENR. Dort stellte der an der Universität von Perugia/Italien lehrende indische Physiker Yogendra Srivastava die von der NASA favorisierte Theorie der Low Energy Nuclear Transmutations (LENT) von Giuliano Preparata (Mailand) und Allan Widom (Boston) vor. (Preparata hat in den 70er Jahren selbst am CERN gearbeitet.) Srivastava wies in seinem Vortrag auch darauf hin, dass die explosive Freisetzung von Neutronen in der Natur durchaus nichts Seltenes ist. Sie wird beobachtet bei Sonneneruptionen, bei Gewittern und bei Erdbeben. Vermutlich gehen die bei starken Erdbeben beobachtbaren Blitze von piezoelektrisch ausgelösten Transmutationen beim Zerbrechen von Quarzkristallen in der Erdkruste aus, meint Srivastava

Der italienische Kernphysiker Francesco Celani (Frascati) stellte beim Genfer Kolloquium bislang unveröffentlichte LENR- bzw. LENT-Experimente der NASA und japanischer Firmen vor. Dabei ragen die Ergebnisse der Versuche mit nanoskaligen Paladium-Silber oder -Zirkon-Elektroden heraus. Celani erwähnte auch den geheimnisvollen„Energy-Katalysator“, mit dem der italienische Unternehmer Adrea Rossi im vergangenen Jahr Furore gemacht hat. Dieser arbeitet nicht mit Palladium-Elektroden, sondern mit nanoskaligem Nickel in Wasserstoff. Durch den Einfang von Protonen durch die Nickel-Atome soll dabei Kupfer entstehen. Rossi, der mit dem emeritierten Physikprofessor Sergio Focardi aus Bologna zusammenarbeitet, lässt sich aber nicht in die Karten schauen. Der innere Aufbau seines Apparats bleibt streng geheim. Deshalb hat er dafür auch kein Patent bekommen. Immerhin hat Rossi sich vom renommierten Königlichen Institut für Technologie (KTH) in Stockholm bestätigen lassen, dass sein Apparat sechs Stunden lang 25 Kilowattstunden elektrische Leistung erzeugt hat. Inzwischen hat Rossi angekündigt, dass er ab 2013 für zirka 1.000 Euro ein kompaktes Gerät anbieten will, mit dem sich ein ganzes Eigenheim heizen lässt. Es soll nur zweimal im Jahr „Brennstoff“ für etwa 20 Euro benötigen. Ein Gerät will Rossi bereits an den Mann gebracht haben. Auch wenn gegenüber diesen Erfolgsmeldungen Skepsis geboten ist, zeichnet es sich schon jetzt ab, dass die „Energiewende“ wohl ganz anders aussehen wird, als von Angela Merkel und den ihr dienstbaren „Experten“ geplant. Sollte die kalte Transmutation tatsächlich funktionieren, wäre damit ihr Markterfolg aber noch nicht sicher gestellt, denn die Grünen werden wohl bald ein Haar in der Suppe finden.

Edgar Gärtner EIKE 

Internet:

Leser die sich über den Fortgang der Erfindung Rossis informieren wollen, hier dessen Internet-Plattform hinweisen: http://www.e-catworld.com/

ferner:

Wikipedia: Kalte Fusion

Yogendra Srivastava: Overview of LENT Theory

Francesco Celani: Overview of Theoretical and Experimental Progress in Low Energy Nuclear Reactions (LENR)

 

 




Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel

Der “Environmental Satellite” (Envisat) ist so etwas wie das Prunkstück der European Space Agency (ESA). Der 8 Tonnen schwere Umweltsatellit stellte die größte Nutzlast dar, die jemals mit einer Ariane Rakete ins All befördert wurde und ist mit 2,3 Milliarden Euro auch der bislang teuerste Satellit der ESA.

Zu den Aufgaben dieses Satelliten gehört unter anderem die Vermessung der Ozonschicht, der Eisbedeckung, die Dokumentation von Vulkanausbrüchen und die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen eines beschleunigten Meeresspiegelanstiegs, noch mit den Messungen der amerikanischen Jason Satelliten in Einklang standen.

Anstieg durch “Datenkorrektur” verfünffacht

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. (Bitte beachten Sie, dass die folgenden Darstellung zum Vergleich der Absolutwerte normiert sind. Die aus den Ergebnissen resultierenden Steigungen des Meeresspiegels bleiben davon unberührt.)

Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections“  fündig. Dort heißt es: “sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)” Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.

Was weiter auffällt ist, dass in der neuen Version (2.1) nicht nur eine deutlich größere Steigung zeigt, sondern dass sie jetzt bis ins Jahr 2002 zurückreicht (die bisherige Version begann Ende 2003). Man scheint also nicht nur befunden zu haben, dass der bisher gefundene Anstieg deutlich zu niedrig war, sondern hat allem Anschein nach außerdem noch “alte Daten” wiederentdeckt.

Laufende Anpassungen nach oben

Anpassungen dieser Art sind in der noch jungen Geschichte der Satelliten-Altimetrie nichts ungewöhnliches. Wobei man sich im jeweiligen Fall durchaus die Frage stellen muss, ob die vorgenommenen Korrekturen nun die Wirklichkeit besser widerspiegeln, oder ob sie vorgenommen werden, damit die Ergebnisse besser zu einer vorgefertigten Meinung passen. Dieser Verdacht kann einem nämlich durchaus kommen, wenn man die Zahlreichen Korrekturen etwa beim amerikanischen Programm zur Meeresspiegelmessung mit Satelliten betrachtet. Dieses Begann im Jahr 1992 mit dem TOPEX/Poseidon Satelliten.

In einer im Jahr 2000 publizierten Veröffentlichung (G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17) wurden die Ergebnisse der Messungen von Oktober 1992 bis April 2000 dargestellt. Der Verlauf war mehr oder weniger flach, lediglich durch den im El Nino 1997/98 kam man damals rechnerisch auf einen Anstieg von einem Millimeter pro Jahr.

 

Als die gleichen Daten dann im Jahr 2003 erstmals auf der Internetseite AVISO (Archiving, Validation and Interpretation of Satellite Oceanographic data) vorgestellt wurden, stellte sich das Bild sich bereits anders dar.

 


“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”

Offensichtlich waren die Daten jetzt mit einem Trend versehen worden, so dass sich ein Anstieg von 2,3 mm pro Jahr ergab. Der schwedische Ozenaograph Nils-Axel Mörner der von 1999 bis 2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung war, schrieb  hierzu in 21st Century Science & Technology:

“Als die Satelliten-Altimetrie-Gruppe feststellte, dass der Anstieg im Jahr1997 ein ENSO-Signal war und sie den Trend bis 2003 fortführten, stießen sie auf ein Problem. Es war kein Anstieg des Meeresspiegels sichtbar und daher musste eine “Re-Interpretation” vorgenommen werden.”

“When the satellite altimetry group realized that the 1997 rise was an ENSO signal, and they extended the trend up to 2003, they seemed to have faced a problem: There was no sea level rise visible, and therefore a “reinterpretation” needed to be undertaken.”

Laut Mörner blieb es damals unklar, wie genau dieser neue Trend rechnerisch zustande kam, die Satelliten-Altimetrie-Gruppe hätte nicht genauer spezifiziert, welche Art von “Korrekturen” im Detail vorgenommen worden wären. Mörner zitiert in seinem Text ein Mitglied der britischen IPCC Delegation mit den Worten:

“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”

“We had to do so, otherwise there would not be any trend.”

Der Trend wird immer weiter nach oben korrigiert

Und auch nach diesem “großen Wurf” gingen die “Anpassungen” munter weiter. Zu welchen Resultaten das führte soll im Folgenden erläutert werden. Betrachten wir zunächst die Entwicklung des Meeresspiegels nach Messungen der Satelliten Toppex/Poseidon, sowie Jason-1 und Jason-2, wie sie auf der Homepage der University of Colorado dargestellt wird.

Man erkennt deutlich, dass der Anstieg bis etwa 2005 ziemlich gleichförmig verlief und sich die Geschwindigkeit des Anstiegs seitdem verlangsamt hat. Man sollte also annehmen, dass der resultierende Anstieg über den gesamten Zeitraum daher seit 2005 tendenziell rückläufig sein sollte. Allerdings ist ziemlich genau das Gegenteil der Fall. Lag der aus den Daten errechnete Anstieg über den bis dahin gemessenen Gesamtzeitraum bei 2,9 mm/Jahr, lag er 2008 trotz der offensichtlichen Stagnation von 2006 bis 2008 bei 3,3 mm/Jahr. Und trotz des Umstands dass der Anstieg sich von 2008 bis 2012 weiter deutlich unter dem Niveau der 90er Jahre befindet beträgt der errechnete Anstieg seit 1992 heute 3,1 mm/Jahr. Die Entwicklung des Anstiegs von 2004 bis 2012 ist in nachfolgender Tabelle dargestellt.

Jahr

Anstieg [mm]

Fehler [mm]

2004

2,8

0,4

2005

2,9

0,4

2006

3,2

0,4

2007

3,2

0,4

2008

3,3

0,4

2009

3,2

0,4

2010

3,1

0,4

2011

3,1

0,4

2012

3,1

0,4

Um zu verstehen, wie es zu diesem vermeintlichen Widerspruch kommt muss man sich die Daten aus den jeweiligen Jahren etwas genauer ansehen. Leider gibt es auf der Homepage der University of Colorado kein Archiv, aus dem man die Daten der vorherigen Jahre beziehen könnte. Aber da das Internet bekanntlich nie etwas vergisst und es nützliche Seiten wie die WaybackMachine gibt, lassen sich die entsprechenden Daten auch nachträglich bis 2004 zurückverfolgen. Die Daten für die Jahre 2004 bis 2012 sind in der folgenden Grafik vergleichend dargestellt.

Man erkennt auf den ersten Blick, dass an den Daten laufend Korrekturen vorgenommen wurden. Interessant ist dabei, dass diese Anpassungen allesamt in eine Richtung weisen, und zwar hin zu einem immer größeren Anstieg des Meeresspiegels. Man gewinnt fast den Eindruck, dass in den letzten Jahren immer weiter “angepasst” wurde, um den Gesamtanstieg über der magischen Grenze von drei Millimeter pro Jahr zu halten. Das Ganze wird noch deutlicher, wenn man die sich ergebende Steigung im zeitlichen Verlauf für die Unterschiedlichen Versionen grafisch darstellt.

Über die Jahre lässt sich so ein “schleichender” Prozess von immer neuen Korrekturen und Anpassungen feststellen. Man kann also festhalten, dass die Rohdaten der Meeresspiegelmessungen einen eher flachen Verlauf mit einem Anstieg im Bereich von 0,5 bis 1 Millimeter pro Jahr zeigen. Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr.

Beschleunigt sich der Anstieg des Meeresspiegels?

Wobei diese Zahl einen durchaus stutzig machen kann. Wenn man sich die verfügbaren Pegeldaten aus der ganzen Welt ansieht (Permanent Service for Mean Sea Level PSMSL, hier eine Liste der NOAA mit Stationen längerer Messhistorie und den zugehörigen Trends), hat man Schwierigkeiten, überhaupt Stationen zu finden, an denen ein ähnlich hoher Wert für den Meeresspiegelanstieg gefunden wird. Jetzt sollte aber der von den Satelliten gemessene Wert, wenn er denn sinnvoll ist, in erster Näherung den Durchschnitt der globalen Messtationen repräsentieren.

Der Versuch einen solchen Durchschnitt zu ermitteln wurde bislang von verschiedenen Autoren mithilfe unterschiedlicher Methodiken unternommen. Die gefundenen Werte bewegen sich alle im Bereich zwischen 1-2 mm Anstieg pro Jahr (10-20 cm in 100 Jahren). Keiner der Autoren sah auch nur annähernd Werte, welche den 3,1 mm/Jahr der Satelliten auch nur nahe kamen.Die folgende Tabelle gibt einen Überblick über verschiedene Arbeiten.

Autor(en)

Jahr

Abgeschätzter globaler Anstieg des Meeresspiegels [mm/Jahr]

Anzahl der Messstationen

Link zur Arbeit

B. C. Douglas

1997

1,8 ± 0,1

24

http://www.springerlink.com/content/p364381652174757/

D.A. Burton

2001

1,84 – 1,91

 

http://www.sciencedirect.com/science/article/pii/S0074614201800073

Church et al.

2006

1,7 ± 0,3

15

http://naturescapebroward.com/NaturalResources/ClimateChange/Documents/GRL_Church_White_2006_024826.pdf

IPCC

2007

1,8 ± 0,5

 

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch5s5-5-2.html

S. J. Holgate

2007

1,75 ± 0,16

9

http://www.joelschwartz.com/pdfs/Holgate.pdf

D.A. Burton

2010

<1,2

159

http://www.burtonsys.com/climate/global_msl_trend_analysis.html

Church et al.

2011

1,7 ± 0,2

290

http://www.springerlink.com/content/h2575k28311g5146/fulltext.pdf

Nun könnte man annehmen, dass sich der Anstieg der Meeresspiegel im 20. Jahrhundert eben beschleunigt hat (was schließlich auch von IPCC-nahen Autoren suggeriert wird). Eine (wenn auch geringe) Beschleunigung wurde in den Arbeiten von Church et al. (2006 und 2011) schließlich auch gefunden. Allerdings schreiben die Autoren selbst, dass andere Autoren bisher eine solche Beschleunigung nicht sehen konnten (“no 20th century acceleration has previously been detected”). Interessant ist auch zu erwähnen, dass Holgate (2007) genau das Gegenteil gefunden hat, nämlich dass der Anstieg zwischen 1904 und 1953 mit 2,03 mm pro Jahr größer war, als in der Zeit von 1954 bis 2003 mit dann 1,45 mm pro Jahr.

Modelle statt Messungen?

Zusammenfassend kann man wohl sagen, dass die Ermittlung des exakten Wertes der Veränderung des Meeresspiegels eine hochkomplexe Aufgabe darstellt, bei der man abhängig von den gewählten Daten und der verwendeten mathematischen Korrekturen und Modelle zu gänzlich unterschiedlichen Schlüssen kommen kann. Eine gute Beschreibung der Situation findet sich in dem äußerst lesenswerten Essay des 2004 verstorbenen Skeptikers John Daly (dessen Tod, wie manche sich vielleicht erinnern, vom damaligen CRU Chef Phil Jones als ” aufheiternde Neuigkeiten” (“cheering news”) bezeichnet wurde).

“Es wurde der Weltöffentlichkeit, den Medien und den politischen Entscheidern immer der Eindruck vermittelt, dass der Anstieg der Meeresspiegel von 18 cm im vergangenen Jahrhundert eine gemessene Größe wäre, die nicht zur Diskussion stünde. Was größtenteils nicht bekannt ist, ist der Umstand, dass diese Größe in weiten Teilen das Produkt von Modellen, und nicht von Messungen ist, und daher sehr wohl diskussionswürdig, ganz besonders da die Meeresspiegeldaten in vielen Teilen der Welt nicht den IPCC Annahmen entsprechen.”

“The impression has been conveyed to the world’s public, media, and policymakers, that the sea level rise of 18 cm in the past century is an observed quantity and therefore not open to much dispute. What is not widely known is that this quantity is largely the product of modeling, not observation, and thus very much open to dispute, especially as sea level data in many parts of the world fails to live up to the IPCC claims.”

Die 3 Millimeter müssen gehalten werden

Wenn man die Entwicklung der Trends bei den Satellitendaten in den letzten 10 Jahren betrachtet, dann drängt sich einem der Eindruck auf, es soll nach Kräften verhindert werden, dass die publizierten Daten unter einen Wert fallen, der dann nicht mehr als besorgniserregend wahrgenommen würde. Kaum anders ist es zu erklären, dass die Satellitenmessungen der University of Colorado trotz des seit mittlerweile fast 7 Jahre andauernden Rückgangs des Anstiegs unvermindert hohe Werte von über 3 mm Anstieg pro Jahr angeben.

Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten. Auch die Begründung, welche die Wissenschaftler anbieten trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste.

Was bleibt ist der Eindruck, dass hier Daten systematisch “schöngerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich.

Von Rudolf Kipp;  Zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

•    Grönländischer und westantarktischer Eisschild schmelzen nur halb so schnell

•    Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback

•    Meeresspiegelanstieg stetig nachlassend – PIK-Propaganda im Abseits

 Ergänzend dazu der Vortrag von K.E. Puls über die Einflussgrößen auf den Meeresspiegel anlässlich der IV- IKEK im November 2011 in München




Der Tod der Glaubwürdigkeit der Zeitschrift NATURE

Meiner Ansicht nach markiert dieses Papier den Tod der Glaubwürdigkeit von Nature hinsichtlich der globalen Erwärmung. Die ersten Symptome zeigten sich schon 1996 mit der Veröffentlichung einer Studie von Ben Santer and 13 Ko-Autoren, die so abwegig [cherry-picked] war, dass ich zusammen mit meinen Kollegen gerade mal drei Stunden gebraucht hatte, um sie vollständig zu zerlegen. Dann ist es stetig abwärts gegangen, und zwar von einem idiotischen Seufzer von Jonathan Patz über die Sterblichkeit infolge der Erwärmung, der sich nicht einmal die Mühe gemacht hat zu untersuchen, ob fossile Treibstoffe mit einer erweiterten Lebenserwartung einher gingen (das war so) bis hin zum jüngsten Shakun- Debakel. Aber der letzte große Tropfen von Ben Booth und seinen Kollegen am UK Met. Office signalisiert den Tod von Nature in diesem Bereich.

Das UK Met. Office gab eine Presseerklärung heraus, in der der Welt die Ergebnisse seiner Forscher aufgedrängt werden. Es gab keinerlei Hinweise z. B. zur Signifikanz der Studie. Die Schlagzeile lautete „Industrielle Verschmutzung verursacht ‚Natur’katastrophen“. Darin fanden sich auch solche Dinge:

Von diesen Veränderungen der Wassertemperatur, bekannt als die atlantische multidekadische Oszillation oder AMO, nimmt man an, dass sie Einfluss auf die Regenmengen in Afrika, Südamerika und Indien haben, ebenso wie auf die Hurrikanaktivität im Nordatlantik – die in extremen Fällen zu menschlichen Katastrophen führen.

Ben Booth, ein Klimawissenschaftler am Met. Office und Forschungsleiter sagt: „Bis jetzt konnte noch niemand einen physikalischen Zusammenhang zeigen, durch was diese beobachteten Fluktuationen im Nordatlantik ausgelöst werden. Daher nahm man an, dass es der natürlichen Variabilität entsprach.

Unsere Forschung impliziert, dass diese Veränderungen weit entfernt von natürlichen Ursachen sind und zum größten Teil durch Verschmutzung und Vulkanismus ausgelöst worden sind. Falls das so ist, bedeutet das, dass ein Teil der Naturkatastrophen im Zusammenhang mit diesen ozeanischen Fluktuationen, wie z. B. die anhaltende Dürre in Afrika in den siebziger und achtziger Jahren, gar nicht so natürlichen Ursprungs waren wie gedacht.“

Ein begleitender Kasten „News and Views“ in Nature stellte die Ergebnisse von Booth et al. in eine klimatologische Perspektive:

Falls die Ergebnisse von Booth et al. erhärtet werden können, dann zeigen sie, dass multidekadische Temperaturfluktuationen im Nordatlantik durch menschliche Aktivitäten dominiert werden und die natürliche Variabilität nur eine sekundäre Rolle spielt. Dies hat viele Implikationen. Zuvorderst ist darunter, dass die AMO nicht existiert, und zwar dergestalt, dass die Temperaturvariationen, um die es hier geht, weder wirklich oszillatorisch noch rein multidekadisch sind.

Aber nicht jeder war so beeindruckt von den Ergebnissen von Booth et al.

Zum Beispiel hatte Judith Curry auf ihrem Blog „Climate etc“ dies zu sagen:

Betrachten Sie mich als nicht beeindruckt von dieser Studie. Ich glaube, wenn man dieses Papier an das Journal of Geophysical Research oder das Journal of Climate eingereicht hätte, wäre es zurückgewiesen worden. In jedem anderen Fall wäre ein längeres, detailierteres Manuskript eingereicht worden, um mehr Leuten zu erlauben, das Ganze kritisch zu begutachten. Mit der Veröffentlichung hiervon scheint Nature mehr auf der Suche nach Schlagzeilen zu sein als gute Wissenschaft zu fördern.

Und Curry hat gute Gründe, skeptisch zu sein.

Beim Journal Geophysical Research Letters ist eine Studie „im Druck“ mit dem Titel „Eisbohrkern aus Grönland beweist räumliche und zeitliche Variabilität der Atlantischen Multidekadischen Oszillation“ von Petr Chylek et al, einschließlich Chris Folland vom Hadley Centre des UK Met. Office.

In dieser Studie untersuchen Chylek et al. Beweise für die AMO, wie sie in zahlreichen Eisbohrkernen konserviert sind, die über Grönland verteilt gezogen worden sind. Die Forscher suchten, ob es Änderungen im Charakter der AMO während verschiedener klimatologischer Perioden in der Vergangenheit gegeben hatte wie z. B. der Kleinen Eiszeit und der Mittelalterlichen Warmzeit – Perioden lange vor umfangreichen menschlichen Aerosolemissionen. Die AMO war während der Kleinen Eiszeit durch eine Quasi-Periodizität von etwa 20 Jahren charakterisiert, während sie in der Mittelalterlichen Warmzeit mit einer Periode von etwa 45 bis 65 Jahren oszillierte.

Und Chylek und seine Kollegen hatten Folgendes über die involvierten Mechanismen zu sagen:

Die beobachtete Periodizität dieses Verhaltens während der vergangenen 4000 Jahre stützt die Ansicht, dass es sich hier um interne Wechselwirkungen zwischen Ozean und Atmsphäre handelt, mit nur wenigen oder gar keinen externen Antrieben.

Man lese das noch einmal: „…mit nur wenigen oder gar keinen externen Antrieben“.

Chleks Schlussfolgerung ist erheblich unterschiedlich zu denen von Booth et al., von denen es in einem Editorial bei Nature heißt (Hervorhebung durch den Autor im Original):

Weil die AMO in globale Prozesse eingebunden war, wie der Häufigkeit atlantischer Hurrikane und Dürren in der Sahel-Zone in Afrika in den achtziger Jahren gehen die Ergebnisse weit über die möglichen Folgen menschlicher Aktivität auf das globale Klima hinaus. Mehr noch, wenn sie stimmen, räumt die Studie mit der AMO, wie sie sich gegenwärtig zeigt, dahingehend auf, dass sie weder wirklich oszillatorisch noch multidekadisch ist.

Es ist schon eigenartig, dass die von Chylek et al. analysierten Eisbohrkerne (im Gegensatz zur Übung mit großräumigen Klimamodellen von Booth et al.) zeigen, dass die AMO sowohl oszillatorisch als auch multidekadisch ist – und dass es diese Charakteristika auch schon lange vor irgendwelchen menschlichen Einflüssen gegeben hatte.

Die Worte von Judith Curry „mit der Veröffentlichung hiervon scheint Nature mehr auf der Suche nach Schlagzeilen zu sein als gute Wissenschaft zu fördern“ scheinen im Lichte neuer beobachtungsbasierter Forschungen laut zu klingeln.

Möge Gott die Seele von Nature bewahren!

Dr. Patrick Michaels

References:

Booth, B., et al., 2012. Aerosols implicated as a prime driver of twentieth-century North Atlantic climate variability. Nature, doi:10.1038/nature10946, http://www.nature.com/nature/journal/vaop/ncurrent/full/nature10946.html

Chylek, P., et al., 2012. Greenland ice core evidence for spatial and temporal variability of the Atlantic Multidecadal Oscillation. Geophysical Research Letters, in press, http://www.agu.org/pubs/crossref/pip/2012GL051241.shtml

Link ausführlich: Atmospheric Aerosols and the Death of Nature

Link: http://wattsupwiththat.com/2012/04/11/pat-michaels-on-the-death-of-credibility-in-the-journal-nature/

Übersetzt von Chris Frey EIKE




Können Windkraftanlagen viele Haushalte „versorgen“? Offener Brief an Norbert Röttgen zur BMU Behauptung sie könnten das.

Betrifft: "BMU-Newsletter „Energiewende Aktuell – Ausgabe 04/2012“, vom 19. März 2012

Sehr geehrter Herr Dr. Röttgen,

in dem oben genannten Newsletter gibt es mindestens zwei Textstellen, die zu einer Gegendarstellung herausfordern. Auf Seite 1 heißt es:

„2011 wurden allein an Land Windkraftanlagen mit einer Kapazität von zwei Großkraft-werken installiert“.

Auf Seite 2 im zweiten Absatz unter der Tabelle heißt es:

 „Experten halten einen Ausbau der Offshore-Windkraft bis zum Jahr 2030 auf bis zu 25 Gigawatt für realistisch. Das entspricht 25 herkömmlichen Großkraftwerken“.

Mit Bezug auf mein Schreiben vom 12.03.2012 bezüglich der Bereitstellung von elektrischer Energie (kWh) mit Photovoltaikanlagen halte ich es für geboten, nochmals darauf hinzuweisen, dass auch der in den obigen Sätzen beschriebene Sachverhalt für Windenergieanlagen aus naturwissenschaftlicher und ökonomischer Sicht falsch und somit nicht haltbar ist. Hier werden wieder mal die installierten Leistungen (kW) von unterschiedlichen Anlagen zur Energieerzeugung (kWh) miteinander gleichgesetzt. Dies ist grober Unfug und der Aussage eines Fachministeriums nicht angemessen, so dass sich die folgende Frage stellt:

Ist es Absicht, dass die Bürger vom BMU unsachgemäß informiert werden, oder sind es fehlende naturwissenschaftliche Grundkenntnisse?

Auf der Basis der Zahlen für die installierte Gesamtleistung (29060,04 MW) und für die Stromproduktion (48 Mrd. kWh) durch Windenergieanlagen, die in der Tabelle auf Seite 2 Ihres Newsletters angegeben sind, ergibt sich für die in 2011 betriebenen Windenergieanlagen eine durchschnittliche Verfügbarkeit von 1652 Volllaststunden pro Jahr, während der elektrische Energie bereitgestellt werden konnte. Während 7108 Stunden im Jahr wurde mit denselben Windenergieanlagen, obwohl die gleiche elektrische Leistung installiert war, keine elektrische Energie (kWh) zur Verfügung gestellt.

Mit der in 2011 neu installierten Leistung von 2085,72 MW durch Windkraftanlagen wurden demnach 3,45 Milliarden kWh elektrische Energie (Strom) bereitgestellt.

Mit zwei Großkraftwerken mit je 1000 MW installierter elektrischer Leistung wären bei einer Verfügbarkeit von 8000 Volllaststunden pro Jahr 16 Milliarden kWh elektrische Energie bereitgestellt worden, also das 4,63-fache an elektrischer Energie. Mit anderen Worten, um 3,45 Milliarden kWh elektrische Energie bereitzustellen, wäre nur ein Anteil von 0,43 eines Großkraftwerkes erforderlich gewesen.

Bei einem Ausbau der Offshore-Windenergieanlagen auf eine installierte elektrische Leistung von 25 Gigawatt und den gleichen Windverhältnissen könnten somit pro Jahr 41,3 Milliarden kWh bereitgestellt werden.

Bei einem Einsatz von 25 herkömmlichen Großkraftwerken mit einer installierten elektrischen Leistung von je 1000 MW würden dagegen aufgrund der durchschnittlichen Verfügbarkeit von 8000 Volllaststunden pro Jahr 200 Milliarden kWh an elektrischer Energie bereitgestellt, d.h. es würde die 4,8-fache Menge an elektrischer Energie (kWh) zur Verfügung gestellt. Oder mit anderen Worten, um 41,3 Milliarden kWh mit herkömmlichen Großkraftwerken bereitzustellen, wären nur 5,2 dieser Großkraftwerke und nicht 25 Großkraftwerke notwendig.

Diese Darlegungen zeigen: Erstens, dass die installierte Leistung (kW) kein Maß für die Beurteilung eines Energieträgers ist, sondern nur die mit diesem Energieträger bereitzustellende elektrische Energie (kWh). Zweitens, um mit Windenergieanlagen die gleiche elektrische Energie (kWh) bereitstellen zu können wie mit Großkraftwerken, muss die installierte Leistung (kW) bei Windenergieanlagen um einen Faktor von ca. 4,8 größer sein als bei Großkraftwerken.

Somit ist leicht zu erkennen, dass der finanzielle Aufwand zur Bereitstellung von elektrischer Energie mittels Windenergieanlagen ebenfalls wesentlich höher und somit für die Volkswirtschaft auch eine wesentlich höhere finanzielle Belastung ist. Da höhere finanzielle Aufwendungen gleichbedeutend mit einem höheren Bedarf an Rohstoffressourcen sind, ist eine zügellose Bereitstellung von elektrischer Energie mit unwirtschaftlichen Windenergieanlagen auch im Sinne einer Schonung von Rohstoffressourcen nicht zu verantworten. Ferner ist anzumerken, dass viele weitere, gesundheitliche und artenschutzspezifische (Vogelschutz) Aspekte, die aus ideologischen Gründen ignoriert werden, gegen einen zügellosen Ausbau von Windenergieanlagen sprechen.

Die Energieträger Wind und Sonne sind dargebotsabhängig und somit nicht vom Menschen verbindlich planbar. Sollte sich eine stabile Wetterlage über ganz Deutschland einstellen, bei der eine Windflaute auftritt, so müsste die dadurch nichtvorhandene, dargebotsabhängige elektrische Energie kurzfristig durch konventionelle Großkraftwerke bereitgestellt werden. Diese Kraftwerkskapazitäten müssen stets im Stand-By-Betrieb zusätzlich vorhanden sein und somit auf Dauer sichergestellt und finanziert werden.

Diese Windtechnologie dient daher nicht einer freien sozialen  Marktwirtschaft, sondern nur den Protagonisten dieser Technologie und führt durch die ideologisch gesteuerten, planwirtschaftlichen Maßnahmen, wie Zwangseinspeisung und Zwangsabgaben, die durch das EEG gestützt werden, zur Umverteilung von unten nach oben. Ein Wirtschaftszweig wie die Energiewirtschaft, die in jedem Staat eine Schlüsselfunktion hat, ist aber nicht geeignet, um eine freie soziale Marktwirtschaft in eine sozialistische Plan- und Umverteilungswirtschaft  umzuwandeln. Wenn Veränderungen oder Anpassungen vorgenommen werden müssten, so müssten sie auf der Basis kostenwirtschaftlicher und ressourcenschonender Zielvorgaben  erfolgen, die aber nur auf der Grundlage natur- und ingenieurwissenschaftlicher sowie ökonomischer Kenntnisse zu sozial verträglichen Lösungen führen können.

Ferner  sollte per Gesetz bewirkt werden, dass alle Personen, die in Entscheidungsprozessen zur Einführung der sogenannten Erneuerbaren Energien eingebunden sind, offenlegen müssen, ob sie zu den Investoren und somit zu den Profiteuren im Bereich der Erneuerbaren Energien gehören. Falls es zutreffen sollte, müssten sie wegen der Möglichkeit einer Vorteilsnahme von den Entscheidungsprozessen ausgeschlossen werden. Der beste Weg wäre aber, das EEG abzuschaffen.

Für eine konstruktive und zielführende Diskussion ist es dringend erforderlich, dass  die MItarbeiter  in dem von Ihnen geleiteten Ministerium diese Zusammenhänge auf der Basis natur- und ingenieurwissenschaftlicher sowie ökonomischer Gesetzmäßigkeiten richtig beurteilen und darstellen. Mit derartigen, nicht zutreffenden Meldungen über angebliche Erfolge bei der sogenannten Energiewende kann die Politik beim sachlich informierten Bürger kein Vertrauen erwerben. Wenn schon bei einer solchen, relativ einfachen Fragestellung keine richtigen Antworten aus dem von Ihnen geleiteten Ministerium kommen, so ist zu befürchten, dass bei wesentlich komplexeren Fragen erst recht keine zutreffenden Antworten zu  erwarten sind.

Die Aussage „ Erneuerbare Energien schaffen Arbeit“ in Ihrer neuesten Ausgabe „Energiewende Aktuell – Ausgabe 05/2012“ vom 26. März 2012 muss daher auch sehr kritisch  gesehen werden, da hier auf Seite 3 die gleichen falschen Aussagen gemacht werden. Außerdem ist nicht zu erkennen, dass die Arbeitplätze, die durch erhöhte Produktionskosten, durch Konsumein-schränkungen und somit durch Umsatzeinbußen infolge der gestiegenen Stromkosten  verloren gegangen sind bzw. verloren gehen werden, gegengerechnet wurden.

Es sollte bedacht werden, dass nicht die installierte elektrische Leistung (kW), sondern die elektrische Energie (kWh) der Motor aller Wirtschaftszweige und somit auch Träger eines Sozialstaates ist. Jede unwirtschaftlich bereitgestellte kWh ist unsozial und ressoursenschädigend.

Für ein Busunternehmen ist es auch nicht von Bedeutung, wieviel Busse es im Depot stehen hat, sondern wie oft diese Busse im Einsatz sind. Dieser kleine Unterschied entscheidet darüber, ob das Busunternehmen wirtschaftlich überlebt oder nicht.

Über meiner Homepage habe ich folgenden Satz geschrieben:

„Politik kann wohl auf der Basis naturwissenschaftlicher und ökonomischer Gesetzmäßig-keiten gestaltet werden, aber von der Politik dürfen keine eigenen naturwissenschaftlichen und ökonomischen Gesetzmäßigkeiten geschaffen werden.“

Es wäre gut, wenn dieser Satz seine Gültigkeit, die er während meiner langjährigen Tätigkeit vor dem Eingreifen des Staates in die Energiewirtschaft durch das EEG hatte, wieder bekäme.

Dieses Schreiben werde ich unter http://www.Rudolf-Adolf-Dietrich.de/IN010/S-11.pdf  in meiner Homepage aufnehmen.

Mit freundlichen Grüßen

Dr. rer. nat. R. A. Dietrich

in Kopie an:

Bundeskanzlerin  Frau Dr. rer. nat. Angela Merkel

Bundeswirtschaftsminister Herrn Dr. Philipp Rösler

Nds. Ministerpräsident Herrn David McAllister

Nds. Umweltminister Herrn Stefan Birkner

E.ON AG Vorstandsvorsitzenden Herrn Dr. Johannes Teyssen

RWE AG Vorstandsvorsitzenden Herrn Dr. Jürgen Großmann

Bundesverband Verbraucherzentrale e. V. Herrn Dr. Holger Krawinkel

Update:

Es kommt also immer auf die zu wiederholende Behauptung an. Welche irrwitzigen Blüten die "Energiewende" schon jetzt treibt, beleuchtet dieser Artikel:

EU-Griechen mit virtuellem Stromexport




Update zur „Nature“ Shakun Eiszeitstory: Hans-guck-in-die-Luft“ und die „Klimakatastrophe“

Am 5. April 2012 erschien um 16:31 Uhr in SPIEGEL Online ein Bericht mit der Überschrift „Kleine Veränderungen geben der Erde Hitzeschocks“. Der Artikel beginnt mit den Sätzen: „Die Bahn der Erde um die Sonne verändert sich regelmäßig. Der kleine Effekt hat in der Vergangenheit extreme Klimaerwärmungen ausgelöst,…“ Warum sind die Eiszeiten, nicht aber die  Klimaabkühlungen erwähnt? Wenn sich etwas regelmäßig verändert, dann immer in zwei Richtungen, wie beim Pendel. Diese Tatsache auszublenden, riecht nach bewusster Manipulation, denn wer in Dimensionen von Jahrmillionen forscht, muss immer den Wechsel zwischen Glazial- und Interglazialzeiten im Auge haben. Bei Anhalten des Rhythmus der letzten Million Jahre ist die Wahrscheinlichkeit einer „Eiszeit“ wesentlich größer als einer „Warmzeit“.

Schreitet die Erde mit kleinen Schritten über eine kritische Schwelle, einen Kipp-Punkt? Hat der Mensch ihr einen Schubs gegeben, sie aus der Bahn geworfen? Wer einen Schrank umwerfen will, muss ihn zuerst mit Kraftaufwand aus dem Lot, dem Gleichgewicht, bringen und dann solange drücken, bis ein bestimmter Neigungswinkel überschritten ist. Danach fällt der Schrank von alleine um. Beim Menschen genügt schon ein kleiner Fehltritt. Übersieht er eine Bordsteinkante, fällt er auf die Nase. Kleine Fehltritte können katastrophale Folgen haben, insbesondere bei Gratwanderungen im Hochgebirge. Hebt dort einer hochmütig die Nase in die Höhe und bewundert die Luftschlösser am Himmel, dann kann solch ein Leichtsinn tödliche Folgen haben.

Es kann durchaus sein, dass solch ein schreckliches Bild die beiden Klimaexperten und Professoren Hans Joachim Schellnhuber und Stephan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung vor Augen hatten, als sie 2007 die Arbeit „Tipping elements in the Earth’s climate system“ schrieben und der Wissenschaft eine neue Spielwiese bereiteten. Ein „Tipping element“ ist ein Kippelement und es macht Spaß, mit dem Antippen von Glasvasen zu probieren, bei welchem Kraftaufwand sie fallen. Es ist auch ein beliebtes Spiel bei Kindern, einen anderen durch plötzliches Schubsen zuerst aus dem Gleichgewicht und dann zu Fall zu bringen.

Die Klimaexperten rund um den Globus haben sich dieses Kinderspiels angenommen und versuchen, die Erde aus der Bahn zu kippen. Da das mit der wirklichen Erde nicht geht, hat man dieses Spiel in den Computer verlagert. Der macht gehorsam, was man ihm befiehlt. Mit Klimamodellen kann man Weltuntergangsspiele anstoßen und etwas für Auflockerung in der sonst nüchternen Wissenschaftsszene sorgen. Man kann den Spieltrieb befriedigen, fleißig Forschungsgelder generieren und die Welt über die Medien in Atem halten. Dies haben zwei Forschungsteams in den USA gemacht und ihre Spielereien in „Nature“ veröffentlicht. Dies ist längst kein Fachblatt mehr, sondern ein Comicheft für Klimajunkies. Veröffentlichen kann nur noch der, der die Spielregeln nicht verletzt und sich zu dem Leitmotiv bekennt, das da heißt: „Lug und Trug sind integrale Bestandteile des Forschens“!

Das Schlimme an den beiden Publikationen von Forscherteams der Harvard University in Cambridge wie der University of Massachusetts in Amherst ist, dass hier so primitiv und plump gelogen wird, dass dies schon als Beleidigung des gesunden Menschenverstandes angesehen werden kann. Da haben vor 55 Millionen Jahren und nochmals vor 18.000 Jahren Geister mit unsichtbarer Hand die Erde aus ihrer regelmäßigen Umlaufbahn geworfen. Die Erde begann zu torkeln, so dass sich zuerst die Antarktis und dann die Arktis erwärmten. Besonders bei der Erwärmung der „südlichen Polarregionen“ wären „gewaltige Mengen an Kohlenstoff freigesetzt“ worden, die dann den „Hitzeschock“ auslösten. Auch heute könnten „Veränderungen des Erdorbits“ ähnliche Folgen haben und eine „galoppierende Erwärmung“ hervorrufen.

Ist dies nicht fürchterlich, schrecklich? Doch wie sollen „gewaltige Mengen an Kohlenstoff“ ausgerechnet über der Antarktis freigesetzt worden sein, die doch nachweislich seit Millionen von Jahren unter einem dicken Eispanzer liegt und nie, wie der südlich Zipfel von Grönland „grün“ und mit Vegetation bedeckt war? Was Wissenschaftler heute einem zumuten, geht schon auf keine Kuhhaut! Aber der Glaube an diese wissenschaftlichen Scharlatane ist in der Politik unerschütterlich, denn ansonsten würde diese Art von Pseudowissenschaft nicht so unendlich fürstlich mit hart erarbeiteten Steuergeldern von den Staaten gefördert. Die Politik weiß, warum sie dies tut, verrät aber ihr Wissen nicht und versündigt sich damit an der Demokratie, die ja transparent sein soll.

Politik und Wissenschaft kooperieren aufs Engste in dem immerwährenden Spiel um Geld und Macht. Die Oberherrschaft hat dabei eindeutig die Politik. Sie trägt daher auch die moralische Verantwortung in diesem amoralischen Spiel mit unbegründeten Ängsten. Wie sublim dieses Spiel ist, das habe ich in meinem Buch „Propheten im Kampf um den klimathron – Wie mit Urängsten um Geld und Macht gekämpft wird“ aufzudecken versucht. So primitiv simpel die Klimamodelle auch sind, die Machenschaften hinter den Kulissen sind umso komplizierter. Da spielen natürlich auch gewichtige wirtschaftliche Interessen- und Verteilungskämpfe mit. Die Last all dessen tragen die Bürger!

Dies ist der eigentliche Skandal. Es ist ein politischer Skandal! Die Politik bedient sich der Klimawissenschaft, um in der Gesellschaft die Neigungsverhältnisse zu ändern, allein zu ihren Gunsten und aus Machtkalkül heraus. Sie hat von Hans Joachim Schellnhuber den „2-Grad-Kipp-Punkt“ übernommen und beim G8-Gipfel in Heiligendamm 2007 zu einem Weltrettungsziel erhoben. Dieser Kipp-Punkt entspricht einem Schwellenwert von 450ppm CO2 in der Atmosphäre. Diesen Wert hatten wir bereits 1941 in Gießen mit 444 ppm an der Agrarmeteorologischen Forschungsstelle fast erreicht. Es wäre ein Grund gewesen, den 2. Weltkrieg mit seinen gigantischen CO2-Emissionen sofort zu beenden.

Es wird Zeit, dass wir wieder zur Realität zurückkehren, zum Wetter, und nicht unsere geistigen wie materiellen Energien vergeuden, um das Hirngespinst „Klimakatastrophe“ nachzuweisen. Sie sollten vielmehr überlegen, wie sie das Wetter schützen oder die Menschheit vor dem Wetter besser schützen können. Apropos, wenn die Klimaexperten schon so schlau sind und wissen, wie die „Globaltemperatur“ in 100 Jahren sein wird, warum nehmen sie nicht den Wetterfröschen das Heft aus der Hand und sorgen mit ihren schlauen Computern für bessere Wettervorhersagen? Die Wetterdienste der Welt mitsamt der Weltorganisation für Meteorologie (WMO) in Genf wären überflüssig!

Dr. Wolfgang Thüne, Dipl.-Meteorologe

Inzwischen beschäftigen sich weitere Autoren mit den merkwürdigen Methoden des Teams um Jeremy Shakun

Eine kleine Auswahl finden Sie hier

Shakun on our wobbly world’s precession, ocean CO2 fizzing, the last ice age, and all that

Did Shakun et al. really prove that CO2 preceded late glacial warming? [Part 1]

Shakun Redux: Master tricksed us! I told you he was tricksy!

Does CO2 correlate with temperature history? – A look at multiple timescales in the context of the Shakun et al. paper




Die dunkle Seite des globalen Naturschutzes

Naturschutzflüchtlinge sind in den gewaltigen Flüchtlingsströmen kaum wahrnehmbar

(Helmut Jäger)

Ein Grund, warum das von den Naturschützern verursachte Flüchtlingsproblem so wenig internationale Aufmerksamkeit findet, ist mit großer Wahrscheinlichkeit die Tatsache, dass Naturschutzflüchtlinge einen geringen Anteil an den von Bürgerkriegen, sonstigen bewaffneten Konflikten und Dürren verursachten Fluchtbewegungen zu haben scheinen. Diese Menschen vor dem Hungertod zu bewahren, ist vordringliche Aufgabe der UNHR, der Flüchtlingshilfe-Organisation der UNO. Die UNHCR selbst ist aber auch Teil des Problems, nicht der Lösung. In UNHCR-Dokumenten wird das Ausmaß von Vertreibungen im Namen des Umweltschutzes maskiert durch die UNHCR-Definition der sogenannten IDPs – Internally Displaced Persons (Interne Vertriebene). Unter der Kategorie "IDP" fasst die UNHCR alle Menschen zusammen, die keine Staatsgrenzen überschreiten, aber dennoch ihre Wohnsitze verlassen. 

 

Afrika ist der Kontinent der Flüchtlinge. (Grafik UNHCR)
Die Naturschutzvertriebenen fasst die UNHCR unter der Kategorie IDP – Internally Displaced People zusammen und macht damit keinen Unterschied, ob die ihrer angestammten Wohngebiete beraubten Menschen aufgrund von Bürgerkrieg, Banden oder Regierungsmaßnahmen ihre Heimat und Existenzgrundlage verloren haben.

Reservate sind interne Angelegenheiten der nationalen Regierungen

Unter der Flagge der hehren Ziele des Umweltschutzes und der Naturerhaltung geschehen Menschenrechtsverletzungen und Verbrechen an eingesessenen Völkern und Stämmen. Seit über einem Jahrhundert wurden und werden Reservate, Schutzgebiete und Rückzugsräume für die vom Menschen bedrohte Fauna und Flora geschaffen – auch Jagdreservate für die Reichen der Welt. Das Schicksal der Naturschutzvertriebenen, der aus ihren seit Jahrhunderten oder gar Jahrtausenden angestammten Siedlungsgebieten vertriebenen Menschen, wird verschwiegen.

Allein in Afrika wurde bis zum Jahr 2000 der Anteil der geschützten Landflächen auf rund 150 Mio Hektar (etwa 5 Prozent der gesamten landwirtschaftlich nutzbaren Fläche) vergrößert. Fast alle afrikanischen Staaten haben geschützte Gebiete geschaffen, einige entzogen bis zu 10 Prozent ihres Landes der angestammten landwirtschaftlichen Nutzung. Betroffen von diesen staatlichen Landnahmen waren nach Schätzungen 1,5 bis 24 Mio Menschen.
undefined(Geisler/Sousa: From Refuge to Refugee, the African Case. 2000)

Die großen, global agierenden Nichtregierungsorganisationen wie Nature Conservancy, World Wildlife Fund, Conservation International, Wildlife Conservation Society und allen voran die International Union for Conservation of Nature IUCN stellen ihre Rolle als Naturschützer publikumswirksam und mit hohem moralischen Anspruch dar. Ihre beitragende Rolle zu den negativen Auswirkungen ihrer Umweltschutzaktivität bleibt unsichtbar. Sie sind sowohl Initiatoren wie auch Partner vieler nationaler politischer Eliten. Letztere benutzen das Ansehen und die Einflussmöglichkeiten der Nicht-Regierungs-Organisationen auf die veröffentlichten Meinungen, um ihre eigenen Ziele bei der Schaffung von Naturreservaten zu verfolgen. Die externe Finanzierung für arme Drittwelt-Staatsregierungen spielt dabei eine wichtige Rolle. Gerade die Zusammenarbeit mit lokalen Regierungsstellen ermöglicht den Nichtregierungsorganisationen, ihre Verantwortung für ethnische Vertreibungen und andere negative Folgen abzuleugnen. Sie können auf lokale Machthaber verweisen, wenn vorgesehene Reservate von einheimischen Bevölkerungen „gesäubert“ werden.

Es sollte aber nicht verschwiegen werden, dass es auch Beispiele für die gelungene Einrichtung von Reservaten und Schutzräumen gibt.

Die Forschung nimmt sich nur sehr zögerlich des unter starker Intransparenz leidenden und nur schwierig zu behandelnden Themas an, aber die Stimmen nehmen zu, die auf die Probleme bei der ständigen Vergrößerung der Naturschutzgebiete aufmerksam machen. Ein neues Buch des amerikanischen kritischen Journalisten Mark Dowie erregt derzeit Aufmerksamkeit: Conservation Refugees [„Naturschutzvertriebene“]

#################################################

William Walter Kay schreibt
auf der Webseite "Environmentalism is Fascism:"

Mark Dowie war Herausgeber und Redakteur beim kritischen Magazin Mother Jones. Mit seinen sechs Büchern und 200 Artikeln hat er 18 Auszeichnungen gewonnen. Für die Forschungen zu seinem neuen fachbegutachteten Buch, das vom M.I.T. gedruckt und herausgegeben wird, hat er Jahre mit Reisen um die Welt verbracht und dabei mit vielen leitenden Persönlichkeiten auf der Seite der Naturschützer wie auch auf der Seite der lokalen Verantwortlichen gesprochen.

Mark Dowie

Dowie konnte viele vertrauliche Dokumente der vorherrschenden Naturschutzorganisationen einsehen. Ganz ungewöhnlich für ein derartiges Buch ist, dass es keine Danksagungen enthält und keine Namen von Dowies Förderern.

Die Hauptpunkte:

  • Die weltweite Gesamtzahl der Naturschutzvertriebenen liegt zwischen 5 bis 20 Millionen Menschen. Dowie schätzt sie auf 10 Millionen. Ein anderer Forscher schätzt 14 Millionen allein für Afrika.

Das Problem der Naturschutzvertriebenen wird geflissentlich von der Wissenschaft übersehen. Naturschutzvertriebene werden verborgen, weil der Preis für den Naturschutz teurer würde, wenn sie sichtbar würden.

Nach 1970 haben die vorherrschenden und führenden Umwelt- und Naturschutzorganisationen Hilfstruppen aus den am meisten rückständigen Völkern der Welt rekrutiert. Derartige Marionetten-Bewegungen stellen sich heute gegen allfällige Umweltzerstörungen.

Die Umweltschützer kann man einteilen in solche, die die vollständige Entvölkerung des Hinterlandes befürworten, und in solche, die sich der einheimischen Umweltschutz-Hilfstruppen bedienen wollen, um selbst die Kontrolle über die Gebiete zu erlangen.

W.W. Kay

Als weiterführende Lektüre [nur in Englisch] empfiehlt William Walter Kay:

undefined Mac Chapin: A Challenge to Conservationists

undefined Dan Brockington and Jim Igoe: Eviction for Conservation: A Global Overview

 undefined Michael Cernea and Kia Schmidt-Soltau: Poverty Risks and National Parks: Policy Issues in Conservation and Resettlement

Zusätzliche Empfehlung des Übersetzers zum besseren Verständnis der Rolle der UNHCR:

undefinedUNHCR2007_DisplPeople_QA.pdf

undefinedUNHCR_Handbook_IDP_I.pdf

undefinedUNHCR_PartnerProfile.pdf

Übersetzung: Helmut Jäger, EIKE




Warum die Verringerung der CO2-Emissionen kostenineffektiv ist

Das war eine absichtliche Untertreibung. Ich habe mich intensiv damit befasst zu sehen, ob der kalifornische Entwurf ökonomisch jemals irgendeinen Sinn erfüllen würde. Der Durchlauf der Ergebnisse durch mein einfaches Modell bestätigte, was viele schon lange geargwöhnt haben, womit aber bis jetzt nur wenige gerechnet haben: zu versuchen, unsere Emissionssünden zu vermindern, ist einer kostenineffektivsten Wege überhaupt, das Geld der Steuerzahler in die Tonne zu treten.

Ich habe die Kosten des kalifornischen Schemas in Höhe von 182 Milliarden Dollar multipliziert und die damit verbundenen Abschwächungsmaßnahmen nicht mit dem Faktor 10, sondern 2,5 zugrunde gelegt – ein Viertel der wirklichen Gesamtkosten während eines Jahrzehnts. Der Grund dafür, dass ich die festgestellten Kosten der kalifornischen Politik in dieser Hinsicht nur durch vier geteilt habe, ist die Kritik von Einigen an der Studie, aus der ich die Kosten in Höhe von 182 Milliarden Dollar abgeleitet habe – Varshney und Tootelian 2012 – in der die Kosten übertrieben worden seien.

Ich hätte wirklich eine minimale zwischenzeitliche Diskontrate von mindestens 5% anbringen sollen, was die Kosten auf 410 Milliarden Dollar drückt. In den aktualisierten Graphiken, die ich in diesem Beitrag vorstelle, habe ich diese Diskont-Rate korrekt einbezogen.

Mein Modell ist einfach und schließt Kosten und Vorteile außerhalb der CO2-Problematik aus: anders als bei anderen, aus der Literatur bekannten Methoden zähle ich als Vorteil der Abschwächung die Kosten, die wir durch die Verhinderung klimabezogener Schäden durch die Erwärmung einsparen im Vergleich zu den Kosten, die sich ergeben, wenn wir nicht sofort gegen das CO2 vorgehen.

Hinsichtlich der Vorteilsseite der Kosten habe ich ebenfalls intensiv versucht, nachsichtig mit jenen zu sein, die die Abschwächungsmaßnahmen vorschlugen. Ich habe die allgemein übertriebenen Schätzungen der Vermögensverluste durch Tatenlosigkeit zugrunde gelegt, die sich im Stern-Report über die wirtschaftlichen Folgen der Klimaänderung finden.

In Kürze sagt Stern, falls die anthropogene Erwärmung des 20. Jahrhunderts 3°C beträgt, was die zentrale Projektion des IPCC ist, würden die Kosten der klimabezogenen Schäden 0 bis 3% des Bruttoinlandproduktes [englisch: GDP] betragen (tatsächlich sagt er, „jetzt und für immer“, aber das ist keine ökonomische Analyse: es ist politische Angeberei! Margaret Thatcher würde sagen: „Don’t be silly, dear!”).

Also wäre der von Stern geschätzte Verlust an Wohlstand auf Grundlage der anthropogenen 3°C im Mittel von 0 bis 3%, d. h. 1,5% des GDP im 21. Jahrhundert. Auch dies sollte über das 10 Jahre lange bestehen dieses Schemas mit 5% diskontiert werden, was während dieser Periode 1,27% des GDP ausmachen würde.

Nun ist es allerdings so, dass ich angesichts der Fehler, der Übertreibungen und des Scheiterns der IPCC-Dokumente nicht einen Moment lang glaube, dass wir irgendetwas ähnlich der 3°C-Erwärmung bis zum Jahr 2100 sehen werden. Selbst das IPCC erwartet lediglich die Hälfte davon, oder 1,5°C, die es bis 2100 als Folge des von uns in diesem Jahrhundert emittierten CO2 geben soll. Es sind also lediglich diese 1,5°C, die man mit Maßnahmen zur CO2-Verringerung wahrnehmbar beeinflussen könnte.

Diese 1,5°C sind das Maximum der Erwärmung im 21. Jahrhundert, die wir verhindern könnten, selbst wenn wir im Jahr 2000 sämtliche CO2-Quellen geschlossen hätten. Die restlichen 1,5°C – etwa die Hälfte davon durch Gase ohne CO2 und die Hälfte der bereits aufgrund unserer Emissionen in der Vergangenheit eingetretenen Erwärmung – wird sich auf jeden Fall ereignen, egal welche Maßnahmen wie jene in Kalifornien man ergreift.

Auf dieser Grundlage sollte man die Vorteile aus den von Stern geschätzten 1,27% des eingesparten GDP halbieren. Aber wir wollen – wieder wohlwollend – einmal davon ausgehen, der Vorteil wäre bei Verhinderung der gesamten durch CO2 getriebenen Erwärmung im 21. Jahrhundert wirklich 1,27% des GDP.

Sollte das Modell die Möglichkeit berücksichtigen, dass der Zertifikatehandel in Kalifornien Gelegenheiten für zunehmende Arbeitsplätze schafft? Ich denke nicht. Wie es bei Friedland Multiple heißt: jeder Arbeitsplatz, der durch Subventionen geschaffen wird, zerstört zwei andere Arbeitsplätze unter den Steuern zahlenden Klassen; und einem kürzlichen schottischen Bericht zufolge zerstört jeder mit Mitteln des Steuerzahlers geschaffene „grüne Arbeitsplatz“ fünf andere Arbeitsplätze anderswo.

Warum hat Intel verkündet, es werde niemals wieder eine Fabrik in Kalifornien bauen? Warum wurde die Ölförderung aus Monterey Shale seit 1990 um mehr als ein Drittel gekürzt, obwohl die nachgewiesenen Reserven zugenommen haben? Warum hat es ein nahezu totales Moratorium bei Öl- und Gasbohrungen vor der kalifornischen Küste seit nunmehr 40 Jahren gegeben?

Warum beträgt die Arbeitslosigkeit in Kalifornien 11% – die zweithöchste Rate in den USA nach Nevada? Warum gibt es in der Bauwirtschaft eine Arbeitslosenrate von 50%, die im Gegensatz zu Vorteilen aus der Umrüstung von Gebäuden mit „grüner“ Technologie steht?

Warum weist der Staatshaushalt 2012/2013 ein Defizit von 6 Milliarden Dollar aus? Warum klafft in Kalifornien eine Finanzlücke von 200 bis 250 Milliarden Dollar in der Renten- und Pensionskasse, und wie soll man die Renten weiter zahlen können, wenn das so weiter geht?

Warum sind Sacramento Bee zufolge 50 000 hoch spezialisierte Kalifornier (ein Drittel der Gesamtzahl) in nur zwei Jahren geflüchtet? Warum haben sich 2011 doppelt so viele Firmen wie 2010 aus Kalifornien zurückgezogen? Warum sind Globalstar, Trizetto und eEye in nur einem Monat des vorigen Jahres geflüchtet? Warum sind Boeing, Toyota, Apple, Facebook, DirecTV, Hilton Hotels und Thomas Bros. Maps alle geflüchtet?

Es wäre falsch, alle diese Entscheidungen zur Flucht als direktes Ergebnis des kalifornischen Zertifikatehandels zu bezeichnen, und das habe ich auch nicht getan. Die Wahrheit ist, dass Kalifornien – lange dominiert von fest verwurzelten, hart linken Gewerkschaften und einer offen marxistischen Gesetzgebung – schon jetzt der bei Weitem am wenigsten industriefreundliche US-Bundesstaat ist. Der Zertifikatehandel wird die Lage noch erheblich verschlimmern. Die Wagen rollen schon in Richtung Osten: schon bald werden sie zu einer Sturzflut werden.

Wie ich in Sacramento den Gesetzgebern als Erstes erklärt  habe, ist das erklärte Ziel ihres Zertifikatehandels, den CO2-Ausstoß in Kalifornien in dem Jahrzehnt seiner Gültigkeit um 25% zu vermindern. Aber die kalifornischen Emissionen betragen nur 8% der Gesamtemissionen in den USA, die wiederum 17% der Weltemissionen ausmachen.

Selbst wenn also der Zertifikatehandel so erfolgreich wäre, wie es seine Schöpfer gerne hätten, würden nur etwa 0,34% der globalen Emissionen – ein Drittel eines Prozentes – eingespart. In diesem Vergleich ist nichts, was auch nur ansatzweise kontrovers wäre, außer dass offenbar noch niemand vorher darauf hingewiesen hatte. Die Minen der Gesetzgeber waren versteinert, als ich ihnen das klarmachte.

Weil nur ein so kleiner Teil der globalen Emissionen durch das System eingespart werden würde, zeigen schon einfache, auf den zentralen Vermutungen des IPCC basierende Rechnungen, wie viel Erwärmung es in diesem Jahrhundert geben wird (was ich der Einfachheit halber jetzt mal als korrekt ansehe). Als Ergebnis der gesamten und erfolgreichen Operation des Schemas wird der CO2-Anteil bis zum Ende dieser Dekade von 410 ppmv auf – em – 409,93 ppmv fallen.

Die Verringerung des anthropogenen Strahlungsantriebs würde folglich weniger als 0,001 Watt pro Quadratmeter betragen, und die damit verminderte Erwärmung – warten Sie, warten Sie – atemberaubende 0,001°F (höchstens). Jawohl, weniger als ein Tausendstel Fahrenheit globaler Erwärmung würde verhindert – zu einem Preis in Höhe von 410 Milliarden Dollar selbst nach Anbringung eines Diskontsatzes.

Ist das ein Handel für die jetzt schon überbesteuerten, überregulierten Einwohner von Kalifornien? Wir berichten – Sie entscheiden!

Es ist wichtig zu verstehen, warum Maßnahmen, den CO2-Ausstoß abzuschwächen, immer unbezahlbar sein werden. Erstens, wie das kalifornische Beispiel zeigt, verändern lokale Abschwächungsmaßnahmen die globale CO2-Konzentration nicht messbar. Daher ist der anthropogene Strahlungsantrieb kaum verändert.

Also wird der Versuch Kaliforniens, die globale Erwärmung anzuhalten, nur eine so geringe Abkühlung zeitigen – im aktuellen Beispiel von weniger als einem Tausendstel Grad Fahrenheit – dass kein modernes Instrument oder Methode das feststellen kann. Selbst wenn das kalifornische Schema zu einem Schnitt von 25% der Emissionen im Staat führen würde (was es nicht wird), hätte der Staat keine Möglichkeit zu messen, dass er hinsichtlich des Bewirkens einer globalen Abkühlung erfolgreich war.

Nun könnten Sie einwenden, wie es einige Kommentatoren zu meinem Vortrag vor den kalifornischen Gesetzgebern getan haben, dass natürlich Kalifornien mit einem Alleingang kaum etwas bewirken würde. Jeder muss also Kalifornien folgen und so viele Wirtschaftszweige wie möglich schließen. Lassen Sie uns diese unattraktive Option einmal bewerten.

Ein wenig grundlegende Mathematik wird zeigen, dass die Kosten zur Verminderung der globalen Erwärmung um 1 Grad Fahrenheit durch weltweite Maßnahmen genauso spektakulär kostenineffektiv sind wie in Kalifornien, nahe 640 Trillionen Dollar – ziemlich viel mehr als eine ursprüngliche Schätzung von 454 Trillionen Dollar, weil ich so großzügig mit den Werten der Klimasensitivitätsparameter im Zeitraum von Jahrhunderten gewesen bin.

Sein Wert sollte 0,4 Kelvin pro Watt pro Quadratmeter nicht übersteigen, während ich großzügig den Parameter von 0,5 Kelvin pro Watt pro Quadratmeter übernommen hatte, wie er implizit im IPCC-Bericht 2007, Seite 13, Tabelle SPM.3. steht.

Alles zusammengefasst würden die Kosten für die Verminderung der Erwärmung um ein Drittel Grad Fahrenheit, was das IPCC als Erwärmung in dem Jahrzehnt der Laufzeit dieses Schemas annimmt, und falls jemand so lächerlich kostenineffektive Maßnahmen übernehmen würde, etwa 25 000 Dollar pro Kopf der Weltbevölkerung betragen, oder ein Drittel des globalen GDP während eines Jahrzehnts. Das wären 26 mal die Kosten, die entstehen könnten, wenn wir gar nichts zur Verhinderung der Erwärmung tun würden.

Ich habe absichtlich sehr vorsichtige Annahmen in meiner Präsentation vor der Versammlung in Sacramento gemacht, und ich habe den Legislatoren gesagt, dass Aktionen nur 11 mal so viel Kosten würden wie keine Aktionen. Aus mehreren Gründen erwarte ich, dass die Kostenineffektivität des kalifornischen Schemas (das in keiner Weise untypisch für solche Maßnahmen ist) deutlich schlimmer ausfallen wird als aus irgendwelchen meiner oben präsentierten Folien hervorgeht.

Zunächst ist es überhaupt nicht wahrscheinlich, dass das Schema hinsichtlich einer Abschwächung der kalifornischen Emissionen um 25% erfolgreich sein wird. Die Schemata der EU und von Neuseeland haben die Emissionen nicht um einen Deut verringert, und das Schema der EU bricht – zum vierten Mal hintereinander – zusammen, da die Kosten für das Recht, eine Tonne CO2 zu emittieren, unter 8 Dollar gefallen sind. Vor einigen Tagen gab es wieder einen deutlichen Rückgang, und – wenn es so weitergeht wie bisher – könnte es enden wie der inzwischen gescheiterte Kohlenstoffhandel in Chikago, wo der Preis unter 10 Cent pro Einheit gefallen war.

Nun haben natürlich die Diktatoren der EU [!] die Macht, den Umfang der Zertifikate künstlich zu verknappen, um die Preise in die Höhe zu treiben. Das ist der Grund, warum der Zertifikatehandel kein – ich wiederhole: kein – Instrument des Marktes ist. Es ist der Wunschtraum jedes Tyrannen und der Alptraum aller Geschäftsleute. Deswegen verlassen immer mehr emissionsintensive Branchen Europa und werden demnächst die Flut der schon jetzt aus Kalifornien flüchtenden Industrien verstärken.

Aus diesen und vielen anderen Gründen tendiert mein Modell dazu, die Abschwächung der Erwärmung zu übertreiben, die irgendwelche CO2-Reduktionen hervorrufen könnten, und auch dazu, die Kostenineffektivität zu untertreiben. Zum Beispiel geht das IPCC von einer Verweildauer des CO2 in der Atmosphäre von 50 bis 200 Jahren aus: Falls das so sein sollte, wird es kaum irgendeine Abschwächung im 21. Jahrhundert geben.

Auch legen meine Zahlen nahe, dass jede politisch getriebene Maßnahme zur Reduktion der CO2-Konztentration sofort stattfindet, obwohl sie wahrscheinlich schrittweise zwischen dem Start- und dem Endjahr erfolgt. Dies würde die Abschwächung jenes Jahres halbieren und die Kostenineffektivität verdoppeln. Wenn die zentralen Projektionen des IPCC (auf denen meine Berechnungen basieren) die Erwärmung weiterhin so übertreiben, die sich aus einer vorausgesetzten Zunahme der CO2-Konzentration in der Atmosphäre ergibt, könnte die Kosteneffektivität noch geringer sein als gezeigt.

Bisher gab es seit dem Jahr 2001 überhaupt keine Erwärmung mehr. Tatsächlich gab es neuesten Daten des Hadley Centers und der CRU an der UEA zufolge seit vollen 15 Jahren keine statistisch signifikante Erwärmung mehr.

Natürlich sind solche Perioden stagnierender Temperatur ziemlich oft in den Aufzeichnungen zu finden. Sie bedeuten nicht, dass es keine weitere Erwärmung in Zukunft geben wird. Aber sie drücken die Rate der Erwärmung, welche nicht einmal in der Nähe der ungerechtfertigten zentralen alarmistischen Schätzungen des IPCC liegt.

Die CO2-Emissionen steigen derzeit nach dem A2-Szenario des IPCC, die Zunahme der CO2-Konzentration war ein Jahrzehnt lang nahezu linear. Sie könnte bis zum Jahr 2100 deutlich unter der Hauptschätzung des IPCC von 700 ppmv liegen.

Der von mir verwendete Klimasensitivitätsparameter gilt im Zeitmaßstab eines Jahrhunderts: daher ist ein kleinerer Koeffizient für den von den Studien betrachteten Zeitraum angemessen (der Tatsache geschuldet, dass längerzeitliche Temperaturrückkopplungen sich noch nicht ausgewirkt haben). Konsequenterweise würde eine geringere Abschwächung der Erwärmung die Kosteneffektivität weiter reduzieren.

Und schließlich ignorieren meine Berechnungen alle verpassten Gelegenheiten, von Ressourcen zur Abschwächung der globalen Erwärmung abzulenken. Allerdings können es sich die schon jetzt der industriefeindlichen Volksrepublik Kalifornien entfliehenden Industrien nicht leisten, solche vitalen Überlegungen zu ignorieren. Dies ist der Grund, warum jedes Individuum und jede Firma, die bereit sind zu gehen, bereits gegangen sind.

Die hier gezeigten Graphiken sind absichtlich sehr vereinfacht, aber es ist nichtsdestotrotz eine sehr erhellende Methode, die zentralen klimatologischen Projektionen des IPCC mit den Standards ökonomischer Techniken zu kombinieren, um nicht spezialisierten politischen Entscheidungsträgern leicht zu ermöglichen, eine halbwegs verlässliche Abschätzung der Kosten und Vorteile von Maßnahmen vorzunehmen, die die CO2-Emissionen vermindern.

Meine Methode ist in zweierlei Hinsicht einmalig. Erstens hat vorher noch niemand die Klimatologie des IPCC mit ökonomischen Methoden so direkt kombiniert. Zweitens erlaubt es diese Methode zum ersten Mal, selbst lokale politische Maßnahmen zu evaluieren und mit konkurrierenden Maßnahmen anderswo zu vergleichen.

Falls jemand eine Kopie dieser Studie haben möchte, in der die Methode erklärt und die Gleichungen begründet werden, kontaktieren Sie mich bitte (monckton@mail.com) Ich übermittle sie Ihnen sehr gerne und begrüße Ihre Kommentare. Ich kann sie noch nicht posten, weil ich nach der Präsentation dieser Gedanken auf der Dritten Santa Fe-Klimakonferenz im vorigen November aufgefordert worden bin, die Studie einem Fachjournal zur Veröffentlichung zu übermitteln, und die endgültige Fassung geht gerade an die Begutachter.

Einer meiner noblen Freunde hat mir erzählt, dass er die Analyse dem obersten wirtschaftlichen Berater des Finanzministeriums in UK übermittelt habe. Jedoch kann man dort nicht allzu viel tun, weil die britische Umweltpolitik jetzt von den nicht gewählten Kommissaren in Brüssel festgelegt wird. Seine Botschaft an die Mandarine: „Wie man in Londoner Versicherungskreisen sagt: Wenn der Versicherungsbeitrag die Kosten des Risikos übersteigt, versichern Sie sich nicht!“

Angesichts der ausufernden Kosten für die Abschwächung (man betrachte nur all diese Wagen, die die außerordentlich nutzlose Überregulierung und Über-Besteuerung in Kalifornien verlassen) erhebt sich die Frage, ob man überhaupt versuchen soll, die CO2-Emissionen abzuschwächen.

Aus wirtschaftlicher Sicht ist das Fazit brutal einfach und vollkommen klar. Maßnahmen zur CO2-Abschwächung, die preiswert genug sind, um bezahlbar zu sein, entpuppen sich als ineffektiv, und Maßnahmen, die effektiv sind, sind unbezahlbar.

Christopher Monckton; Viscount of Brenchley

Link: http://wattsupwiththat.com/2012/04/04/why-mitigating-co2-emissions-is-cost-ineffective/

Übersetzt von Chris Frey EIKE




Letzter Beweis, dass wir NICHT Ursache der globalen Erwärmung sind?

Foto rechts: Kalte Tatsachen: Im Gegensatz zu dem, was Klimawissenschaftler glauben, hat sich Antarktika tatsächlich schon im Mittelelter erwärmt.

Aktuelle Theorien zu Gründen und Auswirkungen der globalen Erwärmung sind durch eine neue Studie in Frage gestellt worden, welche zeigt, dass sich im Mittelalter der gesamte Planet erwärmt hat.

Danach kühlte es sich auf natürliche Weise ab, so dass es sogar zu einer ‘kleinen Eiszeit’ gekommen war.

Ein Team von Wissenschaftlern unter Leitung des Geochemikers Zunli Lu an der Syracuse University im US-Bundesstaat New York hat herausgefunden, dass die „Mittelalterliche Warmzeit“ vor 500 bis 1000 Jahren im Gegensatz zu dem ‚Konsens’ nicht nur auf Europa beschränkt war.

Tatsächlich war sie ausgedehnt selbst bis nach Antarktika – was bedeutet, dass es auf der Erde bereits globale Erwärmungen ohne Mithilfe von anthropogenem CO2 gegeben hat.

Gegenwärtig argumentiert das IPCC, dass die Mittelalterliche Warmzeit auf Europa beschränkt war – deswegen sei die gegenwärtige Erwärmung ein vom Menschen verursachtes Phänomen.

Allerdings hat Professor Lu gezeigt, dass dies nicht stimmt – und der Beweis liegt in einem seltenen Mineral mit dem Namen Ikaite, welches sich in kalten Gewässern bildet. [Ikaite = bei tiefen Temperaturen kann Kalziumkarbonat zu Ikaite kristallisieren. Formelzeichen: CaCO3·6H2O. Wer mehr wissen will: googeln! A. d. Übers.]

Professor Lu: „Ikaite ist eine eisige Version von Kalkstein. Die Kristalle sind nur unter kalten Bedingungen stabil und schmelzen bei Zimmertemperatur“.

Es stellte sich heraus, dass das Wasser, das die Kristallstruktur zusammenhält – Hydratwasser genannt – Informationen über die herrschenden Temperaturen speichert, die bei der Bildung der Kristalle geherrscht haben.

Dieses Ergebnis des Forschungsteams um Prof. Lu etabliert Ikaite zum ersten Mal als einen zuverlässigen Weg, vergangene Klimabedingungen zu untersuchen.

Beweise für die Erwärmung der Erde vor über 1000 Jahren fanden sich in einem seltenen Mineral namens Ikaite.

Die Wissenschaftler untersuchten Ikaitekristalle aus Sedimenten, die vor der Küste Antarktikas erbohrt worden sind. Die dortigen Sedimentschichten sind vor über 2000 Jahren abgelagert worden.

Sie waren besonders an den Kristallen interessiert, die in Schichten gefunden worden sind, die sich während der ‚kleinen Eiszeit’ abgelagert hatten, also vor etwa 300 bis 500 Jahren, sowie zuvor während der mittelalterlichen Warmzeit.

Beide Klimaereignisse sind für Nordeuropa dokumentiert, aber Schlussfolgerungen, ob sich diese Bedingungen in Nordeuropa auch bis nach Antarktika einstellten, waren damit bisher nicht möglich.

Lus Team fand, dass dies tatsächlich der Fall war.

Sie konnten dies aus der Menge schwerer Sauerstoffisotope ableiten, die sich in den Kristallen gefunden hatten.

Während kalter Perioden gab es viele, während warmer Perioden gar keine.

„Wir haben gezeigt, dass Klimaereignisse in Nordeuropa die Klimabedingungen in Antarktika beeinflusst haben”, sagt Lu. „Noch wichtiger: Wir sind extrem glücklich, dass es uns gelungen ist, dieses Klimasignal aus diesem speziellen Mineral zu erhalten. Ein neues Proxy ist für das Studium vergangener Klimaänderungen immer willkommen“.

Diese Forschungsergebnisse wurden vor Kurzem online im Journal Earth And Planetary Science Letters veröffentlicht und werden in gedruckter Form am 1. April erscheinen.

Ted Thornhill

Read more: http://www.dailymail.co.uk/sciencetech/article-2120512/Global-warming-Earth-heated-medieval-times-human-CO2-emissions.html#ixzz1qR8cu8ch

Link: http://www.dailymail.co.uk/sciencetech/article-2120512/Global-warming-Earth-heated-medieval-times-human-CO2-emissions.html

Übersetzt von Chris Frey EIKE




KK-Strom Aktion beendet: Auswertung per 25.3.12

Erwartungsgemäss hoffen viele der Interessenten, dass KK-Strom etwas billiger angeboten werden kann.  Es sind von der Anzahl her 43 %  (max 15 % billiger lautete die Vorgabe). Immerhin 51 % würden diesen Strom auch beziehen wollen, wenn er gleich teuer wäre, und immer noch 6 % würden auch dann auf KK-Strom Wert legen, wenn er teurer (max 15 % lautete die Vorgabe).

Abbildung 1: Verteilung der Interessesentenauf die Bezugskategorien billiger , gleich teuer, teurer.

Der Verbrauch teilt sich ähnlich auf. Von den rd 4000 MWh entfallen 43 % auf diejenigen, die es gerne billiger hätten, 50 % auf die, die auch dann kaufen würden, wenn er gleich teuer wäre und immerhin 7 % der Menge würde von Interessenten auch dann bezogen werden wenn er teurer sein würde.

Von den deutschen Versorgern wurden bisher RWE, EON und Vattenfall angefragt, ob sie ggf. "reinen" KK-Strom liefern würden. EON und Vattenfall lehnten dies ab.  RWE ist noch am Überlegen. Zwei der Interessenten hatten Ihre aktive Mithilfe angeboten den Bezug unternehmerisch organisieren zu helfen, insbesondere aus Tschechien. Leider verloren sie aber zwischendurch die Lust.

Wie geht es weiter?

EIKE prüft jetzt von wem und ob ein solcher Bezug möglich ist. Sollte diese Prüfung positiv ausgehen, dann werden wir eine Strom-Handelsgesellschaft gründen (Details dazu stehen noch aus) und unseren Lesern den Strom-Bezug ggf. ist auch eine Beteiligun denkbar.

Zu gegebener Zeit werden wir über den Status berichten. 

Danke an alle die sich als Interessenten gemeldet habe, Es gibt eben auch noch besonnene Leute in Deutschland

Michael Limburg EIKE




Nature -Studie befördert CO2 mit Statistiktricks vom Trittbrettfahrer zum Steuermann. Wie dem CO2 das Ende der Eiszeit angedichtet wird!

Genau das hat man auch gemacht. Vor mehr als 10 Jahren veröffentlichte ein schweizerisch-französisches Forscherteam in der Zeitschrift Science eine Untersuchung eines Antarktis-Kerns. Mit dabei war übrigens auch der heutige Vorsitzende der Arbeitsgruppe “Wissenschaftliche Grundlagen” des Weltklimarats IPCC, Thomas Stocker. Die Wissenschaftler konnten zeigen, dass das CO2 der Temperaturentwicklung um ca. 800 Jahre hinterherhinkt. Berücksichtigt man diesen wichtigen zeitlichen Zusammenhang, so wird klar, dass die CO2-Entwicklung während dieser Zeit wohl eher eine Reaktion auf die Temperatur darstellt und keineswegs die Ursache der Klimaänderungen sein kann. Aus den Eiskerndaten eine bedeutende Klimapotenz des CO2 abzuleiten ist daher abwegig. Einen plausiblen Mechanismus für die beobachtete Entwicklung gibt es übrigens auch: In warmem Wasser kann sich nämlich weniger CO2 lösen. Da sprudelt das freiwerdende Kohlendioxid zu Beginn der Warmzeit einfach aus dem Meer heraus und sammelt sich in der Atmosphäre. Wenn es dann zu Beginn einer neuen Eiszeit kälter wird, kann sich dieser CO2-Überschuss im nun aufnahmebereiten Meerwasser wieder lösen und die CO2-Konzentration der Atmosphäre sinkt. 

Die verzögerte CO2-Entwicklung versuchten einige bekannte Akteure der Klimadiskussion in der Vergangenheit gerne zu verschleiern, darunter auch Al Gore in seinem Oscar-prämierten Film „Eine unbequeme Wahrheit“. Der Fehlschluss ist Mitgrund dafür, dass der Film laut Gerichtsbeschluss an britischen Schulen nicht mehr unkommentiert gezeigt werden darf. Auch Hartmut Graßl wandte den Trick in seinem Buch „Klimawandel – Was stimmt? Die wichtigsten Antworten“ nur allzu gerne an. 

 

Abbildung 1: Die Temperaturkurve hat gegenüber dem CO2 einen Vorlauf von durchschnittlich 800 Jahren, ist also hier Auslöser und nicht Folge der CO2-Veränderungen. Abbildung ergänzt nach Monnin et al. 2001.

Dem Weltklimarat passte die unbequeme zeitliche Abfolge der Ereignisse natürlich so gar nicht ins Konzept. Vielfach wurde argumentiert, dass die Temperatur zwar den Startschuss zur CO2-Erhöhung gegeben hat, danach aber das CO2 als Haupt-Wärmetreiber übernommen hätte. Dies lässt sich jedoch leicht widerlegen, da die Verzögerung von 800 Jahren hartnäckig über den gesamten Verlauf der Eiskernkurven aufrechterhalten blieb. Wenn CO2 auf dem Chefsessel gewesen wäre, hätte das CO2 die Temperatur an irgendeiner Stelle doch überholen oder zumindest gleichziehen müssen, was jedoch nicht passiert ist. 

Gerade entsteht der neue IPCC- Bericht und es wäre doch schön, wenn man dieses lästige Problem noch schnell irgendwie loswerden könnte. Da kam dem Weltklimarat eine neue Publikation in nature gerade recht, die den zeitlichen Verzug des CO2 in einen zeitlichen Vorsprung umwandeln wollte. Erstautor der Studie ist der frisch promovierte Jeremy Shakun. Interessant ist jedoch, dass sein Co-Autor und Doktorvater Peter Clark koordinierender Leitautor im neuen IPCC-Bericht ist. Und auch die Co-Autorin Bette Otto-Bliesner ist Leitautorin im neuen Werk des Weltklimarats. Aufgabe des IPCC ist eine neutrale Sichtung und Bewertung der wissenschaftlichen Literatur. Wie kann diese Neutralität gewährleistet sein, wenn letztendlich IPCC-Mitglieder über ihre eigenen Arbeiten gutachten? 

Worum geht es nun in der neuen Publikation eigentlich? Das Forscherteam um Jeremy Shakun wusste natürlich, dass das CO2 der Temperatur im antarktischen Eiskern um 800 Jahre der Temperatur hinterherhinkt. Dies wäre jedoch nicht weiter schlimm, sagen sie, denn es handelte sich hier lediglich um eine lokale antarktische Temperaturentwicklung. Daher stellten die Forscher Temperaturkurven aus zahlreichen anderen Teilen der Erde zusammen, leiteten daraus einen Mittelwert ab – und voilà – plötzlich hinkte die global gemittelte Temperatur der CO2-Entwicklung hinterher. Die Temperatur der Antarktis hatte einfach zu früh „gezuckt“ und wäre nicht repräsentativ. Irgendwie muss die Antarktis schon geahnt haben, dass 800 Jahre später das CO2 ansteigen wird und hat sich in vorauseilendem Gehorsam bereits erwärmt. In Wirklichkeit ist die Erwärmung der Südhalbkugel (Antarktis) und der Nordhalbkugel (Grönland) sehr oft durch einen zeitlichen Verzug gekennzeichnet (siehe z.B.Steig & Alley 2002). Für den Untersuchungszeitraum gegen Ende der letzten Eiszeit hat sich zunächst die Südhalbkugel (Antarktis) erwärmt. Daauf der Südhalbkugel der größte Teil der Ozeane beheimatet ist, entgaste hier während dieser Phase sehr viel CO2. Die Erwärmung der Nordhalbkugel erfolgte durch den typischen Zeitverzug später, hat jedoch im Kern nichts mit der passiven CO2-Entgasung zuvor zu tun. Shakun und Kollegen begehen nun den Fehler und interpretieren einen ursächlichen Zusammenhang zwischen CO2-Anstieg und Erwärmung der Nordhemisphäre.  Aufgrund der neuen, fehlinterpretierten zeitlichen Abfolge lasten sie die globale Erwärmung gegen Ende der letzten Eiszeit zu einem großen Teil dem CO2 an. In Zahlen ausgedrückt: Die Kohlendioxid-Konzentration in der Atmosphäre schnellte damals um 40 Prozent in die Höhe, was laut der Shakun-Gruppe zu einer Erwärmung von rund 3,5 Grad Celsius geführt hätte. Große Zufriedenheit beim IPCC über diese außerordentlich hohe Klimawirkung des CO2. Aber auch einige interessierte Medienvertreter atmeten wohl tief durch, da ihnen die liebgewonnene Klimakatastrophe auf diese Weise noch weiter erhalten bleibt. Sogleich wurde die freudige Nachricht ungefiltert und ungeprüft der Welt verkündet (Spiegel Onlineweb.deStern).  

Faktencheck

Es wäre alles schön und gut, wenn nicht mal jemand nachgeschaut hätte, was die Shakun-Truppe in ihrer Studie eigentlich genau gemacht hat. Das Ergebnis ist erschreckend. 

Willis Eschenbach hat sich die Mühe gemacht, die im Nature-Paper verwendeten Temperaturkurven der verschiedensten Regionen der Erde separat aufzutragen. Die Kurven hat er feinsäuberlich in seiner Analyse auf WUWT abgebildet. Die Überraschung: Er fand riesige regionale Unterschiede. Der Erwärmungsbeginn unterscheidet sich um bis zu 10.000 Jahre. Wie man aus dieser riesigen Datenstreuung ein globales Hinterherhinken der Temperatur gegenüber dem CO2 ableiten soll, wie im Titel der Shakun-Arbeit behauptet wird („Global warming preceded by increasing carbon dioxide concentrations during the last deglaciation“), ist ein echtes Rätsel (siehe Abbildung 2).

 

Abbildung 2: Gesamtdarstellung der von Shakun et al. (2012) verwendeten Temperaturdaten (in grün). CO2-Kurve aus der Antarktis als schwarze Kreise. Ein konsistenter Vorlauf des CO2 gegenüber der globalen Temperaturentwicklung ist nicht zu erkennen. Die Streuung ist einfach zu groß. Zusatzfrage: Wie würde eigentlich die CO2-Kurve nach 5000 v. Chr. weitergehen? Die Eiskerne reichen doch bis zur Heutezeit!? (die Auflösung gibt es in Abbildung 4) Abbildungsquelle: Willis Eschenbach auf WUWT.

In der Nature-Arbeit selbst werden lediglich schön geglättete Kurven gezeigt, die jedoch wenig mit der Realität zu tun haben (Abbildung 3). Warum haben sich die Gutachter der Zeitschrift Nature bei diesem sensitiven Thema nicht die Zeit genommen, die Datenbearbeitung zu überprüfen? Die Autoren hatten die Daten mit dem Manuskript lobenswerterweise zur Verfügung gestellt. Wie konnte die eklatante Fehlinterpretation durch das Nature-Gutachtersystem flutschen? Wer waren überhaupt die anonym-gebliebenen Gutachter? Möglicherweise IPCC-Kollegen? Wäre diese Information nicht vielleicht wichtig im Sinne der Transparenz?

 

Abbildung 3: Das haben Jeremy Shakun und seine Kollegen aus der stark streuenden Punktwolke gemacht (rot: Temperatur Antarktis; gelbe Punkte: CO2-Messwerte Antarktis-Eiskern; blau: angebliche globale Temperatur) . Offensichtlich wurde „mit geeigneten statistischen Verfahren“ den Daten ein fragwürdiges Signal entlockt, das der kritischen Überprüfung jedoch nicht standhält (siehe Darstellung der realen Datenbasis in Abbildung 2). Abbildung aus Shakun et al. 2012

Eschenbach hat zwischenzeitlich noch einmal nachgebohrt und eine weitere interessante Beobachtung gemacht (siehe sein WUWT-Artikel „Shakun Redux: Master tricksed us! I told you he was tricksy!“). Die Kurven in der Shakun-Arbeit beschränken sich auf die Zeit bis 7000 Jahre vor heute, das entspricht 5000 vor Christus. Dies gilt auch für die antarktischen CO2-Daten der Wissenschaftlergruppe. Die mitgelieferten Temperaturdaten gehen jedoch weiter bis in die Heutezeit. Eschenbach hat nun die CO2-Datenlücke mit anderen Eiskerndaten geschlossen und machte eine interessante Beobachtung. Während die Shakun-Temperaturwolke in den letzten 700 Jahren leicht nach unten abknickt, die Temperaturen also offenbar im Durchschnitt abgesunken sind, stieg das CO2 weiter an (siehe Abbildung 4). Wie passt eigentlich mit der postulierten starken Klimawirkung des CO2 zusammen? Offensichtlich gar nicht. Man muss davon ausgehen, dass der Shakun-Truppe diese Entwicklung ebenfalls nicht entgangen sein kann. Wie redlich ist es eigentlich, diese wichtige Beobachtung und ihre Konsequenzen in der Publikation nicht anzusprechen? 

 

Abbildung 4: Willis Eschenbach hat die Lücke in der CO2-Kurve nach 5000 v. Chr. mit Daten aus anderen Untersuchungen gefüllt. Wie seltsam: Das CO2 steigt weiter an, obwohl die Temperatur leicht absinkt. Wie kann dies sein? Das passte wohl Shakun et al. 2012 nicht ins Konzept, wurde daher weggeschnitten. Abbildungsquelle: Willis Eschenbach auf WUWT.

Es stellen sich weitere fachliche Fragen, die Don Easterbrook in einem kürzlichen Artikel auf WUWT zusammengestellt hat. 

Man kann sich des Eindrucks nicht erwehren, dass es sich um einen erneuten, verzweifelten Versuch handelt, das geliebte CO2-Katastrophenmodell doch noch zu retten. Bereits im Fall der legendären Hockey Stick Kurve wurde mit statistischen Tricks die Wirklichkeit ad absurdum geführt. Nachdem dies gescheitert ist, versuchen IPCC-nahe Forscher derzeit die Kleine Eiszeit fast ausschließlich mit Vulkanausbrüchen zu erklären. Die Shakun-Arbeit setzt diese Reihe fort. Es zeigt zudem noch einmal deutlich, dass Richter (lies: IPCC-Berichtautoren) nicht über ihre eigenen Taten (lies: wissenschaftliche Arbeiten) richten sollten. Was im Rechtswesen selbstverständlich ist, wird in den politisch sensitiven Klimawissenschaften nicht einmal hinterfragt. Verwundert kratzt man sich am Kopf und staunt. 

Und es gibt eine weitere interessante Parallel zur Hockey Stick Saga. Michael Mann erhielt damals seinen Doktortitel für seine Hockey-Stick-Forschung, wurde danach rasend schnell zum Professor und ins IPCC-Management befördert. Auch Jeremey Shaku führte die jetzt in Nature publizierte Arbeit als Teil seiner Doktorarbeit durch, die er 2010 einreichte (siehe S. 64 in der Doktorarbeit bzw. S. 80 des pdf). Ursprünglich war die Arbeit wohl zur Publikation in Science gedacht. Wurde sie dort eingereicht, möglicherweise abgelehnt und hatte dann bei nature mehr Glück? Und was wird jetzt aus Jeremey Shakun? Wird er eine ähnlich steile Karriere hinlegen wie Mann?

Dr. Sebastian Lüning

zuerst erschienen auf "Die kalte Sonne" 

Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature

 Weiterführende links

Shakun The Last, I Hope 

Die Diskussionen zu dieser Arbeit werden weitergehen. Wir werden die Entwicklung aufmerksam verfolgen und diesen Artikel entsprechend aktualisieren.




Untersuchung des wissenschaftlichen Prozesses in der EPA durch den Generalinspekteur ist willkommen

Washington, D.C. – Senator James Inhofe (R-Okla), hochrangiges Mitglied des Senatskomitees für Umwelt und Öffentlichkeitsarbeit, hat begrüßt, dass der Generalinspekteur (OIG) der Environmental Protection Agency (EPA) seinem Begehren zugestimmt hat, die Vorgehensweise der EPA hinsichtlich von zwei Beratungskomitees zu untersuchen, die ein besorgliches Fehlen von Unparteilichkeit an den Tag gelegt haben: Das Clean Air Science Advisory Committee (CASAC) [etwa: Beratungskomitee der Wissenschaft sauberer Luft] und das Advisory Council on Clean Air Compliance Analysis (ACCACA) [etwa: Beratungskomitee zur Einhaltung der Analysen zu sauberer Luft].

Im vorigen Jahr hat das Komitee Umwelt und Öffentlichkeitsarbeit der Republikaner spezielle besorgliche Fälle hinsichtlich der Beratungskomitees zum Clean Air Act* aufgedeckt. In der Folge sandte Senator Inhofe im August einen Brief an den Generalinspekteur der EPA, Arthur A. Elkins und ersuchte um eine Untersuchung dieser Vorgänge. Wichtig dabei ist, dass diese Komitees eine Schlüsselrolle im Beratungsprozess zur Verschärfung der National Ambient Air Quality Standards (NAAQS) [etwa: der nationalen Standards zur Luftgüte] hinsichtlich Ozons und Schwebstaubs (PM) spielten. Natürlich wurden die NAAQS für Ozon von Präsident Obama wegen Bedenken der wissenschaftlichen Integrität zurückgezogen.

[*Ich weiß hierfür keine gute Übersetzung! Man kann wohl davon ausgehen, dass jeder weiß, was gemeint ist. A. d. Übers.]

„Ich bin sehr erfreut, dass der IG der EPA meiner Anforderung zugestimmt hat, die ernsten Probleme zu untersuchen, die sich durch das Vorgehen der EPA hinsichtlich wissenschaftlicher Informationen und seiner Entscheidungsprozesse ergeben haben“, sagte Senator Inhofe. „Im besonderen wird der IG das Management der EPA hinsichtlich der genannten beiden Beratungsgremien unter die Lupe nehmen, die beide einen eklatanten Mangel an Unparteilichkeit gezeigt haben, indem sie im Wesentlichen als Werkzeug der EPA bei der Durchsetzung ihrer Arbeitsplätze vernichtenden Agenda fungierten. Glücklicherweise wird der IG die fünf Felder durchsuchen, die ich als die Wichtigsten sehe: 1) Ausgewogenheit der Ansichten und Perspektiven der Komitees, 2) potentielle Interessenkonflikte, 3) Unparteilichkeit, 4) Austausch der Mitglieder und 5) wissenschaftliche Begutachtung.

Die EPA unter Obama hat wieder und wieder gezeigt, dass das wissenschaftliche Fundament seiner Agenda nicht stabil ist. Ich habe diese Untersuchung wegen Bedenken hinsichtlich der wissenschaftlichen Integrität der EPA bei dessen Verschärfung der Ozonstandards beantragt. Natürlich hat Präsident Obama diese Standards zurück gezogen, und einer der Gründe dafür war gewesen, dass die ökonomischen und wissenschaftlichen Analysen als Grundlage dieser Entscheidung Defizite aufwiesen. Dann gab es den Bericht des OIG vom vergangenen September, der herausgefunden hatte, dass die EPA den erforderlichen Begutachtungsprozess zu ihrer Analyse der Gefahrenlage unterlaufen hat; im Januar hat ein Bericht des Government Accountability Office (GAO) bestätigt, dass das Integrated Risk Information System (IRIS) – Programm der EPA – von dem die EPA als dem ‚wissenschaftlichen Fundament seiner Entscheidungen’ spricht – ein Betrug ist. Und so geht es weiter, was zeigt, dass die EPA eine gefährliche Tendenz aufweist, nur die Wissenschaft ins Kalkül zu ziehen, die ihre politischen Ziele stützt.

Die Amerikaner können es sich nicht leisten, dass die EPA mit der Wissenschaft Politik spielt, angesichts des Kampfes unserer Wirtschaft, sich wieder zu erholen. Die Vorschriften der EPA zu Treibhausgasen allein wird das amerikanische Volk um 300 bis 400 Milliarden Dollar pro Jahr kosten – und dies zusätzlich zur Utility Maximum Achievable Control Technology (Utility MACT)–Regel [?], die 90 Milliarden Dollar pro Jahr kosten wird. Dies sind lediglich die beiden kostspieligsten Vorschriften, die Hunderttausende Arbeitsplätze vernichten werden und die die Preise für Strom und Gas immer weiter in die Höhe treiben.

Ich hoffe, dass dieser Bericht des IG helfen wird, die EPA berechenbar zu machen – das beste Ergebnis wäre, wenn er zu dem Schluss kommen würde, dass die EPA ihre Arbeitsweise dringend reformieren muss“

Soweit Senator Inhofe.

Hintergrund:

Diese Untersuchung des IG bezieht sich auf spezielle, zu Bedenken Anlass gebende Arbeitsbereiche, die vom republikanischen Komitee für Umwelt und Öffentlichkeitsarbeit aufgedeckt worden waren. Diese enthalten unter Anderem:

– Fehlende Unparteilichkeit: Die EPA hat ihre eigenen Begutachtungsvorschriften verletzt, indem sie Mitglieder aufgenommen hat, die öffentlich Partei in dieser Angelegenheit ergriffen haben und folglich die erforderliche Unparteilichkeit haben vermissen lassen. Im direkten Konflikt mit den Empfehlungen der Nationalen Akademien hat die EPA auch wiederholt Autoren von grundlegenden Studien aufgefordert, ihre eigenen Arbeiten zu vertreten, indem sie in Gremien eingebracht werden, die die auf ihren Forschungen basierenden Berichte begutachten.

– Fehlende Ausgewogenheit der Perspektiven: Die EPA hat auch die Anforderungen des Federal Advisory Committee Act (FACA) verletzt, indem sie es versäumt hat, den Gremien die Unparteilichkeit ihrer präsentierten Standpunkte zuzusichern. In den beiden untersuchten Fällen gab es keinen Experten mit Veröffentlichungen, die gegensätzliche Ansichten vertreten, um die 30 bis 40 Prozent der Mitglieder zu kompensieren, die öffentlich Position bezogen haben.

– Fehlender Wechsel von Mitgliedern: Die EPA hat die Politik der Administration missachtet, die Mitglieder auszutauschen, um das Entstehen von „Stammgästen“ zu verhindern. In Schlüsselstellungen arbeiten die Mitglieder jetzt 12 Jahre lang.

– Finanzielle Interessenkonflikte: Die EPA hat wiederholt ihre Mitglieder selektiert, die von den Millionen Dollar Forschungszuwendungen an die EPA profitieren. Dies führt offensichtlich und sehr wahrscheinlich zu Interessenkonflikten.

Link: http://icecap.us/index.php/go/political-climate vom 26. März

Übersetzt von Chris Frey EIKE