1

Teil 1: Die Fallgruben der Klimawandler – Eine Dokumentation der wichtigsten Fakten für eilige Leser.

Auf der ersten UN-Umweltkonferenz in Stockholm 1972 ging es um Maßnahmen zum Schutze unserer Umwelt. Zwanzig Jahre später, 1992 in Rio de Janeiro wurde der Grundstein für die UN- Klimaverhandlungen gelegt. Es war ein Beginn und man beschloss, solche Konferenzen fortzusetzen, um Maßnahmen zum Schutze des Klimas zu verabreden, denn inzwischen stand der Klimaschutz im Vordergrund: Man glaubte eine globale Erwärmung diagnostiziert zu haben, die vor al-lem durch das Treibhausgas CO2 verursacht würde, und dass es „…um den Planeten zu retten…“ vor allem darauf ankam, die CO2-Emissionen der Industrieländer zu senken. Auf der Konferenz in Kyoto 1997 verabschiedete die Staatengemeinschaft eine Klima-Rahmenkonvention. Man hatte schon vergessen, dass wegen der Abkühlungsphase 1950-1980 in den späten 1970er Jahren noch eine neue Eiszeit befürchtet wurde.

Tatsächlich wurde bis heute nie bewiesen – weil nicht beweisbar – , dass das vom Men­schen di­rekt oder indirekt produzierte CO2 die ihm zugedachte Wirkung hat. Diese Annahme beruht nur auf Modellrechnungen für die künftige Entwicklung der Temperatur. Die Fakten beweisen das Gegen­teil, und weil sie für die Propagandisten und Agitato­ren des Klimawandels zu Fallgruben werden, verweigert man sich konsequent jeder Diskussion – mit Prognosen kann man schließlich keine Fakten widerlegen. Dem entspricht, dass die Diskussion in den Medien und in der Politik die Fakten ausblendet, denn viele ihrer Interessenten ziehen aus diesem Zeitgeist Nutzen, den sie nicht ver­lieren wollen.

Die Fakten sind inzwischen so umfangreich geworden, dass ein Vollstudium erforderlich wäre, wollte man sich damit im Detail auseinandersetzen. Um allen, die das Thema für wichtig hal­ten, einen zusammenfassen Überblick zu verschaffen, werden in dieser Dokumentation die Fakten der wichtigsten Komplexe zusammengefasst, nämlich

·       CO2 ist die Grundlage des Lebens, ist es auch klimawirksam?

·       Temperaturschwankungen oder Klimawandel – was sagen Temperaturmessun­gen ?

·       Warum wurden Temperaturmessungen rückwirkend verändert?

·       Schmilzt das Eis der Arktis ?

·       Steigt der Meeresspiegel ?

·       Schmelzen die Gletscher ?

·       Gibt es mehr Hochwässer ?

·       Was hat das 2°C-Ziel der Politik mit dem Klima zu tun?

Es steht außer Frage, dass wir die Umwelt schützen müssen, aber sicher ist auch, dass wir das Klima nicht beeinflussen können. Wenn man in einigen Jahrzehnten rückblickend die Bemühungen um den ‚Klimaschutz’ beurteilt, wird man erkennen, dass es um die Jahrtausendwende in der Wis­senschaft, in den Medien, in der Politik und in der Gesellschaft Aktivisten gab, die glaubten, das seit 4,5 Mrd. Jahren von der Sonne gesteuerte Klima bestimmen zu kön­nen. Sie blendeten für ihre Zwecke die Kennt­nisse über unsere Erde und unser Sonnensystem aus. Sie gaben für den Glau­ben an die Gefährlichkeit des CO2, für Klimabürokratie und Klimatourismus Aber-Milliarden aus, die für Umwelt­schutz­maßnah­men sehr viel nutzbringender eingesetzt worden wären. In ih­rem blinden Glauben gingen sie sogar soweit, mit dem CO2 den Grundbaustein ihrer eigenen Nahrungsmittel zu verban­nen. Die Mensch­heit hat sich schon oft verhängnisvollen Irrglauben hingegeben – dieser wird für lange Zeit unüber­troffen bleiben, und wie immer wurde er von Teilen der Wissenschaft abgesegnet und von vielen Medien ungeprüft übernommen und einseitig propagiert – auf Kosten der Objekti­vität, denn andere Meinungen wurden totgeschwiegen oder sogar verleumdet.

(Die Quellenangaben befinden sich entweder direkt in den Abbildungen, oder mit # markiert auf der selben Seite,  oder num­me­riert 1) im Literaturverzeichnis am Schluss. 

I

CO2 – Klimakiller?

 

1)    Klimawirksam oder nicht ?

Goethes „Grau treuer Freund ist alle Theorie“ gilt immer noch, auch für die Frage nach der Wir­kung des CO2 auf das Wetter. Die Einen beweisen mit Formeln,  dass es nicht wirkt, die Ande­ren beweisen mit Formeln, dass es zwar wirkt, aber nur in einem so geringen Maße, dass es für das Wetter prak­tisch unerheblich ist. Was folgt daraus für den pragmatisch urteilenden Laien: wenn Formeln und Worte beider Seiten sich wider­sprechen statt Gewissheit zu verschaffen, ist der Sach­verhalt nicht zu klären. Es gibt für dieses theoretische Problem aber eine praktische Lö­sung: man be­wertet die auf der Erde gemessenen Temperaturen, schließlich findet hier das Wetter statt. Dabei stellt man fest, dass sich in den letzten 50 Jahren die Tempera­turen nicht anders ent­wickelt haben als vor dem Beginn unserer CO2-Emissionen. Also wirkt unser zusätzliches CO2 entwe­der gar nicht oder nur so wenig, dass es von den Temperaturmessungen noch nicht erfasst wird.

Tatsächlich geht es nur um das von uns erzeugte CO2, denn die Naturkreisläufe wirkten schon immer. Von allen beteiligten Komponenten kennen wir nur den Anteil, den wir seit etwa 1960 hin­zufügen – es sind kaum 5%. Das außerdem stets neu in den Kreislauf kommende CO2 anderer Zu­lieferer kennen wir nicht: die Verwitterung der Gesteine setzt CO2 frei, Vulkane und Förderschlote im Meer liefern ständig unbe­kannte und zeitlich wechselnde CO2-Mengen, allein der Ätna entlässt täglich 35.000 t. Das CO2 der Meere, der Luft, des Bodens und der Biosphäre tau­scht sich ge­gen­seitig aus. We­der diese Kreisläufe noch die CO2-Gesamtmenge und schon gar nicht die Wirkung unseres sehr kleinen Anteiles sind bekannt, fall es sie gibt. 

 

2. Angeblicher Verursacher des angeblichen Klimawandels ?

>> Analysen von Lufteinschlüssen im Eis zeigen:

  • Die sich ändernden CO2-Gehalte der Atmosphäre waren seit 600 Mill. Jahren zumeist sehr viel höher als heute, was weder der Bio­sphäre geschadet noch Eiszeiten verhindert hat1).
  • Auch seit 800.000 Jahren variierten die CO2– und CH4-Gehalte (blau bzw. grün) in Abhängig­keit von der Tem­peratur (rot)2)

>> Das IPCC nimmt an, der CO2-Gehalt wäre seit 2000 Jahren ungefähr gleich geblieben, lässt aber die seit 1810 verfügbaren chemisch direkt bestimmten Analysenwerte unberücksichtigt. Ihre Aus­wertung zeigt, dass schon vor 1950 größere CO2-Gehalte gemessen wurden als heute3)

.

>>  Die CO2-Gehalte der Meere, der  Atmosphäre und der Biosphäre bilden einen Kreislauf. Wenn die Meere wärmer werden, tritt CO2 in die Atmosphäre über – und umge­kehrt. Langfristig variiert CO2 mit der Temperatur, aber wegen der Trägheit der Meere ist der Übertritt stark verzögert.

 

>>  Durch die Verzögerung kommt es zu gegenläufigen Entwicklungen: der CO2-Gehalt sinkt noch, obwohl die Temperatur schon wieder steigt (links)3) – und umgekehrt, wie seit 1995, rechts darge­stellt seit 2003. Örtliche Einflussfaktoren bewirken regional individuelle Entwicklungen

>>  CO2 ist ein Spurengas; der anthropogene Anteil am Naturkreislauf beträgt kaum 5%. CO2 ist der Grundbaustein der Nahrungsmittel1) – ohne CO2  kein Leben; mehr CO2 – mehr Getreide

 

 

Unser zusätzlicher CO2–Anteil ist als Klimagas irrelevant. Aber um einem Zweck zu dienen, soll die Welt umlernen: CO2 ist schädlich! Dass es schon ohne uns mehr gab, dass es uns ernährt, wird verschwiegen !

II

Temperaturschwankungen oder Klimawandel – und warum?

Paläoklimatologen wissen, dass sowohl Temperaturschwankungen von wenigen Zehntel Grad als auch wirk­liche Klimawandel von einigen Grad in 100 Jahren normal sind. Wer Temperaturänderungen beur­teilen will, muss sie mit früheren vergleichen, d.h. im Rahmen von Langzeitentwicklungen beurteilen – eine Erwär­mungsphase alleine liefert noch keinen Maßstab.  Die letzten 1000 Jahre waren durch das Mittelalterliche Klimaoptimum, die Kleine Eiszeit – Ackerbau in Grönland, Hunger in Europa – und eine neue Erwärmung gekennzeichnet. Diese Rückerwärmung begann nach 1700, sie wurde zwischenzeitlich von geringer werden­den Abkühlungen unterbrochen. Es ist ungewiss, ob sie schon beendet ist. Jede Analyse hat diese Entwick­lung als Teil der Rückerwärmung zu begreifen, und wer den gegenwärtigen Zu­stand beurteilen will, darf nicht nur die Temperaturdaten der letzten 120 Jahre berücksichtigen, son­dern muss auch die Langzeit-Tem­peraturreihen aus den vergangenen Jahrhunderten bewerten.

Langzeit-Temperaturreihen

Als ab 1654 das erste zuverlässige Thermometer verfügbar war, wurden bald regelmäßig Temperaturmes­sungen und Aufzeichnungen durchgeführt. Es wurde üblich, Temperaturganglinien darzustellen, die die ständigen Schwankungen und Langzeitänderungen der Temperatur anzeigen. Die älteste Ganglinie ist aus Mittelengland verfügbar, sie beginnt 1659; die zweitälteste beginnt 1701 in Berlin. Bald danach wurden an­dere Stationen in Betrieb genommen. Heute sind Langzeit-Temperaturreihen in mehreren Internetpor­talen verfügbar. Schellnhuber et alt. haben nach der Analyse von 95 Stationen weltweit festgestellt, „In der großen Mehrzahl der Stationen haben wir Anzeichen für eine globale Erwärmung der Atmo­sphäre nicht gesehen“.4) Der Autor hat die Daten von 82 frühen Stationen ausgewertet.5) Davon sind die drei ältesten Ganglinien in Abbildung 1 dargestellt. Sie zeigen beispielhaft, dass schon immer und auch schon vor der Industrialisierung mit seiner anthropogenen CO2-Produktion schnellere und stärkere Er­wärmungen und Ab­kühlun­gen statt fanden als gegenwärtig. Der Vergleich mit den früheren Jahrhunder­tern lehrt, dass die Tem­peraturganglinien auch für das Industriezeitalter keinen nennenswerten menschen-gemachten Einfluss des CO2 auf das Klima anzeigen.

Abbildung 1:

Central England, Berlin und De Bilt, Beispiele für Langzeit-Temperaturreihen von  82 Stationen, weltweit

Wie die folgenden Kennwerte zeigen, sind die Änderungsraten klein. Dementsprechend hat kein wirkli­cher Klimawandel statt gefunden, der Änderungen von einigen Grad erfordert, sondern lediglich Tempe­ratur­schwankungen. Auch die sind nur in etwa drei Vierteln der Thermometer-Regionen erfolgt, während sich in den restlichen die Abküh­lung fort­gesetzt hat. Weiter ist zu bedenken, dass die Temperaturen nur auf etwa 10% der Erdoberfläche gemessen werden, denn in den Ozeanen, Wüsten, Eisflächen, Hochge­birgen, Urwäl­dern und Sumpfgebieten fehlen Stationen.

Kurzzeit-Temperaturreihen

Der Datenpool der NASA enthält Kurzzeit-Temperaturreihen, die 1895 beginnen. Die Daten von 2249 Stati­onen wurden ausgewertet, denn sie enthalten (fast) lückenlose Datenreihen für die Intervalle 1905-1955, 1955-2005 und 1905-20056). Eine weitere Auswertung der im Jahre 2010 von NASA-GISS angebotenen Daten für den Zeitraum 1895-2010 wurde für die welt­weit verfügbaren 1110 Stationen mit lückenlosen Da­tenreihen durchgeführt. Dabei wurden Ganglinien mit ihren Änderungsraten sowohl für die gesamte Reihe als auch für deren aufein­anderfol­genden Erwärmungs- und Abkühlungsphasen bestimmt, wie Ab­bildung 3 beispielhaft zeigt. Die insgesamt daraus resultierenden etwa 5500 Ganglinien werden gegenwärtig im zwei­ten Teil der Auswertung den geo­graphischen Einheiten zugeordnet. Die Ergebnisse dieser Auswer­tung wer­den wie folgt zusam­men­gefasst und sind in den Abbildungen 2 und 3 illustriert  

  • Die Temperatur korreliert mit der Sonnenaktivität, nicht mit der CO2-Produktion.

·       Während des 20. Jahrhunderts gab es zwei Erwärmungsphasen; die wirksamste erfolgte zwischen 1920 und 1950, also vor der verstärkten anthropogenen CO2-Produktion.

  • Obwohl die durch den Menschen verstärkte CO2-Emmissionen – ca. 5% des natürlichen CO2-Kreis­lau­fes – eine Erwärmung verursacht haben sollen, fand 1950-1980 eine Abkühlung statt.
  • Eine weitere Abkühlungs­phase begann 1998, sie dauert noch an und wird entgegen der IPCC-Er­war­tung von 801 Stationen (= 72,2%) registriert.

 

#)  Robinson A.B., Robinson N.E., and Soon W.: Environmental effects of increased atmos­pheric Carbon Dioxide. Jour­nal of Ameri­can Physicians and Surgeons, 12/2007, 27 Fig­ures

III

Langzeit-Temperaturmessungen beweisen: die Sonne bestimmt das Klima

                                             

1. )   Änderungen der Sonneneinstrahlung und der Temperaturen

Die zweite Abbildung (Solar Irradiance von 1600 bis 2000) bezieht sich auf den ganz rechten Zeitabschnitt der darüberliegenden Comnispa Kurve (dort -0,4 bis 0)

       

2.)  Globale Mitteltemperaturen im Vergleich zu realen Temperaturganglinien          
 

Das linke Diagramm zeigt, dass der verstärkte Verbrauch von Kohle, Öl und Gas erst nach 1940 eingesetzt hat – und damit die industrielle Produktion von CO2. Trotzdem korreliert die Temperatur mit der Sonnenein­strahlung (links). In den Berichten für Poli­tiker zeigt der IPCC die glo­bale Erwärmung mit einem Dia­gramm, das die Tempe­ratur im über­höhten Maßstab darstellt, was den Eindruck einer dramatischen Er­wär­mung nach 1980 ver­mittelt (Mitte); GISS be­nutzt ein fast ähn­liches  (rechts). Mit dem folgenden Vergleich wird gezeigt, dass es diese dramatische Erwärmung – oder irgendeine andere besondere Entwicklung – nicht gegeben hat. 

Ende Teil 1 wird fortgesetzt.

Sehr geehrte Kommentatoren, 
es ist wohl nützlich zu wissen, warum mein Beitrag entstand: Die FDP-Fraktion des Sächsischen Landtags hat in Dresden eine Alternative Klimakonferenz veranstaltet – und zwar sehr gut organisiert, sehr gut besucht, sehr gute Vorträge und mit dem Erfolg, dass die Teilnehmer zum Schluss überzeugt sein konnten, dass weder der angebliche Klimawandel noch unsere Urheberschaft "alternativlos" sind, wie dies dogmatisch regierungsamtlich verkündet wird. Es war zu erwarten, dass auch viele Teilnehmer kommen würden, die mit dem Thema nur wenig oder überhaupt noch nicht vertraut sind – und die auch keine Zeit für ein intensives Detailstudium haben. Um ihnen den Einstieg zu erleichtern und um sie vielleicht auch neugierig zu machen, sich selbst weiter damit zu beschäftigen, wurde diese "Dokumentation der wichtigsten Fakten für eilige Leser" – wie eingangs so benannt – zusammengestellt. Wichtig war mir, dass alle Komplexe behandelt werden, wenn auch leider oft nur in zusammengefasster Form, aber doch wohl ausreichend für eine grundlegende Information. Die in Dresden ausgelegten 50 Exemplare waren schnell vergriffen.

Der Beitrag erhebt keinen Anspruch auf Vollständigkeit, das ist auf 15 Seiten nicht möglich. Es erschien auch zweckmäßig, mit fachlichen Details sparsam umzugehen, eine Überfrachtung mit Wissenschaft zu vermeiden, und sich kurz und knapp zu fassen, und darauf zu vertrauen, dass der Leser das wohl richtig interpretieren würde, und dass die Diskussion den Inhalt vervollständigt. Was ja auch geschieht, wie man schon sieht, und wofür sich der Autor jetzt schon bedanken möchte. Dieser Dank gilt vor allem auch an jene, die in mühevoller Arbeit den Beitrag mit seinen vielen Bildern hier bei EIKE in’s Netz stellen. 

Es folgt noch ein zweiter Teil. Zum Schluss noch der Hinweis, dass der vollständige Beitrag als pdf-Datei kopiert werden kann; seine Verbreitung ist erwünscht, schließlich sind Klimarealisten ehrenamtlich tätige Überzeugungstäter. 
Glück auf,
Friedrich-Karl Ewert 

Prof.em. Dr. Friedrich-Karl Ewert EIKE

Den vollständigen Bericht können Sie hier als undefinedpdf herunterladen




Neue Studie enthüllt: US Wetterbehörde NOAA setzt die Erwärmung der letzten 30 Jahre doppelt so hoch an wie gemessen!

Denn legt man die realen Bedingungen zugrunde, und das haben die Autoren der Studie mittels neuer Verfahren getan, dann bleibt nur ein Erwärmungstrend  der qualitativ hochwertigen Stationen von +0,155 °/Dekade übrig, während die Stationen auf oder im Umfeld von dichter  Bebauung, Kläranlagen, Parkplätzen, Einkaufszentren, Flughäfen usw. einen solchen von +,0248 bis 0,309 °C/Dekade aufwiesen. Mithin besonders die Zunahme an veränderter Landnutzung bzw. Stadtbebauung etc. maßen. Die NOAA hingegen hatte bei ihrer Korrektur die richtigen  Daten  der unbeeinflussten Stationen, auf die Werte der kontaminierten Stationen – also deutlich nach oben- korrigiert, während die Absenkung der Werte auf die der unbeeinflussten Stationen richtig gewesen wäre.

Update 31.7.12

Abbildung 1 Das folgende Diagramm (entnommen hier) zeigt Anomalien mit laufendem 12-Monats-Durchschnitt   für die drei unterschiedlichen Datensätzen (USHCN, CRUTem3 und ISH PDAT) … Man beachte die große Unterschiede in der berechneten linearen Erwärmung Trends. Wo ist die Erwärmung?

Quelle für PDAT  U.S. Population-Adjusted Temperature Dataset (PDAT)  von Dr. Roy Spencer, die besser behandelt UHI entwickelt.

Ausgangspunkt der Studie war die Klärung der Frage, ob die starke Umwandlung der Landschaft, sowie die weithin zunehmende  Verstädterung in den USA – unter dem Begriff UHI zusammengefasst- einen erheblich, statistisch signifikanten, Einfluss auf den Erwärmungstrend in den USA hätte oder nicht. Die  US Wetterbehörde NOAA hat diesen Einfluss zwar bisher nicht verneint aber stets behauptet, dieser sei statistisch belanglos (nicht signifikant) oder sauber korrigiert worden.  Dabei verwendete sie die 1999 von Marcel Leroy (Meteo France) eingeführte Klassifizierung von Stationen. Leroy hat diese Klassifizierung vor einiger Zeit noch einmal überarbeitet und 2011 diese Version vorgeschlagen. Sie ist von der WMO* zertifiziert. Die Watts et al Studie nutzt daher diese neue Klassifizierung, die wesentlich genauer die Abschätzung der Wirkung der Umgebung auf die Messergebnisse von Wetterstationen erlaubt.

Die Pressemitteilung schließt mit den Sätzen:

Vergleiche zeigen, dass NOAA Korrekturverfahren bei der Korrektur der schlecht aufgestellten Stationen versagen, denn die hätten nach unten angepasst werden müssen,  stattdessen wurden die gut aufgestellten  Stationen nach oben d.h  an die schlechten Stationen angepasst. Gut aufgestellte ländliche Stationen zeigen daher nach der USHCNv2 Korrektur einen dreifach höheren Erwärmungstrend. Es wird auch gezeigt, dass urbane Gebiete sich schneller erwärmen, als mittel-urbane Gebiete und diese wiederum schneller als ländliche Gebiete.

Da eine unverhältnismäßig hoher Anteil Stationen städtisch (10%) und semi-urbanen (25%) sind, wenn man sie mit der tatsächlichen Topographie der USA vergleicht, dann übertreibt dies die Temperatur Trends weiter. Montandon et al (2011) dokumentiert diesen großen urbanen Fehler bei den Stationen auf gemäß dem Global Historical Climate Netzwerk.

Diese Faktoren, zusammen mit der Qualität der Stations Standorte, haben zu einer Verdoppelung in der 30-jährigen Periode der Jahre 1979  – 2008  und damit zu unechten US- Temperaturtrends geführt.

Kritiker wandten natürlich sofort ein, dass dies nur die USA und damit ca. 2 % der Landfläche der Erde beträfe, übersahen dabei aber, dass die US Stationen – bis heute- als die besten der Welt galten, und sie übersahen auch, dass für andere Kontinente – insbesondere Europa – (siehe auch EIKE Bericht über den Wäreminseleffekt hier und hier) genau  so gilt. Es bleibt abzuwarten ob, wann und wie die deutschen Mainstreammedien über diese Studie berichten werden. Wir werden Sie jedenfalls auf dem Laufenden halten.

Michael Limburg EIKE

*Commission for Instruments and Methods of Observation (CIMO-XV, 2010) Fifteenth session, in September 2010 as a WMO-ISO standard

Die Berichterstattung wird fortgesetzt.

Hier die Original Pressemitteilung

und hier die PowerPoint undefinedDateien sowie undefinedhier und undefinedhier (im Original) mit Einzelheiten

weiter führende Links

Ein dicker Hund: Erwärmung der USA in den letzten 30 Jahren wohl nur halb so stark wie bislang angenommen

The big news is out on Watts Up: Half the trend is due to badly placed thermometers and erroneous adjustments 

Anthony Watts Drops A Big Bomb – That Makes A Little Bang




Die Römer kannten keine Gletscher – Studie zur Klimaerwärmung

Schweizer und deutsche Klimaforscher haben nachgewiesen, dass sich Nord­europa in den letzten 2000 Jahren abgekühlt hat. Die Studie stellt die Grundlagen infrage, auf die sich der Welt­klimarat (IPCC) beruht. Anstatt die Resultate zu diskutieren, wird die Studie im Internet in mehreren Blog-Beiträgen voreilig als «inkompetente Analyse» ­bezeichnet. An vorderster Front macht Mike E. Mann von der Penn State University gegen die Wissenschaftsarbeit mobil, die Anfang Juni in der renommierten Fachzeitschrift «Nature Climate Change» erschienen ist. Auf der ­Online-Plattform «RealClimate» klagt er beispielsweise, die veröffentlichten Ergebnisse seien von Forschern und Medien falsch interpretiert worden. Mike Mann hat allen Grund, gegen die Resultate zu wettern: Würde sich nämlich herausstellen, dass die Ergebnisse der Klimaforscher um Jan Esper von der Johannes-Gutenberg-­Universität in Mainz, Ulf Büntgen von der Eidgenös­sischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL) und ­Daniel Nievergelt vom Oeschger-Zentrum für Klimafolgenforschung der Universität Bern den Temperaturverlauf korrekt wiedergeben, wäre eine zentrale Arbeit der Klimaforschung widerlegt. Und ­diese Arbeit stammt von Mike Mann.

Temperatur als Hockeyschläger

In den ersten beiden IPCC-Berichten (1990 und 1995) gingen die Klimawissenschaftler noch davon aus, dass im Hochmittelalter die globale Temperatur deutlich wärmer war als heute. Doch 1999 behauptete der Geophysiker Mike Mann, damals Assistenzprofessor in Massachusetts, aus Jahresringen ­fossiler Bäume einen dramatischeren Verlauf des globalen Klimas ableiten zu können; die entsprechende Studie erschien im Fachblatt «Geophysical Re­search Letters» und wurde 2001 in den dritten Sachstandsbericht des Welt­klimarates aufgenommen.

Die globale Temperaturentwicklung auf Manns Grafik gleicht dabei einem liegenden Hockeyschläger. Die Kurve startet im Jahr 1000. Bis Anfang des 20. Jahrhunderts sind die Veränderungen nur minimal; die Grafik gleicht dem Stock. Dann steigt die Kurve dramatisch an, hakenförmig, wie am unteren Ende des Hockeyschlägers. Meistens wird der Graf an dieser Stelle zusätzlich rot eingefärbt. «Damit verdeutlichen wir die Einmaligkeit des Temperaturanstiegs», sagte IPCC-Chef Rajendra Pachauri vor einigen Jahren im Gespräch mit dem BaZ-Journalisten.

Inzwischen legen mehrere Studien nahe, dass mit dieser Hockeyschlägerkurve etwas nicht stimmt. Bereits 2003 legten Wissenschaftler um Jan Esper, der damals noch an der Forschungs­anstalt WSL in Birmensdorf arbeitete, nahe, dass die durchschnittliche Temperatur um das Jahr 1000 höher gewesen sein musste, als die Hockeyschläger­kurve vorgibt. Zu diesem Schluss kam Esper, als er mehrere Baumproben untersuchte und feststellte, dass zu dieser Zeit ideale Wachstumsbedingungen geherrscht haben mussten. Die im Wissenschaftsmagazin «Science» veröffentlichten Resultate wurden damals von vielen Forschern in Zweifel gezogen, konnten aber nicht widerlegt werden.

Sustenpass, eine grüne Alp

Zwei Jahre später kritisierte eine international zusammengesetzte Gruppe um Hans von Storch vom Helmholtz-Zentrum für Küstenforschung in Geesthacht erneut die Hockeyschlägerkurve. Von Storch untersuchte die sogenannten Proxy-Daten der Klimamodelle und stellte fest, dass die Temperaturschwankungen möglicherweise erheblich unterschätzt wurden, wie er in der Zeitschrift «Science» berichtete. Auch von Storchs Daten legten nahe, dass die durchschnittliche Temperatur um das Jahr 1000 bis 1100 höher gewesen sein musste als auf der Hockeyschläger­kurve angegeben.

Viel zu reden gab auch eine Arbeit von Christian Schlüchter, Professor für Quartär- und Umweltgeologie an der Universität Bern, Lehrbeauftragter der ETH Zürich und begeisterter Alpenforscher. Im Juni 2004 berichtete er in der Zeitschrift «Die Alpen», die der Schweizer Alpen-Club (SAC) herausgibt, über Forschungsresultate, die er in den vergangenen zehn Jahren gesammelt und in verschiedenen Fachmagazinen – unter anderem 2001 in «The Holocene» – veröffentlicht hat. Im Fachblatt sorgten sie kaum für Aufregung; der populärwissenschaftliche Beitrag im SAC-Magazin hingegen wurde als Provokation verstanden, denn Schlüchter behauptete, dass der Sustenpass zur Zeit des ­Römischen Reiches eine grüne Alp war und sich der Steigletscher auf die Höhe der Tierberglihütte (2795 m ü. M.) zurückgezogen habe. Zu dieser Einschätzung gelangte der Berner, als er in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moores fand. «Die Fundstücke wurden durch die grossen Schmelzwasserausbrüche unter dem Gletscher hervorgespült. Das Material stammt also von dort, wo heute Eis liegt», so Schlüchter. Das sei aussergewöhnlich, denn Bäume und sogar ein Moor könne es an diesen Stellen nur gegeben haben, wenn das «ewige Eis» zu früheren Zeiten deutlich kleiner war und die Baumgrenze höher lag.

Um Klarheit zu schaffen, liess der Geologieprofessor die Proben im Labor mithilfe der Radiokarbonmethode untersuchen und datieren. Dabei stellte man Erstaunliches fest: «Die bestimmten Alter bildeten keine chaotische Datenwolke über die letzten 10 000 Jahre, sondern fallen in definierte Zeit­fenster», so Schlüchter. «Bisher konnten zehn Zeitfenster bestimmt werden. Über die letzten 10 000 Jahre gerechnet, ergibt das etwas über fünfzig Prozent der Zeit mit kürzeren Gletschern als heute.» – Im Klartext: Unsere Gletscher waren nach der letzten Eiszeit selten so stark ausgebildet wie heute.

Falsche Vorstellung von der Eiszeit

Der Berner Christian Schlüchter zieht aus den Ergebnissen noch einen weiteren Schluss: «Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.» Dies würde erklären, weshalb in den sonst sehr detaillier­ten Beschreibungen der römischen Chro­nisten kaum ein Wort über die Gletscher zu finden ist. Schlüchter fordert: «Aufgrund dieser Funde muss die bisher gängige Vorstellung von den seit der Eiszeit durchgehend relativ stark vergletscherten Alpen entscheidend re­vi­diert werden. Die Alpen waren mehrheitlich grüner, als sie es heute sind.»

Martin Funk, ETH-Glaziologieprofessor an der Versuchsanstalt für Wasserbau, Hydrologie und Glaziologie, hat sich Schlüchters Resultate von 2001 ­angesehen: «Ich sehe keinen Grund, an den Ergebnissen und Aussagen zu zweifeln, höchstens bei einigen Details», ­findet der Experte und fügt an, dass Schlüchters Untersuchung in der neueren Zeit nur eine Periode (zwischen dem Jahr 500 und 800) mit kleinerer Vergletscherung angibt. «Das heisst, man kann zwischen der Hockeyschlägerkurve des IPCC und Schlüchters Ergebnissen nicht viel vergleichen. Dazu kommt, dass die Temperatur allein nicht viel über Gletscherschwankung aus­sagt. Dafür müsste man noch Angaben über die Niederschlagsänderungen haben», so der Gletscherexperte.

Nun legen Schweizer und deutsche Klimaforscher um Jan Esper eine Studie vor, die einerseits belegt, dass es im Hochmittelalter deutlich wärmer war, andererseits aber auch zeigt, dass sich das Klima in Nordeuropa in den letzten 2000 Jahren abgekühlt hat. Das Team kombinierte die Resultate von Jahresringdichtemessungen von fossilen ­Kieferbäumen zu einer Zeitreihe zurück bis ins Jahr 138 vor unserer Zeit­rechnung. Die Holzdichte korreliere sehr gut mit den Sommertemperaturen in diesem Raum nahe der nordischen Waldgrenze, daher sei es den Forschern gelungen, eine Temperaturrekonstruktion «von bisher unerreichter Qualität» zu erstellen, teilt die Johannes-Gutenberg-Universität mit. Diese Rekonstruktion zeige nun mit hoher Auflösung die Wärmebedingungen zur Römerzeit und im Hochmittelalter, aber auch die Kältephasen zur Zeit der Völkerwanderung oder der späteren kleinen Eiszeit.

Klimapolitische Bedeutung

«Wir haben festgestellt, dass die historischen Temperaturen zur Römerzeit und im Mittelalter bis dato zu kühl eingeschätzt wurden», sagt Esper zurückhaltend. Diese Befunde seien insofern von klimapolitischer Bedeutung, «da sie die Beurteilung des aktuellen Klimawandels im Vergleich zu den historischen Warmphasen beeinflussen».

Die von Jan Esper vorgelegte Klimakurve zeige neben diesen Kalt- und Warmphasen aber noch ein Phänomen, mit dem nicht zu rechnen war, heisst es in der Mitteilung. Erstmals konnten die Forscher anhand der Baumjahresringe einen viel längerfristigen Abkühlungstrend, der sich kontinuierlich über die letzten 2000 Jahre abspielte, präzise ­berechnen. Den Berechnungen zufolge habe sich die globale Temperatur pro Jahrtausend um minus 0,3 Grad abgekühlt. «Eigentlich erscheint diese Zahl nicht als sonderlich imposant», so Esper. «Allerdings ist sie im Vergleich zur globalen Erwärmung, die bis heute weniger als ein Grad Celsius beträgt, nicht zu vernachlässigen.»

Marcel Breu, Wissenschaftsjournalist 

Hier der Link zur Pressemitteilung der "Johannes Gutenberg Universität Mainz mit Dank an Leser Heinz Eng für die Anregung

Zuerst veröffentlicht in der Basler Zeitung und auf Oekowatsch  vom 26. Juli 2012 




CO2 folgt der Temperatur „um höchstens ein paar hundert Jahre“ belegen neue Forschung in der Antarktis:

„Unsere Analysen von Eisbohrkernen aus dem Eisschild der Antarktis zeigen, dass die CO2-Konzentration in der Atmosphäre dem Anstieg der Temperaturen in der Antarktis sehr eng folgt und höchstens um ein paar hundert Jahre versetzt ist“. – Sune Olander Rasmussen

Abbildung 2: Histogramme für die zwei Methoden der Bestimmung der Verzögerung, mit der das atmosphärische CO2 auf Temperaturänderungen in der Antarktis reagiert (direkte und abgeleitete Korrelation) unter Verwendung jedes einzelnen der beiden CO2-Datensätze (der Stationen Byrd und Siple Dome). Die grauen Hintergrund-Histogramme basieren auf dem vollständigen Komposit der Proxy-Temperatur, die gleiche wie in Abbildung 1b. Die überlagerten Kurven zeigen die korrespondierenden Verzögerungs-Histogramme, wenn man im Gegenzug jede der 5 Aufzeichnungen von der Proxy-Temperatur ausschließt: Ausschluss von Siple (rot), Ausschluss von Law Dome (grün), Ausschluss von Byrd (blau), Ausschluss von EDML (türkis) und Ausschluss von Talos Dome (violett)

Von der University of Copenhagen – Rise in temperatures and CO2 follow each other closely in climate change

Die größte Klimaänderung, die die Welt während der letzten 100 000 Jahre erlebt hat, war der Übergang von der Eiszeit zu einer warmen Zwischeneiszeit. Neue Forschungen am Niels Bohr Institut an der University of Copenhagen deuten darauf hin, dass im Gegensatz zu früheren Ansichten der Anstieg der Temperatur und der Anstieg des atmosphärischen CO2-Gehaltes zeitlich eng aufeinander folgen. Die Ergebnisse wurden in der Fachzeitschrift Climate of the Past veröffentlicht.

In einem wärmeren Klima ist der atmosphärische CO2-Gehalt von Natur aus höher. Das Gas CO2 (Kohlendioxid) ist ein Treibhausgas, das die Wärmestrahlung vom Erdboden absorbiert und die Erde folglich warm hält. Bei Verschiebungen zwischen Eiszeiten und Zwischeneiszeiten hilft der atmosphärische CO2-Gehalt dabei, die natürlichen Klimavariationen zu verstärken.

Ursprünglich hatte man gedacht, dass – als die Temperatur am Ende der Eiszeit vor etwa 19 000 Jahren zu steigen begann – die Zunahme des CO2-Gehaltes in der Atmosphäre mit einer Verspätung bis zu 1000 Jahren erfolgt.

„Unsere Analysen von Eisbohrkernen aus dem Eisschild der Antarktis zeigen, dass die CO2-Konzentration in der Atmosphäre dem Anstieg der Temperaturen in der Antarktis sehr eng folgt und höchstens um ein paar hundert Jahre versetzt ist“, erklärt Sune Olander Rasmussen, Assistenzprofessor und Koordinator am Centre for Ice and Climate at the Niels Bohr Institute at the University of Copenhagen.

 

Ein Eisbohrkern aus der Tiefbohrung durch den Eisschild in Law Dome in der Antarktis.

Die wichtige Rolle der Tiefsee

Die Forschungen, die in Zusammenarbeit mit Forschern von der University of Tasmania in Australien durchgeführt worden sind, basieren auf Messungen von Eisbohrkernen aus fünf Bohrlöchern durch den Eisschild in der Antarktis. Der Eisschild bildete sich aus Schnee, der nicht mehr abschmolz, sondern Jahr für Jahr weiter anwuchs, wodurch das Ganze allmählich zu einer Kilometer dicken Eisschicht zusammen gepresst worden ist. Während dieser Kompression wurden Luftbläschen zwischen den Schneeflocken eingeschlossen, so dass das Eis als Folge davon winzige Bestandteile der historischen Atmosphäre enthält. Die Zusammensetzung des Eises gibt auch Aufschluss über die Temperatur zum Zeitpunkt des Schneefalls, so dass das Eis ein Archiv für vergangene Klimate und die Zusammensetzung der Atmosphäre ist.

„Die Eisbohrkerne zeigen eine fast synchrone Beziehung zwischen der Temperatur in der Antarktis und dem atmosphärischen CO2-Gehalt, und dies legt nahe, dass die Prozesse in der Tiefsee um die Antarktis eine wichtige Rolle bei der CO2-Zunahme spielen“, erklärt Sune Olander Rasmussen.

Abbildung 1: Die Forschungsergebnisse zeigen, dass die CO2-Konzentration in der Atmosphäre der Temperatur in der Antarktis eng folgt, und zwar während der gesamten Verschiebung von der Eis- zur Zwischeneiszeit während der Periode vor 19 000 bis 11 000 Jahren vor heute. Die grüne Kurve zeigt die Temperatur aus Messungen von den 5 in der Karte markierten Eisbohrkernen. Die rote und blaue Kurve zeigen den atmosphärischen CO2-Gehalt in den Luftblasen innerhalb der Bohrkerne der beiden Bohrungen in Siple Dome (rot) und Byrd (blau). Die Analyse zeigt, dass die CO2-Konzentration der Temperaturzunahme mit einer Verzögerung von nicht mehr als einigen hundert Jahren folgt. Dass die CO2-Konzentration in der Atmosphäre der antarktischen Temperatur so eng nachfolgt bedeutet, dass Prozesse im Ozean rund um die Antarktis eine wichtige Rolle beim CO2-Anstieg spielen.

Rasmussen erklärt: eine der Theorien lautet, dass es bei einer Erwärmung der Antarktis stärkere Winde über dem Südlichen Ozean gibt und dass diese Winde mehr Wasser aus tiefen Schichten im Ozean an die Oberfläche befördert, und zwar aus Tiefen, in denen es einen hohen CO2-Gehalt gibt infolge all der kleinen Organismen, die absterben, auf den Meeresboden absinken und verrotten. Starke Winde über den Südlichen Ozeanen bringt die Zirkulation im Ozean mehr dieses CO2-angereicherten Tiefenwassers an die Oberfläche, und ein Teil davon entweicht in die Atmosphäre. Dieser Prozess ist das Bindeglied zwischen Temperatur und CO2, und die neuen Ergebnisse zeigen, dass diese Verbindung viel enger als gedacht ist und schneller als früher geglaubt erfolgt.

Einfluss auf das Klima

Die globale Temperatur hat sich aus natürlichen Gründen geändert, und zwar infolge sich verändernder Solarstrahlung aufgrund der Variationen der Erdumlaufbahn um die Sonne sowie der Neigung und Orientierung der Erdachse. Diese sind als die Milankovich-Zyklen bekannt und ereignen sich etwa alle 100 000, 42 0000 und 22 000 Jahre. Dies sind die Zyklen, die dafür sorgen, dass das Erdklima zwischen langen Eiszeiten von etwa 100 000 Jahren und warmen Zwischeneiszeiten von etwa 10 000 bis 15 000 Jahren hin und her pendelt. Die natürliche Erwärmung des Klimas wurde durch den zunehmenden CO2-Gehalt verstärkt.

„Heute beobachten wir, dass die Menschheit dafür gesorgt hat, dass der CO2-Gehalt in der Atmosphäre während der letzten 150 Jahre genau so stark gestiegen ist wie in den 8000 Jahren während des Übergangs von der letzten Eiszeit in die gegenwärtige Zwischeneiszeit, und das kann das Erdklima aus dem Gleichgewicht bringen“, erklärt Sune Olander Rasmussen und fügt hinzu: „Darum ist es sogar noch wichtiger, dass wir besser verstehen, welche Prozesse für Klimaänderungen in der Vergangenheit sorgten, weil die gleichen Prozesse auch heute zusätzlich zu den anthropogenen Prozessen wirken können, die wir heute erleben. In dieser Hinsicht hilft uns das Klima der Vergangenheit zu verstehen, wie die verschiedenen Teilaspekte des Klimasystems miteinander wechselwirken und was wir in Zukunft erwarten können“.

Verstärkte Bedingungen für die Zeitverzögerung zwischen der antarktischen Temperatur und CO2 ausgangs der letzten Eiszeit

J. B. Pedro1,2, S. O. Rasmussen3, and T. D. van Ommen2,4
1Antarctic Climate & Ecosystems Cooperative Research Centre, University of Tasmania, Hobart, Tasmania, Australia
2Institute of Marine and Antarctic Studies, University of Tasmania, Hobart, Tasmania, Australia
3Centre for Ice and Climate, University of Copenhagen, Copenhagen, Denmark
4Australian Antarctic Division, Kingston, Tasmania, Australia

Abstract: Antarktische Eisbohrkerne liefern klare Beweise für eine enge Kopplung zwischen Variationen der antarktischen Temperatur und der atmosphärischen CO2-Konzentration während der Eis-/Zwischeneiszeitzyklen seit mindestens 8000 Jahren. Präzise Informationen des Timings zwischen CO2- und Temperaturänderungen können dabei helfen, unser Verständnis der dieser Kopplung zugrunde liegenden Prozesse zu vertiefen. Hier konzentrieren wir uns auf das Ende der letzten Eiszeit vor 19 000 bis 11 000 Jahren, einem Zeitraum, in dem die CO2-Konzentrationen um etwa 80 ppmv und die antarktische Temperatur um etwa 10°C gestiegen ist. Schöpft man einen kürzlich entwickelte Proxy für die regionale Temperatur der Antarktis aus, abgeleitet aus fünf Bohrkernen nahe der Küste und zwei Bohrkernen mit hoher Präzision bei der Datierung des CO2-Gehaltes, zeigen wir, dass die CO2-Zunahme wahrscheinlich der Zunahme der antarktischen Temperatur um weniger als 400 Jahre hinterher lief und dass sogar ein kurzes Vorauseilen der CO2-Zunahme gegenüber der Temperaturzunahme nicht ausgeschlossen werden kann. Dieses Ergebnis, das für beide CO2-Aufzeichnungen gilt, impliziert eine schnellere Kopplung zwischen Temperatur und CO2 als ursprünglich geschätzt, war man doch von einer Verschiebung bis zu einem Millenium ausgegangen.

Final Revised Paper (PDF, 463 KB)   Discussion Paper (CPD)

Citation: Pedro, J. B., Rasmussen, S. O., and van Ommen, T. D.: Tightened constraints on the time-lag between Antarctic temperature and CO2 during the last deglaciation, Clim. Past, 8, 1213-1221, doi:10.5194/cp-8-1213-2012, 2012.

Link: http://wattsupwiththat.com/2012/07/23/new-research-in-antarctica-shows-co2-follows-temperature-by-a-few-hundred-years-at-most/

Übersetzt von Chris Frey EIKE




„Nachhaltige Gerechtigkeit” = Umverteilung des Mangels

Gerade diese Woche hat die Civil Society Reflection Group on Global Development Perspectives [etwa: Gruppe der zivilisierten Gesellschaft zu globalen Entwicklungsperspektiven] einen neuen Bericht zum Rio+20-Erdgipfel zur Nachhaltigen Entwicklung veröffentlicht. Die Kurzdarstellung von No Future Without Justice [Keine Zukunft ohne Gerechtigkeit] beginnt mit der Feststellung „Die Welt braucht eine fundamentale Veränderung“. Das Dokument bietet dann „Lösungen“ an, darunter einen „universellen fiskalischen Ausgleich“ und ein „massives und absolutes Abkoppeln des Wohlergehens von Ausbeutung und Verbrauch von Ressourcen“.

In der 18-köpfigen Gruppe sind keine Amerikaner – aber sie verdammt die USA und andere Regierungen wegen ihrer Verpflichtung gegenüber wirtschaftlichem Wachstum und nicht so sehr der Umverteilung von Wohlstand. Die Gruppe verlangt, dass die Regierungen eine Schlüsselrolle bei der Förderung von „Nachhaltigkeit“ und Wohlergehen spielen. Sie besteht darauf, dass alle Regierungen den universellen Zugang zur öffentlichen Gesundheitsvorsorge anbieten sowie garantierte staatliche Zuwendungen für jedes Kind, garantierte staatliche Unterstützung für Arbeitslose und Unterbeschäftigte und grundlegende universelle Pensionen sowie universelle soziale Sicherheit.

Kurz gesagt, sie wollen den totalen Bevormundungsstaat – aber ohne jede Ausbeutung von Ressourcen und ökonomisches Wachstum. Mit anderen Worten, das garantiert nachhaltige Ungerechtigkeit und die Umverteilung zunehmenden Mangels.

Die Gruppe räumt ein, dass die menschliche Zivilisation „immer noch irgendeine Art Wachstum in weiten Teilen der Welt braucht, um die Grenzen der maximal verfügbaren Ressourcen für arme Länder auszudehnen“. Allerdings werden die massiven Investitionen, die für den Übergang zu einer vollständig auf erneuerbaren Energien basierenden Wirtschaft notwendig sind, eine „massive Schrumpfung der Produktion, der Abteilungen und der Aktivitäten erfordern, die den Nachhaltigkeitstest nicht bestehen“ – nach Festlegungen von ihnen sowie mit ihnen verbundener Organisationen und das Umweltprogramm der UN UNEP.

Finanzielle Schlüsselaspekte zum Anschub hin zu „Nachhaltigkeit“ schließt ein „grüneres“ und „fortschrittlicheres“ Steuersystem ein, darunter eine finanzielle Transaktionssteuer, Aufhebung sämtlicher Subventionen mit Ausnahme für erneuerbare Energie, Kürzung der Militärausgaben und gleichzeitig einen dramatisch zunehmenden „Stimulus“, ein Kompensationssystem, um „Klimaschulden“ bei vermeintlich durch den kohlenwasserstoff-getriebenen Klimawandel abzuzahlen, ein neues Rahmenwerk zur Regulierung finanzieller Märkte, eine Sicherheitskommission bzgl. finanzieller Produkte und noch mehr Regulierungen für Hedgefonds und privates Kapital. Die Gruppe verlangt auch eine öffentliche Kontrolle von Rating-Agenturen und die Übernahme von internationalen Bilanzrichtlinien durch die Regierungen.

Um sicherzustellen, dass die „nachhaltige Entwicklung” auch wirklich jeden Aspekt der Gesellschaft durchdringt, schlug die Gruppe die Einsetzung eines „Sherpas“ für Nachhaltigkeit vor (im Rang eines Ministers), ein parlamentarisches Komitee zur Überwachung der Politik, ja an der Nachhaltigkeit festzuhalten, einen UN-Nachhaltigkeitsrat, eine universelle periodische Begutachtung zur Nachhaltigkeit und einen Ombudsmann für Gerechtigkeit zwischen den Generationen und zukünftigen Generationen vor. Sie befürwortet auch einen zwischenstaatlichen Rat zur Nachhaltigkeit (International Panel on Sustainability), der auf dem „Erfolg“ des IPCC aufbauen soll.

Natürlich würden alle diese Fäden bei der Ersten politischen Institution der Welt und der Bastion für Freiheit, Fairness, Demokratie und Menschenrechte zusammen laufen – dem Generalsekretariat der UN.

Um diese „fundamentale” Verschiebung hin zum Nachhaltigkeits-Paradigma zu lenken, hat die Gruppe acht Prinzipien festgelegt – wobei das „Vorsorgeprinzip“ der Schlüssel ist. Dieses verbietet jede Aktivität, die ein Risiko darstellen oder „schädlich“ sein könnte. Die eigenen Rezepte zur Nachhaltigkeit sind natürlich von jeder Begutachtung nach dem Vorsorgeprinzip ausgenommen.

Die Objektive muss es sein, stellen sie fest, Ökonomien zu schaffen, die die Kohlenstoffemissionen, den Energieverbrauch, die Ausbeutung primärer Ressourcen, die Wegwerfgesellschaft sowie Luft- und Wasserverschmutzung drastisch begrenzen. Die Gesellschaft muss auch den vermeintlichen und von Computern modellierten Verlust von Spezies sowie den Ruin von Ökosystemen beenden.

Dies alles erfordert natürlich die Pflicht, das Verbraucherverhalten und den Lebensstil zu ändern (zumindest für das gemeine Volk) und die Erkenntnis, dass Arbeit (anders als Kapital) kein Produktionsfaktor ist. Tatsächlich ist Arbeit der Gruppe zufolge nicht einmal eine Handelsware. Mehr noch, nur „vernünftige“ Arbeit qualifiziert sich für das Nachhaltigkeits-Paradigma. (Wobei „vernünftige Arbeit“ nirgends definiert ist, darunter versteht man vermutlich rückenschädliche Landwirtschaft für den Eigenbedarf von Sonnenauf- bis Sonnenuntergang. Dies wird nach der Agenda der Gruppe als „traditionelle“ oder „organische“ Landwirtschaft bezeichnet und nicht durch moderne mechanisierte Agrikultur ersetzt).

Woher kommt all dies Geschwafel? Aus der Agenda 21, dem Mittelpunkt des ursprünglichen Erdgipfels in Rio – welche in Parallelveranstaltungen in Belo Horizonte, Brasilien, immer wieder verlängert, verändert und wieder verändert wird, während die wesentlichen Diskussionen zur Nachhaltigkeit in Rio stattfinden.

In der Agenda 21 heißt es zum Beispiel, dass „es zum Erreichen der Ziele der Umweltqualität und der nachhaltigen Entwicklung … Änderungen des Verbraucherverhaltens bedarf“. Dies würde ebenfalls unter UN-Aufsicht erfolgen, weil, wie es der Gründer des Erdgipfels Maurice Strong ausdrückte, die Tage der nationalen Souveränität vorbei sind und die Welt ein System des Transfers von Wohlstand braucht, um die Umweltsicherheit zu gewährleisten.

Kurz gesagt, „nachhaltige Entwicklung” ist ein System, dass nach einer Neudefinition von Geschäftsaktivitäten verlangt, weg vom Streben nach persönlichem Profit – und von Aktivitäten der Regierung, weg vom Streben nach individuellem Glück und Gerechtigkeit – hin zum Streben nach gesellschaftlicher Güte, wie sie von Aktivisten und den UN definiert wird.

Einfach gesagt, wie es Brian Sussman in seinem neuen Buch Eco-Tyranny schreibt, ist es das ultimative Ziel der das Nachhaltigkeits-Paradigma Anbetenden, „die wertvollsten“ Rechte, die in der Amerikanischen Unabhängigkeitserklärung stehen, zu löschen: „Alle Menschen sind gleich, sie wurden von ihrem Schöpfer mit gewissen unveränderlichen Rechten ausgestattet, darunter Leben, Freiheit und Streben nach Glück – um diese Rechte zu sichern, werden unter den Menschen Regierungen eingerichtet, die ihre Vollmachten direkt vom Einverständnis der Regierten ableiten“.

Die Agenda 21 und das Nachhaltigkeits-Paradigma bekämpfen und unterminieren auch Adam Smiths Glaube, dass das natürliche Streben der Menschheit nach Selbstverwirklichung, Profit und Verbesserung zu größerem Wohlstand, Gesundheit und Gerechtigkeit für alle führt.

Alles in allem ist die Vision der UN/Maurice Strong/Civil Society Reflection-Gruppe nichts weiter als die jüngste Verkörperung von Platos Republik. Den Thesen Platos zufolge agiert eine gebildete, elitäre, aber wohlwollende und mythische Klasse in dem Glauben, dass ihre selbst ernannten Könige der Philosophie alle richtigen Antworten haben und die Zustimmung der Regierten nicht erforderlich ist. Der Rest der Menschheit muss im Gleichschritt folgen oder die Konsequenzen tragen; egal wie exemplarisch die Ergebnisse sind.

Wie Alexander Hamilton beobachtet hat, sind die Menschen unglücklicherweise keine Engel. Mehr noch, es fordert Erfahrung und den gesunden Menschenverstand heraus anzunehmen, dass die elitären UN, UNEP sowie die Gemeinschaft der Umweltaktivisten jemals Weisheit losgelöst von leidenschaftlicher Ideologie an den Tag legen werden – oder Wohlwollen für die Menschen, die sie regieren wollen.

Paul Driessen and Duggan Flanakin

Bemerkung von Anthony Watts hierzu: Die Rio+20-Agenda der UN bedeutet jeweils weniger Freiheit, Glück, wirkliche Gerechtigkeit und Fortschritte hinsichtlich der Menschenrechte.

____________

Paul Driessen is senior policy advisor for the Committee For A Constructive Tomorrow (www.CFACT.org and www.CFACT.tv) and author of Eco-Imperialism: Green power – Black death. Duggan Flanakin is director of research and international programs for CFACT.

Link: http://wattsupwiththat.com/2012/06/19/sustainable-justice-redistribution-of-scarcity/

Übersetzt von Chris Frey EIKE




Prognosen des Meeresspiegelanstiegs und was sie wert sind

 

Abbildung 1: BILD benutzte die Veröffentlichungen zum prognostizierten Meeresspiegelanstieg um 3 m und mehr, für einen wohl scherzhaften Aufmacher. Holland geht also wieder einmal unter, wie im bereits wiederlegten IPCC-Bericht, dass die Niederlande unter Wasser lägen.

Da Klimacomputerspiele in der Öffentlichkeit offensichtlich an Glanz verloren haben, ist das PIK dazu übergegangen, seiner Studie einen vermeintlichen Wahrheitscharakter dadurch mitzugeben, dass sich ihre Studie auf tatsächliche Beobachtungen der letzten tausend Jahre stützt: “Erstmals bietet diese Studie damit eine umfassende Projektion für einen derart langen Zeitraum. Sie stützt sich dabei auf den tatsächlich beobachteten Meeresspiegelanstieg im vergangenen Jahrtausend sowie auf Szenarien für künftige Treibhausgasemissionen“ und weiter “Die neue Studie verwendet einen so genannten semi-empirischen Ansatz, der auf dem Zusammenhang zwischen beobachteter Temperatur und Meeresspiegel während der vergangenen Jahrhunderte basiert, um daraus Schätzungen für einen Meeresspiegelanstieg in Szenarien künftiger globaler Erwärmung abzuleiten und zu berechnen.“

Donnerwetter! Wenn das nichts ist, tausend Jahre tatsächlicher Meeresspiegelanstieg als Datenbasis und „semi-empirischer Ansatz“. Klingt wirklich gut! Man beachte tausend Jahre und “tatsächlich“. Wie der Meeresspiegelanstieg seiner Meinung nach in den letzten tausend Jahren aussieht, hat das PIK bereits am 20.06.2011 veröffentlicht (Abbildung 2).

 

Abbildung 2 zeigt den Meeresspiegelanstieg nach PIK, Quelle: PIK, Sea levels rising at fastest rate in 2000 years“ vom 20.06.2011.

Man beachte in Abbildung 2:

·         von 1000 – 1380 = +0,6 mm/a

·         von 1380 – 1900 = -0,1 mm/a

·         von 1900 – 2010 = +2,1 mm/a

In Summe ergibt die PIK`sche Datenbasis einen mittleren Meeresspiegelanstieg von weniger als 0,4 mm/a über die letzten 1000 Jahre, die Rahmstorf und Co angeblich für ihre Prognose von 3 m Meeresspiegel bis zum Jahr 2300 als Basis herangezogen haben. Wird der prognostizierte Anstieg von 3 m, der nach Aussage von Rahmstorf auf tausend Jahre und “tatsächlich“ beruht, aufs Jahr umgerechnet, so ergibt sich ein Meeresspiegelanstieg von mehr als 10 mm/a und zwar ab sofort ! Ein wahrlich abenteuerlicher Prognosewert, anhand der gezeigten PIK´schen Datenbasis für die letzten 1000 Jahre.

Abbildung 3 zeigt den sich tatsächlich entwickelten Meeresspiegelanstieg über die letzten Jahre.

  

Abbildung 3: Entwicklung des Meeresspiegels über die letzten Jahre. Deutlich ist zu sehen, dass dieser nicht zusehends steigt, sondern, zusehends fällt, Quelle

Das gleiche Bild zeigt Abbildung 4

 

Abbildung 4 zeigt die Anstiegsraten pro Jahr über die letzten 20 Jahre. Der Anstieg des Meeresspiegels hat sich deutlich verlangsamt. Von einem beschleunigten Anstieg kann demnach keine Rede sein, Quelle: WUWT, “Sea Level Rise and Solar Activity“.

Wie auf einer Datenbasis von weniger als 0,4 mm/a für die letzten 1000 Jahre oder der gegenwärtigen Anstiegsrate von 1,5 mm/a ein Meeresspiegelanstieg von 3 m (10 mm/a ab sofort) erreicht werden soll, wissen wohl nur die Seher vom PIK. Obwohl, tausend Jahre, da war doch mal was. Haben die „Forscher“ etwa diese Datenbasis für ihre Studie genommen? Müsste man beim PIK einmal nachfragen.

Was bei der Verwendung von Modelrechnungen im Vergleich zur Realität herauskommt, kann z.B. in den ACIA-Berichten bestaunt werden, woraus die folgenden Abbildungen entnommen sind. Exemplarisch die Prognosemodelle zum Wolkenbedeckungsgrad, der essenziell für die Klimabewertung ist, der solaren Einstrahlung, die z.B. für die Kenntnisse der Energieflüsse (Trenberth) Voraussetzung ist und der Niederschlagsentwicklung.

 

Abbildung 5 zeigt nach diversen Modellberechnungen (alle mit Hochleistungsrechnern, sog. Supercomputern durchgeführt) der Wolkenbedeckung (links) und der solaren Einstrahlung (rechts) im Zeitraum von 1981 – 2000 von 70° – 90° nördlicher Breite. “TOVS“ zeigt die mittels Satellit aufgenommenen Vergleichsdaten beim Bedeckungsgrad und “Langley“ die Beobachtungsdaten der solaren Einstrahlung. „Bemerkenswert“ ist die Übereinstimmung der solaren Einstrahlung für die Monate November bis Februar. Diese kommt indes einzig dadurch zustande, dass die solare Einstrahlung im Winter in den Polargebieten bekanntermaßen gleich Null ist.

Gleiches Durcheinander der Modellbetrachtungen und Ergebnisse beim Niederschlag.

 

Abbildung 6 zeigt den gemessenen Niederschlag (Observed), zu dem berechneten nach Klimamodellen für die Kontrollperiode von 1921 – 1950 nach Hellström et al., 2001. Wie deutlicher nicht zu sehen, besteht zwischen Realität und Berechnung keine Übereinstimmung. Die Unterschiede sind erheblich. Die Differenz zur Realität beträgt teilweise über 100%.

Das Tohuwabohu der Ergebnisse, die unterschiedlicher nicht sein können, braucht daher nicht weiter betont zu werden. Erstaunliche Übereinkunft in den verschiedenen und übrigens anerkannten Klimacomputermodellen zueinander und zur Realität zeigt sich einzig in der solaren Einstrahlung im Zeitraum von Oktober – Februar (Abbildung 5 rechts). Die Polarnacht können die Klimamodelle und die Supercomputer demnach exakt vorher bestimmen. Ob hierzu allerdings Supercomputer und aufwendige Klimamodelle diverser Institute notwendig sind, wagt der Autor zu bezweifeln.

Prof. Marotzke, Direktor des Max Planck Instituts für Meteorologie sagte auf dem 4. ExtremWetterKonkress in Bremerhaven “Wenn die Erde zum Eisball wird“ zu den Klimamodellen:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“ Der Volksmund kennt hierzu eine treffende Aussage: “Außer Spesen, nichts gewesen.“

Bereits in seinem letzten EIKE-Beitrag „Climate change is pseudoscience“ fügte der Autor an (da dies so wichtig ist, soll es an dieser Stelle wiederholt und ergänzt werden):

Die angesprochene Pseudowissenschaft mittels Klimamodellen wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Klimamodelle genannt) und Spielplätze (hier der Meeresspiegelanstieg) nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen.

Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.

 

Raimund Leistenschneider – EIKE




Über die überwältigende Zahl von 97% bis 98% der Wissenschaftler, die da meinen, es gebe einen Klimakonsens…

Um die Rate der Antworten zu maximieren war die Befragung so angelegt, dass sie in weniger als 2 Minuten ausgefüllt werden konnte, und sie wurde von einer professionellen Online-Site überwacht (www.questionpro.com), die eine einmalige Beteiligung aller derjenigen ermöglichte, denen die Fragen vorgelegt wurden.

Ich glaube, es ist lächerlich, dass sich so wenige Leute, die diese Umfrage als „Beweis“ eines Konsens’ anführen, genauer mit dieser Umfrage und den mickrigen Antwortzahlen befassen. Also habe ich mich entschlossen, diese Daten graphisch darzustellen, um eine dringend gewünschte Perspektive zu bieten. Offensichtlich befand es die Mehrheit der befragten AGU-Mitglieder für überflüssig, diese Umfrage zur Klimaänderung einer Antwort zu würdigen. – Anthony

Dieser wissenschaftliche Konsens zur globalen Erwärmung … nein! – Forbes

Larry Bell

Wo also kommt diese berühmte „Konsens”-Behauptung her, dass „98% aller Wissenschaftler an die globale Erwärmung glauben“? Sie stammt von einem endlos wiederholten Bericht aus dem Jahr 2009 von der American Geophysical Union (AGU) über eine Befragung, die absichtlich kurz gehalten war und aus zwei Fragen bestand, und von zwei Forschern an der University of Illinois online an 10257 Erdwissenschaftler versandt worden ist. Von den 3000 Personen, die darauf geantwortet haben, sagten 82% „ja“ zur zweiten Frage, die die meisten Leute, die ich kenne, wie die erste Frage ebenfalls bejaht hätten.

Von diesen 3000 wurde nur eine kleine Teilmenge von 77 Personen für die Auswertung der Befragung ausgesucht. Bei diesen 77 Personen handelt es sich um diejenigen, die mehr als die Hälfte ihrer Studien erfolgreich in klimawissenschaftlichen Journalen untergebracht hatten. Diese „98% aller Wissenschaftler“ bezieht sich auf die lächerlich winzige Zahl von 75 der 77 Personen, die mit „ja“ geantwortet haben.

In der Befragung, die alles Mögliche, aber nicht wissenschaftlich war, wurden zwei Fragen gestellt. Die erste: „Glauben Sie, dass die mittlere globale Temperatur im Vergleich mit dem Niveau vor 1800 allgemein gestiegen, gefallen oder gleich geblieben ist?“ Man würde nur von wenigen erwarten, dass sie darüber diskutieren… der Planet tauchte Mitte des 19. Jahrhunderts aus der „Kleinen Eiszeit“ auf, die der industriellen Revolution voraus gegangen war. (Das war die kälteste Zeit seit Ende der letzten realen Eiszeit, die grob geschätzt vor etwa 10000 Jahren zu Ende gegangen war).

Die zweite Frage lautete: „Glauben Sie, dass menschliche Aktivitäten ein wesentlicher Faktor sind, die zur Änderung der mittleren globalen Temperatur beitragen?” Was aber bedeutet „wesentlich“? Schließt der Begriff „Änderung“ sowohl Erwärmung als auch Abkühlung ein… und was ist „schlimmer“, was ist „besser“? Und was die Beiträge betrifft… schließt das Veränderungen der Landschafsnutzung ein wie etwa Landwirtschaft oder Entwaldung?

Der ganze Artikel steht hier: That Scientific Global Warming Consensus…Not! – Forbes

In EOS erschien diese Befragung folgendermaßen:

EOS, TRANSACTIONS AMERICAN GEOPHYSICAL UNION, VOL. 90, NO. 3, PAGE 22, 2009 doi:10.1029/2009EO030002

KURZBERICHT

Untersuchung zum wissenschaftlichen Konsens zur Klimaänderung

Peter T. Doran, Earth and Environmental Sciences, University of Illinois, Chicago

Maggie Kendall Zimmerman,  Earth and Environmental Sciences, University of Illinois, Chicago

52% aller Amerikaner glauben, dass die meisten Wissenschaftler darin überein stimmen, dass sich die Erde während der letzten Jahre erwärmt hat, und 47% glauben, dass es unter den Klimawissenschaftlern einen Konsens gibt, dass menschliche Aktivitäten ein wesentlicher Grund für dieser Erwärmung sind; jedenfalls einer kürzlichen Umfrage zufolge (siehe http://www.pollingreport.com/enviro.htm). Allerdings sind Versuche, diesen wissenschaftlichen Konsens zur anthropogenen Erwärmung zu quantifizieren, stark kritisiert worden. Zum Beispiel begutachtete Oreskes (2004) 928 Abstracts von wissenschaftlich begutachteten Forschungspapieren und fand heraus, dass mehr als 75% den Konsens, dass das Erdklima durch menschliche Aktivitäten beeinflusst wird, explizit oder implizit akzeptiert haben. Und doch wurde Oreskes Untersuchung dafür kritisiert, dass er das Niveau der Akzeptanz des Konsens’ unter diesen Abstracts überbetont (Peiser 2005) und nicht das gesamte Meinungsspektrum der wissenschaftlichen Meinung abgedeckt habe (Pielke 2005). Eine Übersicht über frühere Versuche, den Konsens und die Kritik zu quantifizieren, wird von Kendall Zimmerman (2008) vorgenommen. Ziel der hier präsentierten Studie ist es, den wissenschaftlichen Konsens zur Klimaänderung durch eine unverzerrte Übersicht über eine große und vielfältige Gruppe von Erdwissenschaftlern zu untersuchen.

…und hier die Studie mit den Daten:  http://tigger.uic.edu/~pdoran/012009_Doran_final.pdf

Aktualisierung: Der ursprüngliche Artikel von Larry Bell nannte 98%, aber die genaue Zahl beträgt 97,4%. Im Web bezog man sich auf beide Angaben in den individuellen Artikeln, ebenso wie auf die Bandbreite 97% bis 98%. Ich habe die Überschrift entsprechend der Bandbreite angepasst. – Anthony Watts

Link: http://wattsupwiththat.com/2012/07/18/about-that-overwhelming-98-number-of-scientists-consensus/

Übersetzt von Chris Frey EIKE




Grüner Wohlstand, Grüne Steuern, Grüne Armut

Aber die Räuber bildeten Banden, die sich Greenpeace, der Sierra Club oder Natural Resources Defense Fund oder Friends of Earth (hierzulande der BUND) nannten, die Ihren Lebensstandard angreifen. Die Che-Guevara-Demokraten erwarten, dass Sie sie mit offenen Armen aufnehmen und ihnen glücklich Ihr Bargeld übergeben, bis Ihre Alterssicherung verschwunden ist und Ihr Lebensstandard auf das von Argentinien gesunken ist.

Dieses Dritte-Welt-Land ist es, wohin Obamas „grüne Energie“-Strategie Amerika bringt, während er uns die ganze Zeit süße Märchen darüber erzählt, dass dieser Weg die Straße zu Wohlstand im 21. Jahrhundert ist.

Flower Power

Eine einfallsreiche politische Propaganda hat uns glauben gemacht, dass erneuerbare, alternative Treibstoffe die modernen Energiequellen der Zukunft sind. Aber das genaue Gegenteil ist der Fall. Robert Bryce erklärt in seinem Buch Power Hungry The Myths of "Green" Energy and the Real Fuels of the Future [etwa: machthungrig: Die Mythen „grüner“ Energie und die wirklichen Treibstoffe der Zukunft]:

Jahrtausende lang verließen sich die Menschen fast vollständig auf erneuerbare Energie. Sonnenenergie stellte die Futtermittel für Tiere zur Verfügung, die dann als Nahrung sowie für Transporte und Zugtiere benutzt werden konnten. Reisen… wurde durch Windkraft möglich, durch Muskelkraft von Mensch und Tier. Und obwohl die heutigen Windturbinen als der letzte Schrei technologischer Entwicklung angesehen werden, gab es die Gewinnung von Windenergie an Land während der gesamten Menschheitsepoche.

Tatsächlich enthält die klassische Version einer Ansiedlung im Wilden Westen Amerikas eine verfallende hölzerne Windmühle. Bryce fährt fort: „Die Nutzung von Wasserkraft ist ebenfalls schon uralt. Die antiken Griechen verwendeten Wassermühlen; ebenso die Römer, von denen der Gebrauch von Wassermühlen bereits im 1. Jahrhundert vor Christus belegt wurde. Der Gebrauch von Wasserkraft setzte sich bis zum Beginn der industriellen Revolution fort“.

Mehr noch, „nach Gründung der Kolonie Plymouth durch die Pilgrims war Holz 265 Jahre lang, nach der Unterzeichnung der Unabhängigkeitserklärung 109 Jahre lang die Hauptenergiequelle in Amerika.“ Die Kohle überholte das Holz im Jahr 1885. Das Öl überholte die Kohle im Jahr 1950. Der Gebrauch von Erdgas erlebt heute eine Renaissance.

Die Welt schwenkte von Energie durch Wind, Sonne und Biomasse zu Öl, Kohle, Erdgas und Kernkraft, und zwar aus guten physikalischen und mathematischen Gründen. An erster und wichtigster Stelle steht die Energiedichte. Kohlenwasserstoffe und Kernkraft enthalten erhebliche Konzentrationen davon. Sonne und Wind sind sehr weiträumig und diffus in der Atmosphäre verteilt, so dass es mehr als herkulische Kräfte braucht, deren Kraft zu sammeln und in brauchbare Formate umzuwandeln. Folglich sehen wir Solarpaneele und meterhohe Windturbinen, die sich über viele Quadratkilometer verteilen – und doch leisten sie kaum einen Beitrag.

Das Kernkraftwerk Südtexas erzeugt 300 Pferdestärken Energie pro Acre [1 Acre = ca. 4047 m²] Landverbrauch, etwa ebensoviel wie Erdgas, dicht gefolgt von Öl. Windkraft erzeugt 6,4 Pferdestärken pro Acre, Photovoltaik 36, Biomasse 2,1 PS pro Acre. Ethanol aus Mais erfordert etwa 1150 mal so viel Land wie Kernkraft, um die gleiche Energiemenge zu erzeugen.

Der Milford Wind Corridor ist ein 300-Megawatt-Windprojekt in Utah mit 139 Windturbinen, verteilt über 40 Quadratmeilen [ca. 104 km²]. Die Herstellung des Betons zu deren Errichtung verbrauchte 14,3 Millionen Gallonen Wasser [ca. 54 Millionen Liter], um 44344 Kubikmeter Beton herzustellen. Das bedeutet „jedes Megawatt Windkapazität erfordert 870 Kubikmeter Beton und 460 Tonnen Stahl“. Das ist 32 mal so viel Beton und 139 mal so viel Stahl wie für ein Megawatt durch Erdgas.

Das Diffusionsproblem besteht hauptsächlich durch die hohe Variabilität von Wind und Sonne für die Energieerzeugung. Bryce schreibt: „Wir wollen die Möglichkeit haben, Dinge an- und abzuschalten, wann immer wir das wollen. Dieser Wunsch schließt Wind und Sonne als wesentlichen Bestandteil unseres Energiemix’ aus, weil wir Wind und Sonne nicht kontrollieren können. Ein Gewitter oder eine Hochdruckzone kann Wind- und Solarsysteme von voller Leistung auf Null Leistung innerhalb weniger Minuten bringen. Das Ergebnis: wir können nicht zuverlässig die Energie aus diesen Quellen zu der Zeit bekommen oder liefern, zu der wir sie brauchen“.

Dann gibt es da noch das Problem, Wind- und Solarenergie zu speichern. „Erneuerbare Energie ist wertlos, solange sie nicht zu erneuerbarem Strom wird, das heißt, dass Strom zu speziellen Zeiten unserer Wahl abgeschaltet werden kann… Und trotz Jahrzehnte langer Bemühungen haben wir bis jetzt keinen wirtschaftlichen Weg gefunden, große Mengen Energie aus Wind und Sonne zu speichern, so dass wir sie auf Wunsch in Strom umwandeln können“.

Nach all dem kommt der Electric Reliability Council of Texas [etwa: Rat für zuverlässige Elektrizität] zu der Schlussfolgerung, dass man auf „lediglich 8,7% der installierten Windkapazität als abhängige Kapazität während der Spitzennachfrage zählen kann“ und dass „die konventionelle Erzeugung verfügbar sein muss, um die verbleibende Kapazität zu sichern, die gebraucht wird, um vorhergesagte Lasten und Reserve-Erfordernisse stemmen zu können“. Mit konventionellen Energiequellen, die man kurzfristig als Backup braucht, bieten Wind und Sonne wirklich nur Wohlfahrtsversorgung, damit sich die verschwenderischen Reichen wohl fühlen.

Das sind die Gründe, warum sich die Welt verändert hat, und es geht nicht rückwärts. Wie Bryce erklärt, „vor der industriellen Revolution spielten Kohle, Öl und Erdgas keine Rolle, Sonne, Wind und Wasserkraft waren ausreichend. Kohlenwasserstoffe stellten eine gewaltige Zunahme der verfügbaren Energie dar, was es den Menschen erlaubte, von diffusen und geographisch verstreuten Energiequellen zu solchen zu wechseln, die konzentriert und frei von speziellen geographischen Erfordernissen waren. Kohlenwasserstoffe waren billig, konnten transportiert werden und, am wichtigsten, besaßen eine viel größere Energiedichte. Diese zunehmende Verfügbarkeit von Energie hat es uns ermöglicht, immer mehr Arbeiten in immer weniger Zeit zu schaffen“. In der Folge verbreiten sich die industrielle Revolution und moderner Wohlstand jetzt weltweit.

Energie, wirtschaftliches Wachstum und moderner Wohlstand

Rund um den Globus korreliert moderner Wohlstand sehr gut mit dem Energie- und Stromverbrauch. Bryce schreibt: „Die einfache, unvermeidliche Wahrheit ist, dass uns der Gebrauch von Öl reich macht. Sollte Öl tatsächlich nicht existent sein, hätten wir es erfinden müssen… Mit der Zunahme des Ölverbrauchs nimmt auch der Wohlstand zu. Und der Zusammenhang ist so eindeutig, dass er unbestreitbar ist.“

Die OECD-Nationen, vor allem die blühenden, entwickelten Länder des Westens, erzeugen allgemein ein BIP pro Kopf von etwa 25 000 bis 30 000 Dollar und verbrauchen 14 bis 16 Barrel Öl pro Kopf und Jahr. Im Jahr 2008 betrug das BIP der USA 48 100 Dollar und der Ölverbrauch 23 Barrel pro Kopf. Im Gegensatz dazu erzeugen die Nicht-OECD-Staaten ein BIP von 7000 bis 10 000 Dollar pro Kopf und verbrauchen 3 bis 5 Barrel Öl pro Person. Die Länder Asiens und Afrikas erzeugen ein BIP von 2000 bis 4000 Dollar pro Kopf und verbrauchen 1 bis 2 Barrel Öl pro Person.

Das ist kein Zufall. Wie Bryce schreibt: „Dank seiner hohen Energiedichte ist Öl der fast perfekte Treibstoff für alle Fahrzeugtypen, von Booten und Flugzeugen bis hin zu Autos und Motorrädern. Ob man sie nun durch Gewicht oder durch Volumen misst, raffinierte Ölprodukte stellen mehr Energie zur Verfügung als praktisch jede andere allgemein verfügbare Substanz, und sie stellen sie in einer Form zur Verfügung, die leicht zu handhaben, relativ billig und relativ sauber ist“. Mehr noch, Öl ist der einzige Treibstoff, der die modernen Maschinen ökonomischen Gedeihens antreiben kann, die Diesel- und die Jet-Turbine.

Neben dem Öl wird Wohlstand in der Welt heute durch Strom befeuert. Und gerade jetzt bedeutet das Kohle, obwohl die Zukunft dem Erdgas und der Kernkraft gehören könnte. Während unter den großen Ländern nur Kanada einen höheren Pro-Kopf-Stromverbrauch hat als Amerika, sind die Länder mit dem niedrigsten Stromverbrauch Gaza, Tschad, Burundi, die Zentralafrikanische Republik und Ruanda.

Das können Sie in ihrem eigenen Haushalt sehen. Vor dreißig Jahren enthielt die amerikanische Küche einen Kühlschrank, einen Herd und einen Toaster. Aber heute, schreibt Bryce, enthält die gleiche Küche auch noch „eine Mikrowelle, eine Kaffeemaschine, einen Entsafter, einen Umluftherd, einen Geschirrspüler und eine Küchenmaschine. Ein paar Schritte weiter, wo es einst nur einen kleinen Schwarzweiß-Fernseher gegeben hatte, stehen heute ein riesiger TV-Bildschirm, ein DVD-Spieler und ein Digital-Videorekorder, ebenso wie ein Labtop und ein Tintenstrahldrucker. Im Jahr 1980 verfügte jeder US-Haushalt im Mittel über drei elektronische Apparate. Heute sind es etwa 25.“

Kohle erzeugt heute 41 Prozent der Weltstromversorgung, gefolgt von Erdgas mit 20 Prozent, Wasserkraft (geographisch begrenzt) mit 16 Prozent und Kernkraft mit 15 Prozent. Öl ist mit 6 Prozent (altmodisch zur Stromerzeugung) immer noch dreimal „anders“ bei 2 Prozent [Original: ,Oil at 6 percent (old-fashioned for electricity production) is still 3 times "other" at 2 percent.’]

Jeder Erwachsene außerhalb von Greenpeace, dem Natural Defense Council, dem Sierra Club und der modernen Che Guevara-Demokraten-Partei versteht, was das bedeutet. Bryce schreibt: „Die Entwicklungsländer der Welt verbrauchen ihre Kohle zur Stromerzeugung, und dieser Strom fördert ökonomisches Wachstum in der ganzen Welt, vor allem in sich rasant entwickelnden Ländern wie China, Indonesien und Malaysia. Zwischen 1990 und 2008 ist die Stromerzeugung in diesen drei Ländern um mehr als 300 Prozent nach oben gesprungen.“ Ergebnis: Allein die Zunahme des weltweiten Kohleverbrauchs von 2007 bis 2008 erzeugte 25 mal so viel Energie als alle Windturbinen und Solarpaneele in Amerika im Jahr 2008.

Tatsächlich zeigt Bryce, dass lediglich eine moderne Kohlemine in Kentucky, der Größe nach an 35. Stelle in Amerika, fast genauso viel Energie erzeugt wie alle Wind- und Sonnenkraftwerke in den USA zusammen. Und die Erdgasproduktion von nur einem US-Bundesstaat, Oklahoma, erzeugt deutlich über 9 mal so viel Energie als alle Wind- und Solaranlagen in den USA.

Bryce fügt hinzu: „Wenn wir den Entwicklungsländern dabei helfen wollen, die Armut zu bekämpfen, müssen wir ihnen helfen, die Menge an Strom zu vergrößern, den sie erzeugen und verteilen“. Und das heißt noch mehr Kohle, ebenso wie Erdgas und Kernkraft.

Die Flower Power der Linken wie Wind, Sonne und Biotreibstoffe sind die Energiequellen des Römischen Reiches und erzeugen den gleichen Lebensstandard wie im Römischen Reich. Bryce zeigt die kärgliche Existenz jener, die auf den alten Wegen stecken geblieben sind: „Die am meisten verarmten Menschen haben keine Wahl, ihr Essen zu kochen und ihre Wohnung zu heizen, als mit Treibstoffen mit geringer Energiedichte, wie Stroh, Dung, Reisig, Holz und Blätter. In ihrem Überlebenskampf tragen sie die Biomasse der Landschaft ab. Aber weil sie das tun, tragen sie auch zur Entwaldung bei und zur Erzeugung von Ruß in der Luft.“ Der Verbrauch dieser veralteten Energiequellen „resultiert oftmals in Lebensbereichen, die mit einer Vielzahl giftiger Verschmutzer angefüllt sind, darunter Russpartikel, Kohlenmonoxid, Benzol, Formaldehyd und sogar Dioxin“.

Bryce folgert: “Mehr Ölverbrauch unter den Armen würde helfen, in jedem Jahr das Leben hunderttausender verarmter Menschen zu retten, die wegen der Verschmutzung der Raumluft durch das Verbrennen von Biomasse frühzeitig sterben.“ Tatsächlich sind dies die Gründe, warum „Öl grüner ist als jede der alternativen Energieformen, die es ersetzen könnten. Egal ob der Ersatz durch Ethanol aus Mais, Biomasse – wie Holz, Stroh oder Dung – oder Biotreibstoffe erfolgt… das Ergebnis ist offensichtlich. Öl (und, falls verfügbar, Erdgas) ist einfach nichts ebenbürtig. Öl versorgt die Verbraucher mit einer hohen Energiedichte… und die Verbrauchsmöglichkeiten dafür sind nahezu grenzenlos.“

Die Straße zur Hölle: gepflastert mit grünen Absichten

Es hat sich herausgestellt, dass die geologische Formation Bakken in Nord-Dakota viel, viel mehr Öl enthält als der US-Geological Survey gedacht hat, tatsächlich 25 mal oder 2400 Prozent mehr. Das sind Trillionen Barrel Öl, die selbst Saudi-Arabien in den Schatten stellen. Als Ergebnis beträgt die offizielle Arbeitslosenrate in Nord-Dakota 3,5 Prozent, mit fast 20 000 Arbeitsplätzen, wobei 60 000 bis 80 000 Dollar pro Jahr wegen des Mangels ausreichend ausgebildeter Bewerber verloren gehen. Die Einkünfte des Staates aus diesem boomenden Wachstum spülen der Regierung von Nord-Dakota soviel Geld in die Kassen, dass sich der Staat nach 7 aufeinander folgenden Steuerkürzungen einer mit vielen Milliarden Dollar gefüllten Sparbüchse erfreut, obwohl der ganze Staatshaushalt nur 2 Milliarden Dollar beträgt. Obwohl die Wähler in Nord-Dakota es jüngst abgelehnt haben, Eigentumssteuern abzuschaffen, würde es zu einem permanenten Antrieb seiner Wirtschaft kommen, wenn der Staat stattdessen die staatliche Einkommensteuer abschaffen würde, woran man sich in Texas, Florida und 7 anderen Staaten erfreut.

Wie Newt Gingrich in einer sehr aufschlussreichen Rede im Rahmen der Kampagne sagte: „Aber wenn Nord-Dakota selbst so viel Energie besitzt, wie viel glauben wir überall sonst zu haben? Es stellt sich heraus, dass wir in den USA heute mehr Reserven haben unter der Voraussetzung neuer Wissenschaft und Technologie, als wir seit 1870 insgesamt gefördert haben. Tatsächlich beläuft sich eine Schätzung darauf, dass wir über drei mal so viel Öl verfügen wie Saudi-Arabien“. Oder als es in Saudi-Arabien jemals gegeben hat.

Zusätzlich zum Bakken-Feld gibt es noch die Green-River-Formation im Grenzgebiet der US-Bundesstaaten Colorado, Utah und Wyoming. Auch hier wird geschätzt, dass dieses Feld ebenfalls mehr förderbares Öl enthält als die weltweit nachgewiesenen Reserven zusammen; der GAO zufolge sind es 3 Billionen Barrel, von dem mindestens die Hälfte der Rand Corporation zufolge sofort förderbar ist. Das ist doppelt so viel Öl wie im gesamten Nahen Osten und reicht aus, um den gesamten Verbrauch in den USA 200 Jahre lang zu decken.

Dann gibt es noch die Parallel-Revolution beim Erdgas. Es war schon lange bekannt, welch große Mengen Erdgas in Schiefer eingeschlossen waren, aber wir wussten nicht, wie wir da herankommen können. Noch im Jahr 2000 dachten die Leute, dass wir noch Gasvorräte für sieben Jahre in den USA hätten. US-Investoren haben damit begonnen, umfangreiche Fonds einzurichten, um Einrichtungen zur Einfuhr verflüssigten Erdgases aus dem Nahen Osten zu schaffen.

Aber dann begannen die Unternehmer, Techniken für horizontale Bohrungen, entwickelt für das Bohren im Tiefwasser, auf die Schieferformationen anzuwenden, wobei das Meiste aus einem einzigen Loch durch das Bohren in alle Richtungen geholt werden muss. Kombiniert man das mit der schon lange bekannten Technik des Fracking, bei dem das Schiefergestein mit Dampf, Wasser und Sand aufgebrochen wird (was die „Umweltaktivisten“ vermutlich so ängstigt), führt dies Gingrich zufolge dazu, das wir jetzt über ungeheure Mengen förderbaren Erdgases verfügen. In einem kurzen Jahrzehnt sprangen wir von 7 Jahren weiterer Versorgung auf über einhundert Jahre, weil sich Wissenschaft und Technik so stark verbessert haben. Mehr noch, anstatt verflüssigtes Gas aus dem Nahen Osten einzuführen gibt es jetzt ernsthafte Gespräche darüber, die Einrichtungen in Houston zu errichten… um verflüssigtes Erdgas nach China zu verschiffen.

Aber das alles ist nur der Anfang, weil es, wie Gingrich hinzufügt, „an Stellen wie dem Marcellus-Feld im westlichen Pennsylvania, im östlichen Ohio und ganz entlang der Appalachen bis hinunter nach Dallas eine Formation nach der anderen gibt.“

Was das bedeutet, habe ich bereits in meinem Buch America’s Ticking Bankruptcy Bomb [etwa: Die tickende Bombe des Bankrotts von Amerika] beschrieben. Amerika hat die Reserven, um der größte Öl-, der größte Erdgas-, der größte Kohle-, der größte Kernenergieerzeuger, ja selbst der größte Erzeuger alternativer Energie in der Welt zu sein. Und all das addiert sich zu den wahrhaft gewaltigen wirtschaftlichen Möglichkeiten für Amerika.

Diese wieder erwachten, explosiv wachsenden Energieindustrien selbst bedeuten eine boomende Wirtschaft, indem die Bedingungen von Nord-Dakota auf das ganze Land übertragen werden. Das bedeutet definitiv Millionen hoch bezahlter Arbeitsplätze allein in der boomenden Energieindustrie und damit verbundener Industrien selbst. Es bedeutet aber auch Milliarden Dollar für Landbesitzer, Landwirte und andere, die diese Energiereserven auf ihrem Land besitzen.

Und es bedeutet explodierende Steuereinkünfte für unsere bankrotten Regierungen durch die enormen Profite der revitalisierten Energieindustrien, auf die sie explosionsartig steigende Steuern zahlen. Tatsächlich dürften die explodierenden Einkünfte nur aus dem Öl- und Gasboom während der nächsten Generation ausreichen, unsere gesamten nationalen Schulden zu begleichen. Dies ist der Grund dafür, dass im Zuge des neuen Gedeihens in Amerika Garanten des freien Marktes gewählt werden müssen, damit dieser sturzbachartige Reichtum nicht durch weiter steigende Ausgaben verschwendet wird.

Außerdem bedeutet viel billige Energie auch einen ökonomischen Boom in größerem Umfang. Der sich ergebende rapide Preisverfall bei Energie ist eine mächtige Steuerreduzierung für die gesamte Wirtschaft. Dies bedeutet im Besonderen ein Wiederaufleben energieintensiver Produktion. Es bedeutet auch Millionen zusätzlicher Arbeitsplätze, höhere Löhne und immer noch mehr Steuereinnahmen zum Ausgleich des Budgets und der Rückzahlung der nationalen Schulden, wenn Amerika wieder an die Arbeit geht.

Barack Obama versucht uns zu erzählen, dass die zunehmende Bohrtätigkeit keine Auswirkung auf die hohen Öl- und Benzinpreise haben werde. Aber beachten Sie, dass mit dem stürmisch zunehmenden Schiefergas-Boom die Preise für Erdgas seit dem Jahr 2008 um 90% nach unten geschossen sind. Sinkende Energiepreise bedeuten niedrigere Preise für alles, was gleichbedeutend mit weiteren Steuerrückgängen für jedermann ist, was die Wirtschaft sogar noch zusätzlich ankurbelt.

Aber unter Obamas Wassermelonen-Politik [außen grün, innen rot] grüner Energie bekommt Amerika nichts davon. Anstatt das alles zu unterstützen werden die Steuern zahlenden Kohle-, Öl- und Gasindustrien von der EPA ausgebremst. Sie werden ersetzt durch Wind, Sonne und Biokraftstoffe; ganze Industrien überleben nur durch öffentliche Förderung auf Kosten der Steuerzahler.

Infolge der Probleme dieser diffusen und unzuverlässigen Energie dieser unzeitgemäßen Quellen wie oben besprochen, sind diese Energiequellen inhärent drastisch teurer. Offiziellen Angaben der US-Regierung zufolge ist Festlands-Windstrom 2 bis 3 mal, Windstrom auf See 4 bis 5 mal so teuer wie traditionelle Treibstoffquellen. Thermische Sonnenenergie ist 5 bis 6 mal so teuer, Photovoltaik fast 10 mal. Die Notwendigkeit, traditionelle Energiequellen in Reserve zu halten, wenn der Wind einmal nicht weht und die Sonne nicht scheint, lässt die Kosten sogar noch weiter zunehmen.

All das ist das genaue Gegenteil von dem, was der Markt uns anbietet: diese höheren Energiepreise sind im Endeffekt eine weitere gewaltige Steuererhöhung für unsere Wirtschaft, die immer neue Arbeitsplätze vernichtet, die Arbeitslosigkeit steigen lässt und Amerika immer weiter in die Rezension rutschen lässt. Die riesigen erforderlichen Aufwendungen, um dieser alternativen Industrien am Leben zu halten, sind eine weitere Belastung unserer Wirtschaft. Obamas Cap-and-Trade-Politik der EPA repräsentiert im Endeffekt billionenfach  steigende Steuern, was die Wirtschaft immer weiter nach unten drückt. Anstatt den Weg für eine Renaissance der amerikanischen Wirtschaft durch billige Treibstoffkosten zu ebnen, sorgt Obamas Politik der teuren Energie für einen weiteren Rückgang der Industrieproduktion in Amerika.

Die Rhetorik hinsichtlich grüner Arbeitsplätze ist nichts als ein PR-Slogan, um die Amerikaner aus ihrem traditionellen weltweit führenden Wohlstand zu drängen, welchen Präsident Obama und seine Linksaußen-Basis als unmoralisch und unfair gegenüber der restlichen Welt empfindet. Die Realität wurde bereits in Europa ausprobiert und ist gescheitert, wo Studien gezeigt haben, dass die Subventionen für grüne Energie für jeden geschaffenen grünen Arbeitsplatz 2 bis 9 normale Arbeitsplätze vernichtet haben. Die Realität beweist sich bereits in UK, wo die hirnrissige Hingabe an Windmühlen, um eine moderne Volkswirtschaft mit Energie zu versorgen, zu Energiearmut der halben Nation geführt hat, bei der definitionsgemäß mehr als 10 Prozent des Einkommens durch hohe Energiepreise allein aufgewendet werden müssen.

Also ist die Wahl für die Amerikaner in diesem Jahr klar. Sie können sich für den weiteren Verfall Amerikas mit Präsident Obama entscheiden. Oder sie können sich für das Wiederaufleben des amerikanischen Wohlstands und die Wiedereinführung des amerikanischen Traums entscheiden, indem sie Präsident Obama in die Wüste nach links außen senden.

Peter Ferrara

Link: http://spectator.org/archives/2012/06/13/green-welfare-green-taxes-gree/

Übersetzt von Chris Frey für EIKE




IPCC gibt selbst zu: Berichte nicht vertrauenswürdig!

Am 27. Juni hat das Intergovernmental Panel on Climate Change (IPCC) eine Pressemitteilung herausgegeben des Inhalts, dass es die Empfehlungen umgesetzt hätte, die vom InterAcademy Council (IAC) – einem von der UNO eingesetzten Gremium der Wissenschaftsakademien der Welt – im August 2010 gemacht worden wären. 

Donna Laframboise, Warum fast nichts, was Sie über das IPCC wissen, wahr ist

Vortrag von Donna Laframboise auf der 4. Internationalen Klima & Energiekonferenz im Nov. 2011 in München.

….Hinter dieser anscheinend routinemäßigen Mitteilung über bürokratische Prozesse verbirgt sich eine erstaunliche Geschichte, die in den Medien völlig unbeachtet blieb. Das IPCC ist die weltweit an vorderster Stelle stehende Quelle für alarmistische Vorhersagen und Behauptungen zum Klimawandel. Seine vier Berichte (Viele Teile des fünften sollen von 2013 bis 2014 herauskommen) werden von der Umweltschutzbehörde der USA (Environmental Protection Agency – EPA) und von nationalen Wissenschaftsakademien in aller Welt als “Beweise” für den Klimawandel der letzten fünf Jahrzehnte genommen, dass dieser vom Menschen verursacht und Beleg für eine herannahende Krise wäre.

Wenn die IPCC-Berichte falsch sind, wie viele Klimawandel-Skeptiker seit längerem behaupten, dann ist der Klimaschutzbewegung und der als schlimmste aller Umweltkrisen an die Wand gemalten Katastrophe die wissenschaftliche Grundlage entzogen. Milliarden von Dollars an Subsidien für die Solarangergie- und Windenergiegewinnung sind verschwendet. Billionen von Dollars an personlichen Einkommen weltweit vergeudet worden für Kampagnen, eine Problem zu „lösen“, das es in Wahrheit gar nicht gibt.

Die “Empfehlungen” des IAC waren mitnichten geringfügige Anpassungen eines eigentlich gesunden wissenschaftlichen Verfahrens. Hier sind einige Feststellungen aus dem 2010er IAC-Bericht:

Das IAC schrieb, dass die Leitautoren des IPCC es versäumten, “… den sauber dokumentierten abweichenden Ansichten die nötige Aufmerksamkein zu schenken …” (S. 20), dass sie es versäumten, “ … detaillierte schriftliche Antworten auf die von den Gutachtern dargestellten Hauptkritikpunkte zu geben” (S. 21), dass sie “ … gutachterliche Anmerkungen nicht sorgfältig behandelten und dokumentierten“ (S. 22).  Mit anderen Worten: Die IPCC-Berichte sind nicht fachbegutachtet.

Das IAC hat herausgestellt, dass “das IPCC kein formelles Verfahren und keine Kriterien für die Auswahl der Autoren hat”. Und “die Auswahlkriterien scheinen für viele Beantworter (eines IAC-Fragebogens) willkürlich zu sein” (S. 18). Regierungsvertreter aus den jeweiligen Ländern benennen ihre Wissenschaftler und “sie wählen nicht immer die besten von den Bewerbern. Entweder weil sie die Wissenschaftler nicht gut genug kennen oder weil politischen Gründen mehr Gewicht als wissenschaftlicher Qualifikation beigemessen wird.“ (S. 18). Mit anderen Worten: die Autoren werden aus einem “Club” von Wissenschaftlern und Nicht-Wissenschaftlern ausgewählt, der die von den Politikern bevorzugte alarmistische Sicht teilt.

Das Um-Schreiben der Zusammenfassung für Entscheidungsträger (Summary for Policy Makers) durch Politiker und Umweltaktivisten wurde offen zugegeben, vielleicht zum ersten Mal von einer Organisation die im Zentrum der Klimawandel-Alarmschlägerei steht. Auf dieses Problem haben die globalen Klima-Realisten jahrelang hingewiesen, es wurde aber kaum von den Medien und den Politikern wahrgenommen. Die IAC-Ausschuss-Mitglieder schrieben: “Viele fanden es bedenklich, dass die Um-Interpretation der Schlussfolgerungen des Berichtes in der abschließenden Plenarsitzung politisch motiviert gewesen wäre.“ Insgesamt hielten alle befragten Wissenschaftler den Zusammenfassenden Bericht (Synthesis Report) für „allzu politisch” (S. 25).

So ist das also!  Allzu politisch?  Man hat doch immer erzählt – Umweltaktivisten, Reporter, Politiker, und Prominente – dass die IPCC-Berichte wissenschaftlich wären, nicht politisch. Und jetzt müssen wir hören, dass sogar die mit dem Berichtschreiben befassten Wissenschaftler meinen, die Zusammenfassungen wären „allzu politisch”. Man sei daran erinnert: diese gleichen Wissenschaftler glauben allesamt an einen menschengemachten Klimawandel.

Wie das IPCC den “Konsens der Wissenschaftler“ herbeiführt, wird vom IAC so beschrieben:

Die Plenarsitzungen zum Abgleich der “Summary for Policy Makers” dauern mehrere Tage und enden meist in einer eine ganze Nacht lang dauernden Sitzung. Auf diese Weise können Einzelpersonen mit dem längsten Stehvermögen oder Länder mit großen Delegationen den größten Einfluss auf den Bericht ausüben. (S. 25)

Wie kann von einem derartigen Verfahren behauptet werden, es erfasse oder repräsentiere den “wahren Konsens der Wissenschaftler”?

Ein weiteres vom IAC dokumentiertes Problem ist die Benutzung von falschen “Vertrauensintervallen“ und Abschätzungen von “Gewissheit” in der Summary for Policy Makers (S. 27-34). Wer die IPCC-Berichte gelesen hat, weiss, dass das Appelle an den Glauben waren, wie wir zum ersten Mal 2007 feststellen konnten. Die Arbeit von J. Scott Armstrong über die Wissenschaft des Vorhersagens zeigt klar, dass Wissenschaftler sich nicht einfach an einen Tisch setzen und darüber abstimmen dürfen, wie gewiss sie in Bezug auf eine Vorhersage sind und sich dann für eine Zahl entscheiden, wie z. B. “80% gewiss.” Aber genau so wird es im IPCC gemacht.

Die IAC-Berichterstatter schreiben, dass es “nicht angemessen sei, die Ungewissheit zu charakterisieren” (S. 34), das ist eine gewaltige Untertreibung. Dummerweise empfehlen die IAC-Berichterstatter aber einen ebenso betrügerischen Ersatz. Sie empfehlen eine "Skala für das Ausmaß an Übereinstimmung" (“level of understanding scale”). Das ist nichts anderes als das Bramabarsieren vom “Konsens”.

Die IAC-Berichterstatter warnen auch auf S. 34, dass “Schlussfolgerungen so vage formuliert werden, dass sie kaum widerlegt werden können, und dadurch zu Aussagen mit ‘sehr hoher Gewissheit’ würden, aber ohne inhaltlichen Wert”.
So ist es! Aber die Medien und die Umweltaktivisten lassen sich nicht davon abhalten, diese Ausagen immer wieder als “Beweise” für den menschengemachten Klimawandel und die Krise zu zitieren, auch wenn die Berichtschreiber etwas anderes aussagen wollten.

Zum Schluss schreibt das IAC-Komitee,

“das Fehlen eines Verfahrens für das Vorgehen und die Offenlegung bei Interessenkonflikten in der IPCC-Führung und bei den Leitautoren war ein Bedenken, das von einer Anzahl von Befragten mündlich vor dem Komitee oder in schriftlichen Stellungnahmen geäußert wurde.“ Und ebenso: “die Praxis, dass die Wissenschaftler, die verantwortlich für den Bericht sind, zugleich auch die Begutachtung ihrer eigenen Arbeit vornehmen. Das Komitee hat nicht untersuchen können, ob diese Behauptung begründet ist, weil das außerhalb seiner Aufgabenstellung lag.” (S. 46)

Schlimm ist es, weil das die großen Probleme sind, wie jüngste Enthüllungen bestätigten: Eine Mehrheit unter den Autoren und beitragenden Autoren zu einigen Kapiteln der IPCC-Berichte sind Umweltaktivisten und wirklich keine Wissenschaftler. Das ist das strukturelle Problem beim IPCC, angesichts dessen die vorhergehend beschriebenen Probleme noch die geringsten sind.

So hat also das IPCC am 27. Juni die Wahrheit zugegeben, zwei Jahre, nachdem die Bombe platzte. (Das hat aber kaum mehr als eine kleines Naserümpfen von den Mainstream Medien in Amerika hervorgerufen – man kann danach „googeln“). Und nun verspricht das IPCC Besserung für den nächsten Bericht, gerade so, als wollte es wie ein Polizist an einer Unfallstelle Schaulustige mit den Worten abwehren: Hier gibt es nichts zu sehen – Weitergehen!

Da muss ich Halt! rufen. Die Presseveröffentlichung heißt doch, dass der IAC Bericht stimmt. Das bedeutet doch wiederum, dass die ersten vier IPCC-Berichte tatsächlich nicht verlässlich waren. Nicht “möglichereweise fehlerhaft” oder “sie hätten besser sein können,” stattdessen wahrscheinlich falsch und sogar betrügerisch.

Es bedeutet, dass die ganzen “zustimmenden Aussagen” vom Klimawandel-Konsens von den nationalen Wissenschaftsakademien in aller Welt – die sich ohne Unterschied auf die Berichte des IPCC und deren wissenschaftliche Begründung beziehen – auf falschen oder unverlässlichen Daten beruhten und deswegen zurückgezogen oder revidiert werden müssen. Es bedeutet, dass die „Gefahrenankündigung“ der amerikanischen Umweltschutzbehörde EPA , dass Kohlendioxid eine Umweltverschmutzung und Bedrohung der menschlichen Gesundheit wäre, falsch ist und zurückgezogen werden muss.

Und was ist mit dem nächsten IPCC-Bericht, der zwischen 2013 und 2014 herauskommen soll? Die vorläufigen Schlussentwürfe zirkulieren seit Monaten. Sie sind von Wissenschaftlern geschrieben, die von Politikern ausgewählt wurden, nicht auf Grund ihrer wissenschaftlichen Verdienste. Viele von ihnen haben ihre eigenen Arbeiten benutzt und durften die Fragen und Stellungnahmen von Wissenschaftlern übergehen, die nicht mit ihren Ansichten übereinstimmten. Anstelle von „Gewissheiten“ werden wir von „Skalen des Ausmaßes an Übereinstimmung“ lesen können. Das ist genauso bedeutungslos.

Und auf dieser Grundlage sollen wir die Weltwirtschaft auf Wind und Sonnenstrahlen transformieren?

Im Jahre 2010 musten wir erfahren, dass vieles von unserem Wissen über den Klimawandel kompromittiert und wahrscheinlich erlogen ist. Am 27. Juni haben wir das Geständnis von den Lehrkanzeln gehört und das Gelöbnis auf Besserung. Aber wo können wir unser Geld zurückholen?

Von Joseph L. Bast

Joseph L. Bast (jbast@heartland.org) ist Präsident des "The Heartland Institute" und ein Mitherausgeber von Climate Change Reconsidered, einer Berichtsreihe, die vom The Heartland Institute für das Nongovernmental International Panel on Climate Change herausgegeben wird.

Original vom 16.Juli 2012 hier auf WUWT (Anthony Watts)

Wer mehr lesen möchte, in Englisch: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html#ixzz20pStqHvE

Übersetzung: Helmut Jäger, EIKE




CCS-CO2-Speicherung vor dem Aus!

Unsere Einschätzung dazu: 

Das politische Aus für CCS ist voll zu begrüßen!

Endlich hat sich die Politik der Meinung der Bürger gebeugt, die wegen der damit verbundenen Risiken das CCS ablehnen! Es ist zu hoffen, dass sich die Politik auch bei weiteren Vorhaben dem Willen des Volkes unterwirft – Beispiele: „Stromautobahnen“, Landschafts-„Verspargelung“ und -„Verspiegelung“, Strompreiserhöhungen durch das EEG und die gesamte „Energiewende“!

Es ist bedauerlich, dass unsere Politiker ihre CCS-Aus-Entscheidung nur von einem einzigem Kriterium abhängig gemacht haben, dem Gesundheits-Risiko. Weitere Gründe wurden von Herrn Altmaier u. a.  – bewusst! – unterschlagen!

Tatsächlich sprechen insgesamt vier Gründe für die Ablehnung dieser Technologie:

1.   Es besteht grundsätzlich keine Notwendigkeit, CO2 von der Atmosphäre zu trennen und unterirdisch einzulagern, weil CO2 kein „Klimakiller“, sondern ein für das Leben nützliches Gas ist. Ein Zusammenhang zwischen CO2-Emissionen und Klimaentwicklung ist nicht nachweisbar!

2.   Die CCS-Technik erhöht die Kosten der Elektroenergieerzeugung in Braunkohlekraftwerken: Verdopplung der spezifischen Investitionskosten, Verdopplung der spezifischen Stromerzeugungskosten. Kohlekraftwerke verlieren dadurch ihre Wettbewerbsfähigkeit (was von der Politik wohl auch gewünscht wird …)

3.   Energieverschwendung durch Kohlemehrverbrauch pro kWh um 25 bis 50 % infolge Wirkungsgradverminderung.

4.   Keine gesicherten Kenntnisse darüber, ob CO2 über lange Zeiträume ohne Leckagen eingeschlossen werden kann (im Gegensatz zu radioaktiven Spaltprodukten ist die „Halbwertszeit“ des CO2 u. U. unendlich groß!). Risiko für Mensch und Tiere bei CO2-Konzentrationen über 10 % in der Atmosphäre.

Von EIKE wurde darauf im „Grundsatzpapier Energie“ seit Jahren hingewiesen und gefordert:

„Beendigung der Versuche, Kohlendioxid mit dem kostspieligen und für die Bevölkerung riskanten CCS-Verfahren in den Erdboden zu pressen.“   http://www.eike-klima-energie.eu/die-mission/grundsatzpapier-energie/

Weiteres dazu siehe:

Studie der Deutsche Physikalische Gesellschaft „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“, Juni 2010, Seiten 50-55

   http://www.eike-klima-energie.eu/die-mission/grundsatzpapier-energie/

Weiteres dazu siehe:

http://www.eike-klima-energie.eu/fileadmin/user_upload/Bilder_Dateien/EIKE_Grundsaetze_Energie_II/EIKE_Energie_Grundsa__tze.pdf

und:

Studie der Deutsche Physikalische Gesellschaft „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“, Juni 2010, Seiten 50-55 

Dr. Dietmar Ufer EIKE




Neue Studie: Die Hälfte der globalen Erwärmung kommt aus der Homogenisierung von Wetterstationsdaten

Übersetzungen der Bildinschriften:

Results (Ergebnisse):

Bei zwei Drittel aller untersuchten Stationen erzeugte der Homogenisierungsprozess zunehmende positive Temperaturtrends, abnehmende negative Trends oder Veränderungen des Trends von negativ zu positiv.

Das zu erwartende Verhältnis müsste ½ sein.

Die Homogenisierung hat die Abschätzung der globalen Temperaturzunahme verstärkt.

Hier kommt der Punkt, den ich wirklich liebe: an 67% der untersuchten Wetterstationen wurden fragwürdige Anpassungen der Rohdaten vorgenommen. Dies führte zu:

„…verstärkten positiven Trends, abgeschwächten negativen Trends oder Trends, die von negativ zu positiv geändert wurden“, während „das zu erwartende Verhältnis 1 zu 2 sein müsste (50%)“.

Und…

„die bis heute angewandten Praktiken der Homogenisierung sind hauptsächlich statistisch und nicht gut durch Experimente belegt. Sie werden nur selten durch Metadaten gestützt. Man kann sagen, dass sie oft zu falschen Ergebnissen führen: natürliche Erscheinungen hydroklimatischer Zeitreihen werden als Fehler betrachtet und angepasst“.

Das Abstract der Studie und meine hilfreiche Visualisierung der Daten-Homogenisierung folgt hier:

Untersuchung der Methoden für hydroklimatische Datenhomogenisierung

Steirou, E., and D. Koutsoyiannis, Investigation of methods for hydroclimatic data homogenization, European Geosciences Union General Assembly 2012, Geophysical Research Abstracts, Vol. 14, Vienna, 956-1, European Geosciences Union, 2012.

Wir untersuchen die angewendeten Methoden zur Anpassung von Inhomogenitäten von Temperatur-Zeitreihen im Zeitraum der letzten 100 Jahre. Basierend auf einer systematischen Studie der wissenschaftlichen Literatur klassifizieren und evaluieren wir beobachtete Inhomogenitäten in historischen und aktuellen Zeitreihen ebenso wie die entsprechenden Methoden. Es stellt sich heraus, dass diese Methoden hauptsächlich statistischer Natur sind, nicht gut durch Experimente gerechtfertigt sind und nur selten von Metadaten gestützt werden. In vielen der untersuchten Fälle sind die vorgeschlagenen Korrekturen nicht einmal statistisch signifikant.

Aus der globalen Datenbasis GHCN-Monthly Version 2 untersuchen wir alle Stationen, die sowohl Roh- als auch adjustierte Daten enthalten, die bestimmten Kriterien der Kontinuität und Verteilung über den Globus entsprechen. Wegen der großen Zahl verfügbarer Stationen in den USA wurden die Stationen nach geeigneten Beispielen ausgewählt. Insgesamt haben wir 181 Stationen weltweit analysiert. Für diese Stationen berechneten wir die Differenzen zwischen den angepassten und nicht-angepassten linearen 100-Jahre-Trends. Es stellte sich heraus, dass in zwei Drittel aller Fälle die Homogenisierungs-Prozedur die positiven Temperaturtrends hat weiter zunehmen, die negativen Temperaturtrends abnehmen lassen.

Eine der gebräuchlichsten Methoden zur Homogenisierung, ‚SNHT for single shifts‘ war auf synthetische Zeitreihen mit bestimmten statistischen Charakteristiken angewendet worden, gelegentlich mit Verschiebungen (offsets). Die Methode war befriedigend, wenn man sie auf normal verteilte unabhängige Daten anwendet, aber nicht auf Daten mit einer langzeitlichen Persistenz.

Obige Ergebnisse lassen einige Zweifel bei der Verwendung von Homogenisierungs-Verfahren aufkommen und deuten darauf hin, dass der globale Temperaturanstieg im vorigen Jahrhundert zwischen 0,4°C und 0,7°C lag, wobei diese zwei Werte aus Roh- und adjustierten Daten abgeleitete Schätzungen sind.

Schlussfolgerungen

1. Die Homogenisierung ist erforderlich, um Fehler in klimatischen Zeitreihen zu entfernen.

2. Die bis heute verwendeten Methoden der Homogenisierung sind hauptsächlich statistischer Natur, nicht gut durch Experimente belegt und selten durch Metadaten gestützt. Man kann zeigen, dass sie oftmals zu falschen Ergebnissen führen: natürliche Erscheinungen in hydroklimatischen Zeitreihen werden als Fehler angesehen und korrigiert.

3. Während die Homogenisierung erreichen soll, dass die bestehenden vieljährigen Trends im gleichen Verhältnis zu- oder abnehmen sollen, ist es in Wirklichkeit so, dass in 2/3 aller Fälle der Trend nach der Homogenisierung zunimmt.

4. Obige Ergebnisse wecken Zweifel an den Methoden der Homogenisierung und deuten darauf hin, dass die globale Temperaturzunahme während des vorigen Jahrhunderts kleiner als 0,7°C bis 0,8°C ist.

5. Es ist eine neue Homogenisierungspraxis erforderlich, die auf Experimenten, Metadaten und besserer Erfassung der stochastischen Charakteristika hydroklimatischer Zeitreihen basiert.

Mehr dazu hier

h/t to “The Hockey Schtick” and Indur Goklany

 =============================================================

Hier folgt ein anschauliches Beispiel, den Homogenisierungsprozess anschaulich zu machen. Man stelle ihn sich wie die Messung der Verschmutzung von Wasser vor. Hier folgt eine einfache Tafel mit einer Qualitätsbewertung von CRN-Stationen (CRN station quality ratings) und wie das aussehen könnte, wenn man die Trübung durch Wasserverschmutzung mit einer Bewertung von 1 bis 5 (beste <-> schlimmste Note) versieht:

Bei der Homogenisierung werden die Daten gegen nahe gelegene Nachbarstationen innerhalb eines bestimmten Radius’ gewichtet. Und so könnte eine Station mit der Wertung „1“ mit den Daten benachbarter Stationen verschmutzt werden und mit einem neuen Wert aufwarten, „2,5“. Selbst Einzelstationen können viele andere Stationen bei den Homogenisierungs-Methoden von GISS und NOAA beeinflussen, denen die Bodentemperaturen in den USA  hier und hier unterzogen werden.

In obiger Karte wird eine Glättung durch Homogenisierung angebracht, indem Stationen neben Stationen mit Fragezeichen gewichtet werden. Was würden Sie hinsichtlich der Werte (der Trübung) erwarten? Und wie nah wären diese zwei Werte an den fraglichen beiden Stationen, je eine an der Ost- und an der Westküste? Jeder Wert läge näher an einem geglätteten zentralen Mittel, das auf der Wertung der benachbarten Stationen basiert.

Aktualisierung: Steve McIntyre stimmt dem in einem neuen Beitrag zu, wenn er schreibt:

Wenn schließlich Referenzinformationen benachbarter Stationen verwendet werden, tendiert der Prüfgegenstand dazu, Anpassungsfehler zu erzeugen: das „schlimmer-Nachbar-Problem“. In diesem Falle wurden die Klimasignale nach der Anpassung bei benachbarten Stationen immer ähnlicher, selbst wenn der mittlere Bias des gesamten Netzwerkes nicht reduziert worden ist.  

Gepostet von Anthony Watts

Link: http://wattsupwiththat.com/2012/07/17/new-paper-blames-about-half-of-global-warming-on-weather-station-data-homgenization/

Übersetzt von Chris Frey EIKE




Viel Lärm um Nichts: Der 3. Petersberger Klimadialog und die dokumentierte Entwicklung der globalen Temperatur

Dabei dürfte es doch bei einer so mickrigen "Erwärmung" von ca. 0,8 °C in den letzten 150 Jahren entscheidend darauf ankommen, von wo nach wo sich denn diese "Temperatur" entwickelt hat?

Viel Lärm um Nichts also.

Der Solarkritiker Rainer Hoffmann hat in einer regelrechten Sisyphusarbeit die entsprechenden Medienauftritte mit den offiziellen Veröffentlichung des IPCC und anderer Alarmisten verglichen. Seine Ergebnisse sind faszinierend.

Autor Rainer Hoffmann dazu:

Bitte beachten Sie: Dieses Recherche-Video verwendet zu 100% Medienzitate mit der Argumentation zur angeblich "globalen Erwärmung" auf Basis der offiziellen Klimawissenschaft und verwendet bewusst KEINE kritischen Argumente der sog. "Klimaskeptiker". Es kann deshalb niemand sagen, es sei ein Video mit klimakritischen Argumenten. Denn das besondere "klimakritische Argument" haben die angeblichen Klimawissenschaftler selbst geliefert !!

Link zu "Wie in Kinderbüchern über das CO2-Klimathema getäuscht wird".

Mehr zu "Klebers-Burnout" hier: http://solarresearch.org/sk2010/co2klima/klimavideos/790-014.html

und auch zur Klimadebatte seit Februar 2012 hier:

http://solarresearch.org/sk2010/co2klima/klimavideos/797-015.html

Also WO BITTE ?? ist seit über 150 Jahren die globale Erwärmung, die angeblich so gefährlich ist…




Politische Gefahren niedriger Ölpreise

Politische Gefahren niedriger Ölpreise

Von Matthew Hulbert

Die Ölpreise sind in den letzten Monaten rapide gefallen. Einige Analysten sagen einen weiteren (steilen) Abfall voraus. Das mag sich gut für die Verbraucherländer anhören, aber es gibt dabei ein Problem. Während die Förderländer noch vor zehn Jahren ihre Haushalte bei rund $30 pro Barrel ausgleichen konnten, benötigen sie jetzt $100 pro Barrel, um zurecht zu kommen. Wenn es mit der Anpassung der Ölpreise so weiter geht, könnten Instabilitäten in allen Förderländern entstehen. Das könnte ironischerweise dazu führen, dass eine Untergrenze gesetzt und die Preise wieder hochgetrieben werden. Eine solche Entwicklung sollte kein Anlass zur Freude in den Verbraucherländern sein. Preise um die $100 pro Barrel sind eine bessere Alternative, als zu erleben, wie Förderländer zusammenbrechen.

Ölbohrausrüstung im Hafen von Abu Dhabi.
Foto: Nial Farell. www.wikimedia.commons. Lic. Creative Commons

Derzeit herrscht Krieg in der Ölwelt. Seit März sind die Preise um 31% abgestürzt, das bedeutet, dass eine Untergrenze kommen muss, und das rasch. Die meisten OPEC-Staaten hofften, dass dies beim letzten Treffen des Kartells in Wien stattfinden würde. Doch die offizielle Fördermenge wurde bei 30 Mio Barrel pro Tag gehalten. Nach Abflug der Delegierten von Schwechat glaubte man, Saudi Arabien würde die Ventile schließen und die inoffizielle OPEC-Förderung von 31,8 Mio Barrel pro Tag mit dem offiziellen Ziel abgleichen.

So weit, so gut. Man muss aber wissen – besonders Iran, Venezuela, Algerien sollten das wissen – wie schnell die Saudis preislich heruntergehen und den Markt ausbalancieren können. Da die Brent-Preise schon unter $100 liegen und die WTI-Preise (WTI=West Texas Intermediate) noch tiefer, werden die OPEC-Falken sehr nervös. In den Nicht-OPEC-Förderländern wie in Russland und Zentralasien noch nervöser. Unter der Annahme, dass die Nachfragedynamik in Asien nicht drastisch an Tempo gewinnt, können wir mit drei aufeinanderfolgenden Entwicklungen rechnen. 

Die erste ist ein internationaler Preiskrieg zwischen allen Förderländern, um die Saudis dazu zu bringen, die Ventile weniger zu öffnen, um die Preise zu erhöhen.  Das wird schwierig sein, weil Riad ein eigenes strategisches Ziel hat, über einen längeren Zeitraum moderate Preise deutlich unter $100/Barrel zu verfolgen.

Die zweite: Falls die Ölfalken den Preiskrieg verlieren, wird ihr politisches Geheule verstummen und ein Rohöl-Preistrend wird sich etablieren. Die Staaten der Ölfalken werden ihre Staatsausgaben kürzen müssen, was zu einer neuen Runde von Protest und, was noch wichtiger ist, von verschärfter heimischer Unterdrückung führt.

Unter der Annahmen, dass die Repression nicht mehr so ‚effektiv‘ in den Förderländern ist, könnte es zu einer dritten und weit beunruhigenderen Entwicklung kommen: Förderländer, die unter politischem Druck und in Krisensituationen stehen, werden zu beliebigen Preisuntergrenzen greifen. Der tatsächliche Preis des Rohöls wird dann mehr von politischen Unruhen mit Auswirkungen auf die Produktion bestimmt, als durch aktive Zurückhaltung bei der Förderung.

Es ist sehr unwahrscheinlich, dass das ein guter Weg für das “Globale Energiesystem” wäre.

Der Ausgangspunkt: Die Tücken bei der Preisfestsetzung

Die derzeitigen Spot-Preise mögen besorgniserregend für die Förderländer sein, aber die wirkliche Frage ist, wie lange die Preise im Keller bleiben werden. Auf den ersten Blick hat es die OPEC niemals so gut gehabt, wie derzeit. Die Brent-Preise waren zwischen Januar bis Juni auf historischen Höchstständen bei $114/Barrel. Das Problem ist, dass sich die OPEC-Staaten an die hohen Preise gewöhnt haben. Wenn die Durchschnittspreise nicht weiter über $100/Barrel bleiben, werden sich Finanzlöcher zeigen – auch schon bei Preisen um die $80-90/Barrel. Es ist eine unangenehme Feststellung, wie schlecht die mit Ressourcen gesegneten Länder während der vergangenen Jahre mit ihrem Reichtum gewirtschaftet haben. Das neue $100/Barrel-Niveau entspricht dem $30/Barrel-Niveau aus den frühen 2000ern, das die Förderstaaten politisch stabil hielt.

Iran, Russland and Venezuela haben ausgeglichene Haushalte bei Preisen von über $110/Barrel. Ekuador ist bei dreistelligen Preisen ausgeglichen, Bolivien, Argentinien und Mexiko sind in ähnlich prekärer Lage. Nigeria, Angola and Algerien geht es wie allen Afrikanern. Den kaspischen Staaten fehlt Geld, wenn die Preismarke unter $100/Barrel liegt, während Libyen und Irak wirklich jeden Dollar brauchen, um ihre zerstörten Staaten wieder aufzubauen. Aber was vielleicht noch schlimmer für die Förderländer ist: Die Unsicherheit über die zukünftige Preisentwicklung ist enorm. Wenn es so weitergeht, sieht es immer mehr nach einem bevorstehenden geoökonomischen Unfall aus.

Normalerweise schaut man bei Schwierigkeiten auf die Golf-Staaten, und erwartet besonders von Saudi Arabien, die Lieferungen zu beschränken. So ist es 2009 geschehen. Riad kürzte die Produktion um bis zu 35%, noch dazu während eines massiven $2-Billionen-Programms von China, um die Weltwirtschaft wieder in Gang zu bringen. Diese vertrauensbildende Maßnahme funktionierte; der überall ausgerufene ‚Rohstoff-Super-Zyklus‘ war sofort wieder da, die Händler deckten sich mit langfristigen Ölkontrakten ein – das führte zu Preisspitzen von $128/Barrel im März 2012.

In Wahrheit hatte es keine Engpässe auf der Bedarfsdeckerseite gegeben, doch die nagenden Zweifel auf der Verbraucherseite hörten nie auf. Jetzt ist die Ernüchterung eingetreten: Es gibt Probleme mit der immer stärker fallenden Nachfrage. Die Parallelen zu 2008 sind schön zu sehen: Damals gab es einen boomenden Rohstoffmarkt mitten in der finanziellen und wirtschaftlichen Krise. Aber anders als 2008, als man annahm, dass die Staatshaushalte den Schwierigkeiten auf der privaten Seite abhelfen könnten, ist es nun viel schlimmer, genauer gesagt, die Solvenz der Zentralbanken wird von den Märkten direkt getestet. Es gibt keinen letzten rettenden Kreditgeber (lender of last resort) und kein Sicherheitsnetz, auf das man zurückfallen könnte.

Die Eurozone ist am Ende, die USA bauen ironischerweise ihre Wirtschaft auf ihrem eigenen Energie-Boom auf. Die einst in die Regierungsfonds des Mitteren Ostens fließende überschüssige Liquidität bleibt zu Hause. Aber der die Ölhändler am meisten verunsichernde Markt ist China.

Unter dem Strich: Die lebenswichtige ‚Chirabia‘ Beziehung , die für die Lieferländer 2009 so gut funktionierte, wiederholt sich 2012 nicht im gleichen Maßstab.

Trotz Chinas unbedeutenden 25% Schulden bezogen auf das Bruttosozialprodukt und sage und schreibe $3,2 Billionen Fremdwährungsreserven, muss das Land schmerzhaft zur Kenntnis nehmen, dass seine Geld-Goldmine zu einer großen Fehlallokation von Kapital geführt hat. Es muss die höchsten Abschreibungen seit eh und je vornehmen, wenn auch stillschweigend. Beijing bleibt deshalb merklich vorsichtig mit dem erneuten Anwerfen von Anreizmaßnahmen. Gewiss wird China alles tun, um ein Wachstum von 8% einzuhalten, doch man soll keine Wunder erwarten, besonders da Beijing auf die regionale und heimische Nachfrage setzt. Chinas Zukunft liegt nicht mehr in seinen traditionellen Exportkanälen, die mit billigem Geld gespeist wurden.

Erster Akt: Saudische Machtspiele

Was wichtig ist: Auf der Angebotsseite der Gleichung hat Saudi Arabien aus vielerlei Gründen kein kurzfristiges Interesse, die Fördermenge zu kürzen, sogar mit seinen über internationale Häfen aufgeblähten Vorräten. Aus ‘altruistischer’ Sicht betrachtet verschafft billigeres Öl den Verbrauchernationen einen nützlichen Wirtschaftsaufschwung und den Zentralbanken größeren Freiraum für das Drucken von frischem Geld ohne Sorgen vor Inflation. Europas Öl-Import-Rechnung belief sich auf etwa $27 Milliarden im Juni verglichen mit $32 Milliarden im März, ähnlich auch in den USA. Die Nöte der Staatshaushalte macht es auch für Entwicklungsländer leichter, den Treibstoffverbrauch kräftig zu subventionieren. Wenn Riad den Ölpreis in vernünftigen Grenzen hält, könnte der Zusammenbruch der globalen Nachfrage noch einmal abgewendet werden.

Aber hausinterne Motive sind für Saudi Arabien viel zwingender. Riad hat in der ersten Hälfte 2012 über $155 Milliarden eingenommen, und man vermutet bei ihm weitere $500 Milliarden an Barvermögen, um heimischen Druck zu lindern. Die Saudis können sich eine anhaltende Periode von Preisen um die $75-80/Barrel leisten, ohne etwas befürchten zu müssen. Was Riad nicht über den Preis erzielen kann, kann es leicht über die Menge kompensieren, unter der Voraussetzung, dass über 9,5 Mio. Barrel/Tag gefördert werden. Das wird Saudi Arabien beträchtlichen Applaus bei den Verbraucherstaaten sichern, verschafft ihm aber auch die totale Kontrolle über die übrigen Förderländer. Aus dem ganzen Schwarm der OPEC-Falken möchte keiner Abstriche machen, und alle wollen so weit wie möglich weiter bei den Zuteilungsquoten betrügen. Die „Falken“ sind Schwarzfahrer, und das völlig auf Kosten der Saudis.

Das Königreich kann der Schnorrer-Brigade diesen Luxus nicht länger erlauben. Man freut sich darüber, wie der Iran unter dem Gewicht der US-Sanktionen ächzt, die ihn zum Überdenken seiner atomaren Absichten zwingen. Unverhohlen machen die Saudis Anstrengungen, den politischen Einfluss im Libanon, im Irak und im Gaza-Streifen vom Persischen Golf zurück zur Levante zu holen, ganz zu schweigen vom Abschneiden des schiitischen Einflusses auf sunnitische politische Festungen. Dementsprechend ficht man interne Auseinandersetzungen mit arabischen nationalistischen Republiken aus.

Nur am Rande macht man sich Sorgen wegen dem preistreibenden Venezuela, das seine Reserven hochredet. Für Riad ist Russland der Petro-Staat, der zurechtgestutzt werden muss.

Moskau ist ein schmerzender Stachel in Saudi Arabiens Flanke im Mittleren Osten. Es gewährt dem Iran diplomatische Hilfe und liefert Waffen nach Syrien.

Unter Berücksichtigung des russischen Problems des Leerens seiner Reserven ist wohl denkbar, dass Moskau zurückschlägt und bilaterale Abmachungen mit OPEC-Mitgliedern trifft, auch außerhalb der formellen Treffen des Kartells, wie schon 2008 geschehen. Ein niedrigerer Preis ist doppelt besorgniserregend für Präsident Putin. Er schafft nicht nur eine ernste Finanzierungslücke im Haushalt, er macht es auch zunehmend schwieriger, in die Lagerstätten in der Arktis zu investieren, um das Absinken der Produktion zu kompensieren.

Das ist der entscheidende Pfeil in Saudi Arabiens Preis-Köcher – bei niedrigeren Preisen geht es nicht darum, den Mit-Petro-Staaten zu zeigen, wer der Herr im Hause ist, sondern es geht Riad um die größere Schlacht im kommenden Jahrzehnt, um die Sicherung eines 40%-Anteils am OPEC-Markt, während eines vermutlich gleichzeitigen riesigen Wachstums an unkonventionellen Energie-Lieferungen aus dem Nicht-OPEC-Raum.

Bei $100/Barrel–Preisen sind die unkonventionllen Lagerstätten sehr lukrativ, die sich in Russlands extremen Lagen befinden, das amerikanische Schiefer-Öl, die kanadischen Teersände, die australischen Kohleflöze, die brasilianischen Funde in den Pre-Salt-Schichten vor der Küste. (http://www.petrobras.com.br/minisite/presal/en/questions-answers/ pre-salt).
Wenn die Preise auf  $90/Barrel herunter gehen, werden die Profite dünner, und bei $80/Barrel marginal. Bei $75/Barrel verabschieden sich die meisten Investoren vom langfristigem Risiko, wie es die schwierigen Produktionszyklen darstellen. Amerikanische Schieferlagerstätten sind sehr schmutzig, kanadische Teersände klebrig, brasilianische Pre-Salts schrecklich tief, Russlands arktische Felder extrem. Selbst bei konventionellen Erschließungen könnten die Investitionen nachlassen. So gibt der tiefere Grund für die Preispolitik der Saudis der globalen Wirtschaft etwas Luft zum Atmen, Riad aber die geopolitische Oberhand über alle Petro-Staaten, und sie radiert alle unkonventionellen Lagerstätten aus den globalen Bilanzen.

Diese Politik könnte für das langfristige Heil der OPEC gut sein, aber sie wäre eine bittere (man könnte auch sagen ‚tödliche’) Pille für einige Kartellmitglieder. Es ist daher zu erwarten, dass mit Klauen und Zähnen (innerhalb und außerhalb) des Kartells gekämpft werden wird, um Saudi Arabien zum Nachgeben und zum Mitmachen bei der Preistreiberei zu bringen. Man wird hart verhandeln und politisch drohen. Als Auftakt für einen breit angelegten Preiskrieg soll Saudi Arabien zu einem Notfall-Treffen nach Wien zurückzitiert werden. Genau diesen Vorschlag hat der Iran bereits auf den Tisch gelegt.

Aber so verzweifelt das alles für die Petro-Falken klingt, es gibt auch Licht am Ende des Saudi-Tunnels. Riad muss die Preise auf etwa $98/Barrel während der kommenden Jahre erhöhen, um $129 Milliarden Sozialausgaben zu finanzieren. Das verkleinert seinen Spielraum für Preis-Manöver. Noch wichtiger: Es muss auch die nahe Lage seiner Mit-GCC-Staaten berücksichtigen. Katar kann am weitesten bis auf $58/Barrel heruntergehen, Kuweit hat Schwierigkeiten bei Preisen tiefer als $85/Barrel, während die Vereinigten Arabischen Emirate ihre Haushalte ernsthaft überarbeiten müssen. Abu Dhabi hat einen ausgeglichenen Haushalt bei $107/Barrel. Das Königreich wird bedächtig vorgehen, um sicher zu gehen, dass diese Staaten nicht auf längere Sicht verdursten, besonders, da der Arabische Frühling eine immer noch sehr starke Bedrohung darstellt. Wenn ein Preisband näher an $90 als an $80/Barrel verfochten wird, ist das eine willkommene Nachricht am ganzen Golf.

So verführerisch auch ein entfesselter Preiskrieg für Saudi Arabien sein mag, um Iran, Russland und die Anderen bluten zu lassen, so wenig kann Riad daran gelegen sein, dass die Golf-Staaten Kollateralschäden erleiden. „Reich an Bargeld“ ist heutzutage ein relativer Begriff, auch für die Golf-Staaten, wenn die Budgets angepasst und die Ausgaben beschnitten werden müssen.

Zweiter Akt: Die Zapfpistolen werden geladen

Hier klinkt sich eine weitere Frage ein, nämlich, wie weit Saudi Arabien fähig ist, die Preise zu steuern, falls die Globalwirtschaft weiter tankt – manch einer würde sagen, es ist schon ein wenig so wie mit Ikarus: Man kommt der Sonne zu nahe, wenn man das $100/Barrel Preisband nicht verteidigt. Citigroup und Credit Suisse meinen, die Preise würden signifikant nach unten gehen (vielleicht bis auf $50/Barrel im dritten Quartal), ohne dass sie den OPEC-Aktionen Beachtung schenken. Das bleibt aber noch abzuwarten. Allein die Tatsache, dass es bereits eine Diskussion gibt über anscheinend so kleine Unterschiede bei den Untergrenzen wie zwischen $100/Barrel vs. $85/Barrel, deutet darauf hin, dass die Förderländer am Abgrund stehen. Kleine wirtschaftliche Preisunterschiede könnten dramatische politische Folgen haben.

Sobald man diese abstrakten Zahlen in politische Realitäten übersetzt, wird das Ausmaß der Bedrohung für die Förderländer klar. Hier kommt die verschärfte Repression ins Spiel, wenn die Petro-Falken merken, dass ein Preiskrieg mit Saudi Arabien nicht zu gewinnen ist. Es geht nicht mehr nur um die immer höheren Sozialausgaben der Petro-Staaten, um deren unruhige Bevölkerungen still zu stellen, man muss auch die Bestechungsgelder für die Bürokraten, die Oligarchen, die Sicherheitsdienste und am wichtigsten, die laufenden Zahlungen für die Unterstützung des Militärapparates einpreisen, der die Zustände absichert. Zur Selbsterhaltung greifen die Petro-Staaten eher zur Repression als zu konstruktiven Reformen, wie 2008/2009 gezeigt.

Die Schlüsselerfahrung der meisten Petro-Staaten aus dem Arabischen Aufstand ist, dass man sich mit Geld für die richtigen Institutionen den Rücken absichert. Präsident Putin hat ein Gesetz gegen Proteste erlassen: das schärfere Durchgreifen auf den Ressourcen-Sektor ist deutlich; Algerien hat seine staatliche Ölgesellschaft ‚gesäubert’; die Autokratie-Staaten in Zentral-Asien haben Blitzwahlen durchgeführt. Kasachstan hat sich die mehrheitliche Kontrolle über jedes neue Pipeline-Projekt verschafft. Hugo Chavez beseitigt alle Widerstände, die seiner ‚lebenslangen’ Präsidentschaft in Venezuela entgegen stehen. Falls es dem Iran nicht gelingt, breite Unterstützung für sein Nuklearprogramm zu bekommen, wird es nicht zögern, die „Straße“ ruhig zu stellen, mit welchen Mitteln auch immer.

Am Golf hat Saudi Arabien klar gestellt, dass es in Bahrain keine Revolution geben wird; Kuwait war sehr erfolgreich beim Unterdrücken des heimischen Opposition; die Vereinigten Arabischen Emirate haben eine private Militärfirma für den ‚Counterterrorismus‘ und zur Erhaltung der Inneren Sicherheit aufgestellt, nur für den Fall, dass die eigenen Soldaten sich weigern würden, für die Machthaber das Feuer zu eröffnen.

Und sogar dort, wo kürzlich Wahlen stattfanden, bleibt die grundsichernde Rolle des Militärs in allmächtiger Präsenz, sei es in Ägypten, Nigeria oder Indonesien.

Je knapper die Haushalte werden, desto wahrscheinlicher wird, dass Reaktions-Mechanismen greifen. Die Waffen bleiben in jedem Fall die erste Wahl, und ganz sicher die letzte Zuflucht

Dritter Akt: Krieg und Chaos

So unerfreulich es auch sein mag, das größere Problem der Förderländer ist, dass die interne Repression keine Garantie mehr für den Erfolg bietet. Es hat nicht bei Gaddhafi in Libyen funktioniert, es wird auf lange Sicht auch nicht bei Assad in Syrien funktionieren. So wild wie die Nachhutgefechte auch gewesen sein mögen, sie waren militärisch nicht entscheidend und der laufenden Kohlenwasserstoff-Produktion nicht förderlich.

Durchdenkt man das Argument, dann wird klar, dass die Masse der Regierungen der Förderländer sich bemüht hat, in der $125/Barrel-Welt zu bleiben, denn sie haben nur geringe Überlebenschancen bei $80/Barrel oder noch weniger.

Und so kommen wir zur dritten Stufe und unseren logischen Schlussfolgerungen

Je tiefer die Preise fallen, desto wahrscheinlicher werden politische Unruhen ernsthafte Lieferunterbrechungen auf der materiellen Ebene erzeugen, mit durchschlagenden Wirkungen auf die Finanzmärkte. Das gibt der Bedeutung „zyklisch“ eine radikale neue Wendung, so weit die Preise und politische Instabilitäten betroffen sind. Aber wenn wir die Förderländer anschauen, findet man kaum einen der größeren Spieler, der zur Zeit nicht auf einem Pulverfass politischer Risiken sitzt.

Mit hoher Wahrscheinlich werden einige der kleineren Spieler zuerst ins Kreuzfeuer geraten.

Am Golf ist Saudi Arabien bereits sehr besorgt wegen Bahrain und dessen östlicher Provinz. Der Zusammenbruch der Staatsgewalt im Jemen wird als interne Angelegenheit auf der saudischen Halbinsel betrachtet.

Im Irak wird es im Norden immer problematischer. Libyen könnte erleben, dass alle Nachkriegs-Ölgewinne rasch verschwinden. Die sudanesische Förderung ist bereits den unlösbaren internen Streitigkeiten zum Opfer gefallen. Kasachstan kann man unter den gegebenen Umständen des Fehlens einer zentralen Ordnungmacht in Zentralasien vergessen, während Nigeria erneute bürgerkriegsähnliche Unruhen bei seinen Konflikten mit Boko Haram hat. Das bedeutet schon einiges, bevor man die unlösbaren Problemen in Zentralafrika und am Horn von Afrika einbezieht. Jede dieser Regionen könnte in einer Politik der “verbrannten Erde” enden, wenn die Finanzlöcher nicht geschlossen werden.

Gehen wir weiter hinauf auf der “Nahrungskette” der Förderländer, dann entdecken wir bei einigen der weltgrößten Spieler das gleiche strukturelle politische Problem, sei es im Mittleren Osten, in Eurasien oder in Lateinamerika. Es gibt Anzeichen dafür, dass eines dieser größeren Öl-Monster die Kontrolle verliert und die Preise dann rapide ansteigen. Das könnten gute Nachrichten für die glücklicheren Förderländer sein, sie könnten auf der Preiswelle reiten und unversehrt bleiben, aber es wäre ein sehr gefährliches Spiel.

Damit sind wir beim wahren Problem – Der Unterschied zwischen den geologischen Kosten der Förderung und den geopolitischen Kosten des Überlebens ist zu groß geworden: Die Förderstaaten können ihn nicht überbrücken, ohne auf drakonische Maßnahmen zurückzugreifen. Wenn dieser ’selbst-korrigierende‘ Mechanismus zwischen Preis und politischer Unruhe anfängt, auf eine informelle Preisuntergrenze hin zu steuern, dann mag das so sein. Wir sollten aber nicht glauben, dass das zu irgend Jemandes Vorteil wäre – auf jeder Seite der Beziehungen zwischen Förder- und Verbraucherland. Ja, es würde zu festen Preisen verhelfen, wenn gewisse Förderländer sich mühsam an rapide ändernde wirtschaftliche Bedingungen anpassen müssen. Aber unter der Annahme, dass immer mehr Förderländer in politische Probleme geraten, wenn die Preise rutschen, zementieren wir nur den ‚too-big-to-fail‘-Status der größten Öl-Produzenten. Zuzuschauen, wie Petro-Staaten wie die Fliegen fallen, wenn die Preise sinken, ist nicht die richtige Lösung, nicht nur weil die Preise wieder hochschießen werden, wenn die Märkte enger werden, sondern auch, weil wir damit noch abhängiger von einer Handvoll von Schlüssellieferanten würden.
Wie wir von früheren Problemen im Irak gelernt haben (2,9 Mio Barrel/Tag), Iran (3 Mio Barrel/Tag), Libyen (1,48 Mio Barrel/Tag), Nigeria (2,4 Mio Barrel/Tag) und auch Venezuela (2,7 Mio Barrel/Tag): Wenn die Dinge erst einmal politisch daneben gehen, braucht es eine sehr lange Zeit, um zu optimalen Produktionshöhen zurückzufinden, wenn überhaupt,. Es ist die Antithese zu dem, was die Verbraucherländer wünschen: ausreichende und austauschbare Liefermengen.

Schlussakt: Die Bühne ist von Leichen übersät

Erinnern wir uns: Es war im März, als wir erlebten, wie schlecht die OPEC aufgestellt ist, um den Markt am oberen Ende zu dämpfen. Und nun befinden sich die Petro-Staaten in einer systemischen Krise bei ihrem Bemühen um eine Preisuntergrenze. Die Petro-Staaten in Schwierigkeiten zu sehen, mag ja manches Herz erfreuen, doch die Märkte können drehen, und das schnell. Wenn es geschieht, wird die Öl-Waffe auch ihr Ziel wechseln. Sie wird nicht mehr auf die Köpfe der Petro-Spieler selbst gerichtet sein, sondern direkt auf die Verbraucherländer. Das ist die Konsequenz eines dysfunktionalen Energiesystems – nicht nur mit einem Ausblick auf eine Preisspanne zwischen $50-$150/Barrel als Möglichkeit, sondern auch mit Ausschlägen weit außerhalb dieses Preisbandes.

Bilden wir aus der Preisspanne den Mittelwert und bleiben bei $100/Barrel! Das wäre keine schlechte Idee: Denn das Chaos eines Zusammenbruchs der Förderländer zu bereinigen, ginge weit über die Fähigkeiten des internationalen Systems hinaus. Sorgfältig ausgehandelte Waffenstillstände sind immer besser als offene Kriege, besonders für diejenigen, die sich über Kollateralschäden aufregen. Die gesamte Energiebühne ware sonst voller Leichen.

Übersetzung: Helmut Jäger, EIKE

Originalartikel hier

Biographisches zu Matthew Hulbert hier

Einen hochinteressanten Artikel zum Thema von Walter Russel Mead finden Sie auch hier bei ACHGUT : 

Walter Russell Mead: Die Energie-Revolution und das neue amerikanische Jahrhundert

Auszug:

Stellen Sie sich auf ein neues amerikanisches Jahrhundert ein: das scheint die Hauptkonsequenz der Energierevolution zu sein, die jetzt weltweit Wirtschafts- und Politikexperten dazu veranlasst, ihre alten Prognosen zu zerreißen. Das neue amerikanische Jahrhundert wird keine Wiederholung des letzten sein, aber in mancherlei Hinsicht sieht es so aus, als ob die Welt eher die Richtung eines globalen, liberalen Kapitalismus einschlägt, den die Vereinigten Staaten – wie Großbritannien zuvor – seit Jahrzehnten als ihr geopolitisches Ziel ansehen.




Die geheimen Verabredungen der Klimagang

Bild rechts: Union of Concerned Scientists ("Vereinigung besorgter Wissenschaftler" Photo: Wikipedia)

Unser Transparenz-Projekt würde helfen Zusammenhänge zum „ClimateGate“-Skandal zu enthüllen, welcher, wie uns aktivistische Akademiker im Zentrum von dessen Enthüllungen versichert haben, wirklich nur eine aus dem Zusammenhang gerissene Fehlinterpretation gewesen ist. Komischerweise halten die gleichen Leute dieses Projekt aber generell für eine sehr schlechte Idee.

Dies gilt auch für die Medien und Umweltaktivisten. Von Letzteren wurde besonders die "Union of Concerned Scientists" (UCS) aktiv, indem sie linke Gruppen mobilisiert hatten, Universitäten zu bedrängen, unseren Anfragen nach öffentlichen Dokumenten nicht nachzukommen.

Zufälligerweise war keine dieser Gruppen durch eine Reihe ähnlicher Anfragen von Greenpeace besorgt, deren Bemühungen wir nur nachgeahmt haben. Sie opponierten erst, als wir nach den E-Mails von der Sorte Aktivisten fragten, mit denen sie zusammenarbeiten.

Einige davon, die wir kürzlich von der Texas A&M University erhalten haben, bieten eine Erklärung für diese Ablehnung.

Zum Beispiel enthüllen sie eine raffinierte UCS-Aktion, um aktivistischen Akademikern und anderen Mitarbeitern der Regierung als Autoritäten zu assistieren, die Agenda der UCS voranzutreiben. Dies schließt „nach Streit suchende“ Anhörungen im Kongress mit einem Team der UCS ein, um Schlüsselmitgliedern des Komitees Dossiers zukommen zu lassen, in denen es besonders um ihren Glauben, ihre Haltung zu Homosexuellen-Hochzeiten und Spenden als Stimulans geht. Natürlich.

Es schließt auch ein, die "Diener" der Steuerzahler zu externen PR-Beratern zu treiben – offensichtlich zum Nutzen des UCS Einkommens oder dem ähnlicher Vereinigungen. Behalten Sie diesen letzten Punkt einmal im Hinterkopf!

Sie stellten auch den Reporter der New York Times (NYT) Justin Gillis als nicht neutral bloß. Gillis ist bei der NYT zuständig für Umwelt, Wissenschaft und besonders das Thema globale Erwärmung.

Im Mai schrieb Gillis einen Artikel, um den Ruf eines der angesehensten und respektiertesten Klima-„Skeptiker“ zu unterminieren, nämlich Dr. Richard Lindzen am Massachusetts Institute of Technology. Dieser Seite-1-Aufmacher ließ mich um Informationen nachsuchen, wie der A&M-Professor und Aktivist, auf den Gillis sich bezogen hatte, seine vom Steuerzahler finanzierte Position benutzt hat.

Die spezifische Korrespondenz begann, als Gillis geschrieben hat, dass ein Interview mit Lindzen zu einem Thema aus seinem Erfahrungsbereich „unvermeidlich“ ist, und „dass ich eine wirklich gute Bibliographie aller veröffentlichten Wissenschaft brauche“, die der Position von Lindzen zur Wolken-Rückkopplung widerspricht – „das heißt alles, was als Beweis gegen Lindzens Behauptung steht, dass die Rückkopplung stark negativ sein muss“.

Man erinnere sich, hier handelt es sich um einen Reporter, der dies für die New York Times geschrieben hat. In den veröffentlichten E-Mails erscheint Gillis als Aktivist mit dem Gehabe eines Journalisten, der sich über Lindzen lustig macht. Über einen anderen prominenten Skeptiker schrieb Gillis: „Ich habe das Gefühl, dass wir ihn hier in der Falle haben … ich kann es kaum erwarten, die Falle zuschnappen zu sehen“.

Unsere Transparenzkampagne führte schnell zu viel Heulen und Zähneklappern in den Akademien und den mit ihnen verbundenen Gesellschaften, der Washington Post und der American Constitution Society. Sie sind der UCS beigesprungen, um zu attestieren, dass dieser sakrosankte Austausch von Gedanken fatal abschreckend wirken würde, wenn hier nicht eine nicht vom Gesetz gedeckte Ausnahme von der gesetzmäßigen Informationsfreiheit gewährt würde.

Also ist es vielleicht überraschend zu erfahren, dass die E-Mail-Produktion von Texas A&M zeigt, an wen und wie die Akademiker ihre E-Mail-Diskussionen außerhalb ihres Kreises nachsenden. An Reporter der New York Times zum Beispiel. Sie stellen Reportern sogar oftmals den gesamten E-Austausch zur Verfügung, während sie sonst darauf bestehen, dass es hier um Diskussionen in intellektuellen Kreisen geht, die davon frei bleiben müssen, von neugierigen, nichtakademischen Augen gesehen zu werden. Schlimm.

Nach meiner Anfrage an Texas A&M nahm eine Regisseurin von „Frontline“ Kontakt mit mir auf, ein Programm bei PBS, das dafür bekannt ist, liberale Themen zu verreißen (grinding liberal axes). Sie wollte mit mir unsere Streitsache mit dem Gesetz zur Informationsfreiheit diskutieren. Da wir gegenwärtig aber nur mit der großen öffentlichen Anteilnahme hinsichtlich der ClimateGate-Aufzeichnungen der University of Virginia befasst sind, verwies ich sie an den leitenden Berater (lead counsel).

Wie sich herausstellte, war sie wirklich an Anfragen nach Aufzeichnungen von zwei kooperativeren Universitäten interessiert: der Anfrage an Texas A&M und an einer Anfrage an die Texas Tech University. Letztere führte zu einer Korrespondenz mit einem Professor und Klimaaktivisten über ein Kapitel, das sie für das zur Veröffentlichung anstehende Buch von Newt Gingrich schrieb. (Natürlich hat dieser Professor an der Texas Tech, der sich geweigert hat, mir diese E-Mails bekannt zu machen, diese bereits einem Reporter der Los Angeles Times zugänglich gemacht).

Nun könnte man fragen, wie zwei sonst ziemlich obskure texanische Aktivisten Gegen­stand des Interesses bei „Frontline“ werden? Dies führt uns zurück zur UCS.

Eine der E-Mails von Texas A&M zeigt, dass deren Aktivist einen Medienberater der Regierung kontaktiert hat, und zwar Richard Ades von Prism Public Affairs, laut ihrer Website „einer strategischen Kommunikationsfirma, die im Übergangsbereich zwischen öffentlicher Politik und den Medien arbeitet“, der ihn dann auch beraten hat. Der Professor sagte, dass sich Aaron Huertas von der UCS auf ihn berufen habe.

Ich habe zwei weitere öffentliche Anfragen dazu gestartet. Man kann erwarten, dass die üblichen Verdächtigen auf ihre übliche Art und Weise antworten. Die Medien, Akademien und Umwelt-Aktionsgruppen teilen eine Agenda und arbeiten eng zusammen, um diese voranzutreiben. Erinnern Sie sich daran, wenn diese Interessenten gegen Bemühungen vorgehen, die Licht auf diese ihre Aktivitäten werfen soll.

Christopher C. Horner

Christopher C. Horner is director of litigation for the American Tradition Institute and author of the forthcoming book “The Liberal War on Transparency: Confessions of a Freedom of Information ‘Criminal’ ” (Threshold).

==============================================================

Zusatzbemerkung von Anthony Watts:

Man sollte berücksichtigen, dass die Union of Concerned Scientists keine wie auch immer geartete wissenschaftliche Qualifikation verlangt, wenn man dort Mitglied werden will. Wie die Gewährung der Mitgliedschaft bei der UCS  an meinen Hund zeigt, ist tatsächlich alles, was als Nachweis für die Mitgliedschaft verlangt wird, eine gültige Kreditkarte, und sie schauen nicht einmal nach, ob das Mitglied mit dem Kartenbesitzer identisch ist.

Link: http://wattsupwiththat.com/2012/07/07/the-collusion-of-the-climate-crowd/

Übersetzt von Chris Frey EIKE




Auch Biogas-Strom-Einspeisung ist volatil!

Ergänzung:

Sehen Sie hier ein Video zur Gefährlichkeit von Biogasanlagen

Mit Dank an ScienceSceptical (Beitrag auch erschienen bei Glitzerwasser) 

Wenn also die Mais-Ernte schlecht ausfällt oder der generelle Bedarf höher als die Nachfrage ist, schnellt der Preis für Mais nach oben in Schwindel erregende Höhen. ……Schauen wir uns also zunächst die Weltmarkt-Situation (Stichwort Mais-Import aus der Ukraine) bei Mais an.
Auf Grund der katastrophalen Mais-Ernte-Prognose in den USA ist der Mais-Preis inzwischen auf 7,70USD je Bushel (Volumen-Maß) geschnellt. So hoch war er nicht einmal in der Blasenphase 2008 – zwischenzeitlich hat er lange um die 4 USD gependelt, bevor er seit 2011 kontinuierlich gestiegen ist.
 

Dabei ist die letzte Meldung aus den USA mit einer noch nicht einmal eingepreisten um ca. 20% gegenüber der bisherigen Schätzung reduzierten Prognose für die Ernte 2012. Und die Bioethanol-Produktion benötigt immer mehr Mais. 
Was die USA damit machen, sieht man hier – es spielt anders als bei uns, Biogasstrom noch keine Rolle:
 

 



In Europa stellt sich das ganze verzögert dar, insbesondere setzt man in Deutschland auf den Import aus der Ukraine. Wenn der jedoch dann zum Ausgleich des USA-Ernte-Defizits in die USA umgelenkt wird, kommt es hier zu einer Explosion der Mais-Preises über die 2008-er Werte, die zum Ergebnis-Einbruch bei den Biogas-Betreibern führten und man legt die Anlagen einfach still. Der lt. Medien ansteigende E10-Verbrauch trägt zur Verknappung bei. Die Grenzkosten-Kalkulation für Mais-einsetzende Biogas-Anlagen liegt bei ca. 40 Euro/dz Mais, derzeit werden irgendwo je nach Verträgen zwischen 17-23 Euro bezahlt. Sollte der Preis über 40 Euro gehen, schaltet der Biogas-Anlagenbetreiber seine Anlage ab, sofern er nicht auf einen anderen NAWARO (nachwachsender Rohstoff) umsteigen kann und Frau Merkel und Herr Altmeier erfahren einen weiteren Rückschlag bei ihrer Energiewende. Sicher ist das eine andere Forma von Volatilität als die von Wind und Sonne, aber damit wird dieser Strom zumindest politisch auch unsicher!  

Warum übrigens der Herr Seehofer so scharf hinter dem EEG her ist, kommt nicht nur von der Voltaik, wie man allgemein annimmt, sondern auch vom Biogas, wie man aus folgender Grafik sieht:


Heinrich Duepmann Vorsitzender NAEB e.V.
Für Ergänzungen und Hinweise bin ich im Namen der Redaktion sehr dankbar.
info@naeb.info