1

Landrat von Fife (UK)* lehnt Pläne für Windparks ab

*Fife: Ein britischer Verwaltungsbezirk {= ein Landkreis} in Schottland. Eine Impression dieser wunderschönen Landschaft zeigt das Bild rechts. A. d. Übers.

Die Windfirmen können jetzt dagegen Einspruch erheben.

West Coast Energy hat seine Absicht verlauten lassen, „aktiv voran zu gehen“, allerdings ist nicht bekannt, ob dies schon ein Einspruch ist oder ob die Pläne erneut vorgelegt werden sollen. Die Clatto Hill Protection Group lobte die Räte inzwischen für „den Schutz lokaler Gemeinschaften und die wertvolle Landschaft von Fife“.

Aktivisten gegen Windfarmen feierten, nachdem die kontroversen Windfarmpläne in Fife abgelehnt worden waren.

Allerdings ist deren Kampf noch nicht vorüber, da West Coast Energy bereits angedeutet hat, dass es gegen die Entscheidung des Planungskomitees, den Vorschlag zur Errichtung von fünf Turbinen in Devon Wood bei Kingskettle abzulehnen, Einspruch einlegen wird.

Insgesamt acht Windturbinen sollten in der schönsten Landschaft von Fife bei Clatto Hill errichtet werden.

Green Cat Renewables hatte gehofft, drei Turbinen auf einer angrenzenden Fläche bei Clatto Farm errichten zu können, war aber ebenfalls erfolglos geblieben.

Im Rathaus von Kirkcaldy sah man gestern eine identische Abstimmung, wurden die Vorschläge der Windfirmen doch mit acht zu drei Stimmen abgelehnt.

Die Clatto Landscape Protection Group (CLPG) sagte, dass sie „erfreut” über die Entscheidung war, räumte aber ein, dass die Antragsteller Einspruch einlegen könnten.

Sollte einer der beiden oder alle beide Firmen mit ihrem Einspruch Erfolg haben, könnten die lokalen Behörden mit der Forderung einer substantiellen Entschädigung konfrontiert sein.

Der Vorsitzende der CLPG, Greg Brown, sagte: „wir wissen, dass die Antragsteller das Recht haben, Einspruch bei der schottischen Regierung einlegen zu können. Aber wir hoffen, dass die Antragsteller die guten Gründe von drei unterschiedlichen Landräten nachvollziehen und die demokratischen Entscheidungen akzeptieren.

Sie sollten wissen, dass wir unseren Kampf gegen jeden Einspruch, den sie vorbringen könnten, fortsetzen“.

Ratsmitglied Ron Caird begründete die Ablehnung beider Eingaben. Jede der beiden, sagte er, würde wegen der Größe, dem Fehlen eines positiven Beitrags, dem Landschaftsschutz und den Erholungsmöglichkeiten, den visuellen Eindrücken und dem Charakter der Landschaft nicht der Politik entsprechen.

Er sagte außerdem, dass ein Windpark bei Devon Wood zusätzlich die Autofahrer ablenken und die Sicherheit auf der Straße beeinflussen würde.

 „Es genügt wohl, wenn ich sage, dass diese und andere Eingaben das spitze Ende eines sehr dicken Keils sind, der am Ende zur Vergewaltigung der Schönheit Fifes führen wird“, sagte er.

Bürgermeister Frances Melville stellte die Tatsache in den Vordergrund, dass alle lokalen Komitees von Fife und Levenmouth bis auf zwei Bedenken gegen die Eingaben zur Windkraft haben.

Dem Planungskomitee wurden Lichtbilder gezeigt, um deren Mitgliedern einen Eindruck davon zu vermitteln, wie das mit den Windturbinen aussehen würde.

„Jedes einzelne dieser Lichtbilder zeigte, dass diese Turbinen extrem auffällig in der Landschaft wären”, sagte Ratsmitglied Ron Edwards.

Der Planungsleiter Chris Smith sagte, dass die Turbinen „ausreichend weit entfernt“ von den Orten seien, um eine Ablehnung zu rechtfertigen.

Die Ratsmitglieder des Planungskomitees hatten die Genehmigung der Entwicklungen von Devon Wood und Clatto Farm beantragt, diese jedoch zum Gegen­stand von 60 bzw. 55 Bedingungen gemacht.

Unter den Bedingungen fand sich auch, dass vor Beginn jeglicher Arbeiten an Ort und Stelle die Beeinflussung eines Radars untersucht werden müsse, um einen Konflikt mit der Luftfahrtkontrolle der RAF [= Royal Air Force, die britische Luftwaffe] in Leuchars zu vermeiden. Das Ergebnis dieser Untersuchung soll dem Rat in Zusammenarbeit mit dem Verteidigungsministerium vorgelegt werden.

Der Vorsitzende des Komitees, John Beare, unterstützte beide Vorschläge zur Genehmigung, ebenso wie die Ratsmitglieder Jim Burke und David Mogg.

Steve Salt, Direktor für Planung und Entwicklung bei West Coast Energy, sagte: „Wir sind von der heutigen Entscheidung des strategischen Planungskomitees enttäuscht, unsere Eingabe hinsichtlich des Windparks in Devon Wood, welcher in Einklang stand mit der lokalen und nationalen Politik, abzulehnen, trotz der positiven Haltung einiger Ratsmitglieder.

Wir bleiben jedoch dabei, weiter in den Sektor der erneuerbaren Energien in Fife zu investieren, trotz dieser Entscheidung. Wir werden jetzt aktiv danach trachten, einen positiven Weg vorwärts für unsere Vorschläge zu finden, von denen wir glauben, dass sie den lokalen Gemeinschaften, auf deren Gelände die Windparks stehen, und dem Landkreis Fife als Ganzes viele Vorteile bringen“.

Link: http://www.wind-watch.org/news/2012/03/22/council-throws-out-fife-windfarm-plans/

Übersetzt von Chris Frey EIKE




Globale Abkühlung von 1970 – was die Wissenschaftler gesagt haben

Erwärmung im frühen 20. Jahrhundert

  • Zusammenstellungen in den USA von Bodentemperaturbeobachtungen aus der ganzen Welt zeigen, dass es von den achtziger Jahren des 19. Jahrhunderts bis einige Zeit nach 1940 generell wärmer geworden war. Die globale Erwärmung während jener Jahre summierte sich zu etwa einem halben Grad Celsius, aber in der Arktis war die Erwärmung erheblich stärker, nämlich um mehrere Grad zwischen 1920 und 1940.
  • Die Ausdehnung des arktischen Meereises hat um etwa 10 Prozent abgenommen, und die Dicke allgemein um etwa ein Drittel. Gletscher in allen Teilen der Welt zogen sich zurück und gaben neues Weideland und Landschaften für die Kultivierung frei.
  • Die größere Wärme verlängerte die Wachstumszeit in England um zwei bis drei Wochen. Das Wildleben und die Wälder, die Kultivierung zahlreicher Ernten und die Ausdehnung jahreszeitlicher Wanderungen von Vögeln und Fischen, alles breitete sich in ganz neue Gebiete mit zunehmend idealen Bedingungen aus.
  • Mehr noch, die längsten verfügbaren Temperaturaufzeichnungen aus vielen nördlichen Ländern seit dem frühen 18. Jahrhundert (in England seit dem späten 17. Jahrhundert) zeigen, dass die vorangegangene Erwärmung eine lange Geschichte hatte, und zwar von Beginn der Aufzeichnung an und durch verschiedene kürzere Abkühlungs- und Erwärmungsphasen. Dies bedeutete, dass die Erwärmung vor der industriellen Revolution begonnen hatte und nicht insgesamt mit den Auswirkungen menschlicher Aktivitäten zusammenhängen kann.

Abkühlung nach 1940

  • Während der letzten 25 bis 30 Jahre ist es auf der Erde wieder kälter geworden. Um das Jahr 1960 war die Abkühlung besonders stark. Und heute gibt es weit verbreitet Beweise dafür, dass sich entsprechend die Verbreitungsgebiete von Fischen und Vögeln sowie erfolgreiche Ernten und Wälder wieder vom Pol zurückziehen.
  • Der Rückgang der zuvor herrschenden Temperaturen seit etwa 1945 scheint der längste fortgesetzte Abwärtstrend seit dem Beginn von Temperaturaufzeichnungen zu sein. (Diese Abkühlungsperiode dauerte etwa 30 Jahre und war 5 Jahre länger als die kürzliche Periode mit Erwärmung).

Auswirkungen der Abkühlung

Vielleicht an dieser Stelle wird es jetzt besonders interessant. Lamb zufolge traten neben den Besorgnis auslösenden Auswirkungen von Klimaänderungen der letzten Jahre u. a. folgende Auswirkungen auf:

  • Eine erneute Ausbreitung des arktischen Meereises (vor allem seit 1961), was zu Schwierigkeiten in nördlich gelegenen Schifffahrtsrouten in russischen und kanadischen Gewässern sowie zu einigen schlimmen Zeiten an den Küsten von Island und Grönland geführt hat,
  • ebenfalls seit 1961 zu einem substantiellen Anstieg der Seehöhe der großen Seen im östlichen äquatorialen Afrika und seit kurzem auch der Großen Seen in Nordamerika,
  • einige Temperaturextreme über 200 Jahre in besonders kalten Wintern in verschiedenen Gebieten der Nordhemisphäre (und vermutlich auch bei der Sommerwärme des Jahres 1972 im Nordteil der UdSSR und Finnlands).
  • Die wahrscheinlich schlimmsten Auswirkungen waren jedoch die lang anhaltenden Dürreperioden und unternormale Regenfälle in verschiedenen Teilen der Welt, verbunden mit Verschiebungen der hemisphärischen Hochdruckgürtel.
  • Die subtropischen Hochdruckzonen, verbunden mit dem Wüstengürtel, hatten sich um Einiges in Richtung Äquator verschoben, und der tropische Regengürtel scheint sich in seiner jahreszeitlichen Ausbreitung verringert zu haben. Als Folge nahmen die Regenfälle in Afrika um den Äquator zu, was zu steigenden Seespiegeln führte, während sich weiter nördlich Dürre ausbreitete, weil das „tropische“ Regenband nicht mehr sein übliches sommerliches Gastspiel gab.
  • Die Regenmenge an 8 Stationen in Nordindien, Sudan sowie zwischen 16° und 20° Nord in Westafrika lagen während der Jahre 1968 bis 1972 im Mittel um 45% unter derjenigen in den fünfziger Jahren. In allen diesen Gebieten wurden die Menschen infolge des fortgesetzt fehlenden Regens aus ihrer Heimat vertrieben, und auf den Kapverdischen Inseln auf gleicher Breite im Atlantik wurde 1972 wegen fünf Jahre anhaltender Trockenheit der Notstand ausgerufen.
  • Es gibt Hinweise, dass korrespondierende Verschiebungen der Hoch- und Tiefdruckgürtel auch auf der Südhalbkugel stattgefunden haben und dass die Dürren, die Sambia, Rhodesien und Teile von Transvaal heimgesucht haben, Teil des gleichen Phänomens sind. (Ein Hinweis darauf, dass die Temperaturen der Südhalbkugel ebenfalls zurückgegangen sind).
  • Gleichzeitig haben Verschiebungen der wesentlichen Zentren dieser Antizyklonen von Monat zu Monat und von Jahr zu Jahr zu einer ungewöhnlichen Variabilität der Temperatur und des Niederschlags geführt. Eine ähnliche Entwicklung könnte eine Erklärung der Folge von Dürren und Überschwemmungen in Australien in den Jahren 1972 und 1973 sein.

Dürre in Afrika

In einem anderen Artikel in dieser Ausgabe des Courier geht Jean Dresch, Geographieprofessor an der University of Paris und „führende Autorität“ hinsichtlich der ariden Zonen der Welt, detaillierter auf die von Lamb erwähnte Dürre in Afrika ein.

  • Eine Hungersnot bedroht Millionen Dorfbewohner und Hirten mit ihren dezimierten Herden, die zu nie dagewesenen Wanderungen auf der Suche nach Nahrung und Wasser gezwungen worden sind, und zwar in allen westafrikanischen Ländern südlich der Sahara, von Mauretanien bis nach Sudan. Grund hierfür ist Dürre, ein ausgedehnter Rückgang der Regenmenge, der bis nach Zentralasien reichte; in der Peripherie der ariden Zone, die sich von der tropischen Sahara-Wüste bis zu den kontinentalen Wüsten in den gemäßigten Zonen Eurasiens erstreckte.
  • Man erinnerte sich an eine Folge von trockenen Jahren von 1910 bis 1914, als es wirklich zu einer Hungersnot gekommen war. In den Jahren 1941 und 1942 war es nicht besser, und trockene Jahre folgen aufeinander seit 1968, während es in der Dekade von 1951 bis 1960 nasser war. Allerdings ist kein zyklischer Rhythmus erkennbar, mit dem bessere Vorhersagen katastrophaler Verhältnisse möglich wären.

Dürren und Überschwemmungen

Jerome Namias, einer der „führenden Wetterwissenschaftler von Amerika” kommentiert in einem anderen Artikel unter der Überschrift „Langfristige Vorhersage von Dürre und Überschwemmungen“:

  • Wir alle erinnern uns an die Verwüstungen der Naturereignisse in jüngster Vergangenheit, die verheerende Dürre in Russland 1972; die gegenwärtige Dürre in Ländern südlich der Sahara [Sahel-Zone], vor allem Mali, Mauretanien und Obervolta, die anscheinend dauerhaft ist und sich während der letzten Jahre verschlimmert hat; die gelegentlichen jahreszeitlichen Dürren in Teilen Indiens und Australiens und die „Seca“ genannte Dürre, welche in manchen Jahren im Nordosten Brasiliens vorkommt.
  • Auf der nassen Seite stehen die Überschwemmungen im Osten der USA im Juni 1972, welche teilweise mit dem Hurrikan Agnes zusammenhängen, dem teuersten Sturm in der Geschichte der USA, und wir erinnern uns an die tragische Überschwemmung in Florenz im Jahr 1966. Dies sind lediglich einige Beispiele spektakulärer klimatologisch aufgezeichneter Ereignisse.
  • Seit urdenklichen Zeiten gab es immer wieder Vorkommnisse, bei denen die Natur „auf Verwüstungskurs“ geht und es so aussehen lässt, als ob sich das Klima ändere. Warum tut die Natur das? Unglücklicherweise verstehen die Menschen die Gründe dieser Ereignisse nicht vollständig, und daher ist man auch nicht in der Lage, diese Ereignisse zuverlässig vorherzusagen (Offensichtlich wusste er nichts von dem ganzen gewaltigen Einfluss eines unbedeutenden Spurengases).

Schlusswort

War man damals besorgt über das, was die Zukunft bringen könnte? Sie werden nicht die apokalyptische Sprache von Time benutzt haben, aber Sorgen gab es sicherlich. Ich möchte den Schlusskommentar wieder Lamb überlassen:

Alle diese Ereignisse haben zu einer aus Furcht geborenen Forderung nach ultralangfristigen Vorhersagen des Klimas geführt, einschließlich Rufen nach intensiveren Bemühungen, die Atmosphäre zu verstehen (sowie deren Wechselwirkungen mit den Ozeanen) und nach weiteren Tatsachenrekonstruktionen der vergangenen Klimaaufzeichnungen.

Paul Homewood

Link: http://notalotofpeopleknowthat.wordpress.com/2012/03/18/1970s-global-cooling-what-the-scientists-said/

Übersetzt von Chris Frey EIKE




Die Jagd auf Sündenböcke führt nicht zu niedrigeren Benzinpreisen

Die Daten der Energy Information Administration (EIA) zeigen, dass 76% dessen, was wir für Benzin bezahlen, von den Weltmarktpreisen für Rohöl bestimmt wird; 12% entfallen auf Steuern, 6% auf das Raffinieren und weitere 6% für Marketing und Verteilung. Der Preis, den die Raffinierer für Rohöl zahlen, wird von den globalen Märkten festgesetzt.

Die Weltpreise werden von Angebot und Nachfrage sowie von instabilen globalen politischen Verhältnissen getrieben. Dies bedeutet, dass die heutigen Preise entscheidend von Erwartungen und Befürchtungen von morgen beeinflusst werden. Ein wesentlicher Faktor ist der wachsende Ölhunger in Asien – gekoppelt mit der Ablehnung der USA, mehr von seinem eigenen Petroleum zu erzeugen. Die Preise werden auch durch die Ungewissheit über potentielle Unterbrechungen des Angebots beeinflusst, z. B. durch Bohrunfälle und den Bürgerkrieg in Nigeria; Streit um Syrien, Jemen und israelisch-palästinensischen Gebieten; Falschmeldungen über die Explosion einer Pipeline in Saudi-Arabien; Sorgen über Angriffe auf Ölpipelines im Mittleren Osten sowie neue westliche Sanktionen gegen Iran wegen seines Atomprogramms und der Drohungen der Mullahs, die Straße von Hormuz zu blockieren.

Mehr noch, Öl wird in US-Dollar abgerechnet, und die von der Federal Reserve [Bank in den Markt gepumpten] Geldmengen sowie die Politik niedriger Zinsen – kombiniert mit der massiven US-Schuldenkrise – haben den Wert des Dollars geschwächt. Es kostet die Raffinerien jetzt mehr Dollar, ein Barrel Rohöl zu kaufen als vor drei Jahren.

Inmitten all dieser Unsicherheiten und Unruhe versuchen Spekulanten, künftige Preise und Preisschocks vorherzusagen; die heute weniger für Rohöl bezahlen, welches in vier Wochen teurer sein könnte und die die bestmöglichen Preise für Kunden erreichen wollen, die eine zuverlässige Versorgung brauchen. Irren sie sich, endet es für die Spekulanten so, dass sie viel bezahlen, wenig für den Verkauf erhalten und Geld verlieren. Ölspekulanten spielen eine wichtige Rolle, ebenso wie sie es bei Mais und anderen Gütern zukünftiger Märkte tun.

Grundlegende Chemie schreibt vor, dass ein Barrel Rohöl [ca. 160 Liter] nicht vollständig zu Benzin verarbeitet werden kann. Abhängig vom Typ des Rohöls verwandeln etwa 140 Raffinerien in den USA jedes Barrel in Benzin, Diesel, Kerosin, Heizöl, Asphalt, Wachs, Petrochemikalien und andere wichtige Produkte.

Dieser Herstellungsprozess hinterlässt ihnen exzessive Mengen an Dieseltreibstoff, weil die amerikanischen Autos weniger Diesel verbrauchen als die Raffinerien produzieren, hauptsächlich wegen der Gesetze zur Luftverschmutzung, die das Verbrennen von Diesel limitieren. Die US-Raffinerien exportieren diesen Dieselüberschuss nach Europa, wo mehr Diesel als Benzin verbraucht wird, und die Europäer verschiffen ihren Überschuss an Benzin hauptsächlich an Verbraucher der Ostküste. Die US-Raffinerien verkaufen auch überschüssige Bestände anderer hergestellter Produkte nach Übersee, aber Diesel ist bei Weitem der größte Exportfaktor.

Amerika [= die USA] exportieren jeden Monat Endprodukte im Wert von 180 Milliarden Dollar – und für 2,2 Trillionen Dollar jährlich Mais, Weizen, Autos, Traktoren, technische Geräte, Flugzeuge, pharmazeutische Erzeugnisse und noch viel mehr. Im vergangenen Jahr exportierten die USA zum ersten Mal seit 1949 wieder Treibstoffe und andere Erzeugnisse aus Petroleum. Diese Exporte reicherten unsere Wirtschaft mit 107 Milliarden Dollar an und sorgten für den Erhalt tausender Arbeitsplätze in Raffinerien und anderen Firmen, die sonst verloren gegangen wären, weil auch Raffinerien in unserer gegenwärtig stagnierenden Wirtschaft ihre Probleme haben.

Arbeitsplätze in der Landwirtschaft und der Industrie würden verschwinden, wenn wir den Export ihrer Produkte illegal machen würden. Ein Verbot von Treibstoffexporten und die Verpflichtung für Raffinerien, nur das zu produzieren, was hier in den USA gebraucht wird, hätte den gleichen Effekt auf unsere Beschäftigungszahlen, unsere Wirtschaft und unseren Lebensstandard.

Die USA verfügen über 1,4 Trillionen Barrel technisch förderbaren konventionellen Öls, schätzen die EIA und andere Experten, sowie enorme zusätzliche Vorräte an Schiefergas und Ölsanden. Der beste Weg, die Preise niedrig zu halten besteht darin, mehr dieses amerikanischen Öls zu produzieren und mehr aus sicheren, freundschaftlichen und benachbarten Versorgern wie Kanada zu importieren.

Allerdings verbietet unsere Regierung das Pachten und Bohren von fast 95% auf den von ihr kontrollierten Ländereien. Sie hält ihren Daumen auf Pachtverträge und Genehmigungen für die verbleibenden 5% und reguliert die Produktion auf in Privatbesitz befindlichen Ländereien über die Maßen. Sie legte gegen die Pipeline von Kanada nach Pennsylvania [Pennsylvania = Keystone State] ihr Veto ein. Sie implementierte kostspielige und unnötige neue Regulationen in jeden Aspekt der Energieerzeugung, den sich nicht einfach verhindert.

Wir verlieren Milliarden Dollar von Boni, Mieten und Steuern, vernichten unzählige Arbeitsplätze und beeinträchtigen unseren Lebensstandard, Gesundheit und Wohlstand.

„Mehr Exporte bedeuten mehr Arbeitsplätze”, sagte Präsident Obama vor Kurzem. „Wir müssen das produzierende Gewerbe der USA stärken. Wir müssen in in den USA erzeugte Energie und in neue Fertigkeiten der amerikanischen Arbeiter investieren“.

Seine Worte klingen hohl. Alles in allem wollen Präsident Obama und seine Umwelt- und Kongressverbündeten unsere „Abhängigkeit“ von Öl beenden, Amerika „fundamental transformieren“ und Milliarden von Dollar „investieren“ (geborgt von uns, unseren Kindern und Enkeln), um Bemühungen zur Umwandlung von Mais, Sumpfgras, Algen und Schlamm in Treibstoff zu subventionieren.

Das Verdienen von Milliarden Dollar und Millionen realer Arbeitsplätze in der amerikanischen Ölproduktion und der Herstellung amerikanischer Produkte aus Öl passen nicht in diese Agenda. Obwohl jeder zehnte während der letzten drei Jahre geschaffene Arbeitsplatz in der Öl- und Gasindustrie erfolgt war, möchte das Team Obama, wenn es um Petroleum geht, den Erfolg bestrafen und ein Scheitern belohnen, wie Solyndra, Fisker und den Chevy Volt.

Um eine kürzliche Äußerung der Republikaner umzuformulieren, die mehr Bohrungen und weniger Obstruktionen wollen: Jedes Mal, wenn die Preise anfangen zu steigen, konzentriert sich Präsident Obama auf lokale Ablagerungen oder ein Maisfeld, stellt sicher, dass ihm ein paar Kameras folgen und beginnt, sich so zu verhalten, als ob er einen magischen Zauberstab schwingen sowie mit ein paar Milliarden Dollar zusätzlich um sich werfen könnte und als ob man billige, umweltfreundliche Biotreibstoffe für immer und ewig hätte.

Inzwischen stellte Energieminister Steven Chu mehr als deutlich klar, dass er „die Benzinpreise auf das Niveau in Europa anheben möchte – 8 bis 10 Dollar pro Gallone! Er befindet sich bereits auf halbem Weg dorthin.

Solche Preise würden die Amerikaner mit Sicherheit dazu bringen, weniger zu fahren und zu „hoffen“, dass der Hype zum „Übergang“ zu Benzin aus Algen in weniger als zwanzig oder dreißig Jahren Wirklichkeit wird.

Inzwischen werden in den Himmel schießende Treibstoffpreise mit Sicherheit die Kosten zum Transport von Menschen, Rohmaterialien, Nahrung und von Gütern auf Rädern, Tragflächen und Wasserwegen in die Höhe treiben; ebenso wie die Kosten für die Herstellung irgendwelcher Produkte in den USA sowie für den Erhalt von Arbeitsplätzen, für Familien- und Firmenbudgets und für Träume, die von bezahlbarer Energie abhängen.

Die Jagd auf Sündenböcke würde die Preise an der Zapfsäule nicht reduzieren. Eine realitätsbezogene Politik dagegen sehr wohl.

Paul Driessen__________

Paul Driessen is senior policy advisor for the Committee For A Constructive Tomorrow and Congress of Racial Equality, and author of Eco-Imperialism: Green power – Black death.

Link: www.icecap.us

Hinweis: Der Originallink Hunting for scapegoats won’t lower pump prices  geht nicht.

Übersetzt von Chris Frey EIKE

Bemerkung: De Artikel beschreibt zwar die Verhältnisse in den USA, kann aber wohl ohne Weiteres auf die Verhältnisse bei uns übertragen werden, zumindest was die Arbeitsplätze und die Treibstoffkosten betrifft. Daher wurde er hier übersetzt.




Die gewaltigen Kosten eines Nicht-Problems

Die wesentlichen Schlussfolgerungen jedes der vier IPCC-Zustandsberichte sind fragwürdig:

  • 2007: Das IPCC schließt zwei mal, dass die Rate der Erwärmung zunimmt und dass wir Schuld daran sind. Aber es verwendet ein falsches statistisches Verfahren, um zu dieser Schlussfolgerung zu kommen.
  • 2001: Das IPCC folgert, dass die heutigen Temperaturen die wärmsten seit 1300 Jahren sind. Wie man zu dieser Schussfolgerung gekommen ist, wird staatsanwaltlich unter Betrugsvorwurf untersucht.
  • 1995: Die Wissenschaftler waren zu dem Ergebnis gekommen, dass kein erkennbarer Effekt menschlicher Aktivitäten auf das Klima gefunden werden konnte. Ein einziger Mann allein schrieb den Bericht um, bis er das Gegenteil davon aussagte.
  • 1990: Das IPCC sagte eine rapide Erwärmung voraus. Eine Generation später ist diese Erwärmung ausgeblieben. Diese und viele andere Vorhersagen wurden inzwischen als falsch entlarvt:
  • Die globale Temperatur steigt langsamer als vom IPCC vorausgesagt;
  • Der Meeresspiegel ist seit acht Jahren lediglich um ca. 3 cm pro Jahrhundert gestiegen;
  • Der Wärmegehalt der Ozeane hat seit sechs Jahren kaum zugenommen;
  • Die Aktivität von Hurrikanen und tropischer Zyklone ist geringer als vor 30 Jahren;
  • Die globale Ausdehnung des Meereises hat sich während der letzten 30 Jahre kaum verändert;
  • Die Methankonzentration ist seit dem Jahr 2000 lediglich bis 20 parts per Milliarde gestiegen;
  • Der Hot Spot über den Tropen, den das IPCC als unseren Fußabdruck vorhergesagt hat, ist nicht vorhanden;
  • Die ausgehende Strahlung verschwindet wie üblich im Weltraum.

Die kalifornische Kohlenstoffsteuer wird zusammen mit anderen flächendeckenden Maßnahmen zur Eindämmung der CO2-Emissionen bis 2020 450 Milliarden Dollar kosten. Selbst wenn dadurch 25% der Emissionen in Kalifornien vermieden werden, sind das im globalen Maßstab gerade 0,4%. Die CO2-Konzentration wird bis 2020 412,9 ppmv betragen anstatt der vom Weiter-So-Szenario des IPCC angenommenen 413 ppmv; nur ein Tausendstel Grad Fahrenheit weniger Erwärmung wird es geben; die Kosten für eine Vermeidung des vom IPCC vorhergesagten Anstiegs um 0,3°F bis 2020, verglichen mit den kosten-ineffektiven politischen Maßnahmen in Kalifornien, würden 180 Trillionen Dollar betragen, das wären 25500 Dollar pro Kopf der globalen Bevölkerung oder ein Drittel des globalen Bruttosozialprodukts; und die Kosten zur Verhinderung einer Erwärmung um 6°F [ca. 3°C], die das IPCC bis zum Jahr 2100 vorhersagt, würden sich auf 2700 Trillionen Dollar belaufen. …

Umwelt-Überregulierung, der Zertifikatehandel, Verfügungen bzgl. „erneuerbarer“ Energien und ein 40-jähriges Moratorium von Bohrungen vor der Küste lähmen Kalifornien. Das Schiefergasfeld von Monterey enthält 15 Milliarden Barrel Öl, und doch hat die Über-Regulierung die Produktion um ein Drittel verringert auf etwa 200 Milliarden Barrel pro Jahr. Jetzt beträgt die Arbeitslosigkeit in Kalifornien 11%, das liegt an zweiter Stelle hinter Nevada; das Defizit des Bundesstaates 2012/2013 beläuft sich auf 6 Milliarden Dollar; es klafft eine Pensionslücke in Höhe von 250 Milliarden Dollar; 50000 reiche Kalifornier (ein Drittel) sind von 2007 bis 2009 aus Kalifornien geflüchtet und haben ihre Geschäfte und Arbeitsplätze mitgenommen: 2011 haben sich doppelt so viele Firmen aus dem Golden State zurückgezogen als 2010; die Firma Intel hat angekündigt, nie mehr ein neues Werk dort zu bauen; Globalstar, Trizetto und eEye haben sich während nur eines Monats verabschiedet; Boeing, Apple, Facebook und DirecTV sind alle weg. Der Zug fährt in Richtung Osten.

Unter dem Strich: Keine politische Maßnahme, um die globale Erwärmung abzuschwächen, egal ob Besteuerung, Regulierung, Ersetzung oder Reduktion von Treibhausgasen wird sich als kosteneffektiv herausstellen, verglichen mit den Vorteilen, die eine Abschwächung des Klimawandels mit sich bringen würde. Bezahlbare Strategien zur CO2-Verminderung sind ineffektiv; effektive Maßnahmen dazu sind unbezahlbar teuer. Die Fokussierung auf irgendwelche nachteiligen Konsequenzen irgendeiner Erwärmung, die sich ergeben könnten, ist viel kosteneffektiver. Wenn die Prämie die Kosten des Risikos weit übersteigt, versichern Sie sich nicht! Jeder rote Heller, der jetzt ausgegeben wird, um die globale Erwärmung zu stoppen, ist verschwendet. Machen Sie sich keinen Stress: lehnen Sie sich zurück, genießen Sie den Sonnenschein und passen Sie sich nur an, wenn das unabdingbar nötig ist. Obwohl dies alles nicht in Mode ist, wäre es der ökonomisch kluge und wissenschaftlich vernünftige Weg.

Anthony Watts (Hrsg.), Lord Monckton

http://coalitionofenergyusers.org/monckton-event/

Link: http://wattsupwiththat.com/2012/03/21/the-heavy-cost-of-a-non-problem/

Übersetzt von Chris Frey EIKE




Die Biospriteinführung und der „politische Unternehmer“

Biotreibstoffe waren für das Interesse der Medien seit einiger Zeit nur noch von untergeordneter Bedeutung, nachdem Friends of the Earth (FoE hierzulande als BUND auftretend) einen Bericht veröffentlicht hatten,  in dem sie behaupten, dass Biotreibstoffe möglicherweise mehr Treibhausgase erzeugen als sie einsparen. Vielleicht war es das, was mich zu einer von Sharmans Studien stoßen ließ – und zwar die Studie mit dem Titel „Evidence based policy or policy-based evidence gathering? Biofuels, the EU and the 10% target“.

Die Studie von Sharman und Holmes 2010 (wie man sie salopp nennt) ist nicht öffentlich verfügbar, sondern nach meinem besten Wissen gegen Gebühr hier. Aber Amelia Sharman war so freundlich, mir eine Kopie zu senden, und ich muss sagen, dass sie ziemlich interessantes Zeug enthält.

Die Studie untersucht die EU-Vorgabe zur Beimischung von Biotreibstoffen um 10% und im Besonderen die Art und Weise, mit der die wissenschaftlichen Ratschläge hierzu mit der Entscheidung, dieses Ziel einzuführen, zusammenprallt. Es ist eine düstere Geschichte, die Sharman mit Hilfe von Interviews mit Schlüsselfiguren in der Politik-Maschinerie aufgedeckt hat.

Im Jahr 2009, als das Ziel verkündet worden ist, war bei Weitem nicht klar, ob Biotreibstoffe ein brauchbares Mittel zur Reduktion von Treibhausgasen sind. Aber das 10%-Ziel wurde trotzdem eingeführt. Wie einer der Interviewten erklärte:

„Normalerweise sollte man keine Gesetzgebung vorschlagen, solange keine Beweise zur Rechtfertigung vorliegen. Aber hier haben wir Premierminister und Staatsoberhäupter, die sich einem Ziel verschreiben, ohne jemals die möglichen Auswirkungen abgeschätzt zu haben… Sie haben sie dazu gebracht, diese Ziele zu verkünden, 20% Erneuerbare und 10% Biotreibstoffe, und erst danach haben sie eine Risikobewertung vorgenommen. Und im Grunde haben sie gesagt, dass sie eigentlich keine Risikoabschätzung hinsichtlich des 10%-Ziels mehr durchführen müssen, weil es von den Staatoberhäuptern ja schon abgesegnet sei!…“

Wie Sharman und Holmes prägnant kommentieren:

Die Tatsache, dass die EU ein Ziel befürwortet, ohne jemals eine Risikoabschätzung vorgenommen zu haben, bietet den ersten Hinweis darauf, dass die Motivation nicht aus wissenschaftlichen Beweisen hinsichtlich der Umwelt-Nachhaltigkeit resultiert und dass die Reduktion von Treibhausgasemissionen bei der politischen Entscheidung für das 10%-Ziel eine Rolle gespielt hat.

Es gab viele wesentliche Faktoren, die auf die Hauptentscheidungsträger im politischen Prozess eingewirkt haben. Unter anderem wurde an einer Stelle in den Ring geworfen, dass die Energiesicherheit ein Faktor bei der Entscheidung sein sollte, aber tatsächlich war angesichts der Tatsache, dass die EU Ernteerträge zur Erreichung dieses Zieles importieren müsste, klar, dass dies eine Scheinüberlegung war. Unsauberere und weniger wertvolle Ziele – Zahlungen an diverse Interessengruppen – waren anscheinend viel wichtiger gewesen. Im Besonderen brannten die in den politischen Prozess involvierten Personen darauf, in die Biotreibstoff-Industrie zu investieren und eine substantielle Beruhigungspille für die Produzenten von Zuckerrüben in der EU zur Verfügung zu stellen, die Schwierigkeiten hatten, im Wettbewerb mit den Weltmarktpreisen bestehen zu können. Wie ein anderer der Interviewten erklärte:

„Es gab einen heftigen Streit mit der europäischen Bauernlobby. Die Kommission… war verzweifelt auf der Suche nach ein paar Zuckerstückchen, die man der Bauernlobby präsentieren könnte. Im Besonderen war sie verzweifelt daran interessiert, einen Ausweg zu finden, denn allen Erzeugern von Zuckerrüben war klar, dass sie keine Zukunft hatten, wenn es einmal zu einem Wettbewerb beim Verkauf von Zucker kommen würde. Und dann kam man auf den brillanten Gedanken, dass man diesen Zucker zur Erzeugung von Ethanol verwenden könnte, und dass man allgemein einen subventionierten Markt für Landwirte schaffen könnte und dass dies uns gestatten würde, uns hinter der Energiepolitik zu verstecken, wenn einige dieser Subventionen in der Landwirtschaftspolitik so unpopulär werden. Das war der ursprüngliche Hauptantrieb…“

Gegen diesen leicht irrsinnigen Hintergrund wurden die politischen Entscheidungsträger mit widersprechenden wissenschaftlichen Beweisen hinsichtlich der Brauchbarkeit der Biotreibstoffe konfrontiert. Dreh- und Angelpunkt in dieser Diskussion war eine Studie von Searchinger et al. (2008), die ergab, dass Biotreibstoffe tatsächlich mehr Treibhausgase produzieren als sie einsparen, wenn man einmal die indirekten Auswirkungen des Landverbrauchs mit einbezieht.

(Nebenbei: Sie werden bemerkt haben, dass ich mich zu Beginn dieses Artikels auf eine jüngere Studie von Friends of the Earth bezogen habe, die zu der gleichen Schlussfolgerung gekommen ist. Unabhängig vom Ergebnis selbst ist es interessant, darüber zu spekulieren, ob die Studie von Searchinger vor oder nach dem Zeitpunkt veröffentlicht worden ist, an dem Friends of the Earth mit ihrer Kampagne aufgehört haben, Biotreibstoffe verpflichtend in UK einzuführen.)

Aber zurück zum Kern dieser Geschichte. Die Searchinger-Studie scheint ein Hauptstreitpunkt zu sein, und die Repräsentanten der Biotreibstoffindustrie scheinen sich in ziemlich persönlichen Attacken auf den Autor engagiert zu haben, um ihrer Politik zum Durchbruch zu verhelfen. Allerdings gab es immer mehr zunehmende wissenschaftliche Beweise, die die Biotreibstoffe ähnlich wie die Searchinger-Studie sehr kritisch sahen. Obwohl Sharman und Holmes das nicht erwähnen, kann man außerdem nur schwer die Worte des Nahrungsmittelbeauftragten der UN übergehen, der im Jahr 2007 Biotreibstoffe als ein „Verbrechen gegen die Menschheit“ bezeichnet hatte. Die Entscheidung, weiterzumachen und das 10%-Ziel vor diesem Hintergrund einzuführen, scheint daher völlig unerklärlich.

Der politische Unternehmer

Also trieben die Interessengruppen in die eine Richtung und der wissenschaftliche Beweis in die andere. Wie kam es dann, dass das Ziel der Biotreibstoffe schließlich seinen Weg in die Politik gefunden hat? Dafür müssen wir einer mysteriösen Person danken, die Sharman den „politischen Unternehmer“ nennt (ich schätze mal, dass Sharman und Holmes wissen, wer das ist, doch hält sie die Ethik der Forschung davon ab, seine/ihre Identität öffentlich zu machen).

Fast alle Teilnehmer an den Interviews verwiesen auf einen individuellen Akteur innerhalb der EU, der starken Einfluss auf diese politische Entscheidung hatte, aber eine ansehnliche Kontroverse mit anderen Akteuren im politischen Netzwerk des Prozesses heraufbeschworen hat. Dies wirft zwei Fragen auf: Wie kann ein Individuum innerhalb der EU einen so starken Einfluss auf den politischen Prozess nehmen, und warum trägt die Politik nicht den zunehmenden wissenschaftlichen Daten Rechnung, die die Fähigkeit der Biotreibstoffe in Frage stellen, Treibhausgase zu reduzieren?

Wie wirklich? Warum wirklich?

Sharman erklärt, dass der politische Unternehmer weithin von den anderen Teilnehmern am politischen Prozess als ein Protagonist der Transport- und Biotreibstoffindustrie angesehen wird, von dem man sagt, dass er hinsichtlich der Unterstützung des Zieles „dogmatisch“ sei. Die Motivation dieses Einzelindividuums zusammen mit dem politischen Druck, die verschiedenen Interessengruppen zu unterstützen, die in die Biotreibstoffindustrie involviert sind, war eine starke Kraft, diese Bioziele in die Statuten zu hieven.

Allerdings gab es immer noch das vertrackte Problem des Gewichts des wissenschaftlichen Beweises gegen die propagierte Politik, aber dies scheint für den Unternehmer kein Problem gewesen zu sein. Den Insidern zufolge, die von Sharman und Holmes interviewt worden sind:

„…der internen EU-Dokumentation…, die die Entscheidung beflügelte, mit dem 10%-Ziel fortzufahren, wurde ein hoher Einfluss auf das schließliche politische Ergebnis zugeordnet. Die Beweise für eine kritischere Betrachtung … hatten nicht den gleichen Einfluss.“

Andere Interviewte wurden deutlicher dazu, was man gemacht hatte:

Einige der Interviewten haben auch angedeutet, dass der politische Unternehmer als ein Informationswächter fungierte, der den Entscheidungsträgern die wissenschaftliche Kontroverse nur verschleiert ersichtlich machte, indem er sicherstellte, dass nur Daten durchdrangen, die für das gewünschte Endziel sprachen und die in der Lage waren, den politischen Prozess in dieser Richtung zu beeinflussen. Die Fähigkeit des politischen Unternehmers, über die wissenschaftliche Literatur nach Belieben zu verfügen und die Vorteile des 10%-Zieles innerhalb und außerhalb der EU zu propagieren, wurde als ein kritischer Faktor ausgemacht. Dies deutet darauf hin, dass es nicht so sehr fehlende Beweise waren, die das gewünschte Ergebnis herbeigeführt hatten, sondern eher ein Kleben an Beweisen*. Allerdings soll keine dieser Kritiken den Verdacht aufkommen lassen, dass der politische Unternehmer in ausgesprochen böser oder hinterhältiger Absicht agiert hat. Einer der Interviewten unterstellte, dass der Unternehmer „…möglicherweise immer noch die besten Absichten hat (auch wenn er komplett daneben lag)…“ NGOs und der politische Unternehmer selbst scheinen die Politik als ein beliebiges Opfer einer Wertekontroverse zu sehen – Biotreibstoffe als umweltpolitischer ‚Bösewicht des Tages’.

Wenn man die Biotreibstoffe als ein “Verbrechen gegen die Menschheit” sieht, frage ich mich, ob nicht ein wenig mehr Zynismus hinsichtlich der „guten Absichten“ des Unternehmers angebracht wäre.

Wie ich oben sagte, seine Identität ist nicht bekannt. Aber ich bin sicher, dass es uns nicht wehtut zu spekulieren.

Andrew Montford

Aktualisierung von Registered CommenterBishop Hill

Ian Wishart nimmt sich der Geschichte hier an.

Link: http://bishophill.squarespace.com/blog/2012/2/20/the-entrepreneur.html

Übersetzt von Chris Frey EIKE




Das Klima weigert sich hartnäckig, mit den Erwärmungsalarmisten zusammenzuarbeiten

Bild rechts: Autor Larry Bell

Hatte Al Gore also schließlich recht? Vielleicht haben Sie es gehört… er ist in die Antarktis gereist, um zusammen mit dem berühmten NASA-Klimaalarmisten James Hansen das Eis beim Schmelzen zu beobachten, zusammen mit der im Mittelpunkt von Klimagate stehenden Person Kevin Trenberth, dem Milliardär Richard Branson sowie etwa 100 panischen Begleitern. Ihr Timing ist perfekt, es gibt viel zu beobachten für sie. Die Ausdehnung des Meereises um die Antarktische Halbinsel ist fast 200% größer als normal.

Aber auch für diejenigen, die mehr die typischen Frostwerte und sich wechselnde Blizzards bevorzugen, habe ich gute Nachrichten. Obwohl derartige Ereignisse im vergangenen Winter einen Bogen um die USA gemacht haben hin zu anderen Regionen, sollten Sie ihre langen Unterhosen noch nicht wegräumen. Es gibt vielfältige Hinweise, dass Sie sie während der nächsten Jahre noch brauchen.

Um ein wenig die Hintergrundperspektive zu beleuchten, wollen wir uns bewusst machen, dass Klimaänderung sehr real ist und schon seit Urzeiten im Gange ist… bis zurück zum Anfang der Erde. Das Klima änderte sich sogar schon vor der Ankunft der ausgestorbenen Dinosaurier, industriellen Rauchwolken und SUVs [?]. Und obwohl die Temperaturen während der letzten 150 Jahre (seit dem Ende der „Kleinen Eiszeit“… keiner wirklichen Eiszeit) allgemein mild waren, sollten wir uns daran erinnern, dass signifikante Fluktuationen normal sind. Tatsächlich gab es im vergangenen Jahrhundert zwei ausgeprägte Perioden mit einer Erwärmung.

Die erste Periode ereignete sich in den Jahren von 1900 bis 1945. Das das CO2-Niveau damals verglichen mit heute relativ niedrig lag und sich nicht wesentlich verändert hatte, konnte hierin nicht der Grund für Erwärmungen vor 1950 liegen. Nach einer leichten Phase mit Abkühlung folgte ab 1975 die zweite Periode mit Erwärmung, die mit einer ziemlich konstanten Rate bis zum Jahr 1998 dauerte, einem Jahr mit einem besonders starken El Nino-Ereignis im Pazifik. Und die Analysen der Ballonmessungen vom UK Hadley Center und der NASA haben keinerlei Beweise irgendwelcher Art einer von anthropogenem CO2 beeinflussten Erwärmung gefunden, und zwar in Gestalt einer „Signatur“ eines Hotspots in der oberen Troposphäre über den Tropen, wie es die globalen Klimamodelle des IPCC vorhergesagt haben.

Seit 1998 sind die Temperaturen relativ stabil geblieben, lediglich mit Ausnahme einer kurzen El Nino-Spitze im Jahre 2010, der im Jahr 2011 die dramatische Abnahme eines La Nina-Ereignisses folgte. Etwa die Hälfte der seit 1900 aufgetretenen geschätzten Erwärmung ereignete sich vor Mitte der Vierziger Jahre trotz kontinuierlich steigenden CO2-Niveaus seit dieser Zeit.

Unser milder USA-Winter 2011/2012 wäre ein sehr willkommener Unterschied zu dem gewesen, was in anderen Gebieten der Welt geschah. Eine Kältewelle in Europa forderte über 500 Todesopfer, davon über 140 in der Ukraine sowie hunderter Anderer in Frankreich, Serbien und der Tschechischen Republik. Die für Transporte, die Stromgewinnung und die Industrie so wichtige, 2860 Kilometer lange Donau fror zu, ebenso wie fast alle Flüsse im Balkan. In mehr als 130 Dörfern in Bulgarien war die Stromversorgung zusammengebrochen.

Näher bei uns kam es in Fairbanks, Alaska, zum kältesten Januar seit 1971 mit Temperaturwerten bis -24°F [ca. -31°C]. Das kälteste Januarmittel war dort im Jahr 1906 aufgetreten (-36,4°F [-38°C]).

Die Temperaturmessungen an mehr als 30000 Stationen, deren Werte im Stillen vom UK Met Office und der CRU veröffentlicht worden sind, zeigen seit 15 Jahren keine Erwärmung mehr. Auch sieht es nicht so aus, als ob die Erwärmung wieder einsetzen würde. Viele wissenschaftliche Studien deuten darauf hin, dass das globale Klima wegen eines schwachen neuen Sonnenzyklus’ demnächst in eine Kaltphase eintreten wird. Diese Vorhersage basiert auf  wichtigen berechneten Eigenschaften kosmischer Strahlung auf die Wolkenbildung während einer Periode mit reduzierter Aktivität von Sonnenflecken. Mehr Wolken sorgen für kühlere Bedingungen, während weniger Wolken zu Erwärmung führen.

Der solare Output durchläuft 11-Jahres-Zyklen mit einer hohen Zahl von Sonnenflecken während des Maximums. Gegenwärtig laufen wir auf das Maximum des „Zyklus’ 24“ zu, und doch beträgt die Anzahl der Sonnenflecken weniger als die Hälfte von anderen Maxima im 20. Jahrhundert. Eine vom Met. Office veröffentlichte Studie projiziert eine Wahrscheinlichkeit von 92%, dass sowohl der Zyklus Nr. 25 sowie die Folgenden genauso schwach oder sogar noch schwächer ausfallen als während des „Dalton-Minimums“ von 1790 bis 1830, als es in Europa um etwa 2°C kälter war.

Nicola Scafetta, ein Klimawissenschaftler an der Duke University und dem Active Cavity Radiometer Solar Irradiance Monitor Lab (ACRIM), erzählte mir, dass er nicht glaubt, dass wir ein starkes „Maunder-Minimum“ oder selbst Bedingungen wie im Dalton-Minimum erleben werden, weil sich die Sonne gegenwärtig im Maximum eines 1000-jährigen Zyklus’ befindet, also ähnliche Bedingungen wie während der zwei Jahrhunderte währenden Mittelalterlichen Warmzeit. Allerdings steht die Sonne an der Schwelle zu einem Großen Minimum, das wahrscheinlich einem ausgeprägten 60-jährigen Zyklus folgt, mit Maxima um das Jahr 2000 und dann wieder 2060. Scafetta sagt voraus, dass es während der nächsten 20 bis 30 Jahre zu einer stetigen, aber moderaten Abkühlung kommen wird. Seine neue Studie mit dieser Vorhersage wurde vor Kurzem im Journal of Atmospheric and Solar Terrestrial Physics veröffentlicht und basiert auf Rekonstruktionen der Solardaten bis 10000 Jahre vor Christus.

Das Met. Office behauptet, dass sich der Treibhauseffekt des anthropogenen CO2 weit stärker auswirkt als der Einfluss der Sonne; ausreichend, um nicht nur eine potentielle Abkühlung durch solare Vorgänge deutlich überzukompensieren, sondern auch, um eine Gesamterwärmung auszulösen. Dies wird jedoch von Sonnenexperten heftig bestritten. Sie weisen darauf hin, dass die Hypothese des Met. Office lediglich auf hoch theoretischen Klimamodellen basiert, die den CO2-Einfluss übertreiben, während sie zahlreiche andere dazu beitragende Faktoren ignorieren. Zum Beispiel hat das Met. Office angesichts des anhaltend steigenden CO2-Gehaltes 2007 behauptet, dass die globale Erwärmung „mit Macht wieder einsetzen werde“, und sagte eine Erwärmung um 0,3°C zwischen 2004 und 2014 voraus. Im Jahre 2009 wurde diese Vorhersage dahingehend geändert, dass die Jahre zwischen 2009 und 2014 den bisherigen Temperaturrekord des Jahres 1998 brechen würden. Das scheint doch sehr unwahrscheinlich.

Da sie die globale Temperatur nicht direkt nachbilden können, basiert die Vorhersage des Met. Office aus dem Jahr 2009 auf einem einfachen „Energiebilanzmodell“ (EBM), mit dem ein voll Atmosphäre-Ozean-gekoppeltes „generelles Zirkulationsmodell“ (GCM) nachgebildet werden sollte. Allerdings enthielt das GCM, mit dem sie ihr EBM (das „HadCM3“) kalibriert haben, keinerlei solare Verstärkungsfaktoren (wie Einflüsse durch Feedbacks zwischen Wolken und kosmischer Strahlung) und zeigte folglich nur eine sehr begrenzte Klimasensitivität auf solare Variationen. Dies ist ein neues und sehr kreatives Beispiel von „garbage in-garbage out“-Hexerei, wobei von einem Klimamodell, das zur Modellierung eines anderen Klimamodells benutzt wird, behauptet wird, dass es irgendeinen Vorhersagewert hat.

Judith Curry, eine bekannte Klimatologin, die der School of Earth and Atmospheric Sciences am Georgia Institute of Technology vorsteht, findet die vertrauensvolle Vorhersage des Met. Office eines „vernachlässigbaren“ Einflusses der Sonne „schwer zu verstehen“. Sie hat festgestellt, dass „es von Verantwortung zeugen würde, wenn man akzeptiert, dass die Modelle ernste Schwächen haben, wenn es um den Einfluss der Sonne geht“. Hinsichtlich der vorhergesagten Pause bei der Erwärmung sagt sie, dass viele Wissenschaftler „nicht überrascht“ sind.

Curry benennt auch wichtige Beiträge von 60-jährigen Temperaturzyklen im Atlantik und Pazifik und hat beobachtet, dass diese „nur ungenügend hinsichtlich des globalen Klimas berücksichtigt worden sind“. Als beide Ozeane kühl waren, wie in der Zeit von 1940 bis 1970, kühlte sich das Klima ab. Der Pazifik trat dann erneut im Jahr 2008 von einer warmen in eine kalte Phase über, und es wird erwartet, dass der Atlantik während der nächsten Jahre das auch tut.

Habibullo Abdussamatov, ein Wissenschaftler am Pulkovo Observatory an der Russian Academy of Science in St. Petersburg, sagt voraus, dass unser Planet jetzt in eine sehr kalte und ausgedehnte Klimaphase eintritt. Er glaubt, dass „man nach dem Maximum des Sonnenzyklus’ 24, etwa im Jahr 2014, den Beginn des nächsten zweihundertjährigen Zyklus’ starker Abkühlung erwarten kann, mit einer Kleinen Eiszeit um das Jahr 2055 plus/minus 11 Jahre (dem 19. der letzten 7500 Jahre).

Eine weitere Kleine Eiszeit? Wenn Sie sich bisher Sorgen um eine vom Menschen verursachte globale Erwärmung gemacht haben, denken Sie daran! Obwohl es unwahrscheinlich ist, lassen Sie uns hoffen, dass das Met. Office ausnahmsweise einmal richtig liegt, und dass der Pflanzendünger CO2 uns vor solchen wirklich frösteln machenden Perspektiven bewahrt.

Weiteres von Larry Bell

Link: http://www.forbes.com/sites/larrybell/2012/03/27/climate-obstinately-refuses-to-cooperate-with-global-warming-alarmists/

Übersetzt von Chris Frey EIKE




Die 200 Milliarden Euro Lüge über die Förderung der Atomwirtschaft

Seit ca. 2 Jahren geistert der Betrag „165 Mrd. Euro”, mit dem die „Atomwirtschaft” insgesamt angeblich gefördert wurde, durch die Medien. Kein Moderator, der etwas auf sich hält, vergisst es, diese Zahl zu erwähnen. Viele runden diese auch noch großzügig auf 200 Mrd. auf – kann man sich so besser merken. Aber wo kommt sie her?

Sie kommt vom „Forum für Ökologisch-Soziale Marktwirtschaft” (FÖS), im Auftrag von Greenpeace, erstellt im Sept. 2009 (hier). Als Autoren der Studie sind 3 Personen, Bettina Meyer, Sebastian Schmidt und Volker Eidems, ohne Titel oder Qualifikation, angegeben. Zu diesen Personen ist nichts weiter zu finden, außer dass Bettina Meyer dem Vorstand des FÖS angehört.

Es handelt sich um eine phantasievolle Zusammenstellung von angeblichen Kosten von 1950 – 2008, alles, was den FÖS-Mitgliedern am Stammtisch so in den Sinn gekommen ist. Zum Beispiel: 41 Mrd. € für „Forschung”. Darunter versteht das wohl FÖS alles, was irgendwie „Kern” im Forschungsprogramm hatte, Grundlagenforschung vor allem aus der Anfangszeit, aber auch Fusionsforschung (was hat die „Atomwirtschaft” mit Fusionsforschung zu tun?) – inflationsbereinigt hochgerechnet und summiert über 60 Jahre. Welche Forschung das im einzelnen gewesen sein soll, verschweigt die Studie, bis auf einige Großprojekte wie den THTR. Wer also damals mit einem Beschleuniger Kernreaktionen, die relevant für die Energieerzeugung in der Sonne sind, durchgeführt hat, steht vermutlich auch auf der Liste.

Der zweite große Posten mit 65 Mrd. € sind „Steuervergünstigungen”. Davon sind 40 Mrd. € die „fehlende Brennelementesteuer”. Die Tatsache, dass diese Steuer 1950-2008 nicht erhoben wurde, zählt hier also als „Subvention”. (Dass wir alle noch keine Steuern für die Luft zahlen wäre demnach eine äußerst großzügige Subvention, die jedem Bürger zugute kommt – wir sollten dankbar sein!).

Bleiben also von den 165 Mrd. Euro nur noch 85 Mrd. Weitere 33 Mrd. € versteckt FÖS hinter „Budgetunabhängige staatliche Regelungen”. Damit ist vor allem gemeint, dass die Stromkonzerne über viele Jahre angeblich überhöhte Preise genommen haben, gefördert durch staatliche Regelungen und Intransparenz. Hier wird gar nicht mehr groß argumentiert, es fallen einfach ein paar Zahlen vom Himmel, die miteinander kombiniert werden, und das FÖS nimmt die Differenz zu den Strompreisen, die seiner Meinung nach angemessen gewesen wären. Heraus kommen jedenfalls 33 Mrd. €.

Bleiben also nur noch gut 50 Mrd. €. Wer bis hier noch nicht genug hat, kann sich ja die übrigen Posten noch ansehen. Da finden sich z.B. weitere 6 Mrd. € "Strompreiserhöhung durch Emissionshandel", die auch gleich noch mit 31. Mrd. € in die Zukunft gerechnet werden (was können die Kernkraftwerke dafür, dass sie kein CO2 emittieren?), u.v.m.

Übrig bleibt eigenlich nur der Schnelle Brüter (SNR-300), der THTR u.ä. Diese Anlagen hat der Staat in der Summe und inflationsbereinigt mit ca. 15 Mrd. € gefördert. Davon hat die „Atomwirtschaft” aber nur Verluste gehabt (in der Studie natürlich nicht verbucht), denn praktisch all diese Projekte wurde noch vor oder kurz nach der Inbetriebnahme aus politischen Gründen stillgelegt. Die Abbaukosten werden selbstverständlich in der „Studie” großzügig verrechnet.

Die 200 Mrd. € sind eine gewaltige Luftblase. Lässt man die Luft ab, bleiben praktisch keine direkten Subventionen übrig. Im Gegensatz zu den „Regenerativen”, die bereits jetzt mit über 100 Mrd. subventioniert wurden und immer noch nutzlos sind, hat die Nukleartechnik bis auf Grundlagenforschung nie Subventionen erhalten, dafür aber von Anfang an preiswerten Strom geliefert. Es handelt sich bei dieser „Studie” lediglich um ein Ablenkungsmöver der Ökolobby, den eigenen Subventionsirrsinn zu relativieren und zu rechtfertigen.

Für EIKE verfasst von

Dr. Götz Ruprecht

Nachtrag: aktuell zur Kenntnis auch (hier)

Guter weiterführender Link hier (mit Dank an Leser Stefan Steger)

Energiedebatte: Das Märchen vom subventionierten Atomstrom

Von Joachim Volz




Die großen Unbekannten im Energiefluss der Erde

Was wir alles NICHT über den Energiefluss der Erde wissen

von Robert G. Brown

[Vorbemerkung des Übersetzers:
Der folgende Aufsatz stammt aus der Diskussion eines Beitrag von Lord Monckton auf WattsUpWithThat. Bei EIKE unter dem Titel Rückkopplungen über Rückkopplungen und ähnliche Dummheiten erschienen, aber ohne die daranhängende englischsprachige Diskussion. Aus dieser Diskussion stammt der folgende Beitrag des amerikanischen Physikers Robert G. Brown, der sich grundsätzlich und tiefschürfend mit der Fragestellung beschäftigt. In seiner kurzen Einleitung bezieht er sich auf Lord Monckton, dann führt er seine Gedanken aus.]

Robert G. Brown: Ich kann nicht für Ihr Programm sprechen, ich bleibe bei meinem, um die „mittlere wirksame radiative Temperatur” eines masselosen grauen Körpers als „perfektem Strahler“ zu berechnen. Man möge daran denken, dass es keine wirkliche Temperatur in einem derartigen Beispiel geben kann, weil es keine Masse gibt. Man braucht Masse, um die Temperatur zu definieren. (Aber die meisten Klimatologen sehen darin kein Problem, daher liegen sie alle falsch – so leid mir das tut!)

Hier würde ich mich gerne einschalten und diese Behauptung untermauern, ohne notwendigerweise die Ergebnisse der Berechnungen für richtig zu halten. (Dazu müsste ich den Code und die Ergebnisse direkt anschauen).
Betrachten wir kurz die Skalierungen. Da gibt es einige Gleichungen:

P = (4pi R^2)epsilonsigma T^4

ist die gesamte Leistung, die von einer Kugel mit dem Radius R bei gleichverteilter Temperatur T ausgeht. sigma ist die Stefan-Boltzmann-Konstante, die während der Betrachtung Skalierung zunächst nicht beachtet wird, epsilon beschreibt die Emissivität des Körpers und sie ist konstant in der Größenordnung der Einheit (für einen „schwarzen Körper“, weniger für einen „grauen Körper“, noch allgemeiner gesprochen eine Funktion der Wellenlänge und keine Konstante). Ich wiederhole: beim Betrachten der Größenordnung beachten wir epsilon zunächst nicht.

Nun nehmen wir an, dass die Temperatur nicht gleichverteilt ist. Um uns die Sache leichter zu machen, modellieren wir eine nicht gleichverteilte Temperatur für eine Kugel mit einer gleichverteilten Temperatur auf der „heißen Seite“ von T + dT und einer gleichverteilten Temperatur auf der „kalten Seite“ von T – dT. Eine Hälfte der Kugel ist heiß, die andere kalt. Die räumlich durchschnittliche Temperatur, wohlgemerkt, bleibt T. Dann beträgt die abgestrahlte Leistung:

P’ = (4pi R^2)epsilonsigma ( 0.5*(T + dT)^4 + 0.5(T – dT)^4)

Wir interessieren uns nur für die Größenordnung, also: wir führen a) eine binomische Entwicklung von P’ zum Quadrat durch (die Ausdrücke erster Ordnung in dT heben sich auf); dann bilden wir b) das Verhältnis P’/P und erhalten:

P’/P = 1 + 6 (dT/T)^2

Dabei sehen wir etwas und können daraus eine Abschätzung treffen. Was wir sehen ist, dass P’ erheblich größer als P ist – bei nicht gleichverteilter Temperatur auf der Kugel strahlt die Energie erheblich rascher ab, als von einer Kugel gleichen Radius’ mit gleichverteilter Temperatur und gleicher Durchschnittstemperatur. Das ist gut verstehbar – auf der heißen Seite geht es mit der vierten Potenz viel schneller aufwärts, als es auf der kalten Seite mit der vierten Potenz runtergeht. Dabei tut es überhaupts nichts zur Sache, dass die Temperatur auf der kalten Sache von unten begrenzt wird auf T_c = 0.

Die Abschätzung: dT/T approx 0.03 für die Erde ergibt nicht besonders viel – es eine Abschätzung der Größenordnung, wobei T approx 300K und dT approx 10K. (0.03^2 = 0.0009 approx 0.001 so dass 6(0.03)^2 approx 0.006. Wenn man aber die geografische Breite anstelle einer Tag/Nachtseiten-Schichtung für dT annimmt, ist sie viel größer. Man sollte in Wirklichkeit beides benutzen und die wirkliche Temperaturverteilung integrieren (Momentaufnahme) – oder es noch genauer machen. Aber wir wollen ja zunächst nur ein Gefühl bekommen, wie sich die Dinge dabei verändern, keine genaue und stimmige Berechnung anstellen.

Wenn sich die Erde im Gleichgewichtszustand befindet, muss S/4 gleich P’ sein – so viel Wärme, wie einfällt, muss auch abgestrahlt werden. Das Modell halte ich nicht für bedenklich, nur die Größe des Skalierungsverhältnisses: 1375 * 0.006 = 8.25 W/m^2 geteilt durch vier. Weil die Temperatur der Erde in Wirklichkeit nicht gleichverteilt ist, bedeutet das eine Erhöhung der Rate, mit der Wärme verloren wird: (insgesamt) mit etwa 2 W/m^2. Das ist keine vernachlässigbare Menge. Sie ist noch weniger vernachlässigbar, wenn man nicht nur die Differenz zwischen den mittleren Tages- und Nachttemperaturen betrachtet, sondern zwischen den äquatorialen und den polaren Breiten. das dT ist dann eher 0.2 und der Effekt noch stärker ausgeprägt!

Entscheidend ist, dass mit dem Anstieg der Temperatur die Rate des Wärmeverlustes der Erde zwangsläufig hochgeht, unter sonst gleichen Bedingungen. Heiße Körper verlieren die Wärme (durch Abstrahlung) viel rascher als kalte wegen der ganz einfachen Stefan-Boltzmann-T^4-Zunahme; sodann tendiert alles, was die Inhomogeneität der Temperaturverteilung um den (erhöhten Mittelwert) verstärkt, noch zu einer weiteren Zunahme. Man beachte, dass sich das Gesagte auf diese Weise direkt nach oben abbildet:

P’/P = 1 + 4 dT/T + …

(Hier wird angenommen, dass T’ = T + dT, mit dT << T Erwärmung.)

Am oberen Ende der IPCC-Weltuntergangs-Skala bedeutet eine Temperatur-Erhöhung von 5.6C gleich 5.6/280 approx 0.02. Das würde die Rate des Stefan-Boltzmann’schen radiativen Leistungsverlusts um den Faktor 0.08, oder um fast 10% erhöhen. Ich halte das für absurdes ist schier unmöglich, durch eine Verdoppelung des CO_2 (auf eine Konzentration von immerhin noch < 0.1%) eine Veränderung der Energiebilanz der Erde um 10% zu erzeugen.

Das Schöne an der Berücksichtigung von P’/P in unseren Betrachtungen liegt darin, dass damit die ganzen ärgerlichen (oft unbekannten) Faktoren wie z. B. epsilon verschwinden. Man muss nur dafür sorgen, dass epsilon selbst sich zunächst nicht schneller vor dem diesbezüglichen Term in der Skalierungsbeziehung verändert.
Wir haben damit auch einige “Proben auf Richtigkeit”. Diese Proben zeigen, dass man nicht einfach annehmen kann, die Erde sei eine Kugel mit einer gewissen gleichverteilten Temperatur, ohne dabei gravierende Fehler zu machen. Sie zeigen auch, dass Veränderungen von über 1-2C über irgendwelche Temperaturdurchschnitte in geologischen Zeiträumen auf absurde Weise unwahrscheinlich sind, wegen des grundlegenden T^4 in der Stefan-Boltzmann-Gleichung. Im Grunde entspricht bei einem gegebenen T = 288 jede Zunahme von 1K bei T einer 1.4% Zunahme bei der abgestrahlten Leistung.
Auf der Suche nach einem „schlagenden Beweis“ zur Erklärung der globalen Temperatur-Veränderungen muss der Beweis auf der Ebene geführt werden, wo die Netto-Leistung auf der gleichen Skala verändert wird wie die Temperatur in Grad Kelvin.

Wo sind die Kandidaten für solche „schlagenden Beweise“?

Da ist zunächst die Albedo. 1% Veränderung in (absoluter) Albedo kann die Temperatur um etwa 1K verändern.

Noch besser ist die Veränderung der Temperatur-Verteilung. Soviel lehren uns die dekadischen Oszillationen: die Art und Weise der Temperaturverteilung auf der Erdoberfläche hat tiefgehende und manchmal unmittelbare Auswirkung auf die Netto-Erwärmung oder Abkühlung. Dies ganz besonders am oberen Rand der Troposphäre. Die Veränderungen der Treibhausgaskonzentrationen – ganz besonders Wasser – haben die richtige Größenordnung. Die Wärmespeicherung, Abgabe und Verteilung in den Weltmeeren ist bedeutend – Europa ist warm, nicht einfach nur wegen des CO_2, sondern weil der Golfstrom äquatoriale Wärme dorthin transportiert! Wenn man den “globalen Wärmeaustausch-Gürtel” unterbräche, könnte man Europa zufrieren sehen. (Und dann Nordasien, Nordamerika, und weiter …)

Am besten ist eine komplexe, nicht-lineare Mischung von allem Obigen! Albedo, globale Zirkulation (Konvektion), Ozeanischer Wärmetransport, atmosphärischer Wassergehalt, das alles verändert die Art der Temperaturverteilung (und auch die Strahlungsverluste).
Alles wirkt zusammen, darüber bin ich mir sicher, bei der Bildung der durchschnittlichen globalen Temperatur, und das auf nicht triviale Weise. Wenn Wärme in den Tropen konzentriert ist, ist T_h höher (T_c niedriger) im Vergleich zu T, die Welt kühlt schneller ab. Wenn Wärme zu den Polen verteilt wird (durch Konvektion), liegt T_h dichter an T_c, die Welt kühlt insgesamt langsamer ab, eher einem im Grunde „schwarzen Körper“ angenähert. Wenn die Tagestemperaturen viel höher als die Nachttemperaturen sind, kühlt die Welt relativ rasch ab; wenn sie näher beieinander liegen, verhält es sich in Näherung eher wie bei einem im Grunde „schwarzen/grauen Körper“. Wenn die Tages-Albedo hoch ist, wird zunächst weniger Leistung aufgenommen, eine Netto-Abkühlung findet statt; wenn die nächtliche Albedo hoch ist, gibt es weniger nächtliche Abkühlung, ein geringeres Temperatur-Differential usw.

Es handelt sich um ein komplexes Problem, nicht um ein einfaches. Wenn jemand behauptet, dass es einfach wäre, will er Sie vermutlich übertölpeln. Es ist wirklich kein einfaches physikalisches Problem und es ist nahezu gewiss, dass wir alle physikalischen Zusammenhänge noch nicht kennen. Ein wahres Ärgernis bei der gesamten Debatte über das Klima ist die allfällige Behauptung von der gesicherten wissenschaftlichen Erkenntnis. Nichts ist gesichert, noch nicht einmal annähernd! Im Laufe des nächsten Jahrzehnts werden wir noch Wichtiges über das Klima erfahren.

Bevor wir alle phyikalischen Vorgänge verstehen – dann wird es keine Überraschungen vom Watt/m^2-Ausmaß geben – werden wir kein genaues Modell bauen können. Und solange wir kein genaues Modell für geologische Zeiträume bauen können, werden wir die einfache Frage nicht beantworten können, die beantwortet werden muss, bevor wir uns an die Abschätzung der anthopogenen Klimaveränderung machen:

Wie hoch wäre die Temperatur, wenn das CO_2 noch auf der Höhe der vorindustriellen Konzentration wäre?

Ich meine, wir können diese Frage mit unserem heutigen Kenntnisstand nicht beantworten. Wir wissen nicht, warum es die Mittelalterliche Warmperiode gab (ohne CO_2-Veränderung). Wir wissen nicht, warum die Kleine Eiszeit gab LIA happened (ohne CO_2-Veränderung). Wir wissen auch nicht, warum es die anderen bedeutenden Klimaveränderungen gab, zurück bis zum Optimum im Holozän (viel wärmer als heute) oder bis zur unteren Trias (viel kälter als heute). Wir wissen nicht, warum es im Verlauf von jeweils 100.000 Jahren jeweils 90.000 Jahre Eiszeit gab, warum es vor 15 Millionen Jahren viel wärmer als heute war, warum in geologischen Zeiträumen kalte und warme Perioden sich in Millionen-Jahres- bis zu Hundert- Millionen-Jahres-Perioden ablösen. Wir wissen nicht, wie lange das Holozän noch andauern wird, nicht wann oder warum es enden wird, auch nicht, wie lange der Übergang von warmen zu kalten Bedingungen dauert.
Wir sind uns ziemlich sicher, dass die Sonne eine Menge damit zu tun hat, aber wir wissen nicht, auf welche Weise, auch nicht, ob mehr als nur die Sonne im Spiel ist. Wir können solare zehnjährige Zustände nicht vorhersagen, geschweige denn jahrhundertlange, wir sind noch nicht einmal gut bei der Vorhersage für einige Jahre. Wir können Zeit und Stärke der dekadischen Oszillationen nicht vorhersagen. Wir wissen nicht, wann sich die kontinentalen Strömungsverhältnisse, d. h. die ozeanischen und atmosphärischen Zirkulationsmuster, so weit ändern, dass ein neuer „Modus“ entsteht (ein Modus, der abrupte und heftige Klimaveränderungen in der ganzen Welt verursachen könnte).

Zum Abschluss: wir wissen nicht, wie wir ein vertrauenswürdiges globales Klimamodell bauen könnten, teilweise, weil wir noch Antworten auf viele dieser Fragen brauchen! Solange wir es nicht können, bauen wir nur Anpassungen von nicht-linearen Funktionen, die gut bei der Interpolation sind, bei der Extrapolation aber versagen.

rgb

Wer sich für den bereits erschienen Beitrag von Robert G. Brown interessiert, findet ihn undefinedhier.

Wer sich für das Original interessiert, findet es undefined  hier

Übersetzung: Helmut Jäger, EIKE




Öl und Benzin – der Faktencheck!

Tatsächlich ist nichts davon nachvollziehbar. Weder die Situationsbeschreibung, noch die Ideen zur Lösung eines Problems, das man zu sehen glaubt, ohne es wirklich zu erkennen.

Vor mir liegt die Studie “Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen” der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) des Jahres 2006. Dieses Papier scheint nicht mehr zum Download zur Verfügung zu stehen. Es heißt darin auf Seite 16:

“Das verbleibende Potenzial an konventionellem Erdöl kann aus geologischer Sicht bei moderatem Anstieg des Erdölverbrauchs die Versorgung mit Erdöl über einen Zeitraum von etwa 10 bis 15 Jahren gewährleisten. Nach diesem Zeitraum muss infolge des zu erwartenden Rückgangs der Erdölförderung nach Überschreiten der weltweit maximal möglichen Förderung mit einer Versorgungslücke bei Erdöl gerechnet werden, die durch andere Energieträger oder Erdölsubstitute (aus Erdgas, Kohle oder Biomasse) ausgeglichen werden müsste.”

Nun wird diese Untersuchung durch das BGR jährlich durchgeführt. Die aktuellste Version von Ende 2011 enthält zur Frage der Verfügbarkeit von Erdöl die folgende Aussage:

“Für die nächsten Jahre kann aus geologischer Sicht bei einem moderaten Anstieg des Erdölverbrauchs die Versorgung mit Erdöl gewährleistet werden. Nach der als optimistisch anzusehenden BGR-Projektion könnte die globale Erdölförderung bis etwa 2036 gesteigert werden und 4,6 Mrd. t/a erreichen.”

In nur fünf Jahren hat sich damit ein möglicher “Peak Oil” um fünfzehn Jahre nach hinten verschoben. Dies ist ein stabiler Trend in allen Prognosen dieser Art: Das erwartete Fördermaximum wandert schneller in die Zukunft, als die Zeit vergeht. Das erste Diagramm zeigt, warum das so ist. Bei nahezu gleichbleibender Produktion in den letzten Jahrzehnten steigt die Zahl der gesicherten Reserven immer weiter an. Die Erdölkonstante, die statische Reichweite, erhöht sich dadurch ständig. Lag sie 1980 noch bei etwa 30 Jahren (demzufolge hätten wir eigentlich schon seit zwei Jahren kein Benzin mehr), ist sie heute bei über 50 angekommen.

Oft kommt seitens der Peak-Oil-Vertreter an dieser Stelle das Argument, die Konstanz der Produktion wäre das eigentliche Problem. Viele der Reserven seien in Wahrheit nur mit hohem Aufwand und unter hohen Kosten zu erreichen. Die Ölförderung könne eben nicht mehr über das heute erreichte Niveau hinaus gesteigert werden. Das ist eine merkwürdige Argumentation. Warum sollte denn versucht werden, die Förderung zu erhöhen, wenn es keinen Bedarf gibt? Tatsächlich steigen die Ölreserven sogar doppelt so schnell, wie der Verbrauch (nachfolgende Abbildung – Leider enthält der “Ölverbrauch” in den mir vorliegenden Daten von BP auch Biodiesel und Bioethanol, auf die der moderate Anstieg von etwa 1 Prozent pro Jahr wesentlich entfällt.). Und wenn es eine Konstante im Ölgeschäft tatsächlich gibt, dann die, daß nur gefördert wird, was man auch verkaufen kann.

Die Reserven, die heute schon zu marktfähigen Kosten förderbaren Vorkommen, machen nur einen Bruchteil des Erdöls aus, das uns zur Verfügung steht. In den Diagrammen sind von den unkonventionellen Vorkommen nur  geringe Mengen der kanadischen Ölsande enthalten. Vor allem hinsichtlich des Potentials von Schieferöl (nicht zu verwechseln mit “Ölschiefer”) gibt es noch keine belastbaren Aussagen. Alles, was ich dazu finden konnte, ist eine Studie des privaten Washingtoner Think Tanks “Institute for Energy Research”, in der man aus verschiedenen Quellen Ressourcen in einer Größenordnung von etwa 1.800 Milliarden Barrel allein für Nordamerika abgeleitet hat (Seite 15) – mehr als die globalen Reserven von derzeit etwa 1.500 Milliarden Barrel. Darf man vermuten, dieses Öl würde im Boden belassen, wenn es jemand kaufen möchte? Wohl eher nicht.  

Es gibt keine Verknappung, noch ist eine solche für die kommenden Jahrzehnte absehbar. Die BGR sieht das fast ganz richtig, in ihrer Energiestudie von 2011:

“Insbesondere die fortschreitende Technologieentwicklung im vergangenen Betrachtungszeitraum hat die Trennung in konventionelle und nicht-konventionelle Vorkommen unschärfer werden lassen.”

Ich würde weiter gehen. Eine solche Trennung ergibt keinen Sinn mehr. Das Gerede von einer bevorstehenden Verknappung des Öls entbehrt damit jeder Grundlage.

Trotzdem habe ich heute für 1,72 Euro pro Liter getankt. Das ist mehr, als ich im Laufe meines Autofahrerlebens bislang gewohnt war. Die dritte Abbildung zeigt: Es ist wohl mehr als zum historischen Höchststand des Jahres 1953. Moment mal, werden jetzt viele einwerfen, in den 1950er Jahren hat Benzin doch nur ein paar Pfennige gekostet. Stimmt natürlich, 1953 waren es im Jahresdurchschnitt etwa 37 Pfennig pro Liter. Aber diese 37 Pfennig waren damals so viel wert, wie heute 160 Cent. Das Diagramm ist mit den Daten zum Verbraucherpreisindex des statistischen Bundesamtes inflationsbereinigt. Die Spritpreise (Jahresmittelwerte) stammen vom ADAC und die jeweiligen Sätze für Mineralöl- und Umsatzsteuer kann man bei Wikipedia nachlesen. Für das Jahr 2012 sind die Monate Januar bis März berücksichtigt. Es wird deutlich, wer am Autofahrer wirklich verdient. Nicht die Ölmultis, sondern Wolfgang Schäuble.

Gerade mal 60-70 Cent kostet der Liter heutzutage. Das ist im Verlauf der Jahrzehnte nicht ungewöhnlich. Langfristig zeigt der Trend nach unten, von Schwankungen auf kürzeren Skalen überlagert. Die Rekordwerte entstehen, weil von jedem Liter der Staat mittlerweile fast einen Euro einkassiert. Der rote Bereich im Diagramm zeigt den Steueranteil.

Nichts ist es mit dem knappen Öl. Und Preiskartelle der Konzerne haben und hatten, wenn es sie denn gibt oder gab, nur Ausschläge von wenigen Cent hervorgerufen. Der Kostentreiber bei Benzin ist der Staat – und niemand sonst. Es hilft hier auch keine Energiewende, es hilft keine Erhöhung der Pendlerpauschale und schon gar nicht hilft eine Debatte über Unternehmensstrategien. Allein eine schnelle und substantielle Senkung der Steuerlast, der Mehrwert- und vor allem der Mineralölsteuer, könnte Entlastung bringen. Auch langfristig. Dieses Thema aber scheuen alle Parteien. Was nicht verwundert.

Unsere wirklichen Probleme mit dem Öl werden in zwanzig oder dreißig Jahren ganz andere sein. Nicht zu wenig wird es geben, sondern zu viel. Vor allem in Nordamerika, in den USA, in Kanada und in Mexiko. Angesichts des unaufhaltsamen technischen Fortschrittes haben sowohl Exxon, als auch BP analog zu den Analysten der Citigroup ihre neuesten Zukunftsszenarien gegenüber dem Jahr 2010 deutlich verändert. Die baldige Unabhängigkeit des nordamerikanischen Wirtschaftsraums von Importen ist nicht mehr hypothetisch, sondern wahrscheinlich. Es wird dann niemand mehr da sein, der ein Interesse daran hat, auch die Versorgung Europas aus politisch instabilen Regionen abzusichern. Die Navy wird sich fein heraushalten, wenn irgendein Potentat mal wieder die Straße von Hormus zu sperren droht. Ein neues Erdölzeitalter beginnt. Und wir sind nicht darauf vorbereitet.

Dr. Peter Heller; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE

Peak oil doomsayers ignore human ingenuity




Klimakatastrophenprophet der ersten Stunde Hartmut Graßl droht zu scheitern

Im Jahre 1990, also vor nunmehr 22 Jahren, alarmierte Hartmut Graßl mit seinem Buch “Wir Klimamacher” die Öffentlichkeit und sagte eine schlimme Klimakatastrophe vorher. Auf Seite 61 schrieb er damals zusammen mit seinem Co-Autor Reiner Klingholz:

“Schon in den nächsten 30 Jahren wird sich die Erde mit hoher Wahrscheinlichkeit um ein bis zwei Grad erwärmen.”

Nun sind die 30 Jahre bald um und wir erlauben uns nachzuschauen, ob sich die Natur an die Prognose gehalten hat. Das Ergebnis ist ernüchternd: Zwar ist die globale Durchschnittstemperatur von 1977 bis 2000 um 0,5°C angestiegen, wovon sich etwa die Hälfte davon, also 0,25°C, zwischen 1990-2000 ereignete. Danach begann jedoch der bekannte Erwärmungsstop, der bis heute andauert. Um auch nur die Untergrenze von Graßl’s Prognose zu erreichen, müsste die Temperatur in den kommenden 8 Jahren also um 0,75°C ansteigen; um die Obergrenze zu erreichen, sogar um 1,75°C. Zum Vergleich: Die gesamte Klimadiskussion dreht sich “nur” um 0,8°C, um die sich die Erde seit 1850 erwärmt hat. Zudem hat Kollege Mojib Latif gerade vorhergesagt, dass sich die “klimatische Atempause”, also der Erwärmungsstop bis 2020 fortsetzen wird. Es sieht also überhaupt nicht gut aus für Graßl’s Prognose. Man muss kein Hellseher sein, um die Prognose schon jetzt als gescheitert zu bezeichnen. 

Obwohl Graßls Vorhersage von 1990 voraussichtlich mit Pauken und Trompeten durchfallen wird, wird er von den Medien noch immer als akzeptierter Meinungsführer umgarnt, wie neulich wieder zu bestaunen war. Ist dies vielleicht ein klimawissenschaftliches Phänomen? In allen anderen Wissenschaftszweigen hätte es das Vertrauen in den Forscher vermutlich stark erschüttert.

Graßl war sich seiner Sache damals offenbar so sicher, dass er die Klimadebatte kurzerhand für beendet erklärte. Im Jahre 1994 sagte er:

„Von wissenschaftlicher Seite ist der Indizienprozess in Sachen Treibhauseffekt gelaufen, ist der Schuldspruch gefällt. Es geht jetzt nicht mehr um weitere Beweise, sondern einzig darum, das Strafmaß um einiges zu mildern. Die globalen Mitteltemperaturen steigen innerhalb der nächsten Jahrzehnte um ein bis zwei Grad. Jede globale Änderung einer Klimagröße, also auch der mittleren Temperatur, erzwingt an fast jedem Ort der Erde neue Wetterextreme. Dann kommt es da zu Überschwemmungen, dort zu Dürren und anderenorts zu Stürmen, wie man sie vorher nicht gekannt hat.“

(Graßl, H.: Technik München, Mitt.-Bl. Techn.-Wiss. Vereine München, 1994; 3,4. Zitiert z.B. in: Heinrich Röck „Klima und Politik“2001)

Oh lala. Achtzehn Jahre nach dieser Aussage schwankt das schöne und liebgewonnene CO2-zentrierte Klimagedankengebäude bedrohlich hin und her und droht dabei jeden Moment zusammenzubrechen. Es wird immer klarer, dass natürliche Klimafaktoren jahrelang unterschätzt wurden. Durch Zuordnungsfehler wurden dem CO2-Wärmeeffekte zugeschlagen, die in Wirklichkeit jedoch zu einem großen Teil auf eine verstärkte Sonnenaktivität, Ozeanzyklen sowie anthropogenen Rußeintrag zurückgehen. In der klimatischen Aufbruchsstimmung der 1990er war man offenbar noch so naiv anzunehmen, mit einem One-Stop-Shop, nämlich dem Kohlendioxid, die Welt zu erklären. Hierauf ist in seiner Euphorie wohl auch Graßl reingefallen. Dies wäre nicht weiter schlimm, da Irrtümer zur Wissenschaft gehören wie braune Spritzer auf dem Hemd beim Genuss von Schokoladenpudding. Allerdings wäre es allmählich nun an der Zeit, den Irrtum einzusehen und Kurskorrekturen am klimatischen Weltbild vorzunehmen. Doch Graßl schaltet auf stur, weicht keinen Deut von seinen mittlerweile überholten Ansichten ab.

Neben der wohl gescheiterten Temperaturprognose, sollte ihn jedoch auch das wissenschaftliche Umdenken in Punkto Wetterextreme nachdenklich machen, das kürzlich stattgefunden hat. Wie dem oben genannten Zitat von 1994 zu entnehmen ist, sah Graßl damals Überschwemmungen, Dürren und Stürme vom CO2 und der Klimaerwärmung verschuldet. Der aktuelle wissenschaftliche Stand hat diesen Gedanken mittlerweile jedoch weitgehend verworfen. Keines der genannten Extremwetter-Phänomene hat den natürlichen Schwankungsbereich bisher verlassen (siehe unsere kürzlichen Blogartikel „Mehr Überschwemmungen? Vermutlich eher nicht“ und „Dürre Beweislage für mehr Dürren“ sowie das Sturmkapitel auf S. 202-208 in „Die kalte Sonne“). Graßl hat damals wohl den falschen Schuldigen hinter Schloss und Riegel gebracht hat. Ein klassischer Justizirrtum.

Spulen wir jetzt eine ganze Dekade nach vorn und blättern ein bisschen in Graßl’s Buch „Klimawandel – Was stimmt? Die wichtigsten Antworten“ von 2007. Auch hier leider wieder das gleiche Problem. Auf Seite 68 beschreibt er die Zunahme von Stürmen, Dürren und anderer Extremwetterlagen als eines der größten Klimaprobleme. Wann hat er eigentlich vor, diesen Dauer-Fehler öffentlich aufzuklären?

Ganz nebenbei: Hätten Sie gewusst, dass Graßl Mitglied des Stiftungsrates der Münchener Rück Stiftung ist? Die enge Verbandelung führender deutscher Klimawissenschaftler mit der interessierten Versicherungsbranche bereitet Sorge. Wie können Interessenskonflikte ausgeschlossen werden, wenn Versicherungsprämien bei gesteigerter Angst vor Sturm-, Hagel- und Überschwemmungsschäden problemlos angehoben werden? Bereits 2011 kooperierte das Potsdam-Institut für Klimafolgenforscung (PIK) mit dem Gesamtverband der Deutschen Versicherungswirtschaft (GDV) in einer Studie, die auf wackeliger Grundlage eine Zunahme der Klimaschäden suggerierte.  Gerade Stefan Rahmstorf scheint hier in der Vergangenheit in Punkto Münchener Rück wenig Berührungsängste gehabt zu haben, wie klimaskeptiker.infokenntnisreich dokumentiert hat.

Im Kapitel “Das Klima hat sich immer geändert” seines Buches fehlt zudem jeglicher Hinweis auf natürliche Temperaturschwankungen der letzten 10.000 Jahre. Die wichtigen Begriffe „Römische Wärmeperiode“, „Mittelalterliche Wärmeperiode“ oder „Kleine Eiszeit“ wollen einfach nicht fallen. Was ist das für ein Buch, das ohne sie auskommen kann? Offensichtlich arbeitet Graßl immer noch auf Basis der diskreditierten Hockeystick-Kurve.

Schön auch sein Ablenkungsmanöver nach dem klassischen Vorbild von Al Gore’s Film „Eine unbequeme Wahrheit“. Auf Seite 15 beschreibt Graßl die gute Korrelation zwischen CO2 sowie Temperatur während der letzten 750.000 Jahre und postuliert die Erwärmung vor allem durch Treibhausgase. Leider vergisst er gänzlich zu erwähnen, dass das CO2 der Temperatur um 800 Jahre hinterherhinkt, und dass das CO2 der Atmosphäre wohl überwiegend durch Ausgasung aus den sich erwärmenden Ozeanen stammt. Dies relativiert die suggerierte Wärmewirkung des CO2 zu dieser Zeit signifikant. Der Fehlschluss wurde bereits Al Gore angekreidet und ist Mitgrund dafür, dass dessen Film laut Gerichtsbeschluss an britischen Schulen nicht mehr unkommentiert gezeigt werden darf.

Eine der jüngsten Äußerungen von Graßl zum Klimawandel betrifft unser Buch „Die kalte Sonne“. Auf die Frage, was er denn von dem Buch halte, antwortetet er im NDR Fernsehen im Februar 2012: “Ach, eigentlich habe ich keine Lust zu solchem Stuss irgendwas zu sagen”. Ein paar Tage später verspürte er offenbar doch noch Lust und äußert sich weniger einsilbig auf klima(rats)retter.info. Allerdings bleiben seine Aussagen auch hier so rätselhaft, dass man nicht richtig schlau daraus wird.

Noch einmal: Es geht hier nicht um eine schadenfrohe Fehlerschau. Jeder macht Fehler und jeder darf sie auch machen. Allerdings wäre es nur redlich, wenn man diese Fehlschläge später auch offen zugibt. Mit kosmetischen Reparaturversuchen ist es dabei nicht getan. Grundlegende Pfeiler des CO2-dominierten Klimamodells beginnen gerade einzustürzen. Die ertappten Fachwissenschaftler sollten die Gelegenheit nutzen und die Probleme ehrlich und ergebnisoffen diskutieren. Ein wenig Schmerzen wird dies zwar bereiten, aber der wissenschaftlichen Wahrheitsfindung wird es auf jeden Fall nutzen. Und daran sollte uns doch allen gelegen sein.

Sebastian Lüning Co Autor von "De kalte Sonne"

zuerst erschienen bei "Die kalte Sonne" 

Mit Dank an Rainer Hoffmann und Klaus-Eckhard Puls für Recherchehilfen.



Energiewende verzweifelt gesucht! In Indien

Essen in einer Szene-Lokalität von Mysore: dreimal innerhalb von zwei Stunden verabschiedet sich der Strom kurzfristig, was die Gäste nicht die Bohne irritiert. Im „Namaste Café“ am Strand von Gokarna, die Füße im Sand, kühles „Kingfisher“-Bier vor der Nase, Dire Straits-Oldies und Neo-Hippies in Ohren und Augen. Wutsch! Licht, Musik und Deckenventilatoren aus. Bittesehr, es geht auch ohne – für ein Weilchen. Im unfassbar mythenverhangenen Channakeshava-Tempel, der als Kulisse eines neuen Indiana Jones-Films ideal wäre, beim abendlichen Puja-Ritual angestanden. Bevor es richtig losgeht, ist das Deckenlicht weg, es kommt nicht wieder. In diesem Fall nicht mal ein Manko, im Gegenteil – im Düsteren wirkt die Zeremonie noch spannender.

In den meisten Hotels finden wir auf dem Nachttisch vor, was im Deutschland meiner Jugend ebenfalls Standard war: einen Kerzenhalter nebst Kerze sowie eine Schachtel Streichhölzer. Long time no see!

Der Blackout gehört zu Indien wie die Kuhscheiße auf den Straßen. Sieht man fern, so bieten sich noch mehr Gelegenheiten als bei uns, mal aufs Klo zu gehen oder etwas anderes Sinnvolles zu tun, Taschenlampe vorausgesetzt. Denn außer durch Werbung werden die Sendungen zusätzlich von Stromausfällen zerschnibbelt. Nicht schlimm, würden nicht auch die Klimaanlagen ausfallen, was einem sofort Schweiß auf die Haut zaubert. Kurz, Indien bietet einen Flashback auf eine Energiesituation, wie sie in der deutschen Nachkriegszeit gang und gäbe war.

Natürlich ist das in Indien nicht überall so. Wo richtig Geld gemacht wird, die Wirtschaft im Overdrive brummt, wie in Pune (Poona), dem Zentrum der Autoindustrie oder in Bengaluru (Bangalore), dem Silicon Valley Indiens, klappt es mit dem Strom wie am Schnürchen. Ebenso im Finanzdistrikt vom Mumbai (Bombay) oder im nahen Bollywood, dem Epizentrum der quietschbunten Filmwirtschaft. Auch die ewigen, heftigen Spannungsabfälle, die in Indien eine ganze Branche am Leben halten – die Hersteller von „Voltage stabilisators“ nämlich –, sie sind an den Hotspots der Wertschöpfung kein Thema. Und auf Flughäfen wird es so gut wie niemals zappenduster.

Der Rest des Landes allerdings, der steht besser mit den Hühnern auf. Und geht mit ihnen zu Bett.

Yavendra Singh gebietet in neunter Generation über das weiße, weiträumige Fort Amla im Dörfchen Amla, welches nicht weit von großartigen Kultur- und Pilgerstätten wie Mandu, Omkareshwar oder Ujjain liegt. Er hat seinen altadelswürdigen Familiensitz in ein Rustikalhotel verwandelt, möchte interessierten Gästen auch das Dorf und das örtliche Handwerk nahebringen und so nebenbei für ein bisschen Aufschwung sorgen. Nicht ganz einfach, denn eine anspruchsvolle, betuchte Klientel hält es bestimmt nicht allzu lange in seinem Fort aus. Acht Stunden am Tag bekommt er Strom aus der staatlichen Leitung, mit dem man auch die Energie fressenden Klimaanlagen betreiben kann, erzählt Herr Singh. Und zwar so aufgeteilt: zwei Stunden am Morgen, vier am Nachmittag, zwei am Abend. Immer in dieser Taktung? „Manchmal sind es andere Zeiten“, lächelt Herr Singh, „garment will let us know“ (garment = Indglish für goverment).

Ansonsten ist da sein privater Generator, der kräftig Treibstoff schluckt und dennoch nicht ausreicht, sobald mehr als eine Handvoll Air Conditions eingeschaltet werden. Der Strom, der ihm vom Staat zugeteilt gibt, fällt übrigens zwischendurch immer wieder mal aus, bestimmt fünf Mal an jenem Abend, als wir im Fort waren. Eine Minute braucht der Generator, um zu übernehmen. Kurz darauf kehrt dann der öffentliche Saft zurück. Durch das Hin und Her werden elektronische Steuerelemente offenbar ganz meschugge. Jedenfalls müssen die Klimaanlagen in unseren Zimmern dauernd vom Personal neu eingestellt werden.

So sehr sich die Inder an ihre Stromkalamitäten gewöhnt haben – riesige Werbeschilder für Dieselgeneratoren der Marke Mahindra Powerol, Output zwischen 5kVA und 500 kVA, zieren die Straßenränder -, so genau wissen viele natürlich, dass es nicht endlos mit den Blackouts weitergehen kann. Indien, angehende wirtschaftliche Supermacht, setzt auf Atomkraft. In den Schulen, berichtet die „Times of India“ ohne einen Anflug von Nörgelei, werden neuerdings Animationsfilme gezeigt, in denen Bedenken gegen „Nuke energy“ listig entkräftet und die Schüler vom Segen der AKW überzeugt werden sollen.

Soweit sollte man hierzulande lieber nicht gehen. Wäre aber schön, wenn deutsche Schüler über Stromerzeugung, -transport und -speicherung etwas mehr erführen als die üblichen GlaubeLiebeHoffung-Mantras der rotgrünen Lehrerschaft, deren Informationsquellen sich zumeist in „taz“, „SZ“ und „Freitag“ erschöpfen.

Volksmacht und Elektrizität ergäben zusammen Kommunismus, glaubte Lenin (die Nummer drei, den unverzichtbaren Genossen Mauser, erwähnte er nicht). Wie auch immer: spätestens seit Mitte des 20. Jahrhunderts war keine Region dieser Welt mehr wirtschaftlich konkurrenzfähig, die nicht über eine stabile, nachhaltige, bei jedem Wind und Wetter funktionierende Stromversorgung verfügte. Mit dem Beginn des Computerzeitalters ist Strom endgültig zur wichtigsten Basis für den Erfolg von Volkswirtschaften geworden. Nur ein bisschen indische Verhältnisse in Deutschland, das würde schon reichen, um eine verzweigte, hoch entwickelte Informationsgesellschaft zu destabilisieren.

Das ahnungslose Hochjazzen der Merkelschen Energiewende durch ihre Medien-Partisanen ist bestenfalls die Phantasterei von Leuten, welche in ihrer Kindheit nicht mal mit dem Kosmos-Baukasten „Der kleine Elektromann“ gespielt und auf diese Weise wenigstens eine Ahnung davon gewonnen haben, was es mit Volt und Watt, Ampère und Ohm so auf sich hat. Schlimmstenfalls ist das Abschalten!-Gedöns die altbekannte Leier linker und rechter Biokohlköpfe – historisch schon von Petra Kelly und Baldur Springmann intoniert -, welche seit den 1970ern eine tiefe Sehnsucht eint – die nach der Abschaltung der Bundesrepublik als florierende Industrie- und Exportnation.

Morgenthau mit Öko-Siegel, das war immer der Traum der Vollkornschrate.

Und dann gibt es noch welche, die ernstlich wähnen, der Rest der Welt werde sich früher oder später entschließen, am deutschen Energieabschaltwesen zu genesen. Diese Menschen brauchen dringend Hilfe. Am besten stationäre.

Das alles wird einem bewusst, wenn man durch Blackout-Indien fährt. Erleuchtend, so eine Reise. Auch ohne spirituellen Überbau. 

Wolfgang Röhl;

zuerst erschienen in ACHGUT




Welche Rolle spielen die Treibhausgase ? – Teil 2

Teil 2: Wie die Wettersysteme allein durch die Sonne angetrieben werden

 

Abbildung 14 (Quelle: www.elnino.info) zeigt die von El Niño betroffenen Gebiete weltweit. Die Monate, in denen diese Auswirkungen stattfinden, sind mit deren Anfangsbuchstaben aufgeführt (z.B. bedeutet OND "Oktober-November-Dezember"). Deutlich ist eine Konzentration zwischen 30° nördlicher und südlicher Breite zu verzeichnen. Dies sind die Einflussgebiete der Passatwinde. Warum dies so ist, gleich mehr.

Wissenschaftler aus Australien und Neuseeland (Prof. Robert M. Carter von der James Cook University in Australien) haben in ihren Untersuchungen den Zusammenhang zwischen der ENSO-Schwingung (El Niño/Southern Oszillation) und dem Weltklima bereits aufgezeigt, wenn auch nicht den Grund dazu erkannt. Sie veröffentlichten ihre Studie, die auf gut erfassten Messdaten der vergangenen 50 Jahre zurück griff, im "Journal of Geophysical Research". Ihr Ergebnis: Je stärker der jeweilige El Niño war, desto deutlicher stieg in der Folge die globale Temperatur an, was auch Abbildung 13 überdeutlich zeigt.

Die Forscher geben an, dass ca. 70% der zuletzt beobachteten Erwärmung auf die El Niño-Tätigkeit zurück zu führen ist (Anmerkung: Wie der Autor zeigte und noch zeigen wird, sind dies 100% – Prof Marotzke muss mit seinen über 90% auf THG wohl auf einem anderen Planeten und in einer anderen Welt zu Hause sein, in der Welt der Computerspiele, in der alles möglich ist und in der sich auch das PIK eingerichtet hat). Es habe sich gezeigt, dass etwa 6 Monate nach einem El Niño-Ereignis die globalen Temperaturen, je nach Stärke des El Niño anstiegen. Blieben dagegen El Niño-Ereignisse über längere Zeit aus, soll dies zu einem globalen Rückgang der Temperaturen geführt haben. Die folgenden Abbildungen geben den Zusammenhang wieder.

Abbildung 15 links zeigt den SOI (Southern Oscillation Index, dunkle Linie) und die GTTA (Global Tropospheric Temperature Anomalies, helle Linie). Deutlich sind die Einflüsse der starken Vulkaneruptionen des El Cichon und Pinatubo zu erkennen, durch die die Globaltemperaturen zeitweise zurückgingen. Deutlich zu sehen, dass außerhalb der Vulkanereignisse eine hohe Korrelation gegeben ist. In der rechten Abbildung sind diese Einflüsse bereinigt. Quelle: McLean, de Freitas, Carter, ”Influence of the Southern Oscillation on tropospheric temperature”, Journal of Geophysical Research Atmospheres. Keine der Zeitreihen hat auch nur im entferntesten einen Zusammenhang mit der atmosphärischen CO2-Konzentration.

Die Forscher gehen weitgehend von natürlichen Ursachen der globalen Temperaturtrends aus.

 

Abbildung 16: Die "Enso" (El Niño und Südliche Oszillation) genannte Schwingung hat Auswirkungen auf die Großwetterlagen weltweit (Abbildung, Quelle: South Carolina State Climatology Office). Die als ENSO benannte natürliche Schwingung hat über den pazifischen Raum Auswirkungen auf die Globaltemperaturen, Nord- und Südamerikas, Afrikas und Europas. Wissenschaftler des MPI-M und der Universität von Cambridge (UK) hatten herausgefunden, dass auch ein Zusammenhang zwischen El Niño-Ereignissen und dem Winterverlauf in Deutschland besteht, Davide Zanchettin, Hans-F. Graf, Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ (Journal of Geophysical Research, Vol. 117, Do1102, 10 PP., 2012, doi: 10.1029/2011JD016493).

Über dem tropischen Atlantik ruft El Niño Luftströmungen hervor, die der Bildung starker Wirbelstürme entgegenwirken. So ist denn auch in La Niña-Jahren (das Gegenteil von El Niño), die Hurrikantätigkeit ausgesprochen niedrig. Warum dies so ist, später mehr.

Bereits die Untersuchungen der ETH Zürich, Prof. Dr. Brönnimann, zeigen Auswirkungen auf Europa, (S.d.W. 03/05, “Pazifik ließ Europa frieren“). Er hat anhand von Untersuchungen nachgewiesen, dass in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung vorlag, die auf El Niño-Ereignissen beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Die Temperaturanomalien sind in folgender Abbildung vom ihm aufgetragen.

 

Abbildung 17 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und die Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist. Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und frostige Kälte im Nordpazifik. Prof. Brönnimann fand heraus, dass das El Niño-Ereignis einen schwachen Polarwirbel auslöste, der für die große Kälte verantwortlich war. Warum dieser schwache Polarwirbel entstehen musste, später mehr.

Sheffield et al. (2009) fanden heraus, dass große Dürren mit der ENSO (El Niño Southern Oszillation) und den nordpazifischen und atlantischen Meeresoberflächen-Temperaturen (SSTs) zusammenhängen. Der Zusammenhang mit der ENSO wird durch eine Studie über den Südwesen der USA durch McCabe et al. 2010 belegt. Warum dies so ist, wird noch anhand der sich ändernden Windsysteme bei einem El Niño-Ereignis erklärt.

Prof. Malberg (ehem. Institutsleiter Meteorologie der Freien Universität Berlin) fand heraus, dass die Änderungen in den Globaltemperaturen unmittelbar mit El Niño/La Niña-Ereignissen gekoppelt sind, “La Niña – El Niño und der solare Einfluss: Die Klimaentwicklung 1950 – 2008“.

In Abbildung 10 (Teil 1) hatte ich Ihnen belegt, wie alle El Niño-Ereignisse im Betrachtungszeitraum und damit die ermittelten globalen Temperaturen durch 3 Sonnenparameter ausgelöst und bestimmt werden. Da in wissenschaftlichen Untersuchungen oft 2 Klimaperioden von je 30 Jahren betrachtet werden, möchte ich dies an dieser Stelle nicht versäumen.

Abbildung 18 zeigt oben, die Sonnenwindstärke, darunter den El-Niño 3.4 der NOAA ab 1950 und den Schwabe-Zyklus der Sonne. Dazu, die atmosphärische CO2-Konzentration, die ohne Zusammenhang zu El Niño-Ereignissen ist. Ganz unten, das Polarfeld der Sonne (durchgezogene Linie) ab 1951, Quelle: Ahluwalia und Ygbuhay, “Is there an instrumental drift in the counting rate of some high latitude neutron monitors?“ Auch im Zeitraum von 1951 – 1980 fallen alle El-Niño-Ereignisse mit der Sonnenaktivität zusammen:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Dem Polarfeld der Sonne (Maximum = blaue und grüne Ovale)

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies nichts zu tun. Mit dem vorliegenden Nachweis, dass alle El Niño-Ereignisse im Betrachtungszeitraum von 1951 bis 2010 durch die solare Aktivität unmittelbar ausgelöst werden, ist der wissenschaftliche Beweis abgerundet, dass die Erwärmung (und Abkühlung seit Beginn dieses Jahrhunderts) einzig auf die Sonne zurückzuführen ist.

Bleibt noch die Frage zu klären, wie die gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt und auf welchen physikalischen Grundprinzipien dieses basiert. Hier geben die Antwort, die Passatwinde (englisch: Trade Winds), also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird. Die Passatwinde sind ein beständiges Windsystem, welches sich auf beiden Seiten des Äquators bis zum 24 Breitengrad ausbildet. Es liegt damit im Bereich der Hadley-Zellen und unterteilt sich in den Nordost-Passat (Nordhalbkugel) und in den Südost-Passat (Südhalbkugel). In der Wissenschaft ist unstrittig, dass die Passatwinde durch die Sonne entstehen und ihre Ausbildung und Stärke von der Sonnenscheindauer und Stärke abhängt. Durch erwärmte, aufsteigende Luftschichten (Tiefdruckgebiet entlang der innertropischen Konvergenzzone) die an der Tropopause vom Äquator weg strömt und ca. 30° Nord oder Süd wieder zu Boden fällt (Hochdruckgebiet) entsteht ein Druckgefälle, wodurch sich Ausgleichströmungen zwischen den Hoch-/Tiefdruckgebieten bilden. Durch die Corioliskraft werden sie entsprechend abgelenkt.

Abbildung 19 (http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung, sowie den Luftströmungen und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Unnötig zu erwähnen, dass auch hier der atmosphärische CO2-Pegel (kleine Abbildung) irrelevant für die Windereignisse ist.

Da die Passatwinde Ausdruck der Hadley-Zellen sind und diese in einem Band zwischen ±30° um den Globus verlaufen, wird der unmittelbare solare Einfluss auf die Hadley-Zellen untersucht.

Die Hadley-Zelle ist ein wesentlicher Bestandteil der atmosphärischen Zirkulation. Sie entsteht durch die meridional unterschiedliche Sonneneinstrahlung und dem daraus resultierenden Energietransport von den Tropen zu den Polen. Diese thermisch angeregte Zirkulation reicht jedoch im ersten Schritt nur bis zum 30-Breitengrad, weil dort die Strahlungsenergie deutlich zu fallen beginnt (Abbildung 22). Die daraus entstehende Hadley-Zelle ist als globale (verläuft um den ganzen Globus) Vertikalzirkulation zwischen dem Hochdruckgürtel der Subtropen und der äquatorialen Tiefdruckrinne ausgebildet. Die Hadley-Zelle kann näherungsweise als ein in sich abgeschlossenes System betrachtet werden.

 

Abbildung 20: Über der ITCZ (innertropischen Konvergenzzone) steigt aufgrund der Konvektion warme und feuchte Luft auf, wobei dort ein Tiefdruckgebiet entsteht. Die Luft expandiert, kühlt dabei ab, was zur Wolkenbildung führt. Durch die Corioliskraft wird die Luft abgelenkt. Im Bereich des Subtropenhochdruckgürtels sinkt die kalte und trockene Luft (schwerer) ab, wodurch am Boden ein Hochdruckgebiet entsteht. Die sich dabei erwärmende Luft nimmt über den Ozeanen große Mengen an thermischer Energie in Form von fühlbarer und latenter Wärme (Luftfeuchte) auf und fließt als Nord/Ost-Passat zum Äquator zurück. Der übrige, meridionale Energietransport findet über die sich anschließenden Zellen durch horizontale zyklonale (entgegen dem Uhrzeigersinn drehende) und antizyklonale (mit dem Uhrzeigersinn drehende) Zirkulation statt. In der Ferrel-Zelle wird die Energie durch die Westwinddrift abgeführt. Diese entsteht aus thermodynamischen Gründen wegen des Temperaturgegensatzes der Luft von ca. 20 K zwischen 30° und 60°-Breite.

Wie Untersuchungen zeigen, hat sich die Hadley-Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus) um 5-8 Breitengrade ausgedehnt und sich dessen Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

Xiao-Wei Quan et al. “Change of the Tropical Hadley Cell Since 1950“, untersuchten die Hadley-Zellen anhand des Hadley-Zirkulations-Index. Dies ist die Abweichung vom Mittel der zonalen Meridiangeschwindigkeit in der 200 hpa-Höhe minus des Mittels der zonalen Meridiangeschwindigkeit in 850 hpa-Höhe und steht für die Luftströmungen in der Hadley-Zelle (folgende Abbildung, obere Zeitreihe, Y-Achse = 1010 kg/s).

Abbildung 21: Wie nicht anders zu erwarten, sind die El Niño-Ereignisse unmittelbar mit der Aktivität in der Hadley-Zelle gekoppelt (obere Zeitreihe). Wie bereits gezeigt, sind die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley-Zellen entspricht (kleine Abbildung, oben). Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley-Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, wie bereits bewiesen, der solaren Aktivität unmittelbar zuzuordnen. Der Hadley-Zirkulations-Index wird aus der gemittelten Windgeschwindigkeit der 200 hpa-Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle. Die Abbildung zeigt, dass mit Eintreten eines El Niño-Ereignisse und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen und in den unteren Schichten abnehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El-Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten. Auch hier spielt CO2 keine Rolle. Die zonalen Energieströme zeigt Abbildung 22.

Abbildung 22 zeigt das Jahresmittel der Energieflüsse der Atmosphäre in Abhängigkeit von der geographischen Breite nach Häckel, 1990. Neben der Strahlungsbilanz dominieren die Flüsse von sensibler und latenter Wärme (Luftfeuchte). Die Advektion von Wärme durch die Luft, verhindert die Auskühlung der Pole. Gut zu sehen, wie Energie meridional transportiert wird, Quelle: Häckel, 1990, “Meteorologie“.

Aus dem Energietransport zwischen der Hadley-Zelle und den nördlichen Breiten, bzw.  dem Luftmassenstrom über die Hadley-Zelle zu den nördlichen Breiten wird ersichtlich, dass El-Niño-Ereignisse über den Bereich der Hadley-Zelle Einfluss auf das Wettergeschehen haben, wie dies aus den Untersuchungen von Prof. Brönnimann und des MPI-M, sowie Prof. Malberg hervorgeht. Der Grund dafür liegt im Drehimpulserhaltungssatz.

Abbildung 23 zeigt das Druckverteilungsmuster und die Windverhältnisse der bodennahen Troposphäre. Im Absinkbereich der Hadley-Zelle bilden sich Hochdruckgebiete, wodurch dort trockenes Klima vorherrscht. So liegen in ihrem Bereich die Wüstengebiete der Erde. Durch die Passatwinde fließt ein stetiger Rückstrom (Oststrom) in Richtung Äquator. In der IPCZ fließt daher ein schwacher Ostwind. In der Westwinddrift der Ferrel-Zelle fließen die Frontensysteme der Tiefdruckgebiete nach Osten und zwar entlang des Polarfrontjet, an dem sich fortwährend Tiefdruckgebiete bilden. An der sich angrenzenden Polar-Zelle entsteht an der absinkenden schweren Kaltluft ein Hochdruckgebiet. Zwischen dem Druckgradient und der Corioliskraft bildet sich dort ein Gleichgewicht, welches einen schwachen Ostwind verursacht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Verändert sich z.B. der Drehimpuls auf Grund einer Geschwindigkeitszunahme der Luftströmungen in der Hadley-Zelle, wie im Hadley-Zirkulations-Index zu sehen, so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley-Zelle erhöht (bei einem El Niño-Ereignis), so sind durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrel-/Polarzelle stellen sich geringere Drehimpulse ein, was zu einem ruhigen, kalten Winter führt (siehe Untersuchungen von Prof. Brönnimann und des MPI-M). Jetzt wird auch sichtbar, warum sich ein schwächerer Polarwirbel ausbilden muss. Der Drehimpulserhaltungssatz lässt gar nichts anderes zu. Auch, dass Dürreperioden in den USA mit der ENSO verbunden sind. Die Winde in der oberen Troposphäre des Westwindgürtels, sowie der Polarfrontjet werden wegen der Verringerung des Drehimpulses und der damit verbundenen geringeren Luftmassenbewegung schwächer.

Da die Hadley-Zelle zeitlich begrenzt als geschlossenes System betrachtet werden kann, gilt für das geschlossene System der Energieerhaltungssatz. D.h., aufgrund der Trägheit und des Energieerhaltungssatzes muss eine Erhöhung der Windgeschwindigkeiten in der Höhe (Hadley-Zirkulations-Index) mit einer zeitlich begrenzten Verringerung der Windgeschwindigkeiten in niedriger Höhe verbunden sein, wodurch bei einem solaren Ereignis, dass zeitlich verzögert und zwar zu festen Zeiten, zu einem El Niño führt, die Passatwinde erschlaffen und den El-Niño damit erst auslösen. Ein El Niño-Ereignis wird bekanntlich durch die Erschlaffung der Passatwinde ausgelöst! Da die Hadley-Zelle jedoch mit der Ferrel-Zelle im Energieaustausch steht, wird die Energiezunahme, die ein solares Ereignis auslöst (und die Xiao-Wei Quan et al. gemessen haben, ohne jedoch zu wissen, auf was diese Änderungen im einzelnen beruhen, sie also auslöst), über diesen und den Jetstream wieder abgebaut, wodurch sich die „normalen“ Bedingungen wieder einstellen und die Passatwinde wieder an Kraft gewinnen und das El Niño-Ereignis zu Ende geht.

Aufgrund Naturbeobachtung und dem Anwenden physikalischer Grundgesetze lassen sich sowohl die Wettersysteme, El Niño-Ereignisse, als auch der global ermittelte Temperaturgang beschreiben. THG werden für nichts dergleichen benötigt und kommen folglich in der Betrachtung nicht vor, da weder Auswirkungen zu erkennen, noch nachweisbar sind. THG werden zur Erklärung nicht benötigt, mehr noch, sie widersprechen der tatsächlichen Beobachtung. Sie scheiden damit als Verursacher einer Klimabeeinflussung gänzlich aus!

Wir sollten uns in der Wissenschaft wieder mehr mit der Natur und ihrer Beobachtung befassen, wie dies durchgehend bis zur Treibhausgashysterie noch der Fall war. Denn, wie Einstein dies so treffend beschrieb: “Unsere Theorien sind freie Schöpfungen des menschlichen Geistes, und wir können nie sicher sein, dass sie die wirklichen Verhältnisse zutreffend darstellen.“ Die Richtigkeit einer Theorie vermag nur die Naturbeobachtung zu liefern. Entweder in Experimenten oder im „Labor“ der Natur selbst. Deutschlands bekanntester Naturforscher ist Alexander von Humboldt. Ein weiterer Vertreter ist Charles Darwin. Ihre Verdienste für die moderne Wissenschaft sind unbestritten.

Heute haben teilweise bezahlte Hasardeure das Regiment übernommen, die sich in Palästen abschotten und mit der modernen Glaskugel, den sog. Supercomputern, versuchen, Theorien zu beweisen. Gelingt dies nicht oder liefert die Natur gar die Beweise, die die Theorie stürzen, so wird durch Tricks oder gar Fälschungen versucht, die Theorie und damit das eigene Sein zu retten. All dies, mit enormen Geldsummen, unseren Steuermitteln, realisiert. Eine Schande für die Politik, wie im Namen sog. THG Unsummen an Steuergeldern und Vermögen verpulvert werden. Dass sich die deutsche Presse von einem investigativen Journalismus schon vor Jahren verabschiedete, verwundert angesichts der dort herrschenden naturwissenschaftlichen Blindheit nicht. Wegen der dortigen ideologischen Verblendung auch nicht, dass Lobbyisten aus NGO´s oder dem industriellen „Grünen Komplex“ (oftmals ein und dasselbe) unzensiert und ungeprüft ihre Lobbyvorstellungen unters Volk streuen und Lüge und Betrug als vermeintliche "Wahrheit" verkaufen. Angesichts der verbreiteten Desinformationen und Fälschungen möchte der Autor seinen Artikel denn auch mit einem Zitat des früheren Präsidenten der Max Planck Gesellschaft, Prof. Dr. Hubert Markl abschließen:

“Es ist nicht zu bestreiten, dass es auch in der Wissenschaft – häufiger als uns Wissenschaftlern lieb ist – Lug und Trug gibt, nicht nur fahrlässige Schlamperei, sondern wirklich absichtlichen Betrug.“

Raimund Leistenschneider – EIKE

 Teil 1 finden Sie hier

Der vollständige Beitrag ist im Anhang als pdf herunter ladbar

Related Files




Zwischen Stromausfall und Super-Gau

Euphorie einst beim Einstieg in die Kernkraft, Euphorie jetzt auch beim Ausstieg

Der Tagungsleiter Eberhard Bohne erinnerte in seiner Einleitung daran, wie in den 1950er und 1960er Jahren die Kernenergie eingeführt wurde. Damals sei das gefeiert worden als Beginn einer neuen Ära von Technik, Wissenschaft und Wirtschaft. Es sei  ebenso mit technischer Euphorie und nationalem Pathos verbunden gewesen wie heute der Ausstieg aus dieser Energie und die volle Hinwendung zu den sogenannten Erneuerbaren Energien (EE). Der Jura-Professor Bohne lehrt an der DHV Verwaltungswissenschaft, Politik und Recht im Bereich von Umwelt und Energie.

Die Kosten? Eine falsche Frage, irrelevant

Nicht ohne Süffisanz sagte Bohne: „Ähnlich wie heute der Bundesumweltminister Fragen nach den Mehrkosten der Kilowattstunde Strom aus Erneuerbaren Energien als ‚falsch’ abtut, wurden damals die Fragen nach den Mehrkosten des Kernenergiestroms als irrelevant bezeichnet. “ Wer damals die Kernenergienutzung kritisch hinterfragt habe, sei schnell als Nörgler und Ignorant nationaler Interessen ausgegrenzt worden. Ähnliches erlebten heute jene, die die Förderung der Erneuerbaren Energien kritisierten, weil diese nur technisch, aber nicht ökonomisch orientiert sei.

Ethische Rechtfertigung des Ausstiegs zweifelhaft

Bohne wandte sich dagegen, „den Verstand auszuschalten und kritische Fragen nach den technischen, wirtschaftlichen und politischen Risiken der Energiewende beiseite zu schieben“.   Das beginne bereits bei der Grundsatzfrage, ob der Ausstieg aus der Kernenergie ethisch geboten sei. Derzeit werde sie überwiegend bejaht. Von ihm freilich nicht: „Mir erscheinen die vorgebrachten Argumente für einen ethisch gebotenen Kernenergieausstieg zweifelhaft. “ Er führte das näher aus und warf der Ethik-Kommission vor, sie mache es sich beim Abwägen der Risiken zu einfach. Sie beurteile die Energiewende als ethisch gerechtfertigt, „ohne die entscheidende Risikoabwägung vorgenommen zu haben“.

Was die Ethik-Kommission nicht berücksichtigt

Die Ethik-Kommission habe nämlich nicht einbezogen, dass mit der Energiewende eine höhere Konzentration von „Treibhausgasen“ verbunden sei. Damit erhöhe sich das Risiko einer Klimaerwärmung „mit den Folgen der Überflutung weiter Landstriche und der Wüstenbildung auf der Erde“. Bohne ließ offen, ob auch er an diesen Kausalzusammenhang glaubt, aber im wesentlichen mit Klimaerwärmung wird die Energiewende politisch begründet. Da die (treibhausgasfreie) Kernkraftnutzung zu so einer Konzentration nicht beiträgt, wäre das Klima bei der Kernkraft besser aufgehoben. Denn die sogenannte Grundlastversorgung mit Strom müssen, wenn die Reaktoren verschwunden sind und wenn kein Wind weht und wenn die Sonne nicht scheint, fossile Kraftwerke übernehmen. Die jedoch tragen zur Konzentration von „Treibhausgas“ (vor allem CO2) bei. Die Ethik-Kommission dagegen, so Bohne, stelle nur lapidar fest, dass es für Klimaprobleme und kerntechnische Unfälle keine „sinnvolle Vergleichsbasis“ gebe; eine Vermutung, die Klimaschutzziele würden durch den Ausstieg aus der Kenkraftnutzung kompromittiert, sei nicht belegt.

Die zentrale Frage: Bleibt die Stromversorgung sicher und bezahlbar?

Bohne ging es mit dem Forum darum,  „einen kritischen Überblick über die vielschichtigen Probleme des Kernenergieausstiegs und Anstöße für eine differenziertere Sichtweise zu geben als sie vielfach in der plakativen öffentlichen Auseinandersetzung anzutreffen ist“. Die siebzig Teilnehmer waren Fachpublikum. Sie kamen aus Ministerien, Behörden, Ämtern, Kommissionen, Gemeinden, einschlägigen Unternehmen, Verbänden. Der abrupt von Kanzlerin Merkel im März 2011 verkündete und von willfährigen Parlamentariern im Juni 2011 beschlossene Ausstieg aus der Kernkrafttechnik macht die Versorgung mit Strom unsicherer und teurer. Das liegt zwar geradezu auf der Hand, wird aber von Bundesregierung, anderen Ausstiegsbefürwortern und Profiteuren dreist geleugnet. Ob der Ausstieg aus der Kernkrafttechnik und der angestrebte starke Ausbau der Stromerzeugung mittels Wind, Sonne und „Biogas“ wirklich die Stromversorgung sicher und wirtschaftlich macht, ist, wie Bohne sagte, die zentrale Frage

BMU: Die Strompreise als Folge der Energiewende steigen nicht

Franzjosef Schafhausen trug das Energiewendekonzept der Bundesregierung vor und sagte, die Strompreise würden als dessen Folge nicht steigen. Er ist Ministerialdirigent im Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU). Die Energiewende sei ein Weg zur Energie der Zukunft. Er stellte die Energieversorgung dieser Wende als sicher, bezahlbar und umweltfreundlich dar. Die Bundesregierung habe in Frühjahr 2011 nicht ein neues Energiekonzept beschlossen, sondern nur Maßnahmen, mit denen das bestehende Energiekonzept konkretisiert und schneller umgesetzt werde. Das Konzept ziele auf die umfassende Umstrukturierung der deutschen Energieversorgung. Deutschland solle eine der effizientesten und klimafreundlichsten Volkswirtschaften der Welt werden  – bei  wettbewerbsfähigen Energiepreisen und hohem Wohlstandsniveau. Er unterschlug nicht die Probleme, Befürchtungen und Engpässe, aber bagatellisierte sie oder stellte sie als überwindbar hin. Sein Fazit: „Der Ausstieg aus der Nutzung der Kernenergie ist im geordneten Verfahren technisch-wirtschaftlich möglich.   Wir werden beweisen, dass es geht. Die Energiewende ist nicht gescheitert. Wir starten durch. “

E.ON: Wenn Stromausfall, dann dauert er Tage

Gegenwind von Guido Knopp, Abteilungsleiter beim Stromerzeuger E.ON AG, erhielt Schafhausen nicht gerade. „Blutige Auseinandersetzungen“ zwischen Unternehmen und Behörden werde es nicht geben. Die überwältigende Zustimmung zur Energiewende in Bundestag und Bundesrat müsse man respektieren, auch wenn man es nicht für richtig halten müsse. „Aber wir werden nun mitmachen. Es geht ohne Kernkraft, und es wird funktionieren. “ Knopp beschränkte sich daher auf einige Mäkeleien. Nur „einen Kapitalfehler“ hielt er der politischen Führung vor: Sie habe nicht vom Ende her gedacht und geplant. Was er damit aber konkret meinte, erklärte er nur dürftig und daher nicht überzeugend. Um so klarer seine Antwort auf eine Frage zur von der Wende verursachten „Blackout-Gefahr“ in der Stromversorgung: „Wenn Blackout, dann nicht für eine Stunde, sondern für Tage. So lange dauert es nämlich, das Netz wieder auf die Frequenz von 50 Hertz zu bringen. “

RSK: Kernkraftwerke sind sicher betreibbar

Der Vorsitzende der Reaktor-Sicherheitskommission (RSK), Rudolf Wieland, sprach über erforderliche Maßnahmen für die bestmögliche Sicherheit kerntechnischer Anlagen. Es war ein Plädoyer für die Kernkraftnutzung auch weiterhin, weil man die Anlagen sicher betreiben kann, wenn man sie (zusammen mit den Menschen) sicher genug macht: mittels robuster Technik, umfassender Organisation und hoher Qualität der Mitarbeiter. Er führte vor, warum die Kernschmelzunfälle von Three Mile Island (1979), von Tschernobyl (1986) und von Fukushima  (2011) hätten vermieden werden können: In allen drei Fällen sind die Absicherungen nicht hinreichend gewesen.

Strom aus Kernkraft kein technisches, sondern ein emotionales Problem

Ebenfalls keinen Ritt gegen die Nutzung von Kernkraft in der Stromerzeugung unternahm der Präsident des Bundesamtes für Strahlenschutz Wolfram König, ohne dabei ihre Gefährlichkeit zu verharmlosen. „Nehmen Sie die gesundheitlichen Gefahren ernst“, warnte er. König sprach über die Entsorgung abgebrannten Nuklearmaterials in Europa und Deutschland. Diese sei weniger ein technisches, sondern („Wie stehst Du zur Kernkraft?“) ein emotionales Problem. Wenn es nicht gelinge, die Bevölkerung zu überzeugen, gelinge die Lösung zum Entsorgen nicht. Das Vertrauen könne man nur durch Transparenz, Offenheit und gesellschaftliche Beteiligung wiederherstellen.

Das Problem der Endlagerung radioaktiven Abfalls

König beschrieb, wie Konzepte zur Endlagerung erfolgreich sein können. Er gab dazu einen internationalen Überblick. Deutschland müsse jedoch die Endlagerung für sich selbst lösen, international hält König das nicht für möglich. Endlagerungsfähig seien die Gesteinsformationen Steinsalz, Ton/Tonstein und Kristallin. In Deutschland sind die beiden ersten Formationen vorhanden. In einer Prognose, was in Deutschland an Nuklearabfall bis 2040 zu entsorgen ist, machte König klar, dass gut 90 Prozent der bis dahin rund 309 000 Kubikmeter Abfälle eine Wärme entwickeln, die zu vernachlässigen sei, und wesentliche Wärme nur gut 9 Prozent (die abgebrannten Brennelemente) entwickeln. Die bei weitem größte Abfallmenge sei also nur schwachradioaktiv, starkradioaktiv die kleinste Abfallmenge.

Die Gefahr von Netzzusammenbruch und Stromausfall

Dass acht deutsche Kernkraftwerke sofort abgeschaltet worden sind und damit 7 (von insgesamt 82) Gigawatt der Strom-Erzeugungskapazität quasi über Nacht fehlten, kritisierte der promovierte Elektro- und Energietechniker Gerhard Weissmüller, auch Honorarprofessor des Karlsruher Instituts für Technologie. Die Stromnetzführung komme durch die abrupte Abschaltung „häufiger in Grenzbereiche“, womit er die große Gefahr von Stromausfällen meint. Dem pflichtete später auch Christian Hewicker von der KEMA Consulting GmbH bei: „Das größte Risiko ist, dass wir mit dem Netzausbau schritthalten. “

Kritik an den unwirtschaftlichen Schritten der Energiewende

Weissmüller sprach als Geschäftsführer der von ihm gegründeten DEEnO-Energie AG in Speyer. Die Abkürzung steht für „Dezentrale Energie-Erzeugung, Netze und Optimierung“. Er erhofft sich von der Energiewende einen – wie sein Vortragsthema lautete – Mega-Impuls für die zukünftige Entwicklung der Stadtwerke. Aber bisher sei sie dieser Impuls nicht. Was die deutsche Politik als Ziel anstrebe, habe er zwar verstanden, aber die Wege dahin zieht er in Zweifel. „Jeder Schritt, den wir jetzt tun, muss wirtschaftlich sein. “ Das ist für ihn nicht der Fall. Wohl sei die Wende eingeleitet, „aber wir sind noch nicht durch den Wind“.

Ein Modell zur Optimierung lokaler Energieversorgung durch Stadtwerke

Doch sieht Weissmüller große Vorteile der Energiewende und sagte: „Schrittweise ist sie bis 2050 hinzukriegen. “ Ihm geht es darum, die  Energieversorgungssysteme energetisch, ökonomisch und ökologisch zu optimieren. Er will Strukturen einer dezentralen Energieversorgung aufbauen und die „Erneuerbaren Energien“ sowie die Kraft-Wärme-Kopplung darin einbeziehen. Weissmüller stellte sein Modell einer Optimierung der lokalen Energieversorgung (durch Stadtwerke) und der Netze vor.   Bis Ende 2011 ist er Technischer Vorstand der Technischen Werke Ludwigshafen (TWL) gewesen, und seit 2006 ist auch Vorstandssprecher der Deutschen Sektion im Europäischen Verband der unabhängigen Netzbetreiber (GEODE).

Eingriffe gegen Netzstörung stark gestiegen

Die Sorgen um Netzzusammenbrüche teilt auch Lex Hartman von der Geschäftsführung der Tennet TSO GmbH, die eines der vier großen deutschen Stromnetze betreibt. An Stromkapazität sei in Deutschland als Folge der „Erneuerbaren Energien“ mehr vorhanden als an Stromhöchstbedarf. Um Störungen im Netz zu verhindern, seien Eingriffe  früher dreimal im Jahr nötig gewesen, heute dreimal am Tag. Wegen der „Erneuerbaren“ seien 4500 Kilometer neue Überlandleitungen nötig. „Wenn wir die Energiewende wollen, brauchen wir die. Aber wie kriegen wir die Akzeptanz hin, nicht nur bei den Bürgern, auch bei Politikern?“ Tennet hat Ärger, weil das Unternehmen es finanziell und zeitlich nicht schnell genug schafft, den Windkraftstrom aus der Nordsee in den Süden zu leiten.

Beteiligung an der Planung für die Bürger viel zu kompliziert

Erschlagen fühlten sich die Forumsteilnehmer von den akribischen, langatmigen und ermüdenden Ausführungen über das neue Planungs- und Zulassungsrecht beim Ausbau der Stromnetze. Es ging um so kurzweilige Dinge wie Bundesbedarfsplanung, Nebenentwicklungsplan, Bundesfachplanung und Planfeststellung mit überaus zahlreichen Einzelheiten. Ministerialrat Christof Sangenstedt vom Bundesumweltministerium trug sie vor und beschrieb die neuen Planungsinstrumente und neuen Gesetze. Dabei hob er die umfassend und rechtzeitige Bürgerbeteiligung hervor, musste aber einräumen, dass dies für die Bürger technisch und juristisch viel zu kompliziert und unverstehbar ist. Aber das sei auch nicht das Ziel der Beteiligung. Es gehe vor allem darum, mehr Offenheit zu vermitteln, Akzeptanz herzustellen, zu überzeugen, dass ein faires Verfahren stattfinde, das man sich mit den Argumenten  auseinandergesetzt habe und dann ein vertretbares Ergebnis herausgekommen sei.

Kritik der Nachbarländer an Deutschlands Alleingang

Dass die deutschen Nachbarstaaten über den „teutonischen Furor“ der Energiewende alles andere als glücklich sind, führte Christian Hewicker vor. Dort sehe man die Auswirkungen der deutschen Wende auf sie selbst sehr kritisch. Bemängelt würden die rasche Umsetzung und der weitgehend unkoordinierte Ausbau der „Erneuerbaren Energien“. Es sei kein unerhebliches Risiko, dass „Gegenmaßnahmen“ der Nachbarn auch negative Auswirkungen auf den deutschen Strommarkt haben würden. Die nationale Energiepolitik der anderen EU-Staaten werde durch sehr unterschiedliche Prioritäten in den einzelnen Ländern bestimmt. Vorrang habe die nationale Versorgungssicherheit. Der Ausbau der „Erneuerbaren“ finde nur begrenzte Unterstützung. Die Kernenergie werde vor allem als sichere und kostengünstige Energiequelle wahrgenommen. In vielen EU-Ländern stelle sie eine akzeptierte und sogar gewünschte Option dar. Aber ohne Staatsgarantien würden neue Projekte nicht realisiert.

Schwärmen von Strom aus der Wüste und von „Schwarmstrom“

Michael Düren, Professor am Physikalischen Institut der Universität Gießen, begeisterte sich für Sonnenstrom aus der Wüste (Desertec). Ralph Kampwirth von der Lichtblick AG schwärmte vor vom Energiekonzept seines Unternehmens der „ZuhauseKraftwerke“ und des „Schwarmstroms“: Die mit dem Kleinkraftwerk erzeugte Wärme dürfen die Haushalte behalten, den Strom führen sie an die „Schwarmzentrale“ des Unternehmens ab.

Wortgeklingel vom Präsidenten des Bundeskartellamtes

Andreas Mundt, der Präsident des Bundeskartellamtes, redete zwar vom Wettbewerb, trat  aber beim Thema des Forums wenig kraftvoll für ihn ein. Er fand nur zu Äußerungen wie diese: „Was die Bundesregierung macht, geht ja alles in die richtige Richtung, aber nicht in die marktwirtschaftliche. “ Oder: „Wir können wegkommen aus dem regulativen Bereich, aus der regulativen Politik. Anders als durch Markt und Wettbewerb werden wir das nicht hinbekommen. “  Aber das Wie blieb dünn. Oder: „Die Energiewende ist eine scharfe Kurve, aber ich glaube, dass der Staat die Aufgabe hat, dies zu orchestrieren. “ Wortgeklingel, keine richtungweisende, entschiedene Vorstellung eines ordnungspolitischen Konzepts für diese zwangsstaatlichen Eingriffe, genannt Energiewende – eine große herbe Enttäuschung. Statt seiner hätte man sich Wolfgang Kartte selig hier gewünscht, den ersten Präsidenten dieses Amtes.

Der Naturschutz gerät bei der Energiewende unter die Räder

Die Präsidenten des Bundesamtes für Naturschutz (BfN), Beate Jessel, gab zwar vor, für den Naturschutz zu sprechen („Der Ausbau der Erneuerbaren Energien darf nicht zu Lasten der biologischen Vielfalt gehen“), aber gab ihn eloquent und erfinderisch nahezu auf, selbst wenn die Maßnahmen der Energiewende mit ihm sogar unübersehbar kollidierten. Zum Bau von Windkraftanlagen, der jetzt immer mehr auch in die Wälder einfällt, sagte sie: „Wir wollen auch dort Angebotsflächen bieten, nicht nur eine restriktive Haltung unseres Amtes, hier haben wir schon eine gute Steuerung. “ Ihr Credo zum Schluss: „Wir sind in der Pflicht, in Sachen Energiewende zu Potte zu kommen. “ Vorrang also dafür, aber nur den Nachrang für den Naturschutz. Und geradezu grotesk: „Der Ausbau der ‚Erneuerbaren’ ist aus Klimaschutz-, Nachhaltigkeits- und Naturschutzgründen notwendig und wird vom BfN befürwortet. “ In diesem Amt ist der Naturschutz bei der Energiewende schlecht aufgehoben und gerät unter die Räder.

Dr. Klaus Peter Krause; zuerst erschienen in „Freie Welt“

Weiterführende links zu den Themen Erneuerbare & Blackout

Ein klarer Fall von Realitätsverweigerung des CDU Abgeordneten Dr. Peter Tauber vom Main-Kinzig Kreis (mit Dank an Spürnase Frank Bohne)

Entwicklung der Solarenergie in Deutschland eine Erfolgsgeschichte

oder

Stromnetz geht plötzlich auf Alarmstufe „gelb“

http://www.welt.de/wirtschaft/energie/article106143921/Stromnetz-geht-ploetzlich-auf-Alarmstufe-gelb.html

Engpässe im Gasnetz erhöhen Blackout-Gefahr

http://www.manager-magazin.de/unternehmen/energie/0,2828,823007,00.html




Teil 1: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Vom Umgang mit der Wahrheit bei Forschern und Projektentwicklern

Den Auftakt bildete Frau Dona Laframbose, die die vermeintlichen weltweit besten Experten des IPCC untersuchte und Ihre Ergebnisse vortrug.

IPCC – Warum fast nichts, was Sie über das IPCC wissen, wahr ist

Donna Laframboise 

 Die kanadische Enthüllungsjournalistin Donna Lafromboise Autorin des Buches "The delinquent Teenager" (Der kriminelle Teenager) über die Qualifikation vieler der vermeintlich Weltbesten Klimawissenschaftler des IPCC (Durch den Schaltknopf cc auf dem Youtube Video kann man – wenn auch bei weitem nicht perfekt- eine Lautumschreibung in der gewünschten Sprache als Untertitel wählen) 

Spuren verwischen: Der “Weltklimarat” IPCC und sein Verständnis von Transparenz

Dr. Christopher C. Horner

Center for Energy and Environment – Competitive Enterprise Institute, Washington, DC 

Green Economy: Die neuesten Formen des Vetternwirtschafts-Kapitalismus

Dr. Christopher C. Horner

Center for Energy and Environment – Competitive Enterprise Institute, Washington, DC 

Climategate – Die Geschichte einer Vertuschung

Andrew Montfort

Klimawandel zwischen Modellen, Statistik und Ersatzreligion

Prof. Dr. Werner Kirstein

Institut für Geographie, Universität Leipzig 

 5. Klimapolitik – eine Gefahr für die Freiheit Prof. Dr. Gerd Habermann

Universität Potsdam, Hayek Society Germany

 Die weiteren Vorträge werden in den nächsten Tagen veröffentlicht.




Wenn es vorbeugend Bedarf für Immunität gibt, liegt eine Verbrechensabsicht vor!

Riesiger neuer grüner Klimafonds möchte diplomatische Immunität nach Vorbild der UN, obwohl er nicht UN-Mitglied ist

Von George Russell

EXKLUSIV: Der Grüne Klimafonds, der helfen soll, bis zu 100 Milliarden Dollar pro Jahr zu mobilisieren, um die globalen Treibhausgase zu reduzieren, möchte einen Blankoscheck in Gestalt von Immunität nach UN-Vorbild haben, der seine Aktivitäten vor jedem juristischen Vorgehen schützen soll, einschließlich zivil- und strafrechtlicher Verfolgung, und zwar in allen Ländern, in denen er tätig ist. Da gibt es nur ein Problem: er ist nicht Mitglied der Vereinten Nationen.

Ob der Fonds, der auf der UN-Klimakonferenz in Durban, Südafrika, offiziell ins Leben gerufen worden ist, jemals all das Geld bekommen wird, das er ausgeben möchte, ist in Zeiten einer Wirtschafts- und Finanzkrise fraglich. Das Ausgabeziel liegt über etwa 30 Milliarden Dollar als „Schnellstart“, was von den Mitgliedsstaaten der UN für Aktivitäten hinsichtlich der Klimaänderung gefordert worden ist.

Ein vorläufiger Verwaltungsrat aus 24 Nationen für den Grünen Klimafonds (GCF) ist dazu verpflichtet, im nächsten Monat das erste Treffen in der Schweiz abzuhalten, um das Sekretariat einzurichten und bis November zum Laufen zu bekommen und um eine permanente Zentrale für die GCF-Operationen zu finden. Der Rat erwartet, von jetzt an bis zum Juni nächsten Jahres etwa 6,7 Millionen Dollar auszugeben.

Aber vor der voll umfänglichen Aufnahme der Tätigkeiten wollen die Gründer des GCF – 194 Nationen, die zur UNFCCC gehören und die außerdem UN-Mitglieder sind –, dass der Fonds gegen juristische Herausforderungen und Anklagen immun ist, selbstredend auch gegen unabhängige Untersuchungen von außen, genauso wie die UN nicht durch ein einzelnes Regierungs- oder Rechtssystem eines souveränen Landes beeinflusst werden kann.

Trotz seines Namens wurde die UNFCCC 2006 vom UN-Büro für Juristische Angelegenheiten informiert, dass es nicht als ein „Organ“ der UN angesehen werde und dass es daher keine Immunität für ihre untergeordneten Institutionen oder das Personal im Rahmen der Allgemeinen Konvention beanspruchen könne, die die Immunität der UN seit Ende des Zweiten Weltkriegs autorisiert hatte.

Eine Resolution, der UNFCCC eine ähnliche Immunität zuzubilligen, müsste laut Anweisung des UN-Rechtsbüros vor dem Inkrafttreten von jedem einzelnen Mitgliedsland des Kyoto-Protokols „akzeptiert, genehmigt oder ratifiziert“ werden. Dies gilt auch dann, wenn Mitglieder der UNFCCC sich entschließen, dass UN-Generalsekretariat zu fragen.

Click here for the legal office communication. 

Die von der UNFCCC verlangte Immunität bestimmt auch, wo der Grüne Klimafonds seinen Hauptsitz haben kann. Unter Anderem ist der GCF-Rat damit betraut zu überlegen, ob und welche potentiellen Gastländer die „Fähigkeit haben, dem Fonds Privilegien und Immunität zur Verfügung zu stellen, die zur Erfüllung ihrer Aufgaben erforderlich ist, und den Funktionären des Fonds’, die zur Ausübung ihrer offiziellen Tätigkeiten notwendig ist.“

Mit anderen Worten, ohne Immunität kann der Grüne Klimafonds nirgendwo seine Zelte aufschlagen.

Click here for the resolution launching the fund and seeking immunities. 

Länder, die an der Aufnahme des Grünen Klimafonds’ interessiert sind, haben bis zum 15. April Zeit, dem Rat dies mitzuteilen. Die USA werden wahrscheinlich nicht dazu gehören.

Einem Funktionär des US-Finanzministeriums zufolge, welches die Existenz des GCF stark unterstützt, muss der volle Umfang der Immunität noch durch den Rat des Fonds’ ausgearbeitet werden, obwohl die Wortwahl zahlreicher UNFCCC-Resolutionen darauf hindeuten, dass eine Immunität nach Art der UN ganz klar anvisiert wird.

Selbst jenseits der UN wurden Immunitäten gegen Untersuchungen von außen und juristische Schritte zu einem Eckpfeiler internationaler Organisationen, dessen Mitglieder diese oft als Notwendigkeit ansehen, ihre Operationen durchzuführen, ohne in nationalen Gerichten Rede und Antwort stehen zu müssen. Unter Anderen wurde dem Globalen Fonds zur Bekämpfung von AIDS, Tuberkulose und Malaria (GFATM), einer ursprünglich von Bill Gates gegründeten Organisation, solche Immunitäten nach US-Gesetzen gewährt, jedenfalls dem International Organizations Immunities Act zufolge. Die Weltbank erfreut sich neben anderen, die Entwicklungsländer finanzierenden Institutionen ebenfalls solcher Immunität.

Kritiker solcher Immunitäten sagen andererseits, dass sie eine Barriere für ordentliche Überwachungen zur internationalen Ausgabe riesiger Geldmengen darstellen, was potentiell zu Korruption verleitet, und dass sie eine gefährliche Waffe gegen den Schutz von Eigentums- und anderen zivilen Rechten derjenigen sind, die von den Aktionen der Institutionen betroffen sind.

„Immunitäten akkumulieren sich zu einem Schleier des Geheimnisses”, sagt Bea Edwarts, geschäftsführende Direktorin des Government Accountability Project, einer Organisation zum Schutz vor Informanten mit Sitz in Washington. „Sie sind immun vor externen Audits und Überwachung. Sie enthalten einen strukturellen Interessenkonflikt bei jeder immunen Institution vor jedem internen Überwachungsmechanismus“.

Diese unterschiedlichen Ansichten könnten selbst noch in den kommenden Jahren deutlich zu spüren sein, und zwar wegen der Umweltaktionen, die der GCF mit seinen Anstrengungen zu finanzieren gedenkt, eine neue, globale „grüne Ökonomie“ zu erschaffen, um der kommenden gefährlichen „Klimaänderung“ zu begegnen.

Einmal gibt es da die erhoffte Höhe der Summe für den GCF: 100 Milliarden Dollar an jährlichen Ausgaben wäre weit mehr als das Doppelte dessen, was die Weltbank 2010 ausgegeben hat (44 Milliarden Dollar), bisher die größte Einrichtung zur Entwicklung in der Welt. Die Bandbreite der Ambitionen des GCF wird sich wahrscheinlich auch vielfach über die Entwicklungswelt ausbreiten – wo die Überwachung schwach ist und nationale Regierungen, die die meisten der GCF-Projekte ausführen, oftmals spektakulär korrupt sind.

Zum anderen könnten private Investoren ebenso wie öffentlich-private Partnerschaften zusätzlich zu den Regierungen zu den Ressourcen des GCF beitragen, was bedeutet, dass die privaten Interessen ebenfalls von der Wolke des Geheimnisses profitieren können, die die Immunitäten über die Operationen des GCF ausbreiten würde.

 (Den UN-Immunitätsregeln zufolge gelten Eigentum und Fonds, deren „Förderung seiner konstitutionellen Funktionen“ von einer UN-Agentur „administriert“ werden, als eigenständig.)

Diese Wolke von Geheimniskrämerei und Privilegien – zumindest nach Verständnis der UN, ist beeindruckend.

Der UN-Konvention zu Privilegien und Immunitäten zufolge, wie sie 1947 auf „spezielle Agenturen“ der UN angewendet worden ist, soll deren Eigentum und Vermögen „von jeder Form legaler Aktionen befreit sein“, außer bei deren Schließung. Und selbst dann können die Betreiber niemals „irgendeiner Maßnahme juristischer Verfolgung“ ausgesetzt werden, was bedeutet, dass sie machen können, was sie wollen.

Die Einrichtungen der UN sowie deren Eigentum und Vermögen sind immun gegen „Untersuchung, Anforderung, Beschlagnahme, Enteignung sowie jede andere Form der Einmischung, egal ob seitens der Exekutive, der Legislative, administrativer oder juristischer Aktionen“. Alle Archive und Dokumente einschließlich der von den Agenturen „gehaltenen“, werden als „unantastbar“ angesehen.

Diese Agenturen können Geld, Gold oder irgendeine Art von Fondsgeldern außerhalb jeder nationalen Gesetzgebung hin und her schieben; sie sind ausgenommen von Steuern, Zollerklärungen oder Restriktionen hinsichtlich Im- und Export.

Der gleiche kugelsichere Status gilt für ihre Funktionäre.

Betrachtet man so etwas wie den GCF, ist dies „eine Angelegenheit ausgedehnter Privilegien und Immunitäten hinsichtlich von Eigentumsrechten“, jedenfalls nach Meinung von Allan Meltzer, einem angesehenen Professor der politischen Ökonomie an der Carnegie Mellon University. „Und diese Privilegierten werden nicht zwangsläufig das Eigentum Anderer schützen“, fügt er hinzu.

Als Berater des US-Finanzministeriums, der Federal Reserve und des Kongresses zu verschiedenen Zeiten war Meltzer während der Clinton-Ära auch Vorsitzender einer Beraterkommission mit Mandat des Kongresses für internationale Finanzinstitutionen einschließlich des International Monetary Fund und der Weltbank.

Er sagt: „Wir sollten viel eher die gesetzlichen Regeln anwenden als die Immunitäten immer weiter auszudehnen. Wenn wir etwas für die Umwelt tun wollen, sollten wir das öffentlich und nicht im Geheimen tun!“

Beurteilt nach dem selbst gestellten Anspruch stimmen die Herren des Grünen Klimafonds’ offensichtlich dem nicht zu. Allerdings gab es auf Fragen von Fox News, gestellt in der vergangenen und zu Beginn dieser Woche an den GCF hinsichtlich seiner Operationen und Immunitäten bis zur Veröffentlichung dieses Artikels keine Antworten.

George Russell

Link: http://www.foxnews.com/world/2012/03/22/mammoth-new-green-climate-fund-wants-un-style-diplomatic-immunity-even-though/

Link bei Wattsup: http://wattsupwiththat.com/2012/03/24/where-theres-a-need-for-immunity-theres-a-crime-green-climate-fund-looking-to-un-for-diplomatic-immunity-protection-from-lawsuits/#more-60058

Übersetzt von Chris Frey EIKE