1

US-Umweltbehörde EPA verschuldet Wasserdurchbruch der Gold King Mine. Es war kein Zufall

Bild rechts: Das gelbe Abwasser der Mine am Eingang der Gold King Mine in San Juan, Colorado. Bild freigegeben durch Environmental Protection Agency (EPA) 5. August 2015.
Die Umweltbehörde (EPA) hat die verlassene Mine absichtlich geöffnet, was 3 Millionen Gallonen giftige Abfälle in nahe gelegene Flüsse gespült hat. Diese Flüsse liefern Trinkwasser für die Bewohner von Colorado, New Mexico, Utah und der Navajo Nation.
Der Chef der Umweltbehörde Gina McCarthy nannte in einer Rede vom 11. August 2015 zu dieser Angelegenheit das Auslaufen der Mine einen "unglücklichen Zufall", aber die Beamten der EPA sind seitdem vorsichtiger in der Beschreibung des Vorfalls.
McCarthy, zum Beispiel, vermied die Kennzeichnung ein "Unfall" in ihrer vorbereiteten Aussage vor den Abgeordneten im September, und nannte das Auslaufen einen "unglücklichen Vorfall." Sprecher der EPA haben auch klar vermieden, den Vorfall der Gold King-Mine einen Unfall zu nennen.

Abbildung: Profil der Minen

"Wie die Leiterin McCarthy gesagt hat:" Das war ein tragischer und unglücklicher Vorfall und EPA hat die Verantwortung übernommen, um sicherzustellen, dass es in geeigneter Weise bereinigt wird" sagte eine Sprecherin der Behörde dem DCNF [The Daily Caller News Foundation]
Der EPA interne Bericht vermied den Begriff "Unfall" und nannte das Auslaufen des Abwassers der Mine einen "Vorfall." Und ein weiterer Spitzenbeamte der Umweltbehörde wiederholt vor den Abgeordneten im September McCarthys Refrain, dass das Auslaufen ein "unglücklicher Vorfall war."
"Information die Agentur beide erhalten hat von bisher externen und internen Bewertungen der Angelegenheit keinen Beweis hat ergeben, dass der Blowout in irgendeiner Weise beabsichtigt war", sagte die Sprecherin.

Neue Beweise erzählen eine andere Geschichte. Ein kürzlich veröffentlichtes E-Mail zwischen den Obama-Regierungsmitarbeitern nach der Katastrophe vom August zeigt das EPA Mitarbeiter die Gold King-Mine absichtlich aufgebrochen [geöffnet] haben.
"Es gab nichts unbeabsichtigtes in den Maßnahmen der EPA hinsichtlich des Durchbrechens der Mine", sagte Utah Republikanischer Rob Bishop dem Innenministerium (DOI) Sekretär Sally Jewell während einer Anhörung Anfang März. "Sie haben absichtlich den Stopfen ausgegraben und zerbrachen ihn."

Bischofs Aussage stammt aus einer kürzlich veröffentlichten E-Mail zwischen den Beamten des Innenministeriums. Brent Lewis, der das Büro zur Verwaltung von aufgelassenen Minen leitet, schrieb an die Kollegen, dass er EPA‘s Projektmanager gesprochen hatte und die folgende Information bekam:
"Am 05. Aug. 2015 versuchte die EPA den hydrologischen Druck hinter einem natürlich kollabierten Stollen / Portal der Gold King-Mine zu entlasten", heißt es, in einer Anlage zu Lewis Email vom 7. August, von dem der Aufklärungsausschuss für Naturressourcen des Parlaments Kenntnis erhalten hat.
"Der Plan der EPA war es, das Grubenwasser langsam abzulassen und zu behandeln, um Zugang auf das innere der Mine zu bekommen und die Optionen für die gesteuerte Entlastung [von drückenden Wasser] zu beurteilen ", liest die Anlage. "Während kleine Teile der natürlichen Stopfen entfernt wurden, gab das Material katastrophal nach und öffnete den Weg für das Grubenwasser“.

Lewis ‚E-Mail widerspricht direkt Jewell Aussage, dass der Wasserausfluss ein Unfall war. Jewell blieb bei „Unfall“, auch als Bischof sie mit Lewis E-Mail konfrontierte. Jewell klebte an der Geschichte, die sie Bischof und dem Ausschuss vortrug, als sie das zum ersten Mal ein "Unfall" genannt hatte.
Während die EPA [Beauftragten] absichtlich die Gold King-Mine geöffnet hatten, ist es wahrscheinlich, dass sie nicht glaubten, dass diese 3.000.000 Gallonen von giftigen Minen Abwasser ausfließen würden. Hätte die Behörde die Mine druckgeprüft und nicht direkt in dem Eingang gegraben, wäre der Ausbruch nicht aufgetreten.

Es ist auch unklar, warum EPA ohne die richtige Ausrüstung eine Mine, die sie verdächtigten unter Druck zu stehen, aufbuddelten. Arbeiter haben es versäumt, eine Pumpe und einen spezielles Ablaufrohr zur Mine zu bringen, als diese aufbrach.

Diese großen Versäumnisse sind in den EPA und internen Berichte über den Vorfall enthalten, aber die Ermittler des Ausschusses argumentieren , das die Behörde "Inkompetenz und Fahrlässigkeit zu verbergen" versucht, die den Ausfluss umgibt.
Die EPA verursachte den Minenausfluss und kontaminierte die Flüsse mit 880.000 Pfund gefährlicher Metalle, wie Blei und Arsen. Die Behörde hat behauptet, dass das Flusswasser für Menschen sicher ist, trotz Bundesstaatlicher und lokaler Beschwerden.
Dies ist der erste Artikel in einer vierteiligen Serie von DCNF den Gold King-Minen Ausfluss zu untersuchen. In den folgenden Tagen wird DCNF die großen Fehler der EPA deutlich machen, dass die Katastrophe hätte verhindert werden können, die Verschleierung der Behörde von dem, was passiert ist und fragwürdige Aspekte einer unabhängigen Überprüfung des Unglücks.

Veröffentlich durch The Daily Caller am 14. März 2016

Übersetzt durch Andreas Demmig

EPA’s Gold King Mine Blowout Was No Accident

Durch die Beschäftigung mit dieser Nachricht, bin ich auch auf weitere Informationen unterhaltsamerer Art gestoßen:

Touristenattraktion: Eine alte Gold Mine

In USA gibt es aus der Zeit des Goldabbau (und anderer Mineralien) noch viele verlassene Minen und Ansiedlungen: Geisterstädte genannt. Einige Städte und Minen werden als Touristenattraktion hergerichtet. In dieser King Gold Mine wurde 1890 mit Abbau von Kupfer begonnen, bis man dann Anfang 1900 auf eine Goldader stieß.

http://www.sedonaverdevalley.org/jerome/goldkingminejerome.html

Heutzutage kümmern sich Enthusiasten um den Erhalt der alten Stätte als Museum.

http://www.goldrushexpeditions.com/wp-content/uploads/2014/07/Gold-King-Mine-Diagram.jpg




US Klimaregulierungen der EPA sollen „Führung“ zeigen, nicht die globale Erwärmung bekämpfen

McCarthy räumte vieles ein, nachdem sie von David McKinley, dem West Virginia Republikaner gefragt wurde, wer Druck auf die EPA-Chefin ausübt, während die Obama-Regierung mit wirtschaftlich schädlichen Regelungen weiter voran schreitet, die nichts für die Umwelt tun […nicht nützlich sind].

"Ich verstehe das nicht", sagte McKinley in einer Anhörung am Dienstag. "Wenn es keine Auswirkungen auf den Klimawandel auf der ganzen Welt hat, warum unterwerfen wir unsere hart arbeitenden Steuerzahler und Männer und Frauen in den Kohlefeldern zu etwas, das keinen Nutzen hat?"

McKinley bezog sich auf den sogenannten Clean Power-Plan CCP der EPA, der die Bundesstaaten zwingt, Kohlendioxid-Emissionen aus Kohlekraftwerken zu beschneiden. Es wird erwartet, dass CCP die Schließungen von Kohlekraftwerken in den kommenden Jahren verdoppelt und sogar EPA gibt zu, dass es keinen messbaren Einfluss auf die prognostizierte globale Erwärmung haben wird.

EPA argumentiert seit langem, der Sinn des CPP’s ist es, der Welt zu zeigen, dass Amerika die globale Erwärmung ernsthaft bekämpft, um für die Delegierten der Vereinten Nationen Unterstützung zu aktivieren, ein globales Abkommen zu unterzeichnen, die Emissionen zu senken. Fast 200 Länder stimmten dem Beschluss der UN im letzten Jahr zu.

Aber selbst dann ist uns niemand gefolgt ", sagte McKinley. „Seit dem Pariser Abkommen, hat China bereits angekündigt, dass sie 360 Kohlekraftwerke errichten werden. Indien hat angekündigt, dass sie die Verwendung von Kohle verdoppeln."

China versprach seinen Kohleverbrauch einzuschränken, um die schrecklichen Probleme der Luftverschmutzung zu bekämpfen, aber China plant, noch mehr Kohle in Zukunft zu verwenden. Ebenso kündigte Indien an, bis Dezember 2020 seine Kohleproduktion zu verdoppeln.

EPA hat jedoch größere Probleme als globale Besorgnis über Erwärmung. Der Oberste Gerichtshof zwang die Agentur ihre Vorschrift zur Umsetzung der CCP im Februar zu stoppen. Der Gerichtshof unterstützt damit eine Koalition aus 29 Staaten und staatlichen Behörden, welche klagen um den CPP abzuschaffen. [auf Eike hier]

Gefunden auf The Daily Caller am 23. März 2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/03/23/epa-chief-climate-regs-meant-to-show-leadership-not-fight-global-warming/#ixzz43viMMc94

Video der Befragung und Text auf Climate Depot

VORSITZENDER LAMAR SMITH:

"Der Clean Power-Plan wird die globale Temperatur bestenfalls nur um ein Hundertstel von einem Grad Celsius reduzieren, wie Charles McConnell, der ehemalige Obama [~Staats-] Sekretär aussagte. Zur gleichen Zeit, wird er die Stromkosten erhöhen. Den Amerikanern mit dem niedrigsten Einkommen wird das am meisten wehtun. Wie rechtfertigen Sie eine solche teure, aufwändige und belastende Vorschrift, die wirklich nicht viel Gutes tun wird und sind das nicht alles nur Schmerzen und kein Gewinn?

 LEITERIN GINA MCCARTHY:

"Nein, mein Herr, ich stimme nicht mit Ihnen überein. Wenn Sie die RIA Regulatory Impact Analysis [Gesetzesfolgenabschätzung] ansehen, die wir durchführten, würden Sie feststellen, dass es enorm vorteilhaft ist."

 VORSITZENDER SMITH:

"Betrachten Sie ein Hundertstel eines Grades enorm vorteilhaft zu sein?"

 LEITERIN MCCARTHY:

"Der Wert dieser Regel wird nicht auf diese Weise gemessen. Es wird die starke Inlands Aktion gemessen, die tatsächlich globale Aktionen auslösen können, um eine notwendige Maßnahme zum Schutz der … "

 VORSITZENDER SMITH:

"Sie stimmen nicht mit meinem ein Hundertstel eines Grades überein? Sie stimmen dem Hundertstel eines Grades nicht zu?

 LEITERIN MCCARTHY:

“Ich bestreite nicht, dass diese Aktion an und für sich nicht den Unterschied macht, den wir brauchen, um Klimamaßnahmen zu initiieren, aber was ich sagen will ist, dass, wenn wir nicht im Inland handeln werden wir nie beginnen und wir werden es nie … "

VORSITZENDER SMITH:

„Aber wenn Sie sich die Ergebnisse ansehen, können die Ergebnisse nicht die Kosten rechtfertigen und die Last, die Sie dem amerikanischen Volk meiner Ansicht nach aufzwingen"

Erschienen auf Climate Depot am 15.Juli 2015 – weit vor Paris!

Übersetzt durch Andreas Demmig




Frohe Ostern: Das Klimaschutzabkommen von Paris und die Hürde „New York“

Das Klimaschutzabkommen von Paris und die Hürde „New York“

Doch die Unterschriften von Paris waren nur Absichtserklärungen. Nun erst kommt die Bewährungsprobe. Jetzt müssen die Staaten Farbe bekennen und ihre verbindliche Unterschrift leisten. Erst wenn das Abkommen von 55 Staaten, die 55 Prozent der weltweiten CO2-Emissionen abdecken, ratifiziert wurde, kann es in Kraft treten. Dies dauerte beim Kyoto-Protokoll (1997) bis 2005, nachdem Russland sein Ja gegeben hatte.

Um ihrer Rolle als Vorreiter gerecht zu werden, hat die Bundesregierung am 9. März 2016 der Unterzeichnung des Klimaschutzabkommens von Paris zugestimmt. Am 22. April 2016, dem „Tag der Erde“, findet auf Einladung des UN-Generalsekretärs Ban Ki-moon in New York die Unterzeichnungszeremonie statt. Umweltministerin Barbara Hendricks: „Deutschland wird damit zu den Erstunterzeichnern gehören“. Am 19. März 2016 präsentierte Barbara Hendricks einen Katalog von 89 Maßnahmenvorschlägen für den deutschen „Klimaschutzplan 2050“ und kündigte den weiteren „klimafreundlichen Umbau von Wirtschaft und Gesellschaft“ an. Ziel ist die „Treibhausgasneutralität“!

Der Glaube mag „Berge versetzen“ können, Einfluss auf das Wetter hat er keinen!

In einer Presseerklärung des Potsdam-Instituts für Klimafolgenforschung vom 25. Januar 2016 heißt es: „Mit extrem hoher Wahrscheinlichkeit sind die jährlichen Wärmerekorde der letzten Zeit Ergebnis des vom Menschen ausgelösten Klimawandels“. Konkret liege die Wahrscheinlichkeit zwischen 1 zu 5000 und 1 zu 170 000. Mich beeindrucken solche statistischen Spielchen nicht. Aber Stefan Rahmstorf: „2015 ist wieder das wärmste je gemessene Jahr, und das kann kaum Zufall sein“. Auch der Deutsche Wetterdienst singt diese Melodie. Am 7. März 2016 präsentierte er die Mittel-Temperaturen der Wintermonate Dezember, Januar und Februar von Geisenheim im Rheingau für die Zeit von 1884 bis 2016. Für diese gut 130 Jahre errechnete der DWD für die Wintermonate einen linearen Anstieg von 2 Grad. Höchste Zeit, denn das Pariser Wunschziel liegt bei nur 1,5 Grad!

Doch spüren diese Erwärmung auch unsere Heizungen? Wohl nicht, denn am 17. März 2016 präsentierte die Umweltministerin, dass im Jahr 2015 die Treibhausgasemissionen um 6 Millionen auf 908 Millionen Tonnen gestiegen seien. Sie führt das auf eine „zum Vorjahr kühle Witterung“ zurück und stellt fest: „Die Zahlen weisen darauf hin, dass die Witterung immer noch einen großen Einfluss auf unsere Klimabilanz hat“. Ihrer Meinung nach liegen „im Wärmesektor noch hohe Potentiale“, vor allem bei „der Energieeffizienz von Gebäuden“. Aber auch wenn man die Effizienz erhöht, ändert sich das Wetter nicht. Heizungen werden von Thermostaten gesteuert und die messen direkt die Außentemperatur. Sie arbeiten nicht mit statistischen Werten.

Doch was ist mit der Diskrepanz zwischen dem zu warmen Wetter und der zu kühlen Witterung? Beides schließt sich im Grunde aus und doch können beide Aussagen statistisch „korrekt“ sein, da ihnen verschiedene Mittelwerte zugrunde liegen. Man kann nicht Jahresmitteltemperaturen mit Jahreszeitenmitteltemperaturen vergleichen, wobei letztere noch willkürlich sind. Die Jahreszeiten richten sich ausschließlich nach dem Stand der Sonne über dem Horizont. Dieser bestimmt auch die Tageslänge und die Menge an eingestrahlter Energie. Die Jahreszeiten haben nichts mit dem Wetter zu tun. Es ist also ein Zeichen von Faulheit, wenn man die Jahreszeiten einfach verschiebt, weil man zu bequem ist, Jahreszeitenstatistiken zu erstellen. Da von allen Tagen eines Jahres Tagesmitteltemperaturen vorliegen, bedarf es nur eines winzigen Rechenbefehls an den Computer, um den tatsächlichen Jahreszeiten wie Sommer, Herbst, Winter und Frühling exakte Mitteltemperaturen zuzuordnen.

Dann entfiele die dumme Erfindung der „meteorologischen“ Jahreszeiten. Das schafft nur Verwirrung, wenn der Frühling meteorologisch am 1. März, kalendarisch aber erst am 21. März beginnt. Selbst jetzt noch Wochen nach dem offiziellen Frühlingsbeginn ist das Wetter alles andere als frühlingshaft, wobei zudem kein Mensch sagen kann, was „frühlingshaft“ eigentlich bedeutet. Mit den anderen Jahreszeiten ist es genau so. Jeder wünscht sich subjektiv sein Wetter, das objektiv allerdings nur selten in Erfüllung geht. Im Sommer kann nicht immer nur die Sonne scheinen, und im Winter nicht immer nur schneien, weil wir uns den Winter „weiß“ wünschen. Da die Jahreszeiten sich nicht nach dem Wetter richten, haben wir Menschen keinen Anspruch darauf, dass das Wetter immer unserer Vorstellung von Sommer oder Winter entspricht!

So ist das auch mit dem Osterwetter. Ostern hat immer Wetter, aber wie soll es sein und soll es überall auf der Welt „gleich“ sein? Hier fängt die Unmöglichkeit schon an, dass die Jahreszeiten zwischen Nord- und Südhalbkugel gegensätzlich sind. Wenn in Deutschland am 21. März der Frühling anfängt, beginnt in Brasilien der Herbst, der nicht unserem Frühling „gleicht“. Beide Jahreszeiten laufen sehr unterschiedlich ab. Wichtig ist die geographische Entfernung vom Äquator, die Topographie. Sehr viele weitere Faktoren spielen noch mit. Während überall auf der Welt unterschiedliches Wetter herrscht mit jeweils anderen Temperaturverläufen, welchen Sinn macht und welche Wirkmacht hat eine „Globaltemperatur“ oder „Weltmitteltemperatur“? Wo kann man sie messen, fühlen, spüren? Fiktiv überall, real nirgends! Man kann sie bestenfalls anhand von Messungen berechnen, schätzen. Wenn also der Mensch nirgends auf der Welt Einfluss auf die Lufttemperaturen nehmen kann, warum hängen die Staaten, die den „Weltklimavertrag“ unterschrieben haben, der Illusion an, sie könnten nach Wunsch die „Globaltemperatur“ runter oder rauf regeln, ihren Anstieg begrenzen? Paris hat es ans Tageslicht gebracht, die Industriegesellschaften sollen revolutioniert, transformiert werden.

Wenn der Wetterwandel vom Menschen weder verhindert noch verändert oder beeinflusst werden kann, auf welch tönernem Boden steht dann die Behauptung, der Mensch sei am „Klimawandel“ schuld? Theoretisch weiß es jeder Politiker auf dem Globus: Alle Klimadaten, ja das „Klima an sich“ wird von Wetterdaten abgeleitet! Ein Umkehrschluss ist unmöglich! Klima kann Wetter nicht beeinflussen und extremer, „böser“ werden lassen. Ihr Glaube trügt nicht: Das Wetter macht, was es will und nicht das, was wir uns gerade wünschen. Wie sollte es auch die sehr volatilen Wünsche von 7 Milliarden Menschen koordinieren?

Ich wünsche Ihnen ein frohes und friedliches Osterfest und das Wetter, welches Sie sich wünschen.

Alles Gute Ihr Wolfgang Thüne

 

 




Windräder als Aussichtsplattformen sind Touristenmagnete

Seine Vision:

„Wenn man die Gondel als Aussichtsplattform nutzt, kann man sehr weit ins Land schauen“.

Seine Partei stimmte deshalb als einzige für die Weiterführung des Projektes. 

Bild rechts: Ökotouristisch  erschlossene Landschaft. Entstehungsgeschichte vielleicht wie folgt:

Eine Beratungsfirma empfahl der Gemeinde zur touristischen Aufwertung eine kleine Aussichtsplattform mit angebautem Windrad zu errichten. Dafür gab es (zu) viele Fördermittel und so sind es etwas mehr und größere geworden. Touristen kommen seitdem keine, aber nun nutzen es die Bürger weil man von dort oben die schönen Gegenden sieht in denen  keine Windparks stehen. Für die nicht mehr so kraxelfreudige Rollatorgeneration wurden oben webcams angebracht. Sie genießen diese Sicht vor dem Fernseher.

Bildquelle: BI Gegenwind-Vogelsberg, Ortsgruppe Engelrod, Bildbeschreibung vom Autor.

*Zitiert aus dem Bericht „Nein zu Windrädern bei Raitersaich“ in einer Lokalausgabe der Nordbayerischen Nachrichten am 21.03.2016.




EIKE 9. IKEK Dr. Willie Soon: Neueste Erkenntnisse zum Klimawandel

 

Video des Vortrags (in Englisch) von Dr. Willie Soon: anlässlich der 9. Internationalen Klima- und Energiekonferenz am 10. und 11.12.15 im Haus der Technik Essen.Neueste Erkenntnisse zum Klimawandel  gehalten




Verfassungsbeschwerden gegen Windkraft

Die beiden renommierten Verfassungsrechtler der Universität des Saarlandes wollen »das verfassungsmäßige Recht des Einzelnen auf körperliche Unversehrtheit gegenüber einem Staat geltend machen, der dieses Recht nicht genügend berücksichtigt.«

Elicker, der auch Beirat des Deutschen Arbeitgeberverbandes ist: »Wir haben eine ständige Rechtsprechung der Verwaltungsgerichte, die niederfrequente Schallimmissionen bzw. Infraschall völlig ignoriert. Und das kann meiner Ansicht nach nicht fortbestehen.«

Windenergieanlagen sind nicht nur laut, sondern strahlen auch Schall im sogenannten Infraschallbereich aus. Der liegt mit Frequenzen von 1 bis 20 Hertz unterhalb der Schwelle des menschlichen Höhrsinnes und geht vor allem auch durch Gebäudewände. Diese Schallwellen sind gesundheitsschädlich.

Elicker: »Wir kennen mittlerweile einen Dosis-Wirkungszusammenhang zwischen einer Exposition im Bereich von Windanlagen und den entsprechenden gesundheitlichen Schädigungen. Deswegen können wir dieses staatliche Versäumnis nicht so einfach ignorieren.«

Das Bundes-Immissionsschutzrecht selbst verlangt einen ausreichenden Schutz vor schädlichen Umwelteinwirkungen. Diesen Auftrag haben, so der Vorwurf, die staatlichen Organe nicht entsprechend dem heutigen Stand von Wissenschaft und Technik umgesetzt.

So gibt es bereits Beobachtungen über Missbildungen bei Tieren, die eindeutig auf die Auswirkung der Windkraftanlagen zurückzuführen seien. Professor Elicker: »Das ist ein Punkt, den ich besonders verstörend finde. Wir müssen davon ausgehen, dass natürlich diese Einwirkungen nicht nur auf Tiere beschränkt sind.

Es ist zum Beispiel nicht mehr möglich, in einer Konzentrationszone von Windkrafträdern zum Beispiel an Nord- oder Ostsee einen überlebensfähigen Nachwuchs von Tieren aufzuziehen. Da muss ich sagen, da hört bei mir jedes Verständnis auf. Denn das wird sich genauso auf menschliche Embryonen auswirken.«

Das zweite schwere Geschütz fährt Verfassungsrechtler Elicker mit einer Bürgerinitiative im Saarland auf. Auch das hat erhebliche bundesweite Sprengkraft. Denn ähnlich wie in diesem Fall verlaufen viele andere Verfahren, wenn Gemeinden mit Projektieren von Windanlagen verhandeln.

So hat die »Bürgerinitiative gegen Windkraft in Lautenbach« im Saarland Strafanzeige gegen den Bürgermeister der Stadt Ottweiler gestellt. Grund: Vorteilsannahme bzw. Bestechlichkeit.

Es wurden Verträge zwischen der Stadt Ottweiler und den Windenergieunternehmen ABO Wind AG und MWP Mosolf Wind Power geschlossen, die – so die Bürgerinitiative – verwaltungsrechtliche Vorgaben verletzen. So seien »hoheitliche Handlungen gegen Entgelt verkauft worden, ein Ding der Unmöglichkeit.«

Heute muß, um den Vorwurf der Bestechlichkeit zu begründen, ein Bürgermeister nichts mehr in die eigene Tasche stecken. Elicker: »Das ist nichts, was wir unterstellen. Das spielt aber heute auch keine Rolle mehr. Sondern es geht darum, dass die Sauberkeit und die Lauterkeit der öffentlichen Verwaltung nicht beeinträchtigt wird bei den Korruptionstatbeständen der Paragraphen 331 ff. des Strafgesetzbuches.«

Der Bürgermeister habe zum Beispiel in Ottweiler Abreden getroffen, die der Stadt Ottweiler bestimmte Vorteile verschaffen. »Die seien in einer Art und Weise erlangt worden, die nicht regelgerecht geschehen war, und begründen daher eine sogenannte Unrechtsvereinbarung im Sinne des Strafgesetzbuches.«

»Dann haben wir Verträge, die so lange vor der Verabschiedung des Flächennutzungsplans mit irgendwelchen Projektieren im Voraus beschlossen wurden, dass sie nach aller Wahrscheinlichkeit das beeinflußten, was im Stadtrat später beschlossen wurde.«

Auch bundesweit werden »Unrechtsverträge« bedeutender, Verträge, die zu Unrecht abgeschlossen wurden meist von Städten und Gemeinden mit Wind-Unternehmen. Die betreffen häufig Nutzungsrechte für Grundstücke, städtebauliche Verträge oder beispielsweise Rodungsarbeiten ohne eine notwendige vorherige Waldumwandlungsnehmigung. Vorgaben über Mindestabstände zu geschützten Arten werden mißachtet.

Die klammen Kommunen versprechen Windkraftunternehmen mit Dollarzeichen in den Augen gern etwas, was von vornherein eigentlich rechtswidrig ist.

Ein solches Vorgehen müsste eigentlich ein strafrechtliches Vorgehen der Staatsanwaltschaft zur Folge haben? Elicker: »Selbstverständlich. Das ist das, was wir jetzt erwarten. Wir haben diese Sache entsprechend aufgearbeitet, und erwarten ein entsprechendes strafrechtliches Vorgehen und eine entsprechende Überprüfung durch die Staatsanwaltschaften Saarbrücken, Stuttgart und Wiesbaden – in letzteren Fällen die korrespondierenden Straftatbestände der Vorteilsgewährung bzw. der Bestechung auf Seiten der Windkraftunternehmen.«

Elicker weist darauf hin, daß der Gesetzgeber bereits 1997 die Korruptionstatbestände erheblich geändert und verschärft hat. Schon Dinge, die geeignet sind, den Anschein von Unsauberkeit in der öffentlichen Verwaltung zu erzeugen, können strafrechtlich verfolgt werden. Das soll insbesondere das Vertrauen der Bürger in die Lauterkeit der öffentlichen Verwaltung stärken. Das sei, meint Elicker, zwar noch nicht bis in die letzten Gemeindeverwaltungen vorgedrungen, gelte aber dennoch. »Unwissenheit schützt vor Strafe nicht.«

Tatsächlich mehren sich im Bereich der Windkraftnutzung und Gemeinden die Fälle, bei denen die Staatsanwaltschaft einschreitet. Elicker: »Wir hatten gerade in diesem Bereich der Windkraftanlagen schon vor über zehn Jahren eine sehr ausgeprägte Strafverfolgung gegenüber Bürgermeistern insbesondere im Bereich von Niedersachsen. Etliche Strafverfahren endeten in Verurteilungen.«

Jetzt weitet sich das Problem mit zunehmendem Aufbau von Windanlagen auch auf das Binnenland und auf die Mittelgebirge aus. »Irgendwelche Landesfürsten oder Kommunalpolitiker versuchen, mit Windkraftwerken Geld zu verdienen.«

Zu groß sind die Verlockungen, mit Windparks scheinbar mühelos Geld in die Kassen zu bekommen. Dabei übersehen sie häufig Detailfragen nach der Wirtschaftlichkeit. Das führt zu einer nächsten Prozeßwelle vor Gerichten. Denn häufig versprechen die Projektierer zu hohe Erträge der Windanlagen, um die Anlagen schmackhaft zu machen. Diese Versprechungen erfüllen sich später in aller Regel nicht. Die Frage ist dann, wer die Verluste meist in Millionenhöhe trägt. Fein raus sind die Projektierer und Erbauer der Windanlagen; die haben ihr Geld erhalten. In die Röhre schauen meist die Bürger und die Kommunen.

Detailliert weist Prof. Elicker auf die weiteren schwerwiegenden juristischen Folgen hin:

»Ich gehe davon aus, dass einige Windkraftunternehmen falsche Ertragswerte in den Raum gestellt haben, und deswegen meiner Ansicht nach ein Betrug vorliegt. Das Schlimme ist, man muss diesen Betrug als einen fortgesetzten Betrug ansehen. Denn diese Dinge hat es vorher schon gegeben.

Man muss diesen Betrug auch als einen Betrug ansehen, der von vielen gemeinsam begangen worden ist. Denn es geht hier um eine Organisation, die diese Dinge tätigt. Das bedeutet: Wir haben hier einen gewerbs- und bandenmäßigen Betrug vorliegen, der letztendlich zu einer Freiheitsstrafe von bis zu zehn Jahren führt und mit einer Mindeststrafe mit einem Jahr.

Wir haben es hier in der Tat mit einem genuinen Verbrechen im Sinne des Gesetzes zu tun. Das ist ein bisschen das, was ich meine, wenn ich sage, die Verbrechen der Saubermänner.«

Spannend deshalb der Blick nach Ludwigshafen. Dort klagt die Pfalzwind GmbH gegen JUWI auf Rückabwicklung des Kaufvertrages. Ein Prozeß mit bundesweiten Folgen.

Der Artikel wurde unverändert und mit freundlicher Genehmigung von der Webseite des Deutschen Arbeitgeberverbandes übernommen (hier).




Das IPCC hat die Öffentlichkeit über den Kohlenstoff-Kreislauf von Anfang an betrogen

Die Behauptung, dass vom Menschen erzeugtes CO2 hunderte von Jahren in der Atmosphäre verweilen würde, war für die Erzeugung des Alarmismus unabdingbar. Sie war notwendig, um den Menschen die Verantwortung für den Temperaturanstieg in die Schuhe zu schieben, zu dem es den alarmistischen Computermodellen zufolge einige Hundert Jahre in der Zukunft kommen sollte. Sie erlaubte die Übertreibung zukünftiger CO2-Konzentrationen und die Forderung nach sofortigen vorbeugenden Maßnahmen (eine typische Taktik, eine Drohkulisse aufzubauen: jetzt handeln, später bereuen). Und das IPCC setzte alle Hebel in Bewegung, um derartige Behauptungen zu rechtfertigen. Es versuchte, den Eindruck zu erwecken, dass CO2 so etwas wie ein Dämon aus der Unterwelt ist: es ignoriert die Gesetze der Physik, ist schädlich und gefährlich sowie schwierig zu exorzieren. Folgende Behauptung wurde im FAR erhoben:

Wegen dessen komplexen Zyklus‘ folgt der Zerfall des überschüssigen CO2 in der Atmosphäre nicht einer einfachen exponentiellen Kurve … Zum Beispiel kommt es zu einer ersten Reduktion um 50% innerhalb von etwa 50 Jahren, während die Reduktion weiterer 50% (auf 25% des ursprünglichen Wertes) etwa 250 weitere Jahre dauern wird (FAR WGI, p. 8).

Die Autoren dieses Textes erklärten nicht, woher das CO2 weiß, wann es in der „ersten Reduktion“ steckt und wann in einer anderen, welche fünf mal länger brauchen soll. Dieser Gedanke ist durch nichts an wissenschaftlichen Beweisen gedeckt. An einer anderen Stelle behaupten die Autoren:

Das zusätzliche CO2 nimmt auf markant nicht exponentielle Weise ab; es gibt eine initiale rasche Abnahme während der ersten 10 Jahre, die gefolgt wird von einer graduelleren Abnahme während der nächsten 100 Jahre und einer ziemlich langsamen Abnahme in einem Zeitrahmen von Jahrtausenden. Der Zeitraum der ersten Halblebenszeit liegt typischerweise um 50 Jahre, der zweiten etwa 250 Jahre…“ (FAR WGI, p. 59).

Der Bericht präsentierte auch einen Kohlenstoff-Haushalt, in welchem die Emissionen minus der Senken die Bildung von CO2 in der Luft ausgleichen sollten. Der Report räumte dem Ozean die Eigenschaft einer Senke ein, verwarf aber die Senke auf dem Festland in Gestalt der Flora. Folglich wies das Budget einen gewaltigen Fehler auf, etwa 30% der Emissionen aus fossilen Treibstoffen, wie in der folgenden Tabelle daraus aufgelistet ist:

FAR WGI, S. 13:

Der Fehler, von den Autoren fälschlich „Gesamt-Ungleichgewicht“ genannt, war gleich der Entfernung von CO2 durch die zusätzliche Düngung. Das IPCC erklärte seine Entscheidung, den Düngereffekt von CO2 zu vernachlässigen, so:

Es gibt mögliche Prozesse auf dem Festland, welche Ursache für das fehlende CO2 sein können (jedoch war es nicht möglich, diese zu verifizieren). Darunter sind die Anregung des Pflanzenwachstums infolge des zunehmenden CO2-Niveaus (der CO2-Düngereffekt), die möglicherweise verstärkte Produktivität der Vegetation unter wärmeren Bedingungen und der direkte Effekt landwirtschaftlicher Dünger sowie von Stickstoff-Freisetzungen in die Atmosphäre (FAR WGI, p.13, Hervorhebung von mir).

Ja, das IPCC hat festgestellt, dass der Prozess der Photosynthese nicht ausreichend verstanden war und Verifikation erforderte! Die hundert Jahre, während derer Pflanzen in mit CO2 angereicherten Treibhäusern gezogen worden sind, wurden nicht als ausreichende Verifikation betrachtet. Der Nierenberg-Report (1983) war für sie belanglos, ebenso die Forschungen von Sherwood Idso. Einfach gesagt, das IPCC mochte einfach nicht die Tatsache, dass CO2 aus vielen Gründen als Dünger wirkte. Also hat man es aus der Berechnung des Kohlenstoff-Haushaltes hinausgeworfen.

Diese Episode rückt nicht nur die Art und Weise der Behandlung des Kohlenstoff-Kreislaufes ans Tageslicht, sondern auch die Epistemologie in anderen Bereichen. Diese entscheidet, welche empirischen Fakten man berücksichtigen und welche man ignorieren muss; und man legt sich alles nach Belieben zurecht. Seit Anfang der neunziger Jahre hat die klimabezogene Forschung riesige Budgets verschlungen und ein großes Volumen von Ergebnissen unterschiedlicher Qualität hervorgebracht. Das erlaubte es den Alarmisten, Rosinenpickerei nicht nur bzgl. der Daten, sondern sogar der physikalischen Prozesse zu betreiben. Die Gegenwart ehrlicher Wissenschaftler setzte diesen Machenschaften einige Grenzen, aber die Alarmisten haben immer Wege gefunden, dieses Hindernis zu umgehen.

Tatsache ist, dass dem IPCC sogar schon im Jahre 1990 sehr wohl der verstärkte Dünungseffekt bewusst war, was die Flora auf dem Festland zur zweitgrößten CO2-Senke machte. An einer anderen Stelle des Berichtes wurde das auch anerkannt:

Die meisten Pflanzen auf dem Festland haben ein System der Photosynthese, welches positiv auf den zusätzlichen atmosphärischen CO2-Gehalt reagiert. Aber dies variiert unter den einzelnen Spezies… (FAR WGI, p. XXXI).

Dies illustriert einen Weg, mit dem sie die ehrlichen Wissenschaftler umgingen: formale Anerkennung einer wissenschaftlichen Tatsache, die dann aber in den Modellen unterdrückt oder nicht beachtet wird. In diesem Falle räumte das IPCC den CO2-Düngungseffekt an prominenter Stelle ein, ignorierte diesen Tatbestand dann aber bei der Durchführung der Berechnungen und bei der Modellierung. Eine solche Unehrlichkeit ist kaum zu glauben.

Die absichtliche Nichtbeachtung der Festlands-Kohlenstoffsenke auf diese Weise resultierte in einem gewaltigen Fehler zugunsten des IPCC. Um sein Vorgehen zu kaschieren, nannte es diesen Fehler „Ungleichgewicht“. Der Terminus „Ungleichgewicht“ klingt wie ein technischer Terminus in der Klimatologie, weil er ähnlich des Terminus‘ „unausgeglichenes Modell“ ist, welcher oftmals in der Welt der Klimamodelle verwendet wird (welche aus anderen Gründen falsch sind). Folglich war dieser Betrug vollständig vorsätzlich, und die Art und Weise wurde erfolgreich kaschiert.

Aber das ist noch nicht alles: Im gleichen Bericht heißt es:

Für jedes Gas in der Tabelle außer CO2 ist die Verweildauer definiert als das Verhältnis des atmosphärischen Gehaltes zur Gesamt-Rate der Entfernung. Dieser Zeitrahmen charakterisiert auch die Rate der Adjustierung der atmosphärischen Konzentrationen, falls die Emissionsraten abrupt verändert werden. CO2 ist ein Spezialfall, weil es keine echten Senken hat, sondern es wird lediglich zwischen verschiedenen Reservoiren hin und her zirkuliert (Atmosphäre – Ozean – Flora). Die in der Tabelle angegebene Verweildauer von CO2 ist ein grober Hinweis auf die Zeit, während der sich die CO2-Konzentration an Emissionsänderungen anpasst (FAR WG1, Hervorhebung von mir. Die Tabelle gibt die „Verweildauer“ von CO2 mit 50.200 Jahren an).

Keine echten Senken? Was ist mit dem Ozean? Ist er nicht real, oder war es „unmöglich zu verifizieren, dass er real war“?´Ein relativ unbedeutender Punkt ist, dass der Begriff „Reservoir“ subtil irreführend ist, weil er eine festgesetzte Kapazität nahelegt, während die Kapazität von Ozean und Flora flexibel ist und mit der Zunahme der CO2-Konzentration in der Atmosphäre zunimmt.

Folgeberichte des FAR konnten die Festlandssenke nicht ignorieren, so dass andere Behelfe bemüht werden mussten, um das Entfernen von CO2 aus der Atmosphäre zu unterschätzen. Jeder, dem die Machenschaften des IPCC vertraut sind, würde korrekt davon ausgehen, dass die unehrliche Kalibrierung von Modellen in der Liste nicht gering war. In IPCC Climate Change 1994 (einem untergeordneten Bericht) heißt es:

Die Modelle des Kohlenstoff-Kreislaufes wurden kalibriert, um den zeitgemäßen Kohlenstoffhaushalt an frühere Schätzungen anzupassen (IPCC 1990 und 1992), anstatt des in Tabelle 1 gezeigten Budgets, welche nicht abgeschlossen worden ist, bevor die Modellrechnungen vollständig waren (IPCC Climate Change 1994, S. 19).

Das erinnert mich an einen Witz: „ich wollte noch einen Scheck in voller Höhe meiner Schulden mit diesem Brief versenden, aber da hatte ich den Umschlag schon zugeklebt“.

IPCC Climate Change 1994 war der erste Bericht, in dem das infame Bern-Modell sein hässliches Haupt erhob. Dem IPCC zufolge handelt es sich hierbei um eine einfache Formel für die zusätzliche CO2-Konzentration, mit welcher man die Ergebnisse der (falsch kalibrierten) komplexen physikalischen Modelle approximieren wollte:

Wir haben ein Modell gewählt, das Bern-Modell, weil dessen Ergebnisse allgemein nahe den mittleren Ergebnissen lagen, die alle Modelle ergaben, und weil es in der Literatur vollständige Beschreibungen gibt (Joos et al., 1991a; Siegenthaler and Joos, 1992)” (IPCC Climate Change 1994, S. 59).

Im Zweiten Zustandsbericht (SAR 1995) wurden weitere Konfusionen verbreitet, um den Betrug zu kaschieren:

Kohlendioxid wird aus der Atmosphäre durch eine Anzahl von Prozessen entfernt, die in unterschiedlichen Zeitmaßstäben agieren. Es hat eine relativ lange Verweilzeit im Klimasystem – von der Größenordnung eines Jahrhunderts oder mehr (SAR-Synthese, S. 9, Hervorhebungen von mir).

Erstens beachte man die semantische Trickserei. Der erste Satz bezieht sich auf die Atmosphäre, während sich der zweite Satz auf das Klimasystem bezieht, welches von der UNFCCC folgendermaßen definiert wird:

Klimasystem“ bedeutet die Gesamtheit der Atmosphäre, Hydrosphäre, Biosphäre und Geosphäre sowie deren Wechselwirkungen“.

Diese Synthese des zweiten IPCC-Berichtes war Zeile für Zeile Gegenstand von Verhandlungen zwischen über 100 Regierungen, was einige der groben Transitionen erklären könnte. Die natürliche Interpretation dieses Passus‘ ist, dass sich Verweildauer auf die Verweildauer von Kohlendioxid in der Atmosphäre bezieht, während Verweildauer gewöhnlich als die mittlere Zeit definiert ist, die ein Molekül im untersuchten System verbleibt. Die Verweildauer von CO2 in der Atmosphäre beträgt etwa fünf Jahre. Vermutlich hat das IPCC nicht die Verweildauer gemeint, sondern so etwas wie „e-folding time of excess concentration“, wollte aber jedweden Hinweis auf exponentielle Abnahme vermeiden. Also bediente man sich einer vergewaltigten Sprache und eines rundweg falschen Statements. Das Paradox des Klima-Alarmismus‚ ist, dass je weiter man sich von der Wahrheit entfernt, desto stärker wird er: Credo quia absurdum. Einige Gegner des Klimatismus‘ haben diesen offensichtlichen Fehler bemerkt, einiges Aufhebens darum gemacht, aber den großen Betrug hinter dem Fehler nicht bemerkt. Um das Ganze noch schlimmer zu machen, haben die Klimatiker die Gegner ausgelacht und ihnen vorgeworfen, die „IPCC-Wissenschaft“ nicht zu verstehen.

Diese Mischung aus Bosheit und Inkompetenz hat sich als eine potente Waffe im IPCC-Arsenal erwiesen.

Wie ich sagte. Der Betrug ist über alle Zweifel erhaben bewiesen. Aber mit nichts in diesem Beitrag ist beabsichtigt, dass die Wissenschaftler, die hierzu etwas beigetragen hatten oder auf die sich das IPCC bezogen hatte, der Komplizenschaft in diesem Betrug zu beschuldigen.

Ein interessanter politischer Effekt ist seit dem Gipfel in Rio 1992 zu verzeichnen. Einige Entwicklungsländer haben die Entwaldung und die daraus folgenden CO2-Emissionen viel zu niedrig angesetzt. Dieses Zu-Niedrig-Ansetzen erreichte 2008 den Höhepunkt, möglicherweise befeuert durch den Handel mit Kohlenstoff-Zertifikaten und (erfolglosen) Verhandlungen über die Studie zu Emissions-Reduktionen durch Entwaldung und Schwächung. Seit dem Kyoto-Protokoll 1997 haben auch einige industrialisierte Länder die CO2-Emissionen industrieller Aktivitäten zu niedrig berichtet. Der dramatischste Fall dieser Art ist China. Ich werde mich irgendwelcher Kommentare zu diesen Fakten enthalten. Auch werde ich nicht das Scheitern der Mainstream-Medien und/oder Con-Wissenschaftlern ansprechen („Konsens-Wissenschaftler“ – eine noch größere Beleidigung ist nicht beabsichtigt), die Öffentlichkeit über diese Schummeleien zu informieren.

Aber diese Schummeleien führten zur Unterschätzung anthropogener CO2-Emissionen (hier) während der letzten 15 bis 20 Jahre und der daraus folgenden Unterschätzung der Senk-Raten. Folglich könnten die überschätzenden IPCC-Modelle zu den problematischen IPCC-Daten passen.

Mehr dazu hier auf meinem Blog.

Striche

Die folgenden Bemerkungen sind eher technischer Natur oder gehen mehr ins Detail

Die meisten natürlichen Prozesse können als analytische Funktionen beschrieben werden, welche man einer Harmonischen Analyse nach Taylor unterziehen kann. In einigen Fällen bieten schon die ersten beiden Glieder ohne Berücksichtigung aller folgenden Glieder eine vernünftige Approximation. Tatsächlich weisen Lehrbücher für Ingenieure und Physiker die Studenten oftmals folgendermaßen darauf hin: Falls man es mit einem unbekannten Prozess oder System zu tun hat, versuche man, dies mit den Ersten beiden Gliedern einer Taylor-Reihe zu repräsentieren. Im Falle der atmosphärischen CO2-Konzentration ergibt sich…

[die folgende Beschreibung der Glieder einer Gleichung erübrigt sich in der Übersetzung, weil die Gleichung auch im Original nur durch eine leere Zeile markiert ist. Anm. d. Übers.]

Der Wert ist die Halb-Verweilzeit [half life] der zusätzlichen Konzentration. Natürlich ist dies nur ein vernünftiger Weg der Annäherung an das Problem. Weitere Forschung hätte zeigen können, dass die Halb-Verweilzeit nicht konstant ist, sondern abhängig von der Zeit variiert – historische Emissionen, Sättigung der Senken oder andere Variable. Aber bislang haben weder Forschung noch Beobachtungen der Hypothese einer konstanten Halb-Verweilzeit von zusätzlichem CO2 widersprochen (hier).

Da es nicht in der Lage war, seine Pseudowissenschaft bzgl. des Kohlenstoff-Kreislaufes weder mit der Physik noch mit Beobachtungen in Einklang zu bringen, haben das IPCC sowie die es unterstützenden Autoren zwei weitere Ablenkungen eingebracht. Eine war die Konzentration auf langfristige Prozesse (wie man schaue auf Sedimentierung, man schaue nicht auf die Düngung von Pflanzen und die Konvektion in den Ozeanen). Die andere war es, die Diskussion um die so genannte „airborne fraction“ einzurahmen. Es ist keine Überraschung, dass diese pseudophysikalische Quantität in unterschiedlichen Zustandsberichten komplett unterschiedlich definiert wird.

Die ,airborne fraction‘ (atmosphärische CO2-Zunahme/Emissionen aus fossilen Treibstoffen) stellt einen grundlegenden Eckpfeiler bei der Abschätzung kurz- und langfristiger Änderungen in diesen Prozessen dar.

Glossar, AR5: Airborne fraction bedeutet der Anteil der gesamt-CO2-Emissionen (aus fossilen Treibstoffen und Änderungen des Landverbrauches), der in der Atmosphäre verbleibt.

Dies war das Standardverfahren bei den Operationen des IPCC seit mindestens dem Dritten Zustandsbericht (2001). Als sich einige dieser politisch wichtigen „wissenschaftlichen Ergebnisse“ als falsch erwiesen hatten, hat das IPCC nicht die Ergebnisse geändert, sondern die Definitionen der dabei verwendeten Terme.

Weiter. Die „airborne fraction“ ist kein Anteil. Außerhalb der Mathematik legt der Begriff Anteil eine Quantität zwischen 0 und 1 nahe. Der „airborne fraction“ kann laut Definition des IPCC alles sein zwischen -∞ und +∞. Beispiel: falls anthropogene Emissionen abnehmen auf die Hälfte des in den Senken verschwindenden CO2, wäre die airborne fraction -2 (beim Fehlen anderer natürlicher Faktoren). Falls anthropogene Emissionen Null werden, wäre der airborne fraction wahrscheinlich -∞ (eine negative Zunahme der Konzentration dividiert durch Null). Nichtsdestotrotz können Vulkanausbrüche eine Zunahme der CO2-Konzentration in einem bestimmten Jahr bewirken, selbst beim Fehlen anthropogener Emissionen. In diesem Falle wäre der airborne fraction +∞. Und schließlich, der „airborne fraction“ ist physikalisch bedeutungslos, weil jährliche CO2-Senken praktisch unabhängig sind von den jährlichen anthropogenen Emissionen. Der „airborne fraction“ ist wie Orangen dividiert durch Äpfel. Genauer (Orangen minus Äpfel)/Orangen. Der Genauigkeit halber wurde der „airborne fraction“ von CO2 von Wissenschaftlern vor den IPCC-Zeiten verwendet, aber in einem anderen Zusammenhang, der angemessen und bedeutsam war.

Weiterer Unsinn aus den IPCC-Berichten folgt hier mit meinen eingefügten Kommentaren. Beginnen möchte ich mit diesem Supplemental Assessment des IPCC aus dem Jahr 1992 (S. 35):

Bei einem gegebenen Emissions-Szenario betragen die prophezeiten Änderungen der CO2-Konzentrationen unter Vernachlässigung biosphärischer Rückkopplungen bis zu 30% (mehr als der historische Beitrag der USA und Westeuropa zusammen – AH) aber es ist unwahrscheinlich, dass dies die wesentliche Unsicherheit bei der Prophezeiung zukünftiger Klimaänderungen repräsentiert (weil wir ohnehin alles fälschen) verglichen mit den Unsicherheiten bei der Abschätzung zukünftiger Spurengas-Emissionen sowie bei der Quantifizierung physikalischer Rückkopplungs-Prozesse. Zukünftige atmosphärische CO2-Konzentrationen infolge gegebener Emissionsszenarien können durch die Annahme geschätzt werden, dass die airborne fraction genauso groß bleibt wie im vorigen Jahrzehnt beobachtet, d. h. 46+7% (siehe vorherige Bemerkung)

SAR WGI, pp. 16-17:

SAR WG 1, Seiten 16 und 17:

CO2 wird aus der Atmosphäre entfernt durch eine Anzahl von Prozessen, die in verschiedenen Zeitrahmen agieren. (Falsch! Es gibt zwei wesentliche Prozesse – zunehmende Düngung von Pflanzen und Verschwinden in der Senke Ozean – und sie agieren im Zeitrahmen von ein paar Jahrzehnten. – AH) Das CO2 wird in der Folge in verschiedene Reservoire transferiert, von denen einige das CO2 eventuell wieder in die Atmosphäre freisetzen. Einige einfache Analyse von CO2-Änderungen haben das Konzept eines einzigen charakteristischen Zeitrahmens für dieses Gas verwendet. Derartige Analysen sind von begrenztem Wert, weil ein einzelner Zeitrahmen nicht das Verhalten von CO2 bei unterschiedlichen Emissions-Szenarien einfangen kann (Der IPCC-Autor ist ein Idiot; er verwechselt e-folding time* mit Zeitscale. – AH). Dies steht im Gegensatz zu Methan, dessen atmosphärische Verweildauer dominant von einem einzelnen Prozess kontrolliert wird: Oxidation durch OH in der Atmosphäre. Für CO2 ist der schnellste Prozess die Aufnahme seitens der Vegetation und der Oberfläche der Ozeane, was innerhalb weniger Jahre erfolgt. Viele andere Senken agieren im Zeitrahmen von Jahrhunderten (z. B. Transfer in die Böden und die Tiefsee) (wieder durcheinander gebracht. Weder Böden noch die Tiefsee sind Senken für atmosphärisches CO2. Böden wird CO2 über die Flora zugeführt, und die Tiefsee wechselt CO2 mit der Ozeanoberfläche. – AH). Daher haben sie einen weniger unmittelbaren, aber nicht weniger wichtigen Effekt auf die atmosphärische Konzentration. Innerhalb von 30 Jahren sind 40 bis 60% des gegenwärtig in die Atmosphäre freigesetzten CO2 entfernt worden. Allerdings, falls die Emissionen reduziert werden würden, würde das CO2 in der Vegetation und dem Ozeanwasser sich bald dem in der Atmosphäre angleichen. (Es gibt kein CO2 in der Vegetation. Der Idiot verwechselt Kohlenstoff und Kohlendioxid. Ozeanwasser zirkuliert, und das Oberflächenwasser tauscht sich mit dem Wasser der Tiefsee im Mittel alle paar Jahre aus. – AH). Die Rate der Entfernung aus der Atmosphäre würde dann bestimmt durch die langsamere Reaktion hölzerner Vegetation, Böden und Transfer in die tieferen Schichten des Ozeans. Als Konsequenz wird das Meiste des überschüssigen atmosphärischen CO2 im Laufe etwa eines Jahrhunderts entfernt, obwohl ein Anteil tausende Jahre lang airborne verbleiben würde, weil der Transfer in die ultimative Senke – Ozean-Sedimente – sehr langsam vonstatten geht.

[*Leider weiß ich aber auch nicht, was ,e-folding time‘ ist. Anm. d. Übers.]

TAR WG 1, Seite 213:

Unter den Ländern, die Angabe zu Emissionen durch Landverbrauch gegenüber dem UNFCCC abgegeben haben, gibt es signifikante Diskrepanzen zwischen den primären Daten über Emissionen und den in internationalen Übersichten verfügbaren Daten. Beispiel: Entwaldungs-Raten differieren von Raten, die von der FAO (1993b) stammen, um bis zu einem Faktor sechs (Houghton und Ramakrishna 1999). (Darum wählen wir nur die Daten aus, die am besten zu unseren Modellen passen).

Aus all dem folgt, dass jeder IPCC-Bericht verglichen werden kann mit einem Abfalleimer auf einem öffentlichen Platz: Delikate Reste von guten Restaurants werden zusammengewürfelt mit verfaultem Obst und reichlich mit Vogelfäkalien besprenkelt. Man könnte einen Blick auf den Abfalleimer werfen, um zu sehen, welche Art Speisen in einem benachbarten Restaurant serviert wird, aber von dem Müll zu essen ist nicht ratsam. Einige herausragende Wissenschaftler haben zu den IPCC-Berichten beigetragen, vor allem in der Arbeitsgruppe 1, aber deren Arbeit hat jeglichen Wert verloren, als sie mit den alarmistischen Standpunkten verquirlt worden ist.

Link: http://wattsupwiththat.com/2016/03/16/the-ipcc-has-been-deceiving-the-public-about-the-carbon-cycle-from-the-start/

Übersetzt von Chris Frey EIKE




Ivanpah – das größte US – Solarprojekt könnte gezwungen werden abzuschalten

Das Ivanpah Solar Electric Generating System, im Besitz von Brightsource Energy Inc., NRG Energy Inc. NRG, -1,86% [dieser Artikel erschien im Wall Street Journal, die %-Werte geben den Aktienindex an; im folgenden weggelassen]  und  verwendet mehr als 170.000 Spiegel die am Boden montiert das Sonnenlicht zu den 450 Meter hohen Türmen reflektiert, gekrönt von Kesseln, die erhitzt werden um Dampf zu erzeugen, der wiederum verwendet wird, um Strom zu erzeugen.

Das unkonventionelle solarthermische Projekt, ist mit einem $ 1,5 Milliarden Darlehen des Bundes finanziert, hat Umweltschützer verärgert – tausende von Vögel zu werden getötet, viele zu Tode verbrannt – und hat es bisher verfehlt, die erwartete Leistung zu erzeugen.

PG & E bittet die California Public Utilities Commission [Aufsichtsbehörde] um Erlaubnis, den Fehlbetrag zu übersehen und Ivanpah ein weiteres Jahr zu geben, seine Probleme zu klären, mit der Warnung, dass seine wenn es seine Energielieferverträge erfüllen muss, es gezwungen wäre, die Anlage herunterzufahren. Mitarbeiter der Aufsichtsbehörde empfehlen, die Verlängerung am Donnerstag zu gewähren.

Der Sprecher von Brightsource, die die Technologie entwickelte, und NRG, die die Anlage betreibt, wollten sich zu seiner Zukunft nicht äußern. NRG sagte. dass es mehr als ein Jahr gedauert hat, um die Ausrüstung anzupassen und zu lernen, wie man sie am besten einsetzt.
Das Energy Department sagte letzte Woche, es unterstützt den Antrag, der [Solar-] Anlage, die Anfang 2014 den Betrieb aufgenommen hat, mehr Zeit zu geben.

Erschienen auf THE WALL STREET JOURNAL am 16. März, 2106

Übersetzt durch Andreas Demmig

http://www.marketwatch.com/story/could-californias-massive-ivanpah-solar-power-plant-be-forced-to-go-dark-2016-03-16

++++++++

Ergänzung:

Diese Solaranlage ist gigantisch und mit vielen Vorschusslorbeeren an den Start gegangen. Auch auf WIKI ist eine gute Beschreibung zu finden.

Wiki gibt an: 3,4 Mrd $ Kosten, auch werden die Umweltprobleme angesprochen

https://de.wikipedia.org/wiki/Sonnenw%C3%A4rmekraftwerk_Ivanpah

Präsentation und Werbefilme BrightSource 

http://www.ecc-conference.org/past-conferences/2012/BrightSource_ECC_Presentation_combined.pdf
https://www.youtube.com/watch?v=lAq-1uQwXm0

Die Idee ist, tagsüber so viel Hitze und Dampf zu produzieren, dass damit auch des nachts der Generator betrieben werden kann. Ich habe auf WUWT gelesen, dass man inzwischen nachts mit Diesel Hitze erzeugt, weil es tagsüber nicht ausreicht. [Link nicht nachrecherchiert]

Probleme machen u.a. die vielen getöteten Vögel. Sie werden in der gebündelten Sonnenhitze geröstet.

The $2.2 Billion Bird-Scorching Solar Project At California’s Ivanpah Plant

Update 22.03.2016

Brightsource Energy hat die Verlängerung bekommen

Das Ziel verfehlende Ivanpah Solarkraftwerk bekommt eine Gnadenfrist , aber produziert ‚unerschwinglich teuren " Strom

WUWT hat nachgerechnet: 19$ / Wattstunde bei Zielleistung von 1GWh/a, die aber nur zu 2/3 erreicht wird. (die derzeitige kWh ist also noch teurer)

http://wattsupwiththat.com/2016/03/21/failing-ivanpah-solar-power-plant-gets-temporary-repreive-but-is-producing-prohibitively-expensive-electricity/

Und link zu http://www.pe.com/articles/plant-797333-ivanpah-solar.html

… die Anlage produziert zweidrittel der Zielleistung

Die Besitzer der Anlage [BrightSource] haben sich darauf geeinigt PG & E eine nicht genannte Summe im Austausch zu zahlen, für das Erhalten von Zeit die Stromproduktion  der Anlage zu verbessern. Der Deal folgte Kosten-Nutzen Erkenntnissen, dem Ausfall der Anlage gegenüber den Produktions Verpflichtungen.

Im Gegenzug wird PG & E nicht erklären, dass der Stromabnahmevertrag mit den Anlagenbetreibern in Verzug ist.

Übersetzt Andreas Demmig




EIKE 9. IKEK Christopher Monckton: Wie die Wissenschaft im Namen des Klimaschutzes geopfert wird

 

Video (in Englisch) des Vortrags von Lord Christoper Monckton (ehem. Science Adviser von Lady Margret Thatcher Premierministerin von Groß Britannien) gehalten anlässlich der 9. Internationalen Klima- und Energiekonferenz am 10. und 11.12.15 im Haus der Technik Essen.“Wie die Wissenschaft im Namen des Klimaschutzes geopfert wird „




Müssen alle KKW sofort abgeschaltete werden?

Müssen alle KKW sofort abgeschaltete werden?

Veröffentlicht am 21.03.2016

REUTERS NRC-Ingenieure fordern Reparatur von Kernkraftwerken 

am 4. März setzte HUFFPOST :Gefährlicher Konstruktionsfehler droht die Flotte der KKW abzuschalten

 

Public petition under section 2.206

Für einen solchen Vorgang läßt sich nur schwer eine deutsche Übersetzung finden, weil er uns kulturell eher fremd ist. In den USA geht man selbstverständlich davon aus, daß in allen Behörden Dienstwege außerordentlich verschlungen sind. Der normale Weg von unten bis oben ist nicht nur lang, sondern kann auch schnell in eine Sackgasse führen. Dies muß nicht einmal aus “Boshaftigkeit” geschehen, sondern immer neue “Gesichtspunkte” erzeugen auch immer neue Fragen. Deshalb gibt es in der amerikanischen Atomaufsicht – Nuclear Regulatory Commission (NRC) – eine Überholspur in der Form einer Petition.

Jeder Mitarbeiter – in diesem Fall war es eine Gruppe aus sieben Ingenieuren – kann eine (formalisierte) Stellungnahme abgeben. Diese muß dann innerhalb von 30 Tagen beantwortet werden. Das Besondere daran ist, daß diese Eingabe und die Antwort öffentlich sind. Es ist damit ein sehr scharfes Schwert in den Händen der “einfachen Mitarbeiter”. Gerade ausgewiesene Spezialisten mit anerkannten Fachkenntnissen, haben oft keine einflußreichen Positionen in der Hierarchie einer Behörde. Solch eine Petition wirbelt natürlich innen wie außen eine Menge Staub auf. Insofern wird sie nur bei schwerwiegenden Sicherheitsbedenken sinnvoll angewandt.

Um es gleich vorweg zu nehmen: Diese Gruppe hat nach eigenem Bekunden nie die Abschaltung aller Reaktoren in den USA im Sinn gehabt. Gleichwohl hat sie (begründete) Bedenken. Sie meint einer bedeutenden Sicherheitslücke auf die Spur gekommen zu sein und meint, daß nicht genug getan worden ist, um die Mängel zu beseitigen. Ungeduld und vorschnelles Handeln kann man ihnen sicherlich nicht unterstellen, da es sich um vier Jahre alte Vorkommnisse handelt.

Was war passiert?

Am 30.1.2012 war es im Kernkraftwerk Byron zu einer Schnellabschaltung gekommen. Ein solches Ereignis ist meldepflichtig und es setzt eine umfangreiche Untersuchung aller Ereignisse ein. Ziel ist es dabei immer, Schwachstellen herauszufinden, diese gegebenenfalls zu beseitigen und anderen Betreibern die Möglichkeit zu bieten, daraus zu lernen.

Wie man bald herausfand, war die Ursache ein Bruch eines Isolators an der 345 kV Leitung des Kraftwerks. Der Isolator gehörte zu einer Serie, die falsch gebrannt worden war und somit in ihrem Kern starke Fehler aufwies. Inzwischen gab es einen Rückruf und die fehlerhafte Serie wurde ausgetauscht. Soweit nichts besonderes. Brüche von Isolatoren an Hochspannungsleitungen kommen immer mal wieder vor. Was macht die Angelegenheit aber trotzdem zu einem Sicherheitsproblem?

Dieser Isolator hat eine der drei Phasen gehalten, mit denen einer der Transformatoren zur Eigenversorgung des Kraftwerks verbunden war. Nun sind solche Anschlüsse, wegen der erforderlichen Leistungen, eher “Stangen” als “Drähte”. Die Phase riß zwar ab, fiel aber nicht auf den Boden und löste somit keinen Kurzschluss aus. Die Sicherung löste nicht aus. Es gab auch kaum einen Spannungsunterschied zwischen den Phasen. Der Fehler wurde dadurch gar nicht bemerkt und es erfolgte keine automatische Umschaltung auf einen anderen Weg zur Energieversorgung.

Normalerweise ist ein solcher Vorfall nichts ernstes: Man schaltet die Komponente frei, setzt einen anderen Trafo zur Versorgung ein und repariert den Schaden schnellstmöglich. Allerdings muß man dafür den Leitungsbruch bemerken. Hier setzt die berechtigte Kritik ein. Die Unterzeichner der Petition haben systematisch alte Störfälle noch einmal untersucht und dabei festgestellt, daß so etwas bereits häufiger passiert ist. Teilweise wurden solche Fehler erst nach Tagen bei Kontrollgängen bemerkt oder erst infolge von Anfragen des Netzbetreibers “gesucht”. Diesem Problem wurde keine besondere Dringlichkeit beigemessen, da es durchweg nicht zu Schnellabschaltungen kam. Es war einfach nur ein typischer Schaden im nicht-nuklearen Teil des Kraftwerks.

Sicherheitsrelevant oder nicht?

Die Stromversorgung von außen, sollte bei einem Kernkraftwerk immer funktionieren. Deshalb wird sie auch ständig überwacht. Das Tückische an diesem Schadensbild ist jedoch, daß sie eben nicht unterbrochen, sondern nur gestört war. Wenn bei einer Drehstromversorgung nur eine Phase unterbrochen ist, fließt trotzdem noch weiterhin Strom, aber mit geringerer Spannung. Dies wurde von der Meßtechnik auch richtig erfaßt, aber von der Auswerte-Logik falsch interpretiert. Es wurde die Spannungsdifferenz zwischen den Phasen A und B gebildet (die in Ordnung war) und zwischen den Phasen B und C (die geringe Abweichungen hatte, weil Phase C abgerissen war, aber frei in der Luft hing). Wenn die Stromversorgung nicht richtig funktioniert, soll automatisch auf eine andere Strecke umgeschaltet werden oder die Notstromdiesel gestartet werden.

Die Schnellabschaltung ist sicherheitstechnisch der letzte Rat. Um den Reaktor zu schonen, sollte sie so selten wie möglich erfolgen. In der Sicherheitskette ist deshalb eine solche Spannungsüberwachung ein 2-von–2-Kriterium – nur wenn beide Differenzen eine bedeutende Abweichung ergeben, wird von einem schwerwiegenden Fehler ausgegangen. Wenn – wie in diesem Störfall – nur eine Differenzmessung abweicht (weil nur ein Kabel von dreien gebrochen war), wird eher ein Messfehler unterstellt. Die Umschaltung erfolgte später erst durch einen Mitarbeiter, der sich ca. 8 Minuten nach der Schnellabschaltung von der Funktionstüchtigkeit der Schaltanlage vor Ort überzeugte. Er löste die “Sicherung” von Hand aus, nachdem er die abgerissene Leitung sah und damit seinen Verdacht für den Spannungsabfall bestätigt sah. Ein deutlicher Hinweis, warum man Kernkraftwerke nicht vollautomatisch betreibt!

Kleine Ursache, große Wirkung

Man hat in jedem Kraftwerk intern verschiedene Spannungsebenen, um die großen Antriebsleistungen von Pumpen etc. überhaupt bereitstellen zu können. In Byron hingen zwei Hauptkühlmittelpumpen an der “Aussenversorgung.” und zwei an dem eigenen “Generatorsystem”. Zum Anlagenschutz hat jede Pumpe ihr eigenes Überwachungssystem, welches bei einer Überschreitung von Grenzwerten die Pumpe abschaltet. Die zwei Pumpen, die an der “Aussenversorgung” hingen, haben die Spannungsunterschreitung und die Stromüberschreitung infolge der verlorenen Phase richtig erkannt und sich automatisch abgeschaltet. Die anderen zwei, die am “Generatorsystem” hingen, waren davon nicht betroffen. Jetzt griff aber die Sicherheitskette ein: Ein Ausfall von zwei Hauptkühlmittelpumpen ist ein nicht zu überbrückendes Abschaltkriterium. Der SCRAM – die Schnellabschaltung – wird unweigerlich und unbeeinflußbar ausgelöst.

Durch die Schnellabschaltung ging die Dampfproduktion und damit die Eigenversorgung in die Knie. Man war damit noch abhängiger von der Außenversorgung. Der Spannungsabfall fraß sich weiter durchs Kraftwerk und setzte nacheinander weitere Großverbraucher außer Gefecht. Plötzlich befand man sich in einer Situation, ähnlich wie in Fukushima: Man hing nur noch von einer “Notkühlung” über die Notstromdiesel ab. Hier hat zwar alles einwandfrei funktioniert und es sind keinerlei Schäden aufgetreten, aber eigentlich will man nicht so viele “Verteidigungslinien” durchbrechen.

Die unterschiedlichen Interpretationen

Wie gesagt, der Vorfall liegt vier Jahre zurück. Passiert ist nichts. Das Kraftwerk konnte – nach den üblichen umfangreichen Überprüfungen – wieder angefahren werden. Inzwischen gibt es einige Kilogramm Fachaufsätze, die sich mit dem Problem beschäftigen. Zahlreiche Veranstaltungen sind durchgeführt worden.

Schnell und einfach, geht in der (heutigen) Kerntechnik gar nichts mehr. Jede Maßnahme muß genauestens untersucht und kommentiert werden – letztendlich sogar von Juristen. Es gibt inzwischen sogar verschiedene technische Lösungsansätze für das Problem. Alle haben ihre Vor- und Nachteile. Man muß höllisch aufpassen, daß man durch Veränderungen an einer Stelle, nicht neue Probleme an anderer Stelle schafft.

Es geht bei der ganzen Angelegenheit weniger um Technik als um Juristerei. Inzwischen sind alle Kraftwerke und alle Hersteller informiert und arbeiten eng zusammen. Jedes Kernkraftwerk ist ein individuelles Produkt und erfordert damit auch eine spezielle Lösung des Problems. Jeder Einzelfall muß auf seine Auswirkungen bezüglich des Gesamtsystems hin überprüft werden. Eine sehr arbeitsintensive Angelegenheit. Letztendlich streitet man sich um die ewige Frage: Was soll automatisch geschehen und was macht der Mensch? Sollen solche Randbereiche, wie ein einzelnes Kabel eines Hilfstransformators, in automatische Sicherheitsketten eingearbeitet werden? Wird dadurch die Sicherheit erhöht oder gar verringert? Kann man oder soll man sogar, wegen der Beschäftigung mit solchen Problemen, ganze Kraftwerksflotten stilllegen? Wie lange ist der angemessene Zeitraum, um eine etwaige Verbesserung umzusetzen?

Langsam bildet sich in der kerntechnischen Industrie selbst, ein absurd anmutender Drang nach Perfektionismus heraus. Die Abwägung von Risiko und Nutzen geht immer mehr zu Lasten des Nutzens. Was wäre, wenn man jedesmal gleich die Hauptmaschine abstellen würde, weil irgendwo im Maschinenraum ein Teil versagt? Unsere Küsten wären wahrscheinlich längst mit Schiffswracks (auch nuklearen!) gepflastert. Noch absurder wäre die ständige Forderung nach sofortiger Stilllegung der gesamten Flotte. Ganz offensichtlich geht es hier um ganz andere Dinge. Nur konsequente Aufklärung und Transparenz kann die Kerntechnik wieder auf ein Normalmaß zurückholen. Wie wäre es mit der Flugzeugindustrie als Vorbild? Dort wird auch nicht nach jedem Absturz – jedes mal – das gesamte System in Frage gestellt.

Gleichwohl ist das Vorgehen gewisser Presseorgane immer gleich: Man greift Jahre zurückliegende Ereignisse (erinnert sei nur an die Druckbehälter in Tihange und Doel) auf, die längst in der Fachwelt abgehakt, weil vollständig ausdiskutiert sind. Gierig werden einzelne, meist singuläre Ansichten aufgegriffen und daraus vermeintliche Skandale und Vertuschungen konstruiert. Dies alles, obwohl es im Internetzeitalter weniger Klicks bedarf, um sich zu informieren. Ist das Selbststudium zu anstrengend, könnte man ja mal ein paar Fachleute befragen. In wie weit man das noch als “schlampigen Journalismus” oder schon als “Lügenpresse” einordnet, muß jeder für sich selbst entscheiden.

http://www.nukeklaus.de/home/muessen-alle-kkw-sofort-abgeschaltete-werden/

 




Klimaschutzplan 2050 = Morgenthauplan 2.0 ?

Ein Bürgerdialog der  keiner ist

Soeben veröffentlicht die Bundesregierung ihre Absicht im Sommer d.J. den „Klimaschutzplan 2050“  zu verabschieden. Nach Beendigung eines sog. „Bürgerdialogs“ am 19.2.16, an dem nur  428 „Bürger “ (von gut 80.000.000, die in Deutschland leben) teilnahmen, will sie deren Vorschläge in Gesetze und Verordnungen umsetzen.  Weil diese „Bürger“ durch eine  „telefonische Zufallsauswahl in Stadt und Umland“ ermittelt worden seien,  bildeten sie – so die unterschwellige Behauptung der Regierung- einen repräsentativen Querschnitt unserer Bevölkerung ab.

Doch nur 2.454 der 76.450 insgesamt Angerufenen zeigten sich überhaupt interessiert. Sie durften damit überwiegend zum harten Kern der „Klimaschützer“ hierzulande  zählen“. Doch damit auch bei denen ja nichts anbrennt, man weiß ja nie, erhielten sie als Denk-Vorgabe den „Klimaschutzplan 2050“ zugesandt. Der hat aber wohl viele trotzdem abgeschreckt, denn nur 472 von Ihnen nahmen an den folgenden Veranstaltungen teil. Und nur noch 428 „Bürger “ also nur 0,55 % der ursprünglich Ausgewählten, beteiligten sich an der letztendlich bestimmenden Online-Umfrage. Mit dieser höchst selektiven Auswahl war sichergestellt, dass die so Befragten das richtige Bewusstsein mitbrachten und deshalb „richtig“ mitmachen würden. Unterstützt und vermutlich auch gelenkt von der ihnen zuvor zugesandten Beeinflussungsliteratur des BMU

Nach dieser Vorarbeit verlief das Experiment zur vollen Zufriedenheit des Auftraggebers, wie die stolz auf der Homepage Bürgerdialog veröffentlichte wohl  typische Aussage einer der Teilnehmerinnen zeigt:

„Ich fand es besonders toll, dass man als Bürger mit ins Boot geholt worden ist: Klimaschutz 2050! Hört sich weit an, aber wir müssen jetzt anfangen etwas zu tun“

Katharina Fechtner, Nürnberg

Organisator dieses, nach allen Regeln der statistischen Stichprobenerhebung hanebüchenen Verfahrens war lt Die Welt die Firma IFOK. Ein auf Klima- und Energiethemen – im richtigen Sinne versteht sich- Beratungsunternehmen, das vom promovierten Biologen Hans-Peter Meister gegründet worden ist. Der war zuvor – welch merkwürdiger Zufall- u.a. Pressesprecher des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit gewesen war. Also genau des Ministeriums, dass ihn wenig später mit dieser wichtigen Aufgabe betraute. Seine Mission beschreibt die IFOK so:

„Als Trendsetter hat IFOK immer wieder beispielgebende Entwicklungen angestoßen. So war die Gründung der Tochtergesellschaft Meister Consultants Group (MCG) in Boston ein Treiber für neue Dialog- und Kommunikationsformate in den USA. Seit 2009 berät MCG erfolgreich – inzwischen weltweit – in den Themen Energie- und Klimawandel.“

Hervorhebung vom Autor.

Klimaschutzplan 2050

Ziel des „Klimaschutzplan 2050“  ist – zur Rettung des Weltklimas- die fast vollständige Dekarbonisierung Deutschlands bis 2050. Insbesondere will sich die Regierung auf u.a. folgende Maßnahmen konzentrieren:

– Beendigung des Verkaufs von Verbrennungsmotoren in Deutschland für den Einsatz bei Transport und Verkehr bis 2030

– erhöhte Grundsteuerhebesätze bei "Energie-ineffizienten" Immobilien

– Umstellungspflicht für Heizungen in Immobilien auf "EE"

– Brennstoffsteuer für Öl und Gas (Heizungen)

– durchgängige Tempo-30-Begrenzung in Ortschaften

– durchgängige Tempo-120-Begrenzung auf Autobahnen

und ggf. Erfüllung weitergehende Forderungen von ökofanatischen NGO’s wie

–       Ende des Kohleeinsatzes in Kraftwerken bis 2035.

Abb. 1: Vorgesehene CO2 Emissions-Minderung bis zum Jahre 2050 und Wirkung auf den postulierten Anstieg der globalen Mitteltemperatur (irgendwann) nach Vorgaben des IPCC, d.h. incl. der nicht vorhandenen Wasserdampfrückkoplung (Verstärkung). Grafik M. Limburg, Daten Bundesumweltamt 2011

= Morgenthauplan 2.0

Ein Plan der – wenn er denn umgesetzt wird- Deutschland seine gesamte Industrie und weite Teile der Wirtschaft kosten, und es damit in ein armes Agrarland zurück verwandeln wird. Also genau das, was der amerikanische Finanzminister Henry Morgenthau 1944 vorschlug, um Deutschland für immer jede Angriffsfähigkeit zu nehmen. So jedenfalls dessen Ziel, wenn man Wikipedia glauben mag. Nach den extremen Blutopfern mit ca. 60 Mio Toten, die der durch   Deutschland begonnene zweite Weltkrieg forderte, war diese zumindest für einige Leute aber nur kurzzeitig damals eine Option. Konnte man damals für dessen Totschlagsplan also noch ein gewisses Verständnis aufbringen,  so muss heute umso mehr erschrecken, dass dieser Plan jetzt von der eigenen Regierung wieder hervorgeholt wird. Man nennt ihn natürlich anders, man begründet ihn auch anders, aber das Ergebnis würde jedoch dasselbe sein.

Denn die Bundesregierung – in Gestalt ihrer Umweltministerin Barbara Hendricks- bläst zum General-Angriff auf alle Bürger, um endlich ihr langersehntes Ziel von der „globalen Kulturrevolution“ wenigstens  im Vorreiter-Deutschland durchzusetzen.  

Was war geschehen? Deutschland verfehlt seine unsinnigen, aber dafür sehr ambitionierten, „Klimaschutzziele“ mittels massiver CO2 Vermeidung deutlich. Statt einer weiteren Absenkung derselben stiegen sie im Jahr 2015 wieder an. Vermutlich auf ca. 912 Mio t so hat es jedenfalls das Forum Ökologisch Soziale Marktwirtschaft (FÖS) im Auftrag der grünen Bundestagsfraktion errechnet.

Beschlüsse von Paris und Realität klaffen auseinander

Und in Paris hatte man – unter internationalem Jubel- im Dezember die Einhaltung des sog. 2 ° Zieles (auf freiwilliger Basis sogar 1,5 ° Zieles) beschlossen, Trotz der unbestreitbaren Tatsache, dass die globale Mitteltemperatur seit nunmehr fast 20 Jahren keinen Anstieg mehr zeigt (El Niño Ereignisse wie 1998 oder 2015 sind Wetter und kein Klima), gleichzeitig aber die CO2 Konzentration ungebremst weiter steigt, leugnete man in Paris diese Entwicklung.  Man wolle also mittels der völlig sich als untauglich erweisenden CO2 Emissionsabsenkung,  nun Dekarbonisierung genannt, die weitere Erwärmung verhindern. So die Begründung.

Und Deutschland mit ihrer ahnungslosen aber durchsetzungsstarken Burning Barbara Umweltministerin Hendricks will als bekannter Streber an vorderster Front dabei sein.  

Und dann das! Statt einer geplanten Absenkung ergibt sich eine kräftige Erhöhung.

 

Abb. 2 CO2 äquiv Emissionen Deutschland von 1990 bis 2015 Quelle FÖS hier

Also musste jetzt Action gezeigt werden, getreu dem Befehl des Genossen Ulbricht an seine SED Genossen zur Machtübernahme in der damaligen sowjetischen Besatzungszone ausgab:

„Es muss alles demokratisch aussehen, aber wir müssen alles in der Hand behalten“

Mittels einer fingierten Volksbefragung -siehe oben- wird der Wille des Volkes vorgetäuscht. Damit lassen sich längst geplante Grausamkeiten ins Parlament bringen und von diesem im Schnelldurchgang  auch genehmen zu lassen. Wir kennen das von der Eurorettung, aber auch – kaum noch in Erinnerung-  von der Durchpeitschung der Gesetzgebung für das Energiekonzept vom Herbst 2010. Wie kann ein Parlament, so das Kalkül der  Macher, denn das Votum des Volkes ablehnen?

Und das schicke, schöne daran ist – sozusagen als erwünschter Kollateralschaden- die Abschaffung der Demokratie selber, vorzugsweise durch diese.

Denn schon im Sommer, vermutlich schon im Juni, das Parlament soll den „Klimaschutzplan 2050“ billigen und verabschieden.

Überwiegend auf dem Verordnungswege soll eine fast völlige „Dekarbonisierung“ aller Lebensbereiche incl. der  Wirtschaft erzwungen werden. Gefordert wurde diese, anfangs „globale Kulturrevolution“[2] im maoistischen Sinne treffend genannte „Dekarbonisierung“ zuerst und zuvörderst vom Potsdam Institut für Klimaforschungsfolgen (PIK) bzw. seinem Gründer und Chef Hans Joachim Schellnhuber bereits seit 2007. (Wir berichteten u.a. hier darüber).

Als man dort merkte, dass der Begriff – obwohl genauso gemeint, wie ihn Maos rote Garden damals umsetzten- vielleicht zu belastet sei, erfand man den für viele fortschrittlicher klingenden Begriff von der „großen Transformation“.  Um in der Folge mit einer Fülle von Kongressen, Vorträgen, Artikeln, Büchern, sogar Comics und Diskussionen – unterstützt von der Riege der  Mainstream-Medien, auf breiter Front dafür zu werben.

Immer finanziell gut gepolstert mit Geldern des Steuerzahlers, aber insbesondere manchen privaten Milliardenstiftungen wie der Stiftung Mercator und der European Climate Foundation, die ihrerseits von -insbesondere von US Großstiftungen- wie der William and Flora Hewitt Foundation, der McCall/MacBain Foundation , aber – immer mit dabei- der Stiftung Mercator getragen wird.

Da überdies die leitenden Aktivisten des PIK und auch manch gesellschaftlicher „Institute“, die sich dieser Thematik verschrieben hatten,  wie bspw. dem Deutschen Institut für Entwicklungspolitik (Prof. Dr. Dirk Messner), oder dem Kulturwissenschaftlichen Institut in Essen (Prof. Claus Leggewie) zugleich Mitglieder im Wissenschaftlichen Beirat Globale Umwelt (WBGU) waren, einem illustren Beratergremium der Bundesregierung mit Zugang zur Kanzlerin, wurde auch über diesen Kanal heftigst  und mit Steuerzahlergeldern für die Dekarboniserung -besser neuen Morgenthauplan 2.0-  geworben.

Immer dieselben Aktivisten in immer neuen Rollen und Verkleidungen

Mittels dieser erfolgreichen Methode – immer dieselben Leute, in immer neuen Verkleidungen auftreten zu lassen- hatte schon zuvor der „Solarpapst“ Hermann Scheer seine unendlich teure Solarförderung zur Perfektion gebracht. Um damit den Medien immer neue, erlaucht klingende Namen mit immer pompöser klingenden Gremien und deren „Missionen“ vorzusetzen und auf diese Weise eine große Vielfalt und Akzeptanz vorzugaukeln. Ohne, dass es den Medien und Politikerkollegen auffiel, sangen immer wieder dieselben Leute dieselbe Litanei. 

Abb 3 Zitat von Prof. Otmar Edenhofer in der NZZ vom 14.11.2010

Der Schein trügt, aber die politischen Entscheider machen mit

Und viele Medienschaffenden fielen und fallen immer wieder darauf rein, genauso, wie fast die gesamte politische Klasse. Nicht merkend oder nicht erkennen wollend, oft aber auch begeistert, dass es sich immer wieder um einen relativ kleinen Kreis von immer denselben Personen und Unterstützern handelt, die auf diese Weise ihre Agenda vorantreiben. Die Agenda von der großen Transformation, mit Abschaffung der Demokratie und Enteignung der Produktionsmittel zum Zweck der Umverteilung zugunsten des neuen Gottes „Klimaschutz“.  Einem vermeintlichen Menschheitsziel, gestützt allein auf Glaubensbekenntnissen, wie sie zuletzt auf der Pariser Klimakonferenz formuliert und in einen Vertrag gegossen wurden.

Die Wirtschaft wehrt sich verhalten vor der „Ökodiktatur“

Nun, nachdem das Kind in den Brunnen gefallen war, beginnt wenigstens die Wirtschaft doch sehr verhalten aufzumucken. Man schreibt „Brandbriefe“.

Die Chefs der Verbände, wie BDI, DIHK, ZdH oder VKI schrieben solche Brandbriefe an die Regierung, manche benutzen dabei sogar das böse Wort von der Ökodiktatur. Der Maschinenbau und die Automobilindustrie halten sich noch zurück. Zu fett sind wohl die Pfründe, die sie glauben noch länger abgreifen zu können. Und merken nicht einmal dass das von ihnen gemästete Krokodil sie fressen wird, nur etwas später

Die anderen tun so, als ob das Ganze plötzlich vom Himmel gefallen wäre. Sie tun so, als ob sie nicht die ganzen letzten Jahre zu den lautesten Beifallklatschern dieser verhängnisvollen Politik  gehört hätten, immer nur darauf achtend von der großen Umverteilung einen gehörigen Batzen abzubekommen.

Wer erinnert sich z.B. nicht an den lauten Protest des Marsches der 15.000, organisiert von der IGCBE gegen den Plan der Regierung auch noch einen schnellen Ausstieg aus der Braunkohleverstromung in Gang zu setzen? Und wie schnell man sich einigte, als die Regierung – mit dem Geld der Stromverbraucher – den Unternehmen und der Gewerkschaft ihren Protest mit ein paar Milliarden wieder abkaufte?

So wird es mit einiger Sicherheit auch mit dem Protest gegen den nun anstehenden Morgenthauplan 2.0 – genannt Klimaschutzplan 2050- enden.

Wollen wir wetten?  

Es sei denn, dass die Menschen in diesem Land doch noch begreifen, dass es nicht um das völlig normale Klima, sondern allein um eine sozialistisch-grüne Ideologie  geht. 


Es sei denn, dass auch im politischen Lager endlich mal der Groschen fällt und sich handfester Widerstand organisiert. Mit dem Erscheinen der AfD und deren soeben veröffentlichten Programmentwurf scheint zumindest ein Funken Hoffnung berechtigt zu sein.

 

Abb 4: Zu den Zielen von Paris ein Zitat der Chefin des UNFCC Christina Figueres im Januar 2015 in  Davos

[2] Die Seite des PIK mit dieser Bezeischnung ist inzwischen gelöscht aber im Netz noch zu finden. „globale Kulturrevolution“ Quelle PIK 8.5.2007 hier




Über die Suche nach Erwärmung in den USHCN-Daten

Vom United States Historical Climatology Network USHCN haben wir eine Zeitreihe von Temperaturmessungen, die vom 19.Jahrhundert bis heute reicht. Die „monatlichen“ Versionen der USHCN-Daten sind zusammengesetzt aus jährlichen Stationsaufzeichnungen, die sowohl monatliche als auch Jahresmittelwerte enthalten. Diese Aufzeichnungen können herangezogen werden zur Konstruktion von Temperaturänderungen an jeder USHCN-Messstation. Die in Abbildung 1 (rechts!) gezeigte Funktion ist ein Komposit aus Netzwerk-Mittelwerten der schrittweisen Änderungen der Maximum-Temperatur (jährliche mittlere Höchsttemperatur). Die Anzahl der tatsächlichen Messstationen variiert, lag jedoch im Zeitraum 1930 bis 1940 bei etwa 1100 Stationen.

Abbildung 1 (rechts!): Mittel der sich von Jahr zu Jahr ändernden, nicht adjustieren Höchsttemperatur.

Aus dieser Abbildung kann man viele Dinge herauslesen:

• In den nicht adjustierten Aufzeichnungen der Höchsttemperatur zeigt sich kein eindeutiger Erwärmungstrend

• Die Wärmeänderung zwischen Erwärmungs- und Abkühlungsphasen verläuft zyklisch

• Die Änderung der Höchsttemperatur verläuft ordentlich während der gesamten USHCN-Historie, trotz signifikanter lokaler Differenzen zwischen vielen USHCN-Stationen untereinander.

• In der Verteilung der der Wärme-Änderungen ist eine komplexe Dynamik offensichtlich.

Abbildung 2: Histogramm von Änderungen der Maximum-Temperatur in den USHCN-Aufzeichnungen

Abbildung 2 zeigt ein Histogramm der gleichen Daten, die zu der Funktion in Abbildung 1 oben rechts beitragen. Die Tatsache, dass dieses Histogramm symmetrisch um die 0-Achse ist bestätigt, dass es keinen langzeitlichen Erwärmungs- (oder Abkühlungs-)Trend gibt. Wir wissen das, weil es in diesem Spezialfall unnötig ist Werte für die Masse und die Wärmekapazität zu haben.

Q = m * c * ΔTmax = m * c * [0] = 0

Energiebilanz

Interessanterweise sagt uns die gleiche Analyse mit den Daten der Minimum-Temperatur viel über die Energiebilanz mit der Zeit. Dies deshalb, weil die Minimum-Temperatur den Punkt repräsentiert, an dem die nächtliche Abkühlung aufhört und die tägliche Erwärmung einsetzt. Die Temperaturänderungs-Analyse für die Minimum-Temperatur zeigt Abbildung 3:

Es zeigt sich das gleiche Bild wie in Abbildung 1, nämlich dass es keinen eindeutigen Trend mit Erwärmung oder Abkühlung gibt in der Funktion der Tiefsttemperatur-Änderung. Nochmals bestätigt wird dies durch das Histogramm der Daten in Abbildung 4:

Abbildung 4: Histogramm der Tiefsttemperatur-Änderung von Jahr zu Jahr

Das Fehlen eines Erwärmungs- oder Abkühlungstrends für die jährliche Minimum-Temperatur wird wieder durch die Wärmegleichung gegeben:

Q = m * c * ΔTmin = m * c * [0] = 0

Welche Erwärmung auch immer stattfindet während der täglichen und jahreszeitlichen Erwärmungszyklen – sie wird vollständig ausgeglichen durch die korrespondierenden täglichen und jahreszeitlichen Abkühlungszyklen. Anderenfalls würde es in den Daten der Minimum-Temperatur eine Änderung des Trends geben. Man vergesse nicht, dass alle Abbildungen auf der Grundlage jährlicher Mittelwerte erstellt worden sind, so dass sich jahreszeitliche Effekte in der Analyse herausmitteln.

Analyse von adjustierten Daten der Maximum-Temperatur

Die gleiche Analyse mit adjustierten Versionen der Minimum-Temperaturdaten zeigt identische Ergebnisse. Wie bei den nicht adjustierten Daten gibt es keinen eindeutigen Trend der Wärmeänderung. Tatsächlich gibt es nur marginale Differenzen hinsichtlich der Amplitude der Erwärmungs- und Abkühlungszyklen.

Abbildung 5: Version von Abbildung 1 mit adjustierten Daten

Die reale „globale Erwärmung“

Die Klimawissenschaft sucht nach der globalen Erwärmung in Computermodellen, die so programmiert sind, dass sie genau diese erzeugen – in geringem Umfang. Inzwischen zeigen die Beobachtungsdaten eine massive Erwärmung. Jedermann (auf der Nordhemisphäre) weiß, dass es im Winter kälter ist als im Sommer. Die Erwärmung von Winter zu Sommer ist ein natürliches jahreszeitliches Phänomen, der später von der Abkühlung von Sommer zu Winter abgelöst wird. Diese jährlichen Zyklen haben als Ursache die sich ändernde Stellung des Planeten relativ zur Sonne.

Abbildung 6: Mittlere jahreszeitliche Erwärmung von Winter zu Sommer (Januar bis Juli) in den USHCN-Daten

Abbildung 6 zeigt die Verteilung der jahreszeitlichen Erwärmung über die Zeit auf der Grundlage der Temperaturdifferenz zwischen Januar und Juli. In den USA beträgt die jahreszeitliche Erwärmung etwa 45°F [ca. 25 K] mit einer Bandbreite zwischen 40°F und 55°F [ca. 22 K bis 30 K]. Das ist eine massive Erwärmung und eine große Variation. Sie ist viel größer als das vermeintliche Auslöse-Niveau für globale Erwärmung! Und doch spielt das für die Klimawissenschaftler überhaupt keine Rolle.

Das Mysterium der Klimawissenschaft ist, dass massive, regelmäßige jahreszeitliche Erwärmungszuyklen nicht der Erwähnung wert sind, während geringste Änderungen der jährlichen Temperaturen einen katastrophalen Klimawandel signalisieren sollen. Das verstehe, wer will.

Überlegungen zu diesen Analysen

Da die Beweisführung durch Daten nicht gerade eine Spezialität derjenigen ist, die den Konsens unterstützen, folgen hier ein paar Dinge, die bzgl. der Evaluierung der Analysen angesprochen werden könnten:

• Treibhauseffekte, so es sie gibt, können mit diesen Methoden nicht erkannt werden.

• Städtische Wärmeinseln sind in diesem Analyseverfahren nicht signifikant, obwohl sie real sind.

• Die Verwendung jährlicher Mittelwerte minimiert die Signifikanz kurzfristiger Wetterabläufe.

• Die [Jahres?-]Mitteltemperatur ist kein messbarer Parameter, lässt das Verhalten von Maximum- und Minimum-Temperatur verschmelzen, darum wird sie in diesen Analysen nicht herangezogen.

• Die Verwendung inkrementeller Änderungen der Maximum- bzw. Minimum-Temperatur normalisiert effektiv die anderenfalls ungleichen Stationsdaten und erlaubt Zusammenfassung.

Reference: “monthly” versions of USHCN data hier:  http://cdiac.ornl.gov/epubs/ndp/ushcn/monthly_doc.html

Link: http://wattsupwiththat.com/2016/03/16/searching-for-warming-in-ushcn-data/

Übersetzt von Chris Frey EIKE




Aktionsprogramm Klimaschutz – Frau Hendricks fördert Investitionen für Lastfahrräder zur CO2-Minderung

Bild rechts: TRIROTA Produkte Fahrradtaxis. Untertitel des Autors: Alleine mit dem Lastenfahren käme ich nicht über die Runden. Weil ich meine Passagiere aber anweise, während der Fahrt ab und zu die Luft zur CO2-Minderung anzuhalten, bekomme ich zusätzliche CO2-Vermeidungs-Fördermittel. Damit reicht es.

Der neuste „Schrei“ ist nun der Ausbau des Radverkehrs „Hendricks fördert Ausbau des Radverkehrs“. Aber nicht für den Tourismus, sondern als Ersatz des Verkehrs und zum Lastentransport für Firmen: Bundeswettbewerb "Klimaschutz im Radverkehr". Danach werden auch Unternehmen gefördert, die ihre Waren mit Lastenfahrrädern transportieren wollen. Förderfähig sind auch Investitionen in Lastrad-Verleihe.

 

Mit Geld wird dabei nicht geknausert: Pro bewilligtem Projekt stellt das BMUB mindestens 200.000 Euro zur Verfügung. 

Damit die Ideen nicht ausgehen, darf jeder Verein eigene einbringen. Das  Ministerium listet und fördert sie dann: Aktionsprogramm Klimaschutz. Beiträge leisten darin z.B.: WWF, Greenpeace, Germanwatch, Bundesverband erneuerbare Energien, IASS, Kirche NRW, katholische Landjugendbewegung Deutschlands, Deutscher Verband Flüssiggas e. V. und natürlich alle an Ökosubventionen partizipierenden Industrieverbände.

Wie sehen solche herausragenden Ideen aus:

Deutscher Verband Flüssiggas e. V.: CO2 Reduzierung durch den Einsatz von Flüssiggas in Baumaschinen. 

Im (inzwischen untergegangenen) Sozialismus wurde die das Proletariat rettende Zukunft immer sorgfältig vorgeplant. Nur so fortschrittliche Länder wie z.B. Nordkorea führten dies auch weiterhin konsequent durch. Unsere die Welt von allen Übeln rettende Regierung hat diese „bewährte“ Methoden jedoch übernommen.

Impulspapier

Die Bundesregierung hat das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) damit beauftragt, einen Klimaschutzplan 2050 zu erstellen und mit den Ressorts abzustimmen, damit er 2016 im Bundeskabinett verabschiedet werden kann. 

Unsere „Intelligenz“ die bisher doch alles unterstützt hatte, scheint inzwischen auch Angst vor einer Regierung zu bekommen die in einem Anfall von Hysterie Grün zu überholen versucht und deren Verbotsagenda übertrumpft. Vielleicht ist ihr die Ausrufung des bedingungslosen Endkampfes gegen das sich stetig wandelnde Klima durch Berlin nun doch nicht mehr so ganz geheuer – da es inzwischen erkennbar auch massiv ihren Geldbeutel betreffen wird. 

DIE WELT online, 19.03.2016: Deutsche Wirtschaft fürchtet sich vor "Öko-Diktatur"

(Auszug): In Paris hatte es sich noch gut angefühlt. Die Weltklimakonferenz der Vereinten Nationen ging Ende Dezember in einem Freudentaumel zu Ende, weil sich die Staatengemeinschaft für die "Dekarbonisierung" der Weltwirtschaft ausgesprochen hatte.

Doch auf die Party folgt wohl bald der Kater. Höhere Mieten, höhere Steuern, Sanierungszwang für Hausbesitzer, Tempolimits auf Autobahnen und massive Kostensteigerungen für Industriebetriebe: Das könnten die Folgen sein, falls die im Bundesumweltministerium gesammelten Vorschläge zur künftigen deutschen Klimaschutzpolitik demnächst Gesetzeskraft erlangen.

Bundesumweltministerin Barbara Hendricks (SPD) hatte durch das Beratungsunternehmen IFOK bereits seit vergangenem Jahr in Bürgerforen und Anhörungen Vorschläge sammeln lassen, wie der klimaschädliche CO2-Ausstoß Deutschlands bis 2050 gegen null gefahren werden könnte.

Wirtschaft warnt vor katastrophalen Folgen

Der "Dialogprozess" endet heute, wenn die gesammelten Vorschläge der Ministerin überreicht werden. In größter Hektik, nämlich noch vor der Sommerpause, soll aus dem Sammelsurium von Vorschlägen ein Bundesgesetz werden, das die Leitplanken der künftigen deutschen Klimapolitik bestimmt.

Nur: Was dabei zusammenkam, gleicht aus Sicht der Wirtschaft eher einem Programm zur Deindustrialisierung Deutschlands.

 

Unser Beitrag dazu kommt in Kürze: Stichwort Morgenthauplan 2.0 

Anm.: Der Hinweis zum Thema kam vom NAEB-Strom-Newsletter 2016/03

 




„Grün“ – das Statussymbol, dass sich die Wohlhabenden leisten können und die Armen teuer bezahlen müssen

[*Ich habe nirgends eine Übersetzung für den Begriff ,Priuses‘ gefunden. Er ist auch im Original groß geschrieben. Liegt vielleicht ein Verschreiber vor? Anm. d. Übers.]

„Grün“ ist inzwischen zu einem Statussymbol geworden, das sich die Reichen leisten können. Und doch führt ihr Bestreben, ihr „eigenes Gutmenschentum“ nach außen zu tragen, zu höheren Kosten für jene, die sich dies am wenigsten leisten können.

Solarenergie ist ein großartiges Beispiel. Auf der Website von SunRun, einem Unternehmen zum Leasen von Solarpaneelen, findet sich die Story der Verbraucherin „Pat“; sie ermutigen sogar mit der Werbung als „grünes Statussymbol“ zum Kauf anzuregen. Während Pat vielleicht glücklich ist mit ihren Solarpaneelen und „hofft, dass alle Nachbarn ebenfalls auf Solar übergehen“, bürdet ihr „grünes Statussymbol“ den Verbrauchern hohe Unkosten auf, die es sich zumeist nicht leisten können, auf „Solar überzugehen“.

Wie ich schon viele Male geschrieben habe, der Gedanke des Leasings von Solar funktioniert nur aufgrund von Steueranreizen und einem System mit der Bezeichnung „Net Metering“. Erstens müssen alle Steuerzahler für diese Steueranreize aufkommen. Immer wenn die Regierung etwas gibt, zahlt jedermann dafür. Net Metering ist etwas schwieriger zu verstehen. Kurz gesagt, der Versorger wird per Gesetz gezwungen, den durch Solarpaneele auf dem Dach zusätzlich erzeugten Strom zum vollen Tarif zu kaufen – sogar auch, wenn man diesen Strom nur zu einem Bruchteil des Preises des Kraftwerkes verkaufen kann. Da immer mehr Menschen sich diesem Programm zuwenden, steigen die Gesamtkosten für Strom. Man erinnere sich jedoch, dass all jene mit Solarpaneelen eine Null-Rechnung von dem Versorger bekommen, obwohl sie den Strom des Versorgers nachts ebenfalls verbrauchen. Außerdem bürden sie der Allgemeinheit zusätzliche Infrastruktur-Kosten auf wie etwa den Bau von Stromleitungen. Ultimativ wird der Strom nur für Nicht-Solar-Eigentümer immer teurer. Infolge dieser „Kostenverschiebung“ ändern viele US-Staaten ihre Politik bzw. Net Metering dergestalt, dass Solareigentümer für die nicht gezahlten Kosten des Netzes aufkommen. Allerdings ändern die überarbeiteten Programme die Ökonomien wie jüngst in Nevada und machen es für die Unternehmen unprofitabel, in dem Staat zu operieren.

Dies erkennt man glasklar in den immer weiter steigenden Stromkosten – 3 Prozent pro Jahr oder 34 Prozent von 2008 bis zum Oktober 2015, und zwar dem Institute for Energy Research zufolge – und das, obwohl sich die Preise für die Haupt-Treibstoffe (Kohle und Erdgas) in einem Allzeit-Tief befinden.

Vor einigen Tagen hat Investor’s Business Daily (IBD) einen weiteren interessanten Blickwinkel angesprochen: „Grüne Energie kann mit Öl zu einem Preis von 30 Dollar pro Barrel wettbewerbsmäßig nicht mithalten“. Die einzige Möglichkeit für „grüne“ Energie ist: „Die Regierung muss die Menschen zwingen, sie zu kaufen; sie muss Strompreise und Heizkosten für Familien und Geschäfte hochtreiben“.

Eine neue, vom IBD zitierte Studie der University of Chicago kommt zu dem Ergebnis, dass für ein Elektrofahrzeug, dass im Betrieb billiger sein soll als eines mit einer modernen internen Verbrennungsmaschine, „der Preis von Öl über 350 Dollar pro Barrel steigen muss“. IBD stellt fest: „Ohne massive zusätzliche Subventionen der Steuerzahler an Unternehmen wie Tesla, müsste sich der Preis von Öl nicht nur verdoppeln oder verdreifachen, sondern mehr als verzehnfachen, bevor batteriebetriebene Fahrzeuge finanziell sinnvoll sind“.

Und doch berichtet die International Business Times (IBT): „Der Verkauf ist im vorigen Jahr tatsächlich um 16 Prozent gestiegen, teilweise weil diese Fahrzeuge als Statussymbole dienen und die Fahrer nach außen tragen wollen, wie sehr ihnen die Umwelt am Herzen liegt“.

Am 11. März schreibt der Kolumnist Holman Jenkins im Wall Street Journal: „Die Wähler sollten verrückt nach Elektroautos sein“. Warum? Weil, wie er erklärt: „Das Geschäftsmodell von Tesla vollständig von der Großzügigkeit des Steuerzahlers abhängt“. Jenkins weiter: „Tesla-Autos haben ein Status-Siegel, ja. Selbst Kunden der Mittelklasse könnten angezogen werden, trotz der niedrigen Benzinpreise, solange ihm mittels eines enormen Batzens Steuerzahler-Unterstützung geholfen wird“. In seiner Erklärung der „Absurdität ihres Subventions-Regimes“ für die Leser kommt Jenkins zu der Schlussfolgerung: „Und Sie fragen sich, warum Wähler auf irgendeiner Ebene das Gefühl haben, dass unsere politische Klasse Amerika in eine Sackgasse geführt hat, wo nur die Wohlhabenden von diese Subventionen profitieren, ebenso wie von den Gesetzen und dem politischen Einfluss zu ihren Gunsten“.

Alternative Treibstoffe sind auch durch die niedrigen Ölpreise angeschlagen. Die IBT schreibt: „Mais-Äthanol und Diesel auf Algenbasis brauchen Ölpreise, die etwa doppelt so hoch sind wie heute – oder höher – um mit fossilen Treibstoffen wettbewerbsmäßig mithalten zu können“.

Ein anderer Aspekt der „grünen“ sozialen Bewegung hat in der Umgebung niedriger Ölpreise einen Zoll gefordert, und zwar überraschenderweise von Recycling. Unter Verweis darauf, dass Recycling ein „Geschäft mit 100 Milliarden Dollar Umsatz pro Jahr“ ist, sagt der Reporter Stacy Venek Smith von National Public Radio: „Plastik wird aus Öl hergestellt, und wenn also das Öl billig wird, wird es auch billig, immer neues Plastik herzustellen. Wenn der Ölpreis wirklich sehr niedrig liegt, kann es tatsächlich teurer sein, recyceltes Plastik zu verwenden, weil dieses sortiert und gereinigt werden muss“. Aus Salt Lake City berichtete die Fernsehstation KUTV: „Viele Geschäftsbereiche finden es billiger, neues Plastik herzustellen als recycelte Materialien zu verwenden“. In Montana wird Plastik der Philippsburg Mail zufolge nicht mehr für das Recycling gesammelt, „weil die Preise pro Pfund niedriger lagen als die Kosten für Benzin und die Entfernungen für die entsprechenden Fahrten“.

Das Problem ist international. Deutschland hat einen Ruf als Recycling-Modell mit dem Ziel, 36% der Plastikerzeugung des Landes aus recyceltem Material herzustellen, und „die deutschen Verbraucher finanzieren Recycling mittels Lizenzabgaben, welche auf die Preise der von ihnen gekauften Produkte aufgeschlagen werden“. Das sagt Deutsche Welle, Deutschlands führende Organisation für internationale Medien-Entwicklung in einem Report mit dem Titel [übersetzt] „niedrige Ölpreise bedrohen das Plastik-Recycling in Deutschland“. Darin heißt es: „Für Hersteller, die strikt auf die Kosten achten, wäre die Option auf billigere neue Plastikwaren ökonomisch attraktiver“. Allerdings werden viele Unternehmen in dem Bestreben, „umweltfreundlich“ dazustehen, „die Aufpreise für recyceltes Plastik zahlen“ – was höhere Preise für die Verbraucher dieser Plastikerzeugnisse bedeutet.

Hinsichtlich des Recycling-Problems schreibt der Guardian: „Recycling funktioniert nur, wenn es jemanden auf der anderen Seite der Gleichung gibt, jemanden, der das recycelte Material kaufen will“.

Zum Glück für die Recycling-Industrie, aber zum Schaden der Verbraucher, die höhere Preise für Plastikerzeugnisse zahlen müssen, kommt die Philippsburg Mail zu dem Ergebnis: „Eine Menge Fortune-500-Unternehmen [?] wollen immer noch recycelte Ware kaufen, um Nachhaltigkeits-Ziele zu erreichen“.

Trotz Behauptungen, dass der „Grüne Wohlstand“ [green prosperity], der eine solche Politik impliziert, „Armut bekämpfen und den Lebensstandard heben kann“, ist das Gegenteil der Fall. Jedermann zahlt mehr – selbst jene, die sich das am wenigsten leisten können – nur damit die nach grünen Statussymbolen gierenden Eliten sich gut fühlen und sich als die richtigen Führer der Gemeinde gerieren können.

Link: http://oilpro.com/post/23132/greenthe-status-symbol-affluent-can-afford-costs-poor

Übersetzt von Chris Frey EIKE




Behauptung von 3,2 mm Anstieg des Meeresspiegel pro Jahr wird ernsthaft durch mehrere jüngst veröffentlichte Studien in Frage gestellt.

Falls der Meeresspiegel wirklich mit einer Rate von 3,2 mm pro Jahr zwischen 1993 und 2010 gestiegen wäre, wie das IPCC (2013) mit hoher Sicherheit behauptet, dann sollten die thermischen Quellen und die Verdunstungsmenge mindestens ebenfalls im gleichen Zeitraum um 3,2 mm pro Jahr zugenommen haben. Aber falls die veröffentlichten Studien zum Anstieg des Meeresspiegels recht haben, berechnen diese lediglich einen Anstieg zwischen 0,8 und 1,6 mm pro Jahr – ein Viertel des vom IPCC behaupteten Anstiegs – dann ist etwas hinsichtlich der 3,2 mm pro Jahr aus altimetrischen Messungen von Satelliten höchst fragwürdig.

Hier folgt eine gekürzte Liste von Studien aus jüngerer Zeit, die zeigen, dass die Schätzungen des Meeresspiegel-Anstiegs seitens des IPCC sehr übertrieben sind.

http://www.climatechange2013.org/images/report/WG1AR5_Chapter13_FINAL.pdf

Es ist sehr wahrscheinlich, dass die globale mittlere Rate zwischen 1901 und 2010 bei 1,7 mm pro Jahr lag mit einem Gesamtanstieg von 0,19 m. Zwischen 1993 und 2010 war die Rate sehr wahrscheinlich höher und lag bei 3,2 mm pro Jahr; eine ähnlich hohe Rate war wahrscheinlich von 1920 bis 1950 aufgetreten“.

Problematisch hieran ist, dass während der letzten Jahrzehnte mehrere Studien zu diesem Thema gezeigt haben, dass der Anstieg insgesamt höchstens halb so hoch (oder noch geringer) als die behauptete Rate ist.

Den jüngeren Schätzungen zufolge trug der Beitrag durch thermische Expansion mit 0,64 mm pro Jahr im Zeitraum 2005 bis 2013 zum Anstieg bei (Llovel et al. 2014, siehe nächsten Abschnitt). Der Beitrag von den Eisschilden Grönlands und der Antarktis betrug 0,59 mm pro Jahr für den Zeitraum 1992 bis 2011 (Shepard et al. 2012) Der Beitrag der übrigen Eisschilde und Gletscher weltweit betrug 0,41 mm pro Jahr im Zeitraum 2003 bis 2010 (Jacob et al. 2012).

——————————————–

Llovel et al. 2014

http://www.nature.com/nclimate/journal/v4/n11/full/nclimate2387.html

Über die gesamte Wassersäule zeigen unabhängige Schätzungen der Ozean-Erwärmung einen Beitrag von 0.77 ± 0.28 mm pro Jahr zum Meeresspiegel-Anstieg … die Tiefsee (unterhalb 2000 m) leistet einen Beitrag von −0.13 ± 0.72 mm pro Jahr zum globalen Anstieg (0,64 mm pro Jahr insgesamt).

——————————————–

Sheperd et al.2012

http://science.sciencemag.org/content/338/6111/1183

Seit 1992 haben die polaren Eisschilde (Antarktis und Grönland) im Mittel 0.59 ± 0.20 mm pro Jahr zur Rate des globalen Meeresspiegel-Anstiegs beigetragen.

——————————————–

Jacob et al., 2012

http://www.nature.com/nature/journal/v482/n7386/abs/nature10847.html

Hier zeigen wir, dass Gletscher und Eisschilde außerhalb denjenigen von Grönland und der Antarktis im Zeitraum Januar 2003 bis Dezember 2010 einen Massenverlust mit einer Rate von 148 ± 30 Gt pro Jahr erlitten haben, was 0.41 ± 0.08 mm zum Anstieg beitrug.

Aus diesen Quellen ergibt sich ein Anstieg von etwa 1,6 mm pro Jahr. Interessanterweise ist dies die gleiche oder eine etwas geringere Rate wie für den gesamten Zeitraum 1901 bis 2010 (1,7 mm pro Jahr laut IPCC). Das bedeutet, dass sich jenen Quellen zufolge der Anstieg des Meeresspiegels während der letzten Jahrzehnte eben nicht beschleunigt hat.

Eine weitere Schätzung aus jüngerer Zeit des Beitrags des Antarktischen Eisschildes zum Anstieg (Zwally et al. 2015, siehe nächsten Abschnitt) belegt, dass im Zeitraum 1992 bis 2008 der Massengewinn von Eis in der Ostantarktis größer war als der Massenverlust der Westantarktis. Dies bedeutet insgesamt eine Zunahme der Eismasse für den Kontinent als Ganzes und einen negativen Beitrag zum Anstieg des Meeresspiegels von -0,23 mm pro Jahr für den Zeitraum 2003 bis 2008.

——————————————–

http://www.ingentaconnect.com/content/igsoc/jog/2015/00000061/00000230/art00001

Massenänderungen des Antarktischen Eisschildes beeinflussen mit dem Klimawandel den Meeresspiegelanstieg, aber die jüngsten Raten waren unsicher. Ice, Cloud and Land Elevation Satellite (ICESat)-Daten zeigen Massengewinne durch Akkumulation von Schnee, die Verluste um 82 ± 25 Gt pro Jahr übersteigen, was den globalen Anstieg des Meeresspiegels um 0,23 mm pro Jahr verringert. Satelliten-Fernerkundungsdaten (ERS) von 1992–2001 zeigen einen ähnlichen Zuwachs von 112 ± 61 Gt pro Jahr.

——————————————–

https://www.nasa.gov/feature/goddard/nasa-study-mass-gains-of-antarctic-ice-sheet-greater-than-losses

„Die gute Nachricht lautet, dass die Antarktis gegenwärtig gar nichts zum Anstieg des Meeresspiegels beiträgt, sondern diesen vielmehr 0,23mm pro Jahr verringert“, sagte Zwally.

Gleichlaufend mit einer Abnahme des Meeresspiegels äquivalent zu einer Rate von -0,23 mm pro Jahr von 2003 bis 2008 infolge Eiszuwachs von +82 GT pro Jahr im gleichen Zeitraum können wir das Absinken des Meeresspiegels von 1992 bis 2001 berechnen mit -0,31 mm pro Jahr, wurde doch im Zeitraum 1992 bis 2001 eine höhere Rate der Zunahme von Eismasse (+112 Gt pro Jahr) für den Antarktischen Eisschild insgesamt verzeichnet. Mittelt man über alles, zeigt die Studie von Zwally et al. 2015, dass die Antarktis den Meeresspiegel im Zeitraum 1992 bis 2008 um 0,28 mm pro Jahr hat sinken lassen.

Zieht man diese Schätzung des Beitrages von -0,28 mm pro Jahr heran anstatt der Schätzung von Sheperd et al. 2012 von 0,19 mm pro Jahr, die man jedoch für den Beitrag des grönländischen Eisschildes beibehält (0,04 mm pro Jahr) reduziert sich der Beitrag der polaren Eisschilde von 0,59 mm pro Jahr auf 0,12 mm pro Jahr, was einen Beitrag beider Eisschilde kombiniert zum Anstieg des Meeresspiegels von 13 mm pro Jahrhundert bedeutet.

Diese Änderung um -0,47 mm pro Jahr reduziert die obige Schätzung von 1,6 mm pro Jahr auf 1,1 bis 1,2 mm pro Jahr oder etwas über 10 cm pro Jahrhundert.

Die Vorlage der Analyse des Anstiegs in obiger Quelle wurde im Journal Science von Cabanes et al. 2001 veröffentlicht. Hier folgt deren Summary für die letzten paar Jahrzehnte des 20. Jahrhunderts:

http://people.uncw.edu/grindlayn/GLY550/sealevel-topex-science-2001.pdf

Der Dritte Zustandsbericht des IPCC befasst sich mit der Abschätzung verschiedener Faktoren, die zum Anstieg des Meeresspiegels im 20. Jahrhundert beigetragen haben. Der größte Beitrag (0,7 mm pro Jahr) ergibt sich aus der thermischen Expansion infolge der Erwärmung der Ozeane, zu der es hauptsächlich seit den fünfziger Jahren gekommen war. Das Abschmelzen kontinentaler Gletscher leistet einen Beitrag von 0,2 bis 0,4 mm pro Jahr. Das Massenungleichgewicht des Eises in Grönland und der Antarktis leistet einen Beitrag von -0,2 bis 0,6 mm pro Jahr. Der unsicherste Beitrag ist die Änderung der terrestrischen Wasserspeicherung, die ihre Ursache teilweise in menschlichen Aktivitäten hat. Sie liegt im Bereich -1,1 bis +0,4 mm pro Jahr mit einem mittleren Wert von -0,35 mm pro Jahr, d. h. es ist gleichbedeutend mit einem Absinken des Meeresspiegels. Die Summe all dieser Beiträge liegt im Bereich zwischen -0,8 bis +2,2 mm pro Jahr mit einem mittleren Wert von 0,7 mm pro Jahr.

Man beachte, dass in diese Analyse der beitragenden Quellen „terrestrische Wasserspeicherung“ Eingang findet, die sich zu -0,35 mm pro Jahr summiert mit einer Bandbreite von „-1,1 bis +0,4 mm pro Jahr“ zum Ende des 20.Jahrhunderts. Eine noch jüngere Schätzung liegt offenbar nicht vor, aber es ist wahrscheinlich angemessen anzunehmen, dass sich diese Parameter der terrestrischen Wasserspeicherung nicht signifikant während des ersten Jahrzehnts des 21. Jahrhunderts verändert haben im Vergleich zu den letzten Jahrzehnten des 20. Jahrhunderts. Daher wäre es vernünftig, diesen Beitrag in die Palette aller beitragenden Faktoren zum Anstieg des Meeresspiegels in jüngerer Zeit einzubeziehen. Dies würde den oben beschriebenen Anstieg von 1,1 bis 1,2 mm pro Jahr (Zwally et al. 2015) auf etwa 0,8 mm pro Jahr reduzieren. Dieser Wert ist sehr ähnlich den 0,7 mm pro Jahr, der von Cabanes et al. 2001 für die letzten Jahrzehnte des 20. Jahrhunderts berechnet worden ist. Eine Rate von 0,8 mm pro Jahr ist äquivalent zu einem Anstieg von etwa 8 cm pro Jahrhundert.

Link: http://notrickszone.com/2016/03/15/claimed-3-2-millimeters-per-year-sea-level-rise-seriously-challenged-by-recently-published-scientific-papers/#sthash.Pn17bPW1.dpbs

Übersetzt von Chris Frey EIKE