1

Abzocke mit Wärmedämmung

Seit 1979 arbeite ich mit meinem vom Vater über­nommenen Architektur- und Ingenieurbüro vorwie­gend im Bereich Bauwerksinstandsetzung und Denkmalpflege. Die dabei gemachten Erfahrungen wi­derlegen in vielen Bereichen die gängigen Werbeaussa­gen der Bauwirtschaft. Am dramatischsten zeigte sich das bei der Dämmlüge, einem Grundbaustein der angeblichen Energiewende: Die Fassadendämmung, die mit der Ener­giesparverordnung und dem Erneuerbare Energien-Wär­megesetz (seit Jahresbeginn 2009) vorangetrieben wird, ist teuer und nutzlos.

Kontra-Vortrag v.Konrad Fischer auf einer a.o. Eigentümerversammlung am 7.7.2011 mit Pro (Prof. Dr.-Ing. Ulrich Möller, Energieberater & Professor an der HTWK Leipzig) & Kontra.

Das haben Praxis vergleiche hinreichend erwiesen. Auf die schriftliche Nachfrage der Schutzgemeinschaft für Wohnungseigentümer und Mieter aus dem Jahre 2011 konnte kein Ministerium und keine Energieagentur Beweise für die Energiesparwirkung der Fassadendämmung vorlegen. Entsprechend war auch das Ergebnis der Vergleichsun­tersuchungen des Fraunhofer-Instituts für Bauphysik aus den Jahren 1983-85. Vier Mal erwiesen die wissenschaftlich exakten Messungen, dass Häuser mit Fassadendämmung nicht weniger, sondern mehr Energie verbrauchen! Seit­dem ist das nie mehr korrekt untersucht worden. Die da­maligen Versuchsbauten sind beseitigt. Wenn heute Einsparungen verkündet werden, sind diese mit falschen Formeln berechnet worden oder kommen durch sonstige Maßnahmen an der Heizung, den Fenstern oder im Dach zu Stande. Wobei sich auch letztere oft nicht lohnen – es sei denn für den Vermieter, der den Unsinn als sogenannte Modernisierung auf den Mieter umlegt und aus Steuer­mitteln bezuschussen lässt. Auch wenn ein Häuslebauer ein Darlehen der staatseigenen Kreditanstalt für Wiederauf­bau (KfW) in Anspruch nimmt, lohnt sich das meist nicht, da die eingesparten Energiekosten zu gering sind.

Die beste Wärmedämmung sind speicherfähige Massivbauten mit Fenstern ohne Dichtlippe und Isoglas. 

Nun könnte man denken, dass die Dämmungen, wenn schon nicht zur Energieeinsparung, wenigstens im Sinne einer Instandsetzung taugen. Aber auch das stimmt nicht. Dämmen erzwingt nämlich Pfusch. Die Dämm­schäume, -gespinste und -steine werden am Tag extrem heiß, blockieren aber das Einspeichern der Sonnenwärme ins Mauerwerk. In der Nacht kühlen sie weit unter die Luft­temperatur und den sogenannten Taupunkt ab, saugen deshalb Kondensat und «saufen ab». Da sie wasserabwei­send beschichtet sind und nur Dampf hereinlassen, das eingedrungene Wasser jedoch mangels Kapillaraktivität nicht mehr hinaus kann, werden sie zu schimmeligen, ver­algten Wasserfallen. Die Plastikanstriche werden deswe­gen mit wasserlöslichen Giften verseucht. Obendrein kann der Schallschutz von nachträglich gedämmten Fassaden schlechter werden. Das Institut für Bauforschung Hannover hat nach jahrelangen Vergleichsuntersuchungen heraus­bekommen, dass die Instandhaltung von Dämmfassaden über neun Euro mehr pro Quadratmeter im Jahr kostet als eine Putzfassade.

Überdies ist die Dämmbauweise kurzlebig. Etwa 80 Prozent der Leichtbauten sind Sondermüll, von der Brandgefahr ganz zu schweigen. Die feuchte- und wind­bedingte Bewegungsfreude von Holzkonstruktionen in Wand und Dach beansprucht die rissgefährdeten Klebe­dichtungen. Nässeschäden folgen, auch durch Sommer­kondensat, das von außen in die Dämmebenen eindringt. Sogar die teuren Isoliergläser sind Wegwerfkonstruktio­nen – sie erblinden durch unausweichliche Innenkonden­sation und fressen vor allem als Dreifachglas soviel kostenlose Sonnenstrahlen auf, dass die Heizkostenrech­nung steigt.

Viele Bauherren haben schon gehört, dass die vom Energieberater und der Dämmstoffindustrie ver­sprochene Energieeinsparung eine Nullnummer ist, aber wissen nicht, wie sie um die vermeintlich per Gesetz ver­ordneten Maßnahmen herumkommen. Dabei ist das gar nicht so schwer: Jeder kann sich unter Berufung auf Para­graph 25 der Energiesparverordnung und Paragraph 9 des Erneuerbare Energien-Wärmegesetzes von der Dämm­pflicht befreien lassen. Er muss dafür nur mit Hilfe eines dafür zugelassenen Sachverständigen – meistens ein Ar­chitekt oder Ingenieur – die Unwirtschaftlichkeit der Zwangsmaßnahmen nachweisen. Ein simples Rechenex­empel, das immer zugunsten des Bauherren ausgeht.

Wer eine Alternative zum Dämmwahnsucht, dem empfehle ich, seinen Altbau diesbezüglich in Ruhe zu las­sen. Und für neue Häuser rate ich zu speicherfähigen Mas­sivbauten mit Fenstern ohne Dichtlippe und Isoglas, dafür mit Einfachglasfenstern plus Laden oder Rollo. Diese Kom­bination hält im Winter warm, im Sommer kühl. Sie ver­hindert die Aufheizung tagsüber und die Auskühlung über Nacht. Dreifachglas und andere teure Aufrüstungen sind unnötig. Kunstharzversprödete Holzfenster müssen nur entlackt und mit Leinölfarbe nachhaltig saniert, aber nicht ausgetauscht werden.

Die unrentable und störungsanfällige Lüftungs­und Solar-High- Tech bringt dem Altbau keine Vorteile. Viel besser ist eine kostengünstige Elektrodirektheizung, die ­richtig eingesetzt – viel mehr Kosten einspart, als gemeinhin bekannt. Gegen feuchte und versalzte Wände hilft kein trocknungsblockierender Sanierputz, meist genügt sim­pelste Entsalzungstechnik und Kalkmörtel. Auch die «auf­steigende» Feuchte ist nur ein Schauermärchen zugunsten ungeeigneter, aber teurer Reparaturverfahren. Und bei der Instandsetzung von Fassaden sollte man nässestauende Synthetikfarben, deren angeblich entfeuchtende Dampfdiffusion baupraktisch gar nicht existiert, durch kapillar­offenen Kalkputz und -anstrich ersetzen. All das spart auf einfachste Weise Energie und Kosten und ist seit langem bewährt.

Dämmmaterialien werden am Tag extrem heiß, blockieren aber das Einspeichern der Sonnenwärme ins Mauerwerk.

Meine Schlussfolgerung als Architekt: All die behördlich erzwungenen Energiesparereien sollen gar keine Energie sparen. Es geht nur um das Einschüchtern, Terro­risieren -letztlich Enteignen! – der Hausbesitzer und die Ankurbelung der Klimaschutz-Branche. Dafür arbeiten die Behörden und vor allem die gekaufte Politik in unserer Lobbykratur. Die Baubranche weiß das seit langem, nimmt es aber klaglos hin. Manche Architekten übernehmen gar nur die fertige Planung seitens der Produkthersteller – er­kennbar an den Produktnennungen im Leistungsverzeich­nis. Das alles bringt dann schöne Umsätze. So singt man das Lied vom Klimaschutz und gibt vor, die Welt zu retten – Hauptsache der Kunde zahlt.

Zuerst erschienen im Monatsmagazin COMPACT, Ausgabe Juli 2012. www.compact-magazin.com .mit freundliche Genehmigung. Den Originalartikel finden Sie als pdf im Anhang

Konrad Fischer (*1955) leitet neben seiner beruflichen Arbeit als Ar­chitekt seit 1988 Seminare und hält Vorträge für Architektenkammern, im Baugewerbe, an Hochschulen und bei anderen Bildungsträgern. Seit 1990 ist er im Beirat für Denkmalerhaltung der Deutschen Burgenvereinigung e. V. sowie seit 2011 Pressereferent der Nationalen Bewegung gegen das Er­neuerbare Energien Gesetz NAEB e.v. (www.naeb.info)

Related Files




EIKE wirkt! Stiftungsreport bedauert EIKE-Gründung 2007 als einem der größten „politische Rückschläge“ in der Klimapolitik!

Im dunkelgrau gehaltenen unteren Bereich der Grafik finden sich hingegen Rückschläge und Katastrophen: „langlebige Pestizide“, der frei erfundene „saure Regen“, der Seveso-Unfall, das Ozonloch und vieles andere. Für die jüngere Vergangenheit werden Waldbrände in Rußland, diverse Flutwellen, aber auch sämtliche gescheiterte UN-Klimagipfel aufgezählt. Auch ClimateGate, die für alle sichtbare Veröffentlichung der politischen Machenschaften sogenannter Klimaforscher, findet sich bezeichnenderweise in diesem Bereich.

Doch jetzt kommt‘s: Die einzige Organisation, die zwischen all den Havarien, echten und erfundenen Naturkatastrophen und politischen Pleiten auf der dunklen Seite erwähnt wird, ist das

Europäische Institut für Klima und Energie.

Seine Gründung im Jahre 2007 rangiert noch vor dem ClimateGate-Skandal von 2009 (siehe Screenshot)!

 

EIKE und ClimateGate als politische Rückschläge

Legende zur Grafik von S 17

Nachtragend ist man auch:

Auf Seite 118 wird die Kooperation zwischen EIKE und der Friedrich-Naumann-Stiftung für die Freiheit im Jahre 2009 (!) erwähnt: Die FDP-nahe Stiftung habe sich damit „deutlich positioniert“, heißt es dort drohend. Auch wird einmal mehr suggeriert, EIKE stehe in Verbindung mit „energieintensiven Industrien“. Ein Vorwurf, der für einen von der BMW-Stiftung mitgetragenen Dachverband ganz sicher nicht zutrifft. Eine Liste mit den Millionenetats der deutschen parteinahen Stiftungen auf der gleichen Seite suggeriert überdies, dass es sich bei der Unterstützung durch die Naumann-Stiftung um eine riesige Summe gehandelt haben muss – ein Lehrstück in professioneller Öko-Propaganda! Damit wird von den Riesenbeträgen von vielen Milliarden € abgelenkt, über die die tragenden Stiftungen als Kapital verfügen (s. übernächster Absatz), um sie im Sinne der definierten Umerziehungsziele zu verwenden.

Auch lassen Wortwahl und Fußnote erkennen, dass sich die Autoren anscheinend auf solche uneigennützige Streiter für das Gute, Wahre und Schöne verlassen, die wie z. B. die PIK-Koryphäen Schellnhuber und Rahmstorff nur dann von Großunternehmen oder deren Stiftungen Hilfe annehmen, wenn es denn unbedingt sein muss. Zum Beispiel für nichtssagende Studien wie die hier zitierte. Kein Wunder, sind doch die Autoren dieser faktenarmen Fleißarbeit der Meinung, der Klimawandel sei eine „Entwicklung mit Sprengkraft“, der „einen Bruch mit vielen vertrauten Verhaltensweisen“ verlange, weshalb auch die Wissenschaft darauf dränge, „den U-Turn einzuleiten“.

„Kooperationspartner“ der „grünen“ Propagandaschrift waren übrigens die Deutsche Bundesstiftung Umwelt (DBU), die BMW-Stiftung Herbert Quandt, die Robert-Bosch-Stiftung und die Baden-Württemberg Stiftung. All diese Stiftungen verbindet, dass sie ihre Existenz Industriezweigen verdanken, deren Abschaffung sie im Grunde fordern und fördern. Selbst die DBU erhielt ihr Stiftungskapital in Höhe von 1,3 Mrd. Euro aus dem Verkauf der staatlichen Salzgitter AG (vormals Reichswerke „Hermann Göring“, Stahlproduktion, Bergbau, Schiffbau, Anlagenbau und Baustoffe). Die Baden-Württemberg Stiftung verübt über ein Stiftungskapital von 2,4 Mrd €, dass tlw.durch den Verkauf landeseigener Wirtschaftsunternehmen aufgebracht wurde.

Rätselhaft bleibt besonders, warum sich gerade die Stiftung eines Automobil-Unternehmens an einer Kampagne beteiligt, die im Rahmen einer „Großen Transformation“ die schnellstmögliche Abschaffung der bei „Grünen“ besonders verhassten individuellen Mobilität fordert. Denn damit sägt man bei BMW frohgemut an dem Ast, auf dem man selber sitzt.

Die Autoren zeichnen sich -wie vielfach bei solchen Schriften (von Studien sollte man nicht sprechen)- zwar durch große Wortgewandtheit und bedingungslosem Folgen des politischen Mainstreams aus, ansonsten aber durch komplette Ahnungslosigkeit über die besprochenen Probleme, in diesem Falle das Klima: 

Über die Autoren findet man im Netz:

Dr. Antje Bischoff
Leiterin Kompetenzzentrum Stiftungsforschung
Telefon (030) 89 79 47-72
Fax (030) 89 79 47-25

Quelle: www.stiftungen.org / Bundesverband Deutscher Stiftungen

Sebastian Bühner: http://www.sebastian-buehner.de/vita

Sebastian Bühner (*1978) absolvierte von 2001 bis 2007 ein Magisterstudium mit der Fächerkombination Politikwissenschaft und Ethnologie an der Universität Heidelberg und der SciencePo in Lille/ Frankreich. Bereits während des Studiums arbeitet er als Journalist…Nach der Rückkehr nach Deutschland arbeitet er zunächst in der Redaktion des Berliner Tagesspiegels, bevor er im September 2008 ein Volontariat in der Pressestelle des Bundesverbandes Deutscher Stiftungen antritt. Mitte 2009 wird er dort Referent für Presse und Öffentlichkeitsarbeit. …Seit August 2010 arbeitet er als freier Journalist und Texter in Berlin.

Karolina Merai (http://www.xing.com/profile/Karolina_Merai

Sven Stegemann BMW Stiftung Herbert Quandt

Projektmanager Kommunikation und Medien

Nach dem Aufbau eines Internet-Startups während der Oberstufe und einer Ausbildung bei der Hamburgischen Landesbank absolvierte Sven Stegemann einen Bachelor (B.A.) in „Philosophy & Economics“ an der Universität Bayreuth. Später ergänzte er seine Ausbildung durch einen Master (M.Sc.) in „Asian Studies“ an der Universität Lund in Schweden sowie der Fudan Universität in Shanghai. Inhaltlich konzentrierte sich Sven Stegemann auf verschiedene Fragestellungen der ökonomischen, ökologischen und sozialen Nachhaltigkeit. In China forschte er vor allem über innovative Ansätze sozialen Unternehmertums im komplexen politischen Umfeld Festlandchinas und Hongkongs. Während des Studiums und im Anschluss sammelte er Erfahrungen im Bereich Corporate Social Responsibility (CSR) bei einer Unternehmensberatung sowie bei der Bertelsmann Stiftung. Anschließend arbeitete er beim Bundesverband Deutscher Stiftungen als Organisationsentwickler und wissenschaftlicher Mitarbeiter für Nachhaltigkeit.

von Dr. Holger Thuss EIKE, unter Mitwirkung von Michael Limburg EIKE

Hinweis: Der gesamte Bericht ist hier und bei Google-Books hier einsehbar 




Endlagersuche Gorleben: Die Fakten

Das sicherste Endlager gibt es nicht! Die nachhaltigste Entsorgung ra­dioaktiver Abfälle ist und bleibt die in geologi­schen Formatio­nen. Fast jede Gesteinsart, aber vor allem Salz, Tone sowie Granite sind für ein End­lager geeignet. Wesentlich da­bei ist die Qualität der Barrieren des Systems, die die eingelagerten Schadstoffe langfristig von der Biosphäre zurückhalten. Man un­ter­scheidet geologi­sche, geotechni­sche und rein technische Bar­rieren. Beim Salz kön­nen alle drei Barrie­rensysteme genutzt wer­den, beim Ton und Granit nur die beiden letzte­ren, da nur Salz Wasser undurchlässig ist. Das wichtigste ist die Quali­tät der Barrie­ren.

In Deutschland besteht jahrzehntelange Erfahrung im Untertageberg­bau von Salz und dem sicheren Verschließen von ausgesalzten Lagerstätten. Es besteht aber auch Erfahrung in der untertägigen Endlagerung hochtoxischer Abfälle wie zum Bei­spiel im Endlager Herfa-Neurode, das von „Joschka“ Fischer als hessischer Umweltminister ohne Probleme geneh­migt worden ist. In dieses Endlager dürfen seit Jahren alle Ar­ten von toxischen Stoffen aus Eu­ropa – einschließlich der toxischen Abfälle, die in der Solarindustrie (wie z.B. Cadmium) anfallen -zu unabhängig von deren Toxizität, eingela­gert werden, solange sie nicht feucht, radioaktiv sind und keine Gase bil­den. Der Grad der Toxizität spielt keine Rolle. Diese Toxizität bleibt ewig, da sie nicht wie radioaktive Abfälle mit der Zeit verschwindet.

Das Wichtigste für ein Endlager für radioakti­ve Stoffe ist, es muss ein neues Berg­werk errichtet werden, da­mit alle techni­schen und lang­zeitrelevanten Maßnahmen wie Geologie, Bergbautechnick, Einlagerungstechnik, Mehrbarrierensystem, Wasserzuflüs­se, Gasbildung, Kritikalität, Safeguards, Restrisiko etc. insgesamt für den Standort bewertet, geplant und kon­trolliert erstellt werden können. Dabei gehört zu den wichtigsten Maßnahmen: nur mini­male Hohlräu­me schaffen, Schächte, un­tertägige Stre­cken, und Einlage­rungskammern nur nach Be­darf auf­fahren und die­se noch wäh­rend des Einlagerungs­betriebs sukzes­siv und nach Ende der Einlagerung alle rest­lichen Hohlräume ein­schließlich der Schächte mit geo­technischen und tech­nischen Bar­rie­ren zu versiegeln. Für das Endlager­projekt Gorle­ben sind alle diese Fra­gen de­tailliert un­tersucht worden, mit dem Ergebnis, dass bisher keine grund­sätzlichen technischen Fragen mehr offen sind, die einer Eig­nungshöffigkeit widerspre­chen. Dies müsste allerdings noch in einem Genehmigungs­verfahren streng über­prüft werden – zu dem es wohl wegen des enormen politi­schen Widerstands nicht kommen dürf­te.

Zur Erinnerung: Der über 2000 m in die Tiefe reichende Salzstock von Gorleben ist seitlich und nach oben durch Wasser undurchlässi­ge Gesteinsschichten geschützt. Nur am Scheitel des Salzstocks, ca. 250 m unter der Oberfläche, wurde diese schützende Schicht als Folge der Eiszeit an einer Stelle und die darüber liegenden tertiären Sedimente entlang einer Rinne z. T. ero­diert . Die Rinne selbst ist heute mit Wasser durchlässigen Sanden und Tonen gefüllt. Da in der Rinne das Wasser mit dem Salz in direkter Berührung steht, handelt es sich hier um eine gesättigte Salzlauge, die gegenüber Salz praktisch re­aktionsunfähig ist, also kein Salz mehr lösen kann. Die Einlagerungsstrecken des geplanten Betriebes liegen ca. 600 m – also 600 m Salzbarriere – unter dem Scheitel des Salz­stockes bzw. 850 m unter der Oberfläche.

Zum Vergleich sei hier auf den Salzbergbau im Gebiet von Heilbronn hingewiesen, wo seit 1895 bis heute Salz gefördert wird. Das horizontal liegende Salzlager (kein Salzstock) ist ca. 20 m mächtig und liegt in einer Teufe von 150 m bis 180 m unter der Oberfläche. Es wird von einer ca. 50 m mächtigen wasserdichten Schicht überlagert – also nur eine 50 m dicke Barriere! Darüber liegen stark wasserführende Schichten des Mittleren Muschelkalks (Rogowski 2003). Zu Beginn des / der Bergwerke gab es beträchtliche Probleme mit der Wasserzufuhr, die späteren geringen Zuflüsse waren und sind heute beherrschbar. Das gesamte Grubengebäude besteht heute aus ca. 700 (siebenhundert) km offenen Strecken und Abbaukammern, die durch Sicherheitspfeiler von­einander getrennt sind. Ein Teil des ausgesalzten Grubengebäudes liegt unter den Städten Heilbronn, Neckarsulm, Ko­chendorf, also direkt unter dem Neckar. Das Bergwerk wird seit über mehr als hundert Jahre betrieben, hatte bisher keinen nen­nenswerten Unfall, hat den Bombenhagel, der im zweiten Weltkrieg über Neckarsulm und Heilbronn nieder ging, überstanden, und es besteht kein Grund an der Betriebssicherheit des Bergwerkes zu zweifeln. Das Endlager von Herfa-Neurode in Hessen, in dem alle ewig bestehenden und nicht zerfallende, toxischen bis höchst toxischen Stoffe endgelagert werden, ist seit Jahren ohne Störfälle in Betrieb.

Vergleicht man das Barrierensystem bei dem geplanten Endlager Gorleben mit über 500 Metern Salzbarriere mit der einzigen, der geologischen Barriere von 50 Metern des sich im Betrieb be­fin­denden Bergwerks Heilbronn, dann ist of­fensichtlich, dass Gorleben ein bei weitem ausge­prägteres Barrierensystem ha­ben wird, als das Salzbergwerk di­rekt un­ter ei­nem Fluss, dem Neckar – und unter dem Audi-Werk in Neckarsulm! Verkürzt bedeutet das für die Betriebssicherheit bei Gorleben, dass diese wegen der mächtigen Salzbarriere und der einzigen Verbindung zur Oberfläche durch zwei Schächte zu den zwei Einlagerungshorizonten recht hoch ist. Bei dem Salzberg­werk Heilbronn ist die Betriebssicherheit durch den einhundert jährigen Betrieb nachge­wiesen. Bei der Bewertung der Langzeitsicherheit schneidet Gorleben aber auch viel besser ab, da nach dem Ende der Einlagerung alle Hohlräume wie Einlagerungskammern, Einlagerungsstrecken und zwei Schächte durch geotechnische und technische Barrie­ren versiegelt sind, bei Heilbronn dagegen über 700 km offene Hohlräume für alle Ewigkeit offen bleiben werden. Fazit: wer vor Gorleben Angst hat, sollte vor Heilbronn noch mehr Angst haben!

Laut Presseberichten votierten im April 2012 fast alle politischen Parteien gegen die Fertigstellung der vorläufigen Sicherheitsanalyse bzw. für den endgültige Abbruch dieser Analyse, was das Ende von Gorleben bedeuten würde! Statt dessen ist geplant, einen neuen Katalog für Endlagerkriterien zu erstellen – obwohl diese schon seit vielen Jahren weltweit bekannt sind. Dabei wird eine neue Anforderung lauten: die Standortsicherheit für das Endlager muss für eine Mil­lion Jahre nachgewie­sen werden. An­schließend sollen nach diesen sogenannten „neuen“ Kriterien mehrere Endlagerstandorte in Deutschland so un­tersucht werden, dass nach Jahrzehnten und wohl mehreren Milliarden Euro – die Energiewende lässt grüßen – die Ergebnisse verglichen werden können, um dann am „besten“ Standort das Endlager zu errichten. Ob dabei die Ergebnisse von Gorleben mit berücksichtigt werden, ist noch offen aber eher unwahrscheinlich.

Interessant wird es nun, wenn die neuen Kriterien, die ja auch den Bergbau bzw. das Deutsche Bergrecht tangieren werden, auch für die sich in Betrieb befindenden Salzbergwerke in Deutschland gelten müssen. Das Salzbergwerk Heilbronn zum Beispiel müsste sofort geschlossen werden, andere Bergwerke möglicherweise auch, da für diese kein Nachweis für die Standsicherheit für 1 Millionen Jahre besteht. Die politisch gewünschten Anforderungen für die Betriebssicherheit, aber insbesondere für die Langzeitsicherheit und für das Restrisko dürften im deutschen Salzbergbau für Kopfschütteln sorgen. Denn die Toxizität von radioaktiven Abfällen ist nach einer Million Jahren fast völlig verschwunden, die offenen Hohlräume wie z.B. im Fall von Heilbronn bleiben dagegen ewig offen, was auch für weitere Produktionssalzberge gilt.  Bei diesen ist ein Nachweis für einen derartigen langzeitsicheren Verschluss nicht möglich, das Restrisiko bleibt ewig.

Nach diesen Fakten stellt sich nun die Frage, ob den Politikern aller Parteien überhaupt bewusst ist, dass vor anderthalb Millionen Jahren das Mittelmeer trocken war, dass vor einer Million Jahren unser Vorfahre, ein homo erectus, gerade dabei war, aufrecht zu gehen und eine halbe Million Jahren später der homo sapiens anfing zu denken und wir Menschen möglicherweise in einer Million Jahren kleine Flügel oder Flossen ha­ben werden…? Weiterhin stellt sich die noch wichtigere Frage, warum grüne und grün gefärbte Politiker, trotz der bekannten technischen Fakten und insbesondere im Vergleich zu anderen Salzbergwerken, Gorleben mit allen Mitteln verzögern beziehungsweise sofort aufgeben wollen, ja müssen. Die Antwort ist recht einfach: für die Grünen wäre es ein Katastrophe – der SuperGau, um in ihrer Sprache zu sprechen –, denn wenn sich der nahe Abschluss der verbleibenden Arbeiten die Eignung Gorlebens zur Endlagerung radioaktiver Abfällen tatsächlich bestätigen sollte, würde das gesamte von ihnen aufgebaute Lügengebäude Gorleben zusammenbrechen und die wichtigste politische Grundlage der Partei erschüttern. Für Greenpeace wäre es ebenfalls eine Katastrophe, denn dann wäre die Mär des Flugzeugs ohne Landebahn weltweit ad Absurdum geführt und die Spendengelder würden bröckeln. Deshalb die Riesen Angst vor der Wahrheit!

Warum sich andere Parteien dieser Gorleben Angst der Grünen angeschlossen haben, müssen sie selbst beantworten.

Dr.  Helmut Fuchs ist Geologe und Experte für Uranlagerstätten

mit Dank an Leser




Was aus der Klimawandel-Krise wurde

Was aus der Klimawandel-Krise wurde

Von Andrew McKillop

In der Rückschau war der im Jahre 2009 gescheiterte Kopenhagener „Klimagipfel“ eine Geberkonferenz für die Klimawandel-Industrie: Auf mancherlei Weise hat sich diese Industrie aber nie mehr von dem massiven Schlag erholt, den ihr die Klimaskeptiker versetzten.

Mit Unschuldsmiene und im Reagieren auf jedes Grummeln aus dem Lager der Untergangspropheten hat damals hat die kleine Gruppe der politischen Elite der OECD-Länder, der Industrieführer, der Zaren der Mainstream-Presse und Medien ständig die Schrecken einer Klimakatastrophe an die Wand gemalt. Sie haben sich nun abgesetzt und das sinkende Schiff verlassen.

Klimawandel und Erderwärmung – das läuft auf das Gleiche hinaus – galt einst als Hauptbedrohung der Erde und unserer Zivilisation. Man predigte eine massive Veränderung des globalen Energiesystems, weg von den schmutzigen, gefährlichen und teuren fossilen Brennstoffen. In Mode waren: Kernkraft, Windfarmen, unterirdische Gasspeicherung, Sonnenenergie, E-Autos und Fahrräder. Neue große Geschäftsmöglichkeiten wurden in Allem gesehen, was kein Öl brauchte, oder zumindest den Anschein erweckte. Nicht Dutzende, nein Hunderte von Hedge Funds engagierten sich. Die meisten sind gescheitert.

In der Rückschau müssen wir uns fragen, warum diese Massen-Illusion, diese Illusion einer Transformation in eine “neue ökologische Zivilisation”, zusammengebrochen ist. Warum verschwand sie von den Telepromptern, aus den Schlagzeilen und den endlosen Berichten über aussterbende Eisbären und abbrechende Kanten von Gletschern ins Meer. Wie konnte das so rasch geschehen?

Es steckte nicht genug Geld drin.

Das Geschäft mit CO2-Zertifikaten war immer eine Zukunftsverheißung – sie erfüllte sich nicht. Heute erinnert sich kaum noch jemand an die in den USA freiwillige, in manchen Bundesstaaten aber gesetzlich vorgeschriebene CO2-Emissions-Regulierung, oder an den Börsen-Handelsplatz CCX in Chicago. Kurz vor der Schließung der CCX-Börse im Dezember 2010 fiel der Handelswert für eine Tonne CO2 auf 10 US-Cents.

Europäische regierungsamtliche Befürworter des Kohlenstoff-Handels und die Ölmultis haben seit 2005 die Vorstellung von stets steigenden CO2-Zertifikatspreisen in die Welt gesetzt. Noch heute darf das englische Regierungs- und Industrie-unterstützte Energy Technologies Institute behaupten, der Preis für die Emission von einer Tonne CO2 würde auf US $750 steigen, natürlich mit einem nicht näher bezeichneten Datum bis 2045. In der realen Welt des europäischen Zwangs-Handelssystems, dem ETS, dümpelt der Preis für ein CO2-Zertifikat um die $15 bis $20 herum. Die Tagesumsätze werden immer kleiner, die Überlebenswahrscheinlichkeit geringer.

Das CO2-Zertifikate-Geschäft, das zwischen 2009 und 2010 für etwas “Großartiges” gehalten wurde, wird immer kleiner: Das Hauptziel der noch verbliebenen Händler ist das Finden eines anderen Betätigungsfeldes. Einst – 2009 – sah der Ex-Direktor des Internationalen Währungsfonds, Dominique Strauss-Kahn, diesen Markt in einer Größenordnung von „wenigstens $10 Billionen“. Dank eines Sammelsuriums von handelbaren, mit einem Abkürzungs-Salat bezeichneten Finanzderivaten sollte der geschätzte Umsatz an den weltweiten McDonald-Umsatz herankommen. Doch nach Abzug der üppigen Profite für die kleine Zahl der Finanzakteure war das, was elegant „Durchreiche“ zur Anlagenfinanzierung in alternative Energien genannt wurde, niedrig, erschreckend niedrig.

Zuerst wurde als Sündenbock das UNO-IPCC in die Medien geschoben und für den Gesichtsverlust der Firmenchefs und Politiker verantwortlich gemacht – nach der kurzen Periode phantastischer Selbstbeweihräucherung, wie es Fritz Vahrenholt in seinem Buch "Die Kalte Sonne" beschreibt. Es war die Zeit der Ruhe vor dem Sturm, als Rajendra Pachauri noch unangemeldet Besuche bei nationalen Parlamenten machen konnte mit einem freundlich lächelnden, aber ernsten Sir Paul McCartney im Schlepptau.
Aber die Klimaexperten des IPCC hatten die falschen Nachrichten in die Welt gesetzt und falsche Töne angeschlagen: es kam zu einem Skandal. Beschämung und Zweifel traten nun an die Stelle der früheren "Fast-Gewißheit", dass die globale Durchschnittstemperatur wenigstens um 5 – 6 Grad C bis etwa 2050 ansteigen würde. Ein Ding der Unmöglichkeit, es sei denn, die Erde würde durch eine unvorstellbare Katastrophe aus ihrer gegenwärtigen Bahn geworfen und näher an die Sonne geschoben!

Seit 2010 sitzt das IPCC in der Falle, es bedarf einer Reform, seine Öffentlichkeitsarbeit muss neu ausgerichtet werden. Die Jahresberichte, einst Futter für die Schlagzeilen der Tagesnachrichten in den regierungsfreundlichen Medien, rangieren nun hinter dem Fußball und dem Promi-Klatsch.

Ohne das schaurig-schöne Gefühl der herannahenden Katastrophe wurden die Ansichten und Meinungen von Hand-aufs-Herz Untergangspropheten wie James Lovelock im täglichen Nachrichtenstrom immer unwichtiger. Mit unvermeidlichen Einkommensverlusten in dem schwächelnden Geschäft. Die Industrie trieb wie eine steuerlose Titanic im Nordatlantik auf den Eisberg zu.

Die Industrie hat keine Chance, sie will sie dennoch nutzen

Die Tür zur Belebung der neuen großen Geschäftsmöglichkeiten zur „Rettung der Erde“ vor der Klimakatastrophe als dem beherrschenden gesellschaftlichen, politischen und industriellen Paradigma schloss sich seit 2009 immer mehr. Alle Versuche, die vor dem teuren Kopenhagener Klimagipfel völlig überzogenen Hoffnungen der Eliten wiederzubeleben, blieben erfolglos. So auch die „neuerlich bestätigte Wahrheit“ vom Klimawandel-Desaster. Sie verblasste immer mehr, schrumpfte und ist aus den Schlagzeilen heraus: Anderes, neues Sensationsfutter strömt in die Medien, wird dort übertrieben, verzerrt und erledigt.

Das unterstreicht umso mehr die Notwendigkeit, dass man sich kritisch allen Versuchen entgegen stellen muss, die das Thema wach halten wollen: Die große Lüge ist ja allgemein bekannt: Ehemals für „wasserdicht“ gehaltene Wahrheiten werden nicht mehr geglaubt. Sogar einer ihrer Hohen Priester, James Lovelock, hat sich im April 2012 von seinen eigenen Unwahrheiten und Übertreibungen verabschiedet. Es würde eines Wunders bedürfen, das Thema zu retten, oder in ökologischem Kauderwelsch, es zu „recyceln“. Politiker müssten sich erneut dazu bekennen: Im Umfeld einer anhaltenden Wirtschaftskrise, wo sogar die sichersten Wahrheiten – wie z. B. die von hohen Ölpreisen – angezweifelt werden, ist das sehr unwahrscheinlich.

Bis Dezember 2009 hatte das politische Klimawandel-Quartett – Obama, Merkel, Sarkozy und der bald danach abgewählte Brown – regelmäßig Interviews gegeben, in denen emotionale Schlüsselwörter wie „Katastrophe“ – „Rettung der Erde“ – „unsere letzte Chance“ ständig vorkamen. Auch Sarkozy ist nun weg, das Obama-Merkel-Duo zu schwach und zu wenig im jeweiligen Heimatland beliebt. Ihre Weltuntergangsrhetorik war so unglaubwürdig wie ihre kritiklos nachgebeteten Wortfetzen von den Hansens, Lovelocks, Gores. Man konnte sich kaum vorstellen, sie hätten auch nur einen Gedanken übrig gehabt für ihre den Bach hinuntergehenden Wirtschaften und für einen Stand an Arbeitslosigkeit, der sich auf die Höhe der 1930er Jahre zubewegte. Jetzt stehen sie vor der schieren Not, ihre eigenen Arbeitsplätze zu sichern und somit geht ihr Interesse an der Klimakatastrophe gegen Null.

Zum Beweis, wie absurd die Klimakatastrophen-Denke war, können die vom 2009er Klimawandel-Quartett vorgeschlagenen undurchdachten Alternativen dienen. Man glaute wirklich, dass eine ökologische und auf Grüner Energie beruhende Gesellschaft bis 2035 entstehen könnte. Aber man zog nicht in Betracht, dass im Laufe einer solchen märchenhaften Transformation auch der Absatz von BMW-Autos, Boeing-Flugzeugen und französischen Kernkraftwerken betroffen wäre. Gleichzeitig sollte natürlich die Tiefwasserförderung von Öl und die Erschließung von Teersänden weitergehen, ja noch zunehmen. Der CO2-Handel, oder zumindest die CO2-Besteuerung, würde selbstverständlich ausgeweitet. Dann aber, nach 25 Jahren, wäre die Fahrrad fahrende Öko-Gesellschaft da. In historischen Zeiträumen gedacht, wäre das in einem einzigen Augenblick geschehen. Wie könnte Derartiges zustande kommen? Durch eine Art von Pol-Pot-Revolution in gedankenlosen Konsumgesellschaften?

Es war vorauszusehen, dass sich die Politiker von diesem “Thema” verabschieden würden. Besonders leicht hatte es Gordon Brown, der Anfang 2011 Downing Street verlassen musste. Der Zusammenbruch des kürzlich noch so ganz neuen gesellschaftlichen, politischen und wirtschaftlichen Paradigmas ist überall zu besichtigen. Wer heute noch den „Klimawandel“ retten will, so meinen wir, tut sich so schwer wie jemand, der die globale Gier ausrotten will.

Neu-Interpretation der Vergangenheit

Sicher befinden sich die verbandelten Klimawandel-Gewinnler noch in der Schockstarre, wie sie dem tatsächlichen Zusammenbruch eines großen Geschäftsmodells folgt. Es muss schleunigst neu-interpretiert werden, mindestens auf dem Papier und für die Presse. Das Aufdröseln der Handels- und Investmentpositionen, das Neu-Adjustieren der Portfolios braucht Zeit, daher wird die Hochfinanz die CO2-Karte noch eine Weile ausspielen. In den Firmen arbeiten die Meinungsmacher mit Sicherheit bereits am Neu-Interpretieren der Vergangenheit, um das Abschreiben des Geschäfts mit dem Klimawandel verschweigen zu können.

Die einst herrschenden Geschäftsideen waren mühsam aufgebaut worden und haben viel Geld verschlungen. In das Prestige und das Gesicht der Industrie-Eliten war investiert worden, nicht zum Vergnügen. Jetzt muss auch noch der letzten Cent an Umsatz und Profit aus dem absterbenden Betrug geholt werden. Das ist die Aufgabe der Meinungsverdreher in den Firmen: Sie müssen glaubwürdige Legenden für die Öffentlichkeitsarbeit ihrer Firmen erfinden. Das Thema „CO2-Sparen“ verschwindet allmählich aus den Firmenanzeigen. Dennoch wird das Geschäft mit Alternativen, Erneuerbaren, Grünen Energien vorangetrieben. Unaufhörliches Weltuntergangsgerede über abbrechende Gletscherränder und aussterbende Eisbären ist aber nicht mehr so förderlich.

Das gescheiterte Ingangsetzen des Klimawandelzugs kann bis 2009 zurückverfolgt und den Spin-Doktoren zugeschrieben werden. Die CO2-Korrektheit hatte eine neue Nord-Süd Teilung offenbart zwischen der Alten Welt, mit ihrer Massenarbeitslosigkeit à la 1930 und ihrem parasitären Kasinokapitalismus einerseits, und der Neuen Welt der wachsenden asiatischen Riesenwirtschaften andererseits. Dies führte zu einer offenen Pattsituationen auf dem berüchtigten Kopenhagener Gipfel zwischen dem Klimawandel-Quartett der OECD – nur noch zwei der ursprünglichen Vier sind noch in Amt und Würden – und den immer mächtiger werdenden Chinesen, Indern und anderen Wirtschaftsführern der Schwellenländer. Beim Betrachten der Vergangenheit zeigt sich, dass die IPCC-Experten zu weit gegangen waren, sie hatten sich in offensichtliche Lügen verstiegen, zumindest zu einer massiven Übertreibung und Verzerrung. Und sie hatten den Ungewißheitsfaktor in ihren Prognosen zur weiteren Entwicklung des Klimas nicht ausreichend quantifiziert und dargestellt.

Damals, 2008, verfing die Drohung mit der Ölknappheit noch bei den gierigen Spekulanten. Auch die größten Namen der Wall Street beteiligten sich, wie z. B. Goldmann Sachs – die waren beim Himmelhoch-Reden der Ölpreise dabei. Allerdings hat der große industrielle und technologische (aber nicht wirtschaftliche) Erfolg der Alternativen und Erneuerbaren das Gegenteil bewirkt – außer im Falle eines Krieges mit dem Iran oder der Widerlegung der hochgehaltenen und gängigen Thesen der Öl-Analysten. Die Gaspreise können heute nur noch fallen. Getrieben von der Rezession wächst die globale Ölnachfrage nicht mehr, sie ist deutlich im Rückgang. Auf der Angebotsseite drängen steigendes und massives Wachstum der Wind- und Sonnenenergie in die Bastionen der Öl-Bedarfsträger ein – wie es z. B. die asiatischen ölbefeuerten Kraftwerke sind. Voraussichtlich ist ein Rückkang im Ölverbrauch zu erwarten.

Die verbreitete Vorstellung einer Energiekrise wird allmählich so irreal wie die Vorstellung vom Klimawandel. Das sickert nur langsam in das träge politische Denkschema ein. Die Grundüberzeugung westlicher Politiker von einer bedrohlichen Öl- und Energiepreis-Explosion gilt immer noch. Doch dieses Hauptmotiv für die Predigt des Verzichts auf Öl und andere fossile Brennstoffe trägt nicht mehr. Eine Wende findet statt, weil die Erneuerbaren kostenlose „Brennstoffe“ ausbeuten, wie im Falle von Wind und Sonne, Geothermie und Meereswärme. Wasser, Wellen und Gezeitenenergie haben geringe Kosten. All das ist ein revolutionärer Unterschied.

Die Weltwirtschaft ist in die Rezession gerutscht, ohne dass hohe Ölpreise eine Rolle gespielt hätten. Und wenn sie aus der Rezession herauskommt, wird sie das auf dem Rücken eines vielfarbigen Grünen und Braunen Energieversorgungssystems tun: Die Öffentlichkeit muss nicht mehr mit einer weltweiten Klimawandel-Hysterie abgelenkt werden. Die reale Welt hat einen großen Sieg errungen. Dies vor allem, weil die politischen Triebkräfte und die ökonomischen Gründe für einen kräftigen Anschub der Grünen Energie im Norden, Süden, Osten und Westen immer verschieden waren: Die Rezession hat sie nur noch verschärft und verstärkt. Die hohen Öl- und Gaspreise als Antrieb und Ursache für die Entwicklung der Grünen Energie sind schon von 2009 bis 2011 gesunken. Heute scheinen die Unterschiede völlig zu verschwinden: wegen der Rezession, wegen großer neuer Gasfunde und einem großen Angebot. Hinzu kommen noch stark wachsende Grüne Energie-Angebote und die ständige Effizienzverbesserung beim Energieverbrauchs.
Die Ölkrise ist Vergangenheit.

Neu-Interpretation des Klimawandels

Schon bald wird der Klimwandel selbst umgeschrieben werden. Unsere Modelle waren falsch; das IPCC war unzuverlässig oder vorurteilsbefangen; andere Faktoren – wie kosmische Strahlung, Sonnenflecken, das Erdmagnetfel – sie alle wirken mit. Heute sind wir froh, dass wir über die Klimazukunft wenig wissen, die Durchschnittstemperaturen sind unsere geringsten Sorgen, egal, ob sie sich erhöhen, oder um Bruchteile eines Grades bis 2050 fallen werden.

Das IPCC kann reformiert und neu strukturiert werden, und wenn es auch nur wegen des massiven Gesichtsverlustes wäre, das es beim OECD-Klimaquartett verursacht hat. Die Vier haben in Kopenhagen mit einer unglaublichen Gewissheit nur von der Klimakatastrophe geredet.

Das IPCC kann in eine wissenschaftlichere und weniger kontroverse Betriebsart zurückversetzt und zu einem akzeptablen theoretischen und technischen Diskussionskreis umgestaltet werden. Dazu ist wahrlich kein Rajendra Pachauri nötig, der einst in einem Interview mit der Times of India sagte, dass er im Falle einer zweiten Amtszeit als IPCC-Chef jeglichen Anschein von Feigheit und Zurückhaltung ablegen würde, und das als seine Gelegenheit sähe, zu tun, was er für richtig hielte. In seiner zweiten Amtszeit würde er unbequemer für die Menschen werden.

Ein neuer Pachauri könnte zum Beispiel Sitar-Abende mit einem neuen und geläuterten Sir Paul McCartney veranstalten. Auch dieser kann kuscheliger werden mit viel weniger Angst vor dem Klimwawandel, falls es den überhaupt gibt.

Der Klimawandel hat keinen Bezug zum globalen wirtschaftlichen Kontext der überbordenden Staatsschulden und riesigen Haushaltsdefizite, massiver und steigender Arbeitslosigkeit, Verlust der nationalen Identitäten, und einer langen Liste weiterer finsterer und bedrohlicher Realitäten. Die Notwendigkeit einer massiven PR-Kampagne zum Erreichen einer raschen Transformation weg vom Öl ist noch schneller geschmolzen als Pachauris schmelzende Himalaja-Gletscher und sie wird durch den einfachen und wirtschaftlichen Vorteil des Vermeidens des Öleinsatzes ersetzt – eine einfache ökonomische Wahrheit.

Dem IPCC sollte erlaubt werden, einen langsamen Tod zu sterben. Seine Budgets schrumpfen schon und können noch weiter zusammengestrichen werden. Die Aufwertung zu einer echten UNO-Behörde sollte keine Thema mehr sein. Sicherlich werden die großen Mengen eindrucksvoller und einbildungsreicher Studien und Szenarien, die unter der IPCC-Aegide produziert wurden – einige waren das „Fleisch“ von Klimagate -, weiter in der Presse und den Medien durchgezogen werden, aber nur auf den Innenseiten, in Frauenzeitschriften und in TV-Dokumentationen für einschaltschwache Zeiten: Als neues und mächtiges gesellschaftliches Thema, das den Weg zu einer großen ökonomischen, finanziellen und industriellen Transformation öffnet, ist es von Gestern.
Das Thema ist erledigt.

Die Umschreibung kann auch in Vergessen übergehen – es sei denn, das IPCC und die sich mit ihm gemein machenden Energiezaren erhielten als Geschenk eine Ölpreis-Explosion und eine Menge von Klimakatastrophen serviert. Die Zeiten von 2006 sind lange vergangen, als ein „Jimbo“ Lovelock dümmlich schwafeln konnte: „Milliarden Menschen werden bis zum Ende diesen Jahrhunderts am Klimawandel sterben.“
Die Klimakrise ist vorbei.

Übersetzung: Helmut Jäger, EIKE

Original hier

Weitere Aufsätze von Andrew McKillop hier

oder hier

Daten zum Autor aus dieser Quelle:
(Wegen der vielen engl.-sprachigen Organisationsbezeichnungen im Original belassen)

Andrew McKillop is an energy economist and consultant. He has held posts in national and international energy, economic and administrative organizations and entities in Europe, Asia and North America. Professional experience includes: engineering and technology information management in the oil and petrochemicals industry (OAPEC, Kuwait and AREC Abu Dhabi); petrochemicals development and financing (AREC, Abu Dhabi); electricity, gas and road transport industry (British Columbia Hydro & Power Authority, Canada); energy infrastructure development and administration (Dept of Minerals & Energy, Govt of Papua NG); Policy analysis and policy development (Divn A – Policy, DG XVII-Energy, EC, Brussels).




Regierung: Abschied von den Klima-Klempnern!

Zur Entscheidung der Bundesregierung ist auf SPIEGEL-online zu lesen: (  ) :

"Absage ans Geo-Engineering: Regierung lehnt Klima-Operationen ab.

Soll das Klima mit Notoperationen gekühlt werden? Können CO2-Speicher, Schwefelwolken, künstliche Algenblüten die Energiewende begleiten? Nein, meint die Bundesregierung: Sie erteilt dem Geo-Engineering eine erstaunlich deutliche Absage. Die Folgen könnten beträchtlich sein."

Schon in früheren Jahren wurde das Thema pro+contra in den Medien diskutiert.

Die politischen und gesellschaftlichen Aspekte erörterte z.B. 2010 das im CUXland  erscheinende Kultur-Magazin Laufpass (hier die komplette Version)

"Die Frage, ob Klima etwas Konstantes sein kann, widerlegt die Natur seit Jahrtausenden. Warm- und Kaltzeiten lösen einander ab, Eis kommt, Eis geht, die Nordwestpassage ist mal frei, mal zugefroren und Grönland ist mal Grünland und mal eisbedeckt. Alles, was auf dem kurzen Zeitstrahl dazwischen als Ereignis aufscheint, ist schlussendlich Wetter und nicht Klima. Das verstehen viele schon heute nicht und sind geneigt, kurzfristige Ereignisse als fundamentale Veränderungen anzusehen und entsprechend zu reagieren. Wenn das Weltklima kaputt ist, dann müssen wir es eben reparieren. Die Werkzeuge dafür soll uns das Geo-Engineering oder neu: das Climate Engineering liefern. Die Devise: „Let’s hack the planet“ – als sei das Erdsystem ein Zahlenrätsel oder eine einfache Maschine."

Und weiter ist dort zu lesen:

"Bis zur Deklamierung der Klimakatastrophe galten Eingriffe in das Klima, in die Erdatmosphäre und in die Ozeane als völlig hirnrissig. Zu unwägbar sind die Risiken, zu dünn die Wissensbasis für derartige Versuche. Heute, in Erwartung des jüngsten Klimagerichtes, scheinen sich auch die absurdesten Experimente rechtfertigen zu lassen.

Im darauf folgenden Heft des o.a. LAUFPASS-Magazins erschien dann ein Übersichts-Artikel zu den Geophysikalischen Aspekten von Geo-Engineering (hier als pdf) 

"Der Weltklimarat ist in einer schweren Manipulations- und Vertrauens-Krise (ClimateGate);  die Global-Temperatur stagniert seit 10 Jahren, trotz ständigen CO2-Anstieges und … es ist unbewiesen, inwieweit die Erderwärmung des 20. Jahrhunderts um +0,7°C anteilig durch anthropogenes CO2 mit verursacht wurde, und diese Hypothese gerät weltweit zunehmend in die Kritik. Ausgerechnet in dieser Situation mehren sich Überlegungen und Spekulationen, durch vielerlei Eingriffe in den Planeten Erde eine angeblich “mensch-gemachte“ Klima-Katastrophe verhindern wollen: Geo-Engineering. Die Risiken sind unkalkulierbar. Daher gibt es weltweit Kritik und Widerstand".

Wenn nun die Bundesregierung sich aus vergleichbaren Überlegungen und Einsichten entschlossen hat, auf riskante, unkalkulierbare, teuere und auch u.E. unsinnige Experimente der Klima-Klempner zu verzichten, dann möchten wir unsere uneingeschränkte Zustimmung hier bei EIKE ausdrücklich positiv anmerken.

Klaus-Eckart Puls,  EIKE

Sie können die angeführten Artikel auch im Anhang als pdf herunterladen.

Related Files




Extremwetter ist integraler Bestandteil des Erdklimas

Extremwetter ist ein integraler Bestandteil des Erdklimas.

Während der gesamten Geschichte der Aufzeichnungen zum Erdklima gab es immer irgendwo extreme Wetterereignisse, die durch großräumige atmosphärische und ozeanische Strömungen verursacht werden sowie in Wechselwirkung mit lokalen/regionalen Klimabesonderheiten stehen. Eine Untersuchung des Klimas in Nordamerika während des 20. Jahrhunderts enthüllt, dass es in den zwanziger und dreißiger Jahren, bekannt als die „Staubschüsseljahre“, das vielleicht extremste Klima in den Großen Ebenen und anderswo gegeben hatte. Es gab wiederholt Dürren und Hitzewellen in den Prärien Kanadas und Amerikas.

In den Präriegebieten gab es während der zehner und zwanziger Jahre auch einige extrem kalte Winter – zum Beispiel in den Jahren 1907 und 1920. Wir Meteorologen verstehen noch nicht ganz, warum das Klima in Nordamerika in den zwanziger und dreißiger Jahren so anomal war.

Während der fünfziger und sechziger Jahre kam es in Kanada zu extrem kalten Wintern, vor allem in den Präriegebieten, wo Rekord-Tiefsttemperaturen registriert worden waren (Edmonton bis -45°C in den sechziger Jahren). In Ontario und Quebec waren kalte und schneereiche Winter in den sechziger und siebziger Jahren die Norm.

Teile der kanadischen Atlantikküste erlebten lange Winter mit sehr viel Schnee. Die Bildung von Eisbarrieren auf dem St. John-Fluss kamen in den sechziger und siebziger Jahren regelmäßig vor. In den achtziger und neunziger Jahren gab es in den meisten Gebieten von Nordamerika und weltweit ein milderes Klima.

Madhav Khandekar

Madhav Khandekar ist ein kanadischer Umweltwissenschaftler im Ruhestand mit mehr als 50 Jahren Erfahrung in der Wetter- und Klimawissenschaft sowie ein Experten-Begutachter des IPCC-Berichtes 2007.

============================================================

Gordon Fulks kommentiert via E-Mail:

Hallo Madhav,

Ihr Op-Ed in der Zeitung ist exzellent! Vor allem mag ich Ihre Feststellung: „Extremwetter ist ein integraler Bestandteil des Erdklimas“.

Weil Klimaalarmisten Extremwetterereignisse selektiv nutzen, um eine Klimakatastrophe infolge Kohlendioxids zu verkaufen, ist es für uns sehr wichtig darauf hinzuweisen, dass „abnormales Wetter“ absolut normal ist. Als ich in Santa Barbara mit seinem milden ausgeglichenen Klima gewohnt habe, gab es Berichte über eine außerordentliche Hitzewelle Mitte des 19. Jahrhunderts, als die Temperatur über 130°F [über 54°C] gestiegen sein soll. Es wird darüber gestritten, ob es wirklich so heiß geworden ist, aber es gab kaum Zweifel, dass es wirklich sehr heiß gewesen ist. Und zu jener Zeit befand sich der Globus als Ganzes noch in der „Kleinen Eiszeit“.

Genauso gab es substantielle Hitzewellen hier in Portland, Oregon, wo der Pazifik normalerweise unsere Temperaturen gemäßigt hält, genau wie in Santa Barbara. Eine dieser Hitzewellen ereignete sich vor einigen Jahren mit einer Temperatur bis 106°F [über 40°C] während mehrerer Tage im Juli. Alarmisten würden sagen, dass „dies konsistent mit der globalen Erwärmung ist“. Aber eine frühere und noch ungewöhnlichere Hitzewelle gab es Anfang Juli 1942 mit einer Temperatur von 107°F in der Innenstadt und 105°F am Flughafen [ca. 42°C bzw. 41°C]. Das war besonders ungewöhnlich, weil es dazu mehr als ein Monat vor dem im Mittel zu erwartenden sommerlichen Maximum gekommen war und zu einer Zeit, von der die Klimaalarmisten sagen, dass es auf unserer Welt damals kühler war als heute. Wie Sie sagen, natürlich war die Staubschüssel-Ära vermutlich extremer als unsere jüngste Warmzeit, die immer noch so vor sich hin dümpelt.

Diese Argumentation kann mit dem Gewicht der Extremisten im Journalismus nicht mithalten: http://www.guardian.co.uk/environment/2012/jul/10/extreme-weather-manmade-climate-change?newsfeed=true, wo Dinge wie diese gesagt werden:

Peter Stott vom UK Met. Office sagt: „wir vertrauen viel mehr darauf, (Wetterauswirkungen) mit der Klimaänderung zu verbinden. Dies alles addiert sich zu einem immer besseren Bild des menschlichen Einflusses auf das Klima!“

Aber die Forscher sagen auch, dass nicht jedes Extremwetterereignis mit der Klimaänderung in Verbindung gebracht werden kann. Zum Beispiel waren Veränderungen im System der Zirkulation in Atmosphäre und Ozean Ursache des extrem kalten Britischen Winters 2010/11 – auf krasse Weise sichtbar gemacht durch das Satellitenbild von UK und Irland, dass alle Gebiete zu Weihnachten schneebedeckt zeigte“.

Mit anderen Worten, extreme kaltes Wetter kann man wegen seiner natürlichen Ursachen getrost ignorieren, aber extrem heißes Wetter ist extrem signifikant und wahrscheinlich anthropogenen Ursprungs! Der britische Winter 2010/2011 war den 350 Jahre langen Aufzeichnungen in Zentralengland zufolge der zweitkälteste Winter in diesem Zeitraum.

Als Wissenschaftler mit exzellenten Referenzen können wir ganz einfach die von anderen Wissenschaftlern und ihren Medienalliierten kommende Dummheit aufzeigen. Aber wir werden niemals in der Lage sein, die Medien von der Notwendigkeit zu überzeugen, zunächst einmal die Logik der Wissenschaft zu verstehen, bevor man das Wort der Regierungswissenschaftler übernimmt, die einen Schwindel verkaufen wollen. Warum? Weil es fast unmöglich ist, Ignoranten davon zu überzeugen, dass sie ignorant sind.

Nochmals Dank für das Op-Ed und Dank an Professor Brian Patt an der University of Saskatchewan für den Vorschlag, das zu tun.

Gordon

Gordon J. Fulks, PhD (Physics)

Corbett, Oregon USA

P.S. an andere: Madhav Khandekar, PhD ist ein bekannter Meteorologe, der 25 Jahre lang für Environment Canada gearbeitet hat: http://www.fcpp.org/publication.php/2894

Ein ganz ähnlicher Artikel findet sich auf dem Blog von Judith Curry: http://judithcurry.com/2012/07/12/explaining-extreme-events-of-2011-from-a-climate-perspective/

Link zu diesem Artikel: http://wattsupwiththat.com/2012/07/10/extreme-weather-is-an-integral-part-of-the-earths-climate/

Übersetzt von Chris Frey EIKE




Der Energiereichtum Nordamerikas

Foto rechts: http://www.fotopedia.com/items/flickr-1392728191

Aber das Mantra der Energieknappheit in Nordamerika ist eine Fiktion: Wir sind nicht nur mit ausreichend Energie gesegnet, wir haben mehr Energie als die meisten Menschen sich überhaupt vorstellen können. Der Energiepolitik-Analyst Mark Mills benennt das Energiepotential Nordamerikas in einem neuen Bericht des Manhattan Institute.

Einige Schlüsselpunkte in dem Bericht lauten:

1) Die USA, Kanada und Mexiko schwimmen in Kohlenwasserstoff-Quellen: Öl, Erdgas und Kohle. Die gesamte Basis nordamerikanischen Kohlenwasserstoffs ist mehr als viermal größer als alle Ressourcen im Nahen Osten. Und die USA allein sind inzwischen die weltweit am schnellsten wachsende Erzeugernation von Öl und Erdgas.

2) Eine befürwortende Politik der Ausbeutung und des Exports für alle Kohlenwasserstoffe während der nächsten beiden Jahrzehnte könnte Werte bis zu 7 Billionen Dollar in die nordamerikanische Wirtschaft pumpen, wobei 5 Billionen Dollar davon auf die USA entfielen, einschließlich der Steuern in Höhe von 1 bis 2 Billionen Dollar für nationale und lokale Regierungen.

3) In Zusammenarbeit mit Kanada und Mexiko könnten – und sollten – die USA eine breit angelegte Politik für Entwicklung und Export starten, um uns die Vorteile unserer Kohlenwasserstoff-Ressourcen vor Augen zu führen. Eine solche Politik könnte dazu führen, dass Nordamerika bis zum Jahr 2030 zum größten Treibstoffversorger der Welt wird. Für die USA wäre die einzige effektivste Änderung der Politik die Nachahmung der kanadischen Lösung zur Erlaubnis für wesentliche Energieprojekte: nämlich die Gründung eines einheitlichen Portals einer einheitlichen staatsweiten Politik für alle Genehmigungen.

Natürlich könnte man nun darauf hinweisen, dass die Energiepolitik der USA, zumindest im nationalen Rahmen, seit einigen Jahren genau die entgegen gesetzte Richtung eingeschlagen hat, mit einer Verlangsamung der Produktion auf öffentlichen Ländereien und mit einer Verlangsamung der nordamerikanischen Energieintegration anstelle einer Beschleunigung von beidem – vielleicht die Keystone XL-Pipeline? Man kann nur hoffen, dass sich bald etwas ändert.

Kenneth P. Green

Link: http://www.aei-ideas.org/2012/07/north-americas-energy-wealth/

Hier folgt nun die Zusammenfassung (Executive Summary) des oben angesprochenen Berichtes:

Die USA, Kanada und Mexiko schwimmen in Kohlenwasserstoff-Quellen: Öl, Erdgas und Kohle. Die gesamte Basis nordamerikanischen Kohlenwasserstoffs ist mehr als viermal größer als alle Ressourcen im Nahen Osten. Und die USA allein sind inzwischen die weltweit am schnellsten wachsende Erzeugernation von Öl und Erdgas.

Das jüngste Wachstum bei der Kohlenwasserstoff-Erzeugung hat schon jetzt hunderttausende Arbeitsplätze und Milliarden Doller Steueraufkommen gebracht, und zwar indem man Milliarden Barrel Öl und Erdgas in den mit Kohlenwasserstoffaten angefüllten Schieferfeldern in Nord-Dakota, Ohio, Pennsylvania Texas und vielen anderen Staaten erschlossen hat – ebenso wie die kanadischen Ölsande.

Es ist an der Zeit, das atemberaubende Potential ökonomischer und geopolitischer Vorteile zu erkennen, die die Erschließung dieser Ressourcen den USA einbringen können. Es ist nicht übertrieben festzustellen, dass Arbeitsplätze im Zusammenhang mit Gewinnung, Transport und Handel mit Kohlenwasserstoff die USA aus ihrer ökonomischen Flaute aufwecken und Rendite erzielen kann, so dass die nationalen Bedürfnisse befriedigt werden können – einschließlich Erneuerung der Infrastruktur und Investitionen in wissenschaftliche Forschung.

Eine befürwortende Politik der Ausbeutung und des Exports für alle Kohlenwasserstoffe während der nächsten beiden Jahrzehnte könnte Werte bis zu 7 Billionen Dollar in die nordamerikanische Wirtschaft pumpen, wobei 5 Billionen Dollar davon auf die USA entfielen, einschließlich der Steuern in Höhe von 1 bis 2 Billionen Dollar für nationale und lokale Regierungen. Eine solche Politik würde auch in der gesamten Wirtschaft Millionen Arbeitsplätze schaffen. Die erforderlichen substantiellen Investitionen würden allesamt aus dem privaten Sektor kommen.

Die der amerikanischen Energiepolitik zugrunde liegenden Paradigmen sowie regulatorische Strukturen wurzeln in dem Gedanken an Verknappung und Abhängigkeit von Importen. Eine vollständige Umkehr des Denkens ist erforderlich, um Nordamerika an die Fülle von Kohlenwasserstoffen zu gewöhnen – und an Exporte.

In Zusammenarbeit mit Kanada und Mexiko könnten – und sollten – die USA eine breit angelegte Politik für Entwicklung und Export starten, um uns die Vorteile unserer Kohlenwasserstoff-Ressourcen vor Augen zu führen. Eine solche Politik könnte dazu führen, dass Nordamerika bis zum Jahr 2030 zum größten Treibstoffversorger der Welt wird. Für die USA wäre die einzige effektivste Änderung der Politik die Nachahmung der kanadischen Lösung zur Erlaubnis für wesentliche Energieprojekte: nämlich die Gründung eines einheitlichen Portals einer einheitlichen staatsweiten Politik für alle Genehmigungen.

Die jüngste Beschäftigung mit Technologien zur Schaffung von Alternativen zu Kohlenwasserstoff übersieht, wie Technologie auch alternative Quellen von Kohlenwasserstoff selbst erschafft. Eine Anzahl detaillierter Analysen der neuen Kohlenwasserstoff-Realitäten ist aufgekommen, nicht zuletzt die die exzellenten Analysen von Citi, Wood Mackenzie, IHS und dem US-Chamber of Commerce.

Die Autoren des detaillierten Citi-Berichtes mit dem Titel „Energy 2020: North America, the New Middle East?” weisen darauf hin, dass „die wesentlichen Hindernisse, den Ölüberschuss in Nordamerika zu erschließen, eher politischer als geologischer oder technologischer Natur sind“.

Das projizierte Wachstum des gesamten Weltenergiebedarfs bis zum Jahr 2030 ist etwa gleich den Verbrauchswerten von zwei Amerikas. Jede glaubwürdige Vorhersage zeigt, dass Kohlenwasserstoffe wie schon in der Vergangenheit den größten Teil dieses Wachstums ausmachen werden. Obwohl alternative Energien rapide gewachsen sind, ist deren Gesamtbeitrag zum Energieverbrauch in den USA und weltweit minimal und bleibt es auch in jedem vernünftigen Zukunftsszenario.

Zweifellos wird es Opposition gegen den Gedanken an eine radikale Änderung der Politik und der Haltung gegenüber Kohlenwasserstoffen geben. Aber die Vorteile für die USA, das übrige Nordamerika und der Welt sind so dramatisch und wichtig, dass deren Verwerfen ohne ernste politische Diskussionen nicht hinnehmbar ist.

Mark P. Mills, The Manhattan Institute

Link: http://assets.nationaljournal.com/pdf/ManhattenInstitute_EnergyExportsJuly12.pdf

Beide Artikel übersetzt von Chris Frey EIKE

Lesenswerter Beitrag:

Auf den Punkt: Die gewaltigen Veränderungen am US-Energiemarkt lassen sich in einer einzigen Grafik darstellen




Die Klimakatastrophe ist abgesagt, die Energiewende bereits im Ansatz gescheitert

Die Kölnische Rundschau meldete dazu :

„Bei dem sogenannten 3. Petersberger Klimadialog soll vor allem die UN-Klimakonferenz Ende des Jahres in Katar vorbereitet werden. Im Dezember war bei der Konferenz im südafrikanischen Durban der Fahrplan für einen bis 2015 geplanten Weltklimavertrag beschlossen worden, der nun konkretisiert werden muss. Bei dem Treffen soll auch geprüft werden, ob sich mit bisherigen Klimaschutzzusagen überhaupt noch das gemeinsame Ziel erreichen lässt, die Erderwärmung auf zwei Grad Celsius zu begrenzen.“ 

Doch selbst der Jurist , Hobbykoch und ihr – nach einem Eklat um den Vorgänger Norbert Röttgen- erst jüngst ernannte Umweltminister ahnte schnell, dass mit dem sog. „Klimaschutz“ kein politischer  Blumentopf mehr zu gewinnen ist. Vielleicht hat er, dank der Dauerberieselung mit Fakten auch von Websites, wie der von EIKE, inzwischen erkannt, dass die geringe Erwärmung trotz CO2 Anstieges ganz klar seit 15 Jahren zum Stillstand gekommen ist. Da macht es auch keinen Unterschied mehr, dass er – wie in der Tagesschau um 17:00 Uhr vom 16.7.12 vom

2 % Ziel

redete, dass es unbedingt einzuhalten gälte.

Denn tatsächlich begann er zuvor erste Rückzugsgefechte vorzubereiten:

„Altmaier zweifelt an Röttgens Energiewende-Zielen“ titelt die ergebenst links-grüne Süddeutsche Zeitung   und schreibt weiter:

"Da sind Fehler gemacht worden", die Bezahlbarkeit von Energie sei aus dem Auge verloren worden: Umweltminister Altmaier rechnet mit der Arbeit seines Vorgängers Röttgen ab und zweifelt daran, dass die Ziele der Energiewende erreicht werden können. Er befürchtet sogar soziale Probleme aufgrund steigender Strompreise. Es ist eine Ohrfeige für seinen Vorgänger: Bundesumweltminister Peter Altmaier zweifelt daran, alle Ziele der Energiewende erreichen zu können und wirft Norbert Röttgen – ohne seinen Namen zu nennen – schwere Versäumnisse vor."

Und im liberalen, etwas kritischeren FOCUS liest man seine Aussage so: „Es stelle sich die Frage, ob es wirklich gelingt, den Stromverbrauch wie vorgesehen bis zum Jahre 2020 um zehn Prozent zu senken, sagte Altmaier der „Bild am Sonntag“. „Wenn wir das noch irgendwie schaffen wollen, dann bedarf das riesiger Anstrengungen.“… 

Das ist auch verständlich, denn allen – selbst den chronisch linksgestrickten grünen Medien geht langsam auf, dass man die Naturgesetze -auch als Oberpolitiker- nicht so mir nichts Dir nichts außer Kraft setzen kann. Auch dann nicht , wenn alle Lobbyisten des Ökoindustriellen Komplexes einem dies einreden.

Unter der Überschrift „Im Gegenwind“ muss sogar die politische Redakteurin (studierte Geschichte und Germanistik) des Tagesspiegel und ehemals Sprecherin der Grünen in Baden Württemberg  Dagmar Dehmer einräumen :

„Die Energiewende ist ein ambitioniertes Projekt. Ob alle Teilziele erreichbar sind, bezweifelt selbst der Umweltminister. Wie ist das zu bewerten?

Und bewertete selbst gleich drauf los:

„Am Montag und Dienstag findet zum dritten Mal der „Petersberger Klimadialog“ statt, zu dem Umweltminister aus 35 Staaten nach Berlin reisen. Ein wichtiger Termin, um „Vertrauen aufzubauen“, sagte Bundeskanzlerin Angela Merkel (CDU) am Sonntag in ihrer wöchentlichen Video-Botschaft. Das scheint auch im eigenen Land nötig zu sein. Umweltminister Peter Altmaier (CDU) gestand ein, dass die Regierung die Schwierigkeiten auf dem Weg zur Energiewende vor einem Jahr ziemlich unterschätzt hat. In einem Interview mit „Bild am Sonntag“ sagte er: „Wir haben Fehler gemacht.“

Nun ja, die wirklichen Probleme vermochte sie – vermutlich mangels Fachwissens, oder aus ideologischer Blindheit, wer weiß das schon- auch nicht zu benennen: Die irren Kosten, die erzwungene Abnahme selbst größter Mengen, bei gleichzeitiger Zerstörung der energetischen Basis des Industrielandes Deutschland. Da ist die FAZ schon um einiges weiter. Dort titelt man:

„Solarausbau kostet Deutschland mehr als 110 Milliarden Euro“

und weiter liest man

„..Kaum positive Wirtschafts- und Klimaeffekte: Die Bilanz, die das Wirtschaftsforschungsinstitut RWI zum Photovoltaik-Ausbau zieht, ist ernüchternd. Dabei werde er die Stromkunden mehr als 110 Milliarden Euro kosten, schreiben die Forscher in der Studie, die der F.A.Z. vorliegt. ….Der Ausbau der Energieerzeugung durch Photovoltaikanlagen wird Deutschlands Stromkunden mindestens 111 Milliarden Euro kosten. Das ergeben neue Berechnungen des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung (RWI), die der F.A.Z. vorliegen. Allein der Ausbau bis zu dem neuen Förderdeckel von 52 Gigawatt (GW) Leistung wird trotz stark sinkender Einspeisevergütung noch Zahlungen von 11,8 Milliarden Euro auslösen…. Doch die Rechnung für den Sonnenstrom, dessen Abnahmepreis den Erzeugern für 20 Jahre garantiert ist, wird den Verbrauchern erst noch zugestellt. „Vor der Schlussfolgerung, dass wir das Schlimmste nun bald hinter uns hätten, muss man sehr warnen“, sagt RWI-Forscher Manuel Frondel. Allein für die in den vergangenen zwölf Jahren installierten PV-Anlagen müssten rund 100 Milliarden Euro aufgebracht werden, wovon aber erst 15 Milliarden Euro bezahlt sein. 85 Milliarden Euro stünden noch aus… Allerdings ist die Rechnung nicht vollständig. Sie enthält keine indirekten Kosten, die stark ansteigen dürften… Sein Kollege Georg Erdmann von der Technischen Universität Berlin hat die indirekten Kosten, unter anderem für den Ausbau der Stromübertragungs- und verteilnetze, auf 85 Milliarden Euro berechnet.“

Und SPON legt noch einmal nach:

Deutsche Energie-Panik: Merkels Energiewende-Pfusch birgt sozialen Sprengstoff

Merkels Energiepolitik könnte sich als Brandbeschleuniger einer fallenden Konjunktur entwickeln. Die sozialen Folgen wären verheerend. Das Riesenprojekt muss deshalb sofort gestoppt und komplett neu gedacht werden… Es droht der Verlust an Wettbewerbsfähigkeit und Arbeitsplätzen, und die Energiewende könnte sich zum Brandbeschleuniger einer fallenden Konjunktur entwickeln. Noch schlimmer: Es droht sozialer Sprengstoff. Die deutschen Privathaushalte werden zukünftig über 1.200 Euro jährlich alleine für die Stromrechnung zu zahlen haben. Dies ist für viele Familien mehr als ein Nettomonatseinkommen und ist damit nicht mehr verkraftbar. Deshalb werden jetzt auch die Sozialdemokraten endlich wach und kapieren langsam, dass sie sich völlig unkritisch der überstürzten Energiewende der Kanzlerin angeschlossen hatten. Und sie ahnen, dass sie bei den nächsten Wahlen wegen Nichtstun selbst Opfer der rein machtpolitischen Entscheidung der Bundesregierung werden könnten. Denn Arbeitsplätze in der Industrie sind in Gefahr.

Damit das noch teurer wird, hat die Bundesregierung als Partykönigin jedes Jahr aufs neue die Nehmerländer dieser Welt zum 3. Petersberger Energiedialog gebeten. Es sollen zwar nur 35 sein -und fast alles Entwicklungsländer –  aber bei so einer verfahrenen Kiste ist man auch schon mit wenigem zufrieden. Doch teuer wird´s auf jeden Fall. Transferunion übers Klima

Na denn, freuen wir uns schon mit diesen extrem hohen Kosten irgendwann in ferner Zukunft das Klima zu retten. Unsere Bundeskanzlerin und ihr Umweltminister werden es schon richten.

Sobald ein neues Klimaschutzabkommen da ist, wird die Welt gerettet sein, und alle Welt dankbar darüber, dass Deutschland sich geopfert hat. Amen! 

Michael Limburg EIKE

Weiterführende links:

Merkels Energiewende: Extrem teuer, aber direkt in die Sackgasse

Die Energiewende wirkt: Wieder eine Solarfirma pleite! EON erwägt Schließung von 3 Gaskraftwerksblöcken!

Das Ende der Klimakatastrophe und der Agenda 21: Lord Moncktons Bericht aus Rio

Die Klimakatastrophe – ein spektroskopisches Artefakt!




Ein skeptischer Blick auf „alternative Energie“

Ich sagte, dass da ein Fehler vorliegen muss. Ich bin nicht weit von diesem Gebiet aufgewachsen, gerade hinter der Grenze zur Tschechischen Republik, und ich werde niemals die endlosen Sommertage vergessen, die ich wegen des ständigen Regens drinnen verbringen musste. In Bayern ist es ähnlich wie in Seattle in den USA oder der Provinz Sichuan in China. Man möchte nie ein Solarkraftwerk in Bayern bauen, aber genau dorthin haben es die Deutschen gepackt. Das Kraftwerk mit einer Spitzenleistung von 10 Megawatt wurde im Juni 2005 in Betrieb genommen.

Und zwar aus dem besten Grund, den es in der Politik gibt: Geld. Willkommen in der Welt neuer erneuerbarer Energien, in der die Subventionen regieren – und die Verbraucher zahlen.

Ohne diese Subventionen könnten die Erneuerbare-Energien-Kraftwerke im Gegensatz zu hydroelektrischen oder geothermischen Kraftwerken nicht mit konventionellen Erzeugern konkurrieren. Dafür gibt es viele Gründe, zuallererst die geringe Kapazität – die meiste Elektrizität, die ein Kraftwerk tatsächlich erzeugen kann geteilt durch das, was es erzeugen könnte bei ständiger voller Auslastung. Der Kapazitätsfaktor eine typischen Kernkraftwerkes liegt bei über 90%; für ein Kohlekraftwerk bei 60 bis 75%. Eine Photovoltaik-Installation kann es nahe 20 Prozent bringen – im sonnigen Spanien – und eine Windturbine, gut aufgestellt auf dem Festland, 25 bis 30 Prozent. Man errichte sie offshore, und sie könnte sogar 40 Prozent erreichen. Um beide der letztgenannten Technologien nutzen zu können, muss man sich aber auch der Notwendigkeit stellen, jeweils vollständig neue Überlandleitungen zu spannen an Orte, wo Sonne und Wind vorhanden sind, ebenso wie der Notwendigkeit, wegen der unsteten Natur der Energie eine sehr variable Spannung zu managen.

Alle diese Komplikationen sind wohlbekannt, und alle wurden von den Unterstützern der alternativen Energie und der Medien viel zu wenig beachtet. Am schlimmsten jedoch ist, dass man seitens der Antreiber die Zeit nicht berücksichtigt hat, die es braucht, um zu einer neuen Energiequelle überzugehen, egal wie überzeugend die Argumente dafür auch sind.

Ein Beispiel ist der vom früheren Vizepräsidenten Al Gore befürwortete Plan aus dem Jahr 2008, dem zufolge alle fossil betriebenen Kraftwerke in den USA innerhalb eines Jahrzehnts ersetzt werden sollten. Ein weiterer ist Googles Plan, der im Jahr 2008 verkündet und im Jahr 2011 aufgegeben worden war, dem zufolge die Erzeugung mit Kohle bis zum Jahr 2030 ganz aufhören sollte. Alle diese Pläne wurden aber noch übertroffen durch einen Artikel aus dem Jahr 2009 im Scientific American von Mark Jacobsson, einem Bauingenieur-Professor an der Stanford-University, und Mark Delucchi, einem Forscher für das Transportwesen an der University of California. Sie schlugen vor, die Energiewirtschaft  in der ganzen Welt bis zum Jahr 2030 auf erneuerbare Quellen zu konvertieren.

Die Historie und eine Betrachtung der technischen Erfordernisse zeigen, dass das Problem viel größer ist als diese Befürworter gedacht hatten.

Was hat sich die deutsche Regierung im Jahr 2004 gedacht, als sie eine Einspeisetarif genannte Subvention angeboten hat, die Investoren bis zu 0,57 Euro pro Kilowattstunde für die nächsten 20 Jahre der Stromerzeugung durch Photovoltaik garantiert? Zu der Zeit lag der Strompreis aus anderen Quellen um 0,20 Euro pro kWh. Zum Vergleich: der mittlere Strompreis in den USA lag im Jahr 2004 bei 7,6 Cent oder 0,06 Euro pro kWh. Angesichts solcher Subventionen ist es kein Wunder, dass der Solarpark in Bayern nur der Anfang eines Booms war, um in ganz Deutschland Solarparks zu errichten. Bis Ende 2011 besaßen die PV-Installationen in Deutschland eine Kapazität von fast 25 Gigawatt, also mehr als ein Drittel der gesamten globalen Kapazität. Subventioniert man irgendetwas nur ausreichend genug, kann es auf den ersten Blick vernünftig aussehen; erst später kommt die Realität ins Spiel. Aufgeschreckt durch die Nachricht, dass die Deutschen den zweithöchsten Strompreis in Europa bezahlen, hat der Bundestag im vergangenen März dafür gestimmt, die verschiedenen Solarsubventionen um bis zu 29 Prozent zu kürzen.

So generöse Subventionen sind in keiner Weise eine deutsche Eigenart. Sie waren in der neuen Welt der erneuerbaren Energien die Norm; lediglich die Ziele unterscheiden sich. Spanien hat die Energieerzeugung durch Wind und PV ebenfalls subventioniert, bevor der Einspeisetarif dort für große Installationen um fast 50 Prozent im Jahr 2010 gekürzt worden war. Die Vorteile Chinas für die dortige Industrie zur Herstellung von Windturbinen waren so gewaltig, dass sich die USA 2010 darüber bei der Welthandelsorganisation beklagt hatten. In den USA haben weder Wind- noch Solarkraftwerke, sondern Biomasse am meisten profitiert – besonders Mais zur Herstellung von Ethanol.

Dem Accountability Office der US-Regierung zufolge kostet den Steuerzahler die Steuer auf die Ethanolherstellung im Jahr 2011 6,1 Milliarden Dollar. Zusätzlich du diesen direkten Kosten kommen noch drei indirekte: einmal Kosten in Zusammenhang mit der Bodenerosion, dem Abfluss von Wasser mit übermäßigem Nitratgehalt durch die Düngemittel (welche im Golf von Mexiko enden und dort in küstennahen Gebieten Todeszonen erzeugen) und die steigenden Lebensmittelpreise, die sich ergeben, wenn der größte Getreideexporteur der Welt 40 Prozent seines Mais’ zur Ethanolherstellung abzweigt. Und die Krone des Ganzen ist, dass der so hergestellte Treibstoff meistens in energieineffizienten Fahrzeugen verbraucht wird.

Nun könnte man einwenden [PDF] , dass Subventionen nicht per se schlecht sind; tatsächlich gibt es eine lange Geschichte, wie sie zur Entwicklung neuer Energiequellen eingesetzt worden sind. Die Öl- und Gasindustrie haben von Jahrzehnten mit Steuererleichterungen profitiert, die darauf abzielten, die Erschließung zu stimulieren. Die Kernkraftindustrie ist auf dem Rücken direkter und enormer Unterstützung der Forschungs- und Entwicklungsabteilung [R&D, Research and Development] gewachsen. In den USA hat sie zwischen 1948 und 2007 fast 54 Prozent aller öffentlichen Forschungsgelder empfangen. In Frankreich erhielt sie umfassende Unterstützung der staatlichen Stromerzeugungsgesellschaft. Ohne diese Subvention hätte diese Industrie es bis heute nicht geschafft, mehr als 75 Prozent des französischen Energiemarktes zu beherrschen. Daher müssen wir uns fragen, ob die Subventionen für alternative Energien halten können, was deren Befürworter versprechen.

Bild Kernenergie: eine Energietechnologie, die angeschoben worden ist. Kernkraft war die erste wesentliche neue Energiequelle, die ihre Entwicklung weitestgehend den Investitionen und Subventionen der Regierung zu verdanken hat, wie man an hand der sehr unterschiedlichen Entwicklungen in diesen drei Ländern erkennen kann.

Man mache sich keine Illusionen: sie versprechen viel. Die leidenschaftlichsten Unterstützer von Sonne, Wind und Biomasse führen an, dass diese Quellen fossile Treibstoffe ersetzen können und hoch zuverlässige, nicht verschmutzende, kohlenstofffreie Systeme sind, die nicht teurer sind als die heute billigste kohlebasierte Stromerzeugung, alles in nur wenigen Jahrzehnten. Das wäre schnell genug um zu verhindern, dass der Anstieg des Kohlendioxids in der Atmosphäre von gegenwärtig 394 ppm auf mehr als 450 ppm steigt – einem Wert, ab dem Klimatologen schätzen, dass die globale Temperatur um 2°C steigen wird. Ich wünschte, dass all diese Versprechen wahr werden würden, aber ich glaube stattdessen, dass ich lieber den Glauben auf eindeutige technische Einschätzungen richten sollte.

Das Ganze zu bezahlbaren Preisen zu bekommen ist das am schwierigsten einzulösende Versprechen, betrachtet man die vielen verschiedenen Subventionen und die kreativen Verrechnungstechniken, mit denen seit Jahren alternative und erneuerbare Erzeugungstechnologien untermauert werden. Sowohl die Europäische als auch die amerikanische Wind Energy Association behaupten, dass Windturbinen schon jetzt billiger Energie erzeugen als Kohlekraftwerke, während es die Solarenthusiasten vorziehen, das Beispiel der beeindruckend zurückgehenden Preise für Photovoltaikzellen anzupreisen, um den Eindruck zu erzeugen, dass wir schon bald erkennen, wie staunenswert niedrig die installierten Kosten liegen.

Andere Analysen jedoch weisen die Behauptungen billigen Windstroms zurück, und wieder andere berücksichtigen die Tatsache, dass Photovoltaik-Installationen nicht nur Zellen, sondern auch Rahmen, Stromumwandler, Batterien und Wartung benötigen. Diese damit verbundenen Kosten sind überhaupt nicht rückläufig, und das ist auch der Grund dafür, dass sich die Kosten der heimischen Solarstromerzeugung in den USA seit dem Jahr 2000 nicht grundlegend verändert haben. Zu jener Zeit lag der Preis im nationalen Mittel nahe 40 US-Cent pro Kilowattstunde in sonnigen Gebieten und bei 63,60 Cent in wolkigeren Gebieten. Das ist immer noch erheblich teurer als der Verbrauch fossiler Treibstoffe, der in den USA im Jahr 2011 zwischen 11 und 12 Cent pro Kilowattstunde teuer war. Das Zeitalter dezentraler umfangreicher Stromerzeugung mittels Photovoltaik ist noch nicht angebrochen.

Dann betrachte man die Frage der Größenordnung. Windkraft ist kommerziell weiter als Sonnenenergie, aber mit 47 Gigawatt in den USA Ende 2011 bringt sie immer noch lediglich 4 Prozent der sommers erzeugten Kapazität in diesem Land. Und weil die Kapazitätsfaktoren der Windturbinen in den USA so niedrig liegen, trug der Wind zu weniger als 3 Prozent zur insgesamt erzeugten Elektrizität im Jahr 2011 bei.

Infographik: Design Bryan Christie; Datenquelle Vaclav Smil: Zwei aufstrebende Mächte, China und Indien, lassen die USA hinsichtlich der Kohlenstoffemissionen hinter sich.

Es dauerte 30 Jahre, – seit dem Einsatz kleiner, moderner Windturbinen im Jahr 1980 – um auch nur diesen geringen Prozentsatz zu erreichen. Zum Vergleich, die Kernkraft erreichte innerhalb von 30 Jahren nach der Einführung 20 Prozent der Gesamtstromerzeugung in den USA, und Gasturbinen 10 Prozent innerhalb von drei Jahrzehnten nach der Inbetriebnahme in den frühen sechziger Jahren.

Projektionen der Stromerzeugung durch Wind in die Zukunft waren irreführend optimistisch, weil sie alle auf der Zunahme von einer sehr geringen Basis ausgingen. Was also ist, wenn die gesamte globale Windkapazität zwischen 2001 und 2011 um das Sechsfache gestiegen wäre? Solche hohen Zuwachsraten sind typisch für frühe Stadien der Entwicklung, besonders wenn – wie in diesem Fall – das Wachstum hauptsächlich durch Subventionen angetrieben worden ist.

Inzwischen gibt es einen neuen Faktor, der die Aussichten für Wind und Sonne verändert: Das Auftauchen umfangreicher Vorräte von Erdgas, dass durch hydraulisches Brechen, oder Fracking, aus Schiefer gewonnen wird. Derzeit ist Fracking außerhalb der USA und Kanada noch nicht üblich, aber es könnte in vielen Ländern in Europa, Asien und Lateinamerika verwendet werden, wo es ebenfalls riesige Vorkommen gibt. Einige Länder wie Frankreich und Deutschland haben die Technologie verbannt, und zwar aus Furcht vor möglichen Auswirkungen auf die Umwelt, aber solche Bedenken begleiten alle neuen Energietechnologien, selbst solche, die überschwänglich für ihre guten Auswirkungen auf die Umwelt angepriesen werden. Und Erdgas kann verwendet werden, um Energie besonders effizient zu erzeugen. Zum Beispiel beuten kombinierte Gaskraftwerke die Abfallwärme der Gasturbine aus, um Dampf zu erzeugen, womit zusätzlich mittels einer Dampfturbine Strom erzeugt werden kann. Was aber noch mehr zählt ist, dass Gasturbinen mit einer Kapazität bis 60 Megawatt innerhalb eines Monats in Betrieb gehen können. Außerdem können sie bequem dort gebaut werden, wo ihr Strom in bereits bestehende Überlandleitungen eingespeist werden kann.

Die Orte, an denen massive Windparks errichtet werden sollen, sind ebenfalls zunehmend umstritten – viele Menschen mögen das Aussehen nicht, lehnen deren Lärm ab oder machen sich Sorgen über deren Auswirkungen auf Zugvögel und Fledermäuse. Dies ist inzwischen sogar für einige Offshore-Projekte zum Problem geworden. Zum Beispiel, ein riesiges Projekt vor der Insel Martha’s Vineyard island in Massachusets, welches das erste Offshore-Windprojekt in den USA sein sollte, liegt seit Jahren wegen der Opposition vor Ort auf Eis. Die Unstetigkeit des Windes macht es schwierig abzuschätzen, wie viel Strom innerhalb weniger Tage erzeugt werden kann, und das Fehlen von Erfahrungen beim Betrieb großer Turbinen führt langfristig zu sogar noch größerer Ungewissheit. Wir müssen einfach abwarten, wie zuverlässig sie während ihrer angenommenen Lebensdauer von 20 bis 30 Jahren sind und wie viel Reparatur- und Wartungskosten anfallen.

Und natürlich kann man Windturbinen nicht nutzen, solange nicht gewährleistet ist, dass sie an ein Netz noch zu bauender Hochspannungsleitungen angeschlossen werden können, ein teures und normalerweise legal herausforderndes Unterfangen.

Unter der Annahme, dass große Windparks in den USA in den Großen Ebenen errichtet werden könnten, wo Wind und Land ausreichend zur Verfügung steht, müssen die Entwickler viele tausend Kilometer Überlandleitungen konstruieren, um diese Windparks mit den wesentlichen Strommärkten an den Küsten zu verbinden. Natürlich ist die Herausforderung der Verbindungen für kleine Länder einfacher (vor allem, wenn sie sich auf ihre Nachbarn verlassen können), was mit ein Grund dafür ist, dass Dänemark führend hinsichtlich der Windkraft geworden ist.

In den USA geht das Problem über den Bau neuer Leitungen hinaus; es ist nötig, diese an ein existierendes Netz anzuschließen, dass schon jetzt angespannt und ungeeignet ist. Der jüngste Bericht zur amerikanischen Infrastruktur, vorbereitet mit den Daten des Jahres 2009 von der American Society of Civil Engineers, erteilt dem heimischen Energiesystem die Bewertung D+ [vergleichbar mit der deutschen Schulnote 4+], hauptsächlich deswegen, weil das Netz relativ alt ist und der Betrieb häufig durch Spitzen hohen sommerlichen Bedarfs angespannt wird [vermutlich wegen der ganzen Klimaanlagen, A. d. Übers.]. Eine Verbesserung dieser Bewertung ist mehr als eine technische Herausforderung, weil Verbesserungen der Infrastruktur oftmals fest verwurzelter politischer Opposition gegenüber stehen – das Nicht-in-meinem-Garten-Syndrom.

In Europa mag es bessere Verbindungen geben, aber hier steht die Hinwendung zu Wind- und Solarenergie anderen Problemen gegenüber. Die ökonomischen Aussichten sind düster, und das wird dessen Fähigkeit, massiv in neue Technologien zu investieren, begrenzen. Selbst Deutschland, die stärkste europäische Wirtschaft und ein großer Faktor bzgl. neuer Energien, hat einen schwierigen Weg vor sich; dort muss man Ersatz für die Kernkraftwerke finden, die man aufgrund der Ereignisse in Fukushima abgeschaltet hat. Das ist keine geringe Herausforderung, wenn Deutschland seine Subventionen für Wind- und Sonnenenergie kürzt und die Wirtschaft einer Rezession nahe steht.

Eingriffe der Regierung sind erforderlich, weil die Chancen schlecht sind, dass irgendein privates Investitionsprogramm umfangreich genug ist, um die Konversion zu neuen Energiequellen zu beschleunigen. Aber selbst Regierungen in den reichen Ländern haben Schwierigkeiten, essentielle Infrastrukturen einzurichten, hauptsächlich wegen wachsender Zweifel. Gründe dafür sind u. A. nicht eingedämmte Gesundheitskosten, Handelsdefizite, nicht wettbewerbsfähige Herstellung und Steuerausfälle. Gleichzeitig haben Subventionen der Regierung für neue Energietechnologien es nicht vermocht, ein oft gemachtes Versprechen einzulösen: Sie haben keine neuen permanenten und gut bezahlte Arbeitsplätze geschaffen, weder in der EU noch in den USA.

Infographik: Design Bryan Christie; Datenquelle: Vaclav Smil Die Windkraft in den USA ist von einer sehr niedrigen Basis schnell gewachsen, und wie die Historie solcher Technologien zeigt, kommt die wirkliche Herausforderung erst später.

Die ultimative Rechtfertigung für alternative Energie hat die Abschwächung der globalen Erwärmung zum Mittelpunkt: Die Erzeugung von Energie aus Wind, Sonne und Biomasse fügt der Atmosphäre weniger Treibhausgase zu. Aber während diese Treibhausgase globale Auswirkungen haben, muss die Wirksamkeit dieser Einsetzung auch global beurteilt werden. Und dann müssen wir erkennen, dass der Beitrag der westlichen Welt zur Reduktion von Kohlendioxidemissionen durch Wind und Sonne bedeutungslos ist gegenüber der zunehmenden Verbrennung von Kohle in China und Indien.

Die Zahlen sind ernüchternd. Zwischen den Jahren 2004 und 2009 sind in den USA etwa für 28 Gigawatt Windturbinen errichtet worden. Das ist äquivalent mit weniger als 10 Gigawatt Kapazität aus Kohle, legt man die sehr unterschiedlichen Ladefaktoren zugrunde. Während der gleichen Zeit ist in China mehr als 30 mal so viel [PDF] Kapazität aus Kohle installiert worden in riesigen zentralen Kraftwerken, Einrichtungen, die eine erwartete Lebensdauer von mindestens 30 Jahren haben. Im Jahr 2010 allein haben in China die Kohlendioxidemissionen um fast 800 Millionen metrischer Tonnen zugenommen, das entspricht etwa der Gesamtmenge in den USA. Im gleichen Jahr wurden in den USA fast 95 Terawattstunden Strom aus Wind erzeugt, was folglich die Emission von etwa 65 Millionen Tonnen Kohlendioxid verhindert hat. Außerdem wird China bis zum Jahr 2015 weitere Kohlekraftwerke mit einer Kapazität von 200 GW bauen, während in den USA lediglich etwa 30 GW Windkapazität hinzukommen, äquivalent mit weniger als 15 GW Kohlestromerzeugung. Natürlich wird sich die rapide Zunahme der Verbrennung asiatischer Kohle irgendwie mäßigen, aber selbst dann kann die Konzentration von Kohlendioxid in der Atmosphäre nicht unter 450 ppm bleiben.

Der vielleicht am wenigsten verstandene Aspekt der Energiewende ist deren Geschwindigkeit. Der Ersatz einer Energieform durch eine andere dauert lange. Strom aus Kernkraft in den USA erzeugte 23 Jahre nach der Inbetriebnahme 10 Prozent des Gesamtstromes, und es dauerte 38 Jahre, bis dieser Anteil auf 20 Prozent gewachsen ist, was im Jahr 1995 der Fall war. Seitdem ist dieser Anteil in etwa gleich geblieben. Stromerzeugung mit Gasturbinen aus Erdgas brauchte 45 Jahre, um einen Anteil von 20 Prozent zu erreichen.

Im Jahr 2025 werden moderne Windturbinen seit etwa 30 Jahren herumstehen, und wenn sie bis dahin nur 15 Prozent der Energieversorgung in den USA decken, würde das ein gewaltiger Erfolg sein. Und selbst die optimistischsten Projekte zur Sonnenkraft versprechen nicht einmal halb so viel. Die Suche nach nicht karbonhaltigen Stromquellen ist sehr wünschenswert, und vielleicht werden solche Quellen irgendwann vorherrschen. Aber dies ist nur möglich, wenn die Planer realistische Erwartungen haben. Der Vergleich mit einem gigantischen Öltanker, so unbequem er ist, passt hervorragend: Ihn zu wenden braucht sehr viel Zeit.

Und das Wenden des auf fossilen Treibstoffen basierenden Energiesystems der Welt ist eine wahrhaft herkulische Aufgabe. Dieses System braucht derzeit jährlich mehr als 7 Milliarden Tonnen Stein- und Braunkohle, etwa 4 Milliarden Tonnen Rohöl und mehr als 3 Trillionen Kubikmeter Erdgas. Dies addiert sich zu 14 Trillionen Watt Energie. Und die Infrastruktur – Kohleminen, Öl- und Gasfelder, Raffinerien, Pipelines, Züge, Lastwagen Tanker, Abfüllstationen Kraftwerke Transformer, Leitungs- und Verteilersysteme sowie hunderte Millionen Benzin, Kerosin, Diesel und Treibstoff verbrauchende Motoren – konstituiert das teuerste und extensivste Netz von Installationen, Netzwerken und Machinen, die jemals in der Welt gebaut worden sind, etwas, das Generationen dauerte und Trillionen Dollar gekostet hat.

Es ist unmöglich, dieses Supersystem in einer oder zwei Dekaden zu ersetzen – oder in fünf, je nachdem. Es mit einer ähnlich teuren und zuverlässigen Alternative zu ersetzen, die auf erneuerbarer Energie basiert, ist eine Aufgabe, die Jahrzehnte langes extensive Hingabe erfordert. Es ist die Arbeit vieler Generationen von Ingenieuren.

Vaclav Smil

Über den Autor

Vaclav Smil, ein angesehener Professor im Department für Umwelt und Geographie an der University of Manitoba, Kanada, datiert den Beginn seines Interesses an diesem Artikel auf seine Studententage an der Prager Carolinum University vor über 50 Jahren. „Im Gegensatz zur gegenwärtig populären Durchsetzung beschleunigter Innovation“, sagt er, „sind die meisten technischen Verbesserungen evolutionär und brauchen Zeit, bis sich ein wirklicher Unterschied zeigt. Folglich halte ich wenig von Behauptungen einer fast sofortigen Transformation irgendeines komplexen Systems“.

Der Originalartikel findet sich auf IEEE Spectrum hier

Übersetzt von Chris Frey EIKE

Die schweizerische Handelszeitung benennt Smil "als einflussreichen Denker der über den Wert der industriellen Forschung, den sinkenden Wohlstand im Westen, den Absturz Chinas – und Mozart" Auskunft gibt. Das Interview hier




Fallstudien aus aller Welt belegen: Keine Beschleunigung des Meeresspiegelanstiegs während der letzten 30 Jahre

Bereits im Jahr 2009 hatte sich eine internationale Forschergruppe aus Frankreich, Spanien und Großbritannien um Guy Wöppelmann mit der Frage beschäftigt, welchen Einfluss Land-Hebungen und -Senkungen auf Meeresspiegelmessdaten von Küstenpegeln haben. In der in den Geophysical Research Letters erschienenen Studie untersuchten die Wissenschaftler weltweit 227 Stationen deren Höhe im Rahmen eines globalen Netzwerks mithilfe des satellitengestützten Global Positioning Systems (GPS) genau erfasst wurde. 160 dieser Stationen liegen in einer Entfernung von höchstens 15 km von Küstenpegeln. Auf diese Weise konnten die Forscher vertikale Bewegungen der Pegel bestimmen und die Meeresspiegeldaten der Pegel entsprechend korrigieren. Für das letzte Jahrhundert konnte auf diese Weise ein mittlerer globaler Meeresspiegelanstieg von 1,61 mm pro Jahr ermittelt werden. Von 1900 bis 1940 stieg der Meeresspiegel etwas langsamer an (Abbildung 1). Um 1940 schaltete der Meeresspiegelanstieg dann auf eine höhere Geschwindigkeitsstufe, die bis heute relativ stabil beibehalten wurde. Eine weitere Beschleunigung war während der letzten 70 Jahre nicht zu verzeichnen. Die Beschleunigung in der ersten Hälfte des 20. Jahrhunderts war dabei zu erwarten und ist in den Übergang von der Kleinen Eiszeit in die Moderne Wärmeperiode einzuordnen (siehe unser Blogartikel „Der Meeresspiegel steigt! Seit 15.000 Jahren“).

Abbildung 1: Meeresspiegelentwicklung der letzten 100 Jahre für Nordeuropa (oben) und Nordwest Amerika (unten) auf Basis von Küstenpegeln. Landhebungen und -Senkungen wurden für die untersuchten Stationen mit GPS bestimmt und bei der Erstellung der Meeresspiegelkurve berücksichtigt. Seit 1940 ist keine Beschleunigung des Anstiegs mehr zu verzeichnen. Quelle: Wöppelmann et al. (2009).

Ein weiteres bedeutendes Paper zur Meeresspiegelentwicklung erschien Ende Juni 2012 in den Geophysical Research Letters. Ein internationales Wissenschaftlerteam um Olivier Henry vom Centre National de la Recherche Scientifique in Toulouse führte für die vergangenen 60 Jahre eine Untersuchung an 62 Küstenpegeln an den arktischen Küsten Norwegens und Russlands durch. Zunächst korrigierten die Forscher Hebungs- und Senkungsbewegungen im Zusammenhang mit der letzten Eiszeit sowie andere Effekte. Die auf diese Weise rekonstruierte Meeresspiegelkurve des Arktischen Ozeans zeigt einige überraschende Merkmale. Zunächst einmal blieb der Meeresspiegel ab 1950 für drei Jahrzehnte relativ stabil und verharrte auf einem Plateau (Abbildung 2). Erst ab 1980 stieg der Meeresspiegel schließlich an und erreichte um 1990 seinen Höhepunkt, der bis heute nicht mehr übertroffen wurde. Im Laufe der 1990er Jahre fiel der Meeresspiegel wieder. Ab 1995 stieg er dann wieder an, erreicht aber nicht mehr das Meeresspiegelniveau von 1990. Von 1995 bis 2009 errechneten die Autoren eine mittlere Meeresspiegelanstiegsrate von 4 mm/Jahr.

Der Meeresspiegelverlauf entwickelte sich dabei über fast den gesamten Untersuchungszeitraum synchron zur Arktischen Oszillation (AO), einem bedeutenden Ozeanzyklus in der Region (Abbildungen 2 und 3). Erst in den letzten 10 Jahren scheint sich der Zusammenhang etwas zu entkoppeln, obwohl die Zeitspanne wohl noch zu kurz ist, um dies mit Sicherheit – auch mit Blick in die Zukunft – sagen zu können. Der synchrone Absturz von Meeresspiegel und Arktischer Oszillation 2009 zeigt, dass die AO wohl auch in Zukunft einen maßgeblichen Einfluss auf das Meeresspiegelgeschehen in der Arktis nehmen wird. 

Ähnlich wie bei der Temperaturentwicklung müssen auch bei der Meeresspiegelinterpretation in einigen Regionen der Erde auf jeden Fall Ozeanzyklen berücksichtigt werden. Ozeanzyklen können den Meeresspiegel nach oben und nach unten drücken, Anstiege beschleunigen, verlangsamen und sogar ins Negative umschlagen lassen. Eine generelle und belastbare Beschleunigung des Meeresspiegelanstiegs durch schmelzende Eismassen während der letzten drei Jahrzehnte lässt sich im Arktischen Ozean nicht belegen.

Abbildung 2: Meeresspiegelentwicklung in der Arktis für die vergangenen 60 Jahre (rote Kurve). Von 1950 bis 2000 verlaufen die Meeresspiegeländerungen weitgehend synchron zur Arktischen Oszillation (AO, schwarze Kurve), einem bedeutenden Ozeanzyklus in der Region. Abbildung aus Henry et al (2012).

 

Abbildung 3: Arktischer Oszillations-Index (Quelle: Wikipedia).

Gehen wir nun auf die andere Seite der Erde, nach Neuseeland. In Neuseeland und anderen Gebieten der südlichen Hemisphäre gibt es nur wenige Küstenpegelmessungen die bis 1900 zurückreichen. Die beiden neuseeländischen Forscher John Hannah und Robert Bell von der University of Otago bzw. dem National Institute of Water and Atmospheric Research veröffentlichten im Januar 2012 im Journal of Geophysical Research zusätzliche historische Pegelmessreihen aus Neuseeland. In den neuen Kurven lässt sich eine zweigeteilte Entwicklung erkennen, wobei sich die Anstiegsgeschwindigkeit um 1940 leicht erhöhte und seitdem stabil blieb (Abbildung 4). Die neuseeländische Entwicklung ähnelt dabei der globalen Situation, wie sie in der zuvor besprochenen Studie der Wöppelmann-Gruppe erarbeitet wurde. Der in Neuseeland ermittelte Langzeittrend von 1,7 mm Meeresspiegelanstieg pro Jahr entspricht dabei in etwa dem globalen Wert. Auch in Neuseeland ist keinerlei Beschleunigung des Meeresspiegelanstiegs in den letzten 30 Jahren zu erkennen.

Abbildung 4: Meeresspiegelentwicklung an vier neuseeländischen Küstenpegeln. Eine Beschleunigung des Anstiegs ist für die vergangenen 70 Jahre nicht zu erkennen. Abbildung aus Hannah & Bell (2012).

Bemerkenswert an der Studie von Hannah und Bell ist auch, dass die neuseeländische Meeresspiegelentwicklung durch Zyklen im Jahrzehnt-Maßstab geprägt ist. Der Meeresspiegel stieg und sank dabei im Takt der pazifischen Meereszyklen (Southern Oscillation Index, SOI und andere) (Abbildung 5).

Siehe auch Bericht vom NIPCC.

Abbildung 5: Dargestellt sind vier neuseeländische Meeresspiegel-Pegelmessreihen (dünne graue, schwarze und blaue Linien), die mit dem Südlichen Oszillationsindex, einem pazifischen Ozeanzyklus (SOI, fette schwarze Linie), verglichen werden. Es besteht eine gute Übereinstimmung zwischen Meeresspiegel und Meereszyklus. Der Meeresspiegel stieg und sank dabei im Takt der pazifischen Meereszyklen. Abbildungsquelle: Hannah & Bell (2012).

Nicht weit davon entfernt forschte ein internationales Team um Roland Gehrels von der University of Plymouth. Im Januar 2012 veröffentlichte die Gruppe in den Earth and Planetary Science Letters eine neue Studie der Meeresspiegelgeschichte Tasmaniens (einer Insel vor der Küste Südost-Australiens) und Neuseelands. Anhand von Salzmarschablagerungen konnten die Wissenschaftler die Meeresspiegelentwicklung für die vergangen 6000 Jahre rekonstruieren. Besonderes Augenmerk schenkten sie dabei den letzten 200 Jahren. Zur Altersdatierung verwendeten Gehrels und Kollegen Radiokarbonalter sowie andere Isotopenmethoden auf Basis von Cäsium und Blei. Der Meeresspiegel wurde anhand von fossilen Einzellern, sogenannten Foraminiferen bestimmt.

Die Studie zeigte, dass sich der Meeresspiegel während der letzten 6000 Jahre innerhalb eines Bereichs von etwa einem halben Meter bewegte. Zwischen 1900 und 1950 stieg der Meeresspiegel mit einer Rate von 4,2 mm pro Jahr an (Abbildung 6). Während der zweiten Hälfte des 20. Jahrhunderts verlangsamte sich der Meeresspiegelanstieg jedoch hingegen merklich und erreichte im Durchschnitt nur noch 0,7 mm pro Jahr. Ähnliche Resultate ergaben sich für das südliche Neuseeland. Eine Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten ist im australisch-neuseeländischen Studiengebiet nicht zu erkennen. Vielmehr ist das Gegenteil der Fall. Der Meeresspiegelanstieg hat sich sogar gegenüber der ersten Hälfte des 2. Jahrhunderts verlangsamt.

Abbildung 6: Meeresspiegelentwicklung von Tasmanien während der vergangenen 200 Jahre. Zwischen 1900 und 1950 stieg der Meeresspiegel mit einer Rate von 4,2 mm pro Jahr an. Während der zweiten Hälfte des 20. Jahrhunderts verlangsamte sich der Meeresspiegelanstieg hingegen merklich und erreicht im Durchschnitt nur noch 0,7 mm pro Jahr. Abbildungsquelle: Gehrels et al. (2012).

Auch terradaily berichtete über die Tasmanien-Publikation. Jedoch scheint es den Autor des Terradaily-Berichts kaum zu interessieren, dass die Meeresspiegelanstiegsrate in der zweiten Hälfte des 20. Jahrhunderts so dramatisch abgenommen hat, obwohl doch der CO2-Austoß zeitgleich stetig anstieg. Stattdessen wird auf einen angeblichen anthropogenen Einfluss in den 1990er Jahren verwiesen, der jedoch in den Originaldaten kaum erkennbar ist.

Bleiben wir noch kurz im Pazifik und reisen wir nun im Rahmen unserer Urlaubs-Meeresspiegel-Serie weiter auf das Tarawa Atoll, das Teil der Republik Kiribati ist. Das Atoll ist eines dieser Gebiete, von denen immer gesagt wird, dass der Untergang wegen des unerbittlichen Meeresspiegelanstiegs nur noch eine Frage der Zeit sei. Umweltaktivisten-Organisatione wie Greenpeace verwenden die Kiribati-Atolle gerne, um die angeblich dramatischen Folgen des Meeresspiegelanstiegs zu verdeutlichen, unter anderem auf dem Klimagipfel von Kopenhagen vor einigen Jahren. Nun hat sich Simon Donner von der University of British Columbia die

Meeresspiegelentwicklung des kiribatischen Tarawa-Atolls für die vergangenen 20 Jahre einmal näher angeschaut. Die Ergebnisse hat er im April 2012 in der Fachpublikation Eos veröffentlicht. Und nun halten Sie sich bitte fest: Pegelmessungen zeigen, dass der Meeresspiegel um Tarawa in dieser Zeit überhaupt gar nicht angestiegen ist (Abbildung 7).

Die in der Kurve enthaltenen Schwankungen gehen überwiegend auf El Nino-Effekte zurück. So fiel 1998 der Meeresspiegel um satte 45 cm, im Übergang von einem starken El Nino zu einem La Nina. Meeresspiegelanstiege von bis zu 15 cm ereigneten sich in Tarawa im Zusammenhang mit den El Nino-Ereignissen 2002-2003, 2004-2005 und 2009-2010 (Abbildung 7). Donner weist zudem darauf hin, dass auf Tawara Landgewinnungs- und andere Küstenbaumaßnahmen

stattgefunden haben, die an einigen Stellen des Atolls zu verstärkter Erosion und vermehrten Überflutungen geführt haben. Zudem werden an den Stränden und Korallenriffen der Atolle von den Einheimischen traditionell Baumaterialien gewonnen, was ebenfalls das Überflutungsrisiko erhöht. Donner schreibt in seinem Artikel:

„Das Ignorieren von Meeresspiegelbeiträgen aus der natürlichen Variabilität sowie aus direkten menschengemachten Veränderungen an der Küste kann dazu führen, dass bestimmte Überflutungsereignisse und Küstenveränderungen fälschlicherweise dem Meeresspiegelanstieg zugerechnet werden. Tarawa ist das am leichtesten zu erreichende Atoll der Kiribati-Inselgruppe und stellt ein von Journalisten und Aktivisten gern besuchtes Reiseziel dar, um von dort über die Folgen des Meeresspiegelanstiegs für flache Inseln zu berichten. […] Die Medien verwenden dabei Bilder von überfluteten Häusern und über Dämme spülenden Wellen, welche jedoch während seltener, nicht repräsentativer Ereignisse an einem flutgefährdeten Flecken gemacht wurden, teilweise verursacht durch menschliche Baumaßnahmen. Dies Bilder können den falschen Eindruck erwecken, das Tarawa einer dauerhaften Überflutungsgefahr durch einen steigenden Meeresspiegel ausgesetzt wäre. Das Zuordnungsproblem wird durch die politische Situation weiter verschärft. Die Regierung von Kiribati sieht sich der schwierigen Herausforderung gegenüber, internationale Beachtung für lokale Klimaschäden auf sich zu ziehen, um Hilfe bei Anpassung und Schadensminderung zu erhalten. Die Interpretation der Gründe von Küstenveränderungen und Überflutungsereignissen, sowie die Vorhersage von Folgen des Meeresspiegelanstiegs ist schwierig für ein solches Entwicklungsland mit nur begrenzten Ressourcen für wissenschaftliche Untersuchungen.“ 

Siehe auch Artikel von Mark Lynas und Roger Pielke Sr.

Abbildung 7: Meeresspiegelentwicklung des Tarawa-Atolls in der zentralpazifischen Republik Kiribati auf Basis einer Pegelmessreihe. Schwankungen gehen überwiegend auf El Nino-Effekte zurück. Langfristig ist der Meeresspiegel konstant geblieben. Ein Anstieg ist nicht zu erkennen. Abbildungsquelle: Donner (2012).

Kehren wir nun zurück in heimische europäische Gefilde. Im Mai 2012 erschien in den Quaternary Science Reviews eine Studie eines internationalen Forscherteams um Eduardo Leorri von der East Carolina University. Die Gruppe untersuchte die Meeresspiegelgeschichte in der Bucht von Biskaya während der letzten 10.000 Jahre anhand von Bohrungen. Den Meeresspiegel rekonstruierten die Wissenschaftler auf Basis von Fossilinhalt, Sandgehalt und anderen geologischen Merkmalen.

Die Entwicklung lässt sich in zwei Phasen unterteilen. Ein schneller Meeresspiegelanstieg fand von 10.000 bis 7000 Jahre vor heute statt (Abbildung 8). Der Meeresspiegel stieg damals um etwa 22m an, was einem mittleren Anstieg von über 7 mm pro Jahr entspricht. Vor 7000 Jahren verlangsamte sich dann der Anstieg.

Abbildung 8: Meeresspiegelgeschichte der Bucht von Biskaya. Abbildungsquelle: Leorri et al. (2012).

Die Ergebnisse verglichen Eduardo Leorri und seine Kollegen mit Küstenpegelmessungen der vergangenen 200 Jahre aus der Region. Wie nicht anders zu erwarten, stieg der Meeresspiegel während der Kleinen Eiszeit kaum an, fiel zum Teil sogar. Dies betrifft in der Bucht von Biskaya die Zeit zwischen 1800 und 1900 (Abbildung 9). Eiskappen und Gletscher waren in der Kleinen Eiszeit stabil und wuchsen zum Teil sogar an. Erst zu Beginn des 20. Jahrhunderts, als das Eisschmelzen allmählich wieder begann, zog dann auch der Meeresspiegelanstieg wieder an (Abbildung 9). Eine außergewöhnliche Beschleunigung des Anstiegs während der letzten drei Jahrzehnte ist in den Meeresspiegeldaten aus der Bucht von Biskaya nicht zu erkennen.

Abbildung 9: Küstenpegelmessungen aus der Bucht von Biskaya. Wie auch in anderen Studien ist ab ca. 1900 eine Beschleunigung des Anstiegs zu erkennen, welche den Übergangsbereich der Kleinen Eiszeit zur Modernen Wärmeperiode markiert. Abbildungsquelle: Leorri et al. (2012).

Es ist wahrscheinlich, dass sich der Meeresspiegel während der letzten tausenden von Jahren in Wellen entwickelte, die weitgehend parallel zu den Klima- bzw. Temperaturzyklen abliefen. Während der Kälteperioden wie etwa der Kleinen Eiszeit stagnierte bzw. fiel der Meeresspiegel, während der Wärmeperioden wie etwa der Römischen Wärmeperiode, Mittelalterlichen Wärmeperiode und Modernen Wärmeperiode zog die Anstiegsgeschwindigkeit dann wieder an. Eine umfangreiche Darstellung dieser vorindustriellen Meeresspiegelentwicklung liegt von Tony Brown vor, der seine Ergebnisse auf Judith Curry’s Blog veröffentlicht (Blogartikel, ausführliche pdf-Version). Eilige Leser seien auf die Seiten 23-26 des pdf verwiesen, wo Brown interessante Überlegungen zum Meeresspiegel der letzten 2000 Jahre anstellt. Unter Bezugnahme auf eine Arbeit eines Teams um Aslak Grinsted von der University of Lapland von 2010 im Journal Climate Dynamics wird diskutiert, ob der höchste Meeresspiegel der Nacheiszeit möglicherweise zur Zeit der Mittelalterlichen Wärmeperiode herrschte (Abbildung 10). Danach wäre der Meeresspiegel während der Kleinen Eiszeit wieder abgefallen, um dann im Übergang zur Modernen Wärmeperiode wieder anzusteigen. Möglicherweise wurde das mittelalterliche Niveau heute noch gar nicht wieder erreicht. Ein interessanter Gedanke. Auf jeden Fall müssen diese Effekte bei der Zuordnung von natürlichen und anthropogenen Ursachen des aktuellen Meeresspiegelanstiegs berücksichtigt werden, was leider noch viel zu wenig geschieht. Ähnlich zur Hockey Stick Episode zeigt der historisch-geologische Kontext, dass auch die Meeresspiegelentwicklung keineswegs so ereignislos und monoton war wie von einigen Klimadiskutanten angenommen.

Abbildung 10: Modell der Meeresspiegelentwicklung der letzten 2000 Jahre. Die dicke schwarze Kurve ab 1700 entspricht einer geologischen Rekonstruktion von Jevrejeva et al. (2006). Verändert nach Grinsted et al. (2010).

Eine interessante Diskussion der Frage, ob sich der globale Meeresspiegelanstieg im letzten Jahrzehnt gegenüber dem letzten Jahrhundert beschleunigt hat, führte Paul Homewood im Mai 2012 auf WUWT. Dabei ging er insbesondere der Frage nach, warum Pegelmessungen nur einen Anstiegswert von etwa 2,0 mm pro Jahr oder weniger zeigen (z.B. wie in einer Studie von Douglas), während Satellitendaten mit 2,8 mm/Jahr fast einen Millimeter höhere Wert anzeigen. Homewood überprüfte dazu eine Reihe von Küstenpegelmessungen und kam zu folgendem Ergebnis:

„Meine Analyse ergab keinen Hinweis auf eine kürzliche Beschleunigung der langjährigen Meeresspiegelanstiegsrate. Die Anstiegsrate beträgt noch immer 2 mm pro Jahr oder sogar weniger. Zusätzlich zeigt die Auswertung von Daten aus der südlichen Hemisphäre an, dass sich der Anstieg sogar möglicherweise verlangsamt hat. Die untersuchten Datenserien sind zwar in beiden Fällen statistisch klein und besitzen eine ungenügende geographische Abdeckung. Trotzdem besitzen sie eine ähnliche Datendichte wie die Original-Arbeit von Douglas [mit der Homewood seine Ergebnisse vergleicht], einer Arbeit die allgemein als sorgfältige Abschätzung des Meeresspiegelanstiegs im 20. Jahrhundert angesehen wird (z.B. verwendet der IPCC einen Wert von 1,7 mm/Jahr).  

Die Abweichung der Satellitendaten kann aus logischen Gesichtspunkten nur auf einen oder mehrere der folgenden Gründe zurückgehen: 

1)    Die Original-Douglas Studie könnte auf nicht repräsentativen oder fehlerhaften Daten basieren. Falls dies der Fall wäre, würde die in der Douglas-Studie ermittelte Anstiegsrate von 1,85 mm pro Jahr für das 20. Jahrhundert den wahren Wert signifikant unterschätzen.

2)    Die Satellitenmessungen könnten falsch sein.

3)    Der Zeitraum für den Satellitendaten zur Verfügung stehen (20 Jahre) könnte zu kurz sein, um einen verlässlichen Langzeittrend abzubilden, insbesondere weil der Beginn der Datenreihe an einem Tiefpunkt eines Zyklus liegt.

4)    Der Ausschluss von 11 Meßstationen aus der Rekonstruktion [von Homewood] könnte die Rate des Meeresspiegelanstiegs reduziert haben. Allerdings scheint es unwahrscheinlich, dass diese 11 Stationen einen starken Beschleunigungstrend besitzen, während die 12 verbliebenen keinen Trendwechsel anzeigen. Dies konnte zudem für die Südhemisphäre bestätigt werden.“

Unsere kleine Meeresspiegel-Weltreise war wenig ergiebig – oder sogar äußerst ergiebig, je nachdem wie man es sieht. Anzeichen für eine Beschleunigung des Meeresspiegels während der letzten 30 Jahre haben wir in keiner der Studien gefunden. Es sieht nicht gut aus für die Fans der Beschleunigung.

Dr. Sebastian Lüning; zuerst erschienen auf Kalte Sonne  

english version here at notrickszone




Die deutsche Ökostrom-Trunkenheit

Die deutsche Entscheidung, sich von der Stromerzeugung aus Uran zu verabschieden, die Kernkraftwerke stillzulegen und den Strom (möglichst) nur noch mittels Wind, Sonne und „Bio-Gas“ herzustellen, wird Energiewende genannt und dieser Strom als „Öko-Strom“ heiliggesprochen. Dumm nur, dass Wind und Sonne nicht immer wollen, was sie sollen, gerade auch dann, wenn sie mehr Strom liefern, als gerade gebraucht wird. Dann nämlich wird’s prekär im Stromnetz. Oder sie können Strom überhaupt nicht liefern: Dann braucht man die bisherigen, die herkömmlichen Kraftwerke, die den Strom aus Kohle, Erdgas, Erdöl und (noch) aus Uran herstellen. Sie nämlich bleiben selbst dann unentbehrlich, wenn immer noch mehr Wind- und Sonnenstromanlagen aufgestellt werden. Aber weil sie ein Schattendasein führen sollen und im gedrosselten Betrieb immer längere Stand-by-Zeiten haben, drückt das die Kosten auch für ihren Strom unsinnig nach oben.

Kaufzwang für „Ökostrom“, weil der viel teurer ist

Dumm ist auch dies: Viel Wind und viel Sonne treiben in Deutschland den Strompreis hoch. Denn der mit Wind und Sonnenstrahlen erzeugte Strom ist weitaus teurer als der mit Kohle, Uran, Erdgas, Erdöl und Wasser produzierte, er muss aber trotzdem gekauft und sogar mit Vorrang ins Stromnetz geleitet werden, jedenfalls solange aus Windkraftwerken und Fotovoltaik-Anlagen welcher kommt. Ebenso ist es mit Strom aus „Bio-Gas“. In der Herstellung kostet Strom aus Braunkohle und Uran 2,5 Cent/kWh, aus Steinkohle 5 Cent, aus Erdgas 7 Cent. Und  ganz wichtig: Er ist jederzeit verfügbar. Strom aus Wind und Sonne sind das nicht und dann auch noch viel teurer. Strom mit Windkraft zu produzieren, kostet 10 Cent (an Land) und 18 bis 20 Cent (auf See, einschließlich Transport ans Land), Mittels  Fotovoltaik produziert sind es 30 Cent und mittels „Biogas“ 15 Cent. Alle Angaben ohne Mehrwertsteuer.Bis auf den Strom aus „Biogas“ kommen noch die Kosten für die thermischen Schattenkraftwerke (Kohle, Erdöl, Erdgas, Kernkraft) hinzu, die einspringen müssen, wenn Sonne und Wind nicht mitspielen.

Das staatliche Strom-Preisdiktat im EEG – die Profiteure sind begeistert

Dieser Abnahmezwang ist staatlich verfügt, niedergelegt im Gesetz für den Vorrang Erneuerbarer Energien (kurz: EEG), beschlossen einst vom Deutschen Bundestag. Aber das Gesetz diktiert nicht nur die vorrangige Abnahme, sondern auch den Preis für diesen Strom, harmlos klingend Einspeisevergütung genannt, aber für die Verbraucher ein staatliches Preisdiktat. Ebendas macht ihn so teuer, denn das Gesetz legt den Preis so hoch fest, dass die Betreiber nicht nur auf ihre (zu hohen) Kosten kommen, sondern auch einen ansehnlichen Gewinn einstreichen und sich mit ihm eine goldene Nase verdienen. Ebendeshalb reißen sie sich darum, immer neue Anlagen aufzustellen, und ebendeshalb reißen sich die Industrieunternehmen darum, sie zu bauen. So ist es allenthalben  politisch ausdrücklich gewollt, so wird es von den Profiteuren begeistert betrieben. Doch mit jeder neuen Anlage wird der Strom immer noch teurer.

Warum Ökostrom-Anlagen immer häufiger abgeschaltet werden müssen

Außerdem müssen die Anlagen bei zuviel Sonne und zuviel Wind abgeschaltet werden. Das ist dann nötig, wenn der von ihnen erzeugte Strom zu wind- und sonnenreicher Zeit in dieser Menge nicht nachgefragt wird und dann das Stromnetz ohne Abschalten der Anlagen überlastet und zusammenbrechen würde, mit der Folge, dass die Kundschaft plötzlich dasitzt ohne Strom. 2011 hat es solche Abschaltungen, wie in der FAZ zu lesen war, an 45 Tagen gegeben. Und mit jeder neuen Ökostrom-Anlage – das liegt auf der Hand – werden die Abschaltungen zunehmen. Bei Sturm dürfen die Windkraftanlagen ohnehin nicht betrieben werden. Sie liefern dann ebenfalls keinen Strom. Bei zuviel Wind und Sonne helfen auch intelligente Schaltungen (smart grids) nicht weiter. Es bleibt nur, die Anlagen abzuschalten. Denn Strom ist großtechnisch nicht speicherbar (in Pumpspeicher-Kraftwerken nur indirekt und sehr begrenzt), und leitungsgebunden ist er außerdem. Das  Nichtspeichern-Können bedeutet, dass die jeweilige  Stromerzeugung der Kraftwerke stets dem jeweiligen Strombedarf der Verbraucher entsprechen muss, also nicht höher sein darf als diejenige Strommenge, die gerade gebraucht wird; anderenfalls bräche das Stromnetz zusammen.

Neue Stromleitungen verhindern Stromabschaltungen nicht

Gegen Abschaltungen bei zuviel „Ökostrom“ helfen auch keine neuen Stromleitungen, wie sie für unsinnig viel Geld durchs Land gezogen werden sollen. Dass sie helfen, glaubt auch der neugebackene Bundesumweltminister Peter Altmaier. So drängt er darauf, der Solarausbau müsse stärker mit dem Netzausbau in Einklang gebracht werden, sonst drohe gerade bei viel Sonne die Zwangsabschaltung von Solarparks. Doch das funktioniert nicht. Denn wenn Strom durch die neuen Überlandleitungen gedrückt wird, der keine Abnehmer findet, muss dieser Überschuss-Strom trotz der zusätzlichen Leitungen abgeschaltet werden. Wenn es ginge, ihn im Netz zu speichern und ihn dort darauf warten zu lassen, bis der Strombedarf wieder zugenommen hat, wäre das zwar toll, es geht aber dummerweise physikalisch nicht. Altmaier wird das sicher noch lernen. Aber er ist nicht der einzige, der als möglich verbreitet, was physikalisch nicht geht.

Die neuen Leitungen werden meistens unbeschäftigt sein

Außerdem sind die geplanten zusätzlichen Stromleitungen nur für diejenigen Zeiten erforderlich, in denen der Wind im deutschen Norden sehr stark weht. Das aber ist meistens nicht der Fall. Dann hängen die neuen Nord-Süd-Leitungen unbeschäftigt in der Landschaft herum. Wären die Leitungen Maschinen, würden sie wenigstens länger halten. Das jedoch ist bei unbeschäftigten Leitungen leider nicht so, die rosten,  auch wenn kein Strom fließt.  Auf diesen Aspekt hat der Energiewissenschaftler Helmut Alt, Aachen, aufmerksam gemacht.

Durch „Ökostrom“ immer mehr kritische Situationen

Zusätzlich ist die Unbeständigkeit von Sonne und Wind verantwortlich dafür, dass bei zuwenig Sonne und Wind, blitzschnell die herkömmlichen Stromlieferanten aktiviert werden müssen, um Stromausfälle zu wind- und sonnenarmen Zeiten zu verhindern. Auch steht diese Unbeständigkeit in der Regel überhaupt nicht im Einklang mit dem ständig wechselnden Strombedarf, weil dieser im täglichen Verlauf und jahreszeitlich bedingt erheblich schwankt. Daher ist es im deutschen Stromnetz zum Beispiel von Oktober 2011 bis März 2012 fast täglich zu kritischen Situationen gekommen, die ein schnelles Eingreifen nötig gemacht haben – so durch ein Hoch- oder Herunterfahren von herkömmlichen Kraftwerken. Das war einer Mitteilung der vier Betreiber von Stromübertragungsnetzen (Amprion, 50 Hertz, Tennet und Transnet BW) zu entnehmen. Nach dem Abschalten der Kernkraftwerke und mit der wachsenden Einspeisung schwankender „erneuerbarer“ Energien, las man dort, seien die Netze einer extrem hohen Belastung ausgesetzt.

Atomausstiegs-Euphorie, Ökostrom-Trunkenheit  und CO2-Vermeidungswahn

Müssen die Wind- und Sonnenstromanlagen abgeschaltet werden, weil sie bei zuwenig Nachfrage zuviel Strom liefern, erhalten ihre Betreiber trotzdem die festgesetzte Einspeisevergütung. 2011 sind wegen solcher Abschaltungen bereits 140 Millionen Kilowattstunden nicht in das Netz eingespeist worden. Für diesen nicht gelieferten Strom haben die Anlagenbetreiber eine Vergütung von mehr als 14 Millionen Euro bekommen. Selbst diesen nicht gelieferten Strom müssen wir Verbraucher mit der Stromrechnung bezahlen. Also wird mit jeder neuen zusätzlichen Anlage die Stromrechnung auch dadurch höher und die Strompreisspirale auch dadurch weiter nach oben gedreht. Die politisch herrschenden Kräfte rührt das kein bisschen. Bundesregierung, Länderregierungen, Bundestag, Landtage sowie viele Städte und Gemeinden fordern, planen und unterstützen den immer weiteren Ausbau von „Ökostrom“, als seien sie alle benebelt und als kümmerten sie die Folgen ihrer Atomtausstiegs-Euphorie, ihrer Ökostrom-Trunkenheit  und  ihres CO2-Vermeidungswahns überhaupt nicht. Sie sehen ihre Rolle nur als Profiteure der Wendepolitik, wahlpolitisch und finanziell, aber nicht als Wahrer von Bürger-Interessen.

Ließe sich Strom wirklich speichern, verleitete das zur Überschussproduktion von Strom

Apropos Strom speichern: Seit die Menschen, den Strom nutzen, haben es die Stromhersteller verstanden, stets genau jene Menge an Strom bereitzustellen, die gebraucht und abgenommen wird, also den Strom bedarfsgerecht zu produzieren, also ihr Angebot der Nachfrage exakt anzupassen. Was für ein Idealzustand. Folglich besteht, wenn die Versorgung so reibungslos klappt, überhaupt kein Zwang, Strom zu speichern. Bestünde aber die technische Möglichkeit dazu wirklich, dann wäre die Versuchung groß, Strom über den Bedarf hinaus zu produzieren. Die Begründung dafür würde schnell lauten, man brauche den gespeicherten Strom für Notzeiten, man müsse vorsorgen. Dann würden Politiker das natürlich sofort als zusätzliches Betätigungsfeld für sich selbst entdecken und als staatliche Aufgabe an sich reißen. Die Folge wären staatliche Stromkäufe auf Lager. Wohin das führt, haben wir einst bei den horrenden Agrarüberschüssen und den Butter-, Milchpulver- und Weizenbergen in den Staatslagern gesehen, die allenfalls zu Schleuderpreisen verkäuflich waren.  Staatliche Preis- und Abnahmegarantien verleiten stets zur Überschussproduktion und machen die Nutznießer richtig besoffen vor Glück.

„Ökostrom“ bedeutet Aufbau einer Doppelkapazität der Stromerzeugung

Sowie es also für Strom die Speichermöglichkeit gäbe, würde sie dazu missbraucht werden, Strom weit über den Bedarf hinaus zu produzieren. Die Kapazitäten dafür stehen mit dem Windkraft-, Fotovoltaik- und Biogasanlagen schon bereit und sollen noch weit größer werden. Aller Strom aus diesen Anlagen geht über die mögliche Stromproduktion der herkömmlichen Kraftwerke hinaus und übersteigt den Strombedarf, er ist überflüssig, er ist Überschussproduktion, er ist außerdem viel teurer als der „Ökostrom“. Mit diesen Anlagen baut Deutschland  neben der Kapazität herkömmlicher Kraftwerke, die weiterhin unentbehrlich sind, eine überflüssige und unwirtschaftliche Doppelkapazität der Stromerzeugung auf. Kommt aus ihnen Strom, der trotz EEG-Vorrang im Netz keinen Abnehmer findet, müssen die Betreiber, weil sie ihn nicht speichern können, die Produktion erfreulicherweise stoppen und ihre Anlagen abschalten.

Es ist geradezu ein Segen, dass man Strom nicht speichern kann

Strom auf Halde zu produzieren, geht also nicht. Es ist also geradezu ein Segen, dass man Strom nicht speichern kann. Zwar schützt dieses Unvermögen nicht vor Überschusskapazitäten, aber vor Überschussproduktion auf Lager. Die überschüssigen Kapazitäten lassen sich nur dadurch wegbringen oder zunächst wenigstens dadurch begrenzen, dass der Staat alle weiteren Wind-, Sonnenstrom- und Biogasanlagen nicht mehr subventioniert. Das kann gelingen, wenn wir Bürger uns gegen die jetzt noch programmierte Stromverteuerung auflehnen und der politischen Führung mit Demonstrationen Beine machen. Die „Energiewende“ als Abkehr von der Kernkraftnutzung, obwohl töricht, muss deswegen nicht aufgegeben werden. Wenn Kernkraftstrom von einer Mehrheit der Bürger nicht gewollt ist, weil sie – wie berechtigt oder unberechtigt auch immer – Angst vor Radioaktivität hat, dann ist es vernünftig, ihn durch Strom aus Kohle oder anderen Energieträgern zu ersetzen, aber bitte nicht durch Strom aus Wind, Sonne und „Biogas“.

Viele Menschen können den Energiewende-Strom nicht mehr bezahlen

Wegen des „Ökostroms“ werden die Stromrechnungen immer höher. Das ist kein Wunder, denn die „Energiewende“ bedeutet nichts weiter als die Installation eines zusätzlichen zweiten Systems der Stromerzeugung und des Stromtransports, zusätzlich zum bestehenden und voll funktionierenden System. Die Stromkosten in Deutschland sind inzwischen etwa doppelt so hoch wie in den Vereinigten Staaten, Frankreich und vielen anderen Industrieländern. Immer mehr Menschen können ihren Strom nicht mehr bezahlen. Rund 600 000 Haushalten sei wegen offener Rechnungen der Strom schon gesperrt worden, war in Zeitungen zu lesen, Tendenz steigend. Schon erwägen Politiker, zahlungsschwache von der EEG-Zwangsumlage ebenso auszunehmen wie die die stromintensive Industrie. Das würde den übrigen Verbrauchern dann ebenfalls noch aufgeladen.

Mehr als 40 Prozent des Strompreises sind Steuern, Abgaben und Zwangsumlagen

Zusätzlich verteuert der Staat den Strom durch Steuern und Abgaben. Seit 1998 haben sich diese von jährlich 2,3 auf 23,7 Milliarden Euro verzehnfacht (FAZ vom 24. Mai 2012). Die Kosten durch das EEG entstehen durch die Einspeisevergütung, die Entschädigung für nicht eingespeisten Strom, die Vermarktungshilfe, die zusätzlichen Netzkosten, die Stromverluste beim Transport, die Schattenkraftwerke, die Begünstigungen stromintensiver Industriebetriebe, die Beihilfen für  Einkommensschwache, durch verbilligten Export von Überschussstrom und teuren Stromimport. Dazu kommt die Entschädigung für Unternehmen, die bei Stromengpässen Anlagen vorsorglich abschalten sollen. Nach Angaben des Branchenverbandes BDEW zahlt beispielsweise ein Drei-Personen-Haushalt bei einem Jahresverbrauch von 3500 Kilowattstunden für seinen Strom monatlich insgesamt etwa 75 Euro, davon 34 Euro für Steuern und Abgaben und 41 Euro für  Erzeugung und Transport. Nach einer Faustzahl machen Steuern, Abgaben und Zwangsumlagen gut 40 Prozent aus, Stromerzeugung und Netznutzung knapp 60 Prozent. Weil zuviel Sonne und Wind den Strom wegen des EEG immer teurer machen, ist man doch sehr versucht zu wünschen, es möge nur wenig Wind wehen und die Sonne nur so viel scheinen, wie es für das Wohl von Pflanzen und Menschen gerade unerlässlich ist.

„Ökostrom“ ist unzuverlässig und fünfmal teurer als herkömmlicher

Im laufenden Jahr 2012 werden die staatlich verfügten Entgelte für Strom nach dem Erneuerbaren-Energien-Gesetz (EEG-Strom) wohl 20 Milliarden Euro erreichen. Unausweichlich ist das jedenfalls dann, wenn der Bau von Anlagen zur Stromerzeugung aus Wind, Sonne und Biomasse nach dem Plan der Bundesregierung fortgesetzt wird. Dann kämen schon über 20 Prozent des deutschen Stroms aus dieser unbeständigen Energiequelle. Aber mit diesen rund 20 Milliarden Euro könnten die ohnehin weiter notwendigen Dampfkraftwerke sogar den gesamten deutschen Strombedarf wie zuvor allein decken  – und zwar verlässlich. Denn der EEG-Strom ist mehr als fünfmal so teuer als der konventionelle Dampfkraftstrom und obendrein unverlässlich, weil er nicht beständig hinreichend verfügbar ist.

Wir brauchen die Wende der Wende

Wir brauchen in der Energiepolitik die Wende der Wende. „Ökostrom“ muss ohne Staatshilfe auskommen, ohne Subventionspreis und Zwangseinspeisung, auch ohne staatliche Quote, wie sie Rainer Brüderle propagiert hat. Die Profiteure haben sich lange genug an der Preis- und Abnahmegarantie gelabt. Ohne Staatshilfe ist der „Ökostrom“, weil zu teuer, verloren. Dann werden auch die superteuren neuen Stromtrassen und die Doppelkapazität der Stromerzeugung überflüssig. Dafür tritt auch die Nationale Anti-EEG-Bewegung (NAEB) ein. Sie ist eine Stromverbraucher-Schutzorganisation, geführt als eingetragener Verein (e.V.), in dem auch ich Mitglied bin. Sie ist unabhängig von Interessengruppen, ist besetzt mit Fachleuten in Vorstand und Beirat, verfolgt keine eigenen wirtschaftlichen Interessen, ist steuerlich als gemeinnützig anerkannt, finanziert sich ausschließlich durch Spenden. Nähere Informationen über ihre Tätigkeit finden sich hier: www.naeb.info/ und hier www.windstrom-kosten.de/

Und immer daran denken:

                                                                                                                                          – Nachts scheint keine Sonne, bei Regenwetter und bedecktem Himmel fällt sie ebenfalls aus; Wind weht meist zuviel oder zuwenig; Strom lässt sich nicht speichern; der Acker soll Brot fürs Volk liefern, nicht aber "Biogas" für Strom.

 Dr. Klaus-Peter Krause; zuerst erschienen auf Freie Welt Blog




Climate change is pseudoscience

 

Abbildung 1, Pseudowissenschaft im 19. Jahrhundert.

Wer kennt sie nicht, die Schreckens- und Horrorszenarien, die Medien, aber auch (vermeintlich) wissenschaftliche Institutionen nutzen, um sich am Klimarummel gütlich zu halten.

….

Abbildung 2 links zeigt einen Aufmacher von BILD, welche z.B. 2007 ihre Leser schockierte: “Felder, die aussehen wie Mondlandschaften. Flüsse, die sich in ihrem Bett zusammenkauern. Wälder, die verdursten … Wird es ZU WARM? Leben wir bald in Sahara-Deutschland?“ Na, immerhin haben die verantwortlichen Redakteure nicht vergessen, das Fragezeichen zu setzen. Auch der Wetterdienst (wir kennen alle den DWD und seine Aussagen, EIKE berichtete ausführlich darüber🙂 wurde nicht vergessen, als „Division“ aufzustellen. Dieser warnt schon mal vor einem Hitzetod. Fragt sich nur, was beim Wetterdienst zu Grabe getragen wurde.

Jedoch nicht nur Massenmedien, deren wissenschaftliche Tiefe oft genug an der Oberfläche endet, bedienen sich Wüstenszenarien, um darzulegen, was den Erdenbürgern bevorsteht, wenn sie vom rechten CO2-Glauben abfallen, sogar solch ehrwürdige Institutionen, wie National Geographic bedienen sich plakativer Darstellungsformen (Abbildung 2, rechts). Wie die Realität aussieht, zeigt sich, wenn sich der Betrachter auf den Sahara-Kontinent, also Afrika, begibt.

Im letzten IPCC-Bericht AR4 (2007) der medienwirksam verbreitet wurde, ist die folgende Abbildung zu sehen:

Abbildung 3 zeigt die weltweiten Auswirkungen des Klimawandels nach Ansicht des IPCC, wie sie im AR 4, April 2007, für politische Entscheidungsträger dargestellt sind. Für Afrika wird bis 2020 ein 50%-iger Rückgang der Agrarproduktion wegen des Klimawandels, der zur Austrocknung und damit Erntereduzierungen führen soll, angegeben. Afrika trocknet demnach aus und versteppt/verwüstet. Man beachte: Wegen Austrocknung.

Wie sieht nun die Realität aus, da EIKE-Leser wissen, dass bei Teilen des IPCC zuweilen Realitätsverlust vorliegt (siehe ClimateGate, HimalayaGate, AmazonGate, ArtensterbenGate,…).

Am 28. Juni 2012 erschien die folgende Veröffentlichung der LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt (Goethe Universität), die auch in Nature veröffentlicht wurde:

“Machtwechsel in der Savanne – Bäume gewinnen die Oberhand über Gräser“

Dort ist zu entnehmen:

“Weite Teile der afrikanischen Savanne könnten bis 2100 zu Wäldern werden. Dies geht aus einer Studie des Biodiversität und Klima Forschungszentrums und der Goethe Universität Frankfurt hervor, die heute in “Nature” veröffentlicht wurde. Die Ergebnisse deuten darauf hin, dass die Düngung durch den steigenden Kohlendioxid‐ Gehalt in der Atmosphäre in ganz Afrika zu einer dichteren Bewaldung führt, wenn ein bestimmter CO2‐Wert überschritten wird. Da sich diese Schwelle jedoch von Gegend zu Gegend unterscheidet, verläuft der Wandel auf regionaler Ebene nicht synchron. Hierdurch sinkt das Risiko einer Erschütterung des Erdsystems durch einen abrupten Vegetationswandel.“

Donnerwetter, Afrika wird grüner! Mehr Wälder bedeuten auch mehr Wasserspeicher. Afrika wird fruchtbarer. Welch krasser Gegensatz zu den Horrorszenarien des IPCC. Dabei sagen die Frankfurter Forscher nichts anderes, als dass, was die NASA und die Naturforscher unter den Klimaforschern (einige sagen auch Klimarealisten) schon lange wissen, wie die folgenden Abbildungen belegen.

Abbildung 4: Der positive Einfluss der CO2-Erhöhung wird durch die Satellitenauswertung ersichtlich. Sie zeigt die Vegetationsveränderung über die letzten 20 Jahre vor 2003. Grüne Stellen zeigen Vegetationszuwachs, rote dagegen einen Rückgang. Quelle: NASA, erschienen in Science, 06. Juni 2003.

Dass CO2 Dünger für die Vegetation ist, wissen Gärtner ebenfalls schon lange. Nicht umsonst besteht Dünger zu großen Teilen aus gebundenem CO2. So ist es denn nicht verwunderlich, dass in den letzten 20 Jahren weltweit die Wüsten auf dem Rückzug sind und nicht, wie in diversen Schreckensszenarien bewusst falsch angegeben, auf dem Vormarsch. Die Wüste Sahara schrumpfte im Zeitraum der letzten 20 Jahre um 300.000 km2, ein Gebiet, fast so groß wie Deutschland (357.000 km2).

Abbildung 5 zeigt die Zunahme der Vegetation in der Sahelzone im Zeitraum von 1982 – 1999. Dem Zeitraum, in dem auf der Erde die Mitteltemperaturen leicht angestiegen sind, Quelle: Der Spiegel, 17/2009, S. 137. Die Gleichmäßigkeit der Vegetationsausbreitung lässt nur den Schluss zu, dass es sich um einen positiven Klimatrend handelt, so der schwedische Geograph von der Lundt-Universität, Lennart Olsson.

So zeigen seit langem Studien, den positiven Einfluss von CO2 auf die Nahrungsmittelproduktion (Abbildung 6).

Abbildung 6 (Quelle: http://www.oism.org/pproject/s33p36.htm) zeigt eindrucksvoll, dass sowohl eine Erhöhung von 295 ppm auf derzeit 383 ppm, sowie eine weitere Erhöhung des atmosphärischen CO2-Gehalts auf z.B. 600 ppm, für die Pflanzen- und somit für die Tierwelt nicht katastrophal, sondern segensreich ist! Dies bestätigt eine Studie von Prof. Hans-Joachim Weigel (Bundesforschungsinstitut für ländliche Räume).

Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. Quelle: http://www.nhteapartycoalition.org/pdf/LeonAshby.pdf

In der Abbildung 7 links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er heute auf dem Mauna Loa gemessen wird. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was dem Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Eindrucksvoller kann nicht unter Beweis gestellt werden, dass CO2 Pflanzen und damit Mensch und Tier nicht schädigt, sondern, in den gezeigten Bandbreiten, nützlich ist. Demnach ist festzustellen, dass die derzeitige CO2-Konzentration für Pflanzen nicht optimal ist.

Die Bilderserie belegt eindrucksvoll, dass zum einen CO2 kein Schadstoff ist und zusätzliches CO2 in der Atmosphäre für Pflanzen und damit natürlich auch für Menschen von großem Nutzen ist.

Zu der Bilderserie oben aus derselben Quelle, die Darstellung, wie sich prozentual das Wachstum der Pflanzen steigern lässt, wenn sich die CO2-Konzentration der Atmosphäre ändert (Abbildung 8). Deutlich ist zu erkennen, dass die gegenwärtige CO2-Konzentartion in der Atmosphäre für Pflanzen alles andere als optimal ist. Es ist demnach weit gefehlt, in Panik zu verfallen, sowie Schreckensszenarien zu entwerfen, wenn der CO2-Pegel weiter ansteigt. Genau das Gegenteil ist für die Biosphäre zutreffend.

Untersuchungen, die zeigen, dass Afrika grüner und damit fruchtbarer wird, passen jedoch so gar nicht in die Schreckensszenarien des IPCC und dessen Anhänger und Nature ist nun nicht dafür bekannt, dem IPCC kritisch gegenüber zu stehen und so ist es den Autoren um Nature gelungen, die positive Nachricht (Afrika wird grüner) in eine negative zu wandeln. Am Schluss steht denn folgendes:

“Sollten Graslandschaften und offene Savannen durch Baumsavannen oder Wälder ersetzt werden, geht zudem eine einzigartige Flora und Fauna verloren, die in diesem Lebensraum heimisch ist. Der Anstieg des Kohlendioxidgehalts in der Atmosphäre ist daher ein weiterer Stressfaktor…“

Aha, die Artenvielfalt (“einzigartige Flora und Fauna“) geht dann also verloren. Nun, aus unseren Breiten wissen wir, dass offene, unbewirtschaftete Flächen eine hohe Artenvielfalt an Gräsern, Kräutern und damit an Insekten, Vögeln und Kleintieren hervorbringen, als dies gegenüber unseren Waldgebieten der Fall ist. Allerdings bestehen unsere Waldgebiete vorzugsweise aus Nutz- und damit Monokulturwäldern. Urwälder gibt es in Europa kaum noch. In der Studie befinden wir uns aber in Afrika. Sind dort nicht die tropischen Regenwälder, von denen wir wissen, dass sie die höchste Artenvielfalt überhaupt beherbergen?

Abbildung 9 (Quelle: Wikimedia Commons) zeigt die Savannengebiete (braun) der Erde (Wüstengebiete: gelb). In Afrika liegen diese demnach angrenzend zum tropischen Regenwald. Der Wald und damit auch der tropische Regenwald breiten sich also aus und dies soll die Artenvielfalt beeinträchtigen?

Es ist doch immer wieder erstaunlich, wie sich die Klimaforscher um das IPCC ihre Welt immer wieder aufs Neue basteln, so, wie sie ihnen gerade gefällt. Aber wie lässt bekanntlich Astrid Lindgren ihre Heldin ausrufen: “Ich mach mir die Welt, widewidewie sie mir gefällt.” Ganz offensichtlich haben die „Helden“ in der IPCC-nahen Klimaforschung, sich diese Parole allzu sehr zu Herzen genommen – völlig losgelöst von der Erde, wie in einem Schlager der 1980-Jahre zu vernehmen.

Nachfolgend sind einige dieser Kommandanten, die nach den Aussagen des Physik-Nobelpreisträger Ivar Giaever als Pseudowissenschaftler bezeichnet werden dürfen, aufgeführt. Die folgende Reihe hat weder den Anspruch auf Vollständigkeit, noch ist sie mit einer Klimaahnenreihe zu verwechseln.

 

BILD vom 05.11.2011 “Klimaforscher warnt vor Sahara-Sommern“ (Anmerkung des Autors: Wir erleben gerade einen. Der Autor wusste bis jetzt allerdings nicht, dass es in der Sahara so viel regnet.) Auch beachte man die Handbewegung und vergleiche sie mit Abbildung 1 (der dortigen rechten Hand), was natürlich rein zufällig ist.

 

Klimaforscher Hansen, diesmal nicht bei einer seiner Sightseeing-Touren in die Arktis/Antarktis.

http://wattsupwiththat.files.wordpress.com/2011/12/james-hansen-arrested.jpg

http://wonkroom.thinkprogress.org/wp-content/uploads/2010/09/hansen_arrest.png

 

Quelle: (http://de.academic.ru/dic.nsf/dewiki/577954)

Das letzte Bild in der Reihe zeigt einen weiteren, solchen Klima(folge)forscher, dem ganz offensichtlich die Arbeit über den Kopf gewachsen ist, zumindest lässt das Bild diesen Schluss zu. Daher kann es nicht weiter verwundern, wenn von dort solche Statements kommen: „„..dann würde die Erde explodieren“ (http://de.youtube.com/watch?v=kqGVNqiwu7w).  Hier wird Wissenschaft mit Science Fiction verwechselt und Pseudowissenschaft mit Damaturgie unterlegt, die einem Edgar Wallace (Die Bande des Schreckensoder „Neues vom Hexer“) gerecht werden kann.

Damit die vor genannten Forscher wieder den notwendigen Überblick und Bodenhaftung gewinnen, empfiehlt der Autor ihnen einen Besuch auf der EIKE-Webseite, dort können die Klimaforscher nachschauen, wie es in der Welt da draußen wirklich aussieht. Gerne nehmen wir uns bei EIKE auch die Zeit, in einem Seminar, die Herren mit den Abläufen in der Klimathematik vertraut zu machen.

Die angesprochene Pseudowissenschaft wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Computermodelle genannt) und Spielplätze nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur, wie sie sich im rituellen Tzolkin-Kalender widerspiegelt.

Raimund Leistenschneider – EIKE




Tödliche Umweltpropaganda

Am 17. 6. 2012 schrieb Alan Caruba auf seine Webseite einen kritischen Kommentar zu den Folgen von Rahel Carsons Buch „Der Stumme Frühling“ (The Silent Spring).

„Der Stumme Frühling“ wird 50 Jahre alt.

Ein todbringendes Erbe

Von Alan Caruba

Es gibt Bücher, die Millionen den Tod gebracht haben. “Das Kapital” von Karl Marx führte zum schlimmsten Wirtschaftssystem unserer Zeit und kostete Millionen von Russen, Chinesen und Anderen das Leben.
Hitlers „Mein Kampf“ stachelte Deutschland auf, das Buch hat in Europa zum 2. Weltkrieg geführt, und es ist für das vorsätzliche Ermorden von 6 Millionen Juden und weiteren fünf Millionen Christen in den Konzentrationslagern verantwortlich, ganz zu schweigen von den vielen Millionen Kriegstoten. Die Nazi-Führer waren glühende Umweltfanatiker.
In diesem Jahr erleben wir den 50. Geburtstag des Buches „Der stumme Frühling“ (The Silent Spring) von Rachel Carson; eines Buches, das überall als Anfang der Umweltbewegung angesehen wird, in Amerika besonders als der Beginn der Furcht vor Pestiziden, vor allem vor DDT.

Briefmarke zu Ehren von Rachel Carson

Acht Jahre mussten zwischen der Buchveröffentlichung und dem ersten „Earth Day“ 1970 vergehen, bis der Umweltbewegung Regierungsmacht verliehen wurde durch die Schaffung der (amerikanischen) Umweltschutz-Agentur EPA.
Im September kommt ein neues Buch heraus: „Silent Spring at 50: The False Crises of Rachel Carson“ (Hrsg.: Cato Institut, $25,95). Angesichts des „Erdgipfels“ vom 20. Juni 2012 in Rio kommt es gerade richtig. In „Silent Spring“ gibt es Kapitel mit Überschriften wie „Elixire des Todes“, „Sinnlose Zerstörung“ und „Tote Flüsse“. Was fehlt, ist Wissenschaftlichkeit und verlässliche Fakten.

DDT war weitbekannt als Schutz für die menschliche Gesundheit zusammen mit einer breiten Palette von Chemikalien zum Schutz der Ernten gegen Insektenfraß, Nagetiere, Unkraut. Zu Recht ist das Buch wegen der Verursachung von wortwörtlich Millionen von Toten verurteilt worden, seit die amerikanische Umweltbehörde EPA im Jahre 1972 das DDT bannte.
Wiederholt hatten viele Verantwortliche für die Öffentliche Gesundheit vor den desaströsen Folgen eines DDT-Bannes gewarnt, auch die Weltgesundheitsorganisation und die Panamerikanische Gesundheitsorganisation.

Noch heute ignoriert die EPA Beweise oder sie manipuliert sie, um ihre damaligen Gesetze zu rechtfertigen.
Der DDT-Erfinder, Dr. Paul Muller, erhielt 1948 einen Nobel-Preis für die Entdeckung der Wirkung des DDT bei die Rettung des Lebens von Hunderttausenden von Soldaten, die gegen die Achsenmächte im 2. Weltkrieg kämpften, und bei der Rettung von Überlebenden der Nazi-Todeslager. DDT tötete die Insekten, die Typhus und andere Krankheiten verbreiten. Und das alles ohne irgendein Anzeichen der behaupteten Krebsgefahren, die von Frau Carson angeführt wurden.

Neun Autoren sammeln in „Silent Spring at 50“ überzeugende Gründe gegen Frau Carsons obsessive Furcht vor den bis dahin als nützlich angesehenen Chemikalien. Das Buch ist ein Klassiker gegen Lügen-Wissenschaft und gegen Angstmacherei, wie sie zum ständigen Repertoire der Umweltbewegung gehört.
„Carson muss die große Auswirkung des DDT auf die öffentliche Gesundheit gekannt haben und dass es ein Lebensretter war,“ schreiben Donald R. Roberts und Richard Tren, Autoren eines Kapitels.

Sie beschreibt in „Silent Spring“ auch einige (Gesundheits-)Programme. Doch der Großteil des Buches ist eine einzigartige Attacke auf DDT und weitere Insektizide. Sie geht überhaupt nicht auf deren tatsächlichen Nutzen ein.“
Im ersten Kapitel von „Silent Spring“ mit der Überschrift „Eine Erzählung von Morgen“ erfindet Carson eine Stadt, die so von Insektiziden verpestet ist, dass dort keine Vögel mehr zwitschern, weil sie alle vernichtet wurden. Das ist reine Fiktion. Studien haben in der Folge gezeigt, dass das von ihr beschriebene Aussterben nie vorkam. Jahrelange Vogelzählungen widerlegen die Anklage. Der Einsatz von Pestiziden in der Landwirtschaft wurde erstmals vom U.S.-Kongress 1910 gesetzlich geregelt und Generationen von Farmern haben auf naheliegenden Gründen sorgfältig darauf geachtet, dass sie ihre Ernten nicht vergifteten

Der Jahrestag der Veröffentlichung jenes Buches ist noch heute für jedermann bedeutend, auch für diejenigen, die erst nach dem DDT-Bann geboren wurden. Seit zehn Jahren gibt es in Amerika eine Bettwanzenplage von der Ostküste bis zur Westküste. Dazu wäre es nicht gekommen, wenn DDT erlaubt wäre. Die Mainstream-Medien haben über die Plage berichtet, aber nie diese offensichtliche Tatsache erwähnt, auch nicht, dass die EPA nur ein einziges Pestizid in ihrem Register hat, das gegen Bettwanzen wirkt, und sie verbietet normalerweise den Kammerjägern dessen Einsatz.

Auf Carson geht das „Vorsorgeprinzip“ zurück, das von Umweltschützern und Regierungsstellen immer gern im Munde geführt wird, das aber tatsächlich die Öffentlichkeit ihres Schutzes vor den Gesundheitsgefahren beraubt, die uns Mutter Natur beschert mit Insekten und Kleinnagern, von denen man weiß, dass sie Krankheiten verbreiten. Auch haben wir keinen Schutz vor Schimmelgiften wie Aflatoxin, viele Male giftiger als die Schwebstoffe, die als Gegenmittel verboten sind.

Malaria war einmal kurz vor dem Aussterben, doch sie ist nach dem DDT-Verbot wiedergekommen. Inzwischen haben einige der am meisten betroffenen Staaten die Erlaubnis erhalten haben, es wieder einzusetzen.
Das ist Rachel Carsons wahres und tödliches Erbe.
Und deswegen führt anscheinend so Vieles, was die Umweltbewegung vertritt, von der UNO, den Nichtregierungsorganisationen wie Greenpeace, Sierra Club, Friends of the Earth, World Wildlife Fund und Dutzenden anderen, schließlich zum Tod von Menschen im Namen der Rettung der Erde.

Übersetzung: Helmut Jäger, EIKE




Vom Winde verweht-Im Schatten trotz Sonne?

Das Massensterben geht seinen sozialistischen Gang

Die Pleitewelle in der Solarbranche nimmt kein Ende. Der nächste deutsche Anlagenbauer hat einen Insolvenzantrag gestellt: Das schwäbische Unternehmen Centrotherm mit seinen insgesamt knapp 1400 Mitarbeitern.—Die Pleitewelle in der Solarindustrie hat jetzt auch das Berliner Unternehmen Global Solar Energy Deutschland (GSED) erwischt. Am Montag sei am Amtsgericht Charlottenburg Insolvenz angemeldet worden, teilte Insolvenzverwalter Christian Köhler-Ma am Mittwoch mit.

Geschieht ihnen recht: Grüne Subventionshaie verlieren mehr als 20 Milliarden Euro

Nach Berechnungen von Handelsblatt Online haben die großen Solarkonzerne an der Börse mehr als 20 Milliarden Euro verloren. Auf ihrem Höhepunkt waren die großen deutschen Solarkonzerne – Solarworld, SMA Solar, Q-Cells, Conergy, Solon, Solar Millennium, Centrotherm, Phoenix Solar – mehr als 25 Milliarden Euro wert. Heute kommen alle zusammen nur noch auf einen Börsenwert von 1,12 Milliarden Euro. Davon entfallen 863 Millionen Euro auf SMA Solar. Das Unternehmen aus Nordhessen ist das einzige, dessen Aktie nicht total abgestürzt ist. Die anderen haben seit dem Höchststand mehr als 97 Prozent verloren

Alle 3 Beiträge wurden von ACHGUT übernommen. Spürnasen waren Wolfgang Röhl & Benny Peiser

* Update: Soeben 13.7.12 16:24 Uhr erreichte uns folgende Aufforderung zur Richtigstellung.

Sehr geehrter Herr Limburg,

wie eben besprochen möchte ich Sie bitten die Falschmeldung auf ihrer Homepage “EIKE“ unverzüglich zu entfernen.

Bitte entfernen Sie sowohl den Text als auch den Link zu unserer Homepage.

Wir möchten darauf hinweisen, dass wir, die PROKON Unternehmensgruppe mit Hauptsitz in Itzehoe keinerlei geschäftliche Beziehungen zur N.prior energy GmbH halten.
Die Namensähnlichkeit ergibt sich aus der Historie der Firmen: Im Jahr 1995 gründeten Carsten Rodbertus, Ingo de Buhr (heutiger Geschäftsführer der N.prior) und ein dritter Gesellschafter die PROKON Energiesysteme GmbH. Da Herr Rodbertus und Herr de Buhr jedoch unterschiedliche Unternehmensziele verfolgten, schied Herr de Buhr bereits zwei Jahre später aus, um die Firma Prokon Nord GmbH in Leer zu gründen und z.B. den Bereich Windenergie auf See (Offshore) zu verfolgen.

Die Firma Prokon Nord firmierte später in N.prior um.

Es handelt sich um zwei vollständig getrennte Unternehmen.

Mit freundlichen Grüßen aus Itzehoe
PROKON Energiesysteme GmbH

Lorenz Kirchner

(Unternehmenskommunikation)




Anleitung zur Klimapanik!

Grund genug also für besonders besorgte Wissenschaftler, sich systematisch mit potentiellen Erfolgsrezepten der Vermarktung der These vom menschengemachten Klimawandel und dessen Folgen auseinanderzusetzen.  Dabei zeigte sich in einer aktuellen Veröffentlichung (A public health frame arouses hopeful emotions about climate change) in der Zeitschrift Climatic Change, dass man weder mit dem Thema Umweltschutz noch der nationalen Sicherheit bei skeptischen Menschen Punkten kann, ein Erfolgsrezept aber Warnungen vor den gesundheitlichen Folgen des Klimawandels sind. Man wird also in Zukunft damit rechnen können, dass uns die Marketingspezialisten unter den Klimapolitikern mit dem Thema Gesundheit und Klimawandel Angst einjagen wollen.

Steffen Hentrich; Liberales Institut; zuerst erschienen auf Freie Welt Blog

Lesetipp: NoTrickZone – Prepare For Climate Change-Related Public Health Scares – New Paper Exposes The Warmists’ Next Mind Games