1

Klimaskeptizismus – nicht wegen guter Bezahlung, sondern weil die Wissenschaft schlecht ist

Bis zum bitteren Ende

Wissenschaftlern vorzuwerfen käuflich zu sein, nur weil sie Fragen zum Thema Klima stellen, ist an die Stelle der wissenschaftlichen Debatte getreten und wird inzwischen sogar als eine solche angesehen. Anders als die Kritik der GWPF ist dieses Vorgehen absolut keine Wissenschaft. Al Gore erneuerte jüngst seine Forderung nach Bestrafung der Klimaleugner (wie sie abschätzig von den Dogmatikern genannt werden). Dies folgt schamlosen Angriffen im Politiker-Stil auf Wissenschaftler wegen ihrer Ansichten zum Klima. Insbesondere gab es einen aggressiven Angriff, der unsere Ethik, Moral, Kompetenz und sogar geistige Gesundheit in Frage stellt. Er war bemerkenswert gut koordiniert, kam er doch gleichzeitig von einer ganzen Reihe von Fronten: Aktivisten, dem Kongress, Hollywood und sogar einigen Psychologen.

Dieser gesamte Angriff könnte nicht antiwissenschaftlicher sein. Die Protagonisten sind Eindringlinge in die Wissenschaft, die die Natur wissenschaftlicher Wahrheit weder verstehen noch respektieren. Eine der größten Lektionen aus der Historie der Wissenschaft lautet, dass Menschen nicht nur in die Irre gehen, sondern auch stur den stupidesten Gedanken nachhängen bis zum bitteren Ende. Ich spreche mich selbst nicht davon frei; es ist meine Altlast genau wie Ihre.

Eris‘ Jünger

Was die Dogmatiker sehr gut können ist eristische Argumentation; benannt nach der antiken griechischen Göttin Eris, ,zuständig‘ für Zwietracht und Chaos. Eristische Taktiken erreichten uns von den antiken griechischen Sophisten. Eristische Methoden manifestieren sich heutzutage in den Arbeiten von Saul Alinsky. Wie die Zuständigkeiten der Göttin nahelegen, sind sie inhärent Unfrieden stiftend. Ihr Ziel ist Sieg, nicht Wahrheit. Dies ist der Ausbildung und der Persönlichkeit der meisten Wissenschaftler völlig fremd. Ich gehe genau wie andere Wissenschaftler in Diskussionen mit einer kollegialen Haltung, tolerant gegenüber konträren Gedanken, egal wie falsch diese aussehen. Werde ich jedoch mit eristischen Taktiken konfrontiert, welche oftmals absurd, aggressiv und zutiefst irrational sind, bleiben wir konsterniert zurück. Wie jeder andere Mensch auch können Wissenschaftler die Sprache politischen Unsinns sprechen, aber sie sprechen sie schlecht. Ihre berüchtigte politische Naivität macht sie zu einfachen Werkzeugen für jeden politischen Funktionär. Und so verlieren wir gegen eristische Taktiken, selbst wenn wir wissen, dass sie angewendet werden.

Die Jünger von Eris betrachten Opposition als eine Gier nach Macht, während Wissenschaftler Opposition als ein Mittel betrachten, Ansichten zu testen. Für Wissenschaftler ist Opposition ein Charakteristikum, nicht ein Schädling. Behörden können sich stolz selbst davon überzeugen, auf absurde Weise falsch zu liegen, bis einige tapfere Seelen gegen sie aufstehen. Manchmal zahlen sie einen sehr hohen Preis.

Eine leicht einzusehendes Beispiel war der Fall des Arztes Ignaz Semmelweis. Er regte an, dass es den Patienten sehr helfen würde, wenn sich das Personal zwischen der Behandlung zweier Patienten sorgfältig die Hände waschen würde. Es war für die Experten seiner Zeit Konsens, dass er unrecht hatte. Er wurde aus seiner Stellung gemobbt und beendete sein Leben in einem psychiatrischen Krankenhaus. Dieses Phänomen ist nicht eine Ausnahme, sondern die Regel. In zahllosen anderen Fällen, von obskuren, nur für Experten verständlichen technischen Dingen bis hin zu großen Erkenntnissen wie der Kontinentaldrift, dieses Beitrags oder Ähnlichem, trat das Phänomen immer wieder auf.

Das heißt nicht, dass Experten immer oder gar häufig falsch liegen. Es heißt lediglich, dass immer wenn die Menschheit einen Schritt vorwärts macht, dieser Schritt natürlicherweise etwas betrifft, dass stolze Experten zuvor nicht gewusst haben. Über viele Generationen hinweg hat die Wissenschaft diese Lektion allmählich aber stetig übernommen. Die Häretiker und Spinner könnten ja vielleicht recht haben, und deswegen gibt es ein Bewusstsein dafür (wenn auch mitunter widerwillig), dass Toleranz für das vermeintlich Falsche wesentlich ist – die wissenschaftliche Version der freien Rede. Es ist möglicherweise kein Zufall, dass wissenschaftliche Fortschritte dazu tendieren, in Umgebungen mit den größten Freiheiten gemacht zu werden. Wissenschaftler müssen sich untereinander kritische Fragen über ihre Arbeit stellen, um uns alle voranzubringen. Das ist ihr Job. Opposition ist notwendig, aber nur Opposition mit der Maßgabe guten Willens, wo alle darin übereinstimmen, dass die Objektive Wahrheit ist und nicht das Zerschlagen ihrer Feinde.

Der Bereich, den es nie gegeben hat

Klima ist so, wie es uns heute als wissenschaftliches Gebiet bekannt ist, sehr jung. Es wurde zusammen geschustert aus Bruchstücken einer Anzahl etablierter Felder und erst in allerjüngster Zeit in das Rampenlicht der Wissenschaft gehoben. Besonders verwundbar war es gegenüber anti-rationalen Eingriffen, weil es keinen Kern wissenschaftlicher Erkenntnisse gab, wie es beispielsweise in Physik und Chemie der Fall war. Vor der großen Klima-Leidenschaftlichkeit hatte man den Terminus „Klimawissenschaft“ praktisch noch nie gehört. Stattdessen war Klimatologie ein ruhiges, eng gefasstes und beschreibendes Gebiet mit wenig Förderung und nur wenigen, die in diesem Bereich tätig waren. Die heutige Version „Klimawissenschaft“ ist genauso stark getrieben von hinausposaunten öffentlichen Befürchtungen und traditionellen wissenschaftlichen Objektiven. Ich habe sehr oft gehört, dass das, woran wir Wissenschaftler arbeiten sollten, „davon abhängt, was Politiker wollen“.

Die Bereiche und Methoden der Klimawissenschaft sind eine unzusammenhängende Sammlung, der sich zu nähern nur wenige befähigt sind, geschweige denn befähigt, um einen sachkundigen Konsens zu bilden. Ist Klimaforschung das Einsammeln und die Beschreibung von Daten? Ist sie eine statistische Zeitreihen-Analyse? Ist sie Meteorologie ausgeweitet durch Supercomputer? Ist sie molekulare Spektroskopie? Ist sie Ozeanographie, Glaziologie, Geologie, Thermodynamik, Physik, Orbitaleigenschaften, Forschungsbegutachtungen, Wirtschaft, Biologie, dynamische Systemtheorie [?], Solarphysik und/oder noch viel mehr? Es ist einfach zu sagen „von Allem etwas“, aber Spezialisten dieser Unterbereiche fragen sich oft im Privaten, wozu die anderen Spezifikationen überhaupt da sind. Zum Beispiel: „Brauchen wir wirklich komplexe Modelle, wenn die Treibhausgas-Hypothese so einfach ist?“ Oder: „Wir Modellierer können den Paläontologen mehr helfen als sie uns“. Es gibt viele solcher Beispiele.

Die anteilige Vision dieser Sammlung von Bereichen war bislang großenteils nicht akademisch. Dessen Identität ist untrennbar mit der Klima-Leidenschaftlichkeit selbst verbunden, welche wiederum erzeugt und angefacht wurde von Politikern und Medien mittels unablässiger Promotion, riesigen Geldzuflüssen und der Bestrafung nicht konform gehender Wissenschaftler. Es ist unklar, durch was Klimawissenschaft als Ganzes akademisch definiert ist und was Klima selbst überhaupt ist. Nein, wir haben keine kohärente, physikalisch fundierte Definition für Klima, geschweige denn für Klimawandel. Grund hierfür ist nicht, dass wir die Änderung nicht bemerken können, sondern dass wir nicht wissen, welche Bereiche der endlosen, ständig stattfindenden allgegenwärtigen Änderung tatsächlich von Bedeutung sind. Dies ist ein genauso grundlegendes Problem wie die moderne Wissenschaft. Alles, was wir haben, sind Ad-Hoc-Definitionen durch wissenschaftliche Kritik durch ignorante Jünger von Eris. Diese Jünger nennen dies ,settled‘ Wissenschaft.

Hohle Siege

Die Dogmatiker und Jünger von Eris haben die kollegiale Atmosphäre unter den Wissenschaftlern zerschlagen, und sie dringen darauf, Wissenschaftler auf der falschen Seite ihres Dogmas als Staatsfeinde zu behandeln, wovon wir jüngst Zeuge geworden sind. Die Wissenschaft als Ganzes ist von ihnen schwer beschädigt worden. Ihretwegen verbleibt Klimawissenschaft gefroren und zutiefst betrügerisch ohne jede Chance, erwachsen zu werden – trotz der massiven Geldzuflüsse in sie. Geld ist nicht genug. Akademische Freiheit scheint manchmal ein unentgeltlicher Anachronismus zu sein, aber Klimawissenschaft ist genau das, wofür sie gemacht worden ist. Glücklicherweise haben einige akademische Institutionen wie die American Meteorological Society und die University of Delaware eine prinzipientreue Position eingenommen. Aber andere scheinen verwelkt zu sein. Moderne Universitäten und Institutionen sind nicht so unabhängig, wie wir gerne glauben würden. Sie leben von Zuwendungen und regierungsamtlicher Förderung.

Eristische Methoden haben sich als politisch höchst effektiv erwiesen. Aber die politischen Siege jener, die sich ihrer bedienen, sind hohl. Sie können die gegen das Dogma ankämpfenden Wissenschaftler nicht definitiv besiegen, weil jene Wissenschaftler niemals in der Politik mitgemischt haben, egal wie stark die Dogmatiker toben und schreien. Sie können uns leicht aus der politischen und öffentlichen Wahrnehmung hinauskanten, aber die Natur ist der letztendliche Richter. Sie geht weit über ihren Horizont hinaus. Kein eristisch geschulter Hyper-Politiker kann jemals über die Natur triumphieren. Falls es Ihnen jetzt immer noch nicht offensichtlich ist, dass die Dogmatiker deswegen Tomaten auf den Augen haben – Moment, die Natur hat noch mehr auf Lager. Wenn sie sich mit „welche Tomaten auf meinen Augen?“ einmauern, wird die breitere Öffentlichkeit über sie nur noch mehr lachen als ohnehin schon.

Es gibt keine Rechtfertigung dafür, gegenüber Wissenschaftlern wie wütende Dachse aufzutreten. Die Reaktion einiger GWPF-Wissenschaftler auf die Klima-Orthodoxie zeigt, dass die Wissenschaftler nicht einer Bezahlung bedürfen, um Gründe zu haben, die Klima-Orthodoxie in Frage zu stellen. Dessen Position ist wissenschaftlich sehr schwach, nicht stark, und es sind die Dogmatiker, die für diese Schwäche verantwortlich sind. Falls sie die Glaubwürdigkeit der Wissenschaft nutzen wollen, um ihre Agenden zu stützen, müssen sie lernen, Wissenschaftler mit konträren Ansichten in glaubwürdiger Manier zu behandeln. Derartigen Wissenschaftlern kommt eine wichtige und anerkannte Rolle zu beim Voranbringen der Wissenschaft. Dogmatiker ändern sich natürlich nicht einfach so. Darum könnte dieses Patt noch so lange weitergehen, bis intelligente Laien davon die Nase voll haben und sie von der Bühne schubsen. Inzwischen sind wir immer noch da, und wir gehen nirgendwohin.

Breitbart London 25 March 2015

Bemerkung des Übersetzers: Bei Anklicken dieses Links erscheint das Original zusammen mit einigen Kommentaren.

Link: http://www.thegwpf.com/chris-essex-climate-scepticism-not-because-of-payment-but-because-the-science-is-bad/

Übersetzt von Chris Frey EIKE

Noch eine Bemerkung des Übersetzers: Den ganzen Beitrag kann man mit einem Satz von Goethe zusammenfassen: „Niedere Geister haben zu jeder Zeit versucht, den Höhenflug des Genies zu verhindern“.




Chinas Aufstieg

Während Präsident Obama Krieg gegen Kohle und Öl führt, errichtet China Kohlekraftwerke so schnell wie es kann. Der Kohleverbrauch Chinas ist auf dem besten Wege, den Kohleverbrauch des gesamten Restes der Welt zusammen zu überholen.

China und die anderen so genannten BRIC-Staaten sind überglücklich dabei, wirtschaftlich voranzukommen, während sich die entwickelte Welt abwickelt. Nur zu gerne werden sie die Produkte herstellen, deren heimische Herstellung wegen unserer eskalierenden Energiekosten und der ausufernden Vorschriften zu teuer gemacht wird.

Das jüngste Abkommen von Präsident Obama mit China ist absolut einseitig. Die USA haben zugestimmt, Emissionen zu kappen (und die Wirtschaft zu schädigen) während China bis zum Jahr 2030 Zeit hat, um vielleicht, falls ihnen danach ist, ebenfalls Emissionen kappen. 2030 ist das Jahr, in dem die Chinesen in jedem Falle ihren Spitzenwert an Emissionen erreichen werden.

Dieses Abkommen war naiv.

In der Zwischenzeit werden weitere Vorschriften bzgl. der globalen Erwärmung die Preise für die Amerikaner in die Höhe treiben, während jede unbedeutende Auswirkung auf die Emissionen durch die Zunahme derselben in China marginalisiert wird.

Man bedenke die folgende erstaunliche Tatsache, über die Bill Gates einen Beitrag geschrieben hat, der von der Washington Post aufgenommen worden ist:

China hat während der letzten drei Jahre mehr Zement verbraucht als die USA im gesamten 20. Jahrhundert!

Das ist das Tempo, mit dem China expandiert.

Sicher, fünf Prozent menschlicher Treibhausgas-Emissionen stammen aus der Zementproduktion (falls Emissionen unser Ding sind), aber was dieses gewaltige Wachstum uns wirklich sagt, ist Folgendes: Eine Politik bzgl. der globalen Erwärmung, die der Wirtschaft arg zusetzt, mag die Agenden der Linken in der entwickelten Welt voranbringen, wird aber keine wirklichen Auswirkungen auf die globalen Emissionen haben.

Falls Sie jetzt glauben, dass Obamas Deal mit China schlecht war, dann warten Sie mal ab, auf was zu unterschreiben er sich auf der große UN-Klimakonferenz in Paris im Dezember vorbereitet.

Die Notwendigkeit, die Bevölkerung zu informieren, war niemals größer

Link: http://www.cfact.org/2015/03/26/chinas-rise/

Übersetzt von Chris Frey EIKE




Energie 4.0

Kein einziges dieser Argumente zeigt bei der Bundesregierung eine Wirkung. Es gibt kein Innehalten, keine Phase gemeinsamen Nachdenkens, keinen Ausbaustopp für Windkraftanlagen, trotz der über 700 Bürgerinitiativen einiger Politiker und Wissenschaftler, die hervorragende Aufklärungsarbeiten auch in Kommunen oder überregional leisten.

Sind die Politiker verrückt geworden? – “Germany — Insane Or Just Plain Stupid?

Die Regierung folgt einem Leitbild, das sich aus den Ansichten ihrer Berater zusammensetzt. Welchem Leitbild folgt die Bundesregierung? Sie will Deutschland selbstverständlich nicht deindustrialisieren. Das wollen nicht einmal die Grünen. Die Bundesregierung will, wie das BMBF (Bundesministerium für Bildung und Forschung) hervorhebt, “die deutsche Industrie in die Lage … versetzen, für die Zukunft der Produktion gerüstet zu sein.” Das Schlagwort für dieses Leitbild heißt Industrie 4.0.

Industrie 4.0

Industrie 4.0 ist der Name eines Zukunftsprojekts in der Hightech-Strategie der Bundesregierung. Das Ziel der Bundesregierung ist, die Industrieführerschaft Deutschlands zu sichern, und sie macht, aus Furcht, dass andere schneller sind, viel Tempo.

Das Gelingen von Industrie 4.0 hat nach Auffassung der Bundesregierung aber nur dann Erfolg, wenn in der Industrie der Zukunft Produktion und Energiemanagement eine Einheit bilden und sich deutlich von dem unterscheiden, was wir heute kennen. “Statt einer Ansammlung isoliert wirtschaftender Betriebe wird dann ein vernetztes, hocheffizientes und flexibles System mit intelligentem Energiemanagement Waren energie- und rohstoffoptimiert herstellen”, heißt es auf der Homepage “Energieforschung für die Praxis”, herausgegeben vom FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur, gefördert vom BMWF.

Aber es geht der Bundesregierung nicht schnell genug. Viele Unternehmen seien noch weit davon entfernt, den Schritt ins digitale Zeitalter zu vollziehen, die Mentalität in Unternehmen müsse sich ändern, meint Martin Hofer, Vorstand beim Münchener Berater Wassermann: “Der Mensch ist das größte Hindernis auf dem Weg zur Industrie 4.0″, sagt er, oder :”Wir glauben an Industrie 4.0″.

Jeder zweite Entscheidungsträger in der Industrie in Deutschland, Österreich und der Schweiz habe noch nichts von dem Begriff „Industrie 4.0“ gehört, berichtete die FAZ Anfang 2015. Und will es möglicherweise auch nicht wissen. Er riskiert allerdings den Todesstoß durch die auf grün geschwenkte Industrie und Politik. Großkonzerne wie Siemens und BMW haben sich schon längst auf Industrie 4.0 eingestellt. Und ein Lehrstuhl für Produktionssystematik ist bereits seit einigen Jahren an der RWTH Aachen etabliert. Der Lehrstuhlinhaber, Günter Schuh, ist zugleich Direktor des FIR – Forschungsinstitut für Rationalisierung e. V., Mitglied des Direktoriums des Werkzeugmaschinenlabor (WZL) der RWTH Aachen und des Fraunhofer-Institut für Produktionstechnologie (IPT). Schuh gehört zur Geschäftsführung der RWTH Aachen Campus GmbH. Er vertritt das Konzept Industrie 4.0 auf vielen Ebenen.

Der Begriff Industrie 4.0 wurde erstmals zur Hannovermesse 2011 geprägt und steht für eine vierte industrielle Revolution, die auf der Digitalisierung der Industrie beruht. Die Realisierung dieser Fiktion würde unvermeidbar und tief in gesellschaftliche Prozesse eingreifen.

Smart City

Die Pläne der Bundesregierung im Zusammenhang mit Industrie 4.0 zielen nicht nur auf die Industrie, das wäre viel zu kurz gegriffen, sondern auf “alle Energieverbraucher, es schließt Haushalte, Verkehr, Industrie, Gewerbe, Handel und Dienstleistung sowie städtische Liegenschaften ein.”

In einzelnen Quartieren und Stadtgebieten, wie die Welheimer Mark in Bottrop, oder am Beispiel zweier Gewerbegebiete in Bochum wird derzeit experimentiert und demonstriert, wie ein Mischgebiet mit Industrie, Gewerbe und Wohnungen energetisch, ökonomisch und ökologisch optimiert werden, wie Abwärme in Gewerbegebieten mit unterschiedlichen Branchen und Betriebsgrößen über kleinteilige Wärmeverbünde genutzt werden kann und wie ein verlässlicher Wärmeverbund aufzubauen ist, “der dauerhaft wirtschaftlich zu betreiben und auf andere Gebiete übertragbar ist.” Dafür werde die geeignete Software zur Simulation, Analyse sowie Optimierung entwickelt, die auch für andere Städte einsetzbar sein soll, berichtet BINE.

Eine Stadt wurde zum Experimentieren bereits ausgewählt: Für Stuttgart entsteht im Forschungsprojekt „Stadt mit Energieeffizienz“ ein Langfrist-Energiekonzept, das in sogenannte Smart-City-Strategien eingebunden werden kann. Smart-City-Strategien werden diese Projekte genannt, die es nach Vorstellung der Bundesregierung ermöglichen, “mit vernetzten Technologien bei Energie, Wasserwirtschaft, Mobilität, Logistik und Gebäuden große Modernisierungspotenziale zu erschließen” und dabei Haushalte, Verkehr, Industrie, Gewerbe, Handel und Dienstleistung als Einheit bewirtschaftet und optimiert.

Dafür müssen massenhaft gesammelte Daten genau ausgewertet werden, was wiederum die Digitalisierung des gesamten Alltagslebens, vom Wäschewaschen über das Einkaufen bis zur Gesundheitskontrolle beinhalten wird. Es geht um mehr als nur um die Steuerung des privaten Stromverbrauchs durch “intelligente” Smart Grids, sondern um die Kontrolle des privaten Konsums und die totale Kontroll sämtlicher Aktivitäten der Bürger, die bei Kritikern zur Bezeichnung Ökofaschismus geführt hat.

Welche Belohnung verspricht dieses totalitäre System? Gar keine. Es gibt nur ein imaginäres Ziel. Es bezieht sich auf den angeblich geringeren Energieverbrauch, der als gesellschaftlicher Konsens unterstellt wird. “Das Ziel für 2020 ist, 20 % weniger Energie zu verbrauchen als 1990″, heißt es bei BINE. Auf den weltweiten Energieverbrauch wird der geringere Energieverbrauch in Deutschland keinen messbaren Effekt haben. Und dafür sollten die Menschen ihrer Totalüberwachung zustimmen?

Mit der Einbindung der Erneuerbaren Energien in die Digitalisierung der Industrie ist die Idee des Klimaschutzes ad absurdum geführt. Die Industrie 4.0 beinhaltet die Digitalisierung der Industrie, mehr nicht. Sie braucht die digitalisierte Energiewirtschaft, nicht den Klimaschutz.

Energie 4.0 – Die Digitalisierung der Energiewirtschaft

Bis zum 1. März 2015 konnten im Rahmen einer Konsultation Bürger, Unternehmen und Verbände zu einzelnen Kapiteln des Grünbuches “Ein Strommarkt für die Energiewende” des Bundesministeriums für Wirtschaft und Energie (BMWi) Stellungnahmen abgeben. Etwa 700 Verbände und Unternehmen nutzten die Gelegenheit, darunter auch BITKOM, Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V., der Branchenverband der deutschen Informations- und Telekommunikationswirtschaft. Die Digitalisierung der Energiewirtschaft sei unabdingbar, erklärt BITKOM in seiner Stellungnahme, sie müsse zügig vorangetrieben werden.

Es lohnt sich ein Blick in Richtung grünen Denkens: Für den Wandel im Energiebereich spieltJeremy Rifkin, ein US-amerikanischer Soziologe, Ökonom, Publizist, Gründer und Vorsitzender der Foundation on Economic Trends, eine wichtige Rolle. Rifkin, ein grüner Prophet, den dasHandelsblatt als “Rosamunde Pilcher unter den Ökonomen” und als “der Gute-Laune-Bär unter den Top-Beratern von Politikern und wichtigen Vorstandschefs”, die taz als “das grüne Gewissen des Planeten” bezeichnet, zählt zu den Beratern der Bundeskanzlerin Angela Merkel und ist bei großen Konzernen häufiger Gast.

Im Juni 2013 hielt Rifkin eine Rede auf dem Dresdner Zukunftsforum. Er sagte: “Große Energieunternehmen von heute müssen sich in eine neue Rolle einfinden, die IT-Unternehmen schon in den 1990er Jahren gefunden haben: weg von der Produktion und hin zu Management und Networking.” Energieunternehmen sollen keinen Strom mehr produzieren, sondern das Gesamtmanagement der dezentral handelnden Produzenten übernehmen. In einem Interview mit der Zeit sagte Rifkin, dass deutsche Energieriesen einsähen, dass die wirklichen Wachstumsmöglichkeiten in einem “neuen Geschäftsmodell” für die Energiekonzerne liege. Das alte Geschäftsmodell sei viel zu teuer und die  Stromnetze seien ineffizient, der Emissionshandel werde fossile Energien noch unerschwinglicher machen: “Das ist ein Spiel für Verlierer.”

Nun hatte ausgerechnet Deutschland bis zur Energiewende 2011 eines der besten und sichersten Stromversorgungssysteme der Welt und den geringsten Grund, dessen Zuverlässigkeit durch Energie-Experimente aufs Spiel zu setzen. Außerdem war Deutschland bisher eine der stärksten Wirtschaftsnationen. Und dennoch wurde in Deutschland eine Energiewende beschlossen. International ließen sich die Politiker durch Schmeicheleien anfeuern: “Wenn das einer schafft, dann ihr”. Die Politiker sehen sich selbst als Vorreiter, denen das deutsche Volk viel zu zögerlich erscheint. Der Erfolg hängt nach Meinung von Greenpeace ausschließlich vom Willen ab (Greenpeace, “Der Plan“).

Bill Gates lächelte bei seinem Besuch 2011 in Berlin über den Ausstiegsbeschluss aus der Kernenergie. Er deutete ihn als “Zeichen von Wohlstand”. Der Mehrheit der Bevölkerung dürfte das Lächeln jedoch vergangen sein. Es war von Anfang an klar, dass die Umstellung auf die Digitalisierung der Energiewirtschaft nicht für eine Kugel Eis zu haben sein würde, wie Jürgen Trittin (Bündnis 90/Die Grünen) behautpet hatte, es war aber auch klar, dass die Bevölkerung trotz des Atomunglücks in Fukushima nicht gewillt war, aus der Kernkraft auszusteigen, wenn sich dadurch der Strompreis erhöhen würde, wie eine Sonntagsfrage 2012 ergab.

Die Sonntagsfrage

Dem Willen der Bevölkerung, den katastrophalen Folgen des Windwahns für die Natur und allen Warnungen von Fachleuten zum Trotz: Die Energiewende gilt als eine beschlossene Sache und als Teil des Zukunftsprojekts Industrie 4.0, ist somit ein Kernelement der Hightech-Strategie der deutschen Bundesregierung – und offensichtlich nicht verhandelbar. Sie dürfte bis zum bitteren Ende weiter vorangetrieben werden, selbst gegen den Willen eines großen Teils der Industrie, auch angesichts eines drohenden Ruins Deutschlands. Die Bundesregierung glaubt an die vierte industrielle Revolution, hält sie für alternativlos und ist überzeugt ist, dass die deutsche Industrie nur die von ihr gebotene Chance nutzen müsse, die vierte industrielle Revolution aktiv mitzugestalten. Nach der Devise: Wer nicht mitzieht ist wert, dass er zugrunde geht.

Der Klimaschutz

Es geht bei der Energiewende um die Digitalisierung der Energieversorgung im Verbund mit der Digitalisierung der Industrie, Industrie 4.0, “das Internet der Dinge”. Damit zerschlagen sich alle Wunschträume einer nachhaltigen Produktion und eines schonenden Umgangs mit den Ressourcen. Der Traum von weniger Konsum, geringerem Energieverbrauch und Klimaschutz, mit dem Umweltschutzorganisationen und Parteien ihre Mitglieder für das Energiesparen motivieren, wird durch die Hightech-Strategie der deutschen Bundesregierung zunichte gemacht. Es soll nämlich nicht weniger, sondern mehr produziert werden, indem mit Hilfe der Digitalisierung die Produktion beschleunigt und stark individualisiert wird.

Der Informationstechnologie-Dienstleister CSC, mit Sitz in Falls Church, Virginia, zählt zu den weltweit führenden Beratungs- und Dienstleistungsunternehmen im Bereich der Informationstechnologie (IT).  CSC geht davon aus, dass immer kleinere und preiswertere IT-Komponenten dazu führen, dass diese in immer mehr Alltagsgegenstände eingebaut werden. Auf diesem Weg entstünde tatsächlich Schritt für Schritt ein Internet der Dinge: Von per Smartphone fernsteuerbaren Heizungen über intelligente Textilien bis hin zu immer weiter automatisierten Fahrzeugen reicht nach einer Aufzählung von CSC die Palette „smarter“ (intelligenter) Produkte. Sei die elektronische Intelligenz grundsätzlich eingebaut, lasse sie sich durch einen ständigen Strom neuer Funktionalitäten anreichern und individualisieren. “Die Folge ist, dass fast alle Unternehmen in der Art ihres Wirtschaftens und im Produktportfolio erheblich flexibler werden können – und müssen.”

Die zweite Phase der Energiewende – Alle sind ratlos

BITCOM sieht die erste Phase der “Liberalisierung des Strommarktes” als abgeschlossen: Sie habe den “effizienten Kraftwerkseinsatz” anreizen sollen. Das hat funktioniert. Rekordjäger kommen auf ihre Kosten: Die meisten Windkraftindustrieanlagen der Welt, die meisten Biogasanlagen, die höchste installierte Leistung bei Photovoltaikanlagen befinden sich in Deutschland. Aber zum Vorbild für andere Länder hat diese Anstrengung nicht gereicht, denn der Ausstieg aus der Kernenergie kommt für kaum ein anderes Land in Frage, im Gegenteil, weitere Länder haben sich für die Kernenergie entschieden, und China baut den Export von Kernkraftwerken aus.

Wie soll es mit der deutschen, kernkraftfreien Energiewende weiter gehen? BITCOM fragt: “Wieviel berechenbarer können die Erneuerbaren für die anderen Akteure des Energiesystems werden? Wie flexibel können Verbraucher auf die Grenzkostenlose, aber leider volatile Erzeugung aus Wind und Sonne reagieren? Wie können Netze optimal ausgestaltet werden? Welche Rolle können Speicher spielen? Welche fossilen Kraftwerke braucht es noch als Backup und welche nicht mehr?” – und antwortet: “Die politischen Entscheidungsträger sollten deutlich sagen, dass niemand die Antworten auf diese Fragen kennt.” Einen Stopp für die Energiewende, der in dieser Situation offensichtlich notwendig wäre, fordert Bitcom dennoch nicht.

Die Energiewende ist ein Experiment, Deutschland ist ein Labor und die Bevölkerung sind die Laborratten. Das sagt BITCOM natürlich nicht, auch andere nicht, aber jeder weiß es. Für die Entwicklung der Infrastruktur der Netze brauche es zwar einen Masterplan, meint der Verband, damit sich auf ihr der neue Energiemarkt abspielen könne, aber die “Komplexität der Energiewende” mache eine abstrakte Beantwortung der Frage, “welchen Mix aus volatiler Erzeugung, Flexibilität, Speichern und gesicherter Leistung der Strommarkt der Zukunft hervorbringen soll” unmöglich. “Auch die Technologien und Geschäftsmodelle für ein Energiesystem mit 80% Erneuerbaren dürften noch weitgehend unbekannt sein.” Eindeutig sei allein, dass “erhebliche Innovationen bei Technologien und Geschäftsmodellen notwendig sind, wenn Energie auch in Zukunft nachhaltig, sicher und bezahlbar sein soll.” Das bisher praktizierte Nebeneinander der neuen Welt der Erneuerbaren und der alten Welt der fossilen Erzeugung stoße an seine Grenzen. “Zugleich ist noch kein technologisch oder wirtschaftlich schlüssiges neues Gesamtsystem erkennbar.”

Dies ist im Grunde ein vernichtendes Urteil über die Energiepolitik Deutschlands, das sich stets seines technologischen Wissens, seiner Gründlichkeit und seiner wissenschaftlichen Reputation rühmte.

Der Branchenverband BITCOM vertritt das Ziel seiner Mitglieder und sagt, was er als Lobbygruppe sagen muss: “Die Digitalisierung der Energiewirtschaft ist unabdingbar. Sie muss zügig vorangetrieben werden, da sie den Grundstein legt, um auch zukünftig das Zieldreieck aus Versorgungssicherheit, Wirtschaftlichkeit und Umweltverträglichkeit der Energiewirtschaft erfüllen zu können.”

Aber wen vertritt die Bundesregierung?

Marktkonforme Demokratie

BITCOM verfolgt das Ziel Industrie 4.0 und die Digitalisierung der Energiewirtschaft. Ist das auch das Ziel der Bundesregierung? Welche Ziele haben die Parteien, die die Bundesregierung unterstützen? Sie haben gemeinsam und ohne Konzept die Energiewende beschlossen. Aber niemand kennt die Antworten auf wichtige Fragen. Unter diesen Voraussetzungen läuft die Konzeptionslosigkeit der Politik unkontrolliert auf die Anpassung der Gesellschaft und der Demokratie an die Erfordernisse der Industrie hinaus.

Die Maktkonforme Demokratie der Angela Merkel

Ein Stopp der Energiewende und des Versuchs, durch staatliche Eingriffe die Wirtschaft in eine bestimmte Richtung zu lenken, ist nicht in Sicht. Nachdem die Konsultation durch das BMWi beendet ist, soll bis Anfang Juni 2015 ein Weißbuch mit konkreten Maßnahmen vorgelegt werden. Das Weißbuch soll ebenfalls öffentlich konsultiert werden (bis September 2015). Daran soll sich die notwendige Gesetzgebung anschließen. Das BMWi werde parallel dazu Gespräche mit den Nachbarstaaten und der Europäischen Kommission führen, “da gemeinsame Lösungen im Rahmen des europäischen Binnenmarktes Kostenvorteile aufweisen”, sagt das BMWi, das an Kostenvorteile denkt, ohne zu wissen, ob es überhaupt Lösungen für ein “Zieldreieck aus Versorgungssicherheit, Wirtschaftlichkeit und Umweltverträglichkeit der Energiewirtschaft” gibt.

Die Bundesregierung hat keine Lösungen für die aufgetürmten Probleme, im Vergleich zu denen der Berliner Flughafen wie der Bausatz eines Experimentierkastens für Kinder ist. Aber noch weiß sich das politische Establishment über die Zeit zu retten. Barbara Hendricks (wegen ihrer Promotion zum Dr. phil. mit der Arbeit “Die Entwicklung der Margarineindustrie am unteren Niederrhein” von Wikipedia als “Historikerin” bezeichnet), Bundesministerin für Umwelt, Naturschutz, Bau und Reaktorsicherheit, erklärt:

“Das Aktionsprogramm Klimaschutz 2020 muss in konkretes, praktisches Handeln umgesetzt werden. Wir werden nur dann unser Klimaziel erreichen, wenn alle Maßnahmen ambitioniert angegangen werden. Dafür brauchen wir die breite Mitwirkung der Gesellschaft.”

Der Klimawandel kommt als Argument bei fehlender fachlicher Kompetenz zur Beurteilung der Lage stets wirkungsvoll zum Einsatz. Wenn gar nichts klappt, bleibt immer noch der Rückzug auf die Warnung vor dem Klimawandel.

Die Warnung vor dem Klimawandel für das gemeine Volk

Ohne die Doktrin vom anthropogenen Klimawandel wäre der massive Ausbau Erneuerbarer Energien nicht möglich gewesen. Mit Hilfe dieses Glaubensgrundsatzes und der notwendigen propagandistischen Unterstützung, an der sich Nicht-Regierungsorganisationen (NGO), die Kirchen und nahezu sämtliche Medien beteiligen, wurde und wird die notwendige Akzeptanz in der Bevölkerung hergestellt. Gleichzeitig wird die Gesellschaft in Gute und Böse (“Klimaleugner”, “Klimaskeptiker”) geteilt, so dass die Bindung der Befürworter an die Regierung um so enger wird.

Die Klimawandel-Debatte spielte bereits Anfang der 70-er Jahre beim Club of Rome eine Rolle und wurde mit der Gründung des IPCC (Weltklimarat) 1988 zu einer Doktrin weiter entwickelt. Viele ehemalige Unterstützer der Klimawandel-Hypothese, wie James Lovelock, distanzieren sich inzwischen von der Politik, die im Namen des Klimawandels betrieben wird. Äußerungen wie die des früheren US-amerikanischen Vizepräsidenten Al Gore, der kürzlich sogar die Bestrafung von “Klimawandelleugnern” forderte, lösen vielfach Entsetzen aus. Politiker sollten nach Ansicht Al Gores einen Preis dafür bezahlen, dass sie die “anerkannte Wissenschaft” ablehnen.

In Deutschland fand die Doktrin vom Klimawandel einen hervorragenden Nährboden. Dabei kam der Energiewende ein Zufall zu Hilfe: Das Reaktorunglück 2011 in Fukushima. Zusätzlich zur Sorge um das Klima wurde in den Medien die Angst vor der Kernenergie geschürt. In keinem anderen Land der Welt zeigten sich im Zusammenhang mit Kernkraftwerken ähnlich hysterische Symptome wie in Deutschland, die über Jahrzehnte durch die Grünen antrainiert und durch ein undurchdringliches Netzwerk aus Regierungsparteien, Umweltschutzorganisationen, wissenschaftlichen Einrichtungen und Medien gepflegt worden waren. Die Grünen, siegesgewiss, scheuten sich nicht einmal, die Kernenergie als Hindernis für den massiven Ausbau der neu entstehenden ökologischen Industrie zu bezichtigen, der sie zum Durchbruch verhelfen wollten. Sie befürchteten, die riesigen Subventionen, derzeit über 20 Milliarden Euro pro Jahr, nicht für sich und ihre eigenen Industriepartner vereinnahmen zu können und sprachen dies auch relativ offen aus.

Die horrenden Kosten für die Energie-Experimente werden über Steuern und Gebühren auf die Verbraucher umgelegt, während sich einige wenige an Subventionen bereichern. Die Erfinder der globalen Vernetzung, Steuerung und Kontrolle haben indes weit vorausblickend vorgesorgt: Den Protesten der Bevölkerung gegen die wachsenden Strompreise wird durch die permanente Warnung vor einer angeblich großen Gefahr infolge des Klimawandel die Spitze genommen. Der Klimawandel werde schließlich durch Menschen verursacht, heißt es, und damit durch jeden einzelnen. Und nur durch jeden einzelnen sei diese Schuld zu sühnen und der Klimawandel zu stoppen.

Und Du?

Das erzeugte Schuldbewusstsein kann die Bevölkerung für eine Weile in Schach halten, aber nur so lange, wie die Klimalüge, die Instrumentalisierung von Teilergebnissen wissenschaftlicher Forschung, aufrecht erhalten werden und die Regierung sich auf eine “breite Mitwirkung der Gesellschaft” stützen kann.

Sowohl mit ihrem Zukunftsprojekt Industrie 4.0 als auch mit der Energiewende hat sich die Bundesregierung nach Meinung von Fachleuten aus allen Bereichen der Wirtschaft übernommen. Sie ringt um Lösungen.

Das wird von der Energiewende übrig bleiben: Die Digitalisierung aller Lebensbereiche

Es sollte jedem klar sein, dass es bei der Energiewende nicht um den Klimaschutz, sondern um die Digitalisierung der Energieversorgung und die Eingliederung in die Wertschöpfungskette der digitalisierten Industrie geht, Industrie 4.0. Es geht um die totale Vernetzung und um die Digitalisierung des gesamten Alltagslebens, vom Aufstehen bis zum Schlafengehen, vom Wäschewaschen über das Einkaufen bis zur Gesundheitskontrolle. Und dazu gehört, auf den Energiesektor bezogen, auch die Kontrolle und Möglichkeit zur Steuerung des privaten Stromverbrauchs durch “intelligente” Smart Grids, die es unter anderem auch ermöglicht, Privathaushalten je nach Belieben den Strom zu kontingentieren.

Ein Konzept für die Energiewende hat auch BITCOM nicht anzubieten, statt dessen aber seinen Glauben, und zwar den an neue Technologien und Geschäftsmodelle. Der Verband glaubt nämlich, dass durch die “Wahl des richtigen Marktdesigns eine … Innovationsdynamik auch für die Energiewende nutzbar gemacht werden kann.” Einen Haken hat die Total-Digitalisierung: Fallen die Stromsysteme aus, dann fällt die Intelligenz in ein großes schwarzes Loch.

Im Allgemeinen hat man von der Alchemie nur die Vorstellung, dass Blei in Gold verwandelt werden kann, die moderne Alchemie geht darüber hinaus. Sie glaubt, dass sich allein aus Marktdesign und Innovationsdynamik nachhaltige Werte schaffen lassen.

Wer jetzt noch nicht genug in seinem Glauben bestärkt wurde, kann zum Schluss noch einmal die Worte der  Bundesministerin für Umwelt, Naturschutz, Bau und Reaktorsicherheit auf sich wirken lassen.

Das Aktionsprogramm #Klimaschutz 2020 muss in konkretes, praktisches Handeln umgesetzt werden. Wir werden nur dann unser…

Posted by Barbara Hendricks on Mittwoch, 25. März 2015

Quellen und Zeitungsartikel:

·       BMBF: Zukunftsprojekt Industrie 4.0, http://www.bmbf.de/de/9072.php

·       BMWi: http://www.bmwi.de/DE/Themen/Energie/Strommarkt-der-Zukunft/gruenbuch.html

·       BINE: http://www.bine.info/themen/industrie-gewerbe/publikation/energie-sparen-in-gewerbe-und-industrieparks/industrie-40-und-smart-city-sparen-energie/

·       BITCOM: http://www.bmwi.de/BMWi/Redaktion/PDF/Stellungnahmen-Gruenbuch/150301-bitkom,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf

·       http://www.welt.de/wirtschaft/article135151615/Deutschland-droht-die-Zukunft-zu-verschlafen.html

·       http://www.csc.com/de

·       http://www.faz.net/aktuell/wirtschaft/internet-in-der-industrie/industrie-4-0-das-unbekannte-internet-der-dinge-13350442.html

·       http://www.computerwoche.de/a/die-vierte-industrielle-revolution-kommt-in-der-wirklichkeit-an,3096002

·       Forbes: Germany — Insane Or Just Plain Stupid?

Faina Faruz erschienen zuerst bei Ruhrkultour hier




Reductio ad Mannium

Die Ergebnisse von Mann und Rahmstorf basieren nicht auf Proxys für die Geschwindigkeit atlantischer Strömungen, sondern auf einem Netzwerk unter Einschluss kontaminierter Tiljander-Sedimente (verkehrt herum oder nicht), Chronologien von entrindeten Grannenkiefern von Graybill, außerdem MXD-Reihen von Briffa, gestutzt um den Rückgang zu verstecken und Hunderte undefinierbarer Baumring-Datenreihen, die statistisch ununterscheidbar sind von weißem Rauschen. Mit anderen Worten, sie verwenden das gleiche viel kritisierte Proxy-Netzwerk wie Mann et al. 2008/2009. Es ist kaum zu verstehen, warum irgendjemand ernsthaft glauben sollte (geschweige denn so etwas in einer begutachteten Zeitschrift zu veröffentlichen), dass Meeresströme im Atlantik durch solchen Dreck* rekonstruiert werden können. Aber Rahmstorf et al. 2015 stehen als Beweis für das Gegenteil.

[*Das Wort ,Dreck‘ steht so als ,dreck‘ im Original]

Nach so viel Kontroverse über Manns vorherige Verwendung kontaminierter Daten ist es nahezu unvorstellbar gewesen, dass er und Rahmstorf das noch einmal getan haben.

Und wenn der National Research Council im Jahre 2006 gefordert hat, dass Grannenkiefer-Chronologien in Temperaturrekonstruktionen zu „vermeiden“ sind, kann man dort kaum genau hingesehen haben (geschweige denn es durchgewunken haben), dass sie bei der Rekonstruktion atlantischer Strömungen doch wieder verwendet wurden.

In ihrem Bemühen, nichts unversucht zu lassen, hat der Datensatz von Rahmstorf und Mann sogar die Briffa-MXD-Chronologien im Jahre 1960 verstümmelt, womit der Rückgang versteckt wurde [hide the decline]. Siehe hier eine Diskussion der MXD-Verstümmelung in Mann et al. 2008 vom September 2008, also lange bevor wir aus den Klimagate-E-Mails erfahren haben, welchen Trick sie für ,hide the decline‘ angewendet haben.

Im Jahre 2002 war sogar Keith Briffa so frustriert von der Mann et al. 1998-Rekonstruktion, dass er schrieb:

Ich habe die Nase gestrichen voll von Mann, wenn er in Anspruch nimmt, dass seine Rekonstruktion nur deswegen das Gebiet der Tropen repräsentiert, weil er einige wenige tropische Reihen kaum repräsentativer tropischer Temperaturen heranzieht. Er ist genauso fähig, diese Daten gegenüber jeder anderen „Ziel“-Reihe zurückzuentwickeln wie dem zunehmenden Trend der sich selbst verstümmelnden Wortwahl [verbage], die er während der letzten Jahre von sich gegeben hat, und… (ich sage lieber nichts weiter).

Aber zumindest das Netzwerk, über das sich Briffa so beschwert, enthielt „wenige und kaum die Temperatur repräsentierenden“ tropischen Reihen. Rahmstorf et al. 2015 haben sogar noch damit Reklame gemacht, die atlantischen Meeresströmungen mit Proxies zu rekonstruieren anstatt auf direkte Messungen der Strömung im Atlantik zurückzugreifen.*

[Diesen Abschnitt habe ich wegen Verständnisschwierigkeiten recht frei übersetzt. Im Original lautet er: „But at least the network that Briffa complained about contained a “few poorly temperature representative” tropical series.  Rahmstorf et al 2015 dispensed with even that meager precaution by purporting to reconstruct Atlantic ocean currents without using any proxies purporting to directly measure Atlantic ocean current.“]

Was soll man im klimawissenschaftlichen Bereich noch dazu sagen, wenn derartige Praktiken unkontrolliert durchgehen? Vielleicht sollten wir einem Wort von Andrew Weaver folgen und sagen:

Sie lassen diese nach Zufall verteilten Hetzreden über diesen absoluten, unrichtigen Unsinn zur Veröffentlichung zu. Sie sind nicht in der Lage festzulegen, ob das, was sie sagen, korrekt ist oder nicht, oder ob es absoluter Quatsch ist.

Man lese auch bei Arthur Smith hier und Atte Korhola hier über die frühere Verwendung kontaminierter Sedimente. Die seriöse klimawissenschaftliche Gemeinde sollte kollektiv mit Empörung schaudern.

Was auch immer mit der AMOC passieren oder nicht passieren wird, auf eines kann man sicher bauen: kontaminierte Sedimente aus einem See in Finnland, entrindete Grannenkiefern und die Hunderte undefinierbaren Baumringreihen von Mann 2008/2009 enthalten keinerlei nützliche Informationen zur Vergangenheit der AMOC.

Nur eines kann man aufgrund der Behauptung von Mann und Rahmstorf vermuten, dass das Netzwerk von Mann et al. 2008/2009 benutzt werden kann nicht nur zur Rekonstruktion der Temperatur auf der Nordhemisphäre, sondern auch auf der Südhemisphäre und jetzt auch zur AMOC: Unter Verwendung der Mann’schen RegEM mit dem Netzwerk von Mann et al. 2008/2009 mit 1209 „Proxys“ kann man möglicherweise fast alles „rekonstruieren“. Sind Sie daran interessiert, den mittelalterlichen Dow Jones Index zu „rekonstruieren“? Oder das Verhalten der NFL [National Football League in den USA, American Football] während des Mittelalters?

Reduction ad mannium.

Nachtrag: Es ist wenig überraschend, dass Rahmstorf et al. viele interessante versteckte Sprengfallen installiert haben. Als Fragen für die Schularbeiten: 1) Warum endet der jüngste Wert der gyre-Rekonstruktion in Rahmstorfs Abbildung 3 (mittlere Graphik) etwa im Jahre 1995, wenn doch die zugrunde liegende genetzte Rekonstruktion von Mann et al. 2009 bis zum Jahre 2006 geht? 2) Warum werden Rekonstruktionen nur bis zurück zum Jahr 900 gezeigt,, wenn doch die zugrunde liegende genetzte Rekonstrukltion von Mann et al. 2009 im Jahre 500 beginnt?

Link: http://climateaudit.org/2015/03/25/reductio-ad-mannium/

Übersetzt von Chris Frey EIKE




Debakel: Während Deutschland 70 Gigawatt grünen Stromes hinzufügt, steigt des Landes Kapazität fossiler Brennstoffe auf neue Rekordhöhen!

Auf der Website des Fraunhofer-Instituts gibt es eine exzellente Seite, auf der die Strom-Erzeugungskapazität von Deutschland ersichtlich ist.

Schaut man sich die Graphiken genauer an, zeigt sich für Deutschland ein erstaunliches Ergebnis: Trotz der monströsen 70 Gigawatt erneuerbarer Energie, die seit 2002 online gegangen ist, hat Deutschlands Kapazität fossiler Treibstoffe im Jahre 2014 das höchste Niveau jemals erreicht!

Die folgende Graphik zeigt die in Deutschland installierte Kapazität erneuerbarer Energie (Wind, Solar Wasser, Biomasse) seit dem Jahr 2012:

Abbildung 1: Blau = Hydro, grün = Biomasse, grau = Wind, cremefarben = Solar. Quelle.

Aus obiger Darstellung erkennt man, dass die installierte Kapazität erneuerbarer Energie im Jahre 2002 etwas unter 20 Gigawatt lag. Dann kam der Boom der Erneuerbaren, und die Zahlen explodierten auf fast 90 Gigawatt – eine Menge, die groß genug ist, um das ganze Land an einem mittleren Tag mit Energie zu versorgen.

Nun könnte man glauben, dass mit einer derartig hohen Kapazität erneuerbarer Energie (seit 2002 zusätzlich nahe 70 Gigawatt) viel Kapazität fossiler Energie ersetzt worden ist. Aber nein! Faszinierenderweise ist die Kapazität fossiler Treibstoffe kein bisschen zurückgegangen, sondern hat im Gegenteil eine neue Rekordhöhe erreicht!

Die folgende Graphik zeigt die in Deutschland installierte Kapazität fossiler Treibstoffe (Gas, Braun- und Steinkohle).Von diesen Energieträgern hätten wir erwartet, dass sie infolge der Massen grüner Energie massiv zurückgehen würde:

Abbildung 2: Installierte Kapazität fossiler Energie zur Stromerzeugung in Deutschland. Andere Energieerzeugungsarten (leere Farbkreise) wurden ausgeblendet . Quelle

Eindeutig war das aber nicht der Fall. Hier sieht man, dass bereits im Jahre 2010 eine Rekord-Kapazität erreicht wurde mit 76,70 Gigawatt installiert. Aber diese Marke wurde schon im vorigen Jahr übertroffen, waren doch 77,50 Gigawatt fossiler Energie installiert – ein Rekord. Das Paradoxon ist: während immer mehr grüne Energie online geschaltet ist, steigt auch der unerwünschte Verbrauch CO2-emittierender fossiler Treibstoffe!

Natürlich hatte Einiges davon zu tun mit der Reflex-Reaktion der deutschen Politik, durch die im Zuge des Fukushima-Unfalls eine Anzahl Kernkraftwerke stillgelegt worden ist. Dies bedeutete, dass fossile Treibstoffe einspringen mussten (weil grüne Energie viel zu volatil ist, um diese Stromlücke zu füllen). Abbildung 2 macht auch deutlich, dass die Kohle-Kapazität seit dem Jahr 2011 gestiegen ist.

Was bedeutet das alles nun? Grüne Energie hat nicht eine einzige Kapazitäts-Einheit fossiler Treibstoffe in Deutschland ersetzt. Das bedeutet, dass die Verbraucher für die 200 Milliarden Euro, die sie bislang für grüne Energie ausgeben mussten, Null Klimaschutz bekommen haben! So viel Geld – für nichts und wieder nichts!

Schließlich folgt hier eine Graphik mit allen Quellen in Deutschland installierter Kapazität:

Abbildung 3: Die in Deutschland installierte Gesamt-Kapazität ist auf 177,14 Gigawatt empor geschnellt. Aber die Nachfrage für Strom liegt im Mittel nur etwa bei 80 Gigawatt und ist während der letzten 13 Jahre kein bisschen gestiegen. Quelle

Eindeutig zeigt sich, dass die Gesamt-Kapazität rasant steigt, während die Gesamt-Nachfrage nach Strom gleich bleibt. Deutschland verfügt über eine installierte Gesamt-Kapazität von kolossalen 177 Gigawatt. Das ist ökonomisches Narrentum und eines, das demnächst sogar noch geisteskranker zu werden droht, wenn die politischen Führer nicht ganz schnell zur Vernunft kommen.

Je mehr grüne Kapazität Deutschland online bringt, umso mehr fossile Kapazität wird gebraucht für Tage, an denen der Wind nicht weht und die Sonne nicht scheint.

Link: http://notrickszone.com/2015/03/28/debacle-as-germany-adds-70-gigawatts-of-green-electricity-its-fossil-fuel-capacity-reaches-new-record-high/#sthash.dsocfK1J.dpbs

Übersetzt von Chris Frey EIKE




Über aktuelle Stürme, Tornados, Hurrikane & Cie.-kein Zusammenhang mit Klimawandel feststellbar

1) Zum ersten Mal seit 1969 wurde in den USA in einem Monat März bislang kein einziger Tornado beobachtet

Daily Caller, 18 March 2015

Michael Bastasch

Man kann kaum glauben, dass die Tornado-Saison längst begonnen hat.
Die Anzahl von Tornados im März 2015 bisher? Null! Das stimmt, bislang hat es in diesem Monat in den USA keinen Bericht über einen Tornado gegeben. Das ist erst das zweite Mal seit dem Jahr 1950, sagt der Meteorologe beim Weather Channel Greg Forbes.

Der März ist normalerweise hinsichtlich Extremwetter ein ziemlich dicker Monat, aber in diesem Jahr war er bisher unheimlich ruhig ohne von der NOAA ausgegebene Tornado- oder Schwergewitter-Warnungen. Darüber hinaus kann der Nationale Wetterdienst auch nicht erkennen, dass sich daran während der nächsten ein bis zwei Wochen etwas ändern wird.

„Hinsichtlich des Fehlens von Extremwetter befinden wir uns in unbekanntem Gelände“, sagte der NOAA-Meteorologe Greg Carbin in einem Statement. „Seit 1970 ist dies den Aufzeichnungen des Storm Prediction Center noch nicht vorgekommen“.

Seit Anfang dieses Jahres hat die NOAA lediglich vier Vorwarnungen [watches] vor Tornados und keine vor Schwergewitter ausgegeben. Zum Vergleich, normalerweise gibt die NOAA bis Mitte März 52 Tornado-Vorwarnungen aus. Seit dem 1. Januar wurde nur von 20 Tornados berichtet im Vergleich zur mittleren Anzahl während dieses Zeitraumes von 130 Tornados.

„Wir befinden uns in einer beständigen Wetterlage, die Extremwetter nicht zulässt, und die erforderlichen Zutaten – Feuchtigkeit, Instabilität und Hebung – sind bislang nicht auf irgendwie konsistente Weise zusammengetroffen“, sagte Carbin.

Aber die NOAA warnt, dass wir uns nicht zu sehr an eine ruhige Tornado-Saison gewöhnen sollten, weil Stürme im April und Mai weitere Höhepunkte erreichen. Wetterlagen können sich außerdem innerhalb weniger Tage ändern, was bedeutet, dass ein Gewitter oder Tornado auch recht plötzlich auftreten kann.

Full story

Aktualisierung: Inzwischen ist es in den USA, genauer im Bundestaat Oklahoma, zu einem ersten und gleich sehr schweren Ausbruch von Tornados gekommen. Meinem Freund Hans-Dieter Schmidt zufolge ist es aber keineswegs ungewöhnlich, dass die ersten großen Tornados später im Jahr auftreten. Ein Jahrhundert-Ereignis wäre es nur (weil im vorigen Jahrhundert nie vorgekommen), wenn es bis Ende Mai überhaupt keine Tornados geben würde.

Dennoch ändert sich nichts an der Tatsache, dass sich der Rückgang der Anzahl starker Tornados (F3 oder mehr) auch in diesem Jahr fortsetzen dürfte. Mehr dazu gibt es in dem Abschnitt unter der laufenden Nummer 4 in diesem Beitrag.

Der Philosoph in mir sagt, dass man den Teufel nur an die Wand malen muss, dann kommt er auch.

Chris Frey, Übersetzer

2) Kein Zusammenhang zwischen Zyklon Pam und Klimawandel

David Whitehouse
Global Warming Policy Forum
Trotz allem, was die Projektionen in Zukunft erwarten lassen, lautet der Konsens unter Experten hinsichtlich des Zyklons Pam: Es gibt keine eindeutigen Beweise für eine Verbindung zwischen dem Zyklon und dem Klimawandel.


Die Welt ist schockiert durch die Schäden, die der keine Rekorde brechende Zyklon Pam auf Vanuatu angerichtet hat. Der Präsident des Inselstaates Baldwin Lonsdale sagte: „Wir sehen, wie der Meeresspiegel steigt … die Zyklon-Saison, der Regen, all das ist betroffen … Dieses Jahr haben wir mehr davon als in jedem anderen Jahr … ja, der Klimawandel leistet einen Beitrag hierzu“.

Extremwetter ist Gegenstand vieler Klimadebatten. Ist unser Wetter extremer oder wird es in Zukunft schlimmer werden?

In seiner Antwort auf die Frage sagt Carbon Brief Folgendes: „Die Wissenschaft bzgl. Klimawandel und Extremwetter ist nuanciert und manchmal schwer zu navigieren“. Tatsächlich ist es keineswegs derartig komplex, falls man unterscheidet zwischen dem, was man weiß und dem, was vorhergesagt wird, obwohl manche Wissenschaftler selbst damit noch ihre Schwierigkeiten haben.

Interessanterweise kreiert die BBC eine neue Kategorie tropischer Stürme, den Super-Zyklon! In der Sendung Today der BBC wurde Tim Palmer, Professor für Klimadynamik und Vorhersagbarkeit an der Oxford University gefragt, ob es eine Verbindung gebe zwischen dem Zyklon Pam und dem Wandel. Seine Antwort brachte die Gegenwart und die Zukunft in einer eigenartigen Kreislogik durcheinander:

Ich denke, es ist vollkommen konsistent zu sagen, dass diese unglaublich intensiven tropischen Zyklone – nicht nur Pam, sondern auch Haiyan auf den Philippinen im vorigen Winter – genau die Art extremer Zyklone sind, die wie von den Klimamodellen vorhergesagt mit dem Klimawandel, mit der globalen Erwärmung zunehmen. Darum glaube ich, dass es vollkommen konsistent ist zu sagen, dass der Klimawandel eine Rolle gespielt hat“.

Aha, die jüngst aufgetretenen Stürme sind also konsistent mit den für die Zukunft vorhergesagten Stürmen durch die Klimamodelle, denen man menschliche Einflüsse eingegeben hatte, daher muss der Klimawandel eine Rolle bei diesen jüngsten Stürmen gespielt haben!

Sehr interessant sind die Kommentare des Medienzentrums in UK über den Zyklon Pam (hier). Viele davon gehen am Kern der Sache vorbei.

Man beachte all die Inkonsistenzen und das Unbekannte:

● Der Klimawandel kann den Zyklon beeinflusst haben – oder auch nicht, sagt Dr. Kelman.

● Dr. Brierley sagt, Stürme von der Intensität wie Pam sind häufiger geworden, obwohl es insgesamt weniger Stürme gibt.

● Dem widerspricht Dr. Betts, wenn er sagt: „Wir sind nicht sicher, ob sich die Aktivität tropischer Zyklone ändert, und falls das so ist, was der Grund dafür sein könnte“.

● Prof. Allen sagt, dass die letzte Zustandsbeschreibung des IPCC explizit festgestellt hat, dass es keine eindeutigen Beweise für irgendeine durch den Menschen ausgelöste Zunahme der Zyklon-Häufigkeit in den gesamten Tropen gibt.

● Dr. Holloway fügt hinzu, es sei unklar, ob die Risiken eines Sturmes wie Pam in diesem Gebiet sich geändert haben oder sich infolge des Klimawandels ändern.

● Dr. Klingaman sagt, es gebe keine eindeutigen Beweise, dass der Klimawandel Bildung und Intensität von Pam beeinflusst hätte.

Da haben wir es also! Trotz aller Projektionen welcher Art auch immer für die Zukunft – und man erinnere sich, Projektionen sind solange nicht Realität, wie sie nicht durch Beobachtungen bestätigt sind – lautet der Konsens hinsichtlich des Zyklons Pam, dass es keinen eindeutigen Beweis gibt für eine Verbindung zwischen dem Zyklon und dem Klimawandel.

Dies bedeutet, dass kein verantwortungsbewusster Wissenschaftler eine solche Verbindung in den Raum stellen würde, solange sie nicht bewiesen ist. Die Antwort hier darf also nicht lauten ,das ist schwierig zu sagen‘, sondern sie muss lauten: ,es gibt keine Verbindung‘.

3) Die BBC, Tim Palmer und Zyklon Pam

Not A Lot Of People Know That
Paul Homewood
Christopher Booker hat meine Aufmerksamkeit auf das gestrige Programm Today der BBC gelenkt. Darin interviewte John Humphrys den Oxford-Professor Tim Palmer zu dem Zyklon Pam.

Palmer ist Forschungsprofessor der Royal Society in Klimaphysik. Er interessiert sich für die Vorhersagbarkeit und die Dynamik von Wetter und Klima. Er wird oft von der BBC herangezogen, wenn es bei der BBC um den Klimawandel geht.

Booker zufolge sagte er etwa Folgendes:

Es begann mit aktuellen Nachrichten aus Vanuatu und Auszügen aus einem aufgezeichneten Interview mit dem Präsidenten des Landes (das sehr weit verbreitet ausgestrahlt worden ist), worin dieser gesagt hat, dass der Grund für die Katastrophe der Klimawandel sei – steigender Meeresspiegel usw.

John Humphrys fragte dann: „Was denken die Wissenschaftler?“ und interviewte den Oxford-Professor Tim Palmer, Mitglied der Royal Society) „hinsichtlich Modellierungen und Klimawandel“.

Die Schlüsselaussagen hinsichtlich der jüngsten „unglaublich starken“ Zyklone in Vanuatu und Haiyan auf den Philippinen waren, dass „diese Stürme Rekordwinde mit sich bringen und genau die Art extremer Zyklone sind, die wie von den Klimamodellen vorhergesagt mit dem Klimawandel, mit der globalen Erwärmung zunehmen“.

Als Humphrys sagte, dass es doch schon immer Zyklone gegeben habe, erwiderte Palmer, dass diese jüngsten Zyklone „Windgeschwindigkeiten aufwiesen, die niemals zuvor gemessen worden sind“. Als Humphrys zu diesem Punkt nachhakte und ihn aufforderte zu bestätigen, dass sie ziemlich beispiellos seien, wiederholte Palmer, dass „man diese Dinge noch nie erlebt habe“.

Als Humphrys darauf hinwies, dass Computermodelle nicht immer richtig waren, schien Palmer einen Moment ein wenig aus dem Takt. Aber dann sagte er, dass „Modelle Approximationen der Wirklichkeit sind“ und dass sie uns ein klareres Bildliefern würden, wenn wir nur leistungsfähigere Computer hätten.

Palmer hat die Zyklone Pam und Haiyan unehrlich miteinander vermischt, vermutlich um die Stärke von Ersterem zu übertreiben. Es ist also wichtig, dass wir uns beide Zyklone einmal getrennt anschauen:

Zyklon Pam

Beginnen wir mit der Behauptung, dass dieser „unglaublich stark“ war.

Es wurde behauptet, dass der Luftdruck im Zentrum von Pam unter 896 hPa gefallen sei. Das ist sicher sehr niedrig, wenn man den Standard des Pazifik zugrunde legt. Allerdings lag der gemessene Kerndruck des Zyklons Zoe auf den Solomon-Inseln und Vanuatu im Jahre 2002 bei 890 hPa.

Soweit es den Pazifik als Ganzes betrifft, sind Zyklone mit einem Kerndruck unter 900 hPa jedoch ziemlich normal. Allein im Westpazifik gab es seit den fünfziger Jahren des vorigen Jahrhunderts mindestens 37 davon, wobei der Rekordhalter der Taifun Tip im Jahre 1979 war mit einem behaupteten Kerndruck von 870 hPa. Glücklicherweise haben die allermeisten dieser Zyklone niemals irgendwelche Inseln betroffen.

Dann wollen wir uns der Behauptung widmen mit den „Rekorde brechenden Winden und Windböen, die niemals zuvor gemessen worden waren, über 200 mph [über 300 km/h]“

Wie ich vor Kurzem in einem anderen Beitrag gezeigt habe, ist dies Blödsinn. Allein im Südpazifik gab es vier weitere Zyklone, die genauso stark oder noch stärker waren als 1989. Mit anderen Worten, ein derartiges Ereignis tritt etwa alle fünf Jahre auf.

Die höchste vermutete 1-Minute-Windbö bei Pam wurde mit 165 mph registriert [ca. 260 km/h], also deutlich unter der gemessenen Geschwindigkeit von 180 mph [ca. 290 km/h] der Zyklone Orson, Zoe und Monica.

Es gab keine offiziellen Schätzungen der Spitzenböen (normalerweise aufgezeichnet über 3 Sekunden).

Abbildung: Zugbahnen aller Zyklone der Kategorie 5 im Südpazifik (östlich von 135°E) seit Beginn von Satellitenaufzeichnungen im Jahre 1970. Pam ist einer von lediglich 10 Stürmen der Kategorie 5, die in dem Becken während der Satellitenära registriert worden sind. Die stärksten Stürme sind dem Joint Typhoon Warning Center TWC zufolge Zoe (2002/2003) und Monica (2006), der nachgewiesenermaßen mit Windspitzen bis 180 km/h [ca. 290 km/h] einher gegangen war. Bild: Michael Lowry, TWC Quelle

Taifun Haiyan

Obwohl Haiyan, oder Yolanda, wie er auf den Philippinen genannt wird, ein wesentlich stärkerer Sturm war, wie wir bereits wissen, war er nicht außergewöhnlich.

1) Der Luftdruck im Zentrum war mit 895 hPa gemessen worden. Wie bereits erwähnt, kommt es im Mittel einmal in jedem Jahr zu solchen Stürmen im Westpazifik.

2) Der Meteorologischen Agentur der Philippinen PAGASA zufolge lag die Windgeschwindigkeit viel niedriger als ursprünglich behauptet, nämlich etwa bei 145 mph [ca. 230 km/h] über 10 Minuten. Dies würde über eine Minute eine Geschwindigkeit von 170 mph [ca. 270 km/h] ergeben. (Die höchste jemals von PAGASA aufgezeichnete Bö war nur 171 mph).

https://notalotofpeopleknowthat.wordpress.com/2014/11/18/typhoon-yolanda-one-year-on/

Der Taifun Tip brachte es 10-minütig auf 160 mph [ca. 260 km/h] im Jahre 1979 mit einer 1-minütigen Spitze von 190 mph [ca. 300 km/h].

Andere Stürme wie die Taifune Grace, Vera und Sarah sowie der Hurrikan Allen wiesen alle 1-minütige Spitzenwerte von 190 mph auf, aber keiner davon kann mit dem Hurrikan Camille mithalten, der im Jahre 1969 in den US-Bundesstaaten Mississippi und Louisiana gewütet hat mit Windspitzen über 200 km/h [über 320 km/h]. (hier)

Palmer behauptet auch, dass es sich bei Pam „um genau die Art extremer Zyklone handelt, die wie von den Klimamodellen vorhergesagt mit dem Klimawandel, mit der globalen Erwärmung zunehmen“.

Es kommt den Modellen natürlich höchst ungelegen, dass nichts davon bisher passiert ist.

Die global akkumulierte Zyklon-Energie zeigt keinen Trend seit Beginn der Überwachung mit Satelliten in den siebziger Jahren, und die Anzahl starker Hurrikane nimmt nicht zu.

Zyklionenergie akkumuliert nördliche Hemisphäre und global

Frequenz Globale Hurricane Typ A & B und > 90 Knoten

Auch PAGASA findet keinen Trend hinsichtlich der Taifune auf den Philippinen und sagt:

Analysen der Trends des Auftretens tropischer Zyklone innerhalb der so genannten Philippine Area of Responsibility (PAR) zeigen, dass im Mittel 20 Zyklone pro Jahr in diesem Gebiet auftreten. Der Trend zeigt eine hohe Variabilität über die Jahrzehnte, aber es gibt keine Hinweise auf eine Zunahme der Häufigkeit. Allerdings gibt es eine sehr leichte Zunahme tropischer Zyklone mit einer maximalen geschätzten Windgeschwindigkeit über 150 km/h während El Nino-Ereignissen.

Zahl pro Jahr tropischer Zyklone bis 2015

Anzahl pro Jahr extremer Typhhons von 1971 bis 2010

Selbst das IPCC räumt ein, dass es keine Beweise für eine Zunahme extremer Zyklone gibt.

Es scheint, dass das Frisieren von Zahlen und das Aufstellen von Behauptungen mit der Zeit, die durch ein paar einfache Checks widerlegt werden können, zur Norm für Klimawissenschaftler geworden sind. Humphrys scheint zu argwöhnen, belogen zu werden, aber er verfügte über so wenig Hintergrundwissen, dass er nicht in der Lage war. Palmer effektiv die Stirn zu bieten.

Ehrliche Wissenschaftler dürften sich die Haare raufen über die Schäden, die man ihrem guten Namen zugefügt hatte.

4) Der Tornado-Bericht 2014

Not A Lot Of People Know That, 18 March 2015
Paul Homewood
Das Storm Prediction Center der NOAA hat jetzt seine Zählung der Tornados im Jahre 2014 abgeschlossen und kommt insgesamt auf 888, von denen 476 der schwächsten Kategorie F0 angehörten. Änderungen der Beobachtungspraxis während der letzten Jahre bedeuten, dass viel mehr von diesen schwächsten Tornados berichtet wird, wie die NOAA bestätigt:

Heute sind alle Gebiete der USA relativ dicht besiedelt oder zumindest durch Doppler-Radars der NOAA abgedeckt. Selbst wenn ein Tornado nicht tatsächlich beobachtet wird, können moderne Schadens-Abschätzungen durch das Personal des National Weather Service erkennen, ob ein Tornado die betreffenden Schäden verursacht hat, und falls ja, wie stark dieser Tornado wohl war. Diese Ungleichheit zwischen Tornadoberichten in der Vergangenheit und heutzutage enthält sehr viel Unsicherheiten in Bezug auf Fragen des langfristigen Verhaltens oder der Verteilung des Auftretens von Tornados. Verbesserte Praktiken zur Tornado-Beobachtung haben zu einer Zunahme der Anzahl von Berichten über schwächere Tornados geführt, und während der letzten Jahre rückten F0-Tornados immer mehr in den Vordergrund der Gesamtzahl beobachteter Tornados (hier). Außerdem können auch heute noch viele kleinere Tornados in Gebieten mit geringer Bevölkerungsdichte und/oder unzureichenden Kommunikationswegen auftreten, die nicht entdeckt werden.

Mit der zunehmenden Abdeckung durch Doppler-Radars, zunehmender Bevölkerung und größerer Aufmerksamkeit für Tornadoberichte gab es eine Zunahme der Anzahl von Tornadoberichten während der letzten Jahrzehnte. Dies kann fälschlich zur Annahme eines zunehmenden Trends der Tornadohäufigkeit führen. Zum besseren Verständnis der Variabilität und der Trends der Tornadohäufigkeit in den USA kann die Gesamtzahl der F1-Tornados oder stärker ebenso wie sehr starke Tornados der Kategorien F3 bis F5 analysiert werden. Von diesen Tornados gäbe es wahrscheinlich Berichte selbst während der Jahrzehnte, bevor sich Doppler-Radars allgemein durchsetzten. Die Balkengraphik unten zeigt, dass es während der letzten 55 Jahre kaum einen Trend der Häufigkeit der stärkeren Tornados gegeben hat (hier).

(Wie zuvor schon erwähnt, fährt die NOAA dann fort, auf ihrer obskuren „historische Aufzeichnungen“-Seite bis zum Jahr 2012 alle Tornados ohne die F0-Tornados zu zeigen, während auf der Titelseite des jährlichen Berichtes für das Jahr 2014 die sorgfältig frisierte Graphik unter Einschluss der F0-Tornados abgebildet ist.)

Gesamtzahl Tornados pro Jahr von 1950 bis 2014

Lässt man die F0-Tornados außen vor, betrug die Anzahl der Tornados im vorigen Jahr 412. Damit rangiert jenes Jahr an 12-niedrigster Stelle seit 1970. (Obwohl Tornadozählungen bis in das Jahr 1950 zurückreichen, gehen viele Tornado-Experten wie McCarthy & Schaeffer davon aus, dass die Daten vor 1970 unzuverlässig sind).

Jährlicher Zahl US Tornados der Stärke EF 1 oder höher

Der Abwärtstrend scheint großenteils der höheren Zahlen in den siebziger Jahren geschuldet zu sein. Es gab 27 stärkere Tornados von F3 oder mehr im vorigen Jahr. Das liegt deutlich unter dem vieljährigen Mittel von 43. Seit 1970 gab es 14 Jahre mit weniger als 30 dieser stärkeren Tornados, darunter die letzten drei Jahre.

Es gab im vorigen Jahr keinen Tornado der stärksten Kategorie F5, und sowohl die Anzahl von F3- als auch F4-Tornados lag unter dem Mittelwert.


Full post

5) Vanuatu bietet Lektionen bzgl. Anpassung und Überleben bei Zyklonen

Reuters
Stephen Coates
Die Bewohner von Vanuatu vergruben Nahrungsmittel und Frischwasser unter der Erde, als einer der stärksten Stürme jemals auf sie zuzog. Sie flüchteten in Kirchen, Schulen und sogar in Kokosnuss-Röstöfen, als Winde mit 300 km/h und gigantische Wellen ihre Häuser zerrissen.

Trotz Berichten über große Zerstörungen sechs Tage, nachdem Zyklon Pam die verarmte südpazifische Inselnation heimsuchte, scheint Vanuatu so etwas wie eine Lektion zu erteilen, wie man einen Sturm der Kategorie 5 überlebt.

Die UN sagen, dass offiziell 11 Todesopfer zu beklagen seien, und Premierminister Joe Natuman sagte Reuters, dass diese Zahl nicht mehr wesentlich steigen werde. „Das Wichtige ist, dass die Menschen überlebt haben“, sagte er in einem Interview außerhalb seines Büros und schaute dabei auf seine stark zerstörte Hauptstadt Port Vila. „Falls die Menschen überlebt haben, können wir alles wieder aufbauen“.

Funktionäre hatten befürchtet, dass die Anzahl der Todesopfer noch steigen würde, wenn man nur erst einmal Nachrichten von den abseits gelegenen Inseln des Archipels hätte. Die geringe Zahl begeisterte Hilfskräfte und jene, die den Sturm überlebt hatten. „Es ist absolut unglaublich, dass es nur so wenige Todesopfer waren“, sagte Richard Barnes, 43, ein Eigentums-Taxator aus Neuseeland, der seit sieben Jahren bei Port Vila lebt.

Zwei Tage zuvor zeigte ein Flug mit dem Hubschrauber über den Norden der Insel Efate Szenerien totaler Zerstörung mit mindestens einer zerstörten küstennahen Ortschaft und ohne jedes Anzeichen von Leben. Einen Tag später sah man jedoch Dutzende Bewohner, die mit dem noch auffindbaren Material den Wiederaufbau begonnen hatten. Sie berichteten von nur einem Verletzten, sagte Barnes, der sich bei Durchzug des Hurrikans Ivan auf den Cayman-Inseln 2004 aufgehalten hatte. „Jeder fängt einfach mit dem Aufbau an, und das war in Cayman ganz anders. Dort saßen alle nur herum und warteten darauf, dass sich etwas tat“, sagte Barnes.

Sebastian Rhodes Stampa, Katastrophen-Koordinator des Büros für Menschenrechte bei den UN sagte, er war beeindruckt von der Fähigkeit des Landes, mit dem Sturm umzugehen. „An nur wenigen Stellen, an denen ich gearbeitet habe, habe ich eine so widerstandsfähige Bevölkerung angetroffen“, sagte Rhodes Stampa Reuters in Port Vila. Zuvor hatte er schon viele Katastrophen-Schauplätze besucht, darunter die Philippinen nach den Zyklon Haiyan.

Vergrabene Lebensmittel

Vanuatu, eines der ärmsten Länder der Welt, erstreckt sich über mehr als 80 Inseln und hat 260.000 Einwohner. Es liegt rund 2000 km nordöstlich der australischen Großstadt Brisbane. Die geographische Position auf dem geologisch aktiven „Feuerring“ gibt es häufig Erdbeben und Tsunamis. Außerdem gibt es dort mehrere aktive Vulkane zusätzlich zu der Bedrohung durch Stürme und steigenden Meeresspiegel.

Ben Hemingway, ein regionaler Berater für USAid sagte, dass Hilfsorganisationen wie die Seine mit der Regierung von Vanuatu seit Jahren bei der Katastrophen-Bewältigung zusammengearbeitet haben. „Es ist eine Bestätigung der Aufwendungen, die die internationale Gemeinschaft investiert hat. Schaut man auf die Tage vor dem Sturm, gab es genügend Warnungen vor der Stärke des Sturms und was man zum Schutz tun könne. Die Menschen haben diese Warnungen und Hinweise strikt beachtet“.

Viele Ortschaften wurden etwas zurückgesetzt von der Küste errichtet, um Sturmfluten und Tsunamis zu vermeiden, und die meisten Ortschaften verfügen über mindestens ein solides Gebäude, in das man sich zurückziehen kann. Selbst die sich ausbreitenden Wurzeln von Bengalischen Feigenbäumen, die Jahrhunderte mit Stürmen überdauert haben, werden ebenfalls manchmal als Schutz aufgesucht, falls die Häuser zerstört werden.

„Hurrikane oder Zyklone sind nichts Neues. Seit Beginn der Besiedlung dieser Inseln vor vielleicht 5000 Jahren kommt es in jedem Jahr zu Stürmen dieser Art“, sagte Naumann. „Außerdem glaube ich, dass wir inzwischen hinsichtlich unseres Katastrophen-Managements besser organisiert sind“.

Full story

Alles übersetzt von Chris Frey EIKE

HINWEIS DER REDAKTION: Alle Links müssten jetzt funktionieren!

Wir bedauern die Probleme.

31. März 2015




Entwarnung: 20-jährige Studie zeigt Golfstrom ist stabil

Dabei ist dies genau das, was an der University of Rhode Island und der Stony Brook University während der letzten 20 Jahre durchgeführt worden ist: Messungen der Stärke des Golfstromes. Und einem in den Geophysical Research Letters veröffentlichten Artikel zufolge können die Forscher keinerlei Beweise dafür erkennen, dass sich der Golfstrom verlangsamt. Diese neuen Ergebnisse bestätigen frühere Erkenntnisse über die Stabilität des Golfstromes, die auf Beobachtungen basieren, die bis zu den dreißiger Jahren zurückreichen.

H. Thomas Rossby, ein Professor an der URI Graduate School of Oceanography, hat während seiner Laufbahn viel Zeit mit Studien der Meeresströme zugebracht – vor allem des Golfstromes – und wie dieser seinen Weg über den Atlantik nach Europa und bis zum nördlichen Norwegen findet. Während der letzten 20 Jahre haben er und seine Kollegen den Golfstrom vermessen mittels eines akustischen Doppler-Strömungsprofilers (ADCP) auf einem Schiff, nämlich dem Frachter Oleander, der wöchentlich auf dem Weg von New Jersey nach Bermuda den Golfstrom durchfährt. Das Instrument, welches die Geschwindigkeit des unter dem Schiff fließenden Wassers bis zu einer Tiefe von 600 m misst, hat mittlerweile 1000 Messungen bzgl. des Golfstromes gesammelt seit dessen Installation Ende 1992.

„Die ADCP-Messungen erfolgen mit sehr großer Genauigkeit, und dadurch haben wir Jahr für Jahr durch stetig wiederholte Messungen ein sehr aussagekräftiges Instrument erhalten, die Stärke der Strömung zu überwachen“, sagte Rossby. „Es gibt zeitliche Variationen, die natürlichen Ursprungs sind – und ja, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise dafür, die zeigen, dass sich der Golfstrom verlangsamt“ (hier).

Link: http://www.achgut.com/dadgdx/index.php/dadgd/article/entwarnung_20_jaehrige_studie_zeigt_golfstrom_ist_stabil

Einen Artikel mit weiteren Informationen hierzu gibt es bei Science Skeptical: http://www.science-skeptical.de/klimawandel/und-taeglich-gruesst-das-murmeltier-stefan-rahmstorf-und-der-versiegende-golfstrom/0013666/

Übersetzt von Chris Frey EIKE




Wirtschafts- und Umweltministerium machen gegen CO2 mobil- ca. 100.000 Arbeitsplätze sollen fürs Klima geopfert werden.

Während bisher vor allem das Erneuerbare Energien Gesetz (EEG) dafür sorgte, dass die Strompreise und Energie-Einsparverordnung (EnEV) dafür sorgten, dass die Mieten in den Himmels schossen, geht es jetzt mit den neuesten Gesetzentwürfen und Vorschlägen des Wirtschafts (1)- und Umwelt-Ministeriums (2) vielen weiteren Jobs an den Kragen. 

"Saurierindustrien" hat sie der ehemalige Bundesumweltminister bei der Einführung des „Energiekonzeptes“ genannt, auf die man keine Rücksicht nehmen müsse. Das wird nun Schritt für Schritt in die Tat umgesetzt.

Auf ACHGUT finden wir eine Bewertung der Konsequenzen dieses Vorhabens für die rheinische Braunkohleverstromung, die Märkische Allgemeine berichtet über den Protestmarsch von 4000 des Lausitzer Kohlereviers. Erst jetzt merken die Gewerkschaftler der Energiewende-treuen  Bergbau Gewerkschaft (IGBCE) und einige Landespolitiker, dass ihre Klientel davon betroffen ist und machen gegen diesen Kahlschlag des wichtigsten Brandenburger/Sächsischen  Industriezweiges auf ihre Weise mobil. Der Beitrag von Tim Tressel analysiert die Folgen für NRW  

Gabriels Klimabeitrag macht NRW den Garaus. Ist das noch Sozialdemokratie?

Von Tim Tressel

Der Vorschlag des Bundeswirtschaftsministers könnte 100.000 Arbeitsplätze im rheinischen Braunkohlerevier bedrohen. Die Stromkonzerne sollen zusätzlich zum Emissionshandel mit einem nationalen Klimabeitrag in dreistelliger Millionenhöhe belastet werden, was den Industriestandort NRW und die Existenzgrundlage vieler Bürger in beispiellosem Ausmaß gefährdet.

Die Energiewende

Deutschland hat bekanntermaßen ambitionierte Klimaziele. Der Kohlendioxidausstoß in der Bundesrepublik soll bis 2020 um 40 Prozent gegenüber dem Jahr 1990 sinken. Die Tatsache, dass Deutschland im Zuge einer Panikreaktion nach Fukushima, beschlossen hat, vollständig aus der Kernkraft auszusteigen, hat das Erreichen dieser Ziele erheblich erschwert.

Der Strom, den die abgeschalteten Atomkraftwerke produziert haben, muss nun irgendwie ersetzt werden. Aber selbst die optimistischsten Vertreter der erneuerbaren Energien müssen zugeben, dass diese neuen Technologien noch nicht soweit sind, die abgeschalteten Kraftwerke jetzt oder in näherer Zukunft zu ersetzen. Das hat dazu geführt, dass wieder mehr fossile Energie produziert wurde, wie beispielsweise Braunkohlestrom, der oft von sehr alten Kraftwerken produziert wird und natürlich sehr viel CO2 ausstößt, was wiederum dem Klimaziel schadet. Objektiv gesehen hat das irrationale Abschalten der Atomkraftwerke zu mehr CO2-Ausstoß geführt.

Der Strompreis

Anscheinend findet der Bundeswirtschaftsminister, dass der durchschnittliche Verbraucher durch die Energiewende und vor allem das Erneuerbare-Energien-Gesetz bei der Stromrechnung aktuell noch nicht genug zur Kasse gebeten wird, denn sonst würde er ja nicht so hart daran arbeiten, den Strompreis noch weiter in die Höhe zu treiben. Der SPD-Politiker spricht jedoch lediglich von einer Erhöhung um 0,2 Cent pro Kilowattstunde. RWE nimmt hingegen an, dass der Großhandelspreis um mindestens 5 Euro pro Megawattstunde ansteigen würde, was für den Verbraucher langfristig eine Erhöhung des Strompreises um 30 Prozent bedeuten könnte.

An dieser Stelle sei angemerkt, dass das Erneuerbare-Energien-Gesetz übrigens die einzige Umverteilung durch den Staat ist, die tatsächlich von Arm nach Reich umverteilt, denn selbst die Ärmsten der Armen müssen ja über ihre Stromkosten die EEG-Umlage bezahlen, während die Betreiber von Solaranlagen, also die Empfänger der Umlage, gemeinhin nicht dem Prekariat angehören.

Der nationale Klimabeitrag

Der SPD-Vorsitzende plant jetzt den Katalog der Maßnahmen der deutschen Umweltpolitik noch um eine neue Strafabgabe für Energieerzeuger, den so genannten nationalen Klimabeitrag, zu erweitern. Bekanntermaßen funktioniert der Emissionshandel innerhalb der Europäischen Union kaum, und aus Sicht des Wirtschaftsministers liegt dies unter anderem an den zu geringen Preisen für die Zertifikate. Dieses Problem möchte Sigmar Gabriel jetzt beheben, indem das neue Gesetz Kraftwerken, die älter als 20 Jahre sind, eine feste Menge von CO2-Ausstoß gestattet und darüber hinaus Strafzahlungen von 18 bis 20 Euro für jede Tonne, die den festgelegten Betrag übersteigt, vorsieht. Mit diesem Geld möchte der SPD-Vorsitzende CO2-Zertifikate am Markt einkaufen und somit die Preise erhöhen.

Abb 1: CO2 Wirkung mit (nicht vorhandener) Rückkoplung, die das IPCC aber voraussetzt. Diese Berechnung setzt außerdem voraus, dass der gesamte Zuwachs an Konzentration  1. anthropogen ist 2. der deutsche Anteil daran 3 % beträgt. Anders ausgedrückt: Was Deutschland bis 2050 einparen will emitiert China in einem Jahr zusätzlich (Quelle ). Daten Statista Grafik Michael Limburg 

Es könnte dadurch zu einer Situation kommen, dass ein 40 Jahre altes Braunkohlekraftwerk nur drei Millionen Tonnen CO2 ausstoßen darf, obwohl es in der Realität jährlich mindestens acht Millionen Tonnen ausstoßen muss. Die zusätzlichen Belastungen können dann schnell einen dreistelligen Millionenbetrag erreichen und sollen das Betreiben älterer Kraftwerke auf Dauer unattraktiv machen. Einige Umweltschützer begrüßen diesen Vorschlag, während andere, wie beispielsweise Greenpeace, sogar anmahnen, dass die Strafen noch viel zu milde ausfallen würden.

Dramatische Konsequenzen für NRW

Es ist seltsam, dass dieses Thema so wenig in den Medien vorgekommen ist,  obwohl der Vorschlag noch diese Woche im Kabinett verabschiedet werden könnte. Denn, was dort beschlossen werden soll, ist nicht viel weniger als das faktische Ende des rheinischen Braunkohlereviers.

Diese hohen Belastungen kann ein Konzern wie RWE, der finanziell erstens schon sehr stark unter Druck steht, zweitens viele alte Kohlekraftwerke betreibt und drittens noch unter dem Einspeisevorrang für erneuerbare Energien leidet, nicht verkraften. Die Konsequenz wird sein, dass binnen weniger Jahre sehr viele Kraftwerke ganz abgeschaltet werden müssen. Braunkohlekraftwerke wie Frimmersdorf, Weißweiler, Neurath und Niederaußem werden wohl erheblich von der neuen Abgabe betroffen sein und wahrscheinlich abgeschaltet werden müssen. Das wird nicht nur schwere Folgen für die Region, sondern für ganz Deutschland haben.

RWE selber spricht von 100.000 Stellen, die in Gefahr seien, davon 30.000 direkt in der Braunkohleindustrie und 70.000 Stellen bei Zulieferern in der Wertschöpfungskette. Es gibt viele Städte im rheinischen Braunkohlerevier, die quasi komplett von den Ausgaben, Investitionen, Steuern und Arbeitsplätzen des großen Energieversorgers abhängig sind. Diesen Menschen würde die Große Koalition einfach mal eben so die Existenzgrundlage entziehen. Man muss sich vorstellen, was das für die Betroffenen bedeutet. In dieser Region steht durch ein Abschalten der Kohlekraftwerke zusätzlich auch der Verbleib der Aluminiumindustrie plötzlich zur Disposition. Von deren Verbleib in Deutschland ist angesichts der aktuellen Energiepolitik nicht auszugehen. Schlagartig könnte Gabriels Klimabeitrag so manche Stadt ein Drittel ihrer Arbeitsplätze kosten.

Das Allerschlimmste an diesem Vorhaben ist, dass es reine Kosmetik ist, um die deutschen Klimaschutzziele im Alleingang zu erreichen. Denn, wenn die Kraftwerke abgeschaltet werden, dann zahlen sie auch keine Strafen und der Minister nimmt kein zusätzliches Geld ein, um neue CO2-Zertifikate einzukaufen. Dann stehen sowohl die Zertifikate aus dem gestatteten Betrieb des Kraftwerks als auch die, die der Minister kaufen wollte dem europäischen Emissionshandel weiterhin zur Verfügung. Der CO2-Austoß wandert ins europäische Ausland, ohne dass die CO2-Menge auf europäischer Ebene sinkt. Der CO2 Ausstoß verlagert sich lediglich innerhalb Europas, verringert sich aber insgesamt nicht.

Es ist erschreckend, wie leichtfertig die Sozialdemokraten und auch die Landesregierung in NRW unter Ministerpräsidentin Kraft bereit sind, die Existenz von Hunderttausenden von Menschen für solch eine kosmetische Maßnahme einfach aufs Spiel zu setzen.

Tim Tressel (26) gehört zu den Initiatoren der Internet Plattform „Guns an Burgers“

Weiterführende Links:

(1) BMWI Energie der Zukunft; Eine Gesamtstrategie für die Energiewende (Hier)

(2) BMU Aktionsprogramm Klimaschutz 2020 (Hier)




Michael Mann und Stefan Rahmstorf behaupten: Golfstrom schwächt sich ab wegen Eisschmelze in Grönland – außer dass die Realität etwas ganz anderes sagt

In einer begutachteten Studie von H. Thomas Rossby, die bei WUWT vorgestellt worden war, sagt der Autor: „Ein URI-Ozeanograph weist Behauptungen zurück, denen zufolge der Klimawandel den Golfstrom verlangsamt“ (hier). Weiter heißt es in der von den Geophysical Research Letters veröffentlichten Studie:

Das ADCP misst Strömungen mit sehr hoher Genauigkeit. Folglich erhalten wir durch wiederholte Messungen, die wir Jahr für Jahr durchführen, ein aussagekräftiges Tool, mit dem wir die Stärke der Strömung überwachen können. Es gibt Variationen der Strömungsgeschwindigkeit mit der Zeit, die natürlichen Ursprungs sind – und ja doch, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die zeigen, dass sich der Golfstrom verlangsamt“.

Natürlich listen Rahmstorf und Mann die Studie in ihren Literaturhinweisen nicht (hier). Auch verwenden sie offensichtlich nicht die „sehr genauen“ ADCP-Daten. Stattdessen verwenden sie ein Modell zusammen mit Proxys, Rekonstruktionen und die stark interpolierten GISS-Daten, um zu der von ihnen gewünschten Schlussfolgerung zu kommen. Es ist daher keine Überraschung, dass sie in ihrer Studie Phantomen nachjagen. Sie behaupten (in der Abbildung 1 ihrer Studie), dass dieser ,Cold Spot‘ südlich von Grönland dem Schmelzwasser von Grönland geschuldet ist und Beweis für eine verlangsamte Zirkulation ist:

Ihre Bildunterschrift lautet: Lineare Trends der Temperatur seit dem Jahre 1901. Auf der Grundlage der Temperaturdaten von NASA GISS zeigen wir oben (a) eine globale Karte (Hammer-Projektion) von 1901 bis 2013; weiße Flächen stehen für unzureichende Daten. (b), die gleiche Analyse für den nordatlantischen Sektor von 1901 bis 2000. Zusätzlich zu den beobachteten Temperaturtrends zeigt (b) auch die Gitterpunkte (schwarze Kreise) der Region des subpolaren Wirbels [?], für den Zeitreihen in den Abbildungen 3 und 5 gezeigt werden, ebenso wie das 2°C-Modellmittel der Abkühlung aus einem Klimamodell-Vergleich 1, in dem die Modelle Gegenstand einer stark reduzierten AMOC sind, induziert durch eine Süßwasser-Anomalie im Nordatlantik. Die geographische Ausdehnung der vom Modell prophezeiten Temperatur-Reaktion auf eine AMOC-Reduktion passt gut zu dem Gebiet mit der beobachteten Abkühlung im 20.Jahrhundert. Die Modelle werden stärker angetrieben, und die Abkühlung erstreckt sich weiter westwärts als Folge der zum Erliegen kommenden Konvektion in der Labrador-See, was in der realen Welt bisher höchstens kurz einmal vorgekommen ist. (Man beachte, dass das zweite Abkühlungsgebiet in Zentralafrika in einer Region mir nur geringer Datenabdeckung liegt und daher auch ein Artefakt von Daten-Inhomogenitäten sein kann).

Ich finde es interessant, dass sie anmerken „… dass das zweite Abkühlungsgebiet in Zentralafrika in einer Region mir nur geringer Datenabdeckung liegt und daher auch ein Artefakt von Daten-Inhomogenitäten sein kann“. Und doch ist jenes Abkühlungsgebiet südlich von Grönland frei von derartigen Problemen im gleichen GISS-Datensatz.

Und dann gibt es da noch ein weiteres Problem: Die Eismasse Grönlands scheint derzeit zuzunehmen über das Mittel der Jahre 1990 bis 2011 hinaus:

Quelle: http://www.dmi.dk/uploads/tx_dmidatastore/webservice/b/m/s/d/e/accumulatedsmb.png

aus: http://www.dmi.dk/en/groenland/maalinger/greenland-ice-sheet-surface-mass-budget/

Vielleicht ist das eine neue Mann’sche Wissenschaft, in der globale Erwärmung Abkühlung verursacht und Schmelzen eine stärkere Eis-Akkumulation.

Unter der Voraussetzung, dass Rahmstorf denkt, „Day After Tomorrow“ war einfach toll war, fragt man sich natürlich, ob seine Studie nicht eine Ausschmückung seiner Film-Begutachtung ist:

(Von Wikipedia): Allerdings war Stefan Rahmstorf vom PIK, Experte für thermohaline Ozean-Zirkulation und deren Auswirkungen auf das Klima beeindruckt, wie gut Drehbuchautor Jeffrey Nachmanoff über die Wissenschaft und die Politik des globalen Klimawandels informiert war nach der Unterhaltung mit ihm bei der Vorstellung des Films in Berlin. Er stellte fest: „Eindeutig ist dies ein Katastrophenfilm und keine wissenschaftliche Dokumentation; die Filmmacher haben tief in die Trickkiste gegriffen. Aber der Film bietet eine Gelegenheit zu erklären, dass Einiges des Hintergrundes zutreffend ist: Die Menschen ändern tatsächlich zunehmend das Klima, und dies ist ein ziemlich gefährliches Experiment einschließlich des Risikos abrupter und unvorhergesehener Änderungen. Schließlich ist unser Wissen über das Klimasystem immer noch ziemlich begrenzt, und wir werden möglicherweise noch einige Überraschungen erleben, wenn sich unser Experiment mit der Atmosphäre entfaltet. Glücklicherweise ist es extrem unwahrscheinlich, dass wir während der nächsten Jahrzehnte eine umfassende Änderung der Ozean-Zirkulation erleben werden (wäre das doch der Fall, wäre ich genauso überrascht wie Jack Hall). Zumindest die meisten Wissenschaftler glauben, dass dieses Risiko erst zum Ende dieses Jahrhunderts deutlich steigt. Und die Konsequenzen wären sicherlich nicht so dramatisch wie der im Film ausgesuchte ,Super-Sturm‘. Nichtsdestotrotz ist eine grundlegende Änderung der Ozean-Zirkulation ein Risiko mit ernsten und teilweise unvorhersagbaren Konsequenzen, welches wir vermeiden sollten. Und selbst ohne Ereignisse wie eine Änderung der Ozean-Zirkulation ist der Klimawandel ernst genug, um Maßnahmen zu fordern. Ich denke, es wäre ein Fehler und dem Film nicht gerecht werden, falls die Wissenschaftler diesen einfach als Unsinn abtun. Für das, was er ist, nämlich ein Kassenschlager, der die Produktionskosten in Höhe von 120 Millionen Dollar wieder einspielen muss, ist er wahrscheinlich so gut wie es nur geht. Ich bin sicher, dass die Leute den Film nicht mit der Realität verwechseln, sie sind ja nicht dumm – sie werden wissen, dass er reine Fiktion ist. Aber ich hoffe, dass deren Interesse am Thema geweckt wird und dass sie aufmerksamer werden, wenn der echte Klimawandel und die Klimapolitik zukünftig diskutiert werden“. Quelle: http://www.pik-potsdam.de/~stefan/tdat_review.html

Aber…

Im Jahre 2008 hat Yahoo!Movies den Film The Day After Tomorrow als einen der Top Ten wissenschaftlich unsinnigen Filme gelistet. Der Film wurde dafür kritisiert, verschiedene meteorologische Phänomene zeitlich auf einige Stunden zusammengefasst zu haben, die in Wirklichkeit im Zeitmaßstab von vielen Jahrzehnten oder Jahrhunderten ablaufen.

Aktualisierung: Ich habe die Abbildungen 5 und 6 aus der Studie von Mann und Rahmstorf hinzugefügt:

Abbildung 5: Eine Zusammenstellung verschiedener Indikatoren der Zirkulation im Atlantik. Die blaue Kurve zeigt unseren temperatur-basierten AMOC-Index, der auch in (b) eingezeichnet ist. Die dunkelrote Kurve zeigt den gleichen Index auf der Grundlage der NASA GISS-Temperaturdaten (Skala links). Die grüne Kurve mit der Fehlerbandbreite zeigt Proxydaten aus Korallen (Skala rechts). Die Daten sind dekadisch geglättet. Orangene Punkte zeigen die Datenanalysen hydrographischer Querschnitte entlang 25°N auf dem Atlantik, wobei eine Änderung um 1 K des AMOC-Index‘ mit einer Änderung um 2,3 Sv [?] des AMOC-Transportes korrespondiert entsprechend der Modellsimulation. Andere Schätzungen ozeanographischer Daten zeigen ebenfalls eine relativ starke AMOC in den fünfziger und sechziger Jahren, die in den siebziger und achtziger Jahren schwächer und in den neunziger Jahren wieder stärker wurde.

Abbildung 6: Massenbalance des Eisschildes von Grönland. Daten von Box und Colgan (2010). Kumulative Anomalie relativ zum Mittel von 1840 bis 1900, einer vorindustriellen Periode, während der sich der grönländische Eisschild etwa im Gleichgewicht befand.

Wenn aktuelle Messdaten des Golfstromes vorliegen (die von Rossby 2014 zitierten ADCP-Daten), warum benutzen Mann und Rahmstorf dann Proxys? Und warum versuchen sie zu erklären, dass die Temperatur ein Indikator ist, wenn man tatsächlich aktuelle Daten der Strömungsgeschwindigkeit hat? Diese Beschränktheit macht einen fassungslos.

Und außerdem – man betrachte noch einmal Abbildung 6. Sie behaupten, dass sich [die Einleitung von Süßwasser] erneut verstärkt, was wie Manns sprichwörtlicher „Hockeyschläger“ aussieht, und dies basiert auf den Daten von Box und Colgan 2010, in ihrer Referenzliste an 33. Stelle gelistet. Sie machen Daten bis zurück zum Jahre 1850 geltend, was ein ziemliches Kunststück ist, gibt es doch – soweit ich weiß – keine umfassenden Daten bzgl. des Grönland-Eises vor dem Internationalen Geophysikalischen Jahr 1958 wie z. B. hier:

Bauer, A., Baussart, M., Carbonnell, M., Kasser, P., Perroud, P. and Renaud, A. 1968. Missions aériennes de reconnaissance au Groenland 1957-1958. Observations aériennes et terrestres, exploitation des photographies aeriennes, determination des vitesses des glaciers vělant dans Disko Bugt et Umanak Fjord. Meddelser om Grønland 173(3), 116 pp.

Und außerdem beginnen Studien von Jason Box nur mit Daten ab 1958:

Rignot, E., J.E. Box, E. Burgess, and E. Hanna (2008), Mass balance of the Greenland ice sheet from 1958 to 2007, Geophys. Res. Lett.,35,L20502, doi:10.1029/2008GL035417

Es zeigt sich, dass Box und Colgan (2010) eine Rekonstruktion ist und keine aktuellen Messdaten verwendet.

Noch merkwürdiger ist allerdings Folgendes: schaut man sich die Abbildung 5 in deren Studie an (PDF hier), zeigen der Massenbilanz-Verlust und die Akkumulation nicht die Form eines „Hockeyschlägers“.

Man fragt sich, ob Mann seine „spezielle Mann’sche Mathematik“ (hier), so wie er es bei seinem „Hockeyschläger“ getan hat, nicht auch auf die von Box und Colgan (2010) rekonstruierten Daten angewendet hat, um die große Divergenz zwischen Akkumulation und Verlust zu bekommen, die man in Abbildung 6 von Mann und Rahmstorf erkennt.

Noch wichtiger allerdings ist jedoch, dass die Daten von Box und Colgan (2010) keine aktuellen Messdaten sind, sondern eine Rekonstruktion, die auf einigen wenigen Daten und einigen Abschätzungen basiert:

Unserer Rekonstruktion zufolge war TMB positiv über 39% des Zeitraumes von 1840 bis 2010 (siehe Gebiete mit einer positiven Massenbilanz in Abbildung 5). Die positiven Phasen der Massenbilanz im Zeitmaßstab von Jahrzehnten korrespondieren mit Phasen geringen Schmelzens und geringer Wasserabflüsse. Zum Beispiel korrespondiert im Zeitraum 1970 bis 1985 eine Phase mit positiver Massenbilanz mit einer Phase verstärkter Abkühlung durch Sulfate (Wild et al. 2009). Besonders ausgeprägt zeigt sich dies entlang der Küste von Westgrönland (Rozanov et al 2002, Box et al. 2009). Massenbilanz-Überschüsse können sich auch in Jahren mit hoher Akkumulation ergeben, gelegentlich selbst bei relativ hohen Abflüssen (z. B. 1996).

Die rekonstruierten TMB-Werte werden verglichen 1.) mit jenen der Oberflächen-Massenbilanz in Teil II minus der LM-Daten von Rignot et al. 2008) für 20 Stichproben aus dem Zeitraum 1958 bis 2009 und 2.) mit den unabhängigen GRACE-Daten des Zeitraumes 2003 bis 2010 nach Wahr et al. 2006 (Abbildung 6). Wir finden RMS-Fehler von 31 Gtyr [?] für Datensatz 1 und 69 Gtyr im Vergleich mit Datensatz 2.

Fazit: Es gibt definitiv keine aktuellen Daten vor dem Jahr 1958. Die Studie von Mann und Rahmstorf führt die Leser in die Irre, indem sie diese Tatsache nicht eindeutig hervorhebt.

Der Physiker Robert G. Brown von der Duke University kommentiert:

Meinen sie das ernst? Sie fanden „starke Beweise“ dafür, dass eine solche Verlangsamung stattfindet, obwohl der direkte Beweis, nämlich die gemessene Geschwindigkeit des Golfstromes selbst nichts dergleichen zeigt?

Die hier involvierte kognitive Dissonanz ist unfasslich.

Tatsächlich! Mann und Rahmstorf scheuen die Realität und greifen auf Modelle und Rekonstruktionen zurück. Sie leben in einer inzestuösen Welt, die sie selbst erschaffen haben.

Link: http://wattsupwiththat.com/2015/03/24/michael-mann-and-stefan-rahmstorf-claim-the-gulf-stream-is-slowing-due-to-greenland-ice-melt-except-reality-says-otherwise/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Im Original fügt Watts hier die ganze Presseerklärung von Rahmstorf & Co. an. Ich habe das nicht mitübersetzt, da war mir die Zeit doch zu schade, so viel Spaß ich bei der Übersetzerei auch habe.




Konferenz „Berlin Energy Transition Dialogue“ in Berlin – Am deutschen Wesen soll das Klima genesen

„Wir zeigen, dass Klimaschutz, Energieversorgungssicherheit und wirtschaftliches Wachstum zusammen passen und einander nicht ausschließen“, so Steinmeier laut der Focus-Meldung. Die hochrangige Besetzung des Auditoriums hängt der Meldung zufolge auch damit zusammen, dass Deutschland derzeit den G7-Vorsitz der wichtigsten westlichen Industrieländer hat und der Weltklimaschutzkonferenz im Dezember in Paris zum Erfolg verhelfen will. „Gemeinsam mit unseren Partnern aus aller Welt wollen wir Wege zu einer nachhaltigen, sicheren und kostengünstigen Energieversorgung entwickeln“, wird Steinmeier zitiert.

Bild rechts: Bundesminister Sigmar Gabriel (1. Reihe, 3.v.l.) und Außenminister Frank-Walter Steinmeier (1. Reihe, 2.v.r.) mit Teilnehmern des "Berlin Energy Transition Dialogue"; © BMWi

Gabriel schlägt in dieselbe Kerbe

In diese Kerbe schlug der gleichen Meldung zufolge auch Bundeswirtschaftsminister Sigmar Gabriel (SPD), der ausführte, dass Deutschland dank der Energiewende künftig nicht nur weniger Öl und Gas im Ausland kaufen müsse: Die Entwicklung neuer, energiesparender Technologien werde auch deutschen Firmen auf den Weltmärkten helfen. „Damit unser Weg gelingt, brauchen wir für eine erfolgreiche Energiewende eine enge Abstimmung mit unseren europäischen und internationalen Partnern“, so der Vizekanzler .

Deutschland spielt den Lehrmeister der Welt für die kommende Pariser Klimakonferenz 

Diese Konferenz reiht sich ein in eine ganze Serie ähnlich gelagerter Initiativen, mit denen Deutschland seit Monaten auf europäischer wie auch auf internationaler Ebene versucht, bei der „Rettung des Weltklimas“ die Vorreiterrolle zu übernehmen. Ziel ist es, der Klimakonferenz in Paris im Dezember zum Erfolg zu verhelfen, indem scharfe und bindende Ziele zur Verringerung des weltweiten CO2-Ausstosses gefasst werden. Dazu wurden sowohl in Deutschland als auch – auf deutschen Druck hin – auch auf europäischer Ebene äußerst ehrgeizige (soll heißen unrealistische) Ziele zur CO2-Reduktion verabschiedet. 

Angela Merkel ist die treibende Kraft

Treibende Kraft hinter diesen Initiativen, die auch von Bundesumweltministerin Barbara Hendricks mit vorangetrieben werden, ist Bundeskanzlerin Angela Merkel. Die Pfarrerstochter treibt den „Klimaschutz“ durch Exkommunikation des CO2 ebenso wie den von ihr verantworteten Atomausstieg mit geradezu pastoralem Eifer voran. Bestellte Gutachten wie die vom "Wissenschaftlichen Beirat globale Umwelt" (WBGU) "zur großen Transformation" oder dem ständig Rot-Alarm schlagenden Potsdam Institut für Klimafolgenforschung (PIK) sind dabei Mittel zum Zweck. Mit Hilfe dieser bestellten Zeugenschaft von in der medialen Öffentlichkeit anerkannten Experten kann sie ihre Agenda als objektiv und alternativlos darstellen. Dazu nutzt sie auch ihre internationalen Kontakte auf höchster Ebene, u.a. zu Obama und dem Papst. Dieser hat in letzter Zeit Signale aussendet, dass die katholische Kirche der "Glaubensgemeinschaft der Klimabewegten" Unterstützung leisten könnte.

Selbst bei ihrem kürzlichen Besuch in Japan [FAZ] versuchte Merkel mit großem Einsatz, die inzwischen längst nicht mehr so atomkritischen Japaner vom deutschen Weg – Kampf gegen Kohle und Kernkraft zugleich – zu überzeugen. Besonderes Feingefühl für die Kultur des Gastlandes ließ sie allerdings nicht erkennen, als sie versuchte, einem Roboter aus Japan, einem Land, in dem man sich voreinander ohne Körperkontakt verbeugt, die Hand zu schütteln. Die Gastgeber nahmen diesen Gesichtsverlust ebenso wie die Belehrungsversuche höflich mit einem gelassenen Lächeln zur Kenntnis und werden sicherlich ihre Programmierer angewiesen haben, ihre Systeme schleunigst so „fool-proof“ im eigentlichsten Sinne des Wortes zu machen, dass selbst dem tumbesten ausländischen Besucher in Zukunft solche vermeidbaren Peinlichkeiten erspart bleiben.

Mitarbeiter in Partei und Kabinett werden nach Wohlverhalten ausgesucht

Wobei diese Sache gleichzeitig ein grelles Schlaglicht auf die Qualität der Personalpolitik unserer höchsten Regierungskreise wirft. Entscheidende Kriterien der Auswahl scheinen stromlinienförmige Anpassung an die Vorstellungen und Wünsche der Führungsfigur zu sein. Sachkunde zum Beispiel bezüglich der Kenntnis fremder Mentalitäten und Kulturen scheint dagegen in den Stellenbeschreibungen zu fehlen.

Einer der wenigen im Kabinett, von dem man ab und zu den Eindruck erhält, dass er sich noch die Fähigkeit zu unabhängigem Denken bewahrt hat, scheint Minister Gabriel sein, der im Zusammenhang mit der Energiewende schon vor knapp einem Jahr folgende bemerkenswerten Aussagen tätigte:

„Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.“

„Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.“

„Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

Natürlich ist und bleibt S. Gabriel einer der Hauptverantwortlichen der aktuellen Energiewendepolitik, und er wird sicherlich nicht seine Karriere mit Alleingängen riskieren. Aber in dem Haufen sonstiger Jasager im Kabinett scheint er fast der einzige zu sein, der intelligent genug ist, um zu verstehen, was man da mit Deutschland zurzeit anrichtet.

Quellen

[FOCU] http://www.focus.de/finanzen/news/wirtschaftsticker/unternehmen-deutschland-will-oeko-energien-weltweit-zum-durchbruch-verhelfen_id_4570969.html 

[FAZ] http://www.faz.net/aktuell/politik/ausland/asien/angela-merkel-wirbt-fuer-atomausstieg-bei-japan-besuch-13471829.html




Modelle überschätzen 60-jährige dekadische Trends

Die jüngste Studie in dem Magazin Nature von Jochem Maritzke & Piers Forster mit dem Titel „Antrieb, Rückkopplung und interne Variabilität in globalen Temperaturtrends“ hat viel Aufmerksamkeit erregt, weil sie die Behauptung aufstellt, dass Klimamodelle gut sind und diese die Erwärmung trotz der beobachteten 17 Jahre Stillstand seit 1998 nicht überschätzen. Sie versuchen, dies zu belegen, indem sie zeigen, dass 15-Jahre-Trends in den HadCRUT4-Daten in CMIP5-Modellen erwartet werden können durch eine quasi zufällige interne Variabilität, während irgendwelche 60-Jahre-Trends deterministisch sind (anthropogen). Sie identifizieren ,deterministisch‘ und ,interne Variabilität‘ in den Modellen mittels einer Multi-Regressionsanalyse mit ihren bekannten Antrieben als Input.

Darin ist ∆F der Antrieb, α ist die Klima-Rückkopplung und κ der Anteil der Wärmeaufnahme durch die Ozeane und ε ist die zufällige Variation.

Dieses Verfahren wurde von Nick Lewis kritisiert und erzeugte eine endlose Diskussion auf den Blogs Climate Audit und Climate-Lab darüber, ob dieses Verfahren statistisch sinnvoll sei. Allerdings halte ich dies zum größten Teil für irrelevant, da es sich um eine Analyse der Differenz zwischen Modellen handelt und nicht um beobachtete Daten.

Erstens, die Hypothese, dass die gesamte interne Variabilität quasi-zufälliger Natur ist, ist wahrscheinlich falsch.Tatsächlich gibt es eindeutige Beweise einer 60-jährigen Oszillation in den GMST-Daten, [Global Mean Surface Temperature] möglicherweise im Zusammenhang mit AMO/PDO – siehe bei realclimate. In diesem Sinne sind vermutlich alle Modelle falsch, weil sie diese nicht-zufällige Verteilung nicht enthalten. Zweitens, wie ich zeigen werde, sind die beobachteten 15-Jahre-Trends bei HadCRUT4 selbst nicht quasi-zufällig. Drittens, ich zeige, dass die beobachteten 60-Jahre-Trends nach 1945 von den Modellen kaum beschrieben werden und dass im Wesentlichen alle Modelle bis 1954 höhere Trends prophezeit haben als beobachtet worden sind. Dies bedeutet, dass die ,deterministische‘ Komponente aller CMIP5-Modelle tatsächlich die GMST-Reaktion auf Treibhausgas-Konzentrationen überschätzen.

Beweise für regelmäßige Klima-Oszillationen

Abbildung 1 zeigt, dass die Bodendaten gut durch eine Formel (beschrieben hier) beschrieben werden können, die sowohl einen Term des Gesamt-CO2-Antriebs als auch einen Term der 60-Jahre-Oszillation enthält. Diese Formel lautet:

Die physikalische Rechtfertigung für eine solche 0,2°C-Oszillation ist die beobachtete PDO/AMO, die genau wie die ENSO die globalen Temperaturen beeinflussen können, jedoch über einen längeren Zeitraum. Kein Modell enthält gegenwärtig irgendeine solche regelmäßige natürliche Oszillation. Stattdessen wurde der Albedo-Effekt von Aerosolen und Vulkanen so frisiert, dass er mit GMST der Vergangenheit übereinstimmt und deren Schwingungen folgt. Viele andere haben diese Oszillation der GMST entdeckt, und sogar Michael Mann sagt jetzt, dass eine Abschwächung von PDO/AMO ursächlich für den Stillstand sein könnte.

15- und 60-Jahre-Trends in Beobachtungen und Modellen

Ich habe die in der Studie von M&F beschriebene Analyse wiederholt. Ich benutze lineare Regressions-Anpassungen über Zeiträume von 15 und 60 Jahren der HadCRUT4-Daten und auch die o. g. angepasste Formel*. Zusätzlich habe ich 42 CMIP5-Modellsimulationen heruntergeladen der monatlichen Temperaturdaten von 1860 bis 2014. Dann habe ich die monatlichen Anomalien berechnet und diese danach über jedes Jahr gemittelt. Danach habe ich für jede CMIP5-Simulation die 15- und 60-Jahre-Trends berechnet für zunehmende Start-Jahre wie in M&F beschrieben.

[*Im Original lautet dieser Satz: I have repeated the analysis described in M&F. I use linear regression fits over periods of 15y and 60y to the Hadcrut4 data and also to the fitted equation described above.]

Abbildung 2 zeigt die berechneten 15-Jahre-Trends im HadCRUT4-Datensatz im Vergleich zu Trends aus der Anpassung. Zum Vergleich zeigen wir zuerst Abbildung 2a aus M&F unten.

Die Regressionsanalyse von M&F zeigt dann anschließend, dass die deterministischen Effekte in den CMIP5-Modellen für längere 60-Jahre-Trends dominieren sollten. Im Einzelnen beträgt der Fehler in den 60-Jahre-Trends, wie er von den Modellen vorgegeben wird, ± 0,081°C, das liegt um 30% unter der Zufalls-Variation. Daher kommt der Lackmus-Test der Modelle, wenn man die 60-Jahre-Modelltrends mit den Beobachtungen vergleicht, weil jetzt die statistische Variation viel kleiner ist. Hier folgen meine Ergebnisse:

Diese Analyse zeigt zwei Effekte, die M&F nicht erwähnt haben. Erstens, die 15-Jahre-Variation in den Trends der beobachteten Daten ist nicht zufällig, sondern zeigt ein periodisches Verhalten, wie es auch bei dem Fit auftritt. Dies ist charakteristisch für eine zugrunde liegende Klima-Oszillation. Die quasi-zufällige Variation in den CMIP5-Modellen wie in Abbildung 2a oben umfasst die Gesamt-Magnitude der Variation, aber nicht deren Struktur.

Zweitens zeigen die 60-Jahre-Trends auch eine viel kleinere, aber immer noch übrig bleibende Struktur, die die zugrunde liegende Oszillation reflektiert, gezeigt in blau. Der Spread in 42 Modellen ist natürlich deren unterschiedlichen effektiven Strahlungsantrieben und Rückkopplungen geschuldet. Die Tatsache, dass vor 1920 alle Modelltrends den beobachteten Trends folgen können, liegt teilweise an der Parametrisierung der Aerosole, um zu den Nachhersage-Temperaturen zu passen. Nach 1925 beginnen die beobachteten Trends, unter das Mittel von CMIP5 zu fallen, so dass bis zum Jahr 1947 sämtliche Beobachtungen unter den 42 Modelltrends des CMIP5-Ensembles liegen. Diese Zunahme der Modelltrends über den beobachteten 60-Jahre-Trend hinaus kann jetzt nicht durch die natürliche Variation erklärt werden, weil M&F argumentieren, dass die deterministische Komponente dominieren muss. Die Modelle müssen zu sensitiv bzgl. des Treibhausgas-Antriebs sein. Allerdings lassen M&F diese Tatsache weg, einfach weil sie nicht bestimmen können, welche Komponente in den Modellen diesen Trend verursacht. Tatsächlich basiert die Schlussfolgerung der Studie auf der Analyse von Modelldaten und nicht von beobachteten Daten. Das ist bizarr. Sie ziehen in ihrer Studie folgende Schlussfolgerung:

Es gibt eine wissenschaftliche, politische und öffentliche Debatte hinsichtlich der Frage, ob die Differenz der GMST zwischen simulierten und beobachteten Daten während der Stillstands-Periode ein Anzeichen dafür sein könnte, dass ein Gleichgewichts-Modell auf einen gegebenen Strahlungsantrieb reagiert, der systematisch zu stark ist oder – äquivalent dazu – auf eine simulierte Klima-Rückkopplung systematisch zu schwach reagiert. Im Gegensatz dazu finden wir keine substantielle physikalische oder statistische Verbindung zwischen der simulierten Klima-Rückkopplung und simulierten GMST-Trends während der Stillstands- oder irgendeiner anderen Periode, weder für den 15-Jahre noch für den 60-Jahre-Trend. Die Rolle der simulierten Klima-Rückkopplung bei der Erklärung der Differenz zwischen Simulationen und Beobachtungen ist daher entweder gering oder sogar vernachlässigbar. Der Vergleich von simulierten und beobachteten GMST-Trends erlaubt keine Rückschlüsse, welche Größenordnung der simulierten Klima-Rückkopplungen – im Bereich zwischen 0,6 bis 1,8 W/m² im CMIP%-Ensemble* – besser zu den Beobachtungen passt. Weil es die beobachteten GMST-Trends nicht zulassen, zwischen simulierten Klima-Rückkopplungen zu unterscheiden, die um einen Faktor 3 variieren, ist die Behauptung, dass die Klimamodelle die GMST-Reaktion auf Strahlungsantriebe infolge steigender Treibhausgaskonzentrationen systematisch übertreiben, offensichtlich unbegründet.

[*Der Satz zwischen den Bindestrichen lautet im Original: ranging from 0.6 to 1.8 W m22 uC21 in the CMIP5 ensemble. Ich weiß nicht, was die Zahlen und Buchstaben in der Mitte bedeuten sollen. Anm. d. Übers.]

Es sieht fast so aus, als ob sie zu der Schlussfolgerung gekommen sind, die sie von Anfang an haben wollten – nämlich dass die Modelle für den Zweck geeignet sind und dass der Stillstand ein statistischer Zufall ist, der den 15-Jahre-Trends zufolge nicht unerwartet kommt. Auf diese Weise können sie die Schlussfolgerungen des AR 5 aufrecht erhalten, aber nur, wenn sie die Beweise dafür ignorieren, dass die beobachteten Daten die AMO/PDO-Oszillation und eine moderate globale Erwärmung stützen.

Die Physik basierte immer auf der Entwicklung theoretischer Modelle, um die Natur zu beschreiben. Diese Modelle machen Vorhersagen, die nachfolgend durch Experimente getestet werden können. Falls die Ergebnisse dieser Experimente mit den Vorhersagen nicht übereinstimmen, dann muss man entweder das Modell so aktualisieren, dass es die neuen Daten erklären kann, oder man muss das Modell verwerfen. Was man nicht tun darf ist, die experimentellen Daten zu verwerfen, weil die Modelle nicht beschreiben können, warum sie nicht mit den Daten übereinstimmen.

Meine Schlussfolgerung lautet, dass die 60-Jahre-Trenddaten starke Beweise zeigen, dass CMIP5-Modelle die globale Erwärmung durch zunehmende Treibhausgase tatsächlich übertreiben. Die Diskrepanz zwischen den Klimaprojektionen und den Beobachtungen wird nur immer schlimmer werden, falls sich der Stillstand weitere 10 Jahre fortsetzt. Der gegenwärtige 60-Jahre-Trend ist tatsächlich nur wenig größer als im Jahre 1900. Wenn sich die Oszillation um das Jahr 2030 wieder umkehrt, wird die Erwärmung wieder einsetzen, aber die Klimasensitivität ist dann immer noch viel geringer als die Modelle vorhersagen.

Link: http://wattsupwiththat.com/2015/03/17/models-overestimate-such-60-year-decadal-trends/

Übersetzt von Chris Frey EIKE




Parteien beginnen gegen die Energiewende vorzugehen: AfD NRW startet Volksinitiative gegen Windkraft

Jetzt legt der noch nicht im Düsseldorfer Landtag vertretene, aber sehr mitgliederstarke und damit einflussreiche NRW Landesverband kräftig nach und ruft zu einer Volksinitiative Windkraft auf  Abstand – Ja zu 10H auf.

Bild rechts: Heutige Windräder sind gigantische Industrieanlagen, deren Höhe von ca. 200m den Kölner Dom sogar noch um etwa 50m überragt. Die Skizze ist maßstabsgerecht.

Zitat aus dem Aufruf:

In unserer Volksinitiative fordern wir zum einen den Mindestabstand von Windkraft-anlagen zu Häusern und Schutzgebieten auf das 10fache der Höhe der Windkraftanlage festzulegen, und zum anderen zum Schutz der Umwelt den Bau von Windkraftanlagen in Waldgebieten zu verbieten.

Mit diesem ersten Schritt wird zunächst einmal der bisher völlig vernachlässigte Schutz derjenigen Bürger eingefordert, deren Wohnungen und Häuser von den WKA Besitzern dank unmittelbarer, aber bisher zulässiger Nachbarschaft zu ihren Windrädern, kalt enteignet wurden. Deren Wohnungen und Häuer und Grundstücke sind heute – wegen der engen Nachbarschaft zu lärmenden, periodisch Schatten werfenden WKA – praktisch unverkäuflich und damit wertlos.

Hinzu kommen die erheblichen gesundheitlichen Beeinträchtigungen und bleibenden Schäden, die viele dieser Anwohner erleiden und die bisher von den Gemeinden vielfach als Einbildung abgetan wurden. Deren Gier nach hohen Einnahmen – bemäntelt mit dem „Bekenntnis zur Energiewende“-  war fast immer stärker. Dem kann die 10 Regelung zumindest ein wenig einen Riegel vorschieben.

Sollte daher die 10 H Regelung durchkommen, wird sich das zumindest ein wenig ändern. Die Bürger werden sich also überlegen ob sie mitmachen. Denn auch ihr Heim könnte als nächstes vom grassierenden Windwahn betroffen sein. Jeder weiß auch, dass die einfache Regel gilt: Je mehr betroffene oder nachdenkliche Bürger mitmachen, desto eher wird die Volksinitiative zum Gesetz.

Zitat aus dem Aufruf

Eine Volksinitiative (VI) in NRW ist natürlich per Gesetz geregelt; darin heißt es:

Eine VI muss von mindestens 0,5 Prozent (ca. 66.000 Personen) der deutschenStimmberechtigten unterzeichnet sein, die 18 Jahre oder älter sind und inNordrhein-Westfalen wohnen.

Achten Sie auf die Anforderung an Nationalität, Mindestalters von 18 Jahren, und eines Wohnsitzes in NRW!

hier finden Sie den Aufruf im Internet




Relative Homogenität der Mittelalterlichen Warmzeit MWP und der Kleinen Eiszeit LIA

Bild rechts: Quelle: Abbildung 7c im FAR des IPCC.

Bei den mit dieser Abbildung verbundenen drei Problemen handelte es sich um Folgende:

● Die Mittelalterliche Warmzeit MWP widersprach ihren Behauptungen, dass das 20. Jahrhundert das Wärmste jemals war.

● Die Kleine Eiszeit LIA zeigte, dass der gegenwärtige Erwärmungstrend schon deutlich vor den wesentlichen Einflüssen der industriellen Revolution begonnen hatte. Signifikante CO2-Mengen wurden von den Menschen erst nach dem 2. Weltkrieg emittiert.

● Der Erwärmungstrend seit etwa 1650, dem Tiefpunkt der LIA, lag deutlich innerhalb der natürlichen Variabilität.

Die Hockeyschläger-Graphik kümmerte sich um all diese Punkte, indem sie die MWP ebenso wie die LIA kurzerhand eliminierte. Sie zeigte ungerechtfertigterweise lediglich wie das Blatt des Schlägers einen scharfen Knick nach oben hinsichtlich der Temperatur des 20. Jahrhunderts. Phil Jones erzeugte diesen Knick nach oben, der eine Erwärmung von 0,6°C ± 0,2°C während 120 Jahre behauptete. Sie behaupteten weiter, dass diese Rate weit jenseits jeder natürlichen Erwärmung lag, wobei sie bequemerweise den Fehlerfaktor von 33% ignorierten.

Ein zweiter Aspekt ihres Problems involvierte eine Studie von Soon und Baliunas mit dem Titel „Proxy climatic and environmental changes of the past 1,000 years“ (Climate Research 23, S. 89-110). Darin wurde detailliert das weltweite Auftreten der MWP nachgewiesen. Die persönlichen Angriffe auf Soon und Baliunas sind jetzt bekannt geworden, vor allem die Rolle, die John Holdren während seiner Zeit an der Harvard dabei gespielt hat.

Ein dritter Aspekt involvierte die Behauptung, dass Abbildung 7c die Temperatur der Nordhemisphäre zeigte und dass weder die MWP noch die LIA globale Ereignisse waren. Das Argument, dass eine Klimaperiode regional aufgetreten war oder in einem gegebenen Zeitraum einer Aufzeichnung wurde dazu verwendet, dem Problem zu begegnen, dass das Optimum des Holozäns wärmer war als das 20. Jahrhundert. Steve McIntyre untersuchte die Antwort der AGW-Unterstützer einschließlich einer Aussage der NOAA, nämlich:

Zusammengefasst: im Mittlere Holozän vor etwa 6000 Jahren war es allgemein wärmer als heute, aber nur im Sommer und nur auf der Nordhemisphäre.

Timing der Ereignisse

Das Problem, um das es hier geht, ist ein Klassisches und unabdingbar zum Verständnis von Klima. Es involviert eine Standardpraxis im Bereich Klimatologie namens Relative Homogenität. Falls man ein Muster des Klimawandels etablieren will, muss man zuvor festlegen, ob dieses Muster lokal, regional, hemisphärisch oder global auftrat. Es geht um die genaue Definition von Klimatologie, welche das Studium des Klimas in einer Region oder dessen Änderung mit der Zeit ist.

Ich habe mich mit diesem Thema befasst, während ich die These meiner Doktorarbeit vorbereitete, in der es um die Rekonstruktion des Klimawandels in der Stadt Churchill in Manitoba an der Hudson Bay ging, und zwar von 1714 bis 1850. Mein Doktorvater Dr. Bruce Atkinson legte mir nahe, die Klimaänderungen bei der Ortschaft York Factory zu rekonstruieren, ebenfalls an der Hudson Bay, aber 200 km entfernt. Der Vergleich ergab lokale Änderungen in Churchill, während die Untersuchung im regionalen, hemisphärischen und globalen Maßstab einen größeren Zusammenhang zeigte.

Zwei wesentliche Hypothesen komplizieren die Bestimmung von Länge und Ausmaß der Änderung. Die erste lautet, dass ein Ereignis wie die MWP [überall?] gleichzeitig beginnt und endet.* Die zweite lautet, dass durch externe Antriebe ausgelöste Änderungen in allen Aufzeichnungen klar hervortreten. Ich habe beide Hypothesen ausführlich mit Hubert Lamb diskutiert, weil der von mir untersuchte Zeitraum den Übergang von der LIA zur modernen Warmzeit abdeckt. Lamb hat den Terminus Mittelalterliche Warmzeit (MWP) nicht verwendet, und Jean Grove ordnet den Begriff Kleine Eiszeit (LIA) Mathes (1939) zu, aber Lamb legte viel Gewicht auf die Zeitpunkte von Beginn und Ende beider Perioden. In Ausgabe 2 seiner Climatic History and the Future: Climate Present, Past and Future benutzte er die traditionellen Termini „the medieval warm epoch or Little Climatic Optimum“. Dies war die Unterscheidung zwischen Epochen und Ereignissen, wie sie bei magnetischen Umkehrungen üblich ist. Zu jener Zeit war das Optimum des Holozäns das ,Klima-Optimum‘ genannt worden, und die MWP wurde zum ,Kleinen Klima-Optimum‘.

[*Einfügung in [ ]vom Übersetzer zum Verständnis. Ohne diese Einfügung wäre der Satz wohl missverständlich. Oder ist etwas anderes gemeint? Anm. d. Übers.]

Lamb wies darauf hin, dass trotz des globalen Auftretens des Ereignisses dessen Zeitpunkt von Beginn, Höhepunkt und Ende deutlich variierte, abhängig von unterschiedlichen Umständen auf allen Ebenen von lokal über regional bis hemisphärisch. Er zeigte auch, dass der zeitliche Unterschied Dekaden ausmachen konnte. Man kann eine einzelne Station oder sogar mehrere Stationen in einer Region betrachten und würde keine Beweise eines Trends finden wie der MWP oder der LIA. Lamb schrieb:

Beweise, die in dieser Ausgabe schon an verschiedenen Stellen erwähnt worden sind zeigen, dass das Klima im Mittelalter ein paar Jahrhunderte lang in den meisten Gebieten der Welt sich den wärmsten nacheiszeitlichen Epochen annäherte. Der Höhepunkt der Warmzeit trat nicht überall zur gleichen Zeit auf … In den zentralen Gebieten von Nordamerika ebenso wie im europäischen Teil Russlands und in Grönland kann die wärmste Zeit von 950 bis 1200 datiert werden. In den meisten Gebieten von Europa scheinen aber die wärmsten Perioden zwischen 1150 und etwa 1300 gelegen zu haben mit nennenswerter Wärme auch in den 900er-Jahren“.

In der Legende zur Abbildung 7c (hier oben rechts) im FAR des IPCC hieß es:

Die gepunktete Linie repräsentiert nominell die Bedingungen zu Beginn des 20. Jahrhunderts“.

Vermutlich hat irgendjemand diese Linie hinzugefügt und dabei eine allgemeine Bandbreite für die MWP und die LIA eingeführt. Nach Augenschein überdeckt die MWP den Zeitraum 950 bis 1350 und die LIA den von 1350 bis 1900. Dies passt nicht zu den Angaben im Text, besonders hinsichtlich der LIA mit Zahlen, die Grove von 1540 bis 1840 zugeordnet werden, also vor 150 bis 450 Jahren. Es gibt ein paar interessante Kommentare, die der Korrektur bedurften für den politisch motivierten IPCC-Bericht 2001. Mit Bezug auf die MWP wird angemerkt:

Diese Zeit verbreiteter Wärme ist bemerkenswert hinsichtlich des Umstands, dass es keine Beweise gibt, dass diese Warmzeit mit einer Zunahme von Treibhausgasen einher gegangen war.

Bei der Diskussion der zahlreichen Erklärungen für die LIA schrieb man:

Einige haben vorgebracht, dass eine Zunahme des explosiven Vulkanismus‘ Ursache der Abkühlung war (z. B. Hammer 1977 oder Porter 1986). Andere behaupten eine Verbindung zwischen Gletschervorstößen und Reduktionen der solaren Aktivität (Wigley und Kelly 1989). Beispiele sind die Maunder- und Sporer-Minima (Eddy 1976) und auch Pittock 1983.

Man beachte, dass diese gleichen Argumente vorgebracht werden zur Erklärung des gegenwärtigen „Stillstands“ der Temperatur. Man beachte auch den Namen von Tom Wigley, ehemaliger Direktor der CRU und eine zentrale Figur im IPCC-Bericht 2001, der die Abkühlung der Sonnenaktivität zuschrieb. Folgende Referenz wird zitiert:

Wigley, T M L , and PM Kelly, 1989 Holocene climatic change, 14C wiggles and variations in solar irradiance Phil. Trans. Royal Society London (im Druck).

Offensichtlich ist der Artikel, gelistet als „im Druck“ niemals erschienen, weil er in Wigleys Veröffentlichungs-Liste nicht aufgeführt ist.

Auf Seite 203 des IPCC-Berichtes beobachten sie:

Folglich könnte ein Teil der globalen Erwärmung seit 1850 einer Erholung aus der Kleinen Eiszeit geschuldet sein und nicht einer direkten Folge menschlicher Aktivitäten. Es ist daher wichtig zu erkennen, dass natürliche Variationen des Klimas hervortreten und jede zukünftige, vom Menschen induzierte Änderung modulieren.

All diese Punkte konfrontierten die politische Agenda und widersprachen dieser, dass menschliches CO2 für die globale Erwärmung und später den Klimawandel verantwortlich sei. Die Widerlegung begann 1995 im Zweiten Zustandsbericht (SAR) des IPCC und erreichte ihren Höhepunkt im Dritten Zustandsbericht (TAR) 2001 mit seiner zentralen Abbildung, dem „Hockeyschläger“. Die genaue Bestimmung der Zeitpunkte von Beginn und Ende von MWP und LIA, die Relative Homogenität, war unabdingbar zur Identifikation der zugrunde liegenden Mechanismen. Der Hockeyschläger ,löste‘ dieses Problem, indem er beide Ereignisse kurzerhand eliminierte und die Gestalt eines modernen Schlägers annahm mit einem Fehlerfaktor, der die Zahlen bedeutungslos machte.

Willkommen bei der Klimawissenschaft des IPCC!

Link: http://wattsupwiththat.com/2015/03/22/relative-homogeneity-of-the-medieval-warm-period-mwp-and-the-little-ice-age-lia/

Übersetzt von Chris Frey EIKE




FDP MdL: Grüne Steinzeitökonomie beenden. Für einen Neuanfang in der Energiepolitik.

Mit dem Ausbau erneuerbarer Energien will die Bundesregierung die Energieversorgung in Deutschland auf eine neue Grundlage stellen. Strom soll klimafreundlich, preiswert und versorgungssicher produziert werden. Diese "Energiewende" schaffe Millionen neuer Jobs in der Ökoindustrie und reduziere unsere Abhängigkeit von Öl- und Gasimporten aus den Krisenregionen der Welt. 

Was klingt, wie das energiepolitische "Utopia", ist der ernstgemeinte Anspruch deutscher Energiepolitik. Parteien übertreffen sich in einem Wettbewerb der schönen Worte und guten Absichten. Mit der Realität haben diese aber wenig zu tun. Alle wichtigen Ziele wurden verfehlt. Die deutschen Kohlendioxidemissionen steigen trotz gigantischer Subventionen für Erneuerbare Energie, die Kosten laufen aus dem Ruder, und die Versorgungssicherheit des Stromnetzes ist zunehmend gefährdet. Der flächendeckende Zubau von Solar- und Windkraftanlagen führt zu massiven Konflikten mit dem Natur- und Landschaftsschutz. Immer mehr Bürger wenden sich von der "Energiewende" ab.  

Es ist eine grundlegende Kurskorrektur notwendig. Wir brauchen eine Energiepolitik mit wirtschaftlichem Verstand, eine Energiepolitik, die die Gesetze der Physik versteht und Innovationen fördert statt bremst. Energieerzeugung muss sich an den Bedürfnissen der Verbraucher, nicht an politischen Ideologien ausrichten. Statt grüner Steinzeitökonomie müssen endlich wieder marktwirtschaftliche Prinzipien und ordnungspolitische Grundsätze Platz greifen, wenn Deutschland energiepolitisch nicht völlig gegen die Wand gefahren werden soll….

….Das seither mehrfach angepasste EEG garantiert auf zwanzig Jahre Vergütungen für die Erzeugung von Ökostrom und verpflichtet die Versorger zum Anschluss der Anlagen sowie zur Abnahme und Einspeisung von Grünstrom. Mit diesem beispiellosen "Rund-Um-Sorglos-Paket" werden Investoren (fast) alle Risiken und Aufgaben eines Unternehmers per Gesetz zu Lasten der Verbraucher abgenommen. Vermarktung, Preisgestaltung, Produktivität, Innovationen – damit müssen sich die als Pioniere gefeierten Ökoinvestoren nicht beschäftigen. Auch wie die speziellen Herausforderungen von Energieversorgungssystemen, konkret die Sicherstellung der Netzstabilität und Versorgungssicherheit, gemeistert werden sollen, ist nicht deren Problem.

Diese Planwirtschaft hat maßgeblich dazu beigetragen die gesamte Energiewirtschaft, nicht nur in Deutschland, in eine tiefe Krise zu führen.  Wenn Markt und Wettbewerb ausgeschaltet werden, entstehen keine Innovationen, gibt es keine Anreize, etwas zu verbessern und die Produktivität zu erhöhen. Wer sich am Markt behaupten muss, steht dagegen ständig unter Druck, besser und oder günstiger zu werden und ist viel stärker auf den Verbraucher und seine Bedürfnisse orientiert. 

Für Betreiber von Windkraft- und Solaranlagen spielt das alles dagegen keine Rolle. Sie können wie auf einer Insel agieren, losgelöst von allem, was herum passiert. Die Ökostromproduktion ist blind und taub gegenüber allen Impulsen und Signalen des Marktes. Risiken tragen nur die Verbraucher und die nicht subventionierten Wettbewerber im Bereich der konventionellen Stromerzeugung. Doch wenn Markt und Wettbewerb ausgeschaltet werden folgt, Stagnation. Wie aus dem Lehrbuch zeigt das EEG, wie staatswirtschaftlich orientierte Politik die Entwicklung einer preisgünstigen, klimafreundlichen und technisch tragfähigen Energieerzeugung verhindert. 

So haben die deutschen Verbraucher bisher rund 150 Milliarden Euro an Subventionen für Erneuerbare Energien aufbringen müssen. In den letzten Jahren jeweils deutlich mehr als 20 Milliarden Euro. Die deutsche Klimabilanz ist deshalb aber nicht besser geworden. Im Gegenteil: Laut Bundesumweltamt steigen die CO-2 Emissionen Jahr für Jahr. Die Expertenkommission der Bundesregierung schreibt in ihrem aktuellen Bericht, dass das EEG kein Beitrag zu einem effektiven Klimaschutz darstellt und damit das eigentliche Hauptziel verfehlt. Zu einer ähnlichen Bewertung kommt der dritte Teilbericht zum Fünften Sachstandsbericht des IPCC, besser bekannt als "Weltklimarat" der Vereinten Nationen.

….Dieses intelligente und technologieoffene Instrument der europäischen Ebene (Anmerkung der EIKE Redaktion: gemeint ist der ebenso kostentreibende wie unnütze Emissionshandel) wird jedoch in Deutschland durch das dumpfe und starre EEG weitgehend ausgeschaltet. Hierzulande definiert nämlich das Gesetz auf zwanzig Jahre im Voraus, welche Technologien zu welchen Kosten zum Einsatz kommen sollen. So fließt mit über 10 Milliarden Euro jährlich der größte Teil der EEG-Umlage in die Photovoltaik und damit ausgerechnet in die Technologie, die die schlechteste CO-2-Vermeidungsbilanz aufweist. Im Vergleich zu anderen Maßnahmen, zum Beispiel die Modernisierung von Braunkohlekraftwerken in Polen, kostet die Vermeidung einer Tonne CO-2 durch Subventionierung von Solarstrom das Vierzigfache…..  

 

….Auch den komplexen technischen Anforderungen an die Energieversorgung eines modernen Industriestaates wird das planwirtschaftliche EEG nicht einmal im Ansatz gerecht. Es ist gegenüber der Notwendigkeit blind, dass elektrischer Strom aufgrund seiner physikalischen Eigenschaften ein besonderes Gut ist. Für die Versorgungssicherheit eines Stromnetzes ist es irrelevant, ob auf Jahressicht 30 oder 40 Prozent des Verbrauches aus erneuerbaren Energiequellen stammt. Entscheidend ist alleine, ob entsprechend des Lastganges, also der Verlaufskurve des Stromverbrauches, in jedem Augenblick die notwendige Menge an Energie verfügbar ist. Wird zu viel oder zu wenig Strom eingespeist, droht der Netzkollaps. 

Die mit Gas oder Kohle betriebenen konventionellen Kraftwerke können nach dem Bedarf der Verbraucher, also des Lastganges, gesteuert werden. Das gleiche gilt für Kernkraftwerke. Die Verbrauchskurven sind regelhaft, d.h. die Versorger wissen genau, dass die Spitzen werktags zur Mittagszeit erreicht werden und die geringste Leistung sonntags in der Nacht zur Verfügung stehen muss. Im Winter steigt die Kurve gegenüber den Sommermonaten, da beispielsweise mehr Strom für Beleuchtung notwendig ist. Kohle- und Kernkraftwerke arbeiten im Bereich der Grundlast, d.h. rund um die Uhr, Tag für Tag, Jahr für Jahr. Gaskraftwerke werden in der Regel zugeschaltet, um den stundenweisen Mehrbedarf an Leistung zu befriedigen.

Mit dem Ausbau erneuerbarer Energien kommt es zu einem Paradigmenwechsel. Die grundlegenden Vorzeichen der Stromversorgung ändern sich. Wind- und Sonnenstrom werden nämlich nicht so erzeugt, wie es der Energiebedarf der Verbraucher verlangt, sondern wie es das Wetter möglich macht. Logischerweise hängt die Leistung der Solarkraftwerke vom Stand der Sonne ab. Wenn die Sonne untergeht, geht auch die elektrische Leistung dieser Kraftwerke auf Null. 

Die in Deutschland installierte Solarstromleistung betrug im Februar 2015 insgesamt 38,3 Gigawatt. Das entspricht theoretisch der Leistungsfähigkeit von 38 Atomkraftwerken. In den Wintermonaten lässt sich die Sonne bekanntlich aber kaum in unseren Breitengraden sehen, und so standen durchschnittlich nur 2 GW Leistung tatsächlich zur Verfügung, was einer mageren Auslastung von etwas mehr als 5 Prozent entspricht. An den wenigen sonnigen Tagen, beispielsweise am 20. Februar, standen zur Mittagszeit fast 18 GW zur Verfügung. An den bewölkten Tagen schwankte die Leistung dagegen zwischen Null und 6 GW. 

Eine verlässliche Stromversorgung ist auf dieser Basis schlicht unmöglich. Selbst wenn die installierte Solarkraftleistung verzehnfacht würde, wäre eine Stromversorgung aufgrund der Schwankungen nicht möglich. Wenn keine Sonne scheint, kann auch kein Strom erzeugt werden, egal wie viele Solarmodule auf den Dächern und Feldern stehen. An sonnigen Tagen würde die Produktion dagegen durch die Decke schießen und viel zu viel Strom erzeugt, der den Ökoinvestoren bezahlt werden müsste, aber ohne Speichertechnologien völlig unbrauchbar ist. Im Gegenteil: Die Ableitung und Verwertung dieses "Strommülls" führt noch zu erheblichen Zusatzkosten. 

Genau die gleichen technischen Probleme macht auch die Windkraft. Von den 27.000 deutschen Windrädern mit einer installierten Leistung von 40 GW stehen regelmäßig etwa 26.900 Windkraftanlagen still, und zwar nicht nur in den windschwachen Sommermonaten, sondern auch im Januar oder Februar. Schauen wir auf die Zahlen. Im Februar lag die Leistungsspitze der Windkraft bei 24,9 GW, was einer Auslastung von 62,5 Prozent entspricht. Das Minimum wurde bei 0,26 GW (0,7 Prozent Auslastung) erreicht. Mit jeder neuen Windkraftanlage wird diese Leistungsschere größer und das Problem der Netzstabilität verschärft. Obwohl in ganz Deutschland Windkraftanlagen verteilt sind, kommt es zu keiner Glättung der eingespeisten Leistungen. Die Wetterdaten belegen vielmehr eine enge Korrelation der windstarken deutschen Regionen. Da, wo viel Wind weht, weht er meistens gleichzeitig, und wenn Flaute herrscht, dann im ganzen Land. 

Im Verhältnis zur Sonnenstromerzeugung hat die Windenergieerzeugung eine noch größere Schwankungsbreite, worunter die Versorgungssicherheit leidet. Auch wenn nicht genau absehbar ist, wie groß die Solarstromleistung von Tag zu Tag ist, fällt Solarstrom regelmäßig in den Mittagsstunden an, weil der Lauf der Sonne einem Naturgesetz folgt. Da die Verbrauchsspitzen auch zur Mittagszeit auftreten, ist Solarstrom in der gegenwärtigen Größenordnung zwar sehr teuer, aber technisch verwertbar. 

Der Wind weht dagegen nach keinen festen Regeln und so fällt die gesamte deutsche Windstromerzeugung manchmal tagelang am Stück aus, weil Hochdruckwetterlagen vorherrschen. Und wenn der Wind dann einmal stark weht, dann eben auch in den Nachtstunden, in denen der Stromverbrauch am geringsten ist. Windkraft ist also nicht nur sehr unzuverlässig, ist erzeugt Strom eben auch dann, wenn er am wenigsten benötigt wird. Von allen erneuerbaren Energiequellen ist Windkraft deshalb am schlechtesten geeignet und stellt das Stromnetz vor die größten Herausforderungen.

Für den Rhythmus eines modernen Industriestaates hat der beschriebene Paradigmenwechsel – weg vom Vorrang des Bedarfes, hin zum Vorrang der Verfügbarkeit – dramatische Auswirkungen. Synchronisierung und Standardisierung von Handeln sind grundlegende Voraussetzungen moderner, arbeitsteiliger Gesellschaften. Das Arbeitsleben beginnt morgens und endet abends und nicht dann, wenn Strom gerade da ist oder nicht. 

Alles, was jetzt unter so schönen Schlagwörtern wie "Lastgangmanagement" oder "smart grids" als Lösungsvorschlag präsentiert wird, ist nichts anderes als der Versuch, die beschriebenen grundlegenden technischen Probleme erneuerbarer Energien zu übertünchen. Das berühmte Beispiel von der Waschmaschine, die in Zukunft nachts laufen soll, wenn gerade Windstrom im Netz ist, hat mit den realen Problemen nichts zu tun. 

Die großen Stromverbraucher, die Deutsche Bahn, die Betriebe der chemischen Industrie, die Unternehmen in der Metallverarbeitung oder die Rechenzentren, sind auf eine sichere, kontinuierlich verfügbare und im internationalen Vergleich bezahlbare Stromversorgung angewiesen. Deutsche Werke und Standorte sind Teil eng vernetzter, länderübergreifender Wertschöpfungsketten. Schon die Idee, dass eine Exportnation wie Deutschland seine Energieversorgung und damit auch die Produktionsprozesse nach dem Lauf der Sonne oder der momentanen Windgeschwindigkeit ausrichten könne, ist lächerlich.

Ohne konventionelle Kraftwerke ist eine sichere und bezahlbare Stromversorgung auf absehbare Zeit nicht möglich. Das Geschäftsmodell der Ökoinvestoren basiert immer auf der Inanspruchnahme und Betriebsbereitschaft von Kohle-, Gas- und Kernkraftwerken. Für die Betreiber dieser systemrelevanten Kraftwerke wird es dagegen immer schwerer, die Kosten am Markt zu refinanzieren. Die großen deutschen Energieunternehmen und die kommunalen Stadtwerke machen deshalb gegenwärtig massiv Verluste. Ihr  Geschäftsmodell wird durch den Ausbau der erneuerbaren Energien zerstört. 

Je mehr subventionierter Ökostrom an der Strombörse zu billigsten Preisen auf den Markt gebracht wird, umso geringer ist der mögliche Erlös der Betreiber konventioneller Kraftwerke. Von Jahr zu Jahr sinken die durchschnittlichen Strompreise an der Börse. Besonders die klimafreundlichen Gaskraftwerke haben unter dieser Entwicklung zu leiden, weil sie die relativ höchsten Erzeugungspreise aufweisen. 

Die Bundesnetzagentur verbietet jedoch unter Verweis auf die Rechtslage das Abschalten konventioneller Kraftwerke, weil die Versorgungssicherheit sonst gefährdet sei. Während Ökoinvestoren üppige Subventionen kassieren, werden andere Unternehmen also kalt enteignet….. 

…..Die Frage der Energieerzeugungskosten und der Gesamtkosten des Systems ist ein ganz entscheidender Faktor in der Bewertung der Energiepolitik. Auch in diesem Punkt weist das EEG eine verheerende Bilanz auf. Der frühere Bundesumweltminister Jürgen Trittin hatte den Deutschen versprochen, dass die Förderung erneuerbarer Energien im Monat so viel koste wie eine Kugel Eis. 

In Wahrheit wurden bisher schon rund 150 Milliarden Euro an EEG-Umlage von den Verbrauchern kassiert, in den letzten Jahren jeweils über 20 Milliarden Euro. Da die Ökosubventionen auf 20 Jahre gewährt werden, kommen zu den bereits gezahlten Summen noch die zukünftigen Zahlungsverpflichtungen. Experten rechnen aktuell mit Gesamtkosten von 500 Milliarden Euro. Zum Vergleich:  Für die Zukunftsthemen Bildung und Forschung gibt der Bund gerade 13,7 Milliarden Euro aus. 

Den größten Teil der Ökosubventionen bringen die gewerblichen Verbraucher auf. Dadurch sinkt deren Wettbewerbsfähigkeit mit negativen Auswirkungen auf Wertschöpfung und Arbeitsplätze. Deutschland hat nach Dänemark, dem Windkraftland Nummer Eins, die höchsten Strompreise Europas. Industriebetriebe müssen laut Bundesverband der Energiewirtschaft mehr als 10 Cent je Kilowattstunde für Steuern, Abgaben und Umlagen aufbringen. In Frankreich und den Niederlanden sind es nur 3,7 Cent, in Polen und Großbritannien sogar nur 2,6 Cent.  International agierende Unternehmen werden deshalb genau rechnen, ob sie weiter in Deutschland investieren oder ihre Kapazitäten im Ausland, etwa im Billigstromland USA oder in Asien, (noch schneller) hochfahren.

Eine Umfrage der landeseigenen Hessen-Agentur (2013) bei allen hessischen Unternehmen mit mehr als 250 Beschäftigten kommt zu einem klaren Ergebnis: Mehr als zwei Drittel der Befragten rechnen mit negativen oder sehr negativen Auswirkungen und die Hälfte der Unternehmen erwartet eine sinkende Wettbewerbsfähigkeit.

Aus dem grünen Jobwunder, das vielfach besprochen wurde, ist dagegen nichts geworden. Die mit Milliardensubventionen aufgebaute Solarindustrie ist jäh auf den Boden der Tatsachen aufgeschlagen. Der Beschäftigungsbericht "Erneuerbare Energien" (2013) des Bundeswirtschaftsministeriums weist beispielsweise bei Solarunternehmen im Vergleich zum Vorjahr ein Minus von 56 Prozent beim Umsatz und ein Minus von 44 Prozent bei den Jobs aus. 

Statt sonniger Aussichten stehen Rekordverluste und Insolvenzen auf der Tagesordnung. Statt neuer Jobs gibt es Massenentlassungen. Und das alles, obwohl der Weltmarkt für Solarmodule weiter wächst. Die deutsche Solarwirtschaft ist ein Paradebeispiel dafür, dass sich mit Subventionen langfristig kein wirtschaftlicher Erfolg erkaufen lässt. Verwöhnt von Anfangserfolgen und der starken heimischen Nachfrage haben deutsche Hersteller den Anschluss an die Weltspitze, die heute ausnahmslos aus Asien kommt, verloren.

Wer die deutsche Energiepolitik und das EEG nüchtern betrachtet, muss zu der Erkenntnis kommen, dass diese Politik gescheitert und die zentralen Ziele verfehlt wurden. Das EEG sollte deshalb schnellstmöglich abgeschafft werden. Außer der Ökolobby braucht niemand dieses Gesetz. Wir müssen die Energiepolitik wieder vom Kopf auf die Füße stellen und die grüne Steinzeitökonomie beenden…… 

..Entscheidend darf nicht sein, ob die Art und Weise der Stromerzeugung der politischen Führung unseres Landes gefällt, sondern ob sie im Sinne des Klimaschutzes und der Verbraucher wirklich funktioniert, und zwar so, dass Deutschland auch im internationalen Wettbewerb und angesichts sinkender Weltmarktpreise für Energie und Rohstoffe bestehen kann. Deshalb müssen wir mehr Markt erlauben und den Wettbewerb zwischen den Anbietern und Technologien fördern, da nur so Innovationen entstehen können.

Rene Rock ist Parlamentarischer Geschäftsführer
und energiepolitischer Sprecher der FDP Fraktion
r.rock@ltg.hessen.de

Hier den gesamten Artikel lesen




Warum ich ein „Klimaskeptiker“ bin

Ich bin skeptisch hinsichtlich des Narrativs, dass die Menschen der Hauptgrund für den Klimawandel sind und dass dieser in naher Zukunft katastrophale Ausmaße annehmen wird. Es gibt keinen wissenschaftlichen Beweis für diese Hypothese, aber trotzdem sagt man uns, dass „die Debatte vorüber“ und die Wissenschaft „settled“ ist.

Mein Skeptizismus beginnt mit der von den Gläubigen in Anspruch genommen Sicherheit, dass sie das globale Klima mit einem Computermodell vorhersagen können. Die alleinige Grundlage für die Klimawandel-Szenarien des Untergangs ist die Hypothese, dass der steigende atmosphärische CO2-Gehalt infolge der Emissionen fossiler Treibstoffe die Erde auf unerträgliche Temperaturen aufheizt.

Tatsache ist, dass sich die Erde sehr allmählich seit 300 Jahren erwärmt seit dem Ende der Kleinen Eiszeit und lange vor dem starken Verbrauch fossiler Treibstoffe. Vor der Kleinen Eiszeit, also während der Mittelalterlichen Warmphase, haben die Wikinger Grönland und Neufundland kolonisiert, als es dort wärmer war als heute. Und während der Römerzeit war es ebenfalls wärmer, lange bevor fossile Treibstoffe die Zivilisation revolutionierten.

Der Gedanke, dass es katastrophal werden würde, falls der CO2-Gehalt weiter zunimmt und die mittlere globale Temperatur um ein paar weitere Grad steigen würde, ist grotesk und absurd.

Jüngst hat das IPCC zum x-ten Mal angekündigt, dass wir dem Untergang geweiht sind, es sei denn, wir bringen unsere CO2-Emissionen auf Null. Im Endeffekt bedeutet dies, dass wir entweder die Bevölkerung auf Null reduzieren oder um 10.000 Jahre zurückgehen müssen, bevor die Menschen sich daran machten, Wälder zu roden, um Landwirtschaft zu betreiben. Diese ins Spiel gebrachte Kur ist viel schlimmer als die Anpassung an eine wärmere Welt, falls es überhaupt dazu kommt.

Interessenkonflikt des IPCC

Aufgrund seiner Verfassung steckt das IPCC in einem hoffnungslosen Interessenkonflikt. Seine Aufgabe ist es, ausschließlich die menschlichen Gründe der globalen Erwärmung zu betrachten, nicht aber die vielen natürlichen Gründe, derentwegen sich das Klima seit Milliarden von Jahren ändert. Wir verstehen die natürlichen Gründe des Klimawandels nicht besser als unser Wissen darum, ob Menschen gegenwärtig überhaupt etwas mit dem Klimawandel zu tun haben. Falls das IPCC zu dem Ergebnis kommen würde, dass die Menschen nicht die Ursache der Erwärmung sind oder auch, dass eine Erwärmung eher positiv als negativ ist, hätte das IPCC unter seinem jetzigen Mandat seine Daseinsberechtigung verloren. Um zu überleben, muss es die Apokalypse beschwören.

Entweder man erweitert das Mandat des IPCC, alle möglichen Gründe für Klimawandel zu untersuchen, oder man sollte es abwickeln.

Politisches Kraftwerk

Aus vielen Gründen ist der Klimawandel zu einer mächtigen politischen Kraft geworden. Erstens ist er universell: man sagt uns, dass alles auf der Welt bedroht ist. Zweitens, er spricht die beiden mächtigsten menschlichen Motivationsgrundlagen an: Angst und Schuld. Wir fürchten, dass Auto fahren unsere Enkel töten wird und fühlen uns darob schuldig.

Drittens gibt es eine mächtige Interessen-Konvergenz unter den maßgeblichen Eliten, die das Klima-„Narrativ“ unterstützen. Umweltaktivisten verbreiten Angst und erheben Spenden; Politiker scheinen die Welt vor dem Untergang zu bewahren; die Medien verfügen über ein Füllhorn von Sensation und Problemen, über die sie berichten können; wissenschaftliche Institutionen fordern Milliarden an Zuwendungen ein, gründen ganze neue Abteilungen und schüren ängstigende Szenarien; Industrien wollen grün aussehen und gewaltige öffentliche Subventionen für Projekte abgreifen, die anderenfalls ökonomische Verlierer wären, wie Windparks und Solarfirmen. Viertens, die Linken sehen den Klimawandel als ein perfektes Mittel zur Umverteilung des Wohlstands von den Industrie- zu den Entwicklungsländern – und zur UN-Bürokratie.

Also macht man uns weis, dass Kohlendioxid ein „giftiger“ „Verschmutzer“ ist, den man unterbinden muss. Dabei handelt es sich in Wirklichkeit um ein farb-, geruch- und geschmackloses Gas, welches das wichtigste Nahrungsmittel für das Leben auf der Erde ist. Ohne einen CO2-Gehalt über 150 ppm würden alle Pflanzen absterben.

Menschliche Emissionen retteten den Planeten

Während der letzten 150 Millionen Jahre war der CO2-Gehalt stetig zurückgegangen (durch die Pflanzen), und zwar von etwa 3000 ppm auf etwa 280 ppm vor der Industriellen Revolution. Falls sich dieser Trend fortsetzt, würde der CO2-Gehalt der Luft demnächst unter das zur Erhaltung des Lebens notwendige Maß sinken. Die Verbrennung fossiler Treibstoffe und die Urbarmachung von Land für die Landwirtschaft haben den CO2-Gehalt sich von seinem tiefsten Niveau der Erdgeschichte auf nunmehr 400 ppm erholen lassen.

Aber auch mit 400 ppm sind alle unsere Ernteerträge, Wälder und natürlichen Ökosysteme immer noch auf Diät bzgl. CO2. Das optimale CO2-Niveau für das Pflanzenwachstum unter der Voraussetzung ausreichender Wasser- und Nährstoffvorräte wären etwa 1500 ppm, also fast viermal die heutige Menge. Treibhausgasbesitzer führen CO2 zu, um den Ertrag zu verbessern. Bauernhöfe und Wälder werden besser gedeihen, falls das CO2-Niveau weiter steigt.

Wir haben keinerlei Beweise dafür, dass der steigende CO2-Gehalt ursächlich ist für die geringe Erwärmung der Erde während der letzten 300 Jahre. Es gab während der letzten 18 Jahre keinerlei Erwärmung mehr, obwohl wir in dieser Zeit 25% allen CO2 jemals emittiert haben. Kohlendioxid ist unabdingbar für das Leben auf der Erde, und Pflanzen würden gerne noch viel mehr davon haben. Was also sollten wir unseren Kindern empfehlen?

Kohlendioxid muss gefeiert werden

Die dem IPCC Hörigen haben uns eine Vision einer sterbenden Welt aufgrund von CO2-Emissionen vermittelt. Ich sage, dass die Erde sehr viel mehr tot wäre ohne CO2, und mehr davon wäre ein positiver Faktor zur Ernährung der Welt. Lassen Sie uns Kohlendioxid feiern!

Link: http://news.heartland.org/newspaper-article/2015/03/20/why-i-am-climate-change-skeptic

Übersetzt von Chris Frey EIKE