1

Stuss mit lustig: Torsten Albig erklärt die Energiewende

Albig beginnt seine Darlegung mit einer düsteren, fast schon enigmatischen Schelte:

„Es ist typisch deutsch, dass wir wegen eineinhalb Cent mehr für erneuerbare Energien das ganze Projekt in Frage stellen.“

Leider lässt er offen, worauf sich die „eineinhalb Cent“ beziehen. Jürgen Trittins Versprechen kann er nicht meinen, eine Familie müsste für Grünenergie den Gegenwert einer Kugel Eis im Monat bezahlen, also etwa einen Euro. Die Familieneisrechnung liegt heute bei 240 und nicht bei 12 Euro im Jahr. Vom Energiewendejahr 2011 bis 2015 stieg die EEG-Umlage von 3,53 auf 6,17 Cent pro Kilowattstunde, zu zahlen von allen Stromverbrauchern mit Ausnahme der energieintensiven Industrie. Seit der Einführung des Erneuerbare-Energien-Gesetzes im Jahr 2000 zahlten die Verbraucher entweder direkt oder durch feste Verpflichtungen für die Zukunft mehr als 400 Milliarden Euro Subventionen für Windparks, Solardächer und Biogastanks. Zu welchem Endzweck, das macht Albig deutlich:

„Die deutsche Volkswirtschaft stemmt gerade eine heroische Aufgabe, nämlich aus Kernkraft und Kohle auszusteigen, ohne die Industriegesellschaft aufzugeben. Und wir zeigen, wie das geht.“

Aus Kernkraft und Kohle auszusteigen wäre in der Tat ein heroisches Unterfangen. Selbst im Energiewunderland Deutschland fließt nach wie vor 97 Prozent der Energie aus fossilen und nuklearen Quellen. Strom macht ungefähr 20 Prozent des gesamten Energieverbrauchs aus. Aber selbst da stammten 2014 immer noch 43,2 Prozent der Elektrizität aus der Kohleverstromung und 15,8 Prozent aus Kernkraftwerken. Macht zusammen mit Gas immer noch gut 75 Prozent.

Ein paar Zeilen später wird deutlich, wie Albig die große Energietransformation kalkuliert – nämlich so ähnlich wie die eineinhalb Cent mehr:

„In Schleswig-Holstein haben in der Vergangenheit drei Atomkraftwerke jährlich knapp 30 Terrawattstunden Strom produziert. Rund 6000 Windwühlen werden bis 2020 die gleiche Menge Strom liefern. Grünen Strom, der weder unseren Planeten verstrahlt, noch das Klima kippen lässt!“

Abgesehen davon, dass die Atomkraftwerke im Norden und anderswo weder den Planeten verstrahlt haben noch das Klima – also die Wetterdaten der letzten 30 Jahre – umkippen konnten, abgesehen davon verwechselt Albig wie fast alle Politiker die installierte Leistung von Windparks mit der produzierten Strommenge. Das ist ungefähr so, als würde jemand von der Motorleistung eines BMW auf die technische Höchstgeschwindigkeit schließen und danach die Fahrzeit von Kiel nach Berlin berechnen. An sehr guten Küstenstandorten kommen Windräder auf etwa 4000 Volllaststunden. Das entspricht einer Jahresauslastung von 46 Prozent. Der Wirtschaftswissenschaftler Hans-Werner Sinn überschlug einmal grob, welche Zahl an Windrädern mit drei Megawatt Leistung nötig wäre, um rein rechnerisch – das Problem der fehlenden Stromspeicher einmal ignoriert – so viel Strom zu liefern wie ein Atomkraftwerk. Das Ergebnis: 6 800 Rotoren müssten aufgestellt werden, um einen einzigen Kraftwerksblock mit einem Gigawatt Kapazität zu kompensieren.

Auch ein bisschen Kritik an der Energiewende bringt Albig an, damit sein Ökoenergielob nicht ganz so werblich ausfällt:
„Heute wissen wir, dass wir den erneuerbaren Energien auch mit weniger Geld zum Durchbruch verholfen hätten. Wir sollten die Fehler, die wir gemacht haben, nicht wiederholen; aber wir können sie leider auch nicht rückwirkend beseitigen.“

Ein paar Milliarden weniger hätten auch gereicht? Den subventionsfinanzierten Zweitporsche des Landverpächters hätte es bei näherer Betrachtung gar nicht gebraucht? Bei jeder kleiner Anpassung der Vergütungssätze in den letzten 15 Jahren stimmte die Grünstromlobby zuverlässig ein orchestriertes Wutgeheul an: Da wurde „die Energiewende abgewürgt“, ein paar Cent weniger Subventionen bedeuteten „Kürzungsorgien“, den Untergang des letzten Eisbären und selbstverständlich Verrat an unseren Kindern, von denen wir die Welt nur geleast haben. Und immer mittemang im Hungermarsch der Sonnen- und Windinvestoren: Politiker der Grünen und der SPD, fest untergehakt mit Greenpeace und Grünstromverbänden.

Nein, rückgängig machen kann Torsten Albig die große Umverteilung der Vergangenheit nicht. Tausendmal schade! Aber er könnte wenigsten jetzt für die Abschaffung der dreistesten Wohltaten für die Grünbarone werben. Warum müssen Stromkunden beispielsweise über die „Offshore-Haftungsumlage“ zwangsweise einspringen, wenn die Projekte auf hoher See nicht laufen wie geplant? In keiner anderen Branche gibt es eine derartige Gewinngarantie bei gleichzeitigem Ausschluss jedes wirtschaftlichen Risikos.  Ganz ähnlich läuft es für Windmüller an Land: Passt der Strom nicht mehr ins überlastete Netz (was durch den Albig und Genossen vorangetriebenen Ausbau immer öfter geschieht), dann muss die theoretisch lieferbare Energie trotzdem zum subventionierten Preis abgenommen und von allen Stromnutzern bezahlt werden. Dieser Phantomstrom nennt sich „Ausfallarbeit“. Für die Nichtenergie zahlten die Deutschen 2014 erstmals über 100 Millionen Euro.

In diesem Sommer fahren die konventionellen Kraftwerke zudem besonders hektisch nach unten, weil sie die Solarstromflut ins Netz lassen müssen, die Vorrang genießt – und sie müssen nach Sonnenuntergang ebenso schnell wieder hochgejagt werden. Nach Angaben der vier Netzbetreiber dürfte dieser so genannte Redispatch, der nur durch den grünen Zufallsstrom nötig wird, etwa eine Milliarde Euro kosten. Darüber, wenigstens die Verbraucher nicht mehr für den Phantomstrom aus Windmühlen abzukassieren und Grünstromproduzenten an den von ihnen verursachten Kosten zu beteiligen, verliert Albig kein Wort. Der „Spiegel“ fragt auch nicht nach.
Müssten Offshore-Windfirmen ihr Risiko selbst tragen, dürften Windmüller an Land nur produzierten Strom in Rechnung stellen und müssten sie sich an Folgekosten beteiligen, dann brächen allerdings massenhaft Kalkulationen zusammen – trotz EEG-Subventionen von gut 22 Milliarden Euro im Jahr.

Möglicherweise stellt Albig ja im Jahr 2020 fest: Hätte man auch günstiger haben können. Aber leider – im Nachhinein kann man nichts mehr ändern. Oder, um es mit Albig zu sagen: „Ja, wenn man aus dem Rathaus kommt, ist man immer schlauer.“

*33/2015

Mehr über die Energiewende und ihre Kosten in:

Alexander Wendt „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“ 170 Seiten, E-Book 3,99 Euro, Taschenbuch 9,90 Euro,http://www.alexander-wendt.com

Übernommen von ACHGUT hier

Nachtrag der Redaktion:

Von T. Albig stammt auch der selbstbewusste Spruch eines SPD Granden, der zwar niemals in der Wirtschaft sein Geld verdienen musste, aber dafür umso lockerer anderen Leuten dafür die Leviten liest.

„Ein Windpark auf der Insel Fehmarn bringt Renditen, für die ich Herrn Ackermann von der Deutschen Bank wüst gescholten hätte“, sagt er dem SPIEGEL.

Selbstkritik? Fehlanzeige!




Das Problem mit permanent erzeugter grüner Angst

Das Verbreiten düsterer Prophezeiungen ist das, wovon Umweltgruppen leben, und es ist ein Markt mit vollem Wettbewerb, so dass sie übertreiben. Nahezu jede Umweltbedrohung der letzten Jahrzehnte war an einem bestimmten Punkt erheblich übertrieben. Pestizide haben nicht zu einer Krebs-Epidemie geführt, wie Rachel Carson in ihrem Buch aus dem Jahr 1962 „Silent Spring“ behauptet hatte; saurer Regen hat nicht die Wälder in Deutschland zerstört, wie es die Partei Die Grünen in den achtziger Jahren proklamiert hatte; das Ozonloch hat nicht zur Erblindung von Kaninchen und Lachsen geführt, wie Al Gore in den neunziger Jahren gewarnt hatte. Aber Vorsorgemaßnahmen gegen Pestizide, sauren Regen und Ozon-Ausdünnung haben sich als machbar erwiesen, so dass vielleicht kein zu großer Schaden entstanden ist.

Anders sieht es beim Klimawandel aus. Das Vorhaben von Präsident Obama, die CO2-Emissionen in den USA aus Stromkraftwerken bis zum Jahr 2030 um 32% unter das Niveau des Jahres 2005 zu drücken, würde die globalen Emissionen um 2% reduzieren. Bis dahin könnte dieser Plan den Daten der EIA zufolge, die von dem Statistiker Kevin Dayaratna von der Heritage Foundation analysiert worden waren, die USA bis zu einer Billion Dollar an verlorenem BIP gekostet haben. Die erforderlichen Maßnahmen zur Dekarbonisierung der Weltenergie werden noch drastisch teurer sein. Daher sollten wir schon sicherstellen, dass wir das Problem nicht übertreiben.

Aber es geht nicht nur darum, dass Umweltbedrohungen die Gewohnheit haben, sich als viel weniger schlimm zu erweisen als befürchtet. Sondern es geht auch darum, dass sich die Medizin gegen diese Bedrohungen als viel schlimmer erweist als die Krankheit selbst.

Genveränderte Organismen (GMOs) sind dafür ein aktuelles Beispiel. Nach 20 Jahren und Milliarden Mahlzeiten gibt es immer noch keinen Beweis, dass Genfood der menschlichen Gesundheit abträglich ist, sondern vielmehr reichlich Beweise ihrer umweltlichen und humanitären Vorteile. Der mit Vitaminen angereicherte Gen-Reis („goldener Reis“), hätte jahrelang viele Leben retten können, aber gegen jeden Schritt zu dessen Produktion leistete Greenpeace Widerstand. Die Auberginen-Züchter in Bangladesh besprühen ihre Plantagen bis zu 140 mal während einer Saison mit Pestiziden, womit sie ihre eigene Gesundheit riskieren, weil die insektenresistente Gen-Version der Pflanze durch Umweltaktivisten heftig bekämpft wird. Die Opposition gegenüber GMOs hat mit Sicherheit bereits zahlreiche Menschenleben gefordert.

Abgesehen davon, was ist durch Genfood ersetzt worden? Bevor transgene Ernteverbesserungen eingeführt worden waren, bestand das Hauptverfahren des Züchtens neuer Varianten in der „Mutations-Züchtung“. Dabei wird die DNA einer Pflanze zufällig geteilt mittels Gammastrahlen oder chemischen Mutagenen, und zwar in der Hoffnung, dass einige der so entstandenen Monster bessere Eigenschaften oder neue Charakteristiken aufweisen. Goldene Gerste zum Beispiel, ein Favorit unter organischen Züchtern, wurde so erzeugt. Diese Methode ist nach wie vor nicht Gegenstand irgendwelcher spezieller Vorschriften, während der präzise Transfer gut bekannter Gene, der unmöglich weniger sicher sein kann, diesen Vorschriften ausgesetzt ist.

Umweltaktivisten opponieren gegenwärtig gegen neonicotinoide [?] Pestizide mit der Begründung, dass sie Bienenvölker schädigen können, obwohl selbst die EU festgestellt hat, dass die Anzahl der Honigbienen während der 20 Jahre seit deren Einführung zugenommen hat. Die Auswirkung in Europa war, dass Landwirte dazu gebracht wurden, wieder auf viel schädlichere Pyrethroid-Insektizide zurückzugreifen, welche auf den Feldern versprüht werden, was viele unbeteiligte Insekten schädigt. Und falls man den Europäern gestattet hätte, GMOs anzubauen, wären viel weniger Pestizide erforderlich. Und wieder: grüne Vorsichtsmaßnahmen lassen die Risiken zunehmen.

Kernkraft war seit Jahrzehnten Gegenstand erbitterten Widerstands der Umweltlobby wegen deren vermeintlicher Gefährlichkeit. Und doch führt Kernkraft zu weniger Todesfällen pro erzeugter Energieeinheit als selbst Wind- und Solarenergie. Verglichen mit fossilen Treibstoffen hat die Kernkraft 1,84 Millionen mehr Todesfälle verhindert als verursacht. Dies geht aus einer Studie von zwei NASA-Forschern hervor. Die Opposition gegen Kernkraft hat Menschenleben gekostet.

Genauso basiert die verbreitete Opposition gegen Schiefergas fast vollständig auf Mythen und Lügen, wie Wissenschaftskorrespondent Ronald Bailey vom Reason Magazine berichtet hat. Diese Gegnerschaft hat das Wachstum der Gasproduktion auf dem Festland in Europa und Teilen der USA substantiell verzögert. Dies bedeutete mehr Abhängigkeit von Gas offshore, von russischem Gas und Kohle – von denen alle viel höhere Sicherheitsprobleme und Umweltrisiken aufweisen. Opposition gegen Fracking hat die Umwelt geschädigt.

Kurz gesagt, die Umweltbewegung hat wiederholt den Menschen den Zugang zu sichereren Technologien verwehrt und sie gezwungen, auf schmutzigere, riskantere oder schädlichere Verfahren zurückzugreifen. Sie sind darauf spezialisiert, die Bedenken vieler Menschen gegen alles Neue auszubeuten.

Viele übertriebene frühere Behauptungen über die Gefahren des Klimawandels sind inzwischen widerlegt. Das IPCC hat explizit frühere Behauptungen aufgegeben, denen zufolge die Malaria immer schlimmer wird, dass der Golfstrom versiegen wird, dass die Eisschilde von Grönland und der Westantarktis verschwinden werden und dass eine plötzliche Methan-Freisetzung aus der Arktis wahrscheinlich ist, dass der Monsun kollabieren oder lang anhaltende Dürren immer wahrscheinlicher werden.

Auf der anderen Seite der Medaille ist inzwischen der finanzielle, humanitäre und umweltliche Preis der Dekarbonisierung der Energieversorgung viel höher als erwartet – im Gegensatz zu unseren Erfahrungen mit saurem Regen und der Ozonschicht. Trotz rückläufiger Kosten bei Solarpaneelen sind die Systemkosten der Solarenergie, einschließlich Landverbrauch Transport, Wartung und nächtlicher Ersatz sehr hoch. Die Umweltauswirkungen von Windenergie – Entwaldung, Tötung von Greifvögeln, der Abbau seltener Erden – sind viel schlimmer als erwartet. Der statistischen Übersicht der Weltenergie von BP zufolge lieferten diese beiden Energiequellen im Jahre 2014 gerade mal 1,35% der Weltenergie, was die Emissionen um sogar noch einen geringeren Prozentsatz hat zurückgehen lassen.

Luftverschmutzung in Häusern, hauptsächlich durch Kochen über Holzfeuern darin, ist der größte Verursacher umweltlicher Todesfälle. Geschätzt werden dadurch vier Millionen Menschen pro Jahr getötet, wie die nichtkommerzielle Website Science News meldet, SciDev.net. Diese Menschen mit fossil erzeugtem Strom und Gas zu versorgen ist der billigste und schnellste Weg, deren Leben zu retten. Zu argumentieren, dass das immer kleiner werdende Risiko eines gefährlichen Klimawandels in vielen Jahrzehnten etwas ist, um das man sich viel mehr Sorgen machen muss, ist unanständig und schamlos.

Mr. Ridley ist Autor von „The Rational Optimist: How Prosperity Evolves” (HarperCollins, 2010) und ein Mitglied des Britischen Oberhauses. Seine Familie achtet Land für den Kohlebergbau im nördlichen England.

The Wall Street Journal, 14 August 2015

Link: http://www.thegwpf.com/matt-ridley-the-green-scare-problem/

Übersetzt von Chris Frey EIKE




Langzeit-Temperaturmessungen: Besser im Boden als in Wetterhütten Das wahre Klimaarchiv steckt im Erdboden

Im Falle der Atmosphäre wird dies durch den Einfluss des Wassers in seinen verschiedenen Aggregatzuständen nochmals komplizierter. Bei festen Körpern ausreichender Größe lassen die Temperaturänderungen im Inneren dagegen eine ziemlich exakte Bilanzierung der Zu- und Abflüsse an thermischer Energie zu. Wenn es um klimatische Langfristtrends geht, sind Messungen der Temperatur im Boden daher aussagekräftiger als solche in der Luft.

Die Verhältnisse sind bei festen Körpern vergleichsweise einfach, weil hier der Transport von Materie nur eine untergeordnete Rolle spielt. Sie weisen meist ein streng geordnetes Kristallgitter auf, in dem die Atome bzw. Moleküle ortsfest an ihre Nachbarn gebunden sind. Diese Bindungen kann man sich wie Federn vorstellen, wodurch die einzelnen Gitterteilchen hin und her schwingen können, Bild 1. Je mehr Energie ihnen zugeführt wird, desto heftiger werden diese Schwingungen. Da sie mit ihren Nachbarn elastisch verbunden sind, geben sie diesen dabei auch einen Teil ihrer Energie weiter. Dieser Energietransfer erfolgt ständig und in alle Richtungen: Jedes Gitterteilchen gibt jedem seiner Nachbarn immer wieder einen Teil seiner Schwingungsenergie ab und erhält zeitlich versetzt von diesen auch wieder Energie zurück. Allerdings geben Gitterelemente, die ein hohes Maß an Schwingungsenergie aufweisen, im statistischen Mittel an ihre Nachbarn mehr Energie ab, als sie von diesen zurückerhalten. Deshalb hat Wärme in einem festen Körper die Tendenz, sich gleichmäßig in alle Richtungen auszubreiten bzw. zu verteilen. Sie „fließt“ von Bereichen hoher Temperatur weg und hin zu Bereichen mit niedrigerer Temperatur. Allerdings erfolgt die sogenannte Wärmediffusion im Unterschied zum Wärmetransport durch Konvektion, wie er in Flüssigkeiten und Gasen dominiert, ziemlich langsam.

Wichtig ist die Erkenntnis, dass Wärmetransportvorgänge – grob vereinfacht – mit dem Verhalten von Wasser vergleichbar sind, welches bekanntlich immer die Tendenz hat, nach unten zu fließen, und schließlich sogar im Boden versickert. Wärme fließt immer von Bereichen mit höherem Temperaturniveau in Richtung auf Bereiche mit niedrigerer Temperatur und nicht umgekehrt. Das zugrundeliegende Naturgesetz ist der zweite Hauptsatz der Thermodynamik. Er hat zahlreiche Ausprägungen, doch genügt es für unsere Betrachtungen festzuhalten, dass Wärme nicht von selbst von einem Körper niedriger Temperatur auf einen Körper höherer Temperatur übergehen wird.

 

Bild 1. Im Kristallgitter fester Körper sind die Gitterelemente mit ihren Nachbarn fest verbunden. Die Verbindungen sind elastisch wie Federn, so dass die Teilchen hin und her schwingen können (Grafik: Autor)

Die Wärmediffusion im Boden erfolgt äußerst langsam

Diese für feste Körper geltenden Zusammenhänge treffen in eingeschränkter Form auch für Konglomerate bzw. Haufwerke fester Körper wie z.B. wie Sand oder Erdreich zu. Die geringe Geschwindigkeit der Wärmeübertragung ist dabei für das Nachvollziehen von Wetter- und Klimavorgängen von Vorteil. Einen Eindruck von der Trägheit dieser Vorgänge vermittelt der Tagesgang der Temperaturprofile im Boden zwischen Oberfläche und 1 m Tiefe an einem typischen Sommertag, Bild 2.

Bild 2. Tagesgang der Temperaturprofile im Boden zwischen Oberfläche und 1 m Tiefe an einem typischen Sommertag [BAYE]

Das hier aufgeführte Beispiel ist typisch für die Verhältnisse bei einem mitteleuropäischen Kulturboden (unbewachsener sandiger Lehmboden) an einem weitgehend wolkenlosen Sommertag. Man erkennt deutlich, dass die Oberfläche am Tag stark aufgeheizt wird, die Wärme aber nur langsam tiefer eindringt. Nachts kühlt sich der Boden – ebenfalls von der Oberfläche ausgehend – wiederum sehr stark ab, bis sich der Zyklus mit dem nächsten Tag wiederholt. Die Eindringtiefe der Temperatur für einen Tageszyklus liegt je nach Bodenart bei lediglich etwa 10 bis 50 cm.

Wenn man sich die Darstellung in Bild 2 am Mittag bzw. um Mitternacht ansieht, so fällt vor allem die enorme Spanne von 35 K (Kelvin, entspricht °C) zwischen Minimal- und Maximaltemperaturen auf. Das ist mehr als doppelt so hoch wie die typischerweise von meteorologischen Stationen in 2 m Höhe gemessene Tagesdifferenz von etwa 15 K. Auf die Gründe hierfür wird zu einem späteren Zeitpunkt in einem weiteren Artikel, der sich mit der Strahlungsbilanz der Erdoberfläche beschäftigt, näher eingegangen.

Der Erdboden ist ein Langzeit-Temperaturarchiv

Die geringe Geschwindigkeit des Wärmetransports im Erdboden hat für die Klimawissenschaft den Vorteil, dass er einen zwar trägen, aber dafür getreuen Speicher für die mittel- bis längerfristige Entwicklung der Temperatur am jeweiligen Ort darstellt (mathematisch ausgedrückt funktioniert er wie ein Integrator). Mit zunehmender Tiefe hält er für Zeiträume von Tagen und Jahren bis zu Jahrhunderten getreu fest, wie viel Wärmeenergie er erhalten und wieder abgegeben hat 1). Dabei werden die kurzfristigen Schwankungen mit zunehmender Tiefe der Messstelle immer stärker herausgefiltert, Bild 3. In einer Tiefe von etwa 12-18 m ist nur noch der Jahreseinfluss feststellbar. Geht man noch tiefer, so kann man nach [PAUL] Schwankungen der Oberflächentemperatur auf Zeitskalen von hunderten bis tausenden von Jahren rekonstruieren (vergleichbar mit Klimaarchiven anderer Art z.B. in Eiskernen). Ab einer gewissen Tiefe beginnt sich dann die sich aus dem Inneren der Erde nach oben ausbreitende Wärme des Erdinneren bemerkbar zu machen und überlagert letztlich die von der Oberfläche ausgehenden Einflüsse.

Bild 3. Jahresgang der Temperatur in der Luft sowie im Erdboden im Jahre 2013. Bei 12 m ist faktisch nur noch der Gesamt-Jahreseinfluss zu erkennen (Daten: WIKI und PIK, Grafik: Autor)

An der in Bild 3 aufgetragenen Lufttemperatur ist außerdem zu erkennen, dass die Bodentemperatur weniger auf die Lufttemperatur reagiert als vielmehr auf die erhaltene und wieder abgegebene Menge an Strahlungsenergie. Zu erkennen ist dies an der Tatsache, dass der Boden in Tiefen bis zu 1 m im Sommer teils weit höhere mittlere Temperaturen aufweist als die Luft. Dies beweist, dass – statistisch gemittelt – nicht die Luft den Boden aufheizt, sondern umgekehrt der Boden mit der aus Sonnenstrahlung stammenden Wärme die Luft. Dies gilt sogar im Winter.

Der Boden verrät die wahren Klimaveränderungen

Eine weitere interessante Erkenntnis aus dem Verlauf der Bodentemperaturen ergibt sich dann, wenn man sie mit dem Langzeitverlauf der Lufttemperaturen über den verfügbaren Aufzeichnungszeitraum von 1898 bis 2014 vergleicht, Bild 4.

Bild 4. Vergleich des Verlaufs der Bodentemperaturen in 12 m Tiefe und der Lufttemperatur über den Zeitraum 1898 bis 2014 (Daten: WIKI und PIK, Grafik: Autor)

Beim Blick auf die Gleichungen des linearen Trends erkennt man, dass die Lufttemperaturen mit fast der doppelten Rate gestiegen sind wie die Temperaturen des Bodens. Natürlich wäre ein Vergleich über noch längere Zeiträume von großem Interesse, doch stehen dafür leider keine entsprechenden Zeitreihen zur Verfügung.

Beim Blick auf den Verlauf der Bodentemperaturen fällt auf, dass der Trend im Zeitraum zwischen 1898 und 1990 – bis auf einen massiven mehrjährigen Peak auf bis zu 10,5 °C in den 30er Jahren – nahezu ohne Anstieg verläuft. Erst ab 1990 ist eine deutliche Trendänderung nach oben festzustellen, doch wurde der Wert von 10,5 °C erst wieder im Jahr 2007 erreicht. Seither verharrt die 12-m-Bodentemperatur auf diesem hohen Niveau.

Betrachtet man den linearen Trend, so fällt auf, dass der Anstieg der 12-m-Bodentemperatur mit ca. 0,5 K/ Jahrhundert nur knapp halb so hoch liegt wie derjenige der Lufttemperatur mit ca. 0,9 K/ Jahrhundert.

Interessant ist jetzt natürlich die Frage, welche Einflüsse zum deutlichen Anstieg der Bodentemperaturen in den letzten beiden Jahrzehnten geführt haben, denn dies fällt weitgehend in jene Zeitperiode ab 1998, in welcher der von den meteorologischen Stationen weltweit ermittelte globale Anstieg der Temperaturen nahezu zum Stillstand gekommen ist. Die Lufttemperaturen in Deutschland zeigen für diesen Zeitraum allerdings einen deutlichen Trend nach oben.

Die Sonne führt Regie

Eine plausible Erklärung erhält man, wenn man den Verlauf der Temperaturentwicklung in 12 m Tiefe mit denjenigen ebenfalls in Bild 4 eingetragenen Mittelwerten der Sonnenscheindauer vergleicht. Die Ähnlichkeit beider Kurvenverläufe weist darauf hin, dass ihre Kopplung sehr eng sein dürfte. Der Anstieg der Temperaturen sowohl im Boden als auch in der Luft ist eindeutig mit einer Zunahme der Sonnenscheindauer von ca. 4,5 h/ d auf inzwischen 4,9 h/d verknüpft. Das entspricht einer Zunahme um fast 9 % innerhalb des Beobachtungszeitraums von 116 Jahren. Dass zusätzlich eingestrahlte Sonnenenergie auch eine Temperaturerhöhung zur Folge hat, bedarf eigentlich keiner weiteren Erläuterung. Dass viele Klimawissenschaftler, statt diesen einfach nachzuweisenden und völlig plausiblen Zusammenhang näher zu erforschen, sich auf das Thema „Treibhausgas CO2“ gestürzt haben, ist angesichts der überragenden Bedeutung der Sonnenenergie für den Wärmehaushalt der Erde schwer nachzuvollziehen.

Wo bleiben Wolken und Regen?

Weiterer interessanter Aspekt dieser Auswertung ist, dass sie den gängigen Erklärungsansätzen der Vertreter des „menschengemachten katastrophalen Klimawandels“ (AGW, Anthropogenous Global Warming) nicht entspricht. Mit zunehmender mittlerer Temperatur der Meeresoberflächen und der Böden sind zwangsläufig eine höhere Wasserverdunstung und ein höherer Wassergehalt der – wärmer gewordenen – unteren Lufthülle verknüpft. Die logischerweise zu erwartenden Folgen wären eine verstärkte Wolkenbildung und damit eine geringere Sonneneinstrahlung. Stattdessen ist – zumindest für Deutschland – genau das Gegenteil zu beobachten, Bild 5.

Bild 5. Während die mittlere Sonnenscheindauer in Deutschland den letzten 116 Jahren deutlich zugenommen hat, sind die Niederschlagsmengen nahezu unverändert geblieben (Daten: PIK, Grafik: Autor)

Dies deutet darauf hin, dass die Verhältnisse wesentlich komplexer sind, als dies von den meisten AGW-Vertretern dargestellt wird. Möglicherweise wirken sich langfristige zyklische Schwankungen der Strömungsverhältnisse in der Atmosphäre so aus, dass sie die eigentlich zu erwartende erhöhte Wolkenbildung nebst entsprechender Verringerung der Sonneneinstrahlung völlig überlagern. Auch weist der Trend der letzten Jahre eine Stagnation der Niederschlagshöhen aus, was mit erhöhter Sonnenscheindauer nicht zusammenpasst. Aus diesen Fakten ergeben sich natürlich Fragen, die im Rahmen dieses bewusst kurz gehaltenen Aufsatzes jedoch nicht mehr behandelt werden können. Hierauf werde ich zu einem späteren Zeitpunkt zurückkommen.

Fred F. Mueller

Ich danke Hr. Dipl.-Met. Hans-Dieter Schmidt für Anregungen und fachliche Unterstützung

1)     Mathematisch lässt sich das Verhalten des Bodens als Integrator beschreiben. Es bildet sich darin eine sich nach unten fortpflanzende gedämpfte Wärmewelle. Deshalb ergeben sich auch mit zunehmender Tiefe Verschiebungen der Phasenlage des Temperaturgangs im Verhältnis zur Oberfläche. Bei 12 m Tiefe ist eine Verschiebung um rund 180 ° festzustellen, hier treten Minima und Maxima also im Gegentakt zum Jahreszeitverlauf am Boden auf. Das zeigt sich beispielsweise auch, wenn man die Korrelation der Werte für die Lufttemperaturen und diejenigen für die Bodentemperaturen ermittelt: Vollzieht man dies für die Werte aus identischen Jahren, so erhält man lediglich einen eher unbefriedigenden Korrelationskoeffizienten von 0,46. Berücksichtigt man jedoch einen Versatz von einem Jahr, so verbessert er sich auf 0,59.

Quellen

[BAYE] Bayer, A.: Modellierung der Temperaturentwicklung oberflächennaher Boden- und Gesteinsschichten arider Gebiete unter Berücksichtigung der solaren Einstrahlung und der Topographie. Diplomarbeit, im Studiengang Technische Geowissenschaften, Institut für Geophysik der Universität Stuttgart

[PAUL] Das Klimasystem und seine Modellierung (05-3103) – André Paul Atmosphärischer Strahlungstransport und Klima: Nachträge.

[PIK] http://www.pik-potsdam.de/services/klima-wetter-potsdam/klimazeitreihen/bodentemperatur

[WIKI] http://de.wikipedia.org/wiki/Zeitreihe_der_Lufttemperatur_in_Deutschland




Für den SWR sind gefühlte Wirklichkeiten: Ekelerregend!

SWR – Redaktion Landesschau
betr.: Landesschau vom 18.06.2015 18:45 Uhr, Anmoderation zu einem Beitrag über das Elektroautomobil ab Minute 28:35

Sehr geehrte Damen und Herren,
Sehr geehrte Redaktion,

in der o. a. Sendung der Landesschau Baden-Württemberg wurde der Beitrag zur Alltagspraxis eines Elektroautomobils von Florian Weber wie folgt anmoderiert: „Auch wenn es auf den Straßen kaum mehr vorangeht, mit dem Auto zur Arbeit, zum Einkaufen, übers Wochenende zu Freunden, aus dem Alltag ist die Karre kaum wegzudenken, also: Immer mehr Feinstaub und ekelerregende CO2-Werte in den Städten im Land.“

Ausgehend davon, dass auch beim SWR in der Sache korrekt recherchiert wird, wirft die Aussage von Florian Weber Fragen auf, die seine journalistische Arbeit und journalistische Integrität in Zweifel ziehen.

Feinstaub entsteht nicht nur durch Verbrennungsmotoren, sondern „auch durch Bremsen- und Reifenabrieb sowie durch die Aufwirbelung des Staubes von der Straßenoberfläche.“ (Info: Bundesumweltamt). Demnach tragen auch Elektroautomobile zum Feinstaubaufkommen bei.

Kohlenstoffdioxid (CO2) ist, wissenschaftlich unbestritten, ein farbloses und geruchloses Gas, das in der Atmosphäre einen Anteil von rund 0,04 Prozent hat. Wie kann ein farbloses, also unsichtbares und vom Geruchsinn des Menschen nicht wahrzunehmendes Gas „ekelerregend“ sein?
Kohlendioxid gilt als Grundbaustein des Lebens und entsteht bei allen Lebensvorgängen. Die menschliche Ausatemluft enthält vier Prozent CO2, also das 100fache der Atemluft, und selbst mit diesem Anteil kann bei einer Notfallbeatmung (Mund-zu-Mund-Beatmung) Leben gerettet werden.

Ein Moderator, der Kohlenstoffdioxid (CO2) als „ekelerregend“ bezeichnet, setzt sich dem Vorwurf aus, parteilich motiviert und propagandistisch seine Stellung beim SWR auszunutzen.

Gerne erwarte ich Ihre Stellungnahme. Eine Richtigstellung des Sachverhalts an entsprechendem Sendeplatz ist angemessen.

Mit freundlichen Grüßen
G. W.

Sehr geehrter Herr W.

Vielen Dank für Ihr Mail und Ihr aufmerksames Ohr, was unsere Sendung und
die Moderationen betrifft.

Das Eine ist sicherlich die wissenschaftlich korrekte Einordnung von Werten wie Feinstaub oder Kohlenstoffdioxid, die in einer wissenschaftlichen Sendung ihren Platz hat.

Das Andere ist eine Anmoderation in einem Magazin wie der Landesschau – wo es eher um gefühlte Wirklichkeiten geht; eben darum, daß Verbrennungsmotoren stinken, laut sind und Dreck machen. Deshalb war die Wortwahl von Florian Weber zwar sachlich gesehen nicht ganz korrekt, aber sie drückt das allgemeine Gefühl aus, daß herkömmliche Autos “dreckiger” sind als E-Autos.

In der Hoffnung, Ihren Ärger gelindert zu haben mit freundlichen Grüßen

Carola Grau (hier die Kontaktadresse)
SWR Fernsehen
Red. Landesschau

Sehr geehrte Frau Grau, sehr geehrte Landesschau-Redaktion,

vielen Dank für die rasche Entgegnung. In der Sache geht es überhaupt nicht um meinen privaten Ärger, sondern um die Festschreibung und bewußte Verbreitung einer Unwahrheit in der von mir bemängelten Anmoderation.

Sie führen aus, dass es Ihrer Redaktion eher um eine „gefühlte Wirklichkeit“ geht; aber wissentlich wird über den sehr beliebten und möglicherweise am häufigsten gesehenen Sendeplatz „Landesschau“ Unwahres verbreitet. Der Gehalt der Aussage muss deshalb hinterfragt werden: 

Wenn in Übereinstimmung der SWR-Redaktion behauptet wird, Kohlenstoffdioxid ( CO2 ) sei ekelerregend, obwohl das Gas ob seiner Eigenschaften durch Menschen überhaupt nicht wahrgenommen werden kann, liegt die Vermutung nahe, dass die Redaktion damit eine Botschaft transportiert, die entgegen des wissenschaftlichen Faktums auch von politischen Akteuren gern im Zusammenhang um die
Veränderlichkeit des Klimas gebetsmühlenartig verbreitet wird.

Dem Wesen nach übernimmt damit die Landesschau die Propaganda einschlägig bekannter Gruppierungen, die durch das Verteufeln von
Kohlenstoffdioxid ( CO2 ) zielgerichtet gesellschaftlich Einfluss nehmen.

Im Interesse einer freien und unabhängigen Presse ist die Berichtigung der gezielten Falschbehauptung, wie schon angeregt, geboten, um den Eindruck abzuwehren, der SWR sei propagandistisch unterwandert.

Gestatten Sie mir noch eine Anmerkung zur Verwendung des Komparativs: Wenn das eine Auto dreckiger ist als das andere, dann ist jenes eben auch dreckig. Die Behauptung, E-Autos seien „dreckig“, möchte ich aber so nicht stützen.

Mit freundlichen Grüßen
G. W.

Das wars. Die gefühlte Wirklichkeit in einem öffentlich-rechtlichen Funkhaus, das sich durch eine “Demokratieabgabe” finanziert, hat eben mit der wirklichen Wirklichkeit wenig gemeinsam.

 Übernommen von ACHGUT hier




Problematische Adjustierungen und Divergenzen (hier einschließlich der Juni-Daten)

Bild rechts: Graphik Steven Goddard

In dem Beitrag mit den April-Daten wurden in den Schlussfolgerungen folgende Fragen gestellt: „Warum laufen die neuen Satelliten- und Beobachtungs-Datensätze in unterschiedliche Richtungen? Kann man sich irgendeinen Grund vorstellen, dass beide gleichzeitig korrekt sein können?“

Prof. Robert Brown von der Duke University hat zu diesen Fragen eine exzellente Antwort hier gegeben. Um dieser Antwort die gebührende Aufmerksamkeit zu verschaffen, folgt hier der vollständige Kommentar:

Rgbatduke 10. Juni 2015

Die beiden Datensätze sollten nicht divergieren. Punkt! Es sei denn, unsere Kenntnisse über die thermische Dynamik der Atmosphäre sind falsch. Das heißt, ich werde meine „Meinung“ hinzufügen und belegen, dass diese auf einfacher Atmosphärenphysik beruht, die sich in jedem relevanten Lehrbuch findet.

Dies bedeutet nicht, dass sie nicht systematisch differieren, sondern es bedeutet einfach, dass die zunehmende Divergenz ein starker Beweis eines Bias‘ ist bei der Berechnung des Oberflächen-Datensatzes. Dieser Bias kommt nicht wirklich überraschend angesichts der Tatsache, dass jede neue Version von HadCRUT und GISS insgesamt Gegenstand von Abkühlung in der Vergangenheit und/oder Erwärmung in der Gegenwart ist. Das ist genauso unwahrscheinlich wie wenn man zehn- oder zwölfmal eine Münze wirft und sich jedes Mal ,Zahl‘ für beide Produkte zeigt. Tatsächlich, wenn man hier die Null-Hypothese aufstellt, dass „die Korrekturen der globalen Temperaturanomalien unverzerrt“ sind, beträgt der p-Wert dieser Hypothese weniger als 0,01, geschweige denn 0,05. Falls man beide wesentlichen Erzeugnisse zusammen betrachtet, ist er sogar kleiner als 0,001. Mit anderen Worten, es steht absolut außer Frage, das die Daten von GISS und HadCRUT mindestens an diesem Punkt hoffnungslos korrumpiert sind.

Eine Art und Weise, mit der sie korrumpiert sind, ist der bekannte Wärmeinsel-Effekt (UHI), bei dem städtische Daten oder solche von unangemessen aufgestellten Wetterstationen eine lokale Erwärmung zeigen, die nicht der räumlichen Mitteltemperatur in der umgebenden Landschaft entspricht. Dieser Effekt ist substantiell und eindeutig erkennbar, wenn man beispielsweise bei Weather Underground hineinschaut und die Temperaturverteilung an persönlichen Wetterstationen (PWS) in einem Gebiet betrachtet, in dem sich sowohl innerstädtische als auch ländliche Messpunkte befinden. Die städtischen Temperaturen zeigen konstant eine Temperatur, die um 1 bis 2 K höher liegt als in der umgebenden Landschaft. Temperaturen an Flughäfen haben oftmals das gleiche Problem, da sich die Messpunkte willkürlich direkt neben den großen asphaltierten Rollbahnen befinden. Primär werden sie dazu gebraucht, um den Piloten und den Fluglotsen zu helfen, Flugzeuge sicher landen zu lassen, und nur sekundär werden die dort gemessenen Temperaturen fast unverändert als „die offizielle Temperatur“ jenes Ortes verwendet. Anthony Watts hat hierzu systematische Untersuchungen angestellt, und es handelt sich um ein ernstes Problem bei allen wesentlichen Anomalien der gemessenen Temperaturen.

Das Problem mit dem UHI besteht darin, dass er systematisch zunimmt, unabhängig davon, was das Klima macht. Städtische Zentren wachsen immer weiter, mehr Einkaufszentren werden gebaut, mehr Straßen zugepflastert, und all das dehnt sich immer mehr aus, womit der Abstand zwischen den schlecht aufgestellten offiziellen Wetterstationen und der nächstgelegenen unberührten Landschaft immer größer wird.

HadCRUT trägt dem UHI in keiner Weise Rechnung. Falls es das tun würde, müsste die Korrektur im gesamten Datensatz eine mehr oder weniger gleichmäßige Subtraktion sein, die proportional zur globalen Bevölkerung ist. Diese Korrektur wäre natürlich eine abkühlende Korrektur und nicht eine erwärmende, und während es unmöglich ist zu sagen, wie groß diese Korrektur ist, wenn man sich nicht durch die unbekannten Details wühlt, wie HadCRUT berechnet wird und aus welchen Daten.

Bei GISS ist es sogar noch schlimmer. UHI-Korrekturen werden zwar angebracht, doch endet dies entweder neutral oder negativ. Das ist so, anstatt dass der UHI, der relativ zur Vergangenheit eine abkühlende Korrektur erfordert im Vergleich zur Schätzung unverzerrter globaler Temperaturen, zu einer Erwärmungs-Korrektur führt. Als ich das erkannte, war ich sprachlos – und voller Bewunderung für das Team, dass diese Untersuchung durchgeführt hatte. Ich möchte, dass sie für mich meine Steuern berechnen. Am Ende kommt heraus, dass die Regierung mir Geld schuldet.

In der Wissenschaft jedoch stehen sowohl GISS als auch HadCRUT (und auch alle anderen Temperaturen schätzenden Institutionen, die gleiche Verfahren anwenden) vor einem ernsten, ernsten Problem. Sicher können sie Schlagzeilen ausstreuen, bei denen die Gegenwart umgeschrieben und der Stillstand hinweg geschrieben wird. Sie können ihre politischen Herren zu Gefallen sein und ihnen ermöglichen eine skeptische (und empfindliche!) Öffentlichkeit davon zu überzeugen, dass wir hunderte Milliarden Dollar ausgeben müssen, um ultimativ die Emission von CO2 zu stoppen, was gut über eine Billion Dollar anwachsen könnte, wenn wir dem Rest der Welt „helfen“ müssen, Gleiches zu tun. Sie können die Alarmisten in ihrem Glauben bestärken, dass ihre wissenschaftliche Verlogenheit dem höheren Ziel dient, den „Planeten zu retten“. Aber die Wissenschaft ist unabhängig von ihren menschlichen Wünschen oder Notwendigkeiten! Eine fortgesetzte Divergenz zwischen jedem wesentlichen Temperaturindex einerseits und RSS/UAH andererseits ist unfasslich und ein einfacher Beweis, dass die Temperaturindizes korrumpiert sind.

Um es direkt zu sagen, die Divergenz ist schon jetzt groß genug, um die Augenbrauen zu heben, und wird nur ein wenig durch die Tatsache kaschiert, dass RSS/UAH nur etwas über 35 Jahre lang sind. Falls die Betreiber von HadCRUT und GISS TEMP nur ein Minimum an Verstand hätten, würden sie intensiv daran arbeiten, die Gegenwart abzukühlen, um sie besser zu den Satellitendaten passend zu machen, anstatt sie nach oben zu korrigieren und die schon jetzt wachsende Divergenz noch größer werden zu lassen. Kein Atmosphärenphysiker wird eine systematische Divergenz zwischen beiden akzeptieren angesichts der Tatsache, dass beide notwendigerweise eine Adiabate aufweisen, die sowohl gut verstanden als auch direkt messbar ist (z. B. mit Wetterballonen). Mit diesen wiederholten Messungen konnten die genauen Zusammenhänge zwischen den Temperaturen am Boden und in der unteren Troposphäre auf vorhersagbare Weise validiert werden. Die [Feucht-]Adiabate beträgt im Mittel 6,5°C pro 1000 m. Temperaturen der unteren Troposphäre beispielsweise aus RSS erfassen hauptsächlich die Schicht der Atmosphäre um 1500 m über Grund und glätten von Natur aus sowohl mit der Höhe als auch mit der Umgebung (d. h. es werden nicht Temperaturen an bestimmten Punkten gemessen, sondern die gemittelte Temperatur eines Volumens über einem Gebiet auf der Erdoberfläche). Damit wichten sie die lokale Erwärmung über städtischen Gebieten korrekt in der tatsächlichen globalen Anomalie, und sie sollten auch gewichtet werden, um die durch CO2 verursachte Erwärmung zu schätzen.Letzteres kann man aber besser in ungestörten ländlichen Gebieten oder noch besser in vollständig unbewohnten Gebieten durchführen wie der Sahara (wo es nicht wahrscheinlich ist, dass es eine starke Wasserdampf-Rückkopplung gibt).

RSS und UAH werden direkt und regelmäßig durch Ballonaufstiege bestätigt und mit der Zeit auch untereinander. Sie sind nicht zwanglos oder ungeprüft. Sie werden allgemein akzeptiert als genaue Repräsentationen von LTTs (und des atmosphärischen Temperaturprofils allgemein).

Es verbleibt aber die Frage, wie akkurat/präzise diese Messungen sind. RSS durchläuft einen ausgeklügelten Monte Carlo-Prozess zur Ermittlung von Fehlerbandbreiten, und zusammengefasst lässt sich sagen, dass sie wahrscheinlich auf 0,1 bis 0,2°C von Monat zu Monat genau sind (ähnlich den Fehlerbehauptungen bei HadCRUT4). Sie sind jedoch viel genauer, wenn man über Monate oder Jahre glättet, um einen Trend abzuschätzen, da allgemein erwartet wird, dass der Fehler nicht einem Bias unterliegt. Auch dies nimmt man für HadCRUT4 an, aber all das bedeutet nur, dass eine Trend-Differenz ein ernstes Problem der Konsistenz darstellt angesichts des Umstandes, dass sie durch die ALR [?] verbunden sein müssen und die Präzision sogar Monat für Monat angemessen ist, um es zu über 95% sicher zu stellen,

[Hier weiß ich einfach nicht weiter. Der Satz lautet im Original: „Again this ought to be true for HadCRUT4, but all this ends up meaning is that a trend difference is a serious problem in the consistency of the two estimators given that they must be linked by the ALR and the precision is adequate even month by month to make it well over 95% certain that they are not, not monthly and not on average.“ Anm. d. Übers.]

Falls die Divergenzen weiter anwachsen, möchte ich vorhersagen, dass das gegenwärtige Grummeln über die Anomalie zwischen den Anomalien sich zu einem absoluten Aufruhr verstärken wird, der sich nicht legen wird, bis die Anomalie-Anomalie gelöst ist. Der Auflösungsprozess – falls die Götter es gut mit uns meinen – wird eine ernsthafte Bewertung der aktuellen Reihe von „Korrekturen“ an HadCRUT und GISS TEMP sein, was der Öffentlichkeit vor Augen führen wird, dass diese Korrekturen ausschließlich nach oben erfolgt waren sowie auch die Tatsache, dass der UHI ignoriert oder als negativ berechnet worden ist.

rgb

Weitere Informationen zu GISS und UHI gibt es hier. [Die Qualität der umfassenden Arbeiten von Kowatsch und Kämpfe zu diesem Punkt wird aber nicht erreicht. Anm. d. Übers.].

——————————————

In den folgenden Abschnitten sollen wie zuvor die jüngsten Fakten gezeigt werden. Die Informationen werden in drei Abschnitten und einem Anhang dargelegt. Der erste Abschnitt wird zeigen, wie lange einige Datensätze keine Erwärmung mehr zeigen. Im Moment haben nur die Satellitendaten flache Verläufe über mehr als ein Jahr. Im zweiten Abschnitt wird gezeigt, wie lange viele Datensätze keine statistisch signifikante Erwärmung mehr zeigen. Im dritten Abschnitt wird gezeigt, wie sich das Jahr 2015 derzeit im Vergleich zum Jahr 2014 sowie den wärmsten Monaten und Jahren jemals macht. Für drei der Datensätze war 2014 das wärmste Jahr. Im Anhang werden die Abschnitte 1 und 2 auf andere Weise illustriert. Graphiken und eine Tabelle sollen den Sachverhalt verdeutlichen.

Abschnitt 1

Diese Analyse verwendet den jüngsten Monat, für den Daten verfügbar sind bei WoodForTrees.com (WFT). Alle Daten bei WFT sind auch auf den unten genannten speziellen Quellen verfügbar. Wir beginnen mit der Gegenwart und gehen zurück bis zum am weitesten in der Vergangenheit liegenden Monat, wo die Neigung mindestens etwas negativ in mindestens einer Berechnung ist. Falls also die Neigung von September 4 X 10↑-4, aber von Oktober -4 X 10↑-4 ist, lassen wir die Zeit ab Oktober laufen, so dass uns niemand vorwerfen kann, unehrlich zu sein wenn wir sagen, dass die Neigung ab einem bestimmten Monat flach verläuft.

1. Bei GISS ist die Neigung in keiner nennenswerten Periode flach.

2. Bei Hadcrut4 ist die Neigung in keiner nennenswerten Periode flach.

3. Bei Hadsst3 ist die Neigung in keiner nennenswerten Periode flach.

4. Bei UAH ist die Neigung flach seit März 1997 oder seit 18 Jahren und 4 Monaten (bis Juni nach Version 6.0)

5. Bei RSS ist die Neigung flach seit Januar 1997, also seit 18 Jahren und 6 Monaten (bis Juni).

Die nächste Graphik zeigt einfach die Linien, um Obiges zu illustrieren. Die Länge der Linien zeigt die relativen Zeiten, in denen die Neigung Null ist. Zusätzlich zeigt die aufwärts geneigte blaue Linie oben, dass der CO2-Gehalt während dieses Zeitraumes stetig zugenommen hat.

Graphik: www.WoodForTrees.org – Paul Clark

Wenn man zwei Dinge plottet so wie ich es getan habe, zeigt nur das Linke eine Temperaturanomalie.

Die tatsächlichen Zahlen sind bedeutungslos, da die beiden Neigungen im Wesentlichen Null sind. Für CO2 werden keine Zahlen gezeigt. Einige haben gefordert, dass das Protokoll der CO2-Konzentration geplottet werden soll. Allerdings gibt es diese Option bei WFT nicht. Die aufwärts gerichtete CO2-Linie allein zeigt, dass während der CO2-Gehalt während der letzten 18 Jahre stetig zugenommen hat, die Temperaturen flach verlaufen sind für verschiedene Zeiträume in beiden Datensätzen.

Abschnitt 2

Für diese Analyse stammen die Daten von Nick Stokes Trendviewer, verfügbar auf der Website http://moyhu.blogspot.com.au/p/temperature-trend-viewer.html. Diese Analyse zeigt, wie lange es Nicks Kriterien zufolge keine statistisch signifikante Erwärmung mehr gegeben hatte. Die Daten reichen in jedem Datensatz bis zur jüngsten Aktualisierung. In jedem Falle zeigt sich die untere Fehlergrenze negativ, so dass eine Neigung Null im gezeigten Monat nicht ausgeschlossen werden kann.

Nicks Kriterien zufolge hat es in vielen Datensätzen keine statistisch signifikante Erwärmung seit 11 bis 22 Jahren mehr gegeben. C1 steht für das Vertrauenslimit im 95%-Niveau.

Details für die Datensätze:

For UAH6.0: Since October 1992: Cl from -0.009 to 1.742
This is 22 years and 9 months.
For RSS: Since January 1993: Cl from -0.000 to 1.676
This is 22 years and 6 months.
For Hadcrut4.3: Since July 2000: Cl from -0.017 to 1.371
This is 14 years and 11 months.
For Hadsst3: Since August 1995: Cl from -0.000 to 1.780
This is 19 years and 11 months.
For GISS: Since August 2003: Cl from -0.000 to 1.336
This is 11 years and 11 months.

Abschnitt 3

Dieser Abschnitt zeigt Daten über 2015 und andere Informationen in Gestalt einer Tabelle. Die Tabelle zeigt fünf Datensätze, und zwar UAH, RSS, Hadcrut4, Hadsst3, and GISS.

Die Zeilen enthalten Folgendes:
1. 14ra: Dies ist die Endposition für das Jahr 2014 in jedem Datensatz.

2. 14a: Mittlere Anomalie für 2014.

3. Jahr: Dies zeigt das wärmste Jahr jemals für jeden einzelnen Datensatz. Man beachte, dass die Satelliten-Datensätze das Jahr 1998 als das wärmste Jahr zeigen, die anderen aber das Jahr 2014.

4. ano: Das Mittel der monatlichen Anomalien des darüber genannten wärmsten Jahres.

5. mon: Dies ist der Monat, in dem jeder einzelne Datensatz die höchste Anomalie zeigt. Die Monate werden mit den ersten drei Buchstaben eines jeden Monats gekennzeichnet sowie den letzten beiden Ziffern der Jahreszahl.

6. ano: Die Anomalie des darüber genannten Monats

7. y/m: dies ist der längste Zeitraum, in dem die Neigung nicht positiv ist, gezeigt als Jahre/Monate. So bedeutet 16/2, dass die Neigung 16 Jahre und 2 Monate lang Null betrug. Zeiträume kürzer als ein Jahr werden nicht gezählt und als „0“ dargestellt.

8. sig: Dies ist der erste Monat, in dem die Erwärmung Nicks Kriterien zufolge nicht statistisch signifikant ist. Den ersten drei Buchstaben des Monatsnamens folgen die letzten beiden Ziffern für die Jahreszahl.

9. sy/m: Diese Spalte zeigt die Jahre und Monate in Zeile 8. Abhängig vom Zeitpunkt der letzten Aktualisierung können die Monate um einen Monat abweichen.

10. Jan: Anomalie des Januars 2015 für jenen speziellen Datensatz.

11. Feb: Anomalie des Februars 2015 für jenen speziellen Datensatz.

12. bis 15. Entsprechend die Monate 2015 bis Juni-Daten

16. ave: Dies ist die mittlere Anomalie aller Monate bis heute, berechnet durch Addition aller Zahlen geteilt durch die Anzahl der Monate.

17. rnk: Dies ist die Stellung des Jahres 2015, die jeder Datensatz einnehmen würde ohne Berücksichtigung der Fehlerbalken und unter der Annahme keiner Änderungen.

Falls man alle jüngsten Anomalien selbst nachvollziehen möchte:
For UAH, version 6.0 was used. Note that WFT uses version 5.6. So to verify the length of the pause on version 6.0, you need to use Nick’s program.
http://vortex.nsstc.uah.edu/data/msu/v6.0beta/tlt/tltglhmam_6.0beta2
For RSS, see: ftp://ftp.ssmi.com/msu/monthly_time_series/rss_monthly_msu_amsu_channel_tlt_anomalies_land_and_ocean_v03_3.txt
For Hadcrut4, see: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.4.0.0.monthly_ns_avg.txt
For Hadsst3, see: http://www.cru.uea.ac.uk/cru/data/temperature/HadSST3-gl.dat
For GISS, see:
http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt

Um alle Punkte ab Januar 2015 als Graphik zu sehen, siehe die folgende WFT-Graphik. Man beachte, dass die UAH-Version 5.6 gezeigt ist. Die Version 6.0 ist bei WFT noch nicht gezeigt.

www.WoodForTrees.org – Paul Clark

Wie man sieht, beginnen alle Linien an der gleichen Stelle im Januar 2015. Dies macht es einfach, den Januar 2015 mit der jüngsten Anomalie zu vergleichen.

Anhang

Hier werden alle Daten für jeden Datensatz getrennt zusammengefasst. [Ich verzichte hier auf eine Übersetzung, weil es sich doch nur um eine Aufstellung von Zahlen handelt. Die Aussage zu Beginn ist von mir fett hervorgehoben. Anm. d. Übers.]

RSS

The slope is flat since January 1997 or 18 years, 6 months. (goes to June)
For RSS: There is no statistically significant warming since January 1993: Cl from -0.000 to 1.676.
The RSS average anomaly so far for 2015 is 0.304. This would rank it as 6th place. 1998 was the warmest at 0.55. The highest ever monthly anomaly was in April of 1998 when it reached 0.857. The anomaly in 2014 was 0.255 and it was ranked 6th.

UAH6.0

The slope is flat since March 1997 or 18 years and 4 months. (goes to June using version 6.0)
For UAH: There is no statistically significant warming since October 1992: Cl from -0.009 to 1.742. (This is using version 6.0 according to Nick’s program.)
The UAH average anomaly so far for 2015 is 0.204. This would rank it as 4th place. 1998 was the warmest at 0.483. The highest ever monthly anomaly was in April of 1998 when it reached 0.742. The anomaly in 2014 was 0.170 and it was ranked 6th.

Hadcrut4.4

The slope is not flat for any period that is worth mentioning.
For Hadcrut4: There is no statistically significant warming since July 2000: Cl from -0.017 to 1.371.
The Hadcrut4 average anomaly so far for 2015 is 0.685. This would set a new record if it stayed this way. The highest ever monthly anomaly was in January of 2007 when it reached 0.832. The anomaly in 2014 was 0.564 and this set a new record.

Hadsst3

For Hadsst3, the slope is not flat for any period that is worth mentioning. For Hadsst3: There is no statistically significant warming since August 1995: Cl from -0.000 to 1.780.
The Hadsst3 average anomaly so far for 2015 is 0.500. This would set a new record if it stayed this way. The highest ever monthly anomaly was in August of 2014 when it reached 0.644. The anomaly in 2014 was 0.479 and this set a new record.

GISS

The slope is not flat for any period that is worth mentioning.
For GISS: There is no statistically significant warming since August 2003: Cl from -0.000 to 1.336.
The GISS average anomaly so far for 2015 is 0.82. This would set a new record if it stayed this way. The highest ever monthly anomaly was in January of 2007 when it reached 0.97. The anomaly in 2014 was 0.75 and it set a new record. (Note that the new GISS numbers this month are quite a bit higher than last month.)

If you are interested, here is what was true last month:
The slope is not flat for any period that is worth mentioning.
For GISS: There is no statistically significant warming since November 2000: Cl from -0.018 to 1.336.
The GISS average anomaly so far for 2015 is 0.77. This would set a new record if it stayed this way. The highest ever monthly anomaly was in January of 2007 when it reached 0.93. The anomaly in 2014 was 0.68 and it set a new record.

Schlussfolgerung

Vor zwei Monaten war die NOAA das fünfte Rad am Wagen. Seit GISS es NOAA und HadCRUT4 nachgemacht hat, fühlte man sich dort offenbar berufen, den Anpassungen zu folgen, wie es hier dokumentiert ist.

Link: http://wattsupwiththat.com/2015/08/14/problematic-adjustments-and-divergences-now-includes-june-data/

Übersetzt von Chris Frey EIKE




Abkehr vom Klima – Zurück zum Wetter

"Klima“ und Wetter

Alle Welt spricht vom „Klima“, meistens unheilverkündend und drohend. Kaum sind die Katastrophen-Meldungen der letzten „Klima“-Konferenz im Unterbewusstsein des strapazierten Publikums versickert, werden die Katastrophentrommeln zur Einstimmung auf die nächste „Klima"-Konferenz geschlagen.

Bundeskanzlerin und Vizekanzler, beide ehemals Bundes-Umweltminister, sprechen oft und gerne über „Klima“. „Die Grünen“ ohnehin; der angeblich bedrohliche „Klima“-Wandel ist nach dem Atomausstieg das einzig verbliebene Thema ihrer auf Angst und schlechtem Gewissen gegründeten und auf Bevormundung wie Drangsalierung ausgerichteten Politik. Welcher Politiker wollte es sich mit „Die Grünen“ verscherzen? Die nächsten Wahlen kommen bestimmt. Potentielle Koalitionspartner dürfen nicht vergrault werden. Diese Verbeugung vor den „Grünen“ ist weltweit zu beobachten. Als deutliches Beispiel sei das jüngst in Frankreich verabschiedete Gesetz zur „Energetischen Transition“ genannt.  

 
Doch wichtiger als solches Parteienkalkül ist die parteiübergreifende Einigkeit: Die fossilen Energieträger müssen zurückgedrängt werden. Mögen die Gründe für diese wirtschafts-, energie- und umweltpolitische Maxime von Lager zu Lager sehr unterschiedlich sein, in einem Punkt herrscht Einigkeit: Mit „Klima“ lässt sich einzigartig argumentieren, um der Verbrennung von Erdöl, Erdgasund vor allem von Kohle gewaltiges Katastrophenpotential anzuhängen. Denn wer wollte einem politischen Programm widersprechen, nach dem der ansonsten drohende Weltuntergang abgewendet werden soll. Und warum sollte es illegitim sein, einem richtigen und für überaus wichtig erachteten Ziel eine zweifelhafte oder falscheBegründung zu geben? Also ziehen alle die „Klima-Karte“. Das Ziel heiligt die Mittel! Die Drohformel lautet :

.   Verbrennung setzt CO2 frei
.   CO2 ist Treibhausgas
.   Treibhausgas erzeugt „Klima“-Erwärmung
.  „Klima“-Erwärmung verursacht weltweit Katastrophen.

Wie sollten Medien und Öffentlichkeit  bei dieser Konstellation schweigen?  Im Gegenteil: „Klima“ ist intensivst beackertes Lieblingsthema. Im „Klima“-Theater gibt es täglich neue Vorstellungen. Der Schuft ist stets und überall das „Treibhausgas“, der „Klimakiller“, sprich: das CO2.

Und wo bleibt der mündige Bürger? Muss er sich fraglos, ohnmächtig von dem gewaltigen Strom an Daten, Interpretationen, Meinungen und Warnungen zum „Klima“-Wandel in die schier grundlose See von Angst und Bedrohung reißen lassen? Oder gibt es abseits aller Spekulationen, Prognosen und Prophezeiungen doch noch einen Platz der Tatsachen, an dem er mit Vernunft – und nur mit Vernunft – fest und sicher ankern kann?

„Klima“ ist ein vager Begriff. Gleichgültig ob wir vom Wetter-“Klima“, Konsum-“Klima“, Verhandlungs-“Klima“, Raum-“Klima“ sprechen, stets geht es um Erahntes, Erspürtes, Imaginiertes, Interpretierbares und Interpretationsbedürftiges. Nie geht es um einen eindeutigen Sachverhalt, um eine exakt nachprüfbare Tatsache.
Die Weltorganisation für Meteorologie (WMO) definiert „Klima“ als den mindestens dreißigjährigen Durchschnitt von „Wetter“. Folglich ist „Klima“-Wissenschaft die Wissenschaft vom mindestens dreißigjährigen Durchschnitt des Wetters und der Wetterfolgen.

 „Klima“ ist definitionsgemäß ein auf dem Wege der Durchschnitts- und Trendberechnung erzeugtes theoretisches Konstrukt. Wie alle Durchschnitte aus sehr vielen Einzelgrößen ändert sich auch „Klima“, wenn überhaupt, niemals rasch oder gar dramatisch. „Klima“ ist äußerst träge. Wer von dramatischem „Klima“-Wandel“ spricht, hat nichts verstanden. Eher zeigt ein Elefant hohe Sprünge, als dass sich das „Klima“ dramatisch ändert.

Nehmen wir zum Beispiel das für „Klima“-Wissenschaft winzig anmutende Gebiet der Kölner Bucht. Fragen wir ausschließlich nach ihrem durch Temperatur beschriebenen „Klima“. Allein für diese Antwort benötigen wir mindestens 5.256.000 tatsächlich gemessene Werte, nämlich die für mindestens zwanzig Standorte, über mindestens dreißig Jahre, stündlich tatsächlich gemessene Lufttemperatur. Dennoch hätten wir nur eine äußerst magere Teilantwort. Wir wüssten nichts über die Sonnenscheindauer, die Niederschläge, die Windverhältnisse und die Art und Häufigkeit von Extrem-Wetterlagen.

Wir wüssten erst recht nichts zur „Klima-Entwicklung“. Dazu wären die entsprechenden meteorologischen Daten mindestens weiterer dreißig Jahre erforderlich – sowie auf Durchschnitts-Rechnung bestens programmierte Computer.
Praktisch ist immer nur das Wetter. „Klima“ kommt lange, lange nach Wetter. Ohne Wetter gäbe es kein „Klima“. Aber umgekehrt wird es immer Wetter geben, völlig unabhängig davon, ob eine Unmenge von Wetterdaten zu „Klima“ kondensiert wird, oder ob der „Durchschnittswolf“ ungedreht bleibt.

Wetter findet statt. Wetter ist aktuell. Wetter kann sein: schön, gut, schlecht, furchtbar, heiß, warm, kalt, eisig, regnerisch, trocken, windstill, windig, stürmisch, orkanartig usw.. Wetterwechsel können allmählich, rasch, dramatisch sein.
„Klima“ hat keine Folgen. Aber jedes Wetter hat seine eigenen Folgen für Mensch und Natur. Je extremer das Wetter ist, desto extremer sind die Folgen. Auf gefährliche, zerstörerische Wetterereignisse, Wetterlagen kann man versuchen, sich nach besten Kräften vorzubereiten. Wetterschäden kann man so weit wie möglich beseitigen.
An diese Banalitäten gilt es nach Jahren des „Klima“-Wahns und nach Jahren einer an Vagheit kaum zu überbietenden „Klima“-Wandel-Debatte zu erinnern. So wie man weder die „Durchschnittsmutter“  noch ihre „durchschnittlich“ 1,38 Kinder jemals treffen wird, wird man niemals „Klima“ beobachten oder erleben können. Beobachtet und erlebt wird immer das Wetter.

Aber ist den mit „Klima“ Argumentierenden überhaupt an exakter Beobachtung und rationaler Argumentation gelegen? Wollen sie überhaupt vor dem morgen drohenden Unwetter schützen oder die Schäden des gestrigen Unwetters beseitigen? Ist „Klima“ nicht gerade deshalb so beliebt, weil sich auf dem Boden von definitorischer Vagheit und oft weit über die eigene Lebenserwartung hinausreichender Langfristigkeit so herrlich unkontrollierbar und ungestraft spekulieren, warnen und Untergang prophezeien lässt? Liefert „Klimaforschung“ nicht genau das, was sich seit Jahrtausenden als Herrschafts- und Zuchtinstrument bestens bewährt hat:
Katastrophendrohung gepaart mit Heilsversprechen bei  Wohlverhalten.

"Klima-Forschung“

Im letzten Drittel des vorigen Jahrhunderts begann ein bis dahin am Rande existierendes Arbeitsgebiet an Universitäten und außeruniversitären Forschungseinrichtungen mit einer gewaltigen „Landnahme“ bei etablierten Wissenschaften. Das neue Arbeitsgebiet nannte sich „Klima-Forschung“ oder „Klima-Wissenschaft“. Die dienstbar gemachten altehrwürdigen Wissenschaften sind Meteorologie, Ozeanographie, Polarforschung sowie als „Hilfswissenschaften“ Physik, Chemie, Biologie und Mathematik.

Die „Klima-Forschung“ hat einen für „Wissenschaft“ im tradierten Sinne tödlichen Entwicklungsfehler: „Klima-Forschung“ wurde in starken Fesseln der Politik groß gezogen.

Von frühen Tagen an gilt als Finanzierungs-Voraussetzung, dass das „Klima“ erkrankt sei. Das Papier der Bewilligungsbescheide für die gewaltig aufwachsenden Zuwendungen an „Klima-Forscher“ und „Klima-Modellierer“ trug wie ein Wasserzeichen die Prämisse, dass sich das „Klima“ gefahrbringend entwickele, dass für den gesamten Erdball eine riesige Gefahr unübersehbar schrecklicher „Klima“-Folgen bestehe.

Das „Klima“-Katastrophenpotential – eigentlich gemeint sind Wetterfolgen – gab und gibt der Politik den entscheidenden Finanzierungsimpuls. Und die „Klima-Wissenschaft“ setzte und setzt alles daran, dass dieser Katastrophen-Ast, auf dem sie bestens sitzt, wächst und weiter wachsen wird.

Verursacher der „Klima-Misere“ sei der Mensch. Die „Klima-Erkrankung“ sei menschengemacht, also anthropogen. Diese Prämisse des anthropogenen „Klima-Wandels“ ist zu verstehen als Ausdruck eines kollektiven schlechten Gewissens, mindestens als kollektiver Kater nach Jahrzehnten einer rasanten Industrialisierungsparty, auf der die fossilen Primärenergieträger Erdgas, Erdöl und Kohle die Rolle des Champagners inne hatten. Eine rasch an Bedeutung gewinnende Stimmung fragte mit unüberhörbarem Zweifel: „Darf es so weiter gehen?“ Und die „Klima-Wissenschaft“ antwortete so erwartungsgemäß wie eindringlich: „So darf es nicht weiter gehen!“

Mit der Katastrophen-Prämisse eng verbunden ist die Therapie-Prämisse. Da die „Klima-Erkrankung“ die Folge übermäßiger menschenverursachter CO2-Emissionen sei, gelte es zur „Klima-Rettung“ Vorschläge auszuarbeiten, wie die anthropogene CO2-Emission minimiert werden könne. Auch dieser Instrumentalisierung durch die Politik hat die „Klima-Forschung“ stets engagiert entsprochen.

Neben die aus Geistesgeschichte und Philosophie gespeiste, an den Einzelnen gerichtete anthropotechnische Forderung:                                                    
„Du musst Dein Dein Leben ändern“ (vgl. P. Sloterdijk) trat die industrie- und energiepolitische Kollektivforderung: „Wir müssen das Weltklima retten“.
Diese Kollektivforderung trägt unübersehbar religionsähnliche oder religionsersetztende Merkmale wie „unbedingter Wahrheitsanspruch“, „Endzeit-Prophetie“, „Heilsversprechen“, „Fanatismus“, „Intoleranz“.
Die zur Rettung des Weltklimas über eine Minderung der anthropogenen CO2-Emissionen im Einzelnen vorgelegten „wissenschaftlichen“ Anregungen, Vorschläge und Forderungen wurden rasch unübersehbar. Darum riefen bereits 1988 die Vereinten Nationen und die Weltorganisation für Meteorologie eine zwischenstaatliche Organisation (IPCC) ins Leben mit der Aufgabe, Ordnung, Übersicht und politische Bewertung in die wissenschaftlichen „Klima-Befunde“ zu bringen.
Auftragsgemäß hat das IPCC bisher fünf Sachstandsberichte sowie mehr als zehn Sonderberichte vorgelegt.

Die Sachstandsberichte sind jeweils zweigeteilt in einen kompakten politischen Teil sowie einen äußerst umfangreichen Materialteil. Der Materialteil enthält die Originaltexte zu den Ergebnissen aktueller „klima-wissenschaftlicher“ Forschungsarbeiten.

Die Kurzfassung ist als politisch orientierte Lese- und Interpretationshilfe zum Materialteil gedacht. Sie richtet sich an die Entscheider in den das IPCC tragenden Ländern. Sie wird von politisch ausgewählten Autoren verantwortet. die von den Regierungen dieser Länder benannt werden. Diese Regierungsvertreter „aller Herren Länder“ verhandeln in langwierigen Konferenzen und unüberschaubaren Abstimmungsprozeduren den Zustand wie die voraussichtliche Entwicklung des weltweiten „Klima“. Die politische Kurzfassung ist daher das Ergebnis von politischen und wirtschaftlichen Interessen, Opportunitäten, Machtverhältnissen, Mehrheitsvoten, Argumentationsgeschick und ähnlich sachfremden Kriterien.

So verständlich der politische Wunsch nach kurzfassender Auswertung und prägnanter Schlussfolgerung sein mag, so inakzeptabel ist der gewählte Weg. Die – politisch ausgewählten – Redakteure der IPCC-Kurzfassungen agieren wie ein „klimawissenschaftliches Zentralkomitee“ oder wie ein „klimawissenschaftlicher Vatikan“ mit weltweit exklusivem Exegese- und Vorschlagsrecht.

Jedoch sind Zustand und voraussichtliche Entwicklung des „Klima“ keine politische sondern sie sind ausschließlich eine (natur-)wissenschaftliche Frage. „Klima-Forschung“, so sie diesen Namen verdient, ist reinste Naturwissenschaft. Eine wissenschaftliche Frage kann nicht und darf nicht nach Mehrheits- und Machtverhältnissen beantwortet werden.

Man stelle sich einmal vor, die Auswertung und Zusammenfassung der ungeheuren Experimental-Daten-Mengen der CERN-Wissenschaftler am weltgrößten Teilchenbeschleuniger in Genf würden einem von den CERN-Trägerstaaten politisch ausgewählten Redaktionskomitee übertragen. Ein gewaltiger Aufschrei wäre die Folge.
Eine Frage an die Wissenschaft muss ausschließlich „wissenschaftlich“, also durch beleg- und nachprüfbare Forschungsarbeit beantwortet werden. Und auch die Antwort muss „wissenschaftlich“ bewertet werden. So lange dieser rein innerwissenschaftliche Prozess nicht zu eindeutig beleg- und nachprüfbaren Ergebnissen geführt hat, ist die Antwort offen.

„Klima-Wahrheit“

Also lautet die Kernfrage: Welche „Klima-Wahrheit“ liegt vor?
Die Antwort ist so einfach wie ernüchternd :

1. Bei der im Zentrum stehenden Frage nach „Klimawandel“ handelt es sich überhaupt nicht um eine „Klima-Frage“. Es gibt kein umfassendes „Welt-Klima“. Es gibt auf der Welt nur einzelne Klimazonen, von arktisch über gemäßigt, subtropisch bis tropisch.  

Die Frage nach dem globalen „Klimawandel“ ist nicht mehr und nicht weniger als die Frage nach der Entwicklung der Erdwärme. Sie wird bestimmt als die sowohl für Jahreszeiträume als auch über weltweit verteilte Messpunkte gemittelte Durchschnittstemperatur der boden- bzw. wassernahen Luft.
„Welt-Klima“ muss zutreffend heißen „Erdwärme“.

Die Probleme der Messung und rechnerischen Verarbeitung der Messergebnisse zu einer einzigen Erdwärme eines bestimmten Jahres sind gigantisch. Umso erfreulicher ist es, dass nach Jahren heftiger Debatten und Auseinandersetzungen in der Fachwelt nun weitgehend Einvernehmen herrscht:
Während der letzten rd. 130 Jahre zwischen dem Ende des Neunzehnten Jahrhunderts und dem Anfang des Einundzwanzigsten Jahrhunderts ist es auf der Erde im Trend um knapp ein Grad Celsius wärmer geworden. Die trendmäßige Erwärmung beträgt demnach weniger als 0,01 Grad Celsius pro Jahr. Für die letzten 16 Jahre von 1998 bis 2014 wurde keine trendmäßige Erwärmung mehr gemessen.

2.  Ebenfalls während der genannten letzten 130 Jahre ist der CO2-Gehalt der Luft von etwa 0,03 Vol.-Prozent auf etwa 0,04 Vol.-Prozent angestiegen. Im Gegensatz zur Erderwärmung ist dieser Trend ungebrochen und wird mit Sicherheit auch in den kommenden Jahren anhalten.

3.  CO2 und einige andere Spurengase absorbieren einen Teil der Wärmestrahlung (Infrarotstrahlung), während kurzwelligere Strahlung, und derart ist der größte Teil der Sonnenstrahlung, passieren kann. Insbesondere aus der Infrarot-Strahlung der Erde wird ein Teil durch diese Spurengase absorbiert und davon wiederum nur die Hälfte zur Erde zurück gestrahlt. Diese Eigenschaft macht CO2 und einige andere Spurengase zu so genannten Treibhausgasen.

Da jedoch die CO2-Absorptionsbanden bereits weitgehend gesättigt sind, nimmt der Treibhauseffekt durch zusätzliches CO2 nur noch mit dem Logarithmus der CO2 -Konzentration zu: Für eine in Grad Celsius konstante Erwärmungswirkung bedarf es jeweils einer Verdoppelung des CO2-Gehaltes der Luft.

Anders ausgedrückt: Zusätzlich in die Luft gelangende und dort verbleibende CO2-Moleküle haben von Molekül zu Molekül eine rapide abnehmende Treibhauswirkung. Diese "Sättigung der Strahlungs-Banden" ist physikalisch unbestritten.

Entsprechend ergibt sich von den Klimamodellen berechnete enorme Erderwärmung von 2 bis 5 Grad Celsius für die nächsten 100 Jahre gar nicht aus einer prognostizierten CO2-Zunahme. Vielmehr wurden und werden in die Modelle ausschließlich hypothetische, durch keinerlei tatsächliche Beobachtungen gestützte „Sekundäre Verstärkungs-Prozesse“ eingebaut. Vor allem wird postuliert, dass die bisherige Erderwärmung um knapp ein Grad Celsius während der letzten über einhundert Jahre zu einer höheren Luftfeuchtigkeit (zusätzlichen Wasserdampf in der Luft) führt. Da Wasserdampf das wichtigste Treibhausgas ist, soll dieser zusätzliche Wasserdampf in der Modell-Theorie zu weiterer Erwärmung führen.

Im Gegensatz zu dieser Theorie zeigen die tatsächlichen meteorologischen Messungen der vergangenen Jahrzehnte keine Zunahme des Wasserdampf-Gehaltes der Atmosphäre, und sie zeigen auch keine zusätzliche Erwärmung.
„CO2-Freispruch“

Man mag es nicht glauben, aber es ist richtig: Weitere Wahrheiten gibt es nicht.

Einzig auf diesen drei völlig unspektakulären Tatsachen wurde weltweit ein gigantisch-monströses „Klima-Politik“-Gebilde errichtet. Im Zentrum steht das anthropogene CO2, ein Gas, das für den Menschen ungiftig und für das Pflanzenwachstum unerlässlich ist (Photosynthese) und das etwa 0,04 Prozent des Luftvolumens ausmacht (in 10 Litern Luft befindet sich ein Schnapsgläschen CO2).
Dem CO2 wird ohne wissenschaftlichen Grund die Rolle des „Klima-Killers“ zugewiesen.

Sämtliche Politik, soweit sie von „Klima-Rettung durch Verminderung menschenverursachter CO2-Emissionen“ bestimmt wird, folgt einem CO2-Trugbild, einem CO2-Wahn:

1. Die tatsächlich beobachtete Erderwärmung ist mit etwa einem Grad Celsius über mehr als einhundert Jahre derart unspektakulär, dass sie für einen Treibhaus-Effekt keinen Platz lässt.

2. Trotz unverändert stetiger Zunahme des CO2-Gehaltes der Atmosphäre gibt es seit nunmehr 16 Jahren keinen Erwärmungstrend. Auch wenn es zu früh ist, diese „Erwärmungspause“ sicher zu verstehen und einzuordnen, bietet sie ausreichend Grund zur Besinnung und Entdramatisierung im weltweiten „CO2-Drama“.

3. Von Jahr zu Jahr zeigt sich deutlicher, dass die milliardenschweren Klimamodelle versagt haben. Für die inzwischen nachprüfbaren Jahre prognostizierten sie sämtlich eine viel zu hohe Erderwärmung. Der wichtigste Grund für die Fehlprognosen ist die systematische Überschätzung der Bedeutung des (anthropogenen) CO2 für die Erdwärme.

Damit ist das anthropogene CO2 „freigesprochen“.

Das anthropogene CO2 ist für Erdwärme und Erderwärmung nicht relevant. Dieser „CO2-Freispruch“ ist zentral und unabdingbar. Was immer zu „Erderwärmung“, „Klima“ und „Klimafolgen“ festgestellt und gefolgert werden kann, muss nach dem „CO2-Freispruch“ stehen. Ob und welche Folgen die unspektakuläre und zur Zeit pausierende Erderwärmung von etwa einem Grad Celsius über mehr als einhundert Jahre auch gehabt haben mag: Das anthropogene CO2 ist „aus dem Spiel“.
„Klima-Politik“

Entgegen aller Behauptungen, Warnungen und Verängstigungen zeitigt der leichte Anstieg der durchschnittlichen Erdtemperatur von knapp einem Grad Celsius über einen Zeitraum von mehr als einhundert Jahren keinerlei besorgniserregende Begleiterscheinungen oder Folgewirkungen:
Extreme Wetterereignisse wie Stürme, Orkane, extreme Niederschlagsmengen, Perioden extremer Dürre, dramatische Hitze- oder Kälteperioden sind weltweit  nach Anzahl und Ausmaß nicht vermehrt aufgetreten. Extremwetter-Ereignisse gehören unabwendbar zur meteorologischen Erdgeschichte. Ihr Auftreten ist das Ergebnis hochkomplexer, zufallsbestimmter (stochastischer) Wetterprozesse.
Obwohl also die weltweiten Wetterbeobachtungen für die jüngere und jüngste Vergangenheit keine trendmäßige Veränderung extremer Wetterereignisse verzeichneten, haben die durch diese Wetterkatastrophen verursachten Schäden (Tote, Verletzte, Ernteausfälle, Sachschäden) zugenommen. Der Grund liegt im Bevölkerungs- und Besiedelungswachstum. Ein Orkan über einem unbesiedelten Landstrich richtet geringere Schäden an als ein Orkan über einem dicht besiedelten Landesteil. Darauf weisen nachdrücklich  auch die Rückversicherer hin.

In der nun seit Jahrzehnten geführten „Klima-Debatte“ ging es scheuklappenartig stets nur um „Klima“ und „Klimakatastrophen“. So wurde eine kollektive Angstneurose gezüchtet. Extreme Wetterereignisse, die früher als „normal“, als „zu den natürlichen Launen des Wetters“ gehörend hingenommen, oft auch erlitten wurden, spielen heute immer häufiger die Rolle von Vorboten der rasch nahenden ganz großen „Klimakatastrophe“. So wusste z. B. das ZDF im Juli 2015 zunächst aus fragwürdiger Datenquelle zu berichten, dass erste Halbjahr 2015 sei weltweit das heißeste aller (Aufzeichnungs-) Zeiten gewesen. Nur Tage später wurde die Gefahr einer neuen Eiszeit propagiert, da der Golfstrom -“natürlich“ verursacht durch den „Klimawandel“- versiegen könne.  

                                                                       
Die Katastrophenverstiegenheit findet ihren – je nach Geschmack erheiternden oder bedrückenden – Ausdruck auch im jüngsten „Monitoringbericht 2015“ des Umwelt-Bundesamtes. Dort wird tatsächlich „Klima Angst“, benannt als „psychische Betroffenheit von der ständigen Androhung von Stürmen und Hochwassern“, als zu therapierende Folge des „Klima-Wandels“ aufgeführt. „Die ich rief die Geister, werd‘ ich nun nicht wieder los!“

Es gibt keine Beschleunigung des seit über einhundert Jahren beobachteten moderaten Anstiegs der Weltmeere. Die Meldungen zu einem in jüngster Zeit angeblich beschleunigten Meeres-Spiegel-Anstieg werden von den tatsächlichen Messungen nicht bestätigt. Weltweit zeigen weder die Pegel-Daten noch die Satelliten-Daten eine Beschleunigung des Meeres-Spiegel-Anstieges. Wenn überhaupt von einer Trendveränderung die Rede sein soll, müsste eher von einer Abschwächung des Meeresanstiegs gesprochen werden.

Die Tatsache, dass es weltweit keine trendmäßige Zunahme von extremen Wetterereignissen gibt, kann kein „Trost“ sein für die von derartigen Wetter-Katastrophen heimgesuchten Menschen, Tiere und Natur. Aber dies muss ein Grund sein, von der „Erwärmungs-Katastrophik“ abzulassen und sich mit aller Kraft wie allen Mitteln auf die unmittelbare Vor- wie Nachsorge zu Wetter-Katastrophen zu konzentrieren.

Inzwischen sind im öffentlichen Bewusstsein wie in der Politik die guten und vom CO2 völlig unabhängigen Gründe für eine schrittweise und nachhaltige Reduzierung des Einsatzes fossiler Energieträger fest verankert.

Weitgehend unbestritten gilt, dass
    ⁃    die Erde nicht beliebig und grenzenlos ausgebeutet werden darf,
    ⁃    der Auf- und Ausbau einer eigenen Versorgung mit erneuerbarer Energie den Energieimport und damit den Kapitalabfluss in politisch „unzuverlässige“ Länder mindert  
    ⁃    die sparsame und effiziente Energieverwendung in allen Lebensbereichen ein unverzichtbares Gebot der Wirtschaftlichkeit und Wohlstandsmehrung ist.

Dass es Zeit ist, die imaginäre „Klima“-Debatte mit ihren völlig nichtssagenden Durchschnittswerten aufzugeben, wird auch klar, wenn man die tatsächliche Temperatur an tatsächlichen Orten betrachtet. Dazu wurde jüngst vermeldet, dass an einem heißen Tag dieses Sommers im Zentrum großer Städte eine um 12 Grad Celsius höhere Tageshöchsttemperatur gemessen wurde als im etwa zwanzig Kilometer entfernten, unbesiedelten Umland. Über beiden Orten wehte oder stand die selbe Luft mit dem selben CO2-Gehalt. Und dem von hitzebedingter Kreislaufschwäche geplagten älteren Menschen im Stadtzentrum werden das berühmt-berüchtigte „Zwei-Grad-Erwärmungsziel“ (G8-Gipfel 2009) ebenso wie der „Verzicht auf fossile Energieträger ab dem Zweiundzwanzigsten Jahrhundert“ (G20-Gipfel 2015) kaum als Stärkung in den Sinn gekommen sein.

Entsprechendes gilt für die ruß- und feinstaubgeplagten Menschenmassen in China und in den vielen anderen Ländern mit veralteten Kohlekraftwerken. Binnen kurzer Frist könnten diese mit modernsten Filtern aufgerüstet werden, so dass sehr bald einhundert-prozentig ruß- und staubfreier Kraftwerksbetrieb gewährleistet wäre.
CO2 würde zwar weiterhin entweichen. Aber darf dieses Gesetz jeglicher Verbrennung ein Alibi sein, heute möglichen Menschen- und Umweltschutz bis zum „post-fossilen Sankt-Nimmerleins-Tag“ zu vertagen?

Weitere Beispiele ließen sich anfügen: Die übertriebene Fixierung auf die Reduzierung menschenverursachter CO2-Emissionen führt  zu massiven Fehlsteuerungen. Politische Aufmerksamkeit und Energie werden fehlgeleitet, zweifelhafte und unsinnige gesetzliche Vorschriften bleiben in Kraft oder werden zusätzlich erlassen und erhebliche Kapitalströme werden fehlgelenkt.

Es gibt allerbeste Gründe für eine „klimapolitische Entspannung“. Eine dem Menschen, der Umwelt und der Natur dienende Energie- und Umweltpolitik sollte sich wieder am Hier und Heute orientieren. Und die „Klimawissenschaft“ sollte ihre Energie und Arbeit statt in aussichtslos komplexe mathematische Simulations- und Prognosemodelle in die Erforschung und das Verstehen der Grundlagen jeglicher „Klima-Aussage“ investieren. Das wären vor allem die Ozeanographie, die Polarforforschung und ganz besonders die Meteorologie.

Diese Rückbesinnung sollte die anthropozentrische Übertreibung der Erwärmungs- und CO2-Debatte mindern, die sich in dem „Zwei-Grad-Erwärmungs-Begrenzungs-Ziel“ nachdrücklichst manifestiert.
 
Die in unübersehbare Dimensionen aufgewachsene Förderung und Verbrennung fossiler Energieträger basierte und basiert auch heute oftmals auf rücksichtsloser Ignoranz gegenüber den damit verbundenen Natur- und Umweltschäden („macht Euch die Erde untertan“).

Die Vorstellung, die globale Erdwärme über den anthropogenen CO2-Ausstoß beeinflussen zu können, offenbart eine gigantische Selbstüberschätzung des Menschen für das globale Erdschicksal

(„Gott der Allmächtige schuf den Menschen nach seinem Ebenbilde“).

———————————————————————————————-
* W. Krelle, D. Beckerhoff u. a., Ein Prognosemodell für die wirtschaftliche Entwicklung der Bundesrepublik Deutschland, Meisenheim, 1969
D. Beckerhoff, Wer atmet, der sündigt, Bonn, 2012; Konkurs der Modelle, Bonn, 2013; Bonjour CO2, Bonn 2013

———————————————————————————————-




Fukushima und die German Angst

Im Jahr 869 zerstörte ein gewaltiger Tsunami – verursacht durch das Great Hakuho Erdbeben die Umgebung der Stadt Tagajo an der Ostküste Japans, das ca. hundert Kilometer nördlich von Fukushima liegt. Das Töhoku-Erdbeben von 2011, das auch das Gebiet von Fukushima zerstörte, war das stärkste Erdbeben, das jemals in Japan stattgefunden hat und war das viertstärkste Erdbeben weltweit. Es war somit abzusehen, dass der Standort für eine große Industrieanlage völlig ungeeignet war und ist.

Bild rechts: Region Töhoku, Präfektur Fukushima, Hauptstadt Fukushima

Region Töhoku, Präfektur Miyai, Hauptstadt Sendai (Tagajo)

Entfernung Tagajo Fukushima ca. 100 km

Die folgenden Angaben stammen, wenn nicht extra vermerkt, aus Veröffentlichungen von Wikipedia

684 : Great Hakuho earthquake

The first well recorded tsunami in Japan in the year 684 hit the shore of the Kii Peninsula, Nankeido, Shikoku, Kii and Awaja region. The earthquake, estimated at magnitude 8.4 was followed by a huge tsunami, but no estimates exist for the number of death.

869 : SENDAI/SANRIKU/JŌGAN EARTHQUAKE 

This earthquake and associated tsunamis struck the area around Sendai in the northern part of Honshu on 9 July 869. The town of Tagajo was destroyed, with an estimated 1,000 casualties. the earthquake had an estimated magnitude of at least 8.4 on the moment magnitude scale, but may have been as high as 9.0, similar to the 2011Töhoku (Fukushima) earthquake and tsunamis. The tsunamis caused widespread flooding of the Sendai plain, with sand deposits being found up to 4 km from the coast.

887 : Nakai earthquake

On August 26 of the Ninna era, there was a strong shock in the Kyoto region, causing great destruction. At the same time, there was a strong earthquake in Osaka, Shiga, Gifu and Nagano prefectures. A tsunami flooded the coastal region, and some people died. The coast of Osaka and primarily Osaka Bay suffered especially heavily, and the tsunami was also observed on the coast of Hyuga-Nada. (Siehe auch Kurzbeschreibung).

1239 : Kamakura earthquake

A magnitude 7.1 quake and tsunami hit Kamakura, then Japan’s de facto capital, killing 23,000 after resulting fires.

1361 Japan: Nankai earthquake

On Aug 3, 1361, during the Shöhei era, an 8.4 magnitute quake hit Nankaido, followed by  tsunamis. A total of 660 deaths were reported. The earthquake shook Tokushima, Osaka, Wakayama, and Nara Prefectures and Awajia Island. A tsunami was observed on the coast of Tokushima and Kochi Prefectures, in Kii Strait and in Osaka Bay. Yunomine Hot Spring (Wakayama Prefecture) stopped. Yukiminato, Awa was completely destroyed by the tsunami, and more than 1,700 houses were washed away. 60 people drowned at Awa.

1498 : Nankei earthquake

On September 20, 1498, during the Meiō era, a 7.5 earthquake and tsunami hit. The port in Wakayama damaged by a tsunami several meters high. 30–40 thousand deaths estimated.The building around great Budha of Kamakura (altitude 7m) was swept away by the tsunami.

1605 : Nankeideo/Keichö earthquake

On February 3, 1605, in the  Keichö Area, a magnitude 8.1 quake and tsunami hit Japan. An enormous tsunami with a maximum known height of 30 m was observed on the coast from the  Boso Peninsula  to the eastern part of Kyushu Island. The eastern part of the Boso Peninsula, Tokyo Bay, the prefectures of  Kanagawa and Shizuo, and the southeastern coast of Kochi Prefecture suffered particularly heavily. 700 houses (41%) in Hiro, Kanagawa Prefecture  were washed away, and 3,600 people drowned in the Shishikui area. Wave heights reached 6-7 m in Awa, 5–6 m at Kannoura and 8–10 m at Sakihama. 350 drowned at Kannoura and 60 at Sakihama. In total more than 5,000 drowned.

2011 JAPAN: TÖHOKU EARTHQUAKE  (FUKUSHIMA)

The Tōhoku earthquake  is the result of a megathrust undersea with a magnitude of 9.0 with the epicentre approximately 70 kilometres east of the Oshika Peninsula of Tōhoku and the hypocenter at an underwater depth of approximately 30 km. (Siehe auch Kurzbeschreibung).

Kurzbeschreibungen:  

     

869 SENDAI/SANRIKU/JŌGAN – Erdbeben und Tsunami   

Das Jogan Erdbeben war eines der stärksten Erdbeben mit Tsunamis in der Geschichte Japans  und ereignete sich am 9. Juli 869 vor der Sanriku-Küste. Das Ereignis wird in der im Jahr 901 zusammengestellten Reichschronik Nihon Sandai Jitsuroku (Band 16) beschrieben. Basierend auf den genannten Schäden für diesen Ort, die auf eine seismische Intensität von mindestens der Stufe 5 schließen lassen, wird vermutet, dass das Erdbeben eine Magnitude von 8,3 hatte. Eine Simulation durch Minoura et al. von 2001 lokalisierte das Erdbeben zwischen 37° und 39° N, 143° und 144,5° O, wobei die Verwerfung (Zerstörungszone) etwa 200 km lang, 85 km breit war und in 1km Tiefe stattfand. Die Tsunami-Wellen besaßen demnach eine Höhe von bis zu 8 m. Satake et al. bestimmten 2008 die Zerstörungszone mit einer Länge von 100 bis 200 km und einer Breite von 100 km bei einer Momenten Magnitude 8,1 bis 8,4. Die Erdbeben-Datenbank des National Geophysical Data Center der US-amerikanischen NOAA gibt eine Oberflächenmagnitude von 8,6 an.

Geologische Untersuchungen fanden marine Sedimentablagerungen, die auf diesen Tsunami zurückzuführen sind, in der Ebene zwischen dem heutigen Sendai und Soma mehr als 4–4,5 km landeinwärts. Allerdings lag die Ebene damals etwa einen halben Meter niedriger als heute. Dies bestätigt die beschriebenen großflächigen Überflutungen und die hohe Zahl der Todesopfer. So wird für das 8. Jahrhundert für diese zweit bevölkerungsreichste Provinz eine Bevölkerung von 186.000 angenommen.

Zudem wurden Hinweise auf zwei ähnlich verheerende, vorangegangene Tsunamis mit ähnlichen Auswirkungen gefunden: einen zwischen 910 und 670 v. Chr. und einen zwischen 140 v. Chr. Und 150 n. Chr. Basierend darauf wird angenommen, dass derartige Tsunamis diese Küstengegend etwa alle 800 bis1100 Jahre, bzw. unter Hinzunahme des Kaichö-Sanriku-Erdbebens 1611 alle 450–800 Jahre treffen. Minoura et al. meinten 2001, dass ähnlich starke Tsunamis, die etwa 2,5–3 km ins Land eindringe, zu erwarten seien. Diese Vorhersage wurde häufig mit dem Töhoku-Erdbeben und -Tsunami (Fukushima) vom 11. März 2011 identifiziert und dieses wiederum dem Jōgan-Erdbeben 869 gleichgestellt.

2011 Töhoku-Erdbeben (Fukushima) – Erdbeben und Tsunami

Das Töhoku Erdbeben ereignete sich am 11. März 2011(Stärke von 9.0) und verursachte eine riesige unter Wasser stattgefundene Überschiebung von Gesteinsserien (megathrust). Das Epizentrum lag ungefähr 70 km östlich der Osika Halbinsel von Töhhoku und das Hypozentrum (Tiefe unter Meeresboden) von ungefähr 30 km. Es war das stärkste Erdbeben, das jemals in Japan stattgefunden hat und das viertstärkste Erdbeben weltweit. Es führte zu riesigen Tsunami-Wellen, die Höhen von bis zu 40 m in Miyako in der Töhoku Iwate Präfektur erreicht haben sollen und die, in der Umgebung von Sendai, an Sedimentablagerungen bis zu 10 km ins Landesinnere nachweisbar sind. Das Erdbeben verschob Honsu, die Hauptinsel von Japan, 2,4 m nach Osten und bewegte die Erdachse um 10 cm bis 25 cm. Schallwellen dieses Ereignisses wurden von dem niedrig fliegenden GOCE Satelliten aufgezeichnet.

Am 10. März 2015 bestätigte ein Bericht der Japanische Nationale Politik Agentur (Japanese National Police Agency) die Folgen des Erdbebens: 15.891 Tote, 6.152 Verletzte und 2.584 Vermisste in zwanzig Präfekturen, sowie 228.863 Menschen, fern der Heimat entweder in Notunterkünften oder solche die auf Wohnungssuche sind. Ein Bericht vom 10. Februar 2014 meldete 127.290 vollkommen zerstörte Gebäude, weitere 272.788 stark beschädigte Gebäude sowie weiter 747.989 teilweise beschädigte. Das Erdbeben und die Tsunamis verursachten in Nordost  Japan gewaltige Infrastrukturschäden, erhebliche Feuerschäden und einen Dammbruch. Ungefähr 4,4 Millionen Haushalte im nordöstlichen Japan waren ohne Strom und 1,5 Millionen ohne Wasser. Japans Prime Minister Naoto Kan sagte: „In den 65 Jahren nach dem Ende des Zweiten Weltkrieges ist dieses Ereignis die härteste und schwierigste Krise für Japan.“

Der durch das Erdbeben ausgelöste Tsunami  verursachte auch einen nuklearen Unfall: Der Reaktorunfall in Fukushima Daiichi ist eine Folge fehlerhafter Auslegungen und unzureichender Sicherheitstechnik *). “Der Erdbebenschutz für das Kraftwerk war strenger ausgelegt. Er wurde im Laufe der Jahre immer wieder optimiert, während der Schutz gegen Tsunamis lediglich die historische maximale Wellenhöhe am Standort mit geringen, nicht systematisch festgelegten Reserven berücksichtigt wurde. Für den Kraftwerkstand Fukushima Daiichi mit einer Geländehöhe von 10 m betrug die Tsunami-Auslegungshöhe 5,7 m. Der Tsunami am 11. März 2011 erreichte allerdings eine Höhe von mehr als 14 m. Die deutlich unzureichende Auslegung der Anlagen gegen solche Tsunamis ist die wesentliche Ursache für die Ergebnisabläufe … Sie waren schlicht nicht gegen große, aber in Japan immer wieder vorkommende Tsunamis ausgelegt”. Die betroffenen Kraftwerkblöcke wurden weder direkt durch das Erdbeben noch durch den Tsunami in nennenswertem Umfang beschädigt. Die Havarie war das Ergebnis einer Fehlplanung für die Kühlsysteme, die nicht die bekannten erdgeschichtlichen Realitäten des Jōgan-Erdbeben im Jahr 869 berücksichtigten und die Nichtbeachtung der Hinweise der Geologen, dass Erdbeben mit Tsunamis in dieser Region ‚relativ‘ häufig auftreten.

Die mit der Kraftwerk-Havari zusammenhängenden Evakuierungsmassnahmen, betrafen hunderttausende von Bürgern. Die Bewohner innerhalb eines Radius von 20 km um Fukushima und eines Radius von 10 km um die Fukushima Daini Nuclear Power Kraftwerke wurden evakuiert. Zusätzlich schlugen die USA vor, Bürger im Umkreis der Kraftwerkanlage von bis zu 80 km zu evakuieren.

Erste Abschätzungen belaufen sich auf versicherte Schäden des Erdbebens alleine auf  US $ 14,5 bis US$ 34,6 Milliarden. Die Bank of Japan versprach den Banken, um das Banksystem zu sichern, US $183 Milliarden. Die Weltbank schätzte die wirtschaftlichen Kosten auf US$ 235 Milliarden, den höchsten Wert für eine durch die Natur verursachte Katastrophe.

Nachdem im Dezember 2012 die UN-Organisation zur Erforschung der biologischen Folgen radioaktiver Strahlung, UNSCEAR, nach Fukushima keine zusätzlichen Krebsrisiken festgestellt hatte, gibt nun auch die Weltgesundheitskommission WHO Entwarnung. Das Krankheitsrisiko habe sich in Japan und weltweit nicht erhöht. Die Statistik wertete offizielle Zahlen und Schätzungen aus. Der Vergleich zeigt die Todesrate nach Energiequellen an und zwar bezogen auf je eine Billion erzeugter Kilowattstunden (kWh): Kernkraft 90, Wind 150, Solar auf Hausdächern 440, Wasserkraft 1400, Erdgas 4000, Biotreibstoffe/Biomasse 24.000, Öl 36.000, Kohle 100.000.

 Für Interessierte, die mehr über die Radioaktivität von Fukushima wissen wollen, weise ich auf folgenden Artikel hin: „ Radioaktive Abfälle, lösbares oder unlösbares Problem“,  Walter Rüegg, 2014 **).

Die große Frage ist, warum Deutschland diese Tatsachen nicht wahrnimmt – Versuch einer Erklärung

Schon vier Tage nach der gewaltigen Naturkatastrophe, – dem Töhoku Erdbeben und dem folgenden Tsunami, bei dem große Gebiete um die Stadt Sandei und deren weiteren Umgebung im nordöstlichen Japan zerstört wurden – hatte die deutsche Regierung, ohne eine Analyse des  Unglücks, ein Moratorium zur Abschaltung der älteren  Atomreaktoren verfügt. Anschließend hatte sie auf die völlig kenntnislose Empfehlung einer Ethikkommission in gerade mal hundertzehn Tagen ein neues Gesetz fabriziert, in dem sie sich, weltweit einmalig, von der Kernkraft verabschiedet: „… Die Kommission ist der festen Überzeugung, dass der Ausstieg aus der Nutzung der Kernenergie … nötig ist und es wird empfohlen, um Risiken, die von der Kernkraft in Deutschland (bei Erdbeben und Tsunamis) ausgehen, in Zukunft auszuschließen … es wird behauptet, der „schnellstmögliche Ausstieg aus der Kernenergie“ sei „ethisch gut begründet“. Dieser Behauptung steht der klaren Botschaft der UNSCEAR und WHO gegenüber. Doch in Deutschland hat die langjährige Indoktrination der grün-öklogistischene Anti-Nuk Bewegung über die weltweit bekannten Fakten gesiegt.

Eine in 2011 kurzschlusspanikartige Entscheidung führte zu einer nur in Deutschland bejubelten Energiewende, die sich mittelfristig als realitätsfremd erweisen dürfte, weil sie nicht auf wissenschaftlichen, technischen, wirtschaftlichen und auch umweltrelevanten Fakten aufbaut. Sie  war und ist ein Schnellschuss, der dem für den Industriestandort Deutschland sehr wichtigen Sachverhalt nicht gerecht wird. Wenn aus politischen Gründen eine Energiewende wirklich gewollt ist, wäre zuerst eine intensive Planung aller relevanten Aspekte dieses komplizierten Vorhabens notwendig gewesen, die eine längere Vorbereitung bedurft hätte und nicht seit vier Jahren zu täglichen Berichten in der Presse zu schwerwiegenden Mängeln und Kostenexplosionen sowie zu den Folgen der Entsorgung der teuren mit reichlich Subventionen finanzierten Umwelt-Anlagen geführt hätte. Der ehemalige Umweltminister Altmaier hatte nach seiner Ernennung in einer Talkshow aus seiner  Detailkenntnis heraus seine drei Vorgänger wegen des Fehlens von Konzepten für die Energiewende verantwortlich gemacht und gesagt  „ … im Ministerium habe er beim Amtsantritt hierzu keinerlei Unterlagen gefunden … den Ärger der Verbraucher wegen der steigenden Stromkosten findet er verständlich … ich bin auch sauer, sauer auf alle. … „ Aus berufenem Munde bestätigt diese Aussage die schlimmsten Befürchtungen.

Denn vergleicht man insgesamt die Nachhaltigkeit der Stromerzeugung mittels Kernenergie mit z. B. der mit Photovoltaik, d.h den gesamten Materialaufwand vom Bergwerk bis zur Fertigstellung, den Energieverbrauch für den Bau und die langzeitsichere Entsorgung der Anlagen, dann schneidet die Kernenergie nicht schlechter ab wie der Schweizer W. Rüegg in seiner ausführlichen Studie: „Radioaktive Abfälle, lösbares oder unlösbares Problem, 2014 **)“ zeigt. Hätten die Mitglieder der Ethikkommission diese Ergebnisse gekannt, wären sie sicherlich zu einer vollkommen anderen Empfehlung gekommen, wie die aktuellen Pläne der Australier zeigen ***). Dort wird geplant, die Kohleverstromung zurückzufahren und zum Ausgleich auf die umweltfreundlichere Kernkraft zu  setzen. Finanziert soll dieser Strategiewechsel durch das Angebot werden, die Endlagerung von radioaktiven Abfällen aus anderen Ländern wie z.B. Südkorea und Japan gegen Zahlung zu übernehmen.  Australien kennt keine „Die German Angst“.

Auch langjährige Milliarden teure Subventionen ausschließlich für einige Wirtschaftsbereiche (Sonne, Wind, Biomasse) werden weder der Natur noch den Bürgern in Deutschland die auf uns kommenden Herausforderungen meistern helfen. Denn eine derart auf grün-ökologistische – häufig durch bewusst geplante Desinformationen begleitete Propaganda (z.B. Endlager, Fukushima) – wird die deutsche Gesellschaft in Zukunft nicht bereichert, eher das Gegenteil. Warum ging grade Deutschland diesen Sonderweg? Und kein anderes Land? Liegt es möglicherweise daran, dass insbesondere die Deutschen besonders anfällig für politische Propaganda waren, noch sind und in Zukunft sein werden??? Hat uns die ‚deutsche‘ Vergangenheit eingeholt? :

 „Die erste Aufgabe der Propaganda ist die Gewinnung von Menschen für die spätere Organisation; die erste Aufgabe der Organisation ist die Gewinnung von Menschen zur Fortführung der Propaganda. Die zweite Aufgabe der Propaganda ist die Zersetzung des bestehenden Zustandes  und die Durchsetzung dieses Zustandes mit der neuen Lehre, während die zweite Aufgabe der Organisation der Kampf um die Macht sein muss, um durch sie den endgültigen Sieg der Lehre zu erreichen."

Ist diese Annahme vollkommen abwegig?

Literatur

*)„Der Reaktorunfall in Fukushima  Daiichi – Kernenergie.de1“/www.kernenergie.de/kernenergie…/024reaktorunfall_fukushima.pdf“

**)“Radioaktive Abfälle, lösbares oder unlösbares Problem“ Walter Rüegg, 2014 .

***) „Sean Edwards (politican australia)“ in Google zu finden.

Die German Angst“ von Helmut Fuchs und Rolf Kamradek erschienen im bookshouse Verlag, 2013.




Die Norweger zeigen uns einen Vogel – Ganz schrecklich politisch unkorrekt

Sicher hängt Ihnen das Thema „Energiewende“ längst zum Hals heraus – Ihnen als Lesern dieser Web-Seite ganz bestimmt. Denn mit diesem Thema haben sich seit 2008 immerhin 54 Beiträge befasst und mit dem Thema Energiepolitik 96 Stück. Und sämtliche können Sie immer noch aufrufen. Aber tun Sie es lieber nicht. Lesen Sie stattdessen ein knackiges Interview. Hier ist alles wunderbar und leicht verständlich zusammengefasst, was man über die „Energiewende“, die zutreffender „Stromwende“ heißen muss, wissen sollte. Die Überschrift lautet: „Die Norweger zeigen uns einen Vogel“.

Unter Anwendung der vier Grundrechenarten …(1)

Befragt wird in dem Interview Dr. Kurt Gehlert aus Iserlohn. Der heute 75jährige ist Bergbaufachmann und Fracking-Experte und lehrte als Professor an der Fachhochschule Bielefeld. Seine Kernaussage findet sich am Schluss des Gesprächs und lautet: „Die Energiewende ist klar erkennbar unter den in Deutschland gegebenen Bedingungen als gescheitert zu betrachten, wenn man sie naturwissenschaftlich-technisch unter Anwendung der vier Grundrechenarten in die Zukunft projiziert.“  In dieser Offenheit, man könnte auch sagen: Brutalität, pflegen sich Wissenschaftler nur zu äußern, wenn sie emeritiert sind, sonst hätten sie Nachteile zu befürchten. Denn Aussagen dieser Art sind bei Politikern und Energiewende-Profiteuren höchst unerwünscht, also ganz schrecklich „politisch unkorrekt“. Ebenfalls selten geworden ist, dass Medien dergleichen veröffentlichen. Aber die Westdeutsche Allgemeine Zeitung (WAZ) hat es getan, zu finden in ihrer Online-Ausgabe vom 12. August. Geführt hat das Gespräch Thomas Reunert.

Am Ende ein desillusioniertes Volk

Gehlert äußert in dem Gespräch das, was viele andere Fachleute schon lange nicht anders und immer wieder so darstellen und mit Fakten belegen. Ich habe auf dieser Web-Seite ebenfalls immer wieder auf sie hingewiesen und sie zitiert. Am Ende des Gesprächs fragt der Journalist Thomas Reunert den emeritierten Professor nach dessen Zukunftsprognose für die Versorgung der Deutschen mit Strom. Gehlert antwortet: „Keine Kernkraftwerke mehr, aber ein Mix von modernen Braunkohle-, Steinkohle- und Gaskraftwerken. Fast alle Windräder und Biogasanlagen sind am Ende ihrer Lebensdauer und stillgelegt, Photovoltaikanlagen sind zwar abgeschrieben, liefern aber durch Alterung nur noch die Hälfte bis 70 Prozent ihrer ursprünglichen Leistung. Es gibt keine EEG-Vergütung mehr und keinen Vorrang der Einspeisung. Die Politik konstatiert besorgt: Unsere Amtsvorgänger haben uns ein desillusioniertes Volk hinterlassen.“

Den Wortlaut des Gesprächs finden Sie hier.

Übernommen von K.P.Krauses Blog hier

(1) Dass auch die perfekte Anwendung der vier Grundrechenarten nicht vor Fehlern bewahrt, zeigt die folgende Überschlagsrechnung, die P. Würdig Reetz vorgenommen hat. Er bezieht sich dabei auf die Aussage von Dr. Gehlert im Interview, dass zur Speicherung einer Woche Dunkelflaute ..

Zitat aus dem Interview: 

„..Kapazitäten für 7 Tage = 10 080 Minuten, wenn wir eine einwöchige Flaute und fehlenden Sonnenschein nicht ausschließen können. Fazit: In Deutschland müssen rund 125 Mal so viele Speicherseen bis 2050 geschaffen werden, wie heute existieren. Diese Flächen und Volumen in topographisch machbaren Gebieten hätten und haben wir gar nicht. Damit es fassbar wird: 20 Kubikkilometer Wasser müssen 50 Meter Fallhöhe bekommen, um gegebenen Falls über Turbinen in den unteren See mit 20 Kubikkilometer Fassungsvermögen zu laufen. Zum Vergleich der Bodensee mit 48 Kubikkilometer Inhalt. Er müsste fast in der Mitte mit einer 125 Meter hohen Staumauer geteilt werden…Zitatende

dazu P. Würdig Reetz

Elektrische Leistung in Deutschland: 80 GW

(wird zwar etwas weniger angepeilt, aber der Bedarf kann auch steigen,… Ich gehe mal von dem Energiebedarf für eine Woche aus, dann ist man einigermaßen auf der sicheren Seite. Das sind:

80 GW * 24 h *7

= 13.440 GW h

=48.384.000 GW sec

gerundet 50 * 10 ^ 6 GW sec

= 50 * 10 ^ 6 * 10 ^ 9 W sec         (1 W sec = 1 J)

= 5 * 10 ^ 16  J

Das soll man speichern können, indem man ein Volumen von 20 km ^ 3 um die 50 m hoch hebt.

Das sind 20 * 10 ^ 12 kg

Gewicht 20 * 10 ^ 12 kp   (kilo-Pond)

1 J = 1 N * m

= 0,1 kp * m      (genauer: 1 kp = 9,81 N)

also, 1 kp * m = 10 J

Wenn man diese Masse 50 m hoch hebt ergibt sich eine potentielle Energie:

E-pot = 20 * 10 ^ 12 * kp * 50 m

= 10 ^ 15 kp*m

= 10 ^ 16 J

Um also die (elektrische) Energie für 1 Woche sicher zu haben, brauchen wir nicht einen dieser Seen von 20 km^3, sondern fünf.  Wie vorgeschlagen, den Bodensee mit einer 125m hohen Mauer dazwischen (eine Hälfte leer, alles andere auf der anderen Seite oben raufgepackt, so war das wohl gemeint),

Energiewende geschafft, hurrah !




0,02°C Erwärmung vermieden: die grundlegende Zahl, die im Informationsblatt der EPA fehlt

Wir hassen es, Nestbeschmutzer zu sein, aber die neuen Vorschriften werden zu nichts dergleichen führen.

Die EPA-Vorschriften trachten danach, die CO2-Emissionen durch die Stromerzeugung bis zum Jahr 2030 auf ein Niveau zu drücken, das um 30% unter dem Niveau des Jahres 2005 liegt. Dazu muss man sagen, dass die CO2-Emissionen von Kraftwerken von 2005 bis 2012 bereits um etwa 15% gesunken sind, was hauptsächlich Marktkräften geschuldet ist, die das weniger CO2 emittierende Erdgas den Vorzug vor der Kohle bei der Stromerzeugung geben. Offensichtlich will der Präsident diese Fortschritte festschreiben und den Markt manipulieren um zu sehen, ob der gleiche Rückgang in der doppelten Zeit erfolgt. Nichts als Intervention der Regierung, um die Ineffizienz des Marktes zu fördern. Aber wir schweifen ab.

Die EPA hat hervorgehoben, was sie mit ihrem Informationsblatt mit dem Titel By the Numbers erreichen will, das mit deren großer Ankündigung veröffentlicht wurde.

Aus irgendwelchen Gründen haben sie in ihrem Informationsblatt nicht angegeben, wie viel Klimawandel durch diesen Plan vermieden werden würde. Das sieht nach einer eigenartigen Auslassung aus, weil schließlich ohne die Keule der Bedrohung durch den Klimawandel niemand an den erzwungenen Abriss unserer primären Quelle der Energieerzeugung denken würde, und die neuen Emissions-Restriktionen würden nicht einmal einen Schimmer für das Auge des Präsidenten bedeuten.

Aber keine Sorge! Was die EPA ausgelassen hat, werden wir einbringen.

Mittels einer einfachen und öffentlich zugänglichen Klimamodell-Nachbildung mit der Bezeichnung MAGICC, die teilweise mit Unterstützung der EPA entwickelt worden ist, haben wir die Zahlen überprüft um festzustellen, wie viel Temperaturanstieg vermieden werden würde durch eine vollständige Umsetzung der neuen EPA-CO2-Reduktionen*.

Die Antwort? Weniger als zwei Hundertstel Grad Celsius bis zum Jahr 2100.

0,018°C, um genau zu sein.

[Und wie würde diese Zahl allein durch die Maßnahmen in D aussehen? Anm. d. Übers.]

Wir wissen nicht einmal, wie man eine so kleine Zahl praktisch ausdrücken kann, weil diese Zahl im Grunde so klein ist, dass sie gar nicht messbar ist.

Was zweifellos genau der Grund ist, warum sie im EPA-Informationsblatt fehlt.

Die Zahl ist allerdings nicht zu klein, als dass sie eine gewaltige Rolle in jeder und in allen Diskussionen um die neuen Vorschriften spielen kann.

————————————

*Details und zusätzliche Informationen hinsichtlich unserer Berechnung

Wir haben das MAGICC-Modell benutzt ( Model for the Assessment of Greenhouse-gas Induced Climate Change) – eine einfache Nachbildung eines Klimamodells, dass zum Teil mit Unterstützung der EPA entwickelt worden ist – um die Klimaauswirkungen der beantragten Vorschriften zu untersuchen.

MAGICC version 6 ist hier verfügbar als Online-Tool.

Wir analysierten die Klimaauswirkungen der neuen EPA-Vorschriften, indem wir zukünftige Emissionsszenarien modifizierten, die durch das IPCC etabliert worden waren, um die neuen Emissionsziele der EPA zu reflektieren.

Im Einzelnen handelt es sich bei den von uns untersuchten drei IPCC-Szenarien um die RCPs (Representative Concentration Pathways) um diejenigen mit den Bezeichnungen RCP4.5, RCP 6.0 and RCP8.5. RCP4.5 beschreibt ein Szenario mit geringem, RCP6.0 mit mittlerem und RCP8.5 mit hohen Emissionen.

Die Emissionsmengen der RCPs werden nicht auf ein einzelnes Land heruntergebrochen, sondern sind für Gruppen von Ländern definiert. Die USA befinden sich in der Gruppe OECD90.

Um die US-Emissionsmengen innerhalb eines jeden Szenarios festzulegen, haben wir folgende Annahmen gemacht:

1) Die CO2-Emissionen der USA machen 50% der OECD90-CO2-Emissionen aus.

2) CO2-Emissionen durch die Stromerzeugung machen 40% der Gesamt-CO2-Emissionen der USA aus.

Abbildung 1 zeigt den verlauf der CO2-Emissionen der Original-RCPs zusammen mit unserer Berechnung innerhalb jeder RCP des Beitrags durch die US-Stromerzeugung.

Abbildung 1: Verlauf von CO2-Emissionen definiert nach oder abgeleitet aus dem Original-Satz von RCPs, und zwar für die globalen Gesamt-CO2-Emissionen ebenso wie für die CO2-Emissionen, die der US-Stromerzeugung geschuldet sind.

Wie man sofort erkennt, ist der projizierte Beitrag der US-CO2-Emissionen aus der Stromerzeugung zu den gesamten globalen CO2-Emissionen verschwindend gering.

Die neuen EPA-Vorschriften beziehen sich auf die unteren drei Linien in Abbildung 1.

Um die Auswirkungen der EPA-Maßnahmen zu untersuchen, ersetzen wir die den US-Kraftwerken zuzuordnenden Emissionen in den Original-RCPs durch die von der EPA mittels ihrer neuen Vorschriften definierten Ziele. Wir berechneten diese Ziele (aufgrund der Auswirkungs-Analyse der Vorschriften, die die Vorschriften begleiten) zu 0,4864 GT C bis zum Jahr 2020 und 0,4653 GT C bis 2030. Danach wurden die Emissionen der US-Kraftwerke konstant auf dem Niveau des Jahres 2030 gehalten, bis sie unter jenes Niveau in den Original-RCP-Verordnungen fallen (im Einzelnen kommt es dazu im Jahre 2060 nach RCP4.5, 2100 nach RCP6.0 und irgendwann nach 2150 nach RCP8.5).

Dann verwendeten wir MAGICC, um den Anstieg der globalen Temperatur zu berechnet, der zwischen heute und dem Jahr 2100 projiziert ist, und zwar sowohl mit den Original-RCPs als auch mit den modifizierten RCPs, um die EPA-Vorschriften zu bewerten (wir verwendeten den MAGICC-Standardwert für die Gleichgewichts-Klimasensitivität der Erde {3,0°C}).

Das Ergebnis der sechs MAGICC-Läufe zeigt Abbildung 2:

Abbildung 2: Globale mittlere Temperaturanomalien 2000 bis 2100 wie vom MAGICC-Lauf projiziert mit den Original-RCPs ebenso wie mit den modifizierten RCPs, um die Auswirkungen der von der EPA geforderten Emissionsreduktion um 30% der US-Kraftwerke zu überprüfen.

Falls Sie durch Betrachten der Abbildung 2 die Auswirkung nicht erkennen können (weil die Linien praktisch alle übereinander liegen), haben wir die Zahlen in Tabelle 1 zusammengefasst:

In Tabelle 2 quantifizieren wir die Größe des projizierten Temperaturanstiegs, der durch die neuen EPA-Vorschriften vermieden wird.

Der Anstieg der projizierten zukünftigen Temperatur, der durch die EPA-Restriktionen auf die CO2-Emissionen bestehender Kraftwerke vermieden wird, beträgt zwischen jetzt und dem Ende dieses Jahrhunderts weniger als 0,02°C, wenn man das mittlere, vom IPCC definierte Emissions-Szenario zugrunde legt.

Während der EPA-Plan vorgeblich nur danach trachtet, die CO2-Emissionen zu reduzieren, ist das Ziel in Wirklichkeit, das Verbrennen von Kohle zu reduzieren. Die Reduktion des Verbrennens von Kohle wird Nebenwirkungen haben wie die Reduktion anderer klimatisch aktiver Treibhausgase und den Partikelausstoß. Wir haben die Auswirkungen der Änderung dieser Dinge nicht modelliert, weil Sensitivitäts-Tests mittels MAGICC zeigen, dass die kollektiven Änderungen dieser Mit-Emissionen ziemlich klein sind und sich weitgehend gegeneinander aufheben.

Link: http://www.cato.org/blog/002degc-temperature-rise-averted-vital-number-missing-epas-numbers-fact-sheet

Übersetzt von Chris Frey EIKE




Validierung von Klimamodellen ist unabdingbar: Die unschätzbar wertvolle Arbeit von Dr. Vincent Gray

Als ein Experten-Begutachter des IPCC seit 18 Jahren, das heißt also von dessen ersten Anfängen an, habe ich tausende Kommentare zu allen Berichten geschrieben. Meine Kommentare zum 4. Zustandsbericht, alle 1898, können beim IPCC (2007) gefunden werden, und meine Meinungen über das IPCC stehen in Gray (2008b).

Seine jüngste Veröffentlichung trägt den Titel [übersetzt] „Der Betrug um die globale Erwärmung und der Superbetrug um den Klimawandel“ [The Global Warming Scam and the Climate Change Super Scam]. Sie ist gewissermaßen eine Fortsetzung seiner sehr effektiven ersten Kritik mit dem Titel „The Greenhouse Delusion: A Critique of “Climate Change 2001“. Wir wissen jetzt, dass der Bericht aus dem Jahr 2001 den Hockeyschläger enthielt sowie Phil Jones‘ globale Temperaturaufzeichnung, zwei Beweisstücke, die grundlegend für die Proklamation anthropogener Gründe für die globale Erwärmung sind. In der Zusammenfassung jenes Buches schreibt er:

Es gibt gewaltige Unsicherheiten in den Modellergebnissen, die erkannt und unermesslich sind. Sie sind so gewaltig, dass Adjustierungen der Modellparameter Modellergebnisse erzeugen kann, die zu fast jedem Klima passen, einschließlich zu einem solchen ohne Erwärmung oder gar mit Abkühlung.

Kein Modell hat jemals irgendeine zukünftige Klimasequenz erfolgreich vorhergesagt. Trotzdem werden Zukunfts-„Projektionen“ bis zu mehreren hundert Jahren im Voraus vom IPCC als plausible Zukunftstrends präsentiert, basierend auf umfangreich verzerrten „Storylines“ in Kombination mit nicht getesteten Modellen.

Das IPCC hat eine Fülle wissenschaftlicher Informationen zum Thema Klima abgeliefert, aber nicht einen einzigen Beweis erbracht, dass ein zunehmender Kohlendioxidgehalt irgendwelche schädlichen Auswirkungen hat.

Auf Seite 58 des Buches beschreibt er eine der ernstesten Grenzen der Computermodelle:

Kein Computermodell ist jemals validiert worden. Ein früher Entwurf von Climate Change 95 enthielt ein Kapitel mit dem Titel „Climate Models – Validierung“ als eine Erwiderung auf meinen Kommentar, dass kein Modell jemals validiert worden ist. Sie änderten den Titel zu „Climate Model – Evaluation“ und ersetzten auch im Text das Wort „Validierung“ mit „Evaluation“. Damit beschrieben sie nichts weniger als was man tun müsste, um ein Modell zu validieren.

Ohne einen erfolgreichen Validierungsprozess sollte man kein Modell als fähig erachten, eine plausible Prophezeiung zukünftigen Verhaltens des Klimas zu liefern.

Was ist Validierung?

Die traditionelle Definition von Validierung involviert, dass man das Modell rückwärts laufen lässt, um bekannte Klimabedingungen abzubilden. Der allgemein angewendete Terminus lautete „Nachhersage“ [hindsight forecasting]. Da gibt es eine wesentliche Begrenzung wegen der Zeit, die ein Computer braucht, um die historischen Bedingungen zu rekonstruieren. Steve McIntyre hat bei ClimateAudit das Problem illustriert:

Caspar Amman sagte, dass GCMs etwa einen Tag Maschinenzeit brauchten, um 25 Jahre abzudecken. Auf dieser Grundlage ist es offensichtlich unmöglich, den Übergang vom Pliozän zum Pleistozän mit einem GCM zu modellieren (also die letzten 2 Millionen Jahre), da dieses dazu 219 Jahre Rechenzeit benötigen würde.

Auch sind Modelle nicht in der Lage, gegenwärtige oder historische Bedingungen zu simulieren, weil wir diesbezüglich keine genauen Kenntnisse oder Messungen haben. Das IPCC räumt dies in Kapitel 9 des Berichtes aus dem Jahr 2013 ein:

Obwohl von grundlegender Bedeutung hat die Evaluierung von Klimamodellen auf der Grundlage von Klimabeobachtungen der Vergangenheit einige wichtige Grenzen. Sie sind begrenzt hinsichtlich der Variablen und Phänomene, für die es Beobachtungen gibt.

Sorgfältige Validierung ist „unabdingbar“, aber ernsthaft begrenzt, weil wir nicht wissen, was historisch los war. Die Reduktion der Anzahl der Variablen umgeht die begrenzte Computer-Kapazität sowie fehlende Daten oder Wissen um die Mechanismen.

Allerdings erklären O’Keefe und Kueter:

Als Folge hiervon gibt es nur sehr wenige GCM-Projektionen in vollem Umfang. Die Modellierer haben eine Vielfalt von Vereinfachungs-Verfahren angewendet, um mehr Ergebnisse erzeugen zu können. Da die Genauigkeit vollumfänglicher GCM-Läufe unbekannt ist, ist es auch nicht möglich abzuschätzen, welche Auswirkung die Anwendung dieser Vereinfachungen auf die Qualität der Modellergebnisse hat.

Ein Problem ist, dass eine Variable, die derzeit als keine Konsequenzen zeitigend angesehen wird, unter anderen Bedingungen von grundlegender Bedeutung ist. Dies Problem tauchte in der Erdwissenschaft auf, wo bestimmte Mineralien, „trace minerals” genannt, als von geringer Bedeutung eingestuft worden waren und in Berechnungen der Bodenfruchtbarkeit keinen Eingang gefunden haben. In den siebziger Jahren lautete die Objektive, mittels massiven Einsatzes von Dünger die Ernteerträge zu verbessern. Anfang der achtziger Jahre gingen die Ernteerträge trotz hinzugefügter Dünger zurück. Offensichtlich konnten die Pflanzen Dünger-Mineralien ohne einige Spuren-Mineralien nicht aufnehmen. Im Beispiel Weizen war es Zink, welches der Katalysator war für die Absorption bedeutender chemischer Dünger.

In der Klimadebatte ist es inzwischen ein Muss, dass eine Person, die durch AGW-Befürworter angegriffen wird, mit der Wahrheit handelt. Es beweist, dass sie die Wahrheit kennen und aus eigenem Willen von diesen Wahrheiten Abstand nehmen aus politisch-ideologischen Gründen. Skepticalscience ist ein perfektes Beispiel, und dessen Versuch, die Validierung von Modellen zu rechtfertigen beginnt mit einem Angriff auf die Beobachtung von Freeman Dyson, dass:

Modelle voller verformbarer Faktoren stecken, die an das bestehende Klima angepasst werden, so dass die Modelle mehr oder weniger mit den gemessenen Daten übereinstimmen. Aber es gibt keinen Grund zu glauben, dass die gleichen verformbaren Faktoren das richtige Verhalten in einer Welt mit unterschiedlicher chemischer Zusammensetzung spiegeln, zum Beispiel in einer Welt mit einem viel höheren CO2-Anteil in der Atmosphäre“.

Sie verwenden „Zuverlässigkeit“ anstelle von Validierung und verwenden den Terminus „Nachhersage“ [hindcasting], aber in einem anderen Zusammenhang:

Falls ein Modell korrekt Trends prophezeien kann ab einem Anfangszeitpunkt irgendwann in der Vergangenheit, können wir erwarten, dass es mit hinreichender Sicherheit prophezeien kann, was in der Zukunft passieren könnte“.

Sie behaupten, dass mittels ihres Systems

die Modelle erfolgreich die globalen Temperaturen seit dem Jahr 1900 reproduzieren können, auf dem Festland, in der Luft und im Ozean.

Und:

Klimamodelle müssen getestet werden um herauszufinden, ob sie funktionieren. Wir können nicht 30 Jahre lang warten, um, zu sehen, ob ein Modell gut ist oder nicht; Modelle werden gegen die Vergangenheit getestet, gegen das, was wir wissen.

Es ist jetzt 25 Jahre her, dass das IPCC seine ersten Modell-Prophezeiungen (Projektionen) veröffentlicht hat, und schon damals wurde die Lüge in Abbildung 1 bloßgestellt:

Abbildung 1. Quelle: Präsentation von John Christy von der University of Alabama [UAH] vor dem Committee on Natural resources des Weißen Hauses am 15. Mai 2015.

Herumfummeln, um Zuverlässigkeit als Validierung zu maskieren

Versuche der Validierung während der 120 Jahre mit Instrumenten-Aufzeichnungen erwiesen sich ebenfalls als problematisch, aus den gleichen Gründen wie bei den historischen Aufzeichnungen. Eine wesentliche Herausforderung war die Abkühlungsphase von 1940 bis 1980, weil diese zusammenfällt mit der stärksten Zunahme der menschlichen CO2-Erzeugung. Dies widersprach der grundlegendsten Hypothese des IPCC, der zufolge eine CO2-Zunahme zu einer Temperaturzunahme führt. Freeman Dyson hat diese Praxis beschrieben als „verbiegen“ [tweaking] und darüber in vielen Beiträgen bei WUWT berichtet. Es ist die Praxis der Fabrikation von Beweisen, um die Lügen zu stützen, die die Computermodelle sind.

Sie trachteten nach einer Erklärung in Einklang mit ihrer Philosophie, dass jedwede Anomalie, oder jetzt Störung, dem Menschen geschuldet ist. Sie verbogen das Modell mit Sulfaten aus anthropogenen Quellen, eine Partikelsorte, die Sonnenlicht blockiert und Abkühlung erzeugt. Sie wendeten das an, bis der Modelloutput zur Temperaturkurve passte. Das Problem war, dass nach 1980 die Erwärmung wieder einsetzte, das Sulfatniveau aber gleich blieb. Alles, was sie tun, leidet unter der von T. H. Huxley ausgesprochenen Wahrheit: „Die Große Tragödie der Wissenschaft ist das Scheitern einer wunderschönen Hypothese an einem hässlichen Faktum“.

Gray erklärte:

Anstelle von Validierung und der traditionellen Anwendung mathematischer Statistik sind die Modelle „evaluiert“ ausschließlich durch die Ansicht derjenigen, die sie erdacht haben. Derartige Ansichten sind parteiisch und verzerrt. Außerdem sind sie nichts weiter als Raten.

Er verwies auch darauf, dass das IPCC im Bericht 2001 im Abschnitt mit der Überschrift Model Evaluation geschrieben hat:

Wir erkennen in vollem Umfang, dass viele Evaluierungs-Statements, die wir abgeben, einen bestimmten Grad subjektiver wissenschaftlicher Vorstellung enthalten sowie viel „allgemeines“ oder „persönliches“ Wissen. Beispiel: Die reine Auswahl von Modellvariablen und Modellierungsprozessen, die untersucht werden, basieren oftmals auf der subjektiven Beurteilung und Erfahrung des modellierenden Teams.

Im Physical Science Basis-Bericht 2013 wird eingeräumt, dass es keine Validierung gibt.

Kapitel 9 des IPCC-Berichtes aus dem Jahr 2013 trägt den Titel Evaluation of Climate Models.Sie machen ein paar Verbesserungen bei der Evaluierung geltend, aber es handelt sich immer noch nicht um Validierung.

Obwohl von grundlegender Bedeutung, hat die auf Klimabeobachtungen der Vergangenheit basierende Evaluation von Klimamodellen einige wichtige Begrenzungen. Sie ist begrenzt auf jene Variablen und Phänomene, für die es Beobachtungen gibt.

In vielen Fällen bilden das Fehlen oder die schlechte Qualität langfristiger Beobachtungen, seien es spezifische Variablen, ein wichtiger Prozess oder ein bestimmtes Gebiet (z. B. Polargebiete, obere Troposphäre/untere Stratosphäre {UTLS} und die Tiefsee) unverändert ein Hindernis. Außerdem sind die beobachteten Aufzeichnungen, mit denen die Modelle verglichen werden, ,mangelhaft‘, und zwar wegen Ungewissheiten bei den Beobachtungen und der Gegenwart interner Variabilität. Diese Begrenzungen können reduziert, aber nicht vollständig eliminiert werden, durch die Verwendung multipler unabhängiger Beobachtungen der gleichen Variable ebenso wie die Verwendung von Modell-Ensembles.

Das in dem Kapitel beschriebene Verfahren zur Modellevaluierung reflektiert die Notwendigkeit der Klimamodelle, dass diese das beobachtete Verhalten des Klimas in der Vergangenheit als eine notwendige Bedingung für Projektionen in die Zukunft in Betracht ziehen müssen. Dies ist jedoch keine Antwort auf die viel schwierigere Frage zu bestimmen, wie sehr ein Modell zu Beobachtungen passen muss, bevor Projektionen durchgeführt werden, die man zuverlässig erachten kann. Seit dem AR 4 gibt es ein paar Beispiele auftauchender Hindernisse, wobei Beobachtungen verwendet werden, um Multimodell-Ensemble-Projektionen zu behindern. Diese Beispiele, die später noch in Abschnitt 9.8.3 zur Sprache kommen, bleiben Bestandteil eines Gebietes aktiver und bislang nicht aufschlussreicher Forschungen.

Ihre Schlussfolgerung

Die heutigen Klimamodelle sind im Prinzip besser als ihre Vorgänger. Allerdings ist jede einzelne hinzugefügte weitere Komplexität auch eine Quelle neuer Fehler (z. B. mittels unsicherer Parameter), obwohl damit einige Aspekte des simulierten Klimas verbessert werden sollen. Außerdem können dadurch neue Wechselwirkungen zwischen Modellkomponenten auftreten, die vielleicht, wenn auch nur zeitweise, die Modellsimulation anderer Aspekte des Klimasystems entwerten können. Und es kommt noch hinzu, dass trotz der erzielten Fortschritte wissenschaftliche Unsicherheiten hinsichtlich der Details vieler Prozesse fortbestehen.

Diese Zitate stammen aus dem Physical Basis Science-Bericht, was bedeutet, dass die Medien und die Politiker sie nicht lesen. Alles, was sie zu Gesicht bekommen, ist ein kleiner Kasten (2.1) auf Seite 56 der Summary for Policymakers SPM. Man hat die Worte sorgfältig gewählt, um zu implizieren, dass alles besser ist als noch im Ar 4. Eröffnet wird das Ganze mit den Worten:

Verbesserungen der Klimamodelle seit dem AR 4 des IPCC sind offensichtlich bei den Simulationen der Temperatur im Maßstab von Kontinenten, hinsichtlich der großräumigen Niederschlagsmenge, des Monsuns, des Arktischen Meereises, dem ozeanischen Wärmegehalt, einigen Extremereignissen, dem Kohlenstoff-Zyklus, der atmosphärischen Zusammensetzung und Aerosole, den Auswirkungen stratosphärischen Ozons und der El Niño-Southern Oscillation.

Das Einzige, was sie einräumen, ist, dass

die Simulation großräumiger Verteilungen des Niederschlags sich seit dem AR 4 etwas verbessert hat, obwohl die Modelle auch weiterhin hinsichtlich des Niederschlags schlechter abschneiden als hinsichtlich der Temperatur. Das Vertrauen in die Repräsentation der Prozesse bzgl. Wolken und Aerosole bleibt gering.

Ironischerweise sind diese Bemerkungen Gegenstand der gleichen Herausforderung der Validierung, weil der Leser den Anfangszeitpunkt nicht kennt. Falls das Modell nicht funktioniert, ist der Terminus „etwas verbessert“ bedeutungslos.

All dies bestätigt die Gültigkeit der Kommentare von Dr. Gray, dass die Validierung für ein Klimamodell unabdingbar ist und dass

kein Computer-Modell jemals validiert worden ist“.

Und: Ohne einen erfolgreichen Validierungsprozess sollte kein Modell als fähig erachtet werden, eine plausible Vorhersage des zukünftigen Verhaltens des Klimas zu liefern.

Link: http://wattsupwiththat.com/2015/08/08/validation-of-a-climate-model-is-mandatory-the-invaluable-work-of-dr-vincent-gray/

Übersetzt von Chris Frey EIKE




Glauben Sie an den Klimawandel?

Planet Erde

Die Historie des „Klimawandels“ des Planeten Erde ist etwa 4.500.000.000 Jahre alt. Warum sollte irgendjemand glauben, dass er gestern, im vorigen Jahr, im vorigen Jahrzehnt, im vorigen Jahrhundert oder sogar vor einem Jahrtausend aufgehört hat? Glauben Sie, dass die Rate oder Richtung natürlicher Klimawandel sich geändert hat, weil vor vielen Millionen Jahren die Dinosaurier ausgestorben sind? Oder glauben Sie, dass es am massenhaften Auftreten des Menschen vor ein paar Tausend Jahren lag?

Schauen wir auf einige der wirklichen Treiber des Klimawandels.

Kontinentalverschiebung, Erdbeben und Vulkane

Haben mittelozeanischen Rücken aufgehört sich weiter zu vergrößern, oder hat die nordamerikanische Platte aufgehört, sich über die Pazifische Platte zu schieben? Nichts dergleichen.

Sind Erdbeben und Tsunamis ein Ding der Vergangenheit? Keineswegs.

Jedes Jahr kommt es zu etwa zehntausend Erdbeben der Stärke 2 oder mehr auf der Richter-Skala, und manchmal bewegt sich die Erdkruste ruckartig, oftmals mit dramatischen Konsequenzen für die Menschheit. Erdbeben der Stärke 8 oder 9 setzen die gleiche Menge Energie frei wie viele Atombomben – jedoch innerhalb weniger Sekunden.

Etwa 20 bis 50 Vulkane brechen zu jeder Zeit aus, von denen einige Asche und Gas viele Kilometer hoch in die Atmosphäre treiben. Andere lassen neue Berge oder neue Inseln aus Lava entstehen. Vor einigen Tagen ist der Manam-Vulkan auf Papua-Neuguinea ausgebrochen und hat vulkanische Asche bis zu 20.000 m in den Himmel geblasen. Nun raten Sie mal, worin diese Asche eingebettet war? In Kohlendioxid – in riesigen Mengen ausgeblasen vom Vulkan und von der Hitze und der Druckwelle bis in die Stratosphäre getrieben – alles aus den Tiefen der Erde. Kohlendioxid – das ist das gleiche atmosphärische Spurengas, das man durch das Verbrennen von Kohle, Öl, Holz oder Gas erzeugt.

Aber nicht alles auf der Erde weist große Hitze auf, es gibt auch ,cold spots‘.

Ausdehnung von Eisschilden

Die letzte (von zahlreichen) Eiszeiten hatte Nordamerika, Europa und Asien fest im Griff. Auf ihrem Höhepunkt waren fast alle nördlichen Gebiete der Kontinente (etwa das gesamte Gebiet nördlich von 45°N) unter dicken Eisschilden begraben. Wie dick, kann man fragen. Antwort: Irgendwo zwischen 1 und 4 km.

Dieser massive Eisschild war jedoch keineswegs ein stationäres Gebilde. Er bewegte sich stetig nach Süden, Tag und Nacht, und jedes Hindernis wurde einfach eingeebnet durch die schiere Masse und das mitgeführte Material wie Felsbrocken so groß wie Häuser und von viel weiter nördlich. Man kann diese Spuren noch überall sehen, nicht nur in Ontario im „Cottage Country“. Granitfelsen mit eingesprenkeltem Feldspat und Quarz wurden geglättet und poliert, so dass sich jetzt das Sonnenlicht darin spiegelt. Auch die Gräben, die große Felsen beim Schaben über Grund hinterlassen haben, sind vielfach noch erkennbar.

Schmelzen der Eisschilde

Diese kontinentalen Eisschilde haben vor etwa 20.000 Jahren ihre maximale Ausdehnung erreicht, sind jedoch bis vor etwa 5000 Jahren komplett abgeschmolzen. Das ist nun wirklich echter Klimawandel in Aktion! Ja, auch das CO2-Niveau hat zugenommen, aber erst mit einer zeitlichen Verzögerung von etwa 800 Jahren. Wie eindeutig aus Eisbohrkernen in Grönland hervorgeht, war die CO2-Zunahme nicht Ursache, sondern Folge dieses Abschmelzens.

Man bräuchte viele Male die Energie der bislang insgesamt verbrannten fossilen Treibstoffe und jener immer noch im Boden, um dieses gigantischen „Eiswürfel“ zu schmelzen. Und doch hat Mutter Natur dies ohne Fanfarenstöße und – und das ist der Knüller – ohne jede Änderung des atmosphärischen CO2-Gehaltes bewerkstelligt. Dies allein sollte eigentlich schon reichen, wie falsch die CO2-Untergangsproheten liegen. Kohlendioxid in der Luft ist kein Klimafaktor.

Das Credo der Untergangspropheten

Es ist das Credo der Untergangspropheten, nahezu jedes natürliche Ereignis dem Klimawandel in die Schuhe zu schieben. Ist es heiß, muss es am Klimawandel liegen. Selbst wenn es kälter als gewöhnlich ist, wollen sie uns glauben machen, dass es lediglich ein anderes Anzeichen durch vom „Klimawandel ausgelöste“ Wetterextreme ist. Die polaren Eiskappen sollten inzwischen abgeschmolzen sein. Was, stattdessen haben sie sich ausgeweitet? Offensichtlich wieder ein Beweis für Klimawandel. Usw., usf.

Andere CO2-basierte Behauptungen wie der rapide steigende Meeresspiegel, der vermeintlich Atolle in Mikronesien verschlingen und die Malediven ertränken wird, haben sich ebenfalls bislang nicht materialisiert. Sowohl die Landmasse der Atolle als auch deren Bevölkerung nehmen stetig zu. Falls man wirklich sehen will, was in Tuvalu oder auf den Malediven los ist, gehe man zu Google Earth und schaue näher, oder man betrachte sich die Werbesprospekte mit den Ferienangeboten dort.

Das PIK, Deutschland

Die Liste falscher Prophezeiungen, die Missverständnisse hinsichtlich Ursache und Konsequenzen sowie mit falschen Proklamationen ist lang. Warum sonst hätten die Erleuchteten des PIK und von anderswoher Papst Franziskus dahin gehend beraten, Behauptungen über CO2 aufzustellen, die sich schon vor Jahrzehnten als völlig falsch erwiesen haben? Natürlich hat der Oberguru jenes Instituts nicht auf meine Fragen in meinem offenen Brief vom 30. Juni 2015 geantwortet (den er auch als E-Mail bekommen hat). Falls er geantwortet hätte, dann hätte er entweder einräumen müssen, unrecht zu haben, oder er wäre in der Pflicht gewesen, wissenschaftliche Beweise vorzulegen.

Falls ich mich richtig erinnere, behauptete der Ober-Alarmist des PIK Prof. S. Rahmstorf, dass bis zum Jahr 2015 das letzte Bisschen Meereis im arktischen Sommer verschwunden sein würde. Tatsächlich geschah genau das Gegenteil. In der Arktis nähert sich die Ausdehnung wieder dem vieljährigen jährlichen Mittel, und in der Antarktis strebt die Ausdehnung des Meereises von einem Rekord zum nächsten. Tatsächlich hatte selbst noch Ende Juli der kanadische Eisbrecher CCGS Pierre Radisson in der Frobisher Bay auf der Ostseite von Labrador Schwierigkeiten, seinen Weg durch das Eis zu pflügen, um die Ansiedlungen dort per Schiff zu versorgen. Ich frage mich, ob Rahmstorf jemals in der Arktis war – im Winter, versteht sich.

Doppelzüngigkeit des PIK

Es gibt auch wissenschaftliche Lügen, die vom PIK verbreitet werden. Zum Beispiel über die Verweildauer von CO2 in der Atmosphäre und die vermeintliche Versauerung der Ozeane. Sie mögen es auch, stets den Hinweis auf die fast 1000 Jahre lange Verzögerung zu vergessen, mit der eine CO2-Zunahme einer globalen Erwärmung FOLGT und dieser NICHT vorangeht. Es ist unvorstellbar, dass sie es nicht besser wissen. Darüber werde ich in Zukunft noch Einiges schreiben. Überflüssig zum jetzigen Zeitpunkt zu sagen, dass die PIK-Leute entweder nicht die Prozesse in der Natur verstehen oder sich einfach nicht darum scheren, die Wahrheit zu sagen.

Dem Gründer und Präsidenten des PIK Prof. H.J. Schellnhuber zufolge kann die Welt nur etwa eine Bevölkerung von einer Milliarde Menschen oder so bewahren. Die anderen 6 oder 7 Milliarden müssen sofort „dekarbonisiert“ werden. Im Gegensatz dazu heißt es in der jüngsten Enzyklika des Papstes: „das Bevölkerungswachstum verantwortlich zu machen anstatt den extremen und selektiven Konsum von einigen wenigen, ist ein Weg, sich zu weigern, den Dingen ins Auge zu sehen“. Als Schellnhuber jüngst zur Pontifical Academy of Sciences gebeten worden war, fragte ich mich, ob dem Papst das bewusst war. Mir sieht es eher wie ein massiver Meinungskonflikt aus.

Überarbeitete Fragen

Mit all dem im Hinterkopf wollen wir uns jetzt noch einmal die Titelfrage vorlegen „glauben Sie an den Klimawandel?“ und diese Frage in den richtigen Zusammenhang stellen:

Gab es Klimawandel in der Vergangenheit? Ja, natürlich!

Wird es auch in Zukunft Klimawandel geben? Ja, natürlich!

Ist CO2 (oder der Verbrauch fossiler Treibstoffe) die Ursache für Klimawandel? Mit Sicherheit nicht! Jede geistig gesunde Person muss dies mit einem nachhallenden NEIN beantworten!

Dr. Klaus L.E. Kaiser — Bio and Archives

Link: http://canadafreepress.com/article/74382

Übersetzt von Chris Frey EIKE




Planwirtschaft mit Markt-Neusprech

Marktdesign ist per Definition die Manipulation, den Vertrieb von Gütern und Leistungen so auszugestalten, daß die Verhaltensanreize für Marktteilnehmer mit den übergeordneten Zielen  des Marktarchitekten und nicht mit den Interessen der Käufer und Verkäufer im Einklang stehen.  Es ist ein wirtschaftspolitisches Gängeln mit Verboten (nimm keine Kernkraft) und Befehlen (dämme dein Haus). Nudging ist dagegen liberale Puppenstube. Da gibt es nämlich keine Verbote und Befehle. Das Vorhandensein eines omnipotenten und rege tätigen Marktarchitekten verweist auf Marktferne und Planwirtschaft. Im Grünbuch „Ein Strommarkt für die Energiewende“ ist ständig von Marktdesign die Rede.

Nun hat es Rahmenbedingungen des Kaufens und Verkaufens immer schon gegeben. Jedes auch noch so minimalistische Rechtssystem setzt Käufern und Verkäufern irgendwelche Schranken. Die Festlegung von Marktorten, Marktzeiten, der Kampf gegen Übervorteilung und Betrug, die Besteuerung bestimmter Umsätze und die Festlegung von Gewichten oder Zahlungsmitteln sind uralte gesetzgeberische Begleitumstände des Handels. Der erfolgreiche Gesetzgeber hat jedoch immer für Fairness gesorgt und Handelsplätze damit erst attraktiv gemacht.

Die Bevorteilung bestimmter Anbieter, zum Beispiel von Strom aus Photovoltaik und Wind gegenüber anderen Stromerzeugern ist einem freien Markt völlig fremd. Wir sind hier wieder in den 20er, 30er und 40er Jahren angekommen, wo Roggen, Margarine und Holzschliff gegenüber Mais, Butter und Lumpen bevorzugt wurden, wie überhaupt jedes deutsche Produkt gegenüber einem Import. Die Reichskanzler der Weimarer Republik und der Führer des Dritten Reichs waren auch Marktdesigner, obwohl es diesen Begriff aus dem WahrheitsWirtschaftsministerium von Sigmar Gabriel damals noch nicht gab.

Was würde es für einen Aufschrei geben, wenn man im Supermarkt nur Margarine statt Butter kaufen dürfte, jeweils bis die Margarine alle ist. Wenn das ranzig werdende Margarineüberangebot zusammen mit der guten Butter gemeinsam in einer Leipziger EEX Fettbörse vertickt werden würde, mit dem Ergebnis, daß Margarine nach Tschechien oder in die Schweiz verklappt wird, Deutschland dafür noch was zuzahlen muß und der Butterpreis durch diesen Irrsinn unter den Gestehungspreis sinkt. Und wo die Grünen noch stolz auf den ruinös gesunkenen Butterpreis sind. Wo die Erzeuger von Margarine hohe Festpreise erhalten, und das über 20 Jahre garantiert. Wo die Butter mit einer Umlage für erneuerbare Fette verteuert wird. Und wo ein semireligiöser Kult um chemische Fette getrieben wird. (Gab es tatsächlich um 1950: „Mitschurin hat festgestellt, daß die Butter Gift enthält…“) Wo, Herr Wirtschaftsminister Gabriel, ist da ein Funken Marktwirtschaft? Energie wird genau nach diesem Muster produziert und verteilt.

Preise für Energie sind von den Produkterzeugungskosten meilenweit entfernt, so wie in der DDR, wo noch bis fünf Minuten nach Zwölf die Preise von 1936 galten. Mit den Fehlsignalen dieser Preise wurde damals ein Fehlsortiment produziert, zu international völlig konkurrenzunfähigen Fehlkosten. Heute produziert man unzuverlässigen Flatterstrom zu Flatterpreisen und ist stolz auf deren flatternde „Markt“-Signale.

Das Wirtschaftsministerium steuert nun mit flatternden Fahnen auf einen EOM-Energiemarkt zu, bei dem nur tatsächliche Energielieferungen vergütet werden, nicht aber die Bereitstellung von Leistung. Wieso brauchts dafür den englischen Terminus EOM ? Damit niemand was versteht? Es wimmelt im Grünbuch nur so von Nebelvorhang-Anglismen, die in England und in Deutschland niemand versteht.

Tatsächlich könnte dieser sogenannte Energy-only-Markt recht diffuse Anreize dafür liefern, Kraftwerke für Zeiten mit Engpässen vorzuhalten. Eine Verknappung solcher Kapazitäten verursacht nämlich bei Engpässen stark ansteigende Börsenstrompreise, so dass mit diesen Reservekraftwerken an solchen Tagen Erträge erwirtschaftet werden können, welche die Kosten übersteigen. Allerdings weiß niemand wie oft und wie regelmäßig solche rettenden Preisspitzen eintreten. Sie sind extrem wetterabhängig. Und nur ein Bruchteil dieser Spitzenpreise wird bei den Reservekraftwerken ankommen, weil alle gerade am Netz befindlichen Kraftwerke von diesem Geldsegen was abbekommen werden. „Insolvenz mit Sonne im Herzen“ oder „Windige Pleite“ wird man in den Zeitungen als Headline lesen, wenn ein Reservekraftwerk zumacht.

Was am Grünbuch „Ein Strommarkt für die Energiewende“ überhaupt auffällt: Es kommen kaum Zahlen darin vor. Auch Diagramme und Abbildungen fallen seitenweise unter das bei den Taliban übliche Bilderverbot. Beim Lesen bekommt man angesichts der Größe der zu bewältigenden Probleme und der einzusetzenden Mittel nicht das Gefühl, daß mit Kanonen auf Spatzen geschossen wird, sondern mit Luftballons auf Elefanten. Die Größenverhältnisse im deformierten Energie-„Markt“ spielen im Grünbuch keine Geige. Mit dem Aufladen von Elektroautos und dem Betrieb von Elektroheizungen (bis vor kurzem noch absolut pfui) wollen die Ministerialen Energieüberschüsse abbauen, die rund 100mal größer sind, als diese Nischenanwendungen.

Paul Samuelson und William Nordhaus definierten den Markt wie folgt: Ein Markt ist ein Mechanismus, mit dessen Hilfe Käufer und Verkäufer miteinander in Beziehung treten, um Preis und Menge einer Ware oder Dienstleistung zu ermitteln.

Das ist in der deutschen Energiewirtschaft nicht der Fall, weil eine politisch gewollte Menge einer Ware zu einem Festpreis mit roher und brutaler Gewalt in den Markt gedrückt wird. Deshalb handelt es sich nicht um einen Markt, sondern um Planwirtschaft mit exorbitanten Monopolprofiten. Von Sozialismus und Kapitalismus (wie Gabriel ihn als Profitmaschine mißversteht) hat Sigmar Gabriel gekonnt nur deren Nachteile  miteinander kombiniert.

Ein typischer Dritter Weg in einem regulatorischen Irrgarten, den kein Mensch hinsichtlich seiner Nebenwirkungen mehr überblickt. „Im gegenwärtigen Marktdesign hat sich eine Vielzahl von Produkten und Instrumenten entwickelt, die das Marktgeschehen unterstützen oder Markt und Netz absichern: Neben den kurzfristigen Spotmärkten und Regelleistungsmärkten existieren beispielsweise Redispatch- und Einspeisemanagement-Maßnahmen und die Netzreserve. Auf unteren Spannungsebenen werden die Netzbetreiber voraussichtlich verstärkt Speicher und andere Flexibilitätsoptionen für Systemdienstleistungen einsetzen. Grundsätzlich gilt: Je weniger Instrumente und Produkte dieselben Ziele verfolgen, desto geringer sind tendenziell die Kosten.“ So steht es im Grünbuch des Ministeriums.

Der letzte Satz ist richtig, blos richtet sich niemand nach dieser Weisheit. Wenn man auf Wind- und Sonnenenergie verzichten würde, würde nämlich der Strompreis sinken.

Außerdem veröffentlicht auf Prabels Blog




Weitere Stürme auf dem Atlantik!

Aktualisierung: Sturmwirbel auf dem Atlantik

Bei Redaktionsschluss meines o. g. Beitrags habe ich auf den jüngsten Sturmwirbel bei Irland hingewiesen. Wer aber nun dachte, das sei der letzte gewesen, sah sich getäuscht. Vorgestern gab es wieder auf dem Atlantik eine Entwicklung, die ich für die Jahreszeit als extrem eingestuft hätte, die aber in diesem Sommer offenbar normal* ist, was immer das heißt. Auf dem Atlantik im Seegebiet zwischen Grönland und Island hat sich ein Wirbel mit einem Kerndruck unter 975 hPa gebildet (siehe Bild rechts).

(*Zum Begriff normal hat sich Chris Frey auf seinem Blog ein paar interessante Gedanken gemacht; siehe hier)

Bild rechts: Wetterkarte vom 13. August 2015, 00 UTC (02 Uhr MESZ). Quelle: Berliner Wetterkarte e. V.

Die in dem Beitrag beschriebene Problematik (sowie deren aktuelle Fortsetzung!) hat offenbar einen Mr. Dahlquist beeindruckt, der in seinem Kommentar Nr. 21 unter jenem Beitrag auf Englisch geschrieben hat. Auslöser seines Kommentars war ein solcher von mir auf dem Blog von Pierre Gosselin zu diesem Beitrag, und zwar dieser hier: http://tinyurl.com/p2qu3yq.

Aber zurück zum Kommentar Nr. 21 unter jenem Beitrag. Dahlquist spricht mich darin zunächst direkt an und gibt seiner Hoffnung Ausdruck, dass ich nichts dagegen hätte, wenn er meinen Kommentar an WUWT weitergegeben hat.

Soweit es mich betrifft, verzichte ich hier auf eine Übersetzung. Es folgen hier die von Dahlquist übermittelten Erwiderungen auf meinen Kommentar bei NoTricksZone, die man durchaus auch als Kommentare zu meinem Beitrag hier verstehen kann.

Hans Dieter Schmidt
Erwiderungen
DD More, 13. August 2015
Hans-Dieter, Ihre Bemerkung „Falls es eine ganze Reihe [solcher Wirbel] wie in diesem Sommer gibt, bleibt nur eine Schlussfolgerung: Es muss in diesem Sommer in der Arktis außerordentlich kalt sein! Dies muss sich nicht sofort in der Meereis-Ausdehnung spiegeln, aber wer weiß, wie es während der nächsten Jahre aussieht“. Diese Bemerkung passt sehr gut zu den Temperaturen in Island:

Die ersten 13 Wochen des Sommers in diesem Jahr waren in Reykjavik die kältesten seit über zwanzig Jahren. Dies zeigt der isländische Meteorologe Trausti Jónsson.

Die im Norden der Insel gelegene Stadt Akureyri war sogar noch schlimmer dran – man muss etwa dreißig Jahre zurückgehen, um einen noch kälteren Sommer zu finden.

Der Sommer in Reykjavik war seit 1992 nicht mehr so kalt, obwohl der Sommer des Jahres 1979 bei Weitem der kälteste war. Der wärmste Sommer der letzten 67 Jahre war in Reykjavik im Jahre 2010 aufgetreten.

In Akureyri war der Sommer seit 1983 nicht mehr so kalt gewesen. Weiteres gibt es hier.

————————-

Mark W, 13. August 2015

Sind es nicht die Wassertemperaturen im Nordatlantik, die ziemlich stark die Lufttemperaturen in Island beeinflussen? So viel zu der Behauptung, dass die Ozeane immer wärmer werden.

Einschub hierzu von Hans-Dieter Schmidt:

Hier meint der Kommentator offenbar das riesige Gebiet mit Wassertemperaturen niedriger als im Mittel (siehe Abbildung). Diese Kaltwasserinsel ist dort schon seit vielen Monaten vorhanden. Der auf Irland lebende Kommentator Herr Uhlemann (Kommentare Nr. 5 und Nr. 16) kann offenbar auch ein Lied davon singen.

Abbildung: Anomalie der Wassertemperaturen am 15. August 2015 (heute – kein „Cherry Picking“!) Quelle: http://weather.unisys.com/surface/sst_anom.gif

Ende Einschub

————————-

Gary Pearse, 13. August 2015

Hans-Dieter, dieser kalte Sommer war auch im östlichen Kanada zu spüren, wo der Schnee des Winters mit einem Monat Verspätung verschwunden ist. Die Monate Mai und Juni waren etwa 5°C kälter als normal, und auch jetzt noch geht die Temperatur nachts im Juli und August auf 11 bis 14°C zurück. Ich bemerke auch, dass sich während der vorigen Woche in der Beaufort-See neues Eis gebildet hat. Nur das Danish Meteorological Institute DMI [den Link, den ich auch in meinem Beitrag genannt hatte; H.-D. S] zeigt derzeit eine fast normale Eisausdehnung, während NSIDC und Cryosphere Today (beide USA) einen rapiden Eisschwund zeigen. Ich traue den Skandinaviern hinsichtlich der Arktis mehr als der anderen politisierten Bande. Es ist ein sakrosanktes Gebiet für sie.

Alles wird inszeniert für das Klimatreffen in Paris. Die Narren halten es im Dezember ab. Mit dem kalten Wasser rund um die Nordhälfte Europas prophezeie ich eine kalte Weiße Weihnacht für Paris. Kanada und die USA (vielleicht mit Ausnahme der Gebiete ganz im Westen) werden in einer ganzen Reihe kalter Winter einen Weiteren erleben.

————————-

goldminor, 13. August 2015
Vor drei Wochen erfolgte in Grönland eine rapide Zunahme der Eismasse, die sich seitdem über dem vieljährigen Mittel befindet. Zu jener Zeit zeigte die grönländische Küste rote Gebiete = Eisverlust. Vor drei Wochen war es auch, als die Temperatur der Arktis wie von DMI dokumentiert einen moderaten Abfall unter das vieljährige Mittel zeigte. Dort verharrte sie auch in der Zwischenzeit. Dann vor etwa 10 Tagen begann der grönländische Eisschild blaue Gebiete zeigen = Zunahme der Eismasse. Ich würde denken, dass dies mit dem Temperaturrückgang in der Arktis 3 Wochen zuvor zusammenhängt. Das Südende von Grönland zeigt den größten Zuwachs an Eismasse, was merkwürdig scheint.

Etwas anderes hat aber kürzlich meine Aufmerksamkeit erregt, nämlich der Blick auf die täglichen Temperaturen rund um die Welt. Mir ist aufgefallen, dass in weit über der Hälfte aller weltweiten Messpunkte die Minimum-Temperaturen nicht mehr über dem Mittelwert liegen. Eine Temperaturbeobachtung über 14 Tage zeigt zumeist mittlere Werte der Minima. Außerdem zeigt ein moderater Prozentanteil von Messpunkten Höchstwerte, die unter den mittleren Höchstwerten liegen während eines Zeitraumes von 14 Tagen. Dies ist eine merkliche Änderung im Vergleich zu dem 9-monatigen Zeitraum von September 2014 bis Mai in diesem Jahr. Hier im Norden Kaliforniens, wo ich wohne, fühle ich diesen Unterschied. Dies ist der schönste Sommer der letzten 4 Jahre mit Temperaturen meistens beim Mittelwert [d. h. er ist längst nicht so heiß wie während der letzten Jahre. Anders als bei uns werden eher kühle Sommer dort als angenehm empfunden. H.-D. S.]. Es gab ein paarmal Regen im Sommer, die Nachttemperaturen bewegten sich während des Sommers fast durchweg unter 60°F [ca. 15°C]. Gerade während der letzten Woche hat es sich bis 50°F [~10°C] abgekühlt. Es kühlt sich ab, und dies wird während der nächsten Jahre immer deutlicher zu merken sein.

————————-

Schlussbemerkungen des Autors: Alles hier Gesagte ist natürlich ausschließlich Wetter und hat nichts mit Klima zu tun. Auch in meinem Beitrag geht es ja um Wetter und um nichts Anderes. Und dass sich Wetter wiederholt, auch in unterschiedlichen Zeitmaßstäben, ist jedem vertraut, der bzgl. des Wetters mit dem Begriff ,Persistenz‘ etwas anfangen kann.

Ich nehme die Kommentare oben als Beleg, dass ich nicht der Einzige bin, dem die Wetterphänomene dieses Jahres auffallen. Auch der von mir vermutete Grund für die atlantische Tiefdrucktätigkeit dieses Jahres wird damit bestätigt. Die Kälte in Grönland und das Kaltwassergebiet im Ostatlantik müssen während der nächsten Monate im Auge behalten werden. Und da der große Trog auch heute noch über dem Atlantik liegt, besteht bei uns auch weiterhin die sehr reale Möglichkeit einer weiteren Hitzewelle.

————————-

Ich bedanke mich bei Chris Frey für seine Hilfe bei den Übersetzungen.

© Hans-Dieter Schmidt, 15. August 2015




Die bayerische IHK und die Energiewende-Zwischenbilanz 2015

Bild1 (rechts): Bayerns Wirtschafts- und Energieministerin Ilse Aigner bei der Zwischenbilanz-Präsentation der bayerischen IHKs zur Energiewende am 17. Juli 2015. Sie bekommt vom bayerischen IHK Haupt-Geschäftsführer ein „Präsent“ überreicht.

Vor Kurzem hat die IHK Bayern ein Positionspapier zur Energiewende veröffentlicht[1].  Wenn ein solcher Verband, der auf das geballte Wissen und Know-how von Industrie, Mittelstand und Handel zurückgreifen kann dazu Stellung nimmt, ist man gespannt auf eine fundierte und reflektierende Darstellung dieses kritischen Themas. Entsprechend wird im Vorwort auch die Erwartung geschürt: 

Vorwort des IHK Präsidenten und des Haupt-Geschäftsführers:

[1] …. Vor diesem Hintergrund hat der Bayerische Industrie- und Handelskammertag (BIHK) gemeinsam mit im BIHK-Ehrenamt tätigen Unternehmen aller Branchen dieses Positionspapier erarbeitet.

Das Papier zieht eine Zwischenbilanz zum Stand der Energiewende nicht nur in Bayern, sondern auch in Deutschland und Europa, im Hinblick auf die Sicherheit und Wirtschaftlichkeit der Energieversorgung und leitet hieraus Handlungsempfehlungen ab. Das Papier wird durch die BIHK-Schlussfolgerungen zum Energiedialog Bayern ergänzt. 

Der Autor – dem EEG gegenüber erkennbar kritisch eingestellt[5] – hat sich die Publizierung angesehen. Wie er diese persönlich einschätzt, ist in diesem Artikel für EIKE-Blogleser zusammen-gefasst. Um es nicht zu lang werden zu lassen, musste er sehr selektiv auswählen. Deshalb hat er sich auf die Themen: CO2-Vermeidung,  Sinnhaftigkeit und Machbarkeit der Energiewende, sowie politische Orientierung beschränkt.

 

Beginnen wir mit einem Zitat aus dem Vorwort, und zwar der Einleitung davon:

 

[1]

 

Diese Zeilen hätten die Grünen so „kurz und knackig“ für eines ihrer Wahlplakate nicht besser texten können, nach dem Motto: Gutes tut man mit dem Herzen und nicht mit dem Verstand:

 

       unterstützt den Umbau der Energieversorgung

       Senkung der klimarelevanten Emissionen

       schrittweiser Ausstieg aus der Kernenergie

       stärkere Nutzung erneuerbarer Energien

       Schonung der natürlichen Ressourcen

Ein wunderschön formuliertes „Zieldreieck“ beschreibt dazu ergänzend den paradiesischen Endzustand:

 

[1]

Nur ein paar Kleinigkeiten findet die IHK störend:

[1] Die Gefährdung der Wettbewerbsfähigkeit zeigt sich auch in den immer höheren Strompreisen, die die Bezahlbarkeit der Energieversorgung immer weiter erschweren.

Aber was noch nicht gelungen ist, kann nach 25 Jahren wohl immer noch werden. Ein paar Mängelchen beseitigt und schon wird es richtig flutschen. Realitätsferne ist eben keine Parteidomäne:

[1] .

Der Autor des EIKE-Artikels „Was die Energiewende wirklich kostet“[4] (und viele andere) müssen sich da wohl verrechnet haben. Leider führt im Gegensatz zum EIKE-Autor die IHK keine Belege an. 

Nun sind Vorwörter noch kein Inhalt. Nicht selten steht darin das Gegenteil drin, weil „die Sachbearbeiter oder engstirnigen Ingenieure“ etwas anderes ermittelt haben, als Vorstände hören wollten. Stürzen wir uns also darauf.

 

Zwischenbilanz der bayerischen IHKs zur Energiewende 2015

 

1 Zielsetzung der Energiepolitik in der EU, Deutschland und Bayern

 

1.1 Energiepolitische Ziele in der EU

 

Es werden die EU-Ziele gelistet und erklärt. Das folgende Bild 2 zeigt die Kernaussagen. Interessant ist, dass dem Anteil erneuerbarer Energien ein identisches Einsparziel gegenüber steht. Es zeigt zumindest einen Realitätssinn (der EU-Politiker). Diese bedeutet allerdings, dass der Verbraucher doppelt bezahlen muss. Bezahlen der „Erneuerbaren“ und bezahlen, damit man sie nicht benötigt, weil sie als Zappelstrom unplanbar sind. Das Kapitel geht darauf leider nicht ein. Es geht auch nicht darauf ein, was der Nutzen der Emissionsreduzierung sein soll.

 

Bild2 [1]

1.2 Energiepolitische Ziele in Deutschland

 

Textausschnitt:

[1] Deutschland steht als führende Industrienation Europas mit seiner Energiewende im

Fokus der weltweiten Öffentlichkeit. Es wird dabei durchaus unterschiedlich bewertet:

Die Einschätzungen reichen von einem unkalkulierbaren Wagnis bis hin zu einer Vorbildfunktion. 

Leider wird nicht gesagt, wer wie über die deutsche Energiesende denkt. Bei [18] kann man ein Beispiel lesen.

Ansonsten werden nun die deutschen Ziele, basierend auf dem Energiekonzept (2010) und „10-Punkte-Energie-Agenda“ des BMWi, die im Juni 2014 veröffentlicht wurde, erklärt. Inhaltliche Diskussionen dazu sind nicht zu finden.

 

Bild3 [1]

 

1.3 Energiepolitische Ziele in Bayern

Textausschnitt:

[1] In Deutschland übernimmt Bayern eine Vorreiterrolle beim Ausbau der erneuerbaren Energien. Der Anteil der Erneuerbaren an der Stromerzeugung lag in Bayern 2013 bei 34 Prozent, der Anteil am Primärenergieverbrauch bei 16,2 Prozent. Bei Photovoltaik, Wasserkraft und Geothermie liegt der Freistaat auf dem 1. Platz, bei Bioenergie auf Platz 2 unter den Ländern. Bei der Windenergie erreicht Bayern beim aktuellen Zubau Platz 6 (Bayerisches Staatsministerium für Wirtschaft). Nachfolgende Grafik stellt die prominentesten energiepolitischen Ziele Bayerns dar (Bayerisches Energiekonzept 2011).

Ansonsten werden nun die bayerischen Ziele, basierend auf dem bayerischen Energiekonzept 2011 erklärt.

Bild4 [1]

 

Die Kernziele des bayerischen Energiekonzeptes „Energie innovativ“, die im Wesentlichen durch den Energiedialog bestätigt wurden, sind[1]:

       Umstieg auf eine überwiegend auf erneuerbaren Energien basierende Energieversorgung in Bayern

       Eine sichere, bezahlbare und umweltfreundliche Energieversorgung in Bayern

·       Bayern bleibt Produktionsstandort für Energie und strebt bei der Energiewende die Technologieführerschaft in Wissenschaft und Wirtschaft an.

Mit dem Zusatz:

[1] Die größten Zuwächse beim erneuerbaren Strom sollen Photovoltaik und Windenergie erzielen.

 

Auch zu diesen Listungen ist keine inhaltliche Diskussion zu finden. Dabei gäbe es doch so viel Klärungsbedarf, wie es gelingen soll, dieses offensichtliche Wunschdenken und die erschreckende Wirklichkeit[5] in Übereinstimmung zu bringen.  

Anschließend wird es etwas interessanter. Auch die IHK weiss, dass nach dem Abschalten aller Kernkraftwerke in Bayern die Hälfte der Elektro-Stromerzeugung fehlt[5].

 

[1] Bayern hat deutschlandweit den größten Anteil an Atomkraftwerken zur Stromerzeugung und ist deshalb von der Energiewende mit dem Atomausstieg besonders stark betroffen. Bis 2022 werden in Deutschland alle Kernkraftwerke stillgelegt. Damit fallen in Bayern 46 Prozent der grundlastfähigen Kraftwerke weg. Diese Kapazitäten müssen rund um die Uhr ersetzt werden können, was für Bayern eine große Herausforderung darstellt.

 

Erstmals liest man auch, dass Bayern vom EEG gleich „besonderst stark betroffen ist“. Dass das eine große Herausforderung darstellt, sollte auch einem Nicht-Fachmann klar sein. Eine Diskussion darüber findet im Kapitel aber nicht statt.

 

2 Energiewende: Zwischenbilanz der bayerischen IHKs 2015

 

2.1 Europäische Union: Nicht alle Länder im Gleichschritt

 

In diesem Kapitel geht es vor allem um die CO2-Reduktionsziele.

 

[1] Mit der Priorisierung der Reduktion der Treibhausgase im Rahmen der EU-Ziele für 2030 gegenüber den Zielen für den Ausbau erneuerbarer Energien und die Einsparung von Energie ist die europäische Politik einen großen Schritt vorwärts gegangen. Es sieht alles danach aus, dass das EU-Ziel erreicht wird, und zwar bei geringen Kosten für die Endkunden und Märkte.

 

Was der „große Schritt Vorwärts“ sein soll, wird nicht ausgeführt. Die Worthülse „Vorwärts“ hat zudem viel Historie. Die meisten Länder, in denen sie konsequent einen imaginären „Fortschritt“ begründete, existieren nicht mehr, oder leiden noch heute darunter. Auch wie man auf die Darstellung „…und zwar bei geringen Kosten für die Endkunden..“ kommt, bleibt bei einem Endkunden-Strompreisverlauf, wie es Bild 5 darstellt, ein Rätsel. Aber vielleicht sind nur die davon befreiten Industriebertriebe gemeint. Wer es schon bisher bezahlt, kann man jedenfalls überdeutlich sehen.

 

Bild5 [6] Strompreisverlauf Deutschland (Pfeile durch den Autor hinzugefügt)

 

Eine inhaltliche Diskussion zum Thema: Sinn der CO2 Reduzierung, findet nicht statt. 

2.2 Deutschland und Bayern: Bundesregierung hat Ziele lange nicht erreicht

Bei all der Euphorie und vorbehaltlosen Zustimmung, welche die IHK bis hier zur Energiewende listet, kommen nun  Wermutstropfen. Ausgerechnet dort, wo die bayerische IHK sitzt, ist es leider „ernüchternd“.

[1] Sowohl auf Bundesebene als auch auf Landesebene kommt die Energiewende trotz der 10-Punkte-Agenda des Bundeswirtschaftsministeriums an den entscheidenden Punkten nicht mehr richtig voran. Die Zwischenbilanz ist mit Blick auf den Atomausstieg und die Sicherung der Versorgung nach 2022 ernüchternd. 

Die bayerische IHK meint nun, dagegen komme man wohl am besten an, indem man der „Ernüchterung“ Wünsche entgegenstellt. Alles ist toll und das Paradies schon nah, wie Experten es laufend belegen, doch leider funktioniert es hinten und vorne nicht, lautet das Credo. Irgendwie kann man sich dabei in einen DDR-Funktionär kurz vor der Wiedervereinigung hineinversetzen:

[1] Der Strommarkt der Zukunft soll laut BMWi für einen effizienten Kraftwerkseinsatz bei wachsenden Anteilen erneuerbarer Energien sorgen. Gleichzeitig muss er Versorgungssicherheit gewährleisten. Umlagefinanzierter EE-Strom kann kostenfrei oder sogar zu negativen Preisen an den Strombörsen angeboten werden. Er drückt dadurch die Börsenpreise auf ein Niveau, auf dem die nicht geförderten Marktteilnehmer ihre Kosten nicht mehr decken können. Ohne diese kann die Stromversorgung aber nicht funktionieren. Hier besteht dringender Handlungsbedarf.

Die dadurch entstehende weitere Verzögerung des Netzausbaus darf die Versorgungssicherheit nicht weiter gefährden.

Netzengpässe und deren Management sind somit die derzeit größte Hürde für eine möglichst kostengünstige Integration erneuerbarer Energien in das Stromsystem. Je höher der Anteil von EE-Strom wird, desto höher wird auch der Bedarf an Netzkapazitäten im Übertragungs- und Verteilernetz. Der Netzausbau wird also zunehmend zur Achillesferse der Energiewende. 

Lösungsansätze sind aber nicht zu finden. Jedoch listet die IHK nun immer mehr grundlegende Mängel.  

 

3. BIHK-Positionen zur Energiepolitik:
Was jetzt getan werden muss

 Das Prinzip wird nicht in Frage gestellt. Also ist es zu „verbessern“. Es folgt eine Kaskade an Vorschlägen und Wünschen, die wohl jeden damit betrauten Politiker alleine beim Durchlesen zur Verzweiflung treiben müssen. Die im Raum stehende Frage: Könnte vielleicht die Systembasis falsch sein, wird nicht angesprochen. 

[1] Die Zwischenbilanz 2015 zeigt, dass bereits viel erreicht wurde. An vielen Stellen herrscht jedoch Nachbesserungsbedarf. Die Abschaltung der letzten Kernkraftwerke 2022 rückt näher. Der Stromleitungsbau gerät immer stärker in Verzug. Flexible Bestandskraftwerke stehen unter enormem wirtschaftlichem Druck. Neuinvestitionen in flexible Kraftwerke als Partner der Erneuerbaren unterbleiben. Maßnahmen zur Steigerung der Energieeffizienz müssen vorangebracht werden. Die Politik muss daher einen langfristig stabilen und verlässlichen Ordnungsrahmen schaffen, um auch zukünftig das energiepolitische Zieldreieck einer sicheren, bezahlbaren und verlässlichen Energieversorgung zu gewährleisten. Insbesondere die Bezahlbarkeit und Verlässlichkeit sind unverzichtbare Voraussetzungen für die Unternehmen in Bayern.

Die energieintensive Industrie muss zum Erhalt ihrer internationalen Wettbewerbsfähigkeit von der EEG-Umlage angemessen entlastet werden – dabei dürfen kleine und mittelgroße gegenüber großen Betrieben nicht benachteiligt werden.

Alles würde also gut werden (können), wenn nur das eigene Klientel nicht davon getroffen wird. Wer es dann bezahlen könnte, ist sonnenklar (Hervorhebungen durch den Autor):

[1]  Aufgrund der genannten Problemfelder besteht beim EEG weiterhin dringender Reformbedarf. Wettbewerbsverzerrungen, Nachteile im globalen Wettbewerb und Verlagerungstendenzen legen eine deutliche Reduzierung oder Abschaffung der EEG-Umlage nahe. Für das EEG-Konto müssen daher neue Finanzierungsquellen gefunden werden.

Dabei sollte es keine Denkverbote geben: Emissionshandel, Energie und Stromsteuer, allgemeiner Haushalt etc. sind als Möglichkeiten zu prüfen.

Es ist jedoch nicht so, dass man nicht auch schwierigere Probleme kennen würde:

[1]  BIHK-Schlussfolgerung zum Energiedialog: Ausbau erneuerbarer Energien

Erneuerbare alleine werden unter den heutigen Bedingungen und nach dem aktuellen Stand der Technik weiterhin nicht in der Lage sein, zu jedem Zeitpunkt im Jahr eine gesicherte Versorgung zu garantieren.

Puh – eine Aussage mit erdrückender Wahrheit. Und nun kommt die Lösung – denkt man (vergebens):

 

[1] BIHK-Schlussfolgerung zum Energiedialog:

Gaskraftwerke zur Reserve, aber keine Subventionen für wirtschaftlichen Betrieb.

Irgendwie dreht sich das Thema nun immer mehr Kreis. Die Wünsche werden zum Vater des Gedankens. Man fragt sich, ob die Zeile darunter den Inhalt der Zeile darüber kennt. 

[1] Als Ersatz für die in den nächsten acht Jahren wegfallenden Kernkraftwerke werden neben den erneuerbaren Energien zahlreiche weitere Optionen benötigt (flexible Gaskraftwerke, Speicher, steuerbare Lasten etc.). Damit hier investiert wird, sind technologieoffene Marktanreize notwendig, die zu möglichst geringen Zusatzkosten führen.

Lösungsansätze, wie der erforderliche Netzausbau werden gelistet. Aber gleichzeitig illusionäre Durchführungsszenarien vorgeschlagen „… Unterstützung aller Positionen….“ usw. Liest niemand der Schreiber eine Tageszeitung? Hat die IHK schon einmal mit Trassengegnern diskutiert, deren Positionen unterstützt und dadurch die „Erlaubnis“ zum Trassenbau erhalten? Zumindest mit den CSU-Bürgermeistern von „Protestgemeinden“ könnte sie das ja einmal üben. 

[1] Der Ausbau der erneuerbaren Energien und ihr wachsender Anteil am Stromverbrauch funktionieren ohne den hierzu notwendigen Netzausbau nicht. 

Der BIHK unterstützt die Position aller Partner des Energiedialogs von Umweltschützern, über Trassengegner bis zur Wirtschaft, dass die Umsetzung des Leitungsausbaus so bürger und landschaftsfreundlich wie möglich erfolgen muss (Masthöhen, Teilerdverkabelung, wo wirtschaftlich darstellbar).raft wurde bestätigt

asserkraft wurde bestätigt. 

Klima- und energiepolitische Zielsetzung auf die Minderung von Treibhausgasemissionen und den Ressourcenverbrauch konzentrieren

Es wiederholt sich das Thema CO2 und Energieeffizienz. Nicht im Ansatz ist eine inhaltliche Reflexion (einer CO2-Reduktion) vorhanden. Man könnte sich vorstellen, dass von einer Kammer, in der zumindest ein Teil der „Intelligenz“ verknüpft ist, wenigstens ein Mal  die Sinnhaftigkeit angesprochen und überprüft wird [7] [8]. Leider – Fehlanzeige.

Auch dieses „strategische Dokument“ klammert die Frage vollkommen aus, weshalb ein deutsches CO2-Vermeidungsziel, welches die Welttemperatur um sagenhafte 0,0005 ºC pa „rettet“ [8] und Milliarden kostet[4], ein Erfolg und Ziel sein soll.

Die ständige Wiederholung nach Energieeffizienz als Heilsbringer kann zudem richtig nerven. Eine Lösung, welche Vergangen geglaubte Ostblock-Not-Verwaltungsmechanismen als zukunftsträchtig propagiert, kann nicht wirklich überzeugen. 

Energieforschung und bayerische Cluster stärken

Leider listen sich die Banalitäten nun weiter. Ein Wunsch-Feuerwerk wird genannt. Dabei wird nirgends erwähnt, dass praktisch alles bereits ausreichend bekannt ist und aus Gründen mangelnder Effizienz, nicht Realisierbarkeit bzw. hoher Kosten schon verworfen wurde[9].

[1] Eine nachhaltige Energieversorgung wirft vielfältige Probleme auf, deren Lösungen erst noch entwickelt werden müssen. Hierbei ist ein besonderes Augenmerk auf Speichertechnologien, verlustarme Netze und Transformatoren, Lastmanagement, Smart-Grid-Lösungen, hocheffiziente Kraftwerke, CO2-arme Brennstoffe und energieeffiziente Querschnittstechnologien zu legen. Forschung muss aber auch stets offen bleiben für völlig neue Lösungen. Erst kürzlich wurde beispielsweise über wesentliche Fortschritte bei der Fusionstechnologie berichtet, wodurch die zukünftige Energieversorgung eine heute noch unerwartete Entwicklung nehmen könnte.

Man muss sich das vorstellen. Wir befinden uns im Jahr 25 nach Beginn der „Energiewende“ [10] und 7 Jahre vor der Abschaltung des letzten bayerischen Kernkraftwerkes. Und nun erzählt eine IHK „ … wirft vielfältige Probleme auf, deren Lösungen erst noch entwickelt werden müssen“ und listet lediglich ein technisches Wunschkonzert dazu. Dabei sind doch die Firmen, welche „… noch entwickeln müssen“ ihre eigenen Mitglieder. Hätte man da nicht mal nachfragen können?

       Speichertechnologien: Es ist sattsam bekannt, welche Problematiken bestehen und dass keine Lösungen vorhanden sind[11][9]. Sogar der zuständige Arbeitskreis des bay. Ministeriums hat es in einem Protokoll hinterlegt:

[15] Fazit: Speicher werden keinen Beitrag zur Deckungslücke bei der erzeugten Strommenge von ca. 40 TWh leisten können

Der IHK ist aber auch keine Lösung eingefallen, sonst hätte sie wenigstens eine Minimalinformation gelistet.

       Verlustarme Netze und Transformatoren: Die gibt es schon länger [12] [13]. Der Einsatz ist aber eine Frage der Kosten. Zudem ist leider bei 100% Wirkungsgrad schluss und der wirkliche Zusatznutzen damit sehr begrenzt, was allerdings nicht für die Kosten gilt. Bei den meisten geht es auch gar nicht um den Wirkungsgrad, sondern um die (sehr teure) Regelbarkeit. Die benötigt man,  um die aufgrund der Ökoeinspeisung stark schwankenden Spannungsebenen übergangsweise noch halten zu können.

       Lastmanagement, Smart-Grid-Lösungen, hocheffiziente Kraftwerke, CO2-arme Brennstoffe und energieeffiziente Querschnittstechnologien:

o   Ein unverbindliches Sammelsurium an Schlagwörtern – aber kein Hinweis auf Sinn und Lösungsumfang.

Im Kern handelt es sich um die teure Verwaltung des selbst erzeugten Energiemangels. Die mangelbedingte Notabschaltung gilt heute im Neusprech als Lastmanagement – ist im Ergebnis aber nicht besser. Und die „Effizienzkeule“, welche im ganzen Dokument laufend „gebetet“ wird, ist vor allem für die Lieferanten hoch effizient.

Die DDR ging danach kaputt, weil sie Mangel erzeugte, aber nicht das Geld hatte, ihn hochtechnologisch zu steuern. Wir erzeugen den Mangel, aber verwalten ihn hoch-technologisch; das soll die Lösung sein.

Verblüffend ist dazu der Hinweis über die Fusionstechnologie und Erfolge bei der Realisierung. Leider fehlt eine Fundstelle dazu. Wie ein Fachmann die Realisierbarkeiten sieht, zeigt Bild 6. Man wird also sicher noch etwas warten müssen, denn in dieser extrem schwierigen Technologie waren bisher alle Erfolgsankündigungen falsch (und eine ohne Quellenangabe hat sowieso den Stand „Hoffnung“ und gehört niemals in ein solches Dokument). Und welche Richtung wirklich eine „… unerwartete Entwicklung nehmen könnte“ ist auch nicht präzise genug um irgendwie planbar zu werden.

 

Bild6 [14] Fusionstechnologie Entwicklungs-Zeitstrahl

Auf ein ganz heikles Thema geht das Dokument ebenfalls nicht ein.

Im Kapitel: Energiemix und Anteil der erneuerbaren Energien sieht man die folgende Grafik:

 

Bild7 [1] Darstellung der EU- EEG-Vorbildländer

Worin besteht der EEG-Erfolg der Vorzeigeländer? 

       Schweden: hat einen Atomstromanteil von 63,7 %[16]. Das ist das Doppelte des höchsten – gewesenen – Atomkraftanteils in Deutschland.

·       Lettland: Hat wenig Industrie. Der Energiemix ist nur unter diesem Gesichtspunkt verständlich. Er würde bei uns zu einer Preis (Gasanteil) und Umweltkatastrophe (Wald nur noch als Energiewald) führen.

 

Bild8 [17] Lettland: Energieverbrauch und –Quellen

       Finnland: hat einen Atomstromanteil von  33 %[16], also aktuell so viel, wie Deutschland um 2000 maximal hatte. Diesen baut es aber weiter aus, anstelle ab:

[18] In den kommenden Jahren will Finnland vor allem Stromkapazitäten in Atommeilern (+2,8 GW), Windparks (+2,1 GW) und Biomassekraftwerken (+0,8 GW) ausbauen

Und das wohl Schlimmste: Das Klimawandel-Bekämpfer-Vorzeigeland USA setzen ebenfalls wieder auf Atom[18]. Obama kann leicht Kohlekraftwerke abschalten, wenn er es durch Atomkraft und mittels Fracking-gewonnener Energie kompensiert. Deutschland macht es auch – Kohlekraftwerke abschalten – der Rest als Lösung fehlt.

Dazu der Verlauf des Atomstromanteils in Deutschland.

 

Bild 9 Verlauf des Atomstrom-Anteils in Deutschland

Nur Deutschland macht also etwas ganz Sonderbares. Die Länder, welche das Gegenteil des deutschen EEG-Atomausstiegs durchführen, sind in der EU Vorzeigeländer. Wir schalten die Atomkraft ab und beklagen uns, die EU-CO2-Richtlinien nicht erfüllen zu können. Der US-Präsident setzt auf Atomkraft und sagt zur deutschen Energiewende:

[18]. „Der Klimaschützer Obama weiß das – und hat deshalb erklärt, er halte Atomkraftwerke für sicher und sauber. Innerhalb der US-Regierung sieht man die Entscheidung von Bundeskanzlerin Angela Merkel, nach dem Unfall in Fukushima den Ausstieg Deutschlands aus der Nuklearenergie festzuschreiben, als Panikreaktion.“

Anstelle dies zu Hinterfragen oder zumindest anzusprechen, wird darüber kein Wort verloren.

Nun wird dieses IHK-Dokument durch die BIHK-Schlussfolgerungen zum Energiedialog Bayern ergänzt[2]. Also  noch darin hineingesehen. Allerdings sind wesentliche Passagen daraus in das Positionspapier 2015 übernommen, weshalb sich darin nicht viel Neues findet. Lediglich ein paar Punkte sind konkretisiert.

BIHK-Schlussfolgerungen zum Energiedialog

 

Fundstellen

 

[2] Ausgangspunkt sind die „Lücken“ von 40 TWh Arbeit und 5 GW gesicherter Leistung im Jahre 2023 (Bedarf in Bayern, gemessen an Erzeugung in Bayern), deren Sicherung durch Netzausbau, Reservekraft, den Ausbau erneuerbarer Energien und Speicher im bayerischen Energiedialog besprochen und überprüft wurde.

 

Das ist nur die halbe Wahrheit. In [5] konnte belegt werden, dass „überprüft“ nur bedeutet, sicher zu sein, keine Lösung gefunden zu haben. Ein bisschen Realitäts-Akzeptanz ist zu finden. Etwas abgewandelt wurden diese (Er-) Kenntnisse in das Hauptdokument übernommen.

 

[2]. Speichertechnologien

Der BIHK stimmt mit der Erkenntnis des Dialogs überein, dass Speichertechnologien bis zur Abschaltung des letzten Kernkraftwerks 2022 nur einen Beitrag zur Stabilisierung der Netze leisten können.

 

 

[2]. Ausbau erneuerbarer Energien

Eine der wichtigsten Erkenntnisse der AG 3 (Ausbau erneuerbarer Energien) für den BIHK ist, dass Erneuerbare alleine unter den heutigen Bedingungen und nach dem aktuellen Stand der Technik weiterhin nicht in der Lage sein werden, zu jedem Zeitpunkt im Jahr eine gesicherte Versorgung zu garantieren.

Zu den Themen Atomkraft und Sinn der CO2-Vermeidung ist auch in diesem Dokument allerdings nichts zu finden.

 

Detailkritiken

 

Im Artikel hat der Autor viel kritisiert  weil er meint,  von einer Industrie und Handelskammer realistische und realisierbare Darstellungen erwarten zu dürfen. Dadurch besteht die Gefahr, dass diese Kritiken als ungerechtfertigte Pauschalurteile betrachtet werden. Anbei deshalb ein paar Konkretisierungen:

 

Im Kapitel „Mehr Wettbewerb und Wirtschaftlichkeit bei erneuerbaren Energien“ steht:

 

[1] Um mehr Wirtschaftlichkeit und Wettbewerb bei den erneuerbaren Energien zu erreichen, muss das Strommarktdesign weiterentwickelt werden. Die Reform des Strommarktdesigns ist nicht vollständig, wenn sie nicht auch die Vermarktung erneuerbarer Energien einbezieht.

 

 „Erneuerbare alleine werden unter den heutigen Bedingungen und nach dem aktuellen Stand der Technik weiterhin nicht in der Lage sein, zu jedem Zeitpunkt im Jahr eine gesicherte Versorgung zu garantieren. Das unter dem gegebenen Ordnungsrahmen nur noch geringe Ausbaupotenzial der grundlastfähigen Technologien Bioenergie, Geothermie und Wasserkraft wurde bestätigt.“

 

Die Wasserkraft ist mit rd. 16,3 Prozent (2013) ein bedeutender Eckpfeiler der Stromerzeugung in Bayern. Ein weiterer Ausbau ist aufgrund hoher ökologischer Einschränkungen begrenzt, aber technisch möglich und sinnvoll. Umweltanforderungen müssen hierfür in einen angemessenen und praktikablen Ausgleich mit den Vorteilen der Nutzung dieser wertvollen erneuerbaren Energie gebracht werden. Die Rahmenbedingungen für die Wasserkraft müssen von der Energiepolitik so gestaltet werden, dass ein sinnvoller Ausbau wieder möglich wird.

 

Mit dieser Darstellung werden zwei Aussagen vermittelt: Die „neuen Energien“ sind nur unwirtschaftlich, weil die Wettbewerbsbedingungen nicht stimmen. Und als Zweites, dass die mit Lösung der Wettbewerbsbedingungen „sinnvoll“ werdenden „grundlastfähigen Technologien“ nur  wegen des „gegebenen Ordnungsrahmens“ nicht ausreichend ausgebaut werden könnten, ein weiterer Ausbau aber „… technisch möglich und sinnvoll wäre“.  Konkretisiert wird dies am Beispiel Wasserkraft.

 

Wasserkraft

Das technische  Ausbaupotential der Wasserkraft beträgt in Bayern 10 %[21]. Aktuell sind es 16,3 %. Also würde  sich der Energieanteil damit um 1,63 % von 16,3 auf 18 % erhöhen. Bei fehlenden 50 %[5]  soll das eine Lösung sein? Für diesen vernachlässigbaren „Vorteil“ von 1,63 % soll die Natur laut der BIHK einfach so geopfert werden?

 

Geothermie

Ihr Anteil an der Stromerzeugung in Bayern ist so gering, dass sie als Position im Energieatlas Bayern nicht auftaucht. Und das hat seinen Grund:

2020 soll laut Planung der Geothermiestrom in Deutschland 1.654 GWh pa[22]  betragen, während die elektrische Energieerzeugung Deutschlands ca. 634 Terawattstunden (TWh) beträgt.

       Der Anteil der Geothermie an der deutschen Stromversorgung beträgt im Jahr 2020 damit ca. 0,00026 % !!!!!

Der Bundesverband Geothermie textet zu diesen Zahlen:

 

[22] Die Geothermie wird im Zusammenspiel mit den anderen Erneuerbaren Energien die Wärme- und Stromversorgung nach und nach von den fossilen Energieträgern (Kohle, Öl und Gas) und der Atomkraft übernehmen. 

 

Mehr Realitätsferne (man könnte auch viel schlimmeres dazu sagen) ist kaum vorstellbar. Beim EEG und auch zur Klimaerwärmung stört das jedoch niemanden. Aber von einer BIHK darf man es verlangen.

 

Bioenergie

Was sagt der Energieatlas Bayern dazu:

 

[23] „Ausgehend vom heutigen Energieverbrauch Bayerns kann Biomasse aus technischer Sicht nur einen kleinen Anteil der Energieversorgung übernehmen (bis zu 10 %).“

 

Dabei sind die gravierenden Umweltprobleme und der geringe, bis gar nicht vorhandene Nutzen noch nicht angesprochen, wie es der NABU in einer Publizierung gut darlegt[24]. Diese alleine sollten einen weiteren Ausbau eher verbieten als unterstützen.

 

Die BIHK bietet damit bezüglich der „erneuerbaren Energien“ ausser  Darlegungen zu Kosten- und Subventions-Betrachtungen bei den wesentlich wichtigeren technischen Details keinerlei schlüssige Lösungen.

 

Speichertechnologien

Dazu listet das Paper[1] außer unverbindlichen Statements nirgendwo eine fundierte Betrachtung. Obwohl genau das Speicherthema technisch gesehen mit das größte Problem gerade der bayerischen Energiewende darstellt, wie man in[5] und auch in den  BIHK-Schlussfolgerungen lesen kann:

.

[2] „Wind und Photovoltaik werden auch künftig keine ausreichenden Beiträge zur Versorgungssicherheit leisten können, wenn keine günstigen und leistungsfähigen Speicher zur Verfügung stehen.“

 

Auch der BIHK ist bestimmt klar, dass ihre Aussage dazu, nur noch etwas forschen zu müssen, allen bisher bekannten Fakten widerspricht und damit ein bewusstes Verharmlosen des wahren Problemzustandes darstellt.

 

Atomkraft

Dazu hätte der Autor eine Stellungnahme erwartet.

Wenn die EEG-Vorzeigeländer und nun auch die USA massiv darauf setzen, sind diese Länder entweder ganz dumm, oder am deutschen Konzept stimmt etwas nicht. Eine technisch orientierte BIHK, welche den deutschen EEG-Weg bedingungslos unterstützt, hat schon die Not, dies auch zu begründen.

 

Wer sagt:

 

[1] „Bayern bleibt Produktionsstandort für Energie und strebt bei der Energiewende die Technologieführerschaft in Wissenschaft und Wirtschaft an.“

 

sollte sich gut überlegen, ob als Technologieführerschaft alleine das Forschen an mittelalterlichen Energiegewinnungsformen zukunftsträchtig sein kann.

 

CO2-Vermeidung

Auch dazu fehlt jegliche Diskussion. Obwohl man zur Kosten- Nutzenberechnung lediglich Grundschulwissen benötigt[8] und man denken sollte, das Ergebnis müsste jeden Laien überzeugen (oder jemand belegt, dass die Abschätzungen falsch sind), wird an keiner Stelle auf den Sinn der politischen Vorgaben eingegangen. Dabei stellt die CO2-Reduktion  die wichtigste Prämisse des EGG dar (die zweite des Atomausstiegs gilt ja vorwiegend nur für Deutschland – und Österreich -).

 

Fazit

 

Die bayerische IHK hat mit ihrer Publizierung die Chance vertan, etwas für die Bürger,  zur Begründng oder zur Realisierung sproblematik  Sinnvolles im Thema Energiewende beizutragen. Sie macht lediglich den Versuch, ihr eigenes Klientel vor den Auswirkungen zu schützen.

 

Der Anspruch

 

[1]Das Papier zieht eine Zwischenbilanz zum Stand der Energiewende nicht nur in Bayern, sondern auch in Deutschland und Europa, im Hinblick auf die Sicherheit und Wirtschaftlichkeit der Energieversorgung und leitet hieraus Handlungsempfehlungen ab.

 

ist nicht ansatzweise erfüllt, außer man würde eine reine Listung, verbunden mit einem Wunschkatalog als Expertise betrachten.

 

Leider wird damit auch exemplarisch vor Augen geführt, dass es wohl keine öffentlich wirkende Institution in Deutschland gibt, welche den EEG- und CO2-Vermeidungs-Unsinn hinterfragen, in Frage stellen oder gar stoppen wollte.

 

Siemens CEO Joe Kaeser macht es vor. Nur im Ausland traut er sich Kritisches darüber zu äußern. Im Inland  fehlt im vollkommen der Mut dazu[20] :„Siemens-Chef Joe Kaeser hat den Beschluss der G7 zum Ausstieg aus den fossilen Energien als "visionäres Ziel" begrüßt“. Die Siemens-Mitarbeiterzeitung liest sich auch entsprechend, als wären Teile davon  von Greenpeace selbst geschrieben (persönliche Meinung des Autors).

 

Eines ist dem Autor beim Analysier-Versuch dieses „EEG-Bilanzdokumentes“ der IHK wieder klar geworden. Ein Politiker mit wenig Zeit und ganz anderen Sorgen (nämlich der seiner Wiederwahl) muss an solchen Dokumenten verzweifeln. Wem es gelingt, herauszulesen was wirklich wichtig wäre und dazu Umsetzbares abzuleiten  ist ein Genie, wer es versucht, ev. ein EIKE-Autor. Aber vielleicht war der Sinn auch nur, das Foto von Bild 1 zu erzeugen.

 

Quellen

[1]

Industrie- und Handelskammern in Bayern. Energiewende. Zwischenbilanz der bayerischen IHKs 2015

 

[2]

BIHK München, 16. Februar 2015. Schlussfolgerungen zum Energiedialog

 

[3]

DIHK Positionspapier Die Energiewende zum Erfolg führen

 

[4]

EIKE 08.08.2015, Blogartikel: Was die Energiewende wirklich kostet

 

[5]

EIKE Blogartikel 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

http://www.eike-klima-energie.eu/energie-anzeige/der-wind-blaest-stetig-die-sonne-steht-still-wenn-mein-starker-arm-es-will-oder-warum-gehen-in-bayern-die-lichter-noch-nicht-aus/

 

[6]

EnergieAgentur.NRW

 

[7]

EIKE Blogbeitrag 30.10.2013: Klaus-Eckart Puls EIKE: CO2 – Gift oder Lebenselixier?

 

[8]

EIKE Blogbeitrag 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

 

[9]

EIKE Blogbeitrag 17.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 2

 

[10]

WIKIPEDIA Energiewende: Obwohl sie in der Öffentlichkeit oft fälschlicherweise mit dem zweiten Atomausstieg 2011 verbunden wird, begann die Energiewende in Deutschland bereits in den 1980er Jahren mit der Förderung von Erneuerbaren Energien und Einstellung neuer Kernkraftwerksprojekte.

 

[11]

Niedersachsen-Studie 2014. Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“

 

[12]

Energiedienst Netze GmbH Rheinfelden. Lagebericht für das Geschäftsjahr 2013: In den neuen Ortsnetztrafostationen werden seit 2012 nur noch verlustarme Transformatoren eingesetzt bzw. beschafft.

http://www.ednetze.de/cms/medienboard/html/EDN_31.12.2013.html

 

[13]

Netzgesellschaft mbH Chemnitz. Publikation: Stromverteilung In Kürze

 

[14]

GüntherPlasmaphysik, ca. 2010. Publikation: Stand der Fusionstechnik

http://www.muenchner-wissenschaftstage.de/2010/upload/download/Hasinger_Stand_der_Fusionstechnik.pdf

[15]

Bayerisches Staatsministerium. Plattform Energiedialog AG 2. Protokoll vom  18.12.2014 zu den Zwischenergebnissen: Beitrag der Speichertechnologien

 

[16]

WIKIPEDIA. Kernenergie nach Ländern

https://de.wikipedia.org/wiki/Kernenergie_nach_L%C3%A4ndern

 

[17]

AHK Deutsch-Baltische-Handelskammer. Publikation: EIGENVERSORGUNG MIT ERNEUERBAREN ENERGIEN IN DER INDUSTRIE IN LETTLAND

 

[18]

German Trade & Invest. Homepageinfo 09.05.2014: Finnland setzt auf Atomkraft, Windparks und Biomasse

http://www.gtai.de/GTAI/Navigation/DE/Trade/Maerkte/suche,t=finnland-setzt-auf-atomkraft-windparks-und-biomasse,did=1008722.html

 

[18]

Südkurier 05.08.2015: Barack Obama sagt Nein zu Kohle und Ja zu Atomkraft.

„Der Klimaschützer Obama weiß das – und hat deshalb erklärt, er halte Atomkraftwerke für sicher und sauber. Innerhalb der US-Regierung sieht man die Entscheidung von Bundeskanzlerin Angela Merkel, nach dem Unfall in Fukushima den Ausstieg Deutschlands aus der Nuklearenergie festzuschreiben, als Panikreaktion.“

http://www.suedkurier.de/nachrichten/politik/Barack-Obama-sagt-Nein-zu-Kohle-und-Ja-zu-Atomkraft;art410924,8054026

 

[19]

Frankfurter Allgemeine 23.04.2015: Ölkonferenz in Houston Siemens-Chef macht Witze über Energiewende

 

[20]

EIKE 10.06.2015: Energiewende schafft Jobs. Im Jobcenter

http://www.eike-klima-energie.eu/energie-anzeige/energiewende-schafft-jobs-im-jobcenter/

 

[21]

34. Dresdner Wasserbaukolloquium 2011 Frank Pöhler: Der Stellenwert der Wasserkraftnutzung in Bayern –  Potentiale und Hemmnisse eines weiteren Ausbaus

 

[22]

Bundesverband  Geothermie, Homepage-Info: Geothermie  in Zahlen

 

[23]

Bayerische Staatsregierung. ENERGIE-ATLAS BAYERN

http://www.energieatlas.bayern.de/thema_biomasse/potenzial.html

 

[24]

NABU 2011. NABU Schleswig-Holstein  5. September 2011.  Agrargasanlagen und Maisanbau. Eine kritische Umweltbilanz

 

 




Sogar Alarmisten sehen Hansens Warnung als Farce an

Die neue Ausarbeitung von Hansen und 16 Co-Autoren, bei letzteren ist das vielleicht die erste für "Klimaforschung", wird von einer PR / Lobbying Firma Glover Park, komplett mit einer Pressemitteilung gefördert. Die Ausarbeitung wurde von einigen der weniger vorsichtigen Medien angepriesen, noch bevor es der Fachzeitschrift- Atmospheric Chemistry and Physics Discussions – zur Verfügung gestellt wurde. Noch wichtiger ist, das die gesamte PR stattfindet, bevor die Ausarbeitung durch ein Peer Review gelaufen ist- ein Prozess der im Gange ist und wahrscheinlich noch Monate dauert. Hansen hat die Umgehung des normalen Peer-Review-Prozess eingestanden, um den im Dezember in Paris erwarteten internationalen Klimavertrag zu beeinflussen.

Hansen und seine Koautoren argumentieren, dass das IPCC und andere Anhänger der anthropogenen Treibhaustheorie zu vorsichtig gewesen seien. Eine Erwärmung von 2 Grad Celsius, oft als "Limit" wie viel Erwärmung die Erde und ihre Bewohner vertragen können, ist "sehr gefährlich". Im Gegensatz zur IPCC-High-End-Schätzung des Meeresspiegelanstiegs von 2,7 Meter bis 2100, projizieren Hansen und seine Kollegen 10 Meter Anstieg bis 2100 mit einem Anstieg von 1,80 m mehr in wenigen Jahrzehnten danach. Die Ausarbeitung suggestiert, künftiger Klimawandel könnte sich in Superstürmen verheerend auf tief liegende Inseln, Küsten und sogar weit im Landesinneren auswirken.

Klingt wie ein vielversprechender Katastrophenfilm, nicht wahr? Ein unternehmungslustiger Regisseur würde es "der Tag vor dem Day After Tomorrow" nennen (mit einem Anklang an South Park [Kinder Komik]).

Die interessanteste Sache bei der neuen Veröffentlichung von Hansen, ist die Reaktion seiner Alarmisten Kollegen.

Die Washington Post zitierte Mann:

"Ihr Klimamodell-Szenario, bei dem das Schmelzwasser von Grönland und der Antarktis durch die Erwärmung der Pole verursacht ist, führt zu einer fast vollständigen Abschaltung des Wärmetransport der Ozeane in höhere Breiten, kühlt die meisten Teile der Welt (vor allem die mittleren Breiten oberhalb der Tropen) und scheint eher weit hergeholt zu sein."

Trenberth schrieb:

"Die Frage ist, wie relevant [die Schätzungen von Hansens et al.] in der realen Welt sind und was geschieht, wenn die globale Erwärmung fortschreitet? Sie scheinen mir überhaupt nicht realistisch. Es gibt viel zu viele Annahmen und Hochrechnungen für alles hier, um ernst genommen zu werden, außer um weitere Studien zu fördern." Er fuhr fort:" Die neue Hansen et al. Studie ist provokant und interessant, aber voll von Spekulationen und "was wäre wenn" -Szenarien. Es hat viele Vermutungen und riesige Hochrechnungen auf der Basis ganz fadenscheiniger Beweise … "

In Bezug auf die Beweise für drohende Superstürme setzt Hansen in erster Linie auf eine einzige umstrittene Ausarbeitung unter Verwendung von Methoden, "die selten in Quaternary Sciences [1] verwendet werden und in der Regel nicht ohne Überprüfung durch andere Verfahren akzeptiert werden.“ so der Geologe Max Engels, Uni Köln, der zusammenfasst: "… meiner Meinung nach, ist Kapitel 2.2 [der Abschnitt über Superstürme] eine etwas einseitige Perspektive auf geologische Beweise für … Mega-Stürme.”

"Das Beste was die Freunde von Hansen in der Verteidigung seiner Veröffentlichung aufbringen können ist“ meint Dr. Mann: „Unabhängig davon, ob all die Besonderheiten der Studie sich als richtig erweisen, haben die Autoren eine absolut kritische Diskussion ausgelöst. "

Lange bevor er die NASA verlies, hörte Hansen auf, ein neutraler Klimaforscher zu sein und wurde ein Umweltaktivist. Mit seiner neuen Veröffentlichung, hat er seinen Titel "Climate Chicken Little in Chief." [etwa: wenig gefragter Chef der Klima Hühner] weiter verteidigt. Er fährt fort, ein unübertroffener Klima Sonderling zu sein.

Erschienen auf Heartland, 31.Juli 2015

Übersetzer Andreas Demmig

http://news.heartland.org/newspaper-article/2015/07/31/even-alarmists-view-hansen-warning-farce

[1] Quelle Wiki.org

Quaternary Science ist ein interdisziplinäres Forschungsgebiet mit Schwerpunkt auf dem Quartär, das die letzten 2.600.000 Jahre umfasst. Die Feldstudien der letzten Eiszeit und des jüngsten Interstadial, das Holozän, nutzen Proxy-Beweise, um die Umgebungen in dieser Zeit der Vergangenheit zu rekonstruieren und die Klima- und Umweltveränderungen die aufgetreten sind.